PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD4850 X2 (P)Review-Thread


Schlammsau
2008-10-28, 19:32:13
Wenn es einen solchen nicht schon gibt.

VR-Zone First Look (http://www.vr-zone.com/articles/sapphire-hd-4850x2-first-look--tested/6157.html)

http://www.abload.de/img/sapphire_4850x2_5meds.jpg

Gast
2008-10-29, 15:26:36
Na hats der Papiertiger nach 2 Monaten auch mal in die Reviews geschafft.

Noch viel Spass mit AFR.

Ringwald
2008-10-29, 16:00:42
Und das Ding ist besser als ne 4870 oder wie jetzt :confused:
Verstehen den Sinn dieser Karte nicht wirklich 100% um ehrlich zu sein.

Gast
2008-10-29, 16:04:54
Verstehen den Sinn dieser Karte nicht wirklich 100% um ehrlich zu sein.
An 2 RV770 verdient AMD mehr als an einer. ;)

Und das Ding ist besser als ne 4870 oder wie jetzt :confused:
FPS mäßig ja, sofern CF mal will.
Spielerisch Nein.

samm
2008-10-29, 19:35:37
Und das Ding ist besser als ne 4870 oder wie jetzt :confused:
Verstehen den Sinn dieser Karte nicht wirklich 100% um ehrlich zu sein.Die GTX 280-Liga :)

Gast
2008-10-29, 19:43:29
Die GTX 280-Liga :)
Was ist mit der?

Vergleichen wir jetzt Äpfel mit Birnen?

Schlammsau
2008-10-29, 20:30:58
Die Karte wird der direkte Gegenspieler zur GTX280. Ungefähr gleicher Preis mit entsprechender Leistung. Finde die Karte gar nicht so uninteressant!

reunion
2008-10-29, 20:36:26
Nein, die Karte wird deutlich billiger als eine GTX280. Mehr als 300€ kann AMD dafür kaum verlangen.

Sorkalm
2008-10-29, 20:52:21
Nein, die Karte wird deutlich billiger als eine GTX280. Mehr als 300€ kann AMD dafür kaum verlangen.

Vergiss nicht den aktuellen Euro-Kurs. Wenn AMD die 100 US-Dollar unter die 4870 X2 ansetzt, was wohl derzeit geplant ist, kommt da gar nicht mehr so viel bei rum, vergleicht man bei den alten Karten die alten Kurse.

Ringwald
2008-10-29, 22:19:48
I see. Ja dann muss die Karte aber imo wirklich Preislich angepasst sein, damit diese interessant bleibt.

Gast
2008-10-29, 22:34:45
Mehr als 300€ kann AMD dafür kaum verlangen.
Stimmt, wer gibt schon so viel Geld für Beta Produkte aus.

Lieber eine 4870 1GiB oder gleiche eine GTX 280.

deekey777
2008-10-29, 22:38:04
Stimmt, wer gibt schon so viel Geld für Beta Produkte aus.

Lieber eine 4870 1GiB oder gleiche eine GTX 280.
Ich hoffe, solche Trollpostings hören endlich auf.

Sorkalm
2008-10-29, 23:01:51
Ja dann muss die Karte aber imo wirklich Preislich angepasst sein, damit diese interessant bleibt.

Bleibt der Kurs so werden eher die anderen Karten mit der Zeit an den Markt angepasst (durch Preiserhöhungen durch die Händler).

Schlammsau
2008-10-30, 07:27:40
Mittlerweile ab 400€ bei Geizhals gelistet.
http://geizhals.at/eu/a378171.html

Gast
2008-10-30, 07:43:35
Noch ein bissel viel.

Schlammsau
2008-10-30, 08:00:44
jupp, ist aber schon immer so gewesen, wenn die Karten noch nicht verfügbar sind. Bei Verfügbarkeit wird sie ganz schnell auf 300€ evtl noch weiter runtergehen.

Brick
2008-10-30, 09:19:01
Sieht nicht schlecht aus, bin sowiso ein ATI Fan ;)
und so lange der Preis stimmt kann man nicht meckern.

Raff
2008-10-30, 09:35:04
Sieht nicht schlecht aus, bin sowiso ein ATI Fan ;)
und so lange der Preis stimmt kann man nicht meckern.

Doch. Wieviel darf eine Karte kosten, deren Frames wegen zwei GPUs fast immer minderwertiger verteilt sind als die einer Solo-GPU? Wieviel darf eine Karte kosten, die je nach Spiel zwischen 100 und 200 Prozent der Leistung einer Solo-GPU-Karte bringt – eher 200 oder eher 400 Euro? Wieviel darf eine Karte kosten, die für maximale Texturqualität nur eine GPU nutzen kann? Es spricht alles gegen eine MGPU-Karte, wenn es für denselben Preis auch eine vergleichbare SGPU-Karte gibt.

Wenn es schlecht läuft, ackert diese Partnerlösung (ergo eine Bastelei) immer wieder unter dem Leistungsniveau der HD 4870, weil der Treiber sie nicht mag. Also ich hab da so einige Bedenken.

MfG,
Raff

Brick
2008-10-30, 10:37:56
Ich werde mir mal ein paar Testergebnisse, Vergleichsergebnisse mit anderen Graka's anschauen. Und die vielleicht mal antesten ob die meinen Ansprüchen gerecht wird ;)

Palpatin@work
2008-10-30, 13:52:30
eher 200 oder eher 400 Euro?
MfG,
Raff
Wie wärs mit genau 300? Würd sie dann aufjedenfall der um 50€ billigeren 4870 1GB vorziehen, hab imo Singel GTX 280 drinnen und hatte 2 x 4850CF drinnen, weiss also in etwas wie das Teil abgehen wird.

Raff
2008-10-30, 13:55:37
300 €uro wären schon mal gut. Aber warum soll der Nutzer so eine X2 kaufen, wenn er auch zwei HD 4850 à jeweils 130 €uro haben und damit eine bestehende Karte aufrüsten kann? Da fallen mir nur zwei Gründe ein: Das Mainboard hat nur einen, oder nur (abgespeckte) PCIe-1.1-Slots.

MfG,
Raff

reunion
2008-10-30, 13:59:41
Die 4850 X2 wird 2 x 1GB VRAM haben, also wären 300€ durchaus angemessen.

Gast
2008-10-30, 14:02:47
300 €uro wären schon mal gut. Aber warum soll der Nutzer so eine X2 kaufen, wenn er auch zwei HD 4850 à jeweils 130 €uro haben und damit eine bestehende Karte aufrüsten kann? Da fallen mir nur zwei Gründe ein: Das Mainboard hat nur einen, oder nur (abgespeckte) PCIe-1.1-Slots.

MfG,
Raff
Naja die 1GB Variante der 4850 bekommst du eben nicht für unter 150 Euro und klar wenn ich ein entsprechendes Mainboard hab mit 2x PCI X16 dann bringt es immer Vorteile auf 2 Karten zu setzten allein schon weil 2 Karten viel leichter zu kühlen sind als eine. 2 x 4850 HD 1024 MB = 310 Euro; 1x 4850X2 2GB = 300 Euro wär durchaus angebracht.

Gast
2008-10-30, 14:08:41
allein schon weil 2 Karten viel leichter zu kühlen sind als eine
Einspruch.
Ein Kühler kostet mich ~80-100€, egal wie viele GPUs und PCBs es sind.

Für 2 Karten wären schon ~160-200€.

Gast
2008-10-30, 14:29:55
Einspruch.
Ein Kühler kostet mich ~80-100€, egal wie viele GPUs und PCBs es sind.

Für 2 Karten wären schon ~160-200€.

Meinte natürlich Luftkühlung.

Gast #2
2008-10-31, 12:45:13
300 €uro wären schon mal gut. Aber warum soll der Nutzer so eine X2 kaufen, wenn er auch zwei HD 4850 à jeweils 130 €uro haben und damit eine bestehende Karte aufrüsten kann? Da fallen mir nur zwei Gründe ein: Das Mainboard hat nur einen, oder nur (abgespeckte) PCIe-1.1-Slots.

MfG,
Raff
Auch Einspruch, mein P5Q hat nen PCIe x16 2.0, die Karte wäre neben einer 4870x2 ( zu teuer ) perfeckt für mein Board.
Auf max 300€ hoff.

dildo4u
2008-11-04, 09:27:35
PCGH-Test: Sapphire Radeon HD 4850 X2

Fazit: Radeon HD 4850 X2
Sapphire veranschlagt laut eigenen Aussagen 390 Euro für die Radeon HD 4850 X2 mit 2 x 1.024 MiByte. Daneben soll eine Version mit zweimal 512 MiByte erscheinen, für die Sie 340 Euro berappen müssen.

Obgleich es die pfeilschnelle 2-GiByte-Version mit Nvidias Geforce GTX 280 aufnehmen kann, ist sie für die unverbindliche Preisempfehlung zu teuer. Die deutlich schnellere HD 4870 X2 ist schon für 20 Euro mehr (410 Euro) zu haben. Ein weiterer Feind von Sapphires X2 sind zwei HD-4850-Einzelkarten mit 1.024 MiByte, die sie zusammen für 320 Euro bekommen.

Sollte sich der Preis für die 2-GiB-Version nach dem Launch unter 350 und die 1-GiB-Karte bei 300 Euro einpendeln, stimmt das Preis-Leistungs-Verhältnis. In diesem Fall füllt die Radeon HD 4850 X2 genau die Lücke zwischen der HD 4870 und ihrem X2-Pendant.

http://www.pcgameshardware.de/aid,665652/Test/Benchmark/PCGH-Test_Sapphire_Radeon_HD_4850_X2/

Megamember
2008-11-04, 14:35:04
Sehr laut, viel zu teuer, oft nicht schneller als Single. Spricht ja nicht viel dafür.

Gast
2008-11-04, 14:40:59
Tja CF halt. ;)
Wenns schon in Standardbenches so versagt, will mans nicht im Reallife spüren.

Länger als die 5870 X2? Irgendetwas ist das schief gelaufen. :confused:

reunion
2008-11-04, 15:05:20
Tja, da gibt es wieder das Problem des schwachen Euros, der neue Produkte im Moment schlecht dastehen lässt.

Kaffetasse
2008-11-04, 15:37:40
Tja CF halt. ;)
Wenns schon in Standardbenches so versagt, will mans nicht im Reallife spüren.

Länger als die 5870 X2? Irgendetwas ist das schief gelaufen. :confused:
Tatsächlich?
Mit meinen beiden Ex R580 waren es gute 12k im 3DMurks06, eine alleine schafft so um die 6-7k. Also schlecht skalieren kann man nicht unbedingt behaupten.
Besseres Beispiel war Oblivion, nahezu Verdopplung der fps in meinem Ex-Sys.

Gast
2008-11-04, 15:46:39
Tatsächlich?
Mit meinen beiden Ex R580 waren es gute 12k im 3DMurks06, eine alleine schafft so um die 6-7k.
Freu dich.
Ich schrieb doch extra Standardbenches (dazu zählt auch 3DMark) und Reallife.

Das ist doch der Sinn des CF, das wenigstens 3DMark rennt, wenn der Rest schon wegen mieser Skalierung, Lag, Mikroruckler und AI Zwang keinen Spass mehr macht.

Schlammsau
2008-11-04, 17:22:15
einen Preis von um die 400€ wird sie nicht lange halten können. Es wird nicht lange dauern und dann wird sie für um die 300€ erhältlich sein. Ihr werdet schon sehen!

Gast
2008-11-04, 17:31:35
Bezweifel ich.
- Auf AMDs Roadmap gabs die Karte schon vor 2 Monaten
- Es gibt nur die Sapphire
- Der $/€ Kurs ist beschissen

Es gibt nur eins, worauf du dich stützen kannst:
- 2x 4850 1GiB gibts für 340€

-> Rechne den Seltenheits-Papiertigerbonus dazu, nimm den $-€ Kurs und wunder dich. ;)

Raff
2008-11-04, 17:31:53
Dann bleibt sie aber ziemlich laut. Hoffentlich schiebt Sapphire ein neues BIOS nach, das die Lüfter zumindest im Leerlauf etwas zügelt.

MfG,
Raff

Schlammsau
2008-11-04, 17:34:23
Bezweifel ich.
- Auf AMDs Roadmap gabs die Karte schon vor 2 Monaten
- Es gibt nur die Sapphire
- Der $/€ Kurs ist beschissen

Es gibt nur eins, worauf du dich stützen kannst:
- 2x 4850 1GiB gibts für 340€

-> Rechne den Seltenheits-Papiertigerbonus dazu, nimm den $-€ Kurs und wunder dich. ;)

ATi ist sehr erfolgreich momentan. Ich rechne damit, dass noch andere Hersteller eine 4850X2 vorstellen werden!
Irgendwo stand, dass ATi es den Herstellern selber überlassen hat, wann sie die Karte bringen.
Das Design sei schon länger verfügbar, jetzt müssen nur noch die Hersteller mitspielen.

Kaffetasse
2008-11-04, 18:05:25
Freu dich.
Ich schrieb doch extra Standardbenches (dazu zählt auch 3DMark) und Reallife.

Das ist doch der Sinn des CF, das wenigstens 3DMark rennt, wenn der Rest schon wegen mieser Skalierung, Lag, Mikroruckler und AI Zwang keinen Spass mehr macht.
Schriebst Du, dass CF schon in Standard-Benches versagt? Ich schrieb eindeutig NEIN und versagt auch nicht in "Real-Life" Anwendung wie ZB Oblivion.
Es gibt genügend Spiele die eindeutig profitieren, aber auch genug die es nicht tun, so what.
Mikroruckler kenn ich leider nicht oder habe kein Empfinden dafür, sry.
Lag? Check mal dein Inet!

Gast
2008-11-04, 18:34:02
Es gibt genügend Spiele die eindeutig profitieren, aber auch genug die es nicht tun, so what.
Achso, dann gibts eben im Schlimmsten Fall eine Karte die langsamer als eine 4850 ist.
Verlangst du so wenig fürs Geld?


Mikroruckler kenn ich leider nicht oder habe kein Empfinden dafür, sry.
http://www.pcgameshardware.de/aid,665652/Test/Benchmark/PCGH-Test_Sapphire_Radeon_HD_4850_X2/?page=10

Lag? Check mal dein Inet! Sehr lustig.
Mit jeder GPU gibts dank AFR einen Frame Lag dazu.

Leonidas
2008-11-05, 12:28:53
weitere Reviews:
Benchmark Reviews (http://benchmarkreviews.com/index.php?option=com_content&task=view&id=244&Itemid=1)
Elite Bastards (http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=633&Itemid=27)
Hexus (http://www.hexus.net/content/item.php?item=16197)
Overclockers Club (http://www.overclockersclub.com/reviews/sapphire_4850x2/)
ProClockers (http://www.pro-clockers.com/reviews/?id=116)
techPowerUp (http://www.techpowerup.com/reviews/Sapphire/HD_4850_X2)

Achtung: Teilweise wurden unterschiedliche Treiber für die 4850X2 und die anderen ATI-Karten benutzt (so gesehen bei techPowerUp).

PCGH_Raffael
2008-11-05, 13:12:08
Achtung: Teilweise wurden unterschiedliche Treiber für die 4850X2 und die anderen ATI-Karten benutzt (so gesehen bei techPowerUp).

Alles andere geht strenggenommen auch nicht. Der von Sapphire mitgelieferte Treiber (v8.542) ist der einzige, der die Karte korrekt befeuert. Vom 8.10 WHQL wird sie nicht erkannt und eine forcierte Installation als HD 4870 X2 sorgt dafür, dass die 4850 X2 nur mit einer GPU rendert. Der Test ist insofern praxisnah, als dass es schlicht keinen anderen Treiber für Käufer der Sapphire-Karte gibt.

MfG,
Raff

PS: Verlink doch bitte unser Review, das immerhin das einzige deutschsprachige ist. ;)

Leonidas
2008-11-05, 15:14:43
Ich bespreche es einfach morgen nochmal, hab ja nun dank deiner Infos einen Aufhänger.

Raff
2008-11-05, 15:38:42
PS:

http://www.pcgameshardware.de/screenshots/medium/2008/11/Sapphire_HD4850_X2_2.jpg

HD 4850 X2 nackt (Detailaufnahmen) (http://www.pcgameshardware.de/aid,665879/Bildergalerie/Sapphire_Radeon_HD_4850_X2_nackt_exklusive_Detailaufnahmen_der_Dual-Grafikkarte/&article_id=665879&image_id=932183)

MfG,
Raff

Schlammsau
2008-11-05, 16:50:52
Zwar noch nicht lieferbar aber jetzt schon für 371€ (http://www.mix-computer.de/html/product/detail.html?artNo=JDXSU2) bei Mix, und für 372€ (http://www.grafikkartenpower.de/shop/catalog/product_info.php?products_id=898&referer=PSM_DE) bei Grafikkartenpower!
Na was habe ich gesagt? ;D

@Raff
dein verlinktes Bild geht nicht!

Gast
2008-11-05, 17:14:37
Die Bridge ist nicht wirklich nackt. ;)

Spasstiger
2008-11-05, 18:23:27
Ich hab einen Algorithmus zur Ermittlung der gefühlten Framerate konzipiert:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940

Wäre mal interessant, was rauskommt, wenn man Frametime-Messungen einer HD 4850/4870 X2 drüberjagt.

Aquaschaf
2008-11-06, 21:38:37
Matlab hat vermutlich auch nicht jeder zur Hand ;) Die Methode liest sich soweit aber sinnvoll, es auf ein paar mehr Frametime-Listen angewendet zu sehen wäre interessant.

Gast
2008-11-06, 21:51:15
Tja, die MultiGPU Besitzer haben jetzt Angst. ;)

Schlammsau
2008-11-06, 21:57:31
Finde es auch sehr interessant, und wie ich sehe ist auch bei starken µR die Differenz nicht so gross, wie von manchen angenommen. Und je höher die Frames, desto kleiner wird die Differenz werden. Ich denke bei 50-60Fps stimmen die angezeigten und gefühlten FPS weitgehenst überein.

Gast
2008-11-06, 22:23:13
Blöd, wenn man gerne mit weniger zockt und den Rest in BQ, wie zb die Texturfilterung stecken möchte.

Raff
2008-11-06, 22:29:29
Finde es auch sehr interessant, und wie ich sehe ist auch bei starken µR die Differenz nicht so gross, wie von manchen angenommen. Und je höher die Frames, desto kleiner wird die Differenz werden. Ich denke bei 50-60Fps stimmen die angezeigten und gefühlten FPS weitgehenst überein.

Jede in Zahlen angezeigte Differenz ist völlig irrelevant. Zahlenwerte sind nur sinnvoll, wenn man beweisen will, was auf dem Schirm für eine Gülle abläuft – beispielsweise, wenn mal wieder die Hälfte der Welt Fakten abstreitet oder ignoriert. Das Mikroruckeln ist vorhanden ... und das ist das einzige, was schmerzt und dementsprechend zählt.

MfG,
Raff

Raff
2008-11-06, 22:38:33
Es gibt Spiele, da werden nie 60 Fps erreicht, etwa weil die CPU limitiert. Außerdem spiele ich beispielsweise auch gerne mal einen SP-Shooter bei 20-30 Fps, wenn die Optik dank Unmengen von (SS)AA und hochwertiger anisotroper Filterung schön knallt. Das geht mit MGPU nicht, weil diese Frameraten hier haken.

Mal abgesehen davon: Merkt ihr nicht, wie absurd das ist? Hey, ab 55,1337 Fps merkt man die Mikroruckler gar nicht mehr, grandios! Die Single-Karte schafft noch 40 Fps, die sich genauso anfühlen. Was kaufe ich: Die Karte für 200 oder die für 400 €uro? Denkt doch mal nach! ;D

MfG,
Raff

Schlammsau
2008-11-06, 22:43:03
Mal abgesehen davon: Merkt ihr nicht, wie absurd das ist? Hey, ab 55,1337 Fps merkt man die Mikroruckler gar nicht mehr, grandios! Die Single-Karte schafft noch 40 Fps, die sich genauso anfühlen. Was kaufe ich: Die Karte für 200 oder die für 400 €uro? Denkt doch mal nach! ;D

MfG,
Raff

Kommt immer drauf an, wie gut MGPU skaliert. Wenn im Schnitt 75% Mehrleistung bei rumkommen, hat sich MGPU schon rentiert!

Und übrigens, bei Geizhals ist schon die 1GB Version ab 333€ gelistet!
http://geizhals.at/eu/a380439.html

Raff
2008-11-06, 22:49:30
Nein. MGPU skaliert selten zu 100 Prozent, manchmal aber schon (nicht nur im 3DMark ;)). Aber: Wenn dabei die Frametimes schwanken wie Geäst bei einem Orkan, ist das einen Scheiß wert. Multi-GPU auf AFR-Basis hatte schon immer das Problem, dass zweifacher Materialaufwand fast nie die doppelte Leistung bringt ... aber dafür kosten MGPU-Karten meist weniger als das Doppelte. Das ist im Grunde das kleinste Problem, denn wer das Schnellste will, muss eben den Topmodell-Aufschlag löhnen. Das sehe ich noch ein. Nicht einsehen werde ich aber, dass man deutlich mehr Kohlen für miese Skalierung und – viel gravierender – minderwertige Frames ausgibt. Denn dafür gibt's keinen logischen Hintergrund. Ich zahle nicht für die angezeigte Framerate, sondern für den gefühlten Effekt – ihr nicht? Und dieser Effekt ist bei einer Single-GPU-Karte immer nahe der Perfektion, wenn man mal von Treiberbugs absieht.

MfG,
Raff

Schlammsau
2008-11-06, 22:58:18
Nein. MGPU skaliert selten zu 100 Prozent, manchmal aber schon (nicht nur im 3DMark ;)). Aber: Wenn dabei die Frametimes schwanken wie Geäst bei einem Orkan, ist das einen Scheiß wert. Multi-GPU auf AFR-Basis hatte schon immer das Problem, dass zweifacher Materialaufwand fast nie die doppelte Leistung bringt ... aber dafür kosten MGPU-Karten meist weniger als das Doppelte. Das ist im Grunde das kleinste Problem, denn wer das Schnellste will, muss eben den Topmodell-Aufschlag löhnen. Das sehe ich noch ein. Nicht einsehen werde ich aber, dass man deutlich mehr Kohlen für miese Skalierung und – viel gravierender – minderwertige Frames ausgibt. Denn dafür gibt's keinen logischen Hintergrund.

MfG,
Raff


Du übertreibst! Ich habe MGPU eine zeitlang genutzt und konnte mit 2 Karten Auflösungen und Settings nutzen, die mit nur einer Karte des gleichen Typs, unspielbar gewesen wären!
Crysis@DX9 und meiner Config + 4xAA war auf einer 3870 unspielbar! Mit 2 Karten konnte ich es Butterweich zocken. Und da war es mir egal, ob sich 40 FPS wie 35FPS anfühlten. Gegenüber 25FPS mit einer Karte war es ein richtig grosser Sprung.
Aber bei einem muss ich dir rechtgeben, MGPU Karten zu teuer!

Raff
2008-11-06, 23:04:20
Jeder wie er will. Ich hab's nach dem Launch der HD 4870 X2 aufgegeben, Missionierung zu betreiben und mich ernsthaft über den Mist aufzuregen. Die Fakten sind bekannt und bedürfen daher bei jeder neuen MGPU-Karte der Erwähnung. Dank der Macht der Psychologie oder mangels Direktvergleichen werden die Probleme immer noch für nichtig erklärt. Ok!

Es ist bestimmt möglich, sich mit der Holzhammermethode – dem Kauf einer solchen Karte – die gute Fps-Qualität einer Solo-GPU aus dem Gedächtnis zu prügeln. Der Mensch gewöhnt sich an so manchen Missstand. Auch ist es möglich, sich dank des Placebos "Ich hab zwei GPUs, also läuft das besser" die Spielbarkeit flüssig zu denken. Die Tatsachen bleiben jedoch.

MfG,
Raff

Spasstiger
2008-11-06, 23:11:09
Matlab hat vermutlich auch nicht jeder zur Hand ;) Die Methode liest sich soweit aber sinnvoll, es auf ein paar mehr Frametime-Listen angewendet zu sehen wäre interessant.
Ich müsste meinen Algorithmus halt noch irgendwie kalibrieren, ich kann ja an des Basis der Potenz und an der Normierung drehen. Bisher scheint mir der Algorithmus noch etwas zu optimistisch zu sein.
Vielleicht ist ja der Mikroruckler-Tester aus dem Computerbase-Forum ein guter Anfang für die Kalibration. Wobei ich so den Algorithmus auch nur auf meine Wahrnehmung anpassen kann.
Aber zumindest kann man mit dem Algorithmus schnelle Vergleiche zwischen verschiedenen Grafiklösungen anstellen, auch wenn der berechnete fps-Wert nicht unbedingt der eigenen Wahrnehmung entspricht. Trotzdem sieht man so, wo Mikroruckeln stärker und wo schwächer auftritt. Ideal für Treibervergleiche, etc.

Vielleicht sollte ich den Algo mal in Javascript umsetzen und irgendwo hochladen, damit er mehr Anklang findet.

Gast
2008-11-07, 00:57:36
Langsam geht's unter 300 =)
http://geizhals.at/eu/a380439.html

Schlammsau
2008-11-07, 08:04:46
Ich müsste meinen Algorithmus halt noch irgendwie kalibrieren, ich kann ja an des Basis der Potenz und an der Normierung drehen. Bisher scheint mir der Algorithmus noch etwas zu optimistisch zu sein.
Vielleicht ist ja der Mikroruckler-Tester aus dem Computerbase-Forum ein guter Anfang für die Kalibration. Wobei ich so den Algorithmus auch nur auf meine Wahrnehmung anpassen kann.
Aber zumindest kann man mit dem Algorithmus schnelle Vergleiche zwischen verschiedenen Grafiklösungen anstellen, auch wenn der berechnete fps-Wert nicht unbedingt der eigenen Wahrnehmung entspricht. Trotzdem sieht man so, wo Mikroruckeln stärker und wo schwächer auftritt. Ideal für Treibervergleiche, etc.

Vielleicht sollte ich den Algo mal in Javascript umsetzen und irgendwo hochladen, damit er mehr Anklang findet.

Als Basis gelten nur die FRAPS Messungen? Hmmm......du hast aber schon mitbekommen, dass diese Maessungen ungenau sein können!

Spasstiger
2008-11-07, 16:01:33
Als Basis gelten nur die FRAPS Messungen? Hmmm......du hast aber schon mitbekommen, dass diese Maessungen ungenau sein können!
Kennst du eine andere Möglichkeit, die Frametimes aufzuzeichnen?

Gast
2008-11-07, 17:16:32
Kennst du eine andere Möglichkeit, die Frametimes aufzuzeichnen?

die einzige möglichkeit wäre das signal am ausgang abzufangen und zu analysieren. alle anderen messungen "von außen" (dh. nicht vom grafiktreiber selbst) sind wertlos.

Spasstiger
2008-11-07, 17:34:10
die einzige möglichkeit wäre das signal am ausgang abzufangen und zu analysieren. alle anderen messungen "von außen" (dh. nicht vom grafiktreiber selbst) sind wertlos.
D.h. alle FPS-Anzeigen (mit schneller Aktualisierung) sind fürn Arsch?

Ronny G.
2008-11-07, 18:03:03
Ich war mit meinem CF auch nicht wirklich zufrieden, gut die Paarung von HD4870 und HD4850 war nicht optimal, das hat aber nix mit den Microrucklern zu tun, und ja das ganze hat sich teilweise bei weit über 30fps teilweise sehr ruckelig angefühlt, ab 60fps ging es dann.

Viel mehr am CF hat mich aber der Support unter den Anwendung, sprich Games gestört, selbst in so manch aktuellen Titeln muckte es bei mir rum, z.b. Dead Space war so ein fall, es lief mit einer Karte besser als mit zwei. Und immer das Theater mit dem Testen jeder neuen Anwendung mit Patch XY + Treiber XY auf CF-Funktionalität bzw. dessen Skallierung nervt echt mit der Zeit.
Deswegen eine Starke Single GPU und Fertig ist der Brei, klar zum Benchen kann Multi-GPU auf dem Blatt schon verdammt gut aussehen.

Mich wundert aber was ATi momentan an verschieden Karten hervor zaubert, da fehlt einem Langsam der Überblick, gerade nach unten Richtung Mainstream wird noch mal genauso Unübersichtlich, für mich hat z.b die HD4830 genauso wenig Sinn wie die HD4850X2, das sind Lückenfüller für Lücken die garnicht wirklich existieren.

noch ein Gast
2008-11-07, 23:01:04
D.h. alle FPS-Anzeigen (mit schneller Aktualisierung) sind fürn Arsch?Generell alle Samples, die nicht extern gemessen werden, sind für den Arsch. Ob diese Samples nun Screenshots sind oder Videos oder Tabellen mit Messwerten ist absolut irrelevant. Man stelle sich einfach mal vor, der Geschwindigkeitsweltrekord für Landfahrzeuge wäre definiert über den im Fahrzeug verbauten Tacho: Ich könnte dann problemlos mit einem dampfgetriebenen Trecker alle Rekorde brechen. Müsste ja nur den Tacho manipulieren...

Schlammsau
2008-11-08, 09:20:14
D.h. alle FPS-Anzeigen (mit schneller Aktualisierung) sind fürn Arsch?

Nicht direkt aber man kann davon ausgehen, dass sie nicht 100% stimmen.

tombman
2008-11-08, 09:29:47
Die Karte ist unnötig, da kauft man gleich eine GTX280 und hat Phys-X dabei...

HD4870X2 lohnt sich 10x mehr...

Schlammsau
2008-11-08, 09:52:59
Die Karte ist unnötig, da kauft man gleich eine GTX280 und hat Phys-X dabei...

HD4870X2 lohnt sich 10x mehr...

Gibt es eine GTX280 schon für ~300€?

Die billigste lieferbare GTX280 leigt bei ~350€ (http://web.hoh.de/hoh/(S(poyk0v55cotxlei1ltbg0pbd))/default.aspx?TY=item&ST=1&IT=74414&CT=6855). Quelle: Geizhals

Spasstiger
2008-11-08, 11:30:00
Gibt es eine GTX280 schon für ~300€?

Die billigste lieferbare GTX280 leigt bei ~350€ (http://web.hoh.de/hoh/(S(poyk0v55cotxlei1ltbg0pbd))/default.aspx?TY=item&ST=1&IT=74414&CT=6855). Quelle: Geizhals
Die 50€ wären es mir wert, keine Mikroruckler und 100%-ige Skalierung in allen Games zu haben.
Ich finde auch, dass sich erst die HD 4870 X2 lohnt, weil diese auch tatsächlich fast immer schneller ist als die GTX 280.

Generell alle Samples, die nicht extern gemessen werden, sind für den Arsch. Ob diese Samples nun Screenshots sind oder Videos oder Tabellen mit Messwerten ist absolut irrelevant. Man stelle sich einfach mal vor, der Geschwindigkeitsweltrekord für Landfahrzeuge wäre definiert über den im Fahrzeug verbauten Tacho: Ich könnte dann problemlos mit einem dampfgetriebenen Trecker alle Rekorde brechen. Müsste ja nur den Tacho manipulieren...
Ähm, der Vergleich mit dem Trecker ist wohl daneben. Die fps-Anzeige-Tools bemühen sich, möglichst akkurat zu sein und haben ganz sicher nicht das Ziel, dem User falsche Werte unterzujubeln.
Bei einer externen Messungen hast du - zumindest bei den heutigen sample&hold-type-Bildschirmen - das Problem, dass die Bilder alle in exakt gleichen Abständen angezeigt werden. Die Bild enthalten aber wegen Tearing Informationen von unterschiedlichen Zeitpunkten. Diese Information kann zeitnah oder bis zu 1/Wiederholfrequenz verspätet sein. Wenn allerdings wegen einer unbewegten Szene kein Tearing auftritt, ist es nicht möglich, festzustellen, zu welchen Zeitpunkten die Informationen auf dem Bildschirm gehören. Man könnte das zwar durch VSync mit Tripelbuffering umgehen, aber dann holt man sich automatisch Mikroruckeln ins Haus, weil die Grafikkarte alle zwei Frames Informationen zurückhält (und zwar um mehr als 1/Wiederholfrequenz).

tombman
2008-11-08, 11:33:52
Gibt es eine GTX280 schon für ~300€?

Die billigste lieferbare GTX280 leigt bei ~350€ (http://web.hoh.de/hoh/(S(poyk0v55cotxlei1ltbg0pbd))/default.aspx?TY=item&ST=1&IT=74414&CT=6855). Quelle: Geizhals
Da ist die Antwort:
Die 50€ wären es mir wert, keine Mikroruckler und 100%-ige Skalierung in allen Games zu haben.
Ich finde auch, dass sich erst die HD 4870 X2 lohnt, weil diese auch tatsächlich fast immer schneller ist als die GTX 280.
Ganz genau. Sich wegen 50€ CF aufhalsen? NEVER ;)

Gast
2008-11-08, 11:45:31
Die 50€ wären es mir wert, keine Mikroruckler und 100%-ige Skalierung in allen Games zu haben.
Ich finde auch, dass sich erst die HD 4870 X2 lohnt, weil diese auch tatsächlich fast immer schneller ist als die GTX 280.

nicht zu vergessen immer noch keine manuelle kontrolle über die profile zu haben und wenn man die maximal mögliche qualität auswählt geht kein CF mehr.

das muss man echt mal nachdenken, da bekommt man eine der schnellsten grafikkarten der welt und kann dann nichtmal die maximal mögliche qualität die einem ATI zugesteht auswählen, weil dann ja kein CF mehr funktioniert.

Spasstiger
2008-11-08, 11:52:59
Das Forum hatte wohl gerade eben einen Hänger. Habs selbst auch gemerkt, aber nur beim Editieren. ;)

Ein weiterer Pluspunkt für die GTX 280 ist übrigens auch die Leistungsaufnahme, die durchgehend unter dem Niveau der HD 4850 X2 liegt. In Punkto Energieeffizienz liegt ein System mit der GTX 280 im Benchmarkparcour von techPowerUp um rund 14% vor einem System mit der HD4850 X2:
http://www.techpowerup.com/reviews/Sapphire/HD_4850_X2/27.html

Gast
2008-11-08, 18:22:32
Ähm, der Vergleich mit dem Trecker ist wohl daneben. Die fps-Anzeige-Tools bemühen sich, möglichst akkurat zu sein und haben ganz sicher nicht das Ziel, dem User falsche Werte unterzujubeln.Damit entsprechen sie einem nicht manipulierten Tacho. Dem kann man allerdings auch ein Getriebe vorschalten, welches die Messwerte wieder zu sinnlosem Zahlensalat macht. Um mal wieder von der Analogie zum eigentlichen Thema zurückzufinden, dies muss nicht zwangsläufig mit Betrugsabsicht geschehen. Um von einem mikroruckelnden FPS-Verlauf auf einen konstanten zu kommen kann es durchaus sinnvoll sein, dem Restsystem "falsche" Daten zu verfüttern, je nachdem, wie die Engine reagiert. Letztendlich machen die 3rd-Party-Framerateglätter nix anderes. Daher ist Vertrauen in systeminterne Messwerte selbst dann ein prinzipieller Fehler, wenn wirklich niemand versucht zu betrügen.
Bei einer externen Messungen hast du - zumindest bei den heutigen sample&hold-type-Bildschirmen - das Problem, dass die Bilder alle in exakt gleichen Abständen angezeigt werden. Die Bild enthalten aber wegen Tearing Informationen von unterschiedlichen Zeitpunkten. Diese Information kann zeitnah oder bis zu 1/Wiederholfrequenz verspätet sein. Wenn allerdings wegen einer unbewegten Szene kein Tearing auftritt, ist es nicht möglich, festzustellen, zu welchen Zeitpunkten die Informationen auf dem Bildschirm gehören. Man könnte das zwar durch VSync mit Tripelbuffering umgehen, aber dann holt man sich automatisch Mikroruckeln ins Haus, weil die Grafikkarte alle zwei Frames Informationen zurückhält (und zwar um mehr als 1/Wiederholfrequenz).Ohne Vsync ist eh keine wirklich flüssige Bildfolge möglich; mit Vsync und TB nur dann, wenn der zweite Backbuffer sinnlos Speicher frisst und Latenz induziert, da die FPS am Vsync kleben. Wirklich flüssig kanns immer nur bei FPS=Hz sein, weil ansonsten selbst CRTs zu sample&hold-Displays werden. Soweit zur optischen Flüssigkeit.

Eigentlich geht es aber um flüssige Spielbarkeit, daher sollte die Latenz gemessen werden. Je mehr diese vom Durchschnitt abweicht, desto schwieriger ist das Spiel zu kontrollieren. Auch die Höhe der Latenz ist natürlich wichtig, allerdings kann man eine konstante Latenz relativ gut kompensieren. Ist die Latenz schwankend kann sie nicht kompensiert werden.

Schlammsau
2008-11-08, 21:43:13
Dafür sprechen DX10.1, wenn CF gut skaliert die sogar höhere Performance, und der hoffentlich bald niedrigere Preis!

und mittlerweile kann keiner mehr sagen, DX10.1 ist tot!
Assassins Creed, Far Cry 2 und Stalker CS unterstützen mittlerweile schon 10.1!
Und einige Spiele, die es nutzen werden, sind auch schon angekündigt.

Gast
2008-11-08, 23:21:34
Assassins Creed, Far Cry 2 und Stalker CS unterstützen mittlerweile schon 10.1!

AC? :eek:

Naja, die Vorteile die .1 bei den 2 anderen Titel bringt gibts auch mit .0, kann ja nicht so wichtig sein.

Ronny G.
2008-11-09, 13:42:55
Dafür sprechen DX10.1, wenn CF gut skaliert die sogar höhere Performance, und der hoffentlich bald niedrigere Preis!

und mittlerweile kann keiner mehr sagen, DX10.1 ist tot!
Assassins Creed, Far Cry 2 und Stalker CS unterstützen mittlerweile schon 10.1!
Und einige Spiele, die es nutzen werden, sind auch schon angekündigt.

Wenn es dann mal skaliert geht CF schon massiv ab, aber das eben nicht immer so, geschätzt jede 2.Anwendung zickte bei mir rum, dazu habe ich CF unter XP nie richtig zum laufen bekommen.

Die DX10 + DX10.1 sind eh fürn po, die hätten sie gleich überspringen können, meist miese Performance + minimale Optische verbesserungen, was mich bei den DX10 effekten noch am meisten beeindruckt hat war der Regentropfeneffekt bei Stalker CS, das war es dann aber auch schon.

In meinen Augen ist die Beste Karte momentan die HD4870 was P/L angeht.

Gast
2008-11-09, 13:52:26
Wenn es dann mal skaliert geht CF schon massiv ab, aber das eben nicht immer so, geschätzt jede 2.Anwendung zickte bei mir rum, dazu habe ich CF unter XP nie richtig zum laufen bekommen.

WinXP wird bei ATI, insbesondere was CF angeht, schon lange sträflich vernachlässigt.

Gast
2008-11-09, 15:38:28
WinXP wird bei ATI, insbesondere was CF angeht, schon lange sträflich vernachlässigt.
Tja und das nennt man dann ach so tolle Treiberunterstützung.
AMD unterstützt ja alte Karten so gut und Nvidia ist böse, bremst alles altes natürlich um 5000% aus.

Black-Scorpion
2008-11-09, 16:56:06
AC? :eek:

Naja, die Vorteile die .1 bei den 2 anderen Titel bringt gibts auch mit .0, kann ja nicht so wichtig sein.
Es gibt nicht alles.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6870257&postcount=201

Gast
2008-11-09, 17:01:20
Es gibt nicht alles.
Was fehlt? Mit konkreten Beispiel bitte.

Gast
2008-11-09, 17:07:02
Tja und das nennt man dann ach so tolle Treiberunterstützung.
AMD unterstützt ja alte Karten so gut und Nvidia ist böse, bremst alles altes natürlich um 5000% aus.
Bei Amd brennt es halt finanziell ein bisschen, da kann man nicht mehr so viel Manpower auf ein Randgruppe legen. CF-Nutzer sind ja eh schon eine Randgruppe, aber CF-User, die gleichzeitig XP nutzen, dürfte noch viel geringer sein. Der Großteil des CF-Klientels hat Vista und zwar aus dem Grund, nicht weil sie es unbedingt brauchen bzw. das bessere Betriebssystem ist, sondern weil es neuer ist und anders aussieht. Psychologie halt, Multi-GPU und vor allem CF sind Optionen, die nur psycholgisch einen Nutzen haben. Man fühlt sich einfach besser, wenn sich die Frames verdoppeln, da sind Mikroruckler völlig egal. Hauptsache es sieht gut aus und braucht viel Strom, da man kann wenigstens gleich ein neues Netzteil hinzukaufen. Um Praxisnutzen gehts eh nicht mehr, hat ja eh keinen. SLi kann man ja bedingt noch einen zusprechen, krankt aber auch an Mikrorucklern und führt das ganze eigentlich ad absurdum. Aber CF ist ja wirklich von vorne bis hinten vergeigt worden und ein Fortschritt ist da auch nicht erkennbar. Das weiß natürlich Amd auch selbst und dementsprechen vermarkten sie den Krempel. Vielleicht sollten se den X2-Karten einen Stromgutschein dabei legen, so als Art Schmerzensgeld. ;D

Gast
2008-11-09, 17:39:25
Bei Amd brennt es halt finanziell ein bisschen, da kann man nicht mehr so viel Manpower
Schön und gut, aber das heiligt noch nicht diese Lügen über die bösen Nvidia Treiber.

Und es geht ja nicht nur um CF, da wäre die AI Geschichte, AA Support, AAA, Profilverwaltung, ....

Gast
2008-11-09, 19:35:19
Der Großteil des CF-Klientels hat Vista

das bezweifle ich ehrlich gesagt, auch wenn die verbreitung von vista bei CF-nutzern sicher größer als bei der allgemeinheit ist gibt es sicher noch jede menge, wahrscheinlich sogar die mehrheit, welche XP nutzen.

CF hat eben den hauptzweck benchmarks zu gewinnen und diese werden großteils mit vista gemacht -> ziel erfüllt ;)

Gast
2008-11-09, 19:37:52
Das Ziel Benchmarks zu gewinnen verfolgt AMD nicht nur mit CF. ;)

Ist halt schade um den Anwender.

Gast
2008-11-20, 01:25:52
Endlich gibt es ein erstes, deutschsprachiges Review zur Karte! Zeigt gut die Schwächen und Stärken dieser vaganten Lösungen.

Die Performance ist erstaunlich gut...

Klick (http://www.hardware-infos.com/tests.php?test=49)

Schlammsau
2008-11-20, 07:53:36
Endlich gibt es ein erstes, deutschsprachiges Review zur Karte! Zeigt gut die Schwächen und Stärken dieser vaganten Lösungen.

Die Performance ist erstaunlich gut...

Klick (http://www.hardware-infos.com/tests.php?test=49)
nö das zweite....PCGH hat schon vor knapp einem Monat nen Test gemacht!
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6889753#post6889753

Gast
2008-11-20, 16:09:35
Mehr als ein Kurztest war das aber leider nicht...

horn 12
2008-12-02, 21:26:32
Preis geht nach unten, :biggrin:verkauft sich wohl net gerade gut,:mad::mad: ca. 350 Euro nun.
Wetten der Preis ist bald bei ca. 300 Euro,:eek::eek::cool:
ABER Karte ist einfach Extremst lang, ca. 30cm!! und recht laut noch dazu. Wird daher enorm schwer sein die Karte abzusetzen...
Der Schuss ging wohl eher nach hinten ab bei dieser X² Karte!

Schlammsau
2008-12-02, 21:38:12
Nur weil der Preis nach unten geht, verkauft sie sich schlecht? Die normalen HD4xxx Karten werden auch immer billiger, obwohl sie weggehen wie warme Semmeln.

Tarkin
2008-12-11, 19:59:55
http://www.firingsquad.com/hardware/sapphire_radeon_4850_x2_review/default.asp

der erste Test einer X2 mit Catalyst 8.12 - und endlich mal mit angemessenen Einstellungen! :)

geteste wurden auf der ATi-Seite: 4850 512MB, 4870 1024MB, 4850X2 und 4870X2

nVidia: GTX 280, GTX 260 216, 9800 GTX+ (und in SLi)

Unyu
2008-12-11, 22:14:18
8xAA und sinnvoll? :rolleyes:
Hätte man wenigstens keine Geforces getestet wärs ok. :rolleyes:

Megamember
2008-12-11, 22:16:58
Nicht schlecht. Mich würde mal ein Vergleich mit der 4850X2 1GB interessieren. Gibts schon ab 280.

deekey777
2008-12-11, 22:27:48
8xAA und sinnvoll? :rolleyes:
Hätte man wenigstens keine Geforces getestet wärs ok. :rolleyes:
Ja, ist sinnvoll.

Gast
2008-12-11, 22:38:13
Ja, ist sinnvoll.

auf der Geforce aber nicht, sinnvoll ist da höchstens 16x (schneller und schöner als 8xQ), 16xQ oder 8xS.

sehr "sinnvoll" auch crysis nicht mit VeryHigh zu testen.

deekey777
2008-12-11, 22:44:43
16x ist 4xMSAA, was soll daran sinnvoll sein?

Gast
2008-12-11, 22:53:08
8xAA und sinnvoll? :rolleyes:
Hätte man wenigstens keine Geforces getestet wärs ok. :rolleyes:
8aa wurde doch nur bei Spielen verwendet wo die fps sowieso ziemlich hoch sind.

Gast
2008-12-11, 22:54:25
16x ist 4xMSAA, was soll daran sinnvoll sein?

Ist ein guter Kompromiss zu günstigen Konditionen was soll daran schlecht sein? Ist besser als irgendwelche Blurmodis.

LovesuckZ
2008-12-11, 22:54:39
Ja, ist sinnvoll.

Nein ist nicht sinnvoll - jedenfalls auf einer nVidiakarte. ;)

deekey777
2008-12-11, 23:02:34
Nein ist nicht sinnvoll - jedenfalls auf einer nVidiakarte. ;)
Was also daran nicht sinnvoll mit einer GTX280 in L4D mit 8xMSAA oder gar 16xQ zu spielen?
Nur weil das Design verbockt wurde, müssen die Tester ihre Tests mit 4xMSAA durchführen? Aber was rede ich da, jetzt kommt wieder "Dann muss auch ohne AI getestet werden".

LovesuckZ
2008-12-11, 23:11:55
Was also daran nicht sinnvoll mit einer GTX280 in L4D mit 8xMSAA oder gar 16xQ zu spielen?
Nur weil das Design verbockt wurde, müssen die Tester ihre Tests mit 4xMSAA durchführen? Aber was rede ich da, jetzt kommt wieder "Dann muss auch ohne AI getestet werden".

Nichts, aber wieso sollte der jenige dann mit Quality spielen? :confused:
Oder wieso darf er jenige keine gleichwertige HQ Filterung auf AMD Karten erwarten? :confused:
Schon paradox, dass nVidia für Kundenfreundlichkeit bestraft wird. Aber so ist es eben, der User erkennt natürlich den Unterschied zwischen 8xMSAA und 16xCSAA in aberwitzigen hohen Auflösungen. Dagegen sollen ihm flimmernde Texturen nicht auffallen... :rolleyes:
Aer ich zitiere dich gerne zum Ende einmal:
"Nur weil das Design verbockt wurde, müssen die Tester ihre Tests mit [A.I Default] durchführen?"

Unyu
2008-12-11, 23:19:31
Was also daran nicht sinnvoll mit einer GTX280 in L4D mit 8xMSAA oder gar 16xQ zu spielen?
16xQ wurde nicht mitgetestet.

deekey777
2008-12-11, 23:40:22
Nichts, aber wieso sollte der jenige dann mit Quality spielen? :confused:
Oder wieso darf er jenige keine gleichwertige HQ Filterung auf AMD Karten erwarten? :confused:
Schon paradox, dass nVidia für Kundenfreundlichkeit bestraft wird. Aber so ist es eben, der User erkennt natürlich den Unterschied zwischen 8xMSAA und 16xCSAA in aberwitzigen hohen Auflösungen. Dagegen sollen ihm flimmernde Texturen nicht auffallen... :rolleyes:
Aer ich zitiere dich gerne zum Ende einmal:
"Nur weil das Design verbockt wurde, müssen die Tester ihre Tests mit [A.I Default] durchführen?"


Du hast seit Monaten nicht erklärt, was die Kantenglättung mit Filterung zu tun hat, bringst den selben Mist immer, wenn es um Kantenglättung geht.
Nochmal: Es geht um Kantenglättung. Und man holt sich eine Enthusiast's Graphics Card nicht, um mit 4xMSAA zu spielen.
In L4D kommt die GTX280 mit 8xMSAA locker in den gewünschten Frame-Bereich. Aber halt, sie unterliegt ja selbst HD4870. Also ist 8xMSAA sofort nicht sinnvoll.

Nur zu deiner Kenntnis: HL2 CM9 habe ich mit 8xMSAA (+QAAA) durchgespielt - mit einer HD3850. Und du kannst dich bestimmt erinnern, dass Kantenglättung aufgrund mehrerer Fehler beim R600/RV670 nicht die beste Wahl ist.
Aber die vermeintlichen Käufer einer GTX280 dürfen keine Tests mit 8xMSAA sehen...

Gast
2008-12-11, 23:43:50
Nichts, aber wieso sollte der jenige dann mit Quality spielen? :confused:
Oder wieso darf er jenige keine gleichwertige HQ Filterung auf AMD Karten erwarten? :confused:
Schon paradox, dass nVidia für Kundenfreundlichkeit bestraft wird. Aber so ist es eben, der User erkennt natürlich den Unterschied zwischen 8xMSAA und 16xCSAA in aberwitzigen hohen Auflösungen. Dagegen sollen ihm flimmernde Texturen nicht auffallen... :rolleyes:
Aer ich zitiere dich gerne zum Ende einmal:
"Nur weil das Design verbockt wurde, müssen die Tester ihre Tests mit [A.I Default] durchführen?"
Kann dir nicht ganz folgen...
Ein Tester muss versuchen eine möglichst vergleichbare BQ beim Testen zu erreichen und das sind die Defaulteinstellungen beim AF. Oder hast du einen Modus, der die Vergleichbarkeit noch besser rüber bringt?
Würde sicherlich einige Redakteure freuen. Aber den hast du sicherlich nicht...
Und wenn man höher als 4xMSAA vergleichen will, dann ist 8xMSAA der Modus, wo man am Besten vergleichen kann (Stichwort - beste Vergleichbarkeit). Oder was schlägst du über 4xMSAA vor?
Sicherlich nichts... :rolleyes:

Sven77
2008-12-11, 23:57:02
Es ist immer das gleiche.. der eine testet nur 4xAA dann motzen die Roten, bei 8xAA die Grünen. Ein differenzierter Test mit allen Modi gibts selten, und wenn dann ist er gekauft (CB). Der Test ist soweit ok, um die X2 einzuschätzen, Vergleichbarkeit mit den Nvidiakarten liefert er aber nicht, da keiner mit Nivida 8xQ benutzt. Aber ist eben wieder das alte Balkenspiel..

LovesuckZ
2008-12-12, 00:09:38
Du hast seit Monaten nicht erklärt, was die Kantenglättung mit Filterung zu tun hat, bringst den selben Mist immer, wenn es um Kantenglättung geht.
Nochmal: Es geht um Kantenglättung. Und man holt sich eine Enthusiast's Graphics Card nicht, um mit 4xMSAA zu spielen.

Habe ich. Schon oft. Du nimmst es nur nicht an. ;)
Wenn sie nichts zu tun haben, können sie auch nicht gleichzeitig verwendet werden. Und in dem Test geht es nicht um Kantenglättung. Jedenfalls wird weder im Text von einem Kantenglättungstest geschrieben, noch sind die anderen Einstellung mitgetestet wurden.
Was will er also in seinem Test dastellen, der Mister Firingsquad? :confused:


Nur zu deiner Kenntnis: HL2 CM9 habe ich mit 8xMSAA (+QAAA) durchgespielt - mit einer HD3850. Und du kannst dich bestimmt erinnern, dass Kantenglättung aufgrund mehrerer Fehler beim R600/RV670 nicht die beste Wahl ist.
Aber die vermeintlichen Käufer einer GTX280 dürfen keine Tests mit 8xMSAA sehen...

Ich hab HL2 mit Cinematic Mod bis zur Hälfte mit 16xCSAA+TSAA und HQ auf einer 8800GTX gespielt. Danach wurde mir langweilig. Cool, oder? :rolleyes:

deekey777
2008-12-12, 01:49:52
Schön, dass du mit minderwertigem 16xCSAA (da technisch bedingt nicht durchgängig und nur bloß 4xMSAA) gespielt hast und spielst. Ich gehe bis 24xEDAA + PAAA oder 8xMSAA+WT+QAAA. Nur hast du die Aussage nicht verstanden: Man kann mit 8xMSAA spielen, und das zeigen die Tests von FiringSquad.
Nur ist der grüne Block angepisst, dass ihre Lieblinge dort nicht vorne sind. Ja und? Der Sinn des Tests ist die Leistungsfähigkeit zu zeigen. Und 8xMSAA ist der gemeinsame Nenner. Das ist keine Kaufberatung, wo man einzelne AA-Modi zeigt (auch solche Artikel gibt es zuhauf).

Coda
2008-12-12, 02:11:28
Das Problem von CSAA ist nicht dass es in seltenen Fällen nur 4 Samples pro Pixel verwenden kann sondern eher die Implementierung.

Theoretisch ist 16xCSAA wirklich fast gleichwertig wie vollwertiges 16xMSAA.

Unyu
2008-12-12, 09:26:38
Ein Tester muss versuchen eine möglichst vergleichbare BQ beim Testen zu erreichen und das sind die Defaulteinstellungen beim AF. Oder hast du einen Modus, der die Vergleichbarkeit noch besser rüber bringt?
So wie (H)Q vs AI-off?


Und wenn man höher als 4xMSAA vergleichen will, dann ist 8xMSAA der Modus, wo man am Besten vergleichen kann (Stichwort - beste Vergleichbarkeit).Es macht eben keinen Sinn, fast ausschließlich 8xMSAA zu testen.
Der Leser erhält den Eindruck, das wenn 8x schon scheisse läuft, das alles drüber eh nicht mehr läuft.

Sehr tolle Berichterstattung, so kann man auch die Verkäufe der HDs ankurbeln.
Alle Welt spricht von "versagen bei max AA". Warum? Weil viele Tester so einen scheiss machen, es nicht mal für nötig halten andere Modi zu erwähnen, geschweige den zu testen und nebenbei AMD massiv unterstützen, indem AI-off unangetastet bleibt.


Das ist kein Test der Leistungsfähigkeit zeigt.
Das ist ein Test, der die Leistung bei 8xMSAA zeigt und sich über die Performance im Vergleich zu anderen Modi tot schweigt. Sehr sinnvoll. Über die allgemeine Performance hätte ein einzelner Vantage Test ähnlich viel Aussagekraft.

Gast
2008-12-12, 09:40:23
Was also daran nicht sinnvoll mit einer GTX280 in L4D mit 8xMSAA oder gar 16xQ zu spielen?


wer redet denn von 16xQ? das ist natürlich ein sinnvoller modus, 8xQ allerdings nicht, angesichts besserer angebotener modi die auch noch schneller sind.

Gast
2008-12-12, 09:44:21
Oder hast du einen Modus, der die Vergleichbarkeit noch besser rüber bringt?

maximal mögliche optimierungen auf NV und maximale filterqualität bei ATI dürfte zumindest wesentlich näher aneinander sein.

du kannst bei NV anstellen was du willst, seit G80 kommst du mit keiner einstellung auf eine so schlechte filterqualität wie sie ATI hat, am nächsten aneinander ist aber immer noch bestmögliche filterung bei ATI (AI-off, hat ja leider nicht mehr viel auswirkungen, aber ein wenig verbessert sich die qualität noch) und schlechtmöglichste filterung bei NV (High performance, alle optimierungen an, was gottseidank gegenüber default fast keine auswirkungen hat)

reunion
2008-12-12, 09:52:55
wer redet denn von 16xQ? das ist natürlich ein sinnvoller modus, 8xQ allerdings nicht, angesichts besserer angebotener modi die auch noch schneller sind.

Welcher Modi ist besser und schneller als 8xQ? Und komm jetzt nicht mit CSAA, das reicht nicht mal annähernd an 8xQ heran.

robbitop@work
2008-12-12, 10:25:46
Das Problem von CSAA ist nicht dass es in seltenen Fällen nur 4 Samples pro Pixel verwenden kann sondern eher die Implementierung.

Theoretisch ist 16xCSAA wirklich fast gleichwertig wie vollwertiges 16xMSAA.
Kannst du das ein wenig ausführen? Interessiert mich sehr.
Ich hoffe, dass NVIDIA und ATI in Zukunft stärker an andere Downsamplingfilter denken. Gerade hohe AA-Grade bringen beim Box-Filter ja nicht mehr all zu hohen Mehrwert.
Dazu bitte noch SSAA seitens ATI und flimmerfreies AF. Theoretisch könnten beide IHVs ja schon jetzt ihren SLI/CF Kunden ein ähnliches SGSSAA wie 3DFX anbieten und das sogar mit besserem Downfilter! Dann würde ich Quad-SLI/CF eine ganze Ecke attraktiver finden. xD

Sven77
2008-12-12, 10:33:07
Welcher Modi ist besser und schneller als 8xQ? Und komm jetzt nicht mit CSAA, das reicht nicht mal annähernd an 8xQ heran.

16xCSAA kommt sehr wohl an 8xQ ran. Und selbst wenn nicht, dann halt 4xMSAA + 2x2SSAA..

reunion
2008-12-12, 10:43:34
16xCSAA kommt sehr wohl an 8xQ ran. Und selbst wenn nicht, dann halt 4xMSAA + 2x2SSAA..

CSAA ist in meinen Augen eine reine Verschlimmbesserung. Es sorgt für ausgefranste Kanten und wirkte extrem inhomogen. Da bleibe ich lieber bei normalen 4xMSAA. 4xMSAA + 2x2SSAA kostet um Häuser mehr als 8xQ.

Sven77
2008-12-12, 10:54:12
4xMSAA + 2x2SSAA kostet um Häuser mehr als 8xQ.

Ja natürlich, der Gewinn an BQ ist aber enorm, und selbst bei aktuellen Spielen mit dem G200 locker drin. Aber das führt wieder zu weit, bin da ein wenig ins OT gerutscht..

derguru
2008-12-12, 12:34:49
Ja natürlich, der Gewinn an BQ ist aber enorm, und selbst bei aktuellen Spielen mit dem G200 locker drin. Aber das führt wieder zu weit, bin da ein wenig ins OT gerutscht..

aber ganz bestimmt nicht in 1920*1200,in firingsquad gebenchten spielen geht quake wars aber das wars dann auch schon.

Gast
2008-12-12, 14:54:16
Welcher Modi ist besser und schneller als 8xQ? Und komm jetzt nicht mit CSAA, das reicht nicht mal annähernd an 8xQ heran.

natürlich, 16xCSAA ist fast immer deutlich schöner als 8xQ. die einzigen außnahmen sind einentlich TRSSAA, wo es mit 16x natürlich nur 4 samples, mit 8xQ aber 8 gibt.

ansonsten ist 16x aber eigentlich immer deutlich schöner als 8xQ.

deekey777
2008-12-12, 15:07:42
Fast immer deutlich schöner. :|

Genau: fast.

16xCSAA: http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/oblivion_nv_csaa_16x.jpg&1=1
8xQ: http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/oblivion_nv_msaa_8x.jpg&1=1

Und nochmal: Es ging darum, dass Tests mit 8xMSAA nicht sinnvoll seien, insbesondere wenn Geforces dabei sind.
Darum: Warum sind folgende Tests nicht sinnvoll?
http://www.firingsquad.com/hardware/sapphire_radeon_4850_x2_review/page5.asp
http://www.firingsquad.com/hardware/sapphire_radeon_4850_x2_review/page6.asp
http://www.firingsquad.com/hardware/sapphire_radeon_4850_x2_review/page7.asp
http://www.firingsquad.com/hardware/sapphire_radeon_4850_x2_review/page9.asp

Schlammsau
2008-12-12, 16:02:33
8xQ sieht wirklich besser aus!

Sven77
2008-12-12, 16:08:03
8xQ sieht wirklich besser aus!

Wenn du ganz fest dran glaubst tut es das..;D

Schlammsau
2008-12-12, 16:10:04
Wenn du ganz fest dran glaubst tut es das..;D

Schau auf den weissen Monolithen auf der linken Seite, und sag mir welcher mehr Alaissing aufweisst! ;) :biggrin:

Unyu
2008-12-12, 16:47:51
Welcher Modi ist besser und schneller als 8xQ?8xS?

robbitop
2008-12-12, 16:52:39
8xS?
Schneller nicht und besser von der reinen Glättung auch nicht. Aber besser für alpha Tests etc.

LovesuckZ
2008-12-12, 16:58:54
Schön, dass du mit minderwertigem 16xCSAA (da technisch bedingt nicht durchgängig und nur bloß 4xMSAA) gespielt hast und spielst. Ich gehe bis 24xEDAA + PAAA oder 8xMSAA+WT+QAAA. Nur hast du die Aussage nicht verstanden: Man kann mit 8xMSAA spielen, und das zeigen die Tests von FiringSquad.

Ich habe die Aussage sehr gut verstanden. Ich kann mit einer nVidiakarten auch mit 8xMSAA spielen. Ich kann aber auch 16xCSAA verwenden.
Die Frage muss doch eher lauten: Wieso sollte ich mich mit einer starkoptimierten ansiotropen Filterung begnügen? ;)


Nur ist der grüne Block angepisst, dass ihre Lieblinge dort nicht vorne sind. Ja und? Der Sinn des Tests ist die Leistungsfähigkeit zu zeigen. Und 8xMSAA ist der gemeinsame Nenner. Das ist keine Kaufberatung, wo man einzelne AA-Modi zeigt (auch solche Artikel gibt es zuhauf).

Die Leistungsfähigkeit einer Karte definiert sich nicht über die Color-Samples beim Boxfilter. Warum wurde dort nicht AAA als Supersampling Variante verwendet? Wo ist der Vergleich mit A.I Off und HQ?
Ich brauch keine Tests, die genauso sinnvoll sind wie theoretische Test, die alleinig die Rechenleistung messen. Sinnvoll - das ist 8xMSAA auf den nVidiakarten nicht. Sinnvoll - ist auch nicht die Verwedung von Quality. Beides in Zusammenhang verwendet, machen Einstellungen wohl kaum sinnvoll.

Oh und angepisst muss ich doch garnicht sein: Denn im Gegensatz zu dir kann ich 8xMSAA, TSAA und HQ frei wählen ohne das nVidia meint, dass dies oder jenes besser wäre.

Gast
2008-12-12, 17:10:44
Fast immer deutlich schöner. :|

Genau: fast.

16xCSAA: http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/oblivion_nv_csaa_16x.jpg&1=1
8xQ: http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-radeon-hd4850/fsaa/oblivion_nv_msaa_8x.jpg&1=1

beispielsweise hier, sie mal auf die säulen links, die werden mit 16x deutlich besser geglättet.

Schlammsau
2008-12-12, 17:16:01
beispielsweise hier, sie mal auf die säulen links, die werden mit 16x deutlich besser geglättet.

und was ist mit dem weissen Grabstein links!?
http://www.abload.de/img/16xcsaa9e4v.png

http://www.abload.de/img/8xqaerk.png

oder dem hier?
http://www.abload.de/img/16xcsaa9a7r.png

http://www.abload.de/img/8xq1a6u.png

Unyu
2008-12-12, 17:23:58
Schneller nicht
Ich habe schon Situationen erlebt, indenen 8xQ eindeutig etwas lahmer war.

Blaire
2008-12-12, 17:27:26
Welcher Modi ist besser und schneller als 8xQ? Und komm jetzt nicht mit CSAA, das reicht nicht mal annähernd an 8xQ heran.

Kommt drauf an, 16xCSAA ist ein guter Kompromiss aus Performance/Bildqualität auch wenn es nicht immer an 8xQ heranreicht. Besser als 4xAA ist es allemal.

4xMSAA:
http://techreport.com/r.x/radeon-hd-2900xt/g80-aa-4x.png
16xCSAA
http://techreport.com/r.x/radeon-hd-2900xt/g80-aa-16x.png
8xQ
http://techreport.com/r.x/radeon-hd-2900xt/g80-aa-8xq.png

reunion
2008-12-12, 17:46:53
Kommt drauf an, 16xCSAA ist ein guter Kompromiss aus Performance/Bildqualität auch wenn es nicht immer an 8xQ heranreicht. Besser als 4xAA ist es allemal.

4xMSAA:
http://techreport.com/r.x/radeon-hd-2900xt/g80-aa-4x.png
16xCSAA
http://techreport.com/r.x/radeon-hd-2900xt/g80-aa-16x.png
8xQ
http://techreport.com/r.x/radeon-hd-2900xt/g80-aa-8xq.png


Das ist der Optimalfall. In ungünstigen Fällen kann es aber auch so Aussehen:

http://www.abload.de/img/complete6n2.png

Copyright Spasstiger: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6607647&postcount=103
Man achte auf das Seil und das feine Gitter. Generell hat CSAA bei solchen Dingen erhebliche Probleme, wie man auch an den Strommasten in HL2 sieht, wo aus einer Stromleitung mal eben eine "Zick-Zack"-Linie wird.

Gast
2008-12-12, 17:52:16
und was ist mit dem weissen Grabstein links!?
http://www.abload.de/img/16xcsaa9e4v.png

http://www.abload.de/img/8xqaerk.png



hä? hier ist doch 16x sichtbar besser.



oder dem hier?
http://www.abload.de/img/16xcsaa9a7r.png

http://www.abload.de/img/8xq1a6u.png

einmal eine kante die mit 8xQ besser aussieht, dem gegenüber stehen aber viel mehr die mit 16x besser aussehen.

deekey777
2008-12-12, 17:58:31
hä? hier ist doch 16x sichtbar besser.




einmal eine kante die mit 8xQ besser aussieht, dem gegenüber stehen aber viel mehr die mit 16x besser aussehen.
Und genau darum geht's doch die ganze Zeit: Es gibt immer Stellen, wo 16xCSAA schlechter ist bzw. 4xMSAA entspricht.
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_19.html#sect0

Schlammsau
2008-12-12, 18:14:15
hä? hier ist doch 16x sichtbar besser.




einmal eine kante die mit 8xQ besser aussieht, dem gegenüber stehen aber viel mehr die mit 16x besser aussehen.

Was? :|

Blaire
2008-12-12, 18:18:39
Das ist der Optimalfall. In ungünstigen Fällen kann es aber auch so Aussehen:
Man achte auf das Seil und das feine Gitter. Generell hat CSAA bei solchen Dingen erhebliche Probleme, wie man auch an den Strommasten in HL2 sieht, wo aus einer Stromleitung mal eben eine "Zick-Zack"-Linie wird.

Kann es, es kann aber auch mal besser aussehen. Ein 8xQ kann bei NV auch mal besser aussehen als bei Ati und umgekehrt genauso...

robbitop
2008-12-12, 18:21:47
Ich habe schon Situationen erlebt, indenen 8xQ eindeutig etwas lahmer war.
Das ergibt aber keinen Sinn. 8xS braucht soziemlich genausoviel Bandbreite und VRAM wie 8xQ aber dafür halbiert es zusätzlich die Rohleistung.

LovesuckZ
2008-12-12, 18:33:01
Das ergibt aber keinen Sinn. 8xS braucht soziemlich genausoviel Bandbreite und VRAM wie 8xQ aber dafür halbiert es zusätzlich die Rohleistung.

8xS verwendet nur 4 Color-Samples. Es limitiert jedoch bei 8xMSAA die Z-Fill wesentlich stärker als die Texturleistung bei 8xS.

/edit: In Farcry ist 8xS schneller als 8xMSAA.

Gast
2008-12-12, 18:40:36
Das ergibt aber keinen Sinn. 8xS braucht soziemlich genausoviel Bandbreite und VRAM wie 8xQ aber dafür halbiert es zusätzlich die Rohleistung.

8xQ fünftelt aber die Z-leistung im vergleich zu 4xMSAA, 8xS halbiert diese nur.

Gast
2008-12-12, 18:42:30
Und genau darum geht's doch die ganze Zeit: Es gibt immer Stellen, wo 16xCSAA schlechter ist bzw. 4xMSAA entspricht.


die gibt es eigentlich nur bei stencil-shadows und extrem dünnen objekten die durch das 4x-raster durchfallen.

dass ein bestimmter kantenwinkeln mal der einen, mal der anderen maske besser schmeckt ist nichts neues.

Gast
2008-12-12, 18:59:44
oder dem hier?
http://www.abload.de/img/16xcsaa9a7r.png

http://www.abload.de/img/8xq1a6u.png

Das sind ja Welten :eek:

deekey777
2008-12-12, 21:34:09
8xS verwendet nur 4 Color-Samples. Es limitiert jedoch bei 8xMSAA die Z-Fill wesentlich stärker als die Texturleistung bei 8xS.

/edit: In Farcry ist 8xS schneller als 8xMSAA.
Es limitiert das Tri-Setup (niedriger Takt + "1/2" Triangle pro Cycle).

Megamember
2008-12-17, 15:59:54
Preis ist auf tolle 265 gefallen:
http://preisvergleich.hardwareluxx.de/deutschland/a380439.html

Edit: Seh grad ist nur die 1GB Variante, naja.

Tarkin
2009-01-13, 08:57:33
http://www.xbitlabs.com/articles/video/display/sapphire-hd4850x2_2.html#sect0

4850X2 vs. 280 GTX

So, if you don’t mind the noise and your gaming system is roomy and well ventilated, the Sapphire HD 4850 X2 2G/1G GDDR3 may be a good buy because it is cheaper than the Radeon HD 4870 X2 but faster than the GeForce GTX 280 in most of today’s games.

Coda
2009-01-13, 16:01:05
Man achte auf das Seil und das feine Gitter. Generell hat CSAA bei solchen Dingen erhebliche Probleme, wie man auch an den Strommasten in HL2 sieht, wo aus einer Stromleitung mal eben eine "Zick-Zack"-Linie wird.
Ich hoffe mal, dass die Implementierung in der nächsten Generation besser sein wird. Theoretisch gibt's diese Probleme nämlich eigentlich nicht.

Raff
2009-01-13, 16:06:22
http://www.xbitlabs.com/articles/video/display/sapphire-hd4850x2_2.html#sect0

4850X2 vs. 280 GTX

So, if you don’t mind the noise and your gaming system is roomy and well ventilated, the Sapphire HD 4850 X2 2G/1G GDDR3 may be a good buy because it is cheaper than the Radeon HD 4870 X2 but faster than the GeForce GTX 280 in most of today’s games.

Argh, mir sträuben sich immer die Nackenhaare, wenn ich so eine Flitzekacke lese. Wir müssen endlich wegkommen von der Bewertung anhand angezeigter Frameraten. Qualität statt Quantität, HD4870 anstatt X2, GTX 280 anstatt GTX 295! Das ist wichtiger denn je. Wurden die Frames einst "nur" durch Billig-Filterung kaputtgemacht, sind sie im Zeitalter massentauglicher MGPU-Karten auch noch suboptimal verteilt. Schöne, neue Welt ...

MfG,
Raff

y33H@
2009-01-13, 16:15:38
Frameverteilung von den Fps abziehen ... gute Nacht MPGU.

cYa