PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 3870 X2: (P)Review-Thread (der neue)


Seiten : 1 [2]

reunion
2008-03-02, 11:01:16
Wo denn? Der billigste Geizhals Preis ist 350€

http://geizhals.at/eu/a310136.html

SamLombardo
2008-03-02, 11:04:31
http://geizhals.at/eu/a310136.html
tatsächlich...Danke. Was hab ich denn da wieder gesehen:rolleyes:

Gast
2008-03-02, 11:13:57
Die heißt dann 3890X2. :)

GeneralHanno
2008-03-02, 11:22:16
Die heißt dann 3890X2. :)

worauf bezieht sich deine aäßerung?

auf die 3870x2 mit GDDR4, PCIe2-bridge und A12 ?

Gast
2008-03-02, 11:32:33
Darauf: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6312413&postcount=240
Da hat mich mein Browser nicht auf die neueste Seite geschickt und ich habs übersehen. :redface:

SamLombardo
2008-03-02, 12:12:12
Hab mir jetzt eine bestellt für 328€. Es wurde nach der (jetzt noch in Gebrauch befindlichen) X1800XT mal wieder Zeit für ein Upgrade. Crysis in DX10 ich komme:biggrin:

deekey777
2008-03-02, 13:12:00
.
Ja, das ist das Gesetz des abnehmenden Ertrags.

Das Gesetz des abnehmenden Grenzertrages: Mit jeder weiteren produzierten Einheit sinkt der Grenzertrag.

Gast
2008-03-02, 13:15:22
Crysis in DX10 ich komme:biggrin:
Dann nimm gleich dein Rückgaberecht in Gebrauch.
Bei Crysis kacken AMDs Karten ab, zudem bringt CF dort wenig.

Mr. Lolman
2008-03-02, 13:57:11
Wie kann ein Screenshot "falsch" sein? gefälscht vielleicht oder nicht repräsentativ - aber falsch?

Falsch insofern, dass er womöglich den sichtbaren Bildinhalt nicht vollständig abbildete. Gabs ne Zeitlang auch bei NV Karten, dass bei Hybridmodi zB der MSAA-Anteil bei Screenshots nicht angezeigt wird.

Das Gesetz des abnehmenden Grenzertrages: Mit jeder weiteren produzierten Einheit sinkt der Grenzertrag.

Beim Etragsgesetz nehmen sowohl Grenzertrag als Durchschnittsertrag mit der Zeit ab.

Malachi
2008-03-02, 14:00:09
Dann nimm gleich dein Rückgaberecht in Gebrauch.
Bei Crysis kacken AMDs Karten ab, zudem bringt CF dort wenig.

Quatsch!
Ab Crysis 1.1 und Catalyst 8.1 Hotfix geht auch CF gut ab.

Captain Future
2008-03-02, 14:39:35
Falsch insofern, dass er womöglich den sichtbaren Bildinhalt nicht vollständig abbildete. Gabs ne Zeitlang auch bei NV Karten, dass bei Hybridmodi zB der MSAA-Anteil bei Screenshots nicht angezeigt wird.
Ah, danke. Wieder wsa gelernt

Gast
2008-03-02, 14:45:27
Quatsch!
Ab Crysis 1.1 und Catalyst 8.1 Hotfix geht auch CF gut ab.
Bleiben die Mikroruckler und die lahmen AMD Karten im Besonderen bei Crysis.

Malachi
2008-03-02, 15:00:37
Microruckler sind kein AMD exklusives Feature.

SamLombardo
2008-03-02, 16:36:23
lahmen AMD Karten im Besonderen bei Crysis.
Schau Dir mal die Benchmarks an. In 1600x1200 (ich spiele in 1680x1050) ist sie in Crysis schneller als die 8800 Ultra...und kostet 170€ weniger als die billigsten Ultras. In anderen Spielen ist sie meist DEUTLICH schneller als alles andere. Insofern ein gutes Angebot imho und von lahm kann keine Rede sein.

Sam

Coda
2008-03-02, 16:37:23
Microruckler sind kein AMD exklusives Feature.
Bei den einzelnen High-End-Karten schon ;)

SamLombardo
2008-03-02, 16:39:52
Bei den einzelnen High-End-Karten schon ;)
Sind diese Microruckler eigentlich ein treiberproblem?

Gast
2008-03-02, 16:40:09
Schau Dir mal die Benchmarks an. In 1600x1200 (ich spiele in 1680x1050) ist sie in Crysis schneller als die 8800 Ultra...und kostet 170€ weniger als die billigsten Ultras. In anderen Spielen ist sie meist DEUTLICH schneller als alles andere. Insofern ein gutes Angebot imho und von lahm kann keine Rede sein.

Sam

Eine 8800GTX ist billiger, in Crysis kaum langsamer, benötigt unter LAST deutlich weniger Strom, ist unter LAST deutlich leiser, bietet die deutlich bessere Bildqualität, hat keine Probleme mit Mikro-Ruckler, ist nicht abhängig von Profilen, bietet generell unter D3D10 die bessere und problemlosere Leistung.
Keine Ahnung, wie man sich noch für eine 3870x2 entscheiden kann.

Captain Future
2008-03-02, 16:58:08
Sind diese Microruckler eigentlich ein treiberproblem?
Nein.

SamLombardo
2008-03-02, 17:49:06
Eine 8800GTX ...bietet die deutlich bessere Bildqualität
Wie kommst Du denn darauf?

SamLombardo
2008-03-02, 17:50:37
Nein.
Hm. Gibt es dann überhaupt Möglichkeiten dieses Problem softwareseitig zu lösen?

Gast
2008-03-02, 18:07:59
Wie kommst Du denn darauf?

Das ist seit dem R600-Release bekannt: bei ATI gibt es nicht mehr die volle Texturfilterqualität, auch bei deaktiviertem A.I. nicht.

SamLombardo
2008-03-02, 18:16:46
Das ist seit dem R600-Release bekannt: bei ATI gibt es nicht mehr die volle Texturfilterqualität, auch bei deaktiviertem A.I. nicht.
Ich hab mich in der letzten Zeit nicht so sehr mit den Eigenheiten der einzelnen Grakas beschäftigt. Daher mal bitte möglichst objektiv und ohne Fanbrille: Ist das tatsächlich praxisrelevant? Oder sind das theoretische Werte die man nur bei Standbildern und ganz bestimmten Winkeln sieht?

Danke, Sam

LovesuckZ
2008-03-02, 18:18:27
Ich hab mich in der letzten Zeit nicht so sehr mit den Eigenheiten der einzelnen Grakas beschäftigt. Daher mal bitte möglichst objektiv und ohne Fanbrille: Ist das tatsächlich praxisrelevant? Oder sind das theoretische Werte die man nur bei Standbildern und ganz bestimmten Winkeln sieht?
Danke, Sam

Das Problem liegt in der fehlenden Vergleichbarkeit begründet. Wenn man nicht weiß, wie es auf anderer Hardware aussieht, wird man mit dem Bild zufrieden sein.

Coda
2008-03-02, 18:19:50
Wie kommst Du denn darauf?
Was den Texturfilter angeht hat er recht, auch wenn "deutlich" übertrieben ist.

Hm. Gibt es dann überhaupt Möglichkeiten dieses Problem softwareseitig zu lösen?
Es gibt einige Ansätze aber ob die immer überall funktionieren ist fraglich und es wird Leistung kosten.

Gast
2008-03-02, 18:20:39
Hm. Gibt es dann überhaupt Möglichkeiten dieses Problem softwareseitig zu lösen?
AMD und NV haben bestätigt, das es nicht beseitigt wird.


Wie kommst Du denn darauf?
Bestes AF seit Jahren, hohe AA Modi, noch Fragen?

Gast
2008-03-02, 18:22:17
Nein.
Natürlich ist das Treibersache, was denn sonst?

Der BQ-Unterschied zwischen R(V)6xx und G8x/G9x ist in der Praxis nicht relevant. Einzig die höhere Neigung zum Flimmern ersterer macht einen Unterschied, der aber subjektiv(!) vernachlässigbar ist. Flimmert aber nicht mehr als R(V)5xx bei AI low.

Gast
2008-03-02, 18:26:14
AMD und NV haben bestätigt, das es nicht beseitigt wird.
Bestes AF seit Jahren, hohe AA Modi, noch Fragen?
Offizielles Aussagen der IHVs gibt es bis dato nicht.

Sieht man vom Unterfiltern der ATi ab, ist das AF gleichwertig (bzgl Stageoptimierungen und Winkelabhängigkeit).
Der beste AA-Modi bzgl Kantenglättung ist derzeit EE CFAA bei den ATis.

Gast
2008-03-02, 18:27:10
Einzig die höhere Neigung zum Flimmern ersterer macht einen Unterschied, der aber subjektiv(!) vernachlässigbar ist.
Mich störts.


Und diese ganze AI Cheaterei Geschichte geht mir auf den Sack, da benchen alle mit AI und vergleichen das NVs HQ.
Im Gegenzug, damit es fair bleibt wird das unsinnge 8xMSAA angeworfen.

Gast
2008-03-02, 18:29:10
Offizielles Aussagen der IHVs gibt es bis dato nicht.

Doch
http://www.pcgameshardware.de/aid,633537/News/Multi-GPU_Mikroruckler_Erste_Statements_von_AMD_und_Nvidia/

_DrillSarge]I[
2008-03-02, 18:31:41
Doch
http://www.pcgameshardware.de/aid,633537/News/Multi-GPU_Mikroruckler_Erste_Statements_von_AMD_und_Nvidia/


Wir glauben jedoch, dass Nutzer von CrossFire eher auf höhere Frameraten abzielen (und auch wissen wie diese erreicht werden können), bei denen der gefühlte Effekt dieser Microruckler stark abnimmt.
toll. super statement. :mad:
die wissen anscheinend selber nicht weiter

GeneralHanno
2008-03-02, 18:36:34
naja irgendwie muss man sich ja rausreden. aber immerhin hat Ati das problem schon erkannt und nvidia untersucht es auch z.zt ...

und ich denke niemand kann in 2 wochen einen perfekten treiber erwarten (zumal das problem nicht mal treiberbedingt ist) der alles aus der welt bügelt. das muss man (leider) eher langfristig sehen ...

Gast
2008-03-02, 18:37:34
Mich störts.


Und diese ganze AI Cheaterei Geschichte geht mir auf den Sack, da benchen alle mit AI und vergleichen das NVs HQ.
Im Gegenzug, damit es fair bleibt wird das unsinnge 8xMSAA angeworfen.
Schön ist es nicht, aber wenn ich mir anschaue was da in der Vergangenheit abging...

Inzwischen wird doch G8x-Q mit AI low verglichen?
Für mich ist 8xMSAA alles andere als unsinnig. Mich stört Kantenflimmern deutlich mehr als Texturflimmern ;) Wie immer alles subjektiv :)

Oha das schein ich dann wohl übersehn zu haben. Das Statement der beiden bzgl Mikroruckler ist wieder mal ziemlich besch...eiden

LovesuckZ
2008-03-02, 18:41:49
Inzwischen wird doch G8x-Q mit AI low verglichen?
Für mich ist 8xMSAA alles andere als unsinnig. Mich stört Kantenflimmern deutlich mehr als Texturflimmern ;) Wie immer alles subjektiv :)


Und das Flimmern bei Alpha-Test? ;)
AMD's Edge-Detection ist genauso brauchbar wie nVidia's 8xMSAA Modus. Jedoch in vielen Fällen einfach zu lahm und eben auch nicht an jede Situation angepasst.

Captain Future
2008-03-02, 18:45:42
I[;6323459']toll. super statement. :mad:
die wissen anscheinend selber nicht weiter
Das ist nicht das Statement, das ist die Relativierung.

Das Statement ist folgendes:
"In CrossFire kann Frame 3 erst an Karte A geschickt werden wenn diese mit Frame 1 fertig ist. Frame 4 kann erst an Karte B geschickt werden wenn diese mit Frame 2 fertig ist. Das Einteilen dieser Frames (bzw. der command buffer) wird zumindest unter Vista vom Kernel übernommen, das heisst dieses Verhalten kann auch über den Treiber nicht beeinflusst werden."
Und da beide hauptsächlich für Vista entwickeln, bedeutet das...

Gast
2008-03-02, 19:18:41
Und das Flimmern bei Alpha-Test? ;)
AMD's Edge-Detection ist genauso brauchbar wie nVidia's 8xMSAA Modus. Jedoch in vielen Fällen einfach zu lahm und eben auch nicht an jede Situation angepasst.

Laber nicht.12 AA Edge ist total brauchbar.

dildo4u
2008-03-04, 15:52:52
Cebit 2008: Radeon HD3870 X2 mit GDDR4-Speicher und kurzem PCB

http://www.pcgameshardware.de/screenshots/original/2008/03/Kopie_von_DSC05957.JPG

http://www.pcgameshardware.de/aid,634668/News/Cebit_2008_Radeon_HD3870_X2_mit_GDDR4-Speicher_und_kurzem_PCB/

Super-S
2008-03-04, 16:00:56
Cebit 2008: Radeon HD3870 X2 mit GDDR4-Speicher und kurzem PCB

http://www.pcgameshardware.de/screenshots/original/2008/03/Kopie_von_DSC05957.JPG

http://www.pcgameshardware.de/aid,634668/News/Cebit_2008_Radeon_HD3870_X2_mit_GDDR4-Speicher_und_kurzem_PCB/


Geil... würd gerne mal den Kühler sehen :)

Coda
2008-03-04, 16:02:49
Ich hätte jetzt damit gerechnet dass sie schon nen eigenen PCIe-Switch einsetzen würden.

AnarchX
2008-03-04, 16:05:34
Ich hätte jetzt damit gerechnet dass sie schon nen eigenen PCIe-Switch einsetzen würden.

Was man nicht hat, das kann man auch nicht einsetzen.

Auf der Karte ist übrigens immernoch ein PCIe1.1 Switch.

Gast
2008-03-04, 16:05:42
Was man nicht hat kann man nicht einsetzen. Aber sie könnten ja mal Nvidia fragen, ob sie NF200 Bridges verbauen dürfen.

Coda
2008-03-04, 16:08:10
Was man nicht hat, das kann man auch nicht einsetzen.
Hätten sie bis jetzt ja entwickeln können.

Gast
2008-03-04, 16:11:07
Hätten sie bis jetzt ja entwickeln können.


Oder auch nicht.
Wie lange hat die Entwicklung der SB700 Southbridge (die ja nix anderes als ein bisschen I/O macht!) gedauert?

Gast
2008-03-04, 16:25:22
Das Ding ist doch nur die Gecube-Karte oder?

dildo4u
2008-03-04, 18:01:47
Powercolor HD3870X2 GDDR4 / PCI-E 2.0 Chip bridge

http://img167.imageshack.us/img167/311/dsc02725mi4nv4.jpg

http://www.xtremesystems.org/forums/showthread.php?t=179209&page=5

deekey777
2008-03-05, 14:32:42
http://www.ixbt.com/video/itogi-video/test/0801_3870x2.shtml
Mann, sind sie gemein! :biggrin:
Es wurden die höchstmöglichen Einstellungen verwendet (ua 4x Kantenglättung)

Malachi
2008-03-05, 14:43:11
http://www.ixbt.com/video/itogi-video/test/0801_3870x2.shtml
Mann, sind sie gemein! :biggrin:
Es wurden die höchstmöglichen Einstellungen verwendet (ua 4x Kantenglättung)

Kann i gar nix lesen! :D

Coda
2008-03-05, 14:51:27
http://www.ixbt.com/video/itogi-video/test/0801_3870x2.shtml
Mann, sind sie gemein! :biggrin:
HQ gegen A.I. Off. Endlich. Man erhöhrt mich.

Gast
2008-03-05, 14:55:52
AI off ist ja aber auf den ATIs nicht mehr AI off (also ohne "Texturoptimiereungen"), teilweise ist mit AI off sogar die Leistung besser, teils hängt es von der konkret dargestellten Szene ab, was schneller ist.
Ziemlich unausgegoren, was AMD da abliefert.

deekey777
2008-03-05, 14:58:52
HQ gegen A.I. Off. Endlich. Man erhöhrt mich.
Jein. HQ gegen die Dummheit von AMD. Man kann bei der X2 den CF-Modus nicht ausschalten (die GeCube erlaubt das).
Und in diesem Test ist die X2 deswegen kräftig auf die Schnauze gefallen. Dass CF bzw. AFR dazu noch an AI gebunden ist, ist die weitere Dummheit von AMD.

Keine Ahnung, ob der Test auch in Englisch veröffentlicht wird, aber die Tester berichten von Freezes von 2-3 Sekunden im CF-Betrieb. In CoD2/4 steigen die Lags, wenn die Dual-GPU-Option im Spiel aktiviert wird. Weiterhin wird das andere Problem deutlich: CF funktioniert nicht durchgehen (das, was die PCGH schon gezeigt hat). Schaut euch LP (http://www.ixbt.com/video/itogi-video/test/0801_3870x2.shtml#lpec) an: Oh Wunder, oh Wunder, CF bringt gerade im Snow-Level einen deutlichen Performancesprung...
Aber: Die Treiber sind Ausgereift, es gab nur 2 Fehler bei der Darstellung (einmal in Crysis und dann ein Problem mit Motion-Blur in CoD2).

AI off ist ja aber auf den ATIs nicht mehr AI off (also ohne "Texturoptimiereungen"), teilweise ist mit AI off sogar die Leistung besser, teils hängt es von der konkret dargestellten Szene ab, was schneller ist.
Ziemlich unausgegoren, was AMD da abliefert.
Dort, wo CF nichts bringt, bringt AI Standard paar FPS mehr. Mag sein, dass nicht alle "Optimierungen" mit AI OFF aus sind, aber irgendwas wird definitiv ausgeschaltet.

Gast
2008-03-05, 15:09:07
Dort, wo CF nichts bringt, bringt AI Standard paar FPS mehr. Mag sein, dass nicht alle "Optimierungen" mit AI OFF aus sind, aber irgendwas wird definitiv ausgeschaltet.


Wie willst du damit die Ergebnisse in Half-Life2, Hitman oder Lost Planet erklären?

AnarchX
2008-03-05, 15:12:25
Kann i gar nix lesen! :D

Dürfte etwas helfen:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.ixbt.com%2Fvideo%2Fitogi-video%2Ftest%2F0801_3870x2.shtml&langpair=ru%7Cen&hl=de&ie=UTF-8
;)

Aber amüsant, dass AI=off/CF=off doch desöfteren schneller ist, als on.
Da stellt sich ernsthaft die Frage, ob die X2 abseits der üblichen Benches überhaupt schneller ist, als eine Single-3870, bei der ja noch eine gewisse Mehrperformance durch AI hinzukommt.:|

Gast
2008-03-05, 16:08:31
Na endlich haben wenigstens die desolaten Crossfire-Treiber Zustand aufdedeckt das geht eigentlich seit Jahren so. Mein Eindruck stimmt mit denen überein das ca. 50% der Spiele gar nix von Crossfire haben (ohne .exe renaiming) , die anderen 25% laufen irgendwie (mit microrucklern) und die restlichen 25% vor allem neuere Sachen laufen amtlich schlechter wie mit einer Karte.

Malachi
2008-03-05, 16:26:55
Dürfte etwas helfen:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.ixbt.com%2Fvideo%2Fitogi-video%2Ftest%2F0801_3870x2.shtml&langpair=ru%7Cen&hl=de&ie=UTF-8
;)

Aber amüsant, dass AI=off/CF=off doch desöfteren schneller ist, als on.
Da stellt sich ernsthaft die Frage, ob die X2 abseits der üblichen Benches überhaupt schneller ist, als eine Single-3870, bei der ja noch eine gewisse Mehrperformance durch AI hinzukommt.:|

Ja, die ist schon schneller. Oft hilft auch das .exe renaming. Aber gegen die 88er von GeForce tun sich die X2 (noch) echt hart.
Den Sample Treiber für AA in UT3 kannst voll vergessen. Avg. ~40 fps @ 1680x1050, 4xAA sind ein Witz. Ohne AA gehts auf über 150fps hoch.

DiRT hingegen läuft geil mit der X2. Alles auf Ultra @4xAA immer zwischen smoothen 35 und 60 fps. Hier muß ich dem o. g. Test wiedersprechen!

CoD4 läuft EIGENTLICH auch ganz gut, nur sporadische Einbrüche schmälern die Freude. Mit 4xAA brauch ich nicht online zocken. Auch hier ist ne 8800 GT im Vorteil.

Crysis läuft auch gut unter Vista 64, high, 1680x1050. Besser als mit 8800.

NFS: PS hat dank Patch 1.2 keine CF Unterstützung mehr. Läuft furchtbar. A.I. disabled schaltet einen Kern ab. NFS läuft wieder perfekt, wie mit der nVidia.

Fast jeder setzt große Hoffnung in den 8.3. Ich fürchte, er wird nur beide Sample/Beta verbinden. Schwache AA Performance in UT3 und halt Crossfire X. Nach den ganzen Meldungen liegt der Schwerpunkt eindeutig auf letzterem.

Ist etwas schade um die tolle Hardware, da es hauptsächlich Treiber/Softwareprobleme sind, was die volle Kraftentfaltung ordentlich behindert.

Exxtreme
2008-03-05, 16:32:48
I[;6323459']toll. super statement. :mad:
die wissen anscheinend selber nicht weiter
Machen können die anscheinend auch nicht viel. Jede Karte werkelt mehr oder weniger leicht zeitversetzt vor sich hin ohne Rücksicht auf die andere Karte. Das Problem liegt hier eher bei der Zeitversetzung.

Was man evtl. machen könnte ist: der Treiber misst die durchnittliche fps und fügt passende "Wartezeiten" ein um eine bessere Zeitversetzung hinzubekommen. Die Frage ist jetzt wieviel Leistung das frisst denn Treiberaktivität schlägt auf die CPU.

Blaire
2008-03-05, 16:33:08
Die Unterschiede sind schon heftig und ein eindeutiger Beleg dafür wie unausgereift Crossfire ist. Völlig unabhängig ob Ai off/Standard...Ohne Profilbearbeitung geht nunmal nix.

reunion
2008-03-05, 16:46:28
Dürfte etwas helfen:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.ixbt.com%2Fvideo%2Fitogi-video%2Ftest%2F0801_3870x2.shtml&langpair=ru%7Cen&hl=de&ie=UTF-8
;)

Aber amüsant, dass AI=off/CF=off doch desöfteren schneller ist, als on.
Da stellt sich ernsthaft die Frage, ob die X2 abseits der üblichen Benches überhaupt schneller ist, als eine Single-3870, bei der ja noch eine gewisse Mehrperformance durch AI hinzukommt.:|

AI_off schaltet Crossfire nicht wirklich ab, es schaltet nur die "exe-spezifischen"-CF-Profile ab. Also die speziell angepassten Profile. Ein "Kompatilitäts-AFR-Modus" ist immer aktiv. Seltsam ist es dann allerdings trotzdem umso mehr, wenn damit laut dem Test anscheinend manchmal höhere FPS erzielt werden als mit AI_low und wohl angepassten Profilen.

Malachi
2008-03-05, 16:47:33
Die Unterschiede sind schon heftig und ein eindeutiger Beleg dafür wie unausgereift Crossfire ist. Völlig unabhängig ob Ai off/Standard...Ohne Profilbearbeitung geht nunmal nix.

Ob SLI da sooo viel besser funktioniert? Geht ja auch nix ohne Profile.

Die CPU im o. g. Test passt nicht zu Dual GPU/Crossfire/SLI. Ein X2 4600 limitiert.

AI_off schaltet Crossfire nicht wirklich ab, es schaltet nur die "exe-spezifischen"-CF-Profile ab. Ein "Kompatilitäts-AFR-Modus" ist immer aktiv. Seltsam ist es allerdings trotzdem umso mehr, das dieser dann manchmal schneller ist als AI_low.

Wie meinst das?
Zumindest sinkt der Stromverbrauch deutlich, Mikroruckler sind weg, Spiel läuft wie mit ner Single GPU.

AnarchX
2008-03-05, 16:49:57
AI_off schaltet Crossfire nicht wirklich ab, es schaltet nur die "exe-spezifischen"-CF-Profile ab. Ein "Kompatilitäts-AFR-Modus" ist immer aktiv.
Quelle? Ich dachte dieser Fall-Back-AFR-Modus gehört zu AI und greift dann, wenn es kein Profil gibt.

reunion
2008-03-05, 16:54:08
Quelle? Ich dachte dieser Fall-Back-AFR-Modus gehört zu AI und greift dann, wenn es kein Profil gibt.

Frag einen Crossfire-User wenn du es mir nicht glaubst. Ich habe mir probeweise eine 3870-CF-System zugelegt, und auch mit AI_off bringt CF definitiv Vorteile. Allerdings gibt es je nach Spiel enorme Einbrüche, deshalb denke ich das damit nur die speziell angepassten Profile ausgehebelt werden.

reunion
2008-03-05, 16:55:47
Wie meinst das?
Zumindest sinkt der Stromverbrauch deutlich, Mikroruckler sind weg, Spiel läuft wie mit ner Single GPU.

Wenn du AI deaktivierst? Schonmal mit dem 3dmark oder Bioshock getestet? Dort hatte ich auch mit AI_off definitiv höhere Werte als mit nur einer Karte.

Exxtreme
2008-03-05, 16:56:06
Die Unterschiede sind schon heftig und ein eindeutiger Beleg dafür wie unausgereift Crossfire ist. Völlig unabhängig ob Ai off/Standard...Ohne Profilbearbeitung geht nunmal nix.
Ohne Profile geht bei keiner derzeitigen Dualchip-Lösung wirklich was. Deshalb mag ich die Dinger auch nicht. Dauernd Treiber aktualisieren nur wegen Profile.

AnarchX
2008-03-05, 17:00:58
Frag einen Crossfire-User wenn du es mir nicht glaubst. Ich habe mir probeweise eine 3870-CF-System zugelegt, und auch mit AI_off bringt CF definitiv Vorteile. Allerdings gibt es je nach Spiel enorme Einbrüche, deshalb denke ich das damit nur die speziell angepassten Profile ausgehebelt werden.
Oha, da bringt bei IXBT dieser Kompatibilitätsmodus zum Teil mehr als ein wohl verpfuschtes Profil.:D

Blaire
2008-03-05, 17:08:03
Ohne Profile geht bei keiner derzeitigen Dualchip-Lösung wirklich was. Deshalb mag ich die Dinger auch nicht. Dauernd Treiber aktualisieren nur wegen Profile.

Nvidia liefert oft schon Monate bevor ein Game überhaupt erscheint die SLI Profile. Selbst für Farcry 2 oder Turok gibt es schon jetzt SLI Profile im Treiber... in dieser Hinsicht ist Nvidia deutlich überlegen. Aber es ist schon richtig ohne Profile würde auch hier wenig funktionieren. Trotzdem Nvidia investiert da deutlich mehr und das merkt man auch.

Blaire
2008-03-05, 17:14:22
Wenn du AI deaktivierst? Schonmal mit dem 3dmark oder Bioshock getestet? Dort hatte ich auch mit AI_off definitiv höhere Werte als mit nur einer Karte.

Stimmt Crossfire ist dann trotzdem noch aktiv. Dürfte SuperTiling sein...

Coda
2008-03-05, 17:22:01
Sollte sich aber was dran ändern, weil ATI ja die Multi-GPU-Schiene fahren will. Wenn nicht ist es echt armseelig.

deekey777
2008-03-05, 17:38:57
Stimmt Crossfire ist dann trotzdem noch aktiv. Dürfte SuperTiling sein...
Supertiling ist auch tot. Es gibt nur SFR als zweiten Modus.

http://ati.amd.com/developer/gdc/2008/GDC08_MGPU.pdf

Seite 24

Blaire
2008-03-05, 17:55:06
Supertiling ist auch tot. Es gibt nur SFR als zweiten Modus.

http://ati.amd.com/developer/gdc/2008/GDC08_MGPU.pdf

Seite 24

Danke, hab es mir mal angesehen aber wo steht da was von SFR? :confused:

Edit: OK habs gefunden. Das ist natürlich schade denn SuperTiling lief z.b. ganz gut bei Renngames...

Also funktioniert das nun so:
Wenn kein Profil vorhanden ist , funktioniert bei AI Standard immer der AFR Modus.
Stellt man AI Off ist demnach jetzt immer SFR aktiv.

deekey777
2008-03-05, 17:56:17
Ganz am Anfang der Präsentation steht was.

reunion
2008-03-05, 17:56:54
Seite 8 wird SFR zumindest erwähnt.

Lotzi
2008-03-05, 18:06:20
muss ai im treiber nbun an oder aus sein um CF zu haben

muss AI auf standart oder erweitert stehen???

Blaire
2008-03-05, 18:07:32
AI auf Standard also Treiberdefault.

deekey777
2008-03-05, 18:08:24
...
Edit: OK habs gefunden. Das ist natürlich schade denn SuperTiling lief z.b. ganz gut bei Renngames...
Echt?

Also funktioniert das nun so:
Wenn kein Profil vorhanden ist, funktioniert bei AI Standard immer der AFR Modus.
Stellt man AI Off ist demnach jetzt immer SFR aktiv.
Das wäre eine Erklärung.

Blaire
2008-03-05, 18:12:48
Echt?


Bei einigen schon GTR,GTR2,Grand Prix 4 seinerzeit liefen besser als mit AFR Profilen ;) Die scheinen ganz schön am beschneiden zu sein. Erst mit dem SuperAA wurde gegen hässlichen MSAA Modus ersetzt, dann das Adaptive AA auch durch MSAA ersetzt, nun der Tiling Modus auch...

Malachi
2008-03-05, 18:38:40
Wenn du AI deaktivierst? Schonmal mit dem 3dmark oder Bioshock getestet? Dort hatte ich auch mit AI_off definitiv höhere Werte als mit nur einer Karte.

Was glaubst Du was ich die letzten zwei Wochen mit der X2 gemacht hab? Gestestet bis zum Abwinken!
Im Canyon Flight hab ich exakt da wo die X2 52fps macht nur 25-26 wenn ich A.I. deaktiviere. Desweiteren sinkt der Stromverbrauch nicht unerheblich.

Hast Du überhaupt ne X2?

Und nochmal: Mit nem Popel X2 4600, wie in dem russischen Test benutzt, brauchst gar keine X2 oder Crossfire/SLi betreiben.

Gast
2008-03-05, 18:51:40
Und nochmal: Mit nem Popel X2 4600, wie in dem russischen Test benutzt, brauchst gar keine X2 oder Crossfire/SLi betreiben.
Wenn die Szene nicht CPU limitiert ist, ist es wurst was für eine CPU drin steckt.

deekey777
2008-03-05, 18:55:42
...
Und nochmal: Mit nem Popel X2 4600, wie in dem russischen Test benutzt, brauchst gar keine X2 oder Crossfire/SLi betreiben.
Hat das irgendeine Aussage über die Qualität des Tests? Nein.

AnarchX
2008-03-05, 18:55:49
Zudem scheint die Frametime-Verteilung mit einer schwacheren CPU wohl auch etwas homogener zu sein...;)

Malachi
2008-03-05, 18:56:18
Wenn die Szene nicht CPU limitiert ist, ist es wurst was für eine CPU drin steckt.

Genau!!!
Warum kaufen wir deppen uns Dual und Quadcores und bleiben nicht beim guten alten AMD 1700+.

Malachi
2008-03-05, 18:59:41
Hat das irgendeine Aussage über die Qualität des Tests? Nein.

Wenn die CPU die GPU(s) bremst. Trifft nicht auf jedes Spiel zu, aber auf einige.
Die fps bei DiRT sind ein Witz.
Bei mir sind sie doppelt so hoch wie mir Single 3870 und doppelt so hoch wie in deren Test.

deekey777
2008-03-05, 19:01:24
Wenn die CPU die GPU(s) bremst. Trifft nicht auf jedes Spiel zu, aber auf einige.
Die fps bei DiRT sind ein Witz.
Bei mir sind sie doppelt so hoch wie mir Single 3870 und doppelt so hoch wie in deren Test.
Genau darum war eine 8800 Ultra dabei, um eine mögliche CPU-Limitierung aufzuzeigen.

davidzo
2008-03-05, 22:45:07
es ist klar dass der Overhead bei CPU limitierung bei einem zweichip setup größer ist als bei einchip. schließlichw ird die ganze treiberarbeit, das loadbalancing etc. von der cpu übernommen.

Ein test auf dem X2 4600 sagt eben nur soviel aus, wie die karten auf einem X2 4600 laufen. Nicht mehr und nicht weniger. Mit nem QX9770 kann das aber ganz anders aussehen, auch die Platzierung.

Blaire
2008-03-05, 22:53:35
Am Ergebnis dürfte das wenig ändern, außer marginal höhere Ergebnisse. Wenn die Profile nicht vorhanden sind oder schlecht konfiguriert hilft die schnellste CPU nix.

Gast
2008-03-05, 23:32:42
Die Catalyst-Treiber sind zudem ungleich stärker CPU-belastend, als die NV-Treiber (auch mit einer Einzelkarte).
Bei einer zu schwachen CPU gibt es erhebliche Performanceeinbrüche (dazu gab es mal einen Artikel bei CB, glaube ich).
Der Vergleich von ATI und NV-Karte hinkt also bei dieser rel. schwachen CPU!

Das ist aber schon länger bekannt und wer immer noch so einen Test heranzieht dem kann auch nicht mehr geholfen werden.

Gast
2008-03-05, 23:46:16
Die Catalyst-Treiber sind zudem ungleich stärker CPU-belastend, als die NV-Treiber (auch mit einer Einzelkarte).


Genau das Gegenteil ist der Fall.

Gast
2008-03-06, 00:17:52
Genau das Gegenteil ist der Fall.
Richtig. Nur bei Crossfire scheint der Catalyst eine hohe Prozessorlast zu haben ;)

Gast
2008-03-07, 02:51:22
Ahoi. Das einzige was heutzutage limitiert ist die Graka. Die CPU`S die heutzutage verkauft werden sollten stark genug auf der Brust sein. Und hiermit meine ich ne CPU ala E6600 non oced. Deswegen brauch man mir garnicht mit 3dMurks benches kommen, denn die sagen nix aus. Der 3870X2 ist ein Schuss in den Ofen, der, wie gesagt, nur im 3DMurks zu glänzen vermag. Selten so ein unausgereiftes Produkt gesehen. Von den Ausfällen im Freundeskreis will ich gar nicht reden. Bei einem lief der Propeller 100%, bei dem anderen nicht, Bildfehler und schlechtere Performance als ne einzelne 3870. Einfach schlecht. Kein Wunder das sich Nvidia auf seinen Lorbeeren ausruht! Just my kind of thinking.

Gast
2008-03-07, 04:33:53
Ahoi. Das einzige was heutzutage limitiert ist die Graka. Die CPU`S die heutzutage verkauft werden sollten stark genug auf der Brust sein. Und hiermit meine ich ne CPU ala E6600 non oced.

Genau :rolleyes:


http://www.abload.de/thumb/vergleichpk5.png (http://www.abload.de/image.php?img=vergleichpk5.png)

http://www.pcgameshardware.de/aid,630867/Test/Benchmark/Review-Update_Radeon_HD3870_X2_vs_8800_Ultra/

FAZIT PCHG:
"Insgesamt bleibt festzuhalten, dass die 3870 X2 besser mit einer schnelleren CPU skaliert als eine 8800 Ultra. Alles andere wäre allerdings auch eine Sensation gewesen. Taktet man einen Quad-Core auf 3,6 GHz und paart sie mit einer 3870 X2, ergibt das nach unseren Messungen eine pfeilschnelle Kombination."

Gast
2008-03-07, 04:46:23
Kein Wunder bei 2 Chips...trotzdem limitiert in vielen Games eher die GPU je nach Auflösung.

mictasm
2008-03-07, 04:59:35
Das sind ja wirklich unglaubliche Erkenntnisse...

Gast
2008-03-07, 09:45:59
FAZIT PCHG:
"Insgesamt bleibt festzuhalten, dass die 3870 X2 besser mit einer schnelleren CPU skaliert als eine 8800 Ultra. Alles andere wäre allerdings auch eine Sensation gewesen. Taktet man einen Quad-Core auf 3,6 GHz und paart sie mit einer 3870 X2, ergibt das nach unseren Messungen eine pfeilschnelle Kombination."


Mein Fazit:

PCGH hätte besser mal auf die minimalen fps geschaut und festgestellt, dass eine 8800 Ultra da wesentlich besser skaliert als eine 3870 X2.

Exxtreme
2008-03-07, 09:59:49
Nvidia liefert oft schon Monate bevor ein Game überhaupt erscheint die SLI Profile. Selbst für Farcry 2 oder Turok gibt es schon jetzt SLI Profile im Treiber... in dieser Hinsicht ist Nvidia deutlich überlegen. Aber es ist schon richtig ohne Profile würde auch hier wenig funktionieren. Trotzdem Nvidia investiert da deutlich mehr und das merkt man auch.
Mag schon sein. Trotzdem bist du auf Gedeih und Verderb auf Profile angewiesen und "darfst" dann regelmässig Treiber aktualisieren. Und hast du keinen Mainstreamgeschmack dann kann es passieren, daß da kein Profil da ist.

Zudem machen die Profile nur die Treiber fett.

Cpl. Dwayne Hicks
2008-03-10, 01:50:05
Mein Fazit:

PCGH hätte besser mal auf die minimalen fps geschaut und festgestellt, dass eine 8800 Ultra da wesentlich besser skaliert als eine 3870 X2.

Stimmt doch garnicht.

3 Mal "siegt" die Ultra in den Skalierungs Tests, 5 Mal die X2, und 3 Mal ist Gleichstand. Also wenn überhaupt dann skaliert die HD3870 X2 besser bei den min. FPS.
Vielleicht guckst du dir die Ergebniss Bilder nochmal etwas genauer an. ;)

Schrotti
2008-03-10, 02:42:46
Nur schade, das ATI/AMD dafür 2 Chips braucht.

Momentan ist ATI keine Konkurrenz.

Coda
2008-03-10, 02:51:49
Zudem machen die Profile nur die Treiber fett.
Bitte? Das ist nichtmal ein KB pro Spiel.

Gast
2008-03-10, 04:41:49
Nur schade, das ATI/AMD dafür 2 Chips braucht.

Momentan ist ATI keine Konkurrenz.

dafür brauchen sie auch nur 2 MIDRANGE Chips die immer noch billiger als ne Ultra sind :ugly:

NV geht die Puste aus, sieht man schön an der Pseudo GTX (die neue) und der GX2 ;)

Gast
2008-03-10, 04:43:52
Mag schon sein. Trotzdem bist du auf Gedeih und Verderb auf Profile angewiesen und "darfst" dann regelmässig Treiber aktualisieren. Und hast du keinen Mainstreamgeschmack dann kann es passieren, daß da kein Profil da ist.

Zudem machen die Profile nur die Treiber fett.

ja und ist doch bei NV das selbe Spiel, da darfst du bloss im Monat 6 Betas Installieren und für jedes game nen anderen Treiber ist doch lolig der Schrott.
Da warte ich lieber 1 Monat als mir 2x im MOnat das System zu zerschissen durch Murks Treiber die eh nix sind oder in Crysis 2 FPS bringen und jedesmal schlechtere Bildqualli zu haben:P

Gast
2008-03-11, 00:51:08
ja und ist doch bei NV das selbe Spiel, da darfst du bloss im Monat 6 Betas Installieren und für jedes game nen anderen Treiber ist doch lolig der Schrott.

So ein Schwachsinn

LovesuckZ
2008-03-11, 15:31:09
NV geht die Puste aus, sieht man schön an der Pseudo GTX (die neue) und der GX2 ;)

Hahaha, klar. Wer 399$ für eine 8800GTS-512 verlangen kann, hat keine Konkurrenz.

Gast
2008-06-01, 01:58:00
Kurztest: Sapphire Radeon HD 3870 X2 Atomic

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_3870_x2_atomic/#abschnitt_einleitung


http://www.abload.de/img/h1vyy0.jpg

gamingforce
2008-06-02, 16:08:19
Ahoi. Das einzige was heutzutage limitiert ist die Graka. Die CPU`S die heutzutage verkauft werden sollten stark genug auf der Brust sein. Und hiermit meine ich ne CPU ala E6600 non oced. Deswegen brauch man mir garnicht mit 3dMurks benches kommen, denn die sagen nix aus. Der 3870X2 ist ein Schuss in den Ofen, der, wie gesagt, nur im 3DMurks zu glänzen vermag. Selten so ein unausgereiftes Produkt gesehen. Von den Ausfällen im Freundeskreis will ich gar nicht reden. Bei einem lief der Propeller 100%, bei dem anderen nicht, Bildfehler und schlechtere Performance als ne einzelne 3870. Einfach schlecht. Kein Wunder das sich Nvidia auf seinen Lorbeeren ausruht! Just my kind of thinking.

auweia, wo bist du den ausgebrochen:rolleyes:

Daredevil
2008-06-02, 16:15:11
Kurztest: Sapphire Radeon HD 3870 X2 Atomic

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_3870_x2_atomic/#abschnitt_einleitung


http://www.abload.de/img/h1vyy0.jpg
Damit kann sich die Sapphire Radeon HD 3870 X2 Atomic mit einem Vorsprung von 31 Prozent von der derzeit insgesamt schnellsten Single-GPU-Karte, der GeForce 9800 GTX, absetzen. Im Vergleich zur GeForce 9800 GX2 muss sich jedoch auch die Atomic geschlagen geben – hierbei muss man sogar anmerken, dass die von uns ausgesuchten Spielen den ATi-Karten besser liegen. Der durchschnittliche Rückstand auf die GeForce 9800 GX2 beträgt sieben Prozent.
;)
Sollte man jetzt nicht so überbewerten.

Gast
2008-06-02, 16:17:21
Kurztest: Sapphire Radeon HD 3870 X2 Atomic

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_3870_x2_atomic/#abschnitt_einleitung


http://www.abload.de/img/h1vyy0.jpg

Knapp hinter der GX2 die deutlich teurer ist :eek:

Gast
2008-06-02, 16:19:47
;)
Sollte man jetzt nicht so überbewerten.

Hää? Crysis,Stalker und CoD4 sind Titel die der ATI liegen? Es sind 6 Titel im Test also 3:3 ist doch völlig fair ;)

gamingforce
2008-06-02, 16:20:17
für 45% mehr Geld bekommt man 7% mehr Leistung ist doch guter Preis oder nicht? ;D

Dafür bekomtm man Gratis nen VRAM Bug und scheiss Vista Treiber :uexplode:

Gast
2008-06-02, 16:46:25
für 45% mehr Geld bekommt man 7% mehr Leistung ist doch guter Preis oder nicht? ;D

Dafür bekomtm man Gratis nen VRAM Bug und scheiss Vista Treiber :uexplode:


Und trotzdem geht die GX2 bestimmt besser über denn ladentisch.

traurig.

gamingforce
2008-06-02, 16:49:30
Und trotzdem geht die GX2 bestimmt besser über denn ladentisch.

traurig.

glaub ich weniger;)

In unserem Laden www.zur48.de, weisst du wieviel GX2s da verkauft werden ?

2 seit dem sie raus ist.

soll ich dir sagen wieviel X2s die verkaufen ?

die bekommen jede zweite Woche Lieferung.

In anderen Foren haben sie die Müll Karte mit Kusshand getauscht gegen eine X2 ;D

Gast
2008-06-02, 17:11:12
Dafür bekomtm man Gratis nen VRAM Bug und scheiss Vista Treiber :uexplode:

dafür bekommt man eine ordentliche profileverwaltung, superbes AF und in vielen spielen einen sehr deutlichen leistungsvorsprung.

gamingforce
2008-06-02, 17:16:20
dafür bekommt man eine ordentliche profileverwaltung, superbes AF und in vielen spielen einen sehr deutlichen leistungsvorsprung.

;D ich merk schon du hattest noch keine :ulol2:

aber gut jetzt, jeder wie er möchte ich hatte 2 stärkere 8800GTS 512 Mb wie die GX2 und die X2 ist nicht ganz so stark im Benchmark aber im Spiel sieht es anders aus und versägt die beiden locker vom Gameplay her.

Schlammsau
2008-06-02, 17:17:14
dafür bekommt man eine ordentliche profileverwaltung, superbes AF und in vielen spielen einen sehr deutlichen leistungsvorsprung.

....und musst über 100 Teuronen mehr dafür auf den Tisch legen ,hast einen wesentlich höheren Idle Verbrauch, hast kein DX10.1, und zu guter letzt, geht ser GX2 schneller der Speicher aus! ;)
Das ist mir keine 100€ mehr Wert! :P

Daredevil
2008-06-02, 17:48:43
Hää? Crysis,Stalker und CoD4 sind Titel die der ATI liegen? Es sind 6 Titel im Test also 3:3 ist doch völlig fair ;)
Und genau bei 3 Tests hat SLI nicht gescheit funktioniert :)

Call of Juarez – 4xAA/16xAF
Ist eine einzelne 9800 GTX 327% schneller als eine GX2.

Company of Heroes
Greift SLI nicht gescheit, max 15% mehr Performance.

Wär schön gewesen wenn man da eine einzelne 3870 zugetestet hätte... aber so is das doch zum Vergleich doof weil man nicht sieht wie Crossfire skaliert :(

Gast
2008-06-02, 19:36:06
Nimmt man den CoJ Test raus, ist die 9800x2 deutlich schneller. Das Performancerating ist daher nichtssagend.

Gast
2008-06-02, 19:55:19
Nimmt man den CoJ Test raus, ist die 9800x2 deutlich schneller. Das Performancerating ist daher nichtssagend.

Oder nimmt man Crysis raus, sieht es noch düsterer für die GX2 aus ;D

gamingforce
2008-06-02, 20:00:00
Oder Mass Effekt und GRID mit rein dann kann die GX2 einpacken :biggrin:

ne, das CB rating ist eh Bullshit.