PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Wer hat schon eine HD3870 X2?


Schlammsau
2008-02-03, 11:53:23
Der Titel ist Programm. :)
Wer kann was zur Performance, Mickrorucklern, Lautstärke, Kompatibilät, etc. sagen?
Und bitte keine Links zu irgendwelchen Re- oder Preview Seiten, ich möchte hier echte User Erfahrungsberichte sehen!
Und es ist mir klar, dass es noch nicht wirklich viele sein werden.

Schlammsau
2008-02-06, 08:58:30
noch keiner? hab doch im benchmark thread ein paar posts mit der X2 gesehen!?

Gast
2008-02-06, 10:47:56
wenns dir was hilft, gast hat eine :)

Steve1
2008-02-06, 11:18:09
@ Gast Bist du damit zufrieden?

Gast
2008-02-06, 11:23:20
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6256630&postcount=164

ja

Jake Dunn
2008-02-14, 00:15:06
Hallo,
mein Eindruck von der Powercolor 3870 X2,nach dem auspacken hab ich erstmal gestaunt wie schwer die Graka ist ca. 1080g die länge beträgt ~27cm.

Karte eingebaut Treiber installiert und 3D Mark gestartet hatte "nur" 16,5 K ;( o.k. den Q6600 auf 3,6ghz gezogen und nochmal das ganze-> Ergebnis 18,2K.

http://www.abload.de/thumb/unbenanntyia0dr.jpg (http://www.abload.de/image.php?img=unbenanntyia0dr.jpg)

Man sollte auf jedenfall eine Potente CPU haben sonst kommt die X2 nicht in fahrt siehe auch den PCHG-Test-> http://www.pcgameshardware.de/aid,630867/Test/Praxis/Review-Update_Radeon_HD3870_X2_vs_8800_Ultra/


Nach dem die Graka dann Warm war konnte man auch ein leichtes rauschen des Lüfters vernehmen (vergleichbar mit der Lautstärke der 2900XT bei 32% Lüftergesch.) und das auch immer nur kurz um die Karte unter 75° zu halten. Im Windows war sie nicht aus dem PC raus zuhören.

Danach ein paar Games getestet auf 1920 und nat. CRYSIS zu erst und da war ich entäuscht im Level Contact hatte ich 10% mehr Leistng wie mit der 3850 TURBO ;D o.k. dann hab ich das ICE Level geladen und hatte dann 100% mehr Leistung :eek: wie mit der 3850er.
Hab noch ein paar Levels durch getestet und es war halt sehr durchwachsen mit der Performance.
In STALKER,GOW,Dirt,BF2,Quake4 hatte ich keine Probleme und sehr gute Performance.
Da ich kein VISTA installiert habe konnte ich DX10 nicht testen.

Overclocking
Ich konnte die Graka mit 870/950 stabil betreiben,brachte bei CRYSIS eine FPS Steigerung von 52 auf 54FPS in Game (High/VeryHigh-Custom) also nicht soo viel.

http://www.abload.de/thumb/1658p3rnqhbr.jpg (http://www.abload.de/image.php?img=1658p3rnqhbr.jpg)

Mein Fazit zur der X2
ich sehe die Graka als Beta-Test für ATI mit guten ansätzen um die bestehenden probleme (Scalierung,Microruckler,Kompatiblität) zu lösen und mit dem R700 ein besseres Produkt zu bringen.

;)

DerböseWolf
2008-02-14, 00:54:45
1.Kannst du den Takt jeder GPU eigentlich individuell bestimmen? "Kann"/könnte man gar theoretisch eine GPU "ausschalten"?

2. Muss ein Spiel Crossfire unterstützten, um so eine Karte/bzw beide GPUs zu erkennen?

3. Ist ein PCI-E 2.0 Slot für so eine Karte von Vorteil? Bzw. ist der Unterschied deutlicher spürbar ( oder überhaupt da) als bei anderen Karten?

Jake Dunn
2008-02-14, 01:13:24
1.Kannst du den Takt jeder GPU eigentlich individuell bestimmen?

Man kann mit einem geänderten AMD-Clock-Tool die GPU`s einzeln takten.


"Kann"/könnte man gar theoretisch eine GPU "ausschalten"?

Eventuell mit einem geeigneten Tool später,aber zur Zeit ist mir keins bekannt.


2. Muss ein Spiel Crossfire unterstützten, um so eine Karte/bzw beide GPUs zu erkennen?

Um gute Leistung zu haben,sollte das Game CF unterstützen (man kann in einzelfällen mit exe-renamming nachhelfen).


3. Ist ein PCI-E 2.0 Slot für so eine Karte von Vorteil? Bzw. ist der Unterschied deutlicher spürbar ( oder überhaupt da) als bei anderen Karten?

Ich hatte die Karte auf einem ASUS P5B DLX betrieben,daher kann ich nichts groß dazu sagen ob es mit einem X38 flotter geht.
Aber intern wird CF über den PLX-Chip realisiert und der soll ja auch nur PCI 1.1 entsprechen.


Zitat:
"Damit die beiden RV670-Chips im CrossFire-Modus miteinander kommunizieren können, verbaut ATi auf der Radeon HD 3870 X2 einen PCIe-Switch von PLX, der auf den Namen „PEX 8547“ hört. Dieser PCIe-Switch verfügt über insgesamt 48 PCIe-Lanes. 16 Lanes werden für die Ankopplung der Grafikkarte an den PCIe-Slot und jeweils 16 Lanes für die Anbindung der GPUs an den Switch verwendet. Jede einzelne GPU kann also auf die maximale Bandbreite des PCIe-Bus' zurückgreifen, ohne durch eine Auftrennung in zwei Mal acht Leiterbahnen ausgebremst zu werden. Da der PEX 8547 ein PCIe-1.1-Switch ist, ist die Radeon HD 3870 X2 allerdings nur zum älteren PCIe-1.1-Standard kompatibel, obwohl die RV670-Chips durchaus PCIe 2.0 unterstützen. Laut ATi soll es dadurch aber zu keiner Limitierung kommen. Mit PCIe-2.0-Boards funktioniert die Karte selbstverständlich trotzdem."
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/3/#abschnitt_technische_details

StefanV
2008-02-14, 03:53:46
3. Ist ein PCI-E 2.0 Slot für so eine Karte von Vorteil? Bzw. ist der Unterschied deutlicher spürbar ( oder überhaupt da) als bei anderen Karten?
Nein, da nur eine PCIe 1.1 Bridge verwendet wird.

Gast
2008-02-14, 09:31:04
Man sollte auf jedenfall eine Potente CPU haben sonst kommt die X2 nicht in fahrt siehe auch den PCHG-Test-> http://www.pcgameshardware.de/aid,630867/Test/Praxis/Review-Update_Radeon_HD3870_X2_vs_8800_Ultra/


Was man an dem Test auch schön sieht ist, dass durch die Microruckler die min-fps nicht immer steigen, z.B.:

http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=630867&entity_id=-1&image_id=769654&page=1&show=original

Successor
2008-02-14, 12:28:06
Jake, welchen Treiber hast du da verwendet?

Jake Dunn
2008-02-14, 13:33:47
Was man an dem Test auch schön sieht ist, dass durch die Microruckler die min-fps nicht immer steigen, z.B.:

http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=630867&entity_id=-1&image_id=769654&page=1&show=original

Was haben Microruckler mit den min. FPS zutun ? :confused:


Jake, welchen Treiber hast du da verwendet?

Den 8.1+HF und den "geleakten" 8.451.2.080123a

Gast
2008-02-14, 13:45:15
Was haben Microruckler mit den min. FPS zutun ? :confused:



Die min-fps ergeben sich immer aus dem längsten Abstand zwischen 2 aufeinander folgenden Frames und das ist auch der Abstand, der für die Microruckler verantwortlich ist.

Gast
2008-02-16, 18:31:12
ob ich nun Frames 5ms/5ms hab oder 3ms/7ms ist doch wurscht. die frames bleiben die selben. nur optisch nicht. währ mir neu das mikroruckler einfluss auf die frames haben.

darkvader
2008-02-16, 19:11:30
Gerade eben sind meine 2 3870 X2 eingetrudelt - mal schauen ob ich heute nacht schon dazu komme eine einzubauen.

Gast
2008-02-16, 19:18:42
Gerade eben sind meine 2 3870 X2 eingetrudelt - mal schauen ob ich heute nacht schon dazu komme eine einzubauen.

Hm, und wie willst du die betreiben? Gibs überhaupt schon Unterstützung für Crossfire X?

Jake Dunn.
2008-02-16, 20:21:25
Hm, und wie willst du die betreiben? Gibs überhaupt schon Unterstützung für Crossfire X?
Kommt mit dem 8.3 Catalyst in 3-4 Wochen oder evt. vorher noch ein Beta Treiber.

darkvader
2008-02-16, 20:58:09
Hm, und wie willst du die betreiben? Gibs überhaupt schon Unterstützung für Crossfire X?

Daswegen schrieb ich ja EINE einzubauen :-).

Hab derzeit eh nur ein 790X Board, dass FX ist aber auf dem Weg, hoffe dass komtm rechtzeitig zum Treiber - und beißt sich nicht mit der CeBIT, vom 1.3 - 10.3 bin ich nämlich beruflich da....

Spasstiger
2008-02-16, 21:57:55
Nein, da nur eine PCIe 1.1 Bridge verwendet wird.
Dann schau mal in die aktuelle PCGH, da wurden die HD3870 X2 und zwei 8800 GTS (G92) mit PCIe 2.0 getestet. Hier die Ergebnisse der HD3870 X2 auf einem X38-Board (PCIe 2.0) und einem P35-Board (PCIe 1.1):

Crysis, 1280x1024, 4xAA, 8:1 AF
---
PCIe 1.1 - 21,2 fps, ~9 fps min
PCIe 2.0 - 22,3 fps, ~14 fps min

Crysis, 1680x1050, 4xAA, 8:1 AF
---
PCIe 1.1 - 14,1 fps, ~6 fps min
PCIe 2.0 - 17,0 fps, ~10 fps min

UT3, 1680x1050, 4xAA, 8:1 AF
---
PCIe 1.1 - 93 fps, ~20 fps min
PCIe 2.0 - 97 fps, ~18 fps min

CoD 4, 1680x1050, 4xAA, 8:1 AF
---
PCIe 1.1 - 33,6 fps, ~28 fps min
PCIe 2.0 - 50,0 fps, ~40 fps min

Wie schnell die Brückenverbindung ist, sagt noch nix über die tatsächliche nutzbare Bandbreite aus. Und eine PCIe-1.1-Brücke reicht für den Framebufferaustausch.
Ich würde jedenfalls ein Board mit PCIe-2.0-Slot für die HD3870 X2 nehmen. Es sind hier immerhin zwei leistungsfähige Grafikchips verbaut, die die Bandbreite gut gebrauchen können.

AnarchX
2008-02-16, 22:21:43
:|
Wie bitte soll der PEX 8547, welcher nur PCIe 1.1 unterstützt, denn einen Vorteil aus PCIe 2.0 ziehen?

Imo kann das doch nur 3870X2 vs 2x 3870 sein oder PCGH denkt sich einfach Werte aus, was hier daneben ging, da sie nichts über die maximalen Fähigkeiten des PEX wussten oder auf dem P35 lief sie einfach nicht mit x16.

Mills
2008-02-16, 22:33:12
Gerade eben sind meine 2 3870 X2 eingetrudelt - mal schauen ob ich heute nacht schon dazu komme eine einzubauen.
Nur mal neugierig, was macht man mit zwei 3870X2 ? :confused:
Ich versuch mir grad das Spiel vorzustellen, welches davon angemessen profitieren soll, wenn schon bei einer X2 die Effizienz häufig mau ist. Gesetz des abnehmenden Ertrags lässt grüßen... Mit welcher CPU fütterst du eigentlich die zwei Karten?

StefanV
2008-02-16, 22:46:17
Dann schau mal in die aktuelle PCGH, da wurden die HD3870 X2 und zwei 8800 GTS (G92) mit PCIe 2.0 getestet.Nunja, dazu sag ich nur das hier (http://extreme.pcgameshardware.de/showthread.php?t=6922) und 'der Verursacher' wurd auch per ICQ drauf angesprochen...

Was du hättest erwähnen sollen, ist das hier:
2x 16, PCIe 2.0 vs 16+4, PCIe 1.1.

darkvader
2008-02-16, 23:01:25
Nur mal neugierig, was macht man mit zwei 3870X2 ? :confused:

Erstmal haben - waren halt 2 im Paket kann ich nix für <grins>


Ich versuch mir grad das Spiel vorzustellen, welches davon angemessen profitieren soll, wenn schon bei einer X2 die Effizienz häufig mau ist. Gesetz des abnehmenden Ertrags lässt grüßen... Mit welcher CPU fütterst du eigentlich die zwei Karten?

Derzeit FX 60, aber im Paket war auch ein Phenom 9600 BE - wie gesagt, jetzt warte ich noch auf dass FX Board, und dann werd ich einfach mal damit spielen. Keine Ahnung ob es wirklich Sinn macht, aber wenn die eine dafür sorgt, dass ich Crysis endlich in schön auf meinem 24" spielen kann bin ich schon zufrieden.

Die Zweite ist dann echt mehr um zu schauen was technisch geht. Und über "häufig mau" kann man jetzt auch wieder diskutieren, immerhin hats bei Computerbase im Overall Ranking bei meiner Auflösung (1920) für über 70% mehr gerreicht.

darkvader
2008-02-17, 20:53:15
Tjoa - also eingebaut ist die Karte seit gestern Nacht - aber im 3D Mark 2006 unter Vista gerade mal 9000 Punkte legt den Verdacht nahe, dass irgendwas nicht funzt - hab mittlerweile dass komplette System neu eingespielt, also nacktes Vista mit allen Patches und letzter Catalyst auf eine vorher formatierte Platte - aber irgendwo scheint der Wurm drin zu sein - spontane Ideen von Euch?

Spasstiger
2008-02-17, 21:38:51
Imo kann das doch nur 3870X2 vs 2x 3870 sein oder PCGH denkt sich einfach Werte aus, was hier daneben ging, da sie nichts über die maximalen Fähigkeiten des PEX wussten oder auf dem P35 lief sie einfach nicht mit x16.
Der Fehler liegt bei mir, die PCGH hat zwei einzelne HD3870 getestet. Bin irrtümlich von der HD3870 X2 ausgegangen, die in dieser Ausgabe einem größerem Review unterzogen wurde.

AnarchX
2008-02-17, 22:06:12
Der Fehler liegt bei mir, die PCGH hat zwei einzelne HD3870 getestet. Bin irrtümlich von der HD3870 X2 ausgegangen, die in dieser Ausgabe einem größerem Review unterzogen wurde.
Das hatte ich mir doch schon gedacht, wobei sich durch die Werte aber auch zeigt, dass ATi wohlmöglich an der falschen Stelle gespart hat und eine 2.0-Bridge hätte verbauen sollen.

Für den User bringt aber natürlich vorerst ein 2.0-Board keinen Vorteil.

Spasstiger
2008-02-17, 22:27:01
Das hatte ich mir doch schon gedacht, wobei sich durch die Werte aber auch zeigt, dass ATi wohlmöglich an der falschen Stelle gespart hat und eine 2.0-Bridge hätte verbauen sollen.
Beachte dazu aber StefanV's Kommentar. Im PCIe-1.1-Betrieb wurde ein P35-Board verwendet, wo ein PEG-Slot nur mit 4 Lanes angebunden war. Beim X38-Board für den PCIe-2.0-Test waren beide PEG-Slots mit 16 Lanes angebunden.
Scheint so, als ob der Tester einen scheinbaren Vorteil für PCIe 2.0 heraufbeschwören wollte.

AnarchX
2008-02-17, 22:38:35
Achso, ich dachte 3870X2@x16 Gen1 vs 2x 3870@2x x16 Gen2.
Aber bei so manchen Settings, die man vorallem auch mit einem Q-CF fahren kann, wäre eine Gen2-Bridge sicherlich nicht verkehrt gewesen...

RavenTS
2008-02-18, 00:23:57
Achso, ich dachte 3870X2@x16 Gen1 vs 2x 3870@2x x16 Gen2.
Aber bei so manchen Settings, die man vorallem auch mit einem Q-CF fahren kann, wäre eine Gen2-Bridge sicherlich nicht verkehrt gewesen...

Wär doch was für ne "Pro-Variante", nur werden diese Karten wohl kein so langes Leben in den Verkaufslisten haben...

StefanV
2008-02-18, 00:58:55
Scheint so, als ob der Tester einen scheinbaren Vorteil für PCIe 2.0 heraufbeschwören wollte.
nein, der Tester (Raff) hat das genommen was er gerad hatte, mich hats auch gewaltig gestört, das man nichtmal ansatzweise vergleichbare Bedingungen geschaffen hat, wofür man aber einen AMD Prozessor hätte nehmen müssen...

OBrian
2008-02-18, 03:36:58
Möglicherweise war auch einfach noch keine passende PCIe 2.0-Bridge verfügbar. Das Ding ist ja sowieso zugekauft (d.h. extra teuer) und keine Eigenentwicklung, ist also bestimmt nicht der Weisheit letzter Schluß. Ich könnte mir vorstellen, daß bei entsprechenden zukünftigen Karten AMD selber einen Chip dafür entwirft, was ja keine Riesensache sein dürfte, wenn sie in den Baukasten ihrer Chipsatzabteilung greifen.

StefanV
2008-02-18, 03:58:35
Eine Möglichkeit wäre z.B. einen Chip zu basteln, wo sowohl HT als auch PCie rein/raus gehen...

Naja, abwarten...

OBrian
2008-02-18, 04:08:12
HT wäre an der Stelle unnütz. Man verwendet ja einen PCIe-Steckplatz und nicht HTX, und die Chips selbst müssen auch einen PCIe-Anschluß haben, sonst ist der Vorteil ja dahin, die gleichen Chips in unterschiedlicher Anzahl auf Mainstream und Highend einsetzen zu können.

Man braucht also im Grunde nur einen "Y-Adapter" aus PCIe-Links.

Spasstiger
2008-02-18, 04:58:07
Man braucht also im Grunde nur einen "Y-Adapter" aus PCIe-Links.
Sowas gibt es bei Punkt-zu-Punkt-Verbindungen nicht. Man könnte allerdings jeweils 8 Lanes einem Chip zuweisen.

StefanV
2008-02-18, 11:57:53
@Obrian

Warum wäre HT als Chip Interconnect unnütz?
Hätte auch den Vorteil das man den selben Chip prinzipiell auch auf 'nen LGA1207 Package basteln könnte :)

OBrian
2008-02-18, 23:55:36
@Spasstiger: Das ist mir schon klar, daß das technisch anders gelöst werden muß als einfach eine Litze zu spleißen, daher hab ich es ja auch in Anführungszeichen gesetzt. Aber hier muß man ja immer alles haarklein auseinanderklamüsern, sonst wird es einem sofort vorgehalten. Anstrengend sowas...

@StefanV: Technisch vielleicht nicht unnütz, aber wirtschaftlich. Man baut ja gerade deshalb Highend-Karten aus zwei kleineren Chips, weil man sich die Entwicklung eines großen sparen will, daher muß man die Mainstreamchips auch möglichst ohne Veränderung nutzen. Effiziente Nutzung der Entwicklungsressourcen ist für so einen kleinen Schuppen wie AMD eben wichtiger als jede technische Möglichkeit optimal auszureizen.

Und ich denke, in einem Sockel F machte so eine GPGPU auch wenig Sinn, weil die Speicheranbindung zu schwachbrüstig wäre, auf einer Zusatzplatine bekommt man eben wesentlich mehr Bandbreite hin. Latenzen dagegen sind nicht so relevant, daher kommt man mit einer PCIe-Steckkarte ganz gut aus. Die ist eben sowieso schon entwickelt für den Gamermarkt, für GPGPU-Zwecke schreibt man einfach die passende Software dazu und ist fertig.

Malachi
2008-02-24, 13:46:17
Damit der Thread nicht einschläft will ich mal meinen Senf dazu geben.

Seit gestern besitze ich auch eine Sapphire 3870 X2. Daß das Teil riesig und schwer ist, brauche ich nicht mehr erwähnen.

Vorbereitend hab ich mir den "Sample" Treiber besorgt. Dieser soll speziell in Crysis "wahre Wunder" bewirken und in Unreal Tournament 3 Anti Aliasing ermöglichen.
Was die Karte in Crysis bringt ist mir mittlerweile egal. Hab das Spiel schon lange durch. Wie Far Cry 2 läuft, muß sich zeigen.
Weiterhin habe ich mir die Microsoft Hotfixes für SLI/Crossfire besorgt. Vista x64 wollte aber keine Installation zulassen. Möglicherweise liegts an dem Service Pack 1, welches mir am Donnerstag "aufgedrängt" wurde. Daß das keine Absicht von M$ war, erfuhr ich zu spät.

Vorher war ne einzelne HD 3870 drin. Habe zunächst den Treiber deinstalliert und im abgesicherten Modus die ATI Reste aus der drei Ordnern System32, System32\drivers und SySWOW64 entfernt.
Kiste aus, Monster eingebaut. 6poliges und 8poliges Kabel dran. Netzteil ist ein nagelneues BeQuiet! Dark Power Pro 550 W mit 44 A combinded auf den 12 V Leitungen bei über 500W. Wenn das nicht reicht, dachte ich mir, hat es keine Daseinsberechtigung! BeQuiet! riet mir zu 700 W aufwärts.

Computer eingeschaltet, gleich wieder aus. Ihr wisst schon, P35/X38 muß beim strapping ein/aus/ein...
Gut, ein/aus/ein/ kein Bild. Freeze! Verdammte sche***!!
Geht prima los. Sollte hier schon das NT schlapp machen?
Also nochmal Compi aus. Einschalten, Board postet. *hui*
Vista x64 bootet. Sample Treiber drauf reboot, CCC überprüft, 3DMark06 gestartet. Läuft erfolgreich durch. Fast 18000 Punkte. Dürfte dafür sprechen, daß alles im grünen Bereich ist.
Was war das noch mit dem nicht posten beim Einschalten? Kiste runter, tausendmal eingeschaltet. Läuft astrein jetzt. Komisch...
Vlt. passte es der Radeon auch nicht, daß das Asus ein/aus/ein machte.

Die X2 musste sich gestern gleich auf der LAN bewähren. Viele Stunden Dauerbetrieb. Fazit: Keine Stabilitätsprobleme. Nur sau heiß wird das Ding, trotz hervorragender Kühlung in meinem ANTEC Nine Hundred. Kühler der ATI ist aber stets im leisen Bereich. Auf´m Desktop hör ich das Teil nicht raus, bei 3D Anwendung vernimmt man ein leises rauschen.

Achja, bevor ich´s vergesse: Bei Volllast genehmigt sich der komplette Rechner ohne Monitor gut 350 W. Damals zog die X1900XT übertaktet auch 300 W. Nicht so schlimm also.

Das waren die guten Nachrichten. Jetzt der Pferdefuß:
ATM ist die CF Unterstützung nicht optimal. Bei vielen Games bringt mir die X2 zu wenig im Vergleich zur 8800 GT.
UT3 hat mich bei 2x und 4x AA maßlos entäuscht!
CoD4 läuft recht ordentlich mit 4x AA. Eine einzelne 3870 reichte mir nicht bei 1680x1050 @ 2xAA in Multiplayer Matches. Eine einzelne 88GT hingegen schon.
3870: Frames (2xAA): 799 - Time: 18000ms - Avg: 44.389 - Min: 35 - Max: 53
88GT: Frames (2xAA): 1183 - Time: 18000ms - Avg: 65.722 - Min: 55 - Max: 78
3870 X2: Frames: 1131 - Time: 18000ms - Avg: 62.833 - Min: 55 - Max: 84
3870 X2 (4xAA): Frames: 1049 - Time: 18000ms - Avg: 58.278 - Min: 50 - Max: 80

Need for Speed: Pro Street: unspielbar. Dank Patch 1.1 limitieren die Frames auf 30 Bild pro Sekunde. Es spielt sich teilweise, als hätte man 5fps, trotz brachialem Leistungsüberschuß! Hier würde ich eine Anschaltung von Crossfire begrüßen. Aber sind die besagten CF/SLI Mikroruckler solche derbe Makroruckler?

Fazit des ersten Eindrucks: Tolle potente Hardware, deren es an guten Treibern und Unterstützung in Spielen mangelt. Alle hoffen auf Catalyst 8.3. Er bringt hoffentlich mehr als nur die Unterstütung von zwei HD 3870 X2 Karten.
Wenn man bedenkt, was ich für ne X1900XT oder ner 7900 GTX hingeblättert hab, ist die X2 fast schon ein Schnäppchen!

PS: Werde heute mal unter XP Pro testen. Vor allem nochmal UT3 genauer anschaun und NFS: Pro Street.

crux2005
2008-02-24, 15:49:31
hab jetzt auch eine 3870X2 im Rechner

was limitiert bei der Karte eigentlich ? (ich würde sagen - Bandbreite - da nur 900MHz GDDR 3 RAM oder PCI-Expres 1.1)

denn im vergleich zu 2x 3870 CF @ default hab ich mit der 3870X2 weniger fps in NFS ProStreet oder 3DM06 SM3.0
für mehr tests hatte bis jetzt keine Zeit

das board, cpu, RAM etc. war bei allen Karten gleich - X38 chipset, QX cpu ...

Läuft erfolgreich durch. Fast 18000 Punkte.


nicht schlecht, 3DM06 ? denn ich hab mit QX @ 3.4 GHz "nur" ~ 17300

DR.DEATH
2008-02-24, 16:41:53
Mich wuerden mal die Frametimes aus diversen Spielen mit einer X2 interessieren und ob man Microruckler spuerbar merkt.
Koennte jemand mit einer X2 diese evtl. mal posten oder sind die schon in einem anderen Thread vorhanden?

Malachi
2008-02-24, 17:23:00
nicht schlecht, 3DM06 ? denn ich hab mit QX @ 3.4 GHz "nur" ~ 17300

Ja, 3DMark06.

crux2005
2008-02-24, 18:35:48
Mich wuerden mal die Frametimes aus diversen Spielen mit einer X2 interessieren und ob man Microruckler spuerbar merkt.
Koennte jemand mit einer X2 diese evtl. mal posten oder sind die schon in einem anderen Thread vorhanden?

kann ich machen, welches game ? ja, leider sind sie spürbar, sehr sogar, wenn man in 1920x1200 (oder so) zocken will ...

Malachi
2008-02-26, 09:00:37
Nachtrag zu meinem ersten Eindruck:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6305240&postcount=37

Die Leistung unter XP Pro ist praktisch die selbe als bei Vista x64. Erfreulich.
Hab mal flyby der Map Shangri La aus UT3 gebencht (1680x1050, alles max.):
AA aus: Avg: 117,50 fps
AA 2x: Avg: 46,06 fps
AA 4x: Avg: 43,83 fps
Zwei HD 3870 sind hier schneller. Der Einbruch bei aktiviertem AA ist imho viel zu stark.
Reduziere ich die Details (Texture/World) von 5 auf 3:
AA 2x: Avg: 87,48 fps
AA 4x: Avg: 84,10 fps

Trotzdem von der Leistung hinter meiner 88GT Sonic+.

Nachtrag v. 27.02.
Deaktiviert man A.I. im CCC lässt sich scheinbar Crossfire genauso deaktivieren wie bei zwei Einzelkarten. Die Folge: Need for Speed: Pro Street läuft endlich smooth! :)
Habe nun Crysis 1.1 doch installiert. Läuft sehr gut in 1680x1050 @high.