PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 3870 X2: (P)Review-Thread (der neue)


Seiten : [1] 2

davidzo
2008-01-28, 16:17:07
Hallo, in diesm Thread geht es in erster Linie um die Benchmarkergebnisse und Reviews der 3870x2.

Nicht um die 9800gx2, nicht darum ob ATIfans nun heulen oder weinen dürfen, nicht um persönliche Feden unter Fans!

Ich werde diesen Post soweit es geht ergänzen mit den Links zu den Benchmarks die gepostet werden.

http://www.hartware.de/review_785.html
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/
http://www.anandtech.com/video/showdoc.aspx?i=3209
http://www.tomshardware.com/de/Grafikkarten-Radeon-HD3870X2,testberichte-239931.html
http://enthusiast.hardocp.com/articl...50aHVzaWFzdA== --alter treiber

Bitte keine Reviews posten, welche noch mit dem veralteten catalyst 8.451.2.080108a vor dem 25. angefertigt wurden, wie das Review von TECHREPORT. Catalyst Version muss 8.451.2.080123a vom 25.01. sein!!!

Ich war mal so frei und hab die erste Beleidigung, die gleich mal im Eingangspost stand, gelöscht.
Und wer hier einige Diskussionspartner vermißt, sollte mal hier nachschauen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6232378#post6232378
nur so als Warnung vorneweg!

<anddill>

deekey777
2008-01-28, 16:19:55
So geht das:
http://forum.beyond3d.com/showpost.php?p=1122437&postcount=65
Copied from XtremeSystems' forums http://www.xtremesystems.org/forums/showthread.php?t=174988:
Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=3209) uses a EVGA nForce 780i SLI, ATI: 8-451-2-080123a
Computer Base (http://translate.google.com/translate?hl=en&sl=de&u=http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dhttp://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/%26hl%3Den%26sa%3DG) using Asus P5W DH Deluxe (Intel i975X) with Cat 8-451-2-080123a
Hardware Canucks (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/4236-ati-radeon-hd3870-x2-1gb-review.html) using Asus Blitz Extreme (P35) with Cat 8.451.2-080
Hot Hardware (http://www.hothardware.com/Articles/R680%5FHas%5FLanded%5FATI%5FRadeon%5FHD%5F3870%5FX2) using a EVGA nForce 680i SLI, Cat ATI Catalyst Bets v8.451
PCPOP (http://translate.google.com/translate?hl=en&sl=zh-CN&u=http://www.pcpop.com/doc/0/266/266637_15.shtml&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dhttp://www.pcpop.com/doc/0/266/266637_15.shtml%26hl%3Den%26sa%3DG) using ASUS Maximus Formula (X38) and Cat 8.1 (no indication of updated drivers)
TechPowerUp (http://www.techpowerup.com/reviews/HIS/HD_3870_X2/) using a Gigabyte P35C-DS3R Intel P35, Catalyst 8.12 v8.451.2
Tech Report (http://techreport.com/articles.x/13967) using Gigabyte GA-X38-DQ6 with Cat 8.451.2-080116a-057935E
Tom's Hardware (http://www.tomshardware.com/2008/01/28/ati_r680_the_rage_fury_maxx_2/) using Asus P5E3 Deluxe (X38) with Cat Asus P5E3 Deluxe (X38)

RADEON HD 3870 X2 2x512MB PCI-E (http://www.ixbt.com/video3/rv670-3-part1.shtml)@iXBT inkl. HIS, MSI, Powerolor (TUL) und GeCube -->>>>>> http://www.ixbt.com/video3/rv670-3-part3-d.shtml#p18

Du hast ja editiert...

davidzo
2008-01-28, 16:21:32
da die schöne Auflistung da direkt runter passt editiere ich die mal nicht rein :D

Blaire
2008-01-28, 16:21:39
http://enthusiast.hardocp.com/article.html?art=MTQ1NCwzLCxoZW50aHVzaWFzdA== :wink:

Der Klassiker ;)

davidzo
2008-01-28, 16:24:19
Hm, vielleicht sollte man den Thread doch besser in das ATIforum verschieben, sonst wird hier doch diskutiert (will sagen das geflame des gesperrten Threads fortgeführt) *Moderator bitt*

laser114
2008-01-28, 16:24:58
http://enthusiast.hardocp.com/article.html?art=MTQ1NCwzLCxoZW50aHVzaWFzdA== :wink:

Catalyst 8.1? :|
Eine genauere Treiberangabe wäre wünschenswert.

Edit: @davidzo: Ne, hier ist ein Review-Thread schon sinnvoll. Aber bitte auf Niveau und nicht so wieder alte, aus dem ich mich deswegen auch rausgehalten habe. ;)

deekey777
2008-01-28, 16:25:00
http://enthusiast.hardocp.com/article.html?art=MTQ1NCwzLCxoZW50aHVzaWFzdA== :wink:

Der Klassiker ;)
Da würde ich lieber einen Blich auf die Crysis-Werte von iXBT riskieren:
http://www.ixbt.com/video3/rv670-3-part3-d.shtml#p18
Die verwendeten Timedemos stammen übrigens von Crytek.

Odal
2008-01-28, 16:25:16
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5356&Itemid=1

fudzilla :D

Gast
2008-01-28, 16:29:32
Haben die sich da verschrieben? Ich lese da 3870 X2 1024MB
Oder gibts die karte echt? Also 2x1024 nä wa? Würde aber zu den X2 karten jut passen ;)

Blaire
2008-01-28, 16:29:53
Da würde ich lieber einen Blich auf die Crysis-Werte von iXBT riskieren:
http://www.ixbt.com/video3/rv670-3-part3-d.shtml#p18
Die verwendeten Timedemos stammen übrigens von Crytek.

Ist ja auch nicht viel anders beim Blick auf FPS. Mit Klassiker schreib ich deshalb, da ich die Idee wie hardocp sie umsetzt garnicht mal so schlecht finde, nach spielbaren Settings zu testen samt FPS Verlauf das ist aussagekräftiger als viele andere Tests im Netz.

Odal
2008-01-28, 16:33:30
Haben die sich da verschrieben? Ich lese da 3870 X2 1024MB
Oder gibts die karte echt? Also 2x1024 nä wa? Würde aber zu den X2 karten jut passen ;)

das is fudzilla die können nix anderes als von der packung abschreiben und da steht ja 1024mb drauf :D

Gast
2008-01-28, 16:35:33
In D3D9 Modus fegt die Karte alles weg, und ist sogar teilweise so schnell wie ein HD3870-CF gespann. Die DX10 Optimierung muss ATi sich mal zur Brust nehmen, bzw. die Treiber besser optimieren.

Vom Preis/Leistung brauchen wir nicht reden, die ist excellent (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet), im gegensatz zu der Schnappsidee mit Tripple-SLI von nVidia.

- Tripple-SLI nicht mit 8800GT/8800GTS möglich
- Leistung (3.GPU bringt 30-50% Mehrleistung gegenüber SLI :rolleyes )
- Es wird insgesamt nur 768 MB V/Ram benutzt
- Kosten (3*8800GTX (http://geizhals.at/deutschland/a225997.html) für 1000€)
- Lauffähig nur unter Vista
- Extremer Stromverbrauch (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/19/#abschnitt_leistungsaufnahme) (nichtmal der Ansatz von Sparmechanismen)...
- ... und der damit verbundenen Lautstärke des Systems
- Wirkt nur in ausgewählten Spielen von Nvidia (Stichwort: Optimierung)
- benötigt eine starke CPU beiseite
- die G8x kann auch nicht für Wissenschaftliche berechnungen (http://folding.stanford.edu/) genutzt werden
- Keine DX10.1 (http://www.pcgameshardware.de/?article_id=628555) Unterstützung

Ein Leistungsmäßig gleiches SLI System ist sicher teurer und auch nicht moderner. Und das die Karten auch auf PCIe 1.0 Anschlüssen läuft, sollte auch gelobt werden. Sicher gibt es Nachteile (Stromverbrauch (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/28/#abschnitt_leistungsaufnahme)), diese ist aber gerade im 2D deutlich niedriger als bei vergleichbaren Nvidia Karten mit 1 (!) GPU. Interessant wäre ein Benchmark mit 2*HD3870X2 gegen 8800Ultra (gleiche Kosten)...

Greetings: Sentionline

HarryHirsch
2008-01-28, 16:36:36
hardtecs4u.com (http://www.hardtecs4u.com/reviews/2008/amd_radeon_hd_3870_x2/)
guru3d.com (http://www.guru3d.com/article/Videocards/490/9/)

der neue Treiber hat nur Auswirkungen bei Crysis...

Gast
2008-01-28, 16:37:04
Interessant wäre ein Benchmark mit 2*HD3870X2 gegen 8800Ultra (gleiche Kosten)...
Mist ich meinte 2*8800U-SLI...nicht hauen Please...

Gast
2008-01-28, 16:40:00
Mist ich meinte 2*8800U-SLI...nicht hauen Please...

Da bleiben trotzdem noch 200€ auf ATI seite

davidzo
2008-01-28, 16:41:02
fudzilla verwendet noch den ollen treiber, ebenso wie techreport, pcpop, hothardware.

die canucks behaupten in mehr games als in crysis verbesserungen zu sehen. CBN zeigt aber dass diese wenn minimal sind, der große batzen ist wirklich crysis.
allerings hat cb nur in wenigen einstellungen getestet, wenn wirklich teilweise wie im changelock nur bei 1920 oder bei fsaa8x oder 4x die performance verbessert wurde kommt das da nicht in erscheinung bei so einem oberflächlichen Vergleich.

@Gäste: hier geht es nicht um Ultra-SLI und auch nicht um irgendwelche Preisvergleiche und wertungen welche Karte besser ist. hier gehts um die 3870x2 Reviews und deren performance, nicht um ATI vs NV und ATIFANBOY vs NVFANBOY.

Blaire
2008-01-28, 16:42:23
fudzilla verwendet noch den ollen treiber, ebenso wie techreport, pcpop, hothardware und die hardwarecanucks.

Als würde das soviel ausmachen... :rolleyes:

reunion
2008-01-28, 16:44:45
Das sind die Verbesserungen durch den neueren Treiber laut AMD:

• Company of Heroes DX10 – AA now working on R680. Up to 70% faster at 2560x1600 4xAA
• Crysis DX10 – Improves up to ~60% on R680 and up to ~9% on RV670 on Island GPU test up to 1920x1200.
• Lost Planet DX10 – 16xAF scores on R680 improved ~20% and more. AF scores were horribly low before and should have been very close to no AF scores
• Oblivion – fixed random texture flashing
• COJ – no longer randomly goes to blackscreen after the DX10 benchmark run
• World in Conflict - 2560x1600x32 0xAA 16xAF quality=high we get 77% increase
• Fixed random WIC random crashing to desktop
• Fixed CF scaling for Colin McRae Dirt, Tiger Woods 08, and Blazing Angels2
• Fixed WIC DX9 having smearable text

http://www.anandtech.com/video/showdoc.aspx?i=3209&p=2

Bei Sapphire kann man den Treiber übrigens downloaden: http://www.sapphiretech.com/us/support/drivers.php
Hier gibt es eine schöne Reviewliste: http://forums.vr-zone.com/showthread.php?t=230799
Hier gibt es auch noch etwas zu Triple- und Quad-CF: http://www.pcinpact.com/a-315-1-RV670_HD_3870_X2_CrossFire.htm

Odal
2008-01-28, 16:49:28
hat schon jemand in erfahrung bringen können wo man sich diesen wundertreiber saugen kann? weil mein crysis lechzt nach jedem % mehrperformance

laser114
2008-01-28, 16:49:55
Bei Sapphire, siehe den Post über dir. ;)

puntarenas
2008-01-28, 16:50:24
Als würde das soviel ausmachen... :rolleyes:
Naja, AMD hat den Launch ja extra verschoben und sich somit vom alten Treiber distanziert.

hier gehts um die 3870x2 Reviews und deren performance, nicht um ATI vs NV und ATIFANBOY vs NVFANBOY.
Ich finde es gut, für die 3870X2-Reviews einen Reviewthread zu haben, aber warum heißt er nicht so?

Was hat es eigentlich mit dem neuen 16xAA auf sich, bekommt man das irgendwie besonders "billig" oder zumindest billiger als Edge-Detect und Co?

reunion
2008-01-28, 16:56:56
Die mit Abstand beste X2 dürfte wohl die von Gecube sein: http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/januar/gecube_hd_3870_x2_kuehler/

Kürzere Platine, vier DVI-Ausgänge, nur zwei 6-Pin Stromanschlüsse, übertaktet, anderer Kühler und völlig überarbeitetes Platinenlayout. Dafür bleibt natürlich die Wärme im Gehäuse.

puntarenas
2008-01-28, 16:58:42
Ja, nur dass zwei Lüfter halt auch ein doppelte Ausfall- oder Nervtöterrisiko beinhalten.

davidzo
2008-01-28, 17:05:31
Ich finde es gut, für die 3870X2-Reviews einen Reviewthread zu haben, aber warum heißt er nicht so?

Danke für den Hinweis, stimmt und wurde geändert.


Was hat es eigentlich mit dem neuen 16xAA auf sich, bekommt man das irgendwie besonders "billig" oder zumindest billiger als Edge-Detect und Co?

das ist nicht neu, das funzt afaik wie jedes sli/cf aa, also zwei karten rendern dasselbe bild mit speziellem 8xfsaa, dann wird das gemerged und somit hat man die doppelte anzahl von subpixeln.

Die mit Abstand beste X2 dürfte wohl die von Gecube sein: http://www.computerbase.de/news/hard...70_x2_kuehler/

Kürzere Platine, vier DVI-Ausgänge, nur zwei 6-Pin Stromanschlüsse, übertaktet, anderer Kühler und völlig überarbeitetes Platinenlayout. Dafür bleibt natürlich die Wärme im Gehäuse.
Geiles Teil. Interessant ist es, was dadrunter steckt. man sieht jedenfalls ne ecke von nem 45° gewinkelten chip, das standardlayout kanns also nicht sein. ATI hatte allerdings in der entwicklung auch mehrere prototypen, darunter welche mit 4 Ramchips pro GPU auf jeder seite aber auch welche mit allen 8 ramchips pro GPU auf einer Seite.

Ja, nur dass zwei Lüfter halt auch ein doppelte Ausfall- oder Nervtöterrisiko beinhalten.
Schonmal was von Redundanz gehört?
Das kann auch positive Wirkungen haben. zwei Lüfter mit halber Umdrehungszahl haben insgesamt vier Kugellager, welche deutlich langsamer verschleißen als zwei kuggellager bei doppelter Umdrehungszahl. Die Kühlwirkung von zwei langsamdrehenden Lüftern sollte bei gleicher Lautstärke auch besser sein. Die Lüfter sind zwar deutlich flacher, generell sind aber axiale Lüfter vom Durchsatz den radialen (Druckleistung, wenig Durchsatz) meistens überlegen. ich bin also gespannt ob es gebcube diesmal endlich geschafft hat die Lüfter ordentlich zu regeln oder ob die immer unnötig mit fullspeed laufen obwohl die temps prima sind.

anddill
2008-01-28, 17:07:12
Hm, vielleicht sollte man den Thread doch besser in das ATIforum verschieben, sonst wird hier doch diskutiert (will sagen das geflame des gesperrten Threads fortgeführt) *Moderator bitt*
Nein, der Thread paßt hier schon hin. Es geht ja nicht um Hilfe, sondern um eine Diskussion.

HarryHirsch
2008-01-28, 17:07:38
soll das der neue Treiber sein? C8.1_XP_8.451-071220a1-057721C-ATI (223MB)

davidzo
2008-01-28, 17:16:10
CB und Anandtech schreiben was 8.451.2.080123a

ich denke das es sich grundsätzlich um eine zweite Auflage des letzten Catalyst 8.451 handelt, daher die angehängt .2
Als nächstes ist das Datum genannt. 080123a = 23.01.2008 und a wie alpha!

Dein Treiber wäre demnach nur vom 20.12.07 und ist nicht der richtige!
Entweder Sapphire hat sich mit der Nummerierung vertan oder die Meldung ist schlichtweg falsch, dass sapphire ihn zum DL anbietet (oder ich suche an der falschen Stelle).

laser114
2008-01-28, 17:17:09
Dein Treiber wäre demnach nur vom 20.12.07 und ist nicht der richtige!

Der ganz alte Reviewtreiber ist vom 08.01.2008. Es scheint also noch mehr Treiber zu geben. ;)

HarryHirsch
2008-01-28, 17:20:07
bei Sapphire ist das aber der neueste (20.01.08) oder nicht?

Odal
2008-01-28, 17:27:17
bei Sapphire ist das aber der neueste (20.01.08) oder nicht?

nein den hab ich runtergeladen (wenn es der ist der gemeint war..also über den downloadbereich und treiber für 3870 X2) und der ist eigentlich vom 20.12.2007.....

darum ist seine nummer auch 8.451-071220a1-057721

der aktuelle offiziella ATI Hotfix ist vom 11.01.2008....

qaber ich bin immer noch für jegliche hinweise die zum aufspüren des "wundertreibers" führen könnten dankbar ;)

MadManniMan
2008-01-28, 17:53:48
Ich bitte wirklich stets und ständig zu bedenken, die über gemittelt gemessenen Werte nicht eins zu eins mit denen einer Single-Chip-Karte zu vergleichen. Es wird - egal, ob CrossFire, SLI oder einzelne Karten mit mehreren Chips! - immer wieder Applikationen geben, die gar nicht oder nicht deutlich vom Alternate Frame Rendering Verfahren profitieren. Dann gibt es die Problematik der Mikroruckler und zu guter Letzt unterstützen wir mit dem Kauf von 2-Chip-Lösungen auf einer Karte ATi und nV beim aktuellen Trend, nicht speziell gute Single-Chip-Karten zu entwickeln.

Es geht gegen das Prinzip Multi-Chip, das in seiner aktuellen Form schlecht ist.


Danke.

Blaire
2008-01-28, 17:57:02
Naja, AMD hat den Launch ja extra verschoben und sich somit vom alten Treiber distanziert.


Laut Computerbase hat es lediglich bei Crysis einen Schub gegeben aber das wurde ist bereits in die Bewertung mit eingeflossen.
Zitat CB "Der Treiber zeigte in allen DirectX 9-Spielen (im Diagramm nicht aufgelistet) keinerlei Verbesserungen. In Unreal Tournament 3 fiel er mit Darstellungsfehlern sogar durch. Im Großteil der im Parcours vertreten D3D10-Titel fällt die Leistungssteigerung minimal aus. Einzig und allein Crysis sticht mit einem Performance-Plus von bis zu 42 Prozent aus der breiten Masse hervor – weitere Wunder blieben aus."

Gast
2008-01-28, 18:18:16
Ich bitte wirklich stets und ständig zu bedenken, die über gemittelt gemessenen Werte nicht eins zu eins mit denen einer Single-Chip-Karte zu vergleichen. Es wird - egal, ob CrossFire, SLI oder einzelne Karten mit mehreren Chips! - immer wieder Applikationen geben, die gar nicht oder nicht deutlich vom Alternate Frame Rendering Verfahren profitieren. Dann gibt es die Problematik der Mikroruckler und zu guter Letzt unterstützen wir mit dem Kauf von 2-Chip-Lösungen auf einer Karte ATi und nV beim aktuellen Trend, nicht speziell gute Single-Chip-Karten zu entwickeln.

Es geht gegen das Prinzip Multi-Chip, das in seiner aktuellen Form schlecht ist.


Danke.


Was laberst du denn schon wieder daher ohne dich auf Fakten berufen zu können. Treiberentwickler haben sehr wohl die Möglichkeit für eine relativ ausgewogene "Frametime" zu sorgen. Also nicht Multi-GPU-Lösungen generell verdammen.

Coda
2008-01-28, 18:23:50
Was laberst du denn schon wieder daher ohne dich auf Fakten berufen zu können. Treiberentwickler haben sehr wohl die Möglichkeit für eine relativ ausgewogene "Frametime" zu sorgen. Also nicht Multi-GPU-Lösungen generell verdammen.
Tun sie aber nicht bisher. Falls sich daran was tut und die Profile noch frei definierbar sind, dann reden wir weiter.

vinacis_vivids
2008-01-28, 18:27:20
Gibs denn irgendwo den Tester-Treiber zu laden?

seahawk
2008-01-28, 18:27:32
Eigentlich eine tolle Karte, man muss sich halt beim Kauf nur klar sein, dass man am Software-end eine 2 GPU Lösung fährt, mit allen Vor- und Nachteilen. Gleichzeitig eröffnet der ATI Treiber gegenwärtig keine Eingriffsmöglichkeit, falls CF nicht richtig funktioniert. In diesem Falle muss man auf einen neuen Treiber hoffen. Wie wahrscheinlich das für eine älteres und seltenes Spiel ist, muss jeder für sich abwägen. Im optimalen Fall wird die Karte sehr gut skalieren, im schlimmsten Fall erreicht man nicht mal die Leistung einer 3870. Imho gibt es momentan gute Gründe diese Geenration der Dual-GPU-Karten zu überspringen, gerade weil die nächste Generation der Single-GPU-Karten sich schon am Horizont zeigt.

horn 12
2008-01-28, 19:13:49
Mein Beitrag zur X² -er Karte aus dem italienischem Raum!

http://www.hwupgrade.it/articoli/skvideo/1888/amd-gioca-al-raddoppio-radeon-hd3870x2_index.html

Gast
2008-01-28, 19:45:53
wäre nicht ein 3 die design auf einem package besser und billiger? ich mein sozusagen 2 gpu cores und dazu einen speichercontroller damit man nicht immer die hälfte vom ram verschwendet, außerdem nimmts weniger platz ein.

winnifred
2008-01-28, 19:52:48
was ich bis heute net verstehe, warum heißt die 9800gx2? die müsste doch eigentlich 8800gx2 heißen...sind doch schließlich 2 8800gts 512mb verbaut...oder liegt das daran, das die den G92 chip haben?

Gast
2008-01-28, 19:53:30
wäre nicht ein 3 die design auf einem package besser und billiger? ich mein sozusagen 2 gpu cores und dazu einen speichercontroller damit man nicht immer die hälfte vom ram verschwendet, außerdem nimmts weniger platz ein.

das wäre kaum möglich, du müsstest die gesamte speicherbandbreite zwischen dem controllerchip und den einzelnen GPUs transportieren, wohl ein ding der unmöglichkeit.

MartinRiggs
2008-01-28, 19:53:50
Ich bitte wirklich stets und ständig zu bedenken, die über gemittelt gemessenen Werte nicht eins zu eins mit denen einer Single-Chip-Karte zu vergleichen. Es wird - egal, ob CrossFire, SLI oder einzelne Karten mit mehreren Chips! - immer wieder Applikationen geben, die gar nicht oder nicht deutlich vom Alternate Frame Rendering Verfahren profitieren. Dann gibt es die Problematik der Mikroruckler und zu guter Letzt unterstützen wir mit dem Kauf von 2-Chip-Lösungen auf einer Karte ATi und nV beim aktuellen Trend, nicht speziell gute Single-Chip-Karten zu entwickeln.

Es geht gegen das Prinzip Multi-Chip, das in seiner aktuellen Form schlecht ist.


Danke.

So schlecht ist das Multi-Chip-Prinzip nicht und wegen der Mikroruckler, hast du mal SLI oder CF in Aktion gesehen?
Ich kann es nur immer wieder sagen, die Mikroruckler sind längst nicht so wie der Wind der darum gemacht wird.
Es ist wie bei ominösen V-Ram Bug der GF8, keiner hat ihn gesehen aber die Geforce 8 konnte man gut damit bashen:rolleyes:
Solange die dual-Karte nicht ständig um 30FPS rumkrebst wirst du von Rucklern nix feststellen und da die Karte meistens sogar in 2560x1600 gut performt wird man in gängigen WS-Auflösungen wie 1680x1050/1900x1200 garantiert keine Probleme haben.
Sie ist ne nette alternative für den Preis, allerdings wird sich ATI nicht ausruhen können, die Treiberpflege entscheidet über wohl und wehe der Dual-Karten.

@anddill
Schön das du den Verrückten eine Auszeit spendiert hast, ist gleich viel angenehmer in dem thread:biggrin:

Gast
2008-01-28, 20:00:31
ich frage mich warum so ein wind um ein produkt gemacht wird, dass es im prinzip schon lange am markt gibt.

das teil ist nicht billiger als 2 einzelne 3870er, quad-crossfire funktioniert noch immer nicht und CF ist abseits von mainstreamspielen mangels profilkontrolle eh nicht brauchbar.

2B-Maverick
2008-01-28, 20:08:20
ich frage mich warum so ein wind um ein produkt gemacht wird, dass es im prinzip schon lange am markt gibt.

das teil ist nicht billiger als 2 einzelne 3870er, quad-crossfire funktioniert noch immer nicht und CF ist abseits von mainstreamspielen mangels profilkontrolle eh nicht brauchbar.

Aber:
das "Teil" läuft auch auf non-CF Boards: sprich mit den üblichen Verdächtigen wie z.B. nem P35 (16/4x PCIe) oder P965er Chipsätzen vernünftig!
Und das dürfte ein Grossteil der momentan verbauten Boards sein.

Da KANN NVidia nicht mithalten, es sei denn sie verlassen endlich mal ihr "SLI on SLI-Mainboards only" Politik. Nur kauft dann kein Mensch mehr nen NV-Mainboard.

CU
Markus

LovesuckZ
2008-01-28, 20:11:15
Eine 8800GTX gibt es für 320€ und die läuft auch in jedem Board.

winnifred
2008-01-28, 20:12:25
die ist aber net ganz so schnell^^

davidzo
2008-01-28, 20:14:12
was ich bis heute net verstehe, warum heißt die 9800gx2? die müsste doch eigentlich 8800gx2 heißen...sind doch schließlich 2 8800gts 512mb verbaut...oder liegt das daran, das die den G92 chip haben?

Was ich nicht verstehe ist weiso die 8800GT nicht 9800gt oder heißt. Würde gegenüber der alten 8800gts und auch der gtx viel mehr Sinn machen.


@winnifred: ich bin mir ziemlich sicher, dass der Ur- R700 ein solches Design war.

Insbesondere bei einem Ringsbus speichercontroller könnte man die Vernetzung beliebig vieler Chips und zusammenschaltung der speicherinterfaces auf einem Substrat schon verwirklichen. Man bräuchte lediglich eine Punkt zu Punktverbindung ähnlich wie Hyper Transport nur zehnmal schneller. Daten zwischen den Threads würden dann über den Ringbus die einzelnen Chips ansteuern. Egal aus welchem Cache man dann kommt würde jede einzelne Shadereinheit angesteuert werden. Vermutlich müsste man die letzten Schritte, Framebuffer und den output allerdings wieder auf einen Chip verfrachten.

Trotzdem könnte ich es mir vorstellen dass man viermal 128bit zu einmal 512bit (vierfach oder achtfach unterteilt) zusammenschließen kann. damit wäre der größte Nachteil von CF/SLI technologie behoben.

Das Auge
2008-01-28, 20:16:25
Ich finde den Trend hin zu Duallösungen fürs Hig-End zum kotzen. Erstens ist es immer eine Frickelei bis alles optimal läuft - falls es das überhaupt tut. Und zweitens scheint es immer noch keine Lösung für die Mikrorucklerproblematik zu geben, damit disqualifiziert sich jede SLI- oder CF-Lösung mMn von selbst.

Und nein, ich will nicht generell gegen SLI oder CF bashen, ich hatte selber 2x 7800GTXen und eine GX2 und bin im Besitz eines SLI-Mainboards. Aber mit dem G7x war die SLI-Welt ja auch noch in Ordnung, was nv und ati derzeit zu bieten haben ist eine Frechheit. Zumal es bei ati nichtmal die Möglichkeit gibt selber ein Profil zu erstellen, das .exe-renaming ist jedenfalls keine vergleichbare Lösung zum nhancer...

Nö, da wart ich lieber auf das nächste schnelle single GPU Monster ;)

davidzo
2008-01-28, 20:29:01
Die Alternative ist ein monolithischer chip, der mit etlichen bugs auskommen muss und deiversen fehlern - wie wir beim R600 gesehen haben.

Große Chips sind einfach zu komplex als dass sich dort Stromsparoptimierungen noch wirklich lohnen würden, das sehen wir r600 vs rv630. Der Highendbereich ist nunmal der kleinste markt. Daher sind dafür auch nicht viel mehr Ressourcen zur Verfügung als für die anderen bereiche. Und diese Mehrressourcen würden gebraucht werden, der Aufwand der handoptimierungen verfielfacht sich bei Highendchips ja gegenüber mainstream oder lowendlösungen.

Die Einzige Lösung sparsame und optimierte sowie günstige Chips im Highend anbieten zu können ist eine Multichiplösung basierend auf mehreren Performance oder mainstreamchips.

je weniger unterschiedliche Chips die Hersteller fertigen lassen desto billiger werden die Karten und desto besser sind die einzelnen Chips optimiert.
Diese Vorteile hebeln teilweise die Nachteile eines MultiGPUsetups wieder aus. Siehe R600 vs RV670x2, da liegen die Vorteile der Multigpulösung auf der Hand.

Ein monolithischer Chip wäre womöglich wieder völlig verbugt, viel heißer, verzögert etc.

Ein angenehmes hat der Multichip Trend aber:
Da die Basischips deutlich besser optimiert werden und sehr schnell sein müssen ist die Preisleistung im performance und mainstreamsegment so gut wie noch nie zuvor. Und das ist für den durchschnittlichen gamer auch das wichtigste. Die Gamer mit einer 500 € karte sind nur wenige und die große masse mit nur 250 € bekommt mit dem neuen Trend nun ganz sozialistisch nun den großen Vorteil. Früher musste man sich mit mittelmäßigen Lösungen wie X1600xt, 7600GT, FX5700, MX460, abfinden oder einen preis nahe der Premiumkarten bezahlen wie radeon 8500LE, Ti4200, x1950pro, 7900gs, 6800, etc.
Die singlechipkarten der Multichipgeneration, das sind die wahren Killer!

Die großen Gewinner des Multi-GPUtrends sind also die Hans-Franze wie ich, welche sowieso nicht das geld für eine Highendkarte übrig haben.
- Ich begrüße den Trend :)

Gast
2008-01-28, 20:37:55
Ein angenehmes hat der Multichip Trend aber:
Da die Basischips deutlich besser optimiert werden und sehr schnell sein müssen ist die Preisleistung im performance und mainstreamsegment so gut wie noch nie zuvor.


der einzige grund für die momentan verhältnismäßig starken mainstreamkarten ist die schwäche der single-gpu-karten von ATI. deshalb müssen die karten einfach günstig sein.

die schere zwischen highend, midrange und lowendkarten wird eher immer größer.

LovesuckZ
2008-01-28, 20:38:56
Die Einzige Lösung sparsame und optimierte sowie günstige Chips im Highend anbieten zu können ist eine Multichiplösung basierend auf mehreren Performance oder mainstreamchips.

Seh ich leider nicht. Die 8800GTX war in Gegensatz zur 1950XTX sparsam, die 3870x² ist es nicht.


Die großen Gewinner des Multi-GPUtrends sind also die Hans-Franze wie ich, welche sowieso nicht das geld für eine Highendkarte übrig haben.
- Ich begrüße den Trend :)

Wart ab, bis die nächsten Maionstreamkarten nicht schneller sein werden. Wie wir es bei der 8600 und 2600 gesehen haben.

reunion
2008-01-28, 20:49:58
Wart ab, bis die nächsten Maionstreamkarten nicht schneller sein werden. Wie wir es bei der 8600 und 2600 gesehen haben.

Die muss aber schneller werden, denn sonst ist die High-End-Karte auch nicht schneller. Davidzo hat hat schon Recht, das ist durchaus ein Vorteil dieser Entwicklung. Wobei es diesmal auch eine fast einmalige Situation war, da D3D10 enorm transistorenintensiv ist.

LovesuckZ
2008-01-28, 20:53:29
Die muss aber schneller werden, denn sonst ist der High-End-Chip auch nicht schneller. Davidzo hat hat schon Recht, das ist durchaus ein Vorteil dieser Entwicklung. Wobei es diesmal auch eine fast einmalige Situation war, da D3D10 enorm transistorenintensiv ist.

Tja, wie ich schon sagte: Je höher die Leistung im Mainstream umso länger werden sich die neuen Generationen hinziehen.
Oder nimmt hier jemand an, dass AMD einen 50% größeren Chip für 3850 Preis verkaufen wird?

/edit: Die Entwicklung wird in ZUkunft nicht aufhören. Nächster Generationswechsel -> höhrerer Transistorenaufwand -> größere Fläche.

Das Auge
2008-01-28, 20:54:43
Die Alternative ist ein monolithischer chip, der mit etlichen bugs auskommen muss und deiversen fehlern - wie wir beim R600 gesehen haben.

Der R600 war ja auch Mist (psst.... ich hatte selber ne 2900XT...) Der G80 dagegen ist doch eigentlich, vom vram-bug mal abgesehen, durchaus gelungen. Das Update, der G92 ist auch OK und würde sicher auch für eine Karte herhalten, die schneller als eine Ultra ist, wenn nv nicht beim PCB und RAM sparen würde.

Große Chips sind einfach zu komplex als dass sich dort Stromsparoptimierungen noch wirklich lohnen würden, das sehen wir r600 vs rv630. Der Highendbereich ist nunmal der kleinste markt. Daher sind dafür auch nicht viel mehr Ressourcen zur Verfügung als für die anderen bereiche. Und diese Mehrressourcen würden gebraucht werden, der Aufwand der handoptimierungen verfielfacht sich bei Highendchips ja gegenüber mainstream oder lowendlösungen.

Das ist zwar alles richtig, aber dennoch ist eine fette GPU derzeit mMn das Beste, solange nicht mal wirklich ordentlich an den Profilen und den Mikrorucklern gearbeitet wird.

Die Einzige Lösung sparsame und optimierte sowie günstige Chips im Highend anbieten zu können ist eine Multichiplösung basierend auf mehreren Performance oder mainstreamchips.

Das sagt die Buchhaltung...

je weniger unterschiedliche Chips die Hersteller fertigen lassen desto billiger werden die Karten und desto besser sind die einzelnen Chips optimiert.
Diese Vorteile hebeln teilweise die Nachteile eines MultiGPUsetups wieder aus. Siehe R600 vs RV670x2, da liegen die Vorteile der Multigpulösung auf der Hand.

Wenn es denn auch nur annähernd so gut funktionieren würde wie eine Einzelkarte, wäre dagegen auch gar nix einzuwenden.
Nüchtern betrachtet wird das High-End Segment mit einer mittelprächtigen Frickellösung abgespeist, sowohl bei ati als auch nv.
Mir ist schon klar, daß im High-End nicht der Umsatz gemacht wird, aber nv und ati sollten schlau genug sein, die Enthusiasten als Zugpferd für den ganzen PC als Spielemaschine zu sehen.

Ein monolithischer Chip wäre womöglich wieder völlig verbugt, viel heißer, verzögert etc.

Quatsch, mit einer einzelnen GPU hat man immer weniger Probleme. Solange auch bei den Treibern im Multi-GPU Bereich an der F&E gespart wird ist SLI/CF eben keine gleichwertige Alternative.

Ein angenehmes hat der Multichip Trend aber:
Da die Basischips deutlich besser optimiert werden und sehr schnell sein müssen ist die Preisleistung im performance und mainstreamsegment so gut wie noch nie zuvor. Und das ist für den durchschnittlichen gamer auch das wichtigste. Die Gamer mit einer 500 € karte sind nur wenige und die große masse mit nur 250 € bekommt mit dem neuen Trend nun ganz sozialistisch nun den großen Vorteil. Früher musste man sich mit mittelmäßigen Lösungen wie X1600xt, 7600GT, FX5700, MX460, abfinden oder einen preis nahe der Premiumkarten bezahlen wie radeon 8500LE, Ti4200, x1950pro, 7900gs, 6800, etc.
Die singlechipkarten der Multichipgeneration, das sind die wahren Killer!

Seh ich völlig anders. Früher hat man EINE obere Mittelklasse oder untere High-End-Karte gekauft und konnte diese zu eine vollwertigen High-End-Karte aufbohren (TI 4200, 9500, ...). Jetzt soll man gezwungen(!) werden sich doch bitte gleich ZWEI Karten zu kaufen. Merkst du was?

Die großen Gewinner des Multi-GPUtrends sind also die Hans-Franze wie ich, welche sowieso nicht das geld für eine Highendkarte übrig haben.
- Ich begrüße den Trend :)

So kann man sich blenden lassen...

reunion
2008-01-28, 20:58:05
Oder nimmt hier jemand an, dass AMD einen 50% größeren Chip für 3850 Preis verkaufen wird?


NV muss jetzt schon einen 60-70% größeren Chip fast zu 3850 Preisen verkaufen. :)
Aber was du meinst ist schon klar, nur wäre diese Entwicklung bei Single-Chips genauso gegeben.

seahawk
2008-01-28, 21:09:26
Die Alternative ist ein monolithischer chip, der mit etlichen bugs auskommen muss und deiversen fehlern - wie wir beim R600 gesehen haben.

Große Chips sind einfach zu komplex als dass sich dort Stromsparoptimierungen noch wirklich lohnen würden, das sehen wir r600 vs rv630. Der Highendbereich ist nunmal der kleinste markt. Daher sind dafür auch nicht viel mehr Ressourcen zur Verfügung als für die anderen bereiche. Und diese Mehrressourcen würden gebraucht werden, der Aufwand der handoptimierungen verfielfacht sich bei Highendchips ja gegenüber mainstream oder lowendlösungen.

Die Einzige Lösung sparsame und optimierte sowie günstige Chips im Highend anbieten zu können ist eine Multichiplösung basierend auf mehreren Performance oder mainstreamchips.

je weniger unterschiedliche Chips die Hersteller fertigen lassen desto billiger werden die Karten und desto besser sind die einzelnen Chips optimiert.
Diese Vorteile hebeln teilweise die Nachteile eines MultiGPUsetups wieder aus. Siehe R600 vs RV670x2, da liegen die Vorteile der Multigpulösung auf der Hand.

Ein monolithischer Chip wäre womöglich wieder völlig verbugt, viel heißer, verzögert etc.
.
.
.
Die großen Gewinner des Multi-GPUtrends sind also die Hans-Franze wie ich, welche sowieso nicht das geld für eine Highendkarte übrig haben.
- Ich begrüße den Trend :)

Das mag ich nun gar nicht so sehen. Die 8800GTX war wesentlich eher auf dem Markt, verbraucht weniger Strom und wird in einem Prozess gefertigt der 3 Stufen gröber ist. EIne simpeler Shrink, der höher takten könnte würde wahrscheinlich in vielen Fällen mindestens gleichauf liegen, ohne die unvermeidbaren Nachteile eines AFR.

Wir sehen diesen Chip nicht, weil beide IHVs sich entscheiden haben einen echten High-End-Refresh ausfallen zu lassen und gleich mit einer neuen Generation im High-End zu erscheinen. Die Zeit bis dahin überbrückt man mit den Dual-GPU-Lösungen. Gegenwärtig sind es Lückenfüller, mehr nicht.

Exxtreme
2008-01-28, 21:15:56
Die Einzige Lösung sparsame und optimierte sowie günstige Chips im Highend anbieten zu können ist eine Multichiplösung basierend auf mehreren Performance oder mainstreamchips.
Das hat man bei 3dfx auch gedacht ... und ist dann mit wehenden Fahnen untergegangen. :D
je weniger unterschiedliche Chips die Hersteller fertigen lassen desto billiger werden die Karten und desto besser sind die einzelnen Chips optimiert.
Diese Vorteile hebeln teilweise die Nachteile eines MultiGPUsetups wieder aus. Siehe R600 vs RV670x2, da liegen die Vorteile der Multigpulösung auf der Hand.
Es gibt NUR Nachteile, die ein Multichip-Setup hat. Die gröbsten wären:
Microruckler
Man braucht spezielle Treiberprofile

Diesen Stress hast du mit einer Single-Chip-Lösung nicht.
Ein monolithischer Chip wäre womöglich wieder völlig verbugt, viel heißer, verzögert etc.
Möglich. Vielleicht aber auch nicht. Und einen weiteren Nachteil hast du auch schon mit einer Multi-GPU-Lösung: du braucht doppelt so viel RAM da alles doppelt vorgehalten werden muss. Auch das erzeugt Hitze.
Ein angenehmes hat der Multichip Trend aber:
Da die Basischips deutlich besser optimiert werden und sehr schnell sein müssen ist die Preisleistung im performance und mainstreamsegment so gut wie noch nie zuvor. Und das ist für den durchschnittlichen gamer auch das wichtigste. Die Gamer mit einer 500 € karte sind nur wenige und die große masse mit nur 250 € bekommt mit dem neuen Trend nun ganz sozialistisch nun den großen Vorteil. Früher musste man sich mit mittelmäßigen Lösungen wie X1600xt, 7600GT, FX5700, MX460, abfinden oder einen preis nahe der Premiumkarten bezahlen wie radeon 8500LE, Ti4200, x1950pro, 7900gs, 6800, etc.
Die singlechipkarten der Multichipgeneration, das sind die wahren Killer!

Die großen Gewinner des Multi-GPUtrends sind also die Hans-Franze wie ich, welche sowieso nicht das geld für eine Highendkarte übrig haben.
- Ich begrüße den Trend :)
Killer wären die Multi-GPU-GraKas dann wenn sie denn auch so funktionieren würden wie eine große Single-Chip-Lösung. Tun sie aber nicht und man ist wieder auf Gedeih und Verderb auf neue Treiber angewiesen etc. Und das macht auch die Treiber fetter und die Treiberentwickler sind mit Profile erzeugen beschäftigt anstatt sich um andere Dinge zu kümmern.

Von daher kann ich nicht wirklich vieles abgewinnen von AMDs Lösung. Wenn das wirklich transparent funktionieren würde ohne Microruckler-Problem dann wäre es eine Alternative. Z.Zt. ist es aber nicht sorry. Wer Power will und keinen Stress, der macht um Multi-GPU einen weiten Bogen. Multi-GPU ist nur nett um bei Benchmarks zu glänzen. Spielbarer wird es dank Microrucklern nicht wirklich. Bzw. eine kleine Single-GPU-Lösung ist nicht viel schlechter und dafür viel billiger.

N0Thing
2008-01-28, 21:34:22
Möglich. Vielleicht aber auch nicht. Und einen weiteren Nachteil hast du auch schon mit einer Multi-GPU-Lösung: du braucht doppelt so viel RAM da alles doppelt vorgehalten werden muss. Auch das erzeugt Hitze.



Das ist aber zu vernachlässigen, wenn man sieht, daß bei vielen Drittanbieterkühlern der Speicher nur mit kleinen Aufklebekühlkörpern gekühlt wird und dennoch kälter bleibt, als mit vielen Referenzkühlern. Da hat die GPU deutlich mehr Einfluß.

AnarchX
2008-01-28, 22:00:39
Damals war die Halbleitertechnologie aber noch nicht in dem Stadium wie heute ;)
Im Endstadium sind wir aber auch noch lange nicht, was NV im H2 beweisen wird.:D

Im Endeffekt bleiben 3870X2 und 9800GX2 Zwischenlösungen die eben nicht sehr RnD-intensiv sind, RV770 scheint auch nochmal in diese Richtung zu gehen, wegen der aktuellen Situation AMDs.
Langfristig wird man bei AMD wohl auch wieder zu Single-Dies zurückgehen, wenn auch momentan noch gewisse Ambitionen über AFR hinaus bestehen, deren Erfolg sich zeigen wird.

deekey777
2008-01-29, 00:34:15
HIS, MSI, Powerolor (TUL), GeCube RADEON HD 3870 X2 2x512MB PCI-E (http://www.digit-life.com/articles3/video/rv670-3-part1.html)

anddill
2008-01-29, 00:56:54
Die Microruckler-Diskussion könnt Ihr hier fortsetzen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844
Und hier bitte zurück zum Thema!

AGENT_SMITH
2008-01-29, 01:51:47
Die mit Abstand beste X2 dürfte wohl die von Gecube sein: http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/januar/gecube_hd_3870_x2_kuehler/

Kürzere Platine, vier DVI-Ausgänge, nur zwei 6-Pin Stromanschlüsse, übertaktet, anderer Kühler und völlig überarbeitetes Platinenlayout. Dafür bleibt natürlich die Wärme im Gehäuse.

Aber auch wieder nur so lange biss die HIS Iceq in der OC Variante kommt.

pirat
2008-01-29, 01:59:09
kann nur Agent zustimmen HIS baut die besten

AGENT_SMITH
2008-01-29, 02:21:29
oh ha, so wie es aussieht kommen schon die ersten HD 3870X2 mit DDR4 her:http://en.expreview.com/?p=224#more-224

vinacis_vivids
2008-01-29, 02:44:50
oh ha, so wie es aussieht kommen schon die ersten HD 3870X2 mit DDR4 her:http://en.expreview.com/?p=224#more-224

Nice aber keine Ram Kühler :(

Malachi
2008-01-29, 08:57:00
Ne Frage:
Mein Enermax Liberty 400 hat keinen 8poligen PCIe Stecker. Braucht man für die neuen Karten ein anderes NT?

BlackArchon
2008-01-29, 08:58:54
Ebensowenig wie du für die HD 2900 XT ein neues Netzteil gebraucht hast, also nein.

MartinRiggs
2008-01-29, 08:59:16
Nö,

die HD3870x2 läuft auch mit 2x6Pol.
Könnte mit dem Enermax Liberty 400Watt trotzdem eng werden, die Karte säuft ja gut 200Watt unter Last, dazu ein Quad mit 100 Watt und diverser Kleinkram.

Malachi
2008-01-29, 09:04:37
Nö,

die HD3870x2 läuft auch mit 2x6Pol.
Könnte mit dem Enermax Liberty 400Watt trotzdem eng werden, die Karte säuft ja gut 200Watt unter Last, dazu ein Quad mit 100 Watt und diverser Kleinkram.

:D
Das sehe ich auch so. Ein kleiner Versuch wärs wert...

Aber ein Crossfire Mainboard braucht man für ne einzelne 3870 X2 nicht. Oder?

MartinRiggs
2008-01-29, 09:05:50
:D
Das sehe ich auch so. Ein kleiner Versuch wärs wert...

Aber ein Crossfire Mainboard braucht man für ne einzelne 3870 X2 nicht. Oder?

Versuchen kannst du es, mehr als abschalten darf nicht passieren, schon gar nicht bei so einem Marken-Netzteil
Die Karte läuft in jedem Board, steht auch in eigentlich jedem Review/Test:wink:

Malachi
2008-01-29, 09:12:51
Versuchen kannst du es, mehr als abschalten darf nicht passieren, schon gar nicht bei so einem Marken-Netzteil
Die Karte läuft in jedem Board, steht auch in eigentlich jedem Review/Test:wink:

Danke. Arbeite mich grad durch die Reviews.

Hydrogen_Snake
2008-01-29, 09:47:25
Schon bischen geil wie die 8800 Ultra darsteht.

Malachi
2008-01-29, 10:04:32
Schon bischen geil wie die 8800 Ultra darsteht.

Ganz ehrlich: Wie lange gibts denn die 8800 schon? Wurde doch schon längst Zeit, daß da mal wieder was schnelleres kommt. In Crysis ist sie eh noch vorne.

rotanat
2008-01-29, 10:44:04
Die Lösung ist schon recht interessant aber eigentlich ists schon etwas erschreckend, das nach fast 2 Jahren (78(?)00GX2 war ja die erste Karte in der Richtung) es immernoch nicht wirklich etwas durchgängiges gibt im Multi-GPU Bereich seitens ATI/nVidia. Ich meine 3DFX-SLI war eigentlich garnicht so dumm, das hat überall funktioniert ohne irgendwelche Spielanpassungen und hat fast immer doppelte Leistung gebracht. Vielleicht kommt aber jetzt langsam Bewegung in die Sache, wenn beide großen Hersteller in Richtung MultiGPU gehen.

Die 3870X2 ist mir allerdings noch zuviele Beta-Status, in Spielen wo wirklich die Leistung gebraucht wird fehlt sie oder skaliert extrem schlecht (Bsp. Crysis, WiC etc.) und für irgendwelche alten Spiele die sowieso keiner mehr spielt ist der Leistungsgewinn eh egal, ob man jetzt 60 oder 100 FPS hat.
Genauso ist aber auch Nvidias SLI noch im Betastatus, wobei man da sagen muss das es hier mit DX10 Spielen doch besser ausschaut was den Leistungsgewinn angeht . Ich denk hier liegt bei beiden Herstellern noch viel Treiberarbeit vor Ihnen bevor das mal einigermaßen rund läuft und nicht nur die Benchmarkspiele Leistungsgewinne haben.

In dem Sinne find ich es meist auch recht langweilig, das jedes Review mit den üblichen Verdächtigen "bencht" und teilweise die Ingame-Benchmarks auch noch total witzlos sind - bestes Beispiel Company of Heroes, der Ingamebench sugeriert immer 50+ FPS während im Spiel selbst mit DX10 selbst TripleSLI überfordert sein dürfte (man drehe nurmal in die 3rd View, da gehts schnell auf 2 FPS runter selbst mit einer GTS/GTX) und außerdem gelegentlich Abstürze produziert (auch mit den entspr. Vista Hotfixes die genau das Thema aufgreifen sollten ^^).

Hydrogen_Snake
2008-01-29, 11:13:17
Ganz ehrlich: Wie lange gibts denn die 8800 schon? Wurde doch schon längst Zeit, daß da mal wieder was schnelleres kommt. In Crysis ist sie eh noch vorne.

Und genau das ist ja das geile. Die X2 mit 25% @2xxx*1xxx mit 16af und 4aa in einer einzigen bench und die 25% sind sogar noch unspielbar, schon ziemlich krass.

AGENT_SMITH
2008-01-29, 11:47:03
Bin ich der einziege der es so sieht? Oder wird hier der alte Kramm und das geflamme aus dem Fred übernommen das von " anddill " geschlossen wurde.

@ anddill
du warst viel zu sparsam mit den roten Karten.

MFG

Gast
2008-01-29, 11:59:41
Bin ich der einziege der es so sieht?

Darf man sich nicht mal freuen, wie gut die 8800 noch mithält?
Und dazu ohne die ganzen CF Nachteile daherkommt, eine immer abrufbare hohe Leistung hat.

AGENT_SMITH
2008-01-29, 12:03:56
Doch klar, darfst du dich freuen, dem entsprechend würd ich mir vor Freude direckt ein Spiegelei auf der Ultra zubereiten. Du hast aber eins übersehen, der gleiche Mist wurde in dem alten Fred gepostet. Und so nebenbei, warum schreibst du auf ein mal als Gast?

AGENT_SMITH
2008-01-29, 12:10:02
Hier ein kleiner Test von dem neuen Schlachtschiff von HIS http://tomarni.de/blog/news-zur-ati-hd-3870x2-fotos-test-review/

Ich wunder mich immer wieder was die Leute von HIS für Grakas veröffentlichen.

Gast
2008-01-29, 12:10:20
Weil ich schon immer als Gast schreibe ... die letzten 1000 Posts schon.

Und nein ich habe keine Ultra, sondern nur ein G92 und der Gedanke, das ich noch gut im Spiel bin, für wenig Geld macht mich glücklich. :)

The_Invisible
2008-01-29, 12:10:28
Doch klar, darfst du dich freuen, dem entsprechend würd ich mir vor Freude direckt ein Spiegelei auf der Ultra zubereiten. Du hast aber eins übersehen, der gleiche Mist wurde in dem alten Fred gepostet. Und so nebenbei, warum schreibst du auf ein mal als Gast?

geht auf der x2 aber besser *scnr*

mfg

Gast
2008-01-29, 12:12:18
geht auf der x2 aber besser *scnr*

Zumindest unter Last.

Im Idle fehlt dem G80 nachwie vor ein Stromsparmodus.

d2kx
2008-01-29, 13:07:57
CB und Anandtech schreiben was 8.451.2.080123a

ich denke das es sich grundsätzlich um eine zweite Auflage des letzten Catalyst 8.451 handelt, daher die angehängt .2
Als nächstes ist das Datum genannt. 080123a = 23.01.2008 und a wie alpha!

Dein Treiber wäre demnach nur vom 20.12.07 und ist nicht der richtige!
Entweder Sapphire hat sich mit der Nummerierung vertan oder die Meldung ist schlichtweg falsch, dass sapphire ihn zum DL anbietet (oder ich suche an der falschen Stelle).

Das "a" steht nicht für Alpha und Sapphire hat sich nicht vertan, auch wenn der von Sapphire ein "m" sein müsste.

PHuV
2008-01-29, 13:08:19
Doofe Frage, wenn die Treiber 2 GPUs abkönnen, warum können sie keine 4 GPUs ab? Quadcrossfire würde sich hier doch anbieten, und nachdem ich die diversen Prototypen und Vorstellungen von ATI gesehen habe, bin ich mir ziemlich sicher, daß QCS bestimmt schon möglich ist.

AnarchX
2008-01-29, 13:13:02
Der Q-XF-Treiber soll wohl erst im März kommen, weil es eben doch nicht so einfach ist.

Für D3D9-Games muss ATi nämlich noch etwas ähnliches wie AFR-of-SFR basteln, da 4-Way-AFR nicht D3D9-spec-konform ist. Und auch die 4-Way(D3D10/OGL)/3-Way Profile erfordern sicherlich auch etwas Arbeit.

Gast
2008-01-29, 13:22:30
da 4-Way-AFR nicht D3D9-spec-konform ist.


Kann man das irgendwo offiziell nachlesen?

Der_Korken
2008-01-29, 14:02:56
Für 4 GPUs finde ich reines AFR auch ungeeignet. Man hätte ja einen Lag von 3 zusätzlichen Frames. Das entspräche bei 40 fps mal eben 75 ms zusätzliche Verzögerung. Für 4-way CF muss also was besseres daherkommen.

MartinRiggs
2008-01-29, 14:33:42
Hier ein kleiner Test von dem neuen Schlachtschiff von HIS http://tomarni.de/blog/news-zur-ati-hd-3870x2-fotos-test-review/

Ich wunder mich immer wieder was die Leute von HIS für Grakas veröffentlichen.

Wie, was?
Die karte ist doch nix besonderes, ist ne ganz normale HD3870x2 im Referenzdesign:confused:

deekey777
2008-01-29, 14:43:08
Hier ein kleiner Test von dem neuen Schlachtschiff von HIS http://tomarni.de/blog/news-zur-ati-hd-3870x2-fotos-test-review/

Ich wunder mich immer wieder was die Leute von HIS für Grakas veröffentlichen.
Ich will kein Spielverderber sein: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6211934#post6211934
Einmal ist das nicht gerade neu, andererseits gibt es auch einen richtigen Test der 3870 X2 von HiS: http://www.digit-life.com/articles3/video/rv670-3-part1.html
Oder liegt das am Schraubendreher? ;D

Gast
2008-01-29, 15:51:17
Wasserkühler für die 3870 X2:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5418&Itemid=1

Gast
2008-01-29, 17:56:51
Nice aber keine Ram Kühler :(

braucht auch kein mensch.

Schlammsau
2008-01-29, 19:49:03
welcher Treiber ist den nu der neue für die X2?
Bei Sapphire finde ich nichts........

Super Grobi
2008-01-29, 19:57:01
braucht auch kein mensch.

Jetzt wissen wir aber, warum dieser unnütze Mist immer noch zum Teil verbaut wird, bzw. GPU-Kühlern bei liegt.

SG

Coda
2008-01-29, 20:43:48
Es sieht halt gut aus. Das ist der Hauptgrund. Die RAMs auf der Rückseite werden sowieso nicht gekühlt.

Gast
2008-01-29, 20:51:21
Nicht schlecht die alte ATi, ah die Neue :)

rotanat
2008-01-29, 20:58:14
Also ich denk auch so normale RAM-Kühler sind in etwa so sinnig wie nen Heckspoiler an nem 90 PS Golf - die einen sagen es bringt garnix, die anderen merken erheblich besseres Fahrverhalten :biggrin: - jedem wie es passt :smile:

Gast
2008-01-29, 21:02:28
ich hätte auch gern mal gewusst wo man diesen wundertreiber bekommt!
der soll ja fsaa bei ut3 games können, haben will :D

HOT
2008-01-30, 00:05:44
Eigentlich verstehe ich das nicht wirklich. Der neueste Treiber für die 3870 X2 wurde nirgendwo verwendet -> das ist der 8.451.4 vom 11.1.08, auch bekannt als 8.1 Hotfix. Getestet wurde jedoch nur mit 8.451.2 vom 26.12.07, manchmal auch mit 8.451.1 vom 20.12.07 (Catalyst 8.1 Standard). Mich würde die Performance mit dem Hotfix mal viel eher interessieren, als von allen getesteten Treibern.

pest
2008-01-30, 00:13:50
Ne Frage:
Mein Enermax Liberty 400 hat keinen 8poligen PCIe Stecker. Braucht man für die neuen Karten ein anderes NT?

Ich denke Overdrive wird dann nicht funktionieren, oder nur eingeschränkt

Malachi
2008-01-30, 08:55:52
Ich denke Overdrive wird dann nicht funktionieren, oder nur eingeschränkt

Ja, hab mittlerweile div. Tests studiert. Mit "nur" 2x6pol Stecker gibts keine Temperaturanzeige und kein Übertakten, weil das Overdrive Menü fehlt.

laser114
2008-01-30, 14:15:48
Getestet wurde jedoch nur mit 8.451.2 vom 26.12.07, manchmal auch mit 8.451.1 vom 20.12.07 (Catalyst 8.1 Standard). Mich würde die Performance mit dem Hotfix mal viel eher interessieren, als von allen getesteten Treibern.

Der 8.541.4 ist der älteste der Treiber. Von den verschiedenen Treiberlinien gibt es unterschiedliche Build-Versionen.

Der letzte aktuelle Treiber von AMD war der 8.451.2.080123a (kompiliert am 23.01.2008), und das ist auch der offizielle Launchtreiber.

laser114
2008-01-30, 19:07:15
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5427&Itemid=1

http://s2.directupload.net/images/user/080130/8izo6df5.jpg

4x DVI. Der Lüfter sieht allerdings nicht sonderlich vetrauenserweckend aus...

horn 12
2008-01-30, 19:10:21
Karte ist sehr sehr kurz für die Verhältnisse, etwas knapp über HD3870 Singlekarte würde ich sagen.
Da kommt ja eine Riesenflut an Grafikkaeten auf Basis der X² auf uns zu. Nicht zu vergessen die weiteren Modelle mit GDDR4.
Und der Preis ist auch dermassen gut,- so wie ich bereits mal vorhergesagt hatte (Hier umd forumdeluxx)

Gast
2008-01-30, 19:34:53
Karte ist sehr sehr kurz ...

Ja die und die GeCube Turbo X haben das kurze PCB

horn 12
2008-01-30, 20:19:43
ist dies aber ne DUAL Slot Karte und wo bleibt bei dieser Version die warme/ erwärmte Luft.... Doch im Gehäuse oder?
Der Lüfter sieht zwar durchwegs leise aber wenig effizient,- mal meine voreilige Meinung!

deekey777
2008-01-30, 21:30:01
http://www.vr-zone.com/articles/Update%3A_Radeon_8.45_v1.3_Driver_To_Improve_3870_X2_Performance/5530.html

Update: Radeon 8.45 v1.3 Driver To Improve 3870 X2 Performance

:smile:

vinacis_vivids
2008-01-30, 22:37:25
soooooo, der Raberduck hat doch ein Treiber gehabt von dem keiner was wusste :bigok:

Ich hab ihn euch ma Hochgeladen:

Part 1.rar
http://rapidshare.com/files/87906053/Sample_R680_xp_vista_8-451-2-080123a.part1.rar.html


Part 2.rar
http://rapidshare.com/files/87903246/Sample_R680_xp_vista_8-451-2-080123a.part2.rar.html


(beide rar Datein in den gleichen Ordner und einfach entpacken)

Der Treiber ist neuer wie der Hotfix und ist für XP und Vista.

Aus dem Luxx Forum! Es ist wohl der R680 realesetreiber vom Besitzer einer 3870x2. Werd den mal testen ob der was für CF bringt.

Rainman2k
2008-01-30, 23:54:46
huhu..
also, auch wenns dafür vielleicht die Rote Karte gibt...

Ich find, einige Postings führem zum altem rumgebashe zurück.
statt man sich hier freut, das ATi NV ebenbürtig ist - wird rumgebasht, alter scheiss ausgepackt und microruckler blabla.

Fakt dürfte wohl sein, da 90% der leute den unterschied nicht erkennen würden, würde man ihnen ein game vorstellen, einmal auf ner 8800 u und einmal mit der X2.

Und dann das blabla mit ultrahohen auflösungen - ich finde man sollte für solches blubblubb vielleicht mal nen Vote aufmachen, wo alle ihre favorisierte Zock auflösung angeben.
Ich denke kaum, das ein Game,r der was auf sich haelt, mehr wie 22 zoll zum zocken nuzt - ergo irgendwo bei ner 1900er MAXIMALEN auflösung, eher hingehend auf 16xx oder sowas.

Persönlichen Angriff entfernt und gelbe Karte. Was sollte das hier?

<anddill>

Es ist doch im prinzip scheissegal, wie die leistung kommt - ATi / AMD präsentiert die X2 als Karte, die sich für den ENDuser wie eine Single Chip karte verhalten soll.

Und das ist das, was zaehlt.
Die Karte sieht aus wie ne Single, ist quasi genausolaut -. und braucht den Strom einer Single Chip Karte (okay, das Argument ist Brutal, denn die 2900XT und die 88 u brauchen erheblich SAFT )
also warum als 2 Karten geltenlassen?

Ich würd eher die neue dualchip lösung von NV als dual karte bezeichnen, nicht nur weils offensichtlich wie shcnell zusammengeschustert aussieht, sondern effektiv 2 slots braucht und belegt - sowie 2 pcbs.

Technisch gesehen sidn beide Karten wohl aehnlich, was CF / SLI angeht.

Und das mit den mircorucklern wird immer interessanter...
Werd mal schauen, ob colddie und ich mal nen CF gespann auffahren auf seinem quad oder meinem DC, müssen wer mal gucken haben ja beide die gleichen karten...

Damals, auf meiner Rage Fury MAXX gab es solche probleme definitiv nicht.

Und die Rohpower damals war ultimativ geil.


Mal dazu, bei ner V5 6000 als SERIENkarte hätte auch niemand gesagt höhö zählt nicht - ist ja nur sli auf einer Karte.
Das das trotzdem herbst effektiv war, wurde ja hier shcon belegt.

Gruss und gute nacht,
Marc

MadManniMan
2008-01-31, 00:13:18
Mal dazu, bei ner V5 6000 als SERIENkarte hätte auch niemand gesagt höhö zählt nicht - ist ja nur sli auf einer Karte.

Das war eine komplett andere Technik, die (bis auf die Ineffizienz bezüglich des RAM-Verbrauchs) auch wirklich wie eine einfache Verfielfachung von Hardwareeinheiten in einem Kern funktionierten. Die Lastverteilung war nahe 100% und AFR-Probleme gab es auch nicht, da alle Cores an einem Frame arbeiteten.

Vergesst Scan Line Interleaving - die Zeiten sind vorbei ;(

rpm8200@work
2008-01-31, 10:05:45
Hm. Hab nun den aktuellen Gedanken dieses freds nicht parat/ will den nicht fortsetzen. Wollte mal kurz was anderes einstreuen:

Ich war sehr gespannt auf die 3870x2. Ich bin zwar kein direkter ATI Fan, hab bisher aber eher ATI als NV Karten gekauft, hab wohl schon ne leichte Affinität zu rot :-)

Dass bei soner CF (oder auch SLI) Lösung nicht für jedes Game ein Profil da ist... stört mich nicht. Wie schon auf der 3DC Startseite steht: Die Games, für die es keine Profile gibt sind entweder alt (brauchen nicht die Power) oder eben keine Toptitel, die naturgemäß am meisten Power brauchen und für die es i.d.R. ein passendes Profil gibt (oder über exe Renaming). Aber egal.

Auch Mikroruckler würden mich nicht abschrecken. Wäre für mich ein vernachlässigbares Problem (tritt ja wohl höchst selten auf, läßt sich durch Anpassen der Settings entschärfen).

Wenn ich aber vom doppelten idle Verbrauch höre, dann wirds mir übel. Das ist für mich ein no-go. Ich zocke eher selten. Wenn ich zocke, darf die Karte auch gern 200W weg drücken, aber idle muss eine Dualkarte IMO nicht den doppelten idle Verbrauch haben. Ein einzelner Chip (den man zusätzlich noch runter takten kann bis ultimo) wird spielend mit allem fertig, was im 2D Computerleben (oder auch wenns sein muss im "3D" Vista Leben) so passieren mag.

Gerade den Weg, den AMD im Bereich CPUs einschlägt (kleinere CPUs je nach Bedarf zusammen stecken), könnten sie ebenso im Bereich GPU (wo Parallelisierung zur Leistungssteigerung ein viel probateres Mittel ist!) einiges erreichen. Und etwas vom wichtigsten aus meiner Sicht (natürlich denkt nicht jeder so, ist mir klar), wäre es von Anfang an Energie sinnvoll zu nutzen.

ATI hätte die Chance gehabt, hier einen großen Spung nach vorne zu machen. Einen Chip unter niedriger Last zu deaktivieren (samt Speicher) wäre sicher kein unlösbares Problem gewesen.

Und sie hätten damit einen Käufer mehr gehabt für die X2. So werd ich dann doch auf ne 3870 single gehen denk ich (eilt bei mir sowieso nicht). Alles andere macht für mein Nutzungsverhalten (max. 10% zocken, 30% surfen, 10% Office, 40% coden, 10% komprimieren/packen/demuxxen usw.) absolut keinen Sinn.

MadManniMan
2008-01-31, 10:17:37
Auch Mikroruckler würden mich nicht abschrecken. Wäre für mich ein vernachlässigbares Problem (tritt ja wohl höchst selten auf, läßt sich durch Anpassen der Settings entschärfen).

Weder das eine, noch das andere steht bisher fest ;(

Gast
2008-01-31, 13:12:44
Außerdem ist der Stromverbrauch nicht sooo extrem hoch als ob man 2x2900XT drangeklopt hätte

Gouvernator
2008-01-31, 13:18:02
Aus dem Luxx Forum! Es ist wohl der R680 realesetreiber vom Besitzer einer 3870x2. Werd den mal testen ob der was für CF bringt.
Was soll er bei CF bringen? Das eine Anwendung mit AFR läuft? Kannst selber die .exe in FEAR umbenennen. Das Microruckler "verschwinden"? Nein die sind immernoch da... Soweit zu dem Treiber.

Gast
2008-01-31, 13:35:29
@Gouvernator,

sind das Microruckler oder Nanoruckler? Hast du überhaupt eine Karte von ATI oder laberst du nur so dummes Zeug daher?

Gouvernator
2008-01-31, 13:41:07
@Gouvernator,

sind das Microruckler oder Nanoruckler? Hast du überhaupt eine Karte von ATI oder laberst du nur so dummes Zeug daher?
Ich messe nur mit Fraps. Auf meinen Eindruck kommts gar nicht an.

Gast
2008-01-31, 13:43:19
Du hast meine Frage nich beantwortet. Hast du eine Karte von ATI oder nicht? Und wenn ja welche?

rpm8200@work
2008-01-31, 13:49:48
Weder das eine, noch das andere steht bisher fest ;(
Na feststehen tuts nicht. Nach Tombs Beschreibung treten diese jedoch bei FPSrates um die 30 (oder weniger) auf (bzw. sind sie dann wahrnehmbar), befindet man sich in einem wirklich spielbaren Bereich (~45 FPS und mehr), dann fallen diese nicht mehr auf/ sind nicht mehr wahrnehmbar. Daher kommt meine Annahme (IMO berechtigt).

@Gast: Ja, das ist toll, dass ich mir für eine 3870x2 kein eigenes AKW zulegen muss. Mein Kritikpunkt an der 3870x2 ist doch, dass man einen Chip samt speicher deaktivieren könnte und damit wirklich mal einen echten Vorteil mit einer Dual Chip Karte gegenüber einer Single ausspielen könnte: Sehr guten idle Verbrauch bei gleichzeitiger hoher Leistungsfähigkeit, sobald Bedarf dazu besteht. Sowas hätte ich wirklich gekauft.

Gouvernator
2008-01-31, 13:56:39
Du hast meine Frage nich beantwortet. Hast du eine Karte von ATI oder nicht? Und wenn ja welche?
Oooh ja ich weiss schon wie es ausgeht. Ich sage dir meine Config und Du sagts mir ---> Schrott. Das kennen wir doch irgendwocher...
Ja ich habe 2 ATI Karten und teste immer wenn was neues in Sachen Crossfire kommt. Wenn du Frametimes von fraps hast kannst sie gern reinstellen und auf dieser Basis diskutieren wir mit dir weiter, aber wenn du nicht mal das kannst sieht mit deiner Crossfire Kompetenz nicht so gut aus. Entsprechend werde ich dich ignorieren, Ok?

MadManniMan
2008-01-31, 13:57:53
Na feststehen tuts nicht. Nach Tombs Beschreibung treten diese jedoch bei FPSrates um die 30 (oder weniger) auf (bzw. sind sie dann wahrnehmbar), befindet man sich in einem wirklich spielbaren Bereich (~45 FPS und mehr), dann fallen diese nicht mehr auf/ sind nicht mehr wahrnehmbar. Daher kommt meine Annahme (IMO berechtigt).

Sag ich ja auch nichts gegen, nur machen viele an dieser Stelle einen Denkfehler:

"Was ich weiß (/merke), macht mich nicht heiß!" - und schalten die Kritik ab. Problem: auch die Frames, in denen es nicht mehr wirklich spürbar ist, kommen mit ungleichmäßiger Kadenz. So hat man vielleicht 70 fps, aber sie sind nur genauso viel "Wert", wie 50 einer normalen Graka. Wieviel Frames man auch hat mit AFR, man kann sie nicht 1:1 in Relation setzen.

Gast
2008-01-31, 13:59:33
Wenn ich aber vom doppelten idle Verbrauch höre, dann wirds mir übel. Das ist für mich ein no-go. Ich zocke eher selten.
Die 3870 X2 verbraucht im IDLE fast 50Watt weniger wie die langsamere Konkurenz.

Gouvernator
2008-01-31, 14:05:51
Auch Mikroruckler würden mich nicht abschrecken. Wäre für mich ein vernachlässigbares Problem (tritt ja wohl höchst selten auf, läßt sich durch Anpassen der Settings entschärfen).

Damit meinst du wohl in der Realität auf 800x600 runterschalten damit du auf 60-100fps kommst wo die Microruckler nicht wahrnehmbar werden? Aber die niedrige Framerate schon...

Wie schon auf der 3DC Startseite steht: Die Games, für die es keine Profile gibt sind entweder alt (brauchen nicht die Power) oder eben keine Toptitel

Was die Power nicht brauchen ich weiss nicht. Villeicht haben die armen 3dCenter Redakteure wirklich nur ihre lausigen 15" Bildschirme aber wenn du wie ich oder andere mit 3840x1024 oder 2560x1600 zocken dann brauchst du ne Menge Power...auch bei älteren Titeln.

Gast
2008-01-31, 14:06:58
@Gouvernator,

cool, du kannst Leute ignorieren die du garnicht kennst....

Hättest dir halt einfach keine Multchip-Lösung kaufen sollten ;)

Vielleicht solltest du dich langsam mal mit dem Thema abfinden und hier nicht alles vollheulen.

Wenn es gewollt ist wird es eine Lösung geben, wenn nicht dann nicht!

Gouvernator
2008-01-31, 14:15:26
@Gouvernator,

cool, du kannst Leute ignorieren die du garnicht kennst....

Hättest dir halt einfach keine Multchip-Lösung kaufen sollten ;)

Vielleicht solltest du dich langsam mal mit dem Thema abfinden und hier nicht alles vollheulen.

Wenn es gewollt ist wird es eine Lösung geben, wenn nicht dann nicht!
Das hat nicht wirklich was mit dem Thema zu tun. Aber trotzdem, wenn du siehst das bei ATI nur ne handvoll Spiele wirklich wie beworben ohne Microruckler in AFR rennt und die restlichen 99% absolut microruckler verseucht sind (darunter einige und ältere 100% Top Titel) siehst du wie verkehrt es ist blos daran zu denken eine MultiGpu Lösung zu kaufen. Ich wusste nicht vorher auf was ich mich da einlasse. Jetzt weiss ich es und sage den Leute das was hier versprochen wird ist absolute Verarsche. Aber absolut....

Hydrogen_Snake
2008-01-31, 14:18:54
Die 3870 X2 verbraucht im IDLE fast 50Watt weniger wie die langsamere Konkurenz.

aus eigenem hause.

Gast
2008-01-31, 14:24:33
Ich war sehr gespannt auf die 3870x2.

darf ich fragen was bei der 3870x2 spannend ist?

das ganze bekommt man doch schon seit monaten zu kaufen, es war genau abzusehen was die karte leisten wird, genauso welche probleme sie machen wird.

Das Auge
2008-01-31, 14:48:20
darf ich fragen was bei der 3870x2 spannend ist?

das ganze bekommt man doch schon seit monaten zu kaufen, es war genau abzusehen was die karte leisten wird, genauso welche probleme sie machen wird.

Das ist vollkommen richtig, deswegen werde ich sie mir auch nicht kaufen, genausowenig wie eine GX2 von nv.
Sicherlich führt im Grakabereich über kurz oder lang kein Weg an der Parallelisierung vorbei, aber der derzeitige Stand der Dinge ist halt einfach übel.
Die IHV's sollten das Thema, wenn sie ihr Klump verkaufen wollen, auch bitteschön ernst nehmen und SLI/CF antständig supporten. D.h. für mich:

- ein Profil für jedes aktuelle Spiel
- Profile für ältere Topgames
- eine Art Universalprofil für sonstige ältere Spiele (das müsste ja nicht mal besonders performant sein, Hauptsache es bringt überhaupt was)
- Option im Treiber die Frametimes "glattzubügeln, also den "Ludi-Fix" ;)

Gast
2008-01-31, 15:08:00
Sicherlich führt im Grakabereich über kurz oder lang kein Weg an der Parallelisierung vorbei
Doch.
GPUs sind ja schon längst Multi.

Solange es möglich ist die Fertigung zu verbessern, solange können auch die GPUs komplexer und schneller werden.

MartinRiggs
2008-01-31, 15:41:03
Das hat nicht wirklich was mit dem Thema zu tun. Aber trotzdem, wenn du siehst das bei ATI nur ne handvoll Spiele wirklich wie beworben ohne Microruckler in AFR rennt und die restlichen 99% absolut microruckler verseucht sind (darunter einige und ältere 100% Top Titel) siehst du wie verkehrt es ist blos daran zu denken eine MultiGpu Lösung zu kaufen. Ich wusste nicht vorher auf was ich mich da einlasse. Jetzt weiss ich es und sage den Leute das was hier versprochen wird ist absolute Verarsche. Aber absolut....

Und ich sage deine Lösung ist absolut fürn Arsch, aber total.
Nicht umsonst gibt es bei SLI schon immer Brücken für die Verbindung der Karten und bei ATi war das auch nur ne Krückenlösung das man 2 X1900 ohne Mastercard betreiben kann.
Ich wette du hast dadurch viel schlimmere Ruckler als Leute mit RICHTIGEM CF oder SLI.

vinacis_vivids
2008-01-31, 16:12:40
Leute die Mikroruckler Diskussion gehört nicht hierhin! Es wird sich ein Mod drum kümmern das es auch weiterhin hier nichts zu suchen hat.

MadManniMan
2008-01-31, 16:25:52
Leute die Mikroruckler Diskussion gehört nicht hierhin! Es wird sich ein Mod drum kümmern das es auch weiterhin hier nichts zu suchen hat.

Bitte gehen sie weiter, hier gibt es nichts zu sehen - verstehe schon ;)

vinacis_vivids
2008-01-31, 16:42:08
Bitte gehen sie weiter, hier gibt es nichts zu sehen - verstehe schon ;)

Am besten auf deine Sig drücken wo die absolute Wahrheit propagiert wird =)

Gast
2008-01-31, 16:46:13
Gute Verfügbarkeit der Karte bei GH ab ca. 360€ sofort Lieferbar

anddill
2008-01-31, 16:48:09
Richtig, der nächste der Microruckler in einem Hauptsatz erwähnt bekommt Ärger!

Zum Thema (wenn auch schon halb oT): Ich wär ja für eine gemeinsame Speicherschnittstelle der Grafikchips. Über einen Bus, Multiport-Chips oder einen Bridgechip mit eigenem (Ring)Bus dahinter. Und da hängen dann die Rechencluster und der DVI-Transmitter dran. Dann wäre das Problem des sich potenzierenden Speicherbedarfs gelöst, und die Sysnchronisationsprobleme der einzelnen Chips wären auch gegenstandslos, da die Cluster ja in den gleichen Framebuffer schreiben würden.
Aber ganz so einfach scheint das nicht zu sein, sonst hätts schon einer gemacht. Oder liegt das nur am normalen Beharrungsvermögen der Industrie heutzutage, die ein einmal eingeführtes Konzept bis zum absoluten Ende auswringt?

Das Auge
2008-01-31, 16:53:48
Aber ganz so einfach scheint das nicht zu sein, sonst hätts schon einer gemacht. Oder liegt das nur am normalen Beharrungsvermögen der Industrie heutzutage, die ein einmal eingeführtes Konzept bis zum absoluten Ende auswringt?

Naja, wer einen Chip mit 666 Mio. Transistoren züchten kann, sollte doch auch so einen Bridgechip gebacken kriegen?! Ich denke daher wird zweiteres in Verbindung mit Gewinnmaximierung der Fall sein ;)

Gast
2008-01-31, 16:59:58
Das Problem sind die nötigen HS-ICs mit >100GB/s die man auf dem Package benötigen würde.

anddill
2008-01-31, 17:37:39
Das Problem sind die nötigen HS-ICs mit >100GB/s die man auf dem Package benötigen würde.

Auf einem gemeinsamen Träger wie beim Core2 Duo oder VIAs Corefusion sollte das doch inzwischen technisch machbar sein.

Gast
2008-01-31, 17:50:25
Leute die Mikroruckler Diskussion gehört nicht hierhin!

aha, in einem thread, der über eine bestimmte hardware handelt dürfen nur positive sachen besprochen werden, schwachstellen müssen extra ausgelagert behandelt werden.

danke, werd ich mir merken.

anddill
2008-01-31, 18:02:51
aha, in einem thread, der über eine bestimmte hardware handelt dürfen nur positive sachen besprochen werden, schwachstellen müssen extra ausgelagert behandelt werden.

danke, werd ich mir merken.

Oh mann, NEIN. Es nervt nur, wenn die selbe Diskussion mit den selben Argumenten, den selben Teilnehmern und dem selben Ausgang bei JEDEM Multi-GPU Thema immer wieder von vorne durchgekaut wird.

Gast
2008-01-31, 18:11:48
Mann kann diese Nachteile eigetnlich nicht oft genug erwähnen!


Und Fakt ist, das es kein Reviewer geschafft hat die Frametimes zu messen!

Coda
2008-01-31, 18:29:43
Richtig, der nächste der Microruckler in einem Hauptsatz erwähnt bekommt Ärger!

Zum Thema (wenn auch schon halb oT): Ich wär ja für eine gemeinsame Speicherschnittstelle der Grafikchips. Über einen Bus, Multiport-Chips oder einen Bridgechip mit eigenem (Ring)Bus dahinter. Und da hängen dann die Rechencluster und der DVI-Transmitter dran. Dann wäre das Problem des sich potenzierenden Speicherbedarfs gelöst, und die Sysnchronisationsprobleme der einzelnen Chips wären auch gegenstandslos, da die Cluster ja in den gleichen Framebuffer schreiben würden.
Aber ganz so einfach scheint das nicht zu sein, sonst hätts schon einer gemacht. Oder liegt das nur am normalen Beharrungsvermögen der Industrie heutzutage, die ein einmal eingeführtes Konzept bis zum absoluten Ende auswringt?
Es liegt an der nötigen Bandbreite. Das bekommst du nicht über ein PCB.

Mann kann diese Nachteile eigetnlich nicht oft genug erwähnen!


Und Fakt ist, das es kein Reviewer geschafft hat die Frametimes zu messen!
Finde ich eigentlich auch. Das ist ein großes Problem.

Rainman2k
2008-01-31, 18:46:47
Damit meinst du wohl in der Realität auf 800x600 runterschalten damit du auf 60-100fps kommst wo die Microruckler nicht wahrnehmbar werden? Aber die niedrige Framerate schon...



Was die Power nicht brauchen ich weiss nicht. Villeicht haben die armen 3dCenter Redakteure wirklich nur ihre lausigen 15" Bildschirme aber wenn du wie ich oder andere mit 3840x1024 oder 2560x1600 zocken dann brauchst du ne Menge Power...auch bei älteren Titeln.


du bist ja nen Fuchs.

Haste dir mal die Ergebnisse im Fred angeschaut, "mit welcher Auflösung zockt ihr" ???

Und, wieviele Leute haben deine beiden Auflösungen gewält?

deine auflösung kenn ich, genau wie deine cfg, da du sie hier schon gepostet hast.
Dämlich nur, das ich da ohne CF hinkomme.

Ich bleibe bei meiner Aussage:

99% der Leute, die hier son wirrwarr blödsinn um Microruckler schreiben, würden nichtmal feststellen auf welchen von 2 pcs das CF gespann laueft.


Gruss

J0ph33
2008-01-31, 19:50:02
bei 30 AFR-fps würde das jeder mitbekommen, bei 60 AFR-fps vielleicht nicht, aber auch nur weil die meisten auch den unterschied zwischen 40 und 60 nicht zwingend merken würden

OnTopic:
positiv zu bemerken ist, dass die Karte schon für ~360€ wirklich lagernd ist...

Eggcake
2008-01-31, 20:29:47
Mh nunja. Ich lasse nur ungern Leistung "verpuffen", indem ich mehr FPS als (für mich persönlich) nötig anzeigen lasse. Da stell ich schon früher die Auflösung + AA/AF hoch, damit ich auf ~40 runterkomme. Und da werd ich die schon bemerken ... falls sie denn so extrem sind, wie einige beschreiben (selber testen kann ichs nicht, doch wenn ich mir die Frametimes anschaue kann ich mit Überzeugung sagen, dass ichs bemerken würde).

Edit: @Gast unter mir

Man sieht an deiner Argumentation, dass du mir selbst zustimmst. Einmal sind 40 FPS genug, dann ists zu wenig. Wenn du für CS ein CF-Gespann kaufen willst, will ich dich davon natürlich nicht abhalten, ich denke du weisst genau wie es gemeint war. Für die 40 kannst du irgendwas einsetzen, welches für dich die untere Grenze/das Optimum darstellt. Darfst die Rechnung gerne selber machen, aber ich bin mir sicher, dass das Optimum - 30-40% nach wie vor nicht genug sind. :rolleyes:

Naja ich klinke mich aus der Diskussion aus, wird langsam sinnlos & falscher Thread.

Gast
2008-01-31, 22:57:31
Ich bleibe bei meiner Aussage:

99% der Leute, die hier son wirrwarr blödsinn um Microruckler schreiben, würden nichtmal feststellen auf welchen von 2 pcs das CF gespann laueft.


Gruss

So sieht es aus :wink:

Da stell ich schon früher die Auflösung + AA/AF hoch, damit ich auf ~40 runterkomme.

Jo versuch mal mit 40FPS CS zu spielen oder UT oder irgendein MP-Shooter :rolleyes:

MartinRiggs
2008-02-01, 08:21:49
Ich bin echt von den Socken, wenn man bei Geizhals schaut gibt es lieferbare Modelle wirklich schon ab 365€:eek: und momentan sind ja nichtmal alle Modelle im Handel angekommen.
In ein paar Wochen werden die Dualkarten für 300€ verzockt oder was?

Exxtreme
2008-02-01, 09:09:30
Ist anscheinend extrem billig herzustellen die Karte. Und AMD braucht Marktanteile. Ich glaube auch nicht, aß AMD unter den Herstellungpreis geht. Die brauchen nämlich Gewinne wo es nur geht.

Gast
2008-02-01, 10:04:05
Ich bin echt von den Socken, wenn man bei Geizhals schaut gibt es lieferbare Modelle wirklich schon ab 365€:eek: und momentan sind ja nichtmal alle Modelle im Handel angekommen.
In ein paar Wochen werden die Dualkarten für 300€ verzockt oder was?

Bist du jetzt sauer das du die (ca.) Leistung einer 8800-Ultra für 300-350 Euro bekommst?

Gast
2008-02-01, 10:06:57
Die X2 kann maximal mit der GTS512 mithalten.

Für die Ultra sehe ich keine Gefahr.

w0mbat
2008-02-01, 10:26:42
Die X2 schlägt die Ultra in allen Auflösungen und allen Qualitätseinstellungen (siehe CB Test). Natürlich gibt es hier und da ein Spiel das CF noch nicht nutzt, aber das ist die Ausnahme.

Das du für die Ultra keine Gefahr siehst wird dann wohl an deiner schlechten Sicht liegen. Und jetzt komm nicht mit Mikrorucklern -.-

Exxtreme
2008-02-01, 10:31:13
Und jetzt komm nicht mit Mikrorucklern -.-
Er hat Jehova gesagt. X-D

Naja, ich würde die 8800U trotzdem bevorzugen muss ich ehrlich sagen. Nur teuer ist sie ohne Ende.

Gast
2008-02-01, 10:33:48
Und jetzt komm nicht mit Mikrorucklern -.-
Warum?
Die sind Fakt!

Von mir aus kann man 30% der ScheinFPS der X2 abziehen um vergleichbare FPS zu haben.
Dann wird die X2 böse von der Ultra geownt.

Gast
2008-02-01, 10:34:39
Naja, ich würde die 8800U trotzdem bevorzugen muss ich ehrlich sagen. Nur teuer ist sie ohne Ende.
Natürlich sollte man auch im Hintergrund behalten, das die Ultra bereits EOL ist.

Gast
2008-02-01, 10:48:28
Ist anscheinend extrem billig herzustellen die Karte. Und AMD braucht Marktanteile. Ich glaube auch nicht, aß AMD unter den Herstellungpreis geht. Die brauchen nämlich Gewinne wo es nur geht.


Wieviel von den Karten stammt eigentlich von AMD? Liefern die nur den Grafikchip, oder auch das RAM und PCB oder.....?

MartinRiggs
2008-02-01, 10:53:22
Bist du jetzt sauer das du die (ca.) Leistung einer 8800-Ultra für 300-350 Euro bekommst?

Nein, ich finde es ja grade gut!
Die Ultra ist einfach nur ein mehr als überteuertes Prestige-Objekt.

Gast
2008-02-01, 10:58:49
Nein, ich finde es ja grade gut!
Die Ultra ist einfach nur ein mehr als überteuertes Prestige-Objekt.
Die Ultra ist bis heute die schnellste Consumer Grafikkarte.

In ihrer Lebzeit hat sie keinen Nachfolger gefunden, denn der kommt erst in Form der 9800GTX auf G92 Basis.

wolf-Cottbus
2008-02-01, 11:05:27
Die X2 schlägt die Ultra in allen Auflösungen und allen Qualitätseinstellungen (siehe CB Test). Natürlich gibt es hier und da ein Spiel das CF noch nicht nutzt, aber das ist die Ausnahme.

Das du für die Ultra keine Gefahr siehst wird dann wohl an deiner schlechten Sicht liegen. Und jetzt komm nicht mit Mikrorucklern -.-

Na da spiele mal CoH OF unter DX10. Nicht so allgemein. Die Karte braucht auch mehr Saft unter Last. Nicht alle surfen mit ihren Daddelkisten.
Aber gut für AMD das sie ein Angebot haben über 300€.

Gruß Wolf

Rainman2k
2008-02-01, 17:39:49
Na da spiele mal CoH OF unter DX10. Nicht so allgemein. Die Karte braucht auch mehr Saft unter Last. Nicht alle surfen mit ihren Daddelkisten.
Aber gut für AMD das sie ein Angebot haben über 300€.

Gruß Wolf


Mehr saft=?
wieviel denn?

Schau dir mal die Test richtig an, dann wirst du feststellen das ne X2 auf normaluser gebraucht DEUTLICH im vorteil ist, was den Stromverbrauch angeht.

Du kannst ja nichtmla mehr mit argumenten kommen, da du auch hier im Forum schreibst und somit auch zeit hast, wo du NICHT zockst.
Und da ist die ATi selbst mit 2 Chips der Ultra mehr wie Meilenweit vorraus.

Beim zocken verbraucht die X2 einen lächerlichen Teil mehr an Strom, wie die Ultra.
Zumal bei der ATi noch stromsparmaßnahmen ziehen werden.


Gruss

wolf-Cottbus
2008-02-01, 19:16:27
Mehr saft=?
wieviel denn?

Schau dir mal die Test richtig an, dann wirst du feststellen das ne X2 auf normaluser gebraucht DEUTLICH im vorteil ist, was den Stromverbrauch angeht.

Du kannst ja nichtmla mehr mit argumenten kommen, da du auch hier im Forum schreibst und somit auch zeit hast, wo du NICHT zockst.
Und da ist die ATi selbst mit 2 Chips der Ultra mehr wie Meilenweit vorraus.

Beim zocken verbraucht die X2 einen lächerlichen Teil mehr an Strom, wie die Ultra.
Zumal bei der ATi noch stromsparmaßnahmen ziehen werden.


Gruss

Ich habe schon geschrieben das nicht Jeder mit der Daddel-Kiste surft. Dafür habe ich den Laptop. Beim spielen braucht laut CB die X² 70 Watt mehr gegenüber meiner GTX. Dafür hätte ich bei meinen Settings und Spiele 0% mehrLeistung. Was Andere haben kann ich nicht beurteilen. Die bezahlen auch mein Strom nicht. Ich kann nur von mir ausgehen ob ich durch die X² einen Mehrwert hätte.
Ich wollte ja auch nur sagen das man nicht allgemein die Karte als das bessere Produkt hinstellen kann. Das muss Jeder für sich ausmachen.

Gruß Wolf

deekey777
2008-02-02, 17:08:20
Ich will kein Spielverderber sein: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6211934#post6211934
Einmal ist das nicht gerade neu, andererseits gibt es auch einen richtigen Test der 3870 X2 von HiS: http://www.digit-life.com/articles3/video/rv670-3-part1.html
Oder liegt das am Schraubendreher? ;D
Ich will nur eine Ergänzung machen:
http://www.digit-life.com/articles3/video/rv670-3-part2.html
Let's examine the reference cooling system on the card made by HIS, because almost all graphics cards of this class will be equipped with such coolers.
It's a usual turbine design: a long heat sink covered with plastic housing to direct the airflow. There is a turbine at one end, which pumps the air through the heat sink. The other end has a socket to throw the heat out of a system unit.

We've already seen such coolers on the HD 2900 XT and the HS 3870. This very device is very long, so there are two heat sinks inside, one on each GPU.

Note that the plate and the heat sink near the turbine are made of aluminum, while the others are made of copper. Here is the idea: the first heat sink to meet the airflow gets cooler air, so aluminum works well here. The second heat sink is cooled by the air, warmed up by the first heat sink. It must be more efficient, so it's made of copper. We'll see the results below.

In conclusion of our examination, I want to note that different heat sinks are used ONLY in the first batches of such coolers. Products made by MSI and PowerColor come with copper heat sinks (BOTH), so they are heavier. Perhaps, HIS was one of the first partners to get the cards from AMD, so their coolers have different heat sinks.

The turbine is slow, so there is practically no noise. The fan rotates fast only for several seconds at startup.
Kaum ist die X2 da, schon muss man aufpassen, welcher Kühler montiert ist.

vinacis_vivids
2008-02-06, 06:48:30
Hier mal eins aus Frankreich:
http://www.puissance-pc.net/les-dossiers/test-amd-hd3870-x2.html?Itemid=57

nagus
2008-02-06, 08:22:10
Die X2 kann maximal mit der GTS512 mithalten.

Für die Ultra sehe ich keine Gefahr.


ja klar. und elvis lebt :crazy: :crazy: :crazy:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet

wolf-Cottbus
2008-02-06, 10:21:27
Das kann ich auch.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/19/#abschnitt_call_of_juarez

Warum werden Leute bei Hardware immer so persönlich?

Gruß Wolf

Gast
2008-02-06, 10:32:52
es geht um die performance INSGESAMT ... OMG und du pickst natürlich ein Spiel raus... sehr sinnvoll...

deekey777
2008-02-06, 10:35:39
es geht um die performance INSGESAMT ... OMG und du pickst natürlich ein Spiel raus... sehr sinnvoll...
Aber das ist ein gutes Beispiel, wo ein CF-Verbund ein Nachteil ist. Darüber solle man sich immer klar sein. Und CoJ ist nicht seit gestern auf dem Markt.

Gast
2008-02-06, 10:40:36
komisch die ganzen leute die meinen eine X2 könne nichtmal mit einer 8800 Ultra mithalten. ich hab meine 8800 GTX gegen eine X2 getauscht und bin vollkommen zufrieden denn in 1920 geht sie wesentlich besser als die GTX. hab die games die ich spiele auf mikroruckler getestet - ergebnis? es gibt kein game in dem ich die mikroruckler sehe. meistens komm ich sowieso immer auf 60fps (welche sogar noch recht gut verteilt sind) und bei DEM einen game bei dems nur mit 25-30fps rennt (crysis) gibts auch keine messbaren Mikroruckler (DX10 - Vista - neuester Treiber)

und das obwohl ich immer "nvidia fanboy" geschimpft werde :rolleyes:

Gast
2008-02-06, 11:38:43
Versteh auch nicht was die Leute hier für Probleme haben.
Ich meine, NV hatte jetzt erstmal lang genug die Leistungskrone
und da kann sich auch mal ATI für paar Monate auf den Trohn setzen.

Gast
2008-02-06, 11:49:12
NV hat immer noch die Leistungskrone mit SLI.

Gast
2008-02-06, 12:11:39
NV hat immer noch die Leistungskrone mit SLI.

SLI ist aber (leider) unbrauchbar da man ein Mainboard mit nvidia Chipsatz benötigt.

Gast
2008-02-06, 12:33:57
Für SLI-Nutzer dürfte das kaum einen Hinderungsgrund darstellen, zumal es die Chipsätze für AMD und Intel-CPUs gibt.

Gast
2008-02-06, 13:03:22
Für SLI-Nutzer dürfte das kaum einen Hinderungsgrund darstellen, zumal es die Chipsätze für AMD und Intel-CPUs gibt.

Ich war mehrfacher SLI nutzer und habe es unter anderem wegen der miesen Chipsätze aufgegeben. Also solltest du da nicht pauschalisieren. Wenn ein 500 Euro USB Gerät (welches sich an alle Konventionen hält) nur bei nforce Brettern Probleme macht dann ist das mal eine Sache. Wenns von nforce2 bis inkl. nforce4 diesselben Probleme macht ne andere (bis nf4 deshalb weil ich sicher keinen weiteren nfurz mehr kaufe). Dazu kommen der wahnsinnige Stromverbrauch und die extreme Hitze der Chips. Nö - SLI ist für mich tot. Einzig die 9800GX2 vermag das zu ändern. (Oder eine Freigabe auf Intel Chipsätzen - auf denen es im Übrigen EINWANDFREI funktionierte mit den Mod Treibern)

Tarkin
2008-02-06, 13:12:20
http://www.neoseeker.com/Articles/Hardware/Reviews/asus_eah3870x2/

sehr fragwürdiges Review - die CPU ist doch etwas schwach!

Die Auflösungen und AA-Einstellungen sind auch ein Scherz.

Leute die solche unsinnigen Reviews produzieren gehören echt auf den Mond geschossen! :mad: - Hier entsteht ein vollkommen falsches Bild von der Leistungsfähigkeit dieser Grafikkarte... besonders bei Leuten die sich nicht so gut auskennen.

Gast
2008-02-06, 13:12:48
ehm freigabe gibts doch schon

http://www.pcgameshardware.de/?article_id=630893

http://www.computerbase.de/news/hardware/mainboards/intel-systeme/2008/februar/intels_skulltrail-plattform_wo_test/

Gast
2008-02-06, 13:24:31
jein - auf dem Mainboard is wieder ein unnötiger nvidia Chip verbaut
mit den Mod Treibern hat es mit einem stinknormalen 975 funktioniert.
nvidia verkauft ihre (unnötigen) chips sozusagen als hardware dongle für die sli funktionalität des treibers!
passend zum Skulltrail mit nvidia PCI Bridge -> http://www.fudzilla.com/index.php?option=com_content&task=view&id=5197&Itemid=1

Intel's engineers told us a funny story that the hottest chips on their Skulltrail motherboard are Nvidia's bridge chips. Skulltrail has two of these and they tend to get extremely hot.

Gast
2008-02-06, 14:03:59
NV hat immer noch die Leistungskrone mit SLI.


Wir schreiben hier aber über einen Grafikbeschleuniger der nur einen Steckplatz braucht und wenn man sich das leider überteuerte GeCube Modell anschaut kann das sogar ein recht kleines PCB sein. Wieviele Chips darauf verbaut sind ist eigentlich egal, es ist nur eine Frage der Zeit bis man 4 - 16 Mainstream Chips auf ein Brett Lötet und als high end Karte verkauft. Zudem finde ich es gut das ATI und NV wieder etwas Praxiserfahrung bekommen mit 1+X Chips auf einem PCB. Die Quad CPUs werden ja auch hoch gelobt!!!!!

F5.Nuh
2008-02-06, 14:07:36
Das kann ich auch.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/19/#abschnitt_call_of_juarez

Warum werden Leute bei Hardware immer so persönlich?

Gruß Wolf

Warum ist die X2 da so extrem im Nachteil. Das muss doch ein Treiberproblem sein. Anders kann ich mir das garnicht erklären. :confused:

MartinRiggs
2008-02-06, 14:21:12
Natürlich ist das ein Treiberfehler, was sollte es auch sonst sein?
Allerdings sieht man auch mal wieder das Reviews oft sch... sind. Bei meinem Kumpel mit HD3870CF läuft COJ butterweich auch in hoher auflösung, allerdings nutzt der auch noch XP, bei CB ist alles Vista, daher vermutlich ein Bug im Vista-Treiber.

Gast
2008-02-06, 19:16:56
wird es jetzt eigentlich noch eine x2 mit gddr4 geben?

Remix2k
2008-02-06, 20:01:26
Also Finde die karte, für die gebotene Leistung zimlich schwach auf der brust ;)

wolf-Cottbus
2008-02-06, 20:23:15
es geht um die performance INSGESAMT ... OMG und du pickst natürlich ein Spiel raus... sehr sinnvoll...

Mit der Performence Insgesamt kann ich nun mal nicht spielen. Ich suche mir also die Bench von den Spielen raus die ich habe. Was habe ich davon wenn ich ein Bench unter Xp anschaue wenn ich das Spiel gar nicht habe und Vista64 als SYS. Unter XP und DX9 brauche ich mit meinen Anwendungen von meiner GTX nicht wechseln. Ich wünsche mir mehr Power unter Vista64 und D3D10. Und da sieht es dann nicht mehr so rosig aus im Moment.
Damit mache ich die Karte nicht mies, sie ist für mich zu langsam.
Gruß Wolf

Gast
2008-02-06, 21:26:59
SLI ist aber (leider) unbrauchbar da man ein Mainboard mit nvidia Chipsatz benötigt.


leider ist es umgekehrt und CF ist in der praxis mangels möglicher profilsteuerung durch den user ziemlich unbrauchbar. nett für ein paar mainstreamspiele, aber für mehr nicht zu gebrauchen.

Gast
2008-02-06, 21:35:05
leider ist es umgekehrt und CF ist in der praxis mangels möglicher profilsteuerung durch den user ziemlich unbrauchbar. nett für ein paar mainstreamspiele, aber für mehr nicht zu gebrauchen.

interessant. welche nicht-mainstream-spiele funzen denn nicht?
liveforspeed und tabula rasa funzen z.b. perfekt

Das Auge
2008-02-07, 18:25:18
Ich wünsche mir mehr Power unter Vista64 und D3D10. Und da sieht es dann nicht mehr so rosig aus im Moment.


Die Frage ist doch eher ob man für Vista überhaupt mehr Power braucht oder man sich nicht doch einfach geduldet, bis D3D10 sich als Spiele-API durchgesetzt hat und DX9 keine große Rolle mehr spielt.
Die paar Zusatzeffekte die man derzeit zu sehen bekommt rechtfertigen Vista imho halt bei weitem noch nicht.

wolf-Cottbus
2008-02-07, 23:19:00
Die Frage ist doch eher ob man für Vista überhaupt mehr Power braucht oder man sich nicht doch einfach geduldet, bis D3D10 sich als Spiele-API durchgesetzt hat und DX9 keine große Rolle mehr spielt.
Die paar Zusatzeffekte die man derzeit zu sehen bekommt rechtfertigen Vista imho halt bei weitem noch nicht.

Nun ich habe mal Vista und die GTX. Für mich lohnt die X² Karte nicht. Das heißt aber nicht das dasich die Karte schlecht finde. Die GTX habe ich im Dezember 2006 gekauft, nun sollte mal langsam was neues her.

Gruß Wolf

wolf-Cottbus
2008-02-07, 23:20:45
Ach für 350 Dmark ist das also schwach klar.Komm aus deiner Traumwelt raus.;););););)

Dmark? Wach auf € ist angesagt.

Gruß Wolf

Gast
2008-02-08, 17:40:10
Nun ich habe mal Vista und die GTX. Für mich lohnt die X² Karte nicht.
Gruß Wolf

Dann warte halt bis die neuen von Nvidia kommen GT200 o.ä.

AnarchX
2008-02-08, 19:51:41
3870 X2: Überraschungen bei Crysis-Tests (http://www.pcgameshardware.de/?article_id=631574)
Überraschung im PCGH-Testlabor: Nach Analyse aller Levels von Crysis ist festzuhalten, dass die 3870 X2 nur in 6 von 11 Karten schneller wird - in 5 Levels ist sie langsamer als eine Single 3870. [...]

Bei unserer SLI-Kombination mit Geforce 8800 GT ließ sich diese Anomalie nicht feststellen. SLI war immer schneller als Non-SLI, auch wenn der Leistungszuwachs je nach Level und verwendeter Timedemo sehr unterschiedlich ausfiel (9 bis 63 Prozent). [...]



Da scheint man wohl bei ATi nur auf die meistverwendeten Timdemos/Saves von Spielen zu optimieren. :|

LovesuckZ
2008-02-08, 20:07:04
Zeit für einen neuen Cheat-Thread?
Naja, sieht eher danach aus, dass das Profil eben nicht in jeder Situation vernünftigt arbeitet.

aylano
2008-02-08, 20:07:41
Bei einem ATI-Interview von Fudzilla wurde berichtet, dass CrossfireX bisher hauptsächlich auf DX9 (& XP) optimiert wurde, da die meisten Leute eben noch DX9 (& XP) verwenden.

In den nächsten Monaten soll dann die Priorität bei DX10 (& Vista) liegen.

reunion
2008-02-08, 20:09:49
Da scheint man wohl bei ATi nur auf die meistverwendeten Timdemos/Saves von Spielen zu optimieren. :|

Scheint ja bei nV nicht viel anders zu sein. 9 bis 63 Prozent ist auch nicht gerade berauschend.

AnarchX
2008-02-08, 20:11:02
Bei einem ATI-Interview von Fudzilla wurde berichtet, dass CrossfireX bisher hauptsächlich auf DX9 (& XP) optimiert wurde, da die meisten Leute eben noch DX9 (& XP) verwenden.

Nur tritt bei PCGH aber dieses Problem gerade nur unter D3D9 auf. ;)

Scheint ja bei nV nicht viel anders zu sein. 9 bis 63 Prozent ist auch nicht gerade berauschend.
Nunja, bei NV gibt es wenigstens eine Leistungssteigerung, während man bei ATi Leistung verliert. Und CF ist ja bei der 3870X2 AFAIK auch nicht deaktivierbar.

reunion
2008-02-08, 20:20:10
Nunja, bei NV gibt es wenigstens eine Leistungssteigerung, während man bei ATi Leistung verliert. Und CF ist ja bei der 3870X2 AFAIK auch nicht deaktivierbar.

Das ist richtig, nur du sagtest: "Da scheint man wohl bei ATi nur auf die meistverwendeten Timdemos/Saves von Spielen zu optimieren". Und genau das scheint ja wohl bei nV nicht anders zu sein.

AnarchX
2008-02-08, 20:24:01
Das ist richtig, nur du sagtest: "Da scheint man wohl bei ATi nur auf die meistverwendeten Timdemos/Saves von Spielen zu optimieren". Und genau das scheint ja wohl bei nV nicht anders zu sein.
Bringt nun SLI durchgehend mehr Leistung als Non-SLI oder nicht?;)

Gast
2008-02-08, 20:24:05
Das macht garnix aus...

reunion
2008-02-08, 20:25:45
Bringt nun SLI durchgehend mehr Leistung als Non-SLI oder nicht?;)

Nur weil es da zumindest 9% Steigerung gibt (lächerlich bei einer zweiten Karte), kann man sicher nicht von einer durchgehenden Optimierung sprechen. Zudem ist der Vergleich 3870 vs. 3870 X2 durch den geteilten PCIe-Slot der noch dazu max. PCIe1.1 fähig ist auch nicht ganz fair. In der aktuellen PCGH zeigt sich auch das ein HD3870-CF System trotz des niedrigeren Chiptaktes durchgehend (teils deutlich) schneller ist.

Aber Crysis scheint wohl generell Probleme mit Multi-GPU-Systemen zu haben.

Gast
2008-02-08, 20:26:14
Nochmals das macht garnix aus...

Gast
2008-02-08, 20:30:06
Aber Crysis scheint wohl generell Probleme mit Multi-GPU-Systemen zu haben.

Nein mit Crossfire.

deekey777
2008-02-08, 20:30:38
Zeit für einen neuen Cheat-Thread?
Naja, sieht eher danach aus, dass das Profil eben nicht in jeder Situation vernünftigt arbeitet.
Aber natürlich. Am besten ein Thread pro Ergebnis, wo eine X2 lansamer als eine einzelne HD3870 ist.

http://www.digit-life.com/articles3/video/rv670-3-part3.html
http://www.ixbt.com/video3/rv670-3-part3-d.shtml#p19
Der Test wurde übrigens ganz früh verlinkt, wo ist also die News?

AnarchX
2008-02-08, 20:35:44
Nur weil es da zumindest 9% Steigerung gibt (lächerlich bei einer zweiten Karte), kann man sicher nicht von einer durchgehenden Optimierung sprechen.
Trotzdem erreicht NV mit SLI eine durchgehend höhere Performance und bei diesen 9% spielt vielleicht ein CPU-Limit Rolle.

Während bei ATi der Verdacht bleibt, dass hier einseitig für reviewrelevante Szenarien optimiert wurde und das auf Kosten auf nicht so beachteter Szenarien.


Zudem ist der Vergleich 3870 vs. 3870 X2 durch den geteilten PCIe-Slot der noch dazu max. PCIe1.1 fähig ist auch nicht ganz fair. In der aktuellen PCGH zeigt sich auch ganz deutlich das ein HD3870-CF System trotz des niedrigeren Chiptaktes durchgehend teils deutlich schneller ist.
Gibt es eine 3870X2 mit PCIe 2.0 Bridge?
Und die NV-Werte bleiben relevant, da die 9800GX2 mit PCIe 2.0 kommt.

reunion
2008-02-08, 20:50:40
Trotzdem erreicht NV mit SLI eine durchgehend höhere Performance und bei diesen 9% spielt vielleicht ein CPU-Limit Rolle.


In Crysis limitiert die CPU? Und das noch dazu bei einem C2Q mit 3.66Ghz? No sorry, das glaubst du doch selbst nicht.


Während bei ATi der Verdacht bleibt, dass hier einseitig für reviewrelevante Szenarien optimiert wurde und das auf Kosten auf nicht so beachteter Szenarien.


Und bei NV besteht der Verdacht nicht? Interessant. Die 9% Skalierung tritt sicher beim meistgebenchten Level auf.


Gibt es eine 3870X2 mit PCIe 2.0 Bridge?


Ist das von Relevanz? Eine 3870 ist jedenfalls nicht die beste Methode um die Crossfireskalierung einer 3870 X2 zu bestimmen.


Und die NV-Werte bleiben relevant, da die 9800GX2 mit PCIe 2.0 kommt.

Habe ich auch nicht mal ansatzweise bestritten.

Gast
2008-02-08, 20:53:29
Scheint ja bei nV nicht viel anders zu sein. 9 bis 63 Prozent ist auch nicht gerade berauschend.

Schonmal etwas von CPU Limit gehört?

deekey777
2008-02-08, 21:12:52
Schonmal etwas von CPU Limit gehört?
Nicht unbedingt. Es gibt Situationen, wo selbst AFR nichts bringt.

Gast
2008-02-08, 21:18:17
Nicht unbedingt. Es gibt Situationen, wo selbst AFR nichts bringt.

Unsinn. Crysis ist sehr wohl CPU Limitiert das betrifft u.a. die Weitsicht das erkennt man daran wenn man die CPU übertaktet steigen dort die FPS, da kann auch SLI nix mehr machen. Deshalb skaliert auch der GPU Benchmark nicht zu 100% und AA kostet kaum leistung an manchen Stellen eben dort wo die CPU Grundleistung nicht ausreicht.

deekey777
2008-02-08, 21:22:44
Unsinn. Crysis ist sehr wohl CPU Limitiert das betrifft u.a. die Weitsicht das erkennt man daran wenn man die CPU übertaktet steigen dort die FPS, da kann auch SLI nix mehr machen. Deshalb skaliert auch der GPU Benchmark nicht zu 100% und AA kostet kaum leistung an manchen Stellen eben dort wo die CPU Grundleistung nicht ausreicht.
Immer locker bleiben mit Wörtern wie "Unsinn".

Coda
2008-02-08, 21:30:55
Sobald man Abhängigkeiten hat zwischen den Frames muss man schwer aufpassen mit den Profilen, damit man nicht sogar Leistung verliert. Crysis scheint Multi-GPUs nicht gerade zu schmecken.

Insofern ist es sehr gewagt hier nVIDIA einen Vorwurf zu machen auf gewisse Timedemos zu optimieren.

deekey777
2008-02-08, 21:41:28
Sobald man Abhängigkeiten hat zwischen den Frames muss man schwer aufpassen mit den Profilen, damit man nicht sogar Leistung verliert. Crysis scheint Multi-GPUs nicht gerade zu schmecken.

Insofern ist es sehr gewagt hier nVIDIA einen Vorwurf zu machen auf gewisse Timedemos zu optimieren.
Der Vorwurf gilt eher ATi.
Crysis langsamer mit CF?
Zu unserer völligen Überraschung stellte sich heraus, dass die HD 3870 X2 im DX9-Modus von Crysis 1.1 nur in 6 von 11 getesteten Levels schneller war als eine einzelne HD 3870. In 5 von 11 Levels war die Dualkarte langsamer als die Single-Variante; im Extremfall (Sphere-Map) erreichte die X2 sogar nur 64,7 Prozent der Leistung einer 3870. Im DX10-Modus zeigte sich dieses Phänomen nicht, hier lag die 3870 X2 immer vor der Singlekarte (bis zu 52 Prozent Vorsprung auf der Mine-Karte).
Der Vorwurf, dass nur auf "Review-relevante" Level optimiert wird, ist nicht haltbar.
Überhaupt: Wenn die PCGH Zeit hat, solche Artikel zu schreiben, dann sollte sich lieber der eine oder andere Redakteur zB PrefHud schnappen und genau zu testen, wie Grafikkarten in Spielen performen und worauf die Last tatsächlich liegt.

reunion
2008-02-08, 21:42:18
Insofern ist es sehr gewagt hier nVIDIA einen Vorwurf zu machen auf gewisse Timedemos zu optimieren.

Aber bei ATi ist er legitim?

Coda
2008-02-08, 21:48:09
Wenn sie nichtmal das Spiel durchtesten um festzustellen dass es in vielen Situationen sogar Leistung verliert...

Ich werfe ATI bei Crossfire immer noch vor, nur auf die Benchmark-Balken zu schauen und nicht auf die wirkliche Benutzerbarkeit. Allein dass es keine selbstdefinierten Profile gibt (wobei das ja angeblich geändert werden soll).

Überhaupt: Wenn die PCGH Zeit hat, solche Artikel zu schreiben, dann sollte sich lieber der eine oder andere Redakteur zB PrefHud schnappen und genau zu testen, wie Grafikkarten in Spielen performen und worauf die Last tatsächlich liegt.
PerfHUD läuft nur mit einem speziellen Treiber und wenn der Entwickler der App es gewollt hat (wobei man letzteres umgehen kann *hust*).

Gast
2008-02-08, 22:37:50
Aber Crysis scheint wohl generell Probleme mit Multi-GPU-Systemen zu haben.

Richtig

Ich hatte die X2 und ein Kumpel hat ein SLI aus 8800gt 1024mb und es läuft auf beiden nur durchwachsen.
Schade gerade da brauch man Graka Power :(

Gast
2008-02-08, 23:27:11
PerfHUD läuft nur mit einem speziellen Treiber und wenn der Entwickler der App es gewollt hat (wobei man letzteres umgehen kann *hust*).
Richtig, darum machen wir's auch nicht.

deekey777
2008-02-08, 23:40:51
Wenn sie nichtmal das Spiel durchtesten um festzustellen dass es in vielen Situationen sogar Leistung verliert...

Ich werfe ATI bei Crossfire immer noch vor, nur auf die Benchmark-Balken zu schauen und nicht auf die wirkliche Benutzerbarkeit. Allein dass es keine selbstdefinierten Profile gibt (wobei das ja angeblich geändert werden soll).


PerfHUD läuft nur mit einem speziellen Treiber und wenn der Entwickler der App es gewollt hat (wobei man letzteres umgehen kann *hust*).
Da verweise ich voller Absicht auf PerfHud und dann kommt so etwas... ;(

http://ati.amd.com/developer/gpups/index.html

Da braucht man nur einen 7.12, aber vielleicht klappt's mit einem neueren Treiber.

Gast
2008-02-09, 01:01:39
was genau macht oder ist dieses PerfHud ?

AnarchX
2008-02-09, 13:47:25
was genau macht oder ist dieses PerfHud ?
http://developer.nvidia.com/object/nvperfhud_home.html

Sobald man Abhängigkeiten hat zwischen den Frames muss man schwer aufpassen mit den Profilen, damit man nicht sogar Leistung verliert. Crysis scheint Multi-GPUs nicht gerade zu schmecken.

Bei kommenden Games, die sich auf ähnlichem Techlevel bewegen, kann man wohl vergleichbares erwarten?
Da stehen ja die MGPU-Lösungen beider IHV nochmals in schlechterem Licht und ATi erst recht, wenn diese längerfristig planen ihren HighEnd-SKUs so zu realisieren. :|

deekey777
2008-02-09, 14:04:01
...

Bei kommenden Games, die sich auf ähnlichem Techlevel bewegen, kann man wohl vergleichbares erwarten?
Da stehen ja die MGPU-Lösungen beider IHV nochmals in schlechterem Licht und ATi erst recht, wenn diese längerfristig planen ihren HighEnd-SKUs so zu realisieren. :|
Es muss nicht immer AFR sein (das gilt ja für AFR).

PCGH_Carsten
2008-02-09, 14:12:07
Es muss nicht immer AFR sein (das gilt ja für AFR).


Bei homogenen Chips ist AFR aber das Mittel der Wahl, um "100% Skalierung" propagieren zu können.

AnarchX
2008-02-09, 15:23:39
Es muss nicht immer AFR sein (das gilt ja für AFR).
Natürlich nicht, aber die aktuellen SFR-Verfahren sind ja auch nicht gerade zu bevorzugen bzw. sie sind schon nahezu tot.

reunion
2008-02-09, 17:41:32
Natürlich nicht, aber die aktuellen SFR-Verfahren sind ja auch nicht gerade zu bevorzugen bzw. sie sind schon nahezu tot.

Es muss auch nicht immer SFR sein.

up¦²
2008-02-10, 03:15:42
Videoreview... :tongue:
HIS HD 3870 X2 1GB GDDR3
http://www.3dgameman.com/content/view/11837/103/

Noch was:
ATI just have to convince the buyers that single card is out, multi-card is in.
:up:
http://www.nordichardware.com/news,7327.html

vinacis_vivids
2008-02-10, 22:46:59
Neues Review der 3870x2:
"Was das Testsystem und die Benchmarks betrifft, ist der Review absolute Mainstreamtauglichkeit zu attestieren. Q6600 auf 3Ghz, Abit IP 35,Mushkin HP2-6400 DDR2 800 Mhz (2 x 2GB) 5-4-4-12, Vista Ultimate, Treiber vom 23.01

Gebencht wurde in 1024x768; 1280x1024; 1680x1050 verglichen mit 8800GT, 8800GTS (G92), 8800GTX 768MB, HD 3870, EAH3870X2, EAH3870X2 OC" (Q: HWLUXX)

http://www.overclockersclub.com/reviews/asus_eah3870x2/

Gast
2008-02-10, 23:58:01
Review absolute Mainstreamtauglichkeit zu attestieren. Q6600 auf 3Ghz
Mainstream, ja klar. :rolleyes:

vinacis_vivids
2008-02-11, 00:37:54
Mainstream, ja klar. :rolleyes:

naja, wer bereit ist 400 tacken für ne 3870x2 zu bezahlen kann auch 200 für n quad ausgeben ;)

J0ph33
2008-02-11, 00:39:25
mmmh....warum benchen die Crysis nicht high DX9 bzw. very high DX10 wie es sich gehört?!

Gast
2008-02-11, 01:23:48
naja, wer bereit ist 400 tacken für ne 3870x2 zu bezahlen kann auch 200 für n quad ausgeben ;)
Es sind nur 360€. ;)

Eigentlich hast du jetzt Recht, aber da steht "Mainstream" und "3Ghz". Ein Q6600 ist eine Sache 3Ghz eine andere und eine X2, die ständie Pflege braucht, damit man einen Vorteil von ihr hat erst recht.
Mainstream bedeutet billig, wenig Aufwand und sicher kein OC.

vinacis_vivids
2008-02-11, 02:07:19
Es sind nur 360€. ;)

Eigentlich hast du jetzt Recht, aber da steht "Mainstream" und "3Ghz". Ein Q6600 ist eine Sache 3Ghz eine andere und eine X2, die ständie Pflege braucht, damit man einen Vorteil von ihr hat erst recht.
Mainstream bedeutet billig, wenig Aufwand und sicher kein OC.

Mainstream bedeutet einfach "häufig" bzw. "oft" benutzt. Ein Q6600 gehört sicherlich dazu.

Gast
2008-02-11, 09:13:52
mainstream ist ein q6600 noch lange nicht ;)

ein e 6600 ist jetzt gerademal "mainstream"

quadcores haben nur leute die sich auch auf solchen foren rumtreiben,

und das sind nerds die keine ahnung vom mainstream haben^^

mainstream ist ein pc der im mediamarkt für 600-800€ weggeht

und da seh ich keinen q6600

Gast
2008-02-11, 09:16:51
ok mainstream is das falsche wort....

aber ein q6600 gehört nicht dazu egal wie mans nennt

Gast
2008-02-11, 13:18:01
Selbst wenn der Q6600 als 192€ CPU Mainstream ist (Meiner Meinung nach ist er im Performance Segment), dann ist es ein auf 3Ghz Q6600 nicht!

Gast
2008-02-12, 21:41:50
ein IBM/Lenovo (!) pc mit einem q6600 sowie 2gb ram kostet 750 euro
mainstream!

deekey777
2008-02-14, 00:01:22
ASUS HD 3870 X2: http://www.techspot.com/review/86-ati-radeon-hd-3870-x2/

deekey777
2008-02-14, 08:22:24
AMD's CrossFireX Details Leak Out (http://www.tomshardware.com/2008/02/13/amd_s_crossfirex_details_leak_out/)

This means that the CrossfireX architecture will have to be completely redone if they want an XP version, something they deemed not worth doing at this point, and I hate to say that I agree with the decision, but I do. That said, because of this, you are never going to see more than 2 GPUs working on XP making CrossfireX pointless to anyone not liking the tools that come with Vista. That would be me.

Gast
2008-02-14, 08:33:42
AMD's CrossFireX Details Leak Out (http://www.tomshardware.com/2008/02/13/amd_s_crossfirex_details_leak_out/)

Ist ja bei nV auch nicht anders. Triple-SLi gibt es auch nur unter Vista und bei der Quadausführung wird es wohl ebenso sein.

Gast
2008-02-14, 17:13:55
AMD's CrossFireX Details Leak Out (http://www.tomshardware.com/2008/02/13/amd_s_crossfirex_details_leak_out/)


Intressant das die X2 soviel schneller als 2 3870 ist.

Blaire
2008-02-14, 19:29:56
Ist ja bei nV auch nicht anders. Triple-SLi gibt es auch nur unter Vista und bei der Quadausführung wird es wohl ebenso sein.

Nicht unbedingt, denn früher zu QuadSLI 7950GX2 gab es auch einen 2xAFR/1xSFR Mischmodus für DX9...

Gast
2008-02-15, 23:40:41
AFR ist doch sowieso nur zum offline rendering zu gebrauchen, wer tut sich denn wenn man sich zb. 30fps als ziel setzt noch mehrere 100ms verzögerung extra an?

AnarchX
2008-02-18, 14:43:05
MSI RX3870X2-T2D1G-OC @ HT4u (http://www.ht4u.net/news/1350_neuer_artikel_online_msi_rx3870x2-t2d1g-oc)

Mal ein Test unter Windows XP.

reunion
2008-02-18, 22:08:08
Review von xbitlabs:
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd3870-x2.html

AnarchX
2008-02-18, 22:19:57
Leider kein Stromverbrauch und nicht unbedingt das "beste" Review für die X2, wenn sie mal gewinnt ist die Perfomance auf den anderen Karten noch ausreichend(QW:ET) oder bei allen Karten im Keller(CoJ).

http://img263.imageshack.us/img263/2818/atiradeonhd3870x2finalpar6.png (http://imageshack.us)

Und im Endeffekt bleibt auch die Frage, wie echt nun die FPS sind, wenn sie gewinnt.

Da hat ATi definitv noch eine Menge Arbeit vor sich, erst recht weil es die (kurzfristige) Zukunft ihres High-Ends ist.

deekey777
2008-02-18, 22:21:08
Review von xbitlabs:
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd3870-x2.html
The ATI Radeon HD 3870 X2 proved to be perfectly compatible with all mainboards we started it on. The card communicates with the bus via a PCI Express switch, and versions 1.1 and 1.0a of this interface have identical speed characteristics. That’s why there should not be any compatibility issues.

Nicht unbedingt, es gibt anscheinend mit einigen Intel-Boards.

laser114
2008-02-18, 22:30:59
Leider kein Stromverbrauch und nicht unbedingt das "beste" Review für die X2, wenn sie mal gewinnt ist die Perfomance auf den anderen Karten noch ausreichend(QW:ET) oder bei allen Karten im Keller(CoJ).

Sind aber auch einige Situationen dabei, wo alle Karten ruhig rendern ohne das sich ein Abstand ergibt -> CPU-Limits, was den Test ein bisschen verquert. Siehe z. B. Oblivion

Da hat ATi definitv noch eine Menge Arbeit vor sich, erst recht weil es die (kurzfristige) Zukunft ihres High-Ends ist.

Eher mittelfristig, den R800 sehe ich jedenfalls nicht innerhalb der nächsten 12 Monate, eher dauert es nochmal deutlich länger. ;)

AnarchX
2008-02-18, 22:33:27
Sind aber auch einige Situationen dabei, wo alle Karten ruhig rendern ohne das sich ein Abstand ergibt -> CPU-Limits, was den Test ein bisschen verquert. Siehe z. B. Oblivion

In der Tat und zudem sind wieder ein paar zu hohe Unterschied zwischen 88GT und GTS vorhanden -> CoD4.

Für mehr als eine halbwegs genaue Verbrauchsangabe scheint Xbit-Labs leider wohl nicht mehr zu taugen...

Malachi
2008-02-20, 19:05:49
*erledigt*

AnarchX
2008-02-27, 10:32:57
Also the HD 3870 X2 will come along with the new PLX chip that supports PCI Express 2.0 somewhere in April.
http://www.vr-zone.com/?i=5603

GeneralHanno
2008-02-27, 11:01:28
das könnte natürlich noch einen performenceschub bringen.

beim vergleich PCIe 1vs2 unter CF gab es doch unterschiede im bereich bis zu 20% (als spitzenwert), oder?

crux2005
2008-02-27, 22:49:25
nabend :smile:

Die 3870 X2 unterstützt ja wie ein CF gespann den "16xAA" Modus.

http://img254.imageshack.us/img254/8751/capture23022008180414ax6.png

Habe jetzt eine Weile mehr infos dazu gesucht, leider konnte ich nicht herausfinden aus was der Modus besteht. Ist ja kein 16xMSAA ...
14xSuper = 2xRG-SSAA + 6xSG-MSAA und 16xAA ist ?

CB gibt ja nicht viele infos dazu: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/3/

Gast
2008-02-27, 23:13:03
Doch 2x 8xMSAA

crux2005
2008-02-28, 10:15:17
ok, ist aber so eine art "temporal" 8xMSAA, oder ?
denn auf den Bildern sieht es nicht nach 16xMSAA aus - die unterschiede zu 8xMSAA sind nicht groß

AnarchX
2008-02-28, 11:19:44
Es ist schon 16x RGMSAA, aber wohl eher mit einer suboptimalen Sampleverteilung.

Mr. Lolman
2008-02-28, 11:46:42
CB gibt ja nicht viele infos dazu: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/3/

Und die, die sie rausgeben sind tw. inkorrekt.



Der FSAA-Tester im 3DMark05 verrät, dass das 16x-CrossFire-AA durchaus einige Kanten – je nach Winkel – besser glättet und selbst das gelungene 8xAA alt aussehen lässt. Allerdings gilt dies nur für wenige Winkel, die meisten weisen dieselben Treppenstufen wie bei 8xAA auf. Begründen kann man dies wahrscheinlich mit einer suboptimal gesetzten Sampleanordnung nach der Rotation.

Nein, da wo 16xMSAA nicht besser als 8xMSAA glättet, gibts (ohne Blur) auch keine Möglichkeit mehr für bessere Glättung.



Wir müssen aber anmerken, dass zwei gleiche, nur leicht versetzte 8xAA-Samplemuster wohl nie so gut glätten können wie 16 nativ gewählte Samples, die man frei im zur Verfügung stehendem Grid anordnen kann.


Falsch. Das Subpixelgrid war bei ATI schon ab R300 (auf einem bestimmten Raster) frei definierbar (Temporal AA anyone?).


Dies ist also quasi eine hausgemachte Schwäche von SuperAA und SLI-AA. In dem hereingezoomten Ausschnitt kann man deutlicher erkennen, dass das 16xAA bei horizontalen Kanten eine gute Arbeit verrichtet, während die vertikalen Treppenstufen kaum oder gar nicht effektiver geglättet werden.


http://www.computerbase.de/bild/article/669/6/
http://www.computerbase.de/bild/article/669/7/

Was soll man da noch viel effektiver glätten, wenn die Zwischenstufen großteils ohnehin nur mehr 1 Pixel groß sind?

ok, ist aber so eine art "temporal" 8xMSAA, oder ?
denn auf den Bildern sieht es nicht nach 16xMSAA aus - die unterschiede zu 8xMSAA sind nicht groß


Ja, das ist das Gesetz des abnehmenden Ertrags.


Manche Objekte werden effektiver bearbeitet, die meisten Spiele sehen aber selbst auf Screenshots absolut gleich aus. Warum dies so ist, kann man nur vermuten. Als einzige logische Erklärung fällt uns erneut nur eine unglückliche Sampleanordnung ein.

Oder halt, dass die Screenshots falsch sind...

Gast
2008-02-28, 11:50:28
Ich find es krass das die HD3870x2 schon ab 326€ lieferbar ist, für experimentierfreudige Naturen bestimmt nicht der schlechteste Kauf.

crux2005
2008-02-28, 12:47:03
wenn die nur nicht so heiß wäre ...

danke für die infos Mr. Lolman

SamLombardo
2008-03-02, 10:56:05
Ich find es krass das die HD3870x2 schon ab 326€ lieferbar ist, für experimentierfreudige Naturen bestimmt nicht der schlechteste Kauf.

Wo denn? Der billigste Geizhals Preis ist 350€

Captain Future
2008-03-02, 10:59:56
Oder halt, dass die Screenshots falsch sind...
Wie kann ein Screenshot "falsch" sein? gefälscht vielleicht oder nicht repräsentativ - aber falsch?