PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie 2 kleine Zwillinge auszogen um das Monster zu verkloppen. (HD3870 X2 vs. Ultra)


Seiten : 1 [2] 3

Banshee18
2008-01-24, 13:34:03
Crysis ist die absolute Referenz was Grafikpracht angeht. Ich brauch jedenfalls bei HL2 mit 1920x1200 mehr als 4xAA. Doom 3 mit 8SAA bei der Auflösung tut auch gut. Für mich gilt immernoch : Egal welche Auflösung: AA ist immer eine Verbesserung.
SSAA ist ein ganz anderes paar Stiefel. Auch ich hasse Shaderflimmern und hätte je nach Spiel am liebsten 4xSGSSAA.

Zu HL2: Dann bist du aber sehr empfindlich. Der einzige Grund für mehr AA, oder besser gesagt AAA sind imho die Zäune. Optimal wäre auch hier möglichst viel SSAA: Bearbeitet die Zäune auch und zusätzlich hässliches Shaderflimmern.

Liszca
2008-01-24, 13:34:03
was ich da sehe halte ich eher für kompressionsartefakte. also mir wäre es den aufwand nicht wert!

MadManniMan
2008-01-24, 13:38:22
In vielen Testes wird nicht mal 8AA getestet :), das würde das Bild von Nvidia völlig zerstören.

Ja, 8*MSAA ist ATis Stärke. Ob aber andere Testmethoden das Bild in Richtung nVidia verschieben würden, oder aber wiederum in Richtung ATi - wir wissen es nicht!



8*MSAA vs 4*MSAA kannste hier selbst bestaunen:

Dermaßen runterkomprimiert nutzen solche Sachen gar nix. PNGs würden vielleicht was bringen, aber bitte keine JPGs!
Wie sie sehen, sehen sie nix!

Außerdem kann ichs mir gut vorstellen, da mir selbst der Unterschied zwischen 4* und 6* MSAA deutlich auffällt. Dennoch ziehe ich alle anderen AA-Modi (vielleicht CSAA außen vor, aber das ist sehr performant) der simplen Verbesserung durch 8 Samples vor, da sie mehr machen, als einfach die Kanten doppelt so fein abzustufen.


Ja das ist echt schade.
Dafür wird 1280x1024 ohne AA getestet. :ugly:

Seit knapp 6 Jahren wird nun schon mit 4*/16* gebencht - die Redis scheinen völlig überfordert, mal einen halben Schritt weiterzudenken ;(


Erbärmlich.:(

Hier wäre der Ansatzpunkt fürs 3DCenter - zumindest hätte ich früher immer Artikel erwartet, die sich damit befassen ... oh CMS komme!


Siehe mein edit mit Crysisshot von einem CF System.

Was willst uns damit eigentlich sagen?

Mr. Lolman
2008-01-24, 13:40:45
was ich da sehe halte ich eher für kompressionsartefakte. also mir wäre es den aufwand nicht wert!

Ja. Bitte nochmal weniger kaputt komprimierte Screenshots. Thx.

vinacis_vivids
2008-01-24, 13:43:54
@ Liszca:
4MSAA vs 8MSAA
http://www.abload.de/img/4aasmf3p.jpghttp://www.abload.de/img/8aasmudr.jpg

sry ich such gleich die originaldinger

2B-Maverick
2008-01-24, 13:46:24
@ Liszca:
4MSAA vs 8MSAA
http://www.abload.de/img/4aasmf3p.jpghttp://www.abload.de/img/8aasmudr.jpg

sind das dort einzelne Bretter? Oder nur eine besser gefilterte Textur?
hmmm..

Ausserdem wären .png Bildchen echt besser.

CU
Markus

Grestorn
2008-01-24, 13:46:59
@ Liszca:
4MSAA vs 8MSAA
http://www.abload.de/img/4aasmf3p.jpghttp://www.abload.de/img/8aasmudr.jpg

An der bezeichneten Stelle ist doch nur eine Textur, ggf. per Shader aufgepeppt. Wie kann da bitte MSAA eine Wirkung zeigen?

Liszca
2008-01-24, 13:50:53
@ Liszca:
4MSAA vs 8MSAA
http://www.abload.de/img/4aasmf3p.jpghttp://www.abload.de/img/8aasmudr.jpg

sry ich such gleich die originaldinger

ok, jetzt erkenn ichs auch.

2B-Maverick
2008-01-24, 13:53:57
An der bezeichneten Stelle ist doch nur eine Textur, ggf. per Shader aufgepeppt. Wie kann da bitte MSAA eine Wirkung zeigen?

ja, des frag ich mich auch. Aber könnten auch einzelne Bretter sein -> also doch verschiedene Objekte -> MSAA greift.
Habe Crysis net, kann ich also net prüfen....
mal warten was der Poster dazu sagt.

vinacis_vivids
2008-01-24, 14:06:09
So hier hab ich nun andere shots wo man es besser sieht:


Crysis:
4MSAA
http://www.abload.de/img/crysis4xaa58h.png

8MSAA
http://www.abload.de/img/crysis8xaalpi.png

Fear:
2MSAA
http://www.abload.de/thumb/fearxp32xaamsysm.jpg (http://www.abload.de/image.php?img=fearxp32xaamsysm.jpg)

4MSAA
http://www.abload.de/thumb/fearxp34xaamsdxj.jpg (http://www.abload.de/image.php?img=fearxp34xaamsdxj.jpg)

8MSAA
http://www.abload.de/thumb/fearxp38xaams9hs.jpg (http://www.abload.de/image.php?img=fearxp38xaams9hs.jpg)

Hoffe damit sind alle Klarheiten beseitigt.

Superheld
2008-01-24, 14:11:15
bei Fear sieht mans ganz gut, ich würdes gerne mal an ein Auto zB in NFS sehen:)

vinacis_vivids
2008-01-24, 14:12:10
bei Fear sieht mans ganz gut, ich würdes gerne mal an ein Auto zB in NFS sehen:)

Gibste mir das Geld für die Spiele und das Geld für die Zeit? Kann ich gern mal testen ;D

The_Invisible
2008-01-24, 14:18:27
bei crysis sieht man eigentlich nur das TSAA/SSAA fehlt ;)

mfg

vinacis_vivids
2008-01-24, 14:20:35
bei crysis sieht man eigentlich nur das TSAA/SSAA fehlt ;)

mfg

Guck doch mal auf die langen kannten -.-

Liszca
2008-01-24, 14:21:19
@vinacis_vivids
kannst du mal 4x mit edge detect oder wie das hieß test, also einen der neueren filter den man erst ab 4x wählen kann. Die letzte szene fand ich eigentlich ganz gut geeignet dafür.

Mr. Lolman
2008-01-24, 14:25:06
Hoffe damit sind alle Klarheiten beseitigt.

In der Tat. Am 4xAA-Shot erkenn ich Dithering bei den AA-Abstufungen. Und an den Holzlatten, siehts mir an den vertikalen Kanten gar nur wie 2xAA aus... :|

EDIT: Funzt in Crysis mit der 3870 eigentlich Transparenz MSAA?

vinacis_vivids
2008-01-24, 14:27:35
@vinacis_vivids
kannst du mal 4x mit edge detect oder wie das hieß test, also einen der neueren filter den man erst ab 4x wählen kann. Die letzte szene fand ich eigentlich ganz gut geeignet dafür.

Nee ich mach jetzt nichts mehr. Für mich ist der Unterschied deutlich zu erkennen:

Hab jetzt noch HL2 shots im Archiv:


Transparenz 4MSAA
http://www.abload.de/img/4tmsaar18.png

Transparenz 8MSAA
http://www.abload.de/img/8tmsaab84.png

P.S.außerdem ist meine Freundin jetzt am apparrat.

Sonyfreak
2008-01-24, 14:36:23
In der Tat. Am 4xAA-Shot erkenn ich Dithering bei den AA-Abstufungen. Und an den Holzlatten, siehts mir an den vertikalen Kanten gar nur wie 2xAA aus... :|Ist mir auch aufgefallen. Da läuft defintiv irgendwas schief.

mfg.

Sonyfreak

MadManniMan
2008-01-24, 14:36:35
Nee ich mach jetzt nichts mehr. Für mich ist der Unterschied deutlich zu erkennen.

Ja, und?

Denkst Du, wir wissen nicht um den Vorteil von 8*MSAA?

Gast
2008-01-24, 14:54:20
[QUOTE=vinacis_vivids;6220173
In vielen Testes wird nicht mal 8AA getestet :), das würde das Bild von Nvidia völlig zerstören.
[/QUOTE]

was bei nvidia auch verdammt ineffizient ist. 16x ist in den meisten fällen schöner und wesentlich schneller als 8xQ

Sir Integral Wingate Hellsing
2008-01-24, 14:58:06
Back 2 Topic:
Ich finde die 3870 X2 ganz nett :) Zu den Mikrorucklern kann ich leider nix sagen, allerdings wird sich ja sehr bald zeigen, ob das Problem die Massen stört. Ich hoffe ja auf einen Fix (oder darauf das diese Microruckler bei dieser Karte nicht/kaum existent sind). Preislich kommt diese Karte für mich nicht in Frage, aber vllt lässt sich ja in wenigen Wochen/Monaten ein ähnlich gutes Schnäppchen schlagen wie mit der 7950GX2 damals.
Fazit: ATi hat (zumindest kurzfristig) die Performancekrone, CF muss sich mit dieser Karte beweisen und weniger Strom als vergleichbare Karten zieht sie auch (trotz Dual-GPU).

Hm, AMD/ATi is ja immernoch nicht pleite und bankrott - in den letzten Wochen wurde da ja viel beschwört^^

MadManniMan
2008-01-24, 15:08:35
Die HD 3870 X2 ist jedenfalls immer mindestens gleich schnell, wenn nicht merklich schneller und das ohne die Mikroruckler, wenn man auf SFR setzt - derlei Benches wären doch mal interessant!

J0ph33
2008-01-24, 15:52:01
gibt es SFR-Tests mit CF, kann mir nicht vorstellen, dass man sich damit wirklich von einer einzelnen HD3870 absetzen kann

MadManniMan
2008-01-24, 15:59:11
gibt es SFR-Tests mit CF, kann mir nicht vorstellen, dass man sich damit wirklich von einer einzelnen HD3870 absetzen kann

Gewiss nicht deutlich, dafür aber ohne jene AFR-Probleme.

Gast
2008-01-24, 16:03:51
wie soll den SFR erzwungen werden ?

4 Vitamins
2008-01-24, 16:32:48
Wie gesagt..... Schon scheisse wennst bei ATI mit nem Dualchip - Design in Krieg ziehen musst um nen EINZELEN G80 zu schlagen....

Ach, wie lange ist der Chip schon aufem Markt??

Gast du vergisst, dass ATI "nur" zwei "MIDRAGE-ChiPS" braucht
um ne ultra zu klatchen!! Es sind keine highend-chips wie damals bei nvidia!!

Also schön ruhig bleiben.:biggrin:

gruss



Das ist schon extrem hier. Und ich kann mich auch nicht erinnern, dass es umgekehrt vergleichbar zugegangen wäre, als der G80 erstmals auf den Markt gekommen ist.

ATI Fan zu sein muss schon sehr viel mit religiösem Glauben zu tun haben...

.


da haste aber ein schlechtes gedächniss:biggrin:
Suchmal den topic wo GTS mit der x1950Xt verglichen wird;)


gruss

Nein, das ist eben nicht egal, :rolleyes:



deine meinung nach;)

Meine meinung nach ist es egal.

Ich habe mir bis her den ganzen thread gelesen und "ausgewertet".
Zusammenfassend lässt sich sagen:

ATI hat die leistungskrone!! ATI is KING!!



gruss.

, deshalb bleibe ich bei 780i- da kann man mehr kranke Sachen mit machen ;)

Bitte, keine einzelheiten!!:|

gruss

dargo
2008-01-24, 16:49:41
Du kannst soviel schreiben wie du willst, CF skaliert besser als SLI, wenn ich mal Zeit hab such ich noch mehr raus. Aber hier mal ein überblick von SLI wörtlich abkackt, G92 SLI reiht sich auf Augenhöhe der Ultra ein, CF ist in höheren Auflösungen und AA zu 20-180% schneller.

http://www.abload.de/img/cfskaliit1.jpg
Was soll uns dieses Bild jetzt zeigen? Dass du dir ein Eigentor geschossen hast?
Schau dir nochmal genauer den Zuwachs von HD3850 CF im Vergleich zur Singlekarte und G8800GT SLI zur entsprechenden Singlekarte in 1600x1200 8xAA/16xAF an. ;)

Und was sollen bitte diese nichts sagenden Prozentzahlen uns nochmal genau mitteilen? Wenn die G8800GT in 2560x1600 8xAA/16xAF 5fps liefert und das HD3870 CF entsprechend 16fps, was sagt das nochmal über die Spielbarkeit aus?

Blaire
2008-01-24, 16:50:16
Gewiss nicht deutlich, dafür aber ohne jene AFR-Probleme.

AFR Probleme gibt es eben nicht immer...daher lässt sich sowas auch nicht pauschalisieren. Für all jenen die ein SLI System haben sollten mal Crysis unter XP testen und einmal unter Vista. Letzteres läuft extrem gut die Frametimes nahezu optimal, unter XP trotz höherer FPS deutlich ruckliger...ob das jetzt am Patch selber liegt oder an neueren NV Treiber kann ich noch nicht genauer sagen.

4 Vitamins
2008-01-24, 16:51:55
Wenn das stimmt dann hat ATI alles richtig gemacht.

http://www.pcgameshardware.de/?article_id=629502

[vr-zone.com] Nvidia GF 9800 GX2: 13% mehr Spiele-Fps als GF8800 Ultra? LOL


gruss.

Gast
2008-01-24, 16:53:47
AFR Probleme gibt es eben nicht immer...daher lässt sich sowas auch nicht pauschalisieren. Für all jenen die ein SLI System haben sollten mal Crysis unter XP testen und einmal unter Vista. Letzteres läuft extrem gut die Frametimes nahezu optimal, unter XP trotz höherer FPS deutlich ruckliger...ob das jetzt am Patch selber liegt oder an neueren NV Treiber kann ich noch nicht genauer sagen.

genau so ist es auch bei Crossfire, XP ist total crap im Vista 64 Bit rennt das wie Sau.

AnarchX
2008-01-24, 16:58:36
Wenn das stimmt dann hat ATI alles richtig gemacht.

http://www.pcgameshardware.de/?article_id=629502

[vr-zone.com] Nvidia GF 9800 GX2: 13% mehr Spiele-Fps als GF8800 Ultra? LOL

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6220105#post6220105
:wink:

dargo
2008-01-24, 17:03:54
http://pctuning.tyden.cz/ilustrace3/obermaier/2xG92/Crysis_1920.png http://www.techspot.com/articles-info/83/bench/1920_DX10_High.png[/IMG]

Was fällt hier auf?

Tectrex
2008-01-24, 17:05:00
Gast du vergisst, dass ATI "nur" zwei "MIDRAGE-ChiPS" braucht
um ne ultra zu klatchen!! Es sind keine highend-chips wie damals bei nvidia!!
Da wollen wir aber auch bedenken, das es nicht mit Absicht Midrage Chips geworden sind ;) Du glaubst doch nicht etwa, das AMD/ATI mit Absicht keine stärkere Karte wie nVidia gebracht hat. Der Chip ist nicht so geworden, wie man sich das erst vorgestellt hat.....konnte nur mit einer GTS mithalten, deswegen nur "Midrage" ;)

Aber die 9800 GX2 wird bei hohen Auflösungen und 8xAA nicht mithalten können....das sind doch grade die Einstellungen, die man mit einem CF/SLI System anwenden möchte, die Krone wird jetzt wohl erst (wenn auch für kurze Zeit) bei ATI bleiben.

Eggcake
2008-01-24, 17:07:57
Dass das System, bei welchem der linke Benchmark entstand leistungsfähiger war?

HisN
2008-01-24, 17:13:20
Wer sich diese X2-CF/SLI-Kacke ans Bein bindet ist selbst schuld.

LovesuckZ
2008-01-24, 17:14:28
Aber die 9800 GX2 wird bei hohen Auflösungen und 8xAA nicht mithalten können....das sind doch grade die Einstellungen, die man mit einem CF/SLI System anwenden möchte, die Krone wird jetzt wohl erst (wenn auch für kurze Zeit) bei ATI bleiben.

Nein. Je höher die Auflösung umso kleiner werden die Unterschiede. Bei nVidia kann man dagegen wesentlich mehr Einstellen und ist flexible. Warum dem vermurksten 8xMSAA Modus nehmen, wenn man für die gleiche Leistung 4xTSMSAA, 16xTSMSAA oder gar hybride Modie nehmen kann?

Coda
2008-01-24, 17:15:03
*hüstl* ES GIBT AUCH NOCH ANDERE SPIELE!!! (verdammte shycis fanaticer!!!!)
Ich hab überhaupt nicht damit angefangen. Und zudem ist es auch in anderen Spielen so wie ich gesagt habe.

davidzo
2008-01-24, 17:18:40
vierfach post? wo sind wir denn hier?
- :uponder: achja, 3Dcenter, ich erinnere mich, nen heißeres geflame findet man nicht im Netz.

Lernt mal manieren Leute!




Der große Vorteil des RV670 ist, dass er preislich eher mit dem G94 konkurriert. Es ist ganz klar ein midrangechip, und deutlich billiger als ein G92, der nicht nur viel mehr Trannies hat, sondern auch größer gefertigt wird. der G92 ist also eigentlich ein Highendchip und macht im unteren Bereich bestimmt herbe Verluste für nvidia.

Nichtsdestotrotz skaliert SLI genausogut wie CF und umgekehrt. Das was hier erzählt wird ist Bullshit. Dass der rv670x2 so erfolgreich ist liegt an etwas anderem, was uns beim single rv670 kaum nicht aufgefallen ist:
Der rv670 skaliert hervorragend mit der Auflösung und mit hohen FSAA Stufen.
Beim einfachen rv670 hat man das gar nicht gemerkt, große AUflösungen und 8xFSAA konnte man da sowieso vergessen.
Die vermeintliche Dominierung über SLI-Lösungen bezieht der rv670x2 also nicht aus besserer Skalierung von Crossfire, sondern einfach aus besserer Skalierung der Architektur. - R600 strikes back.

Ich halte es außerdem für einen sehr klugen Schachzug von AMD die taktraten von der 3870 zu unterscheiden.
825mhz macht fast jeder rv670 mit und sind anscheinend für die Kühlung kein problem. Der rv670 ist deutlich billiger als ein G92, aber der Speicher schlägt bei der 3870 stark auf die BOM, dass die 3870 im Endeffekt nur wenig billiger in der Herstellung ist als ne 8800GT.
Bei der X2 auf billigen GDDR3 Speicher zu gehen ist ein sehr kluger Schachzug. Das die R600 Architektur auf Speicherbandbreite kaum angewiesne ist, im Gegenzug aber nvidia beim G8x Design schon, sehen wir ja an den starken Einbrüchen welche der G92 im highendbereich gegen die Ultra hat, trotz deutlich höherer Shaderpower.

Nvidia hat außerdem mit einer 3870x2 gerechnet, die allerhöchstens 775mhz chip und 1200mhz speichertakt hat. Das erscheint logisch, müsste doch die singlekarte deutlich besser ans limit zu takten sein als zwei chips auf einem PCB. In anbetracht von AMDs zuverlässigkeit in den letzten monaten habe ich mich irgendwie auch schon damit abgefunden dass die 3870x2 erst im März und dann mit 700/1200 o.Ä. kommt.

Da AMD nun aber eben nicht das Produkt herausgebracht hat mitdem wir alle rechneten (775/1200), wird das nvidias Konkurrenzpläne etwas verwirrt haben.
Stattdessen hat AMD ein produkt herazusgebracht welches geringfügig schneller ist als zwei rv670 und deutlich billiger herzustellen.

Nvidias 9800gx2 ziehlte aber darauf geringfügig schneller als zwei rv670 zu sein und dabei möglichst wenig teurer in der Herstellung.

Ob der 9800gx2 wenn er herauskommt dann immernoch geringfügig führt oder etwa gleichauf liegt ist ziemlich egal, denn preislich hat AMD durch diesen Trick jetzt schon gewonnen.
Die 3870x2 BOM entspricht am ehesten zwei 3850 512s, wobei das PCB noch billiger sein sollte als zwei 3850 PCBs. Damit kommt sie in der Fertigung entschieden billiger als 2x 3870s, die auf Highendspeicher angewiesen sind.

dargo
2008-01-24, 17:18:59
Dass das System, bei welchem der linke Benchmark entstand leistungsfähiger war?
Wie soll das gehen, wenn die Anwendung eh schon gpu-limitiert ist? Ich denke links ist es DX9 (eventuell auch noch unter WinXP) und rechts Vista inkl. DX10. Jetzt schau dir die Effizienz des G8800GT SLI Gespanns in beiden Benchmarks an.

Wie Coda schon sagte, es ist reine Treibersache.

Eggcake
2008-01-24, 17:24:33
Wie soll das gehen, wenn die Anwendung eh schon gpu-limitiert ist? Ich denke links ist es DX9 (eventuell auch noch unter WinXP) und rechts Vista inkl. DX10. Jetzt schau dir die Effizienz des G8800GT SLI Gespanns in beiden Benchmarks an.

Bräuchte man aber auch noch einen direkten Vergleich mit einem 3870 CF-Gespann um daraus Rückschlüsse zu ziehen.

Wobei davidzo bereits die Erklärung (für die "bessere" Skalierung") brachte. :)

LovesuckZ
2008-01-24, 17:27:13
Nichtsdestotrotz skaliert SLI genausogut wie CF und umgekehrt. Das was hier erzählt wird ist Bullshit. Dass der rv670x2 so erfolgreich ist liegt an etwas anderem, was uns beim single rv670 kaum nicht aufgefallen ist:
Der rv670 skaliert hervorragend mit der Auflösung und mit hohen FSAA Stufen.
Beim einfachen rv670 hat man das gar nicht gemerkt, große AUflösungen und 8xFSAA konnte man da sowieso vergessen.
Die vermeintliche Dominierung über SLI-Lösungen bezieht der rv670x2 also nicht aus besserer Skalierung von Crossfire, sondern einfach aus besserer Skalierung der Architektur. - R600 strikes back.


Hm, dann soll nVidia den 8xQ und 16xQ Modus einfach verstecken. Schon gewinnen sie jeden Vergleich, da man mit 4AA und 16x wesentlich effizienter ist.
Achja, oder man testet 8xS statt 8xQ. Ist ja nicht langsamer. ;D

dargo
2008-01-24, 17:31:07
Bräuchte man aber auch noch einen direkten Vergleich mit einem 3870 CF-Gespann um daraus Rückschlüsse zu ziehen.

Es geht mir nicht in erster Linie um die HD3870.

Es geht um den Effizienzunterschied von 43% und 68%, was nicht gerade klein ist. Und wenn ich den linken Benchmark nehme und die 37fps vom G8800GT SLI Gespann sehe wäre es auch interessant zu wissen inwieweit hier schon ein CPU-Limit vorliegt. Schließlich erreicht das HD3870 CF in um 32% niedrigeren fps Bereichen (25,2fps) die Effizienz von 92% was ja logischerweise näher am GPU-Limit liegt.

Dh. die 68% SLI-Effizienz muss nicht unbedingt das Maximum sein.

Gast
2008-01-24, 17:37:50
....4xTSMSAA, 16xTSMSAA oder gar hybride Modie nehmen kann?
Seit wann gibt es die for Free :uponder:

LovesuckZ
2008-01-24, 17:39:23
Seit wann gibt es die for Free :uponder:

Nicht "For Free", aber bei besserer oder gleicher Leistung sind sie immer vorzuziehen.

Sterems
2008-01-24, 17:39:43
Man ist das hier ein Flamewar zwischen Nvidia user.

Man sieht klar das die Nvidia user die Karte mit Mikroruckler oder andere kleinigkeiten fertig machen wollen.

Damals musste es eine 7950 GX2 auch mit einer einzelnen X1950 aufnehmen.Wie ihr wisst ist die Gx2 langsamer als eine X1900 XTX heute und schon länger.

Die X2 ist schneller als die schnellste einzel lösung von Nv.Was wollt ihr also eigentlich.

Geht woanders flamen ihr Fanboys.;););););););););)

Blaire
2008-01-24, 18:03:10
4MSAA
http://www.abload.de/thumb/fearxp34xaamsdxj.jpg (http://www.abload.de/image.php?img=fearxp34xaamsdxj.jpg)

8MSAA
http://www.abload.de/thumb/fearxp38xaams9hs.jpg (http://www.abload.de/image.php?img=fearxp38xaams9hs.jpg)

Wenn das bei Ati 8xAA sein soll, dann gehört das mal genauer untersucht...

In der Tat. Am 4xAA-Shot erkenn ich Dithering bei den AA-Abstufungen. Und an den Holzlatten, siehts mir an den vertikalen Kanten gar nur wie 2xAA aus...

Fiel mir auch gerade auf...

Skullcleaver
2008-01-24, 18:08:57
Also solange es nicht möglich ist nen OctaCrossFire damit aufzubauen bleibt NV mit TripleSli der Leistungsführer. Davon ab finde ich das verhalten der Ati Fans (wie kann man überhaupt Fan einer kommerziellen Firma sein?!) unterirdisch.

Gast
2008-01-24, 18:11:05
Hat schonmal jemand an die Mikroruckler gedacht ?

Skullcleaver
2008-01-24, 18:13:29
Die sind ja auch so faszinierend bevor Tombman die "freigelegt" hat hat kaum einer sowas bemerkt. Seid es seinen Thread gibt schreien alle Microruckler XD

Gast
2008-01-24, 18:18:03
Die sind ja auch so faszinierend bevor Tombman die "freigelegt" hat hat kaum einer sowas bemerkt. Seid es seinen Thread gibt schreien alle Microruckler XD
Kein Wunder, ich hatte nie SLI, deshalb dachte ich tatsächlich, das SLI 90% mehr Leistung bringt.


Jetzt muss ich SLI Lösungen etwas arg kritischer betrachten; wenn das SLI / CF Teil 30% schneller ist, dann ist eine Single Karte in Wirklichkeit doch besser.

Skullcleaver
2008-01-24, 18:23:31
Naja es ist ja nicht so das man permanent Mikroruckelt. Es tritt in niedrigen FPS regionen merkbar auf. Ist man so im 60iger bereich stellt man oder sagen wir zumindest ich keine Ruckler mehr fest.

Da ich Vsynch 60HZ Tftgamer bin passt mir das daher ganz gut. Muss aber jeder für sich wissen.

Gast
2008-01-24, 18:33:18
Auch bei 60fps müsstest du es merken oder 60fps sind für dich eh unnötig viel.

Wenn du zb 40fps brauchst damit es flüssig ist, ja dann kannst du auch 60 mit Mikrorucklern als flüssig betiteln.

Skullcleaver
2008-01-24, 18:34:59
Die 60Hz hängen nicht nur mit dem Speed zusammen. Bei nicht passenden FPS tritt des öfteren Tearing auf was mich extremst annervt.

Davon ab gibts nen optischen Unterschied zwischen dem Maximalmöglichen Setting von 60Sli hz und 40 Single hz

LovesuckZ
2008-01-24, 18:37:27
Forciert AMD unter D3D eigentlich "Triple Buffering"?

reunion
2008-01-24, 18:43:41
Nein.

Gast
2008-01-24, 18:49:06
Nein. Je höher die Auflösung umso kleiner werden die Unterschiede.
Ja ne klar, sieht man^^:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating_qualitaet

MarcWessels
2008-01-24, 19:18:40
Ist auch richtig so. Das ist ein sehr ernsthaftes Problem, dass die ganzen FPS-Angaben in den Benchmarks eigentlich für total sinnlos erklärt.So sieht's aus!

Grestorn
2008-01-24, 19:22:20
So sieht's aus!

Naja, wird schon ein wenig überdramatisiert. Nur in wenigen Fällen ist das Verhältnis der Frameabstände so ungünstig, dass man es als störend wahrnimmt. In den weitaus meisten Fällen pendelt es sich schon ganz gut ein.

Schön wäre, wenn Benchmarks generell auch die "Standardabweichung" bei den Frameabständen mit messen und angeben würde.

Gast
2008-01-24, 19:27:59
So sieht's aus!
Bei manchen Spielen bringt es trotz Mikroruckler was, denn einige Games bekommen bei niedrigen Frames einen Inputlag und die Steuerung leidet erheblich. Mit SLi läuft es dann zwar optisch nicht besser aber dafür war die Spielbarkeit besser und das trotz der Prerenderproblematik.

Liszca
2008-01-24, 19:39:37
Naja es ist ja nicht so das man permanent Mikroruckelt. Es tritt in niedrigen FPS regionen merkbar auf. Ist man so im 60iger bereich stellt man oder sagen wir zumindest ich keine Ruckler mehr fest.

Da ich Vsynch 60HZ Tftgamer bin passt mir das daher ganz gut. Muss aber jeder für sich wissen.

das ärgerliche daran ist aber dass die mikroruckler mit einer karte bei der selben anzahl an fps nicht da sind, und das macht Crossfire/SLI schlechter in mancher leutes augen!

MadManniMan
2008-01-24, 19:52:28
Naja, wird schon ein wenig überdramatisiert. Nur in wenigen Fällen ist das Verhältnis der Frameabstände so ungünstig, dass man es als störend wahrnimmt. In den weitaus meisten Fällen pendelt es sich schon ganz gut ein.

Versteh es nicht als Angriff, aber ich würde auch beim besten Willen vom nHancer-Schöpfer nicht erwarten, dass er sich in den AFR-ist-Mist-weil-man-sich-beim-besten-Willen-nicht-sicher-sein-kann-nicht-arge-Probleme-bewältigen-zu-müssen-Kanon einreiht ;)

Grestorn
2008-01-24, 19:57:31
Versteh es nicht als Angriff, aber ich würde auch beim besten Willen vom nHancer-Schöpfer nicht erwarten, dass er sich in den AFR-ist-Mist-weil-man-sich-beim-besten-Willen-nicht-sicher-sein-kann-nicht-arge-Probleme-bewältigen-zu-müssen-Kanon einreiht ;)

nHancer hat nur wenig mit SLI zu tun.

Und ich habe - als SLI Nutzer - ein natürliches Interesse daran, dass das Problem behoben wird. Allerdings gehöre ich auch zu der kleinen Gruppe an Menschen, die das Problem wirklich einschätzen können. Nicht-SLI User müssen sich da alleine auf das Hörensagen verlassen.

MadManniMan
2008-01-24, 20:29:48
Hmjain, mir reichen eigentlich schon die Zahlen ... wie irgendwo schonmal geschrieben hatte ich mit meiner 6600Go in niedrigen FPS-Bereichen eben jene Mikroruckler (was mir eigentlich unerklärlich ist) und sehe ganz einfach nicht ein, dass 40 AFR-Frames besser gewertet werden, als 35 SFR-Frames - was sie nur dann sind, wenn die Frames auch mit gleichbleibender Kadenz daherkommen. Es ist schröcklich ;(

Hast Du eigentlich ne Idee, ob die IHVs das überhaupt per Treiber ausbügeln könnten? Oder direkt in der API? :confused:

Gast
2008-01-24, 20:36:05
Hmjain, mir reichen eigentlich schon die Zahlen ... wie irgendwo schonmal geschrieben hatte ich mit meiner 6600Go in niedrigen FPS-Bereichen eben jene Mikroruckler (was mir eigentlich unerklärlich ist) und sehe ganz einfach nicht ein, dass 40 AFR-Frames besser gewertet werden, als 35 SFR-Frames - was sie nur dann sind, wenn die Frames auch mit gleichbleibender Kadenz daherkommen. Es ist schröcklich ;(

Hast Du eigentlich ne Idee, ob die IHVs das überhaupt per Treiber ausbügeln könnten? Oder direkt in der API? :confused:

Ich würde vorschlagen du liest einfach mal den entsprechenden Thread (wurde hier schon mehrmals angeführt).

J0ph33
2008-01-24, 20:45:29
und sehe ganz einfach nicht ein, dass 40 AFR-Frames besser gewertet werden, als 35 SFR-Frames

wenns mal nur 5 weniger werden...

meine einzigen erfahrungen mit SFR waren in CoH als der nV-Treiber etwas gesponnen hat...aus performancesicht war das ne katastrophe verglichen mit AFR...

und da lief SFR schon recht optimal (Balken immer ziemlich in der Mitte), am ende sahs dann ungefähr so aus:

single: 55 fps
SFR: 6x fps (5 < x < 9)
AFR: 100 fps

MadManniMan
2008-01-24, 21:15:18
Ich würde vorschlagen du liest einfach mal den entsprechenden Thread (wurde hier schon mehrmals angeführt).

Glaub mir, ich kenn den Thread in- und auswändig. Es wurde auch in anderen Freds immer wieder davon gesprochen, dass man eventuell den Delta angleichen könnte (was höchst komplex würde, kann ich mir vorstellen), aber wie das in der Praxis ohne Erhöhung des Inputlags funktionieren soll, ist mir schleierhaft.


wenns mal nur 5 weniger werden...

Hm... (eigentlich meinte ich mit S(ingle)FR auch das von Einzelchips, also ganz allgemein AFR ;) )


meine einzigen erfahrungen mit SFR waren in CoH als der nV-Treiber etwas gesponnen hat...aus performancesicht war das ne katastrophe verglichen mit AFR...

und da lief SFR schon recht optimal (Balken immer ziemlich in der Mitte), am ende sahs dann ungefähr so aus:

Balken ziemlich in der Mitte? Kann man sich denn visualisieren lassen, welchen Teil des Frames welcher Chip übernimmt?


single: 55 fps
SFR: 6x fps (5 < x < 9)
AFR: 100 fps

Hm, wenn AFR nahe am Optimum arbeitet, sollte auch SFR (in diesem Falle wieder SplitFR) nicht gerade sein geringstes Effizienzmoment erleben. Ists denn in anderen Apps auch so?
Und in der Theorie hat ATi hier doch tatsächlich einen besonderen Trumpf: Tile-Based SFR. Das sollte statistisch gesehen den gröbsten Ungleichverteilungen vorbeugen.

MartinRiggs
2008-01-24, 21:27:48
Ich gehöre zu denen die Multi-GPU(CF) in Action sehen, mein Kumpel hat HD3870CF und diese Mikroruckler sind mir bisher kaum aufgefallen!
Warum?
Ja genau, weil es sowieso kein spass macht bei 30 FPS rumzugurken, egal ob mir einer oder zwei karten.
Es wird etwas stotterig bei 30 FPS oder darunter, aber das ist es bei den meisten Games mit einer Karte auch.
jeder labert von Mikrorucklern und wie schlimm sie sind, aber es hat kaum jemand SLI oder CF, schon komisch:rolleyes:

=Floi=
2008-01-24, 21:42:14
für was ist denn nun der 3. chip auf der karte da? :confused:

hätte ja gerne den ganzen thread gelesen, aber bei vinaci_v bekomme ich da kotzen und überspringe lieber die seiten :flop:

Gast
2008-01-24, 21:44:55
jeder labert von Mikrorucklern und wie schlimm sie sind, aber es hat kaum jemand SLI oder CF, schon komisch:rolleyes:
Gut dann labern wir jetzt von FPS Schwankungen.
Erst kommt ein Frame nach 30ms -> 33FPS
dann dauert es weitere 100ms -> 10FPS

Jetzt sind das Schwankungen von quasi flüssigen 33 nach schrecklichen 10.
Wenn das nicht schlimm ist. :rolleyes:

Im Mittel macht das dann 15FPS.


Jetzt verdoppeln wir die Werte:
66-20FPS

Im Mittel 30.

Ist das jetzt wirklich mit einem konstanten 30FPS Verlauf zu vergleichen?
Nein! Extremerweise müsste man die 30SLI FPS als 10 realle betiteln und entsprechend vergleichen.

pest
2008-01-24, 21:57:15
die Logik verstehe ich, deren Sinn allerdings nicht
selbst wenn ich die 30 avg habe, sehe ich doch die 10min, und werde die Einstellungen so anpassen, das ich 25-30 min habe, nur weil alle Welt sich auf Average-Werte versteift heißt das noch lange nix. Bei SLI/CF sind halt die Schwankungen stärker. who cares?
15min hätten mich auch bei ner Single-Karte genervt.

AnarchX
2008-01-24, 22:14:01
für was ist denn nun der 3. chip auf der karte da? :confused:

PCIe-Bridge für die Aufteilung des PEGs und der direkten Kommunikation beider GPUs.

Gast
2008-01-24, 22:26:31
selbst wenn ich die 30 avg habe, sehe ich doch die 10min, und werde die Einstellungen so anpassen, das ich 25-30 min habe
Sehr schön du hast mich verstanden.


Ich darf also davon ausgehen, das du den Fraps Frameverlauf dir immer ansiehst?


nur weil alle Welt sich auf Average-Werte versteift heißt das noch lange nix.
Es ist aber ein Problem.
Ich kann zu einer x-beliebigen Seite gehen und bekomme die avgFPS.
Die ganzen Werte dort sind also schlichtweg für die Tonne!

Es fehlt ein ordentlicher Test.
Wenn wir schon am Test verbessern sind: Die Tester könnten auch ruhig mal den AA Schalter bedienen und auch mal Spiele neben Schreisystem

Grestorn
2008-01-24, 22:37:48
Gut dann labern wir jetzt von FPS Schwankungen.
Erst kommt ein Frame nach 30ms -> 33FPS
dann dauert es weitere 100ms -> 10FPS

130 ms für 2 Frames bedeutet 15 fps im Benchmark, nicht 30 fps. Deswegen stimmt Dein Beispiel nicht. Ein Benchmark mittelt ja die Framerate über eine Sekunde.

J0ph33
2008-01-24, 22:47:37
Hm... (eigentlich meinte ich mit S(ingle)FR auch das von Einzelchips, also ganz allgemein AFR ;) )

ahso, etwas missverständlich ;)

Balken ziemlich in der Mitte? Kann man sich denn visualisieren lassen, welchen Teil des Frames welcher Chip übernimmt?

ja, bei AFR hat man einen vertikale Balken, der bei guter Effizienz von der Mitte an sich grün färbt...(ich hatte den selbst beim Spielen an, einfach ein gutes Gefühl zu sehen, wie toll es skaliert, und das tat es zu diesem zeitpunkt bei den meisten spielen wirklich außerordentlich)

bei SFR hat man dann einen horizontalen grünen balken, der quasi auf der Y-Achse immer hin und her wandert (ist er in der mitte, ist's optimal)

so was sollte ATi dringenst einführen!


Hm, wenn AFR nahe am Optimum arbeitet, sollte auch SFR (in diesem Falle wieder SplitFR) nicht gerade sein geringstes Effizienzmoment erleben. Ists denn in anderen Apps auch so?
Und in der Theorie hat ATi hier doch tatsächlich einen besonderen Trumpf: Tile-Based SFR. Das sollte statistisch gesehen den gröbsten Ungleichverteilungen vorbeugen.

andere Apps habe ich nicht mehr im Kopf, da zu dieser Zeit AFR noch der heilige Gral war und SFR bedeutete, das was kaputt war...einmal hatte ich noch 3dmark am laufen, an das ergebnis kann ich mich aber nicht mehr erinnern

ja, aber testen kann man das ja irgendwie nicht, da ATi keine Einstellungen zulässt...besonders toll scheint es auch nicht zu funktionieren, da ja überall AFR vorgezogen wird...
bei SFR war glaub ich nicht unbedingt die schlechte Lastverteilung ein problem (also eine Karte macht nur Himmel) sondern dass die komplette Geometrie von beiden Karten berechnet werden muss und das gleichzeitig

Gast
2008-01-24, 22:52:00
Asus hat zwei Modelle der X2:
http://www.asus.com/products.aspx?l1=2&l2=8&l3=636

davidzo
2008-01-24, 23:10:49
Diese Benches der 9800gx2 scheinen nicht von einer simulierten karte zu sein und sehen realistischer aus. ich denke nicht dass nvidia die perfomance der dualkarte noch stark erhöhen kann per Treiber. eher steigt die sli performance oder die g92 performance über die ganze breite.
http://forums.vr-zone.com/showthread.php?t=229127

Demnach müsste eine 3870x2 rund 60% durchschnittliche Effizienz besitzen um mit der 9800gx2 mitzuhalten. Das sieht schaffbar aus.

Seit langem sieht es wieder so aus wie es sein sollte, die konkurrierenden Produkte liegen bis auf ein paar prozentpunkte gleichauf. Das ist gut für den Kunden, weil er sich dann auf die wichtigeren Dinge wie stromverbrauch, kartenlayout, bundle, Treiber etc. konzentrieren kann und dabei nicht auf einen Hersteller festgenagelt wird, sondern die wahl zwischen zwei fast gleichwertigen Produkten hat.

pest
2008-01-24, 23:14:28
das sind die selben Zahlen wie in dem simuliertem Bench ;)

Raff
2008-01-24, 23:22:49
jeder labert von Mikrorucklern und wie schlimm sie sind, aber es hat kaum jemand SLI oder CF, schon komisch:rolleyes:

Die Aufgabe der wenigen Besitzer/Wissenden ist, den Rest aufzuklären. Deswegen haben wir auch eine Fachpresse, die nach Möglichkeit kompetent sein sollte.

MfG,
Raff

Gast
2008-01-24, 23:47:51
Naja Letzteres bedingt Ersteres, ansonsten gehört Ersteres in die Schrottpresse :).

Gast
2008-01-25, 00:25:16
Wen jemanden eine sollche karte habe wird bitte sofort posten bezüglich microruckler ok ? Weil ich möchte so eine kaufe. habe im moment ne 8800 gtx drin.

Greets Mike und danke im vorraus

Gast
2008-01-25, 00:26:02
Die ati meine ich ...

Greets mike

Weselchak-U
2008-01-25, 16:38:53
Hier gibt es noch einen Test, der aber in Englisch : http://www.tweaktown.com/reviews/1279/1

Also entweder habe ich nicht richtig hingeschaut oder was auch immer , aber ich bin von der Leistung der Grafikkarte in diesem Test enttaeuscht.
Und das obwohl ich eher FanATIker bin.
Ob die neuen Treiber da soviel rausreissen koennen ?!

maximus_hertus
2008-01-25, 16:54:24
WO CF funktioniert schlägt die X2 alles, wenn Profile fehlen, geht halt nicht sooo viel. Abwarten, ich denke schon, dass die X2 im Schnitt die Ultra schlagen wird.

Gast
2008-01-25, 17:02:24
Neuer Catalyst für 3870 X2 soll es richten
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/januar/neuer_catalyst_3870_x2/


Ja toll TT schön NDA gebrochen :-(

maximus_hertus
2008-01-25, 17:12:37
Jup, die Karte kann mehr als bei TT zu sehen ist. Man sieht auch bei manchen Benches sehr schön, dass diese wahrschinelich Treiber-Limitiert sind (wenn 1280x1024 die gleiche fps haben wie 1920x1200....).

Das wird zwar kein Wunder-Treiber, aber es sollte reichen, um bei den meisten Benches mehr oder weniger deutlich vor der Ultra zu landen.

Desweiteren ist der Test eh für die Tonne. Ich bitte dich, eine High-End KArte und kein 8xAA?

Sterems
2008-01-25, 17:27:06
Bei Tweaktown schneiden Ati Karten immer schlechter ab als bei anderen Test.;););););););)

davidzo
2008-01-25, 17:32:03
Das kann auch ne Taktik sein.
Erst benches machen lassen und dann gucken was denn so gebencht wird und wo die profile noch fehlen. Da die reviews größtenteils bereits fertig waren und ich denke mal ATI die Ergebnisse nicht vorenthalten wurden, werden sie jetzt nochmal an den Fehlern feilen können. Ein game-profile ist siche rnicht allzu aufwändig zu erstellen.

Ich finde es trotzdem hirnrissig die profile nicht öffentlich zu entwickeln. Das ist sehr arbeitsintensiv und bringt nur nachteile, keine Vorteile.
Der Catalyst könnte doch wenn CF aktiv ist beim starten einer 3DAnwendung überprüfen ob bereits ein Profil existiert und ansonsten fragen ob er versuchen sollte eines herunterzuladen, so ähnlich wie die updates über synaptic. Nur dass man dann eventuell auch ein anderes profil auswählen kann (CF-AA o.Ä.) Es würde dann eine große onlinedatenbank an Profilen geben, welche Quelloffen bearbeitet und optimiert werden können, wie ein wiki. Ein paar Administratoren von AMD würden dann für eine saubere Datenbank sorgen, bzw. Missbrauch verhindern.
Ich denke dass so enorme leistungsgewinne gemacht werden könnten, wenn findige User an allen Schräubchen drehen könnten, denn die Userbase ist ja viel größer und würde viel mehr testen können als alle AMD Treiber-Ingenieure zusammen.

8x AA wird das totschlagargument sein. AMD weiß dass und wird die Tester dazu animieren doch AA ruhig bis auf 8x aufzudrehen "weil die Karte das kann", in wirklichkeit aber weil dort die Ultra einfach sehr schlecht dasteht.
AMDs 8x AA ist ohne Frage sehr gut, genausogut wie nvidias superlahmes 8x AA. Dass nvidia aber noch vergleichbare gute leistungsfähigere Alternativen hat wird wohl nicht die Rolle spielen. Für mich wäre allerdings das gute 6x AA was wir seit dem R300 kennen und schätzen die ideale Wahl. - Es sieht sehr gut aus, meistens sieht man den Unterschied zu 8x nicht, aber es ist deutlich besser als 4x und endlich haben die Karten seit dem R300 die Leistung es wirklich in amodernen Spielen zu aktivieren.

Odal
2008-01-25, 17:54:31
nur besitzt nicht jeder einen internetzugang an seinem spielesystem bzw. einen internetzugang im generellen

ich halte von dem ganzen profilzeug nichts..das crossfiregedöns muss unsichtbar ablaufen um wirklich messentauglich zu sein...

für den nutzer sollte sich alles wie bei einer single gpu anfühlen ohne das hier und da ständig was geupdated werden muß

K4mPFwUr$t
2008-01-25, 18:03:21
dem kann ich nur noch zustimmen ^^

Coda
2008-01-25, 18:07:28
AMD weiß dass und wird die Tester dazu animieren doch AA ruhig bis auf 8x aufzudrehen "weil die Karte das kann", in wirklichkeit aber weil dort die Ultra einfach sehr schlecht dasteht.
Soweit ich weiß war doch nur die G92 in 8x so schlecht, nicht G8x.

K4mPFwUr$t
2008-01-25, 18:08:30
aber doch eigentlich nur bei 8xMSAA? weil dort die speicherbandbreite dranhängt.

maximus_hertus
2008-01-25, 18:13:41
Nope, auch der G80 bricht bei 8xAA ein.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet


Die 3870 (single) leigt bei 1280 noch zurück, bei 1600 ist die Single 70er fast an der Ultra dran und bei 2560 ist dann die Single 70 die schnellste Karte.

Blaire
2008-01-25, 18:20:04
Schau mal auf die FPS...2560x1600 8xAA da ist es eigentlich fast schon wieder egal und oft funktioniert es nicht einmal...

Gast
2008-01-25, 18:21:39
Nope, auch der G80 bricht bei 8xAA ein.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet

Wie ich diese Tests hasse.

Welches AA hat CB genommen? Ich würde MSAA vermuten, wie sieht die Sache mit CSAA aus? Oder mit Hybriden?

The_Invisible
2008-01-25, 18:49:14
Schau mal auf die FPS...2560x1600 8xAA da ist es eigentlich fast schon wieder egal und oft funktioniert es nicht einmal...

ja, wenn muss man zwei 3870er nehmen für 8xAA. bei 4xAA gewinnen die geforces enorm dazu und sind wieder oft im spielbaren bereich, die 38x0er nicht.

wobei dann wieder die cf/sli probleme hinzukommen.

mfg

reunion
2008-01-25, 18:54:50
wobei dann wieder die cf/sli probleme hinzukommen.


Nicht wenn man 8xCFAA nimmt.

Coda
2008-01-25, 18:57:59
Das ist aber viel langsamer als normales 8xMSAA und AFR.

Gast
2008-01-25, 19:04:57
TT hat hats wie so oft verbockt :rolleyes:

1. NDA Bruch
2. 8.1 Treiber
3. eine PCI 1.1 MB

http://s2.directupload.net/images/080121/85ll5rkh.jpg (http://www.directupload.net)

pest
2008-01-25, 22:12:02
Warum sollte der Vorsprung von PCIe 2.0 so groß sein?

Gast
2008-01-25, 22:20:44
Warum sollte der Vorsprung von PCIe 2.0 so groß sein?


Frage ich mich auch.......

Zudem ist AMD selber Schuld wenn sie nicht Rechtzeitig genug anständige Treiber rausbringen............

Als ob es das 1. Mal wäre das irgendwer das NDA brechen tut....
hallo????

AnarchX
2008-01-26, 00:05:21
Nicht wenn man 8xCFAA nimmt.

Gibt es doch nicht mehr ab HD2000, der einzige XFAA-Modus bei diesen Karten ist 16x (RGMSAA), vielleicht kommt ja noch 24x bzw. 32x durch CF-X hinzu.

Gast
2008-01-26, 05:13:55
Club 3D Radeon HD 3870 X2ab 379,- http://geizhals.at/deutschland/a310038.html
http://www3.atelco.de/8AW5h9mThcj0b2/2/articledetail.jsp?aid=20102&agid=1004&ref=13

Gast
2008-01-26, 05:16:52
Warum sollte der Vorsprung von PCIe 2.0 so groß sein?
Frage ich mich auch.......


Es können bis zu 20% in einigen Fällen sein,also nicht nur auf die Balken schauen.

reunion
2008-01-26, 09:07:56
Gibt es doch nicht mehr ab HD2000, der einzige XFAA-Modus bei diesen Karten ist 16x (RGMSAA), vielleicht kommt ja noch 24x bzw. 32x durch CF-X hinzu.

8xCFAA gibt es AFAIK schon noch, nur halt ohne SSAA. Vielleicht kann ja jemand was dazu sagen.

AnarchX
2008-01-26, 09:20:56
8xCFAA gibt es AFAIK schon noch, nur halt ohne SSAA. Vielleicht kann ja jemand was dazu sagen.
Während es auf der Radeon-X1000-Serie von ATi noch vier „SuperAA“-getaufte Qualitätseinstellungen gab, gibt es bei der Radeon HD 2900 XT CrossFire nur noch einen neuen Anti-Aliasing-Modus: Dieser hört auf den schlichten Namen 16xAA und ist genau das, was der Name verspricht.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/3/#abschnitt_16x_crossfire_aa

8xXFAA macht ja nicht mehr unbedingt Sinn, wenn man 8xMSAA bei einer Einzel-GPU anbietet und so eben unter AFR höhere FPS erreichen kann, aus Marketingsicht.

Weselchak-U
2008-01-26, 11:25:40
In der Schweiz sind die Grafikkarten schon lieferbar : http://www.stegcomputer.ch/details.asp?prodid=asu-3870x2

chiller
2008-01-26, 11:46:09
In der Schweiz sind die Grafikkarten schon lieferbar : http://www.stegcomputer.ch/details.asp?prodid=asu-3870x2

naja ich glaub die meisten werden noch mit dem bestellen warten, um zu sehen wie die previews mit dem neuen treiber ausfallen

Odal
2008-01-26, 12:45:14
das diese bergvölker immer bevorzugt werden bei der belieferung tzz
war bei den RV670 karten auch schon so...

man sieht aber auch schon das da preise von unter 400€ drin sein werden...ich denke das wird sich sogar noch auf so 350€ absenken...das ist fast der preis einer 88GTX und somit ein sehr gutes angebot

Gast
2008-01-26, 13:42:28
das diese bergvölker immer bevorzugt werden bei der belieferung tzz
war bei den RV670 karten auch schon so...

man sieht aber auch schon das da preise von unter 400€ drin sein werden...ich denke das wird sich sogar noch auf so 350€ absenken...das ist fast der preis einer 88GTX und somit ein sehr gutes angebot
Jo, aber nur wenn auf AMD festgelegt ist. Der Preis ist natürlich für das gebotene "physikalische Material" ausgezeichnet aber der Nutzen in alltäglichen Spieleanwendungen hinkt gewaltig. Wenn ich 350 Euro für einen spieletauglichen Rechner investieren würde, dann würde ich auf jeden Fall zur GTX greifen oder falls es AMD sein soll, einen RV670 holen.
Wie gesagt, für Spieler ist die Karte kein gutes und vernünftiges Angebot, da spielt die Höhe des Preises schon fast keine Rolle mehr.

Weselchak-U
2008-01-26, 15:14:12
So, der Verkauf geht auch in Deutschland los, bei mindfactory ist die Grafikkarte "sofort lieferbar" : http://www.mindfactory.de/product_info.php/info/p0415582?pid=geizhals

Der endgültige Fall der sogegenannten "NDA".

Odal
2008-01-26, 15:38:36
Jo, aber nur wenn auf AMD festgelegt ist. Der Preis ist natürlich für das gebotene "physikalische Material" ausgezeichnet aber der Nutzen in alltäglichen Spieleanwendungen hinkt gewaltig. Wenn ich 350 Euro für einen spieletauglichen Rechner investieren würde, dann würde ich auf jeden Fall zur GTX greifen oder falls es AMD sein soll, einen RV670 holen.
Wie gesagt, für Spieler ist die Karte kein gutes und vernünftiges Angebot, da spielt die Höhe des Preises schon fast keine Rolle mehr.

warum? nen Crossfire System aus 2 3870 ist in 1600x1200 8xAA etc. laut CB im schnitt 30% schneller als ne 88ultra....und ne ultra ist 13% schneller als ne GTX

macht ungefähr 13%+4%(30% von 13%)+30%=47% also fast 50% schneller als ne GTX...

1600x1200 8xAA ist auch ungefähr das Szenario wo ich mir vorstelle das solch Karte zum einsatz kommt...

demnach dürfte ne GTX nur ca. 260€ kosten....

wenn man mal nur davon ausgeht das der preis linear mit der leistung skaliert

klar geh ich mal davon aus das crossfire auch funktioniert...ausnahmen gibts natürlich leider noch..aber amd werkelt ja seit dem 8.1 besonders an dem crossfiresupport....

und gelistet ist die X2 schon ab 379€ da geht im preis sicher noch was...

Gast
2008-01-26, 15:53:15
warum? nen Crossfire System aus 2 3870 ist in 1600x1200 8xAA etc. laut CB im schnitt 30% schneller als ne 88ultra....und ne ultra ist 13% schneller als ne GTX

macht ungefähr 13%+4%(30% von 13%)+30%=47% also fast 50% schneller als ne GTX...

1600x1200 8xAA ist auch ungefähr das Szenario wo ich mir vorstelle das solch Karte zum einsatz kommt...

demnach dürfte ne GTX nur ca. 260€ kosten....

wenn man mal nur davon ausgeht das der preis linear mit der leistung skaliert

klar geh ich mal davon aus das crossfire auch funktioniert...ausnahmen gibts natürlich leider noch..aber amd werkelt ja seit dem 8.1 besonders an dem crossfiresupport....

und gelistet ist die X2 schon ab 379€ da geht im preis sicher noch was...
Ja von den theoretischen Daten ist das ned schlecht, aber bevor mir eine AFR-Lösung ins Haus kommt, nimm ich lieber eine der stärksten verfügbaren Einzelkarten (GTX oder Ultra). Man muss Multi-GPU halt mal selbst live in Aktion erlebt haben. Ich hab mir in den Arsch gebissen als ich meine X1900 gegen eine 7900GX2 getauscht bzw. verkauft hatte. Die Frames waren zwar höher aber das Spielgefühl oft schlechter. Oblivion, Call of Juarez, CMRD, NFS Carbon etc... liefen gefühlt schlechter als mit meiner ehemaligen X1900!
Zum Glück war die 7900GX2 ein ebay-Schnäppchen gewesen und der Frust bzw. finanzielle Schaden hielt sich in Grenzen.

nomadhunter
2008-01-26, 16:02:30
@Odal: 8xMSAA läuft auf NV-Karten schlecht, der Vergleich hinkt deswegen. (Dafür bietet NV einen 8xCSAA-Modus, der nur unwesentlich schlechter aussieht aber viel schneller läuft.) Wäre genau so, wie wenn man mit SSAA bencht und der 3870 dann 0 Punkte gibt, weil sie das nicht beherrscht. Bei 4xMSAA kannst du die Karten fair vergleichen.

Gast
2008-01-26, 16:38:06
weiss jemmand ab welchen prozessor die karte lohnt? mit nehm X2 4800+ wird die karte ziemlich unterfordert sein oder?

Grestorn
2008-01-26, 16:46:59
weiss jemmand ab welchen prozessor die karte lohnt? mit nehm X2 4800+ wird die karte ziemlich unterfordert sein oder?

Das glaube ich kaum. Spiele sind nur in ausnahmefällen CPU limitiert. Und wenn: Dann stellt man die Grafikeinstellungen höher und die GPU hat wieder was zu tun.

Gast
2008-01-26, 16:51:49
So leute ich habe diese graka heute beim händler geholt. hatt gester 5 stück bekommen :-) von asus.DIe graka rockt, micro ruckler bis jetzt keine festgestellt. Ist ein bisschen lauter als die gtx beim gamen..

MFg Mike

Gast
2008-01-26, 16:55:01
warum? nen Crossfire System aus 2 3870 ist in 1600x1200 8xAA etc. laut CB im schnitt 30% schneller als ne 88ultra....und ne ultra ist 13% schneller als ne GTX


jetzt stellt sich nur die frage, warum man bei den 8800er karten 8xMSAA nehmen sollte, wenn man auch 16xCSAA haben kann, was in den meisten fällen besser aussieht und auch noch deutlich schneller ist.

Spasstiger
2008-01-26, 17:10:25
jetzt stellt sich nur die frage, warum man bei den 8800er karten 8xMSAA nehmen sollte, wenn man auch 16xCSAA haben kann, was in den meisten fällen besser aussieht und auch noch deutlich schneller ist.
Für einen Performancevergleich mit ATI-Karten.
Man könnte bei ATI auch 4xCFAA (edge detect) testen, kann subjektiv genauso gut aussehen wie 16xCSAA, aber es ist halt nicht wirklich vergleichbar.
Die Performance von 16xCSAA bei Nvidia gegen 8xAA bei ATI zu testen, wäre auf jeden Fall nicht fair, da mit 8xAA eben bis zu acht verschiedene Farbwerte in die endgültige Pixelfarbe einfließen können, bei 16xCSAA nur vier.

Banshee18
2008-01-26, 17:12:02
@Odal: 8xMSAA läuft auf NV-Karten schlecht, der Vergleich hinkt deswegen. (Dafür bietet NV einen 8xCSAA-Modus, der nur unwesentlich schlechter aussieht aber viel schneller läuft.) Wäre genau so, wie wenn man mit SSAA bencht und der 3870 dann 0 Punkte gibt, weil sie das nicht beherrscht. Bei 4xMSAA kannst du die Karten fair vergleichen.
Dein Vergleich hinkt. nV-Karten können 8xAA, wieso sollte man sie nicht mit ATi-Karten vergleichen können? ATi-Karten können aber kein SSAA, deshalb kann man das nicht vergleichen.

Gast
2008-01-26, 17:34:44
Die Performance von 16xCSAA bei Nvidia gegen 8xAA bei ATI zu testen, wäre auf jeden Fall nicht fair, da mit 8xAA eben bis zu acht verschiedene Farbwerte in die endgültige Pixelfarbe einfließen können, bei 16xCSAA nur vier.

aber 16xCSAA kann bis zu 15 zwischenwerte erzeugen, 8xMSAA maximal 7.

ich wüsste nicht warum man nicht einen qualitätsmäßig überlegenen modus verwenden sollte, wenn dieser sogar schneller ist.

die praxisrelevanz von 8xMSAA ist bei G8x eigentlich gegen 0. wenn die leistung für 8xQ reicht, dann ist in aller regel auch genug leistung für 16xQ vorhanden, also wird man letzteres verwenden. reicht die leistung für 8xQ nicht, dann wird man als nächstes wohl 16x probieren, welches in den meisten fällen schöner und meistens auch noch ausreichend schnell ist.

für den direkten vergleich wäre es natürlich gut wenn man weiter 8xMSAA gegen 8xMSAA testen. nur sollte man nicht unter den tisch fallen lassen, dass man bei der Geforce8-serie die gleiche oder gar bessere qualität deutlich effizienter erreichen kann. deshalb sollte man imo die CSAA-modi auf jeden fall mittesten und im text auf die unterschiede zum MSAA eingehen.

Spasstiger
2008-01-26, 18:08:54
aber 16xCSAA kann bis zu 15 zwischenwerte erzeugen, 8xMSAA maximal 7.
Die feinere Abstufung der Zwischenwerte bei 16xCSAA bringt aber nix, wenn die Eingangswerte vom 4xMSAA-Anteil schlecht sind.
Bei 8xMSAA hast du bis zu acht verschiedene Eingangswerte und wenn nur einer von den Eingangswerten vom 4xMSAA des 16xCSAA nicht berücksichtigt werden kann, hast du mit 8xMSAA einen Vorteil.

Es wäre gut, wenn man 16xCSAA zusätzlich zum 8xMSAA testen würde, aber nur das 16xCSAA von Nvidia dem 8xMSAA von ATI gegenüberzustellen, wäre unseriös.

LovesuckZ
2008-01-26, 19:59:23
Deswegen plädiere ich eine Kopplung des 8xMSAA Modus an HQ oder unter einer verstecken Option im Treiber.
Warum sollte nVidia nicht das gleiche machen wie AMD beim ansiotropen Filter?
nVidia 8xMSAA Modus ist ineffizient wie nichts - wenn er schnell genug ist, kann man auch mit 4xOGSSAA oder 8xS (2xOG + 4xMSAA) spielen.

Spasstiger
2008-01-26, 20:12:21
Warum sollte nVidia nicht das gleiche machen wie AMD beim ansiotropen Filter?
Was macht AMD beim anisotropen Filter? Abgesehen von den Filteroptimierungen, die es genauso bei Nvidia gibt, bietet AMD mit der Radeon-HD-Reihe ausschließlich das winkelunabhängigere AF (es ist sozusagen in Hardware gebacken).

Gast
2008-01-26, 20:39:59
Was macht AMD beim anisotropen Filter?
AI Cheaterei.

davidzo
2008-01-26, 23:33:24
Jo, aber nur wenn auf AMD festgelegt ist. Der Preis ist natürlich für das gebotene "physikalische Material" ausgezeichnet aber der Nutzen in alltäglichen Spieleanwendungen hinkt gewaltig. Wenn ich 350 Euro für einen spieletauglichen Rechner investieren würde, dann würde ich auf jeden Fall zur GTX greifen oder falls es AMD sein soll, einen RV670 holen.
Wie gesagt, für Spieler ist die Karte kein gutes und vernünftiges Angebot, da spielt die Höhe des Preises schon fast keine Rolle mehr.

Ich hol dann mal meine Glaskugel raus, mal sehen ob ich da auch so präzise Aussagen über die Verwendbarkeit der Karte als gamer machen kann wie du.

Das es Leute gibt die eine Ultra der 3870x2 vorziehen kann ich ja noch einigermaßen verstehen, das ist halt misstrauen gegenüber der DualGPUkarte. Aber die GTX liegt nun wirklich um längen woanders nach den ersten Benchmarks. Es ist ja nicht so als wenn die Microrucklerproblematik die Karte schlechter machen würde als einen einfachen rv670.

Ich muss dem gast zustimmen, der Threadtitel ist bescheuert!
Hab vor ein paar tagen wirklich lange gesucht um den aktuellen Thread zur x2 zu finden und bin nur auf tote Thredas im Soekulationsforum gestoßen. Der Threadname sollte dringend geändert werden, sowas klingt zwar witzig, ist aber emotionsgeladen und allerhöchstens für einen Untertitel zu gebrauchen, für mehr ist er nicht AUssagekräftig genug.
Zudem zeigt das mal wieder dass der Threadersteller keinen Sinn für PCs hat, betrachtet man das Forum als Datenbank ist das hier eine Inkonsistenz, da sich durch die Forensuche praktisch nichts finden lässt, zumindest nicht wenn man nach Threads sucht und nicht nach Beiträgen.

Gast
2008-01-27, 00:07:31
Es ist ja nicht so als wenn die Microrucklerproblematik die Karte schlechter machen würde als einen einfachen rv670.
Das nicht, aber auch nicht so viel besser.

An eine Ultra kommt die niemals ran, auch wenn dir Benches 30% mehr Leistung vorgauckeln, sind diese nicht da.

Gast
2008-01-27, 00:08:48
Zwei Zwillinge sind ja immerhin zwei X2 Karten mit insgesamt 4 Chips...vermutlich schaffen die es ja die Ultra knapp zu schlagen man darf gespannt sein ;)

Gast
2008-01-27, 00:10:28
http://www.abload.de/img/pl3452ok.gif (http://www.abload.de/image.php?img=pl3452ok.gif)

;D

Superheld
2008-01-27, 00:17:10
toll Bioshock das spielt doch jetzt keiner mehr:smile:

Gast
2008-01-27, 00:21:40
Zwei Zwillinge sind ja immerhin zwei X2 Karten mit insgesamt 4 Chips...vermutlich schaffen die es ja die Ultra knapp zu schlagen man darf gespannt sein ;)
Nein 1 Zwilling wäre eine Karte, die eine nahe Bindung zu einer zweiten hat. ;)
Also sind zwei Zwillinge 2 Chips.

J0ph33
2008-01-27, 00:51:49
das kann doch nicht stimmen, warum sollte bei 25*16 ein CF aus zwei HD3870 soviel langsamer als die X2 sein?

Gast
2008-01-27, 01:22:42
das kann doch nicht stimmen, warum sollte bei 25*16 ein CF aus zwei HD3870 soviel langsamer als die X2 sein?
Weil die X2 höher getaktet ist, 1GiB VRAM hat (oder meinen die 2*512MiB?) und dadurch das der Schnee auf einer Platine sitzt einen Latenzvorteil hat.

Eggcake
2008-01-27, 01:32:01
Mh das wär jetzt aber schon ziemlich heftig. Kann ich nicht ganz glauben.

Und denke dass es schon 2 3870 mit je 512 MB sind. Man schreibt ja normalerweise vor dem "CF" bzw. "SLI" die Einzelkarte, welche eben doppelt vorkommt.

toll Bioshock das spielt doch jetzt keiner mehr

Und was spielt "man" noch? Crysis? Und sonst zählt wohl heute nix mehr als Benchmark :>

Gast
2008-01-27, 02:04:57
Der Benchmark ist natürlich Blödsinn

Psychopat
2008-01-27, 02:19:58
Nicht vergessen, auf der X2 ist eine neuere Revision des Chips verbaut. Der Bioshock-Bench schaut so aus, als würde die X2 bei 2560* (gerade) noch nicht an ihre Limitierung stoßen, die anderen Karten schon.
Bzw. was ich eher vermute, für die X2 wurde ein anderer Treiber verwendet als für CF der die Performanceprobleme löst. Bei Bioshock sind die ATI-Karten ja bisher immer recht stark hinter nVidia gelegen. Da ist Treibermässig also noch genug Luft.

Spasstiger
2008-01-27, 02:31:19
Und was spielt "man" noch? Crysis? Und sonst zählt wohl heute nix mehr als Benchmark :>
Ich verstehs auch nicht ganz. Ich kenne mindestens eine Person, die Bioshock noch spielen will und derzeit vor der Grafikkartenentscheidung steht (wird wohl die 8800 GTS 512 MiB für einen 19" TFT und einen 720p-Beamer).

Gast
2008-01-27, 02:36:58
http://www.abload.de/img/pl3452ok.gif (http://www.abload.de/image.php?img=pl3452ok.gif)

;D

frag mich auch wie das zustande kommt.die anderen werte sind ja nachvollziehbar aber beim 3780x² hmm.

Gast
2008-01-27, 02:39:54
Nicht vergessen, auf der X2 ist eine neuere Revision des Chips verbaut. Der Bioshock-Bench schaut so aus, als würde die X2 bei 2560* (gerade) noch nicht an ihre Limitierung stoßen, die anderen Karten schon.


Nein das ist Unfug mit 512MB ist da schon jetzt nicht viel drin...

Eggcake
2008-01-27, 11:43:02
Ich verstehs auch nicht ganz. Ich kenne mindestens eine Person, die Bioshock noch spielen will und derzeit vor der Grafikkartenentscheidung steht (wird wohl die 8800 GTS 512 MiB für einen 19" TFT und einen 720p-Beamer).

Ich kenne auch wenige Spiele, die man lange spielt. Sprich 2++ Wochen. Ausser einige Mulitplayerspiele doch da ist die Grafik selten im Mittelpunkt. Muss sich also jede Woche auf die Suche nach neuen, grafikintensiven Games machen oder wie?

4 Vitamins
2008-01-27, 13:47:19
Ich muss dem gast zustimmen, der Threadtitel ist bescheuert!
Hab vor ein paar tagen wirklich lange gesucht um den aktuellen Thread zur x2 zu finden und bin nur auf tote Thredas im Soekulationsforum gestoßen. Der Threadname sollte dringend geändert werden, sowas klingt zwar witzig, ist aber emotionsgeladen und allerhöchstens für einen Untertitel zu gebrauchen, für mehr ist er nicht AUssagekräftig genug.
Zudem zeigt das mal wieder dass der Threadersteller keinen Sinn für PCs hat, betrachtet man das Forum als Datenbank ist das hier eine Inkonsistenz, da sich durch die Forensuche praktisch nichts finden lässt, zumindest nicht wenn man nach Threads sucht und nicht nach Beiträgen.

:P

Lachen entspannt und macht gesund:biggrin:
Tut mir leid wenn der titel dich wütend macht.

In einem haste aber recht, ich habe keinen sinn für PC (is nur ein haufen elektroschrott welches nach lust und laune funktioniert). Und noch was:
ein disskusionsforum ist für mich keine datenbank, ich komuniziere hier mit menschen, tausche erfahrungen aus, informiere und unterhalte mich.:wink:

gruss

Gast
2008-01-27, 14:10:22
Oje, macht eine Ati eure geliebte Ultra platt?
Seit doch mal froh, dass NV endlich wieder Feuer unterm Hintern hat.
Außerdem könnte diese Karte gerade als Prototyp für die aktuelle MultiGPU-Entwicklung von ATI dienen und schon eine gewisse Technik beherbergen, die die Microruckler weitestgehend eleminiert oder mildert. Deshalb sollte man erstmal auf einen echten Erfahrungsbericht eines hier eingeweiten warten.

tombman
2008-01-27, 14:15:15
Oje, macht eine Ati eure geliebte Ultra platt?
Es ist nicht EINE Ati, es sind ZWEI- auf einer Platine ;)
Und zwar im Crossfire. Und damit bleibt die Ultra die schnellste Einzelkarte...

Ohne Crossfire würde ich "schnellste Karte" gelten lassen, so aber nicht...

Gast
2008-01-27, 14:20:19
MultiGPU-Entwicklung von ATI
GPUs sind schon lange Multi.

Gast
2008-01-27, 14:20:45
Es ist nicht EINE Ati, es sind ZWEI- auf einer Platine ;)
Und zwar im Crossfire. Und damit bleibt die Ultra die schnellste Einzelkarte...

Ohne Crossfire würde ich "schnellste Karte" gelten lassen, so aber nicht...


Muss man dir erst erklären was gemeinhin unter "einer Karte" verstanden wird?!

mreb
2008-01-27, 14:22:25
Kann man ein 3870 mit einer 3870x2 im CF betreiben?

tombman
2008-01-27, 14:23:19
Muss man dir erst erklären was gemeinhin unter "einer Karte" verstanden wird?!
Du erklärst gar nix. Der Fall ist viel zu klar.

hq-hq
2008-01-27, 14:33:12
schnellste ein-slot graka :D

und die erinnert mich an meine alte voodoo 5 5500 :biggrin:

chiller
2008-01-27, 14:34:06
Die Karte belegt einen Slot also ist sie für mich eine Einzelkarte.

Vorallem nimmt die X2 weniger platz weg wie ne Ultra und kostet zum Start mal gleich 200€ weniger, wie damals die Ultra

tombman
2008-01-27, 14:36:45
und die erinnert mich an meine alte voodoo 5 5500 :biggrin:
Naja, genau so wie die 5500er funkt sie aber eben nicht.
Cf ist eben Cf..

tombman
2008-01-27, 14:37:49
Die Karte belegt einen Slot also ist sie für mich eine Einzelkarte.
Ich werde Karten, die auf SLI oder CF beruhen, niemals als Einzelkarten sehen...

Gast
2008-01-27, 14:41:29
Ich werde Karten, die auf SLI oder CF beruhen, niemals als Einzelkarten sehen...
Korrekt.

2 Chips wie auf einer V5 sind eine Sache, aber SLI/CF eine ganz andere.

hq-hq
2008-01-27, 14:46:03
hmm, wohl war, aber wenigstens ist es im vergleich zur 7950x2 nur eine platine:)

tombman
2008-01-27, 14:53:06
hmm, wohl war, aber wenigstens ist es im vergleich zur 7950x2 nur eine platine:)
Wieviel Platinen ist mir auch wurscht. Macht vielleicht nur einen Unterschied falls wer vorhat eine Wakü für die X2 herauszubringen, dann wäre 1 slot Höhe möglich, was bei Nvidia ja auf keinen Fall möglich wäre. Also für einen extra flachen Spezialpc wärs vielleicht was.
Aber das ist eine Spezialsache, die basteln erfordern würde...

hq-hq
2008-01-27, 15:05:35
tja, ich kann sie leider eh nicht einbauen obwohl ich ein extratiefes gehäuse hab... die is so lang und dick da passt mein wassertank nimmer ins gehäuse :frown:

maximus_hertus
2008-01-27, 15:19:39
Leute, seht das doch ganz pragmatisch. In einem non-SLI Mobo wird die X2 wahrscheinlich die schnellste Grafikkarte sein. Ergo wird es von nV z.Zt. (!) nix schnelleres für den P35 Chip (z.B.) geben. Erst die 9800 GX2 könnte auch in diesem Bereich die Spitze zurück erringen.

Ob der Vorsprung (X2 gegen Ultra) reicht, um mit der ein oder anderen "Einschränkung" (der CF/SLI Technik) zu leben oder ob die Ultra dann doch die bessere Alternative ist bleibt abzuwarten. Und die Ultra ist EOL, ergo wird sich bald die Frage nicht stellen, sondern 9800GX2 gegen X2, und da sehe ich nV nicht dramatisch bzw. deutlich vorne.

Ansonsten ist die X2 bei 380€ und weniger doch eine schöne Karte. P/L scheint wohl zu stimmen ;)

Gast
2008-01-27, 15:27:47
Lese gerade auf der Asus Seite das die 3870x2 nur mit Crossfire Chipsätzen funktionieren soll, wurde das schon irgendwo bestätigt? Wäre ja ein enormer Nachteil zur kommenden 9800gx2.

Gast
2008-01-27, 15:32:00
Die feinere Abstufung der Zwischenwerte bei 16xCSAA bringt aber nix, wenn die Eingangswerte vom 4xMSAA-Anteil schlecht sind.
Bei 8xMSAA hast du bis zu acht verschiedene Eingangswerte und wenn nur einer von den Eingangswerten vom 4xMSAA des 16xCSAA nicht berücksichtigt werden kann, hast du mit 8xMSAA einen Vorteil.

dafür müssten sich aber schon mindestens 5 polygone in einem pixel befinden, was verdammt unwahrscheinlich ist.

in allen anderen fällen ist 16xCSAA mehr oder weniger deutlich im vorteil.

crux2005
2008-01-27, 15:48:05
Lese gerade auf der Asus Seite das die 3870x2 nur mit Crossfire Chipsätzen funktionieren soll, wurde das schon irgendwo bestätigt? Wäre ja ein enormer Nachteil zur kommenden 9800gx2.

sollte FUD sein, wieso hat die Karte dann einen PLX chip ?

naja, ich teste die Karte(n) mal wenn ich sie hier habe :biggrin:

Gast
2008-01-27, 16:17:15
Soweit ich mitbekommen habe soll 9800 GX2 sogar noch langsamer als die HD3870 X2 sein. Außerdem wird die HD3870 X2 auch ohne Crossfire-Board nutzbar sein. Zudem stellt sich hier die Frage ob das OnGraka-Crossfire nicht doch eine Weiterentwicklung ist und die Microruckler nicht allein dur den Latenzvorteil reduziert werden können.

Grestorn
2008-01-27, 16:35:10
Soweit ich mitbekommen habe soll 9800 GX2 sogar noch langsamer als die HD3870 X2 sein. Außerdem wird die HD3870 X2 auch ohne Crossfire-Board nutzbar sein. Zudem stellt sich hier die Frage ob das OnGraka-Crossfire nicht doch eine Weiterentwicklung ist und die Microruckler nicht allein dur den Latenzvorteil reduziert werden können.

Auch die GX2 läuft mit allen Chipsätzen.

Gast
2008-01-27, 16:54:34
Soweit ich mitbekommen habe soll 9800 GX2 sogar noch langsamer als die HD3870 X2 sein. Außerdem wird die HD3870 X2 auch ohne Crossfire-Board nutzbar sein. Zudem stellt sich hier die Frage ob das OnGraka-Crossfire nicht doch eine Weiterentwicklung ist und die Microruckler nicht allein dur den Latenzvorteil reduziert werden können.
Dann schau dir mal die Details zur PCIe-Bridge an...

bawde
2008-01-27, 18:20:43
SLI und CF ist eben keine einzelkarte. allerdings finde ich das die Ultra und die GTS(G92) fasst gleich sind und sich den ersten platz teilen.

http://www.xtremesystems.org/forums/showpost.php?p=2727529&postcount=25
http://www.xtremesystems.org/forums/showthread.php?t=174746

Gast
2008-01-27, 19:53:36
allerdings finde ich das die Ultra und die GTS(G92) fasst gleich sind und sich den ersten platz teilen.



;D bei 1280x1024 vieleicht

Gast
2008-01-27, 20:15:12
SLI und CF ist eben keine einzelkarte. allerdings finde ich das die Ultra und die GTS(G92) fasst gleich sind und sich den ersten platz teilen.


http://www.xtremesystems.org/forums/showthread.php?t=174746

allerdings finde ich das die Ultra und die GTS(G92) fasst gleich sind und sich den zweiten platz teilen.:P

AnarchX
2008-01-27, 22:22:21
sollte FUD sein, wieso hat die Karte dann einen PLX chip ?

Vielleicht wollte ASUS sparen und hat ihn weggelassen.:D

Naja, eher unwahrscheinlich, aber langfristig würde ich doch aufpassen, was die AIBs für Eigendesigns basteln.

davidzo
2008-01-27, 23:27:34
Zitat von Gast
Muss man dir erst erklären was gemeinhin unter "einer Karte" verstanden wird?!
Du erklärst gar nix. Der Fall ist viel zu klar.

Jo, ab Jetzt heißt es die Grafikchip. Und der Karte oder wie?

Soviel ihr es auch drehen oder wenden wollte, es handelt sich um EINE Karte (im gegensatz zur 9800gx2). Grafikchips sind jedoch zwei verbaut. Aber egal wie man das übersetzt bleibt ein PCb auch definitiv eine Karte, daran führt kein Weg vorbei.

Und was tombman denkt ist mir ehrlich gesagt auch scheiß egal, soll er doch nachts von seiner Ultra als der schnellsten Karte träumen. Spätestens wenn X2 CF gegen Triple SLI gewinnt wird er aufwachen...

Lachen entspannt und macht gesund
Tut mir leid wenn der titel dich wütend macht.

In einem haste aber recht, ich habe keinen sinn für PC (is nur ein haufen elektroschrott welches nach lust und laune funktioniert). Und noch was:
ein disskusionsforum ist für mich keine datenbank, ich komuniziere hier mit menschen, tausche erfahrungen aus, informiere und unterhalte mich.

gruss
http://de.wikipedia.org/wiki/Semantisches_Web
"Auf Webseiten veröffentlichte Informationen sollen nicht nur für Menschen lesbar sein, sondern darüber hinaus auch von Computern interpretiert und weiterverarbeitet werden können." Das ist die Zukunft. Menschen sind zu unzuverlässig und drücken sich gerne unpräzise aus. dem müssen wir abhelfen wo wir können...
Optimalerweise reden wir in Zukunft selber nur Bitcode, dann gibt es keinerlei verluste durch analoge schnittstellen wie monitor maus oder tastatur.

Skullcleaver
2008-01-28, 00:41:12
DAs sie 3 Ultras schlagen können bleibt erst noch zu beweisen. Ganz davon ab ist die Ultra ein auslaufmodell genau wie die gtx. Die Krone wird AMD nicht lange gegönnt sein das ist sicher.

Gast
2008-01-28, 01:07:35
DAs sie 3 Ultras schlagen können bleibt erst noch zu beweisen. Ganz davon ab ist die Ultra ein auslaufmodell genau wie die gtx. Die Krone wird AMD nicht lange gegönnt sein das ist sicher.

doch weitaus länger als man denkt die 9800 ist schonmal keine konkurrenz wenn die nur bissel schneller als eine ultra ist,und 3 ultra gegen 2 3870x² ist doch nicht dein ernst oder? 3 cf 3870 würden wahrscheinlich schon reichen wenn ich die werte bei bei CB sehe.

davidzo
2008-01-28, 01:12:53
naja, derzeit siehts ja noch so aus, als wenn CF-X noch nicht wirklich fertig ist. - was heißt es performt beschissen.

Mein Statement war eher so gedacht, dass man spätestens wenn man soviele highendkarten beider hersteller wie möglich in den PC stopft und dann testet, eindeutig bestimmt werden kann wem die Performancekrone gebührt. Da von der anzahl der Karten oder Chips oder so zu gehen ist einfach nicht mehr Zeitgemäß und eigentlich auch zu unflexibel und ungerecht.

Gast
2008-01-28, 01:16:53
seh da schwarz für nivida bei der highendabteilung vorallem was man so hört was die noch kosten soll.

http://forums.vr-zone.com/showthread.php?t=229127

Skullcleaver
2008-01-28, 01:21:14
Klar 3 mal langsamer als Ultra schlägt 3 Ultras diese Logik ist bahnbrechend XD

Schuldigungt aber bei vielen der AMD Fanboys muss mans ich einfach mal an den Kopf fassen.

Klar ist die Chipzahl wichtig. Einen wirklich gut performanden Chip zu entwickeln ist weitaus aufwendiger als 2 schlechtere in Crossfire zu klatschen. Davon ab wenn ihr shcon crossfire mit reinwerft muss man triplesli ebenfalls mit reinwerfen und da sieht AMD derzeit kein Licht gegen 3 Ultras. Da Triplesli im Gegensatz zu Crossfire X schon wunderbar funktioniert und performt.

Man kann sich natürlich auch alles ignorieren was das eigene Bild schädigen könnte aber sonderlich weise ist das nicht.

Gibt es eigentlich schon AI off Test mit Bildquali vergleichen?

@Gast: Ich zitiere mal einen Beitrag aus dem Forum wo diese Zahlen herkommen

Simulations based on speculation based on rumors posted as news, this is getting better and better

tombman
2008-01-28, 03:40:29
Soviel ihr es auch drehen oder wenden wollte, es handelt sich um EINE Karte (im gegensatz zur 9800gx2). Grafikchips sind jedoch zwei verbaut. Aber egal wie man das übersetzt bleibt ein PCb auch definitiv eine Karte, daran führt kein Weg vorbei.
Nur leider ist das so relevant als wenn in China ein Sack Reis umfällt. Wichtig ist nur was hinten rauskommt und wieviele Probleme es macht. Und SLI/CF ist nun mal nicht so smooth wie ein single-chip, fertig aus. Und wieviele Platinen genutzt werden ist ebenfalls völlig egal. Von mir aus sollens 4 Platinen mit 8 chips sein-> wenn das Teil fps ohne Ende raushaut solls mir Recht sein ;D

Und was tombman denkt ist mir ehrlich gesagt auch scheiß egal, soll er doch nachts von seiner Ultra als der schnellsten Karte träumen. Spätestens wenn X2 CF gegen Triple SLI gewinnt wird er aufwachen...
ATI rennt Nvidia hinterher, nicht umgekehrt ;) G80 gibts seit Nov. 06. Und SLI schon Äonen vor CF. Also wieso sollte Nvidia vor irgendwas Angst haben, was ATI produzieren könnte? :cool:
Sollte ATI frech werden, gibts GT200 oder G100 und basta ;)

Schrotti
2008-01-28, 03:56:07
Sollte ATI frech werden, gibts GT200 oder G100 und basta ;)

Was ist, wenn Nvidia nichts parat hat oder die neueste Technologie noch nicht Marktreif ist?

Und was ist, wenn der G100 ein Flop wird?

tombman
2008-01-28, 04:09:35
Was ist, wenn Nvidia nichts parat hat oder die neueste Technologie noch nicht Marktreif ist?
Als Zwischenlösung kommt doch eh die GX2...

Und was ist, wenn der G100 ein Flop wird?
Was ist wenn R700 ein Flop wird?

Ich glaube aber nicht, daß Nvidia seit 06 nur Däumen dreht. Ende 08 kommt was Fettes von Nvidia, das ist so sicher wie das Amen in der Kirche.

p.s: @ Gast, weil sie mir helfen wollen endlich INSANE MEMBER zu werden. "Nur" mehr 57x posts :eek: ;D

Gast
2008-01-28, 04:17:36
ich find die beta treiber von nivida sehr gut.für jedes spiel einen anderen treiber:) das ist mal flexibel

Skullcleaver
2008-01-28, 04:23:24
Also ich weiß nicht obs nun Crysis, Witcher, HL2, Gothic 3 oder sonstwas ist läuft alles mit ein und dem selben Treiber wunderbar ;)

Gast
2008-01-28, 04:36:08
ich find die beta treiber von nivida sehr gut.für jedes spiel einen anderen treiber:) das ist mal flexibel

Nvidia wusste schon immer, was Kunden wünschen :-)

James Ryan
2008-01-28, 06:36:12
Computerbase-Review: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/

Hartware.net-Review: http://www.hartware.de/review_785.html

MfG :cool:

tombman
2008-01-28, 07:00:04
Rofl, Nvidia muß ja sooo Angst haben ;)

http://img208.imageshack.us/img208/8241/atix2lolfj5.jpg (http://imageshack.us)

Im Vergleich zur G92 GTS sind das vielleicht max. 25%. SLI hat aber eine höhere Skalierung als 25% ;)

Tjo, die GX2 wird wohl wieder davonziehen.

Skullcleaver
2008-01-28, 07:12:27
Das kann man sehen wie man will Fakt ist er hat recht ebenso wie einiege andere hier. Peinlich find ich nach lesen sämtlicher Seiten eher die AMD Fanboys sind zwar nen paar Ausnahmen drunter aber die Masse oh man....

Grestorn
2008-01-28, 07:13:36
Ich kann nur wiederholen, die Häme und Schadenfreude, die einige AMD Fans hier verbreiten ist absolut bemerkenswert.

Und die nVidia Fans sollten sich auch nicht darauf einlassen, "ihre" Seite zu verteidigen. Warum auch? Nötig ist es nicht.

Letztlich gewinnen wir alle, wenn es endlich mal voran geht auf dem High-End Markt. Nach über einem Jahr Stillstand. Und genau DARAN ist letztlich ATI schuld.

In so fern: ENDLICH aufgewacht, ATI? Wurde aber auch mal Zeit. Das nächste Mal bitte früher in die Pötte kommen!

Skullcleaver
2008-01-28, 07:16:49
Klar ist es gut das AMD wieder zu einer Konkurenz wird. Aber das auf den technischen Leistungen NVIDIAs dermaßen "geschissen" wird ist mir echt ein Dorn im Auge. Da kann ich mich manchmal nicht beherschen.

Tombman scheints da ähnlich zu gehen ^^

tombman
2008-01-28, 07:17:40
Gut finde ich, daß CF und SLI jetzt viel mehr Bedeutung bekommen.

=Floi=
2008-01-28, 07:33:15
schaut euch mal die lautstärke an
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/26/#abschnitt_lautstaerke

teilweise ist die ultra schon sehr nahe dran und ich glaube der 8.45er treiber ist schon der spezielle X2 treiber...

---
sie bekommen jetzt mehr aufmerksamkeit aber eine alternative ist sowas nicht!

Gast
2008-01-28, 07:35:12
Ich kann nur wiederholen, die Häme und Schadenfreude, die einige AMD Fans hier verbreiten ist absolut bemerkenswert.

Und die nVidia Fans sollten sich auch nicht darauf einlassen, die andere Seite zu verteidigen. Warum auch? Nötig ist es nicht.

Letztlich gewinnen wir alle, wenn es endlich mal voran geht auf dem High-End Markt. Nach über einem Jahr Stillstand. Und genau DARAN ist letztlich ATI schuld.

In so fern: ENDLICH aufgewacht, ATI? Wurde aber auch mal Zeit. Das nächste Mal bitte früher in die Pötte kommen!

Als ob wir von nV mehr gesehen hätten, wenn ATi konkurrenzfähig gewesen wäre. Ist ja nicht das erste mal, das von nV nach dem neuen High-End-Chip nur ein langweiliger Shrink kommt. Damit wird dann eben das Geld wieder herein gespielt.

Grestorn
2008-01-28, 07:38:47
Als ob wir von nV mehr gesehen hätten, wenn ATi konkurrenzfähig gewesen wäre. Ist ja nicht das erste mal, das von nV nach dem neuen High-End-Chip nur ein langweiliger Shrink kommt. Damit wird dann eben das Geld wieder herein gespielt.

...und unsere Gäste bashen fröhlich weiter.

Ohne nVidia wäre auch ATI wohl noch nicht mal auf dem Level einer Radeon 9700. Denk mal darüber nach.

Gast
2008-01-28, 07:39:09
Rofl, Nvidia muß ja sooo Angst haben ;)

http://img208.imageshack.us/img208/8241/atix2lolfj5.jpg (http://imageshack.us)

Im Vergleich zur G92 GTS sind das vielleicht max. 25%. SLI hat aber eine höhere Skalierung als 25% ;)

Tjo, die GX2 wird wohl wieder davonziehen.

Wie zu erwarten war, wenn CF korrekt funktioniert, zieht die Karte natürlich deutlich vorbei. Wenn nicht, wie in Gothic 3 ist sie hoffnungslos unterlegen. Überragend sind natürlich die 8AA Benchs. Die GX2 wird im übrigen nur mit 550Mhz takten, also ganz so eindeutig ist die Sache dann auch nicht, zumal die 3870 X2 schon öfter am CPU-Limit hängen dürfte.

Grestorn
2008-01-28, 07:42:07
Wie zu erwarten war, wenn CF korrekt funktioniert, zieht die Karte natürlich deutlich vorbei. Wenn nicht, wie in Gothic 3 ist sie hoffnungslos unterlegen. Überragend sind natürlich die 8AA Benchs. Die GX2 wird im übrigen nur mit 550Mhz takten, also ganz so eindeutig ist die Sache dann auch nicht, zumal die 3870 X2 schon öfter am CPU-Limit hängen dürfte.

Die mangelnde Zahl an CF Profilen ist dann auch mit der größte Nachteil der X2. Wie generell bei CF. Ich wünschte, ATI würde ENDLICH mal den Finger aus dem Arsch ziehen, die Profile öffentlich editierbar machen und auch mehr Spiele von Haus aus unterstützen.

reunion
2008-01-28, 07:45:01
...und unsere Gäste bashen fröhlich weiter.

Ohne nVidia wäre auch ATI wohl noch nicht mal auf dem Level einer Radeon 9700. Denk mal darüber nach.

Das war kein Gast, das war ich, genau wie der Beitrag darunter im übrigen. Und mit bashen hatte das IMHO nichts zu tun. Das Konkurrenz unabdingbar ist bestreitet niemand, aber so kurzfristige Nachfolger werden schon lange im vorraus geplant und haben wohl kaum was mit der Situation beim Konkurrenten zu tun. Damit wird eben dann sowohl bei AMD als auch bei nV das Geld für die Entwicklung wieder hereingespielt. Dein Argument zieht vielleicht, wenn AMD für mehrere Generationen abgeschlagen ist, aber nicht in der jetzigen Situation.

Gast
2008-01-28, 07:53:27
ausm CB:

ohman jetzt kommt dieser Tombman Spinner auch noch hier her,peinlicher Typ


:D:D:D:D:D:D

wirste auch da schon ausgelacht Tombman ich lach mich weg.

Hacki_P3D
2008-01-28, 07:54:54
http://www.golem.de/0801/57272.html


:biggrin: :rolleyes:

tombman
2008-01-28, 08:03:42
ausm CB:

ohman jetzt kommt dieser Tombman Spinner auch noch hier her,peinlicher Typ


:D:D:D:D:D:D

wirste auch da schon ausgelacht Tombman ich lach mich weg.
Laß die Kiddies doch lachen. Tombman ist ne Marke, und Kiddies lachen halt viel wenn der Tag lang ist. Im Endeffekt bleibt tombman bestehen, Kiddies kommen und gehen ;)

Btw, regge dich und poste wie ein Mann...

vinacis_vivids
2008-01-28, 08:24:24
Die 9800GX2 wird kein Licht sehen, sry Nvidia, aber wer Qualität und Speed will, kommt an ATi wohl nicht vorbei.

http://www.abload.de/img/3870x2aa3.jpg

tombman
2008-01-28, 08:28:15
8xAA ist unnötig...da wird doch jeder vorher die Auflösung erhöhen...

http://img245.imageshack.us/img245/553/fdvdfoq2.jpg (http://imageshack.us)

DrMabuse1963
2008-01-28, 08:31:00
Jo,und gleich kommen die Benches wo die Ultra vorn ist,ist doch immer das Gleiche:erst warten wir Monate auf ne Karte,dann warten wir ein Jahr auf den "Endlich vernünftigen Treiber",dann merken wir das wir schon seit Monaten veraltete Hardware haben...

Gast
2008-01-28, 08:34:43
8xAA ist unnötig...da wird doch jeder vorher die Auflösung erhöhen...

http://img245.imageshack.us/img245/553/fdvdfoq2.jpg (http://imageshack.us)

Mit dem Argument ist jedes AA unnötig, denn dann kann man ja immer gleich die Auflösung erhöhen. Nicht jeder hat einen Monitor der derartige Auflösungen darstellen kann, zumal eine höhere AA-Stufe allemal effizienter mit den Ressourcen umgeht als die Brachialmethode der hoheren Auflösung.

reunion

vinacis_vivids
2008-01-28, 08:37:57
"Die eigentliche Königsdisziplin der ATi Radeon HD 3870 X2 aber scheint das hochwertige, acht-fache Anti-Aliasing zu sein. Dort dreht die Dual-GPU-Karte regelrecht Bahnen um die Nvidia-Beschleuniger, die kein Land mehr sehen. Bereits in 1280x1024 kann sich die Radeon HD 3870 X2 um 31 Prozent von der GeForce 8800 Ultra absetzen und in 1600x1200 sind es schon 54 Prozent. Unter 2560x1600 deklassiert die Radeon HD 3870 X2 die GeForce 8800 Ultra bei acht-fachem Anti-Aliasing. Der Vorsprung beträgt satte 103 Prozent, womit die Radeon HD 3870 X2 doppelt so schnell wie die GeForce-Karte arbeitet – hier liegt noch viel Arbeit vor Nvidia."

Wer höchstmögliche Qualität haben will guckt sich das an: =)

http://www.abload.de/img/nvidiadeadro6.jpg

tombman
2008-01-28, 08:38:15
Mit dem Argument ist jedes AA unnötig, denn dann kann man ja immer gleich die Auflösung erhöhen. Nicht jeder hat einen Monitor der derartige Auflösungen darstellen kann, zumal eine höhere AA-Stufe allemal effizienter mit den Ressourcen umgeht als die Brachialmethode der hoheren Auflösung.

reunion
Zwischen 4xAA und 8xAA ist aber visuell kein großer Unterschied mehr. Ich nehm auf jedenfall lieber 4xAA+ eine res Stufe höher als 8xAA und eine Stufe drunter. Sieht IMO einfach knackiger aus. Klar, Monitor dazu muß man erstmal haben, das stimmt.

tombman
2008-01-28, 08:38:57
"Die eigentliche Königsdisziplin der ATi Radeon HD 3870 X2 aber scheint das hochwertige, acht-fache Anti-Aliasing zu sein. Dort dreht die Dual-GPU-Karte regelrecht Bahnen um die Nvidia-Beschleuniger, die kein Land mehr sehen. Bereits in 1280x1024 kann sich die Radeon HD 3870 X2 um 31 Prozent von der GeForce 8800 Ultra absetzen und in 1600x1200 sind es schon 54 Prozent. Unter 2560x1600 deklassiert die Radeon HD 3870 X2 die GeForce 8800 Ultra bei acht-fachem Anti-Aliasing. Der Vorsprung beträgt satte 103 Prozent, womit die Radeon HD 3870 X2 doppelt so schnell wie die GeForce-Karte arbeitet – hier liegt noch viel Arbeit vor Nvidia."

Wer höchstmögliche Qualität haben will guckt sich das an: =)

http://www.abload.de/img/nvidiadeadro6.jpg

ATI war im unspielbaren Bereich schon immer schneller, interessiert nur keinen ;D

vinacis_vivids
2008-01-28, 08:40:33
Zwischen 4xAA und 8xAA ist aber visuell kein großer Unterschied mehr. Ich nehm auf jedenfall lieber 4xAA+ eine res Stufe höher als 8xAA und eine Stufe drunter. Sieht IMO einfach knackiger aus. Klar, Monitor dazu muß man erstmal haben, das stimmt.

Träum mal weiter. Aber ich sags nur: Wer die bittere Wahrheit nicht sehen will, wird sie auch nicht erkennen.

MadManniMan
2008-01-28, 08:40:47
Ihr geht mir auf die Eier!

Anstatt einmal das Ganze wenigstens bemüht objektiv zu betrachten, zieht der eine die Benches ran, wo die X2 schlecht da steht und der nächste, wo sie besonders gut da steht :|

Leute, ihr wisst doch, dass ihr nur kostenlose Propaganda macht *kopfschüttel*


...was ich erschreckend finde: bei der Computerbase wird - versteckt zwischen Lob an allen Ecken und Enden! - nur mal ganz kurz auf die AFR-Problematik verwiesen, bei Hartware wird nur gelobt. Immerhin kommt von Hardtecs die Anmerkung, dass Dual-Chip auch Nachteile besitzt, relativiert das aber sogleich wieder. Von Mikrorucklern kein Wort... Zum Kotzen!

Gast
2008-01-28, 08:44:20
ATI war im unspielbaren Bereich schon immer schneller, interessiert nur keinen ;D

Hast du dir die Werte überhaupt angesehen? Wohl kaum. Die 3870 X2 schafft in der Auflösung im Gegensatz zu den nV-Karten fast überall flüssige FPS.

tombman
2008-01-28, 08:44:22
Träum mal weiter. Aber ich sags nur: Wer die bittere Wahrheit nicht sehen will, wird sie auch nicht erkennen.
Du solltest deine zurechtgelegten Standardsätze vielleicht passender einsetzen :rolleyes:

Gast
2008-01-28, 08:44:35
Träum mal weiter. Aber ich sags nur: Wer die bittere Wahrheit nicht sehen will, wird sie auch nicht erkennen.

/sign

AnarchX
2008-01-28, 08:44:41
Auf den eher geringen Mehrgewinn von 8x gegenüber 4xMSAA bestehen, aber den mangelhaften anisotropen Filter der HD3000-Serie einfach akzeptieren. X-D


Mikroruckler scheint CB wohl nicht anzusprechen? :|

Gast
2008-01-28, 08:45:03
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/21/#abschnitt_crysis

Ansonsten aber sehr schnell! Wann wird sich das in Crysis ändern? was ist da los?

vinacis_vivids
2008-01-28, 08:45:20
Ich brauch hier nichts zu drehen, der Rote Balken ist bei jeder Auflösung und jeder Qualität länger. Mal mehr mal weniger.
Mikroruckler ist kein ATI spezifisches Problem.... ich geh pennen....

tombman
2008-01-28, 08:45:43
Hast du dir die Werte überhaupt angesehen? Wohl kaum. Die 3870 X2 schafft in der Auflösung im Gegensatz zu den nV-Karten fast überall flüssige FPS.
Ja, aber nur bei games die ned viel verlangen. Wir schreiben das Jahr 2008 und haben DX10 games. Da will ich mal sehen wie die X2 2560x1600 in 8xAA flüssig schafft ;)

vinacis_vivids
2008-01-28, 08:46:14
Auf den eher geringen Mehrgewinn von 8x gegenüber 4xMSAA bestehen, aber den mangelhaften anisotropen Filter der HD3000-Serie einfach akzeptieren. X-D

Der letzte der Versucht die grüne Flagge hochzuhalten. Zeig mir mal den schlechten Filter von ATI =)

Gast
2008-01-28, 08:47:47
Rofl, Nvidia muß ja sooo Angst haben ;)

http://img208.imageshack.us/img208/8241/atix2lolfj5.jpg (http://imageshack.us)

Im Vergleich zur G92 GTS sind das vielleicht max. 25%. SLI hat aber eine höhere Skalierung als 25% ;)

Tjo, die GX2 wird wohl wieder davonziehen.

Das würde deutlich besser aussehen wenn die Karte in UT3 mit AA nicht den Dienst quittieren würde, was CB ja bekanntlich als 0fps in die Wertung einfließen lässt.

Grestorn
2008-01-28, 08:49:42
Der letzte der Versucht die grüne Flagge hochzuhalten. Zeig mir mal den schlechten Filter von ATI =)

Wozu überhaupt eine Flagge hochhalten? Was das angeht bist Du nämlich unschlagbarer Meister. Du hältst nicht nur eine rote Flagge hoch, Du zündest einen ganzen Urwald rot leuchtend an.

AnarchX
2008-01-28, 08:52:02
Der letzte der Versucht die grüne Flagge hochzuhalten. Zeig mir mal den schlechten Filter von ATI =)

Der mit der Flagge bin nicht ich... ;)

Und die Meinung über das AF kommt vom "Filter-Guru" Raff persönlich und Bilder/Videos gibt es dazu genügend hier im Forum.

Sicherlich schlägt sich die Karte unter 8xMSAA gut, aber nur weil hier NV gerade nicht besonders gut ist. Aber sie bieten dafür alternative Modis an, welche minimal schlechtere Qualität bei deutlich besserer Leistung bieten oder deutlich bessere Qualität bei gleicher Leistung.

Schlammsau
2008-01-28, 08:52:15
Vermutlich gar nicht! Crysis läuft auf den HD38xx Karten nicht wrklich gut!

tombman
2008-01-28, 08:54:44
Das würde deutlich besser aussehen wenn die Karte in UT3 mit AA nicht den Dienst quittieren würde, was CB ja bekanntlich als 0fps in die Wertung einfließen lässt.
Die ATIs quittieren öfter mal den Dienst, sprich Bildfehler in games. Ausgebessert wird das innerhalb eines Monats beim nächsten Cat - vielleicht ;)
Nvidia ist einfach flexibler und kompatibler. TWIMTBP eben ;)
Vielleicht sollte ATI anfangen die selben Anstrengungen wie Nvidia bei den devs einzuleiten. Dev support zahlt sich eben aus...

vinacis_vivids
2008-01-28, 08:57:15
Der mit der Flagge bin nicht ich... ;)

Und die Meinung über das AF kommt vom "Filter-Guru" Raff persönlich und Bilder/Videos gibt es dazu genügend hier im Forum.

Sicherlich schlägt sich die Karte unter 8xMSAA gut, aber nur weil hier NV gerade nicht besonders gut ist. Aber sie bieten dafür alternative Modis an, welche minimal schlechtere Qualität bei deutlich besserer Leistung bieten oder deutlich bessere Qualität bei gleicher Leistung.

Nene ich will jetzt die schlechten Filter von ATI sehen. Zeigs mir mal pls, konnte jetzt nirgends auf die schnelle videos finden. Ich guck grad mr. Raffs Beträge durch wo denn das aufgepuschte Filterproblem sein soll.

Gosh
2008-01-28, 08:58:32
Crysis is erstens mies programmiert und zweitens gehört es zum Werbefeldzug von Nvidia.Wie Doom3 Engine,auch fast nur für Nvidia geschrieben.
Sagt also nichts aus

HOT
2008-01-28, 09:00:39
8xAA ist unnötig...da wird doch jeder vorher die Auflösung erhöhen...

http://img245.imageshack.us/img245/553/fdvdfoq2.jpg (http://imageshack.us)
Eigentlich nicht. Die Auflösung ist durch den Monitor beschränkt und meist um die 1600 bei der Klasse. Da ist 8x AA einfach klasse. Mehr Auflösung ist eigentlich Quatsch. Zum Zocken darf der Monitor eh nicht viel grösser als 22" sein.

tombman
2008-01-28, 09:00:46
Ganz schlimm finde ich ja das hier:

http://img163.imageshack.us/img163/6121/ferfeferferfenj1.jpg (http://imageshack.us)

In D3D10 zu versagen ist unverzeihlich IMO.

tombman
2008-01-28, 09:01:54
Eigentlich nicht. Die Auflösung ist durch den Monitor beschränkt und meist um die 1600 bei der Klasse. Da ist 8x AA einfach klasse. Mehr Auflösung ist eigentlich Quatsch. Zum Zocken darf der Monitor eh nicht viel grösser als 22" sein.
Dann komm mal her und schau dir 2304x1440 in 4xAA an. Höhere Auflösung ist einfach knackiger, das kann 8xAA nicht ausgleichen ;)

tombman
2008-01-28, 09:06:01
Crysis is erstens mies programmiert
...sagte der M.I.T. Chefprogrammierer mit Nobelpreis :rolleyes:

und zweitens gehört es zum Werbefeldzug von Nvidia.Wie Doom3 Engine,auch fast nur für Nvidia geschrieben.
Sagt also nichts aus
Ja klar, Devs wollen kein Geld mit Spielen verdienen, nein, sie tun Nvidia nur einen Gefallen :uhammer:

Nur registriert um Tombman auf ignore zu setzen
Das hast ja jetzt erledigt- also tschüss und cu @ luxx.de ;D;D

Gast
2008-01-28, 09:06:37
Wer ja mal cool wen ich diesen crossfire button finde im ccc

Skullcleaver
2008-01-28, 09:06:59
MSAA schonmal garnicht. Mit Supersample wäre das allerhöchstens noch möglich da halbwegs mitzukommen.

=Floi=
2008-01-28, 09:08:38
Hallo der GDDR3 speicher ist auch noch so eine sache


http://img299.imageshack.us/img299/8789/lautstrkeik4.png
Jennifer Lopez - Let's Get Loud ;D

tombman
2008-01-28, 09:09:19
Wie ist das eigentlich: rennt X2 CF (=4 gpus) jetzt auf allen mobos oder wieder nur CF mobos?

AnarchX
2008-01-28, 09:15:16
Nene ich will jetzt die schlechten Filter von ATI sehen. Zeigs mir mal pls, konnte jetzt nirgends auf die schnelle videos finden. Ich guck grad mr. Raffs Beträge durch wo denn das aufgepuschte Filterproblem sein soll.
Das solltest du schon selbst recherchieren, die Infos sind hier leicht zu finden. Eric Demers himself ist übrigens auch nicht wirklich zufrieden mit dem AF der R6xx. ;)

Wenn du von der AF-Problematik nichts mitbekommen hast, dann bist du imo ignorant oder einfach nicht qualifiziert genug für weitere Diskussionen. Also EOD bis du es bist.
Hallo der GDDR3 speicher ist auch noch so eine sache
http://img299.imageshack.us/img299/8789/lautstrkeik4.png
Jennifer Lopez - Let's Get Loud ;D
Techreport muss das auch bestätigen:
http://techreport.com/articles.x/13967/10
... wobei die GPUs recht kühl zu sein scheinen, sodass hier noch Potential für Senkungen ist.

btw.

Copied from XtremeSystems' forums http://www.xtremesystems.org/forums/showthread.php?t=174988:
Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=3209) uses a EVGA nForce 780i SLI, ATI: 8-451-2-080123a
Computer Base (http://translate.google.com/translate?hl=en&sl=de&u=http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dhttp://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/%26hl%3Den%26sa%3DG) using Asus P5W DH Deluxe (Intel i975X) with Cat 8-451-2-080123a
Hardware Canucks (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/4236-ati-radeon-hd3870-x2-1gb-review.html) using Asus Blitz Extreme (P35) with Cat 8.451.2-080
Hot Hardware (http://www.hothardware.com/Articles/R680%5FHas%5FLanded%5FATI%5FRadeon%5FHD%5F3870%5FX2) using a EVGA nForce 680i SLI, Cat ATI Catalyst Bets v8.451
PCPOP (http://translate.google.com/translate?hl=en&sl=zh-CN&u=http://www.pcpop.com/doc/0/266/266637_15.shtml&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dhttp://www.pcpop.com/doc/0/266/266637_15.shtml%26hl%3Den%26sa%3DG) using ASUS Maximus Formula (X38) and Cat 8.1 (no indication of updated drivers)
TechPowerUp (http://www.techpowerup.com/reviews/HIS/HD_3870_X2/) using a Gigabyte P35C-DS3R Intel P35, Catalyst 8.12 v8.451.2
Tech Report (http://techreport.com/articles.x/13967) using Gigabyte GA-X38-DQ6 with Cat 8.451.2-080116a-057935E
Tom's Hardware (http://www.tomshardware.com/2008/01/28/ati_r680_the_rage_fury_maxx_2/) using Asus P5E3 Deluxe (X38) with Cat Asus P5E3 Deluxe (X38)

GanjaBob
2008-01-28, 09:19:37
naja, 57% (1600 aa, af) schneller als 3870 single geht doch i.o.

wunder brauch man da keine zu erwarten.

Tarkin
2008-01-28, 09:22:26
http://images.tomshardware.com/2008/01/28/ati_r680_the_rage_fury_maxx_2/image011.png

also ich finde das ist nicht übel...

GanjaBob
2008-01-28, 09:23:57
Gothic 3 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/12/#abschnitt_gothic_3) is da schon viel übler :usad:

Schlammsau
2008-01-28, 09:25:40
@all
immer das gleich gesülze hier..... das nervt so!!! Akzeptiert es doch einfach, seit heute hat ATI den längeren ePenis! Und das für gutes Geld!
Bald wird es wieder nVidia sein, usw.....!

Odal
2008-01-28, 09:25:42
Vermutlich gar nicht! Crysis läuft auf den HD38xx Karten nicht wrklich gut!

ich glaube das liegt zum einen daran das nvidia bei crysis recht viel geld reingebuttert hat und dementsprechend crysis auch eher erstmal dafür optimiert ist und dann daran das das dx10 crysis benches sind....und die dx10 vista ati treiber sind derzeit noch recht mies

ich denke mal unter xp und mit dx9 wär der unterschied deutlich geringer

pest
2008-01-28, 09:27:27
rofl der Test bei Computerbase ist naja nicht sehr aussagekräftig

Nur als Bsp. Call Of Juarez (1280x1024)

im Test zur HD3870:

HD3870: 32,3 fps
8800 Ultra: 31,2 fps

im Test zur HD3870X2:
HD3870: 31,1 fps
8800 Ultra: 46,3 fps

:ulol:

Gast
2008-01-28, 09:27:38
Wie ist das eigentlich: rennt X2 CF (=4 gpus) jetzt auf allen mobos oder wieder nur CF mobos?

Momentan rennt das noch gar nicht. Der Treiber für Quad/Triple-CF kommt erst im März. Dann allerdings wohl auf allen Chipsätzen wenn man den Worten von AMD-Marketingchef glauben kann.

reunion

AnarchX
2008-01-28, 09:28:02
ich glaube das liegt zum einen daran das nvidia bei crysis recht viel geld reingebuttert hat und dementsprechend crysis auch eher erstmal dafür optimiert ist
Naja, viele Optimierung kommen auch ATi zu Gute.

ich denke mal unter xp und mit dx9 wär der unterschied deutlich geringer
Eher schlimmer:
http://www.hardtecs4u.com/reviews/2008/amd_radeon_hd_3870_x2/index15.php

Gast
2008-01-28, 09:29:15
btw.

Copied from XtremeSystems' forums http://www.xtremesystems.org/forums/showthread.php?t=174988:
Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=3209) uses a EVGA nForce 780i SLI, ATI: 8-451-2-080123a
Computer Base (http://translate.google.com/translate?hl=en&sl=de&u=http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dhttp://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/%26hl%3Den%26sa%3DG) using Asus P5W DH Deluxe (Intel i975X) with Cat 8-451-2-080123a
Hardware Canucks (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/4236-ati-radeon-hd3870-x2-1gb-review.html) using Asus Blitz Extreme (P35) with Cat 8.451.2-080
Hot Hardware (http://www.hothardware.com/Articles/R680%5FHas%5FLanded%5FATI%5FRadeon%5FHD%5F3870%5FX2) using a EVGA nForce 680i SLI, Cat ATI Catalyst Bets v8.451
PCPOP (http://translate.google.com/translate?hl=en&sl=zh-CN&u=http://www.pcpop.com/doc/0/266/266637_15.shtml&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dhttp://www.pcpop.com/doc/0/266/266637_15.shtml%26hl%3Den%26sa%3DG) using ASUS Maximus Formula (X38) and Cat 8.1 (no indication of updated drivers)
TechPowerUp (http://www.techpowerup.com/reviews/HIS/HD_3870_X2/) using a Gigabyte P35C-DS3R Intel P35, Catalyst 8.12 v8.451.2
Tech Report (http://techreport.com/articles.x/13967) using Gigabyte GA-X38-DQ6 with Cat 8.451.2-080116a-057935E
Tom's Hardware (http://www.tomshardware.com/2008/01/28/ati_r680_the_rage_fury_maxx_2/) using Asus P5E3 Deluxe (X38) with Cat Asus P5E3 Deluxe (X38)

Ja, leider kaum PCIe2.0 Mobos, was bei der Karte ziemlich wichtig wäre, und zum teil deutliche Leistungssteigerungen bringen sollte.

Skullcleaver
2008-01-28, 09:29:54
@all
immer das gleich gesülze hier..... das nervt so!!! Akzeptiert es doch einfach, seit heute hat ATI den längeren ePenis! Und das für gutes Geld!
Bald wird es wieder nVidia sein, usw.....!

AMD und nein haben sie nicht Triple Sli lässt grüßen.

AnarchX
2008-01-28, 09:31:15
Ja, leider kaum PCIe2.0 Mobos, was bei der Karte ziemlich wichtig wäre, und zum teil deutliche Leistungssteigerungen bringen sollte.
Die verbaut PLX-Bridge scheint aber nur PCIe 1.1 zu beherrschen:
http://img175.imageshack.us/img175/9737/12012045286jzmqmn9sx12lkm3.png (http://imageshack.us)
The first thing you will notice in the slide above is that the bridge chip on board is using the PCIe 1.1 protocol and not the new 2.0 (Gen2) protocol. This was done for several reasons; one being that AMD is very familiar with this particular bridge chip, so they can mass produce it in fairly short order. If they had gone with the PCIe Gen2 chip they would have had to wait for production and this card would be pushed back a few months.
http://enthusiast.hardocp.com/article.html?art=MTQ1NCwxLCxoZW50aHVzaWFzdA==

Momentan rennt das noch gar nicht. Der Treiber für Quad/Triple-CF kommt erst im März. Dann allerdings wohl auf allen Chipsätzen wenn man den Worten von AMD-Marketingchef glauben kann.

Wobei ein 2mal x8 Board wohl eher nicht zu bevorzugen wäre. :D

Gast
2008-01-28, 09:32:35
Darum kann ich crossfire nicht auf meinem mainboard aktivieren ?

P5w Dh Deluxe bios v 2504
quadcore 2.4
4 GB ram

AnarchX
2008-01-28, 09:33:39
Darum kann ich crossfire nicht auf meinem mainboard aktivieren ?

P5w Dh Deluxe bios v 2504
quadcore 2.4
4 GB ram

AFAIK muss man bei der X2, wie auch damals bei der GX2, kein CF aktivieren, das wird automatisch gemacht. Der CF-Schalter kommt erst wenn man zwei X2 verbaut hat. ;)

Tarkin
2008-01-28, 09:35:50
Ganz schlimm finde ich ja das hier:

http://img163.imageshack.us/img163/6121/ferfeferferfenj1.jpg (http://imageshack.us)

In D3D10 zu versagen ist unverzeihlich IMO.


Mir ist es ja echt zu blöd mich an so einer dämlichen Diskussion zu beteiligen... aber was du hier abziehst ist echt krank.

1. Tatsache ist, dass die 3870X2 BILLIGER ist als die Ultra - und das um min. €100,-!!!
2. Tatsache ist, dass sie in den Computerbase Ratings ÜBERALL vor der 8800 Ultra landet - hier gerade die Grafik zu posten, in der die X2 nur knapp voran liegt.... naja, wie soll ich sagen.... leicht voreingenommen, findet du nicht?!
3. Leider ist es nämlich so, dass die X2 sogar teilweise fast doppelt so schnell ist
4. Das GESÜLZE von wegen "das sind ja zwei Chips auf einer Karte, das gilt nicht" - ist höchtsgradig schwachsinnig - der Erste der hier einen blöden Thread startet mit "wie die 8800GX2 auszog um ihrer großen Schwester der Ultra den Hintern zu versolen" bist DU!

Also bitte tu uns den Gefallen und HALTE DEN RAND, ja?

Es ist nur eine SHICE Grafikkarte !!!

Meiner Meinung hat ATI die Aufgabe erfüllt.. und zwar nvidias ULTRA mit einer Single-Karte (wie viel chips da drauf sind ist vollkommen SCHNUPPE), bei deutlich günstigerem Preis - relativ deutlich zu schlagen.

DrMabuse1963
2008-01-28, 09:36:25
?Schlechtes OC wegen 2 Bios auf einer Karte,erst mal auch kein Grund zur Freude.
http://www.gamestar.de/news/pc/hardware/grafikkarten/amd/1477197/amd.html

AnarchX
2008-01-28, 09:37:43
?Schlechtes OC wegen 2 Bios auf einer Karte,erst mal auch kein Grund zur Freude.
http://www.gamestar.de/news/pc/hardware/grafikkarten/amd/1477197/amd.html

Unsinn, dass kein 860MHz Lock mehr besteht, sieht man ja an den OC-Ergebnissen aus den Reviews (z.B. CB mit 878MHz).

Odal
2008-01-28, 10:02:03
naja wie gesagt wirklich gut läuft crysis (noch?) nicht...

aber wenn ich mir das hier mal anschaue

http://images.anandtech.com/graphs/atiradeonhd3870x2_012708225732/16433.png
Cat. 8-451-2-080123a

http://techreport.com/r.x/radeon-hd-3870-x2/crysis-1680.gif
Cat. 8.451.2-080116a-057935E

ist da ja scheinbar auch mit treiberabhängig...

weiss einer wo ich den 8.451.2-080116a-057935E herbekomme?

[dzp]Viper
2008-01-28, 10:04:00
Hm die von Hartware.net haben in Crysis GANZ andere Ergebnisse (solange kein AA aktiv ist) :eek:

http://www.hartware.de/review_785_12.html

/edit: Achso - bei hartware.net haben sie nur unter DX9 getestet... da ist die Karte natürlich schneller.

Unter DX10 ist und bleibt die Karte einfach merklich langsamer... ;(

ShadowXX
2008-01-28, 10:08:50
Mir ist es ja echt zu blöd mich an so einer dämlichen Diskussion zu beteiligen... aber was du hier abziehst ist echt krank.

1. Tatsache ist, dass die 3870X2 BILLIGER ist als die Ultra - und das um min. €100,-!!!
2. Tatsache ist, dass sie in den Computerbase Ratings ÜBERALL vor der 8800 Ultra landet - hier gerade die Grafik zu posten, in der die X2 nur knapp voran liegt.... naja, wie soll ich sagen.... leicht voreingenommen, findet du nicht?!
3. Leider ist es nämlich so, dass die X2 sogar teilweise fast doppelt so schnell ist
4. Das GESÜLZE von wegen "das sind ja zwei Chips auf einer Karte, das gilt nicht" - ist höchtsgradig schwachsinnig - der Erste der hier einen blöden Thread startet mit "wie die 8800GX2 auszog um ihrer großen Schwester der Ultra den Hintern zu versolen" bist DU!

Also bitte tu uns den Gefallen und HALTE DEN RAND, ja?

Es ist nur eine SHICE Grafikkarte !!!

Meiner Meinung hat ATI die Aufgabe erfüllt.. und zwar nvidias ULTRA mit einer Single-Karte (wie viel chips da drauf sind ist vollkommen SCHNUPPE), bei deutlich günstigerem Preis - relativ deutlich zu schlagen.
Aber auch nur bei Games die CF unterstützen.....bei Golem haben Sie ohne danach zu suche mehre davon erwischt die dies nicht tun, als man denkt....mit entsprechenden Ergebnissen.
Insgesamt ist der Test bei Golem etwas neutraler und kritischer als die von CB & Co.

Und nebenbei: Ich weiß wirklich nicht was es großartig daran zu Jubeln gibt, das ATI nun nach über 1nem Jahr es tatsächlich geschafft hat ne Karte auf den Markt zu bringen die nV "endlich" schlägt. Dazu eine, die Ihre Macken hat, da es nunmal 2 GPUs sind (und das hat nunmal Nachteile, egal ob die nun auf einem Brett moniert sind oder als 2 Karten im Rechner stecken).
Als Meisterleistung wurde ich das nicht gerade betrachten.

Leider macht nV den gleichen Unsinn mit der GX2....

[dzp]Viper
2008-01-28, 10:08:56
In jedem Review gibt es andere Benchmarkwerte.

Ich glaube, dass da noch irgendwo ein Wurm drin ist.. oder manche Tester einfach nicht wissen wir man die Karte richtig handelt :|

Odal
2008-01-28, 10:09:01
bei dem integrierten benchmark bin ich sowieso etwas verwundert da ich da mit ner custom config von schlammsau ca. 23FPS hab wo er knapp 27-28FPS hat mit dem unterschied das meine 3850 mit 960mhz auf der gpu läuft und seine bei 750-770

Gast
2008-01-28, 10:13:43
Crysis is erstens mies programmiert und zweitens gehört es zum Werbefeldzug von Nvidia.Wie Doom3 Engine,auch fast nur für Nvidia geschrieben.
Sagt also nichts aus

Das Hauptproblem für die AMD-Karten dürfte wohl sein das Crysis einen Z-First-Pass macht, wo sich natürlich die höhere Z-Füllrate der NV-Karten auszahlt.

reunion

Gast
2008-01-28, 10:16:27
Im CCC habe ich nur eine als grafik adapter.
Und bei graphicshardware im ccc sagt er das hier :

Graphics Card Manufacturer Powered by ATI
Graphics Chipset ATI Radeon HD 3870 X2
Device ID 950F
Vendor 1002

Subsystem ID 0244
Subsystem Vendor ID 1043

Bus Type PCI Express 2.0
Current Bus Setting PCI Express 2.0 x16

BIOS Version 010.075.000.002
BIOS Part Number 113-B40001-102
BIOS Date 2007/12/14

Memory Size 512 MB
Memory Type DDR3

Core Clock in MHz 825 MHz
Memory Clock in MHz 901 MHz

Primary Display Yes


Bei Memory sitze sollte doch 1024 stehen oder ?

Gast
2008-01-28, 10:18:38
Nein, AMD gibt den tatsächlich nutzbaren Wert an:
http://www.hardtecs4u.com/reviews/2008/amd_radeon_hd_3870_x2/index6.php

Andere Frage: woher hast du schon eine Karte?

Gast
2008-01-28, 10:19:29
seit Samstag www.stegpc.ch :-)