PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD 3870/3850: (P)Review-Thread, Teil 2


Seiten : [1] 2

Banshee18
2007-12-03, 17:56:43
Teil 1:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=390882

http://img408.imageshack.us/img408/8283/387095c416ut5we8.jpghttp://img408.imageshack.us/img408/1784/385095e22dcc0dm5.jpg

Testberichte:

deutsch:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/1/#abschnitt_einleitung
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/kurztest_ati_radeon_hd_3870_rv670/
http://www.pcgameshardware.de/?article_id=621293
http://www.hartware.de/review_763.html
http://www.hardtecs4u.com/reviews/2007/amd_hd3850/
ATi Radeon HD 3850 - Ein weiterer Preis-Leistungs-Knüller? @CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850)


englisch u. andere Sprachen:
3870 Review @ legionhardware.com (http://www.legionhardware.com/document.php?id=703&p=0)
http://www.tweaktown.com/reviews/1222/asus_radeon_hd_3870_512mb_g_ddr4/index.html
http://sg.vr-zone.com/articles/AMD_Radeon_HD3850_and_HD3870_-_AMD%27s_salvation%3F/5392.html
http://www.pcper.com/article.php?type=expert&aid=482
http://www.anandtech.com/video/showdoc.aspx?i=3151
http://www.hothardware.com/articles/ATI_Radeon_HD_3870_and_3850_55nm_RV670/
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/3270-his-radeon-hd3870-review-crossfire-performance-preview.html
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=490&Itemid=27
http://www.hexus.net/content/item.php?item=10415
http://www.firingsquad.com/hardware/amd_rv670_performance_preview/
http://enthusiast.hardocp.com/article.html?art=MTQxOSwxLCxoZW50aHVzaWFzdA==
http://www.ngohq.com/home.php?page=articles&go=page15&arc_id=137
http://techreport.com/articles.x/13603

Erwähnenswerte Versionen:

- alle bei uns erhätliche Karten im Preisvergleich (http://geizhals.at/deutschland/?fs=HD38&x=0&y=0&in=)

Spezfikationen:

GPU:

Bezeichnung: RV670
Größe: 192mm²
Prozess: 55nm
Transistorenanzahl: 666 Mio.

Funktionseinheiten:

64 Vec5-ALUs (~320 SPs MADD)
32 TAs, 16 bi-TMUs
16 ROPs (2 Z)
256-Bit Speicherinterface (8-fach unterteilt)


3850:
256/512MiB GDDR3

3870:
512MiB GDDR4

Taktraten:

HD 3870:

TMU/ROPs: 775MHz
Shadertakt: 775MHz
Speichertakt: 1125MHz

HD 3850:

TMU/ROPs: 670MHz
Shadertakt: 670MHz
Speichertakt: 830MHz


Theoretische Leistungs-Daten:

HD 3870:

Pixelfüllrate: 12400 MPix/s
Texelfüllrate: 12400 MTex/s
arithmetische Leistung: MADD -> 496 GFLOPs
Speicherbandbreite: 72 GB/s

HD 3850:

Pixelfüllrate: 10720 MPix/s
Texelfüllrate: 10720 MTex/s
arithmetische Leistung: MADD -> 429 GFLOPs
Speicherbandbreite: 53,1 GB/s

8800 GT:

Pixelfüllrate: 9600 MPix/s
Texelfüllrate: 33600 MTex/s
arithmetische Leistung: MADD -> 336 GFLOPs, MADD+MUL -> 504 GFLOPs
Speicherbandbreite: 57,6 GB/s

2900 XT:

Pixelfüllrate: 11840 MPix/s
Texelfüllrate: 11840 MTex/s
arithmetische Leistung: MADD -> 475 GFLOPs
Speicherbandbreite: 105,6 GB/s


>Zum Vergleichen (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/2/#abschnitt_technische_daten) und hier< (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/2/#abschnitt_technische_daten)


Weitere Testberichte:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4691&Itemid=40&limit=1&limitstart=0

Mephisto
2007-12-03, 18:04:18
Es fehlt leider der Link von Teil 1 nach Teil 2.

Banshee18
2007-12-03, 18:06:09
Nicht so ungeduldig. ;)

Hübie
2007-12-03, 18:09:05
lol ;)

Das hätte mich auch etwas stutzig gemacht, da es bei MGPU-Lösungen mit der momentanen Technik garnet klappen würde den VRAM zu verdoppeln (pro PCB...)


bye Hübie

Gast
2007-12-04, 01:08:41
So langsam tut sich was am Markt, aber zufrieden bin ich immer noch nicht.

Von MSI gibt es zur Zeit eine HD3870 mit 800/1220er Taktraten, während Geizhals eine HD3870 von ASUS mit 850/1140 MHz listet, aber zu über 300 Euro. Das passt voll nicht. :)
Warum sparen die bei der Karte mit höchstem GPU Takt gerade an Bandbreite?

vinacis_vivids
2007-12-04, 13:08:59
Statusbericht zur Bestellung der 170,- HD 3870 ;D;D;D

"Für den von Ihnen bestellten Artikel (1023DG) 'Club3D HD3870, 512MB, ATI Radeon HD 3870, PCI-Express' liegt uns von Seiten des Herstellers immer noch kein voraussichtliches Lieferdatum vor.

Sobald der Artikel bei uns eingegangen ist, werden wir Ihnen diesen schnellstmöglich zuschicken."

Gast
2007-12-04, 14:31:51
Schön abwarten wenns noch net Ostern ist.

tomsen
2007-12-04, 15:19:14
Also für mich ist es immer noch unerklärlich, das ich mit Crossfire bei Crysis im Level Core fast 180% mehr Frames habe. Evtl. wird vom Treiber was geändert, weniger Texturen etc. Leider sind das bisher nur Vermutungen.

Unreal Tournament 3 habe ich natürlich auch getestet mit Crossfire, aber es ist äußerst schwierig das festzustellen, da ich bereits mit einer Karte schon nicht unter FPS komme.^^

Nen Freund hat Fear getestet und kommt auch von etwa 66FPS auf über 90FPS Average mit CF. Also bis jetzt unterstützen beinahe alle Games die wir getestet haben Crossfire.

Razor
2007-12-04, 15:24:49
Also bis jetzt unterstützen beinahe alle Games die wir getestet haben Crossfire.
Umgekehrt wird da wohl ein Schuh draus...
Und in etwa 50% Mehleistung ist auch das, was man CF (bei Unterstützung durch den Treiber) auch attestiert.

Razor

Gast
2007-12-04, 20:23:39
Mit nur 512MiB VRAM macht SLI oder Crossfire kaum Sinn.

puntarenas
2007-12-05, 00:49:34
Inwieweit relativiert Crossfire denn die relativ geringe Texturfüllrate mit nur 16 Textureinheiten auf den RV670er-Karten? Wird dieser Flaschenhals eventuell derart überdurchschnittlich (im Verhältnis zu den sonstigen Effizienzproblemen von CF/SLI) gedehnt, dass der Performancegewinn insgesamt etwas besser ausfällt?

AnarchX
2007-12-05, 10:29:11
Inwieweit relativiert Crossfire denn die relativ geringe Texturfüllrate mit nur 16 Textureinheiten auf den RV670er-Karten? Wird dieser Flaschenhals eventuell derart überdurchschnittlich (im Verhältnis zu den sonstigen Effizienzproblemen von CF/SLI) gedehnt, dass der Performancegewinn insgesamt etwas besser ausfällt?

Da durch AFR jede Karte abwechselnd ein Frame rendert, kann es keine "Öffnung des Flaschenhalses" geben.
Warum bei tomsen nun die Leistung sich mehr als verdoppelt muss irgendeinen anderen Grund haben, wie er auch schon vermutet.

puntarenas
2007-12-05, 11:44:51
Da durch AFR jede Karte abwechselnd ein Frame rendert, kann es keine "Öffnung des Flaschenhalses" geben.

Danke, eigentlich klar - jetzt wo du es sagst. Die darauffolgende Frage, ob es schon einen aussagekräftigen Test zu Crossfire auf P965-Boards (PCIe 16x/4x) gibt, spare ich mir dann einfach :D

Gast
2007-12-05, 11:58:07
Merke NV texureinheiten sind nicht gleich ati textureinheiten...
Das sind zwei unterschiedliche architekturen.

Cadmus
2007-12-05, 16:49:52
Selbst bei ebay alles weggeräumt ... So wird das nichts mit dem Crossfire-Gespann.

Edit: http://cgi.ebay.de/MSI-HD3870-HD-3870-OC-Grafikkarte-ATI-Kuehler-NEU_W0QQitemZ250193086800QQihZ015QQcategoryZ32200QQssPageNameZWDVWQQrdZ1QQcmdZVi ewItem :lol:

Mephisto
2007-12-05, 17:13:31
Wer bietet denn da 200€ für einen Kühler? :) Und wo stammt der her?

Cadmus
2007-12-05, 17:23:35
Wer bietet denn da 200€ für einen Kühler? :) Und wo stammt der her?
Wohl von der Karte hier:
http://www.tomshardware.com/de/HD3850-HD3870-8800GT-Crossfire-SLI,testberichte-239891-5.html

Gast
2007-12-05, 22:45:35
Alle schaut ihr auf den Preis, aber was ist mit der Leistung? :)

Ist da schon was bekannt, welche 3870 die schnellste sein wird?
Die von ASUS scheint jedenfalls doch nicht so teuer zu sein, wie ursprünglich gedacht: http://geizhals.at/eu/a296946.html

Einen Chip auf 850 MHz pretested, da kann ich nicht meckern! Leider haben sie dafür am Speicher gespart, andere kommen da schon auf 1,22 GHz.

puntarenas
2007-12-05, 23:34:50
Alle schaut ihr auf den Preis, aber was ist mit der Leistung? :)

Ich schau ganz entzückt auf die Verlustleistung und auch in Sachen Unterstützung der Entwicklung Freier Treiber leistet AMD durch die Veröffentlichung der Spezifikationen beachtliches :)


Einen Chip auf 850 MHz pretested, da kann ich nicht meckern! Leider haben sie dafür am Speicher gespart, andere kommen da schon auf 1,22 GHz.
Wäre auch interessant zu erfahren, ob sie an der Spannung etwas gedreht haben. Ansonsten dürfte da wohl eher nicht allzu aufwändig selektiert werden, wer die Garantie nicht braucht kriegt seine Standardkarte sicher auch auf 850Mhz.

Was ebenfalls fehlt sind Benches, in denen die Erhöhung des Speichertaktes unabhängig vom GPU-Takt gemessen wird. Es wäre interessant wo die größeren Reserven liegen. Insgesamt ist der Übertaktungsspielraum aber sowieso eher mager und der Zugewinn IMHO zu vernachlässigen.

Blutmaul
2007-12-05, 23:40:25
Die armen Bieter, extra ein Scheißbild reinstellen, damit niemand merkt, das es ein Kühler und keine Karte ist...ob alle die Fußnoten lesen?

Gast
2007-12-05, 23:41:53
Wäre auch interessant zu erfahren, ob sie an der Spannung etwas gedreht haben.
Das ist sogar das interessanteste an OC Karten.
Bei AMD kann man doch die Spannung leicht per ATI Tool oder so ändern. Warum geht das nicht bei nv? :(


Ansonsten dürfte da wohl eher nicht allzu aufwändig selektiert werden, wer die Garantie nicht braucht kriegt seine Standardkarte sicher auch auf 850Mhz.
So sicher?
Außerdem wäre es interessant, ob die preOC noch mehr Potential hat als die Default Karte.

Gast
2007-12-06, 00:11:13
Ansonsten dürfte da wohl eher nicht allzu aufwändig selektiert werden, wer die Garantie nicht braucht kriegt seine Standardkarte sicher auch auf 850Mhz.

Na das ist es ja. Ich mag mich nicht so lange damit aufhalten, sondern gleich loslegen. Das jede die 850 MHz packt, garantiert dir leider niemand.

Wären immerhin 10% mehr Leistung und das für einen Aufpreis von sagen wir mal 20-30€ inkl. Garantie. So siehts im Vergleich zur 8800GT doch um einiges besser aus.

puntarenas
2007-12-06, 00:48:12
Wären immerhin 10% mehr Leistung und das für einen Aufpreis von sagen wir mal 20-30€ inkl. Garantie. So siehts im Vergleich zur 8800GT doch um einiges besser aus.
Da wäre ich vorsichtig, der Taktvorteil wird vermutlich kaum vollständig in Mehrleistung umgesetzt.

Schau mal ins Performancerating (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating_qualitaet) bei ComputerBase. Die dort getestete übertaktete HD3870 (800/1200) hat gegenüber einer Standardausführung (775/1125) einen Taktvorteil bei der GPU von ca. 3,2% und beim Speicher von ca. 6,6%.
Im Performancerating liegt die übertaktete Karte dann zwischen 2,8% und 4,8% ohne AA/AF und zwischen 2,8% und 5,2% mit Qualitätssettings vorn. Sie setzt ihre geringen Taktvorteile also garnicht mal so schlecht um, nur woran liegts?

Jetzt würde ich wirklich gern wissen, was mehr bringt. Vermutlich machts sogar die Mischung, wirklich zu dumm dass ASUS den Speicher nicht auch gleich höher taktet.

Außerdem hat ComputerBase die übertaktete Karte leider nicht mit in der Verbrauchsmessung, sonst hätte man vielleicht einen Hinweis zur Frage der Spannungserhöhung erhalten. Besonders interessieren würde mich dabei, ob eventuell auch die Idle-Spannung und Taktraten leicht erhöht sind. Das wäre ärgerlich, besonders solange keine Berichte vorliegen, ob man sich wie bei den R580ern mit RaBit und WinFlash wieder bequem ein schönes Stromspar-BIOS Ultra basteln kann.

Gast
2007-12-06, 02:45:32
Im Performancerating liegt die übertaktete Karte dann zwischen 2,8% und 4,8% ohne AA/AF und zwischen 2,8% und 5,2% mit Qualitätssettings vorn. Sie setzt ihre geringen Taktvorteile also garnicht mal so schlecht um, nur woran liegts?

Ich würde behaupten: Das Rating ist fürn Arsch. ;)
Im Rating gehen alle Anwendungen ein, auf Treiberfehler und CPU Limits (die teilweise immer noch vorliegen z.B. Oblivion, egal welche Auflösung) wird dabei keine Rücksicht genommen.

Besser wäre hier ein Test a la 3DCenter. Savegames mit GPU intensiver Stelle...
Die 1920er Auflösung vermisse ich bei denen ebenfalls, ist doch gerade diese Auflösung immer mehr im kommen, egal ob Notebook, TFT oder HD-Geräte.
Immerhin sieht man dort einen recht schönen Vorteil von 5,2 % bei 1600x1200 8xAA/16xAF, also schon mehr als die mageren 3,1 % bei 1600x1200 4xAA/16xAF.

Gast
2007-12-06, 03:03:12
REVIEW GeCube Radeon HD 3850 X-Turbo III 512 MB

http://www.techpowerup.com/reviews/GeCube/Radeon_HD_3850_X-Turbo-III/1.html

up¦²
2007-12-06, 11:40:39
Vonwegen Crossfire funzt nicht in Crysis... :biggrin:
ATI Radeon HD 3870 CrossFire Video Card Review
http://www.legitreviews.com/article/605/1/

AnarchX
2007-12-06, 11:42:13
Vonwegen Crossfire funzt nicht in Crysis... :biggrin:
ATI Radeon HD 3870 CrossFire Video Card Review
http://www.legitreviews.com/article/605/1/
CrossFire on the Radeon HD 3870 with the 7.11 Crysis Hotfix drivers was okay, but a few flickers and glitches still pop up
:uclap:

up¦²
2007-12-06, 11:59:43
:uclap:
Hauptsache:
Now the game is playable :wink:
und zwar schon mit relativ lächerlich billigen 2850ern...
http://www.legitreviews.com/images/reviews/605/crysis_1600.jpg

AnarchX
2007-12-06, 12:03:41
Wer will aber, wenn er >300€ für GraKa ausgibt nur auf Medium spielen?

Zudem wird hier nicht wirklich ersichtlich ob überhaupt AA oder gar essentielles AF im Einsatz war...

Gast
2007-12-06, 12:04:23
38.98>54.43........gaaaaaanz toll.

up¦²
2007-12-06, 12:14:11
Wer will aber, wenn er >300€ für GraKa ausgibt nur auf Medium spielen?

Zudem wird hier nicht wirklich ersichtlich ob überhaupt AA oder gar essentielles AF im Einsatz war...

Sowieso das Drama mit DX10... ;D
Mit welcher non paperware geht das denn überhaupt?
Da liegt der Hase im Pfeffer, ohne Abstriche geht es momentan eben nicht anders... schon garnicht ohne 1k usw.

AnarchX
2007-12-06, 12:18:23
Sowieso das Drama mit DX10... ;D
Mit welcher non paperware geht das denn überhaupt?
Da liegt der Hase im Pfeffer, ohne Abstriche geht es momentan eben nicht anders... schon garnicht ohne 1k usw.
AA/AF kombiniert mit High Details @>1280x... ist auf einer 8800 GT/S/X sicher möglich.

Der Test ist wie schon gesagt nicht unbedingt aussagekräftig, erst recht wenn du ihn als Mittel zum Hypen von CF benutzen willst. ;)

up¦²
2007-12-06, 12:20:24
AA/AF kombiniert mit High Details @>1280x... ist auf einer 8800 GT/S/X sicher möglich.

Der Test ist wie schon gesagt nicht unbedingt aussagekräftig, erst recht wenn du ihn als Mittel zum Hypen von CF benutzen willst. ;)
Ich hype garnix: ich stelle fest.

AnarchX
2007-12-06, 12:29:49
Ich hype garnix: ich stelle fest.

Dies aber sehr leichtfertig und unüberlegt, sonst hättest du nicht die Anmerkungen über die immernoch vorhandenen Grafikfehler des Reviewers überlesen und den Umstand erkannt, dass dieses Review wohl möglich realitätsfern ohne (AA)/AF testet.

ESAD
2007-12-06, 12:54:55
Hauptsache:
:wink:
und zwar schon mit relativ lächerlich billigen 2850ern...
http://www.legitreviews.com/images/reviews/605/crysis_1600.jpg

das muss aber cpulimitiert sein sonst müsste der abstand zwischen corssfiremit 3850 und 3870 größer sein

up¦²
2007-12-06, 13:12:46
Dies aber sehr leichtfertig und unüberlegt, sonst hättest du nicht die Anmerkungen über die immernoch vorhandenen Grafikfehler des Reviewers überlesen und den Umstand erkannt, dass dieses Review wohl möglich realitätsfern ohne (AA)/AF testet.
(AA)/AF ist mir nicht so wichtig wie fps: ich mache doch keine Sightseeing in z.B. Crysis, obwohl es ein "Hingucker" ist, ok.

malle
2007-12-06, 14:49:08
Hauptsache:
:wink:
und zwar schon mit relativ lächerlich billigen 2850ern...
http://www.legitreviews.com/images/reviews/605/crysis_1600.jpg
Nach dem Screen halten zwei 150€ Karten zusammen also durchaus ganz oben mit.

Gast
2007-12-06, 14:53:59
(AA)/AF ist mir nicht so wichtig wie fps: ich mache doch keine Sightseeing in z.B. Crysis, obwohl es ein "Hingucker" ist, ok.

komtt natürlich drauf an, wenn ein Spiel ohne AA/AF Augenkrebs verursacht muß es sein.

Passenger82
2007-12-06, 14:57:03
komtt natürlich drauf an, wenn ein Spiel ohne AA/AF Augenkrebs verursacht muß es sein.

sowas ist immer subjetkiv. Hab jahrelang ohne AF und AA gespielt und tu es teilweise immer noch. ist nicht eine Frage der Bildqualität sondern auch wieviel Geld man dafür auszugeben bereit ist.

Raff
2007-12-06, 15:25:20
Test der Sapphire HD3850 Ultimate (Passivkühlung): http://www.pcgameshardware.de/?article_id=623772 =)

MfG,
Raff

Gmax
2007-12-06, 16:47:42
HD 3850 IceQ Turbo X faster than HD 3870 ? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=4590&Itemid=1)

puntarenas
2007-12-06, 16:51:41
HD 3850 IceQ Turbo X faster than HD 3870 ? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=4590&Itemid=1)
Wie soll das denn gehen, hat GDDR3 vielleicht derart bessere Latenzen und macht das geringeren Speicher- und GPU-Takt in manchen Situationen wett?

Zweifel über Zweifel.

Blaire
2007-12-06, 17:02:18
CrossFire on the Radeon HD 3870 with the 7.11 Crysis Hotfix drivers was okay, but a few flickers and glitches still pop up.:uclap:

Cheating? :D

Gast
2007-12-06, 17:28:06
Cheating? :D
Scheint beim Hype Nr.1 modern zu sein.


(AA)/AF ist mir nicht so wichtig wie fps: ich mache doch keine Sightseeing in z.B. Crysis, obwohl es ein "Hingucker" ist, ok.
Ich schon.


komtt natürlich drauf an, wenn ein Spiel ohne AA/AF Augenkrebs verursacht muß es sein.
Bei Crysis zb. ist es extrem ohne AA.
Zum Glück musste ich nur die Demo ertragen.
Ohne AA/AF mit medium Details sieht es deutlich mieser als HL2 aus. HL2Ep2 zieht schon meilenweit vorbei und die Performance beleibt im angenehmen Bereich, trotz AA/AF.

Gast
2007-12-08, 02:12:12
Hauptsache:
:wink:
und zwar schon mit relativ lächerlich billigen 2850ern...
http://www.legitreviews.com/images/reviews/605/crysis_1600.jpg

die 3870 skaliert aber scheisse von ca.40fps auf 55fps naja

Raff
2007-12-08, 11:36:07
die 3870 skaliert aber scheisse von ca.40fps auf 55fps naja

Bei 55 Fps ist IMO eindeutig die CPU am Ende. HD3850-Crossfire genauso schnell wie 3870-CF? Die GF8 Ultra ist exakt genauso schnell.

Btw:

8800 GTX: 45 Fps
8800 Ultra: 53 Fps (+18%)

Woher? Sonderlich bandbreitenlimitiert scheint die Szene nicht zu sein, in Sachen GPU-Dampf ist die Ultra aber alles andere als 18 Prozent vor der GTX. Bei der Bandbreite schon (+20%). Die Werte sind scheiße. ;)

MfG,
Raff

AnarchX
2007-12-08, 11:41:01
8800 GTX: 45 Fps
8800 Ultra: 53 Fps (+18%)

Woher? Sonderlich bandbreitenlimitiert scheint die Szene nicht zu sein, in Sachen GPU-Dampf ist die Ultra aber alles andere als 18 Prozent vor der GTX. Bei der Bandbreite schon (+20%). Die Werte sind scheiße. ;)

XFX GeForce 8800 Ultra XXX Edition 768MB (675MHz/2.3GHz )
http://www.legitreviews.com/article/605/2/
Was man natürlich in den Diagrammen nicht ausgezeichnet hat... :uup:

Raff
2007-12-08, 11:42:18
Argh. Diese Unsitte, OC-Karten zu testen. Diese allgemeine Unsitte, dass kaum noch Karten herauskommen, die nicht übertaktet sind. ;D Danke, so ist das logisch.

MfG,
Raff

deekey777
2007-12-08, 12:02:29
Argh. Diese Unsitte, OC-Karten zu testen. Diese allgemeine Unsitte, dass kaum noch Karten herauskommen, die nicht übertaktet sind. ;D Danke, so ist das logisch.

MfG,
Raff
Es ist aber auch Unsitte, Overdrive-fähige Grafikkarten ohne Overdrive zu testen, insbesondere weil man mit Overdrive kaum schlechter dasteht als mit einer vom Werk aus übertakteten HD3850.
(Ich weiß, dass du dich auf die 8800Ulta XXX bezogen hast.)

reunion
2007-12-08, 12:10:00
Hier mal ein expliziter Vergleich der 3850 256MB vs 512MB - bei gleichen Taktraten:

http://www.expreview.com/img/review/sapphire_hd3850_512mb_fanless/sapphire_hd3850_512mb_512vs256.png

Getestet wurde die Sapphire Ultimate:

http://www.expreview.com/img/review/sapphire_hd3850_512mb_fanless/sapphire_3850_512mb_03.jpg

http://en.expreview.com//?p=90

deekey777
2007-12-08, 12:12:48
Laut diesen Werten kaum ein Vorteil? (die 1920x1200-Werte samt MSAA zählen nicht).

puntarenas
2007-12-08, 12:16:23
Es ist aber auch Unsitte, Overdrive-fähige Grafikkarten ohne Overdrive zu testen, insbesondere weil man mit Overdrive kaum schlechter dasteht als mit einer vom Werk aus übertakteten HD3850.
Schön wäre ein zusätzlicher Testlauf, aber auch wenig aussagekräftig. Dass ist ja das tolle an Overdrive aus Herstellersicht, die Taktraten müssen nicht garantiert werden.


Laut diesen Werten kaum ein Vorteil? (die 1920x1200-Werte samt MSAA zählen nicht).
Da würde ich aber trotzdem gern einmal einen Test mit Frameverlaufsgraphen (oder wenigstens Min. FPS) sehen, dann läge der Vorteil vermutlich auf der Hand. Betone: vermutlich.

reunion
2007-12-08, 12:16:24
Laut diesen Werten kaum ein Vorteil? (die 1920x1200-Werte samt MSAA zählen nicht).

Eben, sagte ich ja schön öfter. Die 256MB reichen zumindest bei AMD noch meist gut. 512MB bringen nur bei unspielbaren Frameraten einen deutlichen Vorteil.

AnarchX
2007-12-08, 12:17:22
Laut diesen Werten kaum ein Vorteil? (die 1920x1200-Werte samt MSAA zählen nicht).

Zeigt sich aber schon eine gewisse Tendenz vorallem in den neueren/aktuelleren Titeln. Imo sollte man schon, wenn der Aufpreis angemessen ist und die Karte länger benutzt werden soll auf jeden Fall zu 512MiB greifen.


Da würde ich aber trotzdem gern einmal einen Test mit Frameverlaufsgraphen (oder wenigstens Min. FPS) sehen, dann läge der Vorteil vermutlich auf der Hand. Betone: vermutlich.
ack. Das sollte man auch berücksichtigen.

In Asien gibt es schon übrigens erste Ankündigungen für 3850 mit 1GiB, was bei den dort beliebten Asia-Grindern inkl. HighRes-Custom-Texturen wohl durchaus Sinn machen wird.

deekey777
2007-12-08, 12:32:46
Schön wäre ein zusätzlicher Testlauf, aber auch wenig aussagekräftig. Dass ist ja das tolle an Overdrive aus Herstellersicht, die Taktraten müssen nicht garantiert werden.

Die Aussage so einen Tests ist deutlich höher als die manuellen Übertaktungsversuche der Reviewer bis zum Limit (die definitiv für den Popo sind, da es Momentaufnahmen sind).
Klar: Jede Grafikkarte hat ihre kleine Abweichung, aber es hindert niemanden im CCC-Menü Overdrive zu aktivieren, den von Overdrive bestimmten Takt zu setzen und Overdrive bei Spielen zu nutzen. Meine XpertVision X1950GT 512 Super (das ist die mit dem riesigen Lüfter) läuft per Overdrive bei 3D-Anwednungen mit 550/650 MHz (Standard 500/600; mit einem manuellen OC-Tool wären mehr drin, aber das lasse ich lieber).
Und ehrlich gesagt, glaube ich kaum, dass die Ergebnisse mit Overdrive bei "normalen" HD3850 so stark abweichen würden, dass eine generelle Aussage nicht möglich sein wird.

Gast
2007-12-08, 12:36:19
Zeigt sich aber schon eine gewisse Tendenz vorallem in den neueren/aktuelleren Titeln. Imo sollte man schon, wenn der Aufpreis angemessen ist und die Karte länger benutzt werden soll auf jeden Fall zu 512MiB greifen.


ack. Das sollte man auch berücksichtigen.

In Asien gibt es schon übrigens erste Ankündigungen für 3850 mit 1GiB, was bei den dort beliebten Asia-Grindern inkl. HighRes-Custom-Texturen wohl durchaus Sinn machen wird.


das lustige ist das höre ich schon seit jahren"kauft euch die mit 512 mb ist zukunft sicherer als die 256mb version bla,bla,bla".das sind dann die deppen die wirklich ein spiel als benchmark gesehen haben wo die besser abschneidet einfach nur rofl:)

deekey777
2007-12-08, 13:09:47
das lustige ist das höre ich schon seit jahren"kauft euch die mit 512 mb ist zukunft sicherer als die 256mb version bla,bla,bla".das sind dann die deppen die wirklich ein spiel als benchmark gesehen haben wo die besser abschneidet einfach nur rofl:)
Es sind nur einige Benchmarks: Kannst du deine rechte Hand ins Feuer legen, dass diese Werte für alle weiteren Anwendungen gültig sind?
Es gibt da noch STALKER, CoD 2 (vermutlich das erste Spiel, wo eine Grafikkarte mit 512 MB bessere Werte erzielt hat als eine mit 256 MB).

horn 12
2007-12-08, 14:04:34
Gibt es bereits was Neues zur X² 3870, wann die genau verfügbar ist und den genauen Preis, bzw. Benchmarks Vorschau.
Denn Samples sollen ja schon im Umlauf sein, und viell. --man weiss ja nie!
Was kann man auch zur Lönge nun genau sagen und zum Lüftersystem?

AnarchX
2007-12-08, 14:07:00
Wenn dann erfährt du das hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=390975

Hier geht es nunmal um "HD 3870/3850: (P)Review-Thread, Teil 2" ohne X2. ;)

K4mPFwUr$t
2007-12-08, 14:07:21
was findet ihr an dieser X² so toll? es sind nur 2xR670 :rolleyes:

puntarenas
2007-12-08, 14:18:03
was findet ihr an dieser X² so toll? es sind nur 2xR670 :rolleyes:
Geringer Idlestromverbrauch bei richtig guter 3D-Performance, natürlich nur wenn CF im Einzelfall auch funktioniert?

Um aber mal wieder aufs Thema zurückzukommen, werden 2 einzelne HD3870er auch von den Crossfireverbesserungen im Treiber profitieren oder hat eine 3870X2 da prinzipielle Vorteile durch die Unterbringung beider Chips auf einer Platine?

K4mPFwUr$t
2007-12-08, 14:19:47
nur geringfügig. persönlich halte ich von dual karten nicht viel, jedenfalls wenn sie über software realisiert werden. fehlt dir der support im spiel oder das CF/SLI profil hast nur nur 50% deiner karte und der rest liegt brach.

Gast
2007-12-08, 14:22:59
Geringer Idlestromverbrauch bei richtig guter 3D-Performance
Ja mit Crossfire sinkt der Stromverbrauch auch so dramatisch im Idle. :rolleyes:

was findet ihr an dieser X² so toll? es sind nur 2xR670 :rolleyes:
Frag ich mich auch.

2 Dice -> Klasse dann passt mein Kühler nicht mehr
Doppelt so viel verlöteter VRAM, aber die Hälfte ist eh für die Tonne -> Treibt den Preis hoch
Der Umfang der Karte -> na gute Nacht

tomsen
2007-12-08, 16:06:28
Der Crossfire Hd3870 Verbund rockt mal wieder.
Jericho von "jericho.exe" in "fear.exe" umbenannt und es kann los gehen mit Crossfire. Ich habe mit der umbenannten exe keine Probleme festgestellt!

Clive Barker´s Jericho
1280x1024 4xAA/8xAF (im Spiel/im Treiber)
HD3870 Crossfire (825/1225MHz)
Win XP Pro SP2

Eine Karte/Crossfire - FPS: 34/66 ~94%
http://2960.lb-server.de/ATI3870CF/fear%202007-12-08%2015-32-19-59.jpg http://2960.lb-server.de/ATI3870CF/fear%202007-12-08%2015-35-19-65.jpg

Eine Karte/Crossfire - FPS: 32/54 ~67%
http://2960.lb-server.de/ATI3870CF/fear%202007-12-08%2015-32-52-54.jpg http://2960.lb-server.de/ATI3870CF/fear%202007-12-08%2015-36-20-62.jpg

Rainman2k
2007-12-08, 17:52:09
mahlzeit,
das sind dochmal deutliche Aussagen.


gruss

K4mPFwUr$t
2007-12-08, 20:15:02
@tomsen
hast du CoD4? wenn ja bitte mit gleichen settings testen (4xAA und 8xAF).

tomsen
2007-12-13, 22:26:32
Leider konnt ich bisher COD4 noch nicht testen!

Wollt nur eben mein lautloses CF System vorstellen:
Passiv HD3870 Crossfire mit 860/1211MHz ;)

Temperaturen:
Temps sind in Idle:
Oben - 39 Grad (noch mit AC Turbo Lüftern gekühlt auf 8v ~1300upm)
Unten - 37 Grad (passiv, 120er Scythe-SFlex 1600 Bodenlüfter @ 800upm)

Last:
Beide nicht über 65 Grad (ist stark vom Spiel abhängig!) Meist bei 55Grad

Kühler: Arctic Cooling Accelero S1 :bigok:

http://2960.lb-server.de/ATI3870CF/UmbauS1/01-HD3870CF_S1.JPG http://2960.lb-server.de/ATI3870CF/UmbauS1/02-HD3870CF_S1.JPG

MartinRiggs
2007-12-13, 22:31:13
pornös Tomsen:up::up::up:
Ich war zu knippig das Geld auszugeben, eigentlich wollte ich auch HD3870CF.
Aber mal warten was ATI noch Treibertechnisch reisst, solange muss es die 8800GT tun.

Gast
2007-12-13, 22:42:26
@tomsen
hast du CoD4? wenn ja bitte mit gleichen settings testen (4xAA und 8xAF).
Hier wurde CoD4 getestet http://www.legitreviews.com/article/610/11/
ein CF Scaliert richtig gut.

Gabbabytes
2007-12-13, 23:13:40
pornös Tomsen:up::up::up:
Ich war zu knippig das Geld auszugeben, eigentlich wollte ich auch HD3870CF.
Aber mal warten was ATI noch Treibertechnisch reisst, solange muss es die 8800GT tun.

sorry, aber wozu braucht man die leistung con 3870cf oder 8800gt-sli?
haben mittlerweile alle 24" tfts mit 1920x1200? :eek:

tomsen
2007-12-14, 00:15:29
Nee, ich hab ja au nur 19". Aber Clive Barkers Jericho mit ~60FPS zu zocken anstatt mit ~30FPS ist ein gewaltiger Unterschied. (Nur ein Beispiel)
Denn die Spiele werden sicher die nächsten Monate natürlich immer aufwendiger und man will ja gerüstet sein! :biggrin:

pornös Tomsen:up::up::up:
Ich war zu knippig das Geld auszugeben, eigentlich wollte ich auch HD3870CF.
Aber mal warten was ATI noch Treibertechnisch reisst, solange muss es die 8800GT tun.

Das ist der einzigste Nachteil. Die Leistung ist brachial, aber es gibt bei Crysis oder Source Engine oder Jericho noch Bildfehler. Hoffe die werden bis zum erscheinen des X² behoben sein. Denn die Karte ist ja ein Crossfire Verbund auf einer Karte. ATI kann sich keinen Fehlstart bei der kommenden High End Karte leisten. Ich fühle mich irgendwie als Beta-Tester! ;)
Und die 8800 GT nebenbei bemerkt, ist eine klasse Karte. Wer sie hat sollte sie behalten!

MartinRiggs
2007-12-14, 08:02:27
Hoffe du wirst auch dafür belohnt Beta-Tester zu sein, wäre schon schön wenn ATI die Treiber noch richtig auf Vordermann bringt und wirklich alle Games einen Nutzen aus CF ziehen.
Ich werde es ja auch live mitverfolgen, wenn denn mein Kumpel endlich mal seine 2 HD3870 bekommt.
Die Verfügbarkeit geht mir auf den Sack:mad:

Hübie
2007-12-14, 10:02:46
Ich habe hier ebenfalls Bildfehler in der Source-Engine und alle 5 Minuten einen "Blitz" in S.T.A.L.K.E.R.

Und das mit alten ausgereiften X1900ern im CF ;) Wir sind nur Beta-Tester was die Treiber anbelangt.
btw: mein Bruder hat mir erzählt, dass ATi das erstellen von AFR-Profilen bald dem Nutzer überstellt...(im Interview gelesen). Was dran is kann ich net sagen.


bye Hübie

Stormscud
2007-12-14, 10:51:39
Na das wär doch mal was. Bei den ganzen Freaks da draußen kann ich mir das gut vorstellen. Wenn das ähnlich wie bei G3 läuft kann es nur gut gehen.

Aber das wär schon ein starkes Stück von AMD. Bestimmt ist das aber nur ein Gerücht.

puntarenas
2007-12-15, 12:17:50
Ich recycle mal ein wenig aus einem Thread im Hardware-Hilfe-Forum (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6112833#post6112833), weil es mir dort speziell um das Idle-Verhalten der GeCube X-Turbo III geht, das Thema wüsste ich aber gern generell geklärt und schließlich trifft sich hier die vereinigte Fachschaft ;)

Stichwort: Power Play

Laut TechPowerUp regeln die Karten ihren Power State selbst und völlig transparent:
AMD uses a new form of power management on their RV6xx ASICs called DPM. The GPU independently senses the GPU load and will pick from a set of predefined clocks according to load. Also clock gating is used which turns off unused parts of the silicon and quickly turns them on when they are needed. Unlike the 2D/3D switching on previous ATI cards where the driver manually switched clocks as soon as a 3D fullscreen application is started this process is completely transparent to the software and the driver. This also means that windowed 3D applications will run at the intended performance.<Quelle (http://www.techpowerup.com/reviews/Sapphire/HD_3870/23.html)>

ComputerBase weiß aber Gegenteiliges zu berichten:
Neu im RV670 ist eine „PowerPlay“ genannte Technologie, die bis jetzt nur bei Notebook-Grafikchips eingesetzt wurde. PowerPlay ermöglicht es, dass bei nicht maximaler Last der Takt sowie die Spannung gesenkt und darüber hinaus nicht benötigte Funktionseinheiten deaktiviert werden. Somit kann der Stromverbrauch im Idle-Modus stark gesenkt werden. Geregelt wird dieser Mechanismus durch den Treiber, der die Auslastung der GPU erkennen kann und so entscheidet, ob der Rechenkern mit maximaler Leistung arbeiten muss oder Strom gespart werden kann.<Quelle (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/4/#abschnitt_technik_im_detail_part_2)>

Der Vorteil hardwareseitiger Funktion liegt auf der Hand. Während unter Windows damit auch Fensteranwendungen endlich in den Genuss der vollen Leistungsfähigkeit kommen, bisher funktionierte die Erkennung und Umschaltung ja leider nur für Fullscreen-Anwendungen, müssten sich auch Benutzer anderer Betriebssysteme keine grauen Haare mehr wachsen lassen.

Fragt sich nur, wie ist es denn jetzt wirklich um Power Play (Takt- / Spannungsabsenkung, Clock Gating) bestellt?

Gast
2007-12-15, 12:35:05
Von meinem NB weiß ich, dass die Karte auch 3D-Anwendungen im (mobile 9700) Fenstermodus hochregelt. Von daher hätte CB recht.

Liszca
2007-12-15, 12:37:52
@Banshee18, wenn du diesen kleinen test der 3850 mit passiver kühlung noch mit aufnehmen könntest:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=4691&Itemid=40&limit=1&limitstart=0

einfach nur der vollständigkeit halber :D

puntarenas
2007-12-15, 12:57:23
Von meinem NB weiß ich, dass die Karte auch 3D-Anwendungen im (mobile 9700) Fenstermodus hochregelt. Von daher hätte CB recht.
R3xx != RV670
Notebook != Desktop

Und der Witz an der treiberseitigen Steuerung, wie sie ComputerBase propagiert, ist ja gerade, dass es bei Fensteranwendungen bisher nicht geklappt hat. Konnte jeder einfach nachvollziehen, indem er den Hotkey Poller deaktiviert hat, dann haben die entsprechenden Karten (z.B. R580er) nicht mehr hochgetaktet. Deine Aussage widerspricht sich zu allem Überfluss also sogar noch selbst.

Interessant könnte aber dennoch sein, dass es bei dir in Fensteranwendungen funktioniert. Da Power Play ja aus dem Notebookbereich kommt, könnte dies ein Indiz sein, dass mittlerweile wie von TechPowerUp berichtet, die Regelung hardwareseitig arbeitet.

reunion
2007-12-15, 14:49:38
TUL bringt passive HD3870:
http://www.vr-zone.com/articles/PowerColor_HD_3870_512MB_SCS3_Silence_Edition/5452.html

Hübie
2007-12-15, 17:31:34
Ajo. Und was soll die bitte wiegen? 1kg?? ;D
Dann lieber mit dem AC1. Und leisem Kühler.


bye Hübie

Gast
2007-12-16, 03:06:06
@Hübie
Sicher net, ist doch offensichtlich aus Alu und net Kupfer.

Gast
2007-12-16, 20:20:31
Habe jetzt auch meine Club3D 3870 bekommen.

Bin bisher sehr zufrieden:
- Karte nicht lauter und etwas kühler als die X1900XT mit Accelero X2
- läuft von Anfang an stabil

Nachdem ich erstmal Jericho genießen konnte (Spiel ist besser als es in der Presse dargestellt wird), habe ich ein paar Tests gefahren. Neben den erwarteten guten Ergebnissen bei den Standard-Benchs (3DMark05 und 06) habe ich etwas ungewöhnliche Ergebnisse bei Doom3 v1.0 erhalten. Bei meiner vorherigen Karte (X1900XT) habe ich höhere Werte.

Hier die Ergebnisse:
X1900XT zu HD3870
0640*0480: 121,1 zu 94,7
0800*0800: 120,6 zu 95,1
1024*0768: 120,0 zu 94,9
1280*1024: 112,2 zu 94,6
1600*1200: 093,3 zu 93,3

Bei der Timedemo fahre ich immer zwei Durchläufe. Es scheint hier eine starke CPU-Limitierung bei der HD3870 vorzuliegen. Kann jemand diese Ergebnisse bestätigen?

System:
A64 4600+, 2 GB DDR400-Ram,
Cat7.11 (Crysis-Hotfix) bei HD3870
Cat7.4 bei X1900XT
alle Test ohne OC

Gast
2007-12-16, 20:40:55
Habe jetzt auch meine Club3D 3870 bekommen.

Bin bisher sehr zufrieden:
- Karte nicht lauter und etwas kühler als die X1900XT mit Accelero X2
- läuft von Anfang an stabil

Nachdem ich erstmal Jericho genießen konnte (Spiel ist besser als es in der Presse dargestellt wird), habe ich ein paar Tests gefahren. Neben den erwarteten guten Ergebnissen bei den Standard-Benchs (3DMark05 und 06) habe ich etwas ungewöhnliche Ergebnisse bei Doom3 v1.0 erhalten. Bei meiner vorherigen Karte (X1900XT) habe ich höhere Werte.

Hier die Ergebnisse:
X1900XT zu HD3870
0640*0480: 121,1 zu 94,7
0800*0800: 120,6 zu 95,1
1024*0768: 120,0 zu 94,9
1280*1024: 112,2 zu 94,6
1600*1200: 093,3 zu 93,3

Bei der Timedemo fahre ich immer zwei Durchläufe. Es scheint hier eine starke CPU-Limitierung bei der HD3870 vorzuliegen. Kann jemand diese Ergebnisse bestätigen?

System:
A64 4600+, 2 GB DDR400-Ram,
Cat7.11 (Crysis-Hotfix) bei HD3870
Cat7.4 bei X1900XT
alle Test ohne OC

OS ist XP32 SP2

Gast
2007-12-16, 23:06:25
Habe jetzt auch meine Club3D 3870 bekommen.

Bin bisher sehr zufrieden:
- Karte nicht lauter und etwas kühler als die X1900XT mit Accelero X2
- läuft von Anfang an stabil

Nachdem ich erstmal Jericho genießen konnte (Spiel ist besser als es in der Presse dargestellt wird), habe ich ein paar Tests gefahren. Neben den erwarteten guten Ergebnissen bei den Standard-Benchs (3DMark05 und 06) habe ich etwas ungewöhnliche Ergebnisse bei Doom3 v1.0 erhalten. Bei meiner vorherigen Karte (X1900XT) habe ich höhere Werte.

Hier die Ergebnisse:
X1900XT zu HD3870
0640*0480: 121,1 zu 94,7
0800*0800: 120,6 zu 95,1
1024*0768: 120,0 zu 94,9
1280*1024: 112,2 zu 94,6
1600*1200: 093,3 zu 93,3

Bei der Timedemo fahre ich immer zwei Durchläufe. Es scheint hier eine starke CPU-Limitierung bei der HD3870 vorzuliegen. Kann jemand diese Ergebnisse bestätigen?

System:
A64 4600+, 2 GB DDR400-Ram,
Cat7.11 (Crysis-Hotfix) bei HD3870
Cat7.4 bei X1900XT
alle Test ohne OC

Problem gelöst: Schuld war das ATT.

Ohne ATT komme ich auf folgende Werte mit der HD3870 (im Vergleich zur X1900XT):
0640*0480: 134,1 (+10,7%)
0800*0800: 134,4 (+11,4%)
1024*0768: 133,1 (+10,9%)
1280*1024: 132,8 (+18,4%)
1600*1200: 124,1 (+33%)

Hübie
2007-12-17, 03:24:59
@Hübie
Sicher net, ist doch offensichtlich aus Alu und net Kupfer.

Klar ;) Auch an der Die-Fläche? Na dann viel Spaß.
Aber egal.


bye Hübie

-Duke-
2007-12-17, 09:26:19
Habe jetzt auch meine Club3D 3870 bekommen.

Bin bisher sehr zufrieden:
- Karte nicht lauter und etwas kühler als die X1900XT mit Accelero X2
- läuft von Anfang an stabil

Nachdem ich erstmal Jericho genießen konnte (Spiel ist besser als es in der Presse dargestellt wird), habe ich ein paar Tests gefahren. Neben den erwarteten guten Ergebnissen bei den Standard-Benchs (3DMark05 und 06) habe ich etwas ungewöhnliche Ergebnisse bei Doom3 v1.0 erhalten. Bei meiner vorherigen Karte (X1900XT) habe ich höhere Werte.

Hier die Ergebnisse:
X1900XT zu HD3870
0640*0480: 121,1 zu 94,7
0800*0800: 120,6 zu 95,1
1024*0768: 120,0 zu 94,9
1280*1024: 112,2 zu 94,6
1600*1200: 093,3 zu 93,3

Bei der Timedemo fahre ich immer zwei Durchläufe. Es scheint hier eine starke CPU-Limitierung bei der HD3870 vorzuliegen. Kann jemand diese Ergebnisse bestätigen?

System:
A64 4600+, 2 GB DDR400-Ram,
Cat7.11 (Crysis-Hotfix) bei HD3870
Cat7.4 bei X1900XT
alle Test ohne OC


@ Gast: Danke für den Vergleich.

Liegt die 3870 auch sonst "nur ca 10-20%" VOR der x1900xt? Ich hab nämlich zur Zeit auch genau diesen Wechsel im Auge. Aber das scheint ja nicht wirklich zu lohnen. Hab zur Zeit nen x2 3800+ @ 2600mhz. Limitiert da die CPU wirklich so sehr, oder ist zwischen den beiden Graka die Differenz einfach so "gering"?
Dann müsste ich ja doch zu einer 8800er (g92) greifen... Die ja aber zur Zeit noch hoffnungsloser überteuert ist als die HD3870 ^^

Naja, dann heisst es wohl für mich doch noch etwas warten...

Gruß
-Duke-

Gast
2007-12-17, 11:49:03
Also wenn die CPU bei einer HD3870 limitiert wird sie das auch schon ganz zuverlässig bei einer 8800 machen. Da kann NV noch so gut optimieren.

Gast
2007-12-17, 15:43:11
@ Gast: Danke für den Vergleich.

Liegt die 3870 auch sonst "nur ca 10-20%" VOR der x1900xt? Ich hab nämlich zur Zeit auch genau diesen Wechsel im Auge. Aber das scheint ja nicht wirklich zu lohnen. Hab zur Zeit nen x2 3800+ @ 2600mhz. Limitiert da die CPU wirklich so sehr, oder ist zwischen den beiden Graka die Differenz einfach so "gering"?
Dann müsste ich ja doch zu einer 8800er (g92) greifen... Die ja aber zur Zeit noch hoffnungsloser überteuert ist als die HD3870 ^^

Naja, dann heisst es wohl für mich doch noch etwas warten...

Gruß
-Duke-

Die 3870er ist schon deutlich schneller als die X1900XT, besonders ab 1680x1050 mit AA u.AF
Ist aber auch Game abhänging, hier ist ein CB-Test
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/#abschnitt_einleitung

Blutmaul
2007-12-17, 16:07:26
Habe jetzt auch meine Club3D 3870 bekommen.

Bin bisher sehr zufrieden:
- Karte nicht lauter und etwas kühler als die X1900XT mit Accelero X2
- läuft von Anfang an stabil

Nachdem ich erstmal Jericho genießen konnte (Spiel ist besser als es in der Presse dargestellt wird), habe ich ein paar Tests gefahren. Neben den erwarteten guten Ergebnissen bei den Standard-Benchs (3DMark05 und 06) habe ich etwas ungewöhnliche Ergebnisse bei Doom3 v1.0 erhalten. Bei meiner vorherigen Karte (X1900XT) habe ich höhere Werte.

Hier die Ergebnisse:
X1900XT zu HD3870
0640*0480: 121,1 zu 94,7
0800*0800: 120,6 zu 95,1
1024*0768: 120,0 zu 94,9
1280*1024: 112,2 zu 94,6
1600*1200: 093,3 zu 93,3

Bei der Timedemo fahre ich immer zwei Durchläufe. Es scheint hier eine starke CPU-Limitierung bei der HD3870 vorzuliegen. Kann jemand diese Ergebnisse bestätigen?

System:
A64 4600+, 2 GB DDR400-Ram,
Cat7.11 (Crysis-Hotfix) bei HD3870
Cat7.4 bei X1900XT
alle Test ohne OC

Ich weiß nicht, ob es für dich zutrifft, ich habe es bei mir erst garnicht beachtet, aber dann viel mir zufällig auf, das meine Energiespareinstellungen die Karte einbremsten, allerdings unter Vista und ich mußte auf Höchstleistung umstellen, um die volle Power zu bekommen.

Ob es unter XP einen Einfluß hat, ist mir unbekannt und ich habe auch kein Doom.

vinacis_vivids
2007-12-17, 17:33:56
Hier mal ne Perle, die ich überlege zu holen :eek::eek::eek:

http://www.ncix.com/products/index.php?sku=27462&promoid=1061

Gast
2007-12-17, 19:10:27
Ich weiß nicht, ob es für dich zutrifft, ich habe es bei mir erst garnicht beachtet, aber dann viel mir zufällig auf, das meine Energiespareinstellungen die Karte einbremsten, allerdings unter Vista und ich mußte auf Höchstleistung umstellen, um die volle Power zu bekommen.

Ob es unter XP einen Einfluß hat, ist mir unbekannt und ich habe auch kein Doom.

Bin der von Dir zitierte Gast.

Bei Doom3 liegt eine CPU-Limitierung vor. Bereits die X1900XT war bis 1024 CPU-limitiert. Wollte eigentlich auf Phenom mit HD3870 umsteigen. Aber noch den ernüchternden Ergebnissen warte ich beim Phenom noch ein wenig. Die X1900XT habe ich zu einem guten Preis verkaufen können (150 €), deswegen musst eine neue Karte her. Die Wahl habe ich bisher nicht bereut.

Weitere Vergleiche (Steigerung zur X1900XT):
3DMark05 - 1024: 12600 (+18%)
3DMark05 - 1600: 11861 (+37,5%)
3DMark06 - 1280: 8481 (+50,6%)
Crysis: HD3870: alles High (1680x1050): FPS pendeln zw. 20 und 30
Crysis: X1900XT: alles High (1280x1024): FPS pendelten zw. 10 und 17

Wichtig: Alle Test auf Default ohne AA, AF

Gast
2007-12-17, 21:56:42
Das ATT bereitet wohl doch mehr Probleme. Nachdem bei Crysis plötzlich extreme Grafikfehler auftraten, habe ich es deinstalliert. Danach lief Crysis wieder normal. Die Werte bei den Benchs sind auch leicht gestiegen.

Hier alles zusammengefasst:
Doom3: 0640*0480: 135,7 (+12%)
Doom3: 0800*0800: 135,4 (+12,3%)
Doom3: 1024*0768: 135,2 (+12,7%)
Doom3: 1280*1024: 135,9 (+21,1%)
Doom3: 1600*1200: 131,8 (+41,3%)
3DMark05 - 1024: 13006 (+21,8%)
3DMark05 - 1600: 11942 (+38,7%)
3DMark06 - 1280: 8481 (+51,6%)
Crysis: HD3870: alles High (1680x1050): FPS pendeln zw. 20 und 30
Crysis: X1900XT: alles High (1280x1024): FPS pendelten zw. 10 und 17

System:
A64 4600+, 2 GB DDR400-Ram,
HD3870 mit Cat7.11 (Crysis-Hotfix)
X1900XT mit Cat7.4 (bei Crysis Cat7.10)
XP32 SP2 - alle Tests ohne OC, AF, AA

Jarabe
2007-12-17, 23:22:58
Hier mal ne Perle, die ich überlege zu holen :eek::eek::eek:

http://www.ncix.com/products/index.php?sku=27462&promoid=1061


Lange habe ich gesucht und überlegt und gegrübelt...um gerade recht spontan die HIS Radeon HD 3850 IceQ 3 Turbo X bei komplett.de zu bestellen.

Klar sind die 202€ inkl. Versand nicht wirklich günstig und ich habe doch einige Minuten gegrübelt ob ich nicht doch zu einer HD3870 greifen sollte..der Aufpreis beträgt ja gerade einmal 20-30€..aber die HIS hat mich mit dem Kühlkonzept und komplett.de mit der Lieferbarkeit ab Lager überzeugt.

Zudem ist der Mehrnutzen einer HD3870 bei meinem "Steinzeitsystem" doch recht fraglich. Habe auch nicht vor in den nächsten Monaten andere Komponenten aufzurüsten. Ein vollkommen neuer PC ist dann bei mir 2009 fällig..bis dato wird sich CPU & GPU-technisch doch hoffentlich noch einiges ändern.

Ich hoffe, das die Karte direkt morgen versendet wird und so spätestens am Freitag oder Samstag bei mir eintrudeln wird...und dann geht's ans Testen. :-)

Wenn Interesse besteht kann ich ja ein paar erste Eindrücke schreiben.

Greetings..

vinacis_vivids
2007-12-18, 00:55:25
Lange habe ich gesucht und überlegt und gegrübelt...um gerade recht spontan die HIS Radeon HD 3850 IceQ 3 Turbo X bei komplett.de zu bestellen.

Klar sind die 202€ inkl. Versand nicht wirklich günstig und ich habe doch einige Minuten gegrübelt ob ich nicht doch zu einer HD3870 greifen sollte..der Aufpreis beträgt ja gerade einmal 20-30€..aber die HIS hat mich mit dem Kühlkonzept und komplett.de mit der Lieferbarkeit ab Lager überzeugt.

Zudem ist der Mehrnutzen einer HD3870 bei meinem "Steinzeitsystem" doch recht fraglich. Habe auch nicht vor in den nächsten Monaten andere Komponenten aufzurüsten. Ein vollkommen neuer PC ist dann bei mir 2009 fällig..bis dato wird sich CPU & GPU-technisch doch hoffentlich noch einiges ändern.

Ich hoffe, das die Karte direkt morgen versendet wird und so spätestens am Freitag oder Samstag bei mir eintrudeln wird...und dann geht's ans Testen. :-)

Wenn Interesse besteht kann ich ja ein paar erste Eindrücke schreiben.

Greetings..


Musst unbedingt davon berichten wenn die da ist! Auch wegen dem einzigartigen blauen PCB ist die Karte etwas besonderes.

derguru
2007-12-18, 02:38:51
also ich weiss nur eins zur zeit sind die treiber sowas von kacke im cf auch wenn manchmal eine verdopplung statt findet aber dafür sehr oft extreme einbrüche in spielen auftauchen,wie z.b. fear,cod4,mohaa usw.die minimum fps sind oft niedriger als mit einer karte und das kann ja wohl nicht sein.

muss ganz ehrlich sagen zur zeit würde ich keinem einen CF- Betrieb empfehlen.

Hübie
2007-12-18, 03:40:06
Das ATT bereitet wohl doch mehr Probleme. Nachdem bei Crysis plötzlich extreme Grafikfehler auftraten, habe ich es deinstalliert. Danach lief Crysis wieder normal. Die Werte bei den Benchs sind auch leicht gestiegen.

Hier alles zusammengefasst:
Doom3: 0640*0480: 135,7 (+12%)
Doom3: 0800*0800: 135,4 (+12,3%)
Doom3: 1024*0768: 135,2 (+12,7%)
Doom3: 1280*1024: 135,9 (+21,1%)
Doom3: 1600*1200: 131,8 (+41,3%)
3DMark05 - 1024: 13006 (+21,8%)
3DMark05 - 1600: 11942 (+38,7%)
3DMark06 - 1280: 8481 (+51,6%)
Crysis: HD3870: alles High (1680x1050): FPS pendeln zw. 20 und 30
Crysis: X1900XT: alles High (1280x1024): FPS pendelten zw. 10 und 17

System:
A64 4600+, 2 GB DDR400-Ram,
HD3870 mit Cat7.11 (Crysis-Hotfix)
X1900XT mit Cat7.4 (bei Crysis Cat7.10)
XP32 SP2 - alle Tests ohne OC, AF, AA

Danke für die Vergleiche. Ich stand eben auch noch vor der Wahl mir eine 3870 zu kaufen und meine beiden X1900XT in Rente zu schicken. Jetzt weiß ich ja, dass es sich net sonderlich lohnt.

Hier: X2 2500Mhz
2GB RAM
2x X1900XT (CF)

Also werd ich weiter ausharren müssen :frown:


bye Hübie

Henroldus
2007-12-20, 08:54:11
Radeon HD 3870 CrossFire (http://www.hartware.de/review_777.html)

interessant gegenüber GTS SLI vor allem der niedrigere Stromverbrauch.
Leistung liegt ca auf GTX Niveau bei Kosten von etwa 400Eur ;(

Gast
2007-12-20, 12:46:36
ich denke die Spiele die dort getestet worden sind sind zu alt.... crisis bioshok und ganzen Titel fehlen..... ich brauche kein aktuelles Sli oder crossfire system um Half Life 2 zu spielen....

AnarchX
2007-12-27, 12:27:21
Wenn man da mal nicht irgendwo abgeschaut hat:
http://www.pcpop.com/doc/0/258/258985.shtml
http://img185.imageshack.us/img185/4592/0006839361a42c607zt0.jpg (http://imageshack.us)
:D

vinacis_vivids
2007-12-27, 14:56:14
Danke für die Vergleiche. Ich stand eben auch noch vor der Wahl mir eine 3870 zu kaufen und meine beiden X1900XT in Rente zu schicken. Jetzt weiß ich ja, dass es sich net sonderlich lohnt.

Hier: X2 2500Mhz
2GB RAM
2x X1900XT (CF)

Also werd ich weiter ausharren müssen :frown:


bye Hübie

Naja x2 2500Mhz reißt nunmal keine Bäume heraus - die CPU Power braucht mal ein Upgrade.

up¦²
2007-12-28, 01:30:26
MSI K9A2 + HD 3850 CF simple test
http://en.hardspell.com/doc/showcont.asp?news_id=2160
3dm06: 10k ahoi! :biggrin:

reunion
2007-12-29, 10:22:53
Sapphire bringt Single-Slot "HD3870 Atomic" mit Vapor Chamber Technologie:

This is Sapphire Atomic HD 3870’s new cooler. It is a single slot design, and integrate with Vapor Chamber technology. The Vapor Chamber is under the black shell, only 3.0mm thick. Source said the 3mm Vapor Chamber can absorb as much as 150w heat and emit to the fin. With the single slot cooler, HD 3870 now have the ability to run Quad CrossfireX on a bad-PCIe-design 790FX mobo.

The Vapor Chamber is not a new technology, it is based on the same theory with heatpipe. But there is a difference. Heatphipe’s heat transmission is from the hot end to the cool end, limited by its shape. Vapor Chamber is from the hot surface to the cool surface. This design make the vapor chamber’s performance not limited by its shape.

The reference cooler is based on cooper fins, while the new Atomic version is only aluminum. But source said the new cooler can deliver more heat away. In fullload mode the temperature of HD 3870 with reference cooler is about 74C while HD 3870 with new atomic cooler is only 67C.

http://www.expreview.com/img/news/2007/12/29/atomic-3870.jpg

http://www.expreview.com/img/news/2007/12/29/oye_1.jpg

http://en.expreview.com/?p=152

Sehr interessant, bin gespannt wie sich das Teil schlägt.

horn 12
2007-12-29, 11:02:50
Sieht sehr gut aus, nur die Temperaturen sind bei der HD3870 um die 83-88 Grad und nicht nur 74 Grad!! Dies sollte man bedenken.
Also wenn dies mit den 67 "echten" Grad stimmen würde, Hut ab von dem Kühlkonzept/Kühler.
Sieht aber bissl teuer aus das Ding, und denk unter 200 Euro wird die Karte nicht kosten.

Lurtz
2007-12-29, 19:34:11
Naja x2 2500Mhz reißt nunmal keine Bäume heraus - die CPU Power braucht mal ein Upgrade.
Ich habe einen X2 @2.4Ghz und habe mir jetzt ein 3870 geholt, ich denke in meiner nativen Auflösung von 1680x1050 dürfte das bei den meisten Spielen schon einen ziemlichen Performancegewinn bedeuten (von der alten X1950XT 256MB).

Wenn nicht kann ich mir immer noch ein Core2Duo-System holen und die Karte weiterverwenden.

Sterems
2007-12-29, 20:01:44
Die 8800 GT ist zwar schneller,dafür verbraucht sie auch mehr Strom.;);););););););)

Gast
2007-12-29, 20:04:21
Ich habe einen X2 @2.4Ghz und habe mir jetzt ein 3870 geholt, ich denke in meiner nativen Auflösung von 1680x1050 dürfte das bei den meisten Spielen schon einen ziemlichen Performancegewinn bedeuten (von der alten X1950XT 256MB).

Wenn nicht kann ich mir immer noch ein Core2Duo-System holen und die Karte weiterverwenden.

Lass Dir nichts einreden, der X2 ist auch mit 2.4 GHZ sehr performant und hat sogar noch Reserven, da sich Dualcoreoptimierungen jetzt erst durchzusetzen beginnen.

Lurtz
2007-12-29, 22:30:28
Lass Dir nichts einreden, der X2 ist auch mit 2.4 GHZ sehr performant und hat sogar noch Reserven, da sich Dualcoreoptimierungen jetzt erst durchzusetzen beginnen.
Denke ich auch, außerdem bin ich kein MP-Progamer der 60fps und mehr braucht, mir reicht es in Shootern völlig wenn ich 30 average-fps erreiche und das dürfte bei den meisten noch locker der Fall sein.

DerKrampus
2007-12-29, 23:31:54
Es tut mir leid euch enttäuschen zu müssen ich habe aktuell einen X2 mit 2,6 GHz und einige meiner Spiele (Supreme Commander, Colin McRae...) hängen übel an der langsamen CPU.
Als Grafikkarte werkelt seit kurzem eine 3870.

Liszca
2007-12-29, 23:50:47
Es tut mir leid euch enttäuschen zu müssen ich habe aktuell einen X2 mit 2,6 GHz und einige meiner Spiele (Supreme Commander, Colin McRae...) hängen übel an der langsamen CPU.
Als Grafikkarte werkelt seit kurzem eine 3870.

ach die spielt der doch nicht;D

Oggi
2007-12-30, 00:04:58
Es tut mir leid euch enttäuschen zu müssen ich habe aktuell einen X2 mit 2,6 GHz und einige meiner Spiele (Supreme Commander, Colin McRae...) hängen übel an der langsamen CPU.
Als Grafikkarte werkelt seit kurzem eine 3870.

Vorallem bei Supreme Commander ist das nun wirklich kein Wunder.

Gast
2007-12-30, 00:28:58
Welche CPU sollte man denn Eurer Meinung nach einer HD3850 und einer HD3870 zur verfügung stellen. Wenn es geht bitte jeweils
eine passende CPU von AMD und eine von Intel.
Und bezieht bitte auch die E4xxx Reihe der C2D ein.

Banshee18
2007-12-30, 02:03:41
Welche CPU sollte man denn Eurer Meinung nach einer HD3850 und einer HD3870 zur verfügung stellen. Wenn es geht bitte jeweils
eine passende CPU von AMD und eine von Intel.
Und bezieht bitte auch die E4xxx Reihe der C2D ein.
Die Frage kann man so nicht beantworten, da das von Spiel zu Spiel unterschiedlich ist. Dem einen Spiel reicht ein A64 3200+, um durchgehend flüssig zu laufen, beim anderen Spiel reicht ein 3,2 Ghz C2D nicht.

Da man aber meistens nicht nur ein Spiel spielt, würde ich sagen: Je schneller die CPU, desto besser.;) Lasse dein Portemonnaie entscheiden.

N0Thing
2007-12-30, 05:00:04
Welchen Spielen reicht denn ein C2D mit 3,2GHz nicht?
So viele dürften das ja nicht sein, immerhin bietet Intel für den Desktopmarkt keine Dual-Core überalb von 3GHz an.

vinacis_vivids
2007-12-30, 13:14:11
Welchen Spielen reicht denn ein C2D mit 3,2GHz nicht?
So viele dürften das ja nicht sein, immerhin bietet Intel für den Desktopmarkt keine Dual-Core überalb von 3GHz an.


Crysis braucht massiv CPU Power, da reicht ein C2D 3,2 Ghz nicht.

4 Vitamins
2007-12-30, 13:30:40
Es tut mir leid euch enttäuschen zu müssen ich habe aktuell einen X2 mit 2,6 GHz und einige meiner Spiele (Supreme Commander, Colin McRae...) hängen übel an der langsamen CPU.
Als Grafikkarte werkelt seit kurzem eine 3870.

SC- welche map grösse? auflösung?
CMR- welche auflösung?

Ab 1600X1200 haste recht, bei 1280x1024 reicht ein 2,6GHz locker aus.:P

gruss.

Lurtz
2007-12-30, 14:03:14
Es tut mir leid euch enttäuschen zu müssen ich habe aktuell einen X2 mit 2,6 GHz und einige meiner Spiele (Supreme Commander, Colin McRae...) hängen übel an der langsamen CPU.
Als Grafikkarte werkelt seit kurzem eine 3870.
Es gibt immer Ausnahmen, dass Supreme Commander nicht wesentlich besser laufen wird ist mir auch klar ;)

Sicher wäre so ein Core2Duo mit 3Ghz aufwärts nett, aber ich werde erstmal schauen wie gut ich mit meinem X2 noch zurecht komme, aufrüsten kann ich immer noch.

Rainman2k
2007-12-30, 14:17:22
Crysis braucht massiv CPU Power, da reicht ein C2D 3,2 Ghz nicht.


das Wiederlege ich an der Stelle mal.

der Colddie und ich ham seit gestern je ne 3870er im Rechner werkeln.

Bei gleichen settings ist der mit seinem quadcore MAXIMAL!!!! 4 Frames besser an gleichen stellen.
(35 vs 31 fps)


Gruss
Marc

Gast
2007-12-30, 15:23:39
Sagen wir mal ich möchte UT3 mit Bots und Test Drive Unlimited zocken...

Also eher Action...

Gast
2007-12-30, 16:48:37
Es tut mir leid euch enttäuschen zu müssen ich habe aktuell einen X2 mit 2,6 GHz und einige meiner Spiele (Supreme Commander, Colin McRae...) hängen übel an der langsamen CPU.
Als Grafikkarte werkelt seit kurzem eine 3870.

Mit Supreme Commander bringst Du auch einen 3 GHZ Quadcore locker in die Knie. Hast dann statt 6 halt 10 FPS. Wie toll.

Tarkin
2008-01-02, 13:08:26
http://www.overclockersclub.com/reviews/sapphire_atomic_hd3780/

1. Review der Sapphire Radeon 3870 "Atomic" Edition mit Single Slot Kühler (Vapor-x Chamber)

Faszinierend das Teil! :biggrin:

randy
2008-01-02, 13:18:36
wieso ist denn die so viel schneller als eine normale 3870 in crysis (22<->34 @ 1280)? wegen dem kleinen overclock kann das doch nicht liegen, oder etwa doch ?

AnarchX
2008-01-02, 13:56:09
Da ist definitiv etwas falsch gelaufen, ich würde darauf tippen, dass bei der Atomic hier kein MSAA aktiv war.

Naja, das Review macht eher einen unprofessionellen Eindruck, da wird man wohl auf andere warten müssen, die auchmal die Lautstärke testen, was ja hier gerade interesssant wäre...

vinacis_vivids
2008-01-02, 16:48:50
das Wiederlege ich an der Stelle mal.

der Colddie und ich ham seit gestern je ne 3870er im Rechner werkeln.

Bei gleichen settings ist der mit seinem quadcore MAXIMAL!!!! 4 Frames besser an gleichen stellen.
(35 vs 31 fps)


Gruss
Marc


Ich rede vom C2D. Crysis profitiert mehr vom Takt als von mehr Cores.
hier sehr gut zu sehen:

Barebone: SN25P
CPU: Athlon 64 X2 4200+ @ 2,97 GHz
RAM: 2048 MB Corsair Valueselect
Grafik: Zotac Geforce 8800 GTS (G92) @ 780/1944/1080

1280*1024 kein AA/AF
Grafik auf Hoch

==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 1 Finished.
Play Time: 52.15s, Average FPS: 38.35
Min FPS: 15.00 at frame 144, Max FPS: 58.53 at frame 105
Average Tri/Sec: 39215960, Tri/Frame: 1022460
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 2 Finished.
Play Time: 52.01s, Average FPS: 38.45
Min FPS: 15.00 at frame 144, Max FPS: 58.66 at frame 82
Average Tri/Sec: 39333332, Tri/Frame: 1022933
Recorded/Played Tris ratio: 0.90
TimeDemo Play Ended, (3 Runs Performed)
==============================================================
Mein System mit stärkerer CPU und schwächerer Grafikkarte:

C2D 6750@3600 Mhz, 8800GT@756/1836/950, im DX10

http://www.abload.de/img/crysisspdemo-8800gt-kbm.jpg


Beginning Run #2 on Map-island, Demo-benchmark_gpu
DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 52.61s, Average FPS: 38.01
Min FPS: 24.57 at frame 151, Max FPS: 51.14 at frame 992
Average Tri/Sec: 37440744, Tri/Frame: 984971
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 47.97s, Average FPS: 41.69
Min FPS: 24.57 at frame 151, Max FPS: 51.14 at frame 992
Average Tri/Sec: 41502676, Tri/Frame: 995404
Recorded/Played Tris ratio: 0.92
!TimeDemo Run 2 Finished.
Play Time: 47.89s, Average FPS: 41.76
Min FPS: 24.57 at frame 151, Max FPS: 51.87 at frame 1014
Average Tri/Sec: 41627584, Tri/Frame: 996771
Recorded/Played Tris ratio: 0.92
TimeDemo Play Ended, (3 Runs Performed)

Gast
2008-01-02, 17:59:54
http://www.overclockersclub.com/reviews/sapphire_atomic_hd3780/

1. Review der Sapphire Radeon 3870 "Atomic" Edition mit Single Slot Kühler (Vapor-x Chamber)

Faszinierend das Teil! :biggrin:
Zweites: http://www.driverheaven.net/reviews/sapphireatomic/atomic.php

Nakai
2008-01-02, 18:06:15
Vll kommts mir nur so vor, oder die Karte ist schneller als die Taktraten vermuten lassen.

mfg Nakai

AnarchX
2008-01-02, 18:12:49
Nicht nur dir. :| Ob Sapphire wohlmöglich die Speichertiming um einiges schärfer eingestellt hat?

Gast
2008-01-02, 18:17:52
Vll kommts mir nur so vor, oder die Karte ist schneller als die Taktraten vermuten lassen.

mfg Nakai
Wie meinst du das? Dass sie für ihren Takt (825/1200 MHz) schneller läuft, als sie eigentlich sollte?

AnarchX
2008-01-02, 18:19:35
Wie meinst du das? Dass sie für ihren Takt (825/1200 MHz) schneller läuft, als sie eigentlich sollte?
Nunja, es sind 6% mehr GPU-Leistung und 7% mehr Speicherbandbreite gegenüber der Referenz-3870, aber teilweise werden da bis zu 20% Vorteil gemessen.:|

Nakai
2008-01-02, 18:23:01
Nicht nur dir. :| Ob Sapphire wohlmöglich die Speichertiming um einiges schärfer eingestellt hat?

Wäre möglich.
Das Ding läuft aber schon mit 1200Mhz Speichertakt.

Vll kann jemand sagen, welche Speicherchips da verwendet wurden oder wie man diese Chips einschätzen kann.

mfg Nakai

sklave_gottes
2008-01-02, 18:40:41
Nunja, es sind 6% mehr GPU-Leistung und 7% mehr Speicherbandbreite gegenüber der Referenz-3870, aber teilweise werden da bis zu 20% Vorteil gemessen.:|


Vieleicht durh neue Treiber ? Wenn die Werte von den anderen Karten noch mit alten Treibern sind ?

mfg martin

reunion
2008-01-02, 18:46:00
Driverheaven schreibt aber auch von 850Mhz Coretakt:

The liquid then returns to the base of the cooler where the process repeats. The use of this Vapour-X cooler allows Sapphire to set their core speed to 850MHz which equals the ASUS TOP edition card and dual slot cooler.

/Edit: Wohl ein Tippfehler, überall sonst wird von 825Mhz gesprochen.

Nakai
2008-01-02, 18:51:17
Toll 10% Mehrperformance. Erklärt trotzdem nicht immer wieso die Karte manchmal 20% schneller ist.


mfg Nakai

horn 12
2008-01-02, 18:56:58
Beta Treiber von Jänner für 4-faches CF (welches extra für die HD 3870/50
X² 3870) programiert wurde. Kann dies vielleicht der Grund sein, für die 20%.
Da könnten die 50/ 75 Mhz vielleicht das schon ausmachen.

Nakai
2008-01-02, 19:18:59
Naja im Review steht, dass es der 7.12er ist.


mfg Nakai

Jake Dunn
2008-01-02, 23:23:41
Ich rede vom C2D. Crysis profitiert mehr vom Takt als von mehr Cores.
hier sehr gut zu sehen:


Mein System mit stärkerer CPU und schwächerer Grafikkarte:

C2D 6750@3600 Mhz, 8800GT@756/1836/950, im DX10

http://www.abload.de/img/crysisspdemo-8800gt-kbm.jpg


Beginning Run #2 on Map-island, Demo-benchmark_gpu
DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 52.61s, Average FPS: 38.01
Min FPS: 24.57 at frame 151, Max FPS: 51.14 at frame 992
Average Tri/Sec: 37440744, Tri/Frame: 984971
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 47.97s, Average FPS: 41.69
Min FPS: 24.57 at frame 151, Max FPS: 51.14 at frame 992
Average Tri/Sec: 41502676, Tri/Frame: 995404
Recorded/Played Tris ratio: 0.92
!TimeDemo Run 2 Finished.
Play Time: 47.89s, Average FPS: 41.76
Min FPS: 24.57 at frame 151, Max FPS: 51.87 at frame 1014
Average Tri/Sec: 41627584, Tri/Frame: 996771
Recorded/Played Tris ratio: 0.92
TimeDemo Play Ended, (3 Runs Performed)


Ich hab mit der 3850 TURBO O.C. (786/1065) und Q6600@3,0ghz gebencht

DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 62.21s, Average FPS: 32.15
Min FPS: 23.47 at frame 153, Max FPS: 39.70 at frame 983
Average Tri/Sec: 32428932, Tri/Frame: 1008740
Recorded/Played Tris ratio: 0.91
!TimeDemo Run 1 Finished.
Play Time: 58.01s, Average FPS: 34.47
Min FPS: 23.47 at frame 153, Max FPS: 39.89 at frame 1007
Average Tri/Sec: 35095072, Tri/Frame: 1017990
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 2 Finished.
Play Time: 57.98s, Average FPS: 34.49
Min FPS: 23.47 at frame 153, Max FPS: 40.43 at frame 1003
Average Tri/Sec: 35146032, Tri/Frame: 1018960
Recorded/Played Tris ratio: 0.90
TimeDemo Play Ended, (3 Runs Performed)

http://www.abload.de/img/benchpaz.jpg (http://www.abload.de/image.php?img=benchpaz.jpg)

http://www.abload.de/thumb/bench816xc8xhfuam.jpg (http://www.abload.de/image.php?img=bench816xc8xhfuam.jpg)

vinacis_vivids
2008-01-02, 23:51:12
Meine Werte sind unter Vista 32bit, deine unter XP, wo Crysis bekanntermaßen besser läuft.
Aber Zeig mal die Details beim 3dm06 screen ich werd auch gleich mal mit 8AA+16AF nehm ich an testen.
Sry 4OT.

deekey777
2008-01-02, 23:56:46
Toll 10% Mehrperformance. Erklärt trotzdem nicht immer wieso die Karte manchmal 20% schneller ist.


mfg Nakai
Zweifelst du an der Macht, junger Padawan? :biggrin:

Im welchen Test sind diese zwanzig Prozent?

vinacis_vivids
2008-01-03, 00:08:56
Ich hab mit der 3850 TURBO O.C. (786/1065) und Q6600@3,0ghz gebencht

DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 62.21s, Average FPS: 32.15
Min FPS: 23.47 at frame 153, Max FPS: 39.70 at frame 983
Average Tri/Sec: 32428932, Tri/Frame: 1008740
Recorded/Played Tris ratio: 0.91
!TimeDemo Run 1 Finished.
Play Time: 58.01s, Average FPS: 34.47
Min FPS: 23.47 at frame 153, Max FPS: 39.89 at frame 1007
Average Tri/Sec: 35095072, Tri/Frame: 1017990
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 2 Finished.
Play Time: 57.98s, Average FPS: 34.49
Min FPS: 23.47 at frame 153, Max FPS: 40.43 at frame 1003
Average Tri/Sec: 35146032, Tri/Frame: 1018960
Recorded/Played Tris ratio: 0.90
TimeDemo Play Ended, (3 Runs Performed)

http://www.abload.de/img/benchpaz.jpg (http://www.abload.de/image.php?img=benchpaz.jpg)

http://www.abload.de/img/bench816xc8xhfuam.jpg

Nun denn tappe ich auch mal in die 8AA Falle:

E6750@3600, 8800GT@756/1836/950 - 1280x1024 8AA/16AF
http://www.abload.de/img/3dm06-8800gt-1280x10gnw.jpg

LovesuckZ
2008-01-03, 00:11:25
Ist das 8QAA? Könntest du auch mal mit 16AA testen?

vinacis_vivids
2008-01-03, 00:19:23
Zweifelst du an der Macht, junger Padawan? :biggrin:

Im welchen Test sind diese zwanzig Prozent?
HL2 1920x1200 4AA/16AF bei den Min Frames: 31:26 ~ 19% die aber kritisch und wichtig sind.

http://www.driverheaven.net/reviews/sapphireatomic/hl2.php

vinacis_vivids
2008-01-03, 00:20:45
Ist das 8QAA? Könntest du auch mal mit 16AA testen?

Mal schauen was sich mit nhancer machen lässt. Die 8AA sind die settings wie bei computerbase.

Jake Dunn
2008-01-03, 00:35:44
Aber Zeig mal die Details beim 3dm06 screen


Ich hab nochmal ein Run gestartet, da der andere etwas älter war und ich nur den Screen hatte.
Die CPU läuft auf 8x375=3000mhz , aber im 3D Mark wird mit dem 9er Multi ausgelesen.

http://www.abload.de/img/06oa8g.jpg (http://www.abload.de/image.php?img=06oa8g.jpg)

vinacis_vivids
2008-01-03, 00:56:34
Ich hab nochmal ein Run gestartet, da der andere etwas älter war und ich nur den Screen hatte.
Die CPU läuft auf 8x375=3000mhz , aber im 3D Mark wird mit dem 9er Multi ausgelesen.

http://www.abload.de/img/06oa8g.jpg (http://www.abload.de/image.php?img=06oa8g.jpg)

Äußerst potente 3850 - nach diesen Werten ist die Karte zumindest im 3dmark auf Augenhöhe einer 8800GTX und deklassiert die 3870 deutlich, obwohl der Speichertakt um einiges geringer ist bei ähnlicher Chiptaktung.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/6/#abschnitt_3dmark06

LovesuckZ
2008-01-03, 00:59:45
Er hat einen Quad-Core, das bringt einige zusätzliche Punkte. Daher ist es nicht vergleichbar.

dildo4u
2008-01-03, 01:02:22
Er hat einen Quad-Core, das bringt einige zusätzliche Punkte. Daher ist es nicht vergleichbar.
Ebend die FPS in den Gametests das wo das AA überhaupt greift sind alles andere als herrausragend.28 bzw. 25fps.

Jake Dunn
2008-01-03, 01:26:46
Äußerst potente 3850 - nach diesen Werten ist die Karte zumindest im 3dmark auf Augenhöhe einer 8800GTX und deklassiert die 3870 deutlich, obwohl der Speichertakt um einiges geringer ist bei ähnlicher Chiptaktung.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/6/#abschnitt_3dmark06

Kannst mit Computerbase nicht vergleichen, da die ein C2D@3,46ghz haben und ein Q6600@3,0ghz mehr CPU-Punkte macht, die auch den Gesamtscore hochziehen. Und die 3850 lief auch mit 786/1065

Er hat einen Quad-Core, das bringt einige zusätzliche Punkte. Daher ist es nicht vergleichbar.

Richtig

vinacis_vivids
2008-01-03, 01:40:26
Ich habe ne faustdicke Überraschung. Hab aus neugier und Testzwang mal den Speicher auf 1000Mhz hochgezogen. Jetzt 8800GT@756/1836/1000. Ich kann meinen Augen nicht trauen :eek:
169.25 WHQL - "Qualität", im Prinzip genauso wie CB.


Vorhin mit 950Mhz Ramtakt:

http://www.abload.de/img/3dm06-8800gt-1280x10gnw.jpg

Jetzt gerade mit 1000Mhz Ramtakt: Keine Tweaks im Treiber oder sonst was. (habs schon getestet bringt max 100pkt bei "Hoher Leistung"

http://www.abload.de/img/3dm06-8800gt-1280x10zwi.jpg

Kanns mit nicht erklären... irgendwas buggy oder der Treiber mag den 950Mhz Takt nicht.....

Alles blödsinn, es wird langsam spät. nhancer und profile haben da was durcheinander gebracht

dildo4u
2008-01-03, 01:45:13
Jetzt passt das auch wieder im Vergleich zur 3850/70.

up¦²
2008-01-03, 11:06:28
Schon bekannt, ansonsten lohnt sich zu lesen (und zu sehn!)
Sapphire Atomic HD 3870 Review
http://www.overclockersclub.com/reviews/sapphire_atomic_hd3780/

no6ody
2008-01-03, 11:38:03
hatten wir schon vor 2 seiten ;)

laser114
2008-01-03, 20:24:37
Frage Nummer 1: Gibt es eigentlich einen Test 3850 256 vs. 512 mit Standardtaktraten ähnlich dem Benchmark der 8800 GT von Expreview? (Oder generell nur ein entsprechender Test dieser beiden Karten?)

Frage Nummer 2: Kann man für die DX9-Stärke unter AA/AF der 3850 256 in Bioshock wie sie hier dargestellt (http://www.hardware-infos.com/tests.php?test=33&seite=11) ist eine sinnvolle Erklärung finden?

AnarchX
2008-01-03, 20:35:48
Frage Nummer 1: Gibt es eigentlich einen Test 3850 256 vs. 512 mit Standardtaktraten ähnlich dem Benchmark der 8800 GT von Expreview? (Oder generell nur ein entsprechender Test dieser beiden Karten?)


http://www.expreview.com/review/2007-12-06/1196938583d7186_7.html

Frage Nummer 2: Kann man für die DX9-Stärke unter AA/AF der 3850 256 in Bioshock wie sie hier dargestellt (http://www.hardware-infos.com/tests.php?test=33&seite=11) ist eine sinnvolle Erklärung finden?

ATi, DX9, BioShock und MSAA passen irgendwie nicht wirklich zusammen. ;)
(Zudem: Treiber: Catalyst 7.10/7.11 (ATi), ForceWare 162.18/169.02/169.09 (nVidia) :rolleyes:)

Gast
2008-01-03, 20:39:29
Ebend die FPS in den Gametests das wo das AA überhaupt greift sind alles andere als herrausragend.28 bzw. 25fps.

8800gt macht 30,4fps/ 21,6fps und die hd3850 28,9fps/25,7fps :P


@laser114
Zu Frage 2 es liegt mit daran das Bioshock wenig Vram verbraucht und die 256mb nicht zum limitierenden Faktor werden :wink:

laser114
2008-01-03, 20:46:42
http://www.expreview.com/review/2007-12-06/1196938583d7186_7.html

Danke.

Treiber: Catalyst 7.10/7.11 (ATi), ForceWare 162.18/169.02/169.09 (nVidia) :rolleyes:)

Naja, die G92-GPUs werden wohl die neueren spendiert bekommen haben. Das mit den zig verschiedenen Treiber in einem Test wird ja langsam Mode (hängt wohl entweder mit dem Aufwand oder den nicht länger vorhandenen Karten zusammen, nehme ich mal an).

Die U3-Engine unterstützt kein AA? Muss ich ja was verpennt haben... :|

AnarchX
2008-01-03, 20:49:48
Die U3-Engine unterstützt kein AA? Muss ich ja was verpennt haben... :|
Unter D3D9 nur per Hack, welchen nur NV bietet. Bei der 3850 war imo kein MSAA aktiv, der Verlust sieht nur nach AF aus. Der Unterschied zu den 2900er ist wohl durch die verschiedenen Treiber zu erklären.

laser114
2008-01-03, 20:54:08
Und im 162.18, den ich mal den G80-GPUs zuordnen würde, gab es den Hack noch nicht?

Damit macht das dann auch wieder Sinn.

Gast
2008-01-03, 20:57:10
Unter D3D9 nur per Hack, welchen nur NV bietet

Mit der oblivion.exe geht AA auch auf ATI Graka in Bioshock, es kommt aber genauso wie bei NV zu "fehlern"

AnarchX
2008-01-03, 21:00:22
Mit der oblivion.exe geht AA auch auf ATI Graka in Bioshock, es kommt aber genauso wie bei NV zu "fehlern"
AFAIK zu mehr und gröberen Fehlern. Aber ich bezweifele, dass diese Methode im Review angewandt wurde.

w0mbat
2008-01-03, 21:31:45
Wenn ich in Bioshock mit meiner X1900 XT AA aktiviere klappt das war, die dynamischen Schatten sind dann aber weg. Also nicht vergleichbar mit dem AA-Hack von nVidia der größtenteils keine Fehler erzeugt.

AnarchX
2008-01-08, 09:38:09
Atomic? no, Sapphire have a even higher HD3870 for you (http://en.expreview.com/?p=176)

904MHz GPU, "7900GTX-Kühler", 60°C Last

Lolman
2008-01-08, 09:50:31
Hm. Mit ein bisschen mehr VCore dürften auch 1GHz kein Problem sein. Damit hätte man ~30% Mehrleistung ggü einer Standard 3870. Nicht schlecht. Bleibt nur noch offen, wann das Ding kommt und was es kostet...

kokett
2008-01-08, 11:47:50
Wie sind eigentlich die 512MB Versionen der beiden Karten gegenüber der alten X1900XT 512MB einzuordnen?
HD3850 so 30-50% Mehrleistung und HD3870 so 60-80%, kommt das hin ? Oder ist die 3870 schon doppelt so schnell ?

DrumDub
2008-01-08, 12:21:40
Wie sind eigentlich die 512MB Versionen der beiden Karten gegenüber der alten X1900XT 512MB einzuordnen?
HD3850 so 30-50% Mehrleistung und HD3870 so 60-80%, kommt das hin ? Oder ist die 3870 schon doppelt so schnell ? kommt halt aufs game an, aber deine prozentangaben sind viel zu hoch. hier findest du werte für die x1950xtx, die ca. 6-7% schneller ist als die x1900xtx: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet

demnach kommt die 3850 auf etwa 95% der x1950xtx (=100%) und die 3870 liegt bei 120%.

HanSolo78
2008-01-08, 12:25:51
Wie sind eigentlich die 512MB Versionen der beiden Karten gegenüber der alten X1900XT 512MB einzuordnen?
HD3850 so 30-50% Mehrleistung und HD3870 so 60-80%, kommt das hin ? Oder ist die 3870 schon doppelt so schnell ?

Schau doch einfach mal hier:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating

Für ne X1900xt kann man noch gute 5-10% der X1950xtx abziehen und dann hast du das Ergebnis.
IMHO it der Leistungsunterschied bei eingeschaltetem AA nen Witz für ne neue Karte; grad mal gut und gerne 20% im Durchschnitt!

EDIT: Ups.. zu langsam!

kokett
2008-01-08, 12:33:12
Vielen Dank, ist irgendwie enttäuschend wenig Unterschied. Meine X1900XT hab ich auch schon seit 1,5 Jahren, dass sich da bei ATI dann doch so wenig nur getan hat (außer DX10 Unterstützung)...

pest
2008-01-08, 13:01:13
Vielen Dank, ist irgendwie enttäuschend wenig Unterschied. Meine X1900XT hab ich auch schon seit 1,5 Jahren, dass sich da bei ATI dann doch so wenig nur getan hat (außer DX10 Unterstützung)...

Du hast fast doppelt soviele Punkte im 3DMark05/06 :wink:

Gast
2008-01-08, 13:27:23
Naja, also ich weiss nicht, was die da zusammengemessen haben. Ich bin von einer X1900 XT mit leichtem OC auf eine HD3850 mit 512MB umgestiegen und bin durchgehend merklich schneller, in allen Spielen. Je mehr Shader, desto grösser der Vorsprung. Und sie legt mit jedem Treiber noch etwas zu.

Der Chip der 3850 ist derselbe wie auf der 3870, halt einfach ca. 100MHZ niedriger getaktet, was sie ca. 15% "langsamer" als die 3870 macht. Die 256MB Version leidet einfach an ihrem kleinen Speicher, die Karte kann sich gar nicht richtig entfalten. Mit 512MB dagegen ist die 3850 top und jeden Cent wert.

puntarenas
2008-01-08, 13:36:23
Vielen Dank, ist irgendwie enttäuschend wenig Unterschied. Meine X1900XT hab ich auch schon seit 1,5 Jahren, dass sich da bei ATI dann doch so wenig nur getan hat (außer DX10 Unterstützung)...
- 20% bessere Performance
- bessere Energieeffizienz
- überlegene Stromsparmechanismen
- leiserer Stock-Kühler
- Video-Prozessor
- D3D10.1
- preiswert von Beginn an

Der R580 war halt auch ein ausgesprochen leistungsfähiger Chip und der Architekturwechsel verlief offensichtlich nicht ganz reibungslos, was man an der 2900XT sehen konnte. Man könnte natürlich mäkeln, dass sich insgesamt nicht viel getan hat, denn eine 8800GT ist nun auch nicht gerade um Welten schneller.

Mittlerweile bereue ich jedoch auch ein klein wenig, meine X1900XT verkauft zu haben. Natürlich wäre sie bald überhaupt nichts mehr wert gewesen, aber ich denke zumindest eine Generation hätte ich noch bequem überspringen können, zumal mir D3D10 unter XP nicht zur Verfügung steht.

pest
2008-01-08, 14:12:13
Ich denke ATI baut auf den Technologiewechsel. Also das immer mehr Shaderzeugs usw. verwendet wird. Bei älteren Games ist die HD-Reihe dabei kaum merklich schneller. War ja auch bei der X19xx schon so. Bei den damaligen Spielen nicht wirklich schneller als NVidia 7900 aber heute immernoch brauchbar im Vergleich zu dieser. Schade nur das der Vorsprung mit AA wirklich zusammenschrumpft, gibt allerdings auch genügend Leute die ohne AA spielen und für die lohnt sich das schon m.M. nach.

Lolman
2008-01-08, 14:23:34
Hier schauts ein bisschen besser aus, für neuen ATI-Chips: http://www.ixbt.com/video3/rv670-part3-d.shtml#p18

kokett
2008-01-08, 14:31:20
- 20% bessere Performance
- bessere Energieeffizienz
- überlegene Stromsparmechanismen
- leiserer Stock-Kühler
- Video-Prozessor
- D3D10.1
- preiswert von Beginn an

Der R580 war halt auch ein ausgesprochen leistungsfähiger Chip und der Architekturwechsel verlief offensichtlich nicht ganz reibungslos, was man an der 2900XT sehen konnte. Man könnte natürlich mäkeln, dass sich insgesamt nicht viel getan hat, denn eine 8800GT ist nun auch nicht gerade um Welten schneller.

Mittlerweile bereue ich jedoch auch ein klein wenig, meine X1900XT verkauft zu haben. Natürlich wäre sie bald überhaupt nichts mehr wert gewesen, aber ich denke zumindest eine Generation hätte ich noch bequem überspringen können, zumal mir D3D10 unter XP nicht zur Verfügung steht.

Du hast schon recht, ich hab halt nen dedizierten HTPC, also ist mir am Spiele-PC DirectX10 und Medienplayback total egal, auch weil ich unter XP spiele. Ich dachte halt einfach, dass nach längerer Zeit die schnellste AMD/Ati Karte schon doppelte Leistung als der Vor- Vorgänger bringen müsste, aber schätzen kann halt fehlen.

Mich würde eine 3870 mit 512MB schon anmachen, aber momentan ist halt noch so ein run auf die Karten, dass die Preise meiner Ansicht nach 10% zu hoch sind. Ich schau mal, entweder ich kauf in zwei Wochen was neues für 200€ oder ich warte ganz und kauf halt dann ein G100 oder R700 basiertes Produkt. Ne Xbox360 hab ich ja auch noch, also langweilig wirds mir nicht.

Weselchak-U
2008-01-08, 16:32:14
Ich bin von einer ATI X1950 XTX auf HD 3870 umgestigen und ich bin restlos begeistert.
Hatte schon wieder ein schlechtes Gewissen, dass ich für eine vermeintlich kaum schnellere Grafikkarte Geld augebe ( auch www.computerbase.de vertraut ).
Das Ergebnis hat aber meine saemtliche Ergebnisse uebertroffen.

Die Grafikkarte liefert in den manchen Situationen, bei denen X 1950 XTX hoffnugslos eigebrochen ist, noch um mehr als 100 % groessere Bilderraten, bei ansonsten konstantem System.

Ich weiss, dass mich jetzt viele der Lüge bezichtigen, aber so ist es nun mal .

Zu Mal ich auch schreibe ,dass es nur auf MANCHE Situationen zutrifft.

Beispiele : Stalker (1024x768 alles auf Maximum , auch AF) gleich am Anfang aus dem Bunker rauskommend und auf das Lagerfeuer schauend X1950 XTX -35 Bilder/ps , HD 3870- 60 B/p.s.
gleicher Abschnitt im Spiel über die Brücke laufen X1950 XTX 35-40 B/p.s., HD 3870 60 B/p.s.- das absolute Minimum bis über 80 B.

FEAR Extraction Point- (1024x768 Alles Maximum, 2 AA, 2AF, Weiche Schatten aus ) gleich am Anfang, nach dem Absturz des Helikopters ins Feuer schauen 1950 XTX- unter 30 B/p.s ( ganz genau weiss ich nicht mehr ich glaube es waren 25 B/p.s. ) HD 3870 Min -60 B/p.s.
Der gleiche Abschnitt in die Kirche mit den Gegnern kaempfend 1950 XTX unter 30 B., HD 3870 -47 B./p.s.
Dazu kommt , dass die HD 3870 bei "weichen Schatten" und 16 AF kaum einbricht, die X1950 XTX bedeutend staerker.

Quake 4 -(1024x768, Maximum, 4 AA, Nexus Hub Tunnels- die Halle, wo ein Gladiator von oben herunterkommt, diese Halle hat meine X 1800XT "getötet"- unter 25 B/p.s. auch meine X 1950 XTX war da kaum schneller - wenn man in der Halle auch nur einfach hin und herlief ohne zu kämpen usw. sind Biderraten auf unter 30 B/p.s. eingebtrochen- selbe Situation mit HD 3870 niemals unter 60, wobei beachtet werden soll, dass Quake 4 auf 60 limitiert ist, wenn man die Limitierung aufbrechen wuerde, dann wuerde HD 3870 womoeglich noch schneller sein.
Die selbe Halle kaepfend mit Gladiator und Stroggs - X 1950 XTX min . 20 stabil unter 30 B/p.s., HD 3870 min. 47 B.p.s !!

Gemessen mit Fraps, aber auch vom Gefühl her kann ich auch das bestätigen.

Ob man mir glaubt, ist mir egal, ich geniesse einfach meine HD 3870.

Ich behaupte auch nicht , dass sie in jeder Situation so viel schneller ist, z.B. bei Quake4 gibt es Situationen , bei denen HD 3870 nur wenig schneler ist als X1950 XTX, aber an vilen Stellen wo X1950 XTX hoffnungslos ueberfodert gewesen ist, zieht die HD 3870 unbeeindruckt davon.

Also ich bereue meinen Umstieg kein bisschen und schenke in der Zukunft weniger Vertrauen an Tests im Internet.

deekey777
2008-01-08, 21:46:31
Atomic? no, Sapphire have a even higher HD3870 for you (http://en.expreview.com/?p=176)

904MHz GPU, "7900GTX-Kühler", 60°C Last
Krank. :biggrin:
Noch ein Atomic-Review:
Sapphire Radeon HD 3870 Atomic review (http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=513&Itemid=27)

Gast
2008-01-08, 21:52:03
Krank. :biggrin:
Noch ein Atomic-Review:
Sapphire Radeon HD 3870 Atomic review (http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=513&Itemid=27)
Wieder ohne Stromverbrauchsmessung :(

deekey777
2008-01-08, 22:08:26
Wieder ohne Stromverbrauchsmessung :(
Bei der benutzten PSU lohnt es sich auch nicht.

Odal
2008-01-08, 22:50:20
Ich denke ATI baut auf den Technologiewechsel. Also das immer mehr Shaderzeugs usw. verwendet wird. Bei älteren Games ist die HD-Reihe dabei kaum merklich schneller. War ja auch bei der X19xx schon so. Bei den damaligen Spielen nicht wirklich schneller als NVidia 7900 aber heute immernoch brauchbar im Vergleich zu dieser. Schade nur das der Vorsprung mit AA wirklich zusammenschrumpft, gibt allerdings auch genügend Leute die ohne AA spielen und für die lohnt sich das schon m.M. nach.


richtig und vorallem sagte man ja zum erscheinen des R580 braucht kein mensch ne X1800xt liefert fast die gleichen FPS

im moment ist der RV670 vielleicht noch nicht um welten schneller wie der R580 aber das wird sich meiner meinung nach noch deutlich ändern

achso ich bermerke einen großen unterschied bei diversen spielen....mag aber auch demit zusammenhängen das meine x1900xt nur 256MB ram hatte

pest
2008-01-08, 23:49:16
achso ich bermerke einen großen unterschied bei diversen spielen....mag aber auch demit zusammenhängen das meine x1900xt nur 256MB ram hatte

Schade das kaum jmd. echte Vergleichsbenchs hat.
Ich konnte nur soviel feststellen das durch den Wechsel von X1950Pro 256MB auf X1900XT 512MB sich meine MinFrames in Cod2 z.B. nahezu verdoppelt haben. Du meinst übrigens RV670 ;-)

edit: ATI HD3850 512MB @aktiv Accelero S1 @ vmod 1,46volt 905Mhz/1060Mhz(DDR 2120 ) <still testing> :D

J0ph33
2008-01-09, 00:08:39
Atomic? no, Sapphire have a even higher HD3870 for you (http://en.expreview.com/?p=176)

904MHz GPU, "7900GTX-Kühler", 60°C Last

die haben meine Idee (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=321589) gefaked ;(

der GTX-Kühler sollte übrigens auch ohne weiteres auf eine 8800GT gehen, hab leider weger die Karte noch einen zweiten GTX-Kühler...

vinacis_vivids
2008-01-09, 00:19:03
die haben meine Idee (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=321589) gefaked ;(

der GTX-Kühler sollte übrigens auch ohne weiteres auf eine 8800GT gehen, hab leider weger die Karte noch einen zweiten GTX-Kühler...

Der 7900GTX-Kühler passt nicht. Habs probiert auf meiner 8800GT, die Bohrungen sind bissel anders. Die Leistung sollte dem Standardkühler natürlich weit übertreffen.

J0ph33
2008-01-09, 09:47:00
Der 7900GTX-Kühler passt nicht. Habs probiert auf meiner 8800GT, die Bohrungen sind bissel anders. Die Leistung sollte dem Standardkühler natürlich weit übertreffen.

mmmh...zumindest der lochabstand um den core sollte identisch sein, und das reicht idR...fragt sich ob die RAMs noch ordentlich abgedeckt werden...also ich habs mir mal per augenmaß angeguckt und bin zu dem schluss gekommen, dass es passen sollte...auf die X1800/X1900 geht er ja schließlich auch :)

AnarchX
2008-01-11, 22:39:48
ASUS HD 3850 mit 0.83ns GDDR3:
http://forum.donanimhaber.com/m_20288825/tm.htm

Und Sapphire bietet bald 1GB bei der HD3850:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5104&Itemid=57

reunion
2008-01-14, 17:09:06
Sapphire bringt offensichtlich eine ganze Flotte an RV670-Karten. Neben der Standard-3870 und der 3870 Atomic kommt auch eine Singel-Slot 3870 und eine passive 3870:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5127&Itemid=1
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5122&Itemid=1

laser114
2008-01-14, 17:16:06
Nun, RV670 hat sehr wahrscheinlich ein langes Leben. Der Produktionsprozess ist frisch, die Die-Größe für die Leistung gut.

vinacis_vivids
2008-01-14, 17:52:37
Der RV670 bräuchte eine neue Revision die sich besser Takten lässt.

deekey777
2008-01-14, 17:58:49
Der RV670 bräuchte eine neue Revision die sich besser Takten lässt.
A12.
Sapphire soll eine 3870 mit Dualslot-Kühler mit 904 MHz bringen.
Aber die Singleslot-Lösung mit blauem Kühler sieht irgendwie laut aus.

N0Thing
2008-01-16, 00:40:12
A12.
Sapphire soll eine 3870 mit Dualslot-Kühler mit 904 MHz bringen.


Weiß man schon wann die kommt? Und ob/ab wann andere Hersteller das Stepping nutzen? Soll das auch für die 3870x2 verwendet werden?

iDiot
2008-01-16, 16:09:29
Hat hier einer ein CF aus zwei ATIs am laufen? Erfahrungsberichte würden mich interressieren!

puntarenas
2008-01-17, 19:31:24
Die ersten RV670-Karten im September letzten Jahres liefen mit 825 Megahertz Chiptakt, wenig später folgten jedoch Chips mit 775 Megahertz. Bei der finalen Version soll der Chiptakt aufgrund einer guten Ausbeute auf 825 Megahertz festgesetzt sein.PCGH (http://www.pcgameshardware.de/?article_id=628622)

Heißt das nun, dass die jetztigen Karten auslaufen und auch gewöhnliche HD 3870 zukünftig mit 825Mhz (und neuem Stepping) daherkommen?
Könnte die Sapphire HD 3870 Single-Slot bereits eine solche, nur eben "untertaktete" Karte, sein?

Jedenfalls ist das PCB leicht abweichend vom Referenzdesign bestückt:
Sapphire Radeon HD 3870 Single-Slot (http://www.pcgameshardware.de/?menu=browser&article_id=627948&image_id=758701)
Sapphire HD 3870 Referenzdesign (http://www.techpowerup.com/reviews/Sapphire/HD_3870/images/card_naked.jpg)

puntarenas
2008-01-18, 19:54:17
Bei hardtecs4u.com gibt es ein Review einer Gigabyte Radeon RX387512H-B (http://www.hardtecs4u.com/reviews/2008/gigabyte_radeon_hd3870/) (Referenzdesign).

Auf den Punkt gebracht, ist der Lüfter der Radeon HD 3870 im Leerlauf selbst auf einem offenen Teststand nicht wahrnehmbar und auch unter Last hält sich die Geräuschentwicklung im Rahmen. Die bei der MSI-Karte noch als störend angesprochenen ständigen Wechsel zwischen zwei Lüfteerstufen trafen wir bei unserem Gigabyte-Muster nicht an. Wir vermuten an dieser Stelle, dass das verschiedene Verhalten auf die unterschiedlichen Bios-Versionen zurückzuführen ist.
Quelle (http://www.hardtecs4u.com/reviews/2008/gigabyte_radeon_hd3870/index5.php)

Gibt es schon Erfahrungsberichte dazu, wurde dieses Amoklaufen der Lüfter, sobald die Temperatur rund um das Limit schwankt, mit neuen BIOS-Versionen behoben?

GeneralHanno
2008-01-18, 20:23:17
was bringen 256mb, 512mb, 1024mb einer 3850 ?
test auf:
http://www.hartware.de/review_784.html

wie erwartet:
die 256 schlägt sich erstaunlich gut, bei einigen spielen mangelt es aber an speicher. zwischen der 1024 und 512 gibt es keine spürbaren unterschiede.

Hübie
2008-01-19, 13:12:53
Mal doof gefragt: Welche HD 3870 hat denn nun GDDR4??
Die Taktangaben bei geizhals.at sind anscheinend nicht verlässlich. Oder gibt es sogar innerhalb der Modellreihen Unterschiede?


bye Hübie

puntarenas
2008-01-19, 13:14:32
Mal doof gefragt: Welche HD 3870 hat denn nun GDDR4??
Die Taktangaben bei geizhals.at sind anscheinend nicht verlässlich. Oder gibt es sogar innerhalb der Modellreihen Unterschiede?
Bis jetzt konnte man getrost davon ausgehen, dass alle 3870er mit GDDR4-RAM bestückt sind. Die Gigabyte Ultra Durable stellt - wenn es sich bestätigt - die erste Ausnahme dar.

mapel110
2008-01-19, 13:19:05
was bringen 256mb, 512mb, 1024mb einer 3850 ?
test auf:
http://www.hartware.de/review_784.html

wie erwartet:
die 256 schlägt sich erstaunlich gut, bei einigen spielen mangelt es aber an speicher. zwischen der 1024 und 512 gibt es keine spürbaren unterschiede.
Die testen da ja auch fast nur steinalte Games. Kein Wunder, dass da 256 MB gut performen.

GeneralHanno
2008-01-19, 13:32:25
naja immerhin testen sie ja alle games auf fullHD+4xAA+16xAF und als neues game crysis. dort gibt es zwar die tendenz "pro-1GB", aber die unterschiede sind nicht wirklich spürbar ...

reunion
2008-01-26, 09:10:17
Xbitlabs hat einen Megatest zur HD3870/HD3850 - für alle die es interessiert:
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850.html

maddawn
2008-01-26, 09:22:34
HD 3850 256MB 14W im 2d-Modus, 21W im bei minimaler Last und 64W unter Vollast - sehr nett das die reale Stromaufnahme so gering ist hätte ich nicht gedacht.

puntarenas
2008-01-26, 15:24:24
Xbitlabs hat einen Megatest zur HD3870/HD3850 - für alle die es interessiert:
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850.html
Endlich nochmal ein Review nach den ganzen "15. November Schnellschüssen" und eben nicht nur Benchmarkbalken. Für mich ganz klar der Link des Tages, vielen Dank dafür :)

deekey777
2008-02-07, 23:34:18
http://www.overclockers.ru/hardnews/28188.shtml
Die Karte hat die Produktnummer 11122-05-41R. In der Meldung steht nichts über den Takt, bei Amazon.jp ist Standardtakt angegeben.

Gast
2008-02-08, 03:29:20
In der Meldung steht nichts über den Takt
Doch die hat 904mhz Core

deekey777
2008-02-08, 13:38:00
Doch die hat 904mhz Core
In der Meldung steht, dass die Sapphire "7900GTX" auf 904 MHz übertaktbar ist. Diese 904 MHz kommen von ExpReview:
The GPU frequency is at 904MHz, and core tempature is only 60 centidegree after the card done a 3Dmark05 and 3Dmark06 test. Source said Sapphire did not raise the voltage
Hier ist kein Wort darüber, dass es der Standardtakt ist, sondern dass die GPU mit 904 MHz lief und Sapphire die Spannungen nicht erhöht hat.

Und wie schon gesagt: Amazon.jp meint, es sind 775 MHz. Wenn du willst, kannst du die Produktnummer bei Google eingeben.

Liszca
2008-02-08, 19:52:07
In der Meldung steht, dass die Sapphire "7900GTX" auf 904 MHz übertaktbar ist. Diese 904 MHz kommen von ExpReview:

Hier ist kein Wort darüber, dass es der Standardtakt ist, sondern dass die GPU mit 904 MHz lief und Sapphire die Spannungen nicht erhöht hat.

Und wie schon gesagt: Amazon.jp meint, es sind 775 MHz. Wenn du willst, kannst du die Produktnummer bei Google eingeben.

7900 GTX von sapphire? wirklich? oder nur tippfehler?

AnarchX
2008-02-08, 19:55:46
7900 GTX von sapphire? wirklich? oder nur tippfehler?

"7900GTX" und nicht 7900 GTX. ;)

Aber wie deekey777 schon anmerkt, hatte die 904MHz Karte damals bei Expreview auch per Default nur 777MHz und war nur übertaktet.
btw.
Nichtmal die SSC-3870 findet man in der VGA-Matrix bei Sapphire, obwohl sie schon auf der Hauptseite gezeigt wird...

deekey777
2008-02-08, 20:33:36
7900 GTX von sapphire? wirklich? oder nur tippfehler?
Hättest du den Link angeschaut, dann wüsstest du sofort, was ich meinte.;)

up¦²
2008-02-09, 14:11:32
Sapphire Radeon HD 3850 mit 1GB :smile:
schon bekannt?, ansonsten:
http://www.3dnews.ru/news/sapphire_radeon_hd_3850_versiya_s_razgonom_i_1_gb_pamyati/

J0ph33
2008-02-10, 02:16:39
Hättest du den Link angeschaut, dann wüsstest du sofort, was ich meinte.;)

Gibts die Karte schon in Europa? Wäre wirklich interessant das Ding, ich steh auf diesen Kühler...sondern müsste ich wieder nen GTX-Kühler drauf friemeln...

up¦²
2008-02-12, 11:09:46
How to Crossfire Radeon HD3870 with HD3850 :wink:
http://www.cpu3d.com/index.php?option=com_content&task=view&id=3906&Itemid=16&limit=1

reunion
2008-02-12, 17:14:29
Bilder zur 3870 X2 Atomic:
http://www.vr-zone.com/articles/Sapphire_Prepares_ATOMIC_3870-X2/5557.html

deekey777
2008-02-17, 19:48:57
Sucht mal in Google nach 11122-05-20R.
Es sieht so aus, ob Sapphire die HD3870 mit Standardlüfter durch diese mit dem 7900GTX-like Lüfter ersetzt.:|

Gast
2008-02-21, 18:20:09
Sapphire Radeon HD 3870 Single-Slot, 512MB GDDR4 => 163,99€ :up:
http://geizhals.at/eu/a305723.html

N!mrod
2008-03-03, 02:45:54
Hallo Leute!

Mal eine Frage:
Wieso kann ich von meiner neuen GeCube HD 3870 512MB die Temperatur nicht auslesen? Everest und die TrayTools zeigen nichts an...
Kann mir da jemand helfen? ;(

Gummikuh
2008-03-03, 14:00:28
Was steht denn im Treiber bei Overdrive?

Denke mal das liegt an den Programmen.

N!mrod
2008-03-03, 19:30:09
Was steht denn im Treiber bei Overdrive?

Denke mal das liegt an den Programmen.

Ahh, ich Idiot! Danke! :)

Im CCC bei Overdrive steht 43°C. Ich denke das ist ok, oder?
Aber wieso erkennen das die anderen Progs nicht? Vllt. is die Graka zu neu? Hm...

reunion
2008-03-09, 20:38:33
Um auch für den Einsatz in Supercomputern (High Performance Computing, HPC) interessant zu sein, kommt es auf eine hohe Ausführungsgeschwindigkeit von Floating-Point-Algorithmen ab, die mit Double Precision (DP, 64 Bit) arbeiten. AMDs RV670-basierte FireStream 9170 mit 2 GB Speicher ist die erste „Grafikkarte“, die mit Support für doppelte Genaugigkeit bei Fließkommaoperationen umworben wird und sich einer großen Beliebtheit erfreut.

AMD gibt an, dass die 9170 eine Leistung von 500 GFLOPs bei Single Precision (SP) bietet. Bisher wurde angenommen, dass sich die Performance unter Einsatz von DP auf die Hälfte reduziert. Dem ist jedoch nicht so, wie Giuseppe Amato, Technical Director bei AMD, im Gespräch auf der CeBIT verriet. Demnach hat die Karte unter DP eine Performance von bis zu 350 GFLOPs. Zum Vergleich: Intels mit 3 GHz getakteter Quad-Core-Prozessor Core 2 Extreme QX9650 besitzt eine Peak-Performance von etwa 48 GFLOPs (Double Precision, Add und Mul).

http://b.imagehost.org/0228/1_10.png

http://www.computerbase.de/news/treiber/mainboards/amd/2008/maerz/ueber_dp-performance_amd_firestream/

puntarenas
2008-03-17, 14:44:19
Review einer MSI RX3850 T2D512E-OC bei ht4u.net: Klick! (http://www.ht4u.net/reviews/2008/msi_rx3850_512mb/)

MSI schickt mit der RX3850 T2D512E-OC eine übertaktete Version der AMD HD 3850 ins Rennen. Im Leistungsvergleich zeichnete sich dadurch aber kaum ein anderes Bild verglichen zur 9600 GT. Und natürlich muss man berücksichtigen, dass es auch dort von Hause aus übertaktete Modelle gibt. Hervorzuheben beim aktuellen MSI Testkandidaten bleibt definitiv die Kühllösung, welche dem Anwender einen praktisch lautlosen Betrieb beschert.

Mr.Ed
2008-03-21, 20:51:05
http://geizhals.at/deutschland/a294905.html

Was taugt denn der Kühler gegenüber den Referenzkühler in Sachen Lautstärke? Jemand ne Ahnung?

puntarenas
2008-03-24, 15:35:40
http://geizhals.at/deutschland/a294905.html

Was taugt denn der Kühler gegenüber den Referenzkühler in Sachen Lautstärke? Jemand ne Ahnung?
Der Kühler ist nicht schlecht, allerdings mangels Lüftersteuerung im Auslieferungszustand sehr laut. Mit einem Zalman Fanmate runtergeregelt kühlt er anscheinend immer noch sehr gut und dann ausgesprochen leise: Klick! (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=407804&highlight=PCS)

ht4u.net berichten von weitern Preissenkungen und was sich beunrugigend anhört, von Unmut bei den Boardpartnern aufgrund der aus ihrer Sicht unsinnigen Nachlässe:
Der Missmut mancher Partner geht gar soweit, dass man angeblich überdenke kommende AMD-Entwürfe nur noch mit Zurückhaltung ins Programm aufzunehmen.
Quelle (http://www.ht4u.net/news/1610_amd_will_die_preise_fuer_hd_3850_und_3870_weiter_senken)

Die 9600GT scheint ja richtig unter den 3800ern zu wüten, aber wie ist ein "angeblich" und "überdenken" der Partner zu werten, nur Säbelrasseln oder die Ratten auf einem sinkenden Schiff?

2B-Maverick
2008-03-25, 11:12:03
ht4u.net berichten von weitern Preissenkungen und was sich beunrugigend anhört, von Unmut bei den Boardpartnern aufgrund der aus ihrer Sicht unsinnigen Nachlässe:

Quelle (http://www.ht4u.net/news/1610_amd_will_die_preise_fuer_hd_3850_und_3870_weiter_senken)

Die 9600GT scheint ja richtig unter den 3800ern zu wüten, aber wie ist ein "angeblich" und "überdenken" der Partner zu werten, nur Säbelrasseln oder die Ratten auf einem sinkenden Schiff?

Aber was soll AMD denn machen?
Die 9600er ist nun mal fast so schnell wie ne 3870er. Da muss der Preis ja fast identisch sein. Geht halt net anders.. oder man verkauft gar nix mehr. :(

Schlammsau
2008-03-25, 11:18:31
ich finds gut, dass die Preise der ATI´s weiter so fallen!
wenn die 3870 bei um die 110-120€ sind, steht CF eigentlich nichts mehr im weg! :))

Mr. Lolman
2008-03-25, 11:25:33
ich finds gut, dass die Preise der ATI´s weiter so fallen!
wenn die 3870 bei um die 110-120€ sind, steht CF eigentlich nichts mehr im weg! :))

Außer Mikroruckler halt. AMD sollte lieber anfangen ordentliches CF-SGSSAA anzubieten, da ich nicht denke, dass man das Mikrorucklerproblem wirklich in den Griff bekommen wird.

Schlammsau
2008-03-25, 11:37:03
ich hab jetzt schon so viele verschiedene Meinungen über Mikroruckler gelesen....da wirds langsam mal selber Zeit, dass ich mir eine eigene Meinung darüber bilde, indem ich selber CF Sys teste!
Ich will einfach selber erfahren, wie störend die Mikroruckler sind! Vielleicht bin ich ja der Typ, den es gar nicht stört! Goodness knows....

deekey777
2008-03-25, 12:38:10
http://b.imagehost.org/0228/1_10.png

http://www.computerbase.de/news/treiber/mainboards/amd/2008/maerz/ueber_dp-performance_amd_firestream/
http://forum.beyond3d.com/showthread.php?t=45253&page=5
I should also note that doubles are *not* done in the "t" unit, but they are instead done in the XYZW units in "fused" manner. Thus, you can execute a double precision operation in XYZW along side a 32-bit operation in the t unit. Thus, doubles are handled at 1/4 rate in 4/5th of the units, so double precision peak is 1/5 of single precision peak. However, in practice, you the difference can be better than 1/5th depending on the scheduling of your 32-bit ops or worse under bandwidth/latency increases from reading/writing wider data.
Aus IL:
6.9 Double-precision Instructions
Double precision values are represented by two 32-bit elements. The source value for a doubleprecision instruction must be in src.xy after any swizzle operations. For example, if src.xy contains 0x4008000000000000 then src.y = 0x40080000 and src.x = 0x00000000. The result of an instruction can be placed in dst.yx or dst.zw, where the most significant bit is stored in y or w, respectively. Singleprecision instructions can be used to test the sign of a double-precision value.

Hehe, diese "bis zu 350 GFLOP/s" ergeben null Sinn.

Athlonxp
2008-03-25, 18:48:44
gibt es schon näheres wann man ca. die his 3850 agp kaufen kann ;) ? thx

deekey777
2008-03-26, 16:05:14
http://forum.beyond3d.com/showthread.php?t=45253&page=5

Aus IL:


Hehe, diese "bis zu 350 GFLOP/s" ergeben null Sinn.
Was habe ich bloß getan...
Update 26.03.2008 15:15 Uhr:
Bei der Angabe der Double-Precision-Leistung ist Giuseppe Amato offenbar ein Fehler unterlaufen. AMD hat uns soeben darüber informiert, dass die Firestream 9170-Beschleunigerkarte eine DP-Performance von 102 GFlops bietet. Bei Single Precision sind es dagegen sogar 512 GFlops.
Laut Mike Houston liegt die reine MADD-DP-Performance bei 1/4 der SP-Performance. Die 350 GFLOPs beziehen sich auf einen "Mixed-Mode" aus DP und SP. Die ADD-Performance in DP liegt bei 2/5 der gesamten FLOP-Leistung. Wie die MUL-DP-Performance aussieht, sagt Mike nicht.

Athlonxp
2008-03-31, 18:37:47
so die his 3850 agp ist nun lieberbar zumindestens bei reichelt.de :)

Tarkin
2008-04-02, 07:37:16
http://www.driverheaven.net/reviews.php?reviewid=544&pageid=22

Die X2 von Asus schlägt sich in diesem Vergleich hervorragend...

On a hardware level it is hard not to be impressed by the Asus version of the 3870 X2, not only does it have a far better cooling solution, it also has the ability to power four displays simultaneously, has enhanced clock speeds and there is one excellent feature which we have yet to mention. The Asus card allows us to control the status of the second GPU, enabling or disabling CrossFire in Catalyst Control Centre just as if we were using two separate cards. All other 3870 X2 manufacturers lock out this option which means if there is a driver issue specifically related to CrossFire the Asus X2 is the only one which will allow us to disable the technology and run in single GPU mode until a fix is found. This is the only feature we felt should have been in the reference design but was not, and it is great to see Asus giving it to us.

MadManniMan
2008-04-02, 08:10:13
Ja, wenn man keine Ahnung davon hat, wie man Karten betrachten sollte, kommen Multi-GPU Lösungen immer gut weg :up:

Mumins
2008-04-02, 09:46:52
Ich kann nicht erkennen wo sich die X2 da hervorragend schlägt, sie wird förmlich vernichtet von der GX2.

Schlammsau
2008-04-03, 22:34:37
Ich kann nicht erkennen wo sich die X2 da hervorragend schlägt, sie wird förmlich vernichtet von der GX2.

du hast recht von einer Karte die 200 € teurer ist....:eek:
Ein Alfa Romeo wird auch von einem Ferrari geschlagen! ;)

AnarchX
2008-04-03, 22:43:41
du hast recht von einer Karte die 200 € teurer ist....:eek:

Schon lange her, dass du das letzte mal nach den Preisen geschaut hast? ;)
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=3870X2&filter=+Liste+aktualisieren+&pixonoff=off
http://geizhals.at/deutschland/?cat=gra16_512&bpmax=&asuch=9800GX2&pixonoff=off&sort=p

Gast
2008-04-05, 18:51:41
http://www.nordichardware.com/Reviews/?page=10&skrivelse=530
512bit SI?
wie soll das gehen beim rv670?

AnarchX
2008-04-05, 19:07:16
Natürlich Unsinn, neben der Tatsache, dass RV670 nur ein 256-Bit SI hat, sprechen auch hier die angegeben 8 Speicherchips dagegen, da es nur 32-Bit GDD-RAMs gibt.

Sorkalm
2008-04-05, 21:28:59
Zufällig noch vom ersten April?

Gast
2008-04-06, 04:12:51
du hast recht von einer Karte die 200 € teurer ist....:eek:


Was nützt dir eine günstigere Karte wenn die Treiber Schrott sind? Hmm? Eine GX2 bekommt man bereits für 417€uro lieferbar auf norsk-it.

Gast
2008-04-06, 10:23:28
Was nützt dir eine günstigere Karte wenn die Treiber Schrott sind? Hmm? Eine GX2 bekommt man bereits für 417€uro lieferbar auf norsk-it.

...aber mit Schrotttreibern!

Sorkalm
2008-04-06, 10:41:33
...aber mit Schrotttreibern!

Ne, mit Schrott-RAM. Die Karte nützt einem nichts, weil da wo man sie braucht der Speicher ausgeht.

Schlammsau
2008-04-06, 12:32:17
Was nützt dir eine günstigere Karte wenn die Treiber Schrott sind? Hmm? Eine GX2 bekommt man bereits für 417€uro lieferbar auf norsk-it.

Dann sind momentan rund 120€ unterschied....und? Dann ist die Karte in einer Woche um rund 130€ billiger geworden, woran liegt das nur?

Gast
2008-04-06, 17:02:09
Ne, mit Schrott-RAM. Die Karte nützt einem nichts, weil da wo man sie braucht der Speicher ausgeht.

Die GX2 performt exzellent in spielrelevanten Settings im Gegensatz zur X2.

deekey777
2008-04-06, 20:55:27
http://www.nordichardware.com/Reviews/?page=10&skrivelse=530
512bit SI?
wie soll das gehen beim rv670?
Man darf nie, nie die Spezifikationen von der Diamond-Homepage ohne Hinterfragen übernehmen.

deekey777
2008-04-30, 12:48:20
Die Meldung wäre auf der Spielwiese besser aufgehoben:
GECUBE First 2GByte HD3870 Ultra-High-End HD Gaming Accelerator launched for the Xtreme Performance @ Xtreme Resolution (http://www.gecube.com/press-release-detail.php?id=381972)
Das ist schon krank und Größenwahn! :biggrin:

AnarchX
2008-04-30, 12:53:04
8800 GT und 9600GT wurden doch auch schon mit 2GiB vorgestellt. ;)

Aber durch den FireStream/GL-Mod vielleicht gar nichmal so uninteressant...

Schlammsau
2008-04-30, 15:32:32
mein Fehler!

Gast
2008-06-02, 19:53:31
AMD/ATI - Die HD3xxx in neuen Games stark ?
Mir ist aufgefallen das die HD3xxx in neueren Games sich vor der Konkurrenz nicht verstecken brauch.

Ein paar Beispiele

Assassin's Creed

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/15/#abschnitt_assassins_creed

Mass Effect

http://www.pcgameshardware.de/aid,644911/Review_Hardware/Mass_Effect_im_PCGH-Performance-Check/

Age of Conan

http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/

Schlammsau
2008-06-02, 20:45:36
würd mich interessieren warum das so ist!

dildo4u
2008-06-02, 20:53:49
würd mich interessieren warum das so ist!
Es wurde bei 2 Games(Age of Conan,Mass Effect) ohne AA gebencht.Und von Assassin's Creed hat die PCGH Benches wo die NV Karten vorne sind.Von daher imo das alte Bild der R600/R670 Generation ohne AA und AF hui mit pfui.

Mass Effect nutzt z.B die UE 3.0 dort ist die 3870 ohne AA und AF bei UT3 noch deutlich vor der 8800GT mit muss sie sich der 9600GT geschlagen geben.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/14/#abschnitt_unreal_tournament_3

Gast
2008-06-02, 20:54:14
AMD/ATI - Die HD3xxx in neuen Games stark ?
Mir ist aufgefallen das die HD3xxx in neueren Games sich vor der Konkurrenz nicht verstecken brauch.

Ein paar Beispiele

Assassin's Creed

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/15/#abschnitt_assassins_creed

Mass Effect

http://www.pcgameshardware.de/aid,644911/Review_Hardware/Mass_Effect_im_PCGH-Performance-Check/

Age of Conan

http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/


Ist doch nichts neues das man mit Ati Grafikkarten in neuen Spielen gut fährt,war in Vergangenheit auch schon so ;)
Bei den nächsten Kracher Titeln wird sich das fortsetzen u.a. Mirror´s Edge und Far Cry 2.

Gast
2008-06-02, 20:56:57
würd mich interessieren warum das so ist!

bei Age of Conan dürfte es am VRAM liegen, bekanntlich bricht die geforce ja deutlich ein wenn ausgelagert werden muss.

Gast
2008-06-02, 21:00:21
Es wurde bei 2 Games(Age of Conan,Mass Effect) ohne AA gebencht.Und von Assassin's Creed hat die PCGH Benches wo die NV Karten vorne sind.Von daher imo das alte Bild der R600/R670 Generation ohne AA und AF hui mit pfui.

Da ist doch AF an du Blindfish :P

http://www.abload.de/img/pfmaba.jpg (http://www.abload.de/image.php?img=pfmaba.jpg)

The_Invisible
2008-06-02, 21:05:24
8800gts schneller als 9800gtx, die alte g80 serie ist gar nicht vertreten.

was soll man jetzt davon halten?

mfg

Gast
2008-06-02, 21:09:34
8800gts schneller als 9800gtx, die alte g80 serie ist gar nicht vertreten.

was soll man jetzt davon halten?

mfg

Wayne interessiert der G80 noch? Bei der 9800GTX vs. 8800GTS ist das 1 Frame unterschied ;D Messtoleranz ;)

:P
2008-06-02, 21:17:49
Wayne interessiert der G80 noch?

Kann man wohl laut sagen^^

http://www.abload.de/img/unbenannt6vq.jpg