PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4870: (P)Review-Thread


Seiten : 1 2 [3] 4 5

robbitop
2008-06-26, 15:59:54
FP16-Filterung kommt eh so gut wie nicht zum Einsatz. Ergo kein Einfluss aber dafür Transistoren gespart.

Superheld
2008-06-26, 19:25:47
Spielbarkeit der HD 4870 in Age of Conan, Assassin's Creed und Mass Effect:cool:
http://www.pcgameshardware.de/aid,649108/Test/Benchmark/Spielbarkeit_der_HD_4870_in_Age_of_Conan_Assassins_Creed_und_Mass_Effect/

http://www.abload.de/img/14g5qy.jpg (http://www.abload.de/image.php?img=14g5qy.jpg)

http://www.abload.de/img/2akej4.jpg (http://www.abload.de/image.php?img=2akej4.jpg)

HarryHirsch
2008-06-26, 19:32:30
Spielbarkeit der HD 4870 in Age of Conan, Assassin's Creed und Mass Effect:cool:
http://www.pcgameshardware.de/aid,649108/Test/Benchmark/Spielbarkeit_der_HD_4870_in_Age_of_Conan_Assassins_Creed_und_Mass_Effect/

http://www.abload.de/img/14g5qy.jpg

http://www.abload.de/img/2akej4.jpg

also 48er serie mit cat. 8.5 anstatt cat. 8.6 hotfix ist nun nicht so der brüller

Gast
2008-06-26, 19:33:53
Spielbarkeit der HD 4870 in Age of Conan, Assassin's Creed und Mass Effect:cool:
http://www.pcgameshardware.de/aid,649108/Test/Benchmark/Spielbarkeit_der_HD_4870_in_Age_of_Conan_Assassins_Creed_und_Mass_Effect/

http://www.abload.de/img/14g5qy.jpg (http://www.abload.de/image.php?img=14g5qy.jpg)

http://www.abload.de/img/2akej4.jpg (http://www.abload.de/image.php?img=2akej4.jpg)

8.5er Cat? Nicht sehr assaugekräftig

Superheld
2008-06-26, 19:35:22
haben mit 8.6 die 4800 getestet, steht da

trotzdem murks nur 30s bzw. 60s zu benchen:(

Gast
2008-06-26, 19:52:08
PCGH macht sich doch unglaubwürdig. Wenn ich konstant 34,9 fps erreiche erhalte ich ein "bedingt spielbar" und wenn ich 35,1 erreiche ein "flüssig spielbar" die neue Einteilung ist wohl lachhaft.

So etwas nennt sich Verfälschung von Statistiken.

Raff
2008-06-26, 20:08:55
Irgendwo muss man die Grenze eben setzen. Und die 4870 ist natürlich nicht mit dem alten 8.5 getestet.

MfG,
Raff

Sorkalm
2008-06-26, 20:15:24
Irgendwo muss man die Grenze eben setzen. Und die 4870 ist natürlich nicht mit dem alten 8.5 getestet.

Und die setzt ihr in jedem Spiel anders? Also das ist doch Blödsinn, einmal 30, einmal 35 und einmal 40 FPS. Es mag sein, dass in Shooter einmal kurz niedrigere FPS mehr stören, aber dieses Problem ist doch in den Balken schon drinne. Ob nun 30, 35 oder 40 FPS, irgendwann ist kein Unterschied mehr zwischen flüssig und nicht flüssig erkennbar.

So wirkt der Test wie gekauft.

Gast
2008-06-26, 20:17:50
Und die setzt ihr in jedem Spiel anders? Also das ist doch Blödsinn, einmal 30, einmal 35 und einmal 40 FPS. Es mag sein, dass in Shooter einmal kurz niedrigere FPS mehr stören, aber dieses Problem ist doch in den Balken schon drinne. Ob nun 30, 35 oder 40 FPS, irgendwann ist kein Unterschied mehr zwischen flüssig und nicht flüssig erkennbar.

So wirkt der Test wie gekauft.
Einfach nur traurig pcgh .tt.

tombman
2008-06-26, 20:27:29
Spielbarkeit der HD 4870 in Age of Conan, Assassin's Creed und Mass Effect:cool:
http://www.pcgameshardware.de/aid,649108/Test/Benchmark/Spielbarkeit_der_HD_4870_in_Age_of_Conan_Assassins_Creed_und_Mass_Effect/

http://www.abload.de/img/14g5qy.jpg (http://www.abload.de/image.php?img=14g5qy.jpg)

http://www.abload.de/img/2akej4.jpg (http://www.abload.de/image.php?img=2akej4.jpg)
Da sieht man eben: Butter GTX280 ist durch nichts zu ersetzen ;)
Die kommt nur ganz selten in den gelben Bereich, meistens 100% grün- keine andere Karte kann das :cool:

Hier noch was Interessantes, von THG. Die machen jetzt auch solche Indizes ;)
Habe mir mal die wichtigen herausgeschrieben und dann relativ verglichen.

Man beachte die AA Schwäche der HD4870 :eek:


1280x1024 0AA fps
Geforce GTX 280 (1024 MB) 662.3 +4.5%
Radeon HD 4870 (512 MB) 633.9
1280x1024 mit AA
Geforce GTX 280 (1024 MB) 687.2 +15.5%
Radeon HD 4870 (512 MB) 595.1

1680x1050 0AA
Geforce GTX 280 (1024 MB) 628.9 +5.6%
Radeon HD 4870 (512 MB) 595.8
1680x1050 mit AA
Geforce GTX 280 (1024 MB) 634.0 +23.7%
Radeon HD 4870 (512 MB) 512.7

1920x1200 0AA
Geforce GTX 280 (1024 MB) 593.5 +8.2%
Radeon HD 4870 (512 MB) 550.4
1920x1200 mit AA
Geforce GTX 280 (1024 MB) 559.7 +19.6%
Radeon HD 4870 (512 MB) 467.8


Quelle:
http://www.tomshardware.com/de/HD-4870-Radeon-ATi-RV770,testberichte-240071.html

HarryHirsch
2008-06-26, 20:29:08
Da sieht man eben: Butter GTX280 ist durch nichts zu ersetzen ;)
Die kommt nur ganz selten in den gelben Bereich, meistens 100% grün- keine andere Karte kann das :cool:

Hier noch was Interessantes, von THG. Die machen jetzt auch solche Indizes ;)
Habe mir mal die wichtigen herausgeschrieben, und dann relativ verglichen.

Man beachte die AA Schwäche der HD4870 :eek:


1280x1024 0AA fps
Geforce GTX 280 (1024 MB) 662.3 +4.5%
Radeon HD 4870 (512 MB) 633.9
1280x1024 mit AA
Geforce GTX 280 (1024 MB) 687.2 +15.5%
Radeon HD 4870 (512 MB) 595.1

1680x1050 0AA
Geforce GTX 280 (1024 MB) 628.9 +5.6%
Radeon HD 4870 (512 MB) 595.8
1680x1050 mit AA
Geforce GTX 280 (1024 MB) 634.0 +23.7%
Radeon HD 4870 (512 MB) 512.7

1920x1200 0AA
Geforce GTX 280 (1024 MB) 593.5 +8.2%
Radeon HD 4870 (512 MB) 550.4
1920x1200 mit AA
Geforce GTX 280 (1024 MB) 559.7 +19.6%
Radeon HD 4870 (512 MB) 467.8


die 4870er hat keine AA Schwäche

rotanat
2008-06-26, 20:29:21
Ich find diese Tests der PCGH gefallen mir neben den Tests von HardOcp noch mit am besten, denn sie sagen wirklich aus wie ein Spiel läuft für die Mehrzahl der Gamer. Die ganzen Theoretischen Tests oder Ingame-Benchmarks sind nette Anhaltspunkte oftmals aber total weltfremd. Ich sag nur CoH - nach deren Ingamebench hab ich bereits mit 8800 GTS unter DX10 super Performance - ingame ists aber kaum spielbar in großen Schlachten und die reinste Ruckelorgie.

mapel110
2008-06-26, 20:32:35
die 4870er hat keine AA Schwäche
Joah, halt für die halbe Speicherbandbreite entsprechende Performance. Kann man sehen, wie man will.
/edit
Ach, geht ja um die 70er. Ich war gedanklich bei der 4850. Sry...

Bei der Speicherbandbreite kann man das dann durchaus als Schwäche sehen. Aber bei 8xAA wirds ja wieder zur Stärke, die AA-Performance. ^^

Avalox
2008-06-26, 20:34:09
Die neunen ATI Karten haben in Spiegel Online geschafft. Mal ein anderer Artikel.



http://www.spiegel.de/netzwelt/web/0,1518,562214,00.html

tombman
2008-06-26, 20:34:18
die 4870er hat keine AA Schwäche
Die Zahlen sagen was anderes...

Die Prozente hätten sich beim Übergang von Non-AA zu AA nicht ändern dürfen, tun sie aber.

Der Abstand vergrößert sich sogar ohne AA :eek:

HarryHirsch
2008-06-26, 20:37:01
was wurde denn da überhaupt getestet?

tombman
2008-06-26, 20:37:46
was wurde denn da überhaupt getestet?
http://www.tomshardware.com/de/HD-4870-Radeon-ATi-RV770,testberichte-240071.html

Eggcake
2008-06-26, 20:38:32
Ich dachte ja zuerst du vergleichst mit der 260, aber das ist ja die 280. löl...

Haste auch 8xAA drunter? ;)

HarryHirsch
2008-06-26, 20:40:15
und bei welchen tests genau hast Du das herausgeschrieben?

tombman
2008-06-26, 20:40:15
Haste auch 8xAA drunter? ;)
Das ist jetzt der Joker für alles, oder? :rolleyes:

tombman
2008-06-26, 20:41:13
und bei welchen tests genau hast Du das herausgeschrieben?
Habe es aus ALLEN Tests herausgeschrieben:
http://www.tomshardware.com/de/HD-4870-Radeon-ATi-RV770,testberichte-240071-23.html

HarryHirsch
2008-06-26, 20:41:43
nee, der jocker is volle pulle edge aa

tombman
2008-06-26, 20:42:10
nee, der jocker is volle pulle edge aa
Ne, SSAA :cool:

HarryHirsch
2008-06-26, 20:45:13
könntest recht haben... aber das ist hier nicht das thema

Eggcake
2008-06-26, 20:45:58
Das ist jetzt der Joker für alles, oder? :rolleyes:

Nö, nur für das ;)

Sorry, aber die Werte sind Müll. Kannst du mir erklären, warum eine GTX280 ohne AA 662.3FPS hat und mit AA 687.2?
Der ganze Test stinkt irgendwie zum Himmel :>

tombman
2008-06-26, 20:51:13
Sorry, aber die Werte sind Müll. Kannst du mir erklären, warum eine GTX280 ohne AA 662.3FPS hat und mit AA 687.2?
Der ganze Test stinkt irgendwie zum Himmel :>
Ich habs nur ab- bzw rausgeschrieben. Vielleicht cpu Limits? Messungenauigkeit?

http://www.abload.de/img/chart_24_crysis_1920fyd.png

Odal
2008-06-26, 20:54:35
Ich habs nur ab- bzw rausgeschrieben. Vielleicht cpu Limits? Messungenauigkeit?

http://www.abload.de/img/chart_24_crysis_1920fyd.png


die werte sind aus dem grund schonmal müll bzgl. der generalisierten AA aussage da hier den 512MB karten eindeutig der vram ausgeht in den einstellungen

dem G92 noch früher als dem RV670 und RV770

sieht man ja auch das in crysis eine 3870 eindeutig eine 88GTS schlägt

tombman
2008-06-26, 20:56:35
die werte sind aus dem grund schonmal müll bzgl. der generalisierten AA aussage da hier den 512MB karten eindeutig der vram ausgeht in den einstellungen
Bei 1280x1024 geht ganz sicher gar nix aus...und da sinds in Crysis auch schon 22%

centurio81
2008-06-26, 20:58:57
Ich bin schwer am überlegen ob ich mir nicht ne 4870 holen soll..
Hab aber nen 24"er und zocke gerne mit AA wenn die leistung es erlaubt..
Aber das ne 4870 selbst unter AA nicht großartig zusammenbricht, ist schon krass..
hab im Moment ne übertaktete 8800 GTS 640..

Odal
2008-06-26, 20:59:31
bei dem gequoteten bild auf alle fälle schon den rest müsste man analysieren ;)

crysis saugt viel vram

tombman
2008-06-26, 21:03:35
bei dem gequoteten bild auf alle fälle schon den rest müsste man analysieren ;)
Nicht mal da bin ich sicher. Wenn der VRAM ausgeht, dann heißts meistens im STURZFLUG nach unten, siehe GX2 (1fps ;D). So stark verliert die 4870er nicht, eher linear immer schlimmer, je höher man kommt.

Gast
2008-06-26, 21:04:31
Die Zahlen sagen was anderes...

Die Prozente hätten sich beim Übergang von Non-AA zu AA nicht ändern dürfen, tun sie aber.

Der Abstand vergrößert sich sogar ohne AA :eek:

lol was hast du da für nen blödsinn gemacht? alle fps der spiele stur addiert und mit der summe gerechnet!? ernsthaft mitsamt mass effekt und MS FlSim X?! xD

kannst ja noch Bioshock und UT3 mit AA reinbenchen dann wirds noch schlimmer :| IMO gehören die ergebnisse bei der UE3 einfach anders gewertet...es ist und bleibt schließlich nen hack.

es ist ja schön und gut wenn dir bei deinen GTXen einer abgeht aber statistiken "fälschen" oder so hin drehen wie es einem passt kann jeder...wenn du dich jetzt schon zwanghaft vor deinem konto und gewissen verantworten musst dann tu es...aber tu es bitte weniger aufdringlich :)

das ist bald genauso affig wie das neue vollkommen statische spielbarkeits rating bei PCGH. absolut fürn popo das ganze...auch wenn es gut gemeint ist ;)

fazits und ratings bei allen tests sind sowieso nur für leute die entweder mit ihren anschaffungen angeben wollen oder einfach zu faul sind die benchmarks selber zu interpretieren und für die eigenen bedürfnisse zu gewichten.

tombman
2008-06-26, 21:07:35
IMO gehören die ergebnisse bei der UE3 einfach anders gewertet...es ist und bleibt schließlich nen hack.
Ja genau, DAS wird sicher objektiv machen. Mal einfach das anders gewichten, was einem nicht paßt. Am besten alles in 8xAA, das kommt sicher noch besser, gell?
Mass Effekt und co sind neue games. Und die gesamte Unreal Engine 3 herausnehmen wäre ja Schwachsinn pur, schließlich lieben Konsolenports die ;D

Gast
2008-06-26, 21:13:01
funktioniert FSAA über ein ingame menü? ja oder nein?

du willst doch nicht ernsthaft sagen das
fsaa bei aktuellen UE3 games kein hack ist

was auch immer beide hersteller da veranstalten...du kannst es für dich werten wie du willst aber aus einer offensichtlichen behelfslösung herraus auf eine schwäche zu schlussfolgern ist mal absoluter blödisnn sry

btw hat niemand von rausnehmen gesprochen...

lesen...verstehen...denken...posten! thx

tombman
2008-06-26, 21:16:37
du willst doch nicht ernsthaft sagen das
fsaa bei aktuellen UE3 games kein hack ist
Ist das nicht scheißegal? Wer AA will bekommt AA, und da sollte man auch diejenigen informieren, die nicht "ich hab so Angst vor bösen hacks"-user sind ;)

Eggcake
2008-06-26, 21:18:24
Ich habs nur ab- bzw rausgeschrieben. Vielleicht cpu Limits? Messungenauigkeit?


Das ist mir klar, aber ein starker Hinweis, dass der Test für die Tonne ist. Dasselbe kann man auch bei der 9800GX2 beobachten. Keine Ahnung was die da abgezogen haben.
Und ist ja schön, wenn man irgendwelches Zeugs zeigt, was im unspielbaren Bereich liegt.
Genau dasselbe haben ATI"-Jünger" mit der 3870 gemacht, und dort kam von den nVidianern immer "Ja lol im unspielbaren Bereich blabla" und nun macht ihrs genau umgekehrt ;)

tombman
2008-06-26, 21:20:15
Das ist mir klar, aber ein starker Hinweis, dass der Test für die Tonne ist. Dasselbe kann man auch bei der 9800GX2 beobachten. Keine Ahnung was die da abgezogen haben.
Und ist ja schön, wenn man irgendwelches Zeugs zeigt, was im unspielbaren Bereich liegt.
Genau dasselbe haben ATI"-Jünger" mit der 3870 gemacht, und dort kam von den nVidianern immer "Ja lol im unspielbaren Bereich blabla" und nun macht ihrs genau umgekehrt ;)
Das wichtige daran ist aber, daß es mit ZWEI Karten eben nicht mehr im unspielbaren Bereich liegt ;) Bei ATI trotzdem noch :D

Gast
2008-06-26, 21:20:54
Spielbarkeit der HD 4870 in Age of Conan, Assassin's Creed und Mass Effect:cool:
http://www.pcgameshardware.de/aid,649108/Test/Benchmark/Spielbarkeit_der_HD_4870_in_Age_of_Conan_Assassins_Creed_und_Mass_Effect/

http://www.abload.de/img/14g5qy.jpg (http://www.abload.de/image.php?img=14g5qy.jpg)

http://www.abload.de/img/2akej4.jpg (http://www.abload.de/image.php?img=2akej4.jpg)
TSSAA?... Toll.
Nun kommen also die Tests, welche den 48xx-Hype bestrafen sollen. Ist mir gleich, wenn dabei wie bei tombmans ominösem Zusammenzählen Rückstände der 4870 ggüber der GTX 280 < 20% herauskommen. Hallo? Kuckt euch halt die Kartenpreise an...

tombman
2008-06-26, 21:24:41
Kuckt euch halt die Kartenpreise an...
Ich denke, es ist mittlerweile bekannt, daß bei P/L Nvidia kein Leiberl hat..

Bei der Leistung schon noch- zumindest bis R700.

Ein neuer R300 ist der RV770 NICHT, denn dazu hätte er auch schneller sein müssen...

Gast
2008-06-26, 21:26:22
scheißegal ist die tatsache sicher nicht das vom hersteller der engine mit der momentanen renderer version und den herstellern der spiele offiziell kein fsaa vorgesehen ist...

ich wäre eher dankbar dafür das es überhaupt fsaa ermöglicht wird indem man mit tricks arbeitet.

wenn du natürlich 300 UE3 games benchmarken willst um dann damit ne FSAA schwäche bei den ATi karten zu untermauern...bitte tu was du nicht lassen kannst aber dann verkauf es nicht als unumstößliche tatsache das darauf basierend der rv770 voll die fsaa schwäche hat. :D

du kannst auch gern x mal irgendwelche ratings als beweis herranziehen...tatsache ist schlicht das jeder für sich selbst entscheiden sollte...und zwar auf basis aller ihm zur verfügung stehender informationen

wem willst du hier eigentlich ein x für ein u vormachen?! ratings sind NIE objektiv...die beinhalten immer eine gewichtung.

Gast
2008-06-26, 21:27:11
Das ist wohl so, klar. Wollte auch nicht mit der "ATIs neue hat das besser P/L-Verhältnis"-Keule kommen, sondern nur aufzeigen, dass die Vorwürfe hin und her etwas müssig sind, da die Karten in andern Marktsegmenten angesiedelt sind :)

Odal
2008-06-26, 21:28:11
Ein neuer R300 ist der RV770 NICHT, denn dazu hätte er auch schneller sein müssen...

er ist ja auch kein R sondern ein RV also eher ein RV360

das R300 pendant wird "der" R700 alias 4870X2 werden

Eggcake
2008-06-26, 21:33:41
http://images.anandtech.com/galleries/155/AAscalingcomplete_large.png
http://www.anandtech.com/GalleryImage.aspx?id=3180
http://techreport.com/r.x/radeon-hd-4870/aa-scaling.gif
http://techreport.com/articles.x/14990/7


Nix für ungut, Tombman ;)

clockwork
2008-06-26, 21:45:56
Funktioniert denn AA in Stalker (dynamische Beleuchtung) mit der 4870 und Cat 8.6? Wie siehts mit Bioshock aus?

An der Karte hab ich starkes interesse, auch wenn ich eigentlich nicht mehr ausrüsten wollte. :(
Wenn sie für um die 220€ lieferbar ist werde ich mir wohl eine holen oder auf Karten mit einem anderen Kühler warten (IceQ).

Gast
2008-06-26, 21:46:46
Ist das nicht scheißegal? Wer AA will bekommt AA, und da sollte man auch diejenigen informieren, die nicht "ich hab so Angst vor bösen hacks"-user sind ;)

dumm nur das du eine software implementierung ausserhalb jeglicher spezifikationen der APIs als grundlage nimmst um über die eigenschaften einer hardware zu urteilen. die sich erstaunlicherweise überall dort wo alles innerhalb der spezifikationen läuft vollkommen diametral zur getroffenen aussage verhält!

zumal du um die tatsache bescheid weißt ist das wohl mit die krönung des rosinen pickens :D

Gast
2008-06-26, 21:47:14
Funktioniert denn AA in Stalker mit der 4870 und Cat 8.6? Wie siehts mit Bioshock aus?

An der Karte hab ich starkes interesse, auch wenn ich eigentlich nicht mehr ausrüsten wollte. :(
Wenn sie für um die 220€ lieferbar ist werde ich mir wohl eine holen oder auf Karten mit einem anderen Kühler warten (IceQ).
AA sollte in Stalker gehen, in Bioshock nur in DX9.

reallord
2008-06-26, 21:58:16
http://images.anandtech.com/galleries/155/AAscalingcomplete_large.png
http://www.anandtech.com/GalleryImage.aspx?id=3180
http://techreport.com/r.x/radeon-hd-4870/aa-scaling.gif
http://techreport.com/articles.x/14990/7


Nix für ungut, Tombman ;)

Hmm, is das echt nur nen 8.5er?: Radeon HD 4870 512MB PCIe
with Catalyst 8.501.1-080612a-064906E-ATI drivers (http://techreport.com/articles.x/14990/8)

Mit dem 8.6er sollte mehr Leistung drin sein oder?

Ansonsten seh ich nur nen ungefähren Gleichstand beim Leistungsabfall, bis dann halt 8xAA kommt :)

dr_mordio
2008-06-26, 22:00:22
gibt es schon irgendwelche infos wann die AIBs mit den 1GB modellen der 4870 rauskommen?

ich will kaufen....

MfG
Alex

Gast
2008-06-26, 22:03:18
also 48er serie mit cat. 8.5 anstatt cat. 8.6 hotfix ist nun nicht so der brüller

Wird doch erst offiziel mit dem 8.6 HF unterstützt...PCHG :rolleyes:

Eggcake
2008-06-26, 22:08:16
Also PCGH testete afaik schon mitm 8.6 (ohne Hotfix) für die 4800er. Anandtech hab ich ned geguckt aber ziemlich sicher auch 8.6.

Gast
2008-06-26, 22:18:11
Beim 8.6er HF steht in den Release Notes "Improve performance".
Naja es wird anscheindend alles dafür getan, das die HD4870 noch irgendwie schlecht da steht, gegen über einer Karte die über 100% Teurer ist, aber nur 20% schneller :rolleyes:

HarryHirsch
2008-06-26, 22:20:03
Beim 8.6er HF steht in den Release Notes "Improve performance".
Naja es wird anscheindend alles dafür getan, das die HD4870 noch irgendwie schlecht da steht, gegen über einer Karte die über 100% Teurer ist, aber nur 20% schneller :rolleyes:

das glaub ich jetzt nicht so... sind auch nur menschen

Palpatin
2008-06-26, 23:11:17
Nicht mal da bin ich sicher. Wenn der VRAM ausgeht, dann heißts meistens im STURZFLUG nach unten, siehe GX2 (1fps ;D). So stark verliert die 4870er nicht, eher linear immer schlimmer, je höher man kommt.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/11/#abschnitt_crysis

wie ist dann das hier zu erklären (crysis) 1900 4aa, wärend die 3850 mit 512 genauso schnell ist wie mit 1024, ist die 8800 gt mit 1024 168% schneller als mit 512, wenn das auch für die 4870 gilt wovon ich aus gehen ist es ziemlich egal ob 512 oder 1gb.
Ok in 30 Zoll Auflösung mit 8AA geht der ATI anscheindend auch der Speicher aus.

Gast
2008-06-26, 23:15:47
Habe es aus ALLEN Tests herausgeschrieben:
http://www.tomshardware.com/de/HD-4870-Radeon-ATi-RV770,testberichte-240071-23.html

Das die Site nicht brauchbar ist und käuflich bestechbar sollte spätestens seit dem Dauertest Athlon x2 vs. Pentium IV bekannt sein.

Es zeugt davon das die Redaktion wenn man sie den so nennen kann inkompetent "n!" (Fakultät) ist.
Begin des Tests AMD System 100% Stabil, Intel System abstürze aus unerklärlichen Gründen, Abbruch des Tests. Zweiter Anlauf Intel System 100% Stabil, AMD System instabil... ah ja, sehr objektiv und fair. Hier zweiter Anlauf zum selbst nachlesen (http://www.tomshardware.com/de/Stresstest-Dual-Core-AMD-Intel,testberichte-1129.html)

Das Manipulieren von Testergebnissen (bzw. schlecht Konfigurieren) gibt es in anderen Tests dann zu bewundern, aber in diesem wurde wahrscheinlich nicht ganz so sehr am Rad gedreht um wenigstens dem Dau, die Inkompetenz nicht ganz so Offensichtlich zu machen.

Es ist ein Armutszeugnis THG oder auch bekannt als Toms Hardware Lügenguide zu verlinken und somit Lesern zu vermitteln das diese Quelle seriös wäre.

Gast
2008-06-27, 01:06:18
Habe es aus ALLEN Tests herausgeschrieben:
http://www.tomshardware.com/de/HD-4870-Radeon-ATi-RV770,testberichte-240071-23.html
add U3 Hack
[ ] mir ist bewußt dass die GT280 bei einigen Tests ohne AA am CPU Limit läuft.
Mal für Tombi: CPU Limit bedeutet dass ein Teil des AA for free ist. Ohne CPU Limit wäre der prozentuale Verlust höher

Spasstiger
2008-06-27, 01:27:47
Die HD4870 beeindruckt micht wirklich, in den für mich interessanten Settings wäre sie überall mehr als doppelt so schnell wie meine jetzige Radeon HD2900 Pro. Und das für 220€.
Die HD4850 bietet zwar das noch deutlich bessere Preis-Leistungsverhältnis, aber die HD4870 ist halt auch 30%, teilweise 40% schneller, was schon einen deutlichen Unterschied in der Spielbarkeit @ 1920x1200 mit 4xAA und 16:1 AF macht.

Diese GPU-Runde geht imo an AMD, sie haben einfach das für den preisbewussten Kunden das bessere Paket zusammengeschnürt. Die absolute Performancekrone ist nichts wert, wenn man preislich nicht konkurrenzfähig ist. Nur die Enthusiasten zahlen das Doppelte für eine Grafikkarte trotz nur 20% höheren fps.

Gast
2008-06-27, 01:33:31
Die HD4870 beeindruckt micht wirklich, in den für mich interessanten Settings wäre sie überall mehr als doppelt so schnell wie meine jetzige Radeon HD2900 Pro. Und das für 220€.
Die HD4850 bietet zwar das noch deutlich bessere Preis-Leistungsverhältnis, aber die HD4870 ist halt auch 30%, teilweise 40% schneller, was schon einen deutlichen Unterschied in der Spielbarkeit @ 1920x1200 mit 4xAA und 16:1 AF macht.

Diese GPU-Runde geht imo an AMD, sie haben einfach das für den preisbewussten Kunden das bessere Paket zusammengeschnürt.

Jep, und dann schnall so 2 Babys zusammen :) für ca. 450€, und GT200 frisst Staub en Masse!!!

Und jetzt kommt nich mit dem Shit, ehhh, 2 Karten mit einer vergleichen. 450€ fressen dieses NV-Baby für 450-500€.

Nur Tombman hängt diese mit 2 GT200 noch ab :) heh..

Gast
2008-06-27, 01:36:23
Die HD4870 beeindruckt micht wirklich, in den für mich interessanten Settings wäre sie überall mehr als doppelt so schnell wie meine jetzige Radeon HD2900 Pro. Und das für 220€.
Die HD4850 bietet zwar das noch deutlich bessere Preis-Leistungsverhältnis, aber die HD4870 ist halt auch 30%, teilweise 40% schneller, was schon einen deutlichen Unterschied in der Spielbarkeit @ 1920x1200 mit 4xAA und 16:1 AF macht.

Diese GPU-Runde geht imo an AMD, sie haben einfach das für den preisbewussten Kunden das bessere Paket zusammengeschnürt.

Du dürfst auch nicht vergessen das man ein guten Kühler mitbekommt der die Hitze raus bläßt (man brauch ihn nicht wechseln und die Garantie riskieren), sowie keine Bandbreiten probleme beim OC, bessere Spannugsversorgung usw.

EureDudeheit
2008-06-27, 01:53:33
Funktioniert denn AA in Stalker (dynamische Beleuchtung) mit der 4870 und Cat 8.6? Wie siehts mit Bioshock aus?

An der Karte hab ich starkes interesse, auch wenn ich eigentlich nicht mehr ausrüsten wollte. :(
Wenn sie für um die 220€ lieferbar ist werde ich mir wohl eine holen oder auf Karten mit einem anderen Kühler warten (IceQ).


Hab mir vorhin eine bei MF für 219,14€ bestellt. LIEFERBAR. Hoffe ich hab noch rechtzeitig bestellt.

Gast
2008-06-27, 01:57:52
@Gast über mir: Das trifft sowohl auf die 4870 als auch auf die GTXen zu ;) (wobei, blasen letztere nicht einen Teil der Abluft wieder ins Gehäuse?)

Off topic:
Die HD4870 beeindruckt micht wirklich, in den für Nur die Enthusiasten zahlen das Doppelte für eine Grafikkarte trotz nur 20% höheren fps.Ich stimme dir ja soweit zu, aber beim zitierten Absatz möchte ich doch einsprechen ein "Enthusiast" kann genausogut ein Bastler sein, der seine Hardware "versteht" und modifizieren kann, sie um des Techlevels wegen kauft, oder oder oder. Davon auszugehen, dass es sich dabei um die handelt, die einfach Geld ausgeben für's aktuell schnellste, ist ein Trugschluss, den Hersteller nutzen für das Label "Enthusiast"... Interessanter Artikel auf bit-tech: http://www.bit-tech.net/bits/2008/03/03/misinterpreting_the_enthusiast/1

Gast
2008-06-27, 02:01:40
Das ist jetzt der Joker für alles, oder? :rolleyes:
Naja, wenn man 300 EUR differenz des Kaufpreises mit "hinzurechnet", darf man sich locker auchn Joker "hinzurechnen".

Jules@Party:D

dr_mordio
2008-06-27, 02:14:41
scheinbar kommt DX10.1 jetz mit der neuen HD48xx Serie endlich in fahrt

http://www.nvnews.net/vbulletin/showpost.php?p=1692960&postcount=118

Also Dave Baumann from ATI said...
Something that hasn't been noted yet is that EA and SEGA are signed on with us for DX10.1 titles, we've also signed a fairly major deal with Blizzard.


Was ist davon zu halten?

Oh hier noch mal die original aussage von dave selber @ rage3d:
http://rage3d.com/board/showpost.php?p=1335512390&postcount=12

MfG
Alex

PS: gerad ne Sapphire HD4870 full Retail für 219€ inklusiv versand gekauft
waren nur noch unter 5stück am lager *bibber* ich hoffe meine geht morgen frühgleich raus bevor der versand die noch an wen anderes sendet *zitter*

Gast
2008-06-27, 02:20:34
Autsch :D http://i30.tinypic.com/vg67wi.jpg

Gast
2008-06-27, 02:27:01
Autsch :D http://i30.tinypic.com/vg67wi.jpg

Gesundheit

:)

http://www.abload.de/img/olivion_2560_1200_8xt6n.png (http://www.abload.de/image.php?img=olivion_2560_1200_8xt6n.png)

Superheld
2008-06-27, 02:29:47
PCGH:ulol3:

Gast
2008-06-27, 02:29:56
8xAA *lach* Na danke aber auch, wer sowas nutzt muss schon tief gestürzt sein. ;)

Gast
2008-06-27, 02:52:54
Zeigt nur das eine Gtx280 auch von einer Hd3870 "geschlagen" werden kann, wie auch eine Hd4870 von einer 8800Gt in PT Boats :)

Alles ist möglich ^^

Gast
2008-06-27, 03:21:19
Wenn man AI ausstellt, ganz sicher nicht.

seahawk
2008-06-27, 07:25:54
Keine Sorge Verbrauch und Temp wird im Idle gesenkt werden und flüsterleise ist die 4850 sowieso.

Mark3Dfx
2008-06-27, 07:50:05
Schau dir die Reviews an ! Oder hast du was auf den Augen ?

Setz Du mal deine rote Brille ab und lese.

->
http://ht4u.net/reviews/2008/amd_radeon_hd4850/index14.php

"
Wir können unschwer erkennen, dass AMDs HD 4850 sich nicht mehr auf dem Niveau einer HD 3850 bewegt – das hätten wir auch nicht erwartet.
Gute 40 Watt legt man hier im unmittelbaren Vergleich zu, was wir allerdings nicht erwartet hätten, bei den massiven Absenkungen der Taktraten und Spannungen.

Im Last-Verhalten zeigt sich die HD 4850 dann um ca. 60 Watt höher als die HD 3850....
Wir sind überrascht und hätten an der Ecke doch ein wenig mehr erwartet."

Und das das Problem der hohen Leistungsaufnahme mit einen
(mal wieder bei AMTi) "Wundertreiber" gelöst wird bezweifel nicht nur ich.

-> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422784&page=2

Sascha1971
2008-06-27, 08:00:57
Da sieht man eben: Butter GTX280 ist durch nichts zu ersetzen ;)
Die kommt nur ganz selten in den gelben Bereich, meistens 100% grün- keine andere Karte kann das :cool:



Doch durch die 4870(x2) denke ich mal.
Denn die beiden sind auch in der gleichen Preisregion. also kann man eigentlich auhc nur die beiden gegeneinander testen.

seahawk
2008-06-27, 08:14:52
jo deswegen hatt das Ding ja auch im idle 80 Grad...aber hauptsache leise ;D


*****4870....gehts hier
80°C sind kein Problem für die GPU und im 2D ist auch die 4870 unhörbar.

Gast
2008-06-27, 08:16:54
Gibts irgendwo noch einen Vergleich mit älteren Karten der X1900 Serie?

user77
2008-06-27, 08:20:21
laut einem Thread in CB ist das mit dem hohen idle temeraturen ein bios problem:

http://www.computerbase.de/forum/showthread.php?t=436802

Durch ein bios update der karten funktioniert es dann

Gorkon
2008-06-27, 08:30:01
Setz Du mal deine rote Brille ab und lese.

->
http://ht4u.net/reviews/2008/amd_radeon_hd4850/index14.php

"
Wir können unschwer erkennen, dass AMDs HD 4850 sich nicht mehr auf dem Niveau einer HD 3850 bewegt – das hätten wir auch nicht erwartet.
Gute 40 Watt legt man hier im unmittelbaren Vergleich zu, was wir allerdings nicht erwartet hätten, bei den massiven Absenkungen der Taktraten und Spannungen.

Im Last-Verhalten zeigt sich die HD 4850 dann um ca. 60 Watt höher als die HD 3850....
Wir sind überrascht und hätten an der Ecke doch ein wenig mehr erwartet."

Und das das Problem der hohen Leistungsaufnahme mit einen
(mal wieder bei AMTi) "Wundertreiber" gelöst wird bezweifel nicht nur ich.

-> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422784&page=2

Auf ein neues...:rolleyes:

Powerplay wird wohl erst mit dem Cat 8.7 oder später unterstützt, daher der hohe Idle-Verbrauch der HD4800er.

Mark3Dfx
2008-06-27, 08:42:55
Auf ein neues...:rolleyes:

Powerplay wird wohl erst mit dem Cat 8.7 oder später unterstützt, daher der hohe Idle-Verbrauch der HD4800er.

Quelle?
Oder doch nur Wunschdenken aus der Kristallkugel?

ShadowXX
2008-06-27, 08:47:49
Auf ein neues...:rolleyes:

Powerplay wird wohl erst mit dem Cat 8.7 oder später unterstützt, daher der hohe Idle-Verbrauch der HD4800er.
Das hat nichts mit dem Treiber zu tun.

Das ist wenn ein BIOS Problem. Es gibt scheinbar neuere BIOSe bei denen die Karten dann bis auf 160MHz runtertakten...das soll allerdings nur das "Wäremeproblem" im Idle beheben, aber sich nur sehr gering auf den Verbrauch auswirken.

Zatoichi
2008-06-27, 08:52:47
Das ist auf jeden Fall arg, da es sich um ein beworbenes Feature handelt. Egal woran es liegt, eine Stellungsnahme seitens der Verantwortlichen wäre da nicht schlecht.

Liszca
2008-06-27, 08:59:45
Ja, bei XBit (http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_19.html).

Aber vergiss es. Selbst 12xCFAA ist schon viel zu langsam um es benutzen zu können (zumindest wenn die Games halbwegs neu sind.....bei 3-5 Jahren alten Titeln könte es anders aussehen).

das mit den FSAA hat eh komische züge angenommen, oder kennst du jemand der bei einem spiel während des spielens unterschied zwischen 4x und 8x AA erkennen kann? Wohlgemerkt bei einer auflösung von 2560x1600. IMHO hätte man bei 6x AA aufhören können, aber dann ist das balkenrennen ja langweilig.

und genau aus diesem grund interessiert es mich nicht die bohne ob 8x aa brauchbar ist oder nicht. Mich stört das zunehmende colourbanding in aktuellen spielen immer mehr, zeit für 40bit farbtiefe =)

ShadowXX
2008-06-27, 09:11:16
das mit den FSAA hat eh komische züge angenommen, oder kennst du jemand der bei einem spiel während des spielens unterschied zwischen 4x und 8x AA erkennen kann? Wohlgemerkt bei einer auflösung von 2560x1600. IMHO hätte man bei 6x AA aufhören können, aber dann ist das balkenrennen ja langweilig.

und genau aus diesem grund interessiert es mich nicht die bohne ob 8x aa brauchbar ist oder nicht. Mich stört das zunehmende colourbanding in aktuellen spielen immer mehr, zeit für 40bit farbtiefe =)
Und wie viele Leute spielen in 2560x1600?

Ich gehe mal davon aus, das der Großteil der Monitor 1280x1024(960) & 1680x1050 sind, mit einer noch erwähnenswerten Zahl von Usern mit 1600x1200 Displays.

Bei allen diesen Auflösungen kannst du 4xMSAA noch deutlich von 8xMSAA unterschieden...zumindest ich kann es und mindestens 2 meiner Kumpel.
Vielleicht sind wir ja die einzigen Ausnahmen auf diesem Planeten, aber das glaube ich dann irgendwie doch nicht.

Klar gibt es den ein oder andere Game wo man nicht mal 2xMSAA von 8xMSAA unterscheiden kann, weil der Content bzw. der Aufbau so "extrem" ist.
Aber solche Games gibt es nicht so oft und selbst bei diesen merkt man es oft in Bewegung ob AA an ist oder nicht.

Den Fehler den viele machen ist das Sie davon ausgehen das AA für das ruhige Bild wichtig ist....das ist aber falsch. Das das Standbild "smoother" aussieht (bzw. wie höher aufgelöst) ist ein netter Nebeneffekt, das was AA wirklich bewirken soll ist das das Kantenflimmern bei Bewegung verhindert bzw. gemildert werden soll.
Und das tut AA auch noch bei 2560x1600......ob man dann unbedingt 8xMSAA braucht ist eine andere Sache, aber 8xMSAA ist auch eher für etwas tiefer Auflösungen gedacht und in denen sieht man es teilweise deutlich.

Zu deinem "sie hätten bei 6x aufhören können": ATI (AFAIK jetzt seit rv700) und nVs (seit G80) ROPs (bzw. Renderbacks) machen 4xMSAA in einem Takt.
D.h. 6xMSAA würde genauso 2 Takte benötigen wie 8xMSAA. Es wäre also unsinnig 6xMSAA anzubieten, das war bei den alten ATIs damals nur ein Gimmick, weil es obwohl 2x geloopt werden musste (2xMSAA pro Takt waren damals üblich) halbwegs performant war.

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/rv770_rbe_table.gif

Grumbart
2008-06-27, 09:16:15
idle verbrauch kann man knicken
Temp...oha

Und bei der G80/G92 war das Alles kein Thema?
Der Load-Verbrauch der GT200 Serie ist auch kein Thema?

Fanboys, pah.

reunion
2008-06-27, 09:17:18
Die Verfügbarkeit nimmt zu meiner Überraschung auch zu: http://geizhals.at/eu/?cat=gra16_512&sort=artikel&bpmax=&asuch=4870&filter=+Liste+aktualisieren+&pixonoff=off

Hätte ich mir nicht gedacht, vorallem da selbst AMD erst ab 8. Juli von Verfügbarkeit sprach. Aber scheint so als ob die Auslieferung weiter geht und nicht nur eine Hand voll Karten vorzeitig in den Handel geworfen wurden.

Gast
2008-06-27, 09:23:58
Bei allen diesen Auflösungen kannst du 4xMSAA noch deutlich von 8xMSAA unterschieden...

Ich bezweifle das du das kannst, bei einer laufenden Szene... bei Standbildern hilft AA sicherlich, aber nicht bei Shootern & Renngames.

Ich sehe nicht mal mehr einen Unterschied zwischen 4x und 6x, da ich keine Zeit habe, darauf zu achten. Im Menü oder bei Screenshot ist der Punkte, wo es auffällt.

Odal
2008-06-27, 09:43:19
Das hat nichts mit dem Treiber zu tun.

Das ist wenn ein BIOS Problem. Es gibt scheinbar neuere BIOSe bei denen die Karten dann bis auf 160MHz runtertakten...das soll allerdings nur das "Wäremeproblem" im Idle beheben, aber sich nur sehr gering auf den Verbrauch auswirken.

doch das hat was mit dem treiber zu tun....

der setzt die verschiedenen powerstates

veränder mal den takt einer 3870 per ATT atitool oder was auch immer....solang man dies nicht per CCC und overdrive tat ging powerplay flöten


genau aus dem grund hat meine 3850 ein bios drauf was die overdrivegrenzen bis zu 1200mhz verschiebt....übertaktet wird dann per overdrive

ShadowXX
2008-06-27, 09:48:03
Ich bezweifle das du das kannst, bei einer laufenden Szene... bei Standbildern hilft AA sicherlich, aber nicht bei Shootern & Renngames.

Nochmal ganz langsam: Da wo AA am meisten hilft ist bei Bewegung um das Kantenflimmern zu verringern.
Das ist der wichtigste Aspekt von AA.
Das es nebenbei noch hübsche Standbilder erzeugt ist auch ganz nett.

Gerade bei Shootern und Rennspielen bringt AA was.

Wenn du AA nicht bemrkst, hast du Glück, da du dann viel Geld sparen kannst.

doch das hat was mit dem treiber zu tun....

der setzt die verschiedenen powerstates

veränder mal den takt einer 3870 per ATT atitool oder was auch immer....solang man dies nicht per CCC und overdrive tat ging powerplay flöten

genau aus dem grund hat meine 3850 ein bios drauf was die overdrivegrenzen bis zu 1200mhz verschiebt....übertaktet wird dann per overdrive
Wenn du meinst.
Selbst auf den rotesten aller Seiten wird inzwischen vom Gegenteil geredet.

Im Bios sind die ganze Powerstates doch erst hinterlegt, wenn diese im Bios falsch einprgrammiert sind kann gar nicht das richtige passieren.

Guck mal hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6617311#post6617311

Die Verfügbarkeit nimmt zu meiner Überraschung auch zu: http://geizhals.at/eu/?cat=gra16_512&sort=artikel&bpmax=&asuch=4870&filter=+Liste+aktualisieren+&pixonoff=off

Hätte ich mir nicht gedacht, vorallem da selbst AMD erst ab 8. Juli von Verfügbarkeit sprach. Aber scheint so als ob die Auslieferung weiter geht und nicht nur eine Hand voll Karten vorzeitig in den Handel geworfen wurden.
Ha...meine 4870 ist gerade angekommen.....man ist das nen Julklapp-Paket. Ich musste die Verpackung der Graka direkt suchen. Paket so groß da man da fast nen Midi-Tower reinstecken könnte und die Graka-Verpackung so Groß wie nen handelsüblicher Toaster.

Sapphire wurde übrigens von ATI mit den "Soundeigenschaften" überrascht. Aus der Verpackung wurde ein 5.1 mit einem klitzekleinen 7.1 Aufkleber überklebt;)

Gast
2008-06-27, 09:56:06
Nochmal ganz langsam: Da wo AA am meisten hilft ist bei Bewegung um das Kantenflimmern zu verringern.

Das ist es doch, du achtest darauf gar nicht.
Spiel mal ein Spiel wie "Quake 3" in dieser Geschwindigkeit. Du hast überhaupt keine Zeit auf irgendwelche Kanten zu achten. Du beachtest noch nicht mal den ganzen Bildschirm (z.B. HUD), viel mehr konzentriert du dich nur auf einen Punkt, den Gegner oder die Ecke wo der Gegner herkommt.

Gerade bei Shootern und Rennspielen bringt AA was.

Im Trabbi vielleicht, aber nicht bei 300km/h. :D
Da fliegen die Texturen so schnell an dir vorbei, das du es gar nicht wirklich wahrnimmst.

--- Das schreit hier förmlich nach einem Kontest! Kann mal jemand ein paar hochauflösende Screenshots mit 4x, 6x und 8x AA machen und die mit verwirrenden Dateinamen hier rein stellen? ---

Ich würde das meiste eher unter dem Punkt Einbildung abhaken. Wenn du weißt, was bei dir eingestellt ist, dann denkst du viel eher, das du den Unterschied siehst.

ShadowXX
2008-06-27, 10:01:10
Das ist es doch, du achtest darauf gar nicht.
Spiel mal ein Spiel wie "Quake 3" in dieser Geschwindigkeit. Du hast überhaupt keine Zeit auf irgendwelche Kanten zu achten. Du beachtest noch nicht mal den ganzen Bildschirm (z.B. HUD), viel mehr konzentriert du dich nur auf einen Punkt, den Gegner oder die Ecke wo der Gegner herkommt.

Im Trabbi vielleicht, aber nicht bei 300km/h. :D
Da fliegen die Texturen so schnell an dir vorbei, das du es gar nicht wirklich wahrnimmst.

--- Das schreit hier förmlich nach einem Kontest! Kann mal jemand ein paar hochauflösende Screenshots mit 4x, 6x und 8x AA machen und die mit verwirrenden Dateinamen hier rein stellen? ---

Ich würde das meiste eher unter dem Punkt Einbildung abhaken. Wenn du weißt, was bei dir eingestellt ist, dann denkst du viel eher, das du den Unterschied siehst.
Wenn du meinst.
Ich persönlich sehe ob 2, 4 oder 8xMSAA eingestellt ist. Vielleicht nicht in jeder Szene eines Games oder an jeder beliebigen Stelle, aber trotzdem (viellicht sollte man besser) bemerke (sagen) ich den unterschied.

Wie schon erwähnt....wenn du es nicht bemerkst ist es doch gut für dich, aber versuch doch jetzt nicht denen, die AA für wichtig erachten das auf Krampf auszureden.

Und da ich bei Renngames ein Weichei "von Hinten aufs Auto gucker" bin, bemerke ich sogar sehr stark was für ein AA-Level an ist. Ich sehe den "Popo" des Autos nämlich dauernd vor mir hin- und herwackeln.

Odal
2008-06-27, 10:06:06
Wenn du meinst.
Selbst auf den rotesten aller Seiten wird inzwischen vom Gegenteil geredet.


welches gegenteil? das powerplay nichts mit einem treiber zutun hat?


Im Bios sind die ganze Powerstates doch erst hinterlegt, wenn diese im Bios falsch einprgrammiert sind kann gar nicht das richtige passieren.

Guck mal hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6617311#post6617311


richtig im bios sind die powerstates hinterlegt....das heisst aber nicht das der treiber keine rolle mehr spielt...

hol dir eine 3850/70 (zu den neuen kann ich keine 100% aussage treffen da ich sie noch nicht besitze)
änder den takt per rivatuner und lass dir gpu takt gpu auslastung etc. anzeigen...
und klemm dein multimeter an die karte...

da ändert sich nix (also beim wechsel von 3d zu 2d oder verschiedenen gpu auslastungen)...weder takt noch spannung sobald man per rivatuner händisch übertaktet
tut man dies per overdrive funzt taktabsenkung und spannungsabsenkung tadellos
aber warum diskutier ich noch...wird ja eh angezweifelt...ich habs zwar ermessen aber egal

Schlammsau
2008-06-27, 10:08:03
da muss ich einigen Vorrednern recht geben. Alles über 4xAA genauso wie alles über 8xAF ist während des zockens nicht auszumachen!

Zatoichi
2008-06-27, 10:10:12
doch das hat was mit dem treiber zu tun....

der setzt die verschiedenen powerstates

veränder mal den takt einer 3870 per ATT atitool oder was auch immer....solang man dies nicht per CCC und overdrive tat ging powerplay flöten


genau aus dem grund hat meine 3850 ein bios drauf was die overdrivegrenzen bis zu 1200mhz verschiebt....übertaktet wird dann per overdrive

Der Witz ist, das ich mit 500Mhz 80 Grad im Idle hab und die Leute, welche das andere Bios drauf haben, 160Mhz mit 80Grad im Idle. Also wirklich was bringen tut das nicht. Irgendwo hakt es da. Ich sags nochmal, da muß einer der Offizellen was zu sagen.

reunion
2008-06-27, 10:12:22
Das hat nichts mit dem Treiber zu tun.

Das ist wenn ein BIOS Problem. Es gibt scheinbar neuere BIOSe bei denen die Karten dann bis auf 160MHz runtertakten...das soll allerdings nur das "Wäremeproblem" im Idle beheben, aber sich nur sehr gering auf den Verbrauch auswirken.

Die Taktfrequenz fließt linear in den Verbrauch ein, da P=C*f*U². Du kannst davon ausgehen das eine auf 1/3 gesenkte Taktfrequenz sehr wohl große Auswirkungen auf die Leistungsaufnahme hat. Wäre ja auch unlogisch wenn die Wärme abnimmt aber der Verbrauch nicht.

Der Witz ist, das ich mit 500Mhz 80 Grad im Idle hab und die Leute, welche das andere Bios drauf haben, 160Mhz mit 80Grad im Idle. Also wirklich was bringen tut das nicht. Irgendwo hakt es da. Ich sags nochmal, da muß einer der Offizellen was zu sagen.

Du hast noch immer nicht verstanden wie die Lüftersteuerung bei AMD funktioniert. Solange du unter 80°C hast dreht der Lüfter praktisch nicht. Erst dann springt er an. Daraus kannst du also nicht auf den Verbrauch schließen.

ShadowXX
2008-06-27, 10:13:04
richtig im bios sind die powerstates hinterlegt....das heisst aber nicht das der treiber keine rolle mehr spielt...

hol dir eine 3850/70 (zu den neuen kann ich keine 100% aussage treffen da ich sie noch nicht besitze)
änder den takt per rivatuner und lass dir gpu takt gpu auslastung etc. anzeigen...
und klemm dein multimeter an die karte...

da ändert sich nix (also beim wechsel von 3d zu 2d oder verschiedenen gpu auslastungen)...weder takt noch spannung sobald man per rivatuner händisch übertaktet
tut man dies per overdrive funzt taktabsenkung und spannungsabsenkung tadellos
aber warum diskutier ich noch...wird ja eh angezweifelt...ich habs zwar ermessen aber egal
Ich glaube dir ja, das der Treiber vielleicht hier und da noch einen kleinen Einfluss hat, aber fakt ist, das bei den umgeflashten Karten das Runtertakten auf 160MHz auch ohne neuen Treiber funktioniert.

Das es bei einr 3780 mit OC nicht mehr funktioniert liegt IMHO eher daran das das Bios nicht mehr weiß was los ist, da die Taktraten nicht mehr stimmen. Vielleicht gibt es auch einen Mechanismus im Bios der wenn man OCed sofort alle Runtertaktmassnahmen sperrt.

Es ist ja nicht so, da nicht auch ich hoffe, das ein Treiber da noch irgendetwas macht, aber ich habe da inzwischen nicht mehr viel Hoffnung.

Andererseits schluckt Sie weniger als meine alte 8800GTX (RIP) und ca. genau soviel wie mein jetzige 9800GTX, also macht es mir persönlich nicht so viel aus wenn Sie jetzt doch mehr verbrauchen sollte als zuerst angenommen.

Vielleicht tut sich ja wirklich noch was.....

da muss ich einigen Vorrednern recht geben. Alles über 4xAA genauso wie alles über 8xAF ist während des zockens nicht auszumachen!
Vielleicht von dir....und selbst wenn wir jetzt mal sagen das es bei schnellen Shootern wiklich nicht zu bemerken ist, bei Schleichshootern, Rollenspielen & Co. dann aber durchaus.

Odal
2008-06-27, 10:14:07
Der Witz ist, das ich mit 500Mhz 80 Grad im Idle hab und die Leute, welche das andere Bios drauf haben, 160Mhz mit 80Grad im Idle. Also wirklich was bringen tut das nicht. Irgendwo hakt es da. Ich sags nochmal, da muß einer der Offizellen was zu sagen.

ja weil die spannung vermutlich nicht mit abgesenkt wird...

das was eigentlich verbrauch und somit auch temperatur verringert ist die spannung...takt absenken bringt fast nix und wird nur gemacht damit diese niedrige spannung nicht zu instabilitäten führt

ich weiß nicht ob bei den 48X0 karten diesbezüglich alles in ordnung ist aber der treiber ist nicht unbeteiligt am powerplay

reunion
2008-06-27, 10:17:17
Wenn du meinst.
Selbst auf den rotesten aller Seiten wird inzwischen vom Gegenteil geredet.

Im Bios sind die ganze Powerstates doch erst hinterlegt, wenn diese im Bios falsch einprgrammiert sind kann gar nicht das richtige passieren.

Guck mal hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6617311#post6617311


Ich weiß nicht wie es bei der HD4xxx ist, aber bei den HD3xxx-Karten hat der Treiber sehr wohl große Auswirkungen auf Powerplay. Im Bios sind die Taktfrequenzen hinterlegt, aber das viel wichtigere Clock-Gathering wird zumindest bei den RV670-Karten über den Treiber gesteuert.


Ha...meine 4870 ist gerade angekommen.....man ist das nen Julklapp-Paket. Ich musste die Verpackung der Graka direkt suchen. Paket so groß da man da fast nen Midi-Tower reinstecken könnte und die Graka-Verpackung so Groß wie nen handelsüblicher Toaster.

Sapphire wurde übrigens von ATI mit den "Soundeigenschaften" überrascht. Aus der Verpackung wurde ein 5.1 mit einem klitzekleinen 7.1 Aufkleber überklebt;)

Na dann mal her mit den Usertests.

Gast
2008-06-27, 10:20:30
Ich weiß nicht wie es bei der HD4xxx ist, aber bei den HD3xxx-Karten hat der Treiber sehr wohl große Auswirkungen auf Powerplay. Im Bios sind die Taktfrequenzen hinterlegt, aber das viel wichtigere Clock-Gathering wird zumindest bei den RV670-Karten über den Treiber gesteuert.


Merkt man auch wenn man kein Treiber instaliert hat, zeigt das Energy Check 3000 auch deutlich mehr an im IDLE und die Karte ist Wärmer (HD3870).

Schlammsau
2008-06-27, 10:20:38
Ich weiß nicht wie es bei der HD4xxx ist, aber bei den HD3xxx-Karten hat der Treiber sehr wohl große Auswirkungen auf Powerplay. Im Bios sind die Taktfrequenzen hinterlegt, aber das viel wichtigere Clock-Gathering wird zumindest bei den RV670-Karten über den Treiber gesteuert.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6617323#post6617323

selbst ein aufspielen eines "richtigen" (160/500) Bios hat nichts gebracht! Keine Taktreduzierung, etc....
Also es leigt wirklich am Treiber, oder die Takraten im Bios haben keinen Einfluss!

seahawk
2008-06-27, 10:22:27
Der Witz ist, das ich mit 500Mhz 80 Grad im Idle hab und die Leute, welche das andere Bios drauf haben, 160Mhz mit 80Grad im Idle. Also wirklich was bringen tut das nicht. Irgendwo hakt es da. Ich sags nochmal, da muß einer der Offizellen was zu sagen.

Da limitiert wohl der Kühler. Bedenke, dass er mit dem neuen BIOS den Lüfter teilweise abstellt.

Zatoichi
2008-06-27, 10:22:30
Die Taktfrequenz fließt linear in den Verbrauch ein, da P=C*f*U². Du kannst davon ausgehen das eine auf 1/3 gesenkte Taktfrequenz sehr wohl große Auswirkungen auf die Leistungsaufnahme hat. Wäre ja auch unlogisch wenn die Wärme abnimmt aber der Verbrauch nicht.



Du hast noch immer nicht verstanden wie die Lüftersteuerung bei AMD funktioniert. Solange du unter 80°C hast dreht der Lüfter praktisch nicht. Erst dann springt er an. Daraus kannst du also nicht auf den Verbrauch schließen.

So habe ich das nicht gemeint. Ich habe nur gesagt, das das Bios alleine rein garnix bringt außer dem geringeren Takt. Wenn die Spannungen gesenkt werden würden, müßte doch auch die Temp niedriger sein, oder nicht?

Odal
2008-06-27, 10:23:56
So habe ich das nicht gemeint. Ich habe nur gesagt, das das Bios alleine rein garnix bringt außer dem geringeren Takt. Wenn die Spannungen gesenkt werden würden, müßte doch auch die Temp niedriger sein, oder nicht?


wenn man den lüfter auf ner festen "prozentzahl" rotieren lässt natürlich...ansonsten kommt drauf an wie weit die lüftersteuerung da noch reinpfuscht

reunion
2008-06-27, 10:32:16
So habe ich das nicht gemeint. Ich habe nur gesagt, das das Bios alleine rein garnix bringt außer dem geringeren Takt. Wenn die Spannungen gesenkt werden würden, müßte doch auch die Temp niedriger sein, oder nicht?

Schon alleine die Taktreduzierung müsste einiges bringen. Sicher das diese tatsächlich gesenkt wird? Die Temp muss deswegen nicht zwangsläufig niedriger sein, da es gut möglich ist, dass der Lüfter langsamer dreht als vorher.

Aquaschaf
2008-06-27, 10:40:33
Da limitiert wohl der Kühler. Bedenke, dass er mit dem neuen BIOS den Lüfter teilweise abstellt.

Mit anderem Kühler dessen Lüfter nicht von der Grafikkarte angesteuert wird ändert sich bei mir durch die gesenkte Taktrate auch nichts.

reunion
2008-06-27, 10:45:01
Mit anderem Kühler dessen Lüfter nicht von der Grafikkarte angesteuert wird ändert sich bei mir durch die gesenkte Taktrate auch nichts.

Dann wird die Taktrate nicht gesenkt.

Zatoichi
2008-06-27, 10:45:09
Schon alleine die Taktreduzierung müsste einiges bringen. Sicher das diese tatsächlich gesenkt wird? Die Temp muss deswegen nicht zwangsläufig niedriger sein, da es gut möglich ist, dass der Lüfter langsamer dreht als vorher.

Außer das im CC ein niedrigerer Takt angezeigt wird, passiert nix. Weder dreht der Lüfter anders noch sind die Temps niedriger. Das ist doch was ich komisch finde. Also um das abzuschließen, es gibt ein Bios was den Takt absenkt, aber das ist ohne Auswirkung. PP funktioniert auch damit nicht.

ShadowXX
2008-06-27, 10:55:08
Mit anderem Kühler dessen Lüfter nicht von der Grafikkarte angesteuert wird ändert sich bei mir durch die gesenkte Taktrate auch nichts.
Jetzt mal davon abgesehe:
Welche 3rd Party-Lüfter sind den so für die 4870 geeignet und/oder empfehlenswert?

2B-Maverick
2008-06-27, 11:00:26
Jetzt mal davon abgesehe:
Welche 3rd Party-Lüfter sind den so für die 4870 geeignet und/oder empfehlenswert?

wenn man einen der neuen RAM-Kühler etwas verbiegt ist wohl ein AcceleroS1 eine gute und sehr günstige Wahl

Ausserdem braucht man aus der Grabbelkiste noch einen kleine Kühler für die Spannungswandler, da dort der mitgelieferte wohl auch nicht passt.

ShadowXX
2008-06-27, 11:03:02
wenn man einen der neuen RAM-Kühler etwas verbiegt ist wohl ein AcceleroS1 eine gute und sehr günstige Wahl

Ausserdem braucht man aus der Grabbelkiste noch einen kleine Kühler für die Spannungswandler, da dort der mitgelieferte wohl auch nicht passt.
OK. Danke für die Auskunft.
Dann warte ich aber lieber noch ein Weilchen auf für die 4870 angepasste Lüfter.

Eggcake
2008-06-27, 11:24:23
http://img521.imageshack.us/my.php?image=4850acceleroem4.jpg

Trifft auch für die 4870 zu, nur dass man da kein Problem mit dem Spannungswandlerkühler hat bzw. dieser gar nicht existiert ;)

Hakkerstiwwel
2008-06-27, 11:45:33
Außer das im CC ein niedrigerer Takt angezeigt wird, passiert nix. Weder dreht der Lüfter anders noch sind die Temps niedriger. Das ist doch was ich komisch finde. Also um das abzuschließen, es gibt ein Bios was den Takt absenkt, aber das ist ohne Auswirkung. PP funktioniert auch damit nicht.

Sicher dass das CCC den effektif anliegenden Takt angibt, oder diesen nur aus einer Biostabelle ausliest?

Aquaschaf
2008-06-27, 12:14:14
Dann wird die Taktrate nicht gesenkt.

Vor dem Bios-Flash zeigte das CCC jedenfalls 500MHz Chiptakt an, jetzt 160.

ShadowXX
2008-06-27, 12:16:37
Funktioniert der Avivo Video Converter tatsächlich nur mit den X1x00-Karten?

Weil wenn man auf der 8.6 Treiber downloadseite ist (ja, ich weiß das es einen neueren Hotfix gibt), steht unten "Complete Avivo™ Suite for X1000 series products or higher".
Wenn man dann allerdings auf der Avivo Seite ist steht da plötzlich das er nur mit X1000-Karten funktioniert.

Marodeur
2008-06-27, 12:42:09
Wenn der S1 passt bin ich beruhigt. Hab vorgestern auf meiner 8800GT den S2 montiert und mit Lüfter ist die Kühlleistung und (nicht vorhandene) Lautstärke für den Preis ja blos noch geil.

dr_mordio
2008-06-27, 12:42:31
Funktioniert der Avivo Video Converter tatsächlich nur mit den X1x00-Karten?
sollte eigentlich funktionieren, hatte es mal mit dem 8.4er und einer HD3870 benutz. damals stand auch nur X1000 only, ging aber trotzdem


scheinbar kommt DX10.1 jetz mit der neuen HD48xx Serie endlich in fahrt

Was ist davon zu halten?

hier noch mal die original aussage von dave selber @ rage3d:
http://rage3d.com/board/showpost.php?p=1335512390&postcount=12


hier mußte ich mich nochmal selber quoten, da das in dem ganzen fanboy hin und her leider untergegangen ist.
wa´s ist nun damit?
gibts bald doch merhr DX 10.1? wars doch ein fehler von NV das ganze abzutun?
kommt jetzt langsam doch das GITG-Prorgam von Ati mal in fahrt?

MfG
Alex

ShadowXX
2008-06-27, 12:52:42
hier mußte ich mich nochmal selber quoten, da das in dem ganzen fanboy hin und her leider untergegangen ist.
wa´s ist nun damit?
gibts bald doch merhr DX 10.1? wars doch ein fehler von NV das ganze abzutun?
kommt jetzt langsam doch das GITG-Prorgam von Ati mal in fahrt?

MfG
Alex
Darüber zu entscheiden ist es IMHO noch zu früh.

Es sind bisher 3 Games (auch wenn von EA Titels gesprochen wird).
Das EA-Game ist Battleforge bei dem Demi schon gesagt hat das 10.1 nur zur Passreduktion eingesetzt wird und auch nur unter AA was bringt.
Aber besser als gar nicht.

Das Sega Game soll ein PC-Exclusives Game sein welchen nur für 10.0 und 10.1 rauskommt. Was es ist weiß keiner. Auch nicht wann es genau kommen soll (es wird gemunkelt Ende 2009).
Auch weiß man dort nicht wie der 10.1 Support sein wird.

Noch ein größeres Fragezeichen steht hinter Blizzard. Es könnte was mit Diablo 3 zu tun haben, welches wohl am Samstag angekündigt wird, aber auch hier ist das große Fragezeichen wofür 10.1 genutzt wird.

Ich würde davon ausgehen, das wenn es genutzt wird, es nur für Beschleunigungszwecke genutzt wird. Und da dann wohl auch am ehesten für bei AA.

Exxtreme
2008-06-27, 13:09:43
Blizzard nutzt sowas meist für mehr Geschwindigkeit.

Grumbart
2008-06-27, 13:17:53
Allerdings wird bis dieses Blizzard Spiel erschienen ist auch nV DirectX 10.1 Karten auf dem Markt haben.

Gast
2008-06-27, 13:19:31
Vielleicht ist es bei Blizzard aber auch nur ein D3D10.1-Patch für WoW? :ulol:

ShadowXX
2008-06-27, 13:20:19
Allerdings wird bis dieses Blizzard Spiel erschienen ist auch nV DirectX 10.1 Karten auf dem Markt haben.
Ich gehe davon aus, dass auch wenn das Sega Game erscheint nV schon eine 10.1 Karten haben wird.

reunion
2008-06-27, 13:29:22
Von nV kommt sicher keine D3D10.1 Hardware mehr, das hätte man spätestens mit dem GT200 machen können. Mit dem D3D11-Chip Ende 2009/Anfang2010 hat sich das dann aber ohnehin erledigt.

w0mbat
2008-06-27, 13:30:00
Allerdings wird bis dieses Blizzard Spiel erschienen ist auch nV DirectX 10.1 Karten auf dem Markt haben.

Also jetzt kommt erstmal der G200b, denkst du der hat schon DX10.1?

ShadowXX
2008-06-27, 13:31:49
Von nV kommt sicher keine D3D10.1 Hardware mehr, das hätte man spätestens mit dem GT200 machen können. Mit dem D3D11-Chip Ende 2009/Anfang2010 hat sich das dann aber ohnehin erledigt.
Ich meinte damit auch das nV bis dahin eine DX11 Karte haben wird.

dr_mordio
2008-06-27, 14:21:59
Also jetzt kommt erstmal der G200b, denkst du der hat schon DX10.1?

nein der G200b wird leider auch kein DX10.1 haben.
der b wird eine etwas optimierte und geshrinkte form des G200
um DX10.1. zu implementieren müst da eine menge neu designed werden.
das ginge zwar auch, aber dann würde es ein neuer chip werden und nicht nur eine b-Version

MfG
Alex

Gast
2008-06-27, 15:40:53
Ich möchte endlich mal geklärt haben, ob sich die 1GB Version der HD4870 lohnt. Sowie heute, als auch in der Zukunft. Vor allem bei speicherlastigen Games, wie z.B. Age of Conan.

Gibt es in dieser Hinsicht schon irgendwelche Reviews/Usererfahrungen?

Gast
2008-06-27, 15:57:09
Ich möchte endlich mal geklärt haben, ob sich die 1GB Version der HD4870 lohnt. Sowie heute, als auch in der Zukunft. Vor allem bei speicherlastigen Games, wie z.B. Age of Conan.

Gibt es in dieser Hinsicht schon irgendwelche Reviews/Usererfahrungen?
NEEEIN, wie oft denn noch!!!
Es wird sich erst klären sobald es die ersten wirklichen Benchs online schaffen!
Vorher kann dir niemand diesbezüglich näheres zu sagen.

Soviel sei dir aber gesagt:
Gebe es einen signifikanten Vorteil dadurch, würde AMD den Speicher zumindest auf mit 200-300 MB mehr Speicher ausstatten.
Es wird höchstens um die 10%-30% von Spiel zu Spiel Unterschied festzustellen sein. Aber für ein Kaufargument wird es wohl eher wneiger reichen, höchstens für solche, die auch 1GB bei einer 4850 bzw bei 8800/9800er für Sinnvoll erachten.

Dafür hat man aber auch den Aufpreis für diese paaar Prozent in manchen Games die zudem vorher schon weitesgehen mit übertriebensten einstellungen Spielbar wären, also ohne die 1GB zusätzlich.

Ich werde dennoch zu einer solchen greifen, allein schon wegen Crysis 5% mehr Speed:) (kann man natürlich nicht sagen, aber die Hoffnung stirbt zuletzt, wobei bei Crysis ich nciht an ein Speicherlimit glaube)

dr_mordio
2008-06-27, 16:19:07
Ich möchte endlich mal geklärt haben, ob sich die 1GB Version der HD4870 lohnt. Sowie heute, als auch in der Zukunft. Vor allem bei speicherlastigen Games, wie z.B. Age of Conan.

Ein bischen bringt es schon,
aber richtig reißen werden die 1gb Versionen erst etwas unter crossfire.
denn damit hat man eine Menge mehr Power die dann an den 512mb verhungern.

Mfg
alex

Gast
2008-06-27, 18:57:26
Ich möchte endlich mal geklärt haben, ob sich die 1GB Version der HD4870 lohnt. Sowie heute, als auch in der Zukunft. Vor allem bei speicherlastigen Games, wie z.B. Age of Conan.

Gibt es in dieser Hinsicht schon irgendwelche Reviews/Usererfahrungen?

Kommt draufan was für nen Moni du hast:
30 Zoll : Ja es lohnt
20-22 Zoll : Nein es lohnt nicht
24-27 Zoll : Hier reichen akutell 512 aber wird dir keiner sagen können wie lange noch.

Gast
2008-06-27, 19:13:08
Irgendwie wollen die Leute das nicht checken oder?

Nochmal: Zum jetzigen Zeitpunkt reicht die Leistung -> siehe Benchmarks (kann jeder selbst entscheiden.)
Zu einem entfernteren Zeitpunkt: KANN KEINER WISSEN. Und wenn, lass es 3 Spiele sein (was schon hoch gegriffen ist) die ähnlich viel Performence ziehen wir Crysis, braucht man dennoch keine, WEIIIIL man nächstes Jahr diese dann verkauft und sich dann einfach eine neue holt die eh alles doppelt hat. (Wird es nicht aber ihr wisst was ich meine)

Worauf ich doch nur hinaus will. Für die Leisung für die die zuhaben ist, scheint sie doch allemal zu reichen, sonst würdet ihr nciht durchgehen rumfragen, weil ihr eh schon angetan seid von dem Ding.
Und für 1-2 Titel die irgendwann mal erscheinen wird euch eh keiner ne Auskunft geben können, aber ihr wisst selbst schon, das ihr das eh zocken könnt, weil die Kart pr0no ist.

Gast
2008-06-27, 19:17:07
Das Problem ist, das die Leute ihre 200 € gut investieren wollen. Langfristig!
Daher die Fragerei.
Was die Leute aber nicht wissen, das eine 1GB Verison nur den Unterschied ausmachen wird wie sie draufzahlen werden für das bisschen mehr Speicher.

ATI sah 1GB deplaziert weil zuviel RAM brach liegen würde und die Mehrkosten, auch wenn sie gering sind, einfach nicht tragend genug waren um es als 1GB Variante zu konzipieren oder halt zusätzlich. (R700 halt)

Jeder sollte da mal selber etwas nachdenken anstatt Faul auf eine Antwort zu warten:)

BlackBirdSR
2008-06-27, 20:40:13
Schon alleine die Taktreduzierung müsste einiges bringen. Sicher das diese tatsächlich gesenkt wird? Die Temp muss deswegen nicht zwangsläufig niedriger sein, da es gut möglich ist, dass der Lüfter langsamer dreht als vorher.

Wenn 60%+ der Verlustleistung durch statische Leckströme entsteht, und der Chip aggressiv abschaltet, dann bringt das Absenken der Taktfrequenz nicht mehr so viel wie erhofft (siehe Core2, K8, denen ist der Takt je nach Modell auf fast egal).

Ferengie
2008-06-27, 21:35:48
Ist die Referenz bei jeder HD4870 so?
digitale Stromversorgung&Stromanschlüsse

2x6 NT Pflicht? Ich habe dazu nichts in den Reviews bisher gelesen.
http://img247.imageshack.us/img247/9766/hisradeonhd487017xy2.jpg

clockwork
2008-06-27, 22:52:30
Ist die Referenz bei jeder HD4870 so?
Stromversorgung&Stromanschlüsse

2x6 NT Pflicht? Ich habe dazu nichts in den Reviews bisher gelesen.
http://www.expreview.com/img/topic/hd4800/his_radeon_hd4870_17.jpg
Die 4870 hat 2x6 Pin-Anschlüsse, ja.


Gibt es eine Liste was bei den verschiedenen Herstellern beiliegt? Ein Spiel vielleicht? Liegt darin auch der Unterschied zwischen "full retail" und "light retail" (sapphire z.B.)?

ShadowXX
2008-06-27, 23:08:44
Wie kann man im CCC eigentlich HQ AF (bzw. dieses AreaAF) einschalten.

Irgendwie finde ich da kein Kästchen mehr bei den AF-Einstellungen wie es noch früher bei der X1900XT der Fall war.

Banshee18
2008-06-27, 23:17:26
Wie kann man im CCC eigentlich HQ AF (bzw. dieses AreaAF) einschalten.

Irgendwie finde ich da kein Kästchen mehr bei den AF-Einstellungen wie es noch früher bei der X1900XT der Fall war.
Afaik gibts seit R600 nur noch den hochwertigeren, winkelunabhängigeren anisotropen Filter.

el crack0r
2008-06-27, 23:43:21
Die 4870 hat 2x6 Pin-Anschlüsse, ja.

Oha, dann wird aus Crossfire ja erst mal nix bevor ich mein NT gegen eins mit 4x6pin ausgetauscht habe. Das wird wieder teuer...

Banshee18
2008-06-27, 23:48:51
Oha, dann wird aus Crossfire ja erst mal nix bevor ich mein NT gegen eins mit 4x6pin ausgetauscht habe. Das wird wieder teuer...
Du kannst ja auf die X2 warten. Ich glaube kaum, dass die 4x6 Pin braucht. Außerdem werden mit ihr vielleicht die Mikroruckler verschwinden und sie skaliert vielleicht besser.

Ferengie
2008-06-27, 23:51:51
Es gibt "zwei 5.25 zu 1x6 PCIe Adapte (http://computer.listings.ebay.de/Strom_Grafikkarten-Stromkabel_W0QQdfspZ32QQfclZ3QQfromZR11QQlopgZ2QQsacatZ149561QQsocmdZListingItem List)r".

Gast
2008-06-28, 00:00:24
Du kannst ja auf die X2 warten. Ich glaube kaum, dass die 4x6 Pin braucht. Außerdem werden mit ihr vielleicht die Mikroruckler verschwinden und sie skaliert vielleicht besser.
Soviele Dinge auf einmal, ich glaub du vertauschst da was mit den Kinder Überraschungen:D
Ne spaß, aber mit den MR muss man echt mal abwarten, der Rest hört sich plausibel und realistisch an.

el crack0r
2008-06-28, 00:14:33
Stimmt eigentlich. Ist wahrscheinlich billiger als 2x 4870 + NT.

w0mbat
2008-06-28, 00:28:47
[...]
Gibt es eine Liste was bei den verschiedenen Herstellern beiliegt? Ein Spiel vielleicht? Liegt darin auch der Unterschied zwischen "full retail" und "light retail" (sapphire z.B.)?

Die Full Retail hat einen USB-Stick dabei, die Light Retail nicht.

kokett
2008-06-28, 00:59:51
Kommt die 4850x2 eigentlich schon früher oder auch (voraussichtlich) erst im August, wenn die 4870x2 erscheint ?

dr_mordio
2008-06-28, 01:42:43
Stimmt eigentlich. Ist wahrscheinlich billiger als 2x 4870 + NT.

oder nächstesmal ein gutes NT kaufen.
einmal investiere und lange was von haben.

Ich hab hier ein Be Quiet! Dark Power Pro 750W
das hat 4stück 6-Pol-PciE und 2stück 8-Pol-PciE sowie einen 8Pol-MB (sieht aus wie 8Pol PciE isses aber nicht)

MfG
Alex

frix
2008-06-28, 02:34:49
eben geizhals preischeck gemacht. Liegt nun bei 209€ und ist somit ~40% teurer als die kleine 4850.

el crack0r
2008-06-28, 02:38:24
oder nächstesmal ein gutes NT kaufen.
einmal investiere und lange was von haben.

Ich hab hier ein Be Quiet! Dark Power Pro 750W
das hat 4stück 6-Pol-PciE und 2stück 8-Pol-PciE sowie einen 8Pol-MB (sieht aus wie 8Pol PciE isses aber nicht)

MfG
Alex

Hehe naja... ich dachte eigentlich damals 2x 6Pins würden für crossfire ausreichen.
Und als schlecht würde ich mein Corsair 620HX jetzt auch nicht gerade bezeichnen ;)

Allerdings werde ich wahrscheinlich doch auf die X2 dann warten und wenn nötig mit Adaptern einen NT Kauf einfach umgehen...

Liszca
2008-06-28, 04:40:11
Bei allen diesen Auflösungen kannst du 4xMSAA noch deutlich von 8xMSAA unterschieden...zumindest ich kann es und mindestens 2 meiner Kumpel.
Vielleicht sind wir ja die einzigen Ausnahmen auf diesem Planeten, aber das glaube ich dann irgendwie doch nicht.


ich meinte nicht daß man es nicht erkennen kann, sondern daß man darauf nicht mehr in einem spiel achten wird ob das FSAA noch besser als 4x ist. mir viel es damals bei 6x @ 96 dpi schon schwer eine verbesserung zu 4x zu erkennen.

frix
2008-06-28, 15:41:05
Hehe jeden tag gibts eine bewegung im preis sehr schön.
207,90€ bei mindfactory. Erwähnenswert, dass man hier nach deutschland kein versand zahlt!

S2
2008-06-28, 22:36:27
Hammerpreis wenn ich an früher denke wo die 9800 oder X800XT 500€ kosteten, wer kauft da noch eine GTX280, die müsste max 350€ kosten und die GTX260 250€

frix
2008-06-28, 22:38:25
ja das stimmt da sollte nvidia noch deutlich nachziehen.

Odal
2008-06-28, 22:46:13
GTX260<=4870 und letztere gibts derweil ab 207€

ergo muss die GTX260<=207€ sein und die GTX280 vielleicht 275€

Gast
2008-06-28, 22:47:47
GTX260>4870, weil erstere Texturen anständig filtern kann und daher mehr leistet als eine 4870.

frix
2008-06-28, 22:50:43
ich glaub nicht, dass die gtx260 unbedingt den preis der 4870 unterschreiten muss. Nvidia denke ich hat noch ein bonus bei den potentiellen kunden.
so 240€ für die gtx260 könnten sie schon verlangen solange die 4870 vom preis so bleibt. Zudem hört sich auch 896mb(?) Vram mächtiger an als 512mb Vram.
Da die 280gtx noch die schnellste karte ist. Auch wenn nicht mit überragendem vorsprung kann man sich das noch gut bezahlen lassen. Ein preis knapp unter 400€ wäre denkbar.

Die frage ist halt ob nvidia da wirklich so mitzieht und bluten will bei den herstellungskosten :)

el crack0r
2008-06-28, 22:59:02
Ich bin total begeistert von den Preisen. 415€ für 2 Karten die noch nicht mal verfügbar sind. Ich vermute mal die Preise sinken spätestens ne Woche nach dem Release noch mal. Da kann Nvidia gar nicht mehr dagegen anstinken.

Schrotti
2008-06-29, 00:31:34
Ich bin echt versucht eine ATI 4870 zu kaufen.

w0mbat
2008-06-29, 00:36:58
Machs!

Gast
2008-06-29, 00:50:29
eben geizhals preischeck gemacht. Liegt nun bei 209€ und ist somit ~40% teurer als die kleine 4850.


Jetzt €207,89.-

Noch nicht mal lieferbar aber 233 Bewertungen...ja, ne... X-D

3dc wird auch zitiert: http://geizhals.at/deutschland/?sr=346315,-1

deekey777
2008-06-29, 02:19:16
Kann jemand mit einer HD4800 prüfen, was das genau ist: http://downloads.guru3d.com/downloadget.php?id=1973&file=4&evp=9412b5088f43b7da14a20e6e5c8e81af

Nur ein Hirngespinst oder doch was Interessantes?

Blacksoul
2008-06-29, 02:43:41
Kann jemand mit einer HD4800 prüfen, was das genau ist: http://downloads.guru3d.com/downloadget.php?id=1973&file=4&evp=9412b5088f43b7da14a20e6e5c8e81af

Nur ein Hirngespinst oder doch was Interessantes?

Sorry, aber der Link geht bei mir nicht richtig.
Worum genau handelt es sich denn?


t.b.d

x-dragon
2008-06-29, 02:58:56
Sorry, aber der Link geht bei mir nicht richtig.
Worum genau handelt es sich denn?


t.b.d Versuch mal den:
http://downloads.guru3d.com/ATI-Avivo-Xcode-pack-for-HD4800-series-download-1973.html

Software Description

Software that uses the HD4800 series of GPUs to encode video files.

Get the right video to the right player - quickly
ATI’s new Avivo™ Video Converter is the fast and easy way to transform your videos to play on today’s new breed of portable entertainment devices. The Avivo Video Converter is a “transcoder,” a tool that converts digital video from one file format to another, enabling the same video clip to play on industry standard home DVD/DivX® players, PC’s or portable media devices such as the Apple® iPod®, Sony® portable gaming device, Creative® Zen™ and many others.

Did we mention how fast it is?
ATI’s Avivo Video Converter can take a 30 minute recorded show, and convert it into a format playable by an iPod in less than 1 minutes. It can cut the conversion time by 80% or more. When compared to competitive solutions, the Avivo Video Converter easily beats them. This means you’ll be watching more, and waiting less.

...

black977
2008-06-29, 10:39:44
JUhuuuu


jetzt muss nur die gute x2 keine mikroruckler haben...auch nich im crossfire und mein 24" monitor kann kommen^^

PS: wieviel Watt wird man dafür brauchen?

verbrauch is ja noch recht hoch imo...

AnarchX
2008-06-30, 12:50:26
Diamond Multimedia (www.diamondmm.com), a leading manufacturer of PC graphics cards, sound cards and communications products, launched today along with boutique system builder Smoothcreations, and Water cooling mavens, Danger Den the ATI Radeon™ HD 4870 XOC Black Edition graphics card. This card offers exquisite gaming capabilities combined with state of the art efficiency.

The HD 4870 is a smoking gun dual slot card, PCIE 2.0, with 512MB of DDR5 memory and a clock speed of 800 MHz. The memory speed is 1100 MHz and is designed with 800 stream processors. The HD 4870 provides plug-and-play ATI CrossFireX™ upgradeability with up to quad-GPU support. Continuing with ATI's Power Play and 55nm processing technology, this card is the fastest and efficient. "The Diamond Radeon HD 4870 XOC Black Edition was clocked to kick some ass". We didn't just want a fast card out in the market, we wanted the fastest card that could kick the living daylights and bust some performance records, say Mario Gastelum, Director of Product Development & Engineering. "we wanted a card that kicked the competitions teeth into the curb", and that's exactly what our engineers accomplished". "The firmware was custom designed to enable end users to go beyond the normal over clocked speeds and allow them to push their cards for higher performance via the catalyst control center." The GPU's custom firmware has been unlocked to push cards to GPU settings of up to 950 MHz and Memory of up 1200 MHz.[...]
http://www.techpowerup.com/64301/Diamond_Releases_Radeon_HD_4870_XOC_Unlocked_Black_Edition.html

davidzo
2008-06-30, 12:56:21
die karte könnte an der GTX280 kratzen.
die speicherbandbreite zieht jetzt gleich mit der gtx280.
800mhz chiptakt sind nicht gerade viel mehr, aber mögliche 950mhz klingen schon gut, das sollte reichen, zumal die gtx280 nicht allzuviel reserven zu haben scheint. nur doof das die wieder 512mb ist.
das teure an den karten scheitn nicht der rv770 zu sein, sondern der speicher...

Blacksoul
2008-06-30, 12:57:13
Klingt gut.
Wobei ich denke, dass ziemlich viele 4870 das CCC-Limit von 790/1100 schaffen. So auch meine.
Das nette an der Karte ist eben, dass das Limit im CCC eben auf 950/1200 hochgesetzt wird.
Ich vernünftiges OC-Tool für die 4800-Serie gibt es ja leider noch nicht.


t.b.d

Schrotti
2008-06-30, 13:17:26
Machs!

Bin mir unsicher ob es sich bei mir überhaupt lohnt.

Mein oller TFT kann nur 1280x1024.

Werewolf
2008-06-30, 13:30:33
Was spricht gegen höhere Qualitätsverbesserungen? AA/AF?

Gast
2008-06-30, 13:38:20
Was spricht gegen höhere Qualitätsverbesserungen? AA/AF?
Eine kostengünstigere 4850, welche leiser, kühler?, und in allen Spielen genauso flüssige FPS-Werte liefert wie der große Bruder;) mit den genannten Qualitätseinstellungen natürlich;)

Oder täusche ich mich da gewaltig?

Jules@work

Blacksoul
2008-06-30, 13:47:55
Eine kostengünstigere 4850, welche leiser, kühler?, und in allen Spielen genauso flüssige FPS-Werte liefert wie der große Bruder;) mit den genannten Qualitätseinstellungen natürlich;)

Oder täusche ich mich da gewaltig?

Jules@work

Kühler ist sie afaik nicht. Dafür aber unter Last lauter (4 Sone vs 5 Sone, laut PCGH).
Trotzdem wäre die 4850 vielleicht doch die bessere Wahl für die Auflösung.
Oder aber, man schafft sich gleich einen neuen, vernünftigen TFT an. :D


t.b.d

Werewolf
2008-06-30, 13:48:11
Steigerungen von bis zu 40% (4870 zu 4850) sind hier und da schon zu erkennen.

Die 4850 ist natürlich dank ihres Preises extrem anziehend. Sinkt sie auf 120€ pro Karte wird ein CF-Gespann plötzlich fast zur besten Investition seit Jahren. :smile:

JaDz
2008-06-30, 14:04:33
Kann jemand mit einer HD4800 prüfen, was das genau ist: http://downloads.guru3d.com/downloadget.php?id=1973&file=4&evp=9412b5088f43b7da14a20e6e5c8e81af

Nur ein Hirngespinst oder doch was Interessantes?
Das ist genau die Datei (nur umbenannt), die du hier unter AVIVO downloaden kannst: http://game.amd.com/us-en/drivers_catalyst.aspx?p=vista32/common-vista32

Also die normale AVIVO-Software.

Schrotti
2008-06-30, 15:38:32
Leise und kühl?

Das hab ich jetzt mit der 8800GT und dem Zalman vf 900cu.

Wenn, dann muss schon ordentlich mehr Leistung kommen um z.b. Crysis auch auf very high zocken zu können (high funktioniert auf meiner 8800GT ganz gut da die Taktraten von Hause aus schon höher sind - 660/1600/900).

Blacksoul
2008-06-30, 15:48:54
Leise und kühl?

Das hab ich jetzt mit der 8800GT und dem Zalman vf 900cu.

Wenn, dann muss schon ordentlich mehr Leistung kommen um z.b. Crysis auch auf very high zocken zu können (high funktioniert auf meiner 8800GT ganz gut da die Taktraten von Hause aus schon höher sind - 660/1600/900).

Also 1280 x 1024 und VH sollte mit einer 4870 kein Problem sein.
Unter 790/1100 dann wohl definitiv nicht.


t.b.d

el crack0r
2008-06-30, 16:51:26
Also 1280 x 1024 und VH sollte mit einer 4870 kein Problem sein.

Das ist jetzt zwar offtopic aber ich frage mich langsam echt, wann es mal eine Grafikkarte gibt wo man bei der Auflösung 1920x1200 liest.

Blacksoul
2008-06-30, 16:56:30
Das ist jetzt zwar offtopic aber ich frage mich langsam echt, wann es mal eine Grafikkarte gibt wo man bei der Auflösung 1920x1200 liest.

Eine Graka wird wohl die nächste Zeit nicht reichen.
Als ich 1920 x 1200 getestet habe, da habe ich ohne AA/AF um die 22 fps AVG bekommen.
Also nicht sehr spaßig.

Vielleicht geht's ja mit dem GTX280-Refresh im SLI.
Siehe dazu auch folgen Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=423130


t.b.d

davidzo
2008-06-30, 17:48:15
Leise und kühl?

Das hab ich jetzt mit der 8800GT und dem Zalman vf 900cu.

Wenn, dann muss schon ordentlich mehr Leistung kommen um z.b. Crysis auch auf very high zocken zu können (high funktioniert auf meiner 8800GT ganz gut da die Taktraten von Hause aus schon höher sind - 660/1600/900).


dann schnall doch den vf900cu auf die 4850. der packt das und passt auch von den löchern und dem platz. du musst dann nur extraspeicherkühlerchen für die spawas übrig haben oder den originalen spawakühler von dem hauptkühlkörper abtrennen.
für einen guten Unterschied zur 8800gt brauchst du allerdings schon die 4870, da würde ich aber womöglich beim originalkühler bleiben, der ist ganz ordentlich.

Tarkin
2008-07-01, 10:12:41
Diamond HD 4870 Review (http://www.techpowerup.com/reviews/Diamond/HD_4870/1.html)

(Windows XP SP2 !!!)

der OC Potential des Speichers ist wahrlich gigantisch!! - von 3.6GHz auf 4.6Ghz!!

(das Fazit finde ich sehr amüsant - "Limited overclocking potential" - ;D )

aehmkei
2008-07-01, 10:21:46
der OC Potential des Speichers ist wahrlich gigantisch!! - von 3.6GHz auf 4.6Ghz!!



Bei Quadchannel macht jedes MHz mehr halt gleich 4 mal soviel aus - also nicht Äpfel mit Birnen vergleichen ;)
Bei einer effektiven 1 GHz Steigerung wurde der Takt wohl um 250MHz erhöht.

Schrotti
2008-07-01, 11:10:59
dann schnall doch den vf900cu auf die 4850. der packt das und passt auch von den löchern und dem platz. du musst dann nur extraspeicherkühlerchen für die spawas übrig haben oder den originalen spawakühler von dem hauptkühlkörper abtrennen.
für einen guten Unterschied zur 8800gt brauchst du allerdings schon die 4870, da würde ich aber womöglich beim originalkühler bleiben, der ist ganz ordentlich.

Ja wie schon geschrieben, ich bin unschlüssig ob mir das was bringt.

Beim CB Test der 4850 unter DX10 und Company of Heroes schlägt sich eine 8800GT (600/1513/900) sehr gut in 1280x1024 4xAA/16xAF.

Da stehen 52,5fps der 8800GT gegen 55,8fps der 4850. Wenn man nun bedenkt das meine 8800GT mit 660/1600/900 zu Werke (56fps nach meinem Test) geht dann ist die 4850 nutzlos (ich spiele überwiegend CoH).

Dago
2008-07-01, 11:29:25
Eine Graka wird wohl die nächste Zeit nicht reichen.
Als ich 1920 x 1200 getestet habe, da habe ich ohne AA/AF um die 22 fps AVG bekommen.
Also nicht sehr spaßig.

Vielleicht geht's ja mit dem GTX280-Refresh im SLI.
Siehe dazu auch folgen Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=423130


t.b.d

Mmh, nicht so schön. Ich hatte gehofft, dass eine 4870 mit 1GB für 1920x1200 gehen dürfte. Bei AoC ist es mit der GTS 512 und 1920x1200 ziemlich nervtötend: Texturen werden eigentlich ständig zu spät oder gar nicht hochaufgelöst geladen.
Bei den ATI-Karten soll das ja wesentlich besser sein.
Wenns vom Preis her passt, werde ich mir die 1GB-Version der 4870 aber holen. Mal sehen wann die Karten hierzulande verfügbar sind.

Gast
2008-07-01, 12:45:57
Bei Quadchannel macht jedes MHz mehr halt gleich 4 mal soviel aus - also nicht Äpfel mit Birnen vergleichen ;)
Bei einer effektiven 1 GHz Steigerung wurde der Takt wohl um 250MHz erhöht.

GDDR5 ist kein "Quad-RAM" sondern wie normales DDR double data rate! Nur der Command-Takt von GDDR5 ist 1/2 des normalen "RAM-Takts".

Also 900MHz Command-Takt, 1800MHz RAM-Takt (nur das Interface) und damit 3600MHz DDR

Von 3.6GHz auf 4.6 GHz erhöht sich der Takt von GDDR5 also um 500MHz nicht um 250MHz bzw. nur der Command-Takt erhöht sich nur um 250MHz.

Chronicle
2008-07-01, 13:00:42
Diamond HD 4870 Review (http://www.techpowerup.com/reviews/Diamond/HD_4870/1.html)

(Windows XP SP2 !!!)

der OC Potential des Speichers ist wahrlich gigantisch!! - von 3.6GHz auf 4.6Ghz!!

(das Fazit finde ich sehr amüsant - "Limited overclocking potential" - ;D )

In allen Tests wird gesagt, die 4870 sei leiser als die 4850, und hier sagen sie das Gegenteil :confused:
Ich kann mich zwischen den beiden echt nicht entscheiden ;(

Superheld
2008-07-01, 13:06:52
übertaktete 4870 780/1000

http://www.alternate.de/html/product/Grafikkarten_ATI_PCIe/MSI/R4870-T2D512-OC/277631/?articleId=277631

Tarkin
2008-07-01, 16:57:55
Bei Quadchannel macht jedes MHz mehr halt gleich 4 mal soviel aus - also nicht Äpfel mit Birnen vergleichen ;)
Bei einer effektiven 1 GHz Steigerung wurde der Takt wohl um 250MHz erhöht.

echt wahr?

(weiß ich, keine Sorge. :tongue:)

Also ich hab schon lange keine Karte mehr gesehen bei der man den Speicher um satte 28% übertakten kann... du vielleicht? (und das ohne irgendwelche mods, sonder "einfach so")

Das wären bei der alten 3870er beispielsweise... statt 1125 (bzw 2250) nämlich 1440 (bzw. 2880) -

Ähnliche Steigerungen hat man bei Karten mit GDDR4 oder GDDR3 nie gesehen!

Gast
2008-07-01, 17:02:09
Lötet sich die GPU nicht bald von selbst aus so heiss wie das Ding wird?

Gast
2008-07-01, 17:14:47
echt wahr?

(weiß ich, keine Sorge. :tongue:)

Also ich hab schon lange keine Karte mehr gesehen bei der man den Speicher um satte 28% übertakten kann... du vielleicht? (und das ohne irgendwelche mods, sonder "einfach so")

Das wären bei der alten 3870er beispielsweise... statt 1125 (bzw 2250) nämlich 1440 (bzw. 2880) -

Ähnliche Steigerungen hat man bei Karten mit GDDR4 oder GDDR3 nie gesehen!
Da gebe ich dir völlig Recht, Tarkin. Wäre da nicht das "Wissen" drum, das die 4870 schon untertakteten SPeicher verbaut bekommen hat. Das gab es bisher auch ncoh nicht soweit "ich" weiß;)

Schönen sonnigen Tag noch:)

BTW: ich hab selber eine 4870 bestellt:D

EU-NEVER-EVER
2008-07-01, 17:19:11
Die GK könnte man wenn ich mich nicht irre mit einer 9800GX2 messen wobei die 9800 eben mit zwei prozessoren arbeitet aber für ihr geld nciths wert ist. Was meint ihr

Sorkalm
2008-07-01, 17:21:28
Also ich hab schon lange keine Karte mehr gesehen bei der man den Speicher um satte 28% übertakten kann... du vielleicht? (und das ohne irgendwelche mods, sonder "einfach so")

Naja, also erstmal lässt AMD den Speicher ja sogar unter den Nennwerten von Qimonda laufen (schließlich ist der ja für 4,0 Gbps spezifiziert und er läuft mit 900 MHz Commandclock nur mit 3,6 Gbps). Zudem scheint die 4,0-Angabe von Qimonda auch recht vorsichtig zu sein (halt neues Produkt)...

Da gebe ich dir völlig Recht, Tarkin. Wäre da nicht das "Wissen" drum, das die 4870 schon untertakteten SPeicher verbaut bekommen hat. Das gab es bisher auch ncoh nicht soweit "ich" weiß;)

Doch, in kleineren Punkten gabs das schon öfter (z. B. den 1,0ns Speicher auf der 8800 GTS 512 @ 970 MHz). Aber z. B. auf der 2900 XT hat AMD auch deutlich schnelleren Speicher verbaut und heruntergetaktet.

Blacksoul
2008-07-01, 17:24:19
Lötet sich die GPU nicht bald von selbst aus so heiss wie das Ding wird?

Nein. :uclap:


t.b.d

Gast
2008-07-01, 17:27:30
Na wenn ich da so im Thread über das "GraKa-Backen" lese scheinen die Temperaturen aber alles andere als gesund zu sein. Und jetzt komm mir keiner mit "die ist dafür gebaut", das is kein Argument weils einfach ned stimmt. Die ist genauso gebaut wie jede andere Consumerelektronik und das sind einfach viel zu hohe Temps da. Würde mich ned wundern wenns nach 9 - 12 Monaten ne grosse Sterbewelle gibt...

Blacksoul
2008-07-01, 17:29:52
Na wenn ich da so im Thread über das "GraKa-Backen" lese scheinen die Temperaturen aber alles andere als gesund zu sein. Und jetzt komm mir keiner mit "die ist dafür gebaut", das is kein Argument weils einfach ned stimmt. Die ist genauso gebaut wie jede andere Consumerelektronik und das sind einfach viel zu hohe Temps da. Würde mich ned wundern wenns nach 9 - 12 Monaten ne grosse Sterbewelle gibt...

Die ist aber dafür gebaut! :usweet:

Was sollen blos die ganzen Mexikaner, Spanier, Italiener mit den Karten im Sommer nur machen? :O


t.b.d

sChRaNzA
2008-07-01, 17:56:58
Hat jemand dazu schon benchmarks?

http://winfuture.de/news,40501.html

Edit: Muhaha! ;D

Nightspider
2008-07-01, 17:58:10
Habt ihr das schon gelesen ?

http://winfuture.de/news,40501.html

HD 4870 mit 950 - 1000 Mhz Coretakt und vorinstalliertem Wasserkühler zum Angriff auf Nvidias GTX 280!

Dazu GDDR5 mit 4800 Mhz ist auch ziemlich heftig.

Edit:

LoL zu langsam

Odal
2008-07-01, 18:17:18
die werden sich wohl aufgrund des "schwachen" G200 gedacht haben:

"ne 4870X2 ist gar nicht notwendig um die GTX280 zu schlagen ne übertaktete 4870 reicht auch :D"

scheint dann ja wirklich als hat man mit dem RV770 noch ordentlich taktpotential....

wenn das ding mit Wakü serienmässig auf bis zu 1000Mhz kommt sollte man das ding mit vmod und aktiven Accelero S1 oder extreme auch auf 950++ Mhz bekommen...

GTX280 leistung für 207€ :D

HarryHirsch
2008-07-01, 18:20:19
die werden sich wohl aufgrund des "schwachen" G200 gedacht haben:

"ne 4870X2 ist gar nicht notwendig um die GTX280 zu schlagen ne übertaktete 4870 reicht auch :D"

scheint dann ja wirklich als hat man mit dem RV770 noch ordentlich taktpotential....

wenn das ding mit Wakü serienmässig auf bis zu 1000Mhz kommt sollte man das ding mit vmod und aktiven Accelero S1 oder extreme auch auf 950++ Mhz bekommen...

GTX280 leistung für 207€ :D

könnte es dann möglich sein nur durch flashen des bios auf 950 zu kommen? (vorrausgestzt der chip macht das mit)

nagus
2008-07-01, 18:22:22
Da gebe ich dir völlig Recht, Tarkin. Wäre da nicht das "Wissen" drum, das die 4870 schon untertakteten SPeicher verbaut bekommen hat. Das gab es bisher auch ncoh nicht soweit "ich" weiß;)

Schönen sonnigen Tag noch:)

BTW: ich hab selber eine 4870 bestellt:D

ist das nicht VOLLKOMMEN IRRELEVANT ob der speicher vielleiht ab werk "untertaktet" ist oder nicht? es geht rein nur um die tatsache, dass der speicher auf der 4870er extrem super zu übertakten geht... jede diskussion WIE der speicher ursprünglich getaktet ist, ist sinnlos.

Bond2k
2008-07-01, 18:36:19
Wann wir denn die "ATI Radeon HD 4870 XOC Black Edition" verfügbar sein?

Blacksoul
2008-07-01, 18:46:55
Wann wir denn die "ATI Radeon HD 4870 XOC Black Edition" verfügbar sein?

Einfach mal auf den TPU-Link klicken.

Availability
Diamond Multimedia’s ATI Radeon HD 4870 XOC Black Edition will be available for purchase starting July 01, 2008 and will be available Exclusively at Premier Boutique System Builder Smoothcreations.


Außerdem steht bei Bildfuture mal wieder nur müll.


t.b.d

Marodeur
2008-07-01, 19:09:52
Bin ich eigentlich der einzige der diese "4000MHz", etc. -angaben beim Grafikspeicher haßt? :usad:

Blacksoul
2008-07-01, 19:13:00
Bin ich eigentlich der einzige der diese "4000MHz", etc. -angaben beim Grafikspeicher haßt? :usad:

Warum?
In echter, alter MediaMarkt-Tradition.
"HD4870 Ultra Turbo Hyper Ninja! Mit ECHTEN 4 GHz Speichertakt!!!111"

Klingt doch toll! :usweet:


t.b.d

Marodeur
2008-07-01, 19:15:12
Gnaaaa... :ugly:

Die Diamond-Karte scheint ja jedenfalls eh keine normale Retailkarte zu sein oder täusch ich mich da?

Super Grobi
2008-07-01, 19:21:15
Bin ich eigentlich der einzige der diese "4000MHz", etc. -angaben beim Grafikspeicher haßt? :usad:

Nein,
das geht mir auch auf den Sack! Das ist doch mal wieder augenwischerei.

SG

p.s.
da könnte ich ja auch behaupten, das mein Hauptspeicher 1600mhz hat. Ist ja DDR800 im Dual-Channel :ucrazy:

pest
2008-07-01, 19:25:58
also die SuperOC Edition kommt mit 800MHz GPU + modifiziertem Bios? Auch leichte Narrenfängerei.

Gast
2008-07-01, 19:29:28
Nein,
das geht mir auch auf den Sack! Das ist doch mal wieder augenwischerei.

SG

p.s.
da könnte ich ja auch behaupten, das mein Hauptspeicher 1600mhz hat. Ist ja DDR800 im Dual-Channel :ucrazy:

Jupp, mein Intel Dual-Core hat auch 7,6Ghz*. Gleich mal bei Ebay reinsetzen... ;)





*2x3,8Ghz

AnarchX
2008-07-01, 19:32:32
Die Diamond-Karte scheint ja jedenfalls eh keine normale Retailkarte zu sein oder täusch ich mich da?
Nein, denn sie kommt ja mit einer WaKü.

Marodeur
2008-07-01, 19:36:47
Naja, ich mein eher weil sie vorerst(?) nur in Komplettsystemen von Smoothcreations verbaut wird. Da werden wir erstmal keine sehen.

Fetza
2008-07-01, 20:42:13
Aus gegebenem Anlass starte ich einfach mal diesen Thread, da hier schon einige eine dieser Karten ihr eigen nennen und heftig darüber diskutieren wie weit sich die Teile übertakten lassen.

Beispiel: User // 602/1.296/1.107 // 650/1.404/1.163 // Asus GTX280

OC-Sammelthread

GTX 280
---------------------------------------------------------------------------------------
User Original-Takt OC-Takt Hersteller/Typ Kühlung

Brother 602/1296/1107 700/1404/1270 Zotac GTX 280 Luft
Slipknot79 615/1350/1107 670/1402/1202 BFG GTX 280 (SLI) Luft
Scose 602/1296/1107 702/1458/1188 XFX GTX 280 Luft
Tomsen 602/1296/1107 700/1411/1209 POV GTX 280 Luft

GTX 260
---------------------------------------------------------------------------------------
User Original-Takt OC-Takt Hersteller/Typ Kühlung

Gast 575/1240/1000 648/1404/1260 POV GTX 260 Luft

Offensichtlich schafft es keine der karten hier, auch nur annährend. ;) Dafür muss man schon eine sonntagskarte erwischen.

Gast
2008-07-01, 20:49:49
Naja die OC Werte sind alle für die Katz wenn da Luft steht. Du weist ja gar nicht wie das System aussieht, die Kühlung und alles. Ich habe 5HDs und 3x90mm Lüfter im Gehäuse, dazu das Seitenteil offen da Sommer ist.

Ja mein System ist Leise, das einzige was hörbar ist, ist die Grafikkarte GTX260 wenn sie im OC läuft, was ich aber nie brauche, auser in Crysis. Und da geht die Lutzi auf 700/1500/1242.

Das der Gast da übertrieben hat ist klar, sieht er doch die Welt durch die Grüne Brille, alle sollten aufem Teppich bleiben.

der_selbe_Gast_w_o
2008-07-01, 23:33:23
ist das nicht VOLLKOMMEN IRRELEVANT ob der speicher vielleiht ab werk "untertaktet" ist oder nicht? es geht rein nur um die tatsache, dass der speicher auf der 4870er extrem super zu übertakten geht... jede diskussion WIE der speicher ursprünglich getaktet ist, ist sinnlos.
Nein. Damit vertauscht man Tatsachen, Nagus.
Die Differenz (20%-30%) der 4870 ensteht nur durch den NICHT standardmäßigen Takt den sie "haben sollte".
Natürlich ist es dem Kunden egal, für ihn sind es diese 20-30 Prozent, aber es ist kein Wunderspeicher der sich höher takten lässt.
Im Gegenteil, man nimmt dem "normalen" Kunden sogar etwas Wind aus den Segeln.
Nicht vergessen Nagus, es gibt immer noch mehr Menschen die vom übertakten überhaupt nichts halten.;)
Und abgesehn von der jetzigen Rohleistung, ist dies auch gar nicht nötig, aber der "normale" Kunde, der natürlich immer Anspruch auf seine Garantie haben möchte, solange sie gegeben ist freilich, werden diese par MHz genommen. So kann man es auch sehen;)

Aber wär schert sich schon um die paar MHz bei diesem P/L Verhältniss:)

Odal
2008-07-01, 23:33:51
könnte es dann möglich sein nur durch flashen des bios auf 950 zu kommen? (vorrausgestzt der chip macht das mit)

naja wenn die spannung nicht auch im bios geändert wird wohl eher nicht....ich vermute mal das die wakü 4870 mehr saft bekommen...ansonsten würden die 950-1000mhz ein wenig viel erscheinen

Unyu
2008-07-01, 23:37:10
1. hab ich nicht behauptet das man dann für 207€ die leistung einer übertakteten GTX280 bekommt sondern das man die leistung einer GTX280 bekommt wenn man übertaktet
Warum vergleichst du Übertaktet mit nicht übertaktet?

Odal
2008-07-01, 23:50:31
Warum vergleichst du Übertaktet mit nicht übertaktet?


Weil ich hier garnix verglich sondern lediglich schrieb


GTX280 leistung für 207€ :D

da steht auch nix von GTX280 OC Leistung für 207€
und da steht auch nix von HD4870 besser als GTX280

so nun hoffe ich das wir das geklärt haben

Chris2CB
2008-07-01, 23:53:44
Könntest einen Mod Fragen, das es sich hier um verschiedene Poster handelt. :rolleyes:

Warum vergleichst du Übertaktet mit nicht übertaktet?


Das selbe System wie Leute die meinen man könnte mit seinem Golf an einen Porsche ran kommen.

Allerdings kann man sich schon die frage stellen wie Sinnlos das ist, bei dem Verbrauch einer 4870 auch noch auf die Idee zu kommen noch mehr spannung auf den Chip zu jagen, da ist man am ende mit 2x4850 wohl besser drann.

Blacksoul
2008-07-02, 00:00:31
Allerdings kann man sich schon die frage stellen wie Sinnlos das ist, bei dem Verbrauch einer 4870 auch noch auf die Idee zu kommen noch mehr spannung auf den Chip zu jagen, da ist man am ende mit 2x4850 wohl besser drann.

Genauso Sinnlos, wie beim Verbrauch bzw. bei der Verlustleistung die GTX280 zu übertakten. RV770 scheint ja fast harmlos dagegen zu sein.
Trotzdem tun es viele. Warum auch nicht?
Soll jeder mit seinem Golf oder Porsche machen, was er will.
Im Forumdeluxx hat jemand dabei schon fast seine GTX280 gekillt. (y)

Wenn ich meine 4870 in unendliche höhen Jage, dann erwarte ich keine GTX280-Leistung. Wenn ich diese erreiche, dann ist es nett. Wenn nicht, dann ist es auch nicht schlimm.

You get what you pay for.


t.b.d

Angiesan
2008-07-02, 00:01:12
naja gastposting halt (im prinzip einfach nur löschenswert)...ich hab schon an hardware gebastelt da bist du vermutlich noch mit der trommel um den baum gelaufen :rolleyes:

sorry, auch wegen ot, aber wenn der Spruch auch schon alt ist, ich lach mich immer wieder gerne weg mit dem;D habe gerade so einen 3 Jährigen im Kopf,der mit seiner Holztrommel um den Weihnachtsbaum springt. Und auf der anderen Seite den pupertierenden mit einem unkontrolliertem Basteldrang versehenen Odal, der zuerst mal mit Papas Lötkolben einen Voltmode bei seiner eben erst unter dem Weihnachtsbaum gefundenen Graka macht:biggrin:

betasilie
2008-07-02, 22:39:14
Geile Karte. Die Reviews halten was sie versprechen! :)

Coda
2008-07-02, 22:46:57
Jo hab mich jetzt auch noch umentschieden und doch nur ne 4870 bestellt (ist auch schon eingebaut). Die GTX 280 lohnt sich einfach nicht für den Mehrpreis und ich müsste dauernd wecheln wenn ich mal doch 10.1 brauch.

Mal sehen wie's mit den Treibern so läuft bei ATI.

misterh
2008-07-02, 22:51:41
bekomme auch 4870

8800GT SLI kommt weg.

][immy
2008-07-02, 23:02:44
Genauso Sinnlos, wie beim Verbrauch bzw. bei der Verlustleistung die GTX280 zu übertakten. RV770 scheint ja fast harmlos dagegen zu sein.
Trotzdem tun es viele. Warum auch nicht?
Soll jeder mit seinem Golf oder Porsche machen, was er will.
Im Forumdeluxx hat jemand dabei schon fast seine GTX280 gekillt. (y)

Wenn ich meine 4870 in unendliche höhen Jage, dann erwarte ich keine GTX280-Leistung. Wenn ich diese erreiche, dann ist es nett. Wenn nicht, dann ist es auch nicht schlimm.

You get what you pay for.


t.b.d

mich würde interessieren, weit man den speicher runtertakten kann ohne größere einbußen bei der performance zu haben und ob man damit den verbrauch und damit die wärme ein wenig eindämmen kann bei der 4870. und darüber dann vielleicht auch ein wenig die lautstärke reduzieren.

gibt es eigentlich 4870er die leiser sind als die von anderen firmen?

Nazar
2008-07-03, 12:26:49
[immy;6631422']mich würde interessieren, weit man den speicher runtertakten kann ohne größere einbußen bei der performance zu haben und ob man damit den verbrauch und damit die wärme ein wenig eindämmen kann bei der 4870. und darüber dann vielleicht auch ein wenig die lautstärke reduzieren.

gibt es eigentlich 4870er die leiser sind als die von anderen firmen?

Die größte Abwärme sollte immer noch die GPU erzeugen, deshalb bringt ein runtertakten des Speichers wohl nichts. Auch wird der Lüfter über die GPU Temp gesteuert.
Wenn man Abwärme und damit die Lautstärke reduzieren möchte, sollte man die GPU untertakten.

AnarchX
2008-07-03, 20:19:50
CB: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI) - High-End für wenig(er) Geld? (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/)

Sorkalm
2008-07-03, 20:29:03
Hach mann, statt die Zeit zu nutzen um endlich mal die unterschiedlichen Treiber zu korrigieren werden noch CF und SLI-Benchmarks hinzugebracht, die garantiert <1% der Käufer in diesem Bereich interessieren.
Sogar GTX 280 und GTX 260 laufen mit verschiedenen Treibern. :rolleyes:

Gast
2008-07-03, 20:36:49
Gibt es hier Leute die beide Karten in AoC gesehen haben und bestätigen können was die PC-Games Hardware schreibt, das es nur mit der GTX280/260 ohne Nachladeruckler spielbar ist?

tombman
2008-07-03, 20:40:04
Gibt es hier Leute die beide Karten in AoC gesehen haben und bestätigen können was die PC-Games Hardware schreibt, das es nur mit der GTX280/260 ohne Nachladeruckler spielbar ist?
Mit 8800GTX/ULTRA lief es auch ohne Nachladeruckler... 768mb scheinen zu reichen...

Gast
2008-07-03, 20:43:47
Ich habe eine 8800GTX und in Tarantia zb. gibt es deutliche Nachladeruckler.

tombman
2008-07-03, 20:48:58
CB: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI) - High-End für wenig(er) Geld? (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/)

Ganz abgesehen von der Leistung: in 4 (in Worten: VIER) Anwendung skalierte Crossfire extrem schlecht bis gar nicht!

SLI skalierte immer...

Das meinte ich mit "Komfort" bei SLI ;)

Insofern darf die 260er ruhig ein bischen teurer sein. Die Leistung ist ja sehr ähnlich.

Deutlich zu teuer ist ganz klar die 280er. Aber ich schätze, das wird sich mit Erscheinen des R700 auch ändern :)

reunion
2008-07-03, 20:52:21
Wen interessiert SLi oder CF? Nicht mal den Launchtreiber hat man bei den AMD-Karten genommen, sondern den alten Cat. 8.6.

tombman
2008-07-03, 20:54:47
Wen interessiert SLi oder CF?
Es gibt kein HighEnd ohne CF oder SLI. Punkt.

;)

reunion
2008-07-03, 20:56:14
Es gibt kein HighEnd ohne CF oder SLI. Punkt.

;)

Wen interessiert High-End? SLi/CF ist für bestenfalls 0.1% der Käufer interessant, damit den höheren Preis der GTX260 zu rechtfertigen ist schon ziemlich weit hergeholt.

AffenJack
2008-07-03, 21:00:46
heutzutage rechtfertigt man den 260 kauf wohl eher mitn stromverbrauch so wie es die leute früher bei der 3870 gemacht haben;)

Lard
2008-07-03, 21:06:10
Test bei Computerbase: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/

tombman
2008-07-03, 21:07:08
Test bei Computerbase: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6633522&postcount=716

Gast
2008-07-03, 21:53:19
Also ne, jetzt knallen sie auf die 4870 schon nen dicken Dualslot Kühler und dann solche lächerlich hohen Temps, wie schaffen die das? Da stimmt doch vorne und hinten was nicht, ist das absoluter Schrott den AMD da als Kühler verbaut oder wie kommt das? :confused:

J0ph33
2008-07-03, 21:55:38
Lautstärke!

Gast
2008-07-03, 22:03:05
Quark. Unter Last ist das Ding auch ned leise und trotzdem heiss. Schrott der billigsten Sorte.

Lard
2008-07-03, 22:05:00
Guru3d: Radeon HD 4850 and 4870 CrossfireX performance test

http://www.guru3d.com/article/radeon-hd-4850-and--4870-crossfirex-performance/1

Gast
2008-07-03, 22:05:32
4870 für €194.- (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6633694&postcount=434)

=Floi=
2008-07-03, 23:08:05
es wäre mal nett, wenn man bei CB die SLLi und CF (inclusive GX2 undx2 grafikkarten) ausblenden könnte in den benchmarks. Die links zu den tests der alten grafikkarte könnte man auch wieder auf der startseite des test einfügen.

Blaire
2008-07-03, 23:19:36
Guru3d: Radeon HD 4850 and 4870 CrossfireX performance test

http://www.guru3d.com/article/radeon-hd-4850-and--4870-crossfirex-performance/1

Leider ohne Crysis...

Gast
2008-07-03, 23:24:19
hmm HD4870 hat ja mal nen krasses Preis-Leistung-Verhältnis. 2 stück sind immer noch billiger wie eine gtx280 (ich will gar nich an SLI denken) und fast gleich schnell. ich warte jetzt auf die X2 vorallem wegen dem dicken speicher.

mal sehen welche karte am ende die nase vorne hat. (die treiber werden's zeigen)

vinacis_vivids
2008-07-03, 23:49:55
Leider ohne Crysis...

Crysis gibs hier
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/20/#abschnitt_crysis

Unyu
2008-07-04, 00:12:01
Also ne, jetzt knallen sie auf die 4870 schon nen dicken Dualslot Kühler und dann solche lächerlich hohen Temps, wie schaffen die das? Da stimmt doch vorne und hinten was nicht, ist das absoluter Schrott den AMD da als Kühler verbaut oder wie kommt das? :confused:
Stromverbrauch? :rolleyes:

up¦²
2008-07-04, 00:39:43
Es gibt kein HighEnd ohne CF oder SLI. Punkt.

;)
Ach komm Tombi: da mußtest du bestimmt auch über CB schmunzeln: Jericho und Gothic 3 :whisper:
Na, wem sowas HighEnd mit CF oder SLI gefällt: ghee schau!

Allerdings sollte Ati mal CF aufmöbeln, bei den erschwinglichen Preisen z.Zt. doch zum Anbeißen

Fetza
2008-07-04, 01:35:42
Ach komm Tombi: da mußtest du bestimmt auch über CB schmunzeln: Jericho und Gothic 3 :whisper:
Na, wem sowas HighEnd mit CF oder SLI gefällt: ghee schau!

Allerdings sollte Ati mal CF aufmöbeln, bei den erschwinglichen Preisen z.Zt. doch zum Anbeißen

Na ich fände jetzt die zeit reif für eine 4850x2 für 200 euro rum. :)

up¦²
2008-07-04, 01:38:54
Na ich fände jetzt die zeit reif für eine 4850x2 für 200 euro rum. :)
Genau meine Meinung! :up:
Kommt, aber gannnz gewaltig :whisper:

MikBach
2008-07-04, 02:02:03
Allerdings sollte Ati mal CF aufmöbeln, bei den erschwinglichen Preisen z.Zt. doch zum Anbeißen
Mit den derzeitigen Problemen von Multi-GPU eh nicht so interessant und nur für wenige User oder Spiele der Rede Wert. Eine reicht auch für die am meisten gebräuchlichen Auflösungen und Spiele.

vinacis_vivids
2008-07-04, 05:26:30
hd4870 test unter linux :)
http://www.phoronix.com/scan.php?page=article&item=ati_radeonhd_4870&num=1

Liszca
2008-07-04, 06:11:55
hd4870 test unter linux :)
http://www.phoronix.com/scan.php?page=article&item=ati_radeonhd_4870&num=1

die erkenntnisse sind schon irgendwie zum heulen :eek:

andererseits zeigt es einfach mal wieder ganz klar daß es keinen sin macht wirklich unter linux spielen zu wollen, da fehlen einfach die spiele.

nagus
2008-07-04, 08:00:30
Ganz abgesehen von der Leistung: in 4 (in Worten: VIER) Anwendung skalierte Crossfire extrem schlecht bis gar nicht!

SLI skalierte immer...

Das meinte ich mit "Komfort" bei SLI ;)

Insofern darf die 260er ruhig ein bischen teurer sein. Die Leistung ist ja sehr ähnlich.

Deutlich zu teuer ist ganz klar die 280er. Aber ich schätze, das wird sich mit Erscheinen des R700 auch ändern :)

Entschuldigung aber könntest du deine LÜGENMÄRCHEN bitte wo anders verbreiten? SLI skaliert immer... jaja und Elvis lebt.

reunion@work
2008-07-04, 08:15:13
Quark. Unter Last ist das Ding auch ned leise und trotzdem heiss. Schrott der billigsten Sorte.

LOL, das Ding ist 4dB leiser als eine 260GTX, bei einem logarithmischem Maß sind das Welten. Dazu braucht die Karte mehr Strom als eine 260GTX und der Kühler ist wesentlich kleiner als bei der 260GTX mit ihrer 28cm Platine. Wenn hier was Schrott ist dann ja wohl der Kühler der 260GTX.

Botcruscher
2008-07-04, 08:17:56
LOL, das Ding ist 4dB leiser als eine 260GTX, bei einem logarithmischem Maß sind das Welten.

2.51 mal weniger Schalldruck ist schon was. Aber wer versteht schon db... 3db sind doch nicht viel.;)

Blöd das die Menschliche Wahrnehmung Frequenzabhängig ist.

reunion@work
2008-07-04, 08:18:55
Test bei Computerbase: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/

Im Grunde wie zu erwarten war, die Karte liegt praktisch gleichauf mit der GTX260.

MechWOLLIer@IE
2008-07-04, 08:27:53
Wen interessiert SLi oder CF? Nicht mal den Launchtreiber hat man bei den AMD-Karten genommen, sondern den alten Cat. 8.6.
Das stimmt so nicht. Wir haben für den Artikel wie auch schon für den 4850-Artikel den neusten Presse-Treiber von ATi genommen, der ein gutes Stück neurer ist als der Catalyst 8.6 und so weit ich weiß auch neurer als der angeblich geleakte Cat 8.7 Beta. Jedoch meldet das CCC den Treiber als Cat 8.6, weswegen wir bei der Bezeichnung geblieben bin.

es wäre mal nett, wenn man bei CB die SLLi und CF (inclusive GX2 undx2 grafikkarten) ausblenden könnte in den benchmarks. Die links zu den tests der alten grafikkarte könnte man auch wieder auf der startseite des test einfügen.
Die Links sind immer noch drin, aber an einer anderen Stelle. Du findest die Links unter "verwandte Artikel" am Ende des Artikels.
Ach komm Tombi: da mußtest du bestimmt auch über CB schmunzeln: Jericho und Gothic 3

Warum muss man da denn schmunzeln? Exe.-Renaming? ;)

reunion@work
2008-07-04, 08:31:28
Das stimmt so nicht. Wir haben für den Artikel wie auch schon für den 4850-Artikel den neusten Presse-Treiber von ATi genommen, der ein gutes Stück neurer ist als der Catalyst 8.6 und so weit ich weiß auch neurer als der angeblich geleakte Cat 8.7 Beta. Jedoch meldet das CCC den Treiber als Cat 8.6, weswegen wir bei der Bezeichnung geblieben bin.


Okay dann sorry. Das wusste ich nicht.

Gast
2008-07-04, 08:36:20
Test bei Computerbase: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/

geil, da wo die 4870er mal langsamer sind wie bei WiC ist bestimmt der VRAM alle.

Aber sonst, ATI is back :cool: