PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4870: (P)Review-Thread


Seiten : 1 2 3 4 [5]

deekey777
2008-07-11, 15:31:08
Mir ist bislang noch kein Spiel bekannt, dass Transparenz-AA-Einstellungen ingame anbietet.
HL2 Ep.2: Dort wird A2C automatisch aktiviert, wenn im Spiel MSAA geregelt wird.

Iceman346
2008-07-11, 15:43:03
Wie oben gezeigt TF2 auch. Gilt wahrscheinlich für alle Spiele die die neuste Version der Source Engine nutzen.

Gast
2008-07-11, 15:59:54
Spielbarkeit von GT200 und RV770 in Crysis

http://www.pcgameshardware.de/aid,650880/Test/Benchmark/Spielbarkeit_von_GT200_und_RV770_in_Crysis/&page=1


Interessant =)


Crysis wird seinem Ruf als Hardware-Killer gerecht. Die Kombination aus Kantenglättung und anisotropem Filter zwingt selbst eine GTX 280 in die Knie, der Shooter gleicht mehr einer Diashow denn einem Spiel. Eine HD 3870 ist einzig in 1.280 x 1.024 zu einigermaßen flüssigen Bildwiederholraten zu bewegen, die leicht flottere 8800GT quält sich allerdings auch. Das Duell HD 4850 gegen 9800GTX+ kennt keinen Sieger, gerade mit hohen Settings offenbart sich jedoch mit dem VRAM-Management der klare Schwachpunkt der Geforce. Die GTX 260 kann sich nur in 1.280 x 1.024 von dem Mittelklasse-Triple absetzen, wird jedoch durchgehend von der HD 4870 geschlagen.

betasilie
2008-07-11, 17:01:30
@Blaire

Kannst Du mir bitte erklären und zeigen wo man auf meinem Oblivionbild das angebliche MSAA erkennen kann?

http://img169.imageshack.us/img169/7277/oblivionati4xassaagr1.png

mapel110
2008-07-11, 17:04:02
Interessant =)
Eher weniger, der Test ist hier im Thread schon vor ein paar Tagen zerpflückt worden.
HL2 Ep.2: Dort wird A2C automatisch aktiviert, wenn im Spiel MSAA geregelt wird.
Na Bravo. Und der User erfährt davon nichts, oder gibts Ingame einen Hinweis?!

centurio81
2008-07-11, 17:44:45
Was beudeutet das eigentlich genau im Catalyst genau wenn man da BOX, NARROW, WIDE und Adaptive hat..?
Adaptive is mir bekannt, aber mit den anderen begriffen kann ich so nix anfangen..

hatte vorher ne nVidia.. :)

Gast
2008-07-11, 17:47:52
benutz doch mal die forum suche oder google;)

Mr. Lolman
2008-07-11, 18:57:35
Das ATT läuft unter Vista 64 nicht. Sonst hätt ichs schon längst drauf ;)

Und in Spielen kann man normalerweise nur die üblichen MSAA Modi auswählen, teilweise sogar nur bis 4xAA beschränkt. Edge Detect kriegt man darüber garnicht.

Tent und Edge Detect, sowie AAA-Einstellungen wirken trotzdem, auch wenn der AA-Modus auf App. gestellt ist.

Gast
2008-07-11, 19:18:47
Eher weniger, der Test ist hier im Thread schon vor ein paar Tagen zerpflückt worden.

Kaum, da er erst heute online ging. :ulol:

Sorkalm
2008-07-11, 19:46:50
Eher weniger, der Test ist hier im Thread schon vor ein paar Tagen zerpflückt worden.

Hmm, die Kritik das man HQ gegen AI. default verwendet kann man behalten (PCGH wird das auf absehbare Zeit aber wohl nicht ändern), aber sonst kann man das nicht mit dem Test der von vor ein paar Tagen veröffentlicht wurde vergleichen. ;)

Gast
2008-07-11, 23:22:09
Tent und Edge Detect, sowie AAA-Einstellungen wirken trotzdem, auch wenn der AA-Modus auf App. gestellt ist.
AAA ist klar, bist du dir aber bei den CFAA Modi sicher. Bislang wurde das Gegenteil behauptet

deekey777
2008-07-11, 23:30:51
...
Na Bravo. Und der User erfährt davon nichts, oder gibts Ingame einen Hinweis?!
Der, der es wissen muss, sieht es auch.
:)

Sprich: Wenn man das Anti-Aliasing im Spiel einstellt, im CCC oder sonstwo alles auf anwendunsgesteuert steht, dann gibt's Alpha-2-Coverage in Ep. 2 (und wohl in TF2 und Mods, basierend auf dem Stand der Ep2-Engine). Aktivierst du MSAA im CCC, dann gibt's kein A2C.
Aktivierst du MSAA im Spiel, lässt aber AAA im CCC an, hast du eine interessante Komposition. :biggrin:

Iceman346
2008-07-11, 23:58:27
AAA ist klar, bist du dir aber bei den CFAA Modi sicher. Bislang wurde das Gegenteil behauptet

Habs grad mal mit TF2 und Test Drive Unlimited getestet, da werden die CFAA Modi übernommen wenn man App einstellt und AA im Spiel wählt.

mapel110
2008-07-12, 16:31:38
Hmm, die Kritik das man HQ gegen AI. default verwendet kann man behalten (PCGH wird das auf absehbare Zeit aber wohl nicht ändern), aber sonst kann man das nicht mit dem Test der von vor ein paar Tagen veröffentlicht wurde vergleichen. ;)
Ah, und mit den aktuellen Karten spielt man Crysis natürlich unter Windows XP. Ist völlig klar...

Ich dachte erst, es wäre der COD4-Test, aber ändert für mich nichts an der Qualität dieses Tests.

Raff
2008-07-12, 17:11:20
Aktivierst du MSAA im Spiel, lässt aber AAA im CCC an, hast du eine interessante Komposition. :biggrin:

Einen Hybriden vermutlich. Fluppt das ohne Artefuckte? Dürfte aber kosten ...

MfG,
Raff

Spacepoko
2008-07-12, 21:09:19
Lasst mal zur 1GB Variante zurück kehren.
Wann kommt sie denn nun? Und profitiert sie vom 1GB?
Gruß
Space

centurio81
2008-07-12, 21:25:22
Also ich denke nicht dass die 1 Gb Variante deutlich mehr bringen wird.. Erinnert euch an meine Worte.. ;)

Ich zocke selber gerne mit AA wenn die Leistung stimmt..
Und auch wenn es geht auf 1920x1200..
Hab ArmA auf 1920x1200 gezockt auf full details.. No Problemo.. Unter XP konnte ich beim Riva Tuner damals sehen mit meiner GTS640, dass 600 Mb VRAM voll waren.. Jetzt mit der 4870 läuft es weit besser und smoother und das trotz weniger RAM und mehr Details..

Und wenn man sich mal die Benchmarks ansieht bricht die Leistung außer bei so Sachen wie AOC oder Crysis gar nicht ein, selbst bei hohen auflösungen..

Und die wenigen Beispiele wo es einbrechen soll, da wundert es micht nicht, wenn da mit SS in hohem Maße gezockt wird..
Dass man das letzte i Tüpfelchen im AA Augenschmaus verzichten muss bei 512 MB, die natürlich auch irgendwann mal bei ATI voll sind, ist klar..
Aber wenn man normales 4x MS anwendet sollte es nächster zeit keine größeren probleme geben..

Aber jetzt mit der ATi wird mir auch erst bewusst wie NERVEND der VRAM Bug bei der geforce war..!
ganz weg war der nämlich nie, auch mit den neuesten Treibern..
Die ATI hat ab und zu mal nen nachladeruckler, aber damit kann ich leben..
Und wenn man bedenkt wie teuer und verfügbar GDDR5 ist, stellt sich deoch echt dei frage wie hoch der mehrpreis ausfallen wird, und ob das in ner vernünftigen relation steht zu der Mehrleistung, sofern vorhanden..! ;)
Ich bereue den kauf nicht, auch wenn meine neue karte weniger VRAM hat als die alte.. ;) Das hatte mich am Anfang abgehalten die 4870 zu kaufen..
Aber irgendwo muss man mal sehen dass man es auch übertreiben kann mit AA.. ;)
Denkt man mal an Stalker zurück, da ging gar kein AA..
Hat es nach ner Weile noch schwer gestört? NEIN.
Denn die Qualität eines Spieles kann AA nicht verbessern. Is sicher ganz nett wenn es geht, aber es ist kein Muss..

deekey777
2008-07-12, 22:45:49
Einen Hybriden vermutlich. Fluppt das ohne Artefuckte? Dürfte aber kosten ...

MfG,
Raff
Das Dithering hast du so oder so, wenn die Kantenglättung über das Spiel eingestellt wird.

tEd
2008-07-13, 00:15:33
Das A2C kann mit "mat_alphacoverage 0" abstellen entweder in der Konsole oder direkt in die config Datei schreiben.

Fetza
2008-07-13, 04:13:06
Ah, und mit den aktuellen Karten spielt man Crysis natürlich unter Windows XP. Ist völlig klar...


Wie darf ich das verstehen? Warum sollte man mit den aktuellen karten nicht unter xp crysis spielen? Very high ist hoffentlich jetzt nicht das argument, denn auf very high zockt niemand (wenn er es flüssig spielen will) - das läuft doch nichtmal mit 280-sli vernünftig.

Also, was bitte spricht gegen crysis zocken unter xp?

tombman
2008-07-13, 04:26:17
- das läuft doch nichtmal mit 280-sli vernünftig.

Doch, tuts.

mapel110
2008-07-13, 04:36:31
Bevor man in einem Spiel AA und AF einschaltet, sollte man erstmal die Details hochdrehen. Und wer bei Crysis den Unterschied nicht sieht, der braucht eh keine aktuelle Grafikkarte.
Und wenn du jetzt mit dem Very High Mod für XP ankommst, damit hat PCGH nicht getestet... außerdem würden dann immernoch Details fehlen.

Fetza
2008-07-13, 06:27:18
Doch, tuts.
Bevor man in einem Spiel AA und AF einschaltet, sollte man erstmal die Details hochdrehen. Und wer bei Crysis den Unterschied nicht sieht, der braucht eh keine aktuelle Grafikkarte.
Und wenn du jetzt mit dem Very High Mod für XP ankommst, damit hat PCGH nicht getestet... außerdem würden dann immernoch Details fehlen.

Naja, für mich ist aa und af sehr wichtig, ohne filterung und mit kantenflimmern gehen auch die dazugeschalteten details unter. Und das hilft alles insgesamt nicht viel, den mit einer single karte kannst du very high vergessen.

Aber stimmt, mit g200 oder r770 sli/cf flutscht very high doch gut. (ohne aa)

tombman
2008-07-13, 06:32:13
Aber stimmt, mit g200 oder r770 sli/cf flutscht very high doch gut. (ohne aa)
Auf 1600x1000, 4xAA, flutscht Very High auch gut ;)

Fetza
2008-07-13, 06:38:21
Auf 1600x1000, 4xAA, flutscht Very High auch gut ;)

Hmm, naja also 35 frames wären mir zu wenig :)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/25/#abschnitt_crysis

Gunslinger
2008-07-13, 08:02:57
Hmm, naja also 35 frames wären mir zu wenig :)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/25/#abschnitt_crysis

35 fps wirken in Crysis flüssig. Spiele derzeit mit einer 4870 in 1280 auf Very High.

centurio81
2008-07-13, 09:07:26
Ich verzichte lieber auf das eine oder andere Detail, und nutze lieber ne modifizierte Datei und zocke es inzwishen auch in Vista in DX9, aber dafür 1920x1200 flüssig..
Und Sache wie 3d Bodentexturen hat man dann auch in DX9..
macht einfach mehr Spaß als in nem kleinen Fenster..

Mr. Lolman
2008-07-13, 09:44:05
Bevor man in einem Spiel AA und AF einschaltet, sollte man erstmal die Details hochdrehen. Und wer bei Crysis den Unterschied nicht sieht, der braucht eh keine aktuelle Grafikkarte.
Und wenn du jetzt mit dem Very High Mod für XP ankommst, damit hat PCGH nicht getestet... außerdem würden dann immernoch Details fehlen.


Rescue Very High DX10, AA/AF: http://www.ixbt.com/video/itogi-video/0608/itogi-video-cr3-wxp-pcie-aaa.html

Spacepoko
2008-07-13, 11:00:51
Ich verzichte lieber auf das eine oder andere Detail, und nutze lieber ne modifizierte Datei und zocke es inzwishen auch in Vista in DX9, aber dafür 1920x1200 flüssig..

Ich verstehe gerade den Zusammenhang nicht. Was hat dx9 mit Crysis und Vista zu tun?
Geht DX10 mit 4870 und Vista 64 nicht??

centurio81
2008-07-13, 11:03:03
Doch, aber der Leistungsverlust unter DX10 steht in keinem Verhältnis zum Optikgewinn..

Gast
2008-07-13, 11:04:31
natürlich, warum solltes es nicht?

r@h
2008-07-13, 11:10:07
Weil DX9 in Crysis generell sehr viel schneller ist, als DX10 (unter Vista).
Und das bei vergleichbarer Qualität (very high mod), bei der man die Unterschiede mit dem RasterTunnel-Mikroskop suchen muss.

Und wenn man denn nun unbedingt unter Vista zocken will (was ich noch immer nicht verstehen kann), dann ists eben Crysis via DX9.
Alle Klarheiten beseitigt?
;-)

Razor

centurio81
2008-07-13, 11:24:45
Weil DX9 in Crysis generell sehr viel schneller ist, als DX10 (unter Vista).
Und das bei vergleichbarer Qualität (very high mod), bei der man die Unterschiede mit dem RasterTunnel-Mikroskop suchen muss.


ganz genau.

Und wenn man denn nun unbedingt unter Vista zocken will (was ich noch immer nicht verstehen kann)

Razor

Und ich nicht verstehen kann, warum du das nicht verstehen kannst..^^

Gast
2008-07-13, 14:42:01
Ah, und mit den aktuellen Karten spielt man Crysis natürlich unter Windows XP. Ist völlig klar...



XP ist immern6och sehr gut zum zocken und wird von sehr vielen Leuten noch genutzt ;)

Und sich für Crysis extra Vista zu holen wegen "DX10" dem ist sowieso nicht mehr zu helfen ;D da man die selbe Optic in den Cvar`s einstellen kann.

el crack0r
2008-07-13, 16:00:07
Das P/L Verhältnis wird ja immer besser: HD 4870 fällt auf 200, HD 4850 unter 130 Euro (http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4870_200_hd_4850_130_euro/) steht heute auf CB.

Gestern war ich noch zufällig bei KM und hatte interessehalber angefragt, was eine Powercolor 4870 kosten soll - da wars noch offiziell bei 225€. Mal schauen wenn die Woche rum ist ;)

Und sich für Crysis extra Vista zu holen wegen "DX10" dem ist sowieso nicht mehr zu helfen ;D da man die selbe Optic in den Cvar`s einstellen kann.

Naja, wegen Bioshock ist mir die Entscheidung zu Vista ehrlich gesagt auch sehr viel leichter gefallen.
Jeder hat doch seine Gründe - bleibt allen selbst überlassen.

Spacepoko
2008-07-13, 20:23:45
Welche Spiele liegen denn bei den einzelnen Herstellern mit bei?
Ist es wie bei Nvidia?
Im Netzist die Info nur schwer zu bekommen.

dr_mordio
2008-07-14, 02:27:43
...Und sich für Crysis extra Vista zu holen wegen "DX10" dem ist sowieso nicht mehr zu helfen...

nicht nur wegen crysis.
farcry2 kommt ja auch noch im herbst/winter :D
und man kann eine menge mit den CVARs einstellen, aber leider nicht alles.

MfG
Alex

Lolman
2008-07-14, 06:51:40
und man kann eine menge mit den CVARs einstellen, aber leider nicht alles.

MfG
Alex


Was denn zB?

derguru
2008-07-14, 21:00:07
die erste 1gb in sicht,wird aber auch zeit;)

http://www.powercolor.com/de/products_features.asp?ProductID=2243

Super Grobi
2008-07-14, 21:11:40
die erste 1gb in sicht,wird aber auch zeit;)

http://www.powercolor.com/de/products_features.asp?ProductID=2243

Für User mit gänigen 1680x1050 Monitor sicher nicht besonders sinnvoll, oder?

Was ich so in den Reviews gesehen habe, reichen die 512MB ordentlich aus, was ich nie gedacht hätte!

SG

Raff
2008-07-14, 21:13:59
Für 1.680x1.050 reichen 512 MiB, ja. Wobei, mit 24x Bitch-Detect-CFAA lassen sich bestimmt Fälle kreieren, wo die Luft ausgeht. Ich check' das die Tage mal, hab' ja nun auch in so ein feines Kärtchen investiert. =)

MfG,
Raff

derguru
2008-07-14, 21:16:55
Für User mit gänigen 1680x1050 Monitor sicher nicht besonders sinnvoll, oder?

Was ich so in den Reviews gesehen habe, reichen die 512MB ordentlich aus, was ich nie gedacht hätte!

SG

sicher reichen 512mb sogar bis 1920*1200,aber ich brauch das für mein cf sys und will dann keine ramlimitierung haben wenn ich mal ein bissel mehr als 1920*1200+ edge reinknalle.

Super Grobi
2008-07-14, 21:18:33
Für 1.680x1.050 reichen 512 MiB, ja. Wobei, mit 24x Bitch-Detect-CFAA lassen sich bestimmt Fälle kreieren, wo die Luft ausgeht. Ich check' das die Tage mal, hab' ja nun auch in so ein feines Kärtchen investiert. =)

MfG,
Raff

Das wäre ganz fein! Ich bin nämlich immer kurz vor einem Bestellvorgang und bremse mich selber dann doch, weil ich mir vorgenommen habe, noch 2 Wochen zu warten und dann zu entscheiden.

50iger oder 70iger... 512 MB oder 1024[MB, default Kühler oder doch eine mit besseren.... ich werde noch ganz weich im Kopf :biggrin:

SG

Banshee18
2008-07-15, 04:31:54
Für 1.680x1.050 reichen 512 MiB, ja. Wobei, mit 24x Bitch-Detect-CFAA lassen sich bestimmt Fälle kreieren, wo die Luft ausgeht.
Keine bösen Wörter! ;D
Verbraucht der Bitch-Detector (:biggrin:) VRam?

tombman
2008-07-15, 05:11:53
Hmm, naja also 35 frames wären mir zu wenig :)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/25/#abschnitt_crysis
+oc und du bist auf 38fps :cool:

MartinRiggs
2008-07-15, 07:48:56
Für 1.680x1.050 reichen 512 MiB, ja. Wobei, mit 24x Bitch-Detect-CFAA lassen sich bestimmt Fälle kreieren, wo die Luft ausgeht. Ich check' das die Tage mal, hab' ja nun auch in so ein feines Kärtchen investiert. =)

MfG,
Raff

Wie, was?
Waren dir die Radeons nicht zu flimmeranfällig?:confused:

Gast
2008-07-15, 10:48:52
Für User mit gänigen 1680x1050 Monitor sicher nicht besonders sinnvoll, oder?

Was ich so in den Reviews gesehen habe, reichen die 512MB ordentlich aus, was ich nie gedacht hätte!

SG

512MB sollten auch zukünftig ausreichen, da alle neuen 3D-Engines Texturstreaming verwenden. Somit ist ein großer Speicher nicht mehr notwendig, da die Texturen ständig von der Festplatte nachgeladen werden. Bei Konsolen reichen deshalb sogar 256MB für super hochaufgelöste Texturen (z.B. Uncharted, GoW).

centurio81
2008-07-15, 10:51:04
Aha.. Das mit dem Texturstreaming war mir neu.. Interessant..
Aber hab auch nen 24" und ne 4870.. Und manchmal merkt man aber in Crysis, sogar öfters dass es kleine nachladeruckler gibt..
Das nervt im Multiplayer schon manchmal.. Aber ich kann mit leben.. :)

Gast
2008-07-15, 10:53:33
Ich weiß nicht, ob Crysis Texturstreaming verwendet, aber z.B. die Unreal Engine 3 tut es.

Cpl. Dwayne Hicks
2008-07-15, 12:14:31
Texture streaming kann man in Crysis doch soweit ich weiss in der config/autoexec an oder aus stellen.

Raff
2008-07-15, 13:50:26
Wie, was?
Waren dir die Radeons nicht zu flimmeranfällig?:confused:

Am Zweitrechner samt CRT schaut auch A.I. High ganz nett aus, vor allem in 2.048x1.536. ;)

MfG,
Raff

Gast
2008-07-15, 14:07:02
+oc und du bist auf 38fps :cool:
;D lol ob 35 oder 38Fps ist ja ein Riesen unterschied.

J0ph33
2008-07-15, 20:46:18
gibt's eigentlich was neues bzgl. powerplay?

spiele mit dem gedanken, eine HD4870 kaufen...jedoch hätte ich ganz gerne einen niedrigen idle-verbrauch
wenn sich da nämlich nichts mehr tut, greif ich dann doch lieber zur (bald nicht mehr) leicht teureren GTX260, da hab ich irgendwann sogar mal die option auf hybrid-power/SLI, wie auch imemr...(wenn's denn mal funktioniert)

Gast
2008-07-15, 20:48:50
gibt's eigentlich was neues bzgl. powerplay?

spiele mit dem gedanken, eine HD4870 kaufen...jedoch hätte ich ganz gerne einen niedrigen idle-verbrauch
wenn sich da nämlich nichts mehr tut, greif ich dann doch lieber zur (bald nicht mehr) leicht teureren GTX260, da hab ich irgendwann sogar mal die option auf hybrid-power/SLI, wie auch imemr...(wenn's denn mal funktioniert)

hier.....
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6660120#post6660120

J0ph33
2008-07-15, 21:50:43
naja, mehr als nen vages "klar, mit den nächsten Treibern machen wir da was" ist das auch nicht ;(

Gast
2008-07-15, 22:15:31
Das erinnert mich doch arg an das Nvidiageschwätz GTS/GTX. Wartet den nächsten Treiber ab. Wenn sich da nix tut, wird sich auch in Zukunft nix tun.

AnarchX
2008-07-15, 22:28:59
HW.fr wiedermal mit vielen interessanten theoretischen Benchmarks:
http://www.hardware.fr/articles/725-5/dossier-amd-radeon-hd-4870-4850.html
Erkärungen der Tests in Englisch:
http://www.behardware.com/articles/723-5/product-review-the-nvidia-geforce-gtx-280-260.html

Gast
2008-07-16, 01:45:24
http://www.abload.de/img/image3.phppbq.jpeg (http://www.abload.de/image.php?img=image3.phppbq.jpeg)

http://www.nordichardware.com/forum/-vp26672.html?sid=3239da4fd350f8f1051bef089ecbf1a0

J0ph33
2008-07-16, 02:08:25
9%!?!?! man, das ist ja der Hammer, ehrlich ich krieg mich kaum noch ein, N.E.U.N Prozent...

:|
ASUS will uns doch verarschen, hat das Ding wenigstens eine verbesserte Kühllösung, wobei der Originalkühler ja schon ganz ordentlich ist

CompuJoe
2008-07-16, 02:17:40
Laut dem Link Orginal Kühler mit angepasster Drehzahl.

Spasstiger
2008-07-16, 02:37:31
Keine bösen Wörter! ;D
Verbraucht der Bitch-Detector (:biggrin:) VRam?
Eigentlich nicht. Höchstens Bandbreite.

Fetza
2008-07-16, 08:59:59
9%!?!?! man, das ist ja der Hammer, ehrlich ich krieg mich kaum noch ein, N.E.U.N Prozent...

:|
ASUS will uns doch verarschen, hat das Ding wenigstens eine verbesserte Kühllösung, wobei der Originalkühler ja schon ganz ordentlich ist

Soweit ich weiss hat nvidia mit der gtx+ weniger zusatzperformance auf die straße gebracht.;)

Gast
2008-07-16, 09:43:26
die 9800GTX+ hat im Schnitt rund 10% mehr Leistung als eine normale 9800GTX.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet

Botcruscher
2008-07-16, 11:11:52
die 9800GTX+ hat im Schnitt rund 10% mehr Leistung als eine normale 9800GTX.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet


Für einen "neuen" Chip nocht entäuschender als die gigantischen n-e-u-n Prozent...

Andererseits ist eine 4870 auch nur 20% schneller als die 50er und kostet 70€ mehr.

Sorkalm
2008-07-16, 11:41:24
9%!?!?! man, das ist ja der Hammer, ehrlich ich krieg mich kaum noch ein, N.E.U.N Prozent...

Aber den Balken dann fast doppelt so hoch machen. ;D

Gast
2008-07-16, 11:47:11
rofl. Ja mit dem Balken stimmt. Ist wie bei MCDonalds mit den Burgern. Auf dem Bild dick, auf dem Teller flach:-)))

Mr. Lolman
2008-07-16, 12:01:29
Andererseits ist eine 4870 auch nur 20% schneller als die 50er und kostet 70€ mehr.

Im Schnitt. Tw. sinds jedoch sogar 40%.

Gast
2008-07-16, 12:09:37
An die mecker Fraktion, eine 8800Ultra hat auch nur 6,4% mehr Takt als die 8800GTX ^^

AnarchX
2008-07-16, 12:10:48
An die mecker Fraktion, eine 8800Ultra hat auch nur 6,4% mehr Takt als die 8800GTX ^^
1500/1350 = ? ;)

Raff
2008-07-16, 12:32:22
1.512. ;) Macht 12 Prozent mehr ALU-Dampf.

MfG,
Raff

centurio81
2008-07-16, 12:34:32
11,1 % ;)

1350 = 100%
1500 = 111,111111111111111111111111111 ^^

Prozentrechnung ist scheinbar schwerer als ich dachte.. :)

Ist eines der wenigen Dinge die man im Leben immer wieder braucht..^^

Raff
2008-07-16, 12:35:54
Sie hat aber wirklich 1.512 MHz. :D Der Taktgeber erlaubt keine feinen Schritte.

MfG,
Raff

centurio81
2008-07-16, 12:36:56
ok..^^
also doch 12 % genau..^^

Sorkalm
2008-07-16, 12:57:43
Sie hat aber wirklich 1.512 MHz. :D Der Taktgeber erlaubt keine feinen Schritte.

Aber mal ehrlich: Auch die 8800 GTS 640 hatte keinen genauen 500 MHz Chip-Takt. Und man findet viele weiter Situationen wo der Taktgeber nicht genau die angezielte Taktrate trifft. Trotzdem finde ich eine Angabe wie 600/1300/1100 für die GTX 280 sinnvoller als die übergenaue, angepasste für den Taktgeber...

Raff
2008-07-16, 13:07:20
Die G80-GTS ackert IIRC mit 513 MHz GPU-Takt. Diese Angabe ist akkurat, deswegen ist sie den "runden" Zahlen vorzuziehen. Manchmal kommt es vor, dass ein Hersteller einer übertakteten Karte etwa "700 MHz" verspricht, der Taktgeber aber 688 MHz appliziert. Das ist kein Betrug, aber nur der informierte Nutzer weiß davon – wenn die akkuraten Takte in allen Tests genannt werden.

MfG,
Raff

Gast
2008-07-16, 18:25:53
Spielbarkeit von GT200 und RV770 in Unreal Tournament 3

http://www.pcgameshardware.de/aid,651930/Test/Benchmark/Spielbarkeit_von_GT200_und_RV770_in_Unreal_Tournament_3/

Auch wenn es PCGH ist;-)

4 Vitamins
2008-07-16, 19:07:11
Spielbarkeit von GT200 und RV770 in Unreal Tournament 3

http://www.pcgameshardware.de/aid,651930/Test/Benchmark/Spielbarkeit_von_GT200_und_RV770_in_Unreal_Tournament_3/

Auch wenn es PCGH ist;-)

Wieder eine tracht prügel für den gtx260, der soll unter 150 euor sinken sonst kauft das ding keiner.

gruss

mapel110
2008-07-16, 20:21:12
Hm, COD4, Crysis und UT3 bislang auf PCGH.

Wo bleiben Bioshock, Company of Heroes oder Lost Planet? Würde da die Radeons verlieren?! O_o

Gast
2008-07-16, 20:44:53
Hm, COD4, Crysis und UT3 bislang auf PCGH.

Wo bleiben Bioshock, Company of Heroes oder Lost Planet? Würde da die Radeons verlieren?! O_o
Vor 2 Jahren warst du noch nicht so parteiisch.;)

LovesuckZ
2008-07-16, 20:48:52
Wieder eine tracht prügel für den gtx260, der soll unter 150 euor sinken sonst kauft das ding keiner.

gruss

HQ kostet ca. 10% an Leistung. Die Min-Frames der GTX260 sind sowieso unbrauchbar, da die GTX280 nicht 55% schneller sein kann. Demnach sind 4870 und GTX260 gleichschnell.

reunion
2008-07-16, 20:59:37
HQ kostet ca. 10% an Leistung.

Angeblich soll HQ ja keine Leistung kosten.

Super Grobi
2008-07-16, 21:01:23
Angeblich soll HQ ja keine Leistung kosten.

Wazu sollte man das den dann aktivieren können?

SG

mapel110
2008-07-16, 21:04:03
Vor 2 Jahren warst du noch nicht so parteiisch.;)
Stand 2005:
mapel110 [ATI]-+--|----[nVidia]
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=81633

Ich sollte mal wieder updaten. ;D

LovesuckZ
2008-07-16, 21:04:19
Angeblich soll HQ ja keine Leistung kosten.

Natürlich kostet es etwas. Es ist jedoch so wenig, dass es nicht über spielbar und unspielbar entscheidet.
Jedoch muss man die Leute darauf hinweisen, dass PCGH HQ gegen A.I Default testet.

Gast
2008-07-16, 21:46:46
Hm, COD4, Crysis und UT3 bislang auf PCGH.

Wo bleiben Bioshock, Company of Heroes oder Lost Planet? Würde da die Radeons verlieren?! O_o


Bisher prüften wir in drei Artikeln, wie sich die neuen Grafikkarten von AMD und Nvidia in Age of Conan, Assassins Creed und Mass Effect schlagen.



Die 3 hast du mal glatt übersehen ;-)

MikBach
2008-07-16, 22:14:40
Bisher prüften wir in drei Artikeln, wie sich die neuen Grafikkarten von AMD und Nvidia in Age of Conan, Assassins Creed und Mass Effect schlagen.



Die 3 hast du mal glatt übersehen ;-)
Aber auch NFS: Carbon, Race Driver Grid und Oblivion mit Qarls Tex Pack (Seite 28,29 aktuelle Ausgabe). Allerdnigs nur die 4850.
Bei NFS: Carbon schlägt die 4850 selbst eine 280GTX in der höchsten Einstellung, sonst ca. 260GTX. Bei Oblivion ist eine 4850 nur ein paar Prozent langsamer als eine 260GTX.
Wobei alle Benches mit 8xAA gemacht wurden. Man wollte wohl die Karten richtig ausreizen, da auch extreme Auflösungen gefahren wurden, wobei meistens alles spielbar bleibt.

mapel110
2008-07-16, 22:25:25
Bisher prüften wir in drei Artikeln, wie sich die neuen Grafikkarten von AMD und Nvidia in Age of Conan, Assassins Creed und Mass Effect schlagen.



Die 3 hast du mal glatt übersehen ;-)
O_o
Merkwürdiger Schreibstil von PCGH oder an den Artikeln ist was unterschiedlich?!

Naja, in den ersten 3 Tests rockt offenbar die Geforce, jetzt mussten ATI-Benches her. ^^

reunion
2008-07-16, 22:31:58
Hm, COD4, Crysis und UT3 bislang auf PCGH.

Wo bleiben Bioshock, Company of Heroes oder Lost Planet? Würde da die Radeons verlieren?! O_o

Sorry, aber Crysis als Vorteil für AMD zu werten ist schon ein starken Stück. Auch UT3 liegt den AMD-Karten mit AA normalerweise nicht sonderlich. Alle drei sind im übrigen TWIMTBP-Spiele. Aber schon klar, man legt sich alles irgendwie so zu recht, wie es gerade passt.

Mr. Lolman
2008-07-16, 22:33:30
Naja, in den ersten 3 Tests rockt offenbar die Geforce, jetzt mussten ATI-Benches her. ^^

:|

http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/&menu=browser&image_id=831451&article_id=645838&page=1&show=original

http://www.pcgameshardware.de/aid,645004/Test/Benchmark/PCGH_Performance_Review_Mass_Effect/&menu=browser&image_id=827923&article_id=645004&page=4&show=original

http://www.pcgameshardware.de/aid,640754/Test/Benchmark/Assassins_Creed_D3D-101-Modus_im_PCGH-Praxistest/&menu=browser&image_id=810151&article_id=640754&page=1&show=original

Edit: Wobei bei letzterem CB ganz andere Ergebnisse bekommt: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/16/#abschnitt_assassins_creed

mapel110
2008-07-16, 22:42:53
Sorry, aber Crysis als Vorteil für AMD zu werten ist schon ein starken Stück. Auch UT3 liegt den AMD-Karten mit AA normalerweise nicht sonderlich. Alle drei sind im übrigen TWIMTBP-Spiele. Aber schon klar, man legt sich alles irgendwie so zu recht, wie es gerade passt.
Was TWIMTBP bedeutet, haben wir oft genug erklärt. Und die neuen Radeons kommen mit Crysis offenbar sehr gut zurecht.
Da ist die Steigerung der Performance gegenüber der alten Radeon-Serie besonders stark.

Coda
2008-07-16, 22:51:54
Angeblich soll HQ ja keine Leistung kosten.
Das kommt natürlich auf das Spiel an. Wenn du nur Shader hast die vollständig ALU limitiert sind und die Samplinglatenz dahinter versteckt werden kann dann kostet es überhaupt nichts.

CompuJoe
2008-07-17, 00:03:24
was liegt dern verschiedenen Herstellern eigentlich alles an Software oder Spielen bei?

Gast
2008-07-17, 03:31:21
:|

http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/&menu=browser&image_id=831451&article_id=645838&page=1&show=original

http://www.pcgameshardware.de/aid,645004/Test/Benchmark/PCGH_Performance_Review_Mass_Effect/&menu=browser&image_id=827923&article_id=645004&page=4&show=original

http://www.pcgameshardware.de/aid,640754/Test/Benchmark/Assassins_Creed_D3D-101-Modus_im_PCGH-Praxistest/&menu=browser&image_id=810151&article_id=640754&page=1&show=original

Edit: Wobei bei letzterem CB ganz andere Ergebnisse bekommt: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/16/#abschnitt_assassins_creed


Bei den links seh ich nur ergebnisse mit HD3870 und 88/98xx Karten.

Gruß

Mr. Lolman
2008-07-17, 07:05:01
Bei den links seh ich nur ergebnisse mit HD3870 und 88/98xx Karten.

Gruß

Damals hats noch nix Besseres gegeben.

Spacepoko
2008-07-18, 17:50:42
Hi,
bei pcgh ist die erste 4870 mit 1gb abgebildet.
fehlt nur noch der preis, dann ist sie meine.
die karte ist von powercolor

gruß
space

Gen. Jack O'Neill
2008-07-18, 18:18:47
4870 mit 1GB Speicher 257,15€
http://geizhals.at/deutschland/a352244.html

dargo
2008-07-18, 18:45:27
4870 mit 1GB Speicher 257,15€
http://geizhals.at/deutschland/a352244.html
Der Preis ist gut. Wenn sich die 1GB Version bei 240-250€ einpendelt wäre das ne Überlegung wert. Jetzt müssten wir nur noch User haben die Vergleiche zwischen 512Mb und 1GB anstellen. Am besten bitte auch Games mit Texturepacks.

Gast
2008-07-18, 20:02:55
Der Preis ist eine Frechheit, wenn man bedenkt, daß es eine GTX 260 schon ab 226€ gibt.

http://geizhals.at/deutschland/a344449.html

Gast
2008-07-18, 20:07:10
Der Preis ist eine Frechheit, wenn man bedenkt, daß es eine GTX 260 schon ab 226€ gibt.

http://geizhals.at/deutschland/a344449.html

die ist ja auch langsamer

Gen. Jack O'Neill
2008-07-18, 20:09:27
Der Preis ist eine Frechheit, wenn man bedenkt, daß es eine GTX 260 schon ab 226€ gibt.

http://geizhals.at/deutschland/a344449.html

Die hat aber nur 896 GDDR3 Speicher und die 4870 hat 1GB GDDR5 und ist deswegen auch teurer und bis jetzt hat sie gerade mal ein Online Shop gelistet. Da werden aufjedenfall noch billigere Angebote kommen.

dildo4u
2008-07-19, 01:13:59
Computerbase Test: Was bringt GDDR5 auf der Radeon HD 4870?

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/

Gast
2008-07-19, 01:33:03
Und nu? Die 280 bleibt Spitze dann kommt der Rest. Ich warte erstmal was die nächsten Monate kommt.

Super-S
2008-07-19, 02:42:01
Und nu? Die 280 bleibt Spitze dann kommt der Rest. Ich warte erstmal was die nächsten Monate kommt.

Zu welchem Preis? ...der Abstand dürfte schrumpfen, mit 1GB Vram :cool:, denk ich mal.

Gast
2008-07-19, 03:25:12
Nvidia wird immer die schnellste single Lösung haben. Also in naher Zukunft meine ich. Bis Intel kommt und alle plättet;-) Meine Meinung. Und nochwas zu Nvidia: Man darf nicht vergessen das hier nix flimmert. Denkt dran.

tombman
2008-07-19, 04:45:39
G200b wirds sowieso wieder richten, und der kommt schon im August/September ;)
Zu welchem Preis? ...der Abstand dürfte schrumpfen, mit 1GB Vram :cool:, denk ich mal.
Nein, wirds nicht, haben die X2 previews schon gezeigt, wo jede gpu bereits 1gb ram zur Verfügung hatte. 4800er Serie braucht nur alle heilige Zeiten mehr als 512mb pro gpu- die sind nicht so limitiert wie Nvidia/gehen besser mit dem Speicher um.

Nvidia wird immer die schnellste single Lösung haben. Also in naher Zukunft meine ich. Bis Intel kommt und alle plättet;-) Meine Meinung. Und nochwas zu Nvidia: Man darf nicht vergessen das hier nix flimmert. Denkt dran.
Hoffentlich plättet Intel alles. Je mehr Bewerber, desto bessere Preise für uns :eek:

Man hat ja gesehen was AMD für einen Preissturz bei Nvidia ausgelöst hat.

Ich hoffe ja, daß BFG auch für Europäer 120$ pro 280er zurückzahlt. Registriert (zwar 2 Tage zu spät, aber was solls) habe ich meine beiden Karten jetzt mal. Proof of Purchase habe ich auch schon bestätigt bekommen, liegt auch im Zeitrahmen :up:

Gast
2008-07-19, 05:40:44
Rescue Very High DX10, AA/AF: http://www.ixbt.com/video/itogi-video/0608/itogi-video-cr3-wxp-pcie-aaa.html

HD4870 ist ja bei Crysis schneller als GTX280!!!!

Gast
2008-07-19, 07:47:06
Die erste 4870 ist unter 200 Euro: http://geizhals.at/deutschland/a346304.html

tombman
2008-07-19, 08:18:12
HD4870 ist ja bei Crysis schneller als GTX280!!!!

Sogar die HD4850 ist schneller als GTX280... :rolleyes:
Und ne 8800Ultra gerade mal 1.8fps langsamer als ne GTX280 :rolleyes:²

Das kann nur bullshit sein...

reunion
2008-07-19, 09:49:20
G200b wirds sowieso wieder richten, und der kommt schon im August/September ;)


Was soll denn der richten? Vielleicht 10% mehr Takt machen das Kraut auch nicht fett und eine GX2 kannst du vergessen.

tombman
2008-07-19, 11:19:47
... und eine GX2 kannst du vergessen.
Nö, kann ich nicht ;)

Die müssen nur den Takt gleich lassen zur GTX280 und mit der vcore ordentlich runter -> und schon gehts ;)

Schon jetzige 280er rennen ohne oc auch locker mit VIEL weniger Volt.

Dazu noch 55nm chip und schon geht eine GX2 sehr wohl :)

Aber ganz abgesehen davon machen 10% das Kraut sehr wohl fett, da TRIPLE SLI :cool:
3x G200b wird dann schneller als 2x R700 sein- und das selbe kosten.
Und 3x R700 geht wegen der fehlenden bridge + Treiber nicht...

reunion
2008-07-19, 12:04:29
Nö, kann ich nicht ;)

Die müssen nur den Takt gleich lassen zur GTX280 und mit der vcore ordentlich runter -> und schon gehts ;)

Schon jetzige 280er rennen ohne oc auch locker mit VIEL weniger Volt.

Dazu noch 55nm chip und schon geht eine GX2 sehr wohl :)


Vergiss es. Undervolten lässt sich jeder Chip. NV stellt die Spannung nicht zum Spaß so hoch ein. GT200 wird in 55nm noch immer so groß sein wie ein G80. Das Ding wäre viel zu teuer für eine GX2. NVIO, 2x 512-bit SI, der enorme Stromverbrauch - never.


Aber ganz abgesehen davon machen 10% das Kraut sehr wohl fett, da TRIPLE SLI :cool:
3x G200b wird dann schneller als 2x R700 sein- und das selbe kosten.
Und 3x R700 geht wegen der fehlenden bridge + Treiber nicht...

Das dürfte wohl kaum jemanden Interessieren.

tombman
2008-07-19, 12:05:53
Das dürfte wohl kaum jemanden Interessieren.
?? Performance-Krone bei gleichen Preisen interessiert sogar sehr viele...

Wenn CF und SLI zu 100% skaliert, und der 280er 20% schneller als der 4870er ist (danach siehts derzeit einfach aus), dann stehts 320% zu 300% für ATI.
(4x 80% vs 3x 100%).

Mach aus den 100% 110% und die Krone gehört Nvidia (330%) ;)

Und ich schätze 3 chips sollten besser skalieren als 4 ;)

Schlammsau
2008-07-19, 12:26:43
?? Performance-Krone bei gleichen Preisen interessiert sogar sehr viele...

Wenn CF und SLI zu 100% skaliert, und der 280er 20% schneller als der 4870er ist (danach siehts derzeit einfach aus), dann stehts 320% zu 300% für ATI.
(4x 80% vs 3x 100%).

Mach aus den 100% 110% und die Krone gehört Nvidia (330%) ;)

Und ich schätze 3 chips sollten besser skalieren als 4 ;)

DU glaubst doch nicht ernsthaft, dass nVidia die GTX280 mit GT200b Chip für rund 250€ oder weinger anbieten kann?
Der Chip ist immer noch grösser als der RV770 bzw. ist das SI immernoch 512Bit, dass ein sehr aufwändiges PCB erfordert.

tombman
2008-07-19, 12:28:03
DU glaubst doch nicht ernsthaft, dass nVidia die GTX280 mit GT200b Chip für rund 250€ oder weinger anbieten kann?
300€ reicht locker ;)

900€ vs 800€ ;)

Und die GTX280 ist schon bei 337€ ;)

Mit G200b wird 300€ locker zu sprengen sein ;)

Schlammsau
2008-07-19, 12:32:48
300€ reicht locker ;)

900€ vs 800€ ;)

Und die GTX280 ist schon bei 337€ ;)

Mit G200b wird 300€ locker zu sprengen sein ;)

:confused:.....für dich reicht es vielleicht, aber für 90% der anderen nicht!
spätestens wenn der GT200b draussen ist wird sich die 4870 der 170€ Marke nähern! Sie kostet jetzt schon unter 200€ (http://geizhals.at/deutschland/a346304.html).
Wie stellst du dir das vor? Das die Leute über 100€ mehr bezahlen für vielleicht 20% mehr Leistung? Stimmt du würdest es tun! ;)
Gibs endlich zu, der GT200(b) ist ein Dinosaurier.

tombman
2008-07-19, 12:36:48
Gibs endlich zu, der GT200(b) ist ein Dinosaurier.
Von mir aus kann er ein Apfelkuchen sein, wenn er mir das liefert was ich haben will ;)

Schlammsau
2008-07-19, 12:41:04
Von mir aus kann er ein Apfelkuchen sein, wenn er mir das liefert was ich haben will ;)

Eigentlich braucht die Wirtschaft mehr Leute wie dich....
Leute die egal zu welchen Preis immer das schnellste/längste haben wollen! ;D
Intelligent ist dein verhalten nicht. :cool:
Nur mal so zur Erinnerung, wie die neue nV Serie von der Allgemeinheit aufgenommen wird:
http://www.3dcenter.org/umfrage/welche-der-neuen-grafikkarten-ist-am-interessantesten
Sieht sehr eindeutig aus!

Unyu
2008-07-19, 12:44:28
Wie stellst du dir das vor? Das die Leute über 100€ mehr bezahlen für vielleicht 20% mehr Leistung?
Warum sollte man für eine 4870, die 25% schneller als eine 4850 ist, 54% Aufpreis zahlen? ;)

tombman
2008-07-19, 12:48:51
Intelligent ist dein verhalten nicht. :cool:
Nur mal so zur Erinnerung, wie die neue nV Serie von der Allgemeinheit aufgenommen wird:
http://www.3dcenter.org/umfrage/welche-der-neuen-grafikkarten-ist-am-interessantesten
Sieht sehr eindeutig aus!
Und wen interessiert was der mainstream macht? "Scheiße schmeckt gut- Milliarden Fliegen können nicht irren!"- oder wie? ;D

Mr. Lolman
2008-07-19, 12:51:28
Warum sollte man für eine 4870, die 25% schneller als eine 4850 ist, 54% Aufpreis zahlen? ;)

Weil sie bis 43% schneller ist und der Aufpreis (ausgehend von der jw. billigsten) nur 46% beträgt.

AnarchX
2008-07-19, 12:52:53
Flames (als Gast) werden hier nicht geduldet und generell bitte ich doch darum den Ton etwas zu mäßigen.
Ausserdem handelt es sich hier doch um den Radeon HD 4870: (P)Review-Thread, sodass Diskussionen über GT200B oder ähnliches doch bitte in den passenden Threads zu führen sind, sofern es keinen starken Bezug zum eigentlichen Thema gibt.

Teil 2: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6669171#post6669171