PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 4870: (P)Review-Thread


Seiten : 1 2 3 [4] 5

Gast
2008-07-04, 09:56:22
Im Grunde wie zu erwarten war, die Karte liegt praktisch gleichauf mit der GTX260.


Gleichauf? Meistens liegt sie hinter der GTX260. Und das bei schlechterer Texturfilterung.

reunion@work
2008-07-04, 10:15:54
Gleichauf? Meistens liegt sie hinter der GTX260. Und das bei schlechterer Texturfilterung.

LOL, mit AA/AF liegt sie in vier von fünf Fällen vor der GTX260. Nur in 2650 x 1600 geht ihr offensichtlich der VRAM aus.

Superheld
2008-07-04, 10:21:26
geil, da wo die 4870er mal langsamer sind wie bei WiC ist bestimmt der VRAM alle.

Aber sonst, ATI is back :cool:

und bei Company of Heroes wahrscheinlich auch.....:cool:

trotzdem hat die GTX260 mehr Ram und paar andere Vorteile , die mir der Preis wert wären;)

Mr. Lolman
2008-07-04, 10:23:28
Geil. Hab mir gerade eine 4870 weglegen lassen. Spätestens morgen mittag ist sie mein :naughty: :biggrin:

Gast
2008-07-04, 10:24:20
LOL, mit AA/AF liegt sie in vier von fünf Fällen vor der GTX260. Nur in 2650 x 1600 geht ihr offensichtlich der VRAM aus.

LOL, dann zeig mal diese Fälle auf.

Odal
2008-07-04, 10:24:53
und bei Company of Heroes wahrscheinlich auch.....:cool:

trotzdem hat die GTX260 mehr Ram und paar andere Vorteile , die mir der Preis wert wären;)

da frag ich mich aber wieso das X-Fire noch so gut skaliert wenn der vram knapp wird


allerdings ist CoH wirklich ein VRam Fresser

Tarkin
2008-07-04, 10:25:05
http://www.tomshardware.co.uk/radeon-hd-4870,review-31046.html

Gast
2008-07-04, 10:26:30
LOL, dann zeig mal diese Fälle auf.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet

up¦²
2008-07-04, 10:56:33
Mit den derzeitigen Problemen von Multi-GPU eh nicht so interessant und nur für wenige User oder Spiele der Rede Wert. Eine reicht auch für die am meisten gebräuchlichen Auflösungen und Spiele.
Einspruch!
Schau doch mal wie z.B. hier durch geringste Investitionen - nämlich 2x4850 - bei 1920x1200 die Post abgeht :wink:
http://www.guru3d.com/article/radeon-hd-4850-and--4870-crossfirex-performance/5

CompuJoe
2008-07-04, 11:06:33
Einspruch!
Schau doch mal wie z.B. hier durch geringste Investitionen - nämlich 2x4850 - bei 1920x1200 die Post abgeht :wink:
http://www.guru3d.com/article/radeon-hd-4850-and--4870-crossfirex-performance/5

Er meint damit das MR Problem.

Gast
2008-07-04, 11:23:41
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet

Das Rating sagt nichts aus, weil es durch einzelne grosse Unterschiede in der Leistung verfälscht wird.

misterh
2008-07-04, 11:37:42
Q6600
4x1GB DDR2-667 4-4-4-12

8800 GT 8800GT SLI 4870

1024x768

3DMark2003

1xAA 1xAF 34.475 51.210 42.542

8xAA 16xAF 14.393 24.118 24.266

1920x1080

CSS

1xAA 1xAF 234 211 251

4xAA 8xAF 223 204 246

8xAA 16xAF 174 197 240

HL2 Episode Two

1xAA 1xAF 139 138 155

4xAA 8xAF 81 139 140

8xAA 16xAF 56 106 110

Trackmania Nation Forever

1xAA 1xAF 46 80 42

4xAA 8xAF 35 65 29

8xAA 16xAF 31 38 27

Crysis Very High DX10

1xAA 1xAF 7,75 9,25 14,14

derguru
2008-07-04, 12:25:22
Das Rating sagt nichts aus, weil es durch einzelne grosse Unterschiede in der Leistung verfälscht wird.


das rating sagt was aus,aber dazu muss man nicht auf die werte der cf und sli schauen sondern nur auf die einzel karten und die sind eigentlich gleichwertig außer dann bei 8aa aber das kennt man schon.das problem beim cf rating ist einfach das die nicht bei stalker,gothic3 und jericho funktioniert deshalb dann die schlechtere skalierung in cf.
dazu muss mann sagen das cf einwandfrei ohne exe. änderung bei stalker geht,das hat cb schon beim letzten test nicht hingekriegt warum auch immer.jericho kriegt man auch die knappe doppelte skalierung mit exe.änderung.
einzig was überhaupt nicht funktioniert ist gothic3.

und wenn man genau hinschaut sieht man das CF sogar ein tick besser skaliert als SLI.

um auf den punkt zu kommen meiner meinung nach sind die karten gleichwertig aaaber die 260gtx hat ein overclock potenzial von bis zu 30% das auch sofort sogut wie 1zu1 in spielen sich überträgt.man kommt ohne jegliche probleme auf 280gtx niveau und das ist der vorteil zurzeit bei der nv karte und der idle verbrauch,wäre hätte gedacht das genau da nv besser wird als amd.

Cpl. Dwayne Hicks
2008-07-04, 13:26:40
Q6600
4x1GB DDR2-667 4-4-4-12

8800 GT 8800GT SLI 4870

1024x768

3DMark2003

1xAA 1xAF 34.475 51.210 42.542

8xAA 16xAF 14.393 24.118 24.266

1920x1080

CSS

1xAA 1xAF 234 211 251

4xAA 8xAF 223 204 246

8xAA 16xAF 174 197 240

HL2 Episode Two

1xAA 1xAF 139 138 155

4xAA 8xAF 81 139 140

8xAA 16xAF 56 106 110

Trackmania Nation Forever

1xAA 1xAF 46 80 42

4xAA 8xAF 35 65 29

8xAA 16xAF 31 38 27

Crysis Very High DX10

1xAA 1xAF 7,75 9,25 14,14

Hammer 8x AA Werte! :eek:

uweskw
2008-07-04, 13:52:35
Wahnsinns Test.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet

in der meiner Meinung nach wichtigsten Auflösung 16x12 mit 8AA
liegt sie VOR der 280 GTX, ist leiser, braucht weniger Strom und kostet nicht mal die Hälfte.
Die 260GTX liegt hier mehr als 20% zurück, ist lauter und braucht mehr Strom.

da sollte sich das Fazit eigentlich ganz anders anhören

vinacis_vivids
2008-07-04, 13:53:52
Das Rating sagt nichts aus, weil es durch einzelne grosse Unterschiede in der Leistung verfälscht wird.

Ist wie bei der Tour de France. Der Mann im Gelben Trikot hat auch nicht jede Etappe gewonnen. ;)

Unyu
2008-07-04, 14:05:00
Die 260GTX liegt hier mehr als 20% zurück, ist lauter und braucht mehr Strom.

Wo?
http://img236.imageshack.us/img236/3512/verbrauchrv7701uu1.jpghttp://img95.imageshack.us/img95/1779/verbrauchrv7702to7.jpg


in der meiner Meinung nach wichtigsten Auflösung 16x12 mit 8AA

Ja und in 2560x1600 4xAA 16xAF ist die GTX 260 schneller bei besserem AF. :rolleyes:

CompuJoe
2008-07-04, 14:23:34
Ja und in 2560x1600 4xAA 16xAF ist die GTX 260 schneller bei besserem AF. :rolleyes:

Und wer verwendet diese Auflösung?

mapel110
2008-07-04, 14:27:44
Und wer verwendet diese Auflösung?
Bestimmt genauso viele, wie 8xAA bei 1600x1200 nutzen. :rolleyes:

2B-Maverick
2008-07-04, 14:28:08
Also ich denke mal, es ist müßig sich darüber zu streiten ob die GTX260 oder die 4870 nun hier oder da ein bissl besser ist.
Fakt ist doch, dass beide fast gleich flott sind, aber die GTX eben mal locker flockig 25% teurer ist (210€ zu 266€ inkl. Versand). Und damit ist NV zu teuer. :rolleyes:

Super Grobi
2008-07-04, 14:29:43
Bestimmt genauso viele, wie 8xAA bei 1600x1200 nutzen. :rolleyes:

Es wird wohl wesentlich mehr User geben, die diese Auflösung an ihren Monitor nutzen können, als diese 2500er.

SG

mapel110
2008-07-04, 14:30:16
Es wird wohl wesentlich mehr User geben, die diese Auflösung an ihren Monitor nutzen können, als diese 2500er.

SG
Und die Kombination mit 8xAA? Eher weniger.

CompuJoe
2008-07-04, 14:31:22
Bestimmt genauso viele, wie 8xAA bei 1600x1200 nutzen. :rolleyes:

Bin gerade froh das bei mir HDRO bei 1920x1200 @16xAF und 6xAA so knapp an der Spielbarkeitsgrenze rennt.
Aber sobalt ich da AAA oder 8x einstelle unspielbar.
Deswegen kommt bei mir jetzt auch eine 4870 rein, warte aber noch auf die 1GB Version.

Sorkalm
2008-07-04, 14:34:33
Und die Kombination mit 8xAA? Eher weniger.

Wird denke ich eher genutzt, wenn noch Kapazitäten frei sind. Werden schon mehr Leute 1600x1200 (oder 1680x1050) mit 8x AA / 16x AF nutzen (weil native Auflösung + einfache Werte) als dieser 2500er, stimmt schon...

ShadowXX
2008-07-04, 14:36:00
Und die Kombination mit 8xAA? Eher weniger.
Doch natürlich....ist ist ja auch weiterhin alles Spielbar bei 8xMSAA.

Und warum sollte ich dann 8xMSAA nicht einschalten?

Gast
2008-07-04, 14:36:48
Deswegen kommt bei mir jetzt auch eine 4870 rein, warte aber noch auf die 1GB Version.
Vollständiges Feature-Set, brachiale Shaderpower und sicher noch Reserven für Treiberoptimierungen und das ganze dann garniert mit "zukunftssicheren" 1GB VRAM -> klingt gut :)

Allerdings bin ich auf Reviews gespannt, mich würde ohnehin mal ein Vergleich der Karten mit GDDR3 und GDDR5 bei gleichemGPU + RAM-Takt interessieren, um zu sehen wieviel durch Latenzen augefressen wird und das selbe dann natürlich nochmal zwischen der herkömmlichen Version und einer mit 1GB.

mapel110
2008-07-04, 14:44:10
Doch natürlich....ist ist ja auch weiterhin alles Spielbar bei 8xMSAA.

Und warum sollte ich dann 8xMSAA nicht einschalten?
Weil man eher AI abschalten sollte und man damit mehr Qualitätsgewinn erzielen würde als beim Wechsel von 4x auf 8xAA?!

SOL
2008-07-04, 14:46:42
Und die Kombination mit 8xAA? Eher weniger.

Also wenn die Benchmarks jenseits der 40 oder 50 FPS liegen, dann schalte ich das auf jeden Fall ein- wieso kauf ich mir sonst eine neue Hightech Karte? Damit ich ohne AA unnötige 100 FPS habe?

MfG!

Gast
2008-07-04, 14:47:10
Ja und in 2560x1600 4xAA 16xAF ist die GTX 260 schneller bei besserem AF. :rolleyes:

Die 1GB Version wird dieses Problem beheben.

pest
2008-07-04, 14:48:26
Weil man eher AI abschalten sollte und man damit mehr Qualitätsgewinn erzielen würde als beim Wechsel von 4x auf 8xAA?!

AI off bringt nix

Undertaker
2008-07-04, 15:01:59
Doch natürlich....ist ist ja auch weiterhin alles Spielbar bei 8xMSAA.

Und warum sollte ich dann 8xMSAA nicht einschalten?

Weil die Unterschiede zu 4xaa imho winzig klein sind, wirklich praktischen Nutzen hat der Modus nicht - wobei man ihn als RV770 Nutzer natürlich anstatt 4xaa Nutzen kann, so klein wie der Einbruch ist...

Marodeur
2008-07-04, 15:14:41
http://img236.imageshack.us/img236/3512/verbrauchrv7701uu1.jpg

Wird nun eigentlich noch was an der Idle-Leistungsaufnahme gedreht? Denn in der Höhe ist sie einfach katastrophal im direkten Vergleich. Über 40 Watt mehr für nix... :/

Gast
2008-07-04, 15:19:29
Ja, ab Catalyst 8.7 oder 8.8.

Gast
2008-07-04, 15:22:44
Ja, ab Catalyst 8.7 oder 8.8.

LOL, das hat nVidia bei den 88ern auch immer versprochen - passiert ist NICHTS. Genauso wird bei den 48xx auch nix passieren, die Leckströme bei dem Prozess sind einfach so hoch, es wird keine Wunderstromspartreiber geben!

Blacksoul
2008-07-04, 15:28:02
LOL, das hat nVidia bei den 88ern auch immer versprochen - passiert ist NICHTS. Genauso wird bei den 48xx auch nix passieren, die Leckströme bei dem Prozess sind einfach so hoch, es wird keine Wunderstromspartreiber geben!

Nvidia hat gar nichts versprochen.


t.b.d

Unyu
2008-07-04, 15:31:07
Die 1GB Version wird dieses Problem beheben.
Aber nur erst genanntes Problem.

misterh
2008-07-04, 15:32:36
Vollständiges Feature-Set, brachiale Shaderpower und sicher noch Reserven für Treiberoptimierungen und das ganze dann garniert mit "zukunftssicheren" 1GB VRAM -> klingt gut :)

Allerdings bin ich auf Reviews gespannt, mich würde ohnehin mal ein Vergleich der Karten mit GDDR3 und GDDR5 bei gleichemGPU + RAM-Takt interessieren, um zu sehen wieviel durch Latenzen augefressen wird und das selbe dann natürlich nochmal zwischen der herkömmlichen Version und einer mit 1GB.

GDDR3 hat grad die hälfte von GDDR5 an bandbreite wenn es um gleiche RAM Takt geht.

Marodeur
2008-07-04, 15:35:47
Hab mir mal nochmal die OC-Ergebnisse von CB angesehen. Kann es sein das der 4870 höhere RAM-Takte völlig am Allerwertesten vorbei gehen? Die Mehrleistung ist etwa auf dem Niveau der Chiptakterhöhung.

Gast
2008-07-04, 15:36:20
LOL, das hat nVidia bei den 88ern auch immer versprochen - passiert ist NICHTS. Genauso wird bei den 48xx auch nix passieren, die Leckströme bei dem Prozess sind einfach so hoch, es wird keine Wunderstromspartreiber geben!


zum 100000000000x, GLOCK GATING geht nocht nicht Mensch ey -_-

Gast
2008-07-04, 15:36:52
Hab mir mal nochmal die OC-Ergebnisse von CB angesehen. Kann es sein das der 4870 höhere RAM-Takte völlig am Allerwertesten vorbei gehen?

ganz im gegenteil ;)

Gast
2008-07-04, 15:37:21
Ich glaub kein Wort. Das Ding wird ned sparsamer.

Gast
2008-07-04, 15:43:36
Ich glaub kein Wort. Das Ding wird ned sparsamer.

Doch wird es. Mit dem Catalyst 8.7 beta liegt die Leistungsaufnahme im Idle bei 11W.

Marodeur
2008-07-04, 15:45:46
ganz im gegenteil ;)

Ja? Hm... Na gut, so lang bei der GPU kein großer Spielraum beim Takt ist wird man das eh kaum näher betrachten können.

Unyu
2008-07-04, 15:46:29
Doch wird es. Mit dem Catalyst 8.7 beta liegt die Leistungsaufnahme im Idle bei 11W.
Wer hat das gemessen?
zocker? :rolleyes:

CompuJoe
2008-07-04, 15:52:39
LOL, das hat nVidia bei den 88ern auch immer versprochen - passiert ist NICHTS. Genauso wird bei den 48xx auch nix passieren, die Leckströme bei dem Prozess sind einfach so hoch, es wird keine Wunderstromspartreiber geben!

Lustig, ist der selbe Prozess wie beim 3870!!
Und der war sparsam

vinacis_vivids
2008-07-04, 15:54:05
Wer hat das gemessen?
zocker? :rolleyes:
Nicht nur ein zocker, sondern viele viele zocker ;)

Gast
2008-07-04, 15:57:58
LOL, das hat nVidia bei den 88ern auch immer versprochen - passiert ist NICHTS. Genauso wird bei den 48xx auch nix passieren, die Leckströme bei dem Prozess sind einfach so hoch, es wird keine Wunderstromspartreiber geben!

Naja, das kann man schon etwas differenzierter sehen.

Der Prozess ist ja der gleiche wie bei den 38xx. Von daher sollte der Stromverbrauch recht gut abschätzbar sein.
+ mehr Transistoren
- sparsamerer RAM
+/- Spannung
+/- Sparmechanismen (abschalten, runtertakten)

Daran das die 48xx an sich mehr verbrauchen als die 38xx lässt sich ja nichts ändern, da eben der selbe Prozess und mehr Transistoren.

Andererseits hat man den Takt gesenkt und konnte bzw kann damit die Spannung senken.

Wichtigster Punkt für die Leistungsaufnahme dürfte aber das abschalten/heruntertakten von nicht genutzten Bereichen sein.

Kriton
2008-07-04, 15:58:24
Das ist mir auch neu, dass der neue Beta Strom sparen soll.
Gibt es dafür Quellen - momentan macht mir das vor dem kauf einer 4870 nämlich noch Sorgen?

Unyu
2008-07-04, 16:01:07
Nicht nur ein zocker, sondern viele viele zocker ;)
Es gibt mehrere von diesen "zocker" im HWLuxx? :eek:

CompuJoe
2008-07-04, 16:15:05
Es gibt mehrere von diesen "zocker" im HWLuxx? :eek:
Ich habe auch eine Zuhause, und wenn du mal frustriert bist weil was nicht funzt haste was zum Boxen.

xD

Edit:
Habe nen Boxsack neben meinen Schreibtisch hängen auf dem "zocker" steht, seit dem ist auch mein verschleiß an Tastaturen drastisch zurückgegangen ^^

Fetza
2008-07-04, 16:41:50
Er meint damit das MR Problem.

Bei dem preis alles nebensächlich, zumal die treiber ja massiv für cf/x2 kombis verbessert werden sollen.

Gast
2008-07-04, 17:11:47
Zocker würd ich mal pauschal als das rote Spiegelbild des mehr als grünen Unyu´s sehen ;)
Null objektivität.....immer am stänkern und schlecht machen.....schiebt sich jedes Ergebnis so zurecht wie es ihm passt :)

reev
2008-07-04, 17:16:54
Also bis auf den Stromverbauch im Idle und die Temperaturen eine feine Karte... also werde mich mit dem Kauf wohl noch zurückhalten, bis die HIS IceQ 4870 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8139) sowie (was Handfesteres über) neue Catalyst mit funzendem Clock Gating raus sind -- auf die paar Tage soll es mir dann auch nicht mehr ankommen.

Eine HIS IceQ habe ich deshalb ins Auge gefasst, da Kühllösungen wie z.B. der Zalman VF-1000, wie man u.a. hier (http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index12.php) lesen kann, wohl doch nicht das Gelbe vom (Spiegel)Ei sind - nicht zuletzt der Spannungswandler wird's einem danken, denke ich. :smile:

Übrigens auch ein interessanter Test, was

Layout (http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index5.php)
Spannungen und Taktraten (http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index9.php)
Lautstärke (http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index13.php) und
Leistungsaufnahme (http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index16.php)

(mit Catalyst 8.6 Pressetreiber v4) angeht.

Unyu
2008-07-04, 17:48:44
Ich habe auch eine Zuhause, und wenn du mal frustriert bist weil was nicht funzt haste was zum Boxen.

Heißt du "zocker"? ;)

Bisher hat "zocker" die 11W verbreitet. Kannst mir ja gerne eine halbwegs objektive Messung zeigen, die das bestätigt.

CompuJoe
2008-07-04, 17:55:21
Heißt du "zocker"? ;)

Bisher hat "zocker" die 11W verbreitet. Kannst mir ja gerne eine halbwegs objektive Messung zeigen, die das bestätigt.

Bitte auch den Rest lesen.

Naja deswegen warte ich ja auch mit meinen Kauf, obwohl ich eigentlich nicht so sehr auf den verbrauch achte, aber will nicht noch ne Heizung im Zimmer haben, zumal es mal 2 werden sollen.

Sorkalm
2008-07-04, 18:56:53
Übrigens auch ein interessanter Test, was

Layout (http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index5.php) angeht.

Das mit dem Layout ist ja interessant: Da verbaut man höchste Qualitätsware bzgl. dem Aushalten diverser Spannungen u. ä. und dann passiert momentan gar nichts im Idle!?

Lolman
2008-07-04, 19:49:01
Welcher ist denn aktuell der beste Treiber für XP32 HD4870 und Crysis?

reev
2008-07-04, 20:22:31
Das mit dem Layout ist ja interessant: Da verbaut man höchste Qualitätsware bzgl. dem Aushalten diverser Spannungen u. ä. und dann passiert momentan gar nichts im Idle!?
Ja, das passt eben nicht zusammen. Was die genaue Ursache für den relativ hohen Verbrauch angeht, kann man letztlich zur Zeit nur mutmaßen - solange AMD sich bedeckt hält bzw. keinen Treiber rausbringt, der hier für entsprechende Verbesserungen sorgt. Die Variante mit BIOS-Fix halte ich nach wie vor für unwahrscheinlich. Und entsprechende Versuche haben meines Wissens nach ja auch keine spürbaren Verbesserungen gebracht. Also geben wir AMD einfach noch ein bisschen Zeit. Mit den kommenden Catalyst-Treibern sind wir sicher schon ein bisschen klü (http://de.wikipedia.org/wiki/Klugheit)ger (http://de.wikipedia.org/wiki/Clou) - coo (http://de.wikipedia.org/wiki/Cool)ler (http://de.wikipedia.org/wiki/Kühler) - gree (http://de.wikipedia.org/wiki/Green_IT)ner (http://de.wikipedia.org/wiki/Nvidia). :biggrin:

Gast
2008-07-04, 20:25:52
Welcher ist denn aktuell der beste Treiber für XP32 HD4870 und Crysis?

Der hier http://ht4u.net/download-details/132/780/ zu mindesten kann ich das für Vista sagen ;) da rennt der gut

uweskw
2008-07-04, 23:06:26
Wir haben ja nun schon einige 4870 im Forum. Auch das eine oder andere Crossfire-Gespann.
Wie sieht es eigentlich mit den Microrucklern aus?
gibt's das schon was Neues/Usererfahrungen?

Mr. Lolman
2008-07-04, 23:14:38
Kurzer Zwischenstand OC: 790/1100 (=CCC-Maximum) macht meine Sapphire anscheinend problemlos (@stock) mit...

Blacksoul
2008-07-04, 23:23:46
Kurzer Zwischenstand OC: 790/1100 (=CCC-Maximum) macht meine Sapphire anscheinend problemlos (@stock) mit...

Ich kenne keine 4870, die das nicht schafft.
Unwinders 4850-Sample ist auf dem weg, also wird eine neue Version des Riva Tuner nicht mehr allzu lange auf sich warten lassen.


t.b.d

Super Grobi
2008-07-04, 23:31:45
Ich kenne keine 4870, die das nicht schafft.(...)

Solch Garantien haben mich schon öfter in den Kot greifen lassen!

Den Regler auf XY zu ziehen bedeutet ja nicht, daß es 100% fehlerfrei läuft, oder gar der Ati-Tool Würfel +20min. packt.

WENN die Karte WIRKLICH @ max. OD läuft und das auch fehlerfrei, dann ist das super!

Meine Erfahrungen hier im Forum sind leider, das oft der Regler auf max. gezogen wird und wenn der Takt übernommen wird, dieseses gleich als OCing Ergebniss hier gehypt wird.

SG

Undertaker
2008-07-04, 23:38:33
Ich kenne keine 4870, die das nicht schafft

Gerade mit einem Kumpel gechattet, der ab 770MHz bei seiner 4870 in Furmark und Bioshock freezes hat - 760MHz ist der maximal stabile Takt. Speicher geht immerhin bis 1050MHz.

Blacksoul
2008-07-04, 23:41:50
Gerade mit einem Kumpel gechattet, der ab 770MHz bei seiner 4870 in Furmark und Bioshock freezes hat - 760MHz ist der maximal stabile Takt. Speicher geht immerhin bis 1050MHz.

Na immerhin. Jetzt kenn ich eine, die den Takt nicht schafft. :)

Gut, die Aussage war wohl wirklich etwas zu allgemein gehalten.
Die 4870-User, mit denen ich mich bisher unterhalten habe, hatten keine Probleme die 790/1100 zu erreichen.

Besser? ;)


t.b.d

Ronny145
2008-07-05, 00:21:49
Gerade mit einem Kumpel gechattet, der ab 770MHz bei seiner 4870 in Furmark und Bioshock freezes hat - 760MHz ist der maximal stabile Takt. Speicher geht immerhin bis 1050MHz.


Also wenn es bei 770 Mhz einfriert, bezweifle ich, dass 760 Mhz 100% stabil sind.

J0ph33
2008-07-05, 00:26:57
aber 750 ist doch schon standard ;)

Mr. Lolman
2008-07-05, 07:22:17
WENN die Karte WIRKLICH @ max. OD läuft und das auch fehlerfrei, dann ist das super!

Tut sie. Hab gestern 2h Crysis mit Mster Config und 4xAAA gespielt und hatte keine Probleme. Furmark rennt auch wunderbar.

Gast
2008-07-05, 09:05:15
mster config und 4xAA soso,wie hast du das denn eingestellt?

Odal
2008-07-05, 10:01:58
Gerade mit einem Kumpel gechattet, der ab 770MHz bei seiner 4870 in Furmark und Bioshock freezes hat - 760MHz ist der maximal stabile Takt. Speicher geht immerhin bis 1050MHz.

das ist in unseren breitengraden unmöglich solang die karte keinen künstlichen lock hat (was die 4870iger ja nicht haben sollten)

entweder ist der mensch absolut unfähig, oder das ist genau so eine story von dir das WinXP auf einem Pentium90mhz 32MB ram besser läuft als Win95 :rolleyes:

es ist unter garantie nicht nur eine reserve von 1% eingeplant :rolleyes:
dann könnte man sich vor RMA anfragen nicht mehr retten

und das potentielle taktpotential erkennt man ja schon an der ankündigung von 4870 ultra karten die 950-1000Mhz unter wasser mitmachen

AnarchX
2008-07-05, 10:03:39
Stromspar-BIOS für die HD4870 bei Chiphell?
http://img56.imageshack.us/img56/2815/487bios1vh9.jpg
http://img361.imageshack.us/img361/9250/487bios2ol0.jpg
http://translate.google.ch/translate?u=http%3A%2F%2Fbbs.chiphell.com%2Fviewthread.php%3Ftid%3D26429%26extra %3Dpage%253D1&sl=zh-CN&tl=de&hl=de&ie=UTF-8

Niedrigere Temperaturen bei niedriger Lüftergeschwindigkeit und gleicher Taktrate, kann ja doch nur eins bedeuten.

btw.

Test der HD4870 bei Xbit-Labs:
http://xbitlabs.com/articles/video/display/ati-radeon-hd4800-games.html

Leider ohne Verbrauchsmessung...

Adam D.
2008-07-05, 10:05:04
Im Idle zumindest, unter Load seh ich knapp 1k RPM mehr.

Odal
2008-07-05, 10:22:31
gabs nicht biose wo die dinger auf 160mhz runtertakten? hätten die in ihr bios auch reinbasteln können, damit hätte man die spannung noch weiter runterbekommen...

aber so siehts schonmal eindeutig so aus das die spannung per bios herabsetzbar ist

Gast
2008-07-05, 10:30:26
unter Wasser bekommt man ja auch dazu geschenkt.......

Undertaker
2008-07-05, 10:40:14
das ist in unseren breitengraden unmöglich solang die karte keinen künstlichen lock hat (was die 4870iger ja nicht haben sollten)


Selbst mit künstlich hochgeregeltem Lüfter, kein Benchmarkdurchlauf im Furmark möglich... Ich bitte ihn mal um ein Video, schlimm das man hier alles nur noch mit 10 Quellenverweisen posten darf :rolleyes:

pest
2008-07-05, 11:04:47
Selbst mit künstlich hochgeregeltem Lüfter, kein Benchmarkdurchlauf im Furmark möglich... Ich bitte ihn mal um ein Video, schlimm das man hier alles nur noch mit 10 Quellenverweisen posten darf :rolleyes:

Freezes dürfte es eigentlich nicht geben, zumindest zu Windows sollte man zurückkommen. Ist mir auch noch nie passiert, selbst wenn der ganze Desktop dann Pixelbrei war.

AnarchX
2008-07-05, 11:36:05
Netzteil dürfte bei der 4870 kein unkritischer Faktor sein oder habt ihr diesen schon ausgeschlossen?

Superheld
2008-07-05, 11:51:33
ATI Radeon HD 4850 and 4870: Gaming Performance Review

http://xbitlabs.com/articles/video/display/ati-radeon-hd4800-games.html


..leider keine GTX280/260 dabei

Undertaker
2008-07-05, 12:10:00
Freezes dürfte es eigentlich nicht geben, zumindest zu Windows sollte man zurückkommen. Ist mir auch noch nie passiert, selbst wenn der ganze Desktop dann Pixelbrei war.

So sieht das ganze aus:

http://rapidshare.de/files/39917586/MOV02049.MPG.html

Bei 760MHz läuft er noch durch... Netzteil sollte nicht das Problem sein, ist ein >500W BeQuiet und die sonstigen Komponenten sind nicht der Rede wert (5600+ @ def, 2 oder 3 HDDs), aber das kann man nochmal gegentesten...

Mr. Lolman
2008-07-05, 12:21:40
mster config und 4xAA soso,wie hast du das denn eingestellt?

1280x720 ;)


Ist aber schwer zu sagen ob AAA MS oder SS war. Ich tipp auf SS. Muss mal andere Spiele testen, wies da aussieht...

horn 12
2008-07-05, 13:10:06
Somit sollte es ja gar mit dem offiz. CAT 8.7 nun in bereits 10-14 Tagen klappen mit dem Powerplay+ Stromsparmechanismus,- so wie es derzeit aussieht, oder wird dies erst der CAT 8.8 mit sich bringen?

pest
2008-07-05, 13:27:00
So sieht das ganze aus:

http://rapidshare.de/files/39917586/MOV02049.MPG.html

Bei 760MHz läuft er noch durch... Netzteil sollte nicht das Problem sein, ist ein >500W BeQuiet und die sonstigen Komponenten sind nicht der Rede wert (5600+ @ def, 2 oder 3 HDDs), aber das kann man nochmal gegentesten...

also ich hab's mir angeschaut und das ist entweder ein Temp (90° ;))
oder ein NT-Problem, ein Freeze sieht anders aus.

Blacksoul
2008-07-05, 13:46:33
also ich hab's mir angeschaut und das ist entweder ein Temp (90° ;))
oder ein NT-Problem, ein Freeze sieht anders aus.

Temperaturproblem würde ich ausschließen.
Ich habe meine Karte mit dem Furmark auf schon auf 101°C bekommen und sie lief trotzdem stabil weiter, ohne Probleme zu machen.

Die Karte muss ja nicht nur in unseren Regionen laufen, wo wir es noch relativ kühl haben.


t.b.d

Gast
2008-07-05, 13:50:30
Temperaturproblem würde ich ausschließen.
Ich habe meine Karte mit dem Furmark auf schon auf 101°C bekommen und sie lief trotzdem stabil weiter, ohne Probleme zu machen.

Die Karte muss ja nicht nur in unseren Regionen laufen, wo wir es noch relativ kühl haben.


t.b.d
Im Sommer? nö, da isses auch hier nicht so kühl:)
Du musst aber bedenken das Grakahersteller auch sicher keine Grakas herstellen müssen die in Afrikaregionen im hochsommer laufen MUSS, dafür gibt niemand ne Garantie.

Also, das Argument lass ich nciht in allen Zusammenhängen einfach so dastehen.

Blacksoul
2008-07-05, 13:52:38
Im Sommer? nö, da isses auch hier nicht so kühl:)
Du musst aber bedenken das Grakahersteller auch sicher keine Grakas herstellen müssen die in Afrikaregionen im hochsommer laufen MUSS, dafür gibt niemand ne Garantie.

Also, das Argument lass ich nciht in allen Zusammenhängen einfach so dastehen.

Das wiederum mag ich auch nicht ganz so hinnehmen. ;)
Je nach Region lacht man in Italien oder Spanien über unsere 30 - 35°C. Dafür muss man ja nicht direkt nach Afrika. :)

Dennoch stimmt es natürlich, dass keiner den Betrieb bei einer bestimmten Umgebungstemperatur garantiert.
Aber der Stresstest der Hersteller sieht doch schon etwas "härter" aus, als nur einmal den Furmark im Labor laufen zu lassen.


t.b.d

pest
2008-07-05, 13:58:54
Temperaturproblem würde ich ausschließen.
Ich habe meine Karte mit dem Furmark auf schon auf 101°C bekommen und sie lief trotzdem stabil weiter, ohne Probleme zu machen.


bei 750MHz macht sie das sicher auch. Beim Übertakten muss sie das nicht.

betasilie
2008-07-05, 14:35:16
bei 750MHz macht sie das sicher auch. Beim Übertakten muss sie das nicht.
Übertaktet muss sie ja auch nicht stabil laufen - egal bei welche Temperatur. Wobei bei Blacksoul und 101°C die Karte wahrscheinlich vom Takt am Anschlag war im CCC.



Meine macht übrigens mit max. OC im Furmark 89°C nach 5 Minuten Test. UNd es war sehr warm im Zimmer. ca. 30°.

Szudri
2008-07-05, 15:35:14
Meine MSI R4870-T2D512-OC hat bessere IDLE Temps als ich hier bisher gesehn habe.
http://gpuz.techpowerup.com/08/07/05/53w.png

Last konnte ich bisher nicht so richtig testen :P
Das CCC zeigt diese übrigens als Build by Ati an und das BIOS ist vom 25.06.08... recht neu.

misterh
2008-07-05, 16:08:56
Meine MSI R4870-T2D512-OC hat bessere IDLE Temps als ich hier bisher gesehn habe.
http://gpuz.techpowerup.com/08/07/05/53w.png

Last konnte ich bisher nicht so richtig testen :P
Das CCC zeigt diese übrigens als Build by Ati an und das BIOS ist vom 25.06.08... recht neu.

ja weil in bios schon 26/27% Lüfter festgelegt ist von MSI für OC Version

daher auch kleinere Temps

alle andere haben 23% eingestellt.

4 Vitamins
2008-07-05, 17:42:11
entweder ist der mensch absolut unfähig, oder das ist genau so eine story von dir das WinXP auf einem Pentium90mhz 32MB ram besser läuft als Win95 :rolleyes:


es gibt ja noch eine möglichkeit, die sollte man nicht aus dem augen verlieren.

ps. laut einem kollegen mit dem ich eben gechattet habe läst sich seine gtx280 nichtmal um 1Hz übertakten, gibt direkt freeze gefolgt vom bluescreen.


gruss

tombman
2008-07-05, 17:52:08
ps. laut einem kollegen mit dem ich eben gechattet habe läst sich seine gtx280 nichtmal um 1Hz übertakten, gibt direkt freeze gefolgt vom bluescreen.

Software Problem...kann unmöglich an der HW liegen..

Zitrone23
2008-07-05, 18:12:38
Mal eine Frage zu meiner MSI R4870-T2D512-OC.Habe mir grade mal die AMD Ping Pong Demo angeschaut.Jeder Ball hat bei mir einen kleinen weissen Pixel sieht für mich wie ein Fehler aus. Ist die Karte defekt? Oder liegts am Treiber.Bin von NVidia nach Ati gewechselt nur mit Drivecleaner.
Läuft die Demo bei Euch sauber ?
cu

Frank1974
2008-07-05, 18:13:09
Software Problem...kann unmöglich an der HW liegen..


Ich glaube da ist gar kein Problem, seinen Kollegen gibt es gar nicht, war nur eine Konter auf Undertaker, aber vieleicht täusche ich mich auch ;).

mfg
Frank

Tarkin
2008-07-05, 18:15:24
Mal eine Frage zu meiner MSI R4870-T2D512-OC.Habe mir grade mal die AMD Ping Pong Demo angeschaut.Jeder Ball hat bei mir einen kleinen weissen Pixel sieht für mich wie ein Fehler aus. Ist die Karte defekt? Oder liegts am Treiber.Bin von NVidia nach Ati gewechselt nur mit Drivecleaner.
Läuft die Demo bei Euch sauber ?
cu

Liegt wohl am Demo... auf meiner 3870er (nicht übertaktet) sehe ich die weißen Punkte auch

Zitrone23
2008-07-05, 18:17:20
Man Danke Tarkin hatte echt schon üble Laune wegen umtausch und so.

4 Vitamins
2008-07-05, 19:17:16
Ich glaube da ist gar kein Problem, seinen Kollegen gibt es gar nicht, war nur eine Konter auf Undertaker, aber vieleicht täusche ich mich auch ;).

mfg
Frank

so so ;)

Tarkin
2008-07-06, 00:19:34
Man Danke Tarkin hatte echt schon üble Laune wegen umtausch und so.

Kein Problem :)

btw... wir sind nicht allein

http://www.rage3d.com/board/showthread.php?t=33927092

Witzigerweise ist mir das sonst noch nirgendwo aufgefallen (bei diversen Games ist nix zu sehen)

deekey777
2008-07-06, 01:55:39
Wenn Google alles richtig übersetzt hat, so ist dieser Test sehr interessant: http://www.hardware.fr/articles/726-1/radeon-hd-4800-gddr5-utile.html
Man hat beide HD4800er gegeneinander getestet und zwar mit gleichen GPU-Takt (725 MHz), aber mit unverändertem Speichertakt.
Noch interessanter wäre, wenn die Auflösung etwas ziviler wäre.

HarryHirsch
2008-07-06, 02:40:16
kann mir das jemand erklären?

Graka 1:
http://www.abload.de/img/gpu1cm6.jpg (http://www.abload.de/image.php?img=gpu1cm6.jpg)

Graka 2:
http://www.abload.de/img/gpu2hvk.jpg (http://www.abload.de/image.php?img=gpu2hvk.jpg)

man achte auf den Memory Clock:

Graka 1:
min 810

Graka 2:
min 900

:confused:

Blacksoul
2008-07-06, 02:52:08
kann mir das jemand erklären?

Graka 1:
http://www.abload.de/img/gpu1cm6.jpg (http://www.abload.de/image.php?img=gpu1cm6.jpg)

Graka 2:
http://www.abload.de/img/gpu2hvk.jpg (http://www.abload.de/image.php?img=gpu2hvk.jpg)

man achte auf den Memory Clock:

Graka 1:
min 810

Graka 2:
min 900

:confused:

Womöglich unterschiedliche BIOS-Versionen?
Schau doch mal im CCC unter Graphics Hardware im Information Center nach.

Ich habe bei mir als minimale Taktrate 810 MHz. Mein BIOS ist vom 09.06.08.


t.b.d

HarryHirsch
2008-07-06, 03:01:42
da kann ich mir nur graka 1 anzeigen lassen (cf an oder aus).
und da ist bios date 09.06.08 (bei der min 810)

dr_mordio
2008-07-06, 15:34:51
Liegt wohl am Demo... auf meiner 3870er (nicht übertaktet) sehe ich die weißen Punkte auch

also was komisch ist, ich habe diese punkte auch.
aber am relasetag der demo hatte ich mit meiner damaligen HD3870 diese punkte nicht.
aber damals wars auch noch der cat 8.3 oder cat 8.4. liegt also evtl am 8.6hotfix?

MfG
Alex

centurio81
2008-07-06, 15:36:43
Hab die Punkte auch.. 8.6 Hotfix.. Die anderen Catalyst kenn ich nich, weil ich von der Geforce komme.. ^^

Gast
2008-07-06, 16:27:36
Die Punkte erinnern mich ziemlich genau an dieselben die ich damals bei meiner 6800LE hatte, wenn ich einen defekten Pixelshader freigeschaltet habe

Zitrone23
2008-07-06, 19:41:27
also was komisch ist, ich habe diese punkte auch.
aber am relasetag der demo hatte ich mit meiner damaligen HD3870 diese punkte nicht.
aber damals wars auch noch der cat 8.3 oder cat 8.4. liegt also evtl am 8.6hotfix?

MfG
Alex

habe mir mal die Arbeit gemacht und die älteren Treiber mal installiert.
Leider immer dasselbe......
Hoffentlich liegts nicht doch an der Hardware...

cu

dr_mordio
2008-07-06, 21:46:23
habe mir mal die Arbeit gemacht und die älteren Treiber mal installiert.
Leider immer dasselbe......
Hoffentlich liegts nicht doch an der Hardware...

ich denk mal nicht das es an der hardware liegt.
denn selbst nach einem kaltstart des rechners sieht es bei mir so aus. ist also auch kein hitzeproblem.
aber beim stundenlangen zocken hab ich es nicht.
wenn die hardware defekt wäre, dann würde man das bei jedem spiel merken.

ich weiß auch nicht ob ich mit cat 8.3 richtig lag.
die demo kam ja zeitgleich mit dem SP1 für vista raus.
zu welcher zeit war denn das nochmal, und welcher cat war es zu der zeit?
bei mir kanns sogar noch ein bis zwei nummern niedriger sein, da ich mir nicht immer gleich den neusten cat draufziehe.
solange meine games alle gut laufen und in den relasenotes nichts von einer drastischen verbesserung von einem spiel welches ich spiele steht, solange update ich den cat nicht immer regelmäßig.

MfG
Alex

deekey777
2008-07-07, 22:24:11
iXBT-Test: ATI RADEON HD 4870 512MB PCI-E (http://www.ixbt.com/video3/rv770-2-part1.shtml)

Synthetik: http://www.ixbt.com/video3/rv770-2-part2.shtml#p5
Das ist einfach nur grausam. :biggrin:

Die Performance-Balken: http://www.ixbt.com/video3/rv770-2-part3-d.shtml#p18

http://img169.imageshack.us/img169/4485/excellentpackagegl5.jpg

AnarchX
2008-07-08, 11:55:59
Diamond Multimedia (www.diamondmm.com), a leading manufacturer of PC graphics cards, sound cards and communications products, launched today along with boutique system builder Smoothcreations, and Water cooling mavens, Danger Den the ATI Radeon™ HD 4870 XOC Black Edition graphics card. This card offers exquisite gaming capabilities combined with state of the art efficiency.

The HD 4870 is a smoking gun dual slot card, PCIE 2.0, with 512MB of DDR5 memory and a clock speed of 800 MHz. The memory speed is 1100 MHz and is designed with 800 stream processors. The HD 4870 provides plug-and-play ATI CrossFireX™ upgradeability with up to quad-GPU support. Continuing with ATI's Power Play and 55nm processing technology, this card is the fastest and efficient. "The Diamond Radeon HD 4870 XOC Black Edition was clocked to kick some ass". We didn't just want a fast card out in the market, we wanted the fastest card that could kick the living daylights and bust some performance records, say Mario Gastelum, Director of Product Development & Engineering. "we wanted a card that kicked the competitions teeth into the curb", and that's exactly what our engineers accomplished". "The firmware was custom designed to enable end users to go beyond the normal over clocked speeds and allow them to push their cards for higher performance via the catalyst control center." The GPU's custom firmware has been unlocked to push cards to GPU settings of up to 950 MHz and Memory of up 1200 MHz.[...]
http://www.techpowerup.com/64301/Diamond_Releases_Radeon_HD_4870_XOC_Unlocked_Black_Edition.html
http://img213.imageshack.us/img213/318/diamondur7.jpg
http://www.techpowerup.com/index.php?65100

Nur hat man in den meisten Gehäusen nichts von dem Design...

Gast
2008-07-08, 12:13:02
auf den Plastikabdeckungen können die bunte Aufkleber draufmachen wie sie wollen, find die alle hässlich. Bei nvidia ist es genauso, es gibt keine schönen standartkühler mehr seit 7900gtx.

AnarchX
2008-07-08, 12:14:17
Die schwarze Plastikabdeckung gibt es aber nicht standardmäßig. ;)

Gast
2008-07-08, 12:15:09
Das Auge isst immer mit beim Kauf ;)

Sorkalm
2008-07-08, 12:15:45
Das ist doch nur der normale 4870-Kühler...

Gast
2008-07-08, 12:22:00
in schwarz anstatt rot ..

Gast
2008-07-08, 13:14:54
.. Und leider wieder nur 512MB Vram. Wann schätzt ihr, werden 1GB Versionen im Massenmarkt verfügbar sein?

Tarkin
2008-07-08, 14:57:42
Stromspar-BIOS für die HD4870 bei Chiphell?
http://img56.imageshack.us/img56/2815/487bios1vh9.jpg
http://img361.imageshack.us/img361/9250/487bios2ol0.jpg
http://translate.google.ch/translate?u=http%3A%2F%2Fbbs.chiphell.com%2Fviewthread.php%3Ftid%3D26429%26extra %3Dpage%253D1&sl=zh-CN&tl=de&hl=de&ie=UTF-8

Niedrigere Temperaturen bei niedriger Lüftergeschwindigkeit und gleicher Taktrate, kann ja doch nur eins bedeuten.

btw.

Test der HD4870 bei Xbit-Labs:
http://xbitlabs.com/articles/video/display/ati-radeon-hd4800-games.html

Leider ohne Verbrauchsmessung...

Gibts diese Bios schon irgendwo zum Downloaden? Ich finde nichts auf Chiphell (Techpowerup hat auch noch nix)

Oder gibts irgendwo sonst ein gemoddetes Bios für die 4870er mit ordentlichen Idle Temperaturen? Danke!

heute ist mein 4870er eingetroffen *g*

AnarchX
2008-07-08, 15:38:35
Gibts diese Bios schon irgendwo zum Downloaden? Ich finde nichts auf Chiphell (Techpowerup hat auch noch nix)
http://bbs.chiphell.com/attachment.php?aid=36032
... das wurde jedenfalls in dem Thread verlinkt.
edit:
http://rapidshare.de/files/39946988/chiphell.HD4870.512MB.V1.rom.html

heute ist mein 4870er eingetroffen *g*
Na dann trau dich doch mal. :D

Gast
2008-07-08, 15:39:12
.. Und leider wieder nur 512MB Vram. Wann schätzt ihr, werden 1GB Versionen im Massenmarkt verfügbar sein?

Nicht vor Herbst.

Tarkin
2008-07-08, 15:44:40
http://bbs.chiphell.com/attachment.php?aid=36032
... das wurde jedenfalls in dem Thread verlinkt.
edit:
http://rapidshare.de/files/39946988/chiphell.HD4870.512MB.V1.rom.html

Na dann trau dich doch mal. :D

LOL - danke!

hat das noch keiner hier getestet?!?

AnarchX
2008-07-08, 15:58:36
Jedenfalls scheint es schonmal ein korrektes 4870 mit 128kByte zu sein.

Gast
2008-07-08, 16:01:42
Nicht vor Herbst.

Warum erst so spät? G-DDR5-Ausbeute?

vinacis_vivids
2008-07-08, 16:06:10
Warum erst so spät? G-DDR5-Ausbeute?

Das ist nicht spät.

centurio81
2008-07-08, 16:20:20
.. Und leider wieder nur 512MB Vram. Wann schätzt ihr, werden 1GB Versionen im Massenmarkt verfügbar sein?

Ich denke nicht dass das ein großer Unterschied sein wird..
Erst unter 2560x1600 kann sich ne GTX280 DEUTLICHST absetzen..
Darunter eher geht so. Da kann die 4870 gut mithalten wenn es nicht grade mega Kantenglättung ist..

Tarkin
2008-07-08, 16:27:05
Jedenfalls scheint es schonmal ein korrektes 4870 mit 128kByte zu sein.

okay, habs geflasht... nur es funktionert nicht ganz so wie auf den screenshots ;)

hab zwar geringere temps (so um die 57°) ... aber auch nur weil der Lüfter jetzt permanent mit 45% dreht! - :tongue:

habs mit der aktuellen winflash Version raufgeschrieben... kann es sein, dass es damit nicht richtig klappt?

Super Grobi
2008-07-08, 16:31:46
okay, habs geflasht... nur es funktionert nicht ganz so wie auf den screenshots ;)

hab zwar geringere temps (so um die 57°) ... aber auch nur weil der Lüfter jetzt permanent mit 45% dreht! - :tongue:

habs mit der aktuellen winflash Version raufgeschrieben... kann es sein, dass es damit nicht richtig klappt?

Irgentwo stand auch was davon, das man Overdrive aktivieren muss und auch ein Profil anlegen soll. (Denke für den 2D Takt?).

Ich persönlich halte von solchen gemurkse garnichts! Wenn was schief geht, beißt man sich in den Po. Wenn AMD es tatsächlich nicht packt das PP zu aktivieren, kann man sich mit sowas immer noch beschäftigen.

SG

up¦²
2008-07-08, 21:05:15
Ziemlich interessante Review:
Sapphire Radeon 4870 & VisionTek 4870 CrossFire
http://www.driverheaven.net/reviews.php?reviewid=585&pageid=1

Gast
2008-07-08, 22:17:09
Abundzu ist die 4870 der 260 GTY dann doch mächtig überlegen.

Gast
2008-07-08, 22:43:13
Ich denke nicht dass das ein großer Unterschied sein wird..
Erst unter 2560x1600 kann sich ne GTX280 DEUTLICHST absetzen..
Darunter eher geht so. Da kann die 4870 gut mithalten wenn es nicht grade mega Kantenglättung ist..

Kommt einfach auf das Spiel an. Mir geht es nicht um den Durchschnitt. Ich besipielweise spiele momentan fast ausschließlich Age of Conan. Max. Settings, 1680*1050 8x AA/16xAF ... und da ist der Vram meiner HD3870 aber ganz schnell proppevoll.
Merkt man vor allem beim Kamera schwenken ... muss erstmal nachgeladen werden.

Und deshalb hätte ich gerne neben deutlich mehr Leistung einfach mehr VRam ...

Jake Dunn
2008-07-08, 23:26:52
Kurztest: MSI Radeon HD 4870 OC :wink:

http://www.abload.de/img/unbenannt5kn.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_msi_radeon_hd_4870_oc_overclocked/#abschnitt_einleitung

Gast
2008-07-08, 23:31:54
Eine GTX280 OC kommt auch bald :-)

Schlammsau
2008-07-08, 23:34:23
Eine GTX280 OC kommt auch bald :-)
und doppelt so teuer. ;)

Gast
2008-07-08, 23:36:27
und doppelt so teuer. ;)

Klaro hat ja auch doppelt soviel Speicher :-)

derguru
2008-07-08, 23:38:10
cb kann sich aber manche tests sparen,hehe oc nennen die 30mhz mehr;)

oder besser gesagt eine frechheit was da msi macht,wegen 30mhz mehr sowas oc nennen.

Schlammsau
2008-07-08, 23:38:31
Klaro hat ja auch doppelt soviel Speicher :-)
wozu brauch ich bei einer ATi mehr als 512MB Speicher?
Stimmt...bei nVidia braucht man das ja! :)

cb kann sich aber manche tests sparen,hehe oc nennen die 30mhz mehr;)
30Mhz GPU- und effektiv 400Mhz mehr Speichertakt zum Nulltarif! Was willst du eigentlich?
Die Karte gibts bereits für 212€, zwar noch nicht lieferbar aber bald! http://geizhals.at/deutschland/a349273.html

Gast
2008-07-08, 23:41:07
wozu brauch ich bei einer ATi mehr als 512MB Speicher?
Stimmt...bei nVidia braucht man das ja! :)

Spiel mal Age of Conan etc. ;) zeigt nur das du wieder mal NULL Ahnung hast. Außerdem ist die GTX280 schneller und JA auch diese kann man wunderbar übertakten.

Schlammsau
2008-07-08, 23:42:18
Spiel mal Age of Conan etc. ;) zeigt nur das du wieder mal NULL Ahnung hast. Außerdem ist die GTX280 schneller und JA auch diese kann man wunderbar übertakten.
wie teuer ist eine GTX280??? :rolleyes:

centurio81
2008-07-08, 23:42:45
Ja genau, man sieht ja in diversen benches dass man erst mehr als 512 MB braucht wenn man extreme Modis fährt oder Spiele wie Age of Conan und Crysis unter hohen Auflösungen..
Für den Großteil aller Games reichen 512 Mb immernoch dicke..

Hab selber eine 4870 und nen 24" und bisher hatte ich keine probleme..
Kann mir nicht vorstellen, dass ne 4870 mit 1 Gb VRAM sich deutlich absetzen könnte..
Das wäre in den Benchmarks ja deutlich aufgefallen.

Außerdem bin ich froh dass es sowas wie den VRAM Bug nicht mehr gibt..
Das war mitunter echt nervig..
Unter Armed Assault fiel das immer gerne auf nach ner Weile, das frisst gut Speicher..
Mit meiner neuen ATi kann ich das stundenlang zocken auf 1920x1200 mit maximum Details außer AA und kläuft und läuft und läuft..
Bei der 8800 GTS war nach ner Weile ne Ruckelorgie..

derguru
2008-07-08, 23:45:32
Was willst du eigentlich?
Die Karte gibts bereits für 212€, zwar noch nicht lieferbar aber bald! http://geizhals.at/deutschland/a349273.html

was ich will?lachen wenn man sowas als oc produkt ausgibt und dabei nicht mal eine software dabei ist die die 790 chiptakt überbrückt.10mhz spielraum,einfach lächerlich.

Gast
2008-07-08, 23:46:06
wie teuer ist eine GTX280??? :rolleyes:

Was hat der Preis denn damit zu tun? Hmm? Das schnellste war schon immer etwas teurer.

misterh
2008-07-08, 23:48:13
was ich will?lachen wenn man sowas als oc produkt ausgibt und dabei nicht mal eine software dabei ist die die 790 chiptakt überbrückt.10mhz spielraum,einfach lächerlich.

doch ! AMD GPU Clock Tool

derguru
2008-07-08, 23:50:04
doch ! AMD GPU Clock Tool

das ist klar aber ist nix offizielles.der preis der karte ist ja wunderbar kostet nicht mehr als die normale, nur die bezeichnung ist.... und die 10mhz übertakungschance mit offziellem tool ist lächerlich.
ein bissel mehr als 1% übertaktung ist möglich.
ich glaub ich kenn da wenn,deine art kommt mir bekannt vor;)

Schlammsau
2008-07-09, 00:01:20
das ist klar aber ist nix offizielles.der preis der karte ist ja wunderbar kostet nicht mehr als die normale, nur die bezeichnung ist.... und die 10mhz übertakungschance mit offziellem tool ist lächerlich.
da ist gar nichts lächerlich!

Was hat der Preis denn damit zu tun? Hmm? Das schnellste war schon immer etwas teurer.
100% Mehrpreis für vielleicht 15% Mehrleistung? Setzen 6. ;D
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_msi_radeon_hd_4870_oc_overclocked/3/#abschnitt_benchmarks

Jake Dunn
2008-07-09, 00:01:40
was ich will?lachen wenn man sowas als oc produkt ausgibt und dabei nicht mal eine software dabei ist die die 790 chiptakt überbrückt.10mhz spielraum,einfach lächerlich.

Jo 825/1000 wären erstmal gut + mehr Spielraum beim Overdrive ^^ mal sehn was GeCube und HIS so bringen an OC Versionen.

derguru
2008-07-09, 00:05:22
Jo 825/1000 wären erstmal gut + mehr Spielraum beim Overdrive ^^ mal sehn was GeCube und HIS so bringen an OC Versionen.

eben das wäre ja wunderbar aber von 780 auf 790 ist ja echt volksverarsche;)

Sorkalm
2008-07-09, 00:06:36
Warum denn das CCC nehmen? Das AMD GPU Clock Tool unterstützt nicht erst seit heute die RV770-Karten und kann theoretisch die Taktrate unbegrenzt erhöhen (jedenfalls im sinnvollen Rahmen). :)

Gast
2008-07-09, 00:08:04
100% mehr Preis für vielleicht 15% Mehrleistung? Setzen 6. ;D

Rechnen ist nicht deine Stärke oder? ;)

Aber was hat das mit meiner Aussage zu tun? Richtig setzen 6 Schlammsau wurde nicht versetzt.

Jake Dunn
2008-07-09, 00:09:23
eben das wäre ja wunderbar aber von 780 auf 790 ist ja echt volksverarsche;)

Ich hab heut nochmal GOW ruff gehaun, aber der Shit Frame Limiter geht nicht auszustellen :rolleyes: (bei UT3 klappt es ja) daher kann man das benchen knicken, den bei 1680x1050 DX10, 4xAA/16xAF hat man 62FPS ^^

derguru
2008-07-09, 00:14:38
aha ja bei 60fps hängen ist dann nicht gut geeignet zum testen,oder man haut manuelle viel aa rein;)

machen wir dann irgendwann,rennt ja nit weg.ich geh mal wieder zu den bekloppten vom anderem forum da gibts wieder fangebashe;D

up¦²
2008-07-09, 11:04:24
Na endlich!
iti suda:
http://www.ixbt.com/video3/rv770-2-part1.shtml
http://www.ixbt.com/video3/rv770-2-part3-d.shtml#p18

wird wohl schnell auch auf englisch erscheinen...

deekey777
2008-07-09, 11:10:37
Na endlich!
iti suda:
http://www.ixbt.com/video3/rv770-2-part1.shtml
http://www.ixbt.com/video3/rv770-2-part3-d.shtml#p18

wird wohl schnell auch auf englisch erscheinen...
Irgendein Unterschied zu diesem Review?
iXBT-Test: ATI RADEON HD 4870 512MB PCI-E (http://www.ixbt.com/video3/rv770-2-part1.shtml)

Synthetik: http://www.ixbt.com/video3/rv770-2-part2.shtml#p5
Das ist einfach nur grausam. :biggrin:

Die Performance-Balken: http://www.ixbt.com/video3/rv770-2-part3-d.shtml#p18

http://img169.imageshack.us/img169/4485/excellentpackagegl5.jpg
Die englische Version lässt auf sich warten.

puntarenas
2008-07-09, 11:12:05
Wenn Google alles richtig übersetzt hat, so ist dieser Test sehr interessant: http://www.hardware.fr/articles/726-1/radeon-hd-4800-gddr5-utile.html
Man hat beide HD4800er gegeneinander getestet und zwar mit gleichen GPU-Takt (725 MHz), aber mit unverändertem Speichertakt.
Noch interessanter wäre, wenn die Auflösung etwas ziviler wäre.
Danke, danke, einfach danke. :massa:

Sowas habe ich schmerzlich vermisst und auch wenn mein Französisch etwas eingerostet ist, die Balken sind international:

Gleicher GPU-Takt, Differenz zwischen GDDR5 1800Mhz und GDDR3 933Mhz (http://www.hardware.fr/articles/726-4/b-maj-b-radeon-hd-4800-gddr5-utile.html)
Gleicher GPU-Takt, Differenz zwischen GDDR5 933Mhz und GDDR3 933Mhz (http://www.hardware.fr/articles/726-5/b-maj-b-radeon-hd-4800-gddr5-utile.html)

Zunächst einmal Chapeau an die Franzosen, hardware.fr gehört bis auf die Sprache zu meinen liebsten Benchmarkseiten, die haben da in letzter Zeit klasse Arbeit abgeliefert. Dass GDDR5 taktbereinigt schwächer sein würde als GDDR3 war ja klar, aber dass die HD4870 nur in so geringe Maße von der Banbreite profitiert. :eek:
Meint ihr, aufgrund der hohen Auflösung limitieren bei 4xAA schon die 512MB ein wenig und verfälschen das Ergebnis?

Wäre wirklich toll, wenn jemand mit guten Französischkenntnissen maldrüberlesen könnte, sonst liest sich das für mich wie "Kauf eine HD4850, bringe Spannung und GPU-Takt auf HD4870-Niveau und freu dir ein Loch in den Bauch."

Mr. Lolman
2008-07-09, 11:51:05
aber dass die HD4870 nur in so geringe Maße von der Banbreite profitiert. :eek:

Kommt immer draufan, wie stark die Bandbreite limitiert - siehe hier zB: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6610899&postcount=10

Außerdem gehen die RAM der 4870 anscheinend gut zu übertakten. Meine laufen bis 1150MHz stabil. Aktuell lass ich die 4870 einfach am CCC Maximum von 790/1100 laufen. Damit steigen die fps bei Crysis auch nochmal um knapp 10% und die Speicherbandbreite ist ~gleich hoch wie bei der GTX 280,

AnarchX
2008-07-09, 12:11:49
Hardspell hat mal eine 4870@850/2200MHz durch ihren Parkour gejagt:
http://en.hardspell.com/doc/showcont.asp?news_id=3703
... interessant wäre hier auch noch eine GTX 260 @ OC.

derguru
2008-07-09, 14:48:37
Kommt immer draufan, wie stark die Bandbreite limitiert - siehe hier zB: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6610899&postcount=10

Außerdem gehen die RAM der 4870 anscheinend gut zu übertakten. Meine laufen bis 1150MHz stabil. Aktuell lass ich die 4870 einfach am CCC Maximum von 790/1100 laufen. Damit steigen die fps bei Crysis auch nochmal um knapp 10% und die Speicherbandbreite ist ~gleich hoch wie bei der GTX 280,

jo das ist halt die frage wann es zum bandbreitenlimit kommt und wenn es bei den auflösungen mit dem aa nicht dazu kommt wozu dann soviel bandbreite?sieht man ja bei half-life2 da verringert sich sogar der unterschied von 1680 zu 1920 auflösung um 10% zwischen den karten und taktet man den chip einer 4850 auf die 4870 werte würde es fast identisch sein.der speichertakt wird total überbewertet bei ati karten weil halt die effizienz so gut ist.wenn es zum bandbreitenproblem kommt dann sieht das so aus wie beim cb bild(schön zusehen wie die karten mit mehr als 512mb schneller sind) weil dann die 4870 karte ihre bandbreite nicht ausnutzen kann weil sie nur 512mb hat.und deshalb wird die 4870 512mb ihre speicherbandbreiten vorteile nie auspielen können,da muss schon die 1gb version her.
ich sehe eigentlich in keinem spiel für die ati bandbreitenprobleme,wenn man sich die unterschiede im zwischen 4850 und 4870 anschaut gibt keine unterschiede zwischen 1280*1024 zu 2560x1600 4xAA/16xAF,es bleibt immer bei 20% was sogut wie nur vom chiptakt zu stande kommt.
http://www.abload.de/thumb/16ts3e.gif (http://www.abload.de/image.php?img=16ts3e.gif)http://www.abload.de/thumb/bandbreite159c.gif (http://www.abload.de/image.php?img=bandbreite159c.gif)http://www.abload.de/thumb/bandbreite2jbh.gif (http://www.abload.de/image.php?img=bandbreite2jbh.gif)

Gast
2008-07-09, 15:43:16
j...
http://www.abload.de/thumb/16ts3e.gif (http://www.abload.de/image.php?img=16ts3e.gif)

Naja, wenn du jetzt auch noch plausibel erklären kannst warum die HD4850 bessere Frameraten liefert als ein 4870er Crossfire dann würde ich dir ja glatt glauben dass es am Speicher liegt...

derguru
2008-07-09, 15:56:28
Naja, wenn du jetzt auch noch plausibel erklären kannst warum die HD4850 bessere Frameraten liefert als ein 4870er Crossfire dann würde ich dir ja glatt glauben dass es am Speicher liegt...


wenn es zum speichermangel kommt dann kann man die fps werte nicht mehr für voll nehmen,so hättest du ja gleich fragen können warum ist die 4850 karte schneller als eine 4870,abgesehen davon ist bei einem speichermangel ein cf sys mehr betroffen als eine einzel karte.

Gast
2008-07-09, 16:29:34
Ab und zu ist die 4870 auch gerne mal >40% schneller als die 4850! Also bringt ihr die bessere Speicherbandbreite bis zu 20% mehr FPS:

http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index22.php
http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index41.php

derguru
2008-07-09, 16:51:45
Ab und zu ist die 4870 auch gerne mal >40% schneller als die 4850! Also bringt ihr die bessere Speicherbandbreite bis zu 20% mehr FPS:

http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index22.php
http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index41.php

bei cb verhält es sich auch bei ut so,aber ist auch nur bei dieser engine zusehen und sonst nirgends.ich hatte ja halt aufs gesamtrating geschaut(vieleicht gibt es eigentlich kaum spiele wo es zum bandbreitenlimitierten faktor kommt ausßer spiele mit der ut engine).mich wundert mehr warum die ati karten so extrem bei 4aa an performance verlieren,die sind ja langsamer als eine 8800gtx.vielleicht ist das so ein fall wo der ram ausgeht und deshalb der starke performanceverlust,denn bei allen anderen games sind die in aa gleichwertig zu nv.deshalb muss schleunigst die 1gb variante her um da gegen zusteuern und auch ein bissel an der min. fps zuverbessern.

AffenJack
2008-07-09, 17:31:04
So wenig bringt die bandbreite auch nicht, wenn man sich den test anguckt,zumindest bei ner 24zoller auflösung.
http://www.hardware.fr/articles/726-4/b-maj-b-radeon-hd-4800-gddr5-utile.html

Sehr interessant finde ich auch die leistungsverluste von gddr5 zu gddr3 wenn beide gleichgetaktet sind. Da muss gddr5 ja ziemlich schlechte Latenzen haben.

Gast
2008-07-09, 18:24:27
Sehr interessant finde ich auch die leistungsverluste von gddr5 zu gddr3 wenn beide gleichgetaktet sind. Da muss gddr5 ja ziemlich schlechte Latenzen haben.

Naja, die haben den GDDR5 sicher einfach nur runtergetaktet, ohne die Latenzen zu verändern (die bei Untertaktung von 1800Mhz auf 1000Mhz runter ganz sicher ordentlich runtergesetzt werden könnten). Kein Wunder, dass der dann bei 1000Mhz schlecht dasteht!

Gast
2008-07-09, 18:30:04
Kurze Frage: Für welchen Takt ist der verbaute Speicher der HD4870 denn ausgelegt?

pest
2008-07-09, 18:37:28
1GHz

4 Vitamins
2008-07-09, 19:35:47
Ein interesanter artikel auf heise.de

http://www.heise.de/newsticker/Radeon-HD-4800-uebertrumpft-Konkurrenz-auf-allen-Gebieten--/meldung/109922

betasilie
2008-07-09, 19:50:57
So wenig bringt die bandbreite auch nicht, wenn man sich den test anguckt,zumindest bei ner 24zoller auflösung.
http://www.hardware.fr/articles/726-4/b-maj-b-radeon-hd-4800-gddr5-utile.html

Sehr interessant finde ich auch die leistungsverluste von gddr5 zu gddr3 wenn beide gleichgetaktet sind. Da muss gddr5 ja ziemlich schlechte Latenzen haben.
Ja, kar hat der GDDR5 krasse Latenzen, wenn er einfach massiv runtergetaktet wird, ohne die Latenzwerte dem Takt anzupassen. :rolleyes:

Gast
2008-07-09, 19:58:21
Ein interesanter artikel auf heise.de

http://www.heise.de/newsticker/Radeon-HD-4800-uebertrumpft-Konkurrenz-auf-allen-Gebieten--/meldung/109922Liest sich eher wie Werbung ;) Ausserdem berichten Sie auch noch von den bisher erst auf dem Papier sichtbaren Stromspar-Features mittels Extra-Chip. Hoffentlich gibt's nen Refresh vor Ende Jahr, oder den erhofften Treiber, der die noch vorhandenen Probleme behebt.

4 Vitamins
2008-07-09, 20:58:07
GTX vs HD4870 in Call of Duty 4 (sehr interesant)=)

http://www.pcgameshardware.de/aid,650696/Test/Benchmark/Spielbarkeit_von_G200_und_RV770_in_Call_of_Duty_4/&page=2

"""""1.680x1.050 mit 4xTSSAA/16xAF: Call of Duty 4
Mit der höchsten getesteten Qualitätsstufe trennt sich die Spreu vom Weizen. Eine HD 3870 oder 8800GT ist nicht leistungsstark genug, Call of Duty 4 spielt sich erschreckend schwammig - Spaß? Fehlanzeige. Die übertaktete GTS schlägt sich wie die GTS 260 wacker, beide können jedoch mit den drei schnellsten Karten nicht mithalten. Dieses Setting ist eine Bank für die RV770, die HD 4850 überholt eine GTX 260, die HD 4870 liegt knapp in Front.""""

Gast
2008-07-09, 21:05:47
die spielbarkeit ist auch sehr interesant:

http://www.abload.de/img/sp_cod4_1680_x4xaa8e9.png (http://www.abload.de/image.php?img=sp_cod4_1680_x4xaa8e9.png)

Blaire
2008-07-09, 21:27:42
Funktioniert denn überhaupt Adaptive SSAA noch bei Ati?

Gast
2008-07-09, 21:43:44
Hmmm....die 260 bricht aber ziemlich ein für den stolzen Preis von immer noch 260€ (lieferbar).
Sofern es die einzige Disziplin bleiben "würde" wäre es wirklich nicht tragisch. Dem ist aber nicht so.

Fetza
2008-07-09, 22:10:08
Wäre wirklich toll, wenn jemand mit guten Französischkenntnissen maldrüberlesen könnte, sonst liest sich das für mich wie "Kauf eine HD4850, bringe Spannung und GPU-Takt auf HD4870-Niveau und freu dir ein Loch in den Bauch."

Kann jetzt kein französisch, aber meinst du nicht, dass du es dir da zu einfach machst? Die karten werden so schon sehr heiß, wenn du dann noch die spannung anhebst, brauchst du auch gleich einen fetten kühler dafür, da würden mich die paar eure mehr für die hd4870 auch nichtmehr interessieren.

mapel110
2008-07-09, 22:46:14
Irgendwer bencht offenbar immer Müll. CB hat zwischen 8800 GT und 3870 meist einen Unterschied von 60-70 % in der Leistung bei COD4 mit AA/AF, bei PCGH ist der Unterschied plötzlich weg. :|

/edit
Wunderbar, PCGH testet XP32 bei der zweiten Generation DX10-Karten und CB setzt halt auf Vista64. Das dürfte wohl der Unterschied sein, neben HQ bei nvidia bei PCGH.

Gast
2008-07-09, 22:49:16
Irgendwer bencht offenbar immer Müll. CB hat zwischen 8800 GT und 3870 meist einen Unterschied von 60-70 % in der Leistung bei COD4 mit AA/AF, bei PCGH ist der Unterschied plötzlich weg. :|
Vielleicht regelt das der neue Treiber...

LovesuckZ
2008-07-09, 23:33:03
Irgendwer bencht offenbar immer Müll. CB hat zwischen 8800 GT und 3870 meist einen Unterschied von 60-70 % in der Leistung bei COD4 mit AA/AF, bei PCGH ist der Unterschied plötzlich weg. :|

/edit
Wunderbar, PCGH testet XP32 bei der zweiten Generation DX10-Karten und CB setzt halt auf Vista64. Das dürfte wohl der Unterschied sein, neben HQ bei nvidia bei PCGH.

PCGH testet HQ gegen A.I Default und TSSSAA mit TSMSAA. Klar, dass die nVidia Karten besonderst stark einbrechen.

Coda
2008-07-09, 23:35:55
Das ist total durch. Ich hab vorher meinen Augen nich geglaubt als ich das gesehen hab. Ein Witz sondergleichen.

Frank1974
2008-07-09, 23:37:51
Funktioniert denn überhaupt Adaptive SSAA noch bei Ati?

Das grenzt hier schon an ....., bei ATI geht SSAA überhaupt nicht, wenn überhaupt dann in einer weit schlechteren Version als bei NV, wovon ich aber nicht überzeugt bin, was für Leute machen da überhaupt Tests, was hat PCGH überhaupt für Aufnahme-Tests, ah ja können sie einen PC einschalten? - (x) Ja, ok Herzlich willkommen :mad:, nur noch Lächerlich das ganze...

/edit
Den Text etwas entschärft, war etwas zu unfreundlich von mir :redface:

mfg
Frank

Ronny145
2008-07-09, 23:41:17
Das ist total durch. Ich hab vorher meinen Augen nich geglaubt als ich das gesehen hab. Ein Witz sondergleichen.


Meinst du den PCGH Test?

Coda
2008-07-09, 23:45:27
Ja, die Settings die die dort verwenden :ugly:

HQ gegen A.I. default is ja schon lächerlich wie sau, aber dann noch Supersampling gegen Multisampling drauf und mir fehlen die Worte. Das ist einfach nur eine krasse Realtitätsverzerrung.

Blaire
2008-07-09, 23:51:06
Das grenzt hier schon an Betrug, bei ATI geht SSAA überhaupt nicht, wenn überhaupt dann in einer weit schlechteren Version als bei NV, wovon ich aber nicht überzeugt bin, was für Trottel machen da überhaupt Tests, was hat PCGH überhaupt für Aufnahme-Tests, ah ja können sie einen PC einschalten? - (x) Ja, ok herzlich willkommen :mad:, nur noch Lächerlich das ganze...



http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_710/2/

"* Während in vorherigen Treiberversionen die Performance raubende, qualitativ aber beste Super-Sampling-Variante verwendet wurde, kommt seit dem Catalyst 7.8 das so genannte „EATM“ zum Einsatz. EATM nutzt kein Super-Sampling-AA mehr, sondern setzt auf das effizientere Multi-Sampling-AA. EATM ist jedoch nicht mit dem Transparency-MSAA auf einer GeForce-Karte vergleichbar, denn ATis Variante erzeugt das optisch bessere Bild. So ist der Performanceeinbruch gegenüber der SSAA-Version spürbar geringer, während sich der Qualitätsverlust im Rahmen hält. Je nach Spielszene kann EATM unter Umständen gar besser aussehen."

Ob sich daran jemals wieder etwas verändert hat? Ich glaub da irgendwie nicht dran. Nvidia hat ja in der Zwischenzeit den TRMSSAA auch qualitativ dem von Ati angepasst , vieleicht wäre es hier gerechter nur die Multisampling Methoden miteinander zu vergleichen oder es gleich gänzlich bleiben zu lassen, wie es z.b. Computerbase auch getan hat.

Ronny145
2008-07-09, 23:52:27
In der Tat. Da bin ich eigentlich besseres gewohnt von der PCGH. Da kann Raff die (offensichtlich) berechtigte Kritik gleich mal an Herrn Marc Sauter (Tester) weitergeben. Eigentlich müsste man den Test gleich wieder von der Seite nehmen.

deekey777
2008-07-10, 00:11:01
EATM ist tot. T-O-H-T. Tot. Das, was CB geschrieben hat, stimmt seit fast einem Jahr nicht mehr.
Aber ist ATMS.
http://img55.imageshack.us/img55/4504/teilsp9.jpg
Dafür muss man Regedit anwerfen und AMTS_NA auf "0" stellen (zumindest bei meiner X1950GT). Dh aber nicht, dass es bei einer X1000er auch funktioniert.
Und bevor man sich so unnötig aufregt:
Man kann mit einfachen Änderungen in der Registry selbst herausfinden, welcher Modus funktioniert, die Schlüssel sind ASTT, ASBT (kann manuel hinzugefügt werden, ist an ASTT gekoppelt) und ATMS. Man kann - wenn man will, - selbst herausfinden, welcher Modus funktioniert.

Lolman kann das viel besser erklären, aber er zockt bestimmt Crysis mit seiner neuen Errungenschaft.

Gast
2008-07-10, 00:14:24
PCGH testet HQ gegen A.I Default und TSSSAA mit TSMSAA. Klar, dass die nVidia Karten besonderst stark einbrechen.
Im aktuellen Catalyst geht NUR TSSAA und sonst kann man auch wählen ob man EATM oder ASTT will...

LovesuckZ
2008-07-10, 00:18:54
Im aktuellen Catalyst geht NUR TSSAA und sonst kann man auch wählen ob man EATM oder ASTT will...

Dann sollte es ja keine Probleme sein, es zu bewesen. Denn bei PCGH ist es bestimmt kein SSAA, sonst würde vorallen die 3870 wesentlich stärker einbrechen.

Gast
2008-07-10, 00:22:22
Warum muss die HD3870 bei einem adaptiven Verfahren sonderlich einbrechen?

LovesuckZ
2008-07-10, 00:25:01
Weil sich die Texturleistung bei 4 Color-Samples mal lockerflockig viertelt bzw. sie halbiert sich von 2 auf 4 MSAA - natürlich abhängig von der Szene.
Da der Einbruch der 3870 so gering ist, ist es wohl kaum SSAA.

Ronny145
2008-07-10, 00:26:55
PCGH: Catalyst 8.7 Beta (AI def.)

Ist das der hier?: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=423148

AnarchX
2008-07-10, 00:28:21
EATM ist tot. T-O-H-T. Tot. Das, was CB geschrieben hat, stimmt seit fast einem Jahr nicht mehr.
Aber ist ATMS.
http://img55.imageshack.us/img55/4504/teilsp9.jpg
Dafür muss man Regedit anwerfen und AMTS_NA auf "0" stellen (zumindest bei meiner X1950GT). Dh aber nicht, dass es bei einer X1000er auch funktioniert.
Und bevor man sich so unnötig aufregt:
Man kann mit einfachen Änderungen in der Registry selbst herausfinden, welcher Modus funktioniert, die Schlüssel sind ASTT, ASBT (kann manuel hinzugefügt werden, ist an ASTT gekoppelt) und ATMS. Man kann - wenn man will, - selbst herausfinden, welcher Modus funktioniert.

Na, wenn jetzt das mal nicht allen klar geworden ist... ;D X-D

Wenn ich mir die AA-Skalierung bei CB unter Oblivion anschaue, dann scheint da wohl eindeutig nur ein MSAA-basierendes TAA zum Einsatz zu kommen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/5/#abschnitt_aa_und_afskalierung

Solang die TAA-Implementierung bei ATi derart inkonsistent ist, sollte man jegliche Vergleich unterlassen.

Frank1974
2008-07-10, 00:29:37
Weil sich die Texturleistung bei 4 Color-Samples mal lockerflockig viertelt bzw. sie halbiert sich von 2 auf 4 MSAA - natürlich abhängig von der Szene.
Da der Einbruch der 3870 so gering ist, ist es wohl kaum SSAA.

Genau wie der Einbruch bei der 4850er, das ist der ganz normale Einbruch wenn 4xAA/16xAF an ist, aber nie SSAA, aber einige halten ATI im Moment für GOTT, demnächst ist die 3870 noch schneller als die GTX280... ;D
Ich dachte sonst immer NV-Fanboys sind nervig, aber jetzt weiß ich es besser, gegen die ATI-Fraktion hier sind sie wie Engel.

mfg
Frank

Ronny145
2008-07-10, 00:33:53
http://www.forumdeluxx.de/forum/showpost.php?p=9511162&postcount=748

Nur mal so angenommen, wenn das so stimmt. Sample Treiber neuer als Hotfix. Beim Sample Treiber nur Multisampling zur Auswahl, dann könnte das beim Cat 8.7 genauso zutreffen. Aber nur Spekulation.

derguru
2008-07-10, 00:34:56
ist halt die frage wieso ati supersampling raus genommen hat,soll doch jeder selber entscheiden ob ihm die leistung reicht oder nicht.

das das cb nicht merkt das kein ssaa funktioniert versteh ich einfach nicht,naja pcgh ist ja nicht besser.


wenn man im treiber der ati karte zwischen tssaa auf tmsaa wechselt ändert sich nichts an der bildqualität und auch nichts an den fps.

d2kx
2008-07-10, 00:50:33
Ich bin mir recht sicher, dass die den 8.511-080624a-066029E-ATI genommen haben, welchen sie zwar als Beta bezeichnen, welcher aber den finalen Catalyst 8.7 darstellt. Der geleakte Treiber ist ein früher 8.8, der aber nicht unbedingt alle 8.7 Änderungen drin haben muss, was für einen Sampletreiber ihr jetzt meint, weiß ich nicht.

deekey777
2008-07-10, 00:53:47
Na, wenn jetzt das mal nicht allen klar geworden ist... ;D X-D
Der, der die Abkürzungen kennt, weiß auch, was gemeint ist.

Wenn ich mir die AA-Skalierung bei CB unter Oblivion anschaue, dann scheint da wohl eindeutig nur ein MSAA-basierendes TAA zum Einsatz zu kommen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/5/#abschnitt_aa_und_afskalierung

Solang die TAA-Implementierung bei ATi derart inkonsistent ist, sollte man jegliche Vergleich unterlassen.
Wieso "inkonsistent"? Der Begriff "Adaptives Anti-Aliasing" enthält weder MSAA noch SSAA, sondern nur adaptiv.
Wenn die Tester nicht genau hinschauen, dann ist es deren Problem. Natürlich ist es schade, wenn ein qualitativ besserer Modus aus Performance-Erwägungen geopfert wird, aber man sieht immer eine Qualitätssteigerung, wenn AAA aktiviert wird.

Und wenn in CoD4 PCGH unterschiedliche Transparenz-AA-Modi wählt, dann hatten sie vielleicht einen Grund dafür, denn TRMSAA ist bei NV etwas wählerisch und funktioniert nicht immer.

Anti-Aliasing in UE3-Games: http://www.ixbt.com/video/itogi-video/test/0803_ue3aa.shtml

Da sieht man ganz deutlich, dass es in den verwendeten Spielen bei der HD2900 keinen Unterschied macht, welcher Modus verwendet wird. Dagegen sieht man bei NV sehr wohl einen: Transparenz-MSAA zeigt keine Wirkung, Transparenz-SSAA glättet besser, ist aber fehlerhaft.

Frank1974
2008-07-10, 01:05:16
Und wenn in CoD4 PCGH unterschiedliche Transparenz-AA-Modi wählt, dann hatten sie vielleicht einen Grund dafür, denn TRMSAA ist bei NV etwas wählerisch und funktioniert nicht immer.

Das mag ja sein, aber man kann doch nicht zwei vollkommen verschiedene Modis von zwei Unterschiedlichen Hersteller miteinander vergleichen, und dann NV in einem dermaßen schlechten Licht dastehen lassen, wo man als Hardwaremag wissen sollte, das bei NV ein um mehrfaches an Rechenaufwand geleistet wird.

mfg
Frank

deekey777
2008-07-10, 01:11:18
Das mag ja sein, aber man kann doch nicht zwei vollkommen verschiedene Modi von zwei Unterschiedlichen Hersteller miteinander vergleichen, und dann NV in einem dermaßen schlechten Licht dastehen lassen, wo man als Hardwaremag wissen sollte, das bei NV ein um mehrfaches an Rechenaufwand geleistet wird.

mfg
Frank
Bevor man nicht genau weiß, warum PCGH die Einstellungen gerade so gewählt hat, sollte man sich mit seinen zT sehr unfreundlichen Äußerungen zurückhalten.
Nehmen wir an, dass TMSAA keine Wirkung in CoD4 zeigte, womit die Tester auf TSSAA umsteigen mussten: Wessen Problem ist das? Bestimmt nicht von PCGH.

derguru
2008-07-10, 01:20:30
Da sieht man ganz deutlich, dass es in den verwendeten Spielen bei der HD2900 keinen Unterschied macht, welcher Modus verwendet wird. Dagegen sieht man bei NV sehr wohl einen: Transparenz-MSAA zeigt keine Wirkung, Transparenz-SSAA glättet besser, ist aber fehlerhaft.

seh ich aber nicht so,unreal 3 engine ist eh ein fall für sich.das sieht man eigentlich gar keine unterschiede bei nv karten außer das bei tssaa die fps total absacken.die treppen sehen mit allen 3 modis gleich scheisse aus außer das bei tssaa die fps mehr als halbiert wird.

ohne aa
http://www.abload.de/thumb/ut32008-07-1001-06-1512.png (http://www.abload.de/image.php?img=ut32008-07-1001-06-1512.png)
tssaa 3x3
http://www.abload.de/thumb/ut32008-07-1001-09-23ac.png (http://www.abload.de/image.php?img=ut32008-07-1001-09-23ac.png)
tmsaa
http://www.abload.de/thumb/ut32008-07-1001-13-1dlt.png (http://www.abload.de/image.php?img=ut32008-07-1001-13-1dlt.png)

deekey777
2008-07-10, 01:25:36
seh ich aber nicht so,unreal 3 engine ist eh ein fall für sich.das sieht man eigentlich gar keine unterschiede bei nv karten außer das bei tssaa die fps total absacken.die treppen sehen mit allen 3 modis gleich scheisse aus außer das bei tssaa die fps mehr als halbiert wird.

ohne aa
http://www.abload.de/thumb/ut32008-07-1001-06-1512.png (http://www.abload.de/image.php?img=ut32008-07-1001-06-1512.png)
tssaa 3x3
http://www.abload.de/thumb/ut32008-07-1001-09-23ac.png (http://www.abload.de/image.php?img=ut32008-07-1001-09-23ac.png)
tmsaa
http://www.abload.de/thumb/ut32008-07-1001-13-1dlt.png (http://www.abload.de/image.php?img=ut32008-07-1001-13-1dlt.png)

Man sieht einen Unterschied zwischen 1xAA und TMSAA. Nur wäre ein Bild mit 4xMSAA (oder entsprechend) viel sinnvoller.

misterh
2008-07-10, 01:26:09
Bevor man nicht genau weiß, warum PCGH die Einstellungen gerade so gewählt hat, sollte man sich mit seinen zT sehr unfreundlichen Äußerungen zurückhalten.
Nehmen wir an, dass TMSAA keine Wirkung in CoD4 zeigte, womit die Tester auf TSSAA umsteigen mussten: Wessen Problem ist das? Bestimmt nicht von PCGH.

man sollte fair vergleichen.

derguru
2008-07-10, 01:28:37
Man sieht einen Unterschied zwischen 1xAA und TMSAA. Nur wäre ein Bild mit 4xMSAA (oder entsprechend) viel sinnvoller.
das msaa bild ist sogar 8x tmsaa.und wo bitte siehst du verbesserungen?also ehrlich sag mir nicht die treppenstufen sind glatt;)

ich mein ich kann das ja mit cod4 machen dann wissen wir es ja wie es sich verhält,unreal finde ich für aa eh nicht geeignet.

ist jetzt nicht die beste stelle um die bildqualität zu vergleichen aber die fps werte reichen ja schon.
4msaa
http://www.abload.de/thumb/treiber4aap3u.png (http://www.abload.de/image.php?img=treiber4aap3u.png)
4x tmsaa
http://www.abload.de/thumb/tmsaa4757.png (http://www.abload.de/image.php?img=tmsaa4757.png)
4x tssaa
http://www.abload.de/thumb/iw3sp2008-07-1017-170di.png (http://www.abload.de/image.php?img=iw3sp2008-07-1017-170di.png)

bei ati karten weiß ich das wenn ich von tmsaa auf tssaa wechsel kein fps unterschied zustande kommt geschweige denn bildqualitätsunterschiede.

man sollte fair vergleichen.

genau darum gehts,wenn die schon vergleichen wollen dann sollen die das ganz normale tmsaa nehmen und kein tssaa weil das bei ati karten nicht funzen tut.

Frank1974
2008-07-10, 01:28:59
Bevor man nicht genau weiß, warum PCGH die Einstellungen gerade so gewählt hat, sollte man sich mit seinen zT sehr unfreundlichen Äußerungen zurückhalten.
Nehmen wir an, dass TMSAA keine Wirkung in CoD4 zeigte, womit die Tester auf TSSAA umsteigen mussten: Wessen Problem ist das? Bestimmt nicht von PCGH.

OK, bin schon wieder freundlich, aber der Test scheint mir einiges falsch darzustellen, und wenn man bei solchen Speziellen Dingen wie TRSSAA/MSAA nicht genau untersucht, auch mit optischen Beweisen, dann sollte man ihn nur veröffentlichen, wenn man von beiden(NV/ATI) Bildvergleiche zeigt, so in etwa 1xAA, 4xAA, 4xTRMSAA, 4xTRSSAA, besonders bei Zäunen, Gras und Baumlandschaften, dann hat man einen Optischen, +Balkentest zugleich, wenn dann immer noch einer schlechter ist, aber eine deutlich bessere BQ hat, dann weiß man ja woran es liegt.

mfg
Frank

reunion@work
2008-07-10, 08:28:17
Irgendwer bencht offenbar immer Müll. CB hat zwischen 8800 GT und 3870 meist einen Unterschied von 60-70 % in der Leistung bei COD4 mit AA/AF, bei PCGH ist der Unterschied plötzlich weg. :|

/edit
Wunderbar, PCGH testet XP32 bei der zweiten Generation DX10-Karten und CB setzt halt auf Vista64. Das dürfte wohl der Unterschied sein, neben HQ bei nvidia bei PCGH.

Es sind zwei völlig unterschiedliche Szenen, das ist in keinster Weise vergleichbar.

Ja, die Settings die die dort verwenden :ugly:

HQ gegen A.I. default is ja schon lächerlich wie sau, aber dann noch Supersampling gegen Multisampling drauf und mir fehlen die Worte. Das ist einfach nur eine krasse Realtitätsverzerrung.

HQ gegen AI. def. ist nicht fair nein. Aber was AMD ist adaptives SSAA anbietet ist vielleicht kein SSAA, aber - und ich weiß das willst du jetzt nicht hören - es kann in punkto Qualität locker mithalten. nV sollte lieber auch mal derart effiziente Modi anbietet.

AnarchX
2008-07-10, 09:00:38
HQ gegen AI. def. ist nicht fair nein. Aber was AMD ist adaptives SSAA anbietet ist vielleicht kein SSAA, aber - und ich weiß das willst du jetzt nicht hören - es kann in punkto Qualität locker mithalten. nV sollte lieber auch mal derart effiziente Modi anbietet.
TRMSAA wurde doch bei NV im Oktober massiv überarbeitet und liefert fast-SS-Qualität ohne das Bild zu verfälschen.

Mr. Lolman
2008-07-10, 09:40:07
TRMSAA wurde doch bei NV im Oktober massiv überarbeitet und liefert fast-SS-Qualität ohne das Bild zu verfälschen.

Theoretisch. Aber davon sieht man hier nix. Im Gegenteil: http://www.ixbt.com/video/itogi-video/test/0803_ue3aa.shtml

AnarchX
2008-07-10, 11:03:37
Theoretisch. Aber davon sieht man hier nix. Im Gegenteil: http://www.ixbt.com/video/itogi-video/test/0803_ue3aa.shtml
Nunja, sind nur UE3-Games bei den HL2-Zäunen scheint es jedoch einiges zu bringen.

Blaire
2008-07-10, 12:53:32
wenn man im treiber der ati karte zwischen tssaa auf tmsaa wechselt ändert sich nichts an der bildqualität und auch nichts an den fps.

Das hab ich mir auch schon bestätigen lassen. Also ist wohl weiterhin nur Adaptives MSAA zu bekommen über den Treiber.

betasilie
2008-07-10, 13:30:32
Das hab ich mir auch schon bestätigen lassen. Also ist wohl weiterhin nur Adaptives MSAA zu bekommen über den Treiber.
Wie kommst Du zu der Aussage? Woran siehst Du das?

Mr. Lolman
2008-07-10, 13:32:05
Das hab ich mir auch schon bestätigen lassen. Also ist wohl weiterhin nur Adaptives MSAA zu bekommen über den Treiber.

Naja, bei Crysis zB. ists anscheinend doch adaptives SSAA...

LovesuckZ
2008-07-10, 13:35:40
Dann zeig her die Bilder.

Mr. Lolman
2008-07-10, 13:38:49
Dann zeig her die Bilder.

Mach ich, heut abend (solang ich im Büro bin, geht das nicht gut).

Blaire
2008-07-10, 14:08:02
Theoretisch. Aber davon sieht man hier nix. Im Gegenteil: http://www.ixbt.com/video/itogi-video/test/0803_ue3aa.shtml

Unreal Engine 3 ist auch ein spezieller Fall...

Wie kommst Du zu der Aussage? Woran siehst Du das?

Ich hab es mir bestätigen lassen. Eher ein Zwischending wurde mir gesagt, was ohne SSAA auskommt.

betasilie
2008-07-10, 14:42:27
Ich hab es mir bestätigen lassen. Eher ein Zwischending wurde mir gesagt, was ohne SSAA auskommt.
Aha. Von wem hast Du dir das bestätigen lassen?

deekey777
2008-07-10, 17:10:58
Aha. Von wem hast Du dir das bestätigen lassen?
Komm mal runter.
Unreal Engine 3 ist auch ein spezieller Fall...



Ich hab es mir bestätigen lassen. Eher ein Zwischending wurde mir gesagt, was ohne SSAA auskommt.

Es ist kein spezieller Fall, sondern ein Fall, wo die MS-Variante nicht funktioniert, solche Fälle/Spiele gab's immer.

Zu CoD4: Auf den Bildern sieht man schon einen Unterschied zwischen nur MSAA und MSAA+Transparenz-MSAA.

Mr. Lolman
2008-07-10, 18:55:54
Dann zeig her die Bilder.

Reicht der?

1280x720/4xAAA/8xAF, Mster 2.35:
http://www.abload.de/img/screenshot0030tkg.jpg (http://www.abload.de/image.php?img=screenshot0030tkg.jpg)

betasilie
2008-07-10, 19:02:34
Komm mal runter.
Ähm, entschuldige mal, aber wovon soll ich runterkommen?

Das Adaptive AA von ATI soll laut Aussage von Blaire nur adaptives MSAA sein.

Darf ich da nicht nachfragen woher er das wissen will? Die Antwort, dass er sich das hat bestätigen lassen, ohne Angabe von Quellen, ist mal etwas sehr dünn. :|






Also Blaire, woher weißt Du, dass beim ATI AAA MSAA und kein SSAA im Spiel ist?

Bei mir sieht das A-SSAA ganz stark nach SSAA aus. Also bitte ich dich nochmal um deine Quelle, dass ATI beim adaptiven SSAA nur MSAA bietet. Andernfalls könnte ich davon ausgehen, dass Du dir das einfach ausdenkst.

Frank1974
2008-07-10, 19:21:53
Ähm, entschuldige mal, aber wovon soll ich runterkommen?

Das Adaptive AA von ATI soll laut Aussage von Blaire nur adaptives MSAA sein.

Darf ich da nicht nachfragen woher er das wissen will? Die Antwort, dass er sich das hat bestätigen lassen, ohne Angabe von Quellen, ist mal etwas sehr dünn. :|






Also Blaire, woher weißt Du, dass beim ATI AAA MSAA und kein SSAA im Spiel ist?

Bei mir sieht das A-SSAA ganz stark nach SSAA aus. Also bitte ich dich nochmal um deine Quelle, dass ATI beim adaptiven SSAA nur MSAA bietet. Andernfalls könnte ich davon ausgehen, dass Du dir das einfach ausdenkst.


Wenn du eine ATI hast, dann schmeiß Gothic3 an, mach AAA an, und mach ein Video, in Bewegung sieht man es besonders gut, ich kann gerne ein Video mit meiner GTX280 machen, mit 4xTRSSAA da flimmert dann wirklich nix mehr(das sieht aus wie gemalt) :smile:, wenn keiner mit ATI Karte das macht, leihe ich mir eine oder Kaufe sie mir, kann sie ja wieder verkaufen, will ja jeder haben ;).

mfg
Frank

derguru
2008-07-10, 19:26:14
eigentlich braucht man nicht mal aufs bild zu achten,allein das bei tmsaa und bei tssaa bei ati karten die selbe performance raus kommt sagt eigentlich alles aus.tssaa ist nicht inkl.
das müsste normalerweise schon skeptisch machen..

Mr. Lolman
2008-07-10, 19:30:05
Auch beim Witcher ists (fehlerhaftes ;(*) MSAAA. Bei Crysis aber eindeutig SSAAA.


* Leider sind die Fenster bei den Häusern im Händlerviertel transparent. Bei der Vegetation siehts aber sehr fein aus.

allein das bei tmsaa und bei tssaa bei ati karten die selbe performance raus kommt sagt eigentlich alles aus.tssaa ist nicht inkl.
das müsste normalerweise schon skeptisch machen..

Skeptisch machts schon. Es könnte aber auch bedeuten, dass MSAAA nicht funktioniert...

Frank1974
2008-07-10, 19:39:18
Auch beim Witcher ists (fehlerhaftes ;(*) MSAAA. Bei Crysis aber eindeutig SSAAA.


* Leider sind die Fenster bei den Häusern im Händlerviertel transparent. Bei der Vegetation siehts aber sehr fein aus.



Oder dass MSAAA nicht funktioniert...

Ahja Witcher ist auch ne gute Idee, da hat NV aber glaube ich auch ne kleine Schwäche, mit SSAA wird das Bild etwas unscharf glaube ich, aber ich hab es mit meiner GTX noch nicht wieder gestartet, letzte mal war mit 8800GTS.

Und zu Crysis, das ist doch selbst mit AA kaum Spielbar, geschweige denn mit
SSAA.

mfg
Frank

Mr. Lolman
2008-07-10, 19:42:26
Und zu Crysis, das ist doch selbst mit AA kaum Spielbar, geschweige denn mit
SSAA.

mfg
Frank

Naja, ich zocks momentan in DX9 und Mster Config 2.35 am Beamer mit 1280x720, 4xQAAA/8xAF. Meine GraKa läuft aber auch auf 790/1100.

BTW: http://www.ixbt.com/video/itogi-video/0608/itogi-video-cr3-wxp-pcie-aaa.html

Frank1974
2008-07-10, 19:51:14
BTW: http://www.ixbt.com/video/itogi-video/0608/itogi-video-cr3-wxp-aaa-1280-pcie.html
Ehrlich gesagt weiß ich im Moment nicht was ich glauben soll, jede Seite hat Unterschiedliche Ergebnisse, und die Unterschiede sind sehr groß, mal ist die GTX280 30-40% vor der 4870, mal ist es Gleichstand, andere sehen sogar die 4870 vorne, wie gesagt, vielleicht hole ich mir selber noch ne 4870, ich teste nunmal zu gerne und ich bin ehrlich, wenn bei NV was stört sage ich das auch.

mfg
Frank

Blaire
2008-07-10, 20:29:04
Skeptisch machts schon. Es könnte aber auch bedeuten, dass MSAAA nicht funktioniert...

Kann es nicht. Dafür ist der Performanceverlust viel zu gering.
http://img3.imagebanana.com/img/tkq3otkr/msaa_adap_aa.jpg

betasilie
2008-07-10, 21:38:58
Wenn du eine ATI hast, dann schmeiß Gothic3 an, mach AAA an, und mach ein Video, in Bewegung sieht man es besonders gut, ich kann gerne ein Video mit meiner GTX280 machen, mit 4xTRSSAA da flimmert dann wirklich nix mehr(das sieht aus wie gemalt) :smile:, wenn keiner mit ATI Karte das macht, leihe ich mir eine oder Kaufe sie mir, kann sie ja wieder verkaufen, will ja jeder haben ;).

mfg
Frank
Hab hier ein Video von Oblivion gemacht. Wo kann ich das Video uppen ohne großen Aufwand?

Wie bekomme ich das Fraps-Video kleiner? Das Ding ist nur ein paar Sekunden klang, aber knapp 1GB groß!!!

Frank1974
2008-07-10, 22:49:10
Hab hier ein Video von Oblivion gemacht. Wo kann ich das Video uppen ohne großen Aufwand?

Wie bekomme ich das Fraps-Video kleiner? Das Ding ist nur ein paar Sekunden klang, aber knapp 1GB groß!!!

Bei http://rapidshare.com/

Und das Video kann man mit VirtualDub umwandeln, schau bei Computerbase nach, die bieten das zum Download an.
Aber nicht zu stark komprimieren, dann ist das Video unbrauchbar.

mfg
Frank

deekey777
2008-07-10, 23:13:02
Auch beim Witcher ists (fehlerhaftes ;(*) MSAAA. Bei Crysis aber eindeutig SSAAA.


* Leider sind die Fenster bei den Häusern im Händlerviertel transparent. Bei der Vegetation siehts aber sehr fein aus.



Skeptisch machts schon. Es könnte aber auch bedeuten, dass MSAAA nicht funktioniert...
Hier gibt's Oblivion und The Witcher:
http://www.ixbt.com/video/itogi-video/test/0712_taa.shtml

Die Tester wissen auch keinen Rat: Egal, was eingestellt wurde, es war immer der gleiche Modus auf der Radeon (Cat. 7.12).

Superheld
2008-07-11, 01:21:12
nette Kühlung:cool:

http://img65.imageshack.us/my.php?image=img0971ds2.jpg

J0ph33
2008-07-11, 01:38:34
das hätte man soviel schöner machen können

hab schon mal ein bild einer HD2900 gesehen, da waren lediglich zwei kleine löcher für die schläuche in die plastikabdekcung gebohrt worden, das sah fett aus

Blacksoul
2008-07-11, 02:03:02
nette Kühlung:cool:

http://img65.imageshack.us/my.php?image=img0971ds2.jpg

Eh, da sieht das hier ja besser aus.

http://666kb.com/i/b09dv3zp6vweknz6i.jpg

Ganz ohne den Lüfter.


t.b.d

Mr. Lolman
2008-07-11, 08:15:52
Wo ist da TSSAA??
Und mit dem Mod schon mal garnicht!
Mister ATI
Aber danke fürs Bild damit haste ja bestädigt das es kein TSSAA bei ATI gib.

Es ist 100% SSAAA. Der Mod verfälscht das Ganze zwar ein bisschen, aber im Gegensatz zu euch weiss ich wovon ich red. :rolleyes:

Das ist 8xAA + TSSAA
http://www.abload.de/thumb/hl22008-07-1107-33-5z4x.png (http://www.abload.de/image.php?img=hl22008-07-1107-33-5z4x.png)
http://www.abload.de/thumb/iw3sp2008-07-1011-39ea0.png (http://www.abload.de/image.php?img=iw3sp2008-07-1011-39ea0.png)
http://www.abload.de/thumb/crysis642008-07-0420fbo.png (http://www.abload.de/image.php?img=crysis642008-07-0420fbo.png)

Legt mal eure roten Fanbrillen auf Seite das ist ja nur noch lächerlich!

1. Bild: eindeutig TRMSAAA
2. Bild: nicht eindeutig, kann beides sein, sieht aber nach TRSSAA aus.
3. Bild: garkein TRAA


Ergo: Keinen Schimmer von der Materie, aber als Gast herumflamen. :rolleyes:

Mr. Lolman
2008-07-11, 08:31:19
Nein ist es nicht,bist du blind oder mittlerweile schon so verbohrt?
TSSAA siehst du weiter oben...


Ja, dann ist das TRSSAA aber ziemlicher Müll, wenns TRMSAA Artefakte produziert ;)

http://www.abload.de/img/unbenannt-12p6.jpg (http://www.abload.de/image.php?img=unbenannt-12p6.jpg)

Iceman346
2008-07-11, 08:47:07
Die AAA Qualität von ATi erreicht nach meinen Erfahrungen nicht die TSAA Qualität von Nvidia.

Mir fällts am deutlichsten bei Team Fortress 2 auf (da ich das momentan fast exklusiv spiele ;)). Die Gitter dort sind, trotz maximaler AAA Einstellung im Treiber, nicht so gut geglättet wie sie es auf der 8800GT, die ich vorher drin hatte, waren.

Dazu gibt es auch absolut keinen visuellen Unterschied zwischen der SSAAA und MSAAA Einstellung im Treiber, dort scheints nur MSAAA zu geben.

Auch die Performance der AA Modi in TF2 find ich etwas seltsam. 8xAA Box ist scheinbar schneller als sämtliche nicht Box Modi und hat dabei noch mit die beste Qualität (nur Edge Detect ist besser, aber weder mit 4x noch mit 8x für nen schnellen MP Shooter spielbar). Und Wide Tent ist der totale Scheiss, blurrt das ganze Bild, Narrow Tent geht, aber selbst 4xAA mit Narrow Tent ist langsamer als 8xAA Box.

Gast
2008-07-11, 08:50:27
Und Wide Tent ist der totale Scheiss, blurrt das ganze Bild,


Bei manchen Spielen kann das leichte blurren aber die Optik heben.Vorallem bei Horror Spiele wie Jericho...

Mr. Lolman
2008-07-11, 08:50:53
Mir fällts am deutlichsten bei Team Fortress 2 auf (da ich das momentan fast exklusiv spiele ;)). Die Gitter dort sind, trotz maximaler AAA Einstellung im Treiber

Nimm stattdessen mal Ingame-AA.

Nein das ist Crysis :D besser gehts nett,da mußte du dich an die Herren wenden....

Aber wenn du das soweit raus ziehts....sagt aber auch schon alles ..bist halt nen ATI Fanboy :lol:

Das ist HL² :rolleyes:

Iceman346
2008-07-11, 08:55:12
Bei manchen Spielen kann das leichte blurren aber die Optik heben.Vorallem bei Horror Spiele wie Jericho...

Na ja, wers mag. IMO sollten solche Effekte von den Machern des Spieles gezielt eingebaut werden. Einfach grundsätzlich son Blurfilter über die Grafik zu hauen gefällt mir nicht.

Nimm stattdessen mal Ingame-AA.

Im Treiber dabei AAA ausschalten oder anschalten? Bin momentan auf der Arbeit, aber werds nachher mal testen. Bezweifle zwar, dass das nen Unterschied macht, aber warum nicht ;)

Mr. Lolman
2008-07-11, 08:58:16
Im Treiber dabei AAA ausschalten oder anschalten? Bin momentan auf der Arbeit, aber werds nachher mal testen. Bezweifle zwar, dass das nen Unterschied macht, aber warum nicht ;)

Ausschalten (also 'Anwendungseinstellungen'). Beim AF empfiehlt sich das übrigens auch (zumindest wars beim EATM so).

Mr. Lolman
2008-07-11, 09:34:29
das ist vollkommen wurst was das ist.....
Bei ATI gibt es kein TSSAA und fertig,wenn du das Gegenteil behauptest dann mach ein Bild aus Criysis von der selben Stelle mit TMSAA und fertig und komm hier nicht mit Ablenkungen,aber das ist ja so typisch für euch ATI Jünger und einfach nur lächerlich!

Das hat überhaupt nix zu bedeuten, denn wenns MSAAA nicht funzt und stattdessen SSAAA verwendet wird, schauts auch gleich aus.

Außerdem: Die MSAAA-Einstellungen machen bei Crysis hinsichtliche Performance und Qualität (im GGs zu zB. Witcher oder GothicIII) keinen Unterschied, die SSAAA Einstellungen (Qualität oder Performance) hingegen sehr wohl.

Weiters sieht mein Crysis Screenshot viel mehr nach SSAAA aus, als der 1. und der 3. Screenshot in diesem Beitrag: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6650164&postcount=976. Wenn man das leugnet, hat man entweder keine Ahnung von Materie, oder will bewusst flamen.

dr_mordio
2008-07-11, 09:55:24
Das ist 8xAA + TSSAA
http://www.abload.de/thumb/hl22008-07-1107-33-5z4x.png (http://www.abload.de/image.php?img=hl22008-07-1107-33-5z4x.png)

Legt mal eure roten Fanbrillen auf Seite das ist ja nur noch lächerlich!

lach, was ist das den für ein bild?
so übel sah das bei mir aber nie aus.
alleine der baum ist ja ober horror. und das beil HL²

einfach nur zum gruseln

MfG
Alex

deekey777
2008-07-11, 11:36:28
Liebe Community!
Wundert euch nicht, dass einige zitierte Postings in Nichts führen. Das liegt daran, dass ein gesperrter User die Gast-Funktion für seinen geistigen Abfall mißbraucht.

derguru
2008-07-11, 11:51:25
Außerdem: Die MSAAA-Einstellungen machen bei Crysis hinsichtliche Performance und Qualität (im GGs zu zB. Witcher oder GothicIII) keinen Unterschied, die SSAAA Einstellungen (Qualität oder Performance) hingegen sehr wohl.


wäre ja auch nicht das gelbe vom ei bei jedem spiel erstmal ein ratespiel daraus zu machen welche modi gerade läuft.:|

Mr. Lolman
2008-07-11, 12:00:49
wäre ja auch nicht das gelbe vom ei bei jedem spiel erstmal ein ratespiel daraus zu machen welche modi gerade läuft.:|

Falls der Gast nicht zu ungeschickt war, die Modi richtig einzustellen, siehts aber bei NV nicht anders aus: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6650182#post6650182 (siehe Quote)

EDIT: Aber natürlich hast du Recht. Wenn dem User im Controlpanel schon die Wahl geboten wird, sollte auch wirklich das aktiviert sein, was man eingestellt hat. Momentan ist das ,was ATi macht ziemlich willkürlich - was ich absolut nicht gutheissen kann - denn wenn MSAAA in einem Spiel fehlerhaft ist (zB Witcher*), möcht ich zumindest auf SSAAA ausweichen können!


*EATM machte damals interessanterweise keine Probleme.

ShadowXX
2008-07-11, 12:22:09
Und Wide Tent ist der totale Scheiss, blurrt das ganze Bild, Narrow Tent geht, aber selbst 4xAA mit Narrow Tent ist langsamer als 8xAA Box.
Was kein Wunder ist, da alles ausser Box über die Shader gerechnet wird.

Ich bin aber trotzdem positiv überrascht wie viele Games auch noch mit Edge-Detect flüssig laufen...gerade mit 4xMSAA + ED (wobei man da dann streiten kann ob es nicht doch besser ist einfach 8xMSAA boxed zu nehmen).

Box kommt mir bei ATI allerdings etwas besser vor als der von nV.
Da das aber im Prinzip nicht sein kann (der Algo ist Primitiv einfach, da kann man eigentlich nichts "falsch" machen oder sparen), muss die Gammakorrektur bei ATI besser als die von nV sein.....zumindest was meinen TFT betrifft.

Zum AAA:
Ich bin auch nicht ganz schlüssig darüber wie ATI das handhabt. Ich habe ähnliche Erfahrungen wie Mr. Lolman gehabt, das das AAA je nach Spiel anders gehabt wird. Manchmal ist es MSAAA manchmal SSAAA...egal was man einstellt. Ab und zu scheint es aber auch so zu sein, das tatsächlich das genommen wird was man im CP einstellt (meist bei unbekannteren Games, wo scheinbar nichts im Treiber "vermerkt" ist).

Iceman346
2008-07-11, 12:39:17
Ich bin aber trotzdem positiv überrascht wie viele Games auch noch mit Edge-Detect flüssig laufen...gerade mit 4xMSAA + ED (wobei man da dann streiten kann ob es nicht doch besser ist einfach 8xMSAA boxed zu nehmen).

Ne etwas bessere Glättung hat 4xAA + ED imo schon als 8x Box. Aber nicht so viel, dass ich die deutlich schlechtere Performance in Kauf nehmen würde. Wenn ich Leistung zu viel hab (bei älteren Titeln oder so) nehm ichs natürlich trotzdem gerne.

Zum AAA:
Ich bin auch nicht ganz schlüssig darüber wie ATI das handhabt. Ich habe ähnliche Erfahrungen wie Mr. Lolman gehabt, das das AAA je nach Spiel anders gehabt wird. Manchmal ist es MSAAA manchmal SSAAA...egal was man einstellt. Ab und zu scheint es aber auch so zu sein, das tatsächlich das genommen wird was man im CP einstellt (meist bei unbekannteren Games, wo scheinbar nichts im Treiber "vermerkt" ist).

Man könnte teilweise auch mal testen ob da das AI mit reinfunkt. Bei TF2 tuts das nicht, dass hab ich ausprobiert (da siehts immer gleich aus). Aber das AI stösst mir manchmal dann doch etwas sauer auf. Beispiel AA in WoW. Mit AI On gibts nur AA wenn man im Treiber Anwendungsgesteuert einstellt und im Spiel AA aktiviert, stellt man AA im Treiber ein gibts einfach garkeine Kantenglättung.
Erst wenn man AI ausschaltet kann man, was das AA Level angeht, frei schalten und walten so wie das sein sollte.

Das AI in die AA Einstellungen reinfunkt kann ich bei Titeln wie Oblivion verstehen, wo ne Kompatibilitätsschaltung für HDR + AA nötig ist, aber ansonsten hat das imo an solchen Einstellungen nichts zu suchen. Wenn man ne bestimmte AA Stufe im Treiber einstellt sollte diese auch immer dargestellt werden. Aber das klappte irgendwie bei Nvidia auch besser.

derguru
2008-07-11, 12:51:11
Man könnte teilweise auch mal testen ob da das AI mit reinfunkt. Bei TF2 tuts das nicht, dass hab ich ausprobiert (da siehts immer gleich aus). Aber das AI stösst mir manchmal dann doch etwas sauer auf. Beispiel AA in WoW. Mit AI On gibts nur AA wenn man im Treiber Anwendungsgesteuert einstellt und im Spiel AA aktiviert, stellt man AA im Treiber ein gibts einfach garkeine Kantenglättung.
Erst wenn man AI ausschaltet kann man, was das AA Level angeht, frei schalten und walten so wie das sein sollte.

Das AI in die AA Einstellungen reinfunkt kann ich bei Titeln wie Oblivion verstehen, wo ne Kompatibilitätsschaltung für HDR + AA nötig ist, aber ansonsten hat das imo an solchen Einstellungen nichts zu suchen. Wenn man ne bestimmte AA Stufe im Treiber einstellt sollte diese auch immer dargestellt werden. Aber das klappte irgendwie bei Nvidia auch besser.

tja und die ein cf system haben gucken in die röhre:confused:
das ist ja das paradoxe da hat man schon 2 karten im cf und will mal ein bissel mehr AA erzwingen und das geht dann fast nur wenn man AI auschaltet bloß das dann kein cf funzt,also bei der 3er serie war es noch so und ich bezweifel das sich daran was geändert hat..:frown:

Aquaschaf
2008-07-11, 13:00:53
Über die AI-Politik von ATI könnte man sich IMO mal in einem Artikel auslassen. Wenn es einem nur um Performance geht oder einen Kompromiss aus Performance und BQ, dann ist es meistens ok. Bloß gibt's eben Szenarien in denen möglichst kompromisslose BQ wünschenswert und sinnvoll wäre.

betasilie
2008-07-11, 13:10:16
So, hier mal Oblivion mit einer 4870 und ASSAA:

http://img169.imageshack.us/img169/7277/oblivionati4xassaagr1.png


Etwas geschnitten, weil Imageshack nur Bilder unt 1,5MB zulässt.

The_Invisible
2008-07-11, 13:15:55
Über die AI-Politik von ATI könnte man sich IMO mal in einem Artikel auslassen. Wenn es einem nur um Performance geht oder einen Kompromiss aus Performance und BQ, dann ist es meistens ok. Bloß gibt's eben Szenarien in denen möglichst kompromisslose BQ wünschenswert und sinnvoll wäre.

über nv gäbe es wahrscheinlich schon lange nen artikel wenn der gt200 auf einmal schlechter filtern würde.

mfg

dildo4u
2008-07-11, 13:16:05
@betasilie
http://www.directupload.net/ png's bis 4mb ;)

L233
2008-07-11, 13:20:24
Wenn man ne bestimmte AA Stufe im Treiber einstellt sollte diese auch immer dargestellt werden. Aber das klappte irgendwie bei Nvidia auch besser.
Dazu kommt noch, dass man über die Kompatibilitätsflags bei nVidia eine Reihe von Spielen zum AA zwingen kann. Bei ATI geht das in einigen Fällen mit .exe-Umbenennung, aber hat eigentlich schon jemand eine Möglichkeit gefunden, AA auf ATI-Karten in EVE Online und Gothic 3 zu aktivieren? Bei nVdida geht das nämlich.

Blacksoul
2008-07-11, 13:34:51
über nv gäbe es wahrscheinlich schon lange nen artikel wenn der gt200 auf einmal schlechter filtern würde.

mfg


Der ATI-Flimmerartikel ist bereits in Arbeit.
Coda hat es schon bestätigt.


t.b.d

Iceman346
2008-07-11, 15:18:42
Ausschalten (also 'Anwendungseinstellungen'). Beim AF empfiehlt sich das übrigens auch (zumindest wars beim EATM so).

Ich wollts ja nicht glauben, aber es ist tatsächlich so:

http://666kb.com/i/b09xxi45stmatkjp1.jpg

Links mit 8xAA im Spiel eingestellt und im CCC AA auf Anwendungsgesteuert und rechts mit 8xAA + SSAAA Quality (oder was auch immer man da bekommt) über das CCC.
So langsam ärgerts mich immer mehr, dass ATi keine ordentlichen Spieleprofile hat. Das man für das eine Spiel AA übers Spiel erzwingen muss und für das andere Spiel im CCC und für das nächste AI Aus schalten muss etc. ist doch arg nervig.

Gast
2008-07-11, 15:21:31
Ich wollts ja nicht glauben, aber es ist tatsächlich so:

http://666kb.com/i/b09xxi45stmatkjp1.jpg

Links mit 8xAA im Spiel eingestellt und im CCC AA auf Anwendungsgesteuert und rechts mit 8xAA + SSAAA Quality über das CCC.
So langsam ärgerts mich immer mehr, dass ATi keine ordentlichen Spieleprofile hat. Das man für das eine Spiel AA übers Spiel erzwingen muss und für das andere Spiel im CCC und für das nächste AI Aus schalten muss etc. ist doch arg nervig.


Kannst dir ja mit den ATT Spieleprofile basteln. Außerdem ists eigentlich, bei jedem Spiel, was Ingame-AA/AF anbietet, ratsam die Settings auch ingame einzustellen.

D.h. AA/AF übers ControlPanel braucht man eigentlich nur bei Uraltspielen...

Iceman346
2008-07-11, 15:24:06
Das ATT läuft unter Vista 64 nicht. Sonst hätt ichs schon längst drauf ;)

Und in Spielen kann man normalerweise nur die üblichen MSAA Modi auswählen, teilweise sogar nur bis 4xAA beschränkt. Edge Detect kriegt man darüber garnicht.

Gast
2008-07-11, 15:24:31
Spielbarkeit von GT200 und RV770 in Crysis

http://www.pcgameshardware.de/aid,650880/Test/Benchmark/Spielbarkeit_von_GT200_und_RV770_in_Crysis/&page=1

mapel110
2008-07-11, 15:24:43
Mir ist bislang noch kein Spiel bekannt, dass Transparenz-AA-Einstellungen ingame anbietet.