Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX 460 1024MB gegen HD 6850


Unknown Soldier
2010-10-23, 08:46:28
Hallo zusammen :)
da ich mir in naher Zukunft eine der beiden Karten(also 460GTX (1gb) und HD 6850) kaufen werde und ich denke diese Frage öfter mal kommen wird wollte ich eine Umfrage erstellen.

Hier darf jeder seine eigene Meinung abgeben. Ich persönlich bin der Meinung man macht zu diesem Preis mit beiden Karten nichts Falsch.

Nun is die Frage an Euch: Ist euch PhysX den geringen Aufpreis wert? Wollt ihr mehr Frames und das flimmern stellt für euch kein Problem dar?
Einfach: was ist für Uuch das bessere Gesamtpaket? Wenn Ihr die Wahl hättet welche würdet ihr nehmen?

gern dürft ihr auch eure Gründe posten :).

Ich hoffe dass ich dazu im richtigen UnterForum bin und das ein schönes Ergebnis heraus kommt :)

Gruß Unso:smile:

Skinner
2010-10-23, 08:51:20
[x] Cuda ist mir wichtig. Deswegen kommt mir keine ATI (AMD) Karte mehr in den Rechner.

Ich geben dem Thread übrigens ca. 2 Seiten bis er zum Fan gebasche Ausartet.
AMD hat jedenfalls gute Arbeit abgeliefert, das man schon zugeben :)

puntarenas
2010-10-23, 08:53:13
Der Thread war im Kaufberatungsforum deplatziert und ich habe ihn entsprechend verschoben. Mal sehen, ob er im Grafikchips-Forum eine Zukunft hat.

Die Karte heißt übrigens korrekt "GTX 460", nicht umgekehrt. ;)

boxleitnerb
2010-10-23, 08:55:53
Wenn ich wählen müsste, klar die GTX 460.

Mehr für mich wichtige BQ-Features, super übertaktbar und ich sehe mich einfach als Enthusiast - somit kann mich AMD nicht bedienen.

Spasstiger
2010-10-23, 08:57:18
Von den beiden Alternativen ist die GTX 460 1024 MiB besser (geringfügig schneller, besseres AF). Kostet allerdings auch 20€ mehr als die HD 6850.
In ein HTPC-Gehäuse würde ich allerdings eher die HD 6850 packen, weil diese 30-40 Watt weniger an Wärme abgibt als die GTX 460 1024 MiB.

Spasstiger
2010-10-23, 09:00:25
super übertaktbar
Nimmt sich mit der HD 6850 aber nicht viel. Die HD 6850 bekommt man ohne Modding von 775 MHz auf 950 MHz hoch, die GTX 460 1024 MiB von 675 MHz auf 850 MHz.

/EDIT: Hab das mit den 950 MHz zumindest hier im Forum gelesen. In den Tests scheint irgendwie fast gar nix zu gehen bei der HD 6850, nur 830-850 MHz. Also deutlich weniger als der Standardtakt einer HD 6870.

urfaust
2010-10-23, 09:06:01
ich würde keine von beiden nehmen da beide Karten meinen Ansprüchen nicht gerecht werden

ChaosTM
2010-10-23, 09:25:09
Kommt darauf an.:
Reiner Spielerechner -> 460er dank der besseren Filterung und weniger Flimmern
HTPC/Misch-PC -> 6850er dank der besseren Videodarstellung auf großen TV- Schirmen und Projektoren (HQV.: Nvidia:147/210, AMD:204/210).

Am liebsten würde ich mir momentan beide Karten rein-stecken... ..nicht so wie Ihr Ferkel glaubt ;-)

edit.: unter Windows 7 sollte das ja sogar funktionieren - hmm

AnarchX
2010-10-23, 09:47:06
Für die HD 6850 spricht:

mit ~25€ DP-zu-DVI-Adapter mehr als zwei Displays nutzbar
höherer HQV-Score
1,5 TFLOPs Crunching-Power
Stromanschluss über nur 1x 6-Pin


Für die GTX 460 spricht:

echtes HQ-AF
reichhaltige SG-SSAA-Optionen
deutlich fortgeschrittenere Implementierung von 3D-Stereo (3D Vision)
PhysX
überlegene Tessellations-Implementierung
Nvidias Entwicklerbeziehungen
CUDA


Zum gleichen Preis würde ich da doch die GTX 460 vorziehen. Wäre die 6850 deutlich billiger (~50€ Unterschied), könnte es anders aussehen.

fondness
2010-10-23, 09:57:02
Der Vergelich ist unpassend. Die 6850 ist preislich ganz klar gegen die GTX460 768 plaziert, nicht gegen die 1024 Version.

Botcruscher
2010-10-23, 09:59:53
Der Vergelich ist unpassend. Die 6850 ist preislich ganz klar gegen die GTX460 768 plaziert, nicht gegen die 1024 Version.

Richtig. Außerdem fehlt noch etwas Zeit zur Marktangleichung. Insgesamt nehmen sich beide nicht viel und der Preis ist heiß. Ich hingegen will mehr.

Undertaker
2010-10-23, 10:07:06
Also momentan kostet (jeweils günstigste Modelle) die HD6850 2€ mehr als die GTX460 1GiB, die HD6870 8€ weniger als die GTX470. Auch wenn die Preise so kurz nach dem Launch noch sinken sollten besteht die Frage, ob Nvidia da nicht mitzieht.
Zu den Vor- und Nachteilen wurde das Meiste ja bereits gesagt, in meinen Augen noch zu erwähnen wäre der geringere idle und BR-Verbrauch der GTX460, der z.B. für mein Nutzungsszenario den Verbrauchsnachteil unter Last mehr als kompensiert.

Ernie
2010-10-23, 10:18:06
Hmmm, wo gibt es denn eine gtx 460 1GB für <155,- €, hab hier eine AMD 6850 für 155,- € beim Händler um die Ecke.

Selle
2010-10-23, 10:19:00
Die Videoscore und der Stromverbrauch sind zwar recht interessant, allerdings würde ich die nVidia bevorzugen da ich schon Jahre sehr zufrieden darauf fahre. Das Gesamtpaket gefällt mir einfach besser.

[X] 460 GTX mit 1024MB VRam

AnarchX
2010-10-23, 10:19:34
Die beliebte Gigabyte OC gibt es für 158€ inkl. Vorkasse: http://geizhals.at/deutschland/?a=548277&plz=&t=v&va=b&vl=de&v=k#filterform

fondness
2010-10-23, 10:23:44
Auch wenn die Preise so kurz nach dem Launch noch sinken sollten besteht die Frage, ob Nvidia da nicht mitzieht.


Das ist so eine richtige Wischiwaschi-Aussage die man immer bringen kann. Wenn NV wirklich nochmal mit den Preisen runter gehen sollte warum genau sollte dann AMD nicht mitziehen? Sie haben ein Die mit der Größe eines GF106 und die billigere Stromversorgung dank weniger max. Verbrauch.

AMD kann diese Karten sehr konkurrenzfähig plazieren und wird davon mit Sicherheit auch gebrauch machen. Die Karte ist laut AMD preislich gegen die GTX460 768 plaziert und da wird sie sich bei ausreichender Verfügbarkeit auch einordnen, für die GTS450 reicht ja schon die 5770. Einzige Voraussetzung ist das man endlich genügend Wafer bekommt.

Popeljoe
2010-10-23, 10:28:39
Da die GTX 460@1GB innerhalb der letzten 2 Monate um fast 35€ gefallen ist, wird AMD nicht viel übrig bleiben, als ebenfalls die Preise weiter zu senken.
Einen Preis-Leistungsvergleich zwei Tage nach dem Launch anzustellen haut nicht hin.
Das wird sich erst in den nächsten Wochen regulieren.

http://geizhals.at/deutschland/a582184.html die vergleichbare 6850 von Gigabyte liegt bei 165€, aber so kurz nach dem Launch ist die Verfügbarkeit kaum gegeben, wenn das erfolgt ist, wird auch der Preis der 6850 von Gigabyte runtergehen.

Schrotti
2010-10-23, 10:29:30
Bei dem was ich hier gelesen habe bezüglich der AF Filter ganz klar die GTX 460.

AnarchX
2010-10-23, 10:30:58
AMD kann diese Karten sehr konkurrenzfähig plazieren und wird davon mit Sicherheit auch gebrauch machen. Einzige Voraussetzung ist das man endlich genügend Wafer bekommt.
Hoffentlich.
Immerhin reden wir bei der HD 6850 über teildeaktiverte 1,7 Mrd. Transistoren, auf einem 6-Layer-PCB mit Low-End-GDDR5. Da sollten eigentlich eher 100€ statt 150€ anpeilbar sein.

ChaosTM
2010-10-23, 10:34:33
Hoffentlich.
Immerhin reden wir bei der HD 6850 über teildeaktiverte 1,7 Mrd. Transistoren, auf einem 6-Layer-PCB mit Low-End-GDDR5. Da sollten eigentlich eher 100€ statt 150€ anpeilbar sein.

Ich rechne mittelfristig (in 2-3 Monaten) auch mit einem Preis nahe der Hunderter - Marke.
AMD hat auf Grund der wahrscheinlich günstigeren Herstellungskosten mehr Raum nach unten, um Nvidia etwas das Wasser abzugraben und dabei immer noch gutes Geld zu verdienen.

Uns kann das nur recht sein..

Popeljoe
2010-10-23, 10:39:56
Ich rechne mittelfristig (in 2-3 Monaten) auch mit einem Preis nahe der Hunderter - Marke.
Jupp: wenn die Weihnachtstage durch sind! ;)

tombman
2010-10-23, 10:43:00
Für richtig anspruchsvolle Sachen sind eh beide zu langsam, aber NV hat Phys-X, weniger bis kein Flimmern und die besseren dev-rels. Am Ende wird NV weniger nerven und immer alle Details zeigen, was die 460er zur Siegerin macht ;)

Chamos
2010-10-23, 10:45:38
Beides nette Karten, da mich Cuda nicht interessiert würde ich aber wohl eher zur AMD greifen.

(del)
2010-10-23, 10:52:13
in meinen Augen noch zu erwähnen wäre der geringere idle und BR-Verbrauch der GTX460Was soll die 460 im idle ziehen? Das ist eine der wenigen Karten bei welchen kein Idle in der Beschreibung (Geizhals) steht.

Im Gegensatz zu dem anderen Bullshit gefällt mir MLAA. Von dem was ich bis jetzt gesehen habe macht das die Darstellung irgendwie realer.

Undertaker
2010-10-23, 10:57:57
~15W sind es idle (Messungen HT4U).

Spasstiger
2010-10-23, 11:24:10
Hätte nicht gedacht, dass die HD 6850 in der Umfrage in Führung gehen würde. Offenbar haben die Review-Samples mit 1120 SPs von Sapphire einen falschen Eindruck hinterlassen. Die HD 6850 ist lediglich der "kleinen" GTX 460 mit 768 MiB Grafikspeicher vorzuziehen. Dort wird die HD 6850 auch preislich platziert.

Eggcake
2010-10-23, 12:04:00
GTX460 wär's bei mir, bei ähnlichem Preis (bis + 20€). Hauptgrund ist das nach wie vor vorhandene Flimmer AF.

Explizit aufgefallen ist es mir bei der 5850 nicht, da ich keine Vergleiche habe und einige Games von Natur aus Flimmerorgien sind. Aber eins steht fest: Flimmern ist wohl das nervigste was man haben kann. Je weniger desto besser.
Wenn das gefixt wird...oder anders: sobald ATI AF = NV AF wäre die 6850 für mich Sieger.

Unknown Soldier
2010-10-23, 12:07:58
Wieso ist die GTX 460 mit 1gb nicht mit der HD 6850 zu vergleichen? Vielleicht wars sie als Konkurrenz zur "kleinen" 460er gedacht aber so wie es aussieht laut den Tsts, performt sie doch ähnlich wie die "große" 460 und da das Modell von Gigabyte ca 156€ zz kostet sind sie ja auch durchaus preislich zu vergleichen, oder bin ich da auf dem Holzweg?

Spasstiger
2010-10-23, 12:15:31
Die HD 6850 landet nur in den Tests auf dem Niveau der GTX 460 1024 MiB, in denen mit 1120 SPs statt 960 SPs getestet wurde. Die Karte, die der Spezifikation entspricht, ist ungefähr 5% langsamer als in diesen Tests.
Die prinzipielle Chance, eine HD 6850 mit 1120 funktionierenden SPs erwischen zu können, ist natürlich wieder etwas, was für die HD 6850 spricht. Aber das ist halt keine garantierte Produkteigenschaft.

Gorkon
2010-10-23, 12:20:13
Für die GTX 460 spricht:

echtes HQ-AF
reichhaltige SG-SSAA-Optionen
...
CUDA




[x] +1

Wie es schon Manni hier gesagt hat: Leistung = Bildqualität * Bildquantität. Und aktuell sieht es da bei AMD einfach mau aus. Genug Power hat die HW ja, warum trotzdem wieder 1 Schritt vor und 2 zurück...das wissen die wohl nur selber :frown: Sollte sich AMD diesem Problem endlich mal bei SI widmen und auch ihre Treiber-API für Entwickler offenlegen ("AMDInspector" ;)) könnte ich mir einen IHV-Wechsel wieder überlegen. Solange hat NV für mich das bessere Gesamtpaket...

mfg

Spasstiger
2010-10-23, 12:25:19
Genug Power hat die HW ja, warum trotzdem wieder 1 Schritt vor und 2 zurück...
Bei der max. Qualitätsstufe gab schon einen Schritt nach vorne. NV war mit HQ aber zwei Schritte entfernt.
Und Treiberdefault ist bei NV auch nicht optimal, Stichwort Bugwellen.

Mancko
2010-10-23, 12:27:09
Das ist so eine richtige Wischiwaschi-Aussage die man immer bringen kann. Wenn NV wirklich nochmal mit den Preisen runter gehen sollte warum genau sollte dann AMD nicht mitziehen? Sie haben ein Die mit der Größe eines GF106 und die billigere Stromversorgung dank weniger max. Verbrauch.

AMD kann diese Karten sehr konkurrenzfähig plazieren und wird davon mit Sicherheit auch gebrauch machen. Die Karte ist laut AMD preislich gegen die GTX460 768 plaziert und da wird sie sich bei ausreichender Verfügbarkeit auch einordnen, für die GTS450 reicht ja schon die 5770. Einzige Voraussetzung ist das man endlich genügend Wafer bekommt.

Und Nvidia kann auf der anderen Seite dank hoher Einnahmen im professionellen Segment die Preise dumpen. Und nun? Nvidia hat momentan ein Ziel und das ist so viel wie möglich Marktanteile holen. Die werden jeden Preiskampf mitgehen und können sich das auch leissten. Wie gesagt.. höhere Einnahmen im professionellen Segment und Jahrelang ordentlich Geld verdient anders als AMD.
Im Endeffekt wird man als Käufer auf Geizhals gehen und die Preise vergleichen. Das was zu dem Zeitpunkt dann vorhanden ist zählt und nicht irgendwelche Hypothesen.
Aktuell heisst das, dass Nvidia den Launch zerstört hat dank der Preissenkungen bei der 460 und 470 und deshalb momentan die Nase vorn hat.
Ob das in paar Monaten noch so ist - k.a. Das ist aber für jemanden der jetzt an einem Kauf interessiert ist auch total irrelevant.

Und zum eigentlichen Thema:
In jedem Fall 460 1GB, 460 OC oder 470, da Du hier keine Abstriche machen musst und das bessere Gesamtpaket bekommst. Ich persönlich würde letztere Nehmen bevor sich Nvidia es noch anders überlegt und die 470 auslaufen lässt, weil einfach mehr Power da ist vor allem im Hinblick auf DX11 und sich OC bei der 470 1:1 in Leisung umsetzt. Das ist zwar für Nvidia dann finanziell nicht so prickelnd aber das kann dem Käufer egal sein.

fizzo
2010-10-23, 12:47:37
[x] HD 6850

Aus folgenden Gründen habe ich mich für die Sapphir entschieden:

* Preis € 149,90 (http://geizhals.at/a582182.html) - vergleichbare GTX 460er sind in Österreich ~ 10% teurer
* Option auf 1120 Shader-Alu bzw. Biosflash
* Stromverbrauch unter Last
* 1 x 6Pin Stecker (da am Netzteil nur 16A/12V anliegen)

V2.0
2010-10-23, 12:56:23
460 - weil ich echtes HQ AF wünsche

Didi Bouzul
2010-10-23, 13:00:20
Das mit dem Biosflash wird sich zeigen. Ich habe eine Karte von Sapphire bestellt, sie müsste am Montag ankommen. Wo bekomme ich am besten das Bios der Testsamples? Ich werde über Erfolg oder Misserfolg berichten.

Unknown Soldier
2010-10-23, 13:14:02
im Update-Test von Computerbase ist die HD 6850 laut Fazit aber immer noch 1-10% schneller als die große GTX460. Also meiner Meinung als möglicher Käufer nach, stehn die 2 sich direkt gegenüber.http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/22/#abschnitt_ratings
eine HD 6870 kämpft eher gegen eine 460 @800mhz und eine 470 oder nicht???

Spasstiger
2010-10-23, 13:35:21
Das mit dem Biosflash wird sich zeigen. Ich habe eine Karte von Sapphire bestellt, sie müsste am Montag ankommen. Wo bekomme ich am besten das Bios der Testsamples? Ich werde über Erfolg oder Misserfolg berichten.
Ich hoffe, du hast noch eine PCI-Graka rumliegen oder einen zweiten PCIe-Slot samt PCIe-Graka, mit der du die HD 6850 im Fall der Fälle wieder retten kannst.
Wenn ein Barts Pro auf der Karte drauf ist wie von AMD vorgesehen, dann wurde wahrscheinlich auch ein Lasercut vorgenommen und dann wird das Bios-Update schiefgehen.

PulsarS
2010-10-23, 13:37:18
[x] leichter Vorteil für die GTX 460

Wobei ich den Zeitpunkt für eine Umfrage oder einen Kauf für sehr ungünstig halte.
Mann sollte ein paar Wochen warten, damit sich die Preise einpendeln.
Ich denke erst so in einem Monat kann man die Situation viel besser beurteilen.

im Update-Test von Computerbase ist die HD 6850 laut Fazit aber immer noch 1-10% schneller als die große GTX460. Also meiner Meinung als möglicher Käufer nach, stehn die 2 sich direkt gegenüber.http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/22/#abschnitt_ratings
eine HD 6870 kämpft eher gegen eine 460 @800mhz und eine 470 oder nicht???
Dürfte in etwa stimmen.
Die 5% hin oder her machen kaum einen Unterschied.

edit:
Ist schon erstaunlich, dass sich die 6850 so gut bei der Umfrage schlägt. Hätte ich bei dem Preis im Vergleich zur GTX 460 1 GB nicht gedacht...

Raff
2010-10-23, 13:41:25
[x] leichter Vorteil für die GTX 460

Jo. Leise Designs gibt's von beiden (schon jetzt). Für die Radeon sprechen ihre bessere Energieeffizienz und das neue MLAA. Die GTX 460 lässt sich prozentual besser übertakten, liefert das bessere AF, SGSSAA in allen APIs und CUDA/PhysX. Das reicht IMO, um ihr den Vorzug zu geben.

MfG,
Raff

LovesuckZ
2010-10-23, 13:58:48
Nach dem Barts Launch und der jüngsten Vergangenheit kann ich nur sagen: Man kauft nicht nur ein Produkt, sondern man kauft ein Produkt von einer Firma. Und dies sollte ebenfalls bei der Kaufentscheidung miteingebezogen werden.

Ansonsten muss jeder die Vor- und Nachteile der einzelnen Karten selbst abwegen.

Jo. Leise Designs gibt's von beiden (schon jetzt). Für die Radeon sprechen ihre bessere Energieeffizienz und das neue MLAA. Die GTX 460 lässt sich prozentual besser übertakten, liefert das bessere AF, SGSSAA in allen APIs und CUDA/PhysX. Das reicht IMO, um ihr den Vorzug zu geben.

MfG,
Raff

Dazu Anmerkungen: Wenn Energieeffizienz, dann muss auch der Verbrauch bei Wiedergabe von HD-Content berücksichtig werden. Und hier benötigen die GTX460 Karten nur die Hälfte von AMD.
Auch muss beachtet werden, dann man bei AMD wesentlich mehr Arbeit verrichten muss, um eine HQ ähnliche Filterung zu erreichen. Mehr Arbeit heißt weniger Frames trotz höhrerer Auslastung, höhrerer Verbrauch und somit schlechtere Effizienz zu Q bzw. sogar schlechter zur GTX460.

Alexander
2010-10-23, 16:03:51
im Update-Test von Computerbase ist die HD 6850 laut Fazit aber immer noch 1-10% schneller als die große GTX460. Also meiner Meinung als möglicher Käufer nach, stehn die 2 sich direkt gegenüber.http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/22/#abschnitt_ratings

Bedenke bitte, dass die meisten 460er ab Werk übertaktet sind und damit ~5% schneller sind als das Referenzmodell. Dadurch sind die 6850 und die 460 ~ gleich schnell.


Gestern hätte ich sofort für die 460er abgestimmt. Heute bin ich unentschlossen. Gestern überwog bei mir wohl die Enttäuschung wegen den Spielchen (Verschlechterung der BQ, unpassende Namen etc.)

LovesuckZ
2010-10-23, 16:10:53
Der Test von Computerbase.de berücksichtig immer noch nicht die aktuellen Treiber von nVidia und Cypress, sowie verwendet falsche Einstellungen bei Barts (Q statt HQ).
Wenn man sich jetzt das Ergebnis ansieht (4% schneller in 1080p mit 4AA/16AF), dann wird Barts bei einem fairen Vergleich gleichschnell bis langsamer sein.

BlackBirdSR
2010-10-23, 16:22:20
Interessant ist, dass AMD absichtlich die Enthusiasten verärgert, damit aber wahrscheinlich bei den weniger versierten Leuten einen Volltreffer landet.

Eventuell hofft man, die Enthusiasten mit Cayman wieder ins Boot zu bekommen. Dann hätte ich aber den zu erst gebracht!

So oder so:
Da durch AMD die Nvidia Preise ebenfalls stark fallen, scheint wohl die GTX460 (OC) die bessere Wahl. Wobei es erschreckend ist, dass das einzig zu empfehlende Nvidia Produkt eine Midrange-Karte ist und AMD sich derweil selbst in den Fuß schießt.

Irgendwas läuft hier bei beiden komplett falsch!

klein
2010-10-23, 16:23:56
Interessant ist die D3D 11-Leistung. Unter D3D 9 ist die HD 6850 @ 1920er Auflösung 11 % schneller als die GTX 460 1 GB. Unter D3D 10 12 %. Und unter D3D 11 nur noch 3 %. Knapp 10 Prozentpunkte rückt die GTX 460 damit näher an die HD 6850 unter D3D 11. Dabei verspricht nVidia im 260.89 WHQL sogar nochmal Leistungszuwächse bei den D3D 11-Titeln Battlefield Bad Company 2, S.T.A.L.K.E.R.: Call of Pripyat, Metro 2033 und Dirt 2, also in 4 von 5 mit Uralttreibern getesteten Spielen bei Computerbase. Für mich spricht so ziemlich 0 für die HD 6850, außer die Leistungsaufnahme.

http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/23/#abschnitt_performancerating_nach_api

Unknown Soldier
2010-10-23, 16:27:39
Wobei ich den Zeitpunkt für eine Umfrage oder einen Kauf für sehr ungünstig halte.
Mann sollte ein paar Wochen warten, damit sich die Preise einpendeln.
Ich denke erst so in einem Monat kann man die Situation viel besser beurteilen.

glaubst du dass NVidia wirklich seine Preise nochmal anpasst? Also eine GTX460 ich nehme jetzt einfach einmal die beliebte Version von Gigabyte heraus, ist ja für ~210€ auf den Markt gekommen und kostet nun ca. 155€, warum sollte man sie noch weiter im Preis senken?
wenn LS recht hat mit den Treibern, dürften die beiden Karten fast gleichauf liegen, und wie immer bei NVidia und AMD(ATI) gefallen die Karten in verschiedenen Spielen jeweils besser und schlechter.
Also haben wir 2 gleichschnelle Karten. AMD hat mit 150€ schon einen Hammerpreis vorgegeben, der wohl auch in nächster Zeit nicht weiter sinken dürfte da ja die ehemalige HD 5770 das Preissegment um 100€ abdeckt. Nvidia hat zum Launch die Karten schonmal kräftig im Preis sinken lassen und es gibt nun auch schon GTX460 Modelle für 150€.
Also habe ich 2 Karten die durchaus vergleichbar in der Leistung und im Preis sind.
So muss der geneigte Käufer nun die restlichen Features für sich abwägen und wird in beiden Fällen wohl eine gute Karte bekommen:).

hmx
2010-10-23, 16:32:59
Interessant ist die D3D 11-Leistung. Unter D3D 9 ist die HD 6850 @ 1920er Auflösung 11 % schneller als die GTX 460 1 GB. Unter D3D 10 12 %. Und unter D3D 11 nur noch 3 %. Knapp 10 Prozentpunkte rückt die GTX 460 damit näher an die HD 6850 unter D3D 11. Dabei verspricht nVidia im 260.89 WHQL sogar nochmal Leistungszuwächse bei den D3D 11-Titeln Battlefield Bad Company 2, S.T.A.L.K.E.R.: Call of Pripyat, Metro 2033 und Dirt 2, also in 4 von 5 mit Uralttreibern getesteten Spielen bei Computerbase. Für mich spricht so ziemlich 0 für die HD 6850, außer die Leistungsaufnahme.

http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/23/#abschnitt_performancerating_nach_api

Man muss zudem auch noch bedenken, dass bei den DX9/10 Titeln nicht mehr nach AA differenziert wurde.

klein
2010-10-23, 16:38:31
Dabei verspricht nVidia im 260.89 WHQL sogar nochmal Leistungszuwächse bei den D3D 11-Titeln Battlefield Bad Company 2, S.T.A.L.K.E.R.: Call of Pripyat, Metro 2033 und Dirt 2, also in 4 von 5 mit Uralttreibern getesteten Spielen bei Computerbase.

Hier auch nochmal mit Zahlen belegt von HT4U:

258.80 (CB-Treiber) vs. 260.52:

S.T.A.L.K.E.R.: Call of Pripyat + 8 % @ GTX 460 1 GB @ 1920 x 1200 + 4x MSAA / 16x AF (http://ht4u.net/reviews/2010/nvidia_geforce_treiber_version_260/index12.php)

Dirt 2 + 10 % @ GTX 460 1 GB @ 1680 x 1050 + 4x MSAA / 16x AF (http://ht4u.net/reviews/2010/nvidia_geforce_treiber_version_260/index8.php)

Anno 1404 + 6 % @ GTX 460 1 GB @ 1920 x 1200 + 1x MSAA / 1x AF (http://ht4u.net/reviews/2010/nvidia_geforce_treiber_version_260/index3.php)

Eggcake
2010-10-23, 16:52:01
Das sind jetzt aber auch nur die Maximalwerte. Anno legt z.B. nur in 1920er Auflösung zu, 1680er bleiben alle gleich. Bei Dirt 2 verliert man sogar in 1920er, dafür ist 1680er wieder besser.

Im grossen und Ganzen sicherlich eine Zunahme, keine Frage.

LovesuckZ
2010-10-23, 16:55:29
Für die HD 6850 spricht:

mit ~25€ DP-zu-DVI-Adapter mehr als zwei Displays nutzbar



Dafür unterstützt Barts nur noch bei einem DVI Anschluss Dual-Link: http://forum.beyond3d.com/showpost.php?p=1485760&postcount=19

PulsarS
2010-10-23, 17:46:06
glaubst du dass NVidia wirklich seine Preise nochmal anpasst?
Also zuerst denke ich, dass AMD mit dem Preis runter gehen wird, da zur Zeit die GTX 460 doch in fast allen Bereichen minimal besser ist. Bei ähnlichen Preisen dürfte die GTX 460 gefragter sein.
Dann kommt es noch drauf an, wie AMD die Karten positiionieren will.
Sie wären schlau, wenn sie die 6850 preislich gegen die GTX 460 768 stellen würden und das müsste kostentechnisch auch gehen.
Ob NV da noch nachzieht, ist schwierig zu beantworten, aber wenn sich AMD preislich zu weit entfernen sollte, haben sie keine andere Wahl.

Mancko
2010-10-23, 17:51:54
Also zuerst denke ich, dass AMD mit dem Preis runter gehen wird, da zur Zeit die GTX 460 doch in fast allen Bereichen minimal besser ist. Bei ähnlichen Preisen dürfte die GTX 460 gefragter sein.
Dann kommt es noch drauf an, wie AMD die Karten positiionieren will.
Sie wären schlau, wenn sie die 6850 preislich gegen die GTX 460 768 stellen würden und das müsste kostentechnisch auch gehen.
Ob NV da noch nachzieht, ist schwierig zu beantworten, aber wenn sich AMD preislich zu weit entfernen sollte, haben sie keine andere Wahl.

Da Nvidia nach wie vor ungestört die gleichen Produkte zu Preisen von 4.000 Euro und aufwärts verkaufen kann, werden sie wohl keine Probleme haben mitzugehen.

ChaosTM
2010-10-23, 17:59:26
Dafür unterstützt Barts nur noch bei einem DVI Anschluss Dual-Link: http://forum.beyond3d.com/showpost.php?p=1485760&postcount=19

Man kann aber am Display Port, mittels günstigem passiv-Adapter, einen 2. 30er Monitor betreiben.
Insgesamt als 2x30 und 1x1920/1200(1080). Das sollte selbst für Hardcore User ausreichend sein.

edit.: theoretisch sollten 2x30 und 2x 1920/1xxx gehen.

uweskw
2010-10-23, 18:26:32
Bin bisher treuer ATI Kunde
Mir hat bisher die Firmenpolitik von AMD/ATI immer besser gefallen als das rücksichtslose Geschäftsgebaren von NV.
Da sich AMD jetzt mit der Namensgebung genau so schäbig verhält und sogar noch eins draufgesetzt hat (6850 langsamer! als 5850) haben sie bei mir ihren Bonus verspielt.
Eigentlich wollte ich von meiner 4850 auf eine 6870 aufrüsten. Also ne neue ATI, Preislage 200€.
Wenn sich die Berichterstattung über die Bildqualität bestätigt wirds allerdings ne 460 1GB. Auch wenn ich beim Zocken wahrscheinlich keinen Unterschied bemerken werde, einfach zu wissen ich hab für den gleichen Preis ne bessere Bildqualität ist irgendwie beruhigend.

Greetz
U.S.
edit:
mein No-name Netzteil hat die 4850 auch mit deutlichem OC problemlos verkraftet, sollte eine GTX 460 dann auch laufen, was meint ihr?

AnarchX
2010-10-23, 18:33:40
Man kann aber am Display Port, mittels günstigem passiv-Adapter, einen 2. 30er Monitor betreiben.

Der ~25€ Adapter hat aber nur Single-Link DVI.

ChaosTM
2010-10-23, 18:50:09
Der ~25€ Adapter hat aber nur Single-Link DVI.

Display Port kann bis zu 3840 × 2160 × 30 bpp @ 60 Hz -
Passende Adapter auf Dual Link DVI sind sicher zu kriegen.

Didi Bouzul
2010-10-23, 19:09:31
Falls sich die zusätlichen Shader freischalten lassen sollten und ein Performancezuwachs zwischen 5% und 10% gegeben wäre, würde ich die ATI Karte vorziehen. Es ist das Zünglein an der Waage. Ansonsten finde ich die GTX 460 1gb attraktiver. Ich denke diese Meinung dürften viele nicht-Fanboys mit mir teilen.

mironicus
2010-10-23, 19:26:35
Die neuen Karten scheinen sehr beliebt zu sein, wenn man auf die aktuellen Geizhals-Charts schaut. 7xAMD und 3xNVidia.

Wenn erst mal die Custom Design-6870 erscheinen wird das noch interessanter.

LovesuckZ
2010-10-23, 19:28:54
Die neuen Karten scheinen sehr beliebt zu sein, wenn man auf die aktuellen Geizhals-Charts schaut. 7xAMD und 3xNVidia.

Hatten wir schonmal: Am Anfang verteilen sich die Klick across auf alle Boards. Nach einer Zeit wird nur noch die ein oder andere Karte überdeutlich angeklickt.
Z.B. nimmt die Gigabyte GTX460 nach der Preissenkung den Topspot alle Produkte bei Geizhals ein. Und bei Alternate ist sie die zweite Grafikkarte nach der 6870 von Sapphire.

Es kann also sein, dass von der Gigabyte eben eine sehr hohe Anzahl verkauft wird, die sich bei AMD auf zZ mehreren Barts Karten erstreckt.

mironicus
2010-10-23, 19:37:52
Z.B. nimmt die Gigabyte GTX460 nach der Preissenkung den Topspot alle Produkte bei Geizhals ein.

Das wird sich wohl bald schon ändern, dann nimmt dieses Modell ihren Platz ein. :D
http://geizhals.at/deutschland/a582184.html

ChaosTM
2010-10-23, 19:40:28
Viele haben den Launch abgewartet, um eine Entscheidung zu treffen und da die Karten in etwa gleichwertig sind werden, werden sich beide blendend verkaufen.
Die Fanboy`s sind sowieso bestens bedient und die anderen entscheiden je nach bevorzugtem Einsatzzweck.

Soviel Leistung für relativ wenig Geld gab es imho noch nie -> Win-Win!

Alexander
2010-10-23, 19:48:07
Das wird sich wohl bald schon ändern, dann nimmt dieses Modell ihren Platz ein. :D
http://geizhals.at/deutschland/a582184.html
Keine Begründung --> Fanboy

hq-hq
2010-10-23, 19:49:43
ich glaub der möchte als fanboy einfach ne custom lösung unterm weihnachtsbaum haben ;)

ich würd mir vermutlich ne günstige gtx460 1024mb holen und versuchen auf 825mhz gpu takt zu kommen...
aber zum glück kann ich auf den cayman und den gf110 paperlaunch warten

DrFreaK666
2010-10-23, 19:59:23
[x] GTX460 da SGSSAA unter DX9/DX10/DX11 und schöneres AF

Didi Bouzul
2010-10-23, 20:08:41
Mich würde mal interessieren, welche Ergebnisse ein Blindtest bezüglich der Bildqualität ergeben würde. Ich bin mir ziemlich sicher, dass die Fanboys keinen Unterschied feststellen könnten und wenn doch, nicht entscheiden könnten, welches nun das schönere Bild ist. Wurde sowas schonmal ausprobiert?

mironicus
2010-10-23, 20:09:29
Keine Begründung --> Fanboy

+ schnellste derzeit erhältliche Grafikkarte mit nur *einem* zusätzlichen Stromanschluss
+ Gigabyte-Design wahrscheinlich sehr leise, daher prima für einen Silent-PC
+ ein klein wenig schneller als eine GTX 460 1GB, 30-40 Watt weniger unter Last
+ mehr/bessere Video-Features und höhere Bildqualität bei Videos, optimal für HTPCs

Die Karte bietet mehr das, worauf ich persönlich Wert lege. CUDA, Physx, Vision 3D ist nichts was ich bräuchte oder nutzen würde. Das gleiche gilt auch für Eyefinity und HDMI 1.4.

Vento
2010-10-23, 20:13:50
Für die GTX 460 spricht:

echtes HQ-AF
reichhaltige SG-SSAA-Optionen
deutlich fortgeschrittenere Implementierung von 3D-Stereo (3D Vision)
PhysX
überlegene Tessellations-Implementierung
Nvidias Entwicklerbeziehungen
CUDA


Würde noch Downsampling @ DX9/Win7 anfügen, was ich in dieser Leistungsklasse als deutlich größeren Pluspunkt ansehe im Vergleich zu SGSSAA @ DX10/DX11, SGSAA @ DX10/DX11 ist in erster Linie ein Pluspunkt wenn man SLI versus Crossfire betrachtet, eine Single GTX460 dürfte zu schlapp sein um davon wirklich in der Praxis zu profitieren.
Moderates Downsampling ist bei vielen Titeln schon enorm effektiv und bei vielen DX9 Spielen auch problemlos realisierbar mit einer GTX460 OC.

Von daher würde ich eine GTX460 1GB, wie z.B. die Gigabyte GeForce GTX 460 OC, einer HD6850 bei den aktuellen Preisen klar vorziehen.

In höheren Leistungsklassen würde ich die Vorteile bei den Features noch etwas höher gewichten und bei Multi-GPU Set-Up's der Sorte GTX 470/480 SLI würde ich derzeit unabhängig vom Preis zu Nvidia greifen.

V2.0
2010-10-23, 20:26:24
Mich würde mal interessieren, welche Ergebnisse ein Blindtest bezüglich der Bildqualität ergeben würde. Ich bin mir ziemlich sicher, dass die Fanboys keinen Unterschied feststellen könnten und wenn doch, nicht entscheiden könnten, welches nun das schönere Bild ist. Wurde sowas schonmal ausprobiert?


Ich habe es mal mit Arbeitskollegen ausprobiert und in der Tat sehen die wenigsten einen Unterschied, bzw. bewerten AI Standard auf einer 5850/5770 als schlechter als HQ-AF auf der 460.
Wobei sie das Flimmern durchaus bemerken, allerdings meist erst in Situation bei denen die 460 auch schon flimmert, da der Content einfach extrem mies ist.
Aber wer sich hier in einem solchen Forum aktiv ist, muss mehr verlangen. Er muss verlangen, dass der alte Standard einem nicht als neues HQ verkauft wird und der Treiberstandard im Rahmen der sogenannten Verbesserung der BQ abgesenkt wird.

Und um es klar zu sagen ich mag AMD lieber als NV, aber das ist eine Aktion die stinkt und da gibt es keine Entschuldigung.

pest
2010-10-23, 20:30:32
Das mit dem Blindtest haben wir doch vor einiger Zeit schon gemacht und das Resultat war dass es einen signifikanten* Unterschied zwischen NV@HQ und A.I.@default gab, wobei nicht ganz auszuschließen ist das die Bewertungsgrundlage hier und da an Engine-Inkompatibilitäten lag.

*mathematisch ;)

urbi
2010-10-23, 20:30:50
Wenn man unter ~180€ bleiben will: IMO recht deutlich GTX 460. Bei ~200€ finde ich die 6870 schöner, weil die GTX 470 im Referenzdesign etwas laut und stromhungrig ist.

IMO ist die GTX 460 für Radeon-Nutzer doch die Möglichkeit umzusteigen (wenn einem die Leistung reicht). Ich selbst hatte seit der Ur-Radeon nur Radeons im Hauptrechner, lediglich bei Notebooks und bei meinem jeweiligen Zweitrechner hatte ich mehrfach auch NVIDIA-Karten. Ich hatte bis zuletzt auch sehr selten Probleme mit den oft als schlecht verschrieenen Treibern, habe z.B. auch NFS Shift und GTA IV bei Release flüssig gespielt. Mit der Geforce bin ich aber (mindestens genau so) zufrieden.

Wenn euch der Wechsel (wie mich auch) Überwindung kostet:
Haltet euch die "AMD-Schweine" ATI umgebracht haben. :freak:

klein
2010-10-23, 21:30:22
+ ein klein wenig schneller als eine GTX 460 1GB, 30-40 Watt weniger unter Last

Wo hast du die 30 - 40 Watt her? Ht4U misst (und die messen sehr penibel) 113 Watt für die HD 6850 und 117 Watt für die MSI GTX 460 1 GB Cylcone OC bei Spielen.

http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index19.php

fizzo
2010-10-23, 22:25:48
Wo hast du die 30 - 40 Watt her?

Von PCGH (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=2), CB (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/26/#abschnitt_leistungsaufnahme), Anandtech (http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market/20) oder Hexus (http://www.hexus.net/content/item.php?item=27053&page=15).....aber das wusstest du sicher bereits....

Hugo78
2010-10-23, 22:36:57
40W sind es nicht, eher 20-30W je nach Serienstreuung, und wenn man sich das hochrechnet aufs Jahr, und man nicht nur zockt, dann gleicht die 460 ihren höheren Lastverbrauch, mit ihrem niedrigerem Idle und BluRay Verbrauch wieder aus.

Bei Dauerzockern schauts natürlich anders aus, aber wir reden selbst hier von 10€ oder was?!... mehr ist es doch nicht im Jahr.
Ich hatte mich dazu schonmal ausgelassen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8335168#post8335168

mironicus
2010-10-23, 22:44:10
Ein besonders gutes Testmuster? Eine GTX 460 mit 1 GB verbraucht bei fast allen Testseiten etwas mehr als eine 5850 bzw. etwas weniger als eine 5870. Die Messwerte sind aber auch bei den 6850 und 6870 teilweise sehr unterschiedlich (liegt wohl auch an den Testmustern).

Schaut mal in welchem Licht hier die 6870 erscheint:
http://www.tomshardware.de/Radeon-HD-6870-6850,testberichte-240657-19.html

Die 6870 verbraucht hier nur 26 Watt mehr als eine 5770.
Die GTX 460 verbraucht 30 Watt mehr als die 6870 und 10 Watt weniger als die 5870. Der Abstand zwischen GTX 460 und 5870 entspricht der Angabe bei Computerbase.

Alexander
2010-10-23, 22:57:37
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8335168#post8335168
Schön geschrieben. Das es keine sachlichen Antworten darauf gab war jedoch zu erwarten.

hmx
2010-10-23, 23:03:12
Ein besonders gutes Testmuster? Eine GTX 460 mit 1 GB verbraucht bei fast allen Testseiten etwas mehr als eine 5850 bzw. etwas weniger als eine 5870. Die Messwerte sind aber auch bei den 6850 und 6870 teilweise sehr unterschiedlich (liegt wohl auch an den Testmustern).

Schaut mal in welchem Licht hier die 6870 erscheint:
http://www.tomshardware.de/Radeon-HD-6870-6850,testberichte-240657-19.html

Die 6870 verbraucht hier nur 26 Watt mehr als eine 5770.
Die GTX 460 verbraucht 30 Watt mehr als die 6870 und 10 Watt weniger als die 5870. Der Abstand zwischen GTX 460 und 5870 entspricht der Angabe bei Computerbase.

Full Load bedeut so viel wie Furmark. Wenn du die ganze Zeit Furmark laufen lässt. OK. Nur sagt mir irgendwas, dass dem nicht so ist und die Gründe (auch hinsichtlich der Videofeatures) an den Haaren herbeigezogen ist. Du kannst mir nicht erzählen die Karte in einem HTPC Furmark oder Numbercrunching betreiben zu lassen, also troll dich!

mironicus
2010-10-23, 23:05:30
Hat hier denn keiner Lust am Stromsparen? :D

Meine CPUs laufen auch alle untervoltet mit Default Takt und sind meistens passiv gekühlt. ^^

hmx
2010-10-23, 23:06:56
Hat hier denn keiner Lust am Stromsparen? :D

Meine CPUs laufen auch alle untervoltet mit Default Takt und sind meistens passiv gekühlt. ^^

Strom sparen ist kein Selbstzweck.

mironicus
2010-10-23, 23:08:58
Kein Grund für Beleidigungen. :(

hmx
2010-10-23, 23:09:26
Kein Grund für Beleidigungen. :(

Wat? Deine Gründe ziehen einfach nicht und sind schlecht recherchiert. Es gibt einige Dinge die für Ati sprechen (Eyefinity, AA nahe an der Perfektion durch Edge Detect). Diese ewige Leier mit dem Stromverbrauch ist jedoch an den Haaren herbeigezogen. Unterschiede von 20 Watt unter Furmark sind kein Kaufgrund sondern eine Ausrede.

Alexander
2010-10-23, 23:09:52
Hat hier denn keiner Lust am Stromsparen? :D
Natürlich. Aber nicht um jeden Preis. Außerdem würde ich nichts sparen, da mein Rechner 80% der Zeit im Idle ist.

hq-hq
2010-10-23, 23:11:23
ja sehr löblich herr mironicus, da aber grad el nina aktiv ist und die sonne für uns schon 0,2% energie einspart (erderwärmung, sonnenaktivität) können wir ein paar watt mehr verbrauchen ;)

und überhaupt wer hat eigentlich schlammsau gesperrt der fehlt mir jetzt doch sehr

LovesuckZ
2010-10-23, 23:11:28
Hat hier denn keiner Lust am Stromsparen? :D


Was bringt ein niedriger Last-Verbrauch, wenn 50% mehr Arbeit verrichtet werden muss, um auf eine sehr ähnliche Bildqualität zu kommen?
Leider scheinen Leute zu vergessen, dass AMD's Energieeffizienz eben nur für mindere BQ gilt. Je höher man die BQ bei AMD bringen will, umso mehr Arbeit muss man verrichten.

fizzo
2010-10-23, 23:14:44
Was bringt ein niedriger Last-Verbrauch, wenn 50% mehr Arbeit verrichtet werden muss, um auf eine sehr ähnliche Bildqualität zu kommen?
Leider scheinen Leute zu vergessen, dass AMD's Energieeffizienz eben nur für mindere BQ gilt. Je höher man die BQ bei AMD bringen will, umso mehr Arbeit muss man verrichten.

Das interessiert mich jetzt. Sprich ich stelle bei AMD dann auf HQ dann verbraucht die HD 6850 gleich 50 Watt mehr unter Last oder? :ugly:

LovesuckZ
2010-10-23, 23:17:47
Das interessiert mich jetzt. Sprich ich stelle bei AMD dann auf HQ dann verbraucht die HD 6850 gleich 50 Watt mehr unter Last oder? :ugly:

Um auf das Niveau von HQ von nVidia zu kommen, muss du HQ und (ich glaube) 2xSGSSAA einstellen. 2xSSAA benötigt ca. 50% mehr Leistung bzw. reduziert die Leistung um ca. 25%. Dagegen kostet 2xMSAA und 2xTSSAA nicht annährend soviel Leistung.

PulsarS
2010-10-23, 23:20:12
Um auf das Niveau von HQ von nVidia zu kommen, muss du HQ und (ich glaube) 2xSGSSAA einstellen. 2xSSAA benötigt ca. 50% mehr Leistung bzw. reduziert die Leistung um ca. 25%. Dagegen kostet 2xMSAA und 2xTSSAA nicht annährend soviel Leistung.
Wenn du die Verlustleistung mit einbeziehstst, dann ist es einfach Quatsch.
Oder schreib einfach so, dass man dich versteht.

fizzo
2010-10-23, 23:21:06
Natürlich. Aber nicht um jeden Preis. Außerdem würde ich nichts sparen, da mein Rechner 80% der Zeit im Idle ist.

Laut Anandtech (http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market/20) oder Hexus (http://www.hexus.net/content/item.php?item=27053&page=15) schon.

Edit: hiezu

Am 21.10.2010 teilte uns AMD dann mit, dass es für die Radeon HD 6850 eine neue Firmware gäbe, welche ein Problem der Karte bei der Leistungsaufnahme im lastfreien Betrieb beseitige. Die Radeon-Referenz-Karten, welche AMD an die Presse verschickt habe, seien von diesem Problem betroffen und diese würden im Idle-Zustand eine zu hohe Leistungsaufnahme vorweisen. link (http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index4.php)

Wenn du die Verlustleistung mit einbeziehstst, dann ist es einfach Quatsch.
Oder schreib einfach so, dass man dich versteht.

+1

hmx
2010-10-23, 23:21:24
Um auf das Niveau von HQ von nVidia zu kommen, muss du HQ und (ich glaube) 2xSGSSAA einstellen. 2xSSAA benötigt ca. 50% mehr Leistung bzw. reduziert die Leistung um ca. 25%. Dagegen kostet 2xMSAA und 2xTSSAA nicht annährend soviel Leistung.

Dafür hast du dann aber auch bessere Glättung durch SSAA, der Vergleich zieht als nicht. Zumal die Grafikkarte durch SSAA nicht unbedingt stärker ausgelastet werden muss. Da enstehen zB Flaschenhälse, wie zB beim Speicher oder den ROPS.


Laut Anandtech (http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market/20) oder Hexus (http://www.hexus.net/content/item.php?item=27053&page=15) schon.



+1


Da verbraucht die Karte Idle genauso viel und unter Crysis gerade mal 19 Watt mehr.

Alexander
2010-10-23, 23:22:09
Von PCGH (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=2), CB (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/26/#abschnitt_leistungsaufnahme), Anandtech (http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market/20) oder Hexus (http://www.hexus.net/content/item.php?item=27053&page=15).....aber das wusstest du sicher bereits....
Danke für die links. Leider bestätigen sie die 30-40W nicht. Außer es wird mit einem synthetischen benchmark getestet. Bei Spielen waren die Unterschiede von kleiner. Manchmal im einstelligen Wattbereich.

Auffällig ist nur die enorme Spanne von Test zu Test.

LovesuckZ
2010-10-23, 23:25:49
Dafür hast du dann aber auch bessere Glättung durch SSAA, der Vergleich zieht als nicht. Zumal die Grafikkarte durch SSAA nicht unbedingt stärker ausgelastet werden muss. Da enstehen zB Flaschenhälse, wie zB beim Speicher oder den ROPS.


Nur ist es die einzige Möglichkeit auf HQ Niveau zu kommen. SSAA ist auch nicht als Alternative zu MSAA + Adaptve AA zu sehen, da es zuviel Leistung benötigt.
Die andere Alternative ist es, AMD Karten am Ende des Tests nicht zu empfehlen, dass sie den Mindestanforderungen nicht entsprechen.

fizzo
2010-10-23, 23:31:07
Danke für die links. Leider bestätigen sie die 30-40W nicht. Außer es wird mit einem synthetischen benchmark getestet. Bei Spielen waren die Unterschiede von kleiner. Manchmal im einstelligen Wattbereich.

Auffällig ist nur die enorme Spanne von Test zu Test.

Also bei PCGH sind es beim Battlefild BC2 28W und bei Anandtech 35W bei Crysis. CB sowie Hexus haben ja leider keine Titel angegeben. Wo siehst du einstellige Werte?


Da verbraucht die Karte Idle genauso viel und unter Crysis gerade mal 19 Watt mehr.

Wir reden aber schon von der 460 1GB - da sind es 35W s.o.

PulsarS
2010-10-23, 23:33:19
Nur ist es die einzige Möglichkeit auf HQ Niveau zu kommen. SSAA ist auch nicht als Alternative zu MSAA + Adaptve AA zu sehen, da es zuviel Leistung benötigt.
Hast du eine Ahnung...
Ist echt erbärmilich, was du von dir gibst....

Die andere Alternative ist es, AMD Karten am Ende des Tests nicht zu empfehlen, dass sie den Mindestanforderungen nicht entsprechen.
Und warum?
Weil deine NV-Aktien damit besser aussehen würden? :tongue:

hq-hq
2010-10-23, 23:36:05
@fizzo
hm, wenn ich die pcgh werte mal nehm und von 165watt 156watt abziehe... einstellig ... und bei battlefield bad company2 125watt - 117watt hmm nochmal einstellig
(bei den gtx460 mit ca 800mhz könnts aber schon hinkommen mit den 30watt, und nur so kann ja die gtx460 mithalten gegen die 6870)

dafür sind 6 watt unterschied in idle zugunsten der gtx460, was sich ja laut amd noch ändert

Alexander
2010-10-23, 23:40:12
Also bei PCGH sind es beim Battlefild BC2 28W und bei Anandtech 35W bei Crysis. CB sowie Hexus haben ja leider keine Titel angegeben. Wo siehst du einstellige Werte?
Ich bekenne mich schuldig. Habe falsch geschaut. Ein mal sogar in einer Tabelle, die Temps anzeigte. :biggrin:

Gut, sagen wir 30W im Schnitt.

Laut Anandtech (http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market/20) oder Hexus (http://www.hexus.net/content/item.php?item=27053&page=15) schon.

Edit: hierzu

link (http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index4.php)

Laut den beiden oberen links sind die 6850 im idle so sparsam wie die 460er. Laut dem dritten link verbrauchen die 6850er 2 Watt mehr.
Und was stand direkt unter dem von dir zitierten:
Wir haben darauf hin zur Sicherheit die ermittelte Leistungsaufnahme unseres Sapphire-Modells mit AMD kommuniziert und der Hersteller teilte uns mit, dass die Werte auf dem erwarteten Niveau liegen

Also ist keine niedrigere Leistungsaufnahme zu erwarten. Die 2W kann mal also Messfehler betrachten. Aber tun wir mal so, als ob beide Grakas genauso viel verbrauchen würden. Ich komme dir also entgegen. Obwohl.... Warum eigentlich? Immerhin hast du dir den Absatz raus gepickt, der dir gefiel. Nicht wirklich objektiv.

Ach was solls. Die Differenz im Idle ist vernachlässigbar. Unter last verbraucht die 460er real vielleicht 30 Watt mehr. Mal 2h pro Tag * 300 Tage. --> 3,8€ pro Jahr.

Worüber diskutieren wir hier eigentlich? Soll ich wegen dem Betrag Kompromisse bei der Bildqualität eingehen? Ich habe gestern einen Bürger für 4,5€ gekauft, da ich einen kleinen Mitternachtssnack wollte. Hat nicht mal richtig geschmeckt.


Ja, der Stromverbrauch ist mir sehr wichtig. Daher würde ich niemals eine GTX 470 kaufen. Ich habe in den letzten Tagen sogar gemessen, wieviel meine brandneue Waschmaschine bei verschiedenen Waschprogrammen tatsächlich verbraucht. Aber irgendwann ist genug. Sparen tut man nicht um jeden Preis.


EDIT bitte beachten.

fizzo
2010-10-23, 23:40:20
@fizzo
hm, wenn ich die pcgh werte mal nehm und von 165watt 156watt abziehe... einstellig ... und bei battlefield bad company2 125watt - 117watt hmm nochmal einstellig
dafür sind 6 watt unterschied in idle zugunsten der gtx460, was sich ja laut amd noch ändert

Also wir reden hier immer noch von der 6850...schau bitte nochmal genau!

Edit Stop. Hatte editiert. Lies bitte nochmal.

Wir klicken alle viel zu schnell auf absenden. :up: :ubeer:

Wegen der paar Euros geht es mir nicht, sondern um die Sachlage ;)

hq-hq
2010-10-23, 23:41:17
ähm. ok. ich hab grad noch den edit reingehauen mit der 6870 also wir sind auf einer linie ;)

mironicus
2010-10-23, 23:43:05
Stromverbrauch scheint echt ein Reizthema zu sein. Deshalb lasse ich es lieber sein, weiterhin darauf rumzureiten...

hq-hq
2010-10-23, 23:47:07
ach man sollte das schon schreiben das nvidias architektur dann doch energetisch deutlich weniger effektiv ist bei aktuellen anwendungen ;)
ist ja nicht unerheblich, 30 watt wo aber net mehr bei rumkommt ;)

- zumindest schein die lautstärke des lüffis nicht darunter zu leiden ...

wär mir zwar völlig egal aber im mainstream/performance segment

(im läppi steckt bei mir ja auch ne ati, da machts auch sinn gell )

Alexander
2010-10-23, 23:49:51
Also wir reden hier immer noch von der 6850...schau bitte nochmal genau!



Es sind real wohl ~ 25W s.o. Wegen der paar Euros geht es mir nicht, sondern um die Sachlage ;)
Stop. Hatte editiert. Lies bitte nochmal.

Wir klicken alle viel zu schnell auf absenden.

hq-hq
2010-10-23, 23:52:35
ist doch suppa, wie in ner richtig emsigen diskussionsrunde ;)

mironicus
2010-10-23, 23:52:58
Idle-Verbrauch ist ja am wichtigsten und da hat NVidia gut aufgeholt. Zumindest wird heute kein Anbieter mehr eine neue Grafikkarte auf den Markt bringen können, die viel Strom frisst, wenn sie nichts zu tun hat.

Bucklew
2010-10-24, 00:06:00
Display Port kann bis zu 3840 × 2160 × 30 bpp @ 60 Hz -
Passende Adapter auf Dual Link DVI sind sicher zu kriegen.
Klar gibt es die, extrem billig:

http://www.amazon.de/CAC-1050-DisplayPort-Dual-Link-Display-Adapter/dp/B003SR57SC/ref=sr_1_16?ie=UTF8&qid=1287871510&sr=8-16

Da kannste dir auch direkt ne 2. Karte einbauen.....

PulsarS
2010-10-24, 00:06:14
Stromverbrauch scheint echt ein Reizthema zu sein. Deshalb lasse ich es lieber sein, weiterhin darauf rumzureiten...
Nö, wieso?
Jeder darf doch seinen Standpunkt preisgeben...

fizzo
2010-10-24, 00:15:35
Jetzt muss ich doch nocheinmal:

Laut den beiden oberen links sind die 6850 im idle so sparsam wie die 460er. Laut dem dritten link verbrauchen die 6850er 2 Watt mehr.
Und was stand direkt unter dem von dir zitierten:

Also ist keine niedrigere Leistungsaufnahme zu erwarten. Die 2W kann mal also Messfehler betrachten. Aber tun wir mal so, als ob beide Grakas genauso viel verbrauchen würden. Ich komme dir also entgegen. Obwohl.... Warum eigentlich? Immerhin hast du dir den Absatz raus gepickt, der dir gefiel. Nicht wirklich objektiv.


Ich wollte die Sachlage hier nicht weiter verkomplizieren, wenn schon einfaches Tabellenlesen zu dieser Stund nicht immer leicht fällt ;) Das Zitat von HT4U war als Begründung für den hohen Idle Verbrauch bei PCGH, welchen ich verlinkt hatte, gedacht. Sollte ich damit impliziert haben, dass die Verbrauchswerte von Hexus und Anandtech nicht stimmen, so möchte ich hiermt klarstellen: Das war nicht meine Intention!

ChaosTM
2010-10-24, 01:05:52
Klar gibt es die, extrem billig:

http://www.amazon.de/CAC-1050-DisplayPort-Dual-Link-Display-Adapter/dp/B003SR57SC/ref=sr_1_16?ie=UTF8&qid=1287871510&sr=8-16

Da kannste dir auch direkt ne 2. Karte einbauen.....

Es ging eigentlich nur darum, dass die Karte technisch in der Lage ist, 4 Monitore gleichzeitig anzusteuern und das mit je 2x 2560x1600 und 1920x1200 Pixel. Viele ältere 30er haben halt noch keinen Display Port aber das ist nicht die Schuld der Karte.(oder doch.?)

Aber ich bin mir sicher, dass gewisse Leute hier im Forum einen Weg finden werden, um auch diesen Punkt an Nvidia gehen zu lassen bzw. sagen werden, dass das sowieso niemand braucht. :rolleyes:

Gleiches könnte man über die bessere Filterqualität sagen, die "sowieso gerade mal ein paar Freaks in einschlägigen Foren interessiert", und den restlichen 98% der Nutzer vollkommen egal ist.

Und bitte die Anführungszeichen beachten - war ironisch gemeint und ist nicht als Fanboy- Dummgesülze auszulegen. :wink:

c.

hq-hq
2010-10-24, 01:11:09
gibts wo einen link zu nem tessmark bensch mit ner 6850/6870

jaja der tessmark ist assi aber wär ein interessanter vergleich zu meiner mobility hd 5650 die ja nen gleich starken tesselator hat wie ne 5870 :biggrin:

Alexander
2010-10-24, 01:13:22
Ich wollte die Sachlage hier nicht weiter verkomplizieren, wenn schon einfaches Tabellenlesen zu dieser Stunde nicht immer leicht fällt ;)
Das habe ich verdient. Gestern wars zu spät geworden. Das merke ich heute deutlich. Vertippe mich sogar ständig. Es lebe die Fehlerkorrektur.
Das Zitat von HT4U war als Begründung für den hohen Idle Verbrauch bei PCGH, welchen ich verlinkt hatte, gedacht. Sollte ich damit impliziert haben, dass die Verbrauchswerte von Hexus und Anandtech nicht stimmen, so möchte ich hiermit klarstellen: Das war nicht meine Intention!
OK. Dann hatte ich falsche Schlüsse daraus gezogen. Bei der hitzigen Atmosphäre ist es aber denke ich nachvollziehbar. Wobei ich nie verstanden habe wieso es überhaupt Grakafanboys gibt. Egal.

hq-hq
2010-10-24, 01:15:28
Wobei ich nie verstanden habe wieso es überhaupt Grakafanboys gibt. Egal.

daran ist 3DFX schuld :wink:

(und es gibt auch fangirls!!! sonst müsste es ja Fanboy_INNEN heissen :P)

Schrotti
2010-10-24, 01:41:37
Hat hier denn keiner Lust am Stromsparen? :D

Meine CPUs laufen auch alle untervoltet mit Default Takt und sind meistens passiv gekühlt. ^^

Wenn ich Strom sparen möchte, schalte ich den PC aus und geh schlafen.

Ein PC muss Leistung bringen und abgemagerte Grafikkarten (eine 6850/6870) gehört nicht dazu.

Wenn ich keinen Wert auf Grafik lege, kann ich mir auch eine Konsole kaufen.

+ schnellste derzeit erhältliche Grafikkarte mit nur *einem* zusätzlichen Stromanschluss
+ Gigabyte-Design wahrscheinlich sehr leise, daher prima für einen Silent-PC
+ ein klein wenig schneller als eine GTX 460 1GB, 30-40 Watt weniger unter Last
+ mehr/bessere Video-Features und höhere Bildqualität bei Videos, optimal für HTPCs

Die Karte bietet mehr das, worauf ich persönlich Wert lege. CUDA, Physx, Vision 3D ist nichts was ich bräuchte oder nutzen würde. Das gleiche gilt auch für Eyefinity und HDMI 1.4.

Die neue Generation (AMD) verballert aber mehr Strom bei der Blue Ray Wiedergabe und im Idle Modus.

Was nun?

Schrotti
2010-10-24, 01:45:53
kann weg

(del)
2010-10-24, 01:55:18
Ein PC muss Leistung bringen und abgemagerte Grafikkarten (eine 6850/6870) gehört nicht dazu.Zu was gehört denn eine 460er? Im Thread verirrt?

Nacht.

Alexander
2010-10-24, 02:02:59
Zu was gehört denn eine 460er? Im Thread verirrt?

Nacht.
Du kennst doch seine Anforderungen. Alles unter ner GTX 480 ist reinster Schrott.

Schrotti
2010-10-24, 02:27:07
Und ihr beide seit Fanboys, so einfach ist das (wie immer).

Eine 460 kann alles das was eine 6850/6870 auch kann.

Dazu kommen dann diverse Verbesserungen auf die schon oft genug eingegangen wurde.

fizzo
2010-10-24, 08:31:28
Die neue Generation (AMD) verballert aber mehr Strom bei der Blue Ray Wiedergabe und im Idle Modus.


Für was habe ich mir gestern eigendlich die Finger Wund geschrieben? Ich schlage vor du liest dir mal die letzten 2 Seiten durch, dann wirst du sehen, dass im Idle die 6850/460 auf dem selben Verbrauchniveau liegen. Im Multi-Monitor-Betrieb ist die AMD sparsamer, vom Load ganz zu schweigen.

klein
2010-10-24, 08:35:45
Von PCGH (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=2), CB (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/26/#abschnitt_leistungsaufnahme), Anandtech (http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market/20) oder Hexus (http://www.hexus.net/content/item.php?item=27053&page=15).....aber das wusstest du sicher bereits....

CB kommt auf 22 W mehr, PCGH auf 28 W, HT4U auf 4 W, Anandtech 21 W mit der XFX. Macht im arithmetischen Mittel aufgerundet 19 W und im Median 21,5 W, aber von 30 bis 40 W sehe ich nichts. Und Hexus hat nur 1 GB-Modelle von KFA² getestet, die stark übertaktet sind (eine ist mit 810 MHz getaktet, vermutlich läuft sie auch mit erhöhter Spannung, da sie exakt so viel Leistung aufnimmt wie eine GTX 470).

Das ist aber immer noch ein unfairer Vergleich, weil die GTX 460 schlicht und ergreifend GPU + PPU zugleich ist. Um aufs annähernd gleiche Featureset zu kommen, müsste man der HD 6850 noch einen zusätzlichen PhysX-Beschleuniger spendieren. Wobei es ohnehin Korinthenkackerei ist auf dieser Ebene zu diskutieren. 20 W entspricht einem Drittelverbrauch einer einzigen üblichen Glühleuchte.

(del)
2010-10-24, 15:19:16
Und ihr beide seit Fanboys, so einfach ist das (wie immer).Für so ein schlichtes, aber dummes Geseier saß man hier unter "mappel" auch mal eine Woche in der Ausnüchterungszelle. Du wirst vom Thread zum Thread mutiger. Ich hoffe die Mods ziehen da mit...

Eine 460 kann alles das was eine 6850/6870 auch kann.Mir ging es nur um B(-I-)Q. In einem 460 vs. 6850 Thread zu behaupten, ausgerechnet die 6850 wäre halt mies, da abgemagert, zeugt nicht vom dessen Überfluss.

@klein
Sind das jetzt die mit 1120 oder 960 ALUs? CB hat die 960 nachgereicht und die 1120 grau hinterlegt. Bei den Verbrauchswerten sehe ich das aber nicht :|

hq-hq
2010-10-24, 15:48:52
Ha, auf Kitguru hammse mal den Tessmark laufen lassen, http://www.kitguru.net/components/graphic-cards/zardon/sapphire-radeon-hd6850-and-hd6870-review/15/

http://www.kitguru.net/wp-content/uploads/2010/10/tessmark1.png

also die 6850 @ 775MHz hat 7245 Punkte und ich mit meiner
mobility 5650 @ 650MHz nur 5170 Punkte LoL!

wenn ich jetzt noch bei meiner 5650m den Takt auf ca. 775 hochrechne
sinds sogar nur 6164 gegen 7245 ... das is natürlich schon lustig ;D

Spasstiger
2010-10-24, 15:50:06
Das ist aber immer noch ein unfairer Vergleich, weil die GTX 460 schlicht und ergreifend GPU + PPU zugleich ist. Um aufs annähernd gleiche Featureset zu kommen, müsste man der HD 6850 noch einen zusätzlichen PhysX-Beschleuniger spendieren. Wobei es ohnehin Korinthenkackerei ist auf dieser Ebene zu diskutieren. 20 W entspricht einem Drittelverbrauch einer einzigen üblichen Glühleuchte.
Die DX11-Radeons bringen hardwareseitig alles mit, was für GPU-Physik auf dem Niveau von PhysX notwendig ist. Das Fehlen der Unterstützung einer propietären Schnittstelle würde ich nicht als Verzerrung bei einem Vergleich der Leistungsaufnahme sehen.
Man könnte auch argumentieren, dass sich an einer GeForce GTX 460 keine drei Monitore für Surround-Gaming betreiben lassen und man dafür bei vergleichbarer Performance zwei GTS 450 im SLI bräuchte.

wenn ich jetzt noch bei meiner 5650m den Takt auf ca. 775 hochrechne
sinds sogar nur 6164 gegen 7245 ... das is natürlich schon lustig ;D
Der maximale Dreiecksdurchsatz pro Takt ist nicht gestiegen und der Durchsatz bei Tessellation wurde auch nur für kleine Tessellationsfaktoren (6-10) verbessert. Tessmark nutzt auf der Stufe "normal" schon einen Tessellationsfaktor von 16.
Die aktuellen Spiele mit Tessellation hingegen profitieren ganz gut von den Verbesserungen und die HD 6870 wird hier auch nie von der GTX 460 geschlagen und kann mit der HD 5870 mithalten.

hmx
2010-10-24, 15:51:11
Ha, auf Kitguru hammse mal den Tessmark laufen lassen, http://www.kitguru.net/components/graphic-cards/zardon/sapphire-radeon-hd6850-and-hd6870-review/15/

http://www.kitguru.net/wp-content/uploads/2010/10/tessmark1.png

also die 6850 @ 775MHz hat 7245 Punkte und ich mit meiner
mobility 5650 @ 650MHz nur 5170 Punkte LoL!

wenn ich jetzt noch bei meiner 5650m den Takt auf ca. 775 hochrechne
sinds sogar nur 6164 gegen 7245 ... das is natürlich schon lustig ;D

Wäre mal schön das im Vergleich zu den 5800ern zu sehen. Wenn man sich allerdings die Werte der 5650m anschaut...

Die verdoppelt Tesselationsleistung der 6800er ist bisher ein reiner Papiertiger.

(del)
2010-10-24, 15:55:24
Die verdoppelt Tesselationsleistung der 6800er ist bisher ein reiner Papiertiger.~14000 der 6850 hätte man sich auch gut ziehen können und wäre noch brauchbar im Rahmen. 7245 find ich aber nicht so "lustig". Das ist schon arg peinlich.

hq-hq
2010-10-24, 15:57:49
Wäre mal schön das im Vergleich zu den 5800ern zu sehen. Wenn man sich allerdings die Werte der 5650m anschaut...

Die verdoppelt Tesselationsleistung der 6800er ist bisher ein reiner Papiertiger.

das ist einfach, die 5870 hat ähm 850MHz, der Tesselator ist der gleiche also hat sie bei den gleichen Settings rund 6760 Punkte
naja stimmt net ganz bei "normal" ist das nicht 1:1 also vielleicht 7250 Punkte eher...
auf "insane" wär die rechnung richtig ;) dann ist wahrscheinlich der unterschied zwischen 5000er und 6000er noch etwas grösser

Didi Bouzul
2010-10-24, 16:02:06
Ja, aber das Endergebnis der Testreihe dieser Seite kann man sich ruhig auch mal zu Gemüte führen, liebe Fanboys.

Alexander
2010-10-24, 16:02:08
Und ihr beide seit Fanboys, so einfach ist das (wie immer).
Jetzt hast du es mir aber gegeben. :facepalm:

So etwas zu behaupten nach all der Kritik, die ich an den Karten und an dem Vorgehen von AMD gebracht habe zeugt von einer gewaltigen Leseschwäche.

LovesuckZ
2010-10-24, 16:03:46
Wäre mal schön das im Vergleich zu den 5800ern zu sehen. Wenn man sich allerdings die Werte der 5650m anschaut...

Entspricht ungefähr normalen AMD Niveau ("normal" betrachten): http://www.geeks3d.com/20100826/tessmark-opengl-4-gpu-tessellation-benchmark-comparative-table/


Die verdoppelt Tesselationsleistung der 6800er ist bisher ein reiner Papiertiger.

Das Problem mit AMD's serieller Abarbeitung der Geometrie liegt im genau in der Abarbeitungsart begründet. nVidia verteilt die Last auf die einzelnen Geometriepipelines und somit laufen die Einheiten meisten immer auf vollen Durchsatz.
Bei Barts hat man nun die Puffergrößte leicht erhöht, um in einem bestimmten Tessellationfaktorbereich (5-10) eine Leistungssteigerung herbeizuführen. Leider verwendet Tessmark schon im "normal" Setting einen Tessellationfaktor von 16, um aus dem Grundmodell die tessellierte Anzahl der Dreiecke herbeizuführen. Deswegen gibt es auch weder im Unigine oder Stone Giant deutliche Leistungssteigerungen. AMD's Weg der Abarbeitung ist eben unzureichend, um den eigentlich sinn von Tessellation zu erfüllen.


auf "insane" wär die rechnung richtig ;) dann ist wahrscheinlich der unterschied zwischen 5000er und 6000er noch etwas grösser

Nein. "Insane" hat einen Faktor von 64. Da sollte sich bis auf den Taktunterschied kein Abstand herauskristallisieren.

Spasstiger
2010-10-24, 16:05:19
auf "insane" wär die rechnung richtig ;) dann ist wahrscheinlich der unterschied zwischen 5000er und 6000er noch etwas grösser
Nein, mit zunehmendem Tess-Faktor wird der Unterschied geringer, weil der max. Geometriedurchsatz nicht gestiegen ist. Man hat lediglich durch Infrastrukturverbesserungen erreicht, dass man den Durchsatz mit Tessellation im praxisrelevanten Bereich (Tess-Faktoren 6-10) an das theoretische Maximum annähert, denn das wurde mit der HD5K-Reihe nicht annähernd erreicht. Beim Zuschalten von Tessellation brach dort der Durchsatz auf 1/3 des theoretischen Maximums ein.

hq-hq
2010-10-24, 16:06:09
Der maximale Dreiecksdurchsatz pro Takt ist nicht gestiegen und der Durchsatz bei Tessellation wurde auch nur für kleine Tessellationsfaktoren (6-10) verbessert. Tessmark nutzt auf der Stufe "normal" schon einen Tessellationsfaktor von 16.
Die aktuellen Spiele mit Tessellation hingegen profitieren ganz gut von den Verbesserungen und die HD 6870 wird hier auch nie von der GTX 460 geschlagen und kann mit der HD 5870 mithalten.

ja ich kann mich noch an die hakelige "output"kurve erinnern von der amd folie
zwischen 5000er und 6000er, der tessmark ist nicht ideal das is schon klar dennoch ist es lustig :freak:

aah. naa beim tessmark limitiert auf insane nur noch der tesselator also hm so gesehen ja hast du recht ... naja müsste man mal den tessmark in der kleinsten stufe laufen lassen

genau bei insane 1:1 mit dem takt na ich hoffe jemand jagt bald mal ne 6000er durch alle tessmark stufen

LovesuckZ
2010-10-24, 16:13:43
Man hat lediglich durch Infrastrukturverbesserungen erreicht, dass man den Durchsatz mit Tessellation im praxisrelevanten Bereich (Tess-Faktoren 6-10) [...]

Gibt es dafür eine sinnvolle Bestätigung?

Spasstiger
2010-10-24, 16:18:39
Gibt es dafür eine sinnvolle Bestätigung?
Ja: http://www.hardware.fr/articles/804-7/dossier-amd-radeon-hd-6870-6850.html.
HD 6870: 418 MTri/s
HD 5870: 287 MTri/s

Und im Tessellation-Test aus dem DX11-SDK:
Adaptive Tessellation Ultra | Adaptive Tessellation Ultra + DM
HD 6870: 1128 fps | 640 fps
HD 5870: 772 fps | 414 fps
Und das obwohl die HD 5870 rund 35% mehr Rechenleistung fürs Displacement Mapping (DM) hat.

hq-hq
2010-10-24, 16:20:26
ah ich hab das ding grad noch gefunden mal sehen ob ich es direkt verlinken kann

http://media.bestofmicro.com/AMD-HD6870-HD6850,4-X-265857-13.jpg

scheint aber trotzdem arg geschönt ;)

LovesuckZ
2010-10-24, 16:23:22
Ja: http://www.hardware.fr/articles/804-7/dossier-amd-radeon-hd-6870-6850.html.
HD 6870: 418 MTri/s
HD 5870: 287 MTri/s

Und im Tessellation-Test aus dem DX11-SDK:
HD 6870: 640 fps
HD 5870: 414 fps
(Adaptive Tessellation Ultra + DM)

Ich kenn die Werte. Aber selbst hier kommt man nur auf einen maximalen Clock-Clock Sprung von 50%. Also wird hier entweder ein Faktor von <5 oder >9 angewendet. Wenn selbst in diesen beiden Beispiel der Bereich 5-10 nicht relevant ist, wie kommst du zu der Aussage?

Spasstiger
2010-10-24, 16:25:37
Wenn selbst in diesen beiden Beispiel der Bereich 5-10 nicht relevant ist, wie kommst du zu der Aussage?
Immer schön am Trollen der LovesuckZ.
Du glaubst ja wohl selbst nicht, dass AMD exakt dieselben Benchmarks nutzt wie hardware.fr.
Die 50% bei hardware.fr entsprechen wohl ungefähr den 100% bei AMD.

Die Demo aus dem DX11-SDK nutzt Tessellation-Faktoren zwischen 5 und 11.

dildo4u
2010-10-24, 16:30:14
Immer schön am Trollen der LovesuckZ.
Du glaubst ja wohl selbst nicht, dass AMD exakt dieselben Benchmarks nutzt wie hardware.fr.
Die 50% bei hardware.fr entsprechen wohl ungefähr den 100% bei AMD.

Die Demo aus dem DX11-SDK nutzt Tessellation-Faktoren zwischen 5 und 11.
Wobei sich das bei Games wohl nie auswirken wird bei Metro z.b sind GTX 470/480 deutlich flotter als GTX 460.Die 6870 kann sich wiederum nicht vor die 5870 setzen.

http://www.hardware.fr/articles/804-22/dossier-amd-radeon-hd-6870-6850.html

Spasstiger
2010-10-24, 16:35:23
Die HD 5870 hat immer noch 35% mehr Rechenleistung und Texelfüllrate als die HD 6870 und das ist in Metro 2033 wesentlich performanceentscheidender als das bischen Tessellation, was auch die HD 5800er mit geringen Performanceeinbrüchen weggesteckt haben.
Die HD 6800er haben für aktuelle Spiele mit Tessellation genügend Geometrieleistung. Die HD 6870 hält die GTX 460 in Spielen mit Tessellation immer auf Distanz, was der HD 5850 nicht gelang.

deekey777
2010-10-24, 16:36:07
Wobei sich das bei Games wohl nie auswirken wird bei Metro z.b sind GTX 470/480 deutlich flotter als GTX 460.Die 6870 kann sich wiederum nicht vor die 5870 setzen.

http://www.hardware.fr/articles/804-22/dossier-amd-radeon-hd-6870-6850.html

,Weil das nichts mit Tessellation zu tun hat?

dildo4u
2010-10-24, 16:40:01
,Weil das nichts mit Tessellation zu tun hat?
Ich denke schon das das bei der GF100 mit rein spielt,weil wo viel mehr Shaderleistung als eine GTX 460 hat sie ja nicht jedenfalls nicht für so ein Abstand.

hq-hq
2010-10-24, 16:40:14
naja im unigine 2.1 sieht es bei >moderate tessellation< ganz ok aus, aber es braucht halt schon ne gtx460 mit OC ;)

[ http://www.tomshardware.de/Radeon-HD-6870-6850,testberichte-240657-8.html ]

man könnte natürlich auch sagen selbst bei geringem tessellation einsatz kann es schonmal dünn werden ;)

die zukunft gehört ihr halt nicht, der 6000er - übertreiben ist was schönes

ChaosTM
2010-10-24, 16:42:18
Ja, aber das Endergebnis der Testreihe dieser Seite kann man sich ruhig auch mal zu Gemüte führen, liebe Fanboys.

Hätte man machen sollen. :wink:

Dank dem neuen OC Tool von Sapphire lief die Karte mit 950/1130 und schlägt damit sogar die 70€ teurere eVGA GTX460 FTW, die mit ca. 850mhz läuft.

Aus Fanboy Sicht war der Link eher ein Eigentor; für alle anderen sehr informativ.

LovesuckZ
2010-10-24, 16:42:41
Lieber Spasstiger, auch wenn du die nachfrage für eine Bestätigung der Aussage als trollen empfindest, wäre das Belegen weiterhin nett. Denn ich möchte meinen Wissenstand auch gerne erweitert, jedoch nicht mit falschen Fakten. Die Spezifikation von DX11 und OpenGL4 setzen jedenfalls eine Unterstützung von 64 Stufen voraus.

Die HD 6870 hält die GTX 460 in Spielen mit Tessellation immer auf Distanz, was der HD 5850 nicht gelang.

Beispiele? In einem fairen Vergleich zwischen Cypress und Barts ist eine 5850 nur unwesentlich langsamer. Siehe auch Dirt:2 : http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index27.php

Man sollte bitte bedenken, dass die 6870 25% höher getaktet ist. Was hier natürlich einen Vorteil bei Front-End-limitierenden Faktoren bringt.

Spasstiger
2010-10-24, 16:45:46
Ich denke schon das das bei der GF100 mit rein spielt,weil wo viel mehr Shaderleistung als eine GTX 460 hat sie ja nicht jedenfalls nicht für so ein Abstand.
Die GTX 480 hat 50% mehr Shaderleistung als die GTX 460, der Abstand im Benchmark beträgt nur 45%.

Lieber Spasstiger, auch wenn du die nachfrage für eine Bestätigung der Aussage als trollen empfindest, wäre das Belegen weiterhin nett.
Ich habe es belegt und was du seitdem abziehst, ist Trollen. Du ignorierst die Fakten und dichtest dir was zusammen.
Wer Benchmarkwerte aus dem DX11-SDK als falsche Fakten abtut, dem ist nicht zu helfen.

Die Spezifikation von DX11 und OpenGL4 setzen jedenfalls eine Unterstützung von 64 Stufen voraus.
Die Spezifikation von DX11 sieht auch Rendertargets von 8192*8192 Pixeln vor und trotzdem nutzt das fast keiner.

dildo4u
2010-10-24, 16:51:20
Die HD 6870 hält die GTX 460 in Spielen mit Tessellation immer auf Distanz, was der HD 5850 nicht gelang.
Nich immer aber schon besser als 5870,das dürfte dann wohl Tesslationslimitiert sein.
http://www.hardware.fr/articles/804-17/dossier-amd-radeon-hd-6870-6850.html

deekey777
2010-10-24, 16:53:31
HAWX 2? Da war doch was...

ChaosTM
2010-10-24, 16:57:39
LovesuckZ hat ganz offensichtlich ein Nahe-Verhältnis zur Firma mit dem grünen Logo.

Das sollte eigentlich schon jedem aufgefallen sein.
Anders sind seine, wie Marketing Sprüche klingenden, Aussagen und das andauernde Wiederholen der Selben nicht zu erklären.
Deshalb nehme ich das was er sagt schon lange nicht mehr ernst.

Mal ganz abgesehen von der geschmackvolle Signatur.. :rolleyes:

edit.: ich hab übrigens momentan eine GTX 260 im Rechner..

sklave_gottes
2010-10-24, 17:02:36
Ich denke schon das das bei der GF100 mit rein spielt,weil wo viel mehr Shaderleistung als eine GTX 460 hat sie ja nicht jedenfalls nicht für so ein Abstand.

dann müste die 460gtx auch weit über einer hd5850 sein, ist sie aber nicht.
im gegenteil sie ist sogar langsamer.
Sowie die 470GTX nicht schneller ist als eine 5870 was bei viel tess aber sein sollte.
Wie schon immer wieder geklärt aber doch anscheinend noch immer nicht genug für einige:

Für tess aussagen ist der bensch ungeeignet, er geht eher mehr auf die frage ein ob der ram reicht....

mfg martin

hq-hq
2010-10-24, 17:04:15
LovesuckZ hat ganz offensichtlich ein Nahe-Verhältnis zur Firma mit dem grünen Logo.

Das sollte eigentlich schon jedem aufgefallen sein.
Anders sind seine, wie Marketing Sprüche klingenden, Aussagen und das andauernde Wiederholen der Selben nicht zu erklären.
Deshalb nehme ich das was er sagt schon lange nicht mehr ernst.

Mal ganz abgesehen von der geschmackvolle Signatur.. :rolleyes:

naja ich glaub nicht das er eine konfessionslose frau ist

LovesuckZ
2010-10-24, 17:09:02
Ich habe es belegt und was du seitdem abziehst, ist Trollen. Du ignorierst die Fakten und dichtest dir was zusammen.
Wer Benchmarkwerte aus dem DX11-SDK als falsche Fakten abtut, dem ist nicht zu helfen.

Hä? Du hast garnichts belegt. Das DX11-SDK-Sample limitiert den Faktor auf maximal 11 (PN Triangles geht z.B. bis 19...). Und ich tue keine Werte als falsch ab, sondern habe dich nur darauf hingewiesen, dass keine der beiden Werte eine Leistungssteigerung von 80-100% zeigen, die AMD auf den Folien darstellt.
Irgendwie unglaublich, dass man ein Troll wäre, wenn man nach Bestätigungen von Aussagen fragt. Wahrscheinlich sind Verschwörungsgegner auch nur Trolle, wenn sie nicht jeder einzelnen Theorie glauben. :freak:

BTW: Mit dem Detail Tessellation Sample ist mit Faktor 11 und dem Grundmodell kein vernünftiges LoD machbar. Da sieht POM wesentlich besser aus in Bewegung, wenn man das Flimmern ignorieren kann.

Spasstiger
2010-10-24, 17:13:34
Du hast mich nicht gefragt, wo es Bestätigungen für den Faktor 2 bei Tessellationsperformance gibt, sondern nur, ob es überhaupt Bestätigungen für eine Performancesteigerung gibt. Du hast nämlich die Grundhaltung angenommen, AMD hätte überhaupt nichts geändert und würde die ganze Welt belügen.

LovesuckZ
2010-10-24, 17:17:54
Du hast mich nicht gefragt, wo es Bestätigungen für den Faktor 2 bei Tessellationsperformance gibt, sondern nur, ob es überhaupt Bestätigungen für eine Performancesteigerung gibt. Du hast nämlich die Grundhaltung angenommen, AMD hätte überhaupt nichts geändert und würde die ganze Welt belügen.

Nein, das habe ich nicht. Lese bitte nochmal:


Man hat lediglich durch Infrastrukturverbesserungen erreicht, dass man den Durchsatz mit Tessellation im praxisrelevanten Bereich (Tess-Faktoren 6-10) [...]

Gibt es dafür eine sinnvolle Bestätigung?

Ich möchte nur dafür eine Bestätigung sehen. Denn Hardware.fr hat es im Dreieckstest nicht geschafft auf die Verdopplung zu kommen, die AMD angegeben hat.

Spasstiger
2010-10-24, 17:20:36
Du hast mich zitiert und nicht AMD. Und ich hab nie was von einer Verdopplung gesagt.

MadManniMan
2010-10-24, 17:30:08
Wie es schon Manni hier gesagt hat: Leistung = Bildqualität * Bildquantität.

=)

Das soll auf meinem Grabstein stehen :D

Aber im Ernst: ich habe mich an HQ-AF gewöhnt und brauche momentan leider 3D Vision, da AMDs Antwort nicht so aussieht, wie ich es mir gewünscht hätte -> [x] 460 GTX 1024

sklave_gottes
2010-10-24, 17:34:08
Nein, das habe ich nicht. Lese bitte nochmal:



Ich möchte nur dafür eine Bestätigung sehen. Denn Hardware.fr hat es im Dreieckstest nicht geschafft auf die Verdopplung zu kommen, die AMD angegeben hat.

Sag mal was soll der unfug? Schonmal was von teo VS Praxis gehört ?
Ist doch Klar das AMD die größeren teo werte für die folie nimmt. Die man in der Praxis vorallem bei spielen nie erreichen wird.

Wenn du schon so am klugscheissen bist zeig mal die ach so krasse tess leistung der 470/480gtx bei spielen.

Du hast gefragt ob man bei der 6800serie überhaupt verbesserungen sieht, b.z.w. diese angezweifelt. Dann hat Spasstiger dir das gegentil bewiesen, also schnut zu...

LovesuckZ
2010-10-24, 18:55:34
Du hast mich zitiert und nicht AMD. Und ich hab nie was von einer Verdopplung gesagt.

Du hast gesagt, dass der Bereich 5-10 am relevantesten für die Praxis wäre. Darauf wollte ich eine Bestätigung dieser Aussage. Mehr nicht.

Anhand der Water-Demo von nVidia kann ich jedenfalls sagen, dass bei 20k Input-Dreiecken ein Faktor von z.B. 9 nicht ausreichend ist, um eine vernünftige Qualität zu erzeugen.

Didi Bouzul
2010-10-24, 19:03:03
Info: laut Guru3d sieht es schlecht aus mit einer Bios-seitigen Freischaltung der zusätzlicher Shader auf normal käuflichen hd6850-Karten. Schade. :(

Spasstiger
2010-10-24, 19:05:59
Doof. Dann fragt man sich doch, warum Sapphire einen Barts XT auf die Reviewversion der HD 6850 gelötet hat.

DrFreaK666
2010-10-24, 19:08:19
Doof. Dann fragt man sich doch, warum Sapphire einen Barts XT auf die Reviewversion der HD 6850 gelötet hat.

Damit die HD6850 besser da steht. Ist doch klar.
War doch Absicht von AMD *hehe. vor LovesuckZ ;D*

Ich seh es übrigens nicht so

hmx
2010-10-24, 19:11:49
Damit die HD6850 besser da steht. Ist doch klar.
War doch Absicht von AMD *hehe. vor LovesuckZ ;D*

Ich seh es übrigens nicht so

So unglaublich abwegig ist es aber dann auch nicht. Eine "Verschwörungstheorie" wäre es nur wenn jemand AMD unterstellt hätte, dass die Chips die zusätzlichen Shader haben und dies nicht nachweisen konnte.

DrFreaK666
2010-10-24, 19:14:06
So unglaublich abwegig ist es aber dann auch nicht. Eine "Verschwörungstheorie" wäre es nur wenn jemand AMD unterstellt hätte, dass die Chips die zusätzlichen Shader haben und dies nicht nachweisen konnte.

Wer bei der Arbeit noch nie einen Fehler begangen hat soll den Finger heben.
Nobody ist perfekt, der Mensch erst recht nicht.
Ich glaube nur, dass es Absicht war, wenn man es beweisen kann.
Sonst bleibt es nur ein Märchen bzw. Wunschdenken manch einer...

Spasstiger
2010-10-24, 19:16:12
Ich hätte jetzt vermutet, dass Sapphire einfach beide Chipversionen auf die HD 6850 lötet, um die erwartete Nachfrage zu bedienen, und die Freischaltmöglichkeit als Mundpropaganda-Werbung mitnimmt. Die Reviewkarten hat man mit dem 1120-SP-Bios ausgestattet, damit das Freischaltbios gleich in Umlauf kommt.

hq-hq
2010-10-24, 19:17:11
Wer bei der Arbeit noch nie einen Fehler begangen hat soll den Finger heben.
Nobody ist perfekt, der Mensch erst recht nicht.
Ich glaube nur, dass es Absicht war, wenn man es beweisen kann.
Sonst bleibt es nur ein Märchen bzw. Wunschdenken manch einer...

Ja es stimmt, die gefakten 6850er von XFX, Sapphire und HIS wurden alle vom Dummkopf Bernhard Bauer verschickt !

DrFreaK666
2010-10-24, 19:18:13
Ja es stimmt, die gefakten 6850er von XFX, Sapphire und HIS wurden alle vom Dummkopf Bernhard Bauer verschickt !

Dann weisst du ja mehr als ich :biggrin:

hmx
2010-10-24, 19:18:53
Wer bei der Arbeit noch nie einen Fehler begangen hat soll den Finger heben.
Nobody ist perfekt, der Mensch erst recht nicht.
Ich glaube nur, dass es Absicht war, wenn man es beweisen kann.
Sonst bleibt es nur ein Märchen bzw. Wunschdenken manch einer...

Sorry, aber so viele Fehler der gleichen Sorte auf einmal bei unterschiedlichen Herstellern. Das ist schon ein wenig seltsam und hinterläst zumindest einen äußerst fahlen Beigeschmack. Ein Märchen könnte da genauso gut die Geschichte von Ati sein, warum sollte die auch eher stimmen? Weil Ati das so gesagt hat? Ist doch klar, dass die das natürlich nicht zugeben würden. Ohne handfestes ist deren geschite genausowenig zu glauben wie die Absicht.

DrFreaK666
2010-10-24, 19:21:03
Sorry, aber so viele Fehler der gleichen Sorte auf einmal bei unterschiedlichen Herstellern. Das ist schon ein wenig seltsam und hinterläst zumindest einen äußerst fahlen Beigeschmack.

Ja natürlich. Seh ich ja auch so.
Bei den 4830ern wars aber so ähnlich, nur dass die leistung bei den reviews schlechter war.
Aber stimmt schon: Komisch, dass man langsamere 6870er als 6850er zum Testen gegeben hat

Spasstiger
2010-10-24, 19:26:09
Aber stimmt schon: Komisch, dass man langsamere 6870er als 6850er zum Testen gegeben hat
Es sind 6850er mit Barts XT drauf, keine runtergetakteten 6870er.
Kann natürlich auch einfach sein, dass versehentlich Barts XT auf die 6850 gelötet wurden, weil jemand die Teilenummern vertauscht hat. Und wenn man schon 6850er von tendentiell besserer Qualität hat, gibt man die auch für Reviews weiter. Bleibt aber immer noch das Mysterium, warum das Bios mit 1120 SPs programmiert war.

LovesuckZ
2010-10-24, 19:29:32
Weil man wohl davon ausgegangen ist, dass es sich um Barts Pro GPUs handelte, die per Lasercut nur 960SP haben.
Warum dann aber gleich drei verschiedene Hersteller betroffen waren. Wobei, alle erhielten wohl die ES zur Validierung der Presse-Samples von AMD...

MadManniMan
2010-10-24, 19:35:19
(...) warum sollte die auch eher stimmen? Weil Ati das so gesagt hat?

Siehe Marketingblubb das AF betreffend: ich persönlich erwarte von AMD da keine besonders lobenswerte Offenheit. Sie werden zusehen, dass sie alles Eingehen auf unsere Proteste als eigene Eingebung verkaufen können und zu allem anderen schweigen bzw. dementieren. Warum sollten sie auch nicht so handeln? Wen juckt's denn, außer uns? den Marketingmenschen interessiert es doch einen Scheiß, ob das tatsächlich irgendwann in Zukunft mal hochkochen sollte: der Launch ist ein übermäßiger Erfolg.

Meine These(!):
- 14 statt 12 Cluster von gleich drei Boardpartnern - keine Barts Pro im Handel mit diesen Boards
- "Quality"-AF als Standard inklusive Benchmarkanleitung
- anderthalb Tage zum Testen
--> epic Marketing-Win!

Wenn jetzt die Magazine nicht ausm Arsch kommen und das breit treten (ich meine nicht meine These, sondern allgemein das Geschäftsgebahren oder aber zumindest eine solche Berichterstattung, als wäre der ganze Marketingscheiß nicht gewesen), dann werden sie es wieder machen.

Nichtsdestotrotz: Barts ist immernoch gut - nicht falsch verstehen bitte!

hq-hq
2010-10-24, 19:45:04
Weil man wohl davon ausgegangen ist, dass es sich um Barts Pro GPUs handelte, die per Lasercut nur 960SP haben.
Warum dann aber gleich drei verschiedene Hersteller betroffen waren. Wobei, alle erhielten wohl die ES zur Validierung der Presse-Samples von AMD...

ja, und niemand hat es gemerkt erst als es zu spät war :freak:
zumindest hat amd recht das es schon doof war bei erhalt nicht gleich mal mit gpuz zu checken, die einen wissen nicht was sie verschicken und die andern nciht mit was sie testen ;D

y33H@
2010-10-24, 19:52:50
wizzard von TPU hat's gemerkt, PCGH hat's gemerkt. CB und HT4U nicht.

sklave_gottes
2010-10-24, 22:24:05
wizzard von TPU hat's gemerkt, PCGH hat's gemerkt. CB und HT4U nicht.

Wie oft willst du das noch wiederholen ?

wir wissen doch mitlerweile alle, dass die PCGH die Besten sind.

Ich hab es extra nochmal dick und unterstrichen markiert. Damit das auch schön alle mitkriegen.

@topic

Wir werden und können es sowieso nicht herausfinden wer daran schuld ist. Oder ob es absicht oder nicht war. Aber ich denke das es für AMD nicht nur vorteile gebracht hat, es gibt auch viele die dadurch verärgert sind...

@Karte

Ich sehe zur zeit die GTX leicht vorne, minimal billiger etwa gleich schnell aber die features sind für mich selber zur zeit brauchbarer.

y33H@
2010-10-24, 22:47:21
Hast du irgendein Problem? :(

Drei Hersteller (HIS, Sapphire, XFX) haben 50er mit 1120 ALUs ausgeliefert und viele Redaktionen hatten nur 2-3T Zeit. Das ist zu wenig.

(del)
2010-10-24, 23:48:03
Ich dachte immer, wenn man etwas bekommt, dann guckt man sich zuerst an was das eigentlich ist :|

2-3 Tage Zeit ist ebenfalls eine Frechheit. Aber darum geht es ja, um die Redaktuere zu hetzen. Die fallen auch immerwieder drauf rein. Und so ist wiedermal nicht der vorangehende Thor (AMD) der größere Buhmann, sondern der, der ihm folgte...

deekey777
2010-10-25, 11:44:05
wizzard von TPU hat's gemerkt, PCGH hat's gemerkt. CB und HT4U nicht.
Hat PCGH auch schon gemerkt, dass Batman AA Game Of The Year Edition auch für Radeons Kantenglättung anbietet, worauf auch der Benchmarkguide zur HD5700 mit entsprechenden Zahlen hinweist?