PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 6850 und 6870 (P)Review- und Diskussionsthread


Seiten : 1 2 [3] 4 5

Flatterball77
2010-10-23, 02:51:37
Wie dem auch sei, eine 470 für 170! Euro ist doch Hammer. Siehe Preisfred hier. Aber für mich ist das nichts weil zu laut.:wink:

LovesuckZ
2010-10-23, 02:51:42
Solche Dinge können schonmal passieren

Natürlich. Vereinzelt.
Hier sind sie in solch einer Masse aufgetreten dass es kein Zufall ist.

Flatterball77
2010-10-23, 02:57:37
Geile Preise. Meine 260 (192) wird eh in 2-3 Tagen ausgetauscht durch ne geile Karte. Und dann wird erstmal noch die Voltage runtergedreht bei gleicher Taktung was bei der Gigabyte möglich ist.


Ihr seht, warten lohnt sich;D

DrFreaK666
2010-10-23, 02:58:44
Natürlich. Vereinzelt.
Hier sind sie in solch einer Masse aufgetreten dass es kein Zufall ist.

Bei der HD4830 gab es test-Samples, bei denen zu wenig ALUs.
Denkst das war auch Absicht von ATI?? :wink:
Ich glaube, dass es ein blöder Zufall war

Ferengie
2010-10-23, 02:59:53
sry ..del.. ist scho spät
http://img.hexus.net/v2/graphics_cards/ati/sapphire/6800CD/UVDB.jpg

Da haben die aber UVD 2.2 mit kleinen Update zu UVD 3 umgetauft.
Weil hiernach (http://www.xbitlabs.com/articles/video/display/htpc-graphics-cards_3.html) soll, bis auf Cedar, schon alle HD5 MVC gekonnt haben..

Flatterball77
2010-10-23, 03:00:29
Ich glaube das diese AMD Karte absolut überflüssig ist:mad:

DrFreaK666
2010-10-23, 03:01:26
fehlt noch odda?http://www.xbitlabs.com/articles/video/display/ati-radeon-hd-5000.html

Da werden aber keine neuen Karten getestet, oder irre ich mich?

Flatterball77
2010-10-23, 03:04:55
DR.Freak hats erkannt. Die Karte ist jetzt aktuell, sobald DX11 7:eek: Generation ins Spiel kommt ist Sense. Ich will AMD nicht verteufeln, aber ist nicht so gut die Karten.

Und ich hab schon Ahnung von der Materie.:biggrin:

LovesuckZ
2010-10-23, 03:35:30
Bei der HD4830 gab es test-Samples, bei denen zu wenig ALUs.
Denkst das war auch Absicht von ATI?? :wink:
Ich glaube, dass es ein blöder Zufall war

Die 4830 war aber nicht ganz oben auf ihrer Prioritätenliste.
Barts war ganz oben. Hier wurde alles durchgeplant. Das war kein Zufall.

Langenscheiss
2010-10-23, 03:59:50
Von den ganzen Reviews, die ich gesehen habe, kann man die, die sich wirklich sinnvoll mit BQ beschäftigen, an einer Hand abzählen. Ich sehe zurzeit nur CB, TomsHardware und allen voran PCGH, denn der Treiber-Default ist wirklich verarsche. Ich hab meine hd5k mal mit dem modifizierten 10.10a (um die Settings zu aktivieren) mit HQ und Q durch den D3DFilterTester-Parkour gejagt, und die erweiterten Bri-Bänder sprechen für sich! HQ ist hingegen im Optimum quasi identisch zu A.I. off MipMap HQ, sprich stets identische Sample-Summen und die Bilder sehen auch ziemlich ähnlich, wenn nicht absolut gleich aus. Q ist für 2xAF identisch zu HQ, generell wirkt die Optimierung je stärker, je höher der maximale AF-Grad. Aber das gilt alles nur für die HD5K, ist also hier eigentlich off-topic.
Werde die Bilder vermutlich morgen im AFVergleich Thread posten (wenn ich auch die "Leistung"-Bilder habe)

LovesuckZ
2010-10-23, 04:01:16
Von den ganzen Reviews, die ich gesehen habe, kann man die, die sich wirklich sinnvoll mit BQ beschäftigen, an einer Hand abzählen. Ich sehe zurzeit nur CB, TomsHardware und allen voran PCGH, denn der Treiber-Default ist wirklich verarsche. Ich hab meine hd5k mal mit dem modifizierten 10.10a (um die Settings zu aktivieren) mit HQ und Q durch den D3DFilterTester-Parkour gejagt, und die erweiterten Bri-Bänder sprechen für sich! HQ ist hingegen im Optimum quasi identisch zu A.I. off MipMap HQ, sprich stets identische Sample-Summen und die Bilder sehen auch ziemlich ähnlich, wenn nicht absolut gleich aus. Q ist für 2xAF identisch zu HQ, generell wirkt die Optimierung je stärker, je höher der maximale AF-Grad. Aber das gilt alles nur für die HD5K, ist also hier eigentlich off-topic.
Werde die Bilder vermutlich morgen im AFVergleich Thread posten (wenn ich auch die "Leistung"-Bilder habe)

Leistungsvergleiche wären hier auch sehr nett. Dann kann man einen weiteren, hoffentlich deutlich schärferen Bericht schreiben.
Gute Arbeit!

Flatterball77
2010-10-23, 04:07:29
Im Endeffekt ein Riesenbeschiss.

Ausser Stromverbrauch, der ist optimal.

Machts gut geh mal ruhigen Gewissens schlafen.

Langenscheiss
2010-10-23, 04:45:46
Leistungsvergleiche wären hier auch sehr nett. Dann kann man einen weiteren, hoffentlich deutlich schärferen Bericht schreiben.
Gute Arbeit!

Ich könnte mal n Replay in TM aufzeichnen und schauen, allerdings limitiert das Spiel nicht mehr allzu sehr, es sei denn man benutzt Supersampling. Crysis ist glaub ich n Sonderfall, deswegen sieht das von meiner Seite wohl etwas mau aus mit Leistungsvergleiche. Außerdem würde mich noch mehr interessieren, was die HD6K-Fraktion hier anders macht. Ich würde weiterhin gerne mal eine Texel-Analyse von diesen Karten sehen und schauen, wie es nun aussieht, allerdings sind die ja für Reviews eher weniger interessant, weswegen ich da wohl warten muss, bis sich doch jemand erbarmt, eine von den Dingern zu kaufen.

horn 12
2010-10-23, 07:43:10
Jupp, Barts istz nicht für mich da ich bereist eine HD5850 @auf 850/1200 besitze.
AMD sollte es uns nun schuldig sein, CAYMAN XT/ PRO als Paperlauch zu veröffentlichen,- um nicht die Kunden an NV zu verlieren.
Ausser man kann gleich mies filtern, was ich aber nicht hoffe.

Die 4D Shader und die doch viel höhere Tess Leistung sollten Grund genug sein zu warten, aber was ist mit dem AF Filter ?

Barts wurde einfach so billig wie möglich produziert, und auf die AF Qualitöt wurde verzichtet. Somit scheinen auch die Folien sich mehr auf CAYMAN zu konzentrieren, wurden aber für Barts verwendet, bzw. umgeschrieben.
Könnte dies zutreffen ?

Cayman wird wohl über 300 Euro in der PRO, knappe 450 in der XT Version kosten können...

horn 12
2010-10-23, 08:00:10
HIER:

http://www.hwupgrade.it/articoli/skvideo/2584/amd-radeon-hd-6870-e-6850-dx-11-di-seconda-generazione_index.html

Armaq
2010-10-23, 08:17:50
Nein, war sie nicht. Die Unterschiede lagen bei der diesem Vorgang verstärkt im Kartendesign: Unterschiedliche Platinen, andere Kühllösungen, kein Hybrid-Power(!), möglicher IDLE-Modus, geringerer Last-Verbrauch usw.
Leute kaufen keine Chips, sondern immer nur Kartenpakete.
Ich habe eine BFG 9800GTX+ und die hat schon das 250 Design. Wenn das nur ein Einzelfall ist ok.

N0Thing
2010-10-23, 08:38:13
Na, dann sage doch mal, wo eine Karte so deutlich langsamer war. Eine 9800GT war exakt so schnell wie eine 8800GT.

Und sollte suggerieren, daß die Karte deutlich schneller ist. Immerhin deutet es auf eine neue Generation hin und eine 8800GTX ist ja sogar deutlich schneller gewesen als eine 7900GTX.
AMDs Umsortierung ist für den Kunden zum Nachteil ausgefallen, das hätten sie auch anders lösen können und sollen. Vor allem im Zusammenspiel mit dem schlechten AF, kommt einem der Gedanke Kundenverarsche noch schneller.
Nvidia Verhalten zu verteidigen ist inkonsequent.


Die 4830 war aber nicht ganz oben auf ihrer Prioritätenliste.
Barts war ganz oben. Hier wurde alles durchgeplant. Das war kein Zufall.

Machen wir es doch wie mit dem Preisen, die Nvidia für die Produktion ihrer Chips bezahlen muß: Wer etwas behauptet, muß es auch Beweisen, OK? :rolleyes:

Menace
2010-10-23, 08:47:20
Bzgl. Zu großer Anzahl von Alus kommt doch die kleine Karte im Vergleich zur 6870 er Karte viel zu gut weg. Das führt dazu, dass weniger diese teurere Karte kaufen bei ähnlichen Grundkosten? Welcher Vorteil hätte AMD wenn sie sich selbst kannibalisieren? Der Verlust würde den Vorteil zunichte machen und die Gefahr eine negativen Presse (siehe jetzt) ist hoch.

Bandit3644
2010-10-23, 08:56:18
also hab das "tolle" mlaa getestet in gothic 4 und muss sagen das ist grauenhaft. ein weiters problem das programme die über die graka laufen auch unscharf werden und man nix mehr lesen kann:freak: da finde ich das starke flimmern besser als match und leichtes flimmern. dachte ich sitze in der waschküche und meine brille ist beschlagen. extremer match und unscharf. werde mir jetzt überlegen nächste woche ne gtx 470 zu ordern und die bis anschlag oc und gut is.

(del)
2010-10-23, 11:01:43
Für 200€ Netto muss ich etwa 4 Tage arbeiten.Nicht schlecht :ulol:

EvilTechno
2010-10-23, 11:35:27
Ich kann kaum glauben dass NV so gut für ..... konstuktive Beiträge im Web bezahlt.

SamLombardo
2010-10-23, 11:43:04
werde mir jetzt überlegen nächste woche ne gtx 470 zu ordern und die bis anschlag oc und gut is.
Wenn Du nicht zu den Stromsparfeteschisten gehörst, ist das das Beste was Du zur Zeit machen kannst. 20+ Prozent OC sind bei der 470 ohne Spannungserhöhung eigentlich immer drin, mit meistens ne Ecke mehr. Und diese Prozente setzen sich quasi 1:1 in fps um. Damit hast für 200€ annähend die Leistung einer default GTX480. HighEnd zum Sparpreis:smile:

Franzmann-Jan
2010-10-23, 11:56:57
Gibt es hier eigentlich auch eine AMD Defense-Force?? Ich finds krass, dass dieser Thread zu einem Nvidia-Kaufempfehlungsthread mutiert und alle dabei glücklich sind :tongue:

Spasstiger
2010-10-23, 12:03:01
Die GTX 470 wäre für mich erst mit Alternativkühlung eine Option, z.B. die Zotac AMP!. Dann wirds aber deutlich teurer als 200€, die AMP! ist erst ab 270€ lieferbar.
Eine (selbst) übertaktete GTX 460 ist nicht so weit von einer übertakteten GTX 470 entfernt und man bekommt ein Non-Referenzdesign mit sehr guten Kühl- und Verbrauchseigenschaften schon für 170-180€ (z.B. MSI Cyclone).

SamLombardo
2010-10-23, 12:04:50
Gibt es hier eigentlich auch eine AMD Defense-Force?? Ich finds krass, dass dieser Thread zu einem Nvidia-Kaufempfehlungsthread mutiert und alle dabei glücklich sind :tongue:
Was gibt es denn für tatsächliche objektive Gründe eine 6870 einer GTX470 vorzuziehen? Es sei denn man kauft seine Karte um damit Strom zu sparen (Das ist ein Nachteil von GF100 aber es ist der einzige!). Was soll da eine AMD Defence Force bewirken:wink:?

Edit @ Spasstiger, OK wenn man auf Silent wert legt ist der Preisunterschied ein Argument.

Spasstiger
2010-10-23, 12:09:14
Was gibt es denn für Gründe eine 6870 einer GTX470 vorzuziehen?
Ähnliche Performance bei 70-80 Watt weniger Abwärme. Mit SG-SSAA landet die HD 6870 bei Computerbase @ 1920x1200 in drei von vier Fällen sogar vor der GTX 470: http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update/21/#abschnitt_benchmarks_mit_ssaa.

mironicus
2010-10-23, 12:12:33
Na ja die Leute die sich jetzt die 6850/6870 geholt haben dürften jetzt wohl besseres zu tun haben, als sich mit NVidia-Fanboys einzulassen. :D

Mancko
2010-10-23, 12:12:38
Gibt es hier eigentlich auch eine AMD Defense-Force?? Ich finds krass, dass dieser Thread zu einem Nvidia-Kaufempfehlungsthread mutiert und alle dabei glücklich sind :tongue:

Naja sagen wir mal so ich glaube dass auch viele die AMD eher zugeneigt sind und vielleicht nicht zu den Hardcore Fanboys gehören, ziemlich enttäuscht und auch sauer über diesen Launch sind. Mal Hand aufs Herz was ist hier eigentlich besser geworden ausser die FPS, ein bisschen 3D Support und vielleicht noch der Stromverbrauch?
Die Antwort ist simple gar nichts. Man muss wiedermal merkliche Abstriche bei der Bildqualität machen, und bekommt reihenweise oberflächliche Reviews vor die Nase gesetzt, die sich 1:1 an den Reviewerguide von AMD halten. Es werden falsche Testkarten verschickt, was nie und nimmer ein Zufall ist und em Ende kommt das neue Namensschema. Letzteres regt mich jetzt persönlich nicht so auf, da AMD nunmal eine Company und ein Geschäft zu führen hat und kein Wohlfahrtsverein ist. Insofern gehört letztere Maßnahme schon mit dazu. Das ist für mich noch OK.

Das erstere ist allerdings nicht mehr Ok und was noch viel peinlicher ist, ist die Tatsache das man bei DX11 nach wie vor hinter Nvidia liegt. Die Produkte mögen günstiger herzustellen sein aber richtige Fanbase und hohe Absatzpreise erzielt man nur mit Mut und richtigen Enthusiast Produkten. Bei letzterem scheint mir AMD eher in die Richtung des Billigheimers zu wandern, ähnlich wie bei CPUs. Hauptsache Masse.

Die nächsten Tage werden richtig spannend denn es werden nach den Aktionen einige Reviewer nochmal nachtesten und wahrscheinlich deutlich kritischere Töne von sich geben und wahrscheinlich auch den HAWX Bench dazupacken. Der Druck auf die Reviewer wächst durch die Leser und Forenmitglieder. Das was PCGH und andere wenige herausgefunden haben hat sich in fast allen Foren bekannter Reviewseiten schon herumgesprochen. Das kann für AMD auch zum Fiasko werden, weil der Ruf stark sinkt. Nvidia wird das auch mitbekommen und wird wahrscheinlich einen knallharten Preiskampf bis zum Refresh fahren. Letztere sind nicht mehr so weit weg.

ChaosTM
2010-10-23, 12:15:21
Gibt es hier eigentlich auch eine AMD Defense-Force?? Ich finds krass, dass dieser Thread zu einem Nvidia-Kaufempfehlungsthread mutiert und alle dabei glücklich sind :tongue:

Die Nvidia Fraktion ist nur momentan etwas lauter.
Im Vergleichs-thread steht es momentan unentschieden. ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494253

SamLombardo
2010-10-23, 12:20:39
Ähnliche Performance bei 70-80 Watt weniger Abwärme. Mit SG-SSAA landet die HD 6870 bei Computerbase @ 1920x1200 in drei von vier Fällen sogar vor der GTX 470: http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update/21/#abschnitt_benchmarks_mit_ssaa.
Ja ok CB;) Bei PCGH siehts genau andersrum aus. Dazu kommt wie gesagt die extrem gute Übertaktbarkeit der 470. Außerdem: Selbst wenn sich die Performanceunterschiede im Rahmen halten hätte man die typischen AMD Nachteile wie Flimmer AF und mangelnde DX11/Tessellation Leistung (die heute noch keine limitierende Rolle spielt -um das Gegenargument vorweg zu nehmen;)-). Bleibt noch die Abwärme. Aber lassen wir das, wir drehen uns im Kreis:smile:. Es sind beides gute Karten und wenn man das Silentargument mit einbezieht, liegt die 470 ja sowieso in einer anderen Preisklasse.

boxleitnerb
2010-10-23, 12:23:54
PCGH hat nicht mit SSAA gebencht.

Klingone mit Klampfe
2010-10-23, 12:28:06
Gibt es hier eigentlich auch eine AMD Defense-Force?? Ich finds krass, dass dieser Thread zu einem Nvidia-Kaufempfehlungsthread mutiert und alle dabei glücklich sind :tongue:

Du bist hier im nvidiacenter, nicht gewusst? Ich habe gar keine Lust, meine ATI-Karte zu verteidigen. Ich spare in Ruhe Strom und spiele meine casual games, neue "große" Spiele gibt's ja eh nicht mehr.

SamLombardo
2010-10-23, 12:29:23
PCGH hat nicht mit SSAA gebencht.
ok, akzeptiert:). War ja immer schon Domäne der HD5000er gewesen. Insofern durchaus ein Pluspunkt.

Alexander
2010-10-23, 12:29:42
Von den ganzen Reviews, die ich gesehen habe, kann man die, die sich wirklich sinnvoll mit BQ beschäftigen, an einer Hand abzählen. Ich sehe zurzeit nur CB, TomsHardware und allen voran PCGH, denn der Treiber-Default ist wirklich verarsche. Ich hab meine hd5k mal mit dem modifizierten 10.10a (um die Settings zu aktivieren) mit HQ und Q durch den D3DFilterTester-Parkour gejagt, und die erweiterten Bri-Bänder sprechen für sich! HQ ist hingegen im Optimum quasi identisch zu A.I. off MipMap HQ, sprich stets identische Sample-Summen und die Bilder sehen auch ziemlich ähnlich, wenn nicht absolut gleich aus. Q ist für 2xAF identisch zu HQ, generell wirkt die Optimierung je stärker, je höher der maximale AF-Grad. Aber das gilt alles nur für die HD5K, ist also hier eigentlich off-topic.
Werde die Bilder vermutlich morgen im AFVergleich Thread posten (wenn ich auch die "Leistung"-Bilder habe)
Endlich mal jemand der etwas zum Thema beiträgt anstatt herumzuspammen wie z.b. flatterball.

Frage:
Sieht man beim Spielen einen Unterschied zwischen den verschiedenen Bildqulitäten wirklich? (Nvidia normal vs Nvidia hoch bzw. ATIs neuste Verarsche bei den 68X0 vs die normale ATI Quali) Oder merkt man dies nur, wenn man sehr penibel testet?

Und ist nur eine einmalige Einstellung in irgendeinem Menü notwendig, um bei den 68X0 auf die gewohnte Qualität umzustellen? Oder muss man immer wieder bei den Einstellungen herumfummeln? Schlimmstenfalls bei jedem Game aufs neue?


Der Hintergrund der Frage:
Wenn man bei den neuen ATI einfach auf die normale Quli umstellen kann und diese Quali fürs Gamen dann mehr als zufriedenstellend ist, dann könnte ich mit der Graka doch noch leben.


Danke.

Spasstiger
2010-10-23, 12:29:53
Die GTX 470 ist für den spielenden Konsumenten imo unnötig. Von der hohen Geometrieleistung profitiert bislang kein Spiel und sonst hat sie auch keine wesentlichen Vorteile gegenüber einer GTX 460 OC. Bleibt unterm Strich nur eine unnötig hohe Leistungsaufnahme von meist weit über 200 Watt, die man bei geringer Lautstärke kaum weggekühlt bekommt.
Bei der Kaufentscheidung für eine GTX 470 spielt imo der psychologische Faktor eine größere Rolle als eine tatsächliche objektive Abwägung. Die GTX 470 setzt halt auf den High-End-Chip.
Ich hatte ja auch mal so eine Karte, die Radeon HD 2900 Pro. Da lag zwar die max. Leistungsaufnahme noch unter 150 Watt, aber im Nachhinein hätte ich Ende 2007 doch lieber die 20€ mehr für eine Radeon HD 3850 in die Hand genommen. Es hatte halt seinen Reiz, einen High-End-Chip auf einem High-End-PCB (FireGL) für 130€ zu bekommen.

EvilTechno
2010-10-23, 12:31:48
In der ersten Hälfte des Fadens waren ja vermehrt Fakten zu vernehmen (Einsparungen beim AF, ect.). Das ist ja durchaus ernstzunehmen und sollte für jeden eine Aufforderung sein, sich darüber zu informieren, sobald belastbare Tests rauskommen.

Ab der zweiten Hälfte nehmen dann die DAU-Schützer ein wenig überhand. Das sind ehrenamtliche Helfer, die potentielle AMD-Käufer davon abhalten wollen, eine günstige 68xx zu kaufen, den refresh zur ursprünglich schon günstigen 58xx. Sozusagen der 104er unter den AMDs.

Dabei sind die DAU-Helfer so psychologisch geschicht NICHT zu betonen, dass NV mit krudem Umbenennen ihrer Grafikkarten vorgemacht hat, wie man mit Marketingmaßnahmen Laien mit ihrer eigenen Erwartunghaltung ködert. Denn NV hat damit nicht angefangen, vielmehr ist der Patentschutz für dieses Vorgehen gerade abgelaufen (siehe Porsche 914; 1969).

Stattdessen schweigen sie NVs Situation tot und dazu haben sie auch guten Grund.

Der Underdog-Bonus den AMD/Ati genießt, steht eigentlich NV zu. Nach dem letzten großartigen Stück Hardware dass sie rausgehauen haben kamen mehrere refreshes derselben und dann die GF100 und GF104 Reihe.

Die 104er werden hier zurecht als Gegenspieler der Radeons aufgeführt, die 100er jedoch waren ein Akt der Verzweiflung, vergleichbar mit der Radeon 2900er Serie.

Man stelle sich vor, der 104er wäre nicht da. Dann hätte NV nur laute, heiße und ziemlich teure Karten im Angebot die eher für reinen Renderpark geeignet sind als einen Midi-Tower.

Noch ein paar Karten von der Sorte und man schaut traurig Intel und AMD dabei zu wie sie "fusionieren". Und dann ist der Affe tot, die Maus beisst keinen Faden mehr ab.

Gönnen wir den fanboys ein letztes Jahr der Häme bevor NV sich hinter Matrox einreiht (DAS waren noch Grafikkarten). Amen.

SamLombardo
2010-10-23, 12:33:23
Du bist hier im nvidiacenter, nicht gewusst? Ich habe gar keine Lust, meine ATI-Karte zu verteidigen. Ich spare in Ruhe Strom und spiele meine casual games, neue "große" Spiele gibt's ja eh nicht mehr.
War das Fettgedruckte jetzt Ironie?

Und zu dem Anderen: Denkst Du nicht dass es sich die Wage hält? Ich meine, die NV und AMD Anhänger sind hier etwa gleich stark vertreten. Genauso wie die in der Mitte. Also sind Verschwörungstheorien imho fehl am Platz.

SamLombardo
2010-10-23, 12:37:18
Gönnen wir den fanboys ein letztes Jahr der Häme bevor NV sich hinter Matrox einreiht (DAS waren noch Grafikkarten). Amen.
Was soll das denn?

Eggcake
2010-10-23, 12:39:29
War das Fettgedruckte jetzt Ironie?

Und zu dem Anderen: Denkst Du nicht dass es sich die Wage hält? Ich meine, die NV und AMD Anhänger sind hier etwa gleich stark vertreten. Genauso wie die in der Mitte. Also sind Verschwörungstheorien imho fehl am Platz.

Das Ding ist halt, dass es um die 6850/6870 gehen sollte, ich jedoch praktisch auf jeder Seite irgendwas von "GTX470 nur 200€ omgomgomg" lese.

(del)
2010-10-23, 13:01:58
CB hat jetzt beide 6850 gebencht. Sobald man AA/AF einschaltet ist der Unterschied von 160 ALUs entweder kaum wahrnehmbar (~4fps) schneller bis... langsamer? :|

Wobei das Interessanteste an dem Vergleich ist, wie unsinnig eine der Karten ist. Die Abstände sind lächerlich.

Langenscheiss
2010-10-23, 13:16:20
Endlich mal jemand der etwas zum Thema beiträgt anstatt herumzuspammen wie z.b. flatterball.

Frage:
Sieht man beim Spielen einen Unterschied zwischen den verschiedenen Bildqulitäten wirklich? (Nvidia normal vs Nvidia hoch bzw. ATIs neuste Verarsche bei den 68X0 vs die normale ATI Quali) Oder merkt man dies nur, wenn man sehr penibel testet?

Und ist nur eine einmalige Einstellung in irgendeinem Menü notwendig, um bei den 68X0 auf die gewohnte Qualität umzustellen? Oder muss man immer wieder bei den Einstellungen herumfummeln? Schlimmstenfalls bei jedem Game aufs neue?


Der Hintergrund der Frage:
Wenn man bei den neuen ATI einfach auf die normale Quli umstellen kann und diese Quali fürs Gamen dann mehr als zufriedenstellend ist, dann könnte ich mit der Graka doch noch leben.


Danke.

Also zu den Hd6k Karten kann ich wohl kaum was sagen, da ich sie nicht hab. Ich werde den Unterschied HQ,Q,L zunächst theoretisch untersuchen, und dann ähnlich wie bei Ht4u auch mal mit dem 3dCenterFilterTester Videos mit bewegten Texturen machen, um Flimmern aufzudecken. Leider kann man bei der Hd5K nie sagen, ob dieser Effekt jetzt wieder vom AF banding, unter einfach nur vom Unterfiltern kommt.
So gehe jetzt mal die Stufe "Leistung" testen.

Popeljoe
2010-10-23, 13:19:50
CB hat jetzt beide 6850 gebencht. Sobald man AA/AF einschaltet ist der Unterschied von 160 ALUs entweder kaum wahrnehmbar (~4fps) schneller bis... langsamer? :|

Wobei das Interessanteste an dem Vergleich ist, wie unsinnig eine der Karten ist. Die Abstände sind lächerlich.
Sinkt dadurch nicht auch der Stromverbrauch? :freak:

Meine Fresse: wie schlimm ist es denn, dass AMD performante Karten zu einem guten Preis rausbringt?
Manche Leute sollten mal ihre Prioritäten überprüfen! :wink:

PulsarS
2010-10-23, 13:23:40
Endlich mal jemand der etwas zum Thema beiträgt anstatt herumzuspammen wie z.b. flatterball.

Frage:
Sieht man beim Spielen einen Unterschied zwischen den verschiedenen Bildqulitäten wirklich? (Nvidia normal vs Nvidia hoch bzw. ATIs neuste Verarsche bei den 68X0 vs die normale ATI Quali) Oder merkt man dies nur, wenn man sehr penibel testet?

Und ist nur eine einmalige Einstellung in irgendeinem Menü notwendig, um bei den 68X0 auf die gewohnte Qualität umzustellen? Oder muss man immer wieder bei den Einstellungen herumfummeln? Schlimmstenfalls bei jedem Game aufs neue?


Der Hintergrund der Frage:
Wenn man bei den neuen ATI einfach auf die normale Quli umstellen kann und diese Quali fürs Gamen dann mehr als zufriedenstellend ist, dann könnte ich mit der Graka doch noch leben.


Danke.
Das kann dir niemand beantworten.

Da die Wahrnehmungsfähigkeit bei jedem etwas anders ist, probier es doch einfach aus.
Dazu habe ich auch schon im anderen Thread etwas geschrieben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8344142&postcount=104

edit:
Sinkt dadurch nicht auch der Stromverbrauch? :freak:

Müsste geringfügig sinken, so ca 5-10 Watt unter Last. Mehr denke ich wird es nicht sein.

Popeljoe
2010-10-23, 13:42:09
Leute, ich habe eben mal wieder einige Posts wegen mangelndem Inhalt löschen dürfen. Hört auf mit inhaltslosem ANTI-NV/ANTI-ATI Spam!

(del)
2010-10-23, 13:42:30
Meine Fresse: wie schlimm ist es denn, dass AMD performante Karten zu einem guten Preis rausbringt?
Manche Leute sollten mal ihre Prioritäten überprüfen! :wink:Ist es so schwer zu verstehen, daß egal wie gut die Ware ist, der Kunde nicht darauf steht, wenn man ihn dabei trotzdem noch auf den Arm nehmen will? :|

Die Priorität lautet: Nicht zum Narren halten lassen. Wenn man etwas kauft, vertraut man dem Hersteller. Oder man vertraut auf irgendetwas, was jetzt das ganze Produkt angeht. Ich hab grad ein Problem damit das Vertrauensverhältnis zu AMD/ATI, welches mit 9800/850/1950/3870/5770 bestand, aufrechtzuerhalten.

Das sind genauso offensichtliche wie bescheuerte Marketingsspielchen. Selbst wenn man etwas brauchbares kauft entsteht dabei trotzdem ein komisches Gefühl, wenn man bei einem Idioten kauft. Oder alternativ bei jemanden, der meint schlau zu sein, wenn er dich selbst für einen Idioten hält.

hmx
2010-10-23, 13:58:54
Du bist hier im nvidiacenter, nicht gewusst? Ich habe gar keine Lust, meine ATI-Karte zu verteidigen. Ich spare in Ruhe Strom und spiele meine casual games, neue "große" Spiele gibt's ja eh nicht mehr.

Und wie viel Geld sparst du dadurch im Jahr? Man sollte beim Stromverbrauch nicht den selben Fehler machen, den viele Leute bei Benchmarkbalken machen.

Grey
2010-10-23, 14:03:27
Sinkt dadurch nicht auch der Stromverbrauch? :freak:

Meine Fresse: wie schlimm ist es denn, dass AMD performante Karten zu einem guten Preis rausbringt?
Manche Leute sollten mal ihre Prioritäten überprüfen! :wink:

Naja der Serienname suggeriert dem ordinären Käufer mal wieder mehr, als das Produkt kann. Finde ich nicht gut. Sollte imo in einer anderen Linie laufen und nicht einen Nachfolger suggerieren, der keiner ist.

Mark3Dfx
2010-10-23, 14:03:45
Zumal ich bezweifel das die Leute Ihren PC anschalten und danach 24/7 unter
LAST betreiben!

99% idelt er eh in x Stromsparmodi rum
und dann sind ~5 Watt unterschied zwischen 460 1GB, 6850 und 6870
nun wirklich nicht der Rede Wert.

PulsarS
2010-10-23, 14:07:28
Und wie viel Geld sparst du dadurch im Jahr? Man sollte beim Stromverbrauch nicht den selben Fehler machen, den viele Leute bei Benchmarkbalken machen.
Sparen wird man da wirklich nicht so viel, das ist korrekt.
Das ist eher eine psychologische Einstellung.
Man sieht ja heute in verschiedenen Bereichen, dass Stromsparen sehr gern als Verkaufsargument genommen wird.
Siehe z.B. auch LED-TV.
Die sparen im Vergleich zu einem CCFL-TV ca. 50 Watt ein, was für viele aber schon ein Grund ist 200 Euro mehr auszugeben.
Zur Zeit scheint allgemein der Öko-Virus präsent zu sein.
Nvidia hatte einfach bisschen Pech mit dem GF100, da dieser gerade in diese Zeit fällt.
Vor ein paar Jahren wäre der Stromverbrauch wahrscheinlich nicht so heftig kritisiert worden.

hmx
2010-10-23, 14:12:58
Sparen wird man da wirklich nicht so viel, das ist korrekt.
Das ist eher eine psychologische Einstellung.
Man sieht ja heute in verschiedenen Bereichen, dass Stromsparen sehr gern als Verkaufsargument genommen wird.
Siehe z.B. auch LED-TV.
Die sparen im Vergleich zu einem CCFL-TV ca. 50 Watt ein, was für viele aber schon ein Grund ist 200 Euro mehr auszugeben.
Zur Zeit scheint allgemein der Öko-Virus präsent zu sein.
Nvidia hatte einfach bisschen Pech mit dem GF100, da dieser gerade in diese Zeit fällt.
Vor ein paar Jahren wäre der Stromverbrauch wahrscheinlich nicht so heftig kritisiert worden.

Wenn durch den Mehrverbrauch andere Nachteile entstehen wie zb Lautstärke oder zu viel Abwärme im Gehäuse, NT zu klein ist das ein Argument. So ist es leider bei mir, denn unter Last sind mit die billigen 470er einfach zu laut, die höre ich durch meine KH, da die nicht geschlossen sind.

Die Sache mit dem Geld sparen ist aber typisch, kaum hören die Leute das Wort "Sparen" geht das Hirn aus und es wird nicht mehr nachgedacht ob das überhaupt Sinn macht.

LovesuckZ
2010-10-23, 14:48:01
Falsche Presse-Samples wurden von Sapphire, HIS und XFX rausgeschickt.

Und das sagt AMD dazu:


Apparently a small number of the AMD Radeon HD 6850 press samples shipped from AIB partners have a higher-than-expected number of stream processors enabled.

This is because some AIBs used early engineering ASICs intended for board validation on their press samples. The use of these ASICs results in the incorrect number of stream processors. If you have an HD 6850 board sample from an AIB, please test using a utility such as GPU-z to determine the number of active stream processors. If that number is greater than 960, please contact us and we will work to have your board replaced with a production-level sample.

All boards available in the market, as well as AMD-supplied media samples, have production-level GPUs with the correct 960 stream processors.

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=12388&Itemid=47

Sie wussten also, was sie an die Tester verschickten. Und wenn es bei drei unabhängigen(?) Partner geschieht, dann wusste AMD auch davon.

Captain Future
2010-10-23, 14:48:56
CB hat jetzt beide 6850 gebencht. Sobald man AA/AF einschaltet ist der Unterschied von 160 ALUs entweder kaum wahrnehmbar (~4fps) schneller bis... langsamer? :|

Wobei das Interessanteste an dem Vergleich ist, wie unsinnig eine der Karten ist. Die Abstände sind lächerlich.
Also in meiner Welt sind das in dern aa/AF Ratings in 1920 und 1680 7 bzw. 4 Prozent unterschied, die durch die Shader rausgeholt werden. Wo per Treiber doch an jedem Sample gespart wird, ist das kein kleiner Unterschied IMHLO.

PulsarS
2010-10-23, 14:53:05
Falsche Presse-Samples wurden von Sapphire, HIS und XFX rausgeschickt.

Sie wussten also, was sie an die Tester verschickten. Und wenn es bei drei unabhängigen(?) Partner geschieht, dann wusste AMD auch davon.
Glaub ich nicht, dass sie es wussten.
Wenn bekannt würde, dass es Absicht war, wäre der Imageschaden viel grösser als die paar Prozent mehr Performance bei den Benchmarks.

Iruwen
2010-10-23, 15:21:30
Mal Hand aufs Herz was ist hier eigentlich besser geworden ausser die FPS, ein bisschen 3D Support und vielleicht noch der Stromverbrauch?

Der Preis? ;)

hq-hq
2010-10-23, 17:32:28
Nicht schlecht :ulol:

mein Gedanke :freak:

und hey LoL, sicher war es ein Versehen die "falschen" 6850 Karten zu verschicken und noch sicherer ist es nicht mit AMD abgestimmt gewesen weil wieso sollte das auch jemand bei AMD interessieren ist doch garnicht wichtig :wink:
es zählt ja meist eh nur der erste Eindruck hehehe

OgrEGT
2010-10-23, 17:54:38
Falsche Presse-Samples wurden von Sapphire, HIS und XFX rausgeschickt.

Und das sagt AMD dazu:

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=12388&Itemid=47

Sie wussten also, was sie an die Tester verschickten. Und wenn es bei drei unabhängigen(?) Partner geschieht, dann wusste AMD auch davon.

Ich finde die ganze Inquisition etwas übertrieben.
Die ganze Sache wurde doch schnell erkannt, und ist auch mittlerweile transparent, und auch von AMD richtiggestellt worden.

Hierbei AMD hier Absicht zu unterstellen macht nicht unbedingt Sinn, da Erstens das schwächere Modell 6850 betroffen ist (welche ohnehin auch mit nur 960 SP's gegen die GTX460-786 gut aufgestellt ist) und Zweitens sich die HD6870 weiterhin im Durchschnitt leistungsmäßig vor der GTX460-1024 platziert hat und Drittens bereits in wenigen Wochen die Highend Modelle HD6970 und HD 6950 vorgestellt werden, welche um die Single-GPU Krone mitspielen werden (vielleicht sogar mit noch weiter verbesserter BQ). Bekannterweise hat die Leistungskrone bei den Single-GPU Karten psychologisch positive Effekte auch für die unteren Marktsegmente.

Die Frage die sich stellt ist, warum sollte AMD ohne Druck dennoch absichtlich falsche HD 6850 Samples zum Review versendet haben?

hmx
2010-10-23, 18:05:01
Ich finde die ganze Inquisition etwas übertrieben.
Die ganze Sache wurde doch schnell erkannt, und ist auch mittlerweile transparent, und auch von AMD richtiggestellt worden.

Hierbei AMD hier Absicht zu unterstellen macht nicht unbedingt Sinn, da Erstens das schwächere Modell 6850 betroffen ist (welche ohnehin auch mit nur 960 SP's gegen die GTX460-786 gut aufgestellt ist) und Zweitens sich die HD6870 weiterhin im Durchschnitt leistungsmäßig vor der GTX460-1024 platziert hat und Drittens bereits in wenigen Wochen die Highend Modelle HD6970 und HD 6950 vorgestellt werden, welche um die Single-GPU Krone mitspielen werden (vielleicht sogar mit noch weiter verbesserter BQ). Bekannterweise hat die Leistungskrone bei den Single-GPU Karten psychologisch positive Effekte auch für die unteren Marktsegmente.

Die Frage die sich stellt ist, warum sollte AMD ohne Druck dennoch absichtlich falsche HD 6850 Samples zum Review versendet haben?


Das Ding ist aber, dass die falsche 6850 sich preislich und Leistungsmäßig besser gegen die sehr beliebte 460 1Gb positioniert hätte.
Die 6870 muss gegen die OC Varianten der 460er antreten.

Menace
2010-10-23, 18:09:11
Die Frage die sich stellt ist, warum sollte AMD ohne Druck dennoch absichtlich falsche HD 6850 Samples zum Review versendet haben?

Es stellen sich viel mehr Fragen:

1. Welche Leute unterstellen AMD damit Absicht? (Bisher fand ich diese Unterstellungen vor allem bei Schreibern die nicht gerade für ihre Neutralität bekannt sind. :freak: )

2. Man möge mir erklären, warum AMD einen Vorteil davon hätte, wenn die billigere Karte fast so gut ist, wie die teurere.

3. Warum sollte AMD sich der Gefahr der Rufschädigung aussetzen (wie viele Webseiten haben jetzt schon mit dicker Schrift ihre Testresultate in Frage gestellt)für gerade mal 7% (?) Mehrleistung.

Verdächtiger wäre es, wenn es die große und teurere Karte wäre, die die Einmalverbesserungen hätten.

Wie jede Verschwörungstheorie basiert auch diese vor allem auf esoterische Vermutungen. Wahrscheinlich steht bei denen ein Atlantis-Astro-TV-Kristallschädel. :wink:

OgrEGT
2010-10-23, 18:15:07
Das Ding ist aber, dass die falsche 6850 sich preislich und Leistungsmäßig besser gegen die sehr beliebte 460 1Gb positioniert hätte.
Die 6870 muss gegen die OC Varianten der 460er antreten.

Naja OK, das ist ein Punkt, wenn auch das noch geklappt hätte, dann wär's optimal für AMD gewesen, aber die 6850 auch "nur" gegen die GTX460-768 stellen zu müssen ist immer noch volkommen OK. Die GTX-768 ist ja auch keine schlechte Karte.

Wie gesagt, die Situation sieht doch noch immer gut genug aus für die HD68xx Serie, sodass AMD auf diese Art von Marketing zum jetzigen Zeitpunkt gar nicht zurückgreifen hätte müssen. Zumal der Unterschied, dass 160 SP's zuviel aktiv waren, so oder so viel zu schnell aufgeflogen wäre um daraus wirklich Kapital zu schlagen, was auch so passiert ist. Das wäre wirklich eine saudämliche Aktion, wenn sie denn beabsichtigt war.

OgrEGT
2010-10-23, 18:15:58
Es stellen sich viel mehr Fragen:

1. Welche Leute unterstellen AMD damit Absicht? (Bisher fand ich diese Unterstellungen vor allem bei Schreibern die nicht gerade für ihre Neutralität bekannt sind. :freak: )

2. Man möge mir erklären, warum AMD einen Vorteil davon hätte, wenn die billigere Karte fast so gut ist, wie die teurere.

3. Warum sollte AMD sich der Gefahr der Rufschädigung aussetzen (wie viele Webseiten haben jetzt schon mit dicker Schrift ihre Testresultate in Frage gestellt)für gerade mal 7% (?) Mehrleistung.

Verdächtiger wäre es, wenn es die große und teurere Karte wäre, die die Einmalverbesserungen hätten.

Wie jede Verschwörungstheorie basiert auch diese vor allem auf esoterische Vermutungen. Wahrscheinlich steht bei denen ein Atlantis-Astro-TV-Kristallschädel. :wink:


So ist es.

LovesuckZ
2010-10-23, 18:25:48
Ich finde die ganze Inquisition etwas übertrieben.
Die ganze Sache wurde doch schnell erkannt, und ist auch mittlerweile transparent, und auch von AMD richtiggestellt worden.

Es zählt der Ersteinderuck für viele Leute. Die richtigen Werte wurden erst deutlich später hinzugefügt.
Es war also überhaupt nicht transparent gewesen beim Fall des NDA. Auch hat AMD keine Warnung vor bzw. gleichzeitig veröffentlicht.


Hierbei AMD hier Absicht zu unterstellen macht nicht unbedingt Sinn,[...]

Die Frage die sich stellt ist, warum sollte AMD ohne Druck dennoch absichtlich falsche HD 6850 Samples zum Review versendet haben?

AMD hat auch ohne Grund die Standard-Bildqualität der ansiotropen Filterung gegenüber A.I Standard gesenkt und gleichzeitig gegenüber der Presse den Eindruck erweckt, dass man die Qualität verbessert habe (A.I Standard + Bandingentfernung).

Auch als Fan von AMD sollte man doch akzeptieren, dass sie hier mit unerlaubten Mitteln probiert haben, Barts besser zu präsentieren als er es wäre. Und es hat auch sehr gut geklappt, wie man in Foren lesen kann.

horn 12
2010-10-23, 18:31:54
Nun, denke das AF wird komplett NUR bei Cayman mir seinen 4D Shadern überarbeitet, und Barts hat nur eine kleine Schnitte erhalten, aber von AMD richtigerweise FALSCH groß angepriesen... Dies hätte man nicht erwähnen sollen bei der Barts Version...

@AnarchX
Wann soll Cayman nun releast werdne und wie schnell werden laut DIR die beiden Cayman PRO / XT Grafikkarten, und wie Teuer ?

hq-hq
2010-10-23, 18:39:08
die 1120 shader waren einfach nötig um sich von der gtx460 768mb und 1gb ohne OC absetzen zu können, das ist doch eigentlich ganz einfach :rolleyes:

solang der cayman was wird darf amd ruhig bissl scheisse baun find ich :freak:
der cayman muss mindestens 10% schneller sein als die gtx480, das wird glaub ich aber auch net das problem ;)

OgrEGT
2010-10-23, 18:54:46
Es zählt der Ersteinderuck für viele Leute. Die richtigen Werte wurden erst deutlich später hinzugefügt.
Es war also überhaupt nicht transparent gewesen beim Fall des NDA. Auch hat AMD keine Warnung vor bzw. gleichzeitig veröffentlicht.

Wer weiß schon genau was intern bei AMD oder den betroffenen Partnern schief gelaufen ist? Ich glaube es sind einfach Fehler gemacht worden, vielleicht auch von Einzelpersonen. Muss ja nicht immer gleich eine Verschwörung dahinterstecken.

AMD hat auch ohne Grund die Standard-Bildqualität der ansiotropen Filterung gegenüber A.I Standard gesenkt und gleichzeitig gegenüber der Presse den Eindruck erweckt, dass man die Qualität verbessert habe (A.I Standard + Bandingentfernung).

Das wurde sicherlich absichtlich das so gemacht. An einen Fehler glaube ich nicht. Die Funktion ist aber jetzt bekannt. Das Banding hat man in der Tat entfernt. Die Standardeinstellung ist jetzt eben eine andere und insgesamt wurde das AF verbessert, leider nur noch nicht bei NV Qualität angekommen.

Auch als Fan von AMD sollte man doch akzeptieren, dass sie hier mit unerlaubten Mitteln probiert haben, Barts besser zu präsentieren als er es wäre. Und es hat auch sehr gut geklappt, wie man in Foren lesen kann.

"Unerlaubt" nur wenn Du das auch beweisen kannst. Du müsstest vom Vorsatz ausgehen. Im Fall der falschen Samples ist dies eher unwahrscheinlich, weil das zu stümperhaft gewesen wäre. Einen Vorsatz im analogen Fall würde ich übrigens auch nicht von Nvidia erwarten.

Menace
2010-10-23, 18:54:47
Wieso erklärt mir von den Verschwörungstheorie Anhänger keiner, warum AMD sich eigene Konkurrenz zur 6870 machen sollte. Solange das nicht geklärt ist, ist die Unterstellung in sich nicht schlüssig (mit Ockham komme ich mal ausnahmsweise nicht).

Ach ja, es geht gar nicht um Aufklärung.

LovesuckZ
2010-10-23, 19:02:23
Wer weiß schon genau was intern bei AMD oder den betroffenen Partnern schief gelaufen ist? Ich glaube es sind einfach Fehler gemacht worden, vielleicht auch von Einzelpersonen. Muss ja nicht immer gleich eine Verschwörung dahinterstecken.

Solche Launches sind keine Ausnahme. Bei nVidia passiert so etwas nie. Weder die GTX470, noch die GTX260 hatten falsche Spezifikationen.
Diese Launches sind auch durchorganisiert. Es war geplant.


Das wurde sicherlich absichtlich das so gemacht. An einen Fehler glaube ich nicht. Die Funktion ist aber jetzt bekannt. Das Banding hat man in der Tat entfernt. Die Standardeinstellung ist jetzt eben eine andere und insgesamt wurde das AF verbessert, leider nur noch nicht bei NV Qualität angekommen.

Es geht nicht um nVidia. Es geht um die vorige Standard-Einstellung im Treiber. Und diese wurde mit dem Review-Treiber für Barts und erst nach dem NDA für alle anderen umgesetzt. nVidia spielt hier keine Rolle.



"Unerlaubt" nur wenn Du das auch beweisen kannst. Du müsstest vom Vorsatz ausgehen. Im Fall der falschen Samples ist dies eher unwahrscheinlich, weil das zu stümperhaft gewesen wäre.

Nein. Wieso? Anscheinend sind Reviewer unter Zeitdruck nicht in der Lage Karten, Einstellungen und Ergebnisse auf Richtigkeit zu validieren. Ich sehe also klaren vorsatz. Denn diese absolute Aussage ergibt sich allen Zahnrädchen, die bei diesen Launch nicht hätten passieren dürfen.

hq-hq
2010-10-23, 19:06:15
aus versehen hat man bestimmt nicht die "falschen" karten verschickt, entweder hat man es billigend in kauf genommen und/oder es war abgesprochen. wenn es dummheit gewesen ist dann frag ich mich warum es mehrere brands betrifft.

einfach nur naiv zu denken es ist aus purer dummheit einzelner geschehen.

- wie auch immer, ob nun 6870 oder gtx460 mit 800mhz da entscheidet jetzt einfach der preis oder die färbung

ChaosTM
2010-10-23, 19:08:55
Mr. Nvidia hat gesprochen!

"Shadergate" ist eine klare Verschwörung gegen den Endverbraucher und AMD ist the Evil!

Honestly dude... :biggrin:

edit.: bezieht sich auf LovesuckZ`s post. Ich war zu langsam oder hätte quoten sollen.

hq-hq
2010-10-23, 19:13:20
im Sinne des Kunden der sich ordentlich über die Leistungsklasse der neuen Karten informieren möchte ist das bestimmt nicht geschehen, eine kleine Verschwörung ist es allemal ;)

Menace
2010-10-23, 19:18:21
;D Ich finde es ja witzig, dass auf wesentliche Schwachstellen (vgl. Beiträge weiter oben) nicht eingegangen wird.

Es reicht ja völlig die Erkenntnis, dass sich die Sonne um die Erde dreht, wenn ich morgens aus dem Fenster schaue um ein geozentrisches Weltbild zu erklären. :freak:

Und der Vergleich passt sogar noch besser:

Thomas von Aquin (1225 - 1274) machte das geozentrische Weltbild des Ptolemäus zum christlichen Dogma, das die nächsten 700 Jahre innerhalb der Kirche Bestand haben sollte.

hq-hq
2010-10-23, 19:39:19
ach naja das mit dem AF ist jetzt keine schwachstelle, es ist ja jetzt besser und so ist es auch verkauft worden. das treiber-default jetzt noch schlechter sein soll ist aber wirklich witzig:crazy:

mironicus
2010-10-23, 19:43:42
Wie lange brauchen die Hersteller wohl bis sie die ersten Custom 6870er rausbringen? 6 Wochen?

V2.0
2010-10-23, 20:29:13
Es glaubt doch wirklich keiner, dass das Zufall war. Wenn es einen Hersteller betreffen würde, dann ok, aber über mehrere Hersteller verteilt, ist das kein Zufall.

ATI hat das sicher so gewollt. Die Benchmarks wurden klar gewonnen und selbst nach dem man nun wieder auf den Normalwert runter geht, wird sich die Hoffnung lange halten, dass man mit einem Biosflash wieder die 1120SP frei schalten kann. Und ja, ich wette es wird anfangs bei einigen Karten gehen.

Menace
2010-10-23, 20:37:56
ATI hat das sicher so gewollt. Die Benchmarks wurden klar gewonnen und selbst nach dem man nun wieder auf den Normalwert runter geht, wird sich die Hoffnung lange halten, dass man mit einem Biosflash wieder die 1120SP frei schalten kann.

Dann erkläre mir Du doch wenigstens, warum AMD sich selbst sein 6870er madig machen möchte?

Iruwen
2010-10-23, 20:54:24
ATI hat das sicher so gewollt. Die Benchmarks wurden klar gewonnen und selbst nach dem man nun wieder auf den Normalwert runter geht, wird sich die Hoffnung lange halten, dass man mit einem Biosflash wieder die 1120SP frei schalten kann.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8344962&postcount=56
qed :biggrin:

Blaire
2010-10-23, 21:12:13
die 1120 shader waren einfach nötig um sich von der gtx460 768mb und 1gb ohne OC absetzen zu können, das ist doch eigentlich ganz einfach :rolleyes:

Passt.

der cayman muss mindestens 10% schneller sein als die gtx480, das wird glaub ich aber auch net das problem ;)

Schneller ist nicht alles, hochwertige FPS sind wichtiger. Meine Meinung.

LovesuckZ
2010-10-23, 21:13:12
Der Reviewer von Hardware.fr hat den Auszug zur Filtereinstellung aus AMD's Benchguide im Beyond3d.com Forum veröffentlicht:

The Texture Filtering Quality slider has three settings – High Quality, Quality (default), and Performance. The High Quality setting disables all texture optimizations. The Quality setting enables a trilinear optimization as well as an anisotropic sample optimization, which are designed to have no visible impact on image quality while offering improved performance. The Performance setting enables more aggressive versions of these optimizations that offer further performance improvement, but may have a small impact on image quality.

The AMD Radeon HD 6800 series continues to support fully angle invariant anisotropic filtering, and incorporates further improvements in LOD precision relative to the ATI Radeon HD 5000 Series. These image quality benefits come with no additional performance cost and remain enabled at all Texture Filtering Quality settings.

When comparing performance and image quality against NVIDIA products, we recommend using the same Texture Filtering Quality setting in the NVIDIA Control Panel to ensure the most direct and fair comparison. However, note that as of this writing NVIDIA products do not offer a comparable anisotropic filtering option with full angle independence.
http://forum.beyond3d.com/showpost.php?p=1486016&postcount=45

Achja und warum war das neue AF-Einstellungssystem nicht im Cypress-Presse-Treiber enthalten?

If the press drivers didn't enable the settings for 5000 then that is a mistake[...]

http://forum.beyond3d.com/showpost.php?p=1486020&postcount=46

(del)
2010-10-23, 22:50:21
ATI hat das sicher so gewollt. Die Benchmarks wurden klar gewonnenWas ist denn jetzt für dich klar gewonnen? Wenn ich mir die relevanten Settings zwischen 960 und 1120 ALUs ansehe und die Unterschiede, dann frag ich mich wo die 1120 klar gewonnen haben, wo die 960 es nicht gepackt hätten. Oder meinst du jetzt echt mit 0xAA/0xAF, nachdem wir uns über die Filtertricks ausgelassen haben? :|

p.s.:
Ich wette W1zzard hat das in paar Wochen raus, aber wer flasht eine Graka für 30fps statt 28fps? Jetzt außer Didi Bouzul :freak:

LovesuckZ
2010-10-23, 22:57:57
Es geht doch auch um die GTX460-1GB. 5-10% mehr Leistung ist sehr viel, wenn man maximal auf dem selben Niveau ist.

hq-hq
2010-10-23, 22:59:14
ich hab mir jetzt nur mal computerbase angesehen und da ist die echte 6850
meistens nur gleich schnell oder wenige prozent schneller als die gtx460@675mhz

mit den 1120 shadern ist es aber eindeutig :freak:

(mit 4xAA, 16xAF und in 1680x1050 oder 1920x1200)
[ausserdem sinds eher 31fps zu 28fps ;) ... naja obwohl ich glaub das ist nicht haltbar... wobei am schönsten ist es beim Stalker – Call of Pripyat - (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/19/#abschnitt_stalker__call_of_pripyat) 1920x1200 bensch mit 4xMSAA, herrlich ]

PulsarS
2010-10-23, 23:03:03
Es geht doch auch um die GTX460-1GB. 5-10% mehr Leistung ist sehr viel, wenn man maximal auf dem selben Niveau ist.
5-10 % ist minimal.
Was hast du für eine Einteilung?
Für mich sieht es so aus:
bis 10% minimal.
bis 25 % ist es erstmal der Rede wert.
Ab 25% ist es deutlich.

hq-hq
2010-10-23, 23:08:24
naja, ob da jetzt 30 oder 31 fps steht ist wohl für die meisten egal, aber 30 gegen 33 oder 34 fps... minimal hin oder her, jetzt gibt es einen unterschied. jedenfalls ist es ein voller erfolg seitens AMD das steht schonmal fest hehehe gibt +2 respekt punkte rofl

(del)
2010-10-23, 23:27:24
Es geht doch auch um die GTX460-1GB. 5-10% mehr Leistung ist sehr viel, wenn man maximal auf dem selben Niveau ist.Nochmal. Die 8% beim Stalker in 1680x1050 (bei mehr wirds immer weniger) sind z.B. 33fps zu 36fps. Man kann sich wohl schlecht aufregen, daß ATI uns auf mehreren Fronten verarschen will und im gleichen Atemzug mit eben Vollhonks argumentieren die sich wohl alleine wegen 33 zu 36 (fälschlicherweise) eher für eine 6850, statt für eine 460er (768) entscheiden. Das ist paranoid.

Bis dann mal.

@hq-hq
"Vollen Erfolg" bei so einer Aktion stelle ich mir aber anders vor, wenn ich die ganzen "Updates" der Tester sehe. Plus ihre Kommentare und die Kommentare in den Foren. Voller Erfolg... :ulol:

hq-hq
2010-10-23, 23:31:11
LoL, du bist aber ein Schwarzmaler_INNEN !
Normal wär die 6850 nur zum Gähnen, aber dank des Beschisses ist sie in aller Munde ;)

ich denke ich sollte das noch deutlicher formulieren, man bringt ein neues Produkt aufm Markt das eigentlich ein Witz zu den alten dicken 5000ern ist, wie macht man Wirbel für das Zeug das eigentlich niemand braucht weil die alten dicken 5000er besser sind ? Man bastelt falsche irreführende Präsentationsfolien, lässt alle bis zum Finale im Dunkeln und verschickt dann noch Cheat-6850er und hält nochmal alle zum Narren. Super jeder labert jetzt über meinen Scheiss den niemand braucht weil er nix ernsthaft besser kann als mein alter Kram... wenigsten ist er billig zum Herstellen und sofort verfügbar und selbst unter Preisdruck mach ich noch gut Gewinn im Vergleich zu meinen alten dicken 5000ern... das wär alles sogar super OK wenn der Cayman als erstes gekommen wär. Hauptsach raus mit dem Zeug und abkassiert ;)

Ein Glück das es NVidia zur Zeit auch net besser kann hehe.

PulsarS
2010-10-24, 00:11:36
@hq-hq
erst der Preis würde die Karten interessant machen. (6850)
Zur Zeit ist die GTX 460 die bessere Wahl für anspruchsvolle Gamer.

Iruwen
2010-10-24, 00:42:10
Achja und warum war das neue AF-Einstellungssystem nicht im Cypress-Presse-Treiber enthalten?

http://forum.beyond3d.com/showpost.php?p=1486020&postcount=46

Wurden die 6000er jetzt mit schlechterem AF als die 5000er gebencht (so sie denn überhaupt nochmal gebencht wurden)?

LovesuckZ
2010-10-24, 00:47:35
Wurden die 6000er jetzt mit schlechterem AF als die 5000er gebencht (so sie denn überhaupt nochmal gebencht wurden)?

Wer Cat 10.9 oder älter verwendete, ja.
Bei einem neueren Pressetreiber sollte angeblich die selbe Standardeinstellung vorhanden gewesen sein. Aber laut dem hardware.fr Autor war sie nicht verfügbar. Also wohl auch ein ja.

(del)
2010-10-24, 01:03:15
@hq-hq
Ok dem kann man zustimmen, aber 6850 und 6870 sind eben keine dicken 6000er. Da kann man mit BQ tricksen und unter der Hand :| 1120 ALUs auffahren, die Benches zeigen trotzdem, daß sie es nicht sind. Gut, die Namen sind daneben, aber das hat wiederum nichts mit den Benches zu tun.

Irgendwie... Egal wie man es dreht und wendet, sobald man sich für das Thema auch nur bisschen interessiert, bleibt diese ganze Aktion hochgradig bescheuert. Für die mikrigsten FPS-Steigerungen...

C.D.B.
2010-10-24, 01:15:45
... Irgendwie... Egal wie man es dreht und wendet, sobald man sich für das Thema auch nur bisschen interessiert, bleibt diese ganze Aktion hochgradig bescheuert. Für die mikrigsten FPS-Steigerungen...

Darum gings doch bei den Barts gar nicht! ;)

Es sollte Hardware geschaffen werden, die deutlich günstiger zu produzieren (und zu verkaufen) ist und Leistungsmäßig trotzdem in Richtung der HD58xx kommt.

Ich denke, das hat AMD recht gut gelöst. :)

Alexander
2010-10-24, 01:17:29
ich denke ich sollte das noch deutlicher formulieren, man bringt ein neues Produkt aufm Markt das eigentlich ein Witz zu den alten dicken 5000ern ist, wie macht man Wirbel für das Zeug das eigentlich niemand braucht weil die alten dicken 5000er besser sind ? ......
Hau nicht so auf den Putz. Die 6850 ersetzt die 5770. Und das macht sie gut. Viel Leistung zu einem geringen Preis.

Seien wir mal ehrlich. Keiner würde sich über die Karte beschweren, wenn der Name 6770 lauten würde und wenn an der BQ nicht herumgeschraubt worden wäre.
Und dass dieses Produkt gebraucht wird sieht man am ehesten daran, dass die GTX 460 und 470 deutlich billiger wurden.

hq-hq
2010-10-24, 01:21:34
ARRR, solang es dem cayman nicht schadet und nvidia die sporen für den gf110 gibt bleib ich eh gut gelaunt :cool:

Eggcake
2010-10-24, 01:26:44
Hau nicht so auf den Putz. Die 6850 ersetzt die 5770. Und das macht sie gut. Viel Leistung zu einem geringen Preis.

Seien wir mal ehrlich. Keiner würde sich über die Karte beschweren, wenn der Name 6770 lauten würde und wenn an der BQ nicht herumgeschraubt worden wäre.
Und dass dieses Produkt gebraucht wird sieht man am ehesten daran, dass die GTX 460 und 470 deutlich billiger wurden.

Ich kann es wirklich auch langsam nicht mehr hören. "Die Karten sind scheisse, weil die 5850/70 schneller ist."
Also geht es wirklich nur um den Namen. Man kann sich darüber aufregen, keine Frage, aber das ist ein anderes Thema. Wegen dem sind die Karten nicht schlecht. Ich glaube jeder weiss hier mittlerweile, dass die Karten nicht Nachfolger der 5800er-Reihe sind (bzw. höchstens der 5830).

Beachtet werden muss, ich sage es nochmals, schlussendlich Features, Leistung und Preis. Der Name sollte beim Kauf eigentlich egal sein :rolleyes:

Summsasumarum: signifikant billigere Karten mit annähernd 5850 Leistung.
Ich blende mal die weiteren Unterschiede aus, ebenso den Vergleich zu NV.

(del)
2010-10-24, 01:44:11
Seien wir mal ehrlich. Keiner würde sich über die Karte beschweren, wenn der Name 6770 lauten würde und wenn an der BQ nicht herumgeschraubt worden wäre.Genau. Du hast es erfasst. Ich sehe aber auch wirklich kaum jemanden der sich explizit über die Karte beschwert.
Die meisten fragen sich halt nur was dieser Mist mit der Namensgebung und den BQ-Tricks eigentlich soll. Das ist übelster PR-Müll.

Die Leute poltern, weil sie das Gefühl haben, man hält sie für bescheuert. Mit den Werten der Karte (FPS, Lautstärke, Verbrauch) hat das nichts zu tun. Man braucht jetzt nicht so tun, als wenn so eine Reaktion weltfremd und unverständlich wäre.
Das mit den Namen ist aber noch nicht so schlimm wie der Dinhaufen mit der BQ. Also das ist schon wirklich mehr als unverschämt :mad:

Ciao.

p.s.:
A'propos, wenn wir wiedermal bei behämmert sind. Wenn ich AMD wäre, ich hätte zuerst den stärksten Chip vorgestellt :rolleyes:

Langenscheiss
2010-10-24, 01:54:43
Also wenns es auf der HD6K genauso ist, wie bei der HD5K (alle Stufen um 1 nach unten verschoben (Qualität -> A.I. erweitert) + neuer extra mieser Texturfilter bei "Leistung"), dann gibt es dem ganzen wirklich einen üblen Beigeschmack. Is ja klar, dass die meisten Redaktionen mit dem Treiber-Default benchen. Aber ansonsten kann ich mit dem Wissen aus den Reviews nicht wirklich irgendwelche klaren Kritikpunkte festhalten. Für das Segment sind es eigentlich ganz gute Karten. Bin mal gespannt, was der Cayman liefert.

Alexander
2010-10-24, 02:01:23
A'propos, wenn wir wiedermal bei behämmert sind. Wenn ich AMD wäre, ich hätte zuerst den stärksten Chip vorgestellt :rolleyes:
Ich halte die Reihenfolge genau wie du für falsch. Stell dir vor die beiden wären nach den neuen Topmodellen kurz vorm Weihnachtsgeschäft erschienen mit dem Namen 6770 und 6860. Dann hätte jeder gesagt, dass sie einen würdigen/günstigen Ersatz für alle 5000er Karten darstellen.

hmx
2010-10-24, 02:34:11
Ich halte die Reihenfolge genau wie du für falsch. Stell dir vor die beiden wären nach den neuen Topmodellen kurz vorm Weihnachtsgeschäft erschienen mit dem Namen 6770 und 6860. Dann hätte jeder gesagt, dass sie einen würdigen/günstigen Ersatz für alle 5000er Karten darstellen.


Am besten hätte imo 6830 und 6850 gepasst.

DrFreaK666
2010-10-24, 03:45:24
Am besten hätte imo 6830 und 6850 gepasst.

Jab, das habe ich auch schon erwähnt :up:

Schnitzl
2010-10-24, 03:46:40
Am besten hätte imo 6830 und 6850 gepasst.
imho 6770 und 6790 ;)

Langenscheiss
2010-10-24, 04:00:00
Ich kann zwar den Ärger über diese PR-Politik irgendwo verstehen, aber mal ehrlich, Namen sind doch nur Schall und Rauch. Der liebe Gott hat uns die Möglichkeit gegeben, uns auf Grund von vorhandenen Informationen ein Urteil zu bilden, dann sollten wir schlicht davon Gebrauch machen.
Dinge, von denen man vorher nichts weiß, aber nach dem Kauf negativ auffallen, gehören zurecht angeprangert, aber nach derart vielen P-Balken sollte man doch nun wissen, in welcher Leistungsklasse die Grakas anzusiedeln sind.

Genauso wie mit dem BQ-Beschiss. Ich find es nicht in Ordnung, dass man Redakteure gerade dazu verleitet, möglichst günstige Settings zu wählen, damit die Karten gut abschneiden. Aber andererseits sollte man spätestens nach dem HD5K Launch doch schon wissen, dass man gerade in Punkto BQ/Leistung-Verhältnis vielen Tests nicht trauen kann. Insbesondere ist darauf zu achten, welche Settings verglichen werden, und imo haben sie z.B. bei PCGH einen sinnvollen Ansatz gemacht. Aber worauf ich eigentlich hinaus will, ist, dass es ja für uns immer noch die HQ-Option gibt, die allem Anschein nach zumindest gleichwertiges, wenn nicht besseres AF als der Vorgänger bietet. Klar, ist nicht das Gelbe vom Ei, aber zumindest kein banding mehr, wenn gleich sowas nicht einfach dadurch gelöst werden darf, dass man noch mehr unterfiltert und somit noch mehr Flimmern erzeugt! Dennoch würde ich, ausgehend vom ersten Eindruck, hier sicher keinen Rückschritt sehen. Und wer hätte dann auch ernsthaft einen BQ-Quantensprung à la g70->g80 erwartet?

Damit will ich die Karten jetzt nicht in den Himmel loben, aber die Dinger jetzt nur anhand der zugegebener Maßen äußerst dreisten PR-Politik (bugfix = feature, Treiber-default änder = uns für dumm verkaufen) grundsätzlich schlecht zu machen, ist sicher nicht sachdienlich.

LovesuckZ
2010-10-24, 04:09:14
Und wer hätte dann auch ernsthaft einen BQ-Quantensprung à la g70->g80 erwartet?


Zwischen NV40 und G80 lagen gerade mal 2 1/2 Jahren. Zwischen r520 und Barts ganze 4 Jahre. Beim ersten Fall hat man sich auf Stärken zurückbesonnen. Im zweiten Fall auf die Schwächen.
Es ist abenteuerlich, dass sich AMD wegen ein paar % Leistung streubt vernünftige Qualität zu implementieren. Der Transistorenaufwand sollte sich in 40nm in Grenzen halten.

DrFreaK666
2010-10-24, 04:12:37
Zwischen NV40 und G80 lagen gerade mal 2 1/2 Jahren. Zwischen r520 und Barts ganze 4 Jahre. Beim ersten Fall hat man sich auf Stärken zurückbesonnen. Im zweiten Fall auf die Schwächen.
Es ist abenteuerlich, dass sich AMD wegen ein paar % Leistung streubt vernünftige Qualität zu implementieren. Der Transistorenaufwand sollte sich in 40nm in Grenzen halten.

Was regst du dich auf?
Du wirst dir eh nie eine Radeon zulegen...

Blaire
2010-10-24, 04:15:22
Zwischen NV40 und G80 lagen gerade mal 2 1/2 Jahren. Zwischen r520 und Barts ganze 4 Jahre. Beim ersten Fall hat man sich auf Stärken zurückbesonnen. Im zweiten Fall auf die Schwächen.
Es ist abenteuerlich, dass sich AMD wegen ein paar % Leistung streubt vernünftige Qualität zu implementieren. Der Transistorenaufwand sollte sich in 40nm in Grenzen halten.

Der Witz ist ja eigentlich die armen 5870 User die es gibt, müssen jetzt mit dem Urteil leben das angeblich ein Hardwarebug für das Banding sorgte und diese können sich nun bedanken bei all den Schönrednern die immer nichts sehen wollten. Ati hat das Problem anstandslos ausgesessen und wirbt sogar noch damit, haha legst dich nieder...

Sentionline
2010-10-24, 05:21:55
Es sollte Hardware geschaffen werden, die deutlich günstiger zu produzieren (und zu verkaufen) ist und Leistungsmäßig trotzdem in Richtung der HD58xx kommt.

Ich denke, das hat AMD recht gut gelöst. :)
Dann soll man keine bescheuerten Modellnummern einführen die keinen Spielraum mehr lassen. Und bisher sagt nur die PRESSE das die HD6x nur die Mittelklasse ATis ablösen soll. Wenn, dann soll man die alten Modelle streichen wenn die billiger zu produzieren sind. Dann heisst die HD6870 bald eben HD5850.

5450, 5550, 5570, 5670, 5750, 5770, 5830, 5850, 5870, 5970. Klingelts?

GTS450 (Einsteiger), GTX460 (Mittelklasse), GTX470 (Oberklasse), GTX480 (HighEnd). FERTIG.

Ich kann es wirklich auch langsam nicht mehr hören. "Die Karten sind scheisse, weil die 5850/70 schneller ist."
Also meines wissens ist 2 mehr als 1.

Ich blende mal die weiteren Unterschiede aus, ebenso den Vergleich zu NV.
8800GTX vs 9800GTX. Da hst sich nichts getan? 9800GTX+ vs GTX280, da hat sich nichts getan? Kleine Brötchen backen, im kleinen Glashaus. Mit JEDER Namensänderung hat man bei Nvidia mehr Performance bekommen. IMMER. bei TNT vs TNT2 oder NV40 vs G70.

Es ist abenteuerlich, dass sich AMD wegen ein paar % Leistung streubt vernünftige Qualität zu implementieren.
DANKE! :up: Wenigstens einer der sich traut...

y33H@
2010-10-24, 09:11:49
Mit JEDER Namensänderung hat man bei Nvidia mehr Performance bekommen. IMMER.8800 GT auf 9800 GT? Nur der HSLI-Controller, aber identische (!) Leistung. 9800 GTX+ auf GTS 250? Anderer Kühler, PCB, 1G VRAM, sparsamer in 2D; aber davon ab - identische Leistung.

Mr.Y
2010-10-24, 09:24:49
DANKE! :up: Wenigstens einer der sich traut...
Es ist abenteuerlich, dass die Presse wegen diesen 1-5% eine Grafikkarte zum Sieger oder als schneller tituliert. 1-5% das sind: Ein Treiber, ein anderes Spiel im Testset, die etwas schwächere CPU des Anwenders, die dadurch die 1-5% zu 0.5 bis 2% verkommen lässt (alle benchen doch auf 4GHz QuadCores, doch das haben die meisten nicht unter der Haube).
Doch an der Presse wird sich wohl nix ändern können, denn alle geiern doch nur nach Balken...
Müsste es nur einen BQ-Tester geben der Balken ausgeben kann, dann würden wir da auch in ganz andere Dimensionen vorrücken ;D :freak:

SamLombardo
2010-10-24, 10:37:40
Darum gings doch bei den Barts gar nicht! ;)

Es sollte Hardware geschaffen werden, die deutlich günstiger zu produzieren (und zu verkaufen) ist und Leistungsmäßig trotzdem in Richtung der HD58xx kommt.

Ich denke, das hat AMD recht gut gelöst. :)
Das ist aber NUR positiv zu bewerten wenn man AMD Mitarbeiter ist. Dem Endverbraucher kann es völlig egan sein, wie viel Gewinn AMD pro verkaufter Karte macht. Im Gegenteil, diese Entwicklung ist negativ für den Endkunden, da er im wahrsten Sinne des Wortes Sparhardware bekomt.

fizzo
2010-10-24, 10:53:24
Das ist aber NUR positiv zu bewerten wenn man AMD Mitarbeiter ist. Dem Endverbraucher kann es völlig egan sein, wie viel Gewinn AMD pro verkaufter Karte macht. Im Gegenteil, diese Entwicklung ist negativ für den Endkunden, da er im wahrsten Sinne des Wortes Sparhardware bekomt.

Nö, seit dem Lauch der Barts bekommt man wesendlich mehr Leistung/€ - sowohl bei AMD wie auch bei NV. Und sparen finde ist als Endkunde sogar gut, gerade wenn es Strom ist ;)

Pirx
2010-10-24, 11:16:05
Das ist aber NUR positiv zu bewerten wenn man AMD Mitarbeiter ist. Dem Endverbraucher kann es völlig egan sein, wie viel Gewinn AMD pro verkaufter Karte macht. Im Gegenteil, diese Entwicklung ist negativ für den Endkunden, da er im wahrsten Sinne des Wortes Sparhardware bekomt.
Es werden sich bestimmt viele Leute freuen, daß sie jetzt 5850 Leistung wesentlich günstiger bekommen.:rolleyes:

Gorkon
2010-10-24, 11:43:50
Nö, seit dem Lauch der Barts bekommt man wesendlich mehr Leistung/€ - sowohl bei AMD wie auch bei NV. Und sparen finde ist als Endkunde sogar gut, gerade wenn es Strom ist ;)

Wenn es wirklich nur Strom wäre :rolleyes: Das was Barts an Energie ggü. seiner Konkurrenz spart, spart er (immernoch) bei der Filterung ein...da hilft z.B. auch kein sinnloses Verteidigen vom Baumannschen "High-Precision-LOD". Ich erwähne es nochmal: Barts hat mehr Texel- und Pixelfüllrate als eine GTX460 @ 850MHz! Von der maximalen theoretischen Rechenleistung wollen wir erst garnicht sprechen, die ja seit dem R580(!) ja an vorderster Front bei AMD zu stehen scheint. Also...warum mit aller Kraft für ein paar % solche Sparmaßnahmen auffahren? Oder sogar ein Bugfix als neues Feature verkaufen? :mad:

Mehr Leistung / € ist immer schön, da stimme ich voll und ganz zu. Aber die Balkenlänge kann im Sinne aller PC-Spieler nicht Kriterium #1 sein...Qualität > Quantität. Würde da endlich mal nachgebessert werden, würde garantiert auch die (teilweise massive) Kritik ggü. AMD zum Großteil verstummen.

mfg

Eggcake
2010-10-24, 12:00:48
@Senti

Eben, du darfst gern noch den x-ten Beitrag darüber schreiben, welcher ja so neu in diesem Thread ist - wir habens' alle kapiert. Und du meinen Post offensichtlich nicht...lass Namensdiskussion Namensdiskussion bleiben, aber lass den Rest damit in Ruh'.

boxleitnerb
2010-10-24, 12:02:39
Hierbei vergisst du leider 2 Dinge, Gorkon:

Einer von 10,000 kritisiert.
Einen von 10,000 interessiert das Thema AF/Bildqualität.

AMD wird nichts tun, so einfach ist das leider. :(

Gorkon
2010-10-24, 12:13:42
Hierbei vergisst du leider 2 Dinge, Gorkon:

Einer von 10,000 kritisiert.
Einen von 10,000 interessiert das Thema AF/Bildqualität.

AMD wird nichts tun, so einfach ist das leider. :(

Ich weiss, ich weiss :frown: Trotzdem habe ich als SoWi-Student doch irgendwie noch Hoffnung, dass die Einsicht irgendwann kommen wird :redface:

mfg

Langenscheiss
2010-10-24, 12:15:38
Wenn es wirklich nur Strom wäre :rolleyes: Das was Barts an Energie ggü. seiner Konkurrenz spart, spart er (immernoch) bei der Filterung ein...da hilft z.B. auch kein sinnloses Verteidigen vom Baumannschen "High-Precision-LOD".

mfg

Kann mir mal einer einen Link schicken bzw. kurz erklären, was Baumann mit "High Precision LOD" meint? Hab den beyond3d thread weiter gelesen, aber es wird nirgends erklärt.

fizzo
2010-10-24, 12:35:53
Wenn es wirklich nur Strom wäre :rolleyes: Das was Barts an Energie ggü. seiner Konkurrenz spart, spart er (immernoch) bei der Filterung ein...da hilft z.B. auch kein sinnloses Verteidigen vom Baumannschen "High-Precision-LOD"....

Hm, habe ich in meinem Post irgendwas von Filterung erwähnt? Dass das Argument für BQ-Fetischisten durchaus schlagend ist - keine Frage! Leute, welche mit der BQ der 58xx-Serie leben und der Bedieung der CCC mächtig sind, freuen sich über das eliminiert Banding bei gleichbeibender Qualität (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8344890&postcount=1640)

boxleitnerb
2010-10-24, 12:38:48
Na dann liess Langenscheiss' Post nochmal. Von gleichbleibender Qualität über alle AF-Stufen steht da nix (ganz unten).

Armaq
2010-10-24, 12:45:47
Zwischen NV40 und G80 lagen gerade mal 2 1/2 Jahren. Zwischen r520 und Barts ganze 4 Jahre. Beim ersten Fall hat man sich auf Stärken zurückbesonnen. Im zweiten Fall auf die Schwächen.
Es ist abenteuerlich, dass sich AMD wegen ein paar % Leistung streubt vernünftige Qualität zu implementieren. Der Transistorenaufwand sollte sich in 40nm in Grenzen halten.
Immer sachlich bleiben, du redest dich ja schon wieder fast in Rage.

Abseits von der Schummelei, was kommt denn jetzt im Bereich 68xx noch? Custom-Designs und bringt Nvidia noch einen neuen Gegenspieler?

fizzo
2010-10-24, 12:48:37
Na dann liess Langenscheiss' Post nochmal. Von gleichbleibender Qualität steht da nix (ganz unten).

hm, habe ich jetzt einen Denkfehler?

Zunächst ist mir aufgefallen, dass HQ identisch ist zu A.I. off, Mip HQ. Ich denke nicht, dass Bilder hier spannend sind....

edit: oder hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8345805&postcount=599)

Aber andererseits sollte man spätestens nach dem HD5K Launch doch schon wissen, dass man gerade in Punkto BQ/Leistung-Verhältnis vielen Tests nicht trauen kann. Insbesondere ist darauf zu achten, welche Settings verglichen werden, und imo haben sie z.B. bei PCGH einen sinnvollen Ansatz gemacht. Aber worauf ich eigentlich hinaus will, ist, dass es ja für uns immer noch die HQ-Option gibt, die allem Anschein nach zumindest gleichwertiges, wenn nicht besseres AF als der Vorgänger bietet. Klar, ist nicht das Gelbe vom Ei, aber zumindest kein banding mehr, wenn gleich sowas nicht einfach dadurch gelöst werden darf, dass man noch mehr unterfiltert und somit noch mehr Flimmern erzeugt! Dennoch würde ich, ausgehend vom ersten Eindruck, hier sicher keinen Rückschritt sehen.

boxleitnerb
2010-10-24, 12:54:28
Achso, dachte du beziehst dich auf Q. My bad.

uweskw
2010-10-24, 13:42:16
Auf der News-Seite sind ja ca. 50 Reviews gelistet.
In welchen gibts denn was fundiertes zu BQ?

y33H@
2010-10-24, 13:58:23
PCGH (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=4).

pest
2010-10-24, 14:03:19
wie kann das AF der ATI@HQ mit NV@Q vergleichbar sein, wenn schon das alte ATI@A.I. default mit NV@Q vergleichbar war, obwohl es jetzt kein Banding mehr gibt und vollständig triliniear gefiltert wird? Mir scheint PCGH beurteilt die Sache alleinig vom Flimmergrad, aber AF-Qualität ist ein bisschen mehr.


Vergleichen wir mal die AF-Eigenschaften von AMD und NV:

NV "HQ" (ab GeForce 8800):
- Flimmerneigung minimal (vergleichbar mit Referenzimplementierung)
- Gradientenberechnung sehr gut (Winkelabhängigkeit gering)
- tri-AF, kein Banding, keine Bugwellen
- LOD-Bias 0

NV "Q" (ab GeForce 8800) = Treiberstandard:
- Flimmerneigung gering
- Gradientenberechnung sehr gut (Winkelabhängigkeit gering)
- bri-AF, kein Banding, Bugwellen
- LOD-Bias 0

AMD "HQ" (ab Radeon HD6K):
- Flimmerneigung mäßig
- Gradientenberechnung optimal (Winkelabhängigkeit minimal, vergleichbar mit Referenzimplementierung)
- tri-AF, kein Banding, keine Bugwellen
- LOD-Bias 0

AMD "Q" (ab Radeon HD6K) = Treiberstandard:
- Flimmerneigung mäßig
- Gradientenberechnung optimal (Winkelabhängigkeit minimal, vergleichbar mit Referenzimplementierung)
- bri-AF?
- LOD-Bias positiv (d.h. effektiv geringerer AF-Grad als angegeben)

Gorkon
2010-10-24, 14:09:32
Hm, habe ich in meinem Post irgendwas von Filterung erwähnt? Dass das Argument für BQ-Fetischisten durchaus schlagend ist - keine Frage! Leute, welche mit der BQ der 58xx-Serie leben und der Bedieung der CCC mächtig sind, freuen sich über das eliminiert Banding bei gleichbeibender Qualität (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8344890&postcount=1640)

Ja, nix Filterqualität...my bad. Das Sparen war halt allerdings auf dem Silbertablett serviert ;) Dass das Banding ab HD6k eliminiert ist > schön...aber diesen Bug als neues Feature zu deklarieren nicht. Wie gesagt...macht AMD da endlich mal Butter bei die Fische gäbe es imho nix mehr zu meckern.

Kann mir mal einer einen Link schicken bzw. kurz erklären, was Baumann mit "High Precision LOD" meint? Hab den beyond3d thread weiter gelesen, aber es wird nirgends erklärt.

http://www.guru3d.com/article/radeon-hd-6850-6870-review/9

Als Beispiel die CoD:MW2-Bilder. AMD schärfer, NV unschärfer (Fußspuren im Schnee). Quasi das Angle-Independend-AF...auch kein Allheilmittel wie wir mittlerweile wissen.

mfg

kmf
2010-10-24, 14:18:02
wie kann das AF der ATI@HQ mit NV@Q vergleichbar sein, wenn schon das alte ATI@A.I. default mit NV@Q vergleichbar war, obwohl es jetzt kein Banding mehr gibt und vollständig triliniear gefiltert wird? Mir scheint PCGH beurteilt die Sache alleinig vom Flimmergrad, aber AF-Qualität ist ein bisschen mehr.Dann lies dir den Artikel bei PCGH noch einmal richtig durch. Darin wird es ausreichend begründet.

No.3
2010-10-24, 14:22:49
Hau nicht so auf den Putz. Die 6850 ersetzt die 5770. Und das macht sie gut. Viel Leistung zu einem geringen Preis.

Seien wir mal ehrlich. Keiner würde sich über die Karte beschweren, wenn der Name 6770 lauten würde und wenn an der BQ nicht herumgeschraubt worden wäre.

für das was die Karten gedacht sind, würde ich sagen machen diese ihren Job gut.

Namen sind zwar nur Schall und Rauch, aber mit der Namensgebung hat sich AMD wirklich keinen Gefallen getan. 6830 + 6850 wäre so grade noch gegangen, 6750 & 6770 wäre aber sicherlich die beste Variante gewesen.

Langenscheiss
2010-10-24, 14:28:13
.

http://www.guru3d.com/article/radeon-hd-6850-6870-review/9

Als Beispiel die CoD:MW2-Bilder. AMD schärfer, NV unschärfer (Fußspuren im Schnee). Quasi das Angle-Independend-AF...auch kein Allheilmittel wie wir mittlerweile wissen.

mfg

Das ist mir auch bei BadCompany aufgefallen. Sieht für mich schlicht nach geringerem AF-Grad aus, deshalb ist es vermutlich schärfer. Naja, wenn der Baumann sowas als Feature verkaufen will, ähhmm, ja. Die Winkelunabhängigkeit ist irgendwie das einzige, was deren Algorithmus zumindest auf der HD5K intelligent löst, bei der HD6K haben sie vermutlich einfach die AF-Level Übergänge weicher gemacht, und sonst ist alles beim alten geblieben (vermute ich jetzt mal).

pest
2010-10-24, 14:30:08
Dann lies dir den Artikel bei PCGH noch einmal richtig durch. Darin wird es ausreichend begründet.

was möchtest du mir mit diesem Inhaltslosen Post mitteilen?
Wir sind hier nicht in der 3. Klasse. Zitiere die Stelle die das deiner Meinung nach rechtfertigt, oder belasse es dabei und erspare dir das Kommentieren.

y33H@
2010-10-24, 14:34:06
AI def war bei HD5k schon nur "vergleichbar", denn AI off filtert nicht wirklich besser, performt aber mies.

NVs Treiber-Default ("Q") sah und sieht seit eh und je besser aus, vor allem in harten Fällen wie Crysis oder HL2 CM7.

Mr. Lolman
2010-10-24, 14:48:30
Das ist mir auch bei BadCompany aufgefallen. Sieht für mich schlicht nach geringerem AF-Grad aus, deshalb ist es vermutlich schärfer.

Hab von den guru3d-Bildern mal ein .gif gemacht:

http://www.abload.de/thumb/ati_nvhnzw.gif (http://www.abload.de/image.php?img=ati_nvhnzw.gif)

Langenscheiss
2010-10-24, 15:04:09
Genau das ist mir aufgefallen. NV filtert die winzigen Details weg, bei AMD sieht man es, allerdings kann man auf den Bildern halt nicht sehen, dass diese Art von Content zu Flimmern neigt.
Ich glaube allerdings nicht, dass die Hersteller, was das LOD angeht, soviel anders machen, dass diese Unterschied schlicht durch Wahl einer anderen Mip-Stufe zustande kommen. Ist imo wohl eher ne Sache des AF-Grades, kann mich natürlich auch irren. Ich würde mich im Übrigen sehr darüber freuen, wenn die ersten Besitzer dieser Karten das AF mal durch den AFTester jagen, dann könnte man zumindest genau(er) sehen, was sie nun gemacht haben, um z.B. das banding zu entfernen, aber eben auch AF-Grad Unterschied an sich wären dann sichtbar. Insofern kann ich mich da bis jetzt nicht festlegen.

fondness
2010-10-24, 15:04:20
wie kann das AF der ATI@HQ mit NV@Q vergleichbar sein, wenn schon das alte ATI@A.I. default mit NV@Q vergleichbar war, obwohl es jetzt kein Banding mehr gibt und vollständig triliniear gefiltert wird? Mir scheint PCGH beurteilt die Sache alleinig vom Flimmergrad, aber AF-Qualität ist ein bisschen mehr.

Ja, ich finde das auch seltsam. AMD hat mit HD5 das AF verbessert, sie haben mit der HD6 das AF verbessert, und PCGH schreibt immer das gleiche, so als ob sich null getan hätte. Schon damals bei der HD4 schrieb man das AI_standard gut mit Q bei NV vergleichbar wäre.

Aber das witzige ist ja das ATI_Q eindeutig weniger flimmert als ATI_HQ wenn ich mit die HT4U Videos ansehen. PCGH sollte endlich mal auch andere Kriterien berücksichtigten als den Flimmergrad, vorallem da man gerade den sehr leicht beeinflussen kann, zB durch LoD Verschiebung, "Weichzeichner", usw. Woraus folgt das weniger flimmern noch lange nicht bessere Qualität bedeutet.

Langenscheiss
2010-10-24, 15:12:33
@fondness
Im Wesentlichen geht es doch beim AF+Mipmapping um die richtige Balance zwischen Blur und Flimmern in allen möglichen Raumrichtungen ohne Verzerrungen. Welche Standards wären darüber hinaus wichtig?

Fetter Fettsack
2010-10-24, 15:24:09
Im Gegenteil, diese Entwicklung ist negativ für den Endkunden, da er im wahrsten Sinne des Wortes Sparhardware bekomt.

Findest du es denn verwerflich, wenn eine Firma versucht, gewinnorientiert zu arbeiten? Abgesehen davon, dass sie sowieso Gewinn machen wollen muss, um fortzubestehen.

Ich denke, dass man eher das leistungsmäßige Gesamtpaket betrachten sollte. Sprich, hat die Karte für ihren Preis eine angemessene Leistung? Wenn dieses Verhältnis (zumindest subjektiv) in Ordnung geht und die offerierende Firma dennoch Gewinn macht, sehe ich das nur als fair an, zumal solch Margenpotenzial ja auch nicht auf Bäumen wächst sondern durch Geistesarbeit erkämpft werden muss. Daher würde ich hierbei kein Problem sehen. :)


Was die ganzen geifernden (ja, eine harte Wortwahl, aber mir fällt dazu nichts anderes mehr ein) Anhänger der grünen Reichshälfte betrifft: und wenn AMD-Karten der letzte Schmarrn wären, würde ich sie mir dennoch kaufen, nur um eurer Gehässigkeit eins auszuwischen, denn diese finde ich bei diesem Thema völlig deplatziert und nahezu heuchlerisch.

Kritik schön und gut, aber dann auch in ihrer Intensität und Ausformulierung am jeweiligen Problem orientiert. Insofern ist es ohnedies sehr makaber, dass ausgerechnet Leute, die ohnedies mit ihren (teilweise durchaus richtig guten) nVidia-Karten ihr Leben verbringen, sich über (fehlende) Features bei AMD-Karten echauffieren, von denen sie doch ohnedies nie betroffen sind und sein werden.

Gleichgültig, ob AMD-Anhänger das selbe Spielchen mit dem Stromverbrauch der GTX470 und 480 gespielt haben mögen, so ist dies dennoch kein Grund sich selber auf ein derartiges "Pseudo-"Niveau hinabzubegeben. Ich finde das dem Diskussionsklima hier sehr abträglich.

Vielleicht wäre es ja angebracht, wenn jeder den anderen mit seinem kindischen "meins-ist-ja-so-viel-besser"-Getue in Ruhe lässt, sich an dem eigenen Prachtsrück erfreut und so dem Spruch "Jedem das Seine" Folge leistet.

uweskw
2010-10-24, 15:28:44
PCGH
Unterm Strich ist die Entwicklung insgesamt positiv:
- das Banding-Problem der Evergreens, laut AMD ein Hardware-Bug, ist beseitigt,
- das AF-Flimmern ist nicht so stark wie bei einer HD 4000 und die Rendertarget-Optimierungen lassen sich auf Wunsch abschalten.
- Den Nutzern werden mehr Freiheiten geboten denn je.

Zwar steht Nvidia hinsichtlich des AFs nach wie vor besser da, so nah wie mit der Radeon HD 6000 kam AMD den Geforce-Karten aber schon lange nicht mehr. Wer Wert auf möglichst sauber gefilterte Texturen legt, kommt dennoch nicht um eine Geforce samt HQ-AF herum.

Also der Unterschied in der BQ zwischen NV und ATI war ja schon seit der 5000er Serie minimal (siehe Test PCGH). Nun ist er also nochmal kleiner geworden?
Ich dachte jetz flimmert es so heftig dass einem alles vergeht? Zumindest den Kommentaren hier in 3Dcenter nach.
Wie jetzt, gibts schon irgendwo Videos die den Unterschied im Spiel zeigen?
Ingendwelche theoretischen Testszenarien bringen mir da wenig.

greetz
U.S.

kmf
2010-10-24, 15:38:44
was möchtest du mir mit diesem Inhaltslosen Post mitteilen?
Wir sind hier nicht in der 3. Klasse. Zitiere die Stelle die das deiner Meinung nach rechtfertigt, oder belasse es dabei und erspare dir das Kommentieren.Lies dir deine Frage aus deinem Posting noch mal durch. Auch deine anschließende Vermutung, worauf man schließen kann, dass du den Artikel nicht oder nicht richtig gelesen hast.

Und du musst jetzt net mich hier diziplinieren, ich glaub es hackt.

Langenscheiss
2010-10-24, 15:38:53
@uweskw's post
Zur PCGH-Liste:
Ich verstehe ehrlich gesagt den letzten Punkt nicht ganz.
In wie weit werden dem Benutzer jetz mehr Freiheiten geboten?
- MLAA ist inoffiziell auf der HD5K möglich.
- Und bei den AF-settings hat sich doch eigentlich nicht soviel geändert, bis auf die extra aufgeführte surface format optimization, welche im Wesentlichen den Unterschied zwischen A.I. off und A.I. standard ausmachte, oder nicht (bitte korrigieren, falls nicht korrekt)? Darüber hinaus ist der Leistungs-Modus hinzugekommen, den eigentlich sowieso keiner braucht. Der Unterschied ist halt im Grunde nur, dass man jetzt A.I. erweitert ohne die Rendertarget-Optimierung haben kann. Gut, das neue Modell bietet etwas mehr, aber auch nicht in dem Maße, dass es einem wirklich einen großen Vorteil verschaffen würde. Positiv find ich lediglich, dass diese spezielle Optimierung jetzt etwas präsenter in den settings ist.

uweskw
2010-10-24, 16:04:33
Nunja, die einzigen die AMDs neue Serie in Sachen BQ kritisieren sind doch PCGH.
Und selbst nach PCGH ist der Unterschied jetzt noch kleiner als bei der 5xxx Serie.
Deswegeb frage ich mich nach der Verhältnismäßigkeit.
Gibts denn irgend ein anderes Review in dem behaupted wird Q sei schlechter als das bisherige default AI ?

davidzo
2010-10-24, 16:13:59
8800GTX vs 9800GTX. Da hst sich nichts getan? 9800GTX+ vs GTX280, da hat sich nichts getan? Kleine Brötchen backen, im kleinen Glashaus. Mit JEDER Namensänderung hat man bei Nvidia mehr Performance bekommen. IMMER. bei TNT vs TNT2 oder NV40 vs G70.

Willst du jetzt auf einer Ziffer herumreiten? Dann können wir ja auch genausogut auf einem Buchstaben herumreiten:
Geforce 2MX vs Geforce 1 (256)
Geforce4MX vs Geforce 3
Geforce MX4000 vs Geforce 4MX

erstere war immer DEUTLICH langsamer, nicht nur ein paar einstellige Prozentpunkte.


Wie siehts denn mit dem AF jetzt aus, einige Behaupten ja Quality wäre jetzt die Filterung der Hd5k, andere wiederrum behaupten banding wäre generell bei hd6k nicht mehr vorhanden. Dann kann das ja nicht dasselbe sein!?

Wenn Q weniger zum flimmern neigt als HQ, womöglich ob des geringeren afgrads, dann interessieren mich a) die winkelabhängigkeiten von Q falls es welche gibt und b) der Vergleich zu nvidias Q und HQ. Möglicherweise wendet ATIs HQ modus einfach mehr AF samples, wirkt dadurch schärfer, aber eben auch unruhiger.
In dem Falle wird man AMDs Leistung einfach nicht gerecht, denn möglicherweise bietet man die auch rechnerisch bessere Filterqualität. Niedrigere AFgrade und weniger detailreichtum liegen schließlich immer im Spielraum des benutzers.

Die Afdiskussion wird in letzter Zeit auf das Flimmerargument heruntergebrochen,. aber so ist es nunmal und so war es schon immer, Kein AF heißt kein Flimmern, viel AF heißt viel Flimmern. Dass die höchsten Afstufen daher eventuell nicht den besten Kompromiss aus Detailreichtum und Bildruhe vermitteln ist dann auch völlig klar.
Die Diskussion sollte also nicht nur geführt werden indem man nur die zwei höchsten Afgrade höchst einzeln in ihrer Funktion vergleicht, das wird weder der Vielfalt der Afgrade gerecht, noch der unterschiedlichen Funktionen die man an jedes AF zu stellen hat (Schärfe vs Flimmerneigung).

Pixelmonk
2010-10-24, 16:32:27
Gelöscht.

Langenscheiss
2010-10-24, 16:47:34
@davidzo
Im Grunde sind die Klassifikationen 2x,4x usw. recht bedeutungslos. Davon abgesehen, dass das Maximum sowieso wohl nie oder selten ausgereizt wird (16x ungefähr 10x), kommt es halt mehr darauf an, den AF-Grad pro Pixel korrekt anzupassen, damit das negative Verschieben des LODs, welches ausschließlich dafür verantwortlich ist, dass das Bild schärfer wird, korrekt "weich" gefiltert wird, ohne zuviel Informationen zu verlieren. Im Grunde ist das typische AF-Flimmern immer ein Resultat von "zu niedriger AF-Grad zu weit weg vom Betrachter bei zu vielen Texel auf zu wenige Pixel". Beim AF-bedingten banding (also nicht das Mipbanding) liegt genau die umgekehrte Situation vor. In den AF-Optimierungen stecken nicht nur Verbreiterungen der Bi-Bänder, sondern ebenfalls pro Pixel auch AF-Grad-Anpassungen, aber genau durch diese Verringerung der Samples kann es in bestimmten Bildabschnitten zu diesem Flimmern kommen. Darüber hinaus kann auch generell ein zu niedriger AF-Grad ohne spezielle Optimierungen angesetzt sein.
Aber du hast insofern recht, als dass die höchsten Treiber-Stufen in einer perfekten Implementierung natürlich deutlich mehr Leistung fordern und hier ein großer Sample-Spielraum (128) und damit auch viel Potenzial für Optimierungen besteht.

Blaire
2010-10-24, 18:14:17
Hab von den guru3d-Bildern mal ein .gif gemacht:

http://www.abload.de/thumb/ati_nvhnzw.gif (http://www.abload.de/image.php?img=ati_nvhnzw.gif)

Das ist nicht vergleichbar, da 1.) nicht die exakte Position und 2.) bei Ati ist TRAA aktiv, bei NV nicht
Man sollte nicht immer gleich alles als Fakt hinstellen, möglicherweise hat Guru da einfach Mist gebaut.


Als Beispiel die CoD:MW2-Bilder. AMD schärfer, NV unschärfer (Fußspuren im Schnee). Quasi das Angle-Independend-AF...auch kein Allheilmittel wie wir mittlerweile wissen.


Außer die unterschiedliche Helligkeit (sieht man sehr gut an den Schatten) seh ich da keine Unterschiede in der Schärfe. Ist halt dynamische Spielewelt, durch den Schnee verändert sich auch die Helligkeit der Dinge auf dem Bildschirm.

MadManniMan
2010-10-24, 18:25:26
Hab von den guru3d-Bildern mal ein .gif gemacht:

http://www.abload.de/thumb/ati_nvhnzw.gif (http://www.abload.de/image.php?img=ati_nvhnzw.gif)

Dat sieht flimmrich aus.

Gorkon
2010-10-24, 19:52:20
Außer die unterschiedliche Helligkeit (sieht man sehr gut an den Schatten) seh ich da keine Unterschiede in der Schärfe. Ist halt dynamische Spielewelt, durch den Schnee verändert sich auch die Helligkeit der Dinge auf dem Bildschirm.

War halt nur das einzige Beispiel was mir auf die Schnelle bekannt war, da afair Lolli den Link auch mit HP-LOD in Verbindung brachte (bitte nicht drauf festnageln).

Einen der wenigen wirklich brauchbaren BQ-Vergleiche liefert diesmal tatsächlich CBase > http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/6/

Sowohl AF-Tester und Trackmania zeigen imho was Sache ist. Das Banding ist verschwunden. Jedoch schafft es nur der GF10x beim AF-Tester auch bis ganz hinten noch "Texturdetails" zu erhalten. Bei Barts wird wie bei RV8xx aus einem Teil der Textur eine einzige graue Fläche...jedoch nicht mehr so krass wie bei RV8xx. Bei TM tauscht man Banding gegen mehr Moiré ein.

So gesehen, bekommen jetzt zum Glück alle User ab RV9xx / G80 Banding-Freie Filterung und können gegen Moiré den Holzhammer SGSSAA auspacken. Die bessere Basisfilterung bietet jedoch immer noch NV...

mfg

Blaire
2010-10-24, 20:11:05
So gesehen, bekommen jetzt zum Glück alle User ab RV9xx / G80 Banding-Freie Filterung und können gegen Moiré den Holzhammer SGSSAA auspacken. Die bessere Basisfilterung bietet jedoch immer noch NV...


Genau das sehe ich auch als einzigsten Vorteil, mit SGSSAA bekommt man den bösen Content nun weitgehend ruhiggestellt. Malsehn was Cayman auffährt, vieleicht wird dort endlich auch vernünftig gefiltert.

boxleitnerb
2010-10-24, 20:17:26
Man könnte ja fast einen Poll aufmachen dazu. Wär sicher interessant :)

Mr. Lolman
2010-10-24, 20:21:44
Das ist nicht vergleichbar, da 1.) nicht die exakte Position und 2.) bei Ati ist TRAA aktiv, bei NV nicht
Man sollte nicht immer gleich alles als Fakt hinstellen, möglicherweise hat Guru da einfach Mist gebaut.

Naja, die Position ist schon gleich, nur der Blickwinkel war leicht anders. Durch die relativ hohe Entfernung der Objekte (geringer FOV - Blick durchs Fernglas), bleibt die Szene imo aber vergleichbar. Siehe hier:

http://www.abload.de/thumb/bfbc2game-2010-10-19-1veto.gif (http://www.abload.de/image.php?img=bfbc2game-2010-10-19-1veto.gif)

TRAA war zwar aktiv, aber das ist für die Bodentexturen irrelevant. Dass Guru3d sonstige Settings verbockt hat, kann man trotzdem nicht ausschliessen. (Das gilt dann aber genauso für die Benchmarks)

Gorkon
2010-10-24, 20:24:12
Genau das sehe ich auch als einzigsten Vorteil, mit SGSSAA bekommt man den bösen Content nun weitgehend ruhiggestellt. Malsehn was Cayman auffährt, vieleicht wird dort endlich auch vernünftig gefiltert.

Das hoffe ich allerdings auch. Die Hoffnung besteht ja afaik noch mit den 4D-Shader Gerüchten und der dahingehenden leicht anderen Architektur ggü. Barts.

Und mal ganz abgesehen von der AF-Problematik und AMDs Methoden diese positiver darzustellen als sie es sind ist Barts ja nun wirklich kein schlechter Chip...im Gegenteil. Gepimpter UVD, MLAA bei Spielen wo sonst garnix geht und die pure Geschwindigkeit sind für max. < 200,-€ sowie knapp über 250mm² schon enorm...das muss man AMD schon lassen :)

mfg

Fetter Fettsack
2010-10-24, 20:45:07
... ist Barts ja nun wirklich kein schlechter Chip ...

Könnte die Begrenzung von SGSSAA auf DX9 eigentlich hardwarebedingte Gründe haben oder ist das nur eine Frage der Software?

LovesuckZ
2010-10-24, 20:46:56
Und mal ganz abgesehen von der AF-Problematik und AMDs Methoden diese positiver darzustellen als sie es sind ist Barts ja nun wirklich kein schlechter Chip...im Gegenteil. Gepimpter UVD, MLAA bei Spielen wo sonst garnix geht und die pure Geschwindigkeit sind für max. < 200,-€ sowie knapp über 250mm² schon enorm...das muss man AMD schon lassen :)
mfg

Naja, wenn man überlegt, dass AMD den Chip für 5850 Leistung um den selben Anteil höher takten muss ,wie er kleiner ist und dann noch den selben Stromverbrauch aufweist, hat sich nichts verändert.

Gorkon
2010-10-24, 21:09:40
Naja, wenn man überlegt, dass AMD den Chip für 5850 Leistung um den selben Anteil höher takten muss ,wie er kleiner ist und dann noch den selben Stromverbrauch aufweist, hat sich nichts verändert.

*sigh* :( Was willst du mit der gleichen Fertigungstechnik denn bitte erwarten wenn 28nm erst nächstes Jahr bereit steht? Beide IHVs haben nunmal nur die gleiche Fabrik (TSMC) sowie das gleiche Material (Silizium...und keinen Feen- oder Mondstaub) zur Stelle. Man könnte auch sagen, Barts / Cayman ist das was RV8xx hätte sein sollen. Analog wird wohl auch GF11x das sein, was GF10x hätte sein sollen. Beide Chips sind / werden NUR leichte Refreshes und dienen alleine der Marge...etwaige Performanceverbesserungen nimmt aber natürlich gerne mit ;) Der nächste große Sprung kommt wie gesagt wohl erst nächstes Jahr...

mfg

Black-Scorpion
2010-10-24, 21:10:47
Könnte die Begrenzung von SGSSAA auf DX9 eigentlich hardwarebedingte Gründe haben oder ist das nur eine Frage der Software?
Bei DX 10/11 ist die Anwendung für AA zuständig und es darf nicht im Treiber forciert werden. Deshalb ist es bei Nvidia auch nicht offiziell.

Blaire
2010-10-24, 21:46:38
Bei DX 10/11 ist die Anwendung für AA zuständig und es darf nicht im Treiber forciert werden. Deshalb ist es bei Nvidia auch nicht offiziell.

Ich denke eher, Nvidia will sein exlusives 32xAA nicht gefährden, eben weil die Supersampling Modis zu langsam sind und man hat den Enthusiasten zuliebe die Modis per Tool zugänglich gemacht, also eher als Kompromiss gedacht um alle Seiten zufriedenzustelln. Es ist daher auch nicht inoffiziell, denn das Tool gibts auf der Nvidia Webseite für jedermann downloadbar.

Fetter Fettsack
2010-10-24, 22:01:38
Wahh, wieso ist mir das eigentlich nicht selber eingefallen.^^

Naja, dennoch danke.

Allerdings fände ich es gut, wenn man ebenfalls einen inofiziellen Weg für SSAA bei AMD einführen würde.

Menace
2010-10-24, 22:47:22
Ich weiß nicht, ob es schon alt ist, aber Computerbase hat ihren Test jetzt mit der richtigen 6850er gemacht und beide Werte (auch die mit zuviel ALUs) online gestellt. Soweit ich das überschauen kann, sind die Werte rund 5% schlechter aber meist immer noch vor einer 460 (1GB).

In meinen Augen ist das für AMD das bessere Ergebnis, da die 6870 wieder eine Daseinsberechtigung hat.

y33H@
2010-10-24, 22:50:57
Bei Kitguru (http://www.kitguru.net/components/graphic-cards/zardon/the-amd-hd6850-1120960-shader-debate-comparisons/13/)auch.

http://www.abload.de/thumb/overall9h90.png (http://www.abload.de/image.php?img=overall9h90.png)

AwesomeSauce
2010-10-24, 23:19:12
Wie zum Teufel erreicht man mit 16.6% mehr Shaderpower 36.8% mehr Leistung im Tessmark:confused:

MadManniMan
2010-10-25, 00:25:49
Naja, die Position ist schon gleich, nur der Blickwinkel war leicht anders. Durch die relativ hohe Entfernung der Objekte (geringer FOV - Blick durchs Fernglas), bleibt die Szene imo aber vergleichbar. Siehe hier:

http://www.abload.de/thumb/bfbc2game-2010-10-19-1veto.gif (http://www.abload.de/image.php?img=bfbc2game-2010-10-19-1veto.gif)

TRAA war zwar aktiv, aber das ist für die Bodentexturen irrelevant. Dass Guru3d sonstige Settings verbockt hat, kann man trotzdem nicht ausschliessen. (Das gilt dann aber genauso für die Benchmarks)


Haha, die Stelle kenn ich gut :D - da habe ich die VRam-Auslastung mit und ohne 3D Vision getestet und auch mit den Treibersettings ein wenig gespielt: das so hübsch "schärfere" Bild flimmert!

Langenscheiss
2010-10-25, 00:34:17
Haha, die Stelle kenn ich gut :D - da habe ich die VRam-Auslastung mit und ohne 3D Vision getestet und auch mit den Treibersettings ein wenig gespielt: das so hübsch "schärfere" Bild flimmert!
Wer hätte das Gedacht ;)
Diese Stelle ist mir schon beim ersten Mal aufgefallen, als ich das guru review gesehen habe. Aber den Leuten da fällt sowas ja nicht auf.

mironicus
2010-10-25, 00:59:24
Die Sapphire 6850 ist jetzt übrigens auf Platz 1 bei Geizhals (insgesamt) gewandert, und das innerhalb von nur 2 Tagen. :)

=Floi=
2010-10-25, 01:02:05
das hat nichts zu sagen!

C.D.B.
2010-10-25, 06:36:48
das hat nichts zu sagen!

Wie siehts mit den Verkaufscharts von Alternate aus? http://www.alternate.de/html/topseller.html?tn=HARDWARE

Die HD6870 ist bereits auf Platz 5 geschossen!

Und restlos ausverkauft ...
Hoffentlich bekomme ich nächste Woche meine - als ich bestellt hatte, stand die Verfügbarkeit auf "Innerhalb von 3-5 Tagen versandfertig" :rolleyes:

€: Freut' mich, daß die HD6870 auf Platz 5 steht, und nicht die billigere HD6850. Die liegt abgeschlagen auf Platz 21! :D

fizzo
2010-10-25, 10:00:34
Habe nun meine Sapphire HD 6850 bekommen. Leider habe ich kein "Glück" gehabt - das Modell hat 960 Shader. Bei den offiziellen Treibern ist MLAA noch nicht freigeschalten aber es soll ja einen Hotfix geben. Werde der kleinen Karte jetzt mal auf den Zahn fühlen ;)

MadManniMan
2010-10-25, 10:24:37
Habe nun meine Sapphire HD 6850 bekommen. Leider habe ich kein "Glück" gehabt - das Modell hat 960 Shader. Bei den offiziellen Treibern ist MLAA noch nicht freigeschalten aber es soll ja einen Hotfix geben. Werde der kleinen Karte jetzt mal auf den Zahn fühlen ;)

Ich verstehe nicht, warum alle Welt auf Barts-XP-Chips auf den 6850ern gehofft hat - blanke Ignoranz? Es war doch vorher bereits gesagt worden, dass es sich hier nur um die Vorserienmuster handelte, die eben auch für Reviews verwendet wurden; die Verbindung zu den Retailkarten war reiner Wunschtraum.

Aber hey, Du kannst ja mal nen Erfahrungs-Fred im AMD-Forum auf machen :)

RoNsOn Xs
2010-10-25, 10:40:19
er braucht doch nur das bios oder nicht?

y33H@
2010-10-25, 10:47:44
Laser-Cut?

RoNsOn Xs
2010-10-25, 10:50:17
wissen oder glauben?

mironicus
2010-10-25, 10:53:47
€: Freut' mich, daß die HD6870 auf Platz 5 steht, und nicht die billigere HD6850. Die liegt abgeschlagen auf Platz 21! :D

Das liegt daran, dass die 6850 früher ausverkauft war. Die lag bis gestern immer vor der 6870. Jetzt versuchen viele halt die 6850 woanders zu kaufen, sie ist ja auch noch lieferbar.

fizzo
2010-10-25, 11:32:43
Ich verstehe nicht, warum alle Welt auf Barts-XP-Chips auf den 6850ern gehofft hat - blanke Ignoranz?

Aber hey, Du kannst ja mal nen Erfahrungs-Fred im AMD-Forum auf machen :)

Sapphire Radeon HD 6850: Modelle mit 1.120 Shader-ALUs im Handel? (http://www.pcgameshardware.de/aid,795198/Sapphire-Radeon-HD-6850-Modelle-mit-1120-Shader-ALUs-im-Handel/Grafikkarte/News/)

Das Bios wurde (laut Raff) gesichert - bin schon gespannt wann es die ersten Flashversuche gibt. Der Laser-Cut ist mir neu. Gibt es dazu Indizien?

Werde dann später meine ersten Eindrücke im AMD-Froum schildern!

MadManniMan
2010-10-25, 11:44:17
Sapphire Radeon HD 6850: Modelle mit 1.120 Shader-ALUs im Handel? (http://www.pcgameshardware.de/aid,795198/Sapphire-Radeon-HD-6850-Modelle-mit-1120-Shader-ALUs-im-Handel/Grafikkarte/News/)

Habe die Meldung auch gelesen gehabt - und die Nichtsreaktion Sapphires ist das beste Indiz dafür, dass es auch keine neuen Meldungen diese Sache betreffend geben wird: nichts handfestes spricht bisher für eine 6850 mit 1120 ALUs im Handel - das sind alles reine Hoffnungen ;(

Alexander
2010-10-25, 11:47:21
€: Freut' mich, daß die HD6870 auf Platz 5 steht, und nicht die billigere HD6850. Die liegt abgeschlagen auf Platz 21! :D
Ist nicht wirklich überraschend. Die 6850 hat eine starke Konkurrenz während die 6870 es gegen die GTX 470 einfacher hat, da sie deutlich leiser und deutlich sparsamer ist.

Ronny145
2010-10-25, 11:58:01
Habe nun meine Sapphire HD 6850 bekommen. Leider habe ich kein "Glück" gehabt - das Modell hat 960 Shader. Bei den offiziellen Treibern ist MLAA noch nicht freigeschalten aber es soll ja einen Hotfix geben. Werde der kleinen Karte jetzt mal auf den Zahn fühlen ;)

Ja es gibt einen Hotfix. Teste doch mal aus ob bei dir MLAA in DX10/11 Anwendungen funktioniert.

SamLombardo
2010-10-25, 13:14:22
Findest du es denn verwerflich, wenn eine Firma versucht, gewinnorientiert zu arbeiten? Abgesehen davon, dass sie sowieso Gewinn machen wollen muss, um fortzubestehen.

Nein, gar nicht. Es ist nur bei neun Genrationen oft so, dass es am Beginn einer solchen zunächst um die Machbarkeit geht, und im Refresh dann darum das ganze möglichst preiswert herzustellen. Und das ist manchmal (abgesehen natürlich vom Preis) auch mit qualitativen Nachteilen verbunden. In der Heimelektronik, abseits von Grafikkarten, sieht man dieses Prinzip dauernd und so ähnlich kam es mir auch hier vor. Das war alles was ich sagen wollte. Verwerflich von Seiten AMD ist das natürlich nicht, schließlich ist AMD kein Wohlfahrtsverein.

fizzo
2010-10-25, 13:50:04
Ja es gibt einen Hotfix. Teste doch mal aus ob bei dir MLAA in DX10/11 Anwendungen funktioniert.

HD 6850 - Erfahrungsthread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8347981#post8347981)

Ronny145
2010-10-25, 13:57:09
HD 6850 - Erfahrungsthread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8347981#post8347981)


Danke. Anbieten würde sich noch die Civ 5 Demo. Im DX9 Modus funktioniert MLAA, mit dem DX11 Pfad dagegen nicht bei mir. Dann hätte man Gewissheit. AMD bewirbt es mit DX10/11 compatible with any application, obwohl es womöglich nicht geht. ;(

Fetter Fettsack
2010-10-25, 18:53:53
Das war alles was ich sagen wollte.

War auch keine Anfeindung, sondern nur eine Frage. :)

Dural
2010-10-26, 10:01:58
Barts hat CF-X, hab ich mir aber schon fast gedacht, den die par Transistoren bei so einer grossen GPU ein zu sparen macht nicht wirklich viel sinn und vor allem aus ;)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/oktober/amd-radeon-hd-6850-trifft-zalman-kuehlung/

aber interessant das "OC Karten" nicht mal mehr takt haben, entweder sind die Barts wirklich komplette krüppel was das betrifft oder AMD lässt es nicht zu...

Kalmar
2010-10-26, 10:42:11
die 6870 ist für mich sehr interessant wenn andere khlösungen noch auf den markt kommen, sprich etwas leiser die sache wird :-)

nun interessieren mich vor allem die sc2 werte und da ist mir nun schon zum wiederholten male aufgefallen das die pcgh-werte sehr zu gunsten der nv karten ausfallen

bei http://www.hardware.fr/articles/804-12/dossier-amd-radeon-hd-6870-6850.html

und http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market/10

liegen die 6870 vor der standardtakt 460 mal mehr mal weniger nur bei der pcgh liegt ne 460 mit standardtakt vor der 6870

http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=9

liegt es da so sehr an den settings ? oder ist es einfach so das die 6870 bei vielen einheiten wie pcgh bei ihrem test benutzt so viel stärker einbricht ? oder liegt es am 4xaa was der ati nicht so liegt und der 460 mehr liegt .. nur bei anandtech liegt da auch ne 6870 vor der 460gtx :-/

es geht jeweils um die auflösung 1920x1200

Exxtreme
2010-10-26, 10:50:48
Die Testsysteme sind anders, das Anandtech-System ist etwas stärker ausgelegt. Und ich weiss nicht welche Szenen da getestet wurden. Scheinen auch unterschiedlich zu sein.

y33H@
2010-10-26, 10:55:19
Anand hat wohl keine transparenten Schatten in ihrer Szene.

Alexander
2010-10-26, 10:58:05
..

Gorkon
2010-10-26, 11:00:40
@Kalmar

Nur die PCGH zeigt auch jeweils zum Benchmark ihre Testszenen...sollte eigentlich sofort ins Auge springen. Das quasi alle Karten bei der PCGH so eng zusammenliegen ebenfalls, da Lategame-Bench mit massig Einheiten, was eher auf die CPU als GPU geht. Von daher sind die Benchmarks bei allen Seiten quasi nicht vergleichbar, vorallem da anand und wahrscheinlich hardware.fr mit A.I. Q und PCGH mit HQ getestet haben.

Edit: Ok...zulange getippt xD

mfg

Alexander
2010-10-26, 11:37:35
@Kalmar

Nur die PCGH zeigt auch jeweils zum Benchmark ihre Testszenen...sollte eigentlich sofort ins Auge springen. Das quasi alle Karten bei der PCGH so eng zusammenliegen ebenfalls, da Lategame-Bench mit massig Einheiten, was eher auf die CPU als GPU geht. Von daher sind die Benchmarks bei allen Seiten quasi nicht vergleichbar, vorallem da anand und wahrscheinlich hardware.fr mit A.I. Q und PCGH mit HQ getestet haben.

Edit: Ok...zulange getippt xD

mfg
Dein Beitrag war nicht der schnellste aber dafür den verständlichste. ;)

Wpbei auch zw. anand und hardware.fr große Unterschide bestehen:
1920 4xAA gtx 460 vs. 6850
16% Mehrleistung vs Gleichstand bei den Franzmämmern.

derguru
2010-10-26, 11:42:38
die 6870 ist für mich sehr interessant wenn andere khlösungen noch auf den markt kommen, sprich etwas leiser die sache wird :-)

nun interessieren mich vor allem die sc2 werte und da ist mir nun schon zum wiederholten male aufgefallen das die pcgh-werte sehr zu gunsten der nv karten ausfallen

bei http://www.hardware.fr/articles/804-12/dossier-amd-radeon-hd-6870-6850.html

und http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market/10

liegen die 6870 vor der standardtakt 460 mal mehr mal weniger nur bei der pcgh liegt ne 460 mit standardtakt vor der 6870

http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=9

liegt es da so sehr an den settings ? oder ist es einfach so das die 6870 bei vielen einheiten wie pcgh bei ihrem test benutzt so viel stärker einbricht ? oder liegt es am 4xaa was der ati nicht so liegt und der 460 mehr liegt .. nur bei anandtech liegt da auch ne 6870 vor der 460gtx :-/

es geht jeweils um die auflösung 1920x1200
für dich wahrscheinlich interessant.
Radeon-Betatreiber beschleunigt Starcraft 2 mit Kantenglättung um 40 % (http://www.pcgameshardware.de/aid,795448/Radeon-Betatreiber-beschleunigt-Starcraft-2-mit-Kantenglaettung-um-40-Prozent-Vorschau-auf-PCGH-Print-12/2010/Grafikkarte/News/)

Iruwen
2010-10-26, 12:21:25
interessant das "OC Karten" nicht mal mehr takt haben, entweder sind die Barts wirklich komplette krüppel was das betrifft oder AMD lässt es nicht zu...

Da ja scheinbar ohne Spannungserhöhung kaum was zu holen ist will AMD vielleicht nicht dass Benchmarks mit höherer Leistungsaufnahme bei Serienmodellen auftauchen.

Kalmar
2010-10-26, 13:05:48
viele dank allen die geantwortet haben, mir kam es nur komisch vor das dort die karte weit vorne ist und da die karte zurück liegt. bzw. woran es liegt. will ja nicht nur "3 einheiten" bei guten fps sehen und dann wenn es "5" werden wird es schon kritisch ;-)

@y33H@
liegt es nur an den schatten oder eine kombination aus 4xaa und den schatten? bzw. hast du werte wenn du die schatten so explizit nennst ?

@guru thx
werde ich gleich dann drauf ziehen zu hause aufn pc :-)

y33H@
2010-10-26, 13:11:40
Joa, hier (http://www.pcgameshardware.de/aid,766455/Starcraft-2-Verbesserte-Extreme-Optik-cleverer-E-Sport-Modus-plus-Radeon-Probleme-geloest/Strategiespiel/Test/)gibt's Werte. Die Schatten knüppeln mit wie ohne AA, mit AA aber noch mehr.

Kalmar
2010-10-26, 14:30:53
super vielen dank y33H@ .. hab zufälligerweise noch ne 3870 mal schaun was mit der config passiert ..

warum kommen die radons mit den schatten nicht so klar ?

y33H@
2010-10-26, 15:01:27
Wohl wegen irgendwelchen Buffern, aber ich weiß es nicht.

Marty98
2010-10-26, 20:17:14
Laut der aktuellen c't braucht die 6870 satte 46 Watt Idle im Multimonitorbetrieb.

Die 6850 hat laut der c't 45 Watt im Single Monitor Idle gebraucht, aber die c't schreibt dass es eine Rückmeldung von AMD gab dass es ein Firmware Bug sei (vielleicht nur auf den Modell welche c't zum testen bekam!?).

Dural
2010-10-26, 20:58:04
Hab mal eine HIS 6870 / Referenz eingebaut...

stock vGPU ist 1,172Volt

GPU 900 @ 1000MHz

Speicher 1050 @ 1200MHz

http://img535.imageshack.us/img535/8642/100012001.th.jpg (http://img535.imageshack.us/i/100012001.jpg/)

http://img535.imageshack.us/img535/8642/100012001.jpg

ist ja ganz ok wenn noch etwas mehr geht (noch nicht getestet)

pest
2010-10-26, 21:01:44
Radeon-Betatreiber beschleunigt Starcraft 2 mit Kantenglättung um bis zu 40 %

fixed :rolleyes:

hq-hq
2010-10-26, 22:10:05
Hab mal eine HIS 6870 / Referenz eingebaut...

stock vGPU ist 1,172Volt

GPU 900 @ 1000MHz

Speicher 1050 @ 1200MHz

http://img535.imageshack.us/img535/8642/100012001.th.jpg (http://img535.imageshack.us/i/100012001.jpg/)

http://img535.imageshack.us/img535/8642/100012001.jpg

ist ja ganz ok wenn noch etwas mehr geht (noch nicht getestet)

sehr interessant, kannst du vantage durchlaufen lassen, einmal occt error
check für eine minute (sollte günstigerweise unter 1000 liegen) und z.b.
unigine oder crysis auf bildfehler achten, wär schon mal net so schlecht
wenn 1ghz drin wär :freak:

LehmiP
2010-10-26, 22:50:23
für dich wahrscheinlich interessant.
Radeon-Betatreiber beschleunigt Starcraft 2 mit Kantenglättung um 40 % (http://www.pcgameshardware.de/aid,795448/Radeon-Betatreiber-beschleunigt-Starcraft-2-mit-Kantenglaettung-um-40-Prozent-Vorschau-auf-PCGH-Print-12/2010/Grafikkarte/News/)
ich halt sowas für humbug... genauso Mit der Version 260.99 will Nvidia den Spielen Civilization V (SLI), Fallout 3/Fallout New Vegas, Final Fantasy 14 und F1 2010 (DX11) zu mehr Leistung auf Geforce-Grafikkarten verhelfen (http://www.golem.de/1010/78910.html)

Dural
2010-10-27, 00:16:41
http://img214.imageshack.us/img214/9822/964955964916.th.jpg (http://img214.imageshack.us/i/964955964916.jpg/)

Neocroth
2010-10-27, 10:39:29
http://img535.imageshack.us/img535/8642/100012001.th.jpg (http://img535.imageshack.us/i/100012001.jpg/)

http://img535.imageshack.us/img535/8642/100012001.jpg



"Die Echtheit dieser Windows-Kopie wurde noch nicht bestätigt" ;D

</SorryFürsOT>

Kalmar
2010-10-27, 11:32:25
weiss einer wann ungefähr die eigenen boarddesigns [vorallem kühler] von der 6870 raus kommen ?

hab eben schon auf der seite von gigabyte und msi geschaut aber da stehen nicht mal die 68x0 karten :-(

mit war so als hätte die pcgh geschrieben im (über)nächsten heft sind die tests dazu drin aber kein genaues datum -.-

Dural
2010-10-27, 11:50:30
"Die Echtheit dieser Windows-Kopie wurde noch nicht bestätigt" ;D

</SorryFürsOT>

tja kommt halt davon wenn man ständig die hardware tauscht :rolleyes: das es überhaupt noch läuft verwundert mich, die installation ist immer hin schon ca. 3 jahre alt ;)

EvilOlive
2010-10-27, 12:19:07
Wann wird man eigentlich mit alternativen Kühllösungen seitens der Hersteller für die HD 6870 rechnen können, den Standardüfter kenne ich nämlich schon von der XFX 4870
und der dreht bei jedem Windowsstart laut auf und ist auch sonst alles andere als leise?

y33H@
2010-10-27, 12:21:25
ich halt sowas für humbugHast du den Artikel gelesen? :rolleyes:

LovesuckZ
2010-10-27, 12:35:24
Ich habe soeben Radeon HD 6850 und 6870 werden knapper und teurer (http://www.golem.de/1010/78912.html) gelesen und denke mir dabei, wenn das stimmen sollte, dann wäre das ein nächster Nagel im Verarschungssarg vom Barts-Launch.
Bis jetzt scheint es aber nicht der Wahrheit zu entsprechen, gibt es noch genug lieferbare Karten für <150€ bzw. 200€, die über geizhals zu finden sind.

Ronny145
2010-10-27, 12:43:51
Ich habe soeben Radeon HD 6850 und 6870 werden knapper und teurer (http://www.golem.de/1010/78912.html) gelesen und denke mir dabei, wenn das stimmen sollte, dann wäre das ein nächster Nagel im Verarschungssarg vom Barts-Launch.
Bis jetzt scheint es aber nicht der Wahrheit zu entsprechen, gibt es noch genug lieferbare Karten für <150€ bzw. 200€, die über geizhals zu finden sind.


Ich sehe nur 2 Händler mit einer 6850 für 150€ lagernd. Wenn dem so sein sollte, wird sich das erst die nächsten Tage zeigen.

deekey777
2010-10-27, 12:48:18
Ich verfolge die Preis- und Verfügbarkeitsentwicklung seit dem Launch und kann weder eine Verknappung noch irgendwas in diese Richtung feststellen.
Was da "Verarsche" sein soll, kann ich irgendwie nicht erkennen. Die Preise der HD6870 beginnen meist unter 200 EUR. Gleiches gilt für die HD6850.

Dural
2010-10-27, 12:53:22
sollen doch teurer werden, dann kauft sie so wie so keiner mehr ;)


Der Kühler/Lüfter ist überigens deutlich lauter als der einer GTX460, die GPU ist aber trotzdem wärmer... :rolleyes:

Kalmar
2010-10-27, 13:13:12
der erfolg mit der 68x0 steht und fälltmit dem preis/customsdesigns aber ich versteh nicht wie ihr hier immer den untergang oder den aufstieg von karten feiern können, als würde ihr persönliches glück davon abhängen

ich finde die Situation momentan sehr angenehm, es gibt zig karten um 200€ die alle vor- und Nachteile haben und das hier einige leute eingefärbte Präferenzen haben ist schön aber sollte nicht in jedem thread hinausposaunt werden ...

ich hoffe die 6870 customs designs werden demnächst vorgestellt .. wenn es nicht schnell geht, auch positiv kann man ja schaun wieweit preislich und von der performance die 6950 vor der 6870 liegt ..

@y33H@ habt ihr infos wie lange es noch bis zum erscheinen von eigenen Kühllösungen der 6870 dauert?

mironicus
2010-10-27, 13:22:49
Wenn die 6850/6870 teurer werden würden, würde sich der Preis für die GTX 460/470 auch wieder automatisch erhöhen. Die Händler meckern wohl schon über zu niedrige Verkaufspreise. :D

Aber es stimmt, die Preisspanne bei den Händlern ist schon enorm. Nur eine Handvoll Händler bieten die Karten für diesen günstigen Preis an. Könnte also durchaus sein, dass die Preise wieder steigen, sobald immer mehr Händler von der Preisempfehlung abrücken.

Schnitzl
2010-10-27, 13:26:29
sollen doch teurer werden, dann kauft sie so wie so keiner mehr ;)

Der Kühler/Lüfter ist überigens deutlich lauter als der einer GTX460, die GPU ist aber trotzdem wärmer... :rolleyes:
hm, da fragt man sich warum du eine gekauft hast?
Und wenn man den (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8351052&postcount=30) Post hier liest, dann wäre die 460 ja quasi lautlos?
Sprichst du von der übertakteten 6870 bei 1000 Mhz? Mit welcher 460 wurde verglichen?
Irgendwie viel zu vage der Post von dir...

Kalmar
2010-10-27, 13:26:49
Wenn die 6850/6870 teurer werden würden, würde sich der Preis für die GTX 460/470 auch wieder automatisch erhöhen. Die Händler meckern wohl schon über zu niedrige Verkaufspreise. :D

Aber es stimmt, die Preisspanne bei den Händlern ist schon enorm. Nur eine Handvoll Händler bieten die Karten für diesen günstigen Preis an. Könnte also durchaus sein, dass die Preise wieder steigen, sobald immer mehr Händler von der Preisempfehlung abrücken.

der anreiz aber in den preissuchmaschinen als erstes zuerscheinen ist dennoch ziemlich hoch .., steht und fällt mit der lieferfähigkeit ..

LovesuckZ
2010-10-27, 13:33:30
Wenn die 6850/6870 teurer werden würden, würde sich der Preis für die GTX 460/470 auch wieder automatisch erhöhen. Die Händler meckern wohl schon über zu niedrige Verkaufspreise. :D


Nein muss nicht. Wenn die Preissenkung dauerhaft ist auf nVidia-Seite, dann werden sie nicht mehr teurer. Dann müssten ja alle Händler nachziehen und das ist unwahrscheinlich.
Laut Golem.de sollte AMD wohl nur eine kleine Marge verbilligt angeboten haben, um erstmal für den Preis in den Markt zu gehen. Das würde dann auch zur Aussage passen, dass die nVidia-Preisreduzierung nur temporär wäre.

Exxtreme
2010-10-27, 13:37:40
Nein muss nicht. Wenn die Preissenkung dauerhaft ist auf nVidia-Seite, dann werden sie nicht mehr teurer. Dann müssten ja alle Händler nachziehen und das ist unwahrscheinlich.
Doch, es wird eine Angleichung geben. Denn Preise werden aus dem Verhältnis aus Angebot und Nachfrage ermittelt. Werden die Radeons teurer dann sinkt die Nachfrage sinken. Auf der NV-Seite wird sich das umgekehrt verhalten, sprich die Nachfrage wird steigen. Und steigende Nachfrage lässt die Preise ebenfalls steigen.

RoNsOn Xs
2010-10-27, 13:37:55
fakt sollte doch wohl sein, dass die preise nur gemeinsam mit nv hoch gehen können, oder gleich bleiben, oder sinken.

LovesuckZ
2010-10-27, 13:40:53
Doch, es wird eine Angleichung geben. Denn Preise werden aus dem Verhältnis aus Angebot und Nachfrage ermittelt. Werden die Radeons teurer dann sinkt die Nachfrage sinken. Auf der NV-Seite wird sich das umgekehrt verhalten, sprich die Nachfrage wird steigen. Und steigende Nachfrage lässt die Preise ebenfalls steigen.

Das trifft nur dann zu, wenn das Angebot merklich zurückgeht. Selbst wenn die Preise von AMD sich nicht auf 150€ sondern 160/170€ einpendeln für eine 6850, müsste dafür eine erhebliche Nachfrageschwemme nach GTX460 Karten auftauchen. Aus meiner Sicht nimmt nVidia eher den größeren Marktanteil mit als die Produktion nicht aufzustocken bzw. mehr Karten zu liefern. Und da sie mit der GTX460 die Kosten ziemlich gut auf die Partner abwelzen, wird der Preis nicht mehr steigen.

Dural
2010-10-27, 13:46:56
hab gestern schnell noch vantage (GPU Score rund P15000 @ 1000MHz) laufen lassen und der Lüfter war auf auto, ich war nicht mal direkt neben dem PC habe den Lüfter der 6870 aber trotzdem deutlich gehört, für silent PC kann man die 6870 Referenz vergessen...

die GTX460 Referenz ist da deutlich angenehmer

Ronny145
2010-10-27, 13:53:44
hab gestern schnell noch vantage (GPU Score rund P15000 @ 1000MHz) laufen lassen und der Lüfter war auf auto, ich war nicht mal direkt neben dem PC habe den Lüfter der 6870 aber trotzdem deutlich gehört, für silent PC kann man die 6870 Referenz vergessen...

die GTX460 Referenz ist da deutlich angenehmer


Von welcher 6870 redest du?

Dural
2010-10-27, 13:54:47
HIS / AMD referenz

mironicus
2010-10-27, 14:01:19
AMD-Referenzdesign ist immer Müll (Lautstärke), da hat sich gar nichts verändert mit der neuen Generation. :D

C.D.B.
2010-10-27, 19:09:13
Boah, da hat das Schicksal mich vor einem üblen Fehltritt bewahrt. Wollte doch ebend meine HD6870-Bestellung bei Alternate canceln und ne GTX470 ordern. http://forum.egosoft.com/images/smiles/icon_redface.gif

Kein Witz!: War grade aufgestanden um zum Telefon zu gehen, da trudelt ne SMS von Alternate ein ... meine 6870 ist nun unterwegs.

Spätestens übermorgen muß ich denn das todbringende Flimmern ertragen - zumindest nach "Meinung" von LZ und consorten. :D

Da ich nun die HD4xxx und HD5xxx überspringe, bin ich mal gespannt, ob die Filterquali noch schlechter als auf meiner 3870 ist ... :rolleyes:

Schlammsau
2010-10-27, 19:10:34
Nicht schlechter, aber auch nicht besser! ;)

Aber dafür haste jetzt ja SGSSAA, MLAA und nen Placebo HQ AF Schalter.....

C.D.B.
2010-10-27, 19:17:07
... und nen Placebo HQ AF Schalter.....

Meinst Du, das ich mich besser fühle, wenn ich den anknipse? ;D

Nö, wenn das bisher gesagte zutrifft - das Q besser aussieht als HQ - werde ich wohl mit Q zocken. ;)

Schlammsau
2010-10-27, 19:19:06
Meinst Du, das ich besser fühle, wenn ich den anknipse? ;D

Nö, wenn das bisher gesagte zutrifft - das Q besser aussieht als HQ - werde ich wohl mit Q zocken. ;)

Das stimmt so nicht, HQ sollte allermeistens das bessere Ergebniss als Q liefern, aber anscheinend gibt es Ausnahmen. Ich würde immer auf HQ lassen.....

http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=4
Kurz: "High Quality" auf einer Radeon HD 6000 ist nach unserer Einschätzung am ehesten mit Nvidias Treiberstandard (Quality/Qualität inklusive "Trilinearer Optimierung") vergleichbar - und so testen wir daher auch.

Unterm Strich ist die Entwicklung insgesamt positiv:
- das Banding-Problem der Evergreens, laut AMD ein Hardware-Bug, ist beseitigt,
- das AF-Flimmern ist nicht so stark wie bei einer HD 4000 und die Rendertarget-Optimierungen lassen sich auf Wunsch abschalten.
- Den Nutzern werden mehr Freiheiten geboten denn je.

Zwar steht Nvidia hinsichtlich des AFs nach wie vor besser da, so nah wie mit der Radeon HD 6000 kam AMD den Geforce-Karten aber schon lange nicht mehr. Wer Wert auf möglichst sauber gefilterte Texturen legt, kommt dennoch nicht um eine Geforce samt HQ-AF herum.

C.D.B.
2010-10-27, 19:24:02
Ich werds ja spätestens übermorgen mit eigenen Augen sehen. Werde mal Q und HQ bei HL² und vor allen Dingen X³-TC testen.

Das sind eindeutig (zumindest bei mir) die Games mit bitterbösem Flimmer-Content. :biggrin:

Coda
2010-10-27, 19:24:31
Da ich nun die HD4xxx und HD5xxx überspringe, bin ich mal gespannt, ob die Filterquali noch schlechter als auf meiner 3870 ist ... :rolleyes:
HD3870 ist exakt gleich wie HD4800. HD5800 und HD6800 sollten etwas besser filtern.

Gipsel
2010-10-27, 19:25:26
Das stimmt so nicht, HQ sollte allermeistens das bessere Ergebniss als Q liefern, aber anscheinend gibt es Ausnahmen. Ich würde immer auf HQ lassen.....
Meinst Du, das ich mich besser fühle, wenn ich den anknipse? ;D

Nö, wenn das bisher gesagte zutrifft - das Q besser aussieht als HQ - werde ich wohl mit Q zocken. ;)
Am besten vergleichst Du mal Q mit HQ. Wenn Du keinen Unterschied siehst, kannst Du den ja mal auf P stellen :freak:

mironicus
2010-10-27, 22:16:01
Erstes Custom-Design: :D
http://edel-grafikkarten.de/ATI/HD-6870/HD-6870-Twin-Turbo-Pro-Edition

C.D.B.
2010-10-27, 22:51:39
Erstes Custom-Design: :D
http://edel-grafikkarten.de/ATI/HD-6870/HD-6870-Twin-Turbo-Pro-Edition

Und ist gar nicht mal so teuer!
Dummerweise nur minimale Wärmeabführung nach draußen. Die meiste Abwärme wird schön im Gehäuse verteilt - solche Miefquirls mag ich einfach net. :D

Flatterball77
2010-10-28, 05:26:28
Nicht teuer:rolleyes: Um den Preis gibts fast ne 470 Customdesign die wirklich ordentlich ist. Ich sag mal Gainward Good 470 (denke mal die liegt jetzt da in diesem Segment.). Und legst du 10 Euro drauf bekommst du eine von Gigabyte. Denk mal bitte nach. Bitte.:smile:

Und der Laden ist eh mistig (Edelgrafikkarten. Schlecht meine Meinung.)

Wow 230 sogar. Viel viel zu teuer.

P.S.: Zum Vergleich: Meine 470 SOC hat um die 245 gekostet. Und bedenke ich habe die Karte von Gigabyte Garantie etc. Dieser Edelgrafikkarten Laden wird bald Pleite gehen was dann?

PP.S.: Und ja ich denke eine SOC hat mehr Power als eine 6870 je haben wird.

Bitte bitte geh mal auf Geizhals und vergleiche mal. Falle nicht auf AF-Cheats herein und dann schaue mal auf P/L. Die 50 Watt extra unter Last (Nvidia) sei mal vergeben. Fermi kannste selbst bei der SOC noch runtertakten Wattmässig. Der Preis von "Edelgrafikkarten" ist alles andere als edel. Sorry Leute das ist meine Meinung.;)

C.D.B.
2010-10-28, 07:31:37
Och Flatti, und wenn Du noch so aggressiv und penetrant auftrittst, LZ wirste nicht das Wasser reichen können! :ufinger:

@topic:
Das "nicht mal so teuer" bezieht sich auf die ~230€, die (leider) ja auch für die meisten Referenz-Karten verlangt werden. ;)

SamLombardo
2010-10-28, 08:09:17
Boah, da hat das Schicksal mich vor einem üblen Fehltritt bewahrt....
...oder aber Dir einen üblen Streich gespielt. Wird sich zeigen;)





....sorry musste sein:biggrin:


Gruß

Tarkin
2010-10-28, 12:42:12
http://www.hexus.net/content/item.php?item=27167

6850 Crossfire Review

5970er Leistung zum Preis einer einzelnen 5870er

Mit Leistungsaufnahme auf 470er Niveau und immerhin 100W Abstand zur 460er SLI

:up:

y33H@
2010-10-28, 12:45:12
Nette Skalierung, aber in der Praxis wie alle MGPU-Lösungen imo für den ...

AnarchX
2010-10-28, 12:48:40
Zudem steht wohl in ~4 Wochen die HD 6900-Serie an, die diese gefühlte FPS mit einer GPU zum ähnlichen Preis bringen könnte und dazu noch ein paar Architektur-Extras. ;)

Tarkin
2010-10-28, 12:54:58
Zudem steht wohl in ~4 Wochen die HD 6900-Serie an, die diese gefühlte FPS mit einer GPU zum ähnlichen Preis bringen könnte und dazu noch ein paar Architektur-Extras. ;)

Das wäre ein Schock! Dann schick ich meine 5870er gleich in Rente :D

mironicus
2010-10-28, 15:51:50
Crossfire 6850 und insgesamt nur 353 Watt unter Furmark für das gesamte System? Würde ein *gutes* 400 Watt-Netzteil für so ein Setup ausreichen...?

LovesuckZ
2010-10-28, 16:03:42
Also wenn jemand sich noch eine 6850 zu 149€ kaufen möchte, sollte er es wohl so schnell wie möglich machen. Alternate hat die Preise auf 167€+ angezogen und das werden die wohl nicht nur aus Spaß gemacht haben...
Auch bei Geizhals.at/Deutschland sind die 6850 für 149€ rar. Also zuschlagen, wenn es geht. Für mehr als 150€ sind die Karten deutlich schlechter gestellt.

mironicus
2010-10-28, 16:58:54
Die Powercolor 6850 (ab 146 Euro) ist bei vielen Händlern noch so günstig gelistet, nur halt die Sapphire nicht.

LovesuckZ
2010-10-28, 17:15:17
Die Powercolor 6850 (ab 146 Euro) ist bei vielen Händlern noch so günstig gelistet, nur halt die Sapphire nicht.

Gelistet, aber nur noch HoH.de gibt einen halbwegs festen Liefertermin an. Ansonsten startet man hier erst bei 159€.
Wie gesagt: Wer will, sollte sich jetzt noch eine 149€ Karten holen. Imo sieht es so aus, dass dieser Preis nicht gehalten wird.

Schlammsau
2010-10-28, 19:10:49
Laufen den schon irgendwelche Overvoltingtools mit den Karten?

Trixx (http://www.sapphiretech.com/ssc/TriXX/) und Afterburner gehen ja leider noch nicht.

mironicus
2010-10-28, 19:27:12
Gelistet, aber nur noch HoH.de gibt einen halbwegs festen Liefertermin an. Ansonsten startet man hier erst bei 159€.
Wie gesagt: Wer will, sollte sich jetzt noch eine 149€ Karten holen. Imo sieht es so aus, dass dieser Preis nicht gehalten wird.

Schau mal gerade wieder auf Geizhals (Sapphire 6850). Sobald die Karten wieder lieferbar sind, werden die Preise wieder gesenkt und die entsprechenden Händler stehen auf den vordersten Plätzen bei Geizhals. Heute mittag bei Mindfactory: 165 Euro (bestellt), jetzt momentan wieder lieferbar für 149,xx Euro. :)

Dural
2010-10-28, 21:06:42
es sind krücken, holt euch für 200.- Euro lieber was anderes!

die 6870 ist für 200.- euro derzeit nicht empfehlenswert... gibt deutlich bessere karten für diesen preis!

Schlammsau
2010-10-28, 21:21:53
es sind krücken, holt euch für 200.- Euro lieber was anderes!

die 6870 ist für 200.- euro derzeit nicht empfehlenswert... gibt deutlich bessere karten für diesen preis!

Nur für nVidianer......

Jake Dunn
2010-10-28, 21:35:01
Nur für nVidianer......

Die HD5850 für 190€ z.b. imho, kann man sehr gut OCen...

...ein bischen müßte sie aber noch runter...auf 175€ ^^

Mr. Lolman
2010-10-28, 21:37:32
Bei DiTech in .at gibts die 5850 momentan um 180€: http://geizhals.at/a506740.html

Jake Dunn
2010-10-28, 21:40:34
Bei DiTech in .at gibts die 5850 momentan um 180€: http://geizhals.at/a506740.html

Ist nicht DE und da kann man keine Spannung aendern..

Schnitzl
2010-10-28, 21:58:34
Bei DiTech in .at gibts die 5850 momentan um 180€: http://geizhals.at/a506740.html
20 € drauflegen und es gibt gleich nen Spiel mit dazu sowie höheren Takt :)
http://geizhals.at/deutschland/a539468.html

C.D.B.
2010-10-28, 22:07:37
HD3870 ist exakt gleich wie HD4800. HD5800 und HD6800 sollten etwas besser filtern.

Habe wirklich noch nicht ernsthaft angefangen meine HD6870 zu testen - aber die Quali ist DEUTLICH besser als bei RV670! (@HQ natürlich ;) )

...oder aber Dir einen üblen Streich gespielt. Wird sich zeigen;)

....sorry musste sein:biggrin:

Also - bis jetzt denke ich, daß das Schicksal es gut mit mir gemeint hat! :)

Deutlich bessere Quali gegenüber HD3870, von der Power ganz zu schweigen. Nur der drecks Radiallüfter@Last nervt. Man kann auch bessere Radiallüfter bauen. z.B. auf meiner letzten Graka, der HIS HD 3870 IceQ 3 Turbo (http://www.hisdigital.com/un/product2-35.shtml). Warum muß AMD an diesem Punkt 1€ bis 2€ einsparen?!?!?!? Muß doch net sein ...

Mark3Dfx
2010-10-28, 22:16:51
Warum kaufste dann die Radial Lüfter Gurke?
Customdesings brauchen noch etwas, gerade bei der 6870 ist da noch nichts in Sicht.

http://geizhals.at/deutschland/?cat=gra16_512&xf=891_Radeon%20HD%206870&sort=p

Iruwen
2010-10-28, 22:19:04
Warum kaufste dann die Radial Lüfter Gurke?
Customdesings brauchen noch etwas, gerade bei der 6870 ist da noch nichts in Sicht.
Nächste Woche sollen laut Hartware von einem Hersteller gleich zwei Designs kommen (Single und Dual Fan). Jemand von PCGH hatte auch schon indirekt entsprechende Karten angekündigt, sowas in Richtung "Test in zwei Wochen" o.ä.

Nur für nVidianer......
Soll ja vereinzelt auch Leute geben die nach Qualität des Produkts entscheiden und nicht nach Hersteller.

Kalmar
2010-10-28, 23:48:08
Habe wirklich noch nicht ernsthaft angefangen meine HD6870 zu testen - aber die Quali ist DEUTLICH besser als bei RV670! (@HQ natürlich ;) )

Deutlich bessere Quali gegenüber HD3870, von der Power ganz zu schweigen. Nur der drecks Radiallüfter@Last nervt. Man kann auch bessere Radiallüfter bauen. z.B. auf meiner letzten Graka, der HIS HD 3870 IceQ 3 Turbo (http://www.hisdigital.com/un/product2-35.shtml). Warum muß AMD an diesem Punkt 1€ bis 2€ einsparen?!?!?!? Muß doch net sein ...

wenn du hl² / wow / sc2 hast immer her mit den vergleichen ^^


bei mir werkelt noch genau die gleiche 3870 .. das einzige was mich von der 6870 noch abhält ist der lüft .. will nix was lauter ist würd mich über weitere eindrücke deines umstiegs freuen :-)

Dural
2010-10-29, 10:48:10
Nur für nVidianer......


nö erst recht für ATianer, den da gibt es deutlich bessere Karten wie 5850 oder sogar 6850...

die 6870 ist ein Witz und eine frechheit für 200.- wenn man für 150.- 460 und 6850 bekommt :rolleyes:



Aber seit 2 Tagen eine ATi drin und schon Software Problem... traurig aber war... mal den nächsten Treiber abwarten :)

Schlammsau
2010-10-29, 11:42:54
Für ~200€ ist die 6870 ein gutes Angebot. Meinen Ansprüchen wird sie mehr als gerecht.

Komisch, meine 6870 läuft genauso gut, wie meine 5850.
Es gibt keine inkompatibilitäten, abstürtze oder sonstiges.
Das Ding ist superleise, und ist sehr genügsam beim Stromverbrauch.

Was will ich mehr?

deekey777
2010-10-29, 11:49:37
Für ~200€ ist die 6870 ein gutes Angebot. Meinen Ansprüchen wird sie mehr als gerecht.

Komisch, meine 6870 läuft genauso gut, wie meine 5850.
Es gibt keine inkompatibilitäten, abstürtze oder sonstiges.
Das Ding ist superleise, und ist sehr genügsam beim Stromverbrauch.

Was will ich mehr?
Egal wieviele Vorteile du aufzählst, die HD6870 hat einen Minuspunkt, der von keinen Pluspunkten eliminiert wird: Sie ist nicht von Nvidia.

Raff
2010-10-29, 11:54:21
Für ~200€ ist die 6870 ein gutes Angebot. Meinen Ansprüchen wird sie mehr als gerecht.

Komisch, meine 6870 läuft genauso gut, wie meine 5850.
Es gibt keine inkompatibilitäten, abstürtze oder sonstiges.
Das Ding ist superleise, und ist sehr genügsam beim Stromverbrauch.

Was will ich mehr?

Sie ist nicht superleise (3+ Sone in Spielen). Deine HD 5850 OC mit AC-Kühler ist dem Ding in fast allen Belangen überlegen. Du hast ein Sidegrade mit Down-Tendenz betrieben. ;)

MfG,
Raff