PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 6850 und 6870 (P)Review- und Diskussionsthread


Seiten : 1 [2] 3 4 5

AnarchX
2010-10-22, 10:22:37
Naja, ich glaube nicht, dass ich sowas einschalten würde.
Bei GTA 4 könnte es durchaus sinnvoll sein, selbst eine HD 6870 dürfte grenzwertig für Downsampling bzw. ENB-Series SSAA sein.

Gibt es auch ein Review das eine 800MHz GTX 460 getestet hat? Keine Lust selber zu Benchen :cool:

http://www.hardware.fr/articles/804-23/dossier-amd-radeon-hd-6870-6850.html

Popopinsel
2010-10-22, 10:35:11
Naja, Antialiasing soll Artefakte beseitigen und nicht welche hinzufügen.

Naja, irgendwie schon, denn AA fügt schließlich Bildinformationen (interpolierte Pixel) hinzu, die eigentlich gar nicht da sind. Das so etwas schlecht implementiert sein und die Bildqualität mindern kann (durch zu viel oder schlechte Interpolation), streite ich dabei nicht ab.

Aber ich muss ganz ehrlich sagen, dass ich oftmals froh bin, wenn Spiele eine qualitativ minderwertigere Methode zur Reduktion von Kantenbildung (div. Blur-Filter) als MSAA anbieten, wenn ich dadurch im Bereich spielbarer FPS bleibe und dennoch keine hart gezeichnete Grafik vor mir habe.

Spontan fällt mir da das Edge-AA aus Crysis ein, das mir wirklich gut gefällt, da es fast "umsonst" ist.

mironicus
2010-10-22, 10:39:38
MLAA arbeitet wohl ähnlich wie ein Denoise-Filter bei Videos. Adaptive Videofilterung kann kleine Wunder bewirken. Das würde ich gerne mal in Bewegung sehen (Videos...?)

Exxtreme
2010-10-22, 10:50:06
Naja, irgendwie schon, denn AA fügt schließlich Bildinformationen (interpolierte Pixel) hinzu, die eigentlich gar nicht da sind.
Doch, diese Informationen sind da nur gehen sie verloren wenn das Bild in Pixel unterteilt wird. Antialiasing sorgt dafür, das Teile der Informationen, die normalerweise verloren gehen würden eben nicht verloren gehen und ins Bild einfliessen.

MLAA macht sowas nicht sondern "errechnet" irgendwelche Pseudo-Informationen, die es so in den Originaldaten gar nicht gibt.

deekey777
2010-10-22, 10:52:27
Es ist wirklich dreist, diesen Weichzeichner als MLAA zu bezeichnen.

derguru
2010-10-22, 11:00:28
ich sehe mlaa durchaus zu gebrauchen vor allem bei spielen die von haus aus gar kein aa bieten und wenn es for free ist sowieso.ich finde es trotzdem schade das man die tentfilter entfernt hat,gerade in kombination mit sgssaa.
MLAA-Vergleich (http://www.gamestar.de/_misc/images/picchanger.cfm?pk=2318548&elid=EL_12876727943073244773384&actid=EL_12876728059557428127936)

V2.0
2010-10-22, 11:04:36
Vorsicht. Ich kann sagen, dass MLAA imho durchaus mal eine Art Kantenflimmern erzeugen kann, gerade wenn die FPS hoch sind und der Kontrast der Kanten hart. Teilweise finde ich kein AA da besser, da die Kanten wenigstens gleichmäßig stufig sind. Bei feinen Kanten (der typischen Stromleitung z.B.) geht es imho gar nicht.

fizzo
2010-10-22, 11:10:41
Gerade bestellt: SAPPHIRE Radeon HD 6850, Lite Retail, 1024MB - € 149,9 frei Haus (https://www.ditech.at/item.do?kurzbez=GPHG50&from=geizhals) sollte spätestens Montag bei mir sein =)

Exxtreme
2010-10-22, 11:14:50
ich sehe mlaa durchaus zu gebrauchen vor allem bei spielen die von haus aus gar kein aa bieten und wenn es for free ist sowieso.ich finde es trotzdem schade das man die tentfilter entfernt hat,gerade in kombination mit sgssaa.
MLAA-Vergleich (http://www.gamestar.de/_misc/images/picchanger.cfm?pk=2318548&elid=EL_12876727943073244773384&actid=EL_12876728059557428127936)
Für Standbilder mag das zutreffen. ;) Nur ist bei Standbildern auch richtiges AA kein Problem.

mironicus
2010-10-22, 11:16:05
Die Sapphire gibt es bereits für 148, die Händler halten sich noch zurück.

Sentionline
2010-10-22, 11:27:25
Ich finde das Namensschema nicht nur irreführend sondern fast schon "dreist". SGSSAA ist nach wie vor nur unter DX9 verfügbar und AF flimmert weiterhin. Leistungsaufnahme ist fast synchron mit der Bildausgabe. Verstehe die Euphorie einiger nicht, da ist ja nichts neues.

Mein Fazit; Die HD6x Welle kann man ignorieren. Ein Unternehmen das in ruhe solch ein Namensschema einführen kann, kann ja nicht viel IQ von seinen Kunden erwarten. Bei Nvidia wird umgelabelt, bei AMD wird man komplett für dumm verkauft.

Schade.

HQ Schalter ist bei AMD nach wie vor nicht vorhanden. Bedeutet; braucht man auch nicht gegenbenchen.

MadManniMan
2010-10-22, 11:29:29
Ich zitiert mich mal aus dem HT4U-Forum:
Es ist irgendwie noch nicht ganz klar, wie HT4U gebencht hat.

P.S.: Es wäre im übrigen schön gewesen, wenn die PCGH das anhand von Screenshots belegt hätte, was sie da schreiben. Und bevor ich es vergesse, die Benchmarks wurden unter HQ durchgeführt - wir haben dies (wie einiges andere) einfach unter dem enormen Zeitdruck vergessen im Artikel zu erwähnen.

Eure Videos sind sowieso das Beste, was ich bisher zu diesem Thema gesehen habe [thumbup]

Und guuut, dass ihr auch HQ getestet habt - aber welches HQ meinst Du jetzt? AMD-HQ vs. NV-Q? Oder Andersherum? Das hier passt nämlich nicht so richtig:

CMR:Dirt2 HT4U PCGH (1920*1200/4*/16*)
460 46 51
6850 56 47
6890 62 53

Crysis:WH HT4U PCGH (1920*1200/4*/16*)
460 20 22
6850 24 23
6890 25 27

Entweder, die unterschiedlichen Benchmark-Szenen hauen so stark rein, oder da passt was mit den Qualitäts-Einstellungen nicht :(

Stormscud
2010-10-22, 11:35:16
Was mich wundert: Bei Geizhals gibt es eigentlich nur 6850er mit Custom Kühler, aber von der 70er nur die Standard Teile. Warum nicht auch für die schon alternative Kühllösungen?

fondness
2010-10-22, 11:41:10
Nicht viel getan??? Sonst gehts aber noch gut, oder? Es gibt eine de facto Verschlechterung.

Woher kommt der Blödsinn? Es gibt natürlich eine klare Verbesserung. Das Banding wurde beseitigt, ich kann die Filteroptimierungen getrennt regeln. Wer so blöd ist und mit Quality spielt ist selbst Schuld. Natürlich Schade das man nicht NV HQ-Niveau erreicht, aber wie PCGH schon sagte ist man näher dran als lange Zeit vorher.

desert
2010-10-22, 11:45:38
Woher kommt der Blödsinn? Es gibt natürlich eine klare Verbesserung. Das Banding wurde beseitigt, ich kann die Filteroptimierungen getrennt regeln. Wer so blöd ist und mit Quality spielt ist selbst Schuld. Aber Schade das man nicht NV HQ-Niveau erreicht, aber wie PCGH schon sagte ist man näher dran als lange Zeit vorher.

blöd nur das alle mit q benchen, das wenn man pcgh und co glaubt schlechter als das jetzige q ist, und so teilweise bis zu 18 % schneller sind.


Also neu jetzt : q = A.i. advanced, und hq = a.i. standard. Wenn das wirklich stimmen sollte...

fondness
2010-10-22, 11:53:44
blöd nur das alle mit q benchen, das wenn man pcgh und co glaubt schlechter als das jetzige q ist, und so teilweise bis zu 18 % schneller sind.


Also neu jetzt : q = A.i. advanced, und hq = a.i. standard. Wenn das wirklich stimmen sollte...

Ja, wenn das wirklich so stimmt ist das natürlich eine Frechheit und AMD hätte genau das erreicht was sie eigentlich wollten. Aber hier warte ich dann doch besser auf eine umfassende Analyse bevor ich mir ein Urteil erlaube. Und ein Leistungsvorteil ist ja in fast allen Fällen kaum vorhanden:

http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index9.php

derguru
2010-10-22, 12:17:26
Für Standbilder mag das zutreffen. ;) Nur ist bei Standbildern auch richtiges AA kein Problem.
welches richtige aa wenn es vom spiel aus keins gibt?(gothic4,gta4 usw.)mlaa soll nicht msaa ersetzen,keine angst.:rolleyes:
aber du kannst ja weiter ohne jegliches aa spielen wenns dir gefällt.

0815
2010-10-22, 12:36:28
somit dürfte die ati 5850 ab heute völlig uninterressant geworden sein. alle die noch ihre ati 5850 vor dem launch der amd 68X0 verkloppt haben, haben noch einen guten preis gekriegt, aber ab heute können die von glück reden, wenn die noch für ihre gebrauchte ati 5850 140€ kriegen wenn überhaupt.

ich war auch positiv überrascht, das die amd 6870 für 200€ und die amd 6850 für 150€ angeboten werden.

fondness
2010-10-22, 12:38:49
somit dürfte die ati 5850 ab heute völlig uninterressant geworden sein. alle die noch ihre ati 5850 vor dem launch der amd 68X0 verkloppt haben, haben noch einen guten preis gekriegt, aber ab heute können die von glück reden, wenn die noch für ihre gebrauchte ati 5850 140€ kriegen wenn überhaupt.

ich war auch positiv überrascht, das die amd 6870 für 200€ angeboten werden ubnd die amd 6850 für 150€ angeboten werden.

Für 200EUR bekommt man sie heute schon wo es noch kaum Verfügbarkeit gibt und selbst von normalerweise teureren Shops wie Alternate. Man kann wohl davon ausgehen das sich der Preis durchaus bei ~180EUR einpendeln könnte.

0815
2010-10-22, 12:43:03
Für 200EUR bekommt man sie heute schon wo es noch kaum Verfügbarkeit gibt und selbst von normalerweise teureren Shops wie Alternate. Man kann wohl davon ausgehen das sich der Preis durchaus bei ~180EUR einpendeln könnte.
um so besser

PCGH_Raffael
2010-10-22, 12:43:19
somit dürfte die ati 5850 ab heute völlig uninterressant geworden sein.

Jein. Eine HD 5850 OC (765/2.250 MHz) kann es locker mit der HD 6870 aufnehmen und ist in Form leiser/er Kühldesigns zu haben.

MfG,
Raff

Franzmann-Jan
2010-10-22, 12:50:09
Sapphire hat sich mit dem äußeren Design Ihrer 6000er Grafikkarten ja wirklich selbst ins Knie geschossen. So hart es klingt, aber eine versudelte Präsentation in Form von Verpackungsdesign und Grafikkarte ist für mich ein trifftiger Grund einen anderen Hersteller auszuwählen.

XFX sieht im direkten Vergleich sehr schnicke aus. Haut jemand ne Ahnung warum diese bei Alternate ca. 30 € teurer sind :confused:

Grußensen

Exxtreme
2010-10-22, 12:52:55
Jein. Eine HD 5850 OC (765/2.250 MHz) kann es locker mit der HD 6870 aufnehmen und ist in Form leiser/er Kühldesigns zu haben.

MfG,
Raff
Naja, wenn jemand übertaktet dann juckt denjenigen die Lautstärke/Stromverbrauch normalerweise nicht wirklich.

PCGH_Raffael
2010-10-22, 12:54:50
Naja, wenn jemand übertaktet dann juckt denjenigen die Lautstärke/Stromverbrauch normalerweise nicht wirklich.

Auch beim OC-Potenzial steht die HD 5850 klar besser da als die HD 6870. Ich rate bis zum Erscheinen leiser Custom-Designs der HD 6870 eher zu einer HD 5850 (OC).

MfG,
Raff

Flusher
2010-10-22, 13:02:03
Mal ne Frage: ist es sinnvoll bei einer bereits vorhandenen 5770 und den starken Preissenkungen dieser, jetzt eine zweite zu kaufen und daraus ein CF-System zu basteln?

Pirx
2010-10-22, 13:05:43
Hmm irgendwie sind 6850 und 6870 recht nahe beieinander von der Performance her (hab nur den HT4U-Test gesehen), näher als ich das rein gefühlsmäßig bei dem Takt-/ und Einheitenunterschied vermutet hätte. Die 6870 lohnt sich ja eigentlich gar nicht.

Schrotti
2010-10-22, 13:06:54
und nen Netzteil zu den Karten legen:cool:

So ein Unsinn.

Für ein i7 860@4GHz + GTX 480 langt ein anständiges 500W NT (hatte ich in der Konstellation).

@Topic

AMD hat sich selbst ins Knie geschossen.

Nach dem lesen diverser Berichte kann und muss man das feststellen. Ein neuer Name macht eben keine neue Karte.

derguru
2010-10-22, 13:08:53
Mal ne Frage: ist es sinnvoll bei einer bereits vorhandenen 5770 und den starken Preissenkungen dieser, jetzt eine zweite zu kaufen und daraus ein CF-System zu basteln?

nein lieber verkaufen solang sie noch was wert ist und sich eine 6870 kaufen.

0815
2010-10-22, 13:11:22
http://www.abload.de/img/6800hahaqi4l.png (http://www.abload.de/image.php?img=6800hahaqi4l.png)

@tombman du bist nicht objektiv, die günstigste amd 6870 kostet zur zeit 200€, die auch noch leiser, kühler und geringeren verbrauch hat, das sind auch noch voteile für amd die du natürlich als nvidia fanboy unterm tisch kehrst. ich bitte hier um mehr objektivität. die amd 6870 ist auf jedenfall schneller als die ati 5850 und ist auch noch günstiger., damit hat die ati 5850 seine daseins berechtigung verloren.

0815
2010-10-22, 13:22:32
Jein. Eine HD 5850 OC (765/2.250 MHz) kann es locker mit der HD 6870 aufnehmen und ist in Form leiser/er Kühldesigns zu haben.

MfG,
Raff
für mich der noch eine alte gainward golden sample ati 4850 hat, ist im moment klar das ich eher zu einer amd 6870 greife, da günstiger und schneller. ich gehe davon aus das es bald auch oc karten geben wird für die amd 6870.

Pirx
2010-10-22, 13:26:06
für mich der noch eine alte gainward golden sample ati 4850 hat, ist im moment klar das ich eher zu einer amd 6870 greife, da günstiger und schneller. ich gehe davon aus das es bald auch oc karten geben wird für die amd 6870.
Warum keine 6850?

mironicus
2010-10-22, 13:31:31
Schaut mal hier: Gigabyte bringt ähnlich wie bei der sehr beliebten 460-Version eine 6850 mit Doppelkühler heraus. In wenigen Tagen lieferbar:

http://geizhals.at/deutschland/a582184.html

0815
2010-10-22, 13:37:45
Warum keine 6850?
weil ich schon seit über einen jahr auf die ati 5850 warte, das sie mal unter 200€ purzelt, aber bis zum release von der amd ist sie bis zum heutigen tage nicht für unter 200€ zu bekommen. die zeiten wo ich für eine grafikkarte 450€ ausgegeben habe sind vorbei. ich selber habe mir ein limit gesetzt für eine grafikkarte nie mehr als 200€ auszugeben.

SamLombardo
2010-10-22, 13:42:08
@tombman du bist nicht objektiv, die günstigste amd 6870 kostet zur zeit 200€, die auch noch leiser, kühler und geringeren verbrauch hat, das sind auch noch voteile für amd die du natürlich als nvidia fanboy unterm tisch kehrst. ich bitte hier um mehr objektivität.

Das eigentlich Nicht-Objektive, ist die Tatsache, dass die 470 mit den Releasetreibern gebencht wurde. Zu den Werten kannst Du locker 15 Prozent dazurechnen für die aktuelle Vergleichbarkeit. (oder einfach die PCGH benches anschauen;))

fondness
2010-10-22, 13:45:36
Das eigentlich Nicht-Objektive, ist die Tatsache, dass die 470 mit den Releasetreibern gebencht wurde. Zu den Werten kannst Du locker 15 Prozent dazurechnen für die aktuelle Vergleichbarkeit. (oder einfach die PCGH benches anschauen;))

15% über alle Spiele ist völlig unrealistisch. Die PCGH Games Auswahl ist einfach NV-freundlicher, bzw. die von CB eben AMD-freundlicher. Das war ja beim Release nicht anders.

Vom Release-Treiber 257.21 aus gesehen konnte NV beim CB-Parcour 2% Leistung gewinnen mit AA/AF:
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-geforce-260.52/12/#abschnitt_performancerating

derguru
2010-10-22, 13:47:42
weil ich schon seit über einen jahr auf die ati 5850 warte, das sie mal unter 200€ purzelt, aber bis zum release von der amd ist sie bis zum heutigen tage nicht für unter 200€ zu bekommen. die zeiten wo ich für eine grafikkarte 450€ ausgegeben habe sind vorbei. ich selber habe mir ein limit gesetzt für eine grafikkarte nie mehr als 200€ auszugeben.
er meint damit nur das es eine 6850 auch tut,übertaktest du ein bissel die 6850 und der performance unterschied zur 6870 ist gering die eh schon am limit läuft.

Schlammsau
2010-10-22, 13:48:41
Das eigentlich Nicht-Objektive, ist die Tatsache, dass die 470 mit den Releasetreibern gebencht wurde. Zu den Werten kannst Du locker 15 Prozent dazurechnen für die aktuelle Vergleichbarkeit. (oder einfach die PCGH benches anschauen;))
Oder die von Ht4u:
http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index35.php?dummy=&prod[]=AMD+Radeon+HD+6870&prod[]=NVIDIA+GeForce+GTX+470&filter[0][]=1680&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[3][]=16
http://www.abload.de/img/unbenannttib4.png

SamLombardo
2010-10-22, 13:48:58
15% über alle Spiele ist völlig unrealistisch. Die PCGH Games Auswahl ist einfach NV-freundlicher, bzw. die von CB eben AMD-freundlicher. Das war ja beim Release nicht anders.

Vom Release-Treiber 257.21 aus gesehen konnte NV beim CB-Parcour 2% gut machen:
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-geforce-260.52/12/#abschnitt_performancerating
Denkst Du? Müsste man wirklich mal benches machen um wieviel Prozent die Leistung vom Releasetreiber bis zum 260.86 zugenommen hat. Oder gibts sowas irgendwo schon?

Flusher
2010-10-22, 13:49:12
Da ja das PCGH mitließt....

@PCGH: seid ihr euch sicher dass die Messwerte zum Stromverbrauch richtig sind? HT4U hat da deutlich niedrigere Messwerte, die auch allgemein plausibler aussehen. Wieso sollte denn auch ein klar kleinerer Chip, bei ähnlichen Taktraten und Spannungen, plötzlich mehr Strom verbrauchen als die größere Vorgänger-GPU?

Edit: Ich meine explizit die Idle-Messungen.

fondness
2010-10-22, 13:50:21
Denkst Du? Müsste man wirklich mal benches machen um wieviel Prozent die Leistung vom Releasetreiber bis zum 260.86 zugenommen hat. Oder gibts sowas irgendwo schon?

Hast du meinen Link nicht gesehen? :)
2% hat man zugelegt.

SamLombardo
2010-10-22, 13:51:28
Oder die von Ht4u:
http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index35.php?dummy=&prod[]=AMD+Radeon+HD+6870&prod[]=NVIDIA+GeForce+GTX+470&filter[0][]=1680&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[3][]=16
Danke für den Link...haben die wirklich schön gemacht die gegenüberstellung.

Btw, ja jetzt Link gesehen*g*
aber der Releasetreiber war doch nicht der 257er;)

(del)
2010-10-22, 13:52:17
Es ist wirklich dreist, diesen Weichzeichner als MLAA zu bezeichnen.Es ist ja nichts bekanntes weggefallen deswegen :| Als jemand der Oberklasse-Ansprüche hat und für sich weder Spitzenklasse noch Maximum für nötig hält, könnte ich mich damit bestens anfreuen.

Dreist ist es:
- Das AI mit neuen Namen umzumodden. Also das ist gelinde gesagt wirklich unverschämt.

- Die Namensgebung. Ich hab mich ne Weile gefragt was bitte dieser Mist jetzt soll, bis ich begriffen habe, daß die 6850 die 5770 ersetzt und die 6870 die 5850. Etwas anderes kommt den Benches nach nicht in Frage. Preise passen ja auch. Was das soll verstehe ich aber nicht.

Die schütten PR-Sondermüll mit einer Leichtigkeit aus dem Ärmel welchen NV gelegentlich nur mit Mühe und Not erreicht.

Für mich wäre die 6850 eine super Karte, aber die Einzelheiten dieses "Launchs" machen mich trotzdem irgendwie sauer...

@Flusher
Nicht aufgepasst? ;) Einige Samples hatten/haben einen Bug im GrakaBIOS und drehen sich nicht vernünftig zurück, wenn sie idlen.

@Schlammsau
Interessant, die Gegenüberstellung. ATI krebst bei DX11 rum und NV bei DX9/DX10 :tongue: ;)

0815
2010-10-22, 13:53:53
Das eigentlich Nicht-Objektive, ist die Tatsache, dass die 470 mit den Releasetreibern gebencht wurde. Zu den Werten kannst Du locker 15 Prozent dazurechnen für die aktuelle Vergleichbarkeit. (oder einfach die PCGH benches anschauen;))
das habe ich auch nicht angezweifelt mit dem treibern und das nvidia besseren af hat usw. aber wenn man vergleicht dann sollte man auch fair sein und nicht nur die nachteile aufzeigen wie es unser nvidia fanboy tombman macht, weil auf sowas kann ich hier gerne verzichten, ich verlange hier objektive aussagen und wenn ihr das nicht könnt, dann soll man hier nicht posten.
im übrigen halte ich deine aussage mit 15% dazurechnen für die nivida 470 auch für sehr gewagt bzw. zu hoch gegriffen. selber könnte ich auch sagen durch treiberoptimierungen wird die amd 68X0 auch noch schneller werden.

er meint damit nur das es eine 6850 auch tut,übertaktest du ein bissel die 6850 und der performance unterschied zur 6870 ist gering die eh schon am limit läuft.
ok jetzt habe ich es verstanden, ja wenn man die amd 6850 übertaktet, könnte die amd 6850 in der tat eine interessante alternative zur amd 6870 sein.

Schlammsau
2010-10-22, 13:54:03
Danke für den Link...haben die wirklich schön gemacht die gegenüberstellung.

Btw, der Releasetreiber war doch nicht der 257er;)


Ich versteh nicht ganz....
Testumgebung: Software
# AMD/ATI Catalyst Presse-Beta-Treiber auf Basis Catalyst 10.10
# NVIDIA GeForce / ION Treiber Version 260.52 beta

Alles in allem, würd ich eine 6870 auf Augenhöhe mit der 470 sehen!

Und HT4u misst normalerweise keinen Mist!

Eggcake
2010-10-22, 13:56:37
Die 6800er ersetzen nicht die 5700er.

SamLombardo
2010-10-22, 13:58:38
Ich versteh nicht ganz....


Alles in allem, würd ich eine 6870 auf Augenhöhe mit der 470 sehen!

Und HT4u misst normalerweise keinen Mist!
Ne, war auf den Link von fondness bezogen;)
Es ging darum, wieviel die 470 seit release durch treiberupdates zugelegt hat und der releasetreiber war nicht der 257...Also sinds sicher mehr als 2Prozent. Vielleicht hat ja wirklich jemand Benches...

übrigen halte ich deine aussage mit 15% dazurechnen für die nivida 470 auch für sehr gewagt bzw. zu hoch gegriffen.
Genau das wäre ja mal interessant...

Flusher
2010-10-22, 14:00:08
Die 6800er ersetzen nicht die 5700er.

Aller wahrscheinlichkeit nach wird Juniper umgelabelt und als 67x0 ins obere Mainstreamsegment geschoben.

Schlammsau
2010-10-22, 14:01:37
Die 6800er sind durchaus gelungen wie ich finde.
Der Preis ist heiss, das AF wurde (leicht) verbessert, die *Love*leistung wurde erhöht, MLAA auf allen APIs und Stereo 3D-Support wurde eingeführt, geringe Lautstärke und Stromverbrauch unter Last.
Und wie man sieht, auch auf Ht4u ist eine 6870 einer 470 ebenbürtig. Ausreisser gibts immer wieder. Es zählt hier der Schnitt!

Find ich gut, wenn auch nicht sensationel!
Sensationel nur im Bezug auf die grösse des Dies.....~250mm² ist mal echt ne Ansage!

Icke kof mir dat Ding!

(del)
2010-10-22, 14:01:44
Die 6800er ersetzen nicht die 5700er.Was Leistung und ~Preis angeht eigentlich schon. Alles andere ist total witzlos. Natürlich abseits dessen was ATI seiert...

SamLombardo
2010-10-22, 14:06:08
Icke kof mir dat Ding!
Du wartest nicht auf die "kleine" Cayman;)
Ansonsten wäre es von deiner OC 5850 doch ehr ein Side-, wenn nicht gar downgrade.

Flusher
2010-10-22, 14:07:09
Ich bin mal so frei und setze hier ein Zitat von Peter aus dem HT4U-Forum - es geht darum wieso die 6850 bei HT4u so gut abschneidet.


Das hat zwei konkrete Gründe - die Szenen sind unterschiedlich. Soweit ich weiß "fährt die PCGH" per Hand, wir haben die Japan-Demo zum Benchmark verwendet. Ein zweiter Grund gesellt sich hier nach ersten Anzeichen hinzu - wie wir soeben von Sapphire hören, kann es sein, dass das uns vorliegende Muster über 1120 Shader-Prozessoren verfügte - ein Fehler bei den Vortests des Herstellers.

Wenn sich das so bewahrheiten wird - wonach aktuell alles aussieht, dann ist die HD 6850 in unseren Benchmarks schlicht zu schnell!




Ja, die 460 GTX verbraucht unter Last (!!! Idle sieht der RV940 kein Land :( ) mehr Saft bei eher geringerer Frameszahl - aber Performance bedeutet eben Bildqualität x Bildquantität!


Ehm...findest du nicht du übertreibst etwas? Die 6850 verbraucht unter Idle knappe 2,5 W mehr als eine GTX 460. Das als "kein Land sehen" zu bezeichnen ist doch etwas arg überspitzt gesagt.


Hm, Du hast Recht - wieder eine ziemliche Diskrepanz zwischen PCGH und HT4U (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=2) - bei PCGH verbraucht RV940 deutlich mehr. Seltsam.


http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index4.php
<--Lies mal unten unter Firmware, dann wirst du sehen wo es bei PCGH vermutlich hängt.

0815
2010-10-22, 14:08:39
Die Namensgebung. Ich hab mich ne Weile gefragt was bitte dieser Mist jetzt soll, bis ich begriffen habe, daß die 6850 die 5770 ersetzt und die 6870 die 5850.


das stimmt so auch nicht ganz, die amd 6850 ist die nachfolger von der ati 5750 und die amd 6870 ist die nachfolger von der ati 5770.

die nachfolger karten von der ati 5850 und 5870 sind die amd 6950 und die 6970.

SamLombardo
2010-10-22, 14:09:24
Ich bin mal so frei und setze hier ein Zitat von Peter aus dem HT4U-Forum - es geht darum wieso die 6850 bei HT4u so gut abschneidet.
siehe auch hier

http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update/

Hugo78
2010-10-22, 14:10:15
CB schreibt grade, dass ihre 6850 zu schnell war.
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update/

Update Freitag, den 22. Oktober, 13:55 Uhr: Wie uns Sapphire soeben mitgeteilt hat, ist auf unserer Radeon HD 6850 das falsche Bios aufgespielt. Die Karte bietet zwar die korrekten Taktraten der Radeon HD 6850, kommt in Sachen Architektur aber mit den Features der Radeon HD 6870 daher. Die von uns getestete Karte ist damit zu schnell! Wir werden uns schnellstmöglich darum bemühen, die korrekten Leistungsdaten der Karte zu ermitteln. Bis dahin ist das Ergebnis der Radeon HD 6850 in unserem Test mit Vorsicht zu genießen, wir gehen von ca. 5 Prozent Leistungsverlust aus.

Steffko
2010-10-22, 14:12:56
Oder die von Ht4u:
http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index35.php?dummy=&prod[]=AMD+Radeon+HD+6870&prod[]=NVIDIA+GeForce+GTX+470&filter[0][]=1680&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[3][]=16
http://www.abload.de/img/unbenannttib4.png


Verwenden CB, HT4U und PCGH einfach Spiele, die AMD bzw. Nvidia tendenziell eher entgegenkommen (also CB + HT4U AMD, PCGH Nvidia) oder woher kommen die drastischen Unterschiede?
Während bei CB und HT4U die HD6870 die GTX470 tendenziell schlägt, sieht PCGH es genau andersrum und während bei CB und HT4U die HD6850 deutlich vor der GTX460/1GB liegt, sieht PCGH beide auf dem gleichen Level :confused:

Gut, da kommt jetzt wie ich grad sehe noch das Update von CB dazu, von wegen falsches Bios und Werte unbrauchbar, das machts natürlich auch nicht gerade einfacher :freak:

Edit: Oha, das betrifft anscheinend auch HT4U? Das könnte natürlich nen ordentlichen Teil des Unterschieds bei der HD6850/GTX460 erklären, nur das mit der HD6870 bleibt noch.

Jake Dunn
2010-10-22, 14:13:07
Beim Takt hat man mit 900MHz wohl fast alle Reserven aufgebraucht, Techpowerup benötigt für mehr als 1GHz 1,5V.

Übrigens hat man HIS HD 6850 Sample mit 1120SPs verschickt: http://www.techpowerup.com/reviews/HIS/Radeon_HD_6850/

Hmm 1.5V :freak: was haben die den Default an V-Gpu?

Normalerweise gehen mit Cypress 1000mhz bei ~1.25V

Computerbase.de verwendet vier Monate alte Treiber für Cypress und GTX470.


Da muss du dich bei AMD beschweren, die haben nämlich in der 10.10 Beta extra alle anderen Karten draußen gelassen.

Hat AMD extra gemacht um die neue Gen etwas besser aussehen zu lassen (hatte ich im 10.10Beta Fred schon gesacht)

Die HD5K legt hier und da mit dem 10.10Beta auch zu.

AnarchX
2010-10-22, 14:13:29
Anders als bei HD 4830 mit nur 480 und 560SPs, könnte man hier schon eine gewisse Absicht vermuten. Viele werden auf Basis der Ergebnisse wohl heute morgen eine HD 6850 bestellt haben.

Lowkey
2010-10-22, 14:14:14
Verwenden CB, HT4U und PCGH einfach Spiele, die AMD bzw. Nvidia tendenziell eher entgegenkommen (also CB + HT4U AMD, PCGH Nvidia) oder woher kommen die drastischen Unterschiede?
Während bei CB und HT4U die HD6870 die GTX470 tendenziell schlägt, sieht PCGH es genau andersrum und während bei CB und HT4U die HD6850 deutlich vor der GTX460/1GB liegt, sieht PCGH beide auf dem gleichen Level :confused:

Gut, da kommt jetzt wie ich grad sehe noch das Update von CB dazu, von wegen falsches Bios und Werte unbrauchbar, das machts natürlich auch nicht gerade einfacher :freak:

Genau das ist mir heute morgen aufgefallen, dass die Reviews sind noch nicht decken. Das gilt aber für allte Reviews, wo es überall Abweichungen in Stromverbrauch und Leistung gibt.

PCGH_Raffael
2010-10-22, 14:14:33
CB schreibt grade, dass ihre 6850 zu schnell war.
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update/

Unsere Sapphire-Karte ist ebenfalls betroffen. Wohl dem, der so ein Modell im Handel findet. ;)

Gebencht haben wir aber mit einem korrekt konfigurierten AMD-Muster!

MfG,
Raff

AnarchX
2010-10-22, 14:15:53
Unsere Karte ist ebenfalls betroffen. Wohl dem, der so ein Modell im Handel findet: ;)

Im Handel muss man wohl eher aufpassen, keine Karte mit nur 800SPs zu erwischen, nachdem das mal eine ursprüngliche Spec für Barts Pro war.
Bei Sapphire gab es ja auch mal eine 720SPs HD 5770.

hmx
2010-10-22, 14:15:59
Unsere Karte ist ebenfalls betroffen. Wohl dem, der so ein Modell im Handel findet: ;)

MfG,
Raff


Was heisst denn das mit den "Features"? Sind da die 1120 Shadereinheiten aktiv?

Steffko
2010-10-22, 14:16:20
Lol, PCGH ist auch betroffen, damit ist dann quasi der alte Unterschied wieder hergestellt, nur auf niedrigerem Niveau ^^

Edit: Oder doch nicht.

PCGH_Raffael
2010-10-22, 14:16:52
Was heisst denn das mit den "Features"? Sind da die 1120 Shadereinheiten aktiv?

Ja. Wir sind übrigens Sapphires Quelle für das Problem. ;) Vorgestern beim Test der Retailkarten staunten wir nicht schlecht, dass die Kiste 5-10 Prozent schneller ist als andere, dann riefen wir mal an. Laut Sapphire Deutschland sollen Retail-Karten nicht betroffen sein, so ganz sicher war man aber nicht ...

MfG,
Raff

Pirx
2010-10-22, 14:18:19
Dieses 6850 Bios mit den freigeschalteten Einheiten könnte interessant sein:D

SamLombardo
2010-10-22, 14:20:45
Verwenden CB, HT4U und PCGH einfach Spiele, die AMD bzw. Nvidia tendenziell eher entgegenkommen (also CB + HT4U AMD, PCGH Nvidia) oder woher kommen die drastischen Unterschiede?
Während bei CB und HT4U die HD6870 die GTX470 tendenziell schlägt, sieht PCGH es genau andersrum und während bei CB und HT4U die HD6850 deutlich vor der GTX460/1GB liegt, sieht PCGH beide auf dem gleichen Level :confused:

Gut, da kommt jetzt wie ich grad sehe noch das Update von CB dazu, von wegen falsches Bios und Werte unbrauchbar, das machts natürlich auch nicht gerade einfacher :freak:
CB kannst Du leider vergessen, die haben die 470 sowie 460 gar nicht noch mal gebencht, sondern lediglich die Werte früherer, mehrere Monate alter tests kopiert. Dass zwischendrin mehrere neue treiber erschienen sind, mit teils beachtlichen Leistungsschüben wird unterschlagen.

Neocroth
2010-10-22, 14:26:51
CB kannst Du leider vergessen, die haben die 470 sowie 460 gar nicht noch mal gebencht, sondern lediglich die Werte früherer, mehrere Monate alter tests kopiert. Dass zwischendrin mehrere neue treiber erschienen sind, mit teils beachtlichen Leistungsschüben wird unterschlagen.

Zu ihrer Verteidigung muss man aber auch sagen, dass sie erst Mittwoch Mittag Karten bekommen haben und in der Zeit ein ausführlicherer Test kaum möglich ist wenn man den Test am Freitag zum Fall des NDA live haben will.

SamLombardo
2010-10-22, 14:28:08
Zu ihrer Verteidigung muss man aber auch sagen, dass sie erst Mittwoch Mittag Karten bekommen haben und in der Zeit ein ausführlicherer Test kaum möglich ist wenn man den Test am Freitag zum Fall des NDA live haben will.
Ist schon richtig. Vielleicht holen sie es ja wirklich nach;)

MadManniMan
2010-10-22, 14:32:38
Boah das Ganze stinkt so dermaßen!

Keine 36 Stunden für einen Test, dann irreführende Standardeinstellungen in den Treibern und aus Versehen 17 % zu viele Hardwareeinheiten - schönerweise werden die Karten heute schon verkauft und die Leute haben sich ein intensives Bild über eine Karte bilden dürfen, die so nicht in den Handel kommt :uup:

hmx
2010-10-22, 14:33:41
Ja. Wir sind übrigens Sapphires Quelle für das Problem. ;) Vorgestern beim Test der Retailkarten staunten wir nicht schlecht, dass die Kiste 5-10 Prozent schneller ist als andere, dann riefen wir mal an. Laut Sapphire Deutschland sollen Retail-Karten nicht betroffen sein, so ganz sicher war man aber nicht ...

MfG,
Raff

Die gibts dann bestimmt irgendwann teuer bei Ebay. :D
Dass man bei CB von nur 5% Leistungsverlust ausgeht ist imo ein wenig optimistisch bei 17% mehr Einheiten.

Exxtreme
2010-10-22, 14:35:50
Zu ihrer Verteidigung muss man aber auch sagen, dass sie erst Mittwoch Mittag Karten bekommen haben und in der Zeit ein ausführlicherer Test kaum möglich ist wenn man den Test am Freitag zum Fall des NDA live haben will.
Die 470/480'er hätte man schon vorher mit aktuellen Treibern nochmal messen können.

derguru
2010-10-22, 14:40:20
Die gibts dann bestimmt irgendwann teuer bei Ebay. :D
Dass man bei CB von nur 5% Leistungsverlust ausgeht ist imo ein wenig optimistisch bei 17% mehr Einheiten.
kannste bestimmt 15€ gewinn machen.:whisper:

hatte ja eigentlich vor mir die 6er anzuschauen aber irgendwie ist mir die lust vergangen.wenn der cayman nur ein aufguss vom bart werden sollte was ich nicht hoffe bleibt nur die 480gtx übrig,die kriegt man ja zur zeit relativ günstig.

Schrotti
2010-10-22, 14:41:55
Die 470/480'er hätte man schon vorher mit aktuellen Treibern nochmal messen können.

Sehe ich genauso.

Man wusste ungefähr wann die neuen Karten kommen, macht sich aber die Arbeit nicht.

Schade und wieder ein fail.

Neocroth
2010-10-22, 14:42:40
Die 470/480'er hätte man schon vorher mit aktuellen Treibern nochmal messen können.

stimmt schon, nur kam auch erst Montag Abend ein neuer Treiber raus.

Naja, abwarten und Tee trinken, man wird sehen.

Zu der Filter-Thematik: finde es beschissen und habe keine Worte dazu. Habe mir den Crap von Dave im B3D auch durchgelesen, wirkt für mich als ob er verlegen nach einer Ausrede ringt.

Whatever: im Januar kommt ein neuer PC her (vermutlich Sandy Bridge, weil ich auf Bulldozer nun doch nicht mehr ewig warten will :P) und wenn Cayman nicht in allen Punkten deutlich zulegt, dann wird wohl erstmalig seit der 8800GTX wieder eine nVidia in meinem Rechner landen.

PulsarS
2010-10-22, 14:44:53
Boah das Ganze stinkt so dermaßen!

Keine 36 Stunden für einen Test, dann irreführende Standardeinstellungen in den Treibern und aus Versehen 17 % zu viele Hardwareeinheiten - schönerweise werden die Karten heute schon verkauft und die Leute haben sich ein intensives Bild über eine Karte bilden dürfen, die so nicht in den Handel kommt :uup:
Ob das Ganze jetzt stinkt, das kann ich schlecht beurteilen. Es ist aber zumindest strange.
Den Fehler mit den "falschen" Einheiten gab es ja schon mal bei der 4830, deswegen würde ich da jetzt erstmal keine Absicht unterstellen.
Ich frage mich allerdings wofür man so ein BIOS mit den Einheiten der 6870 und den Taktraten der 6850 braucht/konzipiert. :confused:

Sonst finde ich die 6850 recht interessant.
Für den Massenmarkt hat AMD eine tolle Karte gebracht. Der Preis ist im wahrsten Sinne des Wortes heiss und auch sonst überzeugt die Karte (Verbrauch, Lautstärke bei Customdesign).
Das es kaum etwas Neues gibt, ist für mich nicht weiter verwunderlich, da ich da ehrlich gesagt auch nichts erwartet habe.
Die Sache mit dem AF irritiert mich ein wenig, was für den Massenmarkt aber kaum relevant sein sollte.

EDIT: die Namensgebung ist allerdings leichte Verarsche. Die "6" trägt die Karte zu Unrecht am Anfang. Dafür reichen die Veränderungen nicht aus imo.

y33H@
2010-10-22, 14:47:38
Sehr wenig Zeit, neue Treiber-"Optimierungen", falsche ALU-Zahl. Ein Schelm, wer böses denkt.

mironicus
2010-10-22, 14:48:35
Das Bios solltet ihr vorher aber unbedingt sichern und dann auf Rapidshare hochladen. :D

Vento
2010-10-22, 14:49:09
hatte ja eigentlich vor mir die 6er anzuschauen aber irgendwie ist mir die lust vergangen.wenn der cayman nur ein aufguss vom bart werden sollte was ich nicht hoffe bleibt nur die 480gtx übrig,die kriegt man ja zur zeit relativ günstig.

http://www.tweakpc.de/news/19753/geforce-gtx-580-von-nvidia-bestaetigt/

put the monster in! :D

hmx
2010-10-22, 14:54:51
Sehr wenig Zeit, neue Treiber-"Optimierungen", falsche ALU-Zahl. Ein Schelm, wer böses denkt.

Naja, das mit den Shadern kann schon ein Fehler sein, das sorgt eher für negative Schlagzeilen am Ende.
Aber das ganze wirkt wie ein Marketing-Coup. Erst wird das "bessere" AF werbewirksam angepriesen um Käufer abzuwerben. Dann auch noch die Namensgebung, mit der man wohl erreich wollte, dass Leute ihre Kaufentscheidung zurückstellen bis das eigenen Produkt raus ist um halt der Konkurrenz ein wenig die Verkäufe zu vermindern. ich glaube sogar, dass man evtl ursprünglich das ganze HD6700 nennen wollte, allerdings hätte man damit kaum Leute dazu gebracht noch zu warten. ;) Hat ja auch geklappt, mit den desinformationen und Gerüchten haben einige geglaubt, dass die 6870 schneller als die 5870 bei deutliche verbesserer DX11 Leistung ist.
So ähnlich hat NVidia das ja auch mit ihren Paperlaunches be den FXen und auch beim Fermi gemacht.

Jake Dunn
2010-10-22, 14:56:13
CB kannst Du leider vergessen, die haben die 470 sowie 460 gar nicht noch mal gebencht, sondern lediglich die Werte früherer, mehrere Monate alter tests kopiert. Dass zwischendrin mehrere neue treiber erschienen sind, mit teils beachtlichen Leistungsschüben wird unterschlagen.

Bachtliche Leistungsschübe?

o.k. ist von der GTX480 ^^

http://www.abload.de/img/wzqg2.png (http://www.abload.de/image.php?img=wzqg2.png)

Naitsabes
2010-10-22, 14:58:07
@ hmx

Und da soll nochmal jemand sagen, dass die Leute in AMDs Marketingabteilung dumm seien ;D

derguru
2010-10-22, 14:59:31
Bachtliche Leistungsschübe?

o.k. ist von der GTX480 ^^

http://www.abload.de/img/wzqg2.png (http://www.abload.de/image.php?img=wzqg2.png)

ja über diese angeblichen leistungsschübe kann man nur schmunzeln.:)

http://www.tweakpc.de/news/19753/geforce-gtx-580-von-nvidia-bestaetigt/

put the monster in! :D
ich glaub nicht mehr das die 580 dieses jahr kommt,hinhalte taktik.

PCGH_Raffael
2010-10-22, 15:03:20
Das Bios solltet ihr vorher aber unbedingt sichern und dann auf Rapidshare hochladen. :D

Längst gesichert. ;)

MfG,
Raff

SamLombardo
2010-10-22, 15:04:23
ja über diese angeblichen leistungsschübe kann man nur schmunzeln.:)
.

bei der 460 brachte allein das letzte treiberupdate zwischen 10 und 20 Prozent. Die Updates davor auch noch ein paar. Das ist gerade beim jetzigen Vergleichstest schon relevant finde ich.

urfaust
2010-10-22, 15:06:38
6950 und die 6970.

finde ich persönlich am interessantesten, nur das Maximum zählt wirklich.
auch wenn ich mittlerweile nVidia fahre, wünsche ich AMD gutes Gelingen

PCGH_Raffael
2010-10-22, 15:10:11
Ja. Wir sind übrigens Sapphires Quelle für das Problem. ;) Vorgestern beim Test der Retailkarten staunten wir nicht schlecht, dass die Kiste 5-10 Prozent schneller ist als andere, dann riefen wir mal an. Laut Sapphire Deutschland sollen Retail-Karten nicht betroffen sein, so ganz sicher war man aber nicht ...

MfG,
Raff

Mehr dazu: Sapphire Radeon HD 6850: Modelle mit 1.120 Shader-ALUs im Handel? (http://www.pcgameshardware.de/aid,795198/Sapphire-Radeon-HD-6850-Modelle-mit-1120-Shader-ALUs-im-Handel/Grafikkarte/News/)

MfG,
Raff

dildo4u
2010-10-22, 15:11:35
ja über diese angeblichen leistungsschübe kann man nur schmunzeln.:)

Kommt aufs Game an es gibt sie auch abseits aller PR Folien.
Risen wurde z.b nicht mal genannt von NV.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8331003&postcount=10

derguru
2010-10-22, 15:15:00
bei der 460 brachte allein das letzte treiberupdate zwischen 10 und 20 Prozent. Die Updates davor auch noch ein paar. Das ist gerade beim jetzigen Vergleichstest schon relevant finde ich.
Kommt aufs Game an es gibt sie auch abseits aller PR Folien.
Risen wurde z.b nicht mal genannt von NV.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8331003&postcount=10
vereinzelt mag das sein aber ihr seht ja was das im gesamtrating bringt.

boxleitnerb
2010-10-22, 15:20:01
Wenn der Parcour entsprechend gewählt ist und aus nicht so vielen Spielen besteht, kann das schon die Ergebnisse ein nicht unerhebliches Stück verfälschen.

McLuemmel
2010-10-22, 15:24:15
sorry für die vielleicht doofe frage, aber gibt es jetzt nen test dem man "vertrauen" kann der ungefähr akkurate werte widerspiegelt.

ich hab eben von den falschen testsamples der 6850 gelesen und würde gerne einen test lesen der eurer meinung nach am besten gelungen ist^^

maik

Pixelmonk
2010-10-22, 15:25:40
Aus technischer Sicht ist AMD der Barts-chip gelungen.
Dass AMD mit einer nur 255mm² großen Die ca. die Leistung einer GTX 470 oder einer stark übertakteten GTX 460 erreicht ist beeindruckend.
Die Leistung wurde allerdings damit erkauft, dass die AMD 6870 in der Referenzversion schon fast am oberen Ende des Taktbereichs taktet, und somit wenig Übertaktungsspieleraum bietet.

Nach den vollmundigen AMD PR-folien bzgl. der verbesserten AF-Filterung habe ich gehofft, dass sie neben dem Banding auch das Texturflimmern beseitig hätten.
Sie haben zwar nicht gelogen, aber auch nicht die Wahrheit gesagt.

Nach der ernüchterenden Vorstellung, stellt sich bei mir nicht das Bedürfniss des aufrüstens ein.

Geld ist geduldig und so warte ich vor dem auf- oder umrüsten den nächsten Shrink der Grafikkarten (28nm) und CPUs (22nm) Ende 2011 ab.

PCGH_Raffael
2010-10-22, 15:26:23
sorry für die vielleicht doofe frage, aber gibt es jetzt nen test dem man "vertrauen" kann der ungefähr akkurate werte widerspiegelt.

ich hab eben von den falschen testsamples der 6850 gelesen und würde gerne einen test lesen der eurer meinung nach am besten gelungen ist^^

maik

Auch wenn immer wieder behauptet wird, dass wir einen "Nvidia-freundlichen" Parcours haben: Unser Test (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/) ist mit einer korrekt konfigurierten, echten HD 6850 von AMD und aktuellen Treibern entstanden.

Wer uns (mal wieder) vorwarf, dass die Karte bei uns schlechter wegkommt als woanders, darf sich nun gern entschuldigen. :naughty:

MfG,
Raff

dildo4u
2010-10-22, 15:27:16
sorry für die vielleicht doofe frage, aber gibt es jetzt nen test dem man "vertrauen" kann der ungefähr akkurate werte widerspiegelt.

PCGH hat mit vergleichbaren AF alle Karten getestet.

http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/

y33H@
2010-10-22, 15:29:45
Und die HD 6850 mit 960 ALUs und nicht mit 1120 ALUs ;)

derguru
2010-10-22, 15:30:26
sorry für die vielleicht doofe frage, aber gibt es jetzt nen test dem man "vertrauen" kann der ungefähr akkurate werte widerspiegelt.

ich hab eben von den falschen testsamples der 6850 gelesen und würde gerne einen test lesen der eurer meinung nach am besten gelungen ist^^

maik

und wenn es eine große spielauswahl sein soll schau bei techpower nach.
http://www.techpowerup.com/reviews/HIS/Radeon_HD_6850/

PCGH_Raffael
2010-10-22, 15:31:36
und wenn es eine große spielauswahl sein soll schau bei techpower nach.
http://www.techpowerup.com/reviews/HIS/Radeon_HD_6850/

Besser nicht, auch W1zzard postet direkt auf Seite 1, dass er vom selben Problem befallen ist. ;(

MfG,
Raff

hmx
2010-10-22, 15:31:52
Bachtliche Leistungsschübe?

o.k. ist von der GTX480 ^^

http://www.abload.de/img/wzqg2.png (http://www.abload.de/image.php?img=wzqg2.png)

In gesamten Rating gehen halt einzelne Spiele in denen die Treiber zugelegt haben unter.

AnarchX
2010-10-22, 15:32:36
"I had to reconfigure the shaders on my own." Er hat also schon mit nur 960SPs getestet.

y33H@
2010-10-22, 15:34:07
Wer weiß, wie viele Seiten noch mit 1120 ALUs und "AF-Cheats" gebencht haben ;(

Und die da draußen glauben es ... und PCGH ist böse :usad:

Alexander
2010-10-22, 15:34:38
Die Namen der Karten sind irreführend. Sie hätten 6830 und 6850 heißen sollen, da sie nur jeweils ~10% schneller sind als die 5830 und 5850.

Oder irre ich mich?

derguru
2010-10-22, 15:35:32
Besser nicht, auch W1zzard postet direkt auf Seite 1, dass er vom selben Problem befallen ist. ;(

MfG,
Raff
"I had to reconfigure the shaders on my own." Er hat also schon mit nur 960SPs getestet.

also doch mit 960SPs aber schön zu wissen das auch die His-karten mehr shader haben können.

PCGH_Raffael
2010-10-22, 15:36:04
"I had to reconfigure the shaders on my own." Er hat also schon mit nur 960SPs getestet.

Oh, tatsächlich. Nice! Nun ja, wer Tools bauen kann, baut sich auch eine HD 6850. =)

MfG,
Raff

deekey777
2010-10-22, 15:37:43
Aber es ist schon ungewöhnlich, dass man Einheiten nicht mit Laser durchtrennt.

Lowkey
2010-10-22, 15:38:40
Andererseits kann man wohl alle aktuellen 6850er von 960 auf 1120 flashen?

puntarenas
2010-10-22, 15:39:08
Mehr dazu: Sapphire Radeon HD 6850: Modelle mit 1.120 Shader-ALUs im Handel? (http://www.pcgameshardware.de/aid,795198/Sapphire-Radeon-HD-6850-Modelle-mit-1120-Shader-ALUs-im-Handel/Grafikkarte/News/)

Die Meldung gefällt mir aufgrund ihrer Haltung sehr gut. Ich bin gespannt, ob dies nun der Einstieg in eine Art Freischaltlotterie bei HD6850-Karten ist. Ob marketingtechnisch bewusst inszeniert oder nicht, wird sich nicht abschließend klären lassen und wer da eine Behauptung aufstellt, begibt sich auf dünnes Eis. Zumal ja nicht einmal gesagt wäre, dass AMD und nicht Sapphire dahinter steckt.

Das gefällt mir an der PCGH-News. Die zusätzlichen Einheiten werden nicht als mögliches Foulspiel angemäkelt, sondern als möglicher Mehrwert aus Kundensicht bei Sapphire-Karten. Wie auch immer, die Kunden werden nun (ebenso wie andere Boardpartner) hoffentlich lautstark den Wunsch äußern, ebenfalls wenigstens die Chance auf Freischaltung deaktivierter Einheiten zu bekommen. Wenn man dann eine teildefekte GPU erwischt, hätte man halt Pech.

Mir persönlich mißfallen die neuesten Marketingstunts von AMD allerdings. Hier mal eben die Qualität bei Treiberstandardeinstellungen gesenkt und auf mangelnde Kompetenz sowie Gewissenhaftigkeit der meisten Benchmarkseiten spekuliert, dort einen Bugfix als Qualitätssteigerung verkauft. Pfui und Asche auf mein Haupt, aber für einen kleinen Moment erschien mir Absicht hinter den Reviewsamples nicht mehr besonders abwegig.

(del)
2010-10-22, 15:39:22
(...Laser durchtrennt...)
Das sind erstmal nur Samples.

Reicht da noch die eine Stromstrippe ;)

Lowkey
2010-10-22, 15:39:49
Aber es ist schon ungewöhnlich, dass man Einheiten nicht mit Laser durchtrennt.

Der Leistungsverlust / Gewinn ist nicht kriegsentscheidend. Die Karte ist am Ende keine 6870.

Exxtreme
2010-10-22, 15:39:56
Aber es ist schon ungewöhnlich, dass man Einheiten nicht mit Laser durchtrennt.
Hat ATi eigentlich eher selten gemacht. Es war eigentlich schon recht oft so, dass man deaktivierte Einheiten wieder aktivieren konnte. Das ging schon beim R300 los als man die R9500 zur R9700 flashen konnte.

Matrix316
2010-10-22, 15:40:04
Das ist doch beschiss. Eine 6870 die langsamer als eine 5870 ist. Scheiß Namensgebung...:hammer:

Franzmann-Jan
2010-10-22, 15:43:09
Die Namen der Karten sind irreführend. Sie hätten 6830 und 6850 heißen sollen, da sie nur jeweils ~10% schneller sind als die 5830 und 5850.

Oder irre ich mich?

...so langsam glaube ich, dass die Masse bis zum ende der Generation nicht verstehen wird (oder nicht verstehen will), dass die 6800er Serie der Nachfolger der 5700er Serie ist.

Branding und Namensgebung ist halt immer stets präsenter in der Köpfen als der eigentlich Preis und die damit intentionierte Produktpositionierung des Herstellers....

Jake Dunn
2010-10-22, 15:45:20
Und die HD 6850 mit 960 ALUs und nicht mit 1120 ALUs ;)

Aber die HD5K nicht mit dem 8.782er ^^

Vento
2010-10-22, 15:46:53
...so langsam glaube ich, dass die Masse bis zum ende der Generation nicht verstehen wird (oder nicht verstehen will), dass die 6800er Serie der Nachfolger der 5700er Serie ist.

Branding und Namensgebung ist halt immer stets präsenter in der Köpfen als der eigentlich Preis und die damit intentionierte Produktpositionierung des Herstellers....

Wen man wirklich die Intention hätte das Produkt auch marketingtechnisch als Nachfolger der 5700er zu positionieren, dann liegt wohl kaum etwas näher als eine Verwandschaft in der Namensgebung herzustellen, ergo 67xx.
Darauf hat man aber wohl bewusst unter dem Marketing Aspekt verzichtet und positioniert die Karten von der reinen Namensgebung als Nachfolger der HD58xx, oder anders ausgedrückt "Mit Honig fängt man Fliegen".

derguru
2010-10-22, 15:47:25
eine 6850 mit 1120 ALUs für 150€ ist dann wohl ein schnäppchen,wer riskierts?:biggrin:

Mr. Lolman
2010-10-22, 15:47:36
Gibts jetzt eigentlich schon ordentliche Infos zum MLAA? Taugt das halbwegs was? Klarererweise ists wegen fehlenden Subsamples nicht mit MSAA vergleichbar, dafür sollts ja überall gehen, nix kosten und sich mit MSAA kombinieren lassen. Außerdem würd ich mal gern ein schön geglättetes GTAIV ordentlich spielen können. =)


Der Cypress müsste das ja eigentlich auch können, oder?

Iruwen
2010-10-22, 15:48:16
...so langsam glaube ich, dass die Masse bis zum ende der Generation nicht verstehen wird (oder nicht verstehen will), dass die 6800er Serie der Nachfolger der 5700er Serie ist.

...so langsam glaube ich, dass die Masse bis zum ende der Generation nicht verstehen wird (oder nicht verstehen will), dass das eine reine Marketingentscheidung war.

PulsarS
2010-10-22, 15:48:26
Die Namen der Karten sind irreführend. Sie hätten 6830 und 6850 heißen sollen, da sie nur jeweils ~10% schneller sind als die 5830 und 5850.

Oder irre ich mich?
Sehe ich auch so.
Die Erklärung von AMD, warum die Karten so heißen, mag ja in sich korrekt und logisch sein.
Meiner Meinung nach muss jedoch auch technisch etwas recht deutlich verändert werden, damit man auch von einer neuen Generation sprechen kann und demnach auch die erste Zahl, die für die Generation zuständig ist, eins nach oben verändern kann.
Für mich trägt die Karte zu Unrecht die 6 am Anfang.
Der Rest ist dann eh schon egal. :freak:

Aber ich denke wir dürfen uns auf so etwas demnächst einstellen.
Nvidia will ja ihre nächste Karte GTX 580 nennen. Und ich glaube kaum, dass es so viele technische Veränderungen in der Architektur gibt, dass es gerechtfertigt wäre.

Nun ja, so schlimm wie mit dem Umlabeln die letzten Jahre bei Nvidia ist es sicherlich nicht, man könnte es aber konsistenter machen, wenn man nur wollen würde... :wink: :rolleyes:

y33H@
2010-10-22, 15:49:15
@ Jake Dunn

Geht nicht, üble Grafikfehler.
Der Cypress müsste das ja eigentlich auch können, oder? Im Dezember, ja.

Alexander
2010-10-22, 15:51:17
...so langsam glaube ich, dass die Masse bis zum ende der Generation nicht verstehen wird (oder nicht verstehen will), dass die 6800er Serie der Nachfolger der 5700er Serie ist.

Branding und Namensgebung ist halt immer stets präsenter in der Köpfen als der eigentlich Preis und die damit intentionierte Produktpositionierung des Herstellers....
Die Marketingabteilung wollte aber 68XX Karten rausbringen, da sich diese besser verkaufen lassen. Dies ist nachvollziehbar. Aber nicht wieso die neue 870 langsamer ist als die alte 870. Das grenzt an Betrug.

Jake Dunn
2010-10-22, 15:53:47
@ Jake Dunn

Geht nicht, üble Grafikfehler.


Wo?

Iruwen
2010-10-22, 15:53:49
Gibts jetzt eigentlich schon ordentliche Infos zum MLAA? Taugt das halbwegs was? Klarererweise ists wegen fehlenden Subsamples nicht mit MSAA vergleichbar, dafür sollts ja überall gehen, nix kosten und sich mit MSAA kombinieren lassen. Außerdem würd ich mal gern ein schön geglättetes GTAIV ordentlich spielen können. =)


Der Cypress müsste das ja eigentlich auch können, oder?

THG hats getestet:
http://www.tomshardware.com/reviews/radeon-hd-6870-radeon-hd-6850-barts,2776-4.html

hmx
2010-10-22, 15:55:07
Sehe ich auch so.
Die Erklärung von AMD, warum die Karten so heißen, mag ja in sich korrekt und logisch sein.
Meiner Meinung nach muss jedoch auch technisch etwas recht deutlich verändert werden, damit man auch von einer neuen Generation sprechen kann und demnach auch die erste Zahl, die für die Generation zuständig ist, eins nach oben verändern kann.
Für mich trägt die Karte zu Unrecht die 6 am Anfang.
Der Rest ist dann eh schon egal. :freak:

Aber ich denke wir dürfen uns auf so etwas demnächst einstellen.
Nvidia will ja ihre nächste Karte GTX 580 nennen. Und ich glaube kaum, dass es so viele technische Veränderungen in der Architektur gibt, dass es gerechtfertigt wäre.

Nun ja, so schlimm wie mit dem Umlabeln die letzten Jahre bei Nvidia ist es sicherlich nicht, man könnte es aber konsistenter machen, wenn man nur wollen würde... :wink: :rolleyes:


Die 6 passte schon, wenn man sie denn 6750 und 6770 genannt hätte. Das ist nämlich was die Karten im Vergleich zu den Caymans sein werden. So ist das doppelt gemoppelt, auch bei den Caymans.

Fetza
2010-10-22, 15:58:10
Ehrlich gesagt bin ich entäuscht. AMD cheatet weiter bei dem af und das sogar sehr dreist!

Cayman wird demnach wohl auch nicht besser filtern.

Franzmann-Jan
2010-10-22, 15:58:19
Die Marketingabteilung wollte aber 68XX Karten rausbringen, da sich diese besser verkaufen lassen. Dies ist nachvollziehbar. Aber nicht wieso die neue 870 langsamer ist als die alte 870. Das grenzt an Betrug.

Der Preis dieser Karten (<200 € = Performance-Segment = Nachfolger 5700er) belegt, dass es kein Betrug ist. Selbst wenn man eine 6870 mit dem Glauben kauft den wahren Nachfolger der 5870 gekauft zu haben, ist es aus preislicher sicht für den Kunden kein Betrug gewesen.

Ein klassischer Betrug wäre ein preisliche Positionierung im 300 € Segment.

hmx
2010-10-22, 16:01:39
Der Preis dieser Karten (<200 € = Performance-Segment = Nachfolger 5700er) belegt, dass es kein Betrug ist. Selbst wenn man eine 6870 mit dem Glauben kauft den wahren Nachfolger der 5870 gekauft zu haben, ist es aus preislicher sicht für den Kunden kein Betrug gewesen.

Ein klassischer Betrug wäre ein preisliche Positionierung im 300 € Segment.

Nein. Wenn es danach ginge brächten die Karten keine Namen, sondern nur Preise. Der Name soll aber etwas suggerieren und er hat eben bei der 6800er eine unglaublich gute Performnce für den Preis, die klar besser ist als das was vorher für den Preis zu haben war suggeriert. Das ist schon eine Täuschung. Sonst hätte AMD das ja nicht gemacht, wenn es nicht irgendwelche Vorteile für sie gehabt hätte. Es ist ahlt ein reiner Marketingstunt hart an der Grenze. Gleich schnell zu sein wie der Vorgänger des Namens ist eine Sache, klar langsam zu sein eine ganz andere. Der Chip ist für AMD recht günstig herzustellen, bietet aber nicht mehr Leistung, und um das an den Mann zu brigen reit man nun eben zu solchen Stunts.

PulsarS
2010-10-22, 16:03:34
Die 6 passte schon, wenn man sie denn 6750 und 6770 genannt hätte. Das ist nämlich was die Karten im Vergleich zu den Caymans sein werden.
Den Cayman müssen wir erstmal abwarten.
Wenn dieser wirklich 4D-Shader hat, dann ist die 6 bei den Barts zu unrecht.
Die Karten sollten eher 5840 und 5860 heißen.
Wäre in meinen Augen stimmiger.
Aber Nvidia hat ihren Aussagen nach ein großen Erfolg mit der GTS 250 gehabt, was erklärt, warum ATI jetzt zu einer 6 am Anfang gegriffen hat...

Wie gesagt.. wir dürfen uns wohl darauf einstellen, dass die Namensgebung bei AMD und Nvidia in der kommenden Zeit ein wenig kreativ sein wird. :D

Franzmann-Jan
2010-10-22, 16:09:45
Nein. Wenn es danach ginge brächten die Karten keine Namen, sondern nur Preise. Der Name soll aber etwas suggerieren und er hat eben bei der 6800er eine unglaublich gute Performnce für den Preis, die klar besser ist als das was vorher für den Preis zu haben war suggeriert. Das ist schon eine Täuschung. Sonst hätte AMD das ja nicht gemacht, wenn es nicht irgendwelche Vorteile für sie gehabt hätte. Es ist ahlt ein reiner Marketingstunt hart an der Grenze. Gleich schnell zu sein wie der Vorgänger des Namens ist eine Sache, klar langsam zu sein eine ganz andere. Der Chip ist für AMD recht günstig herzustellen, bietet aber nicht mehr Leistung, und um das an den Mann zu brigen reit man nun eben zu solchen Stunts.

Wenn es in Zukunft keinen Highend-Singlechip in form von Caymann (6900) geben würde, könnte ich deine Aussage voll unterstreichen. Aber da es eine geben wird, muss man nunmal akzeptieren und tolerieren, dass AMD die produktpolitische Namensgebung der Karten geändert hat. Dies hat imho sogar nachvollziehbare Gründe: Denn die 5800er Generation war imho sogar viel zu teuer, wenn man diese preislich mit der 4800er Generation vergleicht. Mittlerweile denke ich, dass die Ausbeute der Chips einfach zu gering war, um günstigere Preise zu ermöglichen. Sonst hätte man die 5850 schon viel früher nach unten korrigiert.

Daher würde ich generell bei der 6000er Generation eher von einem strategsichen Rebranding als von einer neuen Generation sprechen.

mrt
2010-10-22, 16:10:33
Wenn man eine Namensänderung vornimmt, dagegen spricht ja prinzipiell nichts, dann sollte man das auch "etwas" deutlicher machen und NICHT so.

@Thema
Leistung passt (zum voraussichtlichen Preis), soweit zum Positiven.
Der Marketingabteilung sollte man den Kaffe/die Drogen/wasauchimmer wegnehmen, HD6850/70 sind das keine und die Filterqualität is wohl ein Scherz... Wollen die uns verar*chen?
Dann noch die Shadergeschichte zum Launch bei Sapphirekarten und wohl auch HIS... HAHA

Brauch Ersatz für meine HD4870 1GB, aber Barts wirds sicher nicht. Mal auf Cayman und GF11x warten, wobei ich bei Ersteren eher schwarz seh.
Mir waren beide Unternehmen noch nie so unsympathisch, was macht eigentlich S3? :D

Menace
2010-10-22, 16:12:41
Aber Nvidia hat ihren Aussagen nach ein großen Erfolg mit der GTS 250 gehabt, was erklärt, warum ATI jetzt zu einer 6 am Anfang gegriffen hat...


Genau in diesem Erfolg sehe ich das Problem. Nvidia hat es (innovativ wie sie sind) dieses Namensgedöhns getestet und für gut gefunden --> AMD hat's kopiert. ICH (!) mag das gar nicht und nehme es AMD wie zuvor auch nvidia übel, wenn ich die jeweiligen Handlungsweisen ja verstehen kann (Gewinnmaximierung für Spekulanten).

V2.0
2010-10-22, 16:12:49
Hat ATi eigentlich eher selten gemacht. Es war eigentlich schon recht oft so, dass man deaktivierte Einheiten wieder aktivieren konnte. Das ging schon beim R300 los als man die R9500 zur R9700 flashen konnte.
Ach bitte, man hat es gelassen wenn es ein Vorteil für den Absatz war.

Ist ja nicht so, dass ein Käufer der 9500 damals sich ansonsten ne 9700pro gekauft hätte, aber möglicherweise ne NV.

Und jetzt ist es doch ebenso. Der Käufer der 6850 könnte wegen dem hohen OC Potential bei der 460ern zu diesen greifen, hat er aber die Hoffnung seine 6850 zusätzlich noch flashen zu können.... So erzeugt man einen Hype in einschlägigen Foren.

hmx
2010-10-22, 16:16:11
Daher würde ich generell bei der 6000er Generation eher von einem strategsichen Rebranding als von einer neuen Generation sprechen.

= BWL-Bullshitbingo für einen grenzwertigen Marketingstunt.

Ich sehe auch nicht, was der schnellere Singlechip-Cayman daran ändert. Der hätte dann eben 6800 gehießen, was deutlich passender ist. Der Cayman ist der Nachfolger der aktuellen Highend Chips und der Barts eben der Nachfolger der Performance Chips. jetzt einen neuen Namen zu bringen ist schon ganz schön optimistisch, da man vorher immer eine Leistungssteigerung deswegen bei Ati hatte und nicht sogar noch tw recht erhebliche Einbussen. Da nutzt man seine geschaffene Reputation aus, das ist schon ein Stück weit Kundenverarsche. Das NV das mit der 250er gemacht hat ist ebenso unverschämt, aber Ati zieht nicht nur nach sondern legt noch einen drauf indem die Karte sogar langsamer ist als sein Vorgänger.

fizzo
2010-10-22, 16:16:37
eine 6850 mit 1120 ALUs für 150€ ist dann wohl ein schnäppchen,wer riskierts?:biggrin:

Heute vormittags schon bestellt - Montag weis ich mehr =)

PulsarS
2010-10-22, 16:19:02
Genau in diesem Erfolg sehe ich das Problem. Nvidia hat es (innovativ wie sie sind) dieses Namensgedöhns getestet und für gut gefunden --> AMD hat's kopiert. ICH (!) mag das gar nicht und nehme es AMD wie zuvor auch nvidia übel, wenn ich die jeweiligen Handlungsweisen ja verstehen kann (Gewinnmaximierung für Spekulanten).
Man kann es aber nicht anders machen, sonst geht man unter.
Wenn eine Firma mit einer bestimmten Strategie Erfolg hat, wird der direkte Konkurrent diese Strategie übernehmen, da ihnen sonst weniger Geld in die Kassen kommt.
Das ist klar.
Aus Marketinggründen kann ich es ja verstehen. Ich bin jedoch ein Technik-Mensch und für mich ist das nicht ok.
Ich komme zwar damit klar, weil ich die Karten einschätzen kann.
Für den 08/15-Gamer ist das aber schon eine Art Verarsche.

Pixelmonk
2010-10-22, 16:32:52
Tut doch nicht so heuchlerisch. Als ob's jemanden interessiert, dass ein Käufer auf einen Marketingtrick reinfällt.

Huntertausende Tote bei einer Naturkatastrophe, millionen Tote im Krieg gegen Illusionen, milliarden Menschen die an Hunger leiden, wen interessiert's
wirklich?

Und da soll man Mitleid für jemanden haben, der zu blöd ist sich über ein Produkt zu informieren, bevor er's kauft?

Franzmann-Jan
2010-10-22, 16:34:51
= BWL-Bullshitbingo für einen grenzwertigen Marketingstunt.

Ich sehe auch nicht, was der schnellere Singlechip-Cayman daran ändert. Der hätte dann eben 6800 gehießen, was deutlich passender ist. Der Cayman ist der Nachfolger der aktuellen Highend Chips und der Barts eben der Nachfolger der Performance Chips. jetzt einen neuen Namen zu bringen ist schon ganz schön optimistisch, da man vorher immer eine Leistungssteigerung deswegen bei Ati hatte und nicht sogar noch tw recht erhebliche Einbussen. Da nutzt man seine geschaffene Reputation aus, das ist schon ein Stück weit Kundenverarsche. Das NV das mit der 250er gemacht hat ist ebenso unverschämt, aber Ati zieht nicht nur nach sondern legt noch einen drauf indem die Karte sogar langsamer ist als sein Vorgänger.

Komisch, dass sich damals keiner aufgeregt hat, dass die 5800er Karten so teuer waren, obwohl die Vorgängerkarten ganz klar innerhalb der 200€ Preisklasse angesiedelt waren. Ich denke, dass AMD Ihr Schiff eher wieder Kurs gebracht haben als umgekehrt.

Aber genug diskutiert. Wir haben beide unsere Meinung kundgegeben und uns gegenseitig überzeugen werden wir mit Sicherheit auch nicht. ;)

Schönes WE!

Popeljoe
2010-10-22, 16:41:07
Und da soll man Mitleid für jemanden haben, der zu blöd ist sich über ein Produkt zu informieren, bevor er's kauft?
Man nimmt halt das Argument, welches einem geboten wird und drischt damit auf den "Gegner" ein! ;)
Nebenbei: skandalös war auch, dass damals die 9600 pro als Nachfolger der 9500 pro langsamer war.
Ist also nicht das erste Mal, dass die verdammten ATI/AMDler lügen, dass sich die Balken biegen! :freak:

Ist das Produkt gut für den Markt? Ja!
Haben wird endlich mal wieder ein schönes neues Spelzeug zum auseinanderfriggeln? Ja!
Bringt das wieder Fanboyschlachten? Ja! Siehe auch die Liste der gesperrten Mems. :wink:

Ronny145
2010-10-22, 16:49:13
Vielleicht wurde es noch nicht gepostet. Auch CB mit einer "falschen" 6850. :down:

http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update/

Lowkey
2010-10-22, 16:51:20
Wurde schon gepostet.

Die ist ja nicht "falsch", sondern genau richtig. Nun bin ich gespannt ob diese Karten in den Handel kommen und ob sich jede 6850 umflashen läßt ;-)

Eggcake
2010-10-22, 16:52:01
Eigentlich hatten die 5800er die falsche Nummer, nicht die 6800er. Sowohl 3800 als auch 4800 waren eher Performancechips. Die 5800 war aber High End.

@lowkey

Nein, soviel ich weiss ist die falsch. Die Karten haben, so wie es aussieht, einen Bart XT Chip mit einem 6850 BIOS - die Einheiten konnten aber alleine durch das BIOS nicht deaktiviert werden. So stehts zumindest auf PCGH wenn ich mich nicht grad verlesen hab'.
http://www.pcgameshardware.de/aid,795198/Sapphire-Radeon-HD-6850-Modelle-mit-1120-Shader-ALUs-im-Handel/Grafikkarte/News/

die Grafikkarte arbeitet mit 1.120 Stream-Prozessoren, also einem voll ausgefahrenen Barts-(XT)-Grafikchip – die richtige Konfiguration wären 960 ALUs. Die Taktraten hingegen sind korrekt auf 775 respektive 2.000 MHz eingestellt:

hmx
2010-10-22, 16:58:06
Komisch, dass sich damals keiner aufgeregt hat, dass die 5800er Karten so teuer waren, obwohl die Vorgängerkarten ganz klar innerhalb der 200€ Preisklasse angesiedelt waren. Ich denke, dass AMD Ihr Schiff eher wieder Kurs gebracht haben als umgekehrt.

Aber genug diskutiert. Wir haben beide unsere Meinung kundgegeben und uns gegenseitig überzeugen werden wir mit Sicherheit auch nicht. ;)

Schönes WE!

Ich fands nicht so gut, ich hatte damals vorgehabt mir eine 5850 zu kaufen - allerdings nicht für 280+ Euro. Die Karten haben aber eben auch gleichzeitig mehr Leistung gebracht, dahe rzieht der vergleich mit den jetzigen Karten nicht.
Man muss auch Bedenken, dass NVidia mit der 250er nicht den klaren Bezug zur Vorgängerkarte hatte. Der Name gab nur an, dass sie langsamer war als eine 260er. Den bezug herzustellken bei einer Karte die dann auch noch langsamer ist - das ist noch was anderes. Zumal Ati diesen Stiefel ja auch nicht das erste mal fährt. Bei der 9500pro hat man damals auch den günstiger herzustellenden, aber langsameren Chip als 9600pro verkauft. Auch da hat man einen Chip, der für Ati günstiger war, aber nicht schneller als Nachfolger suggeriert.


Dass die Leue selbst schuld sind, wenn sie sich nicht informieren zieht ebenso nicht. Da sollte man mal über den Tellerrand schauen und nicht von allen leuten annehmen sie müssten PC-Freaks sein, auch wenn es schwer fällt. Man kann nämlich bei jeder Täuschung den Sachverhalt so hinbiegen, dass man sich ja hätte besser informieren können. Der Punkt ist, dass Ati Informationsasymetrien ausnutzt und damit dem Kunden aufbürdet sich durch Websites und Benchmarks zu wühlen, da gibt es nichts dran zu rütteln.

Eggcake
2010-10-22, 17:01:34
Die Leistung war dementsprechend auch höher angesiedelt. Bei der 3800er und 4800er Serie war AMD schlicht von der Leistung her nicht auf Höhe mit NV, konnte deshalb (zumindest zu Beginn) keine wirklichen High End Karten anbieten - es war aber ihr Topprodukt (ohne MGPU). Mit der 5800er hat sich das geändert: sie konnten (obwohl lange ohne Konkurrenz) oben mithalten, dafür war der Preis auch dementsprechend höher. Deshalb hätte es eigentlich bereits damals 5900 heissen müssen...von daher hat Franzmann-Jan imho schon Recht - nicht die 6800 sind ein "Bschiss" sondern die 5800 waren eine Stufe zu niedrig.

3dzocker
2010-10-22, 17:21:50
Benchen jetzt alle "Glücksredaktionen" eigentlich nach? Oder bleiben die Ergebnisse so im Netz stehen? Schon doof für Leute, die wie ich, zwischen ner 460 (1 Gig) und ner 6850 schwanken...

tschau

Black-Scorpion
2010-10-22, 17:31:14
Nebenbei: skandalös war auch, dass damals die 9600 pro als Nachfolger der 9500 pro langsamer war.
Die 9500Pro war auch eine Ausnahme Karte. Da konnte der Nachfolger in Form der 9600Pro nur langsamer sein. Die 9500Pro ist ja teilweise schon der eigenen 9700er zu nah gekommen.

mironicus
2010-10-22, 17:32:11
Die Radeon 6870 zwingt auch die 5850 preislich in die Knie. 178 Euro für die 5850.
http://www.ditech.de/artikel/GPHG45/Grafikkarte_PCI-E_2.1_SAPPHIRE_Radeon_HD_5850_Full_Retail_1024MB.html

derguru
2010-10-22, 17:34:52
Die Radeon 6870 zwingt auch die 5850 preislich in die Knie. 178 Euro für die 5850.
http://www.ditech.de/artikel/GPHG45/Grafikkarte_PCI-E_2.1_SAPPHIRE_Radeon_HD_5850_Full_Retail_1024MB.html
und die karte ist flüsterleise sowohl in idle und unter last.wenn man bedenkt das die neuen feature auch für die 5er gelten ist das ein topangebot.bei der wahl zwischen einer 6870 und der würde ich die 5850 nehmen.

LovesuckZ
2010-10-22, 17:35:03
Benchen jetzt alle "Glücksredaktionen" eigentlich nach? Oder bleiben die Ergebnisse so im Netz stehen? Schon doof für Leute, die wie ich, zwischen ner 460 (1 Gig) und ner 6850 schwanken...

tschau

Als mündiger Käufer sollte man AMD den sprichtwörtlichen Mittelfinger zeigen und boykottieren. Wenn eine Firma schon absichtlich ihre neuen Produkte künstlich besser stellen muss als den Vorgänger, dann ist etwas nicht ganz köscher - weniger Leistung bei weniger Qualität, sowie Partner die Freigabe für falsche Samples geben.

Eine Gigabyte-GTX460 gibt es für 157€. Zuschlagen und sich freuen. Und wenn AMD dann endlich verstanden hat, das Fairness gegenüber vorhandenen und inventuellen neuen Kunden herrschen sollte, kann man wieder zu deren Produkte greifen.

Der Grafikkartenmarkt sollte sich langsam emanzipieren.

Mark3Dfx
2010-10-22, 17:37:29
Von Nvidia lernen, heißt siegen lernen! X-D
AMD benennt HD5K-Serie für OEM-Geschäft um (http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/oktober/amd-benennt-hd5k-serie-fuer-oem-geschaeft-um/)

Duke Nukem
2010-10-22, 17:45:40
die Barts sollten die lücke schlessen wos jetzt nur die 460 gab und da zeigt AMD eindrucksvoll wie man sparsamme kleine schnelle chips in dem Preissegment baut und der 460 das Wasser abgräbt. Der Hammer kommt dann mit den 59 er karten. Dann siehts wohl erst mal zapenduster aus für NV.

tombman
2010-10-22, 17:50:16
GTX470 ist für den 200€ Bereich die beste Karte...

Das MLAA finde ich aber interessant, aber sowas kann NV ja auch ganz schnell einführen, ist ja nur ein shader über das ganze Bild gelegt :)

Iruwen
2010-10-22, 17:55:14
Wenn die GTX 470 leiser wäre... die AMP kostet noch 250€.

horn 12
2010-10-22, 17:55:51
So, Cat 10.10 Final ist nun raus.
Wenn dieser nicht´s verbessert bei der HD6800 er Serie, ist diese Serie für mich gestorben... und ich bleib meiner HD5850 treu !

derguru
2010-10-22, 17:55:55
GTX470 ist für den 200€ Bereich die beste Karte...

Das MLAA finde ich aber interessant, aber sowas kann NV ja auch ganz schnell einführen, ist ja nur ein shader über das ganze Bild gelegt :)
wenn sie leise wäre ja aber das ist sie nicht.erst ab 250€ bekommt man eine leise 470gtx.

@Iruwen

ach warst schneller.:biggrin:

tombman
2010-10-22, 17:59:16
Ihr wißt ja:

Hitze, Lautstärke, Stromverbrauch: WAYNE :cool:

GTX470 auf 207€ mittlerweile ;D

p.s.:
Und leise bekommen ist ja echt kein Problem: billigen Lüfter aus der Grabbelkiste draufgeschnallt, Originallüfter festgestellt, fertig ;)

Grumbart
2010-10-22, 18:02:24
Die Gigabyte GeForce GTX 470 Super Overclock soll auch noch sehr leise sein, und kostet ~245€ . Ich denke in ein paar Tagen geben die Preise für die 470er weiter nach.

Franzmann-Jan
2010-10-22, 18:02:54
GTX470 ist für den 200€ Bereich die beste Karte...

Dein vehementes Reposten derselben Aussage gleicht imho einer Panikreaktion ;)

Eins kann ich dir sagen mein Freund (und ich denke das weißt du selber auch): Die 6800er Generation wird die 460er/470er Reihe von NV absatztechnisch in Grund und Boden stampfen :)

Iruwen
2010-10-22, 18:05:57
Warum sollte sie.

tombman
2010-10-22, 18:06:57
Dein vehementes Reposten derselben Aussage gleicht imho einer Panikreaktion ;)
Ja, klar, ganz sicher hab ich Panik, bin ja auch voll in der Zielgruppe mit 3x GTX480 :facepalm:

Eins kann ich dir sagen mein Freund

Ich bin nicht dein Freund, Penner! (sorry, aber der war, wie man in .at sagt, "aufg'legt" ;D)

(und ich denke das weißt du selber auch): Die 6800er Generation wird die 460er/470er Reihe von NV absatztechnisch in Grund und Boden stampfen :)
Was kümmern mich Absätze?

Lawmachine79
2010-10-22, 18:10:42
Ich bin nicht dein Freund, Penner! (sorry, aber der war, wie man in .at sagt, "aufg'legt" ;D)

Eingelocht. Einen Elfer verwandelt :D. Den hätte nichtmal Mario Gomez verstolpert.

Ich denke AMD hat einen guten Release hingelegt. Werde jetzt abwarten, wie sich die NV-Preise entwickeln und dann entscheiden, ob ich NOCHMAL abwarte, bis NV was Neues bringt (was wann ist?) oder mir dann eine 6870 oder GTX470 zulege.
Und das Rumgeheule wegen der Benennung kann ich nicht verstehen. Wer sich eine Karte in dieser Größenordnung kauft und sich vorher nicht ansieht was er da kauft, ist eh zu dumm um Mitleid zu verdienen. Was ich aber einfach nicht verstehen kann ist, wie man bei soviel Hardwarepower nicht sagt: "Wir machen die gleiche oder bessere Filterqualität wie NV". Wie kann man an sowas sparen? Das ist, als ob ich mir eine 400Ps Sportlimousine kaufe und dann ist da nichtmal eine Scheißmittelarmlehne drin.

Menace
2010-10-22, 18:17:16
Und wenn AMD dann endlich verstanden hat, das Fairness gegenüber vorhandenen und inventuellen neuen Kunden herrschen sollte, kann man wieder zu deren Produkte greifen.


;D

Und Konsequenterweise hast Du das mit nvidia auch so gehalten. Kaschperlestheater hier.

AMD hätte einfach komplett neues Namenschema einführen sollen. Die 68xx ist nicht so gut, wie es sich heute nacht angehört hat und nicht so schlimm, wie hier von den ewig gest... gleichen herbeigeredet wird. Ohne diese Namensspielchen wäre sie (ähnlich der 460) eine nette Karte.

LovesuckZ
2010-10-22, 18:18:33
Laut Dave Baumann gbt es die tolle, natürlich nicht verschlechterte Standardfilterung nicht im heute veröffentlichten 10.10 CAT für Evergreen-Kunden. Das heißt also, selbst wenn Reviewer auf den neusten Treiber umsteigen, cheatet sich Barts weiterhin zusätzliche Leistung zu, die gegenüber Cypress nicht vorhanden ist.

ChaosTM
2010-10-22, 18:18:56
Ich war schon sehr knapp dran, mir eine 460er zu kaufen.
30 Watt weniger Spitzenverbrauch bei gleicher oder besserer Leistung und einem praktisch makellosen Wert beim HQV Benchmark (für mich fast der wichtigste Punkt..) haben mir die Entscheidung abgenommen.

Die 470er war wegen des horrenden Dual Monitor Verbrauchs und der Lautstärke nie in der engeren Auswahl.

Als Nicht-Fanboy lebt es sich entschieden entspannter und man nimmt eben das für einen selbst am besten geeignete Paket - und das hat diesmal (für mich) ganz klar AMD in Form der 6850er.


edit.: das Namensspielchen ist ärgerlich und dumm, aber es bleibt Ihnen keine andere Wahl...

MiamiNice
2010-10-22, 18:19:06
Sehe ich das richtig? Die neuen Karten langsamer als die alten dafür mehr Features und zum Ramschpreis? (mal so grob überschlagen)

Grumbart
2010-10-22, 18:23:49
Du hast aber schon den Artikel bei pcgh.de gelesen? @ Lovesuckz
klick (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=4)



Kurz: "High Quality" auf einer Radeon HD 6000 ist nach unserer Einschätzung am ehesten mit Nvidias Treiberstandard (Quality/Qualität inklusive "Trilinearer Optimierung") vergleichbar - und so testen wir daher auch.

Unterm Strich ist die Entwicklung insgesamt positiv:
- das Banding-Problem der Evergreens, laut AMD ein Hardware-Bug, ist beseitigt,
- das AF-Flimmern ist nicht so stark wie bei einer HD 4000 und die Rendertarget-Optimierungen lassen sich auf Wunsch abschalten.
- Den Nutzern werden mehr Freiheiten geboten denn je.


@ MiamiNice
Die 6870 ist überwiegend schneller als die 5850, manchmal auch recht nahe an der 5870. Also mehr Features, etwas günstiger (wahrscheinlich).

hmx
2010-10-22, 18:24:10
Ich war schon sehr knapp dran, mir eine 460er zu kaufen.
30 Watt weniger Spitzenverbrauch bei gleicher oder besserer Leistung und einem praktisch makellosen Wert beim HQV Benchmark (für mich fast der wichtigste Punkt..) haben mir die Entscheidung abgenommen.

Die 470er war wegen des horrenden Dual Monitor Verbrauchs und der Lautstärke nie in der engeren Auswahl.

Als Nicht-Fanboy lebt es sich entschieden entspannter und man nimmt eben das für einen selbst am besten geeignete Paket - und das hat diesmal (für mich) ganz klar AMD.

edit.: das Namensspielchen ist ärgerlich und dumm, aber es bleibt Ihnen keine andere Wahl...

Die GTX460 1Gb ist schon ein Stück günstiger als die HD6850. Ob nun der 30 Watt Mehrverbrauch unter Spitzenlast ein großes Loch in die Finanzierung der Stromrechnung reisst muss allerdings jeder für sich selbst wissen.

ChaosTM
2010-10-22, 18:26:58
Die GTX460 1Gb ist schon ein Stück günstiger als die HD6850. Ob nun der 30 Watt Mehrverbrauch unter Spitzenlast ein großes Loch in die Finanzierung der Stromrechnung reisst muss allerdings jeder für sich selbst wissen.

Ich hab heute einer 6850 für 149€ incl. Versand bestellt. Sollte die 460er in den nächsten Tagen deutlich billiger werden, ist sie wieder im Spiel.

Alexander
2010-10-22, 18:29:05
Als Nicht-Fanboy lebt es sich entschieden entspannter und man nimmt eben das für einen selbst am besten geeignete Paket - und das hat diesmal (für mich) ganz klar AMD in Form der 6850er.

Nicht sehr überzeugend. Ich habe den Grakakauf mehrfach aufgeschoben, da ich eine 6850 (oder eine 5850 aus den zu erwartenden Ausverkauf) wollte. Nach allem was ich bisher gelesen haben und nach dem Preisrutsch bei den 460er bin ich mir nicht mehr so sicher. Bin kurz davor ne 460er zu kaufen. Ich superdupermegafanboy ;)

Was genau hat dich denn überzeugt?

LovesuckZ
2010-10-22, 18:29:15
Du hast aber schon den Artikel bei pcgh.de gelesen? @ Lovesuckz
klick (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=4)

Ja, natürlich.
Qualität von Standard bei Evergreen + Cat 10.10 > Barts + Cat 10.10a.
Barts errichtet also auf der Standardeinstellung weniger Arbeit als Evergreen mit den neusten Treiber. Das wiederrum täuscht eine Leistungssteigerung vor, die in einigen Fällen eben nicht vorhanden ist.

/edit: Wer wert auf Videowiedergabe und Stromverbrauch legt, kauft sich doch keine Barts Karte. Die verbraucht bei Wiedergabe von HD-Content 20 Watt mehr als eine GTX460. Hier finde ich die Entscheidung für Barts ziemlich suspekt, da man meisten HD Content von seinem Sofa auf einem entfernten TV schaut, wo Kleinigkeiten sowieso aufgrund fehlender Auflösemöglichkeit unseres Auge unentdeckt bleiben.

V2.0
2010-10-22, 18:29:39
Vor allem bedenkt eines, wenn ihr jetzt die 68X0 kauft werdet ihr dafür sorgen, dass die AF Qualität auf Dauer sinkt. Und das sage ich als AMD Fan. Denn es geht nicht um die absolute Qualität, es geht darum dass AMD die User mit dem Cat 10.10 verarscht. Was mal AI Standard war ist jetzt HQ und Q ist schlechter. Da aber Q im 10.10 Standard ist hat man die Standardeinstellungen ab Werk abgesenkt. Das finde ich beschieden.

derguru
2010-10-22, 18:30:55
Ich hab heute einer 6850 für 149€ incl. Versand bestellt. Sollte die 460er in den nächsten Tagen deutlich billiger werden, ist sie wieder im Spiel.
mit der 6850 macht man auch nichts falsch,vielleicht hast du sogar glück und es ist einer mit 1120 shader,falls ja ansage hier machen.:biggrin:

igendwie macht mich dieses mlaa jückisch,schade das keiner die karte besitzt.

tombman
2010-10-22, 18:32:52
AMD is ne eben ne Massenfirma- und die Masse hat keine Ahnung von "echten" Pixeln oder per LMAA, äh, sorry, MLAA (;D;D;D) niedergeblurrten. Hauptsache die phösen Treppchen sind weg :ulol:

ChaosTM
2010-10-22, 18:33:19
Nicht sehr überzeugend. Ich habe den Grakakauf mehrfach aufgeschoben, da ich eine 6850 (oder eine 5850 aus den zu erwartenden Ausverkauf) wollte. Nach allem was ich bisher gelesen haben und nach dem Preisrutsch bei den 460er bin ich mir nicht mehr so sicher. Bin kurz davor ne 460er zu kaufen. Ich superdupermegafanboy ;)

Was genau hat dich denn überzeugt?

Das hab ich im Post oben schon gesagt.: Geringerer Stromverbrauch, perfekte HQV Benchmark Werte und der günstigere Preis.
Sollte die 460er in den nächsten Tagen noch im Preis fallen, schaut es wieder anders aus.

ChaosTM
2010-10-22, 18:34:10
mit der 6850 macht man auch nichts falsch,vielleicht hast du sogar glück und es ist einer mit 1120 shader,falls ja ansage hier machen.:biggrin:

Darauf hoffe ich auch.. :)

derguru
2010-10-22, 18:37:01
AMD is ne eben ne Massenfirma- und die Masse hat keine Ahnung von "echten" Pixeln oder per LMAA, äh, sorry, MLAA (;D;D;D) niedergeblurrten. Hauptsache die phösen Treppchen sind weg :ulol:
genau,deswegen ist die beste kanten-glättung ever mit edge zu bewerkstelligen abgesehen davon hat dich noch nie mehr als stinknormales 4xmsaa interessiert und beim bluren sind andere weltmeister.

Lawmachine79
2010-10-22, 18:43:21
mit der 6850 macht man auch nichts falsch,vielleicht hast du sogar glück und es ist einer mit 1120 shader,falls ja ansage hier machen.:biggrin:

igendwie macht mich dieses mlaa jückisch,schade das keiner die karte besitzt.
Wenn Du eine NV rumliegen hast, einbauen, mit NV-Inspector "Quincunx"-AA aktivieren und gucken ob es Dir gefällt. Gefällt es Dir, gefällt Dir auch MLAA.

Alexander
2010-10-22, 18:48:05
Das hab ich im Post oben schon gesagt.: Geringerer Stromverbrauch, perfekte HQV Benchmark Werte und der günstigere Preis.
Sollte die 460er in den nächsten Tagen noch im Preis fallen, schaut es wieder anders aus.
Dafür verbraucht sie im Idle mehr. Im Schnitt (bei meinem Verhalten) ist die 460er sparsamer. Und was nützt ein perfekter Benchmark Wert, wenn man die Bildqualität gesenkt hat? Ist die Karte bei gleicher Qualität nicht langsamer als ne 460er?

Mir ist eine 460 von Gigabyte für 156€ lieber als eine "laute" 6850 im Referenzdesign für 149€,

Lawmachine79
2010-10-22, 18:52:08
Ist die Karte bei gleicher Qualität nicht langsamer als ne 460er?

Ist nicht feststellbar.

hmx
2010-10-22, 18:53:48
Ich hab heute einer 6850 für 149€ incl. Versand bestellt. Sollte die 460er in den nächsten Tagen deutlich billiger werden, ist sie wieder im Spiel.

Sicher, dass du dich nicht von den Reviews mit falschem Bios hats täuschen lassen?
Der Stromverbrauch ist auch so eine Sache, die Zeit die die Karte so läuft, dass sie 30 Watt mehr verbraucht ist nicht gerade sehr lange, da das eher auf Furmark und co zutrifft. Das wird dich im Jahr sicher kaum was kosten.

ChaosTM
2010-10-22, 18:56:33
Dafür verbraucht sie im Idle mehr. Im Schnitt (bei meinem Verhalten) ist die 460er sparsamer. Und was nützt ein perfekter Benchmark Wert, wenn man die Bildqualität gesenkt hat? Ist die Karte bei gleicher Qualität nicht langsamer als ne 460er?

Mir ist eine 460 von Gigabyte für 156€ lieber als eine "laute" 6850 im Referenzdesign für 149€,

Die 6850 braucht im Multimonitorbetrieb (idle) ca 8 Watt weniger. Der HQV Benchmark bezieht sich hauptsächlich auf die Bildqualität bei der Video-Wiedergabe.

Der 6800er Launch ist auf jeden Fall eine Win-Win Situation für alle Gamer!

Der Preis für beide Fanboy-Fraktionen fällt, und der mündige Käufer nimmt das,was für Ihn am besten geeignet ist.
Momentan liegt (für mich) die 6850er einen Hauch vorne.

Mr. Lolman
2010-10-22, 19:00:32
Wenn Du eine NV rumliegen hast, einbauen, mit NV-Inspector "Quincunx"-AA aktivieren und gucken ob es Dir gefällt. Gefällt es Dir, gefällt Dir auch MLAA.
Aber geh. MLAA sollte nicht unschärfer sein, als normales MSAA. In Bewegung fehlen halt die Subpixelinformationen, aber zumindest auf Standbildern ists von MSAA nicht zu unterscheiden (HUDs mal ausgenommen).

Sicher, dass du dich nicht von den Reviews mit falschem Bios hats täuschen lassen?

Auch mit 960SP ist sie nicht so schlecht aufgestellt: http://www.techpowerup.com/reviews/HIS/Radeon_HD_6850/30.html

fizzo
2010-10-22, 19:12:16
Die 6850 braucht im Multimonitorbetrieb (idle) ca 8 Watt weniger. Der HQV Benchmark bezieht sich hauptsächlich auf die Bildqualität bei der Video-Wiedergabe.

Der 6800er Launch ist auf jeden Fall eine Win-Win Situation für alle Gamer!

Der Preis für beide Fanboy-Fraktionen fällt, und der mündige Käufer nimmt das,was für Ihn am besten geeignet ist.
Momentan liegt (für mich) die 6850er einen Hauch vorne.

Noch dazu ist die Sapphire, welche ich heute geordert habe, wirklich ein Leisetreter (http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index18.php) - sollte "zufällig" noch die 1120 Shader freigeschalten sein um so besser=)

hmx
2010-10-22, 19:21:15
Auch mit 960SP ist sie nicht so schlecht aufgestellt: http://www.techpowerup.com/reviews/HIS/Radeon_HD_6850/30.html

Die Karten sind wohl in etwas gleich schnell, wenn man mit vergleichbarer BQ testet.

klein
2010-10-22, 19:22:19
Ich habe mich jetzt definitiv für die MSI GTX 460 1 GB Cyclone entschieden. Mal sehen, ob sie nächste Woche auch noch auf 150 - 160 € fällt. Momentan steht der Preis noch bei 172 €. Die HD 6800-Serie sagt mir überhaupt nicht zu. Ich fasse zusammen.

1. Das, was AMD als "HQ" bezeichnet, ist in Wirklichkeit das A.I.-Standard-AF der bisherigen HD 5000-Serie + Banding-Bugfix. "Q" ist nun das A.I.-Advanced-AF der bisherigen HD 5000-Serie. Ergo: In den Standardeinstellungen, die die meisten Reviewer, u. a. auch CB, benutzen, erkauft sich die HD 6800-Serie einen Performancevorteil durch verschlechterte Bildqualität. Laut HT4U (http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index9.php) sind es z. B. bei Alien vs. Predator 2010 5 % mehr Leistung durch "Q", bei Anno 1404 6 % und bei Stalker CoP sogar ganze 10 %, die man sich ercheatet.

2. Bei CB haben sie eine HD 6850 mit 1120 SP getestet.

3. Bei CB haben sie die GTX 460 mit Uralttreibern getestet.

Wenn ich das alles zusammenfasse, bleibt von den 7 % Performancevorsprung im Gesamtrating (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update/22/#abschnitt_performancerating_mit_aaaf) @ 1680 + 4x MSAA / 16x AF nicht mehr viel übrig und die GTX 460 ist bereits mit Standardtakt schneller, schlimmstenfalls herrscht Gleichstand. Hinzu kommt das enorme OC-Potenzial der GTX und das quasi nicht vorhandene OC-Potenzial von Barts. 800 MHz habe ich bisher bei jeder GTX 460 gesehen, das sind 18 % Mehrtakt, die sich nahezu 1:1 auf die FPS auswirken. Auch die nVidia-Goodies bleiben nach wie vor bestehen. Echtes (!) HQ-AF, PhysX, höhere Tessellationsleistung, bessere Spielekompatibilität durch TWIMTBP bzw. nVidia-gesponsorte Entwickler und letzten Endes ist das Ganze nicht einmal teurer zu haben als eine HD 6850 aktuell.

Was spricht jetzt genau für Barts, insbesondere die HD 6850? Wer mich umstimmen will, hat noch eine Woche Zeit.

AnarchX
2010-10-22, 19:26:02
16x MSAA?

http://www.rage3d.com/reviews/video/amd_hd6870_hd6850_launch_review//pics/cfxcfaa1.jpg
http://www.rage3d.com/reviews/video/amd_hd6870_hd6850_launch_review/index.php?p=4

LovesuckZ
2010-10-22, 19:28:28
Bildunterschrift lesen. Bezieht sich auf Crossfire.

hmx
2010-10-22, 19:28:35
Ich habe mich jetzt definitiv für die MSI GTX 460 1 GB Cyclone entschieden. Mal sehen, ob sie nächste Woche auch noch auf 150 - 160 € fällt. Momentan steht der Preis noch bei 172 €. Die HD 6800-Serie sagt mir überhaupt nicht zu. Ich fasse zusammen.

1. Das, was AMD als "HQ" bezeichnet, ist in Wirklichkeit das A.I.-Standard-AF der bisherigen HD 5000-Serie + Banding-Bugfix. "Q" ist nun das A.I.-Advanced-AF der bisherigen HD 5000-Serie. Ergo: In den Standardeinstellungen, die die meisten Reviewer, u. a. auch CB, benutzen, erkauft sich die HD 6800-Serie einen Performancevorteil durch verschlechterte Bildqualität. Laut HT4U (http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index9.php) sind es z. B. bei Alien vs. Predator 2010 5 % mehr Leistung durch "Q", bei Anno 1404 6 % und bei Stalker CoP sogar ganze 10 %, die man sich ercheatet.

2. Bei CB haben sie eine HD 6850 mit 1120 SP getestet.

3. Bei CB haben sie die GTX 460 mit Uralttreibern getestet.

Wenn ich das alles zusammenfasse, bleibt von den 7 % Performancevorsprung im Gesamtrating (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update/22/#abschnitt_performancerating_mit_aaaf) @ 1680 + 4x MSAA / 16x AF nicht mehr viel übrig und die GTX 460 ist bereits mit Standardtakt schneller, schlimmstenfalls herrscht Gleichstand. Hinzu kommt das enorme OC-Potenzial der GTX und das quasi nicht vorhandene OC-Potenzial von Barts. 800 MHz habe ich bisher bei jeder GTX 460 gesehen, das sind 18 % Mehrtakt, die sich nahezu 1:1 auf die FPS auswirken. Auch die nVidia-Goodies bleiben nach wie vor bestehen. Echtes (!) HQ-AF, PhysX, höhere Tessellationsleistung, bessere Spielekompatibilität durch TWIMTBP bzw. nVidia-gesponsorte Entwickler und letzten Endes ist das Ganze nicht einmal teurer zu haben als eine HD 6850 aktuell.

Was spricht jetzt genau für Barts, insbesondere die HD 6850? Wer mich umstimmen will, hat noch eine Woche Zeit.

Die 6850 lässt sich etwas besser übertakten, allerdings eben auch nicht so gut wie die GTX460, die in der Hinsicht einfach eine Ausnahmeerscheinung sind. Bei der 6850 ist man imo durch den einen PCIe Stromstecker ein wenig limitiert, viel Spannung wird man da nicht draufgeben können. Da helfen wohl erst spezielle Boardsesings, die dann auch wieder mehr kosten werden.

16x MSAA?

http://www.rage3d.com/reviews/video/amd_hd6870_hd6850_launch_review//pics/cfxcfaa1.jpg
http://www.rage3d.com/reviews/video/amd_hd6870_hd6850_launch_review/index.php?p=4

Edge Detect. Das ist aber auch teurer als CSAA.

ChaosTM
2010-10-22, 19:31:12
@ klein

Nicht nur die deutschen Reviews lesen. Die Übertaktungspanne der 6850 liegt im Schnitt bei 900-950mhz.
Und warum soll dich jemand umstimmen.: die MSI GTX 460 1 GB Cyclone ist eine großartige Karte und da für dich die Filterung der wichtigste Punkt zu sein scheint, ist die 460er optimal.
Der Preis geht auch sicher noch um 10-20€ runter.

derguru
2010-10-22, 19:32:34
noch ein review.
http://www.hardwareheaven.com/reviews/1053/pg1/amd-radeon-6870-and-6850-graphics-card-review-introduction.html

@klein

2.vielleicht gehörst du auch zu den glücklichen mit 1120 SP

3.ja und das macht im gesamtrating nicht mal 1%.

trotzdem bleibt die Cyclone eine gute wahl.:biggrin:


Edge Detect. Das ist aber auch teurer als CSAA.
wo steht das?es gibt kein 16aa edge.

Raff
2010-10-22, 19:33:32
Aber geh. MLAA sollte nicht unschärfer sein, als normales MSAA. In Bewegung fehlen halt die Subpixelinformationen, aber zumindest auf Standbildern ists von MSAA nicht zu unterscheiden (HUDs mal ausgenommen).

Was für "Standbilder" kennst du? Alles, was ich im Stand und in Bewegung sah, wurde extrem oder zumindest leicht gematscht. Das gesamte Bild.

MfG,
Raff

klein
2010-10-22, 19:35:26
16x MSAA?

http://www.rage3d.com/reviews/video/amd_hd6870_hd6850_launch_review//pics/cfxcfaa1.jpg
http://www.rage3d.com/reviews/video/amd_hd6870_hd6850_launch_review/index.php?p=4

X-D

Sinnfrei imo. 8x MSAA ist für mich bereits nicht von 4x MSAA zu unterscheiden. Was nützen mir 512-fach abgetastete Polygonkanten, wenn drei Dutzend anderer Inhalte vor sich hin flimmern, die von MSAA nicht berührt werden?

derguru
2010-10-22, 19:36:13
Was für "Standbilder" kennst du? Alles, was ich im Stand und in Bewegung sah, wurde extrem oder zumindest leicht gematscht. Das gesamte Bild.

MfG,
Raff
also nicht zu gebrauchen? der blureffekt,mit was vergleichbar,narrow,wide-tent?

Alexander
2010-10-22, 19:38:14
Ich habe mich jetzt definitiv für die MSI GTX 460 1 GB Cyclone entschieden. Mal sehen, ob sie nächste Woche auch noch auf 150 - 160 € fällt. Momentan steht der Preis noch bei 172 €.
Wieso nicht die gigabyte? Die ist jetzt schon so günstig.

Raff
2010-10-22, 19:39:22
also nicht zu gebrauchen? der blureffekt,mit was vergleichbar,narrow,wide-tent?

Ich habe das noch zu wenig getestet, um wirklich zutreffende Aussagen zu treffen, sorry. Was ich sah, erinnerte mich an 4x MSAA mit Narrow-tent: Etwas Unschärfe auf allen Objekten, Kontraste relativ gut geglättet. Es ist ok – es ist sogar cool, wenn man es mit Spielen zu tun hat, die gar kein AA unterstützen.

MfG,
Raff

LovesuckZ
2010-10-22, 19:40:20
Was für "Standbilder" kennst du? Alles, was ich im Stand und in Bewegung sah, wurde extrem oder zumindest leicht gematscht. Das gesamte Bild.

MfG,
Raff

Wie sieht die Sache eigentlich mit Crysis aus? Ist dort die neue Standardeinstellung wenigsten besser?

deekey777
2010-10-22, 19:40:22
Wenn dieses MLAA weichzeichnet, dann ist es kein MLAA, oder? Warum sollte MLAA zur Unschärfe führen?

derguru
2010-10-22, 19:40:54
Ich habe das noch zu wenig getestet, um wirklich zutreffende Aussagen zu treffen, sorry. Was ich sah, erinnerte mich an 4x MSAA mit Narrow-tent: Etwas Unschärfe auf allen Objekten, Kontraste relativ gut geglättet. Es ist ok – es ist sogar cool, wenn man es mit Spielen zu tun hat, die gar kein AA unterstützen.

MfG,
Raff

ja das hört sich doch nicht schlecht an und kostet das wirklich gar nichts?(beim starcraft screenshot aus tomshardware war die fps nahe zu identsich)

hmx
2010-10-22, 19:42:40
@ klein

Nicht nur die deutschen Reviews lesen. Die Übertaktungspanne der 6850 liegt im Schnitt bei 900-950mhz.
Und warum soll dich jemand umstimmen.: die MSI GTX 460 1 GB Cyclone ist eine großartige Karte und da für dich die Filterung der wichtigste Punkt zu sein scheint, ist die 460er optimal.
Der Preis geht auch sicher noch um 10-20€ runter.

Nein. 950MHz machen die 6870er.

http://www.hardwareheaven.com/reviews/1053/pg20/amd-radeon-6870-and-6850-graphics-card-review-temps-noise-power-overclocking.html

Bei den 6850ern ist man mit 880MHz an der oberen Grenze und ob Karten, die nicht vorselektiert wurden für Reviews und wo eigentlich ein 6870er Chip drauf ist und eben KEIN echter 6850 steht in den Sternen. Die OC Ergebnisse der "6850" kannst du getrost erstmal vergessen, da das eigentlich 6870er Karten sind.


@raff
Wenn ich drüber nachdenke, wie kann es btw sein, dass die 6850er zwar einen Stromstecker haben und damit definitiv das richtige Board, aber trotzdem ein Bios mit freigeschalteten 1120 SPs? Was muss da denn schief gelaufen sein? Wären das einfach umgeflashte 6870er könnte man das ja verstehen, aber so? Eventuell ist das Board von Sapphire einfach das von der 6870 ohne den zweiten Stromsecker und man könnte daran erkenen, ob es "freischaltbare" Karten sind.

deekey777
2010-10-22, 19:44:17
Jetzt mal ehrlich:
http://www.chiphell.com/data/attachment/forum/201010/19/170956ajd8ejt7t42tbc8t.jpg
Da steht, dass MLAA reichlich Performance kostet, aber es kostet keine? Wie geht denn das?

Mr. Lolman
2010-10-22, 19:45:45
Was für "Standbilder" kennst du? Alles, was ich im Stand und in Bewegung sah, wurde extrem oder zumindest leicht gematscht. Das gesamte Bild.

MfG,
Raff

Die von THG. Dann die Sachen hier:

http://www.iryokufx.com/mlaa/
http://visual-computing.intel-research.net/publications/papers/2009/mlaa/mlaa.pdf
http://www.eurogamer.net/articles/the-making-of-god-of-war-iii?page=3
http://www.realtimerendering.com/blog/morphological-antialiasing/

derguru
2010-10-22, 19:49:11
Jetzt mal ehrlich:
http://www.chiphell.com/data/attachment/forum/201010/19/170956ajd8ejt7t42tbc8t.jpg
Da steht, dass MLAA reichlich Performance kostet, aber es kostet keine? Wie geht denn das?
und wie erklärst du dir das?
http://www.abload.de/img/star6upg.jpg
http://www.tomshardware.com/reviews/radeon-hd-6870-radeon-hd-6850-barts,2776-4.html

dildo4u
2010-10-22, 19:52:51
Jetzt mal ehrlich:
http://www.chiphell.com/data/attachment/forum/201010/19/170956ajd8ejt7t42tbc8t.jpg
Da steht, dass MLAA reichlich Performance kostet, aber es kostet keine? Wie geht denn das?
Das läuft doch über die Shader da hat jede AMD doch reichlich Rechenleistung über.Das ganze scheint halt nicht aufwändiger als die Konsolenvariante zu sein.

Spasstiger
2010-10-22, 19:53:04
Wenn man mal bei der AMD-Folie bleibt: Ist der Performancehit durch MLAA vergleichbar mit dem Zuschalten von Edge Detect gegenüber der Grundperformance mit MSAA? Oder ist es so teuer wie von noAA auf z.B. 4xMSAA + Edge Detect?
Schneller als Super Sampling ist eine doofe Aussage. Wenn MLAA langsamer als SSAA wäre, würde es AMD gar nicht anbieten.

/EDIT: Ok, für Starcraft II wäre das schonmal geklärt.

klein
2010-10-22, 19:53:56
Wieso nicht die gigabyte? Die ist jetzt schon so günstig.

Die Cyclone soll ja laut HT4U und auch CB den leisesten und kühlsten Kühler aller GTXen zugleich haben. Da ich auch auf 800 MHz übertakten möchte UND auf Lautstärke Wert lege, präferiere ich die Cyclone. Bei der Gigabyte meine ich zudem etwas von Spulenfiepen gelesen zu haben. Jedenfalls ist mir MSI als Marke qualitativ jetzt schon häufiger positiv aufgefallen. Bei der Sockelproblematik der S. 1156-Boards gehörten die Boards von MSI z. B. zu den Wenigen, die von dem Problem schmorender Sockel verschont geblieben sind. Ihre Grafikkartendesigns gehören auch immer mit zu den Besten (die HAWK z. B. auch neben der Cyclone). Außerdem habe ich Gigabyte bereits durch Kauf eines Mainboardes unterstützt. Mehrfach. :) :D

Azubi
2010-10-22, 19:54:30
Mir wäre lieber gewesen AMD hätte die HD6850 als HD6830 vertrieben.

In den Tests hätte das gaaaanz andere psychologische Abläufe in meinem Kopf.

Eine "kleine" HD6830 auf Niveau der im Moment in aller Munde befindlichen GTX460? OH Gott - armes NVIDIA. AMD :up:

aber so wie es jetzt ist

Die "neue" HD6850 (suggeriert ja, das die Karte die GTX460 zum Frühstück nehmen müßte) kämpft mit der GTX460 auf gleichem Level um den Käufer. Nene AMD. so net. :down:

Iruwen
2010-10-22, 19:57:05
Schneller als Super Sampling ist eine doofe Aussage. Wenn MLAA langsamer als SSAA wäre, würde es AMD gar nicht anbieten.

Doch, weils auch in DX10/11 funktioniert und sie dann NV trollen könnten (wir halten uns an die Specs!!1) :rolleyes:

Spasstiger
2010-10-22, 20:00:52
"Funktioniert in allen APIs" ist kein Grund für AMD/ATI, ein Feature anzubieten. AMD/ATI bietet dann ein Bildqualitätsfeature an, wenn die Performance für die gebotene Bildqualität angemessen ist und wenn sich der nötige Hardware-Aufwand in Grenzen hält. Deshalb gab es nie OGSSAA unter Windows für Radeons und deshalb gibt es auch kein AF, was der höchsten Qualitätsstufe von NVidia ebenbürtig wäre.

Eggcake
2010-10-22, 20:11:11
Mir wäre lieber gewesen AMD hätte die HD6850 als HD6830 vertrieben.

In den Tests hätte das gaaaanz andere psychologische Abläufe in meinem Kopf.

Eine "kleine" HD6830 auf Niveau der im Moment in aller Munde befindlichen GTX460? OH Gott - armes NVIDIA. AMD :up:

aber so wie es jetzt ist

Die "neue" HD6850 (suggeriert ja, das die Karte die GTX460 zum Frühstück nehmen müßte) kämpft mit der GTX460 auf gleichem Level um den Käufer. Nene AMD. so net. :down:

Klar ists eine Kopfsache, aber gerade als Konsument, der sich informiert (und dazu zähle ich mal alle, die hier posten), kann es einem doch pfurzegal sein, wie die Karte heisst. Was schlussendlich zählt ist, zusammengefasst, der Preis und die Leistung. Ob jetzt die Karte 6999 oder 6001 heisst...?
Aber klar: als "nichtswissender" würde ich mir etwas verarscht vorkommen, aber wenn man das Ganze genauer betrachtet, vor allem im Vergleich zu früheren Generationen, ist die Namensgebung in Ordnung.

Azubi
2010-10-22, 20:29:02
Aber klar: als "nichtswissender" würde ich mir etwas verarscht vorkommen, aber wenn man das Ganze genauer betrachtet, vor allem im Vergleich zu früheren Generationen, ist die Namensgebung in Ordnung.

Meinst du damit sowas wie....

Pause an der Gesamtschule.
Schüler A
"Hey, hab mir Arcania gekauft!"
Schüler B
"Was haste denn für ne GraKa?"
Schüler A
"Eine HD5850" :cool:
Schüler B
"Und das läuft gut? Bei mir rukelts selbst mit ner HD6850 dolle!" ;D

Popeljoe
2010-10-22, 21:01:19
Meinst du damit sowas wie....

Pause an der Gesamtschule.
Schüler A
"Hey, hab mir Arcania gekauft!"
Schüler B
"Was haste denn für ne GraKa?"
Schüler A
"Eine HD5850" :cool:
Schüler B
"Und das läuft gut? Bei mir rukelts selbst mit ner HD6850 dolle!" ;D
Liegt aber dann weder an der 6850, noch der 5850: das Game ist der eigentliche Müll! ;D
Letztlich wichtig ist, dass AMD die Preis-Leistungslücke zu den GTX460 geschlossen hat und das ist gut für die Preise und für den Käufer.
Die ganzen Schnellschuß Reviews zeigen doch, dass man aufpassen muß, wie Sau, denn der erste Eindruck setzt sich in den Köpfen fest.
In diesem Fall ist er: 6850 schneller, als GTX460 und 6870 schneller/gleichauf mit der GTX470.
Das dies mit kleineren Tricks zustande kommt, interessiert den Otto-Normalo Noob doch kein bischen!

N0Thing
2010-10-22, 21:52:49
Als mündiger Käufer sollte man AMD den sprichtwörtlichen Mittelfinger zeigen und boykottieren. Wenn eine Firma schon absichtlich ihre neuen Produkte künstlich besser stellen muss als den Vorgänger, dann ist etwas nicht ganz köscher - weniger Leistung bei weniger Qualität, sowie Partner die Freigabe für falsche Samples geben.


Ja, wirklich eine miese Sache. Gott sei Dank waren die unterschiedlichen Bezeichungen für den G92 immer ohne jeden Zweifel der Leistung angemessen. :rolleyes:

Wofür man ihnen definitiv den Mittelfinger zeigen sollte, ist der peinliche "Quality" Modus. Da fragt man sich schon, ob AMD so doof ist, wie es scheint, oder ob der Rest der Review-Welt so doof ist, daß es sich AMD einfach erlauben kann...? :freak:



Und das Rumgeheule wegen der Benennung kann ich nicht verstehen. Wer sich eine Karte in dieser Größenordnung kauft und sich vorher nicht ansieht was er da kauft, ist eh zu dumm um Mitleid zu verdienen. Was ich aber einfach nicht verstehen kann ist, wie man bei soviel Hardwarepower nicht sagt: "Wir machen die gleiche oder bessere Filterqualität wie NV". Wie kann man an sowas sparen? Das ist, als ob ich mir eine 400Ps Sportlimousine kaufe und dann ist da nichtmal eine Scheißmittelarmlehne drin.

Auf den Preis bezogen stimmt die Einteilung, nur ist das ein sehr mauer Fixpunkt. Ich kann verstehen, daß sie die x8xx Reihe nun im Performance-Bereich vermarken wollen, das funktioniert aber nur dann, wenn nicht nur Cayman, sondern auch mindestens die nächste Generation diese Einteilung rechtfertigen kann.
Dazu kommt, daß wohl viele Interessenten die 68xx Reihe gegenüber der 58xx für die üblichen 20-50% schneller erachtet.
Natürlich sollte man sich vor einem Kauf über das Produkt informieren, aber hier nimmt ein Hersteller dankend die Unwissenheit der Masse in Kauf, um sich einen Vorteil zu verschaffen. :down:

Sehe ich das richtig? Die neuen Karten langsamer als die alten dafür mehr Features und zum Ramschpreis? (mal so grob überschlagen)

Wenn du die neuen Karten nicht als Nachfolger, sondern zwischen HD57xx und HD58xx, bzw. als Kontrahent der GTX460 siehst, ist es das, was AMD damit anbietet.

Aber geh. MLAA sollte nicht unschärfer sein, als normales MSAA. In Bewegung fehlen halt die Subpixelinformationen, aber zumindest auf Standbildern ists von MSAA nicht zu unterscheiden (HUDs mal ausgenommen).

Auf den SC2-Bildern sieht man einen Unterschied zu 4xMSAA.

Spasstiger
2010-10-22, 22:09:09
MLAA hat den großen Nachteil, dass es keine speziellen Maßnahmen hat, um zeitliche Unstetigkeiten (Flimmern) auszubügeln. Man könnte es höchstens durch Motion Blur ergänzen.

LovesuckZ
2010-10-22, 22:19:15
HT4U.de haben nun die Werte einer richtigen 6850 hinzugefügt. Die Karte ist zwischen 5-10% langsamer je nach Anwendung.

Ja, wirklich eine miese Sache. Gott sei Dank waren die unterschiedlichen Bezeichungen für den G92 immer ohne jeden Zweifel der Leistung angemessen. :rolleyes:

Na, dann sage doch mal, wo eine Karte so deutlich langsamer war. Eine 9800GT war exakt so schnell wie eine 8800GT. Eine 9800GTX war mal deutlich schneller, gleich schnell oder langsamer. Eine GTS250 war nie langsamer als die 9800GTX+ und wurde sogar perfekt in das bestehende GT(X/S) Schema als GTS250 eingeführt.
Hier wird Barts als neue Generation eingeführt. Jedoch sind die Unterschiede zwischen Barts und Cypress sogar kleiner als zwischen GF104 und GF100.
Barts als 5840 bzw. 5860 wäre eine faire Einteilung entsprechend der Wirklichkeit. Die jetzige Bezeichnung soll viel mehr suggerieren als am Ende vorhanden ist und führt auch das alte Schema ad absurdum.

SamLombardo
2010-10-22, 22:33:07
und 6870 schneller/gleichauf mit der GTX470.
Das dies mit kleineren Tricks zustande kommt, interessiert den Otto-Normalo Noob doch kein bischen!
Sehr AMD freundlich formuliert bzw. so nicht zutreffend.;)

Zitat PCGH Fazit
Die Radeon HD 6870 schlägt die Radeon HD 5850 mit knappem Vorsprung, muss sich aber der Geforce GTX 470 beugen

(del)
2010-10-22, 22:41:42
Wenn es in Zukunft keinen Highend-Singlechip in form von Caymann (6900) geben würde, könnte ich deine Aussage voll unterstreichen. Aber da es eine geben wird, muss man nunmal akzeptieren und tolerieren, dass AMD die produktpolitische Namensgebung der Karten geändert hat.Akzeptieren muß man es. Man kann es ja nicht ändern. Was ich toleriere oder kritisiere, das sollte mir lieber keiner vorschreiben wollen. Das tut dann doch am Ende eh nur Aua.

Die Namensgebung ist Verarsche. Wobei ATI sich hier eigentlich zuallererst selbst verarscht :smile: Wie arm ist es bitte vor der Mittelständigenkundschaft - die Leute zwischen denen die keinen Plan haben und dem Kern - eine 6850 rauszubringen die Schwächer als eine 5850 ist?

Das ist die Schnapsidee in der Geschichte der Grafikkarten. Die hier ist die nächste. Nicht schlecht. Mit 2 Klatschen gleichzeitig die Fliege doch verfehlt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494217

Armaq
2010-10-22, 22:43:11
HT4U.de haben nun die Werte einer richtigen 6850 hinzugefügt. Die Karte ist zwischen 5-10% langsamer je nach Anwendung.



Na, dann sage doch mal, wo eine Karte so deutlich langsamer war. Eine 9800GT war exakt so schnell wie eine 8800GT. Eine 9800GTX war mal deutlich schneller, gleich schnell oder langsamer. Eine GTS250 war nie langsamer als die 9800GTX+ und wurde sogar perfekt in das bestehende GT(X/S) Schema als GTS250 eingeführt.
Hier wird Barts als neue Generation eingeführt. Jedoch sind die Unterschiede zwischen Barts und Cypress sogar kleiner als zwischen GF104 und GF100.
Barts als 5840 bzw. 5860 wäre eine faire Einteilung entsprechend der Wirklichkeit. Die jetzige Bezeichnung soll viel mehr suggerieren als am Ende vorhanden ist und führt auch das alte Schema ad absurdum.
Die 9800GTX+ war in 55nm baugleich zur 250, nur der Speicherausbau variierte.

fondness
2010-10-22, 22:46:23
Sehr AMD freundlich formuliert bzw. so nicht zutreffend.;)

Zitat PCGH Fazit

Warum müssen manche Leute eigentlich immer einen "Ausreiser" als allgemeingültige Fakten hinstellen? Bei PCGH lagen die Geforce-Karten schon immer besser als wo anders. Und nein, das liegt auch nicht an den Optimierungen, diese bringen laut zahlreichen Tests kaum Leistung.

Die Aussage von Popeljoe ist da sicher näher an der Relität als deine Rosinenpickerei.

LovesuckZ
2010-10-22, 22:52:08
Die 9800GTX+ war in 55nm baugleich zur 250, nur der Speicherausbau variierte.

Nein, war sie nicht. Die Unterschiede lagen bei der diesem Vorgang verstärkt im Kartendesign: Unterschiedliche Platinen, andere Kühllösungen, kein Hybrid-Power(!), möglicher IDLE-Modus, geringerer Last-Verbrauch usw.
Leute kaufen keine Chips, sondern immer nur Kartenpakete.

gedi
2010-10-22, 22:52:41
HT4U.de haben nun die Werte einer richtigen 6850 hinzugefügt. Die Karte ist zwischen 5-10% langsamer je nach Anwendung.



Na, dann sage doch mal, wo eine Karte so deutlich langsamer war. Eine 9800GT war exakt so schnell wie eine 8800GT. Eine 9800GTX war mal deutlich schneller, gleich schnell oder langsamer. Eine GTS250 war nie langsamer als die 9800GTX+ und wurde sogar perfekt in das bestehende GT(X/S) Schema als GTS250 eingeführt.
Hier wird Barts als neue Generation eingeführt. Jedoch sind die Unterschiede zwischen Barts und Cypress sogar kleiner als zwischen GF104 und GF100.
Barts als 5840 bzw. 5860 wäre eine faire Einteilung entsprechend der Wirklichkeit. Die jetzige Bezeichnung soll viel mehr suggerieren als am Ende vorhanden ist und führt auch das alte Schema ad absurdum.

Stimmt, du hast recht - die GT300er waren wirklich performant ;D

Für meinen Teil hat AMD seine Hausaufgaben zum großen Teil erfolgreich erledigt. A.I. Standart-AF ohne Banding - kann man imo damit leben. Dies bietet keine HD5xxx! Die GTX460er werden ganz schön verblasen und der eigentliche Konkurent der XT lautet GTX470. MLAA finde ich als Option sehr nett.
Imo hätte AMD allerdings besser die Folie mit der Ansgage auf HQ-AF stecken lassen sollen - nach den Reviews wären die Wogen wohl nicht so ausgeartet, wie es jetzt den Anschein hat.

...und ja: Ich freue mich nun umso mehr auf Pay_man :D

hq-hq
2010-10-22, 23:17:38
hm so schlecht siehts mit der 6870 ja garnicht aus, hab mal paar von den bensch seiten überflogen und die 6870 kommt mit dx11 schon auf etwa 5870 level.
könnte auch daran liegen das die 5870 balken von alten treibern stammen...
bei der tesselation power hat sich dagegen nicht so viel getan wie mancher wohl vermutet hätte...

nur beim oc haperts wie geahnt... mit glück 8% wie es aussieht...

schätze viele werden sich trotzdem eine >800mhz getaktete gtx460 holen, sind ja dann gleich schnell etwa... bzw mit 4xfsaa sogar schneller

uweskw
2010-10-22, 23:17:50
Gibts eigentlich schon mehr zu MLAA?
Was ich bisher gefunden hab sieht recht gut aus, gefällt mir sogar besser als normales MSAA.

http://www.gamestar.de/_misc/images/picchanger.cfm?pk=2318548&elid=EL_12876727943073244773384&actid=EL_12876728059557428127936

http://www.tomshardware.com/reviews/radeon-hd-6870-radeon-hd-6850-barts,2776-4.html

SSAA ist natürlich noch besser, keine FRage, aber kostet halt...

Lt. PCGH wäre es aber unscharf. Habe aber noch nichts weiteres darüber gefunden.

Iruwen
2010-10-22, 23:25:07
Die GTX460er werden ganz schön verblasen und der eigentliche Konkurent der XT lautet GTX470. MLAA finde ich als Option sehr nett.

Naja, "verblasen". Mit AA/AF liegen bei ht4u 5% im Gesamtrating zwischen 460 1GB (780MHz) und 6850. Wenn man da noch das AF rausrechnet...

moBi
2010-10-22, 23:28:59
Falls das MLAA so toll ist, wird es auch nVidia bringen. Es braucht keine spezielle Hardware und Checklistenfeatures kommen beim Kunden gut an.

hmx
2010-10-22, 23:43:46
Gibts eigentlich schon mehr zu MLAA?
Was ich bisher gefunden hab sieht recht gut aus, gefällt mir sogar besser als normales MSAA.

http://www.gamestar.de/_misc/images/picchanger.cfm?pk=2318548&elid=EL_12876727943073244773384&actid=EL_12876728059557428127936

http://www.tomshardware.com/reviews/radeon-hd-6870-radeon-hd-6850-barts,2776-4.html

SSAA ist natürlich noch besser, keine FRage, aber kostet halt...

Lt. PCGH wäre es aber unscharf. Habe aber noch nichts weiteres darüber gefunden.

MSAA greift dort nicht. Das ist doch offensichtlich.

Naja, "verblasen". Mit AA/AF liegen bei ht4u 5% im Gesamtrating zwischen 460 1GB (780MHz) und 6850. Wenn man da noch das AF rausrechnet...

Und auch das ist falsch. Es sind 6% und die GTX ist die Standardvariante.

hmx
2010-10-22, 23:45:54
...

uweskw
2010-10-23, 01:02:09
Zitat von uweskw http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/viewpost.gif (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8343557#post8343557)
Gibts eigentlich schon mehr zu MLAA?
Was ich bisher gefunden hab sieht recht gut aus, gefällt mir sogar besser als normales MSAA.

http://www.gamestar.de/_misc/images/...59557428127936 (http://www.gamestar.de/_misc/images/picchanger.cfm?pk=2318548&elid=EL_12876727943073244773384&actid=EL_12876728059557428127936)

http://www.tomshardware.com/reviews/...ts,2776-4.html (http://www.tomshardware.com/reviews/radeon-hd-6870-radeon-hd-6850-barts,2776-4.html)

SSAA ist natürlich noch besser, keine Frage, aber kostet halt...


Lt. PCGH wäre es aber unscharf. Habe aber noch nichts weiteres darüber gefunden.


MSAA greift dort nicht. Das ist doch offensichtlich.




Blödsinn, schau dir die Bilder wenigstens an. Man kann klar die Wirkung von MSAA in beiden Beispielen erkennen.
Das ATI alsmal flimmert liegt doch daran das die Bilder zu "scharf" sind. Zumindest sieht es ab und zu auf Screenshots aus als wären sie "klarer" als NV. Hilft es da nicht wenn ein bisschen weichgezeichnet wird?

Sentionline
2010-10-23, 01:04:03
Im Grunde ist der ganze Chip ja das selbe wie die alte RV8x (2 Jahre alt!), was soll man da erwarten? Neben Treibercheats führt man jetzt Multisampling Cheats ein und Namens-schemacheats ein, um die dummen Käufer auch glauben zu machen, die 6870 wäre besser als die alte 5870 mit dem selben Chip. Der Verbrauch geht mit der kleineren Fertigung runter und auch die Leistungsaufnahme. Damit hat man in der vermeindlichen "Spitzenklasse" neue Rekordwerte in der Leistungsaufnahme inkl. flimmer AF und quasi keiner GPU anwendung. Man patcht von X absichtlichen Chipfehlern 1 weg und sagt; "wir haben AF verbessert". Man bringe einen Scheinschalter mit 1 AF Cheat in den Treiber und: ....

Hat die neue HD6x Reihe fertig. Nvidia hat man in den Boden gestampft als die die 8800GT umbenannt haben, was macht denn AMD jetzt? Die HD6870 soll ja die HD5850 ersetzen? Wo steht das? Auf der Packung auch?, ausser bei der Presse? Und in Mathe hab ich eine 1, das passt so ziemlich in keine Gleichung und jeder Mathe Lehrer gäbe bei der Rechnung eine 6.

Leute, wenn man schon eine 200€ Karte kaufen will, sollte man auf; Qualität, Support und Software achten. Und von allem hat eine GTX470 wohl mehr als genug. Nvidia hat nicht nur ein "diskusionsunwürdiges AF", sondern auch SGSSAA in allen APIs inkl. Hardware Physik und 3D, das nennt man "KUNDENSUPPORT". Es gibt keinen Punkt wo AMD gewinnt, bei der Leistungsaufnahme ja, kaufe man sich eine X600, die arbeitet genauso schrottig und verbraucht wenig.Hat man keine anderen Argumente als Watt/Dezibel?

Wann tritt man AMD endlich in den Hintern damit die Typen dieses "dummverkaufen der Kunden" erstmal von der Sollliste nimmt? Es gibt, was Gaming und Anwendersoftware angeht NICHTS, was eine HD6870 vs GTX470 oder HD6850 vs GTX460 "BESSER" macht. Ära AMD ist erstmal geschichte, wie zu G80 Zeiten. Das gibts doch nicht, das die einen Aufguss nach dem anderen eines selben Chips in 5 Jahren machen, wo doch die PC Gamer nix als bessere Qualität erwarten. Konsolen kann man optimieren, die Kiddies juckt es nicht, aber am PC muss man die Messlatte doch wohl etwas höher ansetzen können. Als Hersteller wie auch Verbraucher.

Die HD6x ist mal wieder ein Armutszeugnis der Entwickler und sollte klar boykottiert werden, und nicht "Diskutiert". Man muss erstmal das "Diskusionsunwürdige Level der Nvidia Chips" erreichen. Das hat die RV8x übrigens auch nie erreicht...

Mich regt das gerade voll auf das die nichts anderes machen als die treuen AMD Käufer immernoch zu verarschen. Mehr denn je zuvor. Find ich unfassbar dreist.

Flatterball77
2010-10-23, 01:25:51
Im Grunde ist der ganze Chip ja das selbe wie die alte RV8x (2 Jahre alt!), was soll man da erwarten? Neben Treibercheats führt man jetzt Multisampling Cheats ein und Namens-schemacheats ein, um die dummen Käufer auch glauben zu machen, die 6870 wäre besser als die alte 5870 mit dem selben Chip. Der Verbrauch geht mit der kleineren Fertigung runter und auch die Leistungsaufnahme. Damit hat man in der vermeindlichen "Spitzenklasse" neue Rekordwerte in der Leistungsaufnahme inkl. flimmer AF und quasi keiner GPU anwendung. Man patcht von X absichtlichen Chipfehlern 1 weg und sagt; "wir haben AF verbessert". Man bringe einen Scheinschalter mit 1 AF Cheat in den Treiber und: ....

Hat die neue HD6x Reihe fertig. Nvidia hat man in den Boden gestampft als die die 8800GT umbenannt haben, was macht denn AMD jetzt? Die HD6870 soll ja die HD5850 ersetzen? Wo steht das? Auf der Packung auch ausser bei der Presse? Und in Mathe hab ich eine 1, das passt so ziemlich in keine Gleichung und jeder Mathe Lehrer gäbe bei der Rechnung eine 6.

Leute, wenn man schon eine 200€ Karte kaufen will, sollte man auf; Qualität, Support und Software achten. Und von allem hat eine GTX470 wohl mehr als genug. Nvidia hat nicht nur ein "diskusionsunwürdiges AF", sondern auch SGSSAA in allen APIs inkl. Hardware Physik und 3D, das nennt man "KUNDENSUPPORT". Es gibt keinen Pinkt wo AMD gewinnt, bei der Leistungsaufnahme ja, kaufe man sich eine X600, die arbeitet genauso schrottig und verbraucht wenig.Hat man keine anderen Argumente als Watt/Dezibel?

Wann tritt man AMD endlich in den Hintern damit die Typen dieses "dummverkaufen der Kunden" erstmal von der Sollliste nimmt? Es gibt, was Gaming und Anwendersoftware NICHTS, was eine HD6870 vs GTX470 oder HD6850 vs GTX460 "BESSER" macht. Ära AMD ist erstmal geschichte, wie zu G80 Zeiten. Das gibts doch nicht, das die einen Aufguss nach dem anderen eines selben Chips in 5 Jahren machen, wo doch die PC Gamer nix als bessere Qualität erwarten. Konsolen kann man optimieren, die Kiddies juckt es nicht, aber am PC muss man die Messlatte doch wohl etwas höher ansetzen können. Als Hersteller wie auch Verbraucher.

Die HD6x ist mal wieder ein Armutszeugnis der Entwickler und sollte klar boykottiert werden, und nicht "Diskutiert". Man muss erstmal das "Diskusionsunwürdige Level der Nvidia Chips" erreichen. Das hat die RV8x übrigens auch nie erreicht...

Mich regt das gerade voll auf das die nichts anderes machen als die treuen AMD Käufer immernoch zu verarschen. Mehr denn je zuvor...

Gut erklärt. Ich hab die Cheats erkannt, deshalb wird woanders zu einem guten Preis gekauft. NV da weiss ich das wenn ich auf HQ stelle mir Flimmerorgien erspart bleiben. Dazu der DX11 Bonnus auf die Zusatzkosten unter Last pisse ich gelinde gesagt. PC IST MEIN HOBBY!:wink:


PhysX und Cuda und 3DVision nebenher ergattert.

Iruwen
2010-10-23, 01:35:08
Und auch das ist falsch. Es sind 6% und die GTX ist die Standardvariante.

http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index4.php
=> http://ht4u.net/reviews/2010/msi_n460_gtx_hawk/

http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index34.php
=> letzter Graph, zwischen 6850 und 460 liegen 5%

?

/e: gut, wenn man die 6850 als Bezugspunkt nimmt sind es 6%. Aber getestet wurde mit 'ner Hawk oder steht da noch irgendwo dass sie die runtergetaktet haben?

hmx
2010-10-23, 01:35:28
Blödsinn, schau dir die Bilder wenigstens an. Man kann klar die Wirkung von MSAA in beiden Beispielen erkennen.
Das ATI alsmal flimmert liegt doch daran das die Bilder zu "scharf" sind. Zumindest sieht es ab und zu auf Screenshots aus als wären sie "klarer" als NV. Hilft es da nicht wenn ein bisschen weichgezeichnet wird?




http://img713.imageshack.us/img713/5990/800x600prop.jpg (http://img713.imageshack.us/i/800x600prop.jpg/)

Uploaded with ImageShack.us (http://imageshack.us)


Ich sehe da kein MSAA. Das Geflimmere durch die Unterfilterung der texturen beim AF bekommt man mit MLAA nicht weg, das gilt nämlich nur für Kanten. Auch sonst ist MLAA für Flimmern eher ungeeignet, es sieht nur in Standbildern halbwegs gut aus.

Sentionline
2010-10-23, 01:39:44
Ich finde es lustig das man als AMD Anhänger versucht zu sagen "da oder da ist leicht etwas besser geworden". Das ist nicht nur lächerlich sondern albern. Changsen Chancen hatte AMD mit HD5x, vieles haben die verbockt und diesen Bockmist ziehen die noch immer hinter sich her. Die ganze Geschichte hatten wir doch schon bei G8x. Die G7x war müll im AF und konnte auch im SSAA nicht überzeugen was die Leistung anging. Seid der G8x geht alles bei Nvidia besser, aber nicht bei den AMD Chips? Was soll das, das man seid der R600 immer wieder die gleiche Diskusion führt? Bei der X18xx (hab ich beim bekannten am laufen) hat man nie die Bildfehler bemängelt, bei der X8xx schon. Nur das man jetzt 5 Jahre über die BQ Webweit diskutiert und AMD nicht einen Finger krumm macht um an dem zustand etwas zu ändern, find ich persönlich mehr als nur "verachtend". Nicht nur die BQ ist kerzengerade bei Nvidia, Multimonitor Physik und 3D, alles spitze mittlerweile. Cuda Anwendungen gibts auch zuhauf.

Das man nun 25 Mio Müll Chips ausgeliefert hat bedeutet das man einen Ramschladen mit Pommesbudencharakter betreibt. À la Cartè bestellt man aber bei Nvidia. Nach wie wor, und man soll jetzt bloss nicht so tun, dass das Trinkgeld die Nvidia verlangt zuviel ist. Etwas mehr Strom und die BQ passt. Etwas mehr Trinkgeld und die Software passt. Solls AMD doch genauso machen, ich bin kein Augenkrebs geschädigter Konsolero wo ich sage; "Die fps muss hoch sein, alles andere Latte".

LovesuckZ
2010-10-23, 01:44:12
http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index4.php
=> http://ht4u.net/reviews/2010/msi_n460_gtx_hawk/

http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index34.php
=> letzter Graph, zwischen 6850 und 460 liegen 5%

?

/e: gut, wenn man die 6850 als Bezugspunkt nimmt sind es 6%. Aber getestet wurde mit 'ner Hawk oder steht da noch irgendwo dass sie die runtergetaktet haben?

Die GTX460 befindet sich exakt auf GTX465 Niveau. Ergo hatte sie Referenztaktrate.

Flatterball77
2010-10-23, 01:50:49
Ich finde es lustig das man als AMD Anhänger versucht zu sagen "da oder da ist leicht etwas besser geworden". Das ist nicht nur lächerlich sondern albern. Changsen Chancen hatte AMD mit HD5x, vieles haben die verbockt und diesen Bockmist ziehen die noch immer hinter sich her. Die ganze Geschichte hatten wir doch schon bei G8x. Die G7x war müll im AF und konnte auch im SSAA nicht überzeugen was die Leistung anging. Seid der G8x geht alles bei Nvidia besser, aber nicht bei den AMD Chips? Was soll das, das man seid der R600 immer wieder die gleiche Diskusion führt? Bei der X18xx (hab ich beim bekannten am laufen) hat man nie die Bildfehler bemängelt, bei der X8xx schon. Nur das man jetzt 5 Jahre über die BQ Webweit diskutiert und AMD nicht einen Finger krumm macht um an dem zustand etwas zu ändern, find ich persönlich mehr als nur "verachtend". Nicht nur die BQ ist kerzengerade bei Nvidia, Multimonitor Physik und 3D, alles spitze mittlerweile. Cuda Anwendungen gibts auch zuhauf.

Das man nun 25 Mio Müll Chips ausgeliefert hat bedeutet das man einen Ramschladen mit Pommesbudencharakter betreibt. À la Cartè bestellt man aber bei Nvidia. Nach wie wor, und man soll jetzt bloss nicht so tun, dass das Trinkgeld die Nvidia verlangt zuviel ist. Etwas mehr Strom und die BQ passt. Etwas mehr Trinkgeld und die Software passt. Solls AMD doch genauso machen, ich bin kein Augenkrebs geschädigter Konsolero wo ich sage; "Die fps muss hoch sein, alles andere Latte".

G80. Der geilste Chip den ich je in den Flossen hatte. Und ich hab hier 3 Karten die werden schön aufbewahrt.

Iruwen
2010-10-23, 01:52:00
Die GTX460 befindet sich exakt auf GTX465 Niveau. Ergo hatte sie Referenztaktrate.
Dann kann von verblasen ja mal überhaupt keine Rede sein.

EvilTechno
2010-10-23, 01:52:42
Sentionline-Bingo:

lustig ... AMD Anhänger ... lächerlich ... albern ... HD5x ... verbockt ... Bockmist ... G8x ... G7x ... müll im AF ... SSAA ... G8x ... Nvidia besser ... R600 ... X18xx ... Bildfehler ... X8xx ... BQ Webweit diskutiert ... AMD ... ändern ... "verachtend" ... BQ ... Nvidia ... Multimonitor Physik und 3D ... spitze ... Cuda ... Müll Chips.

Alle positiven Attribute bitte auf die grüne Karte eintragen, alle negativen bitte auf die rote.

Iruwen
2010-10-23, 01:55:05
Du hast das Wichtigste vergessen: Tesselation! ;)

Wodde
2010-10-23, 01:58:10
Im Grunde ist der ganze Chip ja das selbe wie die alte RV8x (2 Jahre alt!), was soll man da erwarten? Neben Treibercheats führt man jetzt Multisampling Cheats ein und Namens-schemacheats ein, um die dummen Käufer auch glauben zu machen, die 6870 wäre besser als die alte 5870 mit dem selben Chip. Der Verbrauch geht mit der kleineren Fertigung runter und auch die Leistungsaufnahme. Damit hat man in der vermeindlichen "Spitzenklasse" neue Rekordwerte in der Leistungsaufnahme inkl. flimmer AF und quasi keiner GPU anwendung. Man patcht von X absichtlichen Chipfehlern 1 weg und sagt; "wir haben AF verbessert". Man bringe einen Scheinschalter mit 1 AF Cheat in den Treiber und: ....

Hat die neue HD6x Reihe fertig. Nvidia hat man in den Boden gestampft als die die 8800GT umbenannt haben, was macht denn AMD jetzt? Die HD6870 soll ja die HD5850 ersetzen? Wo steht das? Auf der Packung auch?, ausser bei der Presse? Und in Mathe hab ich eine 1, das passt so ziemlich in keine Gleichung und jeder Mathe Lehrer gäbe bei der Rechnung eine 6.

Leute, wenn man schon eine 200€ Karte kaufen will, sollte man auf; Qualität, Support und Software achten. Und von allem hat eine GTX470 wohl mehr als genug. Nvidia hat nicht nur ein "diskusionsunwürdiges AF", sondern auch SGSSAA in allen APIs inkl. Hardware Physik und 3D, das nennt man "KUNDENSUPPORT". Es gibt keinen Punkt wo AMD gewinnt, bei der Leistungsaufnahme ja, kaufe man sich eine X600, die arbeitet genauso schrottig und verbraucht wenig.Hat man keine anderen Argumente als Watt/Dezibel?

Wann tritt man AMD endlich in den Hintern damit die Typen dieses "dummverkaufen der Kunden" erstmal von der Sollliste nimmt? Es gibt, was Gaming und Anwendersoftware angeht NICHTS, was eine HD6870 vs GTX470 oder HD6850 vs GTX460 "BESSER" macht. Ära AMD ist erstmal geschichte, wie zu G80 Zeiten. Das gibts doch nicht, das die einen Aufguss nach dem anderen eines selben Chips in 5 Jahren machen, wo doch die PC Gamer nix als bessere Qualität erwarten. Konsolen kann man optimieren, die Kiddies juckt es nicht, aber am PC muss man die Messlatte doch wohl etwas höher ansetzen können. Als Hersteller wie auch Verbraucher.

Die HD6x ist mal wieder ein Armutszeugnis der Entwickler und sollte klar boykottiert werden, und nicht "Diskutiert". Man muss erstmal das "Diskusionsunwürdige Level der Nvidia Chips" erreichen. Das hat die RV8x übrigens auch nie erreicht...

Mich regt das gerade voll auf das die nichts anderes machen als die treuen AMD Käufer immernoch zu verarschen. Mehr denn je zuvor. Find ich unfassbar dreist.

Sag mal kann es sein das du dich auf einem Feldzug gegen AMD befindest?
Mag sein das dieser Launch teilweise recht "seltsam" anmutet, aber da nehmen sich Nvidia/AMD genau gar nichts.

Ich bin mit meiner 5850 von Sapphire super zufrieden.
Sehr leise ohne Umbauten, schnell, keine nennenswerten Treiberprobleme.
Wenn ich diese nicht schon hätte, würde ich mir jetzt dennoch eine 6870 holen.
Warum?
Weil sie genau das ist, was ich für meine Zwecke benötige.
Ich komme mir in keinster Weise verarscht vor, und nun?

LovesuckZ
2010-10-23, 02:02:51
Dann kann von verblasen ja mal überhaupt keine Rede sein.

Interessant ist, dass eine 5850 bei Computerbase.de z.B. einen geringeren Vorsprung hat.
Das kann also bedeuten, dass bei Computerbase.de de die GTX460 schneller sei, wenn man eine richtige 6850 Karte, mit fairer Filtereinstellung und aktuellen Treiber verwendet.
Da kann man mal sehen, wie man ein Schein-Halo-Effekt erzeugen kann...

Sentionline
2010-10-23, 02:03:22
Für 200€ Netto muss ich etwa 4 Tage arbeiten. Ich arbeite keine 4 Tage um "Kompromisse" einzugehen. Schon gar nicht um Memory zu spielen. Mir reicht schon das ich beim Chef die fresse halten muss. Nur bin ich der Käufer, reisse ich mein Maul auf und leg die Sachen auf den Tisch.

Ob ein Spiel jetzt mit 200fps läuft oder 80fps will ich selber entscheiden. Sind die Beine länger und ist die alte leise und trinkt wenig, ist das sehr schön. Taugt die in der Hütte nix und kennt nur Toast und Nudeln/Katchup, fliegt die recht schnell raus. So zuminderst in meiner Welt. Da nehm ich lieber die 80fps Olle mit Qualitätseigenschaften wie Staubsaugen (BQ), Kiste Cola (Strom) und Bügeln inkl. Wäsche Waschen (3DVision). Im mom muss ich viel arbeiten, würde ich gelegenheit finden zum zocken, fliegt auch meine letzte ATi raus.

Letztendlich spricht man hier darüber was AMD noch verbessern kann; BQ. Schnell sind alle Chips aktuell, die Messlatte für BQ legt nach wie vor (seid 2006) Nvidia fest. Das man Watt einspaart, Kunden verarscht, die BQ dabei belässt (ausser einen [schein]Schalter in Treiber) und etwas weniger Geld verlangt ist klar, aber kein Indiz dafr, das man den geneigten Gamer etwas gutes getan hat. Das sind doch HD6870 und HD6850 käufer? Leute mit Ansprüchen? Oder haben leute mit einer 200€ AMD Karte sowas nicht?

Referenz bei DX11? Sicher nicht AMD...

Ich komme mir in keinster Weise verarscht vor, und nun?
Nix nun. Hast einen Chipmod R600 mit Spoiler. Ist wohl schnell, glaub ich dir sogar. Ein schneller Döner schmeckt mir auch manchmal [wenn ich wenig Zeit hab zu kosten] mehr als meine Nudeln einer halben Std. Denk mal drüber nach.

Bei Nvidia ist im moment; Es gibt keine Kompromisse.

Ein Quattroporte schluckt ganz schön, fährt sich aber anders als ein "Golf" :wink:

Sag mal kann es sein das du dich auf einem Feldzug gegen AMD befindest?
Ja, um die leute seid meinem Fehlkauf wach zu rütteln.

Mag sein das dieser Launch teilweise recht "seltsam" anmutet, aber da nehmen sich Nvidia/AMD genau gar nichts.
Jetzt erkärst du mir was zwischen einer 9800GTX+ und GTX280 gar nichts nimmt. Sind auch Chips einer API in 2 Jahren.

Flatterball77
2010-10-23, 02:14:42
Wieso hatte eine 6850 einen (nahe an der)6870 Biosflash? WIESO? AMD gleich schlechtes Image.;(


Gerade das schreckte mich ab. Ein Kunde weniger. (Neben dem Flimmern ein weiterer Grund) Und von DX11 fang ich mal nicht an.

LovesuckZ
2010-10-23, 02:18:31
Nein, es wurden 6850 Samples verschickt, die eine Barts XT GPU mit Barts Pro Bios hatten.
Das war absicht, um der 6850 eine Leistung zu bescheinigen, die nicht vorhanden ist. Wer wirklich denkt, dass zwei unabhängige Partner und (was bis jetzt bekannt ist) 4 unabhängige Seiten (darunter drei deutsche) Zufall sind, der irrt sich.

Flatterball77
2010-10-23, 02:19:43
Es wurden Samples verschickt der nicht einer 6850 entsprachen. OK:wink:

DrFreaK666
2010-10-23, 02:20:31
Nein, es wurden 6850 Samples verschickt, die eine Barts XT GPU mit Barts Pro Bios hatten.
Das war absicht, um der 6850 eine Leistung zu bescheinigen, die nicht vorhanden ist. Wer wirklich denkt, dass zwei unabhängige Partner und (was bis jetzt bekannt ist) 4 unabhängige Seiten (darunter drei deutsche) Zufall sind, der irrt sich.

Ach hat das AMD zugegeben?? :rolleyes:

Flatterball77
2010-10-23, 02:23:08
AMD ist für mich so tief gesunken. Denen vertrau ich nicht mehr. Immer besser darstellen mit Cheats. BQ schlechter als NV (Anspielung NV HQ) Preise letzte Zeit böse. Wer kauft sich jetzt ATI?

Wer ausser Ökotanten? WER? OK, gibt welche, aber nur solche die nicht wissen das NV jetzt auch billig Hardware verkauft.

DrFreaK666
2010-10-23, 02:25:28
AMD ist für mich so tief gesunken. Denen vertrau ich nicht mehr. Immer besser darstellen mit Cheats. BQ schlechter als NV (Anspielung NV HQ) Preise letzte Zeit böse. Wer kauft sich jetzt ATI?

Wer ausser Ökotanten? WER?

Gute Frage. Ich würde mir keine kaufen.
Aber mir reicht ja auch meine HD5850:biggrin:

USS-VOYAGER
2010-10-23, 02:27:54
AMD ist für mich so tief gesunken. Denen vertrau ich nicht mehr. Immer besser darstellen mit Cheats. BQ schlechter als NV (Anspielung NV HQ) Preise letzte Zeit böse. Wer kauft sich jetzt ATI?

Wer ausser Ökotanten? WER? OK, gibt welche, aber nur solche die nicht wissen das NV jetzt auch billig Hardware verkauft.

ich... sobald es 6970/6950 zu kaufen gibt wird eine bestellt. meine 4870 gibt so langsam den geist auf läuft nicht mehr in ihrem standart takt.

Flatterball77
2010-10-23, 02:29:33
Gute Frage. Ich würde mir keine kaufen.
Aber mir reicht ja auch meine HD5850:biggrin:

Schön das einer auch mal was rafft hier. Man muss auch mal sehen das NV hier Kampfpreise geht. Und von wegen NV geht kaputt. Eher geht AMD kaputt.:wink:

Ich sag nochmal Gigabyte 470 SOC. Schnäppchen für mich:D

DrFreaK666
2010-10-23, 02:31:46
Schön das einer auch mal was rafft hier. Man muss auch mal sehen das NV hier Kampfpreise geht. Und von wegen NV geht kaputt. Eher geht AMD kaputt.:wink:

Ich sag nochmal Gigabyte 470 SOC. Schnäppchen für mich:D

Wäre nv schneller gewesen, dann hätte ich jetzt eine GTX470 in meinem Rechner. Da ich aber nciht warten konnte (SGSSAA) ist es eine AMD Radeon

Flatterball77
2010-10-23, 02:33:18
SGSSAA gibts nur bei NV auch unter DX10/11:wink:

Sentionline
2010-10-23, 02:34:48
SGSSAA gibts nur bei NV auch unter DX10/11:wink:
Das haust du Platt in die Runde. Schäm dich.

Flatterball77
2010-10-23, 02:36:05
Naja, ich konnte warten und greife jetzt ab;D

LovesuckZ
2010-10-23, 02:41:07
Ach hat das AMD zugegeben?? :rolleyes:

AMD hat auch nicht zugegeben, dass sie die Standard-Bildqualität der ansiotropen Filterung reduziert haben, um mehr Leistung gegenüber Cypress und nVidia zu erreichen. Nein, laut Dave Baumann iwäre es ein Geschenk an die Käufer von Barts (und bald Evergreen), da sie nun die freie Wahl haben, die neue schlechtere Qualität oder die alte Standardqualität ohne Verlust der Spiele-Optimierungen und XFire-Unterstützung einzustellen.

Wenn du also denkst, dass AMD nicht auf Vorsatz gehandelt hat, dann kann ich dir leider nicht helfen. Manchmal muss man sich aber auch erheben. Denn dieses (hoffentliche nicht bezahlte) Pro-AMD Verhalten hat zu diesem Launch geführt.

Flatterball77
2010-10-23, 02:44:38
Naja, man muss nur beobachten dann lernt man. Ich bin keineswegs ein Fanboy, aber auf Dinge achten sollte man können:wink: Ich bin mit meiner Politik bisher gut gefahren, auch wenn es WAYNE ist:wink:

DrFreaK666
2010-10-23, 02:47:28
SGSSAA gibts nur bei NV auch unter DX10/11:wink:

Leider war nv aber zu langsam.

...
Wenn du also denkst, dass AMD nicht auf Vorsatz gehandelt hat, dann kann ich dir leider nicht helfen. Manchmal muss man sich aber auch erheben. Denn dieses (hoffentliche nicht bezahlte) Pro-AMD Verhalten hat zu diesem Launch geführt.

Solche Dinge können schonmal passieren