PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Die HD5850/70 - begeistert oder enttäuscht?


Schlammsau
2009-09-26, 11:19:11
Moin,
Na was denkt ihr über die neue Radeon Generation?

Spasstiger
2009-09-26, 11:22:36
Performance minimal unter den Erwartungen, Bildqualifeatures über den Erwartungen (die Erwartungen bevor Details wie das Supersampling-AA durchgesickert sind).

Gast
2009-09-26, 11:26:25
Sammel doch erst mal Auswahlpunkte für den Poll! :)

Gagula
2009-09-26, 11:27:50
[X] Gefällt mir, genau das was ich erwartet habe.

Botcruscher
2009-09-26, 11:32:39
Geschwindigkeit ist ok, könnte besser sein. Der Rest ist eh nebensächlich und wird mitgenommen.
Von daher:

[x] Ganz nett, warte auf G300 um die Karte überhaupt bewerten zu können.

Vor den Refreshkarten ala HD5890 geb ich eh kein Geld aus.


PS: Und zu dem AF-Geheul. Ich hab mit 12 Farben und "Klötzen" angefangen... Die (optische) Qualität war noch nie so gut wie heute und ich bin lange dazu übergegangen die Spiele nach ihrem Inhalt zu bewerten.

Daredevil
2009-09-26, 11:34:27
Performance minimal unter den Erwartungen, Bildqualifeatures über den Erwartungen (die Erwartungen bevor Details wie das Supersampling-AA durchgesickert sind).
Genau so denke ich auch.
Ich habe mehr Speed erwartet, war aber von den Bildqualitätsverbesserungern überrascht. Würde man die Bildqualitätssteigerungen nun wieder entfernen wäre folglich die Geschwindigkeit höher. Ein Teufelskreis!

boxleitnerb
2009-09-26, 11:36:27
Bin ich der einzige, der Angst vor einem Fanboy/Flamethread hat?

Etwas enttäuscht...der Sprung zur schnellsten Singlechipkarte der letzten Generation ist mir zu klein für Nextgen.
Hat vermutlich damit zu tun, dass die erste Nextgenkarte in der Vergangengheit deutlich schneller war. 9700Pro, 8800GTX. Gut, anfangs lag der G80 auch nur 60% vor 1950XT, aber das ist immer noch mehr als 5870 im Schnitt vor GTX285 liegt.

Dass man nicht alle Schwächen der vorigen Karten ausgemerzt hat, finde ich auch nicht so gut. Gerade weil man erster war, hätte man nicht nur eine sehr gute, sondern eine Bombenkarte launchen können. Bin wohl zu verwöhnt :)

Neocroth
2009-09-26, 11:37:24
[x] habe mir etwas mehr erwartet

hätte damit gerechnet, dass man die 4870X2 durchgehend hinter sich lässt - immerhin doppelte Einheiten und mehr Takt. Vllt lässt sich ja dieses Mal doch etwas mehr über neue Treiber rausholen :freak:
Aber insgesamt ist die Karte ein gutes Gesamtpaket. Ich werde mir in 6-8 Wochen einen neuen PC kaufen - mal sehen was man bis dahin von nVidia bzw. von Hemlock hört.

chiller
2009-09-26, 11:43:46
Naja, hab mir etwas mehr erwartet.

mapel110
2009-09-26, 11:53:45
Bin enttäuscht, hab mir deutlich mehr erwartet.

Nicht unbedingt in Sachen Performance, aber in Sachen Bildqualität. Die vorab aufgetauchte Blume machte Hoffnung, aber leider wird man nur verarscht. Minimalste Verbesserung in einem Filter-Modus, den man eigentlich auf so einer Karte gar nicht nutzen sollte. Und im AI-OFF-Modus offenbar auch keine Änderung. Na danke.

Man stelle sich vor, nvidia packt auch nur EIN sinnvolles neues Bildqualitätsfeature, dass man in aktuellen Spielen nutzen kann, in GT300. Dann kann ATI ganz einpacken; für mich zumindest.

SGSSAA ist nett, aber damit das AF zu verbessern ist wie man so schön sagt, mit Kanonen auf Spatzen geschossen. Und Obendrein derzeit unmöglich in DX10-Titeln.

Mark3Dfx
2009-09-26, 11:55:36
Gesamturteil ist erst im Vergleich mit dem G300 möglich
...-> Bahnhof

Iceman346
2009-09-26, 11:59:16
Performance minimal unter den Erwartungen, Bildqualifeatures über den Erwartungen (die Erwartungen bevor Details wie das Supersampling-AA durchgesickert sind).

Ziemlich genau das.

Was mir wirklich fehlt sind mehr aussagekräftige SSAA Benchmarks um einzuschätzen wie oft das Feature brauchbar ist.
Wenn die Karte kaufbar wird und ~300€ erreicht werd ich wohl sonst zuschlagen.

w0mbat
2009-09-26, 12:24:40
[x] Naja, hab mir mehr etwas erwartet.

MRM
2009-09-26, 12:27:39
Von der Leistung her hab ich auch ein Tick mehr erwartet - bei anderen Punkten ( Stromverbrauch zB ) bin ich eher positiv überrascht. - Hebt sich irgendwie auf, darum was ich erwartet habe ;)

Crazy_Chris
2009-09-26, 12:48:11
Hatte gehofft das auch an der Bildqualität gearbeitet wird. :usad:

w0mbat
2009-09-26, 12:58:50
Hatte gehofft das auch an der Bildqualität gearbeitet wird. :usad:

Wurde doch auch :rolleyes:

AnarchX
2009-09-26, 13:11:29
[x] Naja, hab mir mehr etwas erwartet.

Trotz massiv gesteigerter Rohleistung und Effizienzsteigerungen (Dual-Rasterizing) auf dem Papier, kommt in den Spielen ein nur ein mittelmässiger Speed-up zu Tage. Hoffentlich kann hier noch ein zukünftiger Treiber etwas tun.

Dieser geringe Speed-up lässt auch die Preisleistung etwas schlecht dastehen, gerade im Vergleich zum HD 4800 Series Launch.

Bei der Bildqualität hat man sinnvolle Verbesserungen eingeführt, wo aber noch weiteres Potential besteht, was dann AMD hoffentlich einem nicht all zu fernen Architekturbruch aufgreift.

Im Endeffekt wird man hier die kommenden Monate beobachten müssen, wie sich D3D11 entwickelt und wie nun Nvidias Antwort aussieht.

Schlammsau
2009-09-26, 13:18:44
[x] Gefällt mir, genau das was ich erwartet habe.

Vor allem die 5850 gefällt mir.
Soweit ich das nach den Vorab- Benchmarks, dem wahrscheinlichem Stromverbrauch, und dem anvisiertem Preis von etwas über 200€ beurteilen kann.

Jetzt müssen die Kärtchen nur noch lieferbar sein dann gibts den Zuschlag! :)

Spasstiger
2009-09-26, 13:20:52
Hatte gehofft das auch an der Bildqualität gearbeitet wird. :usad:
Man hat das AF jetzt so flimmerarm hinbekommen wie bei Nvidia unter quality und schiebt im Gegensatz zu NV keine sichtbaren Bugwellen vor sich her. AMD zahlt dafür einen Preis, denn das AF der HD 5870 kostet prozentual mehr Leistung als bei der HD 4890 trotz doppelter Texelfüllrate.
An high quality von NV kommt man zwar nicht ran, aber die breite Masse, die ohnehin nur mit quality zockt, wird beim Wechsel auf eine Radeon (HD 5870) keinen Grund mehr zum Meckern haben.
Übrigens ist auch die OpenGL-Referenzimplementierung von AF nicht perfekt: http://www.3dcenter.org/3dtools/filter-tester

Und SGSSAA ist ein Feature, das von einigen Bildquali-Fanatikern schon lange gefordert wird und nun endlich von AMD angeboten wird. Wenn das keine Verbesserung der max. möglichen Bildqualität darstellt, dann weiß ich auch nicht.

Winter[Raven]
2009-09-26, 13:25:58
Eindeutig mehr erwartet....

Nutzbarkeit von SGSSAA ist nett, aber das wäre für MICH aber das einziege sinnvolle Feature was für mich lohnen würde.... AF immer noch unter NV.... Abschaltung der Optimierungen Fehlanzeige... Mehrmonitorsupport ist unwichtig....

Endfazit ist nur mit G300 möglich, bis jetzt aber eine Entäuschung...

Advanced
2009-09-26, 13:27:41
[x] Gefällt mir, genau das was ich erwartet habe.

Ich habe eine Single-GPU Grafikkarte "etwa" auf dem Leistungsniveau alktueller Dual-GPU Grafikkarten erwartet.
Da das oft genug zutrifft und es zusätzlich Neuerungen wie SSAA, Eyefinity, DX11, extrem niedrige Idle-Werte usw. gibt, bin ich persönlich sehr zufrieden mit den neuen HD58x0 Grakas.
Sobald sie noch ein bisschen im Preis sinken, werde ich zuschlagen.

Schlammsau
2009-09-26, 13:29:06
Warum mit dem Fazit auf die Konkurrenz warten?

Ihr habt doch bestimmt gewisse Erwartungen gehegt, sind sie eingetroffen oder nicht?

Tarkin
2009-09-26, 13:30:00
[X] Gefällt mir, genau das was ich erwartet habe. (mit Tendenzen zur Begeisterung)

Tolle Geschwindigkeit,
Verbrauch in IDLE ein Wahnsinn!
Verbrauch unter Last WEIT weniger als erwartet,
Kühlung sehr effizient,
Begrüßenswerte BQ-Verbesserungen,
Geniale 8xMSAA Speed,
Absolut geniales OC Verhalten (http://www.xtremesystems.org/forums/showpost.php?p=4033777&postcount=9)
Sehr guter Preis!

Ein hervorragendes Stück Hardware! Kommt in den nächsten Wochen in meinen Rechner.

myrken
2009-09-26, 13:39:42
[X] Gefällt mir, genau das was ich erwartet habe.

Ich schätze, die 5850 wird meine 4850 demnächst ersetzen. Die große Schwester wird wohl nicht in mein PC-7 passen, da die Dämmbox für 3 Platten im Weg sein wird.

Raff
2009-09-26, 13:43:35
[x] Gespalten

Die Spieleleistung ist etwas niedriger als ich erwartete, das SGSSAA wiegt jedoch überraschend vieles auf. Insofern: Erwartungen übertroffen.

MfG,
Raff

SGT.Hawk
2009-09-26, 13:53:48
[x] Ist genauso, wie ich es erwartet habe.

Ich bin sowieso auf der Suche für ein neues System im Herbst, ich fürchte da kann ich nicht mehr bis zum nächsten Jahr warten und deswegen kann es nur eine ATI werden.

J0ph33
2009-09-26, 13:55:56
hab etwas mehr etwas erwartet, wenn ich jetzt noch wüsste, was etwas genau ist ...:|

mapel110
2009-09-26, 14:37:40
Man hat das AF jetzt so flimmerarm hinbekommen wie bei Nvidia unter quality und schiebt im Gegensatz zu NV keine sichtbaren Bugwellen vor sich her.
Gibts davon Videos, dass jetzt auf einmal Q wesentlich schlechter sein soll als AI.low?
Welche Seite hat das überhaupt geschrieben?

san.salvador
2009-09-26, 14:46:23
[x] Ist mir egal

RoughNeck
2009-09-26, 15:01:06
Über den Erwartungen.
Bin ganz ehrlich überrascht von der 5800 und mit dem Eyefinity werden jetzt auch die Enthusiasten ihre Freude haben. Das wichtigste ist aber, der Idle Verbrauch mit mehreren TFT, den der bleibt bei 20W.
Das war für mich der entscheidende Kaufgrund.

Habe mir schon zwei 5870 und drei TFT bestellt.

Spasstiger
2009-09-26, 15:35:28
Gibts davon Videos, dass jetzt auf einmal Q wesentlich schlechter sein soll als AI.low?
Welche Seite hat das überhaupt geschrieben?
Wo ist denn die Rede von "wesentlich" schlechter?
Hier gibts Videos, leider nur mit HQ bei Nvidia und effektiv Catalyst A.I. off bei AMD:
http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php

Und wie man so liest, führt die trilineare Optimierung, die Nvidia immer bei quality aktiv hat, zu einer Bugwellenbildung. Bei der HD 5870 ist es mit Catalyst A.I. auf Standard wohl anwendungsabhängig, ob eine trilineare Optimierung aktiv ist. Im Schnitt soll die Bildquali bei Treiberdefault wohl bei einer HD 5870 minimal besser als bei Nvidia sein. Relevant ist das für die, die wirklich auf die Bildqualität schauen, natürlich nicht, da HQ bei Nvidia fast nichts kostet. Es geht nur drum, dass Leute was in den falschen Hals bekommen, die sowieso immer nur Treiberdefault fahren. Die nutzen dann in vielen Spielen gar kein AF, bekommen aber in Forendiskussionen mit, dass die Radeon HD 5870 anscheinend abartig flimmert.

anddill
2009-09-26, 15:43:00
[x] Die Umfrage kommt viel zu früh.

Gummikuh
2009-09-26, 16:37:22
Ja eigentlich schon.Ist ja gerade erst rausgekommen, da kann man immer noch hoffen, dass sich bei der Leistung etwas ändert.

Aber aufgrund des gesehenen:

[x] Gefällt mir, genau das was ich erwartet habe.

Hatte erwartet, dass die HD5870 mehr Strom verballert.Vor allem im Idle ist die Karte OK und im 3D, gut irgenwoher muss die Leistung ja kommen.Der Aufschlag ist aber gegenüber der HD4890 akzeptabel.

Das an der Bildqualität zumindest bischen verbessert wurde ist schonmal ein guter Anfang und gegenüber der Vorgängergeneration ein willkommener Bonus.

PCGH_Raffael
2009-09-26, 18:11:13
Wo ist denn die Rede von "wesentlich" schlechter?
Hier gibts Videos, leider nur mit HQ bei Nvidia und effektiv Catalyst A.I. off bei AMD:
http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php

Und wie man so liest, führt die trilineare Optimierung, die Nvidia immer bei quality aktiv hat, zu einer Bugwellenbildung. Bei der HD 5870 ist es mit Catalyst A.I. auf Standard wohl anwendungsabhängig, ob eine trilineare Optimierung aktiv ist. Im Schnitt soll die Bildquali bei Treiberdefault wohl bei einer HD 5870 minimal besser als bei Nvidia sein. Relevant ist das für die, die wirklich auf die Bildqualität schauen, natürlich nicht, da HQ bei Nvidia fast nichts kostet. Es geht nur drum, dass Leute was in den falschen Hals bekommen, die sowieso immer nur Treiberdefault fahren. Die nutzen dann in vielen Spielen gar kein AF, bekommen aber in Forendiskussionen mit, dass die Radeon HD 5870 anscheinend abartig flimmert.

Gemäß unserer Tests filtert die HD 5870 in der Praxis nie besser als eine aktuelle Geforce, von daher halte ich das mal für ein Gerücht oder einen Einzelfall. ;) In populären "Benchmark-Spielen" wie Crysis, UT3 oder Fallout 3 ist klar Banding sichtbar. Das AF der HD 5800 wird aber nochmal von uns beleuchtet – spätestens mit Nvidias GT300.

MfG,
Raff

Gast
2009-09-26, 18:30:29
Ich finde, das kann man jetzt noch nicht sagen.
Es fehlt noch an Ergebnissen zur 5850 und der Treiber ist noch nicht optimal.

Mein Fazit werd ich eigentlich erst mit dem 3. offiziellen Treiber nach Release ziehen, vorher kanns noch auf oder bergab gehen. ;)

Hinzu kommen weitere Unklarheiten: Kühlung, Taktraten. Je nach Hersteller kanns besser oder schlechter werden.
Wenn ich allerdings bedenke, das die HD5850 in einigen Tests nur etwa 20% vor einer 4890 liegt, ist das noch arg knapp. Schließlich gibts schon länger Modelle mit Taktraten wie 950/1050 im Handel und die sind immer noch günstiger und kommen weitaus näher ran als die im Test genutzten Karten.

Sobald sich die Preise einpendeln und die Lautstärke nicht zu hoch ist, sehe ich jedenfalls eine gute Ausgangsbasis, der verringerte Idle Verbrauch ist eine sehr gute Sache, gerade bei solch leistungsfähigen Karten.

Malabolge
2009-09-26, 18:44:28
Eigentlich hätte ATI sich die Karte(n) sparen können.

Sie treten ja jetzt schon gegen imaginäre "Geisterkarten" , die es nicht gibt an. ( Noch nicht, wohl aber erst richtung Januar)

Speed,Leistungsaufnahme,Leistung , RGSSAA, Mehrmonitorsupport,DX11, ...

ALLES QUATSCH !! eine (!) GT3xx ist sicher(?) x-Mal schneller !

( Aber Schneewitchen hinter den Sieben Bergen ,...)
Warum können hier einige einfach nicht den Stand der Dinge sehen.
Zum gegenwärtigen Zeitpunkt hat halt mal ATI die "Krone" ( im Singelchip)

Und dann der AF-Shocker !! Wer ne ATI-Karte nur ansieht( nur die HW , nicht das Bild) sieht schon Bugwellen, Flimmern
- Wisst ihr was wenn die GT3xx erscheint erwarte ich von den selben Leuten auch so viel Kritik und eine so "strenge" Bewertung

Aber da wird wieder alles X-Mal schneller , in 1000Fach AF wirds weniger Flimmern,
mit ncheater kann mann dann nie geteste (gewollte) Modi freischalten. Egal , wie gross der PerfomanceHIT


Ach was mich ich hier eigentlich - Perlen vor die S...e


[x] Hätte ein wenig mehr sein Können , aber auch so Sptizenleistung und Qualität zum guten (!) Preis

Gast
2009-09-26, 18:49:45
Sie treten ja jetzt schon gegen imaginäre "Geisterkarten" , die es nicht gibt an. ( Noch nicht, wohl aber erst richtung Januar)

Das ist eigentlich ne lustige Geschichte.
Bei solchen Diskussionen wird gerne vergessen, das in den paar Monaten natürlich auch noch weiter Entwicklung betrieben werden kann. Wenn also was schnelleres kommt, heißt das ja nicht, das ne 5870 so bleibt wie sie jetzt ist. Vielleicht kommt dann noch ne 5890 dazu. ;)

Das Argument des Preises nicht zu vergessen. Selbst wenn eine Karte ein Überflieger wäre, für ein paar hundert Euro würd ich sie trotzdem nicht nehmen.. da es in zu kurzen Abständen zu große Verbesserungen gibt.

Backet
2009-09-26, 18:51:45
Ich habe etwas mehr erwartet.


Neige im Moment dazu wieder zu Nvida zu wechseln, sollte der GT300 Refresh raus sein!

Majestic
2009-09-26, 18:59:40
[X] Gefällt mir, genau das was ich erwartet habe.

Doch kaufen werde ich sie oder die nächste Generation von Nvidia erst wenn die Preise sich bei ~200€ oder darunter einpendeln. Im moment bin ich mit der Leistung meiner HD4870@OC mehr als zufrieden (eher würde ich den Unterbau in absehbarer Zeit erneuern).

Aquaschaf
2009-09-26, 19:22:42
SSAA war eine positive Überraschung. Mit mehr Performance als die Karten liefern habe ich nicht gerechnet. Die Verbesserung des AFs ist zu begrüßen, aber war auch das mindeste was sie in dem Bereich tun mussten. Nachdem ich gerade wieder in meinen Rechner statt einer 9800GT eine 4850 eingebaut habe ist mir die schlechte, bzw. inkonsistente Filterqualität sehr deutlich ins Auge gesprungen.

Am meisten interessiert mich wie brauchbar ATIs OpenCL-Implementierung ist, wenn sie demnächst hoffentlich öffentlich verfügbar ist. Ich könnte mir vorstellen dass die Karten für GPGPU-Anwendungen richtig abgehen (wenn der Treiber gut genug ist) und würde das gerne ausprobieren. Falls sich mit OpenCL brauchbar arbeiten läßt, dann bin ich versucht mir in den nächsten Monaten eine zuzulegen.

The_Invisible
2009-09-27, 08:39:06
[x] Naja, hab mir mehr etwas mehr erwartet.

vor allem in sachen speed, manchmal hat sie doch schon knapp mit der gtx 285 zu kämpfen. stromverbrauch und bq überzeugt mich seit gt200 auch nicht mehr und sollte eher standard sein.

mfg

Schlammsau
2009-09-27, 11:09:19
[x] Naja, hab mir mehr etwas mehr erwartet.

vor allem in sachen speed, manchmal hat sie doch schon knapp mit der gtx 285 zu kämpfen. stromverbrauch und bq überzeugt mich seit gt200 auch nicht mehr und sollte eher standard sein.

mfg

Mit verlaub, aber wo kämpft die 5870 mit der GTX285? Sogar die 5850 soll schneller als sie sein. Und jetzt nehm nicht ein oder zwei Games, wo anscheinend der Treiber noch nicht rund läuft.

Lightning
2009-09-27, 11:31:32
Etwas besser als erwartet (was noch nicht automatisch bedeutet, dass es mir gefällt ;)). Ausschlaggebend dafür ist das mögliche SGSSAA, wobei die anderen Detailverbesserungen auch in Ordnung sind. Die Performance ist im erwarteten Bereich.

Insgesamt gefällt mir Nvidias Paket bis zur aktuellen Generation trotzdem noch etwas besser, aber mal abwarten, was der GT300 bringen wird.

Gouvernator
2009-09-27, 11:33:40
[x] Naja, hab mir mehr etwas erwartet.

Zu viele halbe Sachen. Auf einmal SSAA und dann kein perfektes AF dazu?! Wieso kein SSAA für alle anderen Karten? Multimonitor wieso nur Display Port?! Wenn man es richtig machen will dann bitte schön drei DVI Ports damit man wirklich alle Monitore und Konfigurationen abdecken kann sprich CRT/TFT Mischungen usw. Kein Menschn braucht gleich 6 DP Ports, stattdessen würden 3x DVI vollkommen reichen. Und zwar auf allen Karten nicht nur auf teueren 2Gb Versionen.
Alles nur halbherzige Sachen die mich vermuten lassen das diese nette Möglichkeiten irgendwann fallen gelassen werden, bzw. zeigen das jemand mehr auf PR geachtet hat als auf die tatsächliche Nutzung.

Schlammsau
2009-09-27, 11:37:32
Gibt es keine DP zu DVI oder HDMI Adapter?

Raff
2009-09-27, 11:38:22
Mit verlaub, aber wo kämpft die 5870 mit der GTX285? Sogar die 5850 soll schneller als sie sein. Und jetzt nehm nicht ein oder zwei Games, wo anscheinend der Treiber noch nicht rund läuft.

Wenn die Karte durchschnittlich 15-20 Prozent vor einer GTX 285 liegt, dann wird's logischerweise einige Fälle geben, wo sich die HD 5870 kaum absetzen kann. Ich bin mal so lieb und geb dir auch Bei-Spiele:

CoD: WaW: http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=8
GTA 4: http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=12

Da gibt's nix schönzureden.

MfG,
Raff

Botcruscher
2009-09-27, 11:41:13
@Raff

Habt ihr Tests mit Eyefinity gemacht?

reunion
2009-09-27, 11:41:13
Gibt es keine DP zu DVI oder HDMI Adapter?

Natürlich, kein Problem.

Schlammsau
2009-09-27, 11:44:52
Wenn die Karte durchschnittlich 15-20 Prozent vor einer GTX 285 liegt, dann wird's logischerweise einige Fälle geben, wo sich die HD 5870 kaum absetzen kann. Ich bin mal so lieb und geb dir auch Bei-Spiele:

CoD: WaW: http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=8
GTA 4: http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=12

Da gibt's nix schönzureden.

MfG,
Raff

Zumindest CB kommt bei CoD5 auf ein ganz anderes Ergebniss!
Wie auch immer, es kann durchaus sein, dass der nächste oder übernächste Treiber, die Performance bei denau diesen Spielen noch deutlich steigern kann, weil er eben noch nicht rund läuft.

Natürlich, kein Problem.

Weiss ich, aber welches Problem hat dann Gouvernator damit?

Botcruscher
2009-09-27, 11:45:10
[x] Multimonitor wieso nur Display Port?!

Kosten, Größe und technische Möglichkeiten des DP. Einfach mal den Artikel bei Wiki dazu lesen. Für alles andere gibt es Adapter. Mit DVI geht es einfach nicht.

Zumindest CB kommt beo CoD5 auf ein ganz anderes Ergebniss!


Imo schlägt da der BUG zu. Die Karte taktet sich auf die Werte der 4870. Sollte man mal überprüfen.

Gouvernator
2009-09-27, 11:51:48
Man kann zwar Adapter benutzen das ändert aber nichts daran das maximal 2 DVI-D Displays unterstützt werden bzw. VGA.

Botcruscher
2009-09-27, 11:56:42
Man kann zwar Adapter benutzen das ändert aber nichts daran das maximal 2 DVI-D Displays unterstützt werden bzw. VGA.

Und jetzt überlege mal warum das so ist... und warum gerade DP verwendet wurde.;)

Gast
2009-09-27, 11:57:38
Wenn die Karte durchschnittlich 15-20 Prozent vor einer GTX 285 liegt, dann wird's logischerweise einige Fälle geben, wo sich die HD 5870 kaum absetzen kann. Ich bin mal so lieb und geb dir auch Bei-Spiele:

CoD: WaW: http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=8
GTA 4: http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=12

Da gibt's nix schönzureden.

MfG,
Raff

was sind des das für beispiele? selbst eine gtx295 kann sich nicht absetzten.

Reneeeeeee
2009-09-27, 12:20:37
was sind des das für beispiele? selbst eine gtx295 kann sich nicht absetzten.


genau das wollte ich auch gerade schreiben ;)


Ich werde mir definitiv die 5870/90 kaufen aber noch bißchen warten bis der preis sinkt :)

dargo
2009-09-27, 12:29:06
was sind des das für beispiele? selbst eine gtx295 kann sich nicht absetzten.
Tomaten auf den Augen? :)

In CoD und 2560x1600 4xMSAA/16xAF liegt die GTX295 ~55% vor der GTX285 und HD5870. Bei GTA IV limitiert die GTX295 die CPU oder das SLI-Profil ist nicht so pralle.

HD-Ronny
2009-09-27, 12:36:51
[x] Gefällt mir, genau das was ich erwartet habe.

Grosses Kaufargument : Der Idle Verbrauch. Ordentlich Mehrleistung gegenüber der HD48x0 Serie. Besseres AF. Werde auf die 5850 switchen weil sie das bessere P/L bietet.

Gast
2009-09-27, 12:59:04
Tomaten auf den Augen? :)

In CoD und 2560x1600 4xMSAA/16xAF liegt die GTX295 ~55% vor der GTX285 und HD5870. Bei GTA IV limitiert die GTX295 die CPU oder das SLI-Profil ist nicht so pralle.


ok CoD hab ich übersehen. Man sollte dann aber schon mit einer hd4890 vergleichen. Denn es gibt immer wieder Ausreißer, wo das eine oder andere Spiel eine Grafikkarte besonders liegt. Bei GTA ist es wohl genauso.

Es gibt auch genau das GEgenteil: in ARMA2 ist eine hd5890 fast doppelt so schnell wie eine gtx282.

Aber im Spieledurchschnitt ist eine hd5890 wohl mind. 30% vor einer gtx285.

Raff
2009-09-27, 13:07:53
Aber im Spieledurchschnitt ist eine hd5890 wohl mind. 30% vor einer gtx285.

Nö, aktuell sind's im Schnitt eher 20 Prozent; das zieht sich durch meherere Tests, die mit aktuellen Treibern gefahren wurden. Aber das wird sich mit shaderlastige(re)n Titeln in Zukunft sicher ändern. Natürlich kann man auch heute mit Rosinenpickerei einen anderen Schnitt um 30 bis 40 Prozent selektieren, aber das ist nicht objektiv.

MfG,
Raff

reunion
2009-09-27, 13:13:51
Nö, aktuell sind's im Schnitt eher 20 Prozent; das zieht sich durch meherere Tests, die mit aktuellen Treibern gefahren wurden. Aber das wird sich mit shaderlastige(re)n Titeln in Zukunft sicher ändern. Natürlich kann man auch heute mit Rosinenpickerei einen anderen Schnitt um 30 bis 40 Prozent selektieren, aber das ist nicht objektiv.

MfG,
Raff

Bei euch ist selbst eine GTX295 nur ~25% vor einer GTX285. Das finde ich ziemlich seltsam.

Gast
2009-09-27, 13:17:19
Nö, aktuell sind's im Schnitt eher 20 Prozent; das zieht sich durch meherere Tests, die mit aktuellen Treibern gefahren wurden. Aber das wird sich mit shaderlastige(re)n Titeln in Zukunft sicher ändern. Natürlich kann man auch heute mit Rosinenpickerei einen anderen Schnitt um 30 bis 40 Prozent selektieren, aber das ist nicht objektiv.

MfG,
Raff


Rosinenpickerei? Hast du dir auch mal andere Tests angeschaut? Ich persöhnlich vertraue da nicht auf einen einzelenen Test. Die Masse machts. Und ich komme, wenn ich mir verschiedenen Reviews anschauen auf mind. 30%! Und ich denke, dass wird sich bei zuküftigen Spielen eher in Richtung 40-50% ändern.

dargo
2009-09-27, 13:30:01
Aber im Spieledurchschnitt ist eine hd5890 wohl mind. 30% vor einer gtx285.
Keine Ahnung, für mich ist es momentan uninteressant da bei einer neuen Generation oftmals Leistung in den Treibern brach liegt. Ich gehe davon aus, dass der Vorsprung auf die GTX285 in 2-3 Monaten wesentlich ansteigt.

Lyka
2009-09-27, 13:31:45
ich freu mich.... da meine Lieblingskarte die 4770 nun noch immer kaum zu bekommen war, lohnt sich das Update nun mal... gerade bei dem Stromverbrauch (und Singleslot)

Mal schauen, wie es zu Weihnachten aussieht (fingerkreuz)

Gast
2009-09-27, 13:34:52
Keine Ahnung, für mich ist es momentan uninteressant da bei einer neuen Generation oftmals Leistung in den Treibern brach liegt. Ich gehe davon aus, dass der Vorsprung auf die GTX285 in 2-3 Monaten wesentlich ansteigt.

Ja das kann ich durchaus verstehen. Für jemanden, der bereits eine g200 oder eine rv770 Gragikkarte besitzt, ist es natürlich schwer Argumente zu finden. Nichtsdesotrotz ist die hd5870 keine schlechte Karte, wie ich finde, ganz im Gegenteil. Sie ist momentan einfach die schnellste Singlekarte. Hat einen hervorragendnen Idle-Verbrauch. Und ist zudem noch bezahlbar.

Wenn aber jemand Zeit hat, sollte er eventuel auf den g300 warten, weil man dann mehr Auswahl hat und zudem die Preise sinken werden.

tombman
2009-09-27, 13:50:59
[x] Naja, hab mir etwas mehr erwartet.

1.) Zuwenig Abstand zu GTX285
2.) Wird zu oft von GTX295 und sogar HD4870X2 geschlagen
3.) Flimmer-AF
4.) An CF genau NIX geändert, keine Profilverwaltung
5.) Number Crunshing stark, aber schon wieder Probleme die Leistung auf die Straße zu bringen (=games)- ganz nach alter ATI-Tradition
6.) Mit Eyefinity können sie wen anderen verarschen- Balken und nativ DP TFTs Pflicht :ugly:

Positives gibts aber auch:

Idle Power = RESPEKT!
GFlops = RESPEKT!
Preis = Sehr gut!

Summa summarum bleibt eine objektiv leichte Enttäuschung, da IMO next-gen Karten sich DEUTLICHER vor prev-gen Karten absetzen sollten.

Subjektiv bin ich zwiegespalten.

Wäre HD5 schneller und hätte besseres CF, wäre es für mich interessanter und ich liefe Gefahr überstürzt zu kaufen- um dann bei erscheinen
des GT300 ordentlich Geld zu verlieren (Verkauf-Neukauf) ;)

Dh, ich bin einerseits über die Leistung enttäuscht, andererseits auch froh, weiterhin bei Nvidia bleiben zu können, welche für mich sowieso DIE Enthusiasten-Firma im Bereich 3D ist :)
Nvidias unterschwellig kommunizierte Philosophie und der Charakter von CEO Jen-Hsun Huang (sich mit Intel anlegen und emotional sein FTW!) passen besser zu mir ;D

p.s.: WEHE, der GT300 wird nix!

Benedikt
2009-09-27, 13:56:44
[x]Gefällt mir, genau das was ich erwartet habe.

Jetzt noch mit silent-Kühllösungen, und ich bin mit von der Partie. Aber - ich weiß - das kann noch dauern. :frown:

The_Invisible
2009-09-27, 14:07:04
Mit verlaub, aber wo kämpft die 5870 mit der GTX285? Sogar die 5850 soll schneller als sie sein. Und jetzt nehm nicht ein oder zwei Games, wo anscheinend der Treiber noch nicht rund läuft.

naja, wurde schon genannt, es ist eben viel zu wenig um mir einen umstieg zu rechtfertigen, aber sie ist die schnellste single-karte, daran will ich gar nichts rütteln.

@tombman
das glaub ich irgendwie gar nicht, dass du dir jetzt min 3 monate lang NICHT mit dem schnellsten zufrieden gibts bzw geben wirst ;D

mfg

ShadowXX
2009-09-27, 14:13:53
[x] Naja, hab mir mehr etwas erwartet.

Die Karte liegt leider überall unter meiner Erwartungen.
Für die GFlop-Power und dafür das ATI endlich mal ordentlich TMUs und ROPs hat springen lassen bringt Sie zu wenig Leistung davon auf die Straße.

Aber damit könnte ich noch leben, aber wirklich enttäuscht bin ich davon das ATI immer noch beim AF spart.
Außerdem ist das SGSSAA IMHO eine leichte Mogelpackung, da Einschränkungen noch und nöcher existieren (auf Deutsch: es ist ein banaler Treiberhack, der sehr wahrscheinlich auch schon auf der 4er, 3er und 2er Serie funktionieren würde.....wahrscheinlich auch auf allen Gefore-Karten ab G80).

Nichts desto trotz würde ich jedem der ne Karte momentan Neu kaufen will und nicht gerade ne GTX280 oder HD4890 hat zu dieser Karte raten.
Wer allerdings warten kann, sollte sich mindestens mal angucken was nV denn so liefern wird und sich dann erst entscheiden.

tombman
2009-09-27, 14:19:16
@tombman
das glaub ich irgendwie gar nicht, dass du dir jetzt min 3 monate lang NICHT mit dem schnellsten zufrieden gibts bzw geben wirst ;D

Ich gebe Nvidia eine gewisse Zeit zu reagieren, dann werde ich neu evaluieren ;)
Falls im Oktober nicht mal ne stinkige Ankündigung oder geleakte Infos kommen, wirds schwer :)

reunion
2009-09-27, 14:25:21
Außerdem ist das SGSSAA IMHO eine leichte Mogelpackung, da Einschränkungen noch und nöcher existieren (auf Deutsch: es ist ein banaler Treiberhack, der sehr wahrscheinlich auch schon auf der 4er, 3er und 2er Serie funktionieren würde.....wahrscheinlich auch auf allen Gefore-Karten ab G80).


Na dann sag mal welche zahlreichen Einschränkungen existieren. Wer erwartet das in Zeiten von immer freier programmierbaren DX11-Karten für so etwas triviales wie SSAA extra Transistoren aufgewendet werden der sollte eher mal in der Realität ankommen.

Gast
2009-09-27, 20:42:42
die Umfrage kommt zu früh, da bisher eh nur ne übertaktete 5850 getestet wurde.

Matrix316
2009-09-27, 20:53:53
[...]
Summa summarum bleibt eine objektiv leichte Enttäuschung, da IMO next-gen Karten sich DEUTLICHER vor prev-gen Karten absetzen sollten.

Subjektiv bin ich zwiegespalten.
[...]

NAja, die GTX 280 war damals auch nicht doppelt so schnell wie eine 8800 GTX zum Beispiel (in Auflösungen bis 1920x1200).

Blaire
2009-09-27, 21:28:48
NAja, die GTX 280 war damals auch nicht doppelt so schnell wie eine 8800 GTX zum Beispiel (in Auflösungen bis 1920x1200).

Aber sicher doch, wenn man die richtigen Settings verwendet. http://www.pcgameshardware.de/aid,647767/GT200-Test-Extrem-FSAA-Benchmarks-und-Uebertaktung/Grafikkarte/Test/

HarryHirsch
2009-09-27, 21:32:22
[x] Bin enttäuscht, hab mir deutlich mehr erwartet.

immer noch krüppelAF :(

Birdman
2009-09-27, 21:43:18
Ich bin begeistert von der ilde Power, bzw. der Tatsache dass AMD endlich mal den Mut gehabt hat, eine Karte im 2D Modus massivst zu untertakten.

SSAA und AF war ich die ersten 24h begeistert, nun aber wieder ziemlich bäh. Mit den Einschränkungen und vor allem ohne Spieleprofile sind die BQ Settings halt nur halb so viel Wert....

Na ja, ich hoffe zumindest dass - angespornt durch die 58xx Serie - auch Nvidia den 2D Takt und damit die idle Power massiv zu senken.
Dann kann der G300 nur gut werden.

Sentionline
2009-09-27, 21:53:26
[x] Bin enttäuscht, hab mir deutlich mehr erwartet !

BILDQUALITÄT! Bei der Rechenleistung und bei der Transistoranzahl kann man jewohl etwas Qualität erwarten. Performance kaufen durch Optimierung, Failed!

Durchgefallen. :udown:

Lawmachine79
2009-09-27, 22:12:16
Na dann sag mal welche zahlreichen Einschränkungen existieren. Wer erwartet das in Zeiten von immer freier programmierbaren DX11-Karten für so etwas triviales wie SSAA extra Transistoren aufgewendet werden der sollte eher mal in der Realität ankommen.
Warst Du nicht derjenige, der prophezeit hat, NV würde die SSAA-Möglichkeit mit der nächsten Generation komplett einschränken? Jetzt hat ATI es gebracht :D.
Und wenn Du es als trivial empfindest - bitte, Dein gutes Recht. Aber es gibt eben BQ-Fetischisten, die SSAA wollen und die sind die Zielgruppe von Highend-Karten.
[x] Bin enttäuscht, hab mir deutlich mehr erwartet !

BILDQUALITÄT! Bei der Rechenleistung und bei der Transistoranzahl kann man jewohl etwas Qualität erwarten. Performance kaufen durch Optimierung, Failed!

Durchgefallen. :udown:
Wo wurde denn durch zusätzliche Optimierungen Performance gekauft? Der Filter ist besser geworden, zwar nicht so gut wie NV, aber eben besser als vorher. Irgendwer muss ja den besseren Filter haben. Bei R4xx und R5xx war es ATI, jetzt ist eben NV, so fucking what?

Sentionline
2009-09-27, 22:22:43
Naja, im RV870 Thread hab ich schon einiges niedergeschrieben, ich wiederhole mich nicht. Wenn ich mir eine 300€ Karte kaufe das so "besser als alle anderen" sein will, dann darf der HQ Modus nicht fehlen das die Konkurrenz schon länger anbietet. Man sagt immer das gutes AF Transistoren braucht. Na, wenn jetzt aber nicht genug vorhanden sind (die Konkurrenz behauptet anderes:freak: ), dann weiss ich auch nicht. Winkelunabhängig aber gleiche Qualität wie der Vorgänger? WTF? :freak: Wer ein MMOG mit nicht besonnders hochwertigem Content spielt, wird, nachdem die BQ zur Sprache gekommen ist automatisch auf die generelle BQ achten. Und späterstens dann wird man sich ärgern das die 300€ bei der "überlegeneren Plattform" nicht viel gebracht haben und die Karte nicht flexibel genug für den Anwender ist. Die DX11 Performance wird sich beweisen müssen.

Ich kaufe so eine ATi Karte nicht mehr, da an vielen Stellen "unausgewogen". CCC, XCode, Stream, HavokFx, A.I., Eyefinity etc. Alles keine Rosen im Garten. Der Leistungsaufnahme & SSAA in allen ehren (scheint bei der Karte wirklich gut zu sein), aber die einen Vorteile sollten nicht genutzt werden um die Nachteile in Unschuld zu waschen.

Failed, wird nicht gekauft oder empfohlen, pech AMD. Da die Aktien des Contents der PC Spiele in der letzten Zeit nur noch Talfahrt machen, sollte man als Hersteller wenigstens das "versuchen zu dämfen" um etwas am portierten BQ zu retten...aber nein.

Egal wie man redet: "AMD ist Toll!" Nicht für mich. Nicht mit der RV8xx.

Blaire
2009-09-27, 23:20:51
[x]Naja, hab mir mehr etwas erwartet.

Seh es eigentlich wie Tombman auch^^

Leistungsmäßig etwas mager, der Preis jedoch angemessen.
SGSSAA ist ein Kaufargument für mich, Sorgen macht mir jedoch die fehlende Profilbearbeitungsmöglichkeit bei Crossfire gerade wenn ein Profil nicht meinen Wünschen entspricht, die nicht vorhandenen AA Bits , schleppender Support bei Problemen in Games, schlechteres AF, kein Downsampling, kein Stereo3D,kein PhysX (ist zwar im Moment kein MUSS aber ich glaub schon das noch das ein odere Game erscheint was Nutzen daraus ziehen wird.)
Insgesamt gesehn sind das schon Punkte die schwer zu schlucken sind für mich jedenfalls.

ShadowXX
2009-09-27, 23:30:19
Na dann sag mal welche zahlreichen Einschränkungen existieren. Wer erwartet das in Zeiten von immer freier programmierbaren DX11-Karten für so etwas triviales wie SSAA extra Transistoren aufgewendet werden der sollte eher mal in der Realität ankommen.
- Nur DX9
- kein automatisches LOD (was IMHO deutlich auf überhastete Implementierung hindeutet)
- keine Mix-Modi

Und ja, das deutet genau darauf hin das dafür keine extra Transistoren verschwendet wurden, sondern das das ganze Last-Minute "eingebaut" wurde.
Da kann man sich dann doch schmal fragen: wieso? Speziell da ATI gegenüber SSAA (in welcher Form auch immer) bisher immer sehr negativ eingestellt war.

Und ja...wenn man damit offiziell wirbt, erwarte ich etwas mehr als einen Treiberhack.

Im Nachhinein betrachtet (nachdem ich mich vorher eigentlich darüber gefreut hatte das Sie SGSSAA frei zugänglich implementieren) hat für mich dieses SGSSAA einen schalen Geschmack...und zwar den das es ablenken soll.

Ich würde übrigens das gleiche bei nV schreiben, auch wenn du mir das wahrscheinlich nicht glaubst. Ich hatte mehr ATIs in meinen Kisten als du denkst. Ich hatte auch schon ein festes Budget für die 5870 eingeplant, das jetzt aber eingefroren wurde um zu sehen was nV bringt (und wenn Sie es erst in 3 Monaten bringen, dann bringen Sie es eben erst in 3 Monaten....die Spiele die ich habe verlieren dadurch keine FPS).

Ich bin ehrlich wenn ich sage das ich eher zu nV tendiere. Das hat aber weniger mit der aktuellen (IMHO zu geringen) Performance, auch nicht mit dem nicht ganz so guten AF, und auch nicht dem (für mich) wie eine Behelfslösung wirkendem SGSSAA zu tun, sondern eher mit den Probleme bei ATI's Treibern abseits des Mainstream und bei älteren und wirklich alten Produkten.

Ich hatte damals die 4870 gekauft, war sehr zufrieden (vom AF mal abgesehen) und erschrak als ich plötzlich feststellte das ca. 20% meiner älteren und über 40% meiner alten Games nicht mehr funktionierten.
Und die, die gingen hatten fast immer einen Pferdefuß (speziell wenn es OGL-Games sind).
Hat ATI eigentlich inzwischen das Problem mit den "dynamischen Lichtern" bzw. dem "dynamischen glühen" bei den Jedi Knight Titel gelöst?
Aber auch bei neuen Titel ist es öfter so das ATI nachbessern muss (nV auch mal, aber seltener)...siehe jetzt zum Beispiel bei NFS Shift.
Und anderes wird einfach ignoriert....wie das AF-Problem bei HAWK (weswegen man als Lösung tatsächlich als Benchvorgabe 0xAF ausgab).

mapel110
2009-09-27, 23:40:38
Mixmodi? Ich dachte, das neue SSAA basiert auf dem AAA?! Deshalb muss doch auch immer MSAA aktiv sein?!

Das LOD muss wohl noch gefixt werden via Treiber. Die DX9-Einschränkung hat nvidia ja nun auch.

Und stark bewerben tut ATI ja nun SSAA nicht. Ich hab diesbezüglich jedenfalls beim Launch kaum etwas mitbekommen. Das lief verglichen mit dem "neuen AF" sehr leise ab.

Desto mehr ich drüber nachdenke, desto mehr verstehe ich nicht, wie man so wenig neue Features(Abseits von DX11) in einer neuen Generation bringen kann. Wenn nvidia ähnlich wenig Neues bringt, kann ich ja getrost auf kommende, stromsparende Midrange-Produkte warten. Hätte ja eh keine Features, wo ich High End Leistung reinstecken könnte.

ShadowXX
2009-09-27, 23:55:02
Mixmodi? Ich dachte, das neue SSAA basiert auf dem AAA?! Deshalb muss doch auch immer MSAA aktiv sein?!

Nein.

Man hat nur due Wahl zwischen MSAA, MSAA + TSAA oder eben SGSSAA (da ist dann kein MSAA aktiv....was wohl auch unsinnig währe da es die selbe Maske wie das MSAA benutzt;))

Das LOD muss wohl noch gefixt werden via Treiber.

Na...ich bin mal gespannt ob da was kommen wird. Ich schätze mal eher nicht.

Die DX9-Einschränkung hat nvidia ja nun auch.

Die haben aber nicht mal offiziell SSAA....und trotzdem wird der LOD automatisch angepasst.

Da erwarte ich bei was offiziellen eben etwas mehr.

Und stark bewerben tut ATI ja nun SSAA nicht. Ich hab diesbezüglich jedenfalls beim Launch kaum etwas mitbekommen.

Sie wissen wohl auch schon warum.....

Das lief verglichen mit dem "neuen AF" sehr leise ab.

Sorry...aber gerade beim AF hat die PR-Nebelbombe "Runde Blume" hervorragend gezündet.

Und das SGSSAA-Schmankel wurde rausgelassen um die kritsichen wie PCGHW ruhigzustellen (stell dir den AF-Teil im Artikel der PCGHW mal ohne das ATI SGSSAA vor....).

Desto mehr ich drüber nachdenke, desto mehr verstehe ich nicht, wie man so wenig neue Features(Abseits von DX11) in einer neuen Generation bringen kann. Wenn nvidia ähnlich wenig Neues bringt, kann ich ja getrost auf kommende, stromsparende Midrange-Produkte warten. Hätte ja eh keine Features, wo ich High End Leistung reinstecken könnte.
Das sehe ich anders.
Eyefinitiy ist schon ganz nett (und der Grabstein für Matrox....speziell falls nV da noch nachzieht) und die Grundidee des SGSSAA ist auch nicht schlecht.
Dazu DX11...........was soll da noch groß als Features kommen?

Sentionline
2009-09-28, 06:47:24
...was soll da noch groß als Features kommen?
Von Ati sowieso gar nichts. In den letzten Jahren sind sie nicht durch Innovation aufgefallen.

reunion
2009-09-28, 08:05:16
- Nur DX9

Das ist keine Limitierung der AMD Karten sondern von DX. Das solltest du eigentlich wissen.


- kein automatisches LOD (was IMHO deutlich auf überhastete Implementierung hindeutet)

Selbst wenn man SSAA erst in der letzten Nacht vor dem Launch implementiert hätte wäre es wohl max. eine Sache von ein paar Minuten gewesen das LoD zu verschieben. Ergo ist das eine bewusste Entscheidung, welche ich auch für richtig halte. So kann jeder selbst entscheiden ob er lieber auf vollständig eliminiertes flimmern oder auf den den zusätzlichen AF-Grad setzt. Würde AMD das schon vorweg nehmen könnte man das LoD nachträglich nicht mehr zurücksetzen.


- keine Mix-Modi

Auch das wäre problemlos möglich und ist nur eine Treiberlimitierung.


Und ja, das deutet genau darauf hin das dafür keine extra Transistoren verschwendet wurden, sondern das das ganze Last-Minute "eingebaut" wurde.
Da kann man sich dann doch schmal fragen: wieso? Speziell da ATI gegenüber SSAA (in welcher Form auch immer) bisher immer sehr negativ eingestellt war.

Und ja...wenn man damit offiziell wirbt, erwarte ich etwas mehr als einen Treiberhack.

Du hast nicht verstanden bzw. bist nicht darauf eingegangen worauf ich hinaus wollte. Niemand wird bei einer solchen Karte noch spezielle "SSAA-Transistoren" verbauen, was immer du darunter überhaupt verstehst. Deshalb habe ich auch gefragt was genau dich daran jetzt stört, da du ja "mehr wie einen Treiberhack erwartest". Deine Kritikpunkte haben auch alle nichts mit der Implementierung zu tun.

tombman
2009-09-28, 08:22:38
NAja, die GTX 280 war damals auch nicht doppelt so schnell wie eine 8800 GTX zum Beispiel (in Auflösungen bis 1920x1200).

Jo, 2x 8800GTX wars auch nicht, aber nur +60% wie bei HD4 > HD5 warens auch nicht ;)

http://www.abload.de/img/gtx280-8800gtxjzoa.jpg (http://www.abload.de/image.php?img=gtx280-8800gtxjzoa.jpg)

reunion
2009-09-28, 08:26:02
Jo, 2x 8800GTX wars auch nicht, aber nur +60% wie bei HD4 > HD5 warens auch nicht ;)

http://www.abload.de/img/gtx280-8800gtxjzoa.jpg (http://www.abload.de/image.php?img=gtx280-8800gtxjzoa.jpg)

Das liegt aber auch nur an den 8xMSAA optimierten Treibern welche bei der GTX280 dort verwendet wurden und bei der 8800GTX nicht. :)

desert
2009-09-28, 08:45:23
[QUOTE=reunion;7560892]Das liegt aber auch nur an den 8xMSAA optimierten Treibern welche bei der GTX280 dort verwendet wurden und bei der 8800GTX nicht. :)[/QUOTE

bei 4aa sind es ja auch nur noch 64 prozent, und das ist wohl auch das was die 5870 vor der 4870 liegt.

Trotzdem bin ich enttäuscht, ich hatte mit 60 % mehr als 280 gtx gerechnet, vorallem bei der gigantischen transitormenge und hatte die ausgabe für eine neue grafikkarte schon fest eingeplant und auch weil alle von bildverbesserungen gesprochen haben, nur kann ich immer noch nicht auswählen was ich wann wie nutzen möchte. Was ist so schlimm daran einen hq modus einzubauen?

Sie bringt mir keinen deutlichen leistungszuwachs, vorallem nicht in meinen settings. Und so spar ich noch ein bischen länger und warte was nvidia bringt.

tombman
2009-09-28, 08:47:34
Das liegt aber auch nur an den 8xMSAA optimierten Treibern welche bei der GTX280 dort verwendet wurden und bei der 8800GTX nicht. :)
Immer noch +74% bei 2560, 4xAA....

Und wenns richtig zur Sache geht, zb Vantage Extreme, warens +223% ;)
(alle Duakarten wurden geowned)

Btw, aber selbst wenn Nvidia auch nur +60% gegenüber einer GTX285 schaffen würde, wäre sie immer noch schneller als alle Dualkarten und auch schneller als eine HD5870.
Die können nicht verlieren ;)
(und im SLI würde mir die Leistung reichen, weil der Wirkungsgrad gegenüber 2x GTX295 höher wäre ;))

Chris2CB
2009-09-28, 09:43:44
Immer noch +74% bei 2560, 4xAA....

Und wenns richtig zur Sache geht, zb Vantage Extreme, warens +223% ;)
(alle Duakarten wurden geowned)

Btw, aber selbst wenn Nvidia auch nur +60% gegenüber einer GTX285 schaffen würde, wäre sie immer noch schneller als alle Dualkarten und auch schneller als eine HD5870.
Die können nicht verlieren ;)
(und im SLI würde mir die Leistung reichen, weil der Wirkungsgrad gegenüber 2x GTX295 höher wäre ;))


http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_grafikkarten_2008/11/#abschnitt_crysis_warhead

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_grafikkarten_2008/11/#abschnitt_crysis_warhead

8800GTX und 9800GTX sind auf Augen höhe, in Spielen die viel Leistung benötigen, ist der Vorsprung der 280GTX um die 50% +-

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_grafikkarten_2008/11/#abschnitt_crysis_warhead

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_grafikkarten_2008/11/#abschnitt_crysis_warhead

Von einer 4870 auf 5870 sind es im Schnitt gute 60%.

Von daher kann ich deine Antwort nicht verstehen und Sonderbeispiele bei bestimmten Auflösungen sollte man ganz weg lassen, Der Schnitt hat 16x10 und 4 - 8x AA und 4 - 16AF, und 30fps+ weil man möchte Spielen, nicht Benchmarks anschauen.

In Crysis, Stalker und co. ist die 5870 um einiges schneller, dort wo Leistung benötigt wird.

:)

Crazy_Chris
2009-09-28, 10:09:56
In Risen ist die HD 5780 locker mal 50 bis 75% schneller als eine GTX 285. :freak:

http://www.pcgameshardware.de/aid,696012/Risen-im-Grafikkarten-Benchmark-Test-Radeon-HD-5870-vorne/Rollenspiel-Adventure/Test/

AnarchX
2009-09-28, 10:10:43
In Risen ist die HD 5780 locker mal 50 bis 75% schneller als eine GTX 285. :freak:

http://www.pcgameshardware.de/aid,696012/Risen-im-Grafikkarten-Benchmark-Test-Radeon-HD-5870-vorne/Rollenspiel-Adventure/Test/
Die Ergebnisse hier sind eher zweifelhaft: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7561044#post7561044

vinacis_vivids
2009-09-28, 17:03:10
Die Ergebnisse hier sind eher zweifelhaft: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7561044#post7561044

Nein, sind sie nicht. Sie sind reproduzierbar und durch custom-savegame abgesichert. Lediglich zu bemängeln sind die unterschiedlichen Treiber der ATI-Karten.

MiamiNice
2009-09-28, 17:06:12
[x] Bin enttäuscht, hab mir deutlich mehr erwartet.

Mir ist das für Next-Gen einfach zu wenig Power unterm Kühler.

Black-Scorpion
2009-09-28, 18:05:08
Die Ergebnisse hier sind eher zweifelhaft: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7561044#post7561044
Nur weil dir etwas nicht passt sind die Ergebnisse noch lange nicht zweifelhaft sondern merkwürdig.
Außerdem steht in dem Thread genau unter deinem Beitrag die Erklärung.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7561089#post7561089

fizzo
2009-09-28, 18:10:47
HD5850 hat die doppelte leistung einer HD4850 - ergo alles im gruenen bereich =)

Gast
2009-09-28, 19:39:41
Mixmodi? Ich dachte, das neue SSAA basiert auf dem AAA?! Deshalb muss doch auch immer MSAA aktiv sein?!Mal davon abgesehen, dass Hybride wie bei NV durch Kombination mit OGSSAA möglich wären, gäbe es noch eine weitere Möglichkeit. Früher bedeutete Performance AAA in der Supersamplingeinstellung doch, dass nur die Hälfte der MSAA-Samples für alphazertestete Objekte auf SSAA-Samples upgegradet wurden. Müsste mit Vollbild-SGSSAA auch möglich sein, also z.B. von 8 Samples nur 4 SGSSAA-Samples.
Das LOD muss wohl noch gefixt werden via Treiber. Die DX9-Einschränkung hat nvidia ja nun auch.Dann aber bitte so, dass nur sinnvolle Vorgaben gemacht werden.
Z.B. LOD änderung
[ ]automatisch
[x]manuell: [$Wert]

The_Invisible
2009-09-28, 20:33:07
Nur weil dir etwas nicht passt sind die Ergebnisse noch lange nicht zweifelhaft sondern merkwürdig.
Außerdem steht in dem Thread genau unter deinem Beitrag die Erklärung.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7561089#post7561089

naja, von 1280 auf 1920 verliert die 285er gerade mal 4 fps aber die 5870 17fps (min fps). würde ich schon als etwas komisch bezeichnen.

mfg

Black-Scorpion
2009-09-28, 20:59:51
naja, von 1280 auf 1920 verliert die 285er gerade mal 4 fps aber die 5870 17fps (min fps). würde ich schon als etwas komisch bezeichnen.

mfg
Komisch ja, aber nicht zweifelhaft wenn sie nach eigener Aussage mehrmals getestet haben und immer das Ergebnis raus kam.

Sonyfreak
2009-09-28, 21:34:58
[x] genau das was ich erwartet habe

Die HD 58xxer Serie liefert insgesamt ziemlich genau das, was ich mir erwartet hatte. Zwar ist die Leistung etwas niedriger als erhofft, dafür hat AMD zumindest ein wenig an der Bildqualität geschraubt.

mfg.

Sonyfreak

ZÜNDELholz
2009-09-29, 20:51:36
[x]Bin enttäuscht, hab mir deutlich mehr erwartet

was die BQ-verbesserung betrifft.
Werde die Farben wechseln

Odal
2009-09-29, 21:07:02
- SSAA ... check
- AF ok ... check
- Leistung im Vergleich zum Vorgänger deutlich gestiegen ... check
- niedriger idle Verbrauch ... check
- Lastverbrauch ok .... check
- keine Abstriche in Features (DX11) ... check

rundes produkt würde ich sagen

einzig die sache das die 5850 eine hardware beschnittene 5870 ist stört mich...und ich wüsste nicht zu welcher ich greifen sollte

aber die liegen im moment eh noch nicht in meinem Wunschsegment (<=220€) und die verfügbarkeit ist nicht vorhanden....

also mal schaun was NV bringt und was sich im performance bereich für preis/leistungs schnäppchen ergeben....

ausserdem werd ich mein grundsystem eh erstmal erneuern und noch ein paar monate mit der 88GT betreiben

TheDUDE
2009-10-03, 20:31:27
Ich finde die GPU echt gut. Super P/L, gute "Verbrauchswerte", gute Features. Aber ich warte bis NV seinen GT300 bringt.
Außerdem ist da wie bei allen "neuen" GPUs noch einiges an Leistung über den Treiber rauszuholen (Min. 10%).-Die theoretische
Leistung liegt ja mal wieder um einiges über der von NVs GT300. -Bin echt gespannt, was NV uns nettes bringt. Gruß an alle Gamer und nachträglich alles Gute an 3Dcenter!