PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5850 und 5870: (P)Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13

Exxtreme
2009-09-23, 16:49:46
Dagegen spricht ja auch nichts das bei ausgewählten fällen noch etwas rausgeholt werden kann. Das stelle ich auch nicht in abrede.

Was ich bezweifele sind sind die aussagen das man die nächsten treiber abwarten soll, da dann erst das wahre potenzial freigesetzt wird.

Wenn die grafikkarten beim release 35 fps produzieren dann werden da nach einem halben jahr nicht 50 fps von. Vielleicht wenn es gut läuft 40 fps aber dann ist es schon ein besonderer fall.

Wenn ich mir die treibertests anschaue dann gewinnen die meisten titeln nach release nicht mehr dazu.

Viele bleiben einfach auf dem niveau das sie seit release der grafikkarten schon hatten. Vereinzelte spiele gewinnen dazu, ja. Mehr aber auch nicht. Bei release sehen wir schon das wahre potenzial der karten
Nur das 10% bei den Games wo es wichtig ist eben nur 2, 3 oder vielleicht 4 FPS mehr bedeuten.
Und das ist dann immer noch zu wenig.
Das bezwefle ich ja nicht. Aber 50% bei einigen Spielen sind u.U. trotzdem drinne. Neue Hardware bietet nunmal neue Möglichkeiten. Das Witzige ist ja auch, daß sich die Grafikkarten von AMD meistens erst bei neueren Spielen so ordentlich absetzen.
Teils zu knapp dimensioniert/gekühlt.
Hmmm, ich habe nur von Schwierigkeiten gehört als die Leute den Referenzkühler durch andere ersetzten. Aus dem Grund wird auch Furmark per Treiber gedrosselt. Weil's anscheinend doch recht viele Leute gab denen die Karte nach dem Kühlertausch beim Furmark abrauchte.

desert
2009-09-23, 16:53:16
warum nicht?ist doch wohl lächerlich das eine 275gtx mit aa und af schneller ist als eine 5870.(in cb z.b.)
aber bitte wenn du das nachvollziehen kannst.

Wenn es ein bug wäre warum wird er dann nicht behoben? Und vorallem warum schleppt man ihn mit in die neue generation?

Die wussten doch vorher das ihre Karten dort verlieren.

Wie gesagt es sind alles ati karten die dort verlieren. Wenn es ein einfacher treiberbug wäre oder am profil liegen würden, dann hätten sie es doch gefixt. Ich meine das ist doch schon länger bekannt das ati mit af ihre schwierigkeiten bei Hawx haben und dann lösen sie es nicht zum start ihrer wohl wichtigsten karte seit Jahren?

Gast
2009-09-23, 16:55:20
Ihr müsst die Karte nicht kaufen ... zum kotzen ist das!

Nicht aufregen lassen, ist doch schön, wenn viele NV-Produkte kaufen. Jeder wird für sich entscheiden, für welche Karte er Geld ausgibt. Dass in Foren wie diese eher der persönliche Geschmack, bzw. die persönliche Marke bevorzugt wird, als eine neutrale Sichtweise, dürfte klar sein. Manchmal ist das langweilig, aber meistens sehr erheiternd. ;-)

Wird die G300 auch mehr als 2 Monitore unterstützen? Und wo ist denn jetzt diese Wunderkarte für lau?

desert
2009-09-23, 16:57:27
Das bezwefle ich ja nicht. Aber 50% bei einigen Spielen sind u.U. trotzdem drinne. Neue Hardware bietet nunmal neue Möglichkeiten. Das Witzige ist ja auch, daß sich die Grafikkarten von AMD meistens erst bei neueren Spielen so ordentlich absetzen.

.

Das ist doch eher dem a.i geschuldet und wohl auch eher eine urban legend, wo geht denn die r600/rv770 bei neuen spielen ab und eine gf8 verliert dermassen oder r480/r420 usw, es war doch eigentlich nur die x1950xt die besser abschneidet und das auch nur dank ihrer 3-facher shaderanzahl gegenüber ihrer vorgängerin x1800xt, aber ht4u hatte da mal eine testreihe, da lag eine x1950 xtx unter a.i. off fast immer hinter einer 7900 gtx

fulgore1101
2009-09-23, 17:06:18
Nur ganz kurz meine Meinung. Ich hatte mich wie Sau auf ne neue Karte in meinem Rechner gefreut. Ich hatte aber mit ca. doppelter Leistung einer 285 gerechnet. Jetzt werde ich erstmal auf den GT300 warten und dann entscheiden, was ich als nächstes kaufe.

Riipa@Work
2009-09-23, 17:07:10
Schade, ansonsten doch ordentliche Karten. Ich lese hier teilweise eine gewisse Enttäuschung heraus, was genau fehlt euch denn?

Ganz persönlich (als Eigentümer einer 4890) fehlt mir der Kick, das *roooaaaaarrrr* und der Drang das Ding haben zu müssen. Die 4890 ist für meine Auflösung (1680x1050) derzeit noch schnell genug. Die 5870 grieselt immer noch vor sich hin. 3 Monitore habe ich nicht. Und in eine Karte mit 1 Gb Speicher möchte ich nicht mehr investieren, schon jetzt sind zumindest AoC und GTAIV damit ausgebremst unterwegs.

Alles in allem, wie schon vorher geäußert: "Solide." Ganz ok wenn man dringend gerade jetzt was kaufen muss, aber auch nicht extrem verlockend.

_DrillSarge]I[
2009-09-23, 17:09:46
aber ht4u hatte da mal eine testreihe, da lag eine x1950 xtx unter a.i. off fast immer hinter einer 7900 gtx
achso. gerade eine x1950xtx versägt eine gf7. gerade unter neueren spielen. :rolleyes:
da kann man ai aus machen wie man will...

Armaq
2009-09-23, 17:12:39
Das ist doch eher dem a.i geschuldet und wohl auch eher eine urban legend, wo geht denn die r600/rv770 bei neuen spielen ab und eine gf8 verliert dermassen oder r480/r420 usw, es war doch eigentlich nur die x1950xt die besser abschneidet und das auch nur dank ihrer 3-facher shaderanzahl gegenüber ihrer vorgängerin x1800xt, aber ht4u hatte da mal eine testreihe, da lag eine x1950 xtx unter a.i. off fast immer hinter einer 7900 gtx
Das indizieren schon die reinen Zahlen. Die Rechenleistung der 5870 ist barbarisch.

Ph0b0ss
2009-09-23, 17:17:29
Hmmm, ich habe nur von Schwierigkeiten gehört als die Leute den Referenzkühler durch andere ersetzten. Aus dem Grund wird auch Furmark per Treiber gedrosselt. Weil's anscheinend doch recht viele Leute gab denen die Karte nach dem Kühlertausch beim Furmark abrauchte.

Stromversorgung auch der HD4890 fehlerhaft. Siehe:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=461408

Naja, aber es würden wohl auch so einige Nvidia-Karten abfackeln, wenn man die Spannung soweit erhöht, das die Karte gegenüber Werkseinstellung das doppelte verbraucht. Bei ATI klappt das jedoch auch schon teilweise bei Werkseinstellung. Bei der neuen Serie könnte das Problem zwar behoben sein, aber ich glaube nicht, das die Spawas darauf ausgelegt worden sind mal eben mehr als das doppelte zu liefern!

AnarchX
2009-09-23, 17:18:01
Die bessere Filterung scheint Cypress wohl doch etwas zu kosten:
http://img411.imageshack.us/img411/6550/rm3dfiltering.gif (http://img411.imageshack.us/i/rm3dfiltering.gif/)
http://techreport.com/articles.x/17618/6

S940
2009-09-23, 17:20:16
sieht doch recht ansprechend aus =) fuer HD 4850 besitzer der ersten stunde, wie mich, ist die HD 5850 das logische upgrade. mal schaun wie sich die preise entwicklen.
Die werden erstemal steigen, weil die Nachfrage weit höher als das Angebot ist schlag jetzt zu, wenn Du nicht nen Monat warten willst, ~200 Euro ist ein Topp Preis, die Empfehlung ist ja eigentlich 250 Euro ;-)

ciao

Alex

Gast
2009-09-23, 17:20:18
Weil ATI immer noch unterfiltert....das war der (Haupt)Kritikpunkt am AF, nicht das es nicht 100% WInkelunabhängig ist.

Auf deutsch: es flimmert immer noch, wenn auch nicht mehr ganz so stark wie bei den 4er Karten.
Mal eine andere Frage.
Gehe ich Recht in der Annahme, das R600-RV770 AI.off so gut wie RV870 AI-on ist?
Und das AI-off keinerlei BQ Einfluss mehr hat?

LovesuckZ
2009-09-23, 17:22:30
Die werden erstemal steigen, weil die Nachfrage weit höher als das Angebot ist schlag jetzt zu, wenn Du nicht nen Monat warten willst, ~200 Euro ist ein Topp Preis, die Empfehlung ist ja eigentlich 250 Euro ;-)

ciao

Alex

250? In Amerika sind es 259$. Da passen 200€ doch schon eher als Empfehlung.

Marodeur
2009-09-23, 17:23:40
Wenn ich mir nicht nur irgendwelche Balken anseh sondern mir auf HardOCP die Frameverläufe und die einstellbaren Settings anseh bin ich an sich nicht enttäuscht. Ist schon ein guter Wurf geworden. Von meiner Entscheidung für die nächste Karte würd halt noch abhängen inwieweit alte "Fehler" noch an Bord sind, allen voran die Grafikfehler unter Counterstrike:Source die alle 4xxx-Karten plagen. Behoben wurd das ja leider nie und neben den ganzen aktuellen Titeln die man gerne in höchster Qualität spielt zieht man eben auch noch gern die "alten Kamellen" raus. Sind da die Fehler noch immer bleibt mir schon gar nix anderes übrig als auf G300 zu warten :(

DrumDub
2009-09-23, 17:26:10
Mal eine andere Frage.
Gehe ich Recht in der Annahme, das R600-RV770 AI.off so gut wie RV870 AI-on ist?
Und das AI-off keinerlei BQ Einfluss mehr hat? fast: ATi hat auf dem RV870 beziehungsweise der Radeon-HD-5000-Serie die Qualität des anisotropen Filters nicht nur in der Theorie sondern auch in der Praxis angehoben. Catalyst A. I. Standard flimmert nun sichtbar weniger als auf dem Vorgänger, was in Bewegungen der Grafikqualität zu gute kommt. Catalyst A.I. Off ist minimal besser als Treiber-Default, allerdings sind die Differenzen kaum wahrzunehmen. http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/6/#abschnitt_af_kontrolliert

MartinRiggs
2009-09-23, 17:26:15
Wenn ich mir nicht nur irgendwelche Balken anseh sondern mir auf HardOCP die Frameverläufe und die einstellbaren Settings anseh bin ich an sich nicht enttäuscht. Ist schon ein guter Wurf geworden. Von meiner Entscheidung für die nächste Karte würd halt noch abhängen inwieweit alte "Fehler" noch an Bord sind, allen voran die Grafikfehler unter Counterstrike:Source die alle 4xxx-Karten plagen. Behoben wurd das ja leider nie und neben den ganzen aktuellen Titeln die man gerne in höchster Qualität spielt zieht man eben auch noch gern die "alten Kamellen" raus. Sind da die Fehler noch immer bleibt mir schon gar nix anderes übrig als auf G300 zu warten :(

Das stimmt, die Moire-Wellen in CSS sind unter aller Sau und gehen mir mächtig auf die Nerven.
Vielleicht bringt ja PCGH nen BQ-Artikel für die HD5000-Serie.

Marodeur
2009-09-23, 17:28:16
Das stimmt, die Moire-Wellen in CSS sind unter aller Sau und gehen mir mächtig auf die Nerven.
Vielleicht bringt ja PCGH nen BQ-Artikel für die HD5000-Serie.

Das auch, mir gings vor allem um den stärkeren Staub auf manchen Maps (am schlimmsten Westwood) und bei so einfallenden Lichtstrahlen gibts auch Fehler.


http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440474

Gast
2009-09-23, 17:29:20
Wenn ich mir nicht nur irgendwelche Balken anseh sondern mir auf HardOCP die Frameverläufe und die einstellbaren Settings anseh bin ich an sich nicht enttäuscht. Ist schon ein guter Wurf geworden. Von meiner Entscheidung für die nächste Karte würd halt noch abhängen inwieweit alte "Fehler" noch an Bord sind, allen voran die Grafikfehler unter Counterstrike:Source die alle 4xxx-Karten plagen. Behoben wurd das ja leider nie und neben den ganzen aktuellen Titeln die man gerne in höchster Qualität spielt zieht man eben auch noch gern die "alten Kamellen" raus. Sind da die Fehler noch immer bleibt mir schon gar nix anderes übrig als auf G300 zu warten :(
^^^^ dem ist nichts hinzuzufügen

Gast
2009-09-23, 17:32:36
Ich wäre froh wenn der G300 überhaupt erst einmal eine GTX 295 durch die Bank schlägt.

Gast
2009-09-23, 17:41:58
Hat ATI echt super gemacht. :)
Überall ein wenig verbessert und die Leistung dort wo es drauf ankommt auch.
Also Verlustleistung ist bei der Performace auf jeden Fall hervorragend. Die BQ ist auch verbessert worden. RGSSA :up: SUPER!
Wobei das Beste eigentlich die anvisierten Preise sind :eek:
Da ist Nvidia wohl platt. Ich glaube kaum, dass sich für die eine GTX285 um 200 Euro rentiert. Mehr können sie dafür aber bei den Preisen der 5850er nicht verlangen.
Das wird hard für NV.

Noch was...
ich weiß nicht was hier einige von der Leistung erwartet haben, aber ich sehe in etwa das, was ich mir vorgestellt habe.
Am meisten haben mich zwei Spiel interessiert, Crysis (Warhead) und STALKER CS.
Das sind die anspruchsvollsten Spiele, wo jedes Frame zählt und hier kann die 5800er wirklich zeigen, wo der Hammer hängt.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/18/#abschnitt_crysis_warhead
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/20/#abschnitt_stalker_clear_sky

Die 5870 ist in etwas auf Dual-GPU Niveau der letzten Generation.
Habt ihr mehr erwartet? Ich ehrlich gesagt nicht.
Die anderen Spiel sind nicht so interessant, da Leistung im Überfluss. :)

LolekDeluxe
2009-09-23, 17:45:14
Eine 4870 1GB kostet 115€. Der Unterschied zu 330€ beträgt mehr als 66%. Aber das ist es eben: Dumm rumlabern.
Was ist das für eine Milchmädchenrechnung.
Du machst Dich echt nur lächerlich, jetzt vergleichst De EINE 4870 mit EINER 5870.

mapel110
2009-09-23, 17:50:35
Da ist Nvidia wohl platt. Ich glaube kaum, dass sich für die eine GTX285 um 200 Euro rentiert. Mehr können sie dafür aber bei den Preisen der 5850er nicht verlangen.
Das wird hard für NV.

Man bietet bereits eine GTX 275 für 170 € an. Und die ist nur 10% langsamer als eine GTX285. Wenn man sich derzeit die Verfügbarkeit der GTX 285 anschaut, ist nvidia wohl schon längst dabei, diese Karte auslaufen zu lassen.

Gast
2009-09-23, 17:57:02
Nun, noch KEINE Karten lieferbar...
Ebenso keine Listung der 2GB Modelle!

Hoffe für Freitag dass viele Shops Flächendeckend zumindest einige 5870-er Karten abbekommen. Oder wird auch da nix draus?

derguru
2009-09-23, 17:58:34
ok aber da hat der gast schon recht,wenn man die 5850 für 200 euro kriegen kann ist sogar 200 euro für die 285gtx zuviel.
ich würde sie jedenfalls keinen kumpel mehr empfehlen,auch die 275 nicht weil man die 30 euro indemfall gut investiert.wie gesagt meine persöhnliche meinung und hat auch null mit fanboy gehabe zutun.

Gast
2009-09-23, 17:58:35
Hat ATI echt super gemacht. :)
Überall ein wenig verbessert und die Leistung dort wo es drauf ankommt auch.
Also Verlustleistung ist bei der Performace auf jeden Fall hervorragend. Die BQ ist auch verbessert worden. RGSSA :up: SUPER!
Wobei das Beste eigentlich die anvisierten Preise sind :eek:
Da ist Nvidia wohl platt. Ich glaube kaum, dass sich für die eine GTX285 um 200 Euro rentiert. Mehr können sie dafür aber bei den Preisen der 5850er nicht verlangen.
Das wird hard für NV.

Noch was...
ich weiß nicht was hier einige von der Leistung erwartet haben, aber ich sehe in etwa das, was ich mir vorgestellt habe.
Am meisten haben mich zwei Spiel interessiert, Crysis (Warhead) und STALKER CS.
Das sind die anspruchsvollsten Spiele, wo jedes Frame zählt und hier kann die 5800er wirklich zeigen, wo der Hammer hängt.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/18/#abschnitt_crysis_warhead
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/20/#abschnitt_stalker_clear_sky

Die 5870 ist in etwas auf Dual-GPU Niveau der letzten Generation.
Habt ihr mehr erwartet? Ich ehrlich gesagt nicht.
Die anderen Spiel sind nicht so interessant, da Leistung im Überfluss. :)

Hier bei ARMA2 das ist extrem Resourcenfressend zeigt Sie auch wo der Hammer hängt.
http://www.hardware.fr/articles/770-13/dossier-amd-radeon-hd-5870.html

Marodeur
2009-09-23, 18:03:56
Mal sehen wie lang es dauert bis Versionen mit alternativen Kühlern auf den Markt kommen. Bei den Werten sollten auch Kühler möglich sein die unter Last leise arbeiten.

MiamiNice
2009-09-23, 18:06:52
Gerade den Artikel zu den neuen ATI Karten gelesen, mir kommt es so vor als wären die zu langsam, noch jemanden? Gerade mal auf 4870x2 Niveau, das find ich zumindest zu wenig und hätte mehr erwartet. Hoffentlich macht NV es besser.

Gast
2009-09-23, 18:12:01
Gerade den Artikel zu den neuen ATI Karten gelesen, mir kommt es so vor als wären die zu langsam, noch jemanden? Gerade mal auf 4870x2 Niveau, das find ich zumindest zu wenig und hätte mehr erwartet. Hoffentlich macht NV es besser.
Hast du auch schon die Preise gesehen?
Also wenn du mehr für diesen Preis erwartet hast, dann wundert mich das schon.
Und 4870x2-Niveau ist doch das, was die meisten erwartet haben. ;)

S940
2009-09-23, 18:15:26
Hast du auch schon die Preise gesehen?
Oder den Stromverbrauch im Vergleich zur X2 :freak:

Gast
2009-09-23, 18:15:48
Was ist das für eine Milchmädchenrechnung.
Du machst Dich echt nur lächerlich, jetzt vergleichst De EINE 4870 mit EINER 5870.
Was den sonst?
HD 2900 XT mit HD 5870 oder was?

5870 ist der Nachfolger der 4870, wenn man mal den Zwischenschieber 4890 außer acht lässt.
Normalerweise vergleicht man das neue Produkt mit dem Vorgänger.

reunion
2009-09-23, 18:16:25
Hier scheint eine XFX 5870 ab 25. lieferbar zu sein:
http://www1.atelco.de/articledetail.jsp;jsessionid=1m2onyvom8vud?aid=28599&agid=1004&ref=13

zAm87
2009-09-23, 18:17:37
Ich hoffe wieder auf eine HIS iceQ Version. Wenns die irgendwann demnächst mal geben sollte ist die direkt gekauft :biggrin:

Daredevil
2009-09-23, 18:19:24
Ich find die Karte gelungen, knapp 60% schneller als der direkt Vorgänger HD4870, dazu noch eine bessere Bildqualität die man nicht außer acht lassen sollte.
Hätte ATI es bei der alten behalten wär wieder das "BQ bei ATI ist doof!" hochgekommen, auch wenn sie dann wohl 70-80% schneller gewesen wäre.

Ich denke allerdings auch das Nvidia deutlich vorbeiziehen wird, ist allerdings nur die Frage des Preises... bis dahin sollte ATI wohl eine "5890" in Angriff nehmen.

LolekDeluxe
2009-09-23, 18:23:41
Was den sonst?
HD 2900 XT mit HD 5870 oder was?

5870 ist der Nachfolger der 4870, wenn man mal den Zwischenschieber 4890 außer acht lässt.
Normalerweise vergleicht man das neue Produkt mit dem Vorgänger.
Irone Modus ON:
Musst Du mir nicht sagen, aber dann wäre das Geheule von LovesuckZ
noch grösser weil ja die 5870 ja min. 1000% teuerer und NUR 120% schneller als 2900 XT ist.:freak:
Ironie Mouds OFF:

Es zwingt doch niemenden diese GK jetzt zu kaufen.

Noebbie
2009-09-23, 18:28:39
Bei der 285 zur 8800/9800GTX+ waren es doch auch so um die 30 - 40%.

Was ist denn jetzt an dem Sprung der 4870 zur 5870 so schlimm? :confused:

Schlammsau
2009-09-23, 18:31:09
Bei der 285 zur 8800/9800GTX+ waren es doch auch so um die 30 - 40%.

Was ist denn jetzt an dem Sprung der 4870 zur 5870 so schlimm? :confused:

Das alle "Experten" hier mit viel mehr Leistung gerechnet haben.

Ich bin zufrieden mit dem Kärtchen! :D

dildo4u
2009-09-23, 18:31:49
Bei der 285 zur 8800/9800GTX+ waren es doch auch so um die 30 - 40%.

Was ist denn jetzt an dem Sprung der 4870 zur 5870 so schlimm? :confused:
4870 war schon kein echtes High-End hatte ca den Performance Level einer GTX 260,deshalb ist der Sprung von der Karte kein Maßstab.

AnarchX
2009-09-23, 18:32:28
Bei der 285 zur 8800/9800GTX+ waren es doch auch so um die 30 - 40%.

Was ist denn jetzt an dem Sprung der 4870 zur 5870 so schlimm? :confused:
Bei G80 zu G200 war die Rohleistung kaum gestiegen, während die 5870 bis auf die Speicherbandbreite in allen Bereichen mehr als eine Verdopplung gegenüber der 4870 darstellt.
Und nach dem was AMD aus 265mm² und 956M Transistoren unter 55nm herausgeholt hat, waren die Erwartungen bei 334mm²@40nm und 2154M Transistoren entsprechend hoch. ;)

LovesuckZ
2009-09-23, 18:32:42
Was ist das für eine Milchmädchenrechnung.
Du machst Dich echt nur lächerlich, jetzt vergleichst De EINE 4870 mit EINER 5870.

Ich habe immer EINE 4870 mit EINER 5870 verglichen. Das du aufgrund deiner beschränkten Lesefähigkeit jetzt dumm rumlaberst, ist nicht mein Problem.
Also: Lerne lesen und schreibe dich nicht ab.

mapel110
2009-09-23, 18:35:50
Bei der 285 zur 8800/9800GTX+ waren es doch auch so um die 30 - 40%.

Genau, und da war man auch sehr enttäuscht, dass bei 1,4 Milliarden Transistoren nicht mehr bei rumgekommen ist. Man hat unter anderem den Shadertakt nicht mehr halten können und verlor dabei viel Performance.

reunion
2009-09-23, 18:37:07
4870 war schon kein echtes High-End hatte ca den Performance Level einer GTX 260,deshalb ist der Sprung von der Karte kein Maßstab.

Richtig, und die 5870 ist auch kein "echtes High-End". Dafür war sie nie gedacht. Sie ist es nur jetzt weil NV zu spät kommt. Die 4870 ist der Vorgänger, deshalb sind derartige Vergleiche durchaus legitim. Auch wenn der Leistungsgewinnn trotzdem unter dem theoretischen Möglichkeiten liegt.

RoNsOn Xs
2009-09-23, 18:37:18
Deshalb: Habe nie Erwartungen!

Lawmachine79
2009-09-23, 18:37:44
Scheint insgesamt eine sehr gelungene Grafikkarte zu sein, die wesentlichen Argumente, die für die Karte sprechen, sind SGSSAA und natürlich die Leistung bei gleichzeitig einem sehr fairen Preis - zwar nicht ein SO großer Wurf wie G80 aber wir erinnern uns ja auch an die Preisgestaltung - die 88GTS fing bei 450€ an. Ich werde einige Wochen abwarten, gucken was sich in extrem OC-orientierten Foren in Sachen Spannungswandlern tut und sie dann kaufen (wenn frühzeitig eine Version mit analogen SpaWas kommt, werde ich die direkt kaufen). Mit der Verbesserung des AF hat ATI einen sehr wesentlichen Kritikpunkt beseitigt, Haare in der Suppe bleiben das CCC und die zwangsweise Bindung "guter", spielspezifischer Optimierungen an "A.I".

derguru
2009-09-23, 18:38:50
frag mich warum alle ein vergleich zur 4870 machen,wenn überhaupt dann muss man die 5870 mit der 4890 vergleichen.

dildo4u
2009-09-23, 18:39:21
Richtig, und die 5870 ist auch kein "echtes High-End". Dafür war sie nie gedacht. Sie ist es nur jetzt weil NV zu spät kommt. Die 4870 ist der Vorgänger, deshalb sind derartige Vergleiche durchaus legitim. Auch wenn der Leistungsgewinnn trotzdem unter dem theoretischen Möglichkeiten liegt.
Die Preise die aufgerufen werden liegen deutlich über einer 4870,alles ab 300-330€ ist für mich High-End wenn man bedenkt wie stark der Euro ist das sind dann schon 480$.

reunion
2009-09-23, 18:40:09
Die Preise die aufgerufen werden liegen deutlich über einer 4870.

Ja und weiter? Ohne Konkurrenz wenig verwunderlich.

reunion
2009-09-23, 18:41:23
[...]und die zwangsweise Bindung "guter", spielspezifischer Optimierungen an "A.I".

Es sieht nicht so aus als ob AI_off bei der Karte noch merkbar mehr Bildqualität bringt. Wenn überhaupt. Angeblich filtert schon AI_low voll tri, das kostet natürlich Füllrate und dürfte auch für einiges an Leistungsverlust verantwortlich sein IMO. Nur seltsam das man nicht stattdessen auf die eingesparten Samples verzichtet, das würde wohl mehr IQ bringen und weniger Füllrate kosten.

|MatMan|
2009-09-23, 18:42:47
Manche leben eben im nvidia PLEM-PLEM Land... sorry, aber es ist so!

Wenn mal bei ein paar Games nicht min. 80% an Leistungszuwachs rauskommt, wird gleich herumgeheult, dass sich ganze Seen bilden... was soll das? Ihr müsst die Karte nicht kaufen ... zum kotzen ist das!
Gibts sowas nicht mal wenigstens ne Verwarnung von nem Mod?

Es wurden halt vorher die Erwartungen sehr in die Höhe getrieben und da ist man jetzt teilweise etwas ernüchtert um es freundlich auzudrücken.
Ich sage nur "1.6x faster"... und "+160% Leistung" - die meisten der ATI-Fraktion haben wohl eher an letzteres glaubt, aber geworden ist es doch eher ersteres...

LovesuckZ
2009-09-23, 18:43:02
Die Preise die aufgerufen werden liegen deutlich über einer 4870,alles ab 300-330€ ist für mich High-End wenn man bedenkt wie stark der Euro ist das sind dann schon 480$.

Richtig - heute sind 300€ High-End.

Ronny145
2009-09-23, 18:43:44
Eigentlich wollte ich mir mal wieder eine NVIDA zulegen, aber jetzt müsste ich mir das doch anders überlegen. Die Mainstream Variante würde mir schon reichen. Der Idle Verbrauch ist richtig sensationell, daran wird sich NVIDIA messen müssen. Auch die Lastwerte sind gut. Um einiges schneller als eine GTX285 und dennoch sparsamer.

AnarchX
2009-09-23, 18:44:02
Für AMD besteht offenbar der wirkliche Wert für den Kunden in der theoretischen Rechenleistung:

http://img97.imageshack.us/img97/899/kaigai05.jpg

X-D

Schlammsau
2009-09-23, 18:44:23
......die meisten der ATI-Fraktion haben wohl eher an letzteres glaubt, aber geworden ist es doch eher ersteres...
;D.....ich denke es ist eher umgekehrt! ;)

Lawmachine79
2009-09-23, 18:45:34
Es sieht nicht so aus als ob AI_off bei der Karte noch merkbar mehr Bildqualität bringt. Wenn überhaupt.
Das mag sein, aber hier bleibe ich dabei und bevorzuge die Lösung wie bei NVidia, eine globale Einstellmöglichkeit aber auch die Option für erfahrene Benutzer, die Settings für jedes Spiel en Detail zu regeln. Das bleibt mMn nach ein Mangel, aber die Karte muss ja auch nicht perfekt sein - der GT300 wird auch nicht perfekt sein. Aber mit verbessertem AF, SGSSAA und dem Performanceboost ist der "Tradeoff", weiterhin mit dem Catalysten leben zu müssen, deutlich einfacher zu verschmerzen. Im Kontext zu den positiven Änderungen verbleibt es wie gesagt als kleines, lästiges Haar in der Suppe - nichts was mich vom Kauf abhält.

cipoint
2009-09-23, 18:46:35
... Es wurden halt vorher die Erwartungen sehr in die Höhe getrieben und da ist man jetzt teilweise etwas ernüchtert um es freundlich auzudrücken. ...

Na dann wollen wir hoffen, dass es beim GT300 anders laufen wird. ;D

|MatMan|
2009-09-23, 18:48:36
;D.....ich denke es ist eher umgekehrt! ;)
Wie jetzt? Gibts doch +160% Leistung im Durchschitt? ;)

|MatMan|
2009-09-23, 18:50:35
Na dann wollen wir hoffen, dass es beim GT300 anders laufen wird. ;D
Ich glaube ehrlich gesagt es läuft _nie_ anders :P
(bis vielleicht auf ein paar wenige Ausnahmen wie G80 und RV770)

cipoint
2009-09-23, 18:51:19
Wie jetzt? Gibts doch +160% Leistung im Durchschitt? ;)

Daran haben doch nur Leute geglaubt, die keine Ahnung haben. Wenn die rohe Rechenleistung verdoppelt wird, kann die Karte wohl kaum plötzlich mehr als doppelte Frameraten liefern.

Lawmachine79
2009-09-23, 18:51:51
Gibts sowas nicht mal wenigstens ne Verwarnung von nem Mod?

Es wurden halt vorher die Erwartungen sehr in die Höhe getrieben und da ist man jetzt teilweise etwas ernüchtert um es freundlich auzudrücken.
Ich sage nur "1.6x faster"... und "+160% Leistung" - die meisten der ATI-Fraktion haben wohl eher an letzteres glaubt, aber geworden ist es doch eher ersteres...
Also sorry, ich weiß nicht, wo hier von Ernüchterung zu reden ist. Die Vorstellung ist insgesamt sehr überzeugend. Verbesserte Rohleistungswerte haben sich noch nie 1:1 in FPS umsetzen lassen. Klar kann man warten bis der G300 kommt - aber wer diesen guten Launch jetzt kleinreden will, hat sich damals auch eine 5800 Ultra statt einer 9700 Pro gekauft.

LovesuckZ
2009-09-23, 18:52:12
Frag Wombat - der hat es durch die ganze Welt getragen.

Daran haben doch nur Leute geglaubt, die keine Ahnung haben. Wenn die rohe Rechenleistung verdoppelt wird, kann die Karte wohl kaum plötzlich mehr als doppelte Frameraten liefern.

|MatMan|
2009-09-23, 18:54:29
Daran haben doch nur Leute geglaubt, die keine Ahnung haben. Wenn die rohe Rechenleistung verdoppelt wird, kann die Karte wohl kaum plötzlich mehr als doppelte Frameraten liefern.
Naja es wurde ja noch allgemein was am Design verändert... ;D

Auf jeden Fall wurde seitenlang diskutiert und argumentiert dass 60% viel zu wenig wären. Jetzt sind wir doch etwa da rausgekommen und für die Verdopplung der Rechenleistung ist es IMO auch zu wenig was hinten rauskommt.

horn 12
2009-09-23, 18:58:58
Sapphire auf Lager !!!
329 Euro in Italien!!

http://www.eprice.it/Schede-Video-SAPPHIRE/s-2343283

|MatMan|
2009-09-23, 19:00:06
Also sorry, ich weiß nicht, wo hier von Ernüchterung zu reden ist. Die Vorstellung ist insgesamt sehr überzeugend. Verbesserte Rohleistungswerte haben sich noch nie 1:1 in FPS umsetzen lassen. Klar kann man warten bis der G300 kommt - aber wer diesen guten Launch jetzt kleinreden will, hat sich damals auch eine 5800 Ultra statt einer 9700 Pro gekauft.
Die Ernüchterung war nicht meine persönliche Meinung, so haben hier im Forum nur einige Leute auf mich gewirkt.

Es ist keine Frage ein Schritt vorwärts in die richtige Richtung, aber wie ich eben schon geschrieben habe finde ich die ~50-60% die von den 100% mehr Power rauskommen doch etwas ineffizient. Klar 1:1 erreicht man nie. Ich hoffe dass da mit zukünftigen Treibern noch mehr geht.

derguru
2009-09-23, 19:00:52
bin kein italiener aber steht da nicht irgendwas mit 28.september.?;D

cipoint
2009-09-23, 19:02:56
Naja es wurde ja noch allgemein was am Design verändert... ;D

Auf jeden Fall wurde seitenlang diskutiert und argumentiert dass 60% viel zu wenig wären. Jetzt sind wir doch etwa da rausgekommen und für die Verdopplung der Rechenleistung ist es IMO auch zu wenig was hinten rauskommt.

Ja, stimmt. Ich fand 60% auch zu wenig, aber immernoch um Längen realistischer als 160%. Interessant ist jetzt, wo die Engpässe wirklich liegen. Ist es wirklich das SI? Etwas Anderes fällt mir jetzt nicht ein. Bei den meisten sinnvollen Benchmarks ist keine CPU-Limitierung zu erkennen.

Ich hoffe auf einen baldigen 3DCenter-Review mit dieser Fragestellung. :cool:

Schlammsau
2009-09-23, 19:04:27
Ich hab immer von 60% gesprochen und auch nicht mehr erwartet.

Ist eigentlich schon was über die CF Skalierung bekannt?

horn 12
2009-09-23, 19:05:15
Ja, ab 28. September sollte sie da sein, aber 15 Karten sind bereits HEUTE Mittag eingetroffen...
Juhuu!

nagus
2009-09-23, 19:06:19
Für AMD besteht offenbar der wirkliche Wert für den Kunden in der theoretischen Rechenleistung:

http://img97.imageshack.us/img97/899/kaigai05.jpg

X-D

sowas nennt man MARKETING :P

Gast
2009-09-23, 19:09:24
sowas nennt man MARKETING :P

Und wie man pre-launch gesehen hat, hat es bei den ATI-Lemmingen funktioniert :D

2B-Maverick
2009-09-23, 19:11:44
Ist in irgendeinem der Reviews die Abhängigkeit von der Speicherbandbreite getestet worden?
Sprich: der RAM evtl. mal untertaktet worden?

AnarchX
2009-09-23, 19:14:22
Ist in irgendeinem der Reviews die Abhängigkeit von der Speicherbandbreite getestet worden?
Sprich: der RAM evtl. mal untertaktet worden?
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.ixbt.com%2Fvideo3%2Fcypress-part1.shtml&sl=ru&tl=en&hl=de&ie=UTF-8
... mit 850/975MHz und 950/1250MHz.

derguru
2009-09-23, 19:14:57
wen der min. fps wert interessiert sollte hier mal schauen,performt teilweise sehr gut.
http://www.bit-tech.net/hardware/graphics/2009/09/23/ait-radeon-hd-5870-1gb-review/1

Picknatari
2009-09-23, 19:19:53
Ich kann mich des Eindrucks nicht erwehren, daß ATI für den GT300 Launch noch was in der Hinterhand hält, je nach dem wie eben der GT300 einschlägt.

LovesuckZ
2009-09-23, 19:19:57
wen der min. fps wert interessiert sollte hier mal schauen,performt teilweise sehr gut.
http://www.bit-tech.net/hardware/graphics/2009/09/23/ait-radeon-hd-5870-1gb-review/1

Ohne Frames-Verlauf ist es witzlos. So sind die Min. FPS in Fallout bei der GTX285 in 2560x1600 höher als in 1920x1200.

Sorkalm
2009-09-23, 19:21:01
Ich kann mich des Eindrucks nicht erwehren, daß ATI für den GT300 Launch noch was in der Hinterhand hält, je nach dem wie eben der GT300 einschlägt.

Schnellerer Speicher. :tongue:

Schlammsau
2009-09-23, 19:23:50
Ich kann mich des Eindrucks nicht erwehren, daß ATI für den GT300 Launch noch was in der Hinterhand hält, je nach dem wie eben der GT300 einschlägt.

Ja die 5870X2!

2B-Maverick
2009-09-23, 19:28:19
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.ixbt.com%2Fvideo3%2Fcypress-part1.shtml&sl=ru&tl=en&hl=de&ie=UTF-8
... mit 850/975MHz und 950/1250MHz.

Schade... das bringt ja nix, weil dort der Chip-Takt mitverändert wurde.
Na ja.. kann ja hoffentlich bald jemand aus dem Forum hier machen.

edit: ah! sehe nun, dass sie die Veränderungen zur Std. Variante getestet haben... OKI :)

horn 12
2009-09-23, 19:35:03
Die HD5870 1GB Vapor X von Sapphire
ca. 26,75 cm Lang
Geil!!!

http://www.hwupgrade.it/forum/showthread.php?t=2052963&page=13

tombman
2009-09-23, 19:54:19
Die bessere Filterung scheint Cypress wohl doch etwas zu kosten:
http://img411.imageshack.us/img411/6550/rm3dfiltering.gif (http://img411.imageshack.us/i/rm3dfiltering.gif/)
http://techreport.com/articles.x/17618/6
Brutal! Im höchsten Modus nur knapp über GTX285 HQ. GT300 wird in der HInsicht den Boden mit RV870 aufwischen...

reunion
2009-09-23, 19:58:20
Die bessere Filterung scheint Cypress wohl doch etwas zu kosten:
http://img411.imageshack.us/img411/6550/rm3dfiltering.gif (http://img411.imageshack.us/i/rm3dfiltering.gif/)
http://techreport.com/articles.x/17618/6

Hatte ich ganz übersehen. Das zeigt eigentlich ziemlich deutlich das AMD mehr Füllrate in AF investiert als NV. Oder wie ist sonst ein solches Ergebnis zu erklären? Bei bi und tri noch deutlich vorne, mit AF nimmt der Vorsprung stetig ab.

horn 12
2009-09-23, 20:11:53
http://www.youtube.com/watch?v=7ug3lM7uqK8

Hier ein Viedo zur HD5870 Sapphire Toxic Edition!
Die Karte misst gerade mal 26,75 cm.

http://www.hwupgrade.it/news/skvideo...r-x_30208.html

cipoint
2009-09-23, 20:13:19
Hier verbraucht die HD5870 under 3DMark06 15 Watt weniger als eine GTX285 und im Idle gar ganze 40 Watt weniger! :eek:

Zumindest was den Verbrauch angeht, ist noch Platz nach oben. Die HD5890 wird wohl ein größerer Sprung als HD4870->HD4890. Nur die Bandbreite ... was ATI damit machen wird?

AnarchX
2009-09-23, 20:21:41
Hatte ich ganz übersehen. Das zeigt eigentlich ziemlich deutlich das AMD mehr Füllrate in AF investiert als NV. Oder wie ist sonst ein solches Ergebnis zu erklären? Bei bi und tri noch deutlich vorne, mit AF nimmt der Vorsprung stetig ab.
Wobei in realen Anwendungen CB keinen Unterschied misst:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/7/#abschnitt_skalierungstests (ganz unten)

reunion
2009-09-23, 20:23:21
Wobei in realen Anwendungen CB keinen Unterschied misst:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/7/#abschnitt_skalierungstests (ganz unten)

In realen Anwendungen lässt sich das auch schwer messen, da eine Karte mit mehr Leistung immer weniger einbricht da sie öfter am CPU-Limit hängt.

Gast
2009-09-23, 20:24:54
Gibt es eigentlich schon irgendwelche Benchmarks und verifizierte Zeitangaben zu nvidia-Produkten (G300) oder sind die hier genannten Überlegungen alle theoretischer Natur?
Manchmal habe ich den Eindruck, dass mir wichtige Informationen fehlen und die G300 unmittelbar vor ihrer Veröffentlichung steht.

Aber nochmals die Frage: Können jetzige und zukünftige nvidia-Produkte auch mehr als 2 Monitore unterstützen?

reunion
2009-09-23, 20:27:07
Aber nochmals die Frage: Können jetzige und zukünftige nvidia-Produkte auch mehr als 2 Monitore unterstützen?

Jetzige nicht, bei zukünftigen kann man es natürlich nicht ausschließen.

cipoint
2009-09-23, 20:28:11
Gibt es eigentlich schon irgendwelche Benchmarks und verifizierte Zeitangaben zu nvidia-Produkten (G300) oder sind die hier genannten Überlegungen alle theoretischer Natur?
Manchmal habe ich den Eindruck, dass mir wichtige Informationen fehlen und die G300 unmittelbar vor ihrer Veröffentlichung steht.

Aber nochmals die Frage: Können jetzige und zukünftige nvidia-Produkte auch mehr als 2 Monitore unterstützen?

Davon war bisher noch nie etwas zu hören und ich persönlich tippe auf "nein".

Gast
2009-09-23, 20:28:49
Hatte ich ganz übersehen. Das zeigt eigentlich ziemlich deutlich das AMD mehr Füllrate in AF investiert als NV. Oder wie ist sonst ein solches Ergebnis zu erklären? Bei bi und tri noch deutlich vorne, mit AF nimmt der Vorsprung stetig ab.
Schlechtere Implementierung, warum nicht.
AMD muss nicht immer alles besser machen. TMUs alleine sagen auch nicht alles aus, vielleicht ist eine GT200 TMU einfach viel wertvoller als eine RV870 TMU.

Gast
2009-09-23, 20:29:34
Kennt das schon jemand.
ASUS, the world’s leading producer of top quality, cutting edge graphics solutions, today launched the new ASUS EAH5870/2DIS/1GD5 and EAH5850/2DIS/1GD5. The first in the world to utilize Voltage Tweak technology, these graphics cards enable users to boost GPU voltages via the SmartDoctor application to enjoy up to a 38% improvement in performance.

http://www.hexus.net/content/item.php?item=20372

Gast
2009-09-23, 20:30:30
Jetzige nicht, bei zukünftigen kann man es natürlich nicht ausschließen.

Bedarf das längere Planung oder kann man so etwas auch kurzfristig ändern?

Gast
2009-09-23, 20:31:18
Schlechtere Implementierung, warum nicht.
AMD muss nicht immer alles besser machen. TMUs alleine sagen auch nicht alles aus, vielleicht ist eine GT200 TMU einfach viel wertvoller als eine RV870 TMU.
In dem frühen Stadium würde ich eher auf Treiber tippen.

MRM
2009-09-23, 20:33:21
Du feierst den Sieg zu einem Kampf, der außer in deinem Kopf noch gar nicht stattgefunden hat. Und nein, der Kampf heißt NICHT: "beste Karte von beiden zu einem bestimmten Zeitpunkt" sondern wird immer nur heißen: "Gleiche GPU-Generationen gegeneinander".


Auch falsch - der Kampf geht immer nur darum, wie bekomme ich als Firma das Geld meiner Kunden auf mein Konto ... :wink:

Gast
2009-09-23, 20:34:08
Es gewinnt nicht der Boxer, der es zuerst in den Ring geschafft hat- ROFL ;D

Aber natürlich. Wenn der andere Boxer nicht beizeiten da ist, hat er verloren. Was denn sonst. Wirtschaft ist keine Showveranstaltung (obwohl....). Sofern also ATI ihre Karten verkauft bekommt, liegen sie in Führung. Wie das dann aussieht, wenn die G300 erscheint, steht noch in den Sternen (meiner bescheidenen Meinung nach).

Jake Dunn
2009-09-23, 20:35:47
+erstes DX11 Game ist da
+OC Tool (AMD GPU Clock Tool v0.9.26.0 For HD 5870) ->http://www.techpowerup.com/downloads/1641/AMD_GPU_Clock_Tool_v0.9.26.0_For_HD_5870.html
+AMD Treiber HP aktuell

:D

Matrix316
2009-09-23, 20:48:42
Man sollte bei dem ganzen Vergleichen auch nicht vergessen, dass eine 4870 unverhältnis billig geworden ist. Laut Computerbase ist die GTX 285 nur 9% schneller in 1920x1200 8xAA/16xAF als eine 4870. Und eine 275 sogar langsamer. Trotzdem kosten die nVidia Karten ca. 70 bzw. 150 € mehr.

cipoint
2009-09-23, 20:49:21
Laut c't zieht die HD5870 sogar nur 19 Watt:
http://www.heise.de/newsticker/Radeon-HD-5800-Die-ersten-DirectX-11-Grafikkarten-sind-da--/meldung/145716

Also der Idle-Verbrauch geht so schon in Ordnung. Weniger muss nicht unbedingt sein. Jetzt muss noch am Load-Verbrauch gearbeitet werden.

cipoint
2009-09-23, 20:51:20
Wenn HD5890 zeitgleich zum GT300 kommt, warum sollte man sich noch an der langsameren HD5870 messen? Noch wichtiger wird aber der Preis sein.

Zatoichi
2009-09-23, 20:51:48
Hmm, wo gibts Benches zur 5850?

Ganz ehrlich, selbst ich als eher NV User muß doch sagen, was hat ATi jetzt so falsch gemacht? Stromverbrauch und Lautstärke sind im grünen Bereich, Preis mit ab ca 200€ für die kleine , welche auf Niveau der 285er sein sollte doch auch? Mich persönlich stört nur, das wieder nichts im Bereich Mgpu gemacht wurde im Bezug auf die Treiber. Gibt viel Graka fürs Geld atm....

AnarchX
2009-09-23, 20:53:18
Hmm, wo gibts Benches zur 5850?

Siehe 1. Posting, bisher nur von TPU, welche die 5870 heruntergetaktet und über das BIOS 2 SIMD deaktiviert haben.

Sisaya
2009-09-23, 21:01:12
Ich bin vor allem vom AF enttäuscht. Habe da wie einige andere ja auch doch mehr erwartet. :(

reunion
2009-09-23, 21:01:22
Schlechtere Implementierung, warum nicht.
AMD muss nicht immer alles besser machen. TMUs alleine sagen auch nicht alles aus, vielleicht ist eine GT200 TMU einfach viel wertvoller als eine RV870 TMU.

Jede TMU schafft 1bi Sample pro Takt, völlig unabhängig ob von AMD oder NV. Wenn RV870 hier mehr Füllrate durch AF verliert bedeutet das zwangsläufig das er mehr Samples investiert. Was verstehst du unter schlechtere Implementierung?

tombman
2009-09-23, 21:04:45
Hat ATI echt super gemacht. :)
Überall ein wenig verbessert und die Leistung dort wo es drauf ankommt auch.
Also Verlustleistung ist bei der Performace auf jeden Fall hervorragend. Die BQ ist auch verbessert worden. RGSSA :up: SUPER!
Wobei das Beste eigentlich die anvisierten Preise sind :eek:
Da ist Nvidia wohl platt. Ich glaube kaum, dass sich für die eine GTX285 um 200 Euro rentiert. Mehr können sie dafür aber bei den Preisen der 5850er nicht verlangen.
Das wird hard für NV.

Noch was...
ich weiß nicht was hier einige von der Leistung erwartet haben, aber ich sehe in etwa das, was ich mir vorgestellt habe.
Am meisten haben mich zwei Spiel interessiert, Crysis (Warhead) und STALKER CS.
Das sind die anspruchsvollsten Spiele, wo jedes Frame zählt und hier kann die 5800er wirklich zeigen, wo der Hammer hängt.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/18/#abschnitt_crysis_warhead
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/20/#abschnitt_stalker_clear_sky

Die 5870 ist in etwas auf Dual-GPU Niveau der letzten Generation.
Habt ihr mehr erwartet? Ich ehrlich gesagt nicht.
Die anderen Spiel sind nicht so interessant, da Leistung im Überfluss. :)
Das Problem ist aber, daß du weiterhin ZWEI HD5870 brauchst um auf 1920x1200 4xAA/16xAF Crysis und ST:CS maximiert vernünftig spielen zu können (genauso wie du derzeit Quad SLI/CF brauchst ;)). Den "ultimativen Single-Gpu Test" hat AMD also nicht bestanden....

Matrix316
2009-09-23, 21:04:48
Dass die Karte jetzt nicht doppelt so schnell ist, könnte vielleicht auch am RAM liegen. Bei der X2 hat man ja im Prinzip auch nur 1 GB RAM. Und da die 5870 von den Werten fast gleich der 4870X2 ist und Crossfire wenn dann schon ziemlich gut skaliert...

reunion
2009-09-23, 21:08:50
Glaube ich kaum. Die 2GB Version bringt im Schnitt vielleicht 5%. In einzelnen Anwendungen kann das natürlich entsprechend mehr werden.

Undertaker
2009-09-23, 21:12:00
Man sollte bei dem ganzen Vergleichen auch nicht vergessen, dass eine 4870 unverhältnis billig geworden ist. Laut Computerbase ist die GTX 285 nur 9% schneller in 1920x1200 8xAA/16xAF als eine 4870. Und eine 275 sogar langsamer. Trotzdem kosten die nVidia Karten ca. 70 bzw. 150 € mehr.

8xMSAA, und das sage ich als HD4870 Eigner, ist aber auch ein höchst überflüssiger Modus. Kein sinnvoller Optikgewinn zu 4xMSAA und in neueren Spielen in FullHD eh zu langsam. Mit 4x hat eine GTX285 30%, eine HD5870 60% mehr Leistung. Das sind die Stellen, wo die Performance sinnvoll ankommt.

Gast
2009-09-23, 21:16:26
was mich mal interssieren würde: wie verhält sich eine 5870 mit halber Taktrate und gleicher Speichertaktrate wie eine 4890! Müssten fast exakt gleich schnell sein, oder? Es sei denn die 1600 alus können schlechte ausgelastet werden. Wenn Sie aber gleich schnell ist, weiß man, dass es an der Speicherbandbreite/Treiber liegt.

Ronny145
2009-09-23, 21:27:20
Zur Ergänzung:

http://hothardware.com/Articles/AMD-ATI-Radeon-HD-5870-Unquestionably-Number-One/
http://www.bjorn3d.com/read.php?cID=1682
http://www.firingsquad.com/hardware/ati_radeon_hd_5870_performance_preview/


Bei Bjoern3d wurde Battleforge mit "DX11-level" getestet bei der HD5870.

Laut c't zieht die HD5870 sogar nur 19 Watt:
http://www.heise.de/newsticker/Radeon-HD-5800-Die-ersten-DirectX-11-Grafikkarten-sind-da--/meldung/145716

Also der Idle-Verbrauch geht so schon in Ordnung. Weniger muss nicht unbedingt sein. Jetzt muss noch am Load-Verbrauch gearbeitet werden.

xbitlabs liegt bei 15 Watt, aber ob nun 15 oder 20, deutlich sieht man das erst in der Gesamtmessung.


http://www.abload.de/img/pwridle69jd.gif

http://www.abload.de/img/pwrloadzx2f.gif

Jake Dunn
2009-09-23, 21:30:48
:biggrin:

http://www.fudzilla.com/content/view/15653/1/

When Voltage Tweak comes into play, the HD 5870 can be overclocked to 1035MHz for the GPU and 5200MHz for memory by just raising the voltage from 1.15V to 1.35V. With the HD 5850 it gets even better as it can be overclocked via Voltage Tweak to 1050MHz for the GPU and 5200MHz for the memory by raising the voltage from 1.088V to 1.4V.

AnarchX
2009-09-23, 21:32:28
Wie oft denn noch?;)

Wer 250-300W Realverbrauch haben will, der kann natürlich auf >1GHz bei >1,35V übertakten.:D

Tigershark
2009-09-23, 21:32:39
:biggrin:

http://www.fudzilla.com/content/view/15653/1/

Super. Und was dann wohl mit Verbrauch, Temperatur und Lautstärke passiert? :rolleyes: Iss ja nicht so, dass die Steigerung fast 33% entspricht...

@Gast darüber - falscher Thread???

tombman
2009-09-23, 21:38:51
Auch falsch - der Kampf geht immer nur darum, wie bekomme ich als Firma das Geld meiner Kunden auf mein Konto ... :wink:
Aber natürlich. Wenn der andere Boxer nicht beizeiten da ist, hat er verloren. Was denn sonst. Wirtschaft ist keine Showveranstaltung (obwohl....). Sofern also ATI ihre Karten verkauft bekommt, liegen sie in Führung. Wie das dann aussieht, wenn die G300 erscheint, steht noch in den Sternen (meiner bescheidenen Meinung nach).
Falscher Standpunkt: Wir sind nicht die Boxveranstalter oder Buchmacher sondern die Zuseher ;)
Und die Zuseher wollen einen ordentlichen Kampf und nicht Geld verdienen- wir KAUFEN die Produkte, wir verkaufen sie nicht.
Derzeit sitzt ein Boxer in der Ecke, der andere ist noch nicht da, und eine Teilmenge der Zuseher ist bereits aufgesprungen und feiert ihren Sieger- so schauts aus ;)

cipoint
2009-09-23, 21:42:10
Was ist an der Asus eigentlich so besonders? Vcore lässt sich doch schon bei der HD48xx-Serie per Software einstellen, oder etwa nicht?

Gast
2009-09-23, 21:49:51
Falscher Standpunkt: Wir sind nicht die Boxveranstalter oder Buchmacher sondern die Zuseher ;)
Und die Zuseher wollen einen ordentlichen Kampf und nicht Geld verdienen- wir KAUFEN die Produkte, wir verkaufen sie nicht.
Derzeit sitzt ein Boxer in der Ecke, der andere ist noch nicht da, und eine Teilmenge der Zuseher ist bereits aufgesprungen und feiert ihren Sieger- so schauts aus ;)

Du merkst ja selbst, dass dein Vergleich völlig hinkt. ;) ATI will Geld verdienen und sie haben es schon gemacht (siehe Dell). Der Kampf hat also schon begonnen. Das andere Team ist zwar schon da, leider fehlt noch der Boxer. Ob die Zuschauer applaudieren oder Buh rufen, ist dabei völlig egal, zumal ja viele Fans von beiden Seiten darunter sind (und die werden hoffentlich nicht die Schiedsrichter).

Momentan würde ich bei einem Neukauf eine ATI 5XXX kaufen, da kein Vergleichsprodukt von nvidia vorhanden.

Matrix316
2009-09-23, 21:52:22
8xMSAA, und das sage ich als HD4870 Eigner, ist aber auch ein höchst überflüssiger Modus. Kein sinnvoller Optikgewinn zu 4xMSAA und in neueren Spielen in FullHD eh zu langsam. Mit 4x hat eine GTX285 30%, eine HD5870 60% mehr Leistung. Das sind die Stellen, wo die Performance sinnvoll ankommt.
Selbst mit 4xAA sind die Abstände zu nvidia wesentlich geringer was die FPS betrifft, im Gegensatz zum Preis.

Lawmachine79
2009-09-23, 21:58:00
Selbst mit 4xAA sind die Abstände zu nvidia wesentlich geringer was die FPS betrifft, im Gegensatz zum Preis.
Was bei neuen Karten völlig normal ist. Eine 88GTS war zum Release c.a. 70% schneller als eine X1950XT aber mehr als doppelt so teuer. Und man zahlt auch nicht nur für Frames.

tombman
2009-09-23, 22:03:05
Du merkst ja selbst, dass dein Vergleich völlig hinkt. ;) ATI will Geld verdienen und sie haben es schon gemacht (siehe Dell). Der Kampf hat also schon begonnen.

Der Vergleich hinkt eben nicht, er ist ziemlich perfekt.
Wir, die Zuseher, wollen wissen, welcher Boxer besser ist und nicht welches team mehr oder schneller Geld verdient ;)
Solange nicht beide Boxer im Ring sind gibt es keine Antwort und keinen Kampf.

Gast
2009-09-23, 22:07:26
Versteh absolut nicht wieso die nvidia fraktion auf biegen und brechen versucht die karte schlecht zu reden. An stelle sich zu freuen das ati/amd ein konkurrenzfähiges produkt hat und damit gesichert hat ist das sie auch ihn zukunft ihre geliebte nvidia zu einigermassen vernünftigen preisen kriegen wird versucht die karte schlecht zu machen.

Sie ist momentan die schnellste single-gpu karte mit gutem stromverbrauch im vergleich zu den anderen und guter bildqualität. Teils ist die sogar bis zu 40% schneller als die 285gtx. Hut ab ati/amd, jetzt muss man nur noch abwarten wie sich nvidia schlägt.

MartinRiggs
2009-09-23, 22:12:32
Ich denke auch das die verbesserte Filterung dazu beiträgt das nicht noch mehr FPS ankommen, darüber sollte man aber trotzdem froh sein, bei der nächste ATI gibt es dann vielleicht endlich einen Modus der dem NV-HQ das Wasser reichen kann.
Wenn die BQ-Fetischisten von PCGH die Karte nicht verreissen dann ist ATI wohl wirklich ein ganz guter Wurf gelungen.

reunion
2009-09-23, 22:13:21
Der Vergleich hinkt eben nicht, er ist ziemlich perfekt.
Wir, die Zuseher, wollen wissen, welcher Boxer besser ist und nicht welches team mehr oder schneller Geld verdient ;)
Solange nicht beide Boxer im Ring sind gibt es keine Antwort und keinen Kampf.

Solange es keinen Herausforderer gibt steht der Sieger schon fest.

Gast
2009-09-23, 22:17:24
Der Vergleich hinkt eben nicht, er ist ziemlich perfekt.

Für Dich vielleicht. Aber ich bin nicht ein reiner Zuschauer, ich will auch kaufen.


Wir, die Zuseher, wollen wissen, welcher Boxer besser ist und nicht welches team mehr oder schneller Geld verdient ;)
Solange nicht beide Boxer im Ring sind gibt es keine Antwort und keinen Kampf.

Warum sollte ich auf nvidia warten? Meine Entscheidung wird die nächsten 4-5 Wochen fallen. Außerdem war nvidia bei neuen Produkten noch nie preisgünstig. Sind sie, wie von vielen gewünscht, wirklich viiiieeel schneller, dann werden sie zu teuer sein. Da sie mir auch keine Zeit nennen können, wie lange ich warten muss und ich leider auch davon ausgehen muss, dass sie nicht mehr als zwei Monitore unterstützen, haben sie für den nächsten Kauf den Vergleichskampf schon verloren. Bei der nächsten Graka kann es dann mal wieder anders aussehen. Falls nvidia es doch noch schaffen, ein zum 5850 vergleichbares Produkt mit Unterstützung von 3 Monitoren auf den Markt zu bringen, dann schiele ich vielleicht noch mal auf das goldene Kalb namens FPS.

Für reines Zuschauen beim GraKa-Boxkampf ohne Kauf wäre mir die Zeit zu knapp.

PatkIllA
2009-09-23, 22:18:36
HD-Bitstream :up:
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=10
Das ist glaub ich der erste Test überhaupt seit einführung von HDMI am PC, wo das jemand wirklich mal ausprobiert hat.

Chris2CB
2009-09-23, 22:18:59
Versteh absolut nicht wieso die nvidia fraktion auf biegen und brechen versucht die karte schlecht zu reden. An stelle sich zu freuen das ati/amd ein konkurrenzfähiges produkt hat und damit gesichert hat ist das sie auch ihn zukunft ihre geliebte nvidia zu einigermassen vernünftigen preisen kriegen wird versucht die karte schlecht zu machen.

Sie ist momentan die schnellste single-gpu karte mit gutem stromverbrauch im vergleich zu den anderen und guter bildqualität. Teils ist die sogar bis zu 40% schneller als die 285gtx. Hut ab ati/amd, jetzt muss man nur noch abwarten wie sich nvidia schlägt.


Auf dem Papier hat eine 5870 mehr Leistung als eine 4870x2, liegt aber des öfteren hinter dieser.........

Entweder werden die nächsten Treiber das Problem lösen, oder das muss jemand ganz genau Erklären..

desert
2009-09-23, 22:20:45
Solange es keinen Herausforderer gibt steht der Sieger schon fest.

Wenn du es sagst. Warten wir doch einfach mal ab. Wer weiss den wirklich was nvidia schon oder schon nicht hat.

Bis jetzt haben beide boxer den ring noch nicht betreten. Der eine hat nur eine ankündigung gemacht das er irgendwann im oktober in den ring steigen will und vom dem anderen hat man noch nichts gehört ausser gerüchte von charlie.

Wer weiss was nvida noch an störfeuern abbrennt.

Gast
2009-09-23, 22:43:24
Auf dem Papier hat eine 5870 mehr Leistung als eine 4870x2, liegt aber des öfteren hinter dieser.........

Entweder werden die nächsten Treiber das Problem lösen, oder das muss jemand ganz genau Erklären..
Das Papier sagt eindeutig, das eine 4870 X2 deutlich mehr Bandbreite hat.

tombman
2009-09-23, 22:45:14
Solange es keinen Herausforderer gibt steht der Sieger schon fest.
Es gibt aber einen Herausforderer, er ist nur noch nicht eingetroffen.
Außer die Welt geht vor dem GT300 launch unter, dann hättest du Recht :rolleyes:

Warum sollte ICH auf nvidia warten?
Es ging darum wer die bessere GPU baut/bauen kann und nicht um persönliche Kaufentscheidungen.
Um in der ANALogie zu bleiben: du bist der Zuschauer, der direkt nach dem Boxevent noch einen dringenden Termin hat, jetzt nicht auf den zweiten Boxer warten kann und daher den ersten und einzigen Boxer für sich persönlich zum Sieger erklärt "Ähm, ich muß mal weg-> Boxer AMD gewinnt" ;D
===
Für mich persönlich sieht es derzeit so aus: um ein spürbaren fps-Schub zu bekommen, bräuchte ich mindestens 3 (in Worten DREI) HD5870 Karten, die 6 Slots belegen. Dazu müßte ich mich mit unverändertem ATI-CF herumschlagen -> no way, baby...

Superheld
2009-09-23, 22:52:11
Tombman es reicht !

nicht jeder hat 2* 295er wie du :freak:

Gast
2009-09-23, 22:52:37
Solange es keinen Herausforderer gibt steht der Sieger schon fest.
Bisher hieß der Sieger GTX 285/295, er hat den alten König 8800 GTX besiegt.

Der Herausforderer, 5870 kann nicht eindeutig punkten, die AF Schwäche ist unverzeihlich, dennoch steht er scheinbar bald vorne.

Die Frage ist, wie lange? Noch ist die 5870 nicht König, dazu fehlt mindestens die Möglichkeit sie zu kaufen. Dannach werden einige Wochen/wenige Monate vergehen und die GTX 380 steht auf der Matte.
Es ist ein kurzer Glanzmoment für AMD, den dann wird Nvidia länger als einige Wochen/wenige Monate auf dem Thron sitzen.

Du kannst gerne die Sektkorken knallen lassen, wenn die 5870 den Markt erreicht hat. Beeil dich aber, die dunkle Zeit danach wird wieder länger dauern, bis AMD RV980 rausbringt, sofern er vor GT400 kommt.

tombman
2009-09-23, 22:54:31
Tombman es reicht !

nicht jeder hat 2* 295er wie du :freak:
Dein ava-Bild ownt :)

Jake Dunn
2009-09-23, 22:55:17
Kann man mal den Müll hier entsorgen? ;(

RoNsOn Xs
2009-09-23, 22:56:33
und dann zum 2ten mal...
ich weiß auch wer´s wieder angefangen hat.

Gast
2009-09-23, 22:59:14
Es ging darum wer die bessere GPU baut/bauen kann und nicht um persönliche Kaufentscheidungen.
Das gilt auch für Normalos, die sich AFR nicht antun wollen, GT200 ist bislang König, es gibt bisher schlicht nichsts besseres.
Zuvor hieß der König G80, sein Untertan hieß G92, erst darunter sammelte sich die Konkurrenz.

Die 3 Monate RV870 Herschaft verkraften wir schon, angesichts seiner Nachteile wird er mich nicht in Versuchung führen.

Gast
2009-09-23, 22:59:32
lassen doch laabern, die Karte ersetzt ne X2 und 295er, die nach seinen Aussagen soweiso immer abkackt, was will man mehr, ich kann auf X2 Level zocken mit einer Karte, mit Wasser und den digitalen Spawas kannste das Ding ocen bis der Arzt kommt und gut ist.

Und wenn der 600€ NV Schrott mit billig SPAWA kommt, bekomm ich jetzt schon nen Lachkrampf, die Dummen sterben halt nett aus.

Armaq
2009-09-23, 22:59:56
Zur Zeit ist eine HD5850 oder eine 70 die beste Karte. Soviel kann man sagen. Hätte wenn und aber bringt uns erstmal nicht weiter. Nvidia hat nichts und anscheinend haben sie auch in naher Zukunft nichts, denn ansonsten hätte man viel mehr Krach gemacht. Das steht für mich einmal fest. Auch wenn alle auf eine sehr gute Nachfolgerin hoffen, so kann ich nicht glauben, dass man Ati Deals wie die mit Dell überlässt, wenn man eine ernsthafte Alternative hätte.

Tomahawk
2009-09-23, 23:02:29
Der Herausforderer, 5870 kann nicht eindeutig punkten, die AF Schwäche ist unverzeihlich
So unverzeilich, dass die Tester die Karte loben? Hauptsache du weißt, was verziehen werden kann.

Summa summarum eine gelungene Karte, die auch recht fix und ohne Verzögerung vorgestellt wurde. Schön, dass ATi an mehreren Fronten Verbesserungen durchgeführt hat. Dass zukünftige Karten schneller werden, dürfte nicht überraschen.

Ich bin auf nVidias Reaktion gespannt. Die 285er muss günstiger werden (wenn sie denn mal verfügbar wäre).

tombman
2009-09-23, 23:04:14
Klar ist die HD5870 die derzeit beste Karte, wenn man auf Phys-X verzichten kann.
Will sich heute wer einen gaming pc bauen, würde ich zu einem 4Ghz i7/i5 und einer HD5870 raten....

Tomahawk
2009-09-23, 23:10:06
4 ghz i7? Klar, wenn "man" genug Kleingeld hat.

Wann ist denn mit Reviews von 5850ern zu rechnen? Sie scheinen ja parallel ausgeliefert zu werden.

MR2
2009-09-23, 23:10:50
Das klingt doch hervorragend. Weis gar nicht was ihr wollt. ;-)

http://hartware.net/review_995_16.html

"In den Benchmarks kann die Radeon HD 5870 die bislang schnellste 1-Chip-Grafikkarte überraschend deutlich hinter sich lassen. Sie ist in allen getesteten Spielen schneller, in den meisten Fällen sogar 30 bis 40 Prozent. Der Performance-Vergleich mit Radeon HD 4870 und 4890 ist eigentlich keiner, in einigen Spielen ist die 5870 fast doppelt so schnell wie die 4870. "

Oft sind die von den Herstellern versprochenen Revolutionen bei der Einführung neuer Grafikkartengenerationen ausgeblieben und man einigt sich dann auf "Evolution", aber bei der ATI Radeon HD 5870 kann man ruhig von einem Quantensprung für AMD sprechen.

Tomahawk
2009-09-23, 23:13:51
Überraschend deutlich ist übertrieben. Der Unterschied von 4870 auf 285 ist in etwa so groß wie von 285 auf 5870.

@LovesuckZ
Quantensprung für AMD heißt eher im Vergleich zum letzten Chip. Sonst hätte dort wohl Quantensprung für Grafik-Chips gestanden.

Gast
2009-09-23, 23:14:35
4 ghz i7? Klar, wenn "man" genug Kleingeld hat.

Wann ist denn mit Reviews von 5850ern zu rechnen? Sie scheinen ja parallel ausgeliefert zu werden.
4gig i7 gibbet nett, kannst dir nen 920 D0er für 200€ kaufen und den dahin ocen..unter 4gig brauchst die 5870 garnett kaufen.

Tomahawk
2009-09-23, 23:17:17
4gig i7 gibbet nett, kannst dir nen 920 D0er für 200€ kaufen und den dahin ocen..unter 4gig brauchst die 5870 garnett kaufen.
Na wenn man schone eine neue CPU kauft, dann muss sie doch nicht gleich so langsam sein, dass man sie gleich übertakten muss.

Gast
2009-09-23, 23:17:43
Zur Zeit ist eine HD5850 oder eine 70 die beste Karte.
Falsch, erst wenn es sie gibt. Es gibt sie, wenn sie im Laden liegt.


Hätte wenn und aber bringt uns erstmal nicht weiter. Nvidia hat nichts und anscheinend haben sie auch in naher Zukunft nichts, denn ansonsten hätte man viel mehr Krach gemacht.Nvidia war lange genug an der Spitze, meinst du nicht? Nach meiner Berechnung sind es jetzt 3 Jahre, wie lange wird AMD vorne sein, 3 Monate? ;)

So unverzeilich, dass die Tester die Karte loben? Hauptsache du weißt, was verziehen werden kann.

Ich schenke AMD gewieß kein Geld um ein Produkt zu erhalten, das in dem Punkt klar meinen letzten 2 Karten unterlegen ist.

Es ist nichtmal der einzige Punkt, die allgemeine AA Kombatibilität und die Profilverwaltung wurden nicht verbessert.

LovesuckZ
2009-09-23, 23:17:55
@LovesuckZ
Quantensprung für AMD heißt eher im Vergleich zum letzten Chip. Sonst hätte dort wohl Quantensprung für Grafik-Chips gestanden.

Also auch im AMD eigenen Vergleich sehe ich keinen Quantesprung. Mehr eine Evolution mit D3D11.

Tesseract
2009-09-23, 23:18:35
also in den letzten jahren haben imho genau 2 releases die bezeichnung "quantensprung" wirklich verdient, und das waren G80 und R300.

4 ghz i7? Klar, wenn "man" genug Kleingeld hat.
für 4GHz braucht man wohl schon ein gutes modell oder eine kühlung, die mit 1,4V+ zurecht kommt aber auf ~3,8 sollte man wohl jeden lynnfield ohne probleme bekommen. auch die billigsten.

Armaq
2009-09-23, 23:19:04
Das Fazit geht so in Ordnung. Sie haben halt wirklich viele Baustellen bearbeitet. Nur die Rechenpower würde ich gerne mal "in echt" sehen. 2.7 GFlops müssen doch irgendwo durchdrücken. Gibts denn spezielle Benchs für die Shader?

Tarkin
2009-09-23, 23:20:10
Also sorry, ich weiß nicht, wo hier von Ernüchterung zu reden ist. Die Vorstellung ist insgesamt sehr überzeugend. Verbesserte Rohleistungswerte haben sich noch nie 1:1 in FPS umsetzen lassen. Klar kann man warten bis der G300 kommt - aber wer diesen guten Launch jetzt kleinreden will, hat sich damals auch eine 5800 Ultra statt einer 9700 Pro gekauft.

Dafür gibts Applaus ... eines der wenigen sinnvollen Postings in diesem Thread.

und btw. Ja es gibt Situationen wie die 5870er durchaus doppelt so schnell ist wie der Vorgänger 4870 (bzw. sogar Top-Single-GPU-Produkte der Konkurrenz).

http://www.legionhardware.com/Bench/ATI_Radeon_HD_5870/CoH_03.png

http://www.legionhardware.com/Bench/ATI_Radeon_HD_5870/ETQW_03.png

mhm... wirklich ziemliche enttäuschend wenn ich es mir recht überlege (*mit flacher Hand auf die Stirn klatsche*)

Dass das nicht durch die Bank sein KANN sollte jedem klar sein (oder auch nicht wie es scheint... das nennt man dann kindliche NAIVITÄT). Die G300 Träume die hier bestimmte Leute haben werden sich spätestens bei G300 Launch zerschlagen - jede Wette. Aber ich bin mir sicher da wird dann jedes % Mehrleistung über 5870 mit einem Feuerwerk gefeiert und so getan, als wäre es des 8. Weltwunder.

Genug geärgert für heute. Gute Nacht!

MRM
2009-09-23, 23:20:45
Wann ist denn mit Reviews von 5850ern zu rechnen? Sie scheinen ja parallel ausgeliefert zu werden.

TechPowerUp hat sie zumindest simuliert ( We simulated the performance of the HD 5850 by taking our HD 5870, reducing the clock speeds and disabling two SIMDs, which results in exactly the same performance as HD 5850 )

http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/7.html

Keine Ahnung, wie gut so was hinkommt ...

Tomahawk
2009-09-23, 23:25:58
Ich schenke AMD gewieß kein Geld um ein Produkt zu erhalten, das in dem Punkt klar meinen letzten 2 Karten unterlegen ist.

Keine Sorge, schenken tut keiner Geld, sofern er dafür eine Gegenleistung bekommt. Der Vorgang nennt sich Kauf. Es wird mehrere Punkte geben, wo die alte karte besser war (Gewicht, Stromverbrauch, Design ...)

Die Performance ist klasse, wenn man berücksichtigt, dass die 4890 vor nur 5 Monaten vorgestellt wurde (Für ATi, gegen die 285 ist der Vorteil deutlich kleiner). Aber für die 5 Monate ist das ein kleiner Quantensprung für ATi, gerade weil sie anscheinend recht deutlich früher DX11 implementiert haben.

Schnitzl
2009-09-23, 23:29:34
Klar ist die HD5870 die derzeit beste Karte, wenn man auf Phys-X verzichten kann.
Will sich heute wer einen gaming pc bauen, würde ich zu einem 4Ghz i7/i5 und einer HD5870 raten....
er muss noch auf mehr verzichten:
http://www.3dcenter.org/artikel/zum-launch-von-radeon-hd-5850-5870
(...), ist es sehr bedauerlich, daß ATI sich nicht doch dazu durchgerungen hat, im Catalyst-Treiber spielbezogene Einstellungsoptionen zu ermöglichen. Ein neues Feature ist schließlich immer nur so schlagkräftig, wie einfach es zu bedienen ist. Wenn man jedoch jedesmal im Treiber händisch die Einstellungen für alle Spiele ändern muß, nur um das perfekte Setting für ein Spiel zu erreichen, dann ist man weit von einer guten Nutzbarkeit entfernt. ATI kann sicherlich darauf hoffen, daß zukünftige Spiele das SuperSampling Anti-Aliasing allesamt direkt im Spiel anbieten, für den Augenblick wären spielbezogene Optionen im Treiber jedoch nicht verkehrt.
Spielbezogene Einstellungsoptionen im Treiber: nein

Ob da noch was kommt?

Ansonsten: Hut ab vor der HW, 30%+ schneller bei besserer Bildqualität und gleicher bzw. einen Tick niedrigerer TDP. Weiter so, evtl. mit mehr Fokus auf TDP-Absenkung ... :)

P.S.:
Zur Zeit ist eine HD5850 oder eine 70 die beste Karte. Soviel kann man sagen. Hätte wenn und aber bringt uns erstmal nicht weiter. Nvidia hat nichts und anscheinend haben sie auch in naher Zukunft nichts, denn ansonsten hätte man viel mehr Krach gemacht. Das steht für mich einmal fest. Auch wenn alle auf eine sehr gute Nachfolgerin hoffen, so kann ich nicht glauben, dass man Ati Deals wie die mit Dell überlässt, wenn man eine ernsthafte Alternative hätte.
hi...was ist das? Ich bin genau der gleichen Meinung ;-)
scnr

Gast
2009-09-23, 23:33:42
Nur die Rechenpower würde ich gerne mal "in echt" sehen. 2.7 GFlops müssen doch irgendwo durchdrücken. Gibts denn spezielle Benchs für die Shader?
Diese Anwendungen hat die Vorgängerserie nicht gemocht.

zb. OCCT oder Furmark.


Angesichts des Verbrauchs in den bisherigen Szenarios, wie Bioshock, das recht nah an OCCT oder Furmark rangekommen ist, sind auch dort keine Wunder zu erwarten.
Einwenig wird die Bandbreitenlimitierung beiseite geschoben und der Vebrauch etwas steigen.
Obs die HD5 ohne Problem mitmacht und was sie im Vergleich zur HD4 leistet wäre wissenwert, auch ob das Siegel 2,7 TFLOPs berechtigt ist.

MR2
2009-09-23, 23:41:51
Ich finde die Performance gut, zwar nicht überragend, aber gut. Wenn ich mir die AMD internen Benches nochmals ansehe frage ich mich aber, wie die auf ihre Werte kommen. Schon mal jemand Benchmarks mit nem PhenomII gesehen? Der i7 taugt doch eh nix:biggrin:

Stromverbrauch auch iO, die Idle Werte sind wirklich sehr gut, da kann man nicht meckern, Bildqualität ist merklich besser geworden.. Für mich steht fest:

Ich warte auf die 2GB Vapor-X. Dann wird gekauft.



Eine Frage hätte ich. Ich nutze oft den TVout. Wie macht man das bei den neuen Karten?

Undertaker
2009-09-23, 23:53:45
mhm... wirklich ziemliche enttäuschend wenn ich es mir recht überlege (*mit flacher Hand auf die Stirn klatsche*)


Sag mal, müsstest nicht gerade du nach deinen Prognosen der letzten Tage enttäuscht sein? HD5850 im Schnitt 30% über GTX285 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7531787&postcount=4135), Crysis doppelt so schnell wie auf der GTX285 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7523054&postcount=3455), HD5870 >= GTX295 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7505536&postcount=2939)? ;) Das ist es ja nun nicht gerade geworden...

Generell kann man schon sagen, dass die Performance etwas unter den Erwartungen liegt, selbst wenn diese realistischer getroffen waren - was ja nicht bedeutet, dass die Karte deswegen eine Enttäuschung ist. Das behauptet ja wiederum auch keiner, vieles ist äußerst überzeugend. :)

Schrotti
2009-09-24, 00:00:40
Crysis doppelt so schnell wie auf der GTX285 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7523054&postcount=3455)

Ich sehe da keine 5870 ???

Undertaker
2009-09-24, 00:02:37
Der Kommentar unter dem Diagramm ;) Ging mir auch nur um seine Kritik an denen, die sich womöglich von seinem etwas hochgesteckten Optimismus haben anstecken lassen und jetzt Ergebnisse sehen, die diese Werte nicht bestätigen.

Gast
2009-09-24, 00:04:15
Ob Enttäuschung oder nicht, wird sich erst herausstellen, wenn die Preise und Konkurrenz nachgezogen haben.

Für ~200€ wäre die 5850 eine super Karte, da ich mir kaum vorstellen kann, das nvidia eine ähnliche leistungsfähige Hardware von Anfang an für unter 200€ verramschen wird. Und in diesem Preisbereich gibts wenig besseres.
Ein Problem sehe ich daher nicht. Mir ist es auf jeden Fall lieber gescheite Performance zu einem guten Preis zu bekommen als 10% mehr Leistung für 50% mehr Geld.

Es ist außerdem noch etwas früh zu beurteilen, woran es derzeit hapert. Vielleicht ist der Treiber noch nicht perfekt, Win7 würde ich eigentlich auch nicht als Benchplattform nehmen, in Zeiten wo viele noch Vista oder gar XP haben. Die Auswahl an Benchmarktiteln enttäuscht mich immer weniger, ich besitze eigentlich kein einziges D3D10 game.. was bringt mir also dieser Benchmarkparcour? Ist halt so..

Wie dem auch sei, ich könnte mir vorstellen, das dieses Design noch aufgebretzelt werden könnte. Zum einen wird die Fertigung mit der Zeit besser, zum anderen gibts vielleicht höhere Taktraten ab Werk... und schnellerer Speicher wird auch irgendwann verfügbar, so besteht durchaus noch Raum für große Verbesserungen.
Wäre es nicht vielleicht sogar möglich, das dieses Design vielleicht noch irgendwann mal aufgebohrt wird und z.B. ein breiteres Speicherinterface erhält? Könnte ich mir für die Zukunft vorstellen..

@tombman
Ich sehe eigentlich nichts weiter als geblubber von dir. Mich wundert, das du noch nicht gesperrt bist. Es interessiert keine Sau, das du eine Geforce hast, hier gehts um eine ATI Karte und Infos dazu habe ich von dir auch keine gelesen.

Tomahawk
2009-09-24, 00:10:22
ganz nebenbei: Die simulierte 5850 schlägt sich erstaunlich gut. Die 4850er war damals deutlicher hinter der 4870.

Undertaker
2009-09-24, 00:22:34
Der Unterschied in der Speicherbandbreite ist auch deutlich geringer als in der Rechenleistung. Limitiert letztere aktuell weniger, rücken beide enger zusammen.

Btw, wurde die HD5850 überhaupt korrekt simuliert? Gerade beim Chip ja keine so einfache Sache, die fehlenden Einheiten müssten ja ebenfalls in den Takt mit eingerechnet und simuliert werden.

Jake Dunn
2009-09-24, 00:28:30
Der Unterschied in der Speicherbandbreite ist auch deutlich geringer als in der Rechenleistung. Limitiert letztere aktuell weniger, rücken beide enger zusammen.

Btw, wurde die HD5850 überhaupt korrekt simuliert? Gerade beim Chip ja keine so einfache Sache, die fehlenden Einheiten müssten ja ebenfalls in den Takt mit eingerechnet und simuliert werden.
;)

We simulated the performance of the HD 5850 by taking our HD 5870, reducing the clock speeds and disabling two SIMDs, which results in exactly the same performance as HD 5850.

tombman
2009-09-24, 00:31:11
@tombman
Ich sehe eigentlich nichts weiter als geblubber von dir. Mich wundert, das du noch nicht gesperrt bist. Es interessiert keine Sau, das du eine Geforce hast, hier gehts um eine ATI Karte und Infos dazu habe ich von dir auch keine gelesen.
1.) Infos wirst du auch von den anderen nicht dazu lesen, weil mehr als reviews lesen und dazu Senf abgeben KEINER kann.
Daß dir ausgerechnet mein Senf nicht paßt, ist nicht mein Problem.
2.) Das ist ein Forum, und wir geben unsere Meinung ab, Punkt.
3.) Red mich erst wieder an, wenn du dich traust, nicht mehr als Gast zu posten...

===

Gibts schon irgendwo 3x CF oder gar 4x CF benches?

Undertaker
2009-09-24, 00:31:13
@Jake: Ah OK danke, wusste nicht das das möglich ist ;) Dann sollten die Werte bis auf Kleinigkeiten wie Speichertimings ja korrekt sein.

Gast
2009-09-24, 00:39:13
Der Herausforderer, 5870 kann nicht eindeutig punkten, die AF Schwäche ist unverzeihlich

Sehe ich genauso. AMD filtert jetzt also auf "Nvidia Q" Niveau und malt die rundere Blume. Toll, wer wollte das denn, die Latte lag auf Nvidia HQ und das kriegt man noch immer nicht.

Traurig ist, dass Seiten wie Anandtech AMD nach einem kurzen Blick auf die Blume nun makelloses AF attestieren. :confused:

S940
2009-09-24, 00:39:37
Das Fazit geht so in Ordnung. Sie haben halt wirklich viele Baustellen bearbeitet. Nur die Rechenpower würde ich gerne mal "in echt" sehen. 2.7 GFlops müssen doch irgendwo durchdrücken. Gibts denn spezielle Benchs für die Shader?
Frag mal Gipsel bzw. such nach Milkyway in Verbindung mit Boinc ;-)

Tomahawk
2009-09-24, 00:47:48
Traurig ist, dass Seiten wie Anandtech AMD nach einem kurzen Blick auf die Blume nun makelloses AF attestieren

Traurig ist, dass hier fast jeder mehr Ahnung zu haben scheint als die Tester.

derguru
2009-09-24, 00:48:25
wie geil ist das denn,owned:eek:

5870 in 3840*1080 8AA/16AF ca. gleichwertig wie eine 285gtx in 1920*1200 1AA/1AF

http://www.insidehw.com/Reviews/Graphics-cards/ATI-Radeon-HD-5870-vs-NVIDIA-GeForce-GTX285/Page-5.html

hehe auf was haben die warhead gebencht,gamer?;D

Gast
2009-09-24, 00:50:45
Traurig ist, dass hier fast jeder mehr Ahnung zu haben scheint als die Tester.
In der Tat! ;)

Tesseract
2009-09-24, 00:51:59
Traurig ist, dass hier fast jeder mehr Ahnung zu haben scheint als die Tester.

noch trauriger finde ich, dass es in vielen fällen auch stimmt. :D

Tomahawk
2009-09-24, 00:55:30
noch trauriger finde ich, dass es in vielen fällen auch stimmt.
Ja. Augen zu, es drei Mal laut sagen und dann stimmt es.

mapel110
2009-09-24, 00:59:04
wie geil ist das denn,owned:eek:

5870 in 3840*1080 8AA/16AF ca. gleichwertig wie eine 285gtx in 1920*1200 1AA/1AF

http://www.insidehw.com/Reviews/Graphics-cards/ATI-Radeon-HD-5870-vs-NVIDIA-GeForce-GTX285/Page-5.html

hehe auf was haben die warhead gebencht,gamer?;D
Und ich kann übers Wasser gehen. WTF?

Traurig ist, dass Seiten wie Anandtech AMD nach einem kurzen Blick auf die Blume nun makelloses AF attestieren
Auf die "AF-Blumenoptimierung" sollte man mal ATI direkt ansprechen in kommenden Interviews.
Ja. Augen zu, es drei Mal laut sagen und dann stimmt es.
Der Scheiß grieselt immer noch bei AI-OFF, daran ändert diese Verbesserung bei ATIs Filter NICHTS. Die Videos bei Hardtecs4U kann sich jeder anschauen und beurteilen. Da braucht man kein Spezialist sein.

derguru
2009-09-24, 01:03:26
Und ich kann übers Wasser gehen. WTF?


bei den anderen spielen wer weiß aber warhead in 3840*1080 8AA/16AF 25fps;D

lol,streetfighter ist ja noch schlimmer.3840*1080 8AA/16AF ist die karte schneller als in 1920*1200 (AVG FPS).;D

Gast
2009-09-24, 01:11:01
Der Scheiß grieselt immer noch bei AI-OFF, daran ändert diese Verbesserung bei ATIs Filter NICHTS. Die Videos bei Hardtecs4U kann sich jeder anschauen und beurteilen. Da braucht man kein Spezialist sein.
´
Die Videos sollte man überall verlinken, zeigen einwandfrei das Problem.

tombman
2009-09-24, 01:13:40
´
Die Videos sollte man überall verlinken, zeigen einwandfrei das Problem.
Aber sowas von ;)

Btw, einer geht noch:

http://www.abload.de/img/ojegrt1.jpg (http://www.abload.de/image.php?img=ojegrt1.jpg)

:whistle:

:sneak:

derguru
2009-09-24, 01:21:27
die clips sind genial um flimmern zuerkennen,man kann sagen was man will aber die 275 ist fast wie beim standbild.

Sentionline
2009-09-24, 01:22:43
Also als Otto Normal Spieler die auf fps jagt sind, ist die neue reihe gut. Nur als 3DCenter User die wissen das die Filter besser sein hätten müssen, lässt man sich natürlich nicht so leicht blenden.

Ich deathmatche mich schon länger mit einem Kollegen in 3DMark06 @ Default...Da sind die Filter egal :freak:

derguru
2009-09-24, 01:43:37
ist halt schade warum sie diese einsparungen machen,die karte hat genug füllrate um das zu bändigen.
ist doch ein marketing af geworden,böse zungen würden behaupten davon verstehen sie was:D.naja solang reviewer es auch noch bestätigen das es besser geworden ist und nur so nebenbei und am besten kleingedruckt erwähnen wird das nie besser.

cipoint
2009-09-24, 03:04:18
Ich bleibe bei meiner Spekulation, dass ATI den RV870 bei der HD4890 um etwa 100 MHz höher taktet (angesichts des relativ geringen Stromverbrauches gut machbar) und vor allem schnellere Speicherchips einsetzt. Sonst braucht eine HD4890 ja gar nicht kommen, wenn ihr wißt, was ich meine ...
Trotzdem nehme ich an, dass der GT300 schneller sein wird, aber eben nicht viel schneller. Es läuft auf eine ähnliche Situation wie mit HD4870x2 vs. GTX295 hinaus. Meine Vermutung ...

tombman
2009-09-24, 03:19:03
Trotzdem nehme ich an, dass der GT300 schneller sein wird, aber eben nicht viel schneller. Es läuft auf eine ähnliche Situation wie mit HD4870x2 vs. GTX295 hinaus. Meine Vermutung ...
Ich schätze, du vermutest richtig :)

Kosh
2009-09-24, 04:54:47
Ich finde die neue Karte hervorragend. War doch klar das sie nicht die GTX285 ums doppelte hinter sich lässt.

Aber die Temps gehen völlig in Ordnung,die LAutstärke ist ok (leiser wäre natürlich besser),der Stromverbrauch ist der beste in 2D und für die Leistung hervorragend unter Last und die mit Abstand schnellste Single Karte.

Jetzt schauen wir uns den Preis an und sehen knapp 320 Euro Kaufpreis für die 5870.

Sorry,aber wäre die Karte als NVIDIA Karte erschienen wäre der Kaufpreis wohl um 100 Euro höher ausgefallen. (trotz etwas schnellerer GTX295,da käme dann das Single Chip und D11 als Argument).

Kurzum, ATI hat eine Top Grafikkarte abgeliefert zu einem absolut anständigen Preis.

Paperlaunch ist das auch nur,wenn in 2 Wochen keine Karten zu kaufen sind (das Anfangs die Ware knapp sein wird ist auch klar, besonders nach den Ergebnissen und Preisen).

Jetzt muss man abwarten,wann der G300 kommt. Gut möglich,das man dieses Jahr gar keine wird kaufen können.

Ich persönlich würde die Leistung der neuen Karte auf GTX295 Niveau einschätzen als Singlekarte und Preislich dann wohl die 100 Euro mehr kosten als die 5870.
Ob auch bei weniger Stromverbrauch,Lautstärke usw muss man abwarten.

Aktuell gibt es keinen G300,somit ist ein vergleich der kArten nicht möglich und nicht zulässig.

Schliesslich vergleichen wir auch nicht die 5870 X2 mit der GTX295 und wie langsam doch letztere da ist.

horn 12
2009-09-24, 05:56:26
Nun HD Käfig zersägt, nun fehlt nur noch die HD5870 1GB.
Nur die Lautstärke unter 3D gefällt mir nicht ganz und ob die Karte nicht "zu gut" ist für meinen E8400 @3,6 Ghz und 4GB DDR2.
Da würde die 5870 Toxic nochmals besser dastehen, vor Allem was Lautstärke und GPU Mhz angehen, jene Karte wird wohl 900-950 Mhz schlussendlich haben!:love:
Würde auf den 26 Zoll LG 2600 HP in 1920x1200 mit mindestes 4xAA/16AF, falls nun ausreichend sogar 8xAA 16AF zocken...

Schlammsau
2009-09-24, 06:18:52
Warum sind eigentlich Leute wie LZ und Tombman hier im 58xx Preview Thread so aktiv?
Gerade die beiden, denen ich am wenigsten zutraue sich eine ATi in ihr Gehäuse zu bauen, geben hier schon fast die meisten Kommentare ab!

Könnt ihr beide nicht draussen bleiben!? :motz:

DrFreaK666
2009-09-24, 06:19:49
Warum sind eigentlich Leute wie LZ und Tombman hier im 58xx Preview Thread so aktiv?
Gerade die beiden, denen ich am wenigsten zutraue sich eine ATi in ihr Gehäuse zu bauen, geben hier schon fast die meisten Kommentare ab!

Könnt ihr beide nicht draussen bleiben!? :motz:

"2 Dumme, 1 Gedanke"
Das Frage ich mich auch :up:

tombman
2009-09-24, 06:58:50
Schliesslich vergleichen wir auch nicht die 5870 X2 mit der GTX295 und wie langsam doch letztere da ist.
Wäre ja auch Blödsinn, da unterschiedliche Generation :rolleyes:

Könnt ihr beide nicht draussen bleiben!? :motz:
Können schon, aber wollen nicht. Du darfst dich gerne bis zur Erschöpfung im GT300 thread austoben, sobald die Gpu erscheint- habe kein Problem damit ;)

Gast
2009-09-24, 07:13:08
Wäre ja auch Blödsinn, da unterschiedliche Generation :rolleyes:


Von Dir habe ich leider immer noch keine Antwort bzgl. Eyevinity und nvidia gehört. Warum bloß? ;)


Stimmt eigentlich das, was Toms Hardware schreibt?
http://www.tomshardware.com/de/Eyefinity-AMD,news-243492.html

"Doch Eyefinity lässt sich auch mit älteren Grafiklösungen nutzen. So ist es beispielsweise möglich, eine Onboard-Grafik des Motherboards mit den zwei Ausgängen einer Standardkarte auf insgesamt drei Geräte zu kombinieren."

Gast
2009-09-24, 07:16:34
habe ich weiter vorne zwar schon einmal geschrieben:

was denkt ihr, wie sich eine hd5870 auf halben Takt und mit dem Speichertakt einer 4890 verhält? Sie müsste doch ca. so schnell seine wie eine 4890, oder?
Wenn sie wesentlich langsamer wäre, wäre das wohl ein Indiz dafür, dass die Alus schlechter ausgelastet werden. Sei es auf Grund von Treibern oder das bei der Chip bei niedrigerem Takt schlechter ausgelastet wird. (kann das sein?)
Wenn sie aber ca. gleich schnell ist bzw. etwas langsamer ( aufgrund des besseren AFs z.b) müsste das doch heißen, dass sie an Speicherbandbreite berhungert, bzw. hier und da ein CPU-Limit herrscht, oder die Treiber noch nicht ausgereift sind. Das wäre doch mal interessant in einem Test zu testen.

Was haltet ihr davon?

Grestorn
2009-09-24, 07:41:00
Warum sind eigentlich Leute wie LZ und Tombman hier im 58xx Preview Thread so aktiv?
Gerade die beiden, denen ich am wenigsten zutraue sich eine ATi in ihr Gehäuse zu bauen, geben hier schon fast die meisten Kommentare ab!

Könnt ihr beide nicht draussen bleiben!? :motz:

Warum seid ihr in fast jedem nVidia Spekulationsthread und Launchthread dabei?

tombman
2009-09-24, 07:59:25
Von Dir habe ich leider immer noch keine Antwort bzgl. Eyevinity und nvidia gehört. Warum bloß? ;)
??? Verwechselst du mich?

Eyefinity geht mir am Arsch vorbei, weil ich keine Balken im Bild haben will...andernfalls hätte ich schon längst ne Matrox-Triple-Head Lösung.

Schrotti
2009-09-24, 08:07:07
Jemand eine Erklärung warum die "neue" so unter Cod 5 abkackt?

4xAA/16xAF in 1680x1050 nur knapp vor einer GTX 285.

reunion
2009-09-24, 08:16:43
Das Fazit geht so in Ordnung. Sie haben halt wirklich viele Baustellen bearbeitet. Nur die Rechenpower würde ich gerne mal "in echt" sehen. 2.7 GFlops müssen doch irgendwo durchdrücken. Gibts denn spezielle Benchs für die Shader?

Ja, Perlin Noise Test des 3dmark ist zB extrem shaderlimitiert. Da ist auch ein Faktor 3 drinnen ggü. einer 4870. Und da schlug schon eine 4870 jede GF. Oder der Parallax mapping Test ebenfalls Faktor 3:

Vantage feature tests:
3870 4870 5870

Texture Fill:
347, 781, 1880
Color Fill:
3.0, 5.5, 7.63
Parallax Occlusion Mapping:
7.8, 20.6, 60.86
GPU Cloth:
8.6, 18.4, 29.96
GPU Particles:
15.9, 32.6, 53.00
Perlin Noise:
21.6, 53.8, 157.42

Sentionline
2009-09-24, 08:28:10
Eyefinity geht mir am Arsch vorbei, weil ich keine Balken im Bild haben will...
Wieso nicht? AF Würmer auf 24 Schirmen. Wie kuschelig :freak:

robbitop
2009-09-24, 08:31:31
Jede TMU schafft 1bi Sample pro Takt, völlig unabhängig ob von AMD oder NV. Wenn RV870 hier mehr Füllrate durch AF verliert bedeutet das zwangsläufig das er mehr Samples investiert. Was verstehst du unter schlechtere Implementierung?
Wenn es mehr - wie beim RV870 - flimmert. ;)

pest
2009-09-24, 08:38:04
Jemand eine Erklärung warum die "neue" so unter Cod 5 abkackt?

4xAA/16xAF in 1680x1050 nur knapp vor einer GTX 285.

die ati-karten sind in cod generell nicht so gut

Armaq
2009-09-24, 08:41:39
Ja, Perlin Noise Test des 3dmark ist zB extrem shaderlimitiert. Da ist auch ein Faktor 3 drinnen ggü. einer 4870. Und da schlug schon eine 4870 jede GF. Oder der Parallax mapping Test ebenfalls Faktor 3:
Das sieht echt gut aus. Die Frage ist nur, ob soviel Shading-Power gebraucht wird. Gibts noch schnelleren GDDR Speicher?

reunion
2009-09-24, 08:45:56
Wenn es mehr - wie beim RV870 - flimmert. ;)

Mir wurde von den sog. Experten hier immer gesagt bei AF kann man nur Füllrate sparen indem man die IQ senkt. :) Gute Filterung muss kosten, etc.
Und wer sagt das nicht AMDs Implementierung näher am "Original" ist? Aber die einzige Unterscheidung welche man hier kennt ist ja weniger flimmern = gut, mehr flimmern = schlecht.

Sentionline
2009-09-24, 08:53:20
Also ist flimmern nahe am original und trägt dem optischen Action bei. Aha... :ucoffee:

Grestorn
2009-09-24, 08:56:51
Mir wurde von den sog. Experten hier immer gesagt bei AF kann man nur Füllrate sparen indem man die IQ senkt. :) Gute Filterung muss kosten, etc.
Und wer sagt das nicht AMDs Implementierung näher am "Original" ist? Aber die einzige Unterscheidung welche man hier kennt ist ja weniger flimmern = gut, mehr flimmern = schlecht.

Es gibt doch Coda's FilterTester, der die Filterung nach der "reinen Lehre" über die CPU vornimmt und mit dem man deswegen auch 100% sagen kann, was "das Original" sein muss. Also gibt es hier eigentlich keine Unklarheiten und auch keine Ausflüchte für AMD.

Sentionline
2009-09-24, 09:00:01
Und dabei hatten sie mit der R520 so schön gestartet...tut sich nix mehr. Schade eigentlich.

Was mir noch einfällt aus dieser Zeit ist EATM. Was war das nochmal?

Nazar
2009-09-24, 09:10:42
Falscher Standpunkt: Wir sind nicht die Boxveranstalter oder Buchmacher sondern die Zuseher ;)
Und die Zuseher wollen einen ordentlichen Kampf und nicht Geld verdienen- wir KAUFEN die Produkte, wir verkaufen sie nicht.
Derzeit sitzt ein Boxer in der Ecke, der andere ist noch nicht da, und eine Teilmenge der Zuseher ist bereits aufgesprungen und feiert ihren Sieger- so schauts aus ;)

Wer feiert hier einen Sieger?
Der einzige der einen Sieger sucht bist Du. Und Du scheinst auch als einziger schon zu wissen, wer der Sieger sein wird.

Bis auf das AF ist die Karte sehr gut gelungen und von dem anderen Boxer ist weit und breit nichts zu sehen. Auch scheint es eher so, dass der andere Boxer erst noch geboren werden muss, da NV zu ruhig AMD den Ring überlässt.

Ich glaube zwar auch, dass NV sich mit dem G300 wieder die Leistungskrone aufsetzen wird aber sehe ich in Deinen und mach anderen Kommentaren eher ein Rumgezicke, denn den Anspruch auf eine vernünftige Diskussion!

Sentionline
2009-09-24, 09:20:12
Also ich bezahle gerne mehr wenn ich die BQ selber bestimme und nicht der Treiber. Wenn ATi das eine verbessert setzen die das andere in den Sand, wie immer. Dank der Konkurenz weiss man aber dummerweise das AF besser geht und man soll es ruhig breit treten.

Dank der Konsolenportis ist die Rechenlast auf die GPUs nicht gestiegen, also warum nicht einen Teil der 2 Milliarden Transistoren in die Bildqualität investieren um "auch mal" ein Eye-Candy zu bieten? Meines wissens ist die BQ des G80 von ATi immer noch nicht erreicht. Bedauerlich. Da gibts nix zu beschönigen.

Ich denke die Thematik wird Nvidia nicht entgehen und man wird präventieren.

tombman
2009-09-24, 09:27:04
Wer feiert hier einen Sieger?
Der einzige der einen Sieger sucht bist Du.
Und Du scheinst auch als einziger schon zu wissen, wer der Sieger sein wird.

JEDER sucht den Sieger, auch du. Und zwar immer und in allem.

Bis auf das AF ist die Karte sehr gut gelungen

Nein, ist sie nicht. Und jetzt?

...und von dem anderen Boxer ist weit und breit nichts zu sehen. Auch scheint es eher so, dass der andere Boxer erst noch geboren werden muss, da NV zu ruhig AMD den Ring überlässt.
Aha, jetzt holst wohl deine eigene Glaskugel heraus...

Ich glaube zwar auch, dass NV sich mit dem G300 wieder die Leistungskrone aufsetzen wird aber sehe ich in Deinen und mach anderen Kommentaren eher ein Rumgezicke, denn den Anspruch auf eine vernünftige Diskussion!
Ich sehe genau in deinem Verhalten ein Rumgezicke.

Gast
2009-09-24, 09:30:23
Eyefinity geht mir am Arsch vorbei, weil ich keine Balken im Bild haben will...andernfalls hätte ich schon längst ne Matrox-Triple-Head Lösung.

Das Aufzoomen auf 3 Bildschirmen ist natürlich nicht die Lösung. Aber zur Erweiterung der Sicht (was links und rechts ist) und zum Arbeiten ist das doch die Lösung. Warum sollte man da Matrox-Triple-Head noch kaufen, wenn das auch die 5850 kann. Oder willst Du jetzt die Matrox mit der ATI vergleichen?

Dich mag es am Arsch vorbeigehen, bist ja auch nach Deiner Definition nur Zuschauer. ;)

Gast
2009-09-24, 09:31:20
Mir wurde von den sog. Experten hier immer gesagt bei AF kann man nur Füllrate sparen indem man die IQ senkt. :) Gute Filterung muss kosten, etc.
Und wer sagt das nicht AMDs Implementierung näher am "Original" ist? Aber die einzige Unterscheidung welche man hier kennt ist ja weniger flimmern = gut, mehr flimmern = schlecht.
Das Argument hast du die letzten Jahre oft gebracht.

ht4u hat Codas Filtertester bemüht, das Original ist eindeutig praktisch flimmerfrei.
Beide, sowohl R600-RV790 als auch RV870 flimmern fröhlich vor sich hin.
Also, das Original flimmert nicht, wie deutlich muss man das noch schreiben?


Eine Besserung ist absolut nicht sichtbar, es scheint als habe sich überhaupt nichts getan, dennoch wird AMD gelobt. Traumsituation, fürs Nichtstun und weiter sparen Lob einzukassieren, die Menge denkt sogar AMDs AF wäre jetzt dem der Konkurrenz überlegen.

Gast
2009-09-24, 09:34:36
von dem anderen Boxer ist weit und breit nichts zu sehen. Auch scheint es eher so, dass der andere Boxer erst noch geboren werden muss, da NV zu ruhig AMD den Ring überlässt.

Bislang ist ein Boxer (HD 5870) erst angekündigt, im Ring steht er noch nicht.

tombman
2009-09-24, 09:37:13
Das Aufzoomen auf 3 Bildschirmen ist natürlich nicht die Lösung. Aber zur Erweiterung der Sicht (was links und rechts ist) und zum Arbeiten ist das doch die Lösung. Warum sollte man da Matrox-Triple-Head noch kaufen, wenn das auch die 5850 kann. Oder willst Du jetzt die Matrox mit der ATI vergleichen?

Dich mag es am Arsch vorbeigehen, bist ja auch nach Deiner Definition nur Zuschauer. ;)
Zum Arbeiten mag das noch sinnvoll sein, vorallem die "six" Version, aber ich habe die Aussage ja nicht allgemein formuliert...

robbitop
2009-09-24, 09:37:38
Mir wurde von den sog. Experten hier immer gesagt bei AF kann man nur Füllrate sparen indem man die IQ senkt. :) Gute Filterung muss kosten, etc.
Und wer sagt das nicht AMDs Implementierung näher am "Original" ist? Aber die einzige Unterscheidung welche man hier kennt ist ja weniger flimmern = gut, mehr flimmern = schlecht.
NVs Implementierung ist so wie es gefordert wird. Ergebnis kennen wir ja. Was bei den ATIs da im Argen liegt, wissen wir noch nicht. Unübersehbar ist jedoch: es flimmert.

puntarenas
2009-09-24, 09:40:04
Bislang ist ein Boxer (HD 5870) erst angekündigt, im Ring steht er noch nicht.
Vor dem Kampf kommt in der Regel das Wiegen, womöglich sind die beiden nicht aus einer Gewichtsklasse. Außerdem ist das nicht einmal die gleiche Sportart, AF-Blender kämpfen mit Kopfschutz, Profi-Boxen ist was für die Jungs mit Nehmerqualitäten. :smile:

/Flame

tombman
2009-09-24, 09:40:07
NVs Implementierung ist so wie es gefordert wird. Ergebnis kennen wir ja. Was bei den ATIs da im Argen liegt, wissen wir noch nicht. Unübersehbar ist jedoch: es flimmert.
Viel Glück bei der Suche nach der Erklärung :)
Vor dem Kampf kommt in der Regel das Wiegen, womöglich sind die beiden nicht aus einer Gewichtsklasse. Außerdem ist das nicht einmal die gleiche Sportart, AF-Blender kämpfen mit Kopfschutz, Profi-Boxen ist was für die Jungs mit Nehmerqualitäten. :smile:

/Flame
Die Box-ANALogie ist offenbar nicht mehr aufzuhalten :devil:

Labberlippe
2009-09-24, 09:42:50
Hi

Also manchmal habe ich das Gefühl das bei den nVDIA Jüngern von deren Grafikkarten irgendwelche Duftstufe freigesetzt werden, sobald ein anderer IHV eine Karte auf den Markt bringt.
nVIDIA is the Best, Cuda stammel stammel stammel.. tschmuck Hirn aus.

War ja auch zu erwarten das die üblichen Verdächtigen hier wie nichts zu flamen haben, mein Favorit war die Ansage mit den Spannungswandlern, wenigsten sind bei AMD die Karten nicht reihenweis in den Notebooks verreckt und der Kunde musste selbst für einen Mängel aufkommen.

Tut mir leid aber da gibt es nicht daran zu rütteln, die neue AMD Karte ist absolut in Ordnung.
Besseres Filtering (zur 4890)
Winkelunabhängiges AF
Offizielles Supersampling.
Eyefinity
DX11

Dei 5870 nimmt es sogar mit einer 295er auf, ich weiss nicht was einige hier über eine Performanceschwäche reden.
Die Karte ist genau da von der Leistung positioniert wo sie hinsoll.
Der Preis geht absolut in Ordnung.

Nur zur Info auch wenn einige Kanditaten hier keinen Sinn in Eyefinity sehen, kenne ich genug Leute die über dieses Feature sehr dankbar sind.

So die BQ Unterschiede dürft Ihr jetzt wirklich mit der Lupe suchen.

Gruss Labberlippe

Sentionline
2009-09-24, 09:43:47
Sollte das so sein wie seid ewigkeiten das Nvidia mit jeder Generation fast 100% an Performance zulegt, dann steht jetzt schon fest das die HD5870 die neue Mittelklasse wird (BQ eingeschlossen).

Aber es gibt noch immer Macken bei ATi. Die Treiber sind nicht Zeitig raus wie bei Nvidia. Vom neuen XCoder weit und breit keine Spur. Man liest dauernd Ati will dies machen, Ati will das machen. Physik haben sie noch nicht, Cuda Antwort haben sie noch nicht...Nur Eyefinity. Natürlich kauft sich jeder einen Berg an Monitoren um das Flimmern auf 24 Schirmen reinzuschrauben. Natürlich...

Labberlippe
2009-09-24, 09:44:42
NVs Implementierung ist so wie es gefordert wird. Ergebnis kennen wir ja. Was bei den ATIs da im Argen liegt, wissen wir noch nicht. Unübersehbar ist jedoch: es flimmert.

Hi

Hast du eine 5870 schon gesehen, PCGH war eigentlich sehr zufrieden.

Gruss Labberlippe

Sentionline
2009-09-24, 09:47:15
Hast du eine 5870 schon gesehen, PCGH war eigentlich sehr zufrieden.
Also ich habs gesehn... Und will es nicht...;D

Das PCGH gesättigt ist ist klar. Supersampling stellt die Jungs schnell ruhig.

Labberlippe
2009-09-24, 09:48:27
Sollte das so sein wie seid ewigkeiten das Nvidia mit jeder Generation fast 100% an Performance zulegt, dann steht jetzt schon fest das die HD5870 die neue Mittelklasse wird (BQ eingeschlossen).

Aber es gibt noch immer Macken bei ATi. Die Treiber sind nicht Zeitig raus wie bei Nvidia. Vom neuen XCoder weit und breit keine Spur. Man lies dauernd Ati will dies machen, Ati will das machen. Physik haben sie noch nicht, Cuda Antwort haben sie noch nicht...Nur Eyefinity. Natürlich kauft sich jeder einen Berg an Monitoren und das Flimmern auf 24 Schirmen reinzuschrauben. Natürlich...

Hi

Hört doch endlich mal auf mit dem Treiber Argument.
Da nehmen sich beide nicht viel.
Beide Hersteller sind mit deren Decoder/Encoder nicht berühmt.
PhysX hat nur nVIDIA, die Karten erden aber in diesen Bereich neu gemischt.

Weil Ihr kein Eyfinity braucht ist das noch lange nicht sinnlos.

Denkt mal über den Tellerrand.

Das geseiere hier ist ja nicht mehr auszuhalten.

Gruss Labberlippe

Labberlippe
2009-09-24, 09:49:30
Also ich habs gesehn... Und will es nicht...;D


Hi

Ahja, ich glaube Dir nur irgendwie nicht. ;D

Gruss Labberippe

Gast
2009-09-24, 09:56:10
Besseres Filtering (zur 4890)

Muss man mit der Lupe suchen. Ich sehe jedenfalls keinen Unterschied, es flimmert inaktzeptabel wie seine 3 Vorgänger.
Siehe ht4u.


Winkelunabhängiges AF

Wertloses Argument. Im Gegenteil, wer das nennt, der disqualifiziert sich automatisch, wenn er behauptet das Flimmern sei nicht so schlimm.

Ich bin mir sicher, du würdest den Unterschied zwischen Nvidias Blume und der RV870 Blume nicht erkennen, wenn sie nicht im AF Tester auftaucht.



Offizielles Supersampling.

Wurde auch verdammt noch mal Zeit. Das ist der einzige gute Punkt bisher.
Das es offiziell ist juckt mich keine Sekunde.


Eyefinity

Ansichtssache. Ich sehs wie tombman, ich will keine Balken im Bild.
Ich will mir auch nicht wie einige Freaks 3 billige 22er hinstellen um ein viel zu breites und zu niedriges Bild zu bekommen.


DX11

Braucht noch keiner, ich schlag zu wenn ichs brauch oder will.

PCGH_Raffael
2009-09-24, 09:57:36
Also ich habs gesehn... Und will es nicht...;D

Das PCGH gesättigt ist ist klar. Supersampling stellt die Jungs schnell ruhig.

Ja? Das HD-5800-AF ist immer noch nur Nvidia-Quality-Niveau. Das ist lange nicht perfekt. In Spielen, wo kein SSAA funktioniert oder es zu unperformant ist, bleibt der Flimmerfilter das einzig Sichtbare. Wenn Nvidia nun ebenfalls SGSSAA nachschiebt, sind sie dank des optionalen HQ-AFs die bessere Wahl (mal abgesehen davon, dass Nvidia OGSSAA und Hybriden im Treiber hat).

MfG,
Raff

Gast
2009-09-24, 09:58:00
Edit, D3D11 it dennoch eine selbstverständlichkeit für den gewählten Zeitpunkt, kein Pro Argument.
Ohne D3D11 hätte es AMD sein lassen können.

35007
2009-09-24, 09:58:31
Ich bin als ambitionierter Musiker und Fotograf für die Eyefinity Technologie dankbar, da ich nun 3 x 22" Monitore für die Aufnahmen nutzen kann.

So kann je nach Szenario ein Bildschirm während der Aufnahme für die aktuelle Spuren genutzt werden, der Zweite bietet Echtzeitmonitoring von den Spuren, die wärend der Aufnahme wiedergegeben werden (wie z.b. Drumpattern oder den Dub) und auf dem dritten Moni sind die Logic Tools auf einem Blick sichtbar.

Genauso könnte ein Bildschrim in der Mitte per Pivot das Foto darstellen, die beiden anderen sind für Ebenen, Werkzeuge und Farbkanäle etc.

Gast
2009-09-24, 09:58:48
Moin zusammen,

also ich will ja jetzt nicht rummosern, aber ich habe mir mal die Videos von HT4U (http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php) angeschaut und wenn HT4U hier von "Während die NVIDIA-Karte auch hier quasi mustergültig abschneidet" spricht der tut mir leid! Beide Karten flimmern und das recht ordentlich. Die ATI flimmert vielleicht einen Tick mehr aber entweder Flimmern oder nicht. Hier haben wohl beide Hersteller noch deutlich Nachholbedarf!

P.s. ich finde es z.t. ziemlich lächerlich was hier abläuft und leider bei jedem VGA-Karten launch zu beobachten. ATI hat ein gutes Stück Hardware auf den Markt gebracht (auch wenn noch nicht verfügbar), das einen deutlichen Sprung nach vorne zu "alten ATI-Generation" darstellt. Die Karte schlägt auch den momentan besten NVidia Single Chip und ist somit unangefochten an der Spitze. Nun ist NVidia dran den Spieß wieder umzudrehen und ich bin gespannt was da kommt. Vielleicht sollten mal einige hier ihre "Objektivität" schärfen...

So jetzt sind die Fanboys wieder dran ;-)

Sentionline
2009-09-24, 10:00:07
DX11 kommt erst mit den neuen Konsolen ins Rennen, wenn überhaupt. Durch die Portis (die hoffentlich optimiert werden) wird das Feature mal wieder Wertlos, da die Performance zu stark sinken wird, weil fast jeder in 19xx Spielt. Behaupte ich...

Labberlippe
2009-09-24, 10:00:45
Ja? Das HD-5800-AF ist immer noch nur Nvidia-Quality-Niveau. Das ist lange nicht perfekt. In Spielen, wo kein SSAA funktioniert oder es zu unperformant ist, bleibt der Flimmerfilter das einzig Sichtbare. Wenn Nvidia nun ebenfalls SGSSAA nachschiebt, sind sie dank des optionalen HQ-AFs die bessere Wahl (mal abgesehen davon, dass Nvidia OGSSAA und Hybriden im Treiber hat).

MfG,
Raff
Hi

Behauptet auch keiner das AMD nicht flimmert nur hier wird ja wieder verzeifelt versucht einzureden das man ja quais blind wird.

Gruss Labberlippe

Ric
2009-09-24, 10:01:45
Ich will mir auch nicht wie einige Freaks 3 billige 22er hinstellen um ein viel zu breites und zu niedriges Bild zu bekommen.

Dann dreh die Monitore um 90° - dann hat man 15 zu 8 Format. (16 zu 10 Widescreen)

AnarchX
2009-09-24, 10:02:08
DX11 kommt erst mit den neuen Konsolen ins Rennen, wenn überhaupt. Durch die Portis (die hoffentlich optimiert werden) wird das Feature mal wieder Wertlos, da die Performance zu stark sinken wird, weil fast jeder in 19xx Spielt. Behaupte ich...

Mittels CS5.0 kann man performanteres Ambient Occlussion umsetzen (siehe Battleforge), wovon eigentlich nahezu jedes Spiel profitieren könnte.

puntarenas
2009-09-24, 10:02:50
Ich will mir auch nicht wie einige Freaks 3 billige 22er hinstellen um ein viel zu breites und zu niedriges Bild zu bekommen.

Stell sie hochkant nebeneinander. ;) Bleibt das Problem mit den Balken, aber gerade für Flugsimulatoren dürfte das keine Rolle spielen.

Ansonsten halte ich persönlich Eyefinity bei einer Gaming-Karte auch für relativ witzlos, will aber niemandem das Recht absprechen. Daneben gibt es zahllose Anwendungsfälle wo es einfach nur saupraktisch ist, unkomplizierte Mehrschirmunterstützung zu bekommen und das Feature wird ja auch bei den kleinen "Office- und Multimedia-Karten" verfügbar sein. Da muss Nvidia nachlegen, hoffentlich ist es für GT300 und die Kleinen nicht schon zu spät.

Gast
2009-09-24, 10:04:08
Behauptet auch keiner das AMD nicht flimmert nur hier wird ja wieder verzeifelt versucht einzureden das man ja quais blind wird.

Du versuchts einzureden wie toll die Blume ist.

Die Diskussion führen wir jetzt seit 3 Jahren, die Argumente sind bekannt. Wir fordern einen (optionalen) HQ Schalter, wenn sich es schon zuviel verlangt ist per Default gescheite Filterung anzubieten.


Ich persöhnlich möchte einfach kein Flimmern. Alles klar? Flimmern ist unnatürlich, löst bei mir auch nicht unbedingt Wohlbefinden aus, also hast du noch was zu sagen?

reunion
2009-09-24, 10:06:21
Also ist flimmern nahe am original und trägt dem optischen Action bei. Aha... :ucoffee:

Nicht flimmern ist nicht zwangsläufig ein Qualitätsmerkmal, sonst bräuchtest du nur das LOD nach oben schieben und alle wären glücklich. Zu hochfrequente Texturen flimmern eben.

Gast
2009-09-24, 10:07:42
Stell sie hochkant nebeneinander. ;) Bleibt das Problem mit den Balken, aber gerade für Flugsimulatoren dürfte das keine Rolle spielen.
Dann dreh die Monitore um 90° - dann hat man 15 zu 8 Format. (16 zu 10 Widescreen)Gefällt mir auch nicht recht, dann wird die Balkenfläche im Bild noch größer.

reunion
2009-09-24, 10:08:30
Es gibt aber einen Herausforderer, er ist nur noch nicht eingetroffen.
Außer die Welt geht vor dem GT300 launch unter, dann hättest du Recht :rolleyes:


Wenn du schon dein Boxbeispiel bringst dann richtig. Ein Weltmeister ist solange Weltmeister bis ihn jemand herausfordert und schlägt. Solange es keine Herausforderer gibt ist die Sache klar.

Gast
2009-09-24, 10:08:47
Zu hochfrequente Texturen flimmern eben.
Scheibar nicht, sonst würde es bei anständiger Filterung oder bei Nvidias Filterung ebenfalls flimmern.

Sentionline
2009-09-24, 10:09:25
Naja, für die die nicht so viel Geld ausgeben wollen/können ist ATi nach wie vor eine Option. Das war schon immer ihre stärke...der Preis.

Beim Preis hat Nvidia noch nie wirklich überzeugt, schon gar nicht beim Start einer Reihe. Dafür hat man aber immer wieder Sachen gesehen, die einen ins staunen gebracht haben. Selbst den berühmten Staubsauger Gag sahen wir. :D

Ich hoffe das Nvidia mal eine neue AA oder AF Stufe mit der GT3xx vorstellt um mich als potenziellen Kunden zu gewinnen. Oder etwas innovativeres wie Eyefinity (für mich als Otto-Normal-Spieler Müll). Mehr als 499€ dürfen die von mir aber keinesfalls verlangen. Und das werden die...leider...;(

tombman
2009-09-24, 10:10:29
Btw, so ein bischen GPU-Wars im Forum ist doch ganz erfrischend- angesichts der immer häufiger werdenden Sozialprobleme-Tsunamis im 3DC :ugly:

Sozial-Center.org?

Labberlippe
2009-09-24, 10:10:39
Muss man mit der Lupe suchen. Ich sehe jedenfalls keinen Unterschied, es flimmert inaktzeptabel wie seine 3 Vorgänger.
Siehe ht4u.


Ich lebe aktuell noch mit einer 1650pro und mir reicht da die BQ, ich bin bewusst jetzt eingie Generationen übersprungen da ich den Aufrüstwahn nicht jedesmal mitmache.


Wertloses Argument. Im Gegenteil, wer das nennt, der disqualifiziert sich automatisch, wenn er behauptet das Flimmern sei nicht so schlimm.
Für mich ist es nicht schlimm ich benutze meine Grafikkarte nicht nur zum spielen.


Ich bin mir sicher, du würdest den Unterschied zwischen Nvidias Blume und der RV870 Blume nicht erkennen, wenn sie nicht im AF Tester auftaucht.

Die Sorge kann ich Dir abnehmen du musst Dir keine Gedanken machen was ich erkenne und was nicht.


Wurde auch verdammt noch mal Zeit. Das ist der einzige gute Punkt bisher.
Das es offiziell ist juckt mich keine Sekunde.


Freilich war Zeit das wieder Supersampling angeboten wird bestreitet auch keiner.


Ansichtssache. Ich sehs wie tombman, ich will keine Balken im Bild.
Ich will mir auch nicht wie einige Freaks 3 billige 22er hinstellen um ein viel zu breites und zu niedriges Bild zu bekommen.
Mann kann nicht nur Bildschirme damit ansteuern und Eyefinity ist nicht nur für Spiele gedacht.
Schön wenn es auch stört nur ist das kein Gegenargumtent für Eyefinity.


Braucht noch keiner, ich schlag zu wenn ichs brauch oder will.
Deine Ansicht nicht meine.

Gruss Labberlippe

Gast
2009-09-24, 10:13:43
Ich hoffe das Nvidia mal eine neue AA oder AF Stufe mit der GT3xx vorstellt um mich als potenziellen Kunden zu gewinnen. Mehr als 499€ dürfen die von mir aber keinesfalls verlangen. Und das werden die...leider...;(
Das Topmodell kostet sicher anfangs über 500€, aber ein Topmodell kommt selten allein.
Die GTX 360 dürfte ein gutes Stück billiger sein.

Es sei den die Performance ist nicht so doll, dann wird Nvidia mit Sicherheit nicht absurde Preise verlangen, wo die Leistung der Konkurrenz längst bekannt ist.

reunion
2009-09-24, 10:14:09
Scheibar nicht, sonst würde es bei anständiger Filterung oder bei Nvidias Filterung ebenfalls flimmern.

Tut es auch.

Labberlippe
2009-09-24, 10:14:20
Du versuchts einzureden wie toll die Blume ist.

Die Diskussion führen wir jetzt seit 3 Jahren, die Argumente sind bekannt. Wir fordern einen (optionalen) HQ Schalter, wenn sich es schon zuviel verlangt ist per Default gescheite Filterung anzubieten.


Ich persöhnlich möchte einfach kein Flimmern. Alles klar? Flimmern ist unnatürlich, löst bei mir auch nicht unbedingt Wohlbefinden aus, also hast du noch was zu sagen?

Hi

Ich habe ganz sicher nirgends versucht die Blume schön zu reden.
Ich habe oft genug gesagt das ich nicht nur aufs spielen aus bin.
Wenn Dich das flimmern stört dann gut, nur gibt es genug User die bis jetzt kein Problem damit gehabt haben. Das ist Fakt.
Soll jeder seinen Lieblings IHV haben, nur was hier wieder abgezogen wird grenzt ja schon fast an Volksverhetzung.


Normal diskutieren geht mit den meisten hier ja nicht mehr.
Naja werdet glücklich.
Gruss Labberlippe

tombman
2009-09-24, 10:14:39
Wenn du schon dein Boxbeispiel bringst dann richtig. Ein Weltmeister ist solange Weltmeister bis ihn jemand herausfordert und schlägt. Solange es keine Herausforderer gibt ist die Sache klar.
Seit wann gibts gewichtsklassenübergreifende Austragungen? ;)

HD5 gehört zur Gewichtsklasse mit Namen "DX11 performance". Da gabs noch gar keine Kämpfe, wo irgendwelche Titel vergeben werden- nur ein paar Schaukämpfe (=jetzige reviews ;)) zur Belustigung des Publikums :cool:

puntarenas
2009-09-24, 10:15:55
Ein Weltmeister ist solange Weltmeister bis ihn jemand herausfordert und schlägt. Solange es keine Herausforderer gibt ist die Sache klar.
Filtercheat -> Doping -> Disqualifikation

/Flame

Ich hör jetzt auf, aber ich bin einfach maßlos enttäuscht und es ärgert mich, das bereits jetzt in Foren von der Bildqualitätskönigin schwadroniert wird. PCGH hat aus Sicht der Fanboys alles richtig gemacht, die kriegen diesmal Lob für ihren "sehr schönen" Artikel, denn leseschwache User haben nicht mitbekommen, dass man immer noch auf Nvidia Q Level dilletiert. Compterbase hat es dagegen böse erwischt, die haben den Marketingstunt mit der Blume klarer angesprochen und kriegen Haue, verrückte Welt.

Blöd nur, dass sich vor allem durch Artikel wie bei Anandtech Nvidia wohl zurecht die Frage stellen muss, warum sie eigentlich überhaupt noch anständig Rendern sollen und am Ende sind wir alle die Dummen.

Gast
2009-09-24, 10:18:07
Ich lebe aktuell noch mit einer 1650pro und mir reicht da die BQ, ich bin bewusst jetzt eingie Generationen übersprungen da ich den Aufrüstwahn nicht jedesmal mitmache.

Dann kannst du gar nicht behaupten das Flimmern sei nicht so schlimm.
Dabei gehts um HD2-HD5, nicht um X1xxx wo es noch eine HQ Option gab. ;)

Für mich ist es nicht schlimm ich benutze meine Grafikkarte nicht nur zum spielen.
Sondern auch für AF Blumen? :ugly:

Die Sorge kann ich Dir abnehmen du musst Dir keine Gedanken machen was ich erkenne und was nicht.

Aja.

Mann kann nicht nur Bildschirme damit ansteuern und Eyefinity ist nicht nur für Spiele gedacht.
Schön wenn es auch stört nur ist das kein Gegenargumtent für Eyefinity.
Es ändert aber auch nichts an den bekannten Makeln.


Deine Ansicht nicht meine.Auf Vorrat zu kaufen ist meineransicht eben sinnfrei.
Die Karten sind eigebaut, jetzt eine GTX 200 zu kaufen ist durchaus spät, das ist klar.
Aber wegen D3D11 jetzt umrüsten ist wiederum früh.

Gast
2009-09-24, 10:19:00
Tut es auch.
Im Vergleich kaum sichtbar.


Ich habe ganz sicher nirgends versucht die Blume schön zu reden.
Du hast es als Argument genommen.

Gast
2009-09-24, 10:21:42
.........viel hls..........
hier geht es um RV870, eine Karte die schon vorgestellt wurde und Fakten bieten kann. Alles was GT300 Performance und IQ (lol) sowie Features betrifft, welches alles noch nicht bekannt ist gehört ins Speku Forum. Kapisch?

reunion
2009-09-24, 10:23:12
Du hast es als Argument genommen.

Es ist eine Tatsache, es ist ein Argument. Wie schrecklich, AMD hat sich tatsächlich die Frechheit heraus genommen im Jahr 2009 endlich die winkelabhängigkeit beim AF vollständig zu eliminieren. Was erlauben die sich eigentlich? Wenn nur mehr das zählt was jedem sofort ins Auge springt dann braucht man darüber auch gar nicht mehr zu diskutieren.

Sentionline
2009-09-24, 10:23:33
Jetzt wo die Spiele immer sparsamer an Content werden (Konsolenschablonen sei dank) ist BQ auf dem PC aktuell nach wie vor ein Trumpfargument. Wenn die Hardware doch so überlegen ist (aktuell) dann soll mans verdammt nochmal auch zeigen können. Kann sich jemand an die ersten 3Dfx Karten erinnern? Ich brachte jeden Playstation Fan ins staunen.

Heute geht das nur noch schwer...

tombman
2009-09-24, 10:24:34
hier geht es um RV870, eine Karte die schon vorgestellt wurde und Fakten bieten kann. Alles was GT300 Performance und IQ (lol) sowie Features betrifft, welches alles noch nicht bekannt ist gehört ins Speku Forum. Kapisch?
2+2=4! Kapisch?

==

Jo, auf BQ wird soviel herumgehakt, weil dem PC eh nix mehr bleibt :(

SSAA funkt nicht in DX>9, damit fast wertlos
AF flimmert- NERVT

reunion
2009-09-24, 10:24:53
Seit wann gibts gewichtsklassenübergreifende Austragungen? ;)

HD5 gehört zur Gewichtsklasse mit Namen "DX11 performance". Da gabs noch gar keine Kämpfe, wo irgendwelche Titel vergeben werden.
Nur ein paar Schaukämpfe (jetzige reviews ;)) zur Belustigung des Publikums :cool:

Wenn schon das Mittelgewicht reicht um alles zu schlagen braucht es kein Schwergewicht. ;)
Und natürlich gab es schon "Kämpfe", was zählt ist auf dem Platz, und das ist bei NV momentan eben nicht mehr.
Aber genug, das führt zu nichts, für mich ist hier EoD.

robbitop
2009-09-24, 10:26:06
Hi

Hast du eine 5870 schon gesehen, PCGH war eigentlich sehr zufrieden.

Gruss Labberlippe
Es sind doch Videos anschaubar.

Labberlippe
2009-09-24, 10:26:15
Im Vergleich kaum sichtbar.


Du hast es als Argument genommen.

Hi

Im Vergleich zur 4890 da diese winkelabhängig war.
Frangen?
Jetzt hat die 5870 winkelunabhängiges AF.

oder willst mir jetzt was anderes erzählen.


Gruss Labberlippe

Labberlippe
2009-09-24, 10:27:58
Es sind doch Videos anschaubar.

Hi

Ich sehe mir lieber dann genauer an wenn ich die Karte selbst habe, wobei es bei mir die 5850 wird, reicht mir bei weiten.

Ja die Videos habe ich dennoch gesehen.

War zufrieden damit.
Für meine Massstäbe halt.

Gruss Labberlippe

Armaq
2009-09-24, 10:31:13
Ich habe mir ebend die THG-Test zur HD5870 angeschaut und in einigen Benchmarks (Crysis Warhead) liegt die Karte wirklich gut.

Was ich nicht verstehe und was ATI machen muss ist die Einführung von einem kleinen Programm (Grafikdemo), welches den Nutzen ihrer Karte zeigt. Nvidia macht das relativ oft, aber ATI scheint dazu keine Personalie zu haben. Die Karte wird vll erst in 1 Jahr ihr volles Potential entfalten, aber jetzt will ich doch wissen, warum sie so gut ist.

Sentionline
2009-09-24, 10:31:43
Winkelunabhäniges AF das A.I. Optimiert ist ist eher...

...naja wie ein Toastbrot aus der Disco mit Erbkrankheiten. Sieht man nicht sofort und trotzdem störts. Und manche wissen nix davon...

Cyphermaster
2009-09-24, 10:32:33
Ich will mal kurz einhaken...
Die Diskussion führen wir jetzt seit 3 Jahren, die Argumente sind bekannt. Wir fordern einen (optionalen) HQ Schalter, wenn sich es schon zuviel verlangt ist per Default gescheite Filterung anzubieten.


Ich persöhnlich möchte einfach kein Flimmern. Alles klar? Flimmern ist unnatürlich, löst bei mir auch nicht unbedingt Wohlbefinden aus, also hast du noch was zu sagen?Diese "Argumentation" finde ich witzig, denn ich sehe es wie ein anderer Gast:
also ich will ja jetzt nicht rummosern, aber ich habe mir mal die Videos von HT4U (http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php) angeschaut und wenn HT4U hier von "Während die NVIDIA-Karte auch hier quasi mustergültig abschneidet" spricht der tut mir leid! Beide Karten flimmern und das recht ordentlich. Die ATI flimmert vielleicht einen Tick mehr aber entweder Flimmern oder nicht. Hier haben wohl beide Hersteller noch deutlich Nachholbedarf!

Wenn also einen "Allen-Augenkrebs-OFF"-Schalter, dann braucht den auch nVidia noch. Aber da man sich klar sein muß, daß die überwiegende Mehrheit der größten Zielgruppe für solche Karten, die Hardcore-Gamer, auf Flimmern weitestgehend scheißt (hey, das sind die, die notfalls auf "Lowest Detail" schalten, damit man bessere Bedingungen in Liga-Spielen hat!), ist die Einführung solcher Modi realistisch weder bei Grün, noch bei Rot zu erwarten. Dafür ist die Denke nach reiner Balkenlänge und die Tests im Netz mit Bildern statt Videos für die Bildqualität noch immer viel zu verbreitet.

Gast
2009-09-24, 10:32:38
2+2=4! Kapisch?
ist ein Fakt, waerend BQ und Speed der GT300 irgendwo zwischen Unbekannt und dem Resultat deiner feuchten Träume sind
==


SSAA funkt nicht in DX>9, damit fast wertlos
Adaptives Denken je nach dem wer was bietet?
AF flimmert- NERVT
in Spielen oder nur auf theoretischen Testern. Tolle Beschäftigung den ganzen Tag Coda's AF Tester zu spielen

Advanced
2009-09-24, 10:33:53
Also ich hab mir mal die ht4u Videos angeschaut.
Die HD4890 und HD5870 flimmern zwar deutlicher, als die GTX275, aber die flimmert auch.
Da kann mir keiner erzählen, die NVs würden nicht flimmern.

tombman
2009-09-24, 10:34:31
Wenn schon das Mittelgewicht reicht um alles zu schlagen braucht es kein Schwergewicht. ;)
HD5 = neue Schwergewichtsklasse
Derzeitiges Mittelgewicht: Single Gpu HighEnd <DX11
X2 und GX2 = ZWEI Mittelgewichter ;)

Und natürlich gab es schon "Kämpfe", was zählt ist auf dem Platz, und das ist bei NV momentan eben nicht mehr.
Es gab nur Schaukämpfe ohne Titel. Wenn Klitschko einen Noob auf der Straße verprügelt wird er auch nicht Weltmeister ;)

@Troll-Gast::comfort: (versuchs nochmal als Mann und eingeloggt ;))

reunion
2009-09-24, 10:35:31
Ich habe mir ebend die THG-Test zur HD5870 angeschaut und in einigen Benchmarks (Crysis Warhead) liegt die Karte wirklich gut.

Was ich nicht verstehe und was ATI machen muss ist die Einführung von einem kleinen Programm (Grafikdemo), welches den Nutzen ihrer Karte zeigt. Nvidia macht das relativ oft, aber ATI scheint dazu keine Personalie zu haben. Die Karte wird vll erst in 1 Jahr ihr volles Potential entfalten, aber jetzt will ich doch wissen, warum sie so gut ist.

Es wird sicherlich wieder ein Techdemo geben sobald DX11 offiziell ist. Gerade bei den Techdemos liefert AMD klar bessere Ergebnisse als NV.

robbitop
2009-09-24, 10:35:52
Nicht flimmern ist nicht zwangsläufig ein Qualitätsmerkmal, sonst bräuchtest du nur das LOD nach oben schieben und alle wären glücklich. Zu hochfrequente Texturen flimmern eben.
Hat Coda mit seinem AF-Tester doch lange schon alles belegt. NV ist am geforderten Original perfekt dran. ATI offenbar leider nicht.