PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - ist die HD5XXX-Serie der G80-Nachfolger?!


=Floi=
2010-09-29, 22:37:23
Es ist schon erstaunlich wie lange mittlerweile Ati mit der HD5XXX Serie NV in schach hällt. damals dachte man an ein kurzes aufblitzen und dann bringt nv die sache wieder unter kontrolle, aber mittlerweile glänzt die HD5 Serie doch ganz schön. Gerade nach der langen zeit zeigt sich rückblickend doch eine gute architektur.

Wenn man alles (von der archtektur bis zu effizienz) betrachtet ist es schon kurios wie gut dieser R600 verwandte doch ist.

Gasti
2010-09-29, 23:05:48
Es ist schon erstaunlich wie lange mittlerweile Ati mit der HD5XXX Serie NV in schach hällt. damals dachte man an ein kurzes aufblitzen und dann bringt nv die sache wieder unter kontrolle, aber mittlerweile glänzt die HD5 Serie doch ganz schön. Gerade nach der langen zeit zeigt sich rückblickend doch eine gute architektur.

Wenn man alles (von der archtektur bis zu effizienz) betrachtet ist es schon kurios wie gut dieser R600 verwandte doch ist.

Auf gar keinen Fall. Der G80 war seinem Vorgänger 7900GTX um Welten voraus.
Das kann man von der 5870 gegenüber der 4890 kaum behaupten.
Zum Release waren auch Viele zu Recht vom RV870 etwas entäuscht.
Das hat sich dann aber durch den GF1XX wieder relativiert.

xiao didi *
2010-09-29, 23:28:14
Man muss dabei auch beachten, dass sich die Zeiten einfach geändert haben. GPUs haben heute eine deutlich längere Lebensdauer als früher, wo alle ~8-10 Monate die Leistungsfähigkeit verdoppelt wurde.

y33H@
2010-09-29, 23:29:11
Der G80 hat als 88GTX/Ultra bis Erscheinen der HD4870 die Fps-Krone inne gehabt. Das waren 19 Monate ... das AF ist bis heute besser als alles, was AMD zu bieten hat. Die HD5870 konnte sich nur 6 Monate halten, dann hat die GTX 480 sie überholt. R600 war als HD2900XT ein Flop, HD3870 war auch lahm, erst die HD4k haben viel Boden gut gemacht und HD5k ist dann für ein halbes Jahr vorbei gezogen. NV bietet mit GF100 erneut die beste SGPU-Performance, die bessere BQ und mehr Features. So wie mit G80 und GT200 auch schon.

LovesuckZ
2010-09-29, 23:30:40
Die 8800GTX war 18 Monate schneller als die Konkurrenzprodukte.
Die 5870 nur 7 Monate und bietet die schlechtere DX11 Implementierung. Es ist überhaupt nicht mit der 8800GTX vergleichbar, die deutliche Maßstäbe gesetzt hat. Z.B. HQ AF, dass AMD wieder seit vier Jahren deaktiviert haben.

Gasti
2010-09-29, 23:38:39
Man muss dabei auch beachten, dass sich die Zeiten einfach geändert haben. GPUs haben heute eine deutlich längere Lebensdauer als früher, wo alle ~8-10 Monate die Leistungsfähigkeit verdoppelt wurde.

Wenn Früher jetzt schon G80 ist - na dann Prost.
Aber man sieht schon dass Perofrmance egal ist - Hauptsache schneller als die Konkurrenz, damit man in seinem Sandkasten zufrieden sein kann.
(Damit meine ich jetzt die anderen Posts)

y33H@
2010-09-29, 23:45:27
Wobei jeder AMDist weiß wie man die BQ hochschraubt. AI Deaktivieren und alles auf Qualität statt Performance. Also das ist ein Gerücht das Nvidia die bessere BQ liefert. Die sind gleichauf.OT: Nein, das AF ist auch mit AI-off schlechter.

LovesuckZ
2010-09-29, 23:47:39
Vielleicht sollte die Moderationen diesen Thread schließen.
Wenn man unbedingt die AMD-Gast-Trollposting will, dann wenigsten nicht in jedem Thread.

VinD
2010-09-29, 23:56:29
Es ist schon erstaunlich wie lange mittlerweile Ati mit der HD5XXX Serie NV in schach hällt. damals dachte man an ein kurzes aufblitzen und dann bringt nv die sache wieder unter kontrolle, aber mittlerweile glänzt die HD5 Serie doch ganz schön. Gerade nach der langen zeit zeigt sich rückblickend doch eine gute architektur.

Wenn man alles (von der archtektur bis zu effizienz) betrachtet ist es schon kurios wie gut dieser R600 verwandte doch ist.

Ich denke das kann man gut mit der Strategie mancher in diversen RTS vergleichen. Die einen sammeln Rohstoffe und kloppen drauf was geht, die anderen versuchen es mit ausgeklügelten Zügen.
Und das schlimme: selbst der Nicht-Statege kann mit seiner Dauer-Hau-Drauf-'Strategie' irgendwann doch siegen.
Und genau das scheint dich dann zu wundern ;)
LG VinD

Dural
2010-09-30, 00:01:43
Der G80 hat als 88GTX/Ultra bis Erscheinen der HD4870 die Fps-Krone inne gehabt.

geht nicht, vor der 4870 kam noch die GTX280

@topic

RV870 als G80 Nachfolger... eine grössere beleitigung gibt es wohl nicht, die RV870 GPU ist wohl die inefizienteste GPU in der Geschichte, da kommt wohl nur die hälfte der Rohpower auf dem boden an... zudem kann man sage für DX11 so wie so ein Flop, kein Vergleich zur DX10 power des G80!

y33H@
2010-09-30, 00:02:39
Ah, natürlich. Mea culpa :usad:

LovesuckZ
2010-09-30, 00:04:35
geht nicht, vor der 4870 kam noch die GTX280

Wobei das nicht von Bedeutung ist, da AMD weiterhin 18 Monate benötigte, um schneller zu sein.

Mr. Lolman
2010-09-30, 04:59:08
OT: Nein, das AF ist auch mit AI-off schlechter.
Aber nur wegen der Banding Kacke. Wenn ich mir die Trackmania Screenshots ansehen, finde ich haufenweise Dinge, wos ansonsten besser aussieht.


@Topic: Doppelte Rohleistung vgl zum Vorgänger hat man nicht geschafft. 80% vgl zu 1GB 4870 sind aber schon drinnen: http://www.pcgameshardware.de/aid,776033/Gothic-4-Arcania-Mit-welcher-Grafikkarte-laeuft-das-Rollenspiel-fluessig-Update-OC-Werte/Rollenspiel-Adventure/Test/

Gast
2010-09-30, 05:14:06
Aber nur wegen der Banding Kacke. Wenn ich mir die Trackmania Screenshots ansehen, finde ich haufenweise Dinge, wos ansonsten besser aussieht.

Dumm nur das es genug Videos gibt, die Flimmereien nur auf Ati Karten zeigen. Naja bei ddir wundert man sich nicht mehr.

G80
2010-09-30, 05:16:04
Nein dieser 600er Müll und seine Verwandten sind sicher kein G80.

Ich hatte damals X850 XT davor 9800 pro und im Umfeld _einige_ 9700 pro und 9600 XT verteilt/empfohlen. Später hab ich dann nur neidisch aufs AF der verschieden Highend X1 gegafft. Konnte/wollte mir aber von denen keine Leisten ("altes" Sys mit AGP - die leidige Geschichte) und hab dann auf 88 GTS 640 bzw. 88 GTX SLI gewechselt:

OMG GRATIS-Traum-AF-GRATIS-GRATIS-GRATIS. Bei der ganzen AF Diskussion wird immer vergessen das AF auf Highend-G80 und Ablegern praktisch nichts kostet. Das war auch der Grund (neben neuem 16:10 24" Moni) warum 88 GTX SLI kam.

Selbst heute noch legen sich die 2 Karten mit GTX 460 und 5830-50 an. Verbrauch damals schon unter der Konkurrenz (R600 .... was für ein Müll) und sogar später ggü 4870 Last wie Idle, von 4890 mal besser nicht zu reden - was mir aber nur für die Kühlungsdimension/NT wichtig gewesen ist.

DX 11/10 (also natürlich nur der 10er Teil) Spiele laufen auch heute noch gut - bin komischerweise nicht von der DX 10 Implementierung der R600er und Konsorten vernichtet worden ....
Im Gegenteil, wenn überhaupt wird HD 5 schnell untergehen mit ihrem anflansch-Billig-Design.

PhysX - naja ok was man bisher gesehen hat, war außer UT Demomaps, Mirrors und Batman echt richtig Kacke (ich kenne noch Darkest of Days, Cryostasis, Sacred 2 - aber bei den ersten beiden waren auch die Spiele NUR grausam) bzw. zu aufwändig für zuwenig (Metro). Mafia 2 hab ich noch nicht probiert. Trotzdem alles mehr als ich von ATI in der Zeit gesehn habe und ich habe den Mehrwert gratis bekommen.

Im Notebook hab ich ne FPS-Schlampe für kleine Spiele zwischendurch: 4650. Da ist auch Ai Advandced und irgendwas Namens (verdient nur leider den Namen nicht ...) AF auf 4-8x (je nachdem) eingestellt. Mehr dürckt die FPS oft unter 1/4.

Also nein, R600 + Ableger sind sicher kein G80. Der letzte "G80" von ATI denen ich Nachtrauere war X1800 XT + x1900 XT + X1950 XTX.

Und wo wir schon dabei sind ist Fermi-Highend auch eher ein R600-The Good Edition; soll heißen viele (ähnliche) Probleme aber im Gegensatz zum 600 Müllhaufen wenigstens schnell dabei und Featureset + Treiber.
Die 450 GTS schafft allerdings wirklich ein R600 zu sein: heißer und mehr Stromverbrauch als die Konkurrenz, dabei (zT) Langsamer, (rel.) teuer und nebenbei ist bei der Performance der Vorgänger GTS 250 eine reale Bedrohung schneller zu sein, zT sogar noch mehr als damals 2900 XT vs 1950 XTX mit AA.

GTX 460/470 + 5850 (als FPS-Schlampe) in meinen Augen im Augenblick grage noch die einzig Kaufbaren Karten. Drunter nur 5770 ebenfalls als Schlampe.

ATI müsste jetzt mit HD 6 einen richtigen Kracher mit neuer/alter BQ loslassen und ausreichender Single-Graka Performance, denn ATI-MGPU tu ich mir sicher nicht an (so wie es jetzt ist/sonnst na klar jederzeit), dann kommt ins neue Sys eine ATI.

(Die Treiber, sehe ich ja an meiner 4650 sehr gut, sind zwar bessergeworden, (aber die andre Richtung wäre auch schwer) aber nocht nicht auf NV Niveau. Nebenbei möchte ich öfter als alle 3-4 Monate mal nen Treiber für meine "alten" Karten und MR sind auch besser.

Mr. Lolman
2010-09-30, 05:30:08
Dumm nur das es genug Videos gibt, die Flimmereien nur auf Ati Karten zeigen. Naja bei ddir wundert man sich nicht mehr.

Ja wenn man auf Unschärfe steht.

Schau dir mal die Dächer an, oder den Trackmania Schriftzug. Dass da auf NV nix flimmert ist wohl nicht weiter verwunderlich. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8295595#post8295595

Gast
2010-09-30, 06:30:15
Ja wenn man auf Unschärfe steht.

Schau dir mal die Dächer an, oder den Trackmania Schriftzug. Dass da auf NV nix flimmert ist wohl nicht weiter verwunderlich. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8295595#post8295595

Ist dir schonmal in den Sinn gekommen, das dort vieleicht unterschiedliche Settings zum Einsatz kamen? Was hat das mit dem Filter zu tun?

Gast
2010-09-30, 06:57:46
Extra für Mr.Lolmans da ist nichts unscharf wenn dann hat der vergessen wie in Langenscheiss seine Bilder das Postprocessing abzustellen.

Nvidia da siehste
http://img3.imagebanana.com/img/z3y22yk6/thumb/TmForever2010093006482724.png (http://www.imagebanana.com/view/z3y22yk6/TmForever2010093006482724.png)

Gast
2010-09-30, 08:02:43
Die HD 5870 ist gerade mal im Schnitt 50 % schneller als die HD 4890. Die 8800 GTX war mehr als zweieinhalb mal so schnell als sein Vorgänger: http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-ultra/24/#abschnitt_performancerating_qualitaet

Die 8800 GTX ist in etwa so schnell wie eine HD 4850. AMD hat also 3 Generationen entwicken müssen, bis sie auf 8800 GTX-Niveau kamen (HD 2000, 3000, 4000).

Ergo: Es ist eine Beleidigung, zwei aneinandergepappte HD 4890 aka HD 5870 mit dem G80 zu vergleichen.

Objektiv-Troll
2010-09-30, 08:50:07
Die HD 5870 ist gerade mal im Schnitt 50 % schneller als die HD 4890. Die 8800 GTX war mehr als zweieinhalb mal so schnell als sein Vorgänger: http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-ultra/24/#abschnitt_performancerating_qualitaet

Die 8800 GTX ist in etwa so schnell wie eine HD 4850. AMD hat also 3 Generationen entwicken müssen, bis sie auf 8800 GTX-Niveau kamen (HD 2000, 3000, 4000).

Ergo: Es ist eine Beleidigung, zwei aneinandergepappte HD 4890 aka HD 5870 mit dem G80 zu vergleichen.

Ich werf einfach mal mit Material:
http://www.computerbase.de/artikel/grafikkarten/2009/test-14-grafikkarten-im-vergleich/8/#abschnitt_performancerating

Und als Randbemerkung von Generationen zu reden ist absoluter Unsinn. G80 schlummert immer noch im G100 und R600 schlummert genauso noch im RV870. Es ist also bleibt es beim Architekturvergleich, wo beide Vor- wie Nachteile aufweisen.

OT: Bei nem Kumpel mit ner 5850 hat man das Banding gesehen, aber es war so schwach, dass es mich nicht störte.

Raff
2010-09-30, 08:51:36
Die HD 5870 ist gerade mal im Schnitt 50 % schneller als die HD 4890. Die 8800 GTX war mehr als zweieinhalb mal so schnell als sein Vorgänger: http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-ultra/24/#abschnitt_performancerating_qualitaet

Das liegt daran, dass CineFX "scheiße" war. G80 ist in allen Bereichen viel besser/flexibler/ausgewogener. In neuen Spielen hat sich der Abstand AFAIK noch vergrößert.

Ergo: Es ist eine Beleidigung, zwei aneinandergepappte HD 4890 aka HD 5870 mit dem G80 zu vergleichen.

Da stimme ich zu.

MfG,
Raff

Schlammsau
2010-09-30, 09:14:23
Wobei das nicht von Bedeutung ist, da AMD weiterhin 18 Monate benötigte, um schneller zu sein.

Man kanns auch so sehen....nVidia hatte so viel Vorsprung, hat diesen aber nicht genutzt. Sie haben Ati immer mehr aufholen lassen, bis sie sogar überholt wurden.
In spätestens 2 Monaten wird Cayman zeigen wo Performancetechnisch der Hammer hängt, und dann wird ATi wohl wieder mindestens ein halbes Jahr lang, wenn nicht noch länger, die Leistungskrone inne haben.

Gast
2010-09-30, 10:52:36
Da stimme ich zu.

MfG,
Raff


Es ist eine Schande , das solche "Bash"-Threads immer kurz vor erscheinen einer "neuen" Generation erscheinen. Und die Moderation das auch noch unterstützt. Danke für dieses "Hohe" Niveau

Warum besitzt eigentlich DU laut deiner Signatur ein 5870 ?
Besitzt DU überhaupt eine ? So wie du hier Bashing betreibst garantiert nicht !


Nvidia hat es jetzt schon in 2. Generation seit CineFX nicht geschafft etwas
"AUSGEWOGENES" in den Markt zu bringen.



OT: zur threadfrage :

Nein , das muss Nvidia schon selbst versauen ;-)

Matrix316
2010-09-30, 11:07:27
Man muss auch bedenken, dass ATI vorher mit der 9700 bzw. 9800 er Reihe auch schonmal großen Vorsprung gegenüber GF4,5 und so hatte.

Das wechselt sich immer ab. Mal der eine, mal der andere, mal gleich.

Raff
2010-09-30, 11:12:59
Warum besitzt eigentlich DU laut deiner Signatur ein 5870 ?
Besitzt DU überhaupt eine ? So wie du hier Bashing betreibst garantiert nicht !

Spitzen Logik, weiter so. Du meinst also, nur weil ich eine Karte besitze, nutze und folglich auch bezahlt habe, lobe ich sie über alles. Am Arsch. Sowas machen nur Fanboys. Du hast dich gerade als einer geoutet. Wieder mal, postest ja öfter hier.

MfG,
Raff

Gast
2010-09-30, 11:15:30
Schon der Threadtitel ist doch eine einzige Provokation und auch bewußt so gewählt. Schon hat man wieder einen Grund mal wieder so richtig rauszulassen, warum AMD und hier speziell die HD5k ja so viel schlechter als vergleichbare NV-Karten sind. Hat man keinen Grund zum Schlechtreden, muss man ihn eben selber schaffen und die HD6k stehen ja auch noch vor der Tür, da muss man schon mal im Vorfeld kräftig Stimmung machen.

Gast
2010-09-30, 11:18:16
Man sollte nicht vergessen, dass G80 2006 schon die Basis für moderne Computing-Features wie OpenCL oder DirectCompute mitbrachte.
Hätte man darauf verzichtet, wäre die Gaming-Leistung wohl möglich noch höher gewesen.

Trotz allem muss man AMD anerkennen, dass sie seit R600 sich sehr gut entwickelt haben. Und wenn Nvidia hier und da etwas am Management optimiert, stehen uns in Zukunft zwei eben-würdige Konkurrenten gegenüber, was für uns Endkunden vernünftige Preise bedeutet.

Gast
2010-09-30, 12:38:59
Hihihi, ein typischer 3DCenter (eher 3DFlamer) Thread. Und immer dieselben 6-7 Nasen, die sich angesprochen fühlen.

Matrix316
2010-09-30, 12:49:38
Btw. die 5970 ist zur Zeit die schnellste Einzelkarte (die nicht 1000 Euro kostet) und damit führt ATI immer noch. Erst wenn Nvidia eine GTX490 mit zwei 460 oder 470ern bringt, hätten sie wieder die Krone. Immerhin gabs ja auch von nvidia Dualkarten wie die 7900GX2 oder 9800GX2 oder GTX290. Sollte man net vergessen.

Gast
2010-09-30, 12:54:27
Die 20-30% FPS-Vorsprung einer 5970 dürften wohl durch die Mikroruckler relativiert werden.

Außerdem geht es hier ja um Single-GPUs und inwiefern AMD eine ähnliche Bombe wie G80 losgelassen hat bzw. kann.

Lawmachine79
2010-09-30, 12:59:01
Man kanns auch so sehen....nVidia hatte so viel Vorsprung, hat diesen aber nicht genutzt. Sie haben Ati immer mehr aufholen lassen, bis sie sogar überholt wurden.

Das ist normal in dem Markt. Intel hat das Hundertfache an Kohle und Größe und hatte einen Entwicklungsvorsprung und dann hat AMD den K8 gebracht.

Gast
2010-09-30, 13:04:05
Das ist normal in dem Markt. Intel hat das Hundertfache an Kohle und Größe und hatte einen Entwicklungsvorsprung und dann hat AMD den K8 gebracht.

Deshalb ist es noch lange nicht normal. NV hat sich klar verschätzt. Man sah ja an den ersten Aussagen von Huag nach dem AMD-Kauf das man nicht mehr viel Gegenwehr erwartete. Intel ist einfach ein viel zu großer Klotz der nur noch durch wettbewerbswidriges Verhalten seine Vormachtstellung behaupten konnte. Ineffizienter kann man mit derart viel Ressourcen wohl kaum umgehen wenn man das mit AMD vergleicht.

LovesuckZ
2010-09-30, 13:04:08
Das ist normal in dem Markt. Intel hat das Hundertfache an Kohle und Größe und hatte einen Entwicklungsvorsprung und dann hat AMD den K8 gebracht.

Wobei der K8 eben auch deutlich schneller war. So wie de Nehalem heutzutage - jedenfalls in Spielen.
Auf dem Grafikmarkt sieht es dagegen eher so aus, dass die Entwicklung seit G80 sich stark verlangsamt hat. rv770 war ca. 25-30% schneller bei schlechterer BQ. Und der Chip kam 18 Monate später auf dem Markt. GT200 war 60% schneller. Auch nicht gerade sehr schnell für einen Chip, dessen Veränderungen eigentlich nur unter der Haube war. Keine neuen BQ Features, kein neues Featureset...

Gast
2010-09-30, 13:05:57
Wobei der K8 eben auch deutlich schneller war. So wie de Nehalem heutzutage - jedenfalls in Spielen.
Auf dem Grafikmarkt sieht es dagegen eher so aus, dass die Entwicklung seit G80 sich stark verlangsamt hat. rv770 war ca. 25-30% schneller bei schlechterer BQ. Und der Chip kam 18 Monate später auf dem Markt. GT200 war 60% schneller. Auch nicht gerade sehr schnell für einen Chip, dessen Veränderungen eigentlich nur unter der Haube war. Keine neuen BQ Features, kein neues Featureset...

Wenn du deine Brille abnehmen würdest würdest du sehen das sich die Entwicklung nur bei NV verlangsamt hat.

G80
2010-09-30, 13:23:41
Wenn schon MPU Karten ins Rennen geworfen werden: War eine 7950 GX 2 nicht knapp schneller als 2900 XT und 3870? Mit AA recht sicher denn da konnte sich zumindest erste ja kaum von der 1950 XTX absetzten.

Nach obriger Argumentation hatte dann ATI ja bis zur 3870 X2 einführung nix gegen den uralten "scheiße" Chip.

Das könnte mann dann auch mit Einzelkarten forsetzten wo 2 4870 x2 von 3 GTX 28x brutal ..... naja das was die ATI-Treiber bei MPU mit den Nutzern machen. :freak:

Also jetzt ernsthaft weiter und MGPU Karten rauslassen .....

Dural
2010-09-30, 13:27:53
Wenn du deine Brille abnehmen würdest würdest du sehen das sich die Entwicklung nur bei NV verlangsamt hat.

Nur bei NV? hmmm wenn ich GF100 mit RV870 vergleich liegt der Rückstand wohl eher bei AMD...

Sie müssen mit der realen DP leistung aufholen, sie haben kein ECC, Tesselation... Geometrie druchsatz... AF... und gerade im "Software" bereich ist AMD eine Null (anders kann man das gar nicht sagen) Cuda, PhysX usw.

Das sind alles pünkte die in der Zukunft entscheident sein werden, wenn nicht sogar schon heute...

Und NEIN, die Entwicklung der letzten jahre ist völlig normal, ich sehe da bei beiden keine grossen unterschid, AMD ging mit RV870 den sehr sehr einfach weg waren dafür auch früher auf dem Markt... Ist ja alles so auch OK! Aber bei NV von einer langsammeren Entwicklung als bei AMD zusprechen in anbetracht von RV870 (Doppleter RV790 mit DX11) und GF100 (Deutliche veränderungen im Vergleich zum GT200) ist schon "komisch" Gerade wenn man schaut das der GF100 eigentlich auch gar nicht so viel älter als RV870 ist und nur wegen den Problemen bei der Herstellung sich so verzögert hat...

übrigens war der GT200 früher auf den Markt als RV770

Coda
2010-09-30, 13:30:27
Ja wenn man auf Unschärfe steht.

Schau dir mal die Dächer an, oder den Trackmania Schriftzug. Dass da auf NV nix flimmert ist wohl nicht weiter verwunderlich. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8295595#post8295595
Hauptsache FUD verbreiten. So kennt man unseren Loli.

Gast
2010-09-30, 14:29:04
Nur bei NV? hmmm wenn ich GF100 mit RV870 vergleich liegt der Rückstand wohl eher bei AMD...

Sie müssen mit der realen DP leistung aufholen, sie haben kein ECC, Tesselation... Geometrie druchsatz... AF... und gerade im "Software" bereich ist AMD eine Null (anders kann man das gar nicht sagen) Cuda, PhysX usw.

Das sind alles pünkte die in der Zukunft entscheident sein werden, wenn nicht sogar schon heute...

Und NEIN, die Entwicklung der letzten jahre ist völlig normal, ich sehe da bei beiden keine grossen unterschid, AMD ging mit RV870 den sehr sehr einfach weg waren dafür auch früher auf dem Markt... Ist ja alles so auch OK! Aber bei NV von einer langsammeren Entwicklung als bei AMD zusprechen in anbetracht von RV870 (Doppleter RV790 mit DX11) und GF100 (Deutliche veränderungen im Vergleich zum GT200) ist schon "komisch" Gerade wenn man schaut das der GF100 eigentlich auch gar nicht so viel älter als RV870 ist und nur wegen den Problemen bei der Herstellung sich so verzögert hat...

übrigens war der GT200 früher auf den Markt als RV770

Es ging um die Leistung. Aber schön das du wieder deinen üblichen FUD ablässt.

Iruwen
2010-09-30, 14:46:41
Der Thread ist wie ein schwerer Autounfall, es ist furchtbar aber man kann nicht wegsehen... macht den doch einfach dicht, oder hat das hier irgendein Diskussionspotential?

Langenscheiss
2010-09-30, 15:13:43
Hier werden die Bilder aus dem AF-Thread wohl völlig aus dem Kontext gerissen ;)
Naja, jetzt wo das Material sowieso schon rübergeschwappt ist: Der G80 ist für mich nicht mit der HD5K-Reihe vergleichbar. Es stimmt, ATI hat wieder aufgeholt was die Marktpräsenz und Konkurrenzfähigkeit angeht, auch der Leistungssprung ist akzeptabel, aber der G80 hat es gleichzeitig geschafft, die BQ deutlich zu verbessern, was man von der HD5K-Reihe imo nicht unbedingt behaupten kann.

DrFreaK666
2010-09-30, 15:19:42
Hier werden die Bilder aus dem AF-Thread wohl völlig aus dem Kontext gerissen ;)
Naja, jetzt wo das Material sowieso schon rübergeschwappt ist: Der G80 ist für mich nicht mit der HD5K-Reihe vergleichbar. Es stimmt, ATI hat wieder aufgeholt was die Marktpräsenz und Konkurrenzfähigkeit angeht, auch der Leistungssprung ist akzeptabel, aber der G80 hat es gleichzeitig geschafft, die BQ deutlich zu verbessern, was man von der HD5K-Reihe imo nicht unbedingt behaupten kann.

Immerhin bot AMD mit der HD5k als erste SGSSAA an, ist jetzt aber wieder hinter NV

Langenscheiss
2010-09-30, 15:25:15
Ja, bei alten OpenGL-Spielen gehts ja offenbar nur mit Hack bzw. alten Treibern, und bei Nvidia gehts sogar mit Dx10/11. Ganz zu schweigen vom nicht funktionierendem Downsampling unter Dx9 mit Win764Bit (für Spiele, die kein AA anbieten. Die werden auch immer mehr.), eine System-Konfiguration, die heutzutage schon recht häufig anzutreffen ist. Ne, also was BQ angeht, muss ATI/AMD noch nachlegen.

Gast
2010-09-30, 16:02:33
Nein. An den G80 kommt keine HD5XXX dran. G80 war revolutionär, neue Massstäbe in BQ und Geschwindigkeit. Er war der Zeit weit weit voraus, was eine HD5XXX nicht ist. G80 war sozusagen ein Quantensprung.

Gast
2010-09-30, 16:11:29
Weil eine neue Konsole rausgekommen ist nur deswegen.

Wenn jetzt Playstation 4 rauskommt wird wieder so eine Grafikkarte kommen.

Mr. Lolman
2010-09-30, 16:16:41
Hauptsache FUD verbreiten. So kennt man unseren Loli.

Ja, wenn die Screenshots falsch sind :rolleyes:

Kann man ja nicht wissen. Außerdem wegen der LOD-Sache: Das LOD wirkt zwar effektiv verschoben, aber es der Textufilter wird nicht anders parametrisiert. Und du weißt doch selbst am Besten, dass das vertstärkte NV-Flimmern bei negativem LOD aufgrund von Letzterem entstanden ist, oder?

Außerdem wunderts micht, warum NV sich so sträubt, das LOD überhaupt zu verschieben. Zumindest -0.5 für 4xSGSSAA sollte doch ohneweiteres drinnen sein, oder? Denn aktuell schaut (zumindest bei Alphatests) 2,25xOGSSAA+2xMSAA besser aus als 4xSGSSAA: http://picfront.de/d/7HhD

Coda
2010-09-30, 16:18:57
Weil eine neue Konsole rausgekommen ist nur deswegen.

Wenn jetzt Playstation 4 rauskommt wird wieder so eine Grafikkarte kommen.
Ich halte es für unwahrscheinlich, dass das korreliert. Wie kommst du darauf?

Blaire
2010-09-30, 17:53:30
Außerdem wunderts micht, warum NV sich so sträubt, das LOD überhaupt zu verschieben. Zumindest -0.5 für 4xSGSSAA sollte doch ohneweiteres drinnen sein, oder? Denn aktuell schaut (zumindest bei Alphatests) 2,25xOGSSAA+2xMSAA besser aus als 4xSGSSAA: http://picfront.de/d/7HhD

Weil Nvidia vieleicht um die Probleme weiß?
Was interessiert dich eigentlich ständig das LOD bei Nvidia, du nutzt doch garkeine Nvidia. Mir scheint als hättest du mehr ein Problem damit, als irgendein anderer NV User. Hab dir schonmal gesagt, es gibt bei Nvidia OGSSAA Hybriden und SGSSAA ebenso, man hat also die Wahl entweder ein scharfes oder ein softeres Bild. Wo ist also das Problem?

fondness
2010-09-30, 17:56:02
Weil Nvidia vieleicht um die Probleme weiß?
Was interessiert dich eigentlich ständig das LOD bei Nvidia, du nutzt doch garkeine Nvidia. Mir scheint als hättest du mehr ein Problem damit, als irgendein anderer NV User. Hab dir schonmal gesagt, es gibt bei Nvidia OGSSAA Hybriden und SGSSAA ebenso, man hat also die Wahl entweder ein scharfes oder ein softeres Bild. Wo ist also das Problem?

Weil beides nicht optimal ist ganz einfach.

Gast
2010-09-30, 17:58:44
Weil beides nicht optimal ist ganz einfach.

Was soll daran nicht optimal sein? Ich bin mit der Bildqualität sehr zufrieden, zumal man diverse Modis beliebig kombinieren kann.

Gast
2010-09-30, 18:19:59
Ich weiß es ist eigentlich unmöglich, aber ich bin mit der BQ meiner HD5870 zufrieden.

@Blaire

Das hast du genau richtig erkannt. Mir stellt sich dann nur die Frage warum du es in die Gegenrichtung nicht genau so sehen kannst. Die NV-User sind doch auch ständig mehr besorgt um die BQ von AMD-Karten, als die Besitzer dieser Karten selber.

Blaire
2010-09-30, 18:42:16
@Blaire
Das hast du genau richtig erkannt. Mir stellt sich dann nur die Frage warum du es in die Gegenrichtung nicht genau so sehen kannst. Die NV-User sind doch auch ständig mehr besorgt um die BQ von AMD-Karten, als die Besitzer dieser Karten selber.

Kritisieren kann man solange es berechtigt ist, ich hab damals auch meine 7800GTX kritisiert weil sie auf HQ flimmerte ( http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3211574&postcount=642 ) , da dauerte es nicht lang bis diverse Artikel erschienen und schwupps gabs ein Treiber wo das Problem einigermaßen gefixt wurde. Und ich glaube das wäre bei Ati genauso der Fall, wenn sie denn wollten und genug Kritik käme. Aber es ist leider so, das dies oft falsch verstanden wird, derweil profitiert doch jeder davon.

Mr. Lolman
2010-09-30, 19:06:40
Weil Nvidia vieleicht um die Probleme weiß?
Was interessiert dich eigentlich ständig das LOD bei Nvidia, du nutzt doch garkeine Nvidia.
Najo, ich hab bei einem meiner Brüder letztens ne (von mir empfohlene ;)) Gigabyte GTX460 verbaut. Nettes Teil, übrigens.
Der andere bekommt dann die 8800GTX, sobald ich ein passendes NT hab (momentan werkt da ne 1950pro im Rechner).

LovesuckZ
2010-10-01, 23:44:03
Techspot (http://www.techspot.com/review/320-civilization-v-performance/page6.html) hat CIV 5 mit verschiedenen GPUs getestet. Und in dem Benchmark (mit Fraps gemessen, daher nicht 100% genau) schlägt die GTX460 die 5870. Damit sollte das Thema dann auch beendet sein.

Anzumerken ist: Da man mit einer GF10x Karte SGSSAA forcieren kann, ist es sowieso ein unfairer Vergleich.

Schrotti
2010-10-02, 00:01:33
Die Ergebnisse sehen für mich fast nach CPU Limit aus.

Eine 480 sollte schon ein Stück weg sein von einer 470 & 460.

Vento
2010-10-02, 00:07:09
Schau dir 2560x1600 an, da sieht man es gut.

Schrotti
2010-10-02, 00:20:58
Stimmt, Danke.

Ich muss einen besseren Monitor kaufen.

derguru
2010-10-02, 00:24:16
brauchst kein neuen monitor,fordernde settings wählen und dann ist der abstand wieder da.

Vento
2010-10-02, 00:28:46
Eben, musst dich ja nicht wie im Benchmark mit Alibi Anti-Aiasing zufrieden geben, ganz davon abgesehen kannst du ja auch mit einer höheren Auflösung als deiner nativen rendern.

Gast
2010-10-02, 02:54:12
Techspot (http://www.techspot.com/review/320-civilization-v-performance/page6.html) hat CIV 5 mit verschiedenen GPUs getestet. Und in dem Benchmark (mit Fraps gemessen, daher nicht 100% genau) schlägt die GTX460 die 5870. Damit sollte das Thema dann auch beendet sein.


Und nu? Bei Gothic4 kann sich die GTX460 kaum von der HD5770 absetzen ;)

http://www.pcgameshardware.de/aid,776033/Gothic-4-Arcania-Mit-welcher-Grafikkarte-laeuft-das-Rollenspiel-fluessig-Update-OC-Werte/Rollenspiel-Adventure/Test/

=Floi=
2010-10-02, 06:49:25
Hallo
mir ging es beim threadtitel eher um die gute effizienz pro mm² und pro watt. Die HD5870 schlägt sich gegen eine 480er noch immer sehr sehr gut und kann auch bei neuen games sehr gut mithalten. Wer zum release solch eine karte gekauft hat ist damit ganz gut gefahren und kann sie getrost noch eine weile behalten.


Mir ging es nicht um die an sich schlechte effizienz des RV870 bezogen auf seine shaderleistung auf dem papier und was dann davon auf dem monitor ankommt.

Hugo78
2010-10-02, 07:58:50
Wer zum release solch eine karte gekauft hat ist damit ganz gut gefahren und kann sie getrost noch eine weile behalten.

Ist das nicht immer so?

kruemelmonster
2010-10-02, 11:51:32
Da noch immer mehr DX9 Spiele als DX10 und DX11-Spiele zusammen releast werden. Und sich das auch sobald nicht ändern wird, hat ATi doch bewiesen, dass sie den richtigen Riecher gehabt haben. Es ist immernoch so, dass die DX11 implementation der HD5000 Serie nicht limitiert.

DX11 doesn't matter?

Aber du kannst dich freuen, dass in 2 Jahren deine GTX480 die bessere DX11 Karte ist. :freak:

Wieso erst in zwei Jahren?

Wie das TechSpot Performance Review von Civ5 zeigt bringt seine 480 heute in 19x12 4xMSAA (http://www.techspot.com/review/320-civilization-v-performance/page6.html) 33% mehr fps als eine 5870, in 25x16 4xMSAA (http://www.techspot.com/review/320-civilization-v-performance/page9.html) sind es gar +50%.

Und das liegt nicht an der Menge des VRAM wie die GTX 460 zeigt.

LovesuckZ
2010-10-02, 12:25:17
Hallo
mir ging es beim threadtitel eher um die gute effizienz pro mm² und pro watt.


Solange man nur mit gecheateten Einstellungen vergleicht, ist dieses Aussage sinnlos.
Vergleiche mal eine 5870 mit 4xSGSSAA, 8xAF und FP16 gegen eine GTX480 mit 4xTSSAA und 16xHQAF. Dann wirst du sehen, dass AMD eben nicht mehr so gut darsteht und vorallem im Vergleich zur GTX460 deutlich abfallen wird.

Gast
2010-10-02, 13:12:37
Solange man nur mit gecheateten Einstellungen vergleicht, ist dieses Aussage sinnlos.
Vergleiche mal eine 5870 mit 4xSGSSAA, 8xAF und FP16 gegen eine GTX480 mit 4xTSSAA und 16xHQAF. Dann wirst du sehen, dass AMD eben nicht mehr so gut darsteht und vorallem im Vergleich zur GTX460 deutlich abfallen wird.

Warum nicht gleich HD 5870 mit 8x SGSSAA @ 2560 x 1600 gegen GTX 480 @ 2x MSAA @ 1680 x 1050? ;D

puntarenas
2010-10-02, 13:22:35
Bevor hier die Idiotie ausbricht, LovesuckZ hat ein wenig provokant darauf hinweisen wollen, dass man Benchmarkbalken ohne weiteres eigentlich nur innerhalb einer Kartenserie vergleichen kann, weil die Karten keine identischen Ergebnisse liefern. Das gilt selbstverständlich auch im erweiterten Rahmen für Preis/Leistungsbewertungen, denn man kauft nicht nur keine identischen FPS, man kauft auch unterschiedliche Treiber mit unterschiedlicher Kompatibilität und unterschiedlichen Features. Leistungsaufnahme und Lautstärke sind dann auch nicht in FPS-Balken abbildbar und so geht es weiter.

Die Wertung der Bildqualitätsunterschiede bei Benchmarkvergleichen bleibt jedem selbst überassen. LovesuckZ hat für sich nun offenbar "5870 mit 4xSGSSAA, 8xAF und FP16 gegen eine GTX480 mit 4xTSSAA und 16xHQAF" als gleichwertig eingestuft. Kein Grund, daran nun seitenlang herumzumachen und jedem seine Meinung. Andere betrachten die Bildqualitätsunterschiede eben als so gering, dass sie die Werte direkt vergleichbar finden und womöglich haben beide Seiten von einem gewissen Standpunkt aus gesehen Recht und von einem anderen Unrecht.

Das Threadthema hier ist jedoch anders gelagert und wir müssen nicht um ein paar Prozentpunkte in Benchmarks feilschen.

Gast
2010-10-02, 14:23:17
Imo war der G80 ein großer Sprung gegenüber dem Vorgänger. Effektiv sind die verschiedenen Generationen aber nicht wirklich vergleichbar. Deswegen ist auch eine HD5xxx nicht mit einem G80 vergleichbar. Je höher die Leistung schon ist/war desto schwerer ist es ja immer noch was besseres zu bauen. Ist ja wie bei AA-Settings, je höher AA schon ist desto geringer ist der unterschied zum vorherigen Setting.

Ich finde es immer wieder belustigend wenn es mal wieder darum geht welche Karte mehr Frames macht. Die Framerate ist ab einem bestimmten Wert ja mal mehr als unwichtig, ob ich nun unter HQ 80 Frames habe oder 120 merkt man effektiv nicht. Bis sich das bei den Meisten bemerkbar macht, gibt es normalerweise ja schon wieder eine neue Generation und der Aufpreis für die jeweiligen Highend-Modelle steht meistens in keinem Verhältnis zur höheren Leistung. Mal ganz davon abgesehen das man dann langsam ein AKW in den Keller stellen muss um die Karten mit genug Strom zu versorgen. Inzwischen ist der wert Performance/Watt wichtiger als der Punkt das man die Absolut schnellste Karte hat, aber wie man hier im Thread sieht springen ja leider immer noch genug darauf an.

Gast
2010-10-02, 16:09:39
Da noch immer mehr DX9 Spiele als DX10 und DX11-Spiele zusammen releast werden. Und sich das auch sobald nicht ändern wird, hat ATi doch bewiesen, dass sie den richtigen Riecher gehabt haben. Es ist immernoch so, dass die DX11 implementation der HD5000 Serie nicht limitiert.

Aber du kannst dich freuen, dass in 2 Jahren deine GTX480 die bessere DX11 Karte ist. :freak:

Wenn richtiges dx11 erscheint ist gtx480 bei 15 frames?
Blödsinn jetht schon in eine dx11 zu investieren, erst die übernächste gen wird da anständige perfprmance liefern.
Hd6870 wird zwar deutlich schneller aber für richtiges dx11 auch zu lahm.
Das ist aber nicht weiter schlimm, wird erst in zwei frühestens interessant das neue dx

Peilo
2010-10-02, 16:29:35
mitlerweile ist preis/leistung gefolgt von leistung/watt die wichtigste größe.

früher musste man highend kaufen um die aktuellen kracher in mit angenehmer quali zu spielen, heute reicht mainstream um alles bis auf auflösung und aa/af auf anschlag zu knallen.

und preis/leistung und leistzung/watt ist seit HD3k bei amd zu finden. NV ist in beiden bereich nich bedeuten schlechter aber so geschätzt vll 10-25%, je nach modell.

das wiegt bei mir viel wichtiger als das bissl geflimmer oder wer nun das besser aa-muster hat. ok, das geflimmer G70 war heftig ekelhaft und die leistung von r600 mieß, hat sich aber beides angeglichen.

und mitlerweile würd ich nur noch zu nv greifen, wenn ich cuda oder so bräuchte. für den otto normalo der nur spielen will brauch man den quasi aufpreis bei nv für sowas nich bezahlen, steht nicht im verhältnis und kann man auch keinem normalo erklären warum er cuda etc brauch.

y33H@
2010-10-02, 16:35:00
Leistung = reine Fps?

Also ohne BQ-Gecheate wie schlechteres AF oder befummeltes RenderTarget und Titel wie Saboteur rausgerechnet, die auf Radeons massive Probleme machen? Eine Grafikkarte ist weit mehr als nur reine Fps ...

mictasm
2010-10-02, 18:56:04
früher musste man highend kaufen um die aktuellen kracher in mit angenehmer quali zu spielen, heute reicht mainstream um alles bis auf auflösung und aa/af auf anschlag zu knallen.

Da hat sich zwischen gestern und heute rein gar nichts geändert.

Die Kunden, die von einer (oder gar zwei) GTX480 angesprochen werden, legen doch gerade auf hohe Auflösungen und volles AA/AF wert.

Mainstream geht denen weit am Hinterteil vorbei. Allerdings spielen sie meist auch nicht am 17"-Monitor mit reduzierter Auflösung...

Captain Future
2010-10-02, 19:42:42
Stalker "Rain", "Day", "Night", da sollten sich die "nicht gekauften" deutschen Magazine mal ein beispiel dran nehmen...
An `nem integrierten Benchmark mit Treiberbug? Wow...
Wie wär's mal mit dem viel gespielten Starcraft 2 mit Kantenglättung? :eek:

derguru
2010-10-02, 19:59:09
An `nem integrierten Benchmark mit Treiberbug? Wow...
Wie wär's mal mit dem viel gespielten Starcraft 2 mit Kantenglättung? :eek:
http://www.xbitlabs.com/articles/video/display/starcraft2-wings-of-liberty_6.html#sect1:eek::biggrin:

die armen mods,das macht bestimmt kein spass wenn einer komplett durch dreht. :lol:

crux2005
2010-10-02, 20:09:23
http://www.xbitlabs.com/articles/video/display/starcraft2-wings-of-liberty_6.html#sect1:eek::biggrin:

Aber du weißt ganz genau mit was für Treiber Einstellungen XbitLabs testet, oder? :wink:

derguru
2010-10-02, 20:12:09
auf was bist du aus?HQ gegen a.i.default?große differenzen gibt es da nicht.
Nvidia GeForce 258.96 WHQL for Nvidia GeForce;
ATI Catalyst 10.7a beta for ATI Radeon HD.

crux2005
2010-10-02, 20:16:51
auf das HQ...
das macht schon paar % aus gegenüber Q

Gast
2010-10-03, 11:00:23
Naja, was heißt schon G80 Nachfolger? Die Karten haben performancetechnisch meiner Meinung nach nicht eingeschlagen wie seinerzeit die Radeon 9700 oder eben der G80, liefern aber gute bis sehr gute Performance ab und werden das auch 2011 noch tun. Dank dem RV870/RV840 ist ein sparsamer Leerlaufverbrauch ein absolutes KO-Kriterium geworden. Das gilt es nun mit der 6XXX Reihe weiter auszubauen, so dass auch mit mehreren Monitoren der idle Verbrauch tief bleibt. Schön wäre auch ein HQ Schalter (ergo ohne Optimierungen) fürs AF; damit würde man die ewige Nörglerei der Gegenseite abtöten und Pixelzähler könnten sich am besseren Filter erfreuen.

Der Treibersupport ist meiner Meinung nach gut, auch wenn einschlägige Personen (y33H@ und Konsorten) dies immer wieder bestreiten und mit den immerselben 4-5 Beispielen zu belegen versuchen. Jüngstes Beispiel ist CIV 5 (welches ich mit meiner 5770 schon gut 20h ohne Probleme und mit vollen Details und 4xAA spiele):
http://www.techspot.com/review/320-civilization-v-performance/page5.html
http://www.techspot.com/review/320-civilization-v-performance/page7.html

Bloß weil die Radeons hier nicht führend sind, wird gleich wieder zur Treibergeschichte gegriffen. Das wird langsam ermüdend. Klar, von der Performance her ist vermutlich tatsächlich noch etwas Spielraum nach oben, aber Probleme gibt es keine.
Erschreckend ist wennschon die Performance aller NV Karten, die nicht auf Fermi basieren. Oder ist es plötzlich normal, dass eine 4850 eine GTX 285 schlägt? Eben.

y33H@
2010-10-03, 14:40:12
Ich habe im Falle von Civ5 nichts über schlechte Treiber gesagt, das war ein Gast :rolleyes:

Gut mag der Support bei ATi sein, nur ist dann NV eben sehr gut - weil besser.

Gast
2010-10-03, 15:08:16
Naja, bei CIV: V eben nicht. Dort ist alles aus dem Hause NV, was nicht auf den Namen Fermi hört, nahezu unbrauchbar.

Gast
2010-10-03, 15:20:15
Naja, bei CIV: V eben nicht. Dort ist alles aus dem Hause NV, was nicht auf den Namen Fermi hört, nahezu unbrauchbar.

Das ist wirklich komisch, selbst eine HD4890 schlägt die GTX285 mit über 30% :|

Liegt das am DX10.1 Speedup?

y33H@
2010-10-03, 16:07:08
Wahrscheinlich, ja.

Gast
2010-10-03, 17:09:22
Mal so aus der Erinnerung:

Als ATI/AMD mit den HD5xxx rauskam, waren sich doch alle einig, dass das zwar kein schlechter Wurf ist, aber Lieferschwierigkeiten und Preise unter aller Kanone waren.
Alle Welt hat sehnsüchtig auf Fermi gewartet, welche ATI/AMD mal so richtig den Hammer zeigen, die Preise deutlich korrigen und die Messlatte mal wieder so ordentlich nach oben pushen sollte.

Dan kam das Ding endlich und die Enttäuschung war groß - nicht weil der Chip richtig schlecht war, sondern weil die (hohen) Erwartungen schlichtweg nicht erfüllt werden konnten und der Stromverbrauch (Lautstärke) alles andere als witzig waren.

Insofern ist aus meiner Sicht die HD5xxx rückblickend sehr ordentlich und im Vergleich besser als erwartet, von einem Burner zu reden wäre aber übertreiben.

Gast
2010-10-04, 01:28:51
Rein technisch betrachtet sind die G80-Karten schon eine hohe Latte zu überspringen, da sie in ihrer Zeit quasi konkurrenzlos waren. Kommerziell sind die HD5000er jedoch auch extrem erfolgreich. Wenn AMD Juniper tatsächlich auch recyclet (wie teilweise spekuliert) könnte sich der Chip noch eine ganze Weile gut verkaufen.

http://store.steampowered.com/hwsurvey/videocard/?sort=chg