PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5850 und 5870: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13

y33H@
2010-05-16, 17:37:03
das packst du auch mit einer 5850 wenn man die vcore in etwa auf 5870 niveau bringt.Mit 1,167V (= HD5870-Standard) schafft du keine +30%, da du hierfür 1,0 GHz Chiptakt brauchst.

Gast
2010-05-16, 17:39:27
Mit 1,167V (= HD5870-Standard) schafft du keine +30%, da du hierfür 1,0 GHz Chiptakt brauchst.

942,5Mhz.

Schlammsau
2010-05-16, 17:40:20
Nö, nicht im Vergleich mit dem GF100. Aus einer GTX470 prügelst du mit prozentual geringeren VGPU-Steigerungen über 30% mehr Fps heraus.

Ok.....jetzt mal Butter bei die Fische.

Referenzspannung und Takt sind: 1,087V@725Mhz
Mit der Standardspannung schaffe ich exakt 800Mhz absolut stabil!
Mit einer Erhöhung von 0,04V :freak: auf 1,125V schaffe ich 70Mhz (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7947222#post7947222) mehr. Absolut stabil natürlich. Eine weitere Erhöhung von 0,04V bringt mich auf 100% stabile 900Mhz (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8025896#post8025896). Insgesamt musste ich den Vcore nur um 0,08V erhöhen um an rund 25% mehr Takt zu gelangen.
Und der Speicher....;D....da gehen beim Referenzdesign immer mindestens 20% mehr, weil ja der gleiche Speicher wie auf der 5870 verbaut ist. :lol:

derguru
2010-05-16, 17:45:23
Mit 1,167V (= HD5870-Standard) schafft du keine +30%, da du hierfür 1,0 GHz Chiptakt brauchst.
aber bis zu 950mhz,dann eben fast.die 470 schafft also relative locker die 30% chip und shadertakt?

Reneeeeeee
2010-05-16, 17:59:47
So ist es. Die leisesten sind die HD 5870 PCS+ und HD 5870 Vapor-X Rev. 2: http://www.pcgameshardware.de/aid,678322/Ati-und-Nvidia-Grafikkarten-Test-Uebersicht-und-aktuelle-Kauf-Tipps-Mai-2010/Grafikkarte/Test/bildergalerie/?iid=1284459 (dieses und nächstes Bild; dazu gibt's auch 'nen Artikel ;))

MfG,
Raff


also meine EAH5870 V2 (http://www.asus.com/product.aspx?P_ID=iAXaiw2KfP5w0xU0) ist super leise, 21% im idle und max 30% unter Last bei max 72 Grad , eigentlich höre ich die garnicht , kann sie nur weiter empfehlen. ;)

derguru
2010-05-16, 18:07:55
hab ich mit meinen beiden wohl pech gehabt,da ging es relative schnell mal auf die 55%.30% ist schon eine hausnr. und sollte wirklich nicht zu hören sein,mist den sonst fand ich die karte auch nicht übel.:frown:

y33H@
2010-05-16, 18:10:51
942,5Mhz. Takt münzt sich nicht 1:1 in Fps um.
die 470 schafft also relative locker die 30% chip und shadertakt?Lockerer zumindest :D +30% sind 790/1.580 MHz, dafür brauchst du idR "nur" 1,00V - halbwegs gute Samples machen das stock bei 0,95V.

750/1.500 machen nahezu alle Karten, zumindest meiner Erfahrung nach.

Schlammsau
2010-05-16, 18:13:53
Takt münzt sich nicht 1:1 in Fps um.
Lockerer zumindest :D +30% sind knapp 800/1.600 MHz, dafür brauchst du idR "nur" 1,05V - halbwegs gute Samples machen das stock. 750/1.500 machen nahezu alle Karten, zumindest meiner Erfahrung nach.
Ohne Spannungserhöhung?
Da stellt sich natürlich die Frage, warum nVidia den Chips so viel Vcore zumutet und dann schlechte Kritik wegen des hohen Stromverbrauchs bekommt, wenn doch eigentlich viel weniger Spannung genügen würde. :ucrazy2:

Irgendwie unlogisch oder? :smile:

y33H@
2010-05-16, 18:17:20
Die haben offenbar starke Schwankungen, daher wird Saft drauf gegeben. Unlogisch ist das imo nicht. Zudem hängt der Speicher mit der VGPU, es gibt also diverse Faktoren.

Schlammsau
2010-05-16, 18:19:32
Die haben offenbar starke Schwankungen, daher wird Saft drauf gegeben. Unlogisch ist das imo nicht. Zudem hängt der Speicher mit der VGPU, es gibt also diverse Faktoren.

Ach so.....nVidia auch? ;D

Ich erinnere dich an deinen Post vor ner halben Stunde:
Das zeigt nur (erneut), wie krass die Schwankungen bei der Cypress-Chipgüte sind. Die GTX 400 sind da interessanterweise weitaus besser aufgestellt.

EDIT
Alleine, dass Asus der Matrix 1,20V für 900 MHz gibt, zeigt wie es um die Chips bestellt ist - offenbar laufen diese am "Limit".

y33H@
2010-05-16, 18:26:39
Natürlich, aber nicht nach oben hin - kleiner, aber feiner Unterschied.

Gast
2010-05-16, 18:27:06
Takt münzt sich nicht 1:1 in Fps um.
Lockerer zumindest :D +30% sind 790/1.580 MHz, dafür brauchst du idR "nur" 1,00V - halbwegs gute Samples machen das stock bei 0,95V.

750/1.500 machen nahezu alle Karten, zumindest meiner Erfahrung nach.

Du drehst es dir auch so zu recht wie du es brauchst. Auch bei NV münzt sich Takt nicht 1:1 in fps um. Aber da reichen 30% mehr Takt. Lächerlich.

Schlammsau
2010-05-16, 18:31:32
Natürlich, aber nicht nach oben hin - kleiner, aber feiner Unterschied.

Alles klar...aber warum geben sie dann der 470 nicht Standardmässig meinetwegen 10% mehr Takt, um mit der 5870 zumindest gleichzuziehen?

Ich finde deine Argumente wirklich sehr an den Haaren herbeigezogen!

Ich denke die 470 lassen sich mit Sicherheit gut übertakten, genauso wie die HD5850 auch. Aber ihr einen erheblichen Vorteil zuzusprechen ist mit verlaub Dummfug!

y33H@
2010-05-16, 18:31:47
@ Gast

Habe ich behauptet, dass sich bei NV Takt 1:1 in Fps ummünzen? Nein. Ich habe nur gesagt, das 30% mehr Takt mir stock-Spannung möglich sind. Für 30% mehr Fps müssen die Taktraten natürlich noch höher. Also behaltet dein lächerlich =)
Alles klar...aber warum geben sie dann der 470 nicht Standardmässig meinetwegen 10% mehr Takt, um mit der 5870 zumindest gleichzuziehen?
Weil damit nicht alle 470er stabil laufen. Einige wenige freezen sofort. Und gleichziehen? Tut sie bereits, kommt nur auf den Parcours an.
Ich finde deine Argumente wirklich sehr an den Haaren herbeigezogen! Kann ich nichts dafür, sie ist eindeutig.
Aber ihr einen erheblichen Vorteil zuzusprechen ist mit verlaub Dummfug! Nö, weil du für das gleiche Ergebnis weniger Saft brauchst und die Leistungsaufnahme weniger steigt. Zudem bezog ich mich auf die HD5870, die HD5850 ist langsamer sowie günstiger und damit außen vor.

Schlammsau
2010-05-16, 18:36:38
@ Gast

Habe ich behauptet, dass sich bei NV Takt 1:1 in Fps ummünzen? Nein. Ich habe nur gesagt, das 30% mehr Takt mir stock-Spannung möglich sind. Für 30% mehr Fps müssen die Taktraten natürlich noch höher. Also behaltet dein lächerlich =)
Weil damit nicht alle 470er stabil laufen. Einige wenige freezen sofort. Und gleichziehen? Tut sie bereits, kommt nur auf den Parcours an.
Kann ich nichts dafür, sie ist eindeutig.

Danke! :smile:

Jetzt lass mal den kleinen Fanboy in dir in seinem Käfig und lass die Fakten sprechen. Ich versuchs auch, auch wenns nicht leicht ist. ;)

Objektiv betrachtet ist die 470 in der Gesamtsumme aller getestet Games, 5-10% hinter der 5870! Auch du kannst das nicht leugnen.


Und :nono: lass nicht den kleinen Fanboy sprechen! *SCNR*

hq-hq
2010-05-16, 18:43:00
Alles klar...aber warum geben sie dann der 470 nicht Standardmässig meinetwegen 10% mehr Takt, um mit der 5870 zumindest gleichzuziehen?


genau das hab ich mich auch schon gefragt. glaub nicht das 680/1360/1675mhz bei den meisten gpu's ein problem mit 0,975v darstellt.
ich würde sagen man hat die 5870 mehr ignoriert und eher auf den abstand zur gtx480 geschaut.
-oder aber man wollte das die gtx470 ein bissl langsamer als die 5870 ist damit man mehr grund hat sich die 480 zu holen

und ja die gtx470 würd ich natürlich derzeit auch knapp hinter der 5870 sehen, auch wenn es etliche games gibt wo es anderst rum ist. bei den min fps mag die gtx470 sogar besser dastehen...
(seltsamerweise ausgerechnet das alte wow)

wenn ich mir jetzt das supercudawasser in justcause2 ansehe freut man sich schon auch noch ein paar andere pluspunkte zu haben gellja

je mehr zeit vergeht desto besser für die gtx470 müsste man vermuten

y33H@
2010-05-16, 18:43:06
@ Schlammsau

Du hast einen Schnitt durch alle Reviews und Settings und Spiele gezogen? Respekt :tongue:

Allerdings stimme ich dir zu, dass gerade inklusive älterer Titel und Crysis - was den GF100 überhaupt nicht liegt - die HD5870 im Mittel tendenziell vorne liegt. Auf aktuelle Titel bezogen [GTA4 EfLC, BC2, Metro 2033, Splinter Cell, Just Cause 2], sehe ich sie aber gleichauf. Reviews sind ohnehin (leider) nur Momentaufnahmen ;(

Gast
2010-05-16, 18:43:43
Objektiv betrachtet ist die 470 in der Gesamtsumme aller getestet Games, 5-10% hinter der 5870! Auch du kannst das nicht leugnen.


Liest du eigendlich deinen Kram bevor du ihn einstellst?

Und seid wann ist gutes oder schlechtes OC eine mitgekaufte Garantie?

Fetter Fettsack
2010-05-16, 18:49:45
Garantie nicht, aber zumeist gibt es doch eindeutige Tendenzen. :-)

AYAlf_2
2010-05-16, 18:59:16
also meine EAH5870 V2 (http://www.asus.com/product.aspx?P_ID=iAXaiw2KfP5w0xU0) ist super leise, 21% im idle und max 30% unter Last bei max 78 Grad , eigentlich höre ich die garnicht , kann sie nur weiter empfehlen. ;)
kann ich bestaetigen

mit furmark kann es aber auch schon mal 32-33% werden. bei spielen aber einfach unhoerbar!

hq-hq
2010-05-16, 19:06:31
von solchen lautstärken/temps unter load kann ich nur träumen ;)

skampi
2010-05-16, 19:10:42
Takt münzt sich nicht 1:1 in Fps um.
Lockerer zumindest :D +30% sind 790/1.580 MHz, dafür brauchst du idR "nur" 1,00V - halbwegs gute Samples machen das stock bei 0,95V.

750/1.500 machen nahezu alle Karten, zumindest meiner Erfahrung nach.

Mit Verlaub, aber auf die tollen Undervolting- oder Übertaktungserfolge, welche hier im Forum für die GTX470 postuliert werden, gebe ich nicht viel. Stabilität kann man nicht mit einer Weile Furmark & Heaven sicherstellen, schon gar nicht langfristig.

Für die GTX4x0 gibts erstmals selektive Corespannungen, so viel Mist kann Nvidia beim Binning gar nicht bauen...

y33H@
2010-05-16, 19:23:41
Furmark ist für OC/UV-Tests imo ohnehin nutzlos.

derguru
2010-05-16, 19:30:08
kann ich bestaetigen

mit furmark kann es aber auch schon mal 32-33% werden. bei spielen aber einfach unhoerbar!

kannst du nicht bestätigen denn deine ist nicht die selbe karte.

hq-hq
2010-05-16, 19:34:35
Mit Verlaub, aber auf die tollen Undervolting- oder Übertaktungserfolge, welche hier im Forum für die GTX470 postuliert werden, gebe ich nicht viel. Stabilität kann man nicht mit einer Weile Furmark & Heaven sicherstellen, schon gar nicht langfristig.

Für die GTX4x0 gibts erstmals selektive Corespannungen, so viel Mist kann Nvidia beim Binning gar nicht bauen...

tztztz;D

ich finde furmark eignet sich schon zum testen auf stabilität, mein altes NT hätte es wohl nicht verkraftet :freak:

skampi
2010-05-16, 19:37:29
tztztz;D

ich finde furmark eignet sich schon zum testen auf stabilität, mein altes NT hätte es wohl nicht verkraftet :freak:


Glückwunsch, dann hast Du erfolgreich die Leistungsfähigkeit Deines neuen Netzteils getestet.

Schlammsau
2010-05-16, 19:37:59
tztztz;D

ich finde furmark eignet sich schon zum testen auf stabilität, mein altes NT hätte es wohl nicht verkraftet :freak:

Wie es bei nVidia Hardware ist, weiss ich nicht aber bei ATi´s sagt der FURMark eigentlich fast gar nichts aus.
Hatte oft genug ein FURMark stabiles System, aber bei zocken gabs sporadisch Abstürze. Ich teste immer mit dem Crysis Benchmark Tool.

derguru
2010-05-16, 19:43:20
purer füllratenkill ist am besten,edge+sgssaa,vielleicht hab ich deswegen schon 2 defekte 5870 gehabt.;D

Dr. Cox
2010-05-16, 19:45:59
purer füllratenkill ist am besten,edge+sgssaa,vielleicht hab ich deswegen schon 2 defekte 5870 gehabt.;D

Hört sich eher danach an, als ob ATI die Qualitätsdefizite welche es seit der HD 4870 gibt, noch immer nicht im Griff hat...

derguru
2010-05-16, 19:48:11
omg,warum hab ich das nur erwähnt. :uexplode:

hq-hq
2010-05-16, 19:48:18
das crysis benchmark tool find ich auch klasse, kenns zwar erst seit gestern aber glaube ich
werd mir das game nochmal ausleihen hab wieder lust drauf bekommen.
allerdings läuft crysis auch mit 0,925v gpu spannung mit gtx stock clocks wo es aber z.b. in
heaven zu "flares" - der ram - kommt
jaja, jetzt muss ich dann einen 48 stündigen video beweis bringen und als anhang unter mein
"0,925v stock clock postulat" hängen ... ;)

furmark, ob ati oder nvidia wär ja egal wenn dein netzteil bei overload abschaltet.
also ich mag den furmark ja auch nicht...

@derguru -> rofl <-

Mr. Lolman
2010-05-16, 20:13:00
@ Schlammsau

Du hast einen Schnitt durch alle Reviews und Settings und Spiele gezogen? Respekt :tongue:

Allerdings stimme ich dir zu, dass gerade inklusive älterer Titel und Crysis - was den GF100 überhaupt nicht liegt - die HD5870 im Mittel tendenziell vorne liegt. Auf aktuelle Titel bezogen [GTA4 EfLC, BC2, Metro 2033, Splinter Cell, Just Cause 2], sehe ich sie aber gleichauf. Reviews sind ohnehin (leider) nur Momentaufnahmen ;(


Du sieht sie vielleicht gleichauf. Tatsächlich ist sie das aber je nach Testsequenz überhaupt nicht. In GTA4 vielleicht schon, Splinter Cell hab ich nicht im Testparcour drinnen, aber ein kurzer Gegencheck ergab, dass die HD5870 sich da überhaupt nicht verstecken braucht. Und Just Cause 2 hingegen sieht die GTX470 tw. überhaupt kein Land - und zwar wenn man in irgendeiner Wiese rumläuft und massig AA aktiv hat. In Metro hängt die 470 hinter der 5870, solang der Speicher nicht knapp wird (also ohne AA) und BC2 liegt die HD5870 auch näher an der GTX480, als an der 470. Und wenn man mal Downsampling testet fällt die 470 häufig 30% hinter die 480, die aber auch schon überall langsamer ist als die 5870.

Und das war der Grund warum es mich gereizt hat, an einem Fermi Review zu basteln - weil einfach vielzuviel unterschiedliche Resumees gezogen werden, und ich die Karten unbedingt selbst testen wollt, um mir ein Bild der tatsächlichen Leistungsfähigkeit machen zu können. Und nach >800 Benchmarks kann ich mit Fug und Recht von mir behaupten, dass ich den Fermis ausgiebigst auf den Zahn gefühlt hab!!!

Schlammsau
2010-05-16, 20:15:16
Du sieht sie vielleicht gleichauf. Tatsächlich ist sie das aber je nach Testsequenz überhaupt nicht. In GTA4 vielleicht schon, Splinter Cell hab ich nicht im Testparcour drinnen, aber ein kurzer Gegencheck ergab, dass die HD5870 sich da überhaupt nicht verstecken braucht. Und Just Cause 2 hingegen sieht die GTX470 tw. überhaupt kein Land - und zwar wenn man in irgendeiner Wiese rumläuft und massig AA aktiv hat. In Metro hängt die 470 hinter der 5870, solang der Speicher nicht knapp wird (also ohne AA) und BC2 liegt die HD5870 auch näher an der GTX480, als an der 470. Und wenn man mal Downsampling testet fällt die 470 häufig 30% hinter die 480, die aber auch schon überall langsamer ist als die 5870.

Und das war der Grund warum es mich gereizt hat, an einem Fermi Review zu basteln - weil einfach vielzuviel unterschiedliche Resumees gezogen werden, und ich die Karten unbedingt selbst testen wollt, um mir ein Bild der tatsächlichen Leistungsfähigkeit machen zu können. Und nach >800 Benchmarks kann ich mit Fug und Recht von mir behaupten, dass ich den Fermis ausgiebigst auf den Zahn gefühlt hab!!!
Wann kommt den das Review?

Mr. Lolman
2010-05-16, 20:18:01
Mal sehen. Den Text schreibt Leo (ich hab die Benchmarks gemacht). Bis alles ordentlich ausgewertet und formatiert und geschrieben ist, wird wohl noch eine Woche ins Land ziehen.

hq-hq
2010-05-16, 20:24:24
Mr. Lolman, oje oje wer wird denn da gezielt schwächen herausfinden! das just cause2 ingame bench fand ich interessant, sowas liesse sich doch für metro bestimmt auch finden ^^

Mr. Lolman
2010-05-16, 20:31:55
Mr. Lolman, oje oje wer wird denn da gezielt schwächen herausfinden! das just cause2 ingame bench fand ich interessant, sowas liesse sich doch für metro bestimmt auch finden ^^

Nicht gezielt. Mir ists bei JC2 einfach aufgefallen - und zwar, dass bei meinem Originalbenchrun die avg fps der 470 höher waren, obwohl sichs beim herumlaufen deutlich ruckeliger angefühlt hat. Schuld war der 35 Sekunden lange Flug am Ende. Da sind die fps plötzlich auf >100 raufgeschossen und haben so die gtx rausgerissen. Daraufhin hab ich den Benchrun umgestellt - eben weil die alten avg werte nicht dem Ingamefeeling gerecht wurden. Beim Neuen wird nicht mehr geflogen - aber auch nicht die ganze Zeit in der Wiese rumgehoppelt (bloß die halbe Zeit ;) - die restliche Zeit können die Fermis wieder ein bisschen Boden gutmachen).

Bei Metro hingegen, hab ich einfach die Szene mit der Draisine genommen und 70 Sekunden lang Fraps mitlaufen lassen.

y33H@
2010-05-16, 20:51:09
Sprich, du hast in JC2 zwei Szenarien gefunden, die einmal der Radeon liegt und einmal der Geforce und mischst diese nun?

hq-hq
2010-05-16, 21:06:30
ich mach's mir da einfach uns sag es muss an der füllrate liegen ^^
möglicherweise ist an dieser stelle sogar eine 5770 nicht wesentlich langsamer solang das AA nicht zu hoch ausfällt

btw, das is ja mal ein ganz gemeines review: http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=405&page=6

derguru
2010-05-16, 21:44:34
das review ist mal totaler bullshit,die arbeit hätten die sich sparen können.unglaublich was für honks es gibt.
einzig CoJ mit ssaa ist grafiklimitiert.
na ratet mal wer dann besser abschneidet. :whistle:
Zu guter Letzt bleibt anzufügen, dass wir die Benchmarklisten in den kommenden Wochen weiter ergänzen werden indem wir AMD/NVIDIA noch mit Intel/ATI vergleichen, denn anhand dieser Daten lässt sich dann effektiv feststellen, welches die zur Zeit zum Spielen geeignetste Kombination darstellt.

LovesuckZ
2010-05-16, 21:56:31
Na, welch ein Glück, dass ein AMD Fanboy eine nVidia Karte testen kann. Da werden wir wohl nur 101% neutrale Ergebnisse geliefert bekommen. :lol:

Vertigo
2010-05-16, 22:03:24
Sprich, du hast in JC2 zwei Szenarien gefunden, die einmal der Radeon liegt und einmal der Geforce und mischst diese nun?
Glaube ich nicht - so würde die Radeon ja nicht immer vorn liegen. Und da man sich zum Ziel gesetzt hat, alle Reviews, die die Geforce vorn sehen, zu widerlegen, dürfte klar sein, welche Szene ins Review Einzug findet.
Na, welch ein Glück, dass ein AMD Fanboy eine nVidia Karte testen kann. Da werden wir wohl nur 101% neutrale Ergebnisse geliefert bekommen. :lol:
Darauf wird's hinauslaufen ...

Fetter Fettsack
2010-05-16, 22:04:11
Von wem redet ihr eigentlich? Mr. Lolman?

y33H@
2010-05-16, 22:06:10
Ja, mit "AMD Fanboy" war Loli gemeint.

Ich bin sehr auf das Review gespannt - ohne Wertung. Erst anschauen.

Gast
2010-05-16, 22:11:06
Na, welch ein Glück, dass ein AMD Fanboy eine nVidia Karte testen kann. Da werden wir wohl nur 101% neutrale Ergebnisse geliefert bekommen. :lol:

Wer über Crew-Leute auf dieser Seite, welche sich hier unentgeltlich den Arsch aufreisen und Reviews schreiben, wofür wohl dutzende Stunden aufgebracht werden müssen solche Kommentare abgibt, sollte einfach endgültig gesperrt werden. Das spottet jeder Beschreibung. Vorallem ohne den Test auch nur gesehen zu haben.

Vertigo
2010-05-16, 22:15:32
Wer über Crew-Leute auf dieser Seite, welche sich hier unentgeltlich den Arsch aufreisen und Reviews schreiben, wofür wohl dutzende Stunden aufgebracht werden müssen solche Kommentare abgibt, sollte einfach endgültig gesperrt werden. Das spottet jeder Beschreibung. Vorallem ohne den Test auch nur gesehen zu haben.
Naja, bei derart freudigen Vorankündigungen wie hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8030210#post8030210) sollte man die Erwartungshaltung auch nicht zu hoch ansetzen. Wer suchet, der findet ... ;)

LovesuckZ
2010-05-16, 22:17:09
Wer über Crew-Leute auf dieser Seite, welche sich hier unentgeltlich den Arsch aufreisen und Reviews schreiben, wofür wohl dutzende Stunden aufgebracht werden müssen solche Kommentare abgibt, sollte einfach endgültig gesperrt werden. Das spottet jeder Beschreibung. Vorallem ohne den Test auch nur gesehen zu haben.

Ich generiere Umsatz mit meinem Besuch. Demnach müsste ich Reviews erwarten können, deren Ersteller nicht bekannt sind, die Farbe rot zu mögen. :eek:

Schlammsau
2010-05-16, 22:19:34
Ich gestehe Lolman die Professionalität zu, den Artikel neutral zu halten!

Vertigo
2010-05-16, 22:21:27
Ich gestehe Lolman die Professionalität zu, den Artikel neutral zu halten!
Was du so "neutral" nennst ... ;)

Aber stimmt schon - erstmal abwarten. Interessant wird's in jedem Fall. :)

Fetter Fettsack
2010-05-16, 22:23:24
Ist die Bencherei nicht ohnedies eine Crux, weil es je nach Spielinhalt eine Zufallssache ist, ob man eine Szene erwischt, die der einen Karte liegt und der anderen weniger?

Z.B. bei Spielen, die eine weite Landschaft gleich Oblivion haben, müsste man ja sowohl in Räumen, auf Wiesen, im Wald usw. jeweils benchen, um einen brauchbaren Überblick über die Verwendbarkeit einer Karte in einem Spiel zu haben (und dass man sowas in sagen wir 70sec. alles unterbringt, ist zumindest sehr schierig, wenn nicht gar nicht realisierbar [so stelle ich mir das halt vor]).

Insofern sollte man doch ohnedies jeden Review mit Skepsis betrachten bzw. erübrigt sich die Angst davor, dass ein Review andere widerlegen könnte, da jeder für sich gesehen richtig ist, aber halt nur einen kleinen Bereich abdeckt (einer Bencht, um beim Beispiel zu bleiben, hauptsächlich Wald, der andere eher Höhlen und Gebäude, beide Ergebnisse sind richtig und doch erst in ihrer Gesamtheit allgemeingültig).

Gast
2010-05-16, 22:25:25
Naja, bei derart freudigen Vorankündigungen wie hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8030210#post8030210) sollte man die Erwartungshaltung auch nicht zu hoch ansetzen.

Was genau stört dich daran? Das beruht offenbar auf seinen Messwerten. Jedes Review kommt zu leicht anderen Ergebnissen, alleine schon durch die unterschiedliche Benchauswahl. Ich finde das einfach nur lächerlich. Genauso wie gewisse Leute welche glauben PCGH angreifen zu müssen weil bei ihnen die Karten etwas anders liegen als woanders. Kindergarten, mehr nicht. Und wenn man es dann auch noch für nötig hält hier auf dieser Seite, die auf unentgeltliche(!) Arbeit angewiesen einen Menschen der seine Freizeit da rein steckt derart anzufahren dann hört der Spaß in meinen Augen endgültig auf.

Gast
2010-05-16, 22:28:08
Ich generiere Umsatz mit meinem Besuch. Demnach müsste ich Reviews erwarten können, deren Ersteller nicht bekannt sind, die Farbe rot zu mögen. :eek:

Ich glaube du überschätzt deine Wichtigkeit um mehrere Potenzen. :lol:

mapel110
2010-05-16, 22:33:04
Ist die Bencherei nicht ohnedies eine Crux, weil es je nach Spielinhalt eine Zufallssache ist, ob man eine Szene erwischt, die der einen Karte liegt und der anderen weniger?

Z.B. bei Spielen, die eine weite Landschaft gleich Oblivion haben, müsste man ja sowohl in Räumen, auf Wiesen, im Wald usw. jeweils benchen, um einen brauchbaren Überblick über die Verwendbarkeit einer Karte in einem Spiel zu haben (und dass man sowas in sagen wir 70sec. alles unterbringt, ist zumindest sehr schierig, wenn nicht gar nicht realisierbar [so stelle ich mir das halt vor]).

Insofern sollte man doch ohnedies jeden Review mit Skepsis betrachten bzw. erübrigt sich die Angst davor, dass ein Review andere widerlegen könnte, da jeder für sich gesehen richtig ist, aber halt nur einen kleinen Bereich abdeckt (einer Bencht, um beim Beispiel zu bleiben, hauptsächlich Wald, der andere eher Höhlen und Gebäude, beide Ergebnisse sind richtig und doch erst in ihrer Gesamtheit allgemeingültig).
Wenn man sich die Frameverläufe von Grafikkarten anschaut, performen alle Karten dieser und letzter Generation recht ähnlich, sprich die Bench-Szene ist egal. Ausnahme aktuell ist Tessellation.

Vertigo
2010-05-16, 22:34:48
Was genau stört dich daran? Das beruht offenbar auf seinen Messwerten. Jedes Review kommt zu leicht anderen Ergebnissen, alleine schon durch die unterschiedliche Benchauswahl. Ich finde das einfach nur lächerlich. Genauso wie gewisse Leute welche glauben PCGH angreifen zu müssen weil bei ihnen die Karten etwas anders liegen als woanders. Kindergarten, mehr nicht. Und wenn man es dann auch noch für nötig hält hier auf dieser Seite, die auf unentgeltliche(!) Arbeit angewiesen einen Menschen der seine Freizeit da rein steckt derart anzufahren dann hört der Spaß in meinen Augen endgültig auf.
Natürlich: Es beruht auf seinen Messwerten. In den Szenen und Spielen, die er ausgesucht hat. Die er nach seinen Kriterien gesucht hat. Und mal ganz offen gesagt lassen Lolmans Postings hier im Forum über die Jahre einiges an Objektivität vermissen, auch wenn's auf dem Gebiet in diesem Forum freilich noch ganz andere Kaliber gibt. Natürlich liegt dann die Vermutung nahe, dass die Auswahl etwas zielgerichtet ausfiel. Aber was soll's auch? Er macht das wie er denkt und gut. Ich glaube auch nicht, dass er zu irgendwas gezwungen wurde und außerdem geht man hier im 3DC sehr offen mit Kritik um. Ich weiß jetzt auch nicht wer du bist und warum du dich dazu berufen fühlst, hier lebenslange Sperren für bestimmte Leute zu fordern.
Wenn man sich die Frameverläufe von Grafikkarten anschaut, performen alle Karten dieser und letzter Generation recht ähnlich, sprich die Bench-Szene ist egal. Ausnahme aktuell ist Tessellation.
Bist Du da sicher? Ich behaupte, man kann zwei beliebige Reviews hernehmen und wird mit hoher Wahrscheinlichkeit in beiden ein und das selbe Spiel enthalten finden, wo - je nach Szene - mal die eine und mal die andere Karte im Vorteil ist.

Fetter Fettsack
2010-05-16, 22:40:26
Naja, bei derart freudigen Vorankündigungen wie hier sollte man die Erwartungshaltung auch nicht zu hoch ansetzen.

Verzeih, aber wo ist da die freudige Emotion? Ich kann beim Durchlesen dieser Sätze nur eine "trockene", faktenorientierte (ich kann nicht sagen, ob die Werte stimmen, wie auch, aber ich denke, dass ich auf ein Grundmaß an moralischer Integrität vertrauen darf) Darstellung erkennen.

Zitat von Mr. Lolman

Du sieht sie vielleicht gleichauf. Tatsächlich ist sie das aber je nach Testsequenz überhaupt nicht. In GTA4 vielleicht schon, Splinter Cell hab ich nicht im Testparcour drinnen, aber ein kurzer Gegencheck ergab, dass die HD5870 sich da überhaupt nicht verstecken braucht. Und Just Cause 2 hingegen sieht die GTX470 tw. überhaupt kein Land - und zwar wenn man in irgendeiner Wiese rumläuft und massig AA aktiv hat. In Metro hängt die 470 hinter der 5870, solang der Speicher nicht knapp wird (also ohne AA) und BC2 liegt die HD5870 auch näher an der GTX480, als an der 470. Und wenn man mal Downsampling testet fällt die 470 häufig 30% hinter die 480, die aber auch schon überall langsamer ist als die 5870.

Außerdem vertrete ich die Ansicht, dass Reviews nicht dazu da sind, etwas zu beweihräuchern oder zu verdammen, sondern um eine sachlich dargestellt Lage der Dinge abzuliefern. Wenn eine Karte bei bestimmten Szenen gut/schlecht abschneidet, dann ist das eben so, das Schlimme daran kann ich nicht erkennen (wenn es [das Schlimme] für andere offensichtlicher ist, dann möge man mir das bitte erklären).

Fetter Fettsack
2010-05-16, 22:40:37
Doppelpost, tut leid. :-)

mapel110
2010-05-16, 22:41:01
Bist Du da sicher? Ich behaupte, man kann zwei beliebige Reviews hernehmen und wird mit hoher Wahrscheinlichkeit in beiden ein und das selbe Spiel enthalten finden, wo - je nach Szene - mal die eine und mal die andere Karte im Vorteil ist.
http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/3
Kannst auf der Seite mal ein paar Reviews durchblättern.

Vertigo
2010-05-16, 22:46:22
http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/3
Kannst auf der Seite mal ein paar Reviews durchblättern.
Du meinst den Verlauf der FPS? Ja, der ist dort recht einheitlich. Ich meinte was anderes. Ich habe mir z. Bsp. gerade eben auf CB und HT4U die letzten GraKa-Reviews angeschaut und dort ist in den selben Spielen mit selben Settings aber offensichtlich unterschiedlichen Szenen mal die eine, mal die andere Karte schneller. Also dass das immer gleich ist würde ich so nicht stehen lassen.

@Fetter Fettsack: "freudig" im Sinne von "es passt ihm gut in den Kram". ;)

hq-hq
2010-05-16, 23:38:30
das review ist mal totaler bullshit,die arbeit hätten die sich sparen können.unglaublich was für honks es gibt.
einzig CoJ mit ssaa ist grafiklimitiert.
na ratet mal wer dann besser abschneidet. :whistle:

naja, sieht so aus als ob sie mit der grösseren 1920x1080 auflösung und ordentlich FSAA eigentlich den nagel auf den kopf treffen.
die meisten mit dicker graka und dickem prozzi zocken entweder in dieser oder in 1680x1050 ... gemein ist es natürlich trotzdem gellja und in 1680x1050 nur mit mittleren details so ein quatsch

derguru
2010-05-16, 23:49:08
selbst in 1980*1080+8xmsaa wird die 5870 von der amd-cpu gebremst vorallem bei der spielauswahl.

hq-hq
2010-05-17, 00:02:05
ach komm, nur weil amd cpu's zu langsam sind und nvidia den besseren draht zu den entwicklern hat kann man doch nicht sagen das es bullshit ist, ich würd sagen thats life :usad:

muss grad lachen... was amd wohl in ihre rechner einbaut wenn sie ati grakas präsentieren, intel cpu's ? :ucrazy4:

derguru
2010-05-17, 00:40:59
muss grad lachen... was amd wohl in ihre rechner einbaut wenn sie ati grakas präsentieren, intel cpu's ? :ucrazy4:
sinnvoller wärs.:lol:

Gast
2010-05-17, 05:45:04
muss grad lachen... was amd wohl in ihre rechner einbaut wenn sie ati grakas präsentieren, intel cpu's ? :ucrazy4:

Halt dich fest. Das machen sie wirklich. Offizielle AMD-Folie: http://www.heise.de/newsticker/meldung/AMD-legt-nach-DirectX-11-Profikarten-fuer-alle-Segmente-986562.html?view=zoom;zoom=1 Man schaue unten links auf die Config. ;)

Botcruscher
2010-05-17, 06:52:58
Ganz ehrlich, warum nicht? Und das gute XP läuft und läuft und läuft.:D

Mr. Lolman
2010-05-17, 08:40:06
Außerdem vertrete ich die Ansicht, dass Reviews nicht dazu da sind, etwas zu beweihräuchern oder zu verdammen, sondern um eine sachlich dargestellt Lage der Dinge abzuliefern. Wenn eine Karte bei bestimmten Szenen gut/schlecht abschneidet, dann ist das eben so, das Schlimme daran kann ich nicht erkennen (wenn es [das Schlimme] für andere offensichtlicher ist, dann möge man mir das bitte erklären).

Genauso ist es. Außerdem hatte ich garnicht die Zeit bei jedem Spiel solang Benchszenen zu suchen, bis ich welche finde die NV nicht schmecken. (Man stelle sich mal den zusätzlichen Aufwand vor. :rolleyes: )

y33H@
2010-05-17, 08:40:13
AMD hat für seine HD5870-Slides einen Core i7-965 EE @ 3,33 GHz genutzt - die wissen auch sehr genau, warum.

@ Mr. Lolman
(Man stelle sich mal den zusätzlich Aufwand vor)Es gibt immer wieder Leute, die das zB der PCGH vorwerfen. Ich bin auf den Artikel sehr gespannt =)

desert
2010-05-17, 10:41:16
AMD hat für seine HD5870-Slides einen Core i7-965 EE @ 3,33 GHz genutzt - die wissen auch sehr genau, warum.

@ Mr. Lolman
Es gibt immer wieder Leute, die das zB der PCGH vorwerfen. Ich bin auf den Artikel sehr gespannt =)

Ich nicht, ich weiss sowieso was rauskommt. Mr. lolli ist ja eher als nivida hasser bekannt. Er war es ja auch der gegen alle anderen seiten gewettert hat das das r600 af besser ist als das g80 af.

Und ich wette wir bekommen nur benchmarks zu sehen, die im unspielbaren bereich liegen aber die 5870 vorne liegen sehen werden. So wie halt damals zu seligen g200 und rv 770 zeiten 8xaa in umspielbaren bereich das mass aller gwesen war, wird es jetzt wohl mit der downsamplingkeule kommen, nachdem 8xaa nicht wirkt. Also werden wieder wohl wie die berühmten 15 fps gegen 10 fps antreten und alle fanboys werden sich darauf stürzen und das heranziehen, wie schlammsau schon mal gezeigt hat.

Hätte das review raff, grestorn oder so geschrieben, ok die halte ich für integer genug. Aber lolli?, nein der ist zu biased für eine objektive Berichterstattung.

Gast
2010-05-17, 10:46:01
Ich nicht, ich weiss sowieso was rauskommt. Mr. lolli ist ja eher als nivida hasser bekannt. Er war es ja auch der gegen alle anderen seiten gewettert hat das das r600 af besser ist als das g80 af.

Und ich wette wir bekommen nur benchmarks zu sehen, die im unspielbaren bereich liegen aber die 5870 vorne liegen sehen werden. So wie halt damals zu seligen g200 und rv 770 zeiten 8xaa in umspielbaren bereich das mass aller gwesen war, wird es jetzt wohl mit der downsamplingkeule kommen, nachdem 8xaa nicht wirkt. Also werden wieder wohl wie die berühmten 15 fps gegen 10 fps antreten und alle fanboys werden sich darauf stürzen und das heranziehen, wie schlammsau schon mal gezeigt hat.

Hätte das review raff, grestorn oder so geschrieben, ok die halte ich für integer genug. Aber lolli?, nein der ist zu biased für eine objektive Berichterstattung.

Schön das sich hier die Fanboys mal wieder outen. Solche Aussagen kommen eh immer nur von Leute die sehr weit im grünen Eck stehen.

Fetter Fettsack
2010-05-17, 10:50:09
Hätte das review raff, grestorn oder so geschrieben, ok die halte ich für integer genug.

Ich will keine Partei ergreifen und ich weiß nicht, wie sich Mr. Lolman vor meiner Zeit hier verhalten hat, aber was ist an denen so genau anders (ohne da jetzt irgend jemandem zu nahe treten zu wollen)? Dein Vorschlag wäre doch vielmehr eine Einladung an Fanboys, sofort loszubrüllen, dass das ja natürlich alles nVidia-Verehrer seien und da der GF100 selbstredend gut abschneidet. Wenn man von der Annahme der Parteilichkeit bei Mr. Lolman ausginge, dann würde sich das Problem nicht stellen, da er ja von der anderen Seite käme. (Achtung, bewusst im Konjunktiv formuliert)

Außerdem: was macht es denn so schlimm, wenn man DS testet und der Cypress besser abschneiden würde als der GF100? Solange man nicht sagt, dass deshalb der GF100 völliger Schmarrn sei, wüsste ich nicht, was an einer solchen Erkenntnis so verwerflich/untunlich wäre. Ist doch nur ein Review.

Vertigo
2010-05-17, 10:52:34
Schön das sich hier die Fanboys mal wieder outen. Solche Aussagen kommen eh immer nur von Leute die sehr weit im grünen Eck stehen.
Das ist jetzt ein Witz, oder? Hast Du Lolmans Ergüsse über die Jahre hinweg hier im Forum überhaupt mal gelesen? Falls ja, kann es da eigentlich keine zwei Meinungen geben. Ich stimme desert voll und ganz zu.

Dennoch wird das Review sicher eine ganz eigene Perspektive bieten wird, auch wenn es so lange nach Release wohl keine Sau mehr interessieren wird.
Außerdem: was macht es denn so schlimm, wenn man DS testet und der Cypress besser abschneiden würde als der GF100? Solange man nicht sagt, dass deshalb der GF100 völliger Schmarrn sei, wüsste ich nicht, was an einer solchen Erkenntnis so verwerflich/untunlich wäre. Ist doch nur ein Review.
Also wenn ein Review so angelegt ist, dass eine Karte bevorzugt wird - und das in Settings, die praktisch nicht nutzbar sind, ist doch klar, welche Botschaft damit vermittelt wird und vermittelt werden soll. Falls es so kommt - das bleibt ja noch abzuwarten. ;)

Mr. Lolman
2010-05-17, 10:54:51
Ja genau und weil ich ein Nvidiahasser bin, war die teuerste GraKa aller Zeiten (die Voodoo5 6000 ausgenommen), bei mir eine Nvidia Karte (6800GT). Beim R600-AF hab ich nicht gewettert, (schon garnicht gegen alle anderen) sondern mich nur gewundert, warum manche Seiten der Meinung waren, dass es besser als das G80-AF sei. Außerdem hab ich schoneinmal geschrieben, dass der Text nicht von mir kommt. Ich hab die Benchmarks gemacht und fertig.

Lustig, wie manchen der Arsch auf Grundeis geht, wo sie jetzt wissen, dass ich den Fermis mal ordentlich auf den Zahn gefühlt hab. Keiner hier hat noch irgendwelche Ergebnisse gesehen (bis auf die vom Downsampling-Artikel, der jedoch 1. nichtmal meine Idee war, und 2. schon lang geplant war, bevor noch überhaupt klar war, wie die Fermis abschneiden werden), und trotzdem wird schon fleissig herumgeflamed. Geht doch zu Guru3D, Luxx oder Konsorten, wenn ihr geglättete, NV-freundliche Ergebnisse sehen wollt. Im 3DC gibts die ungeschönte Wahrheit.



=> und nochmal, wenn ich wollte, dass die Fermis schlecht dastehen, hätt ich mir ja nicht die Mühe machen müssen, nachvollziehbare Benchmarkparcours zu erstellen, sondern einfach irgendwelche Ergebnisse zusammenschustern können => Aber nein, die letzten 2 Wochenenden ging meine Freizeit gegen 0 und ich hab leider trotzdem nur an der Oberfläche kratzen können. Für wirklich umfassende Analysen, hätt ich die GraKas noch 3 weitere Wochen gebraucht - mal ganz abgesehen davon, dass mir dafür auch meine beiden Jobs und (natürlich) mein Privatleben ein bisschen im Weg stehen ;)

Das ist jetzt ein Witz, oder? Hast Du Lolmans Ergüsse über die Jahre hinweg hier im Forum überhaupt mal gelesen? Falls ja, kann es da eigentlich keine zwei Meinungen geben. Ich stimme desert voll und ganz zu.

1. Welche Ergüsse? Link plz.
2. Wer bist denn du überhaupt? (seit ~nem halben Jahr hier registriert und flamed schon rum wie ein alteingesessener LS :rolleyes: )


Dennoch wird das Review sicher eine ganz eigene Perspektive bieten wird, auch wenn es so lange nach Release wohl keine Sau mehr interessieren wird.

Also dafür, dass es keine Sau mehr interessieren wird, gehen die Wogen ja jetzt schon ziemlich hoch, oder? ;)


Also wenn ein Review so angelegt ist, dass eine Karte bevorzugt wird - und das in Settings, die praktisch nicht nutzbar sind, ist doch klar, welche Botschaft damit vermittelt wird und vermittelt werden soll. Falls es so kommt - das bleibt ja noch abzuwarten. ;)

Genau deswegen wart mal besser ab, anstatt dass du hier den Kasperl machst.

Schlammsau
2010-05-17, 11:01:33
Das Problem ist doch, die meisten Fermi Besitzer bzw Interessierten, wissen ja um die vergleichsweise schlechte Performance.
Sieht man auch sehr gut an den ganzen Benchthreads, wo wenn überhaupt sich nur SLi bzw. TSLi Nutzer tummeln, und ganz stolz ihren Stromverbaruch von 1,4kw präsentieren.

An den Reaktionen sieht man schon sehr deutlich, wie der grünen Fraktion, der Arsch auf Grundeis geht. :)

Hast du eigentlich mit der 2GB 5870 gegengetestet?

Gast
2010-05-17, 11:08:19
Na hör mal, Nvidia hat derzeit die schnellste Grafikkarte, daran kannst du und
Lolman nichts ändern.
Wenn jemand mit dem Arsch auf Grundeis ist, dann die AMD-Fanboys.
Gegen PhysX, TWIMTBP, HQ-AF, DX-SSAA und der phänomenalen DX11 und Tess-Leistung kann sich hier keiner erwehren.

Es gibt nur soviele SLI-User weil SLI im Gegensatz zu CF sehr gut funktioniert und die Fermis eben doch besser und billiger sind als gedacht.

Mr. Lolman
2010-05-17, 11:09:08
Hast du eigentlich mit der 2GB 5870 gegengetestet?

Nö. Wurde zwar intern besprochen, aber 1. hat die kaum jemand und 2. ist der Aufpreis fürs zusätzliche GB zu hoch...

Schlammsau
2010-05-17, 11:10:15
Na hör mal, Nvidia hat derzeit die schnellste Grafikkarte, daran kannst du und
Lolman nichts ändern.
Wenn jemand mit dem Arsch auf Grundeis ist, dann die AMD-Fanboys.
Gegen PhysX, TWIMTBP, HQ-AF, DX-SSAA und der phänomenalen DX11 und Tess-Leistung kann sich hier keiner erwehren.

Es gibt nur soviele SLI-User weil SLI im Gegensatz zu CF sehr gut funktioniert und die Fermis eben doch besser und billiger sind als gedacht.
Nein sie sind genauso "schlecht" wie gedacht.

Nö. Wurde zwar intern besprochen, aber 1. hat die kaum jemand und 2. ist der Aufpreis fürs zusätzliche GB zu hoch...
Schade, das hätte in Metro zB schon einiges gerissen für die 5870.

Gast
2010-05-17, 11:11:18
Na hör mal, Nvidia hat derzeit die schnellste Grafikkarte, daran kannst du und
Lolman nichts ändern.
Wenn jemand mit dem Arsch auf Grundeis ist, dann die AMD-Fanboys.
Gegen PhysX, TWIMTBP, HQ-AF, DX-SSAA und der phänomenalen DX11 und Tess-Leistung kann sich hier keiner erwehren.

Es gibt nur soviele SLI-User weil SLI im Gegensatz zu CF sehr gut funktioniert und die Fermis eben doch besser und billiger sind als gedacht.

Das ist FALSCH! Die schnellste Grafikkarte kommt aus dem Hause ATI!

Vertigo
2010-05-17, 11:16:08
Ja genau und weil ich ein Nvidiahasser bin, war die teuerste GraKa aller Zeiten (die Voodoo5 6000 ausgenommen), bei mir eine Nvidia Karte (6800GT). Beim R600-AF hab ich nicht gewettert, (schon garnicht gegen alle anderen) sondern mich nur gewundert, warum manche Seiten der Meinung waren, dass es besser als das G80-AF sei. Außerdem hab ich schoneinmal geschrieben, dass der Text nicht von mir kommt. Ich hab die Benchmarks gemacht und fertig.

Lustig, wie manchen der Arsch auf Grundeis geht, wo sie jetzt wissen, dass ich den Fermis mal ordentlich auf den Zahn gefühlt hab. Keiner hier hat noch irgendwelche Ergebnisse gesehen (bis auf die vom Downsampling-Artikel, der jedoch 1. nichtmal meine Idee war, und 2. schon lang geplant war, bevor noch überhaupt klar war, wie die Fermis abschneiden werden), und trotzdem wird schon fleissig herumgeflamed. Geht doch zu Guru3D, Luxx oder Konsorten, wenn ihr geglättete, NV-freundliche Ergebnisse sehen wollt.

Was wieder nur zeigt, wie deine Gesinnung ist. Wie sieht's mit den ATI-freundlichen Ergebnissen aus? Die sind wohl so in Ordnung und denen muss man nicht auf den Zahn fühlen, oder wie darf man das jetzt verstehen?

Im 3DC gibts die ungeschönte Wahrheit.

In dem Fall: Deine Wahrheit?


=> und nochmal, wenn ich wollte, dass die Fermis schlecht dastehen, hätt ich mir ja nicht die Mühe machen müssen, nachvollziehbare Benchmarkparcours zu erstellen, sondern einfach irgendwelche Ergebnisse zusammenschuster können => Aber nein, die letzten 2 Wochenenden ging meine Freizeit gegen 0 und ich hab leider trotzdem nur an der Oberfläche kratzen können. Für wirklich umfassende Analysen, hätt ich die GraKas noch 3 weitere Wochen gebraucht - mal ganz abgesehen davon, dass mir dafür auch meine beiden Jobs und (natürlich) mein Privatleben ein bisschen im Weg stehen ;)

Wie jetzt? Die neutralen NV-freundlichen Reviews anderer Seiten sind dir zu oberflächlich, du hast angeblich den Fermis gründlich auf den Zahn gefühlt und nun bist du plötzlich doch nicht zufrieden mit den Ergebnissen?

1. Welche Ergüsse? Link plz.
2. Wer bist denn du überhaupt? (seit ~nem halben Jahr hier registriert und flamed schon rum wie ein alteingesessener LS :rolleyes: )

1. Das ist mir zu mühsam und im Zweifel würdest du es auch nicht einsehen wollen. Kann auch sein, dass ich da eine selektive Wahrnehmung habe - soll jeder selbst die Suchfunktion bemühen und sich ein Bild machen. Bei Bedarf (den ich nicht sehe) können wir das unter uns gern per PN klären. :)
2. Das auch.

Also dafür, dass es keine Sau mehr interessieren wird, gehen die Wogen ja jetzt schon ziemlich hoch, oder? ;)
Naja, das ist einfach nur die Vorfreude, weißt du? :biggrin:

airbag
2010-05-17, 11:26:39
Auch wenn die Szenen vom Lolman ATIbevorzugend gewählt sind, ändert es lange nichts an der Richtigkeit dieser Benches (Fälschen wird er sie wohl kaum ).
Genauso ist es schwachsinnig eine Szene rauszusuchen die Nvidia mehr liegt oder ist es auch egal eine zu nehmen die beiden gleichgut liegt, weil ja niemand diese Momentaufnahmen auf ein komplettes Spiel runterbricht. Oder habt ihr sowas schonmal gelesen, dass ein Redakteur behauptet, dass Fermi super mega gut ist und die HD5ks immer in den Boden rammt ?

Außerdem stellen seine Test ja auch nicht die Einzigen dar, denen man auch unbedingt glauben muss. ;)

desert
2010-05-17, 11:37:44
Außerdem: was macht es denn so schlimm, wenn man DS testet und der Cypress besser abschneiden würde als der GF100? Solange man nicht sagt, dass deshalb der GF100 völliger Schmarrn sei, wüsste ich nicht, was an einer solchen Erkenntnis so verwerflich/untunlich wäre. Ist doch nur ein Review.

Das wie damals nur noch auf 8aa rumgeritten wid und das zum alleinseligmachenden erklärt wird, obwohl es oft auf beiden karten in den gewählten auflösungen nicht nutzbar ist. Und das erreicht man mit solchen tendizösen reviews leider nur. Ich wette wir werden viele benchmarks sehen, in denen von 1920 x 1200 oder noch höher ds betrieben wird. Dort kann die gf100 nur verlieren, dann es ihr an füllraten durch meiner meinung zu wenige TMU´s mangelt.

Aber du weisst ja wohl auch wie sich schlammsau und konsorten schon die finger danach lecken. Endlich wieder was sie nvidia überbraten können. Ein review sollte so gemacht das keine seite bevorteilt wird. Und das wird ati bestimmt in diesem review weil explizit nur die sachen gebencht werden in denen fermii nur schlecht aussehen kann, weil fermi teilweise vom design dort nicht mithalten kann.

Mr. Lolman
2010-05-17, 11:37:51
Was wieder nur zeigt, wie deine Gesinnung ist. Wie sieht's mit den ATI-freundlichen Ergebnissen aus? Die sind wohl so in Ordnung und denen muss man nicht auf den Zahn fühlen, oder wie darf man das jetzt verstehen?

Hö? Die Leut die einfach Atifreundliche Ergebnisse haben wollen müssen natürlich wo anders hin. (zB. hardwarecanucks, techreport, hexus, früher auch driverheaven)


In dem Fall: Deine Wahrheit?

Dadurch, dass ich die Benchmarks durchgeführt hab, ja.



Wie jetzt? Die neutralen NV-freundlichen Reviews anderer Seiten sind dir zu oberflächlich, du hast angeblich den Fermis gründlich auf den Zahn gefühlt und nun bist du plötzlich doch nicht zufrieden mit den Ergebnissen?

Hab ich auch. Aber aus den Ergebnissen ergeben sich tw. Implikationen die es weiter zu überprüfen gelten würde



1. Das ist mir zu mühsam und im Zweifel würdest du es auch nicht einsehen wollen. Kann auch sein, dass ich da eine selektive Wahrnehmung habe - soll jeder selbst die Suchfunktion bemühen und sich ein Bild machen. Bei Bedarf (den ich nicht sehe) können wir das unter uns gern per PN klären. :)
2. Das auch.

1. Dacht ichs mir (du würdest auch nix finden)
2. mal sehen.

Naja, das ist einfach nur die Vorfreude, weißt du? :biggrin:

Achso ;)

Auch wenn die Szenen vom Lolman ATIbevorzugend gewählt sind, ändert es lange nichts an der Richtigkeit dieser Benches (Fälschen wird er sie wohl kaum ).
1. Ja
2. fehlt mir da der Konjunktiv. Überlegt euch alle mal den Heidenaufwand der sich ergäbe, wenn man Szenen aus Spielen bewusst danach auswählen würde, wie gut sie einer GraKa liegen.

(Denn man sucht erstmal eine gute reproduzierbare Benchszene, testet die ordentlich durch (3-5 runs/Setting zu je 70-80 Sekunden) um einen ordentlichen Mittelwert zu bekommen, baut dann die andere GraKa ein, bencht wieder, merkt, dass die Szene nicht Atifreundlich genug ist, sucht sich ne neue Szene und beginnt das ganze Prozedere von vorn. => Leuts die mir das ernsthaft unterstellen, sollten sich mal untersuchen lassen -> ich bin doch nicht mein eigener Feind und verschwende meine Zeit für so einen Mist -> ist eigentlich schon schlimm genug, dass ich mir die Zeit nehm auf die ganzen haltlosen Anschuldigungen hier zu antworten.)

Reneeeeeee
2010-05-17, 11:43:49
Er wird das schon ordentlich machen ;) Was geifert ihr hier eigentlich rum wenn das Review noch nicht mal draußen ist. Wartet doch erstmal ab , mir persönlich ist es egal ob eine nv vorn liegt denn ich bin mit meiner 5870 sehr zufrieden und das ändert auch ein Review nicht . ;) Man könnte meinen manche schlafen mit ihren Grakas im Bett.

derguru
2010-05-17, 11:51:34
Das wie damals nur noch auf 8aa rumgeritten wid und das zum alleinseligmachenden erklärt wird, obwohl es oft auf beiden karten in den gewählten auflösungen nicht nutzbar ist.
nö war sehr oft nutzbar aber wer nutzt schon 8xmsaa allein.

Ich wette wir werden viele benchmarks sehen, in denen von 1920 x 1200 oder noch höher ds betrieben wird. Dort kann die gf100 nur verlieren, dann es ihr an füllraten durch meiner meinung zu wenige TMU´s mangelt.
wird bestimmt nicht der fall sein aber selbst wenn,für was hast du dir eine 480gtx gekauft gehabt,um in 1280*1024 zuspielen oder paar heiße runden heaven bench?

Und das wird ati bestimmt in diesem review weil explizit nur die sachen gebencht werden in denen fermii nur schlecht aussehen kann, weil fermi teilweise vom design dort nicht mithalten kann.
abwarten,ja lol die leute gehen schon vor dem review auf die barrikaden.;D

SamLombardo
2010-05-17, 11:55:59
In Metro hängt die 470 hinter der 5870, solang der Speicher nicht knapp wird
Wird in 1680x1050 der Speicher der Atis schon knapp? Ansonsten sieht das Ergebnis zb bei der PCGH ganz anders aus. http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=13

Schlammsau
2010-05-17, 11:57:10
Wird in 1680x1050 der Speicher der Atis schon knapp? Ansonsten sieht das Ergebnis zb bei der PCGH ganz anders aus. http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=13

Ja! http://www.hardwareheaven.com/reviews.php?reviewid=965&pageid=7
Die 2GB Version ist mit der 480 gleich auf.

y33H@
2010-05-17, 11:58:19
@ SamLombardo

Die Werte bei PCGH sind mit 4x MSAA, Loli hat durchgehend nur AAA gebencht.

derguru
2010-05-17, 11:58:49
Wird in 1680x1050 der Speicher der Atis schon knapp? Ansonsten sieht das Ergebnis zb bei der PCGH ganz anders aus. http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=13
na sicher,schau her.(letzter bench)
http://www.pcgameshardware.de/aid,745761/Sapphire-HD-5870-Toxic/2G-im-Hands-on-Test-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/

und wie ich gerade sehe ist in 1680*1050 eine 2gb 5870 nur noch ~10% lahmer als eine 480gtx.

Mr. Lolman
2010-05-17, 12:00:01
Wird in 1680x1050 der Speicher der Atis schon knapp? Ansonsten sieht das Ergebnis zb bei der PCGH ganz anders aus. http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=13

Jepp.

EDIT: Lol, bei PCGH steht die HD5870 noch besser da, als bei meinen Ergebnissen :ulol:

@ SamLombardo

Die Werte bei PCGH sind mit 4x MSAA, Loli hat durchgehend nur AAA gebencht.

Hm? Nein, hab ich garnicht. Wie kommst du darauf?

Raff
2010-05-17, 12:00:18
Das Spiel ist schon arg "lustig". Der Gag ist nämlich, dass unter DX11 mit allen Details inkl. Ttessellattionn sogar 1.680x1.050 mit AAA nur knapp in den VRAM zu passen scheint. Ich habe Benchmarks durchgeführt, die dort eine HD 5870/2G reproduzierbar wenige Prozentchen vor ihrem 1G-Pendant sehen (zur Abwechslung mal im fluffig spielbaren Bereich). :ulol:

MfG,
Raff

SamLombardo
2010-05-17, 12:06:28
Ja!
Und wie kommt es dann, dass unter DX10 die 5870 auf einmal so sehr aufholt? Sieht doch ehr so aus, als ob DX11/Tess für den Einbruch verantwortlich ist. PCGH hat eine nach eigener Angabe "DX11 intensive Szene" gebencht. Wenn dies andere Reviews nicht tun, ist es klar, dass sich die Ergebnisse unterscheiden. Man kann reviews immer so drehen, dass herauskommnt was man gerne hätte bzw "beweisen" will. Das gilt für beide Seiten.

btw. gibts denn Vergleiche der 5870 2gb vs 1gb in Metro?

Schlammsau
2010-05-17, 12:07:36
Und wie kommt es dann, dass unter DX10 die 5870 auf einmal so sehr aufholt? Sieht doch ehr so aus, als ob DX11/Tess für den Einbruch verantwortlich ist. PCGH hat eine nach eigener Angabe "DX11 intensive Szene" gebencht. Wenn dies andere Reviews nicht tun, ist es klar, dass sich die Ergebnisse unterscheiden. Man kann reviews immer so drehen, dass herauskommnt was man gerne hätte bzw "beweisen" will. Das gilt für beide Seiten.

btw. gibts denn Vergleiche der 5870 2gb vs 1gb in Metro?
http://www.hardwareheaven.com/reviews.php?reviewid=965&pageid=7

http://www.abload.de/img/unbenannt95de.jpg

SamLombardo
2010-05-17, 12:11:32
btw. gibts denn Vergleiche der 5870 2gb vs 1gb in Metro?
...hatte ich getippt wärend die Antworten kamen. Die 2gb Version schlägt also die 470, auch in der PCGH gebenchten Szene?

derguru
2010-05-17, 12:13:03
steht doch da oder wieso fragenzeichen, hehe.

hier mal szenen von einem sli,man ist metro2033 auf fermis spielbar;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7987099&postcount=1167

SamLombardo
2010-05-17, 12:15:40
steht doch da oder wieso fragenzeichen, hehe.
Fragezeichen deshalb weil die von Schlammsau geposteten Werte der 5870 1gb weit vor denen von PCGH sind. Es sind also offensichtlich verschiedene Benchmarks...

derguru
2010-05-17, 12:17:56
weil metro kein integrierten bench hat kannst du keine vergleiche mit anderen reviews machen,jeder bencht andere stellen.

Schlammsau
2010-05-17, 12:18:39
Fragezeichen deshalb weil die von Schlammsau geposteten Werte der 5870 1gb weit vor denen von PCGH sind. Es sind also offensichtlich verschiedene Benchmarks...

Höchstwahrscheinlich verschiedene Benchmarks aber wenn du ganz unten schaust, wirst du sehen, dass Hardwareheaven nur mit AAA und die PCGH mit 4xAA gebencht hat. So oder so, die limitierende Kraft ist nicht die Tesselation Unit, sondern der Speicher in Metro!

Iceman346
2010-05-17, 12:24:21
...hatte ich getippt wärend die Antworten kamen. Die 2gb Version schlägt also die 470, auch in der PCGH gebenchten Szene?

Anscheinend:
5870 2GB Test (http://www.pcgameshardware.de/aid,745761/Sapphire-HD-5870-Toxic/2G-im-Hands-on-Test-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/)
GF100 Test (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=13)

Es wurd die gleiche Szene genutzt, aber es ist nicht ganz klar ob die Einstellungen 100% die gleichen waren, wäre nett wenn das ein PCGH Mitarbeiter aufklären könnte.

Von den Zahlen ausgehend platziert sich die 2GB 5870 in Metro 2033 aber wieder genau zwischen 470 und 480.

hq-hq
2010-05-17, 12:49:17
Das Problem ist doch, die meisten Fermi Besitzer bzw Interessierten, wissen ja um die vergleichsweise schlechte Performance.

An den Reaktionen sieht man schon sehr deutlich, wie der grünen Fraktion, der Arsch auf Grundeis geht. :)



um die vergleichsweise schlechte performance :freak:
du bist ja voll die ulknudel, gefällt mir:ueye:

hast du dir schon die wundsalbe hergerichtet ?
nicht das dir bei dem 15 zu 10 fps vorteil für die roten separatisten in 5120x3840 bei 8xAA die pfeiffe zu glühen anfängt:ucatch:

Schlammsau
2010-05-17, 12:54:57
um die vergleichsweise schlechte performance :freak:
du bist ja voll die ulknudel, gefällt mir:ueye:


Du liest schon richtig....vergleichsweise schlechte Performance. ;)
Schon die Crysis Benchmarks von gestern vergessen? Ich schlage dich dort mit meiner popeligen 5850 um längen. ;)

Und ja ich zocke Crysis (Wars) immernoch.

Gast
2010-05-17, 13:09:39
Dank Failmi wird sich an den Preisen der HD 5xxx-Serie auch nichts mehr tun. Im Dezember noch für 210 € inkl. bestellt, heute nach wie vor unter 270 € nicht zu haben. Beschissene Situation. Mittlererweile habe ich auch auf beide Karten keine Lust mehr, steht doch in einigen Monaten schon die nächste Generation von ATi vor der Tür (und im Sommer spiele ich eh nicht).

Blaire
2010-05-17, 16:42:43
steht doch da oder wieso fragenzeichen, hehe.

hier mal szenen von einem sli,man ist metro2033 auf fermis spielbar;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7987099&postcount=1167

http://forum.nhancer.com/showthread.php?goto=newpost&t=1736 ;) Das Nvidia SLi Profil hat noch ein paar Macken.

Iruwen
2010-05-17, 16:48:22
Du liest schon richtig....vergleichsweise schlechte Performance. ;)
Schon die Crysis Benchmarks von gestern vergessen? Ich schlage dich dort mit meiner popeligen 5850 um längen. ;)

Und ja ich zocke Crysis (Wars) immernoch.

Da böten sich jetzt viele schöne Flames an, aber noch viel schöner ist es eigentlich wenn man das einfach mal so im Raum stehen lässt.

Schlammsau
2010-05-17, 16:58:38
Da böten sich jetzt viele schöne Flames an, aber noch viel schöner ist es eigentlich wenn man das einfach mal so im Raum stehen lässt.

Was willst du eigentlich? Das war natürlich auch auf die Übertaktbarkeit bezogen. Die 470 ist nunmal zwischen der 5850 und der 5870 angesiedelt. Mit ausreissern nach oben und und auch nach unten. ;)

In Crysis zB kann ich mit einer unübertakteten 5850 sehr gut Paroli bieten.
Mit einer 7 Monate alten 230€, günstigen popeligen 5850! :P

Iruwen
2010-05-17, 17:15:17
In einer zweieinhalb Jahre alten Grafikdemo, super ;)

derguru
2010-05-17, 20:40:31
ASUS HD 5870 Matrix Platinum 2 GB (http://www.techpowerup.com/reviews/ASUS/HD_5870_Matrix/)

kann sich bei dem parcour nur in stalker cs durch die rammenge bissel absetzen,dat wars aber auch schon.kein wunder bei den settings.:rolleyes:

Fetter Fettsack
2010-05-17, 20:42:43
Ein review sollte so gemacht das keine seite bevorteilt wird. Und das wird ati bestimmt in diesem review weil explizit nur die sachen gebencht werden in denen fermii nur schlecht aussehen kann, weil fermi teilweise vom design dort nicht mithalten kann.

Es wurde zwar schon eine mir eigentlich recht schlüssig erscheinende Erklärung diesbezüglich abgegeben, aber ich meine dennoch, dass es, so lange man weiß, was wie gebencht wurde (Auflösung, BQ, Spiel, Szene und natürlich die Karte^^) und keine grob verallgemeinernde Aussagen getroffen werden, egal ist, welches Ergebnis ein Review liefert. Um mich zu wiederholen: jeder (in der Versuchsanordnung nachvollziehbare) Review ist für sich gesehen richtig/wahr (nenen wir es "subjektiv wahr"), nur darf man nicht den Fehler begehen und ihn verallgemeinern.

Die "objektive Wahrheit" ergibt sich dann aus der Summe oder meinetwegen aus dem arithmetischen Mittel dieser Reviews.

hq-hq
2010-05-17, 20:54:12
Du liest schon richtig....vergleichsweise schlechte Performance. ;)
Schon die Crysis Benchmarks von gestern vergessen? Ich schlage dich dort mit meiner popeligen 5850 um längen. ;)

Und ja ich zocke Crysis (Wars) immernoch.

hrhr, nein, heute hab ich auch noch vergessen mein arbeitskollegen zu fragen mir crysis mitzubringen!
ich hoffe innigst das der patch 1.21 und der bald erscheinende und vor allem
sagenumwobene 256 treiber (24.05) den ultimativen frame bull market einleitet !

crysis wars, gute idee vielleicht hat er das auch!

und bitte bitte nicht noch weiter in den wunden stochern mit deiner vor 7
monaten gekauften 230 euro teuren 5850... ich armer tropf hätte im
oktober eine 5870 für 337 incl versand kaufen können... warum hab ich
gewartet... neiiin. dafür hab ich jetzt super cuda wasser, full force physx und mega tesselation :biggrin:


-> @gast genial das amd eine intel cpu benutzt um die fire-pro's zu pushen.... mein gott wie sch... http://www.heise.de/newsticker/meldung/AMD-legt-nach-DirectX-11-Profikarten-fuer-alle-Segmente-986562.html?view=zoom;zoom=1

Dr. Cox
2010-05-17, 23:29:49
Das ist FALSCH! Die schnellste Grafikkarte kommt aus dem Hause ATI!

Die HD 5970 ist keine Grafikkarte, sondern ein Diaprojektor für mehr als 600€!
Für mehr als 600€ lädt dich ATI mit der HD 5970 ins Land der Mikroruckler ein :freak:

Wer solch eine Grafikkarte einer schnellen und günstigeren Single-GPU (HD 5870/5850, GTX 470/480) vorzieht und damit nicht Benchen, sondern ernsthaft spielen will, dem ist eh nicht mehr zu helfen. Der hat bestimmt nicht nur ATI-Bettwäsche zu Hause, sondern bestimmt auch das passende ATI-Branding am Hintern... ;D

Gast
2010-05-18, 00:02:04
Die HD 5970 ist keine Grafikkarte, sondern ein Diaprojektor für mehr als 600€!
Für mehr als 600€ lädt dich ATI mit der HD 5970 ins Land der Mikroruckler ein :freak:

Wer solch eine Grafikkarte einer schnellen und günstigeren Single-GPU (HD 5870/5850, GTX 470/480) vorzieht und damit nicht Benchen, sondern ernsthaft spielen will, dem ist eh nicht mehr zu helfen. Der hat bestimmt nicht nur ATI-Bettwäsche zu Hause, sondern bestimmt auch das passende ATI-Branding am Hintern... ;D

na klar man kanns auch übertreiben....

Schlammsau
2010-05-18, 10:18:56
Die HD 5970 ist keine Grafikkarte, sondern ein Diaprojektor für mehr als 600€!
Für mehr als 600€ lädt dich ATI mit der HD 5970 ins Land der Mikroruckler ein :freak:

Wer solch eine Grafikkarte einer schnellen und günstigeren Single-GPU (HD 5870/5850, GTX 470/480) vorzieht und damit nicht Benchen, sondern ernsthaft spielen will, dem ist eh nicht mehr zu helfen. Der hat bestimmt nicht nur ATI-Bettwäsche zu Hause, sondern bestimmt auch das passende ATI-Branding am Hintern... ;D

Bitte nicht übertreiben ja!?
Erstens kostet die 5970 keine 600€ mehr, sondern ein bisschen was über 500€.
Und zweitens lasten der 5970 die gleichen Probleme wie jeder MGPU Lösung an.

Egal ob SLi oder CrossFire, ist alles Mist!

Dr. Cox
2010-05-18, 10:49:25
Bitte nicht übertreiben ja!?
Erstens kostet die 5970 keine 600€ mehr, sondern ein bisschen was über 500€.
Und zweitens lasten der 5970 die gleichen Probleme wie jeder MGPU Lösung an.

Egal ob SLi oder CrossFire, ist alles Mist!

Wieso übertreiben? Wenn hier jemand behauptet eine Multi-GPU-Karte sei die schnellste derzeit verfügbare Grafikkarte, dann muss man denjenigen wieder auf den Boden der Tatsachen holen. Wer schon einmal Crossfire oder SLi genutzt hat, weiß was ich damit meine. Für mich ist weder SLi noch Crossfire als spielbar zu bezeichnen, da Inputlags und die nervigen Mikroruckler einem das ganze Spielgefühl kaputt machen und man fühlt sich wirklich wie bei einer Diashow. ich muss dazu aber auch sagen, dass ich Jahrelang Egoshooter in der ESL gespielt habe. Nichts desto trotz kann ich mir nicht vorstellen, das jemand bei meinetwegen 500-600€ Kaufpreis solche Defizite freiwillig in Kauf nimmt, es sei denn er will nur benchen, oder kennt sich nicht mit der Materie aus. Denn für 500-600€ bekommt man bereits einen ganzen PC ;)

Ich möchte natürlich demnächst auch wieder eine neue schnellere Grafikkarte kaufen und schwanke noch zwischen HD 5870 und GTX 470. Beide Grafikkarten haben Vor und Nachteile, allerdings sind die Nachteile beider Karten so schlimm, dass ich bisher vom kauf egal welcher zurück geschreckt bin. Und damit meine ich jetzt nicht nur den saftigen Anschaffungspreis von weit über 300€ ;)

Gast
2010-05-18, 11:37:17
Ich möchte natürlich demnächst auch wieder eine neue schnellere Grafikkarte kaufen und schwanke noch zwischen HD 5870 und GTX 470. Beide Grafikkarten haben Vor und Nachteile, allerdings sind die Nachteile beider Karten so schlimm, dass ich bisher vom kauf egal welcher zurück geschreckt bin. Und damit meine ich jetzt nicht nur den saftigen Anschaffungspreis von weit über 300€ ;)

könntest du bitte deine ("persönlichen") Nachteile mal aufzählen.
Es geht mir nut um einen Einreihung.

Dr. Cox
2010-05-18, 11:54:09
könntest du bitte deine ("persönlichen") Nachteile mal aufzählen.
Es geht mir nut um einen Einreihung.

Die GTX 470 ist verdammt laut, zu heiß und frisst zu viel Strom. Außerdem scheint sie ein Problem mit zu niedriger TMU-Leistung zu haben. Allerdings ist das im Moment sehr schwer abzuschätzen ob sich die TMU-Limitierung bei zukünftigen Spielen lösen wird, wenn dann der Schwerpunkt mehr auf Tesselation/Shader geht. Schön ist es jedoch nicht, da gerade alte Spiele die viel TMU-Leistung brauchen wahrscheinlich langsamer laufen werden als mit meiner GTX 280 :(

Die HD 5870 hat die üblichen Probleme, wie ich sie schon bei zwei HD 4870 kennen lernen musste. Treiberbugs, alte Spiele laufen entweder schlecht oder gar nicht. Das flimmernde AF, welches mich bei der HD 4870 neben den Grey-Screen-Abstürzen zum Wahnsinn getrieben hat. Da diese Grey-Screen bei der HD 58X0-Reihe wieder vermehrt auftreten, gehe ich davon aus, dass ATI immer noch qualitative Defizite gegenüber Nvidia-Karten hat, was die verbaute Hardware angeht :(


Egal für welche Karte ich mich nun entscheide, ich ziehe in jedem Fall die wortwörtliche A-Karte :freak:

SamLombardo
2010-05-18, 12:08:33
Dr Cox, das Problem mit der Lautstärke der 470 kann wirklich entkräftet werden. Die 470 ist nicht lauter als die 4870. Wenn Du mit der kein Problem hattest, wird Dir auch die 470 nichts ausmachen. Kann ich Dir fast garantieren:)
Der Stromverbrauch bleibt natürlich ein Argument, wobei das meiner Meinung nach auch kein Totschlagargument ist. (Der Verbrauch ist im Vergleich zur Radeon etwa der, wie wenn Du unter Last (also beim Zocken) eine Glühbirne nebenbei an hättest. Das schlägt vielleicht mit einem einstelligen Eurobetrag pro Jahr zu Buche.) Dennoch kann ich verstehen, dass man das als Negativpunkt aufzählt.
Ob in zukünftigen Spielen eher Tess/Shader wichtig werden, oder ehr die Füllrate limitieren wird, kann natürlich keiner definitiv sagen. Wobei mein Bauchgefühl mir ehr das erste sagt:wink:

Gruß Sam

Dr. Cox
2010-05-18, 12:17:02
Die Reviews sagen allerdings etwas anderes. laut denen, ist die GTX 470 sogar lauter als eine GTX 280. Und die war vor dem Undervolting für mich tatsächlich unerträglich laut...

Was den Stromverbrauch in Spielen angeht hast du natürlich recht, so viel Zeit zum Zocken habe ich eh nicht, daher wäre das nicht so tragisch. Die Lautstärke und die Hitzeentwicklung hingegen ist schon heftig! In diesen Punkten ist die HD 5870 einfach besser, allerdings immer noch zu Mondpreisen, da die HD 5870 extrem gehypt wurde und noch immer gehypt wird.

SamLombardo
2010-05-18, 12:22:23
Naja zur Not kannst Du ja testen und ggf. zurückschicken wenn sie Dir zu laut sein sollte:) Frü mich war jedenfalls die Lautstärke mit die größte Überraschung nach all den Horrorgeschichten die ich im netz gelesen hatte. Meine Vorgängerkarte (3870X2) war definitiv lauter.

Gruß Sam

Dr. Cox
2010-05-18, 12:36:50
Das Problem bei der Lautstärke ist ja auch immer so eine subjektive Sache. Laut PCGH ist die GTX 470 mit 4,7 bis 4,9 Sone in Dirt sogar lauter als eine GTX 480 mit 4,6 Sone. Ich weiß da auch nicht mehr was ich glauben soll...

Könntest du vielleicht ein Video deiner GTX 470 bei YouTube bezüglich der Lautstärke hochladen?

Oder mir sagen mit wie viel Prozent der Lüfter unter Last meistens in bestimmten Spielen läuft?

Der Lüfter meiner GTX 280 ist ohne Modifikation meist bei 65-85% gelaufen, was unerträglich laut war. nach der Modifikation lief der Lüfter meist nur noch mit 45-55%, was ich durch meine Gehäusedämmung als noch erträglich empfinde.

Schlammsau
2010-05-18, 12:37:52
Naja zur Not kannst Du ja testen und ggf. zurückschicken wenn sie Dir zu laut sein sollte:) Frü mich war jedenfalls die Lautstärke mit die größte Überraschung nach all den Horrorgeschichten die ich im netz gelesen hatte. Meine Vorgängerkarte (3870X2) war definitiv lauter.

Gruß Sam

Naja....Raff hat aber gemeint, dass die Retail 470er, sogar noch lauter als die Test-Samples sein sollen. Bei den 480er ists genau umgekehrt.

Dr. Cox
2010-05-18, 12:39:22
Naja....Raff hat aber gemeint, dass die Retail 470er, sogar noch lauter als die Test-Samples sein sollen. Bei den 480er ists genau umgekehrt.

Richtig, genau das sagt auch der Grafikkartentest in der aktuellen PCGH ;)

derguru
2010-05-18, 12:42:01
das ist das phänomen wenn man sich was neues kauft und alles ist supaduba.da traue ich lieber den reviews als einzelnen personen.

Raff
2010-05-18, 12:47:08
Naja....Raff hat aber gemeint, dass die Retail 470er, sogar noch lauter als die Test-Samples sein sollen. Bei den 480er ists genau umgekehrt.

Richtig, genau das sagt auch der Grafikkartentest in der aktuellen PCGH ;)

Vollkommen richtig. :)

das ist das phänomen wenn man sich was neues kauft und alles ist supaduba.da traue ich lieber den reviews als einzelnen personen.

Finde ich gut, sehe ich natürlich auch so. Ich habe allerdings die Erfahrung gemacht, dass das "Volk" lieber Erfahrungsberichten aus den eigenen Reihen glaubt. Reviewer sind nämlich alle gekauft, während Forennutzer X garantiert kompetent und neutral ist.

MfG,
Raff

Dr. Cox
2010-05-18, 12:52:58
Ich habe allerdings die Erfahrung gemacht, dass das "Volk" lieber Erfahrungsberichten aus den eigenen Reihen glaubt. Reviewer sind nämlich alle gekauft, während Forennutzer X garantiert kompetent und neutral ist.


Nun, dann frage ich doch einmal den erfahrenen Reviewer, was nun die bessere Entscheidung wäre, die GTX 470 oder die HD 5870? Gibt es denn die Möglichkeit die GTX 470 per Undervolting wieder leiser zu bekommen, oder hat das im Gegensatz zur GTX 280 keine so große Auswirkungen mehr? Und wie laut ist eine GTX 470 eigentlich subjektiv gegenüber einer GTX 280 und einer undervolteten GTX 280?

Immerhin hattest/hast du privat ja eine GTX 280@undervolting ;)

SamLombardo
2010-05-18, 13:20:19
Das ist natürlich immer eine subjektive Einschätzung, das ist klar. Ich finde die GTX 470 (hab eine von gainward) nicht wirklich laut, auch unter Last nicht. Hier hatte ich nach den reviews wesentlich schlimmeres erwartet, zumal ich auch schon ganz andere Kaliber im Rechner hatte (zb eine X1800XT, die war laut:eek:) Ich bin aber auch nicht der Silentfeteschist, andere sind da vielleicht sensibler. Im Fall dass sie Dir zu laut ist bleibt doch immer noch das Fernabsatzgesetz:wink:

Gruß Sam

Bucklew
2010-05-18, 13:25:14
Nun, dann frage ich doch einmal den erfahrenen Reviewer, was nun die bessere Entscheidung wäre, die GTX 470 oder die HD 5870? Gibt es denn die Möglichkeit die GTX 470 per Undervolting wieder leiser zu bekommen, oder hat das im Gegensatz zur GTX 280 keine so große Auswirkungen mehr? Und wie laut ist eine GTX 470 eigentlich subjektiv gegenüber einer GTX 280 und einer undervolteten GTX 280?
Auf 470 im Customdesignearten?

vad4r
2010-05-18, 13:30:34
Vollkommen richtig. :)



Finde ich gut, sehe ich natürlich auch so. Ich habe allerdings die Erfahrung gemacht, dass das "Volk" lieber Erfahrungsberichten aus den eigenen Reihen glaubt. Reviewer sind nämlich alle gekauft, während Forennutzer X garantiert kompetent und neutral ist.

MfG,
Raff

Er hat Jehova gesagt ;D

Ich persönlich hoffe einfach, das sich die nächsten Tage, vielleicht Wochen, aber hoffentlich nicht einige Monate sich etwas tut.

Gerne möchte ich mit eine neue Graka kaufen, aber die 5870 sollten sich endlich bei 300 Euro einpendeln und/ oder die Hersteller von NV Graka können die Problematik mit eigenen Design etwas abflachen.

Überzeugen kann mich im Moment keiner....

Schön wäre übrigens eine Graka, wo das PCB nicht offen liegt - und natürlich die passenden Fotos dazu *duck&weg* :wink:

Zatoichi
2010-05-18, 13:35:16
Auch wenns dier mal wieder OT ist: Die Subjektive Lautstärke der Stock 470er ist wie die Stock 5870er. Aber auch die vielgelobten Custom Karten wie die PCS ( Hatte ich ) sind unter Last aus einem leisen Recher deutlich zu hören. Außerdem geht mit dem erhöten Takt ja der Stromspareffekt wieder über den Jordan.
Dazu muß man aber sagen, weder die 5870er noch die 470er empfinde ich als Störend. Im Idle sind beide gleich leise und unter Last hab ich Kopfhörer auf:biggrin:

Gast
2010-05-18, 17:25:06
Gerne möchte ich mit eine neue Graka kaufen, aber die 5870 sollten sich endlich bei 300 Euro einpendeln und/ oder die Hersteller von NV Graka können die Problematik mit eigenen Design etwas abflachen.


Also ich bin mir nicht ganz sicher, aber wenn ich mich nicht täusche müsste die 5870 laut AMD 379$ kosten. Da der €uro in letzter Zeit stark an Wert gegenüber dem Dollar eingebüßt ist die Preisvorstellung von 300€ unrealistisch.

379$ / 1,23 * 1,19 = 366,67€

Iruwen
2010-05-18, 19:59:30
Nun, dann frage ich doch einmal den erfahrenen Reviewer, was nun die bessere Entscheidung wäre, die GTX 470 oder die HD 5870?

Wenn du's wirklich leise willst kauf dir 'ne 5870 mit alternativer Kühlung. Das war für mich auch der ausschlaggebende Grund da ich keine Lust hatte meinen Rechner noch ewig brachliegen zu lassen bis GTX 4x0 mit besserer Kühlung (http://www.guru3d.com/article/kfa2-galaxy-geforce-gtx-470-review/1) verfügbar sind.

OgrEGT
2010-05-18, 20:22:18
Die HD 5870 hat die üblichen Probleme, wie ich sie schon bei zwei HD 4870 kennen lernen musste. Treiberbugs, alte Spiele laufen entweder schlecht oder gar nicht. Das flimmernde AF, welches mich bei der HD 4870 neben den Grey-Screen-Abstürzen zum Wahnsinn getrieben hat. Da diese Grey-Screen bei der HD 58X0-Reihe wieder vermehrt auftreten, gehe ich davon aus, dass ATI immer noch qualitative Defizite gegenüber Nvidia-Karten hat, was die verbaute Hardware angeht :(


Egal für welche Karte ich mich nun entscheide, ich ziehe in jedem Fall die wortwörtliche A-Karte :freak:

Ich weiß gar nicht was Du hast. Bei mir läuft die HD 5870 ohne Probleme auch ältere Spiele (z-B. CoD2 mit SSAA in FullHD ein Traum :))

Habe keine TreiberBugs feststellen können bisher. Keine Systemabstürze und dergleichen...

Schlammsau
2010-05-18, 20:34:51
Er hat zumindest teilweise schon recht, tendenziel macht ATi bei alten bzw nicht Mainstream Games mehr Probleme als nVidia. Was aber nicht heisst, dass nVidia absolut Bugfrei ist! Bei nVidia gibt es halt andere Fehler. Wie zB Treiber die unter Umständen, das hochregeln des Lüfters verhindern.

Ich selber hatte noch nie Probleme mit beiden Herstellern, weder Treiber- noch Spieletechnisch. Bei mir lief immer alles absolut problemlos.

Jake Dunn
2010-05-18, 20:49:39
Nun, dann frage ich doch einmal den erfahrenen Reviewer, was nun die bessere Entscheidung wäre, die GTX 470 oder die HD 5870?



Gerne möchte ich mit eine neue Graka kaufen, aber die 5870 sollten sich endlich bei 300 Euro einpendeln und/ oder die Hersteller von NV Graka können die Problematik mit eigenen Design etwas abflachen.

Überzeugen kann mich im Moment keiner....




Mich auch nicht ;(

Die GTX470 ist vom Preis (ab 318€) schon o.k. ,aber ein Heizofen und in meinen Maingames (DIRT2, CRYSIS) langsam und kein SGSSAA.

Die HD5870 ist zu teuer für das alter (nach 7Monaten teurer wie beim Release) und man bekommt jetzt die Coustomdinger nur (kein Spannungsänderung).

airbag
2010-05-18, 20:53:20
Spannung sollte man bei dem Custom Design übers BIOS machen können.

Jake Dunn
2010-05-18, 20:54:59
Spannung sollte man bei dem Custom Design übers BIOS machen können.

Will aber nicht rumflashen ^^

OgrEGT
2010-05-18, 21:07:58
Er hat zumindest teilweise schon recht, tendenziel macht ATi bei alten bzw nicht Mainstream Games mehr Probleme als nVidia. Was aber nicht heisst, dass nVidia absolut Bugfrei ist! Bei nVidia gibt es halt andere Fehler. Wie zB Treiber die unter Umständen, das hochregeln des Lüfters verhindern.

Ich selber hatte noch nie Probleme mit beiden Herstellern, weder Treiber- noch Spieletechnisch. Bei mir lief immer alles absolut problemlos.

Da muss ich Dir Recht geben. Kleinere Probleme gibt und gab es immer mit PCs diverser Konfiguration mit der ein oder anderen Software. Man darf sich aber nicht von anderen beeinflussen lassen, die mal wieder die olle Mär vom schlechteren ATI Treiber singen. Das stimmt einfach heute nicht mehr.

Ich denke egal ob man sich eine GTX 470 oder eine Radeon 5870 holt, beides sind super Grafikkarten. Im Grunde geht es doch um Kleinigkeiten, ob die eine oder andere besser ist. Was heißt eigentlich besser? Beide Karten sind für FullHD Gaming geeignet (mal mit AA mal ohne), so what. Solange das Spiel keinen Spaß macht, wird auch die tollste Grafikkarten keine Abhilfe schaffen.

Wir sollten uns alle über den Fortschritt in diesem Sektor freuen. Ich kann mich noch an andere Zeiten erinnern... (15 Zoll Röhre mit Voodoo1 und S3 Virge bei 640x480) Können heute nur noch die Älteren hier nachvollziehen was damals Quake1 auch mit diesen Settings für einen Höllenspaß gemacht hat :biggrin:

Ich bin persönlich voll zufrieden mit meiner Karte freue mich aber auch schon auf die nächsten Generationen.

Reneeeeeee
2010-05-18, 22:12:33
..............

svenw
2010-05-20, 11:46:13
Anscheinend ist die Powercolor 5870 LCS einen stillen Tod gestorben. Sie ist jedenfalls nicht mehr zu finden auch wenn sie bei Powercolor noch aufgeführt ist. ;(

Ich verstehe das nicht, gerade jetzt wo immer mehr verschiedene 5870er Karten auf den Markt kommen ist so ein besonderes Produkt doch etwas hervorstechendes Ich hoffe mal, das nur die Dirt 2 Edition gestorben ist und die Karte mit neuem Spiel und höher übertaktet wieder auf den Markt kommt. Der Wasserkühler sollte jedenfalls weiteren Übertaktungen nicht im Weg stehen.

Raff
2010-05-20, 12:49:41
Ich verstehe das nicht, gerade jetzt wo immer mehr verschiedene 5870er Karten auf den Markt kommen ist so ein besonderes Produkt doch etwas hervorstechendes Ich hoffe mal, das nur die Dirt 2 Edition gestorben ist und die Karte mit neuem Spiel und höher übertaktet wieder auf den Markt kommt. Der Wasserkühler sollte jedenfalls weiteren Übertaktungen nicht im Weg stehen.

Ich spekuliere spontan darauf, dass Powercolor auch die HD 5870 LCS mit einem Custom-PCB herausbringen möchte. Der Umschwung auf die Eigendesigns ist in vollem Gange. Die ursprüngliche LCS nutzt das AMD-PCB, welches höchstwahrscheinlich teurer als eine Eigenplatte ist.

MfG,
Raff

OgrEGT
2010-05-21, 18:04:01
Anscheinend ist die Powercolor 5870 LCS einen stillen Tod gestorben. Sie ist jedenfalls nicht mehr zu finden auch wenn sie bei Powercolor noch aufgeführt ist. ;(

Ja, denn jetzt gibt es die 5870 PCS++ :)

http://www.alternate.de

Die hat noch höhere Taktraten 950/1200 vs. 875 1225, aber soweit man auf Bildern sehen kann die gleiche Kühlkonstruktion.

Alternate hat auch noch die PCS+ lieferbar.

Raff
2010-05-21, 19:05:49
Die haben aber beide keinen Wasserkühler. ;)

MfG,
Raff

Schlammsau
2010-05-21, 19:30:58
Ich habe meine 5850 (Referenzdesign) mit 1,185VGPU (+0,1V) jetzt absolut totenstill.
Ich bin einfach schwer begeistert von den beiden Teilen!

Thermalright VRM-R4 VRM-Kühler
http://p.gzhls.at/521798.jpg

Arctic Cooling Accelero Twin Turbo Pro
http://p.gzhls.at/482525.jpg

Beim zocken 60° GPU (21% Lüfterdrezahl), und die gleiche Temp auf den VRMs. Einfach der Hammer, man hört absolut gar nichts! :biggrin:

http://www.abload.de/img/sdc10304i1ai.jpg

airbag
2010-05-21, 19:45:31
@Schlammsau
Das Gehäuse ist aber ständig offen ?

Schlammsau
2010-05-21, 19:48:12
@Schlammsau
Das Gehäuse ist aber ständig offen ?

Nö warum? Ist zu und sogar in meinem Fernsehregal total verbaut.

sieht bei mir so aus. :)

airbag
2010-05-21, 19:50:17
Ich habe gedacht, dass in ein LC17 kein Brocken reinpassen würde.
Schon mal positiv überrascht zu werden . :)

Schlammsau
2010-05-21, 19:54:55
LOL.... http://www.sysprofile.de/id64079

momentan siehts so aus.

http://www.abload.de/img/sdc10307l1p6.jpg

Bucklew
2010-05-21, 20:06:55
Die "Erwachsenenfilme" dürfen wir nicht sehen:whisper:

Iruwen
2010-05-22, 00:57:24
Ich habe meine 5850 (Referenzdesign) mit 1,185VGPU (+0,1V) jetzt absolut totenstill.
Ich bin einfach schwer begeistert von den beiden Teilen!

Thermalright VRM-R4 VRM-Kühler
http://p.gzhls.at/521798.jpg

Arctic Cooling Accelero Twin Turbo Pro
http://p.gzhls.at/482525.jpg

Beim zocken 60° GPU (21% Lüfterdrezahl), und die gleiche Temp auf den VRMs. Einfach der Hammer, man hört absolut gar nichts! :biggrin:

http://www.abload.de/img/sdc10304i1ai.jpg

Wären wahrscheinlich noch ein paar Grad weniger wenn du deine Kabel mal ordentlich verlegen würdest :tongue:

Gast
2010-05-22, 08:59:45
[QUOTE=Jake Dunn;8034001]Mich auch nicht ;(

Die GTX470 ist vom Preis (ab 318€) schon o.k. ,aber ein Heizofen und in meinen Maingames (DIRT2, CRYSIS) langsam und kein SGSSAA.



natürlich SGSSAA...und 30% OC geht locker...was natürlich blöde ist sind die temps und Lautstärke...aber irgendwann kommt jeder mit "halbwegs" highend zur WaKÜ und wenn man dies nicht übertreibt ist das eine 1x Anschaffung von 500€ was absolut WAKÜ Highend ist und man hat Ruhe.

Dr.Dirt
2010-05-22, 12:49:33
Anscheinend ist die Powercolor 5870 LCS einen stillen Tod gestorben. Sie ist jedenfalls nicht mehr zu finden auch wenn sie bei Powercolor noch aufgeführt ist. ;(
Find ich auch sehr schade, daß sie schon EOL ist.

Da hab ich im April ja noch Glück gehabt, eine zu bekommen, eigentlich wollte ich erst später bestellen.

OgrEGT
2010-05-23, 22:11:41
Die haben aber beide keinen Wasserkühler. ;)

MfG,
Raff

Stimmt...

Irgendwie hab ich PCS und nicht LCS gelesen :freak:

Tarkin
2010-05-25, 08:53:51
Splinter Cell: Conviction - Gameplay Performance and IQ (http://hardocp.com/article/2010/05/24/splinter_cell_conviction_gameplay_performance_iq/5)

(würde auch in den entsprechenden 470/480 Thread passen)

5870 und 5850 vs. 480 und 470

Best Performer: The Radeon HD 5870 and the GeForce GTX 480 performed equally well in Splinter Cell: Conviction, so there is no single best performer in this evaluation although the 5870 does it for quite a bit less money.

... und nicht nur für weniger Money, wenn ich etwas anmerken darf ;-)

Best Value: The best value in the four video cards in this evaluation must be the AMD/ATI Radeon HD 5850. It performed just as well as the GeForce GTX 470, but costs about $50 less.

Gast
2010-05-25, 20:55:43
... und nicht nur für weniger Money, wenn ich etwas anmerken darf ;-)



Nein, natürlich auch weniger Bildqualität, wenn ich das anmerken darf ;-)

PingpiN
2010-05-25, 21:49:33
Nein, natürlich auch weniger Bildqualität, wenn ich das anmerken darf ;-)
:freak:

Bucklew
2010-05-27, 12:24:29
Laut Fudzilla keine HD5890:

At this time, ATI usually releases a 'kicker' card, a faster version of existing architecture, but at this time they still haven’t done it.

There are a few reasons and the most important one is that Radeon HD 5970 is the fastest card on the market and currently the only DirectX 11 dual-chip card. The second reason is that RV870 chip doesn’t offer much overclocking space and even when overclocked it doesn’t deliverer major performance increase.
http://www.fudzilla.com/content/view/18956/1/

Man schafft es also wohl scheinbar nicht mit dem rv870 den GF100 in der reinen Performance zu schlagen.

Gast
2010-05-27, 12:31:16
Man schafft es also wohl scheinbar nicht mit dem rv870 den GF100 in der reinen Performance zu schlagen.
Das hat wohl auch niemand erwartet, oder?
GF100 ist neuer, größer usw...
Also zaubern kann AMD auch nicht :tongue:

Raff
2010-05-27, 12:42:29
Die "HD 5890" wird gerade von einigen Partnern gebaut: HD 5870 Super Overclock und HD 5870 PCS++, anyone?

MfG,
Raff

Botcruscher
2010-05-27, 12:57:39
Laut Fudzilla keine HD5890:


Wozu auch? Im Herbst stehen ganz neue Chips an.

Iruwen
2010-05-27, 13:52:15
"Man schafft es also wohl scheinbar nicht mit dem rv870 den GF100 in der reinen Performance zu schlagen."

Nichts anderes hat er gesagt. Dass du das gleich als "Gebashe" empfindest und so abgehst ist auch bezeichnend.

Bucklew
2010-05-27, 14:04:30
Surprise, Suprise ... wer hätte das gedacht :freak:
Da gab es einige, die behauptet hatten, dass ATI den Fermi mit einem kleinen RV870-Refresh mit mehr Takt kontern würde - ich denke mal du warst auch einer davon, auch wnen ich jetzt keine Lust hab nachzusuchen ;)

Ach so, ich vergaß... Cypress ist 40% kleiner, kam 6 Monate früher, braucht 40% weniger Saft und ist praktisch auf Augenhöhe mit den Fermis.
20% weniger Leistung ist also "praktisch auf Augenhöhe" ;D;D

Demzufolge ist GT200 auch praktisch auf Augenhöhe mit Cypress? ;)

Nvidia's GTX 470 is not a hit (http://www.fudzilla.com/content/view/18939/65/) - Wednesday, 26 May 2010 10:33
Liest du eigentlich, was du da verlinkt? :)

"It has been selling well, but the Geforce GTX 465 should sell much better."

Gab es hier nicht ein paar Experten, die behauptet haben, dass die Nachfrage nach Fermi verdammt mies ist? Aber waren eh nur die üblichen Experten, erneut wiederlegt ;D

DrFreaK666
2010-05-27, 14:10:43
Vergleichen mit der GTX470 ist die HD5870 auf Augenhöhe

Bucklew
2010-05-27, 14:12:29
Vergleichen mit der GTX470 ist die HD5870 auf Augenhöhe
Wayne? Vollausbau Cypress vs. geschnittener Fermi, was sagt das über die Leistungsfähigkeit der Chips aus? Außer natürlich nichts?

DrFreaK666
2010-05-27, 14:14:52
Wayne? Vollausbau Cypress vs. geschnittener Fermi, was sagt das über die Leistungsfähigkeit der Chips aus? Außer natürlich nichts?

imho macht es nur Sinn gleichteure Grafikkarten zu vergleichen

Bucklew
2010-05-27, 14:16:58
imho macht es nur Sinn gleichteure Grafikkarten zu vergleichen
Was hat der Preis mit der Größe des Chips und der daraus resultierenden Leistung zu tun? Außer natürlich nichts?

Ich kann natürlich auch die Leistungsfähigkeit von Cypress an einer HD5830 festmachen, sagt aber dennoch nichts über Cypress aus :rolleyes:

DrFreaK666
2010-05-27, 14:20:53
Was hat der Preis mit der Größe des Chips und der daraus resultierenden Leistung zu tun? Außer natürlich nichts?

Ich kann natürlich auch die Leistungsfähigkeit von Cypress an einer HD5830 festmachen, sagt aber dennoch nichts über Cypress aus :rolleyes:

Zeige mir eine Fermi-Graka, die genauso leise, relativ kühl und wenig Strom verbraucht.
Das müsste ja irgendwie möglich sein (untertakten, weniger Einheiten)...
Dann sieht man wie leistungsfähig der Chip wirklich ist bei gleichen Bedingungen.

Gast
2010-05-27, 14:22:44
Liest du eigentlich, was du da verlinkt? :)

"It has been selling well, but the Geforce GTX 465 should sell much better."

Gab es hier nicht ein paar Experten, die behauptet haben, dass die Nachfrage nach Fermi verdammt mies ist? Aber waren eh nur die üblichen Experten, erneut wiederlegt ;D

Verstehst du eigentlich, was du da zitierst?

"We are hearing that Geforce GTX 470 is not so popular after all. It has been selling well, but the Geforce GTX 465 should sell much better."

Noch dazu eine Satz aus dem Kontext reisen ist schon arm.

Bucklew
2010-05-27, 14:25:45
Zeige mir eine Fermi-Graka, die genauso leise, relativ kühl und wenig Strom verbraucht.
Das müsste ja irgendwie möglich sein (untertakten, weniger Einheiten)...
Dann sieht man wie leistungsfähig der Chip wirklich ist bei gleichen Bedingungen.
Hast du gestern in der News gefunden:
http://www.3dcenter.org/news/2010-05-26

Blöd nur: Es gibt von ATI nichts vergleichbares.

Verstehst du eigentlich, was du da zitierst?

"We are hearing that Geforce GTX 470 is not so popular after all. It has been selling well, but the Geforce GTX 465 should sell much better."

Noch dazu eine Satz aus dem Kontext reisen ist schon arm.
Die GTX470 verkauft sich gut und die 465 soll sich noch besser verkaufen. Wo ist da jetzt das Problem? Gab vorallem einen Experten hier, der immer erzählt hat die Nachfrage nach Fermi wäre gering. Das ist aber damit als Quatsch entlarvt. Warum Fudzilla unbedingt so einen Quatsch davor schreibt: keine Ahnung. Wieso sollte eine gut verkaufende Grafikkarte unpopulär sein?

DrFreaK666
2010-05-27, 14:27:15
Hast du gestern in der News gefunden:
http://www.3dcenter.org/news/2010-05-26

Blöd nur: Es gibt von ATI nichts vergleichbares.

Was habe ich gestern in den News gefunden?

Bucklew
2010-05-27, 14:30:25
Was habe ich gestern in den News gefunden?
Eine Fermi mit 100W TDP. Zeigst du mir den entsprechenden Cypresschip?

DrFreaK666
2010-05-27, 14:31:36
Eine Fermi mit 100W TDP. Zeigst du mir den entsprechenden Cypresschip?

Vielleicht hat AMD kein Interesse an stromfressenden mobilen Grafikchips??
Schau dir doch mal die letzten Chips an.
Fällt dir was auf?

Bucklew
2010-05-27, 14:34:25
Vielleicht hat AMD kein Interesse an stromfressenden mobilen Grafikchips??
Oder sie können Cypress nicht auf dieses Niveau kriegen? Genauso wenig wie sie es schaffen einen Cypress auf dem Leistungsniveau eines Fermis zu bauen? Stimmt! Und mehr habe ich nicht gesagt. Daher können wir die Diskussion auch lassen.

DrFreaK666
2010-05-27, 14:37:37
Oder sie können Cypress nicht auf dieses Niveau kriegen? Genauso wenig wie sie es schaffen einen Cypress auf dem Leistungsniveau eines Fermis zu bauen? Stimmt! Und mehr habe ich nicht gesagt. Daher können wir die Diskussion auch lassen.

Nehmen wir mal die News von gestern:
Mobility Radeon HD 5870 50W TDP - Niveau Radeon HD 5750 bzw. GeForce GTS 250
GeForce GTX 480M 100W TDP - Niveau GeForce GTX 260

Also ca. 30% mehr FPS bei 100% mehr Leistungsverbrauch.
Sehr effizient ^^
Wieso sollte das AMD nicht schaffen?? :biggrin:

airbag
2010-05-27, 14:38:34
Eine Fermi mit 100W TDP. Zeigst du mir den entsprechenden Cypresschip?
Und wo ist jetzt das Gute daran ?
Eine mobile Karte mit einer TDP von 100W, die direkter Konkurent zur HD5870M mit 50W TDP sein soll. :rolleyes:

edit:
Bei den Taktraten gehe ich mal sogar davon aus, dass die GTX480M nicht mal die leistung einer GTX260 erreicht.

Gast
2010-05-27, 14:39:12
Nehmen wir mal die News von gestern:
Mobility Radeon HD 5870 50W TDP - Niveau Radeon HD 5750 bzw. GeForce GTS 250
GeForce GTX 480M 100W TDP - Niveau GeForce GTX 260

Also ca. 30% mehr FPS bei 100% mehr Leistungsverbrauch.
Sehr effizient ^^
Wieso sollte das AMD nicht schaffen?? :biggrin:

Noch dazu ist die News viel zu optimistisch. Die GTX480M wird mit dem Specs kaum schneller sein als eine M5870.

Bucklew
2010-05-27, 14:40:26
Er schreibt das sie nicht so populär ist und in der Überschrift nochmal fett und eindeutig das die Karte kein Hit ist. Der darauf folgende Satz dient offensichtlich nur der Relativierung. Ich hätte gedacht du kannst eine Kontext richtig interpretieren.
Und was ändert das jetzt daran, dass sich die Karte dennoch gut verkauft? 400.000 Fermichips anfang des Monats sprechen (besonders in dieser Leistungs- und Preisklasse) eine sehr eindeutige Sprache. Das die wirklichen Hitkarten erst in der Mittelklasse kommen (GF104) ist vollkomen logisch.

Du schaffst es immer wieder mich negativ zu überraschen. Ich verstehe nicht warum die Moderation dich und dein nicht vorhandenes Niveau hier zulässt.
Ganz einfach: Weil es zu 99% solche Gäste wie du sind, die es nicht schaffen sachlich zu sein und daher rumflamen müssen und sich nicht trauen sich hier zu registrieren, weil sie dann aus der Anonymität heraustreten müssten und nach 2 Wochen eh gebannt wären. Deshalb.

Bucklew
2010-05-27, 14:42:41
Wieso sollte das AMD nicht schaffen?? :biggrin:
Schaffen sie es denn? Gibt es einen Konkurrenzchip zum Fermi? Nein.

Hätte, wäre, sollte, könnte - wie wäre es denn mal mit weniger Konjunktiv und mehr Fakten. Und Fakt ist: ATI hat NICHT den schnellsten Chip und schafft es auch nicht ihn zu bauen, weder Desktop noch Mobil. Punkt.

Alles andere sind nur blöde Ausreden, um sich die Welt schön zu reden. Das ein Ferrari nunmal mehr Sprit schluckt als ein Lupo ist logisch.

Und wo ist jetzt das Gute daran ?
Eine mobile Karte mit einer TDP von 100W, die direkter Konkurent zur HD5870M mit 50W TDP sein soll. :rolleyes:
Nein, die Karte ist konkurrenzlos, ATIs Mobilchips beginnen erst eine ganze Klasse darunter. Gegen die HD5870M wird ein GF104-Ableger antreten.

DrFreaK666
2010-05-27, 14:48:25
Schaffen sie es denn? Gibt es einen Konkurrenzchip zum Fermi? Nein.

Hätte, wäre, sollte, könnte - wie wäre es denn mal mit weniger Konjunktiv und mehr Fakten. Und Fakt ist: ATI hat NICHT den schnellsten Chip und schafft es auch nicht ihn zu bauen, weder Desktop noch Mobil. Punkt.

Alles andere sind nur blöde Ausreden, um sich die Welt schön zu reden. Das ein Ferrari nunmal mehr Sprit schluckt als ein Lupo ist logisch.

...

Und wieso sollte es im AMDs Interesse sein stromfressende Chips in Notebooks zu bauen?

Bucklew
2010-05-27, 14:52:55
Und wieso sollte es im AMDs Interesse sein stromfressende Chips in Notebooks zu bauen?
Weil es in ihrem Interesse liegt Geld zu verdienen?

Und was hat das jetzt (endgültig) mit dem Thread zu tun? Können wir nicht einfach mal das o.t. lassen und einfach den Fakt anerkennen, dass es ATI nicht schafft einen zum Fermi aus Performancesicht identischen Chip zu bauen? Dann führen wir den Thread wenigstens nicht endgültig ad absurdum...

DrFreaK666
2010-05-27, 14:53:54
Weil es in ihrem Interesse liegt Geld zu verdienen?

Und was hat das jetzt (endgültig) mit dem Thread zu tun? Können wir nicht einfach mal das o.t. lassen und einfach den Fakt anerkennen, dass es ATI nicht schafft einen zum Fermi aus Performancesicht identischen Chip zu bauen? Dann führen wir den Thread wenigstens nicht endgültig ad absurdum...

LOL ;D

Wo bleiben deine verlinkten (P)Reviews?

Gast
2010-05-27, 14:54:56
Und wieso sollte es im AMDs Interesse sein stromfressende Chips in Notebooks zu bauen?

So ist es. Der Markt für Notebook-Chips >50W ist nicht vorhanden. Aber wenn NV sich bei diesem imaginären Duell unbedingt blamieren will dann sollen sie halt.

Gast
2010-05-27, 14:56:08
Können wir nicht einfach mal das o.t. lassen
Ja, sehr gern :)

und einfach den Fakt anerkennen, dass es ATI nicht schafft einen zum Fermi aus Performancesicht identischen Chip zu bauen?
Identischen?
Ich glaube du hast dich bei der Wortwahl vertan... :tongue:
Aus Performancesicht ist ein Cypress einem Fermi ähnlich, aber nicht identisch, lol.

Bucklew
2010-05-27, 14:56:37
LOL ;D

Wo bleiben deine verlinkten (P)Reviews?
Preview: Keine HD5890 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8049779&postcount=2652) ;)

Identischen?
Ich glaube du hast dich bei der Wortwahl vertan... :tongue:
Identisch - gleich schnell.

Aus Performancesicht ist ein Cypress einem Fermi ähnlich, aber nicht identisch, lol.
Eben, er ist langsamer. Das wurde aber als "Gebashe" von ATI aufgefasst, von den üblichen Experten. Schon echt blöd, wenn die reinen Fakten gebashe ist, da würd ich mir als Firma echt Sorgen machen... :rolleyes:

DrFreaK666
2010-05-27, 15:00:29
Preview: Keine HD5890 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8049779&postcount=2652) ;)


Identisch - gleich schnell.


Eben, er ist langsamer. Das wurde aber als "Gebashe" von ATI aufgefasst, von den üblichen Experten. Schon echt blöd, wenn die reinen Fakten gebashe ist, da würd ich mir als Firma echt Sorgen machen... :rolleyes:

Die 5970 ist schneller als die GTX480 und verbraucht stellen weise weniger Strom.
Sie hat halt das MR-Problem.
Sie zeigt aber auch, dass AMD sehr wohl die Möglichkeiten und das Know-How hat

Bucklew
2010-05-27, 15:02:23
Die 5970 ist schneller als die GTX480 und verbraucht stellen weise weniger Strom.
Sie hat halt das MR-Problem.
Sie zeigt aber auch, dass AMD sehr wohl die Möglichkeiten und das Know-How hat
Und jetzt auch noch 2 Chips vs. 1 Chip :facepalm:

Egal wie oft du es jetzt mit irgendwelchen bescheuerten und dämlichen Vergleichen wiederholst: Cypress ist langsamer als Fermi.

DrFreaK666
2010-05-27, 15:03:55
...Cypress ist langsamer als Fermi.

Fermi ist lauter, heisser und frisst mehr Strom als Cypress

Gast
2010-05-27, 15:07:09
Die 5970 ist schneller als die GTX480 und verbraucht stellen weise weniger Strom.
Sie hat halt das MR-Problem.
Sie zeigt aber auch, dass AMD sehr wohl die Möglichkeiten und das Know-How hat
Wiedersprichst du dir gerne?

Seis drum Performance ist irrelevant.
Wichtig ist was hinten raus kommt, also BQ.
FPS kannnst du dir in die Haare schmieren, wer FPS will nimmt sich irgendeine uralt Karte und verzichtet auf BQ.

DrFreaK666
2010-05-27, 15:09:43
Wiedersprichst du dir gerne?

Seis drum Performance ist irrelevant.
Wichtig ist was hinten raus kommt, also BQ.
FPS kannnst du dir in die Haare schmieren, wer FPS will nimmt sich irgendeine uralt Karte und verzichtet auf BQ.

Sie ist ja schneller, nur die Bildausgabe ist unregelmäßig.
Daher sieht es aus als würde es ruckeln

Gast
2010-05-27, 15:20:09
Identisch - gleich schnell.

Gleich schnell ist nicht mal Fermi vs Fermi (GTX 470 vs GTX 480).

Abgesehen davon, es ist unwahrscheinlich, dass eine GPU von AMD mit einer GPU von Nvidia überall gleich schnell ist, weil die Architekturen einfach unterschiedlich sind.

Fermi und Cypress sind in einer Performanceliga, ja. Gleich schnell, nein.

N0Thing
2010-05-27, 15:21:36
Schaffen sie es denn? Gibt es einen Konkurrenzchip zum Fermi? Nein.

Nicht haben und nicht schaffen sind zwei Paar Schuhe. ;)


Hätte, wäre, sollte, könnte - wie wäre es denn mal mit weniger Konjunktiv und mehr Fakten. Und Fakt ist: ATI hat NICHT den schnellsten Chip und schafft es auch nicht ihn zu bauen, weder Desktop noch Mobil. Punkt.

Um bei den Fakten zu bleiben: ATI hat nicht den schnellsten Chip. Ob sie es auch nicht schaffen einen solchen zu bauen, ist reine Spekulation, kein Fakt. Dafür müßte man schon zusätzliche Parameter bestimmen (einen Zeitraum z.B.), um eine halbwegs falsifizierbare Aussage zu treffen.

Gast
2010-05-27, 15:42:30
Sie ist ja schneller, nur die Bildausgabe ist unregelmäßig.
Daher sieht es aus als würde es ruckeln
Dann wirst du zustimmen das die Aussage schneller bedeutungslos ist.
Als ob du nach Hubraum gehst, während dir die Leistung egal ist.

Gast
2010-05-27, 15:45:47
Um bei den Fakten zu bleiben: ATI hat nicht den schnellsten Chip. Ob sie es auch nicht schaffen einen solchen zu bauen, ist reine Spekulation, kein Fakt. Dafür müßte man schon zusätzliche Parameter bestimmen (einen Zeitraum z.B.), um eine halbwegs falsifizierbare Aussage zu treffen.
Fakt ist, das AMD den High-End Bereich aufgegeben hat. Nein, sie wollen ihn seit längerem mit MGPU Gülle ausnehmen.
Die Fans feiern es, denn nun haben sie einen kleinen Performancechip den sie gegen den High-End Chip der Konkurrenz stellen.

Fairerweise ist ein 1zu1 Vergleich unzulässig, es können nur noch Produkte, z.b. GTX 470 und 5870 verglichen werden, aber die Fans stört das absolut nicht, es wird verglichen was einem gerade in den Sinn kommt.

LovesuckZ
2010-05-27, 15:52:24
Abgesehen von den lutigen Diskussionen in diesem Forum, finde ich da sbezeichnend:


Unter SSAA ist ein Cypress meistens schneller, dabei leiser, kühler und energieeffizienter.


Ein Setting, dass kein ehemaliger AMD Kunde vor Cypress nutzt. Hier müssen wir 8xMSAA und LQ-AF als vergleichheranziehen und sehen, dass Cypress nicht schneller ist.
Was mit SSAA ist, spielt für diese Kunden keine Rolle.

Die "HD 5890" wird gerade von einigen Partnern gebaut: HD 5870 Super Overclock und HD 5870 PCS++, anyone?

MfG,
Raff

Sind die nicht vollkommen belanglos für den Markt? 70 Watt für 2-3% mehr Leistung gegenüber einer normalen 5870. Dazu kommen sie noch mit 1GB oder kosten mit 2GB fast mehr als eine GTX480.
Zur GTX470 sind es 50-60€ bei fast identischem LASTverbrauch und 15% mehr Leistung...

Gast
2010-05-27, 16:03:12
Ein Setting, dass kein ehemaliger AMD Kunde vor Cypress nutzt. Hier müssen wir 8xMSAA und LQ-AF als vergleichheranziehen und sehen, dass Cypress nicht schneller ist.
Was mit SSAA ist, spielt für diese Kunden keine Rolle.
Sag mal... bist du des Lesens mächtig? :confused:
Bucklew hat geschrieben, dass Fermi schneller als Cypress ist.
Ich habe nur geschrieben, dass man daraus keine Pauschalaussage machen kann, da unter bestimmten Aspekten Cypress schneller ist.
SSAA habe ich als Beispiel gewählt, da hier im Forum sehr auf BQ geachtet wird, was ich sehr gut finde. :)

airbag
2010-05-27, 16:07:52
Wo wir schon bei lustigen Fudzilla News sind

Geforce GTX 465 off to a bad start - Wednesday, 26 May 2010 10:23

Nur das die GTX465 in anderen Test besser abschneiden wird. (naja ist aber dann immer noch eini kleiner Krüppel )
Einfach mal die Settings eingucken die Xbitlabs gewählt hat. Zudem kommen noch die ATIbevorzugenderen Szenen hinzu.

edit:
Ein Setting, dass kein ehemaliger AMD Kunde vor Cypress nutzt.
Da gab es doch mal einen kleinen Bug, was SSAA unter OpenGl erlaubte, sowie ein Tool vor ein paar Jahren aus dem 3dc.
Zudem ändert es nicht an der Aussage, dass Fermi stärker als Cypress unter SSAA einbricht.

Bucklew
2010-05-27, 16:14:52
Fermi ist lauter, heisser und frisst mehr Strom als Cypress
Wie kann denn ein Grafikchip laut sein? ;) Und nochmal: Das widerlegt meine Aussage nicht, über Leistungsaufnahme oder Temperaturen habe ich nicht geredet, nur über Performance.

Fermi und Cypress sind in einer Performanceliga, ja. Gleich schnell, nein.
Für mich sind 20% keine gleiche Liga mehr ;) Fermi ist eine Stufe drüber, deshalb kämpft ja auch der kleine Fermiableger mit der größten Cypresskarte.

Nicht haben und nicht schaffen sind zwei Paar Schuhe. ;)
Fudzilla schreibt eindeutig: Nicht schaffen.

Eine pauschale Aussage ist nicht möglich, auch wenn es schön wäre, weil du uns dann mit deinen sinnlosen Beiträgen verschonen würdest... :rolleyes:
Eine pauschale Aussage bezieht sich eben auf einen Großteil der Anwendungsgebiete. Wenn Fermi in 95 von 100 Fälle schneller ist, ist er der schnellere Chip.

Gast
2010-05-27, 16:19:04
Für mich sind 20% keine gleiche Liga mehr ;)
Echt nicht?
20% sind aber nicht die Welt.
Für mich ist eine 5850 und eine 5870 noch knapp in einer Performanceliga, obwohl die 5870 ca 30% schneller ist.
Ist wohl Ansichtssache :)

LovesuckZ
2010-05-27, 16:22:38
Da gab es doch mal einen kleinen Bug, was SSAA unter OpenGl erlaubte, sowie ein Tool vor ein paar Jahren aus dem 3dc.

SSAA wurde von dieser Käufergruppe wie jedes andere, nicht AMD Features behandelt: Unnötig. Dabei bot eine GTX260 z.B. wesentlich mehr als eine 4870. Trotzdem wurde die 4870 mit 10.1 oder 8xMSAA meistens als besser hingestellt. Logik? Aus der heutigen Betrachtung, nein.


Zudem ändert es nicht an der Aussage, dass Fermi stärker als Cypress unter SSAA einbricht.

Natürlich verliert GF100 mehr, weil GF100 auch über weniger Texturleistung verfügt. Das ist keine Schwäche, wie es vom viralen Marketingteam herausposaunt wird. Eine GTX480 ist mit 16xOGSSAA auch langsamer als eine GTX280.
Interessant sind da Untersuchungen, inwieweit GF100 und Cypress mit 2xSGSSAA und 4xSGSSAA einbrechen. Hier könnte der Einbruch ähnlich verlaufen.

Gast
2010-05-27, 16:23:17
Eine pauschale Aussage bezieht sich eben auf einen Großteil der Anwendungsgebiete. Wenn Fermi in 95 von 100 Fälle schneller ist, ist er der schnellere Chip.
Wenn Cypress bei bester BQ (also SSAA) in dem meisten Fällen schneller als Fermi ist.
Ist dann Cypress bei möglichst guter BQ immer schneller als Fermi?
Fragen über Fragen...

airbag
2010-05-27, 16:31:00
SSAA wurde von dieser Käufergruppe wie jedes andere, nicht AMD Features behandelt: Unnötig. Dabei bot eine GTX260 z.B. wesentlich mehr als eine 4870. Trotzdem wurde die 4870 mit 10.1 oder 8xMSAA meistens als besser hingestellt. Logik? Aus der heutigen Betrachtung, nein.
Leider. :(
Habe mir damals ja nicht umsonst ne GTX260 gekauft und weis sie zu schätzen :D
(naja die HD4k waren/sind wirklich nicht der Knaller gewesen. Habe zwar keine HD4870 aber ne HD4850 mit der der ich direkt vergleichen kann. --> war ein Geschenk^^)
Interessant sind da Untersuchungen, inwieweit GF100 und Cypress mit 2xSGSSAA und 4xSGSSAA einbrechen. Hier könnte der Einbruch ähnlich verlaufen.
Warten wird einfach mal den Test voN Loli ab . Vielleicht testet er es auch noch. :)

Bucklew
2010-05-27, 16:32:01
Wenn Cypress bei bester BQ (also SSAA) in dem meisten Fällen schneller als Fermi ist.
Ist dann Cypress bei möglichst guter BQ immer schneller als Fermi?
Fragen über Fragen...
Und warum kauf ich mir eine Dx11-Karte, wenn ich eh nur DX9-Spiele schneller zocken kann? Wo ist da denn der Sinn?

Gast
2010-05-27, 16:41:02
Und warum kauf ich mir eine Dx11-Karte, wenn ich eh nur DX9-Spiele schneller zocken kann? Wo ist da denn der Sinn?
Bei DX10/11 Spielen ist ja schon manchmal mit MSAA eng.
Lieber SSAA unter DX9 und spielbar als SSAA unter DX10/11 und nicht spielbar. :)
Oder wie siehst du das?
In der Praxis ist DX9+SSAA sicherlich in mehr Fällen spielbar als DX10/11 und SSAA.
Bei gleicher Grundperformance natürlich. :)

y33H@
2010-05-27, 16:41:46
Weil die schnellste DX9-Karte eine X1950 XTX ist? ;)

Gast
2010-05-27, 16:47:28
Weil die schnellste DX9-Karte eine X1950 XTX ist? ;)
Für SSAA reicht die Performance aber sicherlich nicht aus...
Abgesehen davon, dass es mit SSAA und einer X1950XT nicht funktionieren wird :tongue:

Lass uns doch wenigstens bei Cypress und Fermi bleiben, sonst driftet die Diskussion unnötig ab. :)

Gast
2010-05-27, 16:48:11
Lieber SSAA unter DX9 und spielbar als SSAA unter DX10/11 und nicht spielbar. :)
Seit Jahren können Geforce Besitzer in D3D9 SSAA nutzen.

Bucklew
2010-05-27, 16:52:32
Bei DX10/11 Spielen ist ja schon manchmal mit MSAA eng.
Und wofür kaufe ich mir sonst eine DX11-Karte, wenn nicht für DX11-Spiele? Warum sollte ich eine Kaufentscheidung für eine Grafikkarte an der vorletzten DX-Generation festmachen, anstelle der aktuellen? Ich kaufe mir eine Grafikkarte für Heute und Morgen, aber nicht für Gestern.

Gast
2010-05-27, 16:53:45
Seit Jahren können Geforce Besitzer in D3D9 SSAA nutzen.
Ja klar.
Zur Zeit ist aber die Diskussion zu SSAA@Fermi vs SSAA@Cypress das Thema. :)

Raff
2010-05-27, 16:53:47
Ich kaufe mir eine Grafikkarte für Heute und Morgen, aber nicht für Gestern.

Ich schon. Hochwertiges Anti-Aliasing ist gerade bei älteren Spielen sehr geil (weil flüssig/er nutzbar).

MfG,
Raff

Gast
2010-05-27, 16:55:44
Und wofür kaufe ich mir sonst eine DX11-Karte, wenn nicht für DX11-Spiele? Warum sollte ich eine Kaufentscheidung für eine Grafikkarte an der vorletzten DX-Generation festmachen, anstelle der aktuellen? Ich kaufe mir eine Grafikkarte für Heute und Morgen, aber nicht für Gestern.
Und was bringt dir SSAA unter DX10/11, wenn die verfügbaren Grakas dafür meistens zu lahm sind?
Bei DX9 sieht es ja anders aus. Hier sind die Grakas mittlerweile schnell genug.

Was zählt ist Praxis und nicht Theorie. :)

Nakai
2010-05-27, 16:58:18
Und wofür kaufe ich mir sonst eine DX11-Karte, wenn nicht für DX11-Spiele?

Ich kann jede HD5870 und GTX480 selbst mit alter Software in die Knie zwingen. Wie sieht es dann erst mit moderner Software aus? Weder ATI noch NV liefern derzeit eine Karte die DX11 in unglaublicher Pracht dastellen können. Das dauert noch...evtl bis DX12.;)

Und ja Tesselation scheint leicht einzusetzen zu sein. Die Gefahr von dilettantischer Durchsetzung ist da leider sehr groß.

Ich kaufe mir eine Grafikkarte für Heute und Morgen, aber nicht für Gestern.

Viele DX9 und DX10-Spiele sind noch topaktuell...und das wird sich auch nicht so schnell ändern.


mfg

Gast
2010-05-27, 17:00:03
Ja klar.
Zur Zeit ist aber die Diskussion zu SSAA@Fermi vs SSAA@Cypress das Thema. :)
Macht deine Aussage nicht sinniger:

Lieber SSAA unter DX9 und spielbar als SSAA unter DX10/11 und nicht spielbar. :)

Du erweckt den Eindruck, als ob man mit einer Geforce unter D3D9 nichts geboten bekommt und deshalb die Redeon unangefochten im Rampenlicht steht.

Bucklew
2010-05-27, 17:08:11
Ich schon. Hochwertiges Anti-Aliasing ist gerade bei älteren Spielen sehr geil (weil flüssig/er nutzbar).
Daran merkt man das man alt wird, wenn man langsam nostalgisch wird :freak:

Und was bringt dir SSAA unter DX10/11, wenn die verfügbaren Grakas dafür meistens zu lahm sind?
Bei DX9 sieht es ja anders aus. Hier sind die Grakas mittlerweile schnell genug.
Und was bringt mir eine unter DX9 mit SSAA leicht schnellere Karte, wenn sie dann bei Crysis3 ständig beim AF rumflimmert und noch dazu langsamer ist?

Gast
2010-05-27, 17:19:20
Und was bringt mir eine unter DX9 mit SSAA leicht schnellere Karte, wenn sie dann bei Crysis3 ständig beim AF rumflimmert und noch dazu langsamer ist?
Hallo? :eek:
Crysis3?
Ich glaube kaum, dass dann noch ein Cypress oder Fermi ausreicht, hehe.

Falls du Crysis meinst, dann sind beide (Cypress und Fermi) ca. gleich schnell.

SamLombardo
2010-05-27, 17:29:59
Crysis 3 glaub ich auch nicht, sofern es denn überhaupt kommt noch viieel zu weit entfernt;)
Bei Crysis 2 wird er aber Recht haben - Werden wie (hoffentlich dieses Jahr noch) erleben. Insofern sind Bucklews Aussagen nicht ganz von der Hand zu weisen. Die HD 5.... waren/sind sehr gute Karten und da sie auch noch mehr als ein Halbes Jahr vor den Fermis da waren denke ich auch, dass diese Graka Runde insgesamt an Ati geht. Das ändert aber nichts daran, dass zum heutigen (!) Zeitpunkt der G100 die bessere, weil fortschrittlichere Wahl ist. Spiele wie Crysis 2, The Witcher 2 usw. werden es zeigen, da geh ich jede Wette ein.

Gast
2010-05-27, 17:33:37
Spiele wie Crysis 2, The Witcher 2 usw. werden es zeigen, da geh ich jede Wette ein.
Solang da keine Tessellation oder übemäßig viel Geometrie(shader) eingesetzt wird, könnte es bei Crysis 2 eher wie bei Teil 1 aussehen. Wenn Crytek noch aufwendigere Shader verwendet, könnte auch HD 5800 einen Vorteil haben.

Gast
2010-05-27, 17:38:24
Das ändert aber nichts daran, dass zum heutigen (!) Zeitpunkt der G100 die bessere, weil fortschrittlichere Wahl ist.
Das muss jeder für sich selbst entscheiden.
Fortschitt bedeutet für mich auch weniger Stromverbrauch (unter anderem), deswegen ist das wieder eine Pauschalaussage, die nicht haltbar ist.
Schlechtere SSAA-Leistung sehe ich auch nicht als Fortschitt an.

Spiele wie Crysis 2, The Witcher 2 usw. werden es zeigen, da geh ich jede Wette ein.
Ich würde sicherlich nicht dagegen wetten. Bleibe aber erstmal skeptisch bis es bewiesen ist.
Bei Witcher 2 habe ich aber meine Zweifel. ;)

Gast
2010-05-27, 17:43:30
Daran merkt man das man alt wird, wenn man langsam nostalgisch wird :freak:

Manche werden mit dem Alter weise. Aber eben nur manche.

Bucklew
2010-05-27, 17:52:50
Fortschitt bedeutet für mich auch weniger Stromverbrauch (unter anderem), deswegen ist das wieder eine Pauschalaussage, die nicht haltbar ist.
Fortschritt ist es, wenn man etwas etabliert, was die Grafik wesentlich vorranbringt. Da ist Stromverbrauch ja nun wirklich uninteressant (speziell bei Grafikkarte ~500€)*. Da fiele einem z.B. T&L ein. Bei Einführung der GeForce noch belächelt mit "Braucht man eh nicht" oder auch "Bis die ersten Spiele es wirklich nutzen ist die GeForce eh alt" ( :freak: ) - nur, wo wären wir heute ohne diese Technik? Und wo wäre diese Technik heute, wenn nicht zumindest ein Hersteller sie nutzbar zur Verfügung stellen würde?

*Lustig an dieser ganzen Diskussion über Leistungsaufnahme find ich ja, dass alle die, die vor einem Jahr das ganze noch runtergeredet haben ("Stromrechnung ist mir egal!" "Idle nutz ich eh nie!") jetzt auf einmal den größten Wert auf die Leistungsaufnahme legen. Hoffentlich wird die nächste ATI-Generation nicht wieso ein Verschwender ala R600, dann müssten die sich ja wieder um 180° drehen :freak:

Manche werden mit dem Alter weise. Aber eben nur manche.
Schön, das du das bei dir erkannt hast. Jetzt wo die Einsicht getan ist, kannst du an der Verbesserung arbeiten. Vielleicht reicht dann die Weisheit eines Tages sogar dazu aus sich hier zu registrieren!!! ;D

N0Thing
2010-05-27, 17:57:03
Fudzilla schreibt eindeutig: Nicht schaffen.

Hast du nen Link zum Artikel? Ich hab keinen gefunden, in dem von Fudzilla behauptet wurde, daß ATI nicht in der Lage sei, mal den schnellsten Grafikchip zu produzieren.
____

Eine DX11 Grafikkarte würde ich mir nicht wegen DX11 kaufen, sondern weil sie schneller und besser sein müßte als meine alte Grafikkarte.
DX10.1 habe ich nicht wegen DX10.1 ausgelassen, sondern weil die entsprechenden Grafikkarten schnell genug (im Vergleich zu vorhandenen Grafikkarte) waren.

Abgesehen davon spiele ich auch gerne ältere Spiele mit maximaler BQ. :)


€:\



*Lustig an dieser ganzen Diskussion über Leistungsaufnahme find ich ja, dass alle die, die vor einem Jahr das ganze noch runtergeredet haben [...]

Vor einem Jahr warst du hier doch noch gar nicht registriert. :freak:

Gast
2010-05-27, 18:00:26
Fortschitt bedeutet für mich auch weniger Stromverbrauch (unter anderem)
Dann musst du bei praktisch jeder neuen Generation eine etwas kleinere karte als zuvor kaufen.
D.h. damals hast du eine 5800 Ultra gekauft, heute eine 5750/5770.
Was kommt als nächstes? Eine 6570 und dann eine 7450?

Gast
2010-05-27, 18:04:36
Bei Witcher 2 habe ich aber meine Zweifel. ;)
Kann noch keiner wissen. Witcher 2 wird aber DX11 inkl. (wahrscheinlich ner menge?) Tessellation sein, daher liegt die Vermutung schon nahe.

Gast
2010-05-27, 18:06:29
Dann musst du bei praktisch jeder neuen Generation eine etwas kleinere karte als zuvor kaufen.
D.h. damals hast du eine 5800 Ultra gekauft, heute eine 5750/5770.
Was kommt als nächstes? Eine 6570 und dann eine 7450?
Quatsch doch nicht so ein Müll.. :rolleyes:

Radeon HD 5870:
Leistungsaufnahme 3D (Race Driver Grid): 128 Watt
Radeon HD 4890:
Leistungsaufnahme 3D (Race Driver Grid): 158 Watt

http://www.pcgameshardware.de/aid,696146/Radeon-HD-5850-im-Test-Der-DirectX-11-Preisbrecher/Grafikkarte/Test/?page=3

DAS ist Fortschritt! :up:
Die 5870 ist DEUTLICH schneller und hat dabei den geringeren Stromverbrauch.

LovesuckZ
2010-05-27, 18:07:08
Das muss jeder für sich selbst entscheiden.
Fortschitt bedeutet für mich auch weniger Stromverbrauch (unter anderem), deswegen ist das wieder eine Pauschalaussage, die nicht haltbar ist.


Wo ist bei Cypress Fortschritt in Hinsicht des Stromverbrauches? Eine 8800GTX galt vor 3 1/2 als das Strommonster unter den Grafikkarten. Heute sind 188 Watt "Fortschritt"? Auch wird der Stromverbrauch nicht geringer. Eine 3870 benötigte laut AMD 105 Watt. Eine 5870 188 Watt, was eine Steigerung von 79% entspricht.

Gast
2010-05-27, 18:10:29
Wo ist bei Cypress Fortschritt in Hinsicht des Stromverbrauches? Eine 8800GTX galt vor 3 1/2 als das Strommonster unter den Grafikkarten. Heute sind 188 Watt "Fortschritt"? Auch wird der Stromverbrauch nicht geringer. Eine 3870 benötigte laut AMD 105 Watt. Eine 5870 188 Watt, was eine Steigerung von 79% entspricht.
siehe ein Posting über deinem :tongue:

Gast
2010-05-27, 18:15:11
Quatsch doch nicht so ein Müll.. :rolleyes:

Radeon HD 5870:
Leistungsaufnahme 3D (Race Driver Grid): 128 Watt
Radeon HD 4890:
Leistungsaufnahme 3D (Race Driver Grid): 158 Watt

http://www.pcgameshardware.de/aid,696146/Radeon-HD-5850-im-Test-Der-DirectX-11-Preisbrecher/Grafikkarte/Test/?page=3

DAS ist Fortschritt! :up:
Die 5870 ist DEUTLICH schneller und hat dabei den geringeren Stromverbrauch.Aha, aus 90 mach 70.
Genau das habe ich geschrieben.
In Zukunft wirst du dann auf eine 6850 setzen? Sollte auch schneller als eine 5870 sein.

OgrEGT
2010-05-27, 18:16:04
... Die HD 5.... waren/sind sehr gute Karten und da sie auch noch mehr als ein Halbes Jahr vor den Fermis da waren denke ich auch, dass diese Graka Runde insgesamt an Ati geht. Das ändert aber nichts daran, dass zum heutigen (!) Zeitpunkt der G100 die bessere, weil fortschrittlichere Wahl ist. Spiele wie Crysis 2, The Witcher 2 usw. werden es zeigen, da geh ich jede Wette ein.

So ist es. Da Nvidia 6 Monate später als nach Plan veröffentlicht wurde, haben sich die aktuellen Generationen der beiden Hersteller verschoben.

HD5 Serie --- 6 Monate --- Fermi --- 6Monate --- Southern Island --- usw.

Somit macht es immer weniger Sinn die aktuellsten Generationen zu vergleichen, wenn auch einem nichts anderes übrigbleibt. Genauso wird es aussehen, wenn Southern Island da ist und zwangsweise mit Fermi verglichen wird.

Gast
2010-05-27, 18:18:10
Aha, aus 90 mach 70.
Genau das habe ich geschrieben.
In Zukunft wirst du dann auf eine 6850 setzen? Sollte auch schneller als eine 5870 sein.
Ich hätte auch lieber die 4870 zum Vergleich genommen.
War aber leider nicht mit dabei. :(

Bucklew
2010-05-27, 18:19:16
Hast du nen Link zum Artikel? Ich hab keinen gefunden, in dem von Fudzilla behauptet wurde, daß ATI nicht in der Lage sei, mal den schnellsten Grafikchip zu produzieren.
Es geht um Cypress. ATI wird keine schnellere Version bringen, weil das Potential des Chips ausgereizt ist.

Abgesehen davon spiele ich auch gerne ältere Spiele mit maximaler BQ.
Ja, aber das schafft ein Fermi genauso wie ein Cypress. Die Spreu trennt sich bei aktuellen Spielen.

Vor einem Jahr warst du hier doch noch gar nicht registriert. :freak:
Als ob das hier anders wäre als anderswo ;)

Gast
2010-05-27, 18:19:46
Ich hätte auch lieber die 4870 zum Vergleich genommen.
War aber leider nicht mit dabei. :(
Die 4870 ist sparsamer als die 5870. Und die 3870 ist noch sparsamer als die 4870.

Gast
2010-05-27, 18:20:22
Wo ist bei Cypress Fortschritt in Hinsicht des Stromverbrauches? Eine 8800GTX galt vor 3 1/2 als das Strommonster unter den Grafikkarten.
Aber das wohl eher wegen den 70W im Idle. ;)
Unter 3D war sie gegenüber den X1900 ein Effizienzmonster, trotz gleichem Fertigungsprozess.


Heute sind 188 Watt "Fortschritt"? Auch wird der Stromverbrauch nicht geringer. Eine 3870 benötigte laut AMD 105 Watt. Eine 5870 188 Watt, was eine Steigerung von 79% entspricht.
Und? Wenn man es noch vernünftig kühlen kann und der Idle-Verbrauch stimmt ist dies doch in Ordnung.

Problematischer sieht es da für Nvidia aus, die mit dem GF100 fast gar keine Steigerung der Pro-Watt-Leistung gegenüber 55nm erreicht haben.

OgrEGT
2010-05-27, 18:25:48
Und wofür kaufe ich mir sonst eine DX11-Karte, wenn nicht für DX11-Spiele? Warum sollte ich eine Kaufentscheidung für eine Grafikkarte an der vorletzten DX-Generation festmachen, anstelle der aktuellen? Ich kaufe mir eine Grafikkarte für Heute und Morgen, aber nicht für Gestern.

Ich glaube diese Diskussion wurde schon (zu) oft geführt.
Im Ergebnis hat man sich immer darauf einigen können, dass die Kaufentscheidung des Einen nicht zwanglsläufig der Königsweg ist, da andere User eben andere Präferenzen haben. Der eine kauft nur nach Leistung, dem anderen sind andere Dinge wie geringe Leistungsaufnahme und damit verbunden eine geringe Lautstärke bei möglichst hoher Leistung wichtiger.

Die eigene Kaufentscheidung über die von anderen heben zu wollen führt immer wieder zu den bekannten Grabenkämpfen, deshalb sollte man das lassen. Bringt soweiso nix. Hauptsache man kann zu seiner Entscheidung stehen und ist zufrieden.

Bucklew
2010-05-27, 18:25:52
Aber das wohl eher wegen den 70W im Idle. ;)
Naja, die 4W weniger die ne HD2900XT verbraucht hat sind nun auch kein großer Unterschied. Aber solche Urban Myth halten sich ja beharrlich, gibt ja auch genug Leute die glaubne, dass die GT200-Karten im Idle mehr verbrauchen als die HD4000 - man muss die Lügen halt nur oft genug erzählen, dann glaub sie irgendwann jeder ;)

Und? Wenn man es noch vernünftig kühlen kann und der Idle-Verbrauch stimmt ist dies doch in Ordnung.
Demzufolge war die HD4000 nicht in Ordnung?

Problematischer sieht es da für Nvidia aus, die mit dem GF100 fast gar keine Steigerung der Pro-Watt-Leistung gegenüber 55nm erreicht haben.
Klar, neue Architektur. Man errinnere sich mal an die letzte neue Architektur von ATI, die war ja quasi wie Fermi heute, nur 40% langsamer ;)

N0Thing
2010-05-27, 18:42:27
Es geht um Cypress. ATI wird keine schnellere Version bringen, weil das Potential des Chips ausgereizt ist.

Ah, bisher wurde nur allgemein von "ATI kann keinen schnelleren Chip als Nvidia bauen" geschrieben. Einen hochgeprügelten RV870 würde ich auch nicht mehr erwarten, ich hoffe SI steht wirklich noch in diesem Herbst an.

Ja, aber das schafft ein Fermi genauso wie ein Cypress. Die Spreu trennt sich bei aktuellen Spielen.

Klar schafft ein Fermi das auch, ebenso ein G200.

LovesuckZ
2010-05-27, 18:46:37
Aber das wohl eher wegen den 70W im Idle. ;)
Unter 3D war sie gegenüber den X1900 ein Effizienzmonster, trotz gleichem Fertigungsprozess.

Auch der Lastverbrauch schreckte ab.


Problematischer sieht es da für Nvidia aus, die mit dem GF100 fast gar keine Steigerung der Pro-Watt-Leistung gegenüber 55nm erreicht haben.

Die Steigerungen erfolgen in Bereichen, die in heutigen Spielen nicht genutzt werden. In Stone Giant ist eine GTX480 mit Tessellation auf high immer noch deutlich schneller als eine GTX285 mit dem DX10 Modus.
Eine 5870 dagegen wird erheblich langsamer als eine 4870 sein.
Oder die Beschleunigung von Fluid-Berechnungen. Im Dark Void Benchmark ist die GTX480 mehr als doppel so schnell als eine GTX285.
Es ist ersichtlich, dass GF100 eben kein GTX285*2 mit kleineren Verbesserungen ist.

airbag
2010-05-27, 18:50:55
Und was will man mit dem Stone Giant?
Dark Void soll zu dem auch richtig schlecht sein.

Bucklew
2010-05-27, 19:20:22
Ah, bisher wurde nur allgemein von "ATI kann keinen schnelleren Chip als Nvidia bauen" geschrieben. Einen hochgeprügelten RV870 würde ich auch nicht mehr erwarten, ich hoffe SI steht wirklich noch in diesem Herbst an.
Nein, ich habe niemals allgemein gesprochen, sondern nur von den aktuellen Chips.

Klar schafft ein Fermi das auch, ebenso ein G200.
Stimmt.

Iruwen
2010-05-27, 23:57:05
Und was will man mit dem Stone Giant?
Dark Void soll zu dem auch richtig schlecht sein.
Es geht um die verwendeten Technologien...

airbag
2010-05-28, 08:39:57
Aber wer sagt dann, dass auch wiklich weiter Tessellation und die ganzen NV feature eine Zukunft haben werden. Ich habe eher das Gefühl, dass mindestens die Hälfte davon bald eingestampft wird.

Gast
2010-05-28, 09:37:26
Tessellation ist ein AMD Feature, wurde zumindest jahrelang von ihnen beworben.

Wenn das keine Zukunft hat, was dann? Zurück zu D3D9 oder was?
Neue Grafikkarten sind nicht dazu da noch mehr FPS als superflüssig zu liefern, sie sollen mehr BQ flüssig bringen, wann checken die Leute das endlich mal?

Gast
2010-05-28, 09:56:25
Tessellation ist ein AMD Feature, wurde zumindest jahrelang von ihnen beworben.

Wenn das keine Zukunft hat, was dann? Zurück zu D3D9 oder was?
Neue Grafikkarten sind nicht dazu da noch mehr FPS als superflüssig zu liefern, sie sollen mehr BQ flüssig bringen, wann checken die Leute das endlich mal?
Wenn du wirklich gute BQ haben willst, dann kommst du an SSAA nicht vorbei.
Bei Tesselation hast du sogar teilweise schlechtere BQ (Texturverzerrung und Pumpen) als ohne.

Gast
2010-05-28, 10:23:18
SSAA ist eigentlich unsinnig, für unflimmernde Shader hat der Entwickler zu sorgen, für Transparence TAA, für Polygone MSAA und für Texturen AF.
Nur wegen den leider flimmernden Shadern ergibt SSAA Sinn. Da kommen wir zu dem Punkt, das Nvidia den richtigen Weg gewählt hat, SSAA für D3D10/11.

Was das jedoch mit Tesselation zu tun hat ist mir schleierhaft. Ein Bild setzt sich aus vielem zusammen. Die bislang immer noch viel zu grobe Geometrie kann durch Tesselation etwas aufgefrischt werden. Das dir Tesselation stellenweise nicht zusagt ist nicht der Fehler von Tesselation, es ist die Umsetzung.
Das dir die wenig-eckigen Steine in Crysis gefallen, nehm ich dir jedenfalls nicht ab.

SamLombardo
2010-05-28, 11:37:09
Das dir die wenig-eckigen Steine in Crysis gefallen, nehm ich dir jedenfalls nicht ab.
Warte es mal ab. Sobald der Southern island, oder sonst ein Ati Chip rauskommt der Tessellation gut kann werden alle, die jetzt Tessellation schlecht reden ihre Meinung auf wundersame Weise ändern. Sorry für die Polemik, aber das wirds genau treffen. War bei SM3.0 genu so.

Sam

Fetter Fettsack
2010-05-28, 12:06:41
Ich würde auch gerne etwas schlechtreden: die Umsetzung von Tesselation.

Um es provokant zu formulieren: wenn sich irgendwann die Umsetzung bessert und ich das dann "lobe", bin ich dann ein Wendehals?

SamLombardo
2010-05-28, 12:18:55
Ich würde auch gerne etwas schlechtreden: die Umsetzung von Tesselation.

Um es provokant zu formulieren: wenn sich irgendwann die Umsetzung bessert und ich das dann "lobe", bin ich dann ein Wendehals?
Natürlich nicht:) Die Umsetzung von tesellation ist absolut verbesserungswürdig, da stime ich Dir zu. Die Tess - Aliens in AvP zum beispiel sind Marketing, mehr nicht. Mir geht es ehr um die Personen, die sagen ob eine Graka eine gute Tess Leistung hat sei völlig unwichtig, Tessellation sei überbewertet, unnötig und was man sonst nicht alles liest. Diese Aussagen halte ich für Fanboygehabe, das exakt solange anhält bis der Southern Island kommt. Das ist keine Vermutung, sondern eine Tatsache die auf Erfahrungen beruht:wink:

Gruß Sam

Fetter Fettsack
2010-05-28, 12:45:16
Glaub ich dir aufs Wort :).
Allerdings möchte ich anmerken, dass man zur Zeit deshalb von einem gewissen momentanen Grad der "Unnötigkeit" sprechen kann, da es noch nichts sinnvolles gibt (wenn wir Computerspiele als objektiv sinnvoll ansehen^^), das etwas mit der Tesselationsleistung anfangen kann.
Dass das Feature Zukunft hat, steht aber ohne Zweifel außer Frage (basierend auf meinem Kenntnisstande halt).

DrFreaK666
2010-05-28, 13:41:46
Bisher wurde Tesselation halbherzig in eine Engine eingefügt.
Ich denke mal, dass erst der 3D Mark 2011 zeigen wird wie Tess eingesetzt werden sollte

Laut PCGH: Im Gegensatz zu bisherigen Techdemos und Spielen scheint der 3DMark 11 jedoch sauber für Tessellation ausgelegt zu sein, die Texturen werden durch die zusätzliche Geometrie nicht hässlich verzerrt, sondern sind jederzeit scharf.

hq-hq
2010-05-28, 20:12:55
wenn es regler für die tesselation wie in unigine heaven gäbe... vielleicht gibts mal einen tesselation-nhancer *träum*

-> das am anfang tesselation bissl krüpplig daherkommt ist normal, denkt mal an Giants und T&L ... total krüpplig !

DrFreaK666
2010-05-28, 20:14:20
wenn es regler für die tesselation wie in unigine heaven gäbe... vielleicht gibts mal einen tesselation-nhancer *träum*

Vielleicht sollte man sich auch mal mit dem Gameplay beschäfftigen und nicht nur mit den Grafikoptionen.
Mir würde es reichen wenn es 3 Voreinstellungen gäbe

gnomi
2010-05-29, 11:42:38
Wegen der Tesselation Leistung braucht man ganz sicher keine GTX 470/480 bevorzugen.
Selbst in nächster Zeit werden sich die Spiele, die dieses Feature nutzen, schätzungsweise an zwei Händen abzählen lassen.
Irgendwie dreht sich alles weiterhin hauptsächlich um DX 9.
Und ob ATI oder Nvidia hier schneller ist, ist beinahe auch egal, da beide High End Chips jedes Spiel locker stemmen.
Im Grunde genommen zählt doch nur noch, wer OOTB die bessere Treiberunterstützung anbietet.
Geschwindigkeit ist - außer im Enthusiast Bereich - quasi Nebensache. (btw. genau wie Bildqualität- die minimalen Unterschiede interessieren abseits von Hardware Foren auch nicht wirklich jemanden)

SamLombardo
2010-05-29, 11:52:57
Wegen der Tesselation Leistung braucht man ganz sicher keine GTX 470/480 bevorzugen.
Selbst in nächster Zeit werden sich die Spiele, die dieses Feature nutzen, schätzungsweise an zwei Händen abzählen lassen.

Warum denn nicht? Selbst wenn in der nächsten Zeit "nur" 10 Spiele (zwei Hände:wink:) die Tessellation nutzen auf der 470/80 besser laufen, hat es sich schon gelohnt. Vor allem weil es gerade die hochkarätigen Titel betrefen wird. Und genau für diese kauft man sich eine Grafikkarte von 300+€ :cool:

gnomi
2010-05-29, 12:05:29
Wenn was auf Nvidia schneller läuft, dann aber eher wegen schnellerem und besserem Treibersupport.
Der vermutlich eher dezente Tesselation Einsatz mancher zukünftiger Spiele wird denke ich keinen so großen Unterschied machen, da es eben nur ein Faktor von vielen sein dürfte.
Es ist anzunehmen, daß ATI in anderen Bereichen besser ist und es sich damit wieder irgendwo angleicht.
Und sollte die Framerate mit DX 9 Optik plus DX 11 Speedup bei beiden Chips generell viel besser sein, wird ein vernüftiger Spieler trotz High End Karte sowieso derartige Features abschalten.

hq-hq
2010-05-29, 15:58:03
Es ist anzunehmen, daß ATI in anderen Bereichen besser ist und es sich damit wieder irgendwo angleicht.

joa wenn die southern islands gpu's kommen...:freak:

Spasstiger
2010-05-29, 16:02:30
Auch mit Tessellation kann eine Radeon HD 5870 eine GeForce GTX 480 schlagen. Es muss nur der arithmetische Anteil an der Rechenzeit pro Frame hoch genug sein.

LovesuckZ
2010-05-29, 16:07:21
Auch mit Tessellation kann eine Radeon HD 5870 eine GeForce GTX 480 schlagen. Es muss nur der arithmetische Anteil an der Rechenzeit pro Frame hoch genug sein.

Nö. Der Anteil der Dreieckserzeugung muss dermaß gering sein, dass das Front-End nicht limitiert.
AMD hat die 2x Rechenleistung, nVidia dagegen die 7,5x Geometrieleistung.
Dazu kommt die bessere Auslastung der Recheneinheiten bei nVidia und das bessere Datenverkehrssystem für Tessellation.
Desweiteren hat nVidia die feinere Rasterizer, kann also schon optimaler in geringeren Auflösungen arbeiten.

Gast
2010-05-29, 16:10:57
Nö. Der Anteil der Dreieckserzeugung muss dermaß gering sein, dass das Front-End nicht limitiert.
AMD hat die 2x Rechenleistung, nVidia dagegen die 7,5x Geometrieleistung.
Dazu kommt die bessere Auslastung der Recheneinheiten bei nVidia und das bessere Datenverkehrssystem für Tessellation.
Desweiteren hat nVidia die feinere Rasterizer, kann also schon optimaler in geringeren Auflösungen arbeiten.

Und warum ist die HD 5870 2 GB in Metro so schnell wie eine GTX 470 mit Tesselation?