PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Grafikkarten 2008: großer Test bei Computerbase


Schlammsau
2008-12-20, 20:47:23
Sehr interessant!
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_grafikkarten_2008/

http://pics.computerbase.de/2/3/6/8/7/1_m.jpg

dildo4u
2008-12-20, 20:50:06
Treiberversionen

* Nvidia GeForce 180.48
* ATi Catalyst 8.11

[dzp]Viper
2008-12-20, 20:52:36
Jo neuer schneller NV Treiber gegen merklich älteren und langsameren ATI Treiber.

Blöde Sache :ugly:

Aber sonst guter Test

Schlammsau
2008-12-20, 20:53:06
Treiberversionen

* Nvidia GeForce 180.48
* ATi Catalyst 8.11

sch***!!!!!!!! Warum den das wieder?

Gast
2008-12-20, 20:54:04
Das mit den Treibern ärgert mich auch. Die sollten endlich mal einen aktuellen verwenden oder den letzten im Jahr veröffentlichten. ;)

Interessant finde ich aber auch, das einige Benchmarks nun doch schon Unterschiede zwischen 512MB und 1024MB Speicher zeigen.
In der Endabrechnung bei höchster Auflösung im durchschnitt ~19% sind schon übel. Langsam wirds also Zeit.

dildo4u
2008-12-20, 20:54:35
Irgendwann musste der Tester ja anfangen möchte nicht wissen wie viele Stunden in dem Artikel stecken.

LovesuckZ
2008-12-20, 20:55:39
Naja, der Unterschied beträgt bei den getesteten Spielen beim 8.12 Test 2% - die kann man ja dazu zählen, wenn man will. :ugly:
Dafür gibt es 8xMSAA Test. Ist doch fair...

Schlammsau
2008-12-20, 20:57:01
Irgendwann musste der Tester ja anfangen möchte nicht wissen wie viele Stunden in dem Artikel stecken.
Das ist mir klar, aber ärgerlich ist es trotzdem, da der .12 ja doch die Performance ein wenig steigern konnte.

Blaire
2008-12-20, 21:02:48
Irgendwann musste der Tester ja anfangen möchte nicht wissen wie viele Stunden in dem Artikel stecken.

So siehts aus. Was sollten neuere Treiber auch schon groß am Gesamtrating verändern? Kaum etwas.

Schlammsau
2008-12-20, 21:04:17
Naja, der Unterschied beträgt bei den getesteten Spielen beim 8.12 Test 2% - die kann man ja dazu zählen, wenn man will. :ugly:
Dafür gibt es 8xMSAA Test. Ist doch fair...

jetzt hör doch endlich mit dem Quatsch auf! Beide Karten können das gleiche 8xMSAA darstellen, warum sollte man sie nicht gegeneinander testen?
Ich kann es nicht mehr lesen! :mad:

y33H@
2008-12-20, 21:05:50
Das Rating zeigt schön - GTX260-216 schlägt HD4870/1.024 knapp, bei leicht höherem Preis.Beide Karten können das gleiche 8xMSAA darstellen, warum sollte man sie nicht gegeneinander testen? Wäre ja gemein, weil da die Radeons etwas besser wegkommen. Das wäre freilich unverantwortlich ;D

Nur - 8x MSAA? Nö, fail. Da hau ich mir lieber 2-4x TSSAA drauf, imo bei ähnlichen Fps die optisch klar bessere Lösung. Nur halt nicht vergleichbar, daher also doch 8x ... Warum muss das Leben nur so schei0-kompliziert sein? ;(

cYa

dildo4u
2008-12-20, 21:08:12
jetzt hör doch endlich mit dem Quatsch auf! Beide Karten können das gleiche 8xMSAA darstellen, warum sollte man sie nicht gegeneinander testen?
Ich kann es nicht mehr lesen! :mad:
Er hat doch geschrieben das es Fair ist auch wenn man die paar Prozent vom 8.12 dazurechnet wird sich das Rating nicht entscheidend ändern.Immer der selbe Quark hier bleibt einfach mal locker.

Schlammsau
2008-12-20, 21:08:43
So siehts aus. Was sollten neuere Treiber auch schon groß am Gesamtrating verändern? Kaum etwas.

Etwas! In Far Cry 2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_catalyst_812_spielen/5/#abschnitt_far_cry_2) im Schnitt 5-6%% und in CoD5 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_catalyst_812_spielen/2/#abschnitt_call_of_duty_5) 4-11%. Ist schon ein wenig.

AffenJack
2008-12-20, 21:09:54
jetzt hör doch endlich mit dem Quatsch auf! Beide Karten können das gleiche 8xMSAA darstellen, warum sollte man sie nicht gegeneinander testen?
Ich kann es nicht mehr lesen! :mad:

weils viel bessere optionen gibt seine leistung zu verwenden, man kann deine posts auch nicht mehr lesen, dieses fanboytum von dir und anderen ist schon nicht mehr schön.

Die 5% in Far cry und 5% in COd5 + minimale verbesserungen bei anderen spielen machen vll 3% aus, das wird man wohl überleben.

dildo4u
2008-12-20, 21:10:34
Etwas! In Far Cry 2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_catalyst_812_spielen/5/#abschnitt_far_cry_2) im Schnitt 5-6%% und in CoD5 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_catalyst_812_spielen/2/#abschnitt_call_of_duty_5) 4-11%. Ist schon ein wenig.
Es sind viel mher Spiele bei dem Test dabei deshalb hätte das kaum Einfluss aufs Gesamtrating.

Gast
2008-12-20, 21:10:43
So siehts aus. Was sollten neuere Treiber auch schon groß am Gesamtrating verändern? Kaum etwas.

Ein paar % fehlen hier und da schon.
Kannst du ja anhand der anderen Artiken abgleichen:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_catalyst_812_spielen/
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/beratung_nvidia_geforce_18048/

Schlammsau
2008-12-20, 21:14:27
Es sind viel mher Spiele bei dem Test dabei deshalb hätte das kaum Einfluss aufs Gesamtrating.

Natürlich geht es hier nur um maximal 1-2% im Gesamtrating. Es geht doch auch nur ums Prinzip...einen alten Treiber gegen einen neuen Treiber zu testen, ist immer fragwürdig aber bei einem so grossen Test auch durchaus normal.

Frank1974
2008-12-20, 21:14:31
Was geht denn hier wieder ab, für NV haben sie auch nur den 180.48 genommen, der 180.70 ist noch ein gutes Stück schneller, PCGH nimmt auch NV-Beta Treiber, damit hebt sich der Vorteil dann eh wieder auf.
Bei jedem Treiber das selbe...

Bei Crysis Warhead ist der 180.70 in 1680x1050, 4xAA, 16xAF, ca. 15% schneller als der 180.48, bei meinen Tests.

mfg
Frank

LovesuckZ
2008-12-20, 21:27:26
jetzt hör doch endlich mit dem Quatsch auf! Beide Karten können das gleiche 8xMSAA darstellen, warum sollte man sie nicht gegeneinander testen?
Ich kann es nicht mehr lesen! :mad:

Na, aus dem selben Grund warum HQ und A.I Off nicht beachtet werden. :rolleyes:
Abgesehen davon erhöht sich das Gesamtrating maximal um 1%. Hau die 1% auf dein Rating dazu und die Welt sieht dann schon besser aus. :rolleyes:

Schlammsau
2008-12-20, 21:46:17
Na, aus dem selben Grund warum HQ und A.I Off nicht beachtet werden. :rolleyes:
Abgesehen davon erhöht sich das Gesamtrating maximal um 1%. Hau die 1% auf dein Rating dazu und die Welt sieht dann schon besser aus. :rolleyes:

Zum letzten mal, A.I. Off und HQ ist nicht vergleichbar! Weil auch andere sinnvolle Optimierungen ausgeschaltet werden. 8xMSAA ist bei beiden Herstellern immer gleich! Genauso könnte man 24x Edge Detect gegen irgendeinen Hybrid Mode testen. Ist genauso nicht vergleichbar! :rolleyes:

=Floi=
2008-12-20, 21:50:18
zumindest könnte man alle 6-12 monate mal wieder transpaent aa testen. Es stimmt nämlich schon, dass 8xAA ohne TM/TSAA im grunde nicht perfekt ist.

LovesuckZ
2008-12-20, 21:55:26
Zum letzten mal, A.I. Off und HQ ist nicht vergleichbar! Weil auch andere sinnvolle Optimierungen ausgeschaltet werden.

Es spielt beim Vergleich der ansiotropen Filerung keine Rolle, was alles an A.I gekoppelt ist.
So wie es anscheinend auch keine Rolle spielt, dass 8xMSAA kein sinnvoller Modus auf den nVidiakarten ist. :rolleyes:

Um mal wieder auf das Thema zurückzukommen:
Es ist erstaunlich, wie stark der G80 doch im Grunde ist. Die 9800gtx+ hält sehr gut mit der 260 und 280 mit und das trotz nur 512mb.

y33H@
2008-12-20, 21:57:27
Weil auch andere sinnvolle Optimierungen ausgeschaltet werden.Warum koppelt man das dann? Genau, damit keiner auf die blöde Idee, AI deaktivieren - man verdammt den Nutzer dazu.Es ist erstaunlich, wie stark der G80 doch im Grunde ist. Die 9800gtx+ hält sehr gut mit der 260 und 280 mit und das trotz nur 512mb.GTX+ und G80? *g* Mir wäre ne Ultra (G80!) noch lieb gewesen, die haut nach wie vor kräftig auf die ... Benches :D

cYa

reunion
2008-12-20, 22:00:36
Um mal wieder auf das Thema zurückzukommen:
Es ist erstaunlich, wie stark der G80 doch im Grunde ist. Die 9800gtx+ hält sehr gut mit der 260 und 280 mit und das trotz nur 512mb.

G92. Aber ja, er hält sehr gut mit. Erstaunlich finde ich das allerdings nicht unbedingt. Es ist vielmehr nur logisch - 64TMUs, 128ALUs mit entsprechend hohen Taktraten ist eben von den theoretischen Daten gut und gerne auf GTX260-Niveau, welche vorallem ihre Effizienzsteigerungen ausspielen kann.

LovesuckZ
2008-12-20, 22:30:20
Der G80 war schon gemeint. Mehr ist der G92 nicht.
Und man sieht auch, dass der rv670 mit neueren Spielen deutlich unter den G92 Karten einordnen muss. 60%+ Rückstände auf die 8800gt und bis zu 100% Rückstände auf die 9800gtx+. Sehr überraschend.

Unyu
2008-12-20, 22:30:54
Das ist mir klar, aber ärgerlich ist es trotzdem, da der .12 ja doch die Performance ein wenig steigern konnte.
180.84 ebenfalls. :rolleyes:

Zum letzten mal, A.I. Off und HQ ist nicht vergleichbar!
Stimmt. Lieber AI-off vs Q? :)

y33H@
2008-12-20, 22:35:31
Der G80 war schon gemeint. Mehr ist der G92 nicht. Full Ack.Und man sieht auch, dass der rv670 mit neueren Spielen deutlich unter den G92 Karten einordnen muss. Sehr überraschend.Imo nicht. Der Trend aktueller Titel im Vergleich zum Launch des RV670 geht mehr Richtung Texturpower und zudem dürfte der neue CB-Parcour mit bewegten (!) Szenen mehr AF-Leistung kosten (?) Vll liege ich aber auch voll daneben und nV hat die Treiber nur viel besser optimiert.

cYa

derguru
2008-12-20, 22:40:13
schon grauenhaft das von den 12 spielen die getestet wurden 9 konsolendinger sind.tja das wird irgendwann nur noch aus konsolengames bestehen.

tombman
2008-12-20, 22:59:28
PC Gaming ist doch seit Cryengine 2 tot...
Warum investier ich nimmer in PC hardware sondern mehr ins "perfekte gaming Zimmer"? :cool:

Ich finde, auch wenn die GTX295 eigentlich eine Jänner 2009 Karte ist, gehört sie in diese Aufstellung noch hinein, der Gesamtsieg wäre sicher gewesen :)
Sie nutzt ganz klar 2008 Technologie, also hätte man sie ruhig reinnehmen können.
(außer Nvidia hats verboten :D;D)

_DrillSarge]I[
2008-12-20, 23:05:00
verstehe nicht was an der karte so toll ist (das ganze exklusiv-test-tamtam). das ding ist genauso (un)spannend wie eine 4870x2 und auch für nv sind dual-karten gar nix neues.

pest
2008-12-20, 23:05:48
ich verstehe immernoch nicht warum m.M. nach Viele von der 80iger Generation auf die HD4xxx-Reihe oder GTX260iger umgestiegen sind. Was unspielbar war, bleibt unspielbar, und 200€ für ein bisschen mehr Q?

Ich will endlich die 8800GT raushaun :( + min. 80% mehr Dampf für < 250€

=Floi=
2008-12-20, 23:23:19
zitat
Warum investier ich nimmer in PC hardware sondern mehr ins "perfekte gaming Zimmer"?

weil du alt wirst? ;D hey, wenn du schon so eine vorlage gibst...
wo steht denn was vom zimmer? Bei den konsolen hat man eben viel weniger einstellungen (blur) keine möglichkeit auch nur geringfüg die leistung zu steigern (10%OC würde schon so manches ruckeln beheben) und hat ein komplett geschlossenes system. Eine konsole ist kein kompromiss, sondern ein ganz klarer abstieg mit der vereinfachnung komplexer vorgänge.
Das wertvollste an einer konsole ist die zeitersparnis.

----
das faszinierendste an der G80 ultra ist die geringe steigerung der taktrate und deren brachiale leistung. Ein reiner g80@55nm und 800mhz core würde wahrscheinlich selbst einer 260² gefährlich werden... Die neue architektur ist auch extrem langlebig und leistungsfähig. Das muß man der karte wirklich lassen.

edit
und ich will +180% (eher +250%) mehr leistung für 300-350€.

derguru
2008-12-20, 23:24:08
Ich finde, auch wenn die GTX295 eigentlich eine Jänner 2009 Karte ist, gehört sie in diese Aufstellung noch hinein, der Gesamtsieg wäre sicher gewesen :)
Sie nutzt ganz klar 2008 Technologie, alsoer leider nicht geschaft hätte man sie ruhig reinnehmen können.
(außer Nvidia hats verboten :D;D)

ja nv hats aber nicht geschafft die karte im jahre 2008 rauszubringen dafür kommt sie dann" im großen 2009 test" vor dann aber im mittelfeld:tongue:

Full Ack.Imo nicht. Der Trend aktueller Titel im Vergleich zum Launch des RV670 geht mehr Richtung Texturpower und zudem dürfte der neue CB-Parcour mit bewegten (!) Szenen mehr AF-Leistung kosten (?) Vll liege ich aber auch voll daneben und nV hat die Treiber nur viel besser optimiert.

cYa

könnte auch teilweise daran liegen.
http://www.behardware.com/news/10005/dx10-radeon-geforce-quad-core.html

thacrazze
2008-12-20, 23:44:49
Test leider unbrauchbar da mit Catalyst 8.11 getestet.

Schlammsau
2008-12-20, 23:50:02
Stimmt. Lieber AI-off vs Q? :)

Was? :|

ich verstehe immernoch nicht warum m.M. nach Viele von der 80iger Generation auf die HD4xxx-Reihe oder GTX260iger umgestiegen sind. Was unspielbar war, bleibt unspielbar, und 200€ für ein bisschen mehr Q?

Ich will endlich die 8800GT raushaun :( + min. 80% mehr Dampf für < 250€

Da wirste wohl noch mindestens ein Jahr warten müssen!
Die Leistung ist bei den SGPU Karten, in den letzten 2 Jahren, nur um ~50% gestiegen. Also die GTX280 ist im Schnitt nur rund 50% schneller als die 8800 Ultra. Was eigentlich nicht wirklich viel ist.

tombman
2008-12-20, 23:56:01
weil du alt wirst? ;D


http://www.spieletester.com/uploads/galerie/mgs4_08.jpg

und ich will +180% (eher +250%) mehr leistung für 300-350€.
Reicht da eine 280er nicht?

Gast
2008-12-21, 00:05:24
Sätze wie: "Dafür erhält man (wenn man drauf Wert liegt) noch die Unterstützung für CUDA und PhysX, wobei der effektive Nutzen zur Zeit nur schwer abzuschätzen ist." finde ich einseitig.
Vom DX 10.1 und der Audiofähigkeit der Ati Karten wird nicht gesprochen, dabei istd as mindestens als Gleichwertig anzusehen.

Raff
2008-12-21, 00:56:41
Test leider unbrauchbar da mit Catalyst 8.11 getestet.

Stellvertretend für alle, die das sagen: Jetzt hört doch mal mit dem Bullshit auf, bitte.

Der Treiber (8.12) bringt im Schnitt 2,1337 Prozent mehr Leistung, was bitte ändert das an der generellen Aussage? Außerdem ist für die Presse bereits ein GeForce 180.88 nutzbar, der 180.48 ist ebenfalls "alt". Kam der neue zum Einsatz? Natürlich nicht. Vermutlich, weil die Werte recycled sind.

MfG,
Raff

y33H@
2008-12-21, 01:01:07
@ derguru

I 4got. Die Geforces gehn ja auf fette CPUs ab, den Radeons gehts am DVI-Ausgang vorbei ;D Was ist "besser"? Vom DX 10.1 und der Audiofähigkeit der Ati Karten wird nicht gesprochen, dabei istd as mindestens als Gleichwertig anzusehen.Ich denke, das HDMI-Audio-Gedöns geht 99% aller Gamer am Ohr vorbei ...

cYa

Gast
2008-12-21, 01:13:38
Was bringt mir D3D10.1? Und das bei CoD4 und Ati immer noch das Hitzeflimmern bei Explosionen fehlt erwähnt auch niemand. Immer diese Ati-Fanboys hier im Forum, heulen immer rum wo es gar nichts zu bemängeln gibt.

tombman
2008-12-21, 03:28:11
Bei Nvidia wurde auch nicht der neueste fw genutzt, also was solls.
Finde es sowieso lame Werte zu recyclen. Als reviewer sollte man die Pflicht haben die neuesten Treiber zu nutzen, auch wenn sie beta sind.
Ich will im Jänner zumindest einen Nachtest inkl GTX295 :biggrin:

The_Invisible
2008-12-21, 09:16:30
Warum koppelt man das dann? Genau, damit keiner auf die blöde Idee, AI deaktivieren - man verdammt den Nutzer dazu.GTX+ und G80? *g* Mir wäre ne Ultra (G80!) noch lieb gewesen, die haut nach wie vor kräftig auf die ... Benches :D

cYa

jo, ne 8800 gtx/ultra hätte da dank 256mb mehr in höheren auflösungen noch einiges mehr raushauen können, schade das nicht wenigstens eine davon mitgetestet wurde. :(

mfg

reunion
2008-12-21, 09:34:50
Was bringt mir D3D10.1? Und das bei CoD4 und Ati immer noch das Hitzeflimmern bei Explosionen fehlt erwähnt auch niemand. Immer diese Ati-Fanboys hier im Forum, heulen immer rum wo es gar nichts zu bemängeln gibt.

CoD4 wurde auch nicht getestet.

Stellvertretend für alle, die das sagen: Jetzt hört doch mal mit dem Bullshit auf, bitte.

Der Treiber (8.12) bringt im Schnitt 2,1337 Prozent mehr Leistung, was bitte ändert das an der generellen Aussage? Außerdem ist für die Presse bereits ein GeForce 180.88 nutzbar, der 180.48 ist ebenfalls "alt". Kam der neue zum Einsatz? Natürlich nicht. Vermutlich, weil die Werte recycled sind.

MfG,
Raff

Der Cat 8.12 ist aber nicht irgend ein Beta-Treiber, sondern ein offizieller WHQL-Treiber. Und gerade da die Werte recycelt sind, und man denselben Testparcour (außer CoD5 statt CoD4) schonmal mit dem Cat. 8.12 getestet hat, hätte man die Werte auch verwenden können. Aber du hast natürlich recht das dadurch auch keine Karte plötzliche Bäume ausreist, inkl. den CoD5 Verbesserungen dürften die Radeons um max. 4-5% zulegen.

Unyu
2008-12-21, 09:43:37
Was? :|

Achso, es sah so aus, als ob du eingesehen hast, das HQ höherwertig ist und demzufolge nicht vergleichbar mit AI-off.

Grindcore
2008-12-21, 11:04:48
ich verstehe immernoch nicht warum m.M. nach Viele von der 80iger Generation auf die HD4xxx-Reihe oder GTX260iger umgestiegen sind.

Ich bin für 199.- im August diesen Jahres von einer 640er 8800GTS auf eine GTX260 umgestiegen und hatte in vielen Fällen die doppelte Leistung. Ich verstehe eher nicht, warum es nicht viel mehr Leute zu diesem Zeitpunkt getan haben.

Gast
2008-12-21, 11:16:06
Ich bin für 199.- im August diesen Jahres von einer 640er 8800GTS auf eine GTX260 umgestiegen und hatte in vielen Fällen die doppelte Leistung. Ich verstehe eher nicht, warum es nicht viel mehr Leute zu diesem Zeitpunkt getan haben.

Weil's nicht nötig ist. Selbst Grafikkarten der oberen Mittelklasse sind nur mit massig AA/AF in die Knie zu zwingen. Das Spiel, welches die Grafikkarten noch richtig forderte, kam 2007 und nennt sich Crysis.

Schlammsau
2008-12-21, 11:19:40
Weil's nicht nötig ist. Selbst Grafikkarten der oberen Mittelklasse sind nur mit massig AA/AF in die Knie zu zwingen. Das Spiel, welches die Grafikkarten noch richtig forderte, kam 2007 und nennt sich Crysis.

Und was ist 2008 mit Warhead und STALKER Clear Sky?

Ronny G.
2008-12-21, 11:41:39
Dumm nur das schon garnicht mehr zwischen Single und Multigpukarten unterschieden wird, es wird heute schon fast als selbstverständlich angesehen das Singlegpukarten gegen Multigpu ne Chance hätte, dabei entwickelt sich ein total verzehrtes Bild weil die MultiGpukarten immer ganz klar gewinnen.

Das sollte getrennt werden. Man testet doch auch keine Dualcore CPU gegen nen Quadcore und stellt dann ganz überraschend fest das der QC wesentlich schneller ist, die entsprechende Anwendung vorausgesetzt.

Mit der Meinung stehe ich bestimmt wieder alleine da.

derguru
2008-12-21, 11:56:39
Und was ist 2008 mit Warhead und STALKER Clear Sky?

und was sagt uns das,oh die einzigen echten pc spiele.:eek:

Ronny G.
2008-12-21, 12:03:58
und was sagt uns das,oh die einzigen echten pc spiele.:eek:

und das ist traurig, so buttern wie nur sinnlos unsere imense Rechenkraft der heutigen PC´s in verkurxte Konsolenumsetzungen, ich sage nur GTA4.......
das gleiche läuft meist nur minimal Optisch schlechter auf Konsolen die nicht mal halb so viel Power haben.

Schlammsau
2008-12-21, 12:51:49
und das ist traurig, so buttern wie nur sinnlos unsere imense Rechenkraft der heutigen PC´s in verkurxte Konsolenumsetzungen, ich sage nur GTA4.......
das gleiche läuft meist nur minimal Optisch schlechter auf Konsolen die nicht mal halb so viel Power haben.

Ja, dass wird noch mehr werden. Die Spiele werden für Konsolen gemacht und dann mehr schlecht als recht auf den PC portiert. Das scheint schon fast Methode zu haben....um die PC Spieler geradezu zu den Konsolen zu drängen. Aber nicht mit mir. Konsolen sind (noch) keine alternative für mich!

y33H@
2008-12-21, 18:07:25
PCGH-Test mit 8.12 und 180.48 (http://www.pcgameshardware.de/aid,671247/Test/Benchmark/Catalyst_812_vs_Geforce_18048-_Benchmark-Test_mit_GTX_260-216_und_9800_GTX_sowie_HD_4870_und_HD_4850/)

cYa

Gast
2008-12-21, 18:17:49
PCGH-Test mit 8.12 und 180.84 (http://www.pcgameshardware.de/aid,671247/Test/Benchmark/Catalyst_812_vs_Geforce_18048-_Benchmark-Test_mit_GTX_260-216_und_9800_GTX_sowie_HD_4870_und_HD_4850/)

cYa

180.84 ?

Guter Test auch von PCGH zum Jahresende =)

Gast
2008-12-21, 18:24:03
Aber nicht mit mir. Konsolen sind (noch) keine Alternative für mich!

Für mich auch nicht (und werden es auch nie). Was müsste denn bei Dir passieren, damit sie es würden?

y33H@
2008-12-21, 18:26:45
180.84?Vertippt :usad: Ist der 48er ...

cYa

Noebbie
2008-12-21, 18:27:47
Ich hätte mal noch gerne in diesem Test gesehen, wie sich ein G92 mit 1024mb gegen die aktuellen VRam-Bomben geschlagen hätte. Denke da an eine 9800GT oder 9800GTX+ mit 1gb.

Grindcore
2008-12-21, 19:45:48
Weil's nicht nötig ist. Selbst Grafikkarten der oberen Mittelklasse sind nur mit massig AA/AF in die Knie zu zwingen. Das Spiel, welches die Grafikkarten noch richtig forderte, kam 2007 und nennt sich Crysis.

Echt traurig, so nen Schmulch in nem 3D-Technologieforum lesen zu müssen. Mit den entsprechenden SS-AA Modi frisst selbst WoW ne GTX 280 mit Haut und Haaren.

Gast
2008-12-21, 20:38:00
Echt traurig, so nen Schmulch in nem 3D-Technologieforum lesen zu müssen. Mit den entsprechenden SS-AA Modi frisst selbst WoW ne GTX 280 mit Haut und Haaren.

Hast du den zitierten Satz überhaupt verstanden?

VooDoo7mx
2008-12-22, 02:08:39
jetzt hör doch endlich mit dem Quatsch auf! Beide Karten können das gleiche 8xMSAA darstellen, warum sollte man sie nicht gegeneinander testen?
Ich kann es nicht mehr lesen! :mad:
Ja dann testen wir auch 16xS und 32xS mit und da ATi Karten diese Modi nicht können, bekommen sie da 0 FPS und das lassen wir ins performancerating einfließen. ;D;D;D
Zusätzlich rechnen wir dann noch 10% bei allen ATi Karten ab, die sie sich durch Rechenleistung ersparenden und qualitativ minderwertigen Texturfilter erkaufen.
ich verstehe immernoch nicht warum m.M. nach Viele von der 80iger Generation auf die HD4xxx-Reihe oder GTX260iger umgestiegen sind. Was unspielbar war, bleibt unspielbar, und 200€ für ein bisschen mehr Q?

Ich will endlich die 8800GT raushaun :( + min. 80% mehr Dampf für < 250€
Der Sprung von der 8800GTS 320 auf die GTX 260-192 hat sich für mich extrem gelohnt.
Finde es sowieso lame Werte zu recyclen.
Die Werte sind nicht recycled!
jo, ne 8800 gtx/ultra hätte da dank 256mb mehr in höheren auflösungen noch einiges mehr raushauen können, schade das nicht wenigstens eine davon mitgetestet wurde. :(
Ich denke mal, den Reviewer ging es darum, dass aktuelle Produktportfolio der beiden Hersteller gegeneinander antreten zu lassen und da gehört eine 8800Ultra einfach nicht mehr dazu.
Ich für meinen Teil hätte mir sogar noch weitere der kleinen Karten 4350, 4550, 9500GT und 9400GT gewünscht.
Dumm nur das schon garnicht mehr zwischen Single und Multigpukarten unterschieden wird, es wird heute schon fast als selbstverständlich angesehen das Singlegpukarten gegen Multigpu ne Chance hätte, dabei entwickelt sich ein total verzehrtes Bild weil die MultiGpukarten immer ganz klar gewinnen.

Das sollte getrennt werden. Man testet doch auch keine Dualcore CPU gegen nen Quadcore und stellt dann ganz überraschend fest das der QC wesentlich schneller ist, die entsprechende Anwendung vorausgesetzt.

Mit der Meinung stehe ich bestimmt wieder alleine da.
Nöö ich habe eine ähnliche Meinung da als du.
Allerdings nicht auf QuadCore CPUs bezogen.
Das Leistungsplus bei DualChip Karten erkauft man sich mit sehr vielen Nachteilen.
Ein Leistungsplus bei einer Quadcore CPU kommt allerdings nie mit Nachteilen. (außer vielleicht im Geldbeutel ;))
Meiner Meinung nach, sollte man den Test von Dual Chip, SLi und Crossfire in einen Extra Artikel verfrachten und gesondert behandeln und immer wieder genau auf die damit verbundenen Nachteile hinweisen.

Ronny G.
2008-12-22, 04:53:58
Nöö ich habe eine ähnliche Meinung da als du.
Allerdings nicht auf QuadCore CPUs bezogen.
Das Leistungsplus bei DualChip Karten erkauft man sich mit sehr vielen Nachteilen.
Ein Leistungsplus bei einer Quadcore CPU kommt allerdings nie mit Nachteilen. (außer vielleicht im Geldbeutel ;))
Meiner Meinung nach, sollte man den Test von Dual Chip, SLi und Crossfire in einen Extra Artikel verfrachten und gesondert behandeln und immer wieder genau auf die damit verbundenen Nachteile hinweisen.

das sich das nicht 1:1 von CPU´s auf Graka übertragen läßt ist mir klar, es sollte nur etwas die Situation veranschaulichen.

Wobei die Nachteile von QC zu DC schon manchmal parallelen zum "SIngle-GPU vs. Multi-GPU" haben.

1.meist mehr Stromverbrauch
2.Größere Hitzeentwicklung
3.dadurch meist schlechter zu Ocen
4.nur in entsprechend optimierten Anwendungen wirklich sinnvoll

Dabei halten sich die Nachteile aber in Grenzen, den MC ist wohl das schlagwort in Sachen MGPU, nen vergleichbaren Nachteil gibt es bei QC CPU´s nicht, da hast du recht.

Ri*g*g*er
2008-12-22, 09:04:19
Ich würde mir so sehr mal nen Test mit

A.I. Off vs. High Quality wünschen

und dann steht bei jeder ATI Grafikkarte die bei geizhals gelistet ist das die
einfach nur grottenschlecht filtert und man auch noch dazu gezwungen ist den Mist einzuschalten um "Optimierungen" zu haben . . .

Gruss
Ri*g*g*er

Schlammsau
2008-12-22, 09:05:32
Ich würde mir so sehr mal nen Test mit

A.I. Off vs. High Quality wünschen

und dann steht bei jeder ATI Grafikkarte die bei geizhals gelistet ist das die
einfach nur grottenschlecht filtert und man auch noch dazu gezwungen ist den Mist einzuschalten um "Optimierungen" zu haben . . .

Gruss
Ri*g*g*er

Zum Glück geht es nicht nach dir!

Unyu
2008-12-22, 10:45:26
Ich würde mir so sehr mal nen Test mit

A.I. Off vs. High Quality wünschen

Mich interessieren auch praxisnahe Einstellungen und miese Texturfilterung ist für mich nicht praxisnah, denn kaum Einer nutzt lediglich Q.
Die Frage ist nur, ob AMD mit AI-off vs HQ nicht zu sehr im Vorteil ist.


und dann steht bei jeder ATI Grafikkarte die bei geizhals gelistet ist das die
einfach nur grottenschlecht filtert und man auch noch dazu gezwungen ist den Mist einzuschalten um "Optimierungen" zu haben . . .
Wäre nur fair, nachdem alle GF7 2 Links bekommen haben, dürfen alle HD2, 3 und 4 vollkommen ungestraft davon kommen.

Schlammsau
2008-12-22, 11:27:47
Wäre nur fair, nachdem alle GF7 2 Links bekommen haben, dürfen alle HD2, 3 und 4 vollkommen ungestraft davon kommen.
2 Links? Dann hätte ich diese Links gerne!

Raff
2008-12-22, 11:32:48
2 Links? Dann hätte ich diese Links!

http://geizhals.at/deutschland/a255695.html

Unter den Specs oben (wie das klingt). Und bitte: Setz die Brille ab. Oder besser: Setz eine auf, die das Rot ausgleicht. ;)

MfG,
Raff

Schlammsau
2008-12-22, 11:40:55
http://geizhals.at/deutschland/a255695.html

Unter den Specs oben (wie das klingt). Und bitte: Setz die Brille ab. Oder besser: Setz eine auf, die das Rot ausgleicht. ;)

MfG,
Raff

Ich hab das "gerne" vergessen! :P
Dann schreib Geizhals an, und schlage vor, dass sie auch einen entsprechenden Link, bei der kompletten HD Serie hinzufügen.
Na, wie klingt das? :cool:

Black-Scorpion
2008-12-22, 11:46:02
Es ist schon erstaunlich das jemand einem vorwirft sein Geld von AMD/ATI zu bekommen und einem anderem eine Brille zu nehmen die das rot ausgleicht.
Jeder andere User hätte dafür eine Karte kassiert.
Hier passiert natürlich nichts dergleichen. Zumal der User ja die Neutralität in Person ist.

Raff
2008-12-22, 11:49:27
Bitte: Her mir der Karte, da steh ich drüber (warum auch immer, ich spreche nur Tatsachen aus). Ich kann diese Fan-Flut einfach nicht mehr sehen.

Ich hab das "gerne" vergessen! :P
Dann schreib Geizhals an, und schlage vor, dass sie auch einen entsprechenden Link, bei der kompletten HD Serie hinzufügen.
Na, wie klingt das? :cool:

Das Problem ist, dass es noch immer keinen guten Artikel gibt, der alle A.I.-Späße beleuchtet.

MfG,
Raff

Schlammsau
2008-12-22, 11:54:02
Das Problem ist, dass es noch immer keinen guten Artikel gibt, der alle A.I.-Späße beleuchtet.

MfG,
Raff
Und warum noch nicht? Immerhin ist die HD Serie, ja schon 1 1/2 Jahre am Markt.

Gast
2008-12-22, 12:00:35
http://geizhals.at/deutschland/a255695.html

Unter den Specs oben (wie das klingt). Und bitte: Setz die Brille ab. Oder besser: Setz eine auf, die das Rot ausgleicht. ;)

MfG,
Raff

Ein bisschen scheinheilig. Vor nich allzu langer Zeit warst Du reichlich ATI-Fan, mittlerweile das pure Gegenteil. Also bitte erstmal vor der eigenen Türe kehren.

Raff
2008-12-22, 12:05:19
Jetzt geht das wieder los. ;D Ich war noch nie Ati-Fan und werde nie einer sein. Ebenso war ich noch noch nie ein Nvidia-Fan und werde nie einer sein. Warum versteht niemand, dass zu gegebener Zeit das kritisiert wird, was es verdient hat? Gebt mir mehr Kritikpunkte an aktuellen Geforce-Karten und ich kritisiere. Das Prinzip ist so einfach! Warum hätte ich 2005/2006 eine X1000 kritisieren sollen, wo sie der GF7-Serie in fast allen Belangen vorzuziehen war? Erkennt ihr da ein Muster? ;)

MfG,
Raff

Sven77
2008-12-22, 12:22:33
Das Forum koennte langsam von Orange zu Rot wechseln.. is schon echt hart was hier manchmal abgeht. Im Moment ja einigermassen nachvollziehbar, da beide Hersteller Kopf-an-Kopf liegen, aber wenn ich da an RV670-Zeiten denke.. nene

Schlammsau
2008-12-22, 12:27:02
@Raff
mach einen Artikel.....dürfte doch nicht so schwer sein, ein paar Video- und Bildvergleiche zu machen, und einen schönen schlechtmachenden Threadtitel zu wählen.

Aber evtl. ist es doch schwerer als damals mit der Geforce 7!?

Ich zitiere mal eine Stelle aus einem alten Test einer 7900 von Computerbase:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/4/#abschnitt_testsystem
Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.



und hier den eines neuen Tests:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_grafikkarten_2008/2/#abschnitt_testsystem
Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, dass die Qualität der Texturfilterung auf aktuellen ATi- und Nvidia-Grafikkarten in der Standard-Einstellung in etwa vergleichbar sind (mit leichten Vorteilen für die GeForce-Produkte). Bei Nvidia verändern wir somit keinerlei Einstellungen und im ATi-Treiber belassen wir die A.I.-Funktion auf „Standard“.

LovesuckZ
2008-12-22, 12:27:44
Zum Glück geht es nicht nach dir!

Was wirklich schade ist, da es sonst zu sinnvollen und fairen Vergleichen kommen würde. ;)

Unyu
2008-12-22, 12:38:32
Aber evtl. ist es doch schwerer als damals mit der Geforce 7!?

Vielleicht Auf jeden Fall steht die X1xxx zu unrecht in so einem guten Licht.

Immerhin hat AMD echt Glück, mit ihrer Vorgehensweise.
Erst nVidia ins Cheatwettrennen reindrängen, dann eine tolle AF Blume hinlegen und und auf einmal ist nVidia böse.
Dann noch praktisch das die HD2 eh lahm ist bei der HD3 und 4 ist es eh alles vergessen, und wenn schon ist halt gottgegeben, das AI so ist, wie es ist.

Gast
2008-12-22, 12:45:33
Erst nVidia ins Cheatwettrennen reindrängen, dann eine tolle AF Blume hinlegen und und auf einmal ist nVidia böse.
Dann noch praktisch das die HD2 eh lahm ist bei der HD3 und 4 ist es eh alles vergessen, [...]


Diese teuflischen Genies in Kanada...

Unyu
2008-12-22, 12:50:29
Diese teuflischen Genies in Kanada...
Glück hat etwas mit Genialität zu tun?

Wenn du meinst, das das alles so geplant war, ok.

Raff
2008-12-22, 12:51:00
@Raff
mach einen Artikel.....dürfte doch nicht so schwer sein, ein paar Video- und Bildvergleiche zu machen, und einen schönen schlechtmachenden Threadtitel zu wählen.

Aber evtl. ist es doch schwerer als damals mit der Geforce 7!?

Es ist sogar unglaublich einfach, diese Unterschiede zu zeigen. Es ist aber mindestens genauso unglaublich aufwändig, etwas zu bauen, das dem Anspruch gerecht wird, eine allgemeine Aussage zu treffen. Eine Aussage, die auch von Fanboys erkannt (nicht zu verwechseln mit anerkannt bzw. akzeptiert) wird. Schnell was hinflanschen ist überhaupt kein Problem, aber das wirkt nicht, weil es a) nicht groß genug aufgezogen ist und b) niemals wasserdicht sein kann. Das zeigen aller Vergleiche bisher. Da achten Leute auf völlig irrelevanten Kram wie dynamischen Nebel oder ein Blatt, das durch eines von 2 Bildern flog. Auch reichen Screenies nicht, es braucht Videos in voller Auflösung, einen Ausflug in die Filtertheorie ... wie gesagt, es ist alles nicht so einfach. :)

WoW (Lich King) ist übrigens immer noch unangefochten gut, um den Sparfilter aktueller Radeons zu entlarven. Ich hab' das am Wochenende mit 24x CFAA gespielt. Die Kanten sehen übelst geil aus, die Texturen flimmern aber höllisch. Dieser Kontrast ist absurd, wenn man bedenkt, dass die Leistung durch 24x AA/16:1 AF vs. 1x/1x um weit über 50% einbricht. Mit 16x WT-CFAA wird nicht nur die Bildschärfe vernichtet, auch das Flimmern verschwindet fast ...

MfG,
Raff

Ri*g*g*er
2008-12-22, 13:01:50
@Unyu

genau diese Links hab ich bei geizhals gemeint "Danke"

Am besten ist es immer noch mal beide Grafikkarten im Rechner gehabt zu haben, denn da sieht man dann was es für Unterschiede gibt. Ich kenne da noch nen paar mehr wo mal dies mal das anders ausschaut. Das ist aber sehr schwer mit einem Screenshots darzustellen.
Wie Raff schon sagte bräuchte man das Videos am besten in HD Auflösung und nicht diese Mircoben youtube Fenster.

Wir als User können nur fordern das bei uns die Macht liegt einzustellen was man haben möchte.
Ob man dann dies oder das verändern kann ist mir total schnuppe.
Aber die Entkopplung und völlige Freiheit über das was mein Grafikbeschleuniger darstellen soll möchte ich schon selber haben.

Gruss
Ri*g*g*er

flatbrain
2008-12-22, 13:08:46
Es ist sogar unglaublich einfach, diese Unterschiede zu zeigen. Es ist aber mindestens genauso unglaublich aufwändig, etwas zu bauen, das dem Anspruch gerecht wird, eine allgemeine Aussage zu treffen. Eine Aussage, die auch von Fanboys erkannt (nicht zu verwechseln mit anerkannt bzw. akzeptiert) wird. Schnell was hinflanschen ist überhaupt kein Problem, aber das wirkt nicht, weil es a) nicht groß genug aufgezogen ist und b) niemals wasserdicht sein kann. Das zeigen aller Vergleiche bisher. Da achten Leute auf völlig irrelevanten Kram wie dynamischen Nebel oder ein Blatt, das durch eines von 2 Bildern flog. Auch reichen Screenies nicht, es braucht Videos in voller Auflösung, einen Ausflug in die Filtertheorie ... wie gesagt, es ist alles nicht so einfach. :)


Also wenn du nen Mirror brauchst, um Videos zu uppen, da könnte ich mit aushelfen. Daran soll es nicht scheitern. Groß genug aufziehen? Macht einen gemeinsamen Artikel unter Mitarbeit mehrerer großer Seiten, die kleinen Seiten verlinken. Geht nicht gibt es nicht. Man muss sich nur mal aufRaffen ;) !

Gaestle
2008-12-22, 13:18:37
PCGHW meint dazu:


Radeons vs. Geforce: Überblick
Ein beliebter Streitpunkt ist die Bildqualität (BQ). Wir wir im Artikel Radeon gegen Geforce: Vergleich der Bildqualität in 9 Spielen feststellten, bieten die Geforces auf Wunsch den klar besseren anisotropen Filter, hinsichtlich der Multisampling-Kantenglättung liegen die Kontrahenten gleichauf. Allerdings muss man den Geforce zugute halten, dass diese per Nhancer SSAA- und Hybrid-Modi anbieten, an deren optische Qualität AMD zurzeit schlicht nicht herankommt - wenngleich hierfür nur eine GTX 260 oder schneller genug Reserven besitzt. Die Antwort auf die Frage nach der (absolut) besseren Bildqualität lautet somit Nvidia.


Quelle: http://www.pcgameshardware.de/aid,671247/Test/Benchmark/Catalyst_812_vs_Geforce_18048-_Benchmark-Test_mit_GTX_260-216_und_9800_GTX_sowie_HD_4870_und_HD_4850/
(oben verlinkter Test 8.12 vs. 180.48)

Insgesamt kommt Marc Sauter (also nicht Raffael Vötter) zum Fazit:

Im Rahmen dieses Spiele-Parcours ist die Radeon HD 4870 mit 1.024 MiByte abzüglich der unspielbaren Fps-Werte einer Geforce GTX 260-216 hinsichtlich der Fps-Leistung somit ebenbürtig - schlicht der Spieletitel enscheidet über Sieg oder Niederlage. Addiert man die BQ und die Features hinzu, schwingt das Pegel zwar leicht zugunsten Nvidias, allerdings müssen Sie dafür auch mehr Geld bezahlen.




@flatbrain:
Also wenn du nen Mirror brauchst, um Videos zu uppen, da könnte ich mit aushelfen. Daran soll es nicht scheitern. Groß genug aufziehen? Macht einen gemeinsamen Artikel unter Mitarbeit mehrerer großer Seiten, die kleinen Seiten verlinken. Geht nicht gibt es nicht. Man muss sich nur mal aufRaffen ;) !

Das Problem ist wohl weniger der Serverspace, sondern eher:

Eine Aussage, die auch von Fanboys erkannt (nicht zu verwechseln mit anerkannt bzw. akzeptiert) wird.

und

Da achten Leute auf völlig irrelevanten Kram wie dynamischen Nebel oder ein Blatt, das durch eines von 2 Bildern flog.


Bei der Geforce-Serie hat es die grüne Fraktion auch erst eingesehen, als die 8er Serie draußen war.

BlackBirdSR
2008-12-22, 13:21:25
Tja dann hätte Raff doch gleich einen ofiziellen 3DC-Auftrag:
AMDs AI untersuchen und nach bester Möglichkeit den Usern darstellen. Ich denke die Crew und viele User werden Raff unterstützen wo es nur geht, damit der Artikel wieder an gewohnte 3DC-Zeiten anschließen kann.

Schlammsau
2008-12-22, 13:41:07
Ich habe kein Problem damit, aber nur wenn mehrere Crewmitglieder daran beteiligt sind.

flatbrain
2008-12-22, 13:45:48
Ich habe kein Problem damit, aber nur wenn mehrere Crewmitglieder daran beteiligt sind.

Wozu. Der Artikel würde doch so oder so anschliessend auseinandergepflückt, zerrissen, bejubelt und bespuckt werden...

HarryHirsch
2008-12-22, 13:52:33
Ich würde mir so sehr mal nen Test mit

A.I. Off vs. High Quality wünschen



Gruss
Ri*g*g*er

tests sollten nur noch so durchgeführt werden, eventuell geht ja ati dann ein licht auf

Black-Scorpion
2008-12-22, 14:10:36
[STRIKE]V
Erst nVidia ins Cheatwettrennen reindrängen, dann eine tolle AF Blume hinlegen und und auf einmal ist nVidia böse.
Lachhafter geht es schon gar nicht mehr.
NV hat das schon getan als ATI im Retailmarkt gerade versucht hat groß einzusteigen.
Zu der Zeit war ATI nur im OEM Markt groß.

James Ryan
2008-12-22, 14:11:27
Lachhafter geht es schon gar nicht mehr.
NV hat das schon getan als ATI im Retailmarkt gerade versucht hat groß einzusteigen.
Zu der Zeit war ATI nur im OEM Markt groß.

Google mal nach Radeon 8500 und Q3. ;)

MfG :cool:

LovesuckZ
2008-12-22, 14:18:21
Google mal nach Radeon 8500 und Q3. ;)

MfG :cool:

Warum 7 Jahre zurückgehen, wenn 4 1/2 schon reichen. ;)
http://www.techreport.com/articles.x/6754

Soweit ist nichtmal nVidia gegangen - das bewusste Belügen der Reviewer.

James Ryan
2008-12-22, 14:27:48
Warum 7 Jahre zurückgehen, wenn 4 1/2 schon reichen. ;)
http://www.techreport.com/articles.x/6754

Soweit ist nichtmal nVidia gegangen - das bewusste Belügen der Reviewer.

Mein Q3 Hinweis war nur eine Reaktion auf Black-Scorpions Aussage, NVIDIA cheatet schon viel länger als ATi. ;)

MfG :cool:

PCGH_Raffael
2008-12-22, 22:41:54
Insgesamt kommt Marc Sauter (also nicht Raffael Vötter) zum Fazit:

Wir sind eine Redaktion. Das bedeutet, dass nie etwas online oder ins Heft geht, das nicht noch von mindestens einem anderen Redakteur gelesen wurde.

MfG,
Raff

=Floi=
2008-12-22, 23:15:20
naja so genau kann das lesen ja nicht sein, da sonst nicht solche sachen rauskommen würden

http://www.pcgameshardware.de/aid,663215/Test/Benchmark/3DMark03-_Leistungsvergleich_von_Geforce_2_MX_bis_Radeon_4870_X2/
da sind ein paar fehlrer drinnen!

edit
und gegenlesen muß nicht zwangsläufig fehlerfreier sein! ;)

Raff
2008-12-22, 23:31:41
Redakteure sind auch nur Menschen und so. Glaub' ich.

MfG,
Raff

BlackBirdSR
2008-12-23, 08:56:00
Redakteure sind auch nur Menschen und so. Glaub' ich.

MfG,
Raff

Was ist jetzt wegen dem AI.Artikel? Ich denke, da hätte keiner was dagegen.

Schlammsau
2008-12-23, 09:16:20
Was ist jetzt wegen dem AI.Artikel? Ich denke, da hätte keiner was dagegen.

Ich auch nicht! Mich würde es wirklich sehr interessieren und ich möchte die grottenschlechte Filterung endlich sehen können!

desert
2008-12-23, 09:22:49
Was ist jetzt wegen dem AI.Artikel? Ich denke, da hätte keiner was dagegen.

o doch o doch, was meinst du wie lolli und seine ati heerscharen dagegen sturm laufen würden und alles in frage stellen und relativieren würden. Die arbeit ist einfach umsonst, viel lieber sollten wir uns den Cheaterei von nividia widmen, das ist doch immer einen artikel wert.

ich habe mich mittlerweile damit abgefunden das ati zwangsweise immer besser ist, lasst es einfach auf sich beruhen.

Gast
2008-12-23, 09:26:59
Was ist jetzt wegen dem AI.Artikel? Ich denke, da hätte keiner was dagegen.

Und ob da AMD was dagegen hat!

Schlammsau
2008-12-23, 09:42:47
o doch o doch, was meinst du wie lolli und seine ati heerscharen dagegen sturm laufen würden und alles in frage stellen und relativieren würden. Die arbeit ist einfach umsonst, viel lieber sollten wir uns den Cheaterei von nividia widmen, das ist doch immer einen artikel wert.

ich habe mich mittlerweile damit abgefunden das ati zwangsweise immer besser ist, lasst es einfach auf sich beruhen.

Machs dir nicht so einfach....bis jetzt hat man nur nichts hieb und stichfestes zu dem Thema A.I. gehabt! Ich warte schon länger auf einen beweisenden Artikel. Also Raff und Co, wir warten! :biggrin:

=Floi=
2008-12-23, 09:49:26
hey und zum schluß baut ati auch noch bessere filterung ein, dann kann man sich ja keine karte von nv mehr kaufen. Die ati ist dann schneller, preiswerter, stromsparender und filtert genau so gut. Soetwas darph ;) es doch nicht geben!!!1111337
Im grunde habe ich bei nv was ich will und wenn die leute mit ati zufrieden sind, dann sollten sie sich eben so eine karte kaufen. Solange ICH frei entscheiden kann und nv die qualität beibehällt ist mir das herzlichst egal. Wenn es nv nicht passen würde, dann hätten sie selbst ja auch schon mal darauf hingewiesen. Sonst wird ja auch jeder scheiß in den folien auseinandergepflückt!

Unyu
2008-12-23, 10:21:52
und nv die qualität beibehällt
Das ist leider ein Wunschtraum.
Wozu Ressourcen verschwenden, wenn die Konkurrenz gut mit dem Sparen fährt?

Cubitus
2008-12-23, 10:25:24
Das ist leider ein Wunschtraum.
Wozu Ressourcen verschwenden, wenn die Konkurrenz gut mit dem Sparen fährt?

Genau so gut könnte NV auch einen Extreme Quality Modus in der FW einführen, der wirklich alles un-optimiert lässt ;) Ich denke mal NV hat aus seinen Fehlern in der Vergangenheit gelernt.

Coda
2008-12-23, 15:20:18
Machs dir nicht so einfach....bis jetzt hat man nur nichts hieb und stichfestes zu dem Thema A.I. gehabt! Ich warte schon länger auf einen beweisenden Artikel. Also Raff und Co, wir warten! :biggrin:
Bitteschön:
http://www.mental-asylum.de/files2/aion.gif
http://www.mental-asylum.de/files2/aioff.gif

Fakten.

Schlammsau
2008-12-23, 15:37:53
Bitteschön:
http://www.mental-asylum.de/files2/aion.gif
http://www.mental-asylum.de/files2/aioff.gif

Fakten.

Bitte grösser und als Videofile.

Sven77
2008-12-23, 15:40:56
Bitte grösser und als Videofile.

Warum? Meinst wenns groesser ist flimmerts weniger? :|

James Ryan
2008-12-23, 15:43:08
Coda liefert Fakten, direkt kommt wieder die Schikane. ;)
Schlammsau, was erwartest du von einem Video in höherer Auflösung?

MfG :cool:

Gast
2008-12-23, 15:48:13
Bitteschön:
http://www.mental-asylum.de/files2/aion.gif
http://www.mental-asylum.de/files2/aioff.gif

Fakten.

Das gleich mal in Q und HQ von Nvidia plz.

Gast
2008-12-23, 16:18:31
Bitteschön:
http://www.mental-asylum.de/files2/aion.gif
http://www.mental-asylum.de/files2/aioff.gif

Fakten.

Ich finde das nicht schlimm. Ich habe EP:2 gerade wieder durchgespielt und dabei keine Stelle gesehen, an der mich ein Flimmern gestört hätte. Dafür ist das Spiel ohnehin zu fesselnd.

Trotzdem dürfte ATI einen HQ Schalter einbauen, damit jene, die sich an sowas stören, etwas in der Hand hätten. Die GPUs haben um 1000 GFlops Rechenleistung, da muss diese Beschränkung nicht sein.

Coda
2008-12-23, 17:17:58
Bitte grösser und als Videofile.
Das ist ein Bildauschnitt, also 1zu1 Pixelauflösung. Und du siehst das Flimmern auch ohne "Videofile".

Das gleich mal in Q und HQ von Nvidia plz.
Habe derzeit nur ne ATI.

Ich finde das nicht schlimm.
Das ist dein gutes Recht, aber nicht das Thema. Es gibt genügend gute Gründe sich darüber aufzuregen.

Trotzdem dürfte ATI einen HQ Schalter einbauen, damit jene, die sich an sowas stören, etwas in der Hand hätten. Die GPUs haben um 1000 GFlops Rechenleistung, da muss diese Beschränkung nicht sein.
Eben. Das bescheurtste ist, dass man A.I. bei den größten ATI-Karten nichtmal ausschalten kann, weil Crossfire daran gekoppelt ist :uclap:

vinacis_vivids
2008-12-23, 17:24:58
Bitte grösser und als Videofile.


Ich habs mal für Crysis warhead gemacht (Crossfire HD4800er glaub ich).
Für das Vid muss man aber Fraps installiert haben: Settings (allhigh, 4AA/16AF/AI.Standard)
Hier das Vid zum runterladen:
http://rapidshare.com/files/132045997/crysis64_4AA16AF.avi

Raff
2008-12-23, 18:11:47
Was ist jetzt wegen dem AI.Artikel? Ich denke, da hätte keiner was dagegen.

Ich glaube, hier liegt ein kleines Missverständnis vor. Mr. Lolman und Coda arbeiten schon ewig an sowas, daher wollte ich mich raushalten bzw. nur Anmerkungen verteilen, wenn's soweit ist. Ich halte die Kombination aus den beiden für ideal, da sie konträre Vorlieben haben. ;)

MfG,
Raff

deekey777
2008-12-23, 22:50:32
Bitteschön:
http://www.mental-asylum.de/files2/aion.gif
http://www.mental-asylum.de/files2/aioff.gif

Fakten.
Da flimmert nichts.
(Und jetzt stellt sich jeder das Bild des irakischen Informationsministers vor)

Wie schon anderswo erwähnt, habe ich aus Spaß eine 8600GT eingebaut.
Es gibt zwar gewisses (Shader-?)Flimmern an Wänden und Boden in HL2 (Kanäle), aber definitiv ist die Pest der HD3800 weg.
Als ich von der X1950GT auf die HD3850 umgestiegen bin (August), ist mir diese Plage sofort aufgefallen, darum weiß ich ganz genau, wo ich hin schauen muss.

Spasstiger
2008-12-23, 23:48:22
Hier hatte ich auch vor ein paar Wochen ein Vergleichsvideo zu Catalyst AI on/off hochgeladen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926042&postcount=27

derguru
2008-12-24, 00:13:07
Hier hatte ich auch vor ein paar Wochen ein Vergleichsvideo zu Catalyst AI on/off hochgeladen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926042&postcount=27
sogar mit A.I. off immer noch grausam und warum ist das obere bild dunkler?dynamischer tag,nacht zyklus:rolleyes:

Coda
2008-12-24, 01:39:06
Hier hatte ich auch vor ein paar Wochen ein Vergleichsvideo zu Catalyst AI on/off hochgeladen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926042&postcount=27
Da fehlen aber eindeutig Mipmaps auf der Steinwand. So pervers flimmern kann es sonst gar nicht.

Spasstiger
2008-12-24, 04:01:20
und warum ist das obere bild dunkler?dynamischer tag,nacht zyklus:rolleyes:
Check mal deinen Monitor, ein 28" TN-Panel-Monitor ist nicht gerade optimal, um Bildqualitätsvergleiche anzustellen.
Bei mir sind das obere und das untere Bild gleich hell.

Da fehlen aber eindeutig Mipmaps auf der Steinwand. So pervers flimmern kann es sonst gar nicht.
Ich denke nicht, dass hier Mipmaps fehlen. Lässt sich das irgendwie nachprüfen?

Coda
2008-12-24, 04:11:43
Ich denke nicht, dass hier Mipmaps fehlen. Lässt sich das irgendwie nachprüfen?
Es ist eigentlich eindeutig. Dieser Effekt kann nur so entstehen.

Mr. Lolman
2008-12-24, 12:51:05
Ich denke nicht, dass hier Mipmaps fehlen. Lässt sich das irgendwie nachprüfen?

Ne NVidia-Karte einbauen und schaun obs nochmehr flimmert ;)

Spasstiger
2008-12-24, 13:23:49
Es ist eigentlich eindeutig. Dieser Effekt kann nur so entstehen.
Mipmaps waren im Video definitiv an, ich habe mal per Konsole die Mipmaps ausgeschaltet:
http://www.abload.de/img/source_mipmappingkhf0.png

Die Textur ist einfach so fies, dass meine Radeon diese nur flimmernd darstellen kann. Da hilft vermutlich nur ein positives Textur-LOD.

Mr. Lolman
2008-12-24, 13:30:52
Zumindest verschwindet durch deaktivierte Mipmaps bei div. Texturen fast vollkommen der Kacheleffekt ;)

Spasstiger
2008-12-24, 13:46:32
Zumindest verschwindet durch deaktivierte Mipmaps bei div. Texturen fast vollkommen der Kacheleffekt ;)
In Bewegung ist er immer noch deutlich vorhanden. Das kommt auf einem Standbild nur nicht so rüber.

deekey777
2008-12-25, 20:32:19
Vielleicht Auf jeden Fall steht die X1xxx zu unrecht in so einem guten Licht.

Immerhin hat AMD echt Glück, mit ihrer Vorgehensweise.
Erst nVidia ins Cheatwettrennen reindrängen, dann eine tolle AF Blume hinlegen und und auf einmal ist nVidia böse.
....
Irgendwie kann man diese Aussage - selbst nachdem mehrmals erklärt wurde, was der tatsächliche Grund dafür sein könnte, - im Jahr 2008 nicht so einfach stehen lassen. Dass du von Naivität nur so strotzt, ist nicht auch nicht verwunderlich: Jede Aussage, die Nvidia in besseres Licht stellen soll, gibst du selbst dann unkritisch wieder, wenn du am Tag des Jüngsten Gericht vorm Großen Boss stehst.

Nur so als Denkanstoss:
BMW baut ein hässliches Auto, da es Kosten spart. Zwei Jahre später baut Mercedes darauf auch ein hässliches Auto, weil sie es nicht besser können, behaupten aber, dass es nur daran liegt, weil BMW zwei Jahre zuvor ihr hässliches Auto gebaut haben.

Zweiter Denkanstoss:
Die Entwicklung des R300 begann irgendwann 2000, der Chip kam im Herbst 2002 auf den Markt. Allein das wäre schon der Beweis dafür, dass diese Aussage, dass der NV40 (und schon der NV30) nur deswegen unbefriedigende Filterung bot, nicht wahr? Spätestens Mitte 2003 war das Design des NV40 fertig. Die Gerüchte über den R420 müssten also zu einem Zeitpunkt gekommen sein, wo das Design des NV40 fertig war.

Dritter Denkanstoss: Das Rampage-Design.

Schon der NV30 hat dieses Design. Der NV40 sowieso. Beim NV40 sieht die Anordnung in der Pixelpipeline so aus: ALU - TMU - ALU. Anders als bei der Konkurrenz, die auf das "Phasen-Design" seit dem R200 (?) aufbaut, hat diese Anordnung einen gravierenden Nachteil: Die TMUs und die ALUs sind miteinander gekoppelt. Dh: Während die TMUs ihren Job erledigen, haben die ALUs nichts zu tun (ATi: Während die TMUs etwas tun, bearbeiten die ALUs andere Pixel). Und je mehr die TMUs zu tun haben (durch AF16x), umso mehr haben die ALUs nichts zu tun, denn sie müssen auf die TMUs warten (ALU-Stalling), damit sinkt die Pixelshader-Leistung. Und was tut man da? Man führt die Winkelabhängigkeit ein, damit das Stalling minimiert wird.
Weniger vollwertige anisotrope Filterung, umso höher die Pixelshaderleistung.

Also: Warum hat die gesamte FX-Serie (NV30, NV40, G70) die verschlechterte Filterung? Um die Pixelshaderleistung nicht zu torpedieren. Und nicht weil die Konkurrenz hier Mist gebaut hat.

HarryHirsch
2008-12-25, 21:31:45
ist immer noch ein troll auf den du eingegangen bist

die x1xxx war nvidia halt voraus. da ändern auch aussagen wie:"Erst nVidia ins Cheatwettrennen reindrängen, dann eine tolle AF Blume hinlegen und und auf einmal ist nVidia böse." nix dran.
allein dieser satz sagt schon alles

Piffan
2008-12-26, 03:57:13
Da flimmert nichts.
(Und jetzt stellt sich jeder das Bild des irakischen Informationsministers vor)



Da flimmert nichts, jedenfalls ist nix flimmerndes auf den Bildern zu erkennen.

Falls die Wellblechstrukuren gemeint sind: Das hat aber nun mal rein gar nix mit der Filterung zu tun, das ist simples Moiré. Und das kommt eher vom Content, lässt sich höchsten per Unschärfe rausfiltern. :|

AnarchX
2008-12-26, 10:01:28
Du hast aber schon verstanden, dass beide gifs die gleichen Frames einmal mit und einmal ohne AI darstellen?

deekey777
2008-12-26, 12:14:51
Da flimmert nichts, jedenfalls ist nix flimmerndes auf den Bildern zu erkennen.

Falls die Wellblechstrukuren gemeint sind: Das hat aber nun mal rein gar nix mit der Filterung zu tun, das ist simples Moiré. Und das kommt eher vom Content, lässt sich höchsten per Unschärfe rausfiltern. :|
Dann hast du Probleme mit den Augen.

Piffan
2008-12-27, 01:22:45
Nein, meine Augen sind ok. Das Problem ist, dass hier Flimmern mit Moiré in einen Topf geworfen wird.

Da flimmert definitiv nichts. Punkt.

Bringt ein taugliches Beispiel mit echtem Texturflimmern.

Ich habe auch mal ein bisschen rumgefummelt und bemerkt, dass AF das Moiré sogar erst ermöglicht, wenn der fiese Content auf Dachschrägen liegt. Ohne Af ruhiges Bild, mit AF lebhaftes Moirieren.

Evtl. verschiebt sich durch AI on der AF- Grad bzw. die MIP- Stufenübergänge. Keine Ahnung, aber mit der Filterqualität hat das nix zu tun. Oder wirkt AF auf verschiedenen Texturen unterschiedlich?
Warum ist das angebliche "Flimmern" nur auf die Wellblechstruktur beschränkt?
Kann mal einer diese Wellblechstrukturen in Bewegung auf einem G80 zeigen? Hundertpro ist das dort genau so zu sehen, auch auf einer X1950XT. Die hatte ich nämlich bis vor kurzem noch drin.....:wink:


Übrigens zeigen die Gifs von Coda, dass es lediglich auf dem linken Schuppen mit AI off weniger moiriert, rechts ist der Unterschied geringer. Und wenn man jetzt mal einige Meter weiterläuft statt immer nur kurz vor und zurück, dann werden sich beide Schuppen nix nehmen, lediglich der Beginn des Moirés ist verschoben.

Die Texturen sind einfach Müll. Wenn man derart filigrane periodische Texturen verwendet, dann muss die Schärfe entsprechend reduziert werden. Af kann auch nicht zaubern.

Coda
2008-12-27, 01:28:29
Da flimmert definitiv nichts. Punkt.
Dann ist es halt Moiré. Fakt ist, die Textur wird eindeutig schlechter abgetastet wenn A.I. an ist. Das ist ein sicher. Ich kann es dir bald sogar beweisen.

Wir brauchen hier jetzt auch ganz bestimmt keine sinnlosen Begriffsdiskussionen führen.

Übrigens zeigen die Gifs von Coda, dass es lediglich auf dem linken Schuppen mit AI off weniger moiriert, rechts ist der Unterschied geringer. Und wenn man jetzt mal einige Meter weiterläuft statt immer nur kurz vor und zurück, dann werden sich beide Schuppen nix nehmen, lediglich der Beginn des Moirés ist verschoben.
Nein, der Effekt ist völlig unabhängig von dem Abstand.

ATI spart hier eindeutig an eigentlich nötigen Texture-Samples. Ich werde echt sauer, wenn man dauernd versucht diese Dinge kleinzureden. Das hilft niemandem. Alles was wir wollen ist ein Schalter um den Unsinn abzudrehen wenn es einem nicht passt unabhängig von dem anderen A.I.-Gedöns.

Piffan
2008-12-27, 01:49:23
Ich bin gespannt. Du siehst es als Begriffklauberei, ich bin mir absolut sicher, dass Moré was völlig anderes ist als Texturenflimmern.

Wenn ich die Zahl der Samples variere, dann nehmen verschieben sich lediglich die Einsätze des Moires. Wenn man aus der Ferne auf die periodische Texture zuläuft, dann gibts Einsätze, Maxima und schwupps, sind sie zwischendurch immer wieder weg. Und zwar beim Wechsel der Mip- Stufen. Aber beim Weitergehen beginnen sie bald wieder.

Mit oder ohne AF.

Ich will gar nix kleinreden, aber Dein Beispiel ist einfach äußerst unglücklich. Jede Wette, dass es auf jeder Karte so aussieht, und dass es durch AF eher akuter denn besser wird.

Wenn mir einer nachweist, dass man mit besserem Filter beschissene, periodische Texturen SCHARF und ohne MOIRE hinkriegt, dann bin ich perplex und halte die Fresse. :tongue:

Coda
2008-12-27, 01:52:45
Ich bin gespannt. Du siehst es als Begriffklauberei, ich bin mir absolut sicher, dass Moré was völlig anderes ist als Texturenflimmern.
Es kann beides Resultat der Unterfilterung sein.

Und zwar beim Wechsel der Mip- Stufen. Aber beim Weitergehen beginnen sie bald wieder.
Welcher Wechsel? Es sollte gefälligst trilinear gefiltert werden und dort gibt es keinen direkten Wechsel von Mipmaps.

Ich will gar nix kleinreden, aber Dein Beispiel ist einfach äußerst unglücklich.
Nein, ist es nicht. Man sieht eindeutig dass mit A.I. die Bildqualität verschlechtert wird. Die Frames sind identisch gewählt und auch der AF-Grad und der LOD-Bias sind identisch.

Wenn mir einer nachweist, dass man mit besserem Filter beschissene, periodische Texturen SCHARF und ohne MOIRE hinkriegt, dann bin ich perplex und halte die Fresse. :tongue:
Man kann das Moiré auf das absolute Minimum das möglich ist reduzieren.

Ab einem bestimmten Punkt (Die Nyquist-Grenze) wird es durch mehr Samples nicht mehr besser. Das habe ich in mehreren Versuchen schon nachgewiesen. Und an dieser haben sich die Hersteller gefälligst zu orientieren.

Wenn mir einer nachweist, dass man mit besserem Filter beschissene, periodische Texturen SCHARF und ohne MOIRE hinkriegt, dann bin ich perplex und halte die Fresse. :tongue:
Ich kann dir nachweisen, dass ATI die mit AF optimal mögliche Bildqualität nicht liefert. NVIDIA mit HQ schon.

Für noch bessere Resultate braucht man wohl andere Filterverfahren, aber das ist hier nicht das Thema.

Piffan
2008-12-27, 02:34:43
Ich kann dir nachweisen, dass ATI die mit AF optimal mögliche Bildqualität nicht liefert. NVIDIA mit HQ schon.



Da bin ich mal gespannt. Ich habe mit meiner HD 3850 festgestellt, dass das Moré äußerst resistent gegenüber AF ist und im Falle der Dachschrägen überhaupt erst mit AF auftritt. Daher ist es für mich klar, dass eine deutlichere Darstellung das Moré ebenfalls deutlicher werden lässt. Es ist ja eine Interferenz zwischen der Wiedergabe- Auflösung einerseits und der Periodik der Textur andererseits.

Übrigens ist das Problem ja beim Scannen von gerasterten Bildvorlagen auch wohlbekannt. Da gibts zwei Methoden, um dem Moiré zu entgehen: Unschärfer scannen, so dass das Druckraster erst gar nicht zur Wirkung kommt. Wäre bei Texturen eine geringer Schärfe zu wählen.
Zweite Methode: Knallhart mit hoher Auflösung scannen und dann mit einem Unschärfe- Filter zu verwischen. (Gauss- Filter mit definiertem Unschärfe- Radius)......
Aber ganz übel ist es, wenn der eigentliche Content selbst das Übel ist. Da hieße Verwischen auch den Content wegzubügeln. In dem Falle von HL2 hieße dass, dass anstelle des feinen Wellbeches dort Glattblech zu sehen wäre.

Versauten Content kann kein Filtersystem korrigieren.

Coda
2008-12-27, 02:52:46
Versauten Content kann kein Filtersystem korrigieren.
Ja, aber man kann es bestmöglich filtern im Rahmen des mögliche - was ATI nachweislich nicht tut. Was genau kapierst du daran nicht?

Gast
2008-12-27, 10:46:53
Manche Dinge will man einfach nicht verstehen. Aber es gibt nunmal Situationen, wo das weglassen von Informationen ein "sanfteres" Bild ergibt. Ob das nun schärfer oder detaillärmer ist als das "härtere" ist in dem Falle egal, da das Auge des Betrachters unterschiedlich wertet und in diesem Falle die "sanftere" Variante positiv aufgenommen wird.

Banshee18
2008-12-27, 15:34:08
Coda, hast du zu deinen gif-Bildern Savegames, damit man das mal auf einer nvidia nachstellen kann?

Coda
2008-12-27, 16:26:38
Manche Dinge will man einfach nicht verstehen. Aber es gibt nunmal Situationen, wo das weglassen von Informationen ein "sanfteres" Bild ergibt. Ob das nun schärfer oder detaillärmer ist als das "härtere" ist in dem Falle egal, da das Auge des Betrachters unterschiedlich wertet und in diesem Falle die "sanftere" Variante positiv aufgenommen wird.
"Sanfter"? Durch weglassen von Informationen bei der Abtastung werden sich in Bewegung die abgetasteten Werte immer relativ mehr zueinander verändern als wenn man ordentlich abtastet.

Aber auch ein Standbild wirkt dadurch normal "schärfer", außer man erwischt gerade durch einen Zufall einen absoluten Grenzfall.

Coda, hast du zu deinen gif-Bildern Savegames, damit man das mal auf einer nvidia nachstellen kann?
Ich schau mal. Wenn ich sie noch finde bekommst du sie.

Raff
2008-12-27, 19:09:57
Versauten Content kann kein Filtersystem korrigieren.

Das würde ich so nicht sagen. Formulieren wir's mal so: "Versauter" Content lässt sich mit heutigem AF allein nicht bügeln. Generell feineres Sampling bügelt dir aber auch das. Mit 16x Supersampling und 16x AF lassen sich einige Artefakte sehr, sehr abschwächen. Die sicken Texturen von Fakefactory werden damit (zumindest in 1.680x1.050) jedoch auch nicht durchgehend sauber, auch einige Pixelshader in UT3 & Co. flimmern mit 16x SSAA noch etwas.

MfG,
Raff