PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Leistung ATI vs. Nvidia


davidzo
2005-08-18, 12:57:55
Ich war bis vor kurzem der Besitzer einer Gigabyte 6800GT, die mit einem speziell von mir konstruiertem Kühler ohne sonst irgendwelche mods oder spannungserhöhungen auf 430/1180 ging. Ich war soweit zufrieden, bis auf die Größe der karte und den nvidia-treiber. Ich war halt lange Jahre ATI gewohnt und hatte die Omegatreiber-Radlinker Kombination liebgewonnen.

Mein Rechner ist ansonsten nicht mehr das aktuellste, aber imo noch schnell genug für alle aktuellen games unter 1280*1024mit n bissl FSAA und aniso:
1800+ dlt3c@2,4Ghz
1024mb ddr400
auf shuttle ak37GT (kt400)

Ich brauchte plötzlich mehr Plattenspeicher als meine 0,4tb und habe mit einem bekannten die 6800GT gegen eine original 9800xt+dvdbrenner+hdd+audigy getauscht, ein fairer tausch wie ich finde.

Der witz ist, dass sich kaum etwas verändert hat.
Ich kann nachwievor alle games auf 1280*1024 mit meistens allen details auf max und texturqualität schön hoch und 2x-4x fsaa und 8x aniso zocken.
Auf meinem rechner scheint die 9800xt ziemlich genausoschnell zu sein wie die 6800GT. - Wieso hat die eine Karte dann doppelt soviel rohleistung und kostet auch mehr als das doppelte?

Ok, dafür gibt es zwei begründungen:
1. meine cpu ist lahm, deswegen skaliert die 6800gt nicht genug. -ok, was ist nun aber mit fsaa und aniso, da sollte es doch einen unterschied geben?
2. Nvidiakarten sind bei HQ (was ich im treiber selbstverständlich immer ausgewählt hatte) einfach fast 50% langsamer als atikarten mit ungefähr gleichwertigem balanced setting (omegatreiber).

was schließe ich daraus:
- Nvidias nv40 generation wird zurzeit in den meisten reviews gnadenlos überschätzt. mit HQ bricht die leistung massiv ein. die x850xtpe dürfte eine 6800ultra gnadenlos abhängen, wenn die 6800gt nichtmal ne 9800xt bei HQ sichtbar besiegt.
- Wenn ihr nur einen AthlonXP habt (selbst wenn er 2,4ghz+ läuft wie meiner), kauft euch ne x800normal oder x800GT, bloß keine 6800Gt oder teurer, das lohnt sich nicht!

SGT.Hawk
2005-08-18, 13:05:33
ja,genau.Flame mal weiter.
Ich habe selber eine GT6800,ein Kumpel nur 9800 pro.
Wenn er Halflife 2 spielt,kann ich eine Auflösung höher gehen,ohne Ruckeln.
Ich habe Atholon XP 2,2Ghz er einen 64 2,2Ghz.Wenn er die Auflösung höher als 1024*768 stellt, läuft es nicht mehr flüssig mit AA/AF.

Gast
2005-08-18, 13:07:31
Danke bin auch der meinung dei Nv Karten brechen schneller ein.

StefanV
2005-08-18, 13:26:07
Tja, ist halt alles nur 'ne Frage wie man die Reviews 'hinbiegen' kann :rolleyes:

Das die ATI Karten am Ende doch die besseren sind, kann man kaum mehr abstreiten, a) weniger flimmern, b) mehr Leistung ohne Optimierungen.

Von der ach so gelobten nV Hardware ist irgendwie nur ein Trümmerhaufen der nach 'cheatin' schreit übrig geblieben...


PS: bin mal gespannt, obs AF beim R5xx schöner werden wird :devil:

Silent3sniper
2005-08-18, 13:28:10
PS: bin mal gespannt, obs AF beim R5xx schöner werden wird :devil:


Bezweifle ich mal...denn wieviele potentielle Käufer würden davon eigentlich irgendetwas mitbekommen?... ;) (Leitung > Qualität)

Gast
2005-08-18, 13:31:37
Tja, ist halt alles nur 'ne Frage wie man die Reviews 'hinbiegen' kann :rolleyes:

Das die ATI Karten am Ende doch die besseren sind, kann man kaum mehr abstreiten, a) weniger flimmern, b) mehr Leistung ohne Optimierungen.

Von der ach so gelobten nV Hardware ist irgendwie nur ein Trümmerhaufen der nach 'cheatin' schreit übrig geblieben...


PS: bin mal gespannt, obs AF beim R5xx schöner werden wird :devil:

Und schon ist der erste ATI Fanboy da.
Auch wenn du es nicht einsehen willst,
die Mehrheit der Spieler merkt das Flimmern und die Optimierungen gar nicht,
weil sie nicht wissen wie es richtig auszusehen hat.
Kann es sein, dass du alle Grafikkarten von Nvidia als Müll bezeichnet?

Peleus1
2005-08-18, 13:33:52
Und schon ist der erste ATI Fanboy da.
Auch wenn du es nicht einsehen willst,
die Mehrheit der Spieler merkt das Flimmern und die Optimierungen gar nicht,
weil sie nicht wissen wie es richtig auszusehen hat.
Kann es sein, dass du alle Grafikkarten von Nvidia als Müll bezeichnet?
Damit haste wohl Recht. Und da ist ja das schlimme. WENN ich es bemerke, dann bin ich sowieso gearscht. NV wirds nicht ändern, das ja viele nicht bermerken.
Hätte ATi so ne Art " Die Macht des nicht-Flimmerns" Kampagne gestartet wie NV mit ihrem Power of 3, dann wäre es noch interessanter geworden.

Symptom
2005-08-18, 13:36:07
Bei dem Threadtitel kann ja ausser Flamewar nichts herauskommen.
Und von einem Beispiel auf eine ganze Serie zu schliessen, ist wohl auch sehr unprofessionell.
Na ja, es wird wohl bestimmt wieder ein lustiger Thread mit einer kurzen Lebensdauer.

Marc-
2005-08-18, 13:36:55
Tja, ist halt alles nur 'ne Frage wie man die Reviews 'hinbiegen' kann :rolleyes:

Das die ATI Karten am Ende doch die besseren sind, kann man kaum mehr abstreiten, a) weniger flimmern, b) mehr Leistung ohne Optimierungen.

Von der ach so gelobten nV Hardware ist irgendwie nur ein Trümmerhaufen der nach 'cheatin' schreit übrig geblieben...


PS: bin mal gespannt, obs AF beim R5xx schöner werden wird :devil:

Obwohl ich selbst eigentlich immer nvidia karten für mich selbst vorgezogen habe und momentan auch noch tue, ist an der aussage was dran. Vielleicht ein bissel sehr pessimistisch ausgedrueckt aber in der rundaussage wohl leider richtig

Piffan
2005-08-18, 13:41:51
Meine Rede ist ja schon lange, dass viele meinen, dass es immer die letzte Generation bei den Grakas sein muss, obwohl es dafür keine Grundlage gibt. Ok, wer ne FX 5800 gekauft hat, war von Anfang an der Betuppte. Aber alles ab 9700 mit etwas OC reicht immer noch dicke aus.
Was bringt die Power der schnellen Karten denn nun wirklich? Wenn man Glück hat, ne bessere Bildqualität. Wenn man Pech hat, dann wird man von nicht abstellbaren "Optimierungen" beglückt, die den Gesamteindruck empfindlich versauen. Siehe den Geniestreich bei der GTX 7800: Auf der einen Seiten wird das Flimmern von Alphatesting reduziert, auf der anderen Seite drück man dem Spieler Texturenflimmern aufs Auge. Da fragt es sich dann wirklich, ob man sowas honorieren darf.
Aber klar, man braucht ja wegen HDR unbedingt ne NV- Karte....Schon klar, ohne diesen Effekt kann man ja beim besten Willen nicht mehr anständig zocken. Dumm nur, dass dadurch die anfangs überschüssige Leistung bis zur Schmerzgrenze aufgezehrt wird und die Spiele dadurch nicht wirklich generell mehr Spaß machen..

Piffan
2005-08-18, 13:42:41
Tja, ist halt alles nur 'ne Frage wie man die Reviews 'hinbiegen' kann :rolleyes:

Das die ATI Karten am Ende doch die besseren sind, kann man kaum mehr abstreiten, a) weniger flimmern, b) mehr Leistung ohne Optimierungen.

Von der ach so gelobten nV Hardware ist irgendwie nur ein Trümmerhaufen der nach 'cheatin' schreit übrig geblieben...


PS: bin mal gespannt, obs AF beim R5xx schöner werden wird :devil:

Hammerhart, aber richtig. :redface:

Gast
2005-08-18, 14:17:49
Ich war bis vor kurzem der Besitzer einer Gigabyte 6800GT, die mit einem speziell von mir konstruiertem Kühler ohne sonst irgendwelche mods oder spannungserhöhungen auf 430/1180 ging. Ich war soweit zufrieden, bis auf die Größe der karte und den nvidia-treiber. Ich war halt lange Jahre ATI gewohnt und hatte die Omegatreiber-Radlinker Kombination liebgewonnen.

Mein Rechner ist ansonsten nicht mehr das aktuellste, aber imo noch schnell genug für alle aktuellen games unter 1280*1024mit n bissl FSAA und aniso:
1800+ dlt3c@2,4Ghz
1024mb ddr400
auf shuttle ak37GT (kt400)

Ich brauchte plötzlich mehr Plattenspeicher als meine 0,4tb und habe mit einem bekannten die 6800GT gegen eine original 9800xt+dvdbrenner+hdd+audigy getauscht, ein fairer tausch wie ich finde.

Der witz ist, dass sich kaum etwas verändert hat.
Ich kann nachwievor alle games auf 1280*1024 mit meistens allen details auf max und texturqualität schön hoch und 2x-4x fsaa und 8x aniso zocken.
Auf meinem rechner scheint die 9800xt ziemlich genausoschnell zu sein wie die 6800GT. - Wieso hat die eine Karte dann doppelt soviel rohleistung und kostet auch mehr als das doppelte?

Ok, dafür gibt es zwei begründungen:
1. meine cpu ist lahm, deswegen skaliert die 6800gt nicht genug. -ok, was ist nun aber mit fsaa und aniso, da sollte es doch einen unterschied geben?
2. Nvidiakarten sind bei HQ (was ich im treiber selbstverständlich immer ausgewählt hatte) einfach fast 50% langsamer als atikarten mit ungefähr gleichwertigem balanced setting (omegatreiber).

was schließe ich daraus:
- Nvidias nv40 generation wird zurzeit in den meisten reviews gnadenlos überschätzt. mit HQ bricht die leistung massiv ein. die x850xtpe dürfte eine 6800ultra gnadenlos abhängen, wenn die 6800gt nichtmal ne 9800xt bei HQ sichtbar besiegt.
- Wenn ihr nur einen AthlonXP habt (selbst wenn er 2,4ghz+ läuft wie meiner), kauft euch ne x800normal oder x800GT, bloß keine 6800Gt oder teurer, das lohnt sich nicht!



9800pro(420/780) auf 6800GT(350/1000).... alle spiele konnte ich auf einmal flüssig in 1600*1200 4xAA/8xAF HQ zocken, alle optimierungen aus...

die 9800 pro gab teilweise schon in 1280 4xAA/4xAF auf und es verkam zur diashow. :ulol:

fazit: ne R3x0 karte kann niemals ne NV40/45 schlagen, schon garnicht wenns um hohe auflösungen + AA/AF geht.


Tja, ist halt alles nur 'ne Frage wie man die Reviews 'hinbiegen' kann :rolleyes:

Das die ATI Karten am Ende doch die besseren sind, kann man kaum mehr abstreiten, a) weniger flimmern, b) mehr Leistung ohne Optimierungen.

Von der ach so gelobten nV Hardware ist irgendwie nur ein Trümmerhaufen der nach 'cheatin' schreit übrig geblieben...


PS: bin mal gespannt, obs AF beim R5xx schöner werden wird :devil:


ATI karten besser... besonders in der bauteil qualität... ich sage nur lüfter die nach ner woche rattern wie nen rasenmäher.... :lol:

und weniger flimmern.... ja, aber für welchen preis? matschige texturen!

mehr leistung ohne optimierungen.... *krrmppffff* ich krieg mich net mehr ein. *rofl* :lol:

Gast
2005-08-18, 14:23:05
Meine Rede ist ja schon lange, dass viele meinen, dass es immer die letzte Generation bei den Grakas sein muss, obwohl es dafür keine Grundlage gibt. Ok, wer ne FX 5800 gekauft hat, war von Anfang an der Betuppte. Aber alles ab 9700 mit etwas OC reicht immer noch dicke aus.

für was? pacman 3D? :lol:


Was bringt die Power der schnellen Karten denn nun wirklich? Wenn man Glück hat, ne bessere Bildqualität.

SSAA z.b. aber sowas kennt man als fanATIkiger ja nicht. ;D


Wenn man Pech hat, dann wird man von nicht abstellbaren "Optimierungen" beglückt, die den Gesamteindruck empfindlich versauen.

z.b. spielerreien die in der hardware verankert sind... :rolleyes:

Siehe den Geniestreich bei der GTX 7800: Auf der einen Seiten wird das Flimmern von Alphatesting reduziert, auf der anderen Seite drück man dem Spieler Texturenflimmern aufs Auge. Da fragt es sich dann wirklich, ob man sowas honorieren darf.

2xAF und 8/16xSSAA heißt die lösung.


Aber klar, man braucht ja wegen HDR unbedingt ne NV- Karte....Schon klar, ohne diesen Effekt kann man ja beim besten Willen nicht mehr anständig zocken.

wenn man halt ein optikfreak ist kann man ohne sowas nicht zocken, punkt.

Dumm nur, dass dadurch die anfangs überschüssige Leistung bis zur Schmerzgrenze aufgezehrt wird und die Spiele dadurch nicht wirklich generell mehr Spaß machen..


doch, machen mehr spass, da optisch aufgewertet.

Mr. Lolman
2005-08-18, 14:27:14
9800pro(420/780) auf 6800GT(350/1000).... alle spiele konnte ich auf einmal flüssig in 1600*1200 4xAA/8xAF HQ zocken, alle optimierungen aus...

Spielst du nur alte Spiele? Und selbst die dürften Probleme bereiten. Bei UT2004 ist auf meinem Rechner mit 1280x1024 4xAA/16xAF HQ Sense.


die 9800 pro gab teilweise schon in 1280 4xAA/4xAF auf und es verkam zur diashow. :ulol:

Die 9800XT hat mehr Speicher als ne 9800p.


fazit: ne R3x0 karte kann niemals ne NV40/45 schlagen, schon garnicht wenns um hohe auflösungen + AA/AF geht.

Doch bei HL² hab ich mit meiner 9700p@400/350 @1280 4xAA/16xAF stw. recht problemlos eine 128MB 6800GT @400 versägt.


ATI karten besser... besonders in der bauteil qualität... ich sage nur lüfter die nach ner woche rattern wie nen rasenmäher.... :lol:

Dafür rauchen sei nicht gleich komplett ab, wie anfangs diverse 6600GTs


und weniger flimmern.... ja, aber für welchen preis? matschige texturen!

mehr leistung ohne optimierungen.... *krrmppffff* ich krieg mich net mehr ein. *rofl* :lol:

Matschige Texturen :lol: Ich dachte immer die wären im vgl zu den guten alten NV Karten flimmrig. Achja das kann NV ja mittlerweile besser. Ok, dann sind die Ati Texturen halt matschig. :crazy:

Mr. Lolman
2005-08-18, 14:32:47
SSAA z.b. aber sowas kennt man als fanATIkiger ja nicht.

doch, Demis DXTweaker erlaubt SSAA. Aber auf OGSSAA sch... ich eh nen großen Haufen.


z.b. spielerreien die in der hardware verankert sind...

und trotzdem ca. gleiche BQ bringen wie ein NV40 mit HQ. Zieh dir die 3DC Videos


2xAF und 8/16xSSAA heißt die lösung.

Genau 50-75% Fillrate hergeben, und 2xAF verwenden, damits nicht flimmert. Für so nen Dreck geb ich doch keine 500-1000€ aus.


wenn man halt ein optikfreak ist kann man ohne sowas nicht zocken, punkt.

Naja, SC3 bietet mit dem neusten Patch HDR auch auf ATi Karten.


doch, machen mehr spass, da optisch aufgewertet.

Ja solang man mit 8xS/16xAA spielbare fps erreicht ists ja eh kein Problem. Schade dass das meistens den SLI usern vorbehalten bleibt...

Winter[Raven]
2005-08-18, 14:38:17
Fanboys untersich ... Kindergarten... Habt ihr keine Freudin?

Beide haben Vor- und Nachteile ... bei einem mehr beim anderem weniger. Mag sein das Nvidia hier und da etwas "cheatet" (was zum kotzen ist), favorisiere ich derzeit trotzdem NV und bin froh mit der Shadertechnik 3.0 experementieren zu können, was man von ATi nicht sagen kann.

Gast
2005-08-18, 14:48:57
doch, Demis DXTweaker erlaubt SSAA. Aber auf OGSSAA sch... ich eh nen großen Haufen.

cool, hättest du mir das nicht gesagt hätte ich es garnicht gewusst.... :rolleyes:
nur kacke das die ATI karten SSAA nur bis 1024 und nur 2x2 können... und dann nichtmal im treiber... arm! :lol:


und trotzdem ca. gleiche BQ bringen wie ein NV40 mit HQ. Zieh dir die 3DC Videos

ich kenne die videos, und im realen siehst nicht halb so schlimm aus, ich kann im übrigen vergleichen... X800XT, 6800U und 2x 7800GTX sind in meinem besitz.


Genau 50-75% Fillrate hergeben, und 2xAF verwenden, damits nicht flimmert. Für so nen Dreck geb ich doch keine 500-1000€ aus.

dafür spart man die füllrate des 16x AF ein, also wayne?


Naja, SC3 bietet mit dem neusten Patch HDR auch auf ATi Karten.

nur fake HDR, und dazu mit einer unterirdischen performance.


Ja solang man mit 8xS/16xAA spielbare fps erreicht ists ja eh kein Problem. Schade dass das meistens den SLI usern vorbehalten bleibt...

nö, bei den meisten games auch mit einer GTX zu machen.

Ronny G.
2005-08-18, 14:49:28
Vorweg eines, bin auch ein NV40 besitzer.

Und stolz auf die Leistung bin ich ehrlich gesagt auch nur zur hälfte.
Man merkt die Leitung einer 6800er leider echt nur in den Auflößungen 1280x1024aufwärts, vorher merke ich selber kaum unterschiede zu ner 9800pro vom Kumpel.
Während bei der 9800er die performance erheblich einbricht juckt das die 6800er irgend fast garnicht, wenn man 1600x1200 zockt.


Gruß Ronny G.

Gast
2005-08-18, 14:52:51
Naja, SC3 bietet mit dem neusten Patch HDR auch auf ATi Karten.

nur fake HDR, und dazu mit einer unterirdischen performance.


Ne, das läuft sogar sehr gut.

Gast
2005-08-18, 15:17:52
1800+ dlt3c@2,4Ghz
1024mb ddr400
auf shuttle ak37GT (kt400)
Der witz ist, dass sich kaum etwas verändert hat.
Ich kann nachwievor alle games auf 1280*1024 mit meistens allen details auf max und texturqualität schön hoch und 2x-4x fsaa und 8x aniso zocken
Ja der echte Witz daran. Den suchen wir jetzt mal :) Ich hab zwar eine Art 9800XT/128 @435/380 und ich lass nichts böses darauf kommen :D ABER der Witz wäre jetzt eher, daß Du alle "games" (also Spiele :crazy: ) in 1280x1024 mit meistens allen Details mit mind. 2xAA und 8xAF "schnell genug" zocken kannst. Mit einem 2.4Ghz TB auf KT400. Mit dem schnell genug ist das so eine Sache, glaub ich ;)

Denn ich spiel hier auf Barton 2.3Ghz, nF2-400 und 1GB RAM meine (auch im Geschäft) AKTUELLEN Spiele nur flüssig mit 4xAF (CP) und 2xAA - wenn sich AA im Spiel aktivieren läßt - wenn ich auf 1024x768 schalte. CRT ist COOL :biggrin: Das ist FÜR MICH zwar absolut ausreichend - Texturen/Mipmap auf hohe Quali gehen dann auch noch - aber mit einer 6800GT würd ich so ein Teil nicht grade vergleichen. Auch wenn man den NV40 quasi zwangsweise auf HQ stellen muß ;) , dafür reicht die Power allemal. Der Vorteil mit Deiner ATI ist momentan, daß Du den Cat5.8 aufspielen kannst und diesbezüglich ein sorgloses Leben geniessen kannst. Wie mit jedem anderen Radeon-Chip. Das wars aber auch.

deekey777
2005-08-18, 15:18:17
Ich war bis vor kurzem der Besitzer einer Gigabyte 6800GT, die mit einem speziell von mir konstruiertem Kühler ohne sonst irgendwelche mods oder spannungserhöhungen auf 430/1180 ging. Ich war soweit zufrieden, bis auf die Größe der karte und den nvidia-treiber. Ich war halt lange Jahre ATI gewohnt und hatte die Omegatreiber-Radlinker Kombination liebgewonnen.

Mein Rechner ist ansonsten nicht mehr das aktuellste, aber imo noch schnell genug für alle aktuellen games unter 1280*1024mit n bissl FSAA und aniso:
1800+ dlt3c@2,4Ghz
1024mb ddr400
auf shuttle ak37GT (kt400)

Ich brauchte plötzlich mehr Plattenspeicher als meine 0,4tb und habe mit einem bekannten die 6800GT gegen eine original 9800xt+dvdbrenner+hdd+audigy getauscht, ein fairer tausch wie ich finde.

Der witz ist, dass sich kaum etwas verändert hat.
Ich kann nachwievor alle games auf 1280*1024 mit meistens allen details auf max und texturqualität schön hoch und 2x-4x fsaa und 8x aniso zocken.
Auf meinem rechner scheint die 9800xt ziemlich genausoschnell zu sein wie die 6800GT. - Wieso hat die eine Karte dann doppelt soviel rohleistung und kostet auch mehr als das doppelte?




Der Threadtitel steht im krassen Widerspruch zum Eröffnungsposting.
Ich tippe in erster Linie auf die "Systemlimitierung", man könnte - rein bildlich - sagen, daß deine 6800GT von deinem PC "gebremst" wird.

Um welche Spiele geht es überhaupt? Far Cry? Doom 3? Riddick? Halo?
Spielst du mit V-Sync? Welche Einstellungen im Spiel selbst?

was schließe ich daraus:
- Nvidias nv40 generation wird zurzeit in den meisten reviews gnadenlos überschätzt. mit HQ bricht die leistung massiv ein. die x850xtpe dürfte eine 6800ultra gnadenlos abhängen, wenn die 6800gt nichtmal ne 9800xt bei HQ sichtbar besiegt.

Ja, eine X850XT PE ist die schnellste Grafikkarte des letzten Jahres, auch der Taktvorteil ist nicht zu verachten.

- Wenn ihr nur einen AthlonXP habt (selbst wenn er 2,4ghz+ läuft wie meiner), kauft euch ne x800normal oder x800GT, bloß keine 6800Gt oder teurer, das lohnt sich nicht!
- Wenn ihr nur einen AthlonXP habt (selbst wenn er 2,4ghz+ läuft wie meiner), kauft euch ne x800normal oder x800GT, bloß keine 6800Gt oder teurer, das lohnt sich nicht!

Aber auch eine 6600GT. Wegen der fehlenden WMV-Beschleunigung ist für mich keine der 6800AGPs eine Alternative zu den X800ern.


Ok, dafür gibt es zwei begründungen:
1. meine cpu ist lahm, deswegen skaliert die 6800gt nicht genug. -ok, was ist nun aber mit fsaa und aniso, da sollte es doch einen unterschied geben?
2. Nvidiakarten sind bei HQ (was ich im treiber selbstverständlich immer ausgewählt hatte) einfach fast 50% langsamer als atikarten mit ungefähr gleichwertigem balanced setting (omegatreiber).

Zu eins: VSync?
Zu 2: Woher willst du das wissen?

Pirx
2005-08-18, 15:21:02
a) Hmm stimmt schon, mit ner 9700 kann man immer noch sehr gut spielen.
b) Bei den neuen Karten kann man sich, wenn man nicht aufpasst bildqualitätsmäßig ganz schön verschlechtern.
c) Ehemals glühende Verfechter einer Grafikkarten-Marke können auch wieder zu "normalen" Useren werden(y) :D

deekey777
2005-08-18, 15:24:19
a) Hmm stimmt schon, mit ner 9700 kann man immer noch sehr gut spielen.
b) Bei den neuen Karten kann man sich, wenn man nicht aufpasst bildqualitätsmäßig ganz schön verschlechtern.
c) Ehemals glühende Verfechter einer Grafikkarten-Marke können auch wieder zu "normalen" Useren werden(y) :D

a) Mit einer 9800Pro kann man es noch besser, doch man muß schon einie Einstellungen "anpassen".
b) Wenn man irgendwelche Kack-Treiber installiert - bei einem Catalyst-Treiber ist es mir noch nie passiert.
c) Du meinst, sie können das Fanboytum ablegen? :biggrin:

Wollen wir das Niveau wieder auf das 3DCenter-Maß erhöhen?

mapel110
2005-08-18, 16:01:28
und dicht...

@Threadstarter
Das nächste Mal wäre es nicht schlecht, konkrete Beispiele(in welchen Games) zu nennen, wo die Leistung gleich gut ist.
Mir ist nämlich kein Game bekannt, dass bei mir nach der Umrüstung von 9800 Pro auf 6800 GT @HQ langsamer oder nur gleich gut gelaufen wäre.
/edit
Wieder offen, vorläufig.

Zur Filterdiskussion siehe auch
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3369320#post3369320

Chill187
2005-08-19, 10:13:33
@davidzo

ich glaube du hast keinen grossen unterschied gesehn weil du nen "lahmen" prozi hast.für die neusten karten braust du ne menge prozi leistung sonst sitzt da der flaschenhals...
ein kollege hat ne 9800Pro in seinem 2.1 hz pc,als er meine x800xt mal ausprobieren wollten waren die fps auch nicht viel höher als mit der 9800Pro,seit dem er nen 3.0 hz prozi hat sind die unterschiede sehr gross.

ATI vs Nvidia,kann ich nur sagen;manchmal sind die einen vorne dann wieder die anderen,so wird das auch immer bleiben.und das ist auch gut so,konkurenz belebt das geschäft...

HOT
2005-08-19, 10:29:31
Dass die NV40 Karten auf HQ gegen die x800 Karten kein Land sieht sollte klar sein. Es ist nunmal leider so, dass die NV40 Treile übelst einbrechen bei HQ, je mehr AF desto schlimmer. Und eine NV40 ohne HQ zu betreiben ist nur was für Flimmerresistente Personen, ohne HQ kommt mir kein Bild mehr auf den Schirm. Allerdings bereue ich das nicht, denn trotz der Leistungsdifferenz habe ich eine SM3.0 fähige Karte, die auch HDR problemlos kann. Es hat eben alles seine vor und Nachteile.

mapel110
2005-08-19, 10:44:00
@davidzo

ich glaube du hast keinen grossen unterschied gesehn weil du nen "lahmen" prozi hast.für die neusten karten braust du ne menge prozi leistung sonst sitzt da der flaschenhals...
ein kollege hat ne 9800Pro in seinem 2.1 hz pc,als er meine x800xt mal ausprobieren wollten waren die fps auch nicht viel höher als mit der 9800Pro,seit dem er nen 3.0 hz prozi hat sind die unterschiede sehr gross.

ATI vs Nvidia,kann ich nur sagen;manchmal sind die einen vorne dann wieder die anderen,so wird das auch immer bleiben.und das ist auch gut so,konkurenz belebt das geschäft...
Ich hatte einen Athlon XP, der meist mit 2200 Mhz lief und da brachte die 6800 GT dennoch sehr viel. Doom3 ruckelte vor sich hin mit 1024 und 2xAA, mit der GT war dann 1280 mit 4xAA drin. Ähnlich siehts bei Farcry aus.
Dass die NV40 Karten auf HQ gegen die x800 Karten kein Land sieht sollte klar sein. Es ist nunmal leider so, dass die NV40 Treile übelst einbrechen bei HQ, je mehr AF desto schlimmer. Und eine NV40 ohne HQ zu betreiben ist nur was für Flimmerresistente Personen, ohne HQ kommt mir kein Bild mehr auf den Schirm. Allerdings bereue ich das nicht, denn trotz der Leistungsdifferenz habe ich eine SM3.0 fähige Karte, die auch HDR problemlos kann. Es hat eben alles seine vor und Nachteile.
1. Wir vergleichen hier aber nicht x800 mit 6800, sondern 9800 mit 6800.
2. Schon mal andere Benchmarks als UT2003/4 angeschaut?!
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_spellforce
Spellforce 9 % Verlust, Riddick 1.5 % Verlust, RTCW 11 % Verlust

Und ich behaupte mal ganz dreist, dass DAS der Regelfall ist, und nicht die ca 30 % von Farcry, HL2, UT2003/4 oder Halo.
Ich hab noch keine großen Performance-Nachteile durch HQ feststellen können. Aber ich zocke auch nicht in 1600x1200, sondern in 1280x1024. Das entschärft die Situation noch einmal.

Mr. Lolman
2005-08-19, 10:48:01
Ich hatte einen Athlon XP, der meist mit 2200 Mhz lief und da brachte die 6800 GT dennoch sehr viel. Doom3 ruckelte vor sich hin mit 1024 und 2xAA, mit der GT war dann 1280 mit 4xAA drin. Ähnlich siehts bei Farcry aus.


Hast dir schöne Beispiele ausgesucht. Aber hast recht D³ (4xAA statt 0xAA) und Farcry (4xAA statt 2xAA) laufen besser. Hl² eher kaum. Aber Flatout spielte ich vorher mit 6xAA - jetzt mit 4xAA weil 8xS zu langsam ist.

mapel110
2005-08-19, 10:51:39
Aber Flatout spielte ich vorher mit 6xAA - jetzt mit 4xAA weil 8xS zu langsam ist.
Da bin ich mir sicher, dass auch bei mir 8xS drin war. Das Game performte ja sehr gut.

deekey777
2005-08-19, 11:10:32
Hast dir schöne Beispiele ausgesucht. Aber hast recht D³ (4xAA statt 0xAA) und Farcry (4xAA statt 2xAA) laufen besser. Hl² eher kaum. Aber Flatout spielte ich vorher mit 6xAA - jetzt mit 4xAA weil 8xS zu langsam ist.

Welche Beispiele sollen es denn sein? Solitär?
Es ist doch für jeden klar, daß für häßliche Spiele eine 9800Pro mehr als ausreichend ist.
Ich kann mit meiner 9800Pro Far Cry auf hohen-sehr hohen Settings spielen, auch wenn mein Far Cry grafikkalasitiger ist als bei den meisten, in einigen Levels ist sogar 4xAA drin, sonst ist immer AF8x (ingame) aktiv. Doom 3 lief bei mir auf Medium&2xAA+AF4x, HQ ging nicht, was andere Ursachen hat. HL2 läuft immer mit 4xAA/AF8x, genauso wie RaSh, was aber auch ein häßliches Spiel ist. Auch Painkiller 1.6 lief mit hohen Settings + 4xAA/AF8x problemlos.

Die Auflösung ist aber 1024x768, da 15'' TFT.

Mein Fazit: Es juckt mich unglaublich, eine neue Grafikkarte wie X800 Standard oder X800Pro zu holen, andererseits ist mein Rechner so einer Grafikkarte unwürdig -> 3000+, VIA KT333... Es lohnt sich doch auf ein Update auf eine neuere Grafikkarte zu verzichten.

Gast
2005-08-19, 11:11:29
Der ganze Thread bringt meiner Meinung nach nix!
1. Cheatet NV bei 6800'er und 7800'er NACHWEISLICH
2. Haben beide Karten eine sehr schlecht Bildqualität

Mr. Lolman
2005-08-19, 11:27:40
Da bin ich mir sicher, dass auch bei mir 8xS drin war. Das Game performte ja sehr gut.

iirc wars nicht mehr ganz flüssig. Ich probiers gleich nochmal. Neue Treiber brachten ja z.T. auch viel recht Performance bei dem Spiel.

Mr. Lolman
2005-08-19, 11:30:33
Welche Beispiele sollen es denn sein? Solitär?
Es ist doch für jeden klar, daß für häßliche Spiele eine 9800Pro mehr als ausreichend ist.

Ich war halt zum Schluss mim AF eher auf Sparflamme. Deswegen konnte ich HL² mit 4xAA Farcry mit 2xAA und UT2004 mit 4xAA - alles in 1280 spielen.

Gast
2005-08-19, 11:34:20
Der ganze Thread bringt meiner Meinung nach nix!
1. Cheatet NV bei 6800'er und 7800'er NACHWEISLICH
2. Haben beide Karten eine sehr schlecht Bildqualität


1. tut ATI auch mit dem R3x0 und R4x0, mit dem R5x0 wirds auch nicht besser.
2. die BQ von den ATI's ist auch nicht viel besser.

Mr. Lolman
2005-08-19, 12:00:59
iirc wars nicht mehr ganz flüssig. Ich probiers gleich nochmal. Neue Treiber brachten ja z.T. auch viel recht Performance bei dem Spiel.

Gut, mit dem 77.77 ist 1280/8xS/8xAF (Q+TriOPt) nutzbar. Zwar gehen die fps tw. auf 25 runter aber viel schneller war 6xAA/8x Performance AF wohl auch nicht mehr.

davidzo
2005-08-19, 12:21:00
Ja der echte Witz daran. Den suchen wir jetzt mal :) Ich hab zwar eine Art 9800XT/128 @435/380 und ich lass nichts böses darauf kommen :D ABER der Witz wäre jetzt eher, daß Du alle "games" (also Spiele :crazy: ) in 1280x1024 mit meistens allen Details mit mind. 2xAA und 8xAF "schnell genug" zocken kannst. Mit einem 2.4Ghz TB auf KT400. Mit dem schnell genug ist das so eine Sache, glaub ich ;)


Also ich denke dass mein tb sicher nicht langsamer ist als dein barton ;)
Ich habe nur geschrieben, dass ich alle in 1280*1024 spiele weil das sonst auf dem TFT vermatscht aussieht und aniso und af habe ich meistens auf den obig beschriebenen einstellungen, gibt wenige ausnahmen, z.B. FarCry, das spiele ich ohne AA.


Denn ich spiel hier auf Barton 2.3Ghz, nF2-400 und 1GB RAM meine (auch im Geschäft) AKTUELLEN Spiele nur flüssig mit 4xAF (CP) und 2xAA - wenn sich AA im Spiel aktivieren läßt - wenn ich auf 1024x768 schalte. CRT ist COOL :biggrin: Das ist FÜR MICH zwar absolut ausreichend - Texturen/Mipmap auf hohe Quali gehen dann auch noch - aber mit einer 6800GT würd ich so ein Teil nicht grade vergleichen. Auch wenn man den NV40 quasi zwangsweise auf HQ stellen muß ;) , dafür reicht die Power allemal. Der Vorteil mit Deiner ATI ist momentan, daß Du den Cat5.8 aufspielen kannst und diesbezüglich ein sorgloses Leben geniessen kannst. Wie mit jedem anderen Radeon-Chip. Das wars aber auch.

Ich habe nicht gesagt dass die 9800xt besser ist oder mir Vorteile bietet, aber ich wollte nur herausstellen wie absolut gering der Unterschied und kaum spürbar der wechsel auf meinem system von der gt zur 9800xt war.


@all: games von denen ich rede:
Ich spiele nicht wenig Forgotten Hope, also noch alte BF42engine, abe rmit viel mehr details und polygonen. In Forgotten Hope hat die 6800gt zusätzlich die bodentexturen enorm krisselig gemacht, ich empfinde das Bild nun ruckelfreier und schöner (da sist aber ein extremfall). ATIkarten haben bei bf42 schon immer die nase vorn gehabt und große framerates hat man selbst mit den neuesten karten nicht bekommen, bei nem kumpel der 16x12 auf nem 20" TFT spielt ruckelt das hin und wieder sogar auf seine x800pro (hat sonst fast nen identisches sys wie ich).

nächstes game ist farcry. vielleicht auch nicht der beste vergleich, da atikarten hier seit jeher gut abschneiden trotz nvs twimtbp aber ich will hier ja nicht die karten vergleichen, sondenr nur meine erfahrungen mitteilen.

Bei Rome spüre ich keinen unterschied zwischen den beiden karten.

In Battlefield2 ist die GT geringfügig schneller, das mus sich zugeben.


Und ja, ich spiele in der Regel mit vsync, abe rich habs zum testen auch mal ausgemacht und das Bild war nicht wesentlich anders.

Natürlich ist das vielleicht nicht die gameauswahl die ihr spielt, aber im großen und ganzen muss ich sagen dass eine ATI einfach besser zu den games passt die ich spiele und dass sollte sich jeder genau überlegen. doom3 wurde seltener durchgespielt als farcry und trotzdem ist es eines der größten argumente beim grakakauf, ist dass nicht ein bisschen irrational? wozu benötige ich eine karte die in doom³ gut dasteht wenn ich es nichteinmal spiele? - Sollte ich nicht vielmehr gucken wa sich atm spiele und in zukunft wohl spielen werde und dann anhand der engines der spiele und deren performance bei beiden herstellern entscheiden welche marke ich nun kaufe?


Ich wollte nocheinmal hervorheben, dass man gerade in neueren games die 9800xt beileibe nicht mit einer 9800pro oder gar 9700 vergleichen kann. Da ist ein unterschied von 128mb speicher und etliche mhz!
Ich hatte vor der 6800GT eine 9700pro 128mb und hab einen echten Unterschied gespürt als ich auf die schnellere nvidiakarte upgegradet habe.
Genau deswegen dachte ich ich würde den downgrade auf die 9800xt spüren, aber das ist ja gerade das Ding, ich spüre ihn nicht und das ist doch irgendwie komisch oder?

Aus diesem Grunde hab ich den Thread aufgemacht um mein persönliches empfinden mitzuteilen. natürlich ist das kein richtiges benchmarking und natürlich möchte ich damit nichts beweisen. ich möchte aber durchaus leute in ihrer Kaufentscheidung beeinflussen, denn ich bin mir über meine Erfahrungen sicher und teile sie also als hilfestellung für andere hier allen mit. was jeder einzelne damit macht ist seine eigene sache.

OSG
2005-08-19, 16:33:11
ati user gegen nvidia user, nvidia user gegen ati user

es reicht langsam wir wissen alle das ATI user die besten Graka´s auf der welt haben und alle spieler in DE auf ATI einschwören wollen.

fakt ist nidia und auch ATI cheaten oh wollte sagen bei ATI nennen sie es ja optimieren der spiele wenn sie texturen durch einfachere ersetzen ;) .

Es ist auch fact das jetzt die spielehersteller mehr auf SM 3.0 setzen werden und nur vieleicht ne fall back lösung auf sm 1.1 anbieten da den meisten die programierung auf sm 2.0 zu umfangreich ist.

ob man nun ne ATI oder ne nvidia hat ist im grunde egal, bei manchen spielen hat ATI die nase vorn durch optimierung das andere mal nvidia durch optimierung.

ich für meinen teil würde lieber zu einer nvidia raten da sie einfach die zukunftsichere zusätze unter der haube hat. die x800 war leider schon beim rauskommen veraltet auch wenn sie schneller ist.

mfg

OSG

MikBach@w
2005-08-19, 16:53:45
Es ist auch fact das jetzt die spielehersteller mehr auf SM 3.0 setzen werden und nur vieleicht ne fall back lösung auf sm 1.1 anbieten da den meisten die programierung auf sm 2.0 zu umfangreich ist.

Wer sagt das?
So etwas kann man nicht pauschal sagen, da jede Spielefirma ihre bestimmte "Ideologie" hat, wobei Karten, die nur 1.x beherrschen mittlerweile eh zu langsam sind, deswegen sollte sich eher 2.X als 1.X durchsetzen.

Die Unreal3-Engine z.B wird mehrere Pfade haben.

Gast
2005-08-19, 17:09:15
verkommt 3dc zuzm kinergarten?
wäre schade, bisher habe ich hier immer interessante diskussionen mitverfolgt, aber so langsam schleichen sich wohl immer mehr idioten ein

Mr. Lolman
2005-08-19, 17:27:57
verkommt 3dc zuzm kinergarten?
wäre schade, bisher habe ich hier immer interessante diskussionen mitverfolgt, aber so langsam schleichen sich wohl immer mehr idioten ein

In dem Thread schreiben User ihre persönlichen Erfahrungen nieder. Irgendwie kann ich das keine Brücke zu irgendwelchen "Idioten" und nem "Kindergarten" ziehen, hilf mir mal dabei.

Nicky
2005-08-19, 17:28:22
2. Schon mal andere Benchmarks als UT2003/4 angeschaut?!
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_spellforce
Spellforce 9 % Verlust, Riddick 1.5 % Verlust, RTCW 11 % Verlust

Und ich behaupte mal ganz dreist, dass DAS der Regelfall ist, und nicht die ca 30 % von Farcry, HL2, UT2003/4 oder Halo.
Ich hab noch keine großen Performance-Nachteile durch HQ feststellen können. Aber ich zocke auch nicht in 1600x1200, sondern in 1280x1024. Das entschärft die Situation noch einmal.
Sind Riddick und RCTW nicht OGL? Laut Lolman filtert hier die GF selbst auf HQ nur B(r)i ? Spellforce lasse ich dir mal gelten trotzdem dass die Engine diesselbe wie bei einem populaeren Bench ist.
Trotz dieser Einschraenkungen muss ich dir trotzdem ein bisserl recht geben, da eine 6.800Gt wohl micht mit einer 9.800 zu vergleichen ist.

Mr. Lolman
2005-08-19, 17:33:51
Sind Riddick und RCTW nicht OGL? Laut Lolman filtert hier die GF selbst auf HQ nur B(r)i ?

Ne, bei OpenGL ist das Problem, dass es keine Texturstages in dem Sinne gibt, und deswegen Treiberdefault* nur bilinear filtert. Brilinear bei HQ ist eher eine Optimierung für die UT Engine...





*eigentlich reicht schon Q + Mipfilter Optimierung.

MikBach
2005-08-19, 17:41:17
verkommt 3dc zuzm kinergarten?
wäre schade, bisher habe ich hier immer interessante diskussionen mitverfolgt, aber so langsam schleichen sich wohl immer mehr idioten ein
Wohl bisschen angesäuert wegen dem NV-Bashing in der letzen Zeit hier im Forum.
Klar, dann am Besten 3DCenter zum Kindergarten degradieren... :rolleyes:

MountWalker
2005-08-19, 19:55:07
...
Es ist auch fact das jetzt die spielehersteller mehr auf SM 3.0 setzen werden und nur vieleicht ne fall back lösung auf sm 1.1 anbieten da den meisten die programierung auf sm 2.0 zu umfangreich ist.
...
Was ist denn an 2.0 ach so umfangreich?
Es gibt nur ein einziges Spiel das auf 1.1 aufgebaut ist und ein paar Zusätze in 3.0 bietet, 3.0 sind dabei nur ein paar Zusätze. Der Grund? SplinterCell Chaos Theory ist in erster Linie ein Konsolenspiel, es ist für XBox geschrieben und die XBox hat nunmal nicht mehr als Shader 1.1, dass damit im übrigen bereits mit das schönste gerendert wird was es derzeit gibt sei mal nebenbei erwähnt. Um SC-CT auch auf dem PC den Status "Kick-Ass-Grafik" zu verleihen, den das Spiel aber imho auch auf dem PC schon ohne Shader 3.0 verdient, wurden halt ein paar Sachen auf Basis von Shader 3.0 hinzugefügt.
Shader 1.1 ist in SplinterCell Chaos Theory KEINE "Fall-Back-Lösung", sondern der Grundstock!

Und übrigens Riddik wurde für den PC auch etwas erweitert, komischerweise nutzt Riddik aber auf dem PC Shader 2.0 und nicht 3.0.

Shader 2.0 ist DirectX 9 und damit die Basis für die Windows-PC-Zukunft, es ist durchaus davon auszugehen, dass Shader 2.0 noch sehr lange Anwendung finden wird - Vista erscheint erst in über einem Jahr und fördert Shader 2.0.

deekey777
2005-08-19, 20:39:03
In dem Thread schreiben User ihre persönlichen Erfahrungen nieder. Irgendwie kann ich das keine Brücke zu irgendwelchen "Idioten" und nem "Kindergarten" ziehen, hilf mir mal dabei.

Einige "Scherzeckse" wurden wegmoderiert.
...
Shader 1.1 ist in SplinterCell Chaos Theory KEINE "Fall-Back-Lösung", sondern der Grundstock!
Zum Glück gibt es da noch ATi. :biggrin:

Und übrigens Riddik wurde für den PC auch etwas erweitert, komischerweise nutzt Riddik aber auf dem PC Shader 2.0 und nicht 3.0.

Pixelshader, OpenGL, ja, nein, doch... ;D
Zumindest bietet Riddick einen gewissen SM 2.0++ Modus, der über PS 2.0 geht.

mapel110
2005-08-19, 20:43:23
Pixelshader, OpenGL, ja, nein, doch... ;D
Zumindest bietet Riddick einen gewissen SM 2.0++ Modus, der über PS 2.0 geht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=192102&highlight=riddick
da gibts mehr Infos dazu.

Winter[Raven]
2005-08-19, 20:46:13
Wohl bisschen angesäuert wegen dem NV-Bashing in der letzen Zeit hier im Forum.
Klar, dann am Besten 3DCenter zum Kindergarten degradieren... :rolleyes:

1. Glasshaus...

2. Bashing kann man es nicht sagen, den ausser dem AF kannst du an NV NICHTS kritisieren, und das AF-Problem war Kritikwürdig! Den Es kann einfach nicht sein, das die Chips immer mehr leisten, aber der User im Endeffekt MINEMAL schlechtere AF-Qualität bekommt...! :mad:

MikBach
2005-08-19, 20:52:53
']1. Glasshaus...
:confused:

2. Bashing kann man es nicht sagen, den ausser dem AF kannst du an NV NICHTS kritisieren, und das AF-Problem war Kritikwürdig!
Das AF trägt ausser dem AA MASSGEBLICH zur BQ bei, also ist es sehr wichtig.
Viel wichtiger als SM3 und HDR...

Winter[Raven]
2005-08-19, 20:58:48
Stimmt, trotzdem kann ich nur wiederholen, die 7800 AF Qualität ist bei weitem nicht SO EXTREM wie viele es behaupten ... ja auch du ... Lifeaction, nur dann kannst du deine eigene Meinung bilden.

mapel110
2005-08-19, 21:05:18
']Stimmt, trotzdem kann ich nur wiederholen, die 7800 AF Qualität ist bei weitem nicht SO EXTREM wie viele es behaupten ... ja auch du ... Lifeaction, nur dann kannst du deine eigene Meinung bilden.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3390587&postcount=832
schau dir mal die Live-action an. ;(

MikBach
2005-08-19, 21:07:05
']Stimmt, trotzdem kann ich nur wiederholen, die 7800 AF Qualität ist bei weitem nicht SO EXTREM wie viele es behaupten ... ja auch du ... Lifeaction, nur dann kannst du deine eigene Meinung bilden.
Komm schon Winter, mach dich nicht lächerlich.
Schau dir mal das HL2-Video an.
Ich bin aus den Latschen gekippt.
Das ist grauenhaft! :mad:

Mr.Magic
2005-08-19, 21:30:38
http://home.arcor.de/magic-dsl/pcm_mmeinung.gif

@Threadstarter

Bis 1280 ist bei einer 6800GT häufig flüssig spielen mit 8xSAA/16xAF möglich. Wenn das mal nicht geht funktioniert zumindest 4xAA/16xAF unter 1600 flüssig.
Versuch' das bitte mal mit der betagten 9800 (die 1600@4x, SSAA-Mix ist ja leider nicht möglich). Wer auf höchste Qualität wert legt kommt um die neueste Generation nicht herum, egal ob nVidia oder ATi.

@all

Das Flimmern der aktuellen nVidia-Karten ist wirklich höchst bedauerlich. Ich hätte mir ansonsten längst zwei 7800 für ein SLI-Setup besorgt. ATi kommt mir momentan nicht in meinen Spiele-PC, da die einfach zu beschränkt sind (vor allem die AA-Modi).

@MountWalker

Ich würde sogar davon ausgehen, dass Shader 1.1 noch lange verwendet wird. Die Gründe dafür sind die Verbreitung von 1.1-Grafikkarten, von Windows-XP und von der X-Box/PS2. Das ist die aktuelle Basis für Spielekonvertierungen und bis Crossplatform-development mit Next-Gen-Konsolen den letzten Spieler zu Vista/WGF2.0 bringt ist es locker 2009.
Solange für die (noch) aktuellen Konsolen entwickelt wird bleiben wir bei 1.1 als Grundvoraussetzung für die breite Masse*. Sowohl Shader 2 als auch Shader 3 werden hier nie relevant werden.
Bei der Spieleaufwertung sieht es etwas anders aus. Shader 2.0 kann nichts das 1.1 nicht auch kann (zumindest habe ich in keinem Spiel nennenswerte neue/bessere Effekte entdeckt als Shader 2 noch für mich relevant war) und ist für schnell eingefügte, erweiterte Effekte generell zu umständlich (Arbeitsaufwand). Globale Shader mit 3.0 sind dagegen relativ schnell und einfach umsetzbar. Mit dem Shader3-Support bei der neuen ATi-Kartengeneration werden höchstens reine PC-Entwicklungen noch Shader 2.0-Support bieten (sofern er nicht eh schon für die Engine existiert und einfach integriert werden kann, einen optischen Unterschied von 2.0 zu 1.1 halte ich jedenfalls in 99 von 100 Spielen weiterhin für Wunschdenken).

* damit das klar ist hier meine persönliche Definition (hat sich mit fließenden Übergängen so, beim Hardwareverkauf, herauskristallisiert):
breite Masse: 640x480-1024x768 ohne extra Qualität erscheint erträglich
Gamer: 1024x786@4xAA/2xAF minimum
Qualitätsfreund: 1600@4xAA/16xAF bevorzugt
Qualitätsfetischist: 1600@16xAA/16xAF bevorzugt

Winter[Raven]
2005-08-19, 21:38:27
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3390587&postcount=832
schau dir mal die Live-action an. ;(

Situationsabhänig würd ich sagen, ich habe die Karte mit vielen Games getestet und ja es flimmert etwas aber nicht so wie es von vielen dargestellt wird.

Will nicht Nvidia den bug in HQ mit einem der kommenden Treiber beheben?

@ MikBach

Liegt es in blut der Fanboys jemanden gleich persönlich angreifen zu müssen, nur weil man anderer Meinung oder andere Beobachtung macht?...

Ich muss sagen ich kenne viele aus meinem Freundeskreis die es nunmal auch nicht als extrem bezeichnen würden, und um Himmelswillen, waren diese vor 6800 bzw. 7800, alle ATI Käufer.

MikBach
2005-08-19, 21:42:07
']

Liegt es in blut der Fanboys jemanden gleich persönlich angreifen zu müssen, nur weil man anderer Meinung oder andere Beobachtung macht?...

Du solltest dich eher als Fanboy bezeichnen mein Freund.
Schau dir das Video an, dann bist du geheilt!
Das ist echt armselig, was Nvidia da dem User anbietet.
Pure Verarschung...*stichel*:D

Gast
2005-08-19, 22:13:29
genau so leute wie dich mikbach, meine ich
man kritisiert das hier nur gelamed wird und sofort kommt der kommentar das man nur deswegen scheiss laune hat weil nv im mom eine abbekommt
genau dieses verhalten ist kindisch
ist doch völlig egal wer einen "abbekommt", dies ist ja nicht immer ohne grund
nur baut nv gerade braune haufen kommen wohl besitzer roter grakas und meinen alle nv besitzer runterzumachen

kann man das ganze nicht sachlich formuliert vernünftig diskutieren?
das früher hier mal möglich

es kann doch auch nicht der ernst sein zu behaupten ne 9800pro wäre so schnell wie eine 6800GT
da sieht man sofort das derjenige total verblendet ist
wobei ich nicht den sinn darin sehe einen hertseller zu hypen, denn ich kaufe immer das was mir preis/leistung am ehesten zusagt
ob da nun ati, nv oder xgi drauf steht ist mir völlig latte

Mr. Lolman
2005-08-19, 22:16:23
Er redet von ner 9800XT. Und je nach Spiel kann sich das wirklich ausgehen. (Auch wenns natürlich genügend Spiele gibt, wo ne 6800GT doppelt so schnell ist, keine Frage...)

MikBach
2005-08-19, 22:18:50
genau so leute wie dich mikbach, meine ich
man kritisiert das hier nur gelamed wird und sofort kommt der kommentar das man nur deswegen scheiss laune hat weil nv im mom eine abbekommt
genau dieses verhalten ist kindisch
ist doch völlig egal wer einen "abbekommt", dies ist ja nicht immer ohne grund
nur baut nv gerade braune haufen kommen wohl besitzer roter grakas und meinen alle nv besitzer runterzumachen

kann man das ganze nicht sachlich formuliert vernünftig diskutieren?
das früher hier mal möglich

es kann doch auch nicht der ernst sein zu behaupten ne 9800pro wäre so schnell wie eine 6800GT
da sieht man sofort das derjenige total verblendet ist
wobei ich nicht den sinn darin sehe einen hertseller zu hypen, denn ich kaufe immer das was mir preis/leistung am ehesten zusagt
ob da nun ati, nv oder xgi drauf steht ist mir völlig latte
Ich habe jetzt kein Bock auf deine kindischen Beahauptungen einzugehen.
Ich weiss, dass ich dafür Punkte bekomme, aber leck mich am Arsch, wenn du keine Ahnung von der Materie hast.

edit: Ich wollte mich somit beim Gast entschuldigen.
Wenn man paar Bierchen getrunken hat, sollte man die Finger von der Tastatur lassen. :redface:

Gast
2005-08-19, 22:32:26
vielen dank für deinen sehr qualifizierten beitrag
der hat die welt verändert und uns alle bereichert
naja ich wurde halt in meiner feststellung bestätigt

aber auf so ein niveau bgeb ich mich mit sicherheit net, ich klink mich hier aus

MikBach
2005-08-19, 22:49:35
vielen dank für deinen sehr qualifizierten beitrag
der hat die welt verändert und uns alle bereichert
naja ich wurde halt in meiner feststellung bestätigt

aber auf so ein niveau bgeb ich mich mit sicherheit net, ich klink mich hier aus
Brauchst du aunh nicht...
Zeig mir einen Shader (code), der die ATI in die Knie zwingt...
Das ist ein ganz anderes Nineau, lass mal hören...

Coda
2005-08-19, 22:53:19
Eigentlich hat die 6600GT mehr Shaderkraft als die 9800Pro. Und nein, das saug ich mir nicht aus den Fingern. Von einer 6800GT brauchen wir also gar nicht erst zu reden.

MikBach
2005-08-19, 22:54:38
Eigentlich hat die 6600GT mehr Shaderkraft als die 9800Pro. Und nein, das saug ich mir nicht aus den Fingern. Von einer 6800GT brauchen wir also gar nicht erst zu reden.
Theoretisch hast du Recht...

Coda
2005-08-19, 22:58:40
Was heißt hier theoretisch:
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD05MTMmdXJsX3BhZ2U9NQ==

Auch meine eigenen Shader verhalten sich nicht anders, also kann von einer App-spezifischen Optimierung nicht die Rede sein.

MikBach
2005-08-19, 23:01:33
Was heißt hier theoretisch:
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD05MTMmdXJsX3BhZ2U9NQ==

Auch meine eigenen Shader verhalten sich nicht anders, also kann von einer App-spezifischen Optimierung nicht die Rede sein.
Du erwartest doch nicht eine Antwort darauf....

Coda
2005-08-19, 23:02:32
Äh bitte was? Eigentlich erwarte ich zumindest eine Rechtfertigung für diese unhaltbare Behauptung.

MikBach
2005-08-19, 23:07:38
Äh bitte was? Eigentlich erwarte ich zumindest eine Rechtfertigung für diese unhaltbare Behauptung.
Die ist halbtar..
Schlaff gut.... ist jetzt mein Ernst...

Coda
2005-08-19, 23:08:39
Dann zeig mir bitte einen Shader wo das so wäre.

Das ist definitiv nicht haltbar. Es sind absolute Ausnahmefälle wo die 9800 Pro mal in die Nähe der 6600GT kommt bei langen Shadern.

eXodia
2005-08-19, 23:09:19
Äh bitte was? Eigentlich erwarte ich zumindest eine Rechtfertigung für diese unhaltbare Behauptung.

* zu Coda flüstere* - er hält sich selbst für Gott und dich für minderwertig - deswegen will er dich nicht an seinen intelligenzergüssen teilhaben lassen...

GrUß

deekey777
2005-08-19, 23:14:21
Hier geht die Post ab. Selbst eine X700Pro hat mehr "Shaderpower" als die alte 9800Pro.

LolekDeluxe
2005-08-19, 23:14:29
Doch bei HL² hab ich mit meiner 9700p@400/350 @1280 4xAA/16xAF stw. recht problemlos eine 128MB 6800GT @400 versägt. :


Du können Zaubern? HL2 ist CPU limitiert!!!!! :|

Mr. Lolman
2005-08-19, 23:20:28
Du können Zaubern? HL2 ist CPU limitiert!!!!! :|

Mit 128MB GraKA Ram 1280 und 4xAA ist da garnix mehr CPU limitiert.

eXodia
2005-08-19, 23:21:50
Mit 128MB GraKA Ram 1280 und 4xAA ist da garnix mehr CPU limitiert.

Ack!

GrUß

Mr.Magic
2005-08-19, 23:23:08
Du können Zaubern? HL2 ist CPU limitiert!!!!! :|

Dazu kommt noch das die 6800 bei der niedrigen Auflösung und dem niedrigen Antialiasing sowieso Däumchen dreht (auch wenn die 128MB auf einer 6800GT sowieso totaler quatsch sind, da hat man eine schnelle Grafikkarte und kann die vernünftigen Modi gar nicht nutzen).

mapel110
2005-08-19, 23:23:36
Du können Zaubern? HL2 ist CPU limitiert!!!!! :|
Laß ihn träumen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_asus_v9999gt_td_128/13/#abschnitt_half_life_2
67 zu 31 fps
Und da wurde auch der Videostresstest genutzt, also 19 % runter, 54 fps bleiben dann noch.
Naja, egal. Belege gibts von der anderen Seite sowieso keine -> sinnlos.

LolekDeluxe
2005-08-19, 23:25:40
Mit 128MB GraKA Ram 1280 und 4xAA ist da garnix mehr CPU limitiert.

So meinte ich das garnicht.
Er meint aber das er mit einer 9700p@400/350 @1280 4xAA/16xAF stw. recht problemlos eine 128MB 6800GT @400 versägt. :ulol4:

StefanV
2005-08-19, 23:25:55
Eigentlich hat die 6600GT mehr Shaderkraft als die 9800Pro. Und nein, das saug ich mir nicht aus den Fingern. Von einer 6800GT brauchen wir also gar nicht erst zu reden.
Shaderpower nutzt nicht wirklich viel wenn der Speicherbus dicht ist ;)

Von der besseren BQ der 9800 reden wir jetzt mal lieber nicht...

deekey777
2005-08-19, 23:27:36
Shaderpower nutzt nicht wirklich viel wenn der Speicherbus dicht ist ;)

Steht auch nicht zur Diskussion.

Von der besseren BQ der 9800 reden wir jetzt mal lieber nicht...
Stimmt - wollen wir nicht.

Coda
2005-08-19, 23:28:46
Richtig Payne, das ist ja korrekt. Trotzdem hat die 9800Pro ganz sicher nicht mehr Shaderpower als jegliche GeForce 6600 GT oder höher.

Mr. Lolman
2005-08-19, 23:42:07
Laß ihn träumen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_asus_v9999gt_td_128/13/#abschnitt_half_life_2
67 zu 31 fps
Und da wurde auch der Videostresstest genutzt, also 19 % runter, 54 fps bleiben dann noch.
Naja, egal. Belege gibts von der anderen Seite sowieso keine -> sinnlos.

Bei 128MB ist der Einbruch von Q+Opts zu HQ noch höher. Ich weiss nicht, wie du dich das auf die 19% versteifen kannst. Noch dazu wo die Canaldemo mit dem VST genau überhauptnix zutun hat.

Eigentlich könnt mich ja an der Stelle auch aufregen, dass sich Computerbase nichtmal an die, ohnehin schon fragwürdigen, NV Reviewerguides gehalten hat und Q+Opts gebencht hat. ;)

Mr. Lolman
2005-08-19, 23:48:27
So meinte ich das garnicht.
Er meint aber das er mit einer 9700p@400/350 @1280 4xAA/16xAF stw. recht problemlos eine 128MB 6800GT @400 versägt. :ulol4:


128MB 6800GT (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2509190&postcount=110) vs 9700pro (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2509987&postcount=114)

MountWalker
2005-08-20, 00:54:33
...
@MountWalker

Ich würde sogar davon ausgehen, dass Shader 1.1 noch lange verwendet wird. Die Gründe dafür sind die Verbreitung von 1.1-Grafikkarten, von Windows-XP und von der X-Box/PS2. Das ist die aktuelle Basis für Spielekonvertierungen und bis Crossplatform-development mit Next-Gen-Konsolen den letzten Spieler zu Vista/WGF2.0 bringt ist es locker 2009.
Solange für die (noch) aktuellen Konsolen entwickelt wird bleiben wir bei 1.1 als Grundvoraussetzung für die breite Masse*. Sowohl Shader 2 als auch Shader 3 werden hier nie relevant werden.
Bei der Spieleaufwertung sieht es etwas anders aus. Shader 2.0 kann nichts das 1.1 nicht auch kann (zumindest habe ich in keinem Spiel nennenswerte neue/bessere Effekte entdeckt als Shader 2 noch für mich relevant war) und ist für schnell eingefügte, erweiterte Effekte generell zu umständlich (Arbeitsaufwand). Globale Shader mit 3.0 sind dagegen relativ schnell und einfach umsetzbar. Mit dem Shader3-Support bei der neuen ATi-Kartengeneration werden höchstens reine PC-Entwicklungen noch Shader 2.0-Support bieten (sofern er nicht eh schon für die Engine existiert und einfach integriert werden kann, einen optischen Unterschied von 2.0 zu 1.1 halte ich jedenfalls in 99 von 100 Spielen weiterhin für Wunschdenken).
...
Auf dem PC wird PS2 die Installationsbasis, einerseits weil alles was über Geforce FX 5200 oder Radeon 9500 und X300 liegt PS2.0 beherrscht und andererseits durch Windows-Vista/Aero, Aero führt dazu, dass selbst Gelegenheitszocker-Notebooks mit Intel-Grafik PS2.0 beherrschen werden, für 3.0 wird aber der Anreiz fehlen, weil die Windows-Aero-Oberfläche ja nicht mehr als 2.0 nutzt. Ich glaube deshalb, dass PS 2.0 ab 2007 gute Chancen hat Basis zu werden, für 3.0 als Basis wird dann immernoch die Installationsbasis fehlen und für dessen nachfolger erst recht, dh. 3.0 oder Nachfolger für Spezialitäten, aber 2.0 für die Basis. ;)

mapel110
2005-08-20, 01:11:41
128MB 6800GT (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2509190&postcount=110) vs 9700pro (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2509987&postcount=114)
Fruli-Tier hat geschrieben kein AA, also muss er einen Fehler gemacht haben.

d1_canals_09 24.62 fps
und hier erreicht eine 12 Pipe 6800 schon 24 fps inkl 4xAA
http://www.xbitlabs.com/articles/video/display/half-life_7.html

d1_town_01 46.28 fps
hier 70 fps 12 Pipe 6800 inkl 4xAA
http://www.xbitlabs.com/articles/video/display/half-life_11.html

Also irgendwas stimmte da an seinen Werten ganz sicher nicht, wenn eine definitiv lahmere Karte mit einem älteren Treiber in höheren Qualisettings mher fps erreicht.

huha
2005-08-20, 01:36:49
Ich habe jetzt kein Bock auf deine kindischen Beahauptungen einzugehen.
Ich weiss, dass ich dafür Punkte bekomme, aber leck mich am Arsch, wenn du keine Ahnung von der Materie hast.

Sorry, aber Beleidigungen müssen wirklich nicht sein. Versuche doch, die Sache etwas weniger beleidigend zu diskutieren. Es mag schwer sein, aber es geht und es geht sogar besser!

Daher: 1 Punkt für dein Geschreibe, über die Punktevergabe ist im Übrigen, so überhaupt gewünscht, nicht hier zu diskutieren, sondern im über-die-Webseite-und-das-Forum-Forum.

-huha

Coda
2005-08-20, 01:46:31
War das eigentlich auf mich bezogen? Wenn ja hat jemand neues Platz auf meiner Ignorelist X-D

deekey777
2005-08-20, 01:50:55
War das eigentlich auf mich bezogen? Wenn ja hat jemand neuen Platz auf meiner Ignorelist X-D

Nein, aber die Moderation arbeitet schnell: Um 01:44 sehe ich, daß ein Gast hier gepostet hat, doch in dem Moment, als ich diesen Thread "betrat", war sein Posting schon weg.

Mr.Magic
2005-08-20, 03:12:21
Auf dem PC wird PS2 die Installationsbasis, einerseits weil alles was über Geforce FX 5200 oder Radeon 9500 und X300 liegt PS2.0 beherrscht und andererseits durch Windows-Vista/Aero, Aero führt dazu, dass selbst Gelegenheitszocker-Notebooks mit Intel-Grafik PS2.0 beherrschen werden, für 3.0 wird aber der Anreiz fehlen, weil die Windows-Aero-Oberfläche ja nicht mehr als 2.0 nutzt. Ich glaube deshalb, dass PS 2.0 ab 2007 gute Chancen hat Basis zu werden, für 3.0 als Basis wird dann immernoch die Installationsbasis fehlen und für dessen nachfolger erst recht, dh. 3.0 oder Nachfolger für Spezialitäten, aber 2.0 für die Basis. ;)

In den USA spielt man fast ausschließlich auf Konsole und das ist für die meisten Hersteller Absatzmarkt #1. PC-only-Spiele (gab es seit Far Cry irgendwas nennenswertes?) werden immer seltener, und nur weil wir bösen Europäer darauf bestehen am PC zu spielen lohnen sich Konvertierungen überhaupt. Für die alte Generation ist da PS1.1 die Basis, für die Neue werden es die Unified Shader. Zusätzliche Effekte wird es in Zukunft aber fast nur für SM3 geben, wenn überhaupt was verändert wird. Häufig kann man schon froh sein wenn bei einem Spiel nicht die unscharfen Texturen der Konsoleversion verwendet werden. Was an Shadern unterstützt wird bleibt für den Spielehersteller eine Kostenfrage und häufig lohnt sich ein großartiger Extraaufwand für 2.0 einfach nicht mehr. Also bindet man einfach einen "optimierten" 2.0-Pfad ein, der optisch mit 1.1 identisch ist. Meine Befürchtung ist allerdings das sich manche Schelme auch sparen ein paar nette PS3.0-Zusatzeffekte zu bieten.
Es ist schwer die Masse zu einem neuen Betriebssystem zu bewegen, wenn es nicht gerade beim Rechnerkauf dabei ist. Da die Technikentwicklung, bis auf die Grafikkarten, momentan eher schleichend ist dauert es bis sich Vista verbreitet, der Gelegenheitsspieler hockt bis zu fünf Jahre an der gleichen Kiste (mit minimaler Aufrüstung). Einziger echter Umstiegsgrund für Spieler wird WGF2.0, wenn dann die passenden Spiele auf dem Markt sind (vorher will ich den Dreck jedenfalls nicht auf meiner Platte). Das passiert frühestens 2008, bis dahin bleibt die Masse grafisch auf 1.1-Niveau.

MikBach
2005-08-20, 09:05:52
Eigentlich hat die 6600GT mehr Shaderkraft als die 9800Pro. Und nein, das saug ich mir nicht aus den Fingern. Von einer 6800GT brauchen wir also gar nicht erst zu reden.
Spielst du immer ohne AA?
Die 9800PRO hat mehr Speicherbandbreite. :wink:

MikBach
2005-08-20, 09:11:30
War das eigentlich auf mich bezogen? Wenn ja hat jemand neues Platz auf meiner Ignorelist X-D
Nö, war auf den Gast bezogen. Ich habe aber mein Posting editiert und mich beim Gast entschuldigt. :)
Du hattest Recht, die 6600GT hat mehr Shaderpower als die 9800PRO, es ging mir aber um das Gesamtbild.
Was nützt mir die beste Shaderpower, wenn mir die Speicherbandbreite mit AA ausgeht...

Gast
2005-08-20, 10:30:50
Ich glaube das hat nicht nur was mit der Speicherbandbreite zu tun, die 6600GT hat doch nur 3 ROP's oder o.O

Gast
2005-08-20, 11:25:20
Nö, war auf den Gast bezogen. Ich habe aber mein Posting editiert und mich beim Gast entschuldigt. :)
Du hattest Recht, die 6600GT hat mehr Shaderpower als die 9800PRO, es ging mir aber um das Gesamtbild.
Was nützt mir die beste Shaderpower, wenn mir die Speicherbandbreite mit AA ausgeht...

Bei Games wo viel Shaderpower notwendig ist und das wird bei allen kommenden der Fall sein, ist für AA sowieso keine Leistungsreserve in dieser Preisregion mehr vorhanden. Deswegen fährt man mit einer 6600GT auch besser. Bei kommenden Spielen limitiert bei der 9800pro nicht mehr das Speicherinterface sondern der Rechnenpower der GPU.

Mr. Lolman
2005-08-20, 11:28:28
Bei Games wo viel Shaderpower notwendig ist und das wird bei allen kommenden der Fall sein, ist für AA sowieso keine Leistungsreserve in dieser Preisregion mehr vorhanden. Deswegen fährt man mit einer 6600GT auch besser. Bei kommenden Spielen limitiert bei der 9800pro nicht mehr das Speicherinterface sondern der Rechnenpower der GPU.


Zwar magst du in dem Fall wohl recht haben, aber genau das gleiche hörte man auch oft bei FX5800 vs. Radeon 9700 ;)

deekey777
2005-08-20, 11:48:22
Eigentlich hat die 6600GT mehr Shaderkraft als die 9800Pro. Und nein, das saug ich mir nicht aus den Fingern. Von einer 6800GT brauchen wir also gar nicht erst zu reden.

Spielst du immer ohne AA?
Die 9800PRO hat mehr Speicherbandbreite. :wink:

Wo ist der Zusammenhang?
Und die Speicherbandbreite der 9800Pro ist eh nutzlos, wenn es auf die Shaderpower ankommt, siehe zB. Far Cry.

MikBach
2005-08-20, 12:02:48
Wo ist der Zusammenhang?
Und die Speicherbandbreite der 9800Pro ist eh nutzlos, wenn es auf die Shaderpower ankommt, siehe zB. Far Cry.
Shaderpower ist nutzlos, wenn die Speicherbandbreite ausgeht...

Gast
2005-08-20, 12:57:49
Shaderpower ist nutzlos, wenn die Speicherbandbreite ausgeht...
Offensichtlich geht aber zuerst bei den neuen Games der Shaderpower aus.

Es ist doch so. Zuerst kommt mal in der Prioritätenliste die Spielegrafik - also die schönen Effekte für die mit SM2 bzw. 3 geproggt wurde. Wenn dann noch Leistung übrig ist, kann man AA und AF nach Bedarf hinzuschalten.
Deshalb ist eine 6600GT einer 9800pro überlegen und korrekterweise so von den Reviews auch bewertet wurden und schließlich ist sie auch zu dem Verkaufsschlager geworden, an dem ATI noch immer zu knabbern hat. Wo ist das Problem. Die 9800pro war eins Spitze - lasst sie nun in Frieden ruhen. Mit einer 6600GT fährt man aus heutiger Sicht besser.

MikBach
2005-08-20, 13:02:55
Offensichtlich geht aber zuerst bei den neuen Games der Shaderpower aus.

Nein, auch bei älteren Games ist die 9800PRO einer 6600GT überlegen, wenn die Speicherbandbreite knapp wird...

Gast
2005-08-20, 13:15:47
Nein, auch bei älteren Games ist die 9800PRO einer 6600GT überlegen, wenn die Speicherbandbreite knapp wird...


zuviel wünsch dir was geschaut?

ne 6600GT ist ner 9800pro in jeder hinsicht überlegen, trotz weniger bandbreite macht sie unter jeder auflösung und einstellung eine 9800pro nackig.

deekey777
2005-08-20, 13:16:02
Nein, auch bei älteren Games ist die 9800PRO einer 6600GT überlegen, wenn die Speicherbandbreite knapp wird...

Auch in den älteren Games? Fällt dir überhaupt auf, daß du am Thema vorbeisprichst/-schreibst?
Far Cry ist jetzt fast 18 Monate alt - die 9800Pro hat auch mit AA/AF keine Chance gegen die 6600GT, doch dies ist kein Thema dieser Diskussion. Die 9800Pro ist veraltet, sie hat ausgedient, wenn man gleiche Ansprüche wie vor 2 Jahren hat. Oder willst du das bestreiten?

http://www.digit-life.com/articles2/digest3d/index0507.html

Wer "gewinnt" bei 1600x1200&4xAA/AF8x?

MikBach
2005-08-20, 13:19:35
Auch in den älteren Games? Fällt dir überhaupt auf, daß du am Thema vorbeisprichst/-schreibst?
Far Cry ist jetzt fast 18 Monate alt - die 9800Pro hat auch mit AA/AF keine Chance gegen die 6600GT, doch dies ist kein Thema dieser Diskussion. Die 9800Pro ist veraltet, sie hat ausgedient, wenn man gleiche Ansprüche wie vor 2 Jahren hat. Oder willst du das bestreiten?

http://www.digit-life.com/articles2/digest3d/index0507.html

Wer "gewinnt" bei 1600x1200&4xAA/AF8x?
Lies was ich geschrieben habe...

Winter[Raven]
2005-08-20, 13:21:58
Nein, auch bei älteren Games ist die 9800PRO einer 6600GT überlegen, wenn die Speicherbandbreite knapp wird...

Kannst du mir bitte erklären was Shaderperformance mit Bahnbreite zutun hat?

MikBach
2005-08-20, 13:23:08
']Kannst du mir bitte erklären was Shaderperformance mit Bahnbreite zutun hat?
Ganz einfach. :)
Wenn die Speicherbandbreite ausgeht, hilft dir auch keine Shaderpower...

deekey777
2005-08-20, 13:24:03
Lies was ich geschrieben habe...

Denkst du, ich habe nicht gelesen? Das ist doch absoluter Quatsch. Gute Nacht.

MikBach
2005-08-20, 13:30:35
Denkst du, ich habe nicht gelesen? Das ist doch absoluter Quatsch. Gute Nacht.
Ich habe geschrieben, dass wenn die Speicherbandbreite knapp wird, eine 9800PRO einer 6600GT überlegen ist.
Was gibt es daran nicht zu verstehen?

Das kann man schon von den Specs ableiten...

Gast
2005-08-20, 21:42:04
dann zeig doch mal beispiele
deine theorie bringt nichts, wenn es in der praxis nie vorkommt

MikBach
2005-08-20, 21:43:28
dann zeig doch mal beispiele
deine theorie bringt nichts, wenn es in der praxis nie vorkommt
Lies meine Postings....

mapel110
2005-08-20, 21:48:55
dann zeig doch mal beispiele
deine theorie bringt nichts, wenn es in der praxis nie vorkommt
Er braucht keine Belege, ist halt seine Art zu diskutieren. Dass die 6600 GT die Rohbandbreite effektiver nutzt, spielt für seine Art der Argumentation doch gar keine Rolle.

Winter[Raven]
2005-08-20, 21:49:06
Mik,

Irgendwelche Behauptungen aufzustellen ist nicht schwer, ohne Erklärungen, Quellen bleiben diese aber auch nur Behauptungen.

Dein "lies meine Postings" verbessern aber deine Situation aber auch nicht wirklich...! Du solltest wirklich mal anfangen zu Argumentieren oder es sein lassen.

davidzo
2005-08-20, 21:51:41
Ich weiß gar nicht wieso hier alle von 9800pro reden, ihr habts irgendwie noch nicht begriffen, ich rede die ganze zeit von einer 9800xt, die nicht nur etwas schnelelr gatktet ist, sondern auch 256mb speiche rmitbringt. wieso also 9800pro?

Ich hatte vorher ne 128mb 9700pro und da habe ich wohl gemerkt wieviel schneller die 6800Gt war, aber den Unterschied 9800XT habe ich dann nicht mehr gemerkt.

da ist ein wesentlicher Unterschied zwischen einer 9800pro von denen ihr gerade immer redet und einer 9800xt.


Um die Diskussion um die 6600Gt wieder aufzugreifen:
Ich würde bedenkenlos zur 9800XT greifen, auch wenn diese die geringfügig geringere shaderpower bietet. Die speicherbandbreite und der große Speicherausbau von 256Mb erlauben es mir gerade in vielen nicht ganz neuen Spielen, die ich trotzdem noch gerne spiele, wie etwa bf42 (Forgotten Hope) oder rome total war, bedenkenlos 4x oder gar 6x FSAA und 16x Aniso zuzuschalten.
Mit einer 6600GT, die weniger speicher und speicherbandbreite bietet, sollte man bei 1280*1024 und unkomprimierten texturen (HQ in treiber und game)nicht über 2xFSAA oder zur not noch 4xfsaa und max. 8x aniso herausgehen.

Für mein beispiel bf42 braucht man noch nichteinmal die genannten einstellungen zu wählen um zu sehen wie die 9800xt eine 6600GT versägt.

Wie gesagt, es kommt alles auf das richtige scenario an, welche games man bevorzugt spielt und auf welcher sonstigen hardware und welchen sonstigen einstellungen.

Ich würde eine 6600Gt einer 9800pro128mb vorziehen, nicht dagegen die 9800xt 256mb. Für meine Zwecke behaupte ich einfach mal ist die 9800xt eindeutig überlegen, es mag andere scenarios geben wo es umgekehrt ist...


@mods: sorry das ihr soviel aufräumarbeit habt, vielleicht hätte ich den threadtitel etwas entschärfen sollen, ein solcher flamewar war eigentlich nicht direkt meine absicht, sondern lediglich die mitteilung von erfahrungen user zu user.

MikBach
2005-08-20, 21:53:47
Er braucht keine Belege, ist halt seine Art zu diskutieren. Dass die 6600 GT die Rohbandbreite effektiver nutzt, spielt für seine Art der Argumentation doch gar keine Rolle.
LOL...

MikBach
2005-08-20, 21:55:07
']Mik,

Irgendwelche Behauptungen aufzustellen ist nicht schwer, ohne Erklärungen, Quellen bleiben diese aber auch nur Behauptungen.

Dein "lies meine Postings" verbessern aber deine Situation aber auch nicht wirklich...! Du solltest wirklich mal anfangen zu Argumentieren oder es sein lassen.
:confused:
Auch hier ein LOL. :|

MikBach
2005-08-21, 10:17:05
die 6600GT hat doch nur 3 ROP's oder o.O
:confused:
Nö, die 6600GT hat 4 ROPs

Mr. Lolman
2005-08-21, 10:38:37
Er braucht keine Belege, ist halt seine Art zu diskutieren. Dass die 6600 GT die Rohbandbreite effektiver nutzt, spielt für seine Art der Argumentation doch gar keine Rolle.

AFAIK gibt es keine Benchmarks mit vglbarer BQ. Trotzdem gibts das ein oder anderen Spiel, wo ne 6600GT auch mit schlechterer BQ (Q+Opt1,3) hinten ist

http://www.xbitlabs.com/images/video/2004-27gpu2/Games/cod_1280_candy.gif
http://www.xbitlabs.com/images/video/2004-27gpu2/Games/canals_1024_candy.gif
http://www.xbitlabs.com/images/video/2004-27gpu2/Games/chateau_1280_candy.gif
http://www.xbitlabs.com/images/video/2004-27gpu2/Games/scell_1280_pure.gif
http://www.xbitlabs.com/images/video/2004-27gpu2/Games/thief_1280_pure.gif
http://www.xbitlabs.com/images/video/2004-27gpu2/Games/generals_1280_candy.gif

MikBach
2005-08-21, 10:48:16
AFAIK gibt es keine Benchmarks mit vglbarer BQ.
Das wollen die Meisten aber nicht kapieren.

Ronny G.
2005-08-21, 11:23:55
Ich habe mir mal nen groben überblick in diesen Thread gemacht.

Und muß schon sagen das hier irgendwie manche User den kompletten Grafikkartenmarkt über den Kopf hauen, es werden Äpfel mit Birnen, und Birnen mit Äpfeln verglichen.

Auch wird ständig auf das Flimmern einer 6800 und 7800 aufmerksam gemacht, ich glaube viele dieser verfechter einer schlechten Nvidia qualität haben es noch nicht mal live gesehen oder suchen verzweifelt in Gameszenen stellen wo sie meinen, es Flimmert irre, als wären sie Kurz vor dem Nervenzusammenbruch, und wie schlimm das flimmern doch ist!!!

:confused: :confused: :confused: :confused: :confused: :confused:

Ich selber kann da nicht viel erkennen, sehe kein Flimmern, und habe auch schon diverse Games mit meiner 4200er und danach mit meiner 6800er verglichen, ich sehe nichts.
Und auch wenn er existieren sollte so fällt es doch eigentlich niemand wirklich auf, und bei den flotten Games schon garnicht.

Und wer fehler sucht, der findet auch je nach seiner hartnäckigkeit auch welche, auch bei ATI. Auch wenn es am ende keinen wirklich interresiert, aber es als weltbewegendes Argument einzusetzen reicht es allemal, das ist mist.

Fakt ist das eine göttliche X800 weniger Features in technischer hinsicht bietet als jede langsame Fx5200, was unterm strich rauskommt malt sich eh jeder selber aus.

Nvidia User -> Nvidia ist das einzig wahre
Ati User -> -;;-

Jeder hat seine Meisterdisziplienen und fertsch

Gruß Ronny G.

Gast
2005-08-21, 11:24:52
:confused:
Nö, die 6600GT hat 4 ROPs

! o.O Hier wurde wohl etwas gelöscht was noch vorher gequotet wurde...

Mr. Lolman
2005-08-21, 11:32:43
Jeder hat seine Meisterdisziplienen und fertsch

Gruß Ronny G.

Ja schon. Und ich finds auch ok, wenn Leute meinen, dass fürs sie Q+ alle Opts völlig ausreichende BQ bietet. Und ich will auch niemanden missionieren, der keinen Unterschied zw. Q und HQ erkennen kann.

Trotzdem: Der Unterschied ist vorhanden und bei Benchmarks zw. ATi und NV sollte der Reviewer vorher immer auf möglichst vergleichbare BQ achten, bevor er seine Tests startet. Das ist in der Vergangenheit nicht geschehen. Nicht nur das: In den (ohnehin schon fragwüdigen) NV Reviewerguides legt man den Redakteuren nahe mit Q zu benchen, und trotzem gibs einige HW Mags, die seitens NV noch die Optimierugen dazu geschaltet haben.

Eigentlich sollte sich jedes dieser Mags entschuldigen. Tatsache ist jedoch, dass der Großteil noch nichteinmal den 3DCenter Artikel in den News verlinkt hat.

MikBach
2005-08-21, 11:37:39
Auch wird ständig auf das Flimmern einer 6800 und 7800 aufmerksam gemacht,

Die 7800 flimmert, da gibt es nichts schönzureden.
Die 6800 ist grenzwertig, aber akzeptabel. (Habe eine 6800GT, mit der ich durchaus zufrieden bin)


ich glaube viele dieser verfechter einer schlechten Nvidia qualität haben es noch nicht mal live gesehen oder suchen verzweifelt in Gameszenen stellen wo sie meinen, es Flimmert irre, als wären sie Kurz vor dem Nervenzusammenbruch, und wie schlimm das flimmern doch ist!!!

:confused: :confused: :confused: :confused: :confused: :confused:
So schlimm ist es auch wieder nicht... :wink:


Ich selber kann da nicht viel erkennen, sehe kein Flimmern, und habe auch schon diverse Games mit meiner 4200er und danach mit meiner 6800er verglichen, ich sehe nichts.
Und auch wenn er existieren sollte so fällt es doch eigentlich niemand wirklich auf, und bei den flotten Games schon garnicht.
Bei Treiberdefault fällt es auf, mit HQ kann man leben.
Schon mal GTR gespielt?
Da flimmern die Gridlines auch auf HQ.


Fakt ist das eine göttliche X800 weniger Features in technischer hinsicht bietet als jede langsame Fx5200, was unterm strich rauskommt malt sich eh jeder selber aus.

Features bringen nichts, wenn die Performance nicht vorhanden ist, um diese zu nutzen...

LovesuckZ
2005-08-21, 11:40:43
Trotzdem: Der Unterschied ist vorhanden und bei Benchmarks zw. ATi und NV sollte der Reviewer vorher immer auf möglichst vergleichbare BQ achten, bevor er seine Tests startet.

Aber bitte nur so lange, bis Nvidia benachteiligt wird. ;)
So wie vor zwei Jahren als du noch Bilinear verteidigt hast und die Winkelabhaengigkeit.

Mr. Lolman
2005-08-21, 11:44:30
Aber bitte nur so lange, bis Nvidia benachteiligt wird. ;)
So wie vor zwei Jahren als du noch Bilinear verteidigt hast und die Winkelabhaengigkeit.

Wenn du jetzt auf NV3x und R30x abzielst, ja das war damals auch schon nicht vergleichbar: Mit mit 4xAA und max AF hat der R3x0 die bessere BQ und mit 2xAA und max AF der NV3x (zumindest bis zu den 50er Detos)

/BTW: ATi Bilinear schaut zumindest bei allen OpenGL Games eindeutig besser aus als NV40 Q+Opt2.

Winter[Raven]
2005-08-21, 11:48:39
LOL...

Auch hier ein LOL.

Mik, etweder du versuchst sachlich zu Argumentieren oder du lässt es sein ... langsamm wird es lächerlich!

MikBach
2005-08-21, 11:51:22
']Mik, etweder du versuchst sachlich zu Argumentieren oder du lässt es sein ... langsamm wird es lächerlich!
Wie soll ich sachlich argumentieren, wenn sich hier fast alle auf verfälschte Benchmarks im Netz beziehen?

eXodia
2005-08-21, 12:35:20
Wie soll ich sachlich argumentieren, wenn sich hier fast alle auf verfälschte Benchmarks im Netz beziehen?

Das ist im Prinzip richtig, nur ging es glaube ich gerade um die Shaderpower einer 6600GT vs. 9800Pro , was imo nicht viel mit "falschen Benches" aus den Tests zu tun hat.

GrUß

reunion
2005-08-21, 12:43:55
Er braucht keine Belege, ist halt seine Art zu diskutieren. Dass die 6600 GT die Rohbandbreite effektiver nutzt, spielt für seine Art der Argumentation doch gar keine Rolle.


Ein Moderator sollte derartige Meinungen doch bitte für sich behalten.
Und dass die 6600GT die vorhandene Bandbreite so viel effizienter nutzt, als eine 9800pro, wage ich auch mal zu bezweifeln. Oder hast du dafür einen Beleg? - Glashaus ahoi.

eXodia
2005-08-21, 12:46:59
Ein Moderator sollte derartige Meinungen doch bitte für sich behalten.
Und dass die 6600GT die vorhandene Bandbreite so viel effizienter nutzt, als eine 9800pro, wage ich auch mal zu bezweifeln. Oder hast du dafür einen Beleg? - Glashaus ahoi.

Hast du einen Beleg dafür das es nicht so ist? *duck*
Aber im ernst, das die 6600GT mehr Shaderfeatures als ne 9800Pro hat sollte klar sein.

GrUß

reunion
2005-08-21, 12:51:33
Hast du einen Beleg dafür das es nicht so ist? *duck*


Nein, ich habe derartiges allerdings auch nicht behauptet.


Aber im ernst, das die 6600GT mehr Shaderfeatures als ne 9800Pro hat sollte klar sein.

GrUß

Natürlich, nur was hat das mit dem Thema zu tun?
Es ging um die Bandbreiteneffizienz.

Black-Scorpion
2005-08-21, 12:53:55
Und was haben die Features mit dem Thema zu tun?

eXodia
2005-08-21, 12:58:37
Natürlich, nur was hat das mit dem Thema zu tun?
Es ging um die Bandbreiteneffizienz.

Es ging ursprünglich um das Thema Shaderfeatures. Andere Leute wollten aber nicht einsehen das die 6600gt mehr shaderfeatures als ne 9800pro hat und haben sich dann damit rausgeredet von wegen "wenn der Speicherbus dicht ist... ; etc." , was das Thema dann darauf lenkte...

GrUß

Black-Scorpion
2005-08-21, 13:01:06
Der Titel lautet Leistung ATI vs. Nvidia und nicht Features ATI vs. Nvidia.

MikBach
2005-08-21, 13:01:32
Es ging ursprünglich um das Thema Shaderfeatures.
Also um Features ginge es nie, wenn schon dann über Shaderperformance.

LovesuckZ
2005-08-21, 13:05:51
Der Titel lautet Leistung ATI vs. Nvidia und nicht Features ATI vs. Nvidia.

Features koennen Leistung erzeugen.

eXodia
2005-08-21, 13:06:51
Also um Features ginge es nie, wenn schon dann über Shaderperformance.

OK, thx. für richtigstellung. Dann war das ursprüngliche Thema Shaderperformance, wo du anderen Usern nur wie immer ein LOL entgegensetztes und deine einzige Begründung war das der Speicherbus dicht sei - was aber nix mit dem eigentlichen Thema zu tun hatte, denn das eine 6600gt mehr shaderperformance als ne 9800pro hat wolltest/willst du nicht einsehen.

GrUß

MikBach
2005-08-21, 13:08:17
OK, thx. für richtigstellung. Dann war das ursprüngliche Thema Shaderperformance, wo du anderen Usern nur wie immer ein LOL entgegensetztes und deine einzige Begründung war das der Speicherbus dicht sei - was aber nix mit dem eigentlichen Thema zu tun hatte, denn das eine 6600gt mehr shaderperformance als ne 9800pro hat wolltest/willst du nicht einsehen.

GrUß
Doch klar.
Die 6600GT hat schon mehr Shaderpower.
Die bringt aber nicht viel, wenn die Speicherbandbreite ausgeht.
So war das gemeint. :)

eXodia
2005-08-21, 13:10:18
Doch klar.
Die 6600GT hat schon mehr Shaderpower.
Die bringt aber nicht viel, wenn die Speicherbandbreite ausgeht.
So war das gemeint. :)

OK, Missverständniss ahoi... :biggrin:

GrUß

MikBach
2005-08-21, 13:11:02
Features koennen Leistung erzeugen.
So ist es.
Man braucht nur bei FC zwischen 2.0 und 2.B oder 2.0 und 3.0 zu vergleichen.

LovesuckZ
2005-08-21, 13:13:40
Doch klar.
Die 6600GT hat schon mehr Shaderpower.
Die bringt aber nicht viel, wenn die Speicherbandbreite ausgeht.
So war das gemeint. :)

Wo geht der 6600GT eher die Speicherbandbreite aus?
In welchen relevanten Situationen?
Dazu möchte ich gerne Beispiele sehen, die zeigen, dass eine 9800pro ihr gegenüber im Vorteil ist.

MikBach
2005-08-21, 13:15:05
Wo geht der 6600GT eher die Speicherbandbreite aus?

Meistens in 1280x1024 mit 4xAA.

Black-Scorpion
2005-08-21, 13:19:04
So ist es.
Man braucht nur bei FC zwischen 2.0 und 2.B oder 2.0 und 3.0 zu vergleichen.
Dumme Frage, aber wie bekomme ich bei FC das 2.B Profil eingestellt?
Bei mir steht nur 2.0.

****** D3D9 CryRender Stats ******
Driver description: RADEON X800 Series
Full stats: HAL (pure hw vp): RADEON X800 Series
Hardware acceleration: Yes
Full scene AA: Enabled: 4x Samples (0 Quality)
Projective EMBM: Enabled
Detail textures: Enabled
Z Buffer Locking: Enabled
Multitexturing: Supported (8 textures)
Use bumpmapping : Enabled (DOT3)
Use paletted textures : Disabled
Current Resolution: 1024x768x32 Full Screen
Maximum Resolution: 1280x1024
Maximum Texture size: 2048x2048 (Max Aspect: 2048)
Texture filtering type: TRILINEAR
HDR Rendering: Disabled
MRT Rendering: Enabled
Occlusion queries: Supported
Geometry instancing: Supported
NormalMaps compression: 3Dc
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R420 GPU
Pixel shaders usage: PS.2.B, PS.2.0 and PS.1.1
Vertex shaders usage: VS.2.0 and VS.1.1
Shadow maps type: Mixed Depth/2D maps
Stencil shadows type: Two sided
Lighting quality: Highest
*****************************************

MikBach
2005-08-21, 13:31:05
Dumme Frage, aber wie bekomme ich bei FC das 2.B Profil eingestellt?
Bei mir steht nur 2.0.

"Pixel shaders usage: PS.2.B, PS.2.0 and PS.1.1"

Winter[Raven]
2005-08-21, 13:32:21
Doch klar.
Die 6600GT hat schon mehr Shaderpower.
Die bringt aber nicht viel, wenn die Speicherbandbreite ausgeht.
So war das gemeint. :)

Nochmal für dich, Shader fressen nicht in dem Masse die Bahnbreite wie es Texturen tun ... also hör bitte auf mit Bahnbreite und Shaderperformance!

Black-Scorpion
2005-08-21, 13:35:13
"Pixel shaders usage: PS.2.B, PS.2.0 and PS.1.1"
Ich habe nur das gelesen. :rolleyes:

Pixel Shaders version 2.0

MikBach
2005-08-21, 13:35:45
']Nochmal für dich, Shader fressen nicht in dem Masse die Bahnbreite wie es Texturen tun ... also hör bitte auf mit Bahnbreite und Shaderperformance!
Was für Bahn?
*scnr* :)
Sonst hast du Recht, nur sehe ich den Zusammenhang nicht, zu dem, was ich behauptet habe.

LovesuckZ
2005-08-21, 13:52:17
Meistens in 1280x1024 mit 4xAA.

Zeige bitte Spiele, die stark auf Pixelshader setzen, denn da müsste eine ja, nach dir, schneller sein.

MikBach
2005-08-21, 13:53:42
Zeige bitte Spiele, die stark auf Pixelshader setzen, denn da müsste eine ja, nach dir, schneller sein.
Bandbreite hat mit Shadern nichts zu tun.

LovesuckZ
2005-08-21, 14:13:08
Bandbreite hat mit Shadern nichts zu tun.

Das hat damits nicht zu tun.
Du behauptest, wenn die Speicherbandbreite der 6600GT ausgehen, dann würde die höhere Shaderpower ihr nicht helfen.
Und hier will ich bitte Beispiele sehen von Spielen, welche eine die Shader stark beanspruchen.

MikBach
2005-08-21, 14:20:55
Das hat damits nicht zu tun.
Du behauptest, wenn die Speicherbandbreite der 6600GT ausgehen, dann würde die höhere Shaderpower ihr nicht helfen.
Und hier will ich bitte Beispiele sehen von Spielen, welche eine die Shader stark beanspruchen.
Wenn die Speicherbandbreite ausgeht, hilft nicht mal Beten.
Was hat denn bitte die Speicherbandbreite mit der Shaderperformance zu tun?

LovesuckZ
2005-08-21, 14:29:56
Was hat denn bitte die Speicherbandbreite mit der Shaderperformance zu tun?

Weil deine Aussage nichts aussagend ist.
"Die 6600GT hat schon mehr Shaderpower.
Die bringt aber nicht viel, wenn die Speicherbandbreite ausgeht."

Das stimmt. Nun, fehlt aber der schlüssige Beweis, wie oft dies passiert. Dazu fehlen hier Argumente und Beispiele.
Wie oft ist die Speicherbandbreite der limitierende Faktor. In Welchen Situationen, in welchen Spielen. Und, was ja für deine These wichtig ist, in welchen shaderlästigen Anwendungen.
Leider hast du nichts gebracht. Das zeigt, dass du keine Ahnung hast.
Diskutieren heißt nicht, irgendwas zu sagen, sondern auch seine Aussagen zu belegen.
Richtig ist auch dies: Wenn der AGP Port limitiert, hilft der 6600GT ihre überragende Shaderpower auch nichts.
Das Problem ist, dass dies in Wirkluchkeit kaum auftritt.
Und so will ich, dass du einfach Beispiele zeigst, in der einer 6600GT in shaderlaestigen Anwendungen, die die Shader auch wirklich beanspruchen, an ihrer Speicherbandbreite krepiert.

MikBach
2005-08-21, 14:42:25
Wie oft ist die Speicherbandbreite der limitierende Faktor.
Hängt von der Auflösung und dem AA ab.

LovesuckZ
2005-08-21, 14:54:13
Hängt von der Auflösung und dem AA ab.

Lass es sein, danke.
Du bist unfaehig zu diskutieren.
Somit halte ich mich wieder aus der, aeh, Sprachstunde heraus.

Coda
2005-08-21, 14:59:18
Wenn die Karte lange Pixelshader ausführt ist die Speicherbandbreite wirklich nicht mehr wichtig, weil die Karte eh nicht genügend Füllrate hätte um sie zu brauchen. Die HL² Shader brauchen z.B. allesamt nicht sehr viel Takte.

Und das die 6600GT höher entwickelte Kompressionstechniken hat sollte eigentlich klar sein.

MikBach
2005-08-21, 15:01:20
Lass es sein, danke.
Was soll ich sein lassen?
Wann die Speicherbandbreite limitiert hängt von Auflösung und AA ab.
Was gibt es daran nicht zu verstehen?

Du bist unfaehig zu diskutieren.

Das sehe ich anders, möchte aber keinem seine Meinung absprechen. :)

aths
2005-08-21, 15:29:45
zuviel wünsch dir was geschaut?

ne 6600GT ist ner 9800pro in jeder hinsicht überlegen, trotz weniger bandbreite macht sie unter jeder auflösung und einstellung eine 9800pro nackig.Nein. In alten Spielen kann die 9800 Pro in der Tat schneller sein, allerdings ist die 6600 GT für solche alten Spiele auf jeden Fall schnell genug. Die 6600 GT ist darauf optimiert, dass für ein Pixel entweder viele Texturen verwendet werden, die nach Möglichkeit DXT-komprimiert vorliegen sollten, bzw. dass (längere) Pixelshader zum Einsatz kommen.

Mr. Lolman
2005-08-21, 15:38:26
Nein. In alten Spielen kann die 9800 Pro in der Tat schneller sein, allerdings ist die 6600 GT für solche alten Spiele auf jeden Fall schnell genug.

So alt sind die von mir zitierten Spiele auch nicht. Und da ist die 6600GT trotz Q+Tri/Sample Opt langsamer als die 9800p.

Mr.Magic
2005-08-21, 16:56:21
Alt ist bei Spielen relativ. Die einzigen erhältlichen Spiele mit einer modernen Engine sind Far Cry und Doom 3 (über die Qualität spreche ich hier nicht). Alles andere verwendet entweder altes mit angeflanschten Effekten (z.B. alles mit U2E), oder es wurde solange für die Fertigstellung gebraucht das die Engine auch nichts besonderes mehr ist und gerade mal so den Stand von 2003 schafft (Source).

Mag ja sein das das eine 6600GT manchmal langsamer ist als eine 9800XT, aber sie ist auch langsamer als eine 7800GTX. So what? Die eigentlich Frage ist doch, ist sie für das alte Zeugs schnell genug?

deekey777
2005-08-21, 21:17:18
AFAIK gibt es keine Benchmarks mit vglbarer BQ. Trotzdem gibts das ein oder anderen Spiel, wo ne 6600GT auch mit schlechterer BQ (Q+Opt1,3) hinten ist

http://www.xbitlabs.com/images/video/2004-27gpu2/Games/cod_1280_candy.gif
http://www.xbitlabs.com/images/video/2004-27gpu2/Games/canals_1024_candy.gif
http://www.xbitlabs.com/images/video/2004-27gpu2/Games/chateau_1280_candy.gif
http://www.xbitlabs.com/images/video/2004-27gpu2/Games/scell_1280_pure.gif
http://www.xbitlabs.com/images/video/2004-27gpu2/Games/thief_1280_pure.gif
http://www.xbitlabs.com/images/video/2004-27gpu2/Games/generals_1280_candy.gif

Superbeispiele...
Genauso konntest du auch Solitär nehmen.


Was hat eines dieser Beispiele mit dem Nebenthema Shaderpower der 6600GT vs. 9800Pro zu tun? Die 5900Ultra hat mehr Speicherbandbreite als die 9800 Pro, aber Wayne? Ist immer noch eine schlechte Wahl für neue Spiele und kommende Spiele.
Es ging nur, wirklich nur um die Shaderpower der beiden Kontrahenten:
Eigentlich hat die 6600GT mehr Shaderkraft als die 9800Pro. Und nein, das saug ich mir nicht aus den Fingern. Von einer 6800GT brauchen wir also gar nicht erst zu reden.
Dann kam das:
Shaderpower nutzt nicht wirklich viel wenn der Speicherbus dicht ist ;)

Von der besseren BQ der 9800 reden wir jetzt mal lieber nicht...
Richtig Payne, das ist ja korrekt. Trotzdem hat die 9800Pro ganz sicher nicht mehr Shaderpower als jegliche GeForce 6600 GT oder höher.

Doch irgendwie war es doch zu schwer zu verstehen, denn dann sah man dies:
Spielst du immer ohne AA?
Die 9800PRO hat mehr Speicherbandbreite. :wink:

Wo ist der Zusammenhang? Es ist doch klar, daß zB in UT2003/2004 oder anderen Spielen, wo es nicht auf die Shaderleistung ankommt, die 9800Pro immer noch ihre Muckis ausspielen kann. Doch es ging um die "Shaderpower", hier wären einige Beispiele: http://www.digit-life.com/articles2/digest3d/index0507.html

Gast
2005-08-21, 22:53:59
Alt ist bei Spielen relativ. Die einzigen erhältlichen Spiele mit einer modernen Engine sind Far Cry und Doom 3 (über die Qualität spreche ich hier nicht). Alles andere verwendet entweder altes mit angeflanschten Effekten (z.B. alles mit U2E), oder es wurde solange für die Fertigstellung gebraucht das die Engine auch nichts besonderes mehr ist und gerade mal so den Stand von 2003 schafft (Source)
Öhm... Über die Quali nicht, über was dann? Nur über das Datum der DLL oder was ist jetzt "modern"? Welche Spiele/Engines gab es 2003, die so in etwa an Source drankommen würden? FarCry ist "draussen im Walde" eine Klasse für sich, aber die Engine von Riddick steckt Source nicht einfach so weg. Es sei denn modern muß nicht automatisch besser aussehen heißen (?)

Gast
2005-08-21, 23:29:43
So alt sind die von mir zitierten Spiele auch nicht. Und da ist die 6600GT trotz Q+Tri/Sample Opt langsamer als die 9800p.
Ist so relativ :rolleyes: Eine 6600GT fährt ja original mit 500Mhz, eine 9800pro mit 380. Wenn ich die Unterschiede in grakalastigen FarCry&Co Benches sehe... :O Gegen den Takt kommt man aber INSGESAMT nicht wirklich an. Andererseits darf man nicht vergessen, daß man damit, auch wenn langsamer, NVs alter 3.0 Generation mit ATIs alter 2.0 Generation einheizt. Ich find das schon recht lustig, daß man mit einem R360 teils noch eine 6800 ärgern kann :cool: Man kommt zwar nie wirklich dran, aber auch mit "45 zu 95" FPS ist man nur auf dem Schwanzdiagramm weit hinter. Ausser "HDR für Blendeffekte" steckt da momentan von der Seite der Studios noch nicht wirklich viel dahinter. Imho wird ein R350/360 erst mit FEAR so richtig aufstöhnen :D

Mr.Magic
2005-08-22, 00:11:51
@Gast 1 (der mich zitierte) Dumm stellen gilt nicht. Es war die Gesamtqualität des Spieles gemeint. Doom 3 ist z.B. grottenschlecht was die Texturqualität angeht. Das hat allerdings nichts mit der Engine selbst zu tun. Far Cry ist momentan, was die Gesamtmöglichkeiten betrifft, die beste und wird nur bei der Beleuchtung von D3 geschlagen.
Die Engine von Riddick würde ich ebenfalls nicht als modern bezeichnen. Die Unterschiede zu Source halten sich in Grenzen und ich bin mir sicher das man mit ihr oder der ollen Unreal-2-Engine (Baudatum 2002, natürlich seitdem etwas getuned und aufgebohrt) HL2 Stein für Stein, mit identischer Optik, nachbauen kann. Keine Ahnung was manche an der altbackenen Source-Engine so toll finden. Die Gesichtsanimationen sind nett aber nichts wirklich neues. Die Animationen machten beim uralten Soul Reaver 2 (oder war das 3), bereits anno 2002, mit ihrer Zungensynchronisation, jedenfalls meines Erachtens mehr her.
Wer mich persönlich heutzutage mit einer Engine beeindrucken will muss mindestens die Levelgrößen von Far Cry mit detailierten Meshes und Texturen in den Speicher packen. Dazu kommt dann eine glaubwürdige Physik (nicht das halbgare Havok), Lippensynchrone Sprache bei der auch eine sichtbare Zunge verwendet wird und natürlich Per Pixel Lighting. Shadereffekte sind, richtig eingesetzt, natürlich auch nicht verkehrt, alles fein solange sie sich nicht zu sehr aufdrängen.
Ich behaupte nicht mal das eine alte Engine keine adäquate Leistung bieten kann. Das alt nicht unbedingt schlecht ist sieht man bei Gothic 2 oder Operation Flashpoint, beide Engines liefern für ihr alter eine beachtliche Qualität.
Auf der anderen Seite muss man die Fortschritte in den Engines von D3 und FC gegenüber dem bisherigen Standard (alles andere) würdigen auch wenn es nur ein Zwischenschritt hin zu mehr Echtzeitberechnung und weniger starrem Kontent darstellt.
Wichtig ist auch mir eigentlich nur was hinten rauskommt, aber wenn ich am PC ständig nur ...LOADING... zu sehen bekomme ist das einfach nicht zeitgemäß (und verdirbt mir schnell den Spaß).

~edit~
@ Gast 2
Die Balken sind eh nur für kleine Kinder, wir Erwachsenen erfreuen uns derweil wenn wir flüssig mit vernünftiger AA-Qualität und allen Settings auf Max spielen können. Meine besten persönlichen Siege erringe ich allerdings wenn ich jemanden vom Kauf einer Krücke abhalten kann und er dann wenigstens mit einer 6600 oder X700 von dannen zieht.

Coda
2005-08-22, 00:14:39
die beste und wird nur bei der Beleuchtung von D3 geschlagen.Nicht wirklich. FarCry kann genauso Stencilschatten mit Per-Pixel-Bumpmaps.

Mr.Magic
2005-08-22, 00:39:02
Bei D3 kamen mir die Schatten etwas besser vor, möglicherweise fällt es mehr auf weil es eh so duster ist. Dann revidiere ich mein Statement und behaupte das Gegenteil :P.

Die Boiling-Point-Engine ist übrigens auch ganz nett. Zwar weit entfernt von den Featuresets einer Cry-Engine aber Welten darstellen kann sie besser als der ganze Schlauchlevel-Engine-Mist. Hat mal jemand versucht sowas mit der D3-S-U2E-etc-Engine bauen und darzustellen. Wenn das flüssig mit nur 2Ghz und gerade mal 1GB RAM (dazu zwei olle 40er HDDs im Raid um Kontent nachzuschaufeln) läuft wären die Engines sogar fähig richtige Spiele (und nicht nur konsolenartige FPS) darzustellen.

Coda
2005-08-22, 00:42:02
Du vergleichst auch Äpfel mit Birnen. Ohne LOD in der Engine wird es so leicht natürlich nicht möglich sein große Außenbereiche darzustellen.

Mr.Magic
2005-08-22, 01:25:27
Du willst mir also erzählen das Spiele wie D3 oder HL2 immer nur ein einziges Mesh pro Modell verwenden und keine VLOs bei größerer Entfernung verwenden, bzw. noch schlimmer, dass die Engine LOD gar nicht unterstützt? Das glaube ich kaum (andererseits ist weder den HL2-Designern noch den Gametestern aufgefallen das die Grasmesh den Boden oft nicht mal ansatzweise berührt)!
Die Frage war eigentlich nur ob jemand überhaupt mal ansatzweise versucht hat eine große Level z.B. im UT200x-Editor zu bauen (meinetwegen auch mit dem immer gleichen static mesh bestehend aus einer high-poly- und einer low-poly-stufe), oder ob nur spielchen wie "ich baue eine HL2-Level in der D3-Engine nach" gemacht wurden.

(del)
2005-08-22, 01:29:25
Hi. Du schreibst gerne und viel oder?
@Gast 1 (der mich zitierte) Dumm stellen gilt nicht
Na jetzt nicht mehr.
Doom 3 ist z.B. grottenschlecht was die Texturqualität angeht. Das hat allerdings nichts mit der Engine selbst zu tun
Worauf gucken aber bei der Beurteilung "modern"? Frag ich gern nochmal. Auf Datum? Es ist so, daß die Engines ihre besonderen Stärken haben, aber keiner bei Sinnen kann sagen, mit einer nicht mehr modernen Engine aus dem Jahr 2003 ist ein HL2 möglich und mit der modernen Engine von Doom3 ist nur Doom3 möglich. Vielleicht bricht die Engine bei besseren Texturen ein? (Spaß...)
Die Engine von Riddick würde ich ebenfalls nicht als modern bezeichnen. Die Unterschiede zu Source halten sich in Grenzen und ich bin mir sicher das man mit ihr oder der ollen Unreal-2-Engine (Baudatum 2002, natürlich seitdem etwas getuned und aufgebohrt) HL2 Stein für Stein, mit identischer Optik, nachbauen kann
DU bist Dir sicher? Spitze! :massa: Ich bin mir jetzt ebenfalls sicher, daß Du über Sandbox, DoomEdit und Hammer aus dem Nähkästchen plaudern kannst. Also ich freu mich schon ;D

Die Animationen machten beim uralten Soul Reaver 2 (oder war das 3), bereits anno 2002, mit ihrer Zungensynchronisation, jedenfalls meines Erachtens mehr her
Ja das stimmt zum Teil, aber Source ist nicht dafür entwickelt worden um alleine Tagesschau nachzumachen. Ist "Mimik" neuerdings ein Synonym für "Zungenakrobatik"?

Wer mich persönlich heutzutage mit einer Engine beeindrucken will muss mindestens die Levelgrößen von Far Cry
Ich frag mich, ob Du Dir von lauten Bäumen manchmal über die tatsächliche Größe eines FC Levels wirklich im Klaren bist.
Dazu kommt dann eine glaubwürdige Physik (nicht das halbgare Havok)
Havok ist imho momentan das beste auf dem Markt. Inwiefern Du in der Lage bist eine Aussage zu treffen, ob Havok nun halbgar ist oder nicht, wage ich langsam zu beurteilen...
Lippensynchrone Sprache bei der auch eine sichtbare Zunge verwendet wird
Ja. Da stell ich mir vor allem einen neuen "Larry" so schön vor...
Das alt nicht unbedingt schlecht ist sieht man bei Gothic 2
Sie frisst Leistung wie Hamster Nüsse. Aus heutiger Sicht für Nichts.
Auf der anderen Seite muss man die Fortschritte in den Engines von D3 und FC gegenüber dem bisherigen Standard (alles andere) würdigen
Müßen sich jetzt Doom3-Engine und CryEngine nebeneinander stellen um besser als Source zu sein? :rolleyes: Es ist nicht so, daß ich Source für den Überflieger halte, aber jetzt was von nicht modern zu quaseln wo es immernoch kaum was Vergleichbares realisiert worden ist (HL2), ist für mich alleine so bissl wichtig machen. Gute Katakomben-Engine mit viel Licht, schlechte Grafik. Schlechte AllInOne-Engine, gute Grafik. Aha. Verstehe. Gut, Büsche drehen sich mit, die Taschenlampe ist crap. Bei Doom3 und FarCry ist dafür alles in bester Ordnung. Sicher :rolleyes:
Wichtig ist auch mir eigentlich nur was hinten rauskommt
Natürlich, aber man sollte das doch nicht gleich in geschriebenes Wort umsetzen :(
aber wenn ich am PC ständig nur ...LOADING... zu sehen bekomme
Dann hast Du vielleicht sehr viel in die Graka investiert, aber wenig in den Hauptspeicher.

Zum Kommentar @ zu Gast2:
Ja klar. HEUTE soll sich auch keiner mehr eine neue 9800pro kaufen. War das irgendwei so zu verstehen oder wie? Ich freu mich über Deine persönlichen Siege mehr als Du. Du erhöhst die durchschnittliche Leistung daheim, also werden bessere Spiele eher kommen. Danke Dir dafür :D

(del)
2005-08-22, 01:39:22
Sorry Leute so ein Spaghettikack kommt nie wieder vor :) Ich hasse das, aber bei Mr.Magic hat sich das so schön getippert. Habs garnicht gemerkt ;) Ok. Nacht erstmal.

(del)
2005-08-22, 02:10:51
Ein Moderator sollte derartige Meinungen doch bitte für sich behalten
Du sei nicht so streng mit ihm. Ich kann mich bei dem Miks Nachgeplapper von aths Texten selbst kaum halten. Oder hast Du "grenzwertig" früher aus seinem Munde gehört? Er ist echt ne hammer Übung für den Charakter. Keine Frage :D
Und dass die 6600GT die vorhandene Bandbreite so viel effizienter nutzt, als eine 9800pro, wage ich auch mal zu bezweifeln. Oder hast du dafür einen Beleg? - Glashaus ahoi.
Es ist schon vorher in dem Thread gezeigt (Links) worden, was eine 6600GT in höheren Auflösungen + AA/AF mit einem R350/R360 macht. Trotz 128bit. Was soll das also?

Mr.Magic
2005-08-22, 02:18:44
Wieso viel schreiben? Mit Zehn-Finger-System geht das ganz flott.
Modern ist was auf meiner Kiste gerade noch flüssig läuft und zumindest ansatzweise die Möglichkeiten eines PC ausnutzt. Dazu gehört nun mal auch Daten von der Festplatte nachzuladen/den vorhandenen freien Speicher für ununterbrochenes Spielen zu nutzen anstatt an festen Punkten den Speicher zu leeren und neue Daten nachzuschaufeln. Die Unterbrechungen gerade bei HL2 sind kurz aber häufig und bei gerade mal 1GB RAM sind noch mehrere hundert MB frei.
Sicher bin ich sicher, so wenige Meshes wie bei HL2 zur Verwendung kommen ist das keine Kunst. Zugegebenermaßen habe ich mich nur mit NetImmerse intensiv befasst, aber selbst damit ist was HL2 bietet möglich.
Kein aktuelles Spiel bietet was ich will und ist nie so perfekt wie ich das gerne hätte. Doom 3 hat z.B. gute Schattenwürfe, sie sind aber nicht immer korrekt. Die Zunge gehört zur Mimik, stell dich mal vor den Spiegel und versuche zu sprechen ohne das die Zunge sichtbar ist... (am besten noch mit künstlichen Fängen für den Vampireffekt sssss)
Die Levelgröße von Far Cry lässt sich ganz leicht vergleichen. Clipping deaktivieren und von einem ende der Level in bis zum anderen durch"fliegen".
Havok ist nicht genau genug und nicht leistungsfähig genug weshalb ich mich auf AGEIA freue.
G2: Solange ein Spiel flüssig läuft kann es nicht zuviel Leistung fressen.
Die D3-Engine hat neben der Cry-Engine eigentlich gar nichts zu suchen. Darunter ist vom Featureset her richtig, ob sie auch was Leisten kann ist noch nicht klar, jedenfalls lassen sich Schlauchlevelgames problemlos darstellen. Was hat schlechte Grafik mit der Engine zu tun? Ich habe schon Spiele mit grausiger Grafik gesehen die U2E verwenden. Nur weil HL2 akzeptabel aussieht ist die Engine noch nicht modern. Eine Engine ist modern wenn sie aktuelle Grafikfeatures unterstützt und das Speichermanagement große Areale zulässt (oder zumindest mittlere auf Far Cry-Niveau). Alles in Ordnung ist bei keiner Engine aber modern ist nur was deutlich über den Standard hinausgeht den die U2E gesetzt hat.

Das ist so zu verstehen, dass ich über jeden Kunden froh bin den ich vom Kauf einer 6200/X300 abhalten kann und der dann zwar etwas mehr Geld ausgibt als geplant mir aber dafür nicht ein paar Tage später unzufrieden auf die Eier geht. Deutlich genug?

~edit~
pöße Kramadig cu früer sdunte

Coda
2005-08-22, 02:23:12
Doom 3 hat z.B. gute Schattenwürfe, sie sind aber nicht immer korrekt.Das einzig unkorrekte an den Doom 3-Schatten ist dass sie keine Penumbra haben, ansonsten stimmen sie einwandfrei.

Mr.Magic
2005-08-22, 02:54:07
Ich habe bei Doom 3 alle möglichen versuche gemacht und bin mit der Taschenlampe um allerlei Objekte gelatscht. Weder die Lichtkegelunterbrechung durch das Objekt, noch der durch Abwesenheit glänzende Schatten hinter dem Objekt, waren immer korrekt.

~edit~
immer hinzugefügt, meistens stimmt der Schatten ja

Mr. Lolman
2005-08-22, 03:08:00
Ich habe bei Doom 3 alle möglichen versuche gemacht und bin mit der Taschenlampe um allerlei Objekte gelatscht. Weder die Lichtkegelunterbrechung durch das Objekt, noch der durch Abwesenheit glänzende Schatten hinter dem Objekt, waren immer korrekt.


Die Schatten sind immer korrekt!

SKYNET
2005-08-22, 03:32:32
sagen wirs doch mal so:
in alten games, ist eine 6600GT immer schnell genug die gleichen qualitätssettings zu spielen wie ne 9800pro, in neuen games ist die 9800pro aber zu langsam um auf gleicher qualität, das bild zu erzeugen wie ne 6600GT. =)

Mr.Magic
2005-08-22, 03:35:32
Wenn ein Schatten da ist stimmt er schon, aber ein fehlender Schatten ist auch inkorrekt. Da ich keine Lust habe mir Doom 3 nur für einen Screenshot zu besorgen hier mal ein paar Pointer. Einen pechschwarzen Raum mit mittelgroßen Kisten suchen, Taschenlampe in die Hand nehmen und die Kistenecke von schräg oben befunzeln. Wenn man das mit einer echten macht hat man hinter dem Eck einen langgezogenen Schatten, bei Doom 3 fehlt er teilweise komplett. Das andere sind Objektschatten auf anderen Objekten. Getestet mit einem Gitter und verschiedenen Objekten in einem Raum (Labor oder sowas ähnliches). Auf einige Objekte wurde der Gitterschatten projeziert auf andere nicht. Allerdings gebe ich auch jederzeit zu das ich noch kein Spiel gesehen habe das es besser kann.

Grestorn
2005-08-22, 08:50:08
Wenn ein Schatten da ist stimmt er schon, aber ein fehlender Schatten ist auch inkorrekt. Da ich keine Lust habe mir Doom 3 nur für einen Screenshot zu besorgen hier mal ein paar Pointer. Einen pechschwarzen Raum mit mittelgroßen Kisten suchen, Taschenlampe in die Hand nehmen und die Kistenecke von schräg oben befunzeln. Wenn man das mit einer echten macht hat man hinter dem Eck einen langgezogenen Schatten, bei Doom 3 fehlt er teilweise komplett. Das andere sind Objektschatten auf anderen Objekten. Getestet mit einem Gitter und verschiedenen Objekten in einem Raum (Labor oder sowas ähnliches). Auf einige Objekte wurde der Gitterschatten projeziert auf andere nicht. Allerdings gebe ich auch jederzeit zu das ich noch kein Spiel gesehen habe das es besser kann.
Der Schatten in Doom 3 stimmt immer (abgesehen davon, dass die eigene Spielfigur per Standard keinen Schatten wirft).

Was Du beschreibst wurde bereits lang uns ausführlich diskutiert. Dadurch dass bei den Tests mit der Taschenlampe der Beobachter (also die Augen des Spielers) und die Taschenlampe sehr nah sind (die Lampe wird unmittelbar neben die Augen gehalten), verdecken die beleuchteten Gegenstände den geworfenen Schatten bzw. die Perspektive erscheint manchmal merkwürdig. Aber korrekt ist der Schanttewurf dennoch immer.

(del)
2005-08-22, 12:26:03
Havok ist eine Software. Ageia macht einen Chip. Was gibts da zu vergleichen und meckern? :| Was es besser kann ist klar, aber jetzt so auf die Kacke hauen muß man auch nicht zwingend :rolleyes:
Deiner Definition nach werd wohl ich die besten Engines schreiben können. Bieten zwar nicht viel her, aber laufen auf Deiner Kiste nur mit Mühe und Not flüssig :D Ich will jetzt nicht wieder jeden Satz kommentieren, aber das Laden in HL2 nervt bei weitem nicht so wie bei Doom3. Hast Du die Spiele überhaupt? Im Gegensatz zu D3 und FC hast Du in HL2 das Gefühl keine 50m in der gleichen Umgebung zu latschen. Hängt halt auch von den Tricks im Design her.
Was man mit einer anderen Engine als Szene nachbauen kann, ist noch lange nicht das was man dem User dann spielbar präsentieren kann. D3 leuchtet super. Darauf kommt es bei dem Spiel auch an. Source zaubert aber bis zu 8000 Polygone pro Charakter, D3 2300 :rolleyes: CyberDämon hat 4500, der Buggy in HL2 15000 (!). FC rendert bis zu 8000 Polygone pro Charakter, Fahrzeuge bis 5000. Pro Szene macht D3 65000 Polygone, Source um die 150.000, FarCry knapp 200.000. Und imho zaubert keine U2E-aufgebohrt_und_aufpoliert 150.000 Polygone pro Szene und wird es auch nie können. Modern ist halt mehr als NUR Featurelist. Performance und daher die gestalterischen Möglichkeiten/Freiheiten sollte man dabei ebenfalls berücksichtigen. Eindrucksvolle Fachidioten wie Doom3 sind eine andere Geschichte. Sorry, aber was Valve mit Source IM GANZEN auf dem Bildschirm zauberte, war nicht altbacken und es war kein 2003-Standard.

Mir ist nichts gut genug ist eine Einstellung die uns immer weiter bringt, aber man muß sich dabei in den Beurteilungen auf das realistische auch bissl bremsen können. Sonst kommt es so vor, als ob man mit seinen Ansprüchen und Geschmack nur kleinwenig prollen möchte :tongue:

Mr. Lolman
2005-08-22, 12:36:41
Ich hab schon vor 20 Monaten mit dem UnrealED mehr als 500.000 Polys/Szene erreicht - bei knapp 60 fps auf ner 9700p (~30 Mio Polys/sec.):

http://www.forum-3dcenter.de/vbulletin/showthread.php?p=829102#post829102

Coda
2005-08-22, 12:38:50
Und imho zaubert keine U2E-aufgebohrt_und_aufpoliert 150.000 Polygone pro Szene und wird es auch nie können.100.000 sind zumindest nichts ungewöhnliches bei den Onslaught Maps. Ich wüsste also nicht warum 150.000 nicht gehen sollten.

Mr. Lolman
2005-08-22, 13:10:46
Allein die Wiese macht in dieser Szene ~1Mio Polys aus (ok wegen dem fehlenden LOD eine leichte Verschwendung ;)). Die Bäume nochmal 200k:

http://img379.imageshack.us/img379/3991/untitled18fr.jpg (http://imageshack.us)

Mr.Magic
2005-08-22, 17:43:22
@BesserHälfte
Wenn du alle von mir genannten Qualitätsfeatures in eine Engine packen kannst und es dann bei meiner (noch) aktuellen Kiste läuft (von flüssig ganz zu schweigen) bin ich beeindruckt. Ich habe die Spiele alle gespielt und, bis auf Doom 3, sogar beendet. D3 ist mir als Spiel auf Dauer zu eintönig gewesen, sonst wäre ich nicht auf die Idee gekommen Schattenspiele zu machen.

nochmal in aller Deutlichkeit: Engine =|= Spiel
Ich habe auch nichts gegen Source, Masquerade Bloodlines ist z.B. ein Super Spiel, mehr als UE2 kann sie trotzdem nicht.

@grestron
Es wird also der Schatten erzeugt der sich am dichtesten an der Lichtquelle befindet? Dann ist die Berechnung korrekt und ich muss meine Aussage revidieren in: die Schattenanzeige von Doom 3 ist nicht in allen Perspektiven perfekt (perfekt bitte gleichbedeutend setzen mit den Erwartungen durch Realworld-erfahrung).

@Mr. Lolman
Also sind tatsächlich die RAM-armen Konsolen an den schlechten UE2-Spielen mit Winz(Schlauch)maps schuld? Damit bin ich beruhigt und freue mich auf bessere Konvertierungen von der Next-Gen (und die modernisierte UE3).

@whoever
Ich bleibe bei meiner Meinung, abgesehen von den Cry- und D3-Engines übertrifft keine, in einem käuflich erwerbbaren Spiel verwendete, Engine wozu auch UE2 fähig ist. 2003 wären Source und Co. noch als modern durchgegangen da es nichts besseres gab.

~edit~
proof read

Mr. Lolman
2005-08-22, 17:55:17
@Mr. Lolman
Also sind tatsächlich die RAM-armen Konsolen an den schlechten UE2-Spielen mit Winz(Schlauch)maps schuld? Damit bin ich beruhigt und freue mich auf bessere Konvertierungen von der Next-Gen (und die modernisierte UE3).


Ja z.T.. Zum anderen Teil sinds faule Artists die mit unscharfen Texturen und negativem LOD den Ressourcenverbrauch in die Höhe treiben und die Levels loadmässig nicht gut ausbalanzieren. So schwankt die Performance tw. auch ziemlich stark innerhalb der Maps.

Alles was ihr mit der Unreal Engine bisher gesehen habt zeigt nicht das wahre Potential der Engine. Die Grenzen bilden ausschliesslich der Zeit/Rechenaufwand (bei Levels mit massig Polygonen, dauert ein simples umsortieren schonmal ewig) sowie die Fähigkeiten der Artists.

Imo dürfte die UE3 schon ziemlich photorealistische Szenen darstellen können, bin gespannt ob man sie auch lässt ;)

Grestorn
2005-08-22, 18:07:33
@grestron
Es wird also der Schatten erzeugt der sich am dichtesten an der Lichtquelle befindet? Dann ist die Berechnung korrekt und ich muss meine Aussage revidieren in: die Schattenanzeige von Doom 3 ist nicht in allen Perspektiven perfekt (perfekt bitte gleichbedeutend setzen mit den Erwartungen durch Realworld-erfahrung).Nein, Du hast mich falsch verstanden. Wenn man nur die Taschenlampe als einzige Lichtquelle hat, dann und nur dann werden alle Schatten natürlich von dieser einen Lichtquelle erzeugt, und die ist eben sehr nah am virtuellen "Auge".

Und deswegen sehen die Schatten, die von der Taschenlampe geworfen werden, auf den ersten Blick "unecht" aus.

Coda
2005-08-22, 18:41:17
Das Problem ist auch, dass in echt der Kopf nicht auf Schulterhöhe ist ;)

Mr.Magic
2005-08-22, 19:03:48
grestorn,
wir reden aneinander vorbei. Ich sah teilweise überhaupt keinen Schatten als ich schräg über Kisten leuchtete. Er war auf dem Boden sichtbar und konnte relativ genau bewegt werden. Als ich versuchte diesen Schatten an eine Wand und auf andere Objekte zu bringen verschwand er manchmal einfach komplett. Wenn allerdings statt dem sichtbaren Schatten ein, für den Spieler, unsichtbarer direkt unter/neben die Kiste projeziert wird ist er nicht wirklich inkorrekt berechnet. So abrupt wie von einem sichtbaren Schatten auf einen unsichtbaren umgesprungen wird zerstört allerdings die Illusion sich tatsächlich mit einer Taschenlampe in einem Raum zu befinden, also keine perfekte Darbietung. Ich weiss auch das es kaum einen Weg gibt das zu verhindern solange wir nicht die Power haben beliebig viele Schatten in Echtzeit zu rendern, da es DAS Hypefeature von Doom 3 war hat es mich trotzdem enttäuscht. Möglicherweise habe ich auch nur nach einem Grund gesucht Doom 3 nicht zu deinstallieren.
Ich warte einfach mal ab bis ein "besseres" Spiel mit der Engine erscheint und werde mir das dann nochmal genauestens ansehen.

Coda
2005-08-22, 19:10:42
Der Schatten fast genau so groß ist wie die Dinge die ihn erzeugen, womit man ihn kaum sieht.

Liegt daran dass der Taschenlampen-Spot fast genau am gleichen Punkt wie der Eyepoint liegt, was natürlich Quatsch ist in echt. Aber falsch ist er mit Sicherheit nicht, das verbietet die Technik an sich.

davidzo
2005-08-22, 23:28:34
@ Mr.Lolmann: Der UTscreen da sieht total unrealistisch aus, arme grastexturen, billige bäume usw. das sa selbst in SOF2 schon genaus aus.


@Mr.Magic: Stimme dir völlif zu, dass FarCry atm den wohl besten Komrpomiss bietet von dem was die Engine kann. Massiv effektive (kurze aber schöne) Pixelshader, hochauflösende Texturen, jede menge alphatexturen und sehr gute Eignung für massive Außenareale und verglichen dazu akzeptable ladezeiten, - das gibts halt nur einmal.
Abgesehen davon bekräftige ich es, dass Source und D3 Engine nicht das zur jetzigen zeit machbare und erwartete präsentieren. Beide spiele wurden von Anfang an für 2003 produziert und darüber täuschen auch die nochmal schnell angehobenen texturqualitäten oder geringfügig verbesserten shader nicht weg.

Was große Polygonmassen und LOD angeht arbeitet die rome Total War engine für ihr spezielles anwendungsfebiet imo sehr gut. Sicherlich ist sie stark cpugebunden, aber soviele Polygone so detailiert in einem Bild und der Übergang von einer Detailstufe zur anderen so smooth, das habe ich woanders noch nicht gesehen...



Um nocheinmal zu erinnern, es ging hier weder um:
- die beste Engine
- Nvidia vs. ATI Shaderpower
- 6600GT vs. 9800pro
...

Um das tatsächliche Thema wurde bisher kaum diskutiert:
- inwieweit brechen nv40chips bei HQ ein?
- mit was müssen wir ATIs standard bzw. qualitäteinstellung bei nv vergleichen?
- Erfahrungsbericht 9800xt vs. 6800GT in älteren spielen kaum Unterschied (z.B. bf42)

falls ihr abseits des Threadtitels über die engine des jahres 2004 oder über shaderpower 6600GTvs.9800pro diskutieren möchtet, dann eröffnet doch bitte nen eigenen topic. falls kein interesse an der fortführung des von mir gestarteten topics mit obigem inhalt (siehe absatz direkt hiervor) teilnehmen möchte, können die mods den thread im prinzip schließen.

(del)
2005-08-22, 23:32:46
Allein die Wiese macht in dieser Szene ~1Mio Polys aus (ok wegen dem fehlenden LOD eine leichte Verschwendung ;)). Die Bäume nochmal 200k:
Boah =) Hut ab. Ok, danke für den Schlag in den Nacken ;) Kann man das auch spielen? Ist jetzt nicht gleich ironisch gemeint, aber kommt da jetzt ein Team von KI-Soldaten (je 5000 Polygone) 'das Gelände nutzend' auf einen zu oder ist das einfach nur frei begehbar für paar Leute? Hmm... Hast Du auch mal bissl abgecheckt wie sehr CPU-lastig das ist?

Ich muß noch dazu sagen, die Zahlen zu "Polygonen pro Szene" sind bei Source nur von paar Leuten geschätzt worden. Es gibt da keine offiziellen angeben. 150.000 angeblich bei HL2, was ich bei manchen Levels aber nicht so wirklich glaube. Nehm ich aber erstmal so hin. Zu FC und Doom3 sind das die ~Aussagen der Hersteller. Von Valve hab ich noch nie was dazu gehört :(

Mr.Magic
2005-08-23, 04:04:38
- inwieweit brechen nv40chips bei HQ ein?
- mit was müssen wir ATIs standard bzw. qualitäteinstellung bei nv vergleichen?
- Erfahrungsbericht 9800xt vs. 6800GT in älteren spielen kaum Unterschied (z.B. bf42)

eigentlich alles schon geklärt:

- kann ich nicht sagen; jedenfalls nicht stark genug das ich jemals auf die Idee käme auf HQ zu verzichten; jemand erwähnte bis zu 80% Verlust, das sind dann wohl die Situationen wo ich mit dem AA runter und mit der Auflösung rauf gehen muss... (siehe unten)
- Diesen Artikel lesen: http://3dcenter.de/artikel/g70_flimmern/ , dass sollte die Frage eigentlich klären. ATI IQ an/aus praktisch kein Unterschied, 6800HQ minimal besser als IQ an (der Begriff war doch IQ?) und die 7800 ist zur Zeit einfach nur schlecht... (evtl. Treiberbug; korrekt funktionierende Treiber zur Markteinführung zu bekommen ist bei nVidia extrem selten, aber so schlimm war es seit der TNT nicht mehr)
- Wie von mir bereits auf Seite drei erwähnt kann man so alte Spiele auf einer 6800GT normalerweise locker bei 1280x960 mit 8xSAA spielen (manchmal sogar 1600x1200@8xSAA) und alles aktuelle zumindest auf 1600x1200 mit 4xAA, da kommt eine 9800XT nicht mehr mit. Wem allerdings weniger Qualität (schlechtere Kantenglättung) reicht der kommt mit Mid-Range aus (aus einem ähnlichen Gedanken entsprang denke ich die ganze 9800vs6600 Diskussion, beide geben sich insgesamt nicht viel und sind bei zielgruppengerechter Anwendung schnell genug; andere Behauptungen sind reine Bashversuche). Ich denke nicht das sich an der Grafikqualität viel ändern (evtl. bessere Animationen) wird bis von den Next-Gen-Konsolen konvertierte/parallel entwickelte Spiele in die Regale kommen (irgendwann in 2006 sollen die ersten Spiele mit UE3 kommen).

jetzt solltest du wissen was du wissen wolltest und mehr :tongue:

aths
2005-08-23, 05:53:50
- Diesen Artikel lesen: http://3dcenter.de/artikel/g70_flimmern/ , dass sollte die Frage eigentlich klären. ATI IQ an/aus praktisch kein UnterschiedIn dieser speziellen Szene, ja. Das sollte man nicht verallgemeinern.

80% Geschwindigkeits-Verlust von Q auf HQ beim NV40? Selbst wenn man so ein Setting irgendwie herstellen kann, ist dieses so singulär dass es statistisch völlig irrelevant ist.

Razor
2005-08-23, 06:46:08
- kann ich nicht sagen; jedenfalls nicht stark genug das ich jemals auf die Idee käme auf HQ zu verzichten; jemand erwähnte bis zu 80% Verlust, das sind dann wohl die Situationen wo ich mit dem AA runter und mit der Auflösung rauf gehen muss... (siehe unten)80%?
:confused:

Also nach meinder Erfahrung sind dies so ca. 20% im Schnitt...
Klar, in Situationen in denen die GraKa zu 100% limitiert, sind solch' anspruchsvolle Settings natürlich auch entsprechend 'teuer'. Da ich aber mit 1024x768 (oder seit neuestem 1280x1024 ;-) spiele, kommt dies in den wenigsten Fällen zum Tragen...

- Diesen Artikel lesen: http://3dcenter.de/artikel/g70_flimmern/ , dass sollte die Frage eigentlich klären. ATI IQ an/aus praktisch kein Unterschied, 6800HQ minimal besser als IQ an (der Begriff war doch IQ?) und die 7800 ist zur Zeit einfach nur schlecht...Ist einzig und allein ein Problem mit UT2003/2004 und echt schon ein alter Hut.

Irgendwann in den 50'ern fing nVidia an (wie auch ATI) die Unreal-Engine zu handoptimieren. Seither haben die Quali-Einstellungen im Treiber-Panel nur noch sekundäre Bedeutung. Die Aussage von BQ-Betrachtungen auf Basis dieser Engine lassen sich leider (überhaupt) nicht auf irgendwelche andere Situationen übertragen...

-

Und das für alte Spiele auch alte Grafikkarten reichen, ist ja nun wohl 'ne Binsenweisheit.
Neue Karten brauchts für neue Anforderungen...

Je nach Game/Engine reicht ganz sicher auch 'ne TNT.
Und Q3 z.Bsp. konnte man auch damals schon in voller Qualität mit 'ner ur-gf 'genießen'...
Heißt das im Umkehrschluß, dass sowohl ATI's R300+, wie auch nVidia's NV25+ vollkommen überflüssig waren/sind?
Wohl kaum...

Razor

Mr.Magic
2005-08-23, 07:15:10
@aths
Es hat jedenfalls noch kein ATI-User einen sichtbaren Unterschied beim Spielen bemerkt, oder die schweigen sich immer alle darüber aus. Bisher bieten sie also offensichtlich trotz IQ und ungenauerer Recheneinheiten ein zufriedenstellendes Bild.

Ich habe ja auch geschrieben das ich mich noch nie gezwungen sah irgendwelche Optimierungen einzuschalten. Und dann steht da auch noch bis zu 80%, sprich maximal. Der Wert stammt, wie erwähnt, nicht von mir (es könnte allerdings bei bestimmten Spielen in bestimmten Levels stimmen), und ich habe auch nicht selbst rumprobiert ob es mit 8xSAA besser läuft, wenn ich auf Q runtergehe. Bevor ich mir den Texturflimmerbrei* antu' spiele ich lieber in höherer Auflösung und mit etwas mehr Kantenflimmern. Am liebsten hätte ich sowieso ordentliches AF zurück, aber da ist weder ATi noch nVidia einsichtig... alles nur weil zu viele immer nur auf den Balken gucken.

*Seltsamerweise hatte ich mal direkt nach einer Treiberinstallation keinerlei Unruhe im Bild. Das Flimmern fiel nach dem Neustart dafür noch mehr auf. Inzwischen bin ich mir nichtmal mehr sicher ob ich es mir nicht doch eingebildet habe...

@Razor
Das Flimmern der GeForce 6/7 hat mit Handoptimierungen rein gar nichts zu tun, ausser nVidia hat die Treiber für GTA-SA handoptimiert. Ich finde die Texturqualität meiner 6800 gegenüber meiner alten 5950 nur gerade so erträglich und auch nur wenn ich auf HQ gehe. Ich meine dabei das Rumgeflimmere, von der Winkelabhängigkeit fange ich besser gar nicht erst an. Jedenfalls sieht es auf einer ATi trotz WA ruhiger aus.
Habe ich behauptet das für alte Spiele eine alte Grafikkarte reicht? Ich sagte für anspruchslose tut es aktuelles Mid-End oder altes High-End z.Zt. noch locker.

Ronny G.
2005-08-23, 08:42:40
Um nocheinmal zu erinnern, es ging hier weder um:
- die beste Engine
- Nvidia vs. ATI Shaderpower
- 6600GT vs. 9800pro
...

Um das tatsächliche Thema wurde bisher kaum diskutiert:
- inwieweit brechen nv40chips bei HQ ein?
- mit was müssen wir ATIs standard bzw. qualitäteinstellung bei nv vergleichen?
- Erfahrungsbericht 9800xt vs. 6800GT in älteren spielen kaum Unterschied (z.B. bf42)


ZUm Thema 6600GT VS. 9800pro

Es scheinen laut dieser PCGH Ausgabe doch unterschiede zu existieren, obwohl die Speicherbandbreite der 9800er mit 21,8GB mehr als die mageren 14,4Gb der NV versprechen, gibt es einen nach damaligen stand anständigen unterschied.

Seht selbst=http://www.arcor.de/palb/alben/22/3548522/1280_3534643462306137.jpg

Und für ihre Preis/Leistungsdaten ist die 6600Gt ja bekannt.

Gruß Ronny G.

Mr. Lolman
2005-08-23, 10:55:36
Zu den 80%: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3369707#post3369707


@Ronny G.: Die Benchmarks sind sicher nicht mit HQ entstanden.

Quasar
2005-08-23, 13:12:57
Wo sind denn da 80% Verlust zu sehen? Wenn mich der Windows-Taschenrechner nicht getrogen hat, sind es maximal ~54%, die man verlieren kann (mit einem speziellen Treiber in einem speziellen Setting).

reunion
2005-08-23, 16:20:50
In dieser speziellen Szene, ja. Das sollte man nicht verallgemeinern.



Bis dato konnte noch niemand einen Bildqualitätsverlust durch A.I. "Low" nachweisen.

reunion
2005-08-23, 16:22:21
Irgendwann in den 50'ern fing nVidia an (wie auch ATI) die Unreal-Engine zu handoptimieren.

Razor


ATi filtert in UT nicht anders, als wie bei jedem anderen Spiel.

betasilie
2005-08-23, 16:24:10
Bis dato konnte noch niemand einen Bildqualitätsverlust durch A.I. "Low" nachweisen.
So sieht es aus. A.I. Low ist daher absolute Plficht beim benchmarken.

betasilie
2005-08-23, 16:25:46
Irgendwann in den 50'ern fing nVidia an (wie auch ATI) die Unreal-Engine zu handoptimieren. r
ATI? :| Das macht ausschließlich Nvidia. ;(

davidzo
2005-08-23, 17:03:00
eigentlich alles schon geklärt:
- Diesen Artikel lesen: http://3dcenter.de/artikel/g70_flimmern/ , dass sollte die Frage eigentlich klären. ATI IQ an/aus praktisch kein Unterschied, 6800HQ minimal besser als IQ an (der Begriff war doch IQ?) und die 7800 ist zur Zeit einfach nur schlecht... (evtl. Treiberbug; korrekt funktionierende Treiber zur Markteinführung zu bekommen ist bei nVidia extrem selten, aber so schlimm war es seit der TNT nicht mehr)
- Wie von mir bereits auf Seite drei erwähnt kann man so alte Spiele auf einer 6800GT normalerweise locker bei 1280x960 mit 8xSAA spielen (manchmal sogar 1600x1200@8xSAA) und alles aktuelle zumindest auf 1600x1200 mit 4xAA, da kommt eine 9800XT nicht mehr mit. Wem allerdings weniger Qualität (schlechtere Kantenglättung) reicht der kommt mit Mid-Range aus (aus einem ähnlichen Gedanken entsprang denke ich die ganze 9800vs6600 Diskussion, beide geben sich insgesamt nicht viel und sind bei zielgruppengerechter Anwendung schnell genug; andere Behauptungen sind reine Bashversuche). Ich denke nicht das sich an der Grafikqualität viel ändern (evtl. bessere Animationen) wird bis von den Next-Gen-Konsolen konvertierte/parallel entwickelte Spiele in die Regale kommen (irgendwann in 2006 sollen die ersten Spiele mit UE3 kommen).

jetzt solltest du wissen was du wissen wolltest und mehr :tongue:


Es heißt AI, nicht IQ.

Es geht mir nicht nur um qualitative, also absolute unterschiede, sondern auch um quantitive Aussagen. Klar bietet mir die 6800Gt bei fast jedem Spiel mehr frames als die 9800xt und das bei ungefähr gleich aussehend eingestellter quali.
Die Frage ist allerdings wie groß der Unterschied ist.
Und dazu sage ich, dass der Unterschied bei details auf highquality , in einem ATIpräferierten game wie bf42, bei FSAA und aniso, bei einer schwachen CPU (die 6800Gt hat mehr cpuauslastung als die 9800xt und skaliert besser), eben nicht oder kaum vorhanden ist.
Bleibt die Frage, ob es sich überhaupt lohnt das doppelte für ähnliche Leistung auf den Tisch zu legen und man nicht vielmehr genau untersuchen sollte was für spiele man eigentlich spielt und danach die Grakawahl richten solle, als nach der allgemeinen marketingrichtung, den features oder rein nach der performance auf spitzensystemen.


Zu dem benchmark von oben:
- da fehlt die 9800xt welche die 9frames respektive 1/4 vor der 9800pro unter 1280*1024*4xfsaa*8xaniso locker aufholt und mindestens en par mit der 6600Gt liegt
- 8:1 Aniso, da soll wohl 8x heißen
- man sieht deutlich wie die 6600Gt bei auflösung fsaa und naiso massiv einbricht, alle 256mb/256bitkarten dagegen behalten mehr performance.
- Für hardcoregamer kannste den 1024*768 benchmarkteil streichen, die spielen nicht ohne alles geringe Auflösungen.
- Catalyst 4.10? unterstützt der schon die x800? man der ist meilenweit veraltet. der 66.81er ist auch net gerade der neueste.
- HQ beachtet? damit siehts aus wie auf ner ATi bei standard, leide rbricht die leistung mitunter um biszu 50% ein.

Mr. Lolman
2005-08-23, 17:22:52
Wo sind denn da 80% Verlust zu sehen?

Ui, das waren 80% Gewinn, und nicht Verlust X-D

MechWOLLIer
2005-08-23, 17:36:24
ATI? :| Das macht ausschließlich Nvidia. ;(
Nö, das machen beide und ATi verschweigt das auch nicht;)

Ronny G.
2005-08-23, 20:54:02
Zu dem benchmark von oben:
- da fehlt die 9800xt welche die 9frames respektive 1/4 vor der 9800pro unter 1280*1024*4xfsaa*8xaniso locker aufholt und mindestens en par mit der 6600Gt liegt
- 8:1 Aniso, da soll wohl 8x heißen
- man sieht deutlich wie die 6600Gt bei auflösung fsaa und naiso massiv einbricht, alle 256mb/256bitkarten dagegen behalten mehr performance.
- Für hardcoregamer kannste den 1024*768 benchmarkteil streichen, die spielen nicht ohne alles geringe Auflösungen.
- Catalyst 4.10? unterstützt der schon die x800? man der ist meilenweit veraltet. der 66.81er ist auch net gerade der neueste.
- HQ beachtet? damit siehts aus wie auf ner ATi bei standard, leide rbricht die leistung mitunter um biszu 50% ein.

Wegen dem alter solltest du auch mal aufs datum der ausgabe schauen, ist gute 8monate her.
Und da war wohl eher Ati im vorteil, den an den treibern ändert sich im laufe der Zeit nicht mehr all so viel was die Performance angeht.
Und ATi´s treiber sollten so schon ordentliche performance ergeben.
Der 6600er chip war hingegen noch recht frisch zu dieser Zeit.

Ich kenne die 9800Xt zwar nicht, kann mir aber irgendwie nicht vorstellen das sie sich so deutlich von der pro abhebt, so das sich das bild gleich zugunsten Ati umschlägt.

Auch finde ich das Argument mit der HQ recht schwach, den man sieht doch laut des Diagram wie die Skalierung ist.
Vor noch 2-3 monaten kannte keiner diese angeblichen Bildqualitätsschwächen der NV40> , es hat einfach keiner gemerkt.
Kaum kommt neue Karte raus die schnell ist sollen/müssen Fehler gefunden werden, denn man kann diese Performance nicht so da stehen lassen.

Natürlich ist es nicht richtig das die Qualität nachläßt, aber die User wollen es doch so, bis dato werden Karten doch nur in DIagramme ala höchster FPS gewertet.

Es wollen viele nicht wahrhaben aber die 6600Gt ist keine schlechte karte, das sich eine ehemals topkarte von der neuen Mainstreamkarte schlagen lassen kommt halt vor.

Wo ich z.b den Typen bei der GIG in Leipzig von Nvidia sprechen hörte, dachte ich auch mir fällt die Kinnlade runter, er meinte das die 7800GTX in zwei jahren noch ausreichen würde um Games zu spielen, was sind den das für prognosen :P

Gruß Ronny G.

Gerhard
2005-08-23, 21:20:15
@Razor
Das Flimmern bei Q habe ich definitiv bei sehr vielen Spielen mit meiner 6800er und ist nicht nur bei Unreal der Fall. Die Aussage das dies an den Unreal-Optimierungen liegt ist doch lächerlich, dafür tritt das Problem doch in viel zu vielen Spielen auf.
Die Unreal Optimierungen zeigten sich ja immer nur daran das bestimmte Stages niedrigere AF-Grade bekommen, welche ja keine Erhöhung der Flimmrigkeit zur Folge hat.
Genauso habe ich bei meinem Notebook (ATI 9600er) keine Bildqualitätsnachteil durch AI On wahrgenommen.
Imho. ist der Artikel sehr gut und das Ergebnis spiegelt die Realität in den meisten Spielen mit kritischen Texturen wieder.
Er zeigt eben gerade sehr gut welche Einstellungen vergleichbar sind.

davidzo
2005-08-24, 02:19:53
Ich kenne die 9800Xt zwar nicht, kann mir aber irgendwie nicht vorstellen das sie sich so deutlich von der pro abhebt, so das sich das bild gleich zugunsten Ati umschlägt.

Der Unterschied ist weniger der um 10 bzw. 6% höhere Chip- oder Ramtakt, noch Overdrive o.ä..
der hauptunterschied sind einfach 128MB RAM mehr, also 256MB reltiv schneller DDR RAM mit 256bit.

Guckt man sich obiges diagramm an und betrachtet einmal nur die 1280er Werte mit FSAA und aniso, wieso die 1024er benches für uns nix taugen erwähnte ich bereits, dann wird man schnell merken, dass die 6600Gt auch in diesem bereich knapp for 6800LE und 9800pro anführt, aber alle 256MB Karten signifikant weiter vorne liegen. Gerade in Texturlastigen games wie Doom3 und Rome TW kann man nie genug grakaspeicher haben (in D³ bringen sogar 512mb noch ne beschleunigung aus ultraHQ).

Aufgrund dieses speichervorteils liegt die 9800xt trotz der ungünstig gewählten games wohl vorne wenn man sie in den chart einträgt.

Die gamewahl find eich etwas verwirrend, wieso NFSU2, das ist ne unspekatakuläre engine und behelfsmäßig aufgeprotze grafik. Eindeutig fehlt in dem vergleich FarCry, HL²(statt CSS) und eventuell noch BF². NFSU2 dagegen ist sehr unspektakulät und ich frage mich wieso sie es verwendet haben, genauso wie rome, welches zwar imho ein sehr gutes game ist und eine tolle grafik, aber weder irgendwie mit großen shadern arbeitet, noch besonders verbreitet ist bei den usern.
Die Spieleauswahl möchte ich damit mal als "mager" bzw. "unangebracht" bezeichnen.

Gastorama
2005-08-24, 04:18:35
also was haltet ihr für einen Hardcoregamer?
Hardcorgamer schalten normalerweise überflüssige details aus und Spielen auf eher mickrigen auflösungen um sich einen Reaktionsvorteil zu verschaffen, die sehen den Busch hinter dem sich der Detailgamer versteckt nicht^^.
Die Pro's haben da ganz andere Methoden.
Und die scheißen auf sowas. Die Weltspitze, der ist sowas Schnurz.
Wenn jetzt einer von Anspruchslos bla bla ankommt.
So spielt es sich halt besser und die Frames brechen NIE ein.
Ich gehöre nicht zu dieser Fraktion und Spiele in normalen auflösungen, aber diese Leute geben sich Teilweise in Q3arena eine 800*600 Auflösung.
Nur um eine Millisekunde voraus zu sein.

Mr.Magic
2005-08-24, 04:38:52
Ein echter Hardcoregamer ist (für mich) jemand der rein über das Spielen seinen Lebensunterhalt bestreiten kann. Wie die im Training spielen kann ich nicht sagen, bei professionellem Turnierbetrieb (sechs-siebenstellige Dollarbeträge) wird normalerweise nur auf identischer Hardware und mit identischen Einstellungen gezockt.

(del)
2005-08-30, 21:37:31
Wegen dem alter solltest du auch mal aufs datum der ausgabe schauen, ist gute 8monate her.
Und da war wohl eher Ati im vorteil, den an den treibern ändert sich im laufe der Zeit nicht mehr all so viel was die Performance angeht.
Und ATi´s treiber sollten so schon ordentliche performance ergeben.
Der 6600er chip war hingegen noch recht frisch zu dieser Zeit
Genau. 8 Monate her ist es VIELLEICHT der 4.12B gewesen. Vielleicht. Vielleicht hat man aber auch nicht mit einem Beta getestet. Wie auch immer,seitdem hat sich ja am Cat ja überhaupt nichts getan. Jou, Kenner :rolleyes:

#edit: Ah jetzt seh ichs auch. 4.10 :) Und nein, die NV40 wurden nicht mit HQ gebencht. Ich glaub den thread läßt sich damit abschliessen :wink:

Gast
2005-08-31, 05:08:47
Die Schatten sind immer korrekt!

Falsch!

Stell dich mal orthogonal vor ein Geländer,funzel an und ein bissl streyfn.
Der Schatten ist gefaked weil er sich vollig unrealistisch verhält.Zusätzlich
bricht er sich bei runden Dingen wie Fässer nicht korrekt, sorry GAR NICHT!

D3 is voller MÜLL,klar?und Halbschmal2 is noch viel grösserer MÜLL!!

Ohne Far Cry vorher,OK
Aber nach Far Cry,MÜLL!

Grestorn
2005-08-31, 07:25:30
Falsch!

Stell dich mal orthogonal vor ein Geländer,funzel an und ein bissl streyfn.
Der Schatten ist gefaked weil er sich vollig unrealistisch verhält.Zusätzlich
bricht er sich bei runden Dingen wie Fässer nicht korrekt, sorry GAR NICHT!

D3 is voller MÜLL,klar?und Halbschmal2 is noch viel grösserer MÜLL!!
Lieber Gast, diese Diskussion ist aaaalt.

Die Schatten sind korrekt. Du hast nur kein perfektes Vorstellungsvermögen, wie Schatten auszusehen haben. Siehe all die Postings zu diesem Thema. Ich mag das nicht nochmal alles wiederholen...

Was soll das überhaupt heißen, dass ein Schatten bricht? Transparente Objekte können Lichstrahlen brechen, aber runde Fässer gehören da sicher nicht dazu ... :)