PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 7800GTX mit 512MB im Test bei Computerbase


Seiten : 1 [2] 3

Die gelbe Eule
2005-11-15, 14:06:06
Ruuuuhig Junge , da tätigt man eine Aussage und schon springen die Ati-Fans drauf an. Ich merke schon man muss wirklich aufpassen hier. Als FEAR letztens noch mit 78.xx Treibern gebenchmarkt wurde und nicht mit den neuen 81.84 Forceware, war alles ok und nun seiern die selben Leute herum das nicht ein neuerer Ati-Treiber benutzt wurde... Manche müssen sich eben alles so eintrichtern wie sie es brauchen. Meinetwegen.

Das fällt generell bei Reviewern auf, das dort eher ein älterer FW genommen wird.

Hakkerstiwwel
2005-11-15, 14:06:46
Wo ist das trollen und wenn mich zitierst dann vernünftig oder macht es Dir Spaß meinen Namen zu mißbrauchen?

Die Taktraten beziehen sich auf die 7800GTX 256MB, sprich da sollten die 550/1800MHz anliegen. Ich glaube Du leidest an Leseschwäche.
zu 1: ja, es entspricht der Wahrheit
zu 2: dein Post bezieht sich im ersten Teil klar auf die XT (obschon die Fakten falsch sind), dann wechselst du zu nV, und schliesst ab mit "wobei auch hier..."-> man beachte das Wort auch, falls Ati nicht auch gemeint ist muesste es heissen "wobei hier.."
Lese oder Schreibschwaeche? ;D

Die gelbe Eule
2005-11-15, 14:09:16
Um das "trollen" zu erkennen muesstest glaubbich einfach nur etwa 95% deiner letzten 200 posts lesen, bzw objektiv versuchen zu lesen (inhaltmässig is das ja net schwer, es wiederholt sich ja eh etwa jeden 2. post sinngemäss:)

Ansonsten... husch husch:)

:ulol5: :ulol5: :ulol5:

Das willst Du uns erzählen? Du, der hier in jedem von Deinen Posts nur provozierst und anfährst?
Ich habe nichtmal einen von Dir gelesen der obejktiv war, er bezog sich mindestens auf eine Person udn war gleichzeitig auch bash.
Mich wundert es, das Du noch immer nicht eine Pause bekommen hast.

PingpiN
2005-11-15, 14:12:40
Erst war es Euphorie :D jetzt enttäuschung. :D
Wenn mann sich die Tests mit denn 5.11 Catalyst anschaut finde ich denn Preis von der 512Mb GTX viel zu hoch. :rolleyes: Schwere entscheidung was man sich Kaufen soll. :down:
Das grösste - der 512 MB Gtx ist wohl das übertakten da geht ja garnichts.Was wird Nvidia eigentlich nächstes Jahr rausbringen?Die Karte Arbeitet schon an anschlag da geht nichts mehr. :conf2:

Marc-
2005-11-15, 14:13:40
:ulol5: :ulol5: :ulol5:

Das willst Du uns erzählen? Du, der hier in jedem von Deinen Posts nur provozierst und anfährst?
Ich habe nichtmal einen von Dir gelesen der obejktiv war, er bezog sich mindestens auf eine Person udn war gleichzeitig auch bash.
Mich wundert es, das Du noch immer nicht eine Pause bekommen hast.

Jo du hast recht. beenden wir das thema damit. Es ist mir einfach zu sehr zeitverschwendung DAS mit dir auszudiskutieren. Es wurd gesagt was du denkst, was ich denke... das sollte reichen. winke.

deekey777
2005-11-15, 14:15:22
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=247588

Traurig, einfach nur traurig...

Mr. Lolman
2005-11-15, 14:19:38
Du mit deinem HQ-Modus... Langweilig... ;(

;D

http://www.ixbt.com/video2/g70-7-d.shtml#p18

Da wurde kein Q4 getestet. Und bei D³ verliert eine 512MB GTX auch schon fast 15% bei 1600x1200 4xAA.

PingpiN
2005-11-15, 14:20:01
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=247588

Traurig, einfach nur traurig...

Das ist in anderen Foren nicht anders.In 2 Jahren wird es bestimmt richtige Kriege zwischen fanATIker und Nvler geben.Was hast du über meine Nv Karte gesagt. :cool: Warte ich hack dich mall kurz guck wo du wohnst,ok hab deine Adresse bin gleich da.Angekommen was hast du über meine Nvidia Karte gesagt?!Pass auf ich schlag dir mit meiner Nvidia Karte das Nvidia logo dick und Fett auf die Stirn kommt her doh . :D :|

Hakim
2005-11-15, 14:22:24
so langsam wirds hier echt blöd leute...etwas mehr zum thema würde net schaden.


Erst war es Euphorie :D jetzt enttäuschung. :D
Wenn mann sich die Tests mit denn 5.11 Catalyst anschaut finde ich denn Preis von der 512Mb GTX viel zu hoch. :rolleyes: Schwere entscheidung was man sich Kaufen soll. :down:
Das grösste - der 512 MB Gtx ist wohl das übertakten da geht ja garnichts.Was wird Nvidia eigentlich nächstes Jahr rausbringen?Die Karte Arbeitet schon an anschlag da geht nichts mehr. :conf2:

man könnte auf die 0.9 fertigung aufspringen. Glaub mir das nv mit großer sicherheit weiter gedacht hat als du. So wie ATI entwickeln die Nv entwickler ständig weiter.

Marc-
2005-11-15, 14:27:52
Das ist in anderen Foren nicht anders.In 2 Jahren wird es bestimmt richtige Kriege zwischen fanATIker und Nvler geben.Was hast du über meine Nv Karte gesagt. :cool: Warte ich hack dich mall kurz guck wo du wohnst,ok hab deine Adresse bin gleich da.Angekommen was hast du über meine Nvidia Karte gesagt?!Pass auf ich schlag dir mit meiner Nvidia Karte das Nvidia logo dick und Fett auf die Stirn kommt her doh . :D :|


hehe... das gabs doch früher schon:) Hättest mal die auseinandersetzungen seinerzeit zwischen AMD/Intel (und zeitweise cyrix), NV und 3DFX oder win/linux damals in den einschlägigen newsgroups verfolgen muessen:) Da wurde zum teil bericht über die anhängigen gegenseitigen verfahren unter den usern geführt...

deekey777
2005-11-15, 14:29:14
Da wurde kein Q4 getestet. Und bei D³ verliert eine 512MB GTX auch schon fast 15% bei 1600x1200 4xAA.

Arghhhhhhhhh
Den Tester von iXBT sollte man in den Urlaub schicken - nach Sibirien.

"I want to put things right concerning the HQ mode on the diagrams. That's not High-Quality in drivers, it's AA or ÀF modes of high quality: NVIDIA - TAA, ATI - AAA and AF High Quality."

Das HQ bezieht sich nicht auf den HQ-Modus, sondern es sind die Qualitätsverbesserungen TAA/AAA und AF-HQ. Da hat er wohl bei der Zusammenstellung der Tabellen ohne AA/AF Mist gebaut, und die HQ-Tests sind darein gerutscht. Verwirrt ohne Ende.

Ich hab mich gestern schon gewundert, was das hier im Fazit soll:

"So, I like the card very much, except for its price. The only drawback I can mention is the bad anisotropy quality in driver settings in Quality mode. This drawback disappears in High Quality mode, but it disappears together with some useful optimizations. So it's difficult to choose what is better: Quality or High Quality in driver settings. But this feature concerns all 7800 cards, not only this one. This situation is better in the X1800 XT. Besides, it offers an ÀF quality choice."

http://www.digit-life.com/articles2/video/g70-7.html

MarcWessels
2005-11-15, 14:30:53
Ruuuuhig Junge , da tätigt man eine Aussage und schon springen die Ati-Fans drauf an. Ich merke schon man muss wirklich aufpassen hier. Als FEAR letztens noch mit 78.xx Treibern gebenchmarkt wurde und nicht mit den neuen 81.84 Forceware, war alles ok und nun seiern die selben Leute herum das nicht ein neuerer Ati-Treiber benutzt wurde... Manche müssen sich eben alles so eintrichtern wie sie es brauchen. Meinetwegen.Häh? :confused: Ich glaube, Du hast da etwas nicht verstanden.

Mr. Lolman
2005-11-15, 14:33:59
Wieso Bug? Vllt Absicht damit beim nächsten Catalyst-Release behauptet werden kann "Sagenhafte 30% Performancegewinn in FEAR".... :-)

Das wär aber ein sh1ce Marketing. Die Karte herumsandeln lassen, nur im die Treiberentwicklung hypen zu können? Never!

Hakim
2005-11-15, 14:45:22
ne frage: Wirds hier einen test geben. Oder hat man die GTX512 auch net zugeschickt bekommen. Gut wäre wenn man beide karten hätte.

Godmode
2005-11-15, 14:46:48
ne frage: Wirds hier einen test geben. Oder hat man die GTX512 auch net zugeschickt bekommen. Gut wäre wenn man beide karten hätte.

Leo bräuchte dafür eine gute CPU, sprich nen FX irgenwas oder so und ich glaub dass er garde nicht mehr viel Zeit für 3DC hat :(

seahawk
2005-11-15, 14:47:26
ja aber das meine ich doch. Wer sehr viel wert auf das besser AF und einige andere feartures legt ok ati. Aber hier wird ja behauptet das die x1800xt auf etwa gleichen speed niveau wie die gtx512 ist. Und das ist ja wirklich net der fall . Hier wird teilweise gesagt das 15% nicht viel seien.... :|
15% ist nicht viel. Imho wird es selten sein, dass ein Spiel auf der einen AKrte flüssig läuft und auf der anderen nicht.

seahawk
2005-11-15, 14:48:59
Erst war es Euphorie :D jetzt enttäuschung. :D
Wenn mann sich die Tests mit denn 5.11 Catalyst anschaut finde ich denn Preis von der 512Mb GTX viel zu hoch. :rolleyes: Schwere entscheidung was man sich Kaufen soll. :down:
Das grösste - der 512 MB Gtx ist wohl das übertakten da geht ja garnichts.Was wird Nvidia eigentlich nächstes Jahr rausbringen?Die Karte Arbeitet schon an anschlag da geht nichts mehr. :conf2:

Einen echten neuen Chip und nicht nur eine neue Version des G70.

Godmode
2005-11-15, 14:55:34
Einen echten neuen Chip und nicht nur eine neue Version des G70.

oder zB auf 90nm wechseln.

mapel110
2005-11-15, 15:10:21
Der gruene Troll
Dafür gibts einen Punkt.

Hehe... jo... ATI-Fan... träum weiter burschi:)
Um das "trollen" zu erkennen muesstest glaubbich einfach nur etwa 95% deiner letzten 200 posts lesen, bzw objektiv versuchen zu lesen (inhaltmässig is das ja net schwer, es wiederholt sich ja eh etwa jeden 2. post sinngemäss:)

Ansonsten... husch husch:)
Dafür gibts 2 Punkte.
:ulol5: :ulol5: :ulol5:

Das willst Du uns erzählen? Du, der hier in jedem von Deinen Posts nur provozierst und anfährst?
Ich habe nichtmal einen von Dir gelesen der obejktiv war, er bezog sich mindestens auf eine Person udn war gleichzeitig auch bash.
Mich wundert es, das Du noch immer nicht eine Pause bekommen hast.
Dafür gibts einen Punkt.

ALLE sollten sich hier bemühen den Tonfall zu mäßigen und sich auf Inhalte zu konzentrieren. Danke.

Diskussionen über Verwarnungen sind bei Bedarf in einem ggf. zu erstellenden Thread im "über die Webseite und das Forum - Forum" zu führen bzw. per PN mit dem jeweiligen Moderator, denn hier wären sie OT. Siehe dazu auch: Regeln und Richtlinien für die Moderation.

erwingage
2005-11-15, 16:04:31
vor paar wochen wurde von einigen usern(ATI-fans) nie an eine neue 7800gtx mit höheren takten und 512mb speicher geglaubt,jeder andere der von der karte erzählte und schrieb wurde als looser hingestellt :wink:
jetzt gibts die karte und vereinzelte user(ATI-fans) haben wieder irgendwas zu nörgeln! :mad:
nur noch kindergarten ist schlimmer! :wink:

Hakim
2005-11-15, 16:28:59
so langsam gibts die auch zu ersteigern Link (http://cgi.ebay.de/XFX-Geforce-7800-GTX-512-MB-SLI-Dual-DVI-VIVO_W0QQitemZ8723937268QQcategoryZ40161QQssPageNameZWD2VQQrdZ1QQcmdZViewItem) :)

tombman
2005-11-15, 16:37:13
vor paar wochen wurde von einigen usern(ATI-fans) nie an eine neue 7800gtx mit höheren takten und 512mb speicher geglaubt,jeder andere der von der karte erzählte und schrieb wurde als looser hingestellt :wink:
jetzt gibts die karte und vereinzelte user(ATI-fans) haben wieder irgendwas zu nörgeln! :mad:
nur noch kindergarten ist schlimmer! :wink:

Die ATI user werden jetzt einfach das wua AF über alles stellen... :rolleyes:

chemistry
2005-11-15, 16:38:34
vor paar wochen wurde von einigen usern(ATI-fans) nie an eine neue 7800gtx mit höheren takten und 512mb speicher geglaubt,jeder andere der von der karte erzählte und schrieb wurde als looser hingestellt :wink:
jetzt gibts die karte und vereinzelte user(ATI-fans) haben wieder irgendwas zu nörgeln! :mad:
nur noch kindergarten ist schlimmer! :wink:

und wieder ein sehr nützlicher, objektiver und hochqulaitativer Beitrag. Danke, dass du uns diese Umfangreiche und wichtige Information mitgeteilt hat!

Btw - ich glaube nicht, dass irgendjemand daran gewzeifelt hat, dass nach dem herauskommen der ATI Karten NV keine Karte produzieren wird. ;)

Mr. Lolman
2005-11-15, 16:39:34
:rolleyes: Ist ja erbärmlich was hier abgeht.

tombman
2005-11-15, 16:40:51
btw, bei atelco laut hp in der Versandzentrale lagernd... für 700€ ;D;D

Hübie
2005-11-15, 16:41:58
vor paar wochen wurde von einigen usern(ATI-fans) nie an eine neue 7800gtx mit höheren takten und 512mb speicher geglaubt,jeder andere der von der karte erzählte und schrieb wurde als looser hingestellt :wink:
jetzt gibts die karte und vereinzelte user(ATI-fans) haben wieder irgendwas zu nörgeln! :mad:
nur noch kindergarten ist schlimmer! :wink:

Öhm... mit deiner Aussage tust du dir aber auch keinen Gefallen. Du kannst doch Besitzer einer ATi-Karte net einfach so abstempeln... Das gehört sich net.
Liest sich auch net gut. Ich muss ehrlich sagen, das ich an beiden Seiten etwas zu nörgeln habe. nVidia is auch kein Engelsunternehmen - genauso wenig wie ATi.
Also Jungs lasst doch dieses gegenseitige gehacke und konzentrieren wir uns wieder auf das eigentliche Thema.
Ich persönlich muss sagen, dass doch sowieso alles zu schnellläufig geworden ist. Meine Karte war im März noch highend und nun midrange. Obwohl ich immer noch alles flüssig zock.
Also was solls?! Wenn ich das Geld so locker hätte würd ich mir die auch mal "zum Spaß" kaufen, weil sabbern tue ich alle Mal wenn ich an 512MB mit der performance denke =)

chemistry
2005-11-15, 16:43:00
naja, Angebot und Nachfrage halt - und ein unverschämt hoher Richtpreis machen es möglich. Irgendwie schade - denn der RAM kann nicht das Problem sein - ich glaube hier eher an ein Platzhirschgehabe.

tombman
2005-11-15, 16:45:07
naja, Angebot und Nachfrage halt - und ein unverschämt hoher Richtpreis machen es möglich. Irgendwie schade - denn der RAM kann nicht das Problem sein - ich glaube hier eher an ein Platzhirschgehabe.

grafikkartenpower.de hat die pov um 670€ auch lagernd...egal, über 600€ kauf ich nix :D

Die gelbe Eule
2005-11-15, 16:54:23
naja, Angebot und Nachfrage halt - und ein unverschämt hoher Richtpreis machen es möglich. Irgendwie schade - denn der RAM kann nicht das Problem sein - ich glaube hier eher an ein Platzhirschgehabe.

Macht doch ATi nicht anders. Wenn mal der erste Schub an Karten wirklich kommt, dann sind erstmal die Vorbestellungen bedient. Retailer werden es schwer haben Karten zu bekommen.

Blaire
2005-11-15, 16:58:24
grafikkartenpower.de hat die pov um 670€ auch lagernd...egal, über 600€ kauf ich nix :D

Komm immerhin kommen die mit satten 580Mhz Coretakt daher. :D

Hübie
2005-11-15, 16:58:25
Macht doch ATi nicht anders. Wenn mal der erste Schub an Karten wirklich kommt, dann sind erstmal die Vorbestellungen bedient. Retailer werden es schwer haben Karten zu bekommen.

Naja und vielleicht ist das auch positiv, wenn man mal an Kinderkrankheiten denkt. Ich kaufe mir grundsätzlich nichts, was gerade erst aufm Markt gekommen ist.
Von daher is Geduld wohl garnet so verkehrt ;)


bye Hübie

Kladderadatsch
2005-11-15, 16:59:15
wie schaut es eigentlich mit der preisentwicklung der karte aus? wird die normale gtx die 500 euro halten und erst zum launch der nächten generation/g70-refresh billiger werden, oder pendelt sich die 512 mb-version schon relativ schnell bei den konventionellen high-end-preisen (also ~500 euro) ein, sodass man januar/februar diese karte schon zu bezahlbaren preisen findet- und die gtx auch schon eventuell zu unter 400 euro zu haben ist?
nützlich wäre es da zu wissen, wann die nächste generation erscheint.(?)

Die gelbe Eule
2005-11-15, 17:00:54
Naja und vielleicht ist das auch positiv, wenn man mal an Kinderkrankheiten denkt. Ich kaufe mir grundsätzlich nichts, was gerade erst aufm Markt gekommen ist.
Von daher is Geduld wohl garnet so verkehrt ;)


bye Hübie

Da ist aber ein Hersteller auf Feedback angewiesen, der bekanntlich von den Endkunden mit verschiedensten System kommt. Ohne Verfügbarkeit sieht das da sehr schlecht aus.

wie schaut es eigentlich mit der preisentwicklung der karte aus? wird die normale gtx die 500 euro halten und erst zum launch der nächten generation/g70-refresh billiger werden, oder pendelt sich die 512 mb-version schon relativ schnell bei den konventionellen high-end-preisen (also ~500 euro) ein, sodass man januar/februar diese karte schon zu bezahlbaren preisen findet- und die gtx auch schon eventuell zu unter 400 euro zu haben ist?
nützlich wäre es da zu wissen, wann die nächste generation erscheint.(?)


Hängt davon ab, wann 7200 und 7600 kommen, damit man wieder mehr Platz hat. Die 7800GT wird ziemlich bald die 6800GT Stellung einnehmen, auch preislich. Vor Januar geht aber hier nichts, was NV auch verlauten ließ.

tombman
2005-11-15, 17:06:20
Komm immerhin kommen die mit satten 580Mhz Coretakt daher. :D

Auf den Blödsinn fall ich schon lang nimmer rein... unsere 08/15 Gigabytes gingen genauso hoch wie die teureren "Superkarten" ;D Ist doch eh alles selbe Produktion, und eigenes Design traut sich bei der Komplexizität eh keiner mehr.

Raff
2005-11-15, 17:51:28
Auf den Blödsinn fall ich schon lang nimmer rein... unsere 08/15 Gigabytes gingen genauso hoch wie die teureren "Superkarten" ;D Ist doch eh alles selbe Produktion, und eigenes Design traut sich bei der Komplexizität eh keiner mehr.

Selbe Produktion, aber unter Umständen selektierte Chips. Man weiß ja nie, aber ich denke auch, dass das jeder G70 packt, der 512 MByte VRAM zur Seite stehen hat.

MfG,
Raff

MikBach
2005-11-15, 17:59:14
Doch sollte es. Und? 32xAF hab ich bisher noch nirgends gefunden.
Hehe, guter Konter... :up:

Und dafür willst du Bandbreite ohne Ende opfern? :rolleyes:
Ziemlich schwachsinnig die Funktion von AF mit SSAA zu emulieren, jetzt leistungsmässig betrachtet.

deekey777
2005-11-15, 18:01:16
GeForce 7800 GTX 512 Mo : la nouvelle reine de la 3D? (http://www.hardware.fr/articles/599-1/geforce-7800-gtx-512-mo-nouvelle-reine-3d.html)

MikBach
2005-11-15, 18:05:59
Gleichwertige BQ? Das wäre zwar ungefähr möglich, aber was bringts? Beide Konkurrenten sind ungefähr gleich schnell. Was interessiert nun: 5, 10 oder 15% Vorsprung bei dem einen oder anderen Spiel oder die maximal erreichbare Bildqualität bei noch vernünftiger Geschwindigkeit?

ATI punktet mit 6x MSAA inkl. 6x sparse AAA und mit einem guten 8x AF. Das sind tolle Voraussetzungen für hochwertige Grafik.
Bin zwar nicht so oft deiner Meinung, aber hier ein Full Ack von mir. :)

Man sollte es sich erstmal vorstellen, was 15% überhaupt sind...
Nehmen wir mal an Karte A erreicht 40fps, dann erreicht Karte B, wenn sie 15% schneller ist, gerade mal 46fps. Das reicht im Leben nicht, um in einer höheren Auflösung oder in höheren Settings zu spielen.

Man braucht schon so 30-40% mehr Leistung, um in der Praxis auch etwas davon zu haben. Das heisst z.B. eine höhere Auflösung benutzen zu können.

Hesky
2005-11-15, 18:06:33
Jede Hardware Seite die Grakas testet bekommt immer andere Ergebnisse raus. Auf der einen gewinnt überall die GTX auf der anderen immer die XT. Wasn datt fürn shice. Wem soll man denn nun glauben ?

Werschtsupp
2005-11-15, 18:08:15
Ich hab mir mal grad n paar Benches der Karte angekuckt. Und ich muss sagen, dass Ati in meinen Augen nun ziemkich ausgesch?$§%§"! hat. Und bevor das gejammere wieder anfängt. Ja ,ich bin Pro Ati, aber nicht so sehr, dass ich net mehr klar denken kann. Das Ding wandert irgendwann einmal in meinen Kasten. Das steht fest. Wenn nur nicht dieses irgendwann da wäre ...............

MikBach
2005-11-15, 18:12:51
ja aber das meine ich doch. Wer sehr viel wert auf das besser AF und einige andere feartures legt ok ati. Aber hier wird ja behauptet das die x1800xt auf etwa gleichen speed niveau wie die gtx512 ist. Und das ist ja wirklich net der fall . Hier wird teilweise gesagt das 15% nicht viel seien.... :|
15% werden dir in der Praxis eh nichts bringen, aber das habe ich ja schon mal erläutert. :wink:

Hakim
2005-11-15, 18:15:21
Hey leute die 15% waren nur ein beispiel.....gibt benchs wo sie erheblich schneller ist!

dildo4u
2005-11-15, 18:22:01
GeForce 7800 GTX 512 Mo : la nouvelle reine de la 3D? (http://www.hardware.fr/articles/599-1/geforce-7800-gtx-512-mo-nouvelle-reine-3d.html)

Das mher an Speicherbandbreite scheint gerade bei HDR und HDR plus AA z.B bei HalfLife2 Lost Cost eine Menge mher an Performance zu bringen.Die erste Karte bei der mann HDR wirklich sinnvoll also Spielbar einsetzen kann sogar in 1600*1200.

http://www.hardware.fr/medias/photos_news/00/14/IMG0014799.gif

http://www.hardware.fr/medias/photos_news/00/14/IMG0014786.gif

http://www.hardware.fr/medias/photos_news/00/14/IMG0014796.gif

Coda
2005-11-15, 18:22:26
Und dafür willst du Bandbreite ohne Ende opfern?Bei alten Spielen? Warum nicht.

Vor allem glättet das nicht nur Textur- sondern auch Shaderflimmern.

MikBach
2005-11-15, 18:24:47
vor paar wochen wurde von einigen usern(ATI-fans) nie an eine neue 7800gtx mit höheren takten und 512mb speicher geglaubt,
Die 512MB Speicher waren doch denkbar, ebenso die höheren Taktraten, wenn man sich der OC-Ergebnisse der GTX256 ansieht.

jetzt gibts die karte und vereinzelte user(ATI-fans) haben wieder irgendwas zu nörgeln! :mad:

Man kann halt die BQ bemängeln.
Da ist ATI halt mit WU-AF und 6xAAA sparsed im Vorteil.

MikBach
2005-11-15, 18:31:15
Bei alten Spielen? Warum nicht.
OK, hast wieder Recht.
Mir ging es halt um nicht die neusten, aber hardwarefordernden Spiele.
Z.B. FarCry.

Vor allem glättet das nicht nur Textur- sondern auch Shaderflimmern.
Jo, das Shaderflimmern wird in der Zukunft wohl ein Problem werden, was man nicht so leicht loswird.
Die Entwickler können mit korrektem Kontent aber vieles vermeiden.

Quasar
2005-11-15, 18:32:33
Bei alten Spielen? Warum nicht.

Vor allem glättet das nicht nur Textur- sondern auch Shaderflimmern.
Ich denke noch mit Schaudern an die Riddick-Demo zurück. Das Spiel kommt mir erst wieder auf den PC, wenn ich es mit 2x2 Supersampling (oder Äquivalent) spielen kann.

Mr. Lolman
2005-11-15, 18:33:27
Das mher an Speicherbandbreite scheint gerade bei HDR und HDR plus AA z.B bei HalfLife2 Lost Cost eine Menge mher an Performance zu bringen.Die erste Karte bei der mann HDR wirklich sinnvoll also Spielbar einsetzen kann sogar in 1600*1200.

http://www.hardware.fr/medias/photos_news/00/14/IMG0014799.gif

http://www.hardware.fr/medias/photos_news/00/14/IMG0014786.gif

http://www.hardware.fr/medias/photos_news/00/14/IMG0014796.gif

Sogar Hardware.fr bencht nicht mit HQ, sondern hat nur die Sampleoptmierung deaktiviert. ;(

BTW: Mipmapbanding und fehlende Reflections bei Tiger Woods @ 0xAA/0xAF: http://www.driverheaven.net/reviews/7800512dhreview/iq.htm

Mr. Lolman
2005-11-15, 18:36:01
Ich denke noch mit Schaudern an die Riddick-Demo zurück. Das Spiel kommt mir erst wieder auf den PC, wenn ich es mit 2x2 Supersampling (oder Äquivalent) spielen kann.

Das flimmert auf NV Karten auch übler als mit Ati Karten. Bei GTA-SA brauchts tw. genauso SSAA, was man sich bei den ATis sparen kann. Flimmercontent bekommt dem NV-AF anscheinend nicht so gut...

Coda
2005-11-15, 18:38:57
Das flimmern kommt vom Bumpmapping, das hat mit dem AF leider nichts zu tun.

Bei GTA wären die Texturen nichtmal groß flimmerig, es fehlen nur idiotischerweiße die Mips.

MikBach
2005-11-15, 18:43:33
Das flimmert auf NV Karten auch übler als mit Ati Karten. Bei GTA-SA brauchts tw. genauso SSAA, was man sich bei den ATis sparen kann. Flimmercontent bekommt dem NV-AF anscheinend nicht so gut...
Hast du das auch getestet?
Weil wie Coda schon sagte, kommt das vom Bump Mapping.
Das wäre eine erstaunliche Erkenntnis... :D

Quasar
2005-11-15, 18:45:17
Jo, das Shaderflimmern wird in der Zukunft wohl ein Problem werden, was man nicht so leicht loswird.
Die Entwickler können mit korrektem Kontent aber vieles vermeiden.
Man kann es auch mit entsprechenden Shader-Anweisungen verringern. Far Cry hat m.W. einen Schalter dafür namens "r_SpecAntialias", den man auf "1" setzen muss, um das Flimmern zu reduzieren.

Kostet, IIRC, nichtmal doll Leistung.

Quasar
2005-11-15, 18:46:27
Das flimmert auf NV Karten auch übler als mit Ati Karten.
Ich würde sagen, daß es sich nicht viel nimmt. HQ vs. AI off.

Mr. Lolman
2005-11-15, 18:54:09
Ich würde sagen, daß es sich nicht viel nimmt. HQ vs. AI off.

"Auf der Bodentextur in der Bildmitte ist hier mit der 7800GTX sowie der Treibereinstellung "Quality" ein starkes Flimmern zu sehen. Abhilfe verschafft "High Quality" . Dennoch bietet die Ati-Karte selbst mit aktiviertem A.I. eine etwas bessere Qualität."

(PCGH 11/05, Riddick @ 78.03 HQ)

MikBach
2005-11-15, 18:57:53
Man kann es auch mit entsprechenden Shader-Anweisungen verringern. Far Cry hat m.W. einen Schalter dafür namens "r_SpecAntialias", den man auf "1" setzen muss, um das Flimmern zu reduzieren.

Kostet, IIRC, nichtmal doll Leistung.
Interessant. Muss ich mir mal ansehen.
Wobei ich unter SpecAntialias eher Spekular Highlights vermute.
Wenn damit Spekulars auf Bump Maps gemeint sind, dann kann es ja stimmen.

Mr. Lolman
2005-11-15, 18:59:21
Hast du das auch getestet?
Weil wie Coda schon sagte, kommt das vom Bump Mapping.
Das wäre eine erstaunliche Erkenntnis... :D

Ja kommt imo aufs Bumpmapping drauf an. Natürlich hat auch ATi AF seine Grenzen. Aber zumindest GTA-SA sieht trotz deaktivierter Mipmaps ziemlich fein aus: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3658239#post3658239

Mr. Lolman
2005-11-15, 19:00:25
Das flimmern kommt vom Bumpmapping, das hat mit dem AF leider nichts zu tun.

Die Bumpmaps bekommen ja genauso AF ab...

MikBach
2005-11-15, 19:17:53
Ja kommt imo aufs Bumpmapping drauf an. Natürlich hat auch ATi AF seine Grenzen. Aber zumindest GTA-SA sieht trotz deaktivierter Mipmaps ziemlich fein aus: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3658239#post3658239
Wow. Die Screens sehen echt beindruckend aus. :eek:
Auch das Riddick Demo. :up:

robbitop
2005-11-15, 19:17:56
nur kein AA...

MikBach
2005-11-15, 19:21:44
Die Bumpmaps bekommen ja genauso AF ab...
Redest du jetzt von einem bestimmten Spiel oder allgemein?
IMO funktioniert AF bei Specular Bump Maps nicht.

Mr. Lolman
2005-11-15, 19:23:18
Redest du jetzt von einem bestimmten Spiel oder allgemein?
IMO funktioniert AF bei Specular Bump Maps nicht.

Allgemein. Und imo funktioniert AF bei Specular Bump Maps schon. :)

MikBach
2005-11-15, 19:25:10
nur kein AA...
Wie meinen?
Bei Riddick ist 6xAAA an. :wink:
Das Flimmern an der Tür und bei der Kiste vor der Tür ist das Flimmern von Bump Mapping.

Mr. Lolman
2005-11-15, 19:25:46
nur kein AA...

G70 und R520 sollten das theoretisch können...

Ailuros
2005-11-15, 19:27:31
Ja, wenn der 512MB GTX die Bandbreite ausgeht ist der Verlust sicher genauso groß. Außerdem ist bei default Quality auch die Mipfilteroptmierung aktiv. Nämöioch sobald man über CP mal AA/AF gewählt hat. Ich möch nicht wissen, wieviele Reviewer schon (unabsichtlich) so gebenht haben...

Auf default ist der Mist aus bei mir.


Gutes AF ist teuer. HQ hat sicher auch noch ein paar Optimierungen aktiv (würd mich nach der Flimmergeschichte echt wundern, wen nicht) Du hättest genauso mehr als 28% Verlust herstellen können, wenn du die Karten komplett ausreizt. Wenn man mit 1600x1200 noch nicht m Bandbreitenlimit hängt, dann halt mit 1280x1024 8xS, oder 1600x1200 8xS. Es geht ja auch darum, wieviel der G70 bei Worstcase szenarien einbricht. Dass der Einbruch minimal ist, wenn keine Limitierung vorliegt, ist ja logisch. Genauso wie, dass AA/AF in 1280 weniger kostet las in 1600...

Ach tu mir den Gefallen und werde endlich mal ernst mit dem Mist; ja ich koennte auch 1024 mit 16xSSAA benutzen und mich mit slide-shows begnuegen nur damit gerade Du mehr Grund zum trommeln hast. Der Laecherlichkeit zuliebe die 28% die Du bis zum geht nicht mehr wiederproduzierst stammen aus UT2k4 fuer die die es verpasst haben und jegliches Spiel ist so schnell dass HQ und 30% Leistungsverlust gar nichts mehr ausmachen; es bleibt spielbar mit >50 fps in Primeval.


Schön. Vll. wirst du bald die erste Anlaufstelle für Grafikinfos sein. Denn vom 3dC kommt ja scheinbar nix mehr.

Ich hab keinesfalls das Ziel irgend etwas zu ersetzen ganz im Gegenteil. Ich moechte so oft wie moeglich zu dem was verfuegbar ist ergaenzen. Eigentlich bekomme ich mehr aus diesen Foren an Infos als ich je zu dieser Gemeinde selber zutrage; ich lese viel und schreibe eben nur meistens im Speku-Form weil mir eben die Zeit fuer mehr mangelt.

Ganz so nebenbei:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3682566&postcount=38

Spasstiger
2005-11-15, 19:31:28
Bei GTA-SA brauchts tw. genauso SSAA, was man sich bei den ATis sparen kann.

Auf ner GeForce 6800 flimmert GTA:SA in 1280x1024 mit 8xS AA deutlich weniger als mit einer ATI Radeon 9700 Pro in 1280x1024 mit 6xMSAA.
Bei der ATI sieht man vom Texturflimmern her natürlich auch keinen Unterschied, ob 6xAA oder 1xAA an ist. Das SSAA der GeForce 6800 bringt dagegen einen deutlichen Vorteil.
Und zu langsam läuft GTA:SA auf einer GeForce 6800 128 MB @ 16/6 mit 8xS AA in 1280x1024 auch nicht, ist gerade so an der Grenze zwischen flüssigem und einigermaßen flüssigem Spielen. Mit einer GeForce 6800 GT/Ultra dürfte 8xS AA überhaupt kein Problem darstellen.
Das AAA hat bei mir auf der Radeon 9700 in GTA:SA übrigens keinerlei Veränderung gezeigt.

Mr. Lolman
2005-11-15, 19:36:35
Wow. Die Screens sehen echt beindruckend aus. :eek:


Das AF ist aber (bis auf die WA) schon seit dem R300 min. genauso gut. Trotzdem würden mich von folgender Szene &70 und R520 Screenshots interessieren: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3660525#post3660525

alpha-centauri
2005-11-15, 19:37:58
Bei Age of Empires 3 stinkt ja XT und XL ja gewaltig gegen 7800 ab.

34 FpS Average für die 7800GT

Vs 28 FPS der XT, die nicht erhätlich ist,

und 22 Fps der XL.

Kommen jetzt wieder die "Aber Ati ist schöner" Postings? 46% mehr Leistung der 7800GT ?

Mr. Lolman
2005-11-15, 19:41:04
Auf ner GeForce 6800 flimmert GTA:SA in 1280x1024 mit 8xS AA deutlich weniger als mit einer ATI Radeon 9700 Pro in 1280x1024 mit 6xMSAA.
Bei der ATI sieht man vom Texturflimmern her natürlich auch keinen Unterschied, ob 6xAA oder 1xAA an ist. Das SSAA der GeForce 6800 bringt dagegen einen deutlichen Vorteil.
Und zu langsam läuft GTA:SA auf einer GeForce 6800 128 MB @ 16/6 mit 8xS AA in 1280x1024 auch nicht, ist gerade so an der Grenze zwischen flüssigem und einigermaßen flüssigem Spielen. Mit einer GeForce 6800 GT/Ultra dürfte 8xS AA überhaupt kein Problem darstellen.

Tut es doch. Flieg mal in die Wolken. Oder spiel die Mission wo man aus dem brennenden Hotel flüchten muss. Da gibts mit 8xS auf meiner GT@Ultra 1-2fps. (Overdrawproblem)

Außerdem glättet 8xS bloss in eine Richtung. Dh.: Entweder sind boden- (d3d) oder Wandtexturen (opengl) geglättet.

Black-Scorpion
2005-11-15, 19:43:24
Bei Age of Empires 3 stinkt ja XT und XL ja gewaltig gegen 7800 ab.

34 FpS Average für die 7800GT

Vs 28 FPS der XT, die nicht erhätlich ist,

und 22 Fps der XL.

Kommen jetzt wieder die "Aber Ati ist schöner" Postings? 46% mehr Leistung der 7800GT ?
Und gehts dir jetzt besser?
Hast du schon ne feuchte Hose?

Dann kannst du dir dein Spitzen in Zukunft an die Kniescheibe nageln.

Mr. Lolman
2005-11-15, 19:52:18
Auf default ist der Mist aus bei mir.

Dann stell mal im CP bspw. 4xAA und 16xAF an, und schau ob der Mist immernoch aus ist! :mad:


Ach tu mir den Gefallen und werde endlich mal ernst mit dem Mist; ja ich koennte auch 1024 mit 16xSSAA benutzen und mich mit slide-shows begnuegen nur damit gerade Du mehr Grund zum trommeln hast. Der Laecherlichkeit zuliebe die 28% die Du bis zum geht nicht mehr wiederproduzierst stammen aus UT2k4 fuer die die es verpasst haben und jegliches Spiel ist so schnell dass HQ und 30% Leistungsverlust gar nichts mehr ausmachen; es bleibt spielbar mit >50 fps in Primeval.

Das beschränkt sich nicht auf Primeval. Bench mal Lost Coast oder Quake4 mit Auflösungen >= 1600 . Außerdem wärens mit 1280 und 8xS noch mehr als die 30%, die du mit 1600 und 4xAA erbencht hast. Auf meiner 6800GT sinds fast 50%. Und da ist das Spiel wider Erwarten nicht mehr spielbar (mit 1280 und 8xS). Es kommt auch nur drauf an, ab wann die Karte am Bandbreitenlimit hängt - hohe Einbrüche lassen sich immer erzeugen. Demenstsprechend find ich auch, dass eine Aussage wie "gerade Besitzer einer 7800GT oder 7800GTX sollten daher die Systemleistung immer auf "Hohe Qualität" stellen, da sich dadurch die Bildqualität deutlich verbessert ohne, dass die Performance zu stark einbricht (2-3%)" (PCGH 11/05), an bewußter Irreführung grenzt...


Ganz so nebenbei:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3682566&postcount=38

Nicht schlecht. Hast du zufälligerweise auch gemessen, ob sich zw. den letzten Treiberversion was am Speicherverbrauch geändert hat? BTW: War das Quality ohne oder mit Optimierungen?

MikBach
2005-11-15, 19:55:38
Bei Age of Empires 3 stinkt ja XT und XL ja gewaltig gegen 7800 ab.

34 FpS Average für die 7800GT

Vs 28 FPS der XT, die nicht erhätlich ist,

und 22 Fps der XL.

Kommen jetzt wieder die "Aber Ati ist schöner" Postings? 46% mehr Leistung der 7800GT ?
Bei AoE3 sind die NV-Karten recht deutlich überlegen.
Würde mich mal interessieren, woran das liegt...
Ist aber die Ausnahme.

@Anonym_001
Noch alles klar?

Coda
2005-11-15, 19:56:47
Treiberprobleme nehme ich an.

mapel110
2005-11-15, 20:09:45
BTW: Mipmapbanding und fehlende Reflections bei Tiger Woods: http://www.driverheaven.net/reviews/7800512dhreview/iq.htm
http://rapidshare.de/files/7682277/TW16_00_NV-22differenz.PNG.html
Hab mal Differenzbild gebastelt. Sieht nicht wirklich danach aus, dass da was systematisch verkehrt ist.
:confused:

mike49
2005-11-15, 20:12:23
OK, hast wieder Recht.
Mir ging es halt um nicht die neusten, aber hardwarefordernden Spiele.
Z.B. FarCry.

2x2 Supersampling + 8x HQ-AF sollte mit der 7800GTX 512MB bei FarCry in Auflösungen bis 1.280 zumindest kein Problem darstellen. Wäre aber interessant, dazu mal Benches zu sehen...

Power
2005-11-15, 20:25:27
lt. Shop ab morgen.

Hab ich was verpasst oder ist Morgen Wirklich der 30.11. !?

deekey777
2005-11-15, 20:26:13
http://www.hexus.net/content/item.php?item=3904&page=3

"The GPU, still marked as A2 revision silicon - with a production date of week 34, 2005, which is roughly the last week in August and over a month before Radeon X1800 XT was launched - but this time with the marking of GF-7800-U (along with the clear indication it's an engineering sample). Clearly a nod to the flagship 'Ultra' variants of old, NVIDIA still choose to use the designation for GPU respins. Of course you could also take the view that NVIDIA always planned an Ultra product and this silicon was for that named SKU at some point."

Dagegen: http://www.digit-life.com/articles2/video/g70-7.html

"As usual, the cooling system covers the heart of a video card - GPU. As we can see, after a chip is selected, it's marked as GeForce 7800 GTX 512 to distinguish it from other chips, not capable of operating at higher frequencies. The chip is manufactured on Week 38 of this year, that is quite recently."

Wie es aussieht, hat sich da jemand die Sache anders überlegt und aus der eigentlichen 7800Ultra einfach eine 7800GTX 512 gezaubert. :biggrin:
Egal, doch eine 7800Ultra werden wir wohl nicht sehen, doch es ist IMHO ein sehr cleverer Schachzug von nVidia.

Ach so, ja:
GeForce 7800 GTX 512: Mehr Speicher, mehr Power (http://www.tomshardware.de/graphic/20051115/index.html)
Zweite Seite:
"In Wahrheit wurde der Kern der NVIDIA GeForce 7800 512 Grafikkarte neu designt und getrimmt, um die Verarbeitung insgesamt zu verbessern. Außerdem hat sie einen 512 Bit breiten Bus. Es ist nicht die erste Grafikkarte mit 512 Bit - die X1000 von ATI hatten ebenfalls einen 512-Bit-Bus, aber auch sie waren nicht die Pioniere auf dem Markt. Diese Ehre gebührt Matrox für seine Parhelia 512. (Von Matrox stammt übrigens auch der allererste 256-Bit-Datenbus.)"

Öhm, was?

Mr. Lolman
2005-11-15, 20:31:39
http://rapidshare.de/files/7682277/TW16_00_NV-22differenz.PNG.html
Hab mal Differenzbild gebastelt. Sieht nicht wirklich danach aus, dass da was systematisch verkehrt ist.
:confused:

Naja, man erkennt schon sehr gut, an welcher Stelle das Mipband bei NV zu sehen ist...

Mr. Lolman
2005-11-15, 20:32:49
Hab ich was verpasst oder ist Morgen Wirklich der 30.11. !?

Ja, du hast verpasst, wie die das Datum von 16.11 auf 30.11 geändert haben. :frown:

Quasar
2005-11-15, 20:35:54
"Auf der Bodentextur in der Bildmitte ist hier mit der 7800GTX sowie der Treibereinstellung "Quality" ein starkes Flimmern zu sehen. Abhilfe verschafft "High Quality" . Dennoch bietet die Ati-Karte selbst mit aktiviertem A.I. eine etwas bessere Qualität."

(PCGH 11/05, Riddick @ 78.03 HQ)
Ja... und?

Mr. Lolman
2005-11-15, 20:37:29
Ja... und?

...und was? Du behauptest doch, AIoff und HQ nehmen sich bei Riddick nicht viel. :confused:

robbitop
2005-11-15, 20:39:13
G70 und R520 sollten das theoretisch können...
Alphatest != Bumpmaps

BumpMaps und andere nette Shaderspielereien erhalten keine Glättung vom AA. Durch Umgestalltung des Contents wäre sicher einiges machbar. Aber hier stehen wir nun wieder da wo wir vor TSAA standen. Nur dass AT immer weniger wird und BM/Shadereffekt sich immer mehr häufen.

Coda
2005-11-15, 20:41:50
Das 4xRGSSAA könnte man ja auch das ganze Bild applizieren, wäre nur etwas langsam ;)

Quasar
2005-11-15, 20:41:52
...und was? Du behauptest doch, AIoff und HQ nehmen sich bei Riddick nicht viel. :confused:
Ja, tue ich. Darf ich nicht meine eigene Meinung haben?

Mr. Lolman
2005-11-15, 20:42:30
Alphatest != Bumpmaps

BumpMaps und andere nette Shaderspielereien erhalten keine Glättung vom AA. Durch Umgestalltung des Contents wäre sicher einiges machbar. Aber hier stehen wir nun wieder da wo wir vor TSAA standen. Nur dass AT immer weniger wird und BM/Shadereffekt sich immer mehr häufen.

Ist schon klar. Ich meinte bloß, dass theoretisch sicher die Möglichkeit bestünde, auch Bumpmaps zu glätten. Der Karte ist doch imo egal, ob die zu glättende Textur nun fürs Alphatesting oder Bumpmapping gedacht ist...

robbitop
2005-11-15, 20:44:34
Da bin ich mir nicht so sicher.

mike49
2005-11-15, 20:44:43
Ach so, ja:
GeForce 7800 GTX 512: Mehr Speicher, mehr Power (http://www.tomshardware.de/graphic/20051115/index.html)
Zweite Seite:
"In Wahrheit wurde der Kern der NVIDIA GeForce 7800 512 Grafikkarte neu designt und getrimmt, um die Verarbeitung insgesamt zu verbessern. Außerdem hat sie einen 512 Bit breiten Bus. Es ist nicht die erste Grafikkarte mit 512 Bit - die X1000 von ATI hatten ebenfalls einen 512-Bit-Bus, aber auch sie waren nicht die Pioniere auf dem Markt. Diese Ehre gebührt Matrox für seine Parhelia 512. (Von Matrox stammt übrigens auch der allererste 256-Bit-Datenbus.)"


Durch den breiteren internen Bus und das optimierte Core-Layout konnte NVIDIA viel höhere Taktfrequenzen realisieren als bei der ursprünglichen 7800 GTX.
:confused:

Mr. Lolman
2005-11-15, 20:46:03
Ja, tue ich. Darf ich nicht meine eigene Meinung haben?

Ja sicher darfst du das. Nur fehlt bei solch, relativ objektiv eruierbaren Gegenheiten, abweichenden Meinungen dann meist doch die notwendige Grundlage...

Mr. Lolman
2005-11-15, 20:46:29
Da bin ich mir nicht so sicher.

Ich schon. :)

Mr. Lolman
2005-11-15, 20:48:30
Das 4xRGSSAA könnte man ja auch das ganze Bild applizieren, wäre nur etwas langsam ;)

Das wär überhaupt ne nette, simple Alternative. Leistung wär ja genug vorhanden (bei humanen Auflösungen)

robbitop
2005-11-15, 20:50:45
Ich schon. :)
IMO ist das Ganze zu dynamisch, da vom Lichtein- und Ausfallwinkel abhängig, um in das A2C System mal eben so greifen zu lassen. Deshalb wäre ich mir hier auch nicht so sicher. AT sind dort einfacher da statisch.

Die gelbe Eule
2005-11-15, 20:51:09
Irgendwie ist eine neue Ausrede gekommen, wenn die Performance deutlich besser auf der GTX ist, dann hat die XT Treiberprobleme.
Kann man dann vielleicht sogar behaupten, das ATi nicht nur quantitave (Verfügbarkeit) Probleme, sondern auch qualitative (Treiber) hat?

Ehrlich gesagt verblaßt die XT ziemlich deutlich mit der out of the box Performance der GTX 512MB. Niemand hätte das erwartet als es in Ibiza noch hoch her ging.

Besitzen werde ich keine Karte von beiden, da ich niemals mehr als 300€ für eine neue Karte ausgebe. Trotzdem ist es förderlich für zukünftige Karten, das man auch im mittleren und unterem Drehzahlbereich eine potentere Lösung bekommt.

robbitop
2005-11-15, 20:52:17
Das wär überhaupt ne nette, simple Alternative. Leistung wär ja genug vorhanden (bei humanen Auflösungen)
Bei Spielen wie FEAR leider nicht. :(

MikBach
2005-11-15, 20:55:42
Redest du jetzt von einem bestimmten Spiel oder allgemein?
IMO funktioniert AF bei Specular Bump Maps nicht.
Kapitaler Fehler.
Es ging um das AA und nicht das AF...

Coda
2005-11-15, 21:04:08
IMO ist das Ganze zu dynamisch, da vom Lichtein- und Ausfallwinkel abhängig, um in das A2C System mal eben so greifen zu lassen. Deshalb wäre ich mir hier auch nicht so sicher. AT sind dort einfacher da statisch.Wieso A2C? AAA ist vollwertiges RGSSAA.

Quasar
2005-11-15, 21:04:37
Ja sicher darfst du das. Nur fehlt bei solch, relativ objektiv eruierbaren Gegenheiten, abweichenden Meinungen dann meist doch die notwendige Grundlage...
Wenn du das sagst.... dann wirst du sicher auch davon überzeugt sein. =) Ich habe mir jedenfalls auch Videos angeschaut und bin zu anderen Schlüssen gelangt.

Mr. Lolman
2005-11-15, 21:05:03
IMO ist das Ganze zu dynamisch, da vom Lichtein- und Ausfallwinkel abhängig, um in das A2C System mal eben so greifen zu lassen. Deshalb wäre ich mir hier auch nicht so sicher. AT sind dort einfacher da statisch.

Aber dazwischen liegt das Ergebnis, dann doch immerwieder in Form von Textursamples vor, oder?

MikBach
2005-11-15, 21:06:04
Irgendwie ist eine neue Ausrede gekommen, wenn die Performance deutlich besser auf der GTX ist, dann hat die XT Treiberprobleme.

Nicht wirklich. Die paar Prozent jucken eh niemandem...

Kann man dann vielleicht sogar behaupten, das ATi nicht nur quantitave (Verfügbarkeit) Probleme, sondern auch qualitative (Treiber) hat?Treiberprobleme.

Das ist normal bei einer neuen Architektur.
Das war beim G70 auch nicht anders...

Quasar
2005-11-15, 21:06:10
Durch den breiteren internen Bus und das optimierte Core-Layout konnte NVIDIA viel höhere Taktfrequenzen realisieren als bei der ursprünglichen 7800 GTX.:confused:
Das ist auch Unsinn. Die Chips sind dieselben, bis auf eine leichte Prozessoptimierung von TSMC und 0,05v mehr Kernspannung.

Mr. Lolman
2005-11-15, 21:06:47
Wenn du das sagst.... dann wirst du sicher auch davon überzeugt sein. =) Ich habe mir jedenfalls auch Videos angeschaut und bin zu anderen Schlüssen gelangt.

Was ja der nächste Punkt ist. Die Komprimierung der PCGH-BQ-Vergleichsvideos lässt ja deutlich zu wünschen übrig. Aber egal, lassen wir das jetzt =)

Coda
2005-11-15, 21:08:18
Aber dazwischen liegt das Ergebnis, dann doch immerwieder in Form von Textursamples vor, oder?Bei Bumpmaps ist das eh schwierig, weil die ganzen Texturfilter linear interpolieren was falsch ist. Ich würde Vorsichtig mit solchen Aussagen sein ohne sie genauer Untersucht zu haben.

Wobei ich dir rechtgeben muss das auch hier Unterfilterung definitiv flimmern verursacht.

Quasar
2005-11-15, 21:12:09
Was ja der nächste Punkt ist. Die Komprimierung der PCGH-BQ-Vergleichsvideos lässt ja deutlich zu wünschen übrig. Aber egal, lassen wir das jetzt =)
Freu dich auf die nächste Ausgabe...

robbitop
2005-11-15, 21:16:32
Aber dazwischen liegt das Ergebnis, dann doch immerwieder in Form von Textursamples vor, oder?
So wie ich Dot3 BM verstanden habe nein. AFAIK wird aus der BM und der Textur und den Lichtvektoren dynamisch vom PS der Helligkeitswert ermittelt und in den FB geschrieben. Aber als Textursample? Ich denke nicht.
Die neueren BM Varianten sollten ja letztendlich ähnlich arbeiten.

alpha-centauri
2005-11-15, 21:16:53
"In Wahrheit wurde der Kern der NVIDIA GeForce 7800 512 Grafikkarte neu designt und getrimmt, um die Verarbeitung insgesamt zu verbessern. Außerdem hat sie einen 512 Bit breiten Bus. Es ist nicht die erste Grafikkarte mit 512 Bit - die X1000 von ATI hatten ebenfalls einen 512-Bit-Bus, aber auch sie waren nicht die Pioniere auf dem Markt. Diese Ehre gebührt Matrox für seine Parhelia 512. (Von Matrox stammt übrigens auch der allererste 256-Bit-Datenbus.)"

kann jemand mal bestätigen:

neudesign des chips ? IIRC immer noch G70.

512Bit bus? IIRC immer noch G70 mit 256Bit.

X1000 512Bit? Auch nicht.

Dummlallerverein THG. Nur die Benches kann man gebrauchen - wenn man sie richtig interpretiert.

Coda
2005-11-15, 21:18:11
So wie ich Dot3 BM verstanden habe nein. AFAIK wird aus der BM und der Textur und den Lichtvektoren dynamisch vom PS der Helligkeitswert ermittelt und in den FB geschrieben. Aber als Textursample? Ich denke nicht.
Die neueren BM Varianten sollten ja letztendlich ähnlich arbeiten.Hm? Die Bumpmap wird natürlich als Textursample geholt.

Mr. Lolman
2005-11-15, 21:21:01
kann jemand mal bestätigen:

neudesign des chips ? IIRC immer noch G70.

512Bit bus? IIRC immer noch G70 mit 256Bit.

X1000 512Bit? Auch nicht.

Dummlallerverein THG. Nur die Benches kann man gebrauchen - wenn man sie richtig interpretiert.

ACK. Außer der Voodoo5 6000 ist mir auch keine Karte mit 512bit Speicheranbindung bekannt.

Die gelbe Eule
2005-11-15, 21:21:30
Nicht wirklich. Die paar Prozent jucken eh niemandem...

Dem kann ich nur zustimmen.

@uote]
Das ist normal bei einer neuen Architektur.
Das war beim G70 auch nicht anders...[/QUOTE]

Wenn man aber doch schon damit prahlt den R580 seit Juli lauffähig zu haben, warum optimiert man nicht erstmal seinen Vorgänger?

robbitop
2005-11-15, 21:25:24
Hm? Die Bumpmap wird natürlich als Textursample geholt.
Die Bumpmap wird natürlich als Textur geholt, genau wie die Textur. Aber nicht die fertige Verrechnung. Und das ist ja was zum Schluss übrig bleibt und was geglättet werden müßte. Und deshalb bin ich mir nicht sicher, da es eben nicht statisch ist.

Mr. Lolman
2005-11-15, 21:34:35
Das was zum Schluß übrig bleibt, ist genauso ein Textursample. Oder wie erklärst du dir ansonsten, dass AF funktioniert?

Coda
2005-11-15, 21:40:25
Die Bumpmap wird natürlich als Textur geholt, genau wie die Textur. Aber nicht die fertige Verrechnung. Und das ist ja was zum Schluss übrig bleibt und was geglättet werden müßte. Und deshalb bin ich mir nicht sicher, da es eben nicht statisch ist.Was funktioniert nicht? AAA? AAA ist ganz normales RGSSAA, hab ich schonmal erwähnt.

Hakim
2005-11-15, 22:39:05
hab grad gelesen das ATI die X1800xt mit höheren Takt liefern will. Statt 625/750 mhz mit 650/775 mhz. Naja viel ist es net

Die gelbe Eule
2005-11-15, 22:44:05
hab grad gelesen das ATI die X1800xt mit höheren Takt liefern will. Statt 625/750 mhz mit 650/775 mhz. Naja viel ist es net


Wenn das wirklich so ist, wird es langsam lächerlich.
Erst läßt man alle warten und dann will man noch etwas zwischen X1800XT und R580 schieben. Nun wird jeder erst recht auf die schnellere Version warten.

Hakim
2005-11-15, 22:46:08
vorallen sind doch schon bestimmt karten ausgeliefert worden! Soll dann jeder selber die karten flashen damit sie mit den höheren takt läuft.

Die gelbe Eule
2005-11-15, 22:48:54
NV scheint das Spielchen wohl gewonnen zu haben, komsich das sich ATi zu sowas hinreißen läßt. Was soll der geringe Mehrtakt bringen? 1 oder 3 fps?

Hakim
2005-11-15, 22:50:21
also wenn ich das richtig verstanden habe soll es halt nur die x1800xt mit den etwas erhöhten takt geben.

Die gelbe Eule
2005-11-15, 22:53:22
Man sollte sich freuen die normale ausreichend zu bekommen. Aber vielleicht möchte man den Preis auch nach oben hin weiter anpassen.

der Lustige
2005-11-15, 23:13:49
Na sind unsere Spielkinder wieder fleißig am "diskutieren" ? :)


Und wer hat denn nun den Längsten ???

Die gelbe Eule
2005-11-15, 23:16:17
ATi hat in Kartenlänge aufgeholt, wenn nicht sogar gleichgezogen ;)

The_Invisible
2005-11-15, 23:25:51
NV scheint das Spielchen wohl gewonnen zu haben, komsich das sich ATi zu sowas hinreißen läßt. Was soll der geringe Mehrtakt bringen? 1 oder 3 fps?

vielleicht kommt ja noch XT PE Version :eek: :D

mfg

robbitop
2005-11-15, 23:29:38
Das was zum Schluß übrig bleibt, ist genauso ein Textursample. Oder wie erklärst du dir ansonsten, dass AF funktioniert?
Na die Bumpmap und die Originaltextur werden vor der Lichtberechnung gefiltert. Das ist ja kein problem. Nur ist das Ergebnis (nach der Lichtberechnung) nicht als Textursample verfügbar IMO.

robbitop
2005-11-15, 23:30:23
Was funktioniert nicht? AAA? AAA ist ganz normales RGSSAA, hab ich schonmal erwähnt.
Ja Full Scene funktioniert es sicher. Aber dem AAA/TSAA beizubringen, die BM Edges zu samplen...das halte ich für unsicher.

M2-Master
2005-11-15, 23:31:48
hab grad gelesen das ATI die X1800xt mit höheren Takt liefern will. Statt 625/750 mhz mit 650/775 mhz. Naja viel ist es net

Nein nicht ganz.ATI liefert die nicht mit höherem Takt aus,sie bitten die Hersteller wie Sapphire usw. die Karten doch möglichst zu übertakten ;) .

Coda
2005-11-15, 23:33:44
Ja Full Scene funktioniert es sicher. Aber dem AAA/TSAA beizubringen, die BM Edges zu samplen...das halte ich für unsicher.Was ist daran unsicher? Es werden 4 vollwertige PixelShader-Samples genommen (eben Supersampling). Das glättet alles was der Shader ausspuckt.

Nochmal: TSSAA und AAA sind kein A2C.

Hakim
2005-11-15, 23:33:59
Nein nicht ganz.ATI liefert die nicht mit höherem Takt aus,sie bitten die Hersteller wie Sapphire usw. die Karten doch möglichst zu übertakten ;) .

Aber ist schon etwas merkwürdig vor allem auch auffällig so kurz nachdem die GTX512 vorgestellt wurde.

Coda
2005-11-15, 23:38:19
Mit 4% Takterhöhung werden sie eh nix reißen können. Was sie brauchen ist so schenll wie möglich R580.

M2-Master
2005-11-15, 23:39:31
Aber ist schon etwas merkwürdig vor allem auch auffällig so kurz nachdem die GTX512 vorgestellt wurde.

Ja der Meinung bin ich auch.Ich denke das es ganz klar mit der GTX512 zusammenhängt,sonst hätte man ja keinen Grund gehabt überhaupt zu übertakten,denn die X1800XT schlägt die GTX ja. (Ja ich weiß Nvidia Fans und die
die mich verbessern wollen, das die GTx in manchen Spielen und Belangen schneller ist als die X1800XT)
ATI will dieses Duell einfach nicht verlieren,obwohl es in Sachen Leistung schlecht steht.Aber eigentlich war die X1800Xt ja auch nicht als Konkurrent für eine mögliche Ultra-Version der GTX geplant,dafür ist ja der r580 vorgesehen.

Die gelbe Eule
2005-11-16, 00:11:39
Die 7800GTX 512MB wurde übrigens seit Kalenderwoche 34 produziert. Das war Anfang September. Man ist also ATi strategischer weiter voraus, als es zunächst ersichtlich gewesen war.

deekey777
2005-11-16, 00:15:55
Die 7800GTX 512MB wurde übrigens seit Kalenderwoche 34 produziert. Das war Anfang September. Man ist also ATi strategischer weiter voraus, als es zunächst ersichtlich gewesen war.

Oder der G70 Chip, der die hohen Taktraten ohne Probleme schaffte, wurde in der 34. Woche produziert und aussortiert.

Übrigens steht nicht auf jedem Chip 7800-512-A2, sondern auch 7800-U-A2...
Die Bezeichnung 7800GTX 512MB ist pure Augenwischerei.

MSABK
2005-11-16, 00:33:36
Mich würds nicht wundern wenn NV zum R580 launch eine 7800 Ultra mit 750MHz @ 90nm bringt.

Odal
2005-11-16, 00:45:19
naja fakt is das das ding nen ganz schönes monster is...

sie is schneller, leiser, kühler, weniger stromhungrig etc. als eine x1800XT aber sie hat den nachteil winkelabhängiges AF zu bieten....

auch wenn der x1800xt takt minimal erhöt wird sieht die XT nur die rücklichter...

langsam wirds wirklich zeit das neue chips rauskommen....

MSABK
2005-11-16, 00:47:51
langsam wirds wirklich zeit das neue chips rauskommen....


Warum neue chips? Die sollen erstmal die X1800XT verfügbar machen.

Odal
2005-11-16, 00:53:18
ich meinte damit neue chips seitens nvidia wo es endlich wieder winkelunabhängiges AF gibt

eXodia
2005-11-16, 01:15:04
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/november/reagiert_ati_geforce_7800_gtx_512/

@ Post 74 gucken

Also wird der Cat. 5.11. auch nicht mehr viel reissen können... (Das war eine persöhnliche Schlussfolgerung und keine Beleidigung, Leutz was hier abgeht :frown:)

Greetz

mapel110
2005-11-16, 01:23:24
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/november/reagiert_ati_geforce_7800_gtx_512/

@ Post 74 gucken

Also wird der Cat. 5.11. auch nicht mehr viel reissen können... (Das war eine persöhnliche Schlussfolgerung und keine Beleidigung, Leutz was hier abgeht :frown:)

Greetz
Ist hier auch bestens bekannt, dass es nur Opengl und da speziell 4xAA betrifft.

aths
2005-11-16, 04:24:28
Sogar Hardware.fr bencht nicht mit HQ, sondern hat nur die Sampleoptmierung deaktiviert. ;(Soweit ich weiß, lässt die sich in Q ja eben nicht deaktivieren, man stellt es zwar aus aber es bleibt aktiviert. Oder hat NV das inzwischen gefixt?

BTW: Mipmapbanding und fehlende Reflections bei Tiger Woods @ 0xAA/0xAF: http://www.driverheaven.net/reviews/7800512dhreview/iq.htmAuch wenn die 0x schreiben: Ohne AA und AF hat man 1x AA und 1x AF.

Das flimmern kommt vom Bumpmapping, das hat mit dem AF leider nichts zu tun.

Bei GTA wären die Texturen nichtmal groß flimmerig, es fehlen nur idiotischerweiße die Mips.~weise. Ohne ß. Da hab ich dir schon ca. drei PMs geschrieben. Bitte versuche doch, weise zu sein und die Weise mit s zu schreiben :)

aths
2005-11-16, 04:26:34
Ist schon klar. Ich meinte bloß, dass theoretisch sicher die Möglichkeit bestünde, auch Bumpmaps zu glätten. Der Karte ist doch imo egal, ob die zu glättende Textur nun fürs Alphatesting oder Bumpmapping gedacht ist...Die Karte weiß aber nicht, auf welche Polygone Bumpmapping appliziert werden soll, hingegen weiß sie, ob Alphatesting aktiviert ist.

Was ist daran unsicher? Es werden 4 vollwertige PixelShader-Samples genommen (eben Supersampling). Das glättet alles was der Shader ausspuckt.

Nochmal: TSSAA und AAA sind kein A2C.Ja, solange man das nicht im Shader selbst macht, hilft nur generelles Supersampling auf das ganze Bild.

Ailuros
2005-11-16, 06:40:20
Dann stell mal im CP bspw. 4xAA und 16xAF an, und schau ob der Mist immernoch aus ist! :mad:

Es handelt sich um einen generellen bug im CP und den settings der 80-iger Serie. Hab es schon als bug von Anfang an weitergereicht, aber man konzentriert sich eben momentan viel zu viel den letzten Fetzen an Leistung fuer benchmarks rauszubekommen. Erstelle mal ein eigenens color profile, speicher es und schau nach was genau in beiden Stellen dafuer steht (irrelevant ob die settings behalten werden oder nicht).


Das beschränkt sich nicht auf Primeval. Bench mal Lost Coast oder Quake4 mit Auflösungen >= 1600 . Außerdem wärens mit 1280 und 8xS noch mehr als die 30%, die du mit 1600 und 4xAA erbencht hast. Auf meiner 6800GT sinds fast 50%. Und da ist das Spiel wider Erwarten nicht mehr spielbar (mit 1280 und 8xS). Es kommt auch nur drauf an, ab wann die Karte am Bandbreitenlimit hängt - hohe Einbrüche lassen sich immer erzeugen.

Kein Zweifel nur eben waren die Einbrueche auf aelteren GPUs in UT2k4 ohne Optimierungen um so viel groesser wie es an Fuellrate bzw. Bandbreite fehlte und dabei MSAA verglichen gegen MSAA und nichts anderes.

UT2k4 ist so verdammt CPU limitiert heutzutage dass selbst wenn ich jegliche Form oder Menge von Supersampling benutze ich stets den Vorteil der enorm hoeheren Fuellrate/Bandbreite zu aelteren GPUs habe. Und wenn ich schon die R3xx Serie erwaehne, dann passt Supersampling wohl nicht in den gleichen Satz.

Zu guter letzt nachzuforschen ist eine Sache, aber man darf sich auch nicht zu weit von realistischen Situationen entfernen IMO. Ich hab nie UT2kX mit irgend einem hybriden modus in Echtzeit gespielt; in der Zwischenzeit spiele ich das Ding auch nicht mehr und ich bezweifle dass ich es in zukuenftigen Tests auch weiterhin benutzen werde.

Demenstsprechend find ich auch, dass eine Aussage wie "gerade Besitzer einer 7800GT oder 7800GTX sollten daher die Systemleistung immer auf "Hohe Qualität" stellen, da sich dadurch die Bildqualität deutlich verbessert ohne, dass die Performance zu stark einbricht (2-3%)" (PCGH 11/05), an bewußter Irreführung grenzt...

10-15% IMHO unter normalen Bedingungen. Das grosse "aber" hier ist dass ich trotz FX53@2.6GHz immer noch CPU-Limitierungen sehen kann aber dafuer hab ich auch mit Absicht in meiner 78.03 Untersuchung auch 2048*1536 benutzt.

Um ein paar weitere Dinge klarzusetzen:

1) fast paced FPS games of any kind in their majority = 1280*960@120Hz + 4xAA/8xAF, vsynced + triple buffering (wherever applicable)

2) flight/race/space simulation games in their majority =
1600*1200@95Hz + 4xAA/8xAF, vsynced + triple buffering (wherever applicable)

und wenn mir im zweiten Fall irgend etwas zu langsam sein sollte dann einfach im Notfall 2xAA, was aber eher selten ist da diese genre sowieso meistens verdammt CPU-limitiert ist. So und nur so spiele ich momentan und dabei gibt es verdammt viel Luftraum nach oben mich ueber Optimierungen kaum zu kuemmern.


Nicht schlecht. Hast du zufälligerweise auch gemessen, ob sich zw. den letzten Treiberversion was am Speicherverbrauch geändert hat? BTW: War das Quality ohne oder mit Optimierungen?

Quality hat bei default Optimierungen eingeschaltet und es waren wieder alle an mit Absicht. 81.94 ist um 11% langsamer mit dem timedemo, dafuer sind aber Spiele die mit Stencils vollgepumpt sind wiederrum um mehr als 11% schneller.

Speicherverbrauch bei diesem timedemo liegt bei ca. 370MB insgesamt. CoD2 hat wahrscheinlich keine groesseren Ansprueche an Speichermengen als anderen neue Spiele; es koennte durchaus sein dass hier ein paar anstaendige Optimierungen was die Benutzung von System-ram betrifft fehlen.

Grestorn
2005-11-16, 07:43:32
Ja sicher darfst du das. Nur fehlt bei solch, relativ objektiv eruierbaren Gegenheiten, abweichenden Meinungen dann meist doch die notwendige Grundlage...Objektiv?

"Relativ Objektiv" ist im übrigen ein Oxymoron.

Für "objektiv richtig" hältst Du sowieso immer nur Deine Meinung, das geht auf alle Fälle aus Deinen Beiträgen hervor. Alle anderen Meinungen sind für Dich "objektiv falsch".

reunion
2005-11-16, 08:24:27
sie is schneller,


Meistens ja, aber das kann man auch nicht verallgemeinern:

http://www.hardware.fr/medias/photos_news/00/14/IMG0014782.gif

http://www.hardware.fr/medias/photos_news/00/14/IMG0014793.gif

http://www.hardware.fr/medias/photos_news/00/14/IMG0014818.gif


leiser,


Richtig, wobei die X1800XT auch nicht gerade laut ist.


kühler, weniger stromhungrig


Falsch.


etc.


Bsw. ist sie aktuell auch 200€ teurer.

robbitop
2005-11-16, 09:02:16
Was ist daran unsicher? Es werden 4 vollwertige PixelShader-Samples genommen (eben Supersampling). Das glättet alles was der Shader ausspuckt.

Nochmal: TSSAA und AAA sind kein A2C.

Die Karte weiß aber nicht, auf welche Polygone Bumpmapping appliziert werden soll, hingegen weiß sie, ob Alphatesting aktiviert ist.

Ja, solange man das nicht im Shader selbst macht, hilft nur generelles Supersampling auf das ganze Bild.

Wußt ich's doch. :)

tombman
2005-11-16, 10:34:50
Meistens ja, aber das kann man auch nicht verallgemeinern:

http://www.hardware.fr/medias/photos_news/00/14/IMG0014782.gif

http://www.hardware.fr/medias/photos_news/00/14/IMG0014793.gif

http://www.hardware.fr/medias/photos_news/00/14/IMG0014818.gif



http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx_512mb/images/fear1600aa.gifhttp://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx_512mb/images/c1600aa.gifhttp://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx_512mb/images/d31280aa.gif

Wazuuuuuuuuuuup :cool:

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx_512mb/images/slifear1280.gif

hardware.fr und firingsquad verwendeten BEIDE cat 5.11 und fw 81.89.

Und auch anderswo gewinnt die 7800 512 und nicht die x1800xt...

eXodia
2005-11-16, 11:10:23
Ist hier auch bestens bekannt, dass es nur Opengl und da speziell 4xAA betrifft.

OK, OpenGL ist klar, aber warum speziell 4xAA?

Greetz

Hakkerstiwwel
2005-11-16, 11:15:10
@tombman
Obschon sie es nicht explizit dabei schreiben scheint hardware mit HQ zu benchen (analog zu CB)
Interessant ist nur die Frage warum die Radeon bei Hardware schneller ist. Leider sagt FS nicht ob sie AF via Treiber oder ueber das Spiel aktivieren. Eventuell koennte hierin ein netter Geschwindigkeitsbonus fuer die Radeon anfallen, der sich nicht so auf der GF auswirkt (Stichwort bi/bri/tri)

deekey777
2005-11-16, 11:18:14
OK, OpenGL ist klar, aber warum speziell 4xAA?

Greetz

Weil das verbesserte 4xAA-Profil bei früheren Treibern nicht implementiert wurde (vergessen).

Mr. Lolman
2005-11-16, 11:25:07
@tombman
Obschon sie es nicht explizit dabei schreiben scheint hardware mit HQ zu benchen (analog zu CB)
Interessant ist nur die Frage warum die Radeon bei Hardware schneller ist. Leider sagt FS nicht ob sie AF via Treiber oder ueber das Spiel aktivieren. Eventuell koennte hierin ein netter Geschwindigkeitsbonus fuer die Radeon anfallen, der sich nicht so auf der GF auswirkt (Stichwort bi/bri/tri)

Ne sie haben nur die Anisotrope Sample OPtimierung deaktiviert: Nous avons désactivé l’optimisation "Anisotropic sample optimizations" qui augmente le shimmering chez Nvidia

Mr. Lolman
2005-11-16, 11:26:25
Und auch anderswo gewinnt die 7800 512 und nicht die x1800xt...

Bei Driverheaven aber nicht. Und die haben auch nicht mit HQ gebencht.

Mr. Lolman
2005-11-16, 11:28:01
Objektiv?

"Relativ Objektiv" ist im übrigen ein Oxymoron.

Für "objektiv richtig" hältst Du sowieso immer nur Deine Meinung, das geht auf alle Fälle aus Deinen Beiträgen hervor. Alle anderen Meinungen sind für Dich "objektiv falsch".

Geh misch dich bitte nicht ein, wenn du ohnehin immer dann ruhig bist, sobald dir die Argumente ausgehen.
Und relativ objektiv ist imo kein Oxymoron.

Mr. Lolman
2005-11-16, 11:44:07
Es handelt sich um einen generellen bug im CP und den settings der 80-iger Serie. Hab es schon als bug von Anfang an weitergereicht, aber man konzentriert sich eben momentan viel zu viel den letzten Fetzen an Leistung fuer benchmarks rauszubekommen. Erstelle mal ein eigenens color profile, speicher es und schau nach was genau in beiden Stellen dafuer steht (irrelevant ob die settings behalten werden oder nicht).
Nein, dass Problem besteht min schon die ganze 70er Serie (imo noch länger).


Kein Zweifel nur eben waren die Einbrueche auf aelteren GPUs in UT2k4 ohne Optimierungen um so viel groesser wie es an Fuellrate bzw. Bandbreite fehlte und dabei MSAA verglichen gegen MSAA und nichts anderes.

Ja glaubst die nicht, dass die Bandbreite früher oder später auch limtieren wird (oder jetzt auch schon, wie bspw. bei den genannten Spielen)


UT2k4 ist so verdammt CPU limitiert heutzutage dass selbst wenn ich jegliche Form oder Menge von Supersampling benutze ich stets den Vorteil der enorm hoeheren Fuellrate/Bandbreite zu aelteren GPUs habe. Und wenn ich schon die R3xx Serie erwaehne, dann passt Supersampling wohl nicht in den gleichen Satz.

Wenns so CPU limitiert wäre, dann gäbs keinen derart großen Einbruch zw. Q und HQ. (ok, ich weiss von Ati, dass sie bei UT2004 bspw. kein AA auf Rauchwolken applizieren, aber daher kann ja auch nicht die ganze Geschwindigkeit kommen). Trotzdem mit ner 9700p (@400/350) konnt ich schon mit nem prä-AI Catalyst UT2004 mit 1280x1024 4xAA/4x Performance AF spielen. Jetzt hab ich eine Karte mir mehr als doppelter Rohleistung und hab mit den gleichen Settings und 16xHQ AF genau die gleichen fps. Imo


Zu guter letzt nachzuforschen ist eine Sache, aber man darf sich auch nicht zu weit von realistischen Situationen entfernen IMO. Ich hab nie UT2kX mit irgend einem hybriden modus in Echtzeit gespielt; in der Zwischenzeit spiele ich das Ding auch nicht mehr und ich bezweifle dass ich es in zukuenftigen Tests auch weiterhin benutzen werde.

Ich hätts gerne mit 8xS gespielt. Außerdem was sind realitische Situationen? Eine 700€ Karte in max 1600x1200 zu benchen?


10-15% IMHO unter normalen Bedingungen. Das grosse "aber" hier ist dass ich trotz FX53@2.6GHz immer noch CPU-Limitierungen sehen kann aber dafuer hab ich auch mit Absicht in meiner 78.03 Untersuchung auch 2048*1536 benutzt.

Um ein paar weitere Dinge klarzusetzen:

1) fast paced FPS games of any kind in their majority = 1280*960@120Hz + 4xAA/8xAF, vsynced + triple buffering (wherever applicable)

2) flight/race/space simulation games in their majority =
1600*1200@95Hz + 4xAA/8xAF, vsynced + triple buffering (wherever applicable)

und wenn mir im zweiten Fall irgend etwas zu langsam sein sollte dann einfach im Notfall 2xAA, was aber eher selten ist da diese genre sowieso meistens verdammt CPU-limitiert ist. So und nur so spiele ich momentan und dabei gibt es verdammt viel Luftraum nach oben mich ueber Optimierungen kaum zu kuemmern.

Dann schraub doch die Auflösung höher, wenn alles so CPU limitiert ist. Sonst misst du ja eher denn CPUload vom Grafiktreiber und nicht die Leistung der Grafikkarte...


Quality hat bei default Optimierungen eingeschaltet und es waren wieder alle an mit Absicht. 81.94 ist um 11% langsamer mit dem timedemo, dafuer sind aber Spiele die mit Stencils vollgepumpt sind wiederrum um mehr als 11% schneller.

Speicherverbrauch bei diesem timedemo liegt bei ca. 370MB insgesamt. CoD2 hat wahrscheinlich keine groesseren Ansprueche an Speichermengen als anderen neue Spiele; es koennte durchaus sein dass hier ein paar anstaendige Optimierungen was die Benutzung von System-ram betrifft fehlen.

Demnach müsste der Unterschied bei Cod2 zw. Q+Opts und HQ auf ner 256MB 7800GTX etwas größer sein.

Mr. Lolman
2005-11-16, 11:51:29
Die Karte weiß aber nicht, auf welche Polygone Bumpmapping appliziert werden soll, hingegen weiß sie, ob Alphatesting aktiviert ist.
Aber sie weiss, dass Bumpmapping appliziert wird. D.H. sie könnte nach RGSSAA prinzip statt 1 zb. jew. 4 Bumpmapsamples ausspucken...

Ja, solange man das nicht im Shader selbst macht, hilft nur generelles Supersampling auf das ganze Bild.
Könnte man das nicht der Treiber für alle Bumpmap Shader forcieren?

Odal
2005-11-16, 12:00:57
kühler, weniger stromhungrig etc.

Falsch.

http://img391.imageshack.us/img391/245/temp9fk.jpg
zumindest im idle (wo sich eine grafikkarte meistens >90% der zeit befindet) is der verbrauch dtl. geringer
http://img391.imageshack.us/img391/9018/verbr4kb.jpg


Bsw. ist sie aktuell auch 200€ teurer.

über karten die imho hier noch nicht erhältlich sind (x1800xt) brauch man hier noch keine preisvergleiche anstellen :wink:

chrisihamm
2005-11-16, 12:09:45
Der sehr hohe Stromverbrauch bei der X1800 unter IDLE ist auf einen Treiberbug zurückzuführen!!! :P

Mr. Lolman
2005-11-16, 12:10:28
http://img391.imageshack.us/img391/245/temp9fk.jpg
zumindest im idle (wo sich eine grafikkarte meistens >90% der zeit befindet) is der verbrauch dtl. geringer
http://img391.imageshack.us/img391/9018/verbr4kb.jpg


über karten die imho hier noch nicht erhältlich sind (x1800xt) brauch man hier noch keine preisvergleiche anstellen :wink:

Die X1800XT gibts AFAIK schon vereinzelt. Und wenn du schon so schön die Computerbasetabellen ins Forum einbaust, wird dir sicher auch diese nicht entgangen sein:

http://img374.imageshack.us/img374/9184/untitled22vo.png (http://imageshack.us)

Der hohe Stromverbrauch im idle kam von einem (mittlerweile gefixten)Treiberbug:

http://img374.imageshack.us/img374/2254/untitled48nq.png (http://www.hardware.fr/articles/599-2/geforce-7800-gtx-512-mo-nouvelle-reine-3d.html)

tombman
2005-11-16, 12:17:34
Bei Driverheaven aber nicht. Und die haben auch nicht mit HQ gebencht.
Also wenn 95% aller reviews die 7800 512 DEUTLICH vor der X1800XT sehen und 5% nicht, was wird dann wohl stimmen? :rolleyes:

Odal
2005-11-16, 12:21:55
Die X1800XT gibts AFAIK schon vereinzelt. Und wenn du schon so schön die Computerbasetabellen ins Forum einbaust, wird dir sicher auch diese nicht entgangen sein:

http://img374.imageshack.us/img374/9184/untitled22vo.png (http://imageshack.us)


ich hab doch geschrieben das eine karte zu >90% im idle läuft (bei mir eher zu min. 95% :D daher ist der stromverbrauch unter last eher weniger relevant

PingpiN
2005-11-16, 12:28:20
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/november/reagiert_ati_geforce_7800_gtx_512/

@ Post 74 gucken

Also wird der Cat. 5.11. auch nicht mehr viel reissen können... (Das war eine persöhnliche Schlussfolgerung und keine Beleidigung, Leutz was hier abgeht :frown:)

Greetz

Das stimmt nicht ganz bei Half Life 2 gibts einfach mall 20 Fps Mehr. :eek:
http://www.tweaktown.com/articles/839/5/page_5_benchmarks_half_life_2/index.html
4d Mark 05 500 Punkte mehr:http://www.tweaktown.com/articles/839/3/page_3_benchmarks_3dmark05/index.html

Mr. Lolman
2005-11-16, 12:28:27
Also wenn 95% aller reviews die 7800 512 DEUTLICH vor der X1800XT sehen und 5% nicht, was wird dann wohl stimmen? :rolleyes:

Ach übertreib nicht. Es ist sicher nicht so, dass nur jedes 20. Review einen Gleichstand sieht. Außerdem werden die Bencher tw. immer komischer. Z.b: Anandtech bencht komplett ohne AF (oder hab ich da was verpasst)

Mr. Lolman
2005-11-16, 12:30:35
ich hab doch geschrieben das eine karte zu >90% im idle läuft (bei mir eher zu min. 95% :D daher ist der stromverbrauch unter last eher weniger relevant

Du wirst tatsächlich eine 700€ Karte >90% idlen lassen? :rolleyes:

Naja egal. Der Idle/Temp/Stromverbrauchsbug wurde schon gefixt. Sies endlich ein...

Mr. Lolman
2005-11-16, 12:33:24
Das stimmt nicht ganz bei Half Life 2 gibts einfach mall 20 Fps Mehr. :eek:
http://www.tweaktown.com/articles/839/5/page_5_benchmarks_half_life_2/index.html
4d Mark 05 500 Punkte mehr:http://www.tweaktown.com/articles/839/3/page_3_benchmarks_3dmark05/index.html

Das sollte man dem CP Heini mitteilen. Außerdem bin ich gespannt, was statt Ut2004 künftig gebencht wird. Ein Rennspiel würde mich freuen...

/edit: Quake4 legtauch ohne 4xAA ordentlich zu: http://www.tweaktown.com/articles/839/7/page_7_benchmarks_quake_4/index.html

tombman
2005-11-16, 12:34:41
Ach übertreib nicht. Es ist sicher nicht so, dass nur jedes 20. Review einen Gleichstand sieht. Außerdem werden die Bencher tw. immer komischer. Z.b: Anandtech bencht komplett ohne AF (oder hab ich da was verpasst)

Würdest dich mit 90% zu 10% besser fühlen? Ändert nix an der Grundaussage, daß die 7800 512 die X1800XT owned ;)

Oder soll ich jetzt von allen reviews die ich kenne sämtliche Fazite posten?

Marc-
2005-11-16, 12:35:21
Und relativ objektiv ist imo kein Oxymoron.

Ist es ziemlich eindeutig.
http://de.wikipedia.org/wiki/Oxymoron

Es kann keine relativierung eines absoluten begriffes (objektivitaet) geben. Der zustand der objektivität ist entweder vorhanden oder nicht.

Grestorn
2005-11-16, 12:42:13
Geh misch dich bitte nicht ein, wenn du ohnehin immer dann ruhig bist, sobald dir die Argumente ausgehen.
Und relativ objektiv ist imo kein Oxymoron.Wenn Du mit "Argumente ausgehen" den Thread über AF ohne MipMaps meinst: Ich hatte Demi per PM selbst gebeten dazu Stellung zu nehmen. Nachdem er meine Behauptung dann wiederlegt hatte, gab es für mich nichts mehr zu schreiben.

Oder hattest Du erwartet, ich würde auf Knien Abbitte leisten? Ich sehe schon ein, wenn ich Unrecht habe.

Kannst Du das auch?

Außerdem dürfte ich hier eher berüchtigt sein, mit Diskussionen nicht aufhören zu können, obwohl mir immer wieder die selben Argumente aufgetischt werden, die schon x-mal widelegt wurden... Deswegen macht Dein Vorwurf wenig Sinn.

Oxymoron ist eine in sich widersprüchliche Aussage (z.B. "trockenes Wasser"). Da Objetivität eine Relativierung ausschließt, ist "relativ Objektiv" ein Oxymoron.

Mr. Lolman
2005-11-16, 12:45:43
Ist es ziemlich eindeutig.
http://de.wikipedia.org/wiki/Oxymoron

Es kann keine relativierung eines absoluten begriffes (objektivitaet) geben. Der zustand der objektivität ist entweder vorhanden oder nicht.

Relativ (rückbezüglich) ist bspw. etwas, wenn es nur im Kontext einer anderen Sache exisitiert. Objektivität ist z.B. die Beschreibung einer Sache ohne eine persönliche (gefärbte) Wertung miteinzubringen.

Relativ objektiv ist etwas dann, wenn bspw. mehrere Sachen beschrieben werden, und sich die Wertung durch den Kontext der Sachen untereinander ergibt.

/edit: und wenn ich behaupte, dass "relativ objektiv" kein Oxymoron ist, dann schliesst dass mitein, dass ich weiss was ein Oxymoron ist ;)

crane
2005-11-16, 12:49:47
ich hab doch geschrieben das eine karte zu >90% im idle läuft (bei mir eher zu min. 95% :D daher ist der stromverbrauch unter last eher weniger relevant

Full ack

Außerdem hat Xbit-Labs auch unter 3D andere Ergebnisse ermittelt (nur Grafikkarten gemessen):
http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_5.html

Diese Ergebnisse decken sich übrigens mit Tom:
http://graphics.tomshardware.com/graphic/20051114/nvidia_geforce_7800_gtx_512-05.html

Grüße

tombman
2005-11-16, 12:51:24
Relativ (rückbezüglich) ist bspw. etwas, wenn es nur im Kontext einer anderen Sache exisitiert. Objektivität ist z.B. die Beschreibung einer Sache ohne eine persönliche (gefärbte) Wertung miteinzubringen.

Relativ objektiv ist etwas dann, wenn bspw. mehrere Sachen beschrieben werden, und sich die Wertung durch den Kontext der Sachen untereinander ergibt.

/edit: und wenn ich behaupte, dass "relativ objektiv" kein Oxymoron ist, dann schliesst dass mitein, dass ich weiss was ein Oxymoron ist ;)

Und was ist dann "relativ tot"? ;)

Mr. Lolman
2005-11-16, 12:55:41
Wenn Du mit "Argumente ausgehen" den Thread über AF ohne MipMaps meinst: Ich hatte Demi per PM selbst gebeten dazu Stellung zu nehmen. Nachdem er meine Behauptung dann wiederlegt hatte, gab es für mich nichts mehr zu schreiben.


Ich fands nur dumm, dass erst ein Demi kommen musste um deine Behauptungen zu widerlegen, wenn ich dir das selbst anhand von 5 Screenshots mehr als eindrucksvoll gezeigt hab. Und ja, wenn ich mal einer irrigen Annahme erlag, dann geb ich auch zu, dass ich mich geirrt hab. Ich hab auch nirgendwo verlangt, dass du auf Knien abbitte leistest. Aber auf viele Dinge kommt m,an von selbst drauf, wenn man ein bisschen nachdenkt. Und mein letzer Beitrag hätte wohl auch ohne Demi Post ne Einigung erzielt, sofern du eingesehen hättest dass du Unrecht hast und nicht erst die Demikeule schwingen hättest müssen, nur weil du bis zum Schluß die von mir vorgebrachten Fakten nicht akzeptieren wolltest.

Odal
2005-11-16, 13:03:22
Du wirst tatsächlich eine 700€ Karte >90% idlen lassen? :rolleyes:

Naja egal. Der Idle/Temp/Stromverbrauchsbug wurde schon gefixt. Sies endlich ein...


es gibt leute die haben noch andere sachen zutun als nur zu spielen :rolleyes:
und Lolman mit dir brauch man nicht weiter diskutieren...da kann ein performancemonster kommen was alles bisher dagewesen in den boden stampft...du wirst weiter dein ati fähnchen schwingen...und dir die sachen so darlegen wie du sie gern hättest

irgendwie find ich diese einstellung einfach nur llllooooollllll ;D

Grestorn
2005-11-16, 13:05:54
Ich fands nur dumm, dass erst ein Demi kommen musste um deine Behauptungen zu widerlegen, wenn ich dir das selbst anhand von 5 Screenshots mehr als eindrucksvoll gezeigt hab. Und ja, wenn ich mal einer irrigen Annahme erlag, dann geb ich auch zu, dass ich mich geirrt hab. Ich hab auch nirgendwo verlangt, dass du auf Knien abbitte leistest. Aber auf viele Dinge kommt m,an von selbst drauf, wenn man ein bisschen nachdenkt. Und mein letzer Beitrag hätte wohl auch ohne Demi Post ne Einigung erzielt, sofern du eingesehen hättest dass du Unrecht hast und nicht erst die Demikeule schwingen hättest müssen, nur weil du bis zum Schluß die von mir vorgebrachten Fakten nicht akzeptieren wolltest.Weder die Screenshots noch Deine Argumente waren für mich ausreíchend schlüssig, zumal ich wenn dann die Szene in Bewegung sehen müsste.

Ich wollte von Demi nur eine Aussage eines Experten, der wirklich Bescheid weiß, mehr nicht. Da wir beide keine Experten sind, machte der Streit über diesen einfach zu bestätigenden oder widerlegenden Fakt einfach wenig Sinn.

Jetzt aber Schluss, das ist extrem OT. Nur lass ich ungern einen Vorwurf so stehen, ich würde mich aus einer Diskussion abseilen, wenn ich offensichtlich unrecht habe.

PingpiN
2005-11-16, 13:06:12
es gibt leute die haben noch andere sachen zutun als nur zu spielen :rolleyes:


Wenn man sich so eine Karte kauft ist es aber nicht ratsam denn Pc über Nacht anzulassen. ;D Wurde ich mein baby dann garnicht zumuten hätte viel zu viel mitleid mit der Karte. :P

Marc-
2005-11-16, 13:09:45
Relativ (rückbezüglich) ist bspw. etwas, wenn es nur im Kontext einer anderen Sache exisitiert. Objektivität ist z.B. die Beschreibung einer Sache ohne eine persönliche (gefärbte) Wertung miteinzubringen.

Relativ objektiv ist etwas dann, wenn bspw. mehrere Sachen beschrieben werden, und sich die Wertung durch den Kontext der Sachen untereinander ergibt.

/edit: und wenn ich behaupte, dass "relativ objektiv" kein Oxymoron ist, dann schliesst dass mitein, dass ich weiss was ein Oxymoron ist ;)

Im falle der wendung "relativ objektiv" bezieht sich das "relativ" auf den Zustand der objektivität rein gramatikalisch. Da dieser Zustand per definition nicht relativierbar ist, bzw die Zustandsbeschreibung für den Beriff "objektiv" nicht zulässig bzw in sich widersprüchlich ist, handelt es sich um ein Oxymoron. Ich weiss auch garnicht warum du dich so dagegen sträubst, weil es eigentlich auch kein wort für "quatsch" sondern ist ein gebräuchliches sprachliches stilmittel. Nur glaube ich kaum das es in diesem falle ausdrueckst was du ausdruecken wolltest.

Odal
2005-11-16, 13:11:26
was soll mit einer karte im idle schon passieren? (wie das mit der x1800xt mit ihrem stromhunger im idle ist weiss ich natürlich nicht :D ) mitunter wer sagt das ich meinen rechner nachts laufen lasse? der is da meistens aus...

ich spiele dennoch 95% der zeit die ich am rechner verbringe (muss) nicht. Und da werd ich vermutlich nicht der einzige sein.

tombman
2005-11-16, 13:12:59
Im falle der wendung "relativ objektiv" bezieht sich das "relativ" auf den Zustand der objektivität rein gramatikalisch. Da dieser Zustand per definition nicht relativierbar ist, bzw die Zustandsbeschreibung für den Beriff "objektiv" nicht zulässig bzw in sich widersprüchlich ist, handelt es sich um ein Oxymoron. Ich weiss auch garnicht warum du dich so dagegen sträubst, weil es eigentlich auch kein wort für "quatsch" sondern ist ein gebräuchliches sprachliches stilmittel. Nur glaube ich kaum das es in diesem falle ausdrueckst was du ausdruecken wolltest.
Agree :)

(OMG, hab ich gerade Marc- Recht gegeben?... :O) :biggrin:

Mr. Lolman
2005-11-16, 13:15:09
Und was ist dann "relativ tot"? ;)

kommt auf den Zusammenhang drauf an. Strenggenommen ist relativ tot auch kein Widerspruch, da es ohne lebender auch keine tote Materie gäbe. Und ein Stein ist relativ zu einer Pflanze gesehen auch tot. Er ist relativ tot.
Im normalen Sprachgebrauch wird man natürlich aber nicht relativ tot schreiben, da der Zustand des Todes allein schon eine gewisse Rückbezüglichkeit impliziert weswegen, dass Wort "relativ" dann eher als Maßeinheit für steht. Und idF wirkt "relativ tot" natürlich genauso falsch wie "sehr tot", wobei sich jedoch wahrscheinlich sich niemand an "relativ lebendig" erhängen wird ;)

tombman
2005-11-16, 13:17:05
kommt auf den Zusammenhang drauf an. Strenggenommen ist relativ tot auch kein Widerspruch, da es ohne lebender auch keine tote Materie gäbe. Und ein Stein ist relativ zu einer Pflanze gesehen auch tot. Er ist relativ tot.
Im normalen Sprachgebrauch wird man natürlich aber nicht relativ tot schreiben, da der Zustand des Todes allein schon eine gewisse Rückbezüglichkeit impliziert weswegen, dass Wort "relativ" dann eher als Maßeinheit für steht. Und idF wirkt "relativ tot" natürlich genauso falsch wie "sehr tot", wobei sich jedoch wahrscheinlich sich niemand an "relativ lebendig" erhängen wird ;)

Sorry Lolmann, aber man sollte wissen wann man schachmatt ist-und nein, "relativ schachmatt" gibts auch ned ;D;D

MikBach
2005-11-16, 13:21:45
Leute,
bleibt bitte beim Thema!
Danke.

Mr. Lolman
2005-11-16, 13:24:56
Sorry Lolmann, aber man sollte wissen wann man schachmatt ist-und nein, "relativ schachmatt" gibts auch ned ;D;D

Mit deinem Schachmattbeispiel schauts genauso aus, wie eben gerade beschrieben.


Relativität (lat. relativ: rückbezüglich) bedeutet, dass ein Objekt durch ein anderes bedingt bzw. vermittelt wird, nur in Beziehung zu diesem existiert bzw. Gültigkeit besitzt.


Wär ich immernoch Schachmatt, wenn wir garkein Schach gespielt hätten?

Grestorn
2005-11-16, 13:25:27
Und ja, wenn ich mal einer irrigen Annahme erlag, dann geb ich auch zu, dass ich mich geirrt hab.Zeigs uns!

P.S.: Nach Deinem Sprachverständnis kann es überhaupt kein Oxymoron geben, da Du ja praktisch behauptest, es gäbe keine Widersprüche, denn keine Aussage ist ganz frei von jeglichem Kontext.

Mr. Lolman
2005-11-16, 13:32:46
Zeigs uns!

P.S.: Nach Deinem Sprachverständnis kann es überhaupt kein Oxymoron geben, da Du ja praktisch behauptest, es gäbe keine Widersprüche, denn keine Aussage ist ganz frei von jeglichem Kontext.

Sicher gibts Oxymorone. Nur die Relativität ist dafür imo kein guter Baustein.

Grestorn
2005-11-16, 13:33:52
Sicher gibts Oxymorone. Nur die Relativität ist dafür imo kein guter Baustein."Relativ absolut". Kein Oxymoron?

tombman
2005-11-16, 13:36:25
Sicher gibts Oxymorone. Nur die Relativität ist dafür imo kein guter Baustein.
Ach ja, dann sag mal eines :cool:

Dann wenden wir deine Methode darauf an, und du mußt dir selbst widersprechen um zu beweisen, daß du Recht hast ...mauhahhhaha :D

Mr. Lolman
2005-11-16, 13:37:27
"Relativ absolut". Kein Oxymoron?

Nicht zwingend. (Auch wenn sich da schon selbst mir die Nackenhaare aufstellen. ;))

seahawk
2005-11-16, 13:39:57
hab grad gelesen das ATI die X1800xt mit höheren Takt liefern will. Statt 625/750 mhz mit 650/775 mhz. Naja viel ist es net

Wenn sie den Speichercontroller besser optimieren, dann könnte es bei vergleichbaren BQ-Settings reichen um die 512MB zu schlagen. Man darf halt nur ATI default gegen NV HQ benchen.

Mr. Lolman
2005-11-16, 13:43:10
Ach ja, dann sag mal eines :cool:

Dann wenden wir deine Methode darauf an, und du mußt dir selbst widersprechen um zu beweisen, daß du Recht hast ...mauhahhhaha :D

Ui, jetzt begeb ich mich aufs Glatteis. trockenes Wasser ist zB. eins. Kühle Sonne imo wiederum nicht.Naja, die kewlsten Oxymorone hat imo dieses Gedicht:

Dunkel war's der Mond schien helle,
Schnee lag auf der grünen Flur
als ein Auto blitzeschnelle,
langsam um die Ecke fuhr.

Drinnen saßen stehend Leute,
schweigend ins Gespräch vertieft,
als ein totgeschossener Hase,
auf der Sandbank Schlittschuh lief.

Auf 'ner grünen Rasenbanke,
die rot angestrichen war,
saß ein blondgelockter Jüngling
mit kohlrabenschwarzem Haar.

Im Arm ne' alte Schrulle,
zählte kaum erst 17 Jahr,
In der Hand ne' Butterstulle,
die mit Schmalz bestrichen war.

...

http://www.lyrik.ch/lyrzeit/jux/dunkel.htm

seahawk
2005-11-16, 13:47:27
Das ist langsam Spam !!

Mr. Lolman
2005-11-16, 13:53:29
Das ist langsam Spam !!

Wär ich Mod, hätt ichs schon gesplittet !!

/@all: Sry4OT

BlackArchon
2005-11-16, 13:56:27
Wär ich Mod, hätt ichs schon gesplittet !!

/@all: Sry4OT
Wärst du Mod, wären alle NV-User hier gebannt. ;(

Mr. Lolman
2005-11-16, 13:57:49
Wärst du Mod, wären alle NV-User hier gebannt. ;(

Nö, ich bann niemanden. Meine Ignorelist ist auch leer.

Hakim
2005-11-16, 14:21:38
also mit sachlichkeit haben hier viele poste nix mehr zu tun...einige suchen wohl das ganze i-net ab um werte zu finden die ihre Denkweise bestätigen. Ich hab mir etwa 7 seiten angeschaut wo getestet wurde...und 6 davon hatten eine klare aussage das die GTX512 eindeutig schneller ist. Ich meine irgendwo kann doch wohl was eingestehen. Wenn so eindeutige sachen in frage gestellt werden......wie soll man den ganzen testern glauben die meinen die X1800xt hätte die bessere bildquali.

alpha-centauri
2005-11-16, 14:26:56
Bisschen Schwanger..

eXodia
2005-11-16, 14:49:36
also mit sachlichkeit haben hier viele poste nix mehr zu tun...einige suchen wohl das ganze i-net ab um werte zu finden die ihre Denkweise bestätigen. Ich hab mir etwa 7 seiten angeschaut wo getestet wurde...und 6 davon hatten eine klare aussage das die GTX512 eindeutig schneller ist. Ich meine irgendwo kann doch wohl was eingestehen. Wenn so eindeutige sachen in frage gestellt werden......wie soll man den ganzen testern glauben die meinen die X1800xt hätte die bessere bildquali.

ACK, aber full ACK :)

Fakt 1: Die 512MB 7800 ist schneller, und das nicht zu knapp
Fakt 2: Die X1800XT hat das bessere AF

Greetz

tombman
2005-11-16, 14:52:41
ACK, aber full ACK :)

Greetz

Ebenfalls ACK, aber zum Glück (für fanboys) gibts immer wieder reviews die ausscheren und andere scores liefern als die große Mehrheit-> und schon können jene wieder rausgepickt werden um damit dem fanboy Geschäft nachzugehen:rolleyes:

Pirx
2005-11-16, 15:13:15
Ebenfalls ACK, aber zum Glück (für fanboys) gibts immer wieder reviews die ausscheren und andere scores liefern als die große Mehrheit-> und schon können jene wieder rausgepickt werden um damit dem fanboy Geschäft nachzugehen:rolleyes:
Und du als kritischer User könntest ja hinterfragen, warum diese unterschiedlichen Ergebnisse zustande kommen.

Coda
2005-11-16, 15:18:25
Die Karte weiß aber nicht, auf welche Polygone Bumpmapping appliziert werden soll, hingegen weiß sie, ob Alphatesting aktiviert ist.Das weiß der Treiber nicht die Karte.

Schon klar, dass dann die Applikation ein Interface bräuchte um TGSSAA zu aktivieren anstatt MSAA, aber das ist ohne weiteres möglich.

Mr. Lolman
2005-11-16, 15:22:51
ACK, aber full ACK :)

Fakt 1: Die 512MB 7800 ist schneller, und das nicht zu knapp
Fakt 2: Die X1800XT hat das bessere AF

Greetz

Nicht nur AF, sondern auch den besseren trilinearen Filter (bei Standardtreibereinstellungen)

Mr. Lolman
2005-11-16, 15:24:31
Wenn sie den Speichercontroller besser optimieren, dann könnte es bei vergleichbaren BQ-Settings reichen um die 512MB zu schlagen. Man darf halt nur ATI default gegen NV HQ benchen.

Das ist der Punkt. Leider macht das nichtmal hardware.fr. Und bei der PCGH wart ich die neue Ausgabe ab...

dildo4u
2005-11-16, 15:39:29
Das ist der Punkt. Leider macht das nichtmal hardware.fr. Und bei der PCGH wart ich die neue Ausgabe ab...
Computerbase Testet ja so NV mit HQ und ATI mit AI Standard und die kommen auch zu einem recht eindeutigen Fazit pro NV was den Speed betrifft weisen aber immerhin noch darauf hin das der G70 nicht an den HQ AF modus der ATI Karte rankommt.

robbitop
2005-11-16, 15:42:23
Wenn sie den Speichercontroller besser optimieren, dann könnte es bei vergleichbaren BQ-Settings reichen um die 512MB zu schlagen. Man darf halt nur ATI default gegen NV HQ benchen.
Mal eben 33% mehr Füllrate und deutlich mehr aritmetische Rohleistung aufholen? Also bitte. Ein solcher Abstand ist ohne böses Optmieren IMO gar nicht verkürzbar.
Es wäre auch unsinnig, wenn eine Karte mit so viel mehr Rohleistung nicht deutlich überlegen wäre. Deshalb ist auch IMO diese ganze Widerrede ohne echte Basis.

Außerdem ist der Speichercontroller der X1800XT nur in der Marketingwelt programmierbar. Jeder heutige Speichercontroller ist ein wenig parametrisierbar und damit genauso "programmierbar" wie ein Videorekorder. Das ist nicht erst seit R520 so. Auch übertrieb das Marketing nach meinen Informationen enorm was die Trennung der gesamten Elemente der Pipeline im Schema anging.

Pirx
2005-11-16, 15:43:31
Computerbase Testet ja so NV mit HQ und ATI mit AI Standard und die kommen auch zu einem recht eindeutigen Fazit pro NV was den Speed betrifft weisen aber immerhin noch darauf hin das der G70 nicht an den HQ AF modus der ATI Karte rankommt.
Aber die testen die X1x00 mit diesem Beta-Treiber und die anderen ATi-Karten mit Catalyst 5.8.:conf2:

robbitop
2005-11-16, 15:44:27
Das ist der Punkt. Leider macht das nichtmal hardware.fr. Und bei der PCGH wart ich die neue Ausgabe ab...
Sorry aber die PCGH...? :|

dildo4u
2005-11-16, 15:46:58
Aber die testen die X1x00 mit diesem Beta-Treiber und die anderen ATi-Karten mit Catalyst 5.8.:conf2:
Vieleicht musste sie ja die X1800XT wieder abgeben und konnte jetzt nicht nochmal mit neuem Treiber alles noch mal neu Benchen sondern man hat einfach die Werte vom X1800 Test genommen.

Mr. Lolman
2005-11-16, 15:51:20
Sorry aber die PCGH...? :|
Naja, ist ja immernoch ein (von mir eher weniger) gern gelesenes Massenblatt, dessen Lesermeinungen gerade auch in Daukreisen geschätzt werden, und an dem sich die anderen Spielemags tw. orientieren...

alpha-centauri
2005-11-16, 15:51:53
Sorry aber die PCGH...? :|

Psst.. Es gibt Leute im Forum, die bei der PCGH jobben

robbitop
2005-11-16, 15:54:16
Psst.. Es gibt Leute im Forum, die bei der PCGH jobben
Das ist mir bekannt.

Mr. Lolman
2005-11-16, 16:07:10
Computerbase Testet ja so NV mit HQ und ATI mit AI Standard und die kommen auch zu einem recht eindeutigen Fazit pro NV was den Speed betrifft weisen aber immerhin noch darauf hin das der G70 nicht an den HQ AF modus der ATI Karte rankommt.
der Tester glaubt ja auch, dass der neue Catalyst, außer in Q4 und D³ 4xAA, kein Speed bringt...

Ailuros
2005-11-16, 16:18:37
Nein, dass Problem besteht min schon die ganze 70er Serie (imo noch länger).

Gott dann schalt das verdammte Ding doch selber ein; ist diese Kleinigkeit wirklich so wichtig oder willst Du mir einreden dass bei ATI alles im Treiber so funktioniert wie es sollte oder dass es keine zwielichtigen Merkwuerdigkeiten gibt?

Ja glaubst die nicht, dass die Bandbreite früher oder später auch limtieren wird (oder jetzt auch schon, wie bspw. bei den genannten Spielen)

In UT2k3/4? Als UT2k3 rauskam hatte ich es schwer es in 1024 mit 2xAA/4xAF auf einer NV25 zu spielen. Die ONS maps legten noch groessere Aufforderungen auf in UT2k4, aber ich brauche trotzdem nicht in diesem Spiel jegliche Form von Supersampling.


Wenns so CPU limitiert wäre, dann gäbs keinen derart großen Einbruch zw. Q und HQ. (ok, ich weiss von Ati, dass sie bei UT2004 bspw. kein AA auf Rauchwolken applizieren, aber daher kann ja auch nicht die ganze Geschwindigkeit kommen).

Dann versuch mal maps wie Primeval oder andere ONS maps mit einer 1.5 GHz CPU und einer heutigen high end GPU zu spielen. Das Spiel ist alt und redundant. Hallo es ist schon Ende 2005 und ich warte schon auf UT2k7.

Trotzdem mit ner 9700p (@400/350) konnt ich schon mit nem prä-AI Catalyst UT2004 mit 1280x1024 4xAA/4x Performance AF spielen. Jetzt hab ich eine Karte mir mehr als doppelter Rohleistung und hab mit den gleichen Settings und 16xHQ AF genau die gleichen fps.

Sicher die alle Wunder R300 von der mir so langsam die Ohren schon weh tun von der ganzen Trommelei darueber. Hatte R3xx GPUs und zwar 3 davon fast 2 Jahre und ich weiss genau wo sie lagen. Gleiche CPU bei beiden? Falls ja, dann spar mir die Antwort und ueberdenke es selber.


Ich hätts gerne mit 8xS gespielt. Außerdem was sind realitische Situationen? Eine 700€ Karte in max 1600x1200 zu benchen?

a) Weil Du es brauchst?
b) Weil Du sonst nichts von OGSS haelst?
oder
c) Weil es eben nett die Leistung in den Boden stampft ueberhaupt in den ONS maps dass Du auch ueber miserable Leistung meckern kannst?

700 euro teuro GPUs kommen normalerweise auch mit sauteuren Systemen; wenige schrauben 15" Bildschirme an solche Karten.

Dann schraub doch die Auflösung höher, wenn alles so CPU limitiert ist. Sonst misst du ja eher denn CPUload vom Grafiktreiber und nicht die Leistung der Grafikkarte...

Wer redete von Benchmarks? Ich spiele mit den settings. Sagt Dir vsync + triple buffering vielleicht was?

Demnach müsste der Unterschied bei Cod2 zw. Q+Opts und HQ auf ner 256MB 7800GTX etwas größer sein.

AF Fuellrate != Textur-Bandbreite.

Ailuros
2005-11-16, 16:24:50
Naja, ist ja immernoch ein (von mir eher weniger) gern gelesenes Massenblatt, dessen Lesermeinungen gerade auch in Daukreisen geschätzt werden, und an dem sich die anderen Spielemags tw. orientieren...

Ich hab das besagte Magazin noch nicht selber gelesen, also kann ich auch keine Meinung darueber haben. Generell aber lese oder kaufe ich keine PC Magazine schon seit einer Ewigkeit nicht mehr. Zu dem hab ich das Internet oder noch genauer Reviews und Foren.

Ueberhaupt Foren passen viel besser zu meiner Unterschrift ;)

Mr. Lolman
2005-11-16, 16:38:21
Gott dann schalt das verdammte Ding doch selber ein; ist diese Kleinigkeit wirklich so wichtig oder willst Du mir einreden dass bei ATI alles im Treiber so funktioniert wie es sollte oder dass es keine zwielichtigen Merkwuerdigkeiten gibt?
Was sind dir denn für zwielichtige Merkwürdigkeiten im ATi-Treiber aufgefallen?


In UT2k3/4? Als UT2k3 rauskam hatte ich es schwer es in 1024 mit 2xAA/4xAF auf einer NV25 zu spielen. Die ONS maps legten noch groessere Aufforderungen auf in UT2k4, aber ich brauche trotzdem nicht in diesem Spiel jegliche Form von Supersampling.
Ja, niemand braucht mehr als 640kb.


Dann versuch mal maps wie Primeval oder andere ONS maps mit einer 1.5 GHz CPU und einer heutigen high end GPU zu spielen. Das Spiel ist alt und redundant. Hallo es ist schon Ende 2005 und ich warte schon auf UT2k7.
Dann müsst ja eigentlich wieder irgendwann GPU limitiert werden. Und das wollen wir ja. (oder hab ich dein Beispiel mißverstanden?)


Sicher die alle Wunder R300 von der mir so langsam die Ohren schon weh tun von der ganzen Trommelei darueber. Hatte R3xx GPUs und zwar 3 davon fast 2 Jahre und ich weiss genau wo sie lagen. Gleiche CPU bei beiden? Falls ja, dann spar mir die Antwort und ueberdenke es selber.
Was soll ich überdenken? Primeval mit 1280x1024 4xAA/4xbiAF brachte ca. 30fps auf meiner 9700p@400. Mit ner 6800GT @16HQxAF sinds genauso viel.


a) Weil Du es brauchst?
b) Weil Du sonst nichts von OGSS haelst?
oder
c) Weil es eben nett die Leistung in den Boden stampft ueberhaupt in den ONS maps dass Du auch ueber miserable Leistung meckern kannst?
Nö, ich hoffte halt, dass der 8xS Modus nutzbar ist. Mit Q+Opts is er das nämlich auch. Da erreich ich genauso 30fps wie mit 4x HQ.


700 euro teuro GPUs kommen normalerweise auch mit sauteuren Systemen; wenige schrauben 15" Bildschirme an solche Karten.
Eben deswegn sollte man 1920 und/oder 2048 auch hinzuziehen.


AF Fuellrate != Textur-Bandbreite.
Ich bezog mich nicht auf die höhere Bandbreite, sondern auf die hähere Speichermenge.

mapel110
2005-11-16, 16:44:58
Ich bezog mich nicht auf die höhere Bandbreite, sondern auf die höhere Speichermenge.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3680121&postcount=26
^^
Gilt auch für Tri/Brilinear.

Mr. Lolman
2005-11-16, 17:01:12
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3680121&postcount=26
^^
Gilt auch für Tri/Brilinear.
hab da meinen Senf dazugegeben. Außerdem hat Raff mit seiner 128MB Krte duchwegs höhere Einbrüch, al ich mit meiner 256MB Karte gemessen.Auch bei Serious Sam 2 ist, iirc derVerlust uaf HQ bei unkomprimierten Texturen höher, als bei komprimierten.

Blaire
2005-11-16, 17:42:35
http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_14.html

Interessant wie schlecht die X1800 Karten hier mit HDR abschneiden.

DrumDub
2005-11-16, 17:45:41
http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_14.html

Interessant wie schlecht die X1800 Karten hier mit HDR abschneiden. vielleicht auch mal den text lesen. :rolleyes:

Unfortunately, the patch is not very fast and doesn’t allow turning on FSAA. It is also unavailable to ordinary users as yet, so it’s too early to comment upon the results of the RADEON X1800 cards.

mapel110
2005-11-16, 17:56:52
vielleicht auch mal den text lesen. :rolleyes:
http://www.beyond3d.com/reviews/ati/r520/index.php?p=21
Die sehen das aber merkwürdigerweise anders. AA funkltioniert und auch die Performance dort ist nicht gerade das Gelbe vom Ei. Aber ist hier eh ein wenig Offtopic, oder?!

Quasar
2005-11-16, 18:02:45
[…]Primeval mit 1280x1024 4xAA/4xbiAF brachte ca. 30fps auf meiner 9700p@400. Mit ner 6800GT @16HQxAF sinds genauso viel.[…]
Das wievielfache der Füllrate wird hier verbraten? Und hatte die Radeon früher nicht auch sowas wie eine "Stage-Optimierung"?

Es klingt, als würdest du Äpfel mit Rosinenkernen vergleichen.

Quasar
2005-11-16, 18:09:16
http://www.beyond3d.com/reviews/ati/r520/index.php?p=21
Die sehen das aber merkwürdigerweise anders. AA funkltioniert und auch die Performance dort ist nicht gerade das Gelbe vom Ei. Aber ist hier eh ein wenig Offtopic, oder?!
Um HDR mit MSAA zu aktivieren ist eine bestimmte Befehlsreihenfolge nötig. Das hätte im Vorfeld vielleicht deutlicher kommuniziert werden sollen, dann wäre diese Verwirrung vermeidbar gewesen.

Ailuros
2005-11-16, 18:17:03
Was sind dir denn für zwielichtige Merkwürdigkeiten im ATi-Treiber aufgefallen?

Merkwuerdige Verbindungen zwischen generellen Optimierungen und Filterungs-Optimierungen als Beispiel.

Ja, niemand braucht mehr als 640kb.

Keine Ahnung was Du meinst.

Dann müsst ja eigentlich wieder irgendwann GPU limitiert werden. Und das wollen wir ja. (oder hab ich dein Beispiel mißverstanden?)

Die Spielbarkeit von UT2k3/4 haengt genauso stark von der GPU als auch von der CPU ab. Von einer maessigen CPU sollte man auch nicht viel erwarten.

Was soll ich überdenken? Primeval mit 1280x1024 4xAA/4xbiAF brachte ca. 30fps auf meiner 9700p@400. Mit ner 6800GT @16HQxAF sinds genauso viel.

30fps Durchschnitt mit single digit minimalen Frameraten sind nicht spielbar in meinem Buch als erstes und zweitens ist ein bodenloser Frevel wenn ich gerade von Dir Vergleiche zwischen bilinear und trilinear lesen muss. Den Bananen gegen Aepfel Vergleich schenke ich Dir und nein es ist nicht das Gleiche und auf der Radeon war garantiert die texturing stage Optimierung im Einsatz.

Ich hab aber immer noch keine Antwort auf meine Frage bekommen: gleiche CPU zwischen R300 und NV40?

Nö, ich hoffte halt, dass der 8xS Modus nutzbar ist. Mit Q+Opts is er das nämlich auch. Da erreich ich genauso 30fps wie mit 4x HQ.

Fuer Rennspiele mit beklopptem MIPmapping oder alpha tests hat 8xS schon seine Nutzbarkeit. Fuer UT eben nicht unbedingt.

Eben deswegn sollte man 1920 und/oder 2048 auch hinzuziehen.

Ich sehe keine hoehere 4:3 Aufloesung in UT2kX als 1600. Das merkwuerdig verzerrte Bild in 1920 ist mir nutzlos.

Ich bezog mich nicht auf die höhere Bandbreite, sondern auf die hähere Speichermenge.

Welche hoehere Speichermenge?

Uebrigens hier auch nochmal illustriert warum UT2k4 so langsam nutzlos ist in reviews:

http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_20.html

Ailuros
2005-11-16, 18:19:13
Das wievielfache der Füllrate wird hier verbraten? Und hatte die Radeon früher nicht auch sowas wie eine "Stage-Optimierung"?

Es klingt, als würdest du Äpfel mit Rosinenkernen vergleichen.

Wuerde ich solches Zeug wirklich ernst nehmen, wuerde mein Bluddruck durch die Decke schiessen :biggrin:

robbitop
2005-11-16, 18:25:03
Keine Ahnung was Du meinst.

Das war der konventionelle Speicher (EMS) der für DOS festgelegt worden ist. Damals meinte man "niemand braucht mehr als 640kiB Speicher". Soll wohl hier als Analogie angewendet werden.

Quasar
2005-11-16, 18:25:32
Das war der konventionelle Speicher (EMS) der für DOS festgelegt worden ist. Damals meinte man "niemand braucht mehr als 640kiB Speicher". Soll wohl hier als Analogie angewendet werden.
Man = Bill Gates. ;D

Mr. Lolman
2005-11-16, 18:36:02
Das wievielfache der Füllrate wird hier verbraten? Und hatte die Radeon früher nicht auch sowas wie eine "Stage-Optimierung"?

Es klingt, als würdest du Äpfel mit Rosinenkernen vergleichen.

Wie gesagt, das war noch mit dem Catalyst 4.9. Spätere Versionen brachten bekanntermassen bis zu mehr als 30%: http://www.3dcenter.org/artikel/catalyst_treibervergleich/

Ailuros
2005-11-16, 18:39:55
Das war der konventionelle Speicher (EMS) der für DOS festgelegt worden ist. Damals meinte man "niemand braucht mehr als 640kiB Speicher". Soll wohl hier als Analogie angewendet werden.

Ach jetzt viel der Groschen...

Wie gesagt, das war noch mit dem Catalyst 4.9. Spätere Versionen brachten bekanntermassen bis zu mehr als 30%: http://www.3dcenter.org/artikel/cat...eibervergleich/

Wie soll ich jetzt das verstehen? Dass die Stage-Optimierung erst ab 4.9 erschien in UT2kX?

Coda
2005-11-16, 18:43:06
Das war der konventionelle Speicher (EMS) der für DOS festgelegt worden ist. Damals meinte man "niemand braucht mehr als 640kiB Speicher". Soll wohl hier als Analogie angewendet werden.EMS ist kein konventioneller Speicher sondern Extended Memory Support, also genau das Gegenteil.

seahawk
2005-11-16, 18:55:12
Computerbase Testet ja so NV mit HQ und ATI mit AI Standard und die kommen auch zu einem recht eindeutigen Fazit pro NV was den Speed betrifft weisen aber immerhin noch darauf hin das der G70 nicht an den HQ AF modus der ATI Karte rankommt.

Wobei ATI da bei den zukunftsträchtigen Spielen FarCry und SS:2 klar vonrne liegt, wenn man in 1600x1200 und 4xAA/16xAF vergleicht.

seahawk
2005-11-16, 18:58:01
Wie gesagt, das war noch mit dem Catalyst 4.9. Spätere Versionen brachten bekanntermassen bis zu mehr als 30%: http://www.3dcenter.org/artikel/catalyst_treibervergleich/

Aber nicht bei der 9700pro.

Mr. Lolman
2005-11-16, 18:58:50
Aber nicht bei der 9700pro.

Doch.

dildo4u
2005-11-16, 18:59:21
Wobei ATI da bei den zukunftsträchtigen Spielen FarCry und SS:2 klar vonrne liegt, wenn man in 1600x1200 und 4xAA/16xAF vergleicht.
Vom Techlevel ist Age of Empires 3 oder Splinter Cell 3 meiner Meinung weiter und Fortschrittlicher siehe das Parallax/Displacement Mapping bei SC3.Und bei SS:2 ist die 7800 doch schneller http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_512/14/#abschnitt_serious_sam_2

Mr. Lolman
2005-11-16, 19:15:01
Merkwuerdige Verbindungen zwischen generellen Optimierungen und Filterungs-Optimierungen als Beispiel.
Ahh. Alles klar X-D


30fps Durchschnitt mit single digit minimalen Frameraten sind nicht spielbar in meinem Buch als erstes und zweitens ist ein bodenloser Frevel wenn ich gerade von Dir Vergleiche zwischen bilinear und trilinear lesen muss. Den Bananen gegen Aepfel Vergleich schenke ich Dir und nein es ist nicht das Gleiche und auf der Radeon war garantiert die texturing stage Optimierung im Einsatz.
Deswegen hab ichs zum spielen auf 35fps hochgetweakt. Und 35fps avg. Primeval reichen geradeso. Nochdazu wo bei den 30fps avg. die min fps


Ich hab aber immer noch keine Antwort auf meine Frage bekommen: gleiche CPU zwischen R300 und NV40?
Ja klar.


Fuer Rennspiele mit beklopptem MIPmapping oder alpha tests hat 8xS schon seine Nutzbarkeit. Fuer UT eben nicht unbedingt.
Bei so "beklopptem" Mipmapping wies GTL hat, würd nichtmal 16xSAA reichen.Bei UT hätt ich mich auch mit einerm höherem MSAA Level zufrieden gegeben. ;)


Ich sehe keine hoehere 4:3 Aufloesung in UT2kX als 1600. Das merkwuerdig verzerrte Bild in 1920 ist mir nutzlos.
iirc kann man in der ini höhere Auflösungen einstellen.


Welche hoehere Speichermenge?

Hoppla. Da hab ich mich vertan. Ich dachte irrigerweise, dass du COD2 auf einer 512MB GTX gebencht hast.

Wie soll ich jetzt das verstehen? Dass die Stage-Optimierung erst ab 4.9 erschien in UT2kX?
Nein. Die Stageoptimierung war nix anderes als biAF auf TS>0 und kam mit dem Catalyst 3.2. Bei 4xbiAF ist die jedoch völlig irrelevant. Die anderen Filteroptimierungen kamen erst mit dem Catalyst 4.10 und ironischerweise hat ATi im Ggs zu NV zumindest bei UT2004 das Kunststück vollbracht, die fps beim triAF auf quasi biAF Niveau zu heben ohne die BQ merkbar zu verschlechtern...

Quasar
2005-11-16, 19:15:59
Wie gesagt, das war noch mit dem Catalyst 4.9. Spätere Versionen brachten bekanntermassen bis zu mehr als 30%: http://www.3dcenter.org/artikel/catalyst_treibervergleich/
Bei gleicher Bildqualität? :)

edit:
Ah, nein, doch nicht:
[…]ironischerweise hat ATi im Ggs zu NV zumindest bei UT2004 das Kunststück vollbracht, die fps beim triAF auf quasi biAF Niveau zu heben ohne die BQ merkbar zu verschlechtern...
=)

edit2:
Nein. Die Stageoptimierung […] Bei 4xbiAF ist die jedoch völlig irrelevant.
Argh - my brain hurts. Natürlich...

Mr. Lolman
2005-11-16, 19:17:26
Bei gleicher Bildqualität? :)
Naja fast. (man kann sich ja die 3DC Videos ansehen...)

robbitop
2005-11-16, 19:26:56
EMS ist kein konventioneller Speicher sondern Extended Memory Support, also genau das Gegenteil.
Arrggh, stimmt. My bad. Ist schon etwas her. Expanded by the way. Extendet müsste schon XMS sein. ;)

Quasar
2005-11-16, 19:26:59
Naja fast. (man kann sich ja die 3DC Videos ansehen...)
Ich bin mir jetzt nicht sicher, wieviel von den JPG-Screenshots nun an der Komprimierung und wieviel am echten Bild unterschiedlich ist. Cat3.10 und 4.10 sehen aber deutlich unterschiedlich aus.

Welche Videos? Die aus dem UT-Tunnel aus diesem Jahr?

Mr. Lolman
2005-11-16, 19:36:20
Ich bin mir jetzt nicht sicher, wieviel von den JPG-Screenshots nun an der Komprimierung und wieviel am echten Bild unterschiedlich ist. Cat3.10 und 4.10 sehen aber deutlich unterschiedlich aus.

Naja einen Unterschied gibts schon, aber viel mehr kann man aus den Screenshots leider auch nicht rauslesen.

Welche Videos? Die aus dem UT-Tunnel aus diesem Jahr?

Jepp.

Quasar
2005-11-16, 19:37:12
Jepp.
Was sagen die in Bezug auf Unterschiede älterer zu neueren Catalyst-Treibern auf einer 9700 Pro aus?

Mr. Lolman
2005-11-16, 20:02:16
Was sagen die in Bezug auf Unterschiede älterer zu neueren Catalyst-Treibern auf einer 9700 Pro aus?

Dass, AI (zumindest auf der X800) nichtz für sichtbar schlechtere BQ sorgt. Und BQ Unterschiede zw R3x0 und 4x0 @AIoff sind mir eigentlich auch keine bekannt.

seahawk
2005-11-16, 20:04:13
Doch.

Ja, durch ein Verlsut an BQ. Ich hatte die 9700 lange genug und die Filterung wurde mit der Zeit schlechter.

Quasar
2005-11-16, 20:07:46
Dass, AI (zumindest auf der X800) nichtz für sichtbar schlechtere BQ sorgt. Und BQ Unterschiede zw R3x0 und 4x0 @AIoff sind mir eigentlich auch keine bekannt.
Dass AI@def. auf einer X800 in besagtem Tunnel-Level... usw. usf. sowie der zweite Schluss, dass es keine dir bekannten Unterschiede... usw. usf.

'Tschuldigung, aber das sind mir zu viele Variablen.

Mr. Lolman
2005-11-16, 20:10:40
Dass AI@def. auf einer X800 in besagtem Tunnel-Level... usw. usf. sowie der zweite Schluss, dass es keine dir bekannten Unterschiede... usw. usf.

'Tschuldigung, aber das sind mir zu viele Variablen.

Ja is ja außerdem eh schon wieder OT ;)

Ailuros
2005-11-16, 20:16:29
Deswegen hab ichs zum spielen auf 35fps hochgetweakt. Und 35fps avg. Primeval reichen geradeso. Nochdazu wo bei den 30fps avg. die min fps

Ja klar.

Uhmm und Du wunderst Dich immer noch warum Du keine radikalen Unterschiede in Leistung generell zwischen den beiden GPUs sehen kannst?

Bei so "beklopptem" Mipmapping wies GTL hat, würd nichtmal 16xSAA reichen.Bei UT hätt ich mich auch mit einerm höherem MSAA Level zufrieden gegeben. ;)

Nicht der einzige Fall; die engine die F1 2002 benutzt ist schlimmer.

iirc kann man in der ini höhere Auflösungen einstellen.

Hilft mir aber nichts fuer Tests ausser jemand schreibt ein Benchmark-Programm das solche Aufloesungen erlaubt.


Nein. Die Stageoptimierung war nix anderes als biAF auf TS>0 und kam mit dem Catalyst 3.2. Bei 4xbiAF ist die jedoch völlig irrelevant. Die anderen Filteroptimierungen kamen erst mit dem Catalyst 4.10 und ironischerweise hat ATi im Ggs zu NV zumindest bei UT2004 das Kunststück vollbracht, die fps beim triAF auf quasi biAF Niveau zu heben ohne die BQ merkbar zu verschlechtern...

Ja schon, nur kannst Du immer noch nicht bilinear gegen trilinear benchen. Ein Beispiel wo "brilinear" bzw. bilinear miserabel aussieht ist der Schiffsboden in "December"; trilinear sieht da eben so aus wie es aussehen sollte. Ein paar Ausnahmen reichen eben meistens aus die Nutzbarkeit eines modus zu vermindern; ich steig doch nicht in der Mitte einer online session aus um tri einzuschalten damit mir die Augen nicht ausfallen.

Mr. Lolman
2005-11-16, 20:25:40
Uhmm und Du wunderst Dich immer noch warum Du keine radikalen Unterschiede in Leistung generell zwischen den beiden GPUs sehen kannst?

Na, die 30fps gabs schon ungetweakt. ~28fps warens mit 8x Performance AF.
Und 35fps mit 8x Performance AF und Tweaks. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2257011#post2257011

Ailuros
2005-11-16, 20:26:08
Ja, durch ein Verlsut an BQ. Ich hatte die 9700 lange genug und die Filterung wurde mit der Zeit schlechter.

ATI's Optimierungen sind doch angeblich harmlos :rolleyes:

Ailuros
2005-11-16, 20:27:43
Na, die 30fps gabs schon ungetweakt. ~28fps warens mit 8x Performance AF.
Und 35fps mit 8x Performance AF und Tweaks. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2257011#post2257011


Entweder 16x trilinear AF ohne jegliche Optimierungen oder Du kannst den Vergleich mit NV4x HQ vergessen.

Mr. Lolman
2005-11-16, 20:33:02
Entweder 16x trilinear AF ohne jegliche Optimierungen oder Du kannst den Vergleich mit NV4x HQ vergessen.

Je eh. Dann war der Vergleichsparameter idF halt nicht der AF Modus, sondern, ganz nach HardOCP-"Vorbild", die fps. :rolleyes:

Raff
2005-11-16, 23:18:57
Ja, durch ein Verlsut an BQ. Ich hatte die 9700 lange genug und die Filterung wurde mit der Zeit schlechter.

Wo? Ich lese das andauernd, aber meine 9800 Pro sieht immer gleich (gut) aus. Eigenartig. Wo hast du das festgestellt? Mich treibt es, das am WE noch einmal aufzurollen. Catalyst 3.10 gegen 5.10?

Atis Optimierungen sind im Allgemeinen deutlich positiver zu bewerten als Nvidias. IMHO sind sie der Inbegriff dessen, was eine "Optimierung" tun sollte: Mehr Leistung bei gleichbleibender Qualität. Wobei letztere bei den alten Atis eben "dank" Winkelabhängigkeit nie optimal ist. Aber sie wird eben nicht noch weiter versaut.

Btw: Topic? Hmm ...

MfG,
Raff

pXe
2005-11-16, 23:24:46
Weiss jemand ob die Fear Benchmarks bei Computerbase mit oder ohne Softshadows an sind?
Bei Anandtech sind sie, was ich da raus lese, ausgeschaltet und die kommen auf annährend (+-10%) die gleichen Benchmark Ergebnisse.
Schon erschreckend, selbst ein GTX512er Gespann kommt auf 50fps, wenn dann noch die Softshadows eingeschaltet sind, vielleicht noch auf 40, oder noch weniger?

pXe

seahawk
2005-11-17, 08:37:45
Wo? Ich lese das andauernd, aber meine 9800 Pro sieht immer gleich (gut) aus. Eigenartig. Wo hast du das festgestellt? Mich treibt es, das am WE noch einmal aufzurollen. Catalyst 3.10 gegen 5.10?

Atis Optimierungen sind im Allgemeinen deutlich positiver zu bewerten als Nvidias. IMHO sind sie der Inbegriff dessen, was eine "Optimierung" tun sollte: Mehr Leistung bei gleichbleibender Qualität. Wobei letztere bei den alten Atis eben "dank" Winkelabhängigkeit nie optimal ist. Aber sie wird eben nicht noch weiter versaut.

Btw: Topic? Hmm ...

MfG,
Raff

So ist es mir auch aufgefallen. Ich hatte meine 9700pro ja verkauft und als wir das System des Käufers aufgestzt haben, ging kurzfrsitg das Internet nicht. Wir haben dann erstmal den 3.x von der Original CD installiert. Danach wollte er gliech ma UT2004 testen. Nach 2-3 Stunden ging das Inet wieder und wir haben den 5.10 draufgemacht. Die Übergänge beim bi-AF sind härter geworden. Das ganze Bild wirkt in der Tiefe unschärfer. Mir ist das nie so aufgefallen. Kein großer Unterschied, aber imho im direkten Vergleich sichtbar.

Imho genauso groß wie der Unterschied in der Flimmeranfälligkeit zwischen der 9700pro und der 7800GT in HQ.

Raff
2005-11-17, 08:45:40
Jetzt hast du mich so weit. Ich werde mir das noch einmal ansehen. Screenies und Videos inklusive. =) Nun aber bitte wieder Topic.

MfG,
Raff

dildo4u
2005-11-18, 18:39:50
XbitLabs Review.

http://www.xbitlabs.com/articles/video/display/geforce7800gtx512.html

Ailuros
2005-11-18, 23:45:23
Je eh. Dann war der Vergleichsparameter idF halt nicht der AF Modus, sondern, ganz nach HardOCP-"Vorbild", die fps. :rolleyes:

Oder anders interpretiert man verdreht Resultate wie sie gerade erst passen. Gehen wir mal auf SS2 zurueck da ich etwas mehr Zeit habe:

1600*1200
4xAA/16xAF
"quality"
negative LOD bias: clamp
transparency multisampling
D3D

a.) default "quality" (aniso MIP optimisations off, brilinear und das andere Dingsda eingeschaltet):

http://users.otenet.gr/~ailuros/optimised.jpg

Die bekannte MIPmap vor dem Spieler flimmert wie erwartet und die Leistung ist natuerlich hoch genug.

b.) "quality" aber nur mit "brilinear" eingeschaltet alle andere Optimierungen aus:

http://users.otenet.gr/~ailuros/brilinear.jpg

Hier flimmert die besagte MIPmap erstmal nicht und der Leistungsverlust ist wie gross genau?

Ailuros
2005-11-18, 23:50:48
Atis Optimierungen sind im Allgemeinen deutlich positiver zu bewerten als Nvidias. IMHO sind sie der Inbegriff dessen, was eine "Optimierung" tun sollte: Mehr Leistung bei gleichbleibender Qualität. Wobei letztere bei den alten Atis eben "dank" Winkelabhängigkeit nie optimal ist. Aber sie wird eben nicht noch weiter versaut.



NV40:

http://www.mitrax.de/artikel/gf6800/shots/Ds1.jpg

R300:

http://www.mitrax.de/artikel/gf6800/shots/Ds2.jpg

mapel110
2005-11-18, 23:51:34
b.) "quality" aber nur mit "brilinear" eingeschaltet alle andere Optimierungen aus:

http://users.otenet.gr/~ailuros/brilinear.jpg

Hier flimmert die besagte MIPmap erstmal nicht und der Leistungsverlust ist wie gross genau?
Kann ich für mich bestätigen, Ich hab seit einiger Zeit Tri Opt an, weil ich die wirklich nicht sehe. Weder unter Opengl noch unter D3D.

Die Sample Opt sieht man hingegen fast immer.

Coda
2005-11-18, 23:59:08
NV40:

http://www.mitrax.de/artikel/gf6800/shots/Ds1.jpg

R300:

http://www.mitrax.de/artikel/gf6800/shots/Ds2.jpgDas ist ein defered-rendering demo. Ich vermute da stimmt irgendwas mit der Präzision der Rendertargets nicht oder FP24 reicht da nicht. Der Texturfilter kann nämlich die Fehler um die Lampen rum nicht verursachen.

Mr. Lolman
2005-11-19, 00:05:45
Oder anders interpretiert man verdreht Resultate wie sie gerade erst passen. Gehen wir mal auf SS2 zurueck da ich etwas mehr Zeit habe:


Aha, jetzt ist Quality plötzlich doch wieder ok?. Gut ich nutz es auch (+Tri Opt. ), aber nur weil die fps für HQ nicht reichen.

Mr. Lolman
2005-11-19, 00:28:25
NV40:

http://www.mitrax.de/artikel/gf6800/shots/Ds1.jpg

R300:

http://www.mitrax.de/artikel/gf6800/shots/Ds2.jpg

Schön platzsparend komprimiert :ulol:

R300 (64MB Radeon 9500 @Pro @345/290, Catalyst 5.9, XP1.66GHz@133FSB):
http://img506.imageshack.us/img506/3295/r3003455rc.jpg

NV40 (256MB Geforce 6800GT @430/575, FW 81.85, XP2.4GHz@200FSB):
http://img506.imageshack.us/img506/7088/nv404305dz.jpg