PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum ist die 6600GT schneller als die 9800pro?


Seiten : [1] 2 3

Piffan
2005-02-02, 18:22:43
Moin!
Die Frage steht oben. Eigentlich hätte ich eher auf Gleichstand oder leichten Vorteil für die Radeon getippt. Beide Karten haben 8 Pipelines. Die Radeon taktet langsamer, hat dafür aber ein 256bit breites Speicherinterface.

Ist der Speichercontroller der 6600er- Serie von NV so gut, dass er den Bandbreitenvorteil der 9800 überspielt?

hmx
2005-02-02, 18:52:30
Die 6600gt hat ja immerhin 500MHz RAM-Takt gegenüber nur 340MHz bei der 9800pro. Wie ist eigendlich der Speichercontroller unterteilt? Beide vierfach? Wenn ja dann arbeitet der Controller der 6600er wohl etwas effizienter, denn bei einer puren verbreiterung des Busses gibt es ja mehr Verschnitt. Und dann kommt halt insbesondere bei AF der doch deutlich höhere Chiptakt der 6600gt zu gute.

G@st
2005-02-02, 19:58:34
Der NV43GT hat 32% mehr Füllrate als ein R350/Pro. Gleichzeitig ist seine Speicherbandbreite nur um 27% kleiner als die der Radeon. Dann kommt noch die architektonische Überlegenheit des GeForce-6 Cores ggü. dem Radeon-3 zum tragen. Noch Fragen?

RLZ
2005-02-02, 20:13:00
Der NV43GT hat 32% mehr Füllrate als ein R350/Pro. Gleichzeitig ist seine Speicherbandbreite nur um 27% kleiner als die der Radeon. Dann kommt noch die architektonische Überlegenheit des GeForce-6 Cores ggü. dem Radeon-3 zum tragen. Noch Fragen?
Prozentrechnen will gelernt sein. :rolleyes:
Wenn die Speicherbandbreite um 27% kleiner ist heisst das auch, dass die 9800pro 36% mehr Bandbreite als die 6600GT hat.
Dann stehen die 32% gegen die 36%.
Rein von den Zahlenwerten kann ich mirs auch nicht erklären warum die 6600GT soviel schneller ist.
Mögliche Begründungen fallen mir da ein paar ein, aber vielleicht kann ja jemand wie Aths was genaueres drüber sagen.

q@h
2005-02-02, 20:51:00
Stellt die 6600GT auf "High Quality" (wenn es denn funktioniert) und vorbei ist die Überlegenheit.

Die R9800p filtert zumindest auf TS0 immer trilinear, wenn das so gewollt ist - die 6600GT dagegen hat in der Treiber-Defaulteinstellung die reduziert-trilineare Filterung aktiviert.

Dazu kommen die o.g. Punkte.

G@st
2005-02-02, 21:15:56
Prozentrechnen will gelernt sein. :rolleyes: Manche müssen auch lernen, Postings von Gästen gleich ernst zu nehmen, als wenn sie von registrierten Nutzern kommen würden (ich bin auch registriert, will mich aber momentan nicht dem Druck aussetzen, auf Antworten wieder Replies geben zu müssen). Wenn die Speicherbandbreite um 27% kleiner ist heisst das auch, dass die 9800pro 36% mehr Bandbreite als die 6600GT hat.
Dann stehen die 32% gegen die 36%. OK, du kannst Prozentrechnung. Ich auch, warum sprichst du sie mir ab? Nur weil ich das Verhältnis umgekehrt habe und bei der Speicherbandbreite auch von der Radeon als Ausgangspunkt ausgehe? Naja...

Jedenfalls: es ist keinesfalls gesagt, dass (theoretische!) Speicherbandbreite in gleichem Maße zur Leistung einer Graka beiträgt wie Füllrate. Bei Füllrate ist dies jedoch unumstritten, da die Pixel ja auch mal auf den Bildschirm kommen müssen. Speicherbandbreite ist jedoch nur ein notwendiges Übel, da man nunmal nicht alle Daten im Cache der GPU halten kann, ohne die GPU unwirtschaftlich zu machen.

Ergo: Auch wenn der NV43GT in ca. gleichem Maße weniger theoretische Speicherbandbreite wie er mehr Füllrate ggü. einer R350/Pro hat, heisst das noch lange nicht, dass der NV43GT gleich performen muss und nicht schneller sein kann. Es kommt nämlich auf die Anforderungen in der Praxis an, inwiefern die Speicherbandbreite limitiert oder auch nicht.

Aber das weisst du sicher. Schade, dass Gäste häufig immer unter der Annahme der Dummheit betrachtet werden.

So long...

RLZ
2005-02-02, 21:39:50
OK, du kannst Prozentrechnung. Ich auch, warum sprichst du sie mir ab? Nur weil ich das Verhältnis umgekehrt habe und bei der Speicherbandbreite auch von der Radeon als Ausgangspunkt ausgehe? Naja...
Jup genau deswegen.
Man kann nicht das Verhältnis umdrehen und die Zahlen vergleichen.
Ist zwar immer ein schöner Gag von Marketingleuten, aber halt vollkommen falsch.

Jedenfalls: es ist keinesfalls gesagt, dass (theoretische!) Speicherbandbreite in gleichem Maße zur Leistung einer Graka beiträgt wie Füllrate. Bei Füllrate ist dies jedoch unumstritten, da die Pixel ja auch mal auf den Bildschirm kommen müssen. Speicherbandbreite ist jedoch nur ein notwendiges Übel, da man nunmal nicht alle Daten im Cache der GPU halten kann, ohne die GPU unwirtschaftlich zu machen.

Ergo: Auch wenn der NV43GT in ca. gleichem Maße weniger theoretische Speicherbandbreite wie er mehr Füllrate ggü. einer R350/Pro hat, heisst das noch lange nicht, dass der NV43GT gleich performen muss und nicht schneller sein kann. Es kommt nämlich auf die Anforderungen in der Praxis an, inwiefern die Speicherbandbreite limitiert oder auch nicht.
Wenn die Speicherbandbreite limitiert hilft einem halt auch die Füllrate nicht weiter. Dementsprechend hängt die Gesamtleistung genausoviel von der Bandbreite wie von der Füllrate ab. Und die 6600GT verliert eben in den speicherlimierten Fällen nicht so stark wie sie den Zahlen nach sollte. Warum dies so ist kann viele Gründe haben.
Und um diese Gründe zu finden wurde wohl der Thread hier erstellt.

Aber das weisst du sicher. Schade, dass Gäste häufig immer unter der Annahme der Dummheit betrachtet werden.
Vielleicht ists auch nur die Paranoia von manchen Gästen und ausgelogten Regs?

InsaneDruid
2005-02-02, 21:55:06
Also in Il2 isses laut Aussagen von 6600GT Besitzern so, das im Vergleich zu einer 9700 die Max fps leicht drüber liegen, die min pfs aber stärker wegbrechen.

Bei weniger Bandbreiten limitierten Games lag die 6600GT etwas vorne.

Lolman
2005-02-02, 22:09:57
Stellt die 6600GT auf "High Quality" (wenn es denn funktioniert) und vorbei ist die Überlegenheit.

Die R9800p filtert zumindest auf TS0 immer trilinear, wenn das so gewollt ist - die 6600GT dagegen hat in der Treiber-Defaulteinstellung die reduziert-trilineare Filterung aktiviert.

Dazu kommen die o.g. Punkte.

Die 9800XT dürft hingegen Filteroptimierunge beherrschen. Sie ist beim letzten 3d Digest von Digit-Life teilweise [ur=http://www.forum-3dcenter.de/vbulletin/showthread.php?t=173078&page=2]>50% schneller[/url] [#36] als ne 256MB 9800pro (bei nichtmal 9% höheren Takt).

G@st
2005-02-02, 22:14:45
Jup genau deswegen.
Man kann nicht das Verhältnis umdrehen und die Zahlen vergleichen.
Ist zwar immer ein schöner Gag von Marketingleuten, aber halt vollkommen falsch. Gag? Meine "Rechnung" ging beide Male von der Radeon als Norm aus. Überleg' mal, wem du hier was vorwerfen solltest.

Ich erinnere dich an der Stelle auch mal an das Thema: "Warum ist die 6600GT schneller als die 9800pro?" Auch wenn es Haarspalterei ist, da steht nicht "warum ist die R9800P langsamer als die GF6600GT?", sondern eben, warum sie oftmals schneller ist. Also ist die Radeon die Norm, und nicht die GeForce. Wieso das was mit falsch verstandener Prozentrechnung zu tun haben soll bleibt mir immer noch verschlossen. Wenn die Speicherbandbreite limitiert hilft einem halt auch die Füllrate nicht weiter. Dementsprechend hängt die Gesamtleistung genausoviel von der Bandbreite wie von der Füllrate ab. Nicht genau so viel. Belege diese Aussage bitte mal, warum das Verhältnis gleich sein sollte. Das halte ich für ein Gerücht. Vielleicht ists auch nur die Paranoia von manchen Gästen und ausgelogten Regs? Wie man in den Wald hineinruft, so schallt es wieder heraus.

aths
2005-02-02, 22:26:59
Moin!
Die Frage steht oben. Eigentlich hätte ich eher auf Gleichstand oder leichten Vorteil für die Radeon getippt. Beide Karten haben 8 Pipelines. Die Radeon taktet langsamer, hat dafür aber ein 256bit breites Speicherinterface.

Ist der Speichercontroller der 6600er- Serie von NV so gut, dass er den Bandbreitenvorteil der 9800 überspielt?Der Speichercontroller ist immerhin gut genug, dass die 6600 GT auch eine 5900 XT übel abzieht. Dazu gehört sicher auch der größere Texturcache der 6600.

Die ROPs der 6600 sind etwas rätelhaft: Pro Takt maximal 4 Pixel, mit Alphablending sogar nur 2 (!) aber die Alphablending-Rate bleibt auch bei aktiviertem MSAA (beinahe) erhalten. Und mögliche 8 Z-Tests pro Takt sorgen dafür, dass der Pixeloutput bei 4x MSAA nicht wie ich erst dachte auf 1 Pixel senkt, sondern dass noch 2 möglich sind.

Die 6600 arbeitet Pixelshader schneller ab. Da zählt aber wohl auch der Taktvorteil rein. Bei 4x AA, wenn Bandbreite knapp wird, gewinnt die 9800 Pro bei "leichten" Pixelshadertests, hat bei langen Shadern (wo die Bandbreite kaum noch zählt) aber das Nachsehen.

edit: Ich poste gleich mal einige Füllratenvergleiche.

5900 XT 9800 9800 Pro 6600 GT

Zixel 3000 2300 2500 3800
1 Tex 1500 2200 2900 1800
2 Tex 1400 1200 1500 1600
3 Tex 570 690 1000 1100
4 Tex 400 560 750 900

PS 1.1 800 1300 1500 2000
PS 1.4 750 1300 1500 2000
PS 2.0 500 1300 1500 2000
PS 2.0PP 750 1300 1500 2000
PS 2.0 180 640 750 1000
PS 2.0PP 370 640 750 1000
PS 2.0 180 640 750 1000
PS 2.0PP 500 640 750 1000
PS 2.0 80 180 220 300
PS 2.0PP 110 180 220 450

Hier 4x AA:

5900 XT 9800 9800 Pro 6600 GT

Zixel 2700 1200 1400 1000
1 Tex 1100 1300 1400 1000
2 Tex 1100 1000 1200 1000
3 Tex 550 600 830 990
4 Tex 400 500 670 800

PS 1.1 800 1250 1400 1000
PS 1.4 750 1250 1400 1000
PS 2.0 500 1250 1400 1000
PS 2.0PP 750 1250 1400 1000
PS 2.0 180 640 730 820
PS 2.0PP 370 640 730 820
PS 2.0 180 640 730 820
PS 2.0PP 500 640 730 820
PS 2.0 80 180 210 270
PS 2.0PP 110 180 210 410

RLZ
2005-02-02, 22:47:34
Gag? Meine "Rechnung" ging beide Male von der Radeon als Norm aus. Überleg' mal, wem du hier was vorwerfen solltest.
Dir dein mathematisches Unwissen. :biggrin:
Nicht genau so viel. Belege diese Aussage bitte mal, warum das Verhältnis gleich sein sollte. Das halte ich für ein Gerücht.
Wenn ausschliesslich die Bandbreite limitiert kriege ich durch durch doppelte Bandbreite auch den doppelten Durchsatz hin. Genauso bei der Füllrate.
Es kann nur das verarbeitet werden was an Daten auch geliefert werden kann.
Es bringt aber genausowenig Daten schneller verarbeiten zu können als die reinkommen.
Es ist wie ein Fliessband.
Immer das langsamste Glied bestimmt die Leistung und die Gesamtleistung wird immer solange in dem Maße steigen wie die Leistung des langsamsten Gliedes zunimmt, bis eine andere Stelle der Flaschenhals ist.

Wie man in den Wald hineinruft, so schallt es wieder heraus.
Wenigstens hätte ich einem Reg das hier als PM schicken können anstatt den Thread zuzumüllen.
EOD

@aths
Kann es nicht sein, dass durch die wesentlich verbesserte Kompression und den geringeren Verschnitt beim 128 Bit Interface der Bandbreitennachteil in der Praxis fast aufgeholt wird?

robbitop
2005-02-02, 22:57:43
@aths
Kann es nicht sein, dass durch die wesentlich verbesserte Kompression und den geringeren Verschnitt beim 128 Bit Interface der Bandbreitennachteil in der Praxis fast aufgeholt wird?

Verschnitt? Pro Pixel braucht man 32 Bit Farbe und 24 Bit Tiefenwert lesen oder schreiben.Z könnte auf 1/4 komprimiert werden aber selbst dann ist man noch >64 Bit pro Takt pro Pixel. Da der Speichercontroller vom R350 in 4x64 Bit gegliedert ist sehe ich da kein Problem. Besonders in der Praxis nicht. Oder wo liegt mein Denkfehler?

Verbesserte Kompression? Z und Farbkompression sind beide verlustlos. Könnte man dort tatsächlich signifikant etwas verbessern?

Ich merke in der Praxis immer wieder dass <4xMS die Bandbreite oft nicht der Flaschenhals ist. Besonders wenn AF aktiv ist, sollte die überlegene Füllrate des NV43 zum Tragen kommen. Ansonsten ist der Pixelshaderteil natürlich deutlich überlegen dank dem Mehrtakt und der rechenstärkeren Pipelines.

aths
2005-02-02, 22:59:05
@aths
Kann es nicht sein, dass durch die wesentlich verbesserte Kompression und den geringeren Verschnitt beim 128 Bit Interface der Bandbreitennachteil in der Praxis fast aufgeholt wird?Siehe die Füllraten-Werte, die mit Absicht gerundet sind.


Die 6600 GT hat ein 2x unterteiltes Interface, also 64 Bit DDR pro Kanal, also 128 Bit pro Kanal und Takt. Wie die 5900 XT, nur dass die 5900 gleich vier Kanäle hat. Wie es bei der 9800 aussieht weiß ich jetzt nicht.

Was Pixelshader angeht verliert die 5900 Leistung, je höher die Version ist. Die 9800 (Pro) ist da bei der PS-Leistung viel stabiler, wird aber von der 6600 GT klar abgezogen. Dabei kommt die 6600 jedoch kaum über ihren Taktvorteil hinaus.

Interesssant ist die Z-Leistung, wo die 6600 GT klar vorne liegt, aber auch die 5900 XT übertrifft die 9800 Pro. Die Radeon trumpft dafür bei Single und Double Texturing auf. Ab Triple Texturing liegt dann die 6600 GT vorne.

Das Bild ändert sich bei 4x AA. Die 6600 GT hat bei 4x Multisampling deutlich weniger Z-Leistung als die 9800 Pro, so dass nun die 5900 vorne liegt :uclap:. Bei allen Karten leidet die Texturleistung, ab Triple Texturing liegt die 6600 GT wieder vor der 9800 Pro, bis Dual Texturing jedoch hinter ihr.

Die 5900 lässt sich beim Pixelshading von 4x AA kein bisschen beeinflussen: Die Leistung bleibt gleich (und ist nach wie vor von allen Karten die schlechteste, PS-mäßig.) Die 9800 verliert nur wenig, die 6600 GT verliert bei den einfachen Shadern deutlich (aber erst bei 4x AA, 2x gibts ohne Füllraten-Verlust.) Trotzdem: Bei langen, komplexen Shadern kann sich die 6600 GT vor der 9800 Pro behaupten.

Anders gesagt: Je aufwändiger das Spiel (mehr Texturen, längere Shader) desto besser für die 6600 GT. Bei alten Spielen kann die 9800, gerade beim Antialiasing, ihre Muskeln spielen lassen. Denn sie hat eben deutlich mehr Bandbreite. Doch sofern die Bandbreiten-Forderungen sinken gewinnt die 6600 GT – dank ihrem Chiptakt.

Btw, fließen bitte mit ß schreiben :)

MarcWessels
2005-02-03, 10:28:03
Gag? Meine "Rechnung" ging beide Male von der Radeon als Norm aus. Überleg' mal, wem du hier was vorwerfen solltest.

;D ;D ;D

Tigerchen
2005-02-03, 14:37:46
Die 6600gt hat ja immerhin 500MHz RAM-Takt gegenüber nur 340MHz bei der 9800pro. Wie ist eigendlich der Speichercontroller unterteilt? Beide vierfach? Wenn ja dann arbeitet der Controller der 6600er wohl etwas effizienter, denn bei einer puren verbreiterung des Busses gibt es ja mehr Verschnitt. Und dann kommt halt insbesondere bei AF der doch deutlich höhere Chiptakt der 6600gt zu gute.

Möchte anmerken daß die 340 vs. 500 Mhz herzlich wenig aussagen. Diese hohen Taktraten haben weiland dem nV30 recht wenig geholfen und er konnte nur hauchdünn und mit Hilfe des FönFX die Lufthoheit gegenüber der R300 erringen. Aber wie aths schon ausführte hat sich die Welt weitergedreht und nVidia hat bei der nV4x Serie jede Menge Massnahmen ergriffen die der 6600GT zur Krone im 200,-€ Segment verhelfen.

r3ptil3
2005-02-03, 15:25:29
interessanter finde ich eher wiso ist die 6600 GT meistens schneller als die X700 Pro , immerhin hat die Pro 6 vertex shader und die 6600 GT nur 3 vertex shader und trotzdem ist sie schneller!

InsaneDruid
2005-02-03, 15:31:48
Weil Vertexshaderleistung nicht der limitierende Faktor ist?

wuzetti
2005-02-03, 15:34:37
interessanter finde ich eher wiso ist die 6600 GT meistens schneller als die X700 Pro , immerhin hat die Pro 6 vertex shader und die 6600 GT nur 3 vertex shader und trotzdem ist sie schneller!

in aktuellen spielen sind vertexshader eher weniger beansprucht, ausser im Murks05. ;D
höhere rechenleistung durch besseres ALU design der pixelshader, höhere füllrate durch mehr takt und was weiss ich was noch werden wohl den ausschlag für die 6600GT geben.

Piffan
2005-02-03, 22:59:43
Dank aths Ausführungen, die auch gut belegt sind, erscheint mir der "Sieg" der 6600 plausibel......

Als ich Tabellen in der PcGames las, runzelte ich die Stirn angesichts des Vorsprungs der NV- Karten in der Preisleistungs- Klasse. Ein Bekannter von mir fragte mich kürzlich, was für ne Karte er in den Rechner seines Sohnes stecken sollte. Da unterhielten wir uns auch über die 6600 versus 9800. So riet ich ihm im Falle eines Neukaufes dann eher zur 6600, bei günstiger Gebrauchtware zur 9800pro. Also sooo schlecht war der Rat nun auch nicht. Er hat sich ne 6600er geholt, die aber in seinem System rumzickt...evtl. schwaches Netzteil......

Ich hoffe mal, dass sich unter den Gamerns rumspricht, dass die neue NV- Generation durchaus gut ist. Konkurrenz ist immer gut und sollte die Preise sinken lassen. Für meinen Geschmack sind die Ati- Karten etwas zu teuer, bis zu 600 € sind eindeutig zu happig angesichts der Mängel wie fehlendes Supersampling, keine Stereo- Treiber und fehlendem SM3- Support.....

Imho sitzt Ati auf einem zu hohen Ross, in dem man die Wünsche nach Supersampling stur ignoriert.....

Spasstiger
2005-02-03, 23:22:28
Ich hoffe mal, dass sich unter den Gamerns rumspricht, dass die neue NV- Generation durchaus gut ist.

Ich würde mal behaupten, dass sich das durchaus rumgesprochen hat und dass von Gamern generell eher Nvidia-Karten kaufen. Zumindest dürfte die GeForce 6 Reihe aktuell einen höheren Absatz erfahren als die Radeon 9800/X700/X800/X850-Reihen. Man muss auch bedenken, dass ATI im Mittelklassesegment für AGP nur die 9800er-Reihe zu bieten hat, die aber kein optimales Preis-Leistungsverhältnis mehr aufweist (gegenüber der GeForce 6600 GT).

Mal was anderes zum Topic:
Ich hatte mal Gelegenheit, die GeForce 6610 XL aus dem letzten Aldi-PC zu testen. Die Karte taktet mit 400/400. Soweit ich mich erinnere, hatten wir den Forceware 66.93 installiert (bin mir aber nicht sicher, ob nicht doch noch der Original-Treiber von Medion drauf war).
In 3DMark05 im Standardmodus konnte der Rechner meine auf 9700-Pro-Chiptakt übertaktete Radeon 9700 Non-Pro erwartungsgemäß schlagen (Radeon 9700: knapp 2000 Punkte, GeForce 6610 XL: rund 2350 Punkte).
Dann hab ich auf beiden Rechnern 4xAA und 16:1 AF aktiviert und nochmal laufen lassen. Die GeForce 6610 XL kam nur noch auf rund 950 Punkte, während meine Radeon 9700 noch 1150 Punkte auf die Reihe brachte.

Im Standardmodus war die GeForce 6610 XL also etwa 18% schneller, im Qualitätsmodus war dagegen die Radeon 9700 um 21% schneller.
Die Performance der GeForce 6610 XL sank im Qualitätsmodus um 60%, bei der Radeon 9700 sank die Performance nur um 43%.
Hier macht sich dann doch die geringere Speicherbandbreite der GeForce 6610 XL bemerkbar (Radeon 9700: 277 MHz * 2 * 256 Bit = 17,7 GByte/s, GeForce 6610 XL: 400 MHz * 2 * 128 Bit = 12,8 GByte/s).

P.S.: Meine Radeon 9700 hatte nen P4 2,53 GHz zur Seite, die GeForce dagegen einen P4 3,4 GHz. Einen kleinen Einfluss auf das Ergebniss sollte das doch auch gehabt haben.

aths
2005-02-04, 01:36:21
Dank aths Ausführungen, die auch gut belegt sind, erscheint mir der "Sieg" der 6600 plausibel......Wieso hast du das Wort "Sieg" in Anführungszeichen gesetzt?

Imho sitzt Ati auf einem zu hohen Ross, in dem man die Wünsche nach Supersampling stur ignoriert.....Supersampling hin, Supersampling her. Das ist zwar für mich ein Grund, der pro GeForce zählt, dafür hat der Konkurrent X700 das gute 6x sparsed Multisampling. Das mit dem hohen Ross sehe ich allerdings ähnlich. Die X700 ist imo sehr gut: Für die Mittelklasse noch ausreichende Shader-Technik, viel Rohpower. Doch das bessere ist des guten Feind. Dass die 6600 in Benches auch mal vor einer 9800 XT liegt, und sich im Regelfall vor der X700 Pro platziert, sehe ich nicht so kritisch, da der Geschwindigkeitsvorteil zwar vorhanden, aber nicht überwältigend ist.

Allerdings fährt man featuremäßig mit der 6600 besser. Falls man es je braucht, hat man SM3. Und die HDPR-Einheiten. 3Dc-Support kann der Treiber immerhin emulieren. Gerade Midrange-Karten bleiben oft länger im PC als Highend-Produkte. Warum also noch Technik anno 2002 kaufen, wenn es zum vergleichbaren Preis und bei ähnlicher Rohleistung auch Technik anno 2004 gibt? Ich wüsste da nur einen Grund: Das Vorhandensein von 256-MiB-Modellen. Nachteil: Die X700 gibts nur für PCIe. (Sonst hätte ich eine Radeon X700 gekauft.)

Ich hoffe dass sich ATI hier nicht die Butter vom Brot nehmen lässt und bei der R5xx-Serie schnell mit erschwinglichen Mittelklasse-Chips kommt. Immerhin könnten sie schon jetzt versuchen, im AGP-Markt mit entsprechenden Modellen zu kontern, aber nein, angeblich wollen ja alle Kunden nur noch PCIe-Karten. Hier hat sich Nvidias frühzeitige Entwicklung vom HSI-Chip für NV ausgezahlt. ATI saß offenbar auf einem zu hohen Ross und wollte sich nur auf PCIe konzentrieren.

Mr. Lolman
2005-02-04, 08:51:44
Wieso hast du das Wort "Sieg" in Anführungszeichen gesetzt?


Weil er unter bestimmten Vorraussetzungen (z.B. keine aktiven Filteroptimierungen, AA/AF) nicht mehr so eindeutig ist. (mal abgesehen von D³ und Riddick)

/edit: Ja das HDR ist bei FC ziemlich nett zum herumspielen. Wenns nicht gar so langsam wär, 1280 ist auf meiner OCten NV40 imo gerade noch ok. Obwohls den meisten wahrscheinlich zu lahm wär. Ob da ne 6600GT noch soviel reisst, wag ich zu bezweifeln

BTW: Gibts schon irgendeine Anwendung, die mir als NV40 Besitzer den Nutzen von SM3 verdeutlicht?

Coda
2005-02-04, 09:00:36
Ja das HDR ist bei FC ziemlich nett zum herumspielen. Wenns nicht gar so langsam wärWie oft wurde jetzt schon erwähnt, dass das kein guter Indikator für die FP Performance von NV40 ist?

Mr. Lolman
2005-02-04, 09:05:36
Wie oft wurde jetzt schon erwähnt, dass das kein guter Indikator für die FP Performance von NV40 ist?

Oft genug. Ich wart halt auf was, was ein guter Indikator ist. Sonst ist die Karte veraltet, bevors Spiele mit guter HDR/SM3.0 Implementierung gibt.

Coda
2005-02-04, 09:07:49
Nunja, bevor R5xx rauskommt dürfte es damit ziemlich schlecht aussehen, aber dafür kann nVidia ja nix.

iam.cool
2005-02-04, 09:13:54
Wie oft wurde jetzt schon erwähnt, dass das kein guter Indikator für die FP Performance von NV40 ist?


Das hat man von Shadermark damals bei den FX Karten auch gesagt im bezug auf Shaderperformance, als dann mit Far Cry das erste echte DX9 game mit vielen Sdadern kam hat man dann gesehen wie tauglich die Shader der FX Karten wirklich für DX9 waren.


Bei den neuen NV Karten wirds nicht besser aussehen wenn die ersten Games kommen die massive PS 3.0 shader und efekte einsetzen.

Mr. Lolman
2005-02-04, 09:21:55
Nunja, bevor R5xx rauskommt dürfte es damit ziemlich schlecht aussehen, aber dafür kann nVidia ja nix.

Geh, das ist den Spieleentwicklern doch wurscht, ob nur das Topmodell eines IHVs HDR/SM3.0 beherrscht oder nicht. Farcry hat SM3.0 unterstürtzung, Riddick auch, und Painkiller:BooH auch. Nur bringts im Vergleich zum R420 nix.

Fallbacks für andere schwächere Karten braucht man immer. Riddick nutzt ja auch SM3.0 für Softshadows auf NV40 Karten (Das ist zwar irgendwie auch sh1ce lahmm, aber dafür gibts ja auch sicher einen plausiblen Grund), die auf anderen GraKa garnicht dargestellt werden können (mit der verwendeten Methode) Imo macht man es sich ein bisschen einfach, wenn man die Schuld auf ATi und der SM3.0 loses Topmodell schieben will.

Damals hat man ja zugunsten der 3dfx Karten auch nicht auf T&L verzichtet, nur weil die das nicht konnten. Wieso sollte das jetzt mit SM3.0 der Fall sein?
Oder was ist mit dem 3dmark05? GT2 ruckelt sich auf ner 6800 Ultra kaputt und der Rest ist auch nicht wirklich flüssig. Wenn in 2 Jahren GraKas den 3dmark05 so flott darstellen wie heutige Karten den 3dmark03 seh ich schwarz für eine lange Lebenszeit des NV40 (zur Erklärung, die 9700pro konnte den 3dmark03 nahezu flüssig darstellen und ist jetzt nach über 2.5 Jahren immernoch ne brauchbare Karte) Wenn die Spiele in 2 Jahren so aussehen wie der 3dmark05 heute, dann tut sich n NV40 schwer, da noch was zu reissen. (sofern der 3dmark05 nicht noch mieser als der 03er programmiert wurde)


Auch wunderts mich, das mit meiner NV40 der GT4 vom 3dmakr03 immernoch auf fps in den 10er Bereich fällt, ich dachte der ist komplett GraKalimitiert..


Sicher 3dmark kann man nicht spielen, aber bisher war er doch ein ganz guter Indikator für künftige Spieleperformance und kommende Grafikstile..

Cyphermaster
2005-02-04, 09:45:58
(...)Wenn in 2 Jahren GraKas den 3dmark05 so flott darstellen wie heutige Karten den 3dmark03 seh ich schwarz für eine lange Lebenszeit des NV40 (zur Erklärung, die 9700pro konnte den 3dmark03 nahezu flüssig darstellen und ist jetzt nach über 2.5 Jahren immernoch ne brauchbare Karte) Wenn die Spiele in 2 Jahren so aussehen wie der 3dmark05 heute, dann tut sich n NV40 schwer, da noch was zu reissen. (sofern der 3dmark05 nicht noch mieser als der 03er programmiert wurde)

(...)
Sicher 3dmark kann man nicht spielen, aber bisher war er doch ein ganz guter Indikator für künftige Spieleperformance und kommende Grafikstile..

So seh ich das auch. IMO ist es totaler Schwachsinn, sich eine angeblich zukunftssichere Grafikkarte zuzulegen - das geht nun mal nicht. Früher hieß es ja auch mal, daß T&L das NonPlusUltra-Feature wäre, und alle Karten ohne völlig unbrauchbar. Aber komischerweise konnten Karten wie eine Kyro2 bis hin zu UT2003 noch alles mitmachen (wenn auch mit überholter Rohleistung). Zwingend notwendig sind solche Features also absolut nicht, und Sätze wie "Falls man es je braucht, hat man SM3. Und die HDPR-Einheiten. 3Dc-Support kann der Treiber immerhin emulieren." finde ich schon ziemlich blödsinnig. Bis solche Top-of-the-Line-Technologien zum Standard geworden sind, ohne den man wirklich nicht auskommt, kann man eine 6600 in Sachen Performance auch längst in der Pfeife rauchen!
Man braucht sich doch nur mal anzusehen, wie lange es sich hingezogen hat, bis vernünftige FSAA-Methoden großflächig der Normalfall geworden sind, und wann es das Feature erstmalig auf 3Dfx-Karten (glaub ich zumindest) gab... Das gilt natürlich auch deckungsgleich für alle ATI-Modelle oder andere Hersteller und ist für mich kein zugkräftiges Argument.

MIR zumindest wären statt lauter nicht wirklich nutzbaren "Pro-forma-Features" besser programmierte/optimierte Software, besser konstruierte Hardware (v.a. Kartenlayout, Kühlkonzepte,...) und weniger Sparmaßnahmen wie derzeit bei der 08-15-"Standard"-Filterqualität deutlich lieber!

q@h
2005-02-04, 09:57:36
Blame your Vertexshader - vielleicht wäre mit 12 Vertexeinheiten bei diesen dämlichen Murksen mal ein Blumentopf zu gewinnen. Aber dafür müsstest du auf ein Pixelquad verzichten.

VS = Murks
PS = Games

Was ist dir lieber?

aths
2005-02-04, 10:06:14
Weil er unter bestimmten Vorraussetzungen (z.B. keine aktiven Filteroptimierungen, AA/AF) nicht mehr so eindeutig ist. (mal abgesehen von D³ und Riddick)Gerade mit AF müsste es eindeutig sein, wenn sich beide Karten so einstellen ließen dass sie die gleiche Filterqualität brächten.

Bei AA hingegen kann die 9800 Pro, vermutlich auch die X700 Pro wegen Bandbreite bzw. ROP-Power mehr reißen – aber nur bei wenigen, bzw. nur bi- oder trilinear gefilterten Texturen, oder bei sehr kurzen Pixelshadern. Bei 4x MSAA kann die 6600 GT trotz 8 Pixelpipes nur maximal 2 Pixel fertigstellen. Sobald man auf einer Textur 2x tri-AF hat limitiert das jedoch nicht mehr. Realistisch sind wohl eher 2-3 Texturschichten mit mindestens 4x, eher 8x AF. Dann hat die 6600 ROP-mäßig sogar noch ungenutzte Reserven.


/edit: Ja das HDR ist bei FC ziemlich nett zum herumspielen. Wenns nicht gar so langsam wär, 1280 ist auf meiner OCten NV40 imo gerade noch ok. Obwohls den meisten wahrscheinlich zu lahm wär. Ob da ne 6600GT noch soviel reisst, wag ich zu bezweifelnDass Crytek die NV40-Medium Dynamic Range-Technik optimal eingesetzt hat, wage ich zu bezweifeln.

BTW: Gibts schon irgendeine Anwendung, die mir als NV40 Besitzer den Nutzen von SM3 verdeutlicht?Nalu :)

BTW, wenn ich das anmerken darf: Setz doch mal Bindestriche ein.

aths
2005-02-04, 10:08:51
Das hat man von Shadermark damals bei den FX Karten auch gesagt im bezug auf Shaderperformance, als dann mit Far Cry das erste echte DX9 game mit vielen Sdadern kam hat man dann gesehen wie tauglich die Shader der FX Karten wirklich für DX9 waren.

Bei den neuen NV Karten wirds nicht besser aussehen wenn die ersten Games kommen die massive PS 3.0 shader und efekte einsetzen.Da verstehe ich den Kausalzusammenhang nicht – weil sich NVs Marketing-Gelaber von "The Dawn of cinematic computing" für die GeForce FX im Spielebereich nicht gerade bewahrheitet hat, muss das SM3 á la NV40 deshalb automatisch auch ein Rohrkrepierer sein? Sinnvoll eingesetzt, kann der NV40 (und erst recht NV43) von SM3 Performance gewinnen. Diese ließe sich z. B. in neue Effekte stecken. Ich wüsste nicht dass NV irgendwo ernsthaft behauptet dass NV40 für die Top-Spiele 2008 gebaut ist, die nur noch starten wenn mindestens SM3 vorhanden ist und massiv lange Shader nutzen.

aths
2005-02-04, 10:13:34
So seh ich das auch. IMO ist es totaler Schwachsinn, sich eine angeblich zukunftssichere Grafikkarte zuzulegen - das geht nun mal nicht. Früher hieß es ja auch mal, daß T&L das NonPlusUltra-Feature wäre, und alle Karten ohne völlig unbrauchbar. Aber komischerweise konnten Karten wie eine Kyro2 bis hin zu UT2003 noch alles mitmachen (wenn auch mit überholter Rohleistung). Zwingend notwendig sind solche Features also absolut nicht, und Sätze wie "Falls man es je braucht, hat man SM3. Und die HDPR-Einheiten. 3Dc-Support kann der Treiber immerhin emulieren." finde ich schon ziemlich blödsinnig. Bis solche Top-of-the-Line-Technologien zum Standard geworden sind, ohne den man wirklich nicht auskommt, kann man eine 6600 in Sachen Performance auch längst in der Pfeife rauchen!Es kann ja sein, dass man schon mal Spiel hat was derartige Features unterstützt, noch bevor sich diese Features zum "Standard" entwickelten. (Standards sind es eh, nur werden die zurzeit nur von sehr wenigen Karten unterstützt.)

MIR zumindest wären statt lauter nicht wirklich nutzbaren "Pro-forma-Features" besser programmierte/optimierte Software, besser konstruierte Hardware (v.a. Kartenlayout, Kühlkonzepte,...) und weniger Sparmaßnahmen wie derzeit bei der 08-15-"Standard"-Filterqualität deutlich lieber!Ich persönlich halte im Moment 256 MiB auf der Graka für wichtiger als SM3. Was ATI und NV mit den Texturfiltern für Schindluder treiben, macht mich nicht glücklich.

Coda
2005-02-04, 10:19:42
Das hat man von Shadermark damals bei den FX Karten auch gesagt im bezug auf Shaderperformance, als dann mit Far Cry das erste echte DX9 game mit vielen Sdadern kam hat man dann gesehen wie tauglich die Shader der FX Karten wirklich für DX9 waren.Uhm, die FX waren in Shadermark auch ziemlich mies. Oder wie meinst du das jetzt?
In FC wurde hier im Forum schon gezeigt, das die Implementierung alles andere als schnell ist. Das wird dann auch auf ATi Karten nicht anders sein, wenn diese mal über FP ROPs verfügen.

Geh, das ist den Spieleentwicklern doch wurscht, ob nur das Topmodell eines IHVs HDR/SM3.0 beherrscht oder nicht. Farcry hat SM3.0 unterstürtzung, Riddick auch, und Painkiller:BooH auch. Nur bringts im Vergleich zum R420 nix.Das ist nicht wirklich richtiger SM 3.0 Einsatz. In FC werden gerademal mehr Interpolatoren eingesetzt im Vergleich zu SM 2.0.

Damals hat man ja zugunsten der 3dfx Karten auch nicht auf T&L verzichtet, nur weil die das nicht konnten. Wieso sollte das jetzt mit SM3.0 der Fall sein?Für T&L muss man eigentlich gar nix machen, das ist Sache der API.

q@h
2005-02-04, 10:21:53
Jo, Faktor 10 war's in Far Cry eher selten.

deekey777
2005-02-04, 10:25:47
Das hat man von Shadermark damals bei den FX Karten auch gesagt im bezug auf Shaderperformance, als dann mit Far Cry das erste echte DX9 game mit vielen Sdadern kam hat man dann gesehen wie tauglich die Shader der FX Karten wirklich für DX9 waren.


Bei den neuen NV Karten wirds nicht besser aussehen wenn die ersten Games kommen die massive PS 3.0 shader und efekte einsetzen.

(Gemeint ist höchstwahrscheinlich die Nutzung von SM2.0.)
Wenn ich es richtig mitgekriegt habe, wäre ich sehr vorsichtig, Far Cry als erstes und echtes DX9-Spiel zu bezeichnen. Noch lange vor Far Cry gab es zB schon TR6:AoD (oder Aquanox 2+"DX9"-Patch?). Und irgendjemand meinte, FC wäre ein DX8-Spiel mit draufgepflanzten DX9-Spielereien.

Mr. Lolman
2005-02-04, 10:28:08
PS in Games deswegen, da man momentan über relativ schwache Geometrie, Effekte legt, die einen höheren Detailgrad simulieren. Stimmig ist das momentan keineswegs.Die Grafik von HL², bspw, lebt von den Texturen und halt den größtenteils geschickt eingetzten PS-Effekten. Die Polygondichte der Umgebung jedoch ist ja größtenteils ziemlich gering, was zT. sicher auf die dadurch gewonnene Abwärtskompatibilität zurückzuführen ist.

Wenn in 1-2 Jahren dann ne 9700pro zum Low-End zählt kann man mit VS lastigen Spielen nurso umsich werfen - womit ein NV40 auch keine allzugroße Freude haben wird...

Mr. Lolman
2005-02-04, 10:29:11
. Und irgendjemand meinte, FC wäre ein DX8-Spiel mit draufgepflanzten DX9-Spielereien.

Was ist dann HL²? Ein DX6-Spiel mit draufgepflanzten DX7/8/9-Spielereien?

Coda
2005-02-04, 10:47:54
Im Prinzip schon, aber warum spielt das überhaupt eine Rolle?
Es geht doch eigentlich darum wie stark die Shader im Endeffekt gefordert werden und da stellt FC sicher höhere Anforderungen als HL².

deekey777
2005-02-04, 10:54:00
Was ist dann HL²? Ein DX6-Spiel mit draufgepflanzten DX7/8/9-Spielereien?


Nein, eher ein DX8.1. ;)
(Kommt nicht von mir.)

q@h
2005-02-04, 11:03:50
Wenn in 1-2 Jahren dann ne 9700pro zum Low-End zählt kann man mit VS lastigen Spielen nurso umsich werfen - womit ein NV40 auch keine allzugroße Freude haben wird...

Was meinst du mit "VS-lastigen" Games? VS-Last im Verhältnis zur PS-Last wie im 3DMark05? :)

Mr. Lolman
2005-02-04, 11:05:41
Was meinst du mit "VS-lastigen" Games? VS-Last im Verhältnis zur PS-Last wie im 3DMark05? :)

na, sagen wir in dem Verhältnis, wies bei der 1. Rubydemo (Doublecross) ist... :)

q@h
2005-02-04, 11:06:45
Und wie ist es dort?

Mr. Lolman
2005-02-04, 11:08:14
Und wie ist es dort?

imo ziemlich ausgeglichen :biggrin:

q@h
2005-02-04, 11:14:36
Und wieso beginnst du deine Argumentation, wenn du selbst den Ansatz der 3DMarks für nicht zukunftsträchtig hälst, genau mit jenen?

Mr. Lolman
2005-02-04, 11:17:27
Und wieso beginnst du deine Argumentation, wenn du selbst den Ansatz der 3DMarks für nicht zukunftsträchtig hälst, genau mit jenen?

Weils keinen Unterschied macht. VS limtierte Szenen, egal ob GT2 oder Ruby laufem am NV40 gleichermassen bescheiden...

q@h
2005-02-04, 11:27:11
wuz? Eben war Ruby noch "ausgeglichen" - oder sprichst du jetzt von einer anderen Ruby?

Coda
2005-02-04, 11:33:18
Weils keinen Unterschied macht. VS limtierte Szenen, egal ob GT2 oder Ruby laufem am NV40 gleichermassen bescheiden...Die Vertexleistung von NV40 ist nicht gut? Hab ich was verpasst?

ShadowXX
2005-02-04, 11:35:10
Die Vertexleistung von NV40 ist nicht gut? Hab ich was verpasst?

Das hab ich mich auch gerade gefragt......

Mr. Lolman
2005-02-04, 11:38:11
wuz? Eben war Ruby noch "ausgeglichen" - oder sprichst du jetzt von einer anderen Ruby?

Nö. Drückn wirs anders aus.


SM3.0/HDR usw wird als zukunftsträchtig beworben. Ich meine hingegen, dass, bis diese Features großartigen nutzen bringen der NV40 schön ordneltich durch seine VS Leistung limitiert werden dürfte. Du hast selbst geschrieben, dass der VS für (aktuelle) Spiele praktisch unnötig ist. Anhand vom 3dmark (bzw Ruby, welches afaik auf nem R3x0 eh ordentlich VS limitiert ist) sieht man dass die VS Leistung des NV40 sich nicht von seinen Konkurrenten besonders abhebt.

Mal abgesehen davon, dass doublcross halt von ATi kommt, und dementsprechend wenig sich um NV Architektur kümmert, find ich, war zumindest mit älteren Treibern (müsste man mal testen wies momentan aussieht), die Leistung der NV40 Karten bei Doublecross sogar erschreckend niedrig (6800GT nicht viel flotter als meine alte 9700p@400/350), wenn man davon ausgeht das hier wirklich nur die VS limitieren, was hier afaik noch deutlicher geschieht als beim 3dmark...

Mr. Lolman
2005-02-04, 11:47:16
Die Vertexleistung von NV40 ist nicht gut? Hab ich was verpasst?

Nach heutigen Standpunkten ist sie sogar sehr gut. In 2 Jahren wird sie nur mehr zum unteren Level gehören. Und da können die 20-30% schon mal ein bisschen was ausmachen. (die sich x800xt pe von ner 6800 Ultra abhebt) schon was ausmachen...


Auch der Vergleich 9800 vs 6600GT um den es in dem Thread eigentlich geht, ist sehr interessant:

http://www.xbitlabs.com/articles/video/display/3dmark05_13.html

(leider ein steinaltes Review, kenn aber keine neueren die den 3dmark so umfangreich getestet haben, und leider kein Einziges was sich die rubydemo mal hinsichtlich benchmbarkeit genauer angeshenen hat;( )

q@h
2005-02-04, 11:59:34
Die Frage ist, wie oft und in welchem Umfang Vec4+Skalar in Games eingesetzt werden wird - eine ähnliche Gretchenfrage, wie das SM3.0 aufwirft.

Jesus
2005-02-04, 11:59:55
Naja ich sehs mal so:
Wir nähern uns nun bald dem einjährigen SM3.0 Jubiläum und entgegen aller "weiser" vorraussagen hier gibt es immer noch nur eine Handvoll "schlecht programmierter" (um es vorsichtig auszudrücken) Titel die ein bischen SM3.0 Support für irgendeinen Effekt haben den kein Mensch sieht noch braucht. :rolleyes:

Ansonsten seh ich das so wie Lolman. SM3 wird in Zukunft wohl kaum dazu benutzt werden um "SM2.0 Effekte" zu beschleunigen, sondern um neue aufwändigere Effekte darzustellen und da seh ich dann performance-mässig ganz schwarz beim NV40, wenn man die jetzigen SM3 Versuche, die ja jeweils nur von sehr geringem Umfang sind, zum Vergleich nimmt.

Gasst
2005-02-04, 12:01:56
und da seh ich dann performance-mässig ganz schwarz beim NV40, wenn man die jetzigen SM3 Versuche, die ja jeweils nur von sehr geringem Umfang sind, zum Vergleich nimmt.


kannst du uns auch sagen, wovon du redest?

Jesus
2005-02-04, 12:05:33
Auch der Vergleich 9800 vs 6600GT um den es in dem Thread eigentlich geht, ist sehr interessant:

http://www.xbitlabs.com/articles/video/display/3dmark05_13.html

(leider ein steinaltes Review, kenn aber keine neueren die den 3dmark so umfangreich getestet haben, und leider kein Einziges was sich die rubydemo mal hinsichtlich benchmbarkeit genauer angeshenen hat;( )

Das ist schon sehr hefig. Aber sollte eine 6800 Ultra nicht schon allein durch Takt und anzahl der Vertex shader eine 9800XT überholen ? Treiberbug?

DrumDub
2005-02-04, 12:12:09
Das ist schon sehr hefig. Aber sollte eine 6800 Ultra nicht schon allein durch Takt und anzahl der Vertex shader eine 9800XT überholen ? Treiberbug?

tut sie doch auch bei dem complex vertex shader test. beim simple liegt die x800pro ja komischerweise auch nur auf dem niveau der 9800xt, obwohl sie 6 vertex shader hat und die 9800xt nur 4. dazu kommt noch der taktunterschied, der immerhin auch bei 63mhz liegt (vpu).

InsaneDruid
2005-02-04, 12:15:04
Das einzige Game mit "sichtbarem" SM3 Support das ich kenne ist Pacific Fighters, hier wird das Meer durch Vertex Texturing/Displacement Mapping aufgeppept. Wellen kräuseln sich, statt glatt zu sein.

Zerrt aber extremst an der Performance, IIRC.

aths
2005-02-04, 12:15:14
PS in Games deswegen, da man momentan über relativ schwache Geometrie, Effekte legt, die einen höheren Detailgrad simulieren. Stimmig ist das momentan keineswegs.Die Grafik von HL², bspw, lebt von den Texturen und halt den größtenteils geschickt eingetzten PS-Effekten. Die Polygondichte der Umgebung jedoch ist ja größtenteils ziemlich gering, was zT. sicher auf die dadurch gewonnene Abwärtskompatibilität zurückzuführen ist.

Wenn in 1-2 Jahren dann ne 9700pro zum Low-End zählt kann man mit VS lastigen Spielen nurso umsich werfen - womit ein NV40 auch keine allzugroße Freude haben wird...Hrm? Der NV40 hat 6 Vertex-Shader 3.0 in MIMD-Technik, inkl. Geometry Instancing. Der NV43 hat allerdings nur 3 Stück.

Nö. Drückn wirs anders aus.


SM3.0/HDR usw wird als zukunftsträchtig beworben. Ich meine hingegen, dass, bis diese Features großartigen nutzen bringen der NV40 schön ordneltich durch seine VS Leistung limitiert werden dürfte. Du hast selbst geschrieben, dass der VS für (aktuelle) Spiele praktisch unnötig ist. Anhand vom 3dmark (bzw Ruby, welches afaik auf nem R3x0 eh ordentlich VS limitiert ist) sieht man dass die VS Leistung des NV40 sich nicht von seinen Konkurrenten besonders abhebt. Allerdings hat NV40 gewisse Features, um besonders VS-lastige Dinge wie bestimmte Shadow-Techniken, zu beschleunigen. Gerade mit SM3 (oder mit schnellen Pixelshadern allgemein) kann (und sollte man) Offset-Mapping einsetzen, wo möglich.

aths
2005-02-04, 12:23:05
Ansonsten seh ich das so wie Lolman. SM3 wird in Zukunft wohl kaum dazu benutzt werden um "SM2.0 Effekte" zu beschleunigen, sondern um neue aufwändigere Effekte darzustellen und da seh ich dann performance-mässig ganz schwarz beim NV40, wenn man die jetzigen SM3 Versuche, die ja jeweils nur von sehr geringem Umfang sind, zum Vergleich nimmt.Neue und aufwändigere Effekte sind u. a. deshalb möglich, weil man dank SM3 viele Effekte effizienter programmieren kann. Dass der NV40 kaum ausreichen wird, um die Top-Spiele in zwei Jahren mit allen Effekten, aktiviertem AA und AF in hohen Auflösungen Multiplayer-tauglich flüssig darstellen kann bezweifle ich auch. Aber "ganz schwarz" sehe ich bezüglich SM3-Effekte natürlich nicht. Weil mir die NV40-Architektur dazu keinen Grund liefert.

Effekte via SM3 sollten, sofern gleiche Grafikqualität gesichert ist, auf dem NV40 schneller laufen als die "SM2-Fallbacks" auf dem R420 (wobei das dann aber nicht nur an SM3 liegt, sondern auch an der konkreten Pipeline-Architektur.) Was SM3 angeht, sehe ich nur beim R420 "ganz schwarz" – denn der unterstützt das gar nicht erst.

Jesus
2005-02-04, 12:29:27
Neue und aufwändigere Effekte sind u. a. deshalb möglich, weil man dank SM3 viele Effekte effizienter programmieren kann.

Richtig, aber das heisst nicht dass es dadurch schneller oder flüssiger wird - das Gegenteil wird der Fall sein, weil dann noch mehr solcher Effekte eingebaut werden.

Wenn man solche sachen wie PF Vertex Wellen und Riddicks Soft Shadows kombinieren würde wären wir wahrscheinlich schon im einstelligen FPS bereich angelangt. (grob geschätzt :biggrin: )

Mr. Lolman
2005-02-04, 12:31:01
Die Frage ist, wie oft und in welchem Umfang Vec4+Skalar in Games eingesetzt werden wird - eine ähnliche Gretchenfrage, wie das SM3.0 aufwirft.

Gaynow. Deswegen behaupt ich auch nicht, dass es ganz schlecht um den NV40 steht. Ich hab mir jetzt nochmal Ruby auf meiner 6800GT angesehen und selbst mit 425/550 ist das Ganze nur 5-40% schneller (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2708812#post2708812) als auf meiner 9700p (Die 40% sind in der letzen Szene, wo man den, zumindest mit dem 61.76 nen schlecht gefilterten Diamanten sieht)

Ich schau mir das ganze aber gern nochmal mit nem neueren Treiber an...

q@h
2005-02-04, 12:35:04
Momentan sehen wir doch hauptsächlich "in letzter Minute draufgepapptes" SM3.0 - so wie in Far Cry (dort besonders bei HDRRendering_) oder Riddick (Shadow-Supersampling ist nicht SM3 exklusiv).

Wer kann denn abschätzen, wie Effekte laufen werden, die von vornherein in der Programmierung auf SM3.0 ausgelegt sind und SM2 oder gar SM1.x nur noch als Fallback haben?

DrumDub
2005-02-04, 12:37:06
wenn man 9800xt, x800pro und 6800u von der vs-leistung vergleicht liegt das verhältnis takt- und vs-anzahl-bereinigt bei 1:1,73:1,46.
wenn man die ergebnisse der beiden vs-tests vergleicht sieht das ergebnis aber wie folgt aus:


9800xt x800pro 6800u
640x480
simple 1,00 1,00 0,94
complex 1,00 1,48 1,30

1600x1200
simple 1,00 1,00 0,96
complex 1,00 1,46 1,25

Coda
2005-02-04, 12:48:44
Seit wann ist denn irgendwas Vertexleistungslimitiert? Das ist sehr sehr selten.

aths
2005-02-04, 12:49:24
Richtig, aber das heisst nicht dass es dadurch schneller oder flüssiger wird - das Gegenteil wird der Fall sein, weil dann noch mehr solcher Effekte eingebaut werden.

Wenn man solche sachen wie PF Vertex Wellen und Riddicks Soft Shadows kombinieren würde wären wir wahrscheinlich schon im einstelligen FPS bereich angelangt. (grob geschätzt :biggrin: )Warum immer diese Einzelbeispiele?

Zunächst nehme ich an, dass Effekte die SM3-Features wie Vertex Shading voraussetzen, erst mal die Ausnahme bleiben. SM3-exklusive Effekte die wirklich nur mit SM3 überhaupt irgendwie realisierbar sind, gibt es ansonsten nur wenige. Mit entsprechend vielen Passes kann man – auf Kosten der Geschwindigkeit und der Genauigkeit – bezüglich Pixelshading das meiste auch mit SM2 machen. Insofern sehe ich SM3 als Geschwindigkeitsbringer: U. a. dank SM3 sind neue Effekte nun in Echtzeit möglich. Das, und die allgemein effektivieren Pixelshader-Pipes des NV40 sorgt gerade bei komplexen Effekten für die höhere Leistung im Vergleich zum R420. Was NV gegen den R520 auffahren kann, werden wir sehen wenn es soweit ist.

Sorgfältig auf die NV40-Architektur optimiert sind Vertex-Texturing-Effekte und "HDR"-Lighting natürlich schneller, als wenn sie als noch hastig draufgepappter Effekt eingehackt werden.

Mr. Lolman
2005-02-04, 12:52:03
Wer kann denn abschätzen, wie Effekte laufen werden, die von vornherein in der Programmierung auf SM3.0 ausgelegt sind und SM2 oder gar SM1.x nur noch als Fallback haben?

Das weiss man wahrscheinlich erst beim Erscheinen der UE3. Bis dahin werden wir herkömliche Techniken zu gesicht bekommen, die mit SM2/3 ein bisschen aufgemotzt wurden.

Blöderweise stammt von Epic selbst die Aussage, dass eine 6800 Ultra nur die Mindestanforderungen der UE3 erfüllt. Und da ist schon fast wurscht ob ich jetzt die einen Details runterdreh, damit der SM3.0 Pfad flüssig läuft, oder die anderen, in dem ich gleich den SM2.0 Pfad verwenden. Wenns nen gibt. Und den gibts sicher, wenn die nächste Generation nicht flott genug ist, um jedem zum Aufrüsten zu bewegen, da sonst die SM2.0 Basis einfach noch zu groß wär. Und wenn sie flott genug ist, spricht nix mehr für die Zukunftssicherheit eines NV40. Imo müssen die Features einer GraKa spätestens 1 Jahr nach ihrem Erscheinen großflächig zum Einsatz kommen, damit sie für den Grakanutzer sinnvoll sind. Denn es ist eher sehr selten das in der HW soviel Leistungspotential brach liegt, dass selbst nach 2 Jahren die HW noch stark genug ist, um die brachliegenden Features auch vernünftig zu nutzen...

DrumDub
2005-02-04, 12:53:28
Seit wann ist denn irgendwas Vertexleistungslimitiert? Das ist sehr sehr selten.

ähmm... ich wollte damit nur deutlich machen, dass die 6800u gar nicht so schlecht von der vs-leistung her ist. die x800pro ist verhältnismäßig gesehen sogar schlechter. warum allerdings die 9800xt trotz ihrer nur 4 vs so gut ist, kann ich mir nicht recht erklären.

Coda
2005-02-04, 12:54:43
Blöderweise stammt von Epic selbst die Aussage, dass eine 6800 Ultra nur die Mindestanforderungen der UE3 erfülltHm? Ich bin mir recht sicher dass sie auch mal gesagt haben dass sie auf Radeons Multipass brauchen. Bist du sicher dass nicht diese gemeint war?

DrumDub
2005-02-04, 12:55:48
Hm? Ich bin mir recht sicher dass sie auch mal gesagt haben dass sie auf Radeons Multipass brauchen. Bist du sicher dass nicht diese gemeint war?

sm 2 ist die mindestvoraussetzung. dann bekommt man aber nicht alle effekte. so hab ichs zumindest in erinnerung.

aths
2005-02-04, 12:56:59
Das weiss man wahrscheinlich erst beim Erscheinen der UE3. Bis dahin werden wir herkömliche Techniken zu gesicht bekommen, die mit SM2/3 ein bisschen aufgemotzt wurden. Die Unreal Engine 3 die ich gesehen habe, nutzte bis dato nur SM2 (und lief auf einem NV40.) Mittels SM3 kann der eine oder andere Effekt sicher beschleunigt werden.

Blöderweise stammt von Epic selbst die Aussage, dass eine 6800 Ultra nur die Mindestanforderungen der UE3 erfüllt.Wenn das Teil 2006 kommt, ist die 6800-Serie kein Highend mehr, das ist ja klar.

Und da ist schon fast wurscht ob ich jetzt die einen Details runterdreh, damit der SM3.0 Pfad flüssig läuft, oder die anderen, in dem ich gleich den SM2.0 Pfad verwenden. Wenns nen gibt. Und den gibts sicher, wenn die nächste Generation nicht flott genug ist, um jedem zum Aufrüsten zu bewegen, da sonst die SM2.0 Basis einfach noch zu groß wär. Und wenn sie flott genug ist, spricht nix mehr für die Zukunftssicherheit eines NV40. Imo müssen die Features einer GraKa spätestens 1 Jahr nach ihrem Erscheinen großflächig zum Einsatz kommen, damit sie für den Grakanutzer sinnvoll sind. Denn es ist eher sehr selten das in der HW soviel Leistungspotential brach liegt, dass selbst nach 2 Jahren noch, die HW stark genug ist, um die brachliegenden Features auch vernünftig zu nutzen...Was ist jetzt "vernünftig" genutzt?

NV40 ist ca. so schnell wie R420 und kostet ungefähr das gleiche. Außerdem hat NV40 noch SM3, R420 nicht. Was gibts da bezüglich Zukunftssicherheit noch groß zu reden? Schon wenn SM3 mal hier und da rein der Performance wegen genutzt wird, profitiert man von den "SM3-Schaltkreisen".

Mr. Lolman
2005-02-04, 13:07:30
Was ist jetzt "vernünftig" genutzt?

NV40 ist ca. so schnell wie R420 und kostet ungefähr das gleiche. Außerdem hat NV40 noch SM3, R420 nicht. Was gibts da bezüglich Zukunftssicherheit noch groß zu reden? Schon wenn SM3 mal hier und da rein der Performance wegen genutzt wird, profitiert man von den "SM3-Schaltkreisen".


Wenns denn eben so wäre. Ich seh momentan die schlechteren Treiber bei NV (egal das trägt nur zur Kundenzufriedenheit bei und hat jetzt hier eigentlich nix zu suchen), und die höhere Performance bei ATi. Bei einem Preisvorteil für ATi, gegen dem die bessere Verfügbarkeit der NV Karten steht.

Der Performancevorteil des R420 ist ja je nach Anwendung ganz schön groß, (ZDNet Review (http://www.zdnet.de/enterprise/client/0,39023248,39128205,00.htm). Da sieht man auch, wie dumm es ist gegen Filteroptimierungen zu wettern, denn ohne diese würden die aktuellen GraKas noch viel schneller zum Alteisen gehören)

Coda
2005-02-04, 13:15:53
Da sieht man auch, wie dumm es ist gegen Filteroptimierungen zu wettern, denn ohne diese würden die aktuellen GraKas noch viel schneller zum Alteisen gehörenAua. Dann spiel halt gleich ohne Texturen.

Mr. Lolman
2005-02-04, 13:22:15
Aua. Dann spiel halt gleich ohne Texturen.

Klar. Na ich glaub du weisst schon was ich mein. Wenn 0-10% bringt, und dafür es dafür flimmert, kack ich auch drauf, aber wenn 45,7 gegen 66.1fps stehen, überleg ich keine Sekunde und nehm das Setting, was vll. geringfügig flimmriger ist, mir dafür aber 45% höhere av.fps beschehrt (solang sich das Flimmern im erträglichen Rahmen hält):

http://www.zdnet.de/i/et/client/Grafikkarten/X850XT/image009.png


BTW: Noch ein (neuerer) 3dmark05 GT2 Benchmark :

http://www.zdnet.de/i/et/client/Grafikkarten/X850XT/image003.png

Tortenheber
2005-02-04, 13:27:57
Klar. Na ich glaub du weisst schon was ich mein. Wenn 0-10% bringt, und dafür es dafür flimmert, kack ich auch drauf, aber wenn 45,7 gegen 66.1fps stehen, überleg ich keine Sekunde und nehm das Setting, was vll. geringfügig flimmriger ist, mir dafür aber 45% höhere av.fps beschehrt (solang sich das Flimmern im erträglichen Rahmen hält):

http://www.zdnet.de/i/et/client/Grafikkarten/X850XT/image009.png


BTW: Noch ein (neuerer) 3dmark05 GT2 Benchmark :

http://www.zdnet.de/i/et/client/Grafikkarten/X850XT/image003.png

Warum werden denn nicht mal zur Abwechslung die Optimierungen von ATI abgeschaltet?

Gaast
2005-02-04, 13:31:45
Warum werden denn nicht mal zur Abwechslung die Optimierungen von ATI abgeschaltet?


weil der balken dann nicht mehr darstellbar wäre, da zu kurz. ;D

q@h
2005-02-04, 13:32:49
Das weiss man wahrscheinlich erst beim Erscheinen der UE3. Bis dahin werden wir herkömliche Techniken zu gesicht bekommen, die mit SM2/3 ein bisschen aufgemotzt wurden.
Vielleicht auch schon früher - deshalb würde ich mir keinen Kopf drum machen, was Epic bezgl. der Mindestanforderungen gesagt hat.
Und ja - wenn man die Mindestvoraussetzungen erfüllt, hat man die Option auf volle Details - oder eben auch, Details abzuschalten, um dann mehr FPS zu erlangen.

btw, deine Vergleich R9700/6800 in allen Ehren, allerdings solltest du dann auch erwähnen, daß deine R9700 noch über R9800p-Niveau lief. :)

OC hat in so einem Vergleich eher wenig verloren.

Jesus
2005-02-04, 13:39:54
weil der balken dann nicht mehr darstellbar wäre, da zu kurz. ;D

kostet etwa 5% bei ATI :)

Leider hab ich den Test noch immer nicht wiedergefunden, weiss jemand wo das war ? (A.I. on/off Test oder so, englischsprachige Seite)

mapel110
2005-02-04, 13:51:26
kostet etwa 5% bei ATI :)

Leider hab ich den Test noch immer nicht wiedergefunden, weiss jemand wo das war ? (A.I. on/off Test oder so, englischsprachige Seite)

Ich glaube, das war driverheavon, bin mir aber nicht sicher.

Generell bringen diese Filteroptimierungen in realen Games nicht wirklich viel. UT ist da eine Ausnahme.
Da bringen auch die ATI-Optimierungen speziell in den flyby benches eine Menge.

/edit
bevor ich geflimmere ertrage, schalte ich entweder das feature komplett ab, oder gehe eine Auflösungsstufe runter.

Mr. Lolman
2005-02-04, 13:53:09
btw, deine Vergleich R9700/6800 in allen Ehren, allerdings solltest du dann auch erwähnen, daß deine R9700 noch über R9800p-Niveau lief. :).

Ja sry, hab ich in dem Post vergessen. Im benchmarkthrad stehts jedoch dabei. Außerdem ist die 6800GT ja auch über 6800U Niveau getaktet. (Wenngleich ein Test mit Standardtakten natürlich aussagekräftiger gewesen wäre. Mit meiner 9700p geht das nun leider nicht mehr (vll. niewieder ;() und so ganz unübertaktet wollt ich die 6800GT dann auch nicht antreten lassen...)

aths
2005-02-04, 13:57:59
Wenns denn eben so wäre. Ich seh momentan die schlechteren Treiber bei NV (egal das trägt nur zur Kundenzufriedenheit bei und hat jetzt hier eigentlich nix zu suchen)Ich halte die Treiber für spielemäßig gleichwertig, allerdings bietet NV mir mehr 2D-Optionen (die ich teilweise auch nutze.)

und die höhere Performance bei ATi. Bei einem Preisvorteil für ATi, gegen dem die bessere Verfügbarkeit der NV Karten steht.Bei der Performance sehe ich keinen Sieger. Mal liegt der eine vorne, mal der andere. Den Preisvorteil bei ATI kann ich nicht erkennen.

Der Performancevorteil des R420 ist ja je nach Anwendung ganz schön groß, (ZDNet Review (http://www.zdnet.de/enterprise/client/0,39023248,39128205,00.htm). Da sieht man auch, wie dumm es ist gegen Filteroptimierungen zu wettern, denn ohne diese würden die aktuellen GraKas noch viel schneller zum Alteisen gehören)Selbst in synthetischen Tests bringen derartige "Optimierungen" nicht besonders viel. Wenn es viel bringt, muss es zwangsläufig viel Qualität kosten. Dafür kaufe ich mir keine 3D-Karte. Ich möchte beste Qualität und weder brilinear gefilterte Texturen*, noch bilineares AF auf Stages > 0*, noch "Sample Optimiziation" weil das zu Textur-Flimmern führen kann.

* In einigen Fällen kann das Mehrleistung bringen ohne die Qualität deutlich zu senken. In der Regel fahre ich besser ohne solche "Optimierungen", die eigentlich keine sind, sondern nur wertvolle Qualität gegen ein meist nur kleines Geschwindigkeitsplus eintauschen.

Man kann auch einfach die Auflösung senken um bei GPU-Limitierung die Leistung zu erhöhen.

Jesus
2005-02-04, 14:05:30
Bei der Performance sehe ich keinen Sieger. Mal liegt der eine vorne, mal der andere. Den Preisvorteil bei ATI kann ich nicht erkennen.


Äh, ja. Ok. :|

Ich glaube, das war driverheavon, bin mir aber nicht sicher.


Habs gefunden http://www.driverheaven.net/articles/atiop/

The first thing that strikes me about the results we gathered is the small performance increases which are achieved by ATI with their optimizations ... With a margin so small it almost made us consider leaving our review of Nvidia's no-optimizations Vs ATI's with Optimizations and not updating it. Overall though its great that ATI now offer the user control over optimizations, even if its not worth their while disabling them. Looking at the IQ shots this certainly seems to be the case, there is no difference in IQ seen by the end user between off and standard yet you get some excellent tweaks – like the improved calculations (and therefore performance increases) in Doom3.

It does seem to us that Nvidia's optimizations are aimed more at gaining raw performance across the board where as ATI's are aimed at improving all aspects of the gaming experience. (We'd welcome detailed information on app specific optimizations from Nvidia though if it shows they are improving things in the same way) Its also worth mentioning that ATI give you the option to disable all optimizations, where as when we disabled the Nvidia optimizations it was texture/detail optimizations only. Any Application specific optimizations cannot be disabled in the Nvidia drivers and are therefore causing the Nvidia results to be higher. It would be nice to see Nvidia take steps to allow all optimizations to be turned off in future drivers.

hmx
2005-02-04, 14:07:20
Klar. Na ich glaub du weisst schon was ich mein. Wenn 0-10% bringt, und dafür es dafür flimmert, kack ich auch drauf, aber wenn 45,7 gegen 66.1fps stehen, überleg ich keine Sekunde und nehm das Setting, was vll. geringfügig flimmriger ist, mir dafür aber 45% höhere av.fps beschehrt (solang sich das Flimmern im erträglichen Rahmen hält):

http://www.zdnet.de/i/et/client/Grafikkarten/X850XT/image009.png


BTW: Noch ein (neuerer) 3dmark05 GT2 Benchmark :

http://www.zdnet.de/i/et/client/Grafikkarten/X850XT/image003.png

Warum ist die x800xl genauso schnell wie die x800xt, während die x850xt trotz weniger "Mehrtakt" gegenüber der x800xt doch recht deutlich schneller?

Jesus
2005-02-04, 14:07:34
Man kann auch einfach die Auflösung senken um bei GPU-Limitierung die Leistung zu erhöhen.

Was aber für die steigende Zahl der TFT Besitzer in Zukunft keine Lösung ist.

Warum ist die x800xl genauso schnell wie die x800xt, während die x850xt trotz weniger "Mehrtakt" gegenüber der x800xt doch recht deutlich schneller?

Bandbreitenlimitierung.

Mr. Lolman
2005-02-04, 14:08:22
Ich halte die Treiber für spielemäßig gleichwertig, allerdings bietet NV mir mehr 2D-Optionen (die ich teilweise auch nutze.)


Spielemässig vll. Lies dir jedoch mal durch was ich schon in mehreren Threads zu Overlayprobs uä. gepostet hab.


Bei der Performance sehe ich keinen Sieger. Mal liegt der eine vorne, mal der andere. Den Preisvorteil bei ATI kann ich nicht erkennen.



Sagen wir so. Der andere liegt bei Riddick deutlich und bei D³ geringfügig vorne. Sonst sind mir da keine Spiele bekannt. NV schaffts mit neueren Treiber auch immer mehr aufzuschliessen, nur fürchte ich, dass sich die Optimierungen hauptsächlich auf oft gebenchte Spiele konzentrieren. Irgendwie bietet die x800 Reihe in meinen Augen die bessere Performance "out of the box" .

Die 6800GT hab ich deswegen, weils mich gereizt hat, mal ne NV Karte im Rechner zu haben, und weil ich irsinnig geil auf 3D Stereo bin :love2:, und mir auch schon längst mal die SSAA Modi anschaun wollt.

Dafür gibts overlayprobs, abstürzende Spiele, (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2708314&postcount=61) und (ingesamt imo) leicht schlechtere Performance.

DrumDub
2005-02-04, 14:10:29
Warum ist die x800xl genauso schnell wie die x800xt, während die x850xt trotz weniger "Mehrtakt" gegenüber der x800xt doch recht deutlich schneller?

speicherbandbreite.

x800xl: 490mhz gddr3
x800xt: 500mhz gddr3
x850xt pe: 590mhz gddr3

Mr. Lolman
2005-02-04, 14:12:19
Warum ist die x800xl genauso schnell wie die x800xt, während die x850xt trotz weniger "Mehrtakt" gegenüber der x800xt doch recht deutlich schneller?
Weils bei der x850xt nicht nur der Mehrtakt ist. Ich hab mal nen Thread eröffnet, in dem ich ein paar Benchmakrs rausgefischt hab, die unmöglich stimmen konnten, wenn der x850xt tatsächlich nur hinsichtlich des höhren Taktes optimiert worden wäre.

BTW: Bei 9800XT vs 256MB 9800pro ist mir ähnliches aufgefallen.(Unterschiede von > mehr 50% bei geringem Taktvorteil)

Außerdem wurde die x800xl womöglich mit nem neueren treiber getestet...

speicherbandbreite.

x800xl: 490mhz gddr3
x800xt: 500mhz gddr3
x850xt pe: 590mhz gddr3


das kanns natürlich auch sein ;)

dildo4u
2005-02-04, 14:16:27
Spielemässig vll. Lies dir jedoch mal durch was ich schon in mehreren Threads zu Overlayprobs uä. gepostet hab.




Sagen wir so. Der andere liegt bei Riddick deutlich und bei D³ geringfügig vorne. Sonst sind mir da keine Spiele bekannt. NV schaffts mit neueren Treiber auch immer mehr aufzuschliessen, nur fürchte ich, dass sich die Optimierungen hauptsächlich auf oft gebenchte Spiele konzentrieren. Irgendwie bietet die x800 Reihe in meinen Augen die bessere Performance "out of the box" .

Die 6800GT hab ich deswegen, weils mich gereizt hat, mal ne NV Karte im Rechner zu haben, und weil ich irsinnig geil auf 3D Stereo bin :love2:, und mir auch schon längst mal die SSAA Modi anschaun wollt.

Dafür gibts overlayprobs, abstürzende Spiele, (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2708314&postcount=61) und (ingesamt imo) leicht schlechtere Performance.
Ähm sorry aber wenn du mit uralt treibern zockts wegen Stereo 3D solltest du dich nich wegen schlechter performance beschweren beim NV40 gibts nämlich mit neuen treibern noch den ein oder anderen schub.

DrumDub
2005-02-04, 14:17:57
das kanns natürlich auch sein ;)

allerdings. bei 1600x1200 und 4xmsaa sollte die schon was ausmachen. ;)

Mr. Lolman
2005-02-04, 14:27:07
Ähm sorry aber wenn du mit uralt teibern zockts wegen Stereo 3D solltest du dich nich wegen schlechter performance beschweren beim NV40 gibts nämlich mit neuen treibern noch den ein oder anderen schub.

Ich beschwer mich ja auch nicht über die Performance, die das Kärtchen auf meinem System erreicht. Die ist insgesamt eh toll. (Bei D³ und Riddick im Vergleich zu vorher sogar enorm) Die schlechtere Performance war ausgehend von Betrachtungen div. reviews insgesamt auf den Vergleich zur x8x0xtpe bezogen, und auch mit nem 71.20er fällt bei mir der GT4 deutlich unter die 20fps Marke, wenn du das jetzt meinst...)


BTW: Von wann ist eigentlich der letzte offizielle Nichtbetatreiber?

dildo4u
2005-02-04, 14:38:11
Ich beschwer mich ja auch nicht über die Performance, die das Kärtchen auf meinem System erreicht. Die ist insgesamt eh toll. (Bei D³ und Riddick im Vergleich zu vorher sogar enorm) Die schlechtere Performance war ausgehend von Betrachtungen div. reviews insgesamt auf den Vergleich zur x8x0xtpe bezogen, und auch mit nem 71.20er fällt bei mir der GT4 deutlich unter die 20fps Marke, wenn du das jetzt meinst...)


BTW: Von wann ist eigentlich der letzte offizielle Nichtbetatreiber?
Auf 3Dmark als gamebench geb ich mal gar nix weil kein einziges game die Engine nutzt

Zur treiberfrage

66.93 vom 9.11.2004

http://www.nvidia.de/object/winxp_2k_66.93_de

StefanV
2005-02-04, 14:38:50
/edit
bevor ich geflimmere ertrage, schalte ich entweder das feature komplett ab, oder gehe eine Auflösungsstufe runter.
Richtig, als ich das geflimmere der 6600 bei Yager sah, wurd mir auch gleich ganz schlecht, hab das Spiel dann gleich beendet und AF deaktiviert, ohne flimmerts nicht so doll, genialer Weise...

Ergo: AF ist bei der nV4x in der Momentanen Form unbrauchbar.

Matrix316
2005-02-04, 15:00:42
Was aber für die steigende Zahl der TFT Besitzer in Zukunft keine Lösung ist.

Wobei die meisten da eher die 1280*1024er Auflösung fahren, wo die 6600GT z.B. noch relativ schnell ist, selbst im Vergleich zur 6800er. Jedoch auch auf kleinere Auflösungen interpoliert, sehen Spiele garnicht mal sooo schlecht aus auf einem TFT.

robbitop
2005-02-04, 15:30:01
Richtig, als ich das geflimmere der 6600 bei Yager sah, wurd mir auch gleich ganz schlecht, hab das Spiel dann gleich beendet und AF deaktiviert, ohne flimmerts nicht so doll, genialer Weise...

Ergo: AF ist bei der nV4x in der Momentanen Form unbrauchbar.

du schliesst also von einem Spiel mit einem Settiung und einem Treiber generell, dass das AF von NV4x unbrauchbar ist?
typisch Stefan Payne.. :rolleyes:

Tigerchen
2005-02-04, 15:30:57
Da verstehe ich den Kausalzusammenhang nicht – weil sich NVs Marketing-Gelaber von "The Dawn of cinematic computing" für die GeForce FX im Spielebereich nicht gerade bewahrheitet hat, muss das SM3 á la NV40 deshalb automatisch auch ein Rohrkrepierer sein? Sinnvoll eingesetzt, kann der NV40 (und erst recht NV43) von SM3 Performance gewinnen. Diese ließe sich z. B. in neue Effekte stecken. .

Das behauptest du nun schon viele Monate lang. Ich würde sagen seit der Vorstellung im April 2004. Ist nicht mehr lang hin und ein Jahr ist rum. Nur von der SM 3.0 Performance ist nichts zu sehen. Nur Versprechungen von HDR, was man auch flott emulieren kann (Knights of the old republic, HL²). Oder so Sachen wie Softshadows in Riddick welche in "Knights of the old republic" auch mit ATI-Hardware dargestellt werden, nur wesentlich flotter. Der nV4x ist also vorerst ein rasend schneller 2.0 Chip (nicht abwertend gemeint) wie der Vorgänger nur ein flotter DX8 Beschleuniger war (DAS ist abwertend gemeint).

Coda
2005-02-04, 16:05:29
Das behauptest du nun schon viele Monate lang.Naja. Zumindest in FarCry hat's ja was gebracht.

Nur Versprechungen von HDR, was man auch flott emulieren kann (Knights of the old republic, HL²)In HL² wird kein HDR emuliert, das benützt allerhöchstens HDR Cubemaps, von denen ich im Spiel aber auch nix gesehen habe.

Jesus
2005-02-04, 16:09:33
Naja. Zumindest in FarCry hat's ja was gebracht.

Super, leider hat das SM2.0b da prozentual mehr gebracht ;)

In HL² wird kein HDR emuliert, das benützt allerhöchstens HDR Cubemaps, von denen ich im Spiel aber auch nix gesehen habe.

ich auch nicht, es gab nur mal nen Screenshot dazu irgendwo.

Coda
2005-02-04, 16:24:02
Super, leider hat das SM2.0b da prozentual mehr gebrachtWie meinst du das? Hat FC nen speziellen Pfad für R420?
Ach so, du meinst wohl Geometry Instancing. Ja mag sein.

Ich will ja gar nicht widersprechen, dass das SM 3.0 z.Z. wirklich nix bringt. Darum muss man es noch lang nicht kleinreden.

ich auch nicht, es gab nur mal nen Screenshot dazu irgendwo.Und selbst wenn. Es ist immer noch nur ne HDR Cubemap.

StefanV
2005-02-04, 17:11:08
du schliesst also von einem Spiel mit einem Settiung und einem Treiber generell, dass das AF von NV4x unbrauchbar ist?
typisch Stefan Payne.. :rolleyes:
Haben wir noch Argumente auf Lager oder nur persönliche Anfeindungen, die in letzter Zeit seitens einiger User irgendwie häufiger werden :rolleyes:

Du glaubst aber selbst nicht, das das mit 'nem anderen, aktuell erhältlichem Treiber und einem anderen Spiel anders wäre, oder!?

StefanV
2005-02-04, 17:21:34
Ich will ja gar nicht widersprechen, dass das SM 3.0 z.Z. wirklich nix bringt. Darum muss man es noch lang nicht kleinreden.

Es in den Himmel loben aber auch nicht ;)

Jesus
2005-02-04, 17:22:34
Wie meinst du das? Hat FC nen speziellen Pfad für R420?


öhm, ja , seit Patch 1.2 mit \r_SM2BPATH 1 aktivierbar.

Bei 1.31 Standardmässig aktiv.

StefanV
2005-02-04, 17:25:11
Ähm sorry aber wenn du mit uralt treibern zockts wegen Stereo 3D solltest du dich nich wegen schlechter performance beschweren beim NV40 gibts nämlich mit neuen treibern noch den ein oder anderen schub.
Genau deswegen liebe ich nV und einige User so sehr :bonk:

Hätte er 'nen neuen, Beta Treiber genommen, dann hättest geschrieben, das es doch offizielle gäbe und man die hätte nehmen können.
Nimmt man aber Offizielle, dann schreibt irgendwer, das man doch die Betas hätte nehmen könne, ganz toll, entscheidet euch mal, was ihr wollt...

Achja:
Wenn nV so gut ist, wie von einigen hier behauptet, besonders die Treiber, dann dürfte es doch eigentlich egal sein, welchen Treiber man nutz, oder?!

Aber ist schon irgendwie auffällig, das den nV Treibern eine sonst wie hohe Qualität unterstellt wird und dann bei einigen, Microsoft, Games das Hauptmenü fehlt, findest du nicht auch?!

G.a.s.t.
2005-02-04, 17:25:25
[COLOR="#000088"]
Das behauptest du nun schon viele Monate lang. Ich würde sagen seit der Vorstellung im April 2004. Ist nicht mehr lang hin und ein Jahr ist rum. Nur von der SM 3.0 Performance ist nichts zu sehen.
293 Instruktionen lange Pixelshader flüssig. =)

Glolmaster
2005-02-04, 17:38:55
Genau deswegen liebe ich nV und einige User so sehr :bonk:

Hätte er 'nen neuen, Beta Treiber genommen, dann hättest geschrieben, das es doch offizielle gäbe und man die hätte nehmen können.
Nimmt man aber Offizielle, dann schreibt irgendwer, das man doch die Betas hätte nehmen könne, ganz toll, entscheidet euch mal, was ihr wollt...

Achja:
Wenn nV so gut ist, wie von einigen hier behauptet, besonders die Treiber, dann dürfte es doch eigentlich egal sein, welchen Treiber man nutz, oder?!

Aber ist schon irgendwie auffällig, das den nV Treibern eine sonst wie hohe Qualität unterstellt wird und dann bei einigen, Microsoft, Games das Hauptmenü fehlt, findest du nicht auch?!
Hä is ja nunmal normal das man neue technik software mäßig erstmal ausloten muss auf jedenfall ist beim NV40 meiner meinung nach noch viel potenzial vorhanden und ich hab nicht gesagt er solle sich den neusten beta ziehen sondern nur nicht ebend ein uralt treiber oder versuch mal Doom3 auf na X800XT mit nem treiber vor der anpassung zu zocken in hoher auflösung mit AA AF.

Coda
2005-02-04, 17:46:39
Soweit ich weiß aktiviert das aber nur Instancing, denn mehr Interpolatoren hat R420 ja nicht.

Jesus
2005-02-04, 17:51:31
Soweit ich weiß aktiviert das aber nur Instancing, denn mehr Interpolatoren hat R420 ja nicht.

Es werden sehr viel längere Shader benutzt, ähnlich wie beim SM3.0 Pfad, um Lichtquellenberechnungen zusammenzufassen. Afaik werden beim SM3.0 Pfad bis zu 4 Lichtquellen in einem Pass berechnet und beim SM2.0b Pfad drei. (Demirug sagt allerdings mal das auch bei SM2.0b 4 möglich wären, es ist aber selbst mit nur (oder deswegen?) 3 Lichtquellen effizienter als der SM3.0 Pfad)

Instancing hat damit nichts zu tun, das geht auch mit r3xx.

robbitop
2005-02-04, 17:59:33
Haben wir noch Argumente auf Lager oder nur persönliche Anfeindungen, die in letzter Zeit seitens einiger User irgendwie häufiger werden :rolleyes:

Du glaubst aber selbst nicht, das das mit 'nem anderen, aktuell erhältlichem Treiber und einem anderen Spiel anders wäre, oder!?

Ich habe zwei Wochen eine 6800 zum Test da gehabt und ein Wochenende lang mit der 6800LE meines Cousins gespielt. In keinem der Spiele gab es Flimmern im Zusammenhang mit AF.
Treiber: 71.20
Ich sagte es nur, da du generalisierst. Und dein Schluss schlichtweg falsch ist.
Ich wollte dir damit natürlich nicht zu nahe treten.

godess
2005-02-04, 21:54:43
Achja:
Wenn nV so gut ist, wie von einigen hier behauptet, besonders die Treiber, dann dürfte es doch eigentlich egal sein, welchen Treiber man nutz, oder?!

Aber ist schon irgendwie auffällig, das den nV Treibern eine sonst wie hohe Qualität unterstellt wird und dann bei einigen, Microsoft, Games das Hauptmenü fehlt, findest du nicht auch?!


als hätte ati noch nie treiber probleme gehabt, und es hat wenig mit den grafikkarten zu tun, wenn in spielen das hauptmenu fehlt.
bei nem freund, der hat ne ati. der hat, wenn er bei nfsu2 alle deteils angemacht hat, nur noch schwarz gesehen. nur die lichter hat man noch gesehen. da hatte aber auch kein neuer treiber geholfen.

zu dem zweiten: wenn du meinst ein treiber reicht, dann sag das mal ati, dann brauchen die nichmehr 12 sondern nur noch 2 triber pro jahr

Jesus
2005-02-04, 22:00:03
als hätte ati noch nie treiber probleme gehabt, und es hat wenig mit den grafikkarten zu tun, wenn in spielen das hauptmenu fehlt.
bei nem freund, der hat ne ati. der hat, wenn er bei nfsu2 alle deteils angemacht hat, nur noch schwarz gesehen. nur die lichter hat man noch gesehen. da hatte aber auch kein neuer treiber geholfen.

zu dem zweiten: wenn du meinst ein treiber reicht, dann sag das mal ati, dann brauchen die nichmehr 12 sondern nur noch 2 triber pro jahr

Das mit dem schwarzen Bild dürfte wohl AA zusammen mit Fullscreen Effekten sein, was nicht funktioniert.

StefanV
2005-02-04, 22:03:34
1. Darum gehts mir nicht, nur wird 'die andere Seite' immer so dargestellt, als obs keine Treiberprobleme gibt und wenn, dann war der User zu blöd die Treiber zu benutzen...
Darum gehts mir, um nichts anderes!!
Und ja, wenn ein Menü im Spiel fehlt, dann hat das durchaus was mit der GraKa besser gesagt dem Treiber zu tun!!

2. schön, und was hat das jetzt mit meiner Aussage zu tun, außer das du sagen tats 'gugg mal da, die sind genauso böse'?!

3. Tschuldigung aber der letzte Seit ist einfach nur bescheuert denn man kanns auch so sehen, das das ein Service am Kunden ist.
Bei nV muss man solang warten, bis wieder mal was wichtiges erscheint (3DMark, ein 'Top Game', bis die mal 'nen neuen Treiber auf die Page schmeißen, in der Zwischenzeit gibts aber 20-30 Betas.
Das war früher mal anders, da gabs mal innerhalb einer Woche mal 2 neue Treiber!!

Aber das war damals, als nV kurz vor der Pleite stand und nicht wirklich viel zu bieten hatte, also mit der Riva128...

€dit:
Zu deinem 'bekannten mit der ATi Karte' (gott, wie ich diese Sätze liebe):
Was für 'ne Karte hatte er denn?!
Was für 'nen Treiber hatte er denn?!
'nen 2 Jahre alten Cat 3.1?!

aths
2005-02-04, 22:18:29
Habs gefunden http://www.driverheaven.net/articles/atiop/Jener zitierter Text berücksichtigt nicht, dass die Radeon hardwarebedingt ohnehin schon, äh, "optimiert" rendert. Zusätzliche "Optimierungen" bringen dann natürlich weniger.

aths
2005-02-04, 22:21:28
Was aber für die steigende Zahl der TFT Besitzer in Zukunft keine Lösung ist.Na ich gehöre zu denen, die auf dem TFT in 1280x960 spielen, und spare so schon knapp 7% Leistung :) Wenn die Leistung nicht ausreicht, braucht man eine stärkere Graka. Texturen unscharf oder flimmrig hinzu"optimieren" kann keine wünschenswerte Lösung sein.

deekey777
2005-02-04, 22:21:55
Aus den Far Cry ReadMe-Dateien zu SM2.0b bzw. SM3.0:


What differences will I see in the game as result of the addition of Shader Model 2.0b?
Patch v1.2 is a performance driven patch.* As a result, you will experience faster frame rates throughout Far Cry.
*
How long are the Shader Instructions and do you use the benefits of SM 2.0b?
In Far Cry’s SM 2.0b code path we use pixel shaders with up to 96 arithmetic instruction slots. Such pixel shaders cannot be executed using pixel shaders 2.0 target.

Describe your lighting system improvements with SM 2.0b?
The main improvement with SM 2.0b lighting is handling of several light sources (up to 3) together with ambient, environment and light-maps in a single pass. So for example if we have 5 dynamic light sources in the scene with SM 2.0 we have to draw 8 passes (ambient pass + 7 light passes) but with SM 2.0b we will draw just 2 passes (first pass: ambient + 3 light sources; second pass: 2 light sources).***

Reducing the number of passes is a huge benefit because:
***** 1. We don't have to execute vertex shaders several times.
***** 2. It reduces CPU loading.
***** 3. It reduces number of state changes and frame buffer blending.
*
What features do you use from SM 2.0b in order to increase your rendering performance and what are the average benefits in percentage over SM 2.0?
Actually we use 2 main features with SM 2.0b:

****** 1. Pixel/Vertex shaders 2.0b used mostly in indoor scenes (where we use per-pixel lighting heavily) which allow us to draw several light sources in a single pass.
****** 2. Geometry instancing is used mostly in outdoor scenes for vegetation. We split all vegetation to groups and draw them using a optimized code path in a single draw-call.
**** So in the SM 2.0b path performance in both indoor and outdoor scenes is improved. With geometry instancing we have a performance increase of up to 30%, with SM 2.0b lighting - up to 40%.
***** The most significant part of SM 2.0b is that it allows us to increase the lighting and geometry complexity without big performance decreases. In the current generation engine (FarCry: CryENGINE) we optimized our indoor and outdoor scenes taking into account current available hardware (SM 2.0 compliant). As a result the number of dynamic light sources in indoor scenes are limited (depends on scene). In outdoor we use aggressive LOD factors (switching from 3D-models to sprites in the near distance) to reduce the number of calls. But with SM 2.0b it’s easily possible to increase the number of dynamic lights and using more dense forest without big impact to performance.


+GI. ;)
Und die NV35/38 kann auch etwas damit anfangen.


What differences will I see in the game as result of the addition of Shader Model 3.0?
Patch v1.2 is a performance driven patch.* As a result, you will experience faster frame rates (up to 35 percent on NVIDIA 6800 graphics hardware) throughout Far Cry.
*
How long are the Shader Instructions and do you use the benefit of SM 3.0?
In Far Cry we use pixel shaders with up to 150 arithmetic instruction slots. Such pixel shaders cannot be executed using pixel shaders 2.0 target.

Describe your lighting system improvements with SM 3.0?
The main improvement with SM 3.0 lighting is handling of several light sources (up to 4) together with ambient, environment and light-maps in a single pass. So for example if we have 7 dynamic light sources in the scene with SM 2.0 we have to draw 8 passes (ambient pass + 7 light passes) but with SM30 we will draw just 2 passes (first pass: ambient + 4 light sources; second pass: 3 light sources).
***

Reducing the number of passes is a huge benefit because:
***** 1. We don't have to execute vertex shader several times.
***** 2. It reduces CPU loading.
***** 3. It reduces number of state changes and frame buffer blending.
*
What features do you use from SM 3.0 in order to increase your rendering performance and what are the average benefits in percentage over SM 2.0?
Actually we use 2 main features with SM 3.0:

****** 1. Pixel/Vertex shaders 3.0 used mostly in indoor scenes (where we use per-pixel lighting heavily) which allow us to draw several light sources in a single pass. Also we use 10 full precision and range interpolators (In SM 2.0 only 8 interpolators are available).
****** 2. Geometry instancing is used mostly in outdoor scenes for vegetation. We split all vegetation to groups and draw them using a optimized code path in a single draw-call.
**** So in SM 3.0 path performance in both indoor and outdoor scenes is improved. With geometry instancing we have performance increasing up to 30%, with SM 3.0 lighting - up to 40%.
***** The most significant part of SM 3.0 is that it allows us to increase the lighting and geometry complexity without big performance decreases. In the current generation engine (FarCry: CryENGINE) we optimized our indoor and outdoor scenes taking into account current available hardware (SM 2.0 compliant). As a result the number of dynamic light sources in indoor scenes are limited (depends on scene). In outdoor we use aggressive LOD factors (switching from 3D-models to sprites in the near distance) to reduce the number of calls. But with SM 3.0 it’s easily possible to increase the number of dynamic lights and using more dense forest without big impact to performance.
*
Is there a visual fidelity difference between Shader Model 3.0 and Shader Model 2.0 within Far Cry?
There is almost no visual quality difference (except when we don't use frame buffer blending and accumulate lights in the pixel shaders with higher precision, so some visual difference is exist but it's almost not noticeable).
**** Our utilization is focused on performance improvements. One can achieve all necessary cinematic effects with SM 2.0 already. SM 3.0 is more convenient, hence more effective to code and offers the possibility to optimize the rendering performance, decrease the number of passes/draw-calls and optimize shaders with its advanced features such as long shaders, increased number of full-precision interpolators, geometry instancing, and dynamic branching.


Aber hier geht es ja um die 6600GT gegen 9800 Pro. Und die fast zwei Jahre alte 9800Pro hat hier Nachsehen, da Crytek etwas faul war bei der Lichtberechnung auch mal 2 Lichtquellen in einem Pass berechnen zu lassen.

StefanV
2005-02-04, 22:22:12
Jener zitierter Text berücksichtigt nicht, dass die Radeon hardwarebedingt ohnehin schon, äh, "optimiert" rendert. Zusätzliche "Optimierungen" bringen dann natürlich weniger.
Als ob das bei anderen Karten anders wäre :rolleyes:

Aber stimmt ja, Ati ist rot = böse X-D

aths
2005-02-04, 22:25:24
Spielemässig vll. Lies dir jedoch mal durch was ich schon in mehreren Threads zu Overlayprobs uä. gepostet hab.Ich ärgere mich über fehlende Gamma-Korrektur für das NV43-Overlay, sonst habe ich keine Probleme damit.

Sagen wir so. Der andere liegt bei Riddick deutlich und bei D³ geringfügig vorne. Sonst sind mir da keine Spiele bekannt. NV schaffts mit neueren Treiber auch immer mehr aufzuschliessen, nur fürchte ich, dass sich die Optimierungen hauptsächlich auf oft gebenchte Spiele konzentrieren. Irgendwie bietet die x800 Reihe in meinen Augen die bessere Performance "out of the box" .Das liegt sicher nicht zuletzt daran, dass ATI einige Jahre mehr Zeit hatte, um sich auf Spiele-Optimierungen für ihre Architektur zu konzentrieren. Was ich so an Benches gesehen habe, ließ – abgesehen von Ausnahmen, in beide Richtungen – keinen Sieger erkennen.

Die 6800GT hab ich deswegen, weils mich gereizt hat, mal ne NV Karte im Rechner zu haben, und weil ich irsinnig geil auf 3D Stereo bin :love2:, und mir auch schon längst mal die SSAA Modi anschaun wollt.

Dafür gibts overlayprobs, abstürzende Spiele, (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2708314&postcount=61) und (ingesamt imo) leicht schlechtere Performance.Bei der Radeon ging immer alles sofort und ohne Probleme?

aths
2005-02-04, 22:26:19
Richtig, als ich das geflimmere der 6600 bei Yager sah, wurd mir auch gleich ganz schlecht, hab das Spiel dann gleich beendet und AF deaktiviert, ohne flimmerts nicht so doll, genialer Weise...

Ergo: AF ist bei der nV4x in der Momentanen Form unbrauchbar.Also ich gebrauche die AF-Modi vom NV43 neuerdings jeden Tag. Und bei meinen Spielen ist mir da noch kein Flimmern aufgefallen. Ergo: AF ist bei den NV4x-Modellen in der momentanen Form brauchbar.

godess
2005-02-04, 22:27:19
Das mit dem schwarzen Bild dürfte wohl AA zusammen mit Fullscreen Effekten sein, was nicht funktioniert.

das könnte sein. kennst du das problem?

1. Darum gehts mir nicht, nur wird 'die andere Seite' immer so dargestellt, als obs keine Treiberprobleme gibt und wenn, dann war der User zu blöd die Treiber zu benutzen...
Darum gehts mir, um nichts anderes!!

dann sag das bitte auch so, wie du das meinst. es geht mir nämlich aufn sack, wie du den ganzen tag nV runtermachst. und ich meine alle threads in den dieses thema behandelt wird.(siehe: MS + ATi vs. nVIDIA?)

Und ja, wenn ein Menü im Spiel fehlt, dann hat das durchaus was mit der GraKa besser gesagt dem Treiber zu tun!!

das ist genau meine rede, lies bitte ordentlich. es liegt natürlich am treiber.

2. schön, und was hat das jetzt mit meiner Aussage zu tun, außer das du sagen tats 'gugg mal da, die sind genauso böse'?!

was is so schlimm, wenn ich sage, das bei ihv's "böse" sind? das is wenigstens neutral


3. Tschuldigung aber der letzte Seit ist einfach nur bescheuert denn man kanns auch so sehen, das das ein Service am Kunden ist.
Bei nV muss man solang warten, bis wieder mal was wichtiges erscheint (3DMark, ein 'Top Game', bis die mal 'nen neuen Treiber auf die Page schmeißen, in der Zwischenzeit gibts aber 20-30 Betas.
Das war früher mal anders, da gabs mal innerhalb einer Woche mal 2 neue Treiber!!

wieder nich richtig verstanden. je mehr treiber, desto besser. <b>du sagtest das ein treiber reichen müsste.</b>

€dit:
Zu deinem 'bekannten mit der ATi Karte' (gott, wie ich diese Sätze liebe):
Was für 'ne Karte hatte er denn?!
Was für 'nen Treiber hatte er denn?!
'nen 2 Jahre alten Cat 3.1?!

9600 pro, cat. 4.9(der sollte neu genug sein

aths
2005-02-04, 22:29:27
[COLOR="#000088"]Das behauptest du nun schon viele Monate lang.Aber nicht so lange wie ich behaupte, dass deine blaue Postingfarbe nervt.
Ich würde sagen seit der Vorstellung im April 2004. Ist nicht mehr lang hin und ein Jahr ist rum. Nur von der SM 3.0 Performance ist nichts zu sehen. Nur Versprechungen von HDR, was man auch flott emulieren kann (Knights of the old republic, HL²). Oder so Sachen wie Softshadows in Riddick welche in "Knights of the old republic" auch mit ATI-Hardware dargestellt werden, nur wesentlich flotter. Der nV4x ist also vorerst ein rasend schneller 2.0 Chip (nicht abwertend gemeint) wie der Vorgänger nur ein flotter DX8 Beschleuniger war (DAS ist abwertend gemeint). Ein paar Glow- oder Überstrahlungs-Effekte schöpfen die Möglichkeiten, die HDR bietet, lange nicht aus. Daher würde ich keineswegs von HDR-Emulation sprechen. Der NV40 ist mit SM2-Shadern in der Tat kaum kleinzukriegen, während er bei Nutzung von gewissen (nicht allen!) SM3-Features zusätzliche Takte braucht. Trotzdem kann man, sinnvoll eingesetzt, gerade bei komplexen Effekten die Geschwindigkeit mittels SM3 steigern, auch auf dem NV40.

Jesus
2005-02-04, 22:31:14
Jener zitierter Text berücksichtigt nicht, dass die Radeon hardwarebedingt ohnehin schon, äh, "optimiert" rendert. Zusätzliche "Optimierungen" bringen dann natürlich weniger.

Aha intressant und das wäre was ? Winkelabhängigkeit gibts auf beiden. Noch dazu wurden die NV App spezifischen optimierungen nicht deaktiviert, und dennoch hängt bei NV die Performance wesentlich mehr an den Filteroptimierungen als bei ATI.
(und jetz komm mir bitte nicht mit irgendeiner geringeren Rendergenauigkeit bei den Filtern die man nicht sieht, die Flimmerprobleme, die du ja auch (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2710119#post2710119) zu haben scheinst lassen im Moment eher auf eine bessere AF qualität bei ATI schliessen)

aths
2005-02-04, 22:33:05
Als ob das bei anderen Karten anders wäre :rolleyes:

Aber stimmt ja, Ati ist rot = böse X-DBitte bei den Fakten bleiben. Abgesehen vom ATI-mäßigen AF ab 4x bietet die NV40-HW lehrbuchmäßige Texturfilter. Und der ATI-Style beim AF ist besser als das Original. Bi- und trilinear mit 8 Bit Wichtungsfaktoren? Kann R420 nicht (die nehmen 6 bzw. 5 Bit.) NV40 kann das.

StefanV
2005-02-04, 22:33:10
das könnte sein. kennst du das problem?

Its not a bug, its a Feature!!


dann sag das bitte auch so, wie du das meinst. es geht mir nämlich aufn sack, wie du den ganzen tag nV runtermachst. und ich meine alle threads in den dieses thema behandelt wird.(siehe: MS + ATi vs. nVIDIA?)

Und mir gehts aufn Sack, wie einige andere über ATi und nV reden, so what?!
Außerdem bin ich eigentlich jemand, der ab und an auch mal 'ne nV Karte im Rechner hat, hattest du schonmal 'ne ATI Karte drin?!


das ist genau meine rede, lies bitte ordentlich. es liegt natürlich am treiber.

Warum sagst dann nicht, was du meinst?!


was is so schlimm, wenn ich sage, das bei ihv's "böse" sind? das is wenigstens neutral
ROFL
Neutral ist nichts, niemand, das ist nur eine Illusion.
Jemand, der sich neutral nennt, ist meist ein Fanboy, der das nicht wirklich merkt...


wieder nich richtig verstanden. je mehr treiber, desto besser. <b>du sagtest das ein treiber reichen müsste.</b>

Ja, ein Treiber müsste auch reichen, mit dem einen müsste man möglcihst viele Spiele fehlerfrei spielen können...

Meist ists der neuste, bei NV ists eher die Regel, das 2 Probleme gefixt werden, 20 neue dazu kommen und die Performance diverser Hypespiele um 5-10% steigt, natürlich mit entsprechenden 'Optimierungen'...

StefanV
2005-02-04, 22:34:58
Bitte bei den Fakten bleiben. Abgesehen vom ATI-mäßigen AF ab 4x bietet die NV40-HW lehrbuchmäßige Texturfilter. Und der ATI-Style beim AF ist besser als das Original. Bi- und trilinear mit 8 Bit Wichtungsfaktoren? Kann R420 nicht (die nehmen 6 bzw. 5 Bit.) NV40 kann das.
Bitte bei den Fakten bleiben, aths.

Oder wie hoch ist die Relevanz dieser Dinge in Spielen?!
Oder kanns nicht auch sein, das du einige Dinge maßlos überbewertest?!

Achja, da möcht ich dich nochmal selbst zitiren:
Es fällt auch hier schwer, das per "realistischem" Screenshot (also aus einem Spiel) nachzuweisen

Ergo: bei einer Gamerkarte nicht wirklich relevant.
Aber nicht so lange wie ich behaupte, dass deine blaue Postingfarbe nervt.
Mich nicht, außerdem wüsst ich jetzt nicht, was die Farbe von Tigerchen mit dem Thema zu tun hätte :rolleyes:

Jesus
2005-02-04, 22:36:59
. Bi- und trilinear mit 8 Bit Wichtungsfaktoren? Kann R420 nicht (die nehmen 6 bzw. 5 Bit.) NV40 kann das.

Und jetz bitte noch einen Beweis dass das irgendeinen sichtbaren Unterschied macht, danke.

aths
2005-02-04, 22:40:11
Aha intressant und das wäre was ? Winkelabhängigkeit gibts auf beiden. Noch dazu wurden die NV App spezifischen optimierungen nicht deaktiviert, und dennoch hängt bei NV die Performance wesentlich mehr an den Filteroptimierungen als bei ATI.
(und jetz komm mir bitte nicht mit irgendeiner geringeren Rendergenauigkeit bei den Filtern die man nicht sieht, die Flimmerprobleme, die du ja auch (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2710119#post2710119) zu haben scheinst lassen im Moment eher auf eine bessere AF qualität bei ATI schliessen)Winkelabhängige AF-Grad-Senkung gibts bei NV40 erst ab 4x AF. Während NV40 immerhin mindestens 2x anisotrop filtert, schafft R420 das nicht, oder genauer gesagt nicht mit dem korrekten LOD. Statt eine "rissige" Blume ist die NV40-Blume ohne Schwächen in der Polygon-Anordnung. Die isotropen Filter (immerhin setzt sich AF bei beiden aus isotrop gefilterten Samples zusammen) sind bei der Radeon ungenauer.

Was heißt geringere Genauigkeit, die "man" nicht sieht? Du meinst, die "du" nicht siehst. Seit Montag hab ich ne 6600 GT AGP im PC und konnte bislang kein AF-Flimmern entdecken – außer in Doom. Da weiß ich noch nicht, ob das mit dem Bumpmapping zusammenhängt oder mit "bösen" Texturen (die bei der herkömmlichen Filtertechnik prinzipiell zur Flimmrigkeit neigen) oder ob da ungefragt "optimiert" wird.

aths
2005-02-04, 22:42:48
Bitte bei den Fakten bleiben, aths.

Oder wie hoch ist die Relevanz dieser Dinge in Spielen?!
Oder kanns nicht auch sein, das du einige Dinge maßlos überbewertest?!

Achja, da möcht ich dich nochmal selbst zitiren:


Ergo: bei einer Gamerkarte nicht wirklich relevant.Ist es denn unwirklich relevant? Maßlose Übertreibung würde ich das nicht nennen, wenn ich mit der 9600 hier und da Texturqualitätsprobleme hatte (die auf ungenaue LOD-Berechnung schließen lassen) die ich bislang mit keiner GeForce hatte. Ich will aber gerne "zugeben", dass sicher nicht alle Spieler so hohe Qualitätsanforderungen stellen, wie ich.

Und jetz bitte noch einen Beweis dass das irgendeinen sichtbaren Unterschied macht, danke.Nö. Anstatt dir alles vorkauen zu lassen kannst du ja dich auch selbst mal in die Welt der Texturfilter-Qualität begeben :)

StefanV
2005-02-04, 22:44:56
Ist es denn unwirklich relevant? Maßlose Übertreibung würde ich das nicht nennen, wenn ich mit der 9600 hier und da Texturqualitätsprobleme hatte (die auf ungenaue LOD-Berechnung schließen lassen) die ich bislang mit keiner GeForce hatte. Ich will aber gerne "zugeben", dass sicher nicht alle Spieler so hohe Qualitätsanforderungen stellen, wie ich.
Wenn du nicht so maßlos übertreiben würdest, würde auch weniger der Eindruck entstehen, das du nV sehr deutlich bevorzugen würdest.

ABer da du jeden Furz dazu nutzt, um ATi einen Strick draus zu ziehen, entsteht halt ein anderer Eindruck zumal das meiste, was du sagst, füf die meisten Gamer völlig irrelevant ist.

Jesus
2005-02-04, 22:45:10
Nö. Anstatt dir alles vorkauen zu lassen kannst du ja dich auch selbst mal in die Welt der Texturfilter-Qualität begeben :)

War mir irgendwie klar. Wie solltest du auch was zustandebringen was noch kein anderer geschafft hat ;)
Es wäre aber schön wenn du mal ein Bild oder so posten würdest aus irgendeinem Spiel, dass die miserable 5Bit Filterqualität gegen die tolle 8Bit genau NV Filterung aufzeigt, denn ohne Beweis nützen selbst die tollsten technischen Daten nichts. Ich habe jedenfalls weder Artefakte im Bumpmapping noch flimmernde Texturen bei D3 :biggrin:

StefanV
2005-02-04, 22:46:18
Nö. Anstatt dir alles vorkauen zu lassen kannst du ja dich auch selbst mal in die Welt der Texturfilter-Qualität begeben :)
Wie wärs mal wenn du uns das mal erklären würdest, und nicht auf stur schalten würdest, wenn man mal deutlich anderer Meinung ist als du und keinen Sinn in diversen Dingen sieht :rolleyses:

Also bitte, wo ist der _PRAKTISCHE_ Unterschied?!

Aber du sagtest ja selbst, in dem entsprechenden Artikel, das das in der Praxis keinen Unterschied macht!!

Siehe hier (http://www.3dcenter.org/artikel/2003/11-21_b.php)

Es fällt auch hier schwer, das per "realistischem" Screenshot (also aus einem Spiel) nachzuweisen. Solange trilineare Filterung genutzt wird, wird intern maximal um den Faktor 2 bilinear gezoomt. Dann fallen diese blockigen Artefakte noch nicht auf. Diese werden erst dann sichtbar, wenn hochkontrastige Texturen mit hochfrequentem Inhalt stark hochvergrößert werden.

Ergo:
IN der Praxis irrelevant.

godess
2005-02-04, 22:49:42
Its not a bug, its a Feature!!
stimmt, schwarzer bildschirm is geiles feature. nur dafür brauch ich nich extra meinen rechner anmachen.

Außerdem bin ich eigentlich jemand, der ab und an auch mal 'ne nV Karte im Rechner hat, hattest du schonmal 'ne ATI Karte drin?!

1. ich hatte erst 2 (nv)grakas, die erste als nv noch marktführer war. die war in dem fertig rechner drin. die zweite bot für damals das beste preis/leistungsverhältnis. leider bin ich heut anderer meinung. es ist nämlich ein nv35

2. hätte es damals ne 9800pro für den selben preis gegeben, hätte ich mir die gekauft.
damals war die aber noch teurer.
folglich ist es mir scheißegal, von wem die graka in meinem rechner ist. hauptsache die performance und qualität stimmt.

Warum sagst dann nicht, was du meinst?!
wenn ich sage, dass es wenig mit der graka zu tun hat, denke ich NICHT das es an der festplatte liegt, sondern am treiber


ROFL
Neutral ist nichts, niemand, das ist nur eine Illusion.
Jemand, der sich neutral nennt, ist meist ein Fanboy, der das nicht wirklich merkt...

erklär mir, warum ich ein fanboy bin, wenn ich sage das beide, ATi und nV, böse sind!
dann bin ich wahrscheinlich ein fanboy von XGi :ugly:


Meist ists der neuste, bei NV ists eher die Regel, das 2 Probleme gefixt werden, 20 neue dazu kommen

das halte ich für ein gerücht(aufgrund meiner erfahrung mit nV), ich lasse mich aber gern vom gegenteil überzeugen.

aths
2005-02-04, 22:50:43
Meist ists der neuste, bei NV ists eher die Regel, das 2 Probleme gefixt werden, 20 neue dazu kommen und die Performance diverser Hypespiele um 5-10% steigt, natürlich mit entsprechenden 'Optimierungen'...Da ist meine Beobachtung anders: Während ein bestimmter Bug trotz mehrfachen Inkenntnissetzen von NV bis heute nicht gefixt ist, sehe ich ansonsten einen ständigen Aufwärtstrend. Der Treiber bekommt mehr und mehr 2D-Optionen, von denen ich einige gut brauchen kann, und die Leistung in Spielen verbessert sich ingesamt betrachtet auch.

StefanV
2005-02-04, 22:52:54
Da ist meine Beobachtung anders: Während ein bestimmter Bug trotz mehrfachen Inkenntnissetzen von NV bis heute nicht gefixt ist, sehe ich ansonsten einen ständigen Aufwärtstrend. Der Treiber bekommt mehr und mehr 2D-Optionen, von denen ich einige gut brauchen kann, und die Leistung in Spielen verbessert sich ingesamt betrachtet auch.
Richtig, tolle Treiber, die nV hat, wie man besonders deutlich hier (http://forum-3dcenter.de/vbulletin/showpost.php?p=2708968&postcount=62) und da (http://forum-3dcenter.de/vbulletin/showpost.php?p=2708314&postcount=61) sieht.

Wobei das eher Probleme sind, die eigentlich nicht sein dürften, da eher den 2D Teil betreffend...

aths
2005-02-04, 22:53:42
Wenn du nicht so maßlos übertreiben würdest, würde auch weniger der Eindruck entstehen, das du nV sehr deutlich bevorzugen würdest.Wenn es um Texturfilterqualität geht, ja dann bevorzuge ich NV-Produkte. Ginge es um Multisampling-Qualität, würde ich ATIs Radeon-Karten den Vorzug geben.

ABer da du jeden Furz dazu nutzt, um ATi einen Strick draus zu ziehen, entsteht halt ein anderer Eindruck zumal das meiste, was du sagst, füf die meisten Gamer völlig irrelevant ist.Ich versuche, Erklärungen zu finden. Jesus schreibt, Texturfilter-"Optimierungen" bringen bei der Radeon weniger. Für mich ist das aus genannten Gründen kein Wunder. Das kann man ja auch mal akzeptieren, oder (gefiele mir noch besser) Argumente für andere, bessere Erklärungsversuche bringen. Welcher IHV da glänzt oder eben nicht glänzt ist mir doch Latte. Keine Karte hat ausschließlich Pluspunkte vorzuweisen.

aths
2005-02-04, 22:57:13
War mir irgendwie klar. Wie solltest du auch was zustandebringen was noch kein anderer geschafft hat ;)
Es wäre aber schön wenn du mal ein Bild oder so posten würdest aus irgendeinem Spiel, dass die miserable 5Bit Filterqualität gegen die tolle 8Bit genau NV Filterung aufzeigt, denn ohne Beweis nützen selbst die tollsten technischen Daten nichts. Ich habe jedenfalls weder Artefakte im Bumpmapping noch flimmernde Texturen bei D3 :biggrin:Ich weiß jetzt gar nicht, ob Doom 3 Normalmapls überhaupt trilinear filtert.

Die trilinear-LOD-fraction von 5 Bit ist grenzwertig: Bei 4 Bit würden sich ziemlich leicht Situationen nachstellen lassen, in denen es (wenn man genau hinguckt) auffällt. Bei 5 Bit ist dies deutlich schwieriger. Die Mühe mache ich mir bewusst nicht, denn viele Leute sind auch mit bi-AF zufrieden und sehen beim besten Willen kein Banding. Da kann ich wohl nichts machen. Wer keine Scheu hat, mögliche Nachteile seines Produkts zu erfahren, kann sich selbst auf die Suche begeben. Wer das aus irgendwelchen Gründen nicht will, soll es lassen. Mir ist alles recht :)

Jesus
2005-02-04, 22:58:15
Ich versuche, Erklärungen zu finden. Jesus schreibt, Texturfilter-"Optimierungen" bringen bei der Radeon weniger. Für mich ist das aus genannten Gründen kein Wunder. Das kann man ja auch mal akzeptieren, oder (gefiele mir noch besser) Argumente für andere, bessere Erklärungsversuche bringen. Welcher IHV da glänzt oder eben nicht glänzt ist mir doch Latte. Keine Karte hat ausschließlich Pluspunkte vorzuweisen.

Dass es daran liegt das NV da etwas aufwändiger intern rechnet ist sogar sehr wahrscheinlich, allerdings versuchst du es mit deiner Antwort auch noch zu rechtfertigen und stellst es sogar als qualitativ überlegen dar (ATI kann das nicht...), obwohl es in der Praxis keinen Unterschied macht.

godess
2005-02-04, 22:58:31
Wenn du nicht so maßlos übertreiben würdest, würde auch weniger der Eindruck entstehen, das du nV sehr deutlich bevorzugen würdest.

und


ABer da du jeden Furz dazu nutzt, um ATi einen Strick draus zu ziehen, entsteht halt ein anderer Eindruck zumal das meiste, was du sagst, füf die meisten Gamer völlig irrelevant ist.

lol, du machst genau dasselbe, nur für ATi. achte mal drauf

aths
2005-02-04, 22:59:31
Wie wärs mal wenn du uns das mal erklären würdest, und nicht auf stur schalten würdest, wenn man mal deutlich anderer Meinung ist als du und keinen Sinn in diversen Dingen sieht :rolleyses:

Also bitte, wo ist der _PRAKTISCHE_ Unterschied?!In deiner Welt mit deinen Spielen wirst du kaum je einen praktischen Unterschied ausmachen können. In meiner Welt, in der es auch etwas mehr 3D-Applikationen als nur Spiele gibt, macht es was aus.

Ergo:
IN der Praxis irrelevant.Irgendeinen Link herbeizaubern und messerscharf schlussfolgern ist deine Stärke. Nicht deine Stärke ist zu hinterfragen, wo ATI im Vergleich zu NV bei der Texturfilterung hardwarebedingt überall Performance spart, und warum zusätzliche Optimierungen dann weniger bringen.

Jesus
2005-02-04, 22:59:42
Die Mühe mache ich mir bewusst nicht, denn viele Leute sind auch mit bi-AF zufrieden und sehen beim besten Willen kein Banding. Da kann ich wohl nichts machen. Wer keine Scheu hat, mögliche Nachteile seines Produkts zu erfahren, kann sich selbst auf die Suche begeben. Wer das aus irgendwelchen Gründen nicht will, soll es lassen. Mir ist alles recht :)

Also ich habe noch nie einen Test "5 Bit ATI vs 8 Bit NV" BQ im Netz gesehen, ein Link würde mir schon reichen ;)

Jesus
2005-02-04, 23:00:49
In deiner Welt mit deinen Spielen wirst du kaum je einen praktischen Unterschied ausmachen können. In meiner Welt, in der es auch etwas mehr 3D-Applikationen als nur Spiele gibt, macht es was aus.


AF `Test Programme :biggrin:

aths
2005-02-04, 23:02:10
Dass es daran liegt das NV da etwas aufwändiger intern rechnet ist sogar sehr wahrscheinlich, allerdings versuchst du es mit deiner Antwort auch noch zu rechtfertigen und stellst es sogar als qualitativ überlegen dar (ATI kann das nicht...), obwohl es in der Praxis keinen Unterschied macht.Vielleicht können wir uns auf eine Sache verständigen: NVs Texturfilterlösung ist (bei maximaler HW-Qualität) besser als ATIs Texturfilterlösung (ebenfalls bei maximaler HW-Qualität.) Allerdings reicht ATIs Qualität schon so gut aus, dass die NV-Lösung in Spielen für das übliche Gamer-Auge keinen sichtbaren Qualitätsvorteil bringt.

Jesus
2005-02-04, 23:07:24
Vielleicht können wir uns auf eine Sache verständigen: NVs Texturfilterlösung ist (bei maximaler HW-Qualität) besser als ATIs Texturfilterlösung (ebenfalls bei maximaler HW-Qualität.) Allerdings reicht ATIs Qualität schon so gut aus, dass die NV-Lösung in Spielen für das übliche Gamer-Auge keinen sichtbaren Qualitätsvorteil bringt.

Abgemacht, allerdings stellen die 5 Bit ja auch genau das dar was im RefRast definiert ist, von daher sehe ich da auch in theoretischer hinsicht keinen Vorteil (zumindest in D3D nicht).

StefanV
2005-02-04, 23:08:34
AF `Test Programme :biggrin:
Scheint mir auch so, nur sollten wir nicht vergessen, was vermutlich der Hauptsächliche Einsatzzweck (bzw der Hauptgrund) für diverse GraKas sind:

Spiele.

Demirug
2005-02-04, 23:10:27
Abgemacht, allerdings stellen die 5 Bit ja auch genau das dar was im RefRast definiert ist, von daher sehe ich da auch in theoretischer hinsicht keinen Vorteil (zumindest in D3D nicht).

Warum wohl nur hat der Refrast nur 5 Bits? Der entsprechende Code war übrigens schon im Refrast für DX7 enthalten.

Jesus
2005-02-04, 23:11:28
Warum wohl nur hat der Refrast nur 5 Bits? Der entsprechende Code war übrigens schon im Refrast für DX7 enthalten.

Bitte keine Verschwörungstheorien mehr ;)

StefanV
2005-02-04, 23:11:58
Vielleicht können wir uns auf eine Sache verständigen: NVs Texturfilterlösung ist (bei maximaler HW-Qualität) besser als ATIs Texturfilterlösung (ebenfalls bei maximaler HW-Qualität.) Allerdings reicht ATIs Qualität schon so gut aus, dass die NV-Lösung in Spielen für das übliche Gamer-Auge keinen sichtbaren Qualitätsvorteil bringt.
1. richtig, nV ist besser, das siehst besonders gut hier (http://forum-3dcenter.de/vbulletin/showthread.php?t=200095)
Da frag ich mich doch glatt, wie die ATis es doch schaffen, besser als die nVs zu sein...

2. schön, _FÜR DICH_ nur warum hab ich erwartet, das so ein Spruch wie 'es gibt noch was anderes als Spiele' kommt, wenn du allzu sehr mitm Rücken zur Wand stehst?!
Ja, nee, ist klar, bei Spielen ist der Unterschied nicht nennenswert, damit kommen wir nicht weiter, da müssen wir doch mal was neues mit einbringen X-D

godess
2005-02-04, 23:17:14
Da frag ich mich doch glatt, wie die ATis es doch schaffen, besser als die nVs zu sein...

können wir uns darauf einigen, dass weder ATi noch nV im allgemeinen besser ist?
jeder ihv kann in anderen kernbereichen glänzen, aber im großen und ganzen.


2. schön, _FÜR DICH_ nur warum hab ich erwartet, das so ein Spruch wie 'es gibt noch was anderes als Spiele' kommt, wenn du allzu sehr mitm Rücken zur Wand stehst?!
Ja, nee, ist klar, bei Spielen ist der Unterschied nicht nennenswert, damit kommen wir nicht weiter, da müssen wir doch mal was neues mit einbringen

willst du aths jetzt runtermachen, weil er noch was anderes mit grakas machen will?

Demirug
2005-02-04, 23:21:35
Bitte keine Verschwörungstheorien mehr ;)

Das hat nichts mit Verschwörungstheorien zu tun. 5 Bit ist ganz einfach die DX Mindestanforderung die seit damals nie geändert wurde. Mindestanforderungen werden danach festgelegt was die Hardware kann. Solange ATI nicht mehr als 5 liefern will bleibt die Mindestanforderung auch bei 5 Bit. DX Mindestanforderungen werden nicht unbedingt aufgrund von sinnhaftigkeit festgelegt sonder aufgrund der Hardware die den Standard unterstützen soll.

StefanV
2005-02-04, 23:25:29
können wir uns darauf einigen, dass weder ATi noch nV im allgemeinen besser ist?
jeder ihv kann in anderen kernbereichen glänzen, aber im großen und ganzen.

Nichts anderes sag ich, eigentlich :rolleyes:


willst du aths jetzt runtermachen, weil er noch was anderes mit grakas machen will?
Wenn du mir sagen kannst, was:

In deiner Welt mit deinen Spielen wirst du kaum je einen praktischen Unterschied ausmachen können. In meiner Welt, in der es auch etwas mehr 3D-Applikationen als nur Spiele gibt, macht es was aus.

Mit diesem Thread zu tun hat, gerne.

Aber solche Kommentare, wenn man sich gerad auf Spiele bezogen hat, sind in diesem Forum nicht unüblich, wenn sie auch von einem anderen, ehemaligen User, getätigt wurden.

Nur ändert das nichts an der Sinnlosigkeit dieser Aussage, in einem Thread, in dem es eindeutig um Spiele geht, findest du das nicht auch?!

Coda
2005-02-04, 23:26:58
können wir uns darauf einigen, dass weder ATi noch nV im allgemeinen besser ist?Mit Payne? Vergiss es.

godess
2005-02-04, 23:29:55
[quote=godess]
können wir uns darauf einigen, dass weder ATi noch nV im allgemeinen besser ist?
jeder ihv kann in anderen kernbereichen glänzen, aber im großen und ganzen.[/qoute]

Nichts anderes sag ich, eigentlich

lol, das is verleumdung. ver arschen kann ich mich selber aber besser.

Wenn du mir sagen kannst, was:
warum fragst du mich? frag aths. der hat es aber schon geschrieben.

aths
2005-02-04, 23:34:18
2. schön, _FÜR DICH_ nur warum hab ich erwartet, das so ein Spruch wie 'es gibt noch was anderes als Spiele' kommt, wenn du allzu sehr mitm Rücken zur Wand stehst?!Dir scheint noch immer nicht klar, worum es mir hier eigentlich geht, obwohl ich das deutlich schrieb. Geht es um eine kleinste gemeinsame Basis, komme ich sogar mit Jesus aus, nur du musst weiter machen. Sorry, Payne, spiel mit dir alleine – ich hab sinnvolleres zu tun. Zum Beispiel mit Max Payne die Ermittlungen wieder aufnehmen.

reunion
2005-02-04, 23:35:14
In deiner Welt mit deinen Spielen wirst du kaum je einen praktischen Unterschied ausmachen können. In meiner Welt, in der es auch etwas mehr 3D-Applikationen als nur Spiele gibt, macht es was aus.


zB?

Banshee18
2005-02-04, 23:35:30
In deiner Welt mit deinen Spielen wirst du kaum je einen praktischen Unterschied ausmachen können. In meiner Welt, in der es auch etwas mehr 3D-Applikationen als nur Spiele gibt, macht es was aus.

Was für 3D-Applikationen sind das, wenn man fragen darf?

In welchen Spielen fallen DIR diese 5bit auf? (Damit man das eventuell mal besser nachvollziehen kann.)

mfg

Banshee

StefanV
2005-02-04, 23:36:26
Dir scheint noch immer nicht klar, worum es mir hier eigentlich geht, obwohl ich das deutlich schrieb. Geht es um eine kleinste gemeinsame Basis, komme ich sogar mit Jesus aus, nur du musst weiter machen. Sorry, Payne, spiel mit dir alleine – ich hab sinnvolleres zu tun.
Dir scheint auch nicht klar zu sein, das es meist um Spiele geht, wenn wir hier über was diskutieren :rolleyes:

Vielleicht schreibst du nächstesmal besser dazu, wenn du Professionelle Software meinst, oder den Bezug auf Professionelle Software vermeidest, wenn über Karten im Sinne von Gamerkarten diskutiert :rolleyes:

Oder aber du beziehst dich am besten auf die Praxis und nicht die Theorie bzw kennzeichnest es entsprechend und stellst deine Meinung/Ansichten nicht als Fakt dar...

Jesus
2005-02-04, 23:36:51
1. richtig, nV ist besser, das siehst besonders gut hier (http://forum-3dcenter.de/vbulletin/showthread.php?t=200095)
Da frag ich mich doch glatt, wie die ATis es doch schaffen, besser als die nVs zu sein...

Hm, mglw ist das dasselbe Problem das Aths bei D3 hat ?

godess
2005-02-04, 23:37:40
kennt ihr alle tatsächlich keine nicht-spiele 3d-anwendungen?

StefanV
2005-02-04, 23:39:30
kennt ihr alle tatsächlich keine nicht-spiele 3d-anwendungen?
Doch, nur interessiert das hier in diesem Forum kaum einen, da man damit nichts am Hut hat, da man das einfach nicht braucht...

Der Punkt 'gibt noch was anderes als Spiele' wird auch gern als 'Ausrede' benutzt, wenn 'der andere' in der Welt der Spiele nicht mehr weiterkommt, daher meine Reaktion...

Das hauptsächlich relevante Anwendungsgebiet dieses Forums sind zweifelsohne die Spiele, daher sollten wir alle uns auch möglichst darauf einigen, das wir uns auf Spiele beziehen, wenn nichts explizit erwähnt wurde und auch tunlichst vermeiden, was anderes als Spiele, in einem entsprechenden Thread zur Sprache zu bringen, nur weils einem gerad in den Kram passt...

godess
2005-02-04, 23:41:37
Doch, nur interessiert das hier in diesem Forum kaum einen, da man damit nichts am Hut hat, da man das einfach nicht braucht...

Der Punkt 'gibt noch was anderes als Spiele' wird auch gern als 'Ausrede' benutzt, wenn 'der andere' in der Welt der Spiele nicht mehr weiterkommt, daher meine Reaktion...

Das hauptsächlich relevante Anwendungsgebiet dieses Forums sind zweifelsohne die Spiele, daher sollten wir alle uns auch möglichst darauf einigen, das wir uns auf Spiele beziehen, wenn nichts explizit erwähnt wurde und auch tunlichst vermeiden, was anderes als Spiele, in einem entsprechenden Thread zur Sprache zu bringen, nur weils einem gerad in den Kram passt...
dann reg dich nich auf wenn es doch leute gibt, die sowas interessiert.

StefanV
2005-02-04, 23:43:25
dann reg dich nich auf wenn es doch leute gibt, die sowas interessiert.
Ich reg mich nicht auf, weils Leute gibt, die das interessiert, ich reg mich auf, weils Leute gibt, die das als Ausrede benutzen, wenn sie mitm Rücken zur Wand stehen und es ihnen nicht möglich ist, eine Antwort zu finden, die sich auf Spiele bezieht, so wie in diesem Fall...

Ist schon irgendwie auffällig, in welchem Zusammenhang die 'Nichtspielewelt' fiel, findest du nicht auch?!

godess
2005-02-04, 23:46:46
Ist schon irgendwie auffällig, in welchem Zusammenhang die 'Nichtspielewelt' fiel, findest du nicht auch?!

wie meinst du das? wenn ich zu blöd bin, liegts daran das ich müde bin.

alte leier
2005-02-04, 23:47:19
Ich reg mich nicht auf, weils Leute gibt, die das interessiert, ich reg mich auf, weils Leute gibt, die das als Ausrede benutzen, wenn sie mitm Rücken zur Wand stehen und es ihnen nicht möglich ist, eine Antwort zu finden, die sich auf Spiele bezieht, so wie in diesem Fall...

Ist schon irgendwie auffällig, in welchem Zusammenhang die 'Nichtspielewelt' fiel, findest du nicht auch?!


gäähhnn...

godess
2005-02-04, 23:56:44
gäähhnn...
genau. du sagst es. :biggrin: ich geh jetzt pennen. so viel wie heut hab ich noch nie an einem tag gepostet. da brauch ich ne nacht als pause. ;D schlaft schön

aths
2005-02-05, 01:03:57
zB?Zum Beispiel die Möglichkeit, die Grafikkarte zu zweckentfremden. Die GPU ist nicht viel mehr als ein spezialisierter Streamprozessor. Ich bin allerdings noch nicht so weit, sowas selbst programmieren zu können.

In welchen Spielen fallen DIR diese 5bit auf? (Damit man das eventuell mal besser nachvollziehen kann.)Mir fallen diese 5 Bit gar nicht auf – da ich keine Radeon drin habe. Es sind nicht nur die 5 Bit LOD-Fraction. ATI hat texturfiltermäßig praktisch überall die Genauigkeit bis an die Wahrnehmungsschwelle gebracht. Auch bezüglich der Polygongenauigkeit scheint es Kompromisse zu geben. Wenn man einfach nur so Spiele spielt, mag das nicht auffallen. Wenn man sich beim Spielen bewusst umguckt, kommt ein Effekt zum anderen. Ich würde es mit 128 Kbit MP3 und echter CD vergleichen. Viele sind mit dem MP3 zufrieden.

Die Qualitäts-Diskussion ist ermüdend. Als ich ATI die (verheimlichte) brilineare Filterung vorwarf, hieß es, man würde keinen Unterschied sehen. Später hieß es, in echten Spielen würden man keinen Unterschied sehen, als ich sagte dass man in Testprogrammen die Differenz sehr wohl sichtbar machen kann. Dabei ist es Wurst, ob die Textur im Testprogramm oder im Spiel dargestellt wird, die Graka rendert einfach Texturen. Nur eben oft Texturen, die die Filter nicht in Gänze ausreizen. (Warum wohl?)

Als ich bei NV die brilineare Filterung ansprach, wollte man mir weißmachen, dass die aktuelle Methode die bilinearen Nachteile verhindern würde, womit doch alles in Butter sei. Das ist natürlich Quatsch. Das Banding wird zwar reduziert, aber nicht verhindert.

Beide überbieten sich mit den Lobpreisungen ihrer Shader-Technik. Keiner spricht davon, dass Texturfilter Input-Daten für Pixelshader aufbereiten. Nun hat ATI sowieso nur FP24-Shader. Das wird eng, wenn du einen dependent read auf eine 2048-er Textur machst. Ist im konkreten Fall allerdings nicht so schlimm, da der bilineare Filter bei ATI eh recht ungenau ist.

Wenn ich z. B. Max Payne spiele, sind die Texturen (verglichen mit aktuellen Bildschirm-Auflösungen) recht grob. Da fallen Ungenauigkeiten entsprechend wenig auf. In HL2 scheint eher die GF als die Radeon Probleme zu haben (ich habe kein HL2 und kann dazu nichts weiter sagen.) Liegt das jetzt an der Rechengenauigkeit, oder daran dass für die Radeon besser getestet wurde? In FC lässt sich ein Grafikproblem provozieren, weil NV die IEEE-Konventionen für FP-Formate besser implementiert hat, als ATI, und sich die FC-Entwickler offenbar darauf verließen dass ATIs einfacher Weg von allen eingeschlagen wird.

Schon weil die Radeon-HW einen relevanten Teil bei den verbreiteten Grafikkarten ausmacht, werden Entwickler darauf achten, dass die Grafik ok ist. Wäre bislang die (volle, un"optimierte") GeForce-Texturfilterqualität Standard und jetzt würde ATI plötzlich mit ihren Vereinfachungen kommen, dann bestünde die echte Gefahr das auch in Spielen zu sehen.

So aber wird einfach verhindert, dass wir beste Texturen zu sehen bekommen. NV macht ja seit dem NV30 fleißig dabei mit, uns an immer schlechtere Texturen zu gewöhnen. Mit "lehrbuchmäßigen" Filtern könnten die Entwickler schärferes Texturmaterial einsetzen, ohne Banding oder Flimmern zu riskieren. So aber müssen wir über die Auflösung gehen – was irre ineffizient ist.

aths
2005-02-05, 01:10:39
Doch, nur interessiert das hier in diesem Forum kaum einen, da man damit nichts am Hut hat, da man das einfach nicht braucht...Du brauchst es nicht.

Der Punkt 'gibt noch was anderes als Spiele' wird auch gern als 'Ausrede' benutzt, wenn 'der andere' in der Welt der Spiele nicht mehr weiterkommt, daher meine Reaktion...Aus deiner Sicht, wo Grakas nur Spiele-Beschleuiger sind, mag das als Ausrede erscheinen.

Das hauptsächlich relevante Anwendungsgebiet dieses Forums sind zweifelsohne die Spiele, daher sollten wir alle uns auch möglichst darauf einigen, das wir uns auf Spiele beziehen, wenn nichts explizit erwähnt wurde und auch tunlichst vermeiden, was anderes als Spiele, in einem entsprechenden Thread zur Sprache zu bringen, nur weils einem gerad in den Kram passt...Darauf einige ich mich wohl nicht.

In meiner Belegarbeit kommt wenn ich mich recht entsinne zwei mal das Wort "Nvidia" vor, und kein einziges mal "ATI". (Und Shader Model 3 wird an einer Stelle erwähnt, Shader Model 2 hingegen nicht.)

Mr. Lolman
2005-02-05, 09:21:36
Der NV40 ist mit SM2-Shadern in der Tat kaum kleinzukriegen,

Mit Ruby schon...

Mr. Lolman
2005-02-05, 09:36:43
Bei der Radeon ging immer alles sofort und ohne Probleme?

Bei der R300 schon (mal abgesehen vom Gammabug, wo man halt kurz den Helligkeitsregler penetriert). Nur die ersten paar Treiber für die R200 machten tw. so richtig Stress. Aber das sich Spieleanwendungen aufhängen wenn Videos rennen, sich der Desktop aufs 4 fache aufbläht oder DeInterlacte Overlays ruckeln, hatt ich bei der ATi Karte nicht.

Gut die meisten Probleme hätt ich wohl nicht, wenn keine TV Karte in meinem Rechner wär, aber so sind die NV Treiber im 2D Bereich mieser als das was man mit ner V5 vorgesetzt bekommt. Zur Info. Für die V5 gibts keinen offiziellen WindowsXP Treiber. Die wurden alle von irgendwelchen Fans oder im besten Fall mit Hilfe eines ex 3dfx Mitarbeiters zusammengeschustert, und trotzdem hab ich keins dieser Perobleme mit der TV Karte wenn die V5 eingebaut ist...

So aber wird einfach verhindert, dass wir beste Texturen zu sehen bekommen. NV macht ja seit dem NV30 fleißig dabei mit, uns an immer schlechtere Texturen zu gewöhnen. Mit "lehrbuchmäßigen" Filtern könnten die Entwickler schärferes Texturmaterial einsetzen, ohne Banding oder Flimmern zu riskieren. So aber müssen wir über die Auflösung gehen – was irre ineffizient ist.

Ich glaub, Entwicklern ist das egal. Wenns flimmert ist eh der IHV schuld. Riddick flimmert stellenweise auf ner R300, übelst. Das schärfere Texturmaterial ist wohl deswegen ein Problem weil manche wohl einfach zu blöd sind, vernünftigen Texturcontent zu fabrizieren. Problem ist ja nicht das scharfe Texturmaterial ansich, sondern große Unterschiede zw. einzelnen Mipmaps (was natürlich durch scharfes Texturmaterial noch zusätzlich begünstigt wird)

Warum würden bei vielen UT2003/4 Texturen 75% der Texturgrösse reichen, oder warum flimmerts trotz LOD -0.5 @ standard und div. Filteroptimierungen kaum? Genau weil der Content so verpfuscht ist, und dementsprechend genug Optimierungspotential bietet, was dann halt schon mal zu 40-50% Mehrperformance führen kann.

StefanV
2005-02-05, 10:02:40
@Aths und andere:

'Beim großen Krieg' schauts momentan folgend aus:
ATI: im großen und ganzen OK
nV: shit, siehe Lolman, dazu Freezes/Reboots wenn DEP/NX-Bit an ist, nicht wirklich pralles Overlay und noch andere Dinge, die einfach nicht sein dürften.
Dazu kommen noch diverse HW Probleme, z.B. die reihenweise abrauchenden 6600GTs, falsch ausgelieferte Karten (MSI, Gigabyte, 1 Quad deaktiviert)...

Alles in allem schauts für nV momentan weniger gut aus, von den guten Treibern und der guten HW ist nicht wirklich viel zu sehen...

StefanV
2005-02-05, 10:03:26
Darauf einige ich mich wohl nicht.

Dann mach 'nen Poll, dann wirst schon sehen, wozu die meisten ihre GraKa benutzen :rolleyes:

Coda
2005-02-05, 12:15:21
Warum würden bei vielen UT2003/4 Texturen 75% der Texturgrösse reichen, oder warum flimmerts trotz LOD -0.5 @ standardDas Problem ist dass DXT Kompression nur 2er Potenzen als Texturgrößen zulässt, also entweder 1024x1024 oder 512x512. In 512x512 hättest du aber bei denTexturen in UT2004 schon wieder nen Qualitätsverlust.
Deshalb hat man sich wohl für 1024x1024 mit einem leichten LOD Bias entschieden.

Demirug
2005-02-05, 12:51:26
Das Problem ist dass DXT Kompression nur 2er Potenzen als Texturgrößen zulässt, also entweder 1024x1024 oder 512x512. In 512x512 hättest du aber bei denTexturen in UT2004 schon wieder nen Qualitätsverlust.
Deshalb hat man sich wohl für 1024x1024 mit einem leichten LOD Bias entschieden.

Das mit den 2er Potezen ist so nicht ganz richtig. DXT Texturen müssen lediglich ein vielfaches von 4 als Höhe und Breite auf der grössten Mipmap haben. Bei den folgenden Mipmaps wird notfalls intern gepaddet. Ich weiß das irgendwo in der DX Dokumentation noch was anderes steht aber das ist offensichtlich falsch und wurde wahrscheinlich einfach aus einer älteren DX version direkt übernommen.

Das man bei Spielen aber trotzdem gerne noch 2er Potenzen für die Texturen nutzt hat trotzdem Gründe.

Es gibt Hardware die allgemein nur Texturen mit 2er Potzen als grösse Unterstützt. Bei machen Chips müssen sie sogar zwingend Quadratisch sein.

Aber selbst bei Hardware die andere Grössen erlaubt sind Texturen mit 2er Potzen als Grösse teilweise schneller weil bei anderen Grössen einen zusätzliche Skalierung in der Vertex oder Pixelpipe notwendig ist weil die TMU selbst nur mit 2er Potenzen klar kommt.

aths
2005-02-05, 13:15:30
@Aths und andere:
[...]
Alles in allem schauts für nV momentan weniger gut aus, von den guten Treibern und der guten HW ist nicht wirklich viel zu sehen...Das ist deine Sicht der Dinge.
Dann mach 'nen Poll, dann wirst schon sehen, wozu die meisten ihre GraKa benutzen :rolleyes:Mach mal einen Poll, welche "Zeitung" in Deutschland meisten gelesen wird. Daran orientiere ich mich ja auch nicht.

aths
2005-02-05, 13:20:48
Bei der R300 schon (mal abgesehen vom Gammabug, wo man halt kurz den Helligkeitsregler penetriert). Nur die ersten paar Treiber für die R200 machten tw. so richtig Stress. Aber das sich Spieleanwendungen aufhängen wenn Videos rennen, sich der Desktop aufs 4 fache aufbläht oder DeInterlacte Overlays ruckeln, hatt ich bei der ATi Karte nicht.
Mit der Radeon 9600 liefen bei mir nicht alle Spiele (auf Anhieb) ohne Grafikfehler. Wenn ich mich recht entsinne, machte u. a. NFS: Porsche Macken. Ich glaube sogar, dass ich das Spiel gar nicht richtig zum Laufen bekam.

Gut die meisten Probleme hätt ich wohl nicht, wenn keine TV Karte in meinem Rechner wär, aber so sind die NV Treiber im 2D Bereich mieser als das was man mit ner V5 vorgesetzt bekommt. Zur Info. Für die V5 gibts keinen offiziellen WindowsXP Treiber. Die wurden alle von irgendwelchen Fans oder im besten Fall mit Hilfe eines ex 3dfx Mitarbeiters zusammengeschustert, und trotzdem hab ich keins dieser Perobleme mit der TV Karte wenn die V5 eingebaut ist...Mit meiner TV-Karte hatte ich keine Probleme mit der Voodoo4 4500, genauso wenig mit der GeForce4 Ti 4600, der Radeon 9600, der GeForce FX 5900 XT und der GeForce 6600 GT.


Ich glaub, Entwicklern ist das egal. Wenns flimmert ist eh der IHV schuld. Riddick flimmert stellenweise auf ner R300, übelst. Das schärfere Texturmaterial ist wohl deswegen ein Problem weil manche wohl einfach zu blöd sind, vernünftigen Texturcontent zu fabrizieren.Riddick flimmert wahrscheinlich nicht wegen den Texturen, sondern wegen ungeschicktem Bumpmapping? (Ok, Normalmaps sind auch als Texturen gespeichert, aber das Problem ist hier anders gelagert.)

Problem ist ja nicht das scharfe Texturmaterial ansich, sondern große Unterschiede zw. einzelnen Mipmaps (was natürlich durch scharfes Texturmaterial noch zusätzlich begünstigt wird) Unterschiede zwischen einzelnen MIPs werden durch trilineare Filterung gut überblendet.
Warum würden bei vielen UT2003/4 Texturen 75% der Texturgrösse reichen, oder warum flimmerts trotz LOD -0.5 @ standard und div. Filteroptimierungen kaum? Genau weil der Content so verpfuscht ist, und dementsprechend genug Optimierungspotential bietet, was dann halt schon mal zu 40-50% Mehrperformance führen kann.40-50%? Naja. Jedenfalls flimmern bestimmte Texturen (vor allem Bodengitter) bei mir in UT immer, egal ob Radeon oder GeForce. UT ist allerdings ein einzelnes Beispiel.

StefanV
2005-02-05, 14:49:45
Mit der Radeon 9600 liefen bei mir nicht alle Spiele (auf Anhieb) ohne Grafikfehler. Wenn ich mich recht entsinne, machte u. a. NFS: Porsche Macken. Ich glaube sogar, dass ich das Spiel gar nicht richtig zum Laufen bekam.

Als ob nV Karten immer und überall fehlerfrei laufen würden :rolleyes:

Aktuelle Beispiele.

One Must Fall Battlegrounds und Crimson Skies...

€dit:
Im ersten Fall:
Weißer Schirm in der Arena

Im 2. Fall:
Kein Hauptmenü

Frank
2005-02-05, 15:12:41
Als ob nV Karten immer und überall fehlerfrei laufen würden :rolleyes:

Aktuelle Beispiele.

One Must Fall Battlegrounds und Crimson Skies...Mir fallen spontan auch einige Spiele ein, welche mit der oder mit der anderen Karte nicht 100% korrekt laufen. Allerdings hat es keinen Sinn hier und jetzt solche Erbsenzählerei zu veranstalten - egal ob mit 3D oder zb. 2D bei nvidia (im Zusammenhang mit TV Karten). Da könnt ich jetzt auch kommen und rumerzählen, dass ATI Karten mit AIW Funktionalität und ihrer Software ein einziger großer Bug sind. Aber das sind nunmal Einzelfälle und bei jedem Rechner schaut es wieder anders aus. Deswegen ist es müßig und zugleich wohl absolut sinnlos hier solch eine pingelige Aktion zu veranstalten oder gar mit Zeigefinger auf Personen zu zeigen, die wohl mal eine andere Meinung haben, als man selbst.



Threadtitel ...

Jesus
2005-02-05, 15:40:31
Da könnt ich jetzt auch kommen und rumerzählen, dass ATI Karten mit AIW Funktionalität und ihrer Software ein einziger großer Bug sind. Aber das sind nunmal Einzelfälle und bei jedem Rechner schaut es wieder anders aus. Deswegen ist es müßig und zugleich wohl absolut sinnlos hier solch eine pingelige Aktion zu veranstalten oder gar mit Zeigefinger auf Personen zu zeigen, die wohl mal eine andere Meinung haben, als man selbst.
´

Also mit AIW hatte ich jetzt eigentlich noch nie Probleme, ich nehm fast Wöchentlich damit vom TV auf. Nur als ich mal nen beta Treiber installiert hatte der keine Media files dabei hatte funktoinierte das natürlich nicht mehr.

Ansonsten funktionert das ganze einfach :)

Exxtreme
2005-02-05, 16:11:46
Hmmm, wie ich sehe, haben sich die Leute hier lange nicht mehr verbal gekloppt. Da die IHVs seit langer Zeit keine Gründe für eine Klopperei geliefert haben. Aber lasst euch von mir nicht stören. ;)

Mr. Lolman
2005-02-05, 16:55:51
Mit der Radeon 9600 liefen bei mir nicht alle Spiele (auf Anhieb) ohne Grafikfehler. Wenn ich mich recht entsinne, machte u. a. NFS: Porsche Macken. Ich glaube sogar, dass ich das Spiel gar nicht richtig zum Laufen bekam.

Ja stimmt, irgendeine Catalystversion (iirc 3.7) machte mit nem ungepatchten NFSU Probleme, sry hatte ich vergessen.


Mit meiner TV-Karte hatte ich keine Probleme mit der Voodoo4 4500, genauso wenig mit der GeForce4 Ti 4600, der Radeon 9600, der GeForce FX 5900 XT und der GeForce 6600 GT.

Glaub ich dir gerne. Allerdings hab ich jetzt und hier diese Probleme, welche sich zum Großteil allerdings, angeblich mit 3rd Party TV Software lösen lassen könnten.

Riddick flimmert wahrscheinlich nicht wegen den Texturen, sondern wegen ungeschicktem Bumpmapping? (Ok, Normalmaps sind auch als Texturen gespeichert, aber das Problem ist hier anders gelagert.)

Da muss man wieder differenzieren. Shimmering, Moiré, Banding - das ist eigentlich oft im Auge des jew. Betrachters alles "Flimmern". Hier im konkreten Fall meinte ich eigentlich Moire. Und wenn das innerhalb einer undurchsichtigen Textur auftritt -> blame the trilinear filtering.


Unterschiede zwischen einzelnen MIPs werden durch trilineare Filterung gut überblendet.

Jaja, durch trilineare Filterung. Aber der gute trilineare Filter wird ja spätestens seit R300 Zeiten fleissig optimiert: LOD oder nicht LOD (http://www.forum-3dcenter.de/vbulletin/showthread.php?t=146879)

40-50%? Naja. Jedenfalls flimmern bestimmte Texturen (vor allem Bodengitter) bei mir in UT immer, egal ob Radeon oder GeForce. UT ist allerdings ein einzelnes Beispiel.

UT ist ein einzelnes Beispiel. Aber imo das Paradebeispiel dafür, dass bei "verpfuschten" Texturcontent schön viel Leistung auf der Strecke bleibt...

Quasar
2005-02-05, 16:56:40
Mir fallen spontan auch einige Spiele ein, welche mit der oder mit der anderen Karte nicht 100% korrekt laufen. Allerdings hat es keinen Sinn hier und jetzt solche Erbsenzählerei zu veranstalten - egal ob mit 3D oder zb. 2D bei nvidia (im Zusammenhang mit TV Karten). Da könnt ich jetzt auch kommen und rumerzählen, dass ATI Karten mit AIW Funktionalität und ihrer Software ein einziger großer Bug sind. Aber das sind nunmal Einzelfälle und bei jedem Rechner schaut es wieder anders aus. Deswegen ist es müßig und zugleich wohl absolut sinnlos hier solch eine pingelige Aktion zu veranstalten oder gar mit Zeigefinger auf Personen zu zeigen, die wohl mal eine andere Meinung haben, als man selbst.
Also mit AIW hatte ich jetzt eigentlich noch nie Probleme, ich nehm fast Wöchentlich damit vom TV auf. Nur als ich mal nen beta Treiber installiert hatte der keine Media files dabei hatte funktoinierte das natürlich nicht mehr.

Ansonsten funktionert das ganze einfach :)

=)

Aber das sind nunmal Einzelfälle und bei jedem Rechner schaut es wieder anders aus.

Quasar
2005-02-05, 16:59:02
Da muss man wieder differenzieren. Shimmering, Moiré, Banding - das ist eigentlich oft im Auge des jew. Betrachters alles "Flimmern". Hier im konkreten Fall meinte ich eigentlich Moire. Und wenn das innerhalb einer undurchsichtigen Textur auftritt -> blame the trilinear filtering.
Banding nimmt eigentlich kaum jemand als "Flimmern" wahr, denke ich.

Egal, was dein Moire angeht, so hängt das eher mit dem LOD, dessen runde "0" entweder vom Treiber oder von der Applikation nicht beachtet wird, zusammen.

urbi
2005-02-05, 17:05:25
Da liegen doch 1 Generation dazwischen. Oder nicht?

Mr. Lolman
2005-02-05, 17:14:02
Egal, was dein Moire angeht, so hängt das eher mit dem LOD, dessen runde "0" entweder vom Treiber oder von der Applikation nicht beachtet wird, zusammen.

Nö, das wär dann Shimmering :D

Quasar
2005-02-05, 18:09:51
Moire entsteht soweit ich weiß, durch Nichtbeachtung der Nyquist-Grenze mit Rücksicht auf den entsprechenden Texturinhalt.

Trilinear hat damit eher wenig zu tun.

Piffan
2005-02-05, 19:00:45
Da liegen doch 1 Generation dazwischen. Oder nicht?

Das bedeutet nicht immer was. Zumal ja die Chips kastriert auf den Markt kommen, dh. die nächste Generation zunächst mal als Flaggschiff VORGESTELLT wird, dann aber aus ökonischen Gründen nur Fragmente verkauft werden. Die 6600GT ist so ein Fragment aus der 6800GT, d.h. es wurde unter anderem die Zahl der Pipelines halbiert (wenn man überhaupt noch beim NV 30/40 von Pipelines sprechen kann.
Und da war meine Milchmädchenrechnung halt simpel: Acht zu Acht bei den Pipelines, beim Speicher 256bit zu 128bit. Tja, und wie man sieht, ist die Sache doch komplexer......

Mr. Payne mal mal wieder schwarz weiß. Ich selbst finde bei meiner X800XT genug Macken beim Spielen, die afaik auf Ungenauigkeit beruhen. Unter anderem nerven mich die Polygaps bei HL2. Da bin ich gerade in der Tiefgarage, es ist duster, und da kommen die weißen Linien immer wieder gut. Oder andere Sache bei HL2: Wenn ich da mit dem Buggy durch Tunnels fahre, dann ist ein unerträgliches Colorbanding in den dunklen Bereichen. Stelle ich in den Optionen "Brightness" korrekt ein (oberer Schriftzug verschwindet gerade so eben", dann fällt es nicht ganz so stark auf. Aber ist das auf ner NV 40 auch so lausig? Das Banding spielt in schönsten rosa bis grünlichen Farben. Kann nur darauf beruhen, dass die REchengenauigkeit nicht reicht, oder wie kommen sonst "Falschfarben" zu stande?

Was mir gut gefällt, ist das gefakte HDR bei HL2: Ob nun echtes HDR oder nicht, es sieht klasse aus.......

Es ist ein Witz zu behaupten, dass die Ati- Karten fürs Spielen genau genug rechnen würden. Oder beruhen Polygaps und Falschfarben in den Grenzbereichen der Helligkeit auf Unvermögen der Progger?

StefanV
2005-02-05, 19:25:41
Oder beruhen Polygaps und Falschfarben in den Grenzbereichen der Helligkeit auf Unvermögen der Progger?
idR schon, besonders wenns bei 'Fester Hardware' vorkommt, wie z.B. bei Luigis Mansion...

godess
2005-02-05, 19:26:20
die leute sind naiv, die glauben das es auf ATi karten keine fehler gibt. es kommt immer auf die rechner an, man nicht pauschal sagen, das eine grafikkarte immer diesen fehler hat, bzw. die andere diesen fehler nicht hat. und das eine karte einen fehler muss auch nich am ihv liegen. es kann auch am treiber oder an den grafikkarten herstellern liegen(asus,msi,etc...)

StefanV
2005-02-05, 19:29:24
die leute sind naiv, die glauben das es auf ATi karten keine fehler gibt. es kommt immer auf die rechner an, man nicht pauschal sagen, das eine grafikkarte immer diesen fehler hat, bzw. die andere diesen fehler nicht hat. und das eine karte einen fehler muss auch nich am ihv liegen. es kann auch am treiber oder an den grafikkarten herstellern liegen(asus,msi,etc...)
Die Leite sind naiv, wenn sie glauben, das es auf nV Karten keine Fehler gibt. Es kommt immer auf den Rechner an, man kann nicht pauschal sagen, das eine GraKa immer diesen Fehler aht bzw die andere diesen Fehler nicht hat.
Und das eine Karte einen Fehler hat muss auch nicht am IHV liegen, es kann auch am Treiber (hm, ist dafür nicht eigentlich der IHV verantwortlich?!) oder an den Grafikkarten Herstellern (hm, wüsste nicht, was die noch verbocken könnten, zumal man eigentlich meist die Referenzplatine bestücken)...

Wie dem auch sei, momentan hat eher ATI die besseren Windows Treiber als nV, wobei selbst die verbessert werden könnten.
Nur: bei ATI gibts 'nen Regelmäßiges Update, was eigentlich eine gute Idee ist und auch von der Gemeinde sehr gut aufgenommen wurde...

biguwi
2005-02-05, 19:31:22
An anderer Stelle fragte ich schon mal nach, ob nicht jemand tatsächlich beide Karten (6600 und 9800) in einem PC tatsächlich (und nicht nur in der Theorie) getestet hat.
Bei mir ist nämlich die 6600-er tatsächlich LANGSAMER als die 9800-er


MSI "NX 6600 VTD128" <> Sapphire "Radeon 9800pro 128M DDR V/D/VO"

Vielleicht gibt´s ja hier nicht nur Schmähungen sondern ERFAHRUNGEN !

:confused:

StefanV
2005-02-05, 19:33:07
An anderer Stelle fragte ich schon mal nach, ob nicht jemand tatsächlich beide Karten (6600 und 9800) in einem PC tatsächlich (und nicht nur in der Theorie) getestet hat.
Bei mir ist nämlich die 6600-er tatsächlich LANGSAMER als die 9800-er


MSI "NX 6600 VTD128" <> Sapphire "Radeon 9800pro 128M DDR V/D/VO"

Vielleicht gibt´s ja hier nicht nur Schmähungen sondern ERFAHRUNGEN !

:confused:
Ja, die 6600 mit TSOP RAM ist durchaus langsamer als die 9800, erst die GT Version kanns mit der 9800 aufnehmen.

PS: ich hätt mir eher die Diamond holen sollen, die es ab ~155€ gibt, Takt 400/400MHz gegenüber 300/275MHz bei meiner Leadtek.

biguwi
2005-02-05, 19:34:40
oops

Die MSI ist eine GT, hab´s nicht richtig wiedergegen:

MSI NX6600GT-VTD128

StefanV
2005-02-05, 19:38:05
Hehe, ahso ;)

Naja, es kommt immer aufs Spiel an, wenns ein 'vollkrasses Hypegame' ist, dann sollte die 6600 schneller sein.

Ists aber 'something else', was kaum jemanden interessiert und das man nicht benchen kann, dann sollte die 9800 schneller sein, da nV sehr stark auf App Optimierung setzt, ATI eher weniger...

ghkhgkjhklj
2005-02-05, 19:39:30
Dank aths Ausführungen, die auch gut belegt sind, erscheint mir der "Sieg" der 6600 plausibel......

Als ich Tabellen in der PcGames las, runzelte ich die Stirn angesichts des Vorsprungs der NV- Karten in der Preisleistungs- Klasse. Ein Bekannter von mir fragte mich kürzlich, was für ne Karte er in den Rechner seines Sohnes stecken sollte. Da unterhielten wir uns auch über die 6600 versus 9800. So riet ich ihm im Falle eines Neukaufes dann eher zur 6600, bei günstiger Gebrauchtware zur 9800pro. Also sooo schlecht war der Rat nun auch nicht. Er hat sich ne 6600er geholt, die aber in seinem System rumzickt...evtl. schwaches Netzteil......

Ich hoffe mal, dass sich unter den Gamerns rumspricht, dass die neue NV- Generation durchaus gut ist. Konkurrenz ist immer gut und sollte die Preise sinken lassen. Für meinen Geschmack sind die Ati- Karten etwas zu teuer, bis zu 600 € sind eindeutig zu happig angesichts der Mängel wie fehlendes Supersampling, keine Stereo- Treiber und fehlendem SM3- Support.....

Imho sitzt Ati auf einem zu hohen Ross, in dem man die Wünsche nach Supersampling stur ignoriert.....

Was ist das denn???

Du vergleichst eine 9800Proi mit einer 6600GT und im gleichem Atemzug behauptest du die 9800Pro würde bis zu 600€ kosten!!!

Was ist das denn für eine Taktik!

Die Highendkarten 6800 und X800 kosten mal eben locker beide über 500€.

Wenn du die meinst, all right! Rein sugestiv läßt du aber einen anderen Schluss zu!

:)

godess
2005-02-05, 19:44:25
Die Leite sind naiv, wenn sie glauben, das es auf nV Karten keine Fehler gibt.

ich hab nie gesagt, nV karten fehlerfrei sind.

hm, ist dafür nicht eigentlich der IHV verantwortlich?!


es ist trotdem ein unterschied, ob die karte oder treiber fehler hat.

hm, wüsste nicht, was die noch verbocken könnten, zumal man eigentlich meist die Referenzplatine bestücken)...

siehe msi, die verbauen doch tatsächlich 6800 chips aufner 6800 gt. kann man als fehler an der karte interpretieren.

bei ATI gibts 'nen Regelmäßiges Update, was eigentlich eine gute Idee ist und auch von der Gemeinde sehr gut aufgenommen wurde...

das find ich auch super. würd ich mir von nV auch wünschen(aber nur weil ich eine von nV drin hab). aber deswegen sind die treiber nich gleich besser. man sieht doch wie sich die community über das neue control center aufgeregt hat.

€dit:gelöscht, da berichtigt

Piffan
2005-02-05, 19:47:38
Was ist das denn???

Du vergleichst eine 9800Proi mit einer 6600GT und im gleichem Atemzug behauptest du die 9800Pro würde bis zu 600€ kosten!!!

Was ist das denn für eine Taktik!

Die Highendkarten 6800 und X800 kosten mal eben locker beide über 500€.

Wenn du die meinst, all right! Rein sugestiv läßt du aber einen anderen Schluss zu!

:)

Uuups! Keine Taktik, eher gepennt. Richtig, ich meine die teuren High-End - Karten.......

godess
2005-02-05, 19:52:00
wo stand denn das ne 9800pro 600€ kosten soll?
zu erinnerung

Für meinen Geschmack sind die Ati- Karten etwas zu teuer, bis zu 600 € sind eindeutig zu happig angesichts der Mängel wie fehlendes Supersampling, keine Stereo- Treiber und fehlendem SM3- Support.....

Piffan
2005-02-05, 19:53:47
Die Leite sind naiv, wenn sie glauben, das es auf nV Karten keine Fehler gibt. Es kommt immer auf den Rechner an, man kann nicht pauschal sagen, das eine GraKa immer diesen Fehler aht bzw die andere diesen Fehler nicht hat.
Und das eine Karte einen Fehler hat muss auch nicht am IHV liegen, es kann auch am Treiber (hm, ist dafür nicht eigentlich der IHV verantwortlich?!) oder an den Grafikkarten Herstellern (hm, wüsste nicht, was die noch verbocken könnten, zumal man eigentlich meist die Referenzplatine bestücken)...

Wie dem auch sei, momentan hat eher ATI die besseren Windows Treiber als nV, wobei selbst die verbessert werden könnten.
Nur: bei ATI gibts 'nen Regelmäßiges Update, was eigentlich eine gute Idee ist und auch von der Gemeinde sehr gut aufgenommen wurde...


Naja, aus den ersten Posts kam so radikales rüber wie "Das gegenwärteige AF der NV kann man vergessen" und die NVs seien so richtig mies. Da wollte ich dagegen halten, dass die Atis auch nicht immer Freude machen.

Mich würde mal interessieren, wie folgende Stellen auf ner NV 40 aussehen. Habe ja schon fast den Eindruck, dass bei mir was faul ist.

Zum Banding im Tunnel:

http://img.photobucket.com/albums/v104/Piffan/Falschfarben2.jpg


Die Gaps nerven auch streckenweise heftig.

http://img.photobucket.com/albums/v104/Piffan/Polygaps.jpg


Schön dagegen das Gegenlicht. Gibt im Kanal noch bessere Stellen, da wird man von der tiefstehenden Sonne richtig geblendet...Hier auf dem Dach, bevor es den Striders an den Kragen geht.
http://img.photobucket.com/albums/v104/Piffan/HDR.jpg

godess
2005-02-05, 19:58:42
ich hab nen nv30. das banding hatte auch, aber ganz selten und ganz wenig.
die gaps hatte garnich.
aber echtes hdr sieht noch ein ganzes stück geiler aus. siehe farcry.

Piffan
2005-02-05, 20:03:15
ich hab nen nv30. das banding hatte auch, aber ganz selten und ganz wenig.
die gaps hatte garnich.
aber echtes hdr sieht noch ein ganzes stück geiler aus. siehe farcry.

Wenn ich jetzt noch ein Save von der Stelle im Kanal hätte. Wirkt imho sehr realistisch. Als ich da rauskam, hatte ich noch kein Hintergrundlicht hinter dem Monitor an. War total geblendet.......

Die X-Projekt- Demo sieht auf ner Ati auch seeehr schnuckelig aus und läuft schnell wie die Wutz. Da hat sich Ati mit Crytek rangesetzt und sie haben gezeigt, dass HDR- Effekte durchaus auf ner Ati gut aussehen bei sehr guter Performance.......

BTW: Gibts bei FC auch Gaps? Wenn, dann waren sie diskreter....


Edit: Kann mal jemand die Stellen im Tunnel auf ner NV- Karte nachstellen? Es ist der Tunnel direkt nach DER Brücke bzw. nach dem Schock mit dem entgegenkommenden Zug. :D

StefanV
2005-02-05, 20:07:07
ich hab nie gesagt, nV karten fehlerfrei sind.

Hörte sich aber irgendwie so an, als ob du das sagen wolltest :rolleyes:

es ist trotdem ein unterschied, ob die karte oder treiber fehler hat.

Für wen?!
Und wie stellt man das fest?!

Und was ist einfacher, wenn man mehrere Karten/Rechner hat:
Neuen Treiber insten oder Karte tauschen? ;)
siehe msi, die verbauen doch tatsächlich 6800 chips aufner 6800 gt. kann man als fehler an der karte interpretieren.

Das kann man nicht nur, das sollte man sogar!!
Siehe auch Gigabyte, die einige 6800 Vanilla mit 'nem falschen BIOS ausgeliefert haben (ok, MSI hat auch mal die RX9800 PRO mit 'nem 9800 BIOS ausgeliefert und HIS das umgekehrte, das kann man aber noch unter 'shit happens' verbuchen, nicht unter 'Groben fehler)...

das find ich auch super. würd ich mir von nV auch wünschen(aber nur weil ich eine von nV drin hab). aber deswegen sind die treiber nich gleich besser. man sieht doch wie sich die community über das neue control center aufgeregt hat.
Eben, aber mal die Frage an dich:

Was macht die nV Treiber denn besser?!

Ich konnte bisher nichts entdecken, eher das Gegenteil...

Quasar
2005-02-05, 20:12:35
Geht "span" auf zwei Monitore mittlerweile unter Windows2000?

StefanV
2005-02-05, 20:14:22
??

Meinst 'nen Strechbinld a la 2048x768?!

Unter Windows XP geht sowohl das eine als auch das andere, mit dem CCC...

Quasar
2005-02-05, 20:15:36
Lies' die Frage - ja oder ja?

godess
2005-02-05, 20:19:01
ups, doppel post.
richtiger post auf der nächsten seite.

godess
2005-02-05, 20:19:19
Hörte sich aber irgendwie so an, als ob du das sagen wolltest

dann tuts mir leid, es sollte sich nich so anhören.

Für wen?!

findest du die frage nich auch albern? soll einer, wenn seine garantie abgelaufen ist, sich eine neue karte kaufen, obwohl nur der treiber einen bug hat?

Und wie stellt man das fest?!

andere (neuere,ältere,beta-) treiber ausprobieren, in foren nachfragen, und beim hersteller nachfragen.


Das kann man nicht nur, das sollte man sogar!!
Siehe auch Gigabyte, die einige 6800 Vanilla mit 'nem falschen BIOS ausgeliefert haben (ok, MSI hat auch mal die RX9800 PRO mit 'nem 9800 BIOS ausgeliefert und HIS das umgekehrte, das kann man aber noch unter 'shit happens' verbuchen, nicht unter 'Groben fehler)...

lol, kann man denn einen groberen fehler machen? das ist als wenn man nur noch gemüseburger verkaufen will, und dann doch noch bigmacs im ofen liegen.

Was macht die nV Treiber denn besser?!

nichts, er ist einfach anders. das ist einfach geschmackssache. und wenn du fehler meinst, frag Piffan. er hat bereits 2 gefunden.

StefanV
2005-02-05, 20:19:27
Ich versuchs mal schnell, hab noch 'ne Win2k Installation...

Quasar
2005-02-05, 20:24:42
Das ist nett. :)

InsaneDruid
2005-02-05, 21:11:00
Echtes Span kann ATI atm nich

StefanV
2005-02-05, 21:51:55
Echtes Span kann ATI atm nichDoch, eigentlich können die ATis das, mit dem CCC!

Ist eins der neuen Funktionen des CCC.

Atm schreib ich dieses bei 2x1280x1024, also 2560x1024, just 4 Testing :)

Coda
2005-02-05, 21:56:38
Was ist "echtes" Span? Ich hatte damit damals auf der 9700 Pro auch ohne CCC keine Probleme.

Grestorn
2005-02-06, 01:12:57
Was ist "echtes" Span? Ich hatte damit damals auf der 9700 Pro auch ohne CCC keine Probleme.
"echtes Span" heißt, dass Windows eine überbreite Auflösung vorgegaukelt wird, das zwar physisch auf 2 Displays verteilt wird, aber für Windows nur auf einem (virtuellen) Display läuft.

Damit ist es u.a. möglich, einige Spiele auf 2 Monitore zu bringen (z.B. X2, das genau dafür extra vorgesehen ist).

zeckensack
2005-02-06, 03:57:26
Das Banding spielt in schönsten rosa bis grünlichen Farben. Kann nur darauf beruhen, dass die REchengenauigkeit nicht reicht, oder wie kommen sonst "Falschfarben" zu stande?Solche Falschfarben kommen idR durch 16Bit-Texturen zustande. RGB565 hat eben ein G mehr als R und B. Dadurch kann aus gewünschtem reinem Grau je nach Helligkeit ein blasses Grün oder Violett werden. Durch linearisiertes (=hohes) Gamma wird das Problem im Dunkelbereich noch verstärkt.

Gibt's auch (stellenweise übelst) in Painkiller. Das ist durch fähige Texturdesigner vollständig vermeidbar. Entweder man nutzt das RGBA5551-Format, wodurch das Problem nicht mehr auftreten kann, oder man quantisiert den Grünkanal runter, oder nimmt gleich die RGBA8888-Keule (letzteres kann allerdings Performance kosten).

Jedenfalls halte ich das nicht für ein ATI-Problem, weil ich's auch auf NV-Karten schon gesehen habe, und selbst absichtlich/fahrlässig erzeugen kann.

Xmas
2005-02-06, 04:42:12
Das kommt dann wohl von der Texturkompression, schließlich speichert S3TC die Referenzfarben mit 16 Bit. Aber so üble Farbverfälschungen? Aber auch ohne die Farbverfälschungen, was ist das denn für eine lausige Darstellung? Und man könnte meinen, zwischen 0 und 16 existiert kein Grauton.

zeckensack
2005-02-06, 05:15:41
Das kommt dann wohl von der Texturkompression, schließlich speichert S3TC die Referenzfarben mit 16 Bit. Aber so üble Farbverfälschungen? Aber auch ohne die Farbverfälschungen, was ist das denn für eine lausige Darstellung? Und man könnte meinen, zwischen 0 und 16 existiert kein Grauton.Der Effekt wird in dem Fall IMO durch Tone Mapping sehr verstärkt.
Die Szene ist sehr dunkel. "Korrektes" TM sollte die Farben daher extrem aufblasen. Und die Geschichte mit der Linearisierung könnte auch hineinspielen, falls HL2 sowas denn macht.

(1/64)*4=(1/16)
(1/16)^(1/2,2)~=0,28

SKYNET
2005-02-06, 06:07:48
Prozentrechnen will gelernt sein.
Wenn die Speicherbandbreite um 27% kleiner ist heisst das auch, dass die 9800pro 36% mehr Bandbreite als die 6600GT hat.
Dann stehen die 32% gegen die 36%.
Rein von den Zahlenwerten kann ich mirs auch nicht erklären warum die 6600GT soviel schneller ist.
Mögliche Begründungen fallen mir da ein paar ein, aber vielleicht kann ja jemand wie Aths was genaueres drüber sagen.


warum ist denn nen AMD schneller als nen intel...

weil bessere chiparchitektur.
selbiges beim NV43 vs. R360, die R3x0 architektur ist halt total "veraltet" und reißt IMHO nix mehr.




Möchte anmerken daß die 340 vs. 500 Mhz herzlich wenig aussagen. Diese hohen Taktraten haben weiland dem nV30 recht wenig geholfen und er konnte nur hauchdünn und mit Hilfe des FönFX die Lufthoheit gegenüber der R300 erringen. Aber wie aths schon ausführte hat sich die Welt weitergedreht und nVidia hat bei der nV4x Serie jede Menge Massnahmen ergriffen die der 6600GT zur Krone im 200,-€ Segment verhelfen.



im 150-220€ segment meinst du.

ab 153€ bekommste bereits 6600GT karten von gigabyte, somit gibt es nichtmal mehr einen grund eine 9800pro zukaufen, ist teurer, "langsamer", veraltet.


Nein, eher ein DX8.1.
(Kommt nicht von mir.)


war HL² nicht ne aufgebohrte Q3 engine ? :confused:


ähmm... ich wollte damit nur deutlich machen, dass die 6800u gar nicht so schlecht von der vs-leistung her ist. die x800pro ist verhältnismäßig gesehen sogar schlechter. warum allerdings die 9800xt trotz ihrer nur 4 vs so gut ist, kann ich mir nicht recht erklären.


hard & software optimierungen ala x800 evtl. ?



weil der balken dann nicht mehr darstellbar wäre, da zu kurz. ;D


selbiges dachte ich mir auch grade..... ;D


kostet etwa 5% bei ATI

Leider hab ich den Test noch immer nicht wiedergefunden, weiss jemand wo das war ? (A.I. on/off Test oder so, englischsprachige Seite)


softwareseitig...

aber, gabs da nicht noch die bösen hardware optimierungen... :rolleyes:
die kannste net abstellen !


Warum ist die x800xl genauso schnell wie die x800xt, während die x850xt trotz weniger "Mehrtakt" gegenüber der x800xt doch recht deutlich schneller?


wegen der bandbreite:

x800xl ~ 32.00GB
x800xt ~ 32.00GB
x850xtpe ~ 37.74GB




Dafür gibts overlayprobs, abstürzende Spiele, (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2708314&postcount=61) und (ingesamt imo) leicht schlechtere Performance.


beimir sind games, wenn nur mit der 9800pro damals abgestürzt, nehme an das das an den damals(?) recht unausgereifen treibern lag.

mit NV lief bisher jedes spiel sauber ohne problemchen.


Als ob das bei anderen Karten anders wäre

Aber stimmt ja, Ati ist rot = böse


warum ? das die r420 reihe hardware optimierungen hat, ist doch schon seit anno dazumal bekannt.


Aha intressant und das wäre was ? Winkelabhängigkeit gibts auf beiden. Noch dazu wurden die NV App spezifischen optimierungen nicht deaktiviert, und dennoch hängt bei NV die Performance wesentlich mehr an den Filteroptimierungen als bei ATI.
(und jetz komm mir bitte nicht mit irgendeiner geringeren Rendergenauigkeit bei den Filtern die man nicht sieht, die Flimmerprobleme, die du ja auch (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2710119#post2710119) zu haben scheinst lassen im Moment eher auf eine bessere AF qualität bei ATI schliessen)


ich glaube das geht nicht um die winkelabhängigkeit des AF, die gabs auchschon beim R3x0.


Mit Payne? Vergiss es.


der is noch nen schlimmerer ATI fanboy als ich NV fanboy. :eek: ;D


@Aths und andere:

'Beim großen Krieg' schauts momentan folgend aus:
ATI: im großen und ganzen OK
nV: shit, siehe Lolman, dazu Freezes/Reboots wenn DEP/NX-Bit an ist, nicht wirklich pralles Overlay und noch andere Dinge, die einfach nicht sein dürften.
Dazu kommen noch diverse HW Probleme, z.B. die reihenweise abrauchenden 6600GTs, falsch ausgelieferte Karten (MSI, Gigabyte, 1 Quad deaktiviert)...

Alles in allem schauts für nV momentan weniger gut aus, von den guten Treibern und der guten HW ist nicht wirklich viel zu sehen...


ATI: veraltet, langsam, rotzige treiber(durfte die erfahrung ja selber sammeln), billigst verarbeitet(ram viel wärend des betriebes von der karte runter --> tot, war ne BBA, b.z.w. stand das auf der verpackung ~ also 100% referenz), billigst verbaute komponenten(lüfter fing nach 2 wochen an zu kreischen wie nen kleines kind, und das ist kein einzelfall),
mieses treibermenü(ok, hat sich schon gebessert, aber gegen das NV treibermenü immernoch nen witz), kümmerliche 2D einstellungen, OpenGL performance immernoch unter aller sau, linux teiber... gibt es sowas von ATI ? ich denke die kann man nicht so nennen, ist wohl das schlechteste was man sich vorstellen kann, die beta treiber sind so schlecht das ich sie nichtmal als alpha treiber bezeichen würde.


NV: hatte noch keine freezes oder reboots mit meiner NV, egal welche einstellungen etc., besseres AF als bei ATI trotz winkelabhängigkeit und auch sonst bessere BQ, mehr einstellungsmöglichkeiten des treibers, toip linux treiber die den windoof treibern in nix nachstehn, nahezu perfektes treibermenü, betatreiber die meist besser sind als ATI's final treiber, die abgerauchten 6600er karten sind irgentwie immernur karten gewesen die nicht nach referenz gebaut wurden... billige bauteile ?, und NV kann sicherlich nix dazu wenn MSI so verpeilt ist und 350 karten die eigentlich GT's sein sollten mit 6800er chips bestückt.

wie du siehst kann ich mindestens genausogut gegen ATI stinken wie du gegen NV. :P


Dann mach 'nen Poll, dann wirst schon sehen, wozu die meisten ihre GraKa benutzen

nichtnur zum spielen....
spiele auch gerne mal mit CAD rum. :P

Tigerchen
2005-02-06, 08:46:20
im 150-220€ segment meinst du.

ab 153€ bekommste bereits 6600GT karten von gigabyte, somit gibt es nichtmal mehr einen grund eine 9800pro zukaufen, ist teurer, "langsamer", veraltet.



Reicht es dir nicht daß die 6600 GT die Krone im 200,-€ Segment hat? Mußt du noch hinzufügen daß du irgendwo mal eine 6600GT für 153,-€ gesehen hast? Wenn ich lang genug suche finde ich auch noch ne 9800 Pro für 153,-€ in den Weiten des I-Net. Fakt ist daß der Straßenpreis im Ruhrpott für beide Karten so bei 200,-€ liegt und die 6600 GT klar die bessere Karte fürs Geld ist.

Der Rest deines Mamumutpostings ist übelstes Fanboygespamme. Probleme mit abrauchenden Grafikkarten oder Treibern die hier und dort mal Ärger machen gibts auf allen Seiten. Das Niveau der ATI/nV-Treiber ist sehr hoch. Fehler auf Grund der Komplexität aber unvermeidlich. Es ist nicht möglich auch nur 1000 Zeilen Code zu schreiben der nicht mindestens 2 Fehler enthält.

The Mad Max
2005-02-06, 08:49:56
Mich würde mal interessieren, wie folgende Stellen auf ner NV 40 aussehen. Habe ja schon fast den Eindruck, dass bei mir was faul ist.

Zum Banding im Tunnel:

http://img.photobucket.com/albums/v104/Piffan/Falschfarben2.jpg




Das Banding habe ich auch (6800GT). In fast jeder dunklen Ecke. Nervt ziemlich.
Gruß Max

Wolfram
2005-02-06, 09:31:07
Solche Falschfarben kommen idR durch 16Bit-Texturen zustande. RGB565 hat eben ein G mehr als R und B. Dadurch kann aus gewünschtem reinem Grau je nach Helligkeit ein blasses Grün oder Violett werden. Durch linearisiertes (=hohes) Gamma wird das Problem im Dunkelbereich noch verstärkt.
Das führt zwar noch weiter abseits, aber dennoch: Zu Doom3 hast Du IIRC mal angemerkt, es sei auf CRTs "legitim", das Gamma im Spiel hochzusetzen.

*kram heraus*

Doom 3 berechnet die Lichtintensität linear. Es ist völlig legitim, die Wiedergabekette so einzustellen, dass sie linear reagiert, und das erreicht man eben auf CRTs nur mit Gamma deutlich über 1,0. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2155221#post2155221)

Heißt das, das solche Spiele dann im Grunde auf TFTs eingestellt/optimiert sind? Wie sieht das bei HL2 aus? Liegt es vielleicht daran, daß manche Leute so deutliches Banding sehen? Ich selbst habe HL2 auf einem CRT mit einer 6800GT undrelativ dunkler Helligkeitseinstellung (oder ist der Ingame-Schieber eine Gamma-Regelung?) gespielt und kann mich zwar an deutliche Helligkeitstreppchen in den Tunneln erinnern, nicht aber an Colorbanding.

Tigerchen
2005-02-06, 09:36:38
Das führt zwar noch weiter abseits, aber dennoch: Zu Doom3 hast Du IIRC mal angemerkt, es sei auf CRTs "legitim", das Gamma im Spiel hochzusetzen.

*kram heraus*


Heißt das, das solche Spiele dann im Grunde auf TFTs eingestellt/optimiert sind? Wie sieht das bei HL2 aus? Liegt es vielleicht daran, daß manche Leute so deutliches Banding sehen? Ich selbst habe HL2 auf einem CRT mit einer 6800GT undrelativ dunkler Helligkeitseinstellung (oder ist der Ingame-Schieber eine Gamma-Regelung?) gespielt und kann mich zwar an deutliche Helligkeitstreppchen in den Tunneln erinnern, nicht aber an Colorbanding.

Ich hab sowas auch nicht gesehen. Vielleicht liegts am schlecht kallibriertem Monitor?

Xmas
2005-02-06, 09:57:56
Das dürfte den Framebuffer-Inhalt nicht beeinflussen.

Jesus
2005-02-06, 10:33:25
...


Bevor du hier so einen Fanboy Müll loslässt hättest du vielleicht mal weiterlesen sollen, denn vieles was du da gequotet hast wurde bereits geklärt.

Coda
2005-02-06, 10:53:50
der is noch nen schlimmerer ATI fanboy als ich NV fanboy. Nein.

InsaneDruid
2005-02-06, 11:02:07
Doch, eigentlich können die ATis das, mit dem CCC!

Ist eins der neuen Funktionen des CCC.

Atm schreib ich dieses bei 2x1280x1024, also 2560x1024, just 4 Testing :)

Geht nich um den Win Desktop, da ging das ja schon recht lange.

Geht um Games, und da geht das IIRC nicht, weil ATI den 2ten Port als virtuelle 2te Karte einbindet. Manche Games unterstützen das (MS Flight Sims), die meisten jedoch nicht.

Für die müsste es ne Funktion geben, das man im Game einfach die "zusammengerechnete" Auflösung einstellt (zb 2560x1024), und die Karte das dann auf 2 Monitore aufteilt (2x1280x1024), und zwar für das Game transparent.

Ich hab zwar ne 9800, aber atm leider nur noch 1 Display dran, darum kann ichs nicht genau nachtesten.

Ich meine es wär genial wenns ginge in Games, also kannst du mal nen Game im Span laufen lassen und fotografieren? Q3 oder UT oder so?

Und mal n Screenshot vom CCC wo man das einstellen kann?

StefanV
2005-02-06, 11:35:12
Ich meine es wär genial wenns ginge in Games, also kannst du mal nen Game im Span laufen lassen und fotografieren? Q3 oder UT oder so?

Und mal n Screenshot vom CCC wo man das einstellen kann?
1. wie macht mans bei X2??
Ich habs hinbekommen, allerdings mit 'ner relativ bescheidenen Auflösung von 1280x480...
Nicht doll aber über beide Schirme ;)
Genau so, wie es sein müsste...

2. Hm, ist einfach ganz einfach: wenn man beide Schirme einstöpselt, dann sollten die schonaml als Clone laufen, dann einfach 'nen Rechtsclick auf einen Schirm und ''Strech Horizontal/Vertical on" auswählen.

InsaneDruid
2005-02-06, 11:48:17
Hui, das is ja mal ne freudige Überraschung, da ham die doch glatt n Feature heimlich still und leise eingeführt.

Thumbs Up!

ShadowXX
2005-02-06, 11:56:34
Reicht es dir nicht daß die 6600 GT die Krone im 200,-€ Segment hat? Mußt du noch hinzufügen daß du irgendwo mal eine 6600GT für 153,-€ gesehen hast? Wenn ich lang genug suche finde ich auch noch ne 9800 Pro für 153,-€ in den Weiten des I-Net. Fakt ist daß der Straßenpreis im Ruhrpott für beide Karten so bei 200,-€ liegt und die 6600 GT klar die bessere Karte fürs Geld ist.

Der Rest deines Mamumutpostings ist übelstes Fanboygespamme. Probleme mit abrauchenden Grafikkarten oder Treibern die hier und dort mal Ärger machen gibts auf allen Seiten. Das Niveau der ATI/nV-Treiber ist sehr hoch. Fehler auf Grund der Komplexität aber unvermeidlich. Es ist nicht möglich auch nur 1000 Zeilen Code zu schreiben der nicht mindestens 2 Fehler enthält.


Richtig.....ich hab hier Karten von beiden IHVs (6800 Ultra, 6600GT,GF4MX und 9800Pro & RAGE128 (*g*)).

Es gibt bei beiden mal hier und da ein Problem mit den Treibern, aber im grossen und ganzen laufen bei beiden alle Games "out-of-the-box".

Und das mit "nv-optimiert nur auf Hype-Games" stimmt auch nur bedingt...klar wird bei beiden mehr auf die Hype-Games optimiert, aber auch bei beiden fallen mal "nicht-HYPE-Games" hinten runter....
Bei ATI z.B. Riddick (und nein, Riddick gehört bestimmt nicht in die Kategorie Hype-Game)..
Bei nV sind andere...

Im Grossen und ganzen nehmen sich die Karten der beiden grossen IHVs nicht viel und auch nicht deren Treiber.
Wobei die Frage, welcher Treiber das "bessere"/"hübschere" CP hat, sich wohl wirklich nur Fanboys stellen bzw. an dem Kiopf werfen.

Ich finde keines der beiden Panel wirklich "besser" als das andere. ATI hat etwas weniger "Spielkram" drin als nV, dafür finde ich das "Klassische" Panel von ATI etwas übersichtlicher (das nV Panel "erschlägt" einen am Anfang etwas..).

Im Endeffekt benutzen doch sowieso ein Grossteil der Leute einen externen Tweaker ala aTuner oder rTool.

Probs hatte ich mit beiden Treiber, wenn man mal etwas "extotischere" HW-zusammenstellungen benutzen wollte. Wobei ich allerdings sagen muss, das ich die Probs mit den TV-Karten und den nVs nicht nachvollziehen kann (bei mir stecken in einer meiner Kisten eine nV 6600GT und 2 TV-Karten (eine "normale" und eine HW-MPEG) und ich habe dort keine Probs...und das sogar auf einem SiS-Board).

Aber egal...ich will nicht sagen, das es mit so einer Zusammenstellung Probs geben kann.

Zu den Filtern:
Ich bin in der Richtung "relativ" Blind...aber Fehler sehe ich bei beiden IHVs. Ich finde man kann bei jedem Game ziemlich gut sehen, auf welcher HW es primär Entwickelt wurde...auf dieser sieht es dann meistens etwas besser aus und läuft oftmal auch etwas besser....hier schöpft ATI IMHO noch stark vom guten r300 Chip, die meisten Games die momentan rauskommen wurden nämlich angefangen zu Programmieren als der r300 seine "Hochzeit" hatte....

Das könnte sich allerdings in den nächsten 6-12 Monaten umkehren, da viele Entwickler wieder auf die nVs "zurückgekehrt" sind...

Man wird sehen...ich bin momentan gespannt was der r520 bieten wird....und wenns mch überzeugt, wird mein neues "Flagship" mal wieder eine ATI werden ...wenn nV einen guten "Konter" hat, dann eine nV.

StefanV
2005-02-06, 12:01:13
Es gibt bei beiden mal hier und da ein Problem mit den Treibern, aber im grossen und ganzen laufen bei beiden alle Games "out-of-the-box".

Genau das meint ich :)

Wer sagt, das nV (oder ATI) besser wäre, ist einfach nur ein Fanboy oder nicht in der Lage, mit der entsprechenden HW umzugehen...

Mr. Lolman
2005-02-06, 12:26:31
Genau das meint ich :)

Wer sagt, das nV (oder ATI) besser wäre, ist einfach nur ein Fanboy oder nicht in der Lage, mit der entsprechenden HW umzugehen...

Sry, aber bin definitiv der Meinung, das der 2D Teil der ATi Treiber besser ist, als der von NV. Für die meisten mag da kein Unterschied feststellbar sein, aber bei meiner HW Konfig (v.A. durch die TV Karte) gibts nunmal je nach verwendeten Treiber, das ein oder andere Problem.

Gut, für den Durchschnittspieler mag das nicht relevant sein, und ohne TV Karte gäbs auch bei mir keine (ärgerlichen) Probleme, aber trotzdem bin ich imo weder ein Fanboy, noch kann mit meiner HW nicht umgehen wenn ich behaupte, dass NV im 2D Teil Nachholbedarf hat. Klar bei ATi gabs auch das ein oder andere Problem, besonders NFSU war mit dem Cat.3.7 unspielbar, aber da hat der nächste Treiber das Problem behoben, während ich mit der 6800GT schon 4 verschiedene Treiber durchprobiert hab, und bei keinem einzigen konnt ich DivX in 480x576 ohne Framedrops capturen, was mit der ATi übehaupt kein Problem darstellte. Die Anekdoten vom unschärferen Overlay und ruckelendem DeInterlacing lass ich mal aussen vor. Und ja, vll. funzt ne 3rd Party TV Software problemlos, nur hab ich mich mit dem Cinergy TV Tool und den DiVX Settings schon ewig lang herumgespielt, damit 1MBit in der genannten Auflösung ziemlich artefaktfrei ist. Vll. bin ichs mittlerweile einfach leid, irgendwie herumspielen zu müssen, damit endlich alles so rennt wie ich will...

Aber gut, wenn ich heut dazukomm, test ich echt mal den DScaler und wenn damit alles problemlos funzt, dann solls mir recht sein, und ich schick die bockige Cinergy TV Software ins Nirvana. :D

schmerz11
2005-02-06, 12:28:16
Genau das meint ich :)

Wer sagt, das nV (oder ATI) besser wäre, ist einfach nur ein Fanboy oder nicht in der Lage, mit der entsprechenden HW umzugehen...

@Aths und andere:

'Beim großen Krieg' schauts momentan folgend aus:
ATI: im großen und ganzen OK
nV: shit, siehe Lolman, dazu Freezes/Reboots wenn DEP/NX-Bit an ist, nicht wirklich pralles Overlay und noch andere Dinge, die einfach nicht sein dürften.
Dazu kommen noch diverse HW Probleme, z.B. die reihenweise abrauchenden 6600GTs, falsch ausgelieferte Karten (MSI, Gigabyte, 1 Quad deaktiviert)...

Alles in allem schauts für nV momentan weniger gut aus, von den guten Treibern und der guten HW ist nicht wirklich viel zu sehen...


Muss man das noch ernstnehmen?

InsaneDruid
2005-02-06, 12:47:55
@Lolman:

das ist idR immer/oft so, wenn man von längerer Nutzung des einen IHVs auf einen anderen umsteigt. Die ganzen, durch langes Herumfuddeln gewonnenen Erkenntnisse was man wie umgehen/verbessern kann sind übern Haufen geworfen, und man steht vor anderen Problemen, die man uU nicht mehr als Problem ansehen würde, wenn man sie länger kennt.

Ich hab damals auch 2 Anläufe gebraucht um von der 4400 auf ne 9700np zu wechseln, welcher Treiber ist gut? Welche Tools brauch ich, was kann ich einstellen, was lieber nicht... bin mir sicher ähnliche Erfahrungen würd ich beim Rückwechseln auch wieder machen.

Was mich mal interessiert: du bist doch von ATI nach 6800 gechanged.. hast du nen Rückgang im Vorkommen von Polygaps bemerkt? Ati soll ja geringere Subpixelpräzision haben, und daher anfälliger sein für sowas.

Ist dir da was aufgefallen? Ganz deutlich seh ichs zb in einigen Il2 Cockpits (Streben der 109 Haube zb), und in ONS-Crossfire (UT2k4) bei einigen der dort rumstehen "Torbögen".

Wär für mich mittlerweile fast das einzigste Argument statt ner X800XL ne 6800GT zu nehmen, da Spanning jetzt auch auf ATI zu finden ist, das ATI Af mir nicht wirklich so missfällt (wenn hätt ich eh lieber voll unoptimiertes ala GF4/GFFX), und die SuperSample-Anteil Modes für 1680*1050 doch sicher auch nicht mehr wirklich hinreichen, oder? Wie sind da so deine Erfahrungen?

Für Il2 (Alpha Test Bäume & Küstenlinien) würde sich SS Anteil sicher gut machen.

Jesus
2005-02-06, 13:04:11
Ich hab damals auch 2 Anläufe gebraucht um von der 4400 auf ne 9700np zu wechseln, welcher Treiber ist gut? Welche Tools brauch ich, was kann ich einstellen, was lieber nicht... bin mir sicher ähnliche Erfahrungen würd ich beim Rückwechseln auch wieder machen..

Naja, die Frage welcher Treiber gut ist hab ich mir noch nie gestellt. Das ist grundsätzlich immer der neuste offizielle. Da sehe ich einen echten Vorteil bei ATI.

StefanV
2005-02-06, 13:09:22
Sry, aber bin definitiv der Meinung, das der 2D Teil der ATi Treiber besser ist, als der von NV. Für die meisten mag da kein Unterschied feststellbar sein, aber bei meiner HW Konfig (v.A. durch die TV Karte) gibts nunmal je nach verwendeten Treiber, das ein oder andere Problem.

Ja, ok, da hast nicht ganz unrecht, meine Aussage war auch eher auf den 3D Teil bezogen...

PS: bin auch der Meinung, das die ATI Treiber in Bedienung/2D weit vor den nVs sind (aber immer noch weit von Matrox)...

aths
2005-02-06, 13:31:48
Mit Ruby schon...Liegt das an den Pixelshadern? Das würde mich stark wundern.

Da muss man wieder differenzieren. Shimmering, Moiré, Banding - das ist eigentlich oft im Auge des jew. Betrachters alles "Flimmern". Hier im konkreten Fall meinte ich eigentlich Moire. Und wenn das innerhalb einer undurchsichtigen Textur auftritt -> blame the trilinear filtering. Kann ich da mal n Screenshot sehen?

aths
2005-02-06, 13:37:54
Das bedeutet nicht immer was. Zumal ja die Chips kastriert auf den Markt kommen, dh. die nächste Generation zunächst mal als Flaggschiff VORGESTELLT wird, dann aber aus ökonischen Gründen nur Fragmente verkauft werden. Die 6600GT ist so ein Fragment aus der 6800GT, d.h. es wurde unter anderem die Zahl der Pipelines halbiert (wenn man überhaupt noch beim NV 30/40 von Pipelines sprechen kann. Ja, kann man.
Oder beruhen Polygaps und Falschfarben in den Grenzbereichen der Helligkeit auf Unvermögen der Progger?Frage der Sichtweise. Bei guter Qualitätssicherung sollte der Enwickler bei sowas gegensteuern. Ich meine, erinnert sich noch wer an Max Payne, das Original? Egal ob Voodoo4 (oder Voodoo5), ob GeForce2 MX oder GeForce3, oder mit heutigen Karten: Abgesehen von einigen, wenigen Alphatest-Texturen und einigen wenigen Stellen mit falscher Blending-Reihenfolge beim Alphablending durchweg "stabile" Grafikqualität auf allen Systemen.

aths
2005-02-06, 14:04:07
Hehe, ahso ;)

Naja, es kommt immer aufs Spiel an, wenns ein 'vollkrasses Hypegame' ist, dann sollte die 6600 schneller sein.

Ists aber 'something else', was kaum jemanden interessiert und das man nicht benchen kann, dann sollte die 9800 schneller sein, da nV sehr stark auf App Optimierung setzt, ATI eher weniger..."Sollte" = Vermutung. Womit belegst du sie? Meine Vermutung ist, dass die 9800 Pro bei alten Spielen im Zusammenhang mit MSAA schneller ist (Bandbreite, "ROP-Füllrate"), aber bei Spielen die mehrere Texturschichten nutzen, die 6600 GT schneller ist, da sie mehr Textur-Füllrate hat. Bei alten Spielen ist die 6600 GT aber in jedem Fall "schnell genug".

Dass NV nur auf "Hype-Games" optimieren würde, halte ich für ein Märchen. ATI hatte bezüglich der R300-Architektur nun zweieinhalb Jahre Zeit, den Treiber für alle möglichen Szenarien zu optimieren. Die NV-Karten sind ja in "Hype-Games" nicht durchweg schneller als die ATI-Pendants. Gehts um Texturfüllrate, hat die X800 XT die Nase vorn (Taktrate). Gehts um (sinnvoll angewendete) Z-Power oder um komplexe Pixelshader, hat der NV40 Vorteile (Architektur.) Deshalb ist der R420 in HL2 schneller und der NV40 in Doom3. Treiber-Optimierungen haben ihre Grenzen. Ich halte es für nicht sinvoll, zu suggerieren, dass wenn der NV40 mal vorne liegt dies "Optimierungen" zuzuschreiben, beim Sieg vom R420 dann aber von der schnelleren HW zu sprechen.

Wer den Unterschied zwischen 4x MSAA á la NV und 6x MSAA á la ATI sieht (ich seh sowas) und darauf viel Wert legt, ist mit der 9800 Pro besser beraten. Wer gerade in neuen Games mehr Leistung will, und eher Texturfilter-Fan ist, sollte zur 6600 GT greifen. Wer 256 MB auf der Karte braucht, dem bleibt bei dann nur ein entsprechendes 9800 Pro-Modell – es gibt trotz 6600 GT durchaus Argumente für die 9800 Pro. Welche Karte jemand nimmt sollte von seinen Vorlieben abhängen und nicht von den Vorlieben jener, die ihn beraten.

Jesus
2005-02-06, 14:16:03
"Gehts um (sinnvoll angewendete) Z-Power oder um komplexe Pixelshader, hat der NV40 Vorteile (Architektur.) Deshalb ist der R420 in HL2 schneller und der NV40 in Doom3. Treiber-Optimierungen haben ihre Grenzen. Ich halte es für nicht sinvoll, zu suggerieren, dass wenn der NV40 mal vorne liegt dies "Optimierungen" zuzuschreiben, beim Sieg vom R420 dann aber von der schnelleren HW zu sprechen.

Also dass bei D3 ein Grossteil der NV Performance von Shaderreplacements und App spezifischen Optimerungen stammen und nicht von der "überlegenen" Architektur, Ultrashadow etc. sollte eigentlcih mittlerweile bekannt sein. Allerdings gibt es schon wesentlich mehr beíspiele wo ein NV40 mal etwas zurück liegt bei nicht so bekannten Games, als umgekehrt. (siehe z.b. Zdnet Test).

Btw. was verstehst du unter komplexen Pixelshadern?

Coda
2005-02-06, 14:22:07
Viele Instructions halt. Da dürfte die 6600 GT auf jeden Fall einen Vorteil haben.

aths
2005-02-06, 14:24:08
Also dass bei D3 ein Grossteil der NV Performance von Shaderreplacements und App spezifischen Optimerungen stammen und nicht von der "überlegenen" Architektur, Ultrashadow etc. sollte eigentlcih mittlerweile bekannt sein.Mir ist bekannt, dass jetzt auch ATI nach Kräften "optimiert" hat, mit allen ihnen zu Verfügung stehenden Mitteln. Soweit ich Benches gesehen habe, liegt der NV40 noch immer vorne, trotz geringerem Takt.

Allerdings gibt es schon wesentlich mehr beíspiele wo ein NV40 mal etwas zurück liegt bei nicht so bekannten Games, als umgekehrt. (siehe z.b. Zdnet Test).Dafür lässt sich imo eine einfache Erklärung finden: ATI hatte für den R300/R420 viel mehr Zeit zum "optimieren", als NV mit dem NV40.

Btw. was verstehst du unter komplexen Pixelshadern?Pixelshader mit hohem Arithmetik-Anteil. Die Doom3-Fragmentshader sind noch nicht besonders komplex.

Xmas
2005-02-06, 14:28:36
PS: bin auch der Meinung, das die ATI Treiber in Bedienung/2D weit vor den nVs sind (aber immer noch weit von Matrox)...
So gehen die Meinungen eben auseinander. Ich benutze zur Zeit nur ATI, hätte aber in 2D lieber NView. Die Bedienung (ich nehme mal an du meinst die CP-Struktur) wäre mir bei beiden weitgehend egal, bis auf die Tray-Icons. Den Rest erledigen bei beiden Software von Dritten besser, obwohl ich beim CP auf keiner Seite große Defizite sehe. Dafür wird es viel zu selten gebraucht.

NVATI
2005-02-06, 14:28:50
Ich halte es für nicht sinvoll, zu suggerieren, dass wenn der NV40 mal vorne liegt dies "Optimierungen" zuzuschreiben, beim Sieg vom R420 dann aber von der schnelleren HW zu sprechen.


Von manchen hier wirst du trotz aller Argumente und vielleicht sogar beweisen nie etwas anderes hören. Trotz des sehr guten Fachwissens driften einige Experten hier immer wieder in die Fanboy-Ecke. Mir wäre das eigendlich extrem Peinlich sein. Aber "Nobody is perfect..." *g*

Jesus
2005-02-06, 14:32:46
Mir ist bekannt, dass jetzt auch ATI nach Kräften "optimiert" hat, mit allen ihnen zu Verfügung stehenden Mitteln. Soweit ich Benches gesehen habe, liegt der NV40 noch immer vorne, trotz geringerem Takt.

...und viel mehr Transistoren. Oh und NV hatte wesentlich mehr Zeit zu optimieren und macht auch wohl wesentlich mehr bei D3 als ATI (lt. Demirug)

Dafür lässt sich imo eine einfache Erklärung finden: ATI hatte für den R300/R420 viel mehr Zeit zum "optimieren", als NV mit dem NV40.

Damit bestätigst du also das NV sehr stark abhängig ist von Applikations spezifischen optimerungen. Oder meinst du das ATI an jedes noch so unbedeutende Spiel mit aller kraft optimiert hat ? Afaik benutzt ATI app spezifische optimierungen in Spielen erst seit D3 (abgesehen von Q3 vielleicht), im Gegensatz zu NV.

Pixelshader mit hohem Arithmetik-Anteil. Die Doom3-Fragmentshader sind noch nicht besonders komplex.

Klar, aber welche sind es ? FarCry hat wohl die längsten Shader, ob sie komplex sind weiss ich nicht, aber da liegen die ATI Karten ebenfalls meist vorne.

dildo4u
2005-02-06, 14:40:34
Klar, aber welche sind es ? FarCry hat wohl die längsten Shader, ob sie komplex sind weiss ich nicht, aber da liegen die ATI Karten ebenfalls meist vorne.

Aber nur mit Anpassung und Filter tricks aka AI

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=123&seite=16

3 Sapphire Radeon X800XL - Cat. 5.1 AI on
50.11
4 NVIDIA GeForce 6800 Ultra
50.05
5 Sapphire Radeon X800XL - Cat. 5.1 AI off
44.47

StefanV
2005-02-06, 14:42:22
Aber nur mit Anpassung und Filter tricks aka AI

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=123&seite=16

3 Sapphire Radeon X800XL - Cat. 5.1 AI on
50.11
4 NVIDIA GeForce 6800 Ultra
50.05
5 Sapphire Radeon X800XL - Cat. 5.1 AI off
44.47
Ai, 'ne ATI Mid End Karte schlägt 'ne nV Upper High End Karte, auch nicht schlecht :devil:

Jesus
2005-02-06, 14:43:10
Aber nur mit Anpassung und Filter tricks aka AI

die bei NV ebenfalls aktiv sind, so what? :rolleyes:

Mr. Lolman
2005-02-06, 17:00:15
Was mich mal interessiert: du bist doch von ATI nach 6800 gechanged.. hast du nen Rückgang im Vorkommen von Polygaps bemerkt? Ati soll ja geringere Subpixelpräzision haben, und daher anfälliger sein für sowas.

Ich muss ehrlich sagen, dass mich Polygongaps in den seltensten Fällen gestört haben, da ich bis zum Schluss fast jedes Spiel mit 1280x1024 4xAA gespielt hab. (Ok D³ ohne AA, und FC nur mit 2xAA) Um das flüssig darzustellen musste halt schon ab und an mal biAF aktiv sein. Und der bilineare Filter birgt weitaus größere Unregelmässigkeiten in der 3D Darstellung als tw. auftretende Polygongaps. ;)

Aber ich muss zugeben, dass mir mit der 6800GT bisher nur bei SplinterCell welche aufgefallen sind, und auch nur deswegen weil ich danach gesucht hab. Insgesamt müsste die Wahrscheinlichkeit des Auftretens solcher Gaps, natürlich aufgrund der höheren Subpixelpräzision geringer sein (und so ists mit großer Sicherheit auch), nur bedeutet das halt nicht, das man mit ner NV40 davor vollkommen gefeit ist...

Il2 hab ich leider nicht, und bei Ut2k4 ist mir hinsichtlich Polygongaps nix aufgefallen. Nur bin ich vll. kein Indikator dafür, da mir auch bei der R300 in UT2k4 keine Polygongaps aufgefallen sind. Dafür merkt man da relativ schnell, dass man bei der Qualitätseinstellung (Standard) (zumindest bei UT2004) nur einen astreinen bilinearen Filter auf allen TS>0 serviert bekommt. Außerdem ist das AF im Ggs zu ATi eher unscharf als überscharf (so wie bei ATi der tw. Fall). Aber dafür gibts ja LOD Regler...

Mr. Lolman
2005-02-06, 17:09:14
Liegt das an den Pixelshadern? Das würde mich stark wundern.


Wohl eher an den VS. Gehört aber auch zu SM2.0 ;)

Kann ich da mal n Screenshot sehen?

Nö - hab keinen gemacht. Außerdem sieht man Moiré am Screenshot kaum. Aber du kannst dir das so wie in dem zuvor verlinkten "LOD oder nicht LOD" Thread (mit Tenebrae), vorstellen.

Beim NV40 ist mir bisher kein Moiré aufgefallen, allerdings hab ich Riddick bisher nur kurz angespielt, ohhe mir dabei die Grafikqualität genauer anzusehen. Aber ich kann mir gut vorstellen, dass aufgrund des leicht unschärferen AF (= soll kein Bashen sein, denn "leicht unschärfer" <> "zu unscharf") bei Riddick kein Moiré auftritt. Auf HQ sowieso. Aber wie gesagt, ich muss mir das noch genauer ansehen...

aths
2005-02-06, 17:09:14
...und viel mehr Transistoren. Oh und NV hatte wesentlich mehr Zeit zu optimieren und macht auch wohl wesentlich mehr bei D3 als ATI (lt. Demirug)Die bekannten [H]-Benchmarks vergessen wir mal besser :) da dort nur ein IHV schon "optimierte" Treiber inkl. Shader-Replacement hatte. Inzwischen hat ATI genug Zeit gehabt, "nachzuoptimieren". Von den Transistoren die der NV40 mehr hat, werden von Doom3 viele nicht genutzt. Schon FP32 vs. FP24 bringt einen deutlichen Transistor-Unterschied.

Damit bestätigst du also das NV sehr stark abhängig ist von Applikations spezifischen optimerungen. Oder meinst du das ATI an jedes noch so unbedeutende Spiel mit aller kraft optimiert hat ? Afaik benutzt ATI app spezifische optimierungen in Spielen erst seit D3 (abgesehen von Q3 vielleicht), im Gegensatz zu NV.Man muss nicht jedes einzelne Spiel optimieren, sondern sollte das, was die Grafikkarte zu tun bekommt, aus Leistungssicht bestmöglich aufbereiten. Hier hat es ATI beim R420 aufgrund der vergleichsweise simplen Pipes natürlich einfacher als NV. Da ist der NV40 auf dem richtigen Wege.

Klar, aber welche sind es ? FarCry hat wohl die längsten Shader, ob sie komplex sind weiss ich nicht, aber da liegen die ATI Karten ebenfalls meist vorne.Lange Shader, die viele Texturen sampeln, sind nach wie vor abhängig von der Textufüllrate. Der Trend geht aber dahin, im Verhältnis weniger zu sampeln und mehr zu rechnen.

aths
2005-02-06, 17:11:26
die bei NV ebenfalls aktiv sind, so what? :rolleyes:Kann man aber abschalten.

aths
2005-02-06, 17:12:37
Aber dafür gibts ja LOD Regler...Nur wenn die Applikation mit falschem LOD arbeitet. Eigentlich sollte man die LOD-Bias-Einstellung immer auf +-0 belassen.

Mr. Lolman
2005-02-06, 17:15:21
Beim NV40 ist mir bisher kein Moiré aufgefallen, allerdings hab ich Riddick bisher nur kurz angespielt, ohhe mir dabei die Grafikqualität genauer anzusehen. Aber ich kann mir gut vorstellen, dass aufgrund des leicht unschärferen AF (= soll kein Bashen sein, denn "leicht unschärfer" <> "zu unscharf") bei Riddick kein Moiré auftritt. Auf HQ sowieso. Aber wie gesagt, ich muss mir das noch genauer ansehen...


Hm, wohl zufrüh ghefreut. Bei Tenebrae sieht man das Moiré am NV40 auch mit dem HQ Modus in aller Deutlichkeit. (selbst mit LOD +0.5 sieht mans noch) Ich werd mir wohl die Riddicksavegames irgendwo ziehen und nach ner Stelle suchen, wos mit NV Karten nettes Moiré gibt.

aths
2005-02-06, 17:16:11
Wohl eher an den VS. Gehört aber auch zu SM2.0 ;)SM2 definiert ein Featureset, keine Geschwindigkeit. Da würde mich aber wundern, wieso Ruby so viel VS-Leistung braucht.

Nö - hab keinen gemacht. Außerdem sieht man Moiré am Screenshot kaum. Aber du kannst dir das so wie in dem zuvor verlinkten "LOD oder nicht LOD" Thread (mit Tenebrae), vorstellen.Das sollte übel flimmern, ja.

Beim NV40 ist mir bisher kein Moiré aufgefallen, allerdings hab ich Riddick bisher nur kurz angespielt, ohhe mir dabei die Grafikqualität genauer anzusehen. Aber ich kann mir gut vorstellen, dass aufgrund des leicht unschärferen AF (= soll kein Bashen sein, denn "leicht unschärfer" <> "zu unscharf") bei Riddick kein Moiré auftritt. Auf HQ sowieso. Aber wie gesagt, ich muss mir das noch genauer ansehen...Tu das. Eigentlich sollte das NV40-AF auf HQ nicht zu unscharf sein, sondern "genau richtig" (von der Winkelabhängigkeit ab 4x AF abgesehen, aber das wärst du ja, von der Radeon kommend, gewöhnt.)

aths
2005-02-06, 17:18:21
Hm, wohl zufrüh ghefreut. Bei Tenebrae sieht man das Moiré am NV40 auch mit dem HQ Modus in aller Deutlichkeit. (selbst mit LOD +0.5 sieht mans noch) Ich werd mir wohl die Riddicksavegames irgendwo ziehen und nach ner Stelle suchen, wos mit NV Karten nettes Moiré gibt.Und die Stellen sind wirklich nicht "gebumpmappt"?

Mr. Lolman
2005-02-06, 17:21:09
SM2 definiert ein Featureset, keine Geschwindigkeit. Da würde mich aber wundern, wieso Ruby so viel VS-Leistung braucht.


Schon klar das SM2.0 keine Geschwindigkeit definiert. Reden wir aneinander vorbei?

Sicher bin ich mir auch nicht. Es war nur seltsam, dass auf der R300 die liebe Ruby komplett auflösungs- (und AA Modus-) unabhängig immer ziemlich gleich läuft. Daher die Theorie mit der VS Limitierung...

Mr. Lolman
2005-02-06, 17:22:20
Und die Stellen sind wirklich nicht "gebumpmappt"?

Doch, aber ein korrektes LOD und ein vernünftig funktionierender trilinearer Filter sollten auch bei Bumpmapping jegliches Moiré vermeiden können, oder?