PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Benachteiligt Ubisoft SM 2.0 Karten?


Seiten : 1 [2] 3 4

Demirug
2005-02-23, 15:51:45
Dann braucht Quasar wohl eine neue CPU :D

OnTopic: kostet SM3 (ohne HDR) also doch Leistung? Und wie viel im Schnitt?

Ohne HDR oder ohne alle zusätzlichen Sachen?

Solange die Benchmarkfunktion nicht funktioniert kann man das aber sowieso nicht geanu feststellen.

Quasar
2005-02-23, 15:59:00
SM1.1, 4xAA 16xAF (via App)
http://img227.exs.cx/img227/5079/splintercell32004022014294936s.th.jpg (http://img227.exs.cx/my.php?loc=img227&image=splintercell32004022014294936s.jpg)

SM3.0, 4xAA 16xAF (via App, keine zus. Effekte)
http://img227.exs.cx/img227/7340/splintercell32004022014301530s.th.jpg (http://img227.exs.cx/my.php?loc=img227&image=splintercell32004022014301530s.jpg)

SM3.0, 4xAA 16xAF (via App, Soft-Shadows, Parallax-Mapping)
http://img227.exs.cx/img227/3343/splintercell32004022014303859s.th.jpg (http://img227.exs.cx/my.php?loc=img227&image=splintercell32004022014303859s.jpg)

SM3.0, 16xAF (via App, HDR, Soft-Shadows, Parallax-Mapping)
http://img185.exs.cx/img185/1872/splintercell32004022014311630s.th.jpg (http://img185.exs.cx/my.php?loc=img185&image=splintercell32004022014311630s.jpg)

SM3.0, 16xAF (via App, HDR, ToneMapping, Soft-Shadows, Parallax-Mapping)
http://img227.exs.cx/img227/5297/splintercell32004022014315863s.th.jpg (http://img227.exs.cx/my.php?loc=img227&image=splintercell32004022014315863s.jpg)

Entschuldigt, wenn ich damit nerve - für mich ist die SM3-Option auch inkl. HDR also durchaus benutzbar, oder, wenn man so will, nicht unbenutzbarer, als SM1.1.

Seraf
2005-02-23, 16:08:04
SM1.1, 4xAA 16xAF (via App)
http://img227.exs.cx/img227/5079/splintercell32004022014294936s.th.jpg (http://img227.exs.cx/my.php?loc=img227&image=splintercell32004022014294936s.jpg)

SM3.0, 4xAA 16xAF (via App, keine zus. Effekte)
http://img227.exs.cx/img227/7340/splintercell32004022014301530s.th.jpg (http://img227.exs.cx/my.php?loc=img227&image=splintercell32004022014301530s.jpg)

SM3.0, 4xAA 16xAF (via App, Soft-Shadows, Parallax-Mapping)
http://img227.exs.cx/img227/3343/splintercell32004022014303859s.th.jpg (http://img227.exs.cx/my.php?loc=img227&image=splintercell32004022014303859s.jpg)

SM3.0, 16xAF (via App, HDR, ToneMapping, Soft-Shadows, Parallax-Mapping)
http://img227.exs.cx/img227/5297/splintercell32004022014315863s.th.jpg (http://img227.exs.cx/my.php?loc=img227&image=splintercell32004022014315863s.jpg)

Entschuldigt, wenn ich damit nerve - für mich ist die SM3-Option auch inkl. HDR also durchaus benutzbar, oder, wenn man so will, nicht unbenutzbarer, als SM1.1.

Sieht man Parallax-Mapping nur in Bewegung? Für mich sehen die ersten drei Bilder fast gleich aus?!

Quasar
2005-02-23, 16:12:49
Man sieht's da auf der gemauerten Wand in der die Gittertür ist - aber nicht sehr stark. Ich hab's mit JPEG-65 etwas zerstört. Auf dem Originalbild ist'setwas besser sichtbar.

sm20
2005-02-23, 16:13:09
Entschuldigt, wenn ich damit nerve - für mich ist die SM3-Option auch inkl. HDR also durchaus benutzbar, oder, wenn man so will, nicht unbenutzbarer, als SM1.1.

Wie Demirug erwähnte, schafft dein Prozzesor wahrscheinlich nicht mehr. Spielbar würde ich dab aber nur als bedingt bezeichnen.

Trotzdem danke für die Screens, sm1 sieht immer noch wie sm1 in SC1 ;). Schade.

mapel110
2005-02-23, 16:17:01
Wie Demirug erwähnte, schafft dein Prozzesor wahrscheinlich nicht mehr. Spielbar würde ich dab aber nur als bedingt bezeichnen.


Viel höhere FPS erreichst du bei 1024er mit 4xAA/16AF bei SC3 durch einen besseren Prozzi nicht.
Also 30 fps sind schon gut spielbar bei SC-Reihe generell.

reunion
2005-02-23, 16:23:51
Bei HL2 geht es den Ati-Usern am Ar*** vorbei, dass z.B. bei der GF 5900 nicht die DX9-Pfade gehen.

Was ist daran so ungewöhnlich?
Logisch das man sich nur aufregt wenn es einem selbst betrifft.

Botcruscher
2005-02-23, 16:23:55
Irgendwie sieht die Kleidung des Soldaten durch SM3 nach Plastik aus.

Spasstiger
2005-02-23, 16:24:28
Sieht man Parallax-Mapping nur in Bewegung? Für mich sehen die ersten drei Bilder fast gleich aus?!

Da sieht man so nicht viel vom Parallax Mapping, in Bewegung fällts aber schon auf. Hab hier mal was erstellt:
> Parallax-Mapping in Splinter Cell 3 (http://img220.exs.cx/img220/4039/splintercell3parallax0vn.jpg) <

Damit mans besser erkennt, hab ich die Helligkeit etwas angehoben.

reunion
2005-02-23, 16:26:46
Ja und nun gibt es keinen SM2.x Pfad in SC, weil die Verfuegbaren einfach zu langsam dafuer waeren.


Was noch zu beweisen wäre.

sm20
2005-02-23, 16:31:06
Da sieht man so nicht viel vom Parallax Mapping, in Bewegung fällts aber schon auf. Hab hier mal was erstellt:
> Parallax-Mapping in Splinter Cell 3 (http://img220.exs.cx/img220/4039/splintercell3parallax0vn.jpg) <

Damit mans besser erkennt, hab ich die Helligkeit etwas angehoben.
Da du es nochmal verlinkt hast, ob ubi hier 6 passes mit ab auf die Steine anwendet oder nicht, diese sehen furchtbar aus. Wie in SC1, also definitiv eine politische Entscheidung, sonst hätten die Magazine SC3 wegen nicht verbesserter Grafik abgestraft.

reunion
2005-02-23, 16:35:59
Nein nein, ihr könnt reden so viel ihr wollt, ich sehe keinen argumentativ begründbaren Grund, DX 9 für FX Karten zu sperren, außer diese Karten schlechter dastehen zu lassen.


Würden die Karten nicht viel schlechter dastehen wenn sie im DX9 Modus laufen würden und von einer X300SE übertrumpft würden?

Nur eine unbedeutende Minderheit weiss überhaupt das die FX Karten nicht die gleiche Qualität liefern wie jede andere SM2.0 fähige Hardware.

Für mich hat Valve einen logischen Schritt vollzogen. Man weiss die die FP Einheiten der Nv3x Serie nicht zu gebrauchen sind, also verwendet man FX Einheiten. Die einzige Möglichkeit dies unter DX zu tun ist auf DX8 runterzugehen. Ich verstehe nicht warum das so unglaubwürdig ist. Ist ja immerhin nicht das erste Spiel wo (manche) FX Karten nicht im DX9 Modus laufen.

reunion
2005-02-23, 16:39:57
Was hat dann Valve davon abgehalten, dasselbe wie die SC:CT-Macher zu tun?

Im Gegensatz zu Ubisoft hat man wohl eingesehen das die Verbreitung von SM3.0 fähiger hardware zu gering ist.

(Außerdem war da ja noch was mit Ati ;))

Quasar
2005-02-23, 16:52:44
Im Gegensatz zu Ubisoft hat man wohl eingesehen das die Verbreitung von SM3.0 fähiger hardware zu gering ist.

(Außerdem war da ja noch was mit Ati ;))

Nein, ich meinte eigentlich, die default-Einstellung der "ach so langsamen FXen" bei DX8 zu belassen und im Menü auch DX9 zur Auswahl anzubieten anstelle es erst über einen nicht dokumentierten (?) Konsolenschalter herauszufischen.

Demirug
2005-02-23, 16:57:21
Allerdings stellt sich hier die Frage ob das alles so nötig ist?
Hab mich schon bei den anderen Teilen gefragt ob man nicht mit deutlich weniger Aufwand dasselbe erreichen kann. Das ruckelte und zuckelte und man fragte sich immer warum eigentlich? So besonders war die Grafik eigentlich nie und der 2.te Teil war eh nur ein schwarzer Bildschirm. :confused:


Das selbe wohl nicht. Grafikeffekte sind nun mal ein Geschäft bei dem der Aufwand nicht linear zum Ergebniss steht.

mapel110
2005-02-23, 16:58:08
Nein, ich meinte eigentlich, die default-Einstellung der "ach so langsamen FXen" bei DX8 zu belassen und im Menü auch DX9 zur Auswahl anzubieten anstelle es erst über einen nicht dokumentierten (?) Konsolenschalter herauszufischen.

Da wollte man wohl in erster Linie die 5200er/5600er Käufer schützen, die ja wesentlich verbreiteter sind als 5900er-User. =)
Bei Mohpa ist man da etwas genauer gewesen und hat nur 5200/5600 in den dx8-mode gezwungen (sofern kein Bullshit in den cfg-files des Games steht).

Demirug
2005-02-23, 17:00:30
Da wollte man wohl in erster Linie die 5200er/5600er Käufer schützen, die ja wesentlich verbreiteter sind als 5900er-User. =)
Bei Mohpa ist man da etwas genauer gewesen und hat nur 5200/5600 in den dx8-mode gezwungen (sofern kein Bullshit in den cfg-files des Games steht).

HL2 hat für jeden einzelne FX Typ einen Eintrag in dem File.

Quasar
2005-02-23, 17:07:20
Viel höhere FPS erreichst du bei 1024er mit 4xAA/16AF bei SC3 durch einen besseren Prozzi nicht.
Also 30 fps sind schon gut spielbar bei SC-Reihe generell.
Echt? Wie krass ist das denn? Ich dachte, ich wäre mit meiner Krücke so an der alleruntersten Grenzen...

mapel110
2005-02-23, 17:08:14
Echt? Wie krass ist das denn? Ich dachte, ich wäre mit meiner Krücke so an der alleruntersten Grenzen...

hab die demo leider gelöscht, aber viel mehr fps hatte ich defintiv nicht.

Quasar
2005-02-23, 17:15:48
Da wollte man wohl in erster Linie die 5200er/5600er Käufer schützen, die ja wesentlich verbreiteter sind als 5900er-User. =)
Bei Mohpa ist man da etwas genauer gewesen und hat nur 5200/5600 in den dx8-mode gezwungen (sofern kein Bullshit in den cfg-files des Games steht).
Die hätte man ja über die "default"-Einstellung DX8(.1)-Modus schützen können ohne gleich den DX9-Modus in die Konsole zu verbannen.

Mr. Lolman
2005-02-23, 17:24:22
hab die demo leider gelöscht, aber viel mehr fps hatte ich defintiv nicht.

Eben. In 1024 mag das ja noch ok sein, aber für 1280 muss man sich schon mit sehr niedrigen fps zufrieden geben.
Die hätte man ja über die "default"-Einstellung DX8(.1)-Modus schützen können ohne gleich den DX9-Modus in die Konsole zu verbannen.

hätte, könnte,.... ;)

Quasar
2005-02-23, 17:27:15
hätte, könnte,.... ;)
Tja, da siehst' mal, wie blödsinnig das Argumentieren mit Möglichkeitsformen ist. ;)

Mr. Lolman
2005-02-23, 17:30:20
Tja, da siehst' mal, wie blödsinnig das Argumentieren mit Möglichkeitsformen ist. ;)

Find ich garnicht, und ich bin ziemlich mir sicher, dass du auch nicht mit diesem Grundgedanken das Post verfasst hast...

KiBa
2005-02-23, 23:59:58
@demirug
könntest du mal einige (oder alle) dieser 16 optionen der shader auflisten, also was die entsprechenden abschnitte ungefähr machen, würde mich mal interessieren...
ich bin immer so furchtbar unkreativ, spontan fallen mir nur die offensichtlichen funktionen wie bump/parallax mapping, reflexionen oder shadowmaps ein...
oder hab ich das mit den optionen dieser "übershader" doch falsch verstanden?

Demirug
2005-02-24, 07:20:24
@demirug
könntest du mal einige (oder alle) dieser 16 optionen der shader auflisten, also was die entsprechenden abschnitte ungefähr machen, würde mich mal interessieren...
ich bin immer so furchtbar unkreativ, spontan fallen mir nur die offensichtlichen funktionen wie bump/parallax mapping, reflexionen oder shadowmaps ein...
oder hab ich das mit den optionen dieser "übershader" doch falsch verstanden?

100% ersichtlich ist das leider nicht was da jeder einzelne Schalter macht. Es sieht so aus als wären da ein paar Sachen mehrfach vorhanden um mehr als eine Lage an Detailsmaps aufbringen zu können. Am Ende sieht es so aus als wäre da noch Nebel zuschaltbar.

Aus dem originalen HLSL Code würde es vielleicht ersichtlicher werden aber den habe ich.

Narrenkönig
2005-02-24, 10:27:56
Nein, ich meinte eigentlich, die default-Einstellung der "ach so langsamen FXen" bei DX8 zu belassen und im Menü auch DX9 zur Auswahl anzubieten anstelle es erst über einen nicht dokumentierten (?) Konsolenschalter herauszufischen.
Zumal die Option bei den Grafikeinstellungen vorhanden war. Nur eben schattiert, das heist nicht einstellbar.
Das hab ich eh nicht kapiert, wollte man da FX Benutzer extra anzeigen das sie nur DX8.1 haben?

Ich find es ja auch scheisse das SM 2.0 nicht unterstützt wird, generell sollten die Technischen Möglichkeiten immer ausgeschöpft werden.
Aber grade ATi Käufer die über 300 € ausgegeben haben, haben sich für lange Balken anstatt für neuste Technologie entschieden und sollten sich jetzt nicht so aufregen. Die Specs für SM 3.0 sind schon lange bekannt, daher sollte sich jetzt keiner wundern das SM 3.0 Spiele relativ schnell auf den Markt kommen.

Spasstiger
2005-02-24, 11:02:50
Aber grade ATi Käufer die über 300 € ausgegeben haben, haben sich für lange Balken anstatt für neuste Technologie entschieden und sollten sich jetzt nicht so aufregen. Die Specs für SM 3.0 sind schon lange bekannt, daher sollte sich jetzt keiner wundern das SM 3.0 Spiele relativ schnell auf den Markt kommen.

Das wussten die Käufer einer X800/X850 und sind jetzt sicherlich auch nicht enttäuscht, wenn sie im Gegenzug dafür flüssig spielen können. Wer eine 6800 GT hat und alle Grafikoptionen reinhaut spielt ständig an der Ruckelgrenze und das Aiming wird zur Qual.
Mit einer Radeon X800 "läuft man gar nicht Gefahr" in den Ruckelbereich zu kommen (solange man die Auflösung auf einem moderaten Niveau belässt ;-)). Von daher schätze ich die Enttäuschung der X800/X850-User eher als gering ein.

Dunkeltier
2005-02-24, 11:03:05
Quasar, das kannst du doch nicht als ernsthaft spielbar bezeichnen?! Wenn ich mir schon eine topaktuelle Grafikkarte zulege, ist Bildqualität, und damit aktiviertes VSync, Pflicht. Gurkt man nun mit 28 FPS bei einer eingestellten Bildwiederholfrequenz von 85Hz rum, so ist dies aus meiner Sicht die reinste Dia-Show und alles andere als spielbar.

Sicherlich ein tolles Gimmick, aber weit davon entfernt spielbar zu sein.

Da gehe ich lieber an anderer Stelle Kompromisse ein.

Spasstiger
2005-02-24, 11:10:09
Da gehe ich lieber an anderer Stelle Kompromisse ein.

Leider sind die einzigen Kompromisse, die wirklich spürbar Performance bringen, das Ausschalten von HDR (mit HDR gibts einige Stellen, die dann wirklich extrem zäh laufen, an anderen Stellen dagegen ziehts recht wenig Performance) und vor allem das Senken der Auflösung. Für TFT-Besitzer ist aber zweiteres keine wirkliche Option.
Für eine echte Alternative halte ich das Zocken am TV. Einfach alle Grafikoptionen reinhauen und dafür nur 640x480. Schon flutscht das Game auf ner 6800 GT.

Mr. Lolman
2005-02-24, 11:20:08
Schon flutscht das Game auf ner 6800 GT.

Aber deswegen kauft man sich doch keine 6800GT. Ich finds nur schade wie energisch verneint wurde, dass der NV40 ohnehin zu langsam sei, für ordentliche SM3.0 Effekte, als man erkannt hatte wie sich der HDR Support für Farcry zu einem perforamancemässigen Debakel entwickelte. Nein Crytek wurde geschimpft, weil das HDR schlecht integreiert sei, und man muss nur auf das erste gut programmierte SM3 Spiel warten. Aber anscheinend kommen die nichtmehr. FC, SC3, Riddick, Pacific Fighters, alles ruckelt sobald man die SM3 Effekte aktiv hat. 1024 (ohne VSync) wär ja noch annehmbar, aber da dann meistens auch kein AA funktioniert (ohja bei Riddick mit 2-3spf) ist die Auflösung auch unbrauchbar...

Quasar
2005-02-24, 11:20:18
Quasar, das kannst du doch nicht als ernsthaft spielbar bezeichnen?! Wenn ich mir schon eine topaktuelle Grafikkarte zulege, ist Bildqualität, und damit aktiviertes VSync, Pflicht. Gurkt man nun mit 28 FPS bei einer eingestellten Bildwiederholfrequenz von 85Hz rum, so ist dies aus meiner Sicht die reinste Dia-Show und alles andere als spielbar.

Sicherlich ein tolles Gimmick, aber weit davon entfernt spielbar zu sein.

Da gehe ich lieber an anderer Stelle Kompromisse ein.
Das würde ich vermutlich auch - du hast aber gesehen, wie's bei mir SM1.1 aussieht? ;)

Insofern ist um 30fps vermutlich das Maximum, was meine Kiste hergibt - im SM1.1-Pfad vermutlich auch mit einer R9600 zu erreichen.

Dunkeltier
2005-02-24, 11:21:56
Leider sind die einzigen Kompromisse, die wirklich spürbar Performance bringen, das Ausschalten von HDR (mit HDR gibts einige Stellen, die dann wirklich extrem zäh laufen, an anderen Stellen dagegen ziehts recht wenig Performance) und vor allem das Senken der Auflösung. Für TFT-Besitzer ist aber zweiteres keine wirkliche Option.
Für eine echte Alternative halte ich das Zocken am TV. Einfach alle Grafikoptionen reinhauen und dafür nur 640x480. Schon flutscht das Game auf ner 6800 GT.

Das wollte ich damit andeuten. Mit der Sichtweite und den Details kann man auch noch eine ganze Menge regeln, gehts an die Auflösung wirds kritisch. Meinereiner geht keinesfalls unter 1024x768, eigentlich zocke ich das meiste wenn möglich mit 1280x960, sowie 2xMSAA und 8x bis 16x tri-aF.

Vom zocken am TV halte ich gar nichts, da
- mein TV kleiner als mein Monitor ist :uclap:
- ich Gegner in Shootern sowie die Schrift & Symbole in Strategiespielen schlecht erkenne
- mir die Augen von der Flimmerkiste weggebrutzelt werden.

Grestorn
2005-02-24, 11:32:14
[...]alles ruckelt sobald man die SM3 Effekte aktiv hat.
SM3 != HDR (zum 1.000.000.000 mal)

Und nicht SM3 selbst ist langsam, jedenfalls nicht langsamer als SM2. Lediglich die durch die Möglichkeiten von SM3 deutlich komplexeren Shader kosten naturgemäß Leistung.

Oder hattest Du erwartet, dass SM3 auf magische Weise dazu führen würde, dass komplexe Shader auf einmal so schnell abgeabreitet werden können, wie einfache (SM2) Shader?

robbitop
2005-02-24, 11:36:02
Aber deswegen kauft man sich doch keine 6800GT. Ich finds nur schade wie energisch verneint wurde, dass der NV40 ohnehin zu langsam sei, für ordentliche SM3.0 Effekte, als man erkannt hatte wie sich der HDR Support für Farcry zu einem perforamancemässigen Debakel entwickelte. Nein Crytek wurde geschimpft, weil das HDR schlecht integreiert sei, und man muss nur auf das erste gut programmierte SM3 Spiel warten. Aber anscheinend kommen die nichtmehr. FC, SC3, Riddick, Pacific Fighters, alles ruckelt sobald man die SM3 Effekte aktiv hat. 1024 (ohne VSync) wär ja noch annehmbar, aber da dann meistens auch kein AA funktioniert (ohja bei Riddick mit 2-3spf) ist die Auflösung auch unbrauchbar...
Echtes HDR kostet Bandbreite (doppelte Colorbandbreite, Z bleibt gleich) und 1/2 Füllrate. Wer verneint, dass das reinhaut, scheint blind für die Realität zu sein. Das wird in Zukunft mit mehr Rohleistung sicher erst richtig nutzbar (zumal ich davon ausgehe, dass zukünftige FP16 TMUs ein FP16 bi Sample in einem statt in 2 Takten schaffen).
Bis dahin wird HDR arg teuer und wohl nur nebenbei zum Herumspielen brauchbar sein (IMO) und das auch nur für HV40GT/U Besitzer (Performance).
Bis dahin sollte man MDR mit FX8 FB Nutzen IMO. Denn wenn man dies richtig einsetzt, kann NV40 sehr schnell sein.

ShadowXX
2005-02-24, 11:37:42
hab die demo leider gelöscht, aber viel mehr fps hatte ich defintiv nicht.

Ich definitiv schon....bei mir Pendelt es zwischen 30-60 FPS mit allen SM3.0 Effekten an und 1280x1024 mit 4xAA/8xAF (per App).

CPU ist allerdings auch ein Athlon64 3800+ mit 1Gig Speicher und meine 6800Ultra ist von Haus aus mit 425/600 getaktet.

Ähnliche Frameraten habe ich auf 1024x768 mit SM3.0 + HDR (dann natürlich ohne AA, aber mit 4xAF)

ShadowXX
2005-02-24, 11:41:03
Das wussten die Käufer einer X800/X850 und sind jetzt sicherlich auch nicht enttäuscht, wenn sie im Gegenzug dafür flüssig spielen können. Wer eine 6800 GT hat und alle Grafikoptionen reinhaut spielt ständig an der Ruckelgrenze und das Aiming wird zur Qual.
Mit einer Radeon X800 "läuft man gar nicht Gefahr" in den Ruckelbereich zu kommen (solange man die Auflösung auf einem moderaten Niveau belässt ;-)). Von daher schätze ich die Enttäuschung der X800/X850-User eher als gering ein.

Das gilt aber auch für die nV Karten...wenn man mit der Auflösung runtergeht, kann man auch dort ohne Probleme mit allen Effekten spielen.

Grestorn
2005-02-24, 11:41:12
Selbstquote wegen einer Ergänzung:
Und nicht SM3 selbst ist langsam, jedenfalls nicht langsamer als SM2. Lediglich die durch die Möglichkeiten von SM3 deutlich komplexeren Shader kosten naturgemäß Leistung.

Oder hattest Du erwartet, dass SM3 auf magische Weise dazu führen würde, dass komplexe Shader auf einmal so schnell abgeabreitet werden können, wie einfache (SM2) Shader?
Hinzuzufügen wäre noch, dass Shader, die einen gegebenen, komplexen Effekt X realisieren sollen, im SM3 effizienter formuliert werden können, als in SM2.

Wenn man auf den Effekt X ganz verzichtet, wird es natürlich schneller. Deswegen davon zu reden, SM3 wäre langsam, ist absurd.

fgdf
2005-02-24, 13:32:48
Echtes HDR kostet Bandbreite (doppelte Colorbandbreite, Z bleibt gleich) und 1/2 Füllrate. Wer verneint, dass das reinhaut, scheint blind für die Realität zu sein. Das wird in Zukunft mit mehr Rohleistung sicher erst richtig nutzbar (zumal ich davon ausgehe, dass zukünftige FP16 TMUs ein FP16 bi Sample in einem statt in 2 Takten schaffen).


dass gilt aber auch für fsaa, und da wird nicht nur color- sondern auch mehr z-bandbreite verursacht. durch z- und color-kompression kann natürlich einiges abgefangen werden, allerdings ist beim nv40 beides auch ohne FSAA im einsatz (wenn auch weniger effizient). aber 4xFSAA wird wohl ungefähr das gleiche an mehrbandbreite brauchen wie hdr (gegenüber 32bit framebuffer, ohne fsaa).

wieso die füllrate so ein problem darstellen soll ist mir auch nicht klar. imo werden nur die FP16-ROP´s für das alpha-blending genutzt, die texturen liegen ja weiterhin als 32-bit texturen bzw. DXT1-5 im speicher.
die tmu´s sollten also nicht wirklich mehr zu tun haben.

außerdem zieht hdr in sc3 lange nicht soviel leistung wie in farcry. mit meiner 6800 ohne große provleme spielbar, ca. 30fps (was für einen schnellen shooter natürlich zu wenig wäre, aber in einem stealth-spiel wie sc3 durchaus ausreicht) mit allen details+16xAF (im spiel eingestellt) in 1024x768. eine gt oder ultra sollte wohl auch noch 1280x960 mitmachen.

Spasstiger
2005-02-24, 13:35:52
Das gilt aber auch für die nV Karten...wenn man mit der Auflösung runtergeht, kann man auch dort ohne Probleme mit allen Effekten spielen.

Sicher, aber das ändert aber nix daran, dass sich ATI-User wegen den fehlenden Features nicht angeschissen fühlen (wie es hier von Nvidianern dargestellt wird). Macht es einen Unterschied, ob ich mit einer Nvidia oder einer ATI mit genau denselben Effekten flüssig spielen kann?
Weil das was die 6800-Reihe noch an fps produziert, wenn man alle Effekte reinhaut und dazu noch eine TFT-taugliche Auflösung (1280x1024) verwendet, macht mir persönlich einfach keinen Spass mehr. Und selbst bei 30 fps ist das Aiming hakelig wie Sau.
Zumindest wird das Spiel jeden enttäuschen, der sich eine 400 Euro Grafikkarte zulegt und dann erst nicht mit vollen Effekten spielen kann bzw. will, sei es weils zu lahm läuft oder weil die Karte nicht alle Effekte darstellen kann.

Nur das fehlende Parallax-Mapping auf nicht SM3-Karten find ich etwas schade, aber ich respektiere die Entscheidung der Entwickler. Und seien wir mal ehrlich, Splinter Cell 3 ist mit die am besten aussehende Konsolenportierung und das auch mit "nur" SM1.1 :wink: .

robbitop
2005-02-24, 13:41:55
dass gilt aber auch für fsaa, und da wird nicht nur color- sondern auch mehr z-bandbreite verursacht. durch z- und color-kompression kann natürlich einiges abgefangen werden, allerdings ist beim nv40 beides auch ohne FSAA im einsatz (wenn auch weniger effizient). aber 4xFSAA wird wohl ungefähr das gleiche an mehrbandbreite brauchen wie hdr (gegenüber 32bit framebuffer, ohne fsaa).

wieso die füllrate so ein problem darstellen soll ist mir auch nicht klar. imo werden nur die FP16-ROP´s für das alpha-blending genutzt, die texturen liegen ja weiterhin als 32-bit texturen bzw. DXT1-5 im speicher.
die tmu´s sollten also nicht wirklich mehr zu tun haben.

außerdem zieht hdr in sc3 lange nicht soviel leistung wie in farcry. mit meiner 6800 ohne große provleme spielbar, ca. 30fps (was für einen schnellen shooter natürlich zu wenig wäre, aber in einem stealth-spiel wie sc3 durchaus ausreicht) mit allen details+16xAF (im spiel eingestellt) in 1024x768. eine gt oder ultra sollte wohl auch noch 1280x960 mitmachen.

Bei AA fängt Kompression in Sachen Z und Color viel ab. Das liegt daran, dass die meisten Pixel für jedes Supixel den gleichen Z und Colorwert haben (beim MSAA). Lediglich die Polygonedges nicht. Und da besonders bei AA viel Redundanz exisitert, hilft die Kompression sehr gut.

Eine NV40 TMU filter FP16 Texturen nativ. Jedoch braucht er für ein FP16 bi Sample doppelt so viele Takte (nämlich 2) wie für ein FX8 Bi Sample. Aber das kann man ja noch ändern.
Auch Blending ist immer Gift für die Bandbreite dank blöder Texturwechsel beim sortieren des Rendervorganges.

ShadowXX
2005-02-24, 13:46:27
Sicher, aber das ändert aber nix daran, dass sich ATI-User wegen den fehlenden Features nicht angeschissen fühlen (wie es hier von Nvidianern dargestellt wird).


Wenn man diesen Thread liesst kommt einem das aber anders vor......Oder unter was ordnest du solche Sachen wie "Kauf ich nicht, da UBI mir die Effekte verweigert" ein?

Ich würde das "angeschissen" auch mehr auf UBI den auf ATI / nV beziehen....


Macht es einen Unterschied, ob ich mit einer Nvidia oder einer ATI mit genau denselben Effekten flüssig spielen kann?
Weil das was die 6800-Reihe noch an fps produziert, wenn man alle Effekte reinhaut und dazu noch eine TFT-taugliche Auflösung (1280x1024) verwendet, macht mir persönlich einfach keinen Spass mehr. Und selbst bei 30 fps ist das Aiming hakelig wie Sau.
Zumindest wird das Spiel jeden enttäuschen, der sich eine 400 Euro Grafikkarte zulegt und dann erst nicht mit vollen Effekten spielen kann bzw. will, sei es weils zu lahm läuft oder weil die Karte nicht alle Effekte darstellen kann.

Kann ich auf meinem System wie gesagt nicht nachvollziehen.....

Das es auf kleineren Systemen nicht so gut läuft ist allerdings klar....aber wenn ich sehe wie viele Leute inszwischen SLI und wasweisichwohin OCete CPUs haben, ist mein System auch nicht mehr gerade "High-End".

Und wie schon öfter mal erwähnt......so viel höher sind die FPS mit SM1.1 only auch nicht...das ist ja gerade der Witz bei der Sache. (Und dann kommt noch hinzu, das der SM3.0Pfad ohne Effekte sogar einen Tick schneller ist als SM1.1 "direkt")

Spasstiger
2005-02-24, 13:53:34
Und wie schon öfter mal erwähnt......so viel höher sind die FPS mit SM1.1 only auch nicht...das ist ja gerade der Witz bei der Sache. (Und dann kommt noch hinzu, das der SM3.0Pfad ohne Effekte sogar einen Tick schneller ist als SM1.1 "direkt")

Ich beziehe mich auch nicht auf SM1.1 vs. SM3 sondern auf keine Effekte vs. alle Effekte.

Und ich kann dir nicht abnehmen, dass dein Aiming nicht hakelig läuft, wenn du alles hochdrehst und eine hohe Auflösung dazukommt.

dfg
2005-02-24, 14:21:46
Bei AA fängt Kompression in Sachen Z und Color viel ab. Das liegt daran, dass die meisten Pixel für jedes Supixel den gleichen Z und Colorwert haben (beim MSAA). Lediglich die Polygonedges nicht. Und da besonders bei AA viel Redundanz exisitert, hilft die Kompression sehr gut.

das gilt imo nur für die farbwerte. die z-werte sind (außer bei parallel zum bildschirm liegenden polygonen) imo immer (leicht) unterschiedlich.
wenn wir davon ausgehen dass die von nvidia maximal angegebene kompression(1:4 für z und farbwerte) zur hälfte erreicht wird. haben wir noch immer die doppelte z- und colorbandbreite (gegenüber keinem FSAA). bei hdr-rendering haben wir "nur" die doppelte colorbandbreite die benötigt wird.

selbst wenn wir annehmen dass die durchschnittliche kompression 1:3 beträgt ist der zusätzliche bandbreitenbedarf etwa dem von 4xFSAA gleich.


Eine NV40 TMU filter FP16 Texturen nativ. Jedoch braucht er für ein FP16 bi Sample doppelt so viele Takte (nämlich 2) wie für ein FX8 Bi Sample. Aber das kann man ja noch ändern.
Auch Blending ist immer Gift für die Bandbreite dank blöder Texturwechsel beim sortieren des Rendervorganges.

nochmal, für was willst du bei hdr-rendering fp-16 texturen filtern?
die texturen liegen weiterhin höchstwahrscheinlich im DXT1-5 format oder evtl. als umkomprimierte 32-bit (fixpoint) texturen vor, die ganz normal wie fixpoint-texturen gefiltert werden können.
das blending muss auch ohne hdr durchgeführt werden, was natürlich prozentuell weniger bandbreite beansprucht, allerdings wie oben der vergleich zu 4xFSAA. auch das braucht ordentlich bandbreite.

ich denke dass beim hdr-rendering eher die nachfolgenden filter für das überblenden etc. (tonemapping kann der nv40 ja im ramdac, sollte also nicht soviel leistung brauchen, und tut es laut sc3 auch nicht) die große menge an leistung brauchen.

demirug hat ja mal bei farcry geschrieben was da alles zum einsatz kommt, und natürlich auch dass da einiges zuviel berechet wird.

ich kann natürlich nicht abschätzen wieviel da umsonst gerechnet wird, aber selbst wenn es 50% sind, bleiben noch immer jede menge an filter über.

Grestorn
2005-02-24, 14:26:35
das gilt imo nur für die farbwerte. die z-werte sind (außer bei parallel zum bildschirm liegenden polygonen) imo immer (leicht) unterschiedlich.Nein. Der Point of View des Betrachters ändert sich ja nicht, nur die 2D-Pixelkoordinaten werden um einen Bruchteil der Breite eines Pixels verschoben.

Die Z-Werte bleiben unangetastet (wäre auch komisch, wenn auf einmal nur durch AA ein Pixel hinter einer anderen Textur verschwinden würde).

robbitop
2005-02-24, 14:28:47
Mit den Z Werten hast du natürlich Recht (Denkfehler meinerseits).
Jedoch erhöt MSAA die Effizienz der Z Kompression, da mehr Daten zur Verfügung stehem und somit die Wahrscheinlichkeit, dass Redundanz vorkommt, welche man komprimieren kann. Farbwerte kosten theoretisch bei Nicht-Polykanten keine zusätzliche Bandbreite. 2 oder mehr Farbwerte werden als ein Farbwert übertragen.

Mit den FP16 Texturen hast du natürlich ebenfalls Recht (noch ^^).

Narrenkönig
2005-02-24, 16:13:35
FC, SC3, Riddick, Pacific Fighters, alles ruckelt sobald man die SM3 Effekte aktiv hat. 1024 (ohne VSync) wär ja noch annehmbar, aber da dann meistens auch kein AA funktioniert (ohja bei Riddick mit 2-3spf) ist die Auflösung auch unbrauchbar...
Ich habe Riddick in 1280x1024, SM 2.0++, 0xAA und 16xAF ohne Ruckeln gespielt. Fehlendes AA stört mich kaum, da kann ich als erstes drauf verzichten. Meine Prioritätsliste sieht so aus:
1280x1024x32 (wegen TFT)
4xAF
alle Effekte
min 8xAF
2xAA
Wenn dann noch Leistung da ist, erhöhe ich den AA Level.

FC habe ich zwar nur angespielt (will erst XIII zuende bringen), aber mit den gleichen Einstellungen wie Riddick hat da auch nix geruckelt.

G!!!ast
2005-02-24, 16:23:11
4xAF
alle Effekte
min 8xAF
2xAA


Hoppla, da geht was nicht auf. ;)

Spasstiger
2005-02-24, 16:53:21
Hoppla, da geht was nicht auf. ;)
*lol* Recht hast du. ;D
4:1 AF reicht aber imo für so ziemlich alle Spiel. Nur beim FS 2004 muss man eigentlich alles hochdrehen damits halbwegs nach was aussieht.

LovesuckZ
2005-02-24, 18:40:12
Hoppla, da geht was nicht auf. ;)

Was den?

Quasar
2005-02-24, 18:42:23
4xAF und min.8xAF

CompEx
2005-02-24, 18:51:23
Das Spiel läuft mit PS3.0 deutlich langsamer als mit PS1.1. Hier mal zum Vergleich PS1.1/3.0 und ATI/nVidia (gemessen mit Fraps bei 1600x1200 4xAA/8xAF):

X800XT: 25 FPS (PS1.1, Cat5.2) (EDIT: die 20 FPS waren mit vsync on...)
6800U: 23/16 FPS (PS1.1/3.0, FW71.81b)

dildo4u
2005-02-24, 18:53:07
Das Spiel läuft mit PS3.0 deutlich langsamer als mit PS1.1. Hier mal zum Vergleich PS1.1/3.0 und ATI/nVidia (gemessen mit Fraps bei 1600x1200 4xAA/8xAF):

X800XT: 20 FPS (PS1.1, Cat5.2)
6800U: 23/16 FPS (PS1.1/3.0, FW71.81b)
Lol ja und warum sollte mich das wunder? den die X800XT muss da nur die gleichen effekte berechnen wie eine 4jahre alte konsole *g*

Narrenkönig
2005-02-24, 18:53:20
Hoppla, da geht was nicht auf. ;)
Hab ich es nicht klar genug dargestellt?
Ich meinte das in der Reihenfolge, hier die lange Version.
1280x1024 mit mittleren Details muss sein, sonst brauche ich ne´ neue Graka. Wenn ich dann noch Leistung habe schalte ich 4x AF ein. Wenn ich dann noch Leistung habe schalte ich alle Effekte/Details ein. Wenn ich dann noch Leistung habe schalte ich AF auf 8x. Wenn ich dann noch Leistung habe schalte ich AA auf 2x. Wenn ich dann noch Leistung habe schalte ich AF auf 16x. Wenn ich dann noch Leistung habe schalte ich AA auf 4x oder höher.
Jetzt klar?
Da die weichen Schatten bei Riddick sich nicht mit AA vertragen, habe ich da 16x AF. Das selbe gilt für FC.

Mr.Magic
2005-02-24, 18:54:18
Und wo ist da die Aussagekraft? Wurden bei 3.0 die gleichen Effekte wie bei 1.1 verwendet? Ist alles an? Screenshots?

Quasar
2005-02-24, 18:56:42
Das Spiel läuft mit PS3.0 deutlich langsamer als mit PS1.1. Hier mal zum Vergleich PS1.1/3.0 und ATI/nVidia (gemessen mit Fraps bei 1600x1200 4xAA/8xAF):

X800XT: 20 FPS (PS1.1, Cat5.2)
6800U: 23/16 FPS (PS1.1/3.0, FW71.81b)
Sag', welche Effekte hattest du beim SM3 aktiviert?

LordDeath
2005-02-24, 19:04:30
Lol ja und warum sollte mich das wunder? den die X800XT muss da nur die gleichen effekte berechnen wie eine 4jahre alte konsole *g*

aua! der war hart :D

CompEx
2005-02-24, 19:26:36
Das Spiel läuft mit PS3.0 deutlich langsamer als mit PS1.1. Hier mal zum Vergleich PS1.1/3.0 und ATI/nVidia (gemessen mit Fraps bei 1600x1200 4xAA/8xAF):

X800XT: 20 FPS (PS1.1, Cat5.2)
6800U: 23/16 FPS (PS1.1/3.0, FW71.81b)

AA/AF ingame, EAX HD (SB Audigy)

Shadow Resolution auf High, alles on (außer vsync); Hardware Shadow Mapping lässt sich aber bei ATI nicht aktivieren (!?)

Quasar
2005-02-24, 19:28:04
Also keine zusätzlichen Effekt im SM3-Pfad? *verwirrt_bin*

mapel110
2005-02-24, 19:29:12
Also keine zusätzlichen Effekt im SM3-Pfad? *verwirrt_bin*
wenn er sagt "alles on" wird er wohl alles eingeschaltet haben, was bei sm3 möglich ist.
p.s. hab mir die demo nochmal gezogen, aber jetzt spielt der 75.90 nicht mit. Darstellungsfehler und mieser Speed.

Mr.Magic
2005-02-24, 19:32:03
Also ist die Aussage SM1.1 ist schneller als SM3.0 in diesem Falle mal wieder Blödsinn.
Mit Eyecandy läuft SC3 langsamer als ohne wäre korrekt ;).

Quasar
2005-02-24, 19:35:43
Das Spiel läuft mit PS3.0 deutlich langsamer als mit PS1.1. Hier mal zum Vergleich PS1.1/3.0 und ATI/nVidia (gemessen mit Fraps bei 1600x1200 4xAA/8xAF):

X800XT: 20 FPS (PS1.1, Cat5.2)
6800U: 23/16 FPS (PS1.1/3.0, FW71.81b)

Kannst du, nur um meiner Verwirrung einhalt zu gebieten, bitte auch nochmal den SM3-Pfad bei nV ohne zusätzliche SM3-Effekte messen? Also HDR aus, Tonemapping aus, Soft-Shadows aus und Parallax-Mapping aus.

Thx. :up:



Mit Eyecandy läuft XXX langsamer als ohne wäre korrekt ;).
Und bekannt seit anno dazumal :D

Jesus
2005-02-24, 19:54:27
SM3 != HDR (zum 1.000.000.000 mal)


Riddick benutzt kein HDR, PF benutzt kein HDR...
Wie schauts eigentlich mit Painkiller aus ?

aua! der war hart :D

Aua vielleicht, hart nicht :) (war irgendwie sinnlos :confused: )

Btw. die "4 jahre alte Konsole" macht das in 640x480 ohne AA & AF :)

Coda
2005-02-24, 20:04:04
Och komm Jesus. Wenn der Shader natürlich ewig lang ist und tausend Texture Lookups benützt, dann is klar dass er lahm wird. Das liegt aber nicht an SM 3.0 an sich.

Aber ein SM 3.0 Shader der die gleiche Funktion erfüllt wie ein SM 2.0 Shader wird nie langsamer sein, sondern eher schneller (arbitary swizzle, etc.)

dildo4u
2005-02-24, 20:05:56
Riddick benutzt kein HDR, PF benutzt kein HDR...
Wie schauts eigentlich mit Painkiller aus ?



Aua vielleicht, hart nicht :) (war irgendwie sinnlos :confused: )

Btw. die "4 jahre alte Konsole" macht das in 640x480 ohne AA & AF :)
So sinnlos wie ein bench PS1.1vs PS3.0

dfg
2005-02-24, 20:06:19
SM3.0 volle details: 39fps
SM3.0 ohne zusatzfeatures 59fps
SM1.1 alle details: 55fps

gemessen mit morebench (fraps kostet zuviel leistung) ziemlich am anfang wenn man über die holzbrücke schaut. das ganze in 1024x768, 16xAF (in SC eingestellt)

Jesus
2005-02-24, 20:06:23
Aber ein SM 3.0 Shader der die gleiche Funktion erfüllt wie ein SM 2.0 Shader wird nie langsamer sein, sondern eher schneller (arbitary swizzle, etc.)

2.0 vielleicht, aber 2.X ? Und ich meine jetz nicht generell sondern auf den NV40 bezogen.

Spasstiger
2005-02-24, 20:08:32
SM3.0 volle details: 39fps
SM3.0 ohne zusatzfeatures 59fps
SM1.1 alle details: 55fps

gemessen mit morebench (fraps kostet zuviel leistung) ziemlich am anfang wenn man über die holzbrücke schaut. das ganze in 1024x768, 16xAF (in SC eingestellt)

Genau so hab ich das auch erwartet.

Jesus
2005-02-24, 20:10:33
Genau so hab ich das auch erwartet.

Volle details = mit HDR ? dann is es ja gar nicht sooo schlimm ;)

Coda
2005-02-24, 20:12:01
2.0 vielleicht, aber 2.X ? Und ich meine jetz nicht generell sondern auf den NV40 bezogen.Für die gleiche Funktion ja. Weil dann ist SM 3.0 eigentlich nur 2_x mit höherem Instruction/Input Count, etc.

Es ist keine Revolution wie von 1.1->2.0, das sollte dir mal klar werden.

Jesus
2005-02-24, 20:13:40
blablabla... sonst sind bald alle konsolen titel den pc games überlegen.

Das wird in nicht allzu langer Zeit sowieso geschehen (imo) :)

CompEx
2005-02-24, 20:13:52
oooops: die ATI hat 25 FPS, die 20 FPS waren mit vsync on.

Alle PS3.0-Effekte waren on.

Mit PS3.0, aber ohne die Effekte (d. h. HDR + Tonemapping, Par Mapping, HQ Soft Shadows off), ergibt den gleichen FPS-Wert wie PS1.1 (für kurze Zeit immer mal +1 FPS, naja, FRAPS ist halt nicht soooooo genau)

Coda
2005-02-24, 20:15:40
Das wird in nicht allzu langer Zeit sowieso geschehen (imo) Ja, für ungefähr nen Jahr. Wie üblich *gähn*

trzrtz
2005-02-24, 20:18:00
Volle details = mit HDR ? dann is es ja gar nicht sooo schlimm ;)

ja inkl. hdr, es ist zum aushalten ;)

Jesus
2005-02-24, 20:22:44
Ja, für ungefähr nen Jahr. Wie üblich *gähn*

Gilt vielleicht für die Xbox2 (aka PC), aaber ich denke nicht für die PS3 ;) innerhalb eines Jahres vervielfacht sich die PC Leistungsfähigkeit nur sehr sehr selten und schon lange nicht mehr ;)

Und ja ihr dürft mich PS3 Fanatiker nennen oder Fanboy je nachdem (aber nicht ATI ;) )

und jetz schluss mit OT :biggrin:

Spasstiger
2005-02-24, 21:21:22
Volle details = mit HDR ? dann is es ja gar nicht sooo schlimm ;)

Ich hab halt die Verhältnisse der fps gemeint, z.b. 39 zu 59 fps zwischen alle Details an/aus (wobei HDR hier den Haupteinfluss hat).
Die hohen fps-Raten können daher kommen, dass an einer Stelle gemessen wurde, wo die fps besser sind. Gibt halt leider keine timedemo für die Splinter Cell 3 Demo.

Coda
2005-02-24, 21:40:55
Gilt vielleicht für die Xbox2 (aka PC), aaber ich denke nicht für die PS3 innerhalb eines Jahres vervielfacht sich die PC Leistungsfähigkeit nur sehr sehr selten und schon lange nicht mehr Die PS3 wird erst gar nicht die Leistung haben die ihr angedichtet wird. Cell reißt nur bei Streamaufgaben viel raus, und das kann eine GPU auch wunderbar.

Aber ich will dich ja nicht aus deinen Träumen reißen.

Tigerchen
2005-02-25, 07:05:40
Kann ich auf meinem System wie gesagt nicht nachvollziehen.....

Das es auf kleineren Systemen nicht so gut läuft ist allerdings klar....aber wenn ich sehe wie viele Leute inszwischen SLI und wasweisichwohin OCete CPUs haben, ist mein System auch nicht mehr gerade "High-End".


SLI haben wenige. So ein Freakforum repräsentiert nicht gerade Otto Normalgamer. Und die Aussagen von notorischen Overclockern kann man sowieso nicht ernst nehmen. Da wird seit jeher gelogen daß sich die Balken biegen.

Tigerchen
2005-02-25, 07:14:05
Lol ja und warum sollte mich das wunder? den die X800XT muss da nur die gleichen effekte berechnen wie eine 4jahre alte konsole *g*

Diesen Nachteil sollte SM 3.0 mit Übershadern aber ausgleichen können.
16fps sind natürlich ein Witz für so eine teure Karte. Da hilft nur eins. Abschalten und damit stehsr du genau da wo ATI/FX User stehen.
Es Bleibt dabei SM 3.0/HDR ist irgendwann 2006 eine Alternative, heute nicht.

Grestorn
2005-02-25, 07:23:35
[COLOR="#000088"]
Diesen Nachteil sollte SM 3.0 mit Übershadern aber ausgleichen können.Nochmal: SM3.0 macht komplexe Shader nicht automagisch um ein vielfaches effizienter als ihre SM2.0 Konterparts. Vieleicht zwischen 10 und 50% effizienter, bestimmt nicht mehr.

Wunderdinge, also von 3.0 zu erwarten, dass ein 2.0 Shader der 30fps bringt, auf einmal 50 fps oder mehr erreicht, sind nicht realistisch. Man sollte froh sein, wenn es 35-40 fps sind.

Um das wirklich nachzuweisen, müsste natürlich erst jemand die 3.0 Shader mit allen Effekten nach 2.0 umsetzen. Mal sehen, ob es ein Spiel geben wird, für das das überhaupt gemacht wird.

Grestorn
2005-02-25, 07:25:12
Es Bleibt dabei SM 3.0/HDR ist irgendwann 2006 eine Alternative, heute nicht.Und eine Alternative ist SM3 natürlich schon. Vielleicht nicht für Dich, aber für Anwender, die nicht mit ATI verheiratet sind, ist es durchaus eine Option :)

Jagdpanther
2005-02-25, 07:51:46
Ausserdem ist das Spiel ja noch nicht kaufbar; vielleicht wird da ja noch was optimiert, nicht? :biggrin:

@Grestron:
Kannst mal saubere Benches mit deinem SLI-System durchführen bitte?

Grestorn
2005-02-25, 08:00:54
Ausserdem ist das Spiel ja noch nicht kaufbar; vielleicht wird da ja noch was optimiert, nicht? :biggrin:

@Grestron:
Kannst mal saubere Benches mit deinem SLI-System durchführen bitte?Benches von was? SC3? Oder die üblichen Verdächtigen?

Ehrlich gesagt, bin ich kein großer Fan von Benches. Ich versuch lieber, alle möglichen Spiele mit der bestmöglichen Qualität spielbar hinzubringen.

robbitop
2005-02-25, 08:19:17
SM3.0 volle details: 39fps
SM3.0 ohne zusatzfeatures 59fps
SM1.1 alle details: 55fps

gemessen mit morebench (fraps kostet zuviel leistung) ziemlich am anfang wenn man über die holzbrücke schaut. das ganze in 1024x768, 16xAF (in SC eingestellt)

selbiger Bench bitte nochmal ohne AF. Das könnte einen sinnlosen Flaschenhals bilden, der den Vergleich verfälscht.

edit: habe ich es überlesen oder hast du dein Testsystem noch nicht angegeben? :)

Jagdpanther
2005-02-25, 08:36:55
Benches von was? SC3? Oder die üblichen Verdächtigen?

Ehrlich gesagt, bin ich kein großer Fan von Benches. Ich versuch lieber, alle möglichen Spiele mit der bestmöglichen Qualität spielbar hinzubringen.

Von dem SC3 bitte.

Würd mich mal interessieren was SLI in den verschiedenen Modis bzw. mit/ohne AA&AF bringt.

Wär sicher ein interessanter Vergleich findest nicht?

Gasssssssttttttt
2005-02-25, 09:23:27
Die PS3 wird erst gar nicht die Leistung haben die ihr angedichtet wird. Cell reißt nur bei Streamaufgaben viel raus, und das kann eine GPU auch wunderbar.


Nur dass eine GPU (noch) nicht wirklich programmierbar ist und die jetzigen etwa nur ein 6-tel (nv40) der (theoretischen Peak-, bei beiden) Leistungsfähigkeit einer einzelnen CELL hat, und das bei halber Präzision.

CELL ist jetzt schon etwas mehr als WGF2.0 in ein paar Jahren bieten wird, vorallem weil beim PC+Graka noch längere Zeit der Flaschenhals AGP/PCIe existieren wird.

mapel110
2005-02-25, 09:30:14
Nur dass eine GPU (noch) nicht wirklich programmierbar ist und die jetzigen etwa nur ein 6-tel (nv40) der (theoretischen Peak-, bei beiden) Leistungsfähigkeit einer einzelnen CELL hat, und das bei halber Präzision.

Belege?


CELL ist jetzt schon etwas mehr als WGF2.0 in ein paar Jahren bieten wird, vorallem weil beim PC+Graka noch längere Zeit der Flaschenhals AGP/PCIe existieren wird.
Seit wann ist der Bus ein Flaschenhals?

Quasar
2005-02-25, 09:50:30
[COLOR="#000088"]
Diesen Nachteil sollte SM 3.0 mit Übershadern aber ausgleichen können.
Wie soll man mit "übershadern" (was genau soll das IYO bedeuten?) denn die soundsovielfache Bandbreitenanforderung ausgleichen?

Du vergleichst Äpfel mit Birnen und nur weil Äpfel besser rollen, müssen sie nicht besser schmecken. :)


16fps sind natürlich ein Witz für so eine teure Karte. Da hilft nur eins. Abschalten und damit stehsr du genau da wo ATI/FX User stehen.

Bist du nicht sonst auch immer einer derjenigen gewesen, die 1600x1200 als irrelevante Freak-Auflösung bezeichnet haben? Otto Normalgamer hat sicherlich eher ein Anzeigegerät mit 1280x1024 oder 1024x768 Bildpunkten.

Insofern könnte das Herunterschalten der Auflösung auf "normale" Werte durchaus noch weiterhelfen. :)

Quasar
2005-02-25, 10:26:25
Nur dass eine GPU (noch) nicht wirklich programmierbar ist und die jetzigen etwa nur ein 6-tel (nv40) der (theoretischen Peak-, bei beiden) Leistungsfähigkeit einer einzelnen CELL hat, und das bei halber Präzision.
CELL soll doch run 256GFLOPs bringen, oder? Zur nV40 habe ich momentan noch nichts gefunden. Für den nV30 jedoch spuckt mir Google bereits zwischen 51 und 200GFLOPs aus - wobei ich eher zu ersterem tendieren würde, auch wenn es sich dabei um den Pixelshader allein handeln soll.

3DConcept (http://www.3dconcept.ch/reviews/geforce3/) spricht sogar der GeForce3 insgesamt 76GFLOPs zu. :D

Wenn ich das, wir sprechen ja von theoretischer Peak-Leistung, mal auf den nV40 hochrechne, sieht CELL ziemlich alt aus.
Dazu könnte man noch die VS- und TMU-Operationen addieren - ist ja auch alles FP32.


CELL ist jetzt schon etwas mehr als WGF2.0 in ein paar Jahren bieten wird, vorallem weil beim PC+Graka noch längere Zeit der Flaschenhals AGP/PCIe existieren wird.
CELL ist ein Prozessor - wie kann der weiter sein, als eine Grafik-API? Selbst mein erster PC, ein AMD 386DX-40, war diesbezüglich schon "weiter" (universell programmierbar, 87Bit-FP (IIRC)Genauigkeit mit seinem Co-Prozessor).

Gaaaaassssssst
2005-02-25, 10:40:32
CELL soll doch run 256GFLOPs bringen, oder? Zur nV40 habe ich momentan noch nichts gefunden. Für den nV30 jedoch spuckt mir Google bereits zwischen 51 und 200GFLOPs aus - wobei ich eher zu ersterem tendieren würde, auch wenn es sich dabei um den Pixelshader allein handeln soll.

3DConcept (http://www.3dconcept.ch/reviews/geforce3/) spricht sogar der GeForce3 insgesamt 76GFLOPs zu. :D

Wenn ich das, wir sprechen ja von theoretischer Peak-Leistung, mal auf den nV40 hochrechne, sieht CELL ziemlich alt aus.
Dazu könnte man noch die VS- und TMU-Operationen addieren - ist ja auch alles FP32.


Dann nochmal googlen: 6800U: 76.8 GFlops (ok sind etwas mehr, bin von 40-50 ausgegangen).

http://www.it023.com/hardware/displaycard/buy/2004-04-25/15367.html

Ati spricht übrigens auf ihrer eigenen Homepage "nur" von etwa 134 Gflops bei der R420 :)

hmx
2005-02-25, 10:46:34
Kann man eigendlich SC3 ohne HDR aber mit SM3 Effekten spielen?

Tigerchen
2005-02-25, 10:58:14
Bist du nicht sonst auch immer einer derjenigen gewesen, die 1600x1200 als irrelevante Freak-Auflösung bezeichnet haben? Otto Normalgamer hat sicherlich eher ein Anzeigegerät mit 1280x1024 oder 1024x768 Bildpunkten.

Insofern könnte das Herunterschalten der Auflösung auf "normale" Werte durchaus noch weiterhelfen. :)

In dem Punkt hast du wohl recht. Hatte auch irgendwie übersehen daß da in der 1600er Auflösung gebencht wurde.

mapel110
2005-02-25, 11:06:23
Kann man eigendlich SC3 ohne HDR aber mit SM3 Effekten spielen?
Ja, lässt sich seperat ein/ausschalten.

Quasar
2005-02-25, 11:12:30
Dann nochmal googlen:
Hatte noch gar nicht angefangen, nach nV40 zu googlen... :)
6800U: 76.8 GFlops (ok sind etwas mehr, bin von 40-50 ausgegangen).
http://www.it023.com/hardware/displaycard/buy/2004-04-25/15367.html
Ati spricht übrigens auf ihrer eigenen Homepage "nur" von etwa 134 Gflops bei der R420 :)
Danke für den Link, aber ich würde gern auch verstehen, was die Seite da zusammengerechnet hat. Einfach nur Zahlen mit vielen leeren Quadraten drumrum (was vermutlich an meiner nicht installierten Unterstützung für SO-Asiatische Schriften liegt) sagen nicht viel aus.

Wenn ich richtig vermute, sind das lediglich die Operationen, die der Pixelshader mit seinen zwei Shadereinheiten durchschleusen kann. Dazu steht weiter unten in der Tabelle aber noch etwas von 102,4GFLOPs.
Dazu kämen dann, wie gesagt, noch die Rechenleistung der Vertexshader und in Teilen, der TMU. Beim Cell natürlich noch der Steuerprozessor.

edit:
Immerhin - wir sprechen ja hier von theoretisch erreichbarer Maximalleistung, nicht von Anwendungsperformance. Wenn Cell wirklich so überlegen wäre - wieso braucht die PS3 dann eine separate Einheit für (Teile der?) Grafikverarbeitung?

Coda
2005-02-25, 11:58:39
GFlops zu vergleichen ist genauso sinnvoll wie Ghz. Es sagt rein gar nix aus.
Du must Cell erstmal auslasten können. Das gleiche gilt für die Grafikkarte.

Die PS3 wird maximal 1 Jahr technischen Vorsprung haben, dann ist Cell wieder eingeholt.

deekey777
2005-02-25, 12:04:54
Weiß einer, wieviele GFlop/s die selige Geforce 3 geschafft hat? :|


(Wenn mich nicht alles täuscht, waren es um die 72GFlop/s.)

€: Oder war es die Geforce 4?

Gaestle
2005-02-25, 12:14:14
HDR kostet in den Games, wo's bislang implementiert ist, bei der heutigen HW ordentlich Leistung. Ist auch klar, weil ja mehr (interne) Bandbreite gebraucht wird.

Nun sind ja hier einige der Meinung, weil es so beschissen laufe, sei es auch nicht notwendig.

Jetzt möchte ich jedoch einen Rückblick so in die Zeit des Release des TNT(1) anregen, was ja einer der ersten Chip's war, der 32Bit Farbtiefe berechnete. Ich will hier nicht diskutieren, ob der TNT der erste war, der's in HW konnte, vielleicht war's auch ein RageIIc, anyway.

Grundsätzlich kostete 32Bit auf damaliger HW auch ordentlich an Performance, trotzdem will heute wohl niemand mehr mit 16Bit zocken.

Ich denke, das wird mit HDR nicht anders werden.

Grüße

PS: War als extra Thread gedacht, hab's mir aber anders überlegt, deshalb der komische Anfang...

Quasar
2005-02-25, 12:29:08
Die Geschichte des Automobils ist ebenfalls eine passende Analogie.

Laut, langsam, unsicher und kaum zu betanken in den ersten Tagen - da hätte man doch besser mit der Martkeinführung bis zu den frühen 1990ern gewartet, als es Airbags, gute TDI-Motoren und Crash-Tests gab.

Mr. Lolman
2005-02-25, 12:33:27
Grundsätzlich kostete 32Bit auf damaliger HW auch ordentlich an Performance, trotzdem will heute wohl niemand mehr mit 16Bit zocken.


Hm, auf der V5 zock ich nur mit 16bit. Weils kaum nen Unterschied zu 32bit macht, und die Performance besser ist.

Im Grunde hast du aber eh recht ;)

Hörnchen
2005-02-25, 12:48:51
Die Geschichte des Automobils ist ebenfalls eine passende Analogie.

Laut, langsam, unsicher und kaum zu betanken in den ersten Tagen - da hätte man doch besser mit der Martkeinführung bis zu den frühen 1990ern gewartet, als es Airbags, gute TDI-Motoren und Crash-Tests gab.

A: "Wenn ich mit meinem Auto um mein Grundstück fahre, brauche ich 3 Tage!" B: "So ein Auto habe ich auch mal gehabt...."

Gassssssstttttttt
2005-02-25, 12:59:49
Dazu steht weiter unten in der Tabelle aber noch etwas von 102,4GFLOPs.

Das is PS Leistung richtig, die 102,4 GFLOPS sind Single Precision (16bit). Beim CELL ist das ganz grob mit reinen Vertexshadern vergleichbar, dazu kommen auch noch die GFlops der PS des (unbekannten) NV nextGen Grafikchips + die einer 4 Ghz nextGen PowerPC CPU mit Altivec SIMD, was auch nicht zu verachten ist (wenn man alles zusammen zählen will).

Das ganze natürlich nur auf eine einzelne CELL bezogen :)

robbitop
2005-02-25, 13:03:32
nunja es kommt eben darauf an, was man als eine Operation definiert.
Eine TMU interpoliert bsw von 4 Farbkanälen pro Takt je 4 Texel. Somit hat man 16 lineare Interpolationen welche widerum aus Multiplikation und Addition bestehen. Allerdings kann man mit diesen Operationen eben nur beschränkt etwas anfangen. Genauso sieht es auch mit der Transformationsmatrix der TnL Unit aus.

Ich persönlich würde nur Ops zählen die auf so ziemlich alles frei anwendbar sind. Und auch da müsste man vorher abmachen, wieviele Komponenten eine Op besitzen soll? Eine skalare? eine Vec2/3/4?

Wenn es nach mir ginge, dann würde es so aussehen:

Vertexshader MIMD: 6x4 Ops (hier zähle ich pro Einheit 4 Operationen, da für jede ein eigener Operator zur Verfügung steht).
Pixelshader SIMD: 16x3 (praktisch sind 2MULs und eine SFU drin, ab und an je nach Situation sicher auch mehr Operationen)

400.000.000 x ( 24 + 48 ) = 28.800.000.000

Ergo 28,8GFlops realistisch. Das Marketing würde natürlich anders zählen...

Quasar
2005-02-25, 13:04:44
A: "Wenn ich mit meinem Auto um mein Grundstück fahre, brauche ich 3 Tage!" B: "So ein Auto habe ich auch mal gehabt...."
Besser schlecht gefahren, als gut gelaufen. ;)

Das is PS Leistung richtig, die 102,4 GFLOPS sind Single Precision (16bit). Beim CELL ist das ganz grob mit reinen Vertexshadern vergleichbar, dazu kommen auch noch die GFlops der PS des (unbekannten) NV nextGen Grafikchips + die einer 4 Ghz nextGen PowerPC CPU mit Altivec SIMD, was auch nicht zu verachten ist (wenn man alles zusammen zählen will).
Das ganze natürlich nur auf eine einzelne CELL bezogen :)
Schade, daß mein Chinesisch sich auf mündliches "Ni-Hao" und "eine Wan-Tan Suppe bitte" beschränkt - schriftlich sieht es noch viel mieser aus.

Zum Cell:
Eine einzelne Cell? Sprechen wir jetzt von einem PPc mit 8 SPUs?

Ergo 28,8GFlops realistisch. Das Marketing würde natürlich anders zählen...
Und wenn man nun real ~53GFLOPS auf einer 6800u und ~63GFLOPS auf einer X800XT erreicht? Allein im Pixelshader.


Nochmals zur Cell: Die 256GFLOPS werden auch "nur" erreicht, weil man die MAD als zwei Operationen werten, so c't.

Coda
2005-02-25, 13:58:18
Außerdem vergleichen wir heutige 130nm Prozessor mit einer zukünftigen 90nm oder 65nm CPU.

Cell kann auch nicht mehr Funktionseinheiten/Fläche haben als andere Chips.

Deshalb verstehe ich den ganzen Rummel auch nicht. Grafikkarten sind auch Streamprozessoren, da gibt's nicht viel Unterschied. (außer dass sie vielleicht als Rasterizer ausgelegt sind, aber das kann man auch noch ändern)

robbitop
2005-02-25, 14:54:40
Und wenn man nun real ~53GFLOPS auf einer 6800u und ~63GFLOPS auf einer X800XT erreicht? Allein im Pixelshader.


Nochmals zur Cell: Die 256GFLOPS werden auch "nur" erreicht, weil man die MAD als zwei Operationen werten, so c't.
Wie sollte man das "real" erreichen?

Quasar
2005-02-25, 15:22:11
Frag' mich nicht, frag' die (http://graphics.stanford.edu/~hanrahan/talks/gp2/Hanrahan.Brook.GP2.pdf).

robbitop
2005-02-25, 15:23:54
naja Marketingzahlen akzeptier' ich natürlich nicht ;)

ShadowXX
2005-02-25, 15:36:33
Wären keine Marketingszahlen, da diese mit einem GPUBench erstellt worden sein sollen.....allerdings würde ich diesen Zahlen insgesamt nicht trauen, da 2 Seiten später aufeinmal von 4XGFlops gesprochen wird.

Ich habe aber auch Websites gefunden, die allein dem PS der 68U schon >100GFlops zusprechen....

Ich glaube das kommt alles zu sehr auf die Sichtweise an.
Das gilt aber auch für Sony.

Wenn man also Zahlen vergleichen möchte (falls dieses überhaupt sinn macht), dann sollte man schon die Marketingszahlen von nV/ATI/Sony miteinander vergleichen.

(....auch Sonys 256GFlops ist eine reine Marketingzahl)

robbitop
2005-02-25, 15:44:06
ja lediglich ein Praxisbench wäre sinnig. Verschiedene Angaben zu vergleichen ist sinnlos.
Wobei ich GPU Bench nicht über den Weg traue. Dieser attestierte dem NV40 eine gleichhohe ADD Leistung wie die MUL Leistung und das ist Unsinn.
Mit meinem DC funktionierte das Programm ebenfalls nicht ordnungsgemäß (crash).

TheCounter
2005-02-25, 16:44:23
Kurz nach der Veröffentlichung der CD-Demo von Splinter Cell 3: Chaos Theory legt der Publisher Ubisoft jetzt eine offizielle Variante der Probierversion nach. Diese ist inhaltlich identisch aber aufgrund eines DirectX 9-Zusatzes immerhin 45 MByte größer. Somit wächst der Download auf stolze 603 MByte an.

SM2.0? Ich bin am saugen @ Fileplanet :D

saaya
2005-02-25, 16:44:41
Die enorme Basis der SM 2.0 Karten (man bedenke nur die Zahl der verkauften nV FX5200 Karten) bleibt außen vor.

na dann zeig mir mal wie du splinter cell2 im dx9 modus auf ner fx5200 oder fx5600 zockst ;)

es gibt unglaublich viele karten die dx9 "koennen" aber die zahl der karten die mit dx9 auch die notwendige performence erzielen koennen ist weitaus geringer.

Mr. Lolman
2005-02-25, 16:53:30
na dann zeig mir mal wie du splinter cell2 im dx9 modus auf ner fx5200 oder fx5600 zockst ;)


Zeig mir irgendein halbwegs modernes DX8/9 Spiel was man mit so ner Karte flüssig zocken kann :|

Demirug
2005-02-25, 17:02:05
Kurz nach der Veröffentlichung der CD-Demo von Splinter Cell 3: Chaos Theory legt der Publisher Ubisoft jetzt eine offizielle Variante der Probierversion nach. Diese ist inhaltlich identisch aber aufgrund eines DirectX 9-Zusatzes immerhin 45 MByte größer. Somit wächst der Download auf stolze 603 MByte an.

SM2.0? Ich bin am saugen @ Fileplanet :D

Da wird eher die DX9 Redist dabei sein.

Mr. Lolman
2005-02-25, 17:04:45
Da wird eher die DX9 Redist dabei sein.

Die is bei meiner (Torrent)Version schon dabei. Nur ist die schon 590MB groß (604.764kB) :|

Quasar
2005-02-25, 18:00:58
Wären keine Marketingszahlen, da diese mit einem GPUBench erstellt worden sein sollen.....allerdings würde ich diesen Zahlen insgesamt nicht trauen, da 2 Seiten später aufeinmal von 4XGFlops gesprochen wird.
Sogar auf derselben Seite - allerdings gehe ich davon aus, daß der "Microbench", in welchem die höheren Zahlen erreicht werden, das Zielgebiet des Algos eingrenzen sollte, während die späteren 45GFLOPs mit dem real zu nutzenden Programm erreicht wurden. Würde zumindest sinnvoll klingen.

@Robbitop:
Welche Marketingzahlen? Hast du den Link überhaupt gelesen?

Tigerchen
2005-02-25, 18:01:44
na dann zeig mir mal wie du splinter cell2 im dx9 modus auf ner fx5200 oder fx5600 zockst ;)

es gibt unglaublich viele karten die dx9 "koennen" aber die zahl der karten die mit dx9 auch die notwendige performence erzielen koennen ist weitaus geringer.

Ich denke du hast Recht. Es gibt hier allerdings einen "Guru" der diese Karten technologisch gesehen für fortschrittlicher hält als z.B eine 9800XT. :rolleyes:

Coda
2005-02-25, 18:05:26
Vom Featureset ist das ja auch so. Von der Geschwindigkeit sicher nicht.

Quasar
2005-02-25, 18:10:06
Ich denke du hast Recht. Es gibt hier allerdings einen "Guru" der diese Karten technologisch gesehen für fortschrittlicher hält als z.B eine 9800XT. :rolleyes:

Das ist ja auch kaum abzustreiten, wenn man sich mal anschaut, was eine FX5200 im Vergleich zur 9800XT kann und nicht kann.

Ein Formel1-Wagen aus den späten 80ern (IIRC) hatte dank Turbomotor auch weit über 1000 PS - heute nähert man sich langsam wieder dieser Marke und niemand würde auf die Idee kommen, die Autos von damals als insgesamt* technologisch überlegen zu bezeichnen.

*Natürlich ist der Turbo fortschrittlicher als der heutige, nicht vorhandene Turbo. Ingesamt = die Summe aller Features

edit:
Dadurch, daß du ständig aths' "Guru"-Titel erwähnst, wird deine "Argumentation" auch nicht glaubwürdiger
edit2:
... oder soll ich sagen: "existent"?

mapel110
2005-02-25, 18:14:51
Das ist ja auch kaum abzustreiten, wenn man sich mal anschaut, was eine FX5200 im Vergleich zur 9800XT kann und nicht kann.

sehr waage ausgedrückt. :(

Das impliziert nämlich Features und fps. Eine 9800 kann sicher mehr fps darstellen als eine FX5200, wenn man sich auf ihre Features beschränkt.
Aber leider sind wir hier offtopic. ;(

Quasar
2005-02-25, 18:28:53
sehr waage ausgedrückt. :(

Das impliziert nämlich Features und fps. Eine 9800 kann sicher mehr fps darstellen als eine FX5200, wenn man sich auf ihre Features beschränkt.
Aber leider sind wir hier offtopic. ;(
Du sagst es - OT und "wenn man sich auf ihre Features beschränkt". :)

Kleiner Vergleich aus der Vergangenheit gefällig? Ganz ohne ATi? Ein GF2u konnte, wenn man sich auf deren Featureset beschränkte, auch eine höhere HTnL-Leistung entwickeln, als eine GF3.

Speed ist ein Feature, aber eben auch nicht mehr. Speed kann nicht alles erkaufen - ansonsten wären wir heute bei ultraschnellen DX8-Karten. Mit denen kann man, genügend Passes vorausgesetzt, auch so ziemlich alles darstellen (und sei es über Approximationen, deren Unzulänglichkeiten "sowieso keiner sieht").

Aber ok, ich höre auf OT zu sein.


edit:
Ich schrieb absichtlich auch "kann" dazu, denn es gibt ja unbestritten auch einiges, was eine Radeon kann, was der FX abgeht.

Coda
2005-02-25, 18:32:12
Mir fällt da eigentlich nur MRT ein.

TheCounter
2005-02-25, 18:43:48
Wie nennt man eigentlich das Parallax Mapping auf der PS2 (Genauso?)? Die PS2 Version von Splinter Cell 3 hat dieses Grafikfeature ja auch. Ich finds echt schade das selbst PS2-Besitzer in den Genuss von Parallax Mapping kommen und bei der PC Version alle SM2.0 Karten besitzer in die Röhre gucken :(

dildo4u
2005-02-25, 18:44:58
Wie nennt man eigentlich das Parallax Mapping auf der PS2? Die PS2 Version von Splinter Cell 3 hat dieses Grafikfeature ja auch. Ich finds echt schade das selbst PS2-Besitzer in den Genuss von Parallax Mapping kommen und bei der PC Version alle SM2.0 Karten besitzer in die Röhre gucken :(
Naja das ist eher einfaches bumpmapping.

TheCounter
2005-02-25, 18:45:49
Naja das ist eher einfaches bumpmapping.

Sieht aber genauso aus wie Parallax Mapping in der PC-Version (SM3.0). Gibt ja ein Video von der PS2 Version. Sieht auf jedenfall besser aus als in der PC-Version (SM1.1), selbst wenns nur Bumpmapping sein sollte.

dildo4u
2005-02-25, 18:48:29
Sieht aber genauso aus wie Parallax Mapping in der PC-Version (SM3.0). Gibt ja ein Video von der PS2 Version. Sieht auf jedenfall besser aus als in der PC-Version (SM1.1), selbst wenns nur Bumpmapping sein sollte.
Naja auf der PS2 bekommt man effekte durch die software raus das Parallax mapping ist auf dem pc eher eine Hardware Fähigkeit.

TheCounter
2005-02-25, 18:50:29
Naja auf der PS2 bekommt man effekte durch die software raus das Parallax mapping ist auf dem pc eher eine Hardware Fähigkeit.

Trotzdem finde ich es schade das es SM2.0 Karten nicht abbekommen haben. Aber bei Doom 3 hat das ganze ja auch ein User aus der Community nachgeliefert, vlt. macht das bei SC3 auch jemand.

dildo4u
2005-02-25, 18:51:48
Trotzdem finde ich es schade das es SM2.0 Karten nicht abbekommen haben. Aber bei Doom 3 hat das ganze ja auch ein User aus der Community nachgeliefert, vlt. macht das bei SC3 auch jemand.
Demurig meinte doch das es bei Doom3 nur so einfach ging weil Doom3 nur ein Hauptshader nutzt oder so ähnlich.

TheCounter
2005-02-25, 18:53:35
Demurig meinte doch das es bei Doom3 nur so einfach ging weil Doom3 nur ein Hauptshader nutzt oder so ähnlich.

Ja, aber es gibt doch bestimmt Leute die das auch bei SC3 bringen können auch wenn man die Shader dafür erst neu schreiben müsste. Ist dann halt bestimmt etwas aufwendig, aber dürfte machbar sein.

dildo4u
2005-02-25, 18:55:07
Ja, aber es gibt doch bestimmt Leute die das auch bei SC3 bringen können auch wenn man die Shader dafür erst neu schreiben müsste. Ist dann halt bestimmt etwas aufwendig.
Ich denk mal mit PS1.1 wird das eher ein ding der unmöglichkeit wegen extrem kurzen shader längen da wär PS2.0 support schon von vorteil*g*Sonst hätte man das ja auch in die X-Box ps1.1 version einbauen können.

Tigerchen
2005-02-25, 19:22:43
Das ist ja auch kaum abzustreiten, wenn man sich mal anschaut, was eine FX5200 im Vergleich zur 9800XT kann und nicht kann.

Ein Formel1-Wagen aus den späten 80ern (IIRC) hatte dank Turbomotor auch weit über 1000 PS - heute nähert man sich langsam wieder dieser Marke und niemand würde auf die Idee kommen, die Autos von damals als insgesamt* technologisch überlegen zu bezeichnen.

*Natürlich ist der Turbo fortschrittlicher als der heutige, nicht vorhandene Turbo. Ingesamt = die Summe aller Features

edit:
Dadurch, daß du ständig aths' "Guru"-Titel erwähnst, wird deine "Argumentation" auch nicht glaubwürdiger
edit2:
... oder soll ich sagen: "existent"?

Komisch. Immer wenn die FX5200 ins Spiel kommt werden insbesondere von 2 Membern die wir alle sehr gut kennen unglaubliche Eiertänze aufgeführt um die als "technisch überlegen" darzustellen. Und da kommst du und wirfst mir unglaubwürdige oder gar nicht existente Argumentation vor. :confused:

Coda
2005-02-25, 19:26:01
Ja, aber es gibt doch bestimmt Leute die das auch bei SC3 bringen können auch wenn man die Shader dafür erst neu schreiben müsste. Ist dann halt bestimmt etwas aufwendig, aber dürfte machbar sein.SC3 hat jetzt einen Shader, der sich mit 16 Parametern konfigurieren lässen.

In PS 2.0 müsste man 65536 Shader erstellen um das gleiche zu erreichen. Ich weiß nich mal ob solche Shadermengen noch performant zu verwenden sind.

Die andere Möglichkeit ist Multipass, aber dann müsste man das Parallax z.B. für jeden Pass neu berechnen.

Oder man erstellt sich pro Level die Shader für die überhaupt verwendeten Kombinationen. Das sind ja sicher nicht alle.

Quasar
2005-02-25, 19:40:04
Und da kommst du und wirfst mir unglaubwürdige oder gar nicht existente Argumentation vor. :confused:
[/COLOR]
Deine Argumentation in Sachen Features beschränkt sich auf "die Radeon ist aber schneller". :)

SC3 hat jetzt einen Shader, der sich mit 16 Parametern konfigurieren lässen.

In PS 2.0 müsste man 65536 Shader erstellen um das gleiche zu erreichen. Ich weiß nich mal ob solche Shadermengen noch performant zu verwenden sind.

Die andere Möglichkeit ist Multipass, aber dann müsste man das Parallax z.B. für jeden Pass neu berechnen.

Oder man erstellt sich pro Level die Shader für die überhaupt verwendeten Kombinationen. Das sind ja sicher nicht alle.
Ich denke, das Problem ist, daß du für solche Mengen eine Shader-Engine (for the lack of a better term) brauchst, die dir die entsprechenden Shader automatisch generiert wie bsw. HL2 oder Far Cry. Wenn du mit sowas angefangen hast, ist's kein Problem dir einen Shaderpfad rauszupicken. Das war die Regel in der Vergangenheit, als Spiele herauskamen deren Engine-Entwicklung noch innerhalb der R300-Ära begann.
Heute entwickelt man allerdings etwas anders - und zwar für Konsolen:
http://www.beyond3d.com/forum/viewtopic.php?p=332463#332463
(Vorletztes Posting auf Seite 1, Autor: Reverend)
Dummerweise haben Konsolen entweder eine eigene Entwicklungsumgebung wie der GC und die PS2 oder SM1.1.
Zukünftige Konsolen dagegen unterstützen SM3* - und auf Konsolen wird bis zum Anschlag optimiert, da braucht man nicht auf SM2-Kunden Rücksicht zu nehmen.

(*bei der Xbox2 nahezu 100% sicher, bei der PS3 vom Featureset zumindest zu vermuten)

Demirug
2005-02-25, 19:49:43
SC3 hat jetzt einen Shader, der sich mit 16 Parametern konfigurieren lässen.

In PS 2.0 müsste man 65536 Shader erstellen um das gleiche zu erreichen. Ich weiß nich mal ob solche Shadermengen noch performant zu verwenden sind.

Die andere Möglichkeit ist Multipass, aber dann müsste man das Parallax z.B. für jeden Pass neu berechnen.

Oder man erstellt sich pro Level die Shader für die überhaupt verwendeten Kombinationen. Das sind ja sicher nicht alle.

Es sind 3 Shader die auf jeweils 65536 Varianten expandieren würden darunter sind wahrscheinlich sehr viele die niemals zum Einsatz kommen. Aber das kann man nie vorhersagen.

ShadowXX
2005-02-25, 19:53:38
Kurz nach der Veröffentlichung der CD-Demo von Splinter Cell 3: Chaos Theory legt der Publisher Ubisoft jetzt eine offizielle Variante der Probierversion nach. Diese ist inhaltlich identisch aber aufgrund eines DirectX 9-Zusatzes immerhin 45 MByte größer. Somit wächst der Download auf stolze 603 MByte an.

SM2.0? Ich bin am saugen @ Fileplanet :D

Und??? War mehr drin als eine DX9 redist?

Coda
2005-02-25, 19:58:09
Aber das kann man nie vorhersagen.Auch nicht beim Level laden?

Demirug
2005-02-25, 20:10:06
Auch nicht beim Level laden?

Wahrscheinlich nicht. Da bei der Wahl der Shaderoptionen aus die Beleuchtung eine Rolle spielt und die ist ja teilweise dynamisch.

Coda
2005-02-25, 20:15:06
Was wäre denn deine Lösung gewesen?

TheCounter
2005-02-25, 20:18:17
Und??? War mehr drin als eine DX9 redist?

Weis ich nicht, da ich nur DSL Lite habe ist der Download noch nicht fertig. Im offiziellen Forum steht jedenfalls nichts davon das SM2.0 enthalten ist. Schade eigentlich :(

Demirug
2005-02-25, 20:21:58
Was wäre denn deine Lösung gewesen?

Dynamisch bauen und das ganzen cachen.

Mr. Lolman
2005-02-25, 20:26:57
Und??? War mehr drin als eine DX9 redist?

DX9 war auch schon beim Torrentlink dabei. Vergößert haben die nur den Installer und eine ubistats.dll ist auch hinzugekommen. Dafür fehlen unrealed.u und unrealed.int und ne neue preorder.tga gibts auch noch. Tolle Sache ;)

ShadowXX
2005-02-25, 20:38:05
DX9 war auch schon beim Torrentlink dabei. Vergößert haben die nur den Installer und eine ubistats.dll ist auch hinzugekommen. Dafür fehlen unrealed.u und unrealed.int und ne neue preorder.tga gibts auch noch. Tolle Sache ;)

Anders gesagt: Das gleiche in Grün........Demi hatte es ja auch schon "Vorrausgesagt".

Schade....mich hätte ein PS2.0 Pfad rein vom vergleich x800 vs. 6800 auch mal interessiert.

Wobei, wenn ich mir so "anhöre" was man alles machen müsste um das ganze in PS2.0 hinzubekommen, es wohl nur auf ein PS1.1 Speedupdate hinausgelaufen wäre (rein Kostentechnisch gesehen).

deekey777
2005-02-25, 20:45:29
Das mit den Shadermodelen ist nicht nur in der Demo so sondern wird so bleiben. Es gibt auch eine mehr oder weniger offizielle Begründung dafür die allerdings wohl noch unter die NDA fällt. Der 1.1 Pfad dürfte weitgehend direkt von der XBox Version kommen. Der 3.0 Pfad wurde auf jeden Fall neu programmiert.
...

(Aus dem anderen Thread (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2745922&postcount=55))

Hast du schon das Geheimnis gelüftet? Bei mehr als drei Threads zum gleichen Thema verliert man schon die Übersicht.

Demirug
2005-02-25, 20:54:48
(Aus dem anderen Thread (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2745922&postcount=55))

Hast du schon das Geheimnis gelüftet? Bei mehr als drei Threads zum gleichen Thema verliert man schon die Übersicht.

Welches Geheimniss?

TheCounter
2005-02-25, 20:56:22
Welches Geheimniss?

Er meint wohl die Andeutung der mehr oder weniger offiziellen Begründung die aber wohl noch unter die NDA fällt ;)

Demirug
2005-02-25, 21:02:39
Er meint wohl die Andeutung der mehr oder weniger offiziellen Begründung die aber wohl noch unter die NDA fällt ;)

Da ich die entsprechenden Unterlagen nicht unterschrieben haben weiss ich nicht wie da der Status ist.

TheCounter
2005-02-25, 21:09:17
Da ich die entsprechenden Unterlagen nicht unterschrieben haben weiss ich nicht wie da der Status ist.

Mit dem Release des Spieles dürfte die NDA doch aber auslaufen? Oder kann diese weit bis über den Release hinaus gelten?

sm20
2005-02-25, 21:09:21
Demirug, meinst du, du hattest schon Einsicht in Teile der U3 Engine? (höchst spekulativ)

Mit Spannug erwarte ich ein Statement der Ati Brüder Richard Huddy und Kevin Strange, aber wahrscheinlich vergebens.

Demirug
2005-02-25, 21:43:00
Demirug, meinst du, du hattest schon Einsicht in Teile der U3 Engine? (höchst spekulativ)

Ich durfte lediglich Tim Sweeney und Mark Rein interviewen. Die Engine selbst habe ich im Detail nicht gesehen.

Quasar
2005-02-26, 00:23:10
Demirug, hat es evtl. entfernt etwas mit dem oben von mir verlinkten Posting von Reverend zu tun? ;)

TheCounter
2005-02-26, 02:42:27
Auf der PS2 nennen die das ganze Geo-Texturing, vom optischen sieht es genauso aus wie Parallax Mapping. Die PS2 Version hat außerdem Refraction, Wasser distortion sowie Heat distortion. Ich will sowas auch in der PC-Version :(

Thorwan
2005-02-26, 05:55:02
Mit dem Release des Spieles dürfte die NDA doch aber auslaufen? Oder kann diese weit bis über den Release hinaus gelten?
Zumindest was EA angeht habe ich hier schon NDAs von 5 Jahren und mehr unterzeichnet. Sowas kann also durchaus bis weit nach Release des entsprechenden Produktes laufen...

Tigerchen
2005-02-26, 07:02:02
Deine Argumentation in Sachen Features beschränkt sich auf "die Radeon ist aber schneller". :)


Wenn du das so sehen willst kann man wohl nichts machen.

Quasar
2005-02-26, 09:05:37
Auf der PS2 nennen die das ganze Geo-Texturing, vom optischen sieht es genauso aus wie Parallax Mapping. Die PS2 Version hat außerdem Refraction, Wasser distortion sowie Heat distortion. Ich will sowas auch in der PC-Version :(

Na? Benachteiligt Ubisoft jetzt auch SM 3.0 Karten?
(wieso nur höre ich hier kein Geschrei? ;))


Wenn du das so sehen willst kann man wohl nichts machen.

Ich habe dich ja mehrfach darauf hingewiesen, daß keines deiner Argumente mehr als das enthält, also muss ich es wohl so sehen.
Du kannst es natürlich auch umdrehen, deine Argumentation beschränkt sich darauf, die 5200 sei zu langsam - was an der Sache nichts ändert. ;)

Von daher sind deine dauernden Sticheleien an der Argumentation von aths, damit hast du hier ja wieder angefangen, völlig unangebracht.

Tigerchen
2005-02-26, 09:30:49
Ich habe dich ja mehrfach darauf hingewiesen, daß keines deiner Argumente mehr als das enthält, also muss ich es wohl so sehen.
Du kannst es natürlich auch umdrehen, deine Argumentation beschränkt sich darauf, die 5200 sei zu langsam - was an der Sache nichts ändert. ;)

Von daher sind deine dauernden Sticheleien an der Argumentation von aths, damit hast du hier ja wieder angefangen, völlig unangebracht.

Durch ständiges wiederholen wird es auch nicht wahrer.

Quasar
2005-02-26, 09:34:01
Richtig - dann bringe doch bitte ein Argument. :)

edit:
Ich zeig dir mal, wie das geht.

Eine FX5200 kann bsw. eine höhere Rechengenauigkeit bieten, die, wenn man sie auf der Radeon erreichen wollte, über die CPU emuliert werden müsste. Dann wäre man nicht bei den von dir kritisierten, einstelligen FPS, sondern eher bei zweistelligen SPF.
Dazu gibt es die Möglichkeit, längere Shader zu nutzen, die, wie wir in Far Cry gesehen haben, nicht nur zur Verlangsamung dienen, sondern dazu, mehrere kürzere Shader zu einem zusammenzufassen und dadurch u.a. Bandbreite und mehrfaches, sinnloses Filter von Texturen zu vermeiden.

Ein kleiner Anfang.

mapel110
2005-02-26, 09:45:55
Lassts doch einfach gut sein. Mittlerweile dreht sichs doch schon wieder nur im Kreis. Die einen können nicht einsehen, dass die eine Karte technologisch fortschrittlicher ist, die anderen nicht, das die eine karte schneller ist, bei dem was sie kann als die andere. Was gibts da noch zu diskutieren?! Überzeugen konntet ihr euch gegenseitig schon vor Monaten(mittlerweile Jahren?!) nicht, warum solls jetzt so sein? Ein Anfang wäre, akzeptiert die Meinungen des Gegenüber, auch wenn sie "falsch"(anders) sein mögen..

Ein kleiner Anfang.[/i]
Bitte nicht schon wieder. ;(

Quasar
2005-02-26, 09:55:57
Jeder akzeptiert, daß die eine "bei dem was sie kann" schneller ist - da musst du irgendwas falsch mitbekommen haben. :)

edit:
Bitte nicht schon wieder. ;(
Ist die lieber, einfach ohne Argumente irgendwas daherzuschreiben? Mir nicht - das wäre billiges Rumgeflame á la XXX sucks. Dann kann man sich den Besuch bei 3DCenter auch schenken.

mapel110
2005-02-26, 10:00:17
Jeder akzeptiert, daß die eine "bei dem was sie kann" schneller ist - da musst du irgendwas falsch mitbekommen haben. :)
:up: Wenn jetzt noch Tigerchen sagt, dass er akzeptiert, dass die eine Karte mehr Features hat, ist die Sache doch gegessen. Was gibts dann noch zu diskutieren? Ich seh da irgendwie keinen Grund!

Tigerchen
2005-02-26, 11:56:23
:up: Wenn jetzt noch Tigerchen sagt, dass er akzeptiert, dass die eine Karte mehr Features hat, ist die Sache doch gegessen. Was gibts dann noch zu diskutieren? Ich seh da irgendwie keinen Grund!

Ich hab nie bestritten daß die FX Serie mehr Features bietet. Ich hab immer nur hinterfragt ob der Käufer das was sie kann auch auf dem Bildschirm zu sehen bekommt [/b]und[b] ob sie dies auch mit anehmbarer Geschwindigkeit darstellen könnte.
Beide Fragen können leider nicht so recht beantwortet werden da ja Spieleentwickler die kleinen FX Karten ohnehin auf DX8 Kost setzen. Aber was kann man für eine Handvoll Euro schon erwarten? Für mich leisten die kleinen FX genau das was man vom Billigsegment erwarten kann. Aber muß man die immer zum "DX9 Beschleuniger mit voller Präzision" hochstilisieren was sie zweifellos sind aber was Erwartungen weckt die halt nicht erfüllt werden können.

Jesus
2005-02-26, 14:10:46
Na? Benachteiligt Ubisoft jetzt auch SM 3.0 Karten?
(wieso nur höre ich hier kein Geschrei? ;))

Die PS2 Version wurde auch von einem völlig andern Entwicklerteam erstellt. Allerdings zeigt das gut dass es auch anders (besser) geht. :)

TheCounter
2005-02-26, 14:16:41
Die PS2 Version wurde auch von einem völlig andern Entwicklerteam erstellt. Allerdings zeigt das gut dass es auch anders (besser) geht. :)

Ich bin ja auf die GC Version gespannt, denn diese soll ein Port der PS2 Version werden. Wenn die GC Version dann auch diese Features bekommt, dann zeigt das imo eher die Unfähigkeit der Entwickler der PC-Version als das es Kostengründe waren.

dildo4u
2005-02-26, 14:19:13
Ich bin ja auf die GC Version gespannt, denn diese soll ein Port der PS2 Version werden. Wenn die GC Version dann auch diese Features bekommt, dann zeigt das imo eher die Unfähigkeit der Entwickler der PC-Version als das es Kostengründe waren.
Warum unfähigkeit es wurde halt einfach mher man und money power in die wirklich wichtige version gesteckt nämlich die PS2 version.

Jesus
2005-02-26, 14:21:20
Warum unfähigkeit es wurde halt einfach mher man und money power in die wirklich wichtige version gesteckt nämlich die PS2 version.

Wieso wichtiger ? Ich denke da eher dass solcherlei Effekte auf der PS2 einfacher/schneller/besser machbar sind als auf der Xbox. Hat man ja bereits in anderen Games gesehen.

dildo4u
2005-02-26, 14:23:15
Wieso wichtiger ? Ich denke da eher dass solcherlei Effekte auf der PS2 einfacher/schneller/besser machbar sind als auf der Xbox. Hat man ja bereits in anderen Games gesehen.
Ganz einfach installierte Konsolen weltweit.Wenn man hört das "meine" Konsole die besten effekte hat ist es für manche ein zusätzlicher kaufgrund.Und das diese effkte einfach auf der PS2 machbar sind halte ich für ein gerücht.Es wurden nicht umsonst 100 leute nur an die PS2 version angesetzt.Nur ganz wenige Teams auf der welt sind Fähig die PS2 an ihre grenzen zu bringen.

TheCounter
2005-02-26, 14:31:54
Warum unfähigkeit es wurde halt einfach mher man und money power in die wirklich wichtige version gesteckt nämlich die PS2 version.

Für die PS2 Version wird extra neu entwickelt und ich als PC (Hab zwar auch noch ne X-Box aba egal) Besitzer (Mit HW die der PS2 technisch überlegen ist) muss mich mit einem simplen X-Box Port zufrieden geben?

Also für mich drängt sich da eher der Gedanke der Unfähigkeit auf anstatt etwas anderes. Vlt. waren die Entwickler einfach nur unfähig einen SM2.0 Pfad hinzubekommen und haben dann den einfacheren SM3.0 Pfad genommen.

Jesus
2005-02-26, 14:35:36
Also für mich drängt sich da eher der Gedanke der Unfähigkeit auf anstatt etwas anderes. Vlt. waren die Entwickler einfach nur unfähig einen SM2.0 Pfad hinzubekommen und haben dann den einfacheren SM3.0 Pfad genommen.

War wohl billiger, bringt nur leider sehr wenigen etwas. Aber komisch ist es schon dass man eine neue High End Graka braucht um die Effekte (und nichtmal alle) die es auf der 5 Jahre alten 150€ PS2 gibt zu bestaunen, und das mit miserablen Frameraten. :rolleyes:

dildo4u
2005-02-26, 14:37:16
War wohl billiger, bringt nur leider sehr wenigen etwas. Aber komisch ist es schon dass man eine neue High End Graka braucht um die Effekte (und nichtmal alle) die es auf der 5 Jahre alten 150€ PS2 gibt zu bestaunen, und das mit miserablen Frameraten. :rolleyes:
HDR das was wirklich leistung frisst gibt auch auf der PS2 nicht.

Dunkeltier
2005-02-26, 14:37:16
War wohl billiger, bringt nur leider sehr wenigen etwas. Aber komisch ist es schon dass man eine neue High End Graka braucht um die Effekte (und nichtmal alle) die es auf der 5 Jahre alten 150€ PS2 gibt zu bestaunen, und das mit miserablen Frameraten. :rolleyes:


Ja super, mit Wischi-Waschi-Texturen und in einer Augenkrebserzeugenden Auflösung.

Jesus
2005-02-26, 14:39:45
HDR das was wirklich leistung frisst gibt auch auf der PS2 nicht.

Das braucht auch keiner bei den FPS.

Ja super, mit Wischi-Waschi-Texturen und in einer Augenkrebserzeugenden Auflösung.

Da spricht der Kenner. :biggrin:

dfdfg
2005-02-26, 14:51:05
War wohl billiger, bringt nur leider sehr wenigen etwas. Aber komisch ist es schon dass man eine neue High End Graka braucht um die Effekte (und nichtmal alle) die es auf der 5 Jahre alten 150€ PS2 gibt zu bestaunen, und das mit miserablen Frameraten. :rolleyes:

wenn du auf hdr verzichtest und dafür mit ps2-auflösung spielst hast du auf dem pc wahrscheinlich die doppelte bis dreifache geschwindigkeit.

Tjell
2005-02-26, 17:49:51
Ich denke du hast Recht. Es gibt hier allerdings einen "Guru" der diese Karten technologisch gesehen für fortschrittlicher hält als z.B eine 9800XT. :rolleyes:

Fortschritt != (größere) Geschwindigkeit

Oder wie definierst Du Fortschritt?

Mr. Lolman
2005-02-26, 18:00:45
Naja, ein Smart Roadster ist technologisch auch fortschrittlicher als ein Porsche 959...

Mcdave
2005-02-26, 18:13:43
SP:CT scheint einfach für den Grossteil aller PC Spieler eine weitere simple Konvertierung von der PS2 zu werden, wie mittlerweile 70% aller Spiele. Schnelles Geld eben.
So gesehen muss man es UBI schon hoch anrechnen, dass sie wenigstens die 6800er Karten halbwegs brauchbar supporten.

Ich kauf mir das Spiel auch nicht. Jedoch nicht, weil kein SM2 Support vorhanden ist, sondern weil ich diese lieblosen 1:1 Konvertierungen schlicht nicht mehr sehen kann.

Jesus
2005-02-26, 18:17:59
SP:CT scheint einfach für den Grossteil aller PC Spieler eine weitere simple Konvertierung von der PS2 zu werden, wie mittlerweile 70% aller Spiele. Schnelles Geld eben.

Von der Xbox :)

Tigerchen
2005-02-26, 18:24:02
Fortschritt != (größere) Geschwindigkeit

Oder wie definierst Du Fortschritt?

Für mich leisten die kleinen FX genau das was man vom Billigsegment erwarten kann. Aber muß man die immer zum "DX9 Beschleuniger mit voller Präzision" hochstilisieren was sie zweifellos sind aber was Erwartungen weckt die halt nicht erfüllt werden können.
So bleibt der Fortschritt leider nur theoretisch. Wer sich sowas kauft und zufrieden ist hat meinen Segen. Aber bitte, bitte hört auf den Fortschritt an der Featureliste auf der Packung fest zu machen. Und nein, das hat nichts mit nV/ATI zu tun. So einem Stand-alone Feature wie "Trueform" stand ich weiland ebenso reserviert gegenüber. Auch mit Smartshadern kann ich nix anfangen.

Tigerchen
2005-02-26, 18:25:50
SP:CT scheint einfach für den Grossteil aller PC Spieler eine weitere simple Konvertierung von der PS2 zu werden, wie mittlerweile 70% aller Spiele. Schnelles Geld eben.
So gesehen muss man es UBI schon hoch anrechnen, dass sie wenigstens die 6800er Karten halbwegs brauchbar supporten.

Ich kauf mir das Spiel auch nicht. Jedoch nicht, weil kein SM2 Support vorhanden ist, sondern weil ich diese lieblosen 1:1 Konvertierungen schlicht nicht mehr sehen kann.

Ist zwar von der XBox konvertiert ändert aber nichts daran daß du Recht hast.

TheCounter
2005-02-26, 19:39:55
Ich kauf mir das Spiel auch nicht. Jedoch nicht, weil kein SM2 Support vorhanden ist, sondern weil ich diese lieblosen 1:1 Konvertierungen schlicht nicht mehr sehen kann.

Ich hab das Gefühl das das bei den neuen Konsolen noch schlimmer wird. PC-Versionen werden irgendwie immer mehr vernachlässigt :(

LordDeath
2005-02-26, 19:45:39
derzeit isses ja so, dass man die billige konsolengrafik für schnellere pcs irgendwie aufpolieren muss, was aber nicht so einfach ist!
kommt die neue konsolengeneration, werden dann wieder die ganzen protierungen so angepasst, dass sie mit etwas schlechterer grafik auch auf dem pc laufen. ich denke das ist ein normaler prozess, der sich immer mit den releaseintervallen von neuen konsolen wiederholen wird!
ne bestehende grafik auf bessere qualität hoch zu polieren ist ja teuer, als ne gute grafik mal etwas runter zu drehen.

alternative mögliche begründung, warum sm2.0 nicht in splinter cell 3 drin ist: die entwickler sind vielleicht totale fanboys :D

TheCounter
2005-02-26, 20:18:58
Vielleicht hilft zumindest bei der X-Box 2 dann das XNA-System von Microsoft. Falles es wirklich so umgesetzt wird wie man schon öfters lesen konnte wäre das sicher nicht schlecht.

Tigerchen
2005-02-27, 07:42:03
derzeit isses ja so, dass man die billige konsolengrafik für schnellere pcs irgendwie aufpolieren muss, was aber nicht so einfach ist!
kommt die neue konsolengeneration, werden dann wieder die ganzen protierungen so angepasst, dass sie mit etwas schlechterer grafik auch auf dem pc laufen. ich denke das ist ein normaler prozess, der sich immer mit den releaseintervallen von neuen konsolen wiederholen wird!
ne bestehende grafik auf bessere qualität hoch zu polieren ist ja teuer, als ne gute grafik mal etwas runter zu drehen.

alternative mögliche begründung, warum sm2.0 nicht in splinter cell 3 drin ist: die entwickler sind vielleicht totale fanboys :D

Wenn die XBox2/PS3 mal rauskommen gibts nix mehr runter zu regeln. Die neuen Konsolen werden ziemlich überbewertet.

Razor
2005-02-27, 10:09:40
Komisch. Immer wenn die FX5200 ins Spiel kommt werden insbesondere von 2 Membern die wir alle sehr gut kennen unglaubliche Eiertänze aufgeführt um die als "technisch überlegen" darzustellen. Und da kommst du und wirfst mir unglaubwürdige oder gar nicht existente Argumentation vor. :confused:Sie ist eindeutig technologisch überlegen!
Bekomm' das mal in Deinen Kopf.

Das einzige, was eine ATI (welcher Genration auch immer!) ihr voraus hat, ist der Speed (und eine handvoll unbedeutender Features). Noch immer... ATI ist hier einfach technologisch rückständig, dafür aber sehr schnell.

Wenn ich aus einem Auto alle Schnickschnacks heraus nehme und dies gegen eines setze, welches mit diesem vollgestopft ist und zudem noch Dinge wie Allradantrieb und Anhängekupplung dran hat, wird es ob der gleichen Ausgangsvoraussetzung definitiv schneller sein. Sicherer, ausbaufähiger und bequemer ist es hingegen nicht. Alles eine Frage der Marktpalzierung, nicht?

Wo ist also Dein Problem?
:confused:

Und bitte nicht vergessen: die FX5200 ist eine beschnittene Version der DX5800 und bekam ob der Beschneidung sogar einen (neueren ;-) Namen (NV34 statt NV30, wenn Du Dich erinnern magst ;-). Wenn Du also Techlevel (und Feature-Sets) vergleichen willst, dann bitte nicht High-End mit Low-End, gell?

Danke!

Wenn du das so sehen willst kann man wohl nichts machen.Das wird wohl nicht nur er so sehen...

Razor

q@h
2005-02-27, 10:15:14
MRT sind kein unbedeutendes Feature.

Razor
2005-02-27, 10:17:32
Naja, ein Smart Roadster ist technologisch auch fortschrittlicher als ein Porsche 959...Nein, ist er nicht...
...in keinster Weise sogar!
(er ist nur neueren Datums aber eben älteren Techlevels ;-)

Wenn Du da anderer Meinung sein solltest, belege dies bitte.
Danke!

Razor

Razor
2005-02-27, 10:20:30
MRT sind kein unbedeutendes Feature.Ausnahmen bestätigen die Regel, oder?
Oder gibt es sonst noch etwas in dieser Richtig?
Nein?

Ohhh... schade...
;)

Razor

Mr. Lolman
2005-02-27, 10:46:01
Wenn Du da anderer Meinung sein solltest, belege dies bitte.
Danke!

Razor


Ach ein Smart ist praktisch. Macht weniger Lärm, kann auch fahren, sogar mit Automatik, braucht weniger Sprit und ist günstiger. ;)

Exxtreme
2005-02-27, 11:01:06
Sie ist eindeutig technologisch überlegen!
Bekomm' das mal in Deinen Kopf.

Nur bei den Shadern. :)

Demirug
2005-02-27, 11:02:45
Nur bei den Shadern. :)

Nicht nur dort. Wollen wir Caps vergleichen spielen?

Tigerchen
2005-02-27, 11:08:16
Nicht nur dort. Wollen wir Caps vergleichen spielen?

Nützt das irgend wem?

Exxtreme
2005-02-27, 11:11:23
Nicht nur dort. Wollen wir Caps vergleichen spielen?
Wo noch? Wo ist eine GFFX5200 noch besser? Und nicht vergessen, es gibt Dinge, wo die fast 3 Jahre alte R300 selbst dem NV40 überlegen ist. Also an das AA, welches man in fast allen spielen nutzen kann, kommen sie immer noch nicht ran. :)

Mr. Lolman
2005-02-27, 11:31:41
Wo noch? Wo ist eine GFFX5200 noch besser? Und nicht vergessen, es gibt Dinge, wo die fast 3 Jahre alte R300 selbst dem NV40 überlegen ist. Also an das AA, welches man in fast allen spielen nutzen kann, kommen sie immer noch nicht ran. :)

Auch reichen doppelt soviel Pipes nicht wenn der Speicher knapp wird:

128MB 6800GT (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2509190&postcount=110) vs 9700pro (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2509987&postcount=114)

dildo4u
2005-02-27, 11:35:01
Auch reichen doppelt soviel Pipes nicht wenn der Speicher knapp wird:

128MB 6800GT (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2509190&postcount=110) vs 9700pro (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2509987&postcount=114)

Erstmal is das hier extrem OT dann hat er ohne AF optemierungen und du mit OC getestet.

Mr. Lolman
2005-02-27, 11:37:03
Erstmal is das hier extrem OT dann hat er ohne AF optemierungen und du mit OC getestet.

Stimmt is OT. Trotzdem hatte ich 4xAA an, und er nicht...

dildo4u
2005-02-27, 11:38:34
Stimmt is OT. Trotzdem hatte ich 4xAA an, und er nicht...
Ups hab ich übersehen sorry aber merkwürdige ergebnisse und Uralter treiber.
Siehe hier ganz unten.
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/asus_v9999gt_td_128/13/#abschnitt_half_life_2

Tigerchen
2005-02-27, 11:41:54
Sie ist eindeutig technologisch überlegen!
Bekomm' das mal in Deinen Kopf.

Das einzige, was eine ATI (welcher Genration auch immer!) ihr voraus hat, ist der Speed (und eine handvoll unbedeutender Features). Noch immer... ATI ist hier einfach technologisch rückständig, dafür aber sehr schnell.

Wo ist also Dein Problem?
:confused:


Ihr wollt es nicht verstehen oder?
Ja Razor die FX 5200 ist eindeutig, glasklar und unübersehbar technologisch überlegen. Jede Grafikkarte von nV seit der FX5800 ist dass. Das ist unbestritten. Ich habe das niemals bestritten und werde dies niemals tun und trotzdem wird mir das immer und immer wieder von euch Schlaumeiern vorgeworfen. Ist das jetzt endgültig geklärt oder wollt ihr mir das noch 5 Jahre lang anhängen.

Aber ich bleibe dabei daß es Schwachsinn ist sich hinzustellen und zu sagen. "Schaut her, nV kann sogar mit LowCoast Grafikkarten modernste Technik präsentieren während ATI techologisch auf dem Stand von 2002 stehen blieb"

Nicht daß so ein Satz gelogen wäre aber er enthält eben nicht die ganze Wahrheit. Stell dich doch nicht dümmer als du bist. Die ganze FX-Serie, nicht nur die 5200/5600, kann eben kein Kapital aus dem technologischen Vorteil ziehen. Wie gesagt, das wäre nicht schlimm bei so billigen Karte wie den 5200/5600ern. Schlimm ist nur daß Texte die du und andere hier so bei diversen Gelegenheiten abgelassen haben etwas anderes suggerieren. Das habe ich dir schon 2003 gesagt und seit dem wird das rigoros abgestritten. Statt dessen wurde auf eine glorreiche Zukunft verwiesen wenn erst mal Doom3 da wäre.....
Die simple Einsicht daß nV mit der FX Serie schlicht zu ehrgeizig war wird dir wohl für immer versagt bleiben. Es geht mir nicht nur um Speed sondern auch um die Nutzbarkeit von Features die von allen Seiten immer wieder mit viel Weihrauch beworben werden. ATI, 3dfx und Matrox haben sich in der Hinsicht ja auch nicht Ruhm bekleckert. Traurig daß ihr Privatleute euch da immer wieder von einseifen lasst.





Und nein. ATI ist nicht mehr schneller. Seit den nV4x sowieso allenfalls partiell. Der nV40 ist modern, schnell und zeigt eigentlich nur bei HDR und langen Shadern (Splinter Cell 3) Schwächen. So wie ich es auch erwartet hatte.

dildo4u
2005-02-27, 11:45:33
langen Shadern (Splinter Cell 3) Schwächen. So wie ich es auch erwartet hatte.


Wenn man HDR austellt ist sher gut spielbar auch in 1280*1024 also wo gibt da Probleme mit zu langen shadern? du hast ja sicher schon SC3 auf einer NV40 karte gezockt und dir eine Meinung zu bilden.

dsgtgzj
2005-02-27, 12:03:02
langen Shadern (Splinter Cell 3) Schwächen.


SM3 ohne zusätzliche features benutzt extrem lange shader (so lange dass sie mit SM2.x nicht realisierbar wären) und ist trotzdem rund 10% schneller als die kurzen SM1.1-shader.

es sieht eher so aus als hätte der nv40 gerne lange shader, und kann erst da seine technologische überlegenheit ausspielen.

Demirug
2005-02-27, 12:13:19
Wo noch? Wo ist eine GFFX5200 noch besser? Und nicht vergessen, es gibt Dinge, wo die fast 3 Jahre alte R300 selbst dem NV40 überlegen ist. Also an das AA, welches man in fast allen spielen nutzen kann, kommen sie immer noch nicht ran. :)

Im Bereich der Texturegrößen und Addressierung. Es gibt aber auch Bereich wo die Radeons mehr Funktionen haben. Hält sich in Summe wohl etwa die Wage.

Demirug
2005-02-27, 12:17:52
Und nein. ATI ist nicht mehr schneller. Seit den nV4x sowieso allenfalls partiell. Der nV40 ist modern, schnell und zeigt eigentlich nur bei HDR und langen Shadern (Splinter Cell 3) Schwächen. So wie ich es auch erwartet hatte.


Für Shader mit etwa 200 Anweisungen sind die aber erstaunlich schnell. Die Länge ist hier aber Zweitrangig weil zwischen der Länge eines Shaders und der Anzahl der ausgeführten Ops bei SM3 kein zwingender Zusammenhang besteht. Von den 200 Anweisungen werden in der Regel nur ein Teil ausgeführt. Meist wohl weniger als die Hälfte.

Grestorn
2005-02-27, 12:19:42
Wo noch? Wo ist eine GFFX5200 noch besser? Und nicht vergessen, es gibt Dinge, wo die fast 3 Jahre alte R300 selbst dem NV40 überlegen ist. Also an das AA, welches man in fast allen spielen nutzen kann, kommen sie immer noch nicht ran. :)Das stimmt nicht.

Hast Du Dir schon mal das hier (www.nhancer.com/documentation/AAVisualPresentation.htm) angesehen? Kann Deine Radeon diese AA Qualität denn auch? Oder irgendeinen Modus, der effektiv was bringt, den aber nur Deine Radeon kann?

Ich kann das nicht mehr hören, die ach-so-tolle AA Qualität der ATI Karten, die immer wieder beschworen wird. Dabei ist insbesondere das AA eine der Schwachstellen aller ATI Karten.

LovesuckZ
2005-02-27, 12:19:42
Und nein. ATI ist nicht mehr schneller. Seit den nV4x sowieso allenfalls partiell. Der nV40 ist modern, schnell und zeigt eigentlich nur bei HDR und langen Shadern (Splinter Cell 3) Schwächen. So wie ich es auch erwartet hatte.


Wo zeigt der NV40 beim HDR Schwächen?
Welche Hardware kann HDR effizienter Abarbeiten?
Ebenso bei langen Shadern?
Wo liegen dort Schwaechen, die andere Produkte nicht haben?

Exxtreme
2005-02-27, 12:28:55
Das stimmt nicht.

Hast Du Dir schon mal das hier (www.nhancer.com/documentation/AAVisualPresentation.htm) angesehen? Kann Deine Radeon diese AA Qualität denn auch? Oder irgendeinen Modus, der effektiv was bringt, den aber nur Deine Radeon kann?

Ich kann das nicht mehr hören, die ach-so-tolle AA Qualität der ATI Karten, die immer wieder beschworen wird. Dabei ist insbesondere das AA eine der Schwachstellen aller ATI Karten.
Also gegen gammekorrigiertes 6x AA, da kommt kein NV40 ran. Gut, der NV40 kann auch SSAA aber dieses Problem wird sich auf Radeons auch bald erledigt haben. :)

Grestorn
2005-02-27, 12:33:08
Also gegen gammekorrigiertes 6x AA, da kommt kein NV40 ran. Gut, der NV40 kann auch SSAA aber dieses Problem wird sich auf Radeons auch bald erledigt haben. :)
6xAA gamma korrigiert ist nicht nennenswert besser als 4x gamma korrigiert. Wobei ich der Gamma-Korrektur ohnehin nicht allzuviel Bedeutung beimesse, wie man an dem Vergleich ja auch sehen kann.

Aber ihr könnt gerne mal nen Shot der selben Szene auf ner ATI mit 6xAA machen. Der Spielstand und alle Einstellungen sind über den Link oben abrufbar. Ich bau das dann in die Präsentation ein.

Exxtreme
2005-02-27, 12:39:59
Habe leider kein HL2.

sm20
2005-02-27, 12:44:42
LOL, da sind wieder die Sicherungen durchgegangen ;D

Können wir nach den geflame zum Thema kommen?

Demirug, ich meinte mit U3 eigentlich, ob der Shader, der jetzt im SC3 werkelt, ein "epic-shader" ist. Da die Entwicklung hauptsächlich auf Konsolen geschieht und für PC nur nebenbei konvertiert wird, wäre es durchaus möglich, daß Ubi aufgrund der langfristigen Lizenz-Partnerschaft quasi was abbekommen hat?

Jesus
2005-02-27, 12:53:26
Oh Gott wenn ich diesen Mist hier lese dann muss ich kotzen! Wir habens alle verstanden, eine FX5200 ist eindeutig einer jeden ATI Karte vorzuziehen, denn nur damit kann man guten Gewissens einschlafen, schliesslich hat man den Technologieführer im PC stecken. Und auch an allen anderen NV Karten gibt es nichts zu rütteln, die sind einfach toll, HDR ist voll super spielbar weils ATI eh nicht kann, sieht einfach genial aus und jeder muss es haben. Daneben ist dieser ganze Mist den ATI fabriziert kategorisch abzulehnen, das AA ist auf jeden Fall nicht besser wie bei NV (wie auch?), Gammakorrektur bringt nichts weil NV es nicht hat und SSAA ist sowieso einfach schneller und besser!

Ich denke das fasst es nochmal gut zusammen. :|

Coda
2005-02-27, 12:55:33
Wobei ich der Gamma-Korrektur ohnehin nicht allzuviel Bedeutung beimesse, wie man an dem Vergleich ja auch sehen kann.Ich bezweifle dass nVidia wirklich Gamma korrekt downfiltern kann.
Aber andererseits kann ich zwischen 4xMSAA R300 und 4xMSAA NV40 wirklich keinen Unterschied feststellen.
Liegt aber vielleicht auch daran, dass ich den Monitor relativ dunkel habe (wegen Kalibrierung)

Und zum Supersampling: Für alte Spiele mit Alphatesting ist 8xS oder sogar 16xS wirklich toll.

Jesus, man kann es auch übertreiben. Die Aussage dass die NV30 dem R300 Technisch überlegen ist, ist ja nicht ganz falsch.

Es gibt hier Parteien, die sehen wirklich extrem schwarz/weiß.

Demirug
2005-02-27, 12:55:41
Demirug, ich meinte mit U3 eigentlich, ob der Shader, der jetzt im SC3 werkelt, ein "epic-shader" ist. Da die Entwicklung hauptsächlich auf Konsolen geschieht und für PC nur nebenbei konvertiert wird, wäre es durchaus möglich, daß Ubi aufgrund der langfristigen Lizenz-Partnerschaft quasi was abbekommen hat?

Es gibt mit U3 keine richtigen "Epic Shader" mehr da diese mit einem entsprechenden Tool das zu Engine gehört zusammengesetzt werden. Epic wird allerdings Basisteile für dieses zusammensetzten liefern.

So wie das ganze verstanden habe funktioniert das aber nur in Verbindung mit der neuen Engineversion. SC3 nutzt ja noch keine Version 3. Zudem wird die neue Version ja auch keine Hardware < SM2 unterstützen. Es sieht also danach aus als würden die Shader aus der Feder von Ubi stammen.

Tigerchen
2005-02-27, 13:26:38
Wo zeigt der NV40 beim HDR Schwächen?
Welche Hardware kann HDR effizienter Abarbeiten?
Ebenso bei langen Shadern?
Wo liegen dort Schwaechen, die andere Produkte nicht haben?

Das ist die falsche Fragestellung und das weißt du auch.

robbitop
2005-02-27, 13:30:00
Antwort: NV40 bricht da ein, wo auch zukünftige HW einbrechen wird.
Irgendwann wird das aufgrund genügend vorhandener Rohleistung jedoch nicht mehr so schmerzlich sein.
AF lässt auch die Leistung einbrechen oder Bump Mapping, nur haben wir eben heute die Leistung.

Ich sehe das nicht als "Schwäche". Sonst hätten heutige Karten ja auch eine "AF-Schwäche" oder eine "AA-Schwäche" oder eine "BM-Schwäche". Effekte kosten nunmal Performance.

q@h
2005-02-27, 13:35:05
Das ist die falsche Fragestellung und das weißt du auch.

Das ist aber auch die falsche Schlußfolgerung, so wie ich deine Aussage hier verstehe:
Der nV40 ist modern, schnell und zeigt eigentlich nur bei HDR und langen Shadern (Splinter Cell 3) Schwächen. So wie ich es auch erwartet hatte.[/COLOR]
Oder wie ist die zu verstehen?
-SM3 und HDR.
-(sowohl) SM3 und (als auch) HDR.

Bei ersterem: Ja sicher - HDR braucht Bandbreite. Mehr als knappe 40GB/s gibt's heutzutage nunmal nur bei NO2-Overclockern.

Bei letzterem: Nein, lange Shader allein machen den Pott nicht lahm.

Coda
2005-02-27, 14:48:30
Richtig lange Shader hat SC3 doch gar nicht. Und nur SM3 performt ja auch auf dem Niveau von SM1.1.

In meinen Augen ist das Design von NV40 sehr ausgewogen. Das Problem ist das es halt kein SM2.5 gibt. Dynamic branching hätte auch noch eine Generation warten können, dann hätte man wenigstens noch was bis WGF 2.0 gehabt ;)

So muss nVidia jetzt schon alle Features unterstützen. Doofe Politik von Microsoft eigentlich mal wieder, vielleicht hätte ATi ja ein SM2.5 ohne dynamic branching implementiert...

LordDeath
2005-02-27, 14:52:34
komische art, den fortschritt zu kritisieren :D

was meinst du, mit "Und nur SM3 performt ja auch auf dem Niveau von SM1.1."?
soweit ich es in den benches der leute gesehen habe, performant sm3 auf nem höheren niveu als sm1.1 mit gleicher bildqualität

Demirug
2005-02-27, 14:55:27
Richtig lange Shader hat SC3 doch gar nicht. Und nur SM3 performt ja auch auf dem Niveau von SM1.1.

In meinen Augen ist das Design von NV40 sehr ausgewogen. Das Problem ist das es halt kein SM2.5 gibt. Dynamic branching hätte auch noch eine Generation warten können, dann hätte man wenigstens noch was bis WGF 2.0 gehabt ;)

So muss nVidia jetzt schon alle Features unterstützen. Doofe Politik von Microsoft eigentlich mal wieder, vielleicht hätte ATi ja ein SM2.5 ohne dynamic branching implementiert...

Es gibt doch 2.X wo man sich einen Teil der 3.0 Features aussuchen darf die man implementieren möchte.

Coda
2005-02-27, 15:23:39
Mhm das ist natürlich richtig, wo hab ich den Kopf heute :|

Andererseits wäre das ja wieder nicht werbewirksam genug.

Narrenkönig
2005-02-27, 15:35:24
Oh man, hier geht´s manchmal ab.
Ich freu mich schon darauf wenn der R520 da ist. Dann heisst es von allen ATi Fans wie viel besser ATi SM3.0 und HDR umgesetzt hat und das es erst jetzt spielbar wird. :| :mad:

Jesus
2005-02-27, 16:14:49
Oh man, hier geht´s manchmal ab.
Ich freu mich schon darauf wenn der R520 da ist. Dann heisst es von allen ATi Fans wie viel besser ATi SM3.0 und HDR umgesetzt hat und das es erst jetzt spielbar wird. :| :mad:

Das hoffe ich doch, ansonsten brauch ich auch keinen R520 :)

Coda
2005-02-27, 16:16:59
Bandbreite herzaubern für HDR kann ATi auch nicht.

Und SM3.0 ist doch schön schnell auf NV40. Weiß gar nicht was du hast...

GGaasstt
2005-02-27, 16:18:29
Sie könnten ein 512Bit Interface einbauen.

Coda
2005-02-27, 16:20:34
Ja "könnten". Dann kosten die Karten zwar 700€, macht ja nix...

Tigerchen
2005-02-27, 17:15:31
Das hoffe ich doch, ansonsten brauch ich auch keinen R520 :)


Und wenn es die etwas billigeren Varianten des R520 dann auch nicht schnell genug schaffen, was zu erwarten ist, bleibt HDR noch sehr lange ein Luxusfeature. Bin nämlich nicht bereit mehr als 350 Öre für eine Grafikkarte auszugeben.

Dunkeltier
2005-02-27, 17:25:02
Ja "könnten". Dann kosten die Karten zwar 700€, macht ja nix...


Haben Geforce 2 Ultra Karten nicht ebenfalls mal soviel gekostet gehabt? Wem störts? Hauptsache man hat die Leistungskrone. ;D ;)

Exxtreme
2005-02-27, 17:29:20
Ja "könnten". Dann kosten die Karten zwar 700€, macht ja nix...
Hat man beim 256 Bit Interface auch befürchtet. =) Trotzdem hat ATi das eingebaut und die Karten waren auch gar nicht mal so teuer.

Tigerchen
2005-02-27, 17:39:09
Hat man beim 256 Bit Interface auch befürchtet. =) Trotzdem hat ATi das eingebaut und die Karten waren auch gar nicht mal so teuer.


Hmm. Viel verdient haben sie ja auch nicht mit den R9700/9500. Die waren eher dazu da den ramponierten Ruf wieder herzustellen.

Jesus
2005-02-27, 17:49:41
Es muss ja kein 512bit Speicherinterface sein, es kann ja auch etwas mehr sein. Ich denke da an ein bischen eDRAM :)

Coda
2005-02-27, 17:54:40
Hm gute Idee eigentlich. Das würde auch die >300 Mio Transistoren erklären.

Haben Geforce 2 Ultra Karten nicht ebenfalls mal soviel gekostet gehabt?Es geht um heute. 512 bit PCBs sind ja nicht nur 2x so komplex als 256 bit.

G.a.s.t.
2005-02-27, 17:55:27
Genug für einen 64Bit-Framebuffer bei 1600x1200?

Coda
2005-02-27, 18:01:32
Dafür wären 36MB (Framebuffer + Z-Buffer) nötig und dann hätte man noch nicht mal Texturen dabei.

Für 512MBit (=64MB) würde man bestimmt schon 50mm² Fläche benötigen in 90nm.

Mal sehen. Ich bin bei eDRAM schon immer skeptisch

Razor
2005-02-27, 19:13:07
Ach ein Smart ist praktisch. Macht weniger Lärm, kann auch fahren, sogar mit Automatik, braucht weniger Sprit und ist günstiger. ;)Wenn Du das unter "Technologie" verstehst, dann wird mir so einiges klar...
Also keinerlei Argument, sondern nur eine grundlagen entbehrende Behauptung Deinerseits?
:)

Razor

Razor
2005-02-27, 19:15:42
Ja Razor die FX 5200 ist eindeutig, glasklar und unübersehbar technologisch überlegen. Jede Grafikkarte von nV seit der FX5800 ist dass. Das ist unbestritten. Ich habe das niemals bestritten und werde dies niemals tun und trotzdem wird mir das immer und immer wieder von euch Schlaumeiern vorgeworfen. Ist das jetzt endgültig geklärt oder wollt ihr mir das noch 5 Jahre lang anhängen.Danke... endlich!
(ich hab' sogar Dein 'blau' gelassen ;-)

Razor

Razor
2005-02-27, 19:22:03
Also gegen gammekorrigiertes 6x AA, da kommt kein NV40 ran. Gut, der NV40 kann auch SSAA aber dieses Problem wird sich auf Radeons auch bald erledigt haben. :)Wenn das Gammkorrigierte AA nicht das Problem mit einem angepaßten Gamma hätte, zumindest aber ATI einen höheren Default-Gamma bieten würde, gäbe ich Dir Recht... so jedoch nicht.

Zumal 6xAA nicht viel im Vergleich zu 4xAA bringt, aber dafür ordentlich Leistung kostet...

Aber ja, wem das Default-Gamma bei ATI nicht zu dunkel ist, wird wunderbar dem gammakorrigierten 4xAA von ATI klar kommen, keine Frage.

Razor

Razor
2005-02-27, 19:27:29
Und ähmmm... ach ja:
Ab ins Speku-Forum mit dem Thread!
:D

Razor

Exxtreme
2005-02-27, 19:28:26
Aber ja, wem das Default-Gamma bei ATI nicht zu dunkel ist, wird wunderbar dem gammakorrigierten 4xAA von ATI klar kommen, keine Frage.

Razor
Mir ist das Default-Gamma nicht zu dunkel. Und ja, verstellbarer Gammafaktor für die Subpixel wäre sicherlich nicht schlecht. Der Nachteil wäre, daß das nicht automatisch gehen würde. Man müsste es manuell machen.

mapel110
2005-02-27, 19:28:35
Zumal 6xAA nicht viel im Vergleich zu 4xAA bringt, aber dafür ordentlich Leistung kostet...


6xAA kostet nicht übermässig viel Leistung im Vergleich zu den anderen AA modi von ATI.
http://www.3dcenter.org/artikel/ati_nvidia_aa_performance/

Coda
2005-02-27, 19:47:26
Im Vergleich zum Nutzen schon. Ich habe selber fast immer nur 4xAA genützt auf dem R300.

Razor
2005-02-27, 19:48:59
Mir ist das Default-Gamma nicht zu dunkel. Und ja, verstellbarer Gammafaktor für die Subpixel wäre sicherlich nicht schlecht. Der Nachteil wäre, daß das nicht automatisch gehen würde. Man müsste es manuell machen.Warum sollte das nicht automatisch gehen?
Bei nVidia klappts mit dieser Pseudo-Gammankorrektur ja auch...
(aber nicht im 75.90, da klappts genau 1x ;-)

Der Default-Gamma ist bei einem korrekt eingestellten Moni auf jeden Fall zu dunkel. Das habe ich auch bei so einigen nVidia-Treibern bemänglet, scheint sich aber bei den letzten Treibern seit 66.93 wesentlich gebessert zu haben.

Und ganz wichtig, wir reden hier von 'meiner' Interpretation des "Default-Gammas", gell?
(hatte dazu schon mal eine 'kleine' Diskussion mit aths ;-)
:D

Razor

Exxtreme
2005-02-27, 19:49:13
Im Vergleich zum Nutzen schon. Ich habe selber fast immer nur 4xAA genützt auf dem R300.
Tja, das Gesetz des abnehmenden Ertrages. :) Ich nutze auch fast immer 4x AA ausser bei älteren Spielen. Wird Zeit, daß ich 'ne neue Kiste herkriege. Ich warte aber auf den R520 nachdem mich weder der R420 noch der NV40 begeistern können.

Razor
2005-02-27, 19:49:38
Im Vergleich zum Nutzen schon. Ich habe selber fast immer nur 4xAA genützt auf dem R300.Darauf wollte ich hinaus...
Danke für diese Ergänzung.

Razor

Razor
2005-02-27, 19:51:30
Tja, das Gesetz des abnehmenden Ertrages. :) Ich nutze auch fast immer 4x AA ausser bei älteren Spielen. Wird Zeit, daß ich 'ne neue Kiste herkriege. Ich warte aber auf den R520 nachdem mich weder der R420 noch der NV40 begeistern können.Also wenn der R520 kein Winkelabhänges AF bietet, mit diesem Optimierungs-Zeug aufhört und SM3 unterstützt, nVidia das aber mit dem NV48 nicht tut (wovon ich ausgehe), dann ist er mein!
:D

Razor

Coda
2005-02-27, 19:54:37
Ich hoffe ja selber dass der R520 wird, was ihr euch erhofft. Aber skeptisch sollte man trotzdem sein ;)

Ein verbesserter NV40 in 90nm/24 Pipelines sollte aber ungefähr in den gleichen Leistungsregionen sein. So schlecht ist die Architektur nämlich nicht, ihr vergesst das nVidia grad mit fast 100Mhz Taktunterschied gut mithalten kann.

nachdem mich weder der R420 noch der NV40 begeistern können.Rein aus Interesse: Was stört dich am NV40 außer dass er von nVidia kommt? :|

Jesus
2005-02-27, 19:56:50
So schlecht ist die Architektur nämlich nicht, ihr vergesst das nVidia grad mit fast 100Mhz Taktunterschied gut mithalten kann.

Bitte nicht schon wieder die Taktkeule, sonst komm ich mit der Transistorkeule :rolleyes:

Coda
2005-02-27, 20:01:11
NV40 scheint für die Pixelpipelines gar nicht soviel mehr Transistoren zu baruchen wie R420.

Und selbst wenn? Was ändert das an der Aussage?

Narrenkönig
2005-02-27, 21:06:26
Also wenn der R520 kein Winkelabhänges AF bietet, mit diesem Optimierungs-Zeug aufhört und SM3 unterstützt, nVidia das aber mit dem NV48 nicht tut (wovon ich ausgehe), dann ist er mein!
ATi mit Optimierungen aufhören? Das glaubst du nicht wirklich. Die ham doch ewig gebraucht um dafür überhaubt Schalter in die Treiber zu schreiben. Ich würde es mir wirklich wünschen, das wäre toll von ATi, aber ATi werden lange Balken wichtiger sein. Lehrt zumindest die Vergangenheit.

Jesus
2005-02-27, 22:12:00
ATi mit Optimierungen aufhören? Das glaubst du nicht wirklich. Die ham doch ewig gebraucht um dafür überhaubt Schalter in die Treiber zu schreiben. Ich würde es mir wirklich wünschen, das wäre toll von ATi, aber ATi werden lange Balken wichtiger sein. Lehrt zumindest die Vergangenheit.

Naja zumindest funktioniern diese Schalter bei ATI auch :) Und NV hat auch recht lange gebraucht bis man bei den FXen was deaktivieren konnte.

g.a.s.t.
2005-02-27, 23:20:58
Noch funktionieren sie nicht so 100%.... Sind natürlich alles "unregelmäßigkeiten"

Raff
2005-02-27, 23:30:48
Tja, das Gesetz des abnehmenden Ertrages. :) Ich nutze auch fast immer 4x AA ausser bei älteren Spielen. Wird Zeit, daß ich 'ne neue Kiste herkriege. Ich warte aber auf den R520 nachdem mich weder der R420 noch der NV40 begeistern können.

6xAA frisst auf 128MB-Radeons auch viel zu übel Leistung in brauchbaren Auflösungen (1024x768 +), was den minimalen Qualitätszuwachs in keinster Weise rechtfertigt. Mit einem 256MB-Speicherpolster ist das besser verschmerzbar. Dennoch: Lieber eine Auflösung höher, dafür "nur" 4xAA.

MfG,
Raff

mapel110
2005-02-27, 23:59:17
6xAA frisst auf 128MB-Radeons auch viel zu übel Leistung in brauchbaren Auflösungen (1024x768 +), was den minimalen Qualitätszuwachs in keinster Weise rechtfertigt. Mit einem 256MB-Speicherpolster ist das besser verschmerzbar. Dennoch: Lieber eine Auflösung höher, dafür "nur" 4xAA.

MfG,
Raff
hast du den AA-Performance-Vergleichsartikel gelesen?
Einzig ut2003 reagiert erheblich auf zusätzliches Ram und das sogar schon bei 2xAA. Wenn 4xAA Nutzbar ist, dann ist 6xAA auch meist noch nutzbar.
Da gibts keinen wirklich übermässigen Einbruch.

Raff
2005-02-28, 00:05:02
hast du den AA-Performance-Vergleichsartikel gelesen?
Einzig ut2003 reagiert erheblich auf zusätzliches Ram und das sogar schon bei 2xAA. Wenn 4xAA Nutzbar ist, dann ist 6xAA auch meist noch nutzbar.
Da gibts keinen wirklich übermässigen Einbruch.

Nicht, wenn man gedenkt, das noch über 1280x1024x32 einzusetzen. ;)
Mag sein, dass das für einen R3x0 meist Overkill ist, aber es kommt nicht selten vor, dass 4xAA noch akzeptabel in 1600x1200x32 läuft ... 6xAA dann hingegen nur noch mit der Hälfte der Frames. VRAM-Mangel mit daraus resultierender Auslagerung.

Meiner Meinung nach rechtfertigt der bei Auflösungen > 1024x768 auftretende Performance-Impact keineswegs den nahezu unsichtbaren Qualitätssprung.

MfG,
Raff

Mr. Lolman
2005-02-28, 00:08:35
Meiner Meinung nach rechtfertigt der bei Auflösungen > 1024x768 auftretende Performance-Impact keineswegs den nahezu unsichtbaren Qualitätssprung.


Ich wünsch mir auf meinem 19" bisweilen schonmal mehr als ein 4x4EER...

Raff
2005-02-28, 00:11:33
Ich wünsch mir auf meinem 19" bisweilen schonmal mehr als ein 4x4EER...

Und was spricht dagegen, einfach eine Auflösung höher zu gehen? Schärft zusätzlich noch etwas die Texturen und minimiert das Flimmern von Alpha-Testing. :)

MfG,
Raff

Mr. Lolman
2005-02-28, 00:21:33
Und was spricht dagegen, einfach eine Auflösung höher zu gehen? Schärft zusätzlich noch etwas die Texturen und minimiert das Flimmern von Alpha-Testing. :)


Die phsyikalische Auflösung des TFT Panels ;)


Außerdem glaub ich nicht, das 1600x1200 4xAA unbedingt schneller ist als 1280x1024 6xAA.

reunion
2005-02-28, 01:25:48
NV40 scheint für die Pixelpipelines gar nicht soviel mehr Transistoren zu baruchen wie R420.

Und selbst wenn? Was ändert das an der Aussage?

Ist es nicht egal ob die Leistung durch mehr Takt oder durch mehr Transistoren erreicht wird?