PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : FSAA bei Doom3 (war: FSAA der R300)


Exxtreme
2002-05-30, 20:39:55
Ich habe mir mal die Doom3-Pics angeschaut und es sieht so aus als ob da bei 3 der 4 Screenshots FSAA verwendet wurde. Ich poste mal ein Paar vergrösserte Bildbereiche.

Gruß
Alex

Exxtreme
2002-05-30, 20:40:38
Hier ein Pic.

Gruß
Alex

Exxtreme
2002-05-30, 20:41:04
Und noch ein Bild.
Sieht nach mindestens 4x RGSS aus und war _wahrscheinlich_ schnell genug um Doom3 laufen zu lassen.

Gruß
Alex

jedi
2002-05-30, 21:10:08
Woher willst Du wissen, dass die Screenshots von einer R300 stammen? Zwar wurde die E3-Präsentation auf einer NexGen-ATI-Karte durchgeführt, aber auch nur mit mittleren Einstellungen! John Carmack sagte nachher, dass sie nur MEDIUM Quality bei der Vorführung hinbekommen haben und NICHT HIGH quality.

Aber die hier erwähnten Screenshots sind sowieso nicht von dieser Präsentation, weil sie schon viel früher - also lange vor der E3, im Netz herumgeisterten. Und Carmack sagt, dass bei id-Software jeder, der an Doom3 arbeitet, das auf einer GeForce4 Ti macht. Es sind also wahrscheinlich Screenshots von einer GeForce4.

Aber dann hätte unser FanATIker so einen Thread bestimmt nicht aufgemacht, wenn er das gewusst hätte. ;)

Exxtreme
2002-05-30, 21:13:45
Also ich denke schon, daß diese Bilder von der E3-Präsentation sind. Und diese sind tatsächlich 'nur' Medium-Quality ohne aniso-filter usw. Ich bin echt gespannt wie Doom3 mit high-quality aussieht.

Gruß
Alex

Xmas
2002-05-30, 21:19:05
Exxtreme,
hast du mal gerade nen Link zu den Originalshots?

Ich glaube übrigens auch nicht dass die Shots direkt von der E3-Präsentation sind. Man kann also nur mutmaßen von welcher Hardware sie stammen (falls sie nicht "nachbearbeitet" wurden, z.B. verkleinert).

Exxtreme
2002-05-30, 21:24:23
Also die Screenshots habe ich von hier:
http://www.shacknews.com/onearticle.x/20719

Gruß
Alex

nocturne
2002-05-31, 02:41:08
Originally posted by Exxtreme
Ich bin echt gespannt wie Doom3 mit high-quality aussieht.

Da der ATI-Prototyp das offensichtlich nicht gepackt hat, wirst Du für Doom3 mit high-quality in Echtzeit wohl bis zur Präsentation von nVidia's NV30 im August warten müssen.
*eg*

Richthofen
2002-05-31, 09:54:01
hehe
naja wenn sie immer noch das olle Supersampling verwenden könnte das ja stimmen :)

Exxtreme
2002-05-31, 10:46:57
Originally posted by Richthofen
hehe
naja wenn sie immer noch das olle Supersampling verwenden könnte das ja stimmen :)
Sorry, aber SuperSampling bietet ggü. MultiSampling eine deutlich bessere Bildqualität. Und diesen Bildqualitätsvorteil kannst du _nicht_ mit dem anisotropen Filter ausgleichen. Deswegen halte ich MS für wenig brauchbar.

Gruß
Alex

StefanV
2002-05-31, 11:35:42
Originally posted by Richthofen
hehe
naja wenn sie immer noch das olle Supersampling verwenden könnte das ja stimmen :)

Du glaubst anscheinend auch den Müll von Borsti...

MSAA ist nicht Fortschrittlicher als SSAA.
Es ist nur eine andere 'Philosophie', genau wie P4 vs Athlon/Hammer, beides sind grundverschiedene Ansätze eine CPU zu designen und beides funktioniert.
Nur mit dem Unterschied, daß es in diesem Fall unterschiedlich ist, was hinten Raus kommt.
MSAA ist nix weiter als Full Sceen Edge AA...

Wie aths schon gesagt hat:

Am beste ist es, wenn ein Chip beides kann, am besten RG...

Quasar
2002-05-31, 11:42:47
Supersampling sollte eigentlich jeder Chip können....ist nur eine Treibergeschichte, AFAIK.

Und Multisampling seit den DX8-Multisample-Buffern eigentlich auch, zumindest die neueren Teile.

nagus
2002-05-31, 19:50:34
Originally posted by nocturne

Da der ATI-Prototyp das offensichtlich nicht gepackt hat, wirst Du für Doom3 mit high-quality in Echtzeit wohl bis zur Präsentation von nVidia's NV30 im August warten müssen.
*eg*

anscheinend glaub hier jeder noch, dass die NV30 im August vorgestellt wird!

dazu kann ich nur sagen, dass das mehr als unwahrscheinlich ist! Nvidia ist in sachen DirectX 9 WEIT hinter ATI und directX 9 kommt bekanntlich erst im Herbst, zeitgleich mit ATIs R300


die NV30 kommt IMO erst irgendwann später...

Quasar
2002-05-31, 20:09:38
Dann weisst du also genau über die Vorgänge hinter den Kulissen Bescheid?

Verrat' uns doch mal mehr, bitte....

TBird
2002-05-31, 22:12:23
Originally posted by Stefan Payne

MSAA ist nicht Fortschrittlicher als SSAA.


:lol:

Exxtreme
2002-05-31, 22:17:01
Originally posted by TBird


:lol:
Was gibt's da zu lachen? Was soll an Paynes Aussage den lustig sein?

Gruß
Alex

StefanV
2002-05-31, 22:24:54
Originally posted by TBird


:lol:
Ich empfehle
DAS (http://www.3dcenter.org/artikel/anti-aliasing/).

Möglicherweise wird man dann die Aussage überdenken...

Quasar
2002-05-31, 22:32:10
"DAS" weist aber auch nicht auf einen "fortschritt" durch Supersampling hin....

StefanV
2002-05-31, 23:07:57
Originally posted by Quasar
"DAS" weist aber auch nicht auf einen "fortschritt" durch Supersampling hin....

nein, aber Grundlagen zu FSAA können nie schaden *eg*

Exxtreme
2002-05-31, 23:09:22
Originally posted by Quasar
"DAS" weist aber auch nicht auf einen "fortschritt" durch Supersampling hin....
Aber es weist auch nicht auf einen Rückschritt hin. Und Borsti hat es leider so dargelegt als ob MS fortschrittlicher wäre, was es IMHO nicht ist. Es ist nur 'anders'.

Gruß
Alex

Richthofen
2002-05-31, 23:11:16
sorry Payne und Extreme

Meine Meinung bzgl des FSAA hat überhaupt nüscht mit Borsti zu tun.
Ich weiss das es Quali Unterschiede zwischen Supersampling und Multisampling gibt und das sowohl positiv als auch negativ (zb schwammige Schriften)

Für mich ist MS trozdem klar im Vorteil. Als erstes möchte ich nämlich mein AA mal nutzen können und dazu brauch ich Performance.
Das der Radeon ist für mich unbrauchbar weil lahm.
Ich will wenn dann sowieso das Maximum und keine halben Sachen.
2x ist mir zu wenig. Auch wenn durch das OG Raster 4x nicht so gut ist wie 4x RG ist es immer noch besser als das 2x und ich bemerke es halt nicht. Ich leiste mir einfach alles und fertig.

Ein prozentualer Einbruch wie ihn die Radeon8500 bei 4x AA hat ist einfach jenseits von gut uns Böse.
Es kann in ein paar Jahren schon wieder anders aussehen.
Derzeit ist MS definitiv im Vorteil und das wird sich auch so schnell nicht ändern, denn die zukünftigen Spiele mit ihren DX8 Effekten werden nunmal nicht anspruchsloser.

NV hats erkannt und vorerst Supersampling zu den Akten gelegt. Ist eigentlich nur eine Treibersache. Mit entsprechenden Funktionen könnten die das anbieten aber es kostet zu viel Leistung die wo anders nunmal gebraucht wird.
Beim AA hat ATI eindeutig geschlampt siehe Bugs und nicht immer gleicher Raster und NV aufgepasst das sie nicht zu viel verbessern. Brauchen ja auch noch was damit die neuen Karten gekauft werden.

nocturne
2002-05-31, 23:27:25
Originally posted by Exxtreme
Also ich denke schon, daß diese Bilder von der E3-Präsentation sind
Ich zitiere Dich wörtlich aus einem anderen Thread:

"Kannst du deine Aussage vielleicht belegen? Wenn nicht, dann ist diese reif für die Tonne."

Exxtreme
2002-05-31, 23:32:15
Also hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=20459&pagenumber=1) sind sich die Leute ziemlich einig, daß die Bilder von der E3 stammen. Im B3D-Forum habe ich auch was gefunden. Mal sehen, ob ich es finde.

Gruß
Alex

nocturne
2002-06-01, 02:43:03
Nö.

Erstens gab es die Bilder teilweise schon vor der E3.

Und zweitens: selbst wenn sie zur Zeit der E3 veröffentlicht worden wären (was noch nicht mal bei allen Bildern der Fall war), dann müssen sie nicht von dem einen Vorführ-Rechner stammen. John Carmack sagt ja, dass fast jeder Entwickler von Doom3 bei id eine GeForce4 im Rechner hat.

Deine Spekulation, dass das ATI-Screenshots sind, ist also völlig aus der Luft gegriffenes Wunschdenken und daher - wie Du es ausdrücken würdest - für die Tonne.

BigBen
2002-06-01, 02:47:59
Warum sollte man auch minderwetige Highres-Bilder zu Doom III releasen ;-)

mfG
BigBen

nocturne
2002-06-01, 02:52:12
Originally posted by BigBen
Warum sollte man auch minderwetige Highres-Bilder zu Doom III releasen ;-)


Eben, und der ATI-Prototyp packte laut Carmack ja nur die mittlere Grafikqualität und nicht die "High Quality" Einstellungen...

Salvee
2002-06-01, 02:58:05
Originally posted by nocturne


Eben, und der ATI-Prototyp packte laut Carmack ja nur die mittlere Grafikqualität und nicht die "High Quality" Einstellungen...

Lag es am Prototypen oder vielleicht doch am Game ?

BigBen
2002-06-01, 03:06:44
Originally posted by Salvee
Lag es am Prototypen oder vielleicht doch am Game ?

Wie wärs mit den Treibern ;D

mfG
BigBen

nocturne
2002-06-01, 03:09:29
Originally posted by Salvee
Lag es am Prototypen oder vielleicht doch am Game ?

Angeblich an den Treibern. ATI eben. ;)

Exxtreme
2002-06-01, 08:22:04
Originally posted by BigBen
Warum sollte man auch minderwetige Highres-Bilder zu Doom III releasen ;-)

mfG
BigBen
Err, was macht euch so sicher, daß die veröffentlichten Bilder High-Detail sind. Keiner kann wissen wie die D3-Demo mit High-Detail und mit Med-Detail aussieht.

Gruß
Alex

P.S. OK, ich gebe zu, daß doch voreilig war so einen Thread zu eröffnen. Andererseits ist dies hier ein Spekulationsforum. :)

P.P.S Hab den Thread umbenannt. Damit dürfte es etwas klarer werden.

Unregistered
2002-06-01, 09:34:54
Originally posted by nocturne
Eben, und der ATI-Prototyp packte laut Carmack ja nur die mittlere Grafikqualität und nicht die "High Quality" Einstellungen...

Eben, und der ATI-Prototyp lief wahrscheinlich nur mit halber Kraft und unausgereiften Treibern.

Die "very fast GeForce4" (wohl ne NV28, höher getaktet als GeForce4 4600, die bereits fette 460 Euro kostet und zudem kaputte Texturkompression und matschiges 2D-Signal hat) bringt es in "Medium Quality" (=mit Texturkompression und anisotroper Filter) und mit den wundertollen Treibern nicht einmal hin, DOOM III flüssig laufen zu lassen. Die teuren GeForce4 Ti-Karten und die kommenden AGP8X-Refrehs im Herbst werden DOOM III nur in low-quality flüssig rendern können.

AlfredENeumann
2002-06-01, 09:58:46
Originally posted by nocturne


Eben, und der ATI-Prototyp packte laut Carmack ja nur die mittlere Grafikqualität und nicht die "High Quality" Einstellungen...

und die GF4 packte es gar nicht.

Quasar
2002-06-01, 12:02:10
Kaputte Texturkompression? Verwechselst du da nicht was? AFAIK funzt DXTC1 wunderbar mit der GF4, am Q3-Himmel (die einzige Stelle, wo das sichtbar auftrat) gibt's jedenfalls kein Banding mehr, auch ohne "Fix".

@AEN:

und die GF4 packte es gar nicht.

Falsch. Sie packte es, aber eben langsamer als der Next-Gen ATi. Für Standbilder ist die Geschwindigkeit allerdings ziemlich egal, oder?

Und da würde es doch ziemlich blöde sein, wenn man Screenshots nicht in der höchstmöglichen Qualität raushaut....

Unregistered
2002-06-01, 12:37:11
Originally posted by Quasar
Kaputte Texturkompression? Verwechselst du da nicht was? AFAIK funzt DXTC1 wunderbar mit der GF4, am Q3-Himmel (die einzige Stelle, wo das sichtbar auftrat) gibt's jedenfalls kein Banding mehr, auch ohne "Fix".

Das ist nur ein Treiberhack für Q3, Texturkompression ist immer noch kaputt beim GeForce4, mittlerweile der 4. Chip von Nvidia mit diesem Fehler.

Siehe auch http://discuss.microsoft.com/SCRIPTS/WA-MSD.EXE?A2=ind0205c&L=directxdev&D=1&F=&S=&P=7568


FWIW, the DXT issue hasn't been fixed on GF4 cards - the card now simply dithers in texture space which looks better in some cases but worse in others.

-- Daniel, Epic Games Inc.

Doomtrain
2002-06-01, 14:22:57
Originally posted by nocturne


Eben, und der ATI-Prototyp packte laut Carmack ja nur die mittlere Grafikqualität und nicht die "High Quality" Einstellungen...

Das der Prototyp es nicht packte, hat er nicht gesagt. Er sagte, das es unvorhergesehene Probleme gab, welche er aber nicht genauer beschrieb!! Es könnte auch ein Problem mit dem Spiel gegeben haben.

AlfredENeumann
2002-06-01, 23:24:20
Originally posted by Quasar


@AEN:


Falsch. Sie packte es, aber eben langsamer als der Next-Gen ATi. Für Standbilder ist die Geschwindigkeit allerdings ziemlich egal, oder?

Und da würde es doch ziemlich blöde sein, wenn man Screenshots nicht in der höchstmöglichen Qualität raushaut....


sorry, falsch formuliert.

Ich stell mich auch selber in die ecke und schäme mich.

Xmas
2002-06-02, 00:22:27
Originally posted by Unregistered
Eben, und der ATI-Prototyp lief wahrscheinlich nur mit halber Kraft und unausgereiften Treibern.
Zustimmung. Es ist Prototypen-Hardware, die sicher nicht mit endgültigem Takt gelaufen ist.

Die "very fast GeForce4" (wohl ne NV28, höher getaktet als GeForce4 4600, die bereits fette 460 Euro kostet und zudem kaputte Texturkompression und matschiges 2D-Signal hat) bringt es in "Medium Quality" (=mit Texturkompression und anisotroper Filter) und mit den wundertollen Treibern nicht einmal hin, DOOM III flüssig laufen zu lassen. Die teuren GeForce4 Ti-Karten und die kommenden AGP8X-Refrehs im Herbst werden DOOM III nur in low-quality flüssig rendern können.
Woher willst du das wissen? Die Kommentare von JC stützen diese Behauptung jedenfalls nicht.

Und "matschiges 2D-Signal" ist Sache des Kartenherstellers. Es gibt GF4-Karten mit sehr guter Signalqualität.

aths
2002-06-02, 01:24:50
Quasar,

auch GF4 hat noch einen DXT1-Fehler. Das sieht man aber nur mit dem originalen Quake ohne Patch, ansonsten ist der Fix (DXT3 statt 1) schon drin.

GF1/2/3 hatten bekanntlich den Fehler, dass die indizierten Farben nur im 16-Bit-Raum interpoliert wurden. GF4 dithert nun (weiterhin im 16-Bit-Farbraum.) Das sieht beim Quake3-Himmel ebenfalls zum brechen aus.

Quasar
2002-06-02, 01:54:30
Hm, mal gucken....vielleicht tu ich mir irgendwann mal die Original-Version wieder an.

Hab' schon lange nicht mehr erbrochen.

HOT
2002-06-02, 12:24:05
Originally posted by nocturne


Eben, und der ATI-Prototyp packte laut Carmack ja nur die mittlere Grafikqualität und nicht die "High Quality" Einstellungen...

Es ist nirgendwo belegt, dass es an der Hardware lag. Ich denke mal, dass das gesamte Sys, auf dem sie D3 probiert haben mit den unkomprimierten Texturen schlicht überlastet war. Das muss nicht zwingend am R300 liegen. Fakt ist jedenfalls, dass sich Carmack bisher IMMER die beste Hardware für seine neuen Games ausgesucht hat. Das FSAA ist meiner Meinung nach nicht zu beurteilen, ich vermute, dass ATI auch ganz neue Wege geht, da die bisherigen Methoden schlichtweg zuviel Leistung fressen.

Quasar
2002-06-02, 12:54:19
Hihihi...komisch, daß er sich bei der Systemplattform wohl mit dem zweitbesten begnügt hat. Es gibt doch auch schon 2,533GHz P4s...mit i850E.
Ein Schelm, wer mir jetzt Böses unterstellt...