PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zum Matrox Parhelia Preview


Seiten : [1] 2

Leonidas
2002-05-13, 09:23:04
http://www.3dcenter.org/artikel/parhelia/

So, hier darf und soll nun nach Herzenslust über unser Matrox Parhelia Preview respektive dem Chip selber und natürlich Matrox als Firma hergezogen werden :-)



Gleich mal als Anmerkung: Wie haben es vermieden, all zu viel Matrox-Material zu bringen. Wir denken, Ihr werdet mit diesem originalem Matrox-Material bei anderen Artikeln zum Thema sowieso ausreichend erschlagen. Außerdem sind wir somit nicht in die Falle gerannt, das Matrox 16x AA mit dem lächerlichen 2x Quincunx-AA zu vergleichen :-).



Update-Liste (außer Schreibfehler)

14.5., 13:03, Seite 1, Spec-Tabelle:
Displacement Mapping beim P10 auf "nein" gesetzt

14.5., 13:05, Seite 6, Mitte, neuer Absatz:
Matrox drückt sich an dieser Stelle simplifizierend so aus, daß üblicherweise nur 5 Prozent des gesamten Bildes Kanten sind und das nur an diesen Anti-Aliasing notwendig sei und vom Parhelia auch durchgeführt wird. Dies ist natürlich nur die Hälfte der Wahrheit, denn zur Ermittlung, was denn nun diese 5 Prozent sind, geht auch noch ein wenig Rechenleistung verloren. Matrox selber spricht von einem Performance-Drop durch sein 16x Anti-Aliasing von 20 bis 30 Prozent - was durch spätere Benchmark zu beweisen wäre.

14.5., 16:26, Seite 4:
Displacement Mapping zum extra Kapitel gemacht, sonst keine Änderungen

14.5., 17:49, Seite 1, Tabelle:
Angaben zum Fertigungsprozeß, zur maximalen Speicherausstattung und zur AGP-Spezifikation hinzugenommen

nocturne
2002-05-14, 02:03:39
Erster! :wink:

Danke für Euren Einsatz, der Artikel ist interessanter als ich erwartet hatte. ;) Schön, dass Ihr nicht nur das übliche Werbematerial unkommentiert recycelt habt. Gibt's davon auch noch eine Druckversion auf EINER Seite? Muss den Artikel morgen nochmal lesen, wenn ich wieder wacher bin... :zzz:

mapel110
2002-05-14, 02:24:12
ich bin gespannt, was der flaschenhals bei dem chip ist. die bandbreite dürfte als ursache fast wegfallen.

nocturne
2002-05-14, 02:30:21
Eine Anmerkung zum Fazit im Artikel:

"Doch nach unserer Auffassung wird auch die nächste Mainstream-Karte von nVidia gestellt - und sie heißt GeForce4 Ti."

Schon richtig, aber das liegt sowieso in einem anderen Zeitfenster. Die GF4Ti ist nicht nur die nächste, sondern nicht zuletzt seit dem Ti4200 für 200,- EUR schon jetzt die neue und aktuelle Lösung mit dem besten Preis/Leistungsverhältnis für Gamer.

Der Parhelia ist ja im Gegensatz dazu noch sehr lange Vaporware - es sind ja noch nicht mal entsprechende Karten und Taktraten angekündigt. Und selbst dann kann es bei Matrox noch eine halbe Ewigkeit dauern, wie man ja aus der Vergangenheit weiss. Insofern sehe ich bei Matrox das Problem nicht nur im exorbitant hohen Preis, sondern auch im sehr engen Zeitfenster. Die direkte Konkurrenz werden eher die Herbstchips von nVidia (NV30) oder vielleicht auch der R300 werden. Schade, dass man da noch keine Vergleichswerte hat. Aber wer jetzt schon gute Karten liefern kann, hat es eben nicht so nötig, frühzeitig nicht lieferbare Chips anzukündigen. ;)

StefanV
2002-05-14, 02:38:13
Interessant...

Wie steht es jetzt zu PS1.X und PS2.0??

Ist PS2.0 jetzt abwärtskompatibel oder nicht???


Zum Artikel:

Brauchbarer Artikel, dennoch hat MGA bewiesen, daß sie durchaus in der Lage sind Spielentwickler für 'ihre' Features zu gewinnen, siehe EMBM.

Ich wette, daß ein DM Game in der Schachtel der Gamer Variante der Parhelia Karte liegt.

PS: wann kommt New World Order eigentlich raus??
lt den Entwicklern wurde auf Matrox optimiert (na, wie MGA das wohl geschafft hat *eg*)

Irgendwie hab ich auch das Gefühl, daß MGA irgendwas verschweigt (Z-Buffer, Bandbreitenschonende Maßnahmen)...

Oder aber sie heben sich das noch auf *eg+

nocturne
2002-05-14, 02:50:57
Originally posted by mapel110
ich bin gespannt, was der flaschenhals bei dem chip ist

Die Software, die ihn nicht nutzt, solange er noch halbwegs aktuell ist.

Leonidas
2002-05-14, 02:51:56
Originally posted by nocturne
Gibt's davon auch noch eine Druckversion auf EINER Seite?



Hab ich mir auch schon überlegt, daß dies bei langen Artikeln praktisch wäre. Aber das HTML-System ist leider nicht darauf ausgelegt, daß weiss nicht von selber, welche Seiten zu welchem Artikel gehören.

Leonidas
2002-05-14, 02:57:08
Originally posted by nocturne
Eine Anmerkung zum Fazit im Artikel:

"Doch nach unserer Auffassung wird auch die nächste Mainstream-Karte von nVidia gestellt - und sie heißt GeForce4 Ti."

Schon richtig, aber das liegt sowieso in einem anderen Zeitfenster. Die GF4Ti ist nicht nur die nächste, sondern nicht zuletzt seit dem Ti4200 für 200,- EUR schon jetzt die neue und aktuelle Lösung mit dem besten Preis/Leistungsverhältnis für Gamer.



Mmh. Ja. Kann man so sehen. Allerdings ist auch die Ti4200 aktuell noch nicht kaufbar. Aber auch ohne diese meinten wir: Ti4400 und Ti4600 werden massiv verkauft werden, wenn NV seinen NV30 bringt und damit der Preis der schnellen Tis nach unten fällt.



Der Parhelia ist ja im Gegensatz dazu noch sehr lange Vaporware - es sind ja noch nicht mal entsprechende Karten und Taktraten angekündigt. Und selbst dann kann es bei Matrox noch eine halbe Ewigkeit dauern, wie man ja aus der Vergangenheit weiss. Insofern sehe ich bei Matrox das Problem nicht nur im exorbitant hohen Preis, sondern auch im sehr engen Zeitfenster. Die direkte Konkurrenz werden eher die Herbstchips von nVidia (NV30) oder vielleicht auch der R300 werden. Schade, dass man da noch keine Vergleichswerte hat. Aber wer jetzt schon gute Karten liefern kann, hat es eben nicht so nötig, frühzeitig nicht lieferbare Chips anzukündigen. ;)


Erstens: Ja. Zweitens: Wer lange nicht da war, muß schon mal auf die Pauke hauen. Drittens: Das machr Matrox immer so. Viertens: Start des Boards wird im Ausgust sein. Angenommen, Matrox kann dann auch liefern, wird NV im August frühestens seinen Chip vorstellen, aber noch nicht direkt ausliefern. Die Frage ist also nur, ob Matrox nach der Vorstellung der fertigen Boards auch direkt liefern kann - aus heutiger Sicht uneinschätzbar.

mapel110
2002-05-14, 03:03:33
Originally posted by nocturne


Die Software, die ihn nicht nutzt, solange er noch halbwegs aktuell ist.

ach ja, nocturne. war das ne zeit, in der wir im thread kyro2se+ENT&L+Marketing uns eine diskussion geliefert haben, die ihres gleichen sucht. ich glaub 100 postings hab ich allein in dem thread zusammenbekommen.

fsaa kann schonmal nahezu jedes game nutzen. ebenso aniso-blabla-filtering. der chip hat ohnehin nur dieses displacementmapping und vertex-shader 2.0 von dx9.0 . alles andere wird doch nun langsam aber sicher genutzt. die spiele, die jetzt im sommer rauskommen (allen vorran unreal tournament 2) unterstützen dx8-features.

er hat genügend rohpower um auch zukünftige games darstellen zu können.
bei heutigen games kann man fsaa hinzuschalten, bei späteren games lässt mans weg. das ist wie früher als man von 32bit auf 16 bit farbtiefe zurückgeschraubt hat, wenn einem die graka-power ausging.

nocturne
2002-05-14, 03:04:17
Originally posted by Leonidas

Allerdings ist auch die Ti4200 aktuell noch nicht kaufbar

Die Ti4200 ist inzwischen auch in Deutschland lieferbar, wie in anderen Threads berichtet wird.

Leonidas
2002-05-14, 03:21:19
http://www.geizhals.at/eu/?such=geforce+4200
16 Produkte, je nur ein Händler


http://www.geizhals.at/eu/?such=geforce+4400
nur 3 Produkte (?), über 100 Händler



Hast Recht, die Teile kommen halbwegs in den Markt. Aber so richtig breit sind die noch nicht lieferbar, sonst gäbe es wesentlich mehr Eintragungen beim Geizhals.

Desti
2002-05-14, 03:33:52
Was fehlt dem Matrox denn für openGL2.0 ?

Leonidas
2002-05-14, 04:38:40
Hat Matrox nicht genau ausgeführt. Hängt möglicherweise an den Pixel Shadern, die dafür nicht gut genug sind. Hängt eventuell auch daran, daß OpenGL 2.0 noch nicht releast ist.

Meta
2002-05-14, 08:30:46
Die Sache mit dem PS 2.0 ist für mich keine Diskussion wert.

1.) Find ich OpenGL sowieso wichtiger als DX9
2.) Einzig und allein DX 8 wird genutzt werden in den nächsten 1-2 Jahren
3.) deshalb hat sich das für mich erledigt, denn in 2 Jahren hab ich ne neue Graka und wahrscheinlich so ziemlich jeder andere auch...

Der Preis ist ganz normal für ein Highend Produkt, wenn man bedenkt dass NVidia nochmehr für ein neues Produkt verlangte und ausserdem wird es ziemlich wahrscheinlich Mid Range und Lowend Versionen von der Parhelia geben...also is schon ok so, von Matrox.

Einziges Problem könnte die Füllrate sein, da der NV 30 und R300 wahrscheinlich mehr haben wird. Aber trotzdem find ich, ist Bandbreite wichtiger und ausserdem hat die Karte ne super Texelfüllrate, deshalb wird sich das wohl in Grenzen halten. Aber es könnte tatsächlich sein, dass erstmals (ausser V5) die Füllrate der limitierende Faktor sein könnte. Aber die Benchmarks werden das dann klären.

So, bedanke mich fürs zuhören.

Euer Meta

PS.: Vergesst DX 9 wir haben 2002 nicht 2004. Seht euch die Spiele an.

Unregistered
2002-05-14, 11:01:24
Eure Skepsis wegen des Displacement Mappings teile ich nicht.
Matrox hat es bereits beim EMBM geschafft viele Entwickler für
dieses exklusive G400 Feature zu begeistern.

Es ist natürlich schwieriger Displacement Mapping zu implementieren als nachträglich einige Oberflächen mit EMBM zu versehen, trotzdem bin ich eigentlich ganz zuversichtlich das wir sogar dieses Jahr noch einige Spiele sehen werden die dieses Feature nutzen.

wolf_on_the_road
2002-05-14, 11:54:37
Umgerechnet ergibt das entweder 8x anisotroper Filter mit MIP-Map-Interpolation ("trilinear") oder 16x anisotroper Filter ohne MIP-Map-Interpolation ("bilinear"). Matrox´ Implementation vom anisotropen Filter schafft also die gleiche Stufe wie die GeForce 3/4 (8x "trilinear") bzw. die Radeon 8500 (16x "bilinear").


gibt es qualitativ unterschiede zwischen 16x / bilinear bzw. 8x trilinear?

es ist klar, dass bilinear vs. trilinear klar zu gunsten letzteren ausfällt, wie schaut das dann mit anisotropen filter aus? gibt es dazu screenshots?

aths
2002-05-14, 11:57:29
wolf_on_the_road,

16x "bilineares" AF ergibt ein schärfers Bild als 8x "trilineares" AF. Dafür enthält die erste Variante MIP-Banding Artefakte.

Richthofen
2002-05-14, 12:00:27
"
Eure Skepsis wegen des Displacement Mappings teile ich nicht.
Matrox hat es bereits beim EMBM geschafft viele Entwickler für
dieses exklusive G400 Feature zu begeistern.
"

Doch die teile ich ganz und gar. Nenn mir mal bitte wichtige Games aus den Hitlisten von Heute die EBM nutzen.
Ich kenn nur das Silent Hunter II was ne U-Boot Sim ist aber ansonsten gräßlich in der Grafik das hat EBM.
Aber ansonsten fällt mir gar nix dazu ein.

Displacement Mapping wird vorerst uninteressant bleiben weil dafür wohl nicht die Games vorhanden sind.
Witzig finde ich den PixelShader 1.3.

Wer ist hier noch der Meinung 1.4 auf ATI bringt was?
Hätt ich den Leute vorher sagen können das nur 1.1, 1.3 und 2.0 interessant sein werden wobei letzterer erst in 2 Jahren.

edit: Letzte Zeile wegen unsachlicher Bemerkung gelöscht (aths)

DF
2002-05-14, 12:03:13
Seit wann sind die Chipfeatures entscheident? Die meisten Spiele unterstützen doch noch nicht einmal die Features, die eine GF2mx bietet richtig.
Da ist eh nur pure Rarepower gefragt, und da bläst die neue Matrox jede nVidia weg.
In prof. Anwendungen dann noch zusätzlich mit den Features, denn DORT werden sie auch wirklich eingesetzt.

HOT
2002-05-14, 12:12:41
Originally posted by Richthofen


Doch die teile ich ganz und gar. Nenn mir mal bitte wichtige Games aus den Hitlisten von Heute die EBM nutzen.
Ich kenn nur das Silent Hunter II was ne U-Boot Sim ist aber ansonsten gräßlich in der Grafik das hat EBM.
Aber ansonsten fällt mir gar nix dazu ein.

Displacement Mapping wird vorerst uninteressant bleiben weil dafür wohl nicht die Games vorhanden sind.
Witzig finde ich den PixelShader 1.3.

Wer ist hier noch der Meinung 1.4 auf ATI bringt was?
Hätt ich den Leute vorher sagen können das nur 1.1, 1.3 und 2.0 interessant sein werden wobei letzterer erst in 2 Jahren.


Es gibt eine ziemlich lange Liste der EMBM Spiele auf www.matrox.com
Die prominentesten Vertreter sind wohl Drakan und BI4.

Das Problem von Displacementmapping ist wohl, dass es eine völlig andere Implementation wie bisherige Verfahren bietet und somit mit anderen Chip nicht umsetzbar sein dürfte, da die CPU Implementation zuviel Power kosten dürfte.

Zum PS 1.4 kann ich nur eins sagen: die prominenteste Engine (Doom3) wird sowohl ATI als auch NV PS separat unterstützen, da Carmack ja weiterhin auf OpenGL bleiben möchte. :D

nggalai
2002-05-14, 12:15:47
Hi aths,

sehr gutes Preview. Nicht einfach nur das Marketing-Blabla runtergerattert, sondern auch hinterfragt und in den richtigen Kontext gebracht. Ich hätte mir noch ein wenig mehr über OpenGL-Support gewünscht; viele Leute haben noch nicht verstanden, wie die Sache mit den Pixelshadern aussieht und sehen nur "PS1.3, nicht DX9, Skandal". Da hätte die OpenGL-Perspektive vielleicht helfen können.

Deine Einschätzung betreffend Unterstützung der neuen Features (Zukunft des Parhelias) sehe ich sehr ähnlich. Ich persönlich empfinde aber den Preis nicht als Stolperstein #1, sondern den Auslieferungstermin--wenn die Karten echt erst im August kommen, wird recht viel Druck weg sein (weil ATi, 3DLabs und NV (vielleicht sogar PVR) dann wohl schon gross die Marketingtrommel rühren werden). Die Karten müssten VOR Juli auf den Markt kommen, ansonsten sehe ich's nicht sonderlich rosig, was eine "weitere" Verbreitung unter Spielern betrifft (und ja, mir ist klar, dass das Teil nie zum Best-seller werden wird).

ta,
-Sascha.rb

Silicon
2002-05-14, 12:17:12
Also der Preis ist meiner Meinung nach 'relativ egal'.

Es gibt genügend Leute, die ihr Geld in ne Ti4600 investieren. Und die ist im Gegensatz zur MGA-Karte alles andere als innovativ.

Mir persönlich is das Ding natürlich auch zu teuer, aber es gibt immer so Typen, die das Neueste, Beste, Teuerste haben müssen.

Auch diese Karte wird oft (für diese Preisklasse) über den Ladentisch gehen. Da bin ich mir sicher! (die 'richtige' Software vorausgesetzt)

Leonidas
2002-05-14, 12:26:00
Der Spruch mit dem Stolperstein stammt von mir :-). Ich mußte dort auch diejenigen berücksichtigen, welche prinzipiell unterhalb von 250 € kaufen, was wohl die Mehrheit sind.

aths
2002-05-14, 12:33:48
Ich weiss nicht ob Matrox mit diesem Preview glücklich ist, da ich mich mit Absicht nicht an "Argumentationen" etc. aus den White Papers gehalten habe.

Zum Preis: Ich denke, wenn man von Matrox kauft, kauft man von Matrox.

Matrox.

Nicht Gainward, PowerColor, Leadtek oder so. Alleine das (inkl. den tatsächlich vorhandenen Vorteilen im Bereich 2D) wird einigen die Entscheidung pro Parhelia leichter machen. (Hätte ich nicht schon die GF4...)


nggalai,

das Preview entstand 'in a rush', ich bitte die Unzulänglichkeiten zu verzeihen. (Teilweise wirrer Stil, Themen sind auseinander gerissen, oft fehlt ein roter Faden, und vom Sprachklang her ist das Teil eine Katastrofe...)

Über OpenGL konnte ich schon deshalb kaum was schreiben, weil ich keine Ahnung habe wie Shader in OpenGL verwendet werden. Wie man (hoffentlich) erkennt versuchte ich auch aus dem Matrox Launch Material nur dann Dinge zu übernehmen, wenn ich der Auffassung war dass ich sie verstanden hätte. (Denn es wäre mir zu blöd gewesen zu schreiben 'Laut Matrox soll...', 'Nach Matrox' Angaben wird...') OpenGL kommt im Launch Material übrigens auch sehr kurz. Dafür waren ein paar nette Videos auf CD, aber dir was von Marketing-Strategien zu erzählen wäre ja, Eulen nach Athen zu tragen...)

nggalai
2002-05-14, 12:42:02
[H]ard OCP haben das gesamte Pressematerial als PDF-Downloads auf der Seite:

http://www.hardocp.com/articles/parhelia/index.html

Nur, falls es wen hier interessiert. ;)

@aths,

danke für dein Feedback. :)OpenGL kommt im Launch Material übrigens auch sehr kurz.Ja, wenn ich alle Previews (und jetzt das Material selbst) so anschaue, ist eigentlich fast nur von DX die Rede. Schade; auch lässt mich das über die Qualität der OpenGL-Unterstützung wundern, besonders in Anbetracht der nicht so tollen früheren OpenGL-Treiber. Das wäre DIE Chance gewesen, klar ein Statement nachm Motto "alles in Butter" rauszugeben, und nicht nur OpenGL anzudeuten (mit den Q3A Screenshots, z.B.). Entweder haben die geschlafen, oder wir müssen uns echt Sorgen machen . . .

Dafür waren ein paar nette Videos auf CD, aber dir was von Marketing-Strategien zu erzählen wäre ja, Eulen nach Athen zu tragen...Danke. ;)

have a nice day,
-Sascha.rb

zeckensack
2002-05-14, 12:43:05
Interessant wäre zu erfahren, wie Matrox unter OpenGL gedenkt, Pixel Shader zu unterstützen.
IMHO wäre es sinnvoll, die NV-Extension zu übernehmen (zu lizensieren ???), anstatt eine eigene zusammenzubasteln.
Für Vertex Shader gibt's ja 'fast schon' eine herstellerübergreifende Extension.

Leonidas
2002-05-14, 12:46:59
Originally posted by nggalai
[H]ard OCP haben das gesamte Pressematerial als PDF-Downloads auf der Seite:

http://www.hardocp.com/articles/parhelia/index.html



Das bezweifle ich doch. Das sind über 600 MB :-).

nggalai
2002-05-14, 12:47:32
Hi Z-Bag,

die NV_ Extensions sind mitlerweilen IIRC ohne Lizenzgebühren verwendbar, wäre also eine praktische Idee. Andererseits wären spezifische, Hardware-nahe Erweiterungen natürlich auch ganz fein. Warscheinlich wird's (Spekulation) eine Kombination draus geben; e.g. die Register Combiners von NV sind doch eher speziell und bringen wohl nicht sehr viel, wenn Matrox die "emulieren" würde.

Oh, und fürs Displacement Mapping kann Matrox ja jetzt selbst was rausgeben . . . ;)

ta,
-Sascha.rb

nggalai
2002-05-14, 12:49:25
Hi Leo.Das bezweifle ich doch. Das sind über 600 MB :-).Hehe, ja natürlich. Aber die PDFs scheinen alle da zu sein (jedenfalls die, die rausgegeben werden dürfen). Wie sieht das eigentlich aus? Dürft ihr da was rausgeben, oder sind die FYE?

ta,
.rb

Leonidas
2002-05-14, 13:13:41
Ich sage ehrlich, daß ich das nicht weiss. Ich werde heute in den News einfach auf Hard|OCP linken, vor allem natürlich wegen des Q3A Videos.

StefanV
2002-05-14, 13:31:03
Originally posted by Leonidas
Ich sage ehrlich, daß ich das nicht weiss. Ich werde heute in den News einfach auf Hard|OCP linken, vor allem natürlich wegen des Q3A Videos.

Ähm, kanns sein, daß Hard[OCP] momentan down ist??

Ich bekomme nur 'connection refused' (Ja, T-Offline Nutzer)...

Doomtrain
2002-05-14, 17:08:21
Einen ganzen Haufen Schreibfehler habt ihr in das Review eingebaut!!

Leonidas
2002-05-14, 17:37:47
Ernsthaft? Man sieht seine eigenen Schreibfehler leider nicht besonders toll, immer nur die Fehler in den Texten von anderen ...

jedi
2002-05-14, 18:00:40
Originally posted by HOT

Das Problem von Displacementmapping ist wohl, dass es eine völlig andere Implementation wie bisherige Verfahren bietet und somit mit anderen Chip nicht umsetzbar sein dürfte, da die CPU Implementation zuviel Power kosten dürfte.

Genau das ist das ganz grosse Problem. Deshalb rechne ich mit Spielen, die wirklich auf Displacement-Mapping aufbauen (also nicht nur als Gimmick), nicht vor 2005.

Denn wenn ein Spiel seine Engine (also z.B. Landschaften oder Personen) mit Displacement Mapping macht, dann wird es auf Karten ohne dieses Feature nicht laufen. So was ist nicht mehr sinnvoll emulierbar. Bumpmapping war damals was anderes, das kann man auch weglassen, dann sieht es eben nicht mehr so nett aus, aber ist noch spielbar. So wie z.B. Expendable oder Giants eben auch ohne Bumpmapping funktionieren. Wenn allerdings eine Terrain-Engine auf Displacement-Mapping aufbauen würde, dann geht es nicht mehr ohne.

Daher wird es Spiele, die auf Displacement-Mapping aufbauen, erst geben, wenn wirklich fast jeder Spieler eine volle DX9-Karte im Rechner hat. Also nicht vor 2005, eher sogar später.

Bis dahin ist aber der Parhelia längst weg vom Fenster, weil er eben noch nicht mal DX9 voll unterstützt. Und um dieses Feature in der breiten Masse durchzusetzten, ist er sowieso viel zu teuer. Da werden im Herbst sicher andere Hersteller kommen.

Andre
2002-05-14, 18:14:36
aths,

mein Kompliment für das Preview.
Die paar Schreibfehler kann ich ehrlich gesagt verzeihen, wenn man den Zeitdruck, unter dem Preview geschrieben wurde, berücksichtigt.
Aber komm dann nich nochmal mit Deinen Korrekturen meiner Posts an ;)

Razor
2002-05-14, 18:23:37
Also ich fand den Artikel auch sehr gelungen, auch wenn ich ein paar kleine Unstimmigkeiten gefunden habe...

Das erste wäre die Pixel-Shader 1.3 Demonstration auf Seite 5. Dort wird der Unterschied von PS1.1 zu PS1.3 anhand des 'Tidepool'-Demos verdeutlicht. Habe das PS1.1 Bildchen dann ein wenig merkwürdig empfunden, da ich mir sicher war, daß es auf meiner gf3 (soll ja nur PS1.1 haben !) nicht so aussah...

Hier also dann mal Euer PS1.1-Ausschnitt:
http://mitglied.lycos.de/razor3dc/tidepool2.jpg

Nun Euer PS1.3-Ausschnitt:
http://mitglied.lycos.de/razor3dc/tidepool1.jpg

Und jetzt mein PS1.1 Ausschnitt:
http://mitglied.lycos.de/razor3dc/tidepool_gf3.jpg

Hmmm...

Also wenn ich noch nicht völlig erblindet bin, dann sieht mein 'PS1.1'-Shot, Eurem 'PS1.3' Shot verdammt ähnlich, ist aber überhaupt nicht mit Eurem 'PS1.1' Shot zu vergleichen...

Entweder unterstützt die gf3 'Z-korrektes Bump Mapping' und damit diesen Teil der PS1.3 oder ...
???

-

Der zweite Punkt ist Euer Schlußsatz, welchen ich hier noch einmal zitieren möchte:
Jetzt zum Parhelia zu raten, würde natürlich aufgrund des Preises eher vermessen erscheinen. Daß wir den Chip "gut" finden, ist jedoch weitestgehend vom Preis neutral, womit wir zu diesem Urteil stehen können. Der Parhelia wird - wenn Matrox alle Pläne einhält, wenn alle dato noch etwas unsicheren Voraussagen halbwegs eintreffen und wenn die Treiber ausgereift sind - einen fast Rundherum-Glücklich-Grafikchip für jetzt und heute abgeben. Wir könnten ihn uns durchaus noch etwas besser vorstellen (trilineares Filtern for free + vollständig DirectX9-kompatibel), aber auch das derzeit gebotene kann exzellent überzeugen und legt die Meßlatte für die Herbst-Chips von ATi & nVidia extrem hoch an.
In einem der anderen Treads hat aths gesagt:

"Die neue Referenz !"

Und Thowe hatte den Begriff "Götterdämmerung" in seiner Signatur.

Nicht, daß ich hier falsch verstanden werde, aber...
Man betrachte den fett gedruckten Text und die kursiv hinterlegten Teile:

3x'wenn', ein 'fast' und dann auch noch 'jetzt und heute'. Jetzt und heute ist der Parhelia noch nicht auf dem Tisch. So 'richtig' zukunftssicher wird er wohl auch nicht sein und teuer ist er zudem auch noch. Ganz zu schweigen von dem lästigen Matrox-OpenGL-Problem, welches noch im Raume schwebt.

Ein bischen viel 'vielleicht' und nicht viel 'greifbares'. Kann natürlich sein, daß Matrox das beabsichtigte, aber wenn die Konkurrenz (Creative, ATI, NV) nun einen Chip heraus bringt, der 'greifbares' liefert, dann hält diese Ankündigung von Matrox wohl niemanden zurück.

Insofern ist der Begriff:

"Die neue Referenz" oder gar "Götterdämmerung" hier ganz schon fehl am Platze, bis da nicht etwas wirklich konkretes kommt. Ich finde es klasse, daß die Konkurrenz auf dem Consumer-GraKa-Sektor nun endlich stärker wird, so scheint es diesmal mit Matrox, Creative, ATI und nVidia ja gleich 4 'Kracher' zu geben, die alle eine Überlegung wert sind. Aber ich werde mir bestimmt keine GraKa kaufen, nur weil da ein Firmenname drauf' steht...

...auch wenn es Matrox ist !

Eine neue NV-Karte werd' ich mir auch nur dann holen, wenn's was 'vernünfitiges' ist und nicht so etwas 'aufgewärmtes', wie die gf4ti.

In diesem Sinne

Razor

Unreal Soldier
2002-05-14, 18:46:43
@Leonidas

Cooler Artikel informativer als bei hartware.net, aber ich hatte mehr erwartet, wie z.B. Mehr Bilder von der Karte oder sowas.
Trotzdem gute Arbeit getan.

MFG
Unreal Soldier

jedi
2002-05-14, 18:52:24
Originally posted by Razor
3x'wenn', ein 'fast' und dann auch noch 'jetzt und heute'. Jetzt und heute ist der Parhelia noch nicht auf dem Tisch. So 'richtig' zukunftssicher wird er wohl auch nicht sein und teuer ist er zudem auch noch. Ganz zu schweigen von dem lästigen Matrox-OpenGL-Problem, welches noch im Raume schwebt.

Ein bischen viel 'vielleicht' und nicht viel 'greifbares'. Kann natürlich sein, daß Matrox das beabsichtigte, aber wenn die Konkurrenz (Creative, ATI, NV) nun einen Chip heraus bringt, der 'greifbares' liefert, dann hält diese Ankündigung von Matrox wohl niemanden zurück.

Insofern ist der Begriff:

"Die neue Referenz" oder gar "Götterdämmerung" hier ganz schon fehl am Platze, bis da nicht etwas wirklich konkretes kommt. Ich finde es klasse, daß die Konkurrenz auf dem Consumer-GraKa-Sektor nun endlich stärker wird, so scheint es diesmal mit Matrox, Creative, ATI und nVidia ja gleich 4 'Kracher' zu geben, die alle eine Überlegung wert sind. Aber ich werde mir bestimmt keine GraKa kaufen, nur weil da ein Firmenname drauf' steht...


Razor,
dem kann ich mich nur zu 100 % anschliessen. Aber das war offensichtlich vorher auch eine gewisse naive Euphorie vor dem Unbekannten, die Matrox ja absichtlich und sehr gezielt und geschickt geschürt hatte. Ich frage mich langsam, ob sie ihr PR-Pulver nicht schon zu früh verschossen haben.

Bereits heute, also am Tag der Ankündigung, beginnt der Hype schon teilweise zu verrauchen und weicht einer gewissen Ernüchterung. Dabei sind noch nicht mal entsprechende Karten angekündigt.

harkpabst_meliantrop
2002-05-14, 19:11:21
Originally posted by jedi
Deshalb rechne ich mit Spielen, die wirklich auf Displacement-Mapping aufbauen (also nicht nur als Gimmick), nicht vor 2005.
Aha, unser kleiner Nostradamus.

Willst du behaupten, dass du auch 1999 schon die Features der Spiele von heute vorhersagen konntest? Sorry, aber das ist mindestens so Vapor, wie der Parhelia ...

... oder wie Erkenntnisse bezüglich des "Verrauchens von Hype" nach nicht mal 24h eingehender Analyse ...

jedi
2002-05-14, 19:21:27
Originally posted by harkpabst_meliantrop

Aha, unser kleiner Nostradamus.


Du kannst HOT's, Razor's und meine Argumentation gerne versuchen zu widerlegen, [...] ;) Zeig uns den Spieleentwickler, der riskiert hätte, dass seine Software auf einem Grossteil der installierten Gamer-Grafikkarten nicht mehr läuft!


edit: einige unsachliche Bemerkungen gelöscht (aths)

zeckensack
2002-05-14, 19:31:38
Originally posted by jedi

Genau das ist das ganz grosse Problem. Deshalb rechne ich mit Spielen, die wirklich auf Displacement-Mapping aufbauen (also nicht nur als Gimmick), nicht vor 2005.

Denn wenn ein Spiel seine Engine (also z.B. Landschaften oder Personen) mit Displacement Mapping macht, dann wird es auf Karten ohne dieses Feature nicht laufen. So was ist nicht mehr sinnvoll emulierbar. Bumpmapping war damals was anderes, das kann man auch weglassen, dann sieht es eben nicht mehr so nett aus, aber ist noch spielbar. So wie z.B. Expendable oder Giants eben auch ohne Bumpmapping funktionieren. Wenn allerdings eine Terrain-Engine auf Displacement-Mapping aufbauen würde, dann geht es nicht mehr ohne.Ich kann mir überhaupt nicht vorstellen, daß irgendein Spieleprogger Displacement Mapping tatsächlich für begehbares Terrain einsetzen wird. Für's Clipping muß die Landschaftsgeometrie auch im Hauptspeicher vorliegen, sonst läufst du durch die tollen Berge einfach nur durch, aber nicht drüber. ;)

Hatte aths nicht auch so etwas in dem Artikel geschrieben ???

harkpabst_meliantrop
2002-05-14, 19:33:27
Originally posted by jedi
P.S.: Um ein Feature allgemein in Gamer-Computern zu verbreiten, gehört mehr als nur ein pubertäres Werbelogo in einem Forums-Avatar eines Fanboys ... *eg*

... und mit überteuerten Karten schafft man das schon gar nicht.

Solchen reifen Argumenten eines etwa 470-jährigen beuge ich mich natürlich gerne...


Nebenbei: OpenGL für Spiele hat vor ID auch keiner verwendet. Und in diesem Fall war es eher so, dass GLQuake den Verkauf der Voodoo 1, der einzigen PC-Karte, auf der das vernünftig lief, erst richtig angeheizt hat ...

harkpabst_meliantrop
2002-05-14, 19:37:08
Originally posted by zeckensack
Für's Clipping muß die Landschaftsgeometrie auch im Hauptspeicher vorliegen, sonst läufst du durch die tollen Berge einfach nur durch, aber nicht drüber.
Oder du wunderst dich, dass der, den du gerade erstoche hast, noch gar nicht tot ist ...

Die Frage ist, unter welchen Umständen sowas auffällt, und sich die Benutzung also verbietet, und wo es doch eher egal ist. Zumindest für korrekte Z-Anordnung dürfte es ja egal sein.

jedi
2002-05-14, 19:39:55
Originally posted by zeckensack
Ich kann mir überhaupt nicht vorstellen, daß irgendein Spieleprogger Displacement Mapping tatsächlich für begehbares Terrain einsetzen wird. Für's Clipping muß die Landschaftsgeometrie auch im Hauptspeicher vorliegen, sonst läufst du durch die tollen Berge einfach nur durch, aber nicht drüber. ;)


Rein Theoretisch wäre das schon möglich, zumindest möchte uns das PR-Material von Matrox das suggerieren. ;)

Ich könnte mir z.B. vorstellen, dass die Engine beim Clipping dann im System-RAM ebenfalls die entsprechende Displacement Map benutzt und daraus den z-Wert (Höhe über Normalnull) berechnet. Aber das wäre dann natürlich wieder CPU-intensiv, doppelt gemoppelt und eigentlich nicht der Sinn der Sache.

Aber das wäre sowieso noch sehr, sehr lange Zukunftsmusik.

jedi
2002-05-14, 19:42:07
Originally posted by harkpabst_meliantrop

Oder du wunderst dich, dass der, den du gerade erstoche hast, noch gar nicht tot ist ...


Das wird auch in heutigen Engines anders gemacht und ist nicht unbedingt direkt von der Polygonoberfläche einer Figur abhängig.
Stichworte: skeletal animation, hitboxes...

harkpabst_meliantrop
2002-05-14, 19:44:04
Originally posted by jedi
... und daraus den z-Wert (Höhe über Normalnull) berechnet.
Mit Z bezeichnet man in der 3D-Darstellung auf dem Bildschirm gewöhnlich eine andere Achse. Nur damit es hier nicht zu noch größeren Verwirrungen kommt.

jedi
2002-05-14, 19:46:04
Originally posted by harkpabst_meliantrop

Mit Z bezeichnet man in der 3D-Darstellung auf dem Bildschirm gewöhnlich eine andere Achse. Nur damit es hier nicht zu noch größeren Verwirrungen kommt.

Yepp, deswegen habe ich es ja in der Klammer dahinter beschrieben. ;)

Razor
2002-05-14, 19:53:06
Na ja, bei dem Implemetierungsaufwand von DM werd' ich sicher nicht mitreden, davon versteh' ich einfach zu wenig... (würd' ich harkpabst_meliantrop übrigens auch raten ;-). Aber eines ist sicher: Es ist ein 'Feature', welches eine breite Hardware-Unterstützung voraussetzt, ähnlich den polynominalen Flächen nVidia's, damit sich der Aufwand für die Implementierung lohnt.

Insofern ist es 'nett', daß nun endlich ein Hersteller dies in Hardware bietet, aber solange es keine breite Hardwarebasis dafür gibz, ist es ähnlich nutzlos, wie die PS1.4 von ATI oder eben die polyFlächen (RTPatches) nVidia's. Nett für Demo's, mehr nicht...

Insofern bleibt eigentlich nur der Speicherbus, der halbwegs interessant ist und natürlich das 16xAA (wenn brauchbar). Aber nur deswegen werd' ich mir mit Sicherheit keine neue GraKa holen.

Na ja, schaun' wir mal, was da noch so von den Anderen kommt...

In diesem Sinne

Razor

Thowe
2002-05-14, 19:58:21
Manche Features werden einfach in Engines implementiert weil diese "Sexy" sind. Displacement Mapping halte ich ganz sicher für so ein Feature.

Auch wenn die NV30 und die R300 die Parhelia demnächst übertrumpfen, ist der Chip z.Z. aber sicherlich "the No. 1" der real existierenden und somit ist ganz sicher Götterdämmerung, vielleicht nur für kurze Zeit, aber es erfreut mich zu sehen das todgeglaubte manchmal doch noch, wenn auch nur aus trotz, leben.

Ich für meinen Teil hätte mir höchstens noch Pixelshader 2.0 gewünscht, ansonsten sind die Feature beeindruckend und vom FSAA verspreche ich mir auch einiges. Das die 2D Features wieder einmal mehr als beeindruckend sind, bestätigt nur die Zielgruppe für diese Karten. Gerade in der Profi-2D-Liga wird diese Karte wieder viele Freunde finden.


Ansonsten hat Matrox die Messlatte etwas angehoben, ich kann daran nichts negatives erkennen.

harkpabst_meliantrop
2002-05-14, 20:02:23
Originally posted by jedi


Yepp, deswegen habe ich es ja in der Klammer dahinter beschrieben. ;)
Gut, denn deshalb habe ich ja auch verstanden, was du meinst ...

nggalai
2002-05-14, 20:07:15
Hi there,

*Z-bag anschliess, Jedi und anderen widersprech*

Rein Theoretisch wäre das schon möglich, zumindest möchte uns das PR-Material von Matrox das suggerieren.;)Ich kann mir beim besten Willen nicht vorstellen, dass DM überhaupt für Spiele in der Form geeignet ist (hauptsächlich aus markttechnischen Gründen), und ich denke auch nicht, dass Matrox das suggerieren wollte. Ich sehe für DM auf Parhelia zwei Ansatzmögichkeiten:

a) Spiele: DM zum Details hochschrauben. Da musst Du dich dann auch nicht um die Kollisionsabfrage gross Sorgen machen, weil da eh häufig mit bounding boxes gearbeitet wird. Ausserdem lässt sich dieses Feature etwa ähnlich einfach wie Bump Mapping verkaufen, i.e. wenn's ned läuft, dann sieht's ein wenig schlechter aus--aber das wär's. Eine gewisse Kompatibilität zu nicht-DM-fähiger Hardware ist also gegeben.

b) Professionelle Anwendungen: Visualisierungen für Simulationen, GIS, Forschung etc.. Bitte vergesst nicht--die Parhelia ist für den Durchschnittsspieler unerschwinglich, jedoch für professionelle und semi-professionelle Entwickler interessant. Ich kenne Leute, die haben sich eine R8500 ausschliesslich wegen der Möglichkeit, einfach diffuses Bump Mapping zu implementieren, gekauft. Das wird bei der Parhelia nicht gross anders sein; das Projektteam eines Freundes z.B. freut sich riesig auf das Teil und die P10--es geht um "schlüsselfertige" Systeme, wo Landkarten in 3D und Echtzeit dargestellt werden sollen.

Kurz: Es gibt nicht nur Spiele, und IMO zielt die Parhelia auch stark auf den Visualisierungs-Sektor ab. Und da sind die $500 echt schon Kampfpreis. Bei den Spielen zählt das Argument der Marktdurchdringung nur beschränkt--sonst gäb's auch keine Truform-Spiele oder Games mit EMBM, denn in einer ähnlichen Form lässt sich DM in Spielen gut einbauen, ohne dass man gleich nur noch für .5% des Marktes entwickelt.

ta,
-Sascha.rb

P.S. als Spieler würde ich mir die Karte nie wegen DM und PS1.3 etc. kaufen. Solche Features sind sowas von uninteressant, wenn man eh 1x pro Jahr die Karte auswechselt.rb

Leonidas
2002-05-14, 20:12:10
Originally posted by Unreal Soldier


Cooler Artikel informativer als bei hartware.net, aber ich hatte mehr erwartet, wie z.B. Mehr Bilder von der Karte oder sowas.
Trotzdem gute Arbeit getan.



Thx. Echte Bilder von der Karte gibt es allerdings derzeit noch keine. Und durch noch mehr Screenies zu Technik-Features würde der Eindruck erweckt, wir würden dies überbewerten - was aber nicht so ist, deswegen der weitestgehende Verzicht auf die sowieso sattsam bekannten Pics.

harkpabst_meliantrop
2002-05-14, 20:17:25
Originally posted by Leonidas
Thx. Echte Bilder von der Karte gibt es allerdings derzeit noch keine.
Zumindest steckt der Arm, der die Karte bei PC Watch hält, in einer ähnlichen Jacke, wie der junge Mann, den sie uns als Graphic Products Manager verkaufen ... welche Aussagekraft das auch immer haben mag.

:)

Razor
2002-05-14, 20:28:33
@nggalai

"P.S. als Spieler würde ich mir die Karte nie wegen DM und PS1.3 etc. kaufen. Solche Features sind sowas von uninteressant, wenn man eh 1x pro Jahr die Karte auswechselt.rb"

Alle 1,5 bis 2 Jahre, wenn ich bitten darf...
:D

Ansonsten kann ich Dir in dieser Auslegung nur zustimmen. DM 'sanft' eingesetzt, stellt's auch keinen allzu großen Quali-Verlust für 'die Anderen' dar... Und für den Profi ist's 'eh eine anderes Thema... für den reinen (!) Gamer ist diese Karte allerdings weniger interessant.

Nur wenn Matrox nict auf den Consumer zeilen wollte, warum dann diese Effekt-Tascherei mit dem Sonnenhund etc.pp... und Thowe bezeichnet dessen Erscheinen sogar als 'Götterdämmerung'...

@Thowe

... was ich persönlich für die stärkste Übertreibung halte, die ich in letzter Zeit wahr genommen habe, und das von Dir, Thowe. Ich will Dich dafür sicher nicht verurteilen, aber Du gehörst sonst zu den eher zurückhaltenden Vertretern unserer Zeit und nun so etwas, das bei einem eigentlich wenig spektakulären Stück Hardware... Hmmm...

Und im Gegensatz zu Dir glaube ich nicht, daß komplexe Features in Engines eingebaut werden, nur weil sie 'sexy' sind. Wenn man bedenkt, wie lange es gedauert hat, bis vernünftiges BumpMapping auf breiter Basis (in Scene- und Tech-Demos, diversen Spiele-Titeln etc.pp) eingesetzt wurde, dann könnten jedi's Voraussagen in dieser Hinsicht durchaus hinkommen. So 2-3 Jahre wird's dauern, vorausgesetzt auch andere Hersteller schließen sich dem noch dieses Jahr an und es findet damit eine breitere Baisis, als jetzt - noch gar keine, um genau zu sein und wenn, voraussichtlich frühestens ab Herbst/Winter diesen jahres - dann aber vielleicht schon von mehreren Herstellern.

Sorry, aber Götterdämmerung ?

Bis denne

Razor

P.S.: Ich will die Leistung von Matrox nicht verunglimpfen, ist wirklich ein schönes Stück Hardware, aber der 'Überhammer' ist es nicht, eher eine Fortsetzung der bestehenden Technik...

Und was ist eigentlich mit dem Pixel-Shader-Beispiel auf Seite 5 ?
Hat die gf3 nun Pixel-Shader 1.3, bzw. Z-korrektes BumpMapping' ?
???

zeckensack
2002-05-14, 20:33:13
Originally posted by Razor Hat die gf3 nun Pixel-Shader 1.3, bzw. Z-korrektes BumpMapping' ?
??? [/B]So wie ich das verstanden habe, ja hat sie. PS1.3 ist ein Treibertrick. Der Pixelshader der GF3 besitzt die gleiche Funktionalität wie der der GF4Ti.

Razor
2002-05-14, 20:37:52
Originally posted by zeckensack
So wie ich das verstanden habe, ja hat sie. PS1.3 ist ein Treibertrick. Der Pixelshader der GF3 besitzt die gleiche Funktionalität wie der der GF4Ti.
Sicher ?

Bisher hat man mir immer erklären wollen, daß die gf3 KEINE PS1.3 unterstützt, sondern eben nur PS1.1...

Ich meine mal irgendwo gelesen zu haben, daß selbst Hardware-Entwickler nicht verstehen konnten, warum denn die gf3 diese nicht unterstützen soll und auch hat M$ die gf3 als DX8.1-Compliant zertifiziert, eben weil sie bis PS1.3 unterstützt - kurz danach wurde es dann auch ziemlich ruhig um dieses Thema.

Und nun wird es als 'Neues' Feature der gf4ti 'verkauft' ?
Kann es sein, daß dies wieder mal nur ein Marketing-Trick war ?

Hmmm...
Also irgendwie...

Razor

P.S.: Sorry, für diesen OT-Abrutsch, aber im Prinzip hat er definitv mit dem Artikel zu tun, oder ?

Quasar
2002-05-14, 20:40:21
Originally posted by harkpabst_meliantrop

Oder du wunderst dich, dass der, den du gerade erstoche hast, noch gar nicht tot ist ...

Die Frage ist, unter welchen Umständen sowas auffällt, und sich die Benutzung also verbietet, und wo es doch eher egal ist. Zumindest für korrekte Z-Anordnung dürfte es ja egal sein.

Wenn du dir die Präsentation nochmal genau durchliest, wirst du feststellen, das sich per DM Gebirgszüge aus eine simplen, flachen Fläche erstellen lassen.

Wir reden hier Clippingproblem also nicht über eine Hand oder einen Fuß, der mal kurz hinter etwas "Level" verschwindet, sondern im Extremfall über komplette Armeen, die wie Ali Baba und die 40 Räuber aus dem Inneren eines Berges herausgegeistert kommen.

Quasar
2002-05-14, 20:44:09
Originally posted by Razor

Und nun wird es als 'Neues' Feature der gf4ti 'verkauft' ?
Kann es sein, daß dies wieder mal nur ein Marketing-Trick war ?

AFAIK wurde schon der GeForce3Ti als PS-1.3 Chip verkauft, insofern also ein Treibertrick. Z-correct Bump-Mapping ist, ebenfalls afaik, davon unabhängig und evtl. tatsächlich nicht 100%ig mathematisch korrekt auf einer GeForce3 darstellbar.

Ob das jetzt im Tidepool-Demo mit bloßem Auge wirklich zu sehen ist (evtl. sogar so drastisch, wie auf den Screenies) kann ich nicht beurteilen.

Demirug
2002-05-14, 20:49:06
Originally posted by nggalai
Ich kann mir beim besten Willen nicht vorstellen, dass DM überhaupt für Spiele in der Form geeignet ist (hauptsächlich aus markttechnischen Gründen), und ich denke auch nicht, dass Matrox das suggerieren wollte.

Ich weis das es als neuer unhöfflich ist den angestammten Mitglieder zu wiedersprechen aber als Mann vom Fach kann ich das so nicht stehen lassen.

Gerade für Outdoorengines werden sehr oft highmaps benutzt. Um diese dann auf den Bildschirm zu bringen werden fast die gleiche Schritte welche die Matrox Karte in der Hardware ausführen kann von der CPU übernommen. Das ändern einer Highmap Outdoor enginen auf DM sollte daher in der Regel ein einfaches sein.

Was den Einsatz des DM zum skinnen angeht kann ich noch nichts sagen da das DX9 beta noch nicht verfügbar ist.

Im Prinzip gilt aber der Grundsatz:
Einen Engine orientiert sich immer an der schwächsten zu unterstützenden Hardware. Bei einer Neuentwicklung wäre das im Moment der Hardware T&L Level. Gleichzeitig versucht man aber die neuesten Grafikkarteneigenschaften sinnvoll einzusetzen. Das Buget ist aber hierbei der limitierende Factor.

Es gibt natürlich Ausnahmen. Id Software um jetzt mal einen Entwickler zu nehnen.

Razor
2002-05-14, 20:50:34
Originally posted by Quasar


AFAIK wurde schon der GeForce3Ti als PS-1.3 Chip verkauft, insofern also ein Treibertrick. Z-correct Bump-Mapping ist, ebenfalls afaik, davon unabhängig und evtl. tatsächlich nicht 100%ig mathematisch korrekt auf einer GeForce3 darstellbar.

Ob das jetzt im Tidepool-Demo mit bloßem Auge wirklich zu sehen ist (evtl. sogar so drastisch, wie auf den Screenies) kann ich nicht beurteilen.
Dann sollte der Artikel aber wirklich noch einmal dahingehend bearbeitet werden, denn

a) gibt es dann KEINE PS1.1 Hardware, sondern nur PS1.3 oder PS1.4
b) ist der Bezug von 'Z-korrektem BumpMapping' und 'PS 1.3' dann NICHT korrekt
c) das bebilderte Beispiel ist dann völlig deplaziert !

Würde mir hier wirklich mal eine Aufklärung von unseren beiden Verfassern aths und Leo wünschen...

Razor

Quasar
2002-05-14, 20:53:39
Bitte überlies' das "afaik" nicht. Ich bin mir keineswegs 100% sicher, daß es so ist. Nur hat DK irgendwo mal gesagt, daß der GF3Ti (ja, er klammerte den GF3 "okinaal" aus) PS1.3 darstellen könne. Ob das nun wirklich zu 100% in Hardware geschieht, oder auch durch PS1.1-HW+entsprechende Treiber geschehen könnte, entzieht sich meiner Kenntnis.

Wörtlich sagte er glaube ich etwas davon, daß sich alles PS1.3-Effekte auch mit der GF3Ti darstellen liessen, was die Frage, ob HW oder SW, völlig offen läßt.

Und für so nachlässig halte ich aths und Leo (oder andersrum) nicht.

ram
2002-05-14, 20:59:24
aths,

du schreibst, FAA mache Multisampling. Nun ja, das macht schon Sinn, nur wie kommst du darauf? Matrox schreibt ja an jeder Ecke es sei Supersampling, was zwar weniger Sinn macht, aber auch möglich ist.

Razor
2002-05-14, 21:00:56
Originally posted by Quasar
Bitte überlies' das "afaik" nicht. Ich bin mir keineswegs 100% sicher, daß es so ist. Nur hat DK irgendwo mal gesagt, daß der GF3Ti (ja, er klammerte den GF3 "okinaal" aus) PS1.3 darstellen könne. Ob das nun wirklich zu 100% in Hardware geschieht, oder auch durch PS1.1-HW+entsprechende Treiber geschehen könnte, entzieht sich meiner Kenntnis.

Wörtlich sagte er glaube ich etwas davon, daß sich alles PS1.3-Effekte auch mit der GF3Ti darstellen liessen, was die Frage, ob HW oder SW, völlig offen läßt.

Und für so nachlässig halte ich aths und Leo (oder andersrum) nicht.
Ich halte die beiden keinswegs für Nachlässig, aber dieses Thema interessiert mich brennend.

Allerdings ist der Teil des Artikel, bezogen auf den PixelShader dann so oder so falsch, wie ich an dem Beilspiel doch wohl gut belegen konnte. Entweder hat das Z-korrekte BM nichts mit dem PS1.3 zu tun und ist eine Eigenschaft der gf3 (mutmaßlich einziger Chip mit nur PS1.1) oder aber es gibt keine Hardware, die 'nur' PS1.1 hat und damit ist das Beispiel dann ebenso überflüssig.

Nur um des korrekten Inhaltes wegen, würde ich den Artikel dahingehend anpassen. Und wenn das alles nicht zutrifft, würde ich mir wünschen, daß mir jemand erklärt, warum bei mir diese 'Verwirrung' bezüglich des PixelShader-Abschnittes des Artikels zutage getreten ist.

Vielleicht habe ich ja auch irgendetwas nicht richtig verstanden...
(was mich allerdings wundern würde, da der Artikel - wie immer - sehr verständlich geschrieben ist)

Vielleicht erbarmt sich ja einer der beiden...

Razor

nggalai
2002-05-14, 21:02:48
Hi Demiurg,Einen Engine orientiert sich immer an der schwächsten zu unterstützenden Hardware. Bei einer Neuentwicklung wäre das im Moment der Hardware T&L Level. Gleichzeitig versucht man aber die neuesten Grafikkarteneigenschaften sinnvoll einzusetzen. Das Buget ist aber hierbei der limitierende Factor.Genau davon sprach ich ja--einerseits hat Zeckensack das Clipping-Problem gut erklärt, aber andererseits denke ich (ok, in der Klammer), dass sich DM vorwiegend aus markttechnischen Gründen kaum für diesen Einsatzzweck durchsetzen wird. Als Beispiel, wie bei Spielen diese neuen Features sinnvoll eingesetzt werden könnten, brachte ich die zusätzlichen Details.Ich weis das es als neuer unhöfflich ist den angestammten Mitglieder zu wiedersprechen aber als Mann vom Fach kann ich das so nicht stehen lassen.Kein Problem. Ich bin aus ähnlichen Gründen (hi aths) überhaupt hier im Forum "gestrandet" . . . also, willkommen. :)

ta,
-Sascha.rb

Unregistered
2002-05-14, 21:03:28
Ich möchte hier nur sagen, dass die Berichterstattung von euch wie immer aller erste Sahne ist.
Ihr betrachtet die ganze Sache von mehreren Seiten und gebt am Schluss ein offenes Fazit ab.
Ich finde dies eine Top Leistung die mal jemand anerkennen muss und nicht immer diese Besserwisserpostings.
Hut ab für eure Berichterstattung. Macht weiter so. Andere können sich an der Qualität eurer Artikel eine gehörige Scheibe abschneiden.

Für alle die jetzt wieder etwas besser wissen sei gesagt: Mit der Informationsfülle die Matrox bis heute heraus geruckt ist, ist dieser Artikel schon vom aller feinsten, und jeder der einen dummen Kommentar dazu abgibt, soll sich erst einmal selber hin setzen und einen solchen ausführlichen Artikel schreiben.

Es hat wie immer Spaß gemacht diesen Artikel zu lesen.

Unregistered
2002-05-14, 21:05:26
Auf Seite 3 des Previews werden AFAIK bei den Bit-Angaben der einzelnen Grafikchips verschiedene Dinge durcheinandergewürfelt. So steht beim Matrox Parhelia "512 Bit" und z.B. beim GeForce 1 "256 Bit" - damit ist ganz klar die Chip-Architektur gemeint. Beim GeForce2/4 MX steht "64 oder 128 Bit", beim TNT2 M64 "64 Bit" - das ist eindeutig die Speicherbandbreite!

Razor
2002-05-14, 21:15:30
Originally posted by ram
aths,

du schreibst, FAA mache Multisampling. Nun ja, das macht schon Sinn, nur wie kommst du darauf? Matrox schreibt ja an jeder Ecke es sei Supersampling, was zwar weniger Sinn macht, aber auch möglich ist.
Der zuvor bei Digit-Life erschienene Artikel hat ebenfalls von 'adaptivem' Supersampling (FAA) gesprochen (was auch immer das heißen mag), die anderen von Multisampling. Persönlich muß ich sagen, daß ich es mir nur schwer vorstellen könnte, wie Supersamling in Verbindung mit 16 Subpixeln möglich sein soll (auch bei 20GB, oder wie aths schrieb ca. 17GB, Speicherbandbreite).

Hmmm...

Razor

P.S.: Weißt Du was mit den Pixel-Shader-Problem anzufangen ?

zeckensack
2002-05-14, 21:16:22
Unreg,

Besserwisser oder dumme Kommentare habe ich in diesem Thread noch nicht gefunden ???

Demirug
2002-05-14, 21:27:13
@nggalai:

Da ich gerade dabei eine neue Enginen zu planen kann ich dir da leider nur wiedersprechen.

Wenn es zu Clipping-Problemen kommt hat der Physik bzw. Kollisionsteil der Engine versagt. Diese Teile benutzen bei modernen Engines in der Regel andere Datenbestände als für die Darstellung.

Wie ich also die Highmap auf den Bildschirm bekomme ist erst mal egal. Es ist darum auch kein Problem bei Karten die DM unterstützen für diese Aufgabe einen anderen Renderpfad zu wählen. Natürlich macht das nur Sinn wenn auch andere Karten (NV30, R300, usw.) ebenfalls DM unterstützen oder man von Matrox etwas als Gegenleistung erhält.

Sobald ich mein Beta habe und bestätigte Infos das es auch andere Karte mit DM geben wird werde ich sehr wahrscheinlich einen pfad dafür in die neue Engine einbauen.

Leonidas
2002-05-14, 21:34:59
Dieser Art Aufklärung kann nur aths bringen ...

nggalai
2002-05-14, 21:36:22
Hi Demiurg,

klingt cool. :) Lass hören, wenn man was davon anschauen kann.

Deine Ausführungen klingen einleuchtend. Allerdings sehe ich noch immer ein Problem und eine "Synchronisier-Notwendigkeit" im Fall von DX9 DM / Parhelia--die Matrox verwendet adaptive Tesselation und ein LOD-Modell in Hardware, als Teil der HDM Engine. Das sollte in der "Nähe" kein Problem sein, ganz einfach weil dann eh mit der vollen Detailstufe gearbeitet wird, aber was machst Du wenn Du z.B. rauszoomst? Woher weiss dann der Algorithmus, wo die Modelle plaziert werden müssen, ohne dass er sich mit der Grafikkarte "synchronisieren" muss?

Wo ist mein Denkfehler?

Edit: Hmm. Vielleicht klappt das, weil das verschiedene LOD-Versionen der Dispacement Map verwendet werden (ähnlich wie bei MIP-maps)?

ta,
-Sascha.rb

Demirug
2002-05-14, 21:53:24
Hi nggalai,

Tja mit dem anschauen kann das etwas dauern. Da ich DX9 verwenden will kann ich erst nach dem Release (November) etwas an die öffentlichkeit rausgeben. NDA eben.

Was deinen Denkfehler angeht. Physik und Grafikkarte verfügen über die gleiche Highmap. Darum ist es möglich für jede Position auf der Karte die Höhe zu bestimmen. Der Rest ist dann nur noch ein bischen Vectormathe. Wenn man das nötige Kleingeld hat kann man sich eine Physikengine kaufen die solche Sachen erledigt.

Das Problem ist eigentlich nicht neu. Überleg doch einfach mal folgendes. Bei Client-Server Spiele kann sich der Server ja auch nicht mit der Grafikkarte des Client Syncen. Trotzdem muss er die Modelle korrekt plazieren.

nggalai
2002-05-14, 21:59:07
Hi Demiurg,

ja, so ist's klar. Ich fragte mich eben, woher denn deine Physik-Engine die Informationen erhalten soll, wenn die Grafik-Hardware selbstständig mal mit LOD rumspielt. Aber eben--es gibt ja verschiedene Maps für die verschiedenen LOD-Stufen (cf. meinen Edit weiter oben), ergo kannst Du die Informationen einfach da rausziehen, ohne dass da gross Probleme auftauchen sollten. Offenbar erzeugt die HDM engine nicht "automatisch/dynamisch" neue LOD-Stufen, sondern halt eben "adaptiv"--es wird entschieden, welche der vorhandenen Stufen man nehmen will.

Danke fürs Knopflösen!

ta,
-Sascha.rb

MadManniMan
2002-05-14, 23:46:56
*herzrasenhab*

verdammt nochmal, ram! du hast mir grad nen jugendtraum zerstört...

und zwar getätest du selbiges per selbstdegradierung von "mannis grakagott" zu "mannis grakaheld"

in einem thread(und dann auch noch auf der gleichen seite!) mit ram... ich glaubs nich!

so, genug rumgewundert :naughty:

achja, wo wir grad bei :naughty: waren... krass flauschiger neuer avatar, nggalai! eben alles btw :zunge:

ZUM THEMA

TOP ding: doppelt so breit seiender ram-dings. gleichzeitigerweis allerdings auch gegenargument, dieweils den preis treibt und tb-deferred-renderer etwas degradiert...

MIES ding: das AA

obs nun ss oder ms is wär zwar interessant zu wissen(ergo *ramanschließ* ... hey, ich bin einer meinung mit ram! woooooooohooo!), aber im endeffekt werden doch eh nur die kanten bewurschtelt. soll nich heißen, daß ich es grundsätzlich scheiße finde, aber nachdem ich das aa meiner k2 mal live mit dem der ti500 eines mir bekannten geldkindes verglichen habe, schreie ich hemmungslos nach richtig nünftigem fsaa. die alleinige kantenterrorvernichtung is zwar nett, aber irgendwie... ahc ich weiß nich...


so, genug das forum quälen getut.(mit schreibens)

jetz guck ich mir offline nggalais pic an *vorfreu*

MadManniMan
2002-05-14, 23:48:11
wißt ihr, was an ifranview so toll is? damit kann man zoomen! und per zoom wird nggalai noch grööööößer! jawohl!

mann, ich leide echt unter dezentem mein-mädel-entzug...

Unregistered
2002-05-15, 00:24:31
@Demirurg und Nggalai

Gut, dass ihr das mit der Kollisionsabfrage gerade geklärt hab. Die selbe Frage hatte ich mir auch gestellt, und wollte dazu schon einen eigene Thread aufmachen. Aber so wie es aussieht gibt es da wirklich keine Probleme.

Hoffentlich werden Heightmaps bald auch von den Spieleentwicklern eingesetzt. Das erinnert mich ein bisschen an die "Voxelgrafik" von Outcast und die Grafik von Outcast ist immer noch genial. Kaum vorzustellen, was dann mit DM möglich wäre...

Unregistered
2002-05-15, 00:37:23
Originally posted by MadManniMan
TOP ding: doppelt so breit seiender ram-dings. gleichzeitigerweis allerdings auch gegenargument, dieweils den preis treibt und tb-deferred-renderer etwas degradiert...

MIES ding: das AA

obs nun ss oder ms is wär zwar interessant zu wissen(ergo *ramanschließ* ... hey, ich bin einer meinung mit ram! woooooooohooo!), aber im endeffekt werden doch eh nur die kanten bewurschtelt. soll nich heißen, daß ich es grundsätzlich scheiße finde, aber nachdem ich das aa meiner k2 mal live mit dem der ti500 eines mir bekannten geldkindes verglichen habe, schreie ich hemmungslos nach richtig nünftigem fsaa. die alleinige kantenterrorvernichtung is zwar nett, aber irgendwie... ahc ich weiß nich...


so, genug das forum quälen getut.(mit schreibens)Episode 2 illegal im Netz angeguckt? Kommt Jar-Jar Binks da etwa schon wieder drin vor?

AlfredENeumann
2002-05-15, 01:11:27
Originally posted by Unregistered
Episode 2 illegal im Netz angeguckt? Kommt Jar-Jar Binks da etwa schon wieder drin vor?

nur kurz am anfang und in der mitte ganz ganz kurz. keine angst.

aths
2002-05-15, 07:46:45
Jedi,

bitte erst informieren! Razor hat Recht, dass GF3 z-korrektes Bumpmapping kann - aber nur in OpenGL. In DirectX kann sie das nicht, und PixelShader 1.1 bzw. 1.3 sind DirectX-Bezeichnungen.

aths
2002-05-15, 07:53:46
Originally posted by Razor

Würde mir hier wirklich mal eine Aufklärung von unseren beiden Verfassern aths und Leo wünschen...


Aber ja :D Ich habe mich bei einem GF3-Besitzer, der den aktuellen offiziellen Deto benutzt überzeugt, dass PS.1.1 vermeldet wird, und nicht 1.3. Du kannst ja gerne mal versuchen im DX8.1 SDK im PixelShader-Demo die Deklaration des Pixelshaders von 1.0 auf 1.3 zu setzen.

aths
2002-05-15, 07:54:45
Originally posted by ram
aths,

du schreibst, FAA mache Multisampling. Nun ja, das macht schon Sinn, nur wie kommst du darauf? Matrox schreibt ja an jeder Ecke es sei Supersampling, was zwar weniger Sinn macht, aber auch möglich ist.

Hallo ram,

Matrox sagt, sie machen Supersamling - aber nur an Kanten :)

aths
2002-05-15, 07:56:14
Originally posted by Unregistered
Auf Seite 3 des Previews werden AFAIK bei den Bit-Angaben der einzelnen Grafikchips verschiedene Dinge durcheinandergewürfelt. So steht beim Matrox Parhelia "512 Bit" und z.B. beim GeForce 1 "256 Bit" - damit ist ganz klar die Chip-Architektur gemeint. Beim GeForce2/4 MX steht "64 oder 128 Bit", beim TNT2 M64 "64 Bit" - das ist eindeutig die Speicherbandbreite!

Es ist in allen Fällen das gleiche gemeint - die logische Breite des RAM-Interfaces.

ram
2002-05-15, 08:10:57
Originally posted by aths
Matrox sagt, sie machen Supersamling - aber nur an Kanten :)

Ja, eben. Wieso soll das dann automatisch Multisampling sein? Mit Multisampling kann man zwar nur die Kanten glätten, Mit Supersampling geht das aber auch, wenn man nur entlang der Kanten sampelt.

nggalai
2002-05-15, 08:19:52
Hi there,

es scheint so, als ob Matrox beim 16xFAA Supersampling betreibt (aber eben nur an den Pixeln, welche als "Anti-Aliasing-würdig" eingestuft werden), und falls dies nicht funktioniert, wird auf reguläres SSAA zurückgeschaltet.

Laut Anandtech hat Matrox was von 4-7 FAA-inkompatiblen Spielen bei 40 getesteten gesagt. Betroffen scheinen Spiele/Engines zu sein, welche den Stencil Buffer excessiv benutzen. Schade.

ta,
-Sascha.rb

P.S. err, Manni . . . muss ich mir Sorgen machen? Ich kann dir sonst auch die grosse Version des Photos schicken . . . ;) .rb

Exxtreme
2002-05-15, 08:34:29
Im Endeffekt dürfte es ziemlich egal sein ob es sich um MultiSampling oder um Edge-SuperSampling (was für eine Wortkreation ;)) handelt. Von der Bildqualität her dürften beide Verfahren vergleichbar sein.

Gruß
Alex

Spot
2002-05-15, 08:42:01
Also, ich warte schon lagne auf eine Graka von Matrox und gehöre sicherlich auch zu den potentiellen Käufern. Mein erste Graka war eine Matrox mit 8 MB (hat damals fast 500€ gekostet) mit ner Voodoo1.
Dann habe ich Voodoo 2 und Voodoo 3 3500 gehabt.( Überigens Voodoo hat gezeigt, wer hoch steigt der fällt auch mal auf die Nase- habe ich bei Nvidia auch irgendwie im Hinterkopf.) Seid meiner V 3 3500 habe ich alle NV-Karten gehabt bis zu meiner jetzigen TI 4600. Wenn es den Kanadiern gelingt im Sommer die Karte auf den Markt zu bringen, werden sie auch eine Menge absetzen können, aber bitte nicht mit Nvidia oder ATI vergleichen(die sind eine Nummer größer).

Alles was jetzt über den "Neuen Chip" zu er fahren ist sagt noch garnichts. Wichtig sind handfeste Tests.
Euren Artikel finde ich ganz toll. Ihr betrachtet die Sache sehr nüchtern.

nggalai
2002-05-15, 09:04:32
Q&A mit Sebastian Macdougall, Matrox:

http://www.gamepc.com/reviews/hardware_review.asp?review=parheliap&page=7&mscssid=&tp=

Auszug:That is correct Chris, however, don't confuse FSAA with FAA 16x. With FAA 16x we are only performing AA on the edge pixels, therefore not the whole scene. Edge pixels typically occupy only a minor percentage of your screen pixel coverage and therefore allow us to perform things like FAA-16x across three displays. Additionally, you don't get the texture smearing result that FSAA incurs because with FAA-16x you aren't even touching those internal textures. The result is 16x AA quality with internal texture precision of the original scene, and even better if you enable aniso, which our pipeline can do for free.

Viel Marketing Blabla und eher wenig "interessanter" Inhalt. Lustig: FSAA wird mit Quincunx Multisampling gleichgesetzt--was anderes verschmiert die Texturen nicht. "Internal texture precision of the original scene" deutet eigentlich auch auf Supersampling hin.

Aniso for free? OK, solange nicht mehr als 2 Texturen verwendet werden, vielleicht . . .

ta,
-Sascha.rb

Unregistered
2002-05-15, 09:49:28
Ich liebe Eure Artikel!!!!

Matze

aths
2002-05-15, 10:40:26
Originally posted by ram


Ja, eben. Wieso soll das dann automatisch Multisampling sein? Mit Multisampling kann man zwar nur die Kanten glätten, Mit Supersampling geht das aber auch, wenn man nur entlang der Kanten sampelt.

ram, ja. Ich denke drüber nach, das mit einem Absatz zu konkretisieren.


Exxtreme:

Multisampling oder "Edge-SS" ist schon ein Unterschied, auch betreffs der Bildqualität. Ich entschied, das aber trotzdem Multisampling zu nennen, um kein Missverständnis bezüglich der Texturglättung aufkommen zu lassen.


nggalai:

edit: Ich Depp. Genau das hast du ja auch gesagt.

aths
2002-05-15, 10:48:01
Originally posted by Unreal Soldier
@Leonidas

Cooler Artikel informativer als bei hartware.net, aber ich hatte mehr erwartet, wie z.B. Mehr Bilder von der Karte oder sowas.
Trotzdem gute Arbeit getan.

MFG
Unreal Soldier

Leo hat den Artikel durchgesehen und einiges ergänzt. Geschrieben wurde er von meiner Wenigkeit. D.h., er zeichnet sich als Webmaster verantwortlich (rechtliche Fragen etc.), und ich übernehme die Verantwortung für den Inhalt (gibt es Fehler, Ungenauigkeiten, usw.)

Steel
2002-05-15, 10:50:53
Die Karte hört sich vom Konzept sehr gut an.
Allerdings wird es sicher wieder eine ganze Zeit dauern, bis brauchbare (schnelle, und stabile) Treiber erscheinen werden.
Und von denen wird ganz entscheidend der Erfolg der Karte abhängen.

Deutlich schneller, als die GF4-4600 wird sie sicher sein, man darf aber nicht vergessen, dass die NV30 auch Ende des Jahres erscheint, ebenso wie 3DLabs "Wunderchip".

Aber für DTP, Video und allgemein professionellen Einssatz in Punkto Grafik und Design scheint sie mir aufgrund der Multimonitorfähigkeiten und der Optimierung auf beste Bildqualität besser als alle derzeitigen und o.a. Karten geeignet zu sein.

aths
2002-05-15, 11:27:02
Wer solche Hardware entwickelt wird wissen, dass dazu vernünftige Treiber gehören. ATI hat es doch auch gepackt.

oO_KIWI_Oo
2002-05-15, 11:50:23
Wer solche Hardware entwickelt wird wissen, dass dazu vernünftige Treiber gehören. ATI hat es doch auch gepackt.

Naja aths...da scheiden sich die Geister... ;) Da ich momentan keine ATI habe, kann ich mich in dieser Hinsicht natürlich nicht aus dem Fenster lehnen ;) aber soweit ich weiß ist der OpenGL Treiber bspw. noch einiges von einer vollständigen, standardkonformen Implementation entfernt.

Doomtrain
2002-05-15, 12:03:48
Originally posted by aths
Wer solche Hardware entwickelt wird wissen, dass dazu vernünftige Treiber gehören.

Wenigstens einer ist meiner Meinung!

Die Leute bei Matrox sind keine Anfänger, sondern Vollprofis!

Leonidas
2002-05-15, 12:12:21
Originally posted by Unregistered
Auf Seite 3 des Previews werden AFAIK bei den Bit-Angaben der einzelnen Grafikchips verschiedene Dinge durcheinandergewürfelt. So steht beim Matrox Parhelia "512 Bit" und z.B. beim GeForce 1 "256 Bit" - damit ist ganz klar die Chip-Architektur gemeint. Beim GeForce2/4 MX steht "64 oder 128 Bit", beim TNT2 M64 "64 Bit" - das ist eindeutig die Speicherbandbreite!



Nein. Ich meinte das effektive Speicherinterface. Steht ja auch so da: "in Klammern dabei die effektive Bitbreite der jeweiligen RAM-Interfaces".

Neo69
2002-05-15, 12:17:05
also zur pixel shader frage kann ich sagen, dass die tidepool demo auf meiner gf3 korrekt funktioniert wie in eurem ps1.3 screenshot...wie genau weiß ich auch nicht *g*

StefanV
2002-05-15, 12:46:47
Originally posted by Leonidas
Nein. Ich meinte das effektive Speicherinterface. Steht ja auch so da: "in Klammern dabei die effektive Bitbreite der jeweiligen RAM-Interfaces".

Wobei es ja auch nicht falsch ist ein 128bit DDR Interface mit einem 256bit SDR Interface gleichzusetzen ;)

Sofern beide die gleiche Frequenz haben, sind sie auch gleich schnell ;)

harkpabst_meliantrop
2002-05-15, 12:50:35
Originally posted by aths
Wer solche Hardware entwickelt wird wissen, dass dazu vernünftige Treiber gehören.
Und da es ja offensichtlich jetzt bereits funktionierendes Silizium gibt und die Treiber dafür zumindest ausreichen um die Features darzustellen, die Matrox hervorhebt (einschließlich Q3 in Triple Head wenigstens laufen zu lassen), haben sie doch bis Ende des Sommers eigentlich noch gut Zeit, um Optimierungen vorzunehmen.

Abgesehen von dem OpenGL-Drama (das ja in Wirklichkeit schon mit der G200 angefangen hatte) kann man auch nicht unbedingt behaupten, dass Matrox wegen besonders langsamer Treiberentwicklung gefürchtet wäre.

ram
2002-05-15, 13:26:34
Originally posted by aths
ram, ja. Ich denke drüber nach, das mit einem Absatz zu konkretisieren. Ich entschied, das aber trotzdem Multisampling zu nennen, um kein Missverständnis bezüglich der Texturglättung aufkommen zu lassen.

Ach so. Ich dachte du hättest einen klaren Hinweis gefunden, dass wirklich MS und nicht wie behauptet SS gemacht wird.

IMO ist der visuelle Vorteil von Edge-SS gegenüber Edge-MS den Füllraten- und Bandbreitenbedarf nicht wert, von daher fänd ich das schon merkwürdig, wenn wirklich Edge-SS gemacht wird.

zeckensack
2002-05-15, 13:35:33
Also ich halte Edge-SS für sehr clever.
Bin ich da der einzige? ???

Legolas
2002-05-15, 13:56:22
Originally posted by zeckensack
Also ich halte Edge-SS für sehr clever.
Bin ich da der einzige? ???

EdgeSS ist doch eigentlich schwachsinnig, weil der Vorteil von SS gegenüber MS ja die besseren Texturen sind. Und bei EdgeSS fällt ja dieser Vorteil weg, weil nur an den Kanten SS betrieben wird. In den Polygonen selber passiert ja dann kein SS, also werden die Texturen auch nicht besser. Insofern ist EdgeSS nicht besonders clever.

Xmas
2002-05-15, 14:05:16
Originally posted by Neo69
also zur pixel shader frage kann ich sagen, dass die tidepool demo auf meiner gf3 korrekt funktioniert wie in eurem ps1.3 screenshot...wie genau weiß ich auch nicht *g*
Tidepool ist eine OpenGL-Demo. GeForce3 kann Z-korrektes Bumpmapping, erfüllt aber nicht alle Voraussetzungen für PS 1.2/1.3, weshalb ihr auch das Z-korrekte BM unter DirectX verwehrt bleibt.

Ich glaube kaum dass Matrox für die Fragment-Pixel Supersampling verwendet, sondern immer nur einen Farbwert berechnet (sprich Multisampling). Dazu passt dann auch die "Coverage Information".

nggalai
2002-05-15, 14:13:06
Hi Xmas,Ich glaube kaum dass Matrox für die Fragment-Pixel Supersampling verwendet, sondern immer nur einen Farbwert berechnet (sprich Multisampling). Dazu passt dann auch die "Coverage Information".. . . wobei dann natürlich die Frage ist, ob in den Dokus unter "Coverage Information" die Multisample Mask gemeint ist, oder eben die Information, welche Pixel denn in den zu-anti-aliasenden Bereich gehören.

Hmm. Abwarten. :)

ta,
-Sascha.rb

aths
2002-05-15, 14:25:34
Originally posted by ram


Ach so. Ich dachte du hättest einen klaren Hinweis gefunden, dass wirklich MS und nicht wie behauptet SS gemacht wird.

IMO ist der visuelle Vorteil von Edge-SS gegenüber Edge-MS den Füllraten- und Bandbreitenbedarf nicht wert, von daher fänd ich das schon merkwürdig, wenn wirklich Edge-SS gemacht wird.

ram, daher warte ich, bis dieses seitens Matrox eindeutig geklärt ist. Ich persönlich halte MS für wahrscheinlicher und nehme an, dass Matrox mit Supersampling lediglich das OG-Muster meint.

Neo69
2002-05-15, 14:29:16
@xmas danke für die aufklärung

nocturne
2002-05-15, 14:45:11
A propos Kantenglättung, hier blieb eine Frage von Birdman unbeantwortet:
Wer kann erklären, warum das Matrox-Antialiasing nur in bestimmten Fällen funktioniert und in vielen anderen Fällen versagt?
Folgendes Antialiasing-Beispiel stammt aus dem Matrox-Werbematerial:
http://suma.interway.ch/test/matrox.jpg

Man beachte den hässlichen Übergang der Hügelkante zum Himmel (rechts) und die Lichtkegel-Kanten des "Flugzeuges" in der linken unteren Ecke.

Obwohl Matrox mit diesen Bildchen wirbt (in diesem Fall mit dem Oberteil der Strassenlaterne) ist das Matrox-Antialiasing gerade in den Fällen unbrauchbar, wo es am dringendsten nötig gewesen wäre.

Oder haben sie wirklich nur den Photoshop-Weichzeichner versehentlich nur auf die Strassenlaterne, aber nicht auf die Hügelkante und den Lichtkegel angewendet? Schlechter Fake von Matrox oder einfach nur unbrauchbare Kantenglättung?

aths
2002-05-15, 15:03:56
nocturne,

warum formulierst du deine Fragen so offensiv?

Quasar
2002-05-15, 15:14:26
@Xmas:
Das mit der TidePool-Demo kam mir auch in den Sinn, aber ich habe hier auf der Arbeit nur ein halbes 33.6er und konnte es deswegen nicht runterladen um es zu checken. Danke für die Klarstellung, insofern ist das Beispiel zwar suboptimal, aber es wird gezeigt, was zu zeigen ist, und darauf kommt es an.

@aths:
Ein wirklich sehr gelungener Artikel, mit dem sichg eindeutig der Schreiber identifizieren läßt.

Aber:
Warum greifst du nocturne's Frage an, anstatt die These sachlich zu entkräften?

turboschlumpf
2002-05-15, 15:14:41
er hat aber schon recht dass aa dass nicht immer und überall funktioniert kein wirkliches aa ist.

nocturne
2002-05-15, 15:16:06
aths,
diese Frage wollte ich auch schon oft Dir stellen, wenn ich frühere Artikel von Dir lese. *eg*

Aber zurück zum Matrox-Antialiasing-Problem: warum funktioniert es in vielen Fällen nicht?

aths
2002-05-15, 15:20:59
Originally posted by Quasar

Aber:
Warum greifst du nocturne's Frage an, anstatt die These sachlich zu entkräften?

nocturne greift mit seiner Frage den Verstand der Leser an. Man sieht sofort, dass kein Unschärfe-Filter angewendet wurde. (Dann wäre das Ergebnis ein anderes.)

Neo69
2002-05-15, 15:25:27
hier nochmal dasselbe pic was nocturne gepostet hat, der server den er verlinkt hat war ja unglaublich langsam, hab's mir mühselig gezogen und geuppt:

http://utenti.lycos.it/alexklaas/matrox.jpg


wobei meiner meinung nach die auflösung des bildes zu gering ist wirklich qualifizierte aussagen zu machen.

nggalai
2002-05-15, 15:27:54
Hi nocturne,Oder haben sie wirklich nur den Photoshop-Weichzeichner versehentlich nur auf die Strassenlaterne, aber nicht auf die Hügelkante und den Lichtkegel angewendet? Schlechter Fake von Matrox oder einfach nur unbrauchbare Kantenglättung?Ich denke eher: pre-release Karte/Treiber oder gar nur Emulation. Die 3fps sowohl für mit als auch ohne AA sprechen eigentlich Bände.

Die Flight Simulator Screenshots sehen da deutlich konsistenter aus. Vielleicht sind die auch neuer?

Aber ja, an Matrox' Stelle hätte ich wohl auf die 3DMark-Shots in der Form verzichtet. Im Unreal2 Forum von Infogrames z.B. wird die Parhelia mitm Kommentar "Kann nichts sein, schau mal--3fps! LOL" verrissen, ohne a) zu sehen, dass es ein Technologie-Preview des Chips und b) eben--sowohl mit als auch ohne AA diesselbe "Performance" erreicht wird. Sehr kontraproduktiv, diese Screenshots. Das hätten's besser sein lassen, oder die FPS überdeckt.

ta,
-Sascha.rb

aths
2002-05-15, 15:29:35
Neo,

ich habe beide Bilder (mit und ohne FSAA) im "Original". Der Berg zeigt FSAA - allerdings für schwarze Hintergrundpixel.

Unregistered
2002-05-15, 15:32:09
@nggalai

Bei Nocturne redest du gegen eine Wand, der ist absolut voreingenommen.

MadManniMan
2002-05-15, 15:34:06
@aths:

Ganz deiner Meinung, dieweil ein simples Antworten ohne Kommentar den Tonfall betreffend einer Tolerierung selbigen welchens gleichkommen würde.

Trotzdem is das AA rotze. :zunge:

@unreg:

Ich verderb mir doch nich die Laune... ich guck ne morgen im Kino!

@alfred:

Wirst du wohl den Rand halten! Du verrätst ja den halben Film! *fingerzeig*

@nggalai:

Hatte nur mal wieder nen Anfall... du erinnerst dich an den Sexualitäts-Thread? :naughty:

Quatsch, ich wollte einfach nur mein standartmäßiges "nettes neues Bild, nggalai!" etwas flauschiger formulieren. Hehe.

@zeckensack:

Ja.


/EDIT: Rechtschreibigung. Naughty-Smiley für Sascha eingefügt.

nggalai
2002-05-15, 15:35:10
@athsich habe beide Bilder (mit und ohne FSAA) im "Original". Der Berg zeigt FSAA - allerdings für schwarze Hintergrundpixel.Yup. Klingt für mich nach Treiber / prerelease Bug.

ta,
.rb

Quasar
2002-05-15, 15:41:55
Originally posted by aths


nocturne greift mit seiner Frage den Verstand der Leser an. Man sieht sofort, dass kein Unschärfe-Filter angewendet wurde. (Dann wäre das Ergebnis ein anderes.)

Dasselbe in Grün. Anstatt auf dem Wort "Unschärfefilter" (das nocturne als Weichzeichner beschrieb) herumzureiten, könntest du genausogut mal den Versuch einer Erkärung bringen.

Oder lehnst du es grundsätzlich ab, auf den Inhalt von Postings dir evtl. unangenehmer Forenteilnehmer zu reagieren?

Auf meine Bemerkung, das Bild des "Seaplane" betreffend, hast du auch nicht weiter reagiert, außer einem (imho herablassenden) "Aber Quasar, auch mit nV HRAA oder AccuView gibts diese Artefakte in Schriftzügen. (Z.B. in CMR2.)"

Nicht, daß du dazu verpflichtet wärest....

edit:
Sorry, wenn es so klingt, als wenn das ein persönlicher Angriff auf dich ist: SO IST ES KEINESFALLS GEMEINT, mich interessiert einfach nur das FSAA der Parhelia)

nocturne
2002-05-15, 15:47:11
Originally posted by nggalai
Klingt für mich nach Treiber / prerelease Bug.


O.K., gehen wir hier an dieser Stelle mal zugunsten von Matrox davon aus, dass es "nur" ein Treiber-Bug ist (und kein Hardware-Bug oder Fake).
Dann frage ich mich: Was hat denn der TREIBER, also die CPU, mit dem Antialiasing zu schaffen? Das Antialiasing wäre doch eigentlich Sache der Grafik-Hardware und nicht der CPU! Irgendwie würde das doch das Prinzip der Hardwarebeschleunigung ad absurdum führen. Schliesslich sind die Polygonkoordinaten in der Grafikkarte. Wenn die CPU (per Treiber) bei jeder potentiellen Polygon-Kante darüber entscheiden müsste, ob sie gefiltert wird oder nicht, dann wäre diese Form des Kanten-Anti-Aliasing extrem system- und CPU-belastend, oder sehe ich das falsch?

MadManniMan
2002-05-15, 15:48:29
Zum 3dquark-AA:

Sieht mir fast danach aus, als würden nur die Modell-Polys gefiltert. Weiß einer, ob für det Landscape andere Mesh-Klassifiezieringdingens genommen werden? Dann würde sich das Ganze wohl insofern erklären, als dass die Polys für Effekte(Scheinwerfer) und Landschaft wohl einfach anders gehandhabt werden und daher nicht für den Fragmentbuffer bedacht werden.

MadManniMan
2002-05-15, 15:55:59
Blödfug(nicht bös gemeint).

Gehen wir von dem Fall aus, wie ich es mir erkläre, dann würde ein simples Treiberupdate die KARTE dazu veranlassen, keinen Scheiß mehr auszuspucken. Und hast du schon mal von Treibern gehört, die per CPU-Umweg die Hardware ansteuern?

nggalai
2002-05-15, 15:57:42
Hi nocturne,

natürlich geschieht schlussendlich AA auf der Grafikkarte. Aber es sollte wohl einleuchtend sein, dass Treiber einen Einfluss auf die saubere Lauffähigkeit von Hardware haben können, oder? Laut aths werden die Kanten gefiltert, nur halt mit schwarzen Pixeln. Vielleicht wurde im Treiber fürs masking halt "schwarz" hardgecoded? Vielleicht sorgt der Treiber dafür, dass gewisse Speicherbereiche überschrieben werden? Die R200 konnte zuerst auch nur eingeschränkte FSAA-modi, erst mit neuen Treibern wurde das FSAA sauber(er) implementiert. War das ein Hardwarebug?

Und wenn man wie ich von prerelease (vielleicht eben sogar Emulation) spricht, macht der Treiber vielleicht auch ein gaaaanz wenig mehr als in der finalen Hardware . . . ;)

Etc, etc, etc.

Kurz: solange man nicht weiss, wie die Screenshots gemacht wurden (welche Hardware, welche Software), kann man noch stundenlang darüber streiten, was denn die Fehlerursache sein könnte. Da hilft nur warten, bis man's selbst nachprüfen kann.

ta,
-Sascha.rb

aths
2002-05-15, 15:59:30
Quasar,

wegen dem Tonfall im Computerbase-Artikel fürchtete ich auch bei dir eine generelle Parhelia Negativ-Einstellung. (Und ja, ich lehne es ab, Fragen zu beantworten die nur zur Provokation dienten.) Deine Meinung es läge an Matrox' FAA, dass der Schriftzug Fehler hätte, interpretierte ich als ungerechtfertigten Angriff auf Parhelia, da das ein Fehler ist der vermutlich generell durch AA zustande kommt.

Zum 3DMark-Shot. Wie gesagt, auch der Berg unterlief dem FSAA. Allerdings mit schwarzem Hintergrund. Das fällt sofort auf, wenn man sich das Bild im Zoom ansieht. Es handelt sich um einen Fehler im FSAA, nicht darum, dass Teile ausgelassen wurden. Nun ist aber das gesamte Bild suspekt, siehe die 3 fps. Da macht es doch keinen Sinn, anhand ausgerechnet diesen Bildes FAA angreifen zu wollen.

MadManniMan
2002-05-15, 16:05:45
huppala...

Habs mir auch noch mal genauer angesehen und schliße mich fortan aths an :D

nocturne
2002-05-15, 16:50:41
Originally posted by aths
Zum 3DMark-Shot. Wie gesagt, auch der Berg unterlief dem FSAA. Allerdings mit schwarzem Hintergrund
Das erklärt aber nicht die hässliche Kante am Flugzeug-Lichtkegel links unten. Warum schreibst Du darüber nichts? Warum postest Du hier nicht einfach besagtes Bild in Originalgrösse, damit wir uns selber ein Bild machen können?

MadManniMan
2002-05-15, 17:20:16
nocturne....

WIE OFT findet man im netz diese shots? richtig, in jedem billigen preview, wo matrox nach der gusche gekaut wird. außerdem kann man auf den kleinen pics ebenbesagten effekt ebenso gut erkennen.

mapel110
2002-05-15, 17:20:30
ein bild posten um sich ein bild machen zu können ??? aha

wenn in der betreffenden szene nur 3 fps angezeigt wurden, kann es genausogut einfach nur ein bildfehler sein.
wartet doch einfach erste tests des fsaa ab. ansonsten gehört das doch ins spekulatius-forum.
dort kann man noch nicht getestete hardware kritisieren.
.

Quasar
2002-05-15, 17:59:56
Originally posted by aths
Quasar,

wegen dem Tonfall im Computerbase-Artikel fürchtete ich auch bei dir eine generelle Parhelia Negativ-Einstellung. (Und ja, ich lehne es ab, Fragen zu beantworten die nur zur Provokation dienten.) Deine Meinung es läge an Matrox' FAA, dass der Schriftzug Fehler hätte, interpretierte ich als ungerechtfertigten Angriff auf Parhelia, da das ein Fehler ist der vermutlich generell durch AA zustande kommt.

Zum 3DMark-Shot. Wie gesagt, auch der Berg unterlief dem FSAA. Allerdings mit schwarzem Hintergrund. Das fällt sofort auf, wenn man sich das Bild im Zoom ansieht. Es handelt sich um einen Fehler im FSAA, nicht darum, dass Teile ausgelassen wurden. Nun ist aber das gesamte Bild suspekt, siehe die 3 fps. Da macht es doch keinen Sinn, anhand ausgerechnet diesen Bildes FAA angreifen zu wollen.

Anhand des 3D-Mark Bildes will und kann ich Matrox' FAA nicht beurteilen, da stimme ich dir zu. Auch meine These zu den 3fps habe ich hier schon mehr als einmal dargestellt.

Wie dem auch sei, was mich an der FSAA-Präsentation störte, war eben, daß ein Screenshot weiter vorne gerade noch die im Vergleich zu Multisampling (Quincunx?) schärfere Schrift in den Vordergrund gerückt wurde...da kam mir der Seaplane-Screenie etwas, nun ja, ungeschickt ausgewählt vor.

Matrox' Parhelia hat das Zeug zum Killerchip und Tech-Leaders mindestens bis zum Herbst, und selbst falls Fragment-AA sich bei "nur" 80% der Games als lauffähig erweisen sollte, reicht die Rohleistung für die restlichen 20% sicher auch für 4xSSAA. (Nur schade, daß das bei der GF$ (oops, 4 und $ liegen ja ²zufällig" auf derselben Taste ;)) nicht zumindest optional angeboten wird).

btw, "sofort" auffallen...naja, ich habs erst bei 10x-Zoom gemerkt ;)

HOT
2002-05-15, 18:00:02
nix mehr ;)

Razor
2002-05-15, 18:16:41
@aths

"Razor hat Recht, dass GF3 z-korrektes Bumpmapping kann - aber nur in OpenGL. In DirectX kann sie das nicht, und PixelShader 1.1 bzw. 1.3 sind DirectX-Bezeichnungen."

und

"Aber ja Ich habe mich bei einem GF3-Besitzer, der den aktuellen offiziellen Deto benutzt überzeugt, dass PS.1.1 vermeldet wird, und nicht 1.3. Du kannst ja gerne mal versuchen im DX8.1 SDK im PixelShader-Demo die Deklaration des Pixelshaders von 1.0 auf 1.3 zu setzen."

Demnach ist das Tidepool-Demo eine OpenGL-Anwendung ?
(wäre nicht verwunderlich, da ja die meisten...)
Oh ha...

Und warum wurde dies dann genutzt, um den Unterschied von PS1.1 zu PS1.3 zu verdeutlichen ?
Hmmm...
???

Aber schon mal vielen Dank für die Antwort, denn nun hat sich meine 'Verwirrung' etwas gelöst.
Nur 'etwas' deswegen, weil es im Prinzip nicht einzusehen ist, warum dieses Feature unter OpenGL verfügbar ist, nicht aber unter DX. Auch würde mich der Umstand der offiziellen DX8.1-Compliance interessieren... Kann es möglich sein, daß es einmal einen DX-Treiber gab, der für die gf3 PS1.3 unterstützte ? Oder ist es vielmehr so, daß die gf3 bestimmte PS1.3 Eigenschaften mitbringt, welches für die Compliance ausreicht, nicht aber für PS1.3 ?

Fragen über Fragen...
Ich hoffe, daß ich damit nicht nerve.

Werde dann auch damit aufhören, damit wir uns dann dem Sonnenhund widmen können...

Thx nochmal !

Nachtag: Meine diesbezügliche Frage hat sich dann mit Xmas's Kommentar vermutlich auch erledigt...
Ist es also korrekt, daß es für DX8.1 gereicht hat, nicht aber für PS1.3 ?

@Xmas

"Tidepool ist eine OpenGL-Demo. GeForce3 kann Z-korrektes Bumpmapping, erfüllt aber nicht alle Voraussetzungen für PS 1.2/1.3, weshalb ihr auch das Z-korrekte BM unter DirectX verwehrt bleibt."

Ahhhhhh ja !
Jetzt versteh' ich...
:D

Dann war einfach nur das Beispiel etwas unglücklich gewählt. Es wurde lediglich genutzt, um den Unterschied unter DX zu verdeutlichen, auch wenn dazu ein OGL-Beipsiel herangezogen wurde...

Nett...

Thx, Xmas!

@all

Hab' mir jetzt gerade mal Morrowind angeschaut, welches ja bekanntlich DX8-(PS-)Wasser nutzt. Aber leider werden die Begrenzungen nur mit einfachen Polys dargesetllt und nicht mit BM, wodurch dieser Effekt nicht zu beobachten ist... Kann mir jemand vielleicht ein brauchbares DX8-Demo nennen, bei welchem ersichtlich ist, daß kein "Z-korrektes BM" gemacht wird (also z.Bsp. Wasser mit BM-Begrenzungen) ?

-

Zum AA der Parhelia...

Wir können uns darauf einigen, daß die Beispiele, die von Matrox gewählt wurden, um die Leistungsfähigkeit (oder die Qualität) von 16xAA zu demonstrieren, nicht gerade glücklich gewählt wurden. Stimme da nggalai voll zu und ergänze noch: Hätten sie doch nur die Technik anhand von schematischen Zeichnungen dargestellt, ohne dies in die 'wirkliche Welt' zu übertragen, in der es vermutlich noch keine wirklich brauchbaren Treiber gibt (was nicht absonderlich ist, da die Hardware ja auch erst gerade nutzbar ist und das Release noch ein wenig auf sich warten läßt).

Also abwarten und Tee trinken...
Nur richtig von Hocker hauen tut einen das nicht.
(das wird auch der Grund sein, warum hier einige etwas 'gereizt' reagieren...)

Insofern verschieben wir das mit der "Götterdämmerung" und der "neuen Refernz" noch ein wenig, bis wir nähere Info's haben !

In diesem Sinne

Razor

ow
2002-05-15, 19:33:15
Originally posted by oO_KIWI_Oo


Naja aths...da scheiden sich die Geister... ;) Da ich momentan keine ATI habe, kann ich mich in dieser Hinsicht natürlich nicht aus dem Fenster lehnen ;) aber soweit ich weiß ist der OpenGL Treiber bspw. noch einiges von einer vollständigen, standardkonformen Implementation entfernt.


Da hast du recht.
Der Treiber für meine Radeon1 ist immer noch ziemlich buggy.
Da haben PVR und NV mehr zu bieten.

StefanV
2002-05-15, 19:45:01
Originally posted by ow
Da hast du recht.
Der Treiber für meine Radeon1 ist immer noch ziemlich buggy.
Da haben PVR und NV mehr zu bieten.

Wenn PowerVR so gut ist, wie du behauptest, warum haben dann einige enorme Probleme mit der Kyro??

z.B. NFS4, das nicht laufen will...

Exxtreme
2002-05-15, 19:49:23
Originally posted by Stefan Payne


Wenn PowerVR so gut ist, wie du behauptest, warum haben dann einige enorme Probleme mit der Kyro??

z.B. NFS4, das nicht laufen will...
Stefan, es gibt keine perfekten Treiber, weder von nVidia, PVR, Matrox oder sonstwas. Und die Treiberteile, die die R100 benutzt, sollen tatsächlich nicht der Hit sein. Für den normalen Zock langt's meist trotzdem. Diese Probs sind aber mit der R8500 weitgehend behoben.

Gruß
Alex

HOT
2002-05-15, 20:20:14
Jep, und leben kann man auch mit ner Radeon7500. Ich bin aber trotzdem froh, wenn ich endlich meine erste Pixelshaderkarte im rechner hab :D

jedi
2002-05-15, 20:27:16
Originally posted by nocturne

Das erklärt aber nicht die hässliche Kante am Flugzeug-Lichtkegel links unten. Warum schreibst Du darüber nichts? Warum postest Du hier nicht einfach besagtes Bild in Originalgrösse, damit wir uns selber ein Bild machen können?

Die Bilder aus dem PR-Material von Matrox gibt's doch überall auch in höherer Auflösung im Netz. Ich habe mal den höher aufgelösten FSAA-Shot von Hartware genommen und die Hügelkante vergrössert. Hier wird wzwar eine Art Antialiasing gemacht, aber offensichtlich nicht nach heller, sondern nach schwarz, wie ja hier schon einige festgestellt haben:

jedi
2002-05-15, 20:29:05
Und hier ist der Scheinwerferkegel vom Flugzeug, über den aths nicht reden wollte. Offensichtlich läuft hier (im Gegensatz zum oberen Ausschnitt) das Antialising nicht falsch, sondern funktioniert überhaupt nicht:

Demirug
2002-05-15, 20:59:59
@Leonidas

"14.5., 13:03, Seite 1, Spec-Tabelle:
Displacement Mapping beim P10 auf "nein" gesetzt"

Bist du dir sicher das die P10 das wirklich nicht kann?

Auf der 3dlabs Seite steht folgendes:

"Real-time wavelet-based geometry and texture decompression engines that enable reduction in the size of terrain models up to 100 fold;"

Daraus folgt das die P10 in der Lage ist Geometrie unabhängig von der CPU zu erzeugen. Das Displacement Mapping selbst ist dann nur noch eine einfache Operation.

Vielleicht sollte man einfach ein "?" dort einfügen.

Quasar
2002-05-15, 21:32:16
Tim Sweeney, Epic's chief 3D guru working on next-generation Unreal engine technology had this to say about it: "We've had our hands on a Parhelia for the past few days, and have Unreal Tournament 2003 up and running in triple-monitor mode -- it's very immersive, and surprisingly fast (rendering at 1280*3 x 1024)." The UT engine has had adjustable FOV for quite some time now, and UT 2003 obviously does too, so when that title ships this summer, it will in all likelihood support Surround Gaming.
Quelle: nVnews.net (oder habt ihr von mir was anderes erwartet? ;))


Schaut fast so aus, als ob, entgegen meiner urspründlichen Befürchtung, Matrox wirklich schon mehr als einen Prototypen mit verringerter Frequenz hat.

UT2003 im Triple-Head klingt schon nach ziemlich viel Power....

aths
2002-05-15, 22:20:17
Razor,

Das DX8.1 SDK sollte deine Frage klären. Dort wirst du 2 Sachen feststellen:

- GF3 hat PS.1.1

- Der Befehl, der für Z-korrektes Bumpmapping gebraucht wird, ist eine PS.1.3-Befehl.

aths
2002-05-15, 22:39:02
Quasar,

Es ist nicht persönlich gemeint, aber ich muss mich wundern, von dir an anderer Stelle Dinge zu lesen wie:

"Im Gegensatz zu normalem Multisampling gelingt es Matrox ganz offensichtlich, auch innerhalb einzelner Texturen für geringeres Verwischen zu sorgen."

Bekanntlich macht Multisampling an Texturen nichts. Multisampling führt nicht zu Texturflimmern, wie einige gerne behauten, und die Texturen werden auch nicht verwischt, wie andere meinen. (Es mag großkotzig klingen, doch ich hoffte, der FSAA-Artikel stellt das ein für alle mal klar.)

"oder das hier zeitgleich Anisotrope Filterung genutzt wird."

AF hat nur einen Effekt bei schräger Ansicht. (Was Lesern des Filter-Arikels bekannt sein müsste.)

Beides sind Dinge, die meiner Meinung nach geläufig sein sollten. Ausgehend von einer solchen Basis wird nun über Matrox gelästert - es mag mir verziehen werden, dass ich da bei dir etwas gereizt reagiert habe.

MadManniMan
2002-05-15, 22:55:25
jungs, wartet after-release screenies ab und habt euch so lange lieb.

tut mir leid, wenn ich selbst etwas gehetzt habe(wobei ich immernoch meinem geliebten rotated grid supersampling hinterhertrauere...)

Quasar
2002-05-15, 22:59:57
Ich verzeihe dir aths.

Aber ist es nicht so, daß ein Verwischen oder Verzerren (zumindest aber keine Originalgetreue Abbildung mehr) bereits stattfindet, wenn eine Textur nicht 1:1 auf die zur Verfügung stehenden Pixel abgebildet werden kann, oder?

Natürlich ist mit bekannt, daß Multisampling keinen Einfluß auf die Texturen ausübern sollte, und erst recht nicht Matrox' FAA-Implementierung, die ja ausdrücklich nur auf die Kanten (+2-3 Pixel links und rechts davon) wirkt.


Die Geschichte mit dem AF kann ich allerdings nur versuchen mit dem Zeitdruck zu entschuldigen. Das ist tatsächlich Blödsinn. (BTW, wie lange hast du an eurem Artikel geschrieben?)

aths
2002-05-15, 23:51:51
Quasar,

hast du den FSAA-Artikel gelesen? Wenn ja, dann Schande über mich - ich muss mich unverständlich ausgedrückt haben. (Das ist ernst gemeint.)

Multisampling liest pro Pixel einen gefilterten Texel. Dieser wird für das gesamte Pixel verwendet. Multisampling verändert das Aussehen von Texturen in keiner Weise. nVidia macht es (bei 4x-MSAA) so: Ein Texel lesen, in alle 4 Buffer schreiben. (Natürlich nur wenn sie sichtbar sind. Das wird für jedes Sample vorher geprüft.) Die Buffer werden am Ende des Rendervorgangs dann zusammengefiltert, in dem alle entsprechenden Werte gelesen und gemsicht werden. 4 gleiche Farben ergeben im Mittelwert die exakt gleiche Farbe. Da ändert sich nichts.

Das 3DC-Preview entstand unter Zeitdruck, der größte Teil wurde von mir innerhalb von 2 Tagen geschrieben (allerdings stand die Gliederung bereits) und einige bedeutsame Änderungen gab es auf Leos Kritik hin noch direkt in den Stunden vor dem Release. (Insofern macht sich das ganz gut, dass mein Geschreibe vorher durchgeschaut wird: Leos Kritik bedeutete für mich natürlich Mehraufwand, war aber berechtigt. Außerdem steuerte er interessante Gedankengänge bei.)

StefanV
2002-05-15, 23:54:29
Originally posted by Exxtreme
Stefan, es gibt keine perfekten Treiber, weder von nVidia, PVR, Matrox oder sonstwas. Und die Treiberteile, die die R100 benutzt, sollen tatsächlich nicht der Hit sein. Für den normalen Zock langt's meist trotzdem. Diese Probs sind aber mit der R8500 weitgehend behoben.

1. Richtig, hab ICH auch nie behauptet ;)
JEDER Treiber macht Probleme, außer die 3DFX (zumindest bei Games bis mitte 2001) *eg*

2. Jo, das hab ich auch schon gehört...
Die R100 HW scheint also etwas Fehlerhafter als die des R200 zu sein, auch nutzen beide unterschiedliche Treiberteile (ERGO: 2 verschiedene Treiber).

3. Eben, sehe ich genauso!!

4. siehe 2. ;)

Ich versteh echt nicht, warum einige noch den Treiber als Argument nehmen...

Torian.cc
2002-05-15, 23:58:17
Mannomannomann!!!

Ich kann das ganze Negativ-Gerede über den/die Parhelia nicht verstehen...
Und dann die MATROX-Graka mit NVidia oder ATI zu vergleichen, das ist doch für potentielle Käufer total unbedeutend.

Ich sehe ja ein, daß der/die Parhelia NICHT der NVidia/ATI Killer geworden ist, und daß sie wahrscheinlich auch ein paar Features besitzt, bei denen man sich denkt "menschens, dat hätten ´se aber eigentlich anders machen können...".

Aber wenn ich jetzt mal von meiner Person ausgehe, und ich bin mir sicher, daß eine Menge andere Leutz das ebenso sehen (vor allem MATROX -Anhänger ;o) ), dann bin ich jetzt seit (leider) viel zu langer Zeit in Besitz einer ziemlich lahmen Graka, die heute keinen Blumentopf mehr gewinnt. Die G400MAX von MATROX.

Und da ich eben ein MATROX-Fan bin, sehe ich nur den großen Unterschied zwischen der G400MAX und der neuen Parhelia.
Und Ihr müsst zugeben : Das sind zwei verschiedene Welten und die Parhelia ist eigentlich genau DAS, worauf ich die letzten 3 Jahre gewartet habe (wirklich nur ich?).

Aber wenn ich ehrlich bin, haben es schon ein paar Forum-Besucher geschafft, mir sogar den Parhelia ein gaaaaaanz kleines Bissl madig zu machen.

Was mit Sicherheit nicht passieren wird, ist, daß MATROX es schaffen wird, andere Käufer zu finden, als ehemalige, zufriedene MATROX-Kunden. Damit meine ich, daß wohl nicht gerade viele Käufer aus der ATI und NVidia-Ecke auf die Parhelia umsteigen werden.
Dafür fehlt der Parhelia eben leider das gewisse etwas.

Aber das aaaaaaaaaaalles prallt an mir ab!!!
Macht die Parhelia so mies wie Ihr wollt. Und wenn die ersten Benchmarks erscheinen, kann ich garantieren, daß es bestimmt ein Game geben wird, wo der Parhelia vielleicht 2 Frames langsamer sein wird als die GeForce4 und das wird dann ja sicher das Ende der Parhelia für einige Leute bedeuten.

Und das ständige Gerede über Multi- oder Super Sampling..., ich versteht ja leider nicht allzuviel davon, aber meint Ihr wirklich, daß z.B. bei einem schnellen Ego-Shooter tatsächlich dieser kleine optische Unterschied zum tragen kommen wird?
Oder das sich einer dann bei Doom3 in 1024x768 Gedanken darüber macht, ob die saumäßig geile Grafik mit Multi- oder Super Sampling AA so gut aussieht (wenn dann überhaupt noch AA vonnöten ist!?!)?!

Es wird sich immer darüber beschwert, daß bei Ankündigungen von neuen Grafikchips kleine, nichtige Features hochgespielt werden, obwohl sie eigentlich gar nix neues sind, oder soviel der Ehre nicht verdienen.
Aber einige Forum-Besucher (keine Namen) tun genau das selbe.
Ich glaube einfach daran, daß, wenn später (hoffentlich nicht VIEL später ...) diese schicke Graka in meinem Rechner werkelt, JEDES Game saugut aussehen wird, JEDES Game schnell genug laufen wird und JEDES Game funktionieren wird!
Ob mit oder ohne Super-Sampling (mal ´ne Frage..., hieß das überhaupt Super Sampling?)!

Sooo, das musste jetzt raus ;o)

Und an alle anderen MATROX-schon-lange-wartenden-und-gerne-kaufen-würdenden : Lasst Euch durch solche Miesmacher-Threads nicht entmutigen (bei mir hätten sie es fast geschafft, aber nut fast ;o) ), das Teil wird garantiert einsame Spitze!!
Wahrscheinlich wird die NV30 und die R300 besser, aber wen störts...

MfG
Tori
__________

MATROX RULEZ

StefanV
2002-05-16, 00:02:46
Originally posted by Quasar
Schaut fast so aus, als ob, entgegen meiner urspründlichen Befürchtung, Matrox wirklich schon mehr als einen Prototypen mit verringerter Frequenz hat.

UT2003 im Triple-Head klingt schon nach ziemlich viel Power....

Was dachtest du denn??

Matrox wird die Dinger mindestnes Produktionsreif haben, wenn nicht schon 'auf Halde'...

Laut Haig soll es ja bald Benchmarks davon geben *eg*

Außerdem wird das Teil über eine SQ verfügen, die seinesgleichen sucht...

Im Gegensatz zu MGA sind ATI und der Rest der Welt, was TV Out und SQ betrifft nur Dreck ;)

Auch die Bedienbarkeit der Treiber ist bei MGA immer Spitze gewesen...

Quasar
2002-05-16, 00:09:57
Originally posted by aths
Quasar,

hast du den FSAA-Artikel gelesen? Wenn ja, dann Schande über mich - ich muss mich unverständlich ausgedrückt haben. (Das ist ernst gemeint.)

Multisampling liest pro Pixel einen gefilterten Texel. Dieser wird für das gesamte Pixel verwendet. Multisampling verändert das Aussehen von Texturen in keiner Weise. nVidia macht es (bei 4x-MSAA) so: Ein Texel lesen, in alle 4 Buffer schreiben. (Natürlich nur wenn sie sichtbar sind. Das wird für jedes Sample vorher geprüft.) Die Buffer werden am Ende des Rendervorgangs dann zusammengefiltert, in dem alle entsprechenden Werte gelesen und gemsicht werden. 4 gleiche Farben ergeben im Mittelwert die exakt gleiche Farbe. Da ändert sich nichts.

Das 3DC-Preview entstand unter Zeitdruck, der größte Teil wurde von mir innerhalb von 2 Tagen geschrieben (allerdings stand die Gliederung bereits) und einige bedeutsame Änderungen gab es auf Leos Kritik hin noch direkt in den Stunden vor dem Release. (Insofern macht sich das ganz gut, dass mein Geschreibe vorher durchgeschaut wird: Leos Kritik bedeutete für mich natürlich Mehraufwand, war aber berechtigt. Außerdem steuerte er interessante Gedankengänge bei.)

aths, du hast natürlich recht, ich bin heute wohl nicht so wirklich bei der Sache...Vielleicht geht's mit ja morgen besser (und vor allem: vielleicht habe ich morgen mehr Schlaf intus...)

In diesem Sinne, gute Nacht!

harkpabst_meliantrop
2002-05-16, 00:12:16
Originally posted by Stefan Payne
1. Richtig, hab ICH auch nie behauptet ;)
JEDER Treiber macht Probleme, außer die 3DFX (zumindest bei Games bis mitte 2001) *eg*
Na, da hättest du das evil grin aber besser nach oben, und den Smiley besser nach unten gemacht.

Für die Voodoo3 gab's monatelang Treiber, bei denen sich Wait_for_VSync nicht wirklich ausschalten ließ (obwohl es im Kontrollfeld so stand), die ehedem riesige POD-Gemeinde hat daraufhin "CPU-Eater" Programme entwickelt, um das Spiel auch auf einer V3 noch spielen zu können (bei POD ändert sich mit der Framerate leider auch die Spielgeschwindigkeit).

Mit der Voodoo5 habe ich ... nehmen wir z.B. mal POD :D gar nicht vernünftig ans Laufen bekommen. Der Tastaturpuffer ??? lief immer nach ein paar Sekunden über ...

Bei den Voodoo2-Treibern (die unmodifiziert ja z.B. gar nicht mit einem Athlon laufen) gab es häufig Darstellungsfehler im ControlPanel, so dass man gar nicht immer alles Lesen konnte und - zum krönenden Abschluss - die deutsche Übersetzung der Voodoo5-Treiber-Kontrollfelder (gegen deren Benutzung man sich ja bei einem deutschen Windows noch nichtmal wehren konnte) war - sagen wir's positiv - unbeschreiblich.

Andererseit: Nehmen wir mal irgendein Spiel .... POD auf Voodoo2 SLI mit Pentium MMX250 ... das war was, wofür es sich zu leben gelohnt hat ...

Fast so gut, wie die G400 hinterher ;D

Quasar
2002-05-16, 00:17:37
Originally posted by Torian.cc
Aber wenn ich ehrlich bin, haben es schon ein paar Forum-Besucher geschafft, mir sogar den Parhelia ein gaaaaaanz kleines Bissl madig zu machen.

Sorry, wenn ich dazu beigetragen haben sollte...


Was mit Sicherheit nicht passieren wird, ist, daß MATROX es schaffen wird, andere Käufer zu finden, als ehemalige, zufriedene MATROX-Kunden. Damit meine ich, daß wohl nicht gerade viele Käufer aus der ATI und NVidia-Ecke auf die Parhelia umsteigen werden.
Dafür fehlt der Parhelia eben leider das gewisse etwas.

Nein, ganz im Gegenteil, er scheint dieses gewisse Etwas durchaus zu haben, nämlich den Nimbus des Erhabenen!


Aber das aaaaaaaaaaalles prallt an mir ab!!!
Macht die Parhelia so mies wie Ihr wollt. Und wenn die ersten Benchmarks erscheinen, kann ich garantieren, daß es bestimmt ein Game geben wird, wo der Parhelia vielleicht 2 Frames langsamer sein wird als die GeForce4 und das wird dann ja sicher das Ende der Parhelia für einige Leute bedeuten.

Und dafür erscheint dann mind. 1 Game, das DM unterstützt....und DAS wird mächtig Eindruck schinden.


Und das ständige Gerede über Multi- oder Super Sampling..., ich versteht ja leider nicht allzuviel davon, aber meint Ihr wirklich, daß z.B. bei einem schnellen Ego-Shooter tatsächlich dieser kleine optische Unterschied zum tragen kommen wird?
Oder das sich einer dann bei Doom3 in 1024x768 Gedanken darüber macht, ob die saumäßig geile Grafik mit Multi- oder Super Sampling AA so gut aussieht (wenn dann überhaupt noch AA vonnöten ist!?!)?!


Nein, das wird sicher nicht auffallen, zumal es eh nur in 3-4Pixel breiten Streifen an den Kanten zum Einsatz kommt.


Es wird sich immer darüber beschwert, daß bei Ankündigungen von neuen Grafikchips kleine, nichtige Features hochgespielt werden, obwohl sie eigentlich gar nix neues sind, oder soviel der Ehre nicht verdienen.
Aber einige Forum-Besucher (keine Namen) tun genau das selbe.
Ich glaube einfach daran, daß, wenn später (hoffentlich nicht VIEL später ...) diese schicke Graka in meinem Rechner werkelt, JEDES Game saugut aussehen wird, JEDES Game schnell genug laufen wird und JEDES Game funktionieren wird!
Ob mit oder ohne Super-Sampling (mal ´ne Frage..., hieß das überhaupt Super Sampling?)!

Auf die eine oder andere Weise wirst du sicher jedes Spiel zur Mitarbeit bewegen können, und wenn es "nur" geschmeidig in 1600x1200 + AF ist.


Sooo, das musste jetzt raus ;o)
Und an alle anderen MATROX-schon-lange-wartenden-und-gerne-kaufen-würdenden : Lasst Euch durch solche Miesmacher-Threads nicht entmutigen (bei mir hätten sie es fast geschafft, aber nut fast ;o) ), das Teil wird garantiert einsame Spitze!!
Wahrscheinlich wird die NV30 und die R300 besser, aber wen störts...


Natürlich werden sie besser, weil sie später erscheinen. Und das ist ja meistens ein Zeichen für technischen Fortschritt. Sie werden besser, so wie der Radeon technisch besser als der GeForce ist und die Parhelia besser als diese Beiden. So ist das eben, aber ob sie DM-Hardware haben werden.....vielleicht das neue Alleinstellungsmerkmal von Matrox.

StefanV
2002-05-16, 00:43:17
Originally posted by harkpabst_meliantrop

Na, da hättest du das evil grin aber besser nach oben, und den Smiley besser nach unten gemacht.

Für die Voodoo3 gab's monatelang Treiber, bei denen sich Wait_for_VSync nicht wirklich ausschalten ließ (obwohl es im Kontrollfeld so stand), die ehedem riesige POD-Gemeinde hat daraufhin "CPU-Eater" Programme entwickelt, um das Spiel auch auf einer V3 noch spielen zu können (bei POD ändert sich mit der Framerate leider auch die Spielgeschwindigkeit).

Mit der Voodoo5 habe ich ... nehmen wir z.B. mal POD :D gar nicht vernünftig ans Laufen bekommen. Der Tastaturpuffer ??? lief immer nach ein paar Sekunden über ...

Bei den Voodoo2-Treibern (die unmodifiziert ja z.B. gar nicht mit einem Athlon laufen) gab es häufig Darstellungsfehler im ControlPanel, so dass man gar nicht immer alles Lesen konnte und - zum krönenden Abschluss - die deutsche Übersetzung der Voodoo5-Treiber-Kontrollfelder (gegen deren Benutzung man sich ja bei einem deutschen Windows noch nichtmal wehren konnte) war - sagen wir's positiv - unbeschreiblich.

Andererseit: Nehmen wir mal irgendein Spiel .... POD auf Voodoo2 SLI mit Pentium MMX250 ... das war was, wofür es sich zu leben gelohnt hat ...

Fast so gut, wie die G400 hinterher ;D

1. nu ists egal...

2. naja, daß der VSync immer auf on ist, sehe ich nicht wirklich als schlimm an ;)
Bei der Radeon 8500 ists momentan teilweise andersrum (läßt sich nicht aktivieren)...

3. seltsam, hättest wohl mal die V3 Treiber versuchen sollen ;)

4. komisch, ich hatte auf meinem Athlon mit den letzten Original 3DFX Treibern keine Probleme mit der VOodoo2, hatte nur Probs beim SLI...

5. Wetten, daß du unter einem dt. Windows auch englische Controlpanels haben kannst??
Bei MGA ists ja gaanz einfach, einfach die entsprechende Sprache auswählen ;)
Aber es geht generell auch für andere Programme!!!!
DAS weiß nur kaum einer, wies geht (ich habs rausgefunden, als ich mich gewundert hab, warum ich unter einem engl Win2k auf ein dt. Panel blicke)...

6. hatte zu 'Lebzeiten' der Voodoos nur mal eine Voodoo1, die anderen Voodoos hab ich erst seit kurzem (schande über mich, aber ich hatte halt kein Geld), kann dazu leider nicht viel sagen...

7. jo, die G400 war klasse!!
Hab sie mir damals geholt, als die GF1 SDR gerade rauskam, hätte ich genug Geld gehabt, dann hätte ich eine MAX in einer hübschen Verpackung gehabt, so hatte ich leider nur 'ne G400 Bulk :-/
Aber die Karte war schon klasse, auch wenn ich für 50DM mehr 'ne GF1 SDR gehabt haben könnte, hab den Kauf der G400 KEINE SEKUNDE bereut, höchstens als ich sie gegen eine GF1 DDR getauscht hab ;)

Xmas
2002-05-16, 01:45:46
Originally posted by Demirug
@Leonidas

"14.5., 13:03, Seite 1, Spec-Tabelle:
Displacement Mapping beim P10 auf "nein" gesetzt"

Bist du dir sicher das die P10 das wirklich nicht kann?

Auf der 3dlabs Seite steht folgendes:

"Real-time wavelet-based geometry and texture decompression engines that enable reduction in the size of terrain models up to 100 fold;"

Daraus folgt das die P10 in der Lage ist Geometrie unabhängig von der CPU zu erzeugen. Das Displacement Mapping selbst ist dann nur noch eine einfache Operation.

Vielleicht sollte man einfach ein "?" dort einfügen.
Wohl besser. Aber das Problem bei DM ist, dass den Geometrieeinheiten dann auch eine Textureinheit zur Seite stehen muss.

Unregistered
2002-05-16, 02:50:11
Originally posted by Torian.cc

Ich sehe ja ein, daß der/die Parhelia NICHT der NVidia/ATI Killer geworden ist, und daß sie wahrscheinlich auch ein paar Features besitzt, bei denen man sich denkt "menschens, dat hätten ´se aber eigentlich anders machen können...".

Und da ich eben ein MATROX-Fan bin, sehe ich nur den großen Unterschied zwischen der G400MAX und der neuen Parhelia.
Und Ihr müsst zugeben : Das sind zwei verschiedene Welten und die Parhelia ist eigentlich genau DAS, worauf ich die letzten 3 Jahre gewartet habe (wirklich nur ich?).

Aber wenn ich ehrlich bin, haben es schon ein paar Forum-Besucher geschafft, mir sogar den Parhelia ein gaaaaaanz kleines Bissl madig zu machen.

Was mit Sicherheit nicht passieren wird, ist, daß MATROX es schaffen wird, andere Käufer zu finden, als ehemalige, zufriedene MATROX-Kunden. Damit meine ich, daß wohl nicht gerade viele Käufer aus der ATI und NVidia-Ecke auf die Parhelia umsteigen werden.
Dafür fehlt der Parhelia eben leider das gewisse etwas.

Und das ständige Gerede über Multi- oder Super Sampling..., ich versteht ja leider nicht allzuviel davon, aber meint Ihr wirklich, daß z.B. bei einem schnellen Ego-Shooter tatsächlich dieser kleine optische Unterschied zum tragen kommen wird?
Oder das sich einer dann bei Doom3 in 1024x768 Gedanken darüber macht, ob die saumäßig geile Grafik mit Multi- oder Super Sampling AA so gut aussieht (wenn dann überhaupt noch AA vonnöten ist!?!)?!

Wahrscheinlich wird die NV30 und die R300 besser, aber wen störts...

MATROX RULEZ

Sorry, aber für so einen Matrox-Rulez-Blödsinn gebe ich doch nicht 500 EUR aus, das sind immerhin 1000 DM! Matrox sucks in OpenGL, da müssen ihre Treiberprogrammierer noch viel lernen. Displacement Mapping ist ja ganz nett, aber bis das in Spielen wirklich genutzt wird, werden noch Jahre vergehen und bis dahin ist das Ding veraltet.

Was bleibt also für ein Vorteil für die nähere Zukunft? Eine DX8-Karte mit schnellerem Anti-Aliasing, das noch nicht mal funktioniert, wie die Matrox-eigenen Vorzeige-Screenshots zeigen!
Und da Du dieses (noch nicht mal funktionierende) Anti-Aliasing sowieso nicht willst (wie Du schreibst), dann bleibt Dir letztendlich GAR nichts.

Und dafür über 1000 DM oder mehr ausgeben, nur wegen des Matrox-Logos? Nein danke.

Razor
2002-05-16, 06:40:07
Originally posted by aths
Razor,

Das DX8.1 SDK sollte deine Frage klären. Dort wirst du 2 Sachen feststellen:

- GF3 hat PS.1.1

- Der Befehl, der für Z-korrektes Bumpmapping gebraucht wird, ist eine PS.1.3-Befehl.
Hmmm...
Mir ist klar, daß von Treibern lediglich PS1.1 gemeldet wird, wenn eine gf3 initialisiert wird. Aber warum soll es nicht möglich sein, diese Funktion ("Z-korrektes BumpMapping") unabhängig vom PS1.3 zu nutzen, wie unter OpenGL ja offensichtlich möglich ? Kenne mich nun nich sonderlich mit der DX-Programmierung aus, so verlasse ich mich nun dahingehend auf Deine Aussage, aths.

Ist es also so, daß für "Z-korrektes BumpMapping" zwingend der PS1.3 initialisiert werden muß ?

Hier noch ein Kommentar von NV-Guru David Kirk (Interview bei Hardwarezone.it (http://www.hwzone.it/html/text.php?id=282)):
Regarding Pixel shaders 1.4, although it was heavily marketed by ATI, I don't see it as anything but a reformulation of DX8 to be easier for ATI products to run. There is no picture that I know of that can be made with PS1.4 that cannot be made with PS1.0 or PS1.1. Further, there is a huge installed base of compatible GeForce3, GeForce4, and XBOX, which all implement essentially the same version of PS, which developers already know how to program. Why would they want to learn a new PS, which has essentially no installed base?
Welcher so ziemlich das ausdrückt, was mir bisher auch zu dem Thema durch den Kopf gegangen ist. Vor allem aber die beiden Passagen, die ich oben hervor gehoben habe:

1) Welche visuelle Darstellung soll mit PS1.4 möglich sein, was mit PS1.1 (1.2/1.3) nicht möglich ist.

2) Ist der Unterschied von PS1.1 zu PS1.3 wirklich soooo groß ?

Der erste Punkt konnte mir bisher nur theoretisch beantwortet werden, da es kein (unabhängiges) Demo gibt, was diesen Sachverhalt klärt. Und das ATI seine Demo's nur auf ATI-Hardware laufen läßt, ist für mich kein schlüssiger Beweis !
;-)

Der zweite Punkt ist wohl nur ein Treiber-Prob, denn was ich bisher über die Funktion "Z-korrektes BumpMapping" weiß - ist wohl die Funktion, die mit den PS1.3 dazu gekommen ist - daß sie wohl in Hardware implementiert ist (identisch, was gf3 und gf4ti angeht, sonst würde das Tidepool-Demo nicht auf beiden Chips laufen), aber der Treiber diese Funktion nur für OpenGL frei gibt, bzw. die gf3 unter D3D8 auf PS1.1 begrenzt.

So wirft es denn die Frage auf, ob der PS1.3 unter D3D8 nur deswegen nicht verfügbar ist, weil ev. PS1.2 nicht voll unterstützt wird ? Will sagen, daß eine Hardware, die PS1.3 voll unterstützt, ja abwärtskompatibel sein muß, somit PS1.2 voll unterstützen muß, welches wiederum PS1.1 voll unterstützt.

So langsam kommen wir den Dingen näher...

Und dewegen meine Frage: Was macht/kann PS1.2 ?
???

Ich hoffe wirklich, nicht uneinsichtig zu klingen. Nur würde ich dieses Thema wirklich gern ein für allemal abhandeln. Auch hat es indirekt mit dem Parhelia zu tun, da es (nach Kirk David und allem, was ich bisher gesehen habe) u.U. gar kein Nachteil ist, PS1.4 nicht zu unterstützen, da die Möglichkeiten gar nicht unbedingt größer sind, sondern lediglich die Hardware der R8500 direkter unterstützen, als es die PS bis 1.3 tun...

Bis denne

Razor

Torian.cc
2002-05-16, 07:02:03
@unregistered

Hm, ich merke schon, daß ich mich nicht sonderlich gut ausgedrückt habe...

Daß ich AA nicht haben will, habe ich nirgends gesagt, und meinte ich eigentlich auch nicht so.
Das einzige, was ich damit sagen wollte, ist, ob man bei modernen Grafikengines vom Schlag Unreal2 (hieß die nicht Warfare?) und Doom3 überhaupt noch AA benötigen wird!
Natürlich..., solch ein Game in 640x480 oder in 1280x1024 zu spielen und trotzdem die gleiche Bildqualität zu haben, da ist schon was dran. Ich glaube nur, daß zumindest meinereiner bei 1280x1024 OHNE AA mit z.B. einer Parhelia Doom3 immer noch schnell genug spielen können wird.

Oki, eigentlich kann ich beim Thema AA und dadurch erreichte Bildqualität bei geringerer Auflösung nicht mitreden, weil mir solche Features im Gegensatz zur GeForce2-4 und ATI 7500+8500 mit meiner G400MAX nicht VERGÖNNT sind, aber ich behaupte mal, daß man den Unterschied ab einer bestimmten Auflösung bei ein- bzw. ausgeschaltetem AA nicht mehr erkennen können wird.
Und wenn es dann auch bei 1280x1024 noch richtig gut flutscht, ist das AA dann eben nicht mehr nötig! (Denkfehler bitte berichtigen!)

Wenn ich ehrlich bin, habe ich mir vor vielen Jahren die erste MATROX-Graka tatsächlich deshalb gekauft,weil sie 'damals' tatsächlich die beste Leistung bieten konnte (zum hohen Preis) und weil ihr schon damals der Ruf "des Besonderen" anhaftete.

Als dann später irgendwann die ersten 3DFX + NVidia Grakas auftauchten, hat mich 1. die Unüberschaubarkeit der Produkte, 2. die meiner Meinug nach viel zu kurzen Neuerscheinungsintervalle davon abgehalten, mir eine solche Graka zu kaufen.

Natürlich wäre es vermessen, zu bestreiten, daß NVidia mit jeder Neuerscheinung immer wieder einen oben drauf zu setzen.
Obwohl oftmals "nur" der Takt angehoben wird, und ein paar Features hinzugefügt werden, die eben manchmal sinnvoll, manchmal sinnlos sind, schlägt es mir beim lesen derer jedesmal den Löffel quer ins Müsli, weil NVidia es immer wieder schafft, den Eindruck zu erwecken, daß genau diese neuen Features DAS waren, worauf die Menschheit nur gewartet hat!
Und nicht gerade selten liegen sie sogar goldrichtig damit.

Eine Graka zu kaufen, nur weil "MATROX" oder-was-weiß-ich auf der Platine steht ist natürlich dumm, aber wenn ich sehe, wie MATROX mit der Parhelia zur GeForce3 oder GeForce4 aufgeholt hat, ist mir das Kaufgrund genug!

Ich hoffe mal, daß der Parhelia leistungsstark genug ist, mich die nächsten 3 Jahre über die Runden zu bringen, und das bei einer Grafik, die nicht so aussieht, wie jetzt Aquanox auf meiner G400MAX.


@Quasar

Sollte DM am Ende tatsächlich nur von MATROX unterstützt werden, ist es eigentlich auch egal, wenn nur ein DM-orientiertes Game herauskommt.
Was mich jetzt bei den ersten Benchmarks interessiert ist, ob die "Rohleistung" wirklich so fantastisch wird, wie man annimmt.
Aber davon wird man, bei den jetzt bekannten Daten ja wohl ausgehen können, oder? ;o)

MfG
Tori
__________

MATROX RULEZ

mirp
2002-05-16, 07:34:15
Diese Rumnörgelei am Parhelia beeindruckt mich keine Sekunde. Was da für seltsame Kritikpunkte kommen, ist eher belustigend. Die Leute sollten erst mal nachdenken, bevor sie sich was aus den Fingern saugen. ;)

z.B. Was Matrox vor ein paar Jahren (in der Anfangszeit der 3D-Karten!) für Schwächen in den Treibern hatte, ist doch heute mehr als irrelevant. Wie wäre es, wenn wir die kommenden Karten von ATI und nVidia anhand damaliger Treiber vorverurteilen würden. Auf so eine dumme Idee kommt doch auch keiner. ;)

Die Parhelia sehe ich nicht als Konkurrenz zu den Grafikkarten von ATI, nVidia, PowerVR, etc. Das wird eine zeitlose Karte, die viel bietet und bei der man nicht schon vor dem Release über den Nachfolger spekuliert. Die anderen Karten machen auf mich einen eher improvisierten Eindruck um schnell Geld zu machen.

Nachdem meine G400 zu langsam war, hab ich eine Irrfahrt bei den Karten von nVidia, PowerVR und ATI hinter mir. Bei jeder hatte ich schon nach wenigen Tagen Zweifel, ob die Entscheidung richtig war. Damals hätte ich mir einfach eine Voodoo5 holen und dann auf die nächste schnelle Matroxkarte warten sollen.

Andre
2002-05-16, 09:37:07
Ich muss mich immer wieder wundern, wie hier nicht belegbare Aussagen über den Parhelia gemacht werden.

Keiner kann sagen, ob die SQ gut ist - wird aber lustig behauptet.
Keiner kann sagen, dass die Treiber gut sind - oder hat die schon jemand?
Keiner kann sagen, ob es HW-Probleme gibt - oder hat jemand ein Referenzboard?
Keiner kann sagen, wie das AA nun wirklich funktioniert - oder hat es jemand schon im Treiber gesehen?
Keiner kann sagen, wie die Performance ist - oder hat schon jemand mit der Karte gezockt?

Ich würde etwas vorsichtig mit Äußerungen sein, die den Parhelia jetzt schon krönen, obwohl nur der Chip da ist - und vielleicht Testsamples.
Und Payne:
Warst DU im lager von Matrox oder woher weißt, dass die Karte schon auf Halde gibt?

aths
2002-05-16, 09:58:54
Razor,

Kirk sagte: "There is no picture that I know of that can be made with PS1.4 that cannot be made with PS1.0 or PS1.1"

Also sinngemäß: "Es gibt kein Bild von dem ich weiss dass es mit PS.1.4, aber nicht 1.0 oder 1.1 gerendert werden kann." Er spricht einerseits nur exisistente Bilder an, meint aber andererseits nur die, die er kennt. Etwas weniger blumig formuliert hat Kirk gesagt: "Ob PixelShader 1.4 besser oder schlechter ist interessiert nicht, da unsere (1.1-er) Hardware viel weiter verbreitet ist."

Es ist allerdings auch klar, dass die Erweiterungen zum PixelShader 1.3 ja nicht umsonst vorgenommen wurden. So gibt es texdp3 und cmperst ab Version 1.2, dp4 ebenso. cmp ließe sich nun mit PS.1.1 "emulieren", weil es sich nur um eine verkürzte Schreibweise von 2 Befehlen handet (und in der Tat zählt cmp auch wie 2 Befehle: -0.5, und dann Vergleich auf >=0.5. Damit wirkt cmp wie ein Vergleich auf >=0.) Ich wüsste aber z.B. nicht, wie sich texm3x2depth emulieren lassen sollte. (Dieser Befehl wird für Z-korrektes Bumpmapping benötigt.)

aths
2002-05-16, 10:05:04
Torian.cc, Quasar,

zumindest wenn das FAA funzt, sollte es auf alle Fälle sofort bemerkt werden - auch in Shootern. Der Sprung von "Treppen" zu "praktisch keine Treppen" (Parhelia) ist doch etwas größer als der von "Treppen" zu "reduzierten Treppen" (GF3/4).

(Einige haben nicht 'den Blick' dafür, aber fast jedem dem ich zur Demo 640x480 (oder 800x600) in Quake3 erst ohne, und dann mit 2x FSAA zeigte, frage ob das jetzt eine höhere Auflösung sei. Sowohl nVs HRAA als auch Matrox' FAA sind effizienter als über die Auflösung zu gehen.)

Unregistered
2002-05-16, 10:09:38
Originally posted by Razor

Und dewegen meine Frage: Was macht/kann PS1.2 ?
???


PS1.2 führt folgende Instruktionen gegenüber PS1.1 ein:

Arithmetic instructions:
- cmp
- dp4

Texture address instructions:
- texdp3
- texdp3tex
- texm3x3
- texreg2rgb

PS1.3 führt folgende Instruktionen gegenüber PS1.2 ein:


Texture address instructions:
- texm3x3depth

Die spannende Frage lautet jetzt: welche PS1.2 Instruktion frißt die GF3 nicht. Ein genauer Vergleich mit den OpenGL Specs sollte das eigentlich offenlegen *g*

Pitchfork

Unregistered
2002-05-16, 10:13:30
Originally posted by Demirug
@Leonidas

"14.5., 13:03, Seite 1, Spec-Tabelle:
Displacement Mapping beim P10 auf "nein" gesetzt"

Bist du dir sicher das die P10 das wirklich nicht kann?

Auf der 3dlabs Seite steht folgendes:

"Real-time wavelet-based geometry and texture decompression engines that enable reduction in the size of terrain models up to 100 fold;"

Daraus folgt das die P10 in der Lage ist Geometrie unabhängig von der CPU zu erzeugen. Das Displacement Mapping selbst ist dann nur noch eine einfache Operation.

Vielleicht sollte man einfach ein "?" dort einfügen.

Das hängt unter anderem von der Frage ab, ob P10 in der Vertex Shader Einheit auf Texturen (oder ähnliche Speicherbereiche) zugreifen kann oder nicht. Und mit den bisher bekannten Informationen (vor allen Dingen dem Blockdiagramm aus dem Preview) würde ich sagen: nein.

Pitchfork

Demirug
2002-05-16, 10:23:51
Originally posted by Unregistered


Das hängt unter anderem von der Frage ab, ob P10 in der Vertex Shader Einheit auf Texturen (oder ähnliche Speicherbereiche) zugreifen kann oder nicht. Und mit den bisher bekannten Informationen (vor allen Dingen dem Blockdiagramm aus dem Preview) würde ich sagen: nein.

Pitchfork

Warum nicht?

Wenn der P10 in der Lage ist ein in der GraKa gespeichertes Wavelet in Geometrie umzuwandeln muss das auch mit einer Displacement Map möglich sein.

Zum anderen hat das Teil ja keinen Vertex Shader im normalen Sinn.

zeckensack
2002-05-16, 10:33:25
Originally posted by Demirug
Warum nicht?

Wenn der P10 in der Lage ist ein in der GraKa gespeichertes Wavelet in Geometrie umzuwandeln muss das auch mit einer Displacement Map möglich sein.Sehe ich ganz genauso. Was möglicherweise an Nachteil werden könnte, ist daß das 'festverdrahtete' DM bei Matrox ja adaptiv arbeiten soll, sprich Geometriemipmaps (in Ermangelung eines passenderen Begriffs) benutzt. Dafür braucht's dann spezielle Addressierungs- und Filtereinheiten.
Ganz ab davon, daß man das auf dem P10 sehr wahrscheinlich auch programmieren kann, ist die Matrox-Variante wirklich sehr elegant und wird, was die Effizienz angeht, wohl kaum zu toppen sein.

aths
2002-05-16, 10:36:48
Bevor 3DLabs nicht sagt, dass sie HDM supporten können, gehe ich davon aus dass sie es nicht können.

HOT
2002-05-16, 10:53:48
Jep, ich denke die Chance steht 50/50

aths
2002-05-16, 11:10:25
:) Das ist ein Grundfehler in der Stochastik, eine unbekannte Wahrscheinlichkeit als Halbe-Halbe anzusehen.

Unregistered
2002-05-16, 11:30:09
Originally posted by Demirug


Warum nicht?

Wenn der P10 in der Lage ist ein in der GraKa gespeichertes Wavelet in Geometrie umzuwandeln muss das auch mit einer Displacement Map möglich sein.

Zum anderen hat das Teil ja keinen Vertex Shader im normalen Sinn.

Wenn wir jetzt mal davon ausgehen daß die Geometrieeinheit des P10 ähnlich der VU1 der PS2 arbeitet, nämlich voll programmierbar mit einem gewissen Speicherbereich, dann muß man mal sehen. Dann würde das von der Größe des Speicherbereiches abhängen. Und wenn sogar direkter Zugriff auf den gesamten Gfxspeicher besteht, dürfte dem DM wohl nichts im Wege stehen... warten wirs ab, bis die Specs des P10 zur Verfügung stehen.

Pitchfork

Leonidas
2002-05-16, 12:33:50
Originally posted by Xmas

Wohl besser. Aber das Problem bei DM ist, dass den Geometrieeinheiten dann auch eine Textureinheit zur Seite stehen muss.


Richtig, und das kann der P10 wohl nicht. Ergo steht dort nun vorläufig nein da.

harkpabst_meliantrop
2002-05-16, 13:18:33
Originally posted by Stefan Payne
[/size]2. naja, daß der VSync immer auf on ist, sehe ich nicht wirklich als schlimm an ;)
Bei der Radeon 8500 ists momentan teilweise andersrum (läßt sich nicht aktivieren)...
Ähhhh, sorry. War natürlich genau so gemeint, VSync ließ sich nicht einschalten. Sonst wär's wohl kaum zu schnell geworden.

4. komisch, ich hatte auf meinem Athlon mit den letzten Original 3DFX Treibern keine Probleme mit der VOodoo2, hatte nur Probs beim SLI...
Gaaaanz sicher, dass das wirklich die letzten Referenztreiber waren? Der "Hack" bestand nämlich nur aus dem Ersetzen einer der Treiberdateien (hab vergessen, welche) durch eine ältere Version und einer entsprechenden Anpassung des INF-Files. Auf dem Duron meines Bruders ging die Voodoo 2 definitiv nur so und einige Webseiten haben fertig gepatchte Athlon/Duron-Treiber zum Download angeboten ...

5. Wetten, daß du unter einem dt. Windows auch englische Controlpanels haben kannst??
Bei MGA ists ja gaanz einfach, einfach die entsprechende Sprache auswählen ;) Kann schon sein, aber netter wär's ja doch gewesen, wenn man über die UI hätte auswäheln können oder - noch besser - wenn die deutschen Übersetzungen nicht so grottenschlecht gewesen wären. Naja, nicht dass es mich noch besonders interessieren würde ...

7. jo, die G400 war klasse!!
Hab sie mir damals geholt, als die GF1 SDR gerade rauskam, hätte ich genug Geld gehabt, dann hätte ich eine MAX in einer hübschen Verpackung gehabt, so hatte ich leider nur 'ne G400 Bulk :-/
Tja, G400 bulk 16 MB SGRAM ohne DH. Damals knapp 300 DM und läuft heute noch im Kindercomputer. Für Löwenzahn und Maus-CD reicht's sowieso ;) und wenn man sich auf 640x480x16 beschränkt, ist sogar Colin McRae Rally 2 problemlos spielbar.

POD mit 2 Voodoo2 war - wie beiläufig erwähnt - wirklich beeindruckend. Mit Getrickse in 800x600 spielbar, Framerate auf 75 fps genagelt. Aber als ich dann die Texturqualität auf der G400 unter DX gesehen habe, bin ich fast hintenüber gefallen. Nur der 800x600-Trick funzte mit DirectX leider nicht :-(

Und damit ich auch noch mal was zum Parhelia gesagt habe: Ich habe bisher - außer duch meinen "präpubertären Avatar" (oder wie das hieß, aths hat das Original ja leider(?) gelöscht) behauptet, das der Parhelia der absolut größte und tollste Oberhammer würde. Aber die Diskussion hat doch wohl vor allem eins gezeigt:

Man kann - überraschenderweise - am Marketingmaterial zu einem neu angekündigten Chip nicht endgültig belegen, ob und wie gut die versprochenen Features denn nun funktionieren werden. Aber wenn die fertige Karte auch nur den größeren Teil der Vorgaben (und die sind interessant) einlöst, dann weiß ich nicht, warum die nicht auch im Herbst noch einen Preis rechtfertigen soll, wie er jetzt für eine GF4 Ti4600 verlangt wird.

Bis dahin warte ich in aller Ruhe ab und freue mich einfach, dass Matrox - entgegen allem nachtmusikalischen Geunke - doch in für Gamer interessante Gefilde zurückgekehrt ist.

StefanV
2002-05-16, 13:50:14
Originally posted by mirp
Diese Rumnörgelei am Parhelia beeindruckt mich keine Sekunde. Was da für seltsame Kritikpunkte kommen, ist eher belustigend. Die Leute sollten erst mal nachdenken, bevor sie sich was aus den Fingern saugen. ;)

z.B. Was Matrox vor ein paar Jahren (in der Anfangszeit der 3D-Karten!) für Schwächen in den Treibern hatte, ist doch heute mehr als irrelevant. Wie wäre es, wenn wir die kommenden Karten von ATI und nVidia anhand damaliger Treiber vorverurteilen würden. Auf so eine dumme Idee kommt doch auch keiner. ;)

Die Parhelia sehe ich nicht als Konkurrenz zu den Grafikkarten von ATI, nVidia, PowerVR, etc. Das wird eine zeitlose Karte, die viel bietet und bei der man nicht schon vor dem Release über den Nachfolger spekuliert. Die anderen Karten machen auf mich einen eher improvisierten Eindruck um schnell Geld zu machen.

Nachdem meine G400 zu langsam war, hab ich eine Irrfahrt bei den Karten von nVidia, PowerVR und ATI hinter mir. Bei jeder hatte ich schon nach wenigen Tagen Zweifel, ob die Entscheidung richtig war. Damals hätte ich mir einfach eine Voodoo5 holen und dann auf die nächste schnelle Matroxkarte warten sollen.

1. mich auch nicht...
Richtig glücklich war ich nur mit 3DFX und MGA Hardware, der Rest gefiel mir irgendwie nicht besonders (insbesondere PowerVR)...
1b. wir sollten wohl alle NV am NV3 beurteilen, ATI am Rage PRO und S3 am Virge, dann werden wir nämlich alle sehen, daß es vollkommener schwachsinn ist, von uralt Chips auf moderne HW zu schließen...
Wobei Matrox damals wohl nicht an einen ICD gedacht hat...
Seit dem release der G200 sind *lüg* 4 Jahre vergangen, MGA hatte also genug Zeit für einen brauchbaren ICD...

2. WELCHER Chip außer den Voodoos lief damals wirklich rund??
Wenn ich den Beginn der '3D Ära' richtig im Sinn hab, dann gabs KEINEN Chip, der damals richtig gut funktioniert hat (2. Genaration, die 1. war noch schlimmer)...
Und die G200 gehört eher in Richtung Riva128 denn TNT...
Wobei die TNT bei Release auch noch genug Macken hattte, das sollte man auch nicht vergessen (wie gesagt, damals hatte JEDER Chip recht viele Macken)...

3. MGA Karten sind immer Zeitlos ;)
Wenn man sich jetzt den wiederverkaufswert seiner 3 Jahre alten G400 anschaut und dann auch noch den Wert einer Riva TNT2, dann wird man sich wohl sicher in den Hintern treten, daß man sich nicht doch eine G400 gekauft hat, denn die (G400DH) geht teilweise noch für die hälfte des damaligen kaufpreises weg.
Oder anders: für eine G400(DH??) bekommt man auf eBay mehr als für eine GF1...
3b. MGA hat ja auch damals mit der G400 mächtig vorgelegt!
Nämlich eine (Gamer) Karte, die 2 unabhängige 2D Geräte ansteuern kann, was HEUTE jede neuere Gamer Karte kann, DANKE MATROX *eg*.
Nur leider wurde das EMBM lange Zeit von einigen HW Bäckern ignoriert, obwohl es schon Sinnvoll wäre...
Die Parhelia wird GARANTIERT seine Spuren hinterlassen, so wie es bei der G400 (DH) einst war...
Matrox legt also wieder in Sachen Innovation mächtig vor und da ist der fehlende PS2.0 auch fast schon egal...

4. mir gings ja ähnlich ;)
Von 3DFX (geschrottet) über NV (lief garnicht) bis ATI und jetzt wieder NV...
Wobei ich es doch recht lange mit ATI 'ausgehalten' hab...
Aber jetzt gibts ja wieder 'ne gute Matrox...

@Andre

Bei meiner G400 hatte ich in genau EINEM Spiel Bildfehler, die sich beheben ließen, die MGA Treiber sind also SEHR GUT, auch wenn du es nicht wahrhaben willst *eg*
Schau dir mal 'ne G400 an und beurteile MGA DANN und nicht vom 'Hörensagen' her!!

Andre
2002-05-16, 13:55:10
Originally posted by Stefan Payne
[/size]@Andre

Bei meiner G400 hatte ich in genau EINEM Spiel Bildfehler, die sich beheben ließen, die MGA Treiber sind also SEHR GUT, auch wenn du es nicht wahrhaben willst *eg*
Schau dir mal 'ne G400 an und beurteile MGA DANN und nicht vom 'Hörensagen' her!!

Du hast, in gewohnter Art und Weise, leider nix von dem verstanden, was ich sagen wollte.
Man sollte nichts beurteilen, was man nicht beurteilen kann, da es NICHT existent ist.

StefanV
2002-05-16, 14:14:21
Originally posted by Andre


Du hast, in gewohnter Art und Weise, leider nix von dem verstanden, was ich sagen wollte.
Man sollte nichts beurteilen, was man nicht beurteilen kann, da es NICHT existent ist.

Man sollte auch im Gegenzug nix schlecht reden, was nicht schlecht wird/man nicht beurteilen kann!

Hier freuen sich halt einige auf den Parhelia, warum müssen einige diese 'Vorfreude' mies machen??

Ob der Chip nun von MGA, ATI oder NV ist, ist doch VOLLKOMMEN EGAL!!

Es freuen sich immer welche auf diesen Chip, WARUM müssen hier einige diese 'Vorfreude' in Frage stellen??

Ist es denn ein Unterschied, ob der Chip von Matrox oder NV ist??

Ich denke nicht, nur steht der NV30 nicht vor der Tür, sondern der Matrox Parhelia...

StefanV
2002-05-16, 14:16:24
Originally posted by harkpabst_meliantrop
[quote]
Ähhhh, sorry. War natürlich genau so gemeint, VSync ließ sich nicht einschalten. Sonst wär's wohl kaum zu schnell geworden.
Achso wars damals...
Naja, 3DFX hats ja (irgendwann) hinbekommen...


Gaaaanz sicher, dass das wirklich die letzten Referenztreiber waren? Der "Hack" bestand nämlich nur aus dem Ersetzen einer der Treiberdateien (hab vergessen, welche) durch eine ältere Version und einer entsprechenden Anpassung des INF-Files. Auf dem Duron meines Bruders ging die Voodoo 2 definitiv nur so und einige Webseiten haben fertig gepatchte Athlon/Duron-Treiber zum Download angeboten ...

Ja, bin mir gaaanz sicher!
Hab sie mir von 3DCenter gezogen...
Wobei man sich wieder Fragen kann, woran es wieder lag (hat Intel mal wieder ein Problem mit der Offenlegung ihrer PCI Specs??)...
Wie gesagt, auf meinem KT266A Board lief es, auf dem KT133(A) Board hab ichs nie ausprobiert...


Kann schon sein, aber netter wär's ja doch gewesen, wenn man über die UI hätte auswäheln können oder - noch besser - wenn die deutschen Übersetzungen nicht so grottenschlecht gewesen wären. Naja, nicht dass es mich noch besonders interessieren würde ...

Naja, da hast du schon recht, daß die übersetzung von einem Übersetungsprogramm gemacht wurde, was auch bei NV und anderen bescheiden klingt (Schleiertabellen emulation bei NV z.B.)

Ändern kannst du es, wenn du die Ländereinstellungen von deinem Windows änders (ich habs auf Englisch (UK))


Tja, G400 bulk 16 MB SGRAM ohne DH. Damals knapp 300 DM und läuft heute noch im Kindercomputer. Für Löwenzahn und Maus-CD reicht's sowieso ;) und wenn man sich auf 640x480x16 beschränkt, ist sogar Colin McRae Rally 2 problemlos spielbar.


Ich würd fast sagen, daß auch alle aktuellen Games, wie MoHAA, Jedi2 und RtCW drauf laufen (Jedi2 hab ich getestet, bisserl lahm, sonst gehts aber)

POD mit 2 Voodoo2 war - wie beiläufig erwähnt - wirklich beeindruckend. Mit Getrickse in 800x600 spielbar, Framerate auf 75 fps genagelt. Aber als ich dann die Texturqualität auf der G400 unter DX gesehen habe, bin ich fast hintenüber gefallen. Nur der 800x600-Trick funzte mit DirectX leider nicht :-(

Jaja, so ist es halt mit den alten D3D3(??)/glide Games...
Damals war Glide eindeutig der sinnvollere Weg, da es auch meist schöner ausschaute, z.B. Wing Commander Prophecy, die fehlende Transparenz bei den Displays.
Damals war Glide DirectX meilenweit vorraus, erst mit DX6 wurde D3D brauchbar...


Und damit ich auch noch mal was zum Parhelia gesagt habe: Ich habe bisher - außer duch meinen "präpubertären Avatar" (oder wie das hieß, aths hat das Original ja leider(?) gelöscht) behauptet, das der Parhelia der absolut größte und tollste Oberhammer würde. Aber die Diskussion hat doch wohl vor allem eins gezeigt:

Man kann - überraschenderweise - am Marketingmaterial zu einem neu angekündigten Chip nicht endgültig belegen, ob und wie gut die versprochenen Features denn nun funktionieren werden. Aber wenn die fertige Karte auch nur den größeren Teil der Vorgaben (und die sind interessant) einlöst, dann weiß ich nicht, warum die nicht auch im Herbst noch einen Preis rechtfertigen soll, wie er jetzt für eine GF4 Ti4600 verlangt wird.

Bei dem Marketing Material geb ich dir recht, das ist ja in erster Linie auch nix weiter als Marketing Material...
Da heißsts nur abwarten und Tee rauchen...
Aber das meiste vom Parhelia interessiert nicht...
Das Teil wird schnell und kann 'Soround Gaming', was ich für den größten Fortschritt halte.
Displacement Mapping und FAA sind auch 'interessante' Features.
Mich interessiert auch, was für ein 'normales' FSAA die Karte kann...

Bisher ist auch einiges von der Parhelia im Argen...

Bis dahin warte ich in aller Ruhe ab und freue mich einfach, dass Matrox - entgegen allem nachtmusikalischen Geunke - doch in für Gamer interessante Gefilde zurückgekehrt ist.

Sehe ich auch so...
Wer MGA abschreibt, dem ist nicht mehr zu Helfen ;)

Ich freu mich schon auf die ersten Benchmarks...

Xmas
2002-05-16, 14:22:30
Originally posted by Unregistered
PS1.2 führt folgende Instruktionen gegenüber PS1.1 ein:

Arithmetic instructions:
- cmp
- dp4

Texture address instructions:
- texdp3
- texdp3tex
- texm3x3
- texreg2rgb

PS1.3 führt folgende Instruktionen gegenüber PS1.2 ein:


Texture address instructions:
- texm3x3depth

Die spannende Frage lautet jetzt: welche PS1.2 Instruktion frißt die GF3 nicht. Ein genauer Vergleich mit den OpenGL Specs sollte das eigentlich offenlegen *g*Pitchfork
Es gibt noch einen weiteren Unterschied zwischen PS 1.1 und PS 1.2/1.3: Das Read Port Limit für Texturregister.
PS 1.1 kann nur zwei Texturregister als Source für eine Instruktion verwenden, bei 1.2/1.3 sind drei zulässig.

Andre
2002-05-16, 14:24:11
Stefan,

bitte erst lesen, dann posten.
Wenn Du mich für voreingenommen hältst oder denkst, ich würde was schlechtreden, dann ist das Dein Problem.
Ich schrieb:


Ich muss mich immer wieder wundern, wie hier nicht belegbare Aussagen über den Parhelia gemacht werden.

Keiner kann sagen, ob die SQ gut ist - wird aber lustig behauptet.
Keiner kann sagen, dass die Treiber gut sind - oder hat die schon jemand?
Keiner kann sagen, ob es HW-Probleme gibt - oder hat jemand ein Referenzboard?
Keiner kann sagen, wie das AA nun wirklich funktioniert - oder hat es jemand schon im Treiber gesehen?
Keiner kann sagen, wie die Performance ist - oder hat schon jemand mit der Karte gezockt?

Ich würde etwas vorsichtig mit Äußerungen sein, die den Parhelia jetzt schon krönen, obwohl nur der Chip da ist - und vielleicht Testsamples.
Und Payne:
Warst DU im lager von Matrox oder woher weißt, dass die Karte schon auf Halde gibt?

Steht da irgendwo, dass ich den Chip, die Treiber, die Firma, oder sonstwas, schlecht finde?

Also lass Deine Unterstellungen, die Du Dir zusammenmalst, um mich angreifen zu können.

StefanV
2002-05-16, 14:54:13
@Andre

Dann formoliere deine Aussagen nächstes mal anders!

Am besten so, daß man nicht meinen könnte, daß du ein Produkt schlecht reden willst!

Andre
2002-05-16, 15:10:48
Originally posted by Stefan Payne
@Andre

Dann formoliere deine Aussagen nächstes mal anders!

Am besten so, daß man nicht meinen könnte, daß du ein Produkt schlecht reden willst!

Isn Witz, oder?
Das musst grade Du mir sagen.
Du bist hier einer derjenigen im Forum, die mit Abstand am meisten voreingenommen sind und wunderschön pauschalisieren können (Siehe FF8 -> Deswegen wäre ja die NV-Treiber Müll :lol: ).

BTW: Formuliere schreibt man mit u nicht mit o.

Exxtreme
2002-05-16, 15:18:08
Andre hat schon recht. Ausser den Infos, die Matrox veröffentlicht hat, gibt es _nichts_ was nicht auf eine Spekulation hinausläuft. Es gibt _keine_ Angaben über die SQ, Speed, Verfügbarkeit usw. Aber für Spekulationen ist ja das Speku-Forum da. Und in einem Punkt muss ich Andre noch recht geben: es gibt z.Zt. viele hier, die aus meiner Sicht versuchen diese Spekulationen als Tatsachen hinstellen.

Gruß
Alex

Andre
2002-05-16, 15:21:37
Danke, Alex.
Du hasts genau getroffen.

harkpabst_meliantrop
2002-05-16, 15:27:40
Originally posted by Exxtreme
Andre hat schon recht. Ausser den Infos, die Matrox veröffentlicht hat, gibt es _nichts_ was nicht auf eine Spekulation hinausläuft. Es gibt _keine_ Angaben über die SQ, Speed, Verfügbarkeit usw. Aber für Spekulationen ist ja dieses Forum da.
Hmm ... Einspruch, Herr Moderator!

Leonidas hat den Thread ins Technologie-Forum gestellt, nicht ins Spekulationsforum. :)

Und über die Technologie zu diskutieren, lohnt sich doch wirklich nur, wenn man die bekannten Informationen erstmal für bare Münze nimmt, oder?

Also, hopp den Thread verschieben ... :D

Exxtreme
2002-05-16, 15:34:35
Originally posted by harkpabst_meliantrop

Hmm ... Einspruch, Herr Moderator!

Leonidas hat den Thread ins Technologie-Forum gestellt, nicht ins Spekulationsforum. :)
Ich habe mich hier höchst unverständlich ausgedrückt. Ich hätte statt 'dieses''das Speku-Forum' schreiben sollen. ?-) Ich ändere es.
Originally posted by harkpabst_meliantrop

Und über die Technologie zu diskutieren, lohnt sich doch wirklich nur, wenn man die bekannten Informationen erstmal für bare Münze nimmt, oder?

Also, hopp den Thread verschieben ... :D
Nö. Sonst können die Matrox-Fans diese Spekulationen nicht mehr als Tatsachen hinstellen *eg*. OK, der war böse...

Gruß
Alex

aths
2002-05-16, 15:42:10
harkpabst_meliantrop,

welchen Avatar soll ich gelöscht haben? (Ich habe keine Avatare gelöscht.)

Torian.cc
2002-05-16, 15:51:37
Mal wat Anderes...., es wurde im Thread des Öfteren über ein Game namens 'POD' gesprochen.
Kommt mir zwar irgendwie bekannt vor, aber ich komme beim besten Willen nicht drauf, was es nochmal war... (war es überhaupt ´ne Abkürzung für ein Game?)

Sorry, hat zwar nix mit dem momentanen Thema zu tun, aber Ihr kennt sicher das Gefühl, wenn einem etwas auf der Zunger liegt, man aber partu nicht draufkommt ;o)

Noch was : Im Gespräch war ja auch schon, daß die 256MB Parhelia außer schnellerer Taktung noch ein paar andere Schmankerl haben soll.
Ist es technisch möglich, anstatt des PixelShader 1.3 den PS 2.0 draufzupacken? Oder sie vielleicht OpenGL 2.0 tauglich zu machen?

Wäre doch ein schönes Extra, was einen Mehrpreis auf jeden Fall rechtfertigen würde!! Aber wohl auch wieder nur -- WUNSCHDENKEN!! --

MfG
Tori
__________

MATROX RULEZ

harkpabst_meliantrop
2002-05-16, 15:55:03
Originally posted by aths
...welchen Avatar soll ich gelöscht haben? (Ich habe keine Avatare gelöscht.)
Nein, nein, keinen Avatar natürlich.

Sondern die unsachliche Verunglimpfung des meinigen (natürlich besonders hübschen) Avatars durch ein hier nicht näher zu benennendes Mitglied ... ;)

Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=19552&perpage=25&pagenumber=2#post239617)

Exxtreme
2002-05-16, 16:00:25
Originally posted by Torian.cc
Mal wat Anderes...., es wurde im Thread des Öfteren über ein Game namens 'POD' gesprochen.
"Planet of Death"?
Originally posted by Torian.cc

Noch was : Im Gespräch war ja auch schon, daß die 256MB Parhelia außer schnellerer Taktung noch ein paar andere Schmankerl haben soll.
Ist es technisch möglich, anstatt des PixelShader 1.3 den PS 2.0 draufzupacken? Oder sie vielleicht OpenGL 2.0 tauglich zu machen?
Ich glaube nicht, daß es so ohne Weiteres möglich ist die PixelShader mal so, mal so zu tauschen. Aber vielleicht kann es hier jemand erklären, der sich mit soetwas auskennt.
Originally posted by Torian.cc

Wäre doch ein schönes Extra, was einen Mehrpreis auf jeden Fall rechtfertigen würde!! Aber wohl auch wieder nur -- WUNSCHDENKEN!! --

MfG
Tori

Mag schon sein. Lass dir aber trotzdem nicht die Vorfreude von irgendwelchen 'Nörglern' (oder von mir - R300 r00l3z ;)) versauen.

Gruß
Alex

aths
2002-05-16, 16:24:50
harkpabst_meliantrop,

und wo komme ich da ins Spiel?

Radeonator
2002-05-16, 16:27:37
HiHo,
das Preview an sich ist gut gelungen, was allerdings absolut unrealistisch ist, ist die Anspielung das niemand ausser Pro´s
500€uro Plus bezahlen würde...

Alle neuen Chips kosten seit Ewigkeiten bis zu 500€ (respektive 1000DM) und das ist überhaupt nicht teuer sondern stink normal!
1997 kostete ne 4MB Voodoo 900DM, die GF4 kostet zwischen 500-600 €uro, teilweise kosten sie mehr und selbst die GF3 Ti500(GS) von Gainward kostet noch immer um die 500€uro.
Wie die Verkaufszahlen bei Nvidia und ATi beweisen ist gerade heutzutage ein klarer anstieg im oberem bzw. Highend Berreich zu sehen.

Ich persönlich kaufe mir eher karten der vor Generation bzw. unbekanntere GPU´s (bin auf die Xabre gespannt ;-) ) aber viele Leute aus meinem Bekanntenkreis (sowie im Inet, wo man es in zig Foren lesen kann), kaufen sich ohne mit der Wimper zu zucken Karten zum Vollpreis...

der-Leo
2002-05-16, 16:44:34
@radeonator:
also ich hab ende 1996 (direkt als die voodoo raus kam) nur knapp 600dm bezahlt!

d-L

Demirug
2002-05-16, 16:54:56
Originally posted by Exxtreme
Ich glaube nicht, daß es so ohne Weiteres möglich ist die PixelShader mal so, mal so zu tauschen. Aber vielleicht kann es hier jemand erklären, der sich mit soetwas auskennt.


Das wird nichts.

ps 2.0 fordert Fliesspunktzahlen (s10e5 für Farben, s19e7 für alles andere). Die Register in den pixelshader können das oder eben nicht. Nachträglich ist da nichts zu machen.

Zum anderen sind die Pipelines mit 10 stufen zu kurz. (ps 2.0: 32 address ops, 64 math ops)

Exxtreme
2002-05-16, 16:59:22
Originally posted by Demirug

Das wird nichts.

ps 2.0 fordert Fliesspunktzahlen (s10e5 für Farben, s19e7 für alles andere). Die Register in den pixelshader können das oder eben nicht. Nachträglich ist da nichts zu machen.

Zum anderen sind die Pipelines mit 10 stufen zu kurz. (ps 2.0: 32 address ops, 64 math ops)
<spekulation>
Ausser wenn man den PS2.0 _immer_ verbaut und ihn bei den kleineren Versionen der GraKa 'künstlich' drosselt. Der PS2.0 müsste theoretisch den PS1.3 emulieren können, oder?
</spekulation>

Gruß
Alex

harkpabst_meliantrop
2002-05-16, 17:38:43
Originally posted by aths
harkpabst_meliantrop,

und wo komme ich da ins Spiel?

Na, ich denke hier doch, oder?

Das mit dem "leider(?)" war übrigens ein (schwacher) Scherz ...

Unregistered
2002-05-16, 17:48:32
Originally posted by der-Leo
@radeonator:
also ich hab ende 1996 (direkt als die voodoo raus kam) nur knapp 600dm bezahlt!

d-L

Darum geht es nicht, und trotzdeben hat die Voodoo Monster fast überall fast 800 Takken gekostet, das ist nun ja auch wohl ein wenig Kleinkrämerei.. ;-P und ich denke das in den lezten Jahren die GF reihe fast alles mit einem 1000DM Launch begonnen hat :)

PS 2.0 brauchen mehr als 4T pro Durchgang, PS1.4 brauchen schon 6T, dann kann man sich einfach hochrechnen was ein PS2.0 brauchen wird :D

Leonidas
2002-05-16, 18:19:42
Originally posted by Radeonator
HiHo,
das Preview an sich ist gut gelungen, was allerdings absolut unrealistisch ist, ist die Anspielung das niemand ausser Pro´s
500€uro Plus bezahlen würde...

Alle neuen Chips kosten seit Ewigkeiten bis zu 500€ (respektive 1000DM) und das ist überhaupt nicht teuer sondern stink normal!
1997 kostete ne 4MB Voodoo 900DM, die GF4 kostet zwischen 500-600 €uro, teilweise kosten sie mehr und selbst die GF3 Ti500(GS) von Gainward kostet noch immer um die 500€uro.
Wie die Verkaufszahlen bei Nvidia und ATi beweisen ist gerade heutzutage ein klarer anstieg im oberem bzw. Highend Berreich zu sehen.



Mag sein. Aber unsere Bereitschaft sinkt, soviel Geld zu bezahlen. Grund: Die guten Leistungen der vorhandenen Beschleuniger.

Demirug
2002-05-16, 18:30:31
Originally posted by Exxtreme

<spekulation>
Ausser wenn man den PS2.0 _immer_ verbaut und ihn bei den kleineren Versionen der GraKa 'künstlich' drosselt. Der PS2.0 müsste theoretisch den PS1.3 emulieren können, oder?
</spekulation>

Gruß
Alex

Ich sehe keinen grund warum eine ps 2.0 einen ps 1.x nicht emulieren könnnen sollte. Da ich die engültige Spec (DX9) noch nicht vor mir habe ist das nur spekulation. Die Wahrscheinlichkeit dafür ist aber hoch den die DX9 Karten mit ps 2.0 sollen ja auch noch mit den alten spielen funktionieren.

Was das drosseln angeht ist die wahrscheinlichkeit wohl eher gering. Bin mir aber sicher das Matrox einfach keinen platz mehr auf dem Chip hatte. ps 2.0 braucht viel mehr Transitoren als die ps 1.x. Die Hersteller sind sich wohl auch einig das ps 2.0 erst mit 0.13 µ zu machen ist.

aths
2002-05-16, 23:13:21
harkpabst_meliantrop,

ich habe aus jedis Posting ein paar Zeilen entfernen müssen, damit der "offizielle" Thread zum Artikel nicht im Streit versinkt.

harkpabst_meliantrop
2002-05-17, 00:57:47
Originally posted by aths
ich habe aus jedis Posting ein paar Zeilen entfernen müssen, damit der "offizielle" Thread zum Artikel nicht im Streit versinkt.
aths, wenn der Eindruck entstanden sein sollte, ich hätte daran etwas auszusetzen: Nein. Das war nicht gemeint. Was sollte ausgerechnet ich auch dagegen haben?

Ich konnte es nur nicht unterlassen, noch einmal ein bißchen auf der Unsachlichkeit speziell dieses Teils des betreffenden Postings herumzureiten.

Allerdings hatte ich gerade den gelöschten Teil in meiner Antwort (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=19552&perpage=25&pagenumber=2#post239631) des guten Tons halber ohnehin zitiert.

Und da steht er (im Moment) immer noch. ;) Und mir ist auch egal, ob er da bleibt oder nicht, ehrlich!

HOT
2002-05-17, 11:23:26
Originally posted by Demirug


Das wird nichts.

ps 2.0 fordert Fliesspunktzahlen (s10e5 für Farben, s19e7 für alles andere). Die Register in den pixelshader können das oder eben nicht. Nachträglich ist da nichts zu machen.

Zum anderen sind die Pipelines mit 10 stufen zu kurz. (ps 2.0: 32 address ops, 64 math ops)

Und genau das bricht der Spezifikation IMO das Genick. Es scheint ja recht aufwändig zu sein, so etwas in x-facher prarleller Ausführung zu implementieren.
Sowohl Matrox als auch 3DLabs haben es gelassen und ich spekulier mal, dass auch NV davon Abstand nehmen wird. Der einzige der das IMO implementiert ist ATI.

nocturne
2002-05-17, 13:54:38
Originally posted by Leonidas

Richtig, und das kann der P10 wohl nicht. Ergo steht dort nun vorläufig nein da.

Schade eigentlich. Als ich die ersten Infos zum P10 gelesen hatte, war der für mich eine Art Universal-Wunderwaffe. Nicht zuletzt nach der Lektüre Eures P10-Artikels dachte ich: eigentlich könne der Chip alles, was in nächster Zeit so kommen würde, weil er ja sooo flexibel und frei programmierbar sei.

Falls der P10 nun schon kein Displacement Mapping kann, weil den Geometrieeinheiten keine Textrureinheiten zur Seite stehen, dann ist für mich der Traum von der "Flexibilität" des P10 zu einem beträchtlichen Teil bereits jetzt geplatzt.

Ein Problem sehe ich dann auch darin, dass sich dann DM noch viel langsamer durchsetzen wird, als dies sowieso schon der Fall sein wird, wenn nicht jeder Hersteller mitzieht. Und das scheint ja nach Deinen Aussagen beim P10 schon der Fall zu sein.

Demirug
2002-05-17, 14:05:07
Originally posted by HOT


Und genau das bricht der Spezifikation IMO das Genick. Es scheint ja recht aufwändig zu sein, so etwas in x-facher prarleller Ausführung zu implementieren.
Sowohl Matrox als auch 3DLabs haben es gelassen und ich spekulier mal, dass auch NV davon Abstand nehmen wird. Der einzige der das IMO implementiert ist ATI.

Aufwändig ist es eigentlich nicht besonders. Man braucht halt die Fläche dafür. Da Matrox und 3dLabs aber noch mit 0.15 arbeiten war eben kein Platz mehr da.

Bei den 0.13 Karten sehe ich da gute Chancen.

Demirug
2002-05-17, 14:14:02
Originally posted by nocturne

Schade eigentlich. Als ich die ersten Infos zum P10 gelesen hatte, war der für mich eine Art Universal-Wunderwaffe. Nicht zuletzt nach der Lektüre Eures P10-Artikels dachte ich: eigentlich könne der Chip alles, was in nächster Zeit so kommen würde, weil er ja sooo flexibel und frei programmierbar sei.

Falls der P10 nun schon kein Displacement Mapping kann, weil den Geometrieeinheiten keine Textrureinheiten zur Seite stehen, dann ist für mich der Traum von der "Flexibilität" des P10 zu einem beträchtlichen Teil bereits jetzt geplatzt.


Ich bin nach wie vor der Meinung das man die Flinte noch nicht ins Korn werfen sollte. Eine Textureinheit ist für das Displacement Mapping nicht zwangsläufig erforderlich. Solange die Geometrieeinheit freien Zugriff auf einen Speicherbereich hat (und davon ist auszugehen) kann sie sich die Displacement Werte holen. Was die Performance dazu sagt ist dann ein anderes Thema. Was zeckensack
ja bereist erwähnt hat

Originally posted by nocturne

Ein Problem sehe ich dann auch darin, dass sich dann DM noch viel langsamer durchsetzen wird, als dies sowieso schon der Fall sein wird, wenn nicht jeder Hersteller mitzieht. Und das scheint ja nach Deinen Aussagen beim P10 schon der Fall zu sein.

Ob der P10 für den Massenmarkt taugt muss sich sowieso erst noch beweissen. Viel wichtiger wäre es das NVidia (NV30) und ATI (R300) DM unterstützen.

Unregistered
2002-05-17, 18:17:03
Originally posted by Demirug

Viel wichtiger wäre es das NVidia (NV30) und ATI (R300) DM unterstützen.

Das müssen sie wohl, wenn sie einen 100%igen DX9-Chip vorstellen wollen.
Mit Earth&Beyond (Westwood glaub ich) ist übrigens bereits ein Spiel in Arbeit,das DM verwenden wird. Dann wird sich auch zeigen, wie praxistauglich die ganze Sache ist.

jedi
2002-05-17, 19:11:40
Originally posted by Demirug

Ob der P10 für den Massenmarkt taugt muss sich sowieso erst noch beweissen. Viel wichtiger wäre es das NVidia (NV30) und ATI (R300) DM unterstützen.

Für welchen Markt siehst Du den P10 in erster Linie? Eher im Profibereich? Aber Du hast recht, falls nV oder ATI kein DM unterstützen, dann wird es auch keine weitere Verbreitung finden.

Ceiser Söze
2002-05-17, 19:36:19
DM ist afaik Teil von DirectX9, also müssen ATi und nV es unterstützen - sonst können sie sich nicht damit rühmen, DX9-compliant Chips zu haben ;)

Demirug
2002-05-17, 19:43:26
Originally posted by jedi


Für welchen Markt siehst Du den P10 in erster Linie? Eher im Profibereich? Aber Du hast recht, falls nV oder ATI kein DM unterstützen, dann wird es auch keine weitere Verbreitung finden.

Die breite Masse kauft sich ihere GraKa ja nicht einzeln sonder nimt halt das was im "Aldi-Rechner" drin ist. Da muß aber der Preis für den System Builder stimmen. Es dürfte für den P10 selbst in einer abgespeckten Version schwer werden in diesen Markt zu kommen.

Als nächstes haben wir die Gruppe der leute die ihere GraKa einzeln kaufen. Die Kaufentscheidung dieser Leute ist im Regelfall von 2 primärfaktoren abhängig:
1. Herstellertreue: Matrox kann sich zum Beispiel auf seine Getreuen verlassen aber 3dlabs hatte bisher nichts vorzuweisen und deshalb auch keine Fans.
2. Tests: Hiermit kann man aber eigentlich nur dinge wie 3dmark pro Euro oder Quake FPS pro Euro vergleichen. Da der P10 aber ein allgemeines Design hat ist er fast zwangsläufig einer optimierten Chiplogik unterlegen.

Im 3d Desgin dagegen könnte der Chip wahrscheinlich seine Stärken ausspielen da es möglich sein müsste das RenderMan Interface für diese Karte zu implementieren und damit den Preview stark verbessern würde.

Im Endeffekt sind sie mit dem Chip einfach zu früh auf den Markt gekommen. Seine Konzeption weicht so stark vom standard ab das er im 3d Massenmarkt (Spiele) nicht wirklich ausgenutzt werden kann. Erinnert mich irgendwie an den NV1.

jedi
2002-05-17, 19:55:27
Originally posted by Ceiser Söze
DM ist afaik Teil von DirectX9, also müssen ATi und nV es unterstützen - sonst können sie sich nicht damit rühmen, DX9-compliant Chips zu haben ;)

Nicht unbedingt, das kommt darauf an. Displacement Mapping ist doch in DX9 nur optional, oder?

Demirug
2002-05-17, 20:08:13
Originally posted by jedi


Nicht unbedingt, das kommt darauf an. Displacement Mapping ist doch in DX9 nur optional, oder?

Es muss definitive optional sein. Ansonsten könnte ich mit DX9 ja keine der derzeit erhältlichen Karten mehr benutzen. Also wird es entsprechend ein neues Caps-Bit für DM geben. Und alles was ein Caps-Bit hat ist optional.

Es gibt soweit ich weis derzeit keinen Chip der DX8 vollständig unterstützt und mit DX9 wird das nicht anders sein.

Ceiser Söze
2002-05-17, 20:45:46
Natürlich ist es optional, aber ich spreche ja nicht von "DirectX 9 compatible" sondern von "DirectX 9 compliant" (die V5 hatte ja auch DX8 kompatible Treiber, war aber nicht einmal DX6 compliant). Das ist zwar ein relativ schwammiger Begriff und die Frage, ob Feature X für "DirectX Version Y compliancy" benötigt wird oder nicht, entscheidet wohl jeder Hersteller für sich selbst (ATi sagt natürlich, für DX 8.1 compliancy sind PS 1.4 nötig, nV, Matrox und SiS sind da wohl anderer Meinung ;) ). Aber imho ist DM ein must-have für DX9-compliancy - so wie es damals Enviromental BumpMapping für DX6 und Dot3-Product BM für DX7 war...
Sollte hingegen eine "offizielle Liste der für DX-compliancy zu unterstützenden Funktionen" (von Micro$oft) existieren, nehme ich das oben gesagte natürlich zurück :)

Demirug
2002-05-17, 21:18:27
Originally posted by Ceiser Söze
Sollte hingegen eine "offizielle Liste der für DX-compliancy zu unterstützenden Funktionen" (von Micro$oft) existieren, nehme ich das oben gesagte natürlich zurück :)

Nein es gibt keine Liste. Man hat wohl bei MS darüber nachgedacht hats dann aber bleiben lassen um nicht die Chiphersteller oder Entwickler zu verägern.

Die Entwickler hätten sich nähmlich gewünscht das möglichst viele Features auf dieser Liste landen.

Die Hardware hersteller wollten eher wenig auf der Liste sehen.

Da das richtige mass zu finden ist fast unmöglich.

Razor
2002-05-18, 10:42:51
@aths & pitchfork

Erst einmal vielen Dank für die theoretische Erklärung der PS1.2/1.3 Specs...
Aber das war nicht unbdenigt das, was ich wissen sollte.
Zumal ich schon damals bei Tommti-Systems so einiges darüber glesen habe...

Insofern nochmal meine Fragen:

1) Welche visuelle Darstellung soll mit PS1.4 möglich sein, was mit PS1.1 (1.2/1.3) nicht möglich ist.

2) Ist der Unterschied von PS1.1 zu PS1.3 wirklich soooo groß ?
Schön, daß dort ein paar Befehle dazu gekommen sind, aber das klärt meine eigentliche Fragestellung nicht.

@aths

aths, ich bin des Englischen durchaus mächtig und empfinde Deine Übersetzung somit als etwas... sagen wir... überheblich. Aber ich nehm' Dir das nicht übel.

Im Kern hat er nur das gesagt, was mir selber auch den Kopf gegangen ist und keinen Anspruch auf DIE Wahrheit stellt. Aber vielleicht kannst Du mir ja ein Demo zeigen, welches Effekte zeigt, die nicht auf gf-Hardware nicht zu realisieren sind.

Auch hat er schlicht gesagt, daß die PS1.4 lediglich eine Art ATI-Erweituerung sind, um eben besser mit dieser (ATI-eigenen) Erweiterung zurecht zu kommen. Und die neu auf dem Markt erschienenen DX8-Karten (SIS, Matrox, ev 3DLabs) scheinen das zu bestätigen, denn diese unterstützen ebenfalls nur die PS bis 1.3.

Also sollte die Frage nicht lauten:

"Warum nicht PS1.4 beim Parhelia ?"

sondern eher

"Was hat sich ATI bei den PS1.4 gedacht ?"

Ich hoffe, Du verstehst, worauf ich hinaus will ?

@pitchfork

"Die spannende Frage lautet jetzt: welche PS1.2 Instruktion frißt die GF3 nicht. Ein genauer Vergleich mit den OpenGL Specs sollte das eigentlich offenlegen *g*"

Das ist wirklich das, was mich auch interessieren würde...

Vermute mal, daß man eine Engine schreiben könnte, die DX anspricht, ohne die Treiber-PS-Version abzufragen und damit dann durchaus "Z-korrektes Bumpmapping" realisieren könnte. Das würde natürlich den DX-Vorgaben wiedersprechen, aber wäre vermutlich möglich. Insofern würde mich jetzt echt interessieren, was genau (von den PS1.2) denn nun von der gf3(Hardware !) nicht unterstützt wird.

Mir nützt es nichts, wenn man sagt, daß der Treiber nur PS1.1 meldet und die Applikation dann gar nicht erst versucht, den Befehl "texm3x3depth" zu benutzen...

Ist natürlich nur eine Vermutung, aber könnte man nicht auch folgende Hypothese aufstellen ?

"Die gf3 erfüllt einige, aber eben nicht alle PS1.2 Funktionen, kann aber deswegen kein PS1.2-Stempel bekommen und natürlich auch keinen PS1.3-Stempel, da dies ja den PS1.2 mit einschließt..."

Wäre echt 'nett', aber würde natürlich absolut nicht helfen...
:D

Egal, um das Thema abzuschließen würde ich jetzt einfach mal behaupten, daß es nunmehr absolut KEINEN Nachteil darstellt, ATI's PS1.4 nicht zu unterstützen. Sondern lediglich, daß ATI keinen Vorteil mehr durch ihre PS1.4 hat...

In diesem Sinne

Razor

Demirug
2002-05-18, 12:24:18
1) Welche visuelle Darstellung soll mit PS1.4 möglich sein, was mit PS1.1 (1.2/1.3) nicht möglich ist.


Das ist schwer zu sagen. Was mit pixel shader möglich ist kann man in der Regel nur sagen wenn man damit rumspielt. Der PS1.4 ist aufgrund seiner geringen Verbereitung eher uninteresant.

Der Hauptvorteil von PS1.4 ist die Unterstürzung von bis zu 6 Texturen und die Tatsache das jede 2 mal benutzt werden kann. Im Endeffeckt erlaubt das die Darstellung von zustätzlichen Lichtquellen in einem Renderpass. Carmark findet das ganz toll. Bevor jetzt wieder Einsprüche kommen das er OpenGL benutzt das ist mir auch klar aber es gibt von ATI eben für den Pixelshader entsprechende Extensions.


Ist der Unterschied von PS1.1 zu PS1.3 wirklich soooo groß ?
Schön, daß dort ein paar Befehle dazu gekommen sind, aber das klärt meine eigentliche Fragestellung nicht.


Nein es sind wirklich nur die paar Befehle. Das Problem dabei ist das man irgendeine Einteilung vornehmen musste. Wenn man die verfügbarkeit für jeden einzelnen Befehl abfragen müsste würden sich die meisten Entwickler verarscht vorkommen und ps würde kamm benutzt.

Ob das integrale Verfahren und die Gruppeneinteilungen sinnvoll sind? Ich denke das ist ein Diskussionspunkt der am ende aber doch nichts bringt da der Standard festgelegt ist.


Ich hat er schlicht gesagt, daß die PS1.4 lediglich eine Art ATI-Erweituerung sind, um eben besser mit dieser (ATI-eigenen) Erweiterung zurecht zu kommen. Und die neu auf dem Markt erschienenen DX8-Karten (SIS, Matrox, ev 3DLabs) scheinen das zu bestätigen, denn diese unterstützen ebenfalls nur die PS bis 1.3.

Also sollte die Frage nicht lauten:

"Warum nicht PS1.4 beim Parhelia ?"

sondern eher

"Was hat sich ATI bei den PS1.4 gedacht ?"


Das Primärproblem bei PS1.4 ist die Tatsache der er beim Implementieren mehr Chipfläche braucht. Darum haben die anderen Hersteller aus verschiedehnen Gründen verzichtet.


"Die spannende Frage lautet jetzt: welche PS1.2 Instruktion frißt die GF3 nicht. Ein genauer Vergleich mit den OpenGL Specs sollte das eigentlich offenlegen *g*"

Das ist wirklich das, was mich auch interessieren würde...


Dafür habe ich mich nicht genung mit den NVidia Extensions für pixelshader beschäftigt. Aber vielliecht kann jemand anders hier weiterhelfen.


Vermute mal, daß man eine Engine schreiben könnte, die DX anspricht, ohne die Treiber-PS-Version abzufragen und damit dann durchaus "Z-korrektes Bumpmapping" realisieren könnte. Das würde natürlich den DX-Vorgaben wiedersprechen, aber wäre vermutlich möglich. Insofern würde mich jetzt echt interessieren, was genau (von den PS1.2) denn nun von der gf3(Hardware !) nicht unterstützt wird.

Mir nützt es nichts, wenn man sagt, daß der Treiber nur PS1.1 meldet und die Applikation dann gar nicht erst versucht, den Befehl "texm3x3depth" zu benutzen...


Bei sauber programmieren DX-Treiber geht das nicht. In den Pixelshader steht am Anfang die Version. Um die ps1.2 befehle zu nutzen muss man dort auch ps1.2 angeben. Wenn nun der Treiber den ps bekommt und dort 1.2 sieht aber das nicht unterstützt muss er ihn laut spec ablehnen.


Ist natürlich nur eine Vermutung, aber könnte man nicht auch folgende Hypothese aufstellen ?

"Die gf3 erfüllt einige, aber eben nicht alle PS1.2 Funktionen, kann aber deswegen kein PS1.2-Stempel bekommen und natürlich auch keinen PS1.3-Stempel, da dies ja den PS1.2 mit einschließt..."

Wäre echt 'nett', aber würde natürlich absolut nicht helfen...
:D

Kann ich dir nur zustimmen.


Egal, um das Thema abzuschließen würde ich jetzt einfach mal behaupten, daß es nunmehr absolut KEINEN Nachteil darstellt, ATI's PS1.4 nicht zu unterstützen. Sondern lediglich, daß ATI keinen Vorteil mehr durch ihre PS1.4 hat...


Hatte ATI durch PS1.4 überhaupt jemals einen Vorteil?

zeckensack
2002-05-18, 12:55:20
Originally posted by Demirug
Dafür habe ich mich nicht genung mit den NVidia Extensions für pixelshader beschäftigt. Aber vielliecht kann jemand anders hier weiterhelfen.Ich hab mit dem Zeug auch noch keinen echten Kontakt gehabt.
Die NV-Shader-Extensions sind IMO ziemlich unübersichtlich im Vergleich zu ATI's. Man kann hier im Grunde überhaupt nix 'richtig' programmieren, sondern muß aus festgelegten 'canned shaders' (so um die 20-30 Stück mittlerweile) einen Auswählen.

So, hier (http://developer.nvidia.com/view.asp?IO=nvidia_opengl_specs) sind alle NVidia-Extensions aufgelistet. In die Pixel Shader-Kategorie fallen ausschließlich ( ??? bitte korrigieren, wenn's falsch ist) NV_texture_shader, NV_texture_shader2 und NV_texture_shader3.

Alle diese drei werden sowohl von Geforce 3, als auch von Geforce 4 unterstützt (siehe hier: eins (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NV_texture_shader) zwei (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NV_texture_shader2) drei (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NV_texture_shader3)). Es sieht also tatsächlich so aus, als wäre unter OpenGL auf beiden Karten das gleiche machbar.

Wieweit sich das mit den DX-Shadern deckt, das weiß ich leider auch nicht.

Demirug
2002-05-18, 13:26:16
Originally posted by zeckensack
Ich hab mit dem Zeug auch noch keinen echten Kontakt gehabt.
Die NV-Shader-Extensions sind IMO ziemlich unübersichtlich im Vergleich zu ATI's. Man kann hier im Grunde überhaupt nix 'richtig' programmieren, sondern muß aus festgelegten 'canned shaders' (so um die 20-30 Stück mittlerweile) einen Auswählen.

So, hier (http://developer.nvidia.com/view.asp?IO=nvidia_opengl_specs) sind alle NVidia-Extensions aufgelistet. In die Pixel Shader-Kategorie fallen ausschließlich ( ??? bitte korrigieren, wenn's falsch ist) NV_texture_shader, NV_texture_shader2 und NV_texture_shader3.

Alle diese drei werden sowohl von Geforce 3, als auch von Geforce 4 unterstützt (siehe hier: eins (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NV_texture_shader) zwei (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NV_texture_shader2) drei (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NV_texture_shader3)). Es sieht also tatsächlich so aus, als wäre unter OpenGL auf beiden Karten das gleiche machbar.

Wieweit sich das mit den DX-Shadern deckt, das weiß ich leider auch nicht.

Hab mal einen kurzen Blick darauf geworfen. Das sieht ja echt grausam aus. Da bin ich echt froh das ich DX benutze. Wobei diese texture_shader Functionen anscheinend nur zum Einstellen der TMUs benutzt werden also den "Texture address instructions" bei DX8 gleichzusetzten wären. Die DX8 "Arithmetic instructions" entsprechen dann anscheinend den register combinder.

Xmas
2002-05-18, 14:16:25
Originally posted by Demirug
Wobei diese texture_shader Functionen anscheinend nur zum Einstellen der TMUs benutzt werden also den "Texture address instructions" bei DX8 gleichzusetzten wären. Die DX8 "Arithmetic instructions" entsprechen dann anscheinend den register combinder.
Genau so ist es.

Bei den PS1.2-Instruktionen muss man noch anfügen dass die beiden Arithmetikinstruktionen cmp und dp4 eigentlich nur Makros sind, die sich bei PS1.1 genauso realisieren lassen.
Der Unterschied liegt also nur in den Texturadressoperationen bzw. im Read Port Limit der Texturregister.

zeckensack
2002-05-18, 14:28:43
Originally posted by Demirug


Hab mal einen kurzen Blick darauf geworfen. Das sieht ja echt grausam aus. Da bin ich echt froh das ich DX benutze. Wobei diese texture_shader Functionen anscheinend nur zum Einstellen der TMUs benutzt werden also den "Texture address instructions" bei DX8 gleichzusetzten wären. Die DX8 "Arithmetic instructions" entsprechen dann anscheinend den register combinder.
Zum Register Combiner gibt's auch noch zwei:
#1: watt (http://www.nvidia.com/dev_content/nvopenglspecs/GL_NV_register_combiners.txt), wo (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NV_register_combiners)
#2: watt (http://www.nvidia.com/dev_content/nvopenglspecs/GL_NV_register_combiners2.txt), wo (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_NV_register_combiners2)

Auch hier wieder das gleiche Spiel: alles, was die Geforce 4Ti kann, kann die Geforce 3 auch ???

aths
2002-05-18, 16:27:15
Originally posted by Razor
@aths & pitchfork
Egal, um das Thema abzuschließen würde ich jetzt einfach mal behaupten, daß es nunmehr absolut KEINEN Nachteil darstellt, ATI's PS1.4 nicht zu unterstützen. Sondern lediglich, daß ATI keinen Vorteil mehr durch ihre PS1.4 hat...


Findest du das gut? Ich kann nur noch mal wiederholen: PixelShader 1.4 ist fortschrittlicher als 1.3. Denn in 1.4 ist man bei der Programmierung freier, die Befehle erlauben flexibelere Adressierung, außerdem kann man 6 Texturen statt 4 verwenden...

Nur weil meine Karte 1.4 nicht supportet ist das doch lange kein Grund, den 1.4-er kleinzureden. Pixelshader 1.4 ist der bessere, die Gründe habe ich genannt. Jede Karte die neu auf den Markt kommt, sollte an der jeweils besten Technik gemessen werden. Ich bin ziemlich sicher, dass eine DX9-Karte mit PixelShader 2.0-Funktionalität auch zu 1.4 kompatibel ist. Irgendwann wirst auch du so eine Karte haben.

Natürlich freue ich mich, dass PixelShader 1.3 nun eine vergrößerte Basis findet (und sei es nur des Z-korrekten Bumpmappings wegen) und damit die Chancen steigen, dass meine Karte besser ausgenutzt wird. Doch welche HW ich habe spielt für die Artikel aus meiner Hand keine Rolle. Hier zählt der neuste Stand der Technik. Das ist in Dingen PixelShader Version 1.4.

Demirug
2002-05-18, 16:55:15
Originally posted by aths


Findest du das gut? Ich kann nur noch mal wiederholen: PixelShader 1.4 ist fortschrittlicher als 1.3. Denn in 1.4 ist man bei der Programmierung freier, die Befehle erlauben flexibelere Adressierung, außerdem kann man 6 Texturen statt 4 verwenden...

Nur weil meine Karte 1.4 nicht supportet ist das doch lange kein Grund, den 1.4-er kleinzureden. Pixelshader 1.4 ist der bessere, die Gründe habe ich genannt. Jede Karte die neu auf den Markt kommt, sollte an der jeweils besten Technik gemessen werden. Ich bin ziemlich sicher, dass eine DX9-Karte mit PixelShader 2.0-Funktionalität auch zu 1.4 kompatibel ist. Irgendwann wirst auch du so eine Karte haben.

Natürlich freue ich mich, dass PixelShader 1.3 nun eine vergrößerte Basis findet (und sei es nur des Z-korrekten Bumpmappings wegen) und damit die Chancen steigen, dass meine Karte besser ausgenutzt wird. Doch welche HW ich habe spielt für die Artikel aus meiner Hand keine Rolle. Hier zählt der neuste Stand der Technik. Das ist in Dingen PixelShader Version 1.4.

PS1.4 ist definitive besser als 1.0 bis 1.3. Meiner Meinung nach hätte er schon fast eine 2 vor dem Komma verdient und die DX9 ps wären dann eben 3.0.

Das er im Moment bei den Spielenentwicklern keine rolle spielt liegt einfach daran das der Markt keine basis dafür hergibt. Der Mehraufwand lohnt nun mal nicht.

Wenn aber jetzt der NV30 ps1.4 unterstützt und man es beim P10 irgendwie hinbiegt (R300 ist ja sicher oder?) werden wir programmierer auch bereit sein ps1.4 zu nutzen. Ab diesem Zeitpunkt haben die R200 besitzer einen gewissen Vorteil und Matrox hat sich eben leicht verkalkuliert.

Trotdem glaube ich das Matrox gar nicht in der Lage ist ps1.4 zu unterstützen. Der Chip ist jetzt schon ein risiges Teil.

aths
2002-05-18, 16:56:47
Originally posted by Razor

1) Welche visuelle Darstellung soll mit PS1.4 möglich sein, was mit PS1.1 (1.2/1.3) nicht möglich ist.

Mit entsprechend vielen Passes ist fast jede Darstellung möglich, selbst wenn nur NSR zur Verfügung steht. Ob sich mit PS.1.1 Z-korrektes Bumpmapping realisieren lässt, wage ich allerdings zu bezweifeln.

Originally posted by Razor

2) Ist der Unterschied von PS1.1 zu PS1.3 wirklich soooo groß ?
Nein. Unterschiede gibt es im Detail. Was Skalarprodukte oder Matrix-Multiplikationen angeht, wo jeweils Texturwerte genommen werden, hat man mit 1.2 durch zusätzliche Befehle mehr Freiraum.

Originally posted by Razor

Schön, daß dort ein paar Befehle dazu gekommen sind, aber das klärt meine eigentliche Fragestellung nicht.

Für alle herkömmlichen Bumpmapping-Effekte reicht sogar PixelShader 1.0 aus. Will man mehr machen, ist 1.3 natürlich besser als 1.0 oder 1.1 oder 1.2, noch besser wäre allerdings 1.4. PixelShader 1.4 verfügt nur über recht wenige Befehle. Durch die ungeheure flexible Adressierungsmöglichkeiten der Texturwerte kann man sich jedoch weitaus mehr "Befehle" selbst schreiben, als es z.B. in PixelShader 1.3 gibt. Ich denke, hier liegt die Zukunft: So programmierbar wie möglich.

Razor
2002-05-18, 17:24:14
@Demirug

Erst einmal vielen herzlichen Dank für Deine sehr ausführliche und kompetente Antwort !
Der Hauptvorteil von PS1.4 ist die Unterstürzung von bis zu 6 Texturen und die Tatsache das jede 2 mal benutzt werden kann. Im Endeffeckt erlaubt das die Darstellung von zustätzlichen Lichtquellen in einem Renderpass.
Nun ja, dies ist eindeutig ein Vorteil, der sich sich aus der Hardware-Konstruktion der R8500 ergibt, die es eben erlaubt, 6 Texturen in einem Rederpass aufzutragen. Ob diese nun Sinnvoll sein mag oder nicht, mag mal dahin gesetllt sein. Denn nutzt eine Applikation z.Bsp. 7 Texturen müssen sowohl R8500, als auch gf3/4 zwei Renderpasses durchlaufen, können also auch hier die identischen Effekte darstellen. Der Vorteil ist auch dahin, wenn eben nur bis zu 4 Texturen genutzt werden (was gedenk der verbreiteten Hardware anzunehmen ist).

Somit ergibt sich ein Geschwindigkeitsvorteil bei der R8500 nur dann, wenn also 5 oder 6 Texturen und eben PS1.4 benutzt wird. Und auch in diesem Punkt kann ich Kirk David nur zustimmen, denn warum sollten das die Entwickler tun ?
"Ist der Unterschied von PS1.1 zu PS1.3 wirklich soooo groß ?"

Nein es sind wirklich nur die paar Befehle.
Die ja zudem noch über die PS1.0/1.1 emuliert werden können...
(wie Xmas ja später noch dargelegt hat)
Das Primärproblem bei PS1.4 ist die Tatsache der er beim Implementieren mehr Chipfläche braucht. Darum haben die anderen Hersteller aus verschiedehnen Gründen verzichtet.
Aus diesem oder aus anderen Gründen ?
Oder ist die Einschätzung, daß dieser Mehraufwand sich jetzt einfach noch nicht lohne, da es ja entsprechende Erweiterungen bei der DX9-Hardware geben wird. Insofern der PS1.4 tatsächlich nur eine Zwischenlösung ist (wie im Prinzip auch die n-Patches der R8500, im Vergleich zu dem DM oder den polynominalen Flächen), die dem Aufwand nicht gerecht wird...
Bei sauber programmieren DX-Treiber geht das nicht. In den Pixelshader steht am Anfang die Version. Um die ps1.2 befehle zu nutzen muss man dort auch ps1.2 angeben. Wenn nun der Treiber den ps bekommt und dort 1.2 sieht aber das nicht unterstützt muss er ihn laut spec ablehnen.
Thx, für die Korrektur meines Irrglaubens. Sollte vielleicht auch mal anfangen DX zu proggen, um mit den dortigen Gegebenheiten gedanklich besser umgehen zu können. Somit wird einer Befehls-Sequenz als die PS-Kennung vorangestellt und der Treiber läßt diese aufgrunddessen zu oder lehnt sie eben ab. Insofern wundert es mich, daß nVidia ja wohl offensichtlich OpenGL-spezifische Befehlssequenzen zuläßt, die "Z-korrektes BumpMapping" erlauben, aber PS1.3-Sequenzen dieser Art ablehnt...

Könnte es sein, daß dann also im Prinzip einfach nur der treiber entsprechend angepaßt werden müsste ?
Hatte ATI durch PS1.4 überhaupt jemals einen Vorteil?
Jup, einen marketing-technischen...

Insbesondere ATI wirbt damit, daß nur mit der R8500 'echte' DX8.1-Compliance bestünde, obwohl auch die R8500 nicht ALLE Features von DX8(.1) unterstützt, was wohl keine Karte dieser Erde zur Zeit tut. Insofern verbindet jeder mit der R8500 eben DX8.1, obwohl sogar die gute alte (ur-)gf3 schon DX8.1-compliant war. Auch sagt man, daß durch den PS1.4 sehr viel mehr möglich sei, als mit den Vorgängern, was auch an den Haaren herbei gezogen zu sein scheint, da deren Nutzung nur in bestimmten Szenarien Performance-technische Vorteile haben können, aber keinesfalls exklusive visuelle...

Na ja, aber in Sachen Marketing haben sie eindeutig dazu gelernt !
:D

Und danke nochmals für die sehr ausfürliche Antwort auf meine Anfrage !

@zeckensack
Alle diese drei werden sowohl von Geforce 3, als auch von Geforce 4 unterstützt (siehe hier: eins zwei drei). Es sieht also tatsächlich so aus, als wäre unter OpenGL auf beiden Karten das gleiche machbar.
und
Zum Register Combiner gibt's auch noch zwei:
#1: watt, wo
#2: watt, wo

Auch hier wieder das gleiche Spiel: alles, was die Geforce 4Ti kann, kann die Geforce 3 auch ???
Schon sehr interessant, wie sich die gleiche Hardware bei unterscheidlichen API's darstellt...

Vielleicht sollte man nVidia mal überreden den DX-Teil der Treiber zu überarbeiten. Könnte mir gut vorstellen...
;-)

@aths
Findest du das gut? Ich kann nur noch mal wiederholen: PixelShader 1.4 ist fortschrittlicher als 1.3. Denn in 1.4 ist man bei der Programmierung freier, die Befehle erlauben flexibelere Adressierung, außerdem kann man 6 Texturen statt 4 verwenden...
Ob ich das gut finde, oder nicht, ist eingentlich ziemlich irrelevant.

Die PS1.4 werden von ATI offensichtlich gebraucht, um die die eigene Hardware überhaupt vernünftig ansprechen zu können. Gäbe es die PS1.4 nicht, dann hätte die Verwendung von maximal 6 Texturen (was die Hardware ja leisten muß) ja kaum noch Vorteile. Und wenn ich das richtig vertsanden habe, dann ist die Verwendung von PS2.0 noch sehr viel komfortabler, bietet wesentlich mehr Freiheiten u.s.w.. Warum also dann der Zwischenschritt PS1.4 ? Welchen qualitativen Vorteil bietet er ? Wenn ich das richtig sehe, ist dort lediglich ein quantitativer, der sich aus der Hardware der R8500 ergibt und somit allen anderen Karten, die das nicht bieten (also auch die Neuerscheinungen von SIS und Matrox) einen Nachteil beschert oder zumindest keinen Vorteil bringt.

Insofern beantworte ich Deine Frage mit JA: Gut, daß es keinen Nachteil mehr für andere gibt, weil die PS1.4 nie zur Anwedung kommen werden (die R8500-Hardware aber zumindest unter OpenGL ausgereizt werden kann).
Nur weil meine Karte 1.4 nicht supportet ist das doch lange kein Grund, den 1.4-er kleinzureden.
Wußte nicht, daß Du das tust...
Pixelshader 1.4 ist der bessere, die Gründe habe ich genannt. Jede Karte die neu auf den Markt kommt, sollte an der jeweils besten Technik gemessen werden. Ich bin ziemlich sicher, dass eine DX9-Karte mit PixelShader 2.0-Funktionalität auch zu 1.4 kompatibel ist. Irgendwann wirst auch du so eine Karte haben.
Was dann lediglich bedeutet, daß ich auch die ATI-Demos abspielen kann, wenn diese nicht an die Hardware gebunden sind. Ich habe schon in meinem Kommentar zu Demirug dargelegt, daß ich den PS1.4 nur in sehr speziellen Fällen für besser halte, er sich zumindest in anderen Situationen neutral verhält, aber trotzdem nur eine Zwischenlösung ist. Wären die Entwickler darauf angesprungen, hätte es einen effektiven Nachteil für die anderen gehabt (also auch SIS. Matrox und vermutlich Creative). Ud das nur, um einen eigenen Standard zu setzen. Insofern halte ich den Versuch von ATI, den PS1.4 zu plazieren schon alleine aus diesem Grunde für verwerflich, vor allem, wenn er letztendlich keine echten, langfristigen Vorteile bringt.

Wenn ATI nun maßgeblich an den DX9-Specs mitgerabeitet hat, ist's doch gut, daß die Arbeit nicht völlig umsonst (sagen wir 'vergebens') war. Auch gibt es anderen die Möglichekit, diese Spezifikationen noch zu implementieren. Schließlich ist DX8.1 und damit auch die PS1.4 nur ein Nachzügler geworden und gehörte damit offensichtlich nicht zum grundlegenden DX8-Konzept, sondern wurde nachträglich eingefügt. Alle Hersteller also, die sich an die ursprünglichen Specs gehalten haben, wären dann im Nachteil gewesen...

-

Ich bleib dabei.
Der PS1.4 war ein Schuß in den Ofen und mit Erscheinen der ersten DX9-Karten werden die Karten wieder gemischt.

Der Vorteil, daß ATI den PS1.4 nicht durchsetzen konnte, liegt klar auf der Hand, denn so wird's für kommende DX8-Spiele eine sehr, sehr breite Basis geben, die sich aus R8500, gf3/4, Xabre, Parheli und auch P10 zusammen setzt. Und DAS ist das einzige, was für uns alle zählt, oder ?

In diesem Sinne

Razor

Razor
2002-05-18, 17:38:42
Ups, ich glaube da sind mir nun wieder 2 Posts wegen meinem Geschwafel durch die Lappen gegangen...
;-)

@Demirug
Wenn aber jetzt der NV30 ps1.4 unterstützt und man es beim P10 irgendwie hinbiegt (R300 ist ja sicher oder?) werden wir programmierer auch bereit sein ps1.4 zu nutzen. Ab diesem Zeitpunkt haben die R200 besitzer einen gewissen Vorteil und Matrox hat sich eben leicht verkalkuliert.
Sicher ?
Ihr würdet einen zusätzlichen Renderpath integrieren, nur um zusätzlich zu PS2.0 nun auch PS1.4 zu unterstützen ? Wozu ?
???

Und wenn sich damit keine Effekte erzeugen lassen, warum dann alle anderen (Xabre, gf3/4, Parhelia) ausschließen, wenn man das dann auch mit PS1.1 hinbekommt ?
Hmmm...

@aths

Auch Dir danke, daß Du nun versuchst, auf meine eigentliche Fragestellung einztugehen.
Mit entsprechend vielen Passes ist fast jede Darstellung möglich, selbst wenn nur NSR zur Verfügung steht. Ob sich mit PS.1.1 Z-korrektes Bumpmapping realisieren lässt, wage ich allerdings zu bezweifeln.
Da ich ja nun auch ein bissel mehr über DX weiß, vermute ich mal, daß dies technisch nicht zu realisieren ist, es sei denn, daß nVidia dieses Feature auch für die gf3 frei gibt und den entsprechenden PS1.3 Befehl akzeptiert und ihn wie unter OpenGL auch umsetzt.
Nein. Unterschiede gibt es im Detail. Was Skalarprodukte oder Matrix-Multiplikationen angeht, wo jeweils Texturwerte genommen werden, hat man mit 1.2 durch zusätzliche Befehle mehr Freiraum.
Inwiefern kann sich das auf die visuelle Qualität auswirken ?
Für alle herkömmlichen Bumpmapping-Effekte reicht sogar PixelShader 1.0 aus. Will man mehr machen, ist 1.3 natürlich besser als 1.0 oder 1.1 oder 1.2, noch besser wäre allerdings 1.4. PixelShader 1.4 verfügt nur über recht wenige Befehle. Durch die ungeheure flexible Adressierungsmöglichkeiten der Texturwerte kann man sich jedoch weitaus mehr "Befehle" selbst schreiben, als es z.B. in PixelShader 1.3 gibt. Ich denke, hier liegt die Zukunft: So programmierbar wie möglich.
Was man ja auch mit dem PS2.0 bewerkstelligen können wird...
Aber dann nochmal meine Frage:
Was für einen Vorteil hätte der PS1.4 für die Entwickler in der jetzigen Marktsituation ?
???

Bis denne

Razor

zeckensack
2002-05-18, 17:42:56
Originally posted by Razor
Wären die Entwickler darauf angesprungen, hätte es einen effektiven Nachteil für die anderen gehabt (also auch SIS. Matrox und vermutlich Creative). Ud das nur, um einen eigenen Standard zu setzen. Insofern halte ich den Versuch von ATI, den PS1.4 zu plazieren schon alleine aus diesem Grunde für verwerflich, vor allem, wenn er letztendlich keine echten, langfristigen Vorteile bringt.Andersherum ist es aber auch verwerflich, daß der Marktführer den "Pixel Shader"-Aufkleber auf eine derart vermurkste Implementierung gepappt hat ;)
Wenn ich mir die OpenGL-Specs so anschaue ... die hat NVidia selbst entworfen und verfaßt, man muß also davon ausgehen, daß hier die Hardwarefunktionen komplett bereitgestellt werden, nicht mehr, nicht weniger.
Was beim DX-Interface für Pixel Shader dann noch halbwegs programmierbar aussieht, ist in Wahrheit nichts anderes als eine glorifizierte Kette aus Texturcombinern. Sowas kann man auch in endlosen Kombinationen konfigurieren, und wenn ich die Länge des 'Programms' beschränke, dann klappt's auch mit dem Nachbarn ;)

Bei ATI wiederum, fühlt es sich doch wirklich wie eine programmierbare Einheit an.

ATI hat hier sehr fähige Hardware vorgelegt, kann sich aber aufgrund der mangelnden Marktdurchdringung nicht durchsetzen. Es hätte IMO geholfen, wenn der R200 vor dem NV20 erschienen wäre, dann wäre die Geforce 3 überhaupt kein Thema mehr ... da war ATI allerdings mindestens ein halbes Jahr zu spät dran, das weiß ich auch, also bitte nicht hauen ;)

Und warum sollten SiS, Matrox und Konsorten PS1.4 einbauen, wenn der Marktführer ihn nicht hat? Wirtschaftlich betrachtet macht das durchaus Sinn, nur ist's eben irgendwie doch schade.

zeckensack
2002-05-18, 17:46:13
Originally posted by Razor
Aber dann nochmal meine Frage:
Was für einen Vorteil hätte der PS1.4 für die Entwickler in der jetzigen Marktsituation ?
???Ganz einfach: weniger Multipass, dadurch weniger Geometrielast und geringerer Anspruch an Füllrate und Bandbreite.
Der große Nachteil bleibt, daß es sich nicht lohnt, für die paar verkauften R200 einen extra Codepath zu basteln.

Korak
2002-05-18, 17:49:29
Razor ich versteh dich nicht :D
Du stämmst dich hier gegen einen eindeutigen technischen Fortschritt und ich kapier nicht warum ;)

PS 1.4 kann mehr als PS 1.3/1.1/1.0. Das ist doch schön. Und wenn du jetzt sagst: Ja das wird PS 2.0 auch können. Frag ich dich, warum man überhaupt PS 1.1/1.3/1.4 entwickelt? Man hätte ja auch gleich einen 'PS 2.0' (die Bezeichnug wäre sicher anders ;)) einführen können.
Das der PS 1.4 rein 'Spielemarkttechnisch' wahrscheinlich nutzlos ist (bis auf etwaige Performancevorteile) bestreitet auch keiner. Aber das du dich so wehement weigerst die technischen Vorteile von PS 1.4 gegenüber PS 1.1/1.3 anzuerkennen ist mir wirklich unverständlich.

Manchmal hört es sich echt so an, als ob du glaubst, dass man bei PS 1.3 bleiben sollte, da man damit eh alles darstellen kann. Aber das hört wahrscheinlich auch nur so an...

Exxtreme
2002-05-18, 17:50:07
Originally posted by Razor


Ich bleib dabei.
Der PS1.4 war ein Schuß in den Ofen und mit Erscheinen der ersten DX9-Karten werden die Karten wieder gemischt.

In diesem Sinne

Razor
Hmm, als "Schuss in den Ofen" würde ich den PS1.4 nicht bezeichnen. Er hat gar keine Nachteile ggü. den früheren PixelShadern.Er wird sich nur nicht durchsetzen können wegen der geringen Marktdurchdringung. Die einzigen Leute, die einen Nachteil aus dieser Situation haben werden sind die Gamer.

Gruß
Alex

Demirug
2002-05-18, 18:07:24
Aus diesem oder aus anderen Gründen ?
Oder ist die Einschätzung, daß dieser Mehraufwand sich jetzt einfach noch nicht lohne, da es ja entsprechende Erweiterungen bei der DX9-Hardware geben wird. Insofern der PS1.4 tatsächlich nur eine Zwischenlösung ist (wie im Prinzip auch die n-Patches der R8500, im Vergleich zu dem DM oder den polynominalen Flächen), die dem Aufwand nicht gerecht wird...


Ein Grund der mir dazu noch einfält ist unter umstäden die Zeit. Als ATI den ps1.4 in die DX Spec gedrückt hat (was meiner Meinung nach ihr gutes recht war. Da auch NVidia schon gemacht hat) waren die anderen Chiphersteller gar nicht mehr in der Lage ihr Design entsprechend zu ändern.


Thx, für die Korrektur meines Irrglaubens. Sollte vielleicht auch mal anfangen DX zu proggen, um mit den dortigen Gegebenheiten gedanklich besser umgehen zu können. Somit wird einer Befehls-Sequenz als die PS-Kennung vorangestellt und der Treiber läßt diese aufgrunddessen zu oder lehnt sie eben ab. Insofern wundert es mich, daß nVidia ja wohl offensichtlich OpenGL-spezifische Befehlssequenzen zuläßt, die "Z-korrektes BumpMapping" erlauben, aber PS1.3-Sequenzen dieser Art ablehnt...

Könnte es sein, daß dann also im Prinzip einfach nur der treiber entsprechend angepaßt werden müsste ?



Bei OpenGL ist die Situation ja anders. Da hat NVidia die Extensions vollständig unter Kontrolle. Das heist das man dort nichts spezifiziert hat was die GeForce nicht kann. Im DX standard steht aber irgenwas drin was nicht geht. Frag mich jetzt aber nicht was das ist.

Wenn es nur ein Treiberproblem wäre hätte man das inzwischen doch lösen müssen.


Insbesondere ATI wirbt damit, daß nur mit der R8500 'echte' DX8.1-Compliance bestünde, obwohl auch die R8500 nicht ALLE Features von DX8(.1) unterstützt, was wohl keine Karte dieser Erde zur Zeit tut. Insofern verbindet jeder mit der R8500 eben DX8.1, obwohl sogar die gute alte (ur-)gf3 schon DX8.1-compliant war. Auch sagt man, daß durch den PS1.4 sehr viel mehr möglich sei, als mit den Vorgängern, was auch an den Haaren herbei gezogen zu sein scheint, da deren Nutzung nur in bestimmten Szenarien Performance-technische Vorteile haben können, aber keinesfalls exklusive visuelle...


Sowas wie DX8.1-Compliance gibt es offiziel nicht. Was die Vorteile angeht die sind am ende wirklich nur Performance-technische. Aber die FPS spielt in Spielen eben eine Rolle. Und man schaltet doch einen Effekt ab wenn es zu langsam wird oder?


Schon sehr interessant, wie sich die gleiche Hardware bei unterscheidlichen API's darstellt...

Vielleicht sollte man nVidia mal überreden den DX-Teil der Treiber zu überarbeiten. Könnte mir gut vorstellen...
;-)


Das verstehe ich ehrlich auch nicht so ganz. Irgendwo muss da noch ein Unterschied zwischen GF3 und GF4 sein.


Ob ich das gut finde, oder nicht, ist eingentlich ziemlich irrelevant.

Die PS1.4 werden von ATI offensichtlich gebraucht, um die die eigene Hardware überhaupt vernünftig ansprechen zu können. Gäbe es die PS1.4 nicht, dann hätte die Verwendung von maximal 6 Texturen (was die Hardware ja leisten muß) ja kaum noch Vorteile. Und wenn ich das richtig vertsanden habe, dann ist die Verwendung von PS2.0 noch sehr viel komfortabler, bietet wesentlich mehr Freiheiten u.s.w.. Warum also dann der Zwischenschritt PS1.4 ? Welchen qualitativen Vorteil bietet er ? Wenn ich das richtig sehe, ist dort lediglich ein quantitativer, der sich aus der Hardware der R8500 ergibt und somit allen anderen Karten, die das nicht bieten (also auch die Neuerscheinungen von SIS und Matrox) einen Nachteil beschert oder zumindest keinen Vorteil bringt.

Insofern beantworte ich Deine Frage mit JA: Gut, daß es keinen Nachteil mehr für andere gibt, weil die PS1.4 nie zur Anwedung kommen werden (die R8500-Hardware aber zumindest unter OpenGL ausgereizt werden kann).


Zur verwendung von PS 1.4 hab ich ja schon was gesagt. Dein Einwand mit PS 2.0 ist aber berechtigt wenn NVidia und ATI das mit iheren neuen Karten unterstützen könnte der PS1.4 wirklich übersprungen werden und es wird direkt auf 2.0 gesetzt


Was dann lediglich bedeutet, daß ich auch die ATI-Demos abspielen kann, wenn diese nicht an die Hardware gebunden sind. Ich habe schon in meinem Kommentar zu Demirug dargelegt, daß ich den PS1.4 nur in sehr speziellen Fällen für besser halte, er sich zumindest in anderen Situationen neutral verhält, aber trotzdem nur eine Zwischenlösung ist. Wären die Entwickler darauf angesprungen, hätte es einen effektiven Nachteil für die anderen gehabt (also auch SIS. Matrox und vermutlich Creative). Ud das nur, um einen eigenen Standard zu setzen. Insofern halte ich den Versuch von ATI, den PS1.4 zu plazieren schon alleine aus diesem Grunde für verwerflich, vor allem, wenn er letztendlich keine echten, langfristigen Vorteile bringt.


Ich hab ja schon gesagt das das plazieren ihr gutes recht war. Die anderen habe sowas ja auch schon gemacht.


Ich bleib dabei.
Der PS1.4 war ein Schuß in den Ofen und mit Erscheinen der ersten DX9-Karten werden die Karten wieder gemischt.

Der Vorteil, daß ATI den PS1.4 nicht durchsetzen konnte, liegt klar auf der Hand, denn so wird's für kommende DX8-Spiele eine sehr, sehr breite Basis geben, die sich aus R8500, gf3/4, Xabre, Parheli und auch P10 zusammen setzt. Und DAS ist das einzige, was für uns alle zählt, oder ?


Bei den DX9 Karten müssen wir mal abwarten in wie weit der ps 2.0 wirklich unterstützt wird.

Selbst wenn ATI den PS 1.4 durchgebracht hätte hätte sich für die Spieler kein alzu großer nachteil ergeben. Die Geforce Basis ist einfach zu groß als das wir Programmier sie ignorieren könnten.

Ich gehe mal davon aus das es irgendwan bestimmt mal das eine oder andere Spiel gibt das ps 1.4 unterstützt. es wird aber sehr wahrscheinlich einen Fallback auf ps 1.0 haben.

Ein Programm das die pixel shader fähigkeiten der R200 nutzt kann ich dir sogar nehnen: "DOOM III"

aths
2002-05-18, 18:27:15
Razor,

letztlich ist *jeder* PixelShader eine "Zwischenlösung". Wie du siehst, schreiben hier Programmierer, dass sie 1.4 für besser halten. Lediglich die geringe Marktdurchdringung von der Radeon8500 in Kombination mit nVidias Dominanz sorgt dafür, dass die bessere Technik derzeit nicht angewendet wird.

Der zukünftige PixelShader 2.0, auf den auch nVidia früher oder später setzt, hat mit ATIs "Zwischenlösung" mehr gemein als die 3dfx/nVidia/Matrox-Entwicklung namens PixelShader 1.0 - 1.3.

Razor
2002-05-18, 21:30:11
@zeckensack

OK, habe mich vielleicht etwas zu reißerisch ausgedrückt.

ATI kam aber nicht nur mit ihrer DX8-Karte viel zu spät (ein gutes halbes Jahr würd' ich auch schätzen), sondern auch für DX8 selber, oder etwa nicht ? Oder wie ist es zu erklären, daß der PS1.4 in einem Update quasi nachgereicht werden mußte ?

Ich wollte lediglich darauf hinaus, daß ATI versucht hat, etwas nachträglich als Standard zu implementieren, wovon vorher die wenigsten wußten. Und da ja bekanntlich die Chip-Entwicklung 'etwas' länger dauert, waren die Weichen bei den meisten Herstellern eben schon gestellt und es dürfte recht schwer sein (auch nach hiesiger Forenmeinung) so etwas wie den PS1.4 nachträglich zu implementieren...

Wäre so etwas notwendig gewesen, oder wären andere dafür mißkreditiert worden (so wie jetzt der Parhelia von Matrox) dann empfinde ich so etwas als 'verwerflich'. Mit den PS2.0 wissen alle, was da kommt und können sich vorbereiten und deswegen finde ich es gut, daß sich PS1.4 nicht durchgesetzt hat.

Ich hoffe, mich nun klarer ausgedrückt zu haben.

@Korak

Ich "stämme mich nicht gegen einen eindeutigen Forschritt", sondern empfinde es als positiv, daß wir nun eine sehr breite Hardwarebasis für die PS<1.4 haben. Das gibt den Entwicklern und auch den Nutzern Stabilität. Vor allem aber kann man IMHO Matrox keinen Vorwurf machen, so etwas wie den (Zwischnschritt) PS1.4 nicht implementiert zu haben. Ein 'echter' Forschritt wäre es gewesen, wenn ATI mit der R200 gleich PS2.0 gebracht hätte. So ist's nur eine halbe Sache...

Und den 'echte' Fortschritt werden wir ja bald haben...
:D

@Exxtreme

Keine Nachteile würd' ich bei dem PS1.4 auch nicht sagen, so hat doch Demirug auch schon gesagt, daß dafür doch einiges an Transistoren 'geopfert' werden muß und dies vermutlich auch den Parhelia überladen hätte (keine Ahnung ob das so stimmt). ATI wollte halt etwas bringen, was neuer und besser ist, als das, was von nVidia kommt und hat sich nicht nur einen erheblichen Wettbewerbsnachteil durch die massive Verspätung eingehandelt, sondern vermutlich auch höhere Entwicklungskosten (die sie vermutlich beim R300 wieder rein holen können, wenn dieser etwas besser läuft, als der R200).

Bezogen auf die Wettbewerbssituation ATI's war's auf jeden Fall ein Nachteil (und damit ein Schuß in den Ofen ;-), bezogen auf technischen Forschritt wohl nicht, auch wenn mir der reine Performance-Gesichtspunkt (und mehr scheint's ja nicht zu sein) irgendwie nicht schmeckt.

@Demirug
Ein Grund der mir dazu noch einfält ist unter umstäden die Zeit. Als ATI den ps1.4 in die DX Spec gedrückt hat (was meiner Meinung nach ihr gutes recht war. Da auch NVidia schon gemacht hat) waren die anderen Chiphersteller gar nicht mehr in der Lage ihr Design entsprechend zu ändern.
Ich habe Deinen Post erst jetzt gelesen, aber wie Du ja vermutlich auch schon gelesen hast, ist dies sogar mein Hauptkritikpunkt GEGEN die Einführung (und auch die Akzeptanz) der PS1.4, vor allem aber der Kritik an Matrox, weil diese ja nun nicht...

Du verstehst ja, was ich meine...
;-)
Bei OpenGL ist die Situation ja anders. Da hat NVidia die Extensions vollständig unter Kontrolle. Das heist das man dort nichts spezifiziert hat was die GeForce nicht kann. Im DX standard steht aber irgenwas drin was nicht geht. Frag mich jetzt aber nicht was das ist.

Wenn es nur ein Treiberproblem wäre hätte man das inzwischen doch lösen müssen.
Nicht so ganz...
Sonst wäre nur noch der reine Performance-Gesichtspunkt (und eben Accuview ;-) als Kaufargument für eine gf4ti übrig geblieben. Kann also auch gut sein (meine Hand würde ich dafür nicht ins Feuer legen !), daß dies Marketing-Technische Gründe hat. Vielleicht werden wir ja etwas in dieser Art erleben, wenn es keine gf3 mehrzu kaufen gibt und der NV30 vor der Tür steht...
Sowas wie DX8.1-Compliance gibt es offiziel nicht. Was die Vorteile angeht die sind am ende wirklich nur Performance-technische. Aber die FPS spielt in Spielen eben eine Rolle. Und man schaltet doch einen Effekt ab wenn es zu langsam wird oder ?
Klar, aber man hat die Wahl...
Das verstehe ich ehrlich auch nicht so ganz. Irgendwo muss da noch ein Unterschied zwischen GF3 und GF4 sein.
Irgendwo ist gut...
Klar die gf4ti hat eben 2 Vertex-Shader etc...

Aber ich bin noch immer der Meinung (und ich bitte dies wiklich nur als die meinige zu werten), daß die der NV25 schon mit dem NV2A fest gestanden hat. Das ganze dann abgespeckt wurde, um es dann gf3 zu taufen und dann noch etwas zu optimieren, um es dann als NV25 zu bezeichnen. Großartige Änderungen in der Chip-Architektur halte ich für ziemlich Unwahrscheinlich, wenn auch nicht für unmöglich. Man sollte aber bedenken, daß man schon beim Release des NV20 (resp. dem NV2a) am NV30 gearbeitet hat und sich mit den unterscheidlichen Ausprägungen des NV2x einfach nur eine goldene Nase verdient hat, oder besser ausgedrückt: man hat sich halt die Entwicklungskosten über das Release jeder (sinnvollen) Zwischenstufe zum Endprodunkt hin (NV25) bezahlen lassen, wie es eben in unserer Wirschaftsform üblich ist. Selbiges wird auch Matrox mit dem Parhelia vorhaben...
Zur verwendung von PS 1.4 hab ich ja schon was gesagt. Dein Einwand mit PS 2.0 ist aber berechtigt wenn NVidia und ATI das mit iheren neuen Karten unterstützen könnte der PS1.4 wirklich übersprungen werden und es wird direkt auf 2.0 gesetzt
Was IMHO der einzig sinnige Weg ist...
Sowohl für die (Spiele-)Entwickler, als auch für die Endnutzer.
Ich hab ja schon gesagt das das plazieren ihr gutes recht war. Die anderen habe sowas ja auch schon gemacht.
Ich will ATI ja gar nich das Recht abstreiten, dieses versuchen zu wollen, oder sie gar dafür mißkreditieren (insofern war der Begriff 'verwerflich' auch nicht unbedingt angebracht), aber ich werde ja wohl trotzdem froh darüber sein dürfen, daß ATI damit in die Tonne gegriffen hat.
Selbst wenn ATI den PS 1.4 durchgebracht hätte hätte sich für die Spieler kein alzu großer nachteil ergeben. Die Geforce Basis ist einfach zu groß als das wir Programmier sie ignorieren könnten.
Das nicht, aber dadurch, daß Ihr Euch nun den extra Codepath für die PS1.4 sparen könnt, bekommen wir unsere Spielchen vielleicht etwas schneller (und ev auch Bug-freier ;-)...
Ich gehe mal davon aus das es irgendwan bestimmt mal das eine oder andere Spiel gibt das ps 1.4 unterstützt. es wird aber sehr wahrscheinlich einen Fallback auf ps 1.0 haben.
So geschehen bei 3DMurks2k1, der seinen 'Advanced Pixel Shader' Test ohne qualitative Nachteile auf anderer DX8-Hardware zum laufen bringt.
Ein Programm das die pixel shader fähigkeiten der R200 nutzt kann ich dir sogar nehnen: "DOOM III"
Ui...
ID steht auf einem anderen Blatt...
Und es würde mich nicht wundern, wenn es sogar die PS2.0 verwendet (deren Fähigkeiten selbstverständlich ;-) und es somit dann auch nicht verwunderlich wäre, daß die PS1.4...
Aber schon klar, Spekulationen haben hier keinen Platz, insofern sollte man über Doom3 noch nicht allzuviel...
:D

@aths
letztlich ist *jeder* PixelShader eine "Zwischenlösung".
Nicht so ganz, aths. Eine Zwischenlösung ist nur so lange eine solche, bis sie zum Standard erhoben wird. Ergo sind PS1.1 Standard, die PS1.4 sind es nicht (PS1.2/1.3 noch - ! - auch nicht).
Wie du siehst, schreiben hier Programmierer, dass sie 1.4 für besser halten. Lediglich die geringe Marktdurchdringung von der Radeon8500 in Kombination mit nVidias Dominanz sorgt dafür, dass die bessere Technik derzeit nicht angewendet wird.
Und wieder nicht so ganz, aths...
Dadurch daß ATI locker ein halbes Jahr später auf den Markt gekommen ist (woran der PS1.4 nicht unwesentlich beigetragen haben wird), ist je erst diese Marktsituation entstanden. Auch ist dieser nicht Bestandteil der ursprünglichen Spezifikationen für DX8 gewesen, sonder er wurde nachträglich reingedrückt, wie ich wiederholt und auch Demirug ja schon schrieb.

Hättest Du das als 'Fair' empfunden, wenn ATI damit Erfolg gehabt hätte ?
Und mir ist auch klar, daß unser Wirtschaftssystem nichts mit Fairness zu tun hat.
Insofern war es einfach nur ein Fehler von ATI, auf den PS1.4 (bzw. dessen zugrunde liegende Architektur) zu setzen, sondern es wäre besser gewesen, früher mit Ihrer DX8-Karte auf den Markt zu kommen (vor dem NV20 wäre ideal gewesen). So aber mußten sie auf das Release von DX8.1 warten, um ihre Karte so richtig auf Touren zu bringen...

ATI hat schlicht einen Fehler gemacht und mich als Anweder einer 'technologisch rückständigen' Karte freut's halt und ich bin sicher daß es auch Matrox freut (und die vielen Fan's natürlich auch), da die Nicht-Implementierung des PS1.4 (den ATI ja quasi aufgezwungen hätte !) nun kein Nachteil mehr darstellt.

Und auf nichts anderes wollte ich hinaus.
(schlußendlich geht's hier doch um den Parhelia ;-)

-

Also nochmals vielen Dank an all diejenigen, die sich mit mir auf dieses Theam eingelassen haben, denn insbesondere für mich ist jetzt vieles klarer geworden. Auch bin ich geradezu von der hiesigen technischen Kompetenz überwätigt.

Also vielen herzlichen Dank nochmal !

Razor

Xmas
2002-05-18, 21:40:03
Originally posted by Razor
Denn nutzt eine Applikation z.Bsp. 7 Texturen müssen sowohl R8500, als auch gf3/4 zwei Renderpasses durchlaufen, können also auch hier die identischen Effekte darstellen. Der Vorteil ist auch dahin, wenn eben nur bis zu 4 Texturen genutzt werden (was gedenk der verbreiteten Hardware anzunehmen ist).

Somit ergibt sich ein Geschwindigkeitsvorteil bei der R8500 nur dann, wenn also 5 oder 6 Texturen und eben PS1.4 benutzt wird. Und auch in diesem Punkt kann ich Kirk David nur zustimmen, denn warum sollten das die Entwickler tun ?
Du gehst von falschen Voraussetzungen aus. Bei simplen Multitexturing-Varianten mit 7 Texturen werden wohl beide zwei Passes brauchen, wird es allerdings etwas komplexer, können es auf GF3/4 durchaus auch mehr Passes werden. Die Rechnung "7 Texturen, 4 pro Pass, also zwei Passes" stimmt in vielen Fällen nicht.

Warum sollten das die Entwickler tun? Na weil es schneller ist...

Die ja zudem noch über die PS1.0/1.1 emuliert werden können...
(wie Xmas ja später noch dargelegt hat)
Zwei, aber nicht alle!
Das hat auch nix mit "emulieren" zu tun. Diese Befehle sind Makrobefehle, Kurzformen für kleine Befehlsketten, die dem Programmierer mehr Übersicht geben.

Insofern der PS1.4 tatsächlich nur eine Zwischenlösung ist (wie im Prinzip auch die n-Patches der R8500, im Vergleich zu dem DM oder den polynominalen Flächen)
Die drei Dinge ergänzen sich hervorragend...

Somit wird einer Befehls-Sequenz als die PS-Kennung vorangestellt und der Treiber läßt diese aufgrunddessen zu oder lehnt sie eben ab. Insofern wundert es mich, daß nVidia ja wohl offensichtlich OpenGL-spezifische Befehlssequenzen zuläßt, die "Z-korrektes BumpMapping" erlauben, aber PS1.3-Sequenzen dieser Art ablehnt...
Unter OpenGL gibt es keine DX-artigen "PS-Programme", die Combiner werden hier etwas anders angesprochen. Unter OpenGL ist NVidia an keine PS-Spezifikation gebunden.
GF3 unterstützt, aus welchen Gründen auch immer, nicht die volle Funktionalität von PS1.2. Deswegen lehnt DirectX sämtliche Shader ab, die mit einer Version höher als 1.1 deklariert sind. Das liegt nicht im Ermessen von NVidia.

Könnte es sein, daß dann also im Prinzip einfach nur der treiber entsprechend angepaßt werden müsste ?
Es gäbe für NVidia keinen Grund, PS1.3 nicht zu bieten, wenn es der Chip könnte. Keiner kauft sich eine GF4Ti, weil sie im Gegensatz zur GF3 PS1.3 unterstützt, sondern aus anderen Gründen.

Auch sagt man, daß durch den PS1.4 sehr viel mehr möglich sei, als mit den Vorgängern, was auch an den Haaren herbei gezogen zu sein scheint, da deren Nutzung nur in bestimmten Szenarien Performance-technische Vorteile haben können, aber keinesfalls exklusive visuelle...
PS1.4 hat definitiv visuelle Vorteile, schon aufgrund des größeren Rechenbereiches.

Exxtreme
2002-05-18, 22:03:38
Originally posted by Razor

ATI hat schlicht einen Fehler gemacht und mich als Anweder einer 'technologisch rückständigen' Karte freut's halt und ich bin sicher daß es auch Matrox freut (und die vielen Fan's natürlich auch), da die Nicht-Implementierung des PS1.4 (den ATI ja quasi aufgezwungen hätte !) nun kein Nachteil mehr darstellt.

Also vielen herzlichen Dank nochmal !

Razor
Ich fürchte es stellt einen grossen Nachteil da, daß ausser ATi niemand den PS1.4 implementiert hat. Wie Xmas schrieb, hat der PS1.4 visuelle Vorteile ggü. PS1.3. Jetzt wirst du, und alle anderen Gamer, dich mit optisch "schlechteren" Spielen zufrieden geben _müssen_ da die Entwickler auf den PS1.3 setzen werden. Es wird sich jetzt die "schlechtere" Technik durchsetzen.

Gruß
Alex

Demirug
2002-05-18, 22:22:03
@Razor:
Ob das mit DX8.1 jetzt die schuld von ATI oder MS ist wissen wahrscheinlich nur wenige. Man muß aber bedenken das MS zu diesem Zeitpunkt schwer mit NVidia wegen der XBox im Gespräch war und ein modifiziertes DX8 wurde ja dann Teil des XDK. Ich könnte mir schon vorstellen das man ATI da ein bischen vergessen hat.

Was man ATI aber definitive vorwerfen kann ist das sie sich zu spät darum bemüht habe iheren ps zum Teil von DX8 zu machen. Die Folge davon ist ein R200 mit einem Feature das im Moment keinem Nutzen bringt aber trotzdem bezahlt werden muss.

Als Gamer kann es mir im Prinzip egal sein welche Features meine Karte hat. Wenn die Karte eine ausreichende Marktdurchdringung erreicht wird sie auch unterstützt (nicht unbeding alle Features). Die kleinen Hersteller müssen sich aber möglichst an einen der großen mit dem Featureset ranhängen sonst könnte es dumm ausgehen.

Die Frage die sich nun stellt ist doch. Warum hat Matrox keinen ps1.4 eingebaut?

1. Kamm die Spec für DX8.1 zu spät?
2. War kein Platz mehr auf dem DIE?
3. War es eine bewuste Entscheidung dagegen?

Das Matrox sich bewust gegen ein Feature entscheidet kann ich nicht glauben. Da sie die Intervalle von NVidia nicht mitgehen wollen wäre es blödsinn Features nicht zu einzubauen da sie es ja nicht so einfach bei nächsten Intervall nachschieben können.

Über die besseren Möglichkeiteb mit ps1.4 sind wir uns doch wohl alle einig oder???

Ob die vorgehensweise von ATI beim einbringen in DX so ganz richtig war ist aber wohl der große Streitpunkt.

Razor findet das es nicht in Ordnung war und freut sich jetzt das ATI wohl keinen Erfolg damit hatte.

Ich selbst finde es auch nicht ganz in Ordnung das man DX8.1 kurzfristig eingeschoben hat weis aber nicht ob ich MS oder ATI dafür verantwortlich machen soll.

Demirug
2002-05-18, 22:26:33
Originally posted by Exxtreme

Ich fürchte es stellt einen grossen Nachteil da, daß ausser ATi niemand den PS1.4 implementiert hat. Wie Xmas schrieb, hat der PS1.4 visuelle Vorteile ggü. PS1.3. Jetzt wirst du, und alle anderen Gamer, dich mit optisch "schlechteren" Spielen zufrieden geben _müssen_ da die Entwickler auf den PS1.3 setzen werden. Es wird sich jetzt die "schlechtere" Technik durchsetzen.

Gruß
Alex

Wie ich bereits in meinem vorherigen Beiträgen geschrieben habe wissen wir aber nicht wehr wirklich schuld an dieser Situation hat.

Quasar
2002-05-18, 22:31:52
Möglicherweise liegt es eben auch an der XBox, das man in der "Konkurrenz"-API mit dem zeitnah erschienenen Produkt möglichst nicht dieselbe Funktionalität erreichen sollte, einfach um der XBox zu ein wenig mehr grafischem Glanze zu verhelfen. Aber das reicht wieder in den Bereich der Verschwörungstheorien...genausogut könnte man vermuten, dass Matrox ebenfalls nicht erfreut über ATis DX8.1-Vorstoß war und deswegen als Revanche die PS1.4 im Nachhinein quasi zur Totgeburt deklarierte.

Wie gesagt, sehr weit hergeholt, das Ganze.

Exxtreme
2002-05-18, 22:38:48
Originally posted by Demirug


Wie ich bereits in meinem vorherigen Beiträgen geschrieben habe wissen wir aber nicht wehr wirklich schuld an dieser Situation hat.
Die Schuldfrage wird wahrscheinlich niemals geklärt werden. Nur ich fürchte, daß mein oben beschriebenes Szenario mehr oder weniger eintreten wird was ich persönlich schade finde.So oder so - die Gamer sind im Endeffekt die Verlierer.

Gruß
Alex

Demirug
2002-05-18, 22:57:04
Originally posted by Exxtreme

Die Schuldfrage wird wahrscheinlich niemals geklärt werden. Nur ich fürchte, daß mein oben beschriebenes Szenario mehr oder weniger eintreten wird was ich persönlich schade finde.So oder so - die Gamer sind im Endeffekt die Verlierer.

Gruß
Alex

Ich denke du siehts im Moment da etwas zu schwarz. Die DOOM III engine benutzt die Fähigkeiten ja. Und wird werden sicher wieder einige Spiele auf dieser Basis sehen.

Im Moment sind gerade viele 3d-engines auf DX8 Basis im entstehen. Nun neigen ja Spieleentwickler dazu ihere Engines mehrfach zu recyeln. Ein Umstieg von DX8 nach DX9 ist nicht ganz unproblematisch. Die Integration von PS1.4 ist dagegen nicht ganz so kompliziert. Wenn der NV30 von Nvidia PS1.4 unterstützt könnte bei den Entwicklern durchaus interesse bestehen ihere DX8 Engine mit einem PS1.4 noch etwas aufzuwerten damit sie auf einem NV30 eben noch etwas cooler als auf einer GF4 aussieht.

Quasar
2002-05-18, 23:06:37
...aber eben auch auf einer ATi. Und das ist das entscheidende, warum nV so etwas ganz sicher nicht machen wird.

Demirug
2002-05-18, 23:15:40
Originally posted by Quasar
...aber eben auch auf einer ATi. Und das ist das entscheidende, warum nV so etwas ganz sicher nicht machen wird.

Das hängt von der DX9 spec ab. Wenn dort steht das der Support von ps2.0 ebenfalls den support von ps1.4 impliziert bleibt ihnen ja nichts anderes übrig.

Zudem gibt es noch zu bedenken das wenn NVidia es schaft den ps1.4 auf der NV30 schneller als ATI laufen zu lassen habe sie doch wieder ein Argument für die NV30.

Im OEM Markt spielen ps ja eh noch keine rolle.

aths
2002-05-19, 00:07:08
Razor,

eine Zwischenlösung ist dann eine, wenn sie später von einer besseren abgelöst wird. Da PixelShader 2.0 sicher kommen wird, ist alles bis dorthin eine Zwischenlösung. 2.0 wird aber wohl ebenfalls nicht entgültig sein, sondern eine Zwischenlösung bis Version 3.0...

Es ist nicht wichtig, wann ATI mit 1.4 auf den Markt kam. Wichtig ist, dass PixelShader 1.4 der bessere ist (verglichen mit jedem bereits existierendem PixelShader.) Deshalb ist PixelShader 1.4 auch der Maßstab, den man an neue Hardware anlegen muss - GeForce4, Xabre, Parhelia... alle diese erschienen oder erscheinen nach dem Radeon8500. Wann die Chipentwicklung begann, ist für den Kunden uninteressant.

PixelShader 1.4 ist dank vernünftiger mit 1.0 - 1.3 kompatibel. Es ist also nur vorteilhaft, wenn man 1.4 hat.

Deine Meinung, dass es ein "Fehler" war, dass ATI den besseren PixelShader implementierte kann ich absolut nicht nachvollziehen. Wie schon gesagt wird sich Version 2.0 eher an 1.4 denn 1.3 orientieren. ATI hat erheblich zur Weiterentwicklung des PixelShaders beigetragen. PixelShader 1.0 - 1.3 orientiert sich im internen Aufbau stark an NSR. PixelShader 1.4 nimmt den Ansatz mit der Programmierbarkeit viel ernster. Das ist die Zukunft. Egal, ob es noch 1 oder 2 Jahre dauern wird. ATI stellt heute Hardware zur Verfügung, die dem DirectX9-Pixelshader näher kommt als jeder anderen Implementation.



Dass Matrox aber 'nur' auf 1.3 setzt hat einfach mit der Architektur und dem Beginn der Chip-Entwicklung zu tun: Der Parhelia ist auf 4 (oder 8) Texturen pro Pass ausgelegt. Nicht auf 6. Als der G800 entwickelt wurde, war PixelShader 1.0 noch "aktuell" (wenn auch noch nicht in Hardware gegossen, der 3dfx Rampage ist dann allerding PS.1.0-kompatibel gewesen) und Matrox fügte nun nur noch die neuen Befehle hinzu, anstatt die Architektur umzukrempeln.

Exxtreme hat Recht. Würden die Entwickler auf 1.4 setzen, brächte uns Gamern das Vorteile.

Quasar
2002-05-19, 00:21:01
aths,

wann die Chipentwicklung begann, kann dem Kunden zwar egal sein, da stimme ich dir zu, aber man kann offenbar nur schlecht nachträglich noch eine Ecke an das quasi fertigdesignte Die dranklatschen, um noch den PS1.4 zu integrieren. Und wie ich diesem Thread entnahm, scheint ATi die PS1.4 erst in letzter Minute mit finalen Specs in DX8.1 geboxt zu haben. Wann also sollten die "anderen" denn die neuen Pixelshader integrieren, ohne einen Produktzyklus zu verpassen?

Nenene, so geht das nicht.

Weiterhin gestehst du der Parhelia aber zu, daß es hier eben doch mit dem Beginn der Chipentwicklung zu tun hat. Was denn nun?

Sicher ist ein PS1.4 einem niedrigeren vorzuziehen, aber wenn er nicht genutzt wird, entgeht dem Gamer auch nichts. Wie du ja weißt, setzen Entwickler nur sehr zögerlich auf neue Features um ihre Produkte besser absetzen zu können.

Außerdem beschreibst du treffend, daß der PS1.4 einem PS2.0 näher kommt als alles andere. Nur wird man möglicherweise darauf auch keine PS2.0-Programme ablaufen lassen können. Hier greift dann wieder Razor's Argument, ATis Kunden hätten zuviel gezahlt, da der Chip ohne PS1.4 preiswerter zu produzieren wäre.

Exxtreme
2002-05-19, 00:31:29
Originally posted by Quasar


Sicher ist ein PS1.4 einem niedrigeren vorzuziehen, aber wenn er nicht genutzt wird, entgeht dem Gamer auch nichts.
Doch, dem Gamer entgeht schon was. Er hätte qualitativ höherwertige Effekte haben können. Da ausser ATi niemand den PS1.4 verbaut, müssen die Entwickler das berücksichtigen und bei den Effekten sparen. Gut, man kann an dieser Tatsache sowieso nichts mehr ändern. Überhaupt, die ganze PixelShader-Geschichte ist mir persönlich sowieso ziemlich suspekt. Andererseits sieht man dadurch, daß die R8500 doch ihrer Zeit voraus ist.

Gruß
Alex

Quasar
2002-05-19, 00:36:25
Nein, denn nVidia hätte erst mit dem nV30 die Chance gehabt, PS1.4 in Hardware zu realisieren. Das bedeutet, für PS1.4-Games gäbe es eine potentielle Käuferschicht, die exakt der Anzahl der verkauften ATi-R200 Chips entspricht.

Selbst wenn es 1 Million Stück weltweit sein sollten, ist das wohl noch kein wirklich lohnender Anreiz, oder?

Izmir Egal
2002-05-19, 00:41:49
Spam _nochmal_ gelöscht. (Exxtreme)

aths
2002-05-19, 00:44:06
Quasar,

GF3 hat eine Menge Features, die vermutlich nie ein Spiel nutzen wird. (3D Texturen, Shadow Buffers, RT-Patches, blablabla.) Man weiss ja auch nicht im Vornherein, welche PS-Befehle nun im einzelnen wirklich angewendet werden, und welche nicht. Vielleicht hätte man ein paar weglassen können um den Shader billiger zu produzieren...

Eine bessere Technik zu verbauen ist vorteilhaft. 3dfx wurde beim VSA-100 für fehlendes T&L gescholten. Deiner Argumentation mit den Produktionszylken nach wäre das zu unrecht gewesen.

Sowohl nV als auch Matrox war es den Aufwand nicht wert, PS.1.4 zu integrieren. Das nehme ich angesichts der Produktspezifikationen zur Kenntnis. Beurteilt man den PixelShader so bleibt trotzdem der Fakt, dass ATI schon weiter ist.

Einige scheinen nur dann zu akzeptieren dass ihre Hardware technisch überholt ist, wenn die Neuerungen aus dem Hause kommen woher ihre jetzige Hardware stammt. Das finde ich ein wenig albern.

Quasar
2002-05-19, 00:49:04
Das finde ich allerdings auch.

Exxtreme
2002-05-19, 00:57:36
@ Izmir

Es gibt ein Spam-Forum im 3DCenter-Forum. Da kannst du dich austoben, wie du es brauchst.

Gruß
Alex

Izmir Egal
2002-05-19, 00:59:56
Originally posted by Exxtreme
@ Izmir

Es gibt ein Spam-Forum im 3DCenter-Forum. Da kannst du dich austoben, wie du es brauchst.

Gruß
Alex

Jepp,

thanks, war lange nicht mehr hier.

Schau mal ins Mobo Forum..habe eine seriöse Adresse angegeben. >> wegen Beleidigungen gelöscht << (Exxtreme) hat natürlich....wie damals schon.....dies als "nicht zum Thread passend" abgewertet.....

Exxtreme
2002-05-19, 01:07:50
@ Izmir

Hör auf hier die Leute zu beleidigen. Solch ein Verhalten wird nicht toleriert. Und ich sage es nicht nocheinmal. Wenn du überschüssige Energie hast, dann lauf mal 10x ums Haus.

Gruß
Alex

MadManniMan
2002-05-19, 01:11:01
@razor:

wenn du schon auf deiner verqueren meinung sitzen bleiben möchtest, dann versuche wenigstens nicht, sie dadurch zu rechtfertigen, daß du anderen in gewissen punkten nach dem mund redest.

danke.

Demirug
2002-05-19, 01:18:42
es tut mir FÜRCHTERLICH LEID, statt auf "Quote" auf "Edit" gedrückt und das vor dem Abschicken nicht bemerkt zu haben!

Ich bitte vielmals um Entschuldigung! - Das passiert mir nicht noch mal (aths)

MadManniMan
2002-05-19, 01:30:29
...ich bin immernoch der meinung, daß doom3 DAS argument wird *vorfreu*

nocturne
2002-05-19, 03:07:13
Bis Doom3 und entsprechende Spiele auf dieser Engine raus sind, haben wir längst mindestens eine DX9-Karte der zweiten Generation und lächeln über die Karten, über die hier diskutiert wird, als wären es Antiquitäten. ;)

MadManniMan
2002-05-19, 03:20:54
...weshalb carmack auch auf ps1.4 optimiert

nocturne, du bist echt der honk des abends(hab nichts dagegen, falls letztgenanntes gelöscht wird. hauptsache es stand überhaupt im forum :zunge: )

Razor
2002-05-19, 12:51:01
@Xmas
Du gehst von falschen Voraussetzungen aus. Bei simplen Multitexturing-Varianten mit 7 Texturen werden wohl beide zwei Passes brauchen, wird es allerdings etwas komplexer, können es auf GF3/4 durchaus auch mehr Passes werden. Die Rechnung "7 Texturen, 4 pro Pass, also zwei Passes" stimmt in vielen Fällen nicht.

Warum sollten das die Entwickler tun? Na weil es schneller ist...
War doch alles sehr vereinfacht ausgedrückt, Xmas...
So einfach wie mein Gemüt halt !
;-)

Die Entwickler solltes es tun, weil es schenller auf einer Handvoll Karten ist ?
Eher nicht...
Zwei, aber nicht alle!
Das hat auch nix mit "emulieren" zu tun. Diese Befehle sind Makrobefehle, Kurzformen für kleine Befehlsketten, die dem Programmierer mehr Übersicht geben.
Mehr Übersicht vielleicht, aber keine visuellen Vorteile...
Die drei Dinge ergänzen sich hervorragend...
Inwiefern sollten N-Patches (ATI) noch sinnvoll sein, wenn DM und die polyFlachen zum Einsatz kommen ?
???
Unter OpenGL gibt es keine DX-artigen "PS-Programme", die Combiner werden hier etwas anders angesprochen. Unter OpenGL ist NVidia an keine PS-Spezifikation gebunden.
GF3 unterstützt, aus welchen Gründen auch immer, nicht die volle Funktionalität von PS1.2. Deswegen lehnt DirectX sämtliche Shader ab, die mit einer Version höher als 1.1 deklariert sind. Das liegt nicht im Ermessen von NVidia.
Soweit ich informiert bin, entscheidet nch immer der Treiber, was er der API meldet...
Es gäbe für NVidia keinen Grund, PS1.3 nicht zu bieten, wenn es der Chip könnte.
Ich denke, daß hier die Vorgaben eindetig sind...
Und wenn die gf3 keinee volle PS1.2-Ünterstützung bietet, dann ist's mit PS1.3 eben auch Asche.
Deshalb schrieb ich ja auch:
"Wäre echt 'nett', aber würde natürlich absolut nicht helfen... "
PS1.4 hat definitiv visuelle Vorteile, schon aufgrund des größeren Rechenbereiches.
Beispiel ?
Kenne da einen Engine-Progger, der mal ähnliches verlautbaren ließ, allerdings ohne jemals eine gf3 in den Fingern gehabt zu haben. Als dies dann doch der Fall war, war er sehr erstaunt, daß der visuelle Unterscheid nahe Null war, obwohl er die R200 unter OpenGL (!) voll ausreizte...

War von emiper-8@student.luth.se / ICQ #47010716 ...
Sehr hübsches Demo, wenn ich nur wüßte, woher ich das gleich noch hatte...
Na ja habs mal eben hier (http://mitglied.lycos.de/razor3dc/GameEngine.rar) geuppt (ca. 1MB ;-) !
(sollte auf R200 und gf3/4 laufen)

@Exxtreme
Ich fürchte es stellt einen grossen Nachteil da, daß ausser ATi niemand den PS1.4 implementiert hat. Wie Xmas schrieb, hat der PS1.4 visuelle Vorteile ggü. PS1.3. Jetzt wirst du, und alle anderen Gamer, dich mit optisch "schlechteren" Spielen zufrieden geben _müssen_ da die Entwickler auf den PS1.3 setzen werden. Es wird sich jetzt die "schlechtere" Technik durchsetzen.
Sehe ich anders...

Zuerst möchte ich auch von Dir einen Beleg für die bessere visuelle Darstellung durch PS1.4 (-Fähigkeiten)!
Erst wenn dieser Beweis erbracht ist, würde ich Deinen Ausführungen folgen können...
So oder so - die Gamer sind im Endeffekt die Verlierer.
Ganz im Gegenteil...
Da es jetzt eine sehr sehr breite Hardwarebasis gibt, werden sie im Endeffekt die Gewinner sein...
Doch, dem Gamer entgeht schon was. Er hätte qualitativ höherwertige Effekte haben können.
Schon wieder...
Da behauptet jemand einfach etwas, ohne es zu belegen und schon wird es nachgeplappert (ist wirklich nicht böse gemeint !). Bitte sei doch so gut und führe ein Demo an (wie ich es oben tat), welches diese Aussage stützt. Die performance-technischen Vorteile laß ich zu 100% gelten, aber den visuellen Vorteil wage ich in Frage zu stellen !
Andererseits sieht man dadurch, daß die R8500 doch ihrer Zeit voraus ist.
Zu weit voraus und eben doch zu spät...

@Demirug
Die Frage die sich nun stellt ist doch. Warum hat Matrox keinen ps1.4 eingebaut?
Was eigentlich ziemlich unerheblich ist...
Tatsache ist, daß sie es nicht getan haben (aus welchen Gründen auch immer) und auch SiS dies nicht für notwendig erachtete. Und da hier nun mal das 3 zu 1 Prinzip herrscht (ev auch 4 zu 1 mit dem P10), muß man die Frage umkehren und ATI nun diese Frage stellen: "Wozu ?".

Zuerst war es noch die Frage, ob sich nun nVidia's Vorgabe durchsetzen würde, oder eben die von ATI. Nun ist es Amtlich und ATI wird dem nun nichts mehr entgegen zu setzen haben...

Michund allen anderen gf3/gf4, Xabre und auch zukünftigen Matrox-Besitzern) wird's freuen...
Über die besseren Möglichkeiteb mit ps1.4 sind wir uns doch wohl alle einig oder ???
Besser Möglichkeiten für die Entwickler: Ja !
Visuelle Vorteile für den Endbenutzer: Hmmm...
Mich würde da echt mal ein greifbarer Beleg freuen...
@Exxtreme: Ich denke du siehts im Moment da etwas zu schwarz. Die DOOM III engine benutzt die Fähigkeiten ja. Und wird werden sicher wieder einige Spiele auf dieser Basis sehen.
Und wir werden explizit spätestens bei DoomIII sehen, ob man duch den PS1.4 tatsächlich einen quantitativen und/oder qulitativen Vorteil durch die PS1.4-Fähigkeiten hat...
Wenn der NV30 von Nvidia PS1.4 unterstützt könnte bei den Entwicklern durchaus interesse bestehen ihere DX8 Engine mit einem PS1.4 noch etwas aufzuwerten damit sie auf einem NV30 eben noch etwas cooler als auf einer GF4 aussieht.
Ich möchte jetzt wirklich langsam einen Beleg dafür sehen, was denn mit den PS1.4 'cooler' aussehen soll...
Sehr viel sinniger wäre doch, gleich einen PS2.0 Codepath zu integrieren (auch wenn's etwas komplexer ist), weil die Engine dann sehr viel bessere Zukunfstchancen hätte. Wozu denn die paar R200/NV30 beglücken, wenn man doch die Möglichkeit hätte, ALLE zukünftigen GraKa's zu unterstützen ?

@Quasar
Möglicherweise liegt es eben auch an der XBox, das man in der "Konkurrenz"-API mit dem zeitnah erschienenen Produkt möglichst nicht dieselbe Funktionalität erreichen sollte, einfach um der XBox zu ein wenig mehr grafischem Glanze zu verhelfen. Aber das reicht wieder in den Bereich der Verschwörungstheorien...genausogut könnte man vermuten, dass Matrox ebenfalls nicht erfreut über ATis DX8.1-Vorstoß war und deswegen als Revanche die PS1.4 im Nachhinein quasi zur Totgeburt deklarierte.

Wie gesagt, sehr weit hergeholt, das Ganze.
Na ja, Quasar...
Da halte ich die Vermutung, daß ATI einfach zu spät kam (wie mit dem R200 ja auch) aber für etwas realistischer. Obwohls natürlcih auch nur eine Vermutung ist. Tatsache ist auf jeden Fall, daß der PS1.4 nicht im orginalen Release von DX8 enthalten war und damit eigentlich schon per Definition zur 'Totgeburt' verurteilt war...

Aber Deinen anderen Kommentaren kann ich nur zu 100% bepflichten !

@aths
eine Zwischenlösung ist dann eine, wenn sie später von einer besseren abgelöst wird. Da PixelShader 2.0 sicher kommen wird, ist alles bis dorthin eine Zwischenlösung. 2.0 wird aber wohl ebenfalls nicht entgültig sein, sondern eine Zwischenlösung bis Version 3.0...
Na, aths, das ist doch ein bischen arg an den Haaren herbei gezogen, oder nicht ?
Somit würde es nur Zwischenlösungen geben und niemals einen Standard.
Daß das Unsinn ist, brauche ich Dir ja wohl nicht erzählen, oder für was würde dann der Bgriff 'Standard' stehen ?

Standard = etablierte Zwischenlösung !
Punkt.
PixelShader 1.4 ist dank vernünftiger mit 1.0 - 1.3 kompatibel. Es ist also nur vorteilhaft, wenn man 1.4 hat.
Was offensichtlich nur ATI so sieht...
Warum bloß alle anderen nicht ?
Deine Meinung, dass es ein "Fehler" war, dass ATI den besseren PixelShader implementierte kann ich absolut nicht nachvollziehen. Wie schon gesagt wird sich Version 2.0 eher an 1.4 denn 1.3 orientieren. ATI hat erheblich zur Weiterentwicklung des PixelShaders beigetragen. PixelShader 1.0 - 1.3 orientiert sich im internen Aufbau stark an NSR. PixelShader 1.4 nimmt den Ansatz mit der Programmierbarkeit viel ernster. Das ist die Zukunft. Egal, ob es noch 1 oder 2 Jahre dauern wird. ATI stellt heute Hardware zur Verfügung, die dem DirectX9-Pixelshader näher kommt als jeder anderen Implementation.
Ich habe gesagt, daß es ein wirtschaftlicher Fehler, nicht ein technologischer... auch ist für alle Analysten klar gewesen, daß es weiter in Richtung flexiblere Programmierung gehen würde. So hat ATI lediglich einen Schritt dorthin etwas vorgezogen.

Auch will ich ATI die technologische Leistung ja gar nicht absprechen. Nur war es eben ein wirtschaftlicher Fehler, da so ihr Produkt viel zu spät kam und somit keine Ernst zu nehmende Konkurrenz mehr darstellte.

ATI war halt viel zu früh, aber dennoch viel zu spät !
Und das meine ich ernst...
Dass Matrox aber 'nur' auf 1.3 setzt hat einfach mit der Architektur und dem Beginn der Chip-Entwicklung zu tun: Der Parhelia ist auf 4 (oder 8) Texturen pro Pass ausgelegt. Nicht auf 6.
Und exakt dies meinte Kirk David, als er sagte, daß der PS1.4 lediglich eine Erweiterung sei, um mit der spezifischen ATI-Implementierung besser zurecht zu kommen. Also hat der PS1.4 keinen Vorteil für eine Hardware, die mehr als 6 Texturen unterstützt. Nichts anderes wolle er und auch ich damit zum Ausdruck bringen...
Exxtreme hat Recht. Würden die Entwickler auf 1.4 setzen, brächte uns Gamern das Vorteile.
Dann möchte ich nun auch von Dir einen Beleg für diese Aussage !
Daß es den Radeon-Besitzern Vorteile gebracht hätte, sehe ich ein (=ev höhere Performance), aber welchen visuellen Vorteile sich dadurch ergeben würden, ist noch immer nicht klar, zumal wohl niemand dieses belegen kann oder will...
Einige scheinen nur dann zu akzeptieren dass ihre Hardware technisch überholt ist, wenn die Neuerungen aus dem Hause kommen woher ihre jetzige Hardware stammt. Das finde ich ein wenig albern.
Ich denke, aths, daß wir hier doch ein etwas anderes Nivau haben, oder etwa nicht ?
Insofern halte Dich doch mit solcherlei Kommentaren ein wenig zurück, so, wie Du es immer von anderen forderst.

Ansonsten kann ich dazu nur sagen, daß Du da völlig auf dem Holzweg bist, wenn Du mit diesem Kommentar mich gemeint haben solltest...

@Manni
wenn du schon auf deiner verqueren meinung sitzen bleiben möchtest, dann versuche wenigstens nicht, sie dadurch zu rechtfertigen, daß du anderen in gewissen punkten nach dem mund redest.
Wenn Du sonst nichts zu Thema beizutrage hast, dann bitte ich Dich, solche Kommentare zu unterlassen.

danke.

-

Ist der PS1.4 eine technologische Leistung ? -> sicher...
Ist der PS1.4 wirtschaftlich sinnvoll für ATI gewesen ? -> eher nicht...
Bringt der PS1.4 tatsächlich visuelle Vorteile ? -> Beweis steht aus...
Ist es für andere Hersteller notwendig, den PS1.4 zu unterstützen -> offenbar nicht...
Habe wir (als Endanaweder) einen Nachteil durch einen PS1.4 Wegfall -> vermutlich nicht...

Wo ist also das Problem ?

Mit dem PS2.0 wird uns viel neues Erwarten und auch die R200-Nutzer werden die volle Quialität zukünftiger DX8-Spiele bekommen. Auch wernden andere Hersteller, die den PS1.4 (aus welchen Gründen auch immer) nicht implementieren kontten oder wollte, keinen Nachteil haben. Im Prinzip ist doch also die jetzige Situation geradezu ideal !

Also nochmal: Wo ist also das Problem ?

Und ich wäre wirklich auf einen (in der Praxis nachvollziehbaren) Beleg gespannt, der belegen könnte, daß PS1.4-Fähigkeiten eine bessere visuelle Darstellung bringen würdem.

Und um hier den Anfang zu machen, im Anhang mal ein Shot, aus dem von mir (eigentlich für die R200 geschriebenen) verlinkten (http://mitglied.lycos.de/razor3dc/GameEngine.rar) Demo's auf einer gf3, deren Support nachträglich implementiert wurde...
(der Sound ist übrigens richtig genial ;-)

Bis denne

Razor

Hier also mein Shot, der übrigens auch hier (http://mitglied.lycos.de/razor3dc/GameEngine.jpg) als unkomprimiertes JPEG gezogen werden kann: