PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread R420 (war R420 12 Pipelines)


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12

Exxtreme
2004-03-26, 10:01:58
Original geschrieben von r@w
Ah ja, "Branching" und Texturzugriffe mit dem VS sind also 'kleine' Schritte ?
Warum hat dann ATI diese nicht "mal eben" implementiert ?
:???:

Errrm, ich sprach von PS3.0 ... VS3.0 habe ich gar nicht erwähnt. =) Ausserdem könnte der R420 tatsächlich VS3.0 unterstützen.
Original geschrieben von r@w
Ich denke mal, dass Du sehr genau wissen wirst, was alles damit möglich wird. Und klar, mit MT läßt sich auch fast JEDER Effekt relisieren. Dazu braucht's dann gar keinen Shader mehr, aber ist das auch gangbar ? Oder besser: gibt es CPU's in Verbindung mit GPU's, die z.Bsp. so etwas wie FarCry ausschließlich mit MT auf den Bildschirm bringen können ? Nein ? Hmmm...

Nicht wirklich. Gutes Bumpmapping kriegst du mit MT nicht wirklich hin und viele andere Effekte auch nicht. Deswegen ist der Sprung von MT auf Shader sehr groß.
Original geschrieben von r@w
Genauso wird es sich wohl auch mit dem PS3.0 verhalten.

Klar kann man (HL2-like ;-) zigtausen von Shadern proggen und damit die GPU zuballern, um zum Ziel zu gelangen. Dass es aber auch eleganter oder gar effizienter geht, braucht man hier aber wohl auch nicht zu erwähnen.

Also HL2 enthält garantiert keine Zigtausende von Shadern. =) Und ich glaube, du überschätzt die praktischen Möglichkeiten von Branching bei derart kurzen Shadern, wie sie wohl in Zukunft Verwendung finden werden. Ein paar Hundert Shaderanweisungen sind nicht wirklich viel.
Original geschrieben von r@w
Aber das Thema hatten wir schon mal, Exxtreme.
Und bis dato bin ich nicht davon überzeugt, dass die PS3.0 'überflüssig' sind.
So wie's ausschaut, wird ATI wohl der einzige IHV sein, der PS3.0 'ausläßt', aber spätestens mit PS4.0 wird's dann (auch von ATI ;-) wieder unterstützt.

Wir werden sehen.

Ob PS3.0 überflüssig sind oder nicht, das wird die Zukunft zeigen. ICh habe auch niemals behauptet, daß PS3.0 zu den überflüssigen Erfindungen gehören. Ich habe nur gesagt, daß der Sprung von PS2.0 auf PS3.0 nicht so groß ist wie viele vermuten.
Original geschrieben von r@w
nVidia wird vermutlich schon dafür sorgen, dass ihr Marketing-Instrument "PS3.0" auch bei den Entwicklern Anklang findet und damit zumindest über die Hintertür dem Endbenutzer zum Vorteil gereicht.
Nö.
:D

Siehe mein voriges Posting ... Stichwort "SMARTSHADER 3.x".
Original geschrieben von r@w
Ganz im Gegenteil, der PS1.4 war ein "Exclusiv-Feature" von ATI.
Und ist es auch geblieben...
(von der PS2.0-Kompatibilität mal abgesehen ;-)

Damals war es schlicht unnötig, heute ist es Makulatur.

Razor
Bisher ist PS3.0 auch ein Exklusiv-Feature von NV. Aber weil's von NV kommt, muss es gut sein, oder?

P.S. EOD für mich.

HOT
2004-03-26, 10:13:06
Die Sache ist doch denkbar simpel: Beim Launch der beiden Chips gibt es keine wirklichen Shader 3.0 Anwendungen (vielleicht Farcry mit Patch). Kann der NV40 also nicht in Shader 2.0 Leistung überzeugen, steht das Urteil recht schnell fest und ATI führt trotz "schlechterem" Techlevel.
Das war früher schon so und wird sich sicherlich jetzt nicht ändern; wer das Risiko aufnimmt um neue Technologie einzubauen hat meistens Nachteile in Kauf zu nehmen. Erschwerend kommt sicherlich noch dazu, dass der NV40 ein Chipmonster ist und sicher sehr viel Strom verballert, eine menge Abwärme erzeugt und zudem noch übelst teuer zu produzieren ist.
Sicher war das bei der Einführung des R300 auch net viel anders, aber der war ja derart viel schneller, dass die Leistungsaufnahme und DIE Grösse nicht mehr die Rolle gespielt haben. Das wird sich beim NV40 sicherlich nicht wiederholen, da ATI wohl auch diesmal einen Tick schneller auf dem Markt ist mit dem R420 nach dem heutigen Stand der Dinge.

Gast
2004-03-26, 10:14:42
Original geschrieben von Exxtreme
Errrm, ich sprach von PS3.0 ... VS3.0 habe ich gar nicht erwähnt. =) Ausserdem könnte der R420 tatsächlich VS3.0 unterstützen.

Nicht wirklich. Gutes Bumpmapping kriegst du mit MT nicht wirklich hin und viele andere Effekte auch nicht. Deswegen ist der Sprung von MT auf Shader sehr groß.

Also HL2 enthält garantiert keine Zigtausende von Shadern. =) Und ich glaube, du überschätzt die praktischen Möglichkeiten von Branching bei derart kurzen Shadern, wie sie wohl in Zukunft Verwendung finden werden. Ein paar Hundert Shaderanweisungen sind nicht wirklich viel.

Ob PS3.0 überflüssig sind oder nicht, das wird die Zukunft zeigen. ICh habe auch niemals behauptet, daß PS3.0 zu den überflüssigen Erfindungen gehören. Ich habe nur gesagt, daß der Sprung von PS2.0 auf PS3.0 nicht so groß ist wie viele vermuten.

Siehe mein voriges Posting ... Stichwort "SMARTSHADER 3.x".

Bisher ist PS3.0 auch ein Exklusiv-Feature von NV. Aber weil's von NV kommt, muss es gut sein, oder?

P.S. EOD für mich. Ne aber MS fordert fp 32 für ps3.0 vs 3.0 und damit fällt ATI aufn Bauch.
Wobei dabei noch rauskommt das bei ps 2.0 vs 2.0 fp 16 reicht!

Demirug
2004-03-26, 10:16:40
Original geschrieben von Exxtreme
Nun ja ... ATi kann immer noch mit "SMARTSHADER 3.x" kontern. Das wird wohl reichen um die "Masse" zu verwirren. Ich gebe zu, das wäre kein feiner Marketingschachzug aber ich könnte mir vorstellen, daß ATi das tatsächlich bringt.

Ja, dann schreibt nVidia mal schnell ein paar Anwendungen die zeigen das Smartshader 3 nicht kompatible mit mit dem DX Shadermodel 3 ist. Das erreicht zwar nicht alle dürfte aber denoch einiges an Wirkung zeigen.

reunion
2004-03-26, 10:44:26
Original geschrieben von Demirug
Zu Farcry und PS 3.0:

nVidia wird versuchen eine Reihe von Entwicklern genau zum gleichen Schritt zu überreden. Dann werden sie eine grosse Liste machen mit Spielen die PS 3.0 nutzen. Diese Liste wird dann ein wichtiger Teil der Kampange gegen ATI. Die Argumentation wird sein das ATI ja rückständige Hardware hat weil es ja spiele gibt die bessere Technik als ATI sie hat nutzen. Ich bin mir fast sicher das dieser Trick gut funktionieren wird. Man schaue sich doch nur die Lage jetzt an. Wenn ATI PS 2.0 sowie FP24 nutzt und bei nVidia nur FP16 oder gar nur PS 1.X zum Einsatz kommt wird von der breiten Masse erst mal davon ausgegangen das es bei nVidia ja schlechter aussehen muss. IMHO werden wir genau den gleiche Effekt bei PS 3.0 (und FP32) gegen PS 2.0 (mit wohl FP24) erleben. "Es benutzt besser Shader also muss es besser aussehen." Mit dem Trick wurde ja auch aus HL2 das DX9-PS 2.0 vorzeige Spiel. Sie benutzen einfach für jeden Effekt PS 2.0 ob es nun nötig ist oder nicht.

Oder es wird mangels Ati-unterstütztung kaum PS3.0 Spiele geben...

Demirug
2004-03-26, 10:48:59
Original geschrieben von reunion
Oder es wird mangels Ati-unterstütztung kaum PS3.0 Spiele geben...

Für ein Studio macht es sich immer gut wenn man behaupten kann das man "Cutting Edge" Technologie einsetzt und für den "PS 3.0 Aufkleber" hat man ja keine echte Arbeit wenn man es nur mal schnell neu durch den Compiler jagt.

robbitop
2004-03-26, 11:15:17
es geht ja imo kaum um neue Effekte durch PS 3 (gut für die PR Leute mag das so sein), sondern um die Performance, wenn die Shaderanweisungen rekompiliert worden sind. Und dies bereitet wie schon oft erwähnt kaum Arbeit..

ShadowXX
2004-03-26, 11:23:38
Original geschrieben von HOT
Das wird sich beim NV40 sicherlich nicht wiederholen, da ATI wohl auch diesmal einen Tick schneller auf dem Markt ist mit dem R420 nach dem heutigen Stand der Dinge.

aha...woher weisst du das ATI den r420 früher kaufbar macht als nVidia den nv40???

Beim nv40 wissen wir, das er am 13/14 April offiziell vorgestellt wird und lt. aussagen von nV Mitarbeitern soll er dann ca. 1 Monat später kaufbar sein...(obs stimmt ist ne andere sache...)

Beim r420 haben wir nicht mal einen Vorstellungstermin....

J.S.Shadow

Mr. Lolman
2004-03-26, 11:35:31
Original geschrieben von Demirug
Für ein Studio macht es sich immer gut wenn man behaupten kann das man "Cutting Edge" Technologie einsetzt und für den "PS 3.0 Aufkleber" hat man ja keine echte Arbeit wenn man es nur mal schnell neu durch den Compiler jagt.

Sofern man NV Technologie einsetzt, oder warum hat denn damals keiner die "Cutting Edge" Technologie des R200 einsetzen wollen?

Ailuros
2004-03-26, 11:37:41
Original geschrieben von betareverse
Da gebe ich dir recht. Ich hätte mich auch gefreut, wenn ATI und NV den Sprung zu PS3.0 zusammen gemacht hätten, am besten bis hin zum Valuesegment, denn wenn ATI auch PS3.0 unterstützt hätte, dann würde es auch viel schneller Anwendungen geben, die PS3.0-FXe nutzen würden. ATI ist somit die Technolgiebremse, so wie Nv damals mit der Unterstützung für die sinnvollen PS1.4, nur wird ATI das vom Markt nicht angekreidet werden, wenn die Performance des R420 stimmt.

Außerdem kommt ja auch noch was von PVR und vieleicht ist ATI dann gezwungen einen R500 aus dem Ärmel zu zaubern? :)


Dass PowerVR oder jeglicher andere "Kleine" einen besonderen Einfluss haben wird hab ich ja schon bezweifelt. Es geht ja hier dann eigentlich mehr um die Eindruecke oder "mindshare", je nach Perspektive.

R500 aus dem Aermel? Wie das passieren soll ist mir fremd, da AFAIK es sich dabei um 90nm handelt.

Eine wahre Technologiebremse koennte ATI fuer DX-Next selber sein, aber bevor das API eine genauere Form annimmt und mehr Kleinigkeiten ueber R500 einfliessen, lass ich das Thema erstmal links liegen.

Mr. Lolman
2004-03-26, 11:37:55
Original geschrieben von ShadowXX
aha...woher weisst du das ATI den r420 früher kaufbar macht als nVidia den nv40???

Beim nv40 wissen wir, das er am 13/14 April offiziell vorgestellt wird und lt. aussagen von nV Mitarbeitern soll er dann ca. 1 Monat später kaufbar sein...(obs stimmt ist ne andere sache...)

Beim r420 haben wir nicht mal einen Vorstellungstermin....

J.S.Shadow

Wenns der 'echte' Thomas B. war, glaub ich, dass an der Aussage, dass NV selbst im Juni für ganz Europa nur 500 Exemplare des NV40 bereitstellen kann, was dran ist. Demnach hätte Ati noch ein bisschen Zeit...

Quasar
2004-03-26, 11:42:40
Original geschrieben von r@e
Was würdest Du sagen, wenn ich Dir nun sage, dass ich mit meiner FX5900 (und dem restlichen System ;-) nicht viel mehr 'verbrauche' ?
;-)

Razor

Daß du lügst?* (oder ein Efficeon-basierendes System mit all-on-Board hast). X-D

*Oder dein Meßgerät nix taugt.

robbitop
2004-03-26, 11:44:50
glaube ich kaum. Die IHVs haben sich angewöhnt ca 1 Monat vor breiter Verfügbarkeit zu liefern.
Was beide IHVs gebremst hat, war wie AiL schonmal vermutet hat, die Verfügbarkeit von GDDR3. Die sollte allerdings gegeben sein. Wenn nicht, werden beide IHVs Lieferschwierigkeiten haben. Wenn man bedenkt, dass es lauffähige Karten schon im Oktober gab..

robbitop
2004-03-26, 11:46:29
@Quasar
er möchte sicher auf die 2D Funktion der FX anspielen, so sehr ich diese begrüße, auf ein echtes Low Power Level kommt man dadurch nicht. (auch mit untertakten).
Sollten immernoch ~30W sein für die Graka.

Ailuros
2004-03-26, 11:47:37
Exxtreme,

Entschuldige mein "Eindringen" in die kleine Quote-Orgie mit razor:

Bisher ist PS3.0 auch ein Exklusiv-Feature von NV. Aber weil's von NV kommt, muss es gut sein, oder?

[devil's advocate mode] Andersrum: nur weil es ATI nicht unterstuetzt, muss es nicht der Rede wert sein?[/devil's advocate mode]

Und um Missverstaendnissen zu entgehen:

Ich habe nur gesagt, daß der Sprung von PS2.0 auf PS3.0 nicht so groß ist wie viele vermuten.

Groesser oder kleiner als PS1.4-->PS2.0? Der Sprung von PS/VS2.0 auf 3.0 ist eine ganze Generation wert IMHO. Weiterhin mit der gleichen Analogie und nur auf Shader Kapazitaeten konzentriert ist (wieder IMHO) der Sprung von PS/VS3.0---> Shader4.0 kleiner als von 2.0 auf 3.0.

Quasar
2004-03-26, 11:47:49
Original geschrieben von betareverse
Ich bin da auch mal gespannt. Razors Aussage traue ich auch nicht so ganz über dem Weg. ;)

Ist doch gar nicht Razor's Aussage, sonder nur eine Quote.

Demirug
2004-03-26, 11:50:43
Original geschrieben von Mr. Lolman
Sofern man NV Technologie einsetzt, oder warum hat denn damals keiner die "Cutting Edge" Technologie des R200 einsetzen wollen?

Weil es arbeit war. Ich habe ja nicht behauptet das dieser "PS 3.0 Aufkleber" Trick optisch was bringt aber er kostet eben nichts. Damals PS 1.4 einzupflegen hätte Zeit und damit Geld gekostet. Das war der Aufkleber nicht Wert. Vorallem da ATI selbst PS 1.4 marketingtechnisch nicht genügend gepuscht hat. Shaderversionen waren damals eben einfach noch nicht ein gutes Zugpferd.

Ailuros
2004-03-26, 11:51:43
Wenn man bedenkt, dass es lauffähige Karten schon im Oktober gab..

Ja preliminary testboards mit ~300MHz und tonnenweise bugs. Das sind in keinem Fall weder lauffaehige noch verkaufbare "Karten".

Nun gut mal angenommen Du bekommst so ein Dingsda in die Hand; sei froh wenn Du es schaffst mit Windows zu booten und dann brauchst Du wohl staendigen direkten DriverTeam support um das Ding laufen lassen zu koennen.

"Verkaufbares Silizium" gibt es erst seit 2004.

robbitop
2004-03-26, 11:54:17
immerhin etwas ..Karten für die Entwickler und ich glaube so schwarz, wie du es malst, ist es nicht.Aber wissen tue ich es natürlich nicht.
hört sich aber übertrieben an

Quasar
2004-03-26, 11:56:24
Original geschrieben von Exxtreme
Also HL2 enthält garantiert keine Zigtausende von Shadern. =)

Hatte da nichtmal jemand diesen "Leak" ausgelesen und ist auf eine wahrhaft erstaunliche Zahl gekommen?

Lag vielleicht daran, daß selbst der Mauszeiger im Menü wahrscheinlich ein Render-to-FP-Texture Effekt war. ;)

Quasar
2004-03-26, 11:58:18
Original geschrieben von robbitop
@Quasar
er möchte sicher auf die 2D Funktion der FX anspielen, so sehr ich diese begrüße, auf ein echtes Low Power Level kommt man dadurch nicht. (auch mit untertakten).
Sollten immernoch ~30W sein für die Graka.

Ja, mag sein, aber ich habe nun schon ein ziemlich veraltetes und somit langsames System. Aber wenn hier eine FX drinsteckt, kommen auch grob untertaktet nicht unter ~75W raus (bzw. rein).

Demirug
2004-03-26, 12:02:19
Original geschrieben von Quasar
Hatte da nichtmal jemand diesen "Leak" ausgelesen und ist auf eine wahrhaft erstaunliche Zahl gekommen?

Lag vielleicht daran, daß selbst der Mauszeiger im Menü wahrscheinlich ein Render-to-FP-Texture Effekt war. ;)

Wenn du den Leak mit 3da ausliest werden es nicht so viele. Das hängt aber damit zusammen das HL2 die Shader erst anlegt wenn sie gebraucht werden. Vorhanden sind schon ein paar mehr. IIRC geht das so in den Bereich 3-4 Tausend aleine für die Pixelshader.

Ailuros
2004-03-26, 12:03:33
Original geschrieben von robbitop
immerhin etwas ..Karten für die Entwickler und ich glaube so schwarz, wie du es malst, ist es nicht.Aber wissen tue ich es natürlich nicht.
hört sich aber übertrieben an

*seufz* Glaub doch was immer Du willst; waere es so wie Du Dir es vorstellst waere NV40 schon heute auf Regalen. Ich hab keinen besonderen Grund irgend etwas schwarz zu malen.

Nur sehr einfache Logik und ein bisschen Erfahrung was chip-Entwicklung betrifft reicht aus. Wenn man jetzt Entwicklung bis zu einem gewissen Grad noch mitverfolgen darf dann noch besser.

robbitop
2004-03-26, 12:09:38
aber was sollen entwickler mit einer Karte die nicht mal fähig ist, ein 3D Programm zu starten?
ist das ding wirklich sooo verbugt?

also die Bugs nehme ich dir schon ab, aber ich könnt mir das mit Abstürzen und Artefakten erklären, aber dass man das ding nur mit hängen und würgen gebottet bekommt?

aber der Zeitfaktor leuchtet mir ein

Gib nicht so schnell auf mit mir AiL ;)

deekey777
2004-03-26, 12:10:14
Irgendwo habe ich gelesen, dass die 9800/Pro die am meisten gekaufte DX9 Grafikkarte ist - von normalen Menschen (nix mit OEM-Geschäft).

Winter[Raven]
2004-03-26, 12:12:24
Original geschrieben von Mr. Lolman
Wenns der 'echte' Thomas B. war, glaub ich, dass an der Aussage, dass NV selbst im Juni für ganz Europa nur 500 Exemplare des NV40 bereitstellen kann, was dran ist. Demnach hätte Ati noch ein bisschen Zeit...

Wer zuhöhle ist dieser Thomas B. ?

So ein Unfug habe ich lange nicht mehr gehört.

Die auf der NV40 Lan Party rumstehende PC werden alle mit NV40 ausgerüstet sein, und die Gewinner dürfen sich auf NV40 Karten freuen.

Und wie Nvidia Germany verlauten ließ, wird der NV40 spätestens Ende Mai über ALL zukaufen sein.

robbitop
2004-03-26, 12:13:23
Thomas B ist doch der Creator von Shadermark und Chef von Tommti Systems

Quasar
2004-03-26, 12:18:00
Da erlaubt sich jemand offenbar eien Spaß.

"tb" ist sein Account hier im Forum. Und Thomas_B klingt nur (zufällig?) so ähnlich?


Soll ich mir mal ausloggen und Demi@Work nennen? ;)

AlfredENeumann
2004-03-26, 12:18:32
Original geschrieben von r@e
Der größte "Flop" ?

Du schließt hier also die mit großem Abstand am meisten gekaufte und verbaute DX9-Karte mal eben locker mit ein ? Sorry, aber das ist eindeutig eine "6" in Wirtschaft !

Razor

Hallo?
Er sprach vom NV30 und nicht von anderen NV3X-Chips.

Sphinx
2004-03-26, 12:22:33
Original geschrieben von AlfredENeumann
Hallo?
Er sprach vom NV30 und nicht von anderen NV3X-Chips.

Auch GeForce 5800 "Ultra" genannt.

Gast
2004-03-26, 12:42:14
Original geschrieben von Mr. Lolman
Sofern man NV Technologie einsetzt, oder warum hat denn damals keiner die "Cutting Edge" Technologie des R200 einsetzen wollen?

Weil ATI nicht die Marktposition hatte um dem Entwickler Cutting Edge Technologie schmackhaft zu machen. Dafür war der R200 gegenüber der GF4TI zu schlecht an vielen Ecken und die Treiber waren eine Katastrophe.
Vom Developersupport ganz zu schweigen.
Der war so gut wie nicht vorhanden.
Du vergleichst Dinge die nicht zu vergleichen sind.

Nvidia ist ein vor allem bei Spieleentwicklern gestandenes Unternehmen, wenn nicht sogar eine Macht. Nicht mal annähernd mit der Irrelevanz zu vergleichen, die ATI damals für den Entwickler inne hatte.

egdusp
2004-03-26, 13:16:37
Original geschrieben von robbitop
aber was sollen entwickler mit einer Karte die nicht mal fähig ist, ein 3D Programm zu starten?
ist das ding wirklich sooo verbugt?

also die Bugs nehme ich dir schon ab, aber ich könnt mir das mit Abstürzen und Artefakten erklären, aber dass man das ding nur mit hängen und würgen gebottet bekommt?

aber der Zeitfaktor leuchtet mir ein

Gib nicht so schnell auf mit mir AiL ;)

AFAIR gab es mal ein Interview über den NV25 in dem stand, dass dessen erstes Silizium gleich am ersten Tag bootfähig war und dass es sonst eine Woche dauert.

Dass der NV40 in einer ersten Version nur rudimentär lauffähig war, ist keine Überaschung, sondern der Normalfall.

Es kommen ja für jeden Fehler 2 Fehlerquellenin Betracht:
1. Hardwarebug
2. Treiberbug

Und bis man diese erstmal aussortiert und dann gefixt hat, wird es lange dauern. Vor allem wenn man aus Versehen mal die Ursachen vertauscht.

mfg
egdusp

ow
2004-03-26, 13:49:09
.

robbitop
2004-03-26, 14:00:56
siehe 3dfx Geschichte...da sind schon viele dämliche Sachen passiert. Und oft läuft nicht gleich das erste Stepping korrekt. (NV35 lief beim ersten ^^)

ow
2004-03-26, 14:33:30
.

r@w
2004-03-26, 14:39:53
Original geschrieben von MadManniMan
Aso, ich dachte du meintest den R420 + dessen Ableger mit "veralteter Technologie". So ists IMHO aus dem Kontext zu schließen und v.a. anzunehmen, wenn man dich kennt :evil:Zumindest, wenn man meint, mich zu kennen...
;-)
Original geschrieben von MadManniMan
Die Erklärung mit dem R95 ist irgendwie deshalb blöd, weil du schon vor R300-Zeiten deine Meinung hattest ;) Ich denke eher, das lag am NV20 - wenn ich so an deine Posts nach dem Kauf deiner Elsa auf 3DConcept denke - du verstehst?Oh ja, ich erinnere mich gut !
:D

Damals hatte man gesagt, dass der NV20 ja sooooo unnötig sei.
Wer braucht schon DX8 ?

Dass man aber das erste 'vernünftige' AA bekam, wunderbares (vor allem effizientes) AF und mit den vielen, vielen Tech-/Scene-Demos spielen konnte, hat sich aber zu 100% bestätigt.

Gleiches erwarte ich nun auch vom NV40.
(der R420 wird sich bezüglich diesem Anspruch wohl leider selber disqualifizieren)

Und zum R9500... warum meinst Du wohl, habe ich mir das Teil gekauft (ist bei dem Kollegen übrigens noch immer im Einsatz ;-) ? Ich wollte ATI nach dem R200-Debakel noch mal 'ne Chance geben und nach dem Mod konnte ich die Technologie sogar mit voller Geschwindigkeit in Augenschein nehmen....

Aber es reichte (bei weitem) nicht. Mein 'Spieltrieb' (und damit meine ich keinesfalls nur das Gamen ;-) wurde durch diese Technologie leider nicht befriedigt. Auch bei nVidia war ich mir nicht sicher... und kaufte die FX5200.
Original geschrieben von MadManniMan
Stichpunkt "verunglimpfen": das Problem hier ist imho, daß einfach noch keine Sau wirklich über den Ausgang des Duells weiß. Wenn jetzt Jemand wie du das Techlevel als höherrelevant einstuft, dann kann es sein, daß mancherlei Zeitgenosse sich irgend auf den Schlips getreten fühlt und - wohl unbewußt - sich angegriffen fühlt. Aber was erzähl ich dir das... war doch schon immer so in den 3DC...-Foren!Jo.
Daran wird sich wohl auch nichts ändern...

Derzeit glaube ich an gar nichts. Aber mein Vorstellungsvermögen steht natürlich trotzdem nicht still... (ganz im Gegenteil). Insofern ich die derzeitige Situation als absolut spannend empfinde, da es nun endlich mal wieder interessant wird (wird man wohl auch an meinen Beiträgen merken ;-).

Mir wäre es allerdings sehr viel lieber, wenn ATI sich auch mal endlich zu Wort melden würde... ob direkt oder indirekt ist mir dabei eigentlich egal.

Die Marketing-Maschine nVidia rollt wieder und das mächtig, wie es scheint. Selbst eingefleischte ATI'ler sind derzeit gespannt, was da so aus der Ecke kommen wird. Und wenn diese Erwartungshaltung nur halbwegs befriedigt wird, wird es wohl (wieder) zu einem großen Richtungswechsel kommen. Gerade die Enthusiasten unter uns sind die größten Huren weit und breit...
Original geschrieben von MadManniMan
Und wo du grad vom Spekulatius-Reich sprichst ... hier sollte man wahrlich nicht alles zu verbissen sehen. ow ist mir da so ein Kandidat ... ich sag nur "Alles Kiddies hier!" ;DAuch dieses "Verbissenheit" ist so ein Problem in den Forem. Hier wird halt mit den gleichen Mitteln 'gekämpft', wie es bei den FPS-Onlinern der Fall ist. Jeder will sein 'Vertrauen' rechtfertigen (da nehme ich mich gar nicht 100%'ig aus) und der eine Part sieht derzeit seine Fälle davon schwimmen...
Original geschrieben von MadManniMan
Und nochmal: irgendein "Ein-Account-Namens-Razor"-Revival in Planung? Vielleicht... mal schaun'... ;)

Wenn das "Razor"-Account von den 3DC-Leutz nicht gelöscht wird, besteht zumindest die Möglichkeit. Derzeit fühle ich mich so aber ganz wohl in meiner Haut... (vermutlich weißt Du, wie ich das meine ;-)
Original geschrieben von MadManniMan
Ömm, ich antworte auch besser mal später, ich hätt zwar was und ich hab auch erste 15:00 Schicht, aber ein bissel pennen wär schon in Ordnung ... :spock:

Viel Spaß noch bei der Arbeit, MMM Jo danke... habe wohl auch gleich Feierabend (wenn nicht wieder was dazwischen kommt *grrr*).
Hoffe, dass Du Dich wenigstens noch ein bissel Verschnaufen konntest !

Gruss

Razor

r@w
2004-03-26, 14:56:18
Original geschrieben von Exxtreme
Errrm, ich sprach von PS3.0 ... VS3.0 habe ich gar nicht erwähnt. =) Ausserdem könnte der R420 tatsächlich VS3.0 unterstützen. Beim Branching sprach ich ebenfalls von PS3.0. Das mit den Texturzugriffen des VS habe ich so formuliert, um Mißverständnisse zu vermeiden - nur scheint das Gegenteil der Fall...
Original geschrieben von Exxtreme
Nicht wirklich. Gutes Bumpmapping kriegst du mit MT nicht wirklich hin und viele andere Effekte auch nicht. Deswegen ist der Sprung von MT auf Shader sehr groß. Mit MT bekommst Du das (natürlich) hin, fragt sich nur, was für eine CPU man braucht, um dies zu realisieren...
Original geschrieben von Exxtreme
Also HL2 enthält garantiert keine Zigtausende von Shadern. =) Und ich glaube, du überschätzt die praktischen Möglichkeiten von Branching bei derart kurzen Shadern, wie sie wohl in Zukunft Verwendung finden werden. Ein paar Hundert Shaderanweisungen sind nicht wirklich viel. Tausende von Shadern enthält HL2 allemal... und Du weißt, wie ich das meinte.

Und wie Du ja selber postulierst, benutzt man derzeit wohl meistens HLSL. Insofern es für den Progger doch egal sein müsste, ob viele kleine Shader für PS2.0, etwas weniger Shader für PS2.x oder eben sehr viel weniger Shader für PS3.0 heraus kommen.

Klar, der Performance-Test auf der Zielhardware wird die Realisierbarkeit einschränken (egal auf welchem Zielpfad). Dass Branching bei sehr kurzen Shadern keinen Sinn macht, ist wohl nicht nur mir klar...
Original geschrieben von Exxtreme
Ob PS3.0 überflüssig sind oder nicht, das wird die Zukunft zeigen. ICh habe auch niemals behauptet, daß PS3.0 zu den überflüssigen Erfindungen gehören. Ich habe nur gesagt, daß der Sprung von PS2.0 auf PS3.0 nicht so groß ist wie viele vermuten. Vermutlich hätte ich dies so vermutet, wenn da nicht dieser Nachsatz mit den PS1.4 von Dir gekommen wäre...
Original geschrieben von Exxtreme
Siehe mein voriges Posting ... Stichwort "SMARTSHADER 3.x". Na ja... ob das wohl 'ziehen' wird ?
Hmmm...
Original geschrieben von Exxtreme
Bisher ist PS3.0 auch ein Exklusiv-Feature von NV. Aber weil's von NV kommt, muss es gut sein, oder? Da hast Du mich wohl mißverstanden.
Aber ich vermute bei Dir, dass Du dies so siehst...
"PS3.0 ist schlecht (oder unnötig), weil es ja von nVidia kommt"
Original geschrieben von Exxtreme
P.S. EOD für mich. Tjo... das musste ich aber einfach doch noch los werden !
:D

Razor

r@w
2004-03-26, 15:00:03
Original geschrieben von Mr. Lolman
Sofern man NV Technologie einsetzt, oder warum hat denn damals keiner die "Cutting Edge" Technologie des R200 einsetzen wollen? Könnte dies an der 'Marktdurchdringung' von ATI gelegen haben ? Und zudem an der Tatsache, dass diese "Cutting Endge"-Technologie PS1.4 an die Hardware von ATI gekoppelt war ?

Nur so ein Gedanke...

Razor

r@w
2004-03-26, 15:07:25
Original geschrieben von Quasar
Ja, mag sein, aber ich habe nun schon ein ziemlich veraltetes und somit langsames System. Aber wenn hier eine FX drinsteckt, kommen auch grob untertaktet nicht unter ~75W raus (bzw. rein). Also der Wert, auf den ich mich bezog, war 68W und dazu schrieb ich "nicht viel mehr"...
:D

Razor

r@w
2004-03-26, 15:09:02
Original geschrieben von deekey777
Irgendwo habe ich gelesen, dass die 9800/Pro die am meisten gekaufte DX9 Grafikkarte ist - von normalen Menschen (nix mit OEM-Geschäft). Da wirst Du Dir wohl 'ne neue Brille zulegen müssen !
(keinesfalls ernst gemeint ;-)

Razor

r@e
2004-03-26, 15:10:38
Original geschrieben von robbitop
Thomas B ist doch der Creator von Shadermark und Chef von Tommti Systems Der 'schleicht' hier aber mit dem Nick "tb" herum... und nicht mit "Thomas B".
Sorry...

Razor

deekey777
2004-03-26, 15:22:16
Original geschrieben von r@w
Da wirst Du Dir wohl 'ne neue Brille zulegen müssen !
(keinesfalls ernst gemeint ;-)

Razor

Da steht extra meistgekaufte DX9 Grafikkarte, sprich ohne das OEM Geschäft, also nur von ganz normalen Menschen gekauft. Wenn etwas mehr Zeit habe, werde ich versuchen, diese News zu finden.

r@w
2004-03-26, 15:58:56
Original geschrieben von deekey777
Da steht extra meistgekaufte DX9 Grafikkarte, sprich ohne das OEM Geschäft, also nur von ganz normalen Menschen gekauft. Wenn etwas mehr Zeit habe, werde ich versuchen, diese News zu finden. Wäre nett...
Thx !

Razor

P.S.: Und nu' is' Wochenääääände !
:D

Ailuros
2004-03-26, 16:10:52
Original geschrieben von robbitop
aber was sollen entwickler mit einer Karte die nicht mal fähig ist, ein 3D Programm zu starten?
ist das ding wirklich sooo verbugt?

also die Bugs nehme ich dir schon ab, aber ich könnt mir das mit Abstürzen und Artefakten erklären, aber dass man das ding nur mit hängen und würgen gebottet bekommt?

aber der Zeitfaktor leuchtet mir ein

Gib nicht so schnell auf mit mir AiL ;)

Nenne mir nun einen Entwickler der NV40 schon seit Oktober 2003 in seinen Haenden hatte; technische Vorstellungen unter NDA in 1on1 sessions sind eine ganz andere Geschichte.

Uebrigens das hier reisst mich schneller aus den Socken als next-Gen HW:

http://www.beyond3d.com/forum/viewtopic.php?t=11092

robbitop
2004-03-26, 16:21:46
kann ich nicht nennen da die alle unter NDA stehen, aber ich denke der gute John hat eine abbekommen.

DrumDub
2004-03-26, 16:23:50
Original geschrieben von Ailuros
Uebrigens das hier reisst mich schneller aus den Socken als next-Gen HW:

http://www.beyond3d.com/forum/viewtopic.php?t=11092

:O

Ailuros
2004-03-26, 16:29:46
Original geschrieben von robbitop
kann ich nicht nennen da die alle unter NDA stehen, aber ich denke der gute John hat eine abbekommen.

Dann denke lieber dass der gute John und jeder John Doe NICHTS vor Januar bekam.

Gast
2004-03-26, 17:28:07
Original geschrieben von Ailuros
Uebrigens das hier reisst mich schneller aus den Socken als next-Gen HW:

http://www.beyond3d.com/forum/viewtopic.php?t=11092 Jo, nettes Video...
http://files.seriouszone.com/download.php?action=download&fileid=863&mirrorid=7&h=8eee5eee0adf74420ee1f1a6d448af71&filename=serioussam2_32404_1.zip

Und ?
Das Game soll mit viel Glück noch dieses Jahr raus kommen, kann sich aber auch locker ins nächste Jahr verzögern. Sieht ein bissel wie UT2004 in bunt aus... ;)

Razor

Sphinx
2004-03-26, 17:37:18
Original geschrieben von Gast
Jo, nettes Video...
http://files.seriouszone.com/download.php?action=download&fileid=863&mirrorid=7&h=8eee5eee0adf74420ee1f1a6d448af71&filename=serioussam2_32404_1.zip

Und ?
Das Game soll mit viel Glück noch dieses Jahr raus kommen, kann sich aber auch locker ins nächste Jahr verzögern. Sieht ein bissel wie UT2004 in bunt aus... ;)

Razor

Jep beeindruckend ^^

MadManniMan
2004-03-27, 04:43:34
Original geschrieben von r@e
Du kannst doch den "Basis-Level" nicht ohne den Rest betrachten !

Doch, allerdings! Denn aus einer noch so erfolgreichen Reihe kann man dennoch einzelne Ausgaben als shice ansehen. Zumindest denke ich, daß der NV30 und der NV31 wirklich keine klasse Karten waren/sind. Aber dennoch...

Original geschrieben von r@e
Oder meinst Du, dass der NV34 nicht schon mit den ersten Grundrissen der NV3x/4x-Technologie eingelant und sogar als prime-goal festgelegt wurde ?

...war wie gesagt der NV34 top. Gut möglich, daß die Entwicklung zu größeren Teilen darauf ausgelegt war, diesen gut hinzubekommen, aber auch mit ner "besseren Basis" (die damit sinnigere FX5600/5800 ermöglicht hätte :bigl: ) wäre der NV34 eingeschlagen. Deshalb diese isolierte Betrachtung meinerseits.

Original geschrieben von r@e ATI wollte dem nun nacheifern und scheiterte...

Hm, mit dieser Aussage tu ich mich schwer. ATi hat es mit dem RV280 nicht leicht, dafür ist der NV34 zu gut geworden, aber dennoch können die Kanadier den Chip gut abtreten, er kam aber einfach zu spät in die nötige Preisklasse.

Original geschrieben von r@e ATI
Und siehe da, zukünftig wird's wohl (nach Deinem Roadmap ;-) auch von ATI ein Entry-Level mit High-Tech geben. Ob sie wohl dafür 'gescholten' werden ?

Hört hört, auf einmal ist S2.0 High-Tech? :D Hehe, du weißt, wie ich das mein?

Original geschrieben von r@e ATI
Ich vermute mal: nein !
(zumindest nicht von der ATI-Anhängerschaft ;-)
OK, Du bist zu dem gleichen Schluss gekommen.

Joar, aber über den Weg streit ich mich dennoch gern =)
BTW kommt der RV370 IMHO zu spät.

Original geschrieben von r@e ATI
Und es ist jetzt eine Minute nach halb sieben !
:D

Razor

Samma, mußtest du nicht arbeiten? :naughty: Ich mein, ich für meinen Teil hab momentan nur Spätschicht, aber du hattest doch IIRC nen 'üblichen' Vormittagsjob, nich?

MadManniMan
2004-03-27, 05:02:20
Original geschrieben von r@w
Zumindest, wenn man meint, mich zu kennen...
;-)
Oh ja, ich erinnere mich gut !
:D

Och, ich denke ich kann die Züge deines alter egos inzwischen recht gut einschätzen ;)

Original geschrieben von r@w
Damals hatte man gesagt, dass der NV20 ja sooooo unnötig sei.
Wer braucht schon DX8 ?
Dass man aber das erste 'vernünftige' AA bekam, wunderbares (vor allem effizientes) AF und mit den vielen, vielen Tech-/Scene-Demos spielen konnte, hat sich aber zu 100% bestätigt.

Zum AA muß ich mich leider nomma äußern: retrospektiv betrachtet war das MSAA des NV20 ziemlich shice, da das Ding derart bandbreitenbeschränkt geworde ist mit der Zeit, daß die Füllrateneinsparung kaum noch greift und SSAA wohl genauso schnell wär.
Allgemein muß ich schon sagen, daß das MSAA der ersten Generation wohl wichtig für die Manifestierung am Markt war, in der Ausführung aber nur suboptimal. Denn es gab zwar schon mehr Quali/Leistung, aber vor allem durch das RG und den zeitlich großen Abstand zum VSA-100.

BTW: lag deiner Gladiac 920 eigentlich auch Giants in der angepaßten Version bei?

Original geschrieben von r@w
Gleiches erwarte ich nun auch vom NV40.
(der R420 wird sich bezüglich diesem Anspruch wohl leider selber disqualifizieren)

Ich erwarte ernstlich von beiden sehr ähnliche Power/Quali beim AF, beim AA jedoch sehe ich ATi noch immer im Vorteil. Wenn auch der 4*RG-Modus vom NV40 vorerst den IMHO wichtigsten Schritt darstellt, so wir die Quali/Performance bei ATis High-End Modi wohl besser sein.
Bei den Techdemos sehe ich ebenfalls ein ziemliches Patt, da PS3.0 vor allem Speed bringt und das ist ja nunmal nicht das Zentrale Ding bei derlei Unterhaltung, finde ich zumindest. Mit den Shader 2.0 hat man ein derart hohes Level als Basis, daß vor allem künstlerisches Geschick zukünftig für Staunen sorgen wird, nicht mehr so zentral wie vorher "Hier ist neues Effekt auf Tonne.".

Original geschrieben von r@w
Und zum R9500... warum meinst Du wohl, habe ich mir das Teil gekauft (ist bei dem Kollegen übrigens noch immer im Einsatz ;-) ? Ich wollte ATI nach dem R200-Debakel noch mal 'ne Chance geben und nach dem Mod konnte ich die Technologie sogar mit voller Geschwindigkeit in Augenschein nehmen....

Ich beglückwünsche deinen Kollegen :D

Original geschrieben von r@w
Aber es reichte (bei weitem) nicht. Mein 'Spieltrieb' (und damit meine ich keinesfalls nur das Gamen ;-) wurde durch diese Technologie leider nicht befriedigt. Auch bei nVidia war ich mir nicht sicher... und kaufte die FX5200.

Und jetzt mußt du mir einfach mal schlüssig erklären, was ein NV34 hat, was eine R3XX nicht bringt! :grübel: Mir würden da jetzt wirklich nur das AF und das Vorhandensein einiger, wirklich nur spezifischer Techdemos einfallen.

Original geschrieben von r@w
Derzeit glaube ich an gar nichts. Aber mein Vorstellungsvermögen steht natürlich trotzdem nicht still... (ganz im Gegenteil). Insofern ich die derzeitige Situation als absolut spannend empfinde, da es nun endlich mal wieder interessant wird (wird man wohl auch an meinen Beiträgen merken ;-).

Original geschrieben von r@w
Mir wäre es allerdings sehr viel lieber, wenn ATI sich auch mal endlich zu Wort melden würde... ob direkt oder indirekt ist mir dabei eigentlich egal.

We'll see. Das hier ist zum Glück nur ein kleiner Teil der Welt!

Original geschrieben von r@w
Die Marketing-Maschine nVidia rollt wieder und das mächtig, wie es scheint. Selbst eingefleischte ATI'ler sind derzeit gespannt, was da so aus der Ecke kommen wird. Und wenn diese Erwartungshaltung nur halbwegs befriedigt wird, wird es wohl (wieder) zu einem großen Richtungswechsel kommen. Gerade die Enthusiasten unter uns sind die größten Huren weit und breit...

Die eingefleischten ATi-ler sind vielleicht einfach weniger Fanboy, als du es dir vorzustellen magst ;)

Original geschrieben von r@w
Auch dieses "Verbissenheit" ist so ein Problem in den Forem. Hier wird halt mit den gleichen Mitteln 'gekämpft', wie es bei den FPS-Onlinern der Fall ist. Jeder will sein 'Vertrauen' rechtfertigen (da nehme ich mich gar nicht 100%'ig aus) und der eine Part sieht derzeit seine Fälle davon schwimmen...

Hüm? Das hab ich jetzt irgendwie nicht verstanden, das mit den Fällen mein ich.

Original geschrieben von r@w
Wenn das "Razor"-Account von den 3DC-Leutz nicht gelöscht wird, besteht zumindest die Möglichkeit. Derzeit fühle ich mich so aber ganz wohl in meiner Haut... (vermutlich weißt Du, wie ich das meine ;-)

Jarr, sich selbst im Spiegel sehen zu können ist verdammt wichtig. Und auch wenn es nur minimal ist - wenn dir der Protest was bringt, zieh ihn durch.
BTW werden hier keine Accs gelöscht ;)

Original geschrieben von r@w
Jo danke... habe wohl auch gleich Feierabend (wenn nicht wieder was dazwischen kommt *grrr*).
Hoffe, dass Du Dich wenigstens noch ein bissel Verschnaufen konntest !

Gruss

Razor

Gott sei Dank konnt ich das! Gestern hatte ich zu meiner Spätschicht um 17:00 (!) verschlafen! :freak:

Scheiß Tagesrhythmus...


sers, MMM

r@e
2004-03-27, 08:35:47
Original geschrieben von MadManniMan
Doch, allerdings! Denn aus einer noch so erfolgreichen Reihe kann man dennoch einzelne Ausgaben als shice ansehen. Zumindest denke ich, daß der NV30 und der NV31 wirklich keine klasse Karten waren/sind. Aber dennoch...Du kannst tun, was immer Du willst...
Und ja, es gibt äusserst zufriedene Nutzer der NV30/31-Reihe.

Der einzige 'Nachteil' des NV30u war schlicht die Kühllösung und das späte Release.
Original geschrieben von MadManniMan
...war wie gesagt der NV34 top. Gut möglich, daß die Entwicklung zu größeren Teilen darauf ausgelegt war, diesen gut hinzubekommen, aber auch mit ner "besseren Basis" (die damit sinnigere FX5600/5800 ermöglicht hätte :bigl: ) wäre der NV34 eingeschlagen. Deshalb diese isolierte Betrachtung meinerseits.Habe ich nicht verstanden...
Das Geld wird immer im LowEnd/OEM-Bereich gemacht.
Wenn das nicht das prime-goal eines IHV ist, macht er was falsch.
Original geschrieben von MadManniMan
Hm, mit dieser Aussage tu ich mich schwer. ATi hat es mit dem RV280 nicht leicht, dafür ist der NV34 zu gut geworden, aber dennoch können die Kanadier den Chip gut abtreten, er kam aber einfach zu spät in die nötige Preisklasse. Wus ?
Der RV280 war ja nicht einmal neu !
Aufgewärmte, veraltete Technologie 'neu' aufzulegen, war schlicht ein glatter Fehlschlag.
Original geschrieben von MadManniMan
Hört hört, auf einmal ist S2.0 High-Tech? :D Hehe, du weißt, wie ich das mein?Nö.
;D
Original geschrieben von MadManniMan
Joar, aber über den Weg streit ich mich dennoch gern = )
BTW kommt der RV370 IMHO zu spät.Klar.
Und wieder ein Fehler...
Aber immerhin besser, als wenn sie's gar nicht in Betracht gezogen hätten.
Original geschrieben von MadManniMan
Samma, mußtest du nicht arbeiten? : naughty : Ich mein, ich für meinen Teil hab momentan nur Spätschicht, aber du hattest doch IIRC nen 'üblichen' Vormittagsjob, nich? 'Vormittagsjob' ?
Neee...

Wir fangen halt recht früh an, ansonsten ist's ein normaler Fulltime Büro-'Job'.
Näher werde ich auf dieses Thema aber sicher nicht eingehen...
:D

Razor

P.S.: einen Smilie musste ich von manni entfernen, da ich sonst meine nicht hätte unterbringen können... ;)
(oder zwei, mit dem hier ^^)

r@e
2004-03-27, 09:02:50
Original geschrieben von MadManniMan
Och, ich denke ich kann die Züge deines alter egos inzwischen recht gut einschätzen ; )Na, da glaub' mal dran !
Aber es kann durchaus Vorteile haben, wenn andere meinen, einen einschätzen zu können.
:D
Original geschrieben von MadManniMan
Zum AA muß ich mich leider nomma äußern: retrospektiv betrachtet war das MSAA des NV20 ziemlich shice, da das Ding derart bandbreitenbeschränkt geworde ist mit der Zeit, daß die Füllrateneinsparung kaum noch greift und SSAA wohl genauso schnell wär.
Allgemein muß ich schon sagen, daß das MSAA der ersten Generation wohl wichtig für die Manifestierung am Markt war, in der Ausführung aber nur suboptimal. Denn es gab zwar schon mehr Quali/Leistung, aber vor allem durch das RG und den zeitlich großen Abstand zum VSA-100.Und wieder ein Ei ohne die Henne ?
:D

Das das Erste nicht immer (vor allem für immer) das Beste ist, ist ja wohl 'ne Binsenweisheit. Viel schlimmer fand ich es, dass ATI sooooo viel später mit dem R200 kam und weder Leistung noch Quali bot. Nicht einmal zugesagte Features, wurden diesbezüglich eingehalten und einfach unterschlagen.

Das, was machbar war, hat nVidia schon ganz gut hinbekommen. Und denke mal, mit der gf3 konnte ich fast 2 Jahre problemlos (!) zocken... ähnlich der gfddr, die ich vorher hatte... (oder dem TNT/V2-Kombo davor)
Original geschrieben von MadManniMan
BTW: lag deiner Gladiac 920 eigentlich auch Giants in der angepaßten Version bei?Jep !
Original geschrieben von MadManniMan
Ich erwarte ernstlich von beiden sehr ähnliche Power/Quali beim AF, beim AA jedoch sehe ich ATi noch immer im Vorteil. Wenn auch der 4*RG-Modus vom NV40 vorerst den IMHO wichtigsten Schritt darstellt, so wir die Quali/Performance bei ATis High-End Modi wohl besser sein.
Bei den Techdemos sehe ich ebenfalls ein ziemliches Patt, da PS3.0 vor allem Speed bringt und das ist ja nunmal nicht das Zentrale Ding bei derlei Unterhaltung, finde ich zumindest. Mit den Shader 2.0 hat man ein derart hohes Level als Basis, daß vor allem künstlerisches Geschick zukünftig für Staunen sorgen wird, nicht mehr so zentral wie vorher "Hier ist neues Effekt auf Tonne.".Wie willst Du denn bitte beurteilen können, wie sich Quali und Lesitung beim AA des NV40 verhält ? Und bedenke bitte auch, dass nicht nur PS3.0 vom NV40 unterstützt wird, sondern wohl auch die extended Feature-Liste vom PS2.x nVidia-like. Das einzige was von ATI wohl bezüglich PS2.x zu erwarten ist, scheinen die längeren Shader zu sein, die möglich werden. Mehr nicht...

Und Du wirst Dich wundern, was da noch so kommen wird.
*lechts*
;-)
Original geschrieben von MadManniMan
Ich beglückwünsche deinen Kollegen : DJo, vor allem, weil er sich solch eine Karte nicht hätte leisten können.
Ich habe gerne darauf verzichtet...
;-)

Zumal hab' ich so 'ne Möglichkeit, mir das Teil ab und an mal auszuleiehen...
(ist aber bisher eher selten der Fall gewesen, weil's nichts auszuprobieren gab ;-)
Original geschrieben von MadManniMan
Und jetzt mußt du mir einfach mal schlüssig erklären, was ein NV34 hat, was eine R3XX nicht bringt! : grübel : Mir würden da jetzt wirklich nur das AF und das Vorhandensein einiger, wirklich nur spezifischer Techdemos einfallen.Dazu habe ich mich schon mal brrreeeeeiiiiiiiittttt ausgelassen.
Original geschrieben von MadManniMan
We'll see. Das hier ist zum Glück nur ein kleiner Teil der Welt!Hinsichtlich der GraKa's ?
Da ist's die ganze Welt (des Internets ;-).
Original geschrieben von MadManniMan
Die eingefleischten ATi-ler sind vielleicht einfach weniger Fanboy, als du es dir vorzustellen magst ; )Daran habe ich allerdings so meine Zweifel !
Aber zumindest ist ATI solange ihr 'Freund' (und wohl auch Gott ;-), so sie damit ihren Schw... vergleichen können. Ist dies nicht mehr der Fall, haben's halt nichts mehr in der Hos und wenden sich einem anderen Gott zu...
Original geschrieben von MadManniMan
Hüm? Das hab ich jetzt irgendwie nicht verstanden, das mit den Fällen mein ich.Keine Tech-Weiterentwicklung, keine übermäßige Geschwindigkeit, keine Revolution, wie der R300...
Soll ich weiter machen ?

Wenn sich heraus stellen sollte, dass der R300 (und seine 'Ableger') nur eine Eintagsfliege sein könnte, die zudem auf externe Einflüsse zurück zu führen ist, wäre ATI wieder das, was sie immer waren... (oder sogar sehr viel weniger)
Original geschrieben von MadManniMan
Jarr, sich selbst im Spiegel sehen zu können ist verdammt wichtig. Und auch wenn es nur minimal ist - wenn dir der Protest was bringt, zieh ihn durch.
BTW werden hier keine Accs gelöscht ; )Ich sagte ja auch nur "wenn"...
Na dann werde ich mir das vielleicht noch irgendwann mal überlegen.

Wenn man diesen Account nicht sperrt, weil ich mich als Unreg 'danben' benehme...
;D
Original geschrieben von MadManniMan
Gott sei Dank konnt ich das! Gestern hatte ich zu meiner Spätschicht um 17:00 (!) verschlafen! :freak:

Scheiß Tagesrhythmus...Hatte ich auch mal...
Ist gottlob aber schon laaaaange her.

Du hast auf jeden Fall mein Mitgefühl !
:troest:

Razor

P.S.: musste wieder Smilies von Dir 'entschärfen'...
(ups, das scheinen -fast- alle gewesen zu sein)

Ailuros
2004-03-27, 09:46:53
Entschuldigt das OT; obwohl ich selber oefters den Quote-Orgien nicht entgehen kann, nerven sie mich unglaublich; rein aus dem Grund weil sie mir zu schwer sind zu verfolgen.

r@e
2004-03-27, 09:52:28
Dann benutze das Scroll-Feature Deiner Maus und überspring diese einfach...
Mein Beileid, wenn dies bei Dir irgendwie nicht funzen sollte.

Razor

Ailuros
2004-03-27, 10:03:06
Original geschrieben von r@e
Dann benutze das Scroll-Feature Deiner Maus und überspring diese einfach...
Mein Beileid, wenn dies bei Dir irgendwie nicht funzen sollte.

Razor

Dein Beileid kannst Du fuer Dich selber behalten und Deiner persoenlichen Unfaehigkeit Dich mal als Aussnahme als reifer und objektiver Erwachsener zu verhalten.

Es war eine Seitennotiz und eine indirekte Bitte das Lesen fuer andere uebersichtlicher zu machen. Sonst gibt es auch emails oder PMs fuer private Diskussionen.

Gast
2004-03-27, 16:03:18
Original geschrieben von r@e
Und denke mal, mit der gf3 konnte ich fast 2 Jahre problemlos (!) zocken... ähnlich der gfddr, die ich vorher hatte... (oder dem TNT/V2-Kombo davor)


Besonders anspruchsvoll warste da wohl offenbar nicht.

Mr. Lolman
2004-03-27, 16:10:20
Original geschrieben von r@e
Das das Erste nicht immer (vor allem für immer) das Beste ist, ist ja wohl 'ne Binsenweisheit. Viel schlimmer fand ich es, dass ATI sooooo viel später mit dem R200 kam und weder Leistung noch Quali bot. Nicht einmal zugesagte Features, wurden diesbezüglich eingehalten und einfach unterschlagen.

Der R200 war tw. schneller als ne Ti500 (in RTCW z.B. sogar auf Ti4200 Niveau), und zusätzlich konnte man noch das sehr performante bi-AF einstellen, welches die BQ auch in fast jedem Spiel verbessert. Da war der R200 sogar tw. schneller als eine Gf4, sofern man in der Entfernung scharfe Texturen haben wollte.

Die Quali ist ne andere Sache, aber Leistung bot der R200 in Anbetracht des Preises ordentlich.

Das mit dem MSAA fand ich zwar auch traurig (zumal ich vorher eine V5 hatte) , aber scharfe Texturen in 1280x1024 bei schön spielbaren fps und (je nach App.) kaum vorhandenen Mipmapbanding liessen mich ohne Zweifel zur Radeon 8500 greifen. (v.A. weil sie auch billiger war als eine Ti500)

P.S.: Noch viel toller find ichs, als problemlos zocken zu können, 2 Jahre lang eine High-End Karte im Rechner zu haben....)

LovesuckZ
2004-03-27, 16:22:55
Original geschrieben von Mr. Lolman
Der R200 war tw. schneller als ne Ti500 (in RTCW z.B. sogar auf Ti4200 Niveau),

:lol: (http://www.3dcenter.de/artikel/directx8_grafikchips_roundup/index3_rtcw_1.php)

und zusätzlich konnte man noch das sehr performante bi-AF einstellen,[...]

Und bei der GF3 nicht?!

Quasar
2004-03-27, 16:36:19
Original geschrieben von Mr. Lolman
[...]bi-AF einstellen, welches die BQ auch in fast jedem Spiel verbessert.[...]sofern man in der Entfernung scharfe Texturen haben wollte.

Die Quali ist ne andere Sache, aber Leistung bot der R200 in Anbetracht des Preises ordentlich.
[...] aber scharfe Texturen in 1280x1024 bei schön spielbaren fps und (je nach App.) kaum vorhandenen Mipmapbanding liessen [...]

Das kannst du mit allen anderen Karten auch haben: Einfach Point-Sampling einstellen und entweder Mipmaps deaktivieren oder den LOD entsprechend verschieben.
Das flimmert dann fast genauso schön, wie das "AF" der Rx2xx.

Sind wir irgendwie OT?

Mr. Lolman
2004-03-27, 16:52:39
Original geschrieben von Quasar
Das kannst du mit allen anderen Karten auch haben: Einfach Point-Sampling einstellen und entweder Mipmaps deaktivieren oder den LOD entsprechend verschieben.
Das flimmert dann fast genauso schön, wie das "AF" der Rx2xx.

Ja und wenn man mit einer Voodoo5 eine GF2 unter Q3a (Skytexturebug) emulieren will, muss man nur 16bit Textures wählen :bonk:
Der Vollständigkeit halber: Schlimm war R200s biAF nur bei Serious Sam und bei Q3a. Bei vielen anderen Spielen was es (nicht zuletzt aufgrund der ernormen Geschwindigkeit) eine wahre Wohltat (Mafia z.B.)



Sind wir irgendwie OT?

Allerdings...

aths
2004-03-27, 17:12:51
Original geschrieben von Mr. Lolman
Der R200 war tw. schneller als ne Ti500 (in RTCW z.B. sogar auf Ti4200 Niveau),Teilweise war die Ti 200 schneller als der R200. Dazu die exzellente Übertaktbarkeit der Ti 200...
Original geschrieben von Mr. Lolman
und zusätzlich konnte man noch das sehr performante bi-AF einstellen... und zusätzlich konnte man auf der GF3, wenn die Leistung da war, noch das sehr schöne trilineare AF einstellen.
Original geschrieben von Mr. Lolman
welches die BQ auch in fast jedem Spiel verbessert.Naja, zeckensack spielte iirc meistens mit trilinearer Filterung.
Original geschrieben von Mr. Lolman
Da war der R200 sogar tw. schneller als eine Gf4, sofern man in der Entfernung scharfe Texturen haben wollte. Dafür lieferte die GF4 insgesamt das viel schönere Bild. Erst recht wenn Antialiasing ins Spiel kommt, kann man GF4 Ti und Radeon 8500 kaum noch in einer Leistungsklasse sehen.

Original geschrieben von Mr. Lolman
Die Quali ist ne andere Sache, aber Leistung bot der R200 in Anbetracht des Preises ordentlich.Was nun? Wenn es rein um Leistung geht, wieso zählst du AF mit? Gerade wenn es um Rohleistung geht, ist eine GF4 Ti der 8500 deutlich überlegen. Geht es um Leistung mit aktivierten BQ-Features, zieht eine GF3 imo problemlos davon.
Original geschrieben von Mr. Lolman
Das mit dem MSAA fand ich zwar auch traurig (zumal ich vorher eine V5 hatte) , aber scharfe Texturen in 1280x1024 bei schön spielbaren fps und (je nach App.) kaum vorhandenen Mipmapbanding liessen mich ohne Zweifel zur Radeon 8500 greifen. (v.A. weil sie auch billiger war als eine Ti500)Hm? Das "AF" der 8500 brachte nicht nur MIP-Banding, sondern auch teilweise schon auf Screenshots sichtbares Texturaliasing.

Quasar
2004-03-27, 17:19:03
Ich kann gerade (nunja, vor ein, zwei Stunden) das "AF" der RV280 bei Far Cry bewundern.
Dort tritt aufgrund der sehr detaillierten Landschaftsgeometrie genau der Fall ein, den ich bemängele (mal abgesehen vom Aliasing):
Zwischen zwei Flächen, oder Teilen eines Hügels oder einer Düne, die vom AF profitieren, ist dann wieder eine Fläche, die nur normale gefiltert wird.

mal schauen, ich mach nachher mal einen Screenie davon.

robbitop
2004-03-27, 17:28:22
@razor
"Der 'schleicht' hier aber mit dem Nick "tb" herum... und nicht mit "Thomas B".
Sorry..."

habe ich was anderes gesagt? Ich meinte doch nicht den Forumsacount, sondern Thomas B als Person ;)

@AiL
danke für die Info!

@aths
könnte man die Anbindung der Caches nicht verbessern?

ow
2004-03-27, 17:29:24
.

deekey777
2004-03-27, 17:34:56
Original geschrieben von ow
Um´s kurz auf den Punkt zu bringen:
Das AF der R200 ist derart grottenschlecht, dass man gerne freiwillig darauf verzichtet und lieber zum trilinearen Filter greift. Das geht nicht nur zeckensack so. Zur Not tut´s auch reines bilinear ohne AF, das ist wenigstens fast frei von Texturaliasing.

JK 2 war nur mit Standardeinstellung spielbar, ohne dass diese hässlichen "Bilinear"-Stufen zu sehen waren. Aber hört auf, den R200 fertig zu machen - Halo und MP2 sehen auf einer 8500 bzw. 9100 bzw. 9000 bzw. 9200 viel besser aus, da diese PS 1.4 unterstützen.;D

aths
2004-03-27, 17:51:36
Original geschrieben von robbitop
@aths
könnte man die Anbindung der Caches nicht verbessern? Konkreter bitte: Wo und in welchem Zusammenhang?

aths
2004-03-27, 17:54:27
Original geschrieben von ow
Um´s kurz auf den Punkt zu bringen:
Das AF der R200 ist derart grottenschlecht, dass man gerne freiwillig darauf verzichtet und lieber zum trilinearen Filter greift. Das geht nicht nur zeckensack so. Zur Not tut´s auch reines bilinear ohne AF, das ist wenigstens fast frei von Texturaliasing. Das AF des R200-Chips ist nur sehr bedingt tauglich, ja.

Andererseits, das (bekanntlich noch etwas schlechtere) AF beim R100 *kann* durchaus manchmal bessere Qualität bringen. Eine originale Radeon DDR durfte ich mal mit "16x AF" bewundern. Das ist sehr vom Spiel und der konkreten Szene abhängig, ob es mehr Qualität als Verschlechterung bringt, aber immerhin.

Lass es mich so formulieren: Ab R300 sehe ich ATIs AF als grundsätzlich geeignete Möglichkeit, Texturen zu verbessern :)

Um eine kurze Deutschstunde geben zu dürfen:

Original geschrieben von ow
Um´s kurz auf den Punkt zu bringen: Es müsste, wenn schon, um's heißen. ´ ist ein Akzent-Zeichen, der Apostroph ist '. Dieser ist hier aber gar nicht notwendig, auch "ums" wäre völlig korrekt.

ow
2004-03-27, 18:05:35
.

ow
2004-03-27, 18:08:51
.

robbitop
2004-03-27, 18:20:11
du meintest bei FP32 wird die interne Bandbreite knapp...dem könnte man sicher durch Verbesserung des Cacheinterface entgegenwirken, oder?

Mr. Lolman
2004-03-27, 18:37:11
Zur RTCW Speed, und etwas über das Verhältnis AF-Qualität, Geschwindigkeit: http://www.digit-life.com/articles/anyr2002/anyr2005.html

Quasar
2004-03-27, 19:04:14
Original geschrieben von Mr. Lolman
Zur RTCW Speed, und etwas über das Verhältnis AF-Qualität, Geschwindigkeit: http://www.digit-life.com/articles/anyr2002/anyr2005.html
Zur "Performance":

Peculiarities of the Catalyst drivers

The new drivers have the control panels changed much, the settings are, as much as possible, brought to one panel. The 3D quality settings are set to the maximum only in Direct3D. In the OpenGL the texture quality is set to Quality, instead of High Quality.
Dazu wurden die Aniso-Werte der Radeons mit bilinearem Filter ermittelt, die der GeForce mit trilinearem (ich weiß ich weiß, aber es kostet zumindest Bandbreite). Dazu schalten xBit bekanntlich die S3TC ab...

Zur Qualität:
http://www.ixbt.com/video2/images/any-r200-5/myst2.gif
*autsch*

Immer noch waaaaaaaaaay OT...

edit:
Zur RtCW-Performance: http://www.computerbase.de/artikel/hardware/grafikkarten/geforce_roundup/23/#rtcw_checkpoint_demo (Link zu den Radeons ist da drin)
Die Ti4600 ist mit 2xAA und 4xAF schneller, als die Radeon default.

Quasar
2004-03-27, 19:38:09
Original geschrieben von Quasar
Ich kann gerade (nunja, vor ein, zwei Stunden) das "AF" der RV280 bei Far Cry bewundern.
Dort tritt aufgrund der sehr detaillierten Landschaftsgeometrie genau der Fall ein, den ich bemängele (mal abgesehen vom Aliasing):
Zwischen zwei Flächen, oder Teilen eines Hügels oder einer Düne, die vom AF profitieren, ist dann wieder eine Fläche, die nur normale gefiltert wird.

mal schauen, ich mach nachher mal einen Screenie davon.
Da isser:
http://home.arcor.de/quasat/3DC-Pics/FarCry0002aa.JPG
(Nur für den Screenie hab ich die Texturdetails auf volle Kanne geschraubt. ;) Sonst sind sie auf "Mittel", alle anderen Details so gering wie möglich, mehr mag mein Celli@566 mit R9200SE nicht)

ow
2004-03-27, 19:45:38
.

Gast
2004-03-27, 20:10:52
Original geschrieben von ow
:up:
Ausgezeichneter Screenshot.
Genau das ist es, was das AF der R200 völlig unbrauchbar macht. Natürlich nur für Leute die Wert auf Bildqualität legen. Es gibt da ja auch andere...


Weiter OT: Das sieht euch wieder ähnlich. Den schlechtesten Screenshot pickt ihr euch raus, und reitet drauf rum , dass die Radeon 8500 samt AF völlig unbrauchbar sei. Naja, solang sie damals die Hälfte einer Ti4600 kostete, und dafür tw. auch doppelte Performance bot, wars eigentlich kein schlechter Kauf: http://www.3dcenter.de/artikel/directx8_grafikchips_roundup/index3_aquanox_1.php :P

Mr. Lolman
2004-03-27, 20:22:38
Mein Post...

Original geschrieben von ow
:up:
Ausgezeichneter Screenshot.
Genau das ist es, was das AF der R200 völlig unbrauchbar macht. Natürlich nur für Leute die Wert auf Bildqualität legen. Es gibt da ja auch andere...

...jaja andere... Unwürdige, die keine Ahnung von BQ haben, und deswegen AF eigentlich nichteinmal einschalten dürften. Nur weil ich in bestimmten Situationen lieber etwas flimmrigere Texturen anstatt 50% fps Einbruch habe, und gleichzeitig auf die Geldbörse achtete, und nicht OCen wollte, gehöre ich zu den Anderen die keine Wert auf BQ legen? :bonk:

Ich leg halt auf Wert auf ein gutes Verhältnis zwischen BQ und Speed, und wenn dem nicht so wäre, hätte ich momentan eine NV Karte im Rechner*


*damit man sieht wie idiotisch manche Haltungen wirken können, wenn man lieber pauschalisiert, anstatt plausible Argumente zu bringen

Nun aber genug mit der lächelicherlichen Diskussion, die scheinbar darauf abzielt alle (ehemaligen) Radeon 8500 Besitzer zu denunzieren!

Quasar
2004-03-27, 20:40:04
Was für ein Interesse sollte ich als aktueller Radeon8500 und Radeon9200SE-Besitzer daran haben, mich zu denunzieren?

Allerdings habe ich kein Problem damit, die Schwächen der Produkte, die ich so besitze einzugestehen, wenn du das meinen solltest.*

*Ja, das MSAA meiner nV30 ist bis auf die 2-Sample Ausführung dem der modernen Radeons außer für Spezialfälle kaum zu gebrauchen. Und auch die Shaderleistung bei FP>16 ist nicht wirklich der der Radeons gewachsen.
Allerdings habe ich das wissentliche in Kauf genommen.

Zum animierten GIF: Hier ist es nichtmal das AF, sondern schlicht das Textur-Aliasing, welches die Radeon für solche Anwendungen IMO weniger geeignet macht.

r@e
2004-03-27, 23:28:16
Original geschrieben von Gast
Besonders anspruchsvoll warste da wohl offenbar nicht. Technisch schon... leistungsseitig nicht.
Korrekt !
:D

Razor

r@e
2004-03-27, 23:34:47
Original geschrieben von robbitop
habe ich was anderes gesagt? Ich meinte doch nicht den Forumsacount, sondern Thomas B als Person ;)tb hat aber noch überhaupt nichts zum NV40 gesagt...
Egal !

Razor

aths
2004-03-27, 23:58:25
Original geschrieben von robbitop
du meintest bei FP32 wird die interne Bandbreite knapp...dem könnte man sicher durch Verbesserung des Cacheinterface entgegenwirken, oder? Breitere Pfade kosten Transistoren. Zusätzlicher Cache kostet Transistoren. Wenn ständig FP32-Daten im Chip hin- und hergeschleust werden, was soll da Cache helfen? Der kann nur Lasten verteilen.

Gast
2004-03-28, 01:26:03
Original geschrieben von Quasar
Dazu schalten xBit bekanntlich die S3TC ab...

Und?


Zur Radeon 8500 (R200)-> Das Teil hab' ich nach dem Wechsel von der GF3 direkt wieder rausgehauen und durch ne Ti500 ersetzt!! Schönere Grafik, alles flüssiger und zur damaligen Zeit viel bessere Kompatibilität.

MadManniMan
2004-03-28, 05:43:57
@R200-AF
aths kann es akzeptieren, Q wohl auch, aber warum nicht du ow? :| Was ich meine? Nun, meinen Zweitrechner befeuert ne RV250, wodurch ich das AF live erlebe. Es gibt wie gesagt sair unschöne Byspeele, aber eben auch Apps, die wirklich sehr davon profitieren!

Nur, weil Zecki (fast immer? ;) ) Tri dem 16Sample vorzog, muß das gleich die einzig wahre Lösung sein?

Verzeih mir bitte den zusätzlichen persönlichen Seitenhieb, aber der Gedanke schwebt mir einfach immer wieder vor: spiele mehr, als nur zu testen. Dann siehst du auch mal die positiven Dinge am vermeindlich miesen.


@AiL,
hast ja recht! Ich versuch mich mal an einer anderen Darstellungsweise und laß mal alles raus, was nicht mit dem Thema zu tun hat.


Nun endlich zu dir, Razorle:

Ich: "Hört hört, auf einmal ist S2.0 High-Tech? Hehe, du weißt, wie ich das mein?" Du: "Nö." - Wenn das ernstgemeint war - wovon ich nicht ausgeh - liefer ich dir nochmal die Erklärung: du meintest RV370 -> endlich Hightech im Value von ATi. Das beißt sich IMHO damit, als daß nV wohl bald Shader 3.0 Value anbietet -> nix Hightech von ATi, "nur noch" Value im DX9-Bereich.

Du: "Wie willst Du denn bitte beurteilen können, wie sich Quali und Lesitung beim AA des NV40 verhält?" - Ich habe Dinge gehört, gelesen und gesehen, die mich eine Meinung bilden lassen, von der ich momentan recht überzeugt bin. Will heißen: alles Andere würde mich wirklich überraschen! Nochmalig kurz zusammengefaßt: NV - 4*RGMS / 16Sample AF, aber jetzt auch Winkeladaptiv ... ATi 8*SGMS / 16Sample AF, "bessere" Adaptivität denkbar.


Ein PS im OT-Bereicherl gönn ich mir noch: "Vormittagsjob" deshalb, weil ich seit Jahreswechsel ausnahmslos Spätschichten habe und somit alles andere absonderlich auf mich wirkt ;)

ow
2004-03-28, 12:40:44
.

StefanV
2004-03-28, 12:50:20
@ow

Nur weil du es so siehst, müssen es noch lange nicht alle so sehen!!

ow
2004-03-28, 12:53:11
.

ironMonkey
2004-03-28, 13:12:16
Nix gegen ATI, hab ja eine drin, aber das ist mal wirklich sehr schlecht......ich kenne die 8500er nicht aber bei den Bildern muss das auch nicht sein........


Gruß

aths
2004-03-28, 13:34:58
Original geschrieben von MadManniMan
alles Andere würde mich wirklich überraschen! Nochmalig kurz zusammengefaßt: NV - 4*RGMS / 16Sample AF, aber jetzt auch Winkeladaptiv NVidias AF war ab 4x schon immer auch vom Winkel um die Z-Achse auf den Monitor abhängig.

Original geschrieben von ironMonkey
Nix gegen ATI, hab ja eine drin, aber das ist mal wirklich sehr schlecht......ich kenne die 8500er nicht aber bei den Bildern muss das auch nicht sein........Nur noch dunkel erinnere ich mich an die Tests der Radeon 9000. Für mich ist trilineare Filterung Pflicht, anisotrope Filterung Option. Trotz allem kann 16x AF auf diesem Chip eine Verbesserung bringen – viele Polygonkanten flimmern z. B. ohnehin, da 2x AA auf dieser Karte (und mit dem damaligen Treiber) nur OGSSAA nutzte. Wenn da noch einige MIP-Bänder im Spiel sind … Wer MIP-Banding an sich akzeptiert, könnte in ATIs pre-R300-AF durchaus eine Verbesserung sehen.

Um einen Vergleich zu geben: Unter trilinear und 2x RGMSAA möchte ich nix spielen. Zwingt Morrowind zu bilinear, nervt das schon. Was Kantenglätte angeht, 4x RG bei mindestens 1024x768 sollte heute Standard sein. Da GF4 Ti kein 4x RG-Muster hat, musste ich mit den schlechten 2x geglätteten Kanten leben. Das AF-Level trieb ich immer so hoch, wie möglich. Durch gezieltes Abschalten der anisotropen Filterung für bestimmte Texture Stages war es oft drin, die primäre Stage voll 8x zu filtern. Da bin ich verwöhnt.

Die Radeon 9600 erlaubt erstaunlicherweise meist 4x RG bei 1024x768, nur haben hohe AF-Level nicht den gewünschten Effekt. Man sieht hier und da noch eine Verbesserung, ok. Meist nehme ich hier 4x tri-AF. Wer unempfindlicher gegen MIP-Banding ist, würde wohl eher 16x bi-AF nehmen. Bei den neuen Karten gibt es hoffentlich welche, wo keine Kompromisse zu schließen sind.

Mr. Lolman
2004-03-28, 14:25:59
ow: Selbst aths, der auch dem R300 bi-AF nichts abgewinnen kann, gesteht dem R200 bi-AF durschaus eine gewisse Funktionalität zu. Die Mipmapbander, und das Texturaliasing sieht man im übrigen nicht immer, es sei denn, man sopielt immer die selben Spiele wie Q3a und Serious Sam...

Ich wage zu behaupten, dass z.B. ein Spiel vom Schlage eines RalliSport Challenge in 1280x1024, 16xAF auf einer R200 deutlichst schneller (als eine GF4) ist, bei kaum schlechterer Qualität.

Ja, kaum schlechter wegen meiner Fanboybrille, schon gut, aber mal überlegen. Wann ist B(r)ilinearität, und Texturaliasing störend? Richtig bei scharfen mit deutlich kontrastierten Strukturen vershene Texturen, die zu dem vielleicht auch nicht allzuviele Mipmaps besitzen, oder wo soger mittels mimaps eine Art Fogging simuliert wird (hab ich auch schon erlebt :|) Hier ist b(r)i-AF wirklich sh1ce. Bei der R200 am meisten, bei R300 bicht mehr so viel, bei der FX tw. auch noch merkbar (Tron 2.0).

Bei Spielen, in denen die Texturen mehr durch ihre Farbgebung hervorstechen (Rallisport) als durch scharfe, kontrastreiche, detaillierte Strukturen (Serious Sam), kann man wunderbar mit bi leben, während ein GF4 unnütze Überstunden schiebt, und Mipmapübergänge detaillierter berechnet, als eigentlich nötig. Bei der GF FX hat das auch NV eingesehen, und bietet deswegen die Brilinearität an, die im Normalfall auch ein durchaus zufriedenstellendes Ergebnis zustande bringt. Genau das gelang merh oder weniger auch der R200 weil:


1.: damals AA/AF nicht so wichtig war, kaum nutzbares AA auch schon für Flimmern sorgte, was das Texturflimmern tw. durchaus in den Hintergrund stellte

2.: und ich zu der Leuten zähle, du u.U. lieber mal ein Flimmern in Kauf nehmen, als dafür bis zu 50% Leistung zu verschenken. (Klar gabs irgendwann auch diverse Tools für GF4, aber weiss das ein durchschnittlicher GameStar Leser ?)

3.: der Preis...

4.: sich jetzt bezahlt machender PS1.4 Support

5.: Truform (Morrowind und UT2003 sehen mit TF extrem geil aus, und bei UT2003 gibts auch nur wenige Texturen wo das R200 (A)Filtering störend war; also 1152x864*, 16xAF und Truform )



Somit lobe ich nicht aussschliesslich die AF Speed, sondern stelle klar unter welchen Vorraussetzungen diese sich lohnt, und wenn man da als Mod nur Fanboy, dicke ATi Brille, Gang zum Augenarzt tönt erweckt es einem eher den Eindruck als sei man der Aufgabe des Moderierens nicht gewachsen.



* Min Auflösung mit der ich als Voodoo5 Geschädigter auf meinem 17" CRT ohne AA spielen kann/will.

Odal
2004-03-28, 14:26:38
Original geschrieben von aths
Das ist ja das Problem: In deiner Argumentation sehe ich ziemliche Inkonsistenz. Da kannst du dich wiederholen, imo biegst du dir ein Weltbild zurecht, was mit der Wirklichkeit nur bedingt übereinstimmt. Niemand ist wirklich objektiv, die meisten sind kaum um Sachlichkeit bemüht (der Vorwurf geht auch an gewisse ATI-Fans.) Bei deiner Argumentation finde ich allerdings keinen Zugang zum Verständnis. Dass in der R300-R360-Generation die DX9-Produkte von ATI gegenüber denen von Nvidia jeweils rund doppelt so schnell sind (in "Pixelshader-2.0-Spielen"), ist wirklich nachprüfbar. Und in 18 Monaten wird Pixelshader 3.0-Support sicherlich willkommen sein, aber nicht erforderlich. Schon deshalb, weil ATI jetzt als Technologiebremse fungiert.

oehm aths ich glaub du verwechselst gerade die reine Shadergeschwindigkeit mit der Gameperformance...
ein Spiel besteht nicht nur aus shadern geschweige denn nur PS2.0

das auf was LZ hinweisen wollte war das die meisten immer meinte die R3xx karten sind zukunftsfest weil sie in der PS2.0 leistung den FX5xxx karten ueberlegen sind (somit die PS2.0 Leistung als alleiniges KnockOut Kriterium hinstellten) ...aber ein R420 ohne PS3.0 als genauso Zukunftsfaehig ansehen da PS3.0 keine rolle spielen sollen (also nichtmal nur das der R420 langsamer in PS3.0 ist sondern er hat sie garnicht..und dies ist ploetzlich kein knockout kriterium diverser leute mehr)

aths
2004-03-28, 14:42:44
Original geschrieben von Mr. Lolman
Ich wage zu behaupten, dass z.B. ein Spiel vom Schlage eines RalliSport Challenge in 1280x1024, 16xAF auf einer R200 deutlichst schneller (als eine GF4) ist, bei kaum schlechterer Qualität.Das Spiel kenne ich nicht, aber zählt für dich Kantenglättung nicht mit zur Qualität?
Original geschrieben von Mr. Lolman
Bei Spielen, in denen die Texturen mehr durch ihre Farbgebung hervorstechen (Rallisport) als durch scharfe, kontrastreiche, detaillierte Strukturen (Serious Sam), kann man wunderbar mit bi leben, während ein GF4 unnütze Überstunden schiebt, und Mipmapübergänge detaillierter berechnet, als eigentlich nötig. SeSam würde ich lieber mit tri- als mit bilinearem AF spielen. Ich denke nicht, dass trilineare Filterung "unnütz" ist.

MadManniMan
2004-03-28, 14:46:42
:massa: Mr.L! :massa:

ahts,
versuch dich mal ein bisschen in Toleranz zu üben :ratlos:

aths
2004-03-28, 14:49:46
Original geschrieben von Odal
oehm aths ich glaub du verwechselst gerade die reine Shadergeschwindigkeit mit der Gameperformance...
ein Spiel besteht nicht nur aus shadern geschweige denn nur PS2.0Natürlich nicht. Arithmetische Shaderleistung wird in Zukunft jedoch eine immer größere Rolle spielen.
Original geschrieben von Odal
das auf was LZ hinweisen wollte war das die meisten immer meinte die R3xx karten sind zukunftsfest weil sie in der PS2.0 leistung den FX5xxx karten ueberlegen sind (somit die PS2.0 Leistung als alleiniges KnockOut Kriterium hinstellten) ...aber ein R420 ohne PS3.0 als genauso Zukunftsfaehig ansehen da PS3.0 keine rolle spielen sollen (also nichtmal nur das der R420 langsamer in PS3.0 ist sondern er hat sie garnicht..und dies ist ploetzlich kein knockout kriterium diverser leute mehr) Ist es auch nicht. Das Minimallevel von DirectX9 stellt die Techbasis für die nächste Zeit. Wer eine Karte hat die das erfüllt, kann in absehbarer Zukunft alles spielen. Pixelshader 3.0 dürfte zunächst, soweit das möglich ist, für die Beschleunigung bestehender Effekte genutzt werden. Vielleicht gibt es bald auch den einen oder anderen Effekt, den man ohne Pixelshader 3.0 nicht sieht, oder nur in schlechterer Qualität. Ein Knockout-Kriterium wäre das Verfehlen der DX9-Compliance.

aths
2004-03-28, 14:53:06
Original geschrieben von MadManniMan
ahts,
versuch dich mal ein bisschen in Toleranz zu üben :ratlos: Wer ist ahts?

Was nützten konstruierte Sonderfälle, um einen angeblichen Vorteil des R200 gegenüber dem NV25 herausarbeiten zu wollen? Solche Vorteile, die es eigentlich ja gibt (Pixelshader 1.4, 6 Texturen pro Pass, mindestens FX14-Rechengenauigkeit statt nur FX9, ...) werden für die meisten wohl von den Vorteilen der GF4 Ti weggebügelt. (Meist deutlich schneller, 2x AA ohne Reue, sehr schönes AF, ok zur Not muss mit RivaTuner oder aTuner nachgeholfen werden dass die AF-Leistung stimmmt.) Der NV25 hat nicht nur die höhere Grundleistung, er hat auch mehr Möglichkeiten, diese Leistung sinnvoll in Bildqualität umzusetzen. Wenn Mr. Lolman mit seiner 8500 glücklich war, will ich ihm das natürlich nicht ausreden. Meinereiner betrachtet den damaligen Kauf der Voodoo4 auch für sinnvoller für sich, obwohl der Durchschnittsuser mit der GF2 MX besser gefahren wäre. Hier fände ich schön wenn man unterscheiden würde, was die persönlichen Ansprüche, und was von der Allgemeinheit nutzbare Vorteile sind.

MadManniMan
2004-03-28, 15:05:50
Original geschrieben von aths
Wer ist ahts?

Kohrrhintenkahcker!

Original geschrieben von aths
Was nützten konstruierte Sonderfälle, um einen angeblichen Vorteil des R200 gegenüber dem NV25 herausarbeiten zu wollen? Solche Vorteile, die es eigentlich ja gibt (Pixelshader 1.4, 6 Texturen pro Pass, mindestens FX14-Rechengenauigkeit statt nur FX9, ...) werden für die meisten wohl von den Vorteilen der GF4 Ti weggebügelt. (Meist deutlich schneller, 2x AA ohne Reue, sehr schönes AF, ok zur Not muss mit RivaTuner oder aTuner nachgeholfen werden dass die AF-Leistung stimmmt.) Der NV25 hat nicht nur die höhere Grundleistung, er hat auch mehr Möglichkeiten, diese Leistung sinnvoll in Bildqualität umzusetzen. Wenn Mr. Lolman mit seiner 8500 glücklich war, will ich ihm das natürlich nicht ausreden.

Es geht mir nicht darum, die 8500 über eine 4200 zu stellen, das wäre Blasphemie in Reinkultur - ich persönlich ordne die Karte etwa zwischen der GF3-"GTS" und der Ti500 ein.
Aber darum geht es mir gar nicht, ich möchte nur dargestellt wissen, daß man nicht so elendig verbohrt und arrogant etwas schlechtreden muß, wie ow das mit dem R(V)2X0 AF macht.
Er hat selbst oft genug dargestellt, daß er kein Gamer ist - somit sollte er nicht versuchen, hier derartig böses Blut zu sähen.

aths
2004-03-28, 15:18:42
Original geschrieben von MadManniMan
Aber darum geht es mir gar nicht, ich möchte nur dargestellt wissen, daß man nicht so elendig verbohrt und arrogant etwas schlechtreden muß, wie ow das mit dem R(V)2X0 AF macht.ows Meinung ist ows Meinung. Der Tonfall den ow an den Tag legt, ist für meine Ohren allerdings ungewohnt (um nicht zu sagen, unangenehm.)

reunion
2004-03-28, 15:22:05
Original geschrieben von ow
Nur in den Augen der Ati Fanboys[...]

Original geschrieben von ow
Nein, mit einer dicken ATi Fanboy Brille auf muss man das wohl anders sehen.


@ow :abgel:
Ich kann mich noch sehr gut an einen Thread erinnern wo
aths jeden der das Wort "Fanboy" in den Mund genommen hat
abgemahnt hat man solle sich nicht auf persöhnliche Ebene
begeben, du darfst das ja offensichtlich?!?! :down:

MadManniMan
2004-03-28, 15:31:59
(Bäh, ganz schön anstrengend, so schnell zwischen den Thread hin- und herzuspringen und dabei mit dir über grundsätzlich andere Dinge zu reden :) )

Original geschrieben von aths
ows Meinung ist ows Meinung. Der Tonfall den ow an den Tag legt, ist für meine Ohren allerdings ungewohnt (um nicht zu sagen, unangenehm.)

Da ist nicht nur das Problem seines Tonfalls(an den ich allerdings schon gewöhnt ... errm ... war), sondern einfach auch, daß er zwar gern zu seiner Meinung stehen soll, aber dann doch bitte auch zumindest ein wenig Toleranz üben sollte - und einfach auch mal davon ausgehen sollte, daß die eigene Meinung ... und wenn noch so ausgeprägt und begründet ... nicht immer das Nonplusultra sein muß und man sich irren kann.

Die Intoleranz ist sein größtes Problem, vor allem da er als Nicht-Spieler hier absolut zu eienr Randgruppe gehört.


@re:
Ich glaub das findet in diesem Fall auch statt, nur hinter den Kulissen ;)

aths
2004-03-28, 15:49:54
Fast schlimmer finde ich, dass ow sich immer die Rosinen bei NV herauspickt, um dort heftig gegen ATI abzustinken. Hinzu kommen hin und wieder unhaltbare Verallgemeinungen ("Alle" GeForce-Karten würden eine bestimmte Eigenschaft erfüllen) was mich ehrlich gesagt daran zweifeln lässt, dass ow den Überblick hat, den er sich offensichtlich zurechnet. (Dass ich mich oft vorsichtig oder einschränkend ausdrücke liegt zumeist daran, dass ich fürchte irgendwas übersehen zu haben und will da den anderen keinen Punkt bieten, mich zu zerfetzen.) (Es gibt aber auch Punkte, z. B. AA vs. extrem hohe Auflösungen etc., wo ich eisenhart verharre.) (Was R200 vs. NV25 angeht, vor dieser Wahl stand ich ja vor knapp 2 Jahren. Den R200 zu kaufen habe ich nicht ernsthaft in Erwägung gezogen: Kein Multisampling-AA, kein vernünftiges AF. Der NV25 wiederum hat natürlich auch einige Nachteile.)

Blacksoul
2004-03-28, 16:04:11
Na ja.

Wir sehen halt alles durch unsere rosarote ATi-Brille und ow alles durch seine giftgrüne nVidia-brille :arsch:

;)

Gast
2004-03-28, 16:14:56
aths wird auch bald wieder zu NV-Fanboy Hochform auflaufen, wenn der NV40+ real erhältlich ist und hochwertiges (gammakorrigiertes) RGMSAA >2x bietet. :D

aths
2004-03-28, 16:17:28
Original geschrieben von Gast
aths wird auch bald wieder zu NV-Fanboy Hochform auflaufen, wenn der NV40+ real erhältlich ist und hochwertiges (gammakorrigiertes) RGMSAA >2x bietet. :D Ob der NV40 "gammakorrektes" AA haben wird oder nicht, wird bald auf 3dcenter zu lesen sein.

CrazyIvan
2004-03-28, 16:25:55
Und ich wette, Du weißt's schon ;D

Wann läuft denn das NDA ab? Oder verbietet selbiges Euch sogar, diese Info preiszugeben?

LovesuckZ
2004-03-28, 16:34:52
Original geschrieben von CrazyIvan
Und ich wette, Du weißt's schon ;D

Wann läuft denn das NDA ab? Oder verbietet selbiges Euch sogar, diese Info preiszugeben?

14.04 für uns Europaeer.

CrazyIvan
2004-03-28, 16:51:11
Uhrzeit(cet)?

Black-Scorpion
2004-03-28, 17:09:26
Original geschrieben von CrazyIvan
Uhrzeit(cet)?
Eher das Datum. ;)

CrazyIvan
2004-03-28, 17:27:49
*LOL*

Vielen Dank fürs Michfürblödhalten *GGG*

Laufen die NDAs immer 00.00 nach GMT ab, oder gibts da ne andere Regelung?

StefanV
2004-03-28, 17:36:31
Original geschrieben von CrazyIvan
*LOL*

Vielen Dank fürs Michfürblödhalten *GGG*

Laufen die NDAs immer 00.00 nach GMT ab, oder gibts da ne andere Regelung?

Das steht auch im NDA *eg*

MadManniMan
2004-03-28, 17:49:13
Original geschrieben von Gast
aths wird auch bald wieder zu NV-Fanboy Hochform auflaufen, wenn der NV40+ real erhältlich ist und hochwertiges (gammakorrigiertes) RGMSAA >2x bietet. :D

...ob 4*RG, bei dem noch nicht sicher ist, ob gammakorrigiert oder nicht ausreicht, wenn es gegen 8*SGMS mit eben jener Berücksichtigung antritt? ;)

LovesuckZ
2004-03-28, 17:53:25
Original geschrieben von MadManniMan
...ob 4*RG, bei dem noch nicht sicher ist, ob gammakorrigiert oder nicht ausreicht, wenn es gegen 8*SGMS mit eben jener Berücksichtigung antritt? ;)

Hm, ATi wird doch nur bei 6 bleiben...

StefanV
2004-03-28, 17:54:32
Original geschrieben von LovesuckZ
Hm, ATi wird doch nur bei 6 bleiben...

Woher du weißt?? :|

LovesuckZ
2004-03-28, 17:55:44
Original geschrieben von Stefan Payne
Woher du weißt?? :|

/Sarkasmus
Aus der selben Quelle, woher MMM seine Meinung, dass Nvidia nur 4*RGMS anbieten werde, hat.

MadManniMan
2004-03-28, 18:07:17
Original geschrieben von LovesuckZ
/Sarkasmus
Aus der selben Quelle, woher MMM seine Meinung, dass Nvidia nur 4*RGMS anbieten werde, hat.

Ich verstehe schon, was du meinst ;) Nur bin ich mir bei nV ziemlich sicher(also 4*RGMS/+SS), aber wir werden ja sehen. Bei ATi hätte es außer dem Speed kein großes Update, von daher kann ich mir beim besten Willen nicht vorstellen, daß es bei 6 Samples bleibt. Zudem könnte der Chips mehr denn 2 ROPs gut gebrauchen und selbst wenn 8* dann nicht allzuuschnell wäre, wäre es doch ein schönes Feature, was man hie und da anwend0rn kann.
Gegenargumente:
1) bei nV behielt man den Algo auch vom NV20 bis zum NV38. Zudem wäre wohl schon der R200 mit dem jetzigen ATi-AA gekommen.
2) wozu mehr als 2 ROPs für ATis AA, wenn eh nur die Bandbreite limitiert und sich das voraussichtlich bei der neuen Generation eher überhaupt nicht bessert.

Ergo: ich weiß nicht viel und sicher bin ich mir auch nicht zu mehr als 51%(für das Gesamtszenario, bei einem oder zwei Dingen bin ich mir sicher), aber für meine Erwartungshaltung reichen mir diese Indizien.

LovesuckZ
2004-03-28, 18:14:26
Original geschrieben von MadManniMan
1) bei nV behielt man den Algo auch vom NV20 bis zum NV38. Zudem wäre wohl schon der R200 mit dem jetzigen ATi-AA gekommen.

Gegenargument: Nvidia wurde für ihr AA so dermaßen getadelt, dass sie es sich nicht leisten koennen, kein verbessertes, konkurenzfaehiges zu bieten. Denn heutzutage will man nicht nur schnell sondern auch schoen sein, ich meine die Spiele :)
Man sollte sich aber eher die Frage stellen, ob Nvidia auch RGSS anbieten werde, das waere, aufgrund ihres DX9 und AA Papier ein richtiges gutes Kaufargument gegenüber der Konkurenz, die SS nicht als "bedeutend" genug einstufen.

MadManniMan
2004-03-28, 18:28:34
Original geschrieben von LovesuckZ
Gegenargument: Nvidia wurde für ihr AA so dermaßen getadelt, dass sie es sich nicht leisten koennen, kein verbessertes, konkurenzfaehiges zu bieten. Denn heutzutage will man nicht nur schnell sondern auch schoen sein, ich meine die Spiele :)

Gutes Argument, wobei man dan wiederum anmerken könnte, daß ATi den Ruf des ub0r-AA auf keinen Fall verlieren darf :grübel:

Original geschrieben von LovesuckZ
Man sollte sich aber eher die Frage stellen, ob Nvidia auch RGSS anbieten werde, das waere, aufgrund ihres DX9 und AA Papier ein richtiges gutes Kaufargument gegenüber der Konkurenz, die SS nicht als "bedeutend" genug einstufen.

:kratz:

Daran hab ich noch gar nicht gedacht und ich halte es ehrlich gesagt auch nicht für wahrscheinlich. 2 Gründe:

1) NV wird die Kombimodi nicht verschrotten. Dafür eignen sich dann aber keine RGSS-Modi. Warum? Guck dir meinen Anhang an (schön gemahlt, nich? :freak: ), du hast ein 8²EER, aber eine shice Verteilung.

2) SS als reiner Modus ist zu lahm.

MadManniMan
2004-03-28, 18:28:58
Scheiße, Anhang vergessen X-D

robbitop
2004-03-28, 18:50:30
SS hat den Ruf veraltet und langsam zu sein...
gut es ist unverhältnismäßig lahm aber nett ist es manchmal schon ;)

so ein richtiger Kaufgrund ist es für die Massen sicher nicht.

Exxtreme
2004-03-28, 18:54:27
Original geschrieben von robbitop
so ein richtiger Kaufgrund ist es für die Massen sicher nicht.
Vorhin habe ich micht schon wieder über Alphatexturen beim UT2004-Zocken aufgeregt! *grrr* Also für mich wäre es tatsächlich ein Kaufgrund. Oder aber ein MSAA, welches die Alphatexturen glätten kann.

robbitop
2004-03-28, 19:11:15
weiss ich doch, aber du und ein paar von uns Leuten, die SS gut verwenden könnten, macht bei weitem keine Massen aus ;)

MadManniMan
2004-03-28, 19:17:26
Original geschrieben von robbitop
weiss ich doch, aber du und ein paar von uns Leuten, die SS gut verwenden könnten, macht bei weitem keine Massen aus ;)

Ich warte einfach, bis der GC F1 kommt und schmeiß dann meine RV250 aus dem 2.Rechner ;)

Exxtreme
2004-03-28, 19:17:55
Original geschrieben von robbitop
weiss ich doch, aber du und ein paar von uns Leuten, die SS gut verwenden könnten, macht bei weitem keine Massen aus ;)
Die Massen wissen gar nicht was AA überhaupt ist geschweige denn wie man es überhaupt einschaltet.

Odal
2004-03-28, 19:31:36
Original geschrieben von aths
Natürlich nicht. Arithmetische Shaderleistung wird in Zukunft jedoch eine immer größere Rolle spielen.


sicher wird es das aber du schriebst das die R3xx doppelt soschnell in PS2.0 games sind ;)

Original geschrieben von aths
Ist es auch nicht. Das Minimallevel von DirectX9 stellt die Techbasis für die nächste Zeit. Wer eine Karte hat die das erfüllt, kann in absehbarer Zukunft alles spielen. Pixelshader 3.0 dürfte zunächst, soweit das möglich ist, für die Beschleunigung bestehender Effekte genutzt werden. Vielleicht gibt es bald auch den einen oder anderen Effekt, den man ohne Pixelshader 3.0 nicht sieht, oder nur in schlechterer Qualität. Ein Knockout-Kriterium wäre das Verfehlen der DX9-Compliance.

sicher, nur diverse leute meinten das die FX5xxx reihe wegen ihrer PS2.0 schwaeche schon nicht zu empfehlen waere..spielen aber fehlende PS3.0 herunter (sei es nur um mehr speed zu erlangen oder halt ein paar effekte mehr zu ermoeglichen)

mitunter versteh ich nicht aussagen von betareverse wonach der R500 dann der ueberchip werden soll...Ati hat hierfuer keine/kaum einen grundstein gelegt

NV hat konsequent die Featurepalette erweitert..NV3x schon 2.x anstatt 2.0 Shader..wodurch der sprung zu den 3.0 shadern nich ganz so gross ist (vom aufwand usw.) und Ati wird wohl bei 2.x schadern (welche vermutlich nicht so maechtig sind wie die 2.x der NV3x) verweilen...
somit wird der NV40 nachfolger leicht auf PS4.0 shader aufzuboren sein.

einige leute meinen nun aber das der R500 nun ploetzlich von fast nur 2.0 shader support auf (performanten) 4.0 shader support aufgebort werden koennen....

wie sie auf diese annahme (besonders betareverse) kommen versteh ich nicht...



und

MadManniMan
2004-03-28, 19:40:28
Original geschrieben von Odal
wie sie auf diese annahme (besonders betareverse) kommen versteh ich nicht...


XBox2

Odal
2004-03-28, 19:43:24
ja und? sollte das nicht ein ableger vom R500 werden?

was hat das jetzt damit zutun das es schwer wird von einer auf die andere generetion von PS2.0 (und noch nen bissle) auf (performante) PS4.0 zu springen? denn wenn der weg so einfach waer haett Ati die 3.0 shader im 420 drin....

robbitop
2004-03-28, 19:48:33
@odal
wie kommst du zu der Erkenntnis, dass der NV 3.0 Shader "leicht" auf Shader 4.0 umzurüsten sei?
Von PS 2 auf 3.0 ist es architektonisch ein recht großer Sprung von "konservativ" auf "flexibel". Somit wäre ein R3xx nicht mit PS 3 ausstattbar, wenn es annehmbare Geschwindigkeit geben soll.

Shader 4.0 soll ein Unified Shader sein. Ich glaube der Vertexshader 3.0 ist nicht mehr soo weit vom PS 3.0 entfernt, aber inwiefern das "einfach" oder "schwierig" wäre, können vermutlich nur die wenigsten von uns abschätzen.
So weit ich weiss sollen R500 und NV50 das erste Mal seit langer Zeit ein Neudesign von Grund auf werden sollen. Ich denke daran, dass Pipelines dann unbedeutend werden und man eine gewisse Anzahl von unified Einheiten besitzt, diese dann "on demand" auf Aufgaben zugeteilt werden. Somit ist die Auslastung und Effizienz eines Chips höher als jetzt.
Weiterhin kommt der Gedankengang (von Demi), dass wenn man schon von Grund auf neu designed, dann wird man vermutlich auch am Rendervorgang an sich etwas machen.
NVs und ATis VPUs sind IMRs und um einen TBDR besipielsweise zu designen, müsste man hier von grund auf neu Anfangen, da die meisten Dinge eben "anders" ablaufen.
Ich bin ja mal gespannt was das wird. Hört sich für mich nach "Effizienz" und "Flexibilität" an...

r@e
2004-03-28, 19:59:50
Original geschrieben von MadManniMan
Ich: "Hört hört, auf einmal ist S2.0 High-Tech? Hehe, du weißt, wie ich das mein?" Du: "Nö." - Wenn das ernstgemeint war - wovon ich nicht ausgeh - liefer ich dir nochmal die Erklärung: du meintest RV370 -> endlich Hightech im Value von ATi. Das beißt sich IMHO damit, als daß nV wohl bald Shader 3.0 Value anbietet -> nix Hightech von ATi, "nur noch" Value im DX9-Bereich.Also das musste ich jetzt bestimmt 3x lesen...
Und richtig verstanden habe ich es wohl auch noch immer nicht.

DX9 im LowEnd = gut, erst jetzt (oder sogar erst in ein paar Monaten) = schlecht
Korrekt ?
Original geschrieben von MadManniMan
Du: "Wie willst Du denn bitte beurteilen können, wie sich Quali und Lesitung beim AA des NV40 verhält?" - Ich habe Dinge gehört, gelesen und gesehen, die mich eine Meinung bilden lassen, von der ich momentan recht überzeugt bin. Will heißen: alles Andere würde mich wirklich überraschen! Nochmalig kurz zusammengefaßt: NV - 4*RGMS / 16Sample AF, aber jetzt auch Winkeladaptiv ... ATi 8*SGMS / 16Sample AF, "bessere" Adaptivität denkbar.Was oder welche Info's läßt Dich bei ATI von 8xAA ausgehen, was von "besserer" Adaptivität beim AF ?
Dazu gibt's noch nicht einmal Gerüchte...

Insofern könnte man auch sagen:
bei ATI tut sich nix (bis auf die 'doppelte Performance' ;-), bei nVidia wohl 'etwas' mehr...

Also ich 'leiste' mir erst dann eine "überzeugte Meinung", wenn es 'etwas' härtere Info's zu den Neuen gibt...
Original geschrieben von MadManniMan
Ein PS im OT-Bereicherl gönn ich mir noch: "Vormittagsjob" deshalb, weil ich seit Jahreswechsel ausnahmslos Spätschichten habe und somit alles andere absonderlich auf mich wirkt ;) Nur noch Spätschichten ?
Dann hoff' ich mal, dass das Deine Umgebung auch mitmacht !
Bei mir hat sich damals so einiges 'verschoben'...

Na ja, hat sich dann irgendwann (mit 'nem neuen 'Job' ;-) normalisiert...

Razor

Quasar
2004-03-28, 20:03:03
aths, mmm:

Seid ihr euch einig? Gamma-korrektes oder Gamma-gegenkorrigiertes AA? ;)

lolman:
Der Screenshotausschnitt war aus "Myst" (k.a. welcher Teil, steht in deinem Link).
Deiner Meinung unbenommen bleibe ich, wenn ich mich zwischen scharfen, flimmrigen oder unschärferen, ruhigen Texturen entscheiden muss, bei zweiterer Wahl.
Schade, daß die V5 mit kaum noch was zu laufen scheint, ansonsten wären da die Treiber mit dem angepassten LOD eine schöne Sache.

robbitop:
Der Ruf, langsam zu sein, stammt nur von der Unzulänglichkeit erhältlicher Chips. X-D
Leider ist's wie überall - für das letzte bißchen Leistung (hier: Mehrarbeit/nutzen SSAA ggü. MSAA+AF) zahlt man unproportional viel.
Was mich erstaunt ist, daß selbst Leute wie aths, die ansonsten penibel auf mathematische (und orthgraphische) Genauigkeiten achten, hier einer Annäherung den Vorzug gibt vor der Lösung, die im Ganzen korrekter arbeitet.

r@e
2004-03-28, 20:11:57
Original geschrieben von robbitop
weiss ich doch, aber du und ein paar von uns Leuten, die SS gut verwenden könnten, macht bei weitem keine Massen aus ;) Versteh' ich nicht...
Dafür gibt's doch das 4xS von nVidia.

Und bei dem Performance-Überschuß (und dank der Game-Profiles ;-) läßt sich dieser ganz hervorragend in geglättete Alphas stecken.

Razor

r@e
2004-03-28, 20:14:36
Original geschrieben von MadManniMan
XBox2 Wus ?
:???:

Und nicht vergessen, es ging um das 'Aufbohren' der R300-Architektur...

Razor

Odal
2004-03-28, 20:15:51
Original geschrieben von robbitop
@odal
wie kommst du zu der Erkenntnis, dass der NV 3.0 Shader "leicht" auf Shader 4.0 umzurüsten sei?
Von PS 2 auf 3.0 ist es architektonisch ein recht großer Sprung von "konservativ" auf "flexibel". Somit wäre ein R3xx nicht mit PS 3 ausstattbar, wenn es annehmbare Geschwindigkeit geben soll.

Shader 4.0 soll ein Unified Shader sein. Ich glaube der Vertexshader 3.0 ist nicht mehr soo weit vom PS 3.0 entfernt, aber inwiefern das "einfach" oder "schwierig" wäre, können vermutlich nur die wenigsten von uns abschätzen.


wie ich dazu komme? nun soweit ich hier im forum mitbekommen hab ist der PS3.0 schon sehr nahe am PS4.0
es fehlt unter anderem noch eine aufhebung der Shaderlaengenbegrenzung bzw. des springens um beliebige laenge (da bin ich mir nun nicht ganz sicher)
aber ich habe noch im "ohr" das der PS4.0 nicht soweit vom PS3.0 entfernt ist..

was ich damit sagen wollte/habe war das bei NV sich die entwicklung bis 4.0 shadern ueber den NV3x, den NV40 bis zum NV50 hinzieht, und Ati dort eine generation/erfahrungen ueberspringt und desweiteren noch eine generation spaeter mit 2.x shadern anfaengt...

da fand ichs nun komisch das betareverse meinte das der R500 nachfolger nun gerade in den PS4.0 ein solcher ueberchip werden soll...da die weichen eine generation spaeter gestellt werden/wurden....und gar noch die PS3.0 ausgelassen werden

Aquaschaf
2004-03-28, 20:31:59
Von NV PS/VS 2.x ist es nicht mehr weit bis 3, aber zwischen 3 und 4 sind doch wieder erhebliche(?) Unterschiede.

Börk
2004-03-28, 20:55:34
Original geschrieben von Aquaschaf
Von NV PS/VS 2.x ist es nicht mehr weit bis 3, aber zwischen 3 und 4 sind doch wieder erhebliche(?) Unterschiede.
So wie ich Demi verstanden habe ist der Schritt von 2.0 zu 3.0 größer als jeder Schritt davor, zwischen 3.0 und 4.0 sind dann allerdings kaum noch große Unterschiede. Ich glaube hauptsächlich sind dann unendlich lange Shader möglich und PS und VS werden sich weiter annähern, evtl schon verschmelzen...

Mr. Lolman
2004-03-28, 21:30:01
Original geschrieben von aths
Das Spiel kenne ich nicht, aber zählt für dich Kantenglättung nicht mit zur Qualität?

Ja natürlich zähle ich AA auch mit zur Qualität, aber die fps*? (bei 1280,AF) :ratlos:

gerade bei einem Rennspiel sollten die recht hoch sein


SeSam würde ich lieber mit tri- als mit bilinearem AF spielen. Ich denke nicht, dass trilineare Filterung "unnütz" ist.

Genau das wollt ich u.A. mit meinem Post eigentlich aussagen. Und in der Tat spielte ich SerSam in 1152x864x32(tri) und leicht verringertem TexturLOD.

Demirug
2004-03-28, 21:49:55
Original geschrieben von burk23
So wie ich Demi verstanden habe ist der Schritt von 2.0 zu 3.0 größer als jeder Schritt davor, zwischen 3.0 und 4.0 sind dann allerdings kaum noch große Unterschiede. Ich glaube hauptsächlich sind dann unendlich lange Shader möglich und PS und VS werden sich weiter annähern, evtl schon verschmelzen...

DX7 -> PS1.1-PS1.3: Loopfunktionen. Es können jetzt mehr Texturen und Rechenfunktionen pro Pixel ausgeführt werden als physikalsich Einheiten vorhanden sind.

PS 1.1-PS1.3 -> PS 1.4: Gleiche Funktionen für das berechnen von Texturkoordinaten und Farben. Mehr Texturen- und Rechenfunktionen pro Pixel

PS1.4 -> PS2.0: Umstellung auf Fliesspunkt rechnungen. Mehr Texturen- und Rechenfunktionen pro Pixel.

PS2.0 -> PS3.0: Einführung von Code-Sprüngen auf Pixelebene. Mehr Texturen- und Rechenfunktionen pro Pixel.

PS3.0 -> SM4.0: Entgültige Vereinheitlichung von VS und PS. Entfernen der Limits (Programlänge, Register, ...). Das entfernen der Limits ist weitgehend eine Treibersache und hat mit der Hardware selbst weniger zu tun. Es ist durchaus möglich das ein 3.0 Chip nachträglich zu einem SM 4.0 Chip wird.

marco42
2004-03-28, 22:06:44
PS 1.1-PS1.3 -> PS 1.4: Gleiche Funktionen für das berechnen von Texturkoordinaten und Farben. Mehr Texturen- und Rechenfunktionen pro Pixel
[QUOTE]

War 1.3 oder 1.2 der P10? 1.4 war doch der R200 oder? Dabei wuerde mich wirklich mal interessieren, ob bei DX so viel geplant wird von Microsoft. Ich habe da eher das Gefuehl, das jeder seinen Chip entwicklet und die SPEC dann hinter her daran angepasst wird.

[QUOTE]
PS1.4 -> PS2.0: Umstellung auf Fliesspunkt rechnungen. Mehr Texturen- und Rechenfunktionen pro Pixel.


Wurde hier eigentlich ddx/ddy eingefuehrt? Ohne ist ja adaptives, analytisches Antiasing schwer moeglich.


PS3.0 -> SM4.0: Entgültige Vereinheitlichung von VS und PS. Entfernen der Limits (Programlänge, Register, ...). Das entfernen der Limits ist weitgehend eine Treibersache und hat mit der Hardware selbst weniger zu tun. Es ist durchaus möglich das ein 3.0 Chip nachträglich zu einem SM 4.0 Chip wird.

Hmm, wie soll dass eigentlich gehen? Muss man die Attribute/Uniforms etc. noch abfragen oder stellt der dann auf Softwarerenderer/Multipass um?

Aber ist das jetzt nicht eher Tech-Forum?

Demirug
2004-03-28, 22:14:12
Original geschrieben von marco42
Wurde hier eigentlich ddx/ddy eingefuehrt? Ohne ist ja adaptives, analytisches Antiasing schwer moeglich.

Ab 2.X als Option ab 3.0 Plicht.

Hmm, wie soll dass eigentlich gehen? Muss man die Attribute/Uniforms etc. noch abfragen oder stellt der dann auf Softwarerenderer/Multipass um?

Ja der Treiber muss was die Hardware nicht in einem Pass schafft in mehrer zerlegen. Ist aber nicht so schwer.

Aber ist das jetzt nicht eher Tech-Forum?

Eigentlich schon.

Odal
2004-03-28, 22:30:40
Original geschrieben von Demirug
PS3.0 -> SM4.0: Entgültige Vereinheitlichung von VS und PS. Entfernen der Limits (Programlänge, Register, ...). Das entfernen der Limits ist weitgehend eine Treibersache und hat mit der Hardware selbst weniger zu tun. Es ist durchaus möglich das ein 3.0 Chip nachträglich zu einem SM 4.0 Chip wird.

was heisst das man nicht soviel/bis garnix an der hardware veraendern muss um aus PS3.0 die combined SM4.0 macht?

Demirug
2004-03-28, 22:38:31
Original geschrieben von Odal
was heisst das man nicht soviel/bis garnix an der hardware veraendern muss um aus PS3.0 die combined SM4.0 macht?

Das wird davon abhängen was am Ende genau in der Spec stehen wird. Im Moment sieht es aber für mich so aus als würden die Anforderungen von SM 4.0 eben weitgehend eine Treibersache werden. Es gibt aber bei DX-Next ja nicht nur SM 4.0.

Exxtreme
2004-03-28, 22:46:40
Original geschrieben von Odal
was heisst das man nicht soviel/bis garnix an der hardware veraendern muss um aus PS3.0 die combined SM4.0 macht?
DirectX sagt nichts darüber aus wie die Hardware aufgebaut sein muss. Es muss nur das richtige Ergebnis rauskommen. Wie ist egal ... ausser RefRast oder ähnliche Techniken natürlich.

P.S. Und oft gibt M$ auch vor, wieviele Texturen pro Pass durch müssen etc.

Odal
2004-03-28, 22:52:38
Original geschrieben von Exxtreme
DirectX sagt nichts darüber aus wie die Hardware aufgebaut sein muss. Es muss nur das richtige Ergebnis rauskommen. Wie ist egal ... ausser RefRast oder ähnliche Techniken natürlich.

das ist mir soweit bekannt ;) nur hoffe ich das hier einige aus den spezifikationen rueckschluesse auf den umsetzungsaufwand ziehen koennten...zumindest in ansaetzen wie demi es schon versucht hat

robbitop
2004-03-28, 23:26:05
@Demi
d.h per Treiber wäre es möglich die VS FPUs vom NV40 PS Operationen durchführen zu lassen und umgekehrt?

Ailuros
2004-03-29, 00:19:20
Original geschrieben von Demirug
Das wird davon abhängen was am Ende genau in der Spec stehen wird. Im Moment sieht es aber für mich so aus als würden die Anforderungen von SM 4.0 eben weitgehend eine Treibersache werden. Es gibt aber bei DX-Next ja nicht nur SM 4.0.

Erscheint mir eher als ein "can of worms" das Ganze den Treibern selbst in Theorie zu ueberlassen. Ueberhaupt im Fall von SIMD und MIMD Kanaelen auf dem gleichen chip. Schiesse ich mir jetzt in den Fuss oder kann es z.B. doch nicht so blendend aussehen mit "out of order vertices"?

Ein unified grid sollte ja dazu dienen dass mal ganz vereinfacht "stalls" vermieden werden. Was genau hab ich hier verpasst?

Corrail
2004-03-29, 01:07:52
Kurze Frage:
Da ja ATI anscheinend keine 3.0 Shader integriert, wie hoch haltet ihr die Wahrscheinlichkeit, dass Texture-Lockups in Vertex Shader realisiert werden (wenn nicht in Hardware, dann in Software über den Treiber). Dürfte ja mit PCIE nicht so große Probleme machen, ist ja genug Bandbreite da...

marco42
2004-03-29, 03:55:29
Original geschrieben von Demirug
Ja der Treiber muss was die Hardware nicht in einem Pass schafft in mehrer zerlegen. Ist aber nicht so schwer.


Naja, ich kann da schon einen Shader schreiben, bei dem das sehr, sehr schwer wird. Wenn der sehr viele Bedinge Anweisungen, Loops etc. drin hat, glaube ich nicht, dass da etwas performantes heraus kommt. Kann man bei DX dann eigentlich noch die Anzahl der attributes, uniforms und varyings abfragen? Gerade das mit den varyings bei DX wirkt sehr krude auf mich.

Demirug
2004-03-29, 07:29:27
Original geschrieben von robbitop
@Demi
d.h per Treiber wäre es möglich die VS FPUs vom NV40 PS Operationen durchführen zu lassen und umgekehrt?

Nein, der VS berechnet Verticen und der PS berechnet Pixel beim NV40.

Demirug
2004-03-29, 07:32:33
Original geschrieben von Ailuros
Erscheint mir eher als ein "can of worms" das Ganze den Treibern selbst in Theorie zu ueberlassen. Ueberhaupt im Fall von SIMD und MIMD Kanaelen auf dem gleichen chip. Schiesse ich mir jetzt in den Fuss oder kann es z.B. doch nicht so blendend aussehen mit "out of order vertices"?

Ein unified grid sollte ja dazu dienen dass mal ganz vereinfacht "stalls" vermieden werden. Was genau hab ich hier verpasst?

Zuerst wird SM 4.0 die Programmierung der Shader vereinheitlichen. Es gibt keinen Zwang das auch in der Hardware zu machen. Ein Unified Grid aus recheneinheiten ist eine (vielleicht die beste) Möglichkeit das SM 4.0 zu implementieren.

Demirug
2004-03-29, 07:34:06
Original geschrieben von Corrail
Kurze Frage:
Da ja ATI anscheinend keine 3.0 Shader integriert, wie hoch haltet ihr die Wahrscheinlichkeit, dass Texture-Lockups in Vertex Shader realisiert werden (wenn nicht in Hardware, dann in Software über den Treiber). Dürfte ja mit PCIE nicht so große Probleme machen, ist ja genug Bandbreite da...

Dann müssten sie den ganzen Shader von der CPU rechnen lassen. Ergo schlechte Idee.

Demirug
2004-03-29, 07:38:22
Original geschrieben von marco42
Naja, ich kann da schon einen Shader schreiben, bei dem das sehr, sehr schwer wird. Wenn der sehr viele Bedinge Anweisungen, Loops etc. drin hat, glaube ich nicht, dass da etwas performantes heraus kommt. Kann man bei DX dann eigentlich noch die Anzahl der attributes, uniforms und varyings abfragen? Gerade das mit den varyings bei DX wirkt sehr krude auf mich.

Performance ist ja eine andere Geschichte.

Warum sollte man die Anzahl der Varyings, Attribute und Uniforms noch abfragen müssen? Beim SM 4.0 ist sie unendlich bei allen vorhergehenden Shaderversionen durch die Version selbst festgelegt. Das ist ja der Vorteil des Versionssystems bei DX. Die einzige Bedingung das ein bestimmer Shader läuft ist das die Hardware die entsprechende Version beherscht. OK 2.X ist dabei die berühmte Aussnahme von der Regel.

r@w
2004-03-29, 10:18:28
Original geschrieben von Demirug
Performance ist ja eine andere Geschichte.Und genau das scheinen hier einige durcheinander zu bringen...

Klar, wenn ich einen SM4-Shader in diverse VS/PS3 zerlegen muss, wird das wohl sogar mächtig auf die Performance hauen, aber das ist nicht der Punkt.

Wenn ich Dich richtig verstanden habe, kann man via 'intelligentem' Treiber einen VS/PS3-Chip dazu bringen auch SM4 auszuführen. Der einzige Anspruch an die 'echte' SM4-Hardware wird wohl sein,

a) das ganze besser performen zu lassen
b) die weiteren 'Bedingungen' von DX-Next zu erfüllen

Bei letzterem scheint wohl aber noch nicht klar zu sein, was genau das denn sein wird. Was aber eher unverständlich erscheint, da die IHV's doch sicher schon dabei sind, die zugrunde liegende Hardware zu konzeptionieren.

Um den Gedanken weiter zu spinnen... meinst Du, dass ATI derzeit (wieder !) mehr Informationen zugestanden werden, was diesen Punkt angeht (ich denke da an die XBox2) ? Wäre ja wohl schlecht für uns alle (wohl aber am meisten für nVidia ;-), wenn dem so sein sollte.

Oder gibt es sogar schon 'feste' Specs bezüglich DX-Next ?
:???:

Fragen über Fragen... sorry !

Razor

Ailuros
2004-03-29, 10:52:09
Original geschrieben von Demirug
Zuerst wird SM 4.0 die Programmierung der Shader vereinheitlichen. Es gibt keinen Zwang das auch in der Hardware zu machen. Ein Unified Grid aus recheneinheiten ist eine (vielleicht die beste) Möglichkeit das SM 4.0 zu implementieren.

Ja schon aber irgendwie kann ich mir nicht vorstellen, dass alles optimal laeuft wenn man jetzt einen SM4.0 durch einen PS/VS3.0 chip (so wie ich mir diese momentan vorstellen kann) jagt.

Der erste Gedanke war bei mir (wie schon gesagt) "out of order vertices". Wenn ich jetzt nichts falsch verstanden habe, dann sollten fuer optimales branching vertices in der Reihenfolge herauskommen, wie sie gefuettert werden.

Oder gibt es sogar schon 'feste' Specs bezüglich DX-Next ?

Die Grundlagen sind IMHO und AFAIK schon mehr oder weniger gesetzt. Natuerlich gibt es staendige Aenderungen, aber ich wuerde eher spekulieren dass diese klein sind und dass dann auch vieles von der Implementation eines jeden IHVs abhaengt.

Probleme was den HW-Platz und Implementationen fuer "unlimited resources" betrifft, werden IHVs wohl schon haben. Was da wohl passieren koennte, ist dass man erstmal an gewisse Feature-Unterstuetzung denkt und dann spaeter erst an die Leistung (hauptsaechlich was topology/tesselation betrifft und weniger SM4.0).

robbitop
2004-03-29, 10:58:18
naja ATi hätte aus dem R3xx auch einen PS 3 basteln können, nur wäre die Performance dementsprechnend unbrauchbar. Somit finde ich, dass Performance ein wichtiger Bestandteil ist, nicht nur das Checklistfeature itself.

Corrail
2004-03-29, 11:41:11
Original geschrieben von Demirug
Dann müssten sie den ganzen Shader von der CPU rechnen lassen. Ergo schlechte Idee.

Wieso? AFAIK Texture Sampeling ist ja derzeit im VS nur über nearest Filter verfügbar. Der Treiber kann ja, zwar leider nur bei bestimmten Anwendungen, die Samples machen und dem VS dann per Vertex Attribs schicken.
Wie schon gesagt geht das halt nur bei bestimmten Anwendungen. Oder der Treiber ist so intellegent und spaltet den Shader in CPU und GPU Teil. Somit wäre die Last "aufgeteilt".

ow
2004-03-29, 12:12:27
.

marco42
2004-03-29, 12:18:36
Original geschrieben von Demirug
Performance ist ja eine andere Geschichte.

Warum sollte man die Anzahl der Varyings, Attribute und Uniforms noch abfragen müssen? Beim SM 4.0 ist sie unendlich bei allen vorhergehenden Shaderversionen durch die Version selbst festgelegt. Das ist ja der Vorteil des Versionssystems bei DX. Die einzige Bedingung das ein bestimmer Shader läuft ist das die Hardware die entsprechende Version beherscht. OK 2.X ist dabei die berühmte Aussnahme von der Regel.

Hmm, das hat schon bei OpenGL nicht besonders funktioniert. Ich glaube schon, dass man das erfahren moechte. Seit wann klappt das denn so reibungslos? Im Endeffekt optimieren die Entwickler auf die beiden grossen Hersteller.

ow
2004-03-29, 12:19:14
.

marco42
2004-03-29, 12:23:21
[SIZE=1]Original geschrieben von Ailuros
Der erste Gedanke war bei mir (wie schon gesagt) "out of order vertices". Wenn ich jetzt nichts falsch verstanden habe, dann sollten fuer optimales branching vertices in der Reihenfolge herauskommen, wie sie gefuettert werden.


Hmm, das ist wohl eher eine Sache der Hardware? Hinter der Vertex Program Engine ist ja noch ein Cache.

robbitop
2004-03-29, 18:17:17
nein Demirug hat mal erläutert dass PS 3 machbar wäre, aber dadurch die gesamte PS Performance im Eimer wäre.

Ailuros
2004-03-30, 03:21:14
Original geschrieben von robbitop
naja ATi hätte aus dem R3xx auch einen PS 3 basteln können, nur wäre die Performance dementsprechnend unbrauchbar. Somit finde ich, dass Performance ein wichtiger Bestandteil ist, nicht nur das Checklistfeature itself.

R3xx war nur von Anfang an NICHT fuer mehr als PS2.0 ausgelegt.

In einem wahren dx9 PS/VS2.0 Spiel wuerden heutige high-end Karten sowieso schneckenlangsam sein. Und nein ich mein jetzt nicht ein paar Spiegelungen in einer Pfuetze.

Laste mal einen NV35 voll aus und schmeiss auf diesen 512 Anweisungen lange Shader mit FP32 und dann koennen wir ja ueber Leistung reden.

Und wenn's schon um Checklist-features geht: wie sieht es von der anderen Seite mit Displacement Mapping bei R3xx aus? Steht in der Feature-liste, nur eben wohl auf dem falschen Karton; leider kam meine CPU in einer Plastiktuete LOL :D

betasilie
2004-03-30, 03:46:26
Original geschrieben von Ailuros
Und wenn's schon um Checklist-features geht: wie sieht es von der anderen Seite mit Displacement Mapping bei R3xx aus? Steht in der Feature-liste, nur eben wohl auf dem falschen Karton; leider kam meine CPU in einer Plastiktuete LOL :D
Der R420 soll doch VS3.0 unterstützen, daher wird DM wohl von ihm beherrscht werden, oder irre ich?

Edit: Habe mich verlesen und gedacht Du würdest dich auf den R420. *tztztz* ;)

Odal
2004-03-30, 04:28:17
Original geschrieben von betareverse
Der R420 soll doch VS3.0 unterstützen, daher wird DM wohl von ihm beherrscht werden, oder irre ich?

Edit: Habe mich verlesen und gedacht Du würdest dich auf den R420. *tztztz* ;)

mhh weisst du mehr als ich? soweit ich weiss wurde spekuliert das die moeglichkeit besteht das er zumindest VS3.0 besitzt...das es aber so ist hab ich noch nicht gehoert...

betasilie
2004-03-30, 04:37:45
Original geschrieben von Odal
mhh weisst du mehr als ich? soweit ich weiss wurde spekuliert das die moeglichkeit besteht das er zumindest VS3.0 besitzt...das es aber so ist hab ich noch nicht gehoert...
Ich weiß nix. X-D ... ´Habe das auch nur mal irgendwo gehört.

Odal
2004-03-30, 05:25:18
Original geschrieben von betareverse
Ich wei?nix. X-D ... ´Habe das auch nur mal irgendwo gehört.

hehe naja gehoert hab ich schon sovieles...angefangen von taktraten weit ueber 650 beim nv40 ueber 32x1 pipes beim nv40 nachher 16x1 pipes dann 8x2..ueber PS3.0 im r420 usw. ich mein wir sind zwar im spekulationsteil aber solangsam interessiert mich nur noch was fakten schon rech nahekommt

ich hab auch gehoert das der r420 scheisse wird und ne ziemliche enttaeuschung ist (hinsichtlich der performance und besonders der features) :D

betasilie
2004-03-30, 05:33:01
Original geschrieben von Odal
hehe naja gehoert hab ich schon sovieles...angefangen von taktraten weit ueber 650 beim nv40 ueber 32x1 pipes beim nv40 nachher 16x1 pipes dann 8x2..ueber PS3.0 im r420 usw. ich mein wir sind zwar im spekulationsteil aber solangsam interessiert mich nur noch was fakten schon rech nahekommt

ich hab auch gehoert das der r420 scheisse wird und ne ziemliche enttaeuschung ist (hinsichtlich der performance und besonders der features) :D
Naja, ich habe ja nicht ohne Grund verschwiegen von wem ich es gehört habe. ;)

Quasar
2004-03-30, 06:57:06
:cop: FUAD :cop: X-D X-D X-D

in04
2004-03-30, 16:08:15
Für alle die neues Futter zum spekulieren brauchen,
guckst du hier: http://pwp.netcabo.pt/0239863201/Save_The_Nanosecond.ppt
und/oder hier:
http://www.beyond3d.com/forum/viewtopic.php?t=11153&start=0
bzw. hier:
http://www.beyond3d.com/forum/viewtopic.php?t=11164

mapel110
2004-03-30, 19:45:29
Original geschrieben von in04
Für alle die neues Futter zum spekulieren brauchen,
guckst du hier: http://pwp.netcabo.pt/0239863201/Save_The_Nanosecond.ppt
und/oder hier:
http://www.beyond3d.com/forum/viewtopic.php?t=11153&start=0
bzw. hier:
http://www.beyond3d.com/forum/viewtopic.php?t=11164

hmhm, blubblub um nichts?! Neue Fakten stehen wohl nicht drin, nur ein paar diskussionswürdige/fragwürdige Aussagen.

r@e
2004-03-30, 20:22:21
Original geschrieben von mapel110
hmhm, blubblub um nichts?! Neue Fakten stehen wohl nicht drin, nur ein paar diskussionswürdige/fragwürdige Aussagen. Das würde ich so nicht sagen...
Immerhin wäre das der erste konkrete Bezug zum R420 !

Für alle, die es interessiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=134011

Razor

Sphinx
2004-03-31, 03:23:09
Original geschrieben von RIVASTATION.COM BORSTI

NV40 scheint wirklich sehr potent zu sein. ATIs R300 Design ist bei PS20/VS20 nunmal sehr effizient und schnell. Selbst wenn R420 "nur" diese Shader beherrscht, aber dafür schnell, dann können sie damit Problemlos die Zeit zum Herbst überbrücken... und was einige nicht wissen: vor R5xx kommt erstmal R480 - und das früher als einige denken.
NV40 muss wirklich _sehr_ schnell sein, um ATI so in Bedrängnis zu bringen wie du dir das vorstellst.

Viel wichtiger als NV40 werden die neuen Mainstream Parts. Da könnte NV wirklich stark punkten!


Borsti - Webmaster/Admin




Mal als ein Hint.

mapel110
2004-03-31, 05:03:25
Original geschrieben von Sphinx
Mal als ein Hint.

eher würde ich einen stark vorgezogenen R500 mit Shader 4.0 vermuten, als einen Shader 3.0 R480.
Aber gänzlich unwahrscheinlich ists auch nicht.

Ailuros
2004-03-31, 12:20:00
Original geschrieben von mapel110
eher würde ich einen stark vorgezogenen R500 mit Shader 4.0 vermuten, als einen Shader 3.0 R480.
Aber gänzlich unwahrscheinlich ists auch nicht.

Nein. R500 wird nicht vorgezogen. R480 wurde in die roadmap vor einiger Zeit eingeschoben um den release Termin von R500 noch weiter "verzoegern" zu koennen. Ich wuerde nicht so stark optimistisch sein fuer einen H1 2005 release fuer R500. Macht's Sinn?

ShadowXX
2004-03-31, 12:52:50
Original geschrieben von Ailuros
Nein. R500 wird nicht vorgezogen. R480 wurde in die roadmap vor einiger Zeit eingeschoben um den release Termin von R500 noch weiter "verzoegern" zu koennen. Ich wuerde nicht so stark optimistisch sein fuer einen H1 2005 release fuer R500. Macht's Sinn?

Kommt darauf an, was der r500 denn nun wirklich ist.....wenns es wirklich ein SM4.0 Chip ist, würde sich sowieso erst ein 2006 release anbieten.....

Wenn es aber "nur " ein PS/VS3.0 Chip ist, wäre ein H1 2005 release durchaus denkbar...

Ich tendiere dazu, das der "jetzige" r500 ein reiner PS/VS3.0 Chips ist, sonst hätte ATI nämlich nix für 2005....den SM4.0 wäre für 2005 zu früh...

J.S.Shadow

Ailuros
2004-03-31, 13:05:01
Original geschrieben von ShadowXX
Kommt darauf an, was der r500 denn nun wirklich ist.....wenns es wirklich ein SM4.0 Chip ist, würde sich sowieso erst ein 2006 release anbieten.....

Wenn es aber "nur " ein PS/VS3.0 Chip ist, wäre ein H1 2005 release durchaus denkbar...

Ich tendiere dazu, das der "jetzige" r500 ein reiner PS/VS3.0 Chips ist, sonst hätte ATI nämlich nix für 2005....den SM4.0 wäre für 2005 zu früh...

J.S.Shadow

Was nochmal ist der Unterschied zwischen SM3.0 und 4.0? DX-Next bringt wichtigere Fortschritte als nur im Grund die grids zu vereinen. DX-Next wird fuer ein paar Jahre aushalten muessen und ueber mehrere HW Generationen.

An welches genau DX-Next Niveau denkt ihr ueberhaupt?

Der Grund warum ich H1 2005 nicht fuer so moeglich halte hat nichts mit Shader-quatsch zu tun, sondern eher Herstellungsprozessen. NV40 wollte ja auch schon auf Regalen vor Ende 2003 hocken, wir haben jetzt ja 130nm unter Griff blah blah blah....kommt Dir etwas bekannt vor?

r@w
2004-03-31, 13:52:06
Original geschrieben von mapel110
eher würde ich einen stark vorgezogenen R500 mit Shader 4.0 vermuten, als einen Shader 3.0 R480.
Aber gänzlich unwahrscheinlich ists auch nicht. Wozu Shader 4.0 (SM4), wenn DX-Next erst 2006/2007 mit Longhorn auf den Markt kommt ?
:???:

Razor

r@w
2004-03-31, 13:54:08
Original geschrieben von Ailuros
Was nochmal ist der Unterschied zwischen SM3.0 und 4.0? DX-Next bringt wichtigere Fortschritte als nur im Grund die grids zu vereinen. DX-Next wird fuer ein paar Jahre aushalten muessen und ueber mehrere HW Generationen.

An welches genau DX-Next Niveau denkt ihr ueberhaupt?An die, die erstmalig SM4 bringen wird...
IMO also die erste Version, oder ?
:D

Razor

robbitop
2004-03-31, 14:34:36
die Aussage stammt von Mr "Doom3 wird eine Mischung aus DX8 und DX9" (Doom ist OpenGL ;)) ...insofern nicht allzu glaubhaft.

ATi hat wie auch NV gesagt, dass es 18 Monate bis zur nächsten Generation dauert.
Wenn R480 PS3 beherrscht, dann nur gezwungen und sehr langsam. Ist schliesslich nur ein Refresh von R420, welcher eine R3xx Pipelinestruktur als Basis hat.
Ich könnt mir vorstellen, dass das ein oder andere bei den NExtgen refreshes aufgebohrt oder evl geshrinkt wird, traditioniell sollte man nicht zuviel erwarten imo.

Solche Gerüchte sind meist sowieso unglaubwürdig, weil sie einfach nicht ins "Puzzle" passen und die sollte man hinterfragen. Ich weiss noch wieviele Leute rumgeschriehen haben, R420 sei nicht ein R3xx Aufguss sondern von den Pipes eine Neuentwicklung und mit Shader 3.0 Qualitäten obwohl es nicht passte (siehe R400 und Loci Geschichte)

soviel dazu

ShadowXX
2004-03-31, 14:48:00
Original geschrieben von Ailuros
Was nochmal ist der Unterschied zwischen SM3.0 und 4.0? DX-Next bringt wichtigere Fortschritte als nur im Grund die grids zu vereinen. DX-Next wird fuer ein paar Jahre aushalten muessen und ueber mehrere HW Generationen.

An welches genau DX-Next Niveau denkt ihr ueberhaupt?

Der Grund warum ich H1 2005 nicht fuer so moeglich halte hat nichts mit Shader-quatsch zu tun, sondern eher Herstellungsprozessen. NV40 wollte ja auch schon auf Regalen vor Ende 2003 hocken, wir haben jetzt ja 130nm unter Griff blah blah blah....kommt Dir etwas bekannt vor?

Mir ist schon klar worauf du hinaus willst, ich wollte damit auch eigntlich nur sagen, das ich den r500 nicht für den "überchip" halte, wie es einige tun...

Das sollte das PS/VS3.0 Techlevel ausdrücken...mehr nicht.
Anders gesagt...der r500 wird der nv40 von ATI...also die anpassung an den Techlevel...(wie auch immer technisch gelöst)

robbitop
2004-03-31, 14:55:48
R500 geht den Schritt den NV30 damals ging, von konventionellen Pipelines zu einer CPU Ähnlichen Struktur...Ich mutmaße sogar dass er noch einen schritt weiter ist.

Mit dem NV50 geht man ja wieder einen Schritt weiter (ich weiss nicht obs beim R500 auch so ist). Hier muss man neuentwickeln, da vermutlich die Ganze Renderarchitektur über den Haufen geschmissen wird (IMR).

r@w
2004-03-31, 14:56:30
Original geschrieben von ShadowXX
Das sollte das PS/VS3.0 Techlevel ausdrücken...mehr nicht.
Anders gesagt...der r500 wird der nv40 von ATI...also die anpassung an den Techlevel...(wie auch immer technisch gelöst) Wenn man der Präsentation glauben schenken mag, dann wird der R500 (besser R5xx) der erste Chip von ATI sein, der keine Probleme mehr mit 'gewissen' SM3-Funktionalitäten hat.

So würde der von robbi so bezeichnete R480 doch wieder gut ins Bild passen, weil dies der in der Präsentation genannte "nicht R420 - prä R5xx" Chip sein könnte, der zwar SM3 voll unterstützt, aber flow control "nicht mag"...

Razor

r@w
2004-03-31, 14:58:17
Original geschrieben von robbitop
Mit dem NV50 geht man ja wieder einen Schritt weiter (ich weiss nicht obs beim R500 auch so ist). Hier muss man neuentwickeln, da vermutlich die Ganze Renderarchitektur über den Haufen geschmissen wird (IMR). Gibt es dazu irgendwelche nähere (konkrete) Info's ?
:???:

Razor

robbitop
2004-03-31, 15:12:55
natürlich nicht...Dinge die man so hört, Dinge die man zw den Zeilen liesst sich Sachen denkt usw ;)

offizielle FAKTEN kannst du bis vor Launchtermin vergessen

mapel110
2004-03-31, 15:21:12
Original geschrieben von r@w
Wozu Shader 4.0 (SM4), wenn DX-Next erst 2006/2007 mit Longhorn auf den Markt kommt ?
:???:

Razor

Directx next kommt "when its needed!", Longhorn kommt "when its done!" :)
Microsoft hat sich schon längt davon losgesagt, das nächste Directx erst mit Longhorn zu veröffentlichen.

Was sollen denn die IHVs machen, wenn sie bereits ps3.0-hardware haben?! mal eben noch 1-2 jahre lang refreshchips ausliefern?!

ShadowXX
2004-03-31, 15:29:22
Original geschrieben von r@w
Wenn man der Präsentation glauben schenken mag, dann wird der R500 (besser R5xx) der erste Chip von ATI sein, der keine Probleme mehr mit 'gewissen' SM3-Funktionalitäten hat.

Razor

Das meinte ich doch mit: der r500 wird ATIs nv40, da ich davon ausgehe, das der nv40 eben keine Probs mit den "gewissen" SM3-Funktionalitäten haben wird...

Und ich gebe dir auch völlig recht, das ATI momentan hinterherhinkt und dies nur mit brachialer Gewalt und der Hoffnung auf geringen SM3 Einsatz kompensieren kann...

Aber trotzdem möchte ich erst den Speed der beiden kennen, um endgültig sagen zu können, ob ATI momentan "neben der Spur" liegt....

Ich hasse Technologiebremsen nämlich Normalerweise...am nv30/35 hat mich auch weniger der "fehlende" PS2.0 Speed gestört, als vielmehr das AA.
Klar, wenn man dann erst mal eine ATI hat, dann ist der PS2.0 Speed das Sahnehäubchen...aber wie man in den meisten Games sieht nicht gerade "überlebenswichtig".

Ich bin langsam mehr als gespannt, wann ATI denn auch mal was ankündigt....

ShadowXX
2004-03-31, 15:33:17
Original geschrieben von mapel110
Directx next kommt "when its needed!", Longhorn kommt "when its done!" :)
Microsoft hat sich schon längt davon losgesagt, das nächste Directx erst mit Longhorn zu veröffentlichen.

Was sollen denn die IHVs machen, wenn sie bereits ps3.0-hardware haben?! mal eben noch 1-2 jahre lang refreshchips ausliefern?!

Warum nicht???

Ehrlich gesagt muss man es doch so sehen, das weder der r3xx noch der kommende t420 noch der nv40 wirklich genug Power für PS2.0 Only games hat (also Spiele, die man wirklich als PS2.0 Games betrachten kann...)

Und ich glaube, das erst 2006 Chips herauskommen werden, die dieses dann vielleicht von sich behaupten können...

Und bei 18Monaten pro Generation...da ist 2006/7 nicht mehr so weit entfernt...

mapel110
2004-03-31, 15:41:45
Original geschrieben von ShadowXX
Warum nicht???

Ehrlich gesagt muss man es doch so sehen, das weder der r3xx noch der kommende t420 noch der nv40 wirklich genug Power für PS2.0 Only games hat (also Spiele, die man wirklich als PS2.0 Games betrachten kann...)

Und ich glaube, das erst 2006 Chips herauskommen werden, die dieses dann vielleicht von sich behaupten können...

Und bei 18Monaten pro Generation...da ist 2006/7 nicht mehr so weit entfernt...

uih, hast du ne fette kristallkugel, würd ich auch gern mal reinschauen :)
ich weiss noch nicht, wie schnell R420 und NV40 sind. und ich kanns mir ehrlich gesagt auch garnicht wirklich vorstellen, wie performant sie sind. ;)

Aber mal ein gedankenanstoss, heutige games sind schon meist CPU-limitiert. da gibts ohne AA/AF kaum spielraum nach oben.
Solange uns Intel und AMD uns bei 3 Ghz rumkrebsen lassen, werden wir wohl auch keine wesentlich schöneren Games sehen. So seh ich das derzeit. Seit Ende 2002 haben wir 3.0 Ghz. Das nervt mehr, als "fehlender" PS2.0-Speed.
sry for offtopic ;(

r@w
2004-03-31, 15:45:35
Original geschrieben von robbitop
natürlich nicht...Dinge die man so hört, Dinge die man zw den Zeilen liesst sich Sachen denkt usw ;)

offizielle FAKTEN kannst du bis vor Launchtermin vergessen Harte Fakten waren ja auch nicht mein Anliegen...
Nur würde mich halt schon interessieren, was genau denn einen solchen 'Umbau' erfordern würde.

Razor

r@w
2004-03-31, 15:47:22
Original geschrieben von mapel110
Directx next kommt "when its needed!", Longhorn kommt "when its done!" :)
Microsoft hat sich schon längt davon losgesagt, das nächste Directx erst mit Longhorn zu veröffentlichen.Tatsächlich ?
AFAIK soll vor Longhorn kein neues DX kommen (von 9.0c mal abgesehen ;-)
Original geschrieben von mapel110
Was sollen denn die IHVs machen, wenn sie bereits ps3.0-hardware haben?! mal eben noch 1-2 jahre lang refreshchips ausliefern?! Oder einfach DX9(c) nutzen...
:D

Razor

r@w
2004-03-31, 15:51:24
Original geschrieben von ShadowXX
Aber trotzdem möchte ich erst den Speed der beiden kennen, um endgültig sagen zu können, ob ATI momentan "neben der Spur" liegt....Völlig klar.
Original geschrieben von ShadowXX
Ich hasse Technologiebremsen nämlich Normalerweise...am nv30/35 hat mich auch weniger der "fehlende" PS2.0 Speed gestört, als vielmehr das AA.
Klar, wenn man dann erst mal eine ATI hat, dann ist der PS2.0 Speed das Sahnehäubchen...aber wie man in den meisten Games sieht nicht gerade "überlebenswichtig".ATI wird mit dem R420 wohl auf jeden Fall eine Technologie-Bremse stellen, aber dank dieser 'Präsentation' dürfte sich das wohl 'etwas' relativieren...
Original geschrieben von ShadowXX
Ich bin langsam mehr als gespannt, wann ATI denn auch mal was ankündigt.... Ich auch !
Und ebenso auf die offizielle Vorstellung des NV40.
Dieses gazen Verwirrspielchen machen einen ja wirklich langsam kirre.
:D

Razor

robbitop
2004-03-31, 16:03:09
@razor
naja wenn man die Renderphilosophie ändern möchte, dann braucht es ein komplett neues Design, weil die Einheiten dann ganz anders gestaffelt sind. Im Moment sind wir bei einem sehr aufgebohrten IMR. So der Rest ist Spekulation..wo es hingehen könnte...da der Drang nach Effizienz da ist und nicht nur nach steigender Rohleistung (wichtig ist was unterm Strich noch übrig bleibt) vermute ich was Effizientes..was gibts zZ effizientes? Ein TBDR zB...nur ein Gedanke..vieleicht ja auch was anderes ...wer weiss ;)

Ailuros
2004-03-31, 16:18:07
Original geschrieben von robbitop
@razor
naja wenn man die Renderphilosophie ändern möchte, dann braucht es ein komplett neues Design, weil die Einheiten dann ganz anders gestaffelt sind. Im Moment sind wir bei einem sehr aufgebohrten IMR. So der Rest ist Spekulation..wo es hingehen könnte...da der Drang nach Effizienz da ist und nicht nur nach steigender Rohleistung (wichtig ist was unterm Strich noch übrig bleibt) vermute ich was Effizientes..was gibts zZ effizientes? Ein TBDR zB...nur ein Gedanke..vieleicht ja auch was anderes ...wer weiss ;)

Als ob der Umstieg auf TBDR, wenn man so viel Erfahrung mit IMRs hat, nur ein Kinderspiel waere.

Es gibt noch genug Plaetze wo sich IMRs Effizienz dazuschachteln koennen und das Maerchen dass irgendwann mal eine Sackgasse erreicht wird, ist eben nur das: ein Maerchen.

x-dragon
2004-03-31, 16:55:03
Original geschrieben von r@w
Tatsächlich ?
AFAIK soll vor Longhorn kein neues DX kommen (von 9.0c mal abgesehen ;-) ... In der Richtung hat MS seine Meinung schon vor einiger Zeit geändert, da sie wohl selbst bemerkt haben das die Grafikkartenhersteller in der Entwicklung ihrer Hardware schneller sind, als die Entwicklung von Longhorn dauert.

Ausserdem muss das neue DirectX ja auch passend zur X-Box2 fertig sein (also vor der Veröffentlichung zur Spieleentwicklung), egal ob Longhorn fertig ist oder nicht.

ShadowXX
2004-03-31, 16:55:42
Original geschrieben von mapel110
uih, hast du ne fette kristallkugel, würd ich auch gern mal reinschauen :)
ich weiss noch nicht, wie schnell R420 und NV40 sind. und ich kanns mir ehrlich gesagt auch garnicht wirklich vorstellen, wie performant sie sind. ;)

Aber mal ein gedankenanstoss, heutige games sind schon meist CPU-limitiert. da gibts ohne AA/AF kaum spielraum nach oben.
Solange uns Intel und AMD uns bei 3 Ghz rumkrebsen lassen, werden wir wohl auch keine wesentlich schöneren Games sehen. So seh ich das derzeit. Seit Ende 2002 haben wir 3.0 Ghz. Das nervt mehr, als "fehlender" PS2.0-Speed.
sry for offtopic ;(

Hmmmm....FarCry ist meiner persönlichen Einschätzung nach nicht nur CPU, sondern auch GPU limitiert....

Ausserdem sollen PS/VS2.0 und erst recht PS/VS3.0 ja eigentlich dafür sorgen, das die CPU mehr däumchen drehen darf....

Natürlich hast du recht, das ein gross der Games heutzutage CPU Limitiert ist, aber woran liegt das wohl...weil die GPUs der CPU nicht genug Arbeit abnehmen können????

Die halbwegs gut aussehenden Games heutzutage benutzen ja gerade mal < PS2.0, meist sogar nur PS1.1/1.0...was vielleicht auch daran liegt, das bis auf Eye-Candys die PS2.0 Geschwindigkeit zu niedrig ist....

In der nächsten Gen (r420/nv40) wird man dann vielleicht mal etwas mehr PS2.0 benutzen können, bevor die GraKas zusammenbrechen...aber für PS2.0 Only wird es IMHO immer noch nicht ausreichen...

Meine Kristallkugel ist übrigens eine Mitsumischi L97600XT (natürlich OCed...) ;D ;D

ShadowXX
2004-03-31, 16:58:02
Original geschrieben von x-dragon
In der Richtung hat MS seine Meinung schon vor einiger Zeit geändert, da sie wohl selbst bemerkt haben das die Grafikkartenhersteller in der Entwicklung ihrer Hardware schneller sind, als die Entwicklung von Longhorn dauert.

Ausserdem muss das neue DirectX ja auch passend zur X-Box2 fertig sein (also vor der Veröffentlichung zur Spieleentwicklung), egal ob Longhorn fertig ist oder nicht.

Hmmm....gibt es ein offizielles Statement von M$, das die XBox2 das SM4.0 verwendet????

r@e
2004-03-31, 20:00:43
Original geschrieben von ShadowXX
Hmmm....gibt es ein offizielles Statement von M$, das die XBox2 das SM4.0 verwendet???? Dazu gibt's nicht einmal ein inoffizielles...

Razor

r@e
2004-03-31, 20:06:41
Original geschrieben von robbitop
naja wenn man die Renderphilosophie ändern möchte, dann braucht es ein komplett neues Design, weil die Einheiten dann ganz anders gestaffelt sind. Im Moment sind wir bei einem sehr aufgebohrten IMR. So der Rest ist Spekulation..wo es hingehen könnte...da der Drang nach Effizienz da ist und nicht nur nach steigender Rohleistung (wichtig ist was unterm Strich noch übrig bleibt) vermute ich was Effizientes..was gibts zZ effizientes? Ein TBDR zB...nur ein Gedanke..vieleicht ja auch was anderes ...wer weiss ;) Na ja... dies ist dann aber nicht nur einer der wildesten Spekulationen, sondern zudem noch völlig aus der Luft gegriffen.

Ich dachte halt, dass es da schon 'etwas' konkretere Vorstellung über eine zukünftige Architektur gibt. Und nebenbei gesagt: einen TBDR halte ich für absolut unnötig.

Und was soll 'Effizienz' zum Marketing beitragen ?
:???:

Razor

robbitop
2004-03-31, 20:09:10
@AiL
das war einfach nur ein Wink, nicht mal eine Spekulation. Demi meint sowas tut man nur wenn man an der Renderphilosophie was ändern möchte und der NV50 ist nach seinen Aussagen ein komplett neues Design und das hat was zu bedeuten aus seinem Munde.
Und wie aths schonmal gesagt hat, ist Entwickler X nicht zu blöd um Technology Y zu realisieren, der Chefentwickler hatte einfach andere Prioritäten. Zumal sie leute von GP dabei haben die sehr wohl know how haben.
Irgendwann ist immer das erste Mal und NV50 ist schon recht lang in Entwicklung. Vieleicht ist es kein TBDR sondern etwas neues, was bisher niemand von uns hier kennt, wer weiss..ich finde nicht, dass man Dinge im Voraus als Unsinn abtuen sollte ..abwarten eben ;)
ein Neudesgin macht man nicht umsonst.

zu deinen Optimierungen vom IMR:
1. sage ich nicht dass es keinen Weg gibt die zu erweitern, ich meine lediglich, dass NV50 vieleicht kein IMR mehr ist. TBDR ist da kein Zwang imo
2. kennst du das Gesetz des Abnehmenden Ertrages..das gilt soziemlich überall..beim Takt beim AA beim AF und auch hier. Die erste Optimierung mit vorgezogenen Z Test, unterteiltem Speichercontroller ect haben einiges gebracht, danach gleicher Aufwand und wenig Nutzen in Relation zum ersten Aufbohren.

r@e
2004-03-31, 20:11:07
Original geschrieben von x-dragon
In der Richtung hat MS seine Meinung schon vor einiger Zeit geändert, da sie wohl selbst bemerkt haben das die Grafikkartenhersteller in der Entwicklung ihrer Hardware schneller sind, als die Entwicklung von Longhorn dauert.Gibt's dazu irgendetwas offizielles ?
:???:

Und warum sollte neue Features nicht über CAPS der bestehenden DX-Version hinzu gefügt werden können ? DX9c, DX9d oder gar DX9.1 u.s.w.
Original geschrieben von x-dragon
Ausserdem muss das neue DirectX ja auch passend zur X-Box2 fertig sein (also vor der Veröffentlichung zur Spieleentwicklung), egal ob Longhorn fertig ist oder nicht. Mit der XBox hat das erst einmal rein gar nichts zu tun. So kann für diese ruhig schon ein modifizierter 'Vorgriff' auf die erste DX-Next-Version erfolgen, ohne auch nur im Geringsten den PC-Markt zu berühren...

Razor

x-dragon
2004-03-31, 21:51:27
Original geschrieben von r@e
Gibt's dazu irgendetwas offizielles ?
:???:

Und warum sollte neue Features nicht über CAPS der bestehenden DX-Version hinzu gefügt werden können ? DX9c, DX9d oder gar DX9.1 u.s.w.
Mit der XBox hat das erst einmal rein gar nichts zu tun. So kann für diese ruhig schon ein modifizierter 'Vorgriff' auf die erste DX-Next-Version erfolgen, ohne auch nur im Geringsten den PC-Markt zu berühren...

Razor Ich meine da gab es schon was konkretes in der Richtung, konnte aber jetzt auch nur das da finden: ... DirectX10 sollte eigentlich einmal mit dem Windows XP Nachfolger Longhorn kommen, doch durch dessen enorme Verspätung ergibt sich durchaus die Möglichkeit, daß Microsoft die Grafikchip-Hersteller erhört und DirectX10 unabhängig von Longhorn irgendwann 2005 veröffentlicht. ...

http://www.3dcenter.de/news/2004/woche06.php Naja gut das mit der XBox war mehr eine Annahme von mir, das MS sein neues DirectX erst fertigstellt um damit ordentlich Werbung zu machen, aber du hast wohl recht das MS da sehr flexibel ist da sie dafür ja kein öffentlichen Standard brauchen.

Ailuros
2004-04-01, 02:01:49
Original geschrieben von robbitop
@AiL
das war einfach nur ein Wink, nicht mal eine Spekulation. Demi meint sowas tut man nur wenn man an der Renderphilosophie was ändern möchte und der NV50 ist nach seinen Aussagen ein komplett neues Design und das hat was zu bedeuten aus seinem Munde.

Kommt ganz drauf an was man genau mit einem komplett neuen Design meint.

Und wie aths schonmal gesagt hat, ist Entwickler X nicht zu blöd um Technology Y zu realisieren, der Chefentwickler hatte einfach andere Prioritäten. Zumal sie leute von GP dabei haben die sehr wohl know how haben.

Welches sich wo und wann gezeigt hat? Wenn Du's schon hoeren willst GP1/2 waren eigentlich der KYRO Linie um einiges unterlegen und auch in Sachen Kompatibilitaet.

Bei welchem Designteam hocken die vorigen GP Kerle heutzutage hm?

Irgendwann ist immer das erste Mal und NV50 ist schon recht lang in Entwicklung. Vieleicht ist es kein TBDR sondern etwas neues, was bisher niemand von uns hier kennt, wer weiss..ich finde nicht, dass man Dinge im Voraus als Unsinn abtuen sollte ..abwarten eben ;)
ein Neudesgin macht man nicht umsonst.

zu deinen Optimierungen vom IMR:
1. sage ich nicht dass es keinen Weg gibt die zu erweitern, ich meine lediglich, dass NV50 vieleicht kein IMR mehr ist. TBDR ist da kein Zwang imo
2. kennst du das Gesetz des Abnehmenden Ertrages..das gilt soziemlich überall..beim Takt beim AA beim AF und auch hier. Die erste Optimierung mit vorgezogenen Z Test, unterteiltem Speichercontroller ect haben einiges gebracht, danach gleicher Aufwand und wenig Nutzen in Relation zum ersten Aufbohren.

NV50 ist ein reiner immediate mode renderer.

Quasar
2004-04-01, 08:51:08
Original geschrieben von mapel110
Solange uns Intel und AMD uns bei 3 Ghz rumkrebsen lassen, werden wir wohl auch keine wesentlich schöneren Games sehen. So seh ich das derzeit. Seit Ende 2002 haben wir 3.0 Ghz. Das nervt mehr, als "fehlender" PS2.0-Speed.
sry for offtopic ;(

Ich würde es dagegen begrüßen, wenn wir im PC-Bereich, sagen wir ein bis anderthalb Jahre auf der Leistungsstufe der 3GHz-P4/2,2GHz-Athlon verharren. Ebenso bei den Grafikkarten auf dem _Leistungsniveau_ R420/nV40.

Wenn wir das mal bis Mitte 2005 beibehalten und sich die Weiterentwicklung auf Prozesstechnik und Effizienz konzentriert, dann sehe ich drei positive Auswirkungen auf den Gesamtmarkt:

- Der PC rückt technisch enger zusammen, d.h. Next-Gen Spiele (also die Generation nach D3/HL2/FC) würden per sofort einen riesigen Pool an potentieller Kundschaft haben, die auch High-End Settings, sprich Shader, ausnutzen können.

- Die "Heizkisten" dürften dann langsam aber sicher ausgedient haben, zumindest für die Mitte 2005 aktuellen Modelle, wenn man sich auf Effizienz (200MHz-FSB Banias mit ~2GHz, integr. Memorycontroller und evtl. 64Bit bei TDP von 30W bzw. TBDR bei den Grafikchips) konzentriert.

- Der Sprung zur dann nächsten Generation löst endlich wieder ein a-ha-Erlebnis aus.

Quasar
2004-04-01, 08:59:02
BTW, wenn diese herumgeisternde Präsentation von ATi wirklich echt war und auch in dieser Form ggü. den Devs gehalten wurde, dann vermute ich mal ganz stark, daß wir und auch nV eine klitzekleine Überraschung mit DX9.0c erleben könnten.

Was ich meine, betrifft PS3.0 und FP32. Huddy sagte dazu "some still think that [it's requiring FP32]".

Vielleicht sehen wir dank "XBox(2?)" ja nochmal so einen netten Coup wie mit FP24 (standard-)Minimal für DX9...

robbitop
2004-04-01, 09:28:16
nette Glaskugel hast du da AiL wenn du schon mit so einer Bestimmtheit sagen kannst, NV50 sei ein IMR ;)

Naja ich sagte bereits, wenn schon Demi das sehr kritische Wort "Neuentwicklung" in den Mund nimmt, dann ist es auch eine. Wozu sollte man einen Chip komplett neu entwickeln, wenn man den alten weiterentwickeln könnte, wie es bisher IMMER der Fall war?

r@w
2004-04-01, 09:28:48
Original geschrieben von Quasar
Vielleicht sehen wir dank "XBox(2?)" ja nochmal so einen netten Coup wie mit FP24 (standard-)Minimal für DX9... Was ich wahrlich zum :kotz: finden würde...

Razor

r@w
2004-04-01, 09:30:13
Original geschrieben von robbitop
Naja ich sagte bereits, wenn schon Demi das sehr kritische Wort "Neuentwicklung" in den Mund nimmt, dann ist es auch eine. Wozu sollte man einen Chip komplett neu entwickeln, wenn man den alten weiterentwickeln könnte, wie es bisher IMMER der Fall war? Auch eine "Neuentwicklung" wird IMMER eine "Weiterentwicklung" (von irgendetwas) sein !
Warum sollte man auch das Rad neu erfinden ?
:???:

Razor

Exxtreme
2004-04-01, 09:33:44
Original geschrieben von r@w
Was ich wahrlich zum :kotz: finden würde...

Razor
Sehe ich auch so. ATi wird wahrscheinlich mal wieder Technologiebremse spielen so wie sie es mit dem R420 machen. "Dank" ATi wird sich PS3.0 nicht so durchsetzen was natürlich Auswirkungen auf die Spieleentwicklung hat. :down:

:D

mapel110
2004-04-01, 09:46:54
Original geschrieben von Exxtreme
Sehe ich auch so. ATi wird wahrscheinlich mal wieder Technologiebremse spielen so wie sie es mit dem R420 machen. "Dank" ATi wird sich PS3.0 nicht so durchsetzen was natürlich Auswirkungen auf die Spieleentwicklung hat. :down:

:D

http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/april/ati_r420_r500/
:grübel:















;D

StefanV
2004-04-01, 09:51:31
Original geschrieben von Exxtreme
Sehe ich auch so. ATi wird wahrscheinlich mal wieder Technologiebremse spielen so wie sie es mit dem R420 machen. "Dank" ATi wird sich PS3.0 nicht so durchsetzen was natürlich Auswirkungen auf die Spieleentwicklung hat. :down:

:D

Tjo, so ist halt das Geschäft, früher war halt nV die Technologiebremse mit GF4 MX (DX7(!!)) und GF3/4, wo die Konkurenz schon PS1.4 bot (welches 'etwas' Fortschrittlicher als PS1.3 ist)...

Irgendwen triffts immer *eg*

Gast
2004-04-01, 09:55:48
Heute ist der 1. April! Also nicht alles glauben was da steht.

robbitop
2004-04-01, 09:55:51
@razor
du hasts (fast) erfasst.
Vom Riva128 war bisher alles "nur" eine Weiterentwicklung bis zum NV40 und weiter. Warum sollte man das Rad neu erfinden? Mittels Simulator werden Bottelnecks erfasst und erweitert, neue Tech hinzugefügt, geshrinkt und der Takt wird erhöt (etwas vereinfacht).
Deswegen sind gewisse Leute bei dem Wort "Neuentwicklung" an die Decke gegangen.

Beim NV50 ist es aber scheinbar notwendig.
Sowas macht man nur wenn man die Renderphilosophie ändern will, weil dann beim Vorgänger soziemlich gar nix mehr Brauchbar ist. Ist einfach eine ganz andere Architektur.
IDLP oder so nennt sich das Ganze.

Quasar
2004-04-01, 10:21:58
http://developer.nvidia.com/object/sdk_home.html

Ein paar "kleine" Video-Clips...

r@w
2004-04-01, 12:40:09
Original geschrieben von Stefan Payne
Tjo, so ist halt das Geschäft, früher war halt nV die Technologiebremse mit GF4 MX (DX7(!!)) und GF3/4, wo die Konkurenz schon PS1.4 bot (welches 'etwas' Fortschrittlicher als PS1.3 ist)...Du solltest sein nachgesetztes 'Smilie' richtig interpretieren...
:D

Aber um mal ein bissel Realismus in den 1. April zu bringen:
Derzeit IST ATI eine Tech-Bremse... mit diesem ganzen Sub R9600-Gesocks !
(und klar, nVidia war und ist es mit dem gf4mx-Schrott)

Razor

StefanV
2004-04-01, 12:42:03
Original geschrieben von r@w
Du solltest sein nachgesetztes 'Smilie' richtig interpretieren...
:D

Aber um mal ein bissel Realismus in den 1. April zu bringen:
Derzeit IST ATI eine Tech-Bremse... mit diesem ganzen Sub R9600-Gesocks !
(und klar, nVidia war und ist es mit dem gf4mx-Schrott)

Razor

1. der immerhin PS1.4 beherrscht...

2. nö, nV wars nicht nur mit der GF4 MX, auch mit der GF4 TI waren sie eine Technologiebremse, das aber nur nebenbei *eg*

ShadowXX
2004-04-01, 12:43:05
Original geschrieben von Quasar
http://developer.nvidia.com/object/sdk_home.html

Ein paar "kleine" Video-Clips...

Technisch wohl interessant, aber visuell nicht sehr beeindruckend....

(ok...das HDR-Demo sieht ganz gut aus, aber sowas gibts ja schon...)

r@w
2004-04-01, 12:49:59
Original geschrieben von robbitop
Beim NV50 ist es aber scheinbar notwendig.
Sowas macht man nur wenn man die Renderphilosophie ändern will, weil dann beim Vorgänger soziemlich gar nix mehr Brauchbar ist. Ist einfach eine ganz andere Architektur.
IDLP oder so nennt sich das Ganze. Warum sollte das beim NV50 nötig sein ?

Sicher wird (wieder) ein Teil durch etwas Neues ersetzt, dabei doch aber nicht alles seit Anbeginn (Riva128 *würg* ;-) über den Haufen geworfen. Wozu auch ?

Schließlich bringt eine so grundlegende Veränderung auch immer viele Problematiken mit sich. Kompatibilität wäre hier als erster und maßgeblicher Punkt zu nennen. Denn was nützt mir eine neue ('wunderbar' effiziente) Technologie, wenn ich echte Probleme bekomme, damit althergebrachtes zum Laufen zu bewegen.

Lange Rede, kurzer Sinn: "Neuentwicklung" wird uns schon seit Ewigkeiten 'verkauft', bekommen haben wir es nie (und wirklich 'wollen' tun wir das auch gar nicht ;-). Nach und nach wird alte Technologie durch effizientere ersetzt, aber erst dann vollständig, wenn diese auch 'rund' läuft.

Und das Riva128-Zeugs (meinetwegen auch das vom TNT) werden wir wohl erst mit dem NV80 los... oder so.
:D

Razor

r@w
2004-04-01, 12:52:30
Original geschrieben von Stefan Payne
1. der immerhin PS1.4 beherrscht...Und ?
:wayne:
Original geschrieben von Stefan Payne
2. nö, nV wars nicht nur mit der GF4 MX, auch mit der GF4 TI waren sie eine Technologiebremse, das aber nur nebenbei Warum ?
Weil sie diesen propriäteren ATI-'Standard' nicht unterstützten ?
Da darf man ja wohl (gottlob) anderer Meinung sein...

Razor

Ailuros
2004-04-01, 12:53:18
Original geschrieben von robbitop
nette Glaskugel hast du da AiL wenn du schon mit so einer Bestimmtheit sagen kannst, NV50 sei ein IMR ;)

Naja ich sagte bereits, wenn schon Demi das sehr kritische Wort "Neuentwicklung" in den Mund nimmt, dann ist es auch eine. Wozu sollte man einen Chip komplett neu entwickeln, wenn man den alten weiterentwickeln könnte, wie es bisher IMMER der Fall war?

Ich will mit Dir wetten (ausser dem Zeug was ich weiss oder nicht weiss) dass Dir Demirug persoenlich sehr geringe Chancen uebrig bleiben laesst was die grossen IHVs und TBDR betrifft.

Eine 100% Neuentwicklung wuerde es auch bei einem deferred renderer nicht geben; die Frage ist warum Du ploetzlich so fixiert mit dem Zeug bist. Ja DR wurde mal in einer Praesentation erwaehnt, na und?

Ich mach es Dir noch einfacher: 3dfx und GP hatten einen PDA/mobile chip codenamed Fearless geplant. Und ja natuerlich waere es ein TBDR gewesen. Wieso nicht Gigapixel und wieso MediaQ. Wieso keine Fearless basierende Entwicklung und stattdessen GoForce oder AR10?


IDLP oder so nennt sich das Ganze.

Bitte lass Uttar's Bloedsinn aus der Sache raus.

***edit: ich brauch keine Glaskugel fuer das Zeug. Ein e-mail abschicken reicht. Da meine Schwaeche fuer TBDR bekannt ist, wuerde ich es unter den ersten erfahren.

Xmas
2004-04-01, 12:57:29
ILDP ist doch kein Blödsinn... ;)

Ailuros
2004-04-01, 13:04:03
Original geschrieben von Xmas
ILDP ist doch kein Blödsinn... ;)

:-(

robbitop
2004-04-01, 13:06:23
Leute ihr habt mich falsch verstanden. Ich bin nicht fixiert auf TBDR...es wäre lediglich eine Möglichkeit..gibt sicher noch andere Dinge/Möglichkeiten oder? IDLP ist nicht quark, wenn sogar Demi es in den Mund nimmt.

@Razor
die Sache mit der Neuentwicklung stammt nicht von mir, ich habe sie von Demi und wie gesagt normalerweise gibt es sowas nicht, Demi sagt das wäre hier eine Ausnahme. Normalerweise muss man nichts wirklich "neuentwickeln" (so naiv bin ich nun auch wieder nicht ;)).Aber laut Demi ist das hier der Fall.

Ailuros
2004-04-01, 13:11:56
Original geschrieben von robbitop
Leute ihr habt mich falsch verstanden. Ich bin nicht fixiert auf TBDR...es wäre lediglich eine Möglichkeit..gibt sicher noch andere Dinge/Möglichkeiten oder? IDLP ist nicht quark, wenn sogar Demi es in den Mund nimmt.


Hast Du ueberhaupt eine eigene Meinung oder ist alles bei Dir copy/paste was A,B oder C zu sagen hat?

Nein TBDR ist momentan nicht in den unmittelbaren Plaenen von NVIDIA und ich bezweifle auch dass es je dazu kommt.

robbitop
2004-04-01, 13:13:59
ich kann in diesem Fall keine echte eigene Meinung haben, da es mir A an der sogenannten Expertenbasis fehlt, B meine Quellen nicht so ergibig sind wie die manch anderer und C es keine wirklichen Infos dazu gibt.

Man fragte mich, was ich gehört habe und ich habe darauf geantwortet. Gut ich habe meine Meinung im Sinne der Interpretation dieser Dinge hier dargelegt. so what?

TBDR war ja auch nur eine von mir angesprochene Möglichkeit (damit hat niemand was zu tun das ist meine eigene Interpretation). Es wird doch noch andere Renderphilosophien geben als IMR und DR oder?

Gast
2004-04-01, 15:31:53
Original geschrieben von robbitop
Aber laut Demi ist das hier der Fall. Hmmm...
Dann erzählt uns Demirug vielleicht noch was dazu.
;-)

Razor

[dzp]Viper
2004-04-01, 15:36:37
Original geschrieben von Gast
Hmmm...
Dann erzählt uns Demirug vielleicht noch was dazu.
;-)

Razor

wenn ich Demirug wäre, würde ich langsam geld für informationen verlagen - dann wäre er bald Millionär X-D

Demirug
2004-04-01, 15:41:45
Original geschrieben von Gast
Hmmm...
Dann erzählt uns Demirug vielleicht noch was dazu.
;-)

Razor

ILDP (als Konzept) wurde ja von verschiedenen Stellen ins Spiel gebracht. Man sagte ja auch mal dem R400 nach das er nach diesem Konzept aufgebaut sei. Wenn nVidia jetzt beim NV50 auf ILDP umsteigt muss das aber nicht zwangsläufig eine Neuentwicklung sein. Das ILDP ist da durchaus flexible. Da es primär für CPUs entwickelt wurde muss man es sowieso für GPUs etwas anpassen.

r@w
2004-04-01, 15:57:21
Damit weiß ich zwar noch immer nicht, was das ist...
... aber trotzdem thx !
;-)

Razor

Demirug
2004-04-01, 16:49:59
Original geschrieben von r@w
Damit weiß ich zwar noch immer nicht, was das ist...
... aber trotzdem thx !
;-)

Razor

Ich kann die etwa 100 Seiten Text die ich zu dem Thema habe leider nicht so einfach in ein paar Sätze pressen und für etwas ausfürlicheres habe ich im Moment leider keine Zeit.

Gast
2004-04-01, 16:54:00
http://www.google.de/search?q=ILDP&ie=UTF-8&oe=UTF-8&hl=de&btnG=Google-Suche
Das Italienische Linux Dokumentations Projekt oder eben Instruction Level Distributed Processing.

;Q

Gast
2004-04-01, 17:12:35
So wie ich's verstanden habe, ein Verteiler, der die generischen Recheneinheiten mit Aufgaben auslastet, egal, welche Aufgaben das sind.

;Q

Demirug
2004-04-01, 17:55:17
Dann eben doch ein bischen was dazu.

Ein ILDP Design besteht aus einer Reihe von kleinst Prozessoren. Jeder dieser Prozessoren ist sehr einfach aufgebaut. Ein kleiner Speicher und defakto nur ein Register das eben das aktuelle Ergebniss enthält. Die Anweisungen kommen über einen kleinen FIFO und werden exakt in der Reihenfolge ausgeführt wie sie auflaufen. Die Speicher sind untereinader gekoppelt und es ist möglich Daten von einem Speicher in den benachbarten zu kopieren. Von den Prozessoren gibt es nur wenige Arten (z.B. Integer und Fliesspunkt) innerhalb eines ILDP Designs. Dafür aber von jeder Art mehrer.

Der zweite Teil des Designs ist der Dispatcher. Dieser entscheidet welche Anweisung in welchen Prozessor FIFO geschoben wird. Dazu sucht der Dispatcher Sequenzen im Code welche unabhängig von anderen sind. Jeder Prozessor bekommt dann eine davon zugeordnet. Der notwendige Datenaustausch zwischen diesen einzelnen Sequenzen erfolgt über die Speichereinheiten.

Ein Monitor überwacht ständig die Aktivität der einzelnen Prozessoren und kann für den Fall das die Auslastung gering ist einzelne komplett abschalten. Ein ILDP Design bleibt auch funktionsfähig wenn einzelne Prozessoren defekt sind. Lediglich die Leistung wird geringer.

Für eine GPU ist vorallem das Prozessorgrid interesant. Aufgrund des sowieso schon vorhandenen Multithreadverhalten von GPUs kann der Dispatcher einfacher ausfallen als bei einer CPU.

Gast
2004-04-01, 21:41:20
Original geschrieben von Demirug
Dann eben doch ein bischen was dazu.

Ein ILDP Design besteht aus einer Reihe von kleinst Prozessoren. Jeder dieser Prozessoren ist sehr einfach aufgebaut. Ein kleiner Speicher und defakto nur ein Register das eben das aktuelle Ergebniss enthält. Die Anweisungen kommen über einen kleinen FIFO und werden exakt in der Reihenfolge ausgeführt wie sie auflaufen. Die Speicher sind untereinader gekoppelt und es ist möglich Daten von einem Speicher in den benachbarten zu kopieren. Von den Prozessoren gibt es nur wenige Arten (z.B. Integer und Fliesspunkt) innerhalb eines ILDP Designs. Dafür aber von jeder Art mehrer.

Der zweite Teil des Designs ist der Dispatcher. Dieser entscheidet welche Anweisung in welchen Prozessor FIFO geschoben wird. Dazu sucht der Dispatcher Sequenzen im Code welche unabhängig von anderen sind. Jeder Prozessor bekommt dann eine davon zugeordnet. Der notwendige Datenaustausch zwischen diesen einzelnen Sequenzen erfolgt über die Speichereinheiten.

Ein Monitor überwacht ständig die Aktivität der einzelnen Prozessoren und kann für den Fall das die Auslastung gering ist einzelne komplett abschalten. Ein ILDP Design bleibt auch funktionsfähig wenn einzelne Prozessoren defekt sind. Lediglich die Leistung wird geringer.

Für eine GPU ist vorallem das Prozessorgrid interesant. Aufgrund des sowieso schon vorhandenen Multithreadverhalten von GPUs kann der Dispatcher einfacher ausfallen als bei einer CPU.


http://www.3dlabs.com/support/developer/ogl2/presentations/GLSLMasterClass2004.pdf [ 9.3MB ]

3DLabs sieht die Zukunft anscheinend ähnlich. Seite 10ff

VooDoo7mx
2004-04-01, 22:57:48
Original geschrieben von Gast
http://www.3dlabs.com/support/developer/ogl2/presentations/GLSLMasterClass2004.pdf [ 9.3MB ]

3DLabs sieht die Zukunft anscheinend ähnlich. Seite 10ff

3D Labs ging ja mit seinen P10 Chip vor über einen Jahre schon einen ähnlichen Weg...

Ailuros
2004-04-02, 04:08:27
TBDR war ja auch nur eine von mir angesprochene Möglichkeit (damit hat niemand was zu tun das ist meine eigene Interpretation). Es wird doch noch andere Renderphilosophien geben als IMR und DR oder?

Ja immediate mode tile based deferred renderer (IMTBDR) oder auch brute force display list renderer (BFDLR); eventuell wird's dann auch ISDN (it still does nothing) renderer geben ;D

egdusp
2004-04-02, 09:05:10
Original geschrieben von Ailuros
Ja immediate mode tile based deferred renderer (IMTBDR) oder auch brute force display list renderer (BFDLR); eventuell wird's dann auch ISDN (it still does nothing) renderer geben ;D

Wieso so sarkastisch? Wenn jemand einen Z-First Renderer baut (wie Doom3, nur in Hardware), dann könnte man durchaus von einem neuen Ansatz sprechen, auch wenn er mit beiden Ansätzen realisiert werden könnte.

mfg
egdusp

Ailuros
2004-04-02, 09:30:51
Original geschrieben von egdusp
Wieso so sarkastisch? Wenn jemand einen Z-First Renderer baut (wie Doom3, nur in Hardware), dann könnte man durchaus von einem neuen Ansatz sprechen, auch wenn er mit beiden Ansätzen realisiert werden könnte.

mfg
egdusp

Ein bisschen Humor schadet nie.

Spass beiseite: wieso ist im Grundsatz ein chip mit Z-first Optimierungen kein IMR im Durchschnitt, wenn nur der erste z-pass und nur in z-first optimierten Applikation das Rendering verzoegert wird? Was genau meinst Du ueberhaupt mit HW? Early-Z ist kein SW feature AFAIK.

Manche hatten zwar Einwaende mit der Definition, aber ich nannte frueher z-first "application driven deferred rendering"; nur weil die Verzoegerung von der Applikation meistens angefragt wird. Bei einem TBDR hingegen wird im Durchschnitt konstant verzoegert (ausser Aussnahmen) und das durch den Treiber.

robbitop
2004-04-02, 12:19:07
ein First Z Renderer hat den Nachteil, dass man einen extra Pass braucht. Somit muss der Overdraw schon recht hoch sein, damit sich das lohnt.

Quasar
2004-04-02, 12:42:14
Der Overdraw _ist_ doch schon recht hoch und muss es gar nichtmal bleiben, damit sich's lohnt. Kommt halt auf die Zyklen an, die die einzelnen Pixel im Shader verbringen.

Nicht umsonst wird bei D3 per Software dieser Pre-Z durchgeführt.

ow
2004-04-02, 13:24:38
.

Quasar
2004-04-02, 13:38:09
Ja, das glaube ich auch. Aber den Grund, warum JC das so gemacht hat, kann man im 3DMark03, GT2 bewundern.

Kein Z-Pass first -> Für die gebotene Grafik ARSCHLANGSAM.

robbitop
2004-04-02, 13:50:21
der Overdraw muss recht hoch sein, damit sich das lohnt. Denn im ersten Pass wird nichts gerendert.
Soweit ich mich errinnere sollte er über dem Faktor 4 oder 5 sein, damit sich das lohnt.

egdusp
2004-04-02, 13:55:02
Original geschrieben von robbitop
der Overdraw muss recht hoch sein, damit sich das lohnt. Denn im ersten Pass wird nichts gerendert.
Soweit ich mich errinnere sollte er über dem Faktor 4 oder 5 sein, damit sich das lohnt.

Es gab eine Reihe von Faktoren die genannt wurden, damit Z-First sinnvoll ist:
1. hoher Overdraw
2. viele, bzw. lange Shader
3. Stencil Berechnungen notwendig
4. hohe Z-/Stencilfüllrate
5. nicht VS limitiert, d.h. max 50% der VS dürfen ausgelastet sein.

mfg
egdusp

Quasar
2004-04-02, 13:59:01
Original geschrieben von robbitop
der Overdraw muss recht hoch sein, damit sich das lohnt. Denn im ersten Pass wird nichts gerendert.
Soweit ich mich errinnere sollte er über dem Faktor 4 oder 5 sein, damit sich das lohnt.

egdusp hat's schon geschrieben: Du kannst nicht alles am Overdraw festmachen. (U.A. deshalb ist auch ein TBDR kein Allheilmittel (mehr))

Ailuros
2004-04-02, 15:57:23
Ich moechte nur hinzufuegen dass Quake3 Arena einen durchschnittlichen Overdraw Faktor von ~3.4 hat, Serious Sam 1 zwischen 4.0 und 5.0 und bei UT2k3 muesste er ueber 5.0 im Durchschnitt liegen, da stellenweise ein Faktor von bis zu 7.0 erreicht wird.

Early-Z bringt die erwuenschte Resultate so lange die Applikation dafuer ausgelegt ist.

Quasar,

Du kannst nicht alles am Overdraw festmachen.

Kein Einwand.

(U.A. deshalb ist auch ein TBDR kein Allheilmittel (mehr))

Mit einer early-Z optimierten Applikation (zumindest so wie die Doom3 engine) liegt ein TBDR auf jeden Fall nicht im Nachteil.

Bandbreite wird nach wie vor generell gespart, es kommt aber hier darauf an ob die bisherige Problematik behoben wurde und wie, damit es auch zu einem wirklichen Vorteil im Durchschnitt kommt.

Wie sieht es mit hoher Praezision Framebuffern nur als Beispiel aus?

Quasar
2004-04-02, 16:06:59
Früher galt das TBDR-Konzept als Allheilmittel um mit geringem Aufwand gute Resultate zu erreichen, aber heute, mit komplexen Shadern, deutlich erhöhtem Triangle-Count usw. kann das TBDR-Konzept seine unbestrittenen Vorteile nunmal nicht mehr so generell ausspielen, wie es noch bei DX7-Titeln der Fall war.

Mehr wollte ich damit nicht gesagt haben. =)

robbitop
2004-04-02, 18:14:05
@Quasar und egdusp
Full Ack
diese Bedingung habe ich natürlich nicht berücksichtigt, danke für die Korrektur :)

mapel110
2004-04-02, 22:53:51
Original geschrieben von Quasar
Früher galt das TBDR-Konzept als Allheilmittel um mit geringem Aufwand gute Resultate zu erreichen, aber heute, mit komplexen Shadern, deutlich erhöhtem Triangle-Count usw. kann das TBDR-Konzept seine unbestrittenen Vorteile nunmal nicht mehr so generell ausspielen, wie es noch bei DX7-Titeln der Fall war.

Mehr wollte ich damit nicht gesagt haben. =)

Hinzu kommt wohl auch, dass IMRs deutlich an Effiziens gewonnen haben.

btw ja wann kommt denn nun der R420? :motz: *nichtmehraushalt*

MadManniMan
2004-04-03, 02:52:34
Original geschrieben von mapel110
Hinzu kommt wohl auch, dass IMRs deutlich an Effiziens gewonnen haben.

btw ja wann kommt denn nun der R420? :motz: *nichtmehraushalt*

Wenn man dem, was AiL hier in einem der Threads verlautbart hat, vertrauen kann ( :D ), dann auf jeden Fall nach dem NV40, wenn auch nicht wirklich lang. Oder aber ich habs falsch priteräntiert. :idea:

LovesuckZ
2004-04-03, 08:51:24
Original geschrieben von MadManniMan
Wenn man dem, was AiL hier in einem der Threads verlautbart hat, vertrauen kann ( :D ), dann auf jeden Fall nach dem NV40, wenn auch nicht wirklich lang. Oder aber ich habs falsch priteräntiert. :idea:

Vorstellung wohl später, Verfügbarkeit wohl früher...
So sagen's die Spastzen im Beyond3d.com Forum.

ShadowXX
2004-04-03, 09:08:17
Original geschrieben von LovesuckZ
Vorstellung wohl später, Verfügbarkeit wohl früher...
So sagen's die Spastzen im Beyond3d.com Forum.

Das wäre dann mal eine originelle Vorstellungsmethode;D

Wollen Sie den nv40 abwarten, um dann noch ein bisserl mit den Taktraten spielen zu können???

mapel110
2004-04-03, 09:13:58
Original geschrieben von ShadowXX
Das wäre dann mal eine originelle Vorstellungsmethode;D

Wollen Sie den nv40 abwarten, um dann noch ein bisserl mit den Taktraten spielen zu können???

wird kaum möglich sein. Es kommt halt einfach so, ohne Hintergedanken der IHVs IMO.

@LS
Wie gross sind denn die genannten Zeiträume? können doch nur ein paar Wochen(eher Tage) sein, oder?!

ShadowXX
2004-04-03, 09:26:13
Original geschrieben von mapel110
wird kaum möglich sein. Es kommt halt einfach so, ohne Hintergedanken der IHVs IMO.

@LS
Wie gross sind denn die genannten Zeiträume? können doch nur ein paar Wochen(eher Tage) sein, oder?!

Ich hatte die Ironie-Tags vergessen...

Wenn wohl eher Tage...ATI muss ja damit rechnen, das nV sich an den einen Monat zwischen Vorstellung und Verfügbarkeut hält (nein, das war jetzt nicht Ironisch gemeint).

Und wenn Sie (r420) tatsächlich vor dem nv40 verfügbar sein soll, können SIe sich ja nicht so viel Zeit lassen....

Na, es geht ja bald los...keine 2 Wochen mehr...

Ailuros
2004-04-03, 12:35:52
Original geschrieben von Quasar
Früher galt das TBDR-Konzept als Allheilmittel um mit geringem Aufwand gute Resultate zu erreichen, aber heute, mit komplexen Shadern, deutlich erhöhtem Triangle-Count usw. kann das TBDR-Konzept seine unbestrittenen Vorteile nunmal nicht mehr so generell ausspielen, wie es noch bei DX7-Titeln der Fall war.

Mehr wollte ich damit nicht gesagt haben. =)

Muesste sich aber erst mit realer HW beweisen lassen. Es gibt nicht mal dx7 T&L PC HW die auf TBDR basiert.

Und dass es frueher als "Allheilmittel" galt, sitzt mir auch nicht ganz so gut. TBDR hat sich nie richtig beweisen koennen bis jetzt; entweder mit viel zu verspaeteten oder eben nur low end Produkten.

Wie dem auch sei ich bezweifle dass sich was am Preis/Leistungsverhaeltnis was geaendert hat; ich hab persoenlich TBDR nie als Allheilmittel angesehen, nur als sehr interessante Alternative.

Hinzu kommt wohl auch, dass IMRs deutlich an Effiziens gewonnen haben.

Architekturen machen selbstverstaendliche Fortschritte parallel zu generellen Evolutionen. Da kommen genauso neue Vor- als auch Nachteile dazu, je mehr neuer Schnickschnack dazu kommt. Aber das gilt genauso fuer IMRs wie fuer TBDRs.

Wuerden IMRs an Effizienz dazugewinnen und TBDRs staendig an Effizienz (zumindest immer in Theorie) verlieren, dann waere es eine andere Geschichte.

Wie dem auch sei IMRs muessen eigentlich nichts beweisen; das faellt eher auf die TBDR Seite der Theorie.