Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: ATi R420, R423 & Co. Informationen


Seiten : [1] 2

Leonidas
2004-02-22, 07:47:43
Link (http://www.3dcenter.org/artikel/2004/02-22_a.php)

Doc PeWe
2004-02-22, 08:49:51
Zitat aus dem Bericht:

Auch macht sich der Shader 3.0 Support sicherlich hervorragend als Checklisten-Feature im OEM-Markt, von den Herstellerfirmen dann gern auch fälschlicherweise als "DirectX 9.1 Support" beschrieben (was natürlich Unsinn ist, wie hier schon ausgeführt). Positiverweise reicht jedoch der Support von Shader 2.0 auch aus, um beim Windows XP Nachfolger "Longhorn" in die höchstmögliche Hardware-Klasse ("Tier 2") zur Darstellung der neuen 3D-Oberfläche von Longhorn zu kommen, hierfür wird kein Shader 3.0 Support benötigt.


LOL - Liebe Redakteure, in der Werbung sprechen viele von den gelben Seiten!

Es ist völliger Quatsch anzunhemen das künftig in OEM-Systeme RV420-Systeme verbaut werden.

Der PC OEM-Preispunkt hat sich schon seit Monaten stabil nach unten bewegt. Ab 1.000€ kaufen immer mehr USER Notebooks.

Ist das euch bekannt??? Ich glaube nicht !

Aus diesem Grund bleibt der Gedanke PS3.0 als "Checklisten-Feature im OEM-Markt" ein HIRNGESPENST!

Preispunkte im OEM-Geschäft: 40 - 120 USD

mapel110
2004-02-22, 08:54:06
Wir können zweifelsfrei bestätigen, daß der ATi R420-Chip keinen Shader 3.0 Support bieten wird.

Hrhr, auf den Satz hätte man von mir aus die zwei Seiten reduzieren können.

aths
2004-02-22, 08:59:06
Ich würde spekulieren, dass ATIs Versuche mit PS_3_0 ergaben, dass 2.0 schnell genug ist, 3.0 jedoch (auf Smartshader-Basis) nur als Checklist-Feature realisierbar ist.

Andererseits kann ich mir kaum vorstellen, dass ATI so lange brauchte, nur, um einen neuen 2.0-Chip vorzustellen. Technisch gesehen ist lt. Demirug (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=126074) 2.X zu erwarten (da erhöhter Instructioncount.) Jedoch ansonsten ohne zusätzliche 2.X-Caps. (Ich dachte immer, 2.X alleine schließt schon unbegrenzt viele Dependent Reads mit ein? Ist dafür also doch ein Cap zuständig? Wie heißt dieses Cap?)

Nvidia wird mit dem NV43 wohl einen erschwinglichen Chip mit 3.0-Support anzubieten haben.

Wenn das hier Gesagte zutrifft, sehe ich ATIs nähere Zukunft weniger rosig: NV punktet bei den OEMs mit einem NV34-Abkömmling im DX9-Entry-Segment, und mit dem NV43 im "DX 9.1" (sprich, DX 9.0 mit Shader 3.0) Bereich. Der OEM hat die Wahl zwischen billig, oder "besser". Dass ATIs Radeon 9600 sehr gut und für Otto Normalverbraucher durchgehend spieletauglich ist, weiß ich aus eigener Erfahrung; aber seit wann regiert im OEM-Segment die Vernunft?

So wie NV mit der GF4 Ti alleine durch Mehrleistung und bessere BQ-Features die Käufer von der Radeon 8500 abhalten konnte, könnte ATI es unter Umständen gelingen, ihren R420 im High-End-Segment als "ok alte Technik, aber sauschnell" zu vermarkten. Das schaffen sie meiner Meinung nach jedoch nur, wenn sie vor dem NV40 da sind, oder den NV40 klar in praktisch jedem Spiel um 20% oder mehr überrunden.

Auf der anderen Seite wüsste ich jetzt nicht, wie man 50 Mio. Transistoren mit 2 VS, 8 weiteren bilinearen TMUs (u. u. zur Zusammenschaltung zu trilinearen TMUs) und einigen wenigen Pixelprozessoren verballern kann. So sparsam wie die FP24-Technik ist, dürfte das nicht so aufwändig sein. Ein Umstellen auf FP32 wäre zu begrüßen. Aber wenn sie auf 3.0 verzichten (wo FP24 auch erlaubt ist) denke ich nicht unbedingt, dass sie schon jetzt auf FP32 setzen.

Der hohe Transistor-Count ließe imo nicht nur auf mögliche weitere Verbesserungen schließen, sondern auch darauf, dass sie etliche Fülltransistoren brauchten, um die Taktbarkeit zu gewährleisten.

aths
2004-02-22, 09:11:01
Original geschrieben von Doc PeWe
Aus diesem Grund bleibt der Gedanke PS3.0 als "Checklisten-Feature im OEM-Markt" ein HIRNGESPENST! NV43?

Demirug
2004-02-22, 09:14:12
Original geschrieben von aths
Ich würde spekulieren, dass ATIs Versuche mit PS_3_0 ergaben, dass 2.0 schnell genug ist, 3.0 jedoch (auf Smartshader-Basis) nur als Checklist-Feature realisierbar.

Das wiederum glaube ich nicht. Hätte ATI PS 3.0 zumindestens als Checklisten Feature dann würde jetzt jeder behaupten das es sich um einen 3.0 Chip handelt.

Andererseits kann ich mir kaum vorstellen, dass ATI so lange brauchte, nur, um einen neuen 2.0-Chip vorzustellen. Technisch gesehen ist lt. Demirug (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=126074) 2.X zu erwarten (da erhöhter Instructioncount.) Jedoch ansonsten ohne zusätzliche 2.X-Caps. (Ich dachte immer, 2.X alleine schließt schon unbegrenzt viele Dependent Reads mit ein? Ist dafür also doch ein Cap zuständig? Wie heißt dieses Cap?)

Ja, unlimitierte Dependent Reads sind bei 2.X eine Option. Das ganze ist bei den "PS20Caps" als D3DPS20CAPS_NODEPENDENTREADLIMIT Flag gespeichert.

aths
2004-02-22, 09:18:15
Original geschrieben von Demirug
Das wiederum glaube ich nicht. Hätte ATI PS 3.0 zumindestens als Checklisten Feature dann würde jetzt jeder behaupten das es sich um einen 3.0 Chip handelt. Vielleicht wollten sie damit keine Transistoren verschwenden, oder nicht von NV in jedem 3.0-Bench extrem versägt werden.

Original geschrieben von Demirug
Ja, unlimitierte Dependent Reads sind bei 2.X eine Option. Das ganze ist bei den "PS20Caps" als D3DPS20CAPS_NODEPENDENTREADLIMIT Flag gespeichert. Danke. Ist alles bei 2.X Option, oder bringt 2.X ggü. 2.0 weitere Forderungen (abgesehen von einem Instruction Count > 34+64?)

Demirug
2004-02-22, 09:22:32
Original geschrieben von aths
Danke. Ist alles bei 2.X Option, oder bringt 2.X ggü. 2.0 weitere Forderungen (abgesehen von einem Instruction Count > 34+64?)

Ist alles optional. Selsbt die Programmlänge ist optional. Ein Chip der bei den Shadern ein zusätzliches Tempregister hat ohne über die 2.0 Programmlänge zu gehen darf sich auch 2.X schimpfen.

Doc PeWe
2004-02-22, 09:24:37
Hi Aths,

was meinst du mit NV43?

Grüsse
Doc PeWe

aths
2004-02-22, 09:26:21
Das finde ich zum heulen.

Smartshader 3.0 wird vermutlich "boosts the performance to unmatched level", "immerse you into blubbblubb". Mal sehen ob sie den Mut haben, das Ding Smartshader 2.2 zu nennen.

Das Marketing von NV dürfte ein leichtes Spiel haben. Der 3.0-Bonus dürfte ein gutes Stück Rohperformance wett machen, so dass sie am Ende mit einem 3x 2x2-Design durchkommen könnten.

Gast
2004-02-22, 09:28:33
Demio hatte mit seiner Vermutung recht. Keine PS 3.0

Aber wie man hier jetzt sieht wird Ati die PS 3.0 einfach links liegen lassen. Hier ist nun die Frage die die HErsteller von GAmes drauf reagieren. Wenn sie von vornherein wissen dass ein grosser HErsteller überhaupt keinen PS 3.0 Suport bietet, besteht doch auch die Möglichkeit dass diewenigsten Entwickler diese dann auch benutzen.

Ich bin trotz allem aber enttäsucht dass sie dieses Feature nicht bieten und wenn wie Aths schon gesagt hat sie nicht die NV40 um längen schlagen, hat Ati wieder ein grosses grosses PRoblem.

aths
2004-02-22, 09:35:18
Einen brutal beschnittenen NV40. Wohlmöglich wird der leistungsmäßig von einem NV42 noch unterboten. "Hauptsache", die Features. Ich traue NV die Stirn zu, einen Low-Cost-Chip (effektiv 2 Pipelines à 2 TMus) auf NV40-Basis in Mache zu haben.

Demirug
2004-02-22, 10:03:03
Was ich aber eigentlich schreiben wollten.

Eine gute PS 3.0 Performance ohne gute PS2.0 Performance ist eigentlich nicht machbar. Man kann natürlich einen Chip sehen der bei der benutzung von 3.0 Features (Branching) auf keinen Fall einen Leistungsverlust hat. In diesem Fall könnte der Chip bei 3.0 natürlich mit einem guten 2.0 Chip der aber hohe Verluste bei 3.0 hat entsprechend mithalten.

Das ATI in ermangeln des "Checklisten-Features" PS 3.0 dieses jetzt schlecht reden muss ist natürlich verständlich. Ich erwarte sogar das ATI auf ihere technisch hochwertigen PS 1.4 hinweisen wird die von den Entwickler ja auch erst spät genutzt wurden. Damit könnte man eine Basis schaffen das die Shader in DX ?.1 Versionen nicht wichtig sind. ?.1 weil PS 1.4 in DX 8.1 enthalten war und die 3.0 Shader in Teil des von den IHVs geschaffenen Gedankenspiels DX 9.1 sind.

Das man die Nichtbenutzung der 2.X Shader von nVidia ebenso als Basis für "Keine PS 3.0" heranzieht ist ein geschickter Schachzug. Der Grund das kein Spieleentwickler die 2.X Shader nutzt ist das nVidia schlicht und ergreifend die "falschen" optionen zur Verfügung stellt. Was soll man mit Superlangen Shadern wenn schon die normale 2.0 Länge jede Karte an den Anschlag bringt?

Natürlich wird kein Spiel zu den lebzeiten des R420 einen 3.0 Shadersupport zwingend vorraussetzten. Sowas nennt man eine selbsterfüllenden Prophezeiung die bei jeder Technologiebremse funktioniert. Die Aussage das man die Spiele die 3.0 Shader benutzten an der Hand abzählen können wird (ich weiss jetzt nicht ob das von ATI oder Leo kommt) dürfte aber so nicht eintreffen. ATI hat beim R300 ja alle ISV dazu ermuntert HLSL zu benutzten. Dazu gab es dann noch die Aussage das man ruhig immer die grösste Shaderversion nutzten kann welche die Hardware beherscht. nVidia hat nun mehr oder minder die Entwickler dazu gezwungen aus der einheitlichen HLSL-Basis mehr als einen Shader zu erzeugen. In die Engines werden also sowieso entsprechende Erweiterungen eingepflegt. Kommt nVidia nun beim NV40 und sagt den Entwickler: "Ihr könnt jeden 2.0 Shader auch als 3.0 compileren weil er auf keinen Fall langsamer sein wird" werden das viele auch tun da der Mehraufwand gegen null tendiert. Bei vielen Shadern wird es aber dann auch keinen Unterschied in der Performance geben weil sie schlicht und ergreifend nichts enthalten was durch 3.0 beschleunigt werden könnten. Bei den anderen nimmt man es eben einfach mit. Natürlich wird es die Entwicklung von "echten" 3.0 Shadern bremsen das ATI keinen Support bietet. Aber nVidia wird sicherlich einige Entwickler dazu "überreden" ein paar Spielereien wie zum Beispiel "LOD-Pixelshading" einzubauen.

Nicht zu vergessen bleibt das man eine 3.0 Hardware auch durchaus dazu nutzen kann ältere Spiele die bestimmte Techniken nutzen zu beschleunigen.

Interesant bleibt nun auch die Frage was Valve tun wird. Die Engine und HL2 sind ja schon auf 3.0 Shader unterstützung vorbreitet. Wird man diesen Pfad aktivieren oder es bei 2.0 bleiben lassen?

In Summe wird die Entscheidung von ATI ihere Situation bei den Entwickler eher wieder verschlechtern. Im Gegenzug zum R300 gibt es für den R420 kein Argument das man in unbedingt zur Entwicklung einsetzten muss. Jeder Entwickler der sich aber mit 3.0 Shadern auseinader setzten möchte wird um einen NV4X Chip nicht herum kommen.

AlfredENeumann
2004-02-22, 10:06:29
Original geschrieben von aths

Wenn das hier Gesagte zutrifft, sehe ich ATIs nähere Zukunft weniger rosig: NV punktet bei den OEMs mit einem NV34-Abkömmling im DX9-Entry-Segment, und mit dem NV43 im "DX 9.1" (sprich, DX 9.0 mit Shader 3.0) Bereich. Der OEM hat die Wahl zwischen billig, oder "besser". Dass ATIs Radeon 9600 sehr gut und für Otto Normalverbraucher durchgehend spieletauglich ist, weiß ich aus eigener Erfahrung; aber seit wann regiert im OEM-Segment die Vernunft?

Unterschätze die macht des Marketings nicht.
Das haben wir beim NV3X/R3X0 gesehen.
Der NV hatte mehr Featres und hatte DX9+ und trotzdem waren die ATI Chips, vor allem im Spielesektor, wesentlich beliebter, weil sie schneller ware. Teilweise erheblich.
Und das Verkauft sich derzeit besser, im MID und High-End.

Im LowCost und den dazugehörigen OEM-Markt verkauft sich natürlich derjenige besser, wehr mehr mit Features glänzen kann. Ich denke mal da wird sich ATI in diesem Jahr (oder eher ab Q2/Q3 nicht mehr die Butter vom Brot nehmen lassen).

Henry
2004-02-22, 10:22:16
ja genau, du darfst nicht vergessen, das NV40 und R420 die grundlagen für die späteren mainstream und lowcost produkte liefern(werden dann einfach kastriert).
und wenn die keine shader3.0 haben, dann haben natürlich auch die abgespeckten versionen keine;)
wenn sie allerdings diese unterstützen, dann kannst du deinen hintern darauf verwetten, dass NV & ATI alles beschneiden werden, solange shader 3.0 noch unterstützt werden;)
denn >> Marketing

aths
2004-02-22, 10:24:51
Original geschrieben von AlfredENeumann
Unterschätze die macht des Marketings nicht.
Das haben wir beim NV3X/R3X0 gesehen.
Der NV hatte mehr Featres und hatte DX9+ und trotzdem waren die ATI Chips, vor allem im Spielesektor, wesentlich beliebter, weil sie schneller ware. Teilweise erheblich.
Und das Verkauft sich derzeit besser, im MID und High-End.ATI war mit dem DirectX9-Chip Monate früher da. Den Bonus haben sie nicht mehr, der NV40 steht in den Startlöchern. Seit dem NV35 kann imo nicht mehr pauschal davon die Rede sein, dass "ATI schneller wäre".
Original geschrieben von AlfredENeumann
Im LowCost und den dazugehörigen OEM-Markt verkauft sich natürlich derjenige besser, wehr mehr mit Features glänzen kann. Ich denke mal da wird sich ATI in diesem Jahr (oder eher ab Q2/Q3 nicht mehr die Butter vom Brot nehmen lassen). Was wollen sie denn gegen die Lowcost-Version des NV40 machen?

Gast
2004-02-22, 10:40:13
Original geschrieben von aths
Einen brutal beschnittenen NV40. Wohlmöglich wird der leistungsmäßig von einem NV42 noch unterboten.

Du meinst "womöglich".

Godmode
2004-02-22, 10:57:46
Nvidia wird sich mit dieser Strategie wieder viel DAUs fangen die sich diese Karten dann kaufen. Sie werden sicher wieder extrem Marketing betreiben und schon haben sie einen guten Nachfolger für FX5200, also ich könnte mir durchaus vorstellen das ATI damit einen rießen Nachteil gegenüber Nvidia hat. Und Nvidia wird diese "Schwäche" sicherlich ausnützen was nur geht. Und zu Shadern 3.0 ich denke mal das gewisse Games sicher auf 3.0 Shader gepatcht werden.

Bokill
2004-02-22, 10:58:20
Ich sehe da eine noch billigere Möglichkeit...

effektiv 1 Pipelines à 1 TMus...

Ich sehe schon Testberichte über Windows mit nur 53 f/s, da die Graka nicht mehr hergibt *gg*

aber Shader3.0 is drin ;)

MFG Bokill

Hamster
2004-02-22, 11:07:39
ich schreibs mal hier rein:



- "welche vor allem den Fehler des R420 - technisch Spitze, aber bei der Performance weniger gut - nicht begann" - ist da nicht der r400 gemeint?

- "ingenierstechnische" - ingenieurstechnische

Quasar
2004-02-22, 11:26:36
Pikantes Detail zum Projektnamen "Loki" (http://www.pantheon.org/articles/l/loki.html)

Loki is one of the major deities in the Norse pantheon. He is a son of the giant Farbauti ("cruel striker") and the giantess Laufey. He is regarded as one of Aesir, but is on occasion their enemy. He is connected with fire and magic, and can assume many different shapes (horse, falcon, fly). He is crafty and malicious, but is also heroic: in that aspect he can be compared with the trickster from North American myths. The ambivalent god grows progressively more unpleasent, and is directly responsible for the death of Balder, the god of light.

Ob das beabsichtigt war und ob auch alle Implikationen, die der "Loki" so mit sich bringt, bewußt in Kauf genommen wurden? ;)

edit:
Sonntag morgen, 11:35, die Quote-Tags halten... :bonk:

Gast
2004-02-22, 11:26:59
IMHO habt ihr den M24 (http://www.theinquirer.net/?article=14186) bei der Aufzählung vergessen.

Dabei handelt es sich anscheinend um eine Mobile-GPU auf R420-Basis. Es würde imho auch wenig Sinn machen einen M11 mit PCI-E Interface als M24 rauszubringen.

=> für mich

Es wird auch sehr schnell R42x Mainstream und lowcost-Chips geben ( entgegen eurer Aufzählung )

Der Unterschied zwischen R350 / M10 und R42x / M24 muss groß genug sein, das sich so ein Sprung beim Codenamen rechtfertigen lässt. Daher denke ich diese Chips unterstützen PS3.0; oder zumindest einige sehr wichtige wesentlich verbesserte Features.


Generell denke ich, das ihr wie bisher immer bei euren Preview-Artikeln ATi unterschätzt und Nvidia überschätzt. Aber wie gesagt, das ist meine persönliche Meinung. Seis drum, in einem Monat wissen wir mehr (GDC 2004).

Gil-galad
2004-02-22, 11:32:17
Guter Artikel :up:

Ich sehe es übrigens auch so: warum jetzt schon PS 3.0 wenn noch nicht die entsprechenden Spiele angekündigt sind? Und von einer schnellen Verbreitung von PS3.0-Hardware kann man sicher dann auch nicht sprechen, denn die Karten werden teuer sein. Die sollen lieber erstmal Spiele mit vernünftigen PS2.0 Support bringen ;)

Demirug
2004-02-22, 11:34:36
Original geschrieben von Quasar
Pikantes Detail zum Projektnamen "Loki" (http://www.pantheon.org/articles/l/loki.html)


Ob das beabsichtigt war und ob auch alle Implikationen, die der "Loki" so mit sich bringt, bewußt in Kauf genommen wurden? ;)

edit:
Sonntag morgen, 11:35, die Quote-Tags halten... :bonk:

Diese Auflistung (http://www.goetterkraft.de/mythologie/gott_loki.htm) gefällt mir noch besser.

Vorallem bei den Aufgaben stehen ein paar interesante Sachen.

Tigerchen
2004-02-22, 11:37:49
Loki muß schnell sein. Mehr als schnell. Dann reichts um die Zeit bis zum R500 zu überbrücken. So einfach ist das. :)

mapel110
2004-02-22, 11:39:05
http://www.rage3d.com/board/showthread.php?s=&threadid=33743797
da wills natürlich keiner glauben. :)

Wüsste zu gern, wer die Quelle für diese Aussage ist.

Gast
2004-02-22, 11:39:59
Original geschrieben von Quasar
Pikantes Detail zum Projektnamen "Loki" (http://www.pantheon.org/articles/l/loki.html)


Ob das beabsichtigt war und ob auch alle Implikationen, die der "Loki" so mit sich bringt, bewußt in Kauf genommen wurden? ;)

edit:
Sonntag morgen, 11:35, die Quote-Tags halten... :bonk:


Spekulation ist doch was schönes :

Ich denke Loki wurde mit Absicht gewählt. Demalion auf Beyond3D hatte eine interessante Spekulation zum R420 anzubieten.

Er meinte (in seiner verklausulierten Art) das sich der F-Buffer als eine Art TBDR-Buffer benutzen lässt. Soweit ich das verstanden habe meint er, das zuerst die 6 Vertex-Shader ( imho 4 davon VS3.0 + 2x VS 2.0 ) alle Vertex berechnen und die Ergebnisse im F-buffer gespeichert werden, dann beginnt das Pixelshading mittels der 8 extreme-PS2.0 Pipelines und der 4 VS3.0 Einheiten, die da sie vom R400-Projekt abgezweigt wurden auch als PS3.0 Einheiten benutzt werden können.

Der R420 könnte damit sehr schnell werden, da er als eine Art TBDR funktioniert und gleichzeitig PS3.0 erfüllen, wenn auch langsam, da er dafür ja nur 4 Einheiten hat.

Der Name Loki würde sich damit auf das Chamäleon(sp?)-hafte benehmen der VS3.0/PS3.0 Einheiten beziehen.

Gleichzeitig hätte man eine schöne Erklärung für die Verwirrung um die 8 oder 12 Pixelpipeliens des R420 die so lange durch das Netz gegeistert ist.

Wie gesagt Spekulationen sind was schönes. :)

Demirug
2004-02-22, 11:49:03
Original geschrieben von Gast
Spekulation ist doch was schönes :

Ich denke Loki wurde mit Absicht gewählt. Demalion auf Beyond3D hatte eine interessante Spekulation zum R420 anzubieten.

Er meinte (in seiner verklausulierten Art) das sich der F-Buffer als eine Art TBDR-Buffer benutzen lässt. Soweit ich das verstanden habe meint er, das zuerst die 6 Vertex-Shader ( imho 4 davon VS3.0 + 2x VS 2.0 ) alle Vertex berechnen und die Ergebnisse im F-buffer gespeichert werden, dann beginnt das Pixelshading mittels der 8 extreme-PS2.0 Pipelines und der 4 VS3.0 Einheiten, die da sie vom R400-Projekt abgezweigt wurden auch als PS3.0 Einheiten benutzt werden können.

Der R420 könnte damit sehr schnell werden, da er als eine Art TBDR funktioniert und gleichzeitig PS3.0 erfüllen, wenn auch langsam, da er dafür ja nur 4 Einheiten hat.

Das würde Bandbreite ohne Ende fressen. Man macht aus einem IMR nicht so einfach einen TBDR machen.

AlfredENeumann
2004-02-22, 12:23:51
Original geschrieben von aths
- ATI war mit dem DirectX9-Chip Monate früher da. Den Bonus haben sie nicht mehr, der NV40 steht in den Startlöchern. Seit dem NV35 kann imo nicht mehr pauschal davon die Rede sein, dass "ATI schneller wäre".

- Was wollen sie denn gegen die Lowcost-Version des NV40 machen?


1) Speed sells. ATI hatte durch den R300, bzw ab R300 die schnelleren Karten zu Bauen. Schau mal in Foren rein wo die Breite masse der Durchschnittsspieler abhängt, z.B. GIGA.

2) Einfach ne günstige Karte mit DX9. Das reicht. In unseren Komplettsystemen die wir in unseren Shops verhökern, bzw als BTO-Ware an div. Händler gehen, ist Standardmäßig ne FX5200. Aber nur weil diese die günstigere DX9-Karte ist. Wäre die 9600non Pro günstiger, würde diese in den Rechnern Stecken. So einfach ist das.
In unseren Notebooks stecken wenns nicht ein kleines Sub1000€ NB ist, i.d.R. ATI CHips, da diese a) günstiger sind als NV Pendants und b) auch noch schnell und in großen Stückzahlen verfügbar sind.

LovesuckZ
2004-02-22, 12:28:23
Original geschrieben von AiS|Gil-galad
Ich sehe es übrigens auch so: warum jetzt schon PS 3.0 wenn noch nicht die entsprechenden Spiele angekündigt sind?

Toll, aber vor einem jahr gegen den "schlechten" PS2.0 Speed der FX Karten wettern als auch noch kein PS/VS2.0 Spiel angekündigt wurde...

/edit: Nicht zu vergessen, PS3.0 und VS3.0 Anwendungen gibt es schon Heute!

/edit:2 Schon vergessen, was passierte als Nvidia noch keine DX9 hardware liefern konnte? Die Spielentwickler haben nun auf ATi Hardware und mit deren Optimierungsregeln programmiert. Wir sehen ja, wie sich dies zur Falle von nvidia entwickelt.

Gil-galad
2004-02-22, 12:36:41
Original geschrieben von LovesuckZ
Toll, aber vor einem jahr gegen den "schlechten" PS2.0 Speed wettern der FX Karten, wo auch kein PS/VS2.0 angekündigt worden...

Natürlich gab es da schon PS2.0 Spiele bzw. waren schon welche angekündigt :P Half-Life 2, Stalker, Tomb Raider, Far Cry,...
Und außerdem war der PS2.0-Speed damals auch unter aller Sau. Mittlerweile hat sich das ja aber gebessert ;)



/edit: Nicht zu vergessen, PS3.0 und VS3.0 Anwendungen gibt es schon Heute!

Ach wirklich? Wo denn?



/edit:2 Schon vergessen, was passierte als Nvidia noch keine DX9 hardware liefern konnte? Die Spielentwickler haben nun auf ATi Hardware und mit deren Optimierungsregeln programmiert. Wir sehen ja, wie sich dies zur Falle von nvidia entwickelt.
Och ja armes NVidia. Sind doch selber dran Schuld. Wenn die ihre DX9 Hardware nicht zum laufen kriegen, dann kann ATi ja wohl nix für. Wer zuerst kommt malt zuerst ;)

LovesuckZ
2004-02-22, 12:38:25
Original geschrieben von AiS|Gil-galad
Natürlich gab es da schon PS2.0 Spiele bzw. waren schon welche angekündigt :P Half-Life 2, Stalker, Tomb Raider, Far Cry,...

HL2? E3
Tomb Raider 6? Wusste niemand vorher, selbst Spielezeitschriften haben nichts über die neue Technik geschrieben.
Halo? Ebenfalls nicht.
Stalker? Ka.

Ach wirklich? Wo denn?

Righmark3d Beta 4
Sowie die Demos von powervr (?)

/edit: Aeh, kann es sein, dass du den Vergleich nicht verstehst? :|

reunion
2004-02-22, 12:46:06
Original geschrieben von LovesuckZ
/edit:2 Schon vergessen, was passierte als Nvidia noch keine DX9 hardware liefern konnte? Die Spielentwickler haben nun auf ATi Hardware und mit deren Optimierungsregeln programmiert. Wir sehen ja, wie sich dies zur Falle von nvidia entwickelt.

Genau darin sehe ich dass größte Problem von ATI. Das fehlen von PS3.0 wird für den R420 wohl noch zu verkraften sein, solange der Speed passt, aber der R500 der ja dann mindestens PS3.0 (vielleicht sogar 4.0) unterstützen wird, wird es wohl ziemlich schwer haben gegen den NV50, wenn dann schon alle Spiele mit NV Hardware programmiert wurden.

/Edit: Die wichtigste Frage die sich stellt ist ob die Spieleentwickler auf den NV Zug aufspringen werden und PS3.0 Spiele bringen, oder den kleinsten gemeinsamen Nenner mit max. PS2.X verwenden werden.

Gil-galad
2004-02-22, 12:46:20
Original geschrieben von LovesuckZ
HL2? E3
Tomb Raider 6? Wusste niemand vorher, selbst Spielezeitschriften haben nichts über die neue Technik geschrieben.
Halo? Ebenfalls nicht.
Stalker? Ka.

Naja die E3 war vor fast einem Jahr ;)
Halo möglich.
Von Stalker und TR6 wusste man IMO zu dem Zeitpunkt schon, dass sie PS2.0 verwenden, da sie immer als DX 9.0 Spiele ausgewiesen wurde. Sicher bedeutet DX9.0 nicht automatisch PS2.0 Verwnedung, aber wozu sonst DX9.0 verwenden? PS2.0 sind IMO eine der Gründe ;)



Righmark3d Beta 4
Sowie die Demos von powervr (?)

"D3D RightMark synthetic bencmark"

Bitte. Wir sprechen hier von Spielen und nicht von irgend welchen synthetischen Benchmarks oder TechDemos. Techdemos gab es schon immer eher, Spiele liesen dagegen immer auf sich warten.

Gil-galad
2004-02-22, 12:50:03
Original geschrieben von reunion
Genau darin sehe ich dass größte Problem von ATI. Das fehlen von PS3.0 wird für den R420 wohl noch zu verkraften sein, solange der Speed passt, aber der R500 der ja dann mindestens PS3.0 (vielleicht sogar 4.0) unterstützen wird, wird es wohl ziemlich schwer haben gegen den NV50, wenn dann schon alle Spiele mit NV Hardware programmiert wurden.

Sehe ich nicht so. Sicherlich mag das ein Nachteil für ATi sein, wenn man keine PS3.0 im R420 einführt. Aber wie Leonidas schon sagte: "Zudem setzen Spieleprogrammierer gern und oft auf den kleinsten gemeinsamen Nenner - und dieser lautet nun einmal bei DirectX9-Chips Shader 2.0."

Demirug
2004-02-22, 12:50:47
Was die Nutzung von PS 3.0 Hardware bei vorhandnen oder bereits angekündigten Spielen angeht verweise ich mal auf einen Post von mir: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1587911#post1587911

Hauwech
2004-02-22, 12:55:00
Imho hat ATI ein dickes Problem im Low-Cost/OEM-Bereich: Selbst wenn sie eine FX5200 aehnliche Karte anbieten, DX 9 also, wird es aufgrund von mangeldem PS 3.0 Support bei den OEMs und Privatkaeufern viele zur kommenden (rein spekulativer Name meinerseits) FX6200 hinziehen. Warum? Die Macht des Marketings macht flugs ein DX 9.1 und das kann ATI in dem Fall nicht bieten.

ATI hat nVidia bei den Marktanteilen ueberholt, keine Frage, aber wenn nicht die Verspaetung durch den NV30 gewesen waere, obwohl er unter DX 9 schlechter als der R300 ist, haben sich doch viele Leute augenscheinlich, und vor allem die OEMs, auf die FX5200 gestuerzt. Bringt ATI nicht auch so eine Karte wird es verdammt eng fuer ATI demnaechst.

Was die D3D Softwareentwickler betrifft glaube ich Demi blind das der Sprung von PS 2.0 auf PS 3.0 kaum Aufwand darstellen wird. Auch hier wird seitens nVidia mit Sicherheit massiv darauf hingewiesen. Auch wieder schlechte Karten fuer ATI imho.

Kein Flameversuch sondern meine Gedanken zur Situation von ATI demnaechst.

LovesuckZ
2004-02-22, 12:55:01
Original geschrieben von AiS|Gil-galad
Sehe ich nicht so. Sicherlich mag das ein Nachteil für ATi sein, wenn man keine PS3.0 im R420 einführt. Aber wie Leonidas schon sagte: "Zudem setzen Spieleprogrammierer gern und oft auf den kleinsten gemeinsamen Nenner - und dieser lautet nun einmal bei DirectX9-Chips Shader 2.0."

Das gilt für die Verwendung bei den PS2.0/VS2.0. Wenn es moeglich ist Anweisungen durch PS/VS3.0 zu beschleunigen, dann sollte dies auch getan werden.

duckofdeath
2004-02-22, 12:56:18
ist das überhaupt möglich? eine 1x1 ps 3.0 architektur?

Demirug
2004-02-22, 12:56:20
Original geschrieben von AiS|Gil-galad
Sehe ich nicht so. Sicherlich mag das ein Nachteil für ATi sein, wenn man keine PS3.0 im R420 einführt. Aber wie Leonidas schon sagte: "Zudem setzen Spieleprogrammierer gern und oft auf den kleinsten gemeinsamen Nenner - und dieser lautet nun einmal bei DirectX9-Chips Shader 2.0."

Der kleinste gemeinsame Nenner ist: "Ein 2.0 tauglicher HLSL Shader" Einen solchen kann man natürlich auch als 3.0 Shader compilieren und mögliche Vorteile mitnehmen.

3.0 Shader sind primär keine Version die jetzt massenhaft neue Features bringt um Effekte zu berechnen. Das war die Aufgabe von 2.0. 3.0 dient im wesentlichen dazu diese Berechungen effizienter zu machen.

wulfman
2004-02-22, 12:57:28
informatierten
interessanter typo, seite 1. ;)

mfg
wulfman

Gil-galad
2004-02-22, 12:58:11
Es mag ja Vorteile bei PS3.0 geben. Aber erstmal muss die Hardware weit genug verbreitet sein. Und das dürfte einige Zeit (Minimum 3/4 Jahr) dauern. Zudem kommt noch folgendes: Im Moment sollte die Verbreitung von DX8 Hardware sehr gut sein. Und da man nunmal nach der größten verbreiteten Hardware geht, werden wohl eher DX8 Spiele das nächste 3/4 bis 1 Jahr dominieren.

Und noch eine Frage an Dich Demirug: Wieso setzt man zum Beispiel bei UT2004 noch immer auf DirectX 7 und 8 anstatt komplett auf 8 oder 9 umzusteigen? Wie gesagt die Hardware-Basis ist hier entscheidend, und nicht was vielleicht Hardcore-Spieler im Rechner haben.

reunion
2004-02-22, 12:58:33
Original geschrieben von LovesuckZ
Das gilt für die Verwendung bei den PS2.0/VS2.0. Wenn es moeglich ist Anweisungen durch PS/VS3.0 zu beschleunigen, dann sollte dies auch getan werden.

Sollte ja, die Frage wird nur sein ob es sich ein Spielentwickler leisten kann eine Technik zu verwenden die der Marktführer (:D) nicht unterstützt...

Gil-galad
2004-02-22, 13:00:29
Original geschrieben von Demirug
3.0 Shader sind primär keine Version die jetzt massenhaft neue Features bringt um Effekte zu berechnen. Das war die Aufgabe von 2.0. 3.0 dient im wesentlichen dazu diese Berechungen effizienter zu machen.

Und genau das war der Grund, wieso sich PS2.0 schneller durchgesetzt hat. Die Leute wollen Effekte sehen. Da PS3.0 bis auf eine effizientere Berechnung nichts weiter bringt, wird die Verbreitung noch auf sich warten lassen.


Original geschrieben von reunion
Sollte ja, die Frage wird nur sein ob es sich ein Spielentwickler leisten kann eine Technik zu verwenden die der Marktführer (:D) nicht unterstützt...

;D

Gil-galad
2004-02-22, 13:01:47
Den bitte löschen. Hab das in den anderen reingemacht.

LovesuckZ
2004-02-22, 13:03:07
Original geschrieben von reunion
Sollte ja, die Frage wird nur sein ob es sich ein Spielentwickler leisten kann eine Technik zu verwenden die der Marktführer (:D) nicht unterstützt...

Intel ist Marktführer.

CrassusX
2004-02-22, 13:03:09
Mal ehrlich, ich habe lieber eine anständige Geschwindigkeit in Disziplinen, die in nächster Zeit anstehen, anstatt Speed in etwas, was ich nur ur-selten zu Gesicht bekommen werde.
Mal ne Frage unterstützen Doom3 oder Ut2004 Shader 3.0?

reunion
2004-02-22, 13:05:32
Original geschrieben von LovesuckZ
Intel ist Marktführer.

..von Bürografikchips.

Demirug
2004-02-22, 13:08:21
Original geschrieben von AiS|Gil-galad
Es mag ja Vorteile bei PS3.0 geben. Aber erstmal muss die Hardware weit genug verbreitet sein. Und das dürfte einige Zeit (Minimum 3/4 Jahr) dauern. Zudem kommt noch folgendes: Im Moment sollte die Verbreitung von DX8 Hardware sehr gut sein. Und da man nunmal nach der größten verbreiteten Hardware geht, werden wohl eher DX8 Spiele das nächste 3/4 bis 1 Jahr dominieren.

Und noch eine Frage an Dich Demirug: Wieso setzt man zum Beispiel bei UT2004 noch immer auf DirectX 7 und 8 anstatt komplett auf 8 oder 9 umzusteigen? Wie gesagt die Hardware-Basis ist hier entscheidend, und nicht was vielleicht Hardcore-Spieler im Rechner haben.

Wenn man nicht mehr Effekte haben will reicht das ja auch. Ich persönlich hätte allerdings zumindestens für alle Effekte durchweg noch 1.1 PS eingebaut. Die machen einfach weniger ärger als die DX7 Setups.

Alles immer eine Frage des Kosten/Nutzen Faktors. Bei den meisten aktuellen Engines die schon PS 2.0 unterstützen und auf HLSL zur Shaderentwicklung setzten sind die Kosten nahezu null. Ergo muss der Nutzen nur minimal sein das es sich lohnt.

Demirug
2004-02-22, 13:09:41
Original geschrieben von AiS|Gil-galad
Und genau das war der Grund, wieso sich PS2.0 schneller durchgesetzt hat. Die Leute wollen Effekte sehen. Da PS3.0 bis auf eine effizientere Berechnung nichts weiter bringt, wird die Verbreitung noch auf sich warten lassen.

Wenn ich etwas schneller berechnen kann könnte ich im Gegenzug bei gleicher Geschwindigkeit auch mehr berechnen.

Demirug
2004-02-22, 13:11:20
Original geschrieben von CrassusX
Mal ehrlich, ich habe lieber eine anständige Geschwindigkeit in Disziplinen, die in nächster Zeit anstehen, anstatt Speed in etwas, was ich nur ur-selten zu Gesicht bekommen werde.
Mal ne Frage unterstützen Doom3 oder Ut2004 Shader 3.0?

UT2004 hat gerade mal einen 1.1 PS.

Wenn JC einen Vorteil erkennen kann wird DOOM III sicherlich einen NV4X Pfad bekommen.

Andreas Tidl
2004-02-22, 13:22:52
Was ihr bedenken solltet: Der Mangel der PS 3.0 Eigenschaft könnte sich ziemlich drastisch auf die Bewertungen in so mancher Spielezeitschrift auswirken, wenn der 3DMark04 dieses Feature explizit einsetzt und die Punktzahl, ähnlich wie bei den GF4xxx Chips, 2k-3k unter der neuen NV40 Serie liegen sollte. Vorallem, da einige Medien nur 2-3 Tests von Grafikkarten durchführen, wovon einer den 3DMark darstellt, und einige Enthusiasten in diesem Lande nur auf dessen Punktzahl und die tollen Bildchen aus sind.

Andreas

ow
2004-02-22, 13:23:14
.

Leonidas
2004-02-22, 13:29:12
Original geschrieben von Doc PeWe
Es ist völliger Quatsch anzunhemen das künftig in OEM-Systeme RV420-Systeme verbaut werden.



Hat das einer behauptet? Ich nicht. Die Sache mit Longhorn sollte nur aussagen: Der R420 ist bezüglich Longhorn *nicht* gehandicapt, ist dort also in der gleichen Klasse wie NV40. Und es wäre durchaus ein Gegen-Argument, wenn es anders wäre, wenn der R420 nicht Tier 2 von Longhorn erfüllen würde.

Leonidas
2004-02-22, 13:31:39
Original geschrieben von Doc PeWe
Aus diesem Grund bleibt der Gedanke PS3.0 als "Checklisten-Feature im OEM-Markt" ein HIRNGESPENST!



Gerade der OEM-Markt ist dafür berüchtigt, Checklisten abzuarbeiten und danach zu urteilen. Warum werden denn so viele FX5200 abgesetzt? Weil die Karte in irgendeiner Form schnell unter DX9 oder auch ganz allgemein schnell wäre? Mitnichten!

Leonidas
2004-02-22, 13:36:45
Original geschrieben von Gast
Es wird auch sehr schnell R42x Mainstream und lowcost-Chips geben ( entgegen eurer Aufzählung )

Der Unterschied zwischen R350 / M10 und R42x / M24 muss groß genug sein, das sich so ein Sprung beim Codenamen rechtfertigen lässt. Daher denke ich diese Chips unterstützen PS3.0; oder zumindest einige sehr wichtige wesentlich verbesserte Features.


Generell denke ich, das ihr wie bisher immer bei euren Preview-Artikeln ATi unterschätzt und Nvidia überschätzt. Aber wie gesagt, das ist meine persönliche Meinung. Seis drum, in einem Monat wissen wir mehr (GDC 2004).



Ähm, der Artikel ist in diesem Punkt eindeutig und ich habe die Informationen aus allererster Hand. R420 wird sowohl keine Shader 3.0 haben als auch die R420-Derivate treten es im 2. HJ an. Das ist keine Meinung, sondern klarer Fakt.

Leonidas
2004-02-22, 13:38:22
Original geschrieben von mapel110
http://www.rage3d.com/board/showthread.php?s=&threadid=33743797
da wills natürlich keiner glauben. :)

Wüsste zu gern, wer die Quelle für diese Aussage ist.



Dann sag ihnen, daß ich dafür meine Hand ins Feuer lege. Die Quelle ist mehr als direkt, direkter geht es gar nicht mehr. Nicht nur die Position der Quelle ist direkt, sondern auch die Art, wie sie selber zu den Informationen gekommen, ist ultimativ direkt. Eingeweihte ahnen womöglich, was ich meine :-).

Leonidas
2004-02-22, 13:40:39
Original geschrieben von reunion
R500 der ja dann mindestens PS3.0 (vielleicht sogar 4.0) .



R500 wird Shader 4.0 haben.

Leonidas
2004-02-22, 13:41:11
Original geschrieben von Hauwech
Warum? Die Macht des Marketings macht flugs ein DX 9.1 und das kann ATI in dem Fall nicht bieten.




Extra deswegen hat sich ATi von MS ein Statement geben lassen: "Es gibt kein DX 9.1" ...

Leonidas
2004-02-22, 13:43:26
Original geschrieben von Hamster
ich schreibs mal hier rein:

- "welche vor allem den Fehler des R420 - technisch Spitze, aber bei der Performance weniger gut - nicht begann" - ist da nicht der r400 gemeint?

- "ingenierstechnische" - ingenieurstechnische




Original geschrieben von wulfman
interessanter typo, seite 1. ;)

mfg
wulfman



Gefixt. Thx.

HOT
2004-02-22, 13:54:35
ATI spielt mit Risiko, das muss man ihnen lassen. Meiner Meinung nach wird es NV bei 3.0 net viel besser ergehen wie mit 2.x. Das Problem bei der Sache ist, dass NV weder 2.x noch 3.0 wird oder hat verkaufen können. Man HAT NIX davon als Normalouser.
OEMs ist die Shaderversion wohl eher scheissendreckegal, weil die das eh net wird verkaufen können. DAUs WISSEN NET was Shader sind. Die können nur DX9 verkaufen, und da es DX9.1 physich nicht gibt (merk jeder DAU wenn er DX9.1 installieren will), kannste DX9.1 als werbewirksam auch abschreiben. Denn DX9.1 wird viel eher als Verarsche von den "Fachzeitschriften" wie die Computerbild :D entlarvt werden (brauchen ja Sensationsstorys *gg*). Von daher vermute ich dass sih die OEMs hüten werden, irgendwo DX9.1 draufzuschreiben, wo es ja karkeine entsprechende Runtime dafür gibt.
NVidias Problem hierbei könnte in der Tat sein, dass PS/VS3.0 in DX9 schon mitspezifiziert wurde. Der NV40 und seine Ableger sind nunmal DX9 Karten, und da ändert sich ja nix dran.

Einerseits finde ich es schade, dass der R420 kein PS/VS3.0 bietet, andererseits kann aber jeder Besitzer einer R3xx karte freuen, da PS/VS2.0 wohl noch lange Zeit state-of-the-art bleiben wird, bei entspechend gute Performance des R420.

Interessant hierbei wird aber folgendes: Was passiert, wenn andere Hersteller plötzlich mit PS/VS3.0 kommen? Dann steht ATI plötzlich alleine da, und das ist eben das Risiko was ATI mit ihrer Philosophie eingeht. Kommt überraschen PowerVR mit einem PS/VS3.0 Chip um die Ecke, der dann auchnoch entspechende Performance bietet, ist der HiEnd bereich für ATI gegessen.

Pathfinder
2004-02-22, 14:00:35
Original geschrieben von Leonidas
Gerade der OEM-Markt ist dafür berüchtigt, Checklisten abzuarbeiten und danach zu urteilen. Warum werden denn so viele FX5200 abgesetzt? Weil die Karte in irgendeiner Form schnell unter DX9 oder auch ganz allgemein schnell wäre? Mitnichten!
Leo,
Die DX-Version ist ohne Zweifel ein Checklisten-Feature für den OEM-Markt, ebenso wie die Größe des Grafikspeichers. Die Angaben zur PS/VS-Version halte ich aber für zu subtil, als daß der OEM-Markt nutzen daraus ziehen will. Dem Kunden wird es hier sicherlich zu spezifische/technisch! Nach meiner Ansicht wird es NVidia viel Arbeit abverlangen, dem Kunden PS/VS 3.0 als 'must have' zu verkaufen. Abgesehen davon, finde ich es seltsam, daß sich die ganze Diskussion auf ein für den Zocker in 2004 weitgehend nutzloses Feature konzentriert. Leider gibt der Artikel nicht mehr her. Interessanter als die PS/VS Version und die offensichtliche Beschleunigung der 2.0 Shader sind vermutlich die restlichen Geheimnisse, die wohl bis zur Cebit auf ihre Veröffentlichung warten müssen.

G.
P.

Blutgrätsche
2004-02-22, 14:23:03
Original geschrieben von Gast
Er meinte (in seiner verklausulierten Art) das sich der F-Buffer als eine Art TBDR-Buffer benutzen lässt.
Das Konzept (Delay-Streams) wurde auf der letztjährigen Siggraph vorgestellt.
http://www.hybrid.fi/main/academic/papers.php#delays

Edit: Hier noch das Paper zum F-Buffer:
http://www-graphics.stanford.edu/projects/shading/pubs/hwws2001-fbuffer/fbuffer.pdf

Exxtreme
2004-02-22, 14:23:04
Hmmm, daß der Chip keinen PS3.0-Support bieten wird, ist zwar schade aber nicht unbedingt ein Genickbruch. Ein Problem könnte für ATi werden wenn Nvidia Futuremark etwas Kohle zuschiebt und diese wiederum eine PS3.0-only-Szene einbauen, die in die Punktebewertung einfliesst ... im neuen 3DMark. Ansonsten mal abwarten und Tee trinken. ATi wird schon Gründe gehabt haben es so und nicht anders zu machen. Nvidia wird wohl das PS3.0-Feature marketingtechnisch ausschlachten, ATi wird die schnellsten Shader des Planeten bewerben.

Gil-galad
2004-02-22, 14:24:33
Original geschrieben von Demirug
Wenn ich etwas schneller berechnen kann könnte ich im Gegenzug bei gleicher Geschwindigkeit auch mehr berechnen.

Da hast Du wohl recht. Aber wenn man die PS2.0 so massiv beschleunigt, wie dies ATi vermutlich mit dem R420 macht, dann braucht man nicht PS3.0 viele Effekte flüssig darstellen zu können. Sicher könnte man die vielen Effekte mit Hilfe von PS3.0 noch schneller machen. Da man aber bei Spielen von einer festen Anzahl von Effekten ausgehen kann, ist auch irgendwann eine Grenze erreicht.

Kleines Beispiel:

Nehmen wir mal FarCry. Man benutzt eine feste Anzahl von Effekten und Shadern. Wieso sollte man PS3.0 nutzen, wenn die PS2.0 auf dem R420 schon sehr schön schnell laufen? Eine Verbesserung von, sagen wir mal, 80fps auf 100 oder 120fps ist eigentlich nicht bemerkbar. Also wieso sollte man PS3.0 nutzen?

Tigerchen
2004-02-22, 14:27:41
Original geschrieben von Demirug
Wenn ich etwas schneller berechnen kann könnte ich im Gegenzug bei gleicher Geschwindigkeit auch mehr berechnen.

Kommt also drauf an ob nV's 3.0 schnell genug ist um gegen ATI's angebliche 2.0 Performance anstinken zu können. Wäre das nicht denkbar bei 24 vs 32 Bit? Und bei Tri vs. Bi TMU's?

Demirug
2004-02-22, 14:29:29
Original geschrieben von Exxtreme
Hmmm, daß der Chip keinen PS3.0-Support bieten wird, ist zwar schade aber nicht unbedingt ein Genickbruch. Ein Problem könnte für ATi werden wenn Nvidia Futuremark etwas Kohle zuschiebt und diese wiederum eine PS3.0-only-Szene einbauen, die in die Punktebewertung einfliesst ... im neuen 3DMark. Ansonsten mal abwarten und Tee trinken. ATi wird schon Gründe gehabt haben es so und nicht anders zu machen. Nvidia wird wohl das PS3.0-Feature marketingtechnisch ausschlachten, ATi wird die schnellsten Shader des Planeten bewerben.

Ja, jeder Benchmark der nur 3.0 Hardware die volle Punktzahl ermöglicht wird eine harte Nuss für ATI. Egal wie sinnvoll ein solcher Benchmark ist.

Die Gründe werden wohl gewesen sein das ATI die Wahl zwischen Performance oder Features hatte.

Richtig dumm für ATI wird es wenn nVidia in sogennaten shaderlastigen Anwendungen ebenfalls die Nase vorne hätte.

Demirug
2004-02-22, 14:33:23
Original geschrieben von AiS|Gil-galad
Da hast Du wohl recht. Aber wenn man die PS2.0 so massiv beschleunigt, wie dies ATi vermutlich mit dem R420 macht, dann braucht man nicht PS3.0 viele Effekte flüssig darstellen zu können. Sicher könnte man die vielen Effekte mit Hilfe von PS3.0 noch schneller machen. Da man aber bei Spielen von einer festen Anzahl von Effekten ausgehen kann, ist auch irgendwann eine Grenze erreicht.

Im Zweifel die Auflösung hochschrauben. Zu schnell gibt es nicht.


Kleines Beispiel:

Nehmen wir mal FarCry. Man benutzt eine feste Anzahl von Effekten und Shadern. Wieso sollte man PS3.0 nutzen, wenn die PS2.0 auf dem R420 schon sehr schön schnell laufen? Eine Verbesserung von, sagen wir mal, 80fps auf 100 oder 120fps ist eigentlich nicht bemerkbar. Also wieso sollte man PS3.0 nutzen?

In einem Benchmarkbalken sieht man das schon. Es muss ja nicht Crytek die Shader tauschen. ;)

EDIT: PS Farcry hat eine menge Texkills in den Shadern. PS 3.0 Hardware sollte Texkills lieben.

Demirug
2004-02-22, 14:37:31
Original geschrieben von Tigerchen

Kommt also drauf an ob nV's 3.0 schnell genug ist um gegen ATI's angebliche 2.0 Performance anstinken zu können. Wäre das nicht denkbar bei 24 vs 32 Bit? Und bei Tri vs. Bi TMU's?



Richtig, wenn nV in etwa gleiche 2.0 Performance wie ATI erreicht können sie den 3.0 Vorteil zusätzlich ausnutzen um noch ein bischen was zu holen.

24 Bit vs. 32Bit ist nur eine Frage der Transistorenmenge.

Die TMUs spielen bei der reinen Rechenleistung (die bei >= 2.0 Shader immer wichter wird) ja keine Rolle. Bei der Fillrate gehe ich aber von einem relative Gleichstand aus.

Gil-galad
2004-02-22, 14:42:08
Original geschrieben von Demirug
Im Zweifel die Auflösung hochschrauben. Zu schnell gibt es nicht.

Naja erstmal einen entsprechenden Monitor haben. Die Allgemeinheit sollte im Durchschnitt 17" haben. Sprich 1024 oder 1280 sollte als Auflösung gehen. 1600 dürfte IMO kein 17" schaffen bei mindestens 75/85 Hz.

Gil-galad
2004-02-22, 14:44:50
Original geschrieben von Demirug
Richtig, wenn nV in etwa gleiche 2.0 Performance wie ATI erreicht können sie den 3.0 Vorteil zusätzlich ausnutzen um noch ein bischen was zu holen.

Genau das ist die Frage. Deshalb würde ich sagen: Abwarten und Tee trinken. Die ersten Reviews werden uns schon zeigen, wie schnell beide bei PS2.0 sind.

mapel110
2004-02-22, 14:45:13
Original geschrieben von Leonidas
Dann sag ihnen, daß ich dafür meine Hand ins Feuer lege. Die Quelle ist mehr als direkt, direkter geht es gar nicht mehr. Nicht nur die Position der Quelle ist direkt, sondern auch die Art, wie sie selber zu den Informationen gekommen, ist ultimativ direkt. Eingeweihte ahnen womöglich, was ich meine :-).

Also direkt von ATI?! Thx. :)

Gil-galad
2004-02-22, 14:51:38
Sicherlich nicht von ATi denn:

1. dann würde Leonidas unter NDA stehen und dürfte sich nicht zum R420 äußern
2. alle bei ATi stehen unter NDA und dürften nichts sagen

Schließt also ATi als Quelle aus ;)

kmf
2004-02-22, 14:56:25
Irgendwie werde ich das Gefühl nicht los, daß ich mit meiner Meinung damals (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1524271#post1524271), bezüglich der "Eier" so daneben gar nicht liege. ATI hat mit der Präsentation von DX9-fähigen Grafikkarten den Markt neu gemischt. Damals brauchte eigentlich auch keiner DX9. Ob hier nicht vielleicht eine Parallele gerade wegen PS3 entsteht?

LovesuckZ
2004-02-22, 15:07:17
Original geschrieben von kmf
Irgendwie werde ich das Gefühl nicht los, daß ich mit meiner Meinung damals (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1524271#post1524271), bezüglich der "Eier" so daneben gar nicht liege.

Lastly there is word on the NV40 R420 front. Neither card was shown, but several people who would be familiar with both have said Nvidia is going to come back very strong soon. The word 'own' was bandied about, as in Nvidia will own ATI. (http://www.theinquirer.net/?article=14290)

Ob hier nicht vielleicht eine Parallele gerade wegen PS3 entsteht?

Es war nicht DX9, welches den r300 so interessant machte sondern das deutlich überlegende AA mit den überlegenden Speed, erst recht in Verbindung mit AF.
Nun diesmal wird es für sie dagegen schwerer, da beide wohl aehnliche IQ Settings anbieten werden.
PS2.0 Speed oder PS3.0 funktionalitaet...

aths
2004-02-22, 15:10:42
Original geschrieben von Bokill
Ich sehe da eine noch billigere Möglichkeit...

effektiv 1 Pipelines à 1 TMus...Unter 2x2 wird es wohl nix geben. Das gute ist, da der NV40 den 2.X-er deutlich schneller bewältigen dürfte, als CineFX2, müsste selbst eine solch kleine Lösung genügend Power für einfachere DX9-Spiele haben. Dazu für die Checklist die 3.0-Version.

Von ATI gibt es vielleicht kleine Karten mit ebenfalls schon recht schnellem 2.0-Support, aber ohne 3.0-Fähigkeit. Die Vorteile liegen dann wohl eher bei NV.

aths
2004-02-22, 15:13:21
Original geschrieben von AiS|Gil-galad
Guter Artikel :up:

Ich sehe es übrigens auch so: warum jetzt schon PS 3.0 wenn noch nicht die entsprechenden Spiele angekündigt sind? Und von einer schnellen Verbreitung von PS3.0-Hardware kann man sicher dann auch nicht sprechen, denn die Karten werden teuer sein. Die sollen lieber erstmal Spiele mit vernünftigen PS2.0 Support bringen Die sollen lieber erst mal Spiele mit vernünftigem PS.1.1-Support bringen ...

Mit 3.0 kann man 2.0- bzw. 2.X-Effekte effizienter rendern. Damit meine ich, auch wenn man erst mal auf dem Niveau von 2.0-Effekten bleiben will, so böte 3.0 trotzdem Vorteile.

aths
2004-02-22, 15:15:37
Original geschrieben von AlfredENeumann
1) Speed sells. ATI hatte durch den R300, bzw ab R300 die schnelleren Karten zu Bauen. Schau mal in Foren rein wo die Breite masse der Durchschnittsspieler abhängt, z.B. GIGA. Nah.

Es reicht, wenn eine kleine Zahl an Spielen nur mit 3.0 volle Effekte hat (man denke beispielhaft an die Spiegel bei Max Payne 2) so wird damit 2.X-HW richtig unsexy, weil man damit nicht alles hochschrauben kann. Ich kann mir vorstellen, dass NV offiziell oder auch unter der Hand ein gutes Sümmchen fließen lässt, wenn 3.0-exklusive Effekte eingebaut werden.
Original geschrieben von AlfredENeumann
2) Einfach ne günstige Karte mit DX9. Das reicht. Die günstigste DX9-Karte dürfte weiterhin ein NV34-Derivat bleiben.

aths
2004-02-22, 15:19:25
Original geschrieben von AiS|Gil-galad
Da hast Du wohl recht. Aber wenn man die PS2.0 so massiv beschleunigt, wie dies ATi vermutlich mit dem R420 macht, dann braucht man nicht PS3.0 viele Effekte flüssig darstellen zu können. Sicher könnte man die vielen Effekte mit Hilfe von PS3.0 noch schneller machen. Da man aber bei Spielen von einer festen Anzahl von Effekten ausgehen kann, ist auch irgendwann eine Grenze erreicht.

Kleines Beispiel:

Nehmen wir mal FarCry. Man benutzt eine feste Anzahl von Effekten und Shadern. Wieso sollte man PS3.0 nutzen, wenn die PS2.0 auf dem R420 schon sehr schön schnell laufen? Eine Verbesserung von, sagen wir mal, 80fps auf 100 oder 120fps ist eigentlich nicht bemerkbar. Also wieso sollte man PS3.0 nutzen? Warum sollte dann ATI überhaupt einen Nachfolger für die 9800 entwickeln, wenn die momentan gebotene Geschwindigkeit ausreichend wäre?

Gil-galad
2004-02-22, 15:35:38
Naja die heutigen Spiele nutzen PS2.0 kaum und wenn, dann wohl eher spärlich. ich spreche hier aber von "exzessiven" PS2.0 Einsatz. Und da könnte die 9800 auch an Ihre Grenzen stoßen ;)

Gast
2004-02-22, 15:37:46
Original geschrieben von Demirug
Richtig, wenn nV in etwa gleiche 2.0 Performance wie ATI erreicht können sie den 3.0 Vorteil zusätzlich ausnutzen um noch ein bischen was zu holen.

24 Bit vs. 32Bit ist nur eine Frage der Transistorenmenge.

Die TMUs spielen bei der reinen Rechenleistung (die bei >= 2.0 Shader immer wichter wird) ja keine Rolle. Bei der Fillrate gehe ich aber von einem relative Gleichstand aus.

Heisst das dann auchim Umkehrschluss wenn Ati´s PS 2.0 PErformance derart besser ist als Nvidia´s dass sie auch unter PS 3.0 nicht besser sind.

Dann noch ne Frage die mir noch nicht klar ist. Mit PS 3.0 sind keine neuen Effekte möglich die nicht mit PS 2.0 realisierbar wäre. D.h. PS 3.0 ist einfach dazu da den PS2.0 mehr Speed einzuhauchen z.b. durch Abbruchbedingungen im Shadercode??

Demirug
2004-02-22, 15:47:55
Original geschrieben von Gast
Heisst das dann auchim Umkehrschluss wenn Ati´s PS 2.0 PErformance derart besser ist als Nvidia´s dass sie auch unter PS 3.0 nicht besser sind.

Ja, wenn es schon bei den 2.0 Shader einen zu grossen Unterschied gibt kann die Verwendung von 3.0 diesen Abstand nur verkürzen.

Dann noch ne Frage die mir noch nicht klar ist. Mit PS 3.0 sind keine neuen Effekte möglich die nicht mit PS 2.0 realisierbar wäre. D.h. PS 3.0 ist einfach dazu da den PS2.0 mehr Speed einzuhauchen z.b. durch Abbruchbedingungen im Shadercode??

Ja, im Prinzip kann man alles was mit 3.0 geht auch irgendwie mit 2.0 hinbiegen (Multipass mit Zwischenspeichern). Manches macht aber keinen Sinn. Ein LOD-Pixelshader wäre mit 2.0 nur langsamer ohne Vorteil. Bei 3.0 beschleunigt er das ganze.

MadMan2k
2004-02-22, 15:48:41
Original geschrieben von aths
man denke beispielhaft an die Spiegel bei Max Payne 2
wie meinen?
die sahen auf meiner alten R8500 nicht anders aus als auf meiner R9800...

Demirug
2004-02-22, 15:50:20
Original geschrieben von MadMan2k
wie meinen?
die sahen auf meiner alten R8500 nicht anders aus als auf meiner R9800...

Aber auf einer GF4 gibt es Uunterschiede. Die Spiegel nutzten PS 1.4.

aths
2004-02-22, 15:53:22
Original geschrieben von AiS|Gil-galad
Naja die heutigen Spiele nutzen PS2.0 kaum und wenn, dann wohl eher spärlich. ich spreche hier aber von "exzessiven" PS2.0 Einsatz. Und da könnte die 9800 auch an Ihre Grenzen stoßen ;) Vor allem, wenn man z. B. den Material-Shader mit einem Lighting-Shader verbinden will, wäre 3.0 ziemlich prakisch.

Eine deutlich schnellere Graka auf 2.0-Niveau hätte es anstelle der 9800 geben können. Aber jetzt den anderen das technische Feld überlassen? Wenn ATI erst mit 4.0 wieder einsteigen will, gute Nacht.

StefanV
2004-02-22, 15:59:10
Original geschrieben von aths
Nah.

Es reicht, wenn eine kleine Zahl an Spielen nur mit 3.0 volle Effekte hat (man denke beispielhaft an die Spiegel bei Max Payne 2) so wird damit 2.X-HW richtig unsexy, weil man damit nicht alles hochschrauben kann. Ich kann mir vorstellen, dass NV offiziell oder auch unter der Hand ein gutes Sümmchen fließen lässt, wenn 3.0-exklusive Effekte eingebaut werden.
Die günstigste DX9-Karte dürfte weiterhin ein NV34-Derivat bleiben.

naja, soo weit ist die 9600 SE von der NV34 nicht mehr entfernt...

Weder preislich noch leistungsmäßig...

StefanV
2004-02-22, 16:01:30
Original geschrieben von aths
Eine deutlich schnellere Graka auf 2.0-Niveau hätte es anstelle der 9800 geben können. Aber jetzt den anderen das technische Feld überlassen? Wenn ATI erst mit 4.0 wieder einsteigen will, gute Nacht.

Naja, die R400 soll etwas ehrgeizig gewesen sein, weshalb man sie nach hinten gelegt hat und den R420 dazwischengeschoben hat...

Wenn der R420 schnell genug ist, dann dürfte ATIs 'Taktik' aufgehen...

Beim R420 gehts auch eigentlich nicht darum, mehr Marktanteile zu gewinnen sondern eher nicht allzuviel zu verlieren, der R420 ist nur der Lückenfüller bis zum R500...

deekey777
2004-02-22, 16:01:55
Original geschrieben von Demirug
Aber auf einer GF4 gibt es Unterschiede. Die Spiegel nutzten PS 1.4.

Und die Spiegelungen auf dem Boden. Und noch irgendwas (zB "Lack" auf der Lederjacke von Max)...

Zum Thema: Man preist immer ein zZ Wegwerffeature an, die Konkurrenz schweigt, weil sie dieses Feature nicht haben. Ob irgendjemand das auch braucht, ist egal: Auch eine 5200 ist eine durch und durch DX9-grafikkarte.
@Demirug:
1. HL2 kann PS 3.0 benutzen (wenn man es bittet)?
2. Noch ein Renderpfad (NV4x) für Doom 3 - das Spiel kommt dann nie!!!

dildo4u
2004-02-22, 16:06:59
mal was anders ick finds gut das ATI endlich beim speicher speed auf NV aufholt dadurch dürfte der speed bei hohen auflösungen und AA für NV nicht auf holbar sein bei gleicher AA qualität des weiteren wünsche ick mir eine lösung des problems das viele PS 2.0[1.4] Shader nicht richtig mit AA zusammen arbeiten siehe MaxPayne2 wo das AA einfach ausgeht wenn man Bullttime hat oder Halo wo das AA überhaupt nicht funzt

mapel110
2004-02-22, 16:30:04
Original geschrieben von AiS|Gil-galad
Sicherlich nicht von ATi denn:

1. dann würde Leonidas unter NDA stehen und dürfte sich nicht zum R420 äußern
2. alle bei ATi stehen unter NDA und dürften nichts sagen

Schließt also ATi als Quelle aus ;)

So wie Leonidas sich ausgedrückt hat, kanns nur ein Mitarbeiter von ATI gewesen sein. Direkte Infos gibts nunmal nur dann, wenn man direkt mit dem Produkt zu tun hat und nicht über Dritte Infos bekommt.
Wer sagt denn, dass Leonidas seine Quelle offen legen muss?! Von daher hat keiner etwas durch ein NDA zu befürchten. :)

Gil-galad
2004-02-22, 16:48:13
Original geschrieben von mapel110
So wie Leonidas sich ausgedrückt hat, kanns nur ein Mitarbeiter von ATI gewesen sein. Direkte Infos gibts nunmal nur dann, wenn man direkt mit dem Produkt zu tun hat und nicht über Dritte Infos bekommt.
Wer sagt denn, dass Leonidas seine Quelle offen legen muss?! Von daher hat keiner etwas durch ein NDA zu befürchten. :)

Ich glaub aber kaum, dass jemand von ATi das verraten hat. Alle dort stehen unter NDA. Und wenn die dann solche Statements (die von Leonidas) lesen, dann werden die auf jeden Fall versuchen, den "Schuldigen" zu finden. Und glaub mir, ATi ist ist da scharf hinterher. Derjenige hätte dann nicht viel zu lachen.

Exxtreme
2004-02-22, 17:06:45
Original geschrieben von aths
Eine deutlich schnellere Graka auf 2.0-Niveau hätte es anstelle der 9800 geben können. Aber jetzt den anderen das technische Feld überlassen? Wenn ATI erst mit 4.0 wieder einsteigen will, gute Nacht.
Sehe ich nich unbedingt so. Wenn der R420 dem NV40 deutlich überlegen sein wird bezüglich Speed, dann wird der gekauft. Was meinst du warum die GF2- und GF4-Serie so erfolgreich war? Die Konkurrenz hatte mehr Features und trotzdem wurde sie weitgehend links liegen gelassen. Der R100 ist dem NV10/NV15 featuremässig um Einiges überlegen. Trotzdem haben sich viele Leute eine GF2 geholt weil sie in Q3A einfach schneller ist. Das Gleiche war mit der GF4Ti. Ich glaube, die Features geben erst dann den Ausschlag wenn die Kontrahenten ca. gleich schnell sind. Erst dann gewinnt der mit mehr Features so wie es bei der TNT2 vs. Voodoo3 war.

Demirug
2004-02-22, 17:21:17
Original geschrieben von deekey777
@Demirug:
1. HL2 kann PS 3.0 benutzen (wenn man es bittet)?
2. Noch ein Renderpfad (NV4x) für Doom 3 - das Spiel kommt dann nie!!!

1. Es ist AFAIK noch nicht eingebaut aber aufgrund der Struktur wie HL2 mit Shadern umgeht passen 3.0 Shader ideal. Nur da ATI keine 3.0 Shader hat wird da wohl nichts daraus.

2. Ein neuer Renderpfad dauert höchstens eine Woche.

Korak
2004-02-22, 17:39:01
Original geschrieben von Demirug
Aber auf einer GF4 gibt es Uunterschiede. Die Spiegel nutzten PS 1.4.

Für was eigentlich?

Spiegeln die da anders?

MadMan2k
2004-02-22, 17:41:09
Original geschrieben von Demirug
Aber auf einer GF4 gibt es Uunterschiede. Die Spiegel nutzten PS 1.4.
dann passt es aber nicht mehr als Beispiel für ein Spiel, welches PS pusht, denn die Entwickler haben die kelinste PS Version genommen, die für den Effekt nötig ist.
Und da PS 3.0, soweit ich verstanden habe, keine Effekte ermöglicht, die nicht auch mit PS 2.0 gehen würden...

Demirug
2004-02-22, 17:42:32
Original geschrieben von Korak
Für was eigentlich?

Spiegeln die da anders?

Auf einer GF4 spiegeln die gar nicht.

Demirug
2004-02-22, 17:51:45
Original geschrieben von MadMan2k
dann passt es aber nicht mehr als Beispiel für ein Spiel, welches PS pusht, denn die Entwickler haben die kelinste PS Version genommen, die für den Effekt nötig ist.
Und da PS 3.0, soweit ich verstanden habe, keine Effekte ermöglicht, die nicht auch mit PS 2.0 gehen würden...

Mit PS 1.1 hätte man auch einen Spiegeleffekt bauen können.

Ja, im Prinzip kann man mit PS 2.0 jeden Effekt den man mit 3.0 bauen kann auch nachbilden. Nur wenn man es mit 2.0 nicht mehr schnell genug hinbekommt wird man die Finger davon lassen. 3.0 ist eher eine schleichende Sache. Aleine von anschauen der Bilder wird keiner sagen können ob da jetzt ein 2.0 oder 3.0 Shader zum Einsatz kommt. Bei der FPS kann es sich allerding stark auswirken ob man es nun mit 3.0 oder 2.0 realisiert.

Leonidas
2004-02-22, 18:06:16
Original geschrieben von mapel110
Also direkt von ATI?! Thx. :)



Das hab ich nicht gesagt.

MadMan2k
2004-02-22, 18:11:45
Original geschrieben von Demirug
Ja, im Prinzip kann man mit PS 2.0 jeden Effekt den man mit 3.0 bauen kann auch nachbilden. Nur wenn man es mit 2.0 nicht mehr schnell genug hinbekommt wird man die Finger davon lassen. 3.0 ist eher eine schleichende Sache. Aleine von anschauen der Bilder wird keiner sagen können ob da jetzt ein 2.0 oder 3.0 Shader zum Einsatz kommt. Bei der FPS kann es sich allerding stark auswirken ob man es nun mit 3.0 oder 2.0 realisiert.
d.h. ATi hätte eigentlich kein Problem, wenn sie PS 2.0 schnell genug bekommen und die Entwickler auch einen PS 2.0 Pfad anbieten, was ich angesichts der PS 2.0 Hardwareverbreitung (GfFX + R9500+) für gesichert halte.

Ein Problem wäre höchstens, wenn der NV40 + PS 3.0, dem R420 + PS 2.0 zu weit davonzieht.

Korak
2004-02-22, 18:19:59
Original geschrieben von Demirug
Auf einer GF4 spiegeln die gar nicht.

O_o


In der Demo auf einer Radeon 1(!) spiegeln die wunderbar.

reunion
2004-02-22, 18:20:09
Original geschrieben von aths
Wenn ATI erst mit 4.0 wieder einsteigen will, gute Nacht.

Wer weiss, vielleicht bringt ja der R480 PS3.0 :naughty:

reunion
2004-02-22, 18:21:22
Original geschrieben von Korak
O_o


In der Demo auf einer Radeon 1(!) spiegeln die wunderbar.

Aber nicht so schön wie auf einer Radeon >=8500 :naughty:

Demirug
2004-02-22, 18:21:26
Original geschrieben von MadMan2k
d.h. ATi hätte eigentlich kein Problem, wenn sie PS 2.0 schnell genug bekommen und die Entwickler auch einen PS 2.0 Pfad anbieten, was ich angesichts der PS 2.0 Hardwareverbreitung (GfFX + R9500+) für gesichert halte.

Wenn man die Shader aus einem HLSL Sourcecode erzeugt ist das gar kein Problem. Zudem würde keiner ein Spiel schreiben das auf einem Grossteil der Hardware nicht läuft.

Ein Problem wäre höchstens, wenn der NV40 + PS 3.0, dem R420 + PS 2.0 zu weit davonzieht.

Das wäre auf jeden Fall ein Problem von ATI. Vorallem weil der normale Anwender in einem solchen Fall sich einfach denkt die Karte ist eben einfach schneller. Technische Details interesieren da nicht sonderlich.

Korak
2004-02-22, 18:24:49
Original geschrieben von reunion
Aber nicht so schön wie auf einer Radeon >=8500 :naughty:

Wüsste nicht was da anders ein sollte.

betasilie
2004-02-22, 18:26:03
Original geschrieben von aths
Eine deutlich schnellere Graka auf 2.0-Niveau hätte es anstelle der 9800 geben können. Aber jetzt den anderen das technische Feld überlassen? Wenn ATI erst mit 4.0 wieder einsteigen will, gute Nacht.
Sehe ich nicht als zwingend an. Es wird 2004 kaum Spiele geben, die 3.0Shader unterstützen werden und das eigentliche Zudpferd wird die Geschwindigkeit bei Spielen mit 2.0Shadern sein. Wenn ATI da richtig vorlegt, wird nVs 3.0-Shader-Marketing ganz schnell ein Rohrkrepierer.

Der R500 könnte imho sehr wohl ein Shader4.0Chip werden, die Frage ist einfach nur wann DX-Next kommt.

Original geschrieben von aths
Ich würde spekulieren, dass ATIs Versuche mit PS_3_0 ergaben, dass 2.0 schnell genug ist, 3.0 jedoch (auf Smartshader-Basis) nur als Checklist-Feature realisierbar ist.

Ich nehme eher an, dass der R400 komplett frei programmierbar war und somit spricht viele für 4.0Shader beim R500.

reunion
2004-02-22, 18:31:33
Original geschrieben von Demirug
Das wäre auf jeden Fall ein Problem von ATI. Vorallem weil der normale Anwender in einem solchen Fall sich einfach denkt die Karte ist eben einfach schneller. Technische Details interesieren da nicht sonderlich.

Hmm, da stellt sich mir nur die Frage ob man PS3.0 schon benötigt?
Selbst aktuellste Spiele wie Far Cray(Demo) haben bei meinem R300 eine Durchschnittliche PS2.0 Länge von 24 Anweisungen was ja beiweiten nicht die maximale Länge ist...
Für was brauch ich dann über 512 Anweisungen??

reunion
2004-02-22, 18:35:08
Original geschrieben von Korak
Wüsste nicht was da anders ein sollte.

Naja, auf PS1.4 Karten sieht man Max sowie die Umgebung im Spiegel, wenn man sich davorstellt, Karten die dass nicht beherrschen zeigen immer diegleiche "spiegelung".

AlfredENeumann
2004-02-22, 18:36:42
Original geschrieben von AiS|Gil-galad
1600 dürfte IMO kein 17" schaffen bei mindestens 75/85 Hz.


Geben tuts die schon, nur sind die leider nicht so weit verbreitet.

Korak
2004-02-22, 18:37:08
Original geschrieben von reunion
Naja, auf PS1.4 Karten sieht man Max sowie die Umgebung im Spiegel, wenn man sich davorstellt, Karten die dass nicht beherrschen zeigen immer diegleiche "spiegelung".

Ich sehe ebenfalls Max und Umgebung. Das ist ja das komische. Ich sehe ihn wie er sich bewegt etc. alles (imo alles :D) da.

Nen Screenie kann ich leider nicht bringen, habe die Karte nicht mehr im Rechner.

betasilie
2004-02-22, 18:37:35
Original geschrieben von Leonidas
Gerade der OEM-Markt ist dafür berüchtigt, Checklisten abzuarbeiten und danach zu urteilen. Warum werden denn so viele FX5200 abgesetzt? Weil die Karte in irgendeiner Form schnell unter DX9 oder auch ganz allgemein schnell wäre? Mitnichten!
Und warum wurden die GF4MX solange verbaut von den OEMs. :???:

Die OEMs verbauen das wonach der Markt schreit; im Falle der GF4MX war es das "GF4", die Kleingkeit mit dem "MX" hat niemanden gestört.
Wenn ATIs Highend-Karte bei den NextGen-Spielen, die ja fast ausnahmslos erstmal nur Shader2.0 unterstützen werden, die NV-Karten ordentlich schlägt, wird sich dieses Image auch im OEM-Markt niederschlagen. ... Das Image "schnelles DX9" ist imo besser zu vermarkten, als irgendein konfuser "Shader3.0" und das Image langsamer bei DX9-Spielen zu sein.

Edit:
Ansonsten ein Artikel wie ich ihn mag. Da vergebe ich dann auch gerne den Ausfall der News. ;)

Demirug
2004-02-22, 18:45:01
Original geschrieben von reunion
Hmm, da stellt sich mir nur die Frage ob man PS3.0 schon benötigt?
Selbst aktuellste Spiele wie Far Cray(Demo) haben bei meinem R300 eine Durchschnittliche PS2.0 Länge von 24 Anweisungen was ja beiweiten nicht die maximale Länge ist...
Für was brauch ich dann über 512 Anweisungen??

Für Branching. Dabei wird ja nur ein Teil der bis zu 512 Anweisungen ausgeführt. Eine 2.0 Hardware muss alle Anweisungen ausführen und braucht dann noch zusätzliche um das richtige Ergebniss zu wählen. Eine 3.0 wählt den richtige Pfad und führt nur die notwendigen Anweisungen aus.

Wo du aber gerade von Farcry redest. Dort gibt es Shader mit Texkill. Eine 3.0 Hardware kann Pixel bei denen das texkill wirkt in einem Takt rauswerfen und Platz für neue schaffen.

reunion
2004-02-22, 18:50:43
Original geschrieben von Korak
Ich sehe ebenfalls Max und Umgebung. Das ist ja das komische. Ich sehe ihn wie er sich bewegt etc. alles (imo alles :D) da.

Nen Screenie kann ich leider nicht bringen, habe die Karte nicht mehr im Rechner.

Okay, dann weiss ich auch nicht...
Hast wohl einfach glück gehabt :D

Gast
2004-02-22, 19:07:37
Hi

Und alle Jahre wieder....

Jetzt kommt wieder die Diskussion welches es schon mal gegeben hat.
T&L....


Ich empfinde den Schritt von ATi nicht als Nachteil, schliesslich hat es einfach keinen Sinn Sachen zu implementieren welche nicht "notwendig" sind.

In meine Augen gibt es noch nichteinmal Games mit einer vernünftigen PS 1.1-1.3 implementierung, geschweige von PS2.0.
Das was bis jetzt am Markt ist, ist noch weit weg vom Realismus.
Die Technologiesprünge machen einfach keinen Sinn wenn diese aus Zeitgründen nicht verwendet werden.
Ein Spiel zu entwickeln kostet massig Zeit und wenn jedes Jahr eine neue PS Version rauskommt, na dann gute Nacht.


Lieber vernünftig die Karten mal optimieren und erst dann auf den nächsten Techlevel gehen.

Gruss Labberlippe

deekey777
2004-02-22, 19:11:38
Zu MP2: http://www.hardocp.com/article.html?art=NTUyLDU=

Hier gibt es einige Screenshots auf 4600&8500. Die PS 1.4 Unterstützung der >= 8500/FX-Serie bringt etwas mehr als nur richtige Spiegelbilder. Aber genug OT.


Vielleicht wissen die Leute von ATi genau, was sie tun und bringen deswegen dem R420 keine PS3.0 Unterstützung bei. Wer sagt aber, dass die PS3.0 Unterstützung der Konkurrenz so gut ist, wie es bei der PS 2.0 Leistung einer 9700 (der ersten DX9-Karte) vor mehr als einem Jahr war?

LovesuckZ
2004-02-22, 19:37:11
Original geschrieben von Gast
ich empfinde den Schritt von ATi nicht als Nachteil, schliesslich hat es einfach keinen Sinn Sachen zu implementieren welche nicht "notwendig" sind.

Nun, was ist denn notwendig? Genau das, was ATi macht? Ich moechte keinen Stillstand, nirgendwo.
Jedoch scheinen einige lieber schnell zu sein und in spaeter Zeit wieder Fluchen zu koennen, warum es keine keine "vernünftigen PS 1.1-1.3 implementierung" gaebe...

Die Technologiesprünge machen einfach keinen Sinn wenn diese aus Zeitgründen nicht verwendet werden.

*Überleg*
Wenn wir erst jetzt PS2.0/VS2.0 faehige Hardware haetten, wann waere denn TR6 herausgekommen? Naechstes Jahr? Wahrscheinlich.
Das sagt uns nun, dass wir entweder auf einem "veralterten" Level weilen koennen oder gleich einen Schritt weiter gehen. Anscheinend sind aber die Leute, die vor einem jahr so erfreut über neues waren diesmal sehr konservativ, wie der Wind...

Ein Spiel zu entwickeln kostet massig Zeit und wenn jedes Jahr eine neue PS Version rauskommt, na dann gute Nacht.

Und je eher der technologische Hardwarelevel da ist, umso früher koennen wir uns daran erfreuen. Oder siehst du es anders?
Nunja, wahrscheinlich spielen dann bald viele Fanatiker die PS/VS3.0 games mit einem High End CPU, Software sei dank *eg*

Dürrenmatt sagt so schoen, dass die Welt widersprüchlich, aber insbesondere widersinnig sei. Ich verstehe es langsam...

Gil-galad
2004-02-22, 19:43:37
Original geschrieben von LovesuckZ
Und je eher der technologische Hardwarelevel da ist, umso früher koennen wir uns daran erfreuen. Oder siehst du es anders?
Nunja, wahrscheinlich spielen dann bald viele Fanatiker die PS/VS3.0 games mit einem High End CPU, Software sei dank *eg*

Dürrenmatt sagt so schoen, dass die Welt widersprüchlich, aber insbesondere widersinnig sei. Ich verstehe es langsam...

Erstmal braucht man die entsprechende Hardware-Basis. Und nur die wenigsten werden sich einen NV40 holen. Die meisten User kaufen Komplettrechner mit pseudo-DX9 Karten wie der FX5200 oder DX8 Karten wie der 9000/9200. Deshalb macht es innerhalb des nächsten 3/4 Jahres überhaupt keinen Sinn, entsprechende PS3.0 Spiele zu veröffentlichen. Vermutlich wird die Basis an PS3.0 Hardware sowieso erst in 1 - 1m5 Jahren soweit sein.

LovesuckZ
2004-02-22, 19:47:22
Original geschrieben von AiS|Gil-galad
Erstmal braucht man die entsprechende Hardware-Basis.

Ist schwer diese zu bekommen, wenn PS3.0/VS3.0 nicht "notwendig" seien...

Und nur die wenigsten werden sich einen NV40 holen.

Neuste Technik kommt zu erst im High End Bereich. Das war immer so und das wird immer so bleiben.

Deshalb macht es innerhalb des nächsten 3/4 Jahres überhaupt keinen Sinn, entsprechende PS3.0 Spiele zu veröffentlichen.

TR:6 oder Halo waeren deiner Meinung auch unsinnig, da die Hardwarebasis kaum groeßer war wie es mit Ps/VS3.0 in einen 3/4 Jahr sein werde.

deekey777
2004-02-22, 19:55:05
Wozu VS3.0/PS3.0-Unterstützung, wenn es noch nicht sicher ist, ob es auch die passende Software dafür geben wird? Vielleicht hat ATi aus DX8.1&PS1.4 gelernt, dass nicht alles, was machbar ist, auch geichzeitig nötig sein muss. Bei PS 1.4 hat es schon gedauert, bis ein Spiel herauskam, welches PS 1.4 richtig umsetzt (bestes Beispiel MP2). Allein von den kommenden PS3.0 Tech-Demos/Benchmarks wird doch keiner glücklich.

LovesuckZ
2004-02-22, 19:56:59
Original geschrieben von deekey777
Wozu VS3.0/PS3.0-Unterstützung, wenn es noch nicht sicher ist, ob es auch die passende Software dafür geben wird?

Für die Verfechter, der "ist nicht notwenig" Fraktion: Koennt ihr mir mal erklaeren, wann es denn notwendig ist? Was ist denn der richtige Zeitpunkt für PS3.0/VS3.0?

Sphinx
2004-02-22, 19:58:57
Naja die Eigentliche Frage sollte heissen :

Was an neuen FEATURES wird mit PS3.0 eingeläutet werden...die PS2.x Shader nicht besitzen können...
---
oder handelt es sich wie beim PS1.4 um nur Resourcensparende Maßnahmen...und wenn da NVidia wirklich hinterherhinkt in aktuellen PS2.x Spielen als der R420 na ich denke dann ists wirklich krazz ein armutszeugnis und die PS3.0 Shader werden wie die PS2.x Shader des Nv30 schlecht geredet...
---

Edit: Achja ein "NEUES DirectX 9.x" wird es nicht geben. PS3.0 (oder doch bekannt als PS2.x +) Elemente Ob vollständig oder nicht ist in den Runtimes des aktuellen DX9.0b integriert... - DirectX 10 wird PS4.0 Shader einführen.

Gast
2004-02-22, 19:59:31
Original geschrieben von Demirug
Für Branching. Dabei wird ja nur ein Teil der bis zu 512 Anweisungen ausgeführt. Eine 2.0 Hardware muss alle Anweisungen ausführen und braucht dann noch zusätzliche um das richtige Ergebniss zu wählen. Eine 3.0 wählt den richtige Pfad und führt nur die notwendigen Anweisungen aus.

Wo du aber gerade von Farcry redest. Dort gibt es Shader mit Texkill. Eine 3.0 Hardware kann Pixel bei denen das texkill wirkt in einem Takt rauswerfen und Platz für neue schaffen.

Wäre es theortesich denkbar, dass der R420 diese Option trotzdem unterstützt???

Demirug
2004-02-22, 20:18:32
Original geschrieben von Gast
Wäre es theortesich denkbar, dass der R420 diese Option trotzdem unterstützt???

Theoretisch denkbar ja aber die Wahrscheinlichkeit dafür halte ich für sehr gering.

Gast
2004-02-22, 20:20:06
Hi

Nun, was ist denn notwendig? Genau das, was ATi macht? Ich moechte keinen Stillstand, nirgendwo.
Jedoch scheinen einige lieber schnell zu sein und in spaeter Zeit wieder Fluchen zu koennen, warum es keine keine "vernünftigen PS 1.1-1.3 implementierung" gaebe...


Erkläre mir warum es notwendig ist jetzt PS3 zu implementieren wenn noch nichteinmal PS2 vernünftig implementiert ist.

Es gibt in den jetzigne Games weder vernünftige PS1.1 - 1.4 Effekte.
Von PS2.0 mal abgesehen.
Ich habe das Gefühl das einige wieder mit den Lobeshymnen anfangen für Effekte die nichteinmal angeboten werden.


*Überleg*
Wenn wir erst jetzt PS2.0/VS2.0 faehige Hardware haetten, wann waere denn TR6 herausgekommen? Naechstes Jahr? Wahrscheinlich.
Das sagt uns nun, dass wir entweder auf einem "veralterten" Level weilen koennen oder gleich einen Schritt weiter gehen. Anscheinend sind aber die Leute, die vor einem jahr so erfreut über neues waren diesmal sehr konservativ, wie der Wind...


Du meinst aber nicht im ernst das TR6 Vorteile für PS 2.0 zeigt.
Ich habe noch nichteinmal im Games ähnliche Effekte gesehen wie in der Nature Scene vom 3DMark.
Wenn ich heute mir die Nature Scene vom 3DMark ansehe, dann frage ich mich noch immer wo die "alten" PS Effekte bleiben.

Ich persönlich freue mich immer über neue Effekte nur was nützt das wenn es in der Realität nichteinmal einen Hauch von Umsetzung gibt.


Und je eher der technologische Hardwarelevel da ist, umso früher koennen wir uns daran erfreuen. Oder siehst du es anders?
Nunja, wahrscheinlich spielen dann bald viele Fanatiker die PS/VS3.0 games mit einem High End CPU, Software sei dank *eg*


Nochmal, auch ich bin froh das neue Techlevels entwickelt werden, nur was nützt mir jedes Jahr ein neuer PS Effekt wenn die Spiele Hersteller 3 Jahre für ein Game brauchen.
Die Scripts für eine vernünftige KI sind noch nichteimal fertig schon muss eine neue Karte getestet werden.
Wenn ich daran denke wieviele Games schon beim erscheinen Fehlerhaft sind dann bin ich aber über einen "Techstopp" froh.
Nehmen wir z.B Doom3 her.
Wenn JC jetzt noch auf PS 3.0 warte dann kommt das Spiel erst 2006 raus......

Grob gesagt es ist noch nichteimal DX 8 vernünftig implementiert alles hat es keinen Sinn jetzt gleich die übernächste Version zu nutzten.

Ich hoffe Du kommst mit meinen Grundgedanken mit worauf ich hinaus will.

Ich sehe das so wie ich es damals bei T&L gesehen habe.
Damals war ich auch der Meinung das man lieber auf FSAA (V5) setzen sollte als sofort auf T&L wo einige "Experten" schon der Meinung waren das die DX7 T&L nicht wirklich etwas bringt solange es frei programmierbar ist.

So ähnlich sehe ich es auch.
Jetzt auf PS3.0 zu gehen halte ich nicht für direkt sinnvoll, lieber sollen ATI und nVIDIA zusehen das die Bildqualität gesteigert wird.
Freilich kann man versuchen mit anderen Effekten die BQ steigern nur wenn ich sehe wie die Performance bei FSAA und "lehrbuch" AF in die Knie geht dann sollte mal hier mehr gemacht werden.

Gruss Labberlippe

reunion
2004-02-22, 20:23:50
Original geschrieben von deekey777
Vielleicht wissen die Leute von ATi genau, was sie tun und bringen deswegen dem R420 keine PS3.0 Unterstützung bei.

Das glaube ich wiederrum nicht, der R400 war ursprünglich 100%ig als PS3.0 Chip geplant nur war das Projekt offensichtlich zu ehrgeizig und wurde eingestellt. Dadurch hatte man nicht mehr die Zeit einen neuen PS3.0-Chip zu entwickeln und so stellte sich wohl die Frage entweder saulangsamer PS3.0 Support oder gar keiner...

Gast
2004-02-22, 20:29:07
Original geschrieben von reunion
Das glaube ich wiederrum nicht, der R400 war ursprünglich 100%ig als PS3.0 Chip geplant nur war das Projekt offensichtlich zu ehrgeizig und wurde eingestellt. Dadurch hatte man nicht mehr die Zeit einen neuen PS3.0-Chip zu entwickeln und so stellte sich wohl die Frage entweder saulangsamer PS3.0 Support oder gar keiner...

Hi

Das ist aber für mich auch ein Zeichen das man erkannt hat das es nicht immer unbedingt ein neues Feature sein muss.

Für mich heist ein besserer Techlevel nicht das immer neue Effekte angeboten werden müssen, sondern das auch der jetzige Stand der Technik optimiert wird.

Gruss Labberlippe

betasilie
2004-02-22, 20:37:14
Original geschrieben von LovesuckZ
Für die Verfechter, der "ist nicht notwenig" Fraktion: Koennt ihr mir mal erklaeren, wann es denn notwendig ist? Was ist denn der richtige Zeitpunkt für PS3.0/VS3.0?
Komisch. Bei den PS1.4, welche technologisch sicherlich intertessant waren, hast Du immer gesagt, dass es niemand braucht. Bei Trueform ebenfalls.

Zu deiner Frage:
Ich stelle einfach mal die These auf, das Shader3.0 niemals in Spielen eine große Verbreitung finden wird. Die Spieleentwickler werden sicherlich ihre Recourcen auf richtig gute Shader2.0-Nutzung ausrichten, welche ja die Basis für DX9 ist. Shader3.0 werden wahrscheinlich ein ähnliche Bedeutung bekommen wie PS1.4; einige Games werden irgendwann ab Anfang 2005 optional einige wenige PS3.0-Effekte anbieten, aber mehr auch nicht. Ich wette drauf, dass es niemad wirklich zwingend erforderlich sein wird eine Shader3.0-fähige Karte zu haben. ... Den nächste essentielle Entwicklungssprung werden die Shader4.0 darstellen.

LovesuckZ
2004-02-22, 20:38:08
Original geschrieben von Gast
Erkläre mir warum es notwendig ist jetzt PS3 zu implementieren wenn noch nichteinmal PS2 vernünftig implementiert ist.

PS2.0 ist doch schon "vernünftig implementiert".

Es gibt in den jetzigne Games weder vernünftige PS1.1 - 1.4 Effekte.

:???:
Aquanox, Spellforce und andere Spiele bieten doch PS1.1 - 1.4 effekte.
Dpch warum gibt es davon zu wenige? Eventuell, weil die Hardwarebasis nicht da war, weil eben viele Hersteller so denken wie du?
Warum regst du dich darueber auf, ist dies doch genau das, was du als "richtig" hinstellst: Warten!

Du meinst aber nicht im ernst das TR6 Vorteile für PS 2.0 zeigt.

Es benuetzt PS2.0. Ohne Hardware keine Spiele.

Ich persönlich freue mich immer über neue Effekte nur was nützt das wenn es in der Realität nichteinmal einen Hauch von Umsetzung gibt.

Einerseits wiederholöst du dich, andererseits beschwerst du dich (ich wiederhole mich) über ein Problem, welches du doch mit deiner konservativen Haltung unterstuetzt.

Nochmal, auch ich bin froh das neue Techlevels entwickelt werden, nur was nützt mir jedes Jahr ein neuer PS Effekt wenn die Spiele Hersteller 3 Jahre für ein Game brauchen.

So, also sollen wir jetzt noch 1 1/2 Jahre mit PS3.0/VS3.0 Hardware warten, bis die Entwickler, welche vor 1 1/2 Jahren angefangen haben zu entwickeln weiter machen koennen und wir dann in 4 1/2 Jahren PS/VS3.0 in Spielen "zu Gesicht" bekommen? Nun, eine sehr gute Meinung...

Den Rest spar ich mir, meine Frage steht immer noch. Um eine Beantwortung bin ich dankbar.

Doc PeWe
2004-02-22, 20:40:01
RV420 :chainsaw: NV40

reunion
2004-02-22, 20:40:46
Original geschrieben von Gast
Hi

Das ist aber für mich auch ein Zeichen das man erkannt hat das es nicht immer unbedingt ein neues Feature sein muss.

Für mich heist ein besserer Techlevel nicht das immer neue Effekte angeboten werden müssen, sondern das auch der jetzige Stand der Technik optimiert wird.

Gruss Labberlippe

Klar, dass Problem dabei ist nur dass sich ein technologisch besserer Chip zum einen besser Vermarkten lässt und zum anderen auch eine gewisse überlegenheit assoziirt.

Hinzu kommen noch einige syntetische-Benchs wie der 3Dmark usw. die nur mit 3.0 Shadern laufen werden und dadurch bei Hardware die dass nicht unterstützt natürlich nicht läuft bzw. niedrigere Punkte ausspucken wird. Was den Ottonormalverbraucher natürlich ganz klar die Vorteile der "überlegenen" Technologie zeigt(auch wenn diese in richtigen Spielen vermutlich kaum benutzt wird)...

LovesuckZ
2004-02-22, 20:43:56
Original geschrieben von betareverse
Komisch. Bei den PS1.4, welche technologisch sicherlich intertessant waren, hast Du immer gesagt, dass es niemand braucht. Bei Trueform ebenfalls.

Aeh, noe, eigentlich nicht...

Zu deiner Frage:
Ich stelle einfach mal die These auf, das Shader3.0 niemals in Spielen eine große Verbreitung finden wird. Die Spieleentwickler werden sicherlich ihre Recourcen auf richtig gute Shader2.0-Nutzung ausrichten, welche ja die Basis für DX9 ist.

Dank Hochsprachen sehe ich hier kein Problem einfach mal den, aeh, PS3.0 Compiler rueberlaufen zu lassen.

Shader3.0 werden wahrscheinlich ein ähnliche Bedeutung bekommen wie PS1.4;

So wie ich es mitbekomme, seien sie einfacher zu erstellen. Somit besteht hier schonmal ein deutlicher Unterschied. Andererseits will XGI im laufe des Jahres ebenfalls mit PS/VS3.0 kommen, somit sehe ich hier eine deutlich groeßere Verbreitung. Und die Mid/Low Range Abkömmlinge von nvidia sichern den Entwicklern eine kleine Basis.


Den nächste essentielle Entwicklungssprung werden die Shader4.0 darstellen.

Bis dahin vergeht noch eine gewisse Zeit. Und bis es mal so weit sein wird, ist die Verbreitung von PS/VS3.0 hardware deutlich angewachsen.

Quasar
2004-02-22, 20:48:10
Original geschrieben von AiS|Gil-galad
Naja die heutigen Spiele nutzen PS2.0 kaum und wenn, dann wohl eher spärlich. ich spreche hier aber von "exzessiven" PS2.0 Einsatz. Und da könnte die 9800 auch an Ihre Grenzen stoßen ;)

Oh-oh. Wenn du dich damit mal nicht als nVidiot outest. Ist ja schon des Öfteren vorgekommen, wenn man wagte, an der Tauglichkeit der R9800 für "echte" DX9-Games zu zweifeln... *shrugs*

Original geschrieben von deekey777
@Demirug:
1. HL2 kann PS 3.0 benutzen (wenn man es bittet)?
2. Noch ein Renderpfad (NV4x) für Doom 3 - das Spiel kommt dann nie!!!
So wurde mal behauptet...
JC gab mal an, ein Renderpfad dauere etwa ein Wochenende...

Original geschrieben von MadMan2k
dann passt es aber nicht mehr als Beispiel für ein Spiel, welches PS pusht, denn die Entwickler haben die kelinste PS Version genommen, die für den Effekt nötig ist.
Und da PS 3.0, soweit ich verstanden habe, keine Effekte ermöglicht, die nicht auch mit PS 2.0 gehen würden...

Spiegelungen habe ich sogar schon zu DX7-Zeiten gesehen, wenn nicht gar mit DX6. :gruebel: Aber wer keine 3.0-Shader haben will, der braucht doch bloß ATi kaufen.

Original geschrieben von AiS|Gil-galad
Erstmal braucht man die entsprechende Hardware-Basis. Und nur die wenigsten werden sich einen NV40 holen. Die meisten User kaufen Komplettrechner mit pseudo-DX9 Karten wie der FX5200 oder DX8 Karten wie der 9000/9200. Deshalb macht es innerhalb des nächsten 3/4 Jahres überhaupt keinen Sinn, entsprechende PS3.0 Spiele zu veröffentlichen. Vermutlich wird die Basis an PS3.0 Hardware sowieso erst in 1 - 1m5 Jahren soweit sein.

Henne-Ei Problem, meinst du nicht? Hätten wir heute evtl. noch 16Bit-Rendering als Standard mit 22Bit-Postfilter und 512x512-Texturen als adressierbares Maximum? Mehr braucht ja keiner...

Original geschrieben von betareverse
Komisch. Bei den PS1.4, welche technologisch sicherlich intertessant waren, hast Du immer gesagt, dass es niemand braucht. Bei Trueform ebenfalls.

Zu deiner Frage:
Ich stelle einfach mal die These auf, das Shader3.0 niemals in Spielen eine große Verbreitung finden wird. Die Spieleentwickler werden sicherlich ihre Recourcen auf richtig gute Shader2.0-Nutzung ausrichten, welche ja die Basis für DX9 ist. Shader3.0 werden wahrscheinlich ein ähnliche Bedeutung bekommen wie PS1.4; einige Games werden irgendwann ab Anfang 2005 optional einige wenige PS3.0-Effekte anbieten, aber mehr auch nicht. Ich wette drauf, dass es niemad wirklich zwingend erforderlich sein wird eine Shader3.0-fähige Karte zu haben. ... Den nächste essentielle Entwicklungssprung werden die Shader4.0 darstellen.

Shader 1.4 und TruForm mussten, wenn sie entweder was bringen oder zumindest fehlerfrei laufen sollten, "zu Fuß" in die Spiele reinprogrammiert werden. Zur Erinnerung: Eine HLSL gab es damals noch nicht, genausowenig, wie einen Shadercompiler. Für TruForm musste sogar die Geometrie von vornherein ausgelegt sein, wenn man ein fehlerfreies Ergebnis garantieren wollte.
Bei 3.0-Shadern scheint da doch ein fundamentaler Unterschied zu sein... oder fällt nur mir das auf? :gruebel:

Gast
2004-02-22, 20:50:50
PS2.0 ist doch schon "vernünftig implementiert".
Hi

Wo ???



:???:
Aquanox, Spellforce und andere Spiele bieten doch PS1.1 - 1.4 effekte.
Dpch warum gibt es davon zu wenige? Eventuell, weil die Hardwarebasis nicht da war, weil eben viele Hersteller so denken wie du?
Warum regst du dich darueber auf, ist dies doch genau das, was du als "richtig" hinstellst: Warten!

Ja die bieten Effekte nur die meisten sehen dadurch nicht besser aus sonderen beschleunigen die Games.
Es hat nur einen Sinn wenn es wirklich eine Steigerung gibt und ich glaube nicht das PS3 grafisch eine Steigerung ist.
Es wird nichteinmal PS1.4 oder PS2.0 "vernünftig" umgesetzt.
Das was Doom3 z.B steigern wird ist in meine Augen Bump Mapping.... (Freilich besser durch PS implementierbar nur)

Du drehst mir die Worte um LS ich sage nicht das man warten soll sondern das man abschätzen soll was mehr bringt.
Es hat keinen Sinn jetzt PS3.0 zu nutzen wenn PS2.0 nicht genützt wird.
Das was bis jetzt von PS2.0 verwendet wird, sind blanke Spielereien.



Es benuetzt PS2.0. Ohne Hardware keine Spiele.


Wirklich ???

TR6 sieht z.B mit PS2.= nicht besser oder schlechter aus als mit PS1.1 oder 1.4 und nein für TR6 brauche ich keine PS2.0 Karte.


Einerseits wiederholöst du dich, andererseits beschwerst du dich (ich wiederhole mich) über ein Problem, welches du doch mit deiner konservativen Haltung unterstuetzt.

Wenn Du versuchst mein Posting zu verstehen und Deine Brille mal abnimmst dann wirst Du festellen das ich mit neuer Technologie kein Problem habe.
Ich habe nur dann ein Problem wenn ich sehe das verzweifelt versucht wird etwas neues zu bringen wo "kein" Bedarf ist.
Verstehe mich nicht falsch nur für was PS3.0 wenn PS2.0 noch nichteinmal anähernd an der Grenze ist.


Gruss Labberlippe

Gast
2004-02-22, 20:52:40
Original geschrieben von reunion
Klar, dass Problem dabei ist nur dass sich ein technologisch besserer Chip zum einen besser Vermarkten lässt und zum anderen auch eine gewisse überlegenheit assoziirt.

Hinzu kommen noch einige syntetische-Benchs wie der 3Dmark usw. die nur mit 3.0 Shadern laufen werden und dadurch bei Hardware die dass nicht unterstützt natürlich nicht läuft bzw. niedrigere Punkte ausspucken wird. Was den Ottonormalverbraucher natürlich ganz klar die Vorteile der "überlegenen" Technologie zeigt(auch wenn diese in richtigen Spielen vermutlich kaum benutzt wird)...

Hi

Ist mir schon klar, nur reagiert hier bei mir die vernunft.
Es ist zwar schön immer neue Techdemos zu bewundern nur wenn die Praxis lahmt dann nutzt mir die neuere Technik wenig.

Ansonsten volle zustimmung.

Gruss Labberlippe

betasilie
2004-02-22, 20:57:08
Original geschrieben von LovesuckZ
Aeh, noe, eigentlich nicht...



Dank Hochsprachen sehe ich hier kein Problem einfach mal den, aeh, PS3.0 Compiler rueberlaufen zu lassen.



So wie ich es mitbekomme, seien sie einfacher zu erstellen. Somit besteht hier schonmal ein deutlicher Unterschied. Andererseits will XGI im laufe des Jahres ebenfalls mit PS/VS3.0 kommen, somit sehe ich hier eine deutlich groeßere Verbreitung. Und die Mid/Low Range Abkömmlinge von nvidia sichern den Entwicklern eine kleine Basis.




Bis dahin vergeht noch eine gewisse Zeit. Und bis es mal so weit sein wird, ist die Verbreitung von PS/VS3.0 hardware deutlich angewachsen.
Deine Argumente sind sicherlich auch gut. Der Punkt ist aber, dass sich viele Leute, die allesamt mehr Ahnung als wir haben, darüber streiten, ob und wann Shader3.0 wirklich Relevanz in Spielen erlangen werden. Das zeigt, dass das Thema nicht so einfach abzuhaken ist.

Ein ganz wichtiger Punkt ist der Release von DX-Next. Wann das kommt weiß wohl kaum einer. Jedenfalls sehe ich für 2004 für ATI keinen Nachteil ohne 3.0Shader-Support, weil einfach keine Software kommen wird, die durch Shader3.0 einen "Oho-Effekt" hinterlassen wird. ... Wenn dann frühestens irgendwann 2005 ggf. Spiele verstärkt Shader3.0 unterstützen, wird ATI den R500 auf dem markt haben.

Vielleicht hat dann NV den Vorteil für sich, weil sie schon so früh Shader3.0-Chips auf dem Markt gebracht haben, aber dann muss man auch erstmal abwarten, wie die Performance bei den jeweiligen Anwendungen ist.

DX-Next wird u.U. irgendwann 2005 kommen. Dementsprechend wäre es für ATI ggf. nicht unklug gleich eine GPU zu präsentieren, die Shader4.0 unterstützt und bei den 3.0Shadern auch gut performt. Dann hätte man keine unnötige Investion gemacht für die ggf. kurzlebige, aber teure Shader3.0-Technolgie.

LovesuckZ
2004-02-22, 21:01:35
Original geschrieben von Gast
Hi
Wo ???

r300.

Ja die bieten Effekte nur die meisten sehen dadurch nicht besser aus sonderen beschleunigen die Games.

Durch das Beschleunigen kann man aber mehr Effekte benutzen, da zusaetzliche Rechenleistung vorhanden ist.

Es hat nur einen Sinn wenn es wirklich eine Steigerung gibt und ich glaube nicht das PS3 grafisch eine Steigerung ist.

Eine Steigerung wirst du mit PS3.0 nicht bekommen. Aber es lassen sich dadurch (eben wie bei DX8) Anweisungen, ganze Shader "vereinfachen" und somit Rechenleistung sparen. Es ist ehrlich egal, ob Brute - Force oder mit Koepfchen. Wobei mit es mit DM doch eigentlich eine Bildqualitaetsteigende Option gibt.

Du drehst mir die Worte um LS ich sage nicht das man warten soll sondern das man abschätzen soll was mehr bringt.

Ich drehe dir keine Worte um. Du kritisiert die Entscheidung für PS/VS3.0, weil sich kaum einer die Hardware leisten koenne. Gleichzeitig sei aber eine gleichteure, aber "nur" PS2.x Hardware besser, da diese PS2.0 schneller berechnen werde. Nun, wo ist der Sinn? Koennen sich diese Hardware nun mehr Leute leisten? Eher nicht. Wir bewegen uns nicht vorwaerts, maximal zur Seite...

Es hat keinen Sinn jetzt PS3.0 zu nutzen wenn PS2.0 nicht genützt wird.
Das was bis jetzt von PS2.0 verwendet wird, sind blanke Spielereien.

Beschwere dich bei ATi. Nvidia hat im Low End PS/VS2.0. Mehr koennen sie nicht tun.
Ausserdem, wann wurde denn eine neue "Technologie" schneller als DX9 umgesetzt? TR:6 kam 3/4 Jahr nach dem r300, zwischen Commanche und GF3 lag imo ein ganzes Jahr.

Ich habe nur dann ein Problem wenn ich sehe das verzweifelt versucht wird etwas neues zu bringen wo "kein" Bedarf ist.

Ein Bedarf bestünde auch nicht an PS2.0, da

[...] [PS1.1] noch nichteinmal anähernd an der Grenze ist.

Gil-galad
2004-02-22, 21:03:04
Original geschrieben von Quasar
Oh-oh. Wenn du dich damit mal nicht als nVidiot outest. Ist ja schon des Öfteren vorgekommen, wenn man wagte, an der Tauglichkeit der R9800 für "echte" DX9-Games zu zweifeln... *shrugs*

Lol. Ich bin Realist. Sicherlich bevorzuge ich mehr die Underdogs (ATi und AMD), aber weltfremd wie einige hier (;)) bin ich nicht.




Henne-Ei Problem, meinst du nicht? Hätten wir heute evtl. noch 16Bit-Rendering als Standard mit 22Bit-Postfilter und 512x512-Texturen als adressierbares Maximum? Mehr braucht ja keiner...

Trotzdem muss nunmal erst die entsprechende Basis da sein. Ohne die rechtfertigt es den "Mehraufwand" nicht. Sicherlich kann man sich jetzt streiten, ob es einen Mehraufwand braucht oder nicht.

IMO sollte man erstmal anfangen DX8 (PS1.1 - 1.4) richtig auszuschöpfen. Was nützen einem PS2.0 und 3.0, wenn die langsam sind? Ich würde gerne mal ein "richtiges" DX8 Spiel sehen.

Exxtreme
2004-02-22, 21:03:10
@ Leonidas

Hast du irgendwelche Infos über die Vertexshader-Versionen?

Demirug
2004-02-22, 21:10:34
Original geschrieben von AiS|Gil-galad
Trotzdem muss nunmal erst die entsprechende Basis da sein. Ohne die rechtfertigt es den "Mehraufwand" nicht. Sicherlich kann man sich jetzt streiten, ob es einen Mehraufwand braucht oder nicht.

PS 3.0 Nutzung zur Beschleunigung eines 2.0 Shader = 0 Mehraufwand wenn der Shader als HLSL Code vorliegt.

IMO sollte man erstmal anfangen DX8 (PS1.1 - 1.4) richtig auszuschöpfen. Was nützen einem PS2.0 und 3.0, wenn die langsam sind? Ich würde gerne mal ein "richtiges" DX8 Spiel sehen.

Was zur Hölle erwartet ihr von PS 1.X?

thop
2004-02-22, 21:16:36
Also ich hab mir jetzt nich den ganzen Thread durchgelesen, hauptsächlich weil ein paar Leute hier meinen (Wissens-)Horizont übersteigen. Daher nicht steinigen wenns die Fragen schon gab =)

1.) Wann kann man mit ersten 3.0 Spielen rechnen? Doch wohl nicht vor Weihnachten oder wie sieht das aus.

2.) Sind die 3.0 dann bloss implementiert aber eigentlich total unnutzbar weil die Karte zu schwach ist? So als Analogie zur 5200FX und den 2.0 mein ich das.

Also mir persönlich ist ne schnelle Karte mit 2.0 lieber, damit man mal so richtig schön FC spielen kann ;D Ich denke auch nicht dass die Hersteller die grafischen Möglichkeiten von 2.0 schon ausgereizt haben oder noch dieses Jahr ausreizen werden.

Demirug
2004-02-22, 21:20:01
Das Lustige an dieser ganze Diskussion ist das sie nicht geführt würde wenn beide 3.0 Shader hätten.

IMHO wird man mit einem R420 zu seinen Lebenszeiten im wesentlichen keine optischen Einbussen haben. Abhängig davon wie gut die 3.0 Implementierung von nVidia ist könnte es jedoch zunehmen zu grösseren Performanceunterschieden zugunsten nVidias kommen.

nggalai
2004-02-22, 21:20:48
Original geschrieben von betareverse
Ich stelle einfach mal die These auf, das Shader3.0 niemals in Spielen eine große Verbreitung finden wird. Die Spieleentwickler werden sicherlich ihre Recourcen auf richtig gute Shader2.0-Nutzung ausrichten, welche ja die Basis für DX9 ist.Hint: Unified Shader Compiler. Niemand hat gesagt, dass die Entwickler PS3.0-Shader schreiben müssen, das konvertieren kann ja auch der Treiber übernehmen. ;)

Und wie schon ein halbes Dutzend mal erwähnt wurde: Wenn man eh schon mit HLSL arbeitet, reduziert sich der Aufwand für einen PS3.0-Shader auf einmal Compiler drüberjassen.

Dann kommt noch die Entwicklersituation dazu: Die Leute nehmen sich gerne Karten mitm grösseren Featureset, eben weil die Entwicklung eines Spieles schon 18-36 Monate und drüber dauern kann. War bei der 9700er auch nicht anders. Und einige Entwickler konnten schon seit ein paar Monaten mit NV40 rumspielen. ;)

93,
-Sascha.rb

deekey777
2004-02-22, 21:22:12
TR6 sieht z.B mit PS2.= nicht besser oder schlechter aus als mit PS1.1 oder 1.4 und nein für TR6 brauche ich keine PS2.0 Karte

Ach doch.

Noch ein viel besseres Beispiel: HALO!
Mit -useff: hässlich
Mit -use11: wie auf der X-Box
Mit -use14: allein die getarnten Aliens sehen richtig Klasse aus im Vergleich zu -use11
Mit -use20: Besonders die Library sieht nicht mehr so hässlich aus.

Gil-galad
2004-02-22, 21:22:40
Original geschrieben von Demirug
PS 3.0 Nutzung zur Beschleunigung eines 2.0 Shader = 0 Mehraufwand wenn der Shader als HLSL Code vorliegt.

1. muss er als HLSL Code vorliegen
2. muss man ihn trotzdem compilieren (Mehraufwand) und eventuell anpassen (man weiss ja nie) nur um eventuell ein "paar" NV40-Nutzer zufrieden zu stellen


Was zur Hölle erwartet ihr von PS 1.X?

Irgendwie mehr als bisher ;)

betasilie
2004-02-22, 21:23:35
Original geschrieben von Demirug
Das Lustige an dieser ganze Diskussion ist das sie nicht geführt würde wenn beide 3.0 Shader hätten.

IMHO wird man mit einem R420 zu seinen Lebenszeiten im wesentlichen keine optischen Einbussen haben. Abhängig davon wie gut die 3.0 Implementierung von nVidia ist könnte es jedoch zunehmen zu grösseren Performanceunterschieden zugunsten nVidias kommen.
Und die Frage ist daher wieviel schneller der R420 bei den 2.0Shadern sein wird, um bei zukünftigen Spielen die Performancevorteile durch Passreduktion, die durch die 3.0Shader von NV möglich sind, zu kompensieren; jedenfalls bis zum Release des R500.

thop
2004-02-22, 21:26:28
Könnte es nicht sein dass ATI in ein paar Monaten im Refresh nachträglich 3.0 einbaut? Das wäre doch optimal. Jetzt 2.0 Power wo sie gebraucht wird, und wenn dann die ersten 3.0 Spiele kommen dann ist man auch für 3.0 bereit.

Oder ist das zu groß für einen Refresh, wo normalerweise ja nur Core/Mem erhöht wird.

Demirug
2004-02-22, 21:28:41
Original geschrieben von thop
Also ich hab mir jetzt nich den ganzen Thread durchgelesen, hauptsächlich weil ein paar Leute hier meinen (Wissens-)Horizont übersteigen. Daher nicht steinigen wenns die Fragen schon gab =)

1.) Wann kann man mit ersten 3.0 Spielen rechnen? Doch wohl nicht vor Weihnachten oder wie sieht das aus.

Das könnte sehr schnell gehen weil durchaus einige Spiele mal schnell auf PS 3.0 hochgepatcht werden könnten.

2.) Sind die 3.0 dann bloss implementiert aber eigentlich total unnutzbar weil die Karte zu schwach ist? So als Analogie zur 5200FX und den 2.0 mein ich das.

Eher nicht. Die 3.0 Performance ist aber stark mit der 2.0 Performance gekoppelt.

Also mir persönlich ist ne schnelle Karte mit 2.0 lieber, damit man mal so richtig schön FC spielen kann ;D Ich denke auch nicht dass die Hersteller die grafischen Möglichkeiten von 2.0 schon ausgereizt haben oder noch dieses Jahr ausreizen werden.

Bei 3.0 geht es primär nicht um mehr optische Möglichkeiten sondern darum das gleiche schneller zu erreichen. Also um mehr FPS. Natürlich kann man diese Mehrleistung auch anderweitig nutzen.

Black-Scorpion
2004-02-22, 21:30:28
Irgendwie ist mir das zu hoch.
Bei PS1.4 wurde gesagt das man es nicht braucht da es nur zur Beschleunigeng eingesetzt wird.
Jetzt auf einmal braucht man PS3.0 um genau das mit Ps2.x Shadern zu tun.

thop
2004-02-22, 21:31:31
Original geschrieben von Demirug
Bei 3.0 geht es primär nicht um mehr optische Möglichkeiten sondern darum das gleiche schneller zu erreichen. Also um mehr FPS.
Das ist die Info die mir noch gefehlt hat :)

betasilie
2004-02-22, 21:33:13
Original geschrieben von nggalai
Hint: Unified Shader Compiler. Niemand hat gesagt, dass die Entwickler PS3.0-Shader schreiben müssen, das konvertieren kann ja auch der Treiber übernehmen. ;)

Und wie schon ein halbes Dutzend mal erwähnt wurde: Wenn man eh schon mit HLSL arbeitet, reduziert sich der Aufwand für einen PS3.0-Shader auf einmal Compiler drüberjassen.

Dann kommt noch die Entwicklersituation dazu: Die Leute nehmen sich gerne Karten mitm grösseren Featureset, eben weil die Entwicklung eines Spieles schon 18-36 Monate und drüber dauern kann. War bei der 9700er auch nicht anders. Und einige Entwickler konnten schon seit ein paar Monaten mit NV40 rumspielen. ;)

93,
-Sascha.rb
Aber im Highendbereich behalten die User ihre Karten seltenst 36 Monate, so dass man da eher für die nächsten 1,5 Jahre einkauft. ;)

Und wir müssen jetzt auch mal defnieren, was wir mit PS3.0 Unterstützung meinen. Sicherlich könnte es realtiv schnell durch HLSL Renderpfade für 3.0Shader-Karten geben, die für Geschwindigkeitsvorteile beim gleichen Effekt sorgen. Shader3.0-only-Effekte erwarte ich aber so schnell nicht und das wäre ein echtes Zugpferd. Was den Geschwindigkeitsvorteil der Shader3.0-Karten angeht bei einem Extra-Renderpfad muss man imho erstmal abwarten, wer dann schneller wird. Klar, wenn der NV40 dann schneller wäre, als eine R420, wäre das genial für NV. Die Frage wäre dann, wann und welche Spiele so einen Renderpfad anbieten werden, so dass der NV diesen u.U. vorhanden Performancevorteil auspielen kann.

... Ich glaube diese Fragen sind zum jetzigen Zeitpunkt nicht wirklich zu beantworten.

Demirug
2004-02-22, 21:34:16
Original geschrieben von AiS|Gil-galad
1. muss er als HLSL Code vorliegen
2. muss man ihn trotzdem compilieren (Mehraufwand) und eventuell anpassen (man weiss ja nie) nur um eventuell ein "paar" NV40-Nutzer zufrieden zu stellen

1. Fast jeder schreibt seine Shader inzwischen mit HLSL.

2. Da muss nichts angepasst werden. Das Compilieren macht das Buildtool automatisch nachdem man das einmal eingestellt hat.

Wenn sich Valve den 5 fachen Aufwand macht um die paar NV30/NV35 Nutzer zufrieden zu stellen... ;)

Irgendwie mehr als bisher ;)

Vergiss es. Da kommt nicht mehr.

LovesuckZ
2004-02-22, 21:34:57
Original geschrieben von betareverse
Die Frage wäre dann, wann und welche Spiele so einen Renderpfad anbieten werden, so dass der NV diesen u.U. vorhanden Performancevorteil auspielen kann.


Imo sollte dies auch mit einen Treibercompiler funktionieren. Somit waere dies schonmal halbwegs geloest.

Demirug
2004-02-22, 21:36:32
Original geschrieben von Anonym_001
Irgendwie ist mir das zu hoch.
Bei PS1.4 wurde gesagt das man es nicht braucht da es nur zur Beschleunigeng eingesetzt wird.
Jetzt auf einmal braucht man PS3.0 um genau das mit Ps2.x Shadern zu tun.

Bei PS 1.4 war das Kosten/Nutzen Verhältniss nicht gegeben. Hatte man 1.1 Shader die man mit 1.4 beschleunigen wollte musste man sie defakto neu schreiben.

Bei 2.0 auf 3.0 nimmt man den gleiche HLSL-Sourcecode und compilert einfach nochmal neu.

Gil-galad
2004-02-22, 21:36:37
Original geschrieben von Demirug
1. Fast jeder schreibt seine Shader inzwischen mit HLSL.

2. Da muss nichts angepasst werden. Das Compilieren macht das Buildtool automatisch nachdem man das einmal eingestellt hat.


zu 1. Ok
zu 2. Naja aber kann man durch "manuelles" Optimieren noch etwas erreichen?

betasilie
2004-02-22, 21:37:41
Original geschrieben von LovesuckZ
Imo sollte dies auch mit einen Treibercompiler funktionieren. Somit waere dies schonmal halbwegs geloest.
Ich hoffe für NV, dass das möglich wäre und direkt beim Release des NV40 einen ordentliche Performanceboost bei 2.0-Shader-Spielen geben kann. ... Und mit Treibercompilern haben sie ja schon Erfahrung. ;)

Demirug
2004-02-22, 21:38:44
Original geschrieben von LovesuckZ
Imo sollte dies auch mit einen Treibercompiler funktionieren. Somit waere dies schonmal halbwegs geloest.

Notfalls werden mal wieder Shader ersetzt. nVidia hat da ja schon Erfahrungswerte.

Black-Scorpion
2004-02-22, 21:39:48
Original geschrieben von Demirug
Bei PS 1.4 war das Kosten/Nutzen Verhältniss nicht gegeben. Hatte man 1.1 Shader die man mit 1.4 beschleunigen wollte musste man sie defakto neu schreiben.

Bei 2.0 auf 3.0 nimmt man den gleiche HLSL-Sourcecode und compilert einfach nochmal neu.
Danke.

betasilie
2004-02-22, 21:40:35
Original geschrieben von Demirug
Notfalls werden mal wieder Shader ersetzt. nVidia hat da ja schon Erfahrungswerte.
Und Futuremark wird´s freuen. ;)

Demirug
2004-02-22, 21:41:25
Original geschrieben von AiS|Gil-galad
zu 2. Naja aber kann man durch "manuelles" Optimieren noch etwas erreichen?

Sicherlich kann man Shader schreiben die noch besser Gebrauch von den 3.0 Möglichkeiten machen. Die Mühe werden sich aber nicht alle machen. Aber der Devsupport von nVidia wird dabei sicherlich wieder mal gerne zur Seite stehen.

Quasar
2004-02-22, 21:52:56
Original geschrieben von betareverse
Und Futuremark wird´s freuen. ;)

Wenn sie dann noch nicht völlig bedeutungslos geworden sind. *eg*

betasilie
2004-02-22, 21:57:04
Original geschrieben von Quasar
Wenn sie dann noch nicht völlig bedeutungslos geworden sind. *eg*
Würde mich jedenfalls freuen, denn so schön das ganze auch anzugucken ist, ist diese Form des Benchmarkings bei Reviews leider viel zu gewichtig geworden.

Quasar
2004-02-22, 21:58:49
Full Ack!

Pathfinder
2004-02-22, 21:59:30
Hier wird vielfach die grundsätzliche Annahme getroffen, 3.0 Shader seien spezifikationsbedingt in vielen Fällen schneller als 2.0 Shader und deshalb müssen dies auch auf das Verhältnis NV40/R420 zutreffen, ohne daß über die interne Architektur der beiden Chips nur irgendetwas bekannt geworden ist. Mit 3.0 lassen sich sicher einige wenige in 2004 praxisrelevante Shader eleganter umsetzten als mit 2.0, jedoch kann deshalb unter keinen Umständen eine allgemeine Aussage über die Leistungsfähigkeit beider Architekturen im Verhältnis zueinander getroffen werden, wenn nicht auch die Implementation derselben berücksichtig wird. Es gilt also für eine stichhaltig sachliche Beurteilung der Lage noch weitere zwei Monate zu warten, oder aber die vielen "Milchmädchenrechnungen" dieses Threads als solche auch zu kennzeichnen!

G.
P.

Gast
2004-02-22, 22:04:11
hehe, wir sind doch schon immer im Spekulationsforum ;D

askibo
2004-02-22, 22:19:28
@demirug

Laut Dave Baumann ist texkill schon in PS2.0 enthalten

http://www.beyond3d.com/articles/nv30r300/index.php?p=8#psinstr


Oder meinst du was anderes?


Are you sure that was the right instruction? It seems to be a part of PS2.0: http://www.beyond3d.com/articles/nv30r300/index.php?p=8#psinstr [edit] In fact, according to that, it was only NV30 that didn't / doesn't support TEXKILL specifically. Anyone have any update in that?

Pirx
2004-02-22, 22:20:25
Nuja, es gibt auch noch andere Dinge, als Shader. Wie das alles wirklich zu bewerten ist, werden wir erst in ein paar Monaten glauben zu wissen.

Gast
2004-02-22, 22:36:28
Dieses ganze Shadergelaber wird am Ende eh nicht zu denn wichtigen Punkten gehören,denn die Masse der User wird sich seine Karte entsprechend der Benchmarks kaufen und wenn der R420 oder NV40 20 oder 30 FPS mehr in z.b. Far Cry hat,ist es mir so egal ob es nun 2.0 oder 3.0 Shaders gibt.

Auf Shader 3.0 Techdemos kann ich gut verzichten,wenn die mehr fps stimmen :)

Gast
2004-02-22, 22:36:48
Den Käufer interessiert nur eines,wie schnell ist die Graka in aktuellen Games.

Es wird die Graka gekauft die in UT2004 und Farcry richtig abgeht.Shader ist noch nicht wichtig,jetzt erscheinen gerade mal Spiele die DX 8 voraussetzten und außerdem kommt 2005 schon der R500.
Bis dahin reicht shader 2.0 aus,weil keine Spiele es wirklich nutzen werden.

nggalai
2004-02-22, 22:37:10
Original geschrieben von askibo
@demirug

Laut Dave Baumann ist texkill schon in PS2.0 enthalten

http://www.beyond3d.com/articles/nv30r300/index.php?p=8#psinstr


Oder meinst du was anderes? AFAIK hat schon PS1.1 texkill. Aber mit PS3.0 kann der Shader da schon viel Arbeit sparen.

93,
-Sascha.rb

Demirug
2004-02-22, 22:46:39
Original geschrieben von nggalai
AFAIK hat schon PS1.1 texkill. Aber mit PS3.0 kann der Shader da schon viel Arbeit sparen.

93,
-Sascha.rb

Genau. Bisher rechnen die Shadereinheiten einen Pixel immer zu Ende auch wenn er duch eine texkill Anweisung bereits verworfen wurde. Eine 3.0 fähige Hardware könnte die Berechung sofort abbrechen und mit dem nächsten Pixel weiter machen.

Quasar
2004-02-22, 22:52:13
Original geschrieben von Gast
Es wird die Graka gekauft die in UT2004 und Farcry richtig abgeht.

Also eine "Graka" von AMD oder Intel? Irgendwie scheinst du da sehr CPU-intensive "Shader-Games" herausgefischt zu haben.

askibo
2004-02-22, 22:58:57
Original geschrieben von Demirug
Genau. Bisher rechnen die Shadereinheiten einen Pixel immer zu Ende auch wenn er duch eine texkill Anweisung bereits verworfen wurde. Eine 3.0 fähige Hardware könnte die Berechung sofort abbrechen und mit dem nächsten Pixel weiter machen.

Wäre es möglich das ATI ihre 2.x Shader um diese Fähigkeit erweitert hat oder ist das technisch zu aufwendig, sprich sie hätten dann auch gleich 3.0 Shadereinheiten bauen können.

Gast
2004-02-22, 22:59:29
Original geschrieben von Quasar
Also eine "Graka" von AMD oder Intel? Irgendwie scheinst du da sehr CPU-intensive "Shader-Games" herausgefischt zu haben.

Unwichtig ist die Graka ja nun nicht,immerhin sollen die neuen Grakas ja Spiele die Shader nutzen deutlich beschleunigen.

Leonidas
2004-02-22, 23:01:07
Original geschrieben von Exxtreme
@ Leonidas

Hast du irgendwelche Infos über die Vertexshader-Versionen?


Nein, nix.

Leonidas
2004-02-22, 23:03:24
Original geschrieben von thop
Also ich hab mir jetzt nich den ganzen Thread durchgelesen, hauptsächlich weil ein paar Leute hier meinen (Wissens-)Horizont übersteigen. Daher nicht steinigen wenns die Fragen schon gab =)

1.) Wann kann man mit ersten 3.0 Spielen rechnen? Doch wohl nicht vor Weihnachten oder wie sieht das aus.

2.) Sind die 3.0 dann bloss implementiert aber eigentlich total unnutzbar weil die Karte zu schwach ist? So als Analogie zur 5200FX und den 2.0 mein ich das.




1.
Spiele mit Shader 3.0 Nutzung aber ohne wirklichen Vorteil: Einige noch dieses Jahr, in der Mehrzahl 2005
Spiele mit Shader 3.0 Nutzung und greifbarem Vorteil: Einige 2005, darüber hinaus schwer einschätzbar ob da wirklich viel kommen wird.
Spiele mit Shader 3.0 Pflicht: Nicht vor 2005, eher erst 2006. Wenn überhaupt.


2.
R420 hat keinerlei Shader 3.0, auch keine schwachen oder so.

Demirug
2004-02-22, 23:04:38
Original geschrieben von askibo
Wäre es möglich das ATI ihre 2.x Shader um diese Fähigkeit erweitert hat oder ist das technisch zu aufwendig, sprich sie hätten dann auch gleich 3.0 Shadereinheiten bauen können.

Möglich ist vieles. Ich habe aber heute breits irgendwo gesagt das ich es für sehr unwahrscheinlich halte. Der Grund ist genau der von dir vermutete. Wenn man mit sowas schon anfängt dann kann man das Braching auch komplett einbauen.

Leonidas
2004-02-22, 23:05:07
Original geschrieben von thop
Könnte es nicht sein dass ATI in ein paar Monaten im Refresh nachträglich 3.0 einbaut?


Unwahrscheinlich. In einen Refresh steckt man nicht eine solche massive Arbeit. Außerdem war die Message von Ati klar: Wir sehen keinen Sinn in Shader 3.0.

mapel110
2004-02-22, 23:18:39
Der lachende Dritte bei der ganzen Geschichte könnte PowerVR sein. Wenn sie neben Nvidia die einzigen mit Shader 3.0 support sind, könnten einige Benchmarks sehr interessant werden. :)

Coda
2004-02-22, 23:18:41
Wie sieht's eigentlich mit Vertex Shadern aus?
Ich denke dort ist 3.0 einfacher zu implementieren

Demirug
2004-02-22, 23:20:46
Original geschrieben von Coda
Wie sieht's eigentlich mit Vertex Shadern aus?
Ich denke dort ist 3.0 einfacher zu implementieren

Nicht wirklich. Neben dem ganzen Branching kommt da ja auch noch das Auslesen von Texturen hinzu. Eine völlig neue Sache für Vertexshader.

deekey777
2004-02-22, 23:27:15
Hat sich schon die Rechtsabteilung von ATi gemeldet? Ach Mist, heute ist Sonntag! ;D

marco42
2004-02-22, 23:33:37
Original geschrieben von Demirug
Wenn JC einen Vorteil erkennen kann wird DOOM III sicherlich einen NV4X Pfad bekommen.

Hat er nicht mal mit GLSlang herumgespielt und wollte es einbauen. Neusten Geruechten nach hat NVidia ja jetzt den Compiler in den Treiber eingebaut. Soll der Cg Compiler sein. Das waere doch eine Moeglichkeit anstatt wieder auf irgend welche Extensions zu setzen.

Fuer NVidia waere das auch gar nicht mal schlecht, da sie sich dann besser von ATI absetzen koennten, da sie GLSlang besser unterstuetzen koennen.

MadMan2k
2004-02-22, 23:34:08
kann man PS 3.0 eigentlich als nur eine höhere Renderingoptimierung sehen - ähnlich der aufsplittung des Speichercontrollers oder des vorgezogenen Tiefentests - bloß das diesmal die Instruktionen entsprechen angepasst werden müssen?

ice cool69
2004-02-22, 23:36:55
Also ich finde gut dass nicht gleich wieder die nächste Version der Shader eingeführt wird. Die Unterschiede halte ich für zu gering als dass es sich für die Spieleindustrie lohnen würde umzustellen.
Ich glaube sogar dass mit den 2.0-Shadern das bessere Ergebnis möglich ist da die Entwickler schon besser damit umgehen können.
Endlich ist mal Zeit die vorhandene Hardware besser ausreizen zu können und ich glaube nicht dass einem von Spieleseite etwas vorenthalten wird wenn man ne ATI-karte kauft.
Im Endeffekt entscheiden sowieso die Entwickler über Erfolg oder Misserfolg eines neuen Features.

Piffan
2004-02-23, 00:19:58
Demirug oder Zecki hat mal ein schönes Post gebracht über die HLSL. Wenn ich das richtig sehe, dann soll es im Idealfalle so laufen: Der Entwickler sagt was er will, die Sprache dazu ist HLSL. Der Treiber weiß, was die Graka kann und entscheidet, wie die Graka die Aufgabe löst. Ist es eine "fortgeschrittene Graka", löst sie die Aufgabe effizient und schnell. Eine ältere Graka kann entweder die Aufgabe gar nicht erfüllen, oder sie braucht dafür recht lange.

So ist es mit dem Shader 3.0: Die Grakas, die ihn beherrschen, arbeiten die Aufgabe ein Stück eleganter ab. Die Graka, die nur 2.0 beherrscht, kann wohl auch die gewünschten Effekte, aber umständlicher, langwieriger.....

Also wird die Zukunft zeigen, ob Ati die 2.0 Shader so krass beschleunigen kann, dass NV mit den 3.0 Shadern trotzdem nicht davon zieht. Abwarten!

Aber falls so ein hinterlistiger Bench einer gewissen Firma Berechnungen verlangt, die Shader 3.0 zwingend vorraussetzen, dann hat Ati von Anfang an verloren.

Es wird mal wieder spannend demnächst :D

P.S. Wahrscheinlich schreibe ich ne Menge Scheissdreck, aber so habe ich es halt verstanden :D

ice cool69
2004-02-23, 00:32:11
An die neuen Shader müssen die sich Entwickler aber erstmal gewöhnen, das braucht viel Zeit und Geld.
Nicht umsonst dauert es so lange bis eine neue Shader-Sprache sich etabliert.

ATI ist der Meinung dass die Shader 3.0 den Umstieg nicht lohnen, nvidia ist da anderer Meinung. Marketingstrategisch sieht es momentan sehr nach Vorteil für nvidia aus, wenn aber ATI aber durch das Weglassen der neuesten Shader die Karte deutlich schneller machen kann als nvidia, hat ATI gewonnen.

Die Zeit wirds zeigen, jedenfalls wird der Kampf wieder etwas spannender.

Piffan
2004-02-23, 00:35:30
Original geschrieben von ice cool69
An die neuen Shader müssen die sich Entwickler aber erstmal gewöhnen, das braucht viel Zeit und Geld.
Nicht umsonst dauert es so lange bis eine neue Shader-Sprache sich etabliert.

ATI ist der Meinung dass die Shader 3.0 den Umstieg nicht lohnen, nvidia ist da anderer Meinung. Marketingstrategisch sieht es momentan sehr nach Vorteil für nvidia aus, wenn aber ATI aber durch das Weglassen der neuesten Shader die Karte deutlich schneller machen kann als nvidia, hat ATI gewonnen.

Die Zeit wirds zeigen, jedenfalls wird der Kampf wieder etwas spannender.

Liest Du eigentlich die anderen Posts auch? Eigentlich hat Demirug sogar für mich verständlich erklärt, dass da null Aufwand nötig ist, ein Spiel "upzugraden".....HLSL sei Dank! ;)

Und langsamer wird es auch nicht....genau andersherum wird es sein. Mehr Speed für nix an Zeitaufwand....

Es müssen schon happige Probleme gewesen sein, dass Ati diesen unter Umständen folgenschweren Schritt versucht.

StefanV
2004-02-23, 00:38:52
Original geschrieben von ice cool69
An die neuen Shader müssen die sich Entwickler aber erstmal gewöhnen, das braucht viel Zeit und Geld.
Nicht umsonst dauert es so lange bis eine neue Shader-Sprache sich etabliert.

ATI ist der Meinung dass die Shader 3.0 den Umstieg nicht lohnen, nvidia ist da anderer Meinung. Marketingstrategisch sieht es momentan sehr nach Vorteil für nvidia aus, wenn aber ATI aber durch das Weglassen der neuesten Shader die Karte deutlich schneller machen kann als nvidia, hat ATI gewonnen.

Die Zeit wirds zeigen, jedenfalls wird der Kampf wieder etwas spannender.

1. nicht wirklich
1b. ja, ~5min, wird wohl so 5-10€ kosten, ev. gar 15€, da wird der Publisher nix gegen haben...

2. nö, der R420 ist der Notfallplan, das ist einfach 'irgendwas', mit dem ATI den Anschluss nicht völlig verliert, um sich etwas über Wasser zu halten...

ATI hätte wohl auch PS3.0 implementieren können, nur sähe es mit der Performance teilweise schlecht bis ganz schlecht aus (siehe Demirug), weshalb man sich dazu entschied, den ursprünglichen R400 zu entsorgen und den R420 zwischenzuschiben...

ice cool69
2004-02-23, 00:44:06
Das halte ich für ein Gerücht, warum erscheinen dann nicht alle Spiele mit DX9-Support momentan?

Außerdem gibt es immer noch einen Unterschied zwischen PS/VS 3.0 verwenden und PS/VS 3.0 (aus)nutzen ;)

MadManniMan
2004-02-23, 00:48:22
ice, sieh deine Uneinsicht ein ;)

Und aths, irgendwo im Thread sagtest du, auch zukünftig würde FX5200 gekauft, ginge es rein ums DX9. Was denkst du vom RV370?

tokugawa
2004-02-23, 00:59:56
Original geschrieben von ice cool69
An die neuen Shader müssen die sich Entwickler aber erstmal gewöhnen, das braucht viel Zeit und Geld.
Nicht umsonst dauert es so lange bis eine neue Shader-Sprache sich etabliert.

ATI ist der Meinung dass die Shader 3.0 den Umstieg nicht lohnen, nvidia ist da anderer Meinung. Marketingstrategisch sieht es momentan sehr nach Vorteil für nvidia aus, wenn aber ATI aber durch das Weglassen der neuesten Shader die Karte deutlich schneller machen kann als nvidia, hat ATI gewonnen.

Die Zeit wirds zeigen, jedenfalls wird der Kampf wieder etwas spannender.

Shader 3.0 ist ja keine "neue Sprache", außerdem hält sich der Aufwand bei "gegen-null-strebend" wenn man sowieso in einer der Hochsprachen Shader programmiert.

tokugawa
2004-02-23, 01:04:24
Original geschrieben von ice cool69
Also ich finde gut dass nicht gleich wieder die nächste Version der Shader eingeführt wird. Die Unterschiede halte ich für zu gering als dass es sich für die Spieleindustrie lohnen würde umzustellen.
Ich glaube sogar dass mit den 2.0-Shadern das bessere Ergebnis möglich ist da die Entwickler schon besser damit umgehen können.
Endlich ist mal Zeit die vorhandene Hardware besser ausreizen zu können und ich glaube nicht dass einem von Spieleseite etwas vorenthalten wird wenn man ne ATI-karte kauft.
Im Endeffekt entscheiden sowieso die Entwickler über Erfolg oder Misserfolg eines neuen Features.

Also, die "Spieleindustrie"; oder zumindest mal die Programmierer (Spieleindustrie umfaßt Publisher und Entwickler, und unter Entwickler fallen wieder eine ganze Menge an "Sektionen" wie Programmierung/Softwareentwicklung, Audio, Visual Arts, etc.), lecken sich nach solchen Entwicklungen schon die Finger ab.

Gebremst werden die nur von der Marktsituation. Und wie schon recht oft erwähnt, ist ja der Sprung auf 3.0 - je nachdem wie "intelligent" (Software-Engineering-weise) - man die 2.0er Generation implementiert hat (etwa über HLSL; tja, beweist wieder mal, das Hochsprachen eine höherer "Maintainability" haben) relativ minimal für's erste.

Gast
2004-02-23, 02:35:50
Ehe 3.0 wichtig wird dauerst noch,kein Spiel wird dieses Jahr erscheinen welches unbedingt 3.0 braucht.
Dadurch wird das Spiel auch nicht besser ausschaun als mit 2.0,der normale User wird den Unterschied nicht mal sehen.

Farcry ist das erste wo überhaupt das erstemal richtig Shader eingesetzt werden,es geht also grad mal los.

Selbst HL2 was wahrscheinlich erst Ende 2004 erscheint kommt locker mit 2.0 aus.

ATI macht das sehr gut,noch etwas besseres AF mit einer Priese Speed und die Karte wird super.

MadManniMan
2004-02-23, 02:51:36
Daß die Karte super wird, bezweifelt ja auch keiner, aber dennoch wären 3.0er Shader von Vorteil, alldieweil jeder Speedboost in hübschere Optik investiert werden kann.
Stell Dir einfach vor, du kannst mit nem Loki FarCry in 1600*1200 spielen. Ein Potentieller R420 mit 3er Shadern käme vielleicht mit 1920*1440 klar, TexKill ahoi!

Aber das mußt du mir echt mal erklären:

... Dadurch wird das Spiel auch nicht besser ausschaun als mit 2.0,der normale User wird den Unterschied nicht mal sehen. ...

Irgendwie widersprüchlich, findst nich? ;)


Eins noch: das mit der Shaderlosigkeit nimmste aber mal ganz gepflegt zurück, gelle? ;)

StefanV
2004-02-23, 07:32:24
Original geschrieben von ice cool69
Das halte ich für ein Gerücht, warum erscheinen dann nicht alle Spiele mit DX9-Support momentan?

Außerdem gibt es immer noch einen Unterschied zwischen PS/VS 3.0 verwenden und PS/VS 3.0 (aus)nutzen ;)
1. nö, das ist kein Gerücht, siehe das, was Demirug sagt...
1b. nunja, da kannst dich bei nV bedanken, genauer gesagt 'dank' der GF4 MX...
Oder anders gesagt: es gibt noch DX7 Hardware, auf denen das laufen muss, so daß man nicht durchgehend Shader nutzen kann...

2. ja, VS kann man immer nutzen, egal ob von der Karte unterstützt oder nicht, notfalls muss die CPU ran, PS kann man nicht so recht emulieren...

StefanV
2004-02-23, 07:37:12
Original geschrieben von MadManniMan
Daß die Karte super wird, bezweifelt ja auch keiner, aber dennoch wären 3.0er Shader von Vorteil, alldieweil jeder Speedboost in hübschere Optik investiert werden kann.
Stell Dir einfach vor, du kannst mit nem Loki FarCry in 1600*1200 spielen. Ein Potentieller R420 mit 3er Shadern käme vielleicht mit 1920*1440 klar, TexKill ahoi!

Bist du dir da sicher?? ;)

Kannst du ausschließen, daß ein R300 mit PS3.0 nicht nach hinten losgehen würde? ;)

Vielleicht hats ATI ja deshalb gelassen und den 'Notfalplan B' genommen...

ow
2004-02-23, 08:13:42
.

cl55amg
2004-02-23, 09:37:17
ich denke das nvidia in ihrem "its ment to be played"
programm, entwickler dazu bringen wird PS 3.0 in ihrem games zu unterstützen und das werden sie marketing technisch aufblasen.
wen die PS 3.0 dann auch noch einen performance vorrteil bringen...muss atis r420 schon sehr schnell sein...

Gast
2004-02-23, 09:55:19
Original geschrieben von cl55amg
ich denke das nvidia in ihrem "its ment to be played"
programm, entwickler dazu bringen wird PS 3.0 in ihrem games zu unterstützen und das werden sie marketing technisch aufblasen.
wen die PS 3.0 dann auch noch einen performance vorrteil bringen...muss atis r420 schon sehr schnell sein...

Das bezweifle ich doch stark, die gute Geforce3 war schon lange im Markt, als dann das Sahnestück Geforce4 kam und die schlimmste Karte die GF4MX ebenfalls, hat nv wohl keinen zu dx8 genötigt. Mit der fx5200 hat man ebenfalls so einen Kanditaten, nv "rät" von dem massiven dx9 Einsatz "ab".

Gast
2004-02-23, 10:07:41
@ Demirug
wäre es nicht sinnvoll einen schönen Artikel über PS 2.0 und PS 3.0 zu schreiben, was die Vorteile/Änderungen betrifft.
ich denke damit könnte sich viel Unklarheit die hier in diesem Thread herrscht aufklären lassen.

Exxtreme
2004-02-23, 10:13:21
Also Hellbinder meint daß R420 = VS/PS 3.0.

kmf
2004-02-23, 10:17:11
Original geschrieben von Exxtreme
Also Hellbinder meint daß R420 = VS/PS 3.0.

Meinen ist Nichtwissen. Leos Recherchen hierüber erscheinen mir hingegen sehr glaubhaft.

nggalai
2004-02-23, 10:21:17
Original geschrieben von Exxtreme
Also Hellbinder meint daß R420 = VS/PS 3.0. Zumindest auf Beyond3D hat sich's eher wie Spin gelesen, so nachm Motto

"schon 512 Instruktionen reichen, dass man das Ding PS3.0 nennen dürfte, ergo ist R420 PS3.0, auch wenn die optionalen Features nicht unterstützt werden."

Demirug hat ihn dann glaub noch korrigiert, dann war er plötzlich sehr ruhig.

93,
-Sascha.rb

[dzp]Viper
2004-02-23, 10:24:14
http://www.theinquirer.net/?article=14302

Ich lasse es mal unkommentiert:

ATI R420 A12 silicon ready

....

A12 is the stepping of silicon that means that the chip is ready for production and we are told that cards could be available much closer then planned, just depending on the marketing department saying yes.

....

Wenn das stimmt... woha... :D
Aber Inquirer gibt wie immer keine Quellen an und ist deswegen nicht gerade 1a glaubwürdig ;(

Exxtreme
2004-02-23, 10:25:43
Original geschrieben von [dzp]Viper
http://www.theinquirer.net/?article=14302

Ich lasse es mal unkommentiert:

ATI R420 A12 silicon ready

....

A12 is the stepping of silicon that means that the chip is ready for production and we are told that cards could be available much closer then planned, just depending on the marketing department saying yes.

....

Wenn das stimmt... woha... :D
Aber Inquirer gibt wie immer keine Quellen an :(
Und ausserdem kommt der :cop: FUAD :cop: -Faktor hinzu.

;D

Demirug
2004-02-23, 10:29:07
Original geschrieben von nggalai
Zumindest auf Beyond3D hat sich's eher wie Spin gelesen, so nachm Motto

"schon 512 Instruktionen reichen, dass man das Ding PS3.0 nennen dürfte, ergo ist R420 PS3.0, auch wenn die optionalen Features nicht unterstützt werden."

Demirug hat ihn dann glaub noch korrigiert, dann war er plötzlich sehr ruhig.

93,
-Sascha.rb

Ja, es gab etwas Konfusion ab wann man einen Chip nach der DX Spec als 3.0 fähig bezeichnen darf. Einige gingen wohl davon aus das die entsprechenden Shader-Caps mit den Optionen auch noch für 3.0 gültig sind und nicht nur für 2.X. Ein kleiner Fehler in der SDK Dokumentation könnte für dieses Missverständniss verantwortlich sein. Im DDK steht allerdings drin das in dem Fall das man 3.0 Unterstützung meldet die 2.X Caps alle auf das Maximum gesetzt und auch unterstützt werden müssen.

Ob die Aussage von HB nun aufgrund dieser Unklarheit entstanden ist vermag ich nicht zu sagen.

Demirug
2004-02-23, 10:33:34
Original geschrieben von Gast
@ Demirug
wäre es nicht sinnvoll einen schönen Artikel über PS 2.0 und PS 3.0 zu schreiben, was die Vorteile/Änderungen betrifft.
ich denke damit könnte sich viel Unklarheit die hier in diesem Thread herrscht aufklären lassen.

Sicherlich wäre das sinnvoll aber meine Talente solche Sachverhalte einfach darzustellen sind begrenzt. Ich bin mir also sicher das wieder ein grossteil nicht in der Läge wäre meinem Geschreibsel zu folgen. Zudem könnte man im Ermangeln von PS 3.0 Hardware nur (wie hier schon die ganze Zeit) die theoretischen Vorteile beleuchten. Eine Hardware implementierung muss nicht zwanghaft die gleiche Effizienz erreichen.

Hauwech
2004-02-23, 10:53:43
Original geschrieben von Stefan Payne
1. nö, das ist kein Gerücht, siehe das, was Demirug sagt...
1b. nunja, da kannst dich bei nV bedanken, genauer gesagt 'dank' der GF4 MX...
Oder anders gesagt: es gibt noch DX7 Hardware, auf denen das laufen muss, so daß man nicht durchgehend Shader nutzen kann...

2. ja, VS kann man immer nutzen, egal ob von der Karte unterstützt oder nicht, notfalls muss die CPU ran, PS kann man nicht so recht emulieren...

zu 1b: Neee klar Stefan... nur nVidia allein ist mit ihrer GF4MX schuld und niemand hat noch eine <=DX7 ATI/Matrox/SiS/PowerVR und wie sie alle heissen moegen Karte im Rechner. Alle anderen haben nie <=DX7 Karten gebaut und waren immer Engelchen. Sind alle erst mit >=DX8 eingestiegen...
Dazu kommt noch das alle Spieleprogger erst mit mindestens DX8 Techlevel angefangen haben und nirgendwo jemand DX7 Code rumliegen hat und diesen daher erst muehsam fuer jedes Spiel neu erlernen muss. Nee is klar...

Beim naechsten mal erst denken dann schreiben, bitte. Sorry, aber ich finde es langsam zum Kotzen.

aths
2004-02-23, 10:54:36
Original geschrieben von Exxtreme
Sehe ich nich unbedingt so. Wenn der R420 dem NV40 deutlich überlegen sein wird bezüglich Speed, dann wird der gekauft. Was meinst du warum die GF2- und GF4-Serie so erfolgreich war? Die Konkurrenz hatte mehr Features und trotzdem wurde sie weitgehend links liegen gelassen. Der R100 ist dem NV10/NV15 featuremässig um Einiges überlegen. Trotzdem haben sich viele Leute eine GF2 geholt weil sie in Q3A einfach schneller ist. Das Gleiche war mit der GF4Ti. Ich glaube, die Features geben erst dann den Ausschlag wenn die Kontrahenten ca. gleich schnell sind. Erst dann gewinnt der mit mehr Features so wie es bei der TNT2 vs. Voodoo3 war. Ich bezweifle, dass der R420 dem NV40 speedmäßig "deutlich" überlegen sein wird. Selbst wenn, womit will ATI Geld verdienen? Im dünnen High-End-Segment?

mapel110
2004-02-23, 10:56:26
Original geschrieben von aths
Ich bezweifle, dass der R420 dem NV40 speedmäßig "deutlich" überlegen sein wird. Selbst wenn, womit will ATI Geld verdienen? Im dünnen High-End-Segment?

Wenn die Benchmarks gewonnen werden, verkaufen sich auch die Kleinen, egal wie abgespeckt oder rückständig sie sind. :)

aths
2004-02-23, 10:57:53
Original geschrieben von betareverse
Sehe ich nicht als zwingend an. Es wird 2004 kaum Spiele geben, die 3.0Shader unterstützen werden und das eigentliche Zudpferd wird die Geschwindigkeit bei Spielen mit 2.0Shadern sein. Wenn ATI da richtig vorlegt, wird nVs 3.0-Shader-Marketing ganz schnell ein Rohrkrepierer. Wenn sie zuerst da sind und wenn der NV40 dem R420 wirklich nicht das Wasser reichen kann, dann ja.

Shader 3.0 zu unterstützen ist kein großer Aufwand. (Für den Programmierer.) Dank der neuen "Intelligenz" kann aus der vorhandenen HW-Leistung mehr gemacht werden. (Sofern 3.0 effizient implementiert wurde.)

Wegen der größeren Feature-Palette dürften Entwickler schon seit CineFX vermehrt zu NV zurückgekehrt sein, der NV40 könnte diesen Trend beschleunigen.

Original geschrieben von betareverse
Ich nehme eher an, dass der R400 komplett frei programmierbar war und somit spricht viele für 4.0Shader beim R500. Das erstere nehme ich nun nicht an, das zweite ist praktisch eine Selbstverständlichkeit.

[dzp]Viper
2004-02-23, 10:58:08
Original geschrieben von mapel110
Wenn die Benchmarks gewonnen werden, verkaufen sich auch die Kleinen, egal wie abgespeckt oder rückständig sie sind. :)

jep hat man ja bei NV immer gesehen ;)

Zieht das Highend Segement richtig gut, dann laufen die kleineren Karten ebenso gut.

Exxtreme
2004-02-23, 11:00:09
Original geschrieben von aths
Ich bezweifle, dass der R420 dem NV40 speedmäßig "deutlich" überlegen sein wird. Selbst wenn, womit will ATI Geld verdienen? Im dünnen High-End-Segment?
Es spielt keine Rolle ob der R420 dem NV40 speedmässig "deutlich" überlegen sein wird. Es reicht, daß er "etwas" überlegen ist. Die Leute schauen sich dann die Benchmarkbalken an in den wichtigsten Benchmarks und schon wird gekauft. Und wenn der R420 früher kommt als der NV40 dann hat ATi auch einen (kleinen) Vorteil.

Aber wie gesagt, Abwarten heisst die Devise.

aths
2004-02-23, 11:02:49
Original geschrieben von betareverse
Wenn ATIs Highend-Karte bei den NextGen-Spielen, die ja fast ausnahmslos erstmal nur Shader2.0 unterstützen werden, die NV-Karten ordentlich schlägt, wird sich dieses Image auch im OEM-Markt niederschlagen. ... Das Image "schnelles DX9" ist imo besser zu vermarkten, als irgendein konfuser "Shader3.0" und das Image langsamer bei DX9-Spielen zu sein.Was ist, wenn die Entwickler alternativ 3.0-er Shader anbieten, die gegenüber 2.X Berechnungen einsparen, und der NV40 somit aus seiner geringeren Rohleistung mindestens die gleiche Framerate rausholt?

Das Image, bei DX9-Spielen langsamer zu sein, hat NV schon. NV wird versuchen dafür zu sorgen, dass der Kunde denkt, mit einem R420 könnte er nicht alle Effekte sehen.

Hauwech
2004-02-23, 11:04:34
Original geschrieben von mapel110
Wenn die Benchmarks gewonnen werden, verkaufen sich auch die Kleinen, egal wie abgespeckt oder rückständig sie sind. :)

Ja, deshalb liegen die FX5200 ja wie Blei in den Regalen und alle greifen wie wild zu <9500 Karten...

aths
2004-02-23, 11:06:29
Original geschrieben von Labberlippe
Hi



Erkläre mir warum es notwendig ist jetzt PS3 zu implementieren wenn noch nichteinmal PS2 vernünftig implementiert ist.Weil sich mit Pixelshader 3.0 Pixelshader-2.0-Effekte effizienter berechnen lassen. Es ist möglich, Rechenschritte einzusparen, die eine 2.0-Hardware noch ausführen muss, obwohl diese Berechnungen nicht sichtbar sind.

Original geschrieben von Labberlippe
Hi

Das ist aber für mich auch ein Zeichen das man erkannt hat das es nicht immer unbedingt ein neues Feature sein muss.

Für mich heist ein besserer Techlevel nicht das immer neue Effekte angeboten werden müssen, sondern das auch der jetzige Stand der Technik optimiert wird.Um "neue Effekte" geht es beim 3.0 nicht, eher darum, das DX9-Level an Effekten ausnutzen zu können.

ice cool69
2004-02-23, 11:09:09
Versteht mich nicht falsch, ich bin der erste der sich eine nvidia-Karte zulegt wenn die Shader 3.0 wirklich einen klaren Vorteil haben sollten.
Nur bin ich überzeugt davon dass die ATI-Karte diesen Nachteil durch Performance und bessere Qualitätsfeatures locker wettmachen kann.
Denn ob Shader 2.0 oder 3.0 verwendet werden ist ja optisch egal, das einzige was man sehen wird ist, welche Karte das bessere AA bzw. AF vorzuweisen hat.
Bei gleichstand ist natürlich die Karte mit Shadern 3.0 vorzuziehen.
Jedoch kann ich mich noch genau erinnern wie alle von nvidias Shadern 2.0+ geschwärmt hatten und das war total nutzlos weil sich alle auf ATI konzentriert hatten.

Außerdem ist die Shaderleistung bei ATI bisher immer deutlich höher gewesen als bei nvidia, ne höhere Versionsnummer kann helfen, aber eine Garantie für mehr Performance ist sie noch lange nicht meiner Erfahrung nach.

deekey777
2004-02-23, 11:13:30
Original geschrieben von Hauwech
Ja, deshalb liegen die FX5200 ja wie Blei in den Regalen und alle greifen wie wild zu <9500 Karten...

Da hast du 110%ig Recht - nur ist die 5200 die meistverkaufte DX9-Grafikkarte.

aths
2004-02-23, 11:14:12
Original geschrieben von betareverse
Vielleicht hat dann NV den Vorteil für sich, weil sie schon so früh Shader3.0-Chips auf dem Markt gebracht haben, aber dann muss man auch erstmal abwarten, wie die Performance bei den jeweiligen Anwendungen ist.Natürlich hat NV den Vorteil. Als sie den T&L-Standard für DX7 setzten, waren sie maßgeblich mit an der VS_1_1-Definition beteiligt. Ausgehend vom Pixelshader 1.1 setzten sie auch den 1.3-Standard. Ausgehen von CineFX prägten sie die 3.0-Definition entscheidend mit.

Als ATI beim PS_1_4 Technologieführer war, war es ATI, welche den Nachfolger 2.0 prägte.

Wer wird bei der 4.0-Definition Ton angebend sein? Wer wird über die größere Erfahrung verfügen, solch komplexen Shader zu implementieren?

Die Vorteile sehe ich bei NV.

ow
2004-02-23, 11:19:12
.

ow
2004-02-23, 11:23:01
.

aths
2004-02-23, 11:24:51
Original geschrieben von ice cool69
Also ich finde gut dass nicht gleich wieder die nächste Version der Shader eingeführt wird. Die Unterschiede halte ich für zu gering als dass es sich für die Spieleindustrie lohnen würde umzustellen.Wieso umstellen? Die lassen ihre Shader zwei mal kompilieren, wobei der 3.0-er effizienter ist.
Original geschrieben von ice cool69
Ich glaube sogar dass mit den 2.0-Shadern das bessere Ergebnis möglich ist da die Entwickler schon besser damit umgehen können.Wichtig ist, mit HLSL umgehen zu können.
Original geschrieben von ice cool69
Endlich ist mal Zeit die vorhandene Hardware besser ausreizen zu können und ich glaube nicht dass einem von Spieleseite etwas vorenthalten wird wenn man ne ATI-karte kauft.Ich halte es für gut möglich, dass NV hier oder da etwas rüberwachsen lässt, wenn 3.0-exklusive Effekte eingebaut werden; undabhängig davon ob die gleichen Effekte auch mit 2.0 oder 2.X erreichbar wären, oder nicht.

ow
2004-02-23, 11:25:19
.

deekey777
2004-02-23, 11:26:12
Original geschrieben von aths
Natürlich hat NV den Vorteil. Als sie den T&L-Standard für DX7 setzten, waren sie maßgeblich mit an der VS_1_1-Definition beteiligt. Ausgehend vom Pixelshader 1.1 setzten sie auch den 1.3-Standard. Ausgehen von CineFX prägten sie die 3.0-Definition entscheidend mit.

Als ATI beim PS_1_4 Technologieführer war, war es ATI, welche den Nachfolger 2.0 prägte.

Wer wird bei der 4.0-Definition Ton angebend sein? Wer wird über die größere Erfahrung verfügen, solch komplexen Shader zu implementieren?

Die Vorteile sehe ich bei NV.

Da liegst du falsch!
nVidia hatte nur Vorteile bei ungeraden Shader-Versionen: 1.1, 1.3... 2.x (x-> 25. Buchstabe, also 2.25), 3.0. ATi dagegen bisher bei geraden: 1.4, 2.0 -> ergo 4.0 wird wieder die Domäne von ATi!!! (Auf keinen Fall ernst nehmen!!! ;D )

Zu VS 1.1: Hatte MS die VS 1.1 für DX8 bei nVidia nicht lizensiert?

Wird ATi auf den FP32 Zug springen oder bleiben sie auch bei dem R420 bei FP24?

aths
2004-02-23, 11:27:38
Original geschrieben von MadManniMan
Und aths, irgendwo im Thread sagtest du, auch zukünftig würde FX5200 gekauft, ginge es rein ums DX9. Was denkst du vom RV370? Dazu müsste ich konkrete Daten vom Chip haben :naughty: Das schlimme ist ja, dass der NV34 so gut ist, weil er so schlecht ist. (Gut = billig, schlecht = DX9-Leistung.) Da der Sprung von CineFX zu 3.0 nicht so groß ist, wie von 2.0 zu 3.0, ist der NV34 featuremäßig wahrscheinlich fortschrittlicher, als ATIs R420.

Exxtreme
2004-02-23, 11:28:01
Original geschrieben von deekey777
Wird ATi auf den FP32 Zug springen oder bleiben sie auch bei dem R420 bei FP24?
Also ich gehe davon aus, daß ATi bei 24 Bit FP bleiben wird. 32 Bit FP sind selbst bei PS 3.0 nicht nötig.

aths
2004-02-23, 11:29:35
Original geschrieben von Stefan Payne
2. ja, VS kann man immer nutzen, egal ob von der Karte unterstützt oder nicht, notfalls muss die CPU ran, PS kann man nicht so recht emulieren... Ich zweifle, dass VS_3_0 mit befriedigender Performance emulierbar ist – denk mal an die Textur-Zugriffe …

aths
2004-02-23, 11:36:16
Original geschrieben von mapel110
Wenn die Benchmarks gewonnen werden, verkaufen sich auch die Kleinen, egal wie abgespeckt oder rückständig sie sind. :) Nicht unbedingt, wenn der kleine der Konkurrenz mehr kann. Da ATI im Moment die Herzen der meisten Leser / Redakteure hat, wird es eine Zeit des Schönredens geben, ATI wird nicht von heute auf morgen in Kalamitäten kommen. Aber wenn sie sich von der Technologieführerschaft verabschieden, ist das ein klares Zeichen begrenzter Entwicklungsressourcen. NV hat seit CineFX technisch das Ruder übernommen. Wenn ATI es nicht mal schafft, in dieser langen Zeit eine 3.0-fähige Karte zu bringen, erwarte ich keine sowohl schnelle als auch ansonsten fortschrittliche DX-Next-Hardware von ATI.

Hauwech
2004-02-23, 11:40:05
Original geschrieben von deekey777
Da hast du 110%ig Recht - nur ist die 5200 die meistverkaufte DX9-Grafikkarte.

Weiss ich doch... haette vielleicht einen Smilie setzen sollen ;)

aths
2004-02-23, 11:40:38
Original geschrieben von Exxtreme
Es spielt keine Rolle ob der R420 dem NV40 speedmässig "deutlich" überlegen sein wird. Es reicht, daß er "etwas" überlegen ist.Ich denke, dass ein 3.0-Bonus mindestens 10-20% Performance-Nachteil egalisiert. Zur Not setzt NV auf das Prinzip Hoffnung und verklickert dem Kunden, damit könne er auch morgen noch alle Effekte sehen, und wenn erst mal 3.0 supportet würde, zöge die HW auch richtig davon.
Original geschrieben von Exxtreme
Die Leute schauen sich dann die Benchmarkbalken an in den wichtigsten Benchmarks und schon wird gekauft. Und wenn der R420 früher kommt als der NV40 dann hat ATi auch einen (kleinen) Vorteil. Wer zuerst kommt, mahlt zuerst. Wenn ATI zuerst kommt, haben sie einen Vorteil. Wenn NV zuerst kommt, hat ATI einen Nachteil, der aber größer ist als der Vorteil den sie hätten, wenn sie zuerst kämen: Wer will nach DX9.1-HW noch 9.0-HW haben?

Einige wollen das wohl. NVs lautes Marketing wird aber ein leichtes Spiel haben, die übernommene Technologieführerschaft in klingende Münze umzusetzen.

deekey777
2004-02-23, 11:42:25
Gerade eingefallen: Ich will keinem in die Suppe spucken, aber vor einigen Monaten stand in irgendeiner Ausgabe der C't (im Herbst glaube ich, in der Zeit der Veröffentlichung der 9800XT bzw. FX5950) die Vermutung, dass der R420 "noch" PS 2.0 (besser gesagt keinen PS 3.0) haben wird.

Ich denke, dass ein 3.0-Bonus mindestens 10-20% Performance-Nachteil egalisiert. Zur Not setzt NV auf das Prinzip Hoffnung und verklickert dem Kunden, damit könne er auch morgen noch alle Effekte sehen, und wenn erst mal 3.0 supportet würde, zieht die HW auch richtig ab.

Das wird doch so sein: Die kommende PS 3.0-Generation wird als "DX9.1-Grafikkarten" verkauft.

mapel110
2004-02-23, 11:43:14
Original geschrieben von aths
Aber wenn sie sich von der Technologieführerschaft verabschieden

Welche Technologieführerschaft? shader-feature-technisch siehts schon seit einem Jahr schlecht für ATI aus, Speed-technisch aber nicht. :)

aths
2004-02-23, 11:44:01
Original geschrieben von ice cool69
Versteht mich nicht falsch, ich bin der erste der sich eine nvidia-Karte zulegt wenn die Shader 3.0 wirklich einen klaren Vorteil haben sollten.
Nur bin ich überzeugt davon dass die ATI-Karte diesen Nachteil durch Performance und bessere Qualitätsfeatures locker wettmachen kann.
Denn ob Shader 2.0 oder 3.0 verwendet werden ist ja optisch egal, das einzige was man sehen wird ist, welche Karte das bessere AA bzw. AF vorzuweisen hat.
Bei gleichstand ist natürlich die Karte mit Shadern 3.0 vorzuziehen.
Jedoch kann ich mich noch genau erinnern wie alle von nvidias Shadern 2.0+ geschwärmt hatten und das war total nutzlos weil sich alle auf ATI konzentriert hatten.Das ist aus Kundensicht gedacht, und aus Kundensicht auch OK.

Betrachten wir aber die HW-Entwicklung: ATI kam mit Pixelshader 1.4, den lange Zeit jedes Spiel ignorierte. Aber mit der 1.4-Erfahrung konnten sie deutlich vor allen anderen 2.0 entwickeln. Mehr noch, an ATIs HW richtet sich dieser Standard aus.

Nvidias 2.X-Shader werden auch nur zöglicher unterstützt. Doch langfristig werden sie die Vorteile genießen, die sich aus der Technologieführerschaft ergeben. Dank 2.X hatte NV bei 3.0 stark mitzubestimmen.

Exxtreme
2004-02-23, 11:44:20
Original geschrieben von aths
NVs lautes Marketing wird aber ein leichtes Spiel haben, die übernommene Technologieführerschaft in klingende Münze umzusetzen.
Naja, bei dem NV30 hat man es aber nicht geschafft trotz vieler marketingtechnischer Klimmzüge (man erinnere sich nur an den Blair-Witch-Abklatsch). Und wenn's hart auf hart kommt wird ATi ihre HW wohl auch als DX9.1-tauglich deklarieren. Das wird zwar dann auch nicht stimmen aber sie können dann behaupten, sie lügen nicht mehr als ihr Konkurrent.

P.S. Es kann aber auch sein, daß ATi die Kunden bezüglich DX9.1 "aufklären" wird.

Gast
2004-02-23, 11:48:13
Original geschrieben von Exxtreme
Also ich gehe davon aus, daß ATi bei 24 Bit FP bleiben wird. 32 Bit FP sind selbst bei PS 3.0 nicht nötig.

Guck mal ins Speku- oder Techforum. Anscheinend braucht man für 3.0-Shader nicht nur 16xAF, sondern auch 4096x4096-Texturen....

;Q

StefanV
2004-02-23, 11:48:21
Original geschrieben von Hauwech
nur nVidia allein ist mit ihrer GF4MX schuld und niemand hat noch eine <=DX7 ATI/Matrox/SiS/PowerVR und wie sie alle heissen moegen Karte im Rechner. Alle anderen haben nie <=DX7 Karten gebaut und waren immer Engelchen. Sind alle erst mit >=DX8 eingestiegen...
Dazu kommt noch das alle Spieleprogger erst mit mindestens DX8 Techlevel angefangen haben und nirgendwo jemand DX7 Code rumliegen hat und diesen daher erst muehsam fuer jedes Spiel neu erlernen muss. Nee is klar...

ja, etwas, denn die GF4 MX ist die 'aktuellste' DX7 Karte und war/ist die letzte DX7 Karte gewesen, die vorgestellt wurde...

Die anderen DX7 Karten sind etwas älter und nicht mehr wirklich relevant bzw wurden ersetzt, nur die GF4 MX erst letztes Jahr mit der FX5200...

Das Problem ist, daß die meisten Spieleprogger auf die GF4 MX rücksicht nehmen MÜSSEN, solang sie das müssen, werden wir kaum durchgehend Shader sehen...

deekey777
2004-02-23, 11:48:41
Original geschrieben von Exxtreme
Naja, bei dem NV30 hat man es aber nicht geschafft trotz vieler marketingtechnischer Klimmzüge (man erinnere sich nur an den Blair-Witch-Abklatsch). Und wenn's hart auf hart kommt wird ATi ihre HW wohl auch als DX9.1-tauglich deklarieren. Das wird zwar dann auch nicht stimmen aber sie können dann behaupten, sie lügen nicht mehr als ihr Konkurrent.

P.S. Es kann aber auch sein, daß ATi die Kunden bezüglich DX9.1 "aufklären" wird.

Man kann doch alles, was >2.0 ist als "DX 9.1" verkaufen.

Exxtreme
2004-02-23, 11:50:31
Original geschrieben von Gast
Guck mal ins Speku- oder Techforum. Anscheinend braucht man für 3.0-Shader nicht nur 16xAF, sondern auch 4096x4096-Texturen....

;Q
Habe ich gelesen. Aber für volle "PS3.0-Compliance" braucht man AFAIK keine 32-Bit-FP-Unterstützung. Und da der R420 keine volle PS3.0 unterstützt, können sie sich die 4096'er Texturen von vorneherein sparen und 16x (Pseudo-)AF wird schon unterstützt.

Exxtreme
2004-02-23, 11:53:51
Original geschrieben von deekey777
Man kann doch alles, was >2.0 ist als "DX 9.1" verkaufen.
Eigentlich kann man es nicht da es kein DX 9.1 gibt. Aber wenn einer damit anfängt, dann kann ich mir vorstellen, daß ein anderer auch damit weitermacht.

aths
2004-02-23, 11:57:37
Original geschrieben von mapel110
Welche Technologieführerschaft? shader-feature-technisch siehts schon seit einem Jahr schlecht für ATI aus, Speed-technisch aber nicht. :) Ja, deshalb hat ATI seit der 9700 ja auch dieses gute Image (und das zurecht.)

NVs zwar "fortschrittlicheres", aber langsameres CineFX versetzte sie nun in die Lage, ebenfalls sehr schnelle 2.0 und 2.X-Shader zu bauen, und zusätzlich 3.0-Support anzubieten. Langfristig zahlt sich das schon aus, denke ich. Wenn ATI auch langfristig erfolgreich sein will, wird es auf Dauer nicht reichen, nur gelegentlich "vorne an der Feature-Front" zu spielen.

Der 2.0-Erfolg wäre nie so gekommen, wenn ATI nicht die Erfahrungen mit 1.4 gehabt hätte.

aths
2004-02-23, 11:59:43
Original geschrieben von Exxtreme
Naja, bei dem NV30 hat man es aber nicht geschafft trotz vieler marketingtechnischer Klimmzüge (man erinnere sich nur an den Blair-Witch-Abklatsch). Und wenn's hart auf hart kommt wird ATi ihre HW wohl auch als DX9.1-tauglich deklarieren. Das wird zwar dann auch nicht stimmen aber sie können dann behaupten, sie lügen nicht mehr als ihr Konkurrent.

P.S. Es kann aber auch sein, daß ATi die Kunden bezüglich DX9.1 "aufklären" wird. Das kann beides sein. Da ATI für den höheren Instruction-Count auch 2.X melden wird (und nicht 2.0) sprechen sie ja vielleicht auch von 2.0+ oder DX9+ oder so :D

Falls ATI den Kunden aufklärt, dass DX9.1-HW in Wahrheit "nur" DX9.0-HW sei, so können sie doch nicht abstreiten, dass 3.0 > 2.X; rein zahlenmäßig gedacht.

(Eine Zeit lang wurde PS.1.4 als DX8.1-HW verkauft. Dabei hat man das Label schon mit Pixelshader 1.2, und erst Recht 1.3. So oder so, NV wird groß tönen, neue Effekte seien nur mit 3.0 möglich.)

Exxtreme
2004-02-23, 12:01:19
Original geschrieben von aths
Ja, deshalb hat ATI seit der 9700 ja auch dieses gute Image (und das zurecht.)

NVs zwar "fortschrittlicheres", aber langsameres CineFX versetzte sie nun in die Lage, ebenfalls sehr schnelle 2.0 und 2.X-Shader zu bauen, und zusätzlich 3.0-Support anzubieten. Langfristig zahlt sich das schon aus, denke ich. Wenn ATI auch langfristig erfolgreich sein will, wird es auf Dauer nicht reichen, nur gelegentlich "vorne an der Feature-Front" zu spielen.

Der 2.0-Erfolg wäre nie so gekommen, wenn ATI nicht die Erfahrungen mit 1.4 gehabt hätte.
Nun, die Shaderversionen sind nur wenige Features von vielen. Wenn sich beim NV40 bezüglich AA nichts ändert, dann gibt's hier auch Prügel. Nur anhand der Shaderversionen auf die Tauglichkeit eines Chips schliessen, halte ich für nicht genug.

deekey777
2004-02-23, 12:04:18
Irgendwo habe ich gelesen (entweder in einem 3d-Center Artikel oder in irgendeiner Zeitschrift), dass die heutigen DX9-Grafkikkarten (aber auch die R300/RV300) gerade mal die DX9 Spezifikationen erfüllen.

Gast
2004-02-23, 12:18:25
Original geschrieben von Stefan Payne
ja, etwas, denn die GF4 MX ist die 'aktuellste' DX7 Karte und war/ist die letzte DX7 Karte gewesen, die vorgestellt wurde...

Ersetzt wurden weder GF4MX noch Radeon7xxx. Sie sind lediglich noch weiter nach unten durchgereicht worden.

Sowohl im Mobil-, als auch im Home/Office und Multimedia-Bereich wird die R7xxx als aktuell angebotenes Produkt auf ati.com gelistet.

Ähnlich die GF4MX, die bei nvidia.com mit den Worten "The ideal solutions for: Multiple display & desktop flexibility 2D office applications Web surfing" angepriesen wird.

aths
2004-02-23, 12:26:40
Original geschrieben von Exxtreme
Nun, die Shaderversionen sind nur wenige Features von vielen. Wenn sich beim NV40 bezüglich AA nichts ändert, dann gibt's hier auch Prügel. Dann gibt's einen Verriss, der sich gewaschen hat.
Original geschrieben von Exxtreme
Nur anhand der Shaderversionen auf die Tauglichkeit eines Chips schliessen, halte ich für nicht genug. Für mich als Spieler zählt auch MSAA- und AF-Qualität stark rein.

Gast
2004-02-23, 12:33:15
Noch im 2002 war die GF4MX die meist verkaufte Karte, ob sich das dann für 2003 geändert hat, weiß ich nicht, aber bis sie von der 5200 abgelöst wird, vergehen noch mehrere Quartale. Nicht umsonst ist sie auf das pci-x Interface portiert worden. Das zu dem massiven Shadereinsatz :bonk:

aths
2004-02-23, 12:33:17
Original geschrieben von deekey777
Irgendwo habe ich gelesen (entweder in einem 3d-Center Artikel oder in irgendeiner Zeitschrift), dass die heutigen DX9-Grafkikkarten (aber auch die R300/RV300) gerade mal die DX9 Spezifikationen erfüllen. Das liegt daran, dass anhand der konkreten R300-HW die DX9-Minimalanforderungen festgelegt wurden.

Hauwech
2004-02-23, 12:37:26
Original geschrieben von Stefan Payne
ja, etwas, denn die GF4 MX ist die 'aktuellste' DX7 Karte und war/ist die letzte DX7 Karte gewesen, die vorgestellt wurde...

Die anderen DX7 Karten sind etwas älter und nicht mehr wirklich relevant bzw wurden ersetzt, nur die GF4 MX erst letztes Jahr mit der FX5200...

Das Problem ist, daß die meisten Spieleprogger auf die GF4 MX rücksicht nehmen MÜSSEN, solang sie das müssen, werden wir kaum durchgehend Shader sehen...

Woher weisst du das fast alles an Hardware aelter als GF4MX ersetzt wurde? Von den Herstellern DX7 mit neuen Modellen natuerlich, aber beim Privatanwender? Ueber die Relevanz von Prae-GF4MX-Karten fuer Programmierer frage ich doch mal lieber Demirug. Ob nu GF4MX oder aelter, es steht DX7 auf der Hardware und damit basta. Wie schnell ist egal siehe FX5200 mit DX9.
Viele Progger duerften nicht erst seit gestern mit HLSL rumspielen. Die Erfahrung mit DX7 duerfte es nicht sehr schwer machen es zu implementieren. Weiterhin: Viele Spieleengines werden lizensiert bzw weiterverwendet / weiterentwickelt. Wenn beim Vorgaenger oder der Lizenzversion DX7 schon mitenthalten ist, wo soll da noch gross Aufwand sein DX7 zu pflegen?

Was auch noch mit reinspielt: der asiatische Markt. Imho ein nicht zu unterschaetzendes Verkaufsgebiet und gerade da sind noch sehr viele <=DX7 Karten unterwegs.

Demirug oder Nggalai haben es mal schoen ausgedrueckt: Im Prinzip ist JEDER Privatrechner ein potenzieller Kunde fuer ein Spiel und sei es ein TNT Rechner.

Gast
2004-02-23, 13:45:46
Meines Erachtens sollte man zunächst zwischen Technik und Vermarktung unterscheiden.

Für Nvidia besteht nun die Chance, dass sie im Gegensatz zu ATI PS3.0 bieten und eine Implemetierung in Spiele relativ leicht zu realisieren ist (wie ich verstanden habe leichter als bei allen vorhergehenden Pixelshaderversionen). D.h. die Entwickler lassen sich wahrscheinlich leichter "überreden" PS3.0 (aufgrund des minimalen Zusatzsaufwandes)zu nutzen ohne dass die Abwärtskombatilität zu PS2.0 gefährdet ist.

Für ATI besteht nun das Risiko, dass sie unbedingt einen schnelleren Chip haben müssen, um die eventuellen Leistungssteigerung durch PS3.0 seitens Nvidia ausgleichen zu können. Ein noch größeres Risiko sehe ich allerdings bei den Entwicklern. Wenn Nividia gute Überzeugungsarbeit leistet, kann sich hier Nvidia eine wichtigen mittel- bis langfristigen Vorteil verschaffen.

Andererseits kennt man die Performance der PixelShader>2.0 des NV40 nicht, welche bei der NV3x-Serie eher mäßig war. Allerdings kann ich mir durchaus vorstellen (interpretierend aus Demirugs Aussagen), dass Nvidia die Schwächen gelöst hat und durchaus eine performante Lösung anbieten wird.

Bezüglich der Vermarktung der Chips und Directx9.1 würde ich behaupten, dass entweder ATI agressives Marketing gegen diese Bezeichnung führt und behauptet Directx9.1 gibt es nicht (mit Microsoft als Quelle) und ist lediglich die Bezeichnung für Directx9+unnützen PS3.0/VS3.0 oder sie werden die Bezeichnung ebenfalls verwenden (aufgrund der leicht aufgebohrten PS2.0 und der nichtvorhandenen Spezifikation von DX9.1). Eine genaue Auseinandersetzung bezüglich PS2.0 oder 3.0 wird es beim Verkauf wohl eher nicht geben, weil sich der Kunde in der Regel dafür nicht interessiert bzw. auskennt.

PS: Wegen DirectX Next würde ich momentan eher zur Bevorteilung der R500-Architektur neigen, immerhin setzt Microsoft bei der X-Box2 auf diesen Chip. Andernfalls würde sich Microsoft selbst ins Bein schießen.

MadManniMan
2004-02-23, 14:14:40
Original geschrieben von aths
Dazu müsste ich konkrete Daten vom Chip haben :naughty: Das schlimme ist ja, dass der NV34 so gut ist, weil er so schlecht ist. (Gut = billig, schlecht = DX9-Leistung.) Da der Sprung von CineFX zu 3.0 nicht so groß ist, wie von 2.0 zu 3.0, ist der NV34 featuremäßig wahrscheinlich fortschrittlicher, als ATIs R420.

Das bezweifle ich ja nicht, aber dennoch bin ich da leicht anderer Meinung. ATis Problem mit den <9500-Karten ist die fehlende DX9-Fähigkeit. Wenn es Ati mit dem RV370 gelingen sollte, das Teil auf ähnlichem Niveau wie die 5200 zu plazieren, dabei aber die bessere Performance aufzuweisen hat... naja, alles Speku :D

Gast
2004-02-23, 15:11:31
FULL ACK.

Nvidia hat diesmal nicht den Vorteil einer neuen DX-Generation und mit PS3.0 läßt sich wahrscheinlich weniger werben, zumindest habe ich noch in keinem Vobis- oder MediaMarkt-Prospekt die Erwähnung von PS2.0 gesichtet.