Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: ATi R420, R423 & Co. Informationen
Original geschrieben von MadManniMan
Das bezweifle ich ja nicht, aber dennoch bin ich da leicht anderer Meinung. ATis Problem mit den <9500-Karten ist die fehlende DX9-Fähigkeit. Wenn es Ati mit dem RV370 gelingen sollte, das Teil auf ähnlichem Niveau wie die 5200 zu plazieren, dabei aber die bessere Performance aufzuweisen hat... … wird NV versuchen, nachzulegen. Ob nun mit einer 5200 auf NV35-Basis, oder gleich einem NV40-Abkömmling ...
Jedenfalls hat NV im Moment den DX-Value-Markt, wenn man das mal so nennen darf, gut im Griff (sie haben dieses Marktsegment ja praktisch erst geschaffen.) Ich glaube nicht, dass die Jungs von ATI in diesem Segment jetzt so einfach große Profite einfahren können.
nggalai
2004-02-23, 15:15:33
Original geschrieben von Gast
FULL ACK.
Nvidia hat diesmal nicht den Vorteil einer neuen DX-Generation und mit PS3.0 läßt sich wahrscheinlich weniger werben, zumindest habe ich noch in keinem Vobis- oder MediaMarkt-Prospekt die Erwähnung von PS2.0 gesichtet. Nix hindert NVIDIA daran, einen neuen Marketingblubber wie, hmm, DirectX9 eXtended oder gar DirectX9.1 fürs Marketing zu verwenden ...
93,
-Sascha.rb
Dann kann aber auch niemand ATI hindern eine eigene Bezeichnung zu verwenden, z.B. DX 9.X. Dann würde sich keiner mehr dafür interessieren was hinter der 9 steht, sondern einzig für die 9.
MadMan2k
2004-02-23, 15:21:05
wie hier schon öfters gesagt, müssen wir uns erstmal die PS 2.0 Performance beider Chips betrachten.
Wenn hier der R420 weit vor dem NV40 ist, dann hat Ati absolut kein Problem, denn PS 3.0 enthalten nur Optimierungen, die aber vom PS 2.0 Speed abhängig sind.
Und wenn denn dieser Fall eintrifft, dann sehe ich das "Problem" eher bei NVIDIA, die die Entwickler dazu bringen müssen die Shader auch in PS 3.0 zu exportieren.
(jetzige Situation)
tokugawa
2004-02-23, 15:25:18
Original geschrieben von Hauwech
Woher weisst du das fast alles an Hardware aelter als GF4MX ersetzt wurde? Von den Herstellern DX7 mit neuen Modellen natuerlich, aber beim Privatanwender? Ueber die Relevanz von Prae-GF4MX-Karten fuer Programmierer frage ich doch mal lieber Demirug. Ob nu GF4MX oder aelter, es steht DX7 auf der Hardware und damit basta. Wie schnell ist egal siehe FX5200 mit DX9.
Viele Progger duerften nicht erst seit gestern mit HLSL rumspielen. Die Erfahrung mit DX7 duerfte es nicht sehr schwer machen es zu implementieren. Weiterhin: Viele Spieleengines werden lizensiert bzw weiterverwendet / weiterentwickelt. Wenn beim Vorgaenger oder der Lizenzversion DX7 schon mitenthalten ist, wo soll da noch gross Aufwand sein DX7 zu pflegen?
Was auch noch mit reinspielt: der asiatische Markt. Imho ein nicht zu unterschaetzendes Verkaufsgebiet und gerade da sind noch sehr viele <=DX7 Karten unterwegs.
Demirug oder Nggalai haben es mal schoen ausgedrueckt: Im Prinzip ist JEDER Privatrechner ein potenzieller Kunde fuer ein Spiel und sei es ein TNT Rechner.
Ich persönlich finde auch, dass die Qualität einer Engine nicht nur von den Top-Features und State-of-the-Art Techniken abhängt (davon natürlich auch), sondern auch von der Skalierbarkeit, also dass sie mit heruntergeschalteten Features im Großen und Ganzen auch auf "alter" Hardware gut läuft, und das in einer (relativ guten) Grafikqualität bezogen auf die "Target-Hardware".
Leonidas
2004-02-23, 15:39:10
Original geschrieben von aths
Zur Not setzt NV auf das Prinzip Hoffnung und verklickert dem Kunden, damit könne er auch morgen noch alle Effekte sehen, und wenn erst mal 3.0 supportet würde, zöge die HW auch richtig davon.
Ich stelle mir bildlich schon den Test in der CB vor, bei welchem genau das als letzter Satz steht ...
deekey777
2004-02-23, 15:40:50
Irgendwie erinnert mich die PS2.0-PS3.0 Diskussion an eine Szene in Futurama (Season one, Folge 7), wo ein Schwarzmarkthändler Fry "Z-Ray"-Augen andrehen will:" Z(-Ray) ist genau so gut - das ist so gar zwei Buchstaben weiter als das X" ;D
tokugawa
2004-02-23, 15:41:28
Original geschrieben von Hauwech
Dazu kommt noch das alle Spieleprogger erst mit mindestens DX8 Techlevel angefangen haben und nirgendwo jemand DX7 Code rumliegen hat und diesen daher erst muehsam fuer jedes Spiel neu erlernen muss. Nee is klar...
Wie bitte? DX8 Tech Level setzt zwangweise Wissen über DX7 "Tech Level" vorraus (mal abgesehen dass DX7 "Tech Level" so simpel ist, dass es eigentlich sowieso jeder, der sich mit 3D Programmierung beschäftigt, wissen muß).
Die neuen DX8 Interfaces sind außerdem nicht so grundverschieden von den DX7 Interfaces.
Ein Spieleprogrammierer (wie kommst du überhaupt dazu, pauschal "alle Spieleprogger" zu nennen?) sollte keinen wesentlichen Aufwand haben, erst einmal eine Engine ohne Shader zu schreiben, und dann mittels Shader zusätzliche Effekte, Vereinfachungen, Beschleunigungen und Zusatzberechnungen einzubauen; Das Ergebnis ist dann DX8. Kaum ein Spieleprogrammierer wird eine Engine "from scratch" mit Shaderprogrammierung beginnen (zumindest nicht mit Effektshadern, gewisse Sachen die mit Shadern bequemer zu lösen sind als mit Fixed-Function, werden sicher früher implementiert).
So gesehen setzt DX8 Tech Level Programmierung quasi DX7 Wissen voraus (wobei ich DX7 "Wissen" als eine der Grundvorraussetzungen ansehe, um überhaupt Direct3D programmieren zu können +/- ein paar irrelevante Details wie Interface- und Methoden-Namen).
Original geschrieben von Hauwech
Beim naechsten mal erst denken dann schreiben, bitte. Sorry, aber ich finde es langsam zum Kotzen.
Wenn man im Glashaus sitzt...
Was jetzt interessiert sind Methoden von AA, AF sowie genauere interne Daten zu den Pipelines sowie Benchmarks, Benchmarks, Benchmarks!
Also wer hat was zu bieten;)
Exxtreme
2004-02-23, 16:23:07
Original geschrieben von Gast
Was jetzt interessiert sind Methoden von AA, AF sowie genauere interne Daten zu den Pipelines sowie Benchmarks, Benchmarks, Benchmarks!
Also wer hat was zu bieten;)
Ich hörte, die Firma ATi weiss über sowas bescheid. ;D
Nvidia soll auch im wesentlichen über den NV40 bescheid wissen, bei manchen Internas verweisen sie dann aber doch auf ATI.
reunion
2004-02-23, 16:29:17
Original geschrieben von aths
Aber wenn sie sich von der Technologieführerschaft verabschieden, ist das ein klares Zeichen begrenzter Entwicklungsressourcen. NV hat seit CineFX technisch das Ruder übernommen. Wenn ATI es nicht mal schafft, in dieser langen Zeit eine 3.0-fähige Karte zu bringen, erwarte ich keine sowohl schnelle als auch ansonsten fortschrittliche DX-Next-Hardware von ATI.
Also ich verstehe dein Problem nicht, ATI ist mit dem R300 technologisch meilenweit zurückgefallen, trozdem kaufte der Kunde die schnelleren ATI Karten, mit dem R420 hat ATI rein technologisch sogar aufgeholt, denn man kann jetzt immerhin 512 satt 96 Anweisungen ausführen, während NV mit dem NV40 am PS wohl kaum etwas geändert hat, da man die PS3.0 vorraussetztungen ja schon fast erfüllt hatte...
Demirug
2004-02-23, 16:58:42
Original geschrieben von reunion
Also ich verstehe dein Problem nicht, ATI ist mit dem R300 technologisch meilenweit zurückgefallen, trozdem kaufte der Kunde die schnelleren ATI Karten, mit dem R420 hat ATI rein technologisch sogar aufgeholt, denn man kann jetzt immerhin 512 satt 96 Anweisungen ausführen, während NV mit dem NV40 am PS wohl kaum etwas geändert hat, da man die PS3.0 vorraussetztungen ja schon fast erfüllt hatte...
Sorry aber dem NV3X fehlte der ganze Branching Teil. Das ist der für Entwickler derzeit interesanteste Teil an PS 3.0. Die grosse Shaderlänge ohne Branching ist Interesant für "Offline"-Anwendungen aber für Echtzeit nutzloss weil zu langsam.
reunion
2004-02-23, 17:03:15
Original geschrieben von Demirug
Sorry aber dem NV3X fehlte der ganze Branching Teil. Das ist der für Entwickler derzeit interesanteste Teil an PS 3.0. Die grosse Shaderlänge ohne Branching ist Interesant für "Offline"-Anwendungen aber für Echtzeit nutzloss weil zu langsam.
Mag schon sein, nur wie gesagt ATI war seit dem NV30 technologisch weit hinten und niemanden hats gestört, da letztendlich eben die fps zählen...
Demirug
2004-02-23, 17:18:26
Original geschrieben von reunion
Mag schon sein, nur wie gesagt ATI war seit dem NV30 technologisch weit hinten und niemanden hats gestört, da letztendlich eben die fps zählen...
Technologie ist für den Spieler nur interesant wenn er entweder etwas von sieht oder es die Sache schneller macht. Die 2.X Features des NV3X waren spieletechnisch dafür nicht zu gebrauchen.
betasilie
2004-02-23, 17:21:57
Original geschrieben von aths
Was ist, wenn die Entwickler alternativ 3.0-er Shader anbieten, die gegenüber 2.X Berechnungen einsparen, und der NV40 somit aus seiner geringeren Rohleistung mindestens die gleiche Framerate rausholt?
Dann hat NV einen großen Vorteil, weil gleich schnell und technologischer Vorreiter. Das schrieb ich aber schon. ;)
Die Frage ist dann aber wann und welche Spiele durch Passreduktion via 3.0Shader beschleunigt werden. So einen Renderpath nachträglich zu patchen mag evtl. kein so großer Aufwand sein, aber das heißt noch lange nicht, dass es kurze Zeit nach dem Relase wirklich Games gibt, die durch einen NV40-Renderpfad beschleunigt werden. Der Grundstein für das Image der beiden GPUs wird in den ersten Wochen gelegt.
Von daher ist das imo für das Marketing des NV40 relativ irrelevant. Interessanter wäre da eher ein Echtzeishadercompiler im Treiber oder halt eine ordentliche Shaderdatenbank, so dass der NV40 direkt Standard-2.0Shader durch schnelle 3.0Shader ersetzen kann. Ich glaube aber nicht, dass NV solche Treiber beim Release des Chips hinbekommt.
Original geschrieben von aths
Das Image, bei DX9-Spielen langsamer zu sein, hat NV schon. NV wird versuchen dafür zu sorgen, dass der Kunde denkt, mit einem R420 könnte er nicht alle Effekte sehen.
Klar wird NV das versuchen, aber das wird nur mit tatkräftiger Unterstützung bei NextGen-Games gelingen. Wann sie mit diesem Marketinginstrument antreten können steht aber in den Sternen. Einfach nur mit Marketinggebrabbel werden sie keinen Überzeugen; das hat schon bei CineFX kaum einen Überzeugt. Es müssen Spiele her, die das demonstrieren. ... Ich persönlcih glaube eigentlich, dass nur ein Spiel 2004 wirklich ein paar 3.0Shader nutzen wird; STALKER.
Original geschrieben von aths
Natürlich hat NV den Vorteil. Als sie den T&L-Standard für DX7 setzten, waren sie maßgeblich mit an der VS_1_1-Definition beteiligt. Ausgehend vom Pixelshader 1.1 setzten sie auch den 1.3-Standard. Ausgehen von CineFX prägten sie die 3.0-Definition entscheidend mit.
Als ATI beim PS_1_4 Technologieführer war, war es ATI, welche den Nachfolger 2.0 prägte.
Wer wird bei der 4.0-Definition Ton angebend sein? Wer wird über die größere Erfahrung verfügen, solch komplexen Shader zu implementieren?
Die Vorteile sehe ich bei NV.
Ich nicht. Ich zweifel auch die Beweiskraft deiner Argumentation an. Zwar ist das alles so passiert, wie Du das geschrieben hast, aber daraus Schlüsse für die Zukunft zu ziehen halte ich für gewagt.
Imho ist völlig offen wer den größeren Einfluss bei der Festlegung der 4.0-Defnition haben wird. Wenn z.B. ATI mit dem R500, welcher ja schon einige Zeit in der Entwicklung ist, direkt die Shader4.0-Unterstützung anstrebt, könnte es sehr wohl passieren, dass NV wieder das Nachsehen hat, wie bei den 2.0-Shadern. Hinzu kommt, dass ATI den X-BoxII-Chip entwickelt und das ist ein weiterer und sehr gewichtiger Faktor, der eher dafür spricht, dass ATI die nächste Shader-Definition und die dazu gehörigen Shader-Compiler von M$ prägt.
Außerdem kommt der R500 aus der gleichen Hand wie der R300 und ist schon ziemlich lange in der Entwicklung. Durch die extrem lange Entwicklungszeit denke ich nicht, dass ATI einen Nachteil bei der ersten Shader4.0-GPU im Vergleich zu NV haben muss, aber möglich ist es natürlich.
Wayne interessiert Marketing,ist völlig Wurst was NV für Werbetexte hat.
Die Spieler kaufen die Karte ,die mit AA und AF am besten abgeht und ATI hat dazu noch das bessere AA.
NV ist stark im Rückstand nicht ATI !
Black-Scorpion
2004-02-23, 17:35:16
Selbst wenn der NV4x PS3.0 hat, bleibt immernoch die Frage wie schnell die sind.
Und bevor ich keine neutralen Benches gesehen habe, glaube ich nichts.
Schon garnicht was aus der NV Marketingabteilung (THG ;) )kommt.
deekey777
2004-02-23, 17:42:58
Kleine Zusammenfassung: die R420 - die ultimative DX9 Grafikkarte ohne PS 3.0 ;D
Hauwech
2004-02-23, 18:00:28
Mein lieber tokugawa
[] Du hast gelesen was Stefan geschrieben hat und hast mal wieder die pauschale Verurteilung von nVidia als Wurzel allen Uebels erkannt.
[] Du hast mein Posting wirklich gelesen und den Sarkasmus darin erkannt. Wenn nicht, nochmal lesen und den gedanklichen Zusammenhang mit Stefans Posting herstellen. ;)
StefanV
2004-02-23, 18:17:30
Original geschrieben von Hauwech
Mein lieber tokugawa
[] Du hast gelesen was Stefan geschrieben hat und hast mal wieder die pauschale Verurteilung von nVidia als Wurzel allen Uebels erkannt.
[] Du hast mein Posting wirklich gelesen und den Sarkasmus darin erkannt. Wenn nicht, nochmal lesen und den gedanklichen Zusammenhang mit Stefans Posting herstellen. ;)
Hat er vermutlich, denn durchgängig Pixelshader setzt nunmal vorraus, daß man auf 'DX7 Karten' keine Rücksicht mehr nehmen muss...
Muss man aber dummerweise noch, das größte Übel ist IMO nunmal die GF4 MX, sei es nun, weil sie GF4 heißt oder weil sie die letzte 'Mid Range' Karte war, bis die FX5200 erschien.
Die 7x00 zählen nicht, denn die wurden nach dem Erscheinen der RV250 mehr und mehr ins Office Segment gedrückt.
Übrigens: auf die Kyros nimmt momentan kaum ein Spieleprogger noch rücksicht...
tokugawa
2004-02-23, 18:32:27
Original geschrieben von Hauwech
Mein lieber tokugawa
[] Du hast gelesen was Stefan geschrieben hat und hast mal wieder die pauschale Verurteilung von nVidia als Wurzel allen Uebels erkannt.
[] Du hast mein Posting wirklich gelesen und den Sarkasmus darin erkannt. Wenn nicht, nochmal lesen und den gedanklichen Zusammenhang mit Stefans Posting herstellen. ;)
Tja, bin dem Sarkasmus anscheinend reingefallen (der kommt aber meiner Meinung nach schriftlich sowieso oft nicht so rüber wie er sollte...), Asche auf mein Haupt, und ich nehm alles zurück ;D
Original geschrieben von deekey777
Kleine Zusammenfassung: die R420 - die ultimative DX9 Grafikkarte ohne PS 3.0 ;D
Stimmt THG ist lächerlich
Wenn sie die erste Benchmarks haben,steht als Überschrift bestimmt "NV40 stikes back" ;D
Hauwech
2004-02-23, 18:40:45
Genau lieber Stefan, dadurch das DX7 ja auch so neu ist und garantiert keiner der Spieleprogrammierer auf vorhandenen Code zurueckgreifen kann und wie man DX7-Fallbacks einbaut, deshalb ist das ja auch so wahnsinnig schwer.
Sorry Stefan, aber das Einbauen eines solchen DX7-Fallbacks duerfte mittlerweile ein alter Hut sein und dementsprechend schnell und vernuenftig zu loesen sein. Ich finde es einfach ungerechtfertigt nVidia als alleinigen Schuldigen an dieser Situation darzustellen.
tokugawa
2004-02-23, 18:43:10
Original geschrieben von Stefan Payne
Hat er vermutlich, denn durchgängig Pixelshader setzt nunmal vorraus, daß man auf 'DX7 Karten' keine Rücksicht mehr nehmen muss...
Muss man aber dummerweise noch, das größte Übel ist IMO nunmal die GF4 MX, sei es nun, weil sie GF4 heißt oder weil sie die letzte 'Mid Range' Karte war, bis die FX5200 erschien.
Die 7x00 zählen nicht, denn die wurden nach dem Erscheinen der RV250 mehr und mehr ins Office Segment gedrückt.
Übrigens: auf die Kyros nimmt momentan kaum ein Spieleprogger noch rücksicht...
Ich wiederhol's allerdings noch einmal... Prinzipiell, wenn ein Software-Ingenieur eine 3D Engine "from scratch" angeht, verwendet er nicht sofort Pixel Shader. Das erste Grundgerüst wird zwar DX8 verwenden, aber eher nicht DX8 Shader (natürlich gibt's vermutlich Extremfälle, die schnell irgendwelche Shader einbauen).
Aber prinzipiell gibt's eine Reihenfolge, wie man Dinge implementiert, und Shader stehen eigentlich nicht sehr weit vorn (Effektshader schon gar nicht, wenn, dann Shader, mit denen sich Nachteile im Fixed-Function Teil umgehen lassen, und selbst das kommt später als das "Shaderlose" Grundgerüst).
Es ist nicht so, dass man selbst heute in einer DX8 Tech Level Engine auf "DX7" Rücksicht nimmt, sondern, dass man immer mehr zu einem DX7 Tech Level Grundgerüst dazubaut (an Effekten oder so), dass man ohne diese Effekte die Engine gar nicht mehr sehen möchte; es wäre aber meistens möglich, zumindest wenn die Shader keinen wertvollen Einfluß auf das Gameplay haben (bei Deus Ex 2 dachte sich jeder z.B. die Schatten hätten eine große spieltechnische Relevanz, was leider nicht ganz so geworden ist).
Mit anderen Worten, am "DX7 Tech Level" muß jede Engine vorbei, und ich halte den meisten Shader-Anbau für Zusätze. Ich will das jetzt nicht pauschal sagen, es könnte doch Ausnahmen geben, aber das ist doch der Standard.
Es ist also kein Aufwand, auch für DX7 Tech Level Unterstützung anzubieten, und sehr viel "Rücksicht" ist gar nicht erforderlich (dass die Engine im DX7 Tech Level Renderpfad natürlich häßlicher sein wird, ist wohl klar).
Natürlich, wenn man DX7 Tech Level unterstützt, forciert man natürlich nicht, dass sich DX8 und höher Tech Level Karten durchsetzen.
Es ist irgendwie ein Kreis:
- einerseits unterstützen Engines noch immer weitestgehend DX7 (einfach weil es nicht wirklich ein Aufwand ist, darauf "Rücksicht" zu nehmen; und wie ich in einem anderen Posting erwähnt hab, finde ich, dass Skalierbarkeit der Engine ein Qualitätsmerkmal ist, und nicht nur State-of-the-Art Techniken), und forcieren damit nicht wirklich, dass DX7 Hardware ausge"phased" wird
- andererseits gibt's noch immer DX7 Karten, und die Nutzer werden sich denken "Kann die Engine auch noch einigermaßen runterschalten dass es auf meiner Karte rennt" (wie gesagt, ich finde das eine gute Eigenschaft!), und werden wohl das Upgraden weiter rauszögern.
Aber ich finde auch nicht, dass das Vorhandensein von viel DX7 Hardware auf dem Markt unbedingt bedeutet, dass neue Hardware Features nicht unterstützt werden, wie gesagt, ich halte Skalierbarkeit (ins High _und_ Low End) für ein Engine-Qualitätsmerkmal.
Hauwech
2004-02-23, 18:43:48
@tokugawa
Kein Problem und recht hast du mit dem Sarkasmus :)
:bier:
ice cool69
2004-02-23, 18:58:07
Ist es nicht so dass Shader 3.0 eigentlich nur Geschwindigkeitsvorteile bei den Spielen bringen können?
In diesem Fall wäre es möglich dass ATi trotz allem die besseren Shader haben wird, da die Performance der nvidia-Shader bislang nicht überzeugen konnte.
Komplexer heißt eben nicht automatisch besser. Wer weiß vielleicht werden ATIs Shader trotz ihrer älteren Versionsnummer nach wie vor schneller sein als die von nvidia. Da die Shader 3.0 auch keine neuen/bessere Effekte ermöglichen ist noch lange nicht gesagt wer hier das bessere Produkt liefert, auch nicht was die Shader angeht.
Piffan
2004-02-23, 20:25:30
Frage: Was heißt "Branching"? Ist damit die Verzweigbarkeit bzw. die Möglichkeit zum Abbruch gemeint? (Entscheidungen, Sprünge?)
.....
Es wurde ja früher gemunkelt, dass CineFX vom Prinzip einer CPU recht nahe kommt........Zwar bisher relativ lahm und mit einigen Macken versehen (Sensibilität gegenüber der Shaderreihenfolge), aber wesentlich flexibler als Atis Lösung mit den klassischen Pipelines.....
Wer weiß, vielleicht gereicht NVs "Schwäche" bei der Shaderleistung noch zum Vorteil, eben weil die CineFX- Technik bessere Zukunftsoptionen aufweist und nun "nur" noch Performancebremsen gelöst werden müssen.......
Egal wer das Rennen macht, die Konkurrenz wird so oder so dafür sorgen, dass die nächste Chipgeneration wieder einen echten Sprung nach vorne bringt. Beide Gegner belauern sich, wobei mir NV momentan die besseren Karten hat: Erfahrungen bei der Prozesstechnologie bei der Chipherstellung, (man ist eine Evolutionstufe weiter als Ati), als auch bei der Grafiktechnologie (man bietet eine flexiblere und damit wahrscheinlich per se schnellere Shadertechnnik an). Ati ist verurteilt, einen gewaltigen Performance- Satz nach vorne zu machen. So oder so wird es hochinteressant :)
PS3.0 vom optischen nichts besonderes. Viel wichtiger ist die Tatsache, dass sie viel flexibler und effizienter ist, als PS2.0.
Demirug
2004-02-23, 20:35:44
Original geschrieben von Piffan
Frage: Was heißt "Branching"? Ist damit die Verzweigbarkeit bzw. die Möglichkeit zum Abbruch gemeint? (Entscheidungen, Sprünge?)
.....
Ja, genau das. Bisher musste ein Shaderprogramm immer komplett vom Anfang bis zum Ende einmal durchlaufen. Durch Branching lassen sich einzelne Anweisungen überspringen die für einen Pixel nicht relevant sind.
Original geschrieben von Demirug
Ja, genau das. Bisher musste ein Shaderprogramm immer komplett vom Anfang bis zum Ende einmal durchlaufen. Durch Branching lassen sich einzelne Anweisungen überspringen die für einen Pixel nicht relevant sind.
Die Fragen aller Fragen ist doch Schlußendlich:
Wie schnell ist das Branching im NV40?
Kann der NV40 schnell und mit hoher Effizienz branchen (hört sich etwas kringelig an ;) ) dann sollte der NV40 in den meisten Demos und Benchmarks vorne liegen, soweit diese PS3.0 Features unterstützen.
Wenn aber das Branching langsam ist, ( wie Ailuros einmal angedeutet hat ) und die Geschwindigkeit auf 1/4 zusammenfällt weil er den Rest des Quad einfach wegschmeißen muss, dann sollte ein sehr schneller PS2.0 - Chip wie es der R420 ja angeblich werden soll auch in PS3.0 Demos und Benchmarks, solange sie nicht pathologisch geschrieben wurden, gleichauf oder sogar vorne liegen.
Die Einschätzung des R420 hängt also imho ganz entscheidend von der NV40-Performance ab. So wie die NV30 Performance ja auch nur wegen der sehr guten R300 Performance als schlecht angesehen wurde, könnte Nvidia jetzt zurückschlagen und den R420 schlecht aussehen lassen.
Demirug
2004-02-23, 21:41:50
Original geschrieben von Gast
Die Fragen aller Fragen ist doch Schlußendlich:
Wie schnell ist das Branching im NV40?
Kann der NV40 schnell und mit hoher Effizienz branchen (hört sich etwas kringelig an ;) ) dann sollte der NV40 in den meisten Demos und Benchmarks vorne liegen, soweit diese PS3.0 Features unterstützen.
Wenn aber das Branching langsam ist, ( wie Ailuros einmal angedeutet hat ) und die Geschwindigkeit auf 1/4 zusammenfällt weil er den Rest des Quad einfach wegschmeißen muss, dann sollte ein sehr schneller PS2.0 - Chip wie es der R420 ja angeblich werden soll auch in PS3.0 Demos und Benchmarks, solange sie nicht pathologisch geschrieben wurden, gleichauf oder sogar vorne liegen.
Die Einschätzung des R420 hängt also imho ganz entscheidend von der NV40-Performance ab. So wie die NV30 Performance ja auch nur wegen der sehr guten R300 Performance als schlecht angesehen wurde, könnte Nvidia jetzt zurückschlagen und den R420 schlecht aussehen lassen.
Das mit dem 1/4 von Ailuros war ein Worst Case Fall.
Gehen wir mal davon aus das nVidia das ganze einigermassen vernüpftig implementiert hat. Wenn sie sich an ihere eigenen Patente (Es gibt da was fürs Branchen im Vertexbereich) gehalten haben sitzt an Ende der Pipeline eine zusätzliche Einheit welche den IP (Instruktionszeiger) einer Recheneinheit verändern kann. Aus Gründen der Einsparung von Transitoren neigt man nun ja dazu Pixel in Form von Quads zu rechnen. Und genau hier ist auch der Punkt bezüglich des Leistungseinbruchs auf ein viertel zu suchen. Aber fangen wir mal mit dem Idealfall an.
Wir kommen an einen Branchpunkt und alle 4 Pixel folgen dem gleichen Codepfad. In diesem Fall wird der alternative Pfad einfach übersprungen und die Sache läuft mit maximalem Speed. Die Wahrscheinlichkeit das 4 benachbarte Pixel dem gleichen Pfad folgen ist gar nicht mal so gering.
Nun müssen wir natürlich die Fälle betrachten die nicht Ideal sind. Zuerst einmal eine WENN DANN Folge ohne SONST Zweig. In diesem Fall müssten Pixel für die Bedingung nicht zutrift den anderen mit durch den DANN-Zweig folgen aber die Berechnungen nicht ausführen. Es entsteht Verschnitt aber noch kein richtiger Verlust weil der Quad ja die Takte sowieso gebraucht hätte.
Der nächste Fall ist nun ein WENN DANN SONST Fall. Sollte sich hier nicht alle Pixel auf einen Pfad begeben muss der Quad durch beide Möglichkeiten gehen und wechselweise die entsprechenden Pixel aktivieren und deaktivieren. Hier verliert man nun Takte im Verhältniss zum Idealfall.
Um nun auf die besagten 1/4 zu kommen braucht man zwei ineinader verschachtelte WENN DANN SONST Anweisungen und jeder Pixel muss einem anderen Zweig folgen. In diesem Fall ist dann immer nur einer der 4 Pixel für jeden Pfad aktiv.
Nun vergleichen wir das ganze aber mal mit einer PS 2.0 Lösung ohne Branching. In diesem Fall muss jeder Pixel durch alle mögliche Pfade und anschliessend muss dann noch das richtige Ergebniss gewählt werden.
Daher ist selbst im Worstcase Fall eine 3.0 Lösung mit Branching (wenn die Hardware vernüpftig gebaut wurde) mindestens genauso schnell wie die 2.0 Lösung für jeden Pixel braucht.
Wenn das jetzt zu unverständlich war kann ich auch versuchen es mit einer Zeichung darzustellen.
Piffan
2004-02-23, 21:42:06
Original geschrieben von Gast
........ solange sie nicht pathologisch geschrieben wurden.....
Tolle Formulierung! ;D
Aber was heißt schon pathologisch, wenn das richtige Schmiermittel fließt, dann entwickeln manche Leute einen sehr GESUNDEN Instinkt! *eg*
Demi ich denke jeder der mal programmiert hat, hat verstanden was du sagtest :)
Ausserdem denke ich solltest du trotzdem einen PS2.0 /Ps3.0 Artikel schreiben. Ich fand den CineFX artikel nicht so unverständlich.
allerdings hast du recht damit dass man erst warten sollte bis die beiden Chips am Markt sind.
betasilie
2004-02-23, 22:59:12
Original geschrieben von Gast
Demi ich denke jeder der mal programmiert hat, hat verstanden was du sagtest :)
Ausserdem denke ich solltest du trotzdem einen PS2.0 /Ps3.0 Artikel schreiben. Ich fand den CineFX artikel nicht so unverständlich.
allerdings hast du recht damit dass man erst warten sollte bis die beiden Chips am Markt sind.
Full Ack. Ich würde so einen Artikel von Demirug auch sehr begrüßen. :)
Godmode
2004-02-23, 23:23:56
Ich hab mir hier mal die ganzen Posts durchgelesen und irgendwie denke ich mir das manche Leute die Posts der anderen gar nicht lesen. Irgendwie redet ihr teilweise völlig neben dem was Demirug gesagt hat. Und ich weiss das er im Bezug auf GPUs, Shader, 3D-Programmierung sicherlich einer der besten hier ist, wenn nicht der beste. Ist das nicht verständlich das man mit 3.0 Shader einen 2.0 Shader viel effizienter ausführen kann? Den 2.0 Shader muss ich bis zum Ende durchlaufen lassen, den 3.0 Shader hingegen kann ich abbrechen wenn ich zb feststellen kann, dass das Pixel nachher sowiso nicht sichtbar ist!!
Piffan
2004-02-23, 23:31:27
Original geschrieben von bans3i
Ich hab mir hier mal die ganzen Posts durchgelesen und irgendwie denke ich mir das manche Leute die Posts der anderen gar nicht lesen. Irgendwie redet ihr teilweise völlig neben dem was Demirug gesagt hat. Und ich weiss das er im Bezug auf GPUs, Shader, 3D-Programmierung sicherlich einer der besten hier ist, wenn nicht der beste. Ist das nicht verständlich das man mit 3.0 Shader einen 2.0 Shader viel effizienter ausführen kann? Den 2.0 Shader muss ich bis zum Ende durchlaufen lassen, den 3.0 Shader hingegen kann ich abbrechen wenn ich zb feststellen kann, dass das Pixel nachher sowiso nicht sichtbar ist!!
So geht mir das auch immer. Bin selbst ja nur Spieler und erhasche mal hier und da ein paar Krumen und bin dann immer geplättet, wie uneinsichtig bzw. stur manche sind. So nach dem Motto, dass nicht sein kann was nicht sein darf, da wird innerlich alles irgendwie zurechtgeboben....
Es ist doch wohl klar, dass NV das Pulver noch nicht verschossen hat. Wer geglaubt hat, dass Ati mit ein paar lumpigen Prozenten "Marktführerschaft" nun plötzlich allein die Musik macht, der träumt. Andererseits ist ja absolut noch in den Sternen, wie der theoretische Vorteil von PS 3.0 nach der technischen Realisierung im Spieleeinsatz abschneidet.
Original geschrieben von Piffan
So geht mir das auch immer. Bin selbst ja nur Spieler und erhasche mal hier und da ein paar Krumen und bin dann immer geplättet, wie uneinsichtig bzw. stur manche sind. So nach dem Motto, dass nicht sein kann was nicht sein darf, da wird innerlich alles irgendwie zurechtgeboben....
Wäre schön wenn du dich dran hältst
Exxtreme
2004-02-23, 23:38:15
Original geschrieben von Piffan
Andererseits ist ja absolut noch in den Sternen, wie der theoretische Vorteil von PS 3.0 nach der technischen Realisierung im Spieleeinsatz abschneidet.
Je länger und komplexer ein Shader ist, desto höher die Wahrscheinlichkeit, daß PS3.0 was bringt. Ja, Branching ist ein sehr nettes Feature. Vor allem wenn man Dinge miteinander kombinieren will.
Exxtreme
2004-02-23, 23:41:55
Original geschrieben von Gast
Wäre schön wenn du dich dran hältst
Wäre schön, wenn du mal aufhören würdest mit dem Spamming. Deine überflüssigen Kommentare habe ich ein Paar Mal schon selbst entsorgt. Und wenn du so weiter machst, werden es noch einige mehr werden.
Godmode
2004-02-23, 23:55:59
Bitte führt endlich mal ne Regpflicht im Forum ein, mich gehen diese Anonymen Poster echt auf den S*ck. Und es wird oft nur Scheisse gepostet, sry aber das musste jetz mal sein.
MadMan2k
2004-02-24, 00:59:21
Original geschrieben von bans3i
Bitte führt endlich mal ne Regpflicht im Forum ein, mich gehen diese Anonymen Poster echt auf den S*ck. Und es wird oft nur Scheisse gepostet, sry aber das musste jetz mal sein.
und mir geht dieses andauernde Gäste-Bashing auf den Sack, denn das ist nicht mehr und nicht weniger Spam.
Also bitte noch alle User im Forum sperren - dann is Ruhe im Karton!!!
Demirug schrieb in seinem Artikel, daß der nv30 etwa mit 1GHz laufen müßte um auf die Rohleistung des r300 zu kommen. Auf der nächsten Seite würde die "echte" Leistung betrachtet, da kam der nv30 in eineigen Fällen nicht mal an die minimale Power des r300. Desweiteren ging Demirug an die Pipelineprobleme bei 2.0 (Quads, Pipeline Stalls, Temp-Register) ein, die nach der DX9 SDK-Compilierung als gegeben betrachtet werden können. Hier wurde seitens nv versucht, treiberseitig zu reagieren.
Es bleibt bei DX9, Version 3 Shader bringen vorallem Verbesserungen im Abarbeiten der Version 2.
Hypothetisch: wie gut wirken sich die positiven Merkmale der 3 Version auf das Abarbeiten der gegebenen Shader (Halo, Shadermark usw.) und dann auf die zukünftige (bei sehr langen wohl sehr viel?)? War es seitens nv notwendig auf die 3er Version zu gehen, da der im Treiber intergrierte "zur Laufzeit Compiler" nicht die erhofften Performancesprünge brachte? Wie stark kann der aufgebohrte r300 (r420) bei sehr wahrscheinlichen 500 MHz seine Leistung noch verbessern?
Quasar
2004-02-24, 10:32:19
Original geschrieben von Gast
Demirug schrieb in seinem Artikel, daß der nv30 etwa mit 1GHz laufen müßte um auf die Rohleistung des r300 zu kommen.
Der nV35 braucht dazu 'nur noch' 500MHz...
Original geschrieben von Gast
Auf der nächsten Seite würde die "echte" Leistung betrachtet, da kam der nv30 in eineigen Fällen nicht mal an die minimale Power des r300. Desweiteren ging Demirug an die Pipelineprobleme bei 2.0 (Quads, Pipeline Stalls, Temp-Register) ein, die nach der DX9 SDK-Compilierung als gegeben betrachtet werden können. Hier wurde seitens nv versucht, treiberseitig zu reagieren.
Genau, weil man an der Hardware nichts ändern konnte. Beim Design des nV40 waren jedoch a) die bestehenden Probleme bekannt und b) (vielleicht noch wichtiger) die DX9-Spec war festgemauert in der Erden, wie die Form aus Lehm gebrannt, heut noch soll nV40 werden, frisch Designer seid zur Hand. ;)
Original geschrieben von Gast
Es bleibt bei DX9, Version 3 Shader bringen vorallem Verbesserungen im Abarbeiten der Version 2.
Zusammen mit mehr als 500MHz für den nV40, erhöhter Rechenleistung ggü. dem nV35, 'reparierten' Schwachstellen der nV3x-Reihe und 3.0-Speedbonus könnte das doch reichen, oder?
Original geschrieben von Gast
Hypothetisch: wie gut wirken sich die positiven Merkmale der 3 Version auf das Abarbeiten der gegebenen Shader (Halo, Shadermark usw.) und dann auf die zukünftige (bei sehr langen wohl sehr viel?)? War es seitens nv notwendig auf die 3er Version zu gehen, da der im Treiber intergrierte "zur Laufzeit Compiler" nicht die erhofften Performancesprünge brachte? Wie stark kann der aufgebohrte r300 (r420) bei sehr wahrscheinlichen 500 MHz seine Leistung noch verbessern?
Das ist eben die Frage.....
Halo ist ein schlechtes Beispiel IMO, da die Shader sehr fragmentiert zu sein scheinen, darunter auch etliche 1.x-Teile. Die Shadermark-Shader sind, was den Befehlsumfang angeht, AFAIK auch eher simpel, treiben ihr Unwesen aber jeweils auf einer recht großen Anzahl an Pixeln.
We'll see.
Original geschrieben von Quasar
Der nV35 braucht dazu 'nur noch' 500MHz...
Worauf beruht die These? War der nv35 jetzt doppelt so schnell bei Shadermark?
Original geschrieben von Quasar
Halo ist ein schlechtes Beispiel IMO, da die Shader sehr fragmentiert zu sein scheinen, darunter auch etliche 1.x-Teile. Die Shadermark-Shader sind, was den Befehlsumfang angeht, AFAIK auch eher simpel, treiben ihr Unwesen aber jeweils auf einer recht großen Anzahl an Pixeln.
Nehme gerne ein anderes Beispiel.
Demirug
2004-02-24, 10:53:12
Original geschrieben von Gast
Worauf beruht die These? War der nv35 jetzt doppelt so schnell bei Shadermark?
Bei CineFX II wurde die Fliesspunkt Roh-Leistung verdoppelt (etwas mehr sogar).
Die ganze NV3X Reihe hat aber Probleme die Rohleistung in echte Leistung umzusetzten.
deekey777
2004-02-24, 11:53:06
War der nv35 jetzt doppelt so schnell bei Shadermark?
Weil der NV 35 einen Test mehr im Shadermark 2.0 kann - mehr ist da nicht(übertrieben gesagt).
Quasar
2004-02-24, 12:14:30
Original geschrieben von deekey777
Weil der NV 35 einen Test mehr im Shadermark 2.0 kann - mehr ist da nicht(übertrieben gesagt).
*nich_versteh*
Wie meinst du das?
Exxtreme
2004-02-24, 12:19:31
Original geschrieben von deekey777
Weil der NV 35 einen Test mehr im Shadermark 2.0 kann - mehr ist da nicht(übertrieben gesagt).
Nein, der NV35 ist massiv schneller als der NV30 bezüglich Shader und kommt nahe an die R350/R360. Das grössere Problem, was NV hat ist die optimale Ausnutzung. Man muss genau darauf achten wie man die Shadereinheiten programmiert. Die R3x0-Serie ist in dieser Hinsicht deutlich gutmütiger.
Godmode
2004-02-24, 13:15:47
Nvidia hat einfach das große Problem das CineFX extrem ineffizient ist, wenn die Anweisungen nich so kommen wie sie sollten.
Piffan
2004-02-24, 13:31:24
Original geschrieben von bans3i
Nvidia hat einfach das große Problem das CineFX extrem ineffizient ist, wenn die Anweisungen nich so kommen wie sie sollten.
Aber der Umkehrschluss stimmt auch: Wenn sie denn richtig kommen, ist CineFX recht schnell.....
Demirug
2004-02-24, 13:47:51
Original geschrieben von Piffan
Aber der Umkehrschluss stimmt auch: Wenn sie denn richtig kommen, ist CineFX recht schnell.....
Bei CineFX I würde ich das nicht gerade sagen. Da muss man genügend FX12 Berechungen einstreuen um es richtig schnell zu bekommen. CineFX II schaft es allerdings auf 12 FP32 Multiplikationen pro Takt wenn die Codefolge stimmt.
Godmode
2004-02-24, 14:03:03
Wird die neue Architektur CineFX III heißen? oder hat dieser Name schon einen zu schlechten ruf?
deekey777
2004-02-24, 17:05:15
Allein den Namen FX zu verwenden, ist schon mutig.
Zum Thema: FP32 - to be or not to be!
Quelle (http://www.tweakpc.de/mehr_all.php?news_id=5372&s=0&s1=8)
"...Bereits im Dezember informierte ATI die Fachwelt darüber, daß die Pixel-Shader der neuen Grafikkartengeneration mit 32-Bit Genauigkeit rechnen würden."
(Kennt einer die Quelle der Quelle?)
Also was jetzt?
Original geschrieben von reunion
Mag schon sein, nur wie gesagt ATI war seit dem NV30 technologisch weit hinten und niemanden hats gestört, da letztendlich eben die fps zählen... Naja, ATI verkaufte die Radeon recht gut, aber NV verkaufte auch ganz gut. Es zählen nicht nur reineweg die fps, bei NV kam wohl auch noch der Glanz vergangener Tage hinzu.
Ich finde, die ATI-Freaks sollten nicht immer von sich auf andere schließen :)
Original geschrieben von betareverse
Dann hat NV einen großen Vorteil, weil gleich schnell und technologischer Vorreiter. Das schrieb ich aber schon. ;)Jepp.
Original geschrieben von betareverse
Die Frage ist dann aber wann und welche Spiele durch Passreduktion via 3.0Shader beschleunigt werden. So einen Renderpath nachträglich zu patchen mag evtl. kein so großer Aufwand sein, aber das heißt noch lange nicht, dass es kurze Zeit nach dem Relase wirklich Games gibt, die durch einen NV40-Renderpfad beschleunigt werden. Der Grundstein für das Image der beiden GPUs wird in den ersten Wochen gelegt.Passreduktion, wieso? Mit dem neuen Instruction-Count dürfte auch praktisch alles single pass gerendert werden (es sei denn, die 4 dependent reads reichen nicht.)
Der Grundstein mag gelegt sein in den ersten Wochen, aber ein Image der schnellsten Karte reicht nicht auf Dauer. NV kann zur Not mit MHz-Steigerungen nachlegen, ATI kann nicht mal einfach PS.3.0 einbauen.
Original geschrieben von betareverse
Von daher ist das imo für das Marketing des NV40 relativ irrelevant. Interessanter wäre da eher ein Echtzeishadercompiler im Treiber oder halt eine ordentliche Shaderdatenbank, so dass der NV40 direkt Standard-2.0Shader durch schnelle 3.0Shader ersetzen kann. Ich glaube aber nicht, dass NV solche Treiber beim Release des Chips hinbekommt.Ich denke, dass NVs Grund-2.X-Performance hoch genug sein wird, die Erfahrungen in der Optimierung auch, dass sie sich nicht verstecken müssen.
Original geschrieben von betareverse
Klar wird NV das versuchen, aber das wird nur mit tatkräftiger Unterstützung bei NextGen-Games gelingen. Wann sie mit diesem Marketinginstrument antreten können steht aber in den Sternen. Einfach nur mit Marketinggebrabbel werden sie keinen Überzeugen; das hat schon bei CineFX kaum einen Überzeugt. Es müssen Spiele her, die das demonstrieren. ... Ich persönlcih glaube eigentlich, dass nur ein Spiel 2004 wirklich ein paar 3.0Shader nutzen wird; STALKER.Ich denke, dass alleine die Ankündigung reichen wird, um den NV40 attraktiv erscheinen zu lassen.
Original geschrieben von betareverse
Ich nicht. Ich zweifel auch die Beweiskraft deiner Argumentation an. Zwar ist das alles so passiert, wie Du das geschrieben hast, aber daraus Schlüsse für die Zukunft zu ziehen halte ich für gewagt. Das ist erlaubt ;)
Original geschrieben von betareverse
Imho ist völlig offen wer den größeren Einfluss bei der Festlegung der 4.0-Defnition haben wird. Wenn z.B. ATI mit dem R500, welcher ja schon einige Zeit in der Entwicklung ist, direkt die Shader4.0-Unterstützung anstrebt, könnte es sehr wohl passieren, dass NV wieder das Nachsehen hat, wie bei den 2.0-Shadern. Hinzu kommt, dass ATI den X-BoxII-Chip entwickelt und das ist ein weiterer und sehr gewichtiger Faktor, der eher dafür spricht, dass ATI die nächste Shader-Definition und die dazu gehörigen Shader-Compiler von M$ prägt.We will see.
Original geschrieben von betareverse
Außerdem kommt der R500 aus der gleichen Hand wie der R300 und ist schon ziemlich lange in der Entwicklung. Durch die extrem lange Entwicklungszeit denke ich nicht, dass ATI einen Nachteil bei der ersten Shader4.0-GPU im Vergleich zu NV haben muss, aber möglich ist es natürlich. We will see. Ich halte es für riskant, dass ATI diesen Weg geht, aber wahrscheinlich mussten sie ihn gehen. Das ist ja das eigentlich schlimme: Die Ressourcen reichten offenbar nicht für PS.3.0.
Black-Scorpion
2004-02-24, 18:19:59
Wenn man manches so liest, kann man fast glauben das ATI schon dem Untergang nahe ist.
Und das nur weil der NV40 PS3.0 hat und ohne zu wissen wie schnell der NV40 überhaupt ist.
Aber anscheinend hat man vergessen wie es NV mit dem NV30 ergangen ist.
Und das sollte ja schon der Überchip werden.
Man kann zwar darüber Diskutieren ob es von ATI klug war PS3.0 auszulassen, aber der Rest gehört für mich ins Spekulations-Forum.
betasilie
2004-02-24, 18:25:36
Original geschrieben von aths
Ich denke, dass alleine die Ankündigung reichen wird, um den NV40 attraktiv erscheinen zu lassen.
Denke ich nicht. HL2 und DoomII werden die Games sein, die maßgeblich als Zugpferde genutzt werden, weil sie einfach den höchsten Bekanntheitsgrad haben und die Engines sicherlich häufig lizensiert werden.
STALKER ist imho rein marketingtechnisch 2. Garde, wie z.B. auch FarCry.
HL2 sprach für ATI, DoomIII für NV; wer weiß, ob sich das Thema mit NV und R420 nicht anders gestaltet. Vielleicht wird der R420 das neue "Stencil-Monster" und der N40 mit Shader3.0-Unterstützung das "HL2-Monster"!? ;)
Jedenfalls ist mit STALKER frühestens Ende 2004 zu rechnen und ob es wirklich die Killerapplikation sein wird weiß z.zt. kaum einer.
Original geschrieben von aths
Ich halte es für riskant, dass ATI diesen Weg geht, aber wahrscheinlich mussten sie ihn gehen. Das ist ja das eigentlich schlimme: Die Ressourcen reichten offenbar nicht für PS.3.0.
Ein wenig Riskant ist es sicherlich, aber es könnte auch genial sein. :)
deekey777
2004-02-24, 18:27:35
ATi ist tot: t-o-h-t - tot!
HL2 wurde auf einer Geforce 4600 der Presse präsentiert.:D
Heute wurde gemeldet das der R420 in Massenproduktion gehen könnte.
Warum sollten sie es noch heraus zögern ?
Einige behauten ATI wartet noch ab aber warum.
Wenn der R420 früher erscheint, verkaufen sie auch mehr,weil eimige schon ganz heiß sind. *händereib*
Original geschrieben von deekey777
ATi ist tot: t-o-h-t - tot!
HL2 wurde auf einer Geforce 4600 der Presse präsentiert.:D
Bist du dumm ?
Es wurde auf einer 9800pro präsentiert
deekey777
2004-02-24, 18:30:14
Original geschrieben von Gast
Heute wurde gemeldet das der R420 in Massenproduktion gehen könnte.
Warum sollten sie es noch heraus zögern ?
Einige behauten ATI wartet noch ab aber warum.
Wenn der R420 früher erscheint, verkaufen sie auch mehr,weil eimige schon ganz heiß sind. *händereib*
Es gibt ja noch die 9800XT - und diese ist gut.
deekey777
2004-02-24, 18:31:19
Original geschrieben von Gast
Bist du dumm ?
Es wurde auf einer 9800pro präsentiert
Du Nixwisser! HL2 wurde schon im April auf einer 4600 präsentiert - vor dem ATi-VALVe Deal!
Original geschrieben von deekey777
Es gibt ja noch die 9800XT - und diese ist gut.
Aber nicht gut genug
Original geschrieben von deekey777
Du Nixwisser! HL2 wurde schon im April auf einer 4600 präsentiert - vor dem ATi-VALVe Deal!
Auf einer 9800pro,sagt Velve in dem E3 Präsentationsvideo
betasilie
2004-02-24, 18:33:58
Original geschrieben von Gast
Heute wurde gemeldet das der R420 in Massenproduktion gehen könnte.
Warum sollten sie es noch heraus zögern ?
Einige behauten ATI wartet noch ab aber warum.
Weil die R3xx-Karten hervorragend laufen und, entgegen der Spekulationen einiger Member hier, trotz massiver Preisstürze gewinnbringend sind?
PS
Ich ärgere mich aber auch über diese Meldung, denn ich will Reviews sehen. =)
deekey777
2004-02-24, 18:34:05
Original geschrieben von Gast
Auf einer 9800pro,sagt Velve in dem E3 Präsentationsvideo
E3 -> Mai; die allererste Präsentation für die Presse im April. Ich gebs auf!
@betareverse: Leider wahr, ich hätte jetzt eine 9800 Pro so günstig kaufen können... Zu spät.
Original geschrieben von deekey777
E3 -> Mai; die allererste Präsentation für die Presse im April. Ich gebs auf!
Wurde schon immer auf ner ATI präsentiert,klar weil du kein Recht hast.
Original geschrieben von Gast
Heute wurde gemeldet das der R420 in Massenproduktion gehen könnte.
Warum sollten sie es noch heraus zögern ?
Einige behauten ATI wartet noch ab aber warum.
Wenn der R420 früher erscheint, verkaufen sie auch mehr,weil eimige schon ganz heiß sind. *händereib*
Den R420 verschieben nur weil die aktuellen Karten gut laufen ist kein Grund.Dann würde ja nie neue Karten erscheinen,denn ältere Karten laufen immer gut,auch wenn der R420 erscheint, werden alten noch gut laufen.
Weil sie in einer anderen Preiskategorie sind,ist also kein Grund ihn zu verschieben.
Wenns sie den R420 vor dem NV40 bringen,hat nur Vorteile
- die Hardwaregeilen holen sich das Teil eh sofort
- ATI hat die volle Aufmerksamkeit
- dadurch wird auch der Verkauf der älteren Karten angekurbelt
Tigerchen
2004-02-24, 20:02:00
Original geschrieben von Gast
Heute wurde gemeldet das der R420 in Massenproduktion gehen könnte.
Warum sollten sie es noch heraus zögern ?
Einige behauten ATI wartet noch ab aber warum.
Wenn der R420 früher erscheint, verkaufen sie auch mehr,weil eimige schon ganz heiß sind. *händereib*
Humbug.
Daran kannst du ablesen wie schwach nV im Moment ist. Die XT ist ja gereift und entsprechend dürfte die Ausbeute bei der Produktion sein. Und sie verkauft sich blendend. Keine Konkurrenz und schon wird gebremst. Darum kämpfe ich so gerne gegen Monopole.
Also spielt ATI Hase und Igel.
LovesuckZ
2004-02-24, 20:09:20
Original geschrieben von Tigerchen
Daran kannst du ablesen wie schwach nV im Moment ist.
Eher anders rum. Aufgrund der starken preissenkungen von Nvidia musste ATi handeln.
5200 -> 9600SE
5900XT -> 9800pro
Und selbst die 5950 ist sehr früh, deutlich unter dem Preis der 9800XT gewesen.
Waere ATi so überlegen, warum haben die Partner die Preise angepasst?
Es herrscht zur Zeit kein "monopol", nirgends. Ansonsten kaeme es zur Stagnation der Preise, oder nicht?!
betasilie
2004-02-24, 20:20:57
Original geschrieben von LovesuckZ
Eher anders rum. Aufgrund der starken preissenkungen von Nvidia musste ATi handeln.
5200 -> 9600SE
5900XT -> 9800pro
Und selbst die 5950 ist sehr früh, deutlich unter dem Preis der 9800XT gewesen.
Waere ATi so überlegen, warum haben die Partner die Preise angepasst?
Falsch. ATI muss die Preise von sich aus nicht senken, weil sie genug absetzen, sondern reagiert nur auf NV. NV hingegen muss die Preise von sich aus senken, weil sie sonst noch mehr Anteile verlieren würden.
Original geschrieben von LovesuckZ
Es herrscht zur Zeit kein "monopol", nirgends. Ansonsten kaeme es zur Stagnation der Preise, oder nicht?!
Hat das wer behauptet? :gruebel:
Original geschrieben von LovesuckZ
Eher ander's rum. Aufgrund der starken preissenungen von Nvidia musste ATi handeln.
5200 -> 9600SE
5900XT -> 9800pro
Und selbst die 5950 ist sehr früh deutlich unter dem Preis der 9800XT gewesen.
Waere ATi so überlegen, warum haben die Partner die preise so angepasst?
Es herrscht zur Zeit kein "monopol", nirgends. Ansonsten kaeme es zur Stagnation der Preise, oder nicht?!
Sehe ich auch so.
R420 ist serienreif? :cop: Fuad :cop: ;D
Ich glaube nicht, daß ATI den Chip zurückhalten würde, da die neuen Karten in einer deutlich anderen Preisregion liegen werden, als die, die der 9800XT zur Zeit inne hat. Die Devise der Industrie ist, als Erster am Markt präsent zu sein.
Tigerchen
2004-02-24, 20:30:17
Original geschrieben von kmf
Sehe ich auch so.
R420 ist serienreif? :cop: Fuad :cop: ;D
Ich glaube nicht, daß ATI den Chip zurückhalten würde, da die neuen Karten in einer deutlich anderen Preisregion liegen werden, als die, die der 9800XT zur Zeit inne hat. Die Devise der Industrie ist, als Erster am Markt präsent zu sein.
Die Devise ist daß man einen Bestseller nicht gerne vom Markt nimmt.
AlfredENeumann
2004-02-24, 20:41:14
Original geschrieben von Anonym_001
Wenn man manches so liest, kann man fast glauben das ATI schon dem Untergang nahe ist.
Und das nur weil der NV40 PS3.0 hat und ohne zu wissen wie schnell der NV40 überhaupt ist.
Aber anscheinend hat man vergessen wie es NV mit dem NV30 ergangen ist.
Und das sollte ja schon der Überchip werden.
Man kann zwar darüber Diskutieren ob es von ATI klug war PS3.0 auszulassen, aber der Rest gehört für mich ins Spekulations-Forum.
Full Ack
AlfredENeumann
2004-02-24, 20:45:43
Original geschrieben von LovesuckZ
Eher anders rum. Aufgrund der starken preissenkungen von Nvidia musste ATi handeln.
5200 -> 9600SE
5900XT -> 9800pro
Und selbst die 5950 ist sehr früh, deutlich unter dem Preis der 9800XT gewesen.
Waere ATi so überlegen, warum haben die Partner die Preise angepasst?
Es herrscht zur Zeit kein "monopol", nirgends. Ansonsten kaeme es zur Stagnation der Preise, oder nicht?!
Wieso glauben eigentlich hier alle, das wenn der Preis einer Grafikkarte fällt, das der Hersteller des Core´s so massiv den Preis gesenkt hat, das es gleich wer weis wieviel ausmacht?
Schonmal daran gedacht das es noch etliche Firmen gibt die an einer Grafikkarte mitverdienen???
LovesuckZ
2004-02-24, 20:46:12
Original geschrieben von betareverse
Falsch. ATI muss die Preise von sich aus nicht senken, weil sie genug absetzen, sondern reagiert nur auf NV.
Genau das ist es. Nvidia senkt die Preise, die Karten werden attraktiver. Die nachfrage bei den ATi karten laesst nach, also senkt bzw. laesst ATi den Preis der Karten senken. Wenn Nachfrage weiter bestuende, dann senke niemand den Preis.
Deswegen ein "Falsch" an dich zurueck: Wenn ATi genug Karten für einen Preis von b absetze, auch nach einer Preissenkung von Nvidia, wieso sollte man dann den Preis auf a senken? Selbst mit meinen halben Jahr Wirtschaftsausflug im P.B Kurs klingt dies mehr als unlogisch.
Tigerchen
2004-02-24, 20:47:08
Original geschrieben von LovesuckZ
Eher anders rum. Aufgrund der starken preissenkungen von Nvidia musste ATi handeln.
5200 -> 9600SE
5900XT -> 9800pro
Und selbst die 5950 ist sehr früh, deutlich unter dem Preis der 9800XT gewesen.
Waere ATi so überlegen, warum haben die Partner die Preise angepasst?
Es herrscht zur Zeit kein "monopol", nirgends. Ansonsten kaeme es zur Stagnation der Preise, oder nicht?!
Lass mal die kleinen Karten außen vor. Hier geht es nur um die R420 oder?
Verkauft sich denn die 5950 so gut? Oder greifen die Enthusiasten vielleicht doch lieber zur 9800XT?
Natürlich gibt es kein Monopol. Vielleicht etwas unglücklich von mir geschrieben. Ich versuchs mal anders:
Kaum schwächelt der einzige Konkurrent versucht man sich in Salamitaktik ala Intel. Da hofft man daß nV mal wieder richtig Druck macht.
LovesuckZ
2004-02-24, 20:47:45
Original geschrieben von AlfredENeumann
Schonmal daran gedacht das es noch etliche Firmen gibt die an einer Grafikkarte mitverdienen???
Dann kannst du uns unwissenden ja den Preis des Core's nennen, von der Einführung bis jetzt.
Ich kann es nicht und orientiere mich nur an den Preisen der ganzen Karte. Und ich denke nicht, dass ein Partner einfach mal Einbußen von 50€ nur so in kauf nehme, weil sich die Karten "blenden" verkaufen...
Original geschrieben von Tigerchen
Die Devise ist daß man einen Bestseller nicht gerne vom Markt nimmt.
So läuft das aber nun mal,nach der Cebit gehts los.
Tigerchen
2004-02-24, 20:52:31
Original geschrieben von LovesuckZ
Genau das ist es. Nvidia senkt die Preise, die Karten werden attraktiver. Die nachfrage bei den ATi karten laesst nach, also senkt bzw. laesst ATi den Preis der Karten senken. Wenn Nachfrage weiter bestuende, dann senke niemand den Preis.
Deswegen ein "Falsch" an dich zurueck: Wenn ATi genug Karten für einen Preis von b absetze, auch nach einer Preissenkung von Nvidia, wieso sollte man dann den Preis auf a senken? Selbst mit meinen halben Jahr Wirtschaftsausflug im P.B Kurs klingt dies mehr als unlogisch.
Selbst wenn ATI für den R420 mehr Geld kriegen würde heißt das aber noch lange nicht daß sie auch mehr dran verdienen. Der neue Chip dürfte nämlich in der Produktion teurer sein oder etwa nicht?
Godmode
2004-02-24, 21:05:29
Original geschrieben von betareverse
Denke ich nicht. HL2 und DoomII werden die Games sein, die maßgeblich als Zugpferde genutzt werden, weil sie einfach den höchsten Bekanntheitsgrad haben und die Engines sicherlich häufig lizensiert werden.
STALKER ist imho rein marketingtechnisch 2. Garde, wie z.B. auch FarCry.
HL2 sprach für ATI, DoomIII für NV; wer weiß, ob sich das Thema mit NV und R420 nicht anders gestaltet. Vielleicht wird der R420 das neue "Stencil-Monster" und der N40 mit Shader3.0-Unterstützung das "HL2-Monster"!? ;)
Jedenfalls ist mit STALKER frühestens Ende 2004 zu rechnen und ob es wirklich die Killerapplikation sein wird weiß z.zt. kaum einer.
Ein wenig Riskant ist es sicherlich, aber es könnte auch genial sein. :)
Also die CryEngine würde ich nicht 2.Garde einstufen, diese Engine wird eine der Leistungsfähigsten Engines sein und ich glaube das sie sicherlich auf selben Level sind!!! Mit FarCry wird sich sicher zeigen was die Coburger da geleistet haben, und andere Entwickler werden sich sicher mit der neuen Engine anfreunden :)
Original geschrieben von betareverse
Ein wenig Riskant ist es sicherlich, aber es könnte auch genial sein. :) Hat es denn in der Vergangenheit geklappt? (Voodoo5?) Nehmen wir das Beispiel GF4 Ti: Kaum technische Verbesserungen, aber ggü. GF3 doch deutlich mehr Leistung, wenn auch die Pixelshader-Technik bei weitem nicht so gut war, wie beim R200.
Zunächst ging die Rechnung auf.
Dann kam es zum Duell 9700 vs. FX 5800 und 9800 vs. 5900. Das hat im großen und ganzen ATI gewonnen. Natürlich nicht zufällig, sondern weil sie mit der führenden 1.4-er Technik "rechtzeitig" den 2.0-Standard so prägen konnten. Da konnte CineFX featuremäßig noch so fortschrittlich sein, die Entwickler nahmen den 2.0-Standard, den ATI prägte, und dieser performt auf Radeon-Karten entsprechend gut.
Genial, so mag ATIs Entscheidung zeitweise aussehen. Ich bin ziemlich sicher, dass es sich mittelfristig negativ auswirkt.
Ebenso bin ich ziemlich sicher, dass ATI diesen Weg ging, weil sie kaum eine andere Wahl hatten. Alleine das halte ich schon für ein ungutes Vorzeichen.
Sphinx
2004-02-24, 22:01:14
Ich denke mal wir alle werden´s bald wissen.
Ob Genial oder Fatal - Ob lohnend oder nicht - Ob wirklich 2.x oder 3.0 - Ob und wie ,)
Leute ich denke mal wir werden sehen wer wen owned ,)
Ihr Redet euch wirklich mit großen und entäuschten Erwartungen alles irrelevante kaputt...
Es gibt "NICHTS OFFIZIELLES" - Oder wer beweist mir das Gegenteil das dies und das wirklich auch in der Praxis der Wahrheit entspricht was hier einige theoretisch unter Beweis zu stellen Versuchen. Von Verschwörungstheorien MS+ATI(PS2.0) Bis hin zu PS3.0...
Godmode
2004-02-24, 22:21:43
Du nimmst mir sprichwörtlich das Wort aus dem Mund :) Ich mache mir mit jeder neuen Graka Generation wieder einfach viel zu viel Hoffnung auf super hohe Performance und letztendlich sind es dann wieder so durchschnittlich 30-40 Prozent!!! Naja aber es macht jedenfalls Spass zu hoffen
Original geschrieben von bans3i
Du nimmst mir sprichwörtlich das Wort aus dem Mund :) Ich mache mir mit jeder neuen Graka Generation wieder einfach viel zu viel Hoffnung auf super hohe Performance und letztendlich sind es dann wieder so durchschnittlich 30-40 Prozent!!! Naja aber es macht jedenfalls Spass zu hoffen
30-40 % bei 1024 4xaa 8xaf wäre net, wenn die Neuen das können aber ich glaub nicht dran.
AlfredENeumann
2004-02-24, 23:54:00
Original geschrieben von LovesuckZ
Dann kannst du uns unwissenden ja den Preis des Core's nennen, von der Einführung bis jetzt.
Ich kann es nicht und orientiere mich nur an den Preisen der ganzen Karte. Und ich denke nicht, dass ein Partner einfach mal Einbußen von 50€ nur so in kauf nehme, weil sich die Karten "blenden" verkaufen...
Rechne doch einfach mal den Preis der anderen Komponenten zusammen. Preis per 1000Stck sollte man sicher im Internet finden. Dann rechne noch Verpackung, Lagerhaltung, Marketing, Fertigungskosten, Gewinn Hersteller, Gewinn Distributor, Gewinn Großhändler, Gewinn Einzelhändler, davon ab und du weist so ca. was der Core kostet.
Anscheinend ist vielen gar nicht bewußt wieviel Faktoren den Preis eines Produktes beinflußt.
Quasar
2004-02-25, 00:11:37
Rechne es uns doch bitte einmal vor, AEN. Du kennst dich ja anscheinend schon ein wenig damit aus.
mapel110
2004-02-25, 00:55:58
Original geschrieben von aths
Hat es denn in der Vergangenheit geklappt? (Voodoo5?) Nehmen wir das Beispiel GF4 Ti: Kaum technische Verbesserungen, aber ggü. GF3 doch deutlich mehr Leistung, wenn auch die Pixelshader-Technik bei weitem nicht so gut war, wie beim R200.
Zunächst ging die Rechnung auf.
Dann kam es zum Duell 9700 vs. FX 5800 und 9800 vs. 5900. Das hat im großen und ganzen ATI gewonnen. Natürlich nicht zufällig, sondern weil sie mit der führenden 1.4-er Technik "rechtzeitig" den 2.0-Standard so prägen konnten. Da konnte CineFX featuremäßig noch so fortschrittlich sein, die Entwickler nahmen den 2.0-Standard, den ATI prägte, und dieser performt auf Radeon-Karten entsprechend gut.
Genial, so mag ATIs Entscheidung zeitweise aussehen. Ich bin ziemlich sicher, dass es sich mittelfristig negativ auswirkt.
Was meinst du mit diesem "es"? Den wohl immernoch auf ps2.x beschränkten Hardwaresupport?
Original geschrieben von aths
Ebenso bin ich ziemlich sicher, dass ATI diesen Weg ging, weil sie kaum eine andere Wahl hatten. Alleine das halte ich schon für ein ungutes Vorzeichen.
Sehe ich auch so.
Wobei mich derzeit eine Sache interessiert. Wieviel "optischen" Vorteil kann man aus den PS.3.0 ziehen?
betasilie
2004-02-25, 01:14:35
Original geschrieben von aths
Genial, so mag ATIs Entscheidung zeitweise aussehen. Ich bin ziemlich sicher, dass es sich mittelfristig negativ auswirkt.
Dass wird natürlich passieren, daher stellt sich die Frage, wann der R500 kommt. Für 2004 sehe ich keine Probleme für ATIs R420. Es wird allerdings auch meiner Meinung nach irgendwann eine Durststrecke für ATI geben.
Original geschrieben von aths
Ebenso bin ich ziemlich sicher, dass ATI diesen Weg ging, weil sie kaum eine andere Wahl hatten. Alleine das halte ich schon für ein ungutes Vorzeichen.
Das kann ich natürlich nicht widerlegen, aber ich halte es auch für möglich, dass ATI einfach ein absolut brachialen R500 bringen will und deswegen alle Entwicklungsrecourcen möglichst lange auf den R500 richten will.
Auf der anderen Seite könnte natürlich auch deine These zutreffen, nämlich dass der R400 crap war und ATI es einfach nicht so schnell gebacken bekommen hat einen ordentliche Shader3.0-Chip zu entwickeln. ... Vielleicht wird uns jemand bei ATI irgendwann mal in einem Interview offiziell aufklären was es mit dem R400 auf sich hatte.
....
Ich muss jetzt mal eine wichtige Frage stellen:
Wird nV 2004 Midrange-Karten bringen, die PS3.0-Support haben? Ich denke von der transistorenzahl ist das nicht völlig unmöglich, aber doch sehr unwahrscheinlich. Irre ich da?
AlfredENeumann
2004-02-25, 01:24:12
Original geschrieben von Quasar
Rechne es uns doch bitte einmal vor, AEN. Du kennst dich ja anscheinend schon ein wenig damit aus.
Pauschal kann man das nicht sagen, und ich kenne auch nicht alle Kosten, aber grob gerechnet:
Beispiel: 9800Pro 128MB Ladenpreis ~200€
VK an den Distributor netto: 123€
Material: ~40€ RAM, 5€ Retail-Verapckung incl. Kabel und CD, 10€ Kostenanteil Prduktion, Lagerung und Marketing;
Frag mich nicht was ein PCB kostet und die sonstigen Komponenten.
Aber rechne dir das schonmal zusammen, dann weist du das für den Core nicht mehr viel übrigbleibt, zumal einer der großen Kostenfaktoren das RAM auf der Karte ist, was sich auch jeder schnell ausmalen kann. Besonders wenn es neu ist und noch nicht in extremen Stückzahlen Produziert wird.
mapel110
2004-02-25, 01:26:55
Original geschrieben von betareverse
Ich muss jetzt mal eine wichtige Frage stellen:
Wird nV 2004 Midrange-Karten bringen, die PS3.0-Support haben? Ich denke von der transistorenzahl ist das nicht völlig unmöglich, aber doch sehr unwahrscheinlich. Irre ich da?
http://www.3dcenter.org/artikel/2004/01-27_b.php
Ich glaube nicht, dass sich jemand von ATI jemals dazu öffentlich äussern wird; bei nvidia gibts jedenfalls bis heute nix Offizielles zum NV30-Delay.
Man kann die Gerüchte glauben, oder auch nicht.
Original geschrieben von AlfredENeumann
Pauschal kann man das nicht sagen, und ich kenne auch nicht alle Kosten, aber grob gerechnet:
Beispiel: 9800Pro 128MB Ladenpreis ~200€
VK an den Distributor netto: 123€
Material: ~40€ RAM, 5€ Retail-Verapckung incl. Kabel und CD, 10€ Kostenanteil Prduktion, Lagerung und Marketing;
Frag mich nicht was ein PCB kostet und die sonstigen Komponenten.
Aber rechne dir das schonmal zusammen, dann weist du das für den Core nicht mehr viel übrigbleibt, zumal einer der großen Kostenfaktoren das RAM auf der Karte ist, was sich auch jeder schnell ausmalen kann. Besonders wenn es neu ist und noch nicht in extremen Stückzahlen Produziert wird.
GPU laut einem EETimes-Artikel : US $18
PCB : $ 10-20 (je nachdem wer dir was darüber erzählt)
Original geschrieben von betareverse
Auf der anderen Seite könnte natürlich auch deine These zutreffen, nämlich dass der R400 crap war und ATI es einfach nicht so schnell gebacken bekommen hat einen ordentliche Shader3.0-Chip zu entwickeln.
Ja genau,
und deshalb hat MS nachdem sie den R400 bei ATi gesehen haben ATi als IP-Lieferant für die XBox2 gewählt. MS entscheidet sich wie wir wissen immer für die falschen.
Original geschrieben von betareverse
Dass wird natürlich passieren, daher stellt sich die Frage, wann der R500 kommt. Für 2004 sehe ich keine Probleme für ATIs R420. Es wird allerdings auch meiner Meinung nach irgendwann eine Durststrecke für ATI geben.Zunächst werden die Kunden voll zufrieden sein: Mit Pixelshader 2.0 + höherem Instruction-Count für die Zeit gut gerüstet, dazu sehr hohe Leistung.
War bei NV auch so: GF4 Ti ownte seinerzeit alles wech. Beim NV30 wollten sie dann eine superschlaue Lösung bieten. Heraus kam eine GF4 Ti mit superkomplexen, lahmen Pixelshadern, wobei für den Z/Stencil-Pass die HW als 8x0 laufen kann.
Der R300 ist bekanntlich nicht so revolutionär, wie ATI uns glauben machen will. Der ohnehin ambitionierte R200 wurde gehörig verbessert. Solcherlei Ambitionen hat ATI im Moment offenbar nicht. Letztlich bleibt die Technik die gleiche, sie wollen mit einer Chip-Generation insgesamt wohl knapp 3 Jahre überbrücken. Da habe ich ein ungutes Gefühl.
Original geschrieben von betareverse
Das kann ich natürlich nicht widerlegen, aber ich halte es auch für möglich, dass ATI einfach ein absolut brachialen R500 bringen will und deswegen alle Entwicklungsrecourcen möglichst lange auf den R500 richten will. Rrr. Es wird bald einen Artikel geben, wo ich die Behauptung aufstelle, dass die Next Generation ausgefallen ist, bzw. verschoben wurde. Bei Lichte betrachtet bieten beide nur Detail-Verbesserungen, und vorwiegend mehr Geschwindigkeit. Die nächste "wirklich" neue Generation gibts mit R500 bzw. NV50.
Aber der Sprung von 2.0 zu 4.0 ist nicht gerade klein. NV hat es mit der Entwicklung der "Zwischenversion" 3.0 zunächst schwerer, dann einfacher.
Original geschrieben von betareverse
Auf der anderen Seite könnte natürlich auch deine These zutreffen, nämlich dass der R400 crap war und ATI es einfach nicht so schnell gebacken bekommen hat einen ordentliche Shader3.0-Chip zu entwickeln. ... Vielleicht wird uns jemand bei ATI irgendwann mal in einem Interview offiziell aufklären was es mit dem R400 auf sich hatte.Die werden dir erzählen, wie wenig du 3.0 brauchst, und du man besser bei ATI den R420 mit den superschnellen Pipelines kaufst, und dass die Entscheidung von ATI das beste für dich sei.
Original geschrieben von betareverse
Ich muss jetzt mal eine wichtige Frage stellen:
Wird nV 2004 Midrange-Karten bringen, die PS3.0-Support haben? Midrange ist noch geschmeichelt, ich erwarte etwa für das Jahresende 2004 einen richtigen Low-Cost-Chip auf NV40-Basis, mit Pixel- und Vertexshader 3.0.
Die Mid-Range-Karte wird es vermutlich schon etwas früher geben.
Original geschrieben von betareverse
Ich denke von der transistorenzahl ist das nicht völlig unmöglich, aber doch sehr unwahrscheinlich. Irre ich da? Wer einen NV34 entwickelt, … :)
Exxtreme
2004-02-25, 10:07:27
Original geschrieben von aths
Letztlich bleibt die Technik die gleiche, sie wollen mit einer Chip-Generation insgesamt wohl knapp 3 Jahre überbrücken. Da habe ich ein ungutes Gefühl.
Tja, wie lange hat NV die Zeit mit der GF2-Technik überbrückt? X-D Der NV30 ist IMHO streng genommen immer noch ein NV10/15 mit Shadern, MSAA und bandbreitenschonenden Massnahmen ... was nichts Schlechtes sein muss. Von daher sehe ich die Sache nicht so kritisch wie einige Leute hier. Und wie gesagt, die Shader-Versionen sind nur ein Faktor von vielen. Man weiss nichts über das Antialiasing, den anisotropen Filter, Stencilshadow-Optimierungen etc. Bloß anhand der Shaderversion zu entscheiden ob ein Chip was taugt oder nicht, halte ich für übertrieben. :)
Demirug
2004-02-25, 10:18:59
Original geschrieben von Exxtreme
Tja, wie lange hat NV die Zeit mit der GF2-Technik überbrückt? X-D Der NV30 ist IMHO streng genommen immer noch ein NV10/15 mit Shadern, MSAA und bandbreitenschonenden Massnahmen ... was nichts Schlechtes sein muss. Von daher sehe ich die Sache nicht so kritisch wie einige Leute hier. Und wie gesagt, die Shader-Versionen sind nur ein Faktor von vielen. Man weiss nichts über das Antialiasing, den anisotropen Filter, Stencilshadow-Optimierungen etc. Bloß anhand der Shaderversion zu entscheiden ob ein Chip was taugt oder nicht, halte ich für übertrieben. :)
Natürlich, im Prinzip ist jede Veränderung seit der TNT nachvollziebar. Ein komplettes Neudesign gab es da nie. Bei den schnellen Zyklen muss man ja Sachen wiederverwenden.
Exxtreme
2004-02-25, 10:20:58
Original geschrieben von Demirug
Natürlich, im Prinzip ist jede Veränderung seit der TNT nachvollziebar. Ein komplettes Neudesign gab es da nie. Bei den schnellen Zyklen muss man ja Sachen wiederverwenden.
Wie gesagt, ist ja nichts Schlechtes dabei wenn man Sachen wiederverwendet. Nur einige Leute sehen deswegen schon den Untergang ATis kommen. Und das halte ich persönlich für übertrieben.
Hehe, ja, die "Diskussion" erinnert mich ans letzte Jahr, als hier viele von dem nv30 als den "Überchip" sprachen. Cinematic computing und down (;D), die Fee :lol: Man sagt, Geschichte wiederholt sich oft ;)
Ohne überragendnem AA und GF4 AF kann der Chip nur wieder mittelmäßig werden, was schade wäre.
Demirug
2004-02-25, 10:35:15
Original geschrieben von Exxtreme
Wie gesagt, ist ja nichts Schlechtes dabei wenn man Sachen wiederverwendet. Nur einige Leute sehen deswegen schon den Untergang ATis kommen. Und das halte ich persönlich für übertrieben.
Totgesagte leben länger. Solange man es schaft ein Produkt auf den Markt zu werfen das man für mehr verkaufen kann als es in der Produktion kostet stirbt man nicht.
Wurde nicht auch schon nVidia nach dem NV30 Debakel der Untergang vorrausgesagt?
LovesuckZ
2004-02-25, 10:50:52
Original geschrieben von Gast
Ohne überragendnem AA und GF4 AF kann der Chip nur wieder mittelmäßig werden, was schade wäre.
Wie ATi's r300, der nicht mal mit "überragendnem [...]GF4 AF" daherkam?
Ich wette 1€, dass Nvidia am AA sehr stark gearbeitet und die dafür notwendigen Transistoren von der (Wurzel) Berechnugn des AF's abgezogen hat...
askibo
2004-02-25, 10:58:32
Original geschrieben von aths
Aber der Sprung von 2.0 zu 4.0 ist nicht gerade klein. NV hat es mit der Entwicklung der "Zwischenversion" 3.0 zunächst schwerer, dann einfacher.
Einen Vorteil hat aber ATI. Sie arbeiten bei der Xbox2 direkt mit Microsoft zusammen und werden wohl am frühsten die genauen Spezifikationen für PS/VS 4.0 erfahren. Mit dem R400 haben sie ja auch schon Erfahrung gesammelt, zwar keine gut aber jetzt wissen sie hoffentlich wie mans nicht macht.
Der XBox2 Chip soll doch ein DX10 Chip werden, oder gibts da mittlerweile andere Gerüchte?
mapel110
2004-02-25, 12:37:27
Original geschrieben von LovesuckZ
Wie ATi's r300, der nicht mal mit "überragendnem [...]GF4 AF" daherkam?
Ich wette 1€, dass Nvidia am AA sehr stark gearbeitet und die dafür notwendigen Transistoren von der (Wurzel) Berechnugn des AF's abgezogen hat...
bestehende, gute (marktrelevante, gut funktionierende, konkurrenzfähige) Implementierungen hat bislang noch kein IHV wieder ausgebaut.
betasilie
2004-02-25, 14:23:14
Original geschrieben von bans3i
Also die CryEngine würde ich nicht 2.Garde einstufen, diese Engine wird eine der Leistungsfähigsten Engines sein und ich glaube das sie sicherlich auf selben Level sind!!! Mit FarCry wird sich sicher zeigen was die Coburger da geleistet haben, und andere Entwickler werden sich sicher mit der neuen Engine anfreunden :)
Genauer lesen bans3i! ;) ... Ich habe diese Einteilung in erst und zweite Garde lediglich auf die Vermarktungskraft bezogen, nicht auf die technische Qualität. Und ein FarCry, auch wenn die Aufmerksamkeit schon recht hoch ist, ist kein Vergleich zu DoomIII, wo ein Printmagazin id-Soft Millionen zahlt, um einen Exklusivbericht über DoomIII schreiben zu können.
betasilie
2004-02-25, 18:01:07
Original geschrieben von aths
Rrr. Es wird bald einen Artikel geben, wo ich die Behauptung aufstelle, dass die Next Generation ausgefallen ist, bzw. verschoben wurde. Bei Lichte betrachtet bieten beide nur Detail-Verbesserungen, und vorwiegend mehr Geschwindigkeit. Die nächste "wirklich" neue Generation gibts mit R500 bzw. NV50.
Aber der Sprung von 2.0 zu 4.0 ist nicht gerade klein. NV hat es mit der Entwicklung der "Zwischenversion" 3.0 zunächst schwerer, dann einfacher.
=) Ich bin gespannt auf den Artikel. :up: ...
Eine meiner Theorien besagt, dass der R400 so gut war, dass ATI ihn nicht bringen durfte, weil M$ die Technolgie für die X-BoxII will und vertraglich den Release verhinderte, um Informationen über die XBoxII Technolgie zurückzuhalten. Jedenfalls hat sich M$ aufgrund des R400(R500) für ATI als Technolgieliefernaten entschieden und das wird seine Gründe gehabt haben.
Der Sprung von NV40 zu NV50 mag kleiner sein, aber Schlussfolgerung zu ziehen, dass deswegen der NV50 dem R500 überlegen sein wird, halte ich für höchst spekulativ. ... Man könnte auch einfach spekulieren, dass ATIs R500 besser sein wird, weil sie sich erst garnicht mit 3.0 "aufgehalten" haben. ;)
Original geschrieben von aths
Midrange ist noch geschmeichelt, ich erwarte etwa für das Jahresende 2004 einen richtigen Low-Cost-Chip auf NV40-Basis, mit Pixel- und Vertexshader 3.0.
Die Mid-Range-Karte wird es vermutlich schon etwas früher geben.
Wer einen NV34 entwickelt, … :)
Also wenn die Shader3.0 durch NV schnell und performant einzug in den Midrange- und später 2004 auch in den Valuemarkt erhalten, dann werden wohl wirklich Anfang 2005 echte PS3.0-Anwendungen folgen. Dann kann man ATI nur wünschen, dass sich der R500 nicht verzögert.
Demirug
2004-02-25, 18:12:05
Original geschrieben von betareverse
Eine meiner Theorien besagt, dass der R400 so gut war, dass ATI ihn nicht bringen durfte, weil M$ die Technolgie für die X-BoxII will und vertraglich den Release verhinderte, um Informationen über die XBoxII Technolgie zurückzuhalten. Jedenfalls hat sich M$ aufgrund des R400(R500) für ATI als Technolgieliefernaten entschieden und das wird seine Gründe gehabt haben.
Eine andere Theorie sagt das nVidia sich nicht auf das von MS gewüschte Geschäftsmodel einlassen wollte und daher schon gar nicht bis zur technischen Prüfung gekommen ist.
Der Sprung von NV40 zu NV50 mag kleiner sein, aber Schlussfolgerung zu ziehen, dass deswegen der NV50 dem R500 überlegen sein wird, halte ich für höchst spekulativ. ... Man könnte auch einfach spekulieren, dass ATIs R500 besser sein wird, weil sie sich erst garnicht mit 3.0 "aufgehalten" haben. ;)
Shader 4.0 wird wie ich anderer Stelle schon gesagt habe mit grosser Wahrscheinlichkeit ein Speedupdate für 3.0 + Treiberprogrammierung. Es gibt ja aber auch das Gerücht das nVidia mit dem NV50 einer komplett neuen Idee im Grafikchipdesign gefolgt ist.
Also wenn die Shader3.0 durch NV schnell und performant einzug in den Midrange- und später 2004 auch in den Valuemarkt erhalten, dann werden wohl wirklich Anfang 2005 echte PS3.0-Anwendungen folgen. Dann kann man ATI nur wünschen, dass sich der R500 nicht verzögert.
Es wird keine echten 3.0 Anwendungen geben solange ATI keine 3.0 Hardware hat. Es könnte nur passieren das im Laufe der Zeit dann ATI Benutzer nicht mehr alle Effekte zu sehen bekommen. So wie ja jetzt GF4 Besitzer schon mal eine Effekt nicht bekommen.
betasilie
2004-02-25, 18:55:49
Original geschrieben von Demirug
Es gibt ja aber auch das Gerücht das nVidia mit dem NV50 einer komplett neuen Idee im Grafikchipdesign gefolgt ist.
Dann wäre der von aths angesprochene Vorteil durch den Zwischenschritt des NV40 wohl auch dahin.
Original geschrieben von Demirug
Es wird keine echten 3.0 Anwendungen geben solange ATI keine 3.0 Hardware hat. Es könnte nur passieren das im Laufe der Zeit dann ATI Benutzer nicht mehr alle Effekte zu sehen bekommen. So wie ja jetzt GF4 Besitzer schon mal eine Effekt nicht bekommen.
Wieder mal meine unpräzise Art. Ich meinte mit echten PS3.0-Anwendungen genau den von dir beschriebenen Fall, dass es einige Effekte geben wird, die nur mit PS3.0 zu sehen sein werden. Anwendungen die Karten mit PS3.0-Compliance verlangen werden noch einige Zeit auf sich warten lassen.
Leonidas
2004-02-25, 19:03:20
Original geschrieben von kmf
Die Devise der Industrie ist, als Erster am Markt präsent zu sein.
Jein. ATi könnte jetzt nur vorstellen, nicht liefern. DAS ist der wesentliche Punkt. Man zögert nicht die Auslieferung, sondern die Vorstellung hinaus - und macht diese Vorstellung erst dann, wenn man muß durch den kommenden NV40. Somit sichert man sich noch ein paar letzte Tage gute R360-Geschäfte.
Demirug
2004-02-25, 19:08:01
Original geschrieben von Leonidas
Jein. ATi könnte jetzt nur vorstellen, nicht liefern. DAS ist der wesentliche Punkt. Man zögert nicht die Auslieferung, sondern die Vorstellung hinaus - und macht diese Vorstellung erst dann, wenn man muß durch den kommenden NV40. Somit sichert man sich noch ein paar letzte Tage gute R360-Geschäfte.
Wobei wie es im Moment aussieht auch nVidia noch warten will
Leonidas
2004-02-25, 19:08:04
Original geschrieben von betareverse
Eine meiner Theorien besagt, dass der R400 so gut war, dass ATI ihn nicht bringen durfte, weil M$ die Technolgie für die X-BoxII will und vertraglich den Release verhinderte, um Informationen über die XBoxII Technolgie zurückzuhalten. Jedenfalls hat sich M$ aufgrund des R400(R500) für ATI als Technolgieliefernaten entschieden und das wird seine Gründe gehabt haben.
Schöne Therie, hat Hand und Fuß.
LovesuckZ
2004-02-25, 19:26:36
Original geschrieben von Demirug
Wobei wie es im Moment aussieht auch nVidia noch warten will
Keine Vorstellung auf der Cebit?!
mapel110
2004-02-25, 19:35:48
Original geschrieben von LovesuckZ
Keine Vorstellung auf der Cebit?!
Jup, hab ich gestern auch irgendwo gelesen, weiss aber nicht mehr wo. :(
Könnte Rage3d-Forum gewesen sein :D
Godmode
2004-02-25, 19:58:52
Das ist jetz die schlimmste Nachricht für mich!! Ist aber nicht fix oder??
ice cool69
2004-02-27, 09:43:49
Mach dir nicht ins Hemd, denk dranb je eher ein neuer Chip auf den Markt kommt desto eher musst du wieder Kohle ausgeben für ne neue Grafikkarte.
zum Thema:
Ich finde man wird in dieser r420-Generation sehen inwiefern ATI schon Marktmacht errungen hat bzw. wie weit sie Einfluss auf die Spieleentwickler haben.
Im übrigen glaube ich dass der Unterschied zwischen Shader 2.X und 3.0 deutlich geringer ist als damals zwischen Gf4Ti (Shader 1.3?) und R300 (Shader 2.0), insofern ist es fraglich ob überhaupt Rücksicht auf 3.0 genommen wird (mehr Effekte meine ich damit, keine leichten Geschwindigkeitsoptimierungen).
Außerdem kann 3.0 nicht mehr Effekte als 2.0, schon gar nicht mehr als 2.X also wird man alle Effekte auf 2.X-Basis "bauen" und der GeforceFX2 halt nen eigenen Pfad gönnen.
Man bedenke: nvidia hat lange nicht mehr die Dominanz von vor 2-3 Jahren.
Exxtreme
2004-02-27, 09:57:21
Original geschrieben von ice cool69
Im übrigen glaube ich dass der Unterschied zwischen Shader 2.X und 3.0 deutlich geringer ist als damals zwischen Gf4Ti (Shader 1.3?) und R300 (Shader 2.0), insofern ist es fraglich ob überhaupt Rücksicht auf 3.0 genommen wird (mehr Effekte meine ich damit, keine leichten Geschwindigkeitsoptimierungen).
Der Unterschied zw. PS2.0 und PS3.0 dürfte in etwa so sein wie zw. PS1.3 und PS1.4.
Demirug
2004-02-27, 10:45:13
Original geschrieben von Exxtreme
Der Unterschied zw. PS2.0 und PS3.0 dürfte in etwa so sein wie zw. PS1.3 und PS1.4.
Er ist kleiner und grösser.
Kleiner was die umstellung bezüglich dem Syntax angeht.
Grösser was das eröffnen zusätzlicher Möglichkeiten angeht.
ice cool69
2004-02-27, 10:58:21
Der Unterschied zwischen 2.X und 3.0 ist aber der hier diskutierte Punkt und nicht der zwischen 2.0 und 3.0, denn die Shader des r420 sind auf jeden Fall weiterentwickelt als 2.0 des r300.
Demirug
2004-02-27, 11:05:48
Original geschrieben von ice cool69
Der Unterschied zwischen 2.X und 3.0 ist aber der hier diskutierte Punkt und nicht der zwischen 2.0 und 3.0, denn die Shader des r420 sind auf jeden Fall weiterentwickelt als 2.0 des r300.
Da 2.X kein festes Featureset vorschreibt sondern alles über Caps geht gibt es auch keinen festen Unterschied. Dieser ist entweder so gross wie zwischen 2.0 und 3.0 oder nicht vorhanden. Alles hängt davon ab welche 2.X implementierung man betrachtet.
Da ich bisher keine 2.X implementierung mit Branching kennen lässt sich das oben gesagte auch auf 2.X übertragen.
Ich konnte im DX9-SDK nicht finden, dass PS_3_0 für full precision schon FP32 verlangt, habe aber wohl auch nicht das neueste SDK. Demirug, wie bist du da informiert? Wurde die Spec angehoben?
Demirug
2004-02-27, 11:43:19
Original geschrieben von aths
Ich konnte im DX9-SDK nicht finden, dass PS_3_0 für full precision schon FP32 verlangt, habe aber wohl auch nicht das neueste SDK. Demirug, wie bist du da informiert? Wurde die Spec angehoben?
Bei mir steht da immer noch FP24 drin. Aber es könnte durchaus eine Vereinbarung zwischen den IHVs und MS gegeben haben. Aufgrund des Texturzugriffs im Vertexshader macht es auch Sinn.
betasilie
2004-02-28, 03:10:24
Original geschrieben von Leonidas
Schöne Therie, hat Hand und Fuß.
Danke. :)
Original geschrieben von betareverse
Ich muss jetzt mal eine wichtige Frage stellen:
Wird nV 2004 Midrange-Karten bringen, die PS3.0-Support haben? Ich denke von der transistorenzahl ist das nicht völlig unmöglich, aber doch sehr unwahrscheinlich. Irre ich da?
Kurz und knappe Antwort:
JA!
Die gesamte NV4x Palette von ganz unten bis ganz oben wird auf dem Featureset des NV40 aufsetzen, genauso wie es die NV3x Abkömmlinge vom NV30/35 gemacht haben.
Von einer gesamten VS/PS 3.0 Palette 2004 kann man bei NV ausgehen. Die Wahrscheinlichkeit, dass dem nicht so sein wird, dürfte bei weniger als 10% liegen.
Die Aussagen vom Management jedenfalls zeigen nur auf Shadermodel 3.0 Support auf der ganzen Linie.
Die wären auch dumm es anders zu machen, denn ein wenig zurückhängen tun sie momentan nur im High End. im restlichen Markt sind sie spätestens seit der NV36 Ultra und der NV35 XT Variante bestens positioniert und die Margen sind sogar noch gestiegen und das trotz der FX5900XT.
Da muss einer beim finden von Einspaarmaßnahmen verdammt gut gearbeitet haben.
Nvidia's Trumpf ist das Featureset in der gesamten Palette. Nur dadurch haben sie sich 70% der installierten DX9 Basis gesichert. ATI hat da gepennt.
Meine Prognose ist, dass Nvidia so schnell wie möglich versuchen wird diese 70% auf PS/VS 3.0 umzustellen. Wird ATI diese Features nicht bieten, laufen sie Gefahr dass ihre Produkte Nachteile erfahren könnten, da sie vor allem bei den Entwicklern aus den Kisten fliegen werden.
Original geschrieben von Gast
alles richtig
Vergiß eins nicht: fps =) Für die Egoshooter-Fraktion das einzig relevante Merkmal einer Grafikkarte. Für mich auch ;) Und da wir immer mehr 3d-enginen haben lautet die frage: ruckelts noch oder ist es flüssig schon?
Sollte ati also einen fps-Monster hinbekommen, tangiert die Gamergemeinde das ps-Gelaber nur peripher.
mapel110
2004-03-01, 23:17:40
Original geschrieben von Gast
Nvidia's Trumpf ist das Featureset in der gesamten Palette. Nur dadurch haben sie sich 70% der installierten DX9 Basis gesichert. ATI hat da gepennt.
Tja, und wie dieser Trumpf sticht, sieht man ja daran, dass die Entwickler soviel "Rücksicht" auf die 5200er nehmen, dass es für sie extra den DX8-Zwang-Mode gibt. :)
LovesuckZ
2004-03-02, 09:25:35
Original geschrieben von Gast
Sollte ati also einen fps-Monster hinbekommen, tangiert die Gamergemeinde das ps-Gelaber nur peripher.
Mainstream und HighEnd DirectX9 Segment liegen keine Zahlen vor, aber andere Quellen berichten dort von einem Marktanteil von 60 Prozent für ATi.
Quelle: News vom 29.02'04
Trotz der eigentlich besseren Karten in diesem Segment und der früheren Verfügbarkeit hat Nvidia es geschafft, ATi fast einzuholen.
Man sieht also, dass selbst die "Shooterfreaks" nicht immer das schnellste kaufen :)
LovesuckZ
2004-03-02, 09:27:01
Original geschrieben von mapel110
Tja, und wie dieser Trumpf sticht, sieht man ja daran, dass die Entwickler soviel "Rücksicht" auf die 5200er nehmen, dass es für sie extra den DX8-Zwang-Mode gibt. :)
Da ich bis jetzt noch keine Folie von Nvidia deswegen gesehen habe, darf man ja sagen:
Vielen Dank ATi
Original geschrieben von LovesuckZ
Mainstream und HighEnd DirectX9 Segment liegen keine Zahlen vor, aber andere Quellen berichten dort von einem Marktanteil von 60 Prozent für ATi.
Quelle: News vom 29.02'04
Trotz der eigentlich besseren Karten in diesem Segment und der früheren Verfügbarkeit hat Nvidia es geschafft, ATi fast einzuholen.
Man sieht also, dass selbst die "Shooterfreaks" nicht immer das schnellste kaufen :)
Da ich bis jetzt noch keine Folie von Nvidia deswegen gesehen habe, darf man ja sagen:
Vielen Dank ATi
Ahoi Don Quichot, es sind noch viele Mühlen da :wink: ;)
Original geschrieben von Gast
Vergiß eins nicht: fps =) Für die Egoshooter-Fraktion das einzig relevante Merkmal einer Grafikkarte. Für mich auch ;) Und da wir immer mehr 3d-enginen haben lautet die frage: ruckelts noch oder ist es flüssig schon?
Sollte ati also einen fps-Monster hinbekommen, tangiert die Gamergemeinde das ps-Gelaber nur peripher. ATI punktet nur dann, wenn sie sich speedmäßig wieder klar vor NV positionieren können. Der Erfolg des R300 beruht nicht zuletzt auf einem vergleichsweise schwachen NV30. Als der bessere NV35 kam, konnte er sich gegen ATIs Dominanz natürlich nicht so leicht behaupten.
Original geschrieben von mapel110
Tja, und wie dieser Trumpf sticht, sieht man ja daran, dass die Entwickler soviel "Rücksicht" auf die 5200er nehmen, dass es für sie extra den DX8-Zwang-Mode gibt. :) Tut das den Verkäufen der 5200 einen Abbruch? Ich meine, welcher Spieler, der wirklich auf Spiele-Tauglichkeit achtet, kauft eine 5200? Unabhängig davon, ob auch noch TR:AoD vernünftig läuft, oder nicht.
Braucht der durchschnittliche 5200-Käufer DX9-Features? Nein. Will der durchschnittliche 5200-Käufer DX9-Features (weil er denkt, DX9 = das neueste, muss ich haben)? Entweder ja, oder er kennt sich gar nicht so weit aus.
Sind die 2D-Features der 5200 gut? Soweit ich informiert bin (hatte selbst noch keine): Ja.
Original geschrieben von aths
ATI punktet nur dann, wenn sie sich speedmäßig wieder klar vor NV positionieren können. Der Erfolg des R300 beruht nicht zuletzt auf einem vergleichsweise schwachen NV30. Als der bessere NV35 kam, konnte er sich gegen ATIs Dominanz natürlich nicht so leicht behaupten.
aths, in welche nicht auf Grafikarten ausgerichteten Foren bist du sonst noch? In diesem läuft es folgend ab:
A: Brauche neue Graka
B: Ati
C: Sind die schnellsten
A: Gekauft
Original geschrieben von Gast
aths, in welche nicht auf Grafikarten ausgerichteten Foren bist du sonst noch? In diesem läuft es folgend ab:
A: Brauche neue Graka
B: Ati
C: Sind die schnellsten
A: Gekauft In Dingen Kaufempfehlung versuche ich, zurückhaltend zu sein. Privat habe ich ziemlich spezielle Anforderungen an eine Graka, vieles davon ist rational nicht begründbar. Dass ATIs Produkte auf dem Markt so gut gehen, hat wohl seine Gründe. Vielleicht kann ich die zugrunde liegenden Techniken einschätzen, aber daraus kaum beurteilen, wie "gut" eine Graka nun wirklich ist.
In den wenigen anderen Foren, in denen ich ab und zu bin, lese ich Kaufempfehlungs-Threads fast nie.
LovesuckZ
2004-03-02, 11:44:05
Original geschrieben von Gast
Ahoi Don Quichot, es sind noch viele Mühlen da :wink: ;)
Richtig lesen, aber da kann man dir auch helfen!
Original geschrieben von aths
In Dingen Kaufempfehlung versuche ich, zurückhaltend zu sein. Privat habe ich ziemlich spezielle Anforderungen an eine Graka, vieles davon ist rational nicht begründbar. Dass ATIs Produkte auf dem Markt so gut gehen, hat wohl seine Gründe. Vielleicht kann ich die zugrunde liegenden Techniken einschätzen, aber daraus kaum beurteilen, wie "gut" eine Graka nun wirklich ist.
In den wenigen anderen Foren, in denen ich ab und zu bin, lese ich Kaufempfehlungs-Threads fast nie.
aths, ich stelle dein Intergrität nicht in Frage, der gewöhnliche Verbraucher ist bei weitem nicht so informiert, es wird auf irgendwelche Empfehlung blind gekauft. Viele Leute sind von 4200 und besser auf 5200 und 5600 umgestiegen und andere Spässe. Deswegen die Schwnazmarks und lange Balken ;)
MadManniMan
2004-03-02, 11:54:16
Original geschrieben von mapel110
Tja, und wie dieser Trumpf sticht, sieht man ja daran, dass die Entwickler soviel "Rücksicht" auf die 5200er nehmen, dass es für sie extra den DX8-Zwang-Mode gibt. :)
...was aber den Käufern nicht den glauben nimmt, das vollständige Featureset der App zu Gesicht zu bekommen :ratlos:
Original geschrieben von Gast
aths, ich stelle dein Intergrität nicht in Frage, der gewöhnliche Verbraucher ist bei weitem nicht so informiert, es wird auf irgendwelche Empfehlung blind gekauft. Viele Leute sind von 4200 und besser auf 5200 und 5600 umgestiegen und andere Spässe. Deswegen die Schwnazmarks und lange Balken ;) Ja, sind einige. Sehe ich ohne Mitleid: Wer für die 4200 angenommen 250 € löhnte, kann doch nicht erwarten, schon jetzt für ~100 € was wirklich besseres zu bekommen, schon gar nicht aus einer vergleichsweise neuen Serie. Wer eine 5200 oder 5600 (mit 256 MB RAM) für besser hält, hat sich böse täuschen lassen. Solche Sachen könnten ihm leider bei ATI auch passieren, z. B. von 8500 auf 9200. (Boah, "9"!) Oder von 9600 Pro zu 9800 SE.
mapel110
2004-03-02, 15:24:36
Original geschrieben von aths
Tut das den Verkäufen der 5200 einen Abbruch?
Nö, das nicht.
Aber das Argument, Entwickler würden, aufgrund der Marktdurchdringung der 5200er Karten, speziell ps2,x shader implementieren (und die ganze FX-Reihe würde dadurch einen Vorteil bekommen), halte ich eben deswegen für Schwachsinn.
deekey777
2004-03-02, 16:43:30
OT: Werden die kommenden R420/R423 wieder Overdrive haben?
Original geschrieben von mapel110
Nö, das nicht.
Aber das Argument, Entwickler würden, aufgrund der Marktdurchdringung der 5200er Karten, speziell ps2,x shader implementieren (und die ganze FX-Reihe würde dadurch einen Vorteil bekommen), halte ich eben deswegen für Schwachsinn. Wenn es den Publisher zu überzeugen gilt, Geld für DX9-Content locker zu machen, reicht vermutlich (hoffentlich) ein Hinweis auf den Markt und die (insgesamt noch recht schwache) Durchdringung mit DX9-HW. Welche HW tatsächlich in den Genuss der Shader kommt, ist dann Frage Nummer zwei :)
mapel110
2004-03-02, 17:14:20
Original geschrieben von deekey777
OT: Werden die kommenden R420/R423 wieder Overdrive haben?
Weiss bislang keiner, aber anzunehmen ists. Auch wenn der Erfolg eher gering war (Treiberprobleme und obendrein nur sehr wenig Mehrperformance).
Original geschrieben von aths
Wenn es den Publisher zu überzeugen gilt, Geld für DX9-Content locker zu machen, reicht vermutlich (hoffentlich) ein Hinweis auf den Markt und die (insgesamt noch recht schwache) Durchdringung mit DX9-HW. Welche HW tatsächlich in den Genuss der Shader kommt, ist dann Frage Nummer zwei :)
Ist nur die Frage, wie genau diese "Marktdurchdringung" analysiert wird. Spielt da das "low end dx9"-Segment eine grosse Rolle, wenn überhaupt eine?!
News 28/29.02.04
Durch den superben Marktanteil von 75 Prozent im Value-Segment, resultierend aus den hochvolumingen Verkäufen der GeForceFX 5200 (und weil ATi bis dato preislich keine DirectX9-Antwort auf diese Karte gefunden hat, was sich aber mit dem RV370-Chip ändern soll) erreicht man im gesamten DirectX9-Markt einen Marktanteil von satten 68 Prozent - der Rest von 25 bzw. 32 Prozent entfällt jeweils auf ATi. Zum Mainstream und HighEnd DirectX9 Segment liegen keine Zahlen vor, aber andere Quellen berichten dort von einem Marktanteil von 60 Prozent für ATi.
StefanV
2004-03-02, 17:58:17
Original geschrieben von deekey777
OT: Werden die kommenden R420/R423 wieder Overdrive haben?
Ich würd sogar auf ein Verbessertes Overdrive hoffen...
Also das, was bei mobile GPUs schon lang üblich ist, ev. gar unterschiedliche Takte für 2D und 3D...
Naja, aber erstmal abwarten und Tee rauchen...
LovesuckZ
2004-03-02, 19:11:26
Original geschrieben von Stefan Payne
Ich würd sogar auf ein Verbessertes Overdrive hoffen...
Also das, was bei mobile GPUs schon lang üblich ist, ev. gar unterschiedliche Takte für 2D und 3D...
sehr revolutionaer, zum Glueck bietet das noch keiner. Koennte man sehr gut marketingtechisch verkaufen...
Original geschrieben von mapel110
Ist nur die Frage, wie genau diese "Marktdurchdringung" analysiert wird. Spielt da das "low end dx9"-Segment eine grosse Rolle, wenn überhaupt eine?!
News 28/29.02.04
Durch den superben Marktanteil von 75 Prozent im Value-Segment, resultierend aus den hochvolumingen Verkäufen der GeForceFX 5200 (und weil ATi bis dato preislich keine DirectX9-Antwort auf diese Karte gefunden hat, was sich aber mit dem RV370-Chip ändern soll) erreicht man im gesamten DirectX9-Markt einen Marktanteil von satten 68 Prozent - der Rest von 25 bzw. 32 Prozent entfällt jeweils auf ATi. Zum Mainstream und HighEnd DirectX9 Segment liegen keine Zahlen vor, aber andere Quellen berichten dort von einem Marktanteil von 60 Prozent für ATi. Nur ist das Mainstream- und High-End-Segment zusammen wohl kleiner, als das Value-Segment. Für das Value-Segment werden die DX9-Spiele wohl nicht entwickelt. Prinzipielle Lauffähigkeit würde aber wohl ausreichen.
MadManniMan
2004-03-03, 00:00:56
Original geschrieben von LovesuckZ
sehr revolutionaer, zum Glueck bietet das noch keiner. Koennte man sehr gut marketingtechisch verkaufen...
LÖL!
:bigl:
Ich wollte erst darüber schimpfen, daß du nich immer so zynisch sein sollst(weißt ja, bezogen auf dich ne Krankheit von mir), aber ich hab mir grad dermaßen einen abgelacht...
Quasar
2004-03-03, 00:25:26
Ich würd sogar auf ein verbessertes Overdrive hoffen. Also das, was bei nVidia-GPUs schon lang üblich ist, sogar unterschiedliche Takte für 2D und 3D haben die.
Naja, aber erstmal abwarten und something hallucinongenic rauchen. X-D X-D X_D ;)
MadManniMan
2004-03-03, 00:35:51
Original geschrieben von Quasar
Ich würd sogar auf ein verbessertes Overdrive hoffen. Also das, was bei nVidia-GPUs schon lang üblich ist, sogar unterschiedliche Takte für 2D und 3D haben die.
Naja, aber erstmal abwarten und something hallucinongenic rauchen. X-D X-D X_D ;)
Aber mal ganz ehrlich: nachdem ich jetzt seit ner Woche das ATiTool nutze, finde ich sogar die nV-Variante recht... naja, äh, simpel?
Quasar
2004-03-03, 01:29:44
Was tut dieses Tool denn so?
Ich habe es wieder deinstalliert, nachdem es mir die Taktraten einer R9200SE verriet und sagte, ich solle mir keine Hoffnungen machen mit einem post-3.4-Catalyst das Ding zu unter/übertakten - dazu bräuchte ich einen Third-Party-Driver.
LovesuckZ
2004-03-03, 09:29:37
Original geschrieben von MadManniMan
Aber mal ganz ehrlich: nachdem ich jetzt seit ner Woche das ATiTool nutze, finde ich sogar die nV-Variante recht... naja, äh, simpel?
Nunja, wenn es simpel geht, brauch man es ja nich verkomplizieren :)
Kann man mit dem Tool die Spannung verstellen?
MadManniMan
2004-03-03, 11:04:30
Original geschrieben von LovesuckZ
Nunja, wenn es simpel geht, brauch man es ja nich verkomplizieren :)
Kann man mit dem Tool die Spannung verstellen?
Leider nicht, aber es ist ja auch Herstellerunabhängig - ein ganz stinknormales Third-Party-Tool wie das RTool und ähnliches. Ich wüßte um kein Tool, das irgendwelche Spannungen von nV- oder ATi-Karten unter Windows ändern könnte :grübel:
MadManniMan
2004-03-03, 11:09:18
Original geschrieben von Quasar
Was tut dieses Tool denn so?
Das Autooverclocking ist eine seeehr feine Sache - vielleicht ähnlich dem Detonator-Overclocking? Es neigt aber leider bei meiner 9500 Pro, dem Ram zuviel Spielraum einzuräumen.
Dann gibts das herrliche Anlegen beliebig vieler Taktratenprofile. Man kann je eines von denen dann dem 2D- und dem 3D-Modus zuweisen. Letztendlich kann man auch noch per Hotkeykombination die Profile On-The-Fly ändern. Ist zwar für mich nicht sonderlich relevant, aber beim PS-Test vom Stuß03 hats funktioniert.
Original geschrieben von Quasar
Ich habe es wieder deinstalliert, nachdem es mir die Taktraten einer R9200SE verriet und sagte, ich solle mir keine Hoffnungen machen mit einem post-3.4-Catalyst das Ding zu unter/übertakten - dazu bräuchte ich einen Third-Party-Driver.
:grübel:
Ömm, welchen Cata hast verwendet? Bei mir läuft/liefs mit 3.9, 4.1 und 4.2 ohne Murren. BTW verwendet das 3D-Fenster AFAIR 2.0er Shader... ich kann mich aber auch irren!
LovesuckZ
2004-03-03, 12:22:24
Original geschrieben von MadManniMan
Leider nicht,[...]
bei den (fast) allen FX Karten geschieht dies zusaetzlich im 2D Modus.
Original geschrieben von Quasar
Was tut dieses Tool denn so?
Ich habe es wieder deinstalliert, nachdem es mir die Taktraten einer R9200SE verriet und sagte, ich solle mir keine Hoffnungen machen mit einem post-3.4-Catalyst das Ding zu unter/übertakten - dazu bräuchte ich einen Third-Party-Driver. RivaTuner hat ein Anti-OC-Protection-Script.
MadManniMan
2004-03-03, 14:04:16
Original geschrieben von LovesuckZ
bei den (fast) allen FX Karten geschieht dies zusaetzlich im 2D Modus.
Echt? DAS ist cool! Leider muß sowas in HW ermöglicht werden können, bzw. vorgesehen sein. Einfach mal hoffen... *Daumen drückt*
Zwar wäre natürlich eine Spannungsherabsetzung schon wünschenswert, aber allein mein 2D-Takt von 100/166MHz ist schon was Feines :)
MadManniMan
2004-03-03, 14:06:03
Original geschrieben von aths
RivaTuner hat ein Anti-OC-Protection-Script.
Bingo :bonk: Total vergessen!
Der ganze Radeon 9000/9200 non-Pro Kram ist fieserweise nur schwer zu übertakten.
Meine Radeon 9000 konnte ich nur übertakten, indem ich beim RadClocker die Justierungsunterschiede(fragt mich jetzt nicht nach der originalen Bezeichnung) auf 3.00 MHz festsetzt.
StefanV
2004-03-03, 14:07:57
Original geschrieben von LovesuckZ
bei den (fast) allen FX Karten geschieht dies zusaetzlich im 2D Modus.
Nö, 'nur' bei den Ultras, der FX5800 und vielen FX5900, nicht bei allen, bei der FX5900XT schauts auch eher schlecht aus, mit den 2D/3D Taktraten...
LovesuckZ
2004-03-03, 16:52:46
Original geschrieben von MadManniMan
Zwar wäre natürlich eine Spannungsherabsetzung schon wünschenswert, aber allein mein 2D-Takt von 100/166MHz ist schon was Feines :)
Ich bin immer 100/200 gefahren und meine GPU war schoen kuehl :)
Original geschrieben von MadManniMan
Bingo :bonk: Total vergessen!
Der ganze Radeon 9000/9200 non-Pro Kram ist fieserweise nur schwer zu übertakten. Meine Sapphire Atlantis Radeon 9600 musste ich auch erst antiprotecten. Jetzt löpt der Speicher mit 250 MHz.
Quasar
2004-03-03, 20:40:41
Original geschrieben von MadManniMan
Das Autooverclocking ist eine seeehr feine Sache - vielleicht ähnlich dem Detonator-Overclocking? Es neigt aber leider bei meiner 9500 Pro, dem Ram zuviel Spielraum einzuräumen.
Dann gibts das herrliche Anlegen beliebig vieler Taktratenprofile. Man kann je eines von denen dann dem 2D- und dem 3D-Modus zuweisen. Letztendlich kann man auch noch per Hotkeykombination die Profile On-The-Fly ändern. Ist zwar für mich nicht sonderlich relevant, aber beim PS-Test vom Stuß03 hats funktioniert.
:grübel:
Ömm, welchen Cata hast verwendet? Bei mir läuft/liefs mit 3.9, 4.1 und 4.2 ohne Murren. BTW verwendet das 3D-Fenster AFAIR 2.0er Shader... ich kann mich aber auch irren!
Öhm, ja. Auto-Overclocking fand und finde ich bei bislang jedem Tools, daß es versucht hat, ziemlich überflüssig.
Profile sind natürlich was feines, für den, der's mag. Inwieweit die beim Deto benutzbar sind, habe ich noch nicht probiert.
"Mein" Cat war der aktuelle 4.2er. Das Tool sagte mir auch, es seien nur bestimmte Radeons von dem Lock betroffen.
Killa Tomacco
2004-03-06, 12:39:36
Also ich halte R390 (welche mal als Gerücht für eine weiteren Chip auftauchte) für die passendere Bezeichnung als R420 für den nächsten High-End Chip. Da dieser bis auf einige Änderungen voll auf der R3X0-Linie basiert. Außerdem passt R390 besser zu RV380 dem Mainsteam-Chip und RV370 dem LowCost-Chip.
MadManniMan
2004-03-06, 12:43:50
Original geschrieben von Killa Tomacco
Also ich halte R390 (welche mal als Gerücht für eine weiteren Chip auftauchte) für die passendere Bezeichnung als R420 für den nächsten High-End Chip. Da dieser bis auf einige Änderungen voll auf der R3X0-Linie basiert. Außerdem passt R390 besser zu RV380 dem Mainsteam-Chip und RV370 dem LowCost-Chip.
:up:
Seh ich ziemlich ähnlich! ATi ist nur einfach nicht sooo doof, derart offiziell einzugestehen, daß die 9700Pro in ihrer 4. Revision erscheint ;)
Original geschrieben von Quasar
"Mein" Cat war der aktuelle 4.2er. Das Tool sagte mir auch, es seien nur bestimmte Radeons von dem Lock betroffen. Das Tool ist gut informiert. Pro- und XT-Modelle sind von Haus oc-bar. Nonpros sind durch den Treiber "geschützt".
StefanV
2004-03-06, 22:09:04
Original geschrieben von ow
Und was ist mit solchen Exoten wie der Medion R9600TX, welche ja eine Art 9500Pro darstellt?
Die ist AFAIK auch nicht gelockt...
Noch nie ein schlechteren Artikel gelesen wie dieser hier. Es wird kein einziger wirklich kein einziger Beweis geliefert (die vermeintlichen sind zusammengeklaut von anderen Seiten) fuer die Behauptungen die in diesem Artikel aufgestellt werden. Ich glaube die Leute bei ATi lachen sich krank wenn sie den Quatsch hier lesen, den 3dcenter verzapfelt.
[dzp]Viper
2004-03-12, 15:36:44
Original geschrieben von Gast
Noch nie ein schlechteren Artikel gelesen wie dieser hier. Es wird kein einziger wirklich kein einziger Beweis geliefert (die vermeintlichen sind zusammengeklaut von anderen Seiten) fuer die Behauptungen die in diesem Artikel aufgestellt werden. Ich glaube die Leute bei ATi lachen sich krank wenn sie den Quatsch hier lesen, den 3dcenter verzapfelt.
wenn man beweise zu den behauptungen liefern würde, dann würde man das NDA brechen... verstehst du?
Bloedsinn allein mit dem Geschriebsel hier wuerden sie schon NDAs brechen. Das ist ja wirklich eine saudumme Ausrede, da muss schon was besseres kommen.
StefanV
2004-03-12, 20:00:44
Original geschrieben von Gast
Bloedsinn allein mit dem Geschriebsel hier wuerden sie schon NDAs brechen. Das ist ja wirklich eine saudumme Ausrede, da muss schon was besseres kommen.
Und das wäre??
deekey777
2004-03-12, 22:34:51
Was mich interessiert, ist, ob endlich die WMV9-Beschleunigung funktionieren wird - auch bei den R3x0/RV3x0-Chips. Das ist echt peinlich für ATi: Die WMV9-Beschleunigung ist erst per Regedit freischaltbar und verursacht fast nur Bildfehler. Jetzt kommen die ersten HD-WMV9, ATi sollte endlich wach werden.
AlfredENeumann
2004-03-12, 23:10:27
Original geschrieben von deekey777
Was mich interessiert, ist, ob endlich die WMV9-Beschleunigung funktionieren wird - auch bei den R3x0/RV3x0-Chips. Das ist echt peinlich für ATi: Die WMV9-Beschleunigung ist erst per Regedit freischaltbar und verursacht fast nur Bildfehler. Jetzt kommen die ersten HD-WMV9, ATi sollte endlich wach werden.
Erzähl mir bei heutigen Rechnern mal den wirklichen nutzen von WMV9-Beschleunigung?
deekey777
2004-03-12, 23:30:51
Original geschrieben von AlfredENeumann
Erzähl mir bei heutigen Rechnern mal den wirklichen nutzen von WMV9-Beschleunigung?
HD-WMV9?
jasihasi
2004-03-15, 19:07:35
So,hab ich zwar schon im Speku verbreitet,
hier nochmal:
www.planet3dnow
http://www.theinquirer.net/?article=14739
warum ist dieser Thread hier in diesem Forum???
jasihasi
2004-03-15, 19:11:08
Zur Erklärung, theinq!!! spricht von 12 Pipes
mit Option auf 16?,mit nem halben und nem ganzen
Ghz Takt.Das könnte fürs erste reichen,its
CEBIT TIME.
Ach ja der gute alte Abazovic (vom Inquirer), ihr glaubt einer Person, die angeblich von ATI seinen Arm gebrochen wurde?
Ihr seit ja wirklich nicht mehr zu retten.
MarcWessels
2004-03-21, 00:24:32
Tolles Deutsch... :D
Quasar
2004-03-21, 00:56:31
it will use GDDR 3 memory that consumes less power, and yet gives out less heat, than DDR 2.
Mein Lieblingssatz aus diesem :cop: FUAD :cop:
Trotz geringerer Leistungsaufnahme wird GDDR3 nichtmal heisser als DDR2 - wahrhaft erstaunlich.
Original geschrieben von jasihasi
Zur Erklärung, theinq!!! spricht von 12 Pipes
mit Option auf 16?,mit nem halben und nem ganzen
Ghz Takt.Das könnte fürs erste reichen,its
CEBIT TIME. Nvidia hatte Zeit für uns. S3 hatte Zeit für uns. XGI hatte Zeit für uns. ATI hatte keine Zeit für uns.
MadManniMan
2004-03-21, 19:05:07
Original geschrieben von aths
Nvidia hatte Zeit für uns. S3 hatte Zeit für uns. XGI hatte Zeit für uns. ATI hatte keine Zeit für uns.
Mario Basler hatte Zeit für mich, Mirko Wotava hatte seit für mich, Steffen Baumgart hatte Zeit für mich, Uwe Seeler hatte Zeit für mich. Mehmet Scholl hatte keine Zeit für mich, war mit anderen beschäftigt. Dafür hätte er Zeit für mich gehabt, als ich mit Mario Basler schwatzte :kicher:
Demirug
2004-03-21, 19:08:43
Original geschrieben von aths
Nvidia hatte Zeit für uns. S3 hatte Zeit für uns. XGI hatte Zeit für uns. ATI hatte keine Zeit für uns.
und deine Zeit ist bald abgelaufen wenn du weiterhin mit dem Salzstreuer rumläufst und Opfer suchst.
Original geschrieben von Demirug
und deine Zeit ist bald abgelaufen wenn du weiterhin mit dem Salzstreuer rumläufst und Opfer suchst. Sicher ergeben deine Worte einen Sinn … leider weiß ich nicht, welchen.
Demirug
2004-03-21, 20:59:38
Original geschrieben von aths
Sicher ergeben deine Worte einen Sinn … leider weiß ich nicht, welchen.
Sei froh das ist ja dann schon etwas was du nicht zwanghaft für dich behalten musst.
Die Unwissenheit lastet ach so schwer auf unseren Herzen und reist gar tiefe Wunden in das schwache Fleisch. Doch einer wandert in diesen Zeiten umher der nicht blutet. Aber bringt er den Massen Linderung? Nein! Mit einem spötischen Lächeln auf den Lippen wirft er mit Salz um sich. So das die Wunden noch stärker brennen.
Demi, was ich im Speku-Forum von dir lese, ist meist erstaunlich erstaunlich.
betasilie
2004-03-21, 21:05:52
Tja, das ist wohl ein bissl wie Weihnachten, als man Kind war, und man schon vorher wusste was man geschenkt bekommt, ohne dass man es sich anmerken lassen durfte.
Demirug
2004-03-21, 21:12:56
Original geschrieben von aths
Demi, was ich im Speku-Forum von dir lese, ist meist erstaunlich erstaunlich.
Ich habe doch nur Aussagen aus verschiednen öffentlichen Quellen auf technische Realisierbarkeit und Sinn abgeklopft. Dazu muss man die echten Daten ja nicht kennen.
Original geschrieben von Demirug
Ich habe doch nur Aussagen aus verschiednen öffentlichen Quellen auf technische Realisierbarkeit und Sinn abgeklopft. Dazu muss man die echten Daten ja nicht kennen. … aber ein Gespür dafür, was NV machen könnte und was nicht.
Um zum Topic zu kommen: Ich weiß, dass es auf der CeBit entweder was von ATI zu sehen gab, oder dass an ausgewählte Personen Details rausgegeben wurden. Zugang bekamen wir leider nicht. Offensichtlich ist ATIs R420 besonders auf Dualchip-Einsatz zugeschnitten. Aber die technische Machbarkeit von Dualchip-Karten (bei Radeon mindestens seit R300 gegeben) bedeutet ja nicht, dass solche Boards als Gaming-HW je erscheinen.
Der Verlust von ps3.0 wäre ja noch zu verschmertzen, wenn damit nicht gleichzeitig vs3.0 ebenfalls vom Tisch wäre. So sieht es die momentane DirectX9 implementierung nämmlich vor, entweder beides oder keines. Und vs3.0 features sind der eigentlich Knackpunkt, den die werden ganz sicherlich zum Einsatz in näherer Zukunft kommen.
Exxtreme
2004-03-22, 10:52:01
Original geschrieben von Gast
Der Verlust von ps3.0 wäre ja noch zu verschmertzen, wenn damit nicht gleichzeitig vs3.0 ebenfalls vom Tisch wäre. So sieht es die momentane DirectX9 implementierung nämmlich vor, entweder beides oder keines. Und vs3.0 features sind der eigentlich Knackpunkt, den die werden ganz sicherlich zum Einsatz in näherer Zukunft kommen.
AFAIK kann eine Karte VS3.0 und PS2.x haben. Beides ist nicht zwingend vorgeschrieben. Und ja, VS3.0 wären mir auch viel lieber. Dann wäre endlich mal vernünftiges Displacement Mapping möglich.
Demirug
2004-03-22, 11:08:04
Original geschrieben von Exxtreme
AFAIK kann eine Karte VS3.0 und PS2.x haben. Beides ist nicht zwingend vorgeschrieben.
Das ist so eine Sache. Das Ausgangsinterface von VS 3.0 ist eigentlich auf das Eingangsinterface von PS 3.0 abgestimmt.
Das Interface für die Vertexübergabe ist aber bei DX9 ebenfalls auf die Bedürfnisse von DX9 abgestimmt. Dort gibt es aber genaue Regeln was man tun muss wenn man ältere Hardware nutzt. Das geht bis zu DX7 T&L zurück.
Für einen Mix von VS 3.0 und PS 2.X habe ich aber solche Regeln noch nicht gefunden. Denkbar wäre das aber auch ohne die Spec zu ändern.
Und ja, VS3.0 wären mir auch viel lieber. Dann wäre endlich mal vernünftiges Displacement Mapping möglich.
VS 3.0 reicht dafür aleine nicht wirklich.
deekey777
2004-03-22, 19:31:23
Habe schon auf einigen Seiten gelesen, dass der neue R420 erst Ende April kommt - mind. 2 Wochen nach dem NV40.
Killa Tomacco
2004-03-26, 18:36:58
Original geschrieben von Killa Tomacco
Also ich halte R390 (welche mal als Gerücht für eine weiteren Chip auftauchte) für die passendere Bezeichnung als R420 für den nächsten High-End Chip. Da dieser bis auf einige Änderungen voll auf der R3X0-Linie basiert. Außerdem passt R390 besser zu RV380 dem Mainsteam-Chip und RV370 dem LowCost-Chip.
Nachtrag: Der R390 sollte doch mal Radeon 9900 heißen.
Nun lese ich in der News der R420 soll Radeon 9900 heißen. Hmm zweimal der gleiche Name für verschiedene Codenamen. Also da bekomme ich den Eindruck das der R390 und R420 ein und der selbe Chip ist und nur der Codename umbenannt wurde.
betasilie
2004-04-07, 15:03:47
Original geschrieben von Demirug
VS 3.0 reicht dafür aleine nicht wirklich.
Wieso? Das habe ich bis jetzt immer so vernommen. :gruebel:
Demirug
2004-04-07, 15:16:54
Original geschrieben von betareverse
Wieso? Das habe ich bis jetzt immer so vernommen. :gruebel:
Für richtiges adaptives DM braucht man neben VS 3.0 noch zwei Sachen:
1. Einen Texturfilter der mindestens Bilinear beherscht. VS 3.0 fordert nur Point-Sampling mehr ist eine Option.
2. Eine Tesselationseinheit die vorzugsweise adaptiv ist.
Beides hat der NV40 nicht.
betasilie
2004-04-07, 15:23:18
Original geschrieben von Demirug
Für richtiges adaptives DM braucht man neben VS 3.0 noch zwei Sachen:
1. Einen Texturfilter der mindestens Bilinear beherscht. VS 3.0 fordert nur Point-Sampling mehr ist eine Option.
2. Eine Tesselationseinheit die vorzugsweise adaptiv ist.
Beides hat der NV40 nicht.
Aha. Das ist natürlich sehr Schade, denn von DM verspreche ich mir sehr viel. :(
Welche Arten von DM wird der NV40 vorraussichtlich beherrschen und wie unterscheiden sich die entsprechenden DM-Arten in ihrer Funktionalität?
Was ist denn dann mit der Parhelia? :gruebel: Die kann natürlich weder PS3.0/VS3.0, bis jetzt gibs sogar nicht mal DX9 Treiber für die Karte, aber dafür Displacement Mapping! Schließlich hats Matrox ja auch erfunden. Ist das bei der irgendwie fest verdrahtet oder wie muss man sich das vorstellen? :kratz2:
Hat Matrox eigentlich nicht auch das Evironmental Bumbmapping erfunden? Ich weiß dass meine G400 das damals so schön bei Serious Sam dargestellt hat :)
Demirug
2004-04-07, 15:38:48
Original geschrieben von betareverse
Aha. Das ist natürlich sehr Schade, denn von DM verspreche ich mir sehr viel. :(
Letzten Endes ist adaptives DM nur eine Methode um Speicherplatz auf der Grafikkarte zu sparen. Alternativ kann man genauso gut das gleiche Model mit vielen unterschiedlichen Detailstufen hinterlgen.
Welche Arten von DM wird der NV40 vorraussichtlich beherrschen und wie unterscheiden sich die entsprechenden DM-Arten in ihrer Funktionalität?
Der NV40 ist mit dem was er anbietet gut ausgerüstet für dynamisches DM. Ich meine damit ein DM bei dem sich die Oberflächendetails welche in der Textur gespeichert sind bei jedem Frame ändern. Besonders praktisch ist es wenn diese Veränderungen aus der vorherigen Position berechenbar sind. In diesem Fall kann man die Textur über den Pixelshader für jeden Frame neu berechnen lassen und dann direkt für das DM nutzen. Ein gutes Beispiel sind hier Oberflächenbewegungen (Wasserwellen).
Demirug
2004-04-07, 15:42:13
Original geschrieben von thop
Was ist denn dann mit der Parhelia? :gruebel: Die kann natürlich weder PS3.0/VS3.0, bis jetzt gibs sogar nicht mal DX9 Treiber für die Karte, aber dafür Displacement Mapping! Schließlich hats Matrox ja auch erfunden. Ist das bei der irgendwie fest verdrahtet oder wie muss man sich das vorstellen? :kratz2:
Ja das ist zum grössten teil eine Fixed Funktion aber aufgrund der fehlenden Treiber kann man es nicht nutzten.
Hat Matrox eigentlich nicht auch das Evironmental Bumbmapping erfunden? Ich weiß dass meine G400 das damals so schön bei Serious Sam dargestellt hat :)
IIRC waren das die Bitboys und MS hat es dann lizensiert.
Original geschrieben von thop
Bumbmapping Bumpmapping :)
Ich habs sogar gemerkt aber war zu faul zum editieren :)
betasilie
2004-04-07, 17:00:20
Original geschrieben von Demirug
Der NV40 ist mit dem was er anbietet gut ausgerüstet für dynamisches DM. Ich meine damit ein DM bei dem sich die Oberflächendetails welche in der Textur gespeichert sind bei jedem Frame ändern. Besonders praktisch ist es wenn diese Veränderungen aus der vorherigen Position berechenbar sind. In diesem Fall kann man die Textur über den Pixelshader für jeden Frame neu berechnen lassen und dann direkt für das DM nutzen. Ein gutes Beispiel sind hier Oberflächenbewegungen (Wasserwellen).
Ok, einige Bsps. diesbzgl. konnten wier ja auch schon in einigen Tecdemos betrachten.
Wo ist denn nun der Unterschied zwischen dynamischen und adaptiven DM?
Demirug
2004-04-07, 17:08:02
Original geschrieben von betareverse
Wo ist denn nun der Unterschied zwischen dynamischen und adaptiven DM?
Adaptiven DM: Texture ist statisch und das Mesh ist statisch. Beim Mesh werden abhängig von Entfernung aber zusätzliche Eckpunkte dynamisch eingefügt (N-Patch).
dynamisches DM: Das Mesh ist statisch. Dafür ändert sich aber der Inhalt der Textur.
betasilie
2004-04-07, 17:47:46
Alles klar, die N-Patches waren´s. ´Habe das auch schonmal gelesen, aber wieder vergessen. :)
Wie sieht denn der Speicherplatzverbauch in der Praxis aus? Dynamisches DM ist ja schon mal toll, aber wie hält sich das die Waage mit dem Speicherplatzverbrauch durch dynamisches DM und der Speicher/CPU-Schonung die daraus entsteht?
Ich würde denken auch dynamisches DM wird schon enorme Vorteile bringen, bei relativ geringem Speicherplatzverbauch, jedenfalls bei vielen Anwendunsmöglichkeiten. Echte Geometrie sollte doch mehr Speicher verbauchen, als dynamisches DM, oder nicht?
Welche Anwendungen wären denn mit dynamischen-DM zu speicherintensiv und welche erst mit adaptiven DM sinnvoll?
Edit:
Fragen über Fragen ... Aber wer nicht fragt bleibt dumm. :freak:
MadManniMan
2004-04-07, 18:27:53
Original geschrieben von Demirug
dynamisches DM: Das Mesh ist statisch. Dafür ändert sich aber der Inhalt der Textur.
Also auch keine LoD-abhängige Polyzahl?
Demirug
2004-04-07, 19:08:23
Original geschrieben von betareverse
Wie sieht denn der Speicherplatzverbauch in der Praxis aus? Dynamisches DM ist ja schon mal toll, aber wie hält sich das die Waage mit dem Speicherplatzverbrauch durch dynamisches DM und der Speicher/CPU-Schonung die daraus entsteht?
Speicherplatz auf der Grafikkarte ist ja normaleriweise selten ein echtes Problem. Wenn man die entsprechenden Berechnungen auf der CPU durchführt braucht man den Speicher eben im Hauptspeicher des PCs und muss die daten für jeden Frame über den AGP/PCI_E zur Grafikkarte pumpen.
In der Regel dürfte die dynamische DM, welches vollständig auf der GPU abläuft, schneller als entsprechenden dynamsiche Geometrie durch die CPU sein.
Ich würde denken auch dynamisches DM wird schon enorme Vorteile bringen, bei relativ geringem Speicherplatzverbauch, jedenfalls bei vielen Anwendunsmöglichkeiten. Echte Geometrie sollte doch mehr Speicher verbauchen, als dynamisches DM, oder nicht?
dynamisches DM braucht mehr Speicher. Weil ja neben der Geometrie die genauso viel Platz braucht ja noch die Textur dazu kommt. In der Regel braucht man die Textur sogar zweimal weil man ja bei aktualisieren nicht aus der gleichen lesen kann in die man gerade schreibt.
Welche Anwendungen wären denn mit dynamischen-DM zu speicherintensiv und welche erst mit adaptiven DM sinnvoll?
Das ist keine Frage des Speichers. Beide Verfahren sind für unterschiedliche Ziele gedacht und man kann sie im Prinzip auch miteinander verbinden.
Demirug
2004-04-07, 19:09:39
Original geschrieben von MadManniMan
Also auch keine LoD-abhängige Polyzahl?
Genau. Das müsste man wie bisher mit unterschiedlich genau aufgelöster Geometrie machen.
zeckensack
2004-04-07, 19:17:17
Original geschrieben von Demirug
dynamisches DM braucht mehr Speicher. Weil ja neben der Geometrie die genauso viel Platz braucht ja noch die Textur dazu kommt.Bei adaptiver Tesselation: contra.
Die displacement map kann (so oder so) auch relativ kompakt sein. Man braucht eigentlich nur einen Kanal.
Ein Vertex hat mindestens 12 Byte. Bei einer DM kann man mit 4 Byte pro "Texel" bereits Perfektion(TM) erreichen.
Demirug
2004-04-07, 19:22:35
Original geschrieben von zeckensack
Bei adaptiver Tesselation: contra.
Die displacement map kann (so oder so) auch relativ kompakt sein. Man braucht eigentlich nur einen Kanal.
Ein Vertex hat mindestens 12 Byte. Bei einer DM kann man mit 4 Byte pro "Texel" bereits Perfektion(TM) erreichen.
Klar, adaptive Tesselation soll ja Speicher sparen. Ich bezog mich auf DM ohne adaptive Tesselation.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.