PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die nächsten nV-Chips


aths
2002-05-22, 23:36:42
So, nun mal meine Spekulation. Ich habe 2 Szenarien anzubieten:

Szenario 1: NV30 kommt erst 2003

Im Herbst 2002 wird die GF4-Reihe aufgemöbelt. Konkret wurde die Fertigung komplett auf 013 umgestellt. NV17 wird durch NV18 ersetzt. Ganz vielleicht bekommt der NV25 noch die VPE spendiert. Platz genug sollte durch 013 sein, aber ich zweifle doch, dass sie noch was am Chip ändern. Die GF3 läuft aus, die 4Ti-Serie wird nach oben erweitert (Ti 4800 mit 350/400 MHz?).

Der NV30 kommt dann im Frühjahr 2003. NV18 wird weiter verkauft. Unter Umständen wird die NV25-Serie noch mal an die Marktbedingungen angepasst (vor allem preislich.)

Im Herbst 2003 läuft die MX-Serie weitestgehend aus, da die GF4-Preilage den NV18 unattraktiv macht. Ein Billig-Modell bleibt im Angebot (für OEM-Kunden.) Der NV30 wird mit höheren Taktraten angeboten.


Szenario 2: NV30 kommt diesen Herbst

... und bringt 64-Bit-Rendering. An 8 Pipelines (á 2 TMUs) glaube ich allerdings noch nicht so ganz, da halte ich eine 4x4-Architektur für wahrscheinlicher. NV30 beherrscht mindestens 3x3 Multisampling, vermutlich mit der Effizienz von Matrox' FAA. (Alles reine Spekulation!) Für NV18 und NV25 gilt das gleiche wie in Szenario 1.

Szenario 1 halte ich übrigens auch für wahrscheinlicher.

Exxtreme
2002-05-22, 23:59:01
Originally posted by aths

Szenario 1 halte ich übrigens auch für wahrscheinlicher.
Hmm, sie könnten dann aber kaum gegen den Parhelia anstinken mit ihrer getunten NV25. Und auch ATi wird die R300 bringen mit 8 Renderpipes und 4 VS. Da dürfte es verdammt eng werden für eine Gf4Ti4800. Deswegen denke ich, daß nVidia den NV30 schon im Herbst startklar haben wird.

Gruß
Alex

Simon Moon
2002-05-23, 00:35:04
Originally posted by Exxtreme

Hmm, sie könnten dann aber kaum gegen den Parhelia anstinken mit ihrer getunten NV25. Und auch ATi wird die R300 bringen mit 8 Renderpipes und 4 VS. Da dürfte es verdammt eng werden für eine Gf4Ti4800. Deswegen denke ich, daß nVidia den NV30 schon im Herbst startklar haben wird.

Gruß
Alex

[extreme Spekulation]
Wenn nVidia aber imho noch nicht so weit wäre, den NV30 schon zu launchen, müssten sie aber trotzdem aus der GF4 rausholen was sie können.
[/extreme Spekulation]

Zugegeben, dieser Fall ist jedoch ausserst unrealistisch. (wobei ich das von nem Chip mit 8Renderpipelines und allenfalls 4Texturpipelines jedoch auch denke :D )

StefanV
2002-05-23, 00:43:40
Originally posted by El-Diablo
Zugegeben, dieser Fall ist jedoch ausserst unrealistisch. (wobei ich das von nem Chip mit 8Renderpipelines und allenfalls 4Texturpipelines jedoch auch denke :D )

Wenn man bedenkt, daß DX9 von ATI und MGA stammt, dann nicht...

Demirug
2002-05-23, 01:32:51
Originally posted by Stefan Payne


Wenn man bedenkt, daß DX9 von ATI und MGA stammt, dann nicht...

Über ein Jahr Entwicklungszeit sollte NVidia schon reichen.

Das mit den Renderpipelines kann IMO aber so nicht weitergehen. Es wird endlich Zeit das diese System etwas variabler wird.

Ceiser Söze
2002-05-23, 07:43:01
Der R300 kommt laut David Orton (COO von ATi) im August. Bevor jetzt alle schreien: 4. Quartal - der August 2002 ist der letzte Monat vom 4. Quartal von ATis Geschäftsjahr und an Investorenversammlungen redet man afaik für gewöhnlich in Geschäftsjahr- und nicht Kalenderjahr-Sprache. In anderen Worten: nVIDIA bringt den NV30 bereits im Herbst, da ATi sonst davonzieht / davonziehen könnte.

Fragman
2002-05-23, 11:58:17
nv wird bestimmt erstmal abwarten, ob die konkurenz wirklich so gut ist wie sie immer behauptet. sollte das nicht der fall sein, glaub ich auch nicht an einen nv30 dieses jahr. nv wird dann noch ein bisschen rumwerkeln und dann im fruehjahr damit rauskommen. sollte der
readon3 allerdings so gut sein wie behauptet, muss nv mit dem nv30 kommen, wenn sie nicht noch mehr kunden verlieren wollen.

nocturne
2002-05-23, 13:34:26
Originally posted by Fragman
nv wird bestimmt erstmal abwarten, ob die konkurenz wirklich so gut ist wie sie immer behauptet. sollte das nicht der fall sein, glaub ich auch nicht an einen nv30 dieses jahr. nv wird dann noch ein bisschen rumwerkeln und dann im fruehjahr damit rauskommen. sollte der
readon3 allerdings so gut sein wie behauptet, muss nv mit dem nv30 kommen, wenn sie nicht noch mehr kunden verlieren wollen.

Was möchtest Du mit "noch mehr" suggerieren? nVidia bekommt in letzter Zeit "immer mehr" Kunden, Tendenz steigend:

http://www.3dconcept.ch/news/marktanteilq102.gif

zeckensack
2002-05-23, 13:41:41
Originally posted by nocturne


Was möchtest Du mit "noch mehr" suggerieren? nVidia bekommt in letzter Zeit "immer mehr" Kunden, Tendenz steigend:

http://www.3dconcept.ch/news/marktanteilq102.gif Ich seh' das eher so, daß NVIDIA die Marktanteile der integrierten Grafikchips auffrißt. Bei ATI ist die Tendenz auch steigend :|

Demirug
2002-05-23, 13:54:22
Originally posted by zeckensack
Ich seh' das eher so, daß NVIDIA die Marktanteile der integrierten Grafikchips auffrißt. Bei ATI ist die Tendenz auch steigend :|

Ist doch schön für beide.

ATI frist aber auch fleisig bei den Notebookchips.

Und Intel soll bitte sein Geld mit was anderem als Grafikchipsätzen machen.

Fragman
2002-05-23, 17:28:00
@nocturne: nv wird sicher nicht zuschauen, wie die kunden den parhelia und r300 kaufen und sie selbst immer noch mit einem g4 oder g4 ultra auf dem markt sind.

Richthofen
2002-05-23, 17:47:27
das hat er auch nicht gemeint. Er hat lediglich deine absolut fachlich falsche Aussage korrigiert. Denn NV verliert bis jetzt überhaupt nix und hat Margen von denen andere nur träumen können. ATI hat ja auch einen ziemlich großen Kuchen und verdient bis jetzt kein Geld damit. Das ist der kleine aber feine Unterschied.
Der NV30 kommt so wie es der Markt erfordert. Geben die anderen Gas, dann gibt Nvidia Gas und wenn die anderen nicht vorankommen, dann lässt sich NV halt mehr Zeit und schlachtet GF4 und CO aus.

Fragman
2002-05-23, 19:19:37
das nv mehr kohle macht ist klar. in jedem billig pc werkelt ne nv karte, sie ueberschwemmen den markt ja regelrecht. ich meine aber die kunden, die seit dem readon2 eben diesen gekauft haben und keine nv karte mehr, oder die kunden, die sich dmals ne kyro II gekauft haben.
bevor jetzt kommt:...das sind aber wenige..: genau so hat nv auch mal angefangen. nv wird sich in zukunft mit mehr konkurenz rumschlagen muessen, da werden sie jede gelegenheit nutzen muessen, damit sie dort oben bleiben, wo sie im moment noch sind.

jedi
2002-05-23, 21:52:44
Originally posted by Richthofen

Der NV30 kommt so wie es der Markt erfordert

Genau das scheint der Schlüsselsatz zu sein.

Dass sie die Entwicklerpower haben, um einen DX9-Chip schon im Herbst zu bringen, ist ebenfalls klar. Aber sie haben es andereseits auch nicht nötig, irgendeinen Overkill-Chip nur aus Prestigegründen anzukündigen. Da steht nVidia mit beiden Beinen besser auf dem Boden als so mancher Möchtegern-Konkurrent.

Und ob wir Gamer (und damit der Markt) im nächsten Winter schon einen DX9-Chip brauchen, wage ich doch schwer zu bezweifeln. Gerade erst hat der Frontmann Carmack für Doom3 einen GeForce4 empfohlen. Und dabei kommt Doom 3 erst 2003.

Richthofen
2002-05-23, 23:38:39
@Fragman

natürlich hat NV mal so angefangen. Aber du vergisst hier einiges.
NV kann es sich durchaus leisten auch mal die Performance Krone abzugeben.
Und zwar aus dem einfachen Grund, das sie so dicke Ressourcen haben, das alle 4 bis 6 Monate die Latte hoch geschraubt wird.
Die anderen haben diese Ressourcen nunmal nicht. Demzufolge haben sie auch nicht besonders viel Zeit das auszukosten und ich vermute mal die Zeit reicht nicht aus, um dicke Marktanteile zu machen.
Ein OEM und mit denen wird nunmal das Geld verdient, will eine große Firma sehen, die in der Lage ist in jeder Marktsituation adäquat zu antworten und in riesen Stückzahlen zu liefern und auch den Support zu bieten.

Nur weil 3DLabs oder Matrox mal ne High End Karte rausbringen, werden derren Mid und low Cost Produkte sofern es welche gibt noch lange nicht in großen Mengen verbaut. Die OEMs wechseln nicht gerne und schon gar nicht kurzfristig. AMD ist das Paradebeispiel dafür, das OEMs sich schwer tun mal eben den Zulieferer zu wechseln, und das hat nunmal handfeste finanzielle und marketingtechnische Gründe.

Und du glaubst doch nicht allen ernstes, das Nvidia für solche Situationen nicht gerüstet ist.
Meinst du die merken nicht was andere entwickeln?
Da täuschst du dich gewaltig. Die wissen sehr wohl was Matrox, ATI und CO machen und ich denke mal ATI selber weiss das auch. Die anderen werden bei der Spionage eher mangels Geld nicht so erfolgreich sein.
Schau dir die GF4 TI an. Anandtech hatte seine im November und da war sie fertig. Absolut serienreif. Wann kam sie in die Läden?
Um die Cebit herum. Was brachte Nvidia im November rum? Die GF3 Ti500.
So ist das halt wenn die Konkurenten nicht ausm Mußtopf kommen.
Der NV30 wird ready sein wenn der Markt es erfordert und nicht einen Tag früher. Da wär man auch schön blöde.
Nv wird sich denken, lass die anderen mit ihren Monsterchips ruhig bluten. Große Kohle im Massengeschäft um das quersubventionieren zu können machen die eh nicht und wie der NV CEO bereits sagte:
Wenn einer erfolgreich ist mit nem Produkt wird er seinen Manpower bzw seine hellen Köpfe nicht lange haben weil die schlichtweg von den 2 Big Playern weggekauft werden und den kleinen die Puste relativ früh ausgeht. In 2 Jahren wird von der vielen Konkurenz nicht mehr viel übrig sein und 2 bis 3 werden den Markt bedienen und alle anderen wieder kleinere Brötchen backen.

Ich wollt noch anfügen das die Situation mit 3dfx damals und NVs aufstieg nicht mehr zu vergleichen ist.
Was hatten wir damals?
3dfx die gut für Spielekarten waren und ATI, die 3dmäßig unfähig waren aber derren mieserable Produkte in jedem OEM Rechner lagen.
3dfx selber hatte einen relativ kleinen Markt anteil zwischen 10 und 20% wenn mich mich recht erinner.
Das aufzubrechen war ja nicht schwer. Heute sieht die Lage anders aus.
Du hast Nvidia die sehr potente 3D Chips machen, und das so geschickt plazieren, das vom Hardcore Gamer bis zum billigsten OEM Rechner alles dabei ist. Dazu gesellen sich noch die Workstationkarten, die x-box Chips und seid kurzen die nForce Chips die mittlerweile zum Standard in jedem OEM Haus werden. Der Grund wieso NV vor allem beim Gewinn so satt zulegt ist vor allem der nForce. Ein weiterer Pluspunkt ist der absolut erstklassige Entwicklersupport und die rock stablen und vor allem unified Treiber.
3dfx war ein Zwerg dagegen. NV hat eine ziemlich große Marktposition aufgebaut an der du so einfach nicht drum herum kommst.
Tolle Programmierbarkeit wie der P10 ist ne feine Sache. Aber wenn die Masse am Markt NV und ATI hat wird sich das erst dann durchsetzen wenn diese beiden der Meinung sind das der Markt das braucht und keinen Tag früher.

Insofern muss man schon realistisch bleiben. Die neuen Chips sind wirklich toll aber ob daraus der große Kuchen wird, das wage ich zu bezweifeln, denn an den beiden Big Playern führt einfach kein Weg drann vorbei und die entwickeln ziemlich deckungsgleich was die Richtung angeht. Groß unterscheiden tun die sich eigentlich nicht.

Fragman
2002-05-24, 00:47:07
@ richthofen:
bei dir hab ich immer das gefuehl das ich es mit einem marketing vertreter von nv zu tun habe. du verteidigst nv immer bis zum letzten, aber die grosse zeit ist fuer nv nunmal vorbei, spaetestens mit dem aufkommen des parhelia, des readon3 und des 3dlabs chips. grad bei dem seh ich die groesste kunkurenz fuer nv. den hier ist mal ein kunkurent, der nicht nur gute hardware bastelt, sondern auch top treiber hat. das war der vorteil der nv so gross gemacht hat und der hat auch dafuer gesorgt, das nv so gross geblieben ist. geh jetzt pennen, koennen morgen weiter diskutieren... .

Simon Moon
2002-05-24, 01:15:10
Originally posted by Fragman
@ richthofen:
bei dir hab ich immer das gefuehl das ich es mit einem marketing vertreter von nv zu tun habe. du verteidigst nv immer bis zum letzten, aber die grosse zeit ist fuer nv nunmal vorbei, spaetestens mit dem aufkommen des parhelia, des readon3 und des 3dlabs chips. grad bei dem seh ich die groesste kunkurenz fuer nv. den hier ist mal ein kunkurent, der nicht nur gute hardware bastelt, sondern auch top treiber hat. das war der vorteil der nv so gross gemacht hat und der hat auch dafuer gesorgt, das nv so gross geblieben ist. geh jetzt pennen, koennen morgen weiter diskutieren... .


Nö, bei nVidia müssten andere Dinge passieren und vorallem geben sie den Rang nicht so schnell ab. Man schaue nur mal wie es schon bei 3Dfx ging: 2 Generationen konnte nVidia mit 3DFx mithalten. (TNT1 & TNT2) Dabei gab es dann jeweils TNT vs. Banshee/V2 und danach V3 vs. TNT2. Damals waren sie noch mehr oder weniger gleichwertig, sprich nVidia hat es nicht soo schnell geschaft 3DFx vom Tron zu stossen. Dann kam ein riesen Debakel bei 3Dfx dazu, nämlich die verspätete V5. Also 'gewann' nVidia.

Nun sieht es aber so aus: Nvidia hat bisher die Leistungskrone immer behalten können (von allenfalls ein paar Tagen mal abgesehen...). Nvidia hat ein wesentlich besseres Marketing als 3Dfx es hatte. Und Nvidia scheint keine verspätung mit der Karte zu haben. Zu guter letzt, sitzt Nvidia nun schon seit der GF1 auf dem Tron, und konnten sich so ziemlich geld anfressen. Sie haben trotz der Krise in der Hardware-Branche und dem Konkurenten ATi ihre Gewinne ausgebaut. Achja, *g* dann haben sie noch einige technologien von 3Dfx aufgekauft, evtl. machen sie daraus ja was.

Also erklär mir nun bitte, wieso die anderen Nvidia stürzen sollten?? Ne, Koexistenz für ne Weile ist da viel wahrscheinlicher und wenn Nvidia mal nicht mehr die schnellste (ich sagte nicht beste!)Karte hat und dies sich ein paar Quartale durchzieht, können wir noch mal von nem Fall Nvidias reden. Und selbst so, ist es alles andere als sicher, haben sie doch immer noch: Nforce, die OEMs und den XBox Deal im Rücken.

Versteht mich nun nicht falsch, ich bin keineswegs für Nvidia. Meiner Meinung nach sind ihre Karten teuer, die Treiber... naja und ihre Praktiken was das Marketing angeht mehr als Fragwürdig. Aber diese Fakten kann man nicht einfach so dahinwerfen.

PS: Richthofen hat Nvidia Aktien, deshalb sein Marketing getue *eg*

StefanV
2002-05-24, 01:38:49
wenn NV 2 Generationen mal zu spät rausbringt, dann waren sie mal Marktführer udn dann gibts keinen Grund mehr NV zu kaufen...

Denn dann ist der 'Treibervorteil' hinüber und außer Performance gibts keinen Grund NV zu kaufen, dann gehts genauso steil ab wie einst mit 3DFX...

Demirug
2002-05-24, 01:43:57
Ich finde es ja echt lustig wie man hier Leistungsdaten von Karten aus dem Hut zaubert von dehnen gerade mal die Chips vorgestellt wurden (P10, parhelia) oder noch gar nichts bekannt ist (R300, NV30)

Aufgrund der vorliegenden Daten kann man nur eines sagen der P10 wird dem parhelia unterlegen sein.

Dem parhelia wiederum haftet der Markel der 0.15 µ Fertigung an.

Da es als sehr gesichert gilt das ATi und NVidia mit 0.13 µ fertigen wollen habe beide einen Flächenvorteil. Diesen können sie nun ihn einen Preis oder Leistungsvorteil verwandeln.

Der Kampf der nächsten Runde wird also wieder zwischen ATi und NVidia ausgetragen werden und es wird wahrscheinlich keinen klaren Sieger geben.

Die anderen Spieler (3dLabs, Matrox) werden zuerst mal wieder nur um die nebenplätze kämpfen dürfen. Den beide müssen erst noch beweisen das sie das wahnsinnige Tempo von Ati und NVidia mitgehen können.

Und wenn ich mir die Interviews und Pressemitteilungen anschaue scheint das nicht der Fall zu sein.

Demirug
2002-05-24, 01:48:20
Originally posted by Stefan Payne
wenn NV 2 Generationen mal zu spät rausbringt, dann waren sie mal Marktführer udn dann gibts keinen Grund mehr NV zu kaufen...

Denn dann ist der 'Treibervorteil' hinüber und außer Performance gibts keinen Grund NV zu kaufen, dann gehts genauso steil ab wie einst mit 3DFX...

Da muss aber viel passieren das NVidia 2 Generationen in Rückstand kommt. Und das sowas nicht das generelle aus ist hat Matrox ja bewiessen. OK ist eine Privatfirma da ist sowas einfacher.

Simon Moon
2002-05-24, 02:31:04
Originally posted by Stefan Payne
wenn NV 2 Generationen mal zu spät rausbringt, dann waren sie mal Marktführer udn dann gibts keinen Grund mehr NV zu kaufen...

Denn dann ist der 'Treibervorteil' hinüber und außer Performance gibts keinen Grund NV zu kaufen, dann gehts genauso steil ab wie einst mit 3DFX...

Da ist ein wenn drinn. Und selbst diese wenn ist mehr als unsicher. Wieso sollte NV alles verpennen? Ich seh da keine Anzeichen.
Wie gesagt, ich mag NV auch nicht, aber das ändert nichts an der Tatsache, das sie Marktführer sind und sich das wohl auch nicht ändern wird. Und selbst wenn es sich ändern würde, was hätten wir davon? Wir hätten einfach ATi oder Matrox oder 3DLabs an der Spitze, die dann ihre Preise genau gleich diktieren würden.
Manche hier haben Phantasien... :D

Richthofen
2002-05-24, 03:17:02
Tjo Payne jetzt bist schon bei 2 Generationen. Beim 1. Post hörte sich das noch anders an.
Aber so ist das bei dir. Du schnappst dir jeden Strohhalm um NVs Abstieg bekanntzugeben.
Naja bleib du mal in deinem Glauben und ich orientier mich mehr an der wirtschaftlichen Realität und die sieht für NV mehr als prall aus und für alle anderen eher beschissen.

Ich finds ja gut wie toll Matrox und 3DLabs entwickeln aber eins ist doch mal klar. Die haben 3 Jahre dafür gebraucht und es ist eigentlich nicht davon auszugehen, das sie nun plötzlich im 4 bis 6 Monatstempo entwickeln.
Richtig cool wirds vor allem wenn die Leute nen Parhelia wollen und plötzlich nen Preiskampf am ganzen Markt einsetzt. Dann kann ich Matrox zu dem 80 Mio Transistorchip in 0.15 und den angepeilten Taktraten nur gratulieren. Die Ausbeute wird wahrscheinlich auf einem Niveau liegen, bei dem sich Intel und AMD die Haare raufen würden.

Und 2 Generationen zurückliegen würde bedeuten NV verpasst mit dem NV30 alle und dann 1 Jahr später nochmal. Ich glaub eher es wird anders laufen, dass die anderen 2 keine Zeit haben werden ihre tollen Entwicklungen groß auszukosten.

Ich sehs eher wie Demirug, dass es nach wie vor zwischen ATI und NV ausgetragen wird.

@El-Diablio:
Meine Aktien sind schon lange verkauft. Daran liegts wohl eher nicht. Mir kanns egal sein ob NV untergeht oder nicht - ich hab meine Kohle gemacht mit denen und muss nu zusehen das andere rocken :)
Aber da ich Zocker bin, lass ich es mir nicht nehmen die Nummer 1 für Zocker auch in ein entsprechendes Licht zurücken.
Die Produkte überzeugen mich, die Treiber auch und der Preis ist mir sowieso scheiss egal.
Wenn ne GeForce 4 TI 800 Euro kosten würde und ne Radeon8500 100 Euro würd ich trozdem ne GeForce 4 nehmen. Für ne Firma wie ATI ist mir einfach jeder Cent zu schade :)
Ist für mich wie VIA - alles eine Kategorie.
Trozdem zähle ich ATI weiter zur Musik und die anderen beiden (3DLabs und Matrox) spielen ein Game das auch nach hinten losgehen kann, wenn die Karten nicht das halten was sie versprechen oder die anderen also ATI und NV trozdem Ende diesen Jahres besser sind.
Ein Preissturz wie bei der Radeon8500 erlebt binnen weniger Wochen am Markt, wäre für Matrox nicht sonderlich gesund da 80 Mio Transistoren und 0.15er Fertigung nunmal einiges kosten.

StefanV
2002-05-24, 03:17:38
Originally posted by Demirug
Da muss aber viel passieren das NVidia 2 Generationen in Rückstand kommt. Und das sowas nicht das generelle aus ist hat Matrox ja bewiessen. OK ist eine Privatfirma da ist sowas einfacher.

Kommt halt auf die Ausrichtung des Unternehmens an.

Auch ATI hat es überlebt, weil sie eine andere Ausrichtung als 3DFX hatten.

Hätte 3DFX versucht auf dem OEM/Business Markt Fuß zu fassen, dann sähe es auch anders aus...

Irgendwie hab ich mich falsch ausgedrückt, so daß ihr mich falsch verstanden habt...

ich meinte eher:

'Wenn nVidia 2 Generationen hintereinander die Produkte nach der Konkurenz auf den Markt bringt'...

Andre
2002-05-24, 09:19:57
Originally posted by Stefan Payne
wenn NV 2 Generationen mal zu spät rausbringt, dann waren sie mal Marktführer udn dann gibts keinen Grund mehr NV zu kaufen...

Denn dann ist der 'Treibervorteil' hinüber und außer Performance gibts keinen Grund NV zu kaufen, dann gehts genauso steil ab wie einst mit 3DFX...

Beschäftige Dich doch bitte mal mit Marktwirtschaft, bevor Du sowas postest.

Andre
2002-05-24, 09:25:42
Originally posted by Stefan Payne
ich meinte eher:

'Wenn nVidia 2 Generationen hintereinander die Produkte nach der Konkurenz auf den Markt bringt'...

Sorry, aber ich glaube, dass du dich weder mit den Geschäftszweigen von NV noch mit möglichen Produkten der Konkurrenten mal richtig beschäftigt hast.
Anders kann ich mir solche Aussagen beim besten Willen nicht erklären.
Ich weiß, dass du dir den Fall von NV wünschst, nur wird dieser Fall in den nächsten 2-5 Jahren nicht eintreten.
Schau dir die Quartalsergebnisse von NV an, da können andere von träumen (Nein, ich habe keine NV-Aktien, ich hab die Berichte nur aus Interesse gelesen).
Und ich bin mal gespannt, wie denn die bis ans Ende des Universums gelobte Firma Matrox an der Marktmacht von NV ernsthaft rütteln will, wenn sie im Low- und Mid-Range Bereich nichts anbieten.

Mayhem
2002-05-24, 10:01:47
Bei der Frage, ob sich NV und ATI behaupten werden, sollte man nicht die Rolle von TSMC vergessen. Da die beiden auf den besten Chipfertiger zurückgreifen können ist ihre technologische Leistungführung automatisch begründet.

UMC muss sich mächtig anstrengen um da mitzuhalten.

Sicher hat NV (und auch ATI) genügend Manpower um mit den aktuellen Konkurrenzprodukten jederzeit gleichzuziehen, bzw. zu überholen.
Wie schon gesagt, dank TSMC.

An einen OpenGL 2.0 -konformen Beschleuniger glaube ich allerdings. Dafür müßte der Chip (vor allem die PS-Einheit) doch frei (also beliebige Instruktionstiefe und Sprünge) programmierbar sein, oder ?


Wie ist das eigentlich mit 3dlabs ? Wo lassen die fertigen ?

Mayhem
2002-05-24, 10:04:15
Originally posted by Mayhem
An einen OpenGL 2.0 -konformen Beschleuniger glaube ich allerdings.

... glaube ich allerdings nicht

Simon Moon
2002-05-24, 13:37:27
@El-Diablio:
Meine Aktien sind schon lange verkauft. Daran liegts wohl eher nicht. Mir kanns egal sein ob NV untergeht oder nicht - ich hab meine Kohle gemacht mit denen und muss nu zusehen das andere rocken :)
Aber da ich Zocker bin, lass ich es mir nicht nehmen die Nummer 1 für Zocker auch in ein entsprechendes Licht zurücken.
Die Produkte überzeugen mich, die Treiber auch und der Preis ist mir sowieso scheiss egal.
Wenn ne GeForce 4 TI 800 Euro kosten würde und ne Radeon8500 100 Euro würd ich trozdem ne GeForce 4 nehmen. Für ne Firma wie ATI ist mir einfach jeder Cent zu schade :)
Ist für mich wie VIA - alles eine Kategorie.
Trozdem zähle ich ATI weiter zur Musik und die anderen beiden (3DLabs und Matrox) spielen ein Game das auch nach hinten losgehen kann, wenn die Karten nicht das halten was sie versprechen oder die anderen also ATI und NV trozdem Ende diesen Jahres besser sind.
Ein Preissturz wie bei der Radeon8500 erlebt binnen weniger Wochen am Markt, wäre für Matrox nicht sonderlich gesund da 80 Mio Transistoren und 0.15er Fertigung nunmal einiges kosten.

Naja, Nvidia ist für dich die beste Firma. Das muss für jemand anderen nicht gelten. Leider ist es eben so, das es leute gibt, die imho zuerst mal aufs geld und dann auf die Leistung schauen.

Und was die NextGen Karten angeht, ich warte da noch und alle wenn und abers lass ich mal...

TBird
2002-05-24, 13:41:55
@Andre

Ich bewundere Dich, dass Du auch immer wieder auf Stefan Payne eingehst. :)

Andre
2002-05-24, 13:55:42
Originally posted by TBird
@Andre

Ich bewundere Dich, dass Du auch immer wieder auf Stefan Payne eingehst. :)

Ja, ich frage mich auch warum.
Wahrscheinlich deshalb, weil man solche Posts einfach nicht unkommentiert stehen lassen darf - sonst schenken manche diesen noch wirklich glauben.

Simon Moon
2002-05-24, 14:13:26
Originally posted by Andre


Ja, ich frage mich auch warum.
Wahrscheinlich deshalb, weil man solche Posts einfach nicht unkommentiert stehen lassen darf - sonst schenken manche diesen noch wirklich glauben.

schlechtes Argument *eg*

EDIT: War offenbar nicht ganz klar. Ich meinte schlechtes Argument, weil Imho sowieo niemand solche dinge glaubt.

nocturne
2002-05-24, 14:16:41
Finde ich nicht.

Thowe
2002-05-24, 19:56:51
Originally posted by Andre


Ja, ich frage mich auch warum.
Wahrscheinlich deshalb, weil man solche Posts einfach nicht unkommentiert stehen lassen darf - sonst schenken manche diesen noch wirklich glauben.


*Unterschreibt*

Richthofen
2002-05-25, 00:38:43
Jo der Payne versuchts halt immer wieder mit seinen Untergangstheorien aber damit dem nicht zu viel Leute glauben schenken halte ich ebenfalls einfach dagegen.

Ich hab viel Zeit zum posten :)
Als Student isses manchmal in der FH einfach zu öde. Da gibt man sich dann halt mal einige 3D Foren.

@El-Diablo

Ich warte in der Tat ebenfalls in aller Ruhe ab. Mit der GF4 Ti4400 @320 / 690 im Nacken ist man nicht unbedingt gezwungen aufzurüsten. Aber da ich das gerne mache, werd ich es höchstwahrscheinlich Ende diesen Jahres wieder tun. Wer nun wann der erste ist - mei wen interessiert das. Die Frage ist doch eher, wer ist beim NV Spring Refresh noch up to date, und wer braucht wieder 2 bis 3 Jahre zum nächsten Produkt.
Wenn ich Matrox, 3DLabs interessant finde kauf ich mir halt diese beiden zum NV30 oder NV35 noch dazu. ATI fällt wie immer aus weil für die wie ich bereits sagte gibts nüscht :)

Priest
2002-05-25, 00:49:42
Ein reicher Student. Das ist ja mal ganz was Neues.

Xmas
2002-05-25, 19:19:25
Originally posted by Mayhem
An einen OpenGL 2.0 -konformen Beschleuniger glaube ich allerdings nicht. Dafür müßte der Chip (vor allem die PS-Einheit) doch frei (also beliebige Instruktionstiefe und Sprünge) programmierbar sein, oder ?
Ich glaube jedenfalls daran.

3DLabs: (http://www.3dlabs.com/whatsnew/pressreleases/pr02/02-05-03-vpu.htm)
Programmable units that support complex operations - including subroutines and loops - that allow application developers to implement a huge palette of visual effects.

Doomtrain
2002-05-25, 22:06:27
Originally posted by El-Diablo


Wenn ne GeForce 4 TI 800 Euro kosten würde und ne Radeon8500 100 Euro würd ich trozdem ne GeForce 4 nehmen. Für ne Firma wie ATI ist mir einfach jeder Cent zu schade :)
Ist für mich wie VIA - alles eine Kategorie.


*laber*

PhoenixFG
2002-05-26, 16:49:03
Hi!

Vielleicht sollte man mal bedenken, dass alle 4 hier genannten Hersteller ganz unterschiedl. Märkte bedienen können/werden. Es produziert ja nicht jede Firma nur für Q3-Zocker.

MfG

Richthofen
2002-05-26, 18:37:15
is doch egal was fürn Game du zockst.
NV ist in der Masse vorne.
Wie es nach allen neuen Chips im Herbst aussieht ist momentan nicht vorherzusehen.

Jedenfalls sind 80 Mio Transistoren Chips kaum dazu geeignet im OEM Rechner in Massen zu landen.
Insofern bedienen die schon eher den Gamermarkt. Vielleicht noch Workstation aber der Markt ist so klein und fest in der Hand von 3 Herstellern, da ist kaum ein großes Geschäft möglich.

Pussycat
2002-05-26, 20:18:38
Originally posted by Richthofen
is doch egal was fürn Game du zockst.
NV ist in der Masse vorne.
Wie es nach allen neuen Chips im Herbst aussieht ist momentan nicht vorherzusehen.

Jedenfalls sind 80 Mio Transistoren Chips kaum dazu geeignet im OEM Rechner in Massen zu landen.
Insofern bedienen die schon eher den Gamermarkt. Vielleicht noch Workstation aber der Markt ist so klein und fest in der Hand von 3 Herstellern, da ist kaum ein großes Geschäft möglich.

Puh, dann ist NV ja glücklich unschlagbar und kannst du wieder ruhig schlafen.

[ncp]EasyChiller
2002-05-27, 01:11:53
hmm - ich sehe einen kommenden starken Komkurrenten nunmal nicht so in 3dLabs - die waren und sind - und werden warscheinlich auch noch ne geanze weil halt was Exquisites bleiben - nix für den Massenmarkt!

... nicht in Matrox.. der Pharphelia ist nur erstmal Prestigesache - auch nix für die breite Masse (mit dem kleinen Geldbeutel)! (es sei den es wird noch "abgespeckte preiswerte Varianten" geben! (für OEM's)

... wenn dann im Moment leider nur in ATI und aber meiner Meinung nach vor allem in SIS!!! (wurde ja noch nicht als Konkurrent erwähnt *ROFL*)

warum SIS? (falls diese Frage kommen sollte - und das würde sie garantiert)... ganz einfach: weil die mit dem Xabre Lowkost DX8 auf den Markt loslassen ... das wird zumindest die Einnahmen von NVDA stark beeinflussen - wenn NVDA nicht riskieren will, das einige der Partner auf SIS umsteigen werden! ... vielleicht wird es SIS sogar gelingen selber ein paar OEM's zu gewinnen! ... ich glaube sogar daran... denn PREISE bzw. BILLIG sind die Hauptwörter mit denen man OEM's ködert!

.. und ATI... wenn es ATI gelingen sollte den Diel mit M$ um den Chip für die XBox2 zu ergattern würden sie a) NVDA einen sehr lukrativen Part wegschnappen und b) selbst endlich mal einen lukrativen Zweig haben! ... dann wäre ATI der Zulieferer für 2 Konsolen - und das wäre schon mächtig FETT ;)

Ich glaube ehrlich selber nicht, das NVDA so schnell irgendwie die Zügel verliert - aber Marktanteile werden sie in nächster Zeit sicher einbüßen - den die Konkurrenz ist stark gestiegen! ...
(Profisegment Matrox+3dlabs+vielleicht ATI
Mainstream:ATI+SIS+vielleicht Trident
Mobile: ATI+Trident
Low-End/OEM: Ati+SIS ... so viel Konkurrenz war lange nicht mehr da - fragt sich eben nur wer wem Marktanteile abkämpfen wird! ... das da ne Neuverteilung für die nächsten Monate ansteht sollte jedem klar sein -oder?!)

Demirug
2002-05-27, 01:19:11
@[ncp]EasyChiller:

Das SIS Spiel geht aber nur solange auf wie NVidia zur Einführung des NV30 (oder früher) nicht gleichzeitig einen LowCost DX8 Chip auf den Markt bringt.

Was den XBox2 Chip angeht dürfte das aufgrund des XDKs nicht ganz einfach werden. Das DirectX auf der XBox sieht nur wie DirectX aus ist aber intern ganz anders aufgebaut.

[ncp]EasyChiller
2002-05-27, 01:27:36
ich glaube aber das M$ schon das knowhow hat ihre Software der verfügbaren Hardware anzupassen. - sonst würden sie ja nicht selber ATI für die XB2 für möglich erachten!

Und das NVDA einen DX8-Lowcost-Chip loslassen wird/loslassen werden müssen wird (hmm ... ich hasse Deutsch)... denke ich auch mal. Aber werden wie wirklich SIS preislich unterbieten können?

Demirug
2002-05-27, 01:45:30
XBox Chip:
Die Software hat nicht MS sondern NVidia geschrieben (MS dürfte aber den Quellcode haben) und die greift direkt auf den NV2A Chip zu. Der Code dafür liegt aber nicht im BIOS der XBox sondern wird wie das gesamte os mit auf die Spiele CD gepackt.

Es geht hier ja nur um Kompatibilität. Wenn die XBox2 keine XBox Spiele mehr unterstützen soll ist das kein Problem ansonsten müsste ATi den NV2A auf der Register und Speicherfensterebene emulieren. Die Frage ist ob dabei NVidia Patente verletzt werden oder nicht.

ow
2002-05-27, 10:00:25
Originally posted by [ncp]EasyChiller
... vielleicht wird es SIS sogar gelingen selber ein paar OEM's zu gewinnen! ... ich glaube sogar daran... denn PREISE bzw. BILLIG sind die Hauptwörter mit denen man OEM's ködert!




Fuer OEMS zaehlt nur eins: problem funktionierende Produkte.
Und SiS muss erstmal zeigen, dass sie dazu in der Lage sind.

Mit Qualitaet koedert man OEMs oder was denkst du warum die meisten von den billigen ATi Chips auf die teureren NV Chips umgeschwenkt sind???

StefanV
2002-05-27, 10:11:01
Originally posted by ow
Mit Qualitaet koedert man OEMs oder was denkst du warum die meisten von den billigen ATi Chips auf die teureren NV Chips umgeschwenkt sind???

Weil NV sich besser an den DAU verkaufen lässt...

Und DAS hat nix mit Qualität zu tun, sondern damit, wer das schnellste Produkt am Markt hat!!

Wenn es SIS ist, dann kaufen sie halt SIS (weil SIS ist ja schnell), ist es ATI, dann wird ATI gekauft...

ow
2002-05-27, 10:16:58
Klar, die OEMs interessieren sich nur fuer DAUs.

:lol::lol::lol::lol:

StefanV
2002-05-27, 10:22:02
Originally posted by ow
Klar, die OEMs interessieren sich nur fuer DAUs.

Für wen den Sonst??

Für die, die sich ihre Rechner selbst zusammenschrauben??

Wohl kaum...

Und im Office Bereich gibt es sicher kaum NV Karten!

Da werden entweder integrierte Intel Chipsätze oder Matrox Karten eingesetzt...

ow
2002-05-27, 10:26:58
Originally posted by Stefan Payne


Und im Office Bereich gibt es sicher kaum NV Karten!



In unseren Firmen PCs = Office PCs (Compaq) sitzen derzeit auschlieslich NV Karten (TNT2Pro, TNT2M64).

Die aeltesten Compaqs hier haben Matrox, die zweitaeltesten Ati. Und die neuen eben NV.

Andre
2002-05-27, 10:29:24
Originally posted by Stefan Payne


Weil NV sich besser an den DAU verkaufen lässt...

Und DAS hat nix mit Qualität zu tun, sondern damit, wer das schnellste Produkt am Markt hat!!

Wenn es SIS ist, dann kaufen sie halt SIS (weil SIS ist ja schnell), ist es ATI, dann wird ATI gekauft...

Stefan,

bitte, bitte, bitte, beschäftige dich bitte mit Marktwirtschaft und Konsumentenverhalten, BEVOR du dein noch nichtmal gesundes Halbwissen hier verbreitest.

Exxtreme
2002-05-27, 11:41:26
Originally posted by ow

Fuer OEMS zaehlt nur eins: problem funktionierende Produkte.
Der Preis spielt aber auch eine Rolle - zumindest wenn im Prospekt von einer "32 MB 3D-Gafikkarte" gesprochen wird. Deswegen war Intel letztes Jahr mit den intergrierten Grafikchips und ATi mit den Rage128-GraKas so erfolgreich obwohl beide für 3D-Grafik wenig brauchbar sind.
Originally posted by ow

Mit Qualitaet koedert man OEMs oder was denkst du warum die meisten von den billigen ATi Chips auf die teureren NV Chips umgeschwenkt sind???
Quelle? Aber bitte keine von NV gesponsorte Statistiken. ;)
Ich denke, daß in diesem Fall nicht pauschalisieren kann. Es kommt ganz einfach auf den OEM selber an. Bei Aldi/Medion wird es die GF4 sein, da man damit unbedarfte Kunden ködern kann. Bei irgendeinem Büro-Systemhaus dominieren wiederun ATi und Matrox, da es dort auf Spieletauglichkeit nicht ankommt.

Gruß
Alex

ow
2002-05-27, 12:36:59
Originally posted by Exxtreme


Quelle? Aber bitte keine von NV gesponsorte Statistiken. ;)
Ich denke, daß in diesem Fall nicht pauschalisieren kann. Es kommt ganz einfach auf den OEM selber an. Bei Aldi/Medion wird es die GF4 sein, da man damit unbedarfte Kunden ködern kann. Bei irgendeinem Büro-Systemhaus dominieren wiederun ATi und Matrox, da es dort auf Spieletauglichkeit nicht ankommt.

Gruß
Alex

Quelle?

Brauch ich mir nur unsere Firmenrechner (Compaq) anzusehen.

Die uralten bis PemtiumPro haben Matrox, die P2 Serie hat Ati und die neuen (P3) haben nur noch NV.

Alles Compaq Deskpro EN Serie.

AlfredENeumann
2002-05-27, 12:52:31
Originally posted by ow


Quelle?

Brauch ich mir nur unsere Firmenrechner (Compaq) anzusehen.

Die uralten bis PemtiumPro haben Matrox, die P2 Serie hat Ati und die neuen (P3) haben nur noch NV.

Alles Compaq Deskpro EN Serie.


Na und ?? BEi uns stehen mehrere Hundert DEll-Systeme, alle mit ner ATI Rage Pro.

ow
2002-05-27, 12:57:12
Originally posted by AlfredENeumann



Na und ?? BEi uns stehen mehrere Hundert DEll-Systeme, alle mit ner ATI Rage Pro.


Sind sicher alt oder wo werden heute denn noch Ragepro verbaut?


/edit:

Die Auswahl fuer den Dell Dim8200:


--------------------------------------------------------------------------------

32 MB DDR NVIDIA GeForce2 MX AGP graphics card with TV out

Optional: 32 MB DDR NVIDIA GeForce2 GTS 4x AGP graphics card

Optional: 64 MB DDR NVIDIA GeForce2 MX AGP graphics card with TV out

Optional: 64 MB DDR Nvidia GeForce3 Ti 200 graphics card with DVI

Optional: 128 MB DDR Nvidia GeForce4 Ti 4600 graphics card with DVI and TV-Out


Und fuer die 4400er:


--------------------------------------------------------------------------------

16 MB ATI Rage Ultra 4X AGP graphics card

Optional: 32 MB DDR Nvidia® GeForce2 MX 4X AGP graphics card with TV out

Optional: 64 MB DDR Nvidia® GeForce2 MX AGP graphics card with TV out

Optional: 64 MB DDR Nvidia® GeForce3 Ti 200 graphics card with DVI

Optional: 128 MB DDR Nvidia® GeForce4 4600 graphics card with DVI and TV out

AlfredENeumann
2002-05-27, 13:22:47
Originally posted by ow



Sind sicher alt oder wo werden heute denn noch Ragepro verbaut?


/edit:

Die Auswahl fuer den Dell Dim8200:


--------------------------------------------------------------------------------

32 MB DDR NVIDIA GeForce2 MX AGP graphics card with TV out

Optional: 32 MB DDR NVIDIA GeForce2 GTS 4x AGP graphics card

Optional: 64 MB DDR NVIDIA GeForce2 MX AGP graphics card with TV out

Optional: 64 MB DDR Nvidia GeForce3 Ti 200 graphics card with DVI

Optional: 128 MB DDR Nvidia GeForce4 Ti 4600 graphics card with DVI and TV-Out


Und fuer die 4400er:


--------------------------------------------------------------------------------

16 MB ATI Rage Ultra 4X AGP graphics card

Optional: 32 MB DDR Nvidia® GeForce2 MX 4X AGP graphics card with TV out

Optional: 64 MB DDR Nvidia® GeForce2 MX AGP graphics card with TV out

Optional: 64 MB DDR Nvidia® GeForce3 Ti 200 graphics card with DVI

Optional: 128 MB DDR Nvidia® GeForce4 4600 graphics card with DVI and TV out






Dell Optiplex GX1.
Wie gesagt Bürorechner. Die kisten die dort oben Teilweise auflistetst sind bei weitem KEINE Bürorechner.

AlfredENeumann
2002-05-27, 13:27:59
PS: BEi Fujitsu-Siemens bekommt man bei den Workstations (Celsius-Reihe) ATI oder Matrox angeboten.

aths
2002-05-27, 17:38:00
Originally posted by ow


Quelle?

Brauch ich mir nur unsere Firmenrechner (Compaq) anzusehen.

Die uralten bis PemtiumPro haben Matrox, die P2 Serie hat Ati und die neuen (P3) haben nur noch NV.

Alles Compaq Deskpro EN Serie.

ow, es ist statistischer Unsinn vom Einzelfall ausgehend eine Gesamtaussage machen zu wollen.

Com1
2002-05-28, 09:44:10
Ich habs schon mal erwähnt... Intel wird sich ihren Anteil vom Desktopmarkt Kuchen über den i845g wieder zurückholen.

Dell ist ein Hersteller, der mittlerweile voll auf NV setzt. FSC bietet alles mögliche an (ATI, Matrox und NV). In ihren aktuellen P4 Bürorechnern (SCENIC) hatten sie jetzt ne weile eine Radeon VE, TNT2m64, Geforce 2MX drin, die werden aber vom i845g verdrängt.

Richtig Interessant ist es derzeit eher im mobile Segment. Dieser Markt wächst noch (im gegensatz zum Dektop Markt). ATI ist da etwas im Vorteil gegenüber NV, da sie auf diesem Markt schon länger etablierter sind. Ob es jemals einen echten Markt für das "Gamer-Notebook" geben wird... wer weiß? Da ist alles noch offen.

ow
2002-05-28, 10:17:43
Originally posted by aths


ow, es ist statistischer Unsinn vom Einzelfall ausgehend eine Gesamtaussage machen zu wollen.


Interessiert mich nicht.
Nenn mir einen grossen PC Hersteller, der von NV zu einer anderen Marke gewechselt ist.

Pussycat
2002-05-28, 11:44:11
Originally posted by Com1
Richtig Interessant ist es derzeit eher im mobile Segment. Dieser Markt wächst noch (im gegensatz zum Dektop Markt). ATI ist da etwas im Vorteil gegenüber NV, da sie auf diesem Markt schon länger etablierter sind. Ob es jemals einen echten Markt für das "Gamer-Notebook" geben wird... wer weiß? Da ist alles noch offen.

Ich denke schon. Wenn der Laptop einmal so gut ist wie ein desktop, dann könnte es einmal als eleganter Ersatz dienen.

Richthofen
2002-05-28, 16:56:17
@ow

wirst kaum einen finden. Die meissten haben grundsätzlich als Basisausstattung NV Karten drinne.
Die Option eine andere Graka zu wählen ist immer da und wird auch immer da bleiben. Aber bei den meissten großen OEMs ist die Basis mittlerweile eine NV Graka. Wird sicher auch die ein oder andere Produktlinie geben wo das nicht der Fall ist oder auch den ein oder anderen OEM Versender. Aber im großen und ganzen hat NV die Nase vorn siehe auch Marktanteile von Mercury Research.
Man könnte jetzt noch Dataquest fragen aber die werden kaum andere Ergebnisse haben. Abweichung maximal +-3%. Die Zahlen kann man in jedem Fall als seriös betrachten.
Ist ja auch kein Wunder. NV macht sein Geld hauptsächlich mit den Massenchips und weniger mit den Teilen für den ambitionierten Gamer.
Und wenn ein Unternehmen damit hauptsächlich Geld macht, dann muss es irgendwo auch den entsprechenden Verbreitungsgrad haben bei den OEMs - leuchtet doch ein.

Im übrigen wird SIS eher keine Gefahr sein. Wenn sie billiger sind und NV ist der Meinung des könnte gefährlich werden, dann werden sie eben auch billiger. SIS Nachteil ist ganz klar, das sie kein High End Produkt haben um gescheit Aufmerksamkeit zu bekommen.
Die einzige Bedrohung in meinen Augen ist Intel. Die werden sicher wieder einige Marktanteile zurückholen. Ob das nun nur auf NVs Kosten geht, wage ich zu bezweifeln. Darunter werden alle incl die Kleinen leiden.
Was in den nächsten 2 Quartalen richtig Geld machen wird ist nForce.
Compaq, HP, Siemens, Pacard Bell, NEC und noch an die 100 weitere setzen mittlerweile nForce ein. Die richtige Kohle mit dem Chip kommt erst noch. Das der neue abgesagt wurde, halte ich sogar für sinnvoll. Was bringt er denn Neues? Nur mehr Takt in Bezug auf Speicher.
Momentan im Bereich der AMD CPUs eher kein Thema zumal nForce bereits mehr Bandbreite hat als nötig durch Dualchannel.
Außerdem hätte man die OEMs verärgert, die gerade Unmengen vom 415er und 420er geordert haben. Und bis zum K8 Hammer ist es nicht mehr lange hin. Da wäre der Lebenszyklus der 620er Reihe doch eher bescheiden, bedenkt man die Zeit die die Einführungsphase braucht.

Unregistered
2002-05-28, 17:15:36
@ ow:
in unseren Compaqs sind ausnahmslos Matrox-Karten...
sicher steigt der Anteil von nVidia-OEM-Karten ständig, aber alles andere unter den Tisch
zu kehren ist Blödsinn.

Richthofen
2002-05-28, 18:51:46
siehe Marktanteile Matrox vs NV.
Niemand kehrt was unter den Tisch aber um die 40% vs irgendwas kleiner 5% sprechen eine deutliche Sprache nicht?

StefanV
2002-05-28, 19:07:07
Originally posted by Richthofen
siehe Marktanteile Matrox vs NV.
Niemand kehrt was unter den Tisch aber um die 40% vs irgendwas kleiner 5% sprechen eine deutliche Sprache nicht?

Und woher sollen sie die Information über die Marktanteile von Matrox haben??

Matrox rückt die wohl kaum raus!!

Sicher hat MGA einen Höheren Marktanteil...

Schnitzl
2002-05-29, 02:51:05
Also ich weiss ja nicht wo ihr eure Infos herbekommt, aber sowohl Matrox als auch ATI haben bei FirmenPCs
immer noch ein festes Standbein.
Wenn es so wie bisher läuft, dann kommt ein halbes Jahr nach der Parhelia eine "light-Version" in 0.13
raus, eventuell mit geringerem Takt (?) und schmalerem Speicherinterface, und das Teil löst dann
die G550 als OEM-Karte ab.

btw: Matrox wollte nie einen GF4-Killer bauen, das haben dem Chip alle nur angedichtet,
die zielen auf ein ganz anderes Marktsegment...
Mich würden mal unabhängige Zahlen interessieren, soweit ich weiss, hat Matrox über 8 Millionen G550
verkauft.

ow
2002-05-29, 09:27:59
Originally posted by Stefan Payne


Und woher sollen sie die Information über die Marktanteile von Matrox haben??

Matrox rückt die wohl kaum raus!!

Sicher hat MGA einen Höheren Marktanteil...


Matrox braucht da nichts rauszuruecken, die PC-Hersteller tun das naemlich. Und die wissen, wieviel Chips welcher Firma sie verbaut haben.

StefanV
2002-05-29, 12:23:47
Originally posted by ow
Matrox braucht da nichts rauszuruecken, die PC-Hersteller tun das naemlich. Und die wissen, wieviel Chips welcher Firma sie verbaut haben.

Ach, und du meinst, die dürfen das??

Der Marktanteil von MGA ist reine Spekulation!!!

Genau, wie der Anteil von AMD/Intel reine Spekulation ist, da Intel keine Zahlen über verkaufte CPUs rausrückt!!

[edit]
Matrox vertreibt übrigens auch Hardware über einen eigenen Shop, da kann kein Händler die Daten rausrücken...

AlfredENeumann
2002-05-29, 12:41:42
Hier ein möglicher Grund warum DOOM III nicht auf Nvidia-Hardware vorgestellt wurde:

http://www.msnbc.com/news/758337.asp?0dm=B15LT&cp1=1#BODY

Doom III is very much hardware driven, and one of the controversies of this year’s E3 was that the game was demonstrated on the latest ATI graphics card rather than a card from NVidia.
“NVidia has been stellar in terms of driver quality and support and doing all of the things right,” says Carmack, who has been an outspoken evangelist for NVidia’s GeForce technology. “For the past few years, they have been able to consistently outplay ATI on every front. The problem is that they are about one-half step out of synch with the hardware generation because they did Xbox instead of focusing everything on their next board. So they are a little bit behind ATI.”
“I told everyone that I was going to demonstrate Doom III on the best hardware, and there has been no collusion or kickbacks or anything like that going on. Our objective is the technical merit.”
“The new ATI card was clearly superior. I don’t want to ding NVidia for anything because NVidia has done everything they possibly could; but in every test we ran, ATI was faster.”

ow
2002-05-29, 12:56:52
Originally posted by Stefan Payne


Ach, und du meinst, die dürfen das??

Der Marktanteil von MGA ist reine Spekulation!!!



Marktforschungsinstitute werden sich ihre Zahlen kaum aus den Fingern saugen.

Und wer willl den PC Herstellern verbieten, ihre Verkaufzahlen bekanntzugeben?

nocturne
2002-05-29, 13:28:27
Originally posted by AlfredENeumann
Hier ein möglicher Grund warum DOOM III nicht auf Nvidia-Hardware vorgestellt wurde:


Da dies ja bekanntlich zu Missverständnissen geführt hat, hat John Carmack dies gerade bei http://nvnews.net klargestellt:


It [The ATI card used] was compared against a very high speed GF4. It shouldn't be surprising that a next-generation card is faster than a current generation card. What will be very interesting is comparing the next gen cards (and the supporting drivers) from both vendors head to head when they are both in production.

Everyone working on DOOM still uses GF4-Ti cards at the moment, and if someone needs to buy a new video card today, that is what I tell them to get.

John Carmack

StefanV
2002-05-29, 13:31:03
Originally posted by ow


Marktforschungsinstitute werden sich ihre Zahlen kaum aus den Fingern saugen.

Und wer willl den PC Herstellern verbieten, ihre Verkaufzahlen bekanntzugeben?

Ach, und die ganzen Chips/Karten, die MGA direkt verkauft, wo bleiben die??

Werden die unter den Teppich gekehrt oder aus den Fingern gesaugt??

AlfredENeumann
2002-05-29, 13:33:01
Originally posted by nocturne


Da dies ja bekanntlich zu Missverständnissen geführt hat, hat John Carmack dies gerade bei http://nvnews.net klargestellt:




na und ? Trotzdem ändert es nichts an der tatsache das ATI bei der Präsentation den derzeit schnellsten Chip/Karte verfügbar hatte, auch wenn man diese nicht kaufen kann.

AlfredENeumann
2002-05-29, 13:34:00
PS: Was ist eine "very high speed GF4" ?

ow
2002-05-29, 13:40:49
Originally posted by AlfredENeumann



na und ? Trotzdem ändert es nichts an der tatsache das ATI bei der Präsentation den derzeit schnellsten Chip/Karte verfügbar hatte, auch wenn man diese nicht kaufen kann.


Hast du in deinem Posting nicht was vergessen oder sollen wir jetzt wirklich alle annehmen, das die ATi IN ALLEN GAMES schneller ist?;)

AMC
2002-05-29, 14:35:07
Originally posted by Demirug
Aufgrund der vorliegenden Daten kann man nur eines sagen der P10 wird dem parhelia unterlegen sein.

Könntest Du das bitte etwas näher ausführen? Ich schätze die Taktraten der beiden Chips dürften sich nicht soviel geben (wenn man davon ausgeht, dass auch der P10 in 0.15 micron hergestellt wird...), also dürfte Fillrate etc., nicht so sehr unterschiedlich sein.
Ich habe mir die Präsentation des Parhelia sehr genau angesehen und hatte unter anderem die Gelegenheit, ein In-Depth Gespräch mit einem der Hardware-Entwickler von 3DLabs, der am P10 arbeitet, zu führen.
(Ja, persönlich!) Ich wäre deshalb ein wenig vorsichtig, was einen Performancevergleich dieser beiden Chips angeht. Eines weiss ich allerdings sicher, die schnellste OpenGL-Lösung wird Ende diesen Jahres NICHT von nVidia oder ATI kommen! :>

AMC

Demirug
2002-05-29, 15:23:16
@AMC:

Im Bezug auf die Taktrate stimme ich mit dir überein wobei der Parhelia unter umständen in diesem Bereich nicht ganz so viele möglichkeiten hat wie der P10.

Was die Fillrate und Speicherbandbreite angeht liegen die beiden ebenfalls auf dem Papier dicht auf.

Um vorab noch etwas klarzustellen mir ging es in meiner Aussage nicht um eine allgemeine Wertung der Chips sondern sie war eher auf den normalen Endkundenmarkt bezogen. Im Profibereich ist der P10 ganz anders zu bewerten auch wenn er dort erst seine stärke mit der Verfügbarkeit von OpenGL 2.0 und entsprechenden Anwedungen zeigen können wird.

Was mich aber nun zu der Aussage gebracht hat das der P10 dem Parhelia unterlegen sein wird ist die bekannte Tatsache das mit zunehmender Flexibiltät eines IC entweder seine Transistorenanzahl oder die Taktfrequenz im Vergleich zu einem spzializierten IC höher sein muss um das gleiche ergebniss in gleicher Zeit zu produzieren.

Das Verhältnis von P10 und Parhelia in diesen beiden Punkten ist aber fast 1 zu 1 wodurch der höher spezialisierte Parhelia einen Vorteil hat.

Was nun die beste OpenGL Lösung angeht so bin ich gerne bereit dem P10 gute Chance einzuräumen. Sowohl NVidia und ATi gehen im OpenGL Bereich den Weg den Standard zwar zu unterstützen aber wirklich Leistung erreicht man nur mit den properiteren Extensions. Dies ist meiner Meinung nach auch der Grund warum sich immer mehr Spieleentwickler von OpenGL abgewant und zu DirectX übergewechselt sind. Den Platformunabhängkeit ist wertlos wenn die Software Chipabhängig wird. Der Versuch von 3DLabs mit OpenGL 2.0 diese Lage wieder zu ändern ist löblich wird aber letzten Endes IMO wohl wieder scheitern will diese Lösung nur Kurzfristig besserung bringen wird. Wenn die derzeitigen DX 10 Pläne verwirklicht werden wäre schon wieder eine neue OpenGL Version notwendig um den technologischen Anschluss nicht zu verpassen. Die Alternative wären dann wieder eine große Anzhal properitere Extensions

Xmas
2002-05-29, 16:00:51
Originally posted by AlfredENeumann
PS: Was ist eine "very high speed GF4" ?
Könnte ein Hinweis auf eine kommende "GF4 Ti4800" sein, möglicherweise dann mit NV28.

Originally posted by Demirug
Dies ist meiner Meinung nach auch der Grund warum sich immer mehr Spieleentwickler von OpenGL abgewant und zu DirectX übergewechselt sind.
Hm, und welche wären das? Epic und CroTeam wären hier das falsche Beispiel...

Der Versuch von 3DLabs mit OpenGL 2.0 diese Lage wieder zu ändern ist löblich wird aber letzten Endes IMO wohl wieder scheitern will diese Lösung nur Kurzfristig besserung bringen wird. Wenn die derzeitigen DX 10 Pläne verwirklicht werden wäre schon wieder eine neue OpenGL Version notwendig um den technologischen Anschluss nicht zu verpassen. Die Alternative wären dann wieder eine große Anzhal properitere Extensions
Nun, wenn du das so siehst muss DX10 wohl ein Riesensprung sein. ;)
Erzähl uns doch mal worin dieser besteht. Bei DX10 unterliegst du doch keinem NDA...

Demirug
2002-05-29, 16:55:43
@xmas:

Wieso hälts du Epic für ein schlechtes Beispiel??? Gerade Sweeney gefält doch scheinbar DirectX sehr gut. und in der FAQ (unoffical) steht doch auch das Unreal vorläufig nur D3D Support haben wird.

Ansonsten mus man doch nur einen Blick auf die Neuerscheinungen werfen (Spiele mit gleicher Engine zählen nur einmal). Es ist halt einfach zu aufwendig OpenGL als API für Spiele zu nutzen. Und für den Spieler ist OpenGL eher auch von Nachteil. Man stelle sich doch nur die folgende Situation vor:

Man kauft sich ein Spiel das auf der Grafikkarte die man hat echt toll aussieht aber ein bischen langsam ist. Nachdem man sich nun eine neue Grafikkarte (schneller mit noch mehr Features) gekauft hat und das Spiel weiterspielen möchte stellt man fest das es jetzt zwar schneller ist aber bei weitem nicht mehr so gut aussieht weil die Engine leider die Extension der neuen Karte nicht nutzen kann weil zum Entwicklungszeitpunkt diese noch nicht feststanden. Jetzt kann man nur hoffen das man einen patch bekommt. IMO ist das einfach eine dumme Situation.

Viele Infos gibts noch nicht zu DX 10. Was ich habe ist mehr ein grober Gesamtüberblick der sich aufgrund inoffizieler Mitteilungen und einer durchsicht von Aktuellen UNI projekten ergibt (wenn dort ATi, Nvidia oder MS als Auftraggeber oder Sponsor auftaucht).

Also so wie es im Moment aussieht wird DX 10 eine Stuffe der freien Programmierbarkeit erreichen gegen die alle was es bisher im Hardwarebereich gibt ziemlich armselig aussehen wird.

Die gesamte Pipeline wird aus Programmieresicht auf 3 Einheiten zusammengestrichen.

1. Tessellator (Nurbs, DM, N-Patch, RT-Patch, usw);
2. Integrated Shader (Übernimmt die aufgaben des Vertexshader, Pixelshader, Alphablendig, Stencil, usw.)
3. Anti-Aliasing

Das schöne an dem Integrated Shader ist das er mit einem Programm geladen wird welches alle Bereich abdeckt. Damit lassen sich dann Dinge erreichen wie zum Beispiel in anhängigkeit der Entfernung unterschiedlichen Fragmentshadereffekte zu benutzen. Also eine Art LOD. Das ganze kennt man im Softwarerendering (zb. Renderman) schon länger.

Ich hab mal ein Bild mit dem Unterschied DX9 zu DX10 angehängt.

AMC
2002-05-29, 16:59:13
Originally posted by Demirug
@AMC:

Um vorab noch etwas klarzustellen mir ging es in meiner Aussage nicht um eine allgemeine Wertung der Chips sondern sie war eher auf den normalen Endkundenmarkt bezogen.

Daran hatte ich eigentlich auch gedacht. :biggrin: Es ist ziemlich sicher, dass ein P10 Derivat auf einer Creative Karte für Gamer zum Einsatz kommt, deshalb hatte ich den professionellen OpenGL Markt auch absichtlich nicht erwähnt. Dort ist 3DLabs noch eine Klasse für sich.


Was mich aber nun zu der Aussage gebracht hat das der P10 dem Parhelia unterlegen sein wird ist die bekannte Tatsache das mit zunehmender Flexibiltät eines IC entweder seine Transistorenanzahl oder die Taktfrequenz im Vergleich zu einem spzializierten IC höher sein muss um das gleiche ergebniss in gleicher Zeit zu produzieren.

Das Verhältnis von P10 und Parhelia in diesen beiden Punkten ist aber fast 1 zu 1 wodurch der höher spezialisierte Parhelia einen Vorteil hat.

Damit hast Du sicher nicht ganz unrecht, wobei ich hier allerdings noch etwas zu bedenken geben möchte: In dem Falle dedicated vs. flexible hardware hängt auch eine ganze Menge von den Treibern ab. Sicherlich ist der Parhelia in einer Anwendungen, oder einem Spiel, dass DM nutzt, schneller, aber generell muss sich zeigen, wie gut die Programmierung der Prozessoren im P10 von 3DLabs realisiert wird. Unter OpenGL 2.0 wird wohl kaum ein Kraut gegen den P10 gewachsen sein, weder unter professionellen Anwendungen, noch unter Spielen. Hinzu kommt noch die extrem hohe T&L Leistung des P10, die ebenfalls einen netten Geschwindigkeitsausgleich bewirken kann, wenn ein anderes Feature nicht so effizient implementiert ist.

AMC

Demirug
2002-05-29, 17:15:33
Originally posted by AMC


Daran hatte ich eigentlich auch gedacht. :biggrin: Es ist ziemlich sicher, dass ein P10 Derivat auf einer Creative Karte für Gamer zum Einsatz kommt, deshalb hatte ich den professionellen OpenGL Markt auch absichtlich nicht erwähnt. Dort ist 3DLabs noch eine Klasse für sich.

Es stellt sich nur die Frage was das ganze kosten soll. Am Ende wird der P10 aus preislichen Gründen so gestutz das er wieder mal zu langsam ist.



Damit hast Du sicher nicht ganz unrecht, wobei ich hier allerdings noch etwas zu bedenken geben möchte: In dem Falle dedicated vs. flexible hardware hängt auch eine ganze Menge von den Treibern ab. Sicherlich ist der Parhelia in einer Anwendungen, oder einem Spiel, dass DM nutzt, schneller, aber generell muss sich zeigen, wie gut die Programmierung der Prozessoren im P10 von 3DLabs realisiert wird. Unter OpenGL 2.0 wird wohl kaum ein Kraut gegen den P10 gewachsen sein, weder unter professionellen Anwendungen, noch unter Spielen. Hinzu kommt noch die extrem hohe T&L Leistung des P10, die ebenfalls einen netten Geschwindigkeitsausgleich bewirken kann, wenn ein anderes Feature nicht so effizient implementiert ist.

AMC

Nur das OpenGL 2.0 im Spielemarkt erst dann eine Rolle spielen wird wenn eine ausreichende Abdeckung von OpenGL 2.0 fähigen Karten im Markt ist. Bei der Einführung des P10 ist erst mal nur die DX8 Power von Interesse. Im OpenGL Bereich wird sich 3dlabs an den ATi oder NVidia Extensions orientieren müssen um einen Stich zu machen.

Ansonsten würde ich davon ausgehen das auch der R300 und der NV30 OpenGL 2.0 fähig sind. Über die Speed will ich allerdings keine Aussage machen.

Was brint dich zu der Annahme des der P10 eine extrem hohe T&L Leistung hat??? Laut den verfügbaren Dokumenten verfügt er über 16 floting point geometry processoren. Damit lassen sich 4 vertex shader Einheiten nachbilden. Dies wird aber bei der nächsten Kartengeneration wahrscheinlich sowieso Standard sein.

Xmas
2002-05-29, 17:40:25
Originally posted by Demirug
Wieso hälts du Epic für ein schlechtes Beispiel??? Gerade Sweeney gefält doch scheinbar DirectX sehr gut. und in der FAQ (unoffical) steht doch auch das Unreal vorläufig nur D3D Support haben wird.
Epic hat sich aber nicht wirklich von OpenGL abgewandt, für den OpenGL-Renderer der Unreal-Engine haben sie sich sowieso nie wirklich Mühe gegeben. Den Multi-API-Support gabs eigentlich nur wegen Glide und MeTaL.

AMC
2002-05-29, 17:45:19
Originally posted by Demirug


Es stellt sich nur die Frage was das ganze kosten soll. Am Ende wird der P10 aus preislichen Gründen so gestutz das er wieder mal zu langsam ist.

Ja, dass bleibt leider zu befürchten. Allerdings ist es hier definitiv zu früh, darüber zu spekulieren, was Creative mit dem P10 machen wird. Wer weiss, vielleicht bieten sie ja mehrere Möglichkeiten, also Low-Mid und HighEnd an.


Was brint dich zu der Annahme des der P10 eine extrem hohe T&L Leistung hat??? Laut den verfügbaren Dokumenten verfügt er über 16 floting point geometry processoren. Damit lassen sich 4 vertex shader Einheiten nachbilden. Dies wird aber bei der nächsten Kartengeneration wahrscheinlich sowieso Standard sein.

Ganz einfach, der P10 soll ja nicht nur ein Consumerprodukt werden, sondern auch und gerade seinen Platz im professionellen Bereich finden. Wenn man sich also mal die Wildcat-Serie anschaut, dann fällt vor allem bei der Wildcat III eine sehr hohe T&L Performance auf. Kann mir also nicht vorstellen, dass der P10, der in einer bestimmten Konfiguration wahrscheinlich die Wildcat ablösen wird, an dieser Stelle schwächeln wird, oder irre ich mich da?

AMC

Demirug
2002-05-29, 17:48:11
Originally posted by Xmas

Epic hat sich aber nicht wirklich von OpenGL abgewandt, für den OpenGL-Renderer der Unreal-Engine haben sie sich sowieso nie wirklich Mühe gegeben. Den Multi-API-Support gabs eigentlich nur wegen Glide und MeTaL.

OK unter diesem Aspekt hast du natürlich recht.

AlfredENeumann
2002-05-29, 18:02:17
Originally posted by ow



Hast du in deinem Posting nicht was vergessen oder sollen wir jetzt wirklich alle annehmen, das die ATi IN ALLEN GAMES schneller ist?;)

nein. ich sagte das der Chip "in der Präsentation" schneller war. Wie er wo abschneidet weis eh kein sau. Interessiert mich auch eingetlich nicht. bin eh kein gamer. hole mir die karten nur wegen tech-demos.

Demirug
2002-05-29, 18:03:38
Originally posted by AMC

Ganz einfach, der P10 soll ja nicht nur ein Consumerprodukt werden, sondern auch und gerade seinen Platz im professionellen Bereich finden. Wenn man sich also mal die Wildcat-Serie anschaut, dann fällt vor allem bei der Wildcat III eine sehr hohe T&L Performance auf. Kann mir also nicht vorstellen, dass der P10, der in einer bestimmten Konfiguration wahrscheinlich die Wildcat ablösen wird, an dieser Stelle schwächeln wird, oder irre ich mich da?

AMC

Na so hoch ist der T&L durchsatz einer Wildcat III aber nun auch nicht.

Wildcat III 6210 3D Gourad-shaded triangles, Z-buffered: 33.0 M tri/sec mit 6 T&L einheiten

Aber bei Anwendungen bei denen eine Wildcat zum Einsatz kommt geht es ja eher um hohe Genaugigkeit bei großer Polygonen Anzahl als um reinen Speed. Zum anderen wird der reine T&L Speed bei zukünftigen Spielen sowieso immer unbedeutender. Es zählen da mehr die VS-OPS/s.

zeckensack
2002-05-29, 22:22:46
Originally posted by Demirug
Also so wie es im Moment aussieht wird DX 10 eine Stuffe der freien Programmierbarkeit erreichen gegen die alle was es bisher im Hardwarebereich gibt ziemlich armselig aussehen wird.

Die gesamte Pipeline wird aus Programmieresicht auf 3 Einheiten zusammengestrichen.

1. Tessellator (Nurbs, DM, N-Patch, RT-Patch, usw);
2. Integrated Shader (Übernimmt die aufgaben des Vertexshader, Pixelshader, Alphablendig, Stencil, usw.)
3. Anti-Aliasing

Das schöne an dem Integrated Shader ist das er mit einem Programm geladen wird welches alle Bereich abdeckt. Damit lassen sich dann Dinge erreichen wie zum Beispiel in anhängigkeit der Entfernung unterschiedlichen Fragmentshadereffekte zu benutzen. Also eine Art LOD. Das ganze kennt man im Softwarerendering (zb. Renderman) schon länger.

Ich hab mal ein Bild mit dem Unterschied DX9 zu DX10 angehängt.Mit Verlaub, das halte ich für den dämlichsten 'Fortschritt', der je angestrebt wurde.

Um den Chipbaueren ordentlichen Freiraum für Parallelisierung bieten zu können, muß die Trennung zwischen Vertex- und Fragment-Ops bestehen bleiben. Und diese Trennung ist auch kein Hindernis. Man kann doch beliebige Parameter aus dem Vertex Shader in den Fragment Shader übergeben. Damit kann man dann ebenfalls zwischen verschiedenen Effekten Blending machen. Vergleiche, abhängige Sprünge und Schleifen sind erlaubt, also wo bitte soll der Vorteil dabei sein, wenn man alles in eins packt? Ich sehe ihn jedenfalls nicht.

Rein vom Chipaufbau bleibt diese Trennung sowieso bestehen.

edit:
Wenn das tatsächlich so läuft, dann sehe ich das als krampfhaften Versuch von MS, 'anders' zu sein als OpenGL2. Sowas kann auch in die Hose gehen.

zeckensack
2002-05-29, 22:33:15
Originally posted by Demirug
[B]Ansonsten mus man doch nur einen Blick auf die Neuerscheinungen werfen (Spiele mit gleicher Engine zählen nur einmal). Es ist halt einfach zu aufwendig OpenGL als API für Spiele zu nutzen. Und für den Spieler ist OpenGL eher auch von Nachteil. Man stelle sich doch nur die folgende Situation vor:

Man kauft sich ein Spiel das auf der Grafikkarte die man hat echt toll aussieht aber ein bischen langsam ist. Nachdem man sich nun eine neue Grafikkarte (schneller mit noch mehr Features) gekauft hat und das Spiel weiterspielen möchte stellt man fest das es jetzt zwar schneller ist aber bei weitem nicht mehr so gut aussieht weil die Engine leider die Extension der neuen Karte nicht nutzen kann weil zum Entwicklungszeitpunkt diese noch nicht feststanden. Jetzt kann man nur hoffen das man einen patch bekommt. IMO ist das einfach eine dumme Situation.Genau deswegen werden ab und zu Updates zur Core-Spec verabschiedet: man vereinheitlicht Features, die von mehreren "Big players" unterstützt werden können.

1)Ist die Arbeit an einer einheitlichen Extension für Vertes Shader schon sehr weit fortgeschritten.
2)Lohnt sich eine Einheitliche Fragment Shader spec nicht, solange NV nur einen glorifizierten Texturcombiner verbaut. Es gibt de facto heute nur einen Hersteller mit einer programmierbaren Einheit in dieser Sektion und das ist ATi.
3)Alles, was irgendwie nützlich ist (AGP-Speicherverwaltung, VS, diverse Tesselator) wird sowieso in Version 1.4 standardisiert sein. Und diese steht relativ kurz vor der Verabschiedung. (Nachzulesen in den ARB meeting notes)

Demirug
2002-05-30, 00:26:02
@zeckensack:

Ich hab mich wohl sehr unglücklich ausgedrückt. In der Hardware bleiben die einzelnen Einheiten (VS, PS, usw.) natürlich getrennt. Es geht mehr darum wie diese Hardware dem Entwickler presentiert wird.

Da man dann eine hochsprache benutzt ergibt sich daraus das diese Programme nicht mehr Hardwareabhängig sind. Der Compiler (von Chiphersteller) trift selbstständig entscheidungen über den Einsatz der Resourcen.

Als Beispiel will ich unser gutes altes PS1.0 gegen PS1.4 Problem wieder einmal herzunehmen. Ich habe nun ein Shader-Programm geschrieben welches 6 Texturzugriffe braucht. Nun geht der Compiler zu ans Werk. Für einer ATi Karte erzeugt er mir nun die entsprechenden Steuerbefehle um diese programm in einem Pass auszuführen. Für einer NVidia Karte erzeugt er eine 2 Pass Lösung. Im Spiel selbst rufe ich zur Laufzeit aber nur einen Befehl auf um der Karte zu sagen das ich eine Dreieckesliste mit diesem Program gerendert haben möchte.

Ein anderes Beispiel: Ich brauche für mein Shader Programm eine Prozeduale Texture welche aus einer Function von u und v sowie zweier Variablen die sich pro Frame ändern können bestimmt ist.
Nun ist meine Karte1 der Meinung das sie die Function direct im fragmentshader ausführen kann meine Karte2 hält die Function aber für zu Komplex um sie direct auszuführen.
Was passiert nun.
Für die Karte 1 wird einfach ein entsprechender Fragment Shader erzeugt.
Für die Karte 2 wird allerdings x86Code erzeugt welcher die Prozeduale Texture füllt. Dieser Code wird dann automatisch ausgeführt wenn zum erstenmal in einem Frame dieses Programm benutzt wird.

Der Vorteil bei dieser ganzen vorgehensweise dürfte doch auf der Hand liegen. Für jeden Effekt wird die vorhandene Hardware (CPU, GFX) optimal genutzt.

Ich hoffe das dir das Konzept jetzt etwas klarer ist. Ich finde es jedenfalls sehr gut.

Was nun die OpenGL Specs angeht ist dort ja durchaus ein fortschritt zu erkennen. Für meinen Geschmack dauert das eben alles ein bischen zu lange. Du brauchst mir jetzt nicht zu erklären warum das so ist das ist mir schon klar.

Der Punkt ist eben nur das man bei OpenGL im Prinzip fast für jede Karte einen neuen Renderpfad schreiben muss. Das ist mir persönlich einfach zu aufwendig.

zeckensack
2002-05-30, 00:57:51
Ja, die Beispiele leuchten schon ein. Nur scheint mir das Wegabstrahieren dieser Trennung Vertex/Fragment als unnütz bis hinderlich. Eine Abstraktion macht doch nur dann Sinn, wenn sie dem Programmierer nützt.

Mit der bisher in den APIs gegebenen Trennung kann der Programmierer zB ganz wunderbar "Mix and match" betreiben, also sagen wir mal, den gleichen Pixel Shader sowohl für statische als auch für (per Vertex Shader) deformierte Geometrie benutzen. Wie man sich das halt so vorstellt, es gibt eine klare Grenze zwischen "Material" und Geometrie, wobei ein Material immer gleich aussehen sollte, egal wie die zugehörigen Vertices generiert werden. Sowas wäre zB nützlich für teilweise animierte/deformierbare Levels.

Mit dem alten Modell kann ich einen PS schreiben und ihn auf beliebige VS aufsetzen. Wenn ich das gleiche mit dem 'vereinten' Modell erreichen will, brauche ich entweder Makros (wodurch die Vereinheitlichung wieder dahin wäre), oder ich muß den Code mehrmals schreiben, mehrmals pflegen und mehrmals kompilieren. Wenn der Treiber sowieso einen Split VS/PS vornimmt, wozu soll dann der ganze Aufwand gut sein?

edit:
kleine Milchmädchenrechnung:
Ich habe zehn Materials -> zehn Pixelshader
Ich habe drei Sorten Geometrie (statisch, keyframe, skeletal) -> drei Vertexshader

Für das getrennte Modell brauche ich 10+3=13 Blöcke Shader-Code. Für das neue brauche ich 10*3=30.

Demirug
2002-05-30, 02:16:54
@zeckensack:

Ups da hab ich doch vergessen zu erwähnen das man natürlich auch subroutinen benutzen kann. Man kann sich also die Teile die man öfter braucht in eigene Funktionen legen und bei bedarf aufrufen.

Ok am ende sind es 30 Programme diese haben dann aber den Vorteil das sie unabhängig von der Hardware arbeiten und sehr klein sind da sie ja nur aus ein paar subroutionen aufrufen zusammengestzt sind. Der Vorteil ist das ein Compiler besser optimieren kann wenn er den gesamten Zusammenhang hat und ich mir keine gedanken über den Datenstrom vom Vertex zum Fragment teil machen muss. Und dann versuch mal einen Multipass ohne das komplette Programm zu haben aufzulösen. Das ist schwer bis unmöglich. Wenn ich den Fragmentanteil in zwei passes aufteilen muss brauche ich auch zwei dazu passende Vertexprogramme. Wenn aber beim erzeugen der Vertexprogramme keine Informationen über die beiden Fragmentanteile zur verfügung stehen geht nichts mehr.

Deine Milchmädchenrechnung ist leider eine.

Du gehst davon aus das jeder Vertexshader zu jedem Pixelshader past. In der Praxsis ist das leider in der Regel nicht der Fall. Dadurch ergibt sich fast ein 1:1 Verhältnis von PS:VS und erschwerende kommen ja noch die unterschiedlichen Versionen für unterschiedlichen Karten hinzu.

Hinzu kommt noch der Punkt das die Verantwortlichkeit für die Shaderprogramme in Zukunft mehr auf die Grafiker/Designer übergehen wird. Das derzeitige Verfahren ist einfach zu aufwendig. Es wäre dann auch durchaus möglich einfach eine Shaderprogramm-Sammlung aufzubauen aus der dann vom Grafiker die benötigten ausgewählt werden.

Pussycat
2002-05-30, 09:51:28
Originally posted by Demirug
Was mich aber nun zu der Aussage gebracht hat das der P10 dem Parhelia unterlegen sein wird ist die bekannte Tatsache das mit zunehmender Flexibiltät eines IC entweder seine Transistorenanzahl oder die Taktfrequenz im Vergleich zu einem spzializierten IC höher sein muss um das gleiche ergebniss in gleicher Zeit zu produzieren.

Das Verhältnis von P10 und Parhelia in diesen beiden Punkten ist aber fast 1 zu 1 wodurch der höher spezialisierte Parhelia einen Vorteil hat.

Aber wenn der P10 (kein schöner Name, 3dFX konnte das besser :)) Alle flexibele Transistoren im einen Moment für einen VS investieren kann, dann wieder als multiplikator etc. würden seine Transistoren viel besser ausgelastet sein als die des Matrox. Wenn sehr einsietige Arbeit zu machen ist, könnte er alles im Kampf werfen, wo Parhelia nur eine bestimmte anzahl Einheiten hat.

Ich fürchte übrigens das der P10 hierdurch z.B. bei einzelnen 3dMark tests gut sein wird, im Spiel jedoch weniger, und dass die minimale Framerates fallen werden.

Bei den P10-leistungen wird das aber nicht drastisch werden. Ein Test würde ich aber sehr zu schätzen wissen, wenn es den Chip gibt.

jedi
2002-05-30, 21:23:14
Originally posted by Xmas

Epic und CroTeam wären hier das falsche Beispiel...


Wieso CroTeam? Soweit ich weiss, setzen die immer noch auf OpenGL, oder?

Xmas
2002-06-02, 02:29:08
Originally posted by jedi
Wieso CroTeam? Soweit ich weiss, setzen die immer noch auf OpenGL, oder?
Haben ihre Engine aber mittlerweile auch auf D3D umgesetzt...

StefanV
2002-06-02, 03:09:47
Originally posted by Xmas

Haben ihre Engine aber mittlerweile auch auf D3D umgesetzt...

Hm, irgendwie scheint sich D3D immer mehr durchzusetzen...

Das liegt aber IMHO haupsächlich am OGL Komitee, das einfach zu lahm arbeitet...

Wenn neue Technische Möglichkeiten von diesem Komitee schneller umgesetzt werden würde, dann wäre die Situation wieder anders, denn dann bräuchte man keine Proprietären Extensions (hoffentlich richtig geschrieben)...

Tja, aber so ist es halt in der Politik...

nocturne
2002-06-02, 03:24:38
Originally posted by Xmas

Haben ihre Engine aber mittlerweile auch auf D3D umgesetzt...

Könnte an der XBox liegen. Viele Entwickler wollen an diesen Standard.

Thowe
2002-06-02, 09:55:09
Originally posted by Stefan Payne


Hm, irgendwie scheint sich D3D immer mehr durchzusetzen...

Das liegt aber IMHO haupsächlich am OGL Komitee, das einfach zu lahm arbeitet...

Wenn neue Technische Möglichkeiten von diesem Komitee schneller umgesetzt werden würde, dann wäre die Situation wieder anders, denn dann bräuchte man keine Proprietären Extensions (hoffentlich richtig geschrieben)...

Tja, aber so ist es halt in der Politik...

Zum einen wird DX stark von MS gefördert, zum anderen liegt es nicht zuletzt auch daran, das ausser nVidia (dank Elsa *snief*) kaum ein Grafikkartenhersteller der im Spielesektor tätig ist der einen sehr guten ICD liefert. PowerVR kommt den z.Z. tatsächlich noch am nächsten, ATI könnte es in Zukunft packen (dank des FireGL-Teams). Matrox, S3, SIS, Trident usw. liefern eigentlich nicht viel mehr als nichts, zumindestens nichts ersthaftes. Erst mit 3DLabs würde wieder ein ersthafter Hersteller mit echten ICD im Markt tätig werden.

Das OpenGL Komitee hat andere Interessen als den Gamers-Markt, die brauchen eigentlich nicht schneller arbeiten. Aber was meinst du mit proprietär, der Clou an OpenGL ist ja, das es als nicht proprietärer (also offener) Standard gegen IrisGL ins Leben gerufen wurde. Gerade das einbringen eigener Extensions mit Optimierung auf die eigene Hardware ist eigentlich bei OpenGL essentiell.

Politik = Marktwirtschaft