PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV am Ende


seahawk
2002-12-07, 19:15:13
nVidia am Ende?
07.12.2002 | 12:27 | Zafi | Quelle: K-Hardware
Die Geforce4 Ti4200 war wohl die erfolgreichste unter den Ti-Modellen. Kein Wunder dass daher auch die meisten Anwender bei den NV28 Chips nach eben selbigen Modell verlangen und auch hier auf gute Übertaktbarkeit und einen günstigen Preis hoffen.
Wie sieht es jedoch mit den Nachfolgern der Ti4400 und Ti4600 aus? Hier war es lange Zeit still, bis schließlich die Ti4800SE (von MSI) auf der Comdex ihre Premiere feierte. Die ersten Erwartungen bezüglich einer noch höher getakteten Geforce4 Ti wurden enttäuscht, obwohl der Name genau dies implizierte. Denn hierbei handelte es sich (nach den Taktraten zu schließen) nur um eine Ti4400, lediglich mit der zusätzlichen Fähigkeit AGP8x zu nutzen (NV28). Nun berichtet DigiTimes auch von einer Geforce4 Ti 4800 (ohne SE), doch auch hier handelt es sich nicht um eine leistungsstärkere Geforce4 Ti, sondern lediglich um den Nachfolger der Ti4600. Wobei auch hier nur die zusätzliche AGP8x Fähigkeit den Namen beeinflusst.

Es ist nicht schwer zu erraten, dass das Verwirrspiel mit dieser Namensgebung, wieder neue Kunden zu nVidia locken soll. Doch Schlussendlich wird dies nur dem Image des GPU-Herstellers schaden, welcher sich schon jetzt mit Platz 2 des Leistungsrangs begnügen muss und auch diesbezüglich schwer zu schlucken hat. Sicherlich ist auch hier nicht ausgeschlossen, dass es eine Geforce4 Ti geben wird, die doch noch mehr Leistung hergibt, als bisher die Ti4600 oder deren neuer Zwilling die Ti4800. Doch die Ankündigen bleibt aus und auch ATI zieht mit neuen Modellen nach, welche einen potentiellen Ti-Thronfolger kaum Spielraum lassen dürften.
Sei es in der Leistung oder auch im Preis, nVidia befindet sich nun auf dem absteigenden Ast und momentan scheint es auch nichts zu geben, was dieser Problematik entgegenwirken könnte. Selbst der kommende GeforceFX scheint nur vorübergehend eine Lösung darzustellen, wobei auch er erst Mitte 2003 mit günstigeren Mainstream-Modellen aufwarten wird können. In der Zwischenzeit bereitet sich ATI scheinbar auf einen Sturmangriff vor und wird schon kurz nach der Einführung der R300 Serie auch gleich die R350 Serie präsentieren können, welche wiederum (den Erwartungen zufolge) nVidias GeforceFX zum Kindergartenspielzeug abstempeln könnte.

Daraus ergeben sich nun gewaltige Probleme für nVidia, den der ganze Konzern stützt sich auf die Einnahmen des Grafikchipsektors. Andere Bereiche wie die Softwareentwicklung oder auch die Chipsatzproduktion, befinden sich noch in den Kinderschuhen oder visieren finanzschwache Märkte an, in denen auch mit guten Erfolgen keine großen Profite zu erwarten sind. Schließlich kann nVidia auch speziell mit dem nForce2 nur gutbetuchte Kunden ansprechen und dann auch nur die, welche sich auf der Athlon-Schiene bewegen. Intel Prozessoren, die mit über 90% den Löwenanteil des Marktes definieren, werden auch weiterhin für nVidia verwert bleiben.
Schlussendlich schafft es nVidia auch nicht, sich eine Position im Grafikbereich des Notebookmarktes zu sichern. Die hier erhältlichen Produkte waren schon zu ihrer Einführung lediglich ein kräftemäßiges Gleichziehen mit ATIs mobilen Radeon7500. Sicherlich möchte nVidia auch leistungsstärkere Komponenten in diesen Markt einführen, doch sie stellen keine wirkliche Lösung für das eigentliche Problem dar. Im Notebookmarkt sind vielmehr stromsparende und leicht zu integrierende Komponenten gefordert, vor allem aber auch günstige Lösungen, die scheinbar nicht mit nVidias Vorstellungen gleichziehen können.

Oft manövriert sich namhafter Hersteller an die Grenzen ihrer Existenz, weil sie versuchen den Markt nach ihren eigenen Vorstellungen zu formen. Doch die Vergangenheit zeigt immer wieder auf, dass der Markt nicht die Spielregeln des Einzelnen befolgt, sondern sich seine Eigenen schafft und zwar immer wieder aufs neue. Wer sich diesen nicht anpassen will oder kann, wird es früher oder später lernen. Allerspätestens dann, wenn es zu spät ist.

Rampage
2002-12-07, 19:17:55
Ach Gott, ich glaube nVidia hält sich noch ein Weilchen am Markt, ob es uns passt oder nicht ;D

edit: man schaue nur einmal auf den OEM-Markt !!

zeckensack
2002-12-07, 19:24:22
Nö :)

Exxtreme
2002-12-07, 19:25:34
Hoffentlich nicht. Ich habe keine Lust NV-Preise dann für ATi zu blech0rn.

[EF]peppa
2002-12-07, 19:27:59
hat es mit 3dfx nicht aehnlich angefangen?
dennoch glaube ich das wir nvidia noch laengere zeit haben werden. schlimm wenn nicht.

egdusp
2002-12-07, 19:31:15
Auch wenn NV in letzet Zeit keine berrauschenden Gewinne mehr gemacht hat (400 mio $ Entwicklungskosten für NV3x), ATI hat noch sehr viel weniger gemacht. Also jetzt schon NVs Untergang vorherzusehen, ist doch etwas arg reißerisch. K-Hardware hat IMO sowieso keine allzugroße Kompetenz, was ich bei denen schon alles gelesen habe.

mfg
egdusp

Simon Moon
2002-12-07, 20:30:36
Ok, NV steht im Moment nicht gleich mit ATi. Relativ weit hinter ATi sogar. Aber das ganze nun mit 3Dfx gleich zu setzen...

NV hat einiges im OEM Markt (die ganzen MXen...). 3Dfx hatte (fast?) keine OEM Verträge, waren von daher also wesentlich mehr auf Konkurenzfähige Produkte angewiesen.

Und NVidia gilt immer noch als "bester" Graka Hersteller unter den DAUs. Vereinzelt gibt es nun zwar welche, die was von ner ATi Graka gehört haben, die schneller sein soll, aber die sind doch nocht recht selten.

Ich vermute einfach mal, dass ATi sich zwar Marktanteile zurückholen kann, aber glaub nicht an den Untergang von nVidia...

Hotzenplotz
2002-12-07, 20:41:48
halt ich auch für ein bisschen übertrieben,
NV hat viellicht die Schlacht verloren ,aber noch nicht den Krieghttp://www.plauder-smilies.com/happy/grlaugh.gif

Eusti
2002-12-07, 20:46:13
Originally posted by [EF]peppa
hat es mit 3dfx nicht aehnlich angefangen?
dennoch glaube ich das wir nvidia noch laengere zeit haben werden. schlimm wenn nicht. Nee, das war bei 3dfx anders.

Die haben damals eine GrafikKARTENfabrik in Mexico gekauft. Dannach haben Sie aufgehört Chips an die anderen Hersteller zu verkaufen. Bedingt dafdurch hat man sich 90% seiner Vertriebskanäle verschlossen (mächtige Marken wie Diamond "Monster", Hercules, usw.). Dieses wiederum hat dazu geführt, das unmengen an Geld vernichet wurden (Fixkosten der riesigen Fabrik), weil man mit einer einzelnen Marke nicht mehr in der Lage war, genau so viele Chips/Karten zu verkaufen wie mit den 30 Marken vorher.

Innerhalb eines Jahres wurde soviel Geld durch diesen Fehler vernichtet, das kein Geld mehr zur Finanzierung des bereits weit fortgeschrittenen GeForce256 Konkurrenten vorhanden war.

Kurz vor dem eigendlichen Ende hat man dann noch einige Panikreleases (Voodoo5) gebracht. Aber eigendlich war es da schon durch den Fehler mit der Fabrik in Mexico vorbei. Zwar hat 3dfx genauso wie NVidia einen Cycle verpasst, aber der Ruin war das Investment in die Fabrik, bei gleichzeitiger Aufgabe der Vertriebskanäle.

ATI hat sich vor 1 Jahr durch den umgekehrten Fall (kaum noch eigene Karten; Lieferung an viele einzelne Hersteller), so gerade noch vor einer Insolvenz retten können.

Exxtreme
2002-12-07, 22:04:45
Ack @ Eusti

Hinzu kommt noch, daß 3dfx im Prinzip über die Jahre die gleiche Technik verkauft hat. Zwar gab es immer einen SpeedUp von Generation zu Generation, aber featuremässig tat sich nicht viel. Hier ein Postfilter, hier mal eine Textureinheit aber Grosses war nicht drin. Das änderte sich zwar mit der V5 aber da war es schon zu spät.

Thowe
2002-12-07, 22:17:59
NV ist sicher nicht am Ende, der Druck ist stärker geworden, aber das kann uns nur recht sein.

robbitop
2002-12-07, 22:36:33
der PC Markt ist momentan eh ohnehin im Eimer und 3dfx hatte einfach extrem schwerste Fehler gemacht.
somit ist NV nicht der Einzige. Aber die Verkäufe sind trotzdem okay.

btw gibt es schon ein NV30 Review mit echten unabhängigen Benches?

Simon Moon
2002-12-07, 22:39:05
Originally posted by Exxtreme
Ack @ Eusti

Hinzu kommt noch, daß 3dfx im Prinzip über die Jahre die gleiche Technik verkauft hat. Zwar gab es immer einen SpeedUp von Generation zu Generation, aber featuremässig tat sich nicht viel. Hier ein Postfilter, hier mal eine Textureinheit aber Grosses war nicht drin. Das änderte sich zwar mit der V5 aber da war es schon zu spät.

Daran langs glaub ich nicht. Ich mein, nvidia hat auch nichts grossartiges verändert von der Riva128 zur TNT2Ultra. Und die GF war afaik auch nur ne stärker überarbeitete TNT mit TnL Einheit.
Den "Feature Mangel" von 3dfx schau ich nicht als schlimm an, man konnte damals ja jedes Spiel genauso problemlos spielen wie mit ner TNT (theoretisch zumindest :) ).

zeckensack
2002-12-07, 22:51:21
Originally posted by El-Diablo
Daran langs glaub ich nicht. Ich mein, nvidia hat auch nichts grossartiges verändert von der Riva128 zur TNT2Ultra. Und die GF war afaik auch nur ne stärker überarbeitete TNT mit TnL Einheit. Sorry, aber das ist und bleibt Quatsch, das wird durch Wiederholung auch nicht wahrer ...

TNT1 und TNT2 sind sehr eng verwandt. Aber Riva128->TNT1/2->Geforce sind stark unterschiedliche Designs.

Exxtreme
2002-12-07, 22:58:07
Originally posted by El-Diablo


Daran langs glaub ich nicht. Ich mein, nvidia hat auch nichts grossartiges verändert von der Riva128 zur TNT2Ultra. Und die GF war afaik auch nur ne stärker überarbeitete TNT mit TnL Einheit.
Den "Feature Mangel" von 3dfx schau ich nicht als schlimm an, man konnte damals ja jedes Spiel genauso problemlos spielen wie mit ner TNT (theoretisch zumindest :) ).
Nee, die Unterschiede Riva128 -> TNT(2) -> GeForce sind relativ gross. Auf jeden Fall grösser als Voodoo1 -> Voodoo2 -> Voodoo3. Klar konnte man mit einer Voodoo3 sehr gut spielen weil die Spiele damals meist an die Voodoos und ihre Fähigkeiten angepasst waren. Aber nVidia ist mit der TNT trotzdem an 3dfx technologisch vorbeigezogen.

Simon Moon
2002-12-08, 02:03:54
Originally posted by Exxtreme

Nee, die Unterschiede Riva128 -> TNT(2) -> GeForce sind relativ gross. Auf jeden Fall grösser als Voodoo1 -> Voodoo2 -> Voodoo3. Klar konnte man mit einer Voodoo3 sehr gut spielen weil die Spiele damals meist an die Voodoos und ihre Fähigkeiten angepasst waren. Aber nVidia ist mit der TNT trotzdem an 3dfx technologisch vorbeigezogen.

Der TNT bot afaik doch nur 32Bit und Anisotropischen Filter, was die Voodoo2/Banshee nicht hatten oder täusch ich mich da so sehr? Naja und 32Bit war damals eh unspielbar und der A-Filter, naja wie der lief weiss ich leider nicht.

Und das die GF ne komplette neu entwicklung ist, glaub ich auch nicht. Deshalb schrieb ich ja "stärker überarbeitet".

Demirug
2002-12-08, 02:19:19
IMO ist das mit dem Neudesign von irgendwelchen Chips sowieso ein Mythos. Was werden die Hersteller machen. Die nehmen ihren aktuellen chip lassen jede mengen Programme darauf laufen und schauen wo es hängt. Dabei stellen sie fest wo etwas für die Performance getan werden muss. Dann überlegt man sich noch was für neue Features ganz nett währen bzw was man von den Entwickler wünschen einbauen kann und fertig ist das erste Design. Das ganze wird nun für den Simulator programmiert und wieder läst man die Programme durchlaufen verhält es sich so wie man es wollte geht man zu nächsten schritt über ansonsten wird überarbeitet.

Viele so grosse Schritte waren gar nicht so gross. Von den DX7 Pixelstages zu den DX8 Pixelshader sieht wie ein grosser Schritt aus? Ist es aber nicht im Chip selbst stellt das nur eine minimale weiterentwicklung da. Vom Fixed T&L zum Vertexshader ein grosser Sprung? Auch nicht. Die Fixed T&L Einheit ist eigentlich auch schon ein VertexShader nur in der Funktionalität es beschrängt und für normalsterbeliche kaum zu programmieren. Das ist nur was für Treiberentwickler die auch mal schnell bei den Chip entwicklern nachfragen können. Der Vertexshader stellt also auch nur eine Weiterentwicklung da. Die Fixed T&L Einheit war wirklich mal eine Neuerung wobei man sich natürlich rückblickend fragen muss warum man damals der Meinung war das der richtige Zeitpunkt dafür gekommen sei.

aths
2002-12-08, 02:39:33
Originally posted by Demirug
Die Fixed T&L Einheit war wirklich mal eine Neuerung wobei man sich natürlich rückblickend fragen muss warum man damals der Meinung war das der richtige Zeitpunkt dafür gekommen sei. Weil man auch Quadros verkaufen wollte, und dafür T&L brauchte, welches dann für die Spiele-Schiene ebenso mitvermarktet wurde. Außerdem rechnete man wohl nicht damit, dass AMDs Athlon Bewegung in den CPU-Markt bringen würde und rechnete wahrscheinlich mit einer weniger schnellen Leistungssteigerung im CPU-Bereich.

aths
2002-12-08, 02:47:50
Zum Topic:

Imo sollte man sich an den Gedanken gewöhnen, dass nVidia nicht ewiger Marktführer sein wird.

Die Schlappe die ATI nV im Moment bereitet, ist doch schon herb: Der Marktführer wurde bloßgestellt. Technisch führt ATI imo seit Radeon8500, und nun haben sie sich auch die Geschwindigkeitskrone geholt, an der es nix zu deuteln gibt. Bei ATI ackern die wie verrückt, um nV Marktanteile wegzunehmen, und haben Schritt für Schritt eine kluge Produktpalette aufgebaut (erinnert sich noch einer an die "fatale Lücke" in ATIs Portfolio? :D) und greifen NV auf allen Fronten an.

nV ist in der Vergangenheit verdammt träge geworden. Man denke an den lächerlichen Refresh mit GeForce2 Ti und 3 Ti, wo sie an den Chips rein gar nichts geändert haben, oder an die nicht gerade revolutionär weiterentwickelte GeForce4. Die könnten innovativer sein, wenn sie wollten, bedienen den Markt aber nur soweit, als wären sie konkurrenzlos.

Wohin ein gründlich verpatzter Produktlaunch führen kann, haben wir bei 3dfx ja gesehen. Die anderen Fehler hin oder her, eine Voodoo5 bevor es GeForce2 GTS zu kaufen gegeben hätte, wäre dem 3dfx-Image wohl zuträglich gewesen, dass sie bis zum Rampage durchgehalten hätten, und nV und 3dfx hätten auf gleicher Augenhöher weiter gemacht.

Ob wir den NV50 noch erleben - ich halte es für möglich, dass dieses Produkt irgendwann angekündigt, aber nie ausgeliefert wird. Die nächse Runde einer monopolartigen Marktdominanz könnte an ATI gehen... wer weiß.

Mehrpack
2002-12-08, 02:49:10
hi,
was noch mit am tod von 3dfx schuld war ist ja der entgange vertrag mit sega wo sie ja schon millionen reingesteckt hatten und sie dann verloren haben.
zwar hat nv auch viel geld in den nv30 gesteckt aber ich denke selbst wenn man vom schlechstens senario ausgehn wird, also langsamer als r300, dann kann man annehmen das durch den namen nv und der position im oem bereich vieles von den entwicklungskosten wieder reingeholt werden kann.
das einzige was nv vielleicht das genick brechen könnte wäre dann noch eine verspätung und so gut wie keine vertriebspatner mehr.
aber nv sollte schon bleiben am markt ansonsten kommen die verbraucher nur vom regen in die traufe.

Mehrpack

Demirug
2002-12-08, 03:22:34
Originally posted by aths
Zum Topic:

Imo sollte man sich an den Gedanken gewöhnen, dass nVidia nicht ewiger Marktführer sein wird.

Dafür ist das geschäft auch zu schnell als das man davon ausgehen dürfte.

Die Schlappe die ATI nV im Moment bereitet, ist doch schon herb: Der Marktführer wurde bloßgestellt. Technisch führt ATI imo seit Radeon8500, und nun haben sie sich auch die Geschwindigkeitskrone geholt, an der es nix zu deuteln gibt. Bei ATI ackern die wie verrückt, um nV Marktanteile wegzunehmen, und haben Schritt für Schritt eine kluge Produktpalette aufgebaut (erinnert sich noch einer an die "fatale Lücke" in ATIs Portfolio? :D) und greifen NV auf allen Fronten an.

Ist die Schlappe wirklich so gross? Nur weil es ATI jetzt endlich mal geschaft hat das alte Top Model des Konkurrenten zu schlagen? Von einer Schlappe kann man reden wenn etwas neues hinter dem bereits im gleichen Markseqment eingeführten Produkt zurück bleibt. Also wenn es der NV30 nicht schaft den R300 zu schlagen dann ist das eine Schlappe.

Eine Technologische Führung ist aber Wertloss wenn man sie nicht in Speed für aktuelle Programme ummünzen kann.

Die neue Produktpalette ist definitive gut aufgestellt leider sind die midrange Produkte derzeit nur auf dem Papier zu haben. wobei die ganze R300 geschichte doch schwer nach befreiungsschlag aussieht.

nV ist in der Vergangenheit verdammt träge geworden. Man denke an den lächerlichen Refresh mit GeForce2 Ti und 3 Ti, wo sie an den Chips rein gar nichts geändert haben, oder an die nicht gerade revolutionär weiterentwickelte GeForce4. Die könnten innovativer sein, wenn sie wollten, bedienen den Markt aber nur soweit, als wären sie konkurrenzlos.

Trägheit ist das Privileg des Marktführers. Jeder andere hätte es in der Situation genauso gemacht. Zuviel Leistungsabstand zur Konkurrenz ist schlecht für den markt.

Wohin ein gründlich verpatzter Produktlaunch führen kann, haben wir bei 3dfx ja gesehen. Die anderen Fehler hin oder her, eine Voodoo5 bevor es GeForce2 GTS zu kaufen gegeben hätte, wäre dem 3dfx-Image wohl zuträglich gewesen, dass sie bis zum Rampage durchgehalten hätten, und nV und 3dfx hätten auf gleicher Augenhöher weiter gemacht.

Image ist nichts nur bares ist wahres. Von einem Image kann man sich nichts kaufen man kann es nur gewinnbringend einsetzen. Man kann einen verpassten Zyklus überleben wenn man die entsprechenden Reserven hat und die hatte 3dfx aufgrund einiger Fehler der Führung eben nicht mehr. Also nur den verpatzten Launch als untergangsgrund zu sehen ist denke ich etwas zu einfach gedacht.

Ob wir den NV50 noch erleben - ich halte es für möglich, dass dieses Produkt irgendwann angekündigt, aber nie ausgeliefert wird. Die nächse Runde einer monopolartigen Marktdominanz könnte an ATI gehen... wer weiß.

möglich ist in einem so schnellen Geschäft wie Grafikkarten grundsätzlich alles. Wobei NVIDIA ja im Moment daran arbeitet sich breiter aufzustellen. Ich warte irgendwie darauf das sie anfangen auch noch Soundchips bauen bzw diese mit in die Grafikkarten einbauen. Mittelfristig bis langfristig sehe ich das sich NVIDIA und ATI in der Speedkrone gegenseitig immer wieder ablösen werden. Das wird wohl aber nicht zu dem von vielen erhofften Preissturz führen denn das spiel das die beiden dann spielen werden kostet unsummen an Forschungsgeld. Ob es dadurch aber auch in den Marktanteilen zu einer 50 50 Verteilung kommt ist schwer zu sagen und wird wohl im wesentliche davon abhängen wer den OEMs das bessere Angebot machen kann.

Crushinator
2002-12-08, 03:28:27
Originally posted by aths
Ob wir den NV50 noch erleben - ich halte es für möglich, dass dieses Produkt irgendwann angekündigt, aber nie ausgeliefert wird. Die nächse Runde einer monopolartigen Marktdominanz könnte an ATI gehen... wer weiß.
Ich bete dafür, daß irgendwann ein paar Firmen beiden (ATI und nVidia) ordentlich in die Suppe spucken, damit der Markt wieder so interessant wird wie er vor 3 Jahren war. Eine Monokultur schadet nur dem Verbraucher.

aths
2002-12-08, 05:13:31
Originally posted by Demirug
Ist die Schlappe wirklich so gross? Nur weil es ATI jetzt endlich mal geschaft hat das alte Top Model des Konkurrenten zu schlagen? Von einer Schlappe kann man reden wenn etwas neues hinter dem bereits im gleichen Markseqment eingeführten Produkt zurück bleibt. Also wenn es der NV30 nicht schaft den R300 zu schlagen dann ist das eine Schlappe.Das wird er schon schaffen. ATI sollte allerdings in kürzerer Zeit nachlegen können, als nV braucht, um 9700 Pro zu schlagen.
Originally posted by Demirug
Eine Technologische Führung ist aber Wertloss wenn man sie nicht in Speed für aktuelle Programme ummünzen kann. Im Moment kann ATI das ja :)
Originally posted by Demirug
Trägheit ist das Privileg des Marktführers. Jeder andere hätte es in der Situation genauso gemacht. Zuviel Leistungsabstand zur Konkurrenz ist schlecht für den markt. Du meinst, schlecht für den Profit?
Originally posted by Demirug
Image ist nichts nur bares ist wahres. Von einem Image kann man sich nichts kaufen man kann es nur gewinnbringend einsetzen. Man kann einen verpassten Zyklus überleben wenn man die entsprechenden Reserven hat und die hatte 3dfx aufgrund einiger Fehler der Führung eben nicht mehr. Also nur den verpatzten Launch als untergangsgrund zu sehen ist denke ich etwas zu einfach gedacht.Der Launch war ja nun sehr gründlich verpatzt, und nicht einfach nur ein paar Monate überzogen. (nV konnte sich Verspätungen später ja leisten, weil es keine passende Konkurrenz gab.) Außerdem "konterte" nV geschickt mit GeForce2 MX, und so mancher Trottel tönte angesichts des 3DMarks, die MX sei schneller als Voodoo5 :-S

Wäre die Voodoo5 vor der GeForce2 erschienen, hätten 3dfx die Leistungskrone, und durch das wiederhergestellte Image als führende Kraft im Markt ("King of the Hill") wäre der Verkauf der VSA-100-Reihe wohl besser gewesen. (Und TMSC hätte noch nicht die für VSA vorgesehen Fertigungs-Straßen anderweitig belegt, so dass nicht der Chip-Mangel aufgetreten ist, der sich ja trotz des dann eher schleppenden Verkaufes der Voodoo5 negativ auswirkte. Preislich hätte 3dfx dann bei größerer Verfügbarkeit wohl auch mehr Spielraum gehabt.)

Zu dieser Zeit waren auch die T&L-Benchmarks noch nicht ganz so weit verbreitet, und 3dfx hätte es schaffen können, das Augenmerk der Käufer mehr auf's FSAA zu richten. (Hätte sich FSAA als "Muss-Feature" durchgesetzt, hätte Voodoo5 dank besserer Subpixelmaske auch locker gegen GTS bestanden. Zumindest wäre der Vergleich fairer gewesen, GTS hätte als Pluspunkt T&L und Voodoo5 mindestens ebensowichtiges brauchbares FSAA bekommen. Vor diesem Hintergrund wären von der Voodoo5 6000 wohlmöglich mehr als eine handvoll produziert worden...)

3dfx hatte bis dahin eine Reihe schwer wiegender Fehler gemacht. Genick brechend war imo die Verspätung von Voodoo5 um fast ein dreiviertel Jahr. Als die ersten GTS-Karten im Laden standen, konnten sie nach wie vor nur Voodoo3 anbieten - und sowas bestraft der Käufer.
Originally posted by Demirug
möglich ist in einem so schnellen Geschäft wie Grafikkarten grundsätzlich alles. Wobei NVIDIA ja im Moment daran arbeitet sich breiter aufzustellen. Ich warte irgendwie darauf das sie anfangen auch noch Soundchips bauen bzw diese mit in die Grafikkarten einbauen.Ich fürchte, genau daran werden sie letztlich scheitern. Den Aktionären was von einem großen IT-Unternehmen auftischen und von den Marktsegmenten und den Möglichkeiten faseln, und früher oder später als unbeweglicher Moloch enden. Was zumindest in der Graka-Branche tödlich sein dürfte.

Damit, dass nV auf absehbare Zeit komplett verschwindet, rechne ich nicht, halte aber einen erheblichen Bedeutungsrückgang im Graka-Markt (inkl. Aufkauf der "Core Assets" durch einen Konkurrenten) für durchaus denkbar.
Originally posted by Demirug
Mittelfristig bis langfristig sehe ich das sich NVIDIA und ATI in der Speedkrone gegenseitig immer wieder ablösen werden. Das wird wohl aber nicht zu dem von vielen erhofften Preissturz führen denn das spiel das die beiden dann spielen werden kostet unsummen an Forschungsgeld. Ob es dadurch aber auch in den Marktanteilen zu einer 50 50 Verteilung kommt ist schwer zu sagen und wird wohl im wesentliche davon abhängen wer den OEMs das bessere Angebot machen kann. Ich fürchte, dass die beiden versuchen könnten eine Art Duopol bilden um gemeinsam dafür zu sorgen, dass kein anderer Mitbewerber in den Markt kommt.

aths
2002-12-08, 05:25:40
Originally posted by crushinator
Ich bete dafür, daß irgendwann ein paar Firmen beiden (ATI und nVidia) ordentlich in die Suppe spucken, damit der Markt wieder so interessant wird wie er vor 3 Jahren war. Eine Monokultur schadet nur dem Verbraucher. Meine Befürchtungen sind, dass es bei solch komplexen Chips nur sehr wenige gibt, die den Kampf überleben. Auf dem CPU-Markt für Desktops gibts praktisch nur zwei Anbieter.

Mäßige DX8-Chips mit mäßigen Treibern scheinen sich noch von Newcomern (was diesen Markt betrifft) entwickeln lassen. Bei DX9-Chips dürfte das schon schwieriger sein. Zumal so eine Entwicklung auch viel Zeit kostet, und nachdem mehrere hundert Millionen Dollar in die Entwicklung geflossen sind, ist DX9 vielleicht schon wieder out...

Demirug
2002-12-08, 05:52:12
Originally posted by aths
Das wird er schon schaffen. ATI sollte allerdings in kürzerer Zeit nachlegen können, als nV braucht, um 9700 Pro zu schlagen.

Sicher wird ATI zurück schlagen. Nur wie heftig dieser Schlag dann wirklich sein wird weiss ja niemand richtig abzuschätzen.

Du meinst, schlecht für den Profit?

Für den auch. Niemand zahlt absolute Mondpreise. Das führt dann aber dazu das unterlegene Konkurrenten mit dem Preis weit nach unten müssen was langfristig dazu führt das diese dann kein geld mehr für die Weiterentwicklung haben und für neueinsteiger der markt uninteresant wird weil keine Gewinne mehr zu erwarten sein. Aus der sicht von NVIDIA fragt an sich natürlich warum sie das nicht gemacht haben. Scheinbar war man der Meinung das es langfristig besser ist sich auch in anderen märkten zu bewegen.

Der Launch war ja nun sehr gründlich verpatzt, und nicht einfach nur ein paar Monate überzogen. (nV konnte sich Verspätungen später ja leisten, weil es keine passende Konkurrenz gab.) Außerdem "konterte" nV geschickt mit GeForce2 MX, und so mancher Trottel tönte angesichts des 3DMarks, die MX sei schneller als Voodoo5 :-S

Wäre die Voodoo5 vor der GeForce2 erschienen, hätten 3dfx die Leistungskrone, und durch das wiederhergestellte Image als führende Kraft im Markt ("King of the Hill") wäre der Verkauf der VSA-100-Reihe wohl besser gewesen. (Und TMSC hätte noch nicht die für VSA vorgesehen Fertigungs-Straßen anderweitig belegt, so dass nicht der Chip-Mangel aufgetreten ist, der sich ja trotz des dann eher schleppenden Verkaufes der Voodoo5 negativ auswirkte. Preislich hätte 3dfx dann bei größerer Verfügbarkeit wohl auch mehr Spielraum gehabt.)

Zu dieser Zeit waren auch die T&L-Benchmarks noch nicht ganz so weit verbreitet, und 3dfx hätte es schaffen können, das Augenmerk der Käufer mehr auf's FSAA zu richten. (Hätte sich FSAA als "Muss-Feature" durchgesetzt, hätte Voodoo5 dank besserer Subpixelmaske auch locker gegen GTS bestanden. Zumindest wäre der Vergleich fairer gewesen, GTS hätte als Pluspunkt T&L und Voodoo5 mindestens ebensowichtiges brauchbares FSAA bekommen. Vor diesem Hintergrund wären von der Voodoo5 6000 wohlmöglich mehr als eine handvoll produziert worden...)

3dfx hatte bis dahin eine Reihe schwer wiegender Fehler gemacht. Genick brechend war imo die Verspätung von Voodoo5 um fast ein dreiviertel Jahr. Als die ersten GTS-Karten im Laden standen, konnten sie nach wie vor nur Voodoo3 anbieten - und sowas bestraft der Käufer.
Ich fürchte, genau daran werden sie letztlich scheitern. Den Aktionären was von einem großen IT-Unternehmen auftischen und von den Marktsegmenten und den Möglichkeiten faseln, und früher oder später als unbeweglicher Moloch enden. Was zumindest in der Graka-Branche tödlich sein dürfte.

Ja der Launch war verpatzt. Aber da man sich bei 3dfx ja sehr auf den erfolgen ausgeruht hat und nicht rechtzeigt massnahmen zur Ausweitung der Produktpalete getroffen hat musste ja sowas passieren.

Damit, dass nV auf absehbare Zeit komplett verschwindet, rechne ich nicht, halte aber einen erheblichen Bedeutungsrückgang im Graka-Markt (inkl. Aufkauf der "Core Assets" durch einen Konkurrenten) für durchaus denkbar.
Ich fürchte, dass die beiden versuchen könnten eine Art Duopol bilden um gemeinsam dafür zu sorgen, dass kein anderer Mitbewerber in den Markt kommt.

In der derzeitigen Marktlage mit nur zwei starken Anbieter halte ich es für unwahrscheinlich das NVIDIA die "Core Assets" verkuafen wird.

Ailuros
2002-12-08, 06:43:57
Also mal kleines OT was VSA-100/3dfx betrifft:

Der Rampage rasterizer war als V2 Nachfolge, geplant. Der letzte raster auf Spectre, hatte den Codenamen R4, was auf vier totale Re-Designs deutet.

Daher kam die V3 Serie eher zum Tag, wobei es nach der 3500, noch Gedanken fuer eine V3 4000@32mb mit 32bit Kapazitaet gedacht wurde, aber die Wiedergabe war zu schwach.

Noch eine weitere Verspaetung des mythischen rampage, brachte dann die engineers zur Idee single-board/multichip SLI auszunutzen, wobei Tarolli die Aufgabe aufnahm den bei rampage M-buffer in VSA-100 einzubauen (T-buffer nach Tarolli.

Die 9-Monatige Verspaetung des VSA-100's lag an vielen Gruenden: veraltete tools, zu wenig manpower, resourcen, der 3rd party Geometry-Prozessor der zu lahmarschig war, ein paar SLI Probleme (siehe erster launch dann wurden V5's zurueckgerufen etc etc). Uebrigens war eine reduzierte single-chip Version der V5 (VSA-200) mit DDR schon fuer OEM's fast fertig.

V4 4500 wurde intern als Looser bezeichnet, und nicht nur wegen des L-Formats des Prototypen. Praktisch nur ein V3 4000 mit T-buffer Faehigkeiten.

Nach V3 hiess es dass der shift vom rampage M-buffer in den VSA T-buffer nur geringe Zeit verbrauchen wuerde. Wie weit es ueberschaetzt wurde zeigte die 9-monatige Verspaetung des VSA.

Es wurde viel zu viel Zeit und resourcen verbrannt was das V5 6k Modell betrifft. Der erste Hint-chip hat so manches Mobo verbrannt, bis man auf den Intel chip wechselte. 600$ war ein einfach viel zu hoher Preis, um langfristig mit der zeitigen GF2 Ultra zu konkurrieren.

Gigapixel wurde aus mehr als nur einem Grund gekauft. Unter anderem brauchte man die etwa 40 erfahrene Engineers und was 3dfx mehr interessiert ist in Maerkten einzusteigen wo bisher kein Konkurrent da war. Dabei war Fearless durch kombinierte 3dfx/GP Technologie fuer den PDA/mobile Markt geplant wo wie es aussah und aussieht dicke Kohle drin steckt.

{Na ich lass lieber die idiotischen Markt-Entscheidungen und flops von der Direktion nach V2 aus; das meisste ist sowieso bekannt. Eine hohe Anzahl von hoch-talentierten Enginners stiegen damals aus und gingen rueber zu NV)...usw usw.

Was ich damit sagen will ist dass 3dfx staendig NV unterschaetzt hat. Welcher NV chip's Takt-frequenz brachte 3dfx regelrecht zur Panik nochmal?

Uebrigens noch eine Kleinigkeit: ich glaube nicht einen Moment dass die T&L Einheit bei fruehen GF's (auch GF2) idle dasassen (nicht unbedingt nur AA...). Natuerlich wird es auch keiner je bestaetigen koennen, aber nach NV20 wurden so langsam (auf einer game to game Basis) in die richtige Richtung re-platziert, damit auch Transformationen freien Platz in den units haben.

Eusti
2002-12-08, 11:06:53
Originally posted by aths
Bei ATI ackern die wie verrückt, um nV Marktanteile wegzunehmen, und haben Schritt für Schritt eine kluge Produktpalette aufgebaut.Für den Endkunden ist Palette sicher gut gestaffelt. Ob man die Palette für ATI aber auch als gut bezeichnen kann, wird sich zeigen müssen. Schliesslich versucht man mit einem 107Mio. Transistorenchip den Mainstreammarkt zu beliefern. Das ganze dürfte bei dem 0,15er Produktionsverfahren ziemlich schnell teuer werden.

Ich denke mal, das ein 60Mio. Transistoren Chip in 0,13er Technologie auf diesem Markt viel viel kostedeckender sein könnte. Dieses wäre etwas in der Richtung GF4Ti-Klasse mit 400MHZ (0,13/Kupfer) und DDR2 Ram.

Die NV31 bzw. NV34 von NVidia deuten eine solche Marschrichtung an. Einer der beiden Chips dürfte über deutlich weniger Transitoren, aber gleiche Leistung wie ein 9500PRO verfügen. Pro Wafer lassen sich dann 3-4 mal so viele Chis herstellen wie vom 9500er (nur die Hälfte an Transistoren / kleinere Strukturbreite / weniger Prozentualer Ausfall auf dem Wafer).

Von ATI hört man aktuell nur was von sehr schnellen Monsterchips, aber nix von wirklichen Mainstrem-Chips (nicht im Sinne von Performance, sondern im Sinne von Performance/Gewinn für ATI).

Richthofen
2002-12-08, 11:47:40
sie haben einfach keine eigenen Mainstreamchips.
Die könnnen auch nicht hexen und haben sich halt auf die High End Teile konzentriert.
Ob das langfristig so glücklich ist wird sich zeigen.
Momentan siehts mir aber eher danach aus, das ATI lieber nicht zu viele 9500 und 9500pros verkauft.
Ich fürchte das die Teile sehr sehr hart an der Grenze der Profitabilität sind.
Insofern wird der RV350 immens wichtig. Die Frage ist nur wann er kommt und wie er sich gegen NVs Mainstream Chips schlägt. Diese werden für Nvidia sehr günstig sein. Insofern ist 0.13 für ATI unerlässlich. Mit der Radeon9500 und Pro können sie da nicht mithalten. Von der Performance vielleicht schon aber die rentieren sich dann nicht mehr. Es macht einfach keinen Sinn 110 Mio Transistormonster in einem Preisbereich zu verkaufen, wo man vorher 60 Mio Transistor Chips oder weniger hatte.
Der Kostenanstieg ist immens vor allem wenn man mittel bis langfristig durch das Fertigungsverfahren gravierende Nachteile hat.

Unregistered
2002-12-08, 11:58:33
Hi

Also ich finde das nVIDIA noch lange nicht am Ende ist.
Nur weil diese jetzt einen Paperlaunch gemacht haben, heist das noch nicht das die Karte bald am Markt ist.
Es kann genauso gut sein das Ende Dezember Massig Testsamples eintruddeln.
Somit werden die Kunden einfach bei der Stange gehalten.
nVIDIA geht sicherlich nicht Pleite dazu haben diese massig Kohle.
Freilich tut es weh wenn ein Produkt nicht rechtzeitig am Markt kommt.
Hat aber ehrlich gesagt NV noch nicht allzuviel zu jucken, da der Mainstream Sektor noch immer nVIDIA gehört.
Um nVIDIA Angst zu machen hätte ATi schon langst die 95xx Serie auf den Markt bringen müssen.

Ati hat für mich einfach die besseren Produkte wie nVIDIA (Meine Meinung) aber die Jungs pennen einfach noch.
Wobei man jetzt aber schon deutlich mehr Anstrengung sieht als damals......

Gruss Labberlippe

Lost Prophet
2002-12-08, 12:44:43
also ihr habt wahrscheinlich alle mehr ahnung als ich...aber

bzgl rentabilität der 95xx usw

das ist doch so das sie die r300 chips nehmen die sie normalerweise in die tonne gehaut hätten, weil zu schwach für 9k7 pro
aber so können sie auch schwächere chips nehmen und je nach schwäche noch bis zur 9500 ohne pro einbauen.
alles darunter ist zwar trotzdem müll, aber daraus ergibt sich doch (im bezug auch alle "4" chips) ein viel besserer ausschuss oder??

ich sage nicht das 110 mill. transistoren im mainstream rentabel sind, aber es wäre sicher nocht verlustreicher die chips wegzuwerfen oder??

cya axel

zeckensack
2002-12-08, 12:54:08
Originally posted by Ailuros
Uebrigens noch eine Kleinigkeit: ich glaube nicht einen Moment dass die T&L Einheit bei fruehen GF's (auch GF2) idle dasassen (nicht unbedingt nur AA...). Natuerlich wird es auch keiner je bestaetigen koennen, aber nach NV20 wurden so langsam (auf einer game to game Basis) in die richtige Richtung re-platziert, damit auch Transformationen freien Platz in den units haben.Entschuldigung, aber was meinst du damit?
Ich habe den Satz irgendwie nicht verstanden. :)

Eusti
2002-12-08, 12:57:03
Originally posted by Purple_Stain
das ist doch so das sie die r300 chips nehmen die sie normalerweise in die tonne gehaut hätten, weil zu schwach für 9k7 pro
aber so können sie auch schwächere chips nehmen und je nach schwäche noch bis zur 9500 ohne pro einbauen.
alles darunter ist zwar trotzdem müll, aber daraus ergibt sich doch (im bezug auch alle "4" chips) ein viel besserer ausschuss oder??

ich sage nicht das 110 mill. transistoren im mainstream rentabel sind, aber es wäre sicher nocht verlustreicher die chips wegzuwerfen oder??Jain. Das recyceln von Chis scheint mir grundsätzlich sinnvoll. Aber für die 9500PRO nehem die gute Chips, auf denen alles funktioniert. Und gerade dieser 9500PRO soll in den Mainsream-Markt vorstossen. Das wird mit 107Mio. Transostoren teuer (ich will nicht sagen unrentabel, aber teuer).

AlfredENeumann
2002-12-08, 13:07:14
Originally posted by Richthofen
sie haben einfach keine eigenen Mainstreamchips.
Die könnnen auch nicht hexen und haben sich halt auf die High End Teile konzentriert.
Ob das langfristig so glücklich ist wird sich zeigen.
Momentan siehts mir aber eher danach aus, das ATI lieber nicht zu viele 9500 und 9500pros verkauft.
Ich fürchte das die Teile sehr sehr hart an der Grenze der Profitabilität sind.
Insofern wird der RV350 immens wichtig. Die Frage ist nur wann er kommt und wie er sich gegen NVs Mainstream Chips schlägt. Diese werden für Nvidia sehr günstig sein. Insofern ist 0.13 für ATI unerlässlich. Mit der Radeon9500 und Pro können sie da nicht mithalten. Von der Performance vielleicht schon aber die rentieren sich dann nicht mehr. Es macht einfach keinen Sinn 110 Mio Transistormonster in einem Preisbereich zu verkaufen, wo man vorher 60 Mio Transistor Chips oder weniger hatte.
Der Kostenanstieg ist immens vor allem wenn man mittel bis langfristig durch das Fertigungsverfahren gravierende Nachteile hat.


Seh es mal von dem Standpunkt aus, das 9700, 9500Pro und 9500 einfach Abfallprodukte des 9700Pro sind. Damit ist die sache äußert Profitabel, da man den Ausschuß verkaufen kann anstatt ihn einzustampfen !!!

Richthofen
2002-12-08, 13:13:14
das ist aber leider nur eine Milchmädchen Rechnung.
Der DIE ist zu gross und die Ausbeute wird nicht toll sein und auch nicht alle Ausschusschips werden brauchbar sein.
Besser wäre es
A) ein High End Design zu haben und dort die Ausbeute versuchen zu verbessern. Sicher wirds da Grenzen geben, aber da man eh nicht so viele HIgh End Karten verkauft, halten sich die Waferorders in Grenzen. Da setzt man einfach den PReis so hoch an, dass die Nachfrage nach den Teilen sich in gesundem Rahmen bewegt für den Hersteller.
B) günstige Mainstream Chips mit abgecpeckten Design.
Kleiner Die, hohe Ausbeute, wenig Kosten.
Wenn man Marktanteile machen will und elend viele Mengen liefern will ist das die bessere Variante aber dafür war bei ATI keine Zeit, weil die Entwickler an anderen Chips/Projekten saßen.
Das sieht man ganz deutlich.

Sicher macht das Verkaufen von Ausschüssen ein bisschen guad und relativiert die Kosten für die HIgh End Chips, wenn ich aber mal von einem richtigen massenhaften Abstz ausgehe, ist Variante B klar die bessere. Allerdings werden weder ATI noch Nvidia in nächster Zeit genügend Manpower haben um für jeden Markt extra Chips zu basteln.
Hin und wieder wirds Kompromisse geben.
Bei Nvidia sieht man es im Mobile Markt mit der GF4 4200 und bei ATI sieht man es klar bei den Radeon9500 und Pro Teilen.

Ailuros
2002-12-08, 13:15:41
Originally posted by zeckensack
Entschuldigung, aber was meinst du damit?
Ich habe den Satz irgendwie nicht verstanden. :)

Wenn ich mich hinsetze und Dir es erklaere, muesste mich jemand erschiessen. Dazu sind PM Boxen da mein Herr. Wart ein paar Minuten es kommt gleich......:D

Lost Prophet
2002-12-08, 13:17:23
natürlich ist variante B besser, ich habe auch nur versucht zu sagen, dass , für die situation in der sie sind diese lösung eigentlihc nicht so schlecht ist

(wie, warum usw sie in diese situation gekommen sind ist HIER jetzt 2.rangig)

ich glaube das sie versuchen werden "Variante B" mit dem RV350 zu machen

cya axel

Com1
2002-12-08, 14:34:18
3dfx mit ATI oder NV zu vergleichen finde ich blödsinnig. Der Weg, den 3dfx eingeschlagen hat ist einzigartig. NV und ATI haben schon immer auf "vollwertige" Grafikkarten und auf dem OEM Markt gesetzt, bei 3dfx wurde immer auf reine Gamer-Karten (anfangs Add-On) gesetzt und zu spät/halbherzig (voodoo rush und banshee waren nicht so toll) auf 2D/3D Karten. Und das die OEM Karten der Voodoo 3 Serie ein flop waren ist ja wohl klar. Wäre zum Zeitpunkt der TNT1 die Voodoo3 rausgekommen und beim GF1 Release die V5 wäre vieles anders gelaufen und 3dfx würde heute vielleicht noch unter uns weilen.

NV und ATI hatten schon immer eine völlig andre Stellung am Markt als 3dfx.

seahawk
2002-12-08, 14:42:25
Originally posted by AlfredENeumann



Seh es mal von dem Standpunkt aus, das 9700, 9500Pro und 9500 einfach Abfallprodukte des 9700Pro sind. Damit ist die sache äußert Profitabel, da man den Ausschuß verkaufen kann anstatt ihn einzustampfen !!!


Dann wäre aber der Yield bei dem 9700 pro sehr schlecht. Ich meine schätzungweise kommen doch 3-4 95XX auf eine 9700pro. Dann würde vielleicht nur 20% der Chips wirklich in Ordnung sein. Es ist eher wahrscheibnlich, dass viele normale 9700pro beschnitten werden .

aths
2002-12-08, 16:11:14
Originally posted by Demirug
Sicher wird ATI zurück schlagen. Nur wie heftig dieser Schlag dann wirklich sein wird weiss ja niemand richtig abzuschätzen.Vermutlich ausreichend, um sich nach der GF FX wieder die Krone zu holen.
Originally posted by Demirug
In der derzeitigen Marktlage mit nur zwei starken Anbieter halte ich es für unwahrscheinlich das NVIDIA die "Core Assets" verkuafen wird. Dann müsste es schon böse kommen, ja.

nagus
2002-12-08, 16:30:33
Originally posted by Exxtreme
Hoffentlich nicht. Ich habe keine Lust NV-Preise dann für ATi zu blech0rn.


für meine ATI Aktien wärs super ;)

AlfredENeumann
2002-12-08, 18:01:17
Originally posted by seahawk



Dann wäre aber der Yield bei dem 9700 pro sehr schlecht. Ich meine schätzungweise kommen doch 3-4 95XX auf eine 9700pro. Dann würde vielleicht nur 20% der Chips wirklich in Ordnung sein. Es ist eher wahrscheibnlich, dass viele normale 9700pro beschnitten werden .

Das der Yield hoch ist wurde von ATI bereits offiziell bestätigt. Wie hoch sagen die natürlich nicht, aber bei ATI bringt momentan der High-Eng Markt genausoviel gewinn wie der Mainstream Markt.

seahawk
2002-12-08, 20:02:45
Originally posted by AlfredENeumann


Das der Yield hoch ist wurde von ATI bereits offiziell bestätigt. Wie hoch sagen die natürlich nicht, aber bei ATI bringt momentan der High-Eng Markt genausoviel gewinn wie der Mainstream Markt.

Genau und deswegen glaube ich auch nicht, dass die Lösung sehr effektiv ist. Wieviele 9700pro werden wohl zu 9XXX werden ?? Obwohl sie in der Herstellung genauso viel kosteten ??

egdusp
2002-12-08, 20:11:49
Originally posted by AlfredENeumann


Das der Yield hoch ist wurde von ATI bereits offiziell bestätigt. Wie hoch sagen die natürlich nicht, aber bei ATI bringt momentan der High-End Markt genausoviel gewinn wie der Mainstream Markt.

Kann schon sein, nur dass der Mainstreamsektor bei ATI im Moment kaum Gewinn bringt.
Der Gewin des Quartals, das am 31.08 geendet hat, betrug 2,5 mio $.
Eine Verdoppelung des Gewinns ist also nicht übermäßig.
Mit den Radeon 8500 scheinen sie ganz gut verdient zu haben, denn im gesamten Jahr (bis zum 31.08) haben sie 50 mio $ verdient, aber die Radeon 8500 sind ja jetzt ausgelaufen.

mfg
egdusp

Tarkin
2002-12-08, 21:39:54
Originally posted by egdusp
aber die Radeon 8500 sind ja jetzt ausgelaufen.


... nicht! :D

http://www.tech-report.com/news_reply.x/4455

wieder da ... als 9100er

der Name ist jedenfalls passender als "8500" (wenns nach Leistung geht)

9000
9000 PRO
9100
9500
9500 PRO
9700
9700 PRO
9900 ;)

Quasar
2002-12-08, 22:05:58
:lol: @ Tarkin:
Das wäre ja ein richtig feines "Upgrade" für den alternden R200....nachträglich noch eine "korrigierte Einstufung", nachdem viele Kunden auf das suggestive "9xxx" der RV250 reingefallen sind.


@Richthofen, edgusp, seahawk etc.:
Fiktives Szenario: ATi hat 50% Yield beim R300.

Alternative1: ATi schmeisst die Hälfte der Chips weg, Nutzen = NULL

Alternative2: ATi schnibbelt funktionsunfähige Einheiten weg oder taktet etwas niedriger und verkauft die so gewonnenen Dies auf Mid-Range Karten zum Selbstkostenpreis (schlimmster Fall). Monetärer Nutzen = Ebenfalls NULL, aber höhere Marktdurchdringung und weniger Martkanteile für die Konkurrenz.


Alternative2 ist IMO klar besser für ATi und deswegen ist's kaum verwunderlich, dass ATi diesen Weg einschlug.

Richthofen
2002-12-08, 23:01:48
"
Mit den Radeon 8500 scheinen sie ganz gut verdient zu haben, denn im gesamten Jahr (bis zum 31.08) haben sie 50 mio $ verdient, aber die Radeon 8500 sind ja jetzt ausgelaufen.
"
Bitte nicht immer diese fiktiven Gewinne zitieren. Die interessieren so viel wie der Wasserstand vom NIL :)
Wenns danach geht haben fast alle Unternehmen satte Gewinne.
Die Realität ist eine andere.

@Quasar
Auch nur weil sie eben keine eigenen Mainstream CHips gemacht haben.
Hätten die das, wären die 50% beim R300 nicht schlimm. Dann würde ich als Unternehmen den Preis so fett ansetzen, das wenig verkauft wird. Die Leute sollen ja den billigeren Schrott kaufen und nicht das PRodukt das mich am meissten kostet.
Insofern ist die Variante für ATI zwar sinnvoll, ändert aber nix drann, das ein eigenes Mainstream Design klar fehlt und auch nicht entwickelt wurde weil einfach nicht die Ressourcen vorhanden waren.
Man kann eben nicht auf allen Hochzeiten tanzen.

Das selbe siehst du auch beim GF4 4200 für Notebooks.

AlfredENeumann
2002-12-09, 00:10:10
Originally posted by Richthofen
Auch nur weil sie eben keine eigenen Mainstream CHips gemacht haben.
Hätten die das, wären die 50% beim R300 nicht schlimm. Dann würde ich als Unternehmen den Preis so fett ansetzen, das wenig verkauft wird. Die Leute sollen ja den billigeren Schrott kaufen und nicht das PRodukt das mich am meissten kostet.
Insofern ist die Variante für ATI zwar sinnvoll, ändert aber nix drann, das ein eigenes Mainstream Design klar fehlt und auch nicht entwickelt wurde weil einfach nicht die Ressourcen vorhanden waren.
Man kann eben nicht auf allen Hochzeiten tanzen.



Wer sagt denn das es nicht von vornhinein von ATI so geplant war, bzw das Desing vom R300 so gewählt wurde das der Ausschuß verwendet werden kann ?

ow
2002-12-09, 09:50:59
Originally posted by AlfredENeumann



Wer sagt denn das es nicht von vornhinein von ATI so geplant war, bzw das Desing vom R300 so gewählt wurde das der Ausschuß verwendet werden kann ?

So etwas laesst sich praktisch nicht planen imo. Wie gut die Ausbeute sieht man erst in der Produktion aber nicht schon vorher.

Und bei hoher Ausbeute ist es schlichtweg unsinnig, einen grossen Teil der Chips abgespeckt als 9500er zu verramschen. Da faehrt man mit eigens produzierten und Transistor-aermeren Chip besser.

Demirug
2002-12-09, 10:39:25
Originally posted by ow


So etwas laesst sich praktisch nicht planen imo. Wie gut die Ausbeute sieht man erst in der Produktion aber nicht schon vorher.

Und bei hoher Ausbeute ist es schlichtweg unsinnig, einen grossen Teil der Chips abgespeckt als 9500er zu verramschen. Da faehrt man mit eigens produzierten und Transistor-aermeren Chip besser.

Man kann es aber durchaus hochrechnen. TSMC hat sicher angaben darüber auf wie viele Dotierungsfehler pro Wafer man im Durchschnitt kommt. Auf jeden Fall muss der Chip aber so vom Design sein das man einzelne Pixelpipelines deaktivieren kann. Deswegen ist davon auszugehen das man das schon von Anfang an so geplannt hat.

Das Problem dabei ist nur das man es viel schwerer hat Angebot und Nachfrage in den Griff zu bekommen weil man ja bei einer Bestellung bei TSMC nicht weis was man am Ende zurückbekommt. Entweder man bekommt zu viele gute Chips die man dann downgraden muss (das tut dem Buchhalter weh) oder man bekommt zuviel von den nicht ganz so guten die man aber dann nicht braucht und auf Lager legen muss (Lagerhaltung mag der Buchhalter auch nicht)

In Summe wäre die Plannung mit 2 Chips sicher leichter als mit nur einem.

Unregistered
2002-12-09, 12:05:32
Originally posted by Demirug

Das Problem dabei ist nur das man es viel schwerer hat Angebot und Nachfrage in den Griff zu bekommen weil man ja bei einer Bestellung bei TSMC nicht weis was man am Ende zurückbekommt.

In Summe wäre die Plannung mit 2 Chips sicher leichter als mit nur einem.


Das ist nicht zu Ende gedacht. Die Nachfrage wird auch über den Preis gesteuert.

Es gibt nur weniger Planungssicherheit.

AlfredENeumann
2002-12-09, 12:55:31
Originally posted by Demirug


Man kann es aber durchaus hochrechnen. TSMC hat sicher angaben darüber auf wie viele Dotierungsfehler pro Wafer man im Durchschnitt kommt. Auf jeden Fall muss der Chip aber so vom Design sein das man einzelne Pixelpipelines deaktivieren kann. Deswegen ist davon auszugehen das man das schon von Anfang an so geplannt hat.

Das Problem dabei ist nur das man es viel schwerer hat Angebot und Nachfrage in den Griff zu bekommen weil man ja bei einer Bestellung bei TSMC nicht weis was man am Ende zurückbekommt. Entweder man bekommt zu viele gute Chips die man dann downgraden muss (das tut dem Buchhalter weh) oder man bekommt zuviel von den nicht ganz so guten die man aber dann nicht braucht und auf Lager legen muss (Lagerhaltung mag der Buchhalter auch nicht)

In Summe wäre die Plannung mit 2 Chips sicher leichter als mit nur einem.


Aber nur auf diese Weise läßt es sich am besten erklären. Wer entwickelt den technisch gleiche Chips 2mal ?

PS: neue Infos zum RV350 und R350:
PCPOP haben ein Interview mit ATi's Kwok Yuen Ho geführt.

Q: How does the ATi one generation of chip development progress, the very many people cares about RV350 and the R350 some specifications and the estimate issue time?

A: Our RV350 will use 0.13 microns technology, but R350 we as before will use 0.15 microns specification produce. RV350 was makes the very big improvement in the R300 foundation, we had to improve performance and function, simultaneously also had to reduce cost (is equal to was re- designs one), moreover RV350 in this year spring Ready, also will start to the time 0.13 craft maturely. Our RV350 sample already bought back, I personally thought RV350 was becomes the DX9.0 application the mainstream the first section product.

R350 is the high performance and the high specification product, but we as before use 0.15 microns specification production, because R350 only is the R300 one improvement product, certainly does not transit like R200 to R300 such is the new generation of product (this explanation certainly is not very definite, according to PCPOP news which obtains from other channels, ATi completed 0.13 and 0.15 both kinds of preparation in R350 this specification!)

seahawk
2002-12-09, 15:25:36
Nur denke ich, dass der Yield bei dem R300 sehr gut sein wird. Ich meine im bewährten 0,15 Prozess sollte der fehlerhafte Anteil eher gering sein. Dann werden allerdings viele 9700pro eignetlich unter Preis als 9500-9700 verkauft. Waren aber in der Herstellung nicht billiger.

So gesehen dürfte der RV350 für ATI momentan der wichtigste Chip sein, da der wahrscheinlich in den zukünftigen 9500 (oder wie immer sie es dann nennen) Karten auftauchen wird.

Der R350 ist wahrscheinlich nur ein leicht verbesserter R300 der dann nur für das Hgh End zur Verfügung steht.

Eusti
2002-12-09, 17:36:25
Originally posted by seahawk
Der R350 ist wahrscheinlich nur ein leicht verbesserter R300 der dann nur für das Hgh End zur Verfügung steht. Ich würde eher auf einen leicht verschlechterten R300 tippen. So in Richtung 2 Vertex-Shader, 6 Pipelins, 400MHZ, 70Mio Transistoren.


[edit] Vergesst den Post. Ich hab R & RV vertausch...

Demirug
2002-12-09, 17:44:56
Originally posted by Eusti
Ich würde eher auf einen leicht verschlechterten R300 tippen. So in Richtung 2 Vertex-Shader, 6 Pipelins, 400MHZ, 70Mio Transistoren.

Das wäre aber eher ein RV350.

An einen grossen Sprung im Bereich der Features glaube ich aber auch nicht. TSMC kalkuliert für 0,15 mit maximal ca 96 Mill Transitoren pro DIE und da ist ATI ja schon gut drüber.

Rampage 2
2002-12-10, 23:03:53
Sagt mal, hat jemand von euch vielleicht 'nen Link mit Informationen
über die VSA-100 Nachfolger Rampage,Fear,Hydra usw. ?

Thx, Rampage 2

Rampage
2002-12-10, 23:21:03
Leider habe ich durch Neuinstalation, Teile meine Daten nur gesichert im Büro, poste morgen mal meine Linksammlung zu 3dfx.

Habe 860MB 3dfx Stuff auf der Platte ;D

Plz Rampage 1 :bäh:

Ailuros
2002-12-10, 23:22:56
Rampage= rasterizer von Spectre (rampage + sage/geometry processor)

Fusion= rasterizer von Fear (fusion kam von der Vereinigung von Hydra + GP4; also fusion + sageII/geometry processor)

Mojo integrierter Geometrie Prozessor im core.

Obwohl ich schon ueber zwei Jahre die IMMERSION 2000 Powerpoint Praesentation von Rampage und specs im Archiv habe, lass ich die lieber nicht nach aussen.

Obwohl dass alles Vaporware und vergessene Geschichte ist, waere dual chip Spectre sehr gute Konkurrenz selbst fuer GF4Ti gewesen, aber dafuer mit einem sehr pfiffigen Preis.

Rampage 2
2002-12-10, 23:23:07
Originally posted by Rampage
Leider habe ich durch Neuinstalation, Teile meine Daten nur gesichert im Büro, poste morgen mal meine Linksammlung zu 3dfx.

Habe 860MB 3dfx Stuff auf der Platte ;D

Plz Rampage 1 :bäh:

Dann aber bitte ins Grafikchip-Forum?

Rampage 2
2002-12-10, 23:26:38
Originally posted by Ailuros
Rampage= rasterizer von Spectre (rampage + sage/geometry processor)

Fusion= rasterizer von Fear (fusion kam von der Vereinigung von Hydra + GP4; also fusion + sageII/geometry processor)

Mojo integrierter Geometrie Prozessor im core.

Obwohl ich schon ueber zwei Jahre die IMMERSION 2000 Powerpoint Praesentation von Rampage und specs im Archiv habe, lass ich die lieber nicht nach aussen.

Obwohl dass alles Vaporware und vergessene Geschichte ist, waere dual chip Spectre sehr gute Konkurrenz selbst fuer GF4Ti gewesen, aber dafuer mit einem sehr pfiffigen Preis.

Danke, aber hast du auch Informationen über die Rohleistung
der 3dfx-Chips?

Ailuros
2002-12-10, 23:33:45
High end Spectre (2 rampage + 1 sage):

4 textures = essentially "free" 2xRGMS

Dabei hatte die Karte eine enorme fuer die Zeit Bandbreite von 12.8GB/sec (6.4GB/sec x 2 chips).

edit:

AA With 2 textures and Anisotropic * with no performance hit.
AA With 4 textures with no performance hit

Um genauer zu sein.

* 32-tap adaptive anisotropic filtering

Rampage
2002-12-10, 23:35:02
Originally posted by Rampage 2


Dann aber bitte ins Grafikchip-Forum?

Ich mach dann mal (wenn es soweit ist) ein Thread im Speku-Forum, zur geschätzen Leistung des Rampage (2) =)

Ailuros
2002-12-10, 23:47:11
Na viel Glueck dann; obwohl das SLI Konzept in Spectre ein bisschen weiter war als bei VSA-100, blieb dass groesste Problem dass triangle setup betraf, im Prinzip gleich.

Rampage
2002-12-10, 23:54:28
Originally posted by Ailuros
Na viel Glueck dann; obwohl das SLI Konzept in Spectre ein bisschen weiter war als bei VSA-100, blieb dass groesste Problem dass triangle setup betraf, im Prinzip gleich.

Ein Mann (Frau??) der sich auskennt, ich hoffe doch du besuchst den Thread auch einmal :)

Rampage
2002-12-11, 00:00:58
So, ich habe jetzt einen Thread eröffnet: hier lang bitte... (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=44106) (Damit wir nicht zu weit vom eigentlichem Thema des Threads abkommen :) )

aths
2002-12-11, 01:25:49
Originally posted by Eusti
6 PipelinsIch denke nicht, dass es 6 Pipelines werden. Entweder 8 oder 4.

Eusti
2002-12-11, 07:37:10
Originally posted by aths
Ich denke nicht, dass es 6 Pipelines werden. Entweder 8 oder 4. Ich auch nicht. Obwohl ich glaube, das die optimal wären.

Liszca
2002-12-11, 23:31:32
Originally posted by Exxtreme
Ack @ Eusti

Hinzu kommt noch, daß 3dfx im Prinzip über die Jahre die gleiche Technik verkauft hat. Zwar gab es immer einen SpeedUp von Generation zu Generation, aber featuremässig tat sich nicht viel. Hier ein Postfilter, hier mal eine Textureinheit aber Grosses war nicht drin. Das änderte sich zwar mit der V5 aber da war es schon zu spät.

ich fande das marketing von 3dfx nicht schlecht, oder meinst du etwa mit ner v3 haette man vernuenftig in 32 bit zocken koennen ??? genauso mit der texturgroessenbeschreankung von glaube ich 256 x 256 pixel, habe ich nie als stoerend empfunden! 3dfx wahr einfach fuer effiziente, extrem compatible hardware gestanden, und nicht fuer lauter fierlefanz wie T&L der jetzt langsam brauchbar wird!

Unregistered
2002-12-11, 23:34:29
Aber irgendwer muß der Wegbereiter der Zukunft sein, denn wenn weder Hard- noch Softwarehersteller den ersten Schritt wagen würden, säßen wir heute immer noch vor 'nem PC mit Voodoo 2 Grafikqualität.

Ailuros
2002-12-12, 06:28:05
Der wahre Grund warum 3dfx bis zu VSA-100 keine Geometrie-Einheiten auf ihren Karten hatte ist das von Anfang auf programmierbares T&L gesetzt wurde (sehe Rampage und dessen massive Verspaetung), und natuerlich dass die fuer V5 (von einer anderen Firma) entwickelte T&L unit zu langsam war und nur den Preis unnoetig erhoeht haette.

Rampage konnte von selber aus ein paar Transformationen ausfuehren, wobei eine T&L Einheit fuer 2000 fuer das budget Spectre Modell nicht noetig war; was hingegen VSA-100 nicht konnte.

Wenn ein chip eine gewisse Anzahl von Bandbreite hat, ist eine T&L Einheit selbst bei non-T&L Applikationen nicht nutzlos. Alles was Geometrie betrifft kann Fuellrate umso einiges weiterhelfen.

edit:

3dfx wahr einfach fuer effiziente, extrem compatible hardware gestanden, und nicht fuer lauter fierlefanz wie T&L der jetzt langsam brauchbar wird!

Laut Marketing und PR Abteilung schon. Laut engineers und Entwicklungs/Forschungs- Teams bei 3dfx leider nicht.

Ailuros
2002-12-12, 06:35:24
Hier ein Postfilter, hier mal eine Textureinheit aber Grosses war nicht drin.

Zum Thema Postfilter, sollten Verbraucher in der Zukunft zufrieden sein, wenn es in Karten drinsteckt. Eine so schlechte Idee hingegen zum Bandbreiten-fressenden FP32/128bit internal und zum qualitativ niedrigeren FP16/64bit internal waere es wohl auch nicht.

Nur zwei bits weniger als von R300's 96/24bit hmmm? :D

zeckensack
2002-12-12, 09:49:44
Originally posted by Ailuros


Zum Thema Postfilter, sollten Verbraucher in der Zukunft zufrieden sein, wenn es in Karten drinsteckt. Eine so schlechte Idee hingegen zum Bandbreiten-fressenden FP32/128bit internal und zum qualitativ niedrigeren FP16/64bit internal waere es wohl auch nicht.

Nur zwei bits weniger als von R300's 96/24bit hmmm? :D Nö, 74 Bit weniger ;)

Exxtreme
2002-12-12, 10:10:45
Originally posted by Ailuros


Zum Thema Postfilter, sollten Verbraucher in der Zukunft zufrieden sein, wenn es in Karten drinsteckt. Eine so schlechte Idee hingegen zum Bandbreiten-fressenden FP32/128bit internal und zum qualitativ niedrigeren FP16/64bit internal waere es wohl auch nicht.

Nur zwei bits weniger als von R300's 96/24bit hmmm? :D
Ich habe nicht gesagt, daß ein Postfilter was Schlechtes ist. Mir ging es nur um die "Innovationen" einer Voodoo3. Der Postfilter war damals wohl die bessere Lösung als reines 32-Bit-Rendering.

Exxtreme
2002-12-12, 10:17:26
Originally posted by Liszca


ich fande das marketing von 3dfx nicht schlecht, oder meinst du etwa mit ner v3 haette man vernuenftig in 32 bit zocken koennen ??? genauso mit der texturgroessenbeschreankung von glaube ich 256 x 256 pixel, habe ich nie als stoerend empfunden! 3dfx wahr einfach fuer effiziente, extrem compatible hardware gestanden, und nicht fuer lauter fierlefanz wie T&L der jetzt langsam brauchbar wird!
Die 16-Bit-Postfilter-Combo war damals sicherlich praxistauglicher als 32-Bit-Rendering. Die Texturbeschränkung war aber nicht so dolle. Unreal1 hatte AFAIK damals schon 512x512 Texturen zu bieten, die man mit einer Voodoo nicht mehr sehen konnte. Und auch warf die Voodoo3 die Entwicklung wohl ein wenig zurück da die Spieleentwickler die Voodoos mitberücksichtigen mussten. Und 3dfx-Treiber allgemein sollen auch nicht so gut gewesen sein. Die Entwickler haben die Macken wohl im Spiele-Code ausgeglichen sodaß kein Nachteil entstand.

ow
2002-12-12, 12:29:45
Originally posted by Exxtreme

Der Postfilter war damals wohl die bessere Lösung als reines 32-Bit-Rendering.


Noe;)
Womit wir wieder bei der Diskussion waere, dass Bildqualitaet und Geschwindigkeit immer gegeneinander austauschbar sind.:D

Pussycat(w/ logintroubles)
2002-12-12, 13:51:46
Originally posted by Unregistered

Es kann genauso gut sein das Ende Dezember Massig Testsamples eintruddeln.

Gruss Labberlippe

Wenn NV sagt, dass sie in januar/februar erhältlich sind, wird dass ohne Zweifel eine optimistische Einschätzung sein.

Ende Dezember erscheint mir da komplett unmöglich.

Xmas
2002-12-12, 13:54:02
Originally posted by Pussycat(w/ logintroubles)
Wenn NV sagt, dass sie in januar/februar erhältlich sind, wird dass ohne Zweifel eine optimistische Einschätzung sein.

Ende Dezember erscheint mir da komplett unmöglich.
Testsamples sind aber schon für Dezember angekündigt, ebenso eine öffentliche Vorführung.

Unregistered
2002-12-12, 13:58:23
Auch 'massig'?

Xmas
2002-12-12, 13:59:05
Originally posted by Unregistered
Auch 'massig'?
Sicher nicht für jeden der eine will ;)

Ailuros
2002-12-12, 17:22:35
Originally posted by zeckensack
Nö, 74 Bit weniger ;)

Wieso?

Obwohl ich eigentlich final output meinte (24 - 22 = 2bit), wo kommen die 74bit von 96bit internal/24bits her? Entwerde mach ich was falsch hier, aber so wie ich dass sehe (selbst wenn man fuer alpha nur 16bit nimmt) sind es mindestens 82bits intern, wobei 14bits fehlen.

Xmas
2002-12-12, 19:20:39
Originally posted by Ailuros


Wieso?

Obwohl ich eigentlich final output meinte (24 - 22 = 2bit), wo kommen die 74bit von 96bit internal/24bits her? Entwerde mach ich was falsch hier, aber so wie ich dass sehe (selbst wenn man fuer alpha nur 16bit nimmt) sind es mindestens 82bits intern, wobei 14bits fehlen.
96 Bit sind 74 Bit mehr als 22 Bit...

zeckensack
2002-12-13, 04:41:28
Jau. Wenn ich mich recht entsinne, sind die 22bit die 'virtuelle' Auflösung des vollen RGB-Signals nach dem Postfilter.

Die internen 24bit der Radeon9k7 sind aber pro Farbkanal. Noch dazu ist diese Auflösung echt, und nochmal obendrauf sind das Floats ;)

Ailuros
2002-12-13, 06:41:17
Originally posted by Xmas

96 Bit sind 74 Bit mehr als 22 Bit...

96bit intern und ich bestehe darauf. Ob es nun "virtuell" ist oder nicht wie zeckensack sagte (muss nochmal durchwuehlen wie die damals zum Postfilter kamen) sind es auf keinem Fall 74bit mehr. 16bit output ist gleich 64bit mit FP16. Da drauf ein Postfilter Trick und nicht von 16 auf 22bit wie damals.

Ailuros
2002-12-13, 07:03:39
Congrats! You've written the best article yet. Your article was speculative, but your methods were very good, and your analysis was very thorough. That is, you were objective, not religious, like others.

We claim we display 22 bit color because we can display 787 RGB color on the DAC . This is a best case, but is nonetheless 22 bits. If you display your ramps, which I strongly encourage you to do, on a Voodoo3, you will see what I mean.

As people are now starting to enable the high quality video output of the Voodoo3, they are seeing that the output is actually BETTER than a TNT! Who would have thought?

The only problem is that most people don't enable the higher quality, and it also appears we may have some buggy drivers out there that don't enable it. It may take us a few weeks to straighten this out.

Gary Tarolli
CTO of 3dfx

Hier der ganze Artikel:

http://www.beyond3d.com/articles/3dfx22bit/index4_1.php

Und der followup:

http://www.beyond3d.com/articles/3dfx22bit/index5_1.php

zeckensack
2002-12-13, 08:33:55
Ailuros, du hast aus der perspektive Recht, aber das läuft darauf hinaus die Ausgabequalität bei 16bittigem Framebuffer zu diskutieren. IMO bringt das nicht mehr viel :bäh:

Höhere FB-Auflösung hat große Vorteile bei Blendingeffekten. Auch wenn das 'Upsampling' auf 22bit clever auf das Ditheringmuster angepaßt wird, den Qualitätsgewinn durch höhere interne Präzision vor dem RAMDAC kann das nicht wettmachen.

*von 10bit Luminanz/6bit Chrominanz/8bit Sättigung träum*

Ailuros
2002-12-13, 13:59:09
Originally posted by zeckensack
Ailuros, du hast aus der perspektive Recht, aber das läuft darauf hinaus die Ausgabequalität bei 16bittigem Framebuffer zu diskutieren. IMO bringt das nicht mehr viel :bäh:

Höhere FB-Auflösung hat große Vorteile bei Blendingeffekten. Auch wenn das 'Upsampling' auf 22bit clever auf das Ditheringmuster angepaßt wird, den Qualitätsgewinn durch höhere interne Präzision vor dem RAMDAC kann das nicht wettmachen.

*von 10bit Luminanz/6bit Chrominanz/8bit Sättigung träum*

Das ist mir auch klar, aber "workarounds" wird's immer geben. Dabei muss nicht unbedingt post-gefiltert werden. Es ist kein Zufall dass 16bit Qualitaet bei den letzteren NV-Produkten umso einiges hoeher ist als bei vorigen "Generationen". Dabei sieht es aber genauso schlecht bei derartigen techdemos aus:

Beispiel (http://www.pvrdev.com/fE/DX8/D3DITC_EXE.zip)

aths
2002-12-13, 14:08:56
Imo wäre es langsam mal Zeit, den 32-Bit-Framebuffer durch Dithering und optionalen Postfilter aufzupeppen.

betasilie
2002-12-14, 01:02:14
Dass NV jetzt Druck hat, haben Sie sich selber zuzuschreiben. NV wird sicher erst die Marktführerschaft abgeben, wenn ATI noch ein paar Generationen die Performancekrone innehält. Ob das so bleibt, bezweifel ich, obwohl imho der R350 auch noch den GFFX schlagen wird.

Der Untergang von Nvidia ist doch eher unwahrscheinlich, da das Mangement von NV ziemlich professionell ist. Diese Seite von NV hat uns konsumenten, aber schon oft Innovationen gekostet, wie aths schon schrieb. nV ist in der Vergangenheit verdammt träge geworden. Man denke an den lächerlichen Refresh mit GeForce2 Ti und 3 Ti, wo sie an den Chips rein gar nichts geändert haben, oder an die nicht gerade revolutionär weiterentwickelte GeForce4. Die könnten innovativer sein, wenn sie wollten, bedienen den Markt aber nur soweit, als wären sie konkurrenzlos.

Von daher hoffe ich, dass sich ATI und NV den Markt lange fiftyfifty teilen, denn was besseres kann uns ja nicht passieren.

imo werden wir mindestens die nächsten 18 Monate ziemlich verwöhnt ... ob bzgl. des Preises oder der Innovation. ;D

Ailuros
2002-12-14, 02:41:40
betareverse,

Da stimme ich Dir vollkommen zu.

aths
2002-12-14, 14:51:40
Und ich habe natürlich meine Graka vor dem "großen Knall" kaufen müssen :naughty:

betasilie
2002-12-14, 15:27:19
Du armer! *tätschel*

Ich muss wahrscheinlich hingegen noch bis 2003 auf meine neue Karte warten. :( ;)

Ailuros
2002-12-14, 16:42:52
Originally posted by aths
Und ich habe natürlich meine Graka vor dem "großen Knall" kaufen müssen :naughty:

Obwohl fuer den normalen Verbraucher nicht verfuegbar, hier ist eine Loesung die Dir passen wuerde:

http://www.xbitlabs.com/news/story.html?id=1039827977

with 2-to-24-sample full-scene antialiasing at screen resolutions up to 2048x1536 and fill rates up to 9.6Gpix/s

Na??

;D

Pussycat
2002-12-14, 20:14:45
Kann man den gar nicht kaufen als normaler Mansch? Wenn ich jetzt hingewhe und sage: 'hier, 20.000€, jetzt gib her' würden die dann wirklich 'nein danke' sagen?

Ailuros
2002-12-15, 05:58:59
Ich bin mir wirklich nicht sicher, aber soweit ich mich erinnern kann werden solche System nicht an Einzel-Verbraucher verkauft. Zumindest war es so bei Quantum3D.

Mal abgesehen davon, ein solches System waere sowieso nutzlos, da es mit hoechster Wahrscheinlichkeit fuer professionelle Simulationen optimiert (und nicht fuer Home-PC-Anwendungen) ist.

Ich hab einen kleinen 4PS Generator stehen, falls es anders sein sollte :D