PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nv 35 spezifikationen, irgendwem bekannt?


Unregistered
2003-01-01, 19:13:41
so, was hast der nv 35 (und auch nv31 und 34) fuer merkmale?
haben die chips ein 256bit-speicherinterface (8-fach, oder 4-fach unterteilt)

hoeherer takt und wenn dann wie hoch?

besseres aa und af?


was vermag die neue (also ganz neue :) chipgeneration von nv so leisten, oder was hat die erstmal fuer merkmale?

p.s.: schon mgl. das es schon wo steht und ich hirnie das nicht gefunden hab, dafuer (sollte es so sein) sorry!

Pussycat
2003-01-01, 19:57:03
Das weiss keiner. Ausser die, die es nicht loslassen.

mapel110
2003-01-01, 21:46:25
Originally posted by Unregistered
so, was hast der nv 35 (und auch nv31 und 34) fuer merkmale?
haben die chips ein 256bit-speicherinterface (8-fach, oder 4-fach unterteilt)

hoeherer takt und wenn dann wie hoch?

besseres aa und af?


was vermag die neue (also ganz neue :) chipgeneration von nv so leisten, oder was hat die erstmal fuer merkmale?

p.s.: schon mgl. das es schon wo steht und ich hirnie das nicht gefunden hab, dafuer (sollte es so sein) sorry!

wird höchstwahrscheinlich einfach "nur" ein leistungsfähigerer dx9 chip, nicht mehr und nicht weniger.
ähnlich der geforce4 gegenüber der geforce3.
mehr kann man nicht sagen.

robbitop
2003-01-02, 11:24:04
es gibt verschiedene Theorieen. Wie der NAme schon sagt, basiert der Chip eindeutig auf der NV3x Architektur. Damit denke ich, ist die Pipelineanzahl klar.
Besseres AA, möglich, glaube ich aba aus Marketinggründen/Aufwand nicht (momentan ist marketingtechnisch NV vorn mit 8x AA (is natürlich Quark, da dieser Mode viel Leistung braucht und von der Quallität nicht mit ATi RGMSAA 6x Mithält)). Ich wünschte mir hier 6-8AA Samples Pro TMU und echtes 6-8x RGMSAA 8zumindist 4xRGMSAA).
Was die TMU-anzahl angeht, würde ich sagen, gleichbleibend. Die GF FX ist eine 8x2bi TMU Architektur doch dies ist soweit ich weiss nicht so einfach wie es klingt (Demirug hat das öfter schonmal erklärt).
Und eine 8x2tri TMU Architektur ist aus Effizienzgründen (auch hier Demirug) nich empfehlenswert.
Da das Speicherinterface des Chips von den Caches entkoppelt ist, wäre ein 256bit Interface möglich...laut aktuellen Theorien, scheint aber eine effektive 8*1TMU Architektur dieses (beide Takte gleich) nicht auszureizen....

Ich denke der Chip wird eine aufgebohrte Architektur haben müssen, da er scheinbar gegen den R400 antreten wird (der an sich wohl ne aufbrebohrte R3xx ist , denn ich halte ein so starkes redesign für nicht wirklich mach bar (aus kosten/nutzen gründen). Ob er 256bit Speicherinterface bekommt, hängt von der GDDR2 Situation ab.

Wenn es bis ende des Jahres hoch genug Taktbaren Speicher gibt um die 600-700Mhz des NV35 wieder auszulasten (hjier 700-800 physikalische Mhz für DDR2) dann spekuliere ich auf ein 128bit Interface...256bit wäre auch hier wieder in punkto KostenNutzen nicht von NV zu wählen.
Es sei denn die Aufbohrung bringft dem Chip extrem mehr effektive Füllrate, als es derzeit der Fall ist. (NV hat sicher nicht ohne Grund 128bit gewählt).

Vieleicht bekommt erst der NV4x im 0,09µ Prozess ein 256bitiiges DDR Interface und 16 tri TMUs...

Ich denke aber NV wird den NV35 so bringen, dass es passt von der Performance her (dem Spielraum gemäss). Denn der R350 wird imho nicht den Vortschritt NV30-> NV35 haben. Er scheint eine Ultra des R300 zu werden. Ich denke es wird NV30vs R350 und R400vNV35 in etwa gleichstand sein...so wird man das wohl hinbiegen wollen.

Ich denke der NV40 wird wiedereinmal eine fast Neuentwicklung sein und den nächsten Fertigungsprozess als Grundvorraussetzung nehmen. (es ist einfach der Stil von NV..grosse Zahlen aber nicht unbedingt die höchste Leistung)..aber der NV40 liegt imho in weiter Ferne. 2 Jahre bis die Karten erhältlich sind.
Denn pro Jahr 1 Chip, der 100% schneller ist als der Vorgänger mit nicht radikalen änderungen ständig, erlauben zahlreiche optimierungen, aufstellungen grosser Produktpalletten, gute PR und abgrasung des Marktes.
ein 6 Monatiger Zyklus ist niemandem zu raten. Jedes Jahr einen völlig neuen chip und pro halbes Jahr ein Refresh zu diesem.
Wo soll da jmd noch was verdienen und wer kauft das alles und wo bleiben Bugfixing usw. Chips ziehen sich dank hoher Komplexität und Taktoptimierungen meist Monate nach dem Designfinish hin. In Labors werden Prototyen entbuggt und die Takte hochgetrieben, die Yields verbessert und die Treiber hergestellt. Was gut werden soll, braucht Zeit und nur so kommen wir zu reifen Produkten. Ein Rush Comeingout ist niemandem zu raten.
Da aber jede GrosseChipschmiede 2 MainDesignteams hat, ist das zum Glück alles nicht so schlimm. Der NV4x ist seit Ferigstellung des NV25 in entwicklung und das war Mitte-Herbst 2001. (der lag ziemlich lang auf halde afaik)

Ailuros
2003-01-02, 12:07:39
Die GF FX ist eine 8x2bi TMU Architektur doch dies ist soweit ich weiss nicht so einfach wie es klingt (Demirug hat das öfter schonmal erklärt).

Ich weiss genau was Demirug damit meinte, aber fuer mich bleibt es nach wie wor eine 8x1 Architektur.

8 pipelines/ 1 texture per clock = 8 textures per clock

Mit dem PR Quatsch bei der NV30 Vorstellung hat kein einziger NV Offizielle eine klare Antwort gegeben was die Anzahl der TMU's pro pipe betrifft. Die reden mir zuviel um den Brei herum; waere es anders wuerde die Antwort klipp und klar sein dass der chip X Anzahl von TMU's pro pipe hat.

Ich denke es wird NV30vs R350 und R400vNV35 in etwa gleichstand sein...so wird man das wohl hinbiegen wollen.

Auwei...dass ist aber einen auesserst gewagte Spekulation hier. Ausser den von NVIDIA selber veroeffentlichten Performance-Zahlen (auf einem 3.0GHz P4 uebrigens), ist es derzeit noch nichtmal klar wie eine 5800Ultra abschneiden wird.

Nur weil es NV ist heisst es bei weitem nicht dass es um alles in der Welt umsoviel schneller sein muss.

Dabei hat R300 einen viel zu grossen Abstand von der NV25, dass nicht viel Hoffnung uebrigbleibt, dass NV30 (selbst die Ultra) regelrecht die R300 in den Boden stampfen wird.

Mal angenommen 5800Ultra = 9700PRO +20%. Dabei moechte ich aber gerne zuerst wissen wieviel die PRO im Februar kosten wird. Die einfache 9700 (non-PRO) kostet jetzt schon nur 250$ online in den Staaten.

Und da ist der wahre Krieg zwischen den zwei grossen IHV's: das Preis/Performance Niveau jedes Produkts. Und dass sollte meiner Meinung nach auch den Verbraucher mehr interessieren. Ausser man ist ein fanatischer X Fan und muss um jeden Preis nur X Karten kaufen.

Letzenendes ist derzeitig NV nervoeser als ATI.

Unregistered
2003-01-02, 12:46:54
"
Mal angenommen 5800Ultra = 9700PRO +20%. Dabei moechte ich aber gerne zuerst wissen wieviel die PRO im Februar kosten wird. Die einfache 9700 (non-PRO) kostet jetzt schon nur 250$ online in den Staaten.
"
Mal abgesehen davon, dass der Hardcore Gamer Markt sich eigentlich 0 dafür interessiert um wieviel ein Produkt das andere in den Boden stampft, denn schneller ist schneller und auch 20% schneller werden dazu führen das der Hardcore Gamer eben das 20%ige schneller kauft.
Dort spielt Geld eine untergeordnete Rolle. Man möchte das schnellste aufm Markt haben. Große Loyalität zum Hersteller ist auch nicht vorhanden, weil die Leute eben nur interessiert was das schnellste ist.
So gesehen wären 20 bis 30% mehr als enough um einen deutlichen Aufpreis zu rechtfertigen.
Intels P4 3 GHZ ist auch nicht wirklich schneller als ein 2700+ aber rechtfertigt einen mehr als doppelt so hohen Preis.
Die Gesetze des Marktes ändern sich in diesem Punkt nicht von heute auf morgen.

Kommen wir aber mal zum wichtigeren Punkt. Du gehst davon aus das 250$ eine Radeon9700 dann kosten wird. Es spielt eigentlich auch gar keine Rolle ob du damit mit ein paar Dollar daneben liegst.
Bei dem Preis wird ATI draufzahlen, nicht zu vergessen dass auch alle anderen Produkte mehr oder minder von einem Preisrutsch der schnelleren Modelle betroffen sind.
Keine der beiden Firmen hat ein Interesse daran, im Hardcore Segment nen übertriebenen Preiskampf abzuziehen.
Marktanteile gewinnt man dort sowieso kaum und das Geld macht man im unteren Segment und dort sollte dann schon bei den gegebenen Preisen was übrig bleiben. Ein Preisverfall ganz oben hat unweigerlich zur Folge, dass die Margen in der Mitte und ganz unten im Eimer sind.
Also Vorsicht mit Aussagen wie
"Nur wenn die FX so und soviel % schneller ist wird sie sich verkaufen"
Die Vergangenheit hat gezeigt, und der CPU Markt zeigt dies täglich, dass in diesem Bereich sich niemand dafür interessiert um wieviel etwas schneller ist. P/L spielt hier keine Rolle.

seahawk
2003-01-02, 13:05:06
Außerdem ist 250 $ für ne non Pro nicht so der Hammer. Mit Steuer und so kommt das in Deutschland auf 280-300 €. Für ne OEM Version.

Pussycat
2003-01-02, 14:30:06
Alles gut und schön Richthoven, aber laut ATI verdienen die sehr wohl Geld im High-end segment.

Und dass P/L im CPU-markt keine rolle spielt glaubst du ja selber nicht.

BTW der vergleich zwischen 2700+ u. P4 3GHz ist gar nicht gut, da es nicht nur unterschiedliche geschwindigkeiten sind. Und dass leute für NV einen aufpreis bezahlen wollen ist auch nur ein Wunschtraum von dir.

Ailuros
2003-01-02, 16:04:57
Mal abgesehen davon, dass der Hardcore Gamer Markt sich eigentlich 0 dafür interessiert um wieviel ein Produkt das andere in den Boden stampft, denn schneller ist schneller und auch 20% schneller werden dazu führen das der Hardcore Gamer eben das 20%ige schneller kauft.

Wobei der vorerwaehnte Hardcore-Gamer knappe 2% des Markts repraesentiert und wenn ich noch extra grosszuegig bin, 5% im besten Fall. Wo genau liegt dass grosse Verkaufsvolumen der auch die groessten Einkommen bzw. Gewinne einschlaegt?

Dort spielt Geld eine untergeordnete Rolle. Man möchte das schnellste aufm Markt haben. Große Loyalität zum Hersteller ist auch nicht vorhanden, weil die Leute eben nur interessiert was das schnellste ist.

Siehe oben. Wobei aber trotz allem mindshare eine Rolle spielt. Nur wenige kaufen zugenommen Ultra high end Karten, aber wer die Performance-Krone haelt das ist dann auch fuer den Budget Kaeufer wichtig oder beinflussend. Wobei aber nirgends bis jetzt garantiert ist dass 5800Ultra in allen Anwendungen die 9700PRO mit 20% schlaegt. Dafuer muessen wir wohl noch abwarten bis unabhaengige Tests durchgefuehrt werden. Meine 20% waren nur eine Annahme und half nur um ein theoretisches Beispiel zu illustrieren. Nichtmal der finale Preis ist bekannt.

Du gehst davon aus das 250$ eine Radeon9700 dann kosten wird. Es spielt eigentlich auch gar keine Rolle ob du damit mit ein paar Dollar daneben liegst.

Vor ein paar Tagen waren es noch 250$. Heute sieht es eher so aus:

http://www.pricewatch.com/1/37/4884-1.htm

Gehen wir dann bitte vom 230$ Standpunkt im Januar aus. Februar oder spaeter ist ein ganz anderes Kapital.

Bei dem Preis wird ATI draufzahlen, nicht zu vergessen dass auch alle anderen Produkte mehr oder minder von einem Preisrutsch der schnelleren Modelle betroffen sind.

Obwohl ich bezweifle dass Du jeniges erstmal beweisen oder auch dokumentieren kannst, wieso sieht es dann bei NVIDIA anders aus wenn die Konkurrenzfaehig verbleiben moechten? Schon mal gehoert was der ganze .13um Wirrwarr die gekostet hat, oder wie teuer 400 und 500MHz DDRII ist? Langfristig wird es sich fuer NV schon herauszahlen, aber das wird wohl auch nicht anders fuer ATI sein, sollten sie ohne Gewinn momentan verkaufen. Dabei sehen ihre finanziellen Zahlen mehr als nur positiv aus in letzter Zeit, wenn man bedenkt dass sie bisher nur fast rote Zahlen hatten.

Keine der beiden Firmen hat ein Interesse daran, im Hardcore Segment nen übertriebenen Preiskampf abzuziehen.
Marktanteile gewinnt man dort sowieso kaum und das Geld macht man im unteren Segment und dort sollte dann schon bei den gegebenen Preisen was übrig bleiben. Ein Preisverfall ganz oben hat unweigerlich zur Folge, dass die Margen in der Mitte und ganz unten im Eimer sind.

Unrecht hast Du zwar nicht, aber ich rate Dir mal die Preisreduktionen die schon vorgegangen sind und auch die zukuenftigen Monate zu verfolgen. Die Ti4600 sind schon auf 220$ gerutscht, und die 8500 bei knappen 66$. Oder willst Du mir vielleicht breit machen, aus welchem Grund NV ploetzlich ihre einzige momentan verfuegbare high end Karte so radikal reduziert?

Also Vorsicht mit Aussagen wie
"Nur wenn die FX so und soviel % schneller ist wird sie sich verkaufen"
Die Vergangenheit hat gezeigt, und der CPU Markt zeigt dies täglich, dass in diesem Bereich sich niemand dafür interessiert um wieviel etwas schneller ist. P/L spielt hier keine Rolle.

Muss genau der Grund sein, weil sich AMD so aufgekrempelt hat nach den K7 CPU's. Es ist zwar langsamer geworden bei denen momentan und deren Finanzen sind nicht gerade euphorisch, aber das wird sie wohl nach wie vor davon abhalten genauso gut wie bis jetzt zu konkurrieren. Der 3.04GHz P4 trat hier mit einem 750 euro Startpreis an. Ich wette dass jeder mainstream home PC Inhaber in den naechsten Laden gerannt ist und sich einen solchen zugeschafft.

Dabei sollte jemand notieren dass Intel umso einiges mehr fuer ihre CPU's verlangen koennte, wenn es ueberhaupt keine Konkurrenz gaebe. Wieviel hat nochmal der erste Pentium gekostet?

Sobald der Konkurrenzpegel in einem Markt steigt, desto schneller stuerzen die Preise ab.

Unregistered
2003-01-02, 16:07:35
"
BTW der vergleich zwischen 2700+ u. P4 3GHz ist gar nicht gut, da es nicht nur unterschiedliche geschwindigkeiten sind. Und dass leute für NV einen aufpreis bezahlen wollen ist auch nur ein Wunschtraum von dir.
"

ach du bist doch so lol.
Dann verrat mir mal wieso sich NV sich leisten kann ne Ti500 für 100 Euro mehr zu verkaufen als ne Radeon8500 obwohl letztere etwas neuere Technik hatte.
Wieso kann NV es sich leisten eine DX7 GF4MX für die selbe Kohle zu verkaufen wie ATI ne teurere Radeon9000.
Wieso verkauft sich eine Ti4200 für so viel mehr Geld als eine Radeon8500 und das seit Beginn obwohl der Leistungsunterschied nicht ganz im Verhältnis steht.
Für NV zahlen die Leute bei selber Leistung deutlich mehr. Das ist Fakt und dazu brauchst nur mal auf Marktanteile und Preise schauen.
Dieser Punkt steht nicht zur Diskussion.

"
Alles gut und schön Richthoven, aber laut ATI verdienen die sehr wohl Geld im High-end segment.
"
Die Aussage von ATI wurde bei den letzten Quartalszahlen getätigt, natürlich zu einer Zeit als die Preissituation eine erheblich andere war als sie es in ein paar Wochen/Monaten sein wird.
Ganze 5 Mio sind übrig geblieben und wärst du nicht so borniert hättest du auch den 2. Teil gelesen, nämlich das das Management fürs nächste Quartal pessimistisch ist und dazu haben sie allen Grund.
1. Sind die Quartale nach Weihnachten in der Regel schlechter.
2. Ist die Margensitation bei den 0.15 Mainstream Teilen nicht wirklich gut weil es eben R300 Chips sind und nix anderes egal ob nun kaputt oder nicht.
ATI weiss sehr wohl das sie einen RV350 sehr dringend gebrauchen können. Nicht weil er schneller ist als eine Radeon9500 / pro sondern weil er billiger sein wird, nicht nur wegen 0.15 sondern höchstwahrscheinlich auch wegen dem Zielmarkt entsprechend angepasstem Design - also weniger Transistoren.
Insofern ist ein Preiskampf im High End Markt keine sonderlich gute Idee und auf die wird auch ganz sicher keiner der beiden kommen.
Sie bringt beiden nämlich nix, weil jeder migehen würde um seine Anteile zu halten und beide lieber Geld verdienen wollen.

Unregistered
2003-01-02, 16:08:57
meinte 0.13 beim RV350

Unregistered
2003-01-02, 16:17:07
"
Muss genau der Grund sein, weil sich AMD so aufgekrempelt hat nach den K7 CPU's. Es ist zwar langsamer geworden bei denen momentan und deren Finanzen sind nicht gerade euphorisch, aber das wird sie wohl nach wie vor davon abhalten genauso gut wie bis jetzt zu konkurrieren. Der 3.04GHz P4 trat hier mit einem 750 euro Startpreis an. Ich wette dass jeder mainstream home PC Inhaber in den naechsten Laden gerannt ist und sich einen solchen zugeschafft.
"

nicht euphorisch? Katastrophal beschreibt AMDs finanzielle Sitation doch deutlich besser.
"
Dabei sollte jemand notieren dass Intel umso einiges mehr fuer ihre CPU's verlangen koennte, wenn es ueberhaupt keine Konkurrenz gaebe. Wieviel hat nochmal der erste Pentium gekostet?

Sobald der Konkurrenzpegel in einem Markt steigt, desto schneller stuerzen die Preise ab.
"
Und genauso schnell stürzen Unternehmen in den Ruin. Momentan sind sowieso nicht die Zeiten wo jeder das Geld dicke hat.
DRAM -> Milliardenverluste seid mehr als 1,5 Jahren.
CPUs -> AMD fetter Verlust
3DChips -> blieb bis zum 2. Quartal 2002 relativ unverschont, und wird jetzt auch getroffen.
Nvidias finanzielle Ausgangslage ist eine deutlich bessere als die von ATI auch die Marktpräsenz ist eine andere.
Konkurenzsituation wird die Preise drücken aber genauso schnell landen die in den Roten Zahlen und das wird ATI mehr treffen als Nvidia.
5 Mio haben sie diesmal gemacht. Gemessen an den 35 Mio minus beim letzten Mal ein Tropfen auf den heissen Stein.

Im DRAM Business könnte man meinen, das dort zwar der ein oder andere aufgibt, aber es bleiben ja noch genug.
Im CPU und auch 3DMarkt haben wir diese Situation aber nicht.
Hier gibt es nur 2 Nennenswerte Spieler und bei einem üblen Preiskampf wird einer der Verlierer sein und das ist mit 99% Wahrscheinlichkeit der Kleinere von beiden.

Ailuros
2003-01-02, 16:18:47
Für NV zahlen die Leute bei selber Leistung deutlich mehr. Das ist Fakt und dazu brauchst nur mal auf Marktanteile und Preise schauen.
Dieser Punkt steht nicht zur Diskussion.

Alles steht zur Diskussion in einem oeffentlichen Forum. :)

Die Marktanteile schaue ich mir genau deswegen nochmal in 6 Monaten an. Wer hat sowieso was dagegen wenn ATI und NV mit gleichem Marktanteil dastehen. Ich verdien sowieso keinen Pfennig davon pffff :D

Ailuros
2003-01-02, 16:35:44
Nvidias finanzielle Ausgangslage ist eine deutlich bessere als die von ATI auch die Marktpräsenz ist eine andere.
Konkurenzsituation wird die Preise drücken aber genauso schnell landen die in den Roten Zahlen und das wird ATI mehr treffen als Nvidia.

Ich wuerde trotzdem heute keine Aktien von keinen der beiden kaufen LOL.

Ja NV liegt in einer besseren finanziellen Lage, die heutige Krise betrifft jede Firma selbst die groessten und da ist selbst Intel keine Ausnahme. Keiner der beiden wird dadurch untergehen, sollten sie keine falschen Entscheidungen treffen.

Im DRAM Business könnte man meinen, das dort zwar der ein oder andere aufgibt, aber es bleiben ja noch genug.
Im CPU und auch 3DMarkt haben wir diese Situation aber nicht.
Hier gibt es nur 2 Nennenswerte Spieler und bei einem üblen Preiskampf wird einer der Verlierer sein und das ist mit 99% Wahrscheinlichkeit der Kleinere von beiden.

Es ist zwar nett wenn Leute alles gleich so schwarz sehen, aber nichts ist und wird auch nie sicher sein. Haette man vor einem Jahr einem NV-Hardcore Fan versucht zu sagen dass auch NV auch mal einen Zyklus verpassen kann, haette er hoechstwahrscheinlich sein Leben dagegen gewettet.

Finanzen einer Firma oder Aktienkurse sind weniger relevant als so manche hier eintrichtern wollen. Wenn dass so waere dann moechte ich mal gerne wissen wieso NV den Sturz von ueber 70$ pro Aktie auf magere 9$ ueberlebt hat.

Es gibt tonnenweise Firmen dort draussen die unendlichen Kredit aufnehmen und nur mit roten Zahlen operieren. Es geht hier um Graphikkarten und nicht um eine umfangreiche Finanzanalyse. Wenn's zur zweiten kommt koennen zahllose pro/kontra Argumente aufgefuerht werden, die trotz allem weniger Anhalt zur Realitaet haben.

ATI hat schon seit letztem Herbst eine hochpotenzielle dx9 Karte auf den Ladentischen, und das verbleibt zweiffelloser Fakt. Je frueher ein Produkt auf den Markt kommt, desto besser werden die yields mit der Zeit und auch die Preise koennen dementsprechend reduziert werden.

Ich muss zwar zusehen dass die 9500/PRO problematisch sind in Verfuegbarkeit und die kosten ATI auch zuviel, aber dahingegen kommt NV31 auch nicht vor April raus gell?

Exxtreme
2003-01-02, 16:49:51
Richthofen,

eigentlich müsstest du froh sein, daß ATi technologisch so stark geworden ist und NV Dampf unter'm Hintern macht auch wenn du kein Fan dieser Firma bist. Denn das bedeutet nämlich niedrigere Preise und mehr Fortschritt für den Endkunden. Klar verdienen die Firmen nicht mehr so gut bei starker Konkurrenz da man öfter die Preise senken muss, aber der Kunde profitiert im Endeffekt am meisten davon.

Also ich persönlich hoffe, daß der NV30 die R300 schlägt.

Richthofen
2003-01-02, 21:29:33
ihr versteht mich nicht.
ATI hat nix verdient das ist das Problem.

Ein Preiskampf hilt keinem von Beiden. Es wird sicher einen geben aber der wird sich im Rahmen halten.
Keine Firma macht ewig Verlust, schon gar nicht in Zeiten wo Geldgeber und Investoren jeden Taler 2mal umdrehen bevor sie ihn ausgeben.
Die Zeiten in denen High Tech Firmen Darlehen und Einlagen in Milliardenhöhe reihenweise abgegriffen haben sind vorbei.
Ein harter Preiskampf hat unweigerlich zur Folge dass am Ende ein Minus rauskommt. Dieses wiederum führt dazu, das Aussgaben gedrosselt werden.
Also entweder werden Leute gefeuert oder irgendwo erheblich gespaart zb beim R&D.
Und schliesslich führts dazu, das Investoren kein Vertrauen mehr haben und das Geld ausbleibt. Ohne diese Beträge sind die Forschungsausgaben nicht zu halten.

Wie schnell man am Rande des Ruin stehen kann zeigt AMD parademäßig.
Und wenn man mal ehrlich ist, rein performance mäßig sind die doch voll dabei.
Nur rumkommen tut nix. Die Ausgangslage war vor 5 Quartalen
noch recht gesund. Jetzt ist bereits über die Hälfte des Geldes verbrannt und AMD hat ganz andere Rücklagen und anderes Volumen als es ATI hat.
Sowas geht ziemlích schnell.

Ailuros
2003-01-02, 23:44:26
Wer versteht hier wen nicht?

IHV's machen sowieso aeusserst selten Gewinn an High end Produkten. Der eigentliche Gewinn kommt von den mainstream und budget Abschlachtungen und den anderen Maerkten die mit dem gleichen Design angepeilt werden.

Was macht der Retail Markt prozentuell sowieso aus?

Die Zeiten in denen High Tech Firmen Darlehen und Einlagen in Milliardenhöhe reihenweise abgegriffen haben sind vorbei.

Fuer NV sind das fast 400M $ fuer die gesamte NV3x Serie, vom Design bis zur Distribution. Bei denen liegt Bargeld nicht gerade tonnenweise in den Schubladen, woher denkst Du kommt die Summe her?

Ein harter Preiskampf hat unweigerlich zur Folge dass am Ende ein Minus rauskommt. Dieses wiederum führt dazu, das Aussgaben gedrosselt werden.

Dabei gab es schon oeffentliche Andeutungen von NV dass die Release-Frequenz von Produkten sich reduzieren koennte....na warum wohl....

Und schliesslich führts dazu, das Investoren kein Vertrauen mehr haben und das Geld ausbleibt. Ohne diese Beträge sind die Forschungsausgaben nicht zu halten.

Momentmal; NV ist nach wie vor am wachsen. Nur so wie es aussieht, wird die Firma nicht soviel wachsen wie im Jahr 2002, sondern um so einige Prozente weniger. Was ist dabei so abnormal?

Wie schnell man am Rande des Ruin stehen kann zeigt AMD parademäßig.
Und wenn man mal ehrlich ist, rein performance mäßig sind die doch voll dabei.
Nur rumkommen tut nix. Die Ausgangslage war vor 5 Quartalen
noch recht gesund. Jetzt ist bereits über die Hälfte des Geldes verbrannt und AMD hat ganz andere Rücklagen und anderes Volumen als es ATI hat.
Sowas geht ziemlích schnell.

Erstmal antworte mir freundlicherweise wie hoch der finale Preis von den ersten NV30 Produkten sein wird, was jedes Stueck kostet um es herzustellen, und von da aus kann es dann erst weiter gehen. Wo Du dabei die Vorstellung hast dass NV davon noch Gewinn machen kann ist mir ein Raetsel. Wenigstens die Speicherpreise fuer 128mb 500MHz DDR II muessten ja nicht allzu schwer zu finden zu sein.

Ja es kann schnell gehen mit jeder Firma. Noch ein Seitenschritt aus purem Pech von NV und dann stehen die so schlimm wie nie zuvor da. Na und? Die gehen trotzdem nicht unter.

aths
2003-01-03, 06:22:59
Originally posted by Ailuros
Wer versteht hier wen nicht?

IHV's machen sowieso aeusserst selten Gewinn an High end Produkten. Der eigentliche Gewinn kommt von den mainstream und budget Abschlachtungen Du meinst Ausschlachtungen :)

Originally posted by Ailuros
Ja es kann schnell gehen mit jeder Firma. Noch ein Seitenschritt aus purem Pech von NV und dann stehen die so schlimm wie nie zuvor da. Na und? Die gehen trotzdem nicht unter. Imo könnte es passieren, dass sie sich mal aus der High-End-Grakasparte verabschieden und einen auf Chipsatz/Multimedia-Produzent machen.

Ailuros
2003-01-03, 06:59:37
aths,

Ich verspreche Dir dass ich an meinem abgerosteten Deutsch hart arbeiten werde. ;)

Unregistered
2003-01-03, 10:41:02
"
Wer versteht hier wen nicht?

IHV's machen sowieso aeusserst selten Gewinn an High end Produkten. Der eigentliche Gewinn kommt von den mainstream und budget Abschlachtungen und den anderen Maerkten die mit dem gleichen Design angepeilt werden.
"

Habe ich was anderes gesagt?
Nein habe ich nicht.
Du hast mich wieder nicht verstanden.
Preissenkung bei Radeon9700 und pro ab absurdum folgt massive Preisenkung bei 9500 und pro.
Wo bitte will ATI dann noch Geld verdienen, wenn sie jetzt gerade mal 5 Mio gemacht haben.
Sie haben kein Mainstream Design das ist das Problem.
Die Ausgangslage für einen Preiskampf ist alles andere als gut, weil vor allem der Gegenüber es sich leisten wird jeden Preiskampf mitzugehen.
ATI muss verspieltes Geld reinholen Nvidia nicht.
Die haben sich in den letzten Jahren so fett verdient die kommen auch mal ohne großes Ernten aus.
Das ist zwar schlecht für die Aktien aber dem Unternehmen wirds erstmal nicht so viel ausmachen.
Das nennt man in der Marketingsprache "Durchhaltestrategie".
Das selbe wie bei Intel.
AMD ist performancemäßig nach wie vor ganz gut dabei.
Der Unterschied 2800+ und 3,06 GHZ ist nicht so drastisch aber Intel ist jeden Preiskampf mitgegangen und da sie der größere und stabilere von beiden sind, trocknen sie AMD einfach in Ruhe aus.
Irgendwann wird das Geld bei AMD so knapp, das sie R&D kürzen müssen und zwar mehr prozentual als es Intel muss.

"
Fuer NV sind das fast 400M $ fuer die gesamte NV3x Serie, vom Design bis zur Distribution. Bei denen liegt Bargeld nicht gerade tonnenweise in den Schubladen, woher denkst Du kommt die Summe her?
"

Nochmal zum Mitschreiben. NV ist nicht ATI.
NV konnte die letzten Jahre sich satt verdienen und über public Offerings und den Microsoft Deal Milliardensummen einstreichen. ATI nicht. Sie haben schon eine ziemlich lange Zeit Roter Zahlen hinter sich und die 5 Mio beim letzten Mal waren auch nicht grad berauschend wenn man gegenrechnet was die letzten Quartale verheizt wurde.

Exxtreme
2003-01-03, 11:15:24
Originally posted by Unregistered

Habe ich was anderes gesagt?
Nein habe ich nicht.
Du hast mich wieder nicht verstanden.
Preissenkung bei Radeon9700 und pro ab absurdum folgt massive Preisenkung bei 9500 und pro.
Wo bitte will ATI dann noch Geld verdienen, wenn sie jetzt gerade mal 5 Mio gemacht haben.
Sie haben kein Mainstream Design das ist das Problem.
Die Ausgangslage für einen Preiskampf ist alles andere als gut, weil vor allem der Gegenüber es sich leisten wird jeden Preiskampf mitzugehen.

Die Frage ist, was NV mit dem NV30 noch verdienen wird, wenn die R350 veröffentlicht wird. Sollte die extreme Kühlmassnahme tatsächlich notwendig sein um den stabilen Betrieb gewährleisten zu können, dann glaube ich nicht, daß NV damit viel Geld damit verdienen wird. Diese Kühlung dürfte nämlich nicht ganz billig sein. Und sollte die R350 dem NV30 leistungsmässig überlegen sein, dann sieht's für ATi gar nicht so schlecht aus.

robbitop
2003-01-03, 12:07:46
DAS ist die grosser Frage...denn NOCH weiss niemand wirklich wie schnell/langsam die NV30 ist...

Pussycat
2003-01-03, 13:30:16
Originally posted by Unregistered

Dann verrat mir mal wieso sich NV sich leisten kann ne Ti500 für 100 Euro mehr zu verkaufen als ne Radeon8500 obwohl letztere etwas neuere Technik hatte.
Wieso kann NV es sich leisten eine DX7 GF4MX für die selbe Kohle zu verkaufen wie ATI ne teurere Radeon9000.
Wieso verkauft sich eine Ti4200 für so viel mehr Geld als eine Radeon8500 und das seit Beginn obwohl der Leistungsunterschied nicht ganz im Verhältnis steht.


Weil GF4 = Bekannt = Gut.


Die Aussage von ATI wurde bei den letzten Quartalszahlen getätigt, natürlich zu einer Zeit als die Preissituation eine erheblich andere war als sie es in ein paar Wochen/Monaten sein wird.


Sagst du. Wenn der GFFX wirklich so lächerlich teuer wird, muss ATI gar nicht mit dem Preis runter gehen. Und wo bitte siehst du eine GFFX in den nächsten wochen?


Ganze 5 Mio sind übrig geblieben und wärst du nicht so borniert hättest du auch den 2. Teil gelesen, nämlich das das Management fürs nächste Quartal pessimistisch ist und dazu haben sie allen Grund.
1. Sind die Quartale nach Weihnachten in der Regel schlechter.
2. Ist die Margensitation bei den 0.15 Mainstream Teilen nicht wirklich gut weil es eben R300 Chips sind und nix anderes egal ob nun kaputt oder nicht.
ATI weiss sehr wohl das sie einen RV350 sehr dringend gebrauchen können. Nicht weil er schneller ist als eine Radeon9500 / pro sondern weil er billiger sein wird, nicht nur wegen 0.15 sondern höchstwahrscheinlich auch wegen dem Zielmarkt entsprechend angepasstem Design - also weniger Transistoren.


Der RV350 hatte sein tapeout gleichzeitig mit dem GFFX. Wo ist das Problem?


Insofern ist ein Preiskampf im High End Markt keine sonderlich gute Idee und auf die wird auch ganz sicher keiner der beiden kommen.
Sie bringt beiden nämlich nix, weil jeder migehen würde um seine Anteile zu halten und beide lieber Geld verdienen wollen.

Könnte gut sein. Ändert aber nix daran, dass eine GFFX mit 500+ € den Preis der 9700 nich drückt.

Pussycat
2003-01-03, 13:34:45
Originally posted by Exxtreme

Die Frage ist, was NV mit dem NV30 noch verdienen wird, wenn die R350 veröffentlicht wird. Sollte die extreme Kühlmassnahme tatsächlich notwendig sein um den stabilen Betrieb gewährleisten zu können, dann glaube ich nicht, daß NV damit viel Geld damit verdienen wird. Diese Kühlung dürfte nämlich nicht ganz billig sein. Und sollte die R350 dem NV30 leistungsmässig überlegen sein, dann sieht's für ATi gar nicht so schlecht aus.

Vergisst nicht den viel teureren Speicher. Und die PCB's sind beide 10-layer.

seahawk
2003-01-03, 14:01:34
Langsam ist die Frage was kommt eher R350 oder NV30 ??

Ich persönlich glaube langsam NV 30 kommt gar nicht. NV31 wird zur Cebit kommen und die erste GeForce FX werden.

robbitop@work
2003-01-03, 15:22:20
ähhm irgendwo hab ich gelesen heut dass sogar mehrere Hersteller in Europa (Creative und noch irgendwer den vorher keiner auf der Rechnung hatte) Ende Januar in geringer Stückzahl liefern wollen.
Und im Februar sind die dann endlich in Massen verfügbar und zu normalen Preisen (also so 500EUR)

seahawk
2003-01-03, 16:59:08
Wie Du sagst "liefern wollen", die Frage ist nur ob sie das auch können. Dass die Boardhersteller liefern wollen ist klar, nur kann NV auch Chips liefern.

Habe heute mit einem Kollegen bei einem großen OEM telefoniert und der lachte nur beim Thema FX.

Ailuros
2003-01-03, 17:52:14
Preissenkung bei Radeon9700 und pro ab absurdum folgt massive Preisenkung bei 9500 und pro.

Nichts einzuwenden.

Wo bitte will ATI dann noch Geld verdienen, wenn sie jetzt gerade mal 5 Mio gemacht haben.

5M war der reine Gewinn. Wenn von den vorigen roten Zahlen bis zu 5M Gewinn aufrechnet sieht es anders aus.

Sie haben kein Mainstream Design das ist das Problem.

Zeitlich liegen die minimalsten Preise bei Pricewatch zwischen 65 und 280$, fuer alle ATI Produkte. Es sieht eher so aus von den Preisen ausgesehen:

ATI 9000/9000PRO/9100 (8500) (dx8.1) vs NV MX420/440/460 (dx7.0)
ATI 9500/9500PRO (dx9.0) vs NV Ti4200/4600/4800 (dx8.1)
ATI 9700/9700PRO (dx9.0) vs (momentan gar nichts)

wobei
NV30 Januar/Februar 2003 (dx9.0)
NV31 Maerz/April 2003 (dx9.0)
NV34 (danach) (dx8.1???)

Ob jetzt die Verfuegbarkeit von 9500/9500PRO geringer als bei anderen Produkten ist, ist weniger wichtig, denn zumindest gibt es diese. Die Antwort fuer diese Karten wird NV nicht vor Fruehling dieses Jahres geben koennen. ATI ist bisher NV hinterher gerannt, momentan ist es genau das Gegenteil.

Wer genau hat hier Luecken in seiner Produktions-Linie?


ATI muss verspieltes Geld reinholen Nvidia nicht.

Ach ja? Ich kann Dir garantieren dass die R3xx Serie keine 400M$ gekostet hat. Wer muss was momentan reinholen?

Die haben sich in den letzten Jahren so fett verdient die kommen auch mal ohne großes Ernten aus.
Das ist zwar schlecht für die Aktien aber dem Unternehmen wirds erstmal nicht so viel ausmachen.
Das nennt man in der Marketingsprache "Durchhaltestrategie".
Das selbe wie bei Intel.
AMD ist performancemäßig nach wie vor ganz gut dabei.
Der Unterschied 2800+ und 3,06 GHZ ist nicht so drastisch aber Intel ist jeden Preiskampf mitgegangen und da sie der größere und stabilere von beiden sind, trocknen sie AMD einfach in Ruhe aus.
Irgendwann wird das Geld bei AMD so knapp, das sie R&D kürzen müssen und zwar mehr prozentual als es Intel muss.

Ich wuerde mal allzu gerne wissen wieso Du staendlich parallele Beispiele fuer Deine Argumentation brauchst, wobei diese Beispiele auch meistens auch nicht relevant sind.

Es wurde enorm viel Geld bei NV verschwendet durch den letzten Sommer fuer den doofen 13um Prozess, wobei leider davon die restlichen IHV's nur profitieren koennen, denn die libraries bei TSMC sind in der Zwischenzeit schon ausgebuegelt. Die ersten NV30 samples die vom Labor im Sommer zurueckkamen waren absolut tot wobei es vieleicht Chancen gab nur 1% davon durch SW workarounds operativ zu machen aber selbst das klappte nicht.

Es tut mir leid dass ich darauf bestehe aber antworte mir erstmal die folgenden Fragen:

a) Wieviel kostet es derzeit einen NV30 herzustellen, wenn die yields zwar staendig steigen, aber Ende November lagen chips mit derartiger Komplexitaet auf 13um unter 20%?

b) Da NV Speicher in grossen Quantitaeten aufkauft, wie liegen die Preise fuer hochspezifierte DDR II momentan?

c) Und zu guter letzt: wo siehst Du mit den oberen Moeglichkeiten NV zu profitieren vom NV30 (denn die koennen schwer ueber 450-500$ maximal fuer die Ultra in den Staaten steigen)?

Es ist wahr dass 256bittige Busse teurer sind, aber dafuer ging es schnell, problemlos und billig mit 0.15um ab und die 310MHz maximalen Speicher auf der R300 sind so "teuer" dass jeder X-beliebige IHV der Karten fuer mainstream und budget herstellt, mit gleichem Speicher ausstatten kann.

robbitop
2003-01-03, 18:31:37
ATi war sehr klug mit dem 0,13µ Prozess zu warten und den Chip @0,15µ zu fertigen (wobei es beinahe an ein Wunder grenzt, was sie aus dem 0,15µ Alu Prozess gemacht haben). Aus dem 256bit DDR Interface holen sie den nötigen Speed und können auch hier günstigen RAM einsetzen.

Scheinnbar hat ATi im Bereich Prozessoptimierung Wunder vollbracht.

Das zahlt sich sicher aus...und die greifen erst zu 0,13µ bei komplexen Chips, wenn dieser Prozess ausgereift ist, tja was NV da passiert ist, war nicht gut für die Bilanzen, aber hoffendlich haben sie daraus gelernt

Eusti
2003-01-03, 19:16:46
Hier mal der Link (http://www.chip.de/news_stories/news_stories_9694504.html) zum Brandaktuellen NV35-Spec-Update von www.chip.de (http://www.chip.de). Die Wichtigsten Punkte der Themensammlung:

- bis zu 3facher Leistung eines NV30 (bis zu 5x schneller als R300)
- 8x4!!! Pipline
- 4 Vertex-Shader Einheiten
- 550MHZ+ Chiptakt
- 256MB DDR2-Speicher
- 256bit Speicheranbindung
- 400-450MHZ Speichertakt (wozu so langsam? Sparen bei High-End?)
- 163Mio. Transistoren
- 0,13er Kupferprozess
- zusatz Stromversorgung über Floppy-Stromanschluss
- DirectX 9,1 Support & OGL 2.0
- VertexShader 3.0
- Pixelshader 3.0
- Flip-Chip BGA-Gehäuse
- AGP 8x Schnittstelle
- keine Budgetversionen des Chips geplant (sollen dann wohl auf NV30 aufbauen?)
- erwarteter Kartenpreis ca. € 500,-
- Verfügbar ab ca. Q4 2003
- Rest wie NV30

Unregistered
2003-01-03, 19:22:13
Chip halt

Iceman346
2003-01-03, 20:10:30
Von der Glaubwürdigkeit würde ich Chip etwa auf die Stufe mit TheInquirer stellen ;)

Unregistered
2003-01-03, 20:13:16
na hmm ... ehrlich gesagt, glaube ich chip nicht gerade ueber den weg.
woher haben die denn die info? wieso nur die?

robbitop
2003-01-03, 21:07:33
okok ich denke ein paar dinge sind dort sehr unglaubwürdig...
zB 8x4..LOL das wäre ja sowas von ineffiziente Transistorenverschwendung....aber mehr Füllrate braucht der chip schon wenn sich ein 256bit DDR Interface lohnen soll (was sagen die Experten??). 4Vertexshader??? das aktuelle Array reicht doch locker is eh overkill, aber wer weiss ob man das umbauen kann...

die Frage ist, ob NV aufgrund der 8Pipe Architektur auf 256bit umstellt (weil es dort eben nicht ausgeschöpft wird) sondern einfach nur höhere Taktraten bringt ... und vieleicht signifikannte verbesserungen im FSAA Bereich...

ansonsten recht glaubhaft der rest...die Frage ist, woher die das wieder wissen wollen...

Spake
2003-01-04, 01:03:00
ich glaube die 8x4 idee ist reinerschwachsinn und wohl wirklich
wäre schon komisch wenn nvidia nicht aus den fehlern von Matrox lernt
8x2 hört sich wahrscheinlicher an
und die 256MB Ram wären nur zu gut bei den Rammassen bei hoher auflösung und mit hohem AA dort liegt ja jetzt ein prob bei Ati und 6x und >1280 vor

aber ich denke die Karte ist im 4Quartal zu spät da dort bereits das nötige Ati-pendant kommt

robbitop
2003-01-04, 09:43:40
Demirug hat schonmal erklärt, dass 2 TMUs pro Pipe seit DX9 extrem ineffizient sind...aber ich weiss es nicht mehr genau...

Wie wäre es, wenn du (Demi) das nochmal darlegen würdest, wenn man ein DX9 Chip statt mit 8x1triTMU mit 8x2TriTMU ausstattet...

Sunrise
2003-01-04, 16:21:28
@Eusti:

- 400-450MHZ Speichertakt (wozu so langsam? Sparen bei High-End?)

Rechne dir mal die Speicherbandbreite aus, wenn du 450MHz DDRII und ein 256Bit-Interface koppelst.

Ich denke alles darüber wäre absoluter Overkill.

Ailuros
2003-01-04, 17:40:13
- DirectX 9,1 Support & OGL 2.0
- VertexShader 3.0
- Pixelshader 3.0

LOL das alleine ist schon ein oxymoron. Dx9.0 hat PS/VS2.0 bis 3.0.

Bei so einigen Punkten sind die Spezifikationen korrekt, da steckt aber auch so mancher Schwachsinn in der Liste.

rubitopp,

Eines der Gruende warum ein 8x2 setup Sinn machen koennte, sind die Texturen im Vertex Shader (siehe VS3.0). Es ist aber nicht ein absolutes Muss soweit ich weiss.

Demirug
2003-01-04, 18:17:53
OK wir sind ja hier im Spekulationsforum also darf ich ja.

Ich glaube fast das die NV3x Rheie gar keine Pipelines im klasichen Sinn mehr hat. Sonder nur noch masiv parrallel Processing Einheiten auf welche die anfallenden Arbeiten verteilt werden. Deswegen sind die ganzen überlegungen im Bereich x*y Pipelines wohl auch irgendwie sinnloss.

Spake
2003-01-04, 18:22:27
@ demirug
ich bin bei pipeline processing nett ganz helle
meinst du ein system alle 3DLabs mit SIMD-Einheiten oder ist dass was ganz anderes

Demirug
2003-01-04, 18:50:10
3dlabs hat ja scheinbar immer noch eine Pipeline architektur nur sind die Pipelines intern anders aufgebaut.

Was ich meine ist eher etwas in der Art von Intels Hyperthreading. Pro Pixel läuft ein Thread in der GPU und diese Threads werden auf die verfügbaren Processing Einheiten verteilt. Der Vorteil dieses Verfahren ist eine viel bessere Ausnutzung der verfügbaren rechenpower. Im Vertex Bereich macht man das gleiche ja wohl scheinbar auch. Eine solche Entwicklung ist auch nicht verweunderlich da die anforderungen an die Shader sich immer mehr den anforderungen an eine normale CPU annähern.

Spake
2003-01-04, 19:00:15
hab ich verstanden
frag mich nur um wie viel so eine GPU schneller als die gleiche GPU traditionell
aufgebaut ist

wenn der unterschied ausreichend ist werden vielleicht auch andere GPU/VPU-hersteller auf diese methode zurückgreifen

robbitop
2003-01-04, 19:14:19
wenn das stimmt brauch man für Doppelte Anz von TMUs nicht extra Pipelines anlegen und das wäre auch nicht so komplex und Transistoraufwändig, oder?

Damit wären 16tri TMUs beim NV35 ohne weiteres Möglich?

(8x4=64TMUs das geht von den Transistoren her ja gor net)

nggalai
2003-01-04, 19:16:06
Hi Demiurg,
Originally posted by Demirug
OK wir sind ja hier im Spekulationsforum also darf ich ja.

Ich glaube fast das die NV3x Rheie gar keine Pipelines im klasichen Sinn mehr hat. Sonder nur noch masiv parrallel Processing Einheiten auf welche die anfallenden Arbeiten verteilt werden. Deswegen sind die ganzen überlegungen im Bereich x*y Pipelines wohl auch irgendwie sinnloss. Das würde auch erklären, weshalb sich David Kirk und andere NV-Mitarbeiter in letzter Zeit mit Händen und Füssen gegen Aussagen wie "hat x TMUs pro Pipeline" streuben . . .

ta,
-Sascha.rb

Spake
2003-01-04, 19:19:12
mit so einer architektur wäre es doch theoretisch auch möglich ein spiel so zu schreiben dass die GPU immer 100% ausgelastet ist
so knnte nvidia vielleicht auch bei einigen benchmarks weit höhere werte als Ati erreichen
(wenn man da an den 3.06 HT in SiSoft Sandra denkt -->60% schneller als ohne HT)

Demirug
2003-01-04, 19:22:33
Originally posted by nggalai
Hi Demiurg,
Das würde auch erklären, weshalb sich David Kirk und andere NV-Mitarbeiter in letzter Zeit mit Händen und Füssen gegen Aussagen wie "hat x TMUs pro Pipeline" streuben . . .

ta,
-Sascha.rb

nggalai, das bringt mich ja auch zu dieser Überlegung sowie eine ganze menge anderer merkwürdiger andeutungen die gemacht wurden.

Spake
2003-01-04, 19:46:05
an welche andeutungen dachtest du

ich hab die pressemitteilung nämlich nett gelesen

Demirug
2003-01-04, 19:49:27
Originally posted by Spake
an welche andeutungen dachtest du

ich hab die pressemitteilung nämlich nett gelesen

Es geht dabei nicht um offiziele Pressemitteilungen. Es geht mehr um Dinge die in Interviews gesagt bzw nicht gesagt wurden.

MeLLe
2003-01-04, 20:06:46
Originally posted by Eusti
- bis zu 3facher Leistung eines NV30 (bis zu 5x schneller als R300)
Das würde ja bedeuten:
1 NV35 = 3 NV30
und
1 NV35 = 5 R300
also
1 NV35 = 3 NV30 = 5 R300
damit
3 NV30 = 5 R300
und
1 NV30 = 5/3 R300
sowie schliesslich
NV30 = 1.67 R300
Damit müsste ein NV30 rund 60-70% schneller als der R300 sein.
Nunja.
Heute, gegen 22Uhr, www.computer-trend.biz - dann wissen wir es :| :naughty:

Exxtreme
2003-01-04, 20:08:47
@ Mellee

Dreisatz-Rechnungen waren wohl dein Lieblingsthema im Mathe-Unterricht... :naughty: ;)

MeLLe
2003-01-04, 20:53:36
Originally posted by Exxtreme
@ Mellee
Dreisatz-Rechnungen waren wohl dein Lieblingsthema im Mathe-Unterricht... :naughty: ;)
Nein, nein nein nein. Nicht Dreisatz. Da war mir Prozentrechnung :bier: dreimal lieber :naughty: ;)

Spake
2003-01-04, 21:10:55
schon komisch aber dein endergebnis:
nv30=1.67 R300
dekt sich beinahe exakt mit der erhöhung des Coretaktes von R300 zu nv30
1.6*(R300@325)=nv30@520

wär wirklich schön wenn man durch solche rechnungen wirklich die praxisleistung ermitteln kann

Pussycat
2003-01-04, 21:12:37
Originally posted by Iceman346
Von der Glaubwürdigkeit würde ich Chip etwa auf die Stufe mit TheInquirer stellen ;)

Niedriger. TI hat relativ oft recht (ja, ausser beim R250 - debakel). Chip nie, auch nicht wenn sie ein Stück Hardware da haben und es testen.

Ailuros
2003-01-05, 00:31:56
Originally posted by robbitop
wenn das stimmt brauch man für Doppelte Anz von TMUs nicht extra Pipelines anlegen und das wäre auch nicht so komplex und Transistoraufwändig, oder?

Damit wären 16tri TMUs beim NV35 ohne weiteres Möglich?

(8x4=64TMUs das geht von den Transistoren her ja gor net)

Wenn die Transistoren-Anzahl bei NV35 hoeher sein sollte, dann sind da zuerst die Shader dran "schuld".

robbitop
2003-01-05, 09:11:17
PixelPipes mit Shader ALUs darin nehmen auch verdammt viel Platz.

Ailuros
2003-01-05, 09:52:06
Originally posted by robbitop
PixelPipes mit Shader ALUs darin nehmen auch verdammt viel Platz.

Und wer sagt das da mehr drin sein sollten in NV35 als bei NV30?

robbitop
2003-01-05, 11:32:38
dsa sage ich ja auch..es werde nicht mehr pipes drin sein müssen, wenn das mit den entkoppelten TMUs stimmt, so könnte man ohne neue Pipes "anzulegen" Die Füllrate erheblich erhöhen. Wenn es noch feste Pipes gibt, wäre 8x2TMUs sehr ineffizient zum steigern der Füllrate.

Aber der NV35 wird wesendlich mehr Füllrate benötigen um ein hochgetaktetes 256bit DDR Interface auslasten zu können.

Ansonsten gibbet wieder keines und chip und Speicher werden ein bissi oc (wobei ich ja auf die entkoppelte Variante spekuliere)

Unregistered
2003-01-05, 16:40:59
jetzt stuetzen wir uns DOCH auf die mehr als waage aussage von chip, dass der nv ein 256bittiges speicherinterface hat?

hat nv nicht mal verlauten lassen, das 2003 auf keinen fall sowas kommen wird? soweit ich weiss, hab ich das sogar auf tecchannel gelesen.

auf jeden fall ist ein interview gefuehrt von tecchannel mit nv glaubwuerdiger, als wilde spekus von chip, auch wenn das interview aelter ist.

nv koennte ja das interface einfach nochmal teilen( aso dann 8fach), oder alte 3dfx speicherschonende verfahren anwenden ???

chach ist das alles kompliziert.

trotz alle dem, kann ich mir nicht vorstellen, dass nv sich von ati den schneti absaebeln laesst.
nv war schon immer schlau genug sich von der konkurenz abzusetzen o.ä., aso denke ich mal das sie das mit den jahren und dem erfolg nicht verloren/vergessen haben.

Thowe
2003-01-05, 19:16:52
Originally posted by Demirug
OK wir sind ja hier im Spekulationsforum also darf ich ja.

Ich glaube fast das die NV3x Rheie gar keine Pipelines im klasichen Sinn mehr hat. Sonder nur noch masiv parrallel Processing Einheiten auf welche die anfallenden Arbeiten verteilt werden. Deswegen sind die ganzen überlegungen im Bereich x*y Pipelines wohl auch irgendwie sinnloss.

Ja, aber ich glaube nicht das es beim NV35 schon der Fall ist, da es ansonsten ein komplettes Redesing der Pixelshader bedeuten würde und NV35 wohl nur ein Refresh sein wird.

Demirug
2003-01-05, 19:27:39
Originally posted by Thowe


Ja, aber ich glaube nicht das es beim NV35 schon der Fall ist, da es ansonsten ein komplettes Redesing der Pixelshader bedeuten würde und NV35 wohl nur ein Refresh sein wird.

Ich meine das es beim NV30 schon so ist und beim NV35 dann entsprechende auch.

Thowe
2003-01-05, 19:36:48
Originally posted by Demirug


Ich meine das es beim NV30 schon so ist und beim NV35 dann entsprechende auch.

Aber doch nur für den Vertex-Shader, bei den PixelPipelines sprechen sie ja von einer 8x1 Architektur und das würde deiner Aussage wiedersprechen, das man in einem solchen Fall nicht mehr von so einer Architektur sprechen kann. =)

Demirug
2003-01-05, 19:40:42
Originally posted by Thowe


Aber doch nur für den Vertex-Shader, bei den PixelPipelines sprechen sie ja von einer 8x1 Architektur und das würde deiner Aussage wiedersprechen, das man in einem solchen Fall nicht mehr von so einer Architektur sprechen kann. =)

Wo spricht NVIDIA offiziel von 8*1? Nirgens denn um diese Frage drücken sie sich immer. Da kommen immer nur irgendwelche Andeutungen.

Pussycat
2003-01-05, 20:16:34
Naja, NV hat ja gesagt dass er in 32 bit 8 trilineare pixel produzieren konnte.

Aber ich bin mich mit dir einig dass die Antworten (bzw. die nicht-antworten) eine relativ deutliche Sprache sprechen. Oder es müsste ein super-FUD-angriff sein, wass ich aber kaum glaube.

Thowe
2003-01-05, 20:35:49
Originally posted by Demirug
Wo spricht NVIDIA offiziel von 8*1? Nirgens denn um diese Frage drücken sie sich immer. Da kommen immer nur irgendwelche Andeutungen.

Hmmm, ich lehne mich daran (http://www.beyond3d.com/previews/nvidia/nv30launch/index.php?p=2) an.

nggalai
2003-01-05, 20:57:57
Originally posted by Thowe


Hmmm, ich lehne mich daran (http://www.beyond3d.com/previews/nvidia/nv30launch/index.php?p=2) an. Aaah, aber genau hier liegt ja das "Problem:"

Well, as we move into programmable shading the old conventions of fixed pipelines are becoming less important and less accurate, so with that caveat let me go back and answer your question.

We have 8 pipelines and they can each apply one texture per clock so we can apply 8 textures per clock.

[...]

No, you're limited to 8 textures applied per clock. However, we can do addressing for 16 textures at any one time. So even though you can only rigidly apply 8 per clock, you can line up the next 8 then apply them in the next clock.i.e. sogar in diesem eher informellen Interview wird sich um den Begriff "TMU" rumgedrückt, und gleich zuerst mal ein Caveat gebracht, dass die ganze traditionelle Pipeline-Geschichte nicht mehr so richtig stimme. Und obwohl pro Pipeline nur eine Textur appliziert werden kann, pro Takt, können vom gesamten Ding immer 16 Texturen angesprochen werden . . . dann noch viel Bla wegen Flexibilität . . . wie ich das lese, müsste man da überall "Pipeline" in Anführungszeichen setzen--immerhin sagt der Herr ja gleich zu Beginn, dass der Begriff nicht mehr wichtig oder genau stimmt.

Entweder ist das tatsächlich FUD from Hell, um "besser" als die Radeon9700 dazustehen (i.e. ja nicht sagen, dass man 8x1-Design hat), oder eben--die Dinger sind unabhängig genug, dass der Begriff der TMU / Pipelines nicht mehr sooo viel Sinn macht. In Anbetracht der älteren DK-Interviews und Kommentaren einiger Entwickler tendiere ich eher zur zweiten Lösung.

ta,
-Sascha.rb

Edit: duh, doppelt unterschrieben . . . ;) -.rb

Demirug
2003-01-05, 20:58:28
Dann beziehe ich mich darauf:

http://www.extremetech.com/article2/0,3973,713547,00.asp

Pipes don't mean as much as they used to. In the [dual-pipeline] TNT2 days you used to be able to do two pixels in one clock if they were single textured, or one dual-textured pixel per pipe in every two clocks, it could operate in either of those two modes. We've now taken that to an extreme. Some things happen at sixteen pixels per clock. Some things happen at eight. Some things happen at four, and a lot of things happen in a bunch of clock cycles four pixels at a time. For instance, if you're doing sixteen textures, it's four pixels per clock, but it takes more than one clock. There are really 32 functional units that can do things in various multiples. We don't have the ability in NV30 to actually draw more than eight pixels per cycle. It's going to be a less meaningful question as we move forward...[GeForceFX] isn't really a texture lookup and blending pipeline with stages and maybe loop back anymore. It's a processor, and texture lookups are decoupled from this hard-wired pipe.

Es können maximal 8 Pixel pro Takt in den Framebuffer geschrieben (draw) werden. Das dürfte aber eher daher kommen das die 32 AA Sampler immer noch in Gruppen zu 4 angeordenet sind.

Ansosnten steht da aber das man 32 Einheiten hat die man unterscheidlich verschalten kann.

Wobei es wohl doch noch kein ganz so flexibles Array wie in den Vertexshadern ist.

Folgende Modies scheinen derzeit verfügbar:

16 Pixel
8 Pixel
4 Pixel
4 Pixel Loopback

Ist der NV30 jetzt ein 16 Pipeline Chip? Oder gar nur ein 4 Pipeline Chip?

Wie relevant ist diese Frage aber? Was zählt sind die Pixle/s die für einen bestimmten Shader erzeugt werden können.

Spake
2003-01-05, 21:05:18
naja pipes verbraten ja transistoren
ist schon ganz wichtig wie viele pipes vorhanden sind

Demirug
2003-01-05, 21:11:26
Originally posted by Spake
naja pipes verbraten ja transistoren
ist schon ganz wichtig wie viele pipes vorhanden sind

Pipes verbraten keine Transitoren. Funktionseinheiten verbraten Transitoren. Bei normalen Desgin, bei dem man die Pipes einfach komplett dupliziert, stimmt deine aussage deshalb auch weil man ja alle Funktionseinheiten dupliziert hätte. NVIDIA hat aber da in alter Gewohnheit wieder mal Pipelines welche miteinader verknüpft sind gebaut.

Spake
2003-01-05, 21:22:15
frag mich wie viel die eigentlich leisten

trident scheint mit ihrem shared-pipelining-konzept ja auch keine superbe performance erreichen zu können

und außerdem für was wendet nvidia dann die meißten transistoren auf

Thowe
2003-01-05, 22:52:11
Originally posted by Demirug
Dann beziehe ich mich darauf:

http://www.extremetech.com/article2/0,3973,713547,00.asp



Es können maximal 8 Pixel pro Takt in den Framebuffer geschrieben (draw) werden. Das dürfte aber eher daher kommen das die 32 AA Sampler immer noch in Gruppen zu 4 angeordenet sind.

Ansosnten steht da aber das man 32 Einheiten hat die man unterscheidlich verschalten kann.

Wobei es wohl doch noch kein ganz so flexibles Array wie in den Vertexshadern ist.

Folgende Modies scheinen derzeit verfügbar:

16 Pixel
8 Pixel
4 Pixel
4 Pixel Loopback

Ist der NV30 jetzt ein 16 Pipeline Chip? Oder gar nur ein 4 Pipeline Chip?

Wie relevant ist diese Frage aber? Was zählt sind die Pixle/s die für einen bestimmten Shader erzeugt werden können.

Was aber immer noch eine Architektur mit (maximal) 8 Pixel pro Takt und 8 Texeln pro Takt ist. Und es ist immer noch eine "hard-wired" Pipeline. Wieweit das nun "klassisch" ist????

Demirug
2003-01-05, 23:08:14
Originally posted by Thowe


Was aber immer noch eine Architektur mit (maximal) 8 Pixel pro Takt und 8 Texeln pro Takt ist. Und es ist immer noch eine "hard-wired" Pipeline. Wieweit das nun "klassisch" ist????

Ja das scheint der Maximale Output zu sein. Sogesehen wird sich der Chip bei einem reinen Fillratetest sicherlich wie ein 8*1 Chip verhalten. Aufgrund der des Zitats wird er aber wohl in realen anwendungen sehr oft eher in einer 4*2 Konfiguartion laufen. Ich hoffe irgendwann mal das Patent für diese Konstruktion in die Finger zu bekommen. Wobei mir die bedeutung der 16 Pixel pro Takt noch nicht ganz klar ist.

Hardwired? jeder Chip der kein FPGA Feld enthält ist doch Hardwired, oder wie meinst du das jetzt?

Thowe
2003-01-05, 23:17:47
Originally posted by Demirug

...
Hardwired? jeder Chip der kein FPGA Feld enthält ist doch Hardwired, oder wie meinst du das jetzt?

Kam aus dem Zitat von David Kirk auf Extremetech (letzter Satz).
Normalerweise: Hard wired = nicht programmierbar.

Rampage 2
2003-01-06, 12:57:48
Originally posted by robbitop
okok ich denke ein paar dinge sind dort sehr unglaubwürdig...
zB 8x4..LOL das wäre ja sowas von ineffiziente Transistorenverschwendung....aber mehr Füllrate braucht der chip schon wenn sich ein 256bit DDR Interface lohnen soll (was sagen die Experten??). 4Vertexshader??? das aktuelle Array reicht doch locker is eh overkill, aber wer weiss ob man das umbauen kann...

die Frage ist, ob NV aufgrund der 8Pipe Architektur auf 256bit umstellt (weil es dort eben nicht ausgeschöpft wird) sondern einfach nur höhere Taktraten bringt ... und vieleicht signifikannte verbesserungen im FSAA Bereich...

ansonsten recht glaubhaft der rest...die Frage ist, woher die das wieder wissen wollen...

Erst einmal:

4 Texturpipelines kombiniert mit 8xPixelpipelines also (8x4) machen
sehr wohl Sinn: Denn Beschleuniger wie der R9700 Pro haben schon
mehr als genug Speicherbandbreite für die meisten Spiele - das sieht
man am Leistungsvergleich zwischen R9700Pro und R9500Pro:

Selbst bei 4xAA und 16xtriAF ist die R9700Pro nur höchstens 50%
schneller (bei aktuellen Tests) trotz doppelt so hoher Speicher-
bandbreite. Der geringe Leistungsunterschied ist auch auf die
gleich hohe Füllrate beider Chips zurückzuführen (R9700 Pro und
R9500 Pro haben gleich hohe Füllrate). Außerdem bräuchte man eine
viel schnellere CPU damit die R9700 ihre enorme Speicherbandbreite
auch ausnutzen kann.

Das heißt: aktuell ist die Füllrate wichtig - und genau dort setzt
NV an. Deswegen verstehe ich jetzt auch warum NV die
geringere Speicherbandbreite des GFFX in Kauf genommen
hat - weil sie nicht gut genug ausgenutzt werden kann.

Man O Man
2003-01-06, 13:43:02
The R35 specs are as follows:

0.13-micron GPU

8 pixel rendering pipelines

1 massively parallel vertex rendering engine

256-bit memory interface 8 x 32-bit "DDR2" memory controllers running at 700MHz (effectively 1.4GHz) for the "DDR2" or "GDDR3"

700MHz GPU clock speed

Up to 33.6 GB/s of memory bandwidth

Up to 134GB/s of memory bandwidth using compression

AGP 8X support

Full DX9+ Pixel & Vertex Shader support

Man O Man
2003-01-06, 13:45:10
NV35 spec not R350 sorry

Spake
2003-01-06, 18:10:16
@ rampage 2

"Der geringe Leistungsunterschied ist auch auf die
gleich hohe Füllrate beider Chips zurückzuführen"
so ist dass nett ganz richtig
R9500Pro und R9700 haben die gleiche füllrate da:
R9500Pro 275 Core
und R9700 Pro 325 Core

aber ich stimme dir wegen der Bandbreite zu
besonders beim übertakten der R9700Pro merkt man dass übertakteter speicher viel weniger performance bringt als übertakteter Core

Rampage 2
2003-01-06, 19:32:13
Originally posted by Spake
@ rampage 2

"Der geringe Leistungsunterschied ist auch auf die
gleich hohe Füllrate beider Chips zurückzuführen"
so ist dass nett ganz richtig
R9500Pro und R9700 haben die gleiche füllrate da:
R9500Pro 275 Core
und R9700 Pro 325 Core

aber ich stimme dir wegen der Bandbreite zu
besonders beim übertakten der R9700Pro merkt man dass übertakteter speicher viel weniger performance bringt als übertakteter Core

thx 4 Korrektur.

robbitop
2003-01-06, 19:50:16
@ Rampage 2

uns ist bewusst, dass es den GPUs bei 256bit DDR an Füllrate mangelt (und das steht hier schon mehrfach), doch ein 8x4 Design ist sehr ineffizient in Punkto Füllratensteigerung.

Guck dir ma den P512 der hatte mit 4x4TMUs eine theoretische Texelfüllrate eines R300/GF FX bei gleichem Takt. Doch da ein solches Design sehr ineffizient ist, ist das Teil sehr lahm.

Um also effizient Füllrate zu steigern sollte es möglichst ein X * 1 triTMU design sein. Und wenn unsere Vermutung stimmt, dass die TMUs flexibel sind, dann entfällt der Begriff Pixelpipes und man kann durch das blosse verdoppeln der TMUs gleich evcfektiv mehr Füllrate schaffen...mal eben die Pipeanz zu erhöhen ist dagegen sehr komplex.

Spake
2003-01-08, 15:38:55
matrox hat es wiederrum an solchen ideen wie LMa X-bar contoler etc. gefehlt deshalb war die perf. nett sonderlich gut

aber wiederrum konnten sie bei einem takt von 220 trotzdem mit der Ti4200 mit 250 konkurrieren

vielleicht ist so ein design doch nicht so ineffizient
nv35 oder R350 mit 8*2(sofern man dass überhaupt sagen kann) wäre vielleicht doch ganz sinnvoll

Ailuros
2003-01-08, 16:22:17
Demirug,

Ich hab den Interviewer von Ballew privat gefragt und auch extremetech's Ausschnitt damals mitinbegriffen; die Antwort war klipp und klar 8*1 und dabei kann ich leider nicht sagen wie sich der Kommentar ueber Extremetech anhoerte.

Ich sag's mal so: ein Reviewer der in einem Review behauptet dass Anisotropic filtering nicht der Rede wert ist, weil er zu dumm ist herauszufinden wie man es einschaltet, sollte die Schreiberei lieber beiseite lassen.

Im Endeffekt ist es sowieso egal. Ich bezweifle dass NV30, selbst mit den exotisschten Bandbreiten-schonenden Methoden, die Bandbreite hat 4GTexel/sec zu "unterstuetzen", da hoert sich 8GTexel/sec wohl nach was an?

Selbst wenn ich mich an Kirk's Argumentation halte und mit Instruktionen rechnen wuerde, ich muss kein hardware engineer sein um zu raten dass NV30 wenn das maximum der Instruktionen zu denen er faehig ist eingesetzt werden er sich einfach hinlegen wird und stirbt.

Ailuros
2003-01-08, 16:27:11
Originally posted by Man O Man
The R35 specs are as follows:

0.13-micron GPU

8 pixel rendering pipelines

1 massively parallel vertex rendering engine

256-bit memory interface 8 x 32-bit "DDR2" memory controllers running at 700MHz (effectively 1.4GHz) for the "DDR2" or "GDDR3"

700MHz GPU clock speed

Up to 33.6 GB/s of memory bandwidth

Up to 134GB/s of memory bandwidth using compression

AGP 8X support

Full DX9+ Pixel & Vertex Shader support


ROFL.......R350 ist nach wie vor auf .15um. Dabei ist natuerlich RV350 eine ganz andere Geschichte.

Demirug
2003-01-08, 17:02:50
Originally posted by Ailuros
Demirug,

Ich hab den Interviewer von Ballew privat gefragt und auch extremetech's Ausschnitt damals mitinbegriffen; die Antwort war klipp und klar 8*1 und dabei kann ich leider nicht sagen wie sich der Kommentar ueber Extremetech anhoerte.

Ich sag's mal so: ein Reviewer der in einem Review behauptet dass Anisotropic filtering nicht der Rede wert ist, weil er zu dumm ist herauszufinden wie man es einschaltet, sollte die Schreiberei lieber beiseite lassen.

Im Endeffekt ist es sowieso egal. Ich bezweifle dass NV30, selbst mit den exotisschten Bandbreiten-schonenden Methoden, die Bandbreite hat 4GTexel/sec zu "unterstuetzen", da hoert sich 8GTexel/sec wohl nach was an?

Selbst wenn ich mich an Kirk's Argumentation halte und mit Instruktionen rechnen wuerde, ich muss kein hardware engineer sein um zu raten dass NV30 wenn das maximum der Instruktionen zu denen er faehig ist eingesetzt werden er sich einfach hinlegen wird und stirbt.

Ailuros, letztenden Endes ist es ja auch egal weil egal welche Aussage man nimmt es gibt immer irgendwo ein Limit von 8*1. Entweder es gibt wirklich nur 8 TMUs oder es können maximal 8 Werte pro Takt von den TMUs in die PS-ALUs übertragen werden.

Und was nun die Rechenpower des NV30 angeht so warte ich lieber mal einen richtigen Test ab. Aber die 1000 Ops wird man sicher im Onlinerendering nicht wirklich nutzen können.

ow
2003-01-08, 18:54:34
Originally posted by Spake

aber wiederrum konnten sie bei einem takt von 220 trotzdem mit der Ti4200 mit 250 konkurrieren



Aber nur in deinen Träumen;)
GF3ti200 Niveau würde ich der Matrox zugestehen, mehr nicht
(Schau dir ruhig mal einige Reviews im Web an).

Spake
2003-01-09, 00:26:48
@ ow
sag mal wieso bist du nicht in der lage einen post zu machen welcher nicht derart extram unüberzeugt ist
kann doch nett so schwer sein
im übrigen rewiews von seiten welche überhaupt eins gemacht haben hab ich gelesen und dort liegt dir perf über der einer Ti4200 ohne AA etc
und bei FAA weit höher

Ailuros
2003-01-09, 06:39:22
Es ist mir schnuppe zu welcher Karte Parhelia vergleichbar ist, was Leistung betrifft.

Heutzutage ist es Schwachsinn mit verschwommenen Texturen zu spielen. FAA ist ja nur edge AA im Endeffekt (wobei man die Daumen druecken muss dass auch alle Ecken geglaettet werden) und die Treiber sind auf Level2x Aniso festgenagelt, was nur um wenig besser ist als trilineare Filterung.

Mit einem hoch qualitativen und schnellem Aniso Algorithmus waere es eine ganz andere Geschichte; es wundert wohl keinen warum Matrox Level8x Aniso nie freigeschalten hat, wozu die Karte eigentlich dazu faehig ist hm?

Spake
2003-01-09, 16:06:24
es geht mir ja auch um die verkaufszahlen
von irgendwas muss eine firma ja leben
und SiS verkauft auch ihre xabre trotz texturqualität
nvidia hat schlechteres AA als die R300 und verkauft auch ihre karten
Ati hat das qualitativ schlechtere AF als nvidia und verkauft auch karten

aber matrox braucht kohle um einen neuen chip zu entwickeln und sich aus der nische zu erheben
irgendwann werden sie dort auch von Ati und nvidia ordentlich angegriffen und diese beiden hersteller haben mehr ressourcen

außerdem gings ursprünglich um die archtitektur und der damit verbndenen performance der parhelia und die ist dank neusten treibern gleichziehend mit der Ti4200

Ailuros
2003-01-09, 16:48:12
Obwohl ich nichts spektakulaeres in neuesten reviews gesehen habe, hast Du nen Link zu welchen mit den neuesten Matrox Treibern?

Aber selbst wenn die Leistung ebenbuertig sein sollte (was ich bezweifle ausser man konzentriert sich nur auf eine handvoll von Applikationen), Parhelia kostet auch umso einiges mehr.

Ein paar Kleinigkeiten noch:

es geht mir ja auch um die verkaufszahlen
von irgendwas muss eine firma ja leben

Finanziell liegt Matrox so schlecht wie nie im Moment. Parhelia verbrachte - zwischen re-designs - ueber 3 Jahre im Development und man kann es auch sehen nur an den Spezifikationen.

SiS verkauft auch ihre xabre trotz texturqualität

Wie toll sich Xabre verkauft im Vergleich zu MXen oder 9000-ern ist fraghaft. Auf jeden Fall wenn einer der grossen IHV's mit solchem Mist ankommt dann nennt man es einen cheat (siehe z.B. quack); SiS da sie Geld verdienen muessen duerfen dass dann ohne weiteres?

nvidia hat schlechteres AA als die R300 und verkauft auch ihre karten
Ati hat das qualitativ schlechtere AF als nvidia und verkauft auch karten

Na und? So etwa war es auch mit R200 gegen NV20/25. Erstmal war NV20/5 fuer seine Zeit fuer HRAA optimiert und dabei war dank der fehlenden Bandbreite 2xRGMS in hohen Aufloesungen sowieso die beste Alternative. Zweitens ist die anisotropische Filterung auf Radeons nicht bei weitem so schlecht wie oft praesentiert.

Auf jeden Fall wenn man R300 mit Parhelia was anisotropic betrifft vergleicht ist es eher 16-tap gegen 128-tap und das mit etwa gleichem prozentuellem Performance-Einbruch. Wobei aber der grosse Unterschied ist dass R300 auch fast dreimal schneller ist ohne AA/aniso als eine Parhelia. Dabei kostet sie auch weniger und zudem kann sie bessere EER liefern als Parhelia mit 16x samples.

Wenn ich heutzutage ueber 350euro fuer ne Karte bezahlen muss, dann erwarte ich auch dementsprechend Faehigkeiten. Ich koennte eventuell ein Auge zudruecken wenn es zu einem 100-150 euro Strassenpreis kommt. Aber fuer high end Preise moechte ich dann auch bitte dementsprechende Qualitaet und Leistung.

ow
2003-01-09, 18:05:32
Originally posted by Spake
@ ow
sag mal wieso bist du nicht in der lage einen post zu machen welcher nicht derart extram unüberzeugt ist
kann doch nett so schwer sein
im übrigen rewiews von seiten welche überhaupt eins gemacht haben hab ich gelesen und dort liegt dir perf über der einer Ti4200 ohne AA etc
und bei FAA weit höher


Guckst du hier:

http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/

Da siehst du was die Parhelia leistet.

StefanV
2003-01-09, 19:10:03
Originally posted by ow
Da siehst du was die Parhelia leistet.

nein, tut man nicht wirklich, da die Treiber noch sehr alt sind...

Sind halt noch die '1er' ohne Game Profile...

Ailuros
2003-01-09, 19:30:19
Und wie steht's mit den 1.02.042 Treibern?

http://www.digit-life.com/articles2/digest3d/index.html

Wobei Parhelia fuer quad-textured Spiele optimiert sein sollte, sieht es hier immer noch nicht so imposant aus:

http://www.digit-life.com/articles2/digest3d/itogi-video-ssam-w2k-p41024.html

Bei 1280x1024 ist das Verhaeltnis dann: Ti4200=~60+fps Parhelia ~45+fps. Ebenbuertig wo?

Spake
2003-01-17, 21:41:39
OK nach jahren wieder online
hatte ein prob mit meinem OS und der CPU

erstens ja ich meine die neuesten treiber
zweitens eine frage:
wen würdet ihr der R9500 gegenüberstellen
ich würde sie gegen die Ti4200 stellen
und genau das ist das wichtige denn die
perf der Ati ist selten höher/gleich wie
die der nvidia und trotzdem sind sie konkurrenten

deswegen meine ich dass die Matrox ein konkurrent zu der Ti4200 wäre wenn sie preislich auch dort liegen würde und wenn es so gewesen wäre(schön am spekulieren :-) ) hätte ich mir die parhelia gekauft weil sie meiner meinung nach dann besser gewesen wäre aufgrund zahlreicher bonusfeatures der parhelia

damit wäre dann auch mehr geld für einen nachfolger da gewesen und damit hätte matrox letzendlich mehr gewinn gemacht
selbst bei nicht top verkaufszahlen

kommt schon parhelia vs R9500 ist doch nett so weit hergegriffen und außerdem wenn so viel aus den treibern rausgeholt werden konnte kann dass doch nicht das ende der fahnenstange sein und die entwicklung der treiber hätte matrox bestimmt bezahlen können bei guten verkaufszahlen der parhelia

Ailuros
2003-01-17, 23:52:02
Na mal den "wenn..." und "aber..." abgesehen...

hätte ich mir die parhelia gekauft weil sie meiner meinung nach dann besser gewesen wäre aufgrund zahlreicher bonusfeatures der parhelia

Sowie etwa Surround Gaming? Entweder noch zwei Bildschirme oder einen grossen triple screen Monitor der genauso viel kostet wie ein ganzer ultra high end PC. Dabei ist die Anzahl von absolut benutzbarer Features auf Parhelia eher im Nachteil im Vergleich z.B. mit R300. Parhelia ist nur fuer quad texturing optimiert und selbst bei quad textured Spielen ist die Leistung zum Heulen langsam.

Spake
2003-01-18, 14:33:37
versuch mal darüber nachzudenken was gewesen wäre wenn matrox die parhelia preislich gegen die Ti4200 gestellt hätte
bestimmt kein mega ansturm auf die grafikkarte aber genügend um sich ein einkommen zu sichern

bei den features gibt es teilweise dx9 unterstützung, FAA, gute bildqualität und neben weiteren auch sourround-gaming

so und jetzt als die ersten grafikkarten mit Tv-out für den massenmarkt ausgeliefert wurden waren sie auch beliebter als ohne genau das gleiche bei den ersten Grakas an die man 2 monitore anschließen konnte
was könnte dann wohl bei der Parhelia der fall sein?!
und außerdem wer verlangt denn 3 TFTs anzuschließen
3 CRTs reichen mir auch mehr als genug
und die kosten halten sich in grenzen
qualitätsbewusste spieler hätten sich bestimmt eine parhelia geholt
und selbst wenn man nur 2 TFTs anschließt ist aufgrund der 2 DVI stecker die bildausgabe z.B. viel besser als bei der Ti4200

Ailuros
2003-01-18, 15:08:48
versuch mal darüber nachzudenken was gewesen wäre wenn matrox die parhelia preislich gegen die Ti4200 gestellt hätte

Ich bezahle Hartware nicht mit theoretischen Summen sondern mit wahren hart verdientem Geld. Tut mir leid aber dieser Realitaet kann ich nicht entschweifen.

bei den features gibt es teilweise dx9 unterstützung, FAA, gute bildqualität und neben weiteren auch sourround-gaming

teilweise dx9 Unterstuetzung: beschraenkt sich nur auf HW displacement mapping (was voruebergehend wohl kaum von jemand benutzt wird, weil die Implementation zuweit von der Konkurrenz entfernt ist; es ist schade da DM eines der wirklich aufregenden dx9 features ist, aber so ist es nun mal); VS 2.0, quad-texturing und 10bit per RGBA Rechen-genauigkeit.

Surround gaming: wie gesagt entweder drei Bildschirme oder ein ueberaus teurer triple monitor, sonst ist es nutzlos.

FragmentAA: wie oft muss man wetten das auch alle Ecken geglaettet sind? Kein stenciling mit dem Algorithmus und auesserst begrenzte Texturen Filterung oder um es in eine bessere Perspektive zu setzen:

mangelhaftes Texturen Anti-Aliasing.
In Sachen EER ist sogar ATI mit ihrem 6x modus umso einiges weiter vorne und bietet 128-tap Aniso mit minimalem Einbruch. So toll....

so und jetzt als die ersten grafikkarten mit Tv-out für den massenmarkt ausgeliefert wurden waren sie auch beliebter als ohne genau das gleiche bei den ersten Grakas an die man 2 monitore anschließen konnte
was könnte dann wohl bei der Parhelia der fall sein?!

Mit Parhelia ist man mit seinen multimonitor Eigenschaften am besten angelegt, zweifellos. Aber dann eher fuer professionelle Anwendungen und nicht fuer mainstream gamers.

qualitätsbewusste spieler hätten sich bestimmt eine parhelia geholt
und selbst wenn man nur 2 TFTs anschließt ist aufgrund der 2 DVI stecker die bildausgabe z.B. viel besser als bei der Ti4200

Qualitaet ist relativ und dabei sollte man alle Eigenschaften durch den Durchschnitt schneiden. Zuwas braucht man nochmal multimonitor fuer Spiele?

Da mir Bildqualitaet in Spielen genauso wichtig ist in Spielen wie Wiedergabe, tut es mir leid aber Texturen die nur marginal besser als trilinear aussehen sind mir im Jahr 2002/3 vollkommen gleichgueltig.

nagus
2003-01-18, 15:56:51
Originally posted by Man O Man
The R35 specs are as follows:

0.13-micron GPU

8 pixel rendering pipelines

1 massively parallel vertex rendering engine

256-bit memory interface 8 x 32-bit "DDR2" memory controllers running at 700MHz (effectively 1.4GHz) for the "DDR2" or "GDDR3"

700MHz GPU clock speed

Up to 33.6 GB/s of memory bandwidth

Up to 134GB/s of memory bandwidth using compression

AGP 8X support

Full DX9+ Pixel & Vertex Shader support

möchte echt wissen wem solche unrealistischen specs einfallen?

265bit 1400Mhz ram ... :lol::lol::lol:

IMHO sicher NICHT 2003 .... dazu noch 8x32 architektur... *pfff* aber natürlich

mapel110
2003-01-18, 16:05:18
ich finde die specs sehr realistisch !

nagus
2003-01-18, 16:54:55
Originally posted by mapel110
ich finde die specs sehr realistisch !

ich auch.... nur nicht 2003

Quasar
2003-01-18, 17:11:27
WTF ist ein "R35".....'ne Mischung aus R350 und nV35??

Egal, die Specs klingen jedenfalls spassig...

Demirug
2003-01-18, 17:25:54
Originally posted by Quasar
WTF ist ein "R35".....'ne Mischung aus R350 und nV35??

Egal, die Specs klingen jedenfalls spassig...

Klar das ist der neue Chip von ATIIDIA.

Pussycat
2003-01-18, 18:43:13
Zum Parhelia: ich bezweifle, ob man ihn für den hätte Preis anbieten können, da Matrox die yields bestimmt nicht so gut wie ATI und NV optimieren kann.

Wenn es ginge, hätte das IMO doch deutlich mehr Käufer gebracht. Das FAA funtzt prima, und wenn es manchmal ein paar Kanten vergisst, finde ich das nicht weiter tragisch - die wichtiger werden geglättet, und dass extrem schnell. Das gute TV-out wäre bestimmt auch für viele Leute ein kaufgrund gewesen.

Ausserdem ist die Platine schöner als alle andere die ich jemals gesehen hab :)

Xmas
2003-01-18, 20:06:02
Originally posted by nagus
ich auch.... nur nicht 2003
Warum nicht? Zugegeben, die Angaben sind recht hoch, aber im Bereich des möglichen für Ende 2003. Mit einem ausgereiften .13µm-Prozess sollte ein 40% höherer Takt drin sein. Aufgrund des Aufbaus von DDR2/GDDR3 sind hier erst recht 700 MHz in Jahresfrist möglich. Eine große Herausforderung dürfte aber im PCB-Design liegen.

Ein 8-Way CMBC ist aber die logische Weiterentwicklung, es gibt IMO keinen Grund eine 8x32Bit-Aufteilung anzuzweifeln.

Pussycat
2003-01-18, 20:32:02
Doch. Der, dass die Bandbreite bei diesem system eh schon mehr als ausreichend ist.

Und bezüglich dem Thema: Da ja ATI im moment mehr als genug bandbreite hat dank 256 bit, wie warscheinlich findet ihr 12 oder gar 16 pipes?

Xmas
2003-01-18, 22:07:16
Originally posted by Pussycat
Doch. Der, dass die Bandbreite bei diesem system eh schon mehr als ausreichend ist.

Und bezüglich dem Thema: Da ja ATI im moment mehr als genug bandbreite hat dank 256 bit, wie warscheinlich findet ihr 12 oder gar 16 pipes?
"Bei diesem System"? Gehst du also davon aus dass man bei vier Kanälen bleiben wird? Ich gehe deswegen von 8 Kanälen aus, weil die restlichen Teile des Chips möglicherweise darauf ausgelegt sind, Blöcke von 32 Byte (32 Bit * 2 (DDR) * 4 (Burstlänge)) zu lesen/schreiben. Man müsste evtl. Änderungen vornehmen, um von der doppelten Breite zu profitieren. Mit 8x32Bit muss einfach nur der Memory Controller ausgetauscht werden, der dann Anfragen schneller abarbeiten kann. Natürlich bringt das nur etwas, wenn der Chip auch genügend Daten anfordert.

Zu 12 oder 16 Pipes: Eine Verdopplung der ALUs ist unrealistisch, das würde viel zu viel Platz/Transistoren kosten. Es wäre aber z.B. im Bereich des möglichen, die Z-Units zu verdoppeln, so dass ein reiner Stencil/Z-Pass 16 Pixel/Takt liefern würde.

Pussycat
2003-01-18, 22:19:40
Ati hat ja gesagt, sie wollten die transistorenzahl bei jeder generation verdoppeln, und mit dem R300 hat man's ja geschafft. Und wieso zuviel platz? 150 M müsste doch sicher zu produzieren sein in 0,13, oder?

Demirug
2003-01-18, 22:44:29
Originally posted by Xmas

"Bei diesem System"? Gehst du also davon aus dass man bei vier Kanälen bleiben wird? Ich gehe deswegen von 8 Kanälen aus, weil die restlichen Teile des Chips möglicherweise darauf ausgelegt sind, Blöcke von 32 Byte (32 Bit * 2 (DDR) * 4 (Burstlänge)) zu lesen/schreiben. Man müsste evtl. Änderungen vornehmen, um von der doppelten Breite zu profitieren. Mit 8x32Bit muss einfach nur der Memory Controller ausgetauscht werden, der dann Anfragen schneller abarbeiten kann. Natürlich bringt das nur etwas, wenn der Chip auch genügend Daten anfordert.

Zu 12 oder 16 Pipes: Eine Verdopplung der ALUs ist unrealistisch, das würde viel zu viel Platz/Transistoren kosten. Es wäre aber z.B. im Bereich des möglichen, die Z-Units zu verdoppeln, so dass ein reiner Stencil/Z-Pass 16 Pixel/Takt liefern würde.

Wobei 8 Känale schon sehr herftig sind. Und dann ist auch erst mal schluss, weil man sonst mehr Chips bräuchte.

Mehr Pipes? Im Prinzip eine schöne Sache, aber wie du ja schon sagst der Platz wird da echt zu Problem.

Ich denke mal das nächste grosse Problem das es zu lösen gibt ist die Teilweise schlechte Balance zwischen Vertex und Pixelshader.

Mir gefällt da nach wie vor die Idee das sich der Pixel und der Vertexshader die gleichen Rechenzellen teilen und der Chip so dynamisch der Last entsprechend eine zuordnung vornehmen kann. Damit wäre dann auch das Problem der TMUs für die Vertexshader gleich mitgelöst.

Auch fange ich an mich zu fragen in wie weit eigenständige AA-Sampler und Interpolatoren noch Sinn machen. Bei zunehmender länge der Shader haben diese teile immer weniger zu tun. Also sollte irgendwann der Punkt erreicht sein wo es mehr Sinn macht diese Aufgaben von den allgemeinen Rechenzellen erledigen zu lassen und die freiwerdende Fläche für mehr dieser Zellen zu nutzen.

Xmas
2003-01-18, 22:51:14
Originally posted by Pussycat
Ati hat ja gesagt, sie wollten die transistorenzahl bei jeder generation verdoppeln, und mit dem R300 hat man's ja geschafft. Und wieso zuviel platz? 150 M müsste doch sicher zu produzieren sein in 0,13, oder?
Nun ja, bei der nächsten Generation, also R400/NV40 muss man erst mal schauen ob da der Pipeline-Begriff in dieser Form noch Sinn macht.
150 Mio. Transistoren dürften machbar sein, aber bei einem R400 mit 16 "Pipelines" und PS/VS 3.0 würde ich schon von 200+ Mio. ausgehen. Das halte ich in 0.13µ für nicht (wirtschaftlich) machbar. Da sollte man IMO eher an der Taktschraube drehen.

duckofdeath
2003-01-18, 23:15:28
ich würde meinen eine effektivere architektur(dementsprechend auch komplexer) ht mehr sinn als nur an der taktschraube zu drehen *hustintel*

Pussycat
2003-01-19, 12:52:14
Ich bezweifle, ob IMR's noch viel effizienter werden können.

Rampage 2
2003-01-19, 14:28:11
Originally posted by robbitop
okok ich denke ein paar dinge sind dort sehr unglaubwürdig...
zB 8x4..LOL das wäre ja sowas von ineffiziente Transistorenverschwendung....aber mehr Füllrate braucht der chip schon wenn sich ein 256bit DDR Interface lohnen soll (was sagen die Experten??). 4Vertexshader??? das aktuelle Array reicht doch locker is eh overkill, aber wer weiss ob man das umbauen kann...

die Frage ist, ob NV aufgrund der 8Pipe Architektur auf 256bit umstellt (weil es dort eben nicht ausgeschöpft wird) sondern einfach nur höhere Taktraten bringt ... und vieleicht signifikannte verbesserungen im FSAA Bereich...

ansonsten recht glaubhaft der rest...die Frage ist, woher die das wieder wissen wollen...

wenn mehr Texel-Pipelines eingesetzt werden, erhöht sich die Texel-
füllrate - und im Moment sind Games stark füllratenlimitiert, da die
aktuellen Grafikkarten mehr als genug Speicherbandbreite haben wie
man es an der R9700Pro sehen kann. Was soll also an einer höheren
Texelfillrate schlimm sein. Der wurde doch während der GF2 GTS so
stark bewundert, oder?

BTW: War die höhere Texelfillrate etwa der Grund warum die GF2 GTS
schneller war als die Voodoo5 oder nur weil der V5 die T&L
Einheit fehlte???

duckofdeath
2003-01-19, 14:43:00
also 16/2 ist sicher besser als 8/4

Demirug
2003-01-19, 14:55:47
Pussycat, da ist noch viel Spielraum ;)

Rampage 2, die 32 TMUs wären ja nicht so das Problem. Eine TMU ist ein eher kleines Teil. Aber diese TMUs müssen auch mit Daten versorgt werden. Nur beim Point-sampling werden da schon 1024 Bit/Takt gebraucht. Bei Bi TMU braucht man 4096 und bei Tri sogar 8192 Bits. Selbst mit einem grossen Cache kommt da die Bandbreite nicht mehr mit.

Das nächste Problem ist das die gesampelten Werte auch verrechnet werden müssen. Pro TMU braucht man um effektiv zu bleiben auch eine PS-ALU = viele Transitoren.

Und wie schon mehrfach gesagt wird eine Architektur je mehr TMUs/ALU pro Pipe verbaut sind zunehmend ineffektiver.

duckofdeath
2003-01-19, 15:02:58
was soll man dagegen machen? einfach eine 8/1 architektur mit 2ghz betrieben wäre also effektiver als eine 1 ghz 16/1???

Demirug
2003-01-19, 15:19:47
Originally posted by duckofdeath
was soll man dagegen machen? einfach eine 8/1 architektur mit 2ghz betrieben wäre also effektiver als eine 1 ghz 16/1???

Nein. das würde in etwa auf das gleiche rauskommen. Wobei 16*1 bei 1 Ghz etwas besser sein sollte.

Was ich meine ist folgendes.

16*1 ist besser als 8*2 ist besser als 4*4 ist besser als 2*8 ist besser als 1*16. (bei gleicher Taktfrequenz)

nagus
2003-01-19, 15:38:57
Originally posted by Demirug


Nein. das würde in etwa auf das gleiche rauskommen. Wobei 16*1 bei 1 Ghz etwas besser sein sollte.

Was ich meine ist folgendes.

16*1 ist besser als 8*2 ist besser als 4*4 ist besser als 2*8 ist besser als 1*16. (bei gleicher Taktfrequenz)


also der nächste logische schritt wäre von 8x1 auf 16x1 ... oder gäbs da noch eine andere, bessere lösung? ( vielleicht 2x4x1 )

duckofdeath
2003-01-19, 15:41:50
ok! ist aber 8*2 net kurzzeitig einfacher zu realisieren (zB theoretisch am r350??)

Demirug
2003-01-19, 15:55:14
nagus, ja logisch wäre 16*1 aber ich hoffe ja nach wie vor das man das bleiben läst und ein PS-Array baut. Und diese Array dann die gesamte Aufgabe von der Interpolation bis zu den AA-Sampeler übernimmt. Damit wäre dann auch endlich ein voll programmierbares AA möglich.

Was meinsts du mit 2x4x1? Handelt es sich dabei um die Idee das die PS an zwei verschiedehnen Dreiecken zur gleichen Zeit arbeiten können?

Falls ja muss man sich die Frage stellen in wie weit das beim R300 und NV30 nicht sowieso schon möglich ist.

duckofdeath, einfacher wäre es nur im Bezug auf die benötigten Transitoren. Von Design ist eine 8*2 Architektur komplexer als eine 16*1 Architektur.

duckofdeath
2003-01-19, 15:59:13
ich hab eh die transistoren gemeint! weil ich schätz mal viel komplexer als 120 million transistoren sind in 0,15µ unmöglich aber wer weiß was ati aus dem ärmel zaubert! warum geht man eigenlich nicht mehr auf multichiplösungen hin? speicherbandbreite wäre doch genug vorhanden und dann wäre das füllratenproblem auch beseitigt!

Demirug
2003-01-19, 16:05:43
multichip ist zu teuer. Dazu kommt noch das Problem das alle derzeit benutzten multichip lösungen (inkl. R300) mehr oder weniger ineffektiv sind.

Sunrise
2003-01-19, 16:47:15
Multichip-Lösungen sind im privaten Bereich absolut nicht wirtschaftlich, das macht Sinn bei riesigen Simulatoren, mit hohen AA-Raten und hohen Auflösungen.

Der NV35 wird meiner Meinung nach eine Art R300 mit NVIDIA-Technik und viel höheren Taktraten. Also sehr vergleichbar mit dem R350 werden. Ob und wann man bei NVIDIA auf ein 256Bit-Interface springt, steht wohl noch in den Sternen, man wird es aber wohl erst dann einsetzen, wenn du aktuelle Technologie (0.13µm) absehbar die Grenzen erreicht hat, damit hat man theoretisch eine Art Joker in der Hinterhand. NVIDIA wird sich sicherlich nicht nochmal auf eine derart starke Verzögerung wie beim NV30 einlassen, guten Firmen lernen aus Fehlern, wozu ich NVIDIA eigentlich zähle.

Ich sehe das im übrigen analog zur R350, die wohl die 300er Architektur auf die Spitze treiben wird, um NVIDIA hier davonzuziehen.
Ich habe aktuell allerdings keine Idee, wie man das erreichen will, 0.15µm sind meiner Meinung nach sehr nahe am Limit, erst recht bei 120 Millionen Transistoren aufwärts. Ich schätze ein Maximum an Chiptakt von 400MHz, wenn man bedenkt das der R350 die Transistorzahl wiederrum erhöhen wird (also nicht wirklich vergleichbar mit den Takten, die jetzt schon eine R300 erreicht).

Priorität liegt hier sicherlich beim R400/NV40, diese werden sowohl sehr hohe Fillrates bringen, als auch eine stark verbesserte
Ausnutzung des Speicherinterface (8x32 wäre hier denkbar).

Spake
2003-01-19, 17:38:40
@ Demirug

was meinst du mit teuren multichiplösungen
sind die leiterbahnen zu teuer oder das platinenlayout

ich meine z.B.
man nehme immer den abgespeckten refresh einer generation und verbaue ihn dann doppelt
sprich: immer die mx-serie doppelt verbauen
z.B. eine Graka mit 2 Geforce 4 Mx Chips müsste doch ähnlich teuer sein wie eine Graka mit 1 Geforce 4 Ti 4x00
die mx hatt etwa 30 mil transistoren und die nv25 etwa 63 mil transistoren

so muss man keinen neuen high-end chip entwerfen und spart dort etwas und hat aufgrund der wenigen transistoren eine hohe ausbeute und wenn nvidia noch eine voodoo-ähnliches SLI-design benutz dürfte alles geritzt sein
das know-how besitzen sie locker

und dass die mx nur dx7 ist ist egal weil das hier nur ein beispiel ist in welchem es um das prinzip geht
man hätte ja auch 2 R9000Pros verbauen können

die leistung eines solchen chips müsste doch ganz ordentlich sein und dass man hierbei ruhig irgendwo sparen kann hat man bei bitboys designen gesehen wo man fast alle nebenwirkungen durch das dual-design ausgeglichen hat

Demirug
2003-01-19, 18:31:05
Multichip lösungen haben einige Probleme und dazu gibt es auch eine ganze menge studien die das alles aufzeigen. Das ergebniss ist aber immer das man bei Multichiplösungen die einzelnen Chips mehr Leistung brauchen als wenn man alle Funktionen auf einem Chip vereint.

Die Mehrkosten entshen dadurch das man:

- Mehr PCB Fläche braucht
- Mehr DIE Flache braucht
- Mehr Pins braucht
- Mehr Leiterbahnen
- Mehr Speicher
- Mehr bzw grössere Kühlkörper braucht
- Mehr Teile verbauen muss

Und das alles um die gleiche Leistung zu erreichen die man auch mit nur einen Chip erreichen kann.

Multichiplösungen sind daher immer ein Zeichen dafür das man technisch nicht in der Lage ist die Leistung mit einer Singlechip Lösung zu erreichen.

duckofdeath
2003-01-19, 19:50:57
also ich glaube, dass 2 r300 sauteuer aber auch sauschnell sein würden!

nagus
2003-01-20, 23:15:50
Originally posted by Demirug
nagus, ja logisch wäre 16*1 aber ich hoffe ja nach wie vor das man das bleiben läst und ein PS-Array baut. Und diese Array dann die gesamte Aufgabe von der Interpolation bis zu den AA-Sampeler übernimmt. Damit wäre dann auch endlich ein voll programmierbares AA möglich.

Was meinsts du mit 2x4x1? Handelt es sich dabei um die Idee das die PS an zwei verschiedehnen Dreiecken zur gleichen Zeit arbeiten können?

Falls ja muss man sich die Frage stellen in wie weit das beim R300 und NV30 nicht sowieso schon möglich ist.

duckofdeath, einfacher wäre es nur im Bezug auf die benötigten Transitoren. Von Design ist eine 8*2 Architektur komplexer als eine 16*1 Architektur.


deine idee mit dem PS-Array finde ich ziehmlich geil, aber das was ich mit 2x4x1 eigentlich meinte, ist, dass man 2 GPUs sozusagen auf einen chip baut und die beiden dann parallel arbeiten läßt.... eine einfache erweiterung bzw. erhöhung von 2x4x1 auf 4x4x1 wäre dann möglicherweise einfacher, als wenn man immer wieder "neue" architekturen konstruieren muß, oder gibts vielleicht sowas schon?

nagus
2003-01-20, 23:16:45
Originally posted by duckofdeath
also ich glaube, dass 2 r300 sauteuer aber auch sauschnell sein würden!

da kannst du gift drauf nehmen...

im profi-bereich gibts sowas ja schon länger (4x R300 mit 24xFSAA == SAU GEIL ;D ;D ;D

Demirug
2003-01-20, 23:32:37
Originally posted by nagus



deine idee mit dem PS-Array finde ich ziehmlich geil, aber das was ich mit 2x4x1 eigentlich meinte, ist, dass man 2 GPUs sozusagen auf einen chip baut und die beiden dann parallel arbeiten läßt.... eine einfache erweiterung bzw. erhöhung von 2x4x1 auf 4x4x1 wäre dann möglicherweise einfacher, als wenn man immer wieder "neue" architekturen konstruieren muß, oder gibts vielleicht sowas schon?

Von mir ist die Idee nicht wirklich. Das ganze ist nur die logische Fortsetzung was NVIDIA jetzt mit den Vertexshadern gemacht hat. Der nächste Schritt nach einem PS-Array wäre dann die Zusammenführung des VS-Arrays mit dem PS-Array. Wenn man sich den Befehlssatz der PS und VS 3.0 anschaut macht das auch sinn weil die möglichen Befehle fast identisch sind. Der Vorteil eines solchen Kombinationsarray ist das man die Leistung des Chips noch besser ausnutzen kann weil sich der VS und PS nicht mehr gegenseitig blockieren können. Das einzige was dann noch limitieren sein könnte ist das Trisetup. Aber unter umständen könnte man auch hier Teilaufgaben auf das Array verlagern.

Zwei GPUs auf einen DIE zu bauen ist nicht unbedingt eine performante lösung. Es ist einfacher die Anzahl der Pipelines bzw Shader zu erhöhen da dabei im Prinzip einfach nur die bestehenden Blöcke kopiert werden müssen. Von der Architektur sind primär nur 2 Schritte kompliziert

1. Einführen einer neuen Einheit (z.b. Vertexshader)
2. Einführung der ersten parallel Einheit dazu.

Für jede weitere parallel Einheit kann man dann auf die vorhandenen Strukturen aufbauen.

Ailuros
2003-01-21, 02:56:05
Demirug,

Ich kann mir vorstellen dass IHV's schon auf dem Weg sind was eine zukuenftige Vereinigung von Shaders betrifft.

Zu multi-chip; wie sieht's mit so einer Loesung aus:

Originally posted by SA:

Highly scalable problems such as 3d graphics and physical simulation should get near linear improvement in performance with transistor count as well as frequency. As chips specialized for these problems become denser they should increase in performance much more than CPUs for the same silicon process. This means moving as much performance sensitive processing as possible from the CPU to special purpose chips. This is quite a separate reason for special purpose chips than simply to implement the function directly in hardware so as to be able to apply more transistors to the computations (as mentioned in my previous post) It also applies to functions that require general programmability (but are highly scalable). General programmability does not preclude linear scalablity with transistor count. You just need to focus the programmability to handle problems that are linearly scalable (such as 3d graphics and physical simulation). In makes sense of course to implement as many heavily used low level functions as possible directly in hardware to apply as many transistors as possible to the problem at hand.

The other major benefit from using special purpose chips for highly scalable, computation intensive tasks is the simplification and linear scalablity of using multiple chips. This becomes especially true as EDRAM arrives.

The MAXX architecture requires scaling the external memory with the number of chips, so does the scan line (band line) interleave approach that 3dfx used. With memory being such a major cost of a board, and with all those pins and traces to worry about, it is a hard and expensive way to scale chips (requiring large boards and lots of extra power for all that external memory). The MAXX architecture also suffers input latency problems limiting its scalability (you increase input latency by one frame time with each additional chip). The scan line (band line) method also suffers from caching problems and lack of triangle setup scalability (since each chip must set up the same triangles redundantly).

With EDRAM, the amount of external memory needed goes down as the number of 3d chips increase. In fact, with enough EDRAM, the amount of external memory needed quickly goes to 0. EDRAM based 3d chips are thus ideal for multiple chip implementations. You don't need extra external memory as the chips scale (in fact you can get by with less or none), and the memory bandwidth scales automatically with the number of chips.

To make the maximum use of the EDRAM approach, the chips should be assigned to separate rectangular regions or viewports (sort of like very large tiles). The regions do not have their rendering deferred (although they could of course), they are just viewports. This scaling mechanism automatically scales the computation of everything: vertex shading, triangle setup, pixel operations, etc. It does not create any additional input latency, allows unlimited scalablity, and does not require scaling the memory as required by the previously mentioned approaches.

Tilers without EDRAM also scale nicely without needing extra external memory. They are in fact, the easiest architecture to scale across multiple chips. You just assign the tiles to be rendered to separate chips rather than the same chip. The external memory requirements while remaining constant, do not drop however, as they do with EDRAM. The major problem to deal with is scaling the triangle operations as well as the rendering. In this case, combining the multi-chip approach mentioned for EDRAM with tiling solves these issues. You just assign all the tiles in a viewport/region to a particular chip. Everything else is done as above and has the same benefits.

In my mind, the ideal 3d card has 4 sockets and no external memory. You buy the card with one socket populated at the cost of a one chip card. The chip has 32 MB of EDRAM, so with 1 chip you have a 32MB card. When you add a second chip you get a 64MB card with double the memory bandwidth and double the performance. For those who go all out and decide to add 3 chips, they get 128 MB of memory, and quadruple the memory bandwidth and performance. Ideally, the chip uses some form of occlusion culling such as tiling, or hz buffering with early z check, etc. Using the same compatible socket across chip generations would be a nice plus.

In the long run I agree with MFA. Using scene graphs or a similar spatial heirarchy simplifies and solves most of these problems, including accessing, transforming, lighting, shading, and rendering, only what is visible. They also simplify the multiple chip and virtual texture and virtual geometry problems. We will need to wait bit longer for it to appear in the APIs though.

There are indeed two problems generally associated with partitioning the screen across multiple chips. Load balancing, and distributing the triangles to the correct chip. Both have fairly straight forward, very effective solutions, though I can't mention the specifics here.
Those are some good comments, MFA. However, there is no need to defer rendering and no need for a large buffer. Each chip knows which vertices/triangles to process, without waiting.

Dazu noch eine Klaerung von Russ Schultz:

A multichip module.

Essentially, the separate chips are placed on a small "pcb" or substrate and the whole substrate is encased in epoxy to make the chip. From the outside, it looks like a single 'chip'.

From what we've seen, the price increase for this isn't horrible, but your useable die space goes down because you've got a pad ring around each chip in the module, and you have to pay for the more expensive packaging. I think BGA chips need the substrate anyways, so all you're paying for is the extra time in manufacturing (which costs money) as the robots place the multiple chips on the substrate.

Many flash chips are done this way, as are smart media cards (The larger ones). ATIs recent mobility chips are MCMs, as is Philips new MP3 decoder chip(Ptoooie! ours is better).

Mit solch einer Loesung haette ich theoretisch nichts einzuwenden (obwohl ich wiederum bezweifle dass IHV's jemals zu Loesungen kommen wo man pin-compatible chips ueber mehrere als nur eine Generation einfach nur dazustecken kann). Ich stimme zwar zu was die Kosten betrifft, aber fuer mich ist bei bisherigen PC multichip Loesungen der Speicher-Verbrauch und nicht geteiltes unter den chips triangle setup ein wichtigeres Problem; nichtsdestominder wird der Endpreis verdoppelt aber nicht die Wiedergabe (mit Ausnahme natuerlich AA-Situationen).

Ich hab keine Ahnung ob und wie ATI die bisherigen Probleme mit AFR (ich bezweifle dass die das gleicher Verfahren benutzt haben) in dem professionellen 4x R300 setup geloest haben aber ich will's hoffen. Mir sind single chip Loesungen trotzdem lieber.

Demirug
2003-01-21, 08:12:13
Originally posted by Ailuros
Ich hab keine Ahnung ob und wie ATI die bisherigen Probleme mit AFR (ich bezweifle dass die das gleicher Verfahren benutzt haben) in dem professionellen 4x R300 setup geloest haben aber ich will's hoffen. Mir sind single chip Loesungen trotzdem lieber.

R300 benutzt kein AFR mehr. Laut dem was man erfahren konnte funktioniert das ganze nach folgendem Prinzip:

Alle Chips bekommen die gleiche Geometrie und berechnen diese auch im VertexShader. Der Framebuffer ist nun Blockweise (8*8 Pixel) den einzelnen Chips zugeordnet. Alle Blöcke die ein Chip nicht rendern soll sind entsprechend makiert und Pixel welche in solche Blöcke fallen können schnell verworfen werden. Am Ende wird dann das Gesamtbild aus den Blöcken aller Chips erzeugt. Alternativ kann man aber wohl auch alle Chips alles rendern lassen und dadurch die Anzahl von AA-Samples pro Pixel erhöhen.

Ailuros
2003-01-21, 12:40:59
Interessant. Und dabei haben sie nur 64mb ram pro chip oder hab ich das falsch verstanden?

Demirug
2003-01-21, 12:49:33
Originally posted by Ailuros
Interessant. Und dabei haben sie nur 64mb ram pro chip oder hab ich das falsch verstanden?

Rein theoretisch wären pro Chip nach wie vor 256 MB möglich. Dabei müssen aber wie bei allen Multichip lösungen bisher die Texturen einmal pro Chip abgelegt werden. Der Framebuffer wird natürlich zwischen den Speichern der unterschiedlichen Chips aufgeteilt.

Ailuros
2003-01-21, 13:02:33
Also hat der 4xR300 setup (wie heisst die Firma nochmal?) dann 4x 64mb ram, oder gibt es mehr als nur eine Version davon? (z.b. auch 4x128 als Alternative).

64mb ram pro chip erscheint mir ein bisschen wenig mit den Faehigkeiten dieser setups.

Uebrigens hast Du einen Link wo ein derartiges high end Simulatoren System analysiert wird? Ich wuerde gerne mal wissen wie das ganze im Zusammenhang mit dem System host ram verlaeuft, oder ist es so etwa wie in einem PC im Grundsatz?

Demirug
2003-01-21, 13:12:58
Originally posted by Ailuros
Also hat der 4xR300 setup (wie heisst die Firma nochmal?) dann 4x 64mb ram, oder gibt es mehr als nur eine Version davon? (z.b. auch 4x128 als Alternative).

64mb ram pro chip erscheint mir ein bisschen wenig mit den Faehigkeiten dieser setups.

Uebrigens hast Du einen Link wo ein derartiges high end Simulatoren System analysiert wird? Ich wuerde gerne mal wissen wie das ganze im Zusammenhang mit dem System host ram verlaeuft, oder ist es so etwa wie in einem PC im Grundsatz?

AFAIK gibt es derzeit nur eine 4*64 MB Variante.

Mit einem Link kann ich leider nicht aufwarten. Aber das Prinzip ist durchaus das gleiche nur das ebene andere Kommunikationsbusse benutzt werden und man teilweise mehrer solcher Karten syncron schalten (im Bezug auf den VSync) kann.

Als API für solche Mehrkarten Anwendungen kann man zum Beispiel WireGL benutzten. Dabei handelt es sich um eine OpenGL Variante welche das verteilte Rendern erlaubt.

Tarkin
2003-01-21, 13:21:42
hey, Chip.de weis mal wieder mehr ;D

http://www.chip.de/news_stories/news_stories_9544184.html

Ailuros
2003-01-21, 13:31:42
Originally posted by Tarkin
hey, Chip.de weis mal wieder mehr ;D

http://www.chip.de/news_stories/news_stories_9544184.html


Man kann deshalb davon ausgehen, dass NV35 und NV40 ebenfalls noch im 0,13-Mikron-Prozess hergestellt werden und mit einer ähnlichen Rendering-Struktur wie der NV30 ausgestattet sind.

WOW Captain Obvious!!!

Vergleicht man die Transistor-Anzahl des GeForce-FX-Chips (NV30) mit denen des NV35 und NV40, verfügen die beiden zukünftigen Chips "lediglich" um 5 und 25 Millionen mehr elektische Schaltregler als die GeForce-FX-GPU.

Fraglich ist woher die Schlussvolgerung eigentlich kommt. Wenn das wahr sein sollte was NV35 betrifft, dann waere es hoechstwahrscheinlich nur eine hoeher getaktete NV30.

mapel110
2003-01-21, 15:25:03
Originally posted by Ailuros
Fraglich ist woher die Schlussvolgerung eigentlich kommt. Wenn das wahr sein sollte was NV35 betrifft, dann waere es hoechstwahrscheinlich nur eine hoeher getaktete NV30.

was anderes wird auch nicht erwartet :)

pussycat@uni
2003-01-21, 15:35:02
aber eine quellenverweisung wäre soch nicht schlecht, oder?

Und dass sich der nv30 verzögert WEIL nv selber produziert ist IMO auch blödsinn. Es sollte doch gerade schneller gehen.

Spake
2003-01-21, 19:17:59
@ pussycat
was ist wenn nvidias qualitätsansprüche höher sind als die von anderen herstellern

@ Demirug

wenn die beiden Chips der Multichip-lösung wenig transistoren haben dürfte es doch nicht so schlimm sein und man hätte einen hohe ausbeute und hohe taktraten (der sage sollte doch auch benutzt werden)
wenn die chips so gebaut werden dass sie fehler besitzen aber diese im doppelbetrieb ausgleichen( so wie bei früheren bitboys-designen)
gleichzeitig müsste man dann nur einen Chip pro jahr entwickeln etc.

letztendlich dürfte es doch wenigstens nur bei den Chips schön billig werden weil:
antstatt einen Chip mit 100 mil trans zu haben hat man 2 Chips mit z.B. 50 mil transistoren
dadurch dürfte es keine probs bei der ausbeute geben etc.

sind alles nur theoretische ideen die wahrscheinlich heute doch nicht so billig wären wie single-chip-lösungen
aber immerhin haben sich 2 hersteller mit solchen chip-designs vorwagen wollen und deswegen denke ich dass wenn sie es getan hätten, hätten sie auch die probs mit multichip gelöst genauso wie viele probs nun mit TBDR gelöst wurden



außerdem denke ich nicht dass es nicht mehr möglich sein sollte SLI zu verbessern

Demirug
2003-01-21, 19:56:58
SLI ist heute auch nicht mehr sinnvoll einsetzbar da inzwischen auch das Vertex Processing auf dem Chip gemacht wird. Heute braucht man fürs Multichip design viel komplexere Lösungen wenn man wirklich eine verdopplung der Leistung erreichen will.

Zudem kommen noch eine reihe weitere Probleme bei einem Multichip design auf die Entwickler zu. Zum Beispiel ist "Render To Texture" mit getrennten Texturspeicher nur sehr schwer zu realiesieren.

Ich bleibe also bei meiner Meinung:

Wer Multichip Lösungen baut tut dies weil er die Leistung mit einem Chip nicht umsetzten kann.

Pussycat
2003-01-21, 20:27:47
Originally posted by Spake
@ pussycat
was ist wenn nvidias qualitätsansprüche höher sind als die von anderen herstellern

Könnte sein, glaube ich aber nicht! wenn's um die Qualität ginge, hätte man strengere Vorschriften machen können. Bis jetzt war immer nur die rede von schneller fertig, genau wie bei den 9700'er.

Eusti
2003-01-21, 21:25:32
Originally posted by Demirug
SLI ist heute auch nicht mehr sinnvoll einsetzbar da inzwischen auch das Vertex Processing auf dem Chip gemacht wird. Heute braucht man fürs Multichip design viel komplexere Lösungen wenn man wirklich eine verdopplung der Leistung erreichen will.

Zudem kommen noch eine reihe weitere Probleme bei einem Multichip design auf die Entwickler zu. Zum Beispiel ist "Render To Texture" mit getrennten Texturspeicher nur sehr schwer zu realiesieren.

Ich bleibe also bei meiner Meinung:

Wer Multichip Lösungen baut tut dies weil er die Leistung mit einem Chip nicht umsetzten kann. Wobei sich da naturlich heute auch neue Ansatzpunkte ergeben. Man könnte das Vertex-Processing in einem und die Pixel-Pipelines in den anderen Chip legen. Mit den 107Mio. Transistoren scheint man nahe der Grenze des möglichen zu sein. Da wäre ein getrennter Chip vielleicht nicht völlig unsinnig.

Unregistered
2003-01-21, 21:39:56
Ich hab jetzt schon ein paar mal gehört das bei 150M Transistoren in 0,13µ das Ende der Wirtschaftlichkeit erreicht wäre, da sind wir ja schon nahe dran.

Demirug
2003-01-21, 21:54:26
ja Eusti das wäre aber kein Multichip in dem Sinne das man zwei Identische Chips verbaut sondern das man 2 verschiedehe Chips benutzt. OK das wollte 3Dfx ja auch machen. Das ganze ist aber nur dann sinnvoll wenn man wie gesagt nicht mehr alles in einem Chip bekommt.

Wenn schon multichip dann aber doch lieber mit identischen Chips. Diese sollten aber in der Lage sein follgendes zu tun.

Austausch von Daten aus dem jeweils angebunden Speicher. Damit keine daten mehr doppelt gespeichert werden müssen. Also im Prinzip das zusammenschalten von 2 Crossbars zu einer.

Austausch von fertig gerechneten Vertexdaten.

Austausch von Pixelinformationen.

Damit wäre ein nahezu perfektes verteilen der Last möglich. Das Problem wäre nur der sehr bereite Datebus zwischen den beiden Chips.

Ailuros
2003-01-22, 01:28:32
Dass man mit multichip Loesungen generell wenig Transistoren verbrennt bezweifle ich eher.

Altes vaporware Beispiel:

Spectre = 2 rampage x 25M Transistoren + 1 Sage x 20M Transistoren = 70M Transistoren. Wieviele hat noch mal NV20/NV25? (und dabei nur mit dx8.0 komplianten Shadern).

letztendlich dürfte es doch wenigstens nur bei den Chips schön billig werden weil:
antstatt einen Chip mit 100 mil trans zu haben hat man 2 Chips mit z.B. 50 mil transistoren
dadurch dürfte es keine probs bei der ausbeute geben etc.

Erstmal hat Demirug recht dass die chips identisch sein muessen. Aber selbst wenn das obrige moeglich waere ist die 2 chip x 50M trotzdem teurer als single chip mit 100M. Frag einfach mal einen Inginieur warum.

Minimalisierung der PCB-Groesse ist ein hoechsterwuenschtes Ziel jedes Inginieurs.

Eusti
2003-01-22, 06:33:24
Originally posted by Ailuros

Aber selbst wenn das obrige moeglich waere ist die 2 chip x 50M trotzdem teurer als single chip mit 100M. Frag einfach mal einen Inginieur warum.Vorsicht, mit solchen Aussagen. Es gibt auch Konstellationen, in dennen ein 2 Chip Vorteile bringt. Bei den Chipsätzen wird dieses bereits seit langem gemacht, obwohl es nicht nötig wäre. ABer durch die getrennten Chips, kann man das Design besser verstehen und schneller entwickeln.

Aber zurück zu deinem Beispiel: Es gibt ab einer bestimmten Transistorenzahl einen Einbruch in dem Verhältnis brauchbare Chips zu gesamt produzierten Chips. Dieses könnte Beispielsweise so aussehen: Ausbeute:

- 50Mio. Transistoren = 95%
- 100Mio. Transistoren = 90%
- 150Mio. Transistoren = 80%
- 200Mio. Transistoren = 65%
- 250Mio. Transistoren = 45%
- 300Mio. Transistoren = 20%

Somit ist es sinnvoller, 1x100Mio zu bauen, als 2x50, weil es kaum einen Unterschied in der Ausbeute gibt. Wenn die Größe der Chips allerdings DEUTLICH zunimmt, kommt man an ein Problem. 150Mio. Transistoren, kann man noch ganz gut alleine verbauen. Aber bei 300Mio. Transistoren, ist die Ausbeute so beschissen, das man besser 2 x 150 Mio. bauen könnte.

Wenn also nun jemand einen Megachip bauen möchte (z.B. 16 Pipes, 8 Vertexshader um Doom3 auch mit AA spielen zu können), dann ist vielleicht doch irgendwann der Sprung zu 2 getrennten Chips zu erwarten.

Ailuros
2003-01-22, 19:26:17
Gegen die Logik ist nichts einzuwenden, jedoch bleibt ja auch nichts stehen was Technologie betrifft. Dabei gibt es momentan noch etliche Alternativen die bis jetzt noch nicht oder nicht ganz ausgenutzt wurden, bis multichip wirklich eine Notwendigkeit darstellen koennte.

Ein paralleles Beispiel ist der Mythos mit der sogenannten Bandwidth-Schwelle die wir eigentlich schon erreicht haben sollten vor ein paar Jahren nach so manchen Vorsehungen der Vergangenheit.

Theoretisch kann multichip Sinn machen, aber dann nur wenn alle Probleme die bis jetzt auftauchten (sei es Soft- oder Hartware) auch wirklich ueberwaeltigt werden.

Wenn also nun jemand einen Megachip bauen möchte (z.B. 16 Pipes, 8 Vertexshader um Doom3 auch mit AA spielen zu können), dann ist vielleicht doch irgendwann der Sprung zu 2 getrennten Chips zu erwarten.

Doom3? Slow paced single player game, wobei schon die heutigen high end Karten AA/aniso anwenden koennen (>R300)

8 Vertexshader? Wie waer's mit einer multi array + multithreading PS/VS Einheit im Gegenteil?

In der Effizienz der heutigen Pipelines kann auch noch so manches verbessert werden, bevor der Sprung gleich zu 16x pipes kommen muss.

Wenn Du meinst wie es heute aussehen wuerde wenn jemand eine Karte (ob single oder multichip ist egal) bauen wuerde mit dem voerwaehnten Potenzial, dann wuerde es in beiden Situationen eine zu teure Loesung ausmachen.

Bei mir ist die Frage nicht wie man Wege finden kann, Spezifikationen staendig nach oben zu treiben, sondern erstmal die Effizienz der zeitlichen Hartware zu erhoehen.

Spake
2003-01-22, 19:28:20
öhm falls es euch nett aufgefallen ist:
cih weiß dass 2 Chips auf einem board teurer ist als 1 chip aber ich schreib ja auch was vom yield und der damit verbundenen kostenreduzierung

und wie ich der aussage von demirug entnehme sagt er selber dass Dual-chip-designs noch nicht fertig entwickelt sind und noch verbesserungen beinhalten könnten wenn man weiter mit ihnen arbeitet und der Datenbus müsste doch ganz gut zu früheren konzepten von den bitboys passen

außerdem 3Dfx ist technologisch noch nie 100% auf die nase gefallen(wohlgemerkt technologisch) und sie setzten auf ein Dual-Chip-lösungen weil sie wahrscheinlich wussten welche perf man noch herausholen könnte

und naja eigentlich schreibe ich doch nicht genau dass es 2 gleiche chips sein müssen sondern dass man einen chip entwickelt welcher eben macken aufweist aber mithilfe des 2. chips eben diese macken ausgleicht

StefanV
2003-01-22, 19:53:22
Originally posted by Eusti
Vorsicht, mit solchen Aussagen. Es gibt auch Konstellationen, in dennen ein 2 Chip Vorteile bringt. Bei den Chipsätzen wird dieses bereits seit langem gemacht, obwohl es nicht nötig wäre. ABer durch die getrennten Chips, kann man das Design besser verstehen und schneller entwickeln.


Gibt aber auch noch einen anderen Grund, den du 'unterschlagen' hast:

Entwicklungskosten und nutzung der einzelnen Bauteile.

Die 'Soutbridge' mit PCI, USB usw wird nicht so oft geändert wie die NB...
Ganz ab davon kann man auch unterschiedliche NBs und SBs miteinander kombinieren, hat also mehr flexiblität bei den Boards, KT266A und KT333 Boards gibts z.B. mit jeweils 2 unterschiedlichen SBs, KT266A mit der VT8233 und 8233A, der KT333 mit KT8233A und 8235...
Gibt allerdings von ASROCK auch ein KT266A Board mit VT8235 SB :-)

Ailuros
2003-01-22, 19:57:05
Die roadmap der 3dfx vor Verkauf enthielt keine multichip Loesungen mehr fuer den PC Markt nach Spectre, da sie auf TBDR/Gigapixel setzen wollten.

Pussycat
2003-01-23, 15:29:19
Originally posted by Unregistered
Ich hab jetzt schon ein paar mal gehört das bei 150M Transistoren in 0,13µ das Ende der Wirtschaftlichkeit erreicht wäre, da sind wir ja schon nahe dran.

TSMC empfiehlt 0,15 auch nur bis 96 M.

Spake
2003-01-24, 20:27:38
nja wär schon verrückt wenn 0.13 bei 150M schon aus wär
der nv40 übertrifft dass wohl locker und bis dahin ist die ausbeute bei 0.09(0.11)
wohl noch zu schlecht für solch einen chip

Crazytype
2003-01-25, 22:58:39
naja was ich peinlich finde ist das in der Geforce FX kein bisschen 3dfx drin ist, cool das ich nicht der einzige Megaman X/3-6 Fan bin.

Spake
2003-01-26, 14:04:19
jupp ich hatte gedacht dass nvidia bald die coolsten features von 3Dfx aufnimmt und weiterentwickelt ich meine selbst 3Dfx mit ihren IMR wollten dank gigapixel auf TBDR umsteigen und nvidia hat die technologie aber benutz sie nett

Richthofen
2003-01-26, 14:33:13
dann muss das ja nen Grund haben nicht wahr?

Glaube kaum das die dem kategorisch abgeneigt sind. Die sind nicht blöd.
Wenn es sinnvoll wäre zum jetzigen Zeitpunkg und technologisch machbar, hätten sie schon auf TBR und Co gesetzt.
Bisher hat aber noch keiner die Machbarkeit in dem Performancebereich bewiesen.
Und ansonsten hatte 3dx nun wirklich nicht viel Technologie zu bieten ausser vielleicht das AA.

Ailuros
2003-01-26, 16:14:53
Originally posted by Richthofen
dann muss das ja nen Grund haben nicht wahr?

Glaube kaum das die dem kategorisch abgeneigt sind. Die sind nicht blöd.
Wenn es sinnvoll wäre zum jetzigen Zeitpunkg und technologisch machbar, hätten sie schon auf TBR und Co gesetzt.
Bisher hat aber noch keiner die Machbarkeit in dem Performancebereich bewiesen.
Und ansonsten hatte 3dx nun wirklich nicht viel Technologie zu bieten ausser vielleicht das AA.

Ich bezweifle dass der Ausfall eines high end TBDR der einzige Grund sein koennte.

Ein Markt in dem sie effektiv das Gigapixel Talent einsetzen koennten ist z.B. der PDA/mobile Markt. Da muessen Platformen und Stromverbrauch so klein wie moeglich sein, und da gibt es auch keine groessere Probleme da eine breite Variant von Software benutzt werden kann.

3dfx Technologie wurde im NV25/NV30 bis zu dem Punkt eingesetzt wie man es als notwendig empfand.

Dabei wurde die Truebheit von Quin/9-tap umso einiges reduziert, 16bpp rendering quality verbessert, eine Video Processing Engine dazugefuegt, 2xRGMS/quincunx bekamen den "filter on scanout" Trick, 4xS wurde dazugefuegt und ein paar caching/Z-tricks (siehe GP Patente) fuer LMA-II. All das nur im NV25.

Wer an NV30 interessiert ist, sollte mal in Richtung Gigapixel Portofolio und "Tile-HSR Logic" nachschauen. Uebrigens ist in den >40xx Treibern ein Slider fuer Anisotropic da (application/balanced/aggressive).

Fast 100 Inginieure sitzen nicht still und es wird auch das benutzt was mit den unterliegenden Designs/Roadmaps am besten laeuft.

Geoff Ballew hat in einem Interview bei B3D gesagt, dass sie es nicht ausschliessen dass sie mal DF benutzen koennten. Aber dann nur wenn sie alle "corner cases" Kompatibilitaets-Probleme damit geloest haben.

Bl4de
2003-02-02, 04:44:19
Als ich vorhin in der Gamestar gelesen habe wurde ich fast vom Blitz getroffen.

Da lese ich doch glatt, daß die NV35 eine Dualchip Lösung wird. Also ehrlich gesagt glaube ich es erst wenn ich das woanders lese. Die Gamestar ist ja für sowas bekannt ^^

Also haltet Ihr das für möglich, bedenkt man daß schon ein Chip so eine Kühlung benötigt ?

Bl4de
2003-02-02, 04:47:44
Oh ich habe mir gerade den Thread "nv 35 spezifikationen, irgendwem bekannt?" durchgeschaut ... da wurde schon darüber spekuliert ... also vergesst das hier :D

duckofdeath
2003-02-02, 05:34:46
also dann der nv 35 mit atomkraftwerk und kompressorkühlung

Kampf Ameise
2003-02-02, 10:53:29
doppel chip- doppel flow fx- hab gehört die nv35 lüfter lösung soll auch teilweise als rohreiniger verwendet werden, da wird jedes rohr sauber ;)

ow
2003-02-02, 11:48:10
Originally posted by Bl4de
Oh ich habe mir gerade den Thread "nv 35 spezifikationen, irgendwem bekannt?" durchgeschaut ... da wurde schon darüber spekuliert ... also vergesst das hier :D

Vergessen tun wir´s nicht, deshalb hab ich´s in den Thread hier angehängt.:)

Ailuros
2003-02-02, 14:21:43
Wenn ich mir die paar Kommentare die die professionelle R300/multichip Loesung betrifft ansehe, dann ist momentan multichip immer noch nicht Kosten-effektiv. Ich kann mir nicht vorstellen dass NV35 so grosse Unterschiede zu NV30 haben wird; nichtsdestominder gehoeren beide zur gleichen Generation.

Fuer professionelle Simulatoren vielleicht schon wo Kosten auch wenig wichtiger sind, aber ich bezweifle dass der Endverbraucher mehr als 500$ fuer eine Karte bezahlen wuerde, ausser sehr seltenen Ausnahmen.

Spake
2003-02-02, 15:41:15
hehe
"the first Geforce Fx Ultra will kost about 700 $ and will boost incredible performance"

also ein paar noobs oder nvidioten wirs bestimmt geben außerdem gabs auch interessen für die vodoo 5 6000
nur den preis wird nvidia wohl nie richtig senken können

aber mal ernsthaft so ein design wird nvidia für den desktop-markt in absehbarer zeit nie bauen

Unregistered
2003-02-05, 23:18:11
Wenn der NV35 eine Dualausführung des GeForce FX wird, ist das meine Karte :-)

Endlich wird die Gehäuserückwand nicht durch irgendwelche unsinnigen PCI Karten verschandelt, nur noch ein hübscher kleiner 380 V Kraftstromlüfter. Oder ich schliesse das Teil an meine Wakü an, und nehme den Heizkörper meines Zimmers als Radiator....