PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kann der NV30 schneller sein als der R300? Eine TECHNISCHE Betrachtung


Demirug
2002-07-20, 11:50:51
In die letzten beiden Tage hörte man hier öfters etwas in der folgenden Art:

"Ja der R300 ist schnell aber warte bis der NV30 kommtdann wird NVIDIA wieder King of the Hill sein"

Leider erscheinen solche Aussage ohne Argumente eher wie eine Trotzreaktion und "Weil es bisher immer so war" ist kein gutes Argument da sowohl der R300 wie auch der NV30 von neuen Teams designt wurden.

Vergleichen wir also einmal die Pipelines der beiden Chips (beim NV30 natürlich nur die spekulativen Daten)

AGP: Da auch der NV30 wohl über AGP 3.0 verfügt hat hier keiner einen Vorteil:

VS: Der R300 verfügt über einen 4 fachen VS nach der 2.0 spec da das gleiche auch für den NV30 erwartet wird haben wir wieder einen gleichstand

TriangleSetup: Hier stehen sich im wesentlichen HyperZ III und LMA III gegenüber. Da über beide Systeme noch nicht viele oder gar keine Informationen zur Verfügung stehen ist es schwer hier eine Beurteilung vorzunehmen.

Fragment Pipeline und PS: Beide werden wohl über eine 8 fache Pipeline verfügen. Da der NV30 bei den TMUs und Shader ALUs die R300 vorlage auf jeden Fall ebenfalls einhalten wird und möglicherweise sogar noch darüber hinausgeht haben wir hier einen Gleichstand mit einem möglichen Vorteil für den NV30.

AA: Da man bei ATi jetzt auch zum MSAA übergegangen ist und man bei NVIDIA ebenfalls von MSAA ausgehen muss dürften wir wohl auch hier einen gleichstand haben.

Kommen wir nun noch zu den nicht direkt zur Pipeline gehörenden Einheiten die aber denoch einen Einfluss auf die Leistung haben.

Taktrate: Hier hat man bei NVIDIA aufgrund des 0,13µ process einen Vorteil.
OnChip Caches: Hier hätte man beim NV30 die Möglichkeit diese großzügier auszulegen da 0,13µ mehr Spielraum offen lassen.

Den kompliziertesten Punkt habe ich mir bis zum Schluss aufgehoben. Das Memoryinterface.

Wenn NVIDIA ebenfalls auf ein 256 bit Interface setzt ist es einfach da wir einen gleichstand hätten.

Bleibt NVIDIA aber seiner Aussage treu das 256 bit der Overkill wären wird es nun kompliziert.

Bei einem 128 bit Interface sind im Moment ca 16 GB/s drin. Das ist erst mal weniger als beim R300. Ein einfacher Trick wäre natürlich die Verwendung eines 160 Bit (20 GB/s) oder gar 192 Bit (24GB/s) Interface. Man würde seiner Aussage treu bleiben und trotzdem die Bandbreite haben.

Wenn man sich aber nicht auf dieses Spiel einläst stellt sich die Frage ob ein 128 NV-CBMC Interface gegen das 256 Bit ATi-CBMC Interface des R300 antreten kann. NVIDIA müsste immerhin ca 25% Bandbreite einsparen.

Da die erhöhte Bandbreite im wesentlichen vom AA verbraucht wird beschränke ich die Betrachtung darauf.

Das beide eine 4 fache CB benutzen hat ATi einen höheren Bandbreitenverlust durch unnötig gelesenen Daten. Aber wie gross ist dieser wirlich?

Beim AA Rendern wird der R300 zu Tiler (er ist aber immer noch ein IMR). Es wird also unabängig davon wie viele AA-Samples inerhalb einer 8*8 Tile gerendert werden müssen immer die gesamte Tile gelesen und wieder geschrieben. Da die daten komprimiert werden können liegt die größer einer Tile (4 AA Samples) ca zwischen 86 und 2048 Byte. Da die größe nicht fest ist liegt der verschnit dabei zwischen 0 und 15 Byte. Der mögliche Verschnitt (im Bereich AA-Samples) liegt also im Bereich von 0 - ca 16%. Der Verschnitts beim 128 bit interface wäre zwar geringer aber es reicht trotzdem nicht wenn NVIDIA auf ein ähnliches Verfahren wie ATi beim AA-Sample speichern setzt.

Ergebniss:

Bei der reinen Chipleistung wird der NV30 den R300 wohl schlagen können. Was die Gesamt Leistung angeht kommt es auf das Memory Interface an:

NV30 mit 256 bit Interface (4 fach CBMC) ist wahrscheinlich schneller als R300
NV30 mit 256 bit Interface (8 fach CBMC) ist sehr wahrscheinlich schneller als R300
NV30 mit 192 bit Interface (6 fach CBMC) ist wahrscheinlich schneller als R300
NV30 mit 160 bit Interface (5 fach CBMC) ist möglicherweise schneller als R300
NV30 mit 128 bit Interface (4 fach CBMC) ist wahrscheinlich langsammer als R300

Das gilt natürlich nur wenn NVIDIA nicht ein vollkommen neues AA Verfahren bringt. Mit einem FAA Verfahren ändert sich die Lage natürlich erheblich.

Ebenfalls könnte der Einsatz von 3D-Ram die Situation zum Vorteil von NVIDIA beeinflussen.

So und nun wünsche ich euch viel Spass dabei mich zu zerreissen ;D

egdusp
2002-07-20, 12:00:21
Originally posted by Demirug
Leider erscheinen solche Aussage ohne Argumente eher wie eine Trotzreaktion und "Weil es bisher immer so war" ist kein gutes Argument da sowohl der R300 wie auch der NV30 von neuen Teams designt wurden.


Bei Ati hat ja angeblich das ArtX Team den R300 designt, aber was meinst du mit neuem Team bei nVidia?
Laut Anand arbeitet nVidia mit 3 unabhängigen Designteams. Ich nehme jetzt einfach mal an, dass diese 3 Teams sich nur auf die Grafikchips und nicht auf nForce, etc.. beziehen. Also dürfte das original Geforce 3 Team den NV30 designt haben. Da der NV25 und NV17 (die von den beiden anderen Teams) nur geringe Änderungen und kaum Innovationen (im Gegensatz zu den natürlich vorhandenen Verbesserungen) aufweißen, SPEKULIERE ich, dass das GF3/NV30 Designteam das beste ist.

Von einem komplett neuen Designteam habe ich nichts gehört und die 3dfx Leute wurden ja in die bestehenden integriert.

mfg
egdusp

Demirug
2002-07-20, 12:03:54
Originally posted by egdusp
Von einem komplett neuen Designteam habe ich nichts gehört und die 3dfx Leute wurden ja in die bestehenden integriert.

mfg
egdusp

Genau das war damit gemeint. Der NV30 wird der erste Chip sein an dem die 3dfx Leute von Anfang an beteiligt waren. Es handelt sich zwar nicht um ein komplett neues Team aber ca 50% der Teammitglieder sollen von 3dfx kommen.

Kennung Eins
2002-07-20, 12:05:03
NVidia hat momentan massig Probleme mit dem 0.13 µm Fertigungsprozess.
Es könnte durchaus passieren, daß NV zwischenzeitlich noch beim 0.15 bleiben muß.

Wenn das so wäre - ihr könnt es euch ja denken - wird der NV30 wohl alleine schon wegen niedrigen Taktraten Probleme mit dem R300 bekommen.

Quasar
2002-07-20, 12:17:39
Dürfte ich deine technische Betrachtung mit Gerüchten vermischen?

- externer TnL-Chip (mit evlt. eigenem Memory-Interface, optimalerweise mit eDRAM)
- Multichipfähig (2xSLI hätte dann auch 256Bit, würde nur RAM-Menge nicht Bandbreite verschwenden)
- Möglicherweise RG mit Vertex-Jittering à la 3dfx

So, das wären die "offiziellen" Gerüchte, die seit langem florieren.

Ich schätze, man wird bei nV wirklich bei einem 128Bit-DDR Interface bleiben, allerdings mit extrem hoher Taktrate. Das neu vorgestellte Infineon DDR-RAM soll mit deutlich weniger Spannung auskommen, dabei echte 450MHz erreichen und gleichzeitig mit CL4 betrieben werden können (der RAM auf der GF4 Ti4600 soll CL6 haben, R300: k.A.).

Dazu die Herstellung in 0,13µ, welche IMO für ein Minimum von 350MHz Chiptakt gut sein dürfte (eher mehr, falls TnL wirklich ausgelagert wird). Bei höherem Chiptakt wird auch das HSR effektiver, spart also nochmal Bandbreite ein.

Dazu ein "entkoppelter" 8xCBMC, für jede Pipe einer ;), zusätzlich entweder ein separat angebundener Z-Buffer (oder inkl. Kompression zumind. teilweise im Chip integriert). Dazu dürfte das AF verbessert werden, da offenbar schon der R300 mit einer TMU direkt anisotrop filtern kann :)

Man könnte somit mit einer Single-Lösung von 350/450 Core/Mem IMO knapp unterhalb der R300 bleiben (oder gleichziehen, je nach Setting) und mit einer Dual-Lösung die Performance-Krone zurückholen (und reiche Fans melken).

Doomtrain
2002-07-20, 12:28:10
Eine wirklich excellente Betrachtung Demirug!

ATI hat das mit dem R300 diesmal wirklich klasse gemacht. Während NV mit dem 0.13micron Prozess kämpft und ein wenig auf der Stelle tritt, wird ATI ihr neustes Baby an den Mann/Frau bringen. Wenn ich lese, das der R300 schon DDR-II ready ist, dann bin ich echt zuversichtlich, das diesmal ATI das Ruder übernimmt.

Wenn der NV30 schneller "sein sollte" wird das 0.13micron Refresh des R300 wieder die Führung übernehmen. Es wird wieder ein Katz und Mauspiel geben, keine Frage.

Das gute an der Situation ist, das ATI die Preise machen kann und der NV30 KEINE 700€ kosten wird!

Aber das soll mich alles nicht jucken. Egal wie teuer, ich bestelle mir sofort nach dem Launch die Hercules 3D Prophet 9700 ;)

Thomas

Ikon
2002-07-20, 12:28:37
Das ist ein guter Punkt, viele nehmen hier von vornherein an dass sich der NV30 von Anfang an mit hohen Taktraten und hoher Ausbeute produzieren ließe. Schließlich ist das aber der erste Anlauf von TSMC einem derart komplexen Chip im 130nm-Prozess zu fertigen. Ob sie das auf Anhieb hinkriegen ist durchaus zweifelhaft, zumindest rechne ich aber mit größeren Verspätungen beim NV30. Über den Speichercontroller zu diskutieren ist natürlich schwierig, da es bisher ja handfeste Infos darüber gab/gibt (bis auf die Aussage, dass ein 256bit-Interface zu diesem Zeitpunkt zu aufwendig sei -> dem steht entgegen, dass NV nur ungern hinter der Konkurrenz zurückliegt). Wie würde sich wohl ein NV30 mit hohem Chiptakt (-> höhere Fillrate) aber mit 128bit-Speicherinterface (-> relativ niedrige Speicherbandbreite) schlagen?

Fragman
2002-07-20, 12:30:04
ich bezweifle doch sehr, dass nv einfach so auf den 0.13 fertigungsprozess verzichten kann. der chip soll 120 mio transistoren haben, dass sind nochmal 13 mio mehr als beim r300. nv koennte den nv30 dann sicher nicht hoeher, wenn ueberhaupt so hoch wie ati takten, glaub also nicht daran. die werden jetzt so lange warten, bis der prozess hinhaut. ich persoenlich rechne mit mindestens 350 mhz chiptakt eher sogar mit 400. also geh ich davon aus, das der chip von der rohleistung schneller sein wird. wie es mit aa performance aussieht, keine ahnung, das liegt dann wohl am speicher der verwendet wird und natuerlich am speichercontroller. speicher glaub ich an sehr hochgetaktetes ddr wie jetzt auch schon. wenn nv das chipdesign komplett ueberarbeitet hat, wovon so langsam auszugehen ist, koennten die vielen transistoren ja auch fuer grosse chaches draufgehen.

@demirug:
speicher mit 160 bit? wieso wird sowas nicht schon verwendet?

Doomtrain
2002-07-20, 12:34:46
Originally posted by Ikon
Wie würde sich wohl ein NV30 mit hohem Chiptakt (-> höhere Fillrate) aber mit 128bit-Speicherinterface (-> relativ niedrige Speicherbandbreite) schlagen?

Die Karte müßte extrem Bandbreitenschonend arbeiten um nicht dort limitiert zu werden. Wenn du Bandbreite sparst und die Fillrate erhöhst kommst du auch zu Ziel. Ein 256bit Interface ist meiner Meinung nach noch nicht unbedingt notwendig. Mal sehn was NV uns serviert!

Ikon
2002-07-20, 12:38:57
Originally posted by Doomtrain


Die Karte müßte extrem Bandbreitenschonend arbeiten um nicht dort limitiert zu werden. Wenn du Bandbreite sparst und die Fillrate erhöhst kommst du auch zu Ziel. Ein 256bit Interface ist meiner Meinung nach noch nicht unbedingt notwendig. Mal sehn was NV uns serviert!

*zustimm*
Für den Enduser wäre ein hochgetaktetes 128bit-Interface wohl weniger wünschenswert, wenn man die nötigen Highend-Speicherchips bedenkt (preislich gesehen).

Doomtrain
2002-07-20, 13:13:08
Originally posted by Ikon


*zustimm*
Für den Enduser wäre ein hochgetaktetes 128bit-Interface wohl weniger wünschenswert, wenn man die nötigen Highend-Speicherchips bedenkt (preislich gesehen).

Klaro, man glaubt gar nicht was 2,2 oder 2,5ns Speicherchips kosten.

Demirug
2002-07-20, 13:18:28
Wenn der NV30 ein einzelner Chip ist (davon gehe ich aus) braucht man mit mehr als 0,13µ gar nicht anzufangen. Soweit mir aber bekannt ist wurde das Gerücht das TSMC Problem mit 0,13µ hat von einem TSMC Mitbewerber gestreut.

@Ikon:

wenn ich mir die Preise für Multilayer PCBs anschaue und an die zusätzlichen Pins beim Chippacking denken bin ich mir nicht so sicher ob ein Hochgetacktetes 128 Bit Interface wirklich teurer ist als ein 256 bit Interface.

@Fragman:

Im Prinzip ist es kein großes Problem ein 160 bit Interface zu bauen. Allerdings ist dann ein 5 Kanal CBMC unerläslich. Die einzigen die bisher diese Technik hatten waren NVIDIA und dort hat das 128 bit Interface ausgereicht um erster zu bleiben.

@Doomtrain:
"Wenn der NV30 schneller "sein sollte" wird das 0.13micron Refresh des R300 wieder die Führung übernehmen. Es wird wieder ein Katz und Mauspiel geben, keine Frage."

Eine intressante Hypothese die aber wohl darauf beruht das der NV30 auch nur eine TMU pro Pipe hat oder der R300 beim Refresh ebenfalls eine zusätzliche TMU pro Pipe bekommt.

@Quasar:
Eine SLI Lösung wäre sicher möglich. Diese bekäme aber definitive eine andere Nummer (NV31???) da man sich bei Singlechip Boards die zusätzlichen Pins auf dem Chip sicher ersparen will.


IMO ist ein R300 auch mit einem 128 bit Interface zu schlagen. Das setzt aber ein intelegentes AA oder schnellen 3D-Ram vorraus.

Quasar
2002-07-20, 13:24:43
Demirug,

Hm, wer weiß. Im momentanen Treiberstadium sicherlich, doch ich bin mir fast sicher, daß der R300 noch mind. 10-15% wird zulegen können, und deutlich mehr als 450MHz DDR sehe ich für den nV30 nicht. Außerdem hindert niemand ATi daran, ebenfalls besseren RAM zu verbauen, was AFAIK keine Änderungen am Design voraussetzt.

Kennung Eins
2002-07-20, 13:25:35
Originally posted by Demirug Soweit mir aber bekannt ist wurde das Gerücht das TSMC Problem mit 0,13µ hat von einem TSMC Mitbewerber gestreut.NVidia selber hat (nicht offiziell!) bestätigt, daß sie Probleme damit haben.

Doomtrain
2002-07-20, 13:29:10
Originally posted by Demirug


@Doomtrain:
"Wenn der NV30 schneller "sein sollte" wird das 0.13micron Refresh des R300 wieder die Führung übernehmen. Es wird wieder ein Katz und Mauspiel geben, keine Frage."

Eine intressante Hypothese die aber wohl darauf beruht das der NV30 auch nur eine TMU pro Pipe hat oder der R300 beim Refresh ebenfalls eine zusätzliche TMU pro Pipe bekommt.



Ich glaube nicht, dass das "Refresh" 8! zusätzlich Textureinheiten bekommt. Der Aufwand dürfte sehr groß sein und die Bandbreite noch immer nicht ausreichend, auch bei 400Mhz Speichertakt.

Wenn der R300 mit DDR-II und in mit 130nm Technologie (Irgendwann nächstes Jahr) auf den Markt kommt, dann halte ich ein Re-Design der Pipelines für realistisch.

Razor
2002-07-20, 13:29:54
ICH WILL DAS SPEKU-FORUM ZURÜCK !
:D

Aber mal im ernst...
Gesetz dem Fall, daß nVidia beim NV30 die T&L-Einheit 'auslagert' und damit zwangsläufig am Speichercontroler 'schrauben' muss... wieso soll es dann ein Problem sein, das Ganz in einem 0.15µ Prozess zu fertigen ?

Klar, das Ganze würde dann ziemlich teuer werden aber 'unmöglich' ist das sicherlich nicht. Natürlich würden die Taktraten dann nicht so hoch zu schrauben sein u.s.w.

Aber all das sind ungelegte Eier !

Solange wir nichts über den NV30 wissen (es gibt nur reine Spekulationen) ist jegliche Diskussion hierüber überflüssig.

Tatsache ist (nach nVidia's Aussage selbstcerständlich ;-), dass der neue Chip die grösste Innvovation mit sich bringen wird, welche die Grafik-Entwicklung bisher gesehen hat und sas 3dfx-Team wird an diesem Chip mitgearbeitet haben (was einigen Raum für Spekulationen lässt).

Liegt der NV30 technologisch und auch Leistungsmässig hinter dem R300 zurück (dessen forschreitende Entwicklung nVidia sicherlich bekannt war), würde nVidia nicht nur gegenüber seinen Endkunden das Gesicht verlieren. Das wiederum würde sich erheblich auf den Aktienkurs auswirken und damit auf die Gesamtsituation der Firma.

DAS kann sich nVidia schlicht nicht leisten !

Schaun' wir also mal, was da demnächst von nVidia kommt. Denn der eigentliche Grund für die Verzögerung könnte sehr gut sein, daß sie erst einmal sämtliche 'Konkurrenz-Angebote' auf dem Tisch haben wollten, bevor sie mit ihrer Neuentwicklung an die Öffentlichkeit gehen.

So ganz nebenbei haben sie den nForce2 heruas gebracht und den XBox2-Deal unter Dach und Fach gebracht (auf Basis welchen Chips wohl ;-).

Ich denke, dass alles für nVidia nach Plan verläuft und wir demnächst damit rechnen dürfen, mehr Informationen zu erhalten (vermutlich, wenn erste 'echte' Testberichte des R300 vorliegen) und damit die Bombe platzen zu lassen.

Kann natürlich sein, dass ich mich da irre, aber das Gesamtgeschehen lässt eigentlich kaum einen anderen Schuss zu. Und was den 0.13µ Fertigungsprozess angeht... irgendwie muss man ja die 'Verspätung' argumentieren !
:D

In diesem Sinne

Razor

Demirug
2002-07-20, 13:30:00
Originally posted by Quasar
Demirug,

Hm, wer weiß. Im momentanen Treiberstadium sicherlich, doch ich bin mir fast sicher, daß der R300 noch mind. 10-15% wird zulegen können, und deutlich mehr als 450MHz DDR sehe ich für den nV30 nicht. Außerdem hindert niemand ATi daran, ebenfalls besseren RAM zu verbauen, was AFAIK keine Änderungen am Design voraussetzt.

Eine Änderung am Desgin wäre sicher nicht notwendig. Man muss allerdings das Memory Interface im Chip dann auch mit der höhren Taktfrequenz betreiben. Zum anderen habe ich nicht den Eindruck das die Testkarten ein Bandbreitenproblem haben. Bessere Ram würde dann nichts bringen.

Ikon
2002-07-20, 13:41:42
Originally posted by Razor
... den XBox2-Deal unter Dach und Fach gebracht ...

Hoppla, hab' ich da was verpasst?

Originally posted by Demirug
Zum anderen habe ich nicht den Eindruck das die Testkarten ein Bandbreitenproblem haben. Bessere Ram würde dann nichts bringen.

Eine zweite TMU per Pipe wäre vieleicht doch nicht sooo falsch gewesen (wenn auch schwer realisierbar bei 107Mio. Transistoren/0,15µ/300+MHz Chiptakt).

Doomtrain
2002-07-20, 13:43:39
Originally posted by Ikon


Eine zweite TMU per Pipe wäre vieleicht doch nicht sooo falsch gewesen (wenn auch schwer realisierbar bei 107Mio. Transistoren/0,15µ/300+MHz Chiptakt).

16 TMUs bekommen einfach nicht genug Bandbreite um ausgenutzt zu werden, deshalb nur eine pro Pipe.

Doomtrain
2002-07-20, 13:44:29
Originally posted by Doomtrain


Ich glaube nicht, dass das "Refresh" 8! zusätzlich Textureinheiten bekommt. Der Aufwand dürfte sehr groß sein und die Bandbreite noch immer nicht ausreichend, auch bei 400Mhz Speichertakt.

Wenn der R300 mit DDR-II und in mit 130nm Technologie (Irgendwann nächstes Jahr) auf den Markt kommt, dann halte ich ein Re-Design der Pipelines für realistisch.

Jetzt quote ich mch schon selber!!

Quasar
2002-07-20, 13:45:42
Für die Durchschnitts-FPS wirkt sich schnellerer RAM immer positiv aus, weil es eben (wie schon woanders diskutiert) in so gut wie jedem Demoablauf Szenen gibt, die allein durch die Bandbreite limitiert sind. Dort schnellen die Spikes nach oben und ziehen die Average-FPS mit, da viele Timedemos immer noch keine unrealistischen Spitzen rausnehmen.

Demirug
2002-07-20, 13:58:09
Doomtrain:

Wenn ein 128 bit Interface für 8 TMUs reicht dann reicht ein 256 bit Interface auch für 16. Vorallem wenn davon 8 TMUS mit der gleichen Textur arbeiten.

Quasar:
Ob das bei der R9700 auch so ist müssen die Tests erst noch zeigen. Möglicherweise ist genügend Bandbreite verfügabr das es nicht passiert.

HiddenGhost
2002-07-20, 14:01:00
Was wäre eigentlich für ATI für ein 130nm Refresh drin zu optimieren außer Taktratenerhöhungen ohne Massive entwicklugskosten ... CMBC auf 8 controler ausbauen ? die TMUs erweitern... eine bessere "triangle setup engine" ... oder doch ncoh andere Dinge... 450 MHz RamDACs ???

Quasar
2002-07-20, 14:08:13
Woran hat GigaPixel nochmal gearbeitet?

HiddenGhost
2002-07-20, 14:10:22
AFAIK an nem TBR

egdusp
2002-07-20, 14:16:53
Originally posted by Ikon


Hoppla, hab' ich da was verpasst?




http://www.theinquirer.net/?article=4518

Microsoft ist eine professionelle Firma, die sich von vergangenen Problemem (XBox 1 chip Preise) nicht beeinflussen läßt. Was mich wunder, ist dass nichts über ATI drinstand. Wollten die nicht konkurieren (Zeitmangel) oder hatten sie gegen kommende nVidia Chips keine Chance?

Quasar
2002-07-20, 14:19:07
Von wem sind die (GigaPixel) nochmal gekauft worden?

Demirug
2002-07-20, 14:21:57
Originally posted by Quasar
Woran hat GigaPixel nochmal gearbeitet?

einen Chip mit perfektem HSR. Das genaue Verfahren war tiled based.

Ihr GP1 sollte 1,6 GigaTexel schaffen (Voodoo5 6000 1,47 GT)
GP2 dann sogar 6 GigaTexel

Allerdings hatte GP1 keine weiteren 3d Features.

egdusp
2002-07-20, 14:29:22
Originally posted by Quasar
Von wem sind die (GigaPixel) nochmal gekauft worden?

Zuerst von 3dfx als es mit denen schon zuende ging, anschließend sind wohl einige Ingenieure und die Technologie an nVidia gegangen.

Quasar
2002-07-20, 14:31:51
Könnte dieser nicht Grundlage des nV30 geworden sein? Dann sähe ich auch nada Probleme mit einem 128Bit-DDR Interface...

Razor
2002-07-20, 14:32:24
@Ikon

Das mit dem Xbox2-Deal stand auf vielen News-Seiten...
Warum es dazu kam, darüber darf spekuliert werden !
:D

@Quasar

Immer diese 'netten' Andeutungen...
:D

@all

ALLES noch Gerücht und 'wilde' Sepkulation !

Sorry, aber über das, was da demnächst von nVidia kommen wird kann nur spekuliert werden. Aber die Zeichen am Horizont lassen so einiges 'erahnen'. Hoffen wir mal nicht, dass der Marktführer eine Bombe platzen läßt, wie seinerzeit 3dfx mit dem Voodoo !

In diesem Sinne

Razor

Demirug
2002-07-20, 14:33:54
Originally posted by Quasar
Könnte dieser nicht Grundlage des nV30 geworden sein? Dann sähe ich auch nada Probleme mit einem 128Bit-DDR Interface...

Unwahrscheinlich:

"Tileing is bad" David Kirk

Razor
2002-07-20, 14:36:12
Und was wäre, wenn man das effiziente HSR von Gigapixel adaptiert hätte ?
;-)

Razor

Demirug
2002-07-20, 15:01:38
Originally posted by Razor
Und was wäre, wenn man das effiziente HSR von Gigapixel adaptiert hätte ?
;-)

Razor

Dann wären wir wieder bei einem Tiler.

Haarmann
2002-07-20, 15:06:39
Daten von R300 vs NV25... (Die Daten gibts und sind ned spekulativ)

Beide ca 300*8=2400 MTexel

ATI ca doppelte Bandbreite und beide 4 fach X-bar beim Mem - ca gleicher Takt.

Ansonsten in etwa gleiche Verfahren für AA und AF.

ATI hat bei 4xFSAA laut Anand aber 2.5 fache Power. Da muss also bei ATI irgendwas effizienter sein und das wohlbemerkt bei bestenfalls Beta Treibern, denn der DX Treiber soll ja neu sein. Auch das muss man berücksichtigen.

Ich denke, dass mit 128 Bit Interface, alleine wegen der grossen Effizienzsteigerung seitens ATI, bei NV kein Blumentopf mehr zu holen ist.

Daher kam auch meine Vermutung, dass die nun den NV30 droppen und direkt zum 35 übergehen - ev gibts den 30er ja dann als MX Version ;).

Vergesst aber nicht bei der 0.15 vs 0.13 Geschichte, dass ATI weniger Transistoren haben soll - ergo wohl auch weniger Hitze, was ev die 0.02 ausgleichen KANN, aber nicht muss.

Wie gesagt, ich tippe bei keinem 256 Bit Interface von NV auf ATI.

robbitop
2002-07-20, 15:19:49
ein TBR wird der NV30 sicher nicht....und niemand weiss welches Interface er haben wird, doch könnte, wenn der NV30 zu lahm is eine SLI Methode eingebaut werden...aber das ist auch mit gemischten gefühlen zu betrachten, da das wieder sehr teuer würde.

Doch eine Lösung ala Sage/Rampage Dual wäre vorstellbar...

Denn SLI bräuichte mann nur ein 128bit Interface...

Der R300 geht für einen IR schon sehr sparend um, ich denke, die Bandbreite muss schon da sein, sonst wird der NV30 ein reinfall.

Da MGA das 256bittige Speicherinterface nicht richtig kontrollieren konnte dachte ich erst, dass nun von mitbewerbern aus Kostengründen das 128bittige bleibt, doch nun "zwingt" ATi den Markt förmlich, sich etwas einfallen zu lassen und damit auch NVidia...

wir werden sehen...jedoch wird der NV30 zumindist schneller als ein NV25 sein ;-)

und 8 Pipelines bei je 2 TMUs ...das hört sich für mich na etwas mehr an, bei 128bit DDR in heutigen Taktverhältnissen würde der NV30 "ersticken"...ich denke es wird etwas ,von der Leistung her, vergleichbares kommen----> Abwarten und Biertrinken..

robbitop
2002-07-20, 15:26:25
@Haarmann
der NV35 ist nur ein Refresh des NV30 so wie die R300 refreshed werden soll.
Mann nimmt jetzt absichtlich nicht die höchstmöglichen Chip und Speichertakte, damit im Refresh luft bleibt.

Also der R300 wird dank 0,13µ höhere Chiptakte bekommen (mehr nicht) und schnelleren Speicher (mind 450Mhz DDR..wenn nicht sogar DDR <500Mhz). Beim NV30 dasselbe. Wenn man die TNL Unit ala Sage auslagert + 0,13µ dann kann man erstmal 350Mhz takten und später 450Mhz und Seicher wie beim R350 Refresh...(DDR2 fähiges Speicherinterface ist aufgrund der Ähnlichkeit beider DDR Speicher nicht schwierig).
Vieleicht wird man auch erst beim NV35 auf SLI zurückgreifen..oder gar nicht...

Aber einfach ein Produkt droppen, wird man nicht..da steckt zu viel entwicklung hinter, die man einspielen muss und 2. entsteht eine Zeitlücke..der NV30 wird nicht gedroppt und er wird sicher in etwa vergleichbar sein...wie gesagt ....Biertrinken..da kommt das Abwarten von allein und macht mehr spass ;-)

Exxtreme
2002-07-20, 15:33:14
Originally posted by Haarmann

ATI hat bei 4xFSAA laut Anand aber 2.5 fache Power. Da muss also bei ATI irgendwas effizienter sein und das wohlbemerkt bei bestenfalls Beta Treibern, denn der DX Treiber soll ja neu sein. Auch das muss man berücksichtigen.

Laut THG nutzt ATi beim FSAA so eine Art Framebufferkompression welches viel Bandbreite einspart. Ausserdem soll HyperZ3 viel effizienter sein und durch die neue Komponente "EarlyZ" fast _alle_ verdeckten Pixel verwerfen.

Gruß
Alex

Doomtrain
2002-07-20, 15:35:16
Originally posted by robbitop

Vieleicht wird man auch erst beim NV35 auf SLI zurückgreifen..oder gar nicht...



Was soll das denn kosten? Eine SLI-Karte mit 2 NV30\35 könnten sich höchstens die reichsten Könige leisten, aber kein normaler Mensch mehr!!!!!

robbitop
2002-07-20, 15:38:50
quatsch..dasselbe hat man auch von 256bit DDR behauptet...

3dfx hat es damals auch getan..warum nicht? ...ich denke, es wäre nicht soviel Teurer , da man ja nur 1x TNLChip braucht und nicht 2...
und mit 0,13µ wäre es im Vergleich zum R300 auch machbar herzustellen, da sehr viel Mehr Chips in 0,13µ mit gleichen Wavern hergestellt werden können als mit 0,15

Haarmann
2002-07-20, 15:42:45
SLI mit 2 NV30?

Wohl eher nein - die Kosten wären zu hoch und der Nutzen wohl eher bescheiden. Alleine die 2 mal 128 MB schneller DDR Speicher sind rel teuer, dazu wäre wohl ein 12 Layer PCB oder 16 Layer PCB Nötig - kaum bezahlbar lautet hier meine Diagnose.
Auch ne Kühlung wär wohl ziemlich aufwendig, es sei denn man macht je Seite nen Chip.

Fazit

Es ist möglich, aber kaum rentabel.

robbitop
2002-07-20, 15:49:29
1.naja das mit dem Speicher : naja ..soll ja auch 256 MB R300 geben und Parhelia 256mb -> Machbar....

2.die Chips sind in 0,13µ mit ausgelagerter TNL Unit ...also kleiner, kühler und damit kann man viel mehr Chips herstellen...es würde nicht viel Teurer als ein R300 Chip sein. Beide Chips +1x TNL unti (ich denke die 120Mio Trans sind incl TNL Unit ..wenn sie ausgelagert is dann sind es weniger pro GPU)...

Kühlung, dürfte nicht umständlich sein, da 0,13µ ....also keine Grossen Kühler nötig

3. PCBs ..mag sein....aber warum sollten es mehr PCBs sein müssen, als mit 1xChip?? verstehe ich nicht....

denn gleiches hatte 3dfx auch vor ! also muss es drin sein!
So viel grösser dürften die Chips auf grund ext TNL Unit und 0,13 kaum sein..und 1x R300 is riesig...wie gesagt, es müsste machbar sein..

robbitop
2002-07-20, 15:52:51
du magst vieleicht recht haben....und ich denke der NV30 is kein billigchip, der SLI nötig hat, aber möglich wäre es als HighEnd Variante für 600€ oder 700€...ich würde ihn kaufen ;-D

Demirug
2002-07-20, 15:57:06
Originally posted by Exxtreme

Laut THG nutzt ATi beim FSAA so eine Art Framebufferkompression welches viel Bandbreite einspart. Ausserdem soll HyperZ3 viel effizienter sein und durch die neue Komponente "EarlyZ" fast _alle_ verdeckten Pixel verwerfen.

Gruß
Alex

Was das einsparen von Bandbreite durch die Framebufferkompression angeht habe ich noch gewisse Zweifel. Werde das ganze aber noch durchrechnen.

Das mit dem EarlyZ ist so ne Sache. Wenn die Polys in einer ungünstigen Folge komme nutzt das leider gar nichts. Und David Kirk predigt ja auch schon die ganze zeit das sie mit Occullsion Culling ein genauso gutes HSR hinbekommen wie bei einem DR. Diese Geschichten sind aber verdamt schwer nachzuprüfen.

Xmas
2002-07-20, 16:01:15
Originally posted by Exxtreme
Laut THG nutzt ATi beim FSAA so eine Art Framebufferkompression welches viel Bandbreite einspart. Ausserdem soll HyperZ3 viel effizienter sein und durch die neue Komponente "EarlyZ" fast _alle_ verdeckten Pixel verwerfen.

Eben, wegen der Framebuffer-Kompression sind die Verfahren von GF4 und R300 eben nicht zu vergleichen. Man kann ziemlich sicher davon ausgehen dass der NV30 beim AA deutlich sparsamer als eine GF4 ist.

Alle verdeckten Pixel verwerfen kann der Chip aber auch nur, wenn strikt Front-to-Back gerendert wird oder zuerst der Z-Buffer gefüllt wird.

Doomtrain
2002-07-20, 16:38:57
Originally posted by Haarmann
SLI mit 2 NV30?

Wohl eher nein - die Kosten wären zu hoch und der Nutzen wohl eher bescheiden. Alleine die 2 mal 128 MB schneller DDR Speicher sind rel teuer, dazu wäre wohl ein 12 Layer PCB oder 16 Layer PCB Nötig - kaum bezahlbar lautet hier meine Diagnose.
Auch ne Kühlung wär wohl ziemlich aufwendig, es sei denn man macht je Seite nen Chip.

Fazit

Es ist möglich, aber kaum rentabel.

*unterschreib*

Razor
2002-07-20, 17:28:40
Originally posted by Haarmann
Daten von R300 vs NV25... (Die Daten gibts und sind ned spekulativ)
Na dann erleuchte uns Unwissende mal mit den offiziellen 'Fakten' den NV30...
:D
Originally posted by Haarmann
Daher kam auch meine Vermutung, dass die nun den NV30 droppen und direkt zum 35 übergehen - ev gibts den 30er ja dann als MX Version ;).
Du hälst Dich doch sonst auch mehr an die Realität, denn an Wunschdenken, oder ?
Warum sollte man den NV30 droppen, weil er Deiner Meinung nach zu langsam wird ?

Wollen wir doch überhaupt erst einmal irgendetwas offizielles abwarten, oder hast Du denn irgendetwas, was sich nachprüfen läßt, ohne sich auf Deine diesbezügliche Aussage verlassen zu müssen ?

Meine Meinung (und mehr ist das, was Du da von Dir gegeben hast nicht) kennst Du ja, wenn Du die letzten Posts von mir gelesen hast. Ich vermute, dass nVidia einfach abwartet, was die Konkurrenz auf den Markt bringt, um dann zu entscheiden, was sie aus Ihrem Porfolio relasen und wie sie das tun...

In diesem Sinne und weiterhin viel Spaß beim Fischen im Trüben !
;D

Razor

Unregistered
2002-07-20, 17:40:05
Hmmm hat schon mal jemand daran gedacht das es im möglich liegt das nvidia vielleich QDR-ram verwenden wird? Damit wären sie in der lage eine ähnliche bandbreite zu bekommen.

Das mit dem multichip ist finde ich etwas einseitig betrachtet.
Ati hat auch die tevhnik dazu. Nun stellt man sich die frage warum sie, sie noch nicht eingesetzt haben. Nun ich denke das nvidia hier geleich denken. nämlich das es schlicht zu teuer ist und nur dann genutzt wird falls es mit ihren eigenen chips nicht mehr hin haut die konkurenz zu toppen. Was woll für beide Firmen gilt.

zeckensack
2002-07-20, 17:42:19
NV30 einstampfen und gleich NV35?
Humbug!

Solange der NV30 schneller als der NV25 ist, wird er erscheinen. Sonst wäre sämtliche bisher geleistete Ingenieursarbeit verschwendet.

Zum Vergleich:

NVIDIA hat den Riva128 rausgebracht, obwohl dieser der Voodoo 1 nicht deutlich überlegen war.

NVIDIA hat den RivaTNT rausgebracht, obwohl dieser der Voodoo 2 nicht deutlich überlegen war.

NVIDIA hat den TNT2 rausgebracht, obwohl dieser der Voodoo 3 nicht deutlich überlegen war.

ATi hat den Rage128 (und Rage128Pro) rausgebracht, obwohl dieser weder TNT2 noch Voodoo3 schlagen konnte.

ATi hat die Rage Fury MAXX rausgebracht, obwohl diese weder Voodoo 5 noch GeforceDDR deutlich schlagen konnte.

ATi hat weder den R100, noch den R200 eingestampft, obwohl beide der Konkurrenz nicht deutlich überlegen waren.

Merken wir was? Ich schon ;)

Doomtrain
2002-07-20, 17:49:34
Originally posted by zeckensack

Zum Vergleich:

NVIDIA hat den Riva128 rausgebracht, obwohl dieser der Voodoo 1 nicht deutlich überlegen war.

NVIDIA hat den RivaTNT rausgebracht, obwohl dieser der Voodoo 2 nicht deutlich überlegen war.

NVIDIA hat den TNT2 rausgebracht, obwohl dieser der Voodoo 3 nicht deutlich überlegen war.

ATi hat den Rage128 (und Rage128Pro) rausgebracht, obwohl dieser weder TNT2 noch Voodoo3 schlagen konnte.

ATi hat die Rage Fury MAXX rausgebracht, obwohl diese weder Voodoo 5 noch GeforceDDR deutlich schlagen konnte.

ATi hat weder den R100, noch den R200 eingestampft, obwohl beide der Konkurrenz nicht deutlich überlegen waren.

Merken wir was? Ich schon ;)

Was du sagst stimmt schon, aber die Zeiten waren andere! Der NV30 MUSS einfach schneller werden als alles bisher dagewesende, sonst springen die Hersteller auf ATI um.

Nvidia ist die finanzielle Nr.1 (prozentual) unter den US-Unternehmen und würde das Gesicht verlieren. Laß dir mal folgende möliche Situation durch den Kopf gehen:

Der NV30 verpätet sich bis nächstes Jahr (GeForce3 kam auch viel später als geplant). ATI hat bis dahin schon wieder einen besseren Chip auf dem Markt....NV könnte einpacken bzw. deren Marktwert würde drastisch fallen!!!!!

Zakzak
2002-07-20, 18:14:46
Eins Denk ich ist mal sicher NV wird 100% keinen chip aufn Markt bringen der langsammer ist als der R300.
Wenn der Nv30 im jetzigen statium langsamer ist wird er 100% nochmal überarbeitet dann wird er wohl erst ende 2002 oder anfang 2003 kommen.

Und noch eins ist sicher wenn der NV30 schneller oder gar viel schneller ist als der R300 dann wird NV die Bombe platzen lassen wenn der R300 in den Läden ist.

Früher werden sie gar nix unternehmen für was auch, so doof werden sie nicht sein und sich selber ins Fleisch schneiden (verkauf von ti4+++).

Demirug
2002-07-20, 18:32:08
*zeckensack zustimm*

Die ersten Previews der R300 lassen ja darauf schliessen das sie abhängig von der Testkonfiguration zwischen 30 und 250% schneller als eine GF4TI4600 ist. Wenn man nun den NV30 einfach wegschmeist muss man ein halbes Jahr lang noch die GF4 verkaufen. Egal ob der NV30 den R300 schlägt oder nicht er wird auf jeden Fall den NV25 schlagen und deshalb verkauft werden.

Haarmann
2002-07-20, 18:47:42
Ich sag nicht, dass es keinen NV30 geben wird... Ich sag nur, dass es ned der ursprünglich als NV30 geplante sein muss...

Man nehme den ersten Crossbar einer 256Bit DDR NVxx Karte (nannte das NV35) und füge den einer NV30 hinzu - drehe an der Taktschraube und Tataa es lebe ein neuer NV30. Wenn man daraus nun ne MX machen will... Tataaa orig NV30 mit 128er Crossbar ;).
Dauert ev nur 2 Monate sowas... NVs Methoden im Chipcode recyclen sind ja bekanntlich gut.

Xmas
2002-07-20, 19:02:38
Ich bin mir ziemlich sicher dass NVidia das nicht tun wird und den NV30 so schnell wie möglich bringen wird. Sie haben mehrfach betont, dass es viel wichtiger ist zeitig zu liefern. "Feature Creep" ist wohl das schlimmste, was man bei der Chipentwicklung machen kann. Wie das endet sah man schon an diversen Beispielen...

Demirug
2002-07-20, 19:07:37
Haarmann, wenn der NV30 im Moment ein 128 Bit Interface hat kann man in 2 Monaten nicht mal schnell ein 256 Bit Interface ranbauen da der ganze Chip dann auf ein 128 Bit Interface ausgelegt ist. Er würde also nur ganz minimal davon profitieren.

Dunkeltier
2002-07-20, 19:59:25
Da tun sich leichte paralellen zwischen dem NV30 vs Radeon 9700 und dem Geforce 2 vs Voodoo 5 auf...

Unregistered
2002-07-20, 20:40:40
Originally posted by Dunkeltier
Da tun sich leichte paralellen zwischen dem NV30 vs Radeon 9700 und dem Geforce 2 vs Voodoo 5 auf...

hehe
Nvidia ist nich 3DFX

Haarmann
2002-07-20, 20:46:55
Demirug

Ich wette mit Dir, die machens in ca 2 Stunden... nur, damits auch ned nur breiter, sondern auch schneller wird, geb ich ihnen 2 Monate...
NV verwendet soweit ich gehört habe nur Autorouting und ned wie z.B. IBM zum Teil noch besseres Handrouting ;)

Traveling Salesman grüsst ;)

StefanV
2002-07-20, 20:52:00
Originally posted by Doomtrain

Was du sagst stimmt schon, aber die Zeiten waren andere! Der NV30 MUSS einfach schneller werden als alles bisher dagewesende, sonst springen die Hersteller auf ATI um.

Nvidia ist die finanzielle Nr.1 (prozentual) unter den US-Unternehmen und würde das Gesicht verlieren. Laß dir mal folgende möliche Situation durch den Kopf gehen:

Der NV30 verpätet sich bis nächstes Jahr (GeForce3 kam auch viel später als geplant). ATI hat bis dahin schon wieder einen besseren Chip auf dem Markt....NV könnte einpacken bzw. deren Marktwert würde drastisch fallen!!!!!

Da stimme ich dir mal zu.

1. Wenn der NV30 langsamer ist als die 9700, dann hat NV ein mächtiges Problem...
Das geringste wäre wohl, daß einige Hersteller auf ATI wechseln werden (werden viele früher oder später eh tun, allein schon um NV 'eins auszuwischen')

2. Richtig.
Wenn NV nicht mehr den schnellsten Chip rausbring und sich darüberhinaus noch bei einem Chip verspätet, dann schmiert als erstes der Wert des Unternehmens nach unten, somit auch der Aktienkurs->schlecht.

3. da hab ich wohl in den beiden vorigen Punkten zuviel weggenommen :)
Wenn NV ein halbes Jahr zu spät kommt, dann wird es ihnen wohl so gehen, wie 3DFX, wenn sie keine 'umfangreichen' Rücklagen haben...

StefanV
2002-07-20, 20:54:59
Originally posted by Unregistered
hehe
Nvidia ist nich 3DFX

Nein, haben sie aber gekauft, zumindest das, was sie haben wollten *eg*

StefanV
2002-07-20, 20:57:37
Originally posted by Dunkeltier
Da tun sich leichte paralellen zwischen dem NV30 vs Radeon 9700 und dem Geforce 2 vs Voodoo 5 auf...

Fragt sich nur was is was...

Mein Vorschlag:

Radeon 9700 ist Voodoo TNT die NV30 ist Rage PRO maXX.

Irgendjemand anderer Meinung?? *eg*

HOT
2002-07-20, 21:00:50
Meine Spekulation zum NV30:
256Bit Speicherinterface, ähnlich wie ATI, vielleicht noch 8 fach ausgelegt. Ob das einen Vorteil bring lass ich mal dahingestellt, da dann der Verwaltungsaufwand sehr hoch sein dürfte. Meiner Meinung nach stellt die ATI Lösung das gegenwärtig gesehen effizienteste dar, das möglich ist.
Selbst bei der schlimmsten Lösung, 256Bit 8-fach würde ich bei 8 Pipes nicht von mehr als 1TMU pro Pipe ausgehen, wenn mehr dann etwas weniger funktionale als ATI. Generell würd ich hier aiuf jeden Fall von Unterschieden zur Technologie von ATI sehen, NV hat sicherlich eine neuere Version des PS (2.1 oder 2.2) wie ATI. Daher auch das ominöse DX9.1.
Aber ich gehe hier von ganz anderen Gesichtspunkten aus und werfe alle derzeitigen Spekulationen über den Haufen; die sind sowieso zu 80% falsch. Meiner Meinung nach wäre es nicht weiter verwunderlich, wenn NV den Fear in Planung hätte. NV hat soweit ich weiss alle wichtigen Entwickler dieses Projektes von 3Dfx abgezogen und ich glaube ehrlich gesagt nicht, dass die in irgendeiner Form am Geforce3/4 beschäftigt gewesen sein sollten. Ich bin mir sicher, dass sie am neuen Projekt mitgearbeitet haben und dies auch massgeblich bestimmt haben. Dazu würde auch passen, dass der nächste Chip nicht mehr Geforce heissen soll (gerüchteweise). Meine Behauptung wird noch dadurch erhärtet, dass NV Entwickler davon sprachen, dass ein 256Bit Speicherinterface Overkill sei; diese Aussage lässt IMHO auch kein 196Bit Speicherinterface zu, das wäre genauso Overkill, dann dann könnte man gleich eins mit 256Bit designen.
Die zweite Aussage, die mich stutzig gemacht hat, war die, dass es nicht möglich sei, dan Chip in 150nm zu produzieren. Ich geh mal davon aus: wenn ATI es schafft, einen Chip mit 110Mio transistoren in 150nm in Masse über oder annähernd an 300MHz zu bringen, dann schafft NV das garatiert auch. Stattdessen hört man aber, dass NV Teams bei TSMC im Einsatz sind, krampfhaft den neuen Chip in 130nm zu produzieren. Die 3. Aussage, die in diese Richtung läuft ist die Multichipfähigkeit - SLI ist eine relativ perfekte 3Dfx Technik. Die 4. aussage war, dass der NV30 4x FSAA ohne Leistungsverlust darstellen sollte!!! Ähnliches wie FSAA4Free?
Meine persönliche Spekulation für den NV30 (ich weiss weit hergeholt :D;))
4 Renderpipes
2TMUs je
PS 2.1
VS 2.0 (4x wie R300) oder eine Lösung mit RT Patches
128Bit LMAIII (höchstwahrscheinlich aber andere Name) Speicherinterface (deferred Rendering)
ca. 350MHz Takt
ca. 600MHz Speichertakt (DDR/II)
ca. 80Mio Transistoren in 130nm gefertigt

Exxtreme
2002-07-20, 21:00:59
Originally posted by Stefan Payne
3. da hab ich wohl in den beiden vorigen Punkten zuviel weggenommen :)
Wenn NV ein halbes Jahr zu spät kommt, dann wird es ihnen wohl so gehen, wie 3DFX, wenn sie keine 'umfangreichen' Rücklagen haben...
NV hat mehr als genug in der Kriegskasse. Die würden selbst 1 Jahr ohne Umsatz überleben. Die verkaufen auch die GF4MX also die Cash-Cow. Was ATi sehr geschickt gemacht hat, ist daß sie das Verhältnis GF4Ti4600 <> R300 aufgezeigt haben. Somit dürften jetzt die Verkäufe der GF4Ti4600 stark stagnieren. Kaum jemand kauft sich jetzt noch eine GF4Ti4600 wenn in 1,5 Monaten (Spekulation!) eine GraKa rauskommt, die deutlich leistungsfähiger ist.

Gruß
Alex

Unregistered
2002-07-20, 21:12:56
Originally posted by HOT
Meine Spekulation zum NV30:

ca. 350MHz Takt
ca. 600MHz Speichertakt (DDR/II)
ca. 80Mio Transistoren in 130nm gefertigt



ca. 400MHz Takt
ca. 900MHz Speichertakt (DDR/II)
ca. 120Mio Transistoren in 130nm gefertigt

Unregistered
2002-07-20, 21:16:12
Originally posted by Exxtreme

Kaum jemand kauft sich jetzt noch eine GF4Ti4600 wenn in 1,5 Monaten (Spekulation!) eine GraKa rauskommt, die deutlich leistungsfähiger ist.

Gruß
Alex

Wenns die R300 im Laden gibt wird NV sicher den ´NV30 V orstellen dan könnte ich auch sagen
Kaum jemand kauft sich jetzt noch eine Radeon 9700 wenn in 1,5-2 Monaten (Spekulation!) eine GraKa rauskommt, die sehr deutlich leistungsfähiger ist.

Unregistered
2002-07-20, 21:17:46
edit
und wer kennt schon ATI vom Dau keine sau

die kennen nur nVidia frag doch mal auf game boards

HOT
2002-07-20, 21:18:23
Originally posted by Exxtreme

NV hat mehr als genug in der Kriegskasse. Die würden selbst 1 Jahr ohne Umsatz überleben. Die verkaufen auch die GF4MX also die Cash-Cow. Was ATi sehr geschickt gemacht hat, ist daß sie das Verhältnis GF4Ti4600 <> R300 aufgezeigt haben. Somit dürften jetzt die Verkäufe der GF4Ti4600 stark stagnieren. Kaum jemand kauft sich jetzt noch eine GF4Ti4600 wenn in 1,5 Monaten (Spekulation!) eine GraKa rauskommt, die deutlich leistungsfähiger ist.

Gruß
Alex

Ich glaube nicht, dass es NV signifikant besser geht als ATI. NV hat zwar die letzten Jahre FETTE Gewinne eingefahren, aber ich glaube nicht, dass man sich eine besonders lange Stagnation leisten kann. Meiner Meinung nach hat NV in letzter Zeit viel investiert und sogar einen EIGENEN Athlon Chipsatz entwickelt. Die P4 Version haben sie Meiner Meinung nach auch noch in der Schublade und die XBox sollte man auch nicht ausser Acht lassen.
NVidia sollte jetzt annähernd die Grösse von ATI erreicht haben, sie vielleicht sogar ein bisschen übertroffen haben.
Es ist alles offen für den NV30 und man kann wirklich noch GARNICHTS über dessen Leistung sagen. Wenn Leute behaupten, dass der NV30 schneller sein wird, ist das genau so eine Aussage, wie der KyroIII erreicht Leistungswerte des R300 (nur Vergleich der Absurdität, bitte nicht aus dem Kontext reissen :D).

Demirug
2002-07-20, 21:19:58
@Exxtreme:

Das trift die Lage sehr genau. Aber sollte NVIDIA jetzt übereilt einen Paperlaunch des NV30 durchführen? Wenn sie das machen kauft erst recht niemand mehr eine GF4TI4600. NVIDIA wird also erst dann reagieren wenn es den Radeon 9700 auch zu kaufen gibt.

@HOT:

Eine 8 fache CB ist einer 4 fachen definitive überlegen da sie weniger verschnitt produziert. Allerdings braucht man auch mehr Chipfläche dafür.

Die 3dfx entwicklerteams wurden nach Aussage von NVIDIA mit den vorhandenen Teams durchmischt.

Wenn ich mich recht erinnere war die Aussage im Bezug auf die 150nm das es wirtschaftlich unmöglich sei in damit zu produzieren. Da der NV30 ja noch ein paar Transitoren mehr als der R300 haben soll glaube ich das gerne.

SLI war damals ja sehr schön. Nur dummerweise ist die Renderpipeline auf dem Chip inzwischen etwas länger geworden was multichip komplizierter macht.

FSAA4Free ist ein Myhtos.

Deine Spekulation will ich jetzt nicht einzeln komentieren aber an einen DR glaube ich nicht.

HOT
2002-07-20, 21:26:23
FSAA4Free ist KEIN Mythos und arbeitet im MBX Chip von Imagtech.

Die Wirtschaftlichkeit könnte aber auch so gemeint sein, dass die Taktraten stimmen müssen, was bei 150nm nicht erträglich gewesen wäre. Das NV eigene Ingeneure bei den 3Dfx Entwicklern hat ist klar. Aber ich kann mir beim besten Willen nicht vorstellen, dass sie ein Entwicklerteam (zumindest einen Teil davon) die gut zusammen gearbeitet haben und sich KENNEN auseinenaderreissen würde.
Kurzum, diese Aussagen sind Spekulationen und man kann sie drehen und wenden wie man will, meine Spekulation steht fest und ich will mich eigentlich nicht darum streten :D

nggalai
2002-07-20, 21:29:48
Originally posted by Demirug
Das trift die Lage sehr genau. Aber sollte NVIDIA jetzt übereilt einen Paperlaunch des NV30 durchführen? Wenn sie das machen kauft erst recht niemand mehr eine GF4TI4600. NVIDIA wird also erst dann reagieren wenn es den Radeon 9700 auch zu kaufen gibt.
Also, ich wäre nicht erstaunt, wenn an/nach der Siggraph zumindest im Rahmen der Cg-Demonstrationen und Präsentationen einige Infos zur NV30 zusammenkommen würden.

ta,
-Sascha.rb

Unregistered
2002-07-20, 21:39:07
"
Ich glaube nicht, dass es NV signifikant besser geht als ATI. NV hat zwar die letzten Jahre FETTE Gewinne eingefahren, aber ich glaube nicht, dass man sich eine besonders lange Stagnation leisten kann. Meiner Meinung nach hat NV in letzter Zeit viel investiert und sogar einen EIGENEN Athlon Chipsatz entwickelt. Die P4 Version haben sie Meiner Meinung nach auch noch in der Schublade und die XBox sollte man auch nicht ausser Acht lassen.
NVidia sollte jetzt annähernd die Grösse von ATI erreicht haben, sie vielleicht sogar ein bisschen übertroffen haben.
Es ist alles offen für den NV30 und man kann wirklich noch GARNICHTS über dessen Leistung sagen. Wenn Leute behaupten, dass der NV30 schneller sein wird, ist das genau so eine Aussage, wie der KyroIII erreicht Leistungswerte des R300 (nur Vergleich der Absurdität, bitte nicht aus dem Kontext reissen ).
"

Bei dem Gewinn und Umsatz den Nvidia macht könnten die sich bei den High End Grakas relativ locker 1 Jahr gammeln leisten.
Dann allerdings müssten sie loslegen aber 1 jahr wäre locker drinn.

Was haben sie denn Investiert?
NV20 aka GF3? Hat Microsoft in weiten Teilen bezahlt.
nForce? Hat Microsoft in weiten Teilen bezahlt.
GeForce 4 - die Zahlen kennen wir, war nicht der Rede wert.
Ich glaub die größte Investition war und ist der NV30 an dem sie praktisch die ganze Zeit in aller Ruhe entwickelt haben mit 1 Team besetzt mit 3dfx und Nvidia Personal.

2 Dinge zum NV30 sind in jedem Fall fakt weil sie direkt vom CEO zu hören waren.
120 Mio Transistoren
definitiv 0.13er Fertigung.
Seine Aussage beim letzten Conf. Call war, das sie den 0.15er auch probiert haben und zurückbekommen haben. Ergebnis Keine Chance ihn bei ansprechenden Taktraten mit ansprechender Ausbeute herzustellen.
Also geht mal ruhig davon aus das der NV30 sehr komplex werden wird :)
Achja und eine Fähigkeit betrachte ich mit mindestens 70 bis 80 für sicher und das ist die SLI Fähigkeit.
Ob diese im Consumermarkt zu finden sein wird, das wird Nvidia wohl nach den Erfordernissen des Marktes entscheiden.
Für die Simulationslösungen von Quantum 3D braucht Nvidia allerdings eine SLI Lösung. Bisher sind die Multichip Teile von Quantum immer noch VSA100 Produkte. Lediglich die Single Versionen besitzen GeForce Chips.
Also wenn SLI vorhanden ist aufm NV30, dann wird das nur gemacht um die Konkurenz mit nem kostspieligen HIgh End Produkt in den Boden zu rammen. Wenns ohne SLI geht, wirds das nicht geben im Consumer Markt.

Meine Spekulationen:
8 Pipes
2 TMUS
LMA III
Sehr effizientes AA
256 Bit Interface oder 128 Bit nochmal Effizienzgesteigert mit viel Takt.
SLI Fähigkeit
Die üblichen DX9 Specs halt noch + mehr Programmierfähigkeit als DX9 erforderlich macht.

Demirug
2002-07-20, 21:42:02
@HOT:

Ich finde im Moment das Interview in dem die Aussage bezüglich der Teams gemacht wurde gerade nicht.

"FSAA4Free ist KEIN Mythos und arbeitet im MBX Chip von Imagtech."

War mir klar das jetzt kommen musste. Aber auch dort ist FSAA nicht wirklich for Free. Damit der Chip das so kann mussten zusätzliche Transitoren eingebaut werden. Das FSAA ist dort sehr günstig aber eben nicht umsonst.

Solange es den Chip gibt hat wohl jeder seine eigen Vorstellung darüber.

@nggalai:

Gerüchte werden wohl schon gestreut es wurden ja extra noch 3 Cg Präsentationen angesetzt.:D Aber den Paperlaunch werden wir dort wohl nicht sehen.

Gohan
2002-07-20, 21:47:04
Quantum3D Ventana PCI 4210
Ventana PCI 4210
Both the AAlchemy QX and Obsidian QX models are also available with Quantum3D's new Ventana PCI 4210 graphics subsystem. Announced at AUSA Winter last month, the Ventana PCI 4210 employs dual NVIDIA Quadro4 chips, each with 64MB of DDR memory and NVIDIA's nView™ technology, in a unique 66 MHz PCI bridge chip architecture that provides up to four "auxiliary" realtime 3D channels that compliment the main out-the-window or nVSensor™ view available provided by the main AAlchemy or Obsidian graphics subsystem. A typical application that would benefit from this unique combination is a driving simulator in which AAlchemy™ graphics are employed for the primary out-the-window view and the Ventana PCI 4210 is to provide the three mirror channels and an on-board navigation system view. A five-channel system such as this would previously have required a total of five PC-based image generators. With the Ventana® PCI 4210, coupled with the power of the AAlchemy™ QX or Obsidian® QX systems reduces the count to one PC-based image generator, with obvious benefits in terms of in cost, power and weight savings, along with improved reliability, MTBF and MTTR. Available as a factory installed option for both AAlchemy QX and Obsidian QX models, the international MSRP for the Ventana PCI 4210 is $4,999 USD.
http://www.quantum3d.com/press%20releases/Ventana2ChipAlone.jpg

In wie fern das jetzt eine richtige Dualchiplösung ist, die sich auch die Arbeit teilen weiß ich nicht.

Ich glaube das nVidia, wenn sie nur ein 128Bit interface bringen werden, nur eine Dualchiplösung in der lage werden, dem R300 oder sonstigem Chip Parole zu bieten. Angenommen man macht eine externe T&L einheit, plus zwei GPU's, könnte man an den GPU's Transistoren sparen, die Wärmeentwicklung veringern und den Preis senken. Jedoch wäre das immer noch ein verdammt Teurer weg. 2 GPU's + externe T&L Einheit.
Zudem das man die doppelte Menge an Ram verbauen müsste.(Oder die Designer lassen sich was neues einfallen)

Ultra-Speku:
Die Situation sieht für mich jetzt fast wie die von 3dfx damals aus, bloss das alles im Augenblick noch schön aussieht durch das Marketing von nVidia :D Vielleicht lastet auf SLI Karten im Konsumerberreich ein fluch? ;)

HOT
2002-07-20, 21:52:18
Meines Wissens hat der CEO NICHT die Transistorzahl, nur den Fertigungprozess erwähnt, ist also kein Fakt.
Und KEINE Firma kann ganz ohne Umsätze existieren, trenn dich bidde von einem solch bekloppten Irrglauben! WENN NV keine Geforce Karten mehr verkaufen WÜRDE, dann wären sie spätestens Weihnachten zahlungsunfähig.
desweiteren hat M$ nun wirklich GARNICHTS mit dem NForce zu tun! Den Chipsatz haben sie in absoluter Eigenregie zusammen mit AMD entwickelt! NVidia hat lediglich eine Anbindung für das AGTL+ Protokoll für den PentiumIII an den NV2X (oder wie immer der auch heisst)! M$ hat hier KEINEN MÜDEN DOLLAR für die Entwicklung hingelegt, sondern lediglich die fertige Hardware von NV gekauft (und das lange nicht in der Menge, wie es eigentlich geplant war)!
Desweiteren hat NV den Geforce4 teilweise drastisch neu designt, ich glaube nicht, dass dies nur ein aufgebohreter G3 ist, dafür ist er einfach zu schnell. Auch der MX ist neu designt, selbes Argument. Der G4 ist meiner Meinung nach ein Meisterwerk der NVs Ingeneurskunst, der Abstand zum R200 zwigt die meiner Meinung nach sehr deutlich.
Also tu bidde nicht so, als wenn NV das einfach so aus dem Ärmel schütteln würde, die haben SEHR viel investiert, das war sicherlich HARTE Arbeit (und gute)!
Auch die Entwicklung des Detonatortreibers war meiner Meinung nach wesentlich teurer als bei ATI. Das sieht man an den teilweise drastischen Unterschieden meiner Meinung nach recht deutlich.

Quasar
2002-07-20, 21:52:21
Originally posted by Demirug
Wenn ich mich recht erinnere war die Aussage im Bezug auf die 150nm das es wirtschaftlich unmöglich sei in damit zu produzieren. Da der NV30 ja noch ein paar Transitoren mehr als der R300 haben soll glaube ich das gerne.

So sehe ich das auch (und wohl auch die Mehrheit der Boardies), allerdings kennt man ja die Hochpreispolitik von nV und wenn es selbst damit noch unwirtschaftlich sein sollte, 115MT +/- in 0,15µ zu produzieren, dann denke ich, daß es bei ATi auch äußerst schwerfallen wird, mit einem derart komplexen Chip und PCB bei einem avisierten Preis von 399$ noch wirklich viel zu verdienen.

Der R300 ist das Imageprodukt, was ATi lange Jahre gefehlt hat, aber richtiges Geld wird man damit vorerst nicht verdienen (und ebensowenig nV, falls man sich entschließt einen leistungsschwächeren nV30, womöglich gar ebenfalls in 0,15µ auf den Markt zu werfen. Zweiter kann man mit der GF4Ti auch sein, aber wesentlich kostengünstiger ;))

Doch mal wieder zurück zum Topic:
Ich bin mir fast sicher, daß nV in nutzbringender Form Technik von 3dfx/Gigapixel in den kommenden Designs verwandt haben dürfte (zumindest im integrierten Bereich, da dort Bandbreite nicht mit Brute-Force zu holen ist) und gleichzeitig auf einen sehr hohen Takt setzen wird. Ich denke schlimmstenfalls wird der nV30 "nur" so schnell wie der R300 werden, aber keinesfalls langsamer, dafür kennen sich die Firmen untereinander zu gut, als das man nicht gegenseitig schon ein wenig früher die Leistungsstufen der Konkurrenz einzuschätzen wüsste.

HOT
2002-07-20, 21:56:15
Originally posted by Demirug
@HOT:

Ich finde im Moment das Interview in dem die Aussage bezüglich der Teams gemacht wurde gerade nicht.

"FSAA4Free ist KEIN Mythos und arbeitet im MBX Chip von Imagtech."

War mir klar das jetzt kommen musste. Aber auch dort ist FSAA nicht wirklich for Free. Damit der Chip das so kann mussten zusätzliche Transitoren eingebaut werden. Das FSAA ist dort sehr günstig aber eben nicht umsonst.

Solange es den Chip gibt hat wohl jeder seine eigen Vorstellung darüber.



so wie du 4Free interprätierst, ist es doch garnicht gemeint. Es ist hier lediglich der Leistungsverlust gemeint, nicht der tatsächliche Verlust :D Das FSAA4Free ein Maretingbegriff ist, ist mir durchaus bewusst.
zum letzten Satz: Vollkommen meine Meinung :D

Demirug
2002-07-20, 22:05:15
@Gohan:

Das sind einfach zwei Karten auf einer. Quantum wird aber in Zukunft auch nur solche Lösungen brauchen. Im Simu geschäft geht es im wesentlichen darum viele Bilderzeuger (Monitore, Projektoren) Bildsyncron anzusteuern dafür ist kein SLI notwendig.

Je länger ich über die SLI Geschichte nachdenke desto unwahrscheinlicher wird es für ich.

@HOT:

Die GF4 ist wirklich nur eine aufgeborte GF3. Da wurde kaum was neu gemacht.

Das die Detonatortreibers wirklich teurer sind als bei ATi mag ich auch nicht so recht glauben. Dort hat man sehr wahrscheinlich auf ein kompromisloses OOD gesetzt. Damit konnte man immer große Teile für einen neuen Chip weiterbenutzen.

@Quasar:

Ich denke mal das die Losung die David Kirk bei der Entwicklung des NV30 ausgegen hat folgenden war:

Spart Bandbreite und macht mir schönere Pixel als die anderen.

Demirug
2002-07-20, 22:08:30
Originally posted by HOT

so wie du 4Free interprätierst, ist es doch garnicht gemeint. Es ist hier lediglich der Leistungsverlust gemeint, nicht der tatsächliche Verlust :D Das FSAA4Free ein Maretingbegriff ist, ist mir durchaus bewusst.
zum letzten Satz: Vollkommen meine Meinung :D


Es kann soweit mir bekannt beim MBX gar keinen Leistungsverlust geben da er immer FSAA benutzt. Auf dien NV30 übertragen würde das bedeuten das man dort das FSAA nicht mehr abschalten kann (bzw. es aus Performancesicht egal wäre).

robbitop
2002-07-20, 22:11:09
@Gohan
ich bin auch deiner Meinung, dass man WENN man NUR ein 128bit DDR Interface hat (laut einer Aussage von D.Kirk garnet so unwahrscheinlich), wird und kann man im High End bereich (vieleicht erst im NV35) auf SLI zurückgreifen, denn die TTNL Unit ist wie du und ICH zuvor schon sagte einge gute Möglichkeit Transitoren zu sparen und (lohnt sich logischerweise erst ab 2 Chips) und diese höher zu takten.

Meine Theorie:
120Mio Trans = TTNL Unit +1x GPU
sagen wir mal: TTNL Unit bekommt 50Mio Trans
dann haben wir 70Mio pro GPU..das wäre bei einer Duallösung also insgesammt 190Mio statt 240Mio Transistoren...also 60mio gespaart.
geht man von 0,13er Fertigung aus, dürften die reinen Chipkosten damit garnicht soviel höher liegen als beim R300.
wenn man über ein 128bit DDR Interface verfügt, wird der Speicher billiger und 256MB erschwinglicher also nur unwesendlich teurer (wenn überhaupt)..und auch der R300 soll ja in einer Version 256MB bekomm und der Parhelia auch..also insgesammt gar nicht soviel teurer.

Möglich ist das locker, wenn NV es will, da kann mir sagen wer will.
Denn 3dfx hat das mit dem Rampage/Sage -> Hydra auch so geplant..und es hätte gefunzt... diehaben den Sage für effizieteres Multichipdesign entworfen, um nich extra jeden chip mit TNL auszustatten. Und die TNL Unit is so leistungsfähig, dass sie alles in den Boden rammt.

Der NV30 wird als Singlechip mit 128bitDDR dem R300 nicht das Wasser reichen und eine High End Lösung ala Sli Sage/Rampage wäre dankbar und von den Kosten machbar...wenn der NV30 ein 256bit interface hat, wird man das nicht machen ...da es nicht nötig ist, genau wie der RadeonMAxx..aber offenhalten trotzdem..vieleicht später...je nach dem...als Notlösung..aber mit 256bit wäre er zu teur...

-> 128bit DDR SLI denkbar als Highend
-> 256bit DDR SLI nur als Profisolution für Quantum3D

Demirug
2002-07-20, 22:23:35
@robbitop:

Ein eigener TTNL Chip wäre eine Design Sünde. So verrückt so etwas zu machen kann heute eigentlich keiner mehr sein.

Warum?

Zweimal die Kosten für das Chippacking.
vergößerung der benötigten PCB Fläche (Die Dinger werden nach cm² bezahlt)
In Summe mehr Transitoren als bei Single chip lösungen da zwischen den Chips ein Interface (bidirektional) eingebaut werden muss.

Und bei einer SLI Lösung (an die ich nicht glaube) müsste man auch zwei TTNL Chips benutzen weil man sonst zwar Fillrate ohne Ende hat aber keine Dreiecke die man Füllen könnte.

robbitop
2002-07-20, 22:31:57
@Demirug
schonma was von den lieben 3dfx jungens gehört??

damals als der Chip rauskommen sollte war er sogar für eine Quadchiparchitektur entwickelt.
Der Durchsatz war damals schon 3-4x so hoch wie bei einer TNL Unit ala GF2....also bitte..DAS HABE ICH MIR NICHT AUSGEDACHT!!
Das war von 3dfx so geplant und es hat funktionoiert...dieser Sage war extrem stark...glaub mir, der würde für 2 Chips ausreichen..3dfx hat es auch hinbekommen und das gilt auch fü+r die kommendne Generationen von 3dfx (wenn es noch da wäre..es war alels os geplant..ext TNL für immer so wie sli...gerade du müsstest das doch wissen)...

und das Chippckegning lohnt sich mit zunehmender Komplexität....

3dfx hätte und HAT es realisiert, also MUSS es gehen...

oder? ;D

Gohan
2002-07-20, 22:38:42
Stimmt beides. Aber wie hatte es 3dfx vor mit dem Specter vor? Dort sollte es drei Versionen geben:

1 Rampage + 1 T&L
2 Rampage + 1 T&L
2 Rampage + 2 T&L

Wenn die T&L Einheit leistungsfähig genug ist, wird sie mit 2 Chips sicherlich genug zu tuen haben. Aber wir werden sehen ;)

Zudem, bei einer inteligenten Boardarchitektur, könnte man zwei Chips+externe T&L Einheit auch gut auf einem Board unterbringen was so groß wie das der Ti4400/4600 ist. Denn:
Weniger Transitoren, gleich weniger Abwärme, gleich kleiner Kühler, wieder mehr Platz für andere Bauteile :)

2 Interne T&L Einheiten gehen natürlich auch und wenn ne SLI Karte wird, dann müssen die Chips auch garnicht bis zum Limit hochgetaktet werden. Zweimal 300 Mhz wäre schon ordentlich.

Mist, da war jemand schneller :D

robbitop
2002-07-20, 22:41:21
hatte bei 3dcenter mal sowas gelesen und klang sehr überzeugend..deswegen TTNL Unit..wir werden sehn..
ach ich wünschte ich wäre Chiefscientists..ich würde euch die besten Boards basteln.....:chainsaw:

ow
2002-07-20, 22:41:23
@robbitop

Was aus 3dfx geworden ist, ist dir ja bekannt.
Ich stimme da mit Demirug voll überein:


So verrückt so etwas zu machen kann heute eigentlich keiner mehr sein.



[edit] nochwas: irgendwelche brauchbaren Infos zu den nicht mehr erschienen 3dfx Projekten gibt es AFAIK nicht.
Alles nur Gerüchte.

Gohan
2002-07-20, 22:47:29
Wieso nicht? Bei einer Dualchiplösung wäre es auf jeden Fall die Kostengünstigere Variante meiner Meinung nach.

Anstat 2x135 Mio. Transitoren, z.B. 2x100 + 1x35 (Kein Plan wie groß die T&L Einheit ist...)

Jedoch wissen wir ja garnicht ob es eine Dualchiplösung geben wird ;)

Demirug
2002-07-20, 22:47:56
Originally posted by robbitop
@Demirug
schonma was von den lieben 3dfx jungens gehört??


Aber klar doch:D


damals als der Chip rauskommen sollte war er sogar für eine Quadchiparchitektur entwickelt.
Der Durchsatz war damals schon 3-4x so hoch wie bei einer TNL Unit ala GF2....also bitte..DAS HABE ICH MIR NICHT AUSGEDACHT!!
Das war von 3dfx so geplant und es hat funktionoiert...dieser Sage war extrem stark...glaub mir, der würde für 2 Chips ausreichen..3dfx hat es auch hinbekommen und das gilt auch fü+r die kommendne Generationen von 3dfx (wenn es noch da wäre..es war alels os geplant..ext TNL für immer so wie sli...gerade du müsstest das doch wissen)...

und das Chippckegning lohnt sich mit zunehmender Komplexität....

3dfx hätte und HAT es realisiert, also MUSS es gehen...

oder? ;D

Und genau da liegt das Problem. Sage war bestimmt nicht für sowas wie VS 2.0 gedacht. Desweiteren ist es (entschuldige) Schwachsin einen Chip zu bauen der 4 andere mit Daten versorgen kann und dann im wesentlichen nur auf Karten mit einem benutzt wird. Sowas macht man nur wenn man seine Marktposition für unangreifbar hält. Desweiteren ist der Markt für SLI einfach zu klein als das sich dort Profit machen läst.

Beim Chippacking setzen sich die Kosten sehr einfach zusammen

Grundpreis + Materialkosten (linear zur Fläche) + Pins * Kosten Pro Pin

Bei zwei Chip Lösungen wird das immer teurer als bei nur einem Chip. Zwei Chip Lösungen werden aber denoch eingsetzt wenn die DIE Ausbeute um soviel höher ist damit sich die mehrkosten ausgleichen lassen.

robbitop
2002-07-20, 22:51:46
@ow

tja das hat damit GARNIX zu tun...

ich weiss nicht wieviel du über die geschichte von 3dfx weisst, aber SO stimmt das schon mal garnicht...das is für mich Kindergarten..betrachten wir differenziert:
Warum is 3dfx untergegangen??
Fehlende Innovation (der VSA war garnicht geplant, wurde nur zwischengeschoben, aufgrund massiver probleme mit dem Spectreprojet..denn der VSA war nur ein aufgebohrter V2 (AFAIK)).
Auch wenn diese nicht zu der Zeit sinnvoll war (32bit war damals uninteressant(Games brachte es nix und vom Speed her eher schlecht) , aber 3dfx hatte es nicht auf seiner Featurelist stehn...weiterhin TNL...war auch nich soo wichtig...AFAIK ist erst mit UT2003 ein Game raus, was die TNL Unit richtg nutzt..3dfx wollte mit dem Sage gleich Shader statt eine feste TNL Unit...eine wirkliche Innovation wurde leider übersehen: das FSAA von 3dfx...was war noch ihr Tod?
Ja die Verzögerung des V5...der V5 6000 war Afaik auch schuld daran..Quadchip is wirklich unwirtschaftlich...aber an einer Dualchip Variante festzuhalten nicht...es wurden schwerwiegende Fehler begangen....das stimmt

Es ist aber einfach nur falsch und KINDERGARTEN zu sagen..3dfx hats gemacht, die sind untergegang, also wird es schlecht gewesen sein...

wohl wie ihr ausgezeichnetes FSAA???

Das waren ganz andere Gründe und das Know how über den Spectre zu nutzen is nich dumm und wäre machbar und wirtschaftlich, wie wir mehrfach dargelegt haben..aber nur wenn es zu eienm 128bit Interface kommt...und auch die ext TNL Unti hätte genug Power...3dfx hat sich schon damals was bei gedacht und die Ingeneure habe ihre Sache verstanden....

Sorry, nimms nich persönlich, aber dein Statement halte ich für zu Oberflächlich....

@Demirug, deine Argumente sind überzeugend und trotzdem lassen sie nach vorhandenen Wissenstand die Möglichkeit...

turboschlumpf
2002-07-20, 22:57:01
mensch, mensch.
was da wieder für, imo extrem unrealistische, specs und spekulationen ausgegraben werden...
tztztz.
naja, dann mach ich eben auch mal:
tbr und 256 bit speicherinterface ist so gut wie ausgeschlossen
- 0.13 micron herstellungsprozess
- externe t&l einheit im stil des sage
- 120 mio transistoren ergeben sich aus gpu und t&l zusammen
- 8 pixel pipes mit je 2 textur einheiten
- 128 bit speicherinterface mit sagen wir 750+ mhz effektiver taktrate
- 350 mhz chiptakt
auch ist dies der erste chip an dem das 3dfx designteam mitarbeitet.
ausserdem wurde die 3dfx technologie mehrmals als 'sehr interessant' beschrieben.
- t&l chip extrem leistungsfähig mit vielen features
- mehrere verschiedene kombinationen der chips (1 gpu + 0 t&l; 1 gpu + 1 t&l; 2 gpu + 1 t&l) und u.U. verschiedene taktraten
- weiterentwickeltes aa und af
...
mit solchen aussagen dass nvidia schon verloren und keine chance gegen den r300 hat wäre ich aber vorsichtig.
warten wir doch einfach ab bis nv30 vorgestellt wird und/oder es erste tests gibt.
spätestens dann kommt das böse erwachen, muhahaha...
ich glaube auch eher nvidia wartet wieder bis die karten der konkurrenten auf dem tisch liegen und legt dann richtig los bzw. bringen nur so viel wie sie für nötig halten um ati auf distanz zu halten.

robbitop
2002-07-20, 22:59:02
und wieder einer Mehr in meinem Boot ....yeah

:bäh:

86318
2002-07-20, 22:59:11
Originally posted by Gohan
In wie fern das jetzt eine richtige Dualchiplösung ist, die sich auch die Arbeit teilen weiß ich nicht.

für mich schaut das eher wie eine dualmonitor-lösung aus, ähnlich den matrox-karten.

zum thema sli:

glaubt ihr wirklich ati und nvidia lassen sich darauf ein? beide wissen, dass der jeweils andere dualchip-karten produzieren kann (beide haben erfahrung darin). und beide würden es wohl tun (müssen), wenn erst mal einer damit anfängt. aber dualchip-karten bringen ja nicht wirklich geld ein (mit den derzeitigen chips zumindest). es wäre für beide schlecht, wenn einer damit anfängt. erinnert einen irgendwie an den kalten krieg.

die bisherigen dualchip karten sind ja in völlig anderen situationen herausgekommen:
- voodoo2: 3dfx war quasi monopolist, auch ohne sli. außerdem kostete ihnen sli fast nichts, sie verkauften einfach 2 karten mit doppeltem gewinn.

- voodoo5: 3dfx brauchte dualchip für die leistung.

- ati rage fury maxx: siehe voodoo5, nur konnte ati es sich besser leisten.

derzeit sieht die situation aber für ati und nvidia anders aus. niemand würde an dualchip karten was verdienen.

ähnlich wars ja auch bei der voodoo5 6000: kein markt dafür, weil sie viel zu teuer gewesen wäre. und rein aus marketinggründen (eindeutig schnellste karte) konnte 3dfx es sich nicht leisten.

nur wenn beide dualchip karten hätten, würde sich die performance nicht so sehr unterscheiden. das marketingargument wäre weg. und wozu dann noch dualchip???

Gohan
2002-07-20, 23:00:37
Für mich ist es so: Wird eine T&L EInheit nach Aussen verlegt, könnte man diese viel Leistungsfähiger gestalten, da diese dann nicht mehr mit dem Chip zusammenhängt und man dort ruhig ein paar Transitoren mehr verbauen kann und darauf achten zu müssen das der Chip vor Hitze bald verbrennt.

Dunkeltier
2002-07-20, 23:00:53
Nur das ATI sich einen kleinen Vorsprung herausentwickelt hat, und einen R300 mit 0,13 micron und ein paar Zusatzfeatures nachlegen könnte.

HOT
2002-07-20, 23:02:40
Originally posted by turboschlumpf
mensch, mensch.
was da wieder für, imo extrem unrealistische, specs und spekulationen ausgegraben werden...
tztztz.
naja, dann mach ich eben auch mal:
tbr und 256 bit speicherinterface ist so gut wie ausgeschlossen
- 0.13 micron herstellungsprozess
- externe t&l einheit im stil des sage
- 120 mio transistoren ergeben sich aus gpu und t&l zusammen
- 8 pixel pipes mit je 2 textur einheiten
- 128 bit speicherinterface mit sagen wir 750+ mhz effektiver taktrate
- 350 mhz chiptakt
auch ist dies der erste chip an dem das 3dfx designteam mitarbeitet.
ausserdem wurde die 3dfx technologie mehrmals als 'sehr interessant' beschrieben.
- t&l chip extrem leistungsfähig mit vielen features
- mehrere verschiedene kombinationen der chips (1 gpu + 0 t&l; 1 gpu + 1 t&l; 2 gpu + 1 t&l) und u.U. verschiedene taktraten
- weiterentwickeltes aa und af
...
mit solchen aussagen dass nvidia schon verloren und keine chance gegen den r300 hat wäre ich aber vorsichtig.
warten wir doch einfach ab bis nv30 vorgestellt wird und/oder es erste tests gibt.
spätestens dann kommt das böse erwachen, muhahaha...
ich glaube auch eher nvidia wartet wieder bis die karten der konkurrenten auf dem tisch liegen und legt dann richtig los bzw. bringen nur so viel wie sie für nötig halten um ati auf distanz zu halten.

Ahh, ein ganz konservativer :D
Mit dem Chip wirste kein Scheisshaus stürmen können ;)
Und 120Mio Transisoren auf 2 Chips verteilen? wuzu dann der 130nm Prozess? hmmm... (bidde nicht ernst nehmen, nur kommentar :D)

robbitop
2002-07-20, 23:06:30
Multichip wäre für NV ERFORDERLICH wenn sie eben diese High End Prestige Produkt aufgrund 128bit DDR zu lahm is...eine DualChipkarte wäre bezahlbar...

Und ATi würde keine Baun, da die das 256bit Interface ham...NV würde die nur baun bis sie dieses Interface auch ham...

Ich denke dass diese KALTE KRIEG Situation nur aufkäme wenn der NV300 allein stark wäre und kein Dualchip nötig wäre um gleichzuziehn mit R300...wenn das nicht drin is nur dann...eben High End Prestige

Demirug
2002-07-20, 23:09:59
@Gohan:

Wenn man zwei Chips daraus macht haben die als Summe sowieso mehr Transitoren da man ein Kommunikationsinterface zwischen den Chips braucht.

Das Dumme dabei ist nur folgendes man kan nur einen Chip direkt an den AGP hängen. Macht man das mit dem VS Chip müssen alle Texturen und Renderstates die man braucht durch diesen Chip durch. Hängt man den AGP an den anderen Chip müssen alle Vertexdaten erst mal zum VS Chip geschickt und dann wieder zurück. Beides ist IMO ziemlich unbrauchbar.

86318
2002-07-20, 23:13:17
Originally posted by robbitop
Ich denke dass diese KALTE KRIEG Situation nur aufkäme wenn der NV300 allein stark wäre und kein Dualchip nötig wäre um gleichzuziehn mit R300...wenn das nicht drin is nur dann...eben High End Prestige

davon gehe ich aus. gleiche leistung von nv30 und r300. sagen wir +/- 15%. sowas wird nvidia ja doch schaffen.
ausser natürlich der chip wäre langfristig als dualchip-lösung geplant worden. das würde die situation natürlich ändern.

turboschlumpf
2002-07-20, 23:16:18
oh doch, die infos zu den 3dfx chips gab/gibt es.
http://www.3dconcept.ch/cgi-bin/showarchiv.cgi?show=2208
glaubt es oder lass es bleiben.
ist doch eh alles vaporware, muhaha.

ach ja, und meinen letzten post bitte nich so ernst nehmen.
nachdem ich die vielen vermutungen am anfang des threads gelesen habe wollte ich eben auch mal mitmischen :D
auch hab ich nicht gesagt für wen es das böse erwachen wird.
naja, ich denke eben nv30 wird sich sehr an specter anlehnen und viele punkte übernehmen.
naja, und wie sagt man so schön??
nvidia handelt 'as market requires' oder so ähnlich :)

[edit] mit nur 85% der performance des r300 gibt sich nvidia sicher nicht zufrieden

86318
2002-07-20, 23:24:34
Originally posted by turboschlumpf
mit nur 85% der performance des r300 gibt sich nvidia sicher nicht zufrieden

natürlich nicht. aber ich denke es wäre die schmerzgrenze, ab der sie sich eine dualchiplösung überlegen würden. wenn der abstand kleiner wäre würden sie es sicher nicht machen. mehr als 15% könnte nämlich auch nvidia nicht einfach so aufholen.

edit: aber ich halte dieses szenario sowieso für sehr unwahrscheinlich.

Demirug
2002-07-20, 23:25:38
Originally posted by robbitop
Multichip wäre für NV ERFORDERLICH wenn sie eben diese High End Prestige Produkt aufgrund 128bit DDR zu lahm is...eine DualChipkarte wäre bezahlbar...

Und ATi würde keine Baun, da die das 256bit Interface ham...NV würde die nur baun bis sie dieses Interface auch ham...

Ich denke dass diese KALTE KRIEG Situation nur aufkäme wenn der NV300 allein stark wäre und kein Dualchip nötig wäre um gleichzuziehn mit R300...wenn das nicht drin is nur dann...eben High End Prestige

Ich stelle mir jetzt mal ein Planungs Meting bei NVIDIA vor.

Entwickler 1: "David ich glaube das wir mit einem 128 Bit Interface beim NV30 nicht mehr schnell genung sein werden."

David Kirk: "Meinst du wirklich?"

Entwickler 1: "Wenn ATi ein 256 Bit Interface einsetzt sehen wir alt aus"

David Kirk: "Wir wissen das aber nicht sicher?"

Entwickler 2: "Nein sie könnte auch bei einem 128 Bit Interface bleiben"

David Kirk: "Dann reicht uns ja auch ein 128 Bit Interface"

Entwickler 1: "Aber falls es doch ein 256 Bit Interface wird?"
Entwickler 2: "Wir sollten SLI Technik einplanen"

David Kirk: "SLI? Könnte wir mit dem gleichen Aufwand nicht auch gleich ein 256 bit Interface einbauen?"

Entwickler 2: "Ja aber dann haben wir das 256 Bit Interface am Hals ob es wir nun brauchen oder nicht"

David Kirk: "Und wenn wir SLI nicht brauchen sind wir auch nicht besser dran. Falls wir es aber brauchen müssen wir 2 Chips auf die Karte setzten um zu konkurieren. Ein 256 Bit Interface können wir im Zweifelsfall auch wieder auf 128 bit reduzieren aber wir bräuchten auf jeden Fall nur einen Chip."

robbitop
2002-07-20, 23:27:38
@Demirug
mhh..also bei der V5 hat es ja mit dem AGP auch geklappt und irgendwie werden die das beim Spectre auch hinbekommen haben

gehen tut das GARANTIERT..die Probleme die du dir denkst sind sicher alle schon druchdacht worden....

@All

ja kann sein dass er sich dem Spectre ähnelt, denn der sollte die Next gen von 3dfx sein und ich habe kein Ahnung wie das Design aussieht...

aber NV ist dafür bekannt komplexe Designs zu bauen...und ich denke das könnten die evl mit dem Spectre gemacht habe...

we will see....abwarten und Biertrinken..dann is das Abwarten lustiger *eg*

robbitop
2002-07-20, 23:33:46
@Demirug
also dein selbst erdachtes gespräch is ziemlich cool zu lesen (solltest ein Comic veröffendlichen ;-) ) aber einige Fakten sollten betrachtet werden:
1. NV30 IST SLI Fähig..das ist ein Fakt (AFAIK)..für Quantum3D..also wäre das Argument wech
2.hast du recht, aber man hätte noch die vielen Pins...und soo schnell geht das reduzieren auch nicht..und der Herr Kirk (nich der von der Enterprise lol) nmeinte ja 256bit wäre nix für NV...naja ..SLI KÖNNTE die Lösung im NOTFALL sein...

insofern....wäre das gespräch anders z ubetrachten, oder?

turboschlumpf
2002-07-20, 23:36:12
@ robbitop
huhu.
siehst du 'mich' überhaupt noch?
wenn ja,
wie gesagt --> hier <-- (http://www.3dconcept.ch/cgi-bin/showarchiv.cgi?show=2208)
die daten der 3dfx chips.
und 3dconcept war doch eher eine seite auf deren informationen man sich verlassen konnte.

überhaupt findet man bei 3dconcept noch sehr interessante sachen und die besten artikel.

btw:
überhaupt traurig das mit 3dfx.
denn so schlecht war die technik nicht.
vor allem wenn man bedenkt dass specter schon zu zeiten einer voodoo 2 im gespräch war und deren nachfolger werden sollte.

Demirug
2002-07-20, 23:41:31
Originally posted by robbitop
@Demirug
also dein selbst erdachtes gespräch is ziemlich cool zu lesen (solltest ein Comic veröffendlichen ;-) ) aber einige Fakten sollten betrachtet werden:
1. NV30 IST SLI Fähig..das ist ein Fakt (AFAIK)..für Quantum3D..also wäre das Argument wech
2.hast du recht, aber man hätte noch die vielen Pins...und soo schnell geht das reduzieren auch nicht..und der Herr Kirk (nich der von der Enterprise lol) nmeinte ja 256bit wäre nix für NV...naja ..SLI KÖNNTE die Lösung im NOTFALL sein...

insofern....wäre das gespräch anders z ubetrachten, oder?

1. Quantum3D braucht kein SLI. Schau dir doch mal die Projekte von denen an. Das einzige was die Chip können müssen ist eine Bildzyklussync und das geht auch schon mit den NV2x Rheie.

2. Rausbauen geht in diesem Fall sehr schnell wenn es auch wahrscheinlich nicht gemacht würde. Das David Kirk der Meinung ist das 128 Bit reichen könnte daran liegen das man ein AA Verfahren entwicklet hat das nicht mehr so an der Bandbreite hängt. (IMHO ist es möglich MSAA mit ca 10% des bisherigen Bandbreiten bedarfs durchzuführen). Eine SLI Lösung für den NOTFALL einzuplanen wäre IMO Blödsinn da man dann preislich doch zu weit weg von den Mitbewerbern wäre.

Gohan
2002-07-20, 23:52:49
Speku:

Mit dem Parhelia kommt zum erstenmal das Thema weg vom 128 Bit interface auf. (Bitboys lassen wir jetzt mal aussen vor, von denen haben ich noch nie was gesehen) Jedoch sieht nVidia, das dieses höchst inefizient arbeitet. Das Ati mit einem 256 Bit Interface kommt scheint recht unwahrscheinlich, da dies erst grade aufgetaucht gerüchte sind. Und das Thema inefizienz ist auch noch da. Also wird braf an einem Chip mit 128 Bit interface weitergearbeitet, das ohne weiteres auf 256 Bit erweitert werden kann. SLI fähigkeiten werden nur für den Profibrreich vorgesehen. (Qaudrokarten liesen sich so sehr gut vermarkten)

Nun kommt ATI, die es geschafft haben, in 0.15µm einen Chip mit über 100 Mio. transistoren herzustellen und sie haben sogar ein 256 Bit Interface und nVidia muss immer noch auf den 0.13µm warten. Jetzt nehmen wir mal an, das die 0.13µm Produktion erst beginnen kann, wenn alles zu spät ist und so nVidia doch bei 0.15 bleiben muss, aber die Chip nun wirklich zu heiß wird. (3dfx Leut's haben es irgendwie so ansich, zu heiße Chips zu entwickeln)

Wärmeveringernde Methoden wären zu einem die T&L Einheit nach aussen zu verlagern oder eine Dualchip Karte mit niedriger getakteten Chips.

Man ich will das Spekuforum zurück :D

86318
2002-07-20, 23:53:06
Originally posted by Demirug
1. Quantum3D braucht kein SLI. Schau dir doch mal die Projekte von denen an. Das einzige was die Chip können müssen ist eine Bildzyklussync und das geht auch schon mit den NV2x Rheie.


jetzt mal eine ziemlich blöde frage... wo ist der große unterschied?

Demirug
2002-07-21, 00:03:50
Originally posted by 86318


jetzt mal eine ziemlich blöde frage... wo ist der große unterschied?

Quantum3D macht sein Geld ja vorallem im Militär Bereich.

1. Displaytechnik für Panzer, Jets, usw. Da muss vorallem Platz gespart werden und deshalb verbieten sich dort Multichiplösungen fast von selbst.

2. Simulatoren. Dort müssen in der Regel viele einzelne Projektoren angesteuert werden. Die Leistung eines Chips reicht aber durchaus für einen Projektor aus. Das einzige was sichergestellt werden muss ist das alle Chips gleichzeitig den Framebuffer umschalten und alle den gleichen Frame anzeigen. Da die Simus meist recht aufwendig sind wird sowieso in der Regel ein Rechner pro Projektor gebraucht deshalb sind die Grakas dort auch den Consumerkarten sehr ähnlich nur das sie alle über einen datenbus (Fiber) Syncronisiert sind.

Unregistered
2002-07-21, 00:05:07
"
Meines Wissens hat der CEO NICHT die Transistorzahl, nur den Fertigungprozess erwähnt, ist also kein Fakt.
"

Doch hat er.
In einem der letzten 3 Conference Calls hat er genau besagte 120 Mio +- paar Mio erwähnt.
Im genauen Wortlaut sprach er von "around 120 Mio Transistors" ergo Fakt.
Underlined wird das Ganze noch durch eine andere Nvidia Aussage.
Bei jedem komplett neuem Design den Transistorcount zu verdoppeln.
GF4 * 2 sind ungefähr 120 Mio - bisschen mehr ist es aber die Aussage around 120 Mio lässt ja Spielraum nach oben wie nach unten.
Ich setze 120 mal als Fakt an. Ob nun 3 mehr oder weniger spielt eh keine Rolle.


2. widersprichst du mir das Microsoft den nForce nicht mitfinanziert hat. Doch das haben sie nunmal. Schau dir mal genau die x-Box an was du da findest :)
Du wirst einen NV2A finden der dem GF3 fast gleicht bis auf kleine Änderungen. Den GF3 hat MS damit indirekt mit finanziert.
Dazu kommt die MCP Southbridge in der X-Box.
Die X-Box ist vom Grundaufbau ein PC nix anderes.
Mit der x-Box hat Nvidia wunderbar auf Microsoft Kosten Erfahrungen im Chipsatzbereich und Soundbereich gemacht. Faktisch könnte Nvidia sofort einen Chipsatz für P3 und 4 vorstellen. Der Grund warum sie es nicht machen sind die 5$ Lizenzgebühr von Intel.

Also hat NV das Chipsatz Know How auf Sockel A übertragen. Die Änderungen die dafür gemacht werden mussten halten sich doch im sehr geringen Rahmen.

1 Milliarde Dollar hat Nvidia als Anzahlung für das X-Box Projekt bekommen als Entwicklungsvorschuss. Davon konnten die nForce GF3 und GF4 zusammen entwickeln von dem Geld.
Naja und nebenbei gut an den einzelnen X-BOx Chips verdienen sie ja nun auch noch.


BTW ist wohl der X-Box 2 Deal unter Dach und Fach. Ist das nicht herrlich? :)
Gabs nicht mal nen Thread hier im alten Speku Forum "X-Box2 Nv draussen?"
Naja wer zu letzt lacht der lacht immer noch am Besten nicht :)
Das NV trotz einiger Unstimmigkeiten im X-BOx 1 Vertrag (es wurden keine genauen Preisverträge bzw Beschlüsse für die MCP SB gemacht - daher Schiedsgericht angerufen weil man sich nich einigen konnte) nun auch beim x-Box2 Deal dabei ist, kann eigentlich nur an einer ziemlich guten Design Studie bzgl. zukünftiger NV Chips liegen :)

Und nochmal für dich HOT ohne einen R300 Killer kann NV locker 1 Jahr überleben.
High End sind nichtmal 20% des Marktes. Bis die trägen OEMs umsteigen und alle Produkte wechseln muss schon viel passieren. Nur ein HIgh End Teil reicht nicht. Da spielen noch Preise, Lieferbarkeiten, Treiber und miese Marktmethoden hinter den Kulissen ne Rolle.
1 Jahr wären locker drinn ohne NV30.
Würde zwar zu Marktanteilsverlusten führen aber nicht zum Untergang.
Aber dazu wirds eh nicht kommen der NV30 wird rocken und zwar gewaltig :)
BTW hat NV mehr als Doppelt so viel Umsatz wie ATI.
HOT da muss noch sehr viel passieren bis da was anbrennt.

ow
2002-07-21, 00:06:18
Originally posted by HOT


Ahh, ein ganz konservativer :D
Mit dem Chip wirste kein Scheisshaus stürmen können ;)
Und 120Mio Transisoren auf 2 Chips verteilen? wuzu dann der 130nm Prozess? hmmm... (bidde nicht ernst nehmen, nur kommentar :D)


:rofl::D

Muss ich zustimmen.

Gohan
2002-07-21, 00:07:38
Originally posted by Demirug
1. Displaytechnik für Panzer, Jets, usw. Da muss vorallem Platz gespart werden und deshalb verbieten sich dort Multichiplösungen fast von selbst.


Du weißt das die F/A-18 Hornet zur Visualisierung des GPS-Displays 8 VSA-100 verwendet oder? (Natrülich ein Quantum3D-Board)

ow
2002-07-21, 00:12:20
Originally posted by 86318


jetzt mal eine ziemlich blöde frage... wo ist der große unterschied?

IMO, dass bei Quantum praktisch jede Karte bzw. Chip nur einen Teil des gesamten Bildes darstellt.

Also etwa so, als würde das Bild getilt und jedes Tile von einem Chip bearbeitet. Dazu müssen die Chips synchronisiert werden.


Kann man das so sagen, Demirug?


[edit] äh.... wo is die Zeit hin.:D
Hat sich also schon erledigt.

ow
2002-07-21, 00:13:47
Originally posted by robbitop
@Demirug
mhh..also bei der V5 hat es ja mit dem AGP auch geklappt und irgendwie werden die das beim Spectre auch hinbekommen haben




Das hat eben nicht geklappt mit der V5 und AGP.
Die Karte läuft nur im PCI-Modus. Unter anderem wegen der AGP-Probleme gab es nie eine V5-6000.

Demirug
2002-07-21, 00:15:47
Originally posted by Gohan


Du weißt das die F/A-18 Hornet zur Visualisierung des GPS-Displays 8 VSA-100 verwendet oder? (Natrülich ein Quantum3D-Board)

Die genaue Anzahl war mir nicht bekannt. Das aber einer davon nicht gereicht hat wusste ich schon. Beim F-22 Raptor reicht aber eine Geforce 2 GO für das Display.

Edit: Was die Wärme bei einer 2 Chip Lösung angeht: Die Karte wird in Summe noch mehr abwärme produzieren. Man hat dann zwei Hotspots die man aber (da hast du recht) einfacher kühlen kann.

86318
2002-07-21, 00:20:10
Originally posted by Demirug
2. Simulatoren. Dort müssen in der Regel viele einzelne Projektoren angesteuert werden. Die Leistung eines Chips reicht aber durchaus für einen Projektor aus. Das einzige was sichergestellt werden muss ist das alle Chips gleichzeitig den Framebuffer umschalten und alle den gleichen Frame anzeigen.

also ähnlich wie die ersten beispielbilder hier in diesem pdf (http://www.quantum3d.com/pdf/channelsync_wp.pdf) von quantum3d? ich sehe aber trotzdem noch keinen unterschied. bei einem rechnen z. b. 2 chips je 1024x768 und beim anderen rechnen 2 chips je 512x768. wo ist der prinzipielle unterschied?

@ow: genau so stelle ich es mir auch vor. aber warum kann quantum3d das so machen und andere nicht???

Demirug
2002-07-21, 00:32:02
Originally posted by 86318


also ähnlich wie die ersten beispielbilder hier in diesem pdf (http://www.quantum3d.com/pdf/channelsync_wp.pdf) von quantum3d? ich sehe aber trotzdem noch keinen unterschied. bei einem rechnen z. b. 2 chips je 1024x768 und beim anderen rechnen 2 chips je 512x768. wo ist der prinzipielle unterschied?

@ow: genau so stelle ich es mir auch vor. aber warum kann quantum3d das so machen und andere nicht???

Der prinzipielle unterschied ist folgender:



Quantum3D: Rechner -> 3d Karte (mit einem Chip) -> Bildsignal -> Projektor
|
Sync
|
Rechner -> 3d Karte (mit einem Chip) -> Bildsignal -> Projektor

SLI: Rechner -> 3dKarte --> Chip1----> Bildsignal -> Projektor
| |
-> Chip2 -


Machen könnte das jeder der von NVIDIA die Infos dafür bekommt. Nur hat Quantum3d da wohl exclusive Rechte. Und für den Consumermarkt wäre das Preislich uninteresant.

Doomtrain
2002-07-21, 00:34:27
Originally posted by Stefan Payne


Da stimme ich dir mal zu.



Wie großzügig von dir *eg*

robbitop
2002-07-21, 00:54:04
Originally posted by Gohan
Speku:

Also wird braf an einem Chip mit 128 Bit interface weitergearbeitet, das ohne weiteres auf 256 Bit erweitert werden kann.

mhh..also vorhin wurde bereits gesagt, dass ein Chip nicht einfach von 128bit auf 256 bit umgestellt werden kann..nur umgekehrt....

wir werden ja sehn, was passiert....

auch wenn ihr ein Haufen Probleme seht, dürfte SLI machbar sein, muss aber nicht...ich schätze es nur als Notmittel...wäre lustig so eine Karte mit 3 Chips...

AlfredENeumann
2002-07-21, 01:06:32
Ich hab zwar nicht so vielplan von der MAterie was Chipdesign angeht, aber diese ominöse geschichte mit einer extrnen T&L einheit halte ich als Laie für absolut verblödet. Sowas kann sich doch nur irgendein "FANBOY" ausgedacht haben dem ein wenig die Fantasie durchging.

Weshalb soll man so einen Aufwand betreiben für einen externen Chip, der die kosten wieder erhöht und meiner meineung nach für eine DX9-Karte absoluter Ballast ist, da ausreichend Vertex-Shader-Power da ist, um die paar T&L funktionen zu emulieren.

Was sonstige Spekultaionen angeht: Wie das Desing im Endeffekt aufgebaut ist ist mir egal. Ich gehe davon aus das der NV30 und der R300 im Endeffekt sehr ähnlich aufgebaut sein werden, mit einem Geschwindigkeitvorteil seitens des NV30. Wäre schlimm wenn es nicht so wäre.
Was Rohpower angeht und Speed ohne AA/AF werden sich beide wohl nicht viel tun. Die Schlacht wird im DX9 und AA/AF Bereich geschlagen werden.

aths
2002-07-21, 01:08:33
Originally posted by Exxtreme
Laut THG nutzt ATi beim FSAA so eine Art Framebufferkompression welches viel Bandbreite einspart.Klingt nach einer Art Multisampling-Verfahren mit Differenzbuffer. Wird meiner Meinung nach auch von NV im NV30 Verwendung finden. (Ebenso denke ich hätten sie das bereits im NV25 einbauen können, wenn sie aus Marktgründen zu diesem Speed-Up genötigt wären.)

86318
2002-07-21, 01:12:22
@demirug


also das sli der voodoo2 sah dann so aus:

-> 3dkarte -->
/ | \
rechner sync bildsignal
\ | /
-> 3dkarte -->

und um es ganz genau zu nehmen das sli der voodoo5 so:

-> chip1 ->
/ | \
rechner -> 3dkarte sync bildsignal
\ | /
-> chip2 ->



was als bildsignal rauskommt ist mir in dem zusammenhang egal, mit dem bildsignal kann man ja machen was man will, siehe matrox' surround gaming.

und auch quantum3d lässt mehrere chips pro bild arbeiten, man braucht nicht unbedingt mehrere rechner. also ist die quantum3d methode eigentlich dasselbe wie das sli der voodoo2? und ob das ganze dann auf einer karte untergebracht ist wie bei der v5 ist ja dann auch schon egal.

nenn mich von mir aus rechthaberisch aber ich sehe noch immer keinen unterschied ;)

aths
2002-07-21, 01:18:26
Originally posted by ow
Das hat eben nicht geklappt mit der V5 und AGP.
Die Karte läuft nur im PCI-Modus. Wie jede andere Voodoo-Karte auch.
Originally posted by ow
Unter anderem wegen der AGP-Probleme gab es nie eine V5-6000. Doch, bevor Quantum3D das Design lizensierte wurde eine zweistellige Anzahl von STB gefertigter 3dfx Voodoo5 6000 in den USA verkauft.

zeckensack
2002-07-21, 05:23:44
edit: pbbblllt.
Ich bin doof. Freut euch :)

nggalai
2002-07-21, 08:54:03
Hi 86318Originally posted by 86318
und auch quantum3d lässt mehrere chips pro bild arbeiten, man braucht nicht unbedingt mehrere rechner. also ist die quantum3d methode eigentlich dasselbe wie das sli der voodoo2? und ob das ganze dann auf einer karte untergebracht ist wie bei der v5 ist ja dann auch schon egal.

nenn mich von mir aus rechthaberisch aber ich sehe noch immer keinen unterschied ;) Der Unterschied ist ganz einfach:

SLI: mehrere Chips, ein Bild. Oder mehrere Chip-Gruppen, mehrere Bilder. ;)

Q3D Multichip: mehrere Chips, mehrere Bilder oder Bildteile.

Und ja, auch Quantum3D rendert z.T. mit mehreren Chips auf ein Bild--aber dazu nehmen's eben VSA100 mit SLI. Die neueren Teile jedoch verteilen das Bild auf mehrere Projektoren oder Screens, die dann von je einem Chip bedient werden können. (Kachel-System.)

Bei der Leistung der gegenwärtigen und kommenden High-End-Grafikchipsets ist SLI im Consumerbereich ziemlich uninteressant. Die Probleme, die bei dem System auftauchen können und in diesem Thread bereits erwähnt wurden, sowie die enormen Mehrkosten für die Produktion werden IMO durch die effektive Mehrleistung kaum aufgehoben.

Ich denke auch nicht, dass NV30 mit SLI kommen wird. Multichip-Lösung muss nicht gleich SLI sein. ;)

ta,
-Sascha.rb

Gohan
2002-07-21, 09:13:11
In Quantums Aalchemy wurde (wird noch?) eine stinknormale Voodoo 5 6000 verbaut, nur so als Info.Die Karte schien doch schon Produktionsreif geween zu sein.

86318
2002-07-21, 09:36:35
Originally posted by Gohan
In Quantums Aalchemy wurde (wird noch?) eine stinknormale Voodoo 5 6000 verbaut, nur so als Info.Die Karte schien doch schon Produktionsreif geween zu sein.

nein. wird nicht und wurde nie. quantum3d verkaufte schon 4x vsa-100 karten als 3dfx noch probleme damit hatten.

robbitop
2002-07-21, 10:02:37
wenn NVidia ne Multichiplöung bringt, was nun wirklich (und dafür gab es bisher wirklich viele einleuchtende Argumente) nicht wirtschaftlich ist bei solch Komplexen design, dann wäre es SLI, weil das wohl viel Know How von 3dfx beihnhaltet und eine HW-Lösung ist zum Multichip.
Somit wären die Chips darauf konzipiert im Multichipbereich zu funktionieren. AFAIK ist die Variante von ATi über eine AGP Bridge und das AFR nur Softwarelösung, die proplematischer sein sollte.

MACHBAR wäre es zur Not..doch es entspricht nicht dem "Charakter" von NVidia (Viele Chip= 1 Zeichen von Schwäche)...doch klappen MUSS es, zur NOT, denn 3dfx hatte seine zukünftigen Chips darauf ausgelegt (Spectre/Hydra).
SLI ist zwar nicht die effektivste Methode, aber wohl die mit dem Meisten Know How und viel erprobt..software Lösung ala ATi wären hier prolematischer, da die Chips nie auf Multichip ausgelegt waren.

Doch ich denke dass es nicht nötig sein wird.

WE WILL SEE...

Aber ihr würdet so ein Hammerteil bestimmt auch kaufen wollen, oder :D

Demirug
2002-07-21, 10:17:11
@robbitop:

Auch NVIDIA bräuchte für sowas eine Art AGP Bridge. Das KnowHow haben sie bei der nForce Entwicklung sicher bekommen. Nur bauen müssten sie den Chip dafür immer noch. Denn die SLI Funktionalität direkt in den NV30 zu bauen wäre eine verschwendung von Transitoren die sich auch NVIDIA nicht leisten kann.

robbitop
2002-07-21, 10:20:04
naja ok, dann kommt das halt in meinen TTNL Chip mit rein ....da
is noch platz :D

hast schon recht, es wird nich einfach, aber ich ruf David ma an, ob er das nich machen kann, ich geb ihm dann nächstes mal ein aus wenn er meinen Rasen gemäht hat ;D

ow
2002-07-21, 11:28:06
Originally posted by aths
Wie jede andere Voodoo-Karte auch.


AFAIK ist der VSA100 AGP4x fähig und die V4 läuft auch in diesem Modus, oder nicht?

Piffan
2002-07-21, 11:39:00
Warum wird immer gesagt, dass Mehrchiplösungen so teuer sind? So teuer, dass ein einziger Monsterchip billiger kommt??

Sind dies Schätzungen ins Blaue oder sind die echt fundiert?
Als Laie habe ich null Ahnung von den Kosten einer Graka....Also mal ins Blaue: Die effektiven Kosten ergeben sich doch wohl aus folgenden Faktoren:

1. Wenn ich eine hohe Taktrate brauche, ist bei komplexen Designs die Ausbeute bei der Chipherstellung mickrig --> Kosten steigen....

2. Wenn der Die- Shrink bei komplexen Chips so massive Probleme macht, dass sich ein Konkurrent massiv verspätet oder gar scheitert --> ultrateuer, kann den Kopf kosten....(DFX ist letztlich an den Verspätungen verreckt, auch wenn hier andere Faktoren ausschlaggebend waren)
3. Eine nicht geringe Rolle bei den Kosten spielen die Speicherpreise, wenn ich einen Konkurrenten nur mit der Brechstange einholen kann, wird das Produkt unbezahlbar....

4. Die zunehmende Wärmedichte und die Stromverbräuche rufen geradezu nach einer Entflechtung: Weniger Kühlungsaufwand/geringere Kosten...

Für mich spricht nicht gerade wenig dafür, dass man bei NV doch auf das DFX- Knowhow zurückkommt: Multichip und Gigapixeltechnik sind nicht völlig unattraktiv...

Aber wahrscheinlich kommt alles ganz anders und gerade die Gigapixel- Technologie ist es, die den NV trotz stagnierender Takte gaaanz weit nach vorne bringt und somit diese wilden Spekulationen ehe nur der Unterhaltung dienen...;)

HOT
2002-07-21, 11:41:07
na ja, SLI bei einem Chip mit mehr als 120Mio Transistoren halte ich für absolut ausgeschlossen. Wenn sie wirklich SLI nutzen wollen, müssen sie einen kleineren Chip produzieren, der zudeem auchnoch eine akzeptable Stromaufnahme bietet.

Desweiteren @unreg, such mir bidde die Stelle, in der der CEO von den Transistoren redet.
Desweiteren hat der NForce NICHTS mit der XBox zu tun, ist also NICHT mitfianziert!
Natürlich ist die XBox ein normaler PC, das ist mir bewusst. Die SB ist aber das kleinere Projekt gewesen und die beiden neuen SBs haben nun wirklich garnichts mehr mit der XBox zu tun. Den genauen Geldfluss müsste man sich ansehen, da hab ich im mom keine Ahnung von.
Desweiteren hätt ich gern nen Link zum XBox2 Deal. NV sollte daranm ja nicht mehr beteiligt werden.
Das NVidia mit der jetzigen Serie ein Jahr überleben kann ist richtig. Das sind wir von verschiedenen Voraussetzungen ausgegangen.
Trotzdem wird es dann so oder so kritisch. Es ist eine Tatsache, dass die Leute lieber Chips des Herstellers kaufen, der das beste Produkt auf dem Markt liefert. NV ist das beste Beispiel dafür.
Es kämer darauf an, was NV in dem Jahr dann für investitionen Tätigt. Das könnte dann ganz schnell im Desaster enden wie bei 3Dfx.

Labberlippe
2002-07-21, 11:45:44
Hi

Ich glaue kaum das der nächste nVIDIA Chip auf SLI Basis kommen wird.
Warum ???
nVIDIA hat jetzt schon seit Jahren Erfahrungen gesammelt mit den bisherigen Designs.
Jetzt auf komplett neu zu machen wäre auch für nVIDIA Riskioreich.
Ich glaube eher das der Chip bis zu 256Bit geht aber mit 128 vorerst angeboten wird.

Gruss Labberlippe

Ikon
2002-07-21, 11:46:21
Originally posted by Piffan
Aber wahrscheinlich kommt alles ganz anders und gerade die Gigapixel- Technologie ist es, die den NV trotz stagnierender Takte gaaanz weit nach vorne bringt und somit diese wilden Spekulationen ehe nur der Unterhaltung dienen...;)

Gigapixel arbeitete, wie schon mehrmals erwähnt, an einem TBR -> "tiling is bad"

Demirug
2002-07-21, 12:06:49
Originally posted by HOT
na ja, SLI bei einem Chip mit mehr als 120Mio Transistoren halte ich für absolut ausgeschlossen. Wenn sie wirklich SLI nutzen wollen, müssen sie einen kleineren Chip produzieren, der zudeem auchnoch eine akzeptable Stromaufnahme bietet.


Full Ack


Desweiteren @unreg, such mir bidde die Stelle, in der der CEO von den Transistoren redet.


Schau dir mal die Folien an. Die Zahlen sind zwar nicht gut zu lesen aber beim NV30 scheinen es wirklich 120 Mio zu sein.


Desweiteren hat der NForce NICHTS mit der XBox zu tun, ist also NICHT mitfianziert!


Indirekt schon. Sie konnten den Soundcore, Netzwerk, USB, HT-Interface, usw. von den XBox Chips nehmen und in den NForce einbauen. Sie brauchten dann im wesentlichen nur noch das PCI-Interface den AGP-Port und noch ein bischen SM-Technik.


Desweiteren hätt ich gern nen Link zum XBox2 Deal. NV sollte daranm ja nicht mehr beteiligt werden.


Die Sache ist eigentlich ganz einfach. Aufgrund der X-BOX Systemarchitektur bleibt MS fast gar keine alternative als den Grafikchip wieder bei NVIDIA einzukaufen. Wenn ihr wissen wollt warum schaut euch mal die PS2 an dann sollte einiges klar werden.


Das NVidia mit der jetzigen Serie ein Jahr überleben kann ist richtig. Das sind wir von verschiedenen Voraussetzungen ausgegangen.
Trotzdem wird es dann so oder so kritisch. Es ist eine Tatsache, dass die Leute lieber Chips des Herstellers kaufen, der das beste Produkt auf dem Markt liefert. NV ist das beste Beispiel dafür.
Es kämer darauf an, was NV in dem Jahr dann für investitionen Tätigt. Das könnte dann ganz schnell im Desaster enden wie bei 3Dfx.


Stillstand bedeutet Rückschrit. Bei den Grafikchips gilt das ganz besonders.

Kennung Eins
2002-07-21, 12:10:10
Originally posted by Demirug
Die genaue Anzahl war mir nicht bekannt. Das aber einer davon nicht gereicht hat wusste ich schon. Beim F-22 Raptor reicht aber eine Geforce 2 GO für das Display.Öhm...das Flugzeug flog erstmalig am 29. September 1990 ... "GeForce 2 Go" ???
Oder haben die das umgerüstet?

Demirug
2002-07-21, 12:18:48
Originally posted by Kennung Eins
Öhm...das Flugzeug flog erstmalig am 29. September 1990 ... "GeForce 2 Go" ???
Oder haben die das umgerüstet?

Ja, die neuen Displays werden ca seit ende 2001/anfang 2002 eingerüstet.

Haarmann
2002-07-21, 12:24:59
Allgeimene Irrtümer

Die Die Fläche ist nicht nur von der Anzahl Transistoren abhängig, sondern vor allem von deren Anordnung. Grosse Caches z.B. sind sehr einfach auf kleiner Fläche unterzubringen, haben aber einen riesigen Transistorcount.

Kleines BSP 0.15 Technik 3*3 "Pixel" pro Transistor = bei einem Layer = ca 493'827'160 Transistoren pro cm^2. Dummerweise sind auf den Chips mehr denn ein Layer, aber halt auch Leiterbahnen... und genau die fressen sehr viel Platz, da die Bahnen ja auch nicht zu lange werden dürfen (Laufzeiten) usw. Ergo ein 0.15 Chip mit 120mio Transistoren kann weniger Fläche haben, denn einer mit 100mio.
Damit ich das auch noch mit nem BSP aus der "freien Wildbahn" belege, nehmen wir mal DRAMs... z.B. 256 MBit pro Chip (Das sind die Käfer auf 512 Modulen) = 256+ mio Transistoren ke Chip...

Die V5 6000 lief 1A, aber offensichtlich ned mit jedem Chipset (Was laut Meldungen z.B. auch ne Kyro2 ned macht... oder ne GTS2 ging auch ned im Mac). Wurde nur ned so auf die Leute losgelassen (wieso? - fragt nen anderen).

Demirug

Wäre der NV30 eine Art Chipset (denn 3dfx setzte ja 2 verschiedene Chips ein), dann ist es relativ einfach den T+L/VS Teil die Verteilerarbeit machen zu lassen. Die Transistorkosten, hielten sich im Rahmen. Auch ist die Chipfläche von 2 Chips, ohne Kontakte, kleiner denn die von einem (Routingproblematik). Aber der NV30 wurde wohl schon konzipiert, bevor die 3dfx Leute zu NV kamen - ergo ist die Wahrscheidnlichkeit einer absichtlichen Chipset Lösung sehr klein. Was dazukommt sind ATIs Patente von der Maxx her. NV dürfte wohl kaum nen AFR machen ;). Deswegen sage ich, dass Multichip unwahrscheindlich ist (es sei denn, man hätte statt NV30 ein 3dfx Projekt verbessert und fertiggestellt und nennts halt nun auch NV30 - es gehört ja auch NV).

Aber wie gesagt - ich glaub ned an ne Chipset Variante von den alten NV Leuten.

Aber Dein Szenario klingt gut und logisch - wenn auch vereinfacht...

Ich hab noch ne Spekuvariante C ... Multi Die in einem Gehäuse ...

Und noch nen Grund gegen Multichip. ATI kanns auch, nur einfacher und billiger.

robbitop

SLI beschreibt ein Verfahren sehr genau... und ich bin mir sicher, dass SLI nicht genutzt wird, da es nicht wirklich effizient war... 2 mal V2 war ned doppelt so schnell wie eine V2. AFR ist sehr einfach aufgebaut hat aber fast 100% Effizienz.

Doomtrain
2002-07-21, 12:35:35
Originally posted by Haarmann
Deswegen sage ich, dass Multichip unwahrscheindlich ist (es sei denn, man hätte statt NV30 ein 3dfx Projekt verbessert und fertiggestellt und nennts halt nun auch NV30 - es gehört ja auch NV).



...

Demirug
2002-07-21, 12:40:05
@Haarmann:

Ob die Chipfläche von 2 Chips wirklich kleiner wäre bezweifle ich. Auf beiden Chips müsste ein Kommunikationsinterface (wahrscheinlich HT). Zum anderen wäre es unlogisch das sich Technik die auf alle Teile der Pipeline einfluss hat (LMA) mit zwei Chips viel komplizierter zu machen ist. Aber wir denken ja beide das man es nicht so macht.

Das man ein 3dfx Projekt weiterführt mag ich auch nicht glauben da es mehr aufwand in allen Bereichen wäre. Oder glaubst du das es gut ankommt wenn ein neuer NVIDIA Chip plöztlich die hälfte der NVIDIA OpenGL Extensions nicht mehr beherscht.

Deiner Variante C könnte ich mich anschliessen. Hab ich irgendwo auch mal vermutet.

Wenn NVIDIA wirklich eine Multichip lösung hat bekommt die Variante eine eigne Nummer (NV31?) da man die Zusätzliche Chipfläche bei den Cunsumerchips sparen möchte. Und es wird dann weder SLI noch AFR sein.

robbitop
2002-07-21, 13:17:45
Eure Argumentation wegen Kosten und Effizienz ist SEHR einleuchtend und ich glaube selber kaum noch daran.

Aber WENN sie Multichip machen, DANN so wie der Spectre (nutzt mal den Link von TURBOSCHLUMPF auf Seite 6 ..sehr interessant)..weil hier eben viel know how hinterstekt und man nicht extra etw neues von grund auf entwickeln müsste...

also wenn Multichip dann so wie der Spectre...es wäre machbar
(meine Meinung...da leichter entwickelbar)...

aber ich glaube bald mehr an eine Singlechiplösung :-(

ICH WILL DAS TEIL!!!

Piffan
2002-07-21, 13:55:51
Originally posted by Ikon


Gigapixel arbeitete, wie schon mehrmals erwähnt, an einem TBR -> "tiling is bad"

Natürlich musste NV das ja sagen, der Kyro bot aus NV´s Sicht eine Menge Sprengstoff......Wenn man jetzt selbst so weit wäre, würde man wohl ohne zu fackeln auch einen Tiler auflegen; wenn es denn helfen würde. Was interessieren sich die Marketingleute für ihr Gesabbel von Gestern....

Der Vorteil der Tiler ist ja wohl unübersehbar: Kleine Happen erlauben es, die Bandbreite extrem aufzublasen... indem sich pro Tile alles in internen Caches abspielt....Das HSR würde natürlich nebenbei mit perfektioniert...

Ikon
2002-07-21, 14:13:39
Originally posted by Piffan
Wenn man jetzt selbst so weit wäre, würde man wohl ohne zu fackeln auch einen Tiler auflegen;

DAS ist das Problem -> man kann nicht einfach mal eben einen TBR aus dem Ärmel zaubern. PowerVR hat über den Daumen gepeilt ca. 8 Jahre und 3 Chipgenerationen gebraucht, um einen halbwegs konkurrenzfähigen TBR releasen zu können. Hinzu kommt, dass NV damit überhaupt keine Erfahrung hat, AFAIK haben die nur ein paar Patente/Technologien von Gigapixel übernommen.

HOT
2002-07-21, 15:09:05
Also halten wir fest: Der NV30 ist laut der agabe der 120Mio Trnsistoren wohl ein weiterer Brute Force Chip, da ein DMR Design wohl einfach in der Zeit von Anfang 2000 bis jetzt vollständig zu entwickeln gewesen wäre. Ergo ist der NV30 ein Chip mit 120+ Mio Transistoren, 8 Renderpipes, ein anderes TMU Design wie ATI, 4 Vertexshader der Spec 2.0, PS sehr wahrscheinlich weiter entwicelt als bei ATI (PS2.1 Supportet in DX9.1), Speicheranbindung 256Bit DDR/II Interface (was anderes wäre IMHO schlichtweg Blödsinn).
Dann wird der Chip doch Geforce5 heissen und sehr wahrscheinlich den R300 in seiner jetzigen Form übertreffen, dann wird es kurze Zeit später dann Zeit für eine Radeon10000 mit einem 130nm Chip der mit DDR/II ausgestattet ist -> der Konkurrenzkampf geht in die nächste Runde.
NV seinerseits muss dann wieder auf den aufgebohrten R300 mit dem NV35 kontern. Weihnachten nächsten Jahres wird es dann Zeit für DX10 und den NV40 und R400, beide dann DMR, der eine ist Eigenentwicklung von ATI und der Andere nurtzt 3Dfx Technik, beide haben 8 Renderpipes, ein 256Bit Speicherinterface, noch mehr Takt, vielleicht andere RAM Typen und sind in 130 oder 90nm gefertigt. Die Zeit der Geforce und Radeonkarten ist dann entgültig gegessen.

Ach ja, eins hab ich vergessen:
während ATI und NV sich mit der Radeon10000 und dem NV30 einen heissen Kampf liefern, kammt VIA mit S3 Graphics' Columbia dazu, auch mit 8Renderpipes mit je einer TMU ausgestattet. Der Chip ist in 90nm gefertigt und bietet genausoviel Takt wie der NV30, hat aber nur 100Mio Transistoren und kann ohne externe Stromzufuhr betriebern werden. Der Chip läuft auch mit einem 256Bit DDR/II interface, das sinnvoll aufgeteilt ist, ergo ein wahrer Konkurrent der beiden.

Razor
2002-07-21, 15:23:07
Also eigentlich wollt' ich zu dem Thema j agar nichts sagen, aber nun kann ich es mir einfach nicht verkneifen:

HOT, Du bist ein Traumtänzer !
(und hälst Dich offensichtlich für einen Hellseher)
:D

Bis denne

Razor

P.S.: Wenn ich das richtig sehe, war das eine geballte Ladung an allen unbestätigten Grüchten, die zur Zeit im Netz grasieren und wie immer zu 70-80% falsch sein werden...

Demirug
2002-07-21, 15:26:00
@HOT:

Da wir ja jetzt engültig bei den wildesten Spekulatioen sind.

Der NV30 hat nur ein 128 Bit Interface wird aber trotzdem dm R300 überlegen sein da er ein 8 Sample RG-FAA (im Unterschied zu Matrox mit Stencil und Z-Kanten glätung) einsetzt das nur ca 20% der Bandbreite des bisherigen 4 Sample MSAA braucht. Desweiteren wird der Chip eine neue verlustfreie Texturkompresion beherschen mit der der Bandbreiten Bedarf beim Tri-AF stark gesengt wird.

NV40 wird ebenfalls kein DMR da jede neuen DX Version DMR unfreundlicher wird.

HOT
2002-07-21, 16:10:00
@Razor halt dich mal schön zurück, das ist ein reiner Spekulationsthread und mehr habe ich ja wohl auch net gemacht, ist also alles legitim ;). Was ich damit zum Ausdruck bringen wollte ist die Absurdität von vielen, jetzt schon den NV30 über den grünen Klee zu loben.
warten wir es mal ab. ;)

Zu dem PS von Razor: absoilut korrekt.

Dunkeltier
2002-07-21, 16:49:55
Originally posted by Demirug
@HOT:

Da wir ja jetzt engültig bei den wildesten Spekulatioen sind.

Der NV30 hat nur ein 128 Bit Interface wird aber trotzdem dm R300 überlegen sein da er ein 8 Sample RG-FAA (im Unterschied zu Matrox mit Stencil und Z-Kanten glätung) einsetzt das nur ca 20% der Bandbreite des bisherigen 4 Sample MSAA braucht. Desweiteren wird der Chip eine neue verlustfreie Texturkompresion beherschen mit der der Bandbreiten Bedarf beim Tri-AF stark gesengt wird.

NV40 wird ebenfalls kein DMR da jede neuen DX Version DMR unfreundlicher wird.


Deine Argumente entsprechen in etwa denen in meiner Signatur. Ohne was genaues zu wissen einfach was in den Raum stellen. :)

Razor
2002-07-21, 17:07:47
@Demirug
Der NV30 hat nur ein 128 Bit Interface wird aber trotzdem dm R300 überlegen sein da er ein 8 Sample RG-FAA (im Unterschied zu Matrox mit Stencil und Z-Kanten glätung) einsetzt das nur ca 20% der Bandbreite des bisherigen 4 Sample MSAA braucht. Desweiteren wird der Chip eine neue verlustfreie Texturkompresion beherschen mit der der Bandbreiten Bedarf beim Tri-AF stark gesengt wird.
Gar nicht mal schlecht...
Aber es bleibt (zur Zeit !) was es ist, gell ?
:D

@HOT

"Zu dem PS von Razor: absoilut korrekt."

Na dann bin ich ja beruhigt...
Puhh, dachte schon, die Leute hier würden jetzt völlig ausklinken.
;-)

@Dunkeltier

"Deine Argumente entsprechen in etwa denen in meiner Signatur."

Ich hoffe, das war nicht ernst gemeint, denn sonst müsste ich wohl behaupten, dass Du am allerwenigsten begriffen hast... nichts für ungut, ich sagte ja 'wenn' !
;-)

In diesem Sinne

Razor

P.S.: Auch wenn das Speku-Forum von uns gegangen ist, muss das Ganze doch nicht so dermassen ausarten. Gegen realistische Abschätzungen (sind auch nur Spekulationen, aber eben nicht 'wild' ;-) habe ich ja gar nichts, aber das ging jetzt echt ins Nirwana...

Demirug
2002-07-21, 17:14:41
Originally posted by Razor
@Demirug

Gar nicht mal schlecht...
Aber es bleibt (zur Zeit !) was es ist, gell ?
:D


Wer weiss?

Pussycat
2002-07-21, 18:34:24
Originally posted by Stefan Payne

hehe
Nvidia ist nich 3DFX

Nein, haben sie aber gekauft, zumindest das, was sie haben wollten *eg*

Nicht nur dass... Auch ein paar Spionen, die NV jetzt auch mit ein SLI system vernichten :D

Unregistered
2002-07-21, 20:05:51
0.13 mikron prosess
450 MHz GPU

512-bit arkitektur

AGP 8X

8 rendering pipelines

128 - 256 MB QDR SDRAM

900-1000 MHz QDR SDRAM

400 MHz RAMDAC

Lightspeed Memory Architecture III

Stløtter DirectX 9.1 og OpenGL 2.0

Unregistered
2002-07-22, 21:45:41
Was hatte der Autor dieser Specs im Kaffee?

Man sollte manchen Schreiberlingen echt mal die Drogen wegnehmen. 512bit huahahahhah :D

egdusp
2002-07-22, 22:35:51
Originally posted by Unregistered
Was hatte der Autor dieser Specs im Kaffee?

Man sollte manchen Schreiberlingen echt mal die Drogen wegnehmen. 512bit huahahahhah :D

ATIs R300 und Matrox Parhelia haben schon (intern) eine 512 bit Struktur, denn 256 bit DDR (DOUBLE data ram) schreibt in einem Takt 512 bit. So gesehen ist 512 bit Architektur gleichzusetzen mit 256 bit DDR Interface. Aber vielleicht stammt er ja aus den neuen Ländern und wollte nichts mehr mit DDR zu tun haben ;)

robbitop
2002-07-22, 22:43:16
@unreg2

512bit ist das SPEICHERINTERFACE gemeint..nich 512bit QDR....manmanman
512bitSDR = 256bit DDR = 128bit QDR das resultiert daraus nur (mit = meine ich eigendlich ENTSPRICHT).

Schon der Gf1 war ein 256bit chjip...somit später erweiterbar für DDR128bit Ram.
und der R300 und der Parhelia und wahrscheinlich auch der NV30 sind
512bit Interfacechips...ergo 256bit DDR oder 128bit QDR.

Es ist besser einen 512bit Chip zu entwickeln und wenn man merkt dass kein 256bit DDR benötigt wird, reduziert man nachträglich..umgekehrt ist es VIEL schwerer...so wird es sein. Hätte ATi kein 256bit Interface, würde NV den NV30 reduziern auf 128bit DDR, aber (kostengründe)nun hat einer damit angefangen (der es auch effektiv nutzt ;-D) , also zieht NV nach..denke ich..dass se auch ein 512bit Interface eingeplant haben.

Dass sie QDR nutzen würde der Aussage von Kirk dann sogar nich widersprechen (er meinte nur dass 256bit Overkill seien..und bei QDR wären das nur 128bit bei gleicher Bandbreite)..nur glaube ich nicht daran, da es diesen in sehr geringen Stückzahlen gibt und nicht in brauchbaren Taktfrequenzen...max 250Mhz AFAIK.Auch die Effektivität von QDR wäre in Frage zu stellen, aber es wäre irgendwann mal viel billiger als 256bit DDR, aufgrund der halbierten Anz an Datenleitungen).

Ich glaube an 256bit DDR (also 512bit Interface).

Denn ATi ist mit dem R300 sehr effizient..siehe FSAA und AF...zT 250% bei geicher Speicherbandbreite..wo es nicht so ist, ist die Speicherbandbreite nicht der extrem limitierender Faktor.
Und deswegen, glaube ich, das NV mit 128bit DDR keinen Blumentopf in Speicherlastigen Anwendungen gewinnen kann, siehe 1600x1200x32bitx4xFSAAx16xAF...dort spielt nur noch Speicherbandbreite ne Rolle und dort würden sie immer schlechter aussehn...die Frage ist, ob sie auch eine derartige Effizienz entwickeln....

Meine Meinung:
Ohne 512bit Speicherinterface sind die ohne Tricks geliefert bei Speicherbandbreiten lastigen Anwendung (je höher FSAA +AF+ Auflöung).

Und jetzt kommt ihr!

egdusp
2002-07-22, 22:48:25
Originally posted by Unregistered
900-1000 MHz QDR SDRAM


Dies bedeutet dann wohl 250 Mhz physikalischer Takt.
AFAIK arbeitet QDR nicht indem 4 bit pro Takt gelesen bzw. geschrieben werden, sondern es werden immer 2 bit geschrieben und 2 gelesen.
Dies ist bei Grafikchips sehr ineffizeint, da viel mehr Daten gelesen werden als geschrieben, nur bei Z-Buffer Zugriffen könnte es einen entscheidenen Vorteil geben.
Bei den Texturwerten werden viele gelesen Pixel wieder verworfen (LMA, Z-Test, etec..). Hinzu kommt, dass mehrere Texturwerte zu einem verarbeitet werden (Multitexturing, bei Multipass verringert sich der QDR Vorteil noch weiter), so dass das Verhältnis gelesene Daten/geschriebene Daten bestenfalls 2 zu 1 ist.

Lange Rede kurzer Sinn. 350-400Mhz DDR (bzw. 700-800 Mhz logischer Takt)wären IMHO höchstwahrscheinlich effizienter und billiger.

mfg
egdusp

robbitop
2002-07-22, 23:31:53
*unterschreib* so blöd wird NV nicht sein....

ich schätze DDR Ram bei 350-450Mhz (je nach dem ob 256bit oder nur 128bit DDR)...QDR is ineffizient und nicht wirklich in Massenproduktion in nutztbarer Qualli