PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV30 mit 8x2 Architektur ?


Demirug
2002-07-24, 18:44:22
In den heutiegen 3dcenter news


Ähnliches steht auch in einer nVidia "Programmable Graphics Technology" Präsentation (PDF, 1 MB), zudem findet sich dort noch die Bestätigung für 128 Bit Floating Point Rendering sowie eine 8x2 Architektur beim NV30 (8 Rendering-Pipelines mit je zwei Textureneinheiten) ...


Kann mir mal jemand auf die Sprünge helfen wo genau das in dem NVIDIA Document steht. Ich finde es einfach nicht. ???:bonk:

askibo
2002-07-24, 18:57:12
Es steht drin "16 texture units" auf Seite 15.

Sonst hab ich aber bis jetzt nichts gefunden.

Demirug
2002-07-24, 19:07:56
Originally posted by askibo
Es steht drin "16 texture units" auf Seite 15.

Sonst hab ich aber bis jetzt nichts gefunden.

Danke askibo. Ist aber leider kein Beweis für 8*2. Es bedeutet nur das man in den shadern 16 virtuelle TMUs zur verfügung hat. Wie viele es dann wirklich sind ist eine andere frage.

Ganon
2002-07-24, 19:11:33
Originally posted by Demirug


Danke askibo. Ist aber leider kein Beweis für 8*2. Es bedeutet nur das man in den shadern 16 virtuelle TMUs zur verfügung hat. Wie viele es dann wirklich sind ist eine andere frage.

Aber wenn 16 Textureinheiten für die echte Zahl steht dann stimmt doch 8x2!

Exxtreme
2002-07-24, 19:14:16
Originally posted by Ganon


Aber wenn 16 Textureinheiten für die echte Zahl steht dann stimmt doch 8x2!
Oder 4*4 wie der Parhelia.

Gruß
Alex

Demirug
2002-07-24, 19:21:37
Auf der Seite steht oben "Fragment processor has high resource limits"

Da jede Pipeline einen "Fragment processor" hat hätten wir wenn die Zahl echt wäre 16 TMUs pro Pipeline. Never.

Was aber in dem Zusammenhang ebenfalls noch wichtig wäre ist die Anzahl der Shader ALUs pro Pipe.

Richthofen
2002-07-24, 21:18:19
@Demirug

Noch sind wir zwei ja auf der Suche nach den extra 10 bis 13 Mio Transistoren des NV30 gegenüber dem R300.
Da wäre doch pro Pipe ne zusätzliche TMU drinn :)

Warten wir es ab würd ich sagen.

Leonidas
2002-07-24, 21:54:50
Mmh. Also "16 texture UNITS" ist IMO unmißverständlich. Und da der NV30 klar ein 8-Pipe-Design ist, kann es nur 8x2 sein.

Leonidas
2002-07-24, 21:56:11
Originally posted by Richthofen
@Demirug

Noch sind wir zwei ja auf der Suche nach den extra 10 bis 13 Mio Transistoren des NV30 gegenüber dem R300.
Da wäre doch pro Pipe ne zusätzliche TMU drinn :)




Allein schon der externe Vertex Prozessor ergibt zwangsläufig eine anderen Transistorenzahl. Natürlich - für 10-13 Mill. mehr reicht dies noch nicht.

Mave
2002-07-24, 22:30:05
Was wollt ihr denn ???
auf dieser Seite:

http://www.3dcenter.de/
die ich kürzlich im Netz gefunden hab steht es doch ganz genau:

"zudem findet sich dort noch die Bestätigung für 128 Bit Floating Point Rendering sowie eine 8x2 Architektur beim NV30 (8 Rendering-Pipelines mit je zwei Textureneinheiten) ..."


:) :) :) :bäh:

mezzo
2002-07-24, 23:56:37
Originally posted by Leonidas

Allein schon der externe Vertex Prozessor ergibt zwangsläufig eine anderen Transistorenzahl.

Und warum gehst Du so sicher von dessen Existenz aus? ???

Richthofen
2002-07-25, 01:27:19
das würd mich jetzt aber auch mal interessieren? :)
Also ich hab des mit dem externen bisher nur fürn Gerücht gehalten und damit bin ich dann schon skeptisch.

Bei mir war im bisher die Wahrscheinlichkeit das alles auf einem Die ist höher als das NV den Vertex Shader auslagert.

Aufklärung?

zeckensack
2002-07-25, 02:06:21
Originally posted by Richthofen
das würd mich jetzt aber auch mal interessieren? :)
Also ich hab des mit dem externen bisher nur fürn Gerücht gehalten und damit bin ich dann schon skeptisch.

Bei mir war im bisher die Wahrscheinlichkeit das alles auf einem Die ist höher als das NV den Vertex Shader auslagert.

Aufklärung? IMO ist das mit der ausgelagerten VS-Einheit ein Hirngespinst.
Die Geometrieeinheit braucht schnellen Zugriff auf den Speicher. Der Rest (Rasterizer, PS, TMUs) ebenso. Daran führt kein Weg vorbei. Würde man jetzt nur eine der beiden Komponenten mit einem Speicherinterface ausstatten, das von der anderen über einen Bus (auf dem PCB) mitbenutzt wird, hätte man ein riesiges Problem mit dem Platinenlayout und mit der Geschwindigkeit.

Ein Multi-Chip-Modul (mehrere Dies in einem Package) erscheint mir logischer, dadurch liesse sich zumindest die Produktionsausbeute steigern (weil ein Defekt immer nur eine Komponente unbrauchbar macht, nicht das ganze Gerät), auch wenn man erstmal mehr Ingenieursarbeit für einen schnellen Bus braucht. Zumindest liefe dieser dann nicht mehr über die Platine.

Leonidas
2002-07-25, 02:09:04
Warten wir dies einfach ab. Ich geb dem extra Chip eine Chance von 60%, logischerweise 40% dagegen. Ist nicht so weit auseinander, als das ich mich festlegen wollte.

zeckensack
2002-07-25, 02:31:56
Originally posted by Leonidas
Warten wir dies einfach ab. Ich geb dem extra Chip eine Chance von 60%, logischerweise 40% dagegen. Ist nicht so weit auseinander, als das ich mich festlegen wollte. Hey, wir sind hier im Spekulationsforum ;)

Demirug
2002-07-25, 09:48:04
Die 16 TMUs nehme ich jetzt mal als gegeben hin.

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=27163

Da man aber dort noch so ein Geheimniss um die struktur macht wie wäre es mit 16*1. PS 2.0 eignen sich eigentlich nicht so gut für mehr als eine TMU pro Pipe. Wenn allerdings pre PS 2.0 Verwendung findet könnte der Chip intern auf 8*2 oder sogar 4*4 umschalten.

Leonidas
2002-07-26, 14:32:50
Originally posted by Demirug
16*1



Dann hüpf ich vor Begeisterung aus Fenster ;-).

Exxtreme
2002-07-26, 14:39:11
Originally posted by Demirug
16*1
Nur wie will man 16 Pipelines mit einem 128 Bit Speicherinterface auslasten??

Gruß
Alex

nggalai
2002-07-26, 14:55:47
Originally posted by Leonidas




Dann hüpf ich vor Begeisterung aus Fenster ;-). Lieber Gott,

mach dass die NV3x-Chipsets die TMUs in 8x2 oder 4x4 oder sonstwas konfiguriert haben. Nur bitte bitte nicht 16x1.

Amen.

ta,
-Sascha.rb

Demirug
2002-07-26, 14:56:32
Originally posted by Leonidas
Dann hüpf ich vor Begeisterung aus Fenster ;-).

:D Aus welchem Stockwerk???

Aber wie gesagt IMO ist eine 16*1 anordung viel Sinnvoller als eine 8*2.

1. Es erzeugt erstmal eine ernorme Pixel-Füllrate (JC würde sich freuen).
2. ein x*1 Aufbau skaliert bei DX7 und PS 1.x viel besser da im gegensatz zu x*2 Architekturen bei einer ungeraden Anzahl von Texturen im Fragmentprocessing nicht eine TMU einmal pro Pass ungenutzt bleibt.
3. Wenn ich mir die PS 2.0 anschaue mit den Textur und Colorops in beliebiger Reihenfolge wo eine Op direkt auf dem Ergebniss eines vorgehenden aufbaut würde bei x*2 Aufbau die optimierung eines PS auf die Hardware durch den Treiber zu einer höllisch komplizierten Aufgabe werden. Wäre ein ähnliches Problem wie bei moderenen CPUs die mehrer FPU (ColorOps) und Int (TexturOps) einheiten haben auf die man die Arbeit verteilen muss. Das ganze dürfte schon bei einer TMU pro Pipe nicht ganz leicht sein.

Demirug
2002-07-26, 15:14:51
Originally posted by Exxtreme

Nur wie will man 16 Pipelines mit einem 128 Bit Speicherinterface auslasten??

Gruß
Alex

LMA III with framebuffer tile compression Support.

EDIT: und natürlich FAA

Exxtreme
2002-07-26, 15:53:15
Originally posted by Demirug


LMA III with framebuffer tile compression Support.

EDIT: und natürlich FAA
Wenn FAA denn Verwendung findet. Und wenn ja, dann sollte diese nicht die Nachteile der Matrox-Technik haben. Die framebuffer tile compression hat AFAIK auch die R300 in ähnlicher Form.

Gruß
Alex

Demirug
2002-07-26, 16:56:15
Originally posted by Exxtreme

Wenn FAA denn Verwendung findet. Und wenn ja, dann sollte diese nicht die Nachteile der Matrox-Technik haben. Die framebuffer tile compression hat AFAIK auch die R300 in ähnlicher Form.

Gruß
Alex

Natürlich ein FAA inklusive Z und Stencil Kanten was anderes darf sich NVIDIA IMO auch nicht erlauben.

Die R300 hat eine tile compression was mich daran nur stört ist das dort alles (Z, Stencil, Color) in einen Block gepackt wird. IMO wäre es besser alles einzeln zu packen.

Exxtreme
2002-07-26, 18:37:48
Originally posted by Demirug
Natürlich ein FAA inklusive Z und Stencil Kanten was anderes darf sich NVIDIA IMO auch nicht erlauben.
Hmm, dann kann die Kantenerkennung aber nicht über den Vertex-Shader laufen wie bei dem Parhelia da die Schnittkanten so kaum erkannt werden können, AFAIK. Ein Weg wäre über den Z-Buffer zu gehen, was aber Speicherzugriffe bedeutet und somit die Leistung senkt.


Originally posted by Demirug
Die R300 hat eine tile compression was mich daran nur stört ist das dort alles (Z, Stencil, Color) in einen Block gepackt wird. IMO wäre es besser alles einzeln zu packen.
Wieso denn das???

Gruß
Alex

Xmas
2002-07-26, 18:47:10
Originally posted by Exxtreme
Wieso denn das???
Weil es Bandbreite kostet wenn man nur Color oder nur Z/Stencil schreibt.

Demirug
2002-07-26, 18:48:11
Originally posted by Exxtreme

Hmm, dann kann die Kantenerkennung aber nicht über den Vertex-Shader laufen wie bei dem Parhelia da die Schnittkanten so kaum erkannt werden können, AFAIK. Ein Weg wäre über den Z-Buffer zu gehen, was aber Speicherzugriffe bedeutet und somit die Leistung senkt.


Ich hab da ein Verfahren ausgetüftelt mit dem das sehr gut gehen würde. Ist aber jetzt zu kompliziert das alles hier aufzuführen.



Wieso denn das???

Gruß
Alex

Ganz einfach.

Wenn alles in eimem Block ist muss der auch komplet eingelesen und entpackt und dann wieder gepackt und gespeichert werden. In folgeden Fälle ist das ungünstig.

1. Wenn alle Fragmente in der gerade geladenen Tile dank Early-Z verworfen werden hast du die Color und Stencil Werte umsonst geladen.

2. DOOM III Renderer: Nach dem hinterlegen der Z-Werte im ersten Pass wird der Z-Write abgeschaltet. Wenn alle in einem Block ist müssen die Z-Werte aber trotzdem jedes mal mit rausgeschrieben werden.

3. Stencil ops: Bei Passes ohne Stencil ops werden die Werte umsonst eingeladen und auch wieder geschrieben. Wenn nur Stenciltests durchgeführt werden müssten die Stencilwerte nur geladen werden. Wenn alles in einem Blocks ist werden sie auch wieder mit rausgeschrieben.

Das sind die offensichtlichen Fälle wenn ich noch ein bischen darüber nachdenke finde ich bestimmt noch ein paar.

aths
2002-07-27, 17:45:59
Demirug,

ich bezweifle dass NV30 16 TMUs bekommt.

Annahme 1: NV30 kommt mit 128 Bit Interface und DDR-II-Speicher. Soweit ich das verstanden habe, wäre QDR noch sehr viel ineffizienter als DDR. Pro Takt können bei 128 Bit und DDR jedenfalls maximal 256 Bit übertragen werden.

Annahme 2: Jede TMU muss pro Takt mit 8 Texeln versorgt werden. Das ergibt eine erforderliche Textur-Bandbreite von 4096 Bit pro Takt, Z usw. mal ganz außen vor gelassen. Caches hin oder her, ich traue einem LMA-III nicht zu, diese klaffende Lücke zu schließen. Da müsste es schon eine zwangsweise Textur-Komprimierung geben. Welche Kompressionsraten sich ohne Qualitätsverlust erreichen lassen, steht allerdings in den Sternen.

An 16 Pipelines glaube ich schon gar nicht, allerhöchstens einen 8x2 Aufbau, den NV dann für den NV35 (mit 256 Bit Interface) direkt so übernehmen könnte. Bei 16 Pipelines sehe ich auch das Problem der Ineffizienz bei kleinen Dreiecken.

edit: DDR-II-Rechnung berichtigt.

Demirug
2002-07-27, 18:38:52
aths,

bin mir bei den 16 TMUs ja selbst nicht sicher.

Allerdings sehe ich keinen Grund warum eine 16*1 Pipeline bei kleinen Dreiecken Ineffizienter sein soll als eine 8*2.

Am ende zählt was hinten rauskommt und das ist bei einer 16*1 Pipeline in der Regel mehr als bei einer 8*2 Pipeline. Die Texelfillrate ist bei beiden Aufbauten identisch. Die Pixelfillrate ist bei 16*1 allerdings doppel so hoch. Eine Randbedigung ist allerdings das die Pipelines eine Pre Cache zum sammeln von zu rendernden Fragmente haben.

aths
2002-07-27, 21:57:33
Originally posted by Demirug
Allerdings sehe ich keinen Grund warum eine 16*1 Pipeline bei kleinen Dreiecken Ineffizienter sein soll als eine 8*2. Weil es pro Dreieck und Zeilenende einen größeren Verschnitt gibt.

Demirug
2002-07-27, 22:03:10
Originally posted by aths
Weil es pro Dreieck und Zeilenende einen größeren Verschnitt gibt.

Aber nur wenn die Karte eine stare Rendermaske zum rasterisieren benutzt. Wenn aber durch einen Early Z Filter vor der Pipeline nur die wirklich zu renderden Fragmente durchkommen ist die Anzahl der Pipes in diesem Punkt egal. Erforder halt wie schon gesagt einen Cache vor den Fragmentpipelines.

Xmas
2002-07-28, 13:06:35
Originally posted by aths
Annahme 1: NV30 kommt mit 128 Bit Interface und DDR-II-Speicher. Soweit ich das verstanden habe, ist DDR-II bei Random Access-Zugriffen noch sehr viel ineffizienter als DDR. Pro Takt können jedenfalls maximal 512 Bit übertragen werden.
Wie das? DDR-II ist kein QDR.

aths
2002-07-28, 20:15:35
Stimmt. Womit die Lücke noch größer würde...

aths
2002-07-28, 20:23:03
Originally posted by Demirug
Aber nur wenn die Karte eine stare Rendermaske zum rasterisieren benutzt. Wenn aber durch einen Early Z Filter vor der Pipeline nur die wirklich zu renderden Fragmente durchkommen ist die Anzahl der Pipes in diesem Punkt egal. Erforder halt wie schon gesagt einen Cache vor den Fragmentpipelines. Wenn ich das richtig sehe, müsste der Texturcache dann für mehrere Texturen ausgelegt werden.

Demirug
2002-07-28, 20:37:26
Originally posted by aths
Wenn ich das richtig sehe, müsste der Texturcache dann für mehrere Texturen ausgelegt werden.
??? Versteh ich nicht

Der Cache soll doch lediglich Fragmente vor dem Shading cachen. Damit wenn der Shading vorgang mehr als einen Takt benötigt. Das Trisetup die nächsten 16 Fragmente zum shaden bestimmen und zwischen speichern kann.

aths
2002-07-28, 23:37:27
Meine Überlegung geht so:

Wenn alle Pipelines an der gleichen Textur arbeiten, muss der Textur-Cache nur 1 Textur vorrätig halten. Bei 4 Stages dementsprechend vier. Können nun die Pipelines an unterschiedlichen Dreiecken rendern, dann ja auch mit unterschiedlichen Texturen. Mit 4 Texturen im Cache käme man nicht mehr hin.

Demirug
2002-07-28, 23:42:39
aths,

es werden ja nicht für jedes Dreieck die Renderstates gewechselt. Und sollange das nicht passiert bleiben die Texturen ja auch gleich. Und wenn man anfängt die States zu ändern gehen sowieso massenhaft Takte verloren.

aths
2002-07-29, 00:26:03
Je mehr ich darüber nachdenke, umso mehr denke ich, dass du Recht hast. Bliebe als Grund gegen 16x1 statt 8x2 eigentlich nur noch die Anzahl der Transistoren. Wobei ich bei 16 TMUs generell skeptisch bezüglich der Bandbreite bin. Wird nVidia den NV10-Fehler etwa wiederholen?

Richthofen
2002-07-29, 00:43:24
oder 256 Bit Bus + DDR II einsetzen???
So wie eventuell hier spekuliert:

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=27569

Demirug
2002-07-29, 07:54:11
Originally posted by aths
Je mehr ich darüber nachdenke, umso mehr denke ich, dass du Recht hast. Bliebe als Grund gegen 16x1 statt 8x2 eigentlich nur noch die Anzahl der Transistoren. Wobei ich bei 16 TMUs generell skeptisch bezüglich der Bandbreite bin. Wird nVidia den NV10-Fehler etwa wiederholen?

Die 16 TMUs verursachen auch bei mir noch ein ungutes gefühl. Aber mit entsprechenden Caches wären sie eben ein gutes Mittel um sich abzuheben.

Was die Bandbreite angeht so wird die ja derzeit nicht unerheblich vom AA verbraucht. Hab im Bezug auf AA ne alte Folie von David Krik gefunden. Könnte durchaus sein das man das bei NVIDIA als eine Art Roadmap fürs AA sieht:

http://www.graphicshardware.org/previous/www_1998/presentations/kirk/img060.gif

robbitop
2002-08-09, 09:30:41
da der NV 30 ein komplett neuer Chip ist (1. CoProduktion von NV und den ehem. 3dfx Ingeneuren), so wie der MGA P512 und der P10 und der R300 und ein Chipdesign über mehrere Generationen verwendet wird (selbst die GF4 ist noch vom GF1 UrdesignDesign..halt "nur" ne Evolution), wird man sicher gleich auf 512bit internen Bus konstruiert haben, da man ihn noch mind bis zum NV35 (wer weiss wie gross die Produktpallette wir und vieleicht is das NV40 Design auch nur ne Evo...) braucht. Wäre der NV30 kein Neuchip, dann wäre 256bit Bus ja eher wahrscheinlich. Aber es macht sehr viel Mühe (wenn es überhaupt effektriv geht) nen Chip auf nen anderen Bus zu konzipieren. Ich denke das is ne kaum bis gar nich änderbare sache. Jedoch das Interface zu beschneiden ist immer möglich.

Und auch schon die aussage "effektiv 48GB/s" (mit LMA3) spricht für nen 512bit Bus (256bit DDR). Wie es nunmal bei den neuen GPUs (VPUs) jetzt ist.

Die Frage ist, was verwenden sie für ein AA? Und haben sie ein effektives AF? Bei ATi is der AF famos! Wenn NV es schaft ein VERNÜNFTIGES FAA hinzubekommen, dann wäre das ein eindeutiger Vorteil, wenn die Quallität denn stimme.

Richthofen
2002-08-09, 23:11:13
ok weil das hier Spekulationsforum ist, poste ich mal was ausm Beyond3D Forum

"
Yet another thread about this but fairly intresting!

According to my source who wished to remain anonymous, all the info reactor critical has posted is correct and the NV30 will indeed be effectively capable of reaching 48gb/s of bandwidth!! (keep in mind, effective bandwidth, taking into account HSR, etc...).

The physical bandwidth will be 30-32gb/s according to him and the NV30 will also utilize DDRII memory (meaning that it will ship with it).

From all the gathered info above, his latest tease was:

NV30: 480mhz DDRII * 2 * 256bit=30gb/s
R300: 310mhz DDR * 2 * 256bit=19,8gb/s <-- somewhere near that

Note: He is not sure about the 480mhz number but he assured me that it will probably be clocked at this speed!

I think no comments are needed here!

Keep in mind that my source is very reliable, since the info he provided me the previous times was always correct!

What do u guys think?

P.S
Sorry about the exagerrated use of bolded stuff, I just wanted to avoid confusions.

"

Also ich kann den Wahrheitsgehalt nicht prüfen also nicht mich hauen für die Infos :) Ich weiss auch nicht ob das was der in der Vergangenheit gepostet hat sich als wahr herausstellte.

Simon Moon
2002-08-09, 23:52:27
NV30: 480mhz DDRII * 2 * 256bit=30gb/s
R300: 310mhz DDR * 2 * 256bit=19,8gb/s <-- somewhere near that

Ich dachte eigentlich, gerade du solltest das hier kritisch sehen. Was brächte das nvidia? (also die 50% mehr Bandbreite) Ein 350MHZ Ram würde doch auch schon reichen (und würde eher der Taktik entsprechen).

Richthofen
2002-08-10, 00:23:00
"
Ich dachte eigentlich, gerade du solltest das hier kritisch sehen. Was brächte das nvidia? (also die 50% mehr Bandbreite) Ein 350MHZ Ram würde doch auch schon reichen (und würde eher der Taktik entsprechen).
"

Warum sollte ich das kritisch sehen? Es ist speculation nothing more wie ich oben im Post in den letzten 2 Zeilen geschrieben haben.

Im übrigen wäre es für Nvidia doch kein Problem für so ein High End Teil das entsprechende Geld zu verlangen. Ein Top Modell heisst ja noch lange nicht das nix da drunter kommt mit abgespeckten Taktraten.
Wie ich bereits sagte das ist alles Spekulatius und nix weiter. Ich weiss nicht ob der Typ zuverlässig ist wie er behauptet.
Unsinnig wäre es denoch ganz und gar nicht.
Man könnte ja so ein Teil zum Zerschmettern der Konkurenz benutzen und zum Geld machen einfach ne DX8 GF5MX verkaufen.
Für die Masse vor allem die OEMs reichts ja wenn der Name gleich ist.
Die DAUs raffen das doch eh nicht. Oder du verkaufst nochmal eine DX7 MX Karte die dann mit fully DX9 kompatibel beworben wird.
Obs nun wirklich in Hardware so ist oder nicht kann der der DAU eh nicht unterscheiden.

Simon Moon
2002-08-10, 13:51:42
Originally posted by Richthofen
"
Ich dachte eigentlich, gerade du solltest das hier kritisch sehen. Was brächte das nvidia? (also die 50% mehr Bandbreite) Ein 350MHZ Ram würde doch auch schon reichen (und würde eher der Taktik entsprechen).
"

Warum sollte ich das kritisch sehen? Es ist speculation nothing more wie ich oben im Post in den letzten 2 Zeilen geschrieben haben.

Im übrigen wäre es für Nvidia doch kein Problem für so ein High End Teil das entsprechende Geld zu verlangen. Ein Top Modell heisst ja noch lange nicht das nix da drunter kommt mit abgespeckten Taktraten.
Wie ich bereits sagte das ist alles Spekulatius und nix weiter. Ich weiss nicht ob der Typ zuverlässig ist wie er behauptet.
Unsinnig wäre es denoch ganz und gar nicht.
Man könnte ja so ein Teil zum Zerschmettern der Konkurenz benutzen und zum Geld machen einfach ne DX8 GF5MX verkaufen.
Für die Masse vor allem die OEMs reichts ja wenn der Name gleich ist.
Die DAUs raffen das doch eh nicht. Oder du verkaufst nochmal eine DX7 MX Karte die dann mit fully DX9 kompatibel beworben wird.
Obs nun wirklich in Hardware so ist oder nicht kann der der DAU eh nicht unterscheiden.



Also über die GF5MX muss man sich garnicht den Kopf zerbrechen, da hast du recht.

Aber die Konkurenz zerschlagen ist... naja sie haben sowieso schon den Ruf die schnellsten zu sein. Dem DAU kommt es wohl kaum drauf an, ob die Karte dann 20% schneller (also wohl so 380 - 400Mhz RAM) oder wirklich <50% schneller ist. Ich denke das weiss auch Nvidia und wird diesen RAM lieber nochmal für die übernächste Generation verwenden.
Zudem gibts nochn anderen Punkt: Der RAM ist jetzt bestimmt noch schweine teuer. Also wieso den einsetzen, wenn sie für ein Produkt mit billigerem RAM ähnlich viel verlangen könnten? Den können sie dann in der Next-Gen Karte einsetzen, wenn er billiger ist.

Richthofen
2002-08-10, 14:00:54
naja du musst sehen das er ja geschrieben hat, das seine Quelle den RAM Takt nicht 100% bestätigen kann.
Es kann also durchaus auch weniger sein, sofern die Angaben da oben überhaupt stimmen.
In solchen Dingen ist NV da hast du schon Recht immer clever gewesen. Die werden soviel tun wie sie tun müssen allerdings muss man auch sehen, das bei einem Anteil von 44% am 3D Chip Markt du für jedes % Anteil mehr tun musst als davor. Ab einem gewissen Punkt wird das ergattern von Anteilen schwer.

Hier noch eine Info die er schreibt unter Bezug auf seine Quelle

"
An intresting tidbit:

According to my source, Nvidia already had 10 (!) silicons taped out, but they weren't final. The end of August marks the tape out of the final silicon
"


Wie immer Spekulation. Keine Ahnung ob seine Quelle wirklich zuverlässig ist.

egdusp
2002-08-10, 16:42:48
[B]
Hier noch eine Info die er schreibt unter Bezug auf seine Quelle

"
An intresting tidbit:

According to my source, Nvidia already had 10 (!) silicons taped out, but they weren't final. The end of August marks the tape out of the final silicon
"


Wie immer Spekulation. Keine Ahnung ob seine Quelle wirklich zuverlässig ist.

Dann müsste das jetzige Stepping ja bereits A10 sein, oder täusche ich mich da?
Es kann 2 Gründe für die hohe Anzahl von Steppings geben:
1: Der Chip und/oder die Ausbeute machen enorme Probleme, so dass er nicht finktionsfähig/kostendeckend produziert werden kann.
2. nVidia will die Ausbeute solange optimieren, bis der R300 erhältlich ist und anschließend mit hochoptimierten (= billigem) Herstellungsprozeß ATI auf der Performance und der Preis-Leistungsebene angreifen. Zumindest sofern die nv Marketing/Managementabteilung der Meinung ist, dass man 2-3 Monate Vorsprung von ATI durch Paperlaunches und Prozeßoptimierung ohne (Image)Probleme überstehen kann.

mfg
egdusp

Richthofen
2002-08-10, 16:57:19
nach seinen Aussagen bzw denen seiner Quelle hatten sie immer mal paar kleinere Fehler drinn, so das das Teil zurück musste.
Sozusagen Debugging.

Wenn also Ende August Final Sillicon ist, dann würde sich das in etwa mit den Aussagen vom CEO decken.

ram
2002-08-11, 23:57:33
Und auch schon die aussage "effektiv 48GB/s" (mit LMA3) spricht für nen 512bit Bus (256bit DDR). Wie es nunmal bei den neuen GPUs (VPUs) jetzt ist.[/SIZE]

Kommt ganz darauf an, was alles in dieser LMA3 steckt. 128bit und ca. 400 MHz DDR-II mit 4:1 Multisample-Buffer-Kompression gäbe z.B. bei der Nutzung von AA z.B. auch etwa PR-effektive 48 GiB/s.

:)

Pussycat
2002-08-12, 14:45:13
Durch den HSR kann mann sich ja fast unendlich viel Bandbreite einsparen (63/64 bei HyperZ).

Eine sehr fremde angabe, ergo marketing, ergo nichts wert.

Börk
2002-08-17, 20:41:16
Originally posted by Exxtreme

Oder 4*4 wie der Parhelia.

Gruß
Alex

oder 16*1 ;)

aber ich denke 4*4 würde dann auch eher für ein 128bit interface sprechen.

Exxtreme
2002-10-11, 16:48:55
Aaalso, Hellbinder meint erfahren zu haben, daß es ein 4x4-Design wird.

Gruß
Alex

Quasar
2002-10-11, 17:21:07
Das würde sich zumindest mit dem Leitsatz der "schöneren Pixel" decken, auch wenn die (benchmarkträchtige) Rohleistung natürlich leiden würde....

Aber 4 tri-TMUs pro Pipe bei 350MHz+ *gg*

Exxtreme
2002-10-11, 17:46:23
Das Problem ist, wie will NV jetzt erreichen, daß der NV30 mind. doppelt so schnell ist wie der NV25? Ohne AA (+AF)-Vergleich dürfte das fast gar nicht gehen ausser es wird ein Tiler. Aber Tiler mag K.D. wiederum nicht. Naja, es wird auf jeden Fall spannend.

Gruß
Alex

Demirug
2002-10-11, 18:21:46
Exxtreme,

es wird ja sowieso wieder bis zu x mal so schnell heisen.

Wenn man nun die Anzahl der TMUs und PS ALUs verdoppelt ist der Chip in allen Fällen in denen die TMUs auch genutzt werden doppelt so schnell bei gleichem Takt (und der wird sicher auch noch erhöht, tippe mal auf 375 für das Topmodel). Bei 4*4 heist das:

bilienar 4 Texturlayer
trilienar 2 Texturlayer

den Rest könnt ihr euch sicher selbst ausrechnen.

Also bis zu 2 mal so schnell ist kein wirkliches Problem. Mann muss natürlich die anderen Teile des Chip ebenfalls richtig dafür auslegen.

Pussycat
2002-10-11, 22:19:37
Ist zwar nicht ganz Ontopic, aber Aths, hast du dich auch schn zum Nathalie Portman - Fan gemausert? Gratuliere!

Iceman346
2002-10-11, 22:56:20
Originally posted by Pussycat
Ist zwar nicht ganz Ontopic, aber Aths, hast du dich auch schn zum Nathalie Portman - Fan gemausert? Gratuliere!

Das ist er schon etwas länger, musst nur mal die entsprechenden (alten) Threads durchsuchen ;)

robbitop
2002-10-12, 07:40:03
ich denke das 8x2 Design steht schon relativ fest und wenn es ein IMR ist dann ist er zumindist intern mit 512bit ausgestattet (zur Not auch erst für den Refresh) und evl dann nur ein 128bit DDR Interface...

ich selbst glaube auch an keinen DR, denn niemand packt es einfach so einen so komplexen DR zu bauen ohne vorher grosse Erfahrungen gemacht zu haben (Gigapixel Ingeneure ja, aber die haben bisher nur sehr unkomplexe Designs zu potte gebracht).

Aber eines steht fest: man torpediert nicht seine eigenen Produkte in dem man von zukünftigen Technologien redet..."alles shice mit 128bit DDR, 256bit DDR wird erst richtig abgehen" oder "ja unser FSAA ist shice, aber wir bauen ein besseres ein" oder " ja unser Bruteforce ......"

is doch klar, dass nix klar is, oder? :D

Ich denke er wird mit sehr hoher Wahrscheinlichkeit so ähnlich aufgebaut wie der R300 nur eben noch mit FSAA von ex3dfx Mitarbeitern... und 4x4TMUs würden bei einem Tiler (DR) auch nicht sonderlich effektiv sein...

Pussycat
2002-10-12, 09:30:06
Originally posted by Iceman346


Das ist er schon etwas länger, musst nur mal die entsprechenden (alten) Threads durchsuchen ;)

Sein neuer, 2. NP-avatar ist aber noch nicht lange da, oder?

Iceman346
2002-10-12, 11:00:51
Originally posted by Pussycat


Sein neuer, 2. NP-avatar ist aber noch nicht lange da, oder?

Nee, er hat in den letzten Tagen fast täglich nen neues Bild von ihr als Avatar genommen.

Pussycat
2002-10-12, 12:18:39
Herrlich! :love1: :ficken:

i_Land
2002-10-12, 22:53:40
Ist ja offensichtlich, dass ahts NP Fan ist

Ich glaube es gibt Überraschungen mit der NV30

Auf dem Papier ist sie natürlich, ganz wie Nvidia gewohnt, 50+ % schneller als der R300 (natürlich unter 6x FSAA und 16x AF, laut Nvidia ;) ). Aber Nvidia wird heilfroh sein wenn sie die R300 knapp schlagen , sagen wir mal 5-10 %.

Dunkeltier
2002-10-13, 04:18:25
Vielleicht baut und bastelt NVidia den NV30 immer noch integrierten Speicher ein, BitBoys lassen grüßen. :asshole: Dann reicht auch ein 128 Bit RAM Interface für die Textürchen.

robbitop
2002-10-13, 10:17:59
nicht unmöglich, aber eher unwahrscheinlich...

das ist nunmal die Philosophie von David Kirk (ausserdem machen die sich nicht gern von jmd abhängig) keine Transistoren zu "verschwenden"...das hatte er mal zu TBRs gesagt, dass er den Platz einer grossen DR Unit lieber für Rohpower nutzt (mehr Pipelines..ect).
Ausserdem wenn man Speicher einbettet, bekommt man je nach Komplexität des eigendlichen Chips (wenn er DX9 Sein soll nich viel) nicht viel Ram drauf...und wenn nicht genug da ist, dann kackt er ab ner bestimmten Auflösung und/oder FSAA ab und das bringt niemandem was und mit eDRAM wäre der Chip bei 120mio Trans sehr unkomplex...

D.K wird mit Sicherheit einen R300 ähnlichen Chip bauen...viel Rohpower und gutes LMA, und ich sage euch es hat nen internen 512bit Bus, weil es unsinnig wäre ein neues Chipdesign noch mit 256bit Bus zu bauen (NV10-NV25 sind so gebaut und R100-R200 ....) und damit ist der Chip selbst fähig 256bit DDR Ram zu verwenden (denn umgekehrt benötigte man ein komplexes Redesign) ...und NV wird sicher abwäge ob ein 128bit DDR Interface reichen wird und evl sich erst zum Refresh oder wann ein 256bit Interface nötig ist dieses einzusetzen...
Denn man könnte aufgrund der ,nicht von der handzuweisenden Ineffizienz eines 256bit DDR Interface (relativ zur Effizienz 128bit DDR-64bit), den Speicher recht hoch takten und evl hat NV ja eine sehr bandbreitenschonende Massnahme (oder das 256bit Interface ist nicht das das dem R300 flügel verleiht ;-) ) in peto...
naja oder ein funktionierendes Edge FAA und eine Recht hohe Füllrate ..tja dann wären 256bit DDR unnötig um den R300 zu schlagen AFAIK...und sie würden höhere Margen bekommen...und wer weiss wenn der R350 oder was auch immer erscheint, schalten sie 256bit DDR frei.

wäre genial und sie würden derartig profitieren....aber keiner weiss...ich denke eher dass sie kein Edge FAA haben sondern ein relativ gutes RGMS FSAA (ala 3dfx..ich weiss das war RGSS mit MS Buffer ) und dann ein 256bit DDR...jedenfalls denek ich dass er dem R300 sehr ähneln wird nur eben 8x2 TMUs und die Shader sind eben noch etw komplexer...dann dürfte ungefähr gleichstand sein...dann zeigt sich wie gut LMA3/HyperZ3 sind...man wird sehn..ich denke niemand von beiden wird signifikant schneller sein, so ist eben der MArkt, niemand will nen Überchip baun, weil weil immer neue Chips verkauft werden sollen....

aber wer weiss vieleicht hat NV den NV30 "vor schreck" etw. geändert oder doch gleich das 256bit DDR freigeschaltet und schnell neues PCBs designed....aber das ist eher unüblich...grössere Mods schliesse ich fast aus...lohnt sich nich.....

also was denkt ihr???

Demirug
2002-10-13, 11:00:53
Ganz neue Idee:

Es gibt keine x*y Pipes beim NV30 sondern x Pipes und y TMUs. (x = 8, y = 16)

Die TMUs sind in eimem Block zusammengefasst dieser ist über einen Auftragspipe von den Shader-Pipes entkoppelt. Der Vorteil dabei ist das die Pipe direkt nach dem übergeben des Fetchs weiterlaufen kann bis der gesampelte Wert auch wirklich gebraucht wird. Damit dann nicht alle Pipes die Fetchs syncron schreiben läst man die Pipes versetzt arbeiten. Reorgansiert der Treiber dann noch die Shaderprogramm etwas läst sich die Fetch-Latenz erheblich verringern.

robbitop
2002-10-13, 11:20:26
ich glaube du solltest zu NV/ATi gehn Demi und dort ma was entwickeln...
:D

oder ruf da ma an und erzähl denen das

HeHe
;-)

ziemlich nette Idee....wäre es kompliziert sowas zu realisieren?

Demirug
2002-10-13, 11:28:03
Originally posted by robbitop
ich glaube du solltest zu NV/ATi gehn Demi und dort ma was entwickeln...
:D


dafür bin ich was Hardwareentwicklung angeht nicht gut genung.


ziemlich nette Idee....wäre es kompliziert sowas zu realisieren?

Die Grundidee dazu stammt noch von 3dfx. Kompliziert ist das nicht es bedarf allerdings ein paar Transitoren mehr als der "normale" Aufbau.

robbitop
2002-10-13, 11:37:40
was meinst du mit "ein paar"???

naja die 3dfx leutz sind ja bei NV...aber ob die Idee dort auch verwendet wird...?

Demirug
2002-10-13, 11:58:32
den genauen Count dafür zu definieren ist nicht ganz einfach. dazu fehlt mir einfach die Praxsis in dem Bereich um da Zahlen aus dem Handgelenk zu schütteln.

sicher dürfen die 3dfx Leute bei NV auch Ideen einbringen und ich denke mal das Kirk für gute Ideen zu haben ist. Man bringt es nicht so weit wie er wenn man nicht auch mal auf andere hört.

robbitop
2002-10-13, 12:00:53
das ist richtig, aber ich denke er bleibt konsequent bei seiner Linie und wir "exotischen" Sachen wie TBR/DR immer den Korb geben....

richtig offen für alles isser nich, nur alles was sich seiner Linie nähert (aber alles IMHO)

Pussycat
2002-10-13, 13:17:56
Originally posted by robbitop
...und wer weiss wenn der R350 oder was auch immer erscheint, schalten sie 256bit DDR frei.

also was denkt ihr???

Ich denke dan NV kramphaft versucht, etwas ausser AGP8x gegen ATI in Stellung zu bringen. Ich kann mir nicht vorstellen, dass die mit dem nv35 in seelenruhe abwarten. Das ist die Rolle, die ATI jetzt hat.

@Demi: Was hast du denn studiert? Ich würde nämlich gerne Chipdesigner werden. Gibt's da gute Bücher etc., um mal eine Vorstellung ze kriegen?

Demirug
2002-10-13, 13:32:44
Originally posted by Pussycat
@Demi: Was hast du denn studiert? Ich würde nämlich gerne Chipdesigner werden. Gibt's da gute Bücher etc., um mal eine Vorstellung ze kriegen?

Direkt studiert habe ich nicht (war mir zu theoretisch). Ich schimpfe mich "Technischer Assistent für Informatik". Die Ausbildung ist etwas mehr Praxsis orientiert. Der fürs Chipdesign relevante Teil meiner Ausbildung nennt sich Digital-Technik. Da fängt man dann bei den ganz einfachen Sache wie boolsche Algebra an geht über Registerschaltungen bis hin zu kompletten Prozessoren.

robbitop
2002-10-13, 13:41:42
@Pussycat

naja erstma kommt der NV30 und wenn er DDR 128bit hat, hat das auch seinen Grund...
Dann haben sie etw. was den Chip dahinbringt mit dem R300 gleichzustehn..naja und wenn ATi den R350 oder w. auch immer brimngt schalten die halt mehr frei...is aus kostengründen wunderbar nur 128bit DDR zu verwenden...wenn die ein funktionierendes FAA haben wäre das denkbar...

und warum gleich alles freischalten, wenn sich damit Kohle machen lässt, ausserdem wären sie durch 128bit DDR flexibler in der Preisgestalltung...

wer sagt, dass NV verkrampft irgendwas versucht....die sind in der Produktion des NV30 und der wird kommen...naja ATi war früher da, naund?

Sie haben die Messlatte hoch gehängt und da muss der NV30 ungefähr hin...und mit ein paar Tricks geht das auch ohne 256bit DDR

Dunkeltier
2002-10-15, 19:10:34
*in Glaskugel schau*

Der NV30 wird meiner Meinung nach mit
400 Mhz Chiptakt
400 Mhz Speichertakt (800 Mhz effektiv, da DDR-RAM), Anbindung 128 Bit
8*2 Pipeline
AGP 8x
daherkommen. IMHO maximal vielleicht 10-20% schneller als die Radeon 9700 Pro im Durchschnitt (von dem 3D Penis Mark evtl. mal abgesehen :lol: ).

Pussycat
2002-10-15, 21:17:55
http://www.theinquirer.net/?article=5794

Die NV30 hat 'only 128Mbit' speicher! Das ist ja wohl sehr schlecht :D

robbitop
2002-10-15, 21:21:41
das haben die imho einkalkuliert..die haben sicher was nettes...
sie edge FAA oder TBR/DR oder ein sehr nettes LMA ...wird man sehn...

Richthofen
2002-10-15, 21:56:28
hm ja so langsam komm ich auch mehr zu der Ansicht, das sie doch auf 128 Bit setzen.
Wenn sie das tun müssen sie verdammt gute Techniken haben wenn sie es auf R300 Niveau oder höher schaffen wollen.
Wenn sie das packen, dann ist für mich zu 99% sicher, das sie intern 512 Bit schon sind aber noch mit angezogener Handbremse fahren.
Und was ist einfacher beim Refresh zu machen.

256 Bit und DDR II drauflöten oder sich nette Techniken einfallen lassen wo man Gefahr läuft auf Patente anderer zu stossen die das dann blocken?
Ich denke mal deutlich ersteres.

Also wenn sie 128 Bit haben und den R300 packen, dann ist für mich schon so gut wie sicher, das sie 2003 ein prima Jahr haben werden und wenig Grund zur Sorge.
Nvidia ist Spezialist wenn es darum geht mit angezogener Handbremse zu fahren und sich genug Spielraum für Refreshes offen zu lassen.

Sicher war die Verspätung nicht optimal, aber ATI hat die Hosen runtergelassen und ist insofern auf den R350 bezogen ziemlich leicht zu berechnen was da so kommen wird. Sicher nix grossartig Neues im Vergleich zum R300.
Insofern wäre 128 Bit für Nvidia dann eine Traumkonstellation wenn sie damit ATIs R300 packen.
Also wenn sie ATIs R300 packen, wäre mir und sicher auch Nvidia lieber sie packen es mit 128 Bit, weil dann grübeln die Kannadier sicher gewaltig, denn für große Designänderungen am R350 ist keine Zeit schon gar nicht wenn die da beim NV30 tatsächlich irgendwelche netten Techniken einsetzen, die 256 Bit DDR für den Moment unnötig machen.
Dann ist Nvidia nicht nur strategisch im Vorteil sondern vor allem auch tierisch im Vorteil was die Herstellungskosten angeht und natürlich flexibilität bei der Aufstellung der ganzen Produktfamilie.

Wir werden es ja bald erfahren. Ca 4 Wochen noch :)


Natürlich besteht auch die Möglichkeit das es 128 Bit ist und sie den R300 nicht packen aber das wollen wir ja mal nit hoffen :)
Und irgendwie glaube ich auch eher das sie es packen. Creative Labs selber hat gesagt das NV30 Karten trotz 0.13 so wie die GF4TI 4600 kosten werden zum Erstrelease also wohl 400 Euro aufwärts wohl eher 450 aufwärts.
Das geht aber nur wenn der NV30 besser ist als der R300. Wenn nicht, muss man sich preislich dem Markt anpassen. Ich denke Creative weiss ganz gut bescheid was Sache ist auch wenn ich die nicht mag, aber die hatten wie Wahl zwischen ATI, Matrox und Nvidia. Insofern besteht kein Grund für sie auf den NV30 zu setzen, wenn sie nicht wüssten er wird besser werden.

Salvee
2002-10-15, 22:46:53
Originally posted by Richthofen
Creative Labs selber hat gesagt das NV30 Karten trotz 0.13 so wie die GF4TI 4600 kosten werden zum Erstrelease also wohl 400 Euro aufwärts wohl eher 450 aufwärts.
Das geht aber nur wenn der NV30 besser ist als der R300. Wenn nicht, muss man sich preislich dem Markt anpassen. Ich denke Creative weiss ganz gut bescheid was Sache ist auch wenn ich die nicht mag, aber die hatten wie Wahl zwischen ATI, Matrox und Nvidia. Insofern besteht kein Grund für sie auf den NV30 zu setzen, wenn sie nicht wüssten er wird besser werden.

Creative Labs Europe hat das gesagt/musste das sagen, da sie hier den NV30 anbieten werden. In Asien hingegen machen sie ihr Geschäft mit dem R300.
Ob da strategische Gründe dahinterstecken (man will es sich mit niemandem verscherzen, da man selbst noch nicht abschätzen konnte, welcher Chip denn jetzt 'besser' ist), oder ob der R300 mit dem Erscheinen des NV30 komplett gekickt wird, bleibt abzuwarten, und dass noch mindestens 4 Wochen lang :)

Richthofen
2002-10-15, 22:53:42
ich dachte ich hätte CL Europe gesagt. Denn eigentlich floss das durch mein Hirn beim Schreiben aber irgendwie schein ich das zu vergessen haben.

An strategische Gründe glaub ich nicht so auch wenn das in dem Interview auch ne Rolle spielte aber wenn NV30 schlechter als R300 ist, hätte CL Europe auch R300 genommen des is für mich so gut wie Fakt. Die denken in erster Linie mal an sich selber und ohne einen guten NV30 nix gute Margen für die Kartenhersteller.

Salvee
2002-10-15, 23:05:39
*Nachschauen ob wir im Speku-Forum sind*

Ok, man weiss, nV berichtet von seinen Chips, sie könnten Pepsi in Coke verwandeln und quer übers Wasser latschen. Da ich der festen Überzeugung bin, dass zum Zeitpunkt des Interviews kein finales Silikon des NV30 vorlag (vielleicht bis zum heutigen Tag nicht...), ist Creative cleverer als ich dachte, da man sich so beide Kandidaten (ATi und nV) warmhält. Wenn nV jetzt den Knallerchip bringt, ist Creative mit dabei, wenn nV jetzt eine Mörderkohle für einen lediglich gleichwertigen Chip haben möchte (wegen Markennamen etc.), hat Creative ebenfalls Alternativen. Imo perfekt für Creative (was wollen die bloss mit dem p10 ???)
Gibt es eigentlich noch andere Kartenhersteller, die beide Produkte anbieten?

zeckensack
2002-10-15, 23:17:14
Richthofen, ich glaube du unterstellst Creative da zu großes Geschick.

Sie sind zwar Marktführer bei Soundkarten (aus historischen, nicht technischen Gründen), gut das haben sie fein gedeichselt, die Kunden immer schön für blöd verkauft und sich über 'teuer muß doch gut sein' definiert.

Aber im Grakabereich sollte sich doch mittlerweile herumgesprochen haben, daß Creative 'ne totale Bruchbude ist :bäh:

Dunkeltier
2002-10-16, 00:34:29
Originally posted by zeckensack
Aber im Grakabereich sollte sich doch mittlerweile herumgesprochen haben, daß Creative 'ne totale Bruchbude ist :bäh:


Ja, spätestens mit der 'Creative Annihilator Pro' (Geforce 256 mit DDR-Ram) haben die bei mir verschissen. Da kamen mir die Tränen, nicht vor Freude, sondern weil das Bild matschig war. Die Voodoo 2 Boards gingen ja noch in Ordnung, aber der Rest ist Shit. Siehe die Geforce 256, Geforce 2 MX, etc.

StefanV
2002-10-16, 10:54:55
Originally posted by Dunkeltier



Ja, spätestens mit der 'Creative Annihilator Pro' (Geforce 256 mit DDR-Ram) haben die bei mir verschissen. Da kamen mir die Tränen, nicht vor Freude, sondern weil das Bild matschig war. Die Voodoo 2 Boards gingen ja noch in Ordnung, aber der Rest ist Shit. Siehe die Geforce 256, Geforce 2 MX, etc.

Du meinst doch nicht diese GF2 MX ohne Kühler, mit 64bit 7ns DDR-SDRAM auf 143MHz, oder?? *eg*

robbitop
2002-10-16, 15:16:23
"aber wenn NV30 schlechter als R300 ist, hätte CL Europe auch R300 genommen des is für mich so gut wie Fakt."

@Richthofen

denk ma drüber nach...warum kaufen die den NV30???
ich denke weil der ein 128bit DDR Interface hat und sicher ca an den R300 (mutmasse ich jetzt ma) rankommt (und das zumindist bei 1024 ohne alles und das wird in den Zeitschriften ja gezeigt...dank 8x2 könnte er ohne FSAA/AF sogar schneller sein bei 1024), aber eben das PCB einfacher herzustellen ist und der NV30 dank weniger PINs sicher billiger is...es wird also mehr spielraum und höhere Margen im Preiskampf kommen....ich denke aber dass es noch nich klar ist, ob dieser nun wirklich mit 128bit DDR kommt...ein anderer Grund könnte das überlegene CineFX sein...das wird sicher in den Zeitschriften gross geschrieben...

das hat letztendlich nich viel mit wirklichem Speed des NV30 zu tun...

HOT
2002-10-16, 15:38:27
'Richthofen hat die Weissheit mit Löffeln gegessen :D bisher weiss niemand wie schnell der NV30 eigentlich im Verhältnis zur R300 ist. Die NV-treuen Hersteller werden die Situation erstmal abwarten, bevor sie eine Entscheidung treffen. Dazu gehört auch Creative.

Unregistered
2002-10-16, 16:47:43
"
Richthofen, ich glaube du unterstellst Creative da zu großes Geschick.

Sie sind zwar Marktführer bei Soundkarten (aus historischen, nicht technischen Gründen), gut das haben sie fein gedeichselt, die Kunden immer schön für blöd verkauft und sich über 'teuer muß doch gut sein' definiert.

Aber im Grakabereich sollte sich doch mittlerweile herumgesprochen haben, daß Creative 'ne totale Bruchbude ist
"

Ich habe nicht gesagt, dass Creative eine gute Firma ist. Ich halte von denen gar nix und die kack CL Soundkarte war das erste was ich hier ersetzt habe im Rechner.
Es ging mir hier nicht um Creative's produktqualität, sondern darum, das Creative ein Hersteller von Grafikkarten ist und dazu nicht gerade ein kleiner. Und als solcher triffst du betriebswirtschaftliche Entscheidungen und machst Verträge und zwar rechtzeitig und da kann man einen drauf lassen, dass diese Hersteller sehr genau wissen wo der NV30 in etwa landen wird. Dazu brauch man kein final sillicon. Das kann man auch gut simulieren. Dazu haben die Hersteller und auch NV Erfahrung genug das sie abschätzen können in welchem Fenster das Teil landet.

Und HOT die NV Hersteller werden gar nix abwarten. Du tust ja geradeso, als ob die warten bis NV ausliefert und das dann die Verträge gemacht werden. Das kannst du haken. Die Verträge unter den grossen stehen schon längst. Das wäre ja geradezu deletantisch, bei Auslieferung sich zu entscheiden. Da verliert man Zeit.
Da muss man sich schon deutlich vorher entscheiden. Denn es gibt genug die das tun und unter den grossen wird die Info Politik genau genug sein, das die alle wissen wo es hingeht.

@robbitrop
Da liegen wir doch gar nicht weit auseinander. Ich habe doch geschrieben, das der NV30 wenn er den R300 packt mit 128 Bit Nvidia ein herrliches Jahr 2003 liefern wird.
Denn dann müsste das Teil so effizient arbeiten, das die nur noch 256 Bit und DDR II im Jahr 2003 drauflöten müssten um den gesamten Markt zu domminieren im High End Bereich.
In dem Punkt ist ATI recht konventionell geblieben und in sofern bleibt das abzuwarten obs 128 Bit ist und ob er den R300 packt.

CL wirds wie die grossen schon wissen aber die halten die Fresse weils sonst Ärger gibt. Und ich glaube nicht das die auf ein schlechteres Modell setzen. Sowas zieht in USA und Europa gar nicht, weil sie dann von dem Low COst Scheiss nix verkaufen. Da muss nen Prestige Produkt her sonst siehts schlecht aus.

SLV
2002-10-16, 18:16:56
Originally posted by Unregistered
Es ging mir hier nicht um Creative's produktqualität, sondern darum, das Creative ein Hersteller von Grafikkarten ist und dazu nicht gerade ein kleiner. Und als solcher triffst du betriebswirtschaftliche Entscheidungen und machst Verträge und zwar rechtzeitig und da kann man einen drauf lassen, dass diese Hersteller sehr genau wissen wo der NV30 in etwa landen wird.

Bin mir jetzt gar nicht sicher, wenn alle geposteten Annahmen darauf beruhen, dass CL ein Hersteller von Grafikkarten ist, können wir die ganzen Spekulationen getrost vergessen, da meines Wissens CL die Karten fix und fertig (als Handelsware sozusagen) bei MSI einkauft (war zumindest bei den letzten Modellen so). Ein Hersteller muss sicherlich wesentlich früher planen als ein Wiederververkäufer.

StefanV
2002-10-16, 19:40:52
Originally posted by SLV


Bin mir jetzt gar nicht sicher, wenn alle geposteten Annahmen darauf beruhen, dass CL ein Hersteller von Grafikkarten ist, können wir die ganzen Spekulationen getrost vergessen, da meines Wissens CL die Karten fix und fertig (als Handelsware sozusagen) bei MSI einkauft (war zumindest bei den letzten Modellen so). Ein Hersteller muss sicherlich wesentlich früher planen als ein Wiederververkäufer.

Die NV Karten kommen von MSI, die ATI Karten kommen von Gigabreit.

CL selbst hat keine Fertigungsanlagen (mehr)...