PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Hat ATi Nvidia überascht oder...


Simon Moon
2002-12-31, 03:40:07
haben sie, nvidia einfach "überrannt".

Mittlerweile frage ich mich ob nVidia den NV30 überhaupt auf Weihnachten geplant hat.
Ich glaub eher, die wollten mit dem NV28 weitermachen und den NV30 so Februar/März vorstellen. Das wäre wohl auch ganz gut gegangen, wenn ATi den R300 nicht so früh gebracht hätte. Nvidia wär im übrigen so wesentlich besser weggekommen. Sie hätten die Ti4800 oben hin setzen können und den "alten" Chip wieder für teures Geld verkaufen können.

Andererseits könnte es natürlich auch sein, das Nvidia den Chip wirklich auf Weihnachten geplant hat und einfach arge Probleme bekommen hat. (-> Das ist imo zwar jetzt der Fall, aber ob das schon so war bevor sie genaueres über den R300 wussten bzw. ob sie es nur wegen dem R300 nach vorne verlegt haben)

Würd mich mal interessieren was ihr denkt.

Meta
2002-12-31, 07:10:40
Hi.

Ich kann mir vorstellen, dass beides zutrifft. Der R300 hat NV sicher überrascht. Ich denk nicht, dass die dachten, dass Ati so schnell einen DX 9 Chip bringen, der auch noch ein 256 bit Interface hat und 8 Pipes...
Auch dass NV Schwierigkeiten beim 0,13 Prozess hatte ist auf alle Fälle anzunehmen. Die Frage ist nur, ob der NV30 stark genug ist, NV wieder etwas länger an die Spitze zu bringen, denn dafür muss mit diesem Chip auch der neue R350 geschlagen werden....

Dein Meta

Radeonator
2002-12-31, 10:18:56
Hmmm, interessante Frage. IMO hat NV jedenfalls falsch taktiert. NV hat allerdings einen sehr guten Ruf und deshalb weniger Probleme als einige vermuten. Ich denke auch das NV es anders geplant hatte, also auch 8x Karten, evtl. noch ne ULTRA Version und dann Februar/März die GF FX mit einem Paukenschlag presentieren. Vielleicht haben Sie wirklich gedacht ATi im Griff zu haben und sind deswegen kurzzeitig "aus der Bahn" geworfen worden. Wenn die kleine FX jedoch ein gutes Preis/Leistung Verhältnis haben wird, sollte einen quasi Comeback von NV als Meister aller Klassen nichts im Wege stehen, auch die R350 nicht. Das Problem ist nur, das niemand weiss wie gut/schlecht die Final FX Karte sein wird. Je nachdem kann es 1:1 zwischen den beiden oder 1:0 für NV bzw. 2:0 für ATi stehen...

-error-
2002-12-31, 10:51:20
Das Dumme für Nvidia ist ja, dass sie die FX nur mit einem Speicherinterface von 128BIT austatten. Diese eingebüßte Leistung (gengenüber von ATI) kann höchstwarscheinlich auch nicht der DDR2 ausgleichen. Die R350 wird aber beides haben, ein Speicherinterface von 256BIt (wie schon bei der R300) und zusätzlich DDR2. Ati und Nvidia haben diese Leistungsdaten auch schon bestätigt, und somit siehts nicht so rosig aus für die FX.
Ich denke aber schon das die R300 von der FX (wenn auch nur leicht) übertrumpft wird. Dann wirds einen Preiskrieg geben, wie wir ihn noch nicht gesehen haben! Aber die R350 wird Nvidia nicht packen!

StefanV
2002-12-31, 11:06:14
Ich denke, daß es eine Mischung aus allem ist.

Selbstüberschätzung von NV, Unterschätzung von ATI, zu viel Vertrauen in den 0,13µ Prozess von TMSC uswusf...

Jedenfalls hat ATI jetzt ein paar Monate Zeit vorzulegen, während NV noch an ihrem Chip bastelt.

Fehler kann jetz nur NV machen...
Der Paperlaunch des NV30 war auch nicht unbedingt sonderlich geschickt...
Auch könnte NV auch die Treibervermasseln und noch einige andere Dinge...

MeLLe
2002-12-31, 11:34:01
Originally posted by Powerd by ATI
Das Dumme für Nvidia ist ja, dass sie die FX nur mit einem Speicherinterface von 128BIT austatten. Diese eingebüßte Leistung (gengenüber von ATI) kann höchstwarscheinlich auch nicht der DDR2 ausgleichen.
Das Thema hatte wir schon in einem anderen Thread - vergleicht man R9500Pro und R9700 (einziger Unterschied: 128 vs. 256 Bit Memory Interface), so gewinnt die R9700 mit etwa 30% Vorsprung - trotz einem doppelt so breiten RAM-Interface. Das ist 3/10 Mehrleistung bei 10/10 mehr Speicherbus-Breite.

robbitop
2002-12-31, 11:53:40
256bit werden noch nicht effektiv ausgenutzt (ob das am Speicherinterface oder an der geringen Füllrate liegt lassen wir mal..sicher eine Mischung).

NV weiss, was sie tun. Nur der 0,13µ warf sie aus der Bahn imo.
Doch das hat logischerweise kein grossen Einfluss auf spätere Produkte. Und bauen tun sie ne ganze Zeit schon nicht mehr am NV30.
Das NV30/Fusion Team arbeitet schon am NV35 denn die anderen sind alle schon ausgetaped...lediglich ein paar fertiungsspezis hängen bei TSMC rum. Fakt ist, dass NV alles aus dem 128bit Interface rausholt und Taktraten vermakrten kann und ihre Karten verkaufen sich trotzdem am besten. NV weiss wie sie die NV3x Produktkette stricken muss um sich richtig darzustellen.

Da NV das Speicherinterface an die Caches koppelt können sie frei entscheiden welches Speicherinterface der NV35 bekommt noch die Taktrraten hochdrehen.

Aber all das ist nur eine Vermutung und reine Speku. Bestätigt ist so gut wie nichts und es kommt sowieso wieder ganz anders ;-)

Unregistered
2002-12-31, 12:28:05
Originally posted by robbitop
256bit werden noch nicht effektiv ausgenutzt (ob das am Speicherinterface oder an der geringen Füllrate liegt lassen wir mal..sicher eine Mischung).

NV weiss, was sie tun. Nur der 0,13µ warf sie aus der Bahn imo.
Doch das hat logischerweise kein grossen Einfluss auf spätere Produkte. Und bauen tun sie ne ganze Zeit schon nicht mehr am NV30.
Das NV30/Fusion Team arbeitet schon am NV35 denn die anderen sind alle schon ausgetaped...lediglich ein paar fertiungsspezis hängen bei TSMC rum. Fakt ist, dass NV alles aus dem 128bit Interface rausholt und Taktraten vermakrten kann und ihre Karten verkaufen sich trotzdem am besten. NV weiss wie sie die NV3x Produktkette stricken muss um sich richtig darzustellen.

Da NV das Speicherinterface an die Caches koppelt können sie frei entscheiden welches Speicherinterface der NV35 bekommt noch die Taktrraten hochdrehen.

Aber all das ist nur eine Vermutung und reine Speku. Bestätigt ist so gut wie nichts und es kommt sowieso wieder ganz anders ;-)

Was das immer soll?! Ist ja schoen und gut was ihr da so schreibt, aber stellt nicht Sachen, die ihr nicht belegen könnt als Fakt hin, nur um der eigenen Aussage noch Nachdruck zu verleihen. Das ist echt eine Unart.

Das entwickeln eines gut funkionierenden und kostenoptimierten 256Bit-Boardlayouts ist auch kein unerheblicher Aufwand.

-error-
2002-12-31, 12:42:40
Und die R350 wird natürlich auch höher getaktet werden.

Pussycat
2002-12-31, 13:39:03
Ich denke dass nichts so geplant war wie es gelaufen ist. Die NV30 ist verspätet weil sie verbuggt war, und die 0,13-Ausrede muss wohl auch keiner glauben. Zum Thema 'ursprüngliche Planung':


[Marco] So, can we expect an NV30 in one year from now?
[Dan] Yes, more or less, but I don't know for sure.it is our spring 02 product.


http://www.hwzone.it/html/text.php?id=205

AlfredENeumann
2002-12-31, 16:45:36
Originally posted by MeLLe

Das Thema hatte wir schon in einem anderen Thread - vergleicht man R9500Pro und R9700 (einziger Unterschied: 128 vs. 256 Bit Memory Interface), so gewinnt die R9700 mit etwa 30% Vorsprung - trotz einem doppelt so breiten RAM-Interface. Das ist 3/10 Mehrleistung bei 10/10 mehr Speicherbus-Breite.

Sorry, aber das ist der größte Dünnschiß überhaupt. 30% Mehrleistung sind 30% Mehrleistung. Scheißegal wo die herkommen.

Quasar
2002-12-31, 17:14:00
Sag' nich so böse Sachen zu Melle, das darf nur ich ;)

Nee, aber wenn du jetzt davon ausgehst, das eine Erhöhung "des Speichers" um 100% (von 128Bit auf 256Bit) gerade einmal 30% Leistungsgewinn bringt, wieviel versprichst du dir dann von einem Anstieg "des Speichers" um weitere, sagen wir 33% (R350 mit DDR-II)?

Ein Leistungsplus von (runtergerechnet, ohne zusätzliche Beeinträchtigung durch evtl. höhere Latenz und nicht verfeinerte Granularität) ganzen 10%?

Doch wohl nicht, oder?

seahawk
2002-12-31, 17:16:31
Ja gegenüber einer praktisch abgespeckten R300. Da sich die 9500 pro und 9700 in Bandbreitenschonenden Maßnahmen und Spechertaktung nicht unterscheiden hat die 9500 pro also nur die halbe Bandbreite.
Trotzdem liegt sie nur 30 % hinten.

Eine FX hat einen schnelleren Speicher und evtl. (ich glaube kaum) bessere Maßnahmen zur Bandbreitenschonung. Es ist also möglich (ich glaube aber kaum) dass die FX wirklich deutlich schneller als der R300 sein könnte.

Außerdem gibt es Gerüchte, dass die NV30 erst Anfang März ausgeliefert wird.

MeLLe
2002-12-31, 17:19:28
Originally posted by AlfredENeumann
Sorry, aber das ist der größte Dünnschiß überhaupt. 30% Mehrleistung sind 30% Mehrleistung. Scheißegal wo die herkommen.
Aber doch nicht in disem Aufwand-Nutzen-Verhältnis!

Bandbreite x 2.0 = Leistung x 1.3

Die Rechnung krankt an einem argen Verlust auf der rechten Seite...

MeLLe
2002-12-31, 17:20:51
Originally posted by Quasar
Sag' nich so böse Sachen zu Melle, das darf nur ich ;)
Aber auch nur feiertags ;)

mapel110
2002-12-31, 18:54:41
:o 3-4 monate zwischen paper release und vorhandener hardware. das sagt alles, wie sehr NV die felle davon schwimmen.

das gibts sonst nur bei amd-cpus :D

[dzp]Viper
2002-12-31, 20:15:51
Originally posted by mapel110
:o 3-4 monate zwischen paper release und vorhandener hardware. das sagt alles, wie sehr NV die felle davon schwimmen.

das gibts sonst nur bei amd-cpus :D

selbst bei AMD CPU´s isses nicht so krass und es gab beim 2800+ immerhin unabhänige benchmarks ...von der gefroce fx bisher noch nix - nana - nothing =)

Thowe
2002-12-31, 20:18:51
Zum Thema, nVidia hat IMHO den NV30 schon relativ lange fertig. Der NV35 dürfte bereits ist der heissen Phase sein. In erster Linie würde ich Produktionsprobleme als ausschlaggebenen Faktor ansehen und sonst eher nichts, auch wenn der R300 besser geworden ist als nVidia vermutlich gerechnet hat. Das einzige das ich als Tribut an ATi sehe, ist die doch vermutlich höhere Taktung als wohl anfangs vorgesehen. Wobei die Gewinner letztendlich wir sind, ATi wird es wohl schaffen wieder richtig mitmischen zu können und auch andere Konkurrenz wird es noch geben.

ActionNews
2002-12-31, 23:03:48
Also ich finde MIt dem R300 ist ATi ein großer Wurf gelungen :)! Jetzt heißt es dran bleiben und ich denke mit dem R350 ist ATi auf dem richtigen Weg. Auf der anderen Seite muss sich Nvidia sicher keine Sorgen machen. IMHO gibt es genug Leute die die GeforceFX kaufen werden NUR weil Geforce drauf steht! Geforce steht bei Vielen für beste Leistung. Das ist nicht zu unterschätzen :)!

Aber was ist mit PowerVR? Immer nur Nvidia oder ATI ist doch langweilig! Mich würde mal interessieren ob ihr glaubt, dass PowerVR mit der Serie 5 mitmischen kann. Also ich glaube daran :D!

CU ActionNews

Meta
2003-01-01, 12:15:24
Ich glaube nicht daran :bawling:, aber ich hoffe und wünsche es mir seeeehr. :jump1:
Dein Meta

BlackBirdSR
2003-01-01, 13:02:44
Originally posted by MeLLe

Aber doch nicht in disem Aufwand-Nutzen-Verhältnis!

Bandbreite x 2.0 = Leistung x 1.3

Die Rechnung krankt an einem argen Verlust auf der rechten Seite...

das dumme ist nunmal dass die Sache genau so funktioniert.
Sind es nun die 3 FPU Einheiten des Athlons,
die 2 fast ALUs des P4.
Die doppelte Speicherbandbreite des L2 Cache des P4 gegenüber dem P3.
dem doppelten Cache des NW gegenüber dem Willy..

es kommt so gut wie niemals das raus was man reinsteckt..
und je schneller die Hardware wird, desto schlimmer wird es in dieser Hinsicht.

mapel110
2003-01-01, 13:07:25
Originally posted by ActionNews
Also ich finde MIt dem R300 ist ATi ein großer Wurf gelungen :)! Jetzt heißt es dran bleiben und ich denke mit dem R350 ist ATi auf dem richtigen Weg. Auf der anderen Seite muss sich Nvidia sicher keine Sorgen machen. IMHO gibt es genug Leute die die GeforceFX kaufen werden NUR weil Geforce drauf steht! Geforce steht bei Vielen für beste Leistung. Das ist nicht zu unterschätzen :)!

Aber was ist mit PowerVR? Immer nur Nvidia oder ATI ist doch langweilig! Mich würde mal interessieren ob ihr glaubt, dass PowerVR mit der Serie 5 mitmischen kann. Also ich glaube daran :D!

CU ActionNews

gibt zuwenig infos/specs über die kommenden powerVR chips !

deswegen kann man in diese richtung nicht unbedingt spekulieren. und wenn man immer wieder hört, dass powerVR den mainstream markt und nicht den high end markt im visier hat, dann erübrigen sich imo die spekulationen in diese richtung.

Ailuros
2003-01-02, 12:26:30
Originally posted by Thowe
Zum Thema, nVidia hat IMHO den NV30 schon relativ lange fertig. Der NV35 dürfte bereits ist der heissen Phase sein. In erster Linie würde ich Produktionsprobleme als ausschlaggebenen Faktor ansehen und sonst eher nichts, auch wenn der R300 besser geworden ist als nVidia vermutlich gerechnet hat. Das einzige das ich als Tribut an ATi sehe, ist die doch vermutlich höhere Taktung als wohl anfangs vorgesehen. Wobei die Gewinner letztendlich wir sind, ATi wird es wohl schaffen wieder richtig mitmischen zu können und auch andere Konkurrenz wird es noch geben.

Ich hab Dich nur gequotet, dass mir ein e-mail rueberschickst, denn ich hab Deine email Addresse dummerweise verloren. :D

Aber wenn wir schon hier sind: ich bin mir absolut sicher dass NV nicht soviel Potenz vom R300 erwartet hat. Es wurde fuer unmoeglich gehalten dass ein chip mit derartiger Komplexitaet es bis zu 325MHz auf 15um schaffen wird.

Ich hab damals einen auesserst verlegenen Kommentar zugeschickt bekommen, wobei es hiess dass R300 zu gross sei, zuviel Hitze erstellen und zuviel Strom verbrauchen sollte (dabei sah es bei den ersten NV30 Bildern auch nicht besser aus, eher schlimmer um ehrlich zu sein :D ).

Ich bin mir sicher dass NV weiss, dass sie nur mit enormen Preisreduktionen wieder ins Schlachtfeld marschieren koennen. Deshalb stimm ich Dir auch vollkommen zu dass wir die Verbraucher dabei die groessten Gewinner sind. R300 ist schon zu lange in der Produktion und die Preise werden staendig reduziert.

Wenn ich fuer 20% mehr Performance uber 100-150 euros extra draufblechen muss, dann ist es mir wurscht wer die Karte baut oder ob ich das schnellste Ding im Markt besitze; natuerlich kauf ich mir dann dass preiswertere Produkt.

Exxtreme
2003-01-02, 13:09:14
Originally posted by MeLLe

Aber doch nicht in disem Aufwand-Nutzen-Verhältnis!

Bandbreite x 2.0 = Leistung x 1.3

Die Rechnung krankt an einem argen Verlust auf der rechten Seite...
Tja, sagt dir das Gesetz des abnehmenden Ertrages was? 8x AA glättet auch nicht "doppelt so gut" wie 4x AA, 16x AF schärft auch nicht "doppelt so gut" wie 8x AF wenn man das Gesamtbild betrachtet. Wenn du die Taktfrequenz beim Prozessor verdoppelst, wird dein System auch nicht doppelt so schnell sein, wenn du deine sonstige HW nicht auch austauscht.

StefanV
2003-01-02, 13:18:05
Originally posted by Ailuros


Ich hab Dich nur gequotet, dass mir ein e-mail rueberschickst, denn ich hab Deine email Addresse dummerweise verloren. :D


versuch mal me@thowe.de *eg*

AlfredENeumann
2003-01-02, 17:17:22
Originally posted by MeLLe

Aber doch nicht in disem Aufwand-Nutzen-Verhältnis!

Bandbreite x 2.0 = Leistung x 1.3

Die Rechnung krankt an einem argen Verlust auf der rechten Seite...

Es kommt auch noch drauf an unter welchen Bedingungen diese Differenzwerte ermittelt werden. Es hängt ja auch noch damit zusammen ob bei dem Spiel die Füllrate limitiert oder einfach die Bandbreite. Je nachdem ist der Abstand zu 9700 mal größer und mal kleiner.
Und wenn man jetzt auch noch den Preis der Produkte sieht: Radeon 9700 302€ und Radeon 9500Pro 228€ haben wir genau diese mehrleistung auch fast 1:1! im Preis.
also nix worüber man sich aufregen sollte, oder ?
Nicht eingerechnet ist das OC-Potenzial der Karte.

Thowe
2003-01-02, 20:02:06
Originally posted by Ailuros


Ich hab Dich nur gequotet, dass mir ein e-mail rueberschickst, denn ich hab Deine email Addresse dummerweise verloren. :D



Schäm dich ;) Hast Post! =)

Spake
2003-01-02, 23:56:58
ich denke die 30% mehrleistung der R9700
liegen eher an den speicherkonrolern
die R9700 hat 4 die R9500 hat 2
die Bandbreite spielt ja eher bei AA eine Rolle

robbitop
2003-01-03, 08:14:44
ich denke es ist bedingt vor allem durch den Füllratenmangel dass die R300 da nicht mehr rausholt. 4 Speichercontroller dürften eigendlich genug sein, wenn man bedenkt dass ihr Vorgänge ohne einen XBar Controller jede GF3 bis zur Ti500 #(mit XBAR) wegfegte.

ow
2003-01-03, 11:01:34
Originally posted by robbitop
wenn man bedenkt dass ihr Vorgänge ohne einen XBar Controller jede GF3 bis zur Ti500 #(mit XBAR) wegfegte.

Hat er das? AFAIK hat die 8500 auch eine XBAR und ist in der Summe NICHT schneller als eine GF3. Man schaue sich dazu mal Reviews an.

Demirug
2003-01-03, 11:26:42
Originally posted by ow


Hat er das? AFAIK hat die 8500 auch eine XBAR und ist in der Summe NICHT schneller als eine GF3. Man schaue sich dazu mal Reviews an.

ja, aber wohl nur eine 2*64 Bit.

nagus
2003-01-03, 11:46:54
Originally posted by ow


Hat er das? AFAIK hat die 8500 auch eine XBAR und ist in der Summe NICHT schneller als eine GF3. Man schaue sich dazu mal Reviews an.

:lol::lol::lol:


in Summe ist die 8500er deutlich schneller .... man schaue sich dazu mal die PCGH ausgabe 1/2003 an.... ich sag nur "high quality modus - 2xFSAA + 4xAF"

LovesuckZ
2003-01-03, 11:49:26
Originally posted by nagus
in Summe ist die 8500er deutlich schneller .... man schaue sich dazu mal die PCGH ausgabe 1/2003 an.... ich sag nur "high quality modus - 2xFSAA + 4xAF"

Meinst du die r9000pro?

nagus
2003-01-03, 11:58:03
Originally posted by LovesuckZ
Meinst du die r9000pro?

ja und nein. es kommt natürlich auf das spiel und die einstellungen an, aber "in summe" liegt eine normale 8500er eindeutig vor einer GF3.


http://www.rivastation.com/vgacharts2.htm >>> 3:2 für die Radeon 8500! (Ohne AF und OHNE FSAA)

robbitop
2003-01-03, 12:06:29
stimmt ja jetzt errinnere ich mich..sie hatte 2x Memorycontroller...

naja trotzdem hat es wohl gelangt für 128bit DDR..ich denke die doppelte Anzahl von Controllern bringt wohl nicht mehr allzuviel..was meint ihr?

Birdman
2003-01-03, 12:58:57
Der Geschwindigkeitsvorteil der R8500 kam (wenn überhaupt) von den höheren taktfrequenzen gegenüber den GF3 Counterparts.

Wenn man z.B. die original GF3 mit 200/230 nimmt, welche gegenüber der Radeon mit 275/275 deutlich niedriger getaktet ist, dann muss man sich eher wundern, weshalb die ATi nicht überall mit grossem Abstand gewinnt. ( bei Borsti hab ich ein 2:2 erhalten, da ich 3dmurks nicht als Spiel ankukke ;) )

Summa summarung würd ich daher behaupten dass der crossbar conroller doch ziemlich viel rausschlägt, jedenfalls bei Nvidia.

ow
2003-01-03, 17:46:37
Originally posted by nagus


:lol::lol::lol:


in Summe ist die 8500er deutlich schneller .... man schaue sich dazu mal die PCGH ausgabe 1/2003 an.... ich sag nur "high quality modus - 2xFSAA + 4xAF"


High quality AF und Radeon 8500? -> :lol::lol:

ow
2003-01-03, 17:49:57
Originally posted by Birdman
Der Geschwindigkeitsvorteil der R8500 kam (wenn überhaupt) von den höheren taktfrequenzen gegenüber den GF3 Counterparts.

Wenn man z.B. die original GF3 mit 200/230 nimmt, welche gegenüber der Radeon mit 275/275 deutlich niedriger getaktet ist, dann muss man sich eher wundern, weshalb die ATi nicht überall mit grossem Abstand gewinnt. ( bei Borsti hab ich ein 2:2 erhalten, da ich 3dmurks nicht als Spiel ankukke ;) )

Summa summarung würd ich daher behaupten dass der crossbar conroller doch ziemlich viel rausschlägt, jedenfalls bei Nvidia.


Auch auf 3DC hier gibt es ein Review:

http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/

Und ich kann da keine Überlegenheit der 8500 ggü. der GF3ti500 sehen.

Spake
2003-01-04, 00:55:03
die R9500Pro liegt doch auch mit einem respektabstand hinter der R9700 bei benchmarks ohne AA
bei der 9500Pro sind nur 2 Controler vorhanden

wär schön wenn jemand sagen könnte ob der unterschied der leistung eher am Controler oder eher an der bandbreite liegt

Crazytype
2003-01-05, 21:03:53
also ich zahle keine 500 € wenn ich dafür ne radeon 9700 pro für 370 € und bis dahin noch weniger bekomme. Eventuell ist dann auchnoch ne r350 erhältlich und in sommer kommt scho ndie r400 :) *freu*
auf jedenfall kriegt ATI mehr aus den Fertigugnsprozessen als Nvidia raus. Entweder Nvidia aht de Geforce FX überarbeitet als die r300 kam,weil sie eventuell nur rein "Aufguss" machen wollten oder,nach unbestätigten Gerüchten, wurde schon die Gf 4 eingeführt ,weil sie schon Probleme mit der GF 5 /FX hatten.

ille
2003-01-05, 21:04:21
Nvidia hat ihre zeit mit der GF4 verschwendet (ATI hat hingegen keinen "refresh" des R200 gebracht [da hätte ATI gleichziehen können]); während NV an der GF4 arbeitete (man muss sagen: leistungssprung zw. GF3 und GF4 ist eigentlich minimal, da GF4 = GF3 mit ein paar verbesserungen und extras ...) hat ATI den R300 fertiggestellt, der zur GF4 einen teilweiße riesigen leistungssprung bringt!

nvidia hat zu kurzzeitig gedacht (mit GF4 haben sie kurz den markt erobert, aber dann hatten sie nix gegen den R300 - GF FX kommt auch erst in ein paar monaten und so groß wird der leistungsprung zw. Radeon 9700 und GF FX net sein - ATI kann mit dem R350 locker gleichziehen - und ATI arbeitet ja schon wieder an dem R400 [nvidia muss sich was einfallen lassen sonst wird's nix mehr - vielleicht greifen sie ja auf "alte" 3dfx technologien zurück - es arbeiten ja immerhin einiger Ex 3dfx'ler bei nvidia [ne GF FX mit 2 chips wäre interessant ;)])

Spake
2003-01-05, 21:19:41
SLI meinst du

wäre ne ganz schöne leistungsaufnahme
da bräuchte man vielleicht auch ein externes netzteil à la FX-volts

Crazytype
2003-01-05, 21:30:34
naja der 2800+ von AMD (2250 MHz) ist ja schon lange bei einigen Destrubatoren in Amerika erhältlich verspätete sich aber ,weil AMD eventuell ein Thoroughbred C0 Stepping einführen wollen was 2250 MHz leichter realisieren soll.Nvdia hat wohl kein neues Stepping was die Verspätung begründen könnte ;)(den Aktionären wurde ja vorgelogen ,dass der Nv30 noch 2002 erscheint.

P.S Wenn jeder 10 % Mehrleistung im vergleich zu 100 bis 150 €/$ weniger in kauf nehmen würde, würde doch keiner mehr Intel CPU´s mehr kaufen ;)

edit: Ich verstehe auch nicht, warum TSMC angeblich Probleme mit den 130 nanometer Prozess haben sollen wenn die schon alle Erfolge mit 90 nanometer haben, ist wohl ne dumme Ausrede von Nvidia ,weil die den Chip nach den r300 noch geändert haben.

Spake
2003-01-05, 21:41:12
sicherlich liegt das prob an nvidia aber die hatten wohl von anfang an 0.13 in planung
wären sie beim gleichen design geblieben wär der chip rechtzeitig fertig gewesen
nur sioe habens eben geändert

Demirug
2003-01-05, 21:54:13
Das Gerücht mit der Designänderung hält sich doch recht hartnäckig. Man kann nicht mal so einfach schnell das Design ändern. Optimierungen um einen höhren Takt rauszuholen sind drin aber keine grundlegenden Änderungen.

Es ist ein unterschied ob man ein paar Testgates in einem Process fertig oder ein 125 M Transitoren Monster. Die Chip Produktion ist nun mal ein kompliziertes Geschäft und ein kleiner Fehler dabei kann alles zerstören.

Spake
2003-01-05, 22:04:35
" Die Chip Produktion ist nun mal ein kompliziertes Geschäft und ein kleiner Fehler dabei kann alles zerstören."

und eben auch den Zeitplan

mir ist es einfach ein rätsel wieso nvidia so stark aus dem zeitplan gekommen ist
an o.13 liegt es vielleicht gar nicht
steht nicht irgendwo dass der Xabre 600 ein 0.13 chip ist im LOW-KOST-SEGMENT

Demirug
2003-01-05, 22:19:18
NVIDIA wollte den Low K-Dielectric Process benutzten (das beste was TSMC derzeit zu bieten hat) und das ging wohl so in die Hose das man auf den normalen 0,13 Process zurück musste. Der Xabre 600 ist kleiner und nie für so hohe Taktfrequenzen gedacht wie der GF FX deswegen wurde er wohl gleich für den normalen 0,13 Process geplannt.

Spake
2003-01-06, 02:04:04
der Low K-Dielectric Process dient wohl besonders dazu hohe taktraten zu erreichen?

falls dass so ist(ich kann mir nur wage vorstellen was genau dieser prozeß bedeutet) finde ich es sehr komisch welchen aufwand (fxflow) nvidia braucht um hohe taktraten zu erreichen

extreme overcklocker kommen ja beim R300 bereits auf über 450 Coretakt
mitt fxflow müsste der R300 bei 400 Core problemlos kühlbar sein trotz 0.15

irgendwie erscheint mir das niedrige ergebnis von nvidia deshalb komisch

Demirug
2003-01-06, 08:09:25
Den Low K-Dielectric Process hat man bei TSMC mit dem NV30 nicht zum laufen gebarcht deswegen muste man zum normalen 0,13 Process zurück.

Bei einem Kühlsystem ist nicht die Frage auf welche Taktung man einen Chip maximal bekommt sondern ob das Kühlsystem ausreicht auch bei schlechten Bedingungen (die stehen irgendwo in irgendwelchen Specs) eine Karten bei den default takten stabil zu halten. Da diese schlechten Bedingungen aber nicht den default Fall darstellen kann man jede Hardware oc. Zudem ist Kühlung beim oc nur die halbe miete. Ich würde sagen das man erst mal abwarten muss in wie weit sich eine GF FX ocen läst bevor man vergleiche anstellen kann.

Spake
2003-01-06, 18:37:17
mit schlechten bedingungen meinst du so was wie ein schön warmer sommer oder?
nerven tuts mich schon wenn FXFlow bei Desktoparbeiten mit 2200 dreht bei spielen mit 5400 und bei LANs oder im Sommer mit 7200

Demirug
2003-01-06, 18:53:56
Die schlechten bedingungen sind noch schlechter. Im Industrie-PC Bereich müssen alle Teile noch stabil bei 60 Grad umgebungstemperatur laufen. Im Bürobereich sind es AFAIR 50 Grad. Bei Grafikkarten bin ich mir nicht sicher ob die auf Industrie oder nur auf Büro geprüft sind.

GRiNSER
2003-01-06, 20:32:43
Bei 3dfx Chips wars wohl auf Industrierechner...

MeLLe
2003-01-06, 21:03:51
Originally posted by GRiNSER
Bei 3dfx Chips wars wohl auf Industrierechner...
???

Spake
2003-01-08, 15:32:47
bin sowieso sehr gespannt auf die ersten GPU und ob fxflow dabei ist

es wqundert mich nur sehr dass wenn nvidia die GPUs ende des monats released bis jetzt noch keine rewiews erschienen sind oder anzeichen davon

eigentlich sollte es ein paar nda-brecher geben welche eine sensation verkünden wollen