PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Speku: GeForceFX intern 512bittig, weil NV35 256bit Interface bekommt


Leonidas
2002-11-23, 17:10:47
Was denkt Ihr? Theoretisch müßte die NV30 intern 256bittig sein (128 Bit x DDR). Aber möglicherweise ist sie ja intern gleich 512bittig und somit schon für ein größeres Speicherinterface vorbereitet. Daß diese seltsame Kombination funktionieren kann, zeigt ATi mit der Radeon 9500, die intern auch 512bittig ist und extern nur 256bittig.

Bei nVidia würde es wie gesagt die einfache Integration eines 256bittigen Speicherinterfaces ermöglichen. Wenn der Chip schon 512bittig ist, muß nur noch das Interface umgestaltet werden, was einfach ist. Es müßte aber nicht der komplette Chip umgestaltet werden, was man bei einem Refresh wie dem NV35 gewöhnlich ungern macht.

MeLLe
2002-11-23, 17:16:25
Full Ack.
Genau diese Gedanken hatte ich auch, schon beim Launch des NV30 und der damit verbundenen Gewissheit in Sachen "NV30 hat 128bit Memory-Interface". Ein Refresh wie der NV35 es ja sicherlich werden wird sollte einfach durch Anpassung des Board-Designs möglich sein (ok, evtl. werden am Chip selbst auch noch Feinheiten angepasst. Taktraten usw. ... Aber das is normal für nen nV-Refresh), demzufolge muss der NV30 schon im jetzigen Zustand für ein 256bit-Speichersubsystem ausgelegt sein. Vielleich überrascht uns nVidia aber doch ganz anders. Wir werden es zu gegebener Zeit herausfinden ;)

Quasar
2002-11-23, 17:28:02
Ja, auf den ersten Blick klingt es einleuchtend (was für eine blöde Formulierung), aber auf den zweiten Blick würde es bedeuten, dass ein nV30, wenn er denn erscheint, mit 128Bit absolut unterausgelastet ist.

NV behauptet ja momentan, es wäre noch nicht nötig, bei einem 4 Gigapixel-Monster auf 256Bit zu schwenken...und das aus Kostengründen!
Wenn Leo's Spekulation zutrifft, müsste es IMO im Umkehrschluss bedeuten, dass nV den nV35 mit 256Bit Speicherinterface auch einen ziemlich heftigen Sprung in der Taktfrequenz hinlegen müsste (oder die Anzahl der Pipelines vergrößern), damit sich das ganze RAM nicht allzusehr langweilt, denn 40GB/s wollen auch irgendwie genutzt werden.

Eine Möglichkeit hierzu wäre IMO, für den nV35 dann noch eine weitere FSAA-Klasse freizuschalten, aber ansonsten würde es wenig Sinn machen.

Börk
2002-11-23, 17:29:31
Wer sagt eigentlich, dass der NV35 ein 256bit interface bekommt???
800Mhz Ram bei 128bit müssten doch eigentlich reichen (vorrausgesetzt es ist verfügbar).

Birdman
2002-11-23, 18:03:11
na ja, allzulange kann Nvidia nicht mehr der Masse vormachen, dass es 256bit gar nicht braucht. Von demher ist der Sprung auf 256mbit recht dringend...nicht teschnisch bedingt, aber der marketings wegen.

Erinnere dich doch mal an die 3dfx Zeiten...da war Nvidia technologisch immer (weit) vor 3dfx und wurde deshalb in den siebten Himmel gelobt, obwohl die 3dfx Konkurenzprodukte durchs band weg schneller und problemloser waren.....wohin das geführt hat weiss du ja ;)

Demirug
2002-11-23, 18:17:33
Wenn die Tests der Geforce FX beweisen das sie mit einem 128 Bit Interface auskommt besteht auch eigentlich für den NV35 kein grosser Bedarf für 256 Bit. Samsung wird den speichertakt erhöhen NVIDIA erhöht den Coretakt man baut noch ein paar Kleinigkeiten ein und fertig ist der NV35.

@Leonidas: Ich glaube das der NV30 keinen Internen Speicherbus im klasschien Sinn mehr hat. Möglicherweise ist das auch schon seit dem NV20 so. Die Einheiten die Zugriff auf den Speicher brauchen dürften alle über den Cache entkoppelt sein und jeweils mit der notwendigen Breite an diesen angebunden sein.

Börk
2002-11-23, 18:38:30
Originally posted by Birdman
na ja, allzulange kann Nvidia nicht mehr der Masse vormachen, dass es 256bit gar nicht braucht. Von demher ist der Sprung auf 256mbit recht dringend...nicht teschnisch bedingt, aber der marketings wegen.

Erinnere dich doch mal an die 3dfx Zeiten...da war Nvidia technologisch immer (weit) vor 3dfx und wurde deshalb in den siebten Himmel gelobt, obwohl die 3dfx Konkurenzprodukte durchs band weg schneller und problemloser waren.....wohin das geführt hat weiss du ja ;)

1. Die breite Masse weis gar nicht was ein 256bit interface ist, sehr wohl aber glauben sie zu wissen was 800Mhz sind. Also marketing technisch sind 800Mhz besser zu verkaufen.

2. 256bit hat nicht mit technoloischem fortschritt zu tuen sondern nur mit roh power.
Technologisch sind/werden NV immer noch marktführer! vergl. Radeon und NV30 pixel/vertexshader.

Ansonsten geb ich natürlich allen recht, dass ein 256 bit interface ein gutes stück an performance bringen würde, allerdings stellt sich hier die frage nach dem kosten-nutzen faktor.

Unregistered
2002-11-23, 18:45:19
Nutzen: 1A. Die Radon 9700 geht ab wie sau.

Richthofen
2002-11-23, 19:26:37
wenn der NV30 aber mit 128 Bit genauso oder besser abgeht wie Sau, sehen alle anderen ziemlich dümmlich aus gelinde gesagt.

"
1. Die breite Masse weis gar nicht was ein 256bit interface ist, sehr wohl aber glauben sie zu wissen was 800Mhz sind. Also marketing technisch sind 800Mhz besser zu verkaufen.
"

Wenn du des nicht gesagt hättest, dann ich.
Und das kann man auch zu 100% so stehen lassen.
Der normale User weiss mit MHZ in jedem Fall was anzufangen.
Mit Bit etc... eher nicht.

1 GHZ RAM 128 Bit lässt sich definitiv PR mässig besser an den Mann bringen als 500 MHZ 256 Bit.

Iceman346
2002-11-23, 19:39:50
Originally posted by burk23
2. 256bit hat nicht mit technoloischem fortschritt zu tuen sondern nur mit roh power.
Technologisch sind/werden NV immer noch marktführer! vergl. Radeon und NV30 pixel/vertexshader.

Dann musst du aber auch sagen, daß 500 Mhz DDR2 Ram nichts mit Fortschritt zu tun haben sondern mit Rohpower ;)

Razor
2002-11-23, 19:56:05
Was das Merketing angeht: seh' ich auch so !

Was aber den 'technologischen Fortschritt' eines 256Bit-Busses angeht...
Hmmm...

Früher hat man nVidia immer vorgeworfen, dass man den Performance-Vorteil nur mit roher Gewalt erlange. Nun bringen sie tatsächlich mal etwas Neues (dessen Leitungsfähigkeit wir uns vermutlich nur ansatzweise vorstellen können) und schon wird gesagt: Die hat ja gar kein 256Bit.

Die 500MHz GPU- / 250MHz Speicher-Takt sehe ich übrigens nur als den nächsten Schritt.
Wenn man sieht, wie sich die CPU's entwickeln, dann könnte man schon fast fragen: Was, nur so wenig ?
:D

Ich gebe da Richthofen & Co vollkommen recht !

Keine Sau weiß, was ein Speicherinterface ist. Aber jeder kenn MHz/GHz Zahlen. Selbst 8 Jährige und der Papi vom Kleinen weiß, dass 'mehr' immer 'besser' ist. Klar 256 sind auch mehr als 128, aber wir haben hier ja nun gelernt (siehe auch Parhelia), das dies ja nun nicht der Weisheit letzter Schluss ist. Insofern darf man die 'Leistungsfähigkeit' eines 256Bit-Busses zumindest unter Vorbehalt sehen...

Und ich hoffe für die lieben ATI'ler, dass sie mit ihrem jetzigen Monster nicht im Regen stehen, wenn sie herausfinden, dass das neueste Stück Technologie im Prinzip nur der letzte Schritt auf der Leiter in die Zukunft ist und nicht der erste...

Bei nVidia ist noch sehr, sehr viel Luft, denn aufgrund des Fertigungsprozesses dürften sie noch 'Luft nach oben' haben und da das Speicherinterface ebenfalls noch 'verbreitert' werden kann, umso mehr.

Ich glaube schon, dass sie sich den Weg offen gehalten haben und der NV30 natürlich schon einen internen 512Bit-Bus spendiert bekommen hat, der zur Zeit zur Hälft schlicht brach liegt... oder auch nicht. Ich könnte mir auch gut voestellen, dass Demirug durchaus mit seiner Vermutung richtig liegen könnte und der interne Cache (den ja sogar schon der NV10/15 gehabt haben soll) immer mehr an Wichtigkeit zugenommen hat oder sogar DAS zentrale Glied in der Kette ist. KEINER kann heute sagen, was für eine Technologie hinter dem NV30 steht... schon gar nicht, wenn die 3dfx-Leutz da die Finger im Spiel gehabt haben.

Vielleicht ist ja doch etwas an der

"größten Revolotion in der Geschichte der 3D-Grafikchips"

Warten wir's ab !
Interessant ist auf jeden Fall, dass sich die Leute immer noch den Kopf heiß reden, obwohl nVidia doch eigentlich (!) die Katze aus dem Sack gelassen hat...
;D

Noch einmal: Bald wissen wir mehr !
(hoffentlich ;-)

Bis denne

Razor

Pussycat
2002-11-23, 20:09:31
Originally posted by Richthofen

1 GHZ RAM 128 Bit lässt sich definitiv PR mässig besser an den Mann bringen als 500 MHZ 256 Bit.

Und 20 GB/s sind nicht zu verkaufen? Auch nicht wenn danaben steht dass der NV30 nur 16 hat?

Pussycat
2002-11-23, 20:13:03
Originally posted by Razor
Bei nVidia ist noch sehr, sehr viel Luft, denn aufgrund des Fertigungsprozesses dürften sie noch 'Luft nach oben' haben und da das Speicherinterface ebenfalls noch 'verbreitert' werden kann, umso mehr.


Mit der Kühlung ist nicht viel Luft nach ober mehr, erkläre mir mal wie du zu dem Schluss kommst.

ATI muss nur den Speicher höher Takten oder zu 0,13 gehen, also ATI hat auch sehr sehr viel Luft.

wenn du die rosagrüne Brille absetzt, wirst du sehen dass beide noch Luft haben, ATI bei chip- und speichertakt, NV bei Speicheranbindung.

Und nochmals: wo ist die Luft nach oben beim Chiptakt com NV30???

Razor
2002-11-23, 20:14:53
Originally posted by Pussycat

Und 20 GB/s sind nicht zu verkaufen? Auch nicht wenn danaben steht dass der NV30 nur 16 hat?
Nö, Pussy...

Die Leutz da Draußen wissen nich von Speicherbandbreite oder Füllrate oder dem sonstigen Zeugs.
Die kennen nur 'Geschwindigkeit' !

Die wissen das 250km/h mehr als 140km/h sind.
Und das 3HGz Intel mehr als 2800+ AMD ist.

Und so ist ein 500MHz/1HGz nVidia eben mehr als ein 325MHz/(wieviel war das noch ?) ATI !

That's Marketing: Gehe immer auf den kleinsten Nenner und biete den 'Eingeweihten' etwas Spezielles...

So einfach, so wahr !

Razor

Razor
2002-11-23, 20:20:08
Originally posted by Pussycat


Mit der Kühlung ist nicht viel Luft nach ober mehr, erkläre mir mal wie du zu dem Schluss kommst.

ATI muss nur den Speicher höher Takten oder zu 0,13 gehen, also ATI hat auch sehr sehr viel Luft.

wenn du die rosagrüne Brille absetzt, wirst du sehen dass beide noch Luft haben, ATI bei chip- und speichertakt, NV bei Speicheranbindung.

Und nochmals: wo ist die Luft nach oben beim Chiptakt com NV30???
Noch wissen wir gar nichts, Pussy !

ATI muss den Schritt zum 0.13-Prozess erst einmal hinter sich bringen... nVidia hat's schon hinter sich.

Und zum jetzigen Zeitpunkt wissen wir doch gar nicht, ob es nVidia überhaupt nötig hat, noch weiter mit ATI zu konkurieren. Wenn ich das letzte Gerücht um den R350 richtig verstanden habe, dann hat's ATI schon mit dem NV30 so schwer, dass sie u.U. nicht einmal mit dem R350 den NV30 übertrupfen können. Und dann kommt da ja noch der NV35 - so sicher wie das Amen in der Kirche - und was ist dann ?

Wir können uns hier die Köpfe heiß reden, wie wir wollen, aber noch wissen wir gar nichts !
Und genau das ist es, was nVidia erreichen will: Alle reden drüber und wissen nix...
(und warten dann vielleicht ab ;-)

Wirklich geschickt !

Razor

Exxtreme
2002-11-23, 20:31:12
Klar haben die Luft nach oben. Flüssigstickstoff-Kühlung soll auch nicht mehr sooo teuer sein wie früher.
;)
Originally posted by Razor

Bei nVidia ist noch sehr, sehr viel Luft, denn aufgrund des Fertigungsprozesses dürften sie noch 'Luft nach oben' haben und da das Speicherinterface ebenfalls noch 'verbreitert' werden kann, umso mehr.

Razor

Börk
2002-11-23, 20:33:17
Originally posted by Razor
Wenn ich das letzte Gerücht um den R350 richtig verstanden habe, dann hat's ATI schon mit dem NV30 so schwer, dass sie u.U. nicht einmal mit dem R350 den NV30 übertrupfen können.

Was fürn gerücht???
Hab ich was verpasst?

Razor
2002-11-23, 20:37:32
Originally posted by burk23

Was fürn gerücht???
Hab ich was verpasst?
Hat nagus in dem anderen (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=41381&pagenumber=3) Thread gepostet. Kommt wohl aus dem B3D-Forum:
"R350 = Core enhached R300 w/ possibly PS & VS 3.0 [Source; diverse ATi employees said it would be 'DX 9.1'], 0.15µ, it should have 375+ MHz, DDR2 at 400+ MHz, should be the new Super High-End card (Or at least be even w/ the NV30) ..."
Soll ein ATI-Mitarbeiter geschrieben haben...

Aber nix genaues weiß man nicht, ist halt ein Gerücht, wie so viele derzeit.

Bis denne

Razor

Razor
2002-11-23, 20:40:38
Originally posted by Exxtreme
Klar haben die Luft nach oben. Flüssigstickstoff-Kühlung soll auch nicht mehr sooo teuer sein wie früher.
;)

Nun hast Du das gemacht, was man mir damals vorgeworfen hat:
Du hast mich 'verstümmelt' gequotet !
Aber ich hab' Dein Smilie gesehen...
;D

Bis denne

Razor

P.S.: Nicht wundern, Ihr hab't jetzt erst einmal Ruhe von mir, denn ich muss jetzt auf'n Swutsch... 'ne Freundin der Meinigen hat heute Geburtstag und will in der Stadt einen ausgeben...

Na dann mal :bier:
;-)

i_Land
2002-11-23, 20:42:08
Wie so lässt sich ein Interface nicht vermarkten.
Die Leute Kennen weder Mhz noch Bit. Sie kennen nur eins. Je grösser die Zahl desto besser. Oder was meinst ihr warum die GFFx 5800 heissen wird.
Und denkt mal nur an Geforce256, da wurde das 256 bit (128DDR) auch grossartig angepriesen.
Und Nvidia wird ihre Meinung über 512bit ändern, wenn sie erst ein vorteil darin haben, oder die anderen einen zu grossen vorteil, sei es Marketing oder Technische Gründe

aths
2002-11-23, 21:18:35
Ich rechne relativ fest damit, dass NV35 ein 256-Bit-Interface bekommt.

Iceman346
2002-11-23, 21:27:13
Is klar Razor... 500 Mhz lassen sich verkaufen aber 4GB/s mehr Bandbreite nicht...
Rechnet man zur Not in MB um, dann sinds 4096MB/s mehr Bandbreite. Das druckt man dick auf jede Packung (oder besser gleich 20480 MB/s Bandbreite, die Zahl ist länger) und fertig ists...
So nebenbei, der DAU hat von der Parhelia garnichts gelernt, der kennt die Karte nichtmal (zu Recht).

Na ja, wahrscheinlich red ich sowieso gegen Wände... Wände mit Nvidia Zeichen drauf.

AlfredENeumann
2002-11-23, 21:41:15
Originally posted by aths
Ich rechne relativ fest damit, dass NV35 ein 256-Bit-Interface bekommt.

... oder 1GHz/2GHz RAM-Takt. Weil das hört sich noch besser an bei 128Bit.

Börk
2002-11-23, 22:59:22
Originally posted by AlfredENeumann


... oder 1GHz/2GHz RAM-Takt. Weil das hört sich noch besser an bei 128Bit.
Ist aber wohl mittelfristig nicht zu erreichen und wird frühesten falls beim NV40/r400 einzug halten.

Axel
2002-11-24, 08:59:03
Ich nehme an, daß das 256 bit interface erst mit dem nv40 kommt. Beim jetzigen nv30 braucht nvidia diese Bandbreite nicht wirklich, da sie (nach derzeitigem Kenntnisstand) AA und AF nicht grundlegend verbessert haben. Sie haben sich auf PS und VS konzentriert und diese auf ein Maß aufgebläht, daß heute keiner braucht. Man kann doch froh sein, wenn ein Spiel überhaupt PS oder VS einsetzt. Da der NV35 nur die zweite Version des NV30 sein wird, ist ein größeres Speicherinterface für mich eine zu gravierende Veränderung für ein simples Refresh.
Das der nv30 bereits intern auf 512bit ausgelegt ist, klingt für mich unlogisch. Das macht doch kein normaler Entwickler etwas zu konstruieren, daß auf höhe der Zeit ist, um es dann wieder zu beschneiden. Gleichzeitig aber einen unverhältnismäßig hohen Aufwand bei Chip- und Speichertakt betreiben, um letztendlich wieder konkurrenzfähig zu sein.
Meine Meinung: Der NV30 ist als 256/128 bit Chip entwickelt worden. Der NV35 wird ein Refresh und damit nicht viele Veränderungen mit sich bringen.

Pirx
2002-11-24, 10:16:42
Originally posted by Axel
...Das macht doch kein normaler Entwickler etwas zu konstruieren, daß auf höhe der Zeit ist, um es dann wieder zu beschneiden. Gleichzeitig aber einen unverhältnismäßig hohen Aufwand bei Chip- und Speichertakt betreiben, um letztendlich wieder konkurrenzfähig zu sein....

Ein Entwickler vielleicht nicht, aber ein BWLer:stareup: oder Marketingfuzzie vielleicht:)

zeckensack
2002-11-24, 11:02:38
Originally posted by Razor
Interessant ist auf jeden Fall, dass sich die Leute immer noch den Kopf heiß reden, obwohl nVidia doch eigentlich (!) die Katze aus dem Sack gelassen hat...
;DAlso wenn du mich fragst, ist der Sack nach wie vor fest verschlossen. Taktraten der Serienkarten? Nachvollziehbare (!!) Benchmarks? Nix ...
Noch einmal: Bald wissen wir mehr !
(hoffentlich ;-)Scheinst du ja auch so zu sehen :)
Sonst wäre der Satz jetzt nicht nötig gewesen ;)
Bis denne

Razor Ja, schreib mal wieder :wink:

nagus
2002-11-24, 11:27:45
Originally posted by Razor
Was das Merketing angeht: seh' ich auch so !

Was aber den 'technologischen Fortschritt' eines 256Bit-Busses angeht...
Hmmm...


... im vergleich dazu ist natürlich die reine, brutale takterhöhung der größere technologische fortschritt... natürlich :embara:



Früher hat man nVidia immer vorgeworfen, dass man den Performance-Vorteil nur mit roher Gewalt erlange. Nun bringen sie tatsächlich mal etwas Neues (dessen Leitungsfähigkeit wir uns vermutlich nur ansatzweise vorstellen können) und schon wird gesagt: Die hat ja gar kein 256Bit.


nvidia und technoligischer fortschritt? das ich nicht lache! so ziehmlich JEDE ATI grafikkarte hat im vergleich zum konkurenzprodukt mehr technoloischen fortschritt als das gegenstück von nvidia

ein beispiel:

Geforce 2 > Radeon (1) Radeon 7500 ..... was kann die GF2, was die Radeon nicht kann??! ... ich weis nur, dass keine Geforce 2 EMBM kann z.b..

Geforce 3 > Radeon 8500 .... welche karte hat mehr features und technologischen fortschritt? ( PS1.4, Truform )

Geforce 4 > Radeon 9xxx .... gleich wie oben

NV30 > R3(5)0 : wissen wir nicht genau


für mich ist die NV30 das beste und zugleich das extremste beispiel für Nvidias "MHz - Wahnsinn"

nur so nebenbei: die testsamples der NV30 laufen zur zeit mit ~ 200MHz ( Quelle: Beyond 3D Forum ). ich bezweifle stark, dass das endprodukt mit 500MHz läuft. IMHO können viele nvidia-fans noch lange warten, bis die NV30 500Mhz erreicht ( oder das teil kostet über 600euro und ist nicht verfügbar)



Die 500MHz GPU- / 250MHz Speicher-Takt sehe ich übrigens nur als den nächsten Schritt.
Wenn man sieht, wie sich die CPU's entwickeln, dann könnte man schon fast fragen: Was, nur so wenig ?
:D

Ich gebe da Richthofen & Co vollkommen recht !

Keine Sau weiß, was ein Speicherinterface ist. Aber jeder kenn MHz/GHz Zahlen. Selbst 8 Jährige und der Papi vom Kleinen weiß, dass 'mehr' immer 'besser' ist. Klar 256 sind auch mehr als 128, aber wir haben hier ja nun gelernt (siehe auch Parhelia), das dies ja nun nicht der Weisheit letzter Schluss ist. Insofern darf man die 'Leistungsfähigkeit' eines 256Bit-Busses zumindest unter Vorbehalt sehen...


*zustimm*



Und ich hoffe für die lieben ATI'ler, dass sie mit ihrem jetzigen Monster nicht im Regen stehen, wenn sie herausfinden, dass das neueste Stück Technologie im Prinzip nur der letzte Schritt auf der Leiter in die Zukunft ist und nicht der erste...


:bonk:


Bei nVidia ist noch sehr, sehr viel Luft, denn aufgrund des Fertigungsprozesses dürften sie noch 'Luft nach oben' haben und da das Speicherinterface ebenfalls noch 'verbreitert' werden kann, umso mehr.


sehr, sehr viel luft?! beim speicherinterface gebe ich dir recht, aber nicht die GPU. wenn die testsamples im moment mit angeblichen 200 Mhz laufen und so eine fette kühlung benötigen, glaube ich kaum, dass nvidia in naher zukunft überhaupt die angepeilten 500Mhz schaffen wird.

wenn man jedoch ATI anschaut... die haben wesentlich mehr luft nach oben: die-shrink aufn 0,13 >> ca. 450Mhz - 500Mhz Core-Takt IMHO möglich; DDR2 speicher mit 1Ghz; 8x2 ...



Ich glaube schon, dass sie sich den Weg offen gehalten haben und der NV30 natürlich schon einen internen 512Bit-Bus spendiert bekommen hat, der zur Zeit zur Hälft schlicht brach liegt... oder auch nicht. Ich könnte mir auch gut voestellen, dass Demirug durchaus mit seiner Vermutung richtig liegen könnte und der interne Cache (den ja sogar schon der NV10/15 gehabt haben soll) immer mehr an Wichtigkeit zugenommen hat oder sogar DAS zentrale Glied in der Kette ist. KEINER kann heute sagen, was für eine Technologie hinter dem NV30 steht... schon gar nicht, wenn die 3dfx-Leutz da die Finger im Spiel gehabt haben.

Vielleicht ist ja doch etwas an der

"größten Revolotion in der Geschichte der 3D-Grafikchips"



vielleicht auch nicht. vielleicht stellt ATI ende des jahres die R350 vor und stampft die NV30 in grund und boden ... vielleicht kommt die NV30 nicht vor April in die läden. vielleicht ist die NV30 das größte fiasko in der geschichte von Nvidia? vielleicht, vielleicht, vielleicht......



Warten wir's ab !
Interessant ist auf jeden Fall, dass sich die Leute immer noch den Kopf heiß reden, obwohl nVidia doch eigentlich (!) die Katze aus dem Sack gelassen hat...


Noch einmal: Bald wissen wir mehr !
(hoffentlich ;-)

Bis denne

Razor


bis denne ;)

nagus
2002-11-24, 11:33:43
Originally posted by Razor

Noch wissen wir gar nichts, Pussy !

ATI muss den Schritt zum 0.13-Prozess erst einmal hinter sich bringen... nVidia hat's schon hinter sich.

Und zum jetzigen Zeitpunkt wissen wir doch gar nicht, ob es nVidia überhaupt nötig hat, noch weiter mit ATI zu konkurieren. Wenn ich das letzte Gerücht um den R350 richtig verstanden habe, dann hat's ATI schon mit dem NV30 so schwer, dass sie u.U. nicht einmal mit dem R350 den NV30 übertrupfen können. Und dann kommt da ja noch der NV35 - so sicher wie das Amen in der Kirche - und was ist dann ?

Wir können uns hier die Köpfe heiß reden, wie wir wollen, aber noch wissen wir gar nichts !
Und genau das ist es, was nVidia erreichen will: Alle reden drüber und wissen nix...
(und warten dann vielleicht ab ;-)

Wirklich geschickt !

Razor


ach bitte, jetzt hör doch auf! du glaubst glaubst doch nicht wirklich, dass es ATi schwer hat die NV30 zu übertrumpfen, wenn wir über die NV30 leistungsmäßig NIX wissen! die Nvidia benchmarks kannst du vielleicht als klopapier verwenden!

... und das du die angebliche aussage von ati mitarbeitern so auslegst.... das hab ich nicht erwartet. du behauptest nämlich genau das gegenteil von dem, was da steht! lesen ist schon schwer oder?


bis denne ;)

nagus
2002-11-24, 11:35:21
Originally posted by AlfredENeumann


... oder 1GHz/2GHz RAM-Takt. Weil das hört sich noch besser an bei 128Bit.


:lol: ;D :rofl: :D

-error-
2002-11-24, 14:09:01
Man nehmt es doch einfach so wie es derzeit ist und noch eine Weile bleiben wird. Ati hat Nvidia in Sachen Leistung in den Boden gestampft! Ich mein was ist daran so schlimm?
Ich denke schon das die NV30 ein wenig schneller als die R300 wird. Aber ob das ausreichen wird? Schlie0lich wird die NV30 ja noch ein ganzes Stück teurer werden.

NV30 DDR2+128BIT Speicherinterface

R350 DDR2+256BIT Speicherinterface

Also für wen siehts besser aus?

Nvidia hat nun wirklich keine Zeit mehr, an ihrer NV30 noch großartig etwas zu verändern. Man versucht erst mal die R300 zu übertrumpfen und nicht mehr.

Ati hat im Gegensatz zu Nvidia noch Zeit. ATI kann die R350 dann auf dem Markt bringen, wenn sie es für richtig halten.
Ati braucht ja nur DDR2 auf die R300 zu knallen und fertig ist schnelleste Karte.

Axel
2002-11-24, 14:43:24
Originally posted by Powerd by ATI
Ati braucht ja nur ein 256BIT-Speicherinterface auf die R300 zu knallen und fertig ist schnelleste Karte.

???

Die R300 hat bereits ein 256-bit Speicherinterface.

Korak
2002-11-24, 14:55:28
Originally posted by Razor

Noch wissen wir gar nichts, Pussy !



Das kann man garnicht oft genug sagen.

Originally posted by Razor

ATI muss den Schritt zum 0.13-Prozess erst einmal hinter sich bringen... nVidia hat's schon hinter sich.

Und zum jetzigen Zeitpunkt wissen wir doch gar nicht, ob es nVidia überhaupt nötig hat, noch weiter mit ATI zu konkurieren. Wenn ich das letzte Gerücht um den R350 richtig verstanden habe, dann hat's ATI schon mit dem NV30 so schwer, dass sie u.U. nicht einmal mit dem R350 den NV30 übertrupfen können. Und dann kommt da ja noch der NV35 - so sicher wie das Amen in der Kirche - und was ist dann ?


Wie meinst du das? Warum sollte NV es nicht mehr nötig haben mit Ati zu konkurieren? Haben se genug verdient, oder was?
Ach ja die lieben Gerüchte.. ;)
Und kommt ja noch der NV35, da wirds NV aber schwer haben, denn der R400 kommt so sicher wie das Amen in der Kirche. ;)


Originally posted by Razor

Wir können uns hier die Köpfe heiß reden, wie wir wollen, aber noch wissen wir gar nichts !

jo.


Korak ;-)

Pussycat
2002-11-24, 15:15:24
Originally posted by Razor

Noch wissen wir gar nichts, Pussy !


Wieso behauptest du dann dass der NV30 noch so viel 'luft nach oben' hat?

Wieso bist du dann jetzt schon freudestrahlend am lechzen nach ein Gerücht, nach dem der ATI den R350 nicht umsonst rausbringt? Wieso liest du aus 'should be the new Super High-End card (Or at least be even w/ the NV30) ...' das der r350 schlecht wird?

Bei der NV30 ist keine Luft nach ober mehr. Wenn er vom R350 geschlagen wird, hat nvidia die leistungskrone wieder wenigsten 6 monate lang nicht auf dem Kopf. Die können nicht mal ein Refresh oder ein Detonator aus den Ärmeln zaubern.

Pussycat
2002-11-24, 15:21:27
Originally posted by Razor

Die Leutz da Draußen wissen nich von Speicherbandbreite oder Füllrate oder dem sonstigen Zeugs.
Die kennen nur 'Geschwindigkeit' !

Die wissen das 250km/h mehr als 140km/h sind.
Und das 3HGz Intel mehr als 2800+ AMD ist.

Und so ist ein 500MHz/1HGz nVidia eben mehr als ein 325MHz/(wieviel war das noch ?) ATI !


Gigabiytes kennen die auch. Sonst setzt man einfach ein Quote 'bandwidth is the most important factor nowadays' auf der Verüackung, wird sich bestimmt finden lassen.

Und sonst vergleicht man ein 310 MHz (ja, so schnell ist das. Macht aber nichts dass du dich nicht bei der Konkurrenz auskennst, ist zum fanboy'en nicht nötig) 256 bit DDR Interface mit ein 310*4= 1240 MHz 128 bit interface. Fertig sind die extra MHz.

Aber erkläre mal warum 3 'mehr' als 2,8 istm warum 250 'mehr' als 140 ist aber 20 nicht 'mehr' als 16 ist? Irgendwie verstehe ich das nicht ganz.

Hauwech
2002-11-24, 16:02:57
Imho haben nVidia und ATI beide noch Luft nach oben.

ATI mit 0.13 und DDR2, nVidia mit 256bit speicherinterface.

Wer wen schlaegt is so gesehen auch voellig egal, mal wird ATI vorne sein, mal nVdia, ist so gesehen nur fuer die Fanboys interessant.
Allein der Eye-Candy (AA/AF) und 'Feature' (VS/PS moeglichen Effekte) Bereich wird in Zukunft entscheiden.
Im Moment sieht es fuer ATI im Eye-Candy Bereich besser aus, dank RG und hoher Bandbreite (R300 vs GF4, da der NV30 noch nicht getestet wurde obwohl man davon ausgehen kann das, laut aths, auch der NV30 nicht sooo der Ueberflieger im Bereich AA/AF sein wird, oder?).
Korrektur bitte wenn ich falsch liege :)

Der 'Feature' Bereich haengt aber von der Unterstuetzung seitens ATI und nVidia fuer die Spielefirmen ab und da sieht es im Moment imho besser fuer NVidia aus da die 'mehr' machen. Natuerlich wird die Masse der Progger den kleinsten gemeinsamen Nenner nehmen um moeglichst viele Games zu verkaufen. (DX wie auch OGL)
Ok, JC kann man nicht fuer alle Spieleprogger als Standard nehmen aber *wenn* es wirklich so sein soll das D3 nur fuer den NV30 einen eigenen Renderpfad benutzt und nicht den R300 dann spricht das schon fuer sich denke ich (Achtung !! OpenGL!!!). Man muss ja auch sehen das JC daran interessiert ist, seine Engine so oft wie moeglich zu verkaufen = recht weite Verbreitung fuer 'NV30-Spezialfaehigkeiten' (sofern er wirklich alles drin laesst und nicht nur ein 'Grundgeruest' verkauft). Geruechtemaessig soll ja schon die D3-Engine bei einigen Firmen (wie viele weiss ich nicht) am laufen sein = gut fuer nVidia.
Wenn ich damit falsch liege bitte Korrektur und keine Flames :)

Wenn ich Demirug richtig verstehe ist ein 'update' von Spieleengines von DX8 zu DX9 nicht sonderlich schwer/aufwaendig. Hier wird es, wenn ueberhaupt da nur sehr schwer moeglich, kaum Optimierungen fuer die einzelnen Chips geben. Frage ist ob hier nVidia/ATI eigene sagen wir mal 'Extensions' fuer DX haben, falls das moeglich sein sollte (Demi?), um ihre jeweiligen Chips besser 'auszunutzen'.

My 2cent

Börk
2002-11-24, 16:19:35
Originally posted by Hauwech
Ok, JC kann man nicht fuer alle Spieleprogger als Standard nehmen aber *wenn* es wirklich so sein soll das D3 nur fuer den NV30 einen eigenen Renderpfad benutzt und nicht den R300 dann spricht das schon fuer sich denke ich (Achtung !! OpenGL!!!). Man muss ja auch sehen das JC daran interessiert ist, seine Engine so oft wie moeglich zu verkaufen = recht weite Verbreitung fuer 'NV30-Spezialfaehigkeiten' (sofern er wirklich alles drin laesst und nicht nur ein 'Grundgeruest' verkauft).

ACHTUNG!!!
Der NV30 kriegt nur deswegen nen eigenen Pfad weil sie mit dem GF4 pfad net alles in einem pass renderen könnte.
Bei der R300 ist das nicht nötig, weil sie den Pfad von der Radeon8500 mitbenutzen kann, der sowieso schon alles single pass macht.
Sofern selbe bedingungen für R300 und NV30, zumindest bei D3.

Demirug
2002-11-24, 16:27:50
Originally posted by Hauwech

Wenn ich Demirug richtig verstehe ist ein 'update' von Spieleengines von DX8 zu DX9 nicht sonderlich schwer/aufwaendig. Hier wird es, wenn ueberhaupt da nur sehr schwer moeglich, kaum Optimierungen fuer die einzelnen Chips geben. Frage ist ob hier nVidia/ATI eigene sagen wir mal 'Extensions' fuer DX haben, falls das moeglich sein sollte (Demi?), um ihre jeweiligen Chips besser 'auszunutzen'.

My 2cent

Eine DX8 Engine läst sich relative einfach auf DX9 updaten. Sowas wie Extension gibt es bei DX ja nicht. Es gibt nur einen Satz von DX-Features und jede Karte meldet nun was sie kann und was nicht. Im Bereich der Shader meldet dort der NV30 etwas mehr als der R300.

Hauwech
2002-11-24, 16:33:44
Originally posted by Pussycat


Gigabiytes kennen die auch. Sonst setzt man einfach ein Quote 'bandwidth is the most important factor nowadays' auf der Verüackung, wird sich bestimmt finden lassen.

Und sonst vergleicht man ein 310 MHz (ja, so schnell ist das. Macht aber nichts dass du dich nicht bei der Konkurrenz auskennst, ist zum fanboy'en nicht nötig) 256 bit DDR Interface mit ein 310*4= 1240 MHz 128 bit interface. Fertig sind die extra MHz.

Aber erkläre mal warum 3 'mehr' als 2,8 istm warum 250 'mehr' als 140 ist aber 20 nicht 'mehr' als 16 ist? Irgendwie verstehe ich das nicht ganz.

Ich denke was Razor meint, jemand anders hier hat es auch schon aehnlich geschrieben, das der DAU einfach nur Zahlen vergleicht die ihm gelaeufig sind, meistens MHz und GB und halt auch km/h.
3GHz klingt nun mal besser als 2.8 GHz; 500MHz zu 325MHz auch aber er kann nix mit Speicherbandbreite von 16GB oder 20GB anfangen weil er es ja nur von der Festplatte kennt. Da kann man darauf was speichern (mp3, videos, spiele etc etc.), auf der Graka aber nicht. Versuch das dem nicht so technisch versiertem DAU mal zu erklaeren und nicht in technische Details wie VS/PS, HyperZ3, LMA2/3 usw usw.
Im Falle der Parhelia haben wir ja gesehen das hohe Bandbreite erstmal gar nix bedeutet wenn sie nicht richtig genutzt wird.

Marketing *shrug*

-error-
2002-11-24, 16:43:43
Originally posted by Axel


???

Die R300 hat bereits ein 256-bit Speicherinterface.

Ich wollte DDR2 schreiben

Exxtreme
2002-11-24, 16:44:52
Wie meinst du das?
Originally posted by Powerd by ATI


Ja aber nicht in Verbindung mit DDR2

Hauwech
2002-11-24, 16:46:19
Originally posted by burk23


ACHTUNG!!!
Der NV30 kriegt nur deswegen nen eigenen Pfad weil sie mit dem GF4 pfad net alles in einem pass renderen könnte.
Bei der R300 ist das nicht nötig, weil sie den Pfad von der Radeon8500 mitbenutzen kann, der sowieso schon alles single pass macht.
Sofern selbe bedingungen für R300 und NV30, zumindest bei D3.

Ok danke fuer die Korrektur :)
Bekommt der NV30 nicht nen eigenen Pfad um *nur* die Extensions fuer 2.0+ zu benutzen oder ist der wirklich nur fuer single-pass rendering erforderlich? Kenne mich nicht so aus mit proggen, aber nach meinem Verstaendniss muesste es doch der Engine so gesehen egal sein ob der Chip es single-pass rendern kann oder nicht, da doch der Treiber dazwischen haengt der das ganze nur fuer die Graka in verstaendliche Befehle aufbereitet? Also mehr oder weniger das eher der Progger darauf achten muss das alles 'recht synchron' laeuft?

Rampage
2002-11-24, 16:53:34
Originally posted by nagus

... im vergleich dazu ist natürlich die reine, brutale takterhöhung der größere technologische fortschritt... natürlich :embara:



schon eher als einfach die bandbreite zu verdoppeln.

Originally posted by nagus
nvidia und technoligischer fortschritt? das ich nicht lache! so ziehmlich JEDE ATI grafikkarte hat im vergleich zum konkurenzprodukt mehr technoloischen fortschritt als das gegenstück von nvidia

ein beispiel:

Geforce 2 > Radeon (1) Radeon 7500 ..... was kann die GF2, was die Radeon nicht kann??! ... ich weis nur, dass keine Geforce 2 EMBM kann z.b..

Geforce 3 > Radeon 8500 .... welche karte hat mehr features und technologischen fortschritt? ( PS1.4, Truform )

Geforce 4 > Radeon 9xxx .... gleich wie oben

NV30 > R3(5)0 : wissen wir nicht genau



1. Die kamen aber auch alle später raus :stareup:
2. nv hat meistens sehr schnell reagiert und die krone wieder erobert
3. welche features wurden genutzt ?? (trifft generell auf fast alle karten zu)
4. du willst doch keine radeon 1 mit ner gf2 vergleichen :)

Originally posted by nagus
sehr, sehr viel luft?! beim speicherinterface gebe ich dir recht, aber nicht die GPU. wenn die testsamples im moment mit angeblichen 200 Mhz laufen und so eine fette kühlung benötigen, glaube ich kaum, dass nvidia in naher zukunft überhaupt die angepeilten 500Mhz schaffen wird.

wenn man jedoch ATI anschaut... die haben wesentlich mehr luft nach oben: die-shrink aufn 0,13 >> ca. 450Mhz - 500Mhz Core-Takt IMHO möglich; DDR2 speicher mit 1Ghz; 8x2 ...


Haben beide noch Luft Ati sollte aber erstmal anfangen in 0.13 zu produzieren, sonst wirds eng.



Originally posted by nagus
vielleicht auch nicht. vielleicht stellt ATI ende des jahres die R350 vor und stampft die NV30 in grund und boden ... vielleicht kommt die NV30 nicht vor April in die läden. vielleicht ist die NV30 das größte fiasko in der geschichte von Nvidia? vielleicht, vielleicht, vielleicht......


Die letzte Hoffnung eines Fanboys, nur leider wird es nicht dazu kommen. ;D

Demirug
2002-11-24, 16:53:52
Originally posted by Hauwech


Ok danke fuer die Korrektur :)
Bekommt der NV30 nicht nen eigenen Pfad um *nur* die Extensions fuer 2.0+ zu benutzen oder ist der wirklich nur fuer single-pass rendering erforderlich? Kenne mich nicht so aus mit proggen, aber nach meinem Verstaendniss muesste es doch der Engine so gesehen egal sein ob der Chip es single-pass rendern kann oder nicht, da doch der Treiber dazwischen haengt der das ganze nur fuer die Graka in verstaendliche Befehle aufbereitet? Also mehr oder weniger das eher der Progger darauf achten muss das alles 'recht synchron' laeuft?

Nein Hauwech,

das aufsplitten einer Aufgabe auf mehrer Passes muss immer noch der Entwickler machen. Deswegen bekommt der NV30 auch einen neunen Pfad. Besser aussehen wird es deshalb aber nicht, den die Grunddaten aus denen alles erzeugt wird bleiben ja die gleichen.

-error-
2002-11-24, 16:53:57
Originally posted by Exxtreme
Wie meinst du das?


256BIT + DDR2 Das gabe es noch nicht

Hauwech
2002-11-24, 16:54:20
Originally posted by Demirug


Eine DX8 Engine läst sich relative einfach auf DX9 updaten. Sowas wie Extension gibt es bei DX ja nicht. Es gibt nur einen Satz von DX-Features und jede Karte meldet nun was sie kann und was nicht. Im Bereich der Shader meldet dort der NV30 etwas mehr als der R300.

Ah ok, also muss der Progger so gesehen 'nur' eine Abfrage nach DX9 einbauen, ok verstanden. :)

Wie stark duerfte denn der Unterschied in der Struktur eines Programmes sein in Bezug auf Shader zwischen R300 und NV30? Kleinster gemeinsamer Nenner erstmal ist mir klar aber darueber hinaus? Ist es viel Aufwand deiner Meinung nach (aller anderen Progger natuerlich auch :) ) zusaetzliche Programmteile fuer den NV30 zu erstellen also die Bereiche was der NV30 'mehr' als der R300 kann?
Kann hier eigentlich schon Cg zum Zuge komen oder ist das OGL? (Hab etwas den Ueberblick verloren, sorry :/)

Hauwech
2002-11-24, 16:57:31
Originally posted by Demirug


Nein Hauwech,

das aufsplitten einer Aufgabe auf mehrer Passes muss immer noch der Entwickler machen. Deswegen bekommt der NV30 auch einen neunen Pfad. Besser aussehen wird es deshalb aber nicht, den die Grunddaten aus denen alles erzeugt wird bleiben ja die gleichen.

Ok, hab es dann verstanden. Meinte ja auch nicht schoener aussehen sondern halt nur schneller. :)

Demirug
2002-11-24, 17:12:28
Originally posted by Hauwech


Ah ok, also muss der Progger so gesehen 'nur' eine Abfrage nach DX9 einbauen, ok verstanden. :)

Wie stark duerfte denn der Unterschied in der Struktur eines Programmes sein in Bezug auf Shader zwischen R300 und NV30? Kleinster gemeinsamer Nenner erstmal ist mir klar aber darueber hinaus? Ist es viel Aufwand deiner Meinung nach (aller anderen Progger natuerlich auch :) ) zusaetzliche Programmteile fuer den NV30 zu erstellen also die Bereiche was der NV30 'mehr' als der R300 kann?
Kann hier eigentlich schon Cg zum Zuge komen oder ist das OGL? (Hab etwas den Ueberblick verloren, sorry :/)

man fragt nicht nach DX9. Das ist ja nur die entsprechende Runtime die ja mit allen Karten läuft für die man mindestens einen DX7 Treiber hat. Man fragt einzelne Eingenschaften wie zum Beispiel die maximale Länge des Shaderprogramms ab.

Wie gross der Aufwand ist hängt im wesentlichen von der Engine ab. Ist die Engine auf ein variables Shadersystem ausgelegt braucht man am Enginecode selbst überhaupt nichts zu ändern da die Shaderprogramme dann ein Teil der Leveldaten sind. Der Designer hätte in diesem Fall also die möglichkeit für die NV30 "bessere" Shader einzubinden.

Cg (und HLSL) wird benutzt um Shader in einer C ähnlichen Hochsprache zu schreiben. Man könnte natürlich den gleichen Hochsprachenshader einmal für den R300 und einmal für den NV30 compilieren was beim NV30 zu einem schnelleren Shader führen kann.

Ikon
2002-11-24, 20:31:11
Originally posted by Demirug
Cg (und HLSL) wird benutzt um Shader in einer C ähnlichen Hochsprache zu schreiben. Man könnte natürlich den gleichen Hochsprachenshader einmal für den R300 und einmal für den NV30 compilieren was beim NV30 zu einem schnelleren Shader führen kann.

Das wird bei der DX9-Generation wohl sehr viel ausmachen -> wer kreiert die "besseren" Compiler?

Demirug
2002-11-24, 20:36:56
Originally posted by Ikon


Das wird bei der DX9-Generation wohl sehr viel ausmachen -> wer kreiert die "besseren" Compiler?

Primär gibt es ja einen von MS der für alle Karten geeignet ist. Ich halte es aber durchaus für wahrscheinlich das der Compiler von NVIDIA sehr gut für NVIDIA Hardware optimiert. Von ATI gibt es im Bezug auf dieses Thema noch keine Aussage.

Ikon
2002-11-24, 20:43:35
Ich könnte mir vorstellen, dass das ähnlich wie bei Visual Studio laufen wird -> der integrierte Compiler ist auch "für alle geeignet", aber es gibt von Intel den ICL (für alle Unwissenden: Intel Compiler Library) als Plug-In für VS, mit dem (auch) der P4 wie eine Rakete abgeht (und ganz nebenbei noch den Athlon ausbremst). Da lassen sich durchaus Parallelen zu NV/ATi spinnen.

Pussycat
2002-11-24, 21:19:46
Originally posted by Razor

ATI muss den Schritt zum 0.13-Prozess erst einmal hinter sich bringen... nVidia hat's schon hinter sich.


Tja, leider nicht.

Da du so gerne B3D quotest, tu ich's auch mal:

http://www.beyond3d.com/forum/viewtopic.php?t=3299&highlight=taped+rv350+r350


In the past few weeks the following have taped out:

NV31 in 0.13.
R350 in 0.15.
RV350. I'm fairly certain 0.13, but not 100% positive.


Geschrieben durch CMKRNL, der ja irgendwo bei TSMC seine Infos kriegt.

Lost Prophet
2002-11-24, 21:32:14
zum topic

im grunde stimmt hier alles was zum topic gepostet wurde , meine frage:

wäre es nicht billiger gewesen ein 256bit interface zu bauen, als
so ein mhz-monster(incl ausschuss) + so einen kühler (incl entwicklungskosten)??

oder haben sie anno dazumal einfach nicht mit so einem monster ( damal im vergleich zu gf4) von ATI gerechnet und danach nicht mehr auf 256 aufrüsten können => kompensierung durch hohe takraten??

bitte um eure meinungen

cya axel

Demirug
2002-11-24, 21:50:15
Originally posted by Purple_Stain
zum topic

im grunde stimmt hier alles was zum topic gepostet wurde , meine frage:

wäre es nicht billiger gewesen ein 256bit interface zu bauen, als
so ein mhz-monster(incl ausschuss) + so einen kühler (incl entwicklungskosten)??

oder haben sie anno dazumal einfach nicht mit so einem monster ( damal im vergleich zu gf4) von ATI gerechnet und danach nicht mehr auf 256 aufrüsten können => kompensierung durch hohe takraten??

bitte um eure meinungen

cya axel

Das eine hat doch mit dem anderen nichts zu tun. Das MHZ-Monster ist dazu da die Fillrate von 4 GPixel/s zu erzeugen.

Wenn man die Kostensituation betrachtet muss man lediglich vergleichen ob die am Chip und PCB gesparten kosten sich mit den mehrkosten für den Speicher verrechnen. Ich hatte irgendwo mal eine Tabelle was man so pro zusätzlichem Pin für den Chip und das PCB rechnen muss. Wenn ich sie wieder finde werde ich es mal posten.

Lost Prophet
2002-11-24, 21:55:11
Originally posted by Demirug


Das eine hat doch mit dem anderen nichts zu tun. Das MHZ-Monster ist dazu da die Fillrate von 4 GPixel/s zu erzeugen.

Wenn man die Kostensituation betrachtet muss man lediglich vergleichen ob die am Chip und PCB gesparten kosten sich mit den mehrkosten für den Speicher verrechnen. Ich hatte irgendwo mal eine Tabelle was man so pro zusätzlichem Pin für den Chip und das PCB rechnen muss. Wenn ich sie wieder finde werde ich es mal posten.

zu 1: meiner meinung nach hat es doch etwas damit zu tun, da man sonst die leistungs krone wahrscheinlich nicht erreicht hätte

zu 2: danke für die info, aber im endeffekt ist es doch so das alles so tief miteinnader versponne dass man das nur schwer ausrechnen kann.


cya axel

Pirx
2002-11-24, 22:04:30
Die Zeit dürfte an der Stelle für nV laufen, der Speicher wird wohl billiger werden, das PCB wohl eher nicht oder?

Demirug
2002-11-24, 22:45:09
Originally posted by Purple_Stain


zu 1: meiner meinung nach hat es doch etwas damit zu tun, da man sonst die leistungs krone wahrscheinlich nicht erreicht hätte

cya axel

Schauen wir und doch mal die primären unterschiede im Design an.

1. Vertexshader ATI 4 NVIDIA 3. NVIDIA muss hier mit dem Takt ausgleichen. Ab 440 MHZ liegt NVIDIA theoretisch vorne. Wobei man noch die effektivität der VS Einheiten berücksichtigen muss.

2. Pipelines beide 8. Nur der Takt entscheidet.

3. AA-Samples 4 pro Pipeline bei NVIDIA 6 bei ATI. NVIDIA braucht ca 490 MHZ um beim 6x AA Mitzuhalten

4. TMUs: Beide TMUs können 1 Tri Sample pro Takt erzeugen. Die NVIDIA TMU kann auch 2 bi Samples pro Takt erzeugen. Allerdings läst sich dieses Feature nur unter bestimmten bedingungen nutzen. Also nur ein kleiner Vorteil für NVIDIA ansonsten Takt

5. Pixelshader: Hier wissen wir leider von den beiden Bewerber recht wennig.

ATI gibt an das sie zwei getrennte Einheiten für Texturkoordinaten und allgemeine Rechnungen haben. Auf den ersten Blick wohl eine Weiterentwicklung der PS 1.4 Architektur. Zur Performance mit DX9 Shadern läst sich nicht viel sagen ausser das wohl 2 Takte pro Operation zu veranschlagen sind. Bei der Verwendung von DX8 Shadern scheint 1 Takt pro Befehl auszureichen.

NVIDIA benutzt zwei getrennte Wege für die Pixelshader. Zum einen verfügt jede Pipeline über einen Registercombinder wie man im aus dem NV25 kennt. Unter DX8 ist also die gleiche Leistung pro Takt wie beim NV25 zu erwarten. In der Praxsis dürfte die Performance pro Takt allerdings etwas besser sein da der 8*1 Aufbau etwas besser skaliert als 4*2. Zur DX9 Pipeline wissen wir kaum etwas. Ausser das wohl 32 Pixel gleichzeitig durch die Pipeline laufen sollen. IMO heist das einfach das jede Pipeline über 4 Stufen verfügt. Wie sich das allerdings auf die Operationen pro Takt auswirkt ist unbekannt. NVIDIA hat allerdings den entwicklern noch die option gelasen bei halbierter genauigkeit die doppelte Anzahl an Anweisungen abzuarbeiten.


NVIDIA braucht den höheren Takt also aus zwei Gründen: Vertexleistung und AA Modies mit mehr als 4 Samples. Die Vertexleistung wird sich wohl aber eher nur in den rein Theoretischen zeigen. Bei den AA Samples hat NVIDIA möglicherweise wirklich nicht damit gerechnet das ATI mit 6 Samples pro Pipe arbeiten wird.

Exxtreme
2002-11-24, 22:57:12
Ich würde sogar weitergehen und sagen, daß NV mit der R300 in dem Stadium wie sie jetzt ist, nicht gerechnet hat. Ich glaube, daß der NV30 ursprünglich eher für 400 MHz angedacht war. NV dachte wohl, daß die R300 die GF4Ti4600 nur knapp schlagen wird wie es bei der R200 der Fall war. Wäre es so gelaufen dann würde ein NV30 mit 400 MHz tatsächlich sehr viel schneller sein. Da es aber nicht so gelaufen ist, versucht NV wahrscheinlich jetzt mit aller Gewalt die Performancekrone zurück zu erobern was ihnen wahrscheinlich für kurze Zeit sogar gelingen wird. Wie das Rennen ausgeht, kann niemand voraussagen aber als Kunde freut es mich. ;)
Originally posted by Demirug
Bei den AA Samples hat NVIDIA möglicherweise wirklich nicht damit gerechnet das ATI mit 6 Samples pro Pipe arbeiten wird.

betasilie
2002-11-24, 23:12:40
Originally posted by Exxtreme
Ich würde sogar weitergehen und sagen, daß NV mit der R300 in dem Stadium wie sie jetzt ist, nicht gerechnet hat. Ich glaube, daß der NV30 ursprünglich eher für 400 MHz angedacht war. NV dachte wohl, daß die R300 die GF4Ti4600 nur knapp schlagen wird wie es bei der R200 der Fall war. Wäre es so gelaufen dann würde ein NV30 mit 400 MHz tatsächlich sehr viel schneller sein. Da es aber nicht so gelaufen ist, versucht NV wahrscheinlich jetzt mit aller Gewalt die Performancekrone zurück zu erobern was ihnen wahrscheinlich für kurze Zeit sogar gelingen wird. Wie das Rennen ausgeht, kann niemand voraussagen aber als Kunde freut es mich. ;)

Mhhhh .... schön, da ist doch mal einer zu dem selben Schluss gekommen wie ich. :) ... und ich Tippe darauf, das die Ati9900 nur mit kurzem Abstand nach dem GFFX erscheint und ihn schlagen wird.
... das heißt --> dicke Grafikkarte, wenig Euroeier. :D

Ikon
2002-11-24, 23:18:36
Dem kann ich mich ebenfalls anschließen.

Eusti
2002-11-24, 23:54:55
Originally posted by Pussycat
Aber erkläre mal warum 3 'mehr' als 2,8 istm warum 250 'mehr' als 140 ist aber 20 nicht 'mehr' als 16 ist? Irgendwie verstehe ich das nicht ganz. Ich versuch es mal: Die Speicherinterfaces bei ATI und NVidia sind beide in 4 Teile aufgesplittet. ATI hat 4 x 64 bit und Nvidia 4 x 32 bit. Sollen jetzt beispielsweise nur 8 bit an Daten übertragen werden, so bleiben bei Nvidia in dem entsprechenden Speicherinterface 24 bit ungenutzt. Bei ATI bleiben in der gleichen Situation 56 bit ungenutzt. Mei Matrox würden sogar fast die kompletten 256 bit ungenutzt bleiben, da die Karten nur einen Speichercontroller haben.

Es wäre somit möglich, das die reale Speicheranbindung z.B. wie folgt aussehen könnte:

- Nvidia: 500MHZ x 128 bit x 85% Auslastung des Speichers = 13,6GB
- ATI: 310MHZ x 256 bit x 60% Auslastung des Speichers = 11,9GB
- Matrox: 275MHZ x 256 bit x 40% Auslastung des Speichers = 7,0GB

Somit ist es sehr wohl möglich, das 16 mehr sind als 20 ;).

Ikon
2002-11-24, 23:59:19
Möglich, aber nicht wirklich praxisnah.

StefanV
2002-11-25, 00:46:15
Originally posted by Exxtreme
Ich würde sogar weitergehen und sagen, daß NV mit der R300 in dem Stadium wie sie jetzt ist, nicht gerechnet hat. Ich glaube, daß der NV30 ursprünglich eher für 400 MHz angedacht war. NV dachte wohl, daß die R300 die GF4Ti4600 nur knapp schlagen wird wie es bei der R200 der Fall war. Wäre es so gelaufen dann würde ein NV30 mit 400 MHz tatsächlich sehr viel schneller sein. Da es aber nicht so gelaufen ist, versucht NV wahrscheinlich jetzt mit aller Gewalt die Performancekrone zurück zu erobern was ihnen wahrscheinlich für kurze Zeit sogar gelingen wird. Wie das Rennen ausgeht, kann niemand voraussagen aber als Kunde freut es mich. ;)


Das glaub ich auch...

Allerdings halte ich es für einen Fehler, wenn man versucht mit aller Macht alles aus einem Chip rauszuholen.
Das es in die Hose geht, haben AMD (mit dem K6) und Intel (P3/1,13GHz) schon zu genüge bewiesen...

Ich glaub, daß NV jetzt einige Fehler macht, da sie versuchen mit dem NV30 mit aller Macht ATI die Performancekrone streitig zu machen.

Sowas kann eigentlich nur in die Hose gehen...

Just my 2 cent...

Leonidas
2002-11-25, 01:21:25
Originally posted by Exxtreme
Ich würde sogar weitergehen und sagen, daß NV mit der R300 in dem Stadium wie sie jetzt ist, nicht gerechnet hat. Ich glaube, daß der NV30 ursprünglich eher für 400 MHz angedacht war. NV dachte wohl, daß die R300 die GF4Ti4600 nur knapp schlagen wird wie es bei der R200 der Fall war. Wäre es so gelaufen dann würde ein NV30 mit 400 MHz tatsächlich sehr viel schneller sein. Da es aber nicht so gelaufen ist, versucht NV wahrscheinlich jetzt mit aller Gewalt die Performancekrone zurück zu erobern was ihnen wahrscheinlich für kurze Zeit sogar gelingen wird. Wie das Rennen ausgeht, kann niemand voraussagen aber als Kunde freut es mich. ;)



Gute Idee. Frühere Spekulationen gingen nämlich allesamt eher von 400 bis 450 MHz für NV30 aus.

Richthofen
2002-11-25, 01:22:43
"
Tja, leider nicht.

Da du so gerne B3D quotest, tu ich's auch mal:

http://www.beyond3d.com/forum/viewt...aped+rv350+r350


quote:
--------------------------------------------------------------------------------

In the past few weeks the following have taped out:

NV31 in 0.13.
R350 in 0.15.
RV350. I'm fairly certain 0.13, but not 100% positive.

--------------------------------------------------------------------------------

Geschrieben durch CMKRNL, der ja irgendwo bei TSMC seine Infos kriegt.
"

Du kannst aber einen abgespeckten Chip als NV31 oder Rv350 nicht mit einem komplexen Design wie R300 oder NV30 vergleichen.
Für die komplexen Designs hat ATI den Schritt eben noch nicht hinter sich und den müssen sie halt noch machen.
Im übrigen finde ich es schon reichlich merkwürdig, das 2 Chips die eigentlich von einer Ausgangsbasis abstammen, in 2 Fertigungsprozessen hergestellt werden sollen.
Das scheint mir ein bisschen unlogisch, weil sich doch da beim Chipaufbau einiges ändert, oder aber der RV350 ist so verkrüppelt, das er mit dem R350 nur noch wenig gemeinsam hat.

betasilie
2002-11-25, 01:50:29
@Richthofen

Du kannst aber einen abgespeckten Chip als NV31 oder Rv350 nicht mit einem komplexen Design wie R300 oder NV30 vergleichen.
Für die komplexen Designs hat ATI den Schritt eben noch nicht hinter sich und den müssen sie halt noch machen.
Im übrigen finde ich es schon reichlich merkwürdig, das 2 Chips die eigentlich von einer Ausgangsbasis abstammen, in 2 Fertigungsprozessen hergestellt werden sollen.
Das scheint mir ein bisschen unlogisch, weil sich doch da beim Chipaufbau einiges ändert, oder aber der RV350 ist so verkrüppelt, das er mit dem R350 nur noch wenig gemeinsam hat.
... kannst du mal genauer erklären was Du sagen willst? Irgendwie blicke ich da nicht durch! :bonk: :|

Demirug
2002-11-25, 07:51:38
Originally posted by Exxtreme
Ich würde sogar weitergehen und sagen, daß NV mit der R300 in dem Stadium wie sie jetzt ist, nicht gerechnet hat. Ich glaube, daß der NV30 ursprünglich eher für 400 MHz angedacht war. NV dachte wohl, daß die R300 die GF4Ti4600 nur knapp schlagen wird wie es bei der R200 der Fall war. Wäre es so gelaufen dann würde ein NV30 mit 400 MHz tatsächlich sehr viel schneller sein. Da es aber nicht so gelaufen ist, versucht NV wahrscheinlich jetzt mit aller Gewalt die Performancekrone zurück zu erobern was ihnen wahrscheinlich für kurze Zeit sogar gelingen wird. Wie das Rennen ausgeht, kann niemand voraussagen aber als Kunde freut es mich. ;)


Ja durchaus möglich und was die reine Rohleistung in der Praxsis angeht hat man sich bei NVIDIA da ja gar nicht mal so sehr verkalkuliert. Wie schon gesagt das Hauptproblem ist die Beschrängung auf nur 4 AA-Samples pro Pipeline. Der fehlende Vertexshader hätte sich in der Praxsis auch bei niedriegeren Taktfrequenzen kaum bemerkbar gemacht.

Was bleibt also für die beiden zu tun?

NVIDIA wird wohl den NV35 um einen zusätzlichen Vertexshader ergänzen und hoffentlich die Pipelines auf 6AA Samples aufrüsten. Dann noch ein bischen an der Taktschraube drehen und fertig ist der NV35.

ATI muss massiv die Taktfrequenz nach oben schrauben. Wie sie das mit 0,15 allerdings machen wollen ist mir schleierhaft. Eine Steigerung auf sagen wir mal 375 MHZ würde ATI bei der Vertexleistung gleichziehen lassen und bei den AA-Samples wieder leicht in führung bringen. Man wird also eher die 400 MHz anstreben um die Führung deutlicher auf diesen gebieten deutlicher zu erlangen weil man IMHO die extreme Fillrate des NV30 wohl nicht schlagen können wird ausser man geht auf 0,13 was aber auch bei ATI wohl mit dem zahlen von Lehrgeld verbunden sein wird.

IMO wird R350 gegen NV35 eher eine Speed den eine Feature schlacht werden.

Unregistered
2002-11-25, 09:33:54
Originally posted by i_Land
Wie so lässt sich ein Interface nicht vermarkten.
Die Leute Kennen weder Mhz noch Bit. Sie kennen nur eins. Je grösser die Zahl desto besser. Oder was meinst ihr warum die GFFx 5800 heissen wird.
Und denkt mal nur an Geforce256, da wurde das 256 bit (128DDR) auch grossartig angepriesen.
Und Nvidia wird ihre Meinung über 512bit ändern, wenn sie erst ein vorteil darin haben, oder die anderen einen zu grossen vorteil, sei es Marketing oder Technische Gründe
Die Zahl alleine bringt nichts...
Eine Zahl ohne Hintergrund hat überhaupt KEINEN Aussagewert.

Und die Namensgebung, die sich zur Zeit heruas kristallisiert, scheint auch der Logic zu entspringen.

GeForce Fx 5800

'GeForce' = bekannter Trademark
'Fx' = Anlehnung an 3dfx und Kennzeichnung des Feature-Reichtums
'5' = 5. Generation in der GeForce-Reihe
'8' = AGP 8x (ist wohl neu, wie auch an der gf4ti4800/se zu sehen)
'00' = klingt besser, da '58' ja kleiner wär als 4x00, gell ? ;-)

Warum nun die Marketing-Leutz das Ding damals 'GeForce256' genannt haben, vermag ich nicht zu sagen. Offensichtlich hielten auch die das für einen Fehler und änderten das bei zukünftigen Namensgebungen. Auch nVidia hat damals erst angefangen, das Marketing für sich zu nutzen...
:D

Razor

Razor@Work
2002-11-25, 09:38:03
Originally posted by Iceman346
Is klar Razor... 500 Mhz lassen sich verkaufen aber 4GB/s mehr Bandbreite nicht...
Rechnet man zur Not in MB um, dann sinds 4096MB/s mehr Bandbreite. Das druckt man dick auf jede Packung (oder besser gleich 20480 MB/s Bandbreite, die Zahl ist länger) und fertig ists...
So nebenbei, der DAU hat von der Parhelia garnichts gelernt, der kennt die Karte nichtmal (zu Recht).

Na ja, wahrscheinlich red ich sowieso gegen Wände... Wände mit Nvidia Zeichen drauf.
Das mit den Wänden hättest Du Dir ruhig verkneifen können...

Und ich denke, dass Dir nun auch andere klar gemacht haben, dass ein solches Marketing, wie es Dir vorschwebt, am Zielpublikum schlicht vorbei gehen würde.

Du bist also der Meinung, dass ATI ihr neues Flagschiff

Radeon 20480

hätte nennen sollen ?

Und by the way, mit 'Parhelia512' werden die Leutz auch nicht sehr viel anfangen können...
Hmmm...

Razor

Pussycat
2002-11-25, 12:36:30
Originally posted by Eusti

(...)
Somit ist es sehr wohl möglich, das 16 mehr sind als 20 ;).

Ist mir 100% deutlich. Es ging aber darum, dass 20 GB/s nicht zu vermarkten wären und 500 MHz wohl.

Pussycat
2002-11-25, 12:38:59
Originally posted by Unregistered

Warum nun die Marketing-Leutz das Ding damals 'GeForce256' genannt haben, vermag ich nicht zu sagen.

4 pipes * (32 bit Farbe + 32 bit z-wert) = 256, hab' ich mal gelesen.

ow
2002-11-25, 12:45:40
Originally posted by Pussycat


4 pipes * (32 bit Farbe + 32 bit z-wert) = 256, hab' ich mal gelesen.

IMO bezieht sich das auf den 256Bit Speicherbus des GF.
Der NV3 war ja auch ein Riv128.:D

Quasar
2002-11-25, 12:52:58
Ich denke, dass es sich auf die interne Architektur bezieht.
Riva128
Geforce256
Parhelia-512

:)

ow
2002-11-25, 12:57:38
Originally posted by Quasar
Ich denke, dass es sich auf die interne Architektur bezieht.
Riva128
Geforce256
Parhelia-512

:)


Ist in allen 3 Faellen die Busbreite.:)

AlfredENeumann
2002-11-25, 13:11:31
Originally posted by Demirug
ATI muss massiv die Taktfrequenz nach oben schrauben. Wie sie das mit 0,15 allerdings machen wollen ist mir schleierhaft.


Gut gekühlt (wie der NV30) müßten etliche R300 die 400MHz schaffen können.

Demirug
2002-11-25, 13:22:27
Originally posted by AlfredENeumann



Gut gekühlt (wie der NV30) müßten etliche R300 die 400MHz schaffen können.

Durchaus möglich. Aber sind es genügend um einen Serienproduktion zu gewährleisten? Wie viel Luft nach oben ist dann noch übrig um auch die Funktion unter erschwerten Bedingungen (Klimaverhältnisse) zu gewährleisten?

ow
2002-11-25, 13:28:31
Originally posted by Demirug


Durchaus möglich. Aber sind es genügend um einen Serienproduktion zu gewährleisten? Wie viel Luft nach oben ist dann noch übrig um auch die Funktion unter erschwerten Bedingungen (Klimaverhältnisse) zu gewährleisten?

jep, einer der wichtigsten Faktoren der gerne uebersehen wird.

Jede PC-HW muss auch noch bei Umgebungstemeraturen ueber 40 Grad einwandfrei laufen.

Wenn ich da sehe, wieviele Freaks da im Sommer ihr OC drastisch reduzieren muessen........:D


IMO ist ein unveraenderter R300 in 0.15 nicht fuer 400Mhz zu validieren.

Quasar
2002-11-25, 13:40:56
Ich bin grad dabei, meine R9700 ein wenig zu quälen, und zwar mit einer Voodoo2 im ersten PCI-Slot.

Kühlertemperatur nahe dem Lüfter (Im "Luftstrom" oder was davon übrig ist, gemessen) liegt bei 63°C, während die "Car-Paint" DX9-Demo mit 6xFSAA in 800x600 durchläuft.
Das kleine Blech auf der Rückseite wurde auch knapp 60°C warm.

Allerdings bislang noch keinerlei Antzeichen, dass etwas nicht ordnungsgemäß läuft.

edit:
Schade, zu früh gefreut. Die DX9-Demo lief zwar anstandslos weiter, aber der Fablemark produzierte quasi sofort Block-Fehler im unteren Bereich (der Boden der Bühne), wo der Overdraw höher ist...sah auch aufgrund der Blockstruktur für mich nach Hyper-Zzzz Fehlern aus).

Also nix is, mit vernünftigen Betrieb unter Extrembedingungen

skampi
2002-11-25, 13:46:18
Originally posted by ow


jep, einer der wichtigsten Faktoren der gerne uebersehen wird.

Jede PC-HW muss auch noch bei Umgebungstemeraturen ueber 40 Grad einwandfrei laufen.

Wenn ich da sehe, wieviele Freaks da im Sommer ihr OC drastisch reduzieren muessen........:D


IMO ist ein unveraenderter R300 in 0.15 nicht fuer 400Mhz zu validieren.

Naja, ich bin kein Freund von solch absoluten und endgültigen Aussagen, BTW mit solch einem Kühler wie auf der GFFX-Präsentation gesehen sollte es schon leichter sein.;)

PS: Warum fehlt Deinem IMHO das H?;)

ow
2002-11-25, 13:50:23
?

Welche absolute endgueltige Aussage?

Ich habe 2 Fakten genannt und eine "IMO" Aussage (=meine Vermutung).

(PS) IM(H)O geht auch ohne H.:D

seahawk
2002-11-25, 13:54:54
Originally posted by AlfredENeumann



Gut gekühlt (wie der NV30) müßten etliche R300 die 400MHz schaffen können.

Willst Du damit sagen, dass die NV Kühlung also durchaus eine gute Idee ist ???

Ich denke in 0,15 kann ATI in etwas soviel realisieren wie man die momentante R300 overclocken kann. also um 360-370 mhz.

Ein typisches Beispiel ist ja der Gefroce 3 Ti-500, der hatte dann ungefähr die Specs, die man aus einer guten GeForce 3 Standard rausholen konnte.

zeckensack
2002-11-25, 13:56:00
humble heißt das H
humility=demut

Davon habe ich hier im Alltag schon genug, das lasse ich im Netz deswegen fast immer weg :naughty:

StefanV
2002-11-25, 14:12:03
Originally posted by ow
?

Welche absolute endgueltige Aussage?

Ich habe 2 Fakten genannt und eine "IMO" Aussage (=meine Vermutung).

(PS) IM(H)O geht auch ohne H.:D

IMHO-> in my Humble(?) Opinion-> meiner bescheidenen Meinung nach
IMO-> In My Opinion->meiner Meinung nach

Ist also schon ein kleinerer Unterschied.

ow
2002-11-25, 14:32:20
Originally posted by Stefan Payne


IMHO-> in my Humble(?) Opinion-> meiner bescheidenen Meinung nach
IMO-> In My Opinion->meiner Meinung nach

Ist also schon ein kleinerer Unterschied.

Jo SP, weiss ich.
Nur ist meine Meinung nicht immer bescheiden.:D:D

skampi
2002-11-25, 14:41:53
...was ich andeuten wollte.

Iceman346
2002-11-25, 14:51:17
Originally posted by Razor@Work

Das mit den Wänden hättest Du Dir ruhig verkneifen können...

Und ich denke, dass Dir nun auch andere klar gemacht haben, dass ein solches Marketing, wie es Dir vorschwebt, am Zielpublikum schlicht vorbei gehen würde.

Du bist also der Meinung, dass ATI ihr neues Flagschiff

Radeon 20480

hätte nennen sollen ?

Und by the way, mit 'Parhelia512' werden die Leutz auch nicht sehr viel anfangen können...
Hmmm...

Razor

Ich find die Namensgebung bei ATI schon ok so, außerdem ist 9700 größer als 5800 ;)

Aber ich bin der Meinung, daß man Gigabyte oder Megabyte entsprechend aufarbeitet auch verkaufen kann und nicht nur Mhz. Beides sind größen die die Kunden kennen. Mit etwas Marketingspeech würd das imo auch gehen.

Unregistered
2002-11-25, 15:39:02
Also selbst wenn ATI mit dem R350 nicht auf 0.13µ umsteigt bleibt immer noch eine andere Lösung um die Taktschraube hochzudrehen. Soweit ich weiss ist der R300 noch nicht im Kupferprozess hergestellt. Und meiner Meinung nach hatt Nvidia seine 500MHZ eher dem Kupferprozess als dem 0.13µ zu verdanken. Somit könnte ein 0.15µ Kupferprozess noch ne gute Lösung sein.

ow
2002-11-25, 16:38:38
Originally posted by Unregistered
Somit könnte ein 0.15µ Kupferprozess noch ne gute Lösung sein.


Insofern es denn einen solchen Prozess ueberhaupt gibt.

Demirug
2002-11-25, 17:15:13
Originally posted by ow



Insofern es denn einen solchen Prozess ueberhaupt gibt.

AFAIK gibt es den Kupferprozess bei TSMC auch für 0,15.

Ikon
2002-11-25, 17:18:45
Ich schätze mal von 0,13µ-SOI ist TSMC noch weit entfernt, oder?

Fritz
2002-11-25, 17:19:27
Originally posted by Demirug


AFAIK gibt es den Kupferprozess bei TSMC auch für 0,15.
Aber für was soll der sein ???
Es gibt AFAIK weder CPUs noch "GPUs" die in diesem Prozess hergestellt werden, also kann es sich dabei nur um relativ unkomplexe Sachen handeln.
Oder denke ich da etwas zu beschränkt?

Unregistered
2002-11-25, 17:49:18
Aehm,sry aber der Atlon wird seit dem XP im Kupferprozess hergestellt und dort hats ja einiges gebracht (Verlustleistung/Takt) und der GeForceFX bekommt ja auch den Kupferprozess wie ich es oben schon geschrieben habe,

Pirx
2002-11-25, 18:26:11
Auch die TBs >=1GHz sind im Kupferprozess hergestellt.

Fritz
2002-11-25, 18:26:28
Der Athlon wird im 0,18µ Kupfer Verfahren hergestellt, dass man eine Fertigungsstraße für diesen Prozess hat läst sich nicht eben auf den 0,15er übertragen.

Ikon
2002-11-25, 18:29:22
Vorallem lässt sich das nicht von AMD auf TSMC übertragen ...

Unregistered
2002-11-25, 18:35:57
Originally posted by Ikon
Vorallem lässt sich das nicht von AMD auf TSMC übertragen ...
So was finde ich interessant, kannst du vielleicht grob erläutern wie solche Entwicklungen/Erfahrungen vom Halbleiterhersteller an dritte weitergegeben werden darf?

Unregistered
2002-11-25, 18:48:35
boah, müsst ihr eigentlich immer alles in Frage stellen, ohne euch mal selber schlau zu machen? http://www.tsmc.com/english/technology/t0111.htm.
Es ging mir darum das der R300 bis jetzt noch nicht in Kupfer hergestellt wird, und das dieser Prozess für den NV30 bestätigt ist. Und das damit für den 0,15µ Prozess noch luft nach oben ist.

Fritz
2002-11-25, 18:54:51
Der Punkt ist zuviel ;)
Aber recht hat er:
TSMC provides both top two-layer and all-layer copper options at the 0.15-micron process.

AlfredENeumann
2002-11-25, 20:11:09
"
Willst Du damit sagen, dass die NV Kühlung also durchaus eine gute Idee ist ???
"

Hab nie das gegenteil behauptet. Wenn die Kühlung effektiv ist, warum nicht ? Ware das richtig um ne R300 nochmal so richtig die sporen zu geben.

"
Ich denke in 0,15 kann ATI in etwas soviel realisieren wie man die momentante R300 overclocken kann. also um 360-370 mhz.
"

Kommt natürlich auf die chips und kühlung an. Meine Karte läuft Testweise derzeit seit 12h auf 400MHz. Aber in 2D. gleich kommt einige Stunden 3D hinzu.

seahawk
2002-11-26, 08:09:41
Cool, trotzdem denke ich, dass so 375 mhz ein wahrscheinlicher Wert sind, da man den Wert eigentlich mit vielen ATI 9700pro erreichen kann. Höher wird die Luft wahrscheinlich zu dünn um einen vernpnftigen Yield zu erreichen.

AlfredENeumann
2002-11-26, 12:58:25
Originally posted by AlfredENeumann


Kommt natürlich auf die chips und kühlung an. Meine Karte läuft Testweise derzeit seit 12h auf 400MHz. Aber in 2D. gleich kommt einige Stunden 3D hinzu.



OK. Übernacht lief die Karte in 3D perfekt. War aber sehr heiß heute morgen (hab mir die Finger dran verbrannt). Also hab sie wieder runtergetaktet. Brauch wohl ne vernünftige Kühlung, da die Wäreme ja auf MoBo abgeleitet wird (u.a.). Nicht das was kaputt geht.

ow
2002-11-26, 13:09:35
Verbrannte Finger sind nichts ungewoehnliches.
Die hab ich mir schon auf einigen Karten zugezogen ohne dass die Funktion dieser HW in irgendeiner Form beeintraechtigt war.:D

seahawk
2002-11-26, 13:09:58
Ist das Risiko es jetzt schon Wert? Ich meine Du hast ka noch Garantie und die LEistung dürfte ja auch on OC sehr befriedigend sein.

Mal ne reine Spekulation. Anscheind gehn 400 MHZ auf einem R300. Der NV30 ist in 0,13 um gefertigt und aus Kupfer. Sind die 500 Mhz vielleicht auch nicht die Obergrenze ??

ow
2002-11-26, 13:32:50
Das ist so nicht zu beantworten.

Die erreichbaren Takte haengen wesentlich vom Chipdesign (-architektur) ab.

Man kann nicht unmittelbar von einer Fertigungstechnik auf die erreichbaren Takte schliessen.

Quasar
2002-11-26, 13:50:28
Originally posted by AlfredENeumann
OK. Übernacht lief die Karte in 3D perfekt. War aber sehr heiß heute morgen (hab mir die Finger dran verbrannt). Also hab sie wieder runtergetaktet. Brauch wohl ne vernünftige Kühlung, da die Wäreme ja auf MoBo abgeleitet wird (u.a.). Nicht das was kaputt geht.
Mit was hast du sie denn in 3D gequält?

Wie gesagt, bei mir lief unter gemeinen Bedingungen (aber Standardtakt!!) auch das Car-Paint DX9-Demo stundenlang durch, aber im fablemark hatte ich sofort Bildfehler.....

Unregistered
2002-11-26, 14:36:02
andere sichtweise.

jeder schreibt hier von einem vorteil von nvidia da sie jetzt shcon auf den 0,13 prozess umgestiegen sind. Imo sehe ich das nicht ganz so extrem. Genau durch diesen umstieg kommt ja die Grafikkarte zu spät und das lag vor allem an TSMC. DAraus leite ich hab. Wenn TSMC jetzt noch ein vierteljahr den nv30 in 0,13 produziert dürften die ihr know how und fertigungsprozess sicher im griff haben und damit wird der umstieg von ati doch um einiges erleichtert. Ist ja nicht so dass ati den prozess umstellt und auch nvidia nicht den prozess umgestellt hat sondern eben deren Fabrikant und das ist TSMC. Daher sage ich ist der zeitverlust von Ati nicht wirklich gross und der von Nvidia imho weitaus höher.

Von dem her kann man das imho auch nicht analog auf AMD und Intel ummünzen, da jene ja eigene Produktionsstraßen haben.

ow
2002-11-26, 14:51:20
In TMSCs 0.13 Prozess duerfte vorallem viel NV-know-how eingeflossen sein, von dem ATi sicher NICHT profitieren wird.

ATi wird mit 0.13 wohl genau dort anfangen, wo NV angefangen hat.

Demirug
2002-11-26, 14:56:50
Originally posted by Unregistered
andere sichtweise.

jeder schreibt hier von einem vorteil von nvidia da sie jetzt shcon auf den 0,13 prozess umgestiegen sind. Imo sehe ich das nicht ganz so extrem. Genau durch diesen umstieg kommt ja die Grafikkarte zu spät und das lag vor allem an TSMC. DAraus leite ich hab. Wenn TSMC jetzt noch ein vierteljahr den nv30 in 0,13 produziert dürften die ihr know how und fertigungsprozess sicher im griff haben und damit wird der umstieg von ati doch um einiges erleichtert. Ist ja nicht so dass ati den prozess umstellt und auch nvidia nicht den prozess umgestellt hat sondern eben deren Fabrikant und das ist TSMC. Daher sage ich ist der zeitverlust von Ati nicht wirklich gross und der von Nvidia imho weitaus höher.

Von dem her kann man das imho auch nicht analog auf AMD und Intel ummünzen, da jene ja eigene Produktionsstraßen haben.

Wenn man heute Chips herstellt geht es im wesentlichen darum die Digitale Logik (zum Beispiel als VHDL Programm) in die dem Process entsprechenden Masken umzusetzten. Das ist die Aufgabe von entsprechenden Tools. Nur leider arbeiten diese Tools bei Chips dieser grösse nicht zu 100% perfekt und ohne wirklich einen DIE erzeugt und durchgemessen zu haben lassen sich gewisse Fehler nur schwer finden. Beim Anpassen auf einen neuen Process hat man nun aber das Problem das die ganzen Tools noch auf den alten abgestimmt sind. Es geht also im wesentlichen darum die Tools dazu zu bringen die für den neuen Process korrekten Masken zu erzeugen. TSMC kann dabei aber nur beratend zur Seite stehen wenn es darum geht Aussagen über das verhalten gewisser strukturen beim neuen Process zu machen. Das Anpassen der Tools ist dann mehr oder minder die Aufgabe der entsprechenden Leute bei NVIDIA, ATI usw. Das war ja auch der Grund warum während der heissen Phase so viele NVIDIA Leute bei TSMC waren.

Es ist also so das der Chip an den Process angepasst werden muss und nicht der Process an den Chip. ATI hat also nur dann einen kleinen Vorteil wenn sie Fragen stellen die auch NVIDIA schon gestellt hat und die TSMC nicht sowieso schon sofort beantworten konnte sondern erst eine Testmuster herstellen musste.

ATI kann sicherlich davon profitieren das der Process als solches zum Zeitpunkt ihrers Umstiegs eine höhrer Reife hat und deshalb eine bessere Ausbeute erlauben wird. Nur wird NVIDIA zu diesem Zeitpunkt davon ja ebenfalls profitieren.

AlfredENeumann
2002-11-26, 17:48:42
Originally posted by Quasar

Mit was hast du sie denn in 3D gequält?

Wie gesagt, bei mir lief unter gemeinen Bedingungen (aber Standardtakt!!) auch das Car-Paint DX9-Demo stundenlang durch, aber im fablemark hatte ich sofort Bildfehler.....

3d mark mit 6xfsaa und 16af unter 1024x768

ps: fablemark lief noch nie auf meinem rechner. gab immer heftigste systemabstürze.

Exxtreme
2002-11-26, 17:55:32
Bis auf das Stuttering habe ich keine Probleme mit Fablemark.

ow
2002-11-26, 18:55:40
Keine Fablemark Probleme auf RivaTNT, GF2MX, Kyro.

Auf der RadeonDDR startet er erst gar nicht ("not supported: required stencil operations")

Quasar
2002-11-26, 19:11:57
Wie gesagt, bei mir prinzipiell auch ohne Probs, allerdings deutlich "Wärmeempfindlicher" als DX9-Demos oder auch der 3DMark. (liegt vielleicht an dem hohen Anteil von alpha-invisible Polygonen, bei denen sich dann kleine Fehler, die in sonstigen Bildern wenig auffallen, schneller in sichtbare Rechenfehler durch zu hohe Temp potenzieren.).

AlfredENeumann
2002-11-26, 19:16:09
Ich ordne das Problem bei mir mit dem Fabelmark mal meinem Virenscanner zu. Es kann da bei einige Programmen zu Problemen führen wenn diese "on" ist, z.B. mußte ich diesen für DX9-Installation deaktivieren, sonst gings nicht.

Unregistered
2002-11-26, 19:43:22
thx @ demirug :)

ollix
2002-11-27, 20:04:35
Originally posted by nagus wenn man jedoch ATI anschaut... die haben wesentlich mehr luft nach oben: die-shrink aufn 0,13 >> ca. 450Mhz - 500Mhz Core-Takt IMHO möglich; Also wenn jetzt schon 400MHz möglich sind, denke ich das man bei optimierten Layern und .13µm so ab 500MHz los geht.

Kann mich natürlich täuschen, aber deshalb ist man ja im Speku Forum
:D

Ailuros
2002-11-29, 09:53:28
FableMark (da auf dx8 basiert) unterstuetzt nur multipass rendering. Wuerde die Anwendung einen einzigen Durchgang erlauben, koennte ich mir vorstellen dass eine R300 schneller sein koennte, wobei ich aber bezweifle dass bei FableMark hoehere Taktraten einen nennenswerten Unterschied geben koennten.

FableMark hat nichts mit dx9.0 zu tun.

Quasar
2002-11-29, 10:19:15
Ja....schon klar. Und? Es ging ja auch nur um die Empfindlichkeit, was interne Rechenfehler bei erhöhten Temperaturen.

ow
2002-11-29, 10:35:21
Originally posted by Ailuros
FableMark (da auf dx8 basiert) unterstuetzt nur multipass rendering. Wuerde die Anwendung einen einzigen Durchgang erlauben, koennte ich mir vorstellen dass eine R300 schneller sein koennte, wobei ich aber bezweifle dass bei FableMark hoehere Taktraten einen nennenswerten Unterschied geben koennten.

FableMark hat nichts mit dx9.0 zu tun.


Der Fablemark läuft auf entsprechender HW sicher im single-pass (nutzt der überhaupt mehrere Texturlagen?).
Diesen Kyro Vorteil wird PVR in den eigenen Demos wohl nicht verspielen.

Quasar
2002-11-29, 10:40:02
Aus der readme:
D3DFableMark
------------

D3DFableMark is a benchmark program featuring a puppet theatre in which a well-known fable, "The Hare and the Tortoise", is performed. Every object in the scene has soft-edged shadows projected onto the stage background and the rendering of these accurate shadows form the basis of this benchmark.

All shadows in D3DFableMark are soft-edged, and are rendered using the hardware stencil buffer. The CPU uses the light position and the model for each object to calculate multiple shadow volumes. The scene is rendered in multiple passes; first the scene is rendered using ambient lighting, which also prepares the depth buffer for stencil lighting. Then the shadow volumes are submitted and the contribution from each light source to each soft-edge volume is summed into the scene. Finally, the scene is rendered once again, this time modulating the textures by the results of the previous passes. The final result is a relatively high polygon count scene with approximately 95% of the polygons being translucent.

PowerVR's Z32[TM] technology enables KYRO to process the invisible polygons that affect the stencil buffer exceptionally fast, giving KYRO a significant performance advantage in situations where multiple stencil buffer accesses are required. PowerVR's ConstantStencil[TM] enables the benchmark to be run at any colour depths on KYRO cards whereas most other video cards must use 32 bits mode for their stencil buffer to be available. Finally PowerVR's Internal True Colour[TM] means no colour degradation occurs in 16 bits mode, which is not the case with other graphic cards.

Ailuros
2002-11-29, 10:57:54
Originally posted by Quasar
Ja....schon klar. Und? Es ging ja auch nur um die Empfindlichkeit, was interne Rechenfehler bei erhöhten Temperaturen.

Da bin ich mir nicht mehr so sicher ob es wirklich an erhoehten Temperaturen liegt. Translucency= back to front. Die 60+fps die eine R300 werfen kann sind aber trotz allem sehr imposant. Uebrigens bringt uebertakten bei einer K2 (fast) gar nichts, soweit ich mich erinnern kann, mit FableMark.


Der Fablemark läuft auf entsprechender HW sicher im single-pass (nutzt der überhaupt mehrere Texturlagen?).
Diesen Kyro Vorteil wird PVR in den eigenen Demos wohl nicht verspielen.

Quasar hat wohl den Teil schon mit dem quote von pvrdev.com beantwortet. Zukuenftige demos werden wohl ein ganz anderes Bier sein (auf dx9.0 basierend). ;)

Quasar
2002-11-29, 11:08:42
Originally posted by Ailuros
Da bin ich mir nicht mehr so sicher ob es wirklich an erhoehten Temperaturen liegt. Translucency= back to front. Die 60+fps die eine R300 werfen kann sind aber trotz allem sehr imposant. Uebrigens bringt uebertakten bei einer K2 (fast) gar nichts, soweit ich mich erinnern kann, mit FableMark.
Da bin ich mir allerdings schon sicher. Kurz nochmal das Set-up zur Erinnerung: R300@default, allerdings mit einer Voodoo2 (nur die Karte, keine Treiber, keine Kabel) im ersten PCI-Slot um den Kühler ein wenig zu ärgern.
3DMark und DX9-Demos liefen bei einer Bauteiltemperatur von bis zu 63°C (wie heiss dabei wohl der Chip wurde?) stabil und ohne Fehler, nur der Fablemark nicht. Kleine, weisse, rechteckige Blöcke in den unteren Teilen des Bildes traten nach ca. 10 Sekunden auf. Einen Neustart später und ohne die Voodoo2 lief der Test fehlerlos.

IMO kann es eigentlich keine andere Erklärung als die höheren Temperaturen geben, oder fällt dir eine ein?

ow
2002-11-29, 11:11:20
Originally posted by Quasar
Aus der readme:


oops. ok, so kann man sich irren.:D

Also 3 passes, wenn ich das richtig sehe?

Demirug
2002-11-29, 11:28:26
Originally posted by ow


oops. ok, so kann man sich irren.:D

Also 3 passes, wenn ich das richtig sehe?

Vereinfacht gesagt ja. In der Praxsis sind es noch mehr. Die Schattenvolumen werden ja pro Lichtquelle gerendert und dann gibt es AFAIR auch noch mehr als 1 Volumen pro Lichtquelle um die Schatten zu soften. Das ganze ist eine Abart der DOOM III engine.

Ailuros
2002-11-29, 16:58:47
Das ganze ist eine Abart der DOOM III engine.

Errr nur ohne cube maps :D

Ailuros
2002-11-29, 17:13:16
IMO kann es eigentlich keine andere Erklärung als die höheren Temperaturen geben, oder fällt dir eine ein?

Hmmm obwohl die R300 nichts mit R200 zu tun hat in dem Aspekt, hast Du schon probiert das demo ohne HW T&L und HyperZ (abgeschaltet)laufen zu lassen?

Ich hab keine Ahnung wie hoch der Overdraw Factor bei FableMark ist, aber es waere nicht durchaus unmoeglich dass bei back to front irgendwo HyperZ anschlaegt.

Quasar
2002-11-29, 17:15:26
Öhm, ich glaube, wir reden hier aneinander vorbei, Ailuros.

Die R300 rendert alles fehlerfrei, wenn ihr Lüfter unbehindert arbeiten kann. Nur mit einer Karte in PCI-1, die den Luftstrom verhindert, entstehend Bildfehler.

Ailuros
2002-11-30, 00:54:54
Ack.....(notiz an mich selber: vorsichtiger lesen du Idiot :D )