PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV40 210 Mill. Transistoren - 16 Pipes?


Seiten : [1] 2

Gast
2004-02-26, 16:12:47
laut flüstertüte:

http://www.theinquirer.net/?article=14373


soll der NV40 wohl 1 Monat später kommen als der R420, dafür aber 16 echte Piplines und 210 Mill. Transistoren
besitzen.


Wie immer aus gut gesicherter Quelle ... hhhmmmmm

Ailuros
2004-02-26, 16:17:52
Verdammt Du warst 3 Minuten schneller:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1599652#post1599652

:D

deekey777
2004-02-26, 16:20:32
Gehört eh ins Spekulationsforum (da von TheInq)

Bitte verschieben!

Iceman346
2004-02-26, 16:43:48
Mal schauen ob das genau solche 16 Pipes werden wie die 8 Pipes vom NV30...

Demirug
2004-02-26, 16:55:04
Macht im Spekulationsforum weiter *move*

Pirx
2004-02-26, 17:05:35
Dann muß man wahrscheinlich auch ein zweites Netzteil einbauen (und ein Fön ist auch dabei).

betasilie
2004-02-26, 17:07:20
Da müsste sich ATI aber warm anziehen. :D

@Prix
Da ich eine WaKü habe wäre mir das egal. =)

Godmode
2004-02-26, 17:11:13
@Pirx

Glaubst du wirklich das Nvidia nochmal so ne verasche Kühlung baut? Naja musst dir mal das Video angucken wo die Ingineure über FX-Flow diskutieren weils so laut ist :) einfach nur geil. Ne ich danke dass Nvidia sicherlich etwas überlegt hat um effizient und leise zu kühlen. Wenn sie dass nicht gemacht haben müsste man schon fragen wie blöd seit ihr den überhaupt. FX-Flow war ja ein Mittel um den Nv30 überhaupt so hoch zu takten können, weil er normalerweise mit weniger Takt vorgesehen gewesen wäre, aber weil er dann sau langsam war haben sie den Takt in die Höhe getrieben

@BetaReverse

das heißt Pirx und nicht Prix :)

Tarkin
2004-02-26, 17:13:56
Original geschrieben von Gast
laut flüstertüte:

http://www.theinquirer.net/?article=14373


soll der NV40 wohl 1 Monat später kommen als der R420, dafür aber 16 echte Piplines und 210 Mill. Transistoren
besitzen.


Wie immer aus gut gesicherter Quelle ... hhhmmmmm

völliger BS IMHO

falls doch, dann kommt der nv40 erst im Winter 2005 *eg*

Godmode
2004-02-26, 17:16:06
Und warum wird er um einen Monat verschoben? sind sie noch nicht ganz fertig, oder vielleicht warten sie ja bis es GDDR3 800 MHz RAM gibt ;D

Spake
2004-02-26, 17:20:57
weils nv ist
die können einfach keine termine mehr einhalten
haben sich wohl mal wieder einen kleinen patzer geleistet :D

Godmode
2004-02-26, 17:46:48
Original geschrieben von Spake
weils nv ist
die können einfach keine termine mehr einhalten
haben sich wohl mal wieder einen kleinen patzer geleistet :D

Nv kann sich keine patzer mehr leisten, sonst machen sie ihren ruf noch schlechter als er eh schon ist :)

Gast
2004-02-26, 19:06:30
Der link geht nicht mehr.

Pussycat
2004-02-26, 20:21:33
Bei mir wohl.

Soviel Transistoren, das glaub ich auch ned. TI hat natürlich auch mal wieder keine Quelle genannt.

robbitop
2004-02-26, 20:26:32
LOL warum glaube ich dieses Gerücht nur nicht? :grübel:

Hört sich sehr unreal an und 16 Pipes hätte ein echtes Bandbreitenproblem...zumal nVIDIA mitder CineFX immer mit X*2 operiert

Godmode
2004-02-26, 21:09:05
Mit GDDR3 800 MHz hätten sie ja eh schwache 51GB/sec ;D

Exxtreme
2004-02-26, 21:15:18
Original geschrieben von robbitop
Hört sich sehr unreal an und 16 Pipes hätte ein echtes Bandbreitenproblem...zumal nVIDIA mitder CineFX immer mit X*2 operiert
Naja, die GF2-Serie war so gesehen auch ziemlich unterfeuert. Trotzdem hat es NV nichts davon abgehalten es so zu implementieren.

LovesuckZ
2004-02-26, 21:16:24
Original geschrieben von Exxtreme
Naja, die GF2-Serie war so gesehen auch ziemlich unterfeuert. Trotzdem hat es NV nichts davon abgehalten es so zu implementieren.

Und eine GF1 mit SDR Ram erst :)

Godmode
2004-02-26, 21:23:07
Wieviel würde den eine 16*1 Architektur vom Ram pro Sekunde saugen?? würden die 51 GB von GDDR3 800 MHz reichen?

Tarkin
2004-02-26, 21:44:25
Bzgl. der 210 Mil. Transistoren...

geposted von Dave Baumann @Beyond3d.com
(http://www.beyond3d.com/forum/viewtopic.php?t=10471&postdays=0&postorder=asc&start=40)

"When I spoke to engineers at both ATI and Nvidia, their response was to not really understand what management at Nvidia were smoking, but the best explanation I got later was from someone senior at ATI who told me that, as near as they could tell, Nvidia were counting gates in things like caches and including that in the transistor count, while ATI only counted transistors directly involved in logic. Apples to oranges."

:crazy:

Quasar
2004-02-26, 21:46:52
Original geschrieben von robbitop
LOL warum glaube ich dieses Gerücht nur nicht? :grübel:

Hört sich sehr unreal an und 16 Pipes hätte ein echtes Bandbreitenproblem...zumal nVIDIA mitder CineFX immer mit X*2 operiert

Der nV30 wurde anfangs auch mit "8 Pipes" beschrieben - und er hatte halb so breit angebundenes, wahrscheinlich niedriger getaktetes RAM. Bandbreitenproblem mit >35GB/s? Ich glaube nicht.

Godmode
2004-02-26, 21:49:49
Original geschrieben von Tarkin
Bzgl. der 210 Mil. Transistoren...

geposted von Dave Baumann @Beyond3d.com
(http://www.beyond3d.com/forum/viewtopic.php?t=10471&postdays=0&postorder=asc&start=40)

"When I spoke to engineers at both ATI and Nvidia, their response was to not really understand what management at Nvidia were smoking, but the best explanation I got later was from someone senior at ATI who told me that, as near as they could tell, Nvidia were counting gates in things like caches and including that in the transistor count, while ATI only counted transistors directly involved in logic. Apples to oranges."

:crazy:

Wir werden so zu gespammt von News das man einfach nicht mehr weiss was man glauben kann :) Aber wenn das wahr wäre dann wird es wohl nix mit den 16 realen Pipes :-(

Quasar
2004-02-26, 21:51:04
Original geschrieben von Tarkin
Bzgl. der 210 Mil. Transistoren...

geposted von Dave Baumann @Beyond3d.com
(http://www.beyond3d.com/forum/viewtopic.php?t=10471&postdays=0&postorder=asc&start=40)

"When I spoke to engineers at both ATI and Nvidia, their response was to not really understand what management at Nvidia were smoking, but the best explanation I got later was from someone senior at ATI who told me that, as near as they could tell, Nvidia were counting gates in things like caches and including that in the transistor count, while ATI only counted transistors directly involved in logic. Apples to oranges."


Der "Quote" stammt allerdings nicht von DB sondern einem "Analysten", mit dem er kürzlich sprach...

Was für ein Analyst? Börse? *eg* Dann glaube ich auf's Wort, daß die Engineers dem sowas erzählen...

Demirug
2004-02-26, 21:51:26
Original geschrieben von Quasar
Der nV30 wurde anfangs auch mit "8 Pipes" beschrieben - und er hatte halb so breit angebundenes, wahrscheinlich niedriger getaktetes RAM. Bandbreitenproblem mit >35GB/s? Ich glaube nicht.

Für 8 Zixel reichen 128 Bit DDR ja auch aus vorallem weil dort ja meist noch komprimiert werden kann.

Jede Bandbreite kann verheitzt werden.

Demirug
2004-02-26, 21:53:06
Original geschrieben von Quasar
Der "Quote" stammt allerdings nicht von DB sondern einem "Analysten", mit dem er kürzlich sprach...

Was für ein Analyst? Börse? *eg* Dann glaube ich auf's Wort, daß die Engineers dem sowas erzählen...

Vorallem erscheint es mir absolut unlogisch die Transitoren welche für den Cache benutzt werden nicht mitzuzählen.

Godmode
2004-02-26, 21:55:47
Original geschrieben von Demirug
Vorallem erscheint es mir absolut unlogisch die Transitoren welche für den Cache benutzt werden nicht mitzuzählen.

Stimmt den die müssen ja auch genau so arbeiten wie die anderen der FPUs, TMUs... Und wenn es hier einen Fehler gibt ist das DIE genau so kaputt!! Also was soll das ganze Verwirr-Spiel eigentlich??

betasilie
2004-02-26, 21:58:34
Original geschrieben von bans3i
Stimmt den die müssen ja auch genau so arbeiten wie die anderen der FPUs, TMUs... Und wenn es hier einen Fehler gibt ist das DIE genau so kaputt!! Also was soll das ganze Verwirr-Spiel eigentlich??
ICh bin da kein Fachmann, aber afaik hat der Cache/Speicher eine andere Matrix als die logische Einheit. :???:

ow
2004-02-26, 22:00:12
Original geschrieben von Demirug
Vorallem erscheint es mir absolut unlogisch die Transitoren welche für den Cache benutzt werden nicht mitzuzählen.

Jo, das ist richtiger Quatsch. :rofl:
Ein Transistor ist nunmal ein Transistor. Und daraus ergibt sich auch, was beim Transistorcount zu zählen ist: Transistoren.

Quasar
2004-02-26, 22:03:06
Wenn man (behauptet) sie nicht mitzählt (mitzuzählen), könnten Börsenanalysten natürlich auf die Idee kommen, man kriege mehr Chips pro Wafer heraus und arbeite profitabler...

Demirug
2004-02-26, 22:14:24
Original geschrieben von betareverse
ICh bin da kein Fachmann, aber afaik hat der Cache/Speicher eine andere Matrix als die logische Einheit. :???:

Transitor ist Transitor. Es gibt lediglich für solche Sachen wie Speicherzellen für jeden Prozess optimierte Vorlagen wie man die benötigen Transitoren auf kleinstem Raum unterbringt. Soll heisen das wenn man mit zum Beispiel 1000 Transitoren Speicherschaltungen anlegt werden diese in der Regel weniger Platz belegen als 1000 Transitoren Logikschaltungen welche ein Chipcompiler plaziert hat.

StefanV
2004-02-26, 22:50:02
Original geschrieben von ow
Jo, das ist richtiger Quatsch. :rofl:
Ein Transistor ist nunmal ein Transistor. Und daraus ergibt sich auch, was beim Transistorcount zu zählen ist: Transistoren.

Nö, ein D-RAM Transistor fällt da aus der Reihe, denn der hätte gern eine kapazitätenreiche Fertigzung, während Logic und SRAM Transistoren eine kapazitätenarme Fertigung gern hätten...

mrdigital
2004-02-26, 22:52:47
Original geschrieben von Stefan Payne
Nö, ein D-RAM Transistor fällt da aus der Reihe, denn der hätte gern eine kapazitätenreiche Fertigzung, während Logic und SRAM Transistoren eine kapazitätenarme Fertigung gern hätten...
Trotzdem ist ein Transistor immer noch ein Transistor, mit ner grossen Kapazität oder mit ner kleinen...

Quasar
2004-02-26, 23:01:09
Original geschrieben von Stefan Payne
Nö, ein D-RAM Transistor fällt da aus der Reihe, denn der hätte gern eine kapazitätenreiche Fertigzung, während Logic und SRAM Transistoren eine kapazitätenarme Fertigung gern hätten...

Ein Transistor aus dem Transistorradio meiner Oma auch - aber genau wie dein D-RAM Transistor ist er mit hoher Wahrscheinlichkeit nie auf einer aktuellen GPU verbaut worden.

Exxtreme
2004-02-26, 23:06:51
Original geschrieben von Stefan Payne
Nö, ein D-RAM Transistor fällt da aus der Reihe, denn der hätte gern eine kapazitätenreiche Fertigzung, während Logic und SRAM Transistoren eine kapazitätenarme Fertigung gern hätten...
Spielt keine Rolle. Transistor ist Transistor, egal ob in einer Logikschaltung oder im Cache.

Winter[Raven]
2004-02-26, 23:18:50
Ahhh ... Junx, ist das jetzt ein schlechter Scherz oder an den 16Pipes wirklich was dran ?

betasilie
2004-02-26, 23:20:50
Original geschrieben von Winter[Raven]
Ahhh ... Junx, ist das jetzt ein schlechter Scherz oder an den 16Pipes wirklich was dran ?
Das würden wir wohl alle gerne mit Sicherheit wissen. ;)

Quasar
2004-02-26, 23:41:15
Original geschrieben von Winter[Raven]
Ahhh ... Junx, ist das jetzt ein schlechter Scherz oder an den 16Pipes wirklich was dran ?

Ich bin mir ziemlich sicher, daß irgendwas im nV40 16fach vorhanden ist, so daß Marketingfuzzies von 16 Pipelines sprechen können.

Ob das nun Z/Stencil-"Pipelines", Pixel-"Pipelines", "Shaderpipelines" (s.o.) oder "Texturpipelines" (8x2 *hint*) sind - lassen wir uns überraschen. ;)

Tarkin
2004-02-26, 23:50:18
Original geschrieben von Quasar
Ich bin mir ziemlich sicher, daß irgendwas im nV40 16fach vorhanden ist, so daß Marketingfuzzies von 16 Pipelines sprechen können.

Ob das nun Z/Stencil-"Pipelines", Pixel-"Pipelines", "Shaderpipelines" (s.o.) oder "Texturpipelines" (8x2 *hint*) sind - lassen wir uns überraschen. ;)


wahrscheinlich 16bit fließkommagenauigkeit *ggg*

Ailuros
2004-02-27, 02:27:31
Original geschrieben von Winter[Raven]
Ahhh ... Junx, ist das jetzt ein schlechter Scherz oder an den 16Pipes wirklich was dran ?

Schlechter Scherz. Inquirer ist von sich selber ein Scherz ;D

r@e
2004-02-27, 05:34:26
Original geschrieben von Tarkin
Bzgl. der 210 Mil. Transistoren...

geposted von Dave Baumann @Beyond3d.com
(http://www.beyond3d.com/forum/viewtopic.php?t=10471&postdays=0&postorder=asc&start=40)

"When I spoke to engineers at both ATI and Nvidia, their response was to not really understand what management at Nvidia were smoking, but the best explanation I got later was from someone senior at ATI who told me that, as near as they could tell, Nvidia were counting gates in things like caches and including that in the transistor count, while ATI only counted transistors directly involved in logic. Apples to oranges."Etwas mißverständlich, dieses Zitat, oder ?
DB würde sich sicher nicht so ausdrücken...
Original geschrieben von Demirug
Vorallem erscheint es mir absolut unlogisch die Transitoren welche für den Cache benutzt werden nicht mitzuzählen. Jo, das habe ich auch gedacht !
Will uns ATI also erzählen, dass sie MIT Caches ebenfalls mit über 200mio Transistoren arbeiten ? Würde auf jeden Fall allem wiedersprechen, was ich bisher gehört habe... was wohl auch für die hier diskutierten Specs des NV40 gilt.

-

Aber...

Sollte dies stimmen mit dem full 16pipe design, dann dürfte nVidia wohl mit diesem Teil versuchen, auch die Performance-Krone (endgültig !) wieder zu erlangen... die Feature- bzw. Technik-Krone haben sie ja 'eh schon... was wohl auch so bleiben wird.

Ich könnte mir gut vorstellen, dass die Geheimniskrämerei (bzw. das derzeitige 'Verwirrspiel' ;-) der IHV's derzeit nicht dazu gedacht ist, den Kunden 'hängen' zu lassen, sondern einfach der Konkurrenz keine Informationen oder öffentliche Angriffspunkte bieten soll.

Es wird spannend !
(die CeBit aber in dieser Hinsicht immer uninteressanter)

Ach ja... von wegen fertig oder nicht...
Sollten die beiden (also NV40 und R420) wirklich so schnell sein, dass sie alles vorhergehende deklassieren, dann dürften beide (also nVidia und ATI) von ihren derzeitigen Top-Modellen nicht mehr allzuviel (profitabel) verkaufen. Könnte ein guter Grund sein, warum man sich mit der Veröffentlichung noch hart zurück hält (solange die Konkurrenz nichts dergleichen tut ;-).

Razor

Leonidas
2004-02-27, 05:39:31
Ähm. War das nicht klar, daß NV das NV40-Design mit 8x2 als "16" verkaufen wird ???


Finde die Aufregung total umsonst. Ich sehe das als weitere Bestätigung der 8x2 Aussage an.

r@e
2004-02-27, 05:47:32
Original geschrieben von Leonidas
Ähm. War das nicht klar, daß NV das NV40-Design mit 8x2 als "16" verkaufen wird ???

Finde die Aufregung total umsonst. Ich sehe das als weitere Bestätigung der 8x2 Aussage an. Aufregung ?
Ich glaube, Du mißinterpretierst hier was...
:D

Hier noch mal das betreffende Zitat auf TI:
US sources close to Nvidia have confirmed that their next generation GPU will feature a full sixteen pipelines – not as previously speculated an 8x2 arrangement - and this is reflected in the increased transistor count of circa 205-210 million, up from a previously speculated 175 million.Wer also das mit den 16pipes nicht glauben mag, sollte hier überhaupt nichts hinen interpretieren, sondern diese 'Meldung' einfach ignorieren. Hier wird von "full sixteen pipelines" und "not [...] an 8x2 arrangement" gesprochen.

Aber wie Quasar schon sagte: "Abwarten !".

Solange keine Fakten auf dem Tisch liegen, werden hier wohl nocht sehr viel 'merkwürdigere' Dinge das Licht der Welt erblicken...

Razor

(del676)
2004-02-27, 08:38:29
hmm
das ganze gepaart mit 800Mhz GDDR ... wäre doch typisch NV wieder mit Rohpower zurückzuschlagen

Gast
2004-02-27, 08:46:38
Da beteilige ich mal etwas an den Spekulationen :

16 Pipe's meint:

16 PS/VS 3.0 Pipe's. Da man die VS3.0 Pipelines auch als PS3.0 Pipelines missbrauchen kann, zählt Nvidia die einfach mit dazu. Dumm ist es nur, wenn man auch noch Vertex-shader einsetzt, dann bleiben von den 16 Pipelines nur noch so 8-12 (entweder als 8x1 oder 6x2) übrig, was aber immer noch ziemlich viel Holz vor der Hütten ist.

Dadurch könnte so ein Design bereits für VS4.0 / PS4.0 gerüstet sein und sollte auch in das Transistorbudget von 210Mio rein passen.


Ach ja; einen neuen Computer braucht man für die Karte auch, da sie mindestens 125Watt frisst, eher noch wesentlich mehr (also so 150Watt). Die 125Watt wurden auf Beyond3D in's Spiel gebracht, und von DaveBaumann mit "not soo low" kommentiert. :srug:

Godmode
2004-02-27, 08:55:20
Also wie wahrscheinlich wäre es, dass sie mit ner echten 16*1 Architektur kommen würden?? Oder doch wieder nur 8*2 oder was auch immer für x*x Varianten?

Tyler_Durden
2004-02-27, 09:06:29
Wie wollen die denn 150 W am Grafikchip abführen? Geht das ohne Wakü überhaupt?

robbitop
2004-02-27, 09:08:37
nVIDIA wird bei der CineFX Architektur nicht von X*2 Abweichen. Ausserdem ist es völlig egal ob 8x2 oder 16x1 solang trilinear gefiltert wird.
Zumal das reine Vergleichen mit Pipelines sowieso nicht mehr Zeitgemäß ist. Ich würde gern wissen wieviel Ops/Takt dieses Baby schafft und wieviel am Ende davon noch übrig bleibt =)

robbitop
2004-02-27, 09:10:23
@Tyler
allein 50W davon sollte der RAM verbrauchen.
Es sind immerhin >=256MB GDDR2 (bedeutet HEISSSS) und mit seeehr hohen Taktraten

Exxtreme
2004-02-27, 09:54:26
Original geschrieben von Quasar
Ich bin mir ziemlich sicher, daß irgendwas im nV40 16fach vorhanden ist, so daß Marketingfuzzies von 16 Pipelines sprechen können.

Hehe, im R3D-Forum machen sie schon Witze, daß es sich bei den 8 zusätzlichen Pipelines um "Crack Pipes" handelt. X-D

Also die 16 Pipelines können tatsächlich alles Mögliche sein. Kann sein, daß es pro "echte" Pipeline 2 FP-Einheiten gibt ... dann hätte man auch 16 "Pipelines"... :kratz:

P.S. Für mich ist das sowieso eine FUD-Kampagne!!!1111 Jetzt zerbrechen sich alle Leute in vielen Foren den Kopf darüber. So bleibt man immer im Gespräch. Aus der Sicht des Marketings eigentlich brilliant gaymacht!!11 X-D

Quasar
2004-02-27, 10:13:12
Original geschrieben von Exxtreme
Hehe, im R3D-Forum machen sie schon Witze, daß es sich bei den 8 zusätzlichen Pipelines um "Crack Pipes" handelt. X-D

Ja, das ham'se auf B3D auch schon kolportiert... scheinen sich mit sowas offenbar auszukennen.

Original geschrieben von Exxtreme
Also die 16 Pipelines können tatsächlich alles Mögliche sein. Kann sein, daß es pro "echte" Pipeline 2 FP-Einheiten gibt ... dann hätte man auch 16 "Pipelines"... :kratz:
Ja, deutete ich oben ja schon an, s. "Shaderpipelines". Aber die hätte man im nV35/8 auch schon.

Original geschrieben von Exxtreme
P.S. Für mich ist das sowieso eine FUD-Kampagne!!!1111 Jetzt zerbrechen sich alle Leute in vielen Foren den Kopf darüber. So bleibt man immer im Gespräch. Aus der Sicht des Marketings eigentlich brilliant gaymacht!!11 X-D
Bei einigen scheint das "F" (Tarkin ;) ) ja schon gewirkt zu haben, überwiegen dürfte angesichts der Informationslage jedenfalls das "U" und alle, für die nV zunächst mal grundsätzlich böse ist, haben hier ja schon ihr "D" angemeldet. =)

Radeonator
2004-02-27, 10:27:12
Original geschrieben von Tarkin
wahrscheinlich 16bit fließkommagenauigkeit *ggg*

Wieso sollten die sich den ATi Standard abgucken ;D

Ich denke 8x2, wer macht mit ;)

Endorphine
2004-02-27, 10:30:02
Original geschrieben von Radeonator
Ich denke 8x2, wer macht mit ;) [X] 6*2.
Immer dieser Spekulatius...

Gaestle
2004-02-27, 10:42:51
Was ist FUD :gruebel:

Quasar
2004-02-27, 10:45:39
Fear, Uncertainty And Doubt. (Passt auch gut zu FUAD Abzovic, dem Ober-Gerüchtekoch bei TI).

Gerüchte, die man in die Welt setzt, um Kunden vom Kauf von Konkurrenzprodukten abzuhalten.

Endorphine
2004-02-27, 10:51:19
<ot>
Original geschrieben von Quasar
Fear, Uncertainty And Doubt. (Passt auch gut zu FUAD Abzovic, dem Ober-Gerüchtekoch bei TI). Den (http://www.theinquirer.net/) kürzt man gemeinhin "INQ" ab. "TI (http://www.ti.com/)" ist schon belegt. :)
</ot>

Crushinator
2004-02-27, 10:53:34
Original geschrieben von Endorphine
[X] 6*2. Immer dieser Spekulatius...
Ich mach' mit: [X] 8*2 X-D

nggalai
2004-02-27, 11:02:01
6x2 sicher ned.

-.rb

(del676)
2004-02-27, 11:13:16
[x] 16x1 echte Pipelines

Gast
2004-02-27, 11:20:31
Original geschrieben von robbitop
@Tyler
allein 50W davon sollte der RAM verbrauchen.
Es sind immerhin >=256MB GDDR2 (bedeutet HEISSSS) und mit seeehr hohen Taktraten
Falls deine Aussage nur auf NV40 / R420 bezogen ist:
GDDR2 -> GDDR3.

Es gibt außer möglichen Restbeständen (günstiger Einkauf) keinen einzigen Grund mehr, der für GDDR2 spricht. Erst recht nicht, wenn wir von zukünftigem High-End sprechen (Stromverbrauch, geringere Kosten vs. GDDR2).

Micron hat hier eine extrem gute Nase bewiesen, und Samsung ist von den Vorteilen so überzeugt gewesen, das man relativ rasch auf den Zug aufgesprungen ist (so ganz Recht war es ihnen allerdings sicher nicht, da Samsung bisher hier immer als Vorreiter galt).

Deine Aussagen zum Stromverbrauch sind leider noch nicht sicher abzuschätzen, man dürfte allerdings durch die günstigeren Grundvorraussetzungen (bezogen auf GDDR2) insgesamt ein deutlich besseres Verhältnis in Bezug auf Leistung/Verlustleistung haben.

PS: Mid-End und Low-End werden natürlich weiterhin solange mit DDR1 und GDDR2 bedient, wie es wirtschaflich sinnvoll ist (daher haben sowohl NV40, als auch R420 Kontroller, welche mit den meisten dieser Varianten zu konfigurieren sind).

Endorphine
2004-02-27, 11:22:50
Original geschrieben von nggalai
6x2 sicher ned.

-.rb Warum? Bitte technisch begründen, kein "bis jetzt gab's nur 2^n Potenzen". Das würde mich jetzt wirklich interessieren.

Dass auf 8*2 spekuliert wird ist ja OK, aber das wegen 6*2-Ablehnung zu tun halte ich für fragwürdig.

Demirug
2004-02-27, 11:25:55
Original geschrieben von Endorphine
Warum? Bitte technisch begründen, kein "bis jetzt gab's nur 2^n Potenzen". Das würde mich jetzt wirklich interessieren.

Dass auf 8*2 spekuliert wird ist ja OK, aber das wegen 6*2-Ablehnung zu tun halte ich für fragwürdig.

nggalai kann es nicht technisch begründen weil es keinen technischen Grund gegen 6*2 gibt. Es gibt aber andere Gründe.

Quasar
2004-02-27, 11:30:38
Für 6*2 (besser: 3*2*2) spräche IMO derselbe Grund, wie beim R420 mit 3*4*1 - Recycling.

Endorphine
2004-02-27, 11:32:18
Original geschrieben von Demirug
nggalai kann es nicht technisch begründen weil es keinen technischen Grund gegen 6*2 gibt. Es gibt aber andere Gründe. Welche Gründe sind das denn? Wenn ich mich recht entsinne hat einer der B3D-Redakteure dazu mal etwas geschrieben und fand 6*2 für naheliegend. Mir erscheint es deshalb logisch, weil der Schritt auf 8*2 (+ hohe Taktraten) selbst für nVidia zu gewaltig wäre.

Merkor
2004-02-27, 11:32:25
Original geschrieben von Exxtreme
P.S. Für mich ist das sowieso eine FUD-Kampagne!!!1111 Jetzt zerbrechen sich alle Leute in vielen Foren den Kopf darüber. So bleibt man immer im Gespräch. Aus der Sicht des Marketings eigentlich brilliant gaymacht!!11 X-D

Ja, das Ziel ist wahrscheinlich einzig und allein, die potentiellen Käufer von dem wesentlich früher erscheinenden R420 fernzuhalten. Die Präsentation des NV40 soll ja nun anscheinend erst einen Monat nach der CeBIT erfolgen, während der R420 dann schon in einigen Rechnern sitzen wird...

nggalai
2004-02-27, 11:39:25
Original geschrieben von Merkor
Die Präsentation des NV40 soll ja nun anscheinend erst einen Monat nach der CeBIT erfolgen, während der R420 dann schon in einigen Rechnern sitzen wird... "Präsentation" nicht mit "Launch" verwechseln. Gibt auch schon Leute, die eine NV4x in ihren Rechnern hatten. ;) Die PR-Maschine ist jedenfalls bereits am anrollen.

93,
-Sascha.rb

P.S. Nein, in meinem PC steckte noch keine drin.rb

aths
2004-02-27, 11:40:27
Original geschrieben von Tarkin
völliger BS IMHO

falls doch, dann kommt der nv40 erst im Winter 2005 *eg* Meinst du. Warum? :)

aths
2004-02-27, 11:42:07
Original geschrieben von Endorphine
[X] 6*2.
Immer dieser Spekulatius... Falscher gehts fast nicht mehr. Aber auch der 3DCenter-Artikel zum NV40 enthält viel Stuss.

Endorphine
2004-02-27, 11:45:31
Original geschrieben von aths
Falscher gehts fast nicht mehr. Aber auch der 3DCenter-Artikel zum NV40 enthält viel Stuss. Du kannst deinen Artikel ja korrigieren. :)

Und erkläre bitte, was an einer Spekulation "falsch" sein kann.

aths
2004-02-27, 11:49:30
Original geschrieben von betareverse
Das würden wir wohl alle gerne mit Sicherheit wissen. ;) Tjaja.

Original geschrieben von Tarkin
wahrscheinlich 16bit fließkommagenauigkeit *ggg* Warum sollte NV erst auf Pixelshader 3.0 setzen, und dann FP16 optimieren?

nggalai
2004-02-27, 11:50:31
Original geschrieben von Tyler_Durden
Wie wollen die denn 150 W am Grafikchip abführen? Geht das ohne Wakü überhaupt? Ja, in der Hinsicht war NV ja schon immer kreativ (Föhn ahoi). So oder so werden die "kleineren" Karten nicht soviel Saft ziehen; falls die Zahl stimmt, wird das wohl echt nur auf die ganz grosse Version zutreffen.

93,
-Sascha.rb

Gast
2004-02-27, 11:59:44
Original geschrieben von Quasar
Ich bin mir ziemlich sicher, daß irgendwas im nV40 16fach vorhanden ist, so daß Marketingfuzzies von 16 Pipelines sprechen können.

Ob das nun Z/Stencil-"Pipelines", Pixel-"Pipelines", "Shaderpipelines" (s.o.) oder "Texturpipelines" (8x2 *hint*) sind - lassen wir uns überraschen. ;)
Sehr gut gesagt, unterstütze ich zu 100%. Da einige hier sicherlich genügend Kompetenz haben, und somit auch wissen, was denn passieren würde, wäre dies nicht der Fall, gehen wir bei zumindest diesem Teil, mal als sehr sichere Info aus.

reunion
2004-02-27, 11:59:47
Original geschrieben von aths
Falscher gehts fast nicht mehr. Aber auch der 3DCenter-Artikel zum NV40 enthält viel Stuss.

Was denn sonst??
NV wird vermutlich bei 2 TMUs pro Pipe bleiben, dann bleibt eigendlich nurnoch 8x2, 16x2 ist jo wohl eindeutig zuviel...

Exxtreme
2004-02-27, 12:01:34
Uttar meint:


"In conclusion, my current belief basically is the NV40 is a 6x2 design, which can be "double-pumped" into a 12x1 design, just like the NV31/NV34 could go from 2x2 to 4x1. It can however (ab)use the VS (which is a 4x1 pipeline) to become a 8x2, or, when "double-pumped", a 16x1.

Gast
2004-02-27, 12:06:05
Original geschrieben von aths
Falscher gehts fast nicht mehr. Aber auch der 3DCenter-Artikel zum NV40 enthält viel Stuss.
Was ist denn heute mit dir los aths ? Diese Ehrlichkeit in Bezug auf eure (deinen) Artikel - bin gerade völlig baff.

deekey777
2004-02-27, 12:06:57
OT: Werden jetzt die Major-Players ATi&nVidia mit den kommenden Monstern wie NV40 und R420 (obwohl "nur" PS 2.x) etwas kompatibler zueinander, besser gesagt: Wird der NV40 den "Standard-DX9-Code" (normale PS2.0 ohne CineFX-Spielereien) besser verdauen?

Gast
2004-02-27, 12:15:45
Bei Beyond3d gehts wieder ab.

Nach dem Post von Utta schreibt Mufu eine Seite später:

"16 pixel pipes, 32 z-only/clk, 400MHz+, <51.2GB/sec raw bandwidth. Niiiiiiiice.
"

Kurz gibts eine Antwort auf ein zitiertes Posting:
"

The only thing I've heard is it's going to be hotter than hell (NV40). 125 watts max.


Is that right? The 125w figure? (Or should I say, "Has anyone else heard the 125w figure bandied about?")
"

Daraufhin antwortet DaveBaumann:
"Nothing that low!"

Das verspricht langsam interessant zu werden, zumal Mufu kurze Zeit später noch hinzufügt:

"Sounds like they had some very ambitious plans for NV45 which they've somehow pulled off, and now it's a case of NV40 being an "AGP version" of NV45.

Might be in ATi's best interest now to get R420 out of the gates first - they could buy themselves a couple of months at the top. This could all be an elaborate trick to fool them into doing so though."

Es scheint sich immer mehr abzuzeichnen, dass Nvidia die Gelegenheit genutzt hat und beim Neudesign richtig zu klotzen und nicht zu kleckern. Beim NV35 war das ja nicht möglich. Hier konnte man nur innerhalb des gegebenen Designs aufbessern aber eben nicht alle Probleme wie das Registerproblem beseitigen.
Die NV3x High End Chips haben sehr viele Transistoren gehabt, die nicht funktionsfähig waren. Das Teil war ziemlich verbuggt. Ursprünglich waren die NV3xx Pläne ja auch viel ambitionierter. Leider damals technisch nicht machbar, heute aber wohl schon.

Godmode
2004-02-27, 12:22:14
Das wäre logisch für mich, weniger Takt dafür mehr Pipes(wenn man es so nennen darf). Wenn sie von 400+ reden würde das für 210 MIO Transistoren sprechen, da sie mit so einem hohen Transistorcount sicherlich nicht so einfach 600 MHz erreichen können, wie es die Spekulationen im voraus besagten

Gast
2004-02-27, 12:29:32
ich würde denoch nicht von vollen 16*1 ausgehen.
Ich denke eher, dass es von den Bedingungen abhängt, in welchem Modus der Chip dann letztlich opperiert.

Allerdings kann man von verdammt ambitionierten Plänen ausgehen. Wir werden bald mehr wissen. Durch die Umstellung, wird sich das ganze ein wenig verschieben. Ich würde denoch davon ausgehen, dass Nvidia es sich nicht nehmen lässt und einen Paper Launch macht obwohl eigentlich so nicht geplant. Ich glaube kaum, dass man zur Cebit die Welt nur was vom R420 hören lassen wird.
Wenn sie ihre Pläne nochmal aufgestockt haben oder jetzt gleich die NV45 Pläne umgesetzt haben, und sich dadurch 1 bis 2 Monate Verzug ergeben, dann wirds es zumindest einen Paper Launch geben, um alle zu informieren, dass warten sich lohnen könnte.

Ailuros
2004-02-27, 12:32:35
Original geschrieben von aths
Falscher gehts fast nicht mehr. Aber auch der 3DCenter-Artikel zum NV40 enthält viel Stuss.

*hust*sayididntsayso*hust*

Godmode
2004-02-27, 12:33:46
@Gast:

Glaubst du nicht das es möglich wäre, dass sie ein paar Tage warten bis die CeBit vorbei ist? Während der CeBit ist soviel Wirbel das vieles von den News im Rummel untergeht. Wenn sie aber erst ein paar Tage nach der CeBit den Paperlaunch machen haben sie die ganze Aufmerksamkeit der Onlinemagazine, Fachpresse....

Meinst du jetz das Nvidia jetz gleich den Refreshchip bringen wird, oder verstehe ich da was falsch? NV45 ist übrigens die PCI-Express Variante und nicht der Refreshchip

Tyler_Durden
2004-02-27, 12:34:16
Mmh, wenn das so stimmen sollte, dann passt hier wohl der Spruch "The Empire strikes back"! :D
Hört sich wirklich nach einem Brute force Chip an!

Ailuros
2004-02-27, 12:34:39
Original geschrieben von Gast
Was ist denn heute mit dir los aths ? Diese Ehrlichkeit in Bezug auf eure (deinen) Artikel - bin gerade völlig baff.

Deshalb hab ich 3DCenter auch so gern. :)

Ailuros
2004-02-27, 12:41:16
Darf ich das Publikum mal bitten sich ein bisschen zu beruhigen und die Sache mit einem etwas klarerem Kopf anzusehen?

Es handelt sich um normalen Inquirer Bloedsinn und ich schliesse nicht mal aus, dass die Kerle bei Inquirer es mit Absicht machen um mehr hits zu bekommen. Natuerlich kann jeder glauben was er will, aber im gegebenen Fall sollte es wenigstens Sinn machen. Und nein 16 SIMD mit 256bits machen keinen Sinn.

Ich hab schon in der Vergangenheit gesagt, dass jeglicher moegliche X*Y setup egal ist, und dass das was hinten heraus kommt wichtiger ist. Danach kommt natuerlich die Frage ob die Chance besteht dass bei allen Konkurrenten hinten das gleiche Resultat herauskommt...IMHO durchaus ja.

robbitop
2004-02-27, 12:46:35
"Falscher gehts fast nicht mehr. Aber auch der 3DCenter-Artikel zum NV40 enthält viel Stuss. "
soviel zu diesen ominösen "Quellen" :D

@Gast
AFAIR gibt es gerade mal genug GDDR3 um ein paar hundert Boards auszuliefern...ich glaube es erst wenn ich es sehe. Ausserdem gibt es nur minimale technische Unterschiede zw GDDR2 und GDDR3.

Bei 256MB sind immerhin 8 BGAs auf dem Board. Bei 600-800Mhz ziehn die mit Sicherheit ~50W. Das ist eine Schätzung aber imo sollte das in diesem Bereich liegen.

@gast
was meinst du mit nicht lauffähigen Transistoren?
Soweit ich weiss sind ein paar Millionen Transistoren beim NV3x als Massetransistoren verwand worden, um die Taktraten auch ohne LowK schaffen zu können (NV30 war angeblich für ~100Mio Transistoren 400Mhz lowK geplant...dann auf einmal kein lowk und hundert Mhz mehr ist mir klar dass man nochmal ein paar Massetransis hinzufügen musste).
Aber von "nicht funktionstüchtigen" Transis hab ich noch nichts gehört.

Der NV35 hat schon einen recht beachtlichen Sprung nach vorn gemacht. 256bit DDR, FPU Verdopplung, Thermik ist ausgeglichener und Ultra Shadow. Für die gegebenen Möglichkeiten war das schon in Ordnung.


Zu den 210Mio: glaub ich erst wenn ichs sehe.
Ich habe mal gelesen 200Mio seien eine Empfehlung von TSMC..danach sackt es stark ab.
Gut ATi hat trotz 96Mio Empfehlung 107Mio Trans in den R300 bei 325Mhz gepackt unnmöglich ist es nicht, aber schon ein Risiko.

Der originale NV40 (so wie er geplant war) hatte nach Präsentationsfolien die ich mal gesehen hatte 150Mio Transistoren. Ich denke mal nVIDIA wollte sich nicht nocheinmal so blamieren und hat den NV45 vorgezogen (deswegen auch die Verspätung ...November/Dezember sollte er ursprünglich kommen nun wird es wohl März/April).

@AiL (und andere Spezis)

ich habe mal gelesen, dass A0 Silikon zum Editors Day bereits lauffähig war (300Mhz). Diese VPU sollte doch in etwa baugleich mit dem A1(A2??) Stepping sein, welches wir bekommen sollen. Weisst du dazu mehr?

Ailuros
2004-02-27, 13:05:38
Es muss >A0 Silizium gewesen sein, bin mir aber nicht absolut sicher. Wieso ist das ueberhaupt wichtig?

...deswegen auch die Verspätung ...November/Dezember sollte er ursprünglich kommen...

Die Gruende der Verspaetungen aller naechster Generation chips habe ich nach meiner Meinung nach schon gepostet. Es war schon Anfang 2003 dann klar, dass es unmoeglich war noch in 2003 diese fertig zu haben.

Da die Folie auf die Du beziehst alt ist, sage ich nur dass es oefters vorkommt in sehr fruehen Entwicklungs-stadien dass man Transistoren leicht falsch einschaetzt; ausser es wird zwischen drin noch was zugefuegt. Rampage war nach Folien auch ~17Mio Transistoren gross, aber die Realitaet war dass er wohl fast zweimal so gross war am Ende.

robbitop
2004-02-27, 13:27:00
danke für die Infos AiL!
=)

Quasar
2004-02-27, 13:29:50
Original geschrieben von Exxtreme
Uttar meint:

Zusätzlich nutzbare TMUs durch das VS-Array hatte ich ja auch schon...ähm... spekuliert, aber das daraus gleich komplette Pixel-Shaderpipes werden? :gruebel: Geht das überhaupt?

Bzw. andersrum gefragt, muss man eine komplette PS-Pipe abzweigen, um nur die TMU im VS zu nutzen? Denn mehr machen 3.0-VS AFAIK doch mit Texturen gar nicht, oder?

robbitop
2004-02-27, 13:38:04
IMO braucht man dazu eine UNIFIED SHADER Architektur. Das sollte der NV40 noch nicht sein. Erst zum NV50 hin. Ich zweifle auch an der Effizienz des 2x2 TMU Anbaus im VS für die Füllrate.

aths
2004-02-27, 13:39:06
Weniger raten, mehr lesen.

Was muss eine VS_3_0-TMU können?

robbitop
2004-02-27, 13:41:52
loopback?

Demirug
2004-02-27, 13:42:14
Original geschrieben von aths
Weniger raten, mehr lesen.

Was muss eine VS_3_0-TMU können?

Das gleiche wie eine PS_3_0 TMU ausser AF.

Quasar
2004-02-27, 13:43:19
Texturkoordinaten lesen/schreiben, AFAIK. Aber eben nur "AFAIK". :)

Palpatin
2004-02-27, 13:47:07
Naja da ATI wohl 1-2 Monate früher startet muss NV natürlich jetzt mächtig die Klappe aufreisen um die Konsumenten davon zu überzeugen sich in den 1-2 Monaten keine neue ATI Karte zu holen sonderen erstmal auf die neuen NV Karten zu warten.

nggalai
2004-02-27, 13:52:38
Original geschrieben von Palpatin
Naja da ATI wohl 1-2 Monate früher startet muss NV natürlich jetzt mächtig die Klappe aufreisen um die Konsumenten davon zu überzeugen sich in den 1-2 Monaten keine neue ATI Karte zu holen sonderen erstmal auf die neuen NV Karten zu warten. Hab' ich was verpasst? Hat ATI was gelauncht oder auch nur angekündigt? Woher weiss jetzt plötzlich jeder, dass ATI mit der R420 vor NV in den Geschäften liegen wird?

93,
-Sascha.rb

aths
2004-02-27, 13:55:56
Original geschrieben von Demirug
Das gleiche wie eine PS_3_0 TMU ausser AF. Und außer BF/TF.

Gast
2004-02-27, 13:57:08
Original geschrieben von nggalai
Hab' ich was verpasst? Hat ATI was gelauncht oder auch nur angekündigt? Woher weiss jetzt plötzlich jeder, dass ATI mit der R420 vor NV in den Geschäften liegen wird?

93,
-Sascha.rb

Hast du etwa keine Kristallkugel neben dir liegen?

Demirug
2004-02-27, 13:59:49
Original geschrieben von aths
Und außer BF/TF.

Wer erzählt denn sowas?


The functionality is identical to the pixel textures, except for the following:

- Anisotropic texture filtering is not supported, hence D3DSAMP_MAXANISOTROPY is ignored and D3DTEXF_ANISOTROPIC cannot be set for MAGFILTER or MINFILTER, for these stages.
- Rate of change information is not available, hence the application has to compute the level of detail and provide that information as a parameter to texldl.

OK das mit dem Mip-Level habe ich vorhin unterschlagen.

Gast
2004-02-27, 14:00:27
Original geschrieben von Gast
Hast du etwa keine Kristallkugel neben dir liegen?
Reicht es nicht, NVIDIA-Fan zu sein ? *hust*

aths
2004-02-27, 14:19:24
Original geschrieben von Demirug
Wer erzählt denn sowas? Das könnte ich dir sagen, aber dann müsste ich …

Ich notier diese Sache mal :)

nggalai
2004-02-27, 14:20:16
Original geschrieben von Gast
Hast du etwa keine Kristallkugel neben dir liegen? Nein, eben nicht. :( Genau deshalb frage ich ja--woher will die zitierte Person wissen, wann ATI was bringt, und ob's 1-2 Monate vor den neuen NV-Karten in den Geschäften liegen wird? Daher meine Frage.

Ich hätt auch was von "Hi Nostradamus" schreiben können, hab's dann aber gelassen. ;)

93,
-Sascha.rb

Demirug
2004-02-27, 14:27:02
Original geschrieben von aths
Das könnte ich dir sagen, aber dann müsste ich …

Ich notier diese Sache mal :)

:D Du must mich schon ....

Du hast mir eben etwas verraten was ich noch nicht wusste.

DX unterstützt bei den VS-TMUs das gleiche wie bei den PS-TMUs. Mehr als Point ist aber auch dem PS nur eine Option.

Godmode
2004-02-27, 14:28:41
Original geschrieben von robbitop

@bans3i
was meinst du mit nicht lauffähigen Transistoren?
Soweit ich weiss sind ein paar Millionen Transistoren beim NV3x als Massetransistoren verwand worden, um die Taktraten auch ohne LowK schaffen zu können (NV30 war angeblich für ~100Mio Transistoren 400Mhz lowK geplant...dann auf einmal kein lowk und hundert Mhz mehr ist mir klar dass man nochmal ein paar Massetransis hinzufügen musste).
Aber von "nicht funktionstüchtigen" Transis hab ich noch nichts gehört.



kann es sein das du von jemand anderem das Posting gelesen hast? ich habe jedensfalls nie etwas von nicht funktionierende Transistoren geschrieben!!

robbitop
2004-02-27, 14:54:42
@bans3i
sorry war an den Gast gerichtet

Godmode
2004-02-27, 14:58:01
Original geschrieben von robbitop
@bans3i
sorry war an den Gast gerichtet

no problem :)

Glaubt ihr das Nvidia auch am AA und AF stark nachgebesert hat? Wenn die Anzahl von 210 MIO stimmt könnte man doch meinen das sie dort auch ordentlich aufgerüstet haben!!

LovesuckZ
2004-02-27, 15:03:31
Original geschrieben von bans3i
Glaubt ihr das Nvidia auch am AA

Auf jeden. Man redet von 8x sparse MSSA. Hoffentlich auch mal was neues...

und AF stark nachgebesert hat?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=126786

robbitop
2004-02-27, 15:04:24
ich denke sie haben das Trisetup die Multisamplingunits und ROPs entsprechend dafür geändert. Auch 3dc geht von 8x Sparse AA aus (Gammacorrect??).Damit hätte man einen gewaltigen Sprung gemacht und würde das AA vom R300 schlagen. Ich zweifle allerdings ernsthaft dass 8xMSAA überall flüssig einsetzbar wird (ab 1280 ;)).

Hauwech
2004-02-27, 15:21:53
Womit wir wieder mal bei der Diskussion waeren bei welcher Aufloesung man wieviel AA braucht. Rein subjektive Entscheidung von daher vergessen wir das ma lieber :)

Ich persoenlich habe lieber hohe Aufloesung, passt mehr auf den Schirm :D

LovesuckZ
2004-02-27, 15:26:38
Original geschrieben von Hauwech
Womit wir wieder mal bei der Diskussion waeren bei welcher Aufloesung man wieviel AA braucht.

Ich denke, wenn Nvidia besseres AA als ATi biete, dass dann von vielen die Behehauptung kommen werde, dass der Modus x vollkommen ausreiche und der bessere Modus y nicht notwendig sei...

robbitop
2004-02-27, 15:32:04
naja es kommt auf die Situation an.
Richtig hohes AA braucht man wenn man starke Farbübergangskontraste hat. (Flugsimulationen und Raumactionspiele). Ansonsten langt 2x-4x RGMSAA. 6x-8x sind eher die Ausnahme.

Und nach dem Gesetz des abnehmenden Ertrages nutzt jede Sampleerhöhung für das menschliche Auge immer weniger
Aber all dies ist OT..hier geht es um den NV40 :)

VooDoo7mx
2004-02-27, 16:03:29
Icg galueb ganz persönlich auf eine doppelte NV30/35/38 Mischarchitektur. Also 8x2 und gegenfalls 16x1.

<200 Mio Transis klingen nicht unwarscheinlich, wenn man weiß was NVidia vorhat.
Ich nehme auch ungefähr an das Stromverbrauch ungefähr bei 150 Watt liegen wird.
Ich persönlcihe würde eine externe Stromversorgung wie bei der V5 vorziehen, damit das Netzteil nicht so belastet wird.
Ich nehme auch an das der Chip bei der Transistorenanzahl nicht mehr als 500Mhz haben wird. 450Mhz sind sogar viel realistishcer oder sogar noch weniger.
Falls der Chip im Mai oder sogar noch später zu kaufen sein wird, halte ich GDDR3 Speicher mit 800Mhz für die Ultra Variante für realistisch.
Falls die Daten so ähnlich wirklich stimmen so könnte der halbierte Mainstream Chip der noch ein paar monate erscheint locker die FX5950Ultra schlagen.

Der R420 baut hingegen auf der sehr guten und bewährten R300 Architektur und wird meiner Spekulation nach auch wesentlich höher getaktet sein als der NV40.Dafür wird der Chip weniger Speichertakt haben.
Stromerbrauch und Abwärme werden jedenfalls auch weniger kritisch als beim NV40 sein.

Nvidia hat sich gganz schön was vorgenommen aber umso mehr ich von neuen spekulierten bahnbrechenden daten lese umso mehr schleicht sich der Gedanke in mein Kopf das sich der NV40 immer weiter verspäten wird und in einen ähnlichen Debakel wie der Nv30 enden könnte.

Fest jedoch steht schon (fast) das der R420 mindestens 1 Monat vor dem NV40 zu kaufen ist und damit hat ATi einen zeitvorteil der nicht zu verachten ist.

Irgendwie ist das neuste Grrafik-Rennen so aufregend und spanned wie nie.

aths
2004-02-27, 16:06:52
Original geschrieben von LovesuckZ
Ich denke, wenn Nvidia besseres AA als ATi biete, dass dann von vielen die Behehauptung kommen werde, dass der Modus x vollkommen ausreiche und der bessere Modus y nicht notwendig sei... … und was würdest du sagen, falls ATI weiterhin das beste Multisampling böte?

LovesuckZ
2004-02-27, 16:09:15
Original geschrieben von aths
… und was würdest du sagen, falls ATI weiterhin das beste Multisampling böte?

Zum Glueck wird es ja nicht so sein :)

deekey777
2004-02-27, 16:09:27
Original geschrieben von aths
… und was würdest du sagen, falls ATI weiterhin das beste Multisampling böte?

Auch eine stehende Uhr zeigt zwei Mal am Tag die richtige Uhrzeit an... (keine Ahnung, was es damit zu tun hat).

aths
2004-02-27, 16:11:14
Original geschrieben von robbitop
ich denke sie haben das Trisetup die Multisamplingunits und ROPs entsprechend dafür geändert. Auch 3dc geht von 8x Sparse AA aus (Gammacorrect??).Nah. Leo hat, wie ich gerade sehe, meinen Rohtext für die finale Fassung geändert. Dennoch kann ich nicht erkennen, dass wir von 8x Multisampling ausgehen. An diesem Punkt darf ich vielleicht noch mal meinen Unmut darüber äußern, wenn aufgrund von Spekulationen ein Artikel geschrieben wird, wo die Resultaten jener Gedanken als Quasi-Fakten hingestellt werden.

2x RG ist ja sozusagen eine Teilmenge von 4x OG. 2x RG ist aber kein Ausschnitt von einer 4x, 6x oder 8x sparsed Maske. Nvidia müsste praktisch ihr MSAA-Subsystem komplett über den Haufen geworfen und neu designt haben.

robbitop
2004-02-27, 16:16:28
@voodoo7mx
wo hast du nur die ganzen geheimen Infos her? :D

Die finale Taktrate hat eher mit dem Design zu tun als mit dem Transistorcount. Ok beides hat Auswirkungen auf die Yields beim Manufaktor aber das wars auch schon (siehe R300 mit 107Mio Transistoren @150nm und man ist von 325Mhz auf letztendlich 412Mhz gekommen).
Solche Rückschlüsse sollte man besser lassen, da nicht alles so linear und einfach gestrickt ist, wie sich viele vorstellen.

Ich persönlich denke, daß beide recht gleichzeitig kommen werden. -> es gibt bereits seit Ende Okt lauffähige NV40!!!

Wer weiß ob das 210Mio gewäsch stimmt. Was ich weiss, ist dass man scheinbar NV45 zum NV40 gemacht hat und von 150Mio Transistoren (Stand Juli03) auf 175 geschwenkt ist (Stand September 03). GDDR3 ist noch lange nicht in Massen verfügbar. sowas geht nunmal nicht von heut auf morgen. Verfügbar sind GDDR2 bis 600Mhz für beide Chips. Immer schön realistisch bleiben.
Ich denke auch nicht, dass man am A0 Stepping vom Design her noch groß etwas geändert hat, denn das würde eine starke Verspätung bedeuten, die man sich auf keinen Fall leisten sollte.

Warum ein "verdoppelter" NV35?? Architektonisch ist da einiges sicher passiert. Allein um AF und AA zu verbessern sind bereits tiefe Eingriffe nötig. Auch die Behebung des Temp Registerproblems und die Reister Combiner ist da schon Einiges.
Was Fakt ist: die neuen Chips werden schneller als die alten.
Alles andere ist Kaffesatzleserei (katalysiert durch diese sehr "glaubwürdige" Quelle).
Mal schauen wieviel AOps/Takt dieses Baby rausschleudern kann.
Verlustleistung ist mir erstmal egal (Wasserkühlung :) )

robbitop
2004-02-27, 16:17:35
darfst du...aber von mir stammt kein Artikel dieser Art in letzter Zeit (immer als Speku und Gerücht dargestellt) :-P

(mit dem 8x habe ich mich wohl verlesen oder es ist geändert worden..finden tue ich es jedenfalls nicht :-/ )
Aber da gibt es ja noch ein paar andere Sites die das ganze vieeel schlimmer betreiben (siehe die Quelle weshalb dieser Thread hier läuft zB)


jepp das hätten sie gemusst...wer weiss vieleicht haben sie es getan? denn ohne Änderung gibt es keine mir bekannte Möglichkeit etwas am AA signifikannt zu verbessern.
(wer weiss vieleicht ist dieses Upgrade ja von vorn herrein im Design des Nv30 vorgesehen aber aus irgendwelchen Gründen nicht getan worden)
Das Subsystem ist jetzt jedenfalls ein paar Jahre zu alt, so dass ein Neues eingebaut gehört :)

Godmode
2004-02-27, 16:49:17
Original geschrieben von robbitop


Ich persönlich denke, daß beide recht gleichzeitig kommen werden. -> es gibt bereits seit Ende Okt lauffähige NV40!!!




Ich dachte die erste lauffähige Version gab es im Dezember und die soll mit 300 MHz gelaufen sein??

nggalai
2004-02-27, 17:14:14
Original geschrieben von LovesuckZ
Zum Glueck wird es ja nicht so sein :) Ich währe mehr als erstaunt, wenn NVIDIA was anderes als gleichziehen würde, falls überhaupt das.

Woher kommen die ganzen 8xMSAA-Gerüchte hier im Thread? Nur aus unserem Speku-Artikel vom Januar? ?(

Original geschrieben von VooDoo7mx
Fest jedoch steht schon (fast) das der R420 mindestens 1 Monat vor dem NV40 zu kaufen ist und damit hat ATi einen zeitvorteil der nicht zu verachten ist.Nochmals--Quelle? Ist nicht so, dass ich das für falsch halten würde, aber mich würde interessieren, woher dieses Gerücht kommt. InkWell?

93,
-Sascha.rb

nggalai
2004-02-27, 17:16:22
Original geschrieben von bans3i
Ich dachte die erste lauffähige Version gab es im Dezember und die soll mit 300 MHz gelaufen sein?? Kommt drauf an, wie Du "lauffähig" definierst. ;) A0 dürfte so um November rumgeschwirrt sein; Prototypen noch etwas früher. Aber ja, die Dinger waren im Vergleich zum Serienmodell ganz sicher tiefer getaktet.

93,
-Sascha.rb

LovesuckZ
2004-02-27, 17:22:08
Original geschrieben von nggalai
Ich währe mehr als erstaunt, wenn NVIDIA was anderes als gleichziehen würde, falls überhaupt das.

Ich nehme an, dass du es weißt, was der NV40 schon unterstuetzen werde :)

Woher kommen die ganzen 8xMSAA-Gerüchte hier im Thread? Nur aus unserem Speku-Artikel vom Januar? ?

Einerseits euer Artikel, andererseits stand es mal im beyond3d.com/NvNews.net Forum, vor eurem Artikel.

Nochmals--Quelle? Ist nicht so, dass ich das für falsch halten würde, aber mich würde interessieren, woher dieses Gerücht kommt. InkWell?


r420 bereit für Serienproduktion, Vorführung des NV40 verschiebe sich wohl bis nach der Cebit (1 - 2 Monate, laß ich).

nggalai
2004-02-27, 17:28:02
Original geschrieben von LovesuckZ
Ich nehme an, dass du es weißt, was der NV40 schon unterstuetzen werde :)Darum geht's nicht. ;) Eher darum, dass solche Aussagen in Angesicht der Tatsache, dass man zum FSAA der R420 noch nicht mal gross Gerüchte findet, einfach keine Aussagen wie "NV wird besser sein" machen kann, auch wenn man aus Artikeln oder direkten Infos weiss / zu wissen glaubt, was denn NV bringen wird. NVIDIA muss schon bös Gas geben, um überhaupt mit den aktuellen ATI-Karten gleichzuziehen, in Sachen FSAA. NV traut man zu, kurz mal das ganze FSAA aufzurüsten, aber ATI soll bei der R420 nichts gemacht haben? Etwas einseitige Perspektive. ;)

93,
-Sascha.rb

betasilie
2004-02-27, 17:36:51
Original geschrieben von nggalai
NV traut man zu, kurz mal das ganze FSAA aufzurüsten, aber ATI soll bei der R420 nichts gemacht haben? Etwas einseitige Perspektive.
Wobei ich schon zufrieden wäre, wenn NV mit ATI in Sachen AA gleichzieht und ATI das AA nicht verbessert, wobei ich mich natürlich aus technophiler Sicht tierisch über ein 8*SG freuen würde. Ich wäre aber durchaus zufrieden, wenn beide Karten in 1280*1024 und 6*MSAA-SG eine irre Performance anbieten. ... ATI muss imo nicht zwingend was am AA machen, eher dann AF. ;)

Auf das AA von NV bin ich tierisch gespannt. =) Besonders was die Gammakorrektur angeht, denn man kann mit der Lupe an den Pixeln deutlich sehen, dass das eine Menge an IQ bringt.

Demirug
2004-02-27, 17:42:38
Original geschrieben von nggalai
Darum geht's nicht. ;) Eher darum, dass solche Aussagen in Angesicht der Tatsache, dass man zum FSAA der R420 noch nicht mal gross Gerüchte findet, einfach keine Aussagen wie "NV wird besser sein" machen kann, auch wenn man aus Artikeln oder direkten Infos weiss / zu wissen glaubt, was denn NV bringen wird. NVIDIA muss schon bös Gas geben, um überhaupt mit den aktuellen ATI-Karten gleichzuziehen, in Sachen FSAA. NV traut man zu, kurz mal das ganze FSAA aufzurüsten, aber ATI soll bei der R420 nichts gemacht haben? Etwas einseitige Perspektive. ;)

93,
-Sascha.rb

Gerade weil es keine Gerüchte gibt geht man eben schnell davon aus das alles beim alten bleibt.

Es kann durchaus sein das nVidia nur die ROPs und ein wenig an der Kompresion/Dekompresion ändern musste. Ich müsste mir den ganze Rasterisierung und AA Krempel dahingehend nochmal anschauen.

ATI war sicherlich auch nicht untätig wobei die Frage ist ob man dort wirklich was am Raster gedreht hat oder sich auf Massnahmen zur steigerung der Effizienz verlegt hat. Wir wissen ja das ATI eine leichte ROP-Schwäche hat.

nggalai
2004-02-27, 17:43:05
Original geschrieben von betareverse
Auf das AA von NV bin ich tierisch gespannt. =) Besonders was die Gammakorrektur angeht, denn man kann mit der Lupe an den Pixeln deutlich sehen, dass das eine Menge an IQ bringt. :D Yay! :D

Darf ich den in mein Quote-File aufnehmen? :D

93,
-Sascha.rb

VooDoo7mx
2004-02-27, 17:48:23
Ich rag mich was man beim FSAA von ATi noch verbessern kann? Außer es noch schneller zu machen...

ATi muss nur gute und effeziente Masken für alle Modi über 6x umsetzen.
NV muss gleichziehen und diese Alten Mischmodi über Board werfen.

@Robbitop

das sind alles nur Spekulationen meinerseits.

Ich würde aber mein 3. Arschloch drauf verwetten das:

1. Der R420 wesentlich früher kaufbar ist als der NV40
2. Der R420 weniger Strom Verbraucht.
3. Der R420 höher getaktet ist.

Wenn ich an die Meisterleistung der Ati Ingeneure denke 412 Mhz beim 0,15µ Chip rauszuquetschen, gehe ich davon aus das der Refreshchip des R420 locker ddie 600Mhz Marke knackt, wenn nicht sogar noch mehr.
Ich gehe davon aus das der NV40 frühstens im Mai zu kaufen ist und der R420 schon nach der CeBit.
Und im Mai sollte genug GDDR3 verfügbar sein um die Ultra Variante des NV40 damit zu versorgen, da diese sowieso nur in kleinen Margen hergestellt wird.

LovesuckZ
2004-02-27, 18:00:14
Original geschrieben von nggalai
NV traut man zu, kurz mal das ganze FSAA aufzurüsten, aber ATI soll bei der R420 nichts gemacht haben? Etwas einseitige Perspektive. ;)


Im Gegenteil zum Cheat AF wurde Nvidia schon sehr dafür abgestraft am AA nichts gedreht zu haben.
Ich traue es ihnen mehr zu das AA zu verbessern als das ATi irgendwas am AF tun werde.
Und da ATi schon sehr konservativ mit den Shadern umgehen werde (technologisch), warum sollten sie es bei ihren AA nicht genauso machen? Gespaarte Transistoren lassen sich doch super für "Raw Performance" einsetzen...

betasilie
2004-02-27, 18:02:53
Original geschrieben von nggalai
:D Yay! :D

Darf ich den in mein Quote-File aufnehmen? :D

93,
-Sascha.rb
Darfst Du gerne. :D ... Die eigentliche Intention meiner Aussage ist leider etwas verünglückt, aber was solls. :flöt:

betasilie
2004-02-27, 18:05:13
Original geschrieben von LovesuckZ
Ich traue es ihnen mehr zu das AA zu verbessern als das ATi irgendwas am AF tun werde.
Und da ATi schon sehr konservativ mit den Shadern umgehen werde (technologisch), warum sollten sie es bei ihren AA nicht genauso machen? Gespaarte Transistoren lassen sich doch super für "Raw Performance" einsetzen...
Full Ack! ... Ich hoffe zwar auf verbessertes AF seitens ATI, aber halte es eher für unwahrscheinlich.

egdusp
2004-02-27, 18:09:30
Original geschrieben von VooDoo7mx


Ich würde aber mein 3. Arschloch drauf verwetten das:

So leicht wirst du das aber nicht los :D

Original geschrieben von VooDoo7mx
1. Der R420 wesentlich früher kaufbar ist als der NV40
2. Der R420 weniger Strom Verbraucht.
3. Der R420 höher getaktet ist.


Schon seltsam. Vor dem INQ Gerücht mit den 210 mio Transistoren, ging alle Welt (okay, nicht alle, aber so war zumidnest mein Eindruck) noch davon aus, dass der NV40 mit 550-600 Mhz kommt und der R420 mit 50-100 Mhz weniger. Mittlerweile geht die Tendenz eher in Richtung 400 Mhz beim NV40 und 500+ beim R420.

Wie man bei NV sieht, lassen sich aber die High End Chips nicht notwendigerweise höher takten als die Midrange Chips. Der NV38 kommt auf 475 AFAIR und der NV36 auf 450 AFAIR.

Wieso sollte also ATI, die ihren RV360 auf 500+ Mhz laufen haben, auf einmal bei einem High End Chip nochmals 100 Mhz draufschlagen können? Es gibt zwar Indizien dafür, vielleicht hat der R420 das geniale thermische Design des R360 geerbt und deshalb per se Vorteile, aber auch gute gründe dagegen.

So hat NV schon 4 .13 Designs bei insgesamt 2 Foundries gefertigt und deshalb mehr Erfahrung.

man kann alles drehen und wenden wie man will, schlussendlich zählt nur was hinten rauskommt, und dass ist diesmal nicht absehbar.

mfg
egdusp

robbitop
2004-02-27, 18:24:28
ein paar A0 Samples mit niedrigem Takt soll es bereits Ende Oktober zum Editors Day gegeben haben.

was könnte man am AA verbessern? zB die Sampleanzahl hochdrehen oder ein paar algorithmen erneuern (nur ein Beispiel Demis Studie über glättung von Alpha Test Texturen) oder aber eine neue AA Methode entwickeln...evolution von MSAA (habe da nur FAA in meiner Vorstellung aber das ist nicht unbedingt evolution)

deekey777
2004-02-27, 18:39:39
Wenns schon gepostet, bitte löschen: Der Hammer!!! (http://www.gamestar.de/news/hardware/16499/)

"Nvidia erhöht die Anzahl der Rendering-Pipelines von acht auf -- das bestätigen aktuelle Meldungen -- gewaltige 16. Das steigert die FPS in aktuellen und künftigen 3D-Titeln drastisch. Ob ATIs nächster Chip (R420) da mithalten kann?"
Oder:"Weitere Neuerungen: Schnellerer GDDR3-Grafikspeicher und DirectX 9.0c-Unterstützung mit erweiterten Pixel- und Vertex-Shadern für mehr Details."

Demirug
2004-02-27, 18:46:14
Original geschrieben von deekey777
Wenns schon gepostet, bitte löschen: Der Hammer!!! (http://www.gamestar.de/news/hardware/16499/)

"Nvidia erhöht die Anzahl der Rendering-Pipelines von acht auf -- das bestätigen aktuelle Meldungen -- gewaltige 16. Das steigert die FPS in aktuellen und künftigen 3D-Titeln drastisch. Ob ATIs nächster Chip (R420) da mithalten kann?"
Oder:"Weitere Neuerungen: Schnellerer GDDR3-Grafikspeicher und DirectX 9.0c-Unterstützung mit erweiterten Pixel- und Vertex-Shadern für mehr Details."

Gamestar schreibt bei Inq ab. Dabei kann ja kaum was vernüpftiges dabei herauskommen.

LovesuckZ
2004-02-27, 18:49:31
Aehm, koennte mir das einer erklaeren:
Zudem unterstützt der NV40 eine neue Funktion, die in Strategietiteln mit Hunderten von Spielfiguren Rechenleistung sparen soll. Animationen werden dann nur einmal berechnet und auf andere Figuren übertragen.

reunion
2004-02-27, 18:54:57
Original geschrieben von deekey777
Wenns schon gepostet, bitte löschen: Der Hammer!!! (http://www.gamestar.de/news/hardware/16499/)

"Nvidia erhöht die Anzahl der Rendering-Pipelines von acht auf -- das bestätigen aktuelle Meldungen -- gewaltige 16. Das steigert die FPS in aktuellen und künftigen 3D-Titeln drastisch. Ob ATIs nächster Chip (R420) da mithalten kann?"
Oder:"Weitere Neuerungen: Schnellerer GDDR3-Grafikspeicher und DirectX 9.0c-Unterstützung mit erweiterten Pixel- und Vertex-Shadern für mehr Details."

:lolaway: Wenn ich dass schon lese von acht...
Seit wann hat NV bitte acht Pipes?? :D

Demirug
2004-02-27, 18:58:49
Original geschrieben von LovesuckZ
Aehm, koennte mir das einer erklaeren:
Zudem unterstützt der NV40 eine neue Funktion, die in Strategietiteln mit Hunderten von Spielfiguren Rechenleistung sparen soll. Animationen werden dann nur einmal berechnet und auf andere Figuren übertragen.

Vertexshader 3.0 in Verbindung mit FP32 Pixelshader. Der Trick ist relative einfach und hätte im Prinzip auch schon mit dem NV30 funktioniert. Allerdings gab es da keine brauchbare API dafür.

seahawk
2004-02-27, 18:59:04
Original geschrieben von reunion
:lolaway: Wenn ich dass schon lese von acht...
Seit wann hat NV bitte acht Pipes?? :D

Na, da sie die Pipes verdoppeln, müssen sie ja jetzt 16 haben. :D

Godmode
2004-02-27, 19:05:51
Ich frag mich warum sich ein Spiele Magazin mit solchen Sachen beschäftigen? haben doch 0,00 Ahnung von dem ganzen!! Warum lassen sie das nicht den Hardwaremags?? Man sieht ja was da für scheisse rauskommt :)

OT: ist eigentlich Thilo Bayer von der PCGH noch im Forum öfters aktiv?

(del676)
2004-02-27, 19:06:02
für was sollte ATI ihr 6xAA verbessern?
Qualitativ kommt imho nix ran, eventuell könnte man es beschleunigen (schönen gruss an die bandbreite die bei NV chips traditionell immer höher is :D )
und sie könnten eventuell 4x SuperSampling integrieren für die Games die Alphatest verwenden (sonst muss ich bei Qui AA bleiben :freak: )

was sie aber wirklich verbessern könnten wäre ihr AF, weniger winkelabhängigkeit wäre ned übel ...

nvidia muss kräftig bei ziemlich vielem nachbessern ...

reunion
2004-02-27, 19:09:27
Sind diese Gerüchte eigendlich glaubwürdig??
Für mich hören sich 210Mio Transistoren und 16Pipes doch arg übertrieben an,
kann/will da jemand was sagen :naughty:??

Godmode
2004-02-27, 19:09:42
Wie wärs eigentlich mit dem AA von 3DFX? war das nicht da beste aller Zeiten? vielleicht haben ja die ex 3DFX worker da was zum NV4x beigetragen? Übrigens frage ich mich ob wir durch 16x Ansisotropy noch viel mehr Filter Qualität bekommen oder ob man da sowieso nichts mehr sieht?

Godmode
2004-02-27, 19:12:36
Original geschrieben von reunion
Sind diese Gerüchte eigendlich glaubwürdig??
Für mich hören sich 210Mio Transistoren und 16Pipes doch arg übertrieben an, kann/will da jemand was sagen :naughty:??

Wenn man endlich wissen würde, wie sie 16 Pipes definieren, könnte man mehr sagen. Aber ich denk auch das es eine 8*2 Konstelation wird die in gewissen Situation als 16*1 genutzt werden können. Demirug hat ja auch schon gesagt das es höchstwahrscheinlich 8*2 wird und der kennt sich ja bekanntlich sehr gut aus.

reunion
2004-02-27, 19:14:31
Original geschrieben von bans3i
Wie wärs eigentlich mit dem AA von 3DFX? war das nicht da beste aller Zeiten? vielleicht haben ja die ex 3DFX worker da was zum NV4x beigetragen?


Jain, Das AA von 3dfx war das beste aller Zeiten, was allerdings am SS lag und nicht am Grid, der ist bei ATI ebenfalls optimal.



Übrigens frage ich mich ob wir durch 16x Ansisotropy noch viel mehr Filter Qualität bekommen oder ob man da sowieso nichts mehr sieht?

Also meineransichtnach wird man den unterschied zwischen 8x und 16x in Spielen nicht unterscheisen können.

Demirug
2004-02-27, 19:15:41
Original geschrieben von bans3i
OT: ist eigentlich Thilo Bayer von der PCGH noch im Forum öfters aktiv?

Ja, warum?

Demirug
2004-02-27, 19:17:00
Original geschrieben von bans3i
Wenn man endlich wissen würde, wie sie 16 Pipes definieren, könnte man mehr sagen. Aber ich denk auch das es eine 8*2 Konstelation wird die in gewissen Situation als 16*1 genutzt werden können. Demirug hat ja auch schon gesagt das es höchstwahrscheinlich 8*2 wird und der kennt sich ja bekanntlich sehr gut aus.

Ich habe da spekuliert wie alle anderen auch. Die Architektur kenne ich auch nicht.

Godmode
2004-02-27, 19:17:59
Original geschrieben von Demirug
Ja, warum?

Weil ich früher wie ich noch nicht im 3DC-Forum registriert war öfters News zum NV30 gesucht habe, und da war er öfters an den Diskusionen recht beteiligt. Jetz aber hab ich schon lange nichts mehr gesehn von ihm, und auch auf der PCGH-Site gibts bei den News auch immer nicht recht viel Neues was Grakas angeht.

Godmode
2004-02-27, 19:19:50
Original geschrieben von Demirug
Ich habe da spekuliert wie alle anderen auch. Die Architektur kenne ich auch nicht.

Was spricht den für/gegen eine reine 16*1 Architektur?
Rein heist dass dort 16 SIMD Channels eingedampft sind!!

Leonidas
2004-02-27, 19:20:09
Original geschrieben von r@e
Aufregung ?
Ich glaube, Du mißinterpretierst hier was...
:D

Hier noch mal das betreffende Zitat auf TI:
Wer also das mit den 16pipes nicht glauben mag, sollte hier überhaupt nichts hinen interpretieren, sondern diese 'Meldung' einfach ignorieren. Hier wird von "full sixteen pipelines" und "not [...] an 8x2 arrangement" gesprochen.



Nein. Inquirer erfährt irgendwo was von 16 und schreibt den Rest selber. Eine solcherart Verfahrensweise sollte man bei Inquirer *immer* mit einrechnen.

Gast
2004-02-27, 19:20:22
Original geschrieben von nggalai
Darum geht's nicht. ;) Eher darum, dass solche Aussagen in Angesicht der Tatsache, dass man zum FSAA der R420 noch nicht mal gross Gerüchte findet, einfach keine Aussagen wie "NV wird besser sein" machen kann, auch wenn man aus Artikeln oder direkten Infos weiss / zu wissen glaubt, was denn NV bringen wird. NVIDIA muss schon bös Gas geben, um überhaupt mit den aktuellen ATI-Karten gleichzuziehen, in Sachen FSAA. NV traut man zu, kurz mal das ganze FSAA aufzurüsten, aber ATI soll bei der R420 nichts gemacht haben? Etwas einseitige Perspektive. ;)

93,
-Sascha.rb

Naja das man da ATI nicht viel zutraut liegt an der Entstehungshistorie des R420. Dieses Produkt egal wie gut es am Ende wird ist einfach nur Plan B - die Notlösung eben um nicht einen NV30 im eigenen Haus zu erleben.
Große Änderungen am AA gehen tief in die Architektur rein. Der R420 wurde in nur wenig mehr als 1 Jahr gebohren.

reunion
2004-02-27, 19:22:24
Original geschrieben von bans3i
Wenn man endlich wissen würde, wie sie 16 Pipes definieren, könnte man mehr sagen. Aber ich denk auch das es eine 8*2 Konstelation wird die in gewissen Situation als 16*1 genutzt werden können. Demirug hat ja auch schon gesagt das es höchstwahrscheinlich 8*2 wird und der kennt sich ja bekanntlich sehr gut aus.

Schon klar, nur bin ich bis jetzt immer von 6x2 ausgegengen, ob NV wirklich gleich auf 8x2 umbessert?

Und da ja ING nicht gerade als sichere Quelle gilt bleib ich mal dabei ;)

Demirug
2004-02-27, 19:27:55
Original geschrieben von bans3i
Was spricht den für/gegen eine reine 16*1 Architektur?
Rein heist dass dort 16 SIMD Channels eingedampft sind!!

Eigentlich sprichts nichts dafür deswegen habe ich ja auch immer 6*2 oder 8*2 gesagt. Wenn nVidia allerdings beim NV40 die Pipelines zwichen Shader und ROPs nochmal getrennt hat und einen zusätzlichen Verteiler eingebaut hat sind meine ganzen Theorien überarbeitungsbedürftig.

robbitop
2004-02-27, 20:52:10
was würde dieser "zusätzliche Verteiler" denn bewirken, Demi?

Demirug
2004-02-27, 21:05:41
Original geschrieben von robbitop
was würde dieser "zusätzliche Verteiler" denn bewirken, Demi?

Entkoppeln der ROPs von den Shadern. Dadurch kommt man mit weniger ROPs aus als wenn man an jede Pipeline direkt welche anhängen würde. Man kann damit sozusagen immer der Pipelines ROPs zuweisen die sie gerade braucht. Das macht natürlich nur richtigen Sinn wenn man noch ein paar andere Tricks benutzt. Diese Idee mit dem Verteiler gab es übrigens auch schon im Rampage. Allerdings ohne die Zusatztricks was die Singletexturfillrate in Verbindung mit AA aber ohne AF/TRI heftig runtergezogen hat.

egdusp
2004-02-27, 22:42:47
Ganz kurz. Was ist ROP?

mfg
egdusp

Quasar
2004-02-27, 22:46:01
Raster Operator, AFAIK. Für Blending, Fogging und auch AA zuständig.


Original geschrieben von VooDoo7mx
NV muss gleichziehen und diese Alten Mischmodi über Board werfen.

Bloß nicht. Ich wäre seht enttäuscht, wenn sie das täten. Gibt in meinen Augen eigentlich auch keinen Grund dazu.

Original geschrieben von egdusp
Schon seltsam. Vor dem INQ Gerücht mit den 210 mio Transistoren, ging alle Welt (okay, nicht alle, aber so war zumidnest mein Eindruck) noch davon aus, dass der NV40 mit 550-600 Mhz kommt und der R420 mit 50-100 Mhz weniger. Mittlerweile geht die Tendenz eher in Richtung 400 Mhz beim NV40 und 500+ beim R420.

In diesem Falle halte ich es mit aths: Ich kaufe Leistung, nicht MHz. Von mir aus kann der nV40 (und auch der R420) mit 10MHz laufen, wenn er trotzdem so schnell wird, wie man derzeit spekuliert.

Original geschrieben von reunion
:lolaway: Wenn ich dass schon lese von acht...
Seit wann hat NV bitte acht Pipes?? :D
Seit sie acht Z/Stencil-Writes pro Takt machen können. IIRC also seit dem nV30. =)

Original geschrieben von reunion
Also meineransichtnach wird man den unterschied zwischen 8x und 16x in Spielen nicht unterscheisen können.
Jein. Meiner Ansicht nach wird man bei nur gering-winkelabhängigem AF, so wie nV es derzeit in Stufe 8 anbietet, durchaus einen Unterschied sehen. Wenn man allerdings auf die ATi-AF-Linie umschwenkt (wovon ich bitte verschont bleiben möchte), sieht man ihn kaum - nur auf brettebenen Flächen, die sich im 90°-Einteilung durch den Level ziehen.

egdusp
2004-02-27, 22:50:41
OT:

@ Quasar. Darf ich aus deiner Signatur entnehmen, dass du offiziell als Ziege gilst.
Aber eigentlich hoffe ich doch, dass du da keinen Bock "geschossen" hast :D

Sie kommen auf jeden Fall nach der Mutter.

mfg
egdusp

egdusp
2004-02-27, 22:52:57
Original geschrieben von deekey777
Wenns schon gepostet, bitte löschen: Der Hammer!!! (http://www.gamestar.de/news/hardware/16499/)

"Nvidia erhöht die Anzahl der Rendering-Pipelines von acht auf -- das bestätigen aktuelle Meldungen -- gewaltige 16. Das steigert die FPS in aktuellen und künftigen 3D-Titeln drastisch. Ob ATIs nächster Chip (R420) da mithalten kann?"
Oder:"Weitere Neuerungen: Schnellerer GDDR3-Grafikspeicher und DirectX 9.0c-Unterstützung mit erweiterten Pixel- und Vertex-Shadern für mehr Details."

Zur Einschätzung der Zuverlässigkeit einfach nur die Meldungen unten drunter lesen, die ebenfalls vom NV40 handeln, aber vom letzten Jahr stammen. (350 mio Transistoren, 800 Mhz Chip, *hust*)

mfg
egdusp

Quasar
2004-02-27, 23:04:23
Original geschrieben von egdusp
OT:

@ Quasar. Darf ich aus deiner Signatur entnehmen, dass du offiziell als Ziege gilst.
Aber eigentlich hoffe ich doch, dass du da keinen Bock "geschossen" hast :D

Sie kommen auf jeden Fall nach der Mutter.

mfg
egdusp
Von mir aus entnimm' X-D
(Ja, eins von den Kleinen ist tatsächlich ein Bock)

aths
2004-02-27, 23:23:59
Original geschrieben von egdusp
Zur Einschätzung der Zuverlässigkeit einfach nur die Meldungen unten drunter lesen, die ebenfalls vom NV40 handeln, aber vom letzten Jahr stammen. (350 mio Transistoren, 800 Mhz Chip, *hust*)NV50.

nggalai
2004-02-28, 00:25:01
Original geschrieben von bans3i
Weil ich früher wie ich noch nicht im 3DC-Forum registriert war öfters News zum NV30 gesucht habe, und da war er öfters an den Diskusionen recht beteiligt. Jetz aber hab ich schon lange nichts mehr gesehn von ihm, und auch auf der PCGH-Site gibts bei den News auch immer nicht recht viel Neues was Grakas angeht. Dazu sag ich einfach mal NDA. Und NV hat da auf ihre eh schon ziemlich harte Version bei der NV4x noch ein wenig draufgegeben. Ist noch nicht abartig, aber son Teil hab' ich das letzte mal von IBM zu sehen gekriegt. Womit ich nicht sage, dass ich die NDA unterzeichnet hätte. Dann dürfte ich das hier noch nicht mal erwähnen, if you get my drift. ;)

Ich darf kein Datum nennen, aber bis auf einen Mutz haben alle dasselbe Datum für den Verfall desselben genannt, und lang' dauert's nicht mehr. Und ohne jetzt gross Cocktease zu spielen oder prollen zu wollen ... seit den ersten GF3-Dokus hab' ich mich nicht mehr so auf einen Launch seitens NVIDIA gefreut wie hier. Und ich fahr im Büro ATI-Karten, das soll was heissen ...

93,
-Sascha.rb

aths
2004-02-28, 02:01:01
Original geschrieben von reunion
Schon klar, nur bin ich bis jetzt immer von 6x2 ausgegengen, ob NV wirklich gleich auf 8x2 umbessert?Warum 6x2 Quatsch ist, habe ich schon des öfteren begründet :)

LudiKalell
2004-02-28, 03:02:42
@aths..

sieht so aus als wüsste da jemand etwas aus erster Hand, hat aber eine NDA unterschrieben.. aber dafür biste ja ganz schön gesprächig, hmmmm ???

betasilie
2004-02-28, 03:03:32
Original geschrieben von LudiKalell
@aths..

sieht so aus als wüsste da jemand etwas aus erster Hand, hat aber ein NDA unterschrieben.. aber dafür biste ja ganz schön gesprächig, hmmmm ???
Keine Effekte bitte! :|

LudiKalell
2004-02-28, 03:04:07
?!?!?!??! was meinst du damit ?

Ailuros
2004-02-28, 04:22:55
Kleine Seitennotiz zu der Anzahl von samples: der wahre Nutzen von sehr hoher Anzahl von samples haengt fuer den Endverbraucher von mehreren Faktoren ab.

a) Welche Spiele/Applikationen (alt oder neu).

b) Groesse des verwendeten Monitors (1024*768 als Beispiel ist nicht das gleiche Bier auf 15" und auf 21"). In der Mehrzahl der Faelle ist es mir lieber wenn ich nicht gezwungen werde in Spielen eine niedrigere Aufloesung als die desktop Aufloesung zu verwenden.

c) Dann erst die verwendete Aufloesung fuer jedes spezifische Spiel und das Dilemma was und wo zu benutzen, Leistung auch mitberechnet.

Bei heutigen R3xx Loesungen kann man 6xAA in hohen Aufloesungen eher seltener benutzen; ob die neue Generation um vieles besser sein wird mit 8xAA in hohen Aufloesungen ist abzuwarten; ich bezweifle aber dass es viel Luft zum atmen geben wird bei =/>1280. Natuerlich bin ich froh und begeistert auf eine 8x sparse Option, aber eigentlich noch mehr dass Spiele endlich spielbar sein werden in einer weit groesseren Anzahl als zuvor mit 4xAA in 1600. In 1600 erwarte ich ja auch die erwarteten 2*N oder 3*N Leistungs-differenzen im Vergleich zu vorigen Loesungen und nicht in 800*600/1024*768.

Godmode
2004-02-28, 09:13:05
Original geschrieben von nggalai
Dazu sag ich einfach mal NDA. Und NV hat da auf ihre eh schon ziemlich harte Version bei der NV4x noch ein wenig draufgegeben. Ist noch nicht abartig, aber son Teil hab' ich das letzte mal von IBM zu sehen gekriegt. Womit ich nicht sage, dass ich die NDA unterzeichnet hätte. Dann dürfte ich das hier noch nicht mal erwähnen, if you get my drift. ;)

Ich darf kein Datum nennen, aber bis auf einen Mutz haben alle dasselbe Datum für den Verfall desselben genannt, und lang' dauert's nicht mehr. Und ohne jetzt gross Cocktease zu spielen oder prollen zu wollen ... seit den ersten GF3-Dokus hab' ich mich nicht mehr so auf einen Launch seitens NVIDIA gefreut wie hier. Und ich fahr im Büro ATI-Karten, das soll was heissen ...

93,
-Sascha.rb
Also wenn ich da deinen Post so lese, dann kann ich mir wirklich vorstellen, dass der NV40 eine Bombe wird :) Wär auch gut für Nvidia. Aber woher bekommt ihr solche Infos? Seid ihr bei ATI oder Nvidia Beta-Tester oder so etwas? oder bekommt ihr die Infos vom Developer-Support??

reunion
2004-02-28, 11:01:12
Original geschrieben von aths
Warum 6x2 Quatsch ist, habe ich schon des öfteren begründet :)

Die tatsache dass NV bis jetzt immer zweierpotenzen benutzt hat halte ich für keine begründung ;)

Wobei wie es jetzt aussieht und nach dem was nggalai so gepostet hat wir es vermutlich sowieso 8x2...

reunion
2004-02-28, 11:02:53
Original geschrieben von Quasar
Seit sie acht Z/Stencil-Writes pro Takt machen können. IIRC also seit dem nV30. =)


Trozdem sinds nur 4 Pipes ;)

Demirug
2004-02-28, 11:09:47
Original geschrieben von reunion
Trozdem sinds nur 4 Pipes ;)

Nein, ein Vektorrechner der mit 4 Vector4 Elementen rechnet (stellen weise aber auch mal mit mehr).

"Echte" 4 Pipelines hat zum Beispiel der P10.

robbitop
2004-02-28, 12:03:46
also sind keine nativen Skalaren Einheiten im Rechenwerk vorhanden?

So richtig von Pipelines kann man seit CineFX auch nicht mehr sprechen.


Wegen NV40 = Bombe
Wenn das Gerücht stimmt dass der NV45 vorgezogen worden ist und nun NV40 heisst (deswegen auch die 3-4 Monatige Verspätung??) dann sollte es ja auch so sein, dass das jetzt eine Bombe wird. Der war, wenn das stimmt, nämlich erst für den Sommer gedacht. Nun ist NV45 bloss ein PCI-E Ableger vom "neuen" NV40
wer weiss ob das stimmt...

Sunrise
2004-02-28, 12:29:54
Original geschrieben von robbitop
...Der war, wenn das stimmt, nämlich erst für den Sommer gedacht. Nun ist NV45 bloss ein PCI-E Ableger vom "neuen" NV40 .. wer weiss ob das stimmt...
Du meinst du glaubst es erst, wenn du es siehst oder ? :)

aths
2004-02-28, 12:40:05
Original geschrieben von reunion
Die tatsache dass NV bis jetzt immer zweierpotenzen benutzt hat halte ich für keine begründung ;)Die Tatsache, dass das Speicherinterface auf 256 Bit DDR basiert, kommt noch dazu. Sowie die Tatsache, dass eine Verdopplung der Architektur schlicht Not tut.

aths
2004-02-28, 12:40:11
Original geschrieben von LudiKalell
@aths..

sieht so aus als wüsste da jemand etwas aus erster Hand, hat aber eine NDA unterschrieben.. aber dafür biste ja ganz schön gesprächig, hmmmm ??? Lies meine Postings – wirkliche Informationen sind denen nicht zu entnehmen. Daraus wäre zu schließen, dass ich entweder keine wirklichen Informationen habe, oder sie noch nicht preisgeben darf.

Einen Technik-Artikel zum NV40 wird es natürlich auf 3DCenter geben, die Frage ist nur, wann. Entweder, wir stehen unter NDA und haben den Artikel zum Launch, oder wir sind genauso schlau wie die anderen, und bringen zum Launch eine Zusammenfassung des bisher bekannten, und später durch Analysen herausgefundene tiefergehende Details.

Godmode
2004-02-28, 12:43:02
Original geschrieben von robbitop
also sind keine nativen Skalaren Einheiten im Rechenwerk vorhanden?

So richtig von Pipelines kann man seit CineFX auch nicht mehr sprechen.


Wegen NV40 = Bombe
Wenn das Gerücht stimmt dass der NV45 vorgezogen worden ist und nun NV40 heisst (deswegen auch die 3-4 Monatige Verspätung??) dann sollte es ja auch so sein, dass das jetzt eine Bombe wird. Der war, wenn das stimmt, nämlich erst für den Sommer gedacht. Nun ist NV45 bloss ein PCI-E Ableger vom "neuen" NV40
wer weiss ob das stimmt...

Und warum sollte Nvidia eigentlich den NV45 vorgezogen haben? War der NV40 wieder etwas zu schlecht/langsam? Wie sie erfahren haben das ATI vielleicht keine PS3.0 haben wird und sie dafür aber in 2.0 mit Roh-Power protzen werden, könnten sie sich ja entschieden haben das sie gleich den Refresh Chip zum NV40 machen um ATI auch in 2.0 Shadern schlagen zu können. Ich frage mich hier allerdings ob das wirklich dafür steht den Chip um 3-4 Monate zu verschieben, denn wenn ATI zur CeBit den R420 Launcht, dann liese Nvidia ja ATI den ganzen Markt für eine relativ lange Zeit ganz alleine über!! Deshalb kähme für mich ein baldiger Paperlaunch in Frage, um die Käufer zu überzeugen das der NV40 besser sein wird als der R420. Aber ist das möglich das sie einfach den NV40 überspringen und gleich den Refresh-Chip produzieren? oder werden die Samples sowiso gleichzeitig hergestellt?

aths
2004-02-28, 12:49:44
Original geschrieben von bans3i
Deshalb kähme für mich ein baldiger Paperlaunch in Frage, um die Käufer zu überzeugen das der NV40 besser sein wird als der R420.Uh, "käme" bitte ohne "h" :)

Wozu Paperlaunch, wenn jetzt alle über 16 Pipelines reden? Diesem Treiben sehe ich mit einem gewissen Amüsement zu. So lange war seitens NV alles dicht, jetzt haben sie entweder eine Info vorab geleakt, oder irgendwer schnitt sich das mit den 16 aus den Rippen.

Auf die Anzahl der Pipes kommt es gar nicht an. Das sehe ich wie Ailuros. Wichtig ist, "was hinten rauskommt", das wird unter anderem von der Anzahl der TMUs bestimmt. Weil 16 > 8, scheinen alle zu denken, das wär's jetzt für ATI.
Original geschrieben von bans3i
Aber ist das möglich das sie einfach den NV40 überspringen und gleich den Refresh-Chip produzieren? Ich denke, es wird später eine Art NV48 geben, welcher zumindest ein Speed-Upgrade darstellt. Vielleicht analysieren sie auch Schwachstellen im NV40 und können davon einiges für den Refresh noch ausbügeln.

aths
2004-02-28, 12:55:37
Original geschrieben von Quasar
Texturkoordinaten lesen/schreiben, AFAIK. Aber eben nur "AFAIK". :) Texturkoordinaten? TMUs erzeugen Textur-Samples (dazu müssen sie natürlich erst mal die Koordinaten lesen.)

Godmode
2004-02-28, 13:01:03
Sry ich bin echt zu blöd zum Rechtschreiben :)!! wär vielleicht besser wenn ich meine Postings vorher in Word schreibe und die Rechtschreibprüfung durchlaufen würde!!

Aber zum Thema! Waren wir nicht schon mal dabei das wir das ganze Pipepline Konzept vergessen und uns darauf konzentrieren was hinten rauskommt. Zb wieviel TOps, AOps... ein Chips schafft, aber wir kamen da wieder auf keinen gemeinsamen Nenner da zB bei der CineFX/II Architekur bis jetz nicht genau gesagt werden kann was sie jetzt effektiv hinten rausbringt! Oder liege ich hier falsch?

aths
2004-02-28, 13:09:31
Die Rechtschreibung geht schon.

Die Frage ist nicht nur, wieviel T- und A-Ops könnte NV40 pro Takt rechnen. Sondern auch, wieviel wird pro Takt und wann gebraucht. Zeckensack hat hier http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1597046#post1597046 mal gezeigt, wie scheinbar starke Leistung verballert werden kann. Um auch in der Praxis rechenstark zu sein, müssen die Combiner nicht nur mächtig sein, sondern sich auch flexibel schalten lassen. Wäre es Nvidia gelungen, CineFX-2 so gut auszulasten wie ATI den R300 auslasten kann, gäbe es shadermäßig nicht diese großen Unterschiede.

robbitop
2004-02-28, 13:13:01
@sunrise
nein ich glaube auch jetzt daran aber ich habes aus gutem Grund so betont ;)

@bans3i
ich weiss nicht genau warum der NV45 "angeblich" vorgezogen worden ist. Ich denke mal, man wollte kein Risiko eingehen, nocheinmal eingesackt zu werden und mit aller Macht den Tron.

Mal schauen was NV48 bringt...ich könnte mir neben höheren Taktraten noch Optimierungen am Prozess und evl einen Shrink vorstellen, inwieweit Änderungen an der Architektur vorgesehen sind, ist für mich nicht absehbar.

Gast
2004-02-28, 13:39:17
Einen Shrink? Mal so eben machbar ist das nicht. Das kostet richtig Geld und das muss erst mal wieder reingeholt werden. Davon mal abgesehen halte ich den Zeitpunkt eines Shrinks, wenn man so von 6 bis 8 Monaten nach Einfuehrung des NV40 ausgeht, etwas frueh sprich es doch sehr sehr gewagt so einen Transistorilla, ausgehend von 210 Mios, mit 110nm anzupacken.

Hauwech
2004-02-28, 13:43:44
Der Gast da oben war ich bleh...

Was ich noch sagen wollte: Ein Shrink lohnt sich vielleicht dann erst wenn Billy DX-Next wirklich erst mit Longhorn rausrueckt und NVATI die Zeit bis NV50/R500 ueberbruecken wollen bzw muessen.

robbitop
2004-02-28, 13:46:03
wenn man bedenkt dass beim Nv50/R500 schon 90nm zum einsatz kommen und diese beiden in ca 1 Jahr fertig sind, klingt das plausibel. Die Midrangegeschosse sollen ja auch in ein paar Monaten in 110nm gefertigt werden. 130nm kam im GPu Bereich recht spät und sollte mit ~200Mio Transistoren und 500-600Mhz (ich weiss zu allg usw) wirklich an der Grenze sein.

@aths
Frage: Wenn CineFX genausogut ausgelastet wäre wie R300 hätte man trotzdem noch den nachteil von 1/2 Peakleistung. Oder übersehe ich etwas?

Xmas
2004-02-28, 14:25:32
CineFX-2 hat mehr als die halbe Peakleistung, dazu sind NV35/38 hoch getaktet.

Grob gesagt:
CineFX-2: 8T+4A oder 8A
R3x0: 8T+8A

In beiden komplett limitierenden Fällen (T=0 oder A=0) ist die Leistung gleich. Hat man allerdings ein Mittelding (T=A) so braucht CineFX-2 drei Takte für 16T+16A, R3x0 nur zwei.

Das ist natürlich nur eine grobe Betrachtung, die Abhängigkeiten der Berechnungen sowie das Phasenmodell bei R3x0 außer Acht lässt.

aths
2004-02-28, 14:26:26
Original geschrieben von robbitop
@aths
Frage: Wenn CineFX genausogut ausgelastet wäre wie R300 hätte man trotzdem noch den nachteil von 1/2 Peakleistung. Oder übersehe ich etwas? Da empfehle ich Demirugs Artikel. Es steht die Frage, welche Operationen man zur theoretischen Maximalleistung hinzuzählt.

robbitop
2004-02-28, 14:30:16
war der R3xx nicht zu 24Ops/Takt fähig?
16AOps und 8TOps??

beim Nv35 8A ops oder 8T Ops und 4AOps

Demirug
2004-02-28, 14:48:33
Kurzfassung:

R300: 8*T + (8*V4A | (8*V3A + 8*SA))

(4*V3A + 4*SA) unterliegt bestimmten Begrenzungen.

NV35: (8*T | 4*V4A) + (4*V4A | 8*V4A) (ohne FX12)

Die zweiten 4*V4A sind allerdings auf Operationen begrenzt welche sich mit einer MUL und/oder einer ADD Einheit realisieren lassen.

Um die 8*V4A nutzen zu können gibt es noch mehr zu beachten.

---

V4A = Vector4 A-OP
V3A = Vector3 A-OP
SA = Skalar A-OP

| = oder

StefanV
2004-02-28, 15:07:41
Original geschrieben von Demirug
Kurzfassung:

R300: 4*T + (4*V4A | (4*V3A + 4*SA))

(4*V3A + 4*SA) unterliegt bestimmten Begrenzungen.

NV35: (8*T | 4*V4A) + (4*V4A | 8*V4A) (ohne FX12)

Die zweiten 4*V4A sind allerdings auf Operationen begrenzt welche sich mit einer MUL und/oder einer ADD Einheit realisieren lassen.

Um die 8*V4A nutzen zu können gibt es noch mehr zu beachten.

---

V4A = Vector4 A-OP
V3A = Vector3 A-OP
SA = Skalar A-OP

| = oder

Öhm, Demi, bist du dir sicher, daß du hier den R300 nicht mit dem RV350 verwechselt hast?? :|

Demirug
2004-02-28, 15:11:53
Original geschrieben von Stefan Payne
Öhm, Demi, bist du dir sicher, daß du hier den R300 nicht mit dem RV350 verwechselt hast?? :|

Jaein. Ich war auf Pixelprozessorebene. Weil der R300 davon aber zwei muss man es natürlich noch mit 2multiplizieren was ich unterlassen haben.

LovesuckZ
2004-02-28, 15:46:02
Uttar:
Screw that.
16x1/32x0.
End of story.


hm...
http://www.beyond3d.com/forum/viewtopic.php?p=230015#230015

Godmode
2004-02-28, 16:04:17
Original geschrieben von LovesuckZ
Uttar:
Screw that.
16x1/32x0.
End of story.


hm...
http://www.beyond3d.com/forum/viewtopic.php?p=230015#230015

was ist den 32*0??

Exxtreme
2004-02-28, 16:09:22
Original geschrieben von bans3i
was ist den 32*0??
Bei Stencil- und Z-Operationen kann der Chip so arbeiten als ob er 32 Pipelines hätte. Bei Texturenoperationen ist es ein 16x1-Setup.

Godmode
2004-02-28, 16:13:38
Original geschrieben von Exxtreme
Bei Stencil- und Z-Operationen kann der Chip so arbeiten als ob er 32 Pipelines hätte. Bei Texturenoperationen ist es ein 16x1-Setup.

Also das würde dann bei der Doom3 Engine gut funktionieren!! Also wird der NV40 sehr gut mit Doom3 zusammen arbeiten?

DrumDub
2004-02-28, 16:15:39
Original geschrieben von LovesuckZ
Uttar:
Screw that.
16x1/32x0.
End of story.


hm...
http://www.beyond3d.com/forum/viewtopic.php?p=230015#230015

is doch egal, ob 8x2 oder 16x1.

Godmode
2004-02-28, 16:15:55
http://shortnews.stern.de/shownews.cfm?id=503973&u_id=262485

hihi gebt euch das mal ;D ;D ;D

zuerst hats die GameStar bei INQ abgeschrieben und jetz die Stern von Gamestar un die Daten werden immer lächerlicher

Exxtreme
2004-02-28, 16:18:37
Original geschrieben von DrumDub
is doch egal, ob 8x2 oder 16x1.
Bei einer ungeraden Anzahl der Texturschichten ist ein 16x1-Setup dem 8x2-Setup überlegen ... wenn kein trilinearer und/oder anisotroper Filter zum Einsatz kommt.

LovesuckZ
2004-02-28, 16:19:15
Original geschrieben von DrumDub
is doch egal, ob 8x2 oder 16x1.

Nein, ist es nicht (aus der Sicht eines Laien):
Einersets ist man unter Singletexturing Games deutlich schneller (was ich eigentlich nicht verstehe), andererseits erreiche man bei PS2.0 games nur auch bei einem Verhältnis von 1T:1A die optimalste Performance und nicht erst bei 2:1.
Ausserdem braeuchte man bei den Midrangekarten nun keine weiteren Transistoren "verschwenden", um die Singletexturingoptimierung aufrecht zu erhalten.

deekey777
2004-02-28, 16:20:58
Original geschrieben von bans3i
http://shortnews.stern.de/shownews.cfm?id=503973&u_id=262485

hihi gebt euch das mal ;D ;D ;D

In Half-Life 2 sind spezielle Berechnungen enthalten, die die neue Geforce ca. 600 Mal schneller abarbeitet als die Geforce FX 5950 Ultra. Außerdem sind bei den Neuerungen GDDR3-Grafikspeicher sowie DirectX 9.0c-Unterstützung zu finden.

Die Gamestar:
Spezielle Berechnungen bei Half-Life 2 soll die neue Geforce (Codename NV40) bis zu 600 Prozent schneller abarbeiten als noch die Geforce FX 5950 Ultra (NV38).

Nicht einmal abschreiben können die richtig.

Zum Thema:
Spekulation: Der NV40 HW mässig nur auf Doom 3 optimiert?

LovesuckZ
2004-02-28, 16:21:49
Original geschrieben von Exxtreme
Bei einer ungeraden Anzahl der Texturschichten ist ein 16x1-Setup dem 8x2-Setup überlegen ... wenn kein trilinearer und/oder anisotroper Filter zum Einsatz kommt.

So frech wie ich bin, widerspreche ich dir mal.
Wenn man sich die Ergebnisse einiger Benchmarks anguckt, die Singletexturing betreiben (UT2004 Map Convoy), liegt die 5700U gleichauf mit einer 5900XT, trotz trilinearer Filterung...
Ergo bleibt die 2. TMU weiterhin Brach liegen, egal ob Trilinear, ansiotrop oder sonstiger Flterung.

Exxtreme
2004-02-28, 16:24:21
Original geschrieben von bans3i
Also das würde dann bei der Doom3 Engine gut funktionieren!! Also wird der NV40 sehr gut mit Doom3 zusammen arbeiten?
Theoretisch ja ... wenn die Gerüchte stimmen.

CrazyIvan
2004-02-28, 16:24:51
Uttar = glaubwürdige Quelle?

Wer ist der Mensch?

Exxtreme
2004-02-28, 16:27:21
Original geschrieben von LovesuckZ
So frech wie ich bin, widerspreche ich dir mal.
Wenn man sich die Ergebnisse einiger Benchmarks anguckt, die Singletexturing betreiben (UT2004 Map Convoy), liegt die 5700U gleichauf mit einer 5900XT, trotz trilinearer Filterung...
Ergo bleibt die 2. TMU weiterhin Brach liegen, egal ob Trilinear, ansiotrop oder sonstiger Flterung.
Bist du sicher, daß hier nicht die CPU limitiert oder vlt. auch der Treiber? Es kann aber auch sein, daß es eine Hardwarelimitierung ist.

Godmode
2004-02-28, 16:27:53
Original geschrieben von CrazyIvan
Uttar = glaubwürdige Quelle?

Wer ist der Mensch?

Uttar ist glaube ich zu wissen auch ein Guru was 3D-Grafik betrifft. Er ist bei uns sogar im Forum aktiv, ob er aber so fachkundig wie Demi ist weis ich leider nicht, bin noch nicht so lange hier.

Sunrise
2004-02-28, 16:27:54
Gamestar:
"...Ob ATIs nächster Chip (R420) da mithalten kann, bleibt abzuwarten. Spezielle Berechnungen bei Half-Life 2 soll die neue Geforce (Codename NV40) bis zu 600 Prozent schneller abarbeiten als noch die Geforce FX 5950 Ultra (NV38)."

shortnews.stern.de:
"...In Half-Life 2 sind spezielle Berechnungen enthalten, die die neue Geforce ca. 600 Mal schneller abarbeitet als die Geforce FX 5950 Ultra."

http://www.forum-3dcenter.org/vbulletin/images/icons/icon14.gif

Ich muss zugeben, ich bin eben vom Stuhl gefallen, einfach göttlich.

EDIT: deekey777 - LOL

Godmode
2004-02-28, 16:31:03
Original geschrieben von Sunrise
Gamestar:
"...Ab ATIs nächster Chip (R420) da mithalten kann, bleibt abzuwarten. Spezielle Berechnungen bei Half-Life 2 soll die neue Geforce (Codename NV40) bis zu 600 Prozent schneller abarbeiten als noch die Geforce FX 5950 Ultra (NV38)."

shortnews.stern.de:
"In Half-Life 2 sind spezielle Berechnungen enthalten, die die neue Geforce ca. 600 Mal schneller abarbeitet als die Geforce FX 5950 Ultra."

http://www.forum-3dcenter.org/vbulletin/images/icons/icon14.gif

Ich muss zugeben, ich bin eben vom Stuhl gefallen, einfach göttlich.

EDIT: deekey777 - LOL

Ich bin zu faul gewesen um mich dort zu registrieren, aber wenn ich da ne Bewertung abgeben könnte, würde ich den News-Schreiber mal auf seine Schlampigkeit aufmerksam machen, oder ihn einfach zur Sau machen :)

LovesuckZ
2004-02-28, 16:31:23
Original geschrieben von Exxtreme
Bist du sicher, daß hier nicht die CPU limitiert oder vlt. auch der Treiber? Es kann aber auch sein, daß es eine Hardwarelimitierung ist.

http://www.xbitlabs.com/articles/video/display/ut2004_5.html

Benutzt Warcraft3 eigentlich trilineare Filterung? ( http://www.gamepc.com/labs/view_content.asp?id=gffx5900xt&page=9 )

Gast
2004-02-28, 16:49:33
sind wohl nicht 600mal sonder 600%.
das entspricht 6 mal schneller.

weiss eigentlich einer wann sie hier dann zu kaufen ist, die geforce 6 fx?

Godmode
2004-02-28, 16:57:09
Original geschrieben von Gast
sind wohl nicht 600mal sonder 600%.
das entspricht 6 mal schneller.

weiss eigentlich einer wann sie hier dann zu kaufen ist, die geforce 6 fx?


Ja das ist ja das lustige daran!! Woher weisst du den dass der NV40 Geforce 6 Fx heißen wird?

robbitop
2004-02-28, 17:45:33
hm bei Stalker ist es ähnlich
auch hier erst ab 2xAF deutliche Unterschiede zw 5900 und 5700. Kann es sein, dass brilinear oder die Stageoptimierung etwas damit zu tun hat?

aber UT2004 soll stark CPU limitiert sein.

zeckensack
2004-02-28, 18:23:04
Ist doch eh wurscht. Die FX5700U ist ein völlig überflüssiges Produkt, genauso wie all die anderen Ultras auch, oder auch die MX460.
A (http://www.geizhals.at/deutschland/?fs=5900+XT&x=0&y=0) B (url=http://www.geizhals.at/deutschland/?fs=5700+Ultra&x=0&y=0)

Diese Karten existieren einzig und allein für Reviews.
(bei den jeweils absoluten High-End-Karten gibt's natürlich noch andere Gründe, aber auch nicht soo viele)

LovesuckZ
2004-02-28, 18:34:18
Original geschrieben von zeckensack
Ist doch eh wurscht. Die FX5700U ist ein völlig überflüssiges Produkt[...]

Das hat jetzt mit was zu tun?

zeckensack
2004-02-28, 18:38:42
Original geschrieben von LovesuckZ
Das hat jetzt mit was zu tun? Mit dem von dir verlinkten Einzelfall (http://www.gamepc.com/labs/view_content.asp?id=gffx5900xt&page=9), in dem die 5700U (sinnloses Produkt) die 5900XT (attraktives Produkt) schlägt.

Ich wollte damit nur sagen, dass es sich nicht lohnt, sich über das "wieso" den Kopf zu zerbrechen. Es sind eben Einzelfälle, und dadurch wird das Produkt nicht kaufenswert.

(bzw nicht kaufenswerter als es ohne diese Einzelfälle ist, und das ist in diesem Fall nunmal quasi Null, angesichts der hauseigenenen Konkurrenz)

Noch'n edit:
Ich sehe gerade, angesichts des xbitschen Reviews hätte man das glatt als FanATIsmus werten können. Öhm, sorry.
Trotzdem könnte ich niemandem mit gutem Gewissen eine 5700U empfehlen.

LovesuckZ
2004-02-28, 18:48:09
Original geschrieben von zeckensack
Trotzdem könnte ich niemandem mit gutem Gewissen eine 5700U empfehlen.

Wer will denn hier wem was empfehlen?
Ich habe es nur verlinkt, um auf zu zeigen, dass es nicht egal waere, ob 8x2 oder 16x1...

robbitop
2004-02-28, 19:11:30
Zecki du Spammer :D

wir fragten uns wie LS bereits sagte nur warum dieser Effekt auftritt. Hinterfragen statt hinnehmen ist die bessere Methode imo.

reunion
2004-02-28, 19:20:13
Original geschrieben von LovesuckZ
Uttar:
Screw that.
16x1/32x0.
End of story.


hm...
http://www.beyond3d.com/forum/viewtopic.php?p=230015#230015

Halte ich für völlig unrealistisch, als man beim R420 mit 16x1 spekulierte wurde sofort von blödsinn gesprochen und jetzt wo INQ irgendwas von 16 Pipes beim NV40 schreibt glauben sofort alle an 16x1. :bonk:

LovesuckZ
2004-02-28, 19:23:06
Original geschrieben von reunion
Halte ich für völlig unrealistisch, als man beim R420 mit 16x1 spekulierte wurde sofort von blödsinn gesprochen und jetzt wo INQ irgendwas von 16 Pipes beim NV40 schreibt glauben sofort alle an 16x1. :bonk:

Das einzgiste, was dagegen sprach war die bandbreite. Dies gilt natuerlich auch jetzt noch.
Da ATi aber wohl auf Tri TMUs umsteigen werde, sehe ich kein problem darin, dass Nvidia eben auf reale 16 Pipes gehe.

Gast
2004-02-28, 19:26:37
Original geschrieben von bans3i
Ja das ist ja das lustige daran!! Woher weisst du den dass der NV40 Geforce 6 Fx heißen wird?


http://www.gamestar.de

reunion
2004-02-28, 19:31:56
Original geschrieben von LovesuckZ
Das einzgiste, was dagegen sprach war die bandbreite. Dies gilt natuerlich auch jetzt noch.


Eben, NV verwendet schon beim NV38 der über ein 4x2 Design verfügt 475mhz getackteten DDR RAM, beim einem 16x1 Chip mit ähnlichen(warscheindlich sogar höheren) Chiptakt braüchte man mindestens einen mit 1ghz getackteten RAM, was zurzeit eben bei weitem nicht machbar ist.


Da ATi aber wohl auf Tri TMUs umsteigen werde, sehe ich kein problem darin, dass Nvidia eben auf reale 16 Pipes gehe.

1.) Weiss man noch nicht was ATI macht
2.) Wie schon gesagt nur weil INQ(die ja bekanntlich viel blödsinn schreiben) etwas von 16 Pipes und 210 Mio Transistoren schreibt glauben alle sofort an 16 Pipes...

Demirug
2004-02-28, 19:58:37
reunion, natürlich schreibt INQ viel Blödsinn was zum grössten teil daran liegen dürfte das sie grundsätzlich alles schreiben was sie auftreiben können. Dabei passiert es zwangsläufig das aus einer ursprünglich richtigen Information bis sie bei INQ landet etwas ganz anderes wird weil dazwischen zu viele Leute ohne den technischen Sachverstand als überträger arbeiten.

Das "16 Pipeline" Gerücht ist in anderer (mehr technischer) Form schon vor längerem einmal aufgetaucht. Nachdem 8 Pipeline PR-Stunt beim NV30 ist auch durchaus verständlich das man dem ganzen jetzt keinen glauben schenkt.

Die IMHO entscheidenden Fragen bei diesem ganzen Spiel sind:

Was ist eine Pipeline?
Wo begint und endet sie?
Was gehört zu ihr und was nicht?

Im Falle der INQ Meldung sollte man sich Frage stelle ob das ganze am Anfang der Kette wirklich "16 Pipelines" waren oder nicht etwas anderes was dann zu 16 Pipelines mutiert ist weil es jemand vereinfacht hat damit es ein anderer versteht.

Gast
2004-02-28, 20:10:18
Original geschrieben von reunion
Eben, NV verwendet schon beim NV38 der über ein 4x2 Design verfügt 475mhz getackteten DDR RAM, beim einem 16x1 Chip mit ähnlichen(warscheindlich sogar höheren) Chiptakt braüchte man mindestens einen mit 1ghz getackteten RAM, was zurzeit eben bei weitem nicht machbar ist.


Dat würd ick jetze mal bestreiten, da der nV38 ja ja keenen Nutzen aus seim vielen Speichertakt ziehen tut. Der is doch blos dafür da, daß man gut Werbung machen kann und beim sinnlosen 4xAA nich einbrechen tut.

Ein 16x1(bi) Design kann mit 600-650MHz bei 256Bit realer und 512Bit logischer Breite durchaus genügend versorgt werden, behaupte ich mal. (Weil, dat is jenau doppelt soviel, wie die R9700p gehabt haben tat und die hatte ja jenuch Bandbreite bei 8x1)

LovesuckZ
2004-02-28, 20:15:09
Original geschrieben von Gast
Ein 16x1(bi) Design kann mit 600-650MHz bei 256Bit realer und 512Bit logischer Breite durchaus genügend versorgt werden, behaupte ich mal. (Weil, dat is jenau doppelt soviel, wie die R9700p gehabt haben tat und die hatte ja jenuch Bandbreite bei 8x1)

Sowie ich das mitbekommen habe, spiel die Bandbreite bei PS2.0 laestigen Anwendungen kaum eine Rolle.
Man verliere also in der reinen Performance unter DX7/DX8 ein bisschen Leistung bzw. erhaelt nicht das Optimum.

Demirug
2004-02-28, 20:23:02
Original geschrieben von Gast
Ein 16x1(bi) Design kann mit 600-650MHz bei 256Bit realer und 512Bit logischer Breite durchaus genügend versorgt werden, behaupte ich mal. (Weil, dat is jenau doppelt soviel, wie die R9700p gehabt haben tat und die hatte ja jenuch Bandbreite bei 8x1)

Die 9700 Pro hat einen Chip takt von 325 MHz bei 310 MHz Speichertakt.

Für den NV40 erwartet man einen Chiptakt um die 500 und einen Speichertakt um die 600 MHz. Von der Verdopplung des Speichertakts bliebt also aufgrund des höheren Chiptakts nicht die Hälfte für 8 zusätzliche vollständige Pipelines übrig.

Exxtreme
2004-02-28, 20:25:07
Original geschrieben von Gast
Ein 16x1(bi) Design kann mit 600-650MHz bei 256Bit realer und 512Bit logischer Breite durchaus genügend versorgt werden, behaupte ich mal. (Weil, dat is jenau doppelt soviel, wie die R9700p gehabt haben tat und die hatte ja jenuch Bandbreite bei 8x1)
Vergiss aber nicht, daß die R9700Pro einen Chiptakt von 325 MHz hat. Für die neue Generation werden 500 - 600 MHz erwartet. Hier bräuchtest du einen Speichertakt von echten 1000 - 1200 MHz.

robbitop
2004-02-28, 20:52:35
ich hatte allerdings den Eindruck dass die R9700 Reihe nicht Speicherlimitiert war sondern arg an der Rohleistung. Dasselbe gilt auch für die FX5900 Reihe.
Ich hatte das Gefühl 9500pro und 5800 waren fast im Gleichgewicht was beide Limitierungen angeht (aber anhand von ein paar Benches kann ich natürlich nur subjektive Eindrücke schildern)

Evil Ash
2004-02-28, 21:03:06
Original geschrieben von Gast
sind wohl nicht 600mal sonder 600%.
das entspricht 6 mal schneller.

weiss eigentlich einer wann sie hier dann zu kaufen ist, die geforce 6 fx?


prozentrechnung ist auch nicht so deine stärke, oder ?

reunion
2004-02-28, 21:14:23
Original geschrieben von Demirug
reunion, natürlich schreibt INQ viel Blödsinn was zum grössten teil daran liegen dürfte das sie grundsätzlich alles schreiben was sie auftreiben können. Dabei passiert es zwangsläufig das aus einer ursprünglich richtigen Information bis sie bei INQ landet etwas ganz anderes wird weil dazwischen zu viele Leute ohne den technischen Sachverstand als überträger arbeiten.

Das "16 Pipeline" Gerücht ist in anderer (mehr technischer) Form schon vor längerem einmal aufgetaucht. Nachdem 8 Pipeline PR-Stunt beim NV30 ist auch durchaus verständlich das man dem ganzen jetzt keinen glauben schenkt.

Die IMHO entscheidenden Fragen bei diesem ganzen Spiel sind:

Was ist eine Pipeline?
Wo begint und endet sie?
Was gehört zu ihr und was nicht?

Im Falle der INQ Meldung sollte man sich Frage stelle ob das ganze am Anfang der Kette wirklich "16 Pipelines" waren oder nicht etwas anderes was dann zu 16 Pipelines mutiert ist weil es jemand vereinfacht hat damit es ein anderer versteht.

Schon klar...
Vermutlich wird irgendwass im NV40 16-fach vorhanden sein sodass man mit 16Pipes werben kann nur wage ich zu bezweifeln dass "alles" 16-fach vorhanden ist.

Und auch die 210 Mio Transitoren halte ich für völlig übertrieben...

reunion
2004-02-28, 21:16:25
Original geschrieben von Exxtreme
Vergiss aber nicht, daß die R9700Pro einen Chiptakt von 325 MHz hat. Für die neue Generation werden 500 - 600 MHz erwartet. Hier bräuchtest du einen Speichertakt von echten 1000 - 1200 MHz.

...und da es so schnell getackteten Speicher zurzeit nicht gibt, macht es einfach keinen Sinn solch einen Chip herauszubringen.

reunion
2004-02-28, 21:18:29
Original geschrieben von robbitop
ich hatte allerdings den Eindruck dass die R9700 Reihe nicht Speicherlimitiert war sondern arg an der Rohleistung. Dasselbe gilt auch für die FX5900 Reihe.
Ich hatte das Gefühl 9500pro und 5800 waren fast im Gleichgewicht was beide Limitierungen angeht (aber anhand von ein paar Benches kann ich natürlich nur subjektive Eindrücke schildern)

Die 5900 Reihe kann ich nicht beurteilen, die 9700pro ist allerdings bei höher Auflösung mit AA schon Bandbreitenlimitiert.

LovesuckZ
2004-02-28, 21:18:33
Original geschrieben von reunion
Schon klar...
Vermutlich wird irgendwass im NV40 16-fach vorhanden sein sodass man mit 16Pipes werben kann nur wage ich zu bezweifeln dass "alles" 16-fach vorhanden ist.

INQ spricht von realen Pipes. Aufgrund, dass sies dies so zum Ausdruck brachten, ist schon sehr glaubwürdig.

Und auch die 210 Mio Transitoren halte ich für völlig übertrieben...

Warum?

reunion
2004-02-28, 21:21:46
Original geschrieben von LovesuckZ
INQ spricht von realen Pipes. Aufgrund, dass sies dies so zum Ausdruck brachten, ist schon sehr glaubwürdig.


Womit wir wieder bei der Frage von Demirug sind was sind "echte" bzw. "reale" Pipes?
Wo begint bzw. endet sie?
Was gehört zu ihr und was nicht?


Warum?


Ziemlich viel, findest du nicht?

LovesuckZ
2004-02-28, 21:27:51
Original geschrieben von reunion
Womit wir wieder bei der Frage von Demirug sind was sind "echte" Pipes?

"full sixteen pipelines", also sowas wie die 4 Pipelines des NV30.

Ziemlich viel, findest du nicht?

Der NV20 soll laut THG.de 57Millionen Transistoren haben. Der r300 hat 107 und einen hoeheren Takt.
Der NV30 hat ca. 130 Millionen, nach den jüngsten Geruechten kommt der NV40 mit ca. 210 an. Im gegensatz zum NV20 <> r300 Vergleich ist dies nur eine Steigrung von 67%. Imo durchaus realistisch.

reunion
2004-02-28, 21:34:54
Original geschrieben von LovesuckZ
"full sixteen pipelines", also sowas wie die 4 Pipelines des NV30.

Ich haben es gelesen, nur macht es einfach keinen Sinn da die Bandbreite nicht vorhanden ist um so ein Monster zu bestücken.


Der NV20 soll laut THG.de 57Millionen Transistoren haben. Der r300 hat 107 und einen hoeheren Takt.
Der NV30 hat ca. 130 Millionen, nach den jüngsten Geruechten kommt der NV40 mit ca. 210 an. Im gegensatz zum NV20 <> r300 Vergleich ist dies nur eine Steigrung von 67%. Imo durchaus realistisch.

We will see...

mrdigital
2004-02-28, 21:35:35
ich finde MHz Abschätzungen anhand der Transistorzahl recht arg spekulativ, die höchst mögliche Taktfrequenz hängt nunmal nicht direkt von der Transistoranzahl sondern vom kritischen Pfad im Chip ab und der wird hauptsächlich von der Architektur und dem verwendeten Herstellungsprozess bestimmt.

LovesuckZ
2004-02-28, 21:39:23
Original geschrieben von reunion
Ich haben es gelesen, nur macht es einfach keinen Sinn da die Bandbreite nicht vorhanden ist um so ein Monster zu bestücken.

Der NV30 war bandbreitenlimitiert. Dies trat aber nur auf, wenn man Aufloesungen genommen hat, die über 1280*1024 liegen und gleichzeitig AA verwendet.
Mit AA ist wohl jede Architektur bandbreitenlimitierend. Und so wie ich Dave Baumann verstanden habe, spielt die Bandbreite bei PS2.0 laestigen Games keine so große Bedeutung (siehe auch 9600pro <> 5950U).

reunion
2004-02-28, 21:59:41
Original geschrieben von LovesuckZ
Der NV30 war bandbreitenlimitiert. Dies trat aber nur auf, wenn man Aufloesungen genommen hat, die über 1280*1024 liegen und gleichzeitig AA verwendet.
Mit AA ist wohl jede Architektur bandbreitenlimitierend. Und so wie ich Dave Baumann verstanden habe, spielt die Bandbreite bei PS2.0 laestigen Games keine so große Bedeutung (siehe auch 9600pro <> 5950U).

Natürlich bringt auch ein Bandbreitenlimitierte Karte wie z.B. die 9500pro anständige Leistung nur ist dass ganze eben extrem ineffizient. Warum einen teuren Chip entwickeln wenn man mit weniger Aufwand fast dieselbe Leistung erreicht da sowieso die Bandbreite limitiert?

Und dass mit der PS-Leistung ist auch kein Grund, man bräuchte ja nur die FP-Einheiten pro Pipe erhöhn...

LovesuckZ
2004-02-28, 22:04:57
Original geschrieben von reunion
Natürlich bringt auch ein Bandbreitenlimitierte Karte wie z.B. die 9500pro anständige Leistung nur ist dass ganze eben extrem ineffizient. Warum einen teuren Chip entwickeln wenn man mit weniger Aufwand fast dieselbe Leistung erreicht da sowieso die Bandbreite limitiert?

Tja, warum dann 8x1 Tru-TMU? Warum 8x2? Warum nicht bei 8x1brilinear bleiben?
Irgendwas wird immer der Flaschenhals sein, ob Fillrate, PS2.0 Leistung oder die Bandbreite. Solch Phrasen sind wohl kaum argumentativ, weil damit koennte man jede Veraenderung "wegdiskutieren", da irgendwas immer limitieren werde.

Und dass mit der PS-Leistung ist auch kein Grund, man bräuchte ja nur die FP-Einheiten pro Pipe erhöhn...

FP Einheiten erhoehen oder mehr Pipelines, für DX9 spielt wohl die Bandbreite eine geringere Bedeutung. Und für DX7/DX8 Games reicht auch 600MHZ Speicher locker aus.

zeckensack
2004-02-28, 22:10:14
Original geschrieben von reunion
Die 5900 Reihe kann ich nicht beurteilen, die 9700pro ist allerdings bei höher Auflösung mit AA schon Bandbreitenlimitiert. Das kann man so direkt nicht sagen :freak:
R300 hat nur 2 ROPs pro Pipeline, das heisst dass maximal 2xMSAA ohne Füllratenverlust laufen kann (8x315=2,52GP/s).
Bei 4xMSAA wird ein Strafzyklus fällig (8x315/2=1,26GP/s), bei 6xMSAA zwei (8x315/3=840MP/s).

Das sind allerdings die Maximalwerte, die nur bei bilinear single texturing (oder noch weniger) erreicht werden können. Im Gegenzug heisst das, wenn der Pixelprozessor "mehr" machen muss, ist dieser Effekt (Füllratenverlust) nicht mehr so deutlich zu spüren.

Bandbreite hat's IMO wirklich genug, MSAA-Buffer werden ja auch "komprimiert". Fette Probleme gibt's da eigentlich nur bei exzessivem Blending (siehe uA Piffan's Erlebnisse mit RotK (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=107608)).

Demirug
2004-02-28, 22:16:19
:D ich glaube langsam die 210M hat sich jemand aus den Watt errechnet. Wenn die Zahl aber für die ganze Karte gilt hätte man vorher noch den Speicher usw abziehen müssen. Dann wäre wir wieder bei etwa 170-175M.

reunion
2004-02-28, 22:18:34
Original geschrieben von Demirug
:D ich glaube langsam die 210M hat sich jemand aus den Watt errechnet. Wenn die Zahl aber für die ganze Karte gilt hätte man vorher noch den Speicher usw abziehen müssen. Dann wäre wir wieder bei etwa 170-175M.

Ist das ernst gemeint??

Exxtreme
2004-02-28, 22:19:52
Original geschrieben von Demirug
:D ich glaube langsam die 210M hat sich jemand aus den Watt errechnet. Wenn die Zahl aber für die ganze Karte gilt hätte man vorher noch den Speicher usw abziehen müssen. Dann wäre wir wieder bei etwa 170-175M.
Hrhrhr. Auf die Idee wäre ich überhaupt nicht gekommen ... anhand des Stromverbrauchs die Transistorzahl zu errechnen.

Demirug
2004-02-28, 22:20:54
Original geschrieben von reunion
Ist das ernst gemeint sein??

Ja, natürlich. Ich habe eben mal ein bischen rumgerechnet und es hat irgendwie gepasst.

Demirug
2004-02-28, 22:22:53
Original geschrieben von Exxtreme
Hrhrhr. Auf die Idee wäre ich überhaupt nicht gekommen ... anhand des Stromverbrauchs die Transistorzahl zu errechnen.

Ist mir spontan eingefallen. Eigentlich wollte ich nur überprüfen ob die 210 sich mit dem Stromverbrauch decken. Dabei bin ich dann auf diesen Zusammenhang gestossen.

reunion
2004-02-28, 22:25:10
Original geschrieben von LovesuckZ
Tja, warum dann 8x1 Tru-TMU? Warum 8x2? Warum nicht bei 8x1brilinear bleiben?


Vielleicht bleibt ATI ja bei 8x1bi, wer weiss?

LovesuckZ
2004-02-28, 22:27:54
Original geschrieben von reunion
Vielleicht bleibt ATI ja bei 8x1bi, wer weiss?

Unwahrscheinlich, weil man nicht davon ausgehen kann, dass Nvidia in der Richtung nichts veraendern werde.
So wie es aussieht, geht ATi wohl auf tri-tmu und Nvidia auf 8x2 (oder eben 16x1 fix) bi.

Exxtreme
2004-02-28, 22:29:23
Original geschrieben von Demirug
Ist mir spontan eingefallen. Eigentlich wollte ich nur überprüfen ob die 210 sich mit dem Stromverbrauch decken. Dabei bin ich dann auf diesen Zusammenhang gestossen.
ROFL, also Herrn :cop: FUAD :cop: traue ich es zu, daß er sowas macht. X-D

aths
2004-02-28, 22:40:05
Original geschrieben von bans3i
Uttar ist glaube ich zu wissen auch ein Guru was 3D-Grafik betrifft. Er ist bei uns sogar im Forum aktiv, ob er aber so fachkundig wie Demi ist weis ich leider nicht, bin noch nicht so lange hier. Uttar sammelt Spekulationen und bewertet sie mit erstaunlicher Treffsicherheit. Allerdings sitzt er – wie alle – auch mal einer Ente auf. Ich halte Demirugs Technikverständnis für größer, von Uttar wüsste ich jetzt nicht, dass er in DirectX anspruchsvolle Sachen programmiert.

Gast
2004-02-28, 22:48:58
Original geschrieben von Exxtreme
Vergiss aber nicht, daß die R9700Pro einen Chiptakt von 325 MHz hat. Für die neue Generation werden 500 - 600 MHz erwartet. Hier bräuchtest du einen Speichertakt von echten 1000 - 1200 MHz.

Seit neuestem doch nicht mehr, oder? Seit einige an die 16Pipe-Geschichte glauben, wird eher Richtung 400MHz spekuliert.

Ja was denn nu? Und selbst eine FX5800 war bis 2xAA auch in hohen Auflösungen nur seltenst bandbreitenlimitiert. Klar, mit mehr Bandbreite kriegt man immer noch ein Zehntel Frame mehr raus, aber drastische Einbrüche gab's erst mit 4xAA.

Xmas
2004-02-28, 23:09:43
Original geschrieben von Evil Ash
prozentrechnung ist auch nicht so deine stärke, oder ?
Etwa deine?


Ob sich bei der aktuell verfügbaren Bandbreite 16 Color/Z Outputs/Takt lohnen, ist eine Frage des Chiptaktes und der Kompression.

Bei 32 Z/Stencil ist es eigentlich recht einfach:
(32[read] +32[write]) * 32 = 2048 Bit pro Takt.
256 Bit DDR entspricht 512 Bit/Takt. Beim Speicherinterface muss man die Ineffizienz reinrechnen, ebenso die Geometrie- und RAMDAC-Bandbreite. Man muss also durch Kompression und Taktunterschied einen Faktor von etwa 4,2 erreichen. Das halte ich für machbar, weil sich Z- bzw. Stencil-Werte gut komprimieren lassen. Dazu reichen 600MHz bei 500MHz Chiptakt und 4:1 Z-Kompression (Bei effektiv 3,5:1). Und wahrscheinlich sieht das Verhältnis noch günstiger in Richtung Bandbreite aus, sprich 32Z wäre praktikabel.

Nehmen wir nun 16 Color/Z ohne Blending mit einer bilinear gefilterten Textur (als grobe Schätzung kann man IIRC 1 Texel externe BB pro Sample nehmen):
(32[Textur] + 32[Z read] + 32[Z write] + 32[color write]) * 16 = 2048 Bit pro Takt.
Sieht fast wie bei 32 Z/Stencil aus. Aber nur fast. Texturen lassen sich 4:1 komprimieren (DXT1), bei Z und Stencil bin ich oben von 3,5:1 ausgegangen. Bei Color Compression siehts dann aber mau aus, da geht kaum was, obwohl möglich.
Wie man es dreht und wendet, die Farbinformation haut heftig rein. Natürlich kommt es vor dass Z und Color Write wegfallen, aber das sollte durch Early-Z schon vorher zum großen Teil herausgefiltert werden. Auf der anderen Seite hat man durch Caches etwas mehr effektive Bandbreite.

Damit man bei 16 separaten (sprich, non-AA) Color/Z Outputs pro Takt nicht ständig Bandbreitenlimitiert ist, sollte IMO das Verhältnis Speichertakt zu Chiptakt 1,6:1 oder höher sein.

Nur — ist das überhaupt ein Fall der so häufig vorkommt dass man speziell darauf besonders optimieren muss? IMO nein. Die kleinere Granularität bringt gegenüber 8x2 schon Vorteile. Für das Antialiasing muss man sowieso mindestens 16 ROPs haben, und da greift auch die Color Compression. Zudem gibt es den Doom3-Fall, bei dem man nicht mal mehr ein Z-Write braucht (aber andererseits mehr Texturen). Insgesamt sieht es für mich so aus, als entsteht die Fähigkeit, 16 separate Color/Z-Outputs pro Takt zu unterstützen nicht daraus dass man sie unbedingt bräuchte, sondern weil es sich aus den drei genannten Punkten ergab.

Ailuros
2004-02-29, 00:38:00
Original geschrieben von bans3i
Uttar ist glaube ich zu wissen auch ein Guru was 3D-Grafik betrifft. Er ist bei uns sogar im Forum aktiv, ob er aber so fachkundig wie Demi ist weis ich leider nicht, bin noch nicht so lange hier.

Nicht dass ich wuesste was 3D Guru Zeug betrifft. Demirug ist in dem Fall um einige Welten als wahrer Profi entfernt.

Ich glaube ich muss ein bisschen genauer werden, obwohl ich bezweifle dass es trotzdem jemand glauben wird. Inquirer kam (unbekannt wie und von wem) auf ein vertrauliches "Papier" und hat dieses (ob mit Absicht oder nicht) falsch interpretiert. Da in der Zwischenzeit hinter den Kulissen bekannt wurde, wessen Unterschrift unter dem besagten "Papier" lag, wird jetzt ploetzlich Inquirer's Behauptung als absolute Fakte angesehen.

Gast
2004-02-29, 00:46:42
Original geschrieben von deekey777
Wenns schon gepostet, bitte löschen: Der Hammer!!! (http://www.gamestar.de/news/hardware/16499/)

"Nvidia erhöht die Anzahl der Rendering-Pipelines von acht auf -- das bestätigen aktuelle Meldungen -- gewaltige 16. Das steigert die FPS in aktuellen und künftigen 3D-Titeln drastisch. Ob ATIs nächster Chip (R420) da mithalten kann?"
Oder:"Weitere Neuerungen: Schnellerer GDDR3-Grafikspeicher und DirectX 9.0c-Unterstützung mit erweiterten Pixel- und Vertex-Shadern für mehr Details."

Autohersteller Trabant stellt auf der Motobot im März 2004 ausgewählten Journalisten und engen Partnern die nächste Trabbi-Generation vor. Dies meldet der LameStar in seiner am Mittwoch, den 3. März 2004, erscheinenden Ausgabe. Bei der Fahrleistung bahnt sich, wie Recherchen ergaben, eine Sensation an: Trabant erhöht die Anzahl der Zylinder von acht auf -- das bestätigen aktuelle Meldungen -- gewaltige 16. Das steigert die PS in aktuellen und künftigen Modellen drastisch. Ob Porsches nächster Motor (Boxer) da mithalten kann? Der Beschleunigunsvorgang soll der Trabant 6 (Codename Erich) bis zu 600 Prozent schneller sein als der Trabant 5 (Codename Lenin ). Auf der Autobahn erreicht das Eisenbündel angeblich die vierfache Lenin-Performance. Zudem unterstützt der Erich eine neue Funktion, die in Strassenverkehr mit Hunderten von Sonntagsfahrern Benzin sparen soll. Überholmanöver werden dann nur einmal ausgeführt und auf andere Trabante übertragen.

Weitere Neuerungen: Schnellerer Gangwechsel und Direkteinspritzung-Unterstützung mit erweiterten Verbrennung für mehr Tempo. Ausführlichere Informationen dazu und zur Höchstgeschwindigkeit, Kühlsystem und einem möglichen Termin lesen Sie im LameStar 04/2004.

quelle: www.Lamestar.de

AlfredENeumann
2004-02-29, 00:51:06
Original geschrieben von robbitop
ich hatte allerdings den Eindruck dass die R9700 Reihe nicht Speicherlimitiert war sondern arg an der Rohleistung.

So ist es auch. Der R300 war eher Füllraten limitiert als Bandbreite.

MadManniMan
2004-02-29, 01:26:28
Original geschrieben von Gast
Autohersteller Trabant stellt auf der Motobot im März 2004 ausgewählten Journalisten und engen Partnern die nächste Trabbi-Generation vor. Dies meldet der LameStar in seiner am Mittwoch, den 3. März 2004, erscheinenden Ausgabe. Bei der Fahrleistung bahnt sich, wie Recherchen ergaben, eine Sensation an: Trabant erhöht die Anzahl der Zylinder von acht auf -- das bestätigen aktuelle Meldungen -- gewaltige 16. Das steigert die PS in aktuellen und künftigen Modellen drastisch. Ob Porsches nächster Motor (Boxer) da mithalten kann? Der Beschleunigunsvorgang soll der Trabant 6 (Codename Erich) bis zu 600 Prozent schneller sein als der Trabant 5 (Codename Lenin ). Auf der Autobahn erreicht das Eisenbündel angeblich die vierfache Lenin-Performance. Zudem unterstützt der Erich eine neue Funktion, die in Strassenverkehr mit Hunderten von Sonntagsfahrern Benzin sparen soll. Überholmanöver werden dann nur einmal ausgeführt und auf andere Trabante übertragen.

Weitere Neuerungen: Schnellerer Gangwechsel und Direkteinspritzung-Unterstützung mit erweiterten Verbrennung für mehr Tempo. Ausführlichere Informationen dazu und zur Höchstgeschwindigkeit, Kühlsystem und einem möglichen Termin lesen Sie im LameStar 04/2004.

quelle: www.Lamestar.de

:lolaway:

...noch nie hab ich diesen Smiley gebraucht, aber DAFÜR hab ich ihn rausgesucht. Möchte noch jemand Argumente für gegen die Regpflicht? Dieser Post ist DAS TOTSCHLAGARGUMENT!


Zum Thema:

Ich habe im allgemeinen ein Problem mit der Informationslage. Gegen Spekulationen möchte ich beileibe nichts sagen, nur nervt mich regelrecht, daß stets und ständig ein Gerücht mit dem nächsten verknüpft wird. Wenn man eine Zusammenfassung der "Fakten" liest, so sträuben sich dem zurechnungsfähigen Leser doch arg schnell arg vielerlei Haarschaften. Inzwischen ist es gar so, daß ich Leos Spekulatiusartikeln wenig abgewinnen kann...

BTW @LS: du beschwerst dich im Vornherein darüber, daß sich wohl darüber mukiert werden würde, wie unsinnig noch besseres AA, als das 6*SG vom R3X0 ist, sodenn nV eben als Qualisieger aus dem Wettkampf geht?

:|

DU warst es, der sich mittels eines Chaser-Screenies (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=978396#post978396) über Sinn und Unsinn von 4*RG lustig machte. Bist doch nicht ganz so objektiv, wie du dich grad darstellst, gell? ;)

Aber halb so wild. Gibt Wichtigeres.