Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread NV40 (war: NV40 am 14. April)


Seiten : 1 [2] 3 4 5 6 7 8 9 10

Demirug
2004-03-22, 17:39:28
Original geschrieben von DrumDub
nur ist so keine vergleichbarkeit gegeben, da normalerweise 32bpp vorausgesetzt wird.

Wenn ich einfach nur wissen will wie viele Pixel/Takt ein Chip raushauen kann dann nehme ich 16bpp. Jeder der etwas anderes tut benutzt den Test nun eben mal einfach falsch.

Für die vergleichbarkeit nimmt man dann eben ein Spiel mit viel Single-Textur Einsatz.

DrumDub
2004-03-22, 17:45:31
Original geschrieben von Demirug
Wenn ich einfach nur wissen will wie viele Pixel/Takt ein Chip raushauen kann dann nehme ich 16bpp. Jeder der etwas anderes tut benutzt den Test nun eben mal einfach falsch.


hab ich auch nicht bestritten. nur ist dann die propagierte verdoppelung der fillrate in 32bpp real nicht existent wegen der bandbreitenlimitierung. daher war es schon ziemlich fies anfangs nicht zu sagen, dass der test bei 16bpp durchlief... ;)

Demirug
2004-03-22, 17:51:36
Original geschrieben von DrumDub
hab ich auch nicht bestritten. nur ist dann die propagierte verdoppelung der fillrate in 32bpp real nicht existent wegen der bandbreitenlimitierung. daher war es schon ziemlich fies anfangs nicht zu sagen, dass der test bei 16bpp durchlief... ;)

Verdoppelung? Gegenüber dem NV38 war es ja eher eine Vervierfachung. Klar war es fies und man hätte sich vorallem viel Ärger sparen können.

Ailuros
2004-03-22, 17:55:33
Original geschrieben von Demirug
Der einzige Unterschied zwischen 32bpp und 16bpp ist die Bandbreite. Will man die maximale Fillrate wissen sollte man den Modus nehmen der am wenigsten Bandbreite braucht. Der Test ist syntetisch also sollte man in auch entsprechend nutzen.

Ja aber nur weil beim Murks der Fuellraten Test so verkorkst ist, dass man eher Bandbreite als wahre Fuellrate misst.

Um das geht es mir ja gar nicht. Mich persoenlich als Laie interessieren eigentlich nur noch 32bpp/quad texturing Fuellraten mit zumindest 4xMSAA.

In SS:SE z.B. bekomm ich momentan mit dem obrigen ~700MPixels/s.

Liefert jetzt NV40 3x dieses dann bin ich wirklich beindruckt; wenn aber nur 2x, dann ist das >7GPixels/s Murks Resultat fuer mich leider nur BS.

robbitop
2004-03-22, 19:02:00
dachte ich mir doch dass man mit einem NV31/36 ähnlichen Double pumped Mode für Single Texturing daher kommt. Bei dem Füllraten ST Test und bei Stalker bringt das orderdlich Punkte ;)

r@e
2004-03-22, 19:09:30
Original geschrieben von AlfredENeumann
Eben. Und einen echten PS3.0 effekt, welcher nurmit PS3.0 ermöglicht werden kann, würde ich dann auch mal gerne sehen. Es würde wohl Effekte geben, die unter reinem PS2.0 keinen Sinn mehr machen, weil sie performance-seitig so aufwändig sind, dass PS2.0-Hardware damit nicht mehr klar kommt.

Insofern ich mir schon vorstellen kann, dass mit PS3.0-Hardware einfach mehr möglich ist, als mit PS2.0-Hardware... einfach aufgrund der möglichen Komplexität bestimmter Shader(-Kombinationen).

Razor

Demirug
2004-03-22, 19:16:23
Original geschrieben von robbitop
dachte ich mir doch dass man mit einem NV31/36 ähnlichen Double pumped Mode für Single Texturing daher kommt. Bei dem Füllraten ST Test und bei Stalker bringt das orderdlich Punkte ;)

Double pumped für Texturen und Quad pumped für Z/Stencil. Ist das nicht etwas zuviel des guten? Wir erinnern uns als Uttar damals auf 16*1 umgeschwenkt ist hat er sofort auch von 32*0 gesprochen.

robbitop
2004-03-22, 19:32:56
nö bei ZStencil Ops gehe ich von 16 aus ;)
zumal ich mich nicht auf Uttar bezog.

Xmas
2004-03-22, 21:59:39
Original geschrieben von robbitop
nö bei ZStencil Ops gehe ich von 16 aus ;)
zumal ich mich nicht auf Uttar bezog.
Etwa auf :cop: FUAD :cop:? ;D

robbitop
2004-03-22, 22:16:21
:-P
glaubst du doch selber nicht ;)

egdusp
2004-03-22, 22:34:09
Kann es sein, dass die 16 Pixelausgabeunits (wie auch immer die heißen mögen) so flexibel sind, dass sie auch anderweitig eingesetzt werden könnten?
Da die 16 Pipelines bei 32 bit Farbtiefe (STANDARD) selbst bei Singletexturing nicht ausgenutzt werden können (bei shaderlastigen Szenarien noch viel weniger) machen sie einfach keinen Sinn und nur für 1-2 Benchmarks wird NV das nicht machen.

Der TI Artikel erinnert mich an eine Diskussion bezüglich der Texturing Fähigkeiten der VS 3.0. Demi hatte mal spekuliert, dass diese mit Hinzufügen eines Bi-Filters zu vollwertigen Texturpipelines aufsteigen könnten.
AFAIR hat er diese Idee wieder verworfen. Was wenn es aber tatächlich stimmt und die VS 3.0 des NV40 als Pixelpipelines dienen könnten. Möglicherweise auch als Stencileinheiten und mit varaibler Lastverteilung zwischen Geometrie und Pixelberechnung.
Davon würden Doom3 Spiele profitieren, die geringe VS Last (AFAIK) und hohe Stencil Last haben. Die PS 3.0 wären dann nur mit den 8 "nativen" Pipelines gekoppelt, was aber kein Beinbruch wäre, sofern deren Leistung stimmt.

mfg
egdusp

DrumDub
2004-03-22, 22:44:20
egdusp

sehr interessante überlegungen deinerseits.
damit zeigt sich dann auch warum das klassiche denken in pixelpiplines eben nicht mehr aussagekräftig ist. die interne verschaltung wird so flexibel, dass sich das ganze in richtung von dsps (der einzige vergleich, der mir jetzt einfällt) bewegt...

Demirug
2004-03-22, 23:07:03
Auf den :cop: FUAD :cop: Text sollte man nicht einmal einen Gedanken verschwenden.

egdusp:

Pixelausgabeunits = Rasteroperatoren oder kurz ROP.

ROPs sind bei heutigen Chips sowieso nahezu ständig unterfordert. Den sobald man Pixelberechnungen hat die mehr als einen Takt in der Shaderpipeline brauchen laufen sie leer. Das ist aber schon immer so. Für die Passes die aber mit einem Takt durchlaufen können braucht man für jede Shaderpipeline auch ROPs. Um die Bandbreite für 16 ROPs zu haben müsste der Speicher um einiges höher als der Chip getaktet sein. Im anderen Fall bremst er eben. Ist er ein wenig höher getatet könnte man wohl so um die 12 ROPs geraden noch abdecken (für die Texturen bleibt dann aber nichts mehr da muss man auf den Cache hoffen). Unter diesen vorraussetzungen würde ich es mir auch überlegen ob ich da nicht doch jeder Shaderpipeline einfach die ROPs spendiere und mir eine aufwendige Logik zum verteilten nutzen der ROPs durch unterschiedliche Pipelines einfach einspare. Zudem hat nVidia ja seit dem NV30 schöne ROPs die entweder Farbe+Z/Stencil oder 2*Z/Stencil bearbeiten könne. Für 32 Z/Stencil Werte in D3 manier zu bearbeiten reicht die Bandbreite dann schon eher noch aus. Deswegen hört sich 16*1/32*0 für mich gar nicht so unwahrscheinlich an.

Ich habe die Idee VS auch PS Aufgaben übernehem zu lassen nicht wirklich verworfen sondern nVidia hat es einfach nicht gemacht. Vertexshader berechnen Verticen und die Pixelshader berechnen Pixel.

aths
2004-03-22, 23:26:32
Original geschrieben von egdusp
Kann es sein, dass die 16 Pixelausgabeunits (wie auch immer die heißen mögen) so flexibel sind, dass sie auch anderweitig eingesetzt werden könnten?
Da die 16 Pipelines bei 32 bit Farbtiefe (STANDARD) selbst bei Singletexturing nicht ausgenutzt werden können (bei shaderlastigen Szenarien noch viel weniger)Andersherum: Gerade bei shaderlastigen Szenen wäre beim NV40 der Flaschenhals nicht bei der Bandbreite zu suchen.

egdusp
2004-03-22, 23:38:54
OT: @Demi
Wolltest du nicht sagen woran du arbeitest sobald es fertig ist?

mfg
egdusp

marco42
2004-03-23, 02:37:14
Was mich interessieren wuerde, waere ob NVidia es gepackt hat, noise in Hardware zu giessen. Das waere IMHO eine super Nachricht, da ich meine 2 MX mal auswechseln muss fuer GLSlang. Und vielleicht supporten sie dann auch 32 bit Stencil Buffer.

r@e
2004-03-23, 05:19:04
Hier mal die Bildchen, die 'ne Karte zeigen, die wohl INQ in der Hand gehabt hat:
(ob Vorserie oder nicht, vermag ich nicht zu sagen ;-)

http://www.pcinpact.com/images/bd/news/9389.jpg

http://www.pcinpact.com/images/bd/news/9391.jpg

Quelle: PCInpact (http://www.pcinpact.com/actu/news/13588.htm)

Razor

P.S.: Rotes PCB ? MSI ? Hmmm... ;)

thop
2004-03-23, 05:23:04
Man beachte die schöne Anordnung des Speichers ... von der Parhelia geklaut ;)

robbitop
2004-03-23, 08:50:36
thop du hattest offensichtlich noch nie eine NV35/38 in der Hand hm? ;)

das PCB sieht diesem hier sehr ähnlich...vA die Anordnung der BGAs

@razor
aaaaaalllllt ;) (die bilder)
schon über 24h ^^

Demirug
2004-03-23, 09:42:45
Ich habe mir mal einen kleinen Spass erlaubt.

Auf der X-Achse haben wir den Takt eines 16x1 NV40. Auf der Y-Achse einen 12x1 R420. Die Prozentangaben bei den 3 Linien beziehen sich auf die relative Rechenleistung einer Einheit des R420 beim PS 2.0 Einsatz. 125% bedeutet das eine SIMD-Kanal des R420 125% Prozent der Leistung eines SIMD Kanals des NV40 bringt. Man kann dann schön ablesen wie schnell ATI bzw nVidia iheren Chip takten müssten um einen Gleichstand bei der PS 2.0 Leistung zu haben.

mrdigital
2004-03-23, 10:44:11
ui, das ist ein schön visualisierter Dreisatz ;)

Winter[Raven]
2004-03-23, 11:06:14
@ demi

Man .... ich kapier das Diogramm ned ... kast mal in Sätzen schreiben ? *eg*

MarioK
2004-03-23, 11:12:38
beim 125% ist 16x1 beim 500Mhz ~= 12x1 beim 500Mhz ...

robbitop
2004-03-23, 11:16:30
steht doch alles da

X Achse ist der NV40 Takt.
Y Achse ist der R420 Takt.

Annahme NV40 hat 16 Pipelines, R420 hat 12.
Demi hat 4 Balken gemalt für weitere unterannahmen.
R420 Recheneinheiten rechnen mit 75/100/125 und 150% iger effizzienz der NV40 recheneinheiten.

Nun suchst du dir den Takt des NV40 ..sagen wir 500MHz.
Dann sind bei 150%iger Effizienz ~425MHz
- || - 125%iger Effizienz ~500MHz
100%iger Effizienz ~625MHz
75%iger Effizienz ~825MHz beim R420 nötig, damit der in der aritmetischen Rechenleistung mit dem NV40 gleich ziehen kann.
Die Effizienz jedoch kann man nicht so genau abschätzen, -noch nicht-.
somit ist das eben nur eine Aussicht auf einige Möglichkeiten, was wäre wenn...

Winter[Raven]
2004-03-23, 11:19:35
@ robbitop

THx, so hab ich es mir auch gedacht ... :)

Bei mir gibt's in den letzten Tagen mathe Blackouts, mein Lehrer im Leistungskurs macht mir 100% die höhle heiß ^^.

Ailuros
2004-03-23, 11:24:49
Ich denke wohl dass hier vorrausgesetzt wird dass SIMDs in beiden Faellen gleich "lang" sind...

Demirug
2004-03-23, 11:50:30
Original geschrieben von Ailuros
Ich denke wohl dass hier vorrausgesetzt wird dass SIMDs in beiden Faellen gleich "lang" sind...

Nicht zwangsläufig. Dafür sind ja die unterschiedlichen Prozente auch da.

Endorphine
2004-03-23, 11:57:48
Der Takt ist doch völlig unerheblich für die Praxis. Ob man die gleiche Leistung nun mit 12×1 und 667 MHz oder mit 16×1 und 500 MHz erreicht ist doch sowas von egal. Die gleiche Rechenleistung dürfte auch ungefähr zur gleichen Leistungsaufnahme führen, die 12×1-GPU sollte sich aber preiswerter fertigen lassen. Gleichzeitig sollte sich das 16×1-Monster schwerer höher takten lassen als der etwas weniger monströse 12×1-Chip.

Wen interessiert das dann am Ende? Warten wir's einfach ab, wer am Ende welche Rechenleistung bei welcher Leistungsaufnahme bieten wird. Irgendwelche Taktraten sind für die Praxis irrelevant. Man nutzt keinen Takt, man nutzt Rechenleistung. Die Leistungsaufnahme ist aber sehr wohl relevant — thermisch, akustisch, für die Systemstabilität, für die Kosten der Karte und des Rechnernetzteiles und letzten Endes auch für die Energiekosten im Betrieb (-> ökonomisch und ökologisch).

Es wird Zeit, dass die Szene sich mal von diesem Taktdenken löst. Das ist nämlich nur noch ein rein konstruktives Detail, für die Praxis sind andere Werte relevant.

p.s. Ich frage mich, warum nVidia den NV40-IC nicht um 45° gedreht verpackt hat, so dass die Ecken auf die Kanten des PCBs zeigen. Das ermöglicht ein potenziell einfacheres Routing, wenn der Gedanke schon im Design berücksichtigt wird. Hatte NV das nicht schon beim NV36 (?) umgesetzt? Wäre ja ein kleiner Rückschritt...

AlfredENeumann
2004-03-23, 12:01:16
Original geschrieben von robbitop
steht doch alles da

X Achse ist der NV40 Takt.
Y Achse ist der R420 Takt.

Annahme NV40 hat 16 Pipelines, R420 hat 12.
Demi hat 4 Balken gemalt für weitere unterannahmen.
R420 Recheneinheiten rechnen mit 75/100/125 und 150% iger effizzienz der NV40 recheneinheiten.

Nun suchst du dir den Takt des NV40 ..sagen wir 500MHz.
Dann sind bei 150%iger Effizienz ~425MHz
- || - 125%iger Effizienz ~500MHz
100%iger Effizienz ~625MHz
75%iger Effizienz ~825MHz beim R420 nötig, damit der in der aritmetischen Rechenleistung mit dem NV40 gleich ziehen kann.
Die Effizienz jedoch kann man nicht so genau abschätzen, -noch nicht-.
somit ist das eben nur eine Aussicht auf einige Möglichkeiten, was wäre wenn...


Aber ausgehend das der NV40 immer 16Pipes hat, oder?

Quasar
2004-03-23, 12:09:38
Original geschrieben von Endorphine
Der Takt ist doch völlig unerheblich für die Praxis. Ob man die gleiche Leistung nun mit 12×1 und 667 MHz oder mit 16×1 und 500 MHz erreicht ist doch sowas von egal. Die gleiche Rechenleistung dürfte auch ungefähr zur gleichen Leistungsaufnahme führen, die 12×1-GPU sollte sich aber preiswerter fertigen lassen. Gleichzeitig sollte sich das 16×1-Monster schwerer höher takten lassen als der etwas weniger monströse 12×1-Chip.

Hier widersprichst du dir IMO ein wenig selber. Der höhere Takt, den die 12x1 Variante laut dir (einfacher) erreichen kann, ist am Ende doch wieder irrelevant.

Für jedes Prozent, welches man das 16x1-Design "übertakten" kann, muss man das 12x1-Ding 1,33% höher takten, um im Endeffekt dieselbe Leistung erreichen kann.

IMO ist es aber simpler, ein komplexeres Design bei niedrigeren Taktraten funktionsfähig aus dem Prozess herauszubekommen, als ein etwas einfacheres Design, welches dafür noch selektiert werden muss.

Ironischerweise hat gerade ATi auf der CeBit verlauten lassen, wie kostenintensiv Speed-Binning doch ist (zwar im Bezug auf die "Minderwertigkeit" von nVs Bridge-Chip im Vergleich zu ihrer integrierten Lösung, aber nichtsdestotrotz).

Prinzipiell gebe ich dir allerdings recht - Taktfrequenz ist irrelevant, Leistung wiegt.

Wenn wir allerdings, wie hier, von bestimmten Gegebenheiten ausgehen (ob sie nun zutreffen oder nicht), kann es schon interessant sein, die mögliche Leistungsfähigkeit auf die reinen Taktraten zu projizieren.

DrumDub
2004-03-23, 12:10:46
Original geschrieben von AlfredENeumann
Aber ausgehend das der NV40 immer 16Pipes hat, oder?

jupp. und der r420 12.

endorphine

wie recht du hast. gleiches gilt ja auch für cpus. nen prescott käm mir jedenfalls nicht ins haus.

Quasar
2004-03-23, 12:13:56
Original geschrieben von AlfredENeumann
Aber ausgehend das der NV40 immer 16Pipes hat, oder?
Selbst wenn er nur bei bilinearem Single-Texturing diese Fähigkeit hat....

Es sei denn, ATi hat nun auf TriTMUs umgeschwenkt - das wäre natürlich cool. Für die Shaderleistung brächte das zwar nichts, aber ansonsten hätten wir dann ein "12x1 gegen ein 8x2".

robbitop
2004-03-23, 12:16:17
das sind sowieso nur alles Gedankenspiele..abwarten, zumal der artithmetische Rechenleistungspart eh nur ein Teil des Ganzen ist.

AlfredENeumann
2004-03-23, 12:29:05
Original geschrieben von Quasar
Selbst wenn er nur bei bilinearem Single-Texturing diese Fähigkeit hat....

Es sei denn, ATi hat nun auf TriTMUs umgeschwenkt - das wäre natürlich cool. Für die Shaderleistung brächte das zwar nichts, aber ansonsten hätten wir dann ein "12x1 gegen ein 8x2".


Ich lass mich einfach mal überraschen.
Selbst unsere CYBIS Jungs rücken mit 0 info raus.

Naja. Vor dem R500/NV50 ist bei mir eh keine Neuanschaffung Grafikkartenmäßig geplant. Von daher interssieren mich die ganzen Speku´s eh nur theoretischer Natur.

TheCounter
2004-03-23, 13:01:46
Hi,

ich hoffe das wurde hier noch nicht gepostet, und da es doch wohl eher noch bisschen speku ist poste ich das hier mal rein:

NV40-Benchmarks (http://babelfish.altavista.com/babelfish/urltrurl?lp=ko_en&url=http%3A%2F%2Fwww.bodnara.co.kr%2Fbbs%2F%3Fimode%3Dview%26D%3D6%26num%3D50157 %26category%3D33)

deekey777
2004-03-23, 13:09:30
Original geschrieben von TheCounter
Hi,

ich hoffe das wurde hier noch nicht gepostet, und da es doch wohl eher noch bisschen speku ist poste ich das hier mal rein:

NV40-Benchmarks (http://babelfish.altavista.com/babelfish/urltrurl?lp=ko_en&url=http%3A%2F%2Fwww.bodnara.co.kr%2Fbbs%2F%3Fimode%3Dview%26D%3D6%26num%3D50157 %26category%3D33)

Das sind doch die Ergebnisse wie im Beyond3D Forum (http://www.beyond3d.com/forum/viewtopic.php?t=10946) oder? Wenn ja: UT2004 lief dabei auf einem Dual Opteron System.

TheCounter
2004-03-23, 13:12:37
Oh, sorry, dachte es ist neu :)

Nun bin ich eines besseren belehrt, trotzdem interessant :)

robbitop
2004-03-23, 13:13:51
die unreal warefare nutzt kein SMP. Somit ist es ziemlich egal wieviele CPUs verwendet werden. Naja für mich sehen die Benches gefakted aus ...wollte sich wohl mal wieder irgend jmd in den Mittelpunkt stellen

mrdigital
2004-03-23, 14:08:37
Original geschrieben von Endorphine
Der Takt ist doch völlig unerheblich für die Praxis. Ob man die gleiche Leistung nun mit 12×1 und 667 MHz oder mit 16×1 und 500 MHz erreicht ist doch sowas von egal. Die gleiche Rechenleistung dürfte auch ungefähr zur gleichen Leistungsaufnahme führen, die 12×1-GPU sollte sich aber preiswerter fertigen lassen. Gleichzeitig sollte sich das 16×1-Monster schwerer höher takten lassen als der etwas weniger monströse 12×1-Chip.

Wen interessiert das dann am Ende? Warten wir's einfach ab, wer am Ende welche Rechenleistung bei welcher Leistungsaufnahme bieten wird. Irgendwelche Taktraten sind für die Praxis irrelevant. Man nutzt keinen Takt, man nutzt Rechenleistung. Die Leistungsaufnahme ist aber sehr wohl relevant — thermisch, akustisch, für die Systemstabilität, für die Kosten der Karte und des Rechnernetzteiles und letzten Endes auch für die Energiekosten im Betrieb (-> ökonomisch und ökologisch).

Es wird Zeit, dass die Szene sich mal von diesem Taktdenken löst. Das ist nämlich nur noch ein rein konstruktives Detail, für die Praxis sind andere Werte relevant.

p.s. Ich frage mich, warum nVidia den NV40-IC nicht um 45° gedreht verpackt hat, so dass die Ecken auf die Kanten des PCBs zeigen. Das ermöglicht ein potenziell einfacheres Routing, wenn der Gedanke schon im Design berücksichtigt wird. Hatte NV das nicht schon beim NV36 (?) umgesetzt? Wäre ja ein kleiner Rückschritt...

Ist doch die selbe Diskussion wie RISC vs CISC oder AMD vs Intel oder oder oder... Solange man MHz im Markteing gebrauchen kann, wird sich da auch nichts ändern. Es wird ja selten mit "diese GraKa kann x Pixel pro Zeit produzieren" geworben, sondern mit "hat x MHz", das klingt halt wie beim Auto, mehr PS ist besser...

robbitop
2004-03-23, 14:45:57
hm im Grafikkartenmarkt wird ebenso mit Leistungsdaten geworben wie mit Takt. Was du meinst ist der CPU Markt.
Ich kann mich gut an die Kampagne "Fillrate is King" von 3dfx erinnern. Oder nVIDIAs GF2 GTS (Gigatexel Shader). Die light Speedmemory Architektur von NV HyperZ von ATi evt pp...alles PR für die Massen

die angabe von Dreickstransformationsleistung/sek oder Bandbreiten verrechnet mit der Colorcompression habe ich schon auf packungen stehen sehen..

Quasar
2004-03-23, 15:36:11
Original geschrieben von robbitop
"Fillrate is King"

"Framerate is king" aka "Our goal is 60fps - no matter what".

robbitop
2004-03-23, 15:46:37
hm nein ich kenn das mit Fillrare...Framerate is king war was anderes...ich bin mir da ganz sicher. Man wollte mit der V5 6000 das eben sicherstellen...dann kam aber die GF2 ;)

lassen wir die Haarspaltereien

GRiNSER
2004-03-23, 15:50:59
es war fillrate is king - wenn ich mich nicht ganz falsch erinnere ;)

deekey777
2004-03-23, 16:48:53
http://biz.yahoo.com/prnews/040323/sftu074_1.html

Jetzt ist 10000% bombenfest, dass der NV40 mit Shader 3.0 Support kommt.

100000% bombenfest: http://www.nvidia.com/object/IO_12112.html

Gast
2004-03-23, 16:54:30
Original geschrieben von deekey777
http://biz.yahoo.com/prnews/040323/sftu074_1.html

Jetzt ist 10000% bombenfest, dass der NV40 mit Shader 3.0 Support kommt.

100000% bombenfest: http://www.nvidia.com/object/IO_12112.html

wars auch schon vorher. Der CEO hat vor Wochen auf einer Analystenkonferenz bestätigt, dass die gesamte NV4x Poduktlinie PS/VS3.0 Support enthalten wird.

Tyler_Durden
2004-03-23, 17:18:06
Original geschrieben von robbitop
hm nein ich kenn das mit Fillrare...Framerate is king war was anderes...ich bin mir da ganz sicher. Man wollte mit der V5 6000 das eben sicherstellen...dann kam aber die GF2 ;)

lassen wir die Haarspaltereien

Framerate is life hieß es und es kam von Madonion aka Futuremark! :D

robbitop
2004-03-23, 17:20:26
@Tyler
full ack

Exxtreme
2004-03-23, 20:22:51
Falls es noch nicht bekannt ist ... für den NV40 wird ein 400W - 450W NT empfohlen.

robbitop
2004-03-23, 20:25:11
von dir? ;)
ich sag immer diese pauschalaussageen sind für die Tonne...gute 250W NTs kommen an billig 400W NTs ran und das bei weniger Abwärme...ich sag nur Antec und Engelking

Exxtreme
2004-03-23, 20:33:15
Original geschrieben von robbitop
von dir? ;)

Nein, nicht von mir. :)

ow
2004-03-23, 20:53:16
Original geschrieben von Exxtreme
Nein, nicht von mir. :)


Von wem denn sonst?

LovesuckZ
2004-03-23, 21:10:52
Original geschrieben von Exxtreme
Falls es noch nicht bekannt ist ... für den NV40 wird ein 400W - 450W NT empfohlen.

Bezweifel ich.
Wobei, das kam bestimmt auch dem Beyond3d.com Forum, am besten noch von Hellbinder... vielleicht doch rage3d?

GRiNSER
2004-03-23, 21:35:24
Original geschrieben von Tyler_Durden
Framerate is life hieß es und es kam von Madonion aka Futuremark! :D
Fillrate is king hieß es und es kam von 3dfx :D [AFAIR]

StefanV
2004-03-23, 21:39:49
Original geschrieben von LovesuckZ
Bezweifel ich.
Wobei, das kam bestimmt auch dem Beyond3d.com Forum, am besten noch von Hellbinder... vielleicht doch rage3d?

Warum bezweifelst du das??

Für die aktuellen Karten wird doch schon meist ein 350W Netzteil empfohlen, mindestens.

VooDoo7mx
2004-03-23, 22:13:00
Original geschrieben von Stefan Payne
Warum bezweifelst du das??

Für die aktuellen Karten wird doch schon meist ein 350W Netzteil empfohlen, mindestens.

Stimmt! Und weil NV sowieso sch***e ist brauchen diese Karten gleich 450 Watt NT´s :bonk:
Ich denke mal einige Leute sollten sich auch um die etwaige Stromaufnahme des R420 Gedanken machen, da kann man nämlich den selben Unsinn behaupten...

Sumpfmolch
2004-03-23, 22:38:24
Original geschrieben von VooDoo7mx
Stimmt! Und weil NV sowieso sch***e ist brauchen diese Karten gleich 450 Watt NT´s :bonk:
Ich denke mal einige Leute sollten sich auch um die etwaige Stromaufnahme des R420 Gedanken machen, da kann man nämlich den selben Unsinn behaupten...

um was gehts in dem thread ? richtig ! NV40 !

also lass dein peinliches "nvidia wird soo böse diskriminiert" geplappere. sobald offizielle infos zum r420 da sind dann werden sich die leute genauso köstlich amüsieren wenn die leistungsaufnahme ebenso hoch ist.

Exxtreme
2004-03-23, 23:17:35
Original geschrieben von ow
Von wem denn sonst?
Lars Weinand aka Borsti. :)

Quasar
2004-03-23, 23:25:40
Ja... und was sagt uns das?

VooDoo7mx
2004-03-23, 23:45:29
Original geschrieben von Quasar
Ja... und was sagt uns das?

Tomshardwareguide :lolaway: :lolaway: :lolaway:

r@e
2004-03-24, 00:17:46
Original geschrieben von Exxtreme
Lars Weinand aka Borsti. :) Ja wenn Borsti das sagt... dann MUSS es ja stimmen !
:lolaway:

Razor

P.S.: Für völlig unmöglich halte ich das nicht, aber zu jetzigen Zeitpunkt für eher unwahrscheinlich... wie so vieles andere auch... ;)

AlfredENeumann
2004-03-24, 00:20:46
Original geschrieben von Exxtreme
Falls es noch nicht bekannt ist ... für den NV40 wird ein 400W - 450W NT empfohlen.


Oder Sowas?

http://www.s-o-s.info/pix/fun/nv40.jpg

r@e
2004-03-24, 00:25:34
OK, ist zwar ein Speku-Thread...
Aber muss dieses gespamme und gebashe bestimmter Personen hier immer wieder sein ?
:???:

Ist ja echt wie im Kindergarten.

Razor

deekey777
2004-03-24, 00:27:22
Original geschrieben von Exxtreme
Lars Weinand aka Borsti. :)

Borsti ist der NV-Fan überhaupt - alles, was gegen nVidia ist bzw. nVidia schlecht aussehen lässt, spielt er herunter oder sucht bei ATI nach einem anderen, "viel grösseren" Problem. Darum könnte er auch die Leistungsgangabe etwas heruntergesetzt haben. In Wirklichkeit heisst es mind. 450 W.
Aber im Ernst: Diese Mindestanforderungen gelten für No-Name PSUs, vielleicht wird auch ein gutes 350-400 Watt NT ausreichen.

(Alles Spekulationen von mir)

AlfredENeumann
2004-03-24, 00:28:48
@Razor

Nu krieg dich mal ein. Ein kleiner Scherz am Rande darf ja wohl mal sein.

deekey777
2004-03-24, 00:30:31
Original geschrieben von r@e
OK, ist zwar ein Speku-Thread...
Aber muss dieses gespamme und gebashe bestimmter Personen hier immer wieder sein ?
:???:

Ist ja echt wie im Kindergarten.

Razor

Keine Ahnung, was du meinst. Die kommende NV4x Generation ist doch kein lebender Mensch, sondern eine leblose Grafikkarte (dabei bezieht sich die Bezeichnung "leblos Grafikkarte" nicht auf Umstand, dass im PC ein NT unter 500 W drin ist und die Grafikkarte klinisch tot ist, da sie nicht genug Leistung bekommt).

Quasar
2004-03-24, 00:33:22
Seid ihr vielleicht alle nur traurig, weil ihr keine starken Netzteile habt und euch deswegen keinen nV40 kaufen könnt?

thop
2004-03-24, 00:35:37
Ich finde die NV gebashe Bilder lustig ;D Ist schon interessant dass das wie mit dem nVFön wieder losgeht. Aber so richtig interessant könnte es werden wenn die selben Leute dann bei Sichtung der nV40 Benches so machen: :o

Ich bin gespannt wie ein Flitzebogen :)

Ailuros
2004-03-24, 00:36:31
Original geschrieben von robbitop
von dir? ;)
ich sag immer diese pauschalaussageen sind für die Tonne...gute 250W NTs kommen an billig 400W NTs ran und das bei weniger Abwärme...ich sag nur Antec und Engelking

Wenn Du aber eine direkte Empfelung von NVIDIA selber fuer 400W minimal hoerst, dann ist das auch fuer die Tonne?

VPU= 150W + CPU= ~100W = 250W

Viel Spass mit einem "hochqualitativen" 250W NT dabei. Um sicher zu sein braucht man fuer solche Teile ein gutes =/>400W NT.

AlfredENeumann
2004-03-24, 00:37:24
Andersrum.
Wenn alle Gerüchte bisher stimmen sollten, dann wäre das seit langem mal eine NV Karte die mich interessieren könnte.

Ailuros
2004-03-24, 00:38:00
Original geschrieben von Quasar
Seid ihr vielleicht alle nur traurig, weil ihr keine starken Netzteile habt und euch deswegen keinen nV40 kaufen könnt?

Ich persoenlich nicht. Ich hatte schon etwa in der Mitte der NV40 Entwicklung vorgesorgt. Mit einer combined power von "nur" 250W hab ich wohl keine besonderen Sorgen.

AlfredENeumann
2004-03-24, 00:38:48
Original geschrieben von thop
Ich finde die NV gebashe Bilder lustig ;D Ist schon interessant dass das wie mit dem nVFön wieder losgeht. Aber so richtig interessant könnte es werden wenn die selben Leute dann bei Sichtung der nV40 Benches so machen: :o

Ich bin gespannt wie ein Flitzebogen :)


Naja. Die ATI wird ja auch erheblich mehr Verbruachen als jetzige Karten. Nur von der hört man ja sowenig das es kaum jemanden interessiert FUNPICS davon zu machen

Quasar
2004-03-24, 00:40:17
Original geschrieben von Ailuros
Ich persoenlich nicht. Ich hatte schon etwa in der Mitte der NV40 Entwicklung vorgesorgt. Mit einer combined power von "nur" 250W hab ich wohl keine besonderen Sorgen.

Ich auch nicht, aus zwei Gründen:

Eine GPU mit mehr als 100W kommt mir nicht ins Haus und zweitens wird das next-gen Produkt vielleicht gar nicht so viel schlucken.

Ailuros
2004-03-24, 00:42:37
Original geschrieben von LovesuckZ
Bezweifel ich.
Wobei, das kam bestimmt auch dem Beyond3d.com Forum, am besten noch von Hellbinder... vielleicht doch rage3d?

Zu viel bezweifeln ist schlecht fuer die Gesundheit nach der Veroeffentlichung.

Natuerlich wird auch die R4xx Familie nicht gerade wenig Strom verbrauchen, ganz im Gegenteil.

Ailuros
2004-03-24, 00:44:36
Original geschrieben von Quasar
Ich auch nicht, aus zwei Gründen:

Eine GPU mit mehr als 100W kommt mir nicht ins Haus und zweitens wird das next-gen Produkt vielleicht gar nicht so viel schlucken.

Never say never again. NV41 wird Dir wohl dann ausreichen.

Entweder das Publikum (egal ob man A oder B bevorzugt) passt sich an mit der Idee dass naechster Generation VPUs so viel und spaeter sogar mehr Strom verschlucken werden oder man kann sich auch mit Value boards zufrieden finden.

Quasar
2004-03-24, 00:54:52
Ich bin langsam eh aus dem Alter raus, wo Zocken erste Priorität war. =)
Aber zur Not gibt's ja noch Delta-Chrome, bzw. dessen Nachfolger oder evtl. den Series5.

Ailuros
2004-03-24, 00:58:20
Original geschrieben von Quasar
Ich bin langsam eh aus dem Alter raus, wo Zocken erste Priorität war. =)
Aber zur Not gibt's ja noch Delta-Chrome, bzw. dessen Nachfolger oder evtl. den Series5.

Obwohl es wohl als Oxymoron klingt hab ich keine Ahnung wieviel S5 verbrauchen koennte, aber wenn es <100W sein sollten dann nehme ich den Kerlen den Hut ab.

S3 hat ja einen DX-Next chip fuer 2005 geplant; errr unlimited resources in =/<100M Transistoren? hmmmm.....nah uh....

Exxtreme
2004-03-24, 09:18:50
Original geschrieben von AlfredENeumann
Oder Sowas?

http://www.s-o-s.info/pix/fun/nv40.jpg
LOL, kenne ich schon, wollte es aber nicht posten. :)

Und ja, Borsti ist ein NV-Fan ... und wenn er sowas sagt, dann gehe ich stark davon aus, daß das stimmt. Aber irren kann er sich natürlich und deswegen ist das auch im Speku-Forum gelandet. =)

ShadowXX
2004-03-24, 09:47:41
Original geschrieben von GRiNSER
Fillrate is king hieß es und es kam von 3dfx :D [AFAIR]

Ist zwar langsam uninteressant, aber das Fillrate is King kommt von nV und wurde im Zusammenhang mit dem release der GeForce2 GTS von nVs Mr.K. in den Raum geworfen....

Ich habe zwar jetzt nicht das direkte Zitat gefunden, aber wenn man bei google(uk) mal "fillrate +is king" eingibt, stösst man auf mehrere ältere Tests und Berichte, wo das Fillrate is King im zusammenhang mit nV benutzt wird....

Gil-galad
2004-03-24, 10:29:43
Es wird immer verwirrter:

"Aus sehr zuverlässiger Quelle haben wir erfahren, dass The Inquirer korrekt liegt mit dem 8x2 Design der neuen NVIDIA Chips statt des echten 16x1 Designs."

Planet3D Now! (http://www.planet3dnow.de/artikel/diverses/cebit04/11.shtml)

Ich bin ja mal gespannt, was der NV40 letztendlich hat.

Godmode
2004-03-24, 10:35:43
Original geschrieben von AiS|Gil-galad
Es wird immer verwirrter:

"Aus sehr zuverlässiger Quelle haben wir erfahren, dass The Inquirer korrekt liegt mit dem 8x2 Design der neuen NVIDIA Chips statt des echten 16x1 Designs."

Planet3D Now! (http://www.planet3dnow.de/artikel/diverses/cebit04/11.shtml)

Ich bin ja mal gespannt, was der NV40 letztendlich hat.

hat nicht auch Uttar gemeint das das 16*1 Design aus sehr zuverlässigen Quellen kommt?

Gil-galad
2004-03-24, 10:37:01
Original geschrieben von bans3i
hat nicht auch Uttar gemeint das das 16*1 Design aus sehr zuverlässigen Quellen kommt?

Ham nicht alle "zuverlässige" Quellen? Ich würde sagen: Abwarten und Tee trinken.

deekey777
2004-03-24, 10:49:39
Original geschrieben von Quasar
Seid ihr vielleicht alle nur traurig, weil ihr keine starken Netzteile habt und euch deswegen keinen nV40 kaufen könnt?

Ich bin nicht traurig. Erstens wird meine nächste Grafikkarte keine NV40 bzw. R420 sein (wird übersprungen). Zweitens habe ich in meinem Rechner seit einem Monat ein 400 Watt NT, der Verkäufer meinte:"Es ist so gar ein COBA !!!" Und ich: "Wow..."

deekey777
2004-03-24, 10:50:59
Original geschrieben von AiS|Gil-galad
Ham nicht alle "zuverlässige" Quellen? Ich würde sagen: Abwarten und Tee trinken.

Zuverlässige Quellen in einem Spekulationsforum: Ein Widerspruch !

ShadowXX
2004-03-24, 11:04:43
Original geschrieben von AiS|Gil-galad
Es wird immer verwirrter:

"Aus sehr zuverlässiger Quelle haben wir erfahren, dass The Inquirer korrekt liegt mit dem 8x2 Design der neuen NVIDIA Chips statt des echten 16x1 Designs."

Planet3D Now! (http://www.planet3dnow.de/artikel/diverses/cebit04/11.shtml)

Ich bin ja mal gespannt, was der NV40 letztendlich hat.

Vielleicht hätte ich mich doch auf die Wette mit Demi einlassen sollen :)

deekey777
2004-03-24, 11:10:32
Original geschrieben von ShadowXX
Vielleicht hätte ich mich doch auf die Wette mit Demi einlassen sollen :)

Die einzige Wette, auf die ich mich mit einem Vollbluttprofi wie Demirug einlassen würde, wäre die Frage, ob die russische Nationalelf besser als die brasilianische Eishockeymannschaft ist - und zwar in Eishockey.

Gil-galad
2004-03-24, 11:20:06
Original geschrieben von deekey777
Zuverlässige Quellen in einem Spekulationsforum: Ein Widerspruch !

Warum hab ich wohl die " da stehen? ;)

Demirug
2004-03-24, 11:20:15
Original geschrieben von ShadowXX
Vielleicht hätte ich mich doch auf die Wette mit Demi einlassen sollen :)

Da Angebot steht noch. Für mich deutet eben alles auf 16x1 hin. Für PS 3.0 ist das auch die bessere Wahl. 8x2 wäre eine Notlösung wenn die Transitoren nicht gereicht haben.

Der Grund für ?x2 sollte beim NV40 aus logischen Gründen einfach nicht mehr vorhanden sein.

ow
2004-03-24, 11:53:42
Original geschrieben von Demirug
Da Angebot steht noch. Für mich deutet eben alles auf 16x1 hin. Für PS 3.0 ist das auch die bessere Wahl. 8x2 wäre eine Notlösung wenn die Transitoren nicht gereicht haben.

Der Grund für ?x2 sollte beim NV40 aus logischen Gründen einfach nicht mehr vorhanden sein.

Vielleicht 16x1 mit nur 8 ROPs? Waere das denkbar?

Demirug
2004-03-24, 12:02:26
Original geschrieben von ow
Vielleicht 16x1 mit nur 8 ROPs? Waere das denkbar?

Klar. Würde einem alten 3dfx Trick entsprechen. Aber wir wissen ja auch das nVidia mit Watt pro Pixel werben will. Ergo ist ein maximaler out wünscheswert. Mit 16bpp könnte man auf jeden Fall 16 Pixel pro Takt raushauen.

robbitop
2004-03-24, 12:12:42
@AiL
das war nur ein kleines Beispiel. Ich sagte nicht unbedingt, dass ein 250W Engelking noch ausreicht, ich wollte damit nur sagen dass die W Angabe rein gar nichts sagt. Ich kenne viele gute NTs knapp über 300W mit deutlich höherer Combined Leistung.
Das Antec True Power zB. Hier wird nach bedarf für jede Leitung einzelnd die Last reguliert.
Ich bin einfach der Meinung dass diese 450-550W NTs in den allermeisten Fällen überdimensioniert sind und somit entsteht unnötig Wärme durch schlechten Wirkungsgrad.
Besitzer guter bis sehr guter NTs mitte 300W sollten sich imo keine Sorgen machen.

Ailuros
2004-03-24, 12:25:22
Original geschrieben von robbitop
@AiL
das war nur ein kleines Beispiel. Ich sagte nicht unbedingt, dass ein 250W Engelking noch ausreicht, ich wollte damit nur sagen dass die W Angabe rein gar nichts sagt. Ich kenne viele gute NTs knapp über 300W mit deutlich höherer Combined Leistung.
Das Antec True Power zB. Hier wird nach bedarf für jede Leitung einzelnd die Last reguliert.
Ich bin einfach der Meinung dass diese 450-550W NTs in den allermeisten Fällen überdimensioniert sind und somit entsteht unnötig Wärme durch schlechten Wirkungsgrad.
Besitzer guter bis sehr guter NTs mitte 300W sollten sich imo keine Sorgen machen.

Nochmals nein. Eine Kombination von einer der beiden naechster Generation VPUs und einem Prescott/Opteron ist so verdammt nahe an der Grenze dass man von 300W PSUs gar nicht mehr reden kann. Ausser Du willst das System ohne IDE und ohne host ram rennen lassen.

Und bitte es gibt keine Not zu uebertreiben; ich hab keine 450-550W erwaehnt. Es wird mit hoechster Wahrscheinlichkeit ein 400W PSU vorgeschlagen werden. Natuerlich steht es dem User dann frei das Risiko einzugehen und mit einem um einiges schwacheres NT das System laufen zu lassen. Nur wuerde ich eben dann einen Feuerloescher in unmittelbarer Naehe bereitstellen.

Ailuros
2004-03-24, 12:30:14
Original geschrieben von Demirug
Da Angebot steht noch. Für mich deutet eben alles auf 16x1 hin. Für PS 3.0 ist das auch die bessere Wahl. 8x2 wäre eine Notlösung wenn die Transitoren nicht gereicht haben.

Der Grund für ?x2 sollte beim NV40 aus logischen Gründen einfach nicht mehr vorhanden sein.

Ich und nur ich persoenlich wuerde an dieser Stelle aber raten, nicht unbedingt 16*1 Leistung zu erwarten. Ich hab keine Zweifel dass NV40 ein sehr schneller chip sein wird; nur ueberschaetzen sollte man das Ganze dann auch nicht.

Das Publikum stellt sich bei solchen Zahlen ganz verrueckte Leistungen vor; hier ist zwar die Tendenz noch Gott sei Dank sehr normal, aber ich hab schon woanders ueber Erwartungen von 4*NV35 gelesen.....

Demirug
2004-03-24, 12:43:31
Original geschrieben von Ailuros
Ich und nur ich persoenlich wuerde an dieser Stelle aber raten, nicht unbedingt 16*1 Leistung zu erwarten. Ich hab keine Zweifel dass NV40 ein sehr schneller chip sein wird; nur ueberschaetzen sollte man das Ganze dann auch nicht.

Das Publikum stellt sich bei solchen Zahlen ganz verrueckte Leistungen vor; hier ist zwar die Tendenz noch Gott sei Dank sehr normal, aber ich hab schon woanders ueber Erwartungen von 4*NV35 gelesen.....

Da es bisher noch keinen 16*1 Chip gab kann man ja nicht wissen wie schnell 16*1 sein muss. Bei alten Spielen wird IMHO der Speicher nicht mitkommen.

4*NV35 müsste ja 16*2 sein.

robbitop
2004-03-24, 13:01:51
naja ich besitze selbst ein Antec True Power 380W
mein System kennst du ja (siehe Signatur).
Das ist schon recht Stromhungrig, das NT hat allerdings keine Probleme.

Meine FX @550W zieht mit Sicherheit bereits jetzt mehr als 100W. PCGH hat ja ~100W für die 5950 gemessen. Meine bekommt dank dem Wasserkühlbios von Gainward noch mehr VCore (1,6V statt 1,4 oder so)und ist zudem noch weiter getaktet und auch der TBred ist recht "fordernd". HDD sind es 2 an der Zahl und auch Brenner und DVD sind dabei.
Ich glaube nicht, dass das ganze unter einem NV40 "zusammenbrechen" würde. Aber das muss man natürlich erst einmal testen =)

mapel110
2004-03-24, 13:11:08
Original geschrieben von robbitop
naja ich besitze selbst ein Antec True Power 380W
mein System kennst du ja (siehe Signatur).
Das ist schon recht Stromhungrig, das NT hat allerdings keine Probleme.

Meine FX @550W zieht mit Sicherheit bereits jetzt mehr als 100W. PCGH hat ja ~100W für die 5950 gemessen. Meine bekommt dank dem Wasserkühlbios von Gainward noch mehr VCore (1,6V statt 1,4 oder so)und ist zudem noch weiter getaktet und auch der TBred ist recht "fordernd". HDD sind es 2 an der Zahl und auch Brenner und DVD sind dabei.
Ich glaube nicht, dass das ganze unter einem NV40 "zusammenbrechen" würde. Aber das muss man natürlich erst einmal testen =)

Ich wette, bei einem stark übertaktetem NV40 wirds eng, aber mal schauen.
Wenn das AA gut ist, steig ich wohl auch um. Vorallem falls ATI beim AF weiter in Rückstand gerät.

Ailuros
2004-03-24, 13:28:27
Original geschrieben von robbitop
naja ich besitze selbst ein Antec True Power 380W
mein System kennst du ja (siehe Signatur).
Das ist schon recht Stromhungrig, das NT hat allerdings keine Probleme.

Meine FX @550W zieht mit Sicherheit bereits jetzt mehr als 100W. PCGH hat ja ~100W für die 5950 gemessen. Meine bekommt dank dem Wasserkühlbios von Gainward noch mehr VCore (1,6V statt 1,4 oder so)und ist zudem noch weiter getaktet und auch der TBred ist recht "fordernd". HDD sind es 2 an der Zahl und auch Brenner und DVD sind dabei.
Ich glaube nicht, dass das ganze unter einem NV40 "zusammenbrechen" würde. Aber das muss man natürlich erst einmal testen =)

Natuerlich hat es keine Probleme, da Deine CPU wohl an die ~60+W und die GPU vielleicht ~110W verbraucht. Also zusammen ~170W fuer die beiden Komponenten und das mit einem 380W PSU.

Ueber das worueber es bei dieser eher sinnlosen Debatte geht, ist dass der NV40 von sich alleine "nur" 20W weniger als in Deinem heutigen System GPU+CPU verbraucht.

Ailuros
2004-03-24, 13:31:24
Original geschrieben von Demirug
Da es bisher noch keinen 16*1 Chip gab kann man ja nicht wissen wie schnell 16*1 sein muss. Bei alten Spielen wird IMHO der Speicher nicht mitkommen.

4*NV35 müsste ja 16*2 sein.

Die Leute sehen eben nur wahrscheinlich "Pipelines".

ow
2004-03-24, 13:35:51
Original geschrieben von Ailuros


Ueber das worueber es bei dieser eher sinnlosen Debatte geht, ist dass der NV40 von sich alleine "nur" 20W weniger als in Deinem heutigen System GPU+CPU verbraucht.

Quelle dafuer, wieviel der NV 40 denn letztendlich verbraucht?

Börk
2004-03-24, 13:45:16
wieviel Transis spart 8x2 (so wie es ein doppelter NV35 wäre) gegenüber 16x1? Ich schätze mal gar nicht so viel, weswegen 16x1 meiner Meinung nach doch recht warscheinlich ist.
Zur Verlustleistung: ich würde mal sagen abwarten und Tee trinken. Die ersten Tests werden zeigen ob man nun wirklich nen neues NT benötigt. Vielleicht hat das A3 Stepping im Bezugn auf die Leistungsaufnahme ja einiges gebracht...

robbitop
2004-03-24, 13:47:06
@AiL
also mein TBred B zieht ein wenig über 100W im Moment. Da muss schon ein "großer" Prescott her.

und die 380PSU hat ja keine Combined Leistung von 380W sondern eben deutlich darunter. Aber von der Combined Leistung kann das Antec viele 400-450W Nts in die Schranken weisen.


Habe eben mal mittels Monitoring geschaut Idle und Farcry2 die Spannungen ändern sich nur auf der 12V Leitung.
Idle 11,92V Last 11,86V.

Oh ich sehe gerad die FX hängt seit 9 Monaten an einem Strang mit den HDDs *schäm*

Demirug
2004-03-24, 13:54:48
Original geschrieben von burk23
wieviel Transis spart 8x2 (so wie es ein doppelter NV35 wäre) gegenüber 16x1? Ich schätze mal gar nicht so viel, weswegen 16x1 meiner Meinung nach doch recht warscheinlich ist.

Wenn es ein 8x2 mit 16x1 Singletexture Modus wäre dürfte sich das Einspar Potenial in Grenzen halten. Vorallem weil man für einen längere x2 Pipe ja auch wieder mehr Regsiterspeicher braucht. Im Wesentlichen spart man zweimal eine Pipeline-Steuereinheit. Ist aber IMHO den Ärger den man sich durch 8x2 einhandelt nur dann Wert wenn man wirklich knapp an Transitoren ist. Beim NV2X und NV3X hat 4x2 janoch Sinn gemacht beim NV4X sehe ich allerdings keinen wirklich guten Grund mehr dafür.

Radeonator
2004-03-24, 14:03:50
Folgendes sind laut Guru 3D quasi Fakten (er darf es nicht direkt sagen (NDA), tut es aber doch irgendwie ;) )

16 echte Pipes , also 16x1 und nicht wie oft vermutet 8x2 Architektur
475 MHz GPU Clock / 1- 1,2GHz Ram Speed (G-DDR3 / 256MB)
PixelShader Performance 2.5- 3 x schneller
FSAA wird auch 3x schneller sein und diesmal wird hochwertiges RGMSAA genutzt!
AF 8 -16x(!)

Auch die Benchmark Ergebnisse einer Sampe (Vorserien) Karte sind schon sehr vielversprechend :

UT2004 ( 4xAA, 4xAF ) 1600x1200 71.9fps - 1280x960 82.9fps ( both botmach )

WICHTIG : Lest den Text genau, vor allem die Hints ;) und dann schaut euch folgende news an...



Quelle : Guru3d (http://www.guru3d.com/article/article/125/3)

Guru3D News 20/21er :) (http://www.guru3d.com/news.php?cat=8&perpage=15#1262)

robbitop
2004-03-24, 14:17:06
sehr Interessant. Ist zwar alles noch im Fluss, aber gewisse Dinge scheinen sich wirklich zu erhärten. Sieht so aus, als wäre das Teil ein Monster. Mit der Verlustleistung kann ich eh leben, ist nur die Frage wie es für luftgekühlte PCs aussehen wird.

reunion
2004-03-24, 14:24:42
Original geschrieben von Radeonator
UT2004 ( 4xAA, 4xAF ) 1600x1200 71.9fps - 1280x960 82.9fps ( both botmach )


Hat wer vergleichswerte mit aktuellen Karten??

Demirug
2004-03-24, 14:27:13
Radeonator, warum wundert dich das 16xAF so? PS 3.0 schreibt vor das 16xAF gehen muss.

BTW: Wenn das 2,5-3 mal schneller beim Pixelshader den Maximalwert darstellen soll ist es zwenig um ATI in die Suppe zu spuken.

reunion
2004-03-24, 14:29:22
Original geschrieben von Demirug
BTW: Wenn das 2,5-3 mal schneller beim Pixelshader den Maximalwert darstellen soll ist es zwenig um ATI in die Suppe zu spuken.

ACK, das würde geradeeinmal reichen um mit den R360 gleichzuziehn ;)

robbitop
2004-03-24, 14:33:02
hört sich eher so an als wäre das die resultierende Endleistung bei Games und da ist PS oft nur ein Teil des Ganzen.

apropros 16xAF, ich frage mich, wie gut das ganze noch ist. Ich hoffe, dass man nicht zu sehr winkelabhängig ist.
laut einem Interview mit NV bei withingames will man ja zukünfttig in die coolbits max AF Quality implementieren. Dann ist man brilinear evl doch endlich wieder los.

MadManniMan
2004-03-24, 14:42:58
Hm, um mal eine ganz andere Richtung in diesem Thread anzuschlagen: ich hab heut Nacht hier irgendwo ne Roadmap von nV rumschwirren sehen, die für die nächste Zeit einzig die PCX-Karten vorsieht und gleichzeitig jetzt doch auf einen Paperlaunch des NV40 hinweist...


PS: ich hätte nicht gedacht, daß "nur mitlesen" so erheiternd sein kann ;)

Radeonator
2004-03-24, 14:57:46
Ehm, ka was dich so erheitert Mad, aber naja...eh egal ;)

Die nV40 soll in ca3Wochen an den start gehen...wo siehst du da einen PaperLaunch :| ...die Karte hat lange ihr TapeOut hinter sich, erste Sample Karten wurden getestet/vorgeführt. Mitlesen wäre vielleicht wirklich erheiternd, wenn du es denn auch wirklich tun würdest ;D

MadManniMan
2004-03-24, 15:08:08
Original geschrieben von Radeonator
Ehm, ka was dich so erheitert Mad, aber naja...eh egal ;)

Die nV40 soll in ca3Wochen an den start gehen...wo siehst du da einen PaperLaunch :| ...die Karte hat lange ihr TapeOut hinter sich, erste Sample Karten wurden getestet/vorgeführt. Mitlesen wäre vielleicht wirklich erheiternd, wenn du es denn auch wirklich tun würdest ;D

:arsch:

Ich hab ja nicht gesagt, was ich von der Folie halte, sondern nur, was sie aussagt X-D. Natürlich steht deren Aussage konträr zu allem, was vor allem auch ich bisher annahm... we'll see ;) Is ja Spekuforum, ne?

BTW ists deshalb so erquickend, weil es anscheinend für mancherlei Leut vollkommen egal ist, mit wem sie auf höchsthitzige Weise allerlei Gedanken austauschen können - Hauptsache, es tut sich jemand an :D


Ich meld mich wieder, wenn ich den Link zu der Folie früher finde, als ihr - was ich aufgrund meiner baldigen Spätschicht und des danach folgenden Wiederaufsetzens meines davor gelöschten Betriebssystems nicht annehme.

robbitop
2004-03-24, 15:14:41
meinste die hier?

http://www.ttecx.de/files/news/newsbilder_big/upload/NVIDIA_opt.jpg


Quelle:
http://www.ttecx.de/files/news/article.php?article_file=1080077653.txt&showtopic=

kiss
2004-03-24, 15:18:54
Bitte lesen!!!


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/maerz/erste_details_derivaten_nv40/

Börk
2004-03-24, 15:23:58
Original geschrieben von robbitop
meinste die hier?

http://www.ttecx.de/files/news/newsbilder_big/upload/NVIDIA_opt.jpg

Quelle:
http://www.ttecx.de/files/news/article.php?article_file=1080077653.txt&showtopic=
Hmm, vorallem das 2x faster than NV35 würde mich in meiner Vermutung bestärken, dass der NV40 ein doppelter NV35 mit PS3.0/VS3.0 ist. Natürlich mit ein paar Verbesserungen, die wohl besonders im PS und Stencil Bereich vorzufinden sind...

Radeonator
2004-03-24, 15:24:40
Was genau hört sich da net so gut an? Meinst du das Mid/Low End erst Später erscheinen? Ist doch normal?


btw. ATi hat derzeit aber äusserst saftige Preise (9800xt = 100$ pro Chip...die Spinnen, die Römer ;) )

Bin nur gespannt was ATi für ein Monster aus dem Sack lässt!!!

Ich hoffe das du unrecht hast burk23 , mir wäre eine intelligentere Architektur lieber...

kiss
2004-03-24, 15:33:52
@Radeonator

Sorry, ich habe mich verlesen! :|

Börk
2004-03-24, 15:38:13
Original geschrieben von Radeonator
Ich hoffe das du unrecht hast burk23 , mir wäre eine intelligentere Architektur lieber...
Hoffe ich auch. Ausserdem hat Demirug ja auch gesagt, dass der NV40 vermutlich 16x1 wird, weil alles andere Schwachsinn ist bei PS/VS 3.0. Nur würde NV dann doch "up to 4x faster" oder etwas derartiges angeben, schon allein aus Marketing-Gründen...

Demirug
2004-03-24, 15:48:54
Original geschrieben von burk23
Hoffe ich auch. Ausserdem hat Demirug ja auch gesagt, dass der NV40 vermutlich 16x1 wird, weil alles andere Schwachsinn ist bei PS/VS 3.0. Nur würde NV dann doch "up to 4x faster" oder etwas derartiges angeben, schon allein aus Marketing-Gründen...

Nicht unbedingt Schwachsinn. Es wäre unlogisch.

BTW: http://download.nvidia.com/developer/presentations/GDC_2004/gdc_2004_OpenGL_NV_exts.pdf

Schöne Featureübersicht und auch ein paar Performance hints zu den neuen Features.

robbitop
2004-03-24, 15:50:47
@burk da steht 3 times
2times ist NV41

Gast
2004-03-24, 16:44:22
Original geschrieben von Radeonator
Was genau hört sich da net so gut an? Meinst du das Mid/Low End erst Später erscheinen? Ist doch normal?


btw. ATi hat derzeit aber äusserst saftige Preise (9800xt = 100$ pro Chip...die Spinnen, die Römer ;) )

Bin nur gespannt was ATi für ein Monster aus dem Sack lässt!!!

Ich hoffe das du unrecht hast burk23 , mir wäre eine intelligentere Architektur lieber...

Plappert nicht alle das nach was unsinn ist!

nv hat viel höhere Preise für Ihre FX5950!

MadManniMan
2004-03-24, 16:52:07
Bingo robbi :up: Genau die meinte ich!

Aber ich habe mich wohl heut morgen verlesen, den NV40 zwischen Q1 und Q2 einfach nicht wahrgenommen :|

...ein Zeichen? ;D

Börk
2004-03-24, 17:04:41
Original geschrieben von robbitop
@burk da steht 3 times
2times ist NV41
also 3 times ist der NV45.
2 times dachte ich wäre die PCI-E Version des NV40, weil beim NV40 steht ja nur AGP 8x und nix von PCI-E...

Godmode
2004-03-24, 17:22:32
Nach mal zu dem schei.. den The Inquirer gebracht haben wo es um den NV40 geht dass er doch "nur" 8*2 ist. Ich habe nochmal in der PCGH nachgelesen und bin auf etwas gestoßen:

Sie gehen dort von 175 mio Transen aus und meinen das es für 8*2 nicht reicht, deshalb würden sie nur 6*2 implementiern. Um jetzt die Rechenleistung zu steigern meinen die da, dass man VS einheiten so umfunktionieren könnte das der VS PS berechnen könnte, da der VS sowiso meistens unterfordert ist.

An Demirug: könnte da doch was dran sein, oder ist das wirklich nur Schwachsinn? Ich weiss ja nicht wie es ganau abläuft in der GPU, aber dass der VS einfach Sachen übernimmt die normalerweise der PS rechen muss kann ich mir nicht gut vorstellen!

Demirug
2004-03-24, 17:32:00
Original geschrieben von bans3i
Nach mal zu dem schei.. den The Inquirer gebracht haben wo es um den NV40 geht dass er doch "nur" 8*2 ist. Ich habe nochmal in der PCGH nachgelesen und bin auf etwas gestoßen:

Sie gehen dort von 175 mio Transen aus und meinen das es für 8*2 nicht reicht, deshalb würden sie nur 6*2 implementiern. Um jetzt die Rechenleistung zu steigern meinen die da, dass man VS einheiten so umfunktionieren könnte das der VS PS berechnen könnte, da der VS sowiso meistens unterfordert ist.

Du meinst die 04/04? Das was ich da geschrieben habe hat sich inzwischen ja überholt. Es wurden ja nur Varianten aufgezeigt.

An Demirug: könnte da doch was dran sein, oder ist das wirklich nur Schwachsinn? Ich weiss ja nicht wie es ganau abläuft in der GPU, aber dass der VS einfach Sachen übernimmt die normalerweise der PS rechen muss kann ich mir nicht gut vorstellen!

Im Prinzip hätte es funktionieren können aber die VS des NV40 sind aus verschiedenen Gründen leider doch nicht als Pixelshader benutzbar.

GRiNSER
2004-03-24, 17:45:22
Original geschrieben von ShadowXX
Ist zwar langsam uninteressant, aber das Fillrate is King kommt von nV und wurde im Zusammenhang mit dem release der GeForce2 GTS von nVs Mr.K. in den Raum geworfen....

Ich habe zwar jetzt nicht das direkte Zitat gefunden, aber wenn man bei google(uk) mal "fillrate +is king" eingibt, stösst man auf mehrere ältere Tests und Berichte, wo das Fillrate is King im zusammenhang mit nV benutzt wird....
oky, danke für die richtigstellung! hatte das nicht mehr in erinnerung :(

robbitop
2004-03-24, 18:04:40
@burk
NV45 = NV40 mit nativer PCI-E Unterstützung ;)

Börk
2004-03-24, 18:57:05
Original geschrieben von robbitop
@burk
NV45 = NV40 mit nativer PCI-E Unterstützung ;)
Ah danke für die Info.
Naja die 3x schneller hören sich dann schon eher nach ner NVidia Marketing Zahl an, wobei ich denke, dass die in manchen Bereichen gar nicht so abwegig sein wird...

Quasar
2004-03-24, 18:59:22
Original geschrieben von burk23
Hmm, vorallem das 2x faster than NV35 würde mich in meiner Vermutung bestärken, dass der NV40 ein doppelter NV35 mit PS3.0/VS3.0 ist. Natürlich mit ein paar Verbesserungen, die wohl besonders im PS und Stencil Bereich vorzufinden sind...

Die Frage ist, wie alt diese Roadmap ist und was genau die da unter nV40 verstehen. ;)

Quasar
2004-03-24, 19:02:03
Original geschrieben von robbitop
@burk
NV45 = NV40 mit nativer PCI-E Unterstützung ;)

Quelle?
(und bitte keine Spekulationen als Quelle)

robbitop
2004-03-24, 19:30:41
Quelle Dave B

Quasar
2004-03-24, 19:37:46
Also genausoviel Wert, wie selbst raten.

Hat er Infos, hat er ein NDA, hat er keine, ist's aus zweiter Hand.

Sorry, daß ich hier so über diesen "Gott" reden muss.

robbitop
2004-03-24, 19:51:14
ich denke er hat gewisse Kontakte die andere nicht haben. Die Crew von B3D war zT bei den IHVs beschäftigt (zB Kristof Beets bei 3dfx), somit hat man noch Freunde aus alten Zeiten. Somit kommt man auch ohne NDA an solche Infos..

aths
2004-03-24, 23:17:18
Original geschrieben von robbitop
ich denke er hat gewisse Kontakte die andere nicht haben. Die Crew von B3D war zT bei den IHVs beschäftigt (zB Kristof Beets bei 3dfx), somit hat man noch Freunde aus alten Zeiten. Somit kommt man auch ohne NDA an solche Infos.. Wavey hat definitiv Quellen, die Normalsterblichen à la 3dcenter-Staffis verschlossen sind. Jedenfalls redete er auf der CeBit z. B. über den R420 so, als wüsste er deutlich mehr, als ich.

Ailuros
2004-03-24, 23:40:44
Original geschrieben von robbitop
ich denke er hat gewisse Kontakte die andere nicht haben. Die Crew von B3D war zT bei den IHVs beschäftigt (zB Kristof Beets bei 3dfx), somit hat man noch Freunde aus alten Zeiten. Somit kommt man auch ohne NDA an solche Infos..

Kristof war bei 3dfx fuer eine kurze Zeit eingestellt und zog dann zu IMG rueber. Wie dem auch sei gehoerte er zwar zu den Gruendern von B3D, hatte aber schon zu 3dfx Zeiten und heute sehr wenig mit der Seite zu tun. Ihm wurden Administratoren-Rechte aus politischen Gruenden entzogen.

Administrator und chief editor ist Dave Baumann bei B3D und daher wird er auch unter NDA gestellt von IHVs, was momentan fuer ATI und NV der Fall ist.

MadManniMan
2004-03-25, 01:41:59
Auahaua! Stop! Nomma zurück!

Ich möcht nochmal auf die Roadmap zurückkommen, die ich vorhin erwähnte... also die hier:

http://www.ttecx.de/files/news/newsbilder_big/upload/NVIDIA_opt.jpg

Nachdem in einem Nachbarthread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=132868) darüber spekuliert wurde, daß auch die wohl dazugehörige ATi-Roadmap gefaked wär, also die hier...

http://gfx.turtled.com/n/36000/36012_2b.jpg

...was man daran festmachte, daß die ATi-Logos noch dem inzwischen nicht mehr so wirklich aktuellen Design entsprechen, wollte ich nochmal um eure Meinung nach der Echtheit und/oder Verläßlichkeit der beiden Folien beten.

Es gäbe natürlich einige Erklärungen dafür: jemand hat irgendwo Infos aufgeschnappt und sich Roadmaps gebastelt, dabei aber das alte ATi-Logo genommen - weil grad zur Hand, ne? Oder aber es sind beides recht alte Folien... Oder aber es sind reine Fakes? Hm.

Auf jeden Fall irritiert mich auch die Nomenklatur der einen nV-Karte: FX6000 ... paßt IMHO nicht wirklich...

Leutz, was meint ihr?

marco42
2004-03-25, 01:50:21
Hi

Aus den OpenGl Extension fuer NV40 (http://download.nvidia.com/developer/presentations/GDC_2004/gdc_2004_OpenGL_NV_exts.pdf) kann man einige Infos herauslesen. Dynamic Branching scheint nicht viel zu kosten in den Vertex Shadern. Bei den Fragment Shadern sieht das wiederum anders aus. Steht aber alles drin.

ShadowXX
2004-03-25, 09:18:37
Original geschrieben von MadManniMan
Auahaua! Stop! Nomma zurück!

Ich möcht nochmal auf die Roadmap zurückkommen, die ich vorhin erwähnte... also die hier:

http://www.ttecx.de/files/news/newsbilder_big/upload/NVIDIA_opt.jpg

Nachdem in einem Nachbarthread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=132868) darüber spekuliert wurde, daß auch die wohl dazugehörige ATi-Roadmap gefaked wär, also die hier...

http://gfx.turtled.com/n/36000/36012_2b.jpg

...was man daran festmachte, daß die ATi-Logos noch dem inzwischen nicht mehr so wirklich aktuellen Design entsprechen, wollte ich nochmal um eure Meinung nach der Echtheit und/oder Verläßlichkeit der beiden Folien beten.

Es gäbe natürlich einige Erklärungen dafür: jemand hat irgendwo Infos aufgeschnappt und sich Roadmaps gebastelt, dabei aber das alte ATi-Logo genommen - weil grad zur Hand, ne? Oder aber es sind beides recht alte Folien... Oder aber es sind reine Fakes? Hm.

Auf jeden Fall irritiert mich auch die Nomenklatur der einen nV-Karte: FX6000 ... paßt IMHO nicht wirklich...

Leutz, was meint ihr?

lt. tb soll die ATI-Roadmap echt sein, nur etwas älter.

Zu nV Roadmap....ja, das mit dem FX6000 war mir auch aufgefallen...und ebenso, das dort keine "x*faster than" Zahl dabeisteht...
Daraus könnte man aber alles und nix ableiten (angefangen bei Fake bis hin zu FX6000 = Hochgetakter v35...).

Am 13/14 April wissen wir mehr..zumindest bei nVidia...

J.S.Shadow

Quasar
2004-03-25, 14:20:21
Original geschrieben von ShadowXX
lt. tb soll die ATI-Roadmap echt sein, nur etwas älter.

Zu nV Roadmap....ja, das mit dem FX6000 war mir auch aufgefallen...und ebenso, das dort keine "x*faster than" Zahl dabeisteht...
Daraus könnte man aber alles und nix ableiten (angefangen bei Fake bis hin zu FX6000 = Hochgetakter v35...).

Am 13/14 April wissen wir mehr..zumindest bei nVidia...

J.S.Shadow

Ich denke auch, daß sie ein wenig älter ist, genauso wie die von nV.

Was ich aber auf jeden Fall begrüße, ist die Entscheidung, den RV370, also das Einsteigersegment nun auch mit DX9 und besserer Leistung zu versorgen eins

Radeonator
2004-03-25, 23:31:08
He? Die können mit Chaintechs Firmen Zeichen nicht Anfangen ??? lol ? ...ehm ich mein die News auf der 3d-center Startpage...sind die blind ?

Ich glaube kaum das nV40=nV35/38 ist

Ach ja, auf dem Zauberwürfel oben drauf ist das Chaintech Logo, für alle die es immer noch net schnallen...

http://www.chaintechusa.com/tw/images/03_titlep04.gif


p.s.: Schnelle Reaktion Leo, THNX!

MadManniMan
2004-03-26, 02:10:24
Auch ich freu mich darüber, daß der RV370 kommt, aber ehrlich gesagt noch eher deshalb, weil er 0.11µ einführt =)

Innerlich ärgern tu ich mich darüber, daß der elendige RV280 weitergeführt wird :motz: Aber hey, wie nV so ATi, gelle ... nicht nur, daß der NV19 weiterlebt - nein! Man braucht nur 8 abzuziehen und kann mit Schrecken ersehen, was da an DX7-HW noch produziert wird.

robbitop
2004-03-26, 08:48:45
110nm soll wieder auf FSG als Dielectricum zurückgreifen..somit erst einmal kein low K bei TSMC 110nm Prozess

DrumDub
2004-03-26, 10:52:54
Original geschrieben von robbitop
110nm soll wieder auf FSG als Dielectricum zurückgreifen..somit erst einmal kein low K bei TSMC 110nm Prozess

aber mehr chips pro wafer. ;)

Demirug
2004-03-26, 10:56:10
:cop: FUAD :cop: macht einen neuen Versuch http://www.theinquirer.net/?article=14972 :D

DrumDub
2004-03-26, 11:12:38
Original geschrieben von Demirug
:cop: FUAD :cop: macht einen neuen Versuch http://www.theinquirer.net/?article=14972 :D

:lolaway: das wird ja immer abstruser...

robbitop
2004-03-26, 11:13:24
@drumdub
versteht sich von selbst ;)
solange der Yield ähnlich ist natürlich

Ailuros
2004-03-26, 11:23:53
Original geschrieben von Demirug
:cop: FUAD :cop: macht einen neuen Versuch http://www.theinquirer.net/?article=14972 :D

WARNUNG: 100% eigene Spekulation; keineswegs auf irgendwelche Daten (oeffentlich oder nicht) basierend.

NV40/MDolec:

Quad Texture= ~900-1000MPixels/s
PS2.0 per pixel lighting= ~300-350MPixels/s

PS: Meine Vorfahren brachten meistens den Botschafter mit schlechten Nachrichten um; darf ich diesmal ueberleben? ;D

robbitop
2004-03-26, 11:30:29
nette understatement Spekulation AiL ;)

Mr. Lolman
2004-03-26, 11:32:55
Original geschrieben von Radeonator
Ehm, ka was dich so erheitert Mad, aber naja...eh egal ;)

Die nV40 soll in ca3Wochen an den start gehen...wo siehst du da einen PaperLaunch :| ...die Karte hat lange ihr TapeOut hinter sich, erste Sample Karten wurden getestet/vorgeführt. Mitlesen wäre vielleicht wirklich erheiternd, wenn du es denn auch wirklich tun würdest ;D


Wenns wahr ist, dürfte es selbst im Juni nur 500 handverlsene NV40 für ganz Europa geben...

Quasar
2004-03-26, 11:37:04
Original geschrieben von Ailuros
WARNUNG: 100% eigene Spekulation; keineswegs auf irgendwelche Daten (oeffentlich oder nicht) basierend.

NV40/MDolec:

Quad Texture= ~900-1000MPixels/s
PS2.0 per pixel lighting= ~300-350MPixels/s

PS: Meine Vorfahren brachten meistens den Botschafter mit schlechten Nachrichten um; darf ich diesmal ueberleben? ;D

Wieso schlecht? Das wäre mehr als doppelt soviel, wie R350, also konkurrenzfähig zum R420.

Und mehr als ein Kopf-An-Kopf Rennen kann sich doch wohl keiner wünschen, oder?
Ist schließlich der Best-Case für die Endkundenpreise.

Original geschrieben von Demirug
:cop: FUAD :cop: macht einen neuen Versuch http://www.theinquirer.net/?article=14972 :D

Der ist sich echt für nichts zu schade..
Wenn es dann hinterher so kommen sollte, wie er _jetzt_ schreibt, wird er behaupten, er habe es ja schon vorher gesagt. :lolaway:

Anyway, seine Annahmen bezgl. der die-Size und der daraus resultierenden Unmöglichkeit des 16x1/32x0 sind schonmal von vorneweg falsch würde ich sagen. (Bis auf den Teil mit der Prozentrechnung)
Was würde nV JETZT, nachdem INT12 für DX9+ absolut gestorben ist, z.B. noch das mitschleppen der RC bringen?
Vielleicht fehlt sogar der Shadercore und man hat die zusätzlichen FP-Einheiten beim nV35 ein wenig aufgebohrt und ein paar mehr davon reingepackt.

Who knows?

Demirug
2004-03-26, 11:47:05
Original geschrieben von Quasar
Der ist sich echt für nichts zu schade..
Wenn es dann hinterher so kommen sollte, wie er _jetzt_ schreibt, wird er behaupten, er habe es ja schon vorher gesagt. :lolaway:

Anyway, seine Annahmen bezgl. der die-Size und der daraus resultierenden Unmöglichkeit des 16x1/32x0 sind schonmal von vorneweg falsch würde ich sagen. (Bis auf den Teil mit der Prozentrechnung)
Was würde nV JETZT, nachdem INT12 für DX9+ absolut gestorben ist, z.B. noch das mitschleppen der RC bringen?
Vielleicht fehlt sogar der Shadercore und man hat die zusätzlichen FP-Einheiten beim nV35 ein wenig aufgebohrt und ein paar mehr davon reingepackt.

Who knows?

:cop: FUAD :cop: ja mal scheinbar nicht. Der Shadercore des NV35 wird ja auch zum ausführen der T-OPs gebraucht.

ShadowXX
2004-03-26, 11:49:22
Original geschrieben von Mr. Lolman
Wenns wahr ist, dürfte es selbst im Juni nur 500 handverlsene NV40 für ganz Europa geben...

Warum???

robbitop
2004-03-26, 11:51:37
laut dem Interview auf withingames mit NVIDIA ist die NV40 Pipeline komplett auf FP32 ausgelegt, so wie R300 auf FP24 ausgelegt ist. Somit bringen niedrigere Formate keinen Speedup mehr. Das ganze kostet allerdings massig Transis.

Ich bin davon überzeugt, dass der NV40 seit ner ganzen Weile mal wieder etwas souveränes wird.

LovesuckZ
2004-03-26, 11:54:48
Original geschrieben von robbitop
laut dem Interview auf withingames mit NVIDIA ist die NV40 Pipeline komplett auf FP32 ausgelegt[...]

Ist doch beim NV30 auch so?!

Ailuros
2004-03-26, 11:55:39
Original geschrieben von robbitop
nette understatement Spekulation AiL ;)

Ich weiss dass Du mit 2000/700 zufriedener waerst, aber schau Dir nochmal genau Deine eigenen Werte an.

Ja die Spekulation ist extrem konservativ, aber ich lass mich lieber angenehm ueberraschen als stark enttaeuschen. Reine Ansichtssache.

robbitop
2004-03-26, 11:56:49
nein nicht wirklich.
Es gibt einfach zu viele Bottlenecks, was du meintest, sind die FPUs, ja die waren FP32.
Aber die Pipeline selbst ist darauf nicht wirklich ausgelegt, das kostete damals zu viele Transistoren. Man musste eben einen Kompromiss anbieten. Beim NV3x ist FP32 imo ein reines Techfeature, allerdings nicht nutzbar.

Laut NV soll man sich die FP32 Pipe beim NV40 geleistet haben. Das kostet eben an gewissen Stellen einfach extrem viele Transis

robbitop
2004-03-26, 11:57:43
hm naja hast du ein Link für das Programm?
würde es gern mal nachtesten bei mir.

Ailuros
2004-03-26, 11:57:54
Original geschrieben von robbitop
laut dem Interview auf withingames mit NVIDIA ist die NV40 Pipeline komplett auf FP32 ausgelegt, so wie R300 auf FP24 ausgelegt ist. Somit bringen niedrigere Formate keinen Speedup mehr. Das ganze kostet allerdings massig Transis.

Ich bin davon überzeugt, dass der NV40 seit ner ganzen Weile mal wieder etwas souveränes wird.

Zum Fettgedruckten:

wie es hier keinen Einfluss auf die Bandbreite geben sollte, moechte ich mal gerne hoeren. FP16 wird weiterhin existieren und das nicht aus Kompatibilitaets-Gruenden.

Ailuros
2004-03-26, 11:59:41
Original geschrieben von robbitop
hm naja hast du ein Link für das Programm?
würde es gern mal nachtesten bei mir.

Google mal nach MDolenc; ich hab jetzt mal keinen Link zum d/l.

Sei froh wenn Du 130-150MPixels/s mit PS2.0 per pixel lighting erreichen kannst.

robbitop
2004-03-26, 12:01:45
soweit ich weiss hat Aths mal gesagt, dass bei shaderlastigen Szenen der Chip viele Leertakte aufgrund der Shader macht.

Wenn die Pipe wie beim R300 eben auf ein gewisses Format ausgelegt sind und die Caches auch, dann funktioniert das.
angeblich war R300 auf FP32 geplant. Aber aufgrund der Transistoren hat man auf FP24 gesetzt.

Quasar
2004-03-26, 12:04:25
Original geschrieben von Demirug
:cop: FUAD :cop: ja mal scheinbar nicht. Der Shadercore des NV35 wird ja auch zum ausführen der T-OPs gebraucht.
Ja, für kompliziertes Loopen, welches unter OpenGL immer noch künstlich auf 4 Texturen pro Pass beschränkt ist (selbst mit GLSL-Hack).

Ist's nicht möglich, daß man, mal angenommen der nV40 ist wirklich eine relativ große Weiterentwicklung, die TMUs wieder direkt an die 16 Pipes augelagert hat - man braucht ja kein TMU-Looping mehr (wenn's wirklich 16 Pipes sind), um die von DX9 geforderten 16 Texturops pro Pass zu unterstützen, sondern nur das Quad einmal komplett durch die Pipes weiterreichen.

Gerüchten zufolge will man nämlich auch "absolut kein Temp-Register-Problem" mehr haben.

Quasar
2004-03-26, 12:05:17
Original geschrieben von Ailuros
Google mal nach MDolenc; ich hab jetzt mal keinen Link zum d/l.

Sei froh wenn Du 130-150MPixels/s mit PS2.0 per pixel lighting erreichen kannst.

nV38 ohne OC: ~104 (PP: ~124)

Ailuros
2004-03-26, 12:05:26
Original geschrieben von robbitop
soweit ich weiss hat Aths mal gesagt, dass bei shaderlastigen Szenen der Chip viele Leertakte aufgrund der Shader macht.

Wenn die Pipe wie beim R300 eben auf ein gewisses Format ausgelegt sind und die Caches auch, dann funktioniert das.
angeblich war R300 auf FP32 geplant. Aber aufgrund der Transistoren hat man auf FP24 gesetzt.

Muss der Grund sein warum selbst ATI offiziell und unoffiziell eingesteht, dass es einen Bandbreiten-Unterschied selbst zwischen FP24 und FP32 gibt.

robbitop
2004-03-26, 12:07:03
scheint nicht sehr weit verbreitet zu sein. Ich finde leider mit google keinen D/L Link

kann mir jmd aushelfen ? (oder per Email)

zu FP24/32
sehr interessant, man lernt nie aus.
Aber hatte aths denn Unrecht oder ist damit was anderes gemeint?

Mr. Lolman
2004-03-26, 12:07:31
Original geschrieben von Ailuros
Google mal nach MDolenc; ich hab jetzt mal keinen Link zum d/l.

Sei froh wenn Du 130-150MPixels/s mit PS2.0 per pixel lighting erreichen kannst.

Kannst dus nicht per E-Mail schicken, oder auf nen Webspace stellen? der 'offizielle' D/l Link ist TOT: http://www2.arnes.si/~mdolen/Tester.zip

Demirug
2004-03-26, 12:24:56
Original geschrieben von Quasar
Ja, für kompliziertes Loopen, welches unter OpenGL immer noch künstlich auf 4 Texturen pro Pass beschränkt ist (selbst mit GLSL-Hack).

Ist's nicht möglich, daß man, mal angenommen der nV40 ist wirklich eine relativ große Weiterentwicklung, die TMUs wieder direkt an die 16 Pipes augelagert hat - man braucht ja kein TMU-Looping mehr (wenn's wirklich 16 Pipes sind), um die von DX9 geforderten 16 Texturops pro Pass zu unterstützen, sondern nur das Quad einmal komplett durch die Pipes weiterreichen.

Pipelinecombinding ist Gift. Für das Loopen braucht man den Shadercore auch nicht. Dafür ist der Gatekepper verantwortlich. Zudem kann man eine textur ja auch mehrfach auslesen. DX9 Hardware funktioniert ohne Loops einfach nicht mehr. Loopen ist auch nicht wirklich kompliziert.

Demirug
2004-03-26, 12:26:21
Original geschrieben von LovesuckZ
Ist doch beim NV30 auch so?!

Nein. In den ganzen NV3X Chips steckt noch eine Menge FX12 im Pixelprozessor.

Demirug
2004-03-26, 12:28:13
Original geschrieben von Ailuros
WARNUNG: 100% eigene Spekulation; keineswegs auf irgendwelche Daten (oeffentlich oder nicht) basierend.

NV40/MDolec:

Quad Texture= ~900-1000MPixels/s
PS2.0 per pixel lighting= ~300-350MPixels/s

PS: Meine Vorfahren brachten meistens den Botschafter mit schlechten Nachrichten um; darf ich diesmal ueberleben? ;D

Ich finde nicht mal 300MHz wären aber etwas wenig oder? Oder warum bist du beim Quad texture Test so geizig?

Pixel Light habe ich dabei jetzt nicht betrachtet.

Quasar
2004-03-26, 12:32:17
Na gut =)

Andere Frage: Ist's möglich (bzw. wie aufwendig ist's), den Shadercore so umzubauen, daß man... ähemm... rein spekulativ natürlich, zwei komplette FP32-Rechenwerke hat, die dann bestimmte, flexible Eigenschaften haben?

Demirug
2004-03-26, 12:41:05
Original geschrieben von Quasar
Na gut =)

Andere Frage: Ist's möglich (bzw. wie aufwendig ist's), den Shadercore so umzubauen, daß man... ähemm... rein spekulativ natürlich, zwei komplette FP32-Rechenwerke hat, die dann bestimmte, flexible Eigenschaften haben?

Dann kannst du auch einfach einen zweiten Core in die Pipeline hängen dem eben die Ports zur TMU fehlen. Wobei ein ?x1 Shadercore (wenn 16x1 stimmt) ja sowieso nur noch einen Port zur TMU braucht.

IMHO wäre das aber Verschwendung. Der Shadercore kann ja zum Beispiel Sinus. Wie oft braucht man in einem Shader den Sinus als das ich sich lohnen würde diese Funktion pro Pipe zweimal ausführen zu können.

Der Shadercore selbst besteht ja aus vielen einzelen Rechenwerke (Skalare). Ergo sollte man zu einem solchen Core eben noch das dazu schalten von dem man denkt das man es oft braucht.

ow
2004-03-26, 12:46:38
Original geschrieben von robbitop
nein nicht wirklich.
Es gibt einfach zu viele Bottlenecks, was du meintest, sind die FPUs, ja die waren FP32.
Aber die Pipeline selbst ist darauf nicht wirklich ausgelegt, das kostete damals zu viele Transistoren. Man musste eben einen Kompromiss anbieten. Beim NV3x ist FP32 imo ein reines Techfeature, allerdings nicht nutzbar.



Wie bitte?

Der NV3x ist AFAIK ebenfalls komplett auf FP32 ausgelegt, das zeigt sich schon daran, dass er mit FP32 so schnell ist wie mit FP16 (solange genuegend Platz im Registerfile ist).

Demirug
2004-03-26, 12:58:05
Original geschrieben von ow
Wie bitte?

Der NV3x ist AFAIK ebenfalls komplett auf FP32 ausgelegt, das zeigt sich schon daran, dass er mit FP32 so schnell ist wie mit FP16 (solange genuegend Platz im Registerfile ist).

SQRT ist die eine Ausnahme: FP16 1 Takt. FP32 2 Takte.
Dazu kommt bei CineFX II noch eine ADD Einheit die nur FP16 beherscht.

Die ganzen FX12 Regcombiner jetzt mal überhaupt nicht berücksichtigt.

Mr. Lolman
2004-03-26, 14:12:14
Original geschrieben von Quasar
nV38 ohne OC: ~104 (PP: ~124)

64MB Radeon 9500@pro (369/306) Omega 3.7:

PS 2.0 - Per Pixel Lighting - 160.215088M pixels/sec


richtiger Link: http://www2.arnes.si/~mdolen/FillrateTester.zip

ow
2004-03-26, 14:36:54
Original geschrieben von Demirug
SQRT ist die eine Ausnahme: FP16 1 Takt. FP32 2 Takte.
Dazu kommt bei CineFX II noch eine ADD Einheit die nur FP16 beherscht.


Also zwei Ausnahmen, ok.

Die ganzen FX12 Regcombiner jetzt mal überhaupt nicht berücksichtigt.

Es ging hier ja auch nur um FP16 vs. FP32.

MadManniMan
2004-03-26, 14:47:10
Original geschrieben von Mr. Lolman
64MB Radeon 9500@pro (369/306) Omega 3.7:

PS 2.0 - Per Pixel Lighting - 160.215088M pixels/sec


(Wenn meine Einstellungen - Display mode: 1024x768 A8R8G8B8 75Hz Z-Buffer format: D16_LOCKABLE - die Selben waren...)

Radeon 9500Pro (die echte ;) ) @380/320 / Cata 4.3

FFP - Quad texture - 468.114807M pixels/sec
PS 2.0 - Per Pixel Lighting - 188.245987M pixels/sec

:| Bissel viel, oder spielen die 64MB Ram da mit rein?

Gast
2004-03-26, 14:54:31
[SIZE=1]Original geschrieben von ow
Der NV3x ist AFAIK ebenfalls komplett auf FP32 ausgelegt,
Jo, deswegen ist der NV30 ja auch soo schnell mit FP32. ;D
Original geschrieben von ow
das zeigt sich schon daran, dass er mit FP32 so schnell ist wie mit FP16 (solange genuegend Platz im Registerfile ist).
http://www.3dcenter.org/artikel/r9800xt_vs_gffx5950u/index5.php

Bsp. Shader 9 - ist doch ein "kleiner" Unterschied zwischen FP32 und FP16. :D

ow
2004-03-26, 14:57:20
Original geschrieben von Gast
Jo, deswegen ist der NV30 ja auch soo schnell mit FP32. ;D

http://www.3dcenter.org/artikel/r9800xt_vs_gffx5950u/index5.php

Bsp. Shader 9 - ist doch ein "kleiner" Unterschied zwischen FP32 und FP16. :D


Lieber Gast, nicht nur lesen sondern auch verstehen lautet die Devise.
Also, was habe ich geschrieben?

aths
2004-03-26, 15:18:17
Original geschrieben von robbitop
laut dem Interview auf withingames mit NVIDIA ist die NV40 Pipeline komplett auf FP32 ausgelegt, so wie R300 auf FP24 ausgelegt ist. Somit bringen niedrigere Formate keinen Speedup mehr.FP16 könnte noch Geschwindigkeitsvorteile bringen:

- Weniger Platzverbrauch in den Registern

- Weniger Bandbreitenverbrauch.


Original geschrieben von LovesuckZ
Ist doch beim NV30 auch so?! Nein. Auch beim NV35 nicht.

aths
2004-03-26, 15:23:40
Original geschrieben von robbitop
soweit ich weiss hat Aths mal gesagt, dass bei shaderlastigen Szenen der Chip viele Leertakte aufgrund der Shader macht. Konkreter bitte, was ich gesagt habe (haben soll.)

Kürzlich schrieb ich, dass bei langen arithmetischen Shaderteilen kaum Bandbreitenverbrauch da ist, in dieser Zeit könnte ein auf Lastenverteilung optimiertes Speicherinterface in aller Ruhe die bislang fertigen Pixel trotz 4x MSAA in den Backbuffer schreiben. Meinst du das?

Demirug
2004-03-26, 15:24:19
Original geschrieben von aths
FP16 könnte noch Geschwindigkeitsvorteile bringen:

- Weniger Platzverbrauch in den Registern

- Weniger Bandbreitenverbrauch.

Erschwerend kommt noch hinzu das man nur bei FP16 Texturen einen Texturfilter hat und auch nur FP16 Rendertargets blendoperationen erlauben.

Nachzulesen dort: http://download.nvidia.com/developer/presentations/GDC_2004/gdc_2004_OpenGL_NV_exts.pdf

Sphinx
2004-03-26, 15:52:43
Original geschrieben von Ailuros
WARNUNG: 100% eigene Spekulation; keineswegs auf irgendwelche Daten (oeffentlich oder nicht) basierend.

NV40/MDolec:

Quad Texture= ~900-1000MPixels/s
PS2.0 per pixel lighting= ~300-350MPixels/s

PS: Meine Vorfahren brachten meistens den Botschafter mit schlechten Nachrichten um; darf ich diesmal ueberleben? ;D


R97ooPro @ 360 Chip|340 Mem : 1280x1024 : 75 Hz

Quad texture - 539.354858M pixels/sec
PS2.0 Per Pixel Lighting - 161.205307M pixels/sec

Ailuros
2004-03-26, 16:26:32
Original geschrieben von Demirug
Ich finde nicht mal 300MHz wären aber etwas wenig oder? Oder warum bist du beim Quad texture Test so geizig?

Pixel Light habe ich dabei jetzt nicht betrachtet.

Zu schnell getippt, eine wichtige Kleinigkeit vergessen: ich hab mit 4xMSAA geschaetzt. Ich hoffe dass jetzt das Publikum die benches nicht nochmal von Anfang an durchrennt ROFL :D

Gast
2004-03-26, 16:29:22
FFP - Quad texture - 927.427673M pixels/sec
PS 2.0 - Per Pixel Lighting - 104.682060M pixels/sec

Mit NV38

Ailuros
2004-03-26, 16:31:31
Original geschrieben von Gast
FFP - Quad texture - 927.427673M pixels/sec
PS 2.0 - Per Pixel Lighting - 104.682060M pixels/sec

Mit NV38

LOL siehe oben....

*rennt davon bevor er gelyncht wird*

Mr. Lolman
2004-03-26, 16:41:45
Original geschrieben von MadManniMan
(Wenn meine Einstellungen - Display mode: 1024x768 A8R8G8B8 75Hz Z-Buffer format: D16_LOCKABLE - die Selben waren...)

Radeon 9500Pro (die echte ;) ) @380/320 / Cata 4.3

FFP - Quad texture - 468.114807M pixels/sec
PS 2.0 - Per Pixel Lighting - 188.245987M pixels/sec

:| Bissel viel, oder spielen die 64MB Ram da mit rein?

Möglich. Den Benchmark machte ich in 320x200. In 1024x768 sinds 163Mpixels/sec. Auf der Karte in meiner Sig. kommen ~200Mpixels/sec. raus...

Gast
2004-03-26, 16:53:52
Ist zwar keine Pipeline oder Mhz Angabe...

Aber ein Teaser in Richtung Performance des NV40, wenns denn stimmt.

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

During his keynote speech at GDC, game engine developer extraordinaire John Carmack teased the audience about NVIDIA's soon to be launched NV40 with a quick quip which was as follows.

"I just got an nv40 and put it in my dev machine, and it is spectacular!"

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

http://www.nvnews.net/#1080315857

Demirug
2004-03-26, 16:55:11
Original geschrieben von Ailuros
Zu schnell getippt, eine wichtige Kleinigkeit vergessen: ich hab mit 4xMSAA geschaetzt. Ich hoffe dass jetzt das Publikum die benches nicht nochmal von Anfang an durchrennt ROFL :D

Ähmmm MSAA hat bei dem Test doch kaum eine Auswirkung.

r@e
2004-03-26, 17:02:37
Original geschrieben von Mr. Lolman
Möglich. Den Benchmark machte ich in 320x200. In 1024x768 sinds 163Mpixels/sec. Auf der Karte in meiner Sig. kommen ~200Mpixels/sec. raus... Was selbstredend für ultra-kurze "ATI-like"-Shader gilt...
:D

Das Thema hatten wir ja schon mal.
Und was soll damit jetzt bewiesen werden ?
:???:

Und vor allem: was bitte hat dies in diesem Thread zu suchen, wo ja von dem NV40 noch rein gar nichts in dieser Hinsicht bekannt ist ?

Razor

r@e
2004-03-26, 17:04:43
Original geschrieben von Gast
"I just got an nv40 and put it in my dev machine, and it is spectacular!"Jo, Carmack findet den NV40 dolle...
(insofern scheinen doch schon ein paar von Dingern zu existieren ,-)

Was auch immer das bedeuten mag... :|

Razor

thop
2004-03-26, 17:12:29
Jo das ist auch ein großes Wunder dass John Carmack die NV40 toll findet :|

Also nächstes kommt Gabe von Valve und verkündet er findet den R420 toll, das wäre auch so eine Riesenüberraschung :|

DrumDub
2004-03-26, 17:26:25
Original geschrieben von thop
Jo das ist auch ein großes Wunder dass John Carmack die NV40 toll findet :|

Also nächstes kommt Gabe von Valve und verkündet er findet den R420 toll, das wäre auch so eine Riesenüberraschung :|

hehe... bingo! also keine neuen erkenntnisse. :freak:

r@e
2004-03-26, 17:30:11
Original geschrieben von DrumDub
hehe... bingo! also keine neuen erkenntnisse. :freak: Doch...
Es existieren lauffähge Samples !
(und sie 'begeistern' einen Carmack :freak: )

Razor

reunion
2004-03-26, 18:31:10
Original geschrieben von r@e
Doch...
Es existieren lauffähge Samples !

Razor

Toll, die Karte soll in zwei Wochen vorgestellt werden, wenn jetzt noch keine Samples verfügbar wären müssten wir wohl noch bis zum Herbst auf den NV40 warten.
( Beim NV30 exsestierten damals auch Samples ;) )

Gast
2004-03-26, 18:32:15
Was man auch wiederum als folgendes auslegen könnte:

was er kriegt erst so knapp vor dem release ein sample.... (den rest kann jemand anders weiteridchten)

LovesuckZ
2004-03-26, 18:38:02
Original geschrieben von Gast
was er kriegt erst so knapp vor dem release ein sample.... (den rest kann jemand anders weiteridchten)

Release, ist doch sowieso erst im Mai. Und Testkarte für die Seiten sollen am Ende des Monats rausgehen.

Gast
2004-03-26, 18:57:27
Sorry, daß ich zum Vergleich von Ailuros' Erwartungen zwei Werte gepostet habe (ohne 4xMSAA allerdings).

Ich hätte wissen müssen, daß da gleich wieder einige herumspringen, ihren Schwanz danebenhalten und schreien "Meiner ist länger".

:-C

;Q

Sphinx
2004-03-26, 18:59:16
Original geschrieben von LovesuckZ
Release, ist doch sowieso erst im Mai. Und Testkarte für die Seiten sollen am Ende des Monats rausgehen.

Wenn ich im allgemeinen drüber nachdenke... NV40/R420

Mhh dann lohnt sich das Aufrüsten für mich nicht -> PCI-E im August -> September ~ 3-4 Monate tut´es mein System noch "locker"

Mr. Lolman
2004-03-26, 20:03:15
Original geschrieben von Gast
Sorry, daß ich zum Vergleich von Ailuros' Erwartungen zwei Werte gepostet habe (ohne 4xMSAA allerdings).

Ich hätte wissen müssen, daß da gleich wieder einige herumspringen, ihren Schwanz danebenhalten und schreien "Meiner ist länger".

:-C

;Q


Sorry dass ich zum Vergleich von Ailuros' Erwartungen zwei Werte gepostet hab.

Ich hätte wissen müssen, dass wieder einige, womöglich tatsächlich ob der schwachen Leistungen, oder vielleicht weil die Karte nicht von NV ist, Schwanzvergleichsparanoia bekommen; dass dann einige gleich in Erklärungsnotstand kommen und klarstellen müssen, warum denn NV langsamer ist...

Ich kannte den Test nicht, und hab ihn auch mal auf meiner Karte ausgeführt. Wo ist das Problem? Vielleicht weils ein NV Spekuthread ist, und dieser frei von ATi Einflüssen sein sollte? Sry, aber da find ich deine Reaktion echt arm*... :kotz:


BTW: tb hat seine Beteiligung am Thomas_B Thread dementiert. Im Nachhinein scheints auch ziemlich blöd, als Gast unter erkennbaren Pseudo Nick um dem heissen Brei herumzureden. ;) Ernstgemeinstes sry, dass ich beim Verbreiten der Gerüchte beteiligt war.


* was ganz was anderes wärs gewesen, wenn mein Post lautete:LOL, doppelt so schnell eine lahme NV38: 200MPixels/sec.

Insgesamt find ich auch die ATi Werte verdammt schwach. In der Gegend von 500MPixels/sec wirds dann langsam interessant, was aber nur mit 16 Pipes und 500MHz machbar wäre, dementsprechend gehe ich von 375-400MPixels/Sec bei den neuen Atis aus, sofern der R420 mit min. 500MHz läuft, und an den Pipes (12) sonst nichts grossartig geändert wurde

Godmode
2004-03-27, 00:55:14
Harware.net schreiben das beim NV40 die 170 Mio Transitoren Faktum sind!

Radeonator
2004-03-27, 01:00:21
Ich werde immer gespannter...

During his keynote speech at GDC, game engine developer extraordinaire John Carmack teased the audience about NVIDIA's soon to be launched NV40 with a quick quip which was as follows.
"I just got an nv40 and put it in my dev machine, and it is spectacular!"


Quelle : nvnews.de (http://www.nvnews.de/)

GRiNSER
2004-03-27, 01:29:43
Original geschrieben von Radeonator
Ich werde immer gespannter...

During his keynote speech at GDC, game engine developer extraordinaire John Carmack teased the audience about NVIDIA's soon to be launched NV40 with a quick quip which was as follows.
"I just got an nv40 and put it in my dev machine, and it is spectacular!"


Quelle : nvnews.de (http://www.nvnews.de/)
schon zu lesen auf seite 22 :bäh:

MadManniMan
2004-03-27, 04:19:13
Original geschrieben von thop
Jo das ist auch ein großes Wunder dass John Carmack die NV40 toll findet :|

Also nächstes kommt Gabe von Valve und verkündet er findet den R420 toll, das wäre auch so eine Riesenüberraschung :|

:lolaway:

BTW: inwieweit ist der Test anderweitig begrenzt? Ich mein, wie kann man die Lasten hierfür einschätzen?

Und ja Razorle, ich weiß daß du die Shader wohl viel zu kurz findest :zunge:

r@e
2004-03-27, 08:18:28
Original geschrieben von Mr. Lolman
Ich kannte den Test nicht, und hab ihn auch mal auf meiner Karte ausgeführt. Wo ist das Problem? Vielleicht weils ein NV Spekuthread ist, und dieser frei von ATi Einflüssen sein sollte? Sry, aber da find ich deine Reaktion echt arm*...Tjo ich kannte den test schon laaaaaange... und auch Demirugs Kommentare dazu.
Ist vom Mai 2003 und meinen ersten 'Test' machte ich dann im August 2003.

Mich würde aber noch immer interessieren, was denn das jetzt mit dem NV40 zu tun haben soll.
:???:
Original geschrieben von Mr. Lolman
BTW: tb hat seine Beteiligung am Thomas_B Thread dementiert. Im Nachhinein scheints auch ziemlich blöd, als Gast unter erkennbaren Pseudo Nick um dem heissen Brei herumzureden. ;) Ernstgemeinstes sry, dass ich beim Verbreiten der Gerüchte beteiligt war. Was ja nichts Neues ist... aber gut, dass Du dies 'eingesehen' hast.

Razor

r@e
2004-03-27, 08:22:26
Original geschrieben von MadManniMan
Und ja Razorle, ich weiß daß du die Shader wohl viel zu kurz findest :zunge: Wäre gut, wenn sich Demirug dazu nochmal äussern könnte...

Und auch Du kannst diesen Sachverhalt prüfen, indem Du einfach mal diesen Test mit dem 3DA laufen läßt. Die Shder sind nicht nur kurz, sondern sogar ultra kurz. Man könnte auch sagen: absolut anspruchslos und wohl auch kaum auf die Real-World übertragbar...

Razor

P.S.: kannst Du mir wenigstens sagen, was das nun mit dem NV40 zu tun haben soll ?
:???:

Demirug
2004-03-27, 08:42:22
Original geschrieben von r@e
Wäre gut, wenn sich Demirug dazu nochmal äussern könnte...

Und auch Du kannst diesen Sachverhalt prüfen, indem Du einfach mal diesen Test mit dem 3DA laufen läßt. Die Shder sind nicht nur kurz, sondern sogar ultra kurz. Man könnte auch sagen: absolut anspruchslos und wohl auch kaum auf die Real-World übertragbar...

Razor

P.S.: kannst Du mir wenigstens sagen, was das nun mit dem NV40 zu tun haben soll ?
:???:

Die Shader liegen alle als Textdatei dabei man braucht also kein 3da.

Bis auf den PerPixelLighting Shader sind sie aber wirklich sehr syntetisch. Dieser Shader ist einigermaasen realistisch weil man in so auch in einem Spiel benutzten könnte. Allerdings sollte er sich durchaus noch etwas optimieren lasse.

r@e
2004-03-27, 09:15:04
Danke Demirug, für diese schnelle (und frühe ;-) Antwort/Reaktion Deinerseits.

Die 'komplexen' Shader sind diese beiden hier:
///////////////Pixel Shader - start//////////////
ps_2_0

def c0 , 0.000000, 0.000000, 2.000000, 0.000000

def c1 , 0.400000, 0.500000, 0.900000, 16.000000

dcl t0.xy
dcl t1.xyz
dcl t2.xyz
dcl_2d s0
dcl_2d s1
dp3 r1.w , t1 , t1
rsq r1.w , r1.wwww
mul r1.xyz , t1 , r1.wwww
add r0.xyz , c0 , -t2
dp3 r0.w , r0 , r0
rsq r0.w , r0.wwww
mad r0.xyz , r0 , r0.wwww , r1
dp3 r0.w , r0 , r0
rsq r0.w , r0.wwww
mul r0.xyz , r0 , r0.wwww
texld r2 , t0 , s0
dp3 r2.w , r2 , r2
rsq r2.w , r2.wwww
mul r2.xyz , r2 , r2.wwww
dp3 r1.w , r2 , r0
dp3 r1.xyz , r2 , r1
pow r1.w , r1.wwww , c1.wwww
mad r1.xyz , r1 , c1 , r1.wwww
texld r0 , t0 , s1
mul r0 , r1 , r0
mov oC0 , r0
///////////////Pixel Shader - end//////////////

///////////////Pixel Shader - start//////////////
ps_2_0

def c0 , 0.000000, 0.000000, 2.000000, 0.000000

def c1 , 0.400000, 0.500000, 0.900000, 16.000000

dcl t0.xy
dcl t1.xyz
dcl t2.xyz
dcl_2d s0
dcl_2d s1
dp3_pp r1.w , t1 , t1
rsq_pp r1.w , r1.wwww
mul_pp r1.xyz , t1 , r1.wwww
add_pp r0.xyz , c0 , -t2
dp3_pp r0.w , r0 , r0
rsq_pp r0.w , r0.wwww
mad_pp r0.xyz , r0 , r0.wwww , r1
dp3_pp r0.w , r0 , r0
rsq_pp r0.w , r0.wwww
mul_pp r0.xyz , r0 , r0.wwww
texld_pp r2 , t0 , s0
dp3_pp r2.w , r2 , r2
rsq_pp r2.w , r2.wwww
mul_pp r2.xyz , r2 , r2.wwww
dp3_pp r1.w , r2 , r0
dp3_pp r1.xyz , r2 , r1
pow_pp r1.w , r1.wwww , c1.wwww
mad_pp r1.xyz , r1 , c1 , r1.wwww
texld_pp r0 , t0 , s1
mul_pp r0 , r1 , r0
mov_pp oC0 , r0
///////////////Pixel Shader - end//////////////Einmal FP, einmal PP.
(kombiniert mit kurzen Vertex-Shadern)

Sind aber auch nicht gerade lang, als dass sich damit ein NV3x wirklich beschäftigen müsste.

Diese hier dagegen (ist nur ein Auszug) sind määääääächtig kurz:
///////////////Pixel Shader - start//////////////
ps_2_0

dcl v0
dcl v1
def c0 , 0.300000, 0.700000, 0.200000, 0.400000

add r0 , c0 , v1
add r0 , r0 , -v0
mov oC0 , r0
///////////////Pixel Shader - end//////////////Dass is nix...

Ach ja, hier mal die genaue Anzahl der 'beteiligten' Shader:
- PS 1.1 = 1
- PS 1.4 = 1
- PS 2.0 = 8
- VS 1.1 = 3

Razor

Ailuros
2004-03-27, 09:36:38
Original geschrieben von Demirug
Ähmmm MSAA hat bei dem Test doch kaum eine Auswirkung.

Bei PS2.0 ppl nicht, aber bei quad texturing schon. Wenn jetzt NV40 natuerlich auch bei quad texturing total "fill-rate free" ankommt, dann hab ich noch mehr Grund imponiert zu sein.

Andersrum:

quad texturing, blending und z-on + 4MSAA in SS:SE

=/>2000MPixels/s

Ailuros
2004-03-27, 09:40:54
Original geschrieben von Mr. Lolman


Insgesamt find ich auch die ATi Werte verdammt schwach. In der Gegend von 500MPixels/sec wirds dann langsam interessant, was aber nur mit 16 Pipes und 500MHz machbar wäre, dementsprechend gehe ich von 375-400MPixels/Sec bei den neuen Atis aus, sofern der R420 mit min. 500MHz läuft, und an den Pipes (12) sonst nichts grossartig geändert wurde[/i]

Du meinst die PS2.0 Resultate ja? Was viele von uns nie richtig gemerkt haben, ist dass die erste Generation von dx9.0 chips nur begrenzte Leistung selbst mit nur PS2.0 bringen koennen. Das war aber schon immer so was die Vorstellung von neuen Features betrifft.

reunion
2004-03-27, 10:01:42
[...] Wir können im Übrigen auch bestätigen, dass der letzte Grafikchip von nVidia für den AGP-Bus insgesamt 175 Millionen Transistoren besitzt. Die Gerüchte über 200 Mio. und mehr kann man also vergessen.Über Anzahl der Pipelines des NV40 (angeblich 16, während der ATI R420 12 besitzen soll) liegen Hartware.net allerdings keine gesicherten Erkenntnisse vor, so dass hier noch munter spekuliert werden darf.


http://www.hartware.de/news_36030.html

Ailuros
2004-03-27, 10:04:49
.....kommt ganz drauf an wie man Transistoren zaehlt...

:|

Winter[Raven]
2004-03-27, 10:55:03
Also nächstes kommt Gabe von Valve und verkündet er findet den R420 toll, das wäre auch so eine Riesenüberraschung

Ahhh ... warte, hast du diese Aussage etwa bei Hellbinder und Digitalwanderer ?

*gähn*

@ reunion

Derzeit weiß keiner welchen Trasiscount der NV40 wirklich hat. Jeder News zu dem thema ist eine Raterei !

[dzp]Viper
2004-03-27, 12:04:06
Original geschrieben von reunion
[...] Wir können im Übrigen auch bestätigen, dass der letzte Grafikchip von nVidia für den AGP-Bus insgesamt 175 Millionen Transistoren besitzt. Die Gerüchte über 200 Mio. und mehr kann man also vergessen.Über Anzahl der Pipelines des NV40 (angeblich 16, während der ATI R420 12 besitzen soll) liegen Hartware.net allerdings keine gesicherten Erkenntnisse vor, so dass hier noch munter spekuliert werden darf.


http://www.hartware.de/news_36030.html

auch eben gelesen

ist es nun überhaupt noch möglich mit 175 Mio Transistoren 16x1 zu haben?
Eigentlich gingen ja alle von über 200 Mio aus...

Noch ein Neues Bild - sieht man wieder, wie riesig der Core ist
http://gfx.turtled.com/n/36000/36030_1b.jpg

robbitop
2004-03-27, 12:07:11
@aths
genau diese Aussage meinte ich
wenn genug Bandbreite übrigbleibt, da der Chip eh zu tun hat, sollte der Bandbreitenbedarf bei FP32 nicht so störend sein.
Ich denke mal wenn NV meint, dass NV40 auf FP32 ausgelegt worden ist, sollten die Register Files auch groß genug sein, oder nicht?


zu diesen "gesicherten Erkenntnissen":
wie kann man ohne NDA zu solchen Schlussfolgerungen kommen?
Wenn man eins hätte, dann hätte man diese Aussage nicht tätigen dürfen.
gesichert ist sowas erst am 13./14.4 ;)

Winter[Raven]
2004-03-27, 12:17:01
@ [dzp]Viper

Es ist auch weiterhin davon auszugehen das der NV40 mit >200 Millionen kommen wird.

Wie du den Core schon anführst ist dieser zugroß für 175 Millionen.

Wir können im Übrigen auch bestätigen

Entweder haben die kein NDA unterschriben, womit sie auch nicht bei der Vorführung waren, oder sie brechen das NDA !

Ich Tippe auf das erste, ich glaube kaum das so eine "ETWAS" unwichtige Seite solche infos bekommt.

Demirug
2004-03-27, 12:18:59
Original geschrieben von [dzp]Viper
auch eben gelesen

ist es nun überhaupt noch möglich mit 175 Mio Transistoren 16x1 zu haben?
Eigentlich gingen ja alle von über 200 Mio aus...


Hängt eben alles davon ab wie man zählt.

Ailuros
2004-03-27, 13:16:29
Original geschrieben von Demirug
Hängt eben alles davon ab wie man zählt.

Darf ich noch hinzufuegen dass SIMD=!SIMD unter allen Faellen ist?

Ich will ernsthaft bezweifeln, dass die SIMD Kanaele genauso lang sind wie bei der NV3x Familie.

Demirug
2004-03-27, 13:24:14
Original geschrieben von Ailuros
Darf ich noch hinzufuegen dass SIMD=!SIMD unter allen Faellen ist?

Ich will ernsthaft bezweifeln, dass die SIMD Kanaele genauso lang sind wie bei der NV3x Familie.

Wenn man Dave Baumann glauben schenken will dann wollte nVidia den NV40 ja breit und kurz bauen. Mit 16 Pipes wäre er ja sehr breit gegenüber den 4 langen Pipes des NV35.

Die beiden wichtigen Buchstaben beim SIMD sind hier eindeutig das I und das D. Wie viele Daten pro Takt und was kann eine Instrucktion alles enthalten?

aths
2004-03-27, 13:43:36
Original geschrieben von robbitop
@aths
genau diese Aussage meinte ich
wenn genug Bandbreite übrigbleibt, da der Chip eh zu tun hat, sollte der Bandbreitenbedarf bei FP32 nicht so störend sein. Es gibt auch Chip-interne Bandbreite.
Original geschrieben von robbitop
Ich denke mal wenn NV meint, dass NV40 auf FP32 ausgelegt worden ist, sollten die Register Files auch groß genug sein, oder nicht?Eine Grenze wird es auch da geben. Soweit ich das sehe, empfiehlt NV nach wie vor, partial precision zu nehmen, wenn diese ausreicht.

aths
2004-03-27, 13:44:37
Original geschrieben von Winter[Raven]
Derzeit weiß keiner welchen Trasiscount der NV40 wirklich hat.Das würde ich so nicht sagen. Ich kenne Leute, die wissen sehr genau, wieviele Millionen Transistoren der NV40 hat.

Winter[Raven]
2004-03-27, 13:52:01
@ ATHS

Hab auch so gemeint, blöd nur pöd ausgedrückt. Natürlich gibt es diese Leute, aber diese dürfen Aufgrund ihres NDA nicht sprechen, ich bezweifle das www.hartware.de überhaupt irgendwelche infos hat, sonst würden sie sowas nicht veröffentlichen dürfen auf Grund ihres NDA.

Quasar
2004-03-27, 16:43:08
Original geschrieben von Mr. Lolman
Sry, aber da find ich deine Reaktion echt arm*... :kotz:

Getroffene Hunde bellen...

Mr. Lolman
2004-03-27, 16:46:40
Original geschrieben von Quasar
Getroffene Hunde bellen...

Wie man in den Wald hineinruft, so hallt es wieder...

ow
2004-03-27, 17:31:37
*MOD*

Je 1 Punkt für Quasar und Mr.lolman.

Wenn ihr irgendwelche Probleme miteinander habt tragt das per PN aus. Aber nicht hier im Thread.

Quasar
2004-03-27, 18:04:02
Probleme mit Mr. Lolman habe ich keine, ich kenne ihn ja nichtmal.
Ich möchte mir allerdings nicht gefallen lassen, "angekotzt" zu werden (s. mein Zitat).

Zum Thema:
Was man so liest könnte es durchaus sein, und würde Markt-Technisch (sorry für dieses Dummdeutsche Wort) auch Sinn machen, wenn nV jetzt zum Mittel ATis beim R300 greift: "Baut den besten Chip, den ihr hinbekommt, Kosten spielen keine Rolle".

In diesen Satz passt irgendwie alles, was man bisher so hören konnte:
- nV ist in den letzten zwei Jahren ins Hintertreffen geraten, weil man sich zu lange auf seinen Lorbeeren ausgeruht hatte und den Kunden jeden klitzekleinen Fortschritt mitbezahlen liess. Außerdem war man wohl von der Leistungsfähigkeit des R300 (welcher wiederum in Erwartung eines besseren nV30 so stark ausfiel) überrascht worden (zusätzlich zum DX9-Überraschungscoup, der IMO wiederum in Zusammenhang mit XBox stand).

- Wenn der R420 wirklich doppelt so schnell wie der R360 sein wird, _muss_ nV diesmal wirklich alle Kräfte aufbieten, um mitzuhalten, denn schlecht wird der R420 mit Sicherheit nicht.

- (Nennenswertes) Geld wird im High-End Markt sowieso nicht verdient. Da lohnt es sich schon, jeden verkauften High-Ender mit einem gewissen Betrag zu bezuschussen und dafür im Glanze gewonnener Benchmarks seine Mid-Range und Low-End Produkte besser absetzen zu können.

- Transistorzahlen scheinen ja nun wirklich jenseits von Gut und Böse, hüben wie drüben.

- Die Probleme, die CineFX I und II in der Hauptsache hatten, waren bekannt. Was bekannt ist, kann man beheben und insofern wird IMO der Leistungssprung bei nV größer ausfallen, als bei ATi, die hauptsächlich durch "mehr davon" zulegen können.

r@e
2004-03-27, 23:04:58
Und aus genau diesen, von Dir Quasar, genannten Gründen, finde ich die derzeitige Situation so spannend.

Wäre wirklich schade, wenn ATI tatsächlich 'nur' mit Geschwindigkeit kommen würde, denn nVidia scheint hier mit Performance, Features und einem höheren Tech-Level (also ohnehin schon vorhanden) aufzuwarten...

Auf den 13./14.April bin ich wirklich gespannt und ich hoffe inständig, dass da doch noch mehr von ATI kommt...

Razor

aths
2004-03-28, 00:08:55
Original geschrieben von Quasar
- (Nennenswertes) Geld wird im High-End Markt sowieso nicht verdient. Da lohnt es sich schon, jeden verkauften High-Ender mit einem gewissen Betrag zu bezuschussen und dafür im Glanze gewonnener Benchmarks seine Mid-Range und Low-End Produkte besser absetzen zu können.Dass der Enthusiast bezuschusst wird, kann ich mir kaum vorstellen.

r@e
2004-03-28, 01:57:42
Original geschrieben von aths
Dass der Enthusiast bezuschusst wird, kann ich mir kaum vorstellen. Absatz im Verhältnis zu den Produktionskosten ?
Geringer Absatz = hohe Produktionskosten.

Von den höherwertigen Komponenten (wie dem Speicher) und der Selektion der GPU's (wegen dem hohen Takt) mal ganz abgesehen. Und da ja bei der Entwicklung der Mainstream- und LowEnd-Chips auch die Enthusiast-Variante berücksichtigt wird und damit solche Nettigkeiten, wie exorbitante Kühlung etc zum Tragen kommen, könnte diese um ein vielfaches weniger aufwändig ausfallen, bliebe dies unberücksichtigt.

Gewinnen tun sie dabei sicher nichts, ob und wieviel sie dabei drauf' zahlen wissen wohl nur die IHV's...

Razor

mapel110
2004-03-28, 07:53:11
Original geschrieben von aths
Dass der Enthusiast bezuschusst wird, kann ich mir kaum vorstellen.

hm, najo, da kann ichs mir aber noch eher Vorstellen als bei Karten(chips), die ein weit grösseren Absatz haben. Eben Mid rage und low cost.

Generell glaube ich nicht nicht, dass irgendein chip querfinanziert werden muss. Die laufende Produktion wird sicher halbwegs wirtschaftlich sein, sowohl für Karten als auch für Chiphersteller. Das was sich weniger lohnen kann, sind imo eben die Entwicklungskosten. Und die fallen ja normalerweise nur einmal an.

Quasar
2004-03-28, 10:15:01
Original geschrieben von aths
Dass der Enthusiast bezuschusst wird, kann ich mir kaum vorstellen.

Ich schon. Immerhin sind das neben Print- und Online-Mags die besten Multiplikatoren.
(Boah sah das Geil aus... was hatte mein Kumpel nochmal für ne Graka? Irgendwas mit FX...)

ow
2004-03-28, 11:12:09
Original geschrieben von Quasar
Ich schon. Immerhin sind das neben Print- und Online-Mags die besten Multiplikatoren.
(Boah sah das Geil aus... was hatte mein Kumpel nochmal für ne Graka? Irgendwas mit FX...)

Ich nicht.
Bei den Preisen der Enthusiast Gamer Karten fällt das auf jeden Fall ein satter Gewinn für die IHVs ab.

aths
2004-03-28, 13:28:34
Original geschrieben von Quasar
Ich schon. Immerhin sind das neben Print- und Online-Mags die besten Multiplikatoren.
(Boah sah das Geil aus... was hatte mein Kumpel nochmal für ne Graka? Irgendwas mit FX...) Ich bin so informiert, dass die Margen bei den Highend-Boards größer sind, als bei den Mainstream-Versionen. Letztere machen nur durch ihre Anzahl den Löwenteil am Gesamtumsatz.

AlfredENeumann
2004-03-28, 14:18:59
Original geschrieben von ow
Ich nicht.
Bei den Preisen der Enthusiast Gamer Karten fällt das auf jeden Fall ein satter Gewinn für die IHVs ab.

So ist es auch. Bis auf den Speicher sind viele komponenten fast identisch. Das was an einer Highend-Grafikkarte teuer ist, ist der Speicher. Der Chip kostet je nach IHV zwar auch noch was, aber wenn man z.B. das Model nimmt was ATI mit der R3XX-Reihe gemacht hat, verdient man mit den Chips auch noch ganz gut (Teile defekt, einfach deaktivieren und als kleineres Modell verkaufen).

AlfredENeumann
2004-03-28, 14:21:35
Original geschrieben von aths
Ich bin so informiert, dass die Margen bei den Highend-Boards größer sind, als bei den Mainstream-Versionen. Letztere machen nur durch ihre Anzahl den Löwenteil am Gesamtumsatz.

Yup. Je mehr höherwertige Chips / Boards verkauft werden, desto besser für den IHV. Man glaubt immer das der IHV viel Kohle mit den kleinen Modellen macht, aber so ganz richtig ist das nicht. Man macht damit zwar viel Umsatz, aber wenig Gewinn pro Stück, also man hat ne kleine Marge. Kleine Marge ist sehr schlecht fürs Geschäft, da viel Geld fliessen muß für wenig Gewinn und das kostet ne menge Zinsen.

Quasar
2004-03-28, 19:42:50
Keine Mißverständnisse:
Ich glaube nicht, daß es aktuell so ist, ich halte nur die Möglichkeit nicht für abwegig.
Wenn ein IHV die Benchmarkkrone für sein Image benötigt, wird er sich nicht scheuen, an einer relativ kleinen Serie womöglich nichts oder gar weniger als nichts zu verdienen.

r@e
2004-03-28, 19:49:38
Also... das ist ja teilweise echt schlimm, was man hier lesen muss.
Sorry.

Die Mainstream- und LowEnd-Chips (insbesondere was letztere angeht) sind sehr viel einfacher herzustellen. Ein höherer Yield und bessere, optimiertere Fertigung treiben hier die Produktionskosten nach unten. Klar, dass auch die Marge hier nicht so hoch angesetzt werden kann, aber gemessen an dem Aufwand 'reicht' diese völlig. Vor allem, wenn man dann noch die verkauften Stückzahlen dagegen setzt.

Die HighEnd-Chips hingegen haben gleich vielfältigere Probleme. So sorgt zumindest die Selektion dafür, dass hier taktseitig die Spreu vom Weizen getrennt wird. Und ja, ATI macht selbst aus den 'kaputten' noch eine eigene Baureihe...

Aber das ganze ist trotzdem verdammt teuer... ein wesentlich kleinerer Yield und eine aufwändige Fertigung, vor allem der höheren Komplexität wegen. Klar, dass sich die IHV's das besser bezahlen lassen (müssen sie ja allein schon aufgrund des Ausschusses tun), aber wieder herein bekommen würden sie dies nur über entsprechend hohe Stückzahlen, die da verkauft werden müssten.

Und wenn wir uns jetzt mal ansehen, wie das in der Praxis aussieht:

ATI
- der R9800XT steht in der 500€-Klasse (also im 100'er darunter ;-)
- den Nachfolgechip R9800p gibt's für nicht mal die Hälfte
- den 'Kleinsten' gibt's noch mal 'ne ganze Ecke günstiger

nVidia
- die FX5950u steht in der 500€-Klasse (also im 100'er darunter ;-)
- der Nachfolgechip FX5900u dagegen in der 300'er Klasse
- der 'kleinste' wiederum unter 200...

Interessant ist hier aber der Abstand vom absoluten High-End zum nachfolgenden Modell.
Und der ist reichlich krass !

Aber auch ein Fehler, der hier immer wieder gemacht wird, ist zwischen dem Verkauf von Chips und dem Verkauf von ganzen Karten nicht zu unterscheiden.

Wer genau bekommt denn nun wirklich eine 'hohe' Marge... wer eine 'geringe'... ?

Die UltraHighEnd-Chips werden IMO noch immer von ATI und nVidia 'gesponsert', da sie für sich alleine betrachtet keinen großen Gewinn abwerfen können (und damit dem Aufwand einfach nicht gerecht werden). Da diese aber letztlich die großen Stückzahlen 'anschieben' (hier also das LowEnd) 'lohnt' sich das Ganze wieder. Nichts desto trotz, muss man es als eine art 'Sponsoring' sehen... meinetwegen auch als 'Werbung'...
:D

Razor

MadManniMan
2004-03-28, 20:25:46
Was ist deine Quelle? Ich vertraue in diesem Falle AEN nämlich sehr, das ist sein Metier.

thop
2004-03-28, 20:33:03
Es wird ja gerum0rt dass das Flagschiff der neuen nV Generation nur in ganz geringer Stückzahl auf den Markt kommt, da man bloss für die Benchmarkkrone alles auf EXTREM gemacht hat, aber nur handverlesene Chips (miserabler yield) das auch wirklich schaffen und zusätzlich womöglich auch noch der nVFön zurück kommt.

Vielleicht wird das ein Sammlerstück ;)

AlfredENeumann
2004-03-28, 20:54:59
Razor, ein kleines Rechenbeispiel:

10.000 Chips für 200€ Verkauf an denen man 100€ Gewinn per Stück erzielt.
= 2.000.000€ Umsatz
= 1.000.000€ Gewinn

312.500 Chips für 22€ Verkauf an denen man 3,20€ Gewinn per Stück erzielt.
= 6.875.000€ Umsatz
= 1.000.000€ Gewinn

Was ist für den IHV besser?
Bedenke der IHV muß die Kosten für den Chip immer vorstrecken. Und rechne das mal jetzt auf höhere Stückzahlen.
Bedenke noch die sonstigen Kosten die getragen werden müßen.

Quasar
2004-03-28, 22:05:27
Gegenrechnung:
High-End Chip, VK 200EUR, Kosten 250EUR. Charge: 10.000 Stück
Kostet den Hersteller 500.000 EUR

Mid-Range-Chip, der nicht von "glänzender" High-End HW profitieren kann.
VK 50EUR, Kosten 30EUR. Charge: 1.000.000 Stück
Bringt dem Hersteller: 20.000.000 EUR

Gleicher Mid-Range, hier aber mit einem Flaggschiff, das die Konkurrenz in Grund und Boden rendert.
VK 55EUR, Kosten 30EUR. Charge: 1.000.000 Stück
Bringt dem Hersteller: 25.000.000 EUR

Für 500.000EUR Subvention kriegt er 5.000.000 EUR zurück. Und im Low-End sind's dann vielleicht nur ein EUR Mehrpreis, den er nehmen kann, aber bei >5Millionen Chips sind das eben nochmal satter Gewinn.

Man sollte die "Multiplikatoren", die sich verkaufsfördernd auswirken, eben nicht ausser Acht lassen.

Warum wohl ist der Xabre so mäßig gelaufen? Warum interessiert sich keine Sau für den V3-Volari? Warum gab's beim Kyro keine OEM-Erfolge?

LovesuckZ
2004-03-28, 22:08:38
Original geschrieben von thop
Es wird ja gerum0rt dass das Flagschiff der neuen nV Generation nur in ganz geringer Stückzahl auf den Markt kommt[...]

So "gering", wie der NV30? Dann ist das kein Problem :)

AlfredENeumann
2004-03-28, 23:05:22
Original geschrieben von Quasar
Gegenrechnung:
High-End Chip, VK 200EUR, Kosten 250EUR. Charge: 10.000 Stück
Kostet den Hersteller 500.000 EUR

---

Warum wohl ist der Xabre so mäßig gelaufen? Warum interessiert sich keine Sau für den V3-Volari? Warum gab's beim Kyro keine OEM-Erfolge?


Mir wäre kein Gih-End Chip bekannt wo der Hersteller absichtlich draufzahlt.
Die ganze Preiskalkulation eines Chips sind immer abhängig von den Produktionskosten. Wieviel man verdient hängt vom Yield ab, es sei den man heißt Nvidia und bezahlt den NV30 pro funktionierendem DIe und nicht pro Wafer. Bei funktionierede, DIE ist der Yield ja theoretisch 100%.
Für andere IHVs ist es immer gut wenn man mit den DIEs die funktionieren aber nicht die Spezifikation des High-End schaffen eine kleinere Serie zu bringen, weil man damit nämlich die Kosten für einen High-End CHip verkleinert.

Beispiel 1: DIEs pro Wafer 100. 50% Ausbeute weil man nimmt nur die HighEnd-Chips. Kosten 200€ (umgerechnet auf Wafer) pro Chip.

Beispiel 2: 50% Ausbeute für High-End Chips. Und nochmal 30% für eine Mid-Range Version. Kosten für den Chip jetzt: 125€.

Da man pro Wafer bezahlt sind die Kosten erheblich kleiner geworden.


Bzgl Kyro und andere:
Wenn die Dinger (hierzulande) nicht gut im OEM Kanal laufen heißt das nicht das ein Highend-Gegenstück fehlt, sondern die entweder PR fehlt um die Chips zu vermarkten, oder man keinen Wert gelegt hat um die Karten dort zu pushen. Weil so einfach wie man sich das vorstellt ist das nicht. Um einen Hersteller dazu zu bewegen seine Produkte zu verbauen ist einges mehr erforderlich als nur gut im High-End zu sein. OEM Geschäft heißt verdammt kleine Margen.

r@e
2004-03-28, 23:15:04
Original geschrieben von AlfredENeumann
Razor, ein kleines Rechenbeispiel:
<snap>10T zu 312T ?
Ist das Dein ernst ?
:???:

Quasar hat das sehr gut ausgeführt..
10T von den UltraHighEndern zu verkaufen, ist schon ganz gut, aber im Mainstream- oder gar LowEnd/OEM-Segemnt geht es um Millionen verkaufte Stückzahlen.

Und während in Deinem Beispiel der Chip-Preis für eine Mainstream-Karte je noch hinkommen mag, solltest Du Dir für die UltraHighEnd-Variante lieber etwas anderes ausdenken. 200€ sind ja wohl ein 'bissel' happig (auch wenn's nur ein Beispiel sein sollte ;-)...

Razor

r@e
2004-03-28, 23:26:00
Original geschrieben von AlfredENeumann
Mir wäre kein Gih-End Chip bekannt wo der Hersteller absichtlich draufzahlt.
Die ganze Preiskalkulation eines Chips sind immer abhängig von den Produktionskosten. Wieviel man verdient hängt vom Yield ab, es sei den man heißt Nvidia und bezahlt den NV30 pro funktionierendem DIe und nicht pro Wafer. Bei funktionierede, DIE ist der Yield ja theoretisch 100%.
Für andere IHVs ist es immer gut wenn man mit den DIEs die funktionieren aber nicht die Spezifikation des High-End schaffen eine kleinere Serie zu bringen, weil man damit nämlich die Kosten für einen High-End CHip verkleinert. Und was soll das mit den 'realen' Kosten eines UltraHighEnd-Chips zu tun haben ?
Auch wenn nVidia nur pro funktionierenden Die bezahlt, heißt das noch lange nicht, dass sie dadurch gegenüber der herkömmlichen "pro Wafer" Abrechnung 'sparen'... sie können lediglich besser kalkulieren.
Original geschrieben von AlfredENeumann
Beispiel 1: DIEs pro Wafer 100. 50% Ausbeute weil man nimmt nur die HighEnd-Chips. Kosten 200€ (umgerechnet auf Wafer) pro Chip.

Beispiel 2: 50% Ausbeute für High-End Chips. Und nochmal 30% für eine Mid-Range Version. Kosten für den Chip jetzt: 125€.

Da man pro Wafer bezahlt sind die Kosten erheblich kleiner geworden. Das ist doch eine Milchmädchenrechnung, sorry.
Auch werden hier Äpfel mit Birnen verglichen...
(und das auch noch mit irrwitzigen Zahlen - also echt)
Original geschrieben von AlfredENeumann
Bzgl Kyro und andere:
Wenn die Dinger (hierzulande) nicht gut im OEM Kanal laufen heißt das nicht das ein Highend-Gegenstück fehlt, sondern die entweder PR fehlt um die Chips zu vermarkten, oder man keinen Wert gelegt hat um die Karten dort zu pushen. Weil so einfach wie man sich das vorstellt ist das nicht. Um einen Hersteller dazu zu bewegen seine Produkte zu verbauen ist einges mehr erforderlich als nur gut im High-End zu sein. OEM Geschäft heißt verdammt kleine Margen. Und riesenhafte Absatzzahlen...
Viel, viel mehr, als im Consumer-Markt üblich.

Kenne da so einige Internas von Dell, mit denen wir sehr eng zusammen arbeiten.
Nur mehr möchte ich dazu eigentlich nicht sagen...

Razor

AlfredENeumann
2004-03-28, 23:38:14
Original geschrieben von r@e
10T zu 312T ?
Ist das Dein ernst ?
:???:

Quasar hat das sehr gut ausgeführt..
10T von den UltraHighEndern zu verkaufen, ist schon ganz gut, aber im Mainstream- oder gar LowEnd/OEM-Segemnt geht es um Millionen verkaufte Stückzahlen.

Und während in Deinem Beispiel der Chip-Preis für eine Mainstream-Karte je noch hinkommen mag, solltest Du Dir für die UltraHighEnd-Variante lieber etwas anderes ausdenken. 200€ sind ja wohl ein 'bissel' happig (auch wenn's nur ein Beispiel sein sollte ;-)...

Razor


Hallo liebes Razorle. Lese meinen ganzen Thread da steht das man sich das jetzt mal mit anderen Mengen vorstellen sollte. Und den Sinn hast du anscheinend nicht verstanden.
Für ein Unternehmen ist es immer Wirtschafftlicher mit wenig (Geld)Aufwand mehr Gewinn zu erzielen. Oder Warum verkauft Ferrarie oder Porsche keine Kleinwagen?

AlfredENeumann
2004-03-28, 23:44:39
Und was soll das mit den 'realen' Kosten eines UltraHighEnd-Chips zu tun haben ?

Das ist en Beispiel. Falls du lesen kannst.

Auch wenn nVidia nur pro funktionierenden Die bezahlt, heißt das noch lange nicht, dass sie dadurch gegenüber der herkömmlichen "pro Wafer" Abrechnung 'sparen'... sie können lediglich besser kalkulieren.

Das ist ein Beispiel. Falls du lesen kannst.

Das ist doch eine Milchmädchenrechnung, sorry.

Das ist en Beispiel. Falls du Lesen kannst. Aber trotzdem funktioniert es genauso und nicht anders.

Auch werden hier Äpfel mit Birnen verglichen...

Es ist immer noch ein Beispiel.

Und riesenhafte Absatzzahlen...

Ich hätte auch zehnmalsogroße Zahlen schreiben können. Es ist immer noch ein Beispiel.

Kenne da so einige Internas von Dell, mit denen wir sehr eng zusammen arbeiten.

Schön für dich. Kenne auch internas von anderen OEMs. Schließlich verhökern wir selber Tausende Rechner. Zwar nicht die Stückzahlen wie DELL, aber in der BRanche ist das so ziemlich überall gleich.

thop
2004-03-28, 23:46:11
herr a.e. n wo arbeitest du denn? :???:

marco42
2004-03-29, 03:45:41
Original geschrieben von Demirug
Die beiden wichtigen Buchstaben beim SIMD sind hier eindeutig das I und das D. Wie viele Daten pro Takt und was kann eine Instrucktion alles enthalten?

Meinst du jetzt VLIW?

Demirug
2004-03-29, 07:28:23
Original geschrieben von marco42
Meinst du jetzt VLIW?

Ja die Anweisungen bei einem Pixelprocessor werden in einer Art VLIW kodiert. Es ist aber denoch ein wenig anders als bei einem üblichen VLIW Processor.

Gast
2004-03-29, 08:23:00
Original geschrieben von AlfredENeumann
Mir wäre kein Gih-End Chip bekannt wo der Hersteller absichtlich draufzahlt.

Wie gesagt, mir auch nicht. Es geht um die theoretische Möglichkeit dazu und die Rechnung, wie wenig entgangener Gewinn daraus für den Hersteller resultieren würde.

Was meinst du, wenn die R300 in Form der 9700p sich nicht so glänzend geschlagen hätte: Wieviel hätten die Value-Version, die auch noch ziemlich abgespeckt ist, dann für den halben oder ein Drittel des Preises gekauft?

Wenn ich sehe, daß komplette R300-Chips, inkl. PCB, 64MB RAM, Verpackung, Steuern und Margen für ~85EUR zuletzte rausgingen, dann denke ich schon, daß da ATi z.B. draufgezahlt oder zumindest keinen Gewinn mehr gemacht hat.

Um es nochmals zu wiederholen:
Es ging mir um die theoretische Möglichkeit eines IHV, der von gewonnenen Benchmarks der Multiplikatoren lebt und darüber eben seine Low-End und Mid-Range Chips besser absetzen kann.

Und BTW, auch wenn du im Großhandel arbeitest, AEN, so glaube ich nicht, daß du zwei Stufen der Pipeline "hinauf" blicken kannst, sprich, es liegen dir die Endpreise der Distris vor, evtl. noch die der AIBs, aber ich halte es für eher unwahrscheinlich, daß du genaueres über den VK der "Dies" der IHVs weißt, als irgendjemand anderes hier.

;Q

Gast
2004-03-29, 08:30:39
Original geschrieben von AlfredENeumann
Beispiel 1: DIEs pro Wafer 100. 50% Ausbeute weil man nimmt nur die HighEnd-Chips. Kosten 200€ (umgerechnet auf Wafer) pro Chip.

Beispiel 2: 50% Ausbeute für High-End Chips. Und nochmal 30% für eine Mid-Range Version. Kosten für den Chip jetzt: 125€.

Da man pro Wafer bezahlt sind die Kosten erheblich kleiner geworden.

[...], sondern die entweder PR fehlt um die Chips zu vermarkten, oder man keinen Wert gelegt hat um die Karten dort zu pushen.
1) Klar spielt die Ausbeute eine Rolle für die Massenfertigung, aber es geht hier um die Kleinserie, die einzig dazu da sein soll, die Leute, die Zeitschriften/Online-Mags lesen/schreiben dazu zu bringen, zu sagen: "BOAH, Chip XYZ ist aber schnell!"
Das wird dann weitergegeben und der Brand-Name etabliert als Synonym für "gutes Spielen", s. "GeForce" im Jahre 2000/2001.
Meinst du, die GF2MX hätte sich so gut verkauft, wenn sie nicht im Kielwasser der großen GeForces gefahren wäre? Selbiges für die GF4MX und aktuell die GFFX5200?
(Wie gesagt, um es zum vierten Mal zu schreiben, glaube ich nicht, daß aktuell ein Chip gesponsort wird/werden muss, halte es aber für eine solide Option in der Zukunft.

Kleines Beispiel abseits der Grafikchips:
Motorsport, insbesondere Formel1. Meinst du, die Autobauer, die dort involviert sind, ziehen direkten Gewinn aus diesem Unternehmen?

Marketing, große Speichermengen, hohe DCX-Version und gewonnene Multi-Benchmarks.

2) Kyro: Marketing fehlte, weil man keine "Kyro-Ultra" hatte, die die GeForce komplett versägt hat. Was meinst du, wie die im Retail-Bereich abgegangen wäre, wenn sie bei günstigerem Preis noch die gewonnenen Benchmarks der großen Schwester zugesprochen bekommen hätte.

;Q

AlfredENeumann
2004-03-29, 09:40:20
Original geschrieben von thop
herr a.e. n wo arbeitest du denn? :???:

Du hast PM.

AlfredENeumann
2004-03-29, 09:49:31
Original geschrieben von Gast
Und BTW, auch wenn du im Großhandel arbeitest, AEN, so glaube ich nicht, daß du zwei Stufen der Pipeline "hinauf" blicken kannst, sprich, es liegen dir die Endpreise der Distris vor, evtl. noch die der AIBs, aber ich halte es für eher unwahrscheinlich, daß du genaueres über den VK der "Dies" der IHVs weißt, als irgendjemand anderes hier.

;Q

Nicht direkt. Andere Leute in unserem Unternehmen haben Einblick in solche Zahlen, da wir auch selber Hardwarekomponenten in extrem großen Stückzahlen fertigen(lassen).
Aber iwe gesagt. Ich kann mir das beim besten willen nicht vorstellen das Jemand da draufzahlt. Weil gerade im High-End nimmt man eh Mondpreise. Und eine schneller Chip ist noch kein Garant dafür das sich auch die Hardware gut verkauft.