PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia GeForce 8600 Ultra/GT


w0mbat
2007-01-13, 14:27:08
nVidia GeForce 8600 Ultra/GT



nVidia wird als Mittelklassemodelle eine GF8600Ultra und eine GF8600 GT bringen (Quelle (http://www.beareyes.com.cn/2/lib/200701/02/20070102054_2.htm)).
Diese werden über weniger Shader (U: 64, GT: 48), einen geringeren Takt (U: 500/700, GT: 359/600) und weniger Speicher verfügen (U: 236/512, GT: 128/256). Neu ist, das nVidia das Kürzel "Ultra" im mid-end Bereich einsetzten wird. Die Performance wird auf dem Niveau einer 7800GTX/7900GT liegen. Über das SI ist z.Zt. noch nicht viel bekannt: Verschiedene Quellen sprechen von 256Bit, es gibt aber auch Angaben über 128Bit. Hergestellt werden beide im 80nm Verfahren, was auch ein Teil zu den niedrigen Preisen beiträgt (U: 179$, GT: 149$).



nVidia GeForce 8600 Ultra PCI-E

Core Clock: 500 MHz
Memory Clock: 700 MHz (1400 DDR)
Memory Bandwidth: 22.4 GB/sec
Shader Operations: 36800 Operations/sec
Pixel Fill Rate: 6900 MPixels/sec
Texture Fill Rate: 9200 MTexels/sec
Vertex Operations: 18400 MVertices/sec

Framebuffer: 512 MB
Memory Type: GDDR3
Memory Bus Type: 32x4 (128 bit)*2
DirectX Compliance: 10.0
OpenGL Compliance: 2.0
PS Version: 4.0
VS Version: 4.0
Process: 80 nm
Fragment Pipelines: 64
Vertex Pipelines: 64
Texture Units: 16
Raster Operators 12


http://img150.imageshack.us/img150/7895/8600ereg0.jpg

http://img90.imageshack.us/img90/6499/dsc09094tg8.jpg

AnarchX
2007-01-13, 14:29:34
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5155835#post5155835
Die Karte auf dem Bild ist übrigens eine 7600GT mit G73-B1(80nm) mit 650MHz GPU-Takt. ;)

Wo sind die Specs aus dem Quote her?
12 ROPs und 128Bit passen bei der G80-Architektur überhaupt nicht zusammen und auch so ist es sehr unstimmig.

w0mbat
2007-01-13, 14:37:14
Ausm Quote sind vom XS.

=Floi=
2007-01-13, 14:42:57
und mit 22,4gb bandbreite kann man auch nichts mehr reissen

dargo
2007-01-13, 14:44:41
Die Bandbreite der G8600 Ultra ist viel zu gering. Eine heutige Mainstream G7900GS hat schon 42,24GB/s. Die G8600U muss einfach ein 256Bit SI haben. Dann passen auch die 44,8GB/s wieder.

AnarchX
2007-01-13, 14:46:43
Ausm Quote sind vom XS.

Wie wäre es denn, wenn du irgendetwas von einer anderen Seite kopierst, die Quelle davon mit anzugeben. :wink:

w0mbat
2007-01-13, 14:49:24
Die Daten ausem XS sind einfach eina halbe 8800GTX, die 8600U wird bestimmt 256Bit haben.

dargo
2007-01-13, 14:51:24
Die Daten ausem XS sind einfach eina halbe 8800GTX, die 8600U wird bestimmt 256Bit haben.
Dann korrigiere mal die Angaben zum Memory Bandwidth (*2). ;)

Spasstiger
2007-01-13, 15:20:31
Die Bandbreite der G8600 Ultra ist viel zu gering. Eine heutige Mainstream G7900GS hat schon 42,24GB/s. Die G8600U muss einfach ein 256Bit SI haben. Dann passen auch die 44,8GB/s wieder.
Mit einem 256-Bit-SI dürfte aber der Vorsprung der 8800 GTS zu klein ausfallen, wenn für die 8600 Ultra ein Preis von nur 179$ angepeilt wird.
Wenn die 12 ROPs stimmen bzw. 3 ROP-Cluster, dann deutet das stark auf ein 192-Bit-SI hin.

Und die Speicherbandbreite ist auch gar nicht so wichtig, wenn die Kernleistung deutlich höher ausfällt. Man vergleiche auch mal 7600 GT und 6800 Ultra. Rein von der Bandbreite und Füllrate her spricht alles für die 6800 Ultra. In der Praxis war aber die 7600 GT gleichauf und teilweise sogar schneller.

Tomahawk
2007-01-13, 17:41:26
Ziemlich enttäuschend :(

Die US-Einheiten werden dann wahrscheinlich auch bei 1200 MHz liegen (wie die 8800 GTS). Aber von der Geschwindigkeit wird die Karte eher mäßig.

Ich habe gehofft, dass die Karte nah an die GTS herankommt, was aber mit 64 Shadern bei moderater Taktung nicht klappen dürfte.

Spannend ist die Frage, ob ein 256 Bit SI oder 192 Bit SI kommt.

Anmerkung:
Es hab schon mal eine Ultra im MidRange- die 5600 Ultra.

Gast
2007-01-13, 17:49:22
Anmerkung:
Es hab schon mal eine Ultra im MidRange- die 5600 Ultra.Es gab sogar mal eine FX 5200 Ultra. Sogar als "Extreme Gamer Edition" von Gainward iirc. ;D

Für die 8600er halte ich eigentlich ein 192-bit-SI für am wahrscheinlichsten. Bisher hat Nvidia seit NV4x immer einen halben High-End-Chip als Mainstream verkauft, wenn man mal von den nur 4 ROPs bei NV43 absieht. Warum nicht auch jetzt? Das würde auch prima zu den spekulierten 3 ROP-Partitionen passen.

AnarchX
2007-01-13, 17:52:55
192Bit schliesse ich eher aus, da man hier sich eine ziemlich unpraktische Speicherbestückung aufhalsen würde -> 192MB/384MB/768MB.

Es werden wohl eher 256Bit und daraus folgen dann eben 16ROPs/16TMUs, weshalb man den Chiptakt eher niedrig ansetzt wie oben in der Tabelle.

nordic_pegasus
2007-01-13, 17:53:23
zur 8600 Ultra: falls die Karte auf Niveau einer 7900GTX sein sollte (bei gleichzeitig deutlich besserer Bildqualität der G8x Generation im Vergleich zu den G7x Derivaten), wäre es für mich zumindest ein tolle Karte.

Ob nun 256 oder 192bit SI ist mir recht egal, wenn die Leistung stimmt. Falls dann noch ein moderater Stromverbrauch bei rauskommt (so um 50Watt), wird das mit Sicherheit meine nächste GraKa.

Ich kaufe nie HighEnd, und werde aus aufgrund der hohen Preise (und starken Preisverfall) sowie den immensen Verlustleistungen auch nie tun.

Spasstiger
2007-01-13, 17:56:55
Es werden wohl eher 256Bit und daraus folgen dann eben 16ROPs/16TMUs, weshalb man den Chiptakt eher niedrig ansetzt wie oben in der Tabelle.
Die Anzahl der TMUs hängt nicht von der Anzahl an ROP-Clustern ab und bei einem halben G80 hätte man 32 TMUs (und 16 TAs).
An ein 256-Bit-SI glaube ich auch nicht so recht.

Tomahawk
2007-01-13, 17:57:56
Es gab sogar mal eine FX 5200 Ultra.

Die Aussage war:

"
Neu ist, das nVidia das Kürzel "Ultra" im mid-end Bereich einsetzten wird.
"

Die 5200U war low-end :)

Aber zu den Daten:
Ich denke das wahrscheinlichste war eine Karte mit 64 hochgetakteten Shadern für 199 USD.

Was bekommen wir (wahrscheinlich)? Nicht so hochgetaktete Shader für 170 USD. naja, was solls. Aber ich tippe auch auf eine Geschwindigkeit zw. X1950Pro und X1900XT, also auf 7900 GT. Aber 170 USD könnte dann 149 Euro beim Online-Versender bedeuten.

AnarchX
2007-01-13, 18:02:26
An ein 256-Bit-SI glaube ich auch nicht so recht.

256Bit gibt es doch nun schon über 4 Jahre, warum sollte es nun nicht im Midrange langsam mal zum Standard werden?

Ich sehe jedenfalls bei 256Bit einige Vorteile:
-schon lange am Markt -> erprobt
-günstige Speicherbestückungen -> 256MB/512MB
-man braucht nicht so schnellen Speicher, mittelmässiger GDDR3 reicht locker aus
-256Bit mit 4facher Unterteilung sollte auch nicht viel Komplexität im PCB nach sich ziehen

dargo
2007-01-13, 18:09:38
Mit einem 256-Bit-SI dürfte aber der Vorsprung der 8800 GTS zu klein ausfallen, wenn für die 8600 Ultra ein Preis von nur 179$ angepeilt wird.
Wenn die 12 ROPs stimmen bzw. 3 ROP-Cluster, dann deutet das stark auf ein 192-Bit-SI hin.

Die G8800GTS 320MB hat 64GB/s bei 299$. Das Verhältnis passt also. 192Bit sind aber natürlich auch denkbar für eine G8600U, sprich 33,6GB/s.

LovesuckZ
2007-01-13, 18:22:40
Ich habe gehofft, dass die Karte nah an die GTS herankommt, was aber mit 64 Shadern bei moderater Taktung nicht klappen dürfte.


Warum nicht an die GTX? :rolleyes:

Tomahawk
2007-01-13, 18:30:05
Warum nicht an die GTX? :rolleyes:


Na weil das unrealistisch wäre.
Die 6600GT kam auch fast an die Leistung einer 6800 heran.
Die 7600GT ist auch nicht viel langsamer als die 7800GT.
Die Ti4200 war auch nicht viel langsamer als die Ti4400/Ti4600.

Es gab schon einige MidRange Karten, die nah an den HighEnd Karten waren.

dargo
2007-01-13, 18:33:05
Na weil das unrealistisch wäre.
Die 6600GT kam auch fast an die Leistung einer 6800 heran.

Er meinte ironisch an die G8800GTX. ;)

MSABK
2007-01-13, 18:33:19
Ich glaube es wird einfach eine halbierte G80. Ich binn auf die Go version gespannt. Wird bestimmt der knaller.

Tomahawk
2007-01-13, 18:36:00
Er meinte ironisch an die G8800GTX. ;)

Es ging doch darum, dass die 8800gts zu viel erwartet wäre, deswegen auch meine, mittlerweile 3, Beispiele, dass einige MidRange Karten nicht weit von den HighEnd entfernt waren.

Natürlich gabs auch anderen Fälle: Die 5600 Ultra und die 5800. Naja, hoffentlich bringt das Ultra in der Mittelklasse kein Unglück ;)

LovesuckZ
2007-01-13, 19:05:28
Es gab schon einige MidRange Karten, die nah an den HighEnd Karten waren.

Die Zeiten sind vorbei.
6600 und 7600GT waren jeweils halbierte(+-) High-end Modelle.

RainingBlood
2007-01-13, 20:00:11
hach, ich träume schon von den ersten Posts Marke "Hab mir diese tolle DX10 Graka gekauft, warum ruckeln meine Spiele?". Auf jedem Karton sollte groß ein Aufkleber "Nur eingeschränkt in DX10 lauffähig" prangen.

VooDoo7mx
2007-01-13, 20:15:00
Oh man diese Daten sind totaler Fud!

Man muss schon extrem viel technisches Unverständnis mitbringen um sowas von riegdnwelchen dummen Seiten abzuschreiben und dann noch für wahr halten.

Und die Beziechnung Ultra gab es schon mehrfach im Mainstream (FX5600 Ultra->NV31 , FX5700Ultra->NV36)

Im Endeffekt glaub ich nicht, dasss nVidia wieder den Manen Ultra einführen wird, anchdem sie ihn über 2 jahre verbannt haben.

Es wird wieder eine 8600GT und 8600GS geben. Beide der selbe Chip mit 4-6 G80 Clustern.

Es ging doch darum, dass die 8800gts zu viel erwartet wäre, deswegen auch meine, mittlerweile 3, Beispiele, dass einige MidRange Karten nicht weit von den HighEnd entfernt waren.

Natürlich gabs auch anderen Fälle: Die 5600 Ultra und die 5800. Naja, hoffentlich bringt das Ultra in der Mittelklasse kein Unglück ;)

Welche denn? GF2MX? GF4MX? FX5600? 6600? 7600? Radeon 7500? Radeon 9000? Radeon 9600? Radeon X700? Radeon X1600?

Midrange Chips der letzten 5 Jahre... alle deutlich hinter dem jeweiligen High End.

Gast
2007-01-13, 20:31:15
Oh man diese Daten sind totaler Fud!

Man muss schon extrem viel technisches Unverständnis mitbringen um sowas von riegdnwelchen dummen Seiten abzuschreiben und dann noch für wahr halten.

Im Endeffekt glaub ich nicht, dasss nVidia wieder den Manen Ultra einführen wird, anchdem sie ihn über 2 jahre verbannt haben.Erst auf anderen rumhacken und dann selber Begründungen ohne Sinn abgeben... Wieso sollte nVidia Ultra nicht wieder einführen? Weil sie es 2 Jahre nicht getan haben? Geile Begründung! (Achtung, Niveau sinkt, auch deins...)

deekey777
2007-01-13, 20:56:19
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5155835#post5155835

Macht dort weiter.