PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 9: 9800GTX und GX2


Seiten : [1] 2 3 4

AnarchX
2007-12-14, 17:30:17
Hier gibt es eine Sammlung von Infos und Gerüchten über die kommende GeForce 9- Serie:

NVIDIA GPU Roadmap Outline for 1H08 (http://enthusiast.hardocp.com/article.html?art=MTQ0MCwxLCxoZW50aHVzaWFzdA==)
# GeForce 8800 Ultra will be replaced by the GeForce 9800 GX2 in February / March timeframe. More information and pictures are here.

# The GeForce 8800 GTX will be replaced by the GeForce 9800 GTX in February / March timeframe. This card will support Tri-SLI.

# The GeForce 9800 GT should appear in the March / April timeframe. We have limited information on this card currently.

# The recently “released” GeForce 8800 GS will be a limited GPU in terms of production. Do not expect more than 100,000 GPUs to be shipped worldwide, but soon. ASUS will supply Asia, Palit will supply China, EVGA will supply North America, and XFX will supply Europe. The GS is an “inventory solution.” The 8800 GS is 192-bit bus and will ship in 320MB, 512MB, and 640MB versions with a trimmed down number of stream processors as well. Will fall in line below 8800 GT but above the 9600 GT.

# The GeForce 9600 GT will fall in line below the 8800 GT, but give better performance than the GeForce 8600 GTS. The 9600 GT will be a whole new card not based on the 8800 GT PCB. Price point should be at $169 in retail/etail and plans are to carry this GPU throughout 2008.

9600 GT:
- intern D9P
- die erste GeForce 9
- Launch 14.2. Valentinstag
- Leistung zwischen 8600GTS und 8800GT -> Konkurrent zur HD3850 (genau bis zu 90% schneller als 8600 GTS)
- verwendet das gleiche PCB wie die 8800GT, also 256Bit SI(?)

Update:

http://img166.imageshack.us/img166/7568/03geforce9600gt20754dd2ab2.jpg
http://www.tomshardware.tw/313,news-313.html

NVIDIA Details GeForce 9600 GT (http://www.dailytech.com/NVIDIA+Details+GeForce+9600+GT/article10218.htm)
-650/1625/900MHz
-32TA/TFs
-256Bit
- 16 ROPs
- 64SPs (MADD+MUL ?)

http://img264.imageshack.us/img264/4157/9600gt17fa7ce1hp7.jpg (http://imageshack.us)
Source also tells some specs of the nex-gen GPU D9P. The core clocks at 500MHz while memory at 2000MHz, GPU will have 96SP. It is a main-stream product and only have one SLI connector so it can not support 3-Way SLI.

http://en.expreview.com/?p=132

HKEPC hat auch noch ein paar Infos zur 9600GT aka G94:
- 20-40% schneller als die HD3850
- $169 MSRP
- mehr Pins als G92

http://hkepc.com/?id=547

"9600 GTS" @ 3DMark2006???

9600GTS? 650/1500/2000?
http://img172.imageshack.us/img172/3006/1198478779766f60ebbert4.jpg (http://imageshack.us)

8800 GT 600/1500/1800 512M
http://img171.imageshack.us/img171/3816/1198478881159f60f6eael1.jpg (http://imageshack.us)

HD3850 668/1660 256M
http://img296.imageshack.us/img296/1750/1198478957907f610532pw1.jpg (http://imageshack.us)

http://translate.google.com/translate?hl=en&langpair=zh%7Cen&u=http://diybbs.pconline.com.cn/topic.jsp%3Ftid%3D8000957%26pageNo%3D1

Und nochmal ein Package, welches doch etwas anders aussieht, als das von Expreview:
http://img508.imageshack.us/img508/5605/000680240f6e5cd8gd1.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/258/258133.shtml

http://img259.imageshack.us/img259/2568/085634628e393cacl4.jpg (http://imageshack.us)http://img72.imageshack.us/img72/7453/9600gtb8e65d2bag8.jpg (http://imageshack.us)
http://www.chilehardware.com/foro/informacion-exclusiva-sobre-t133896.html

9600 GT (P)Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0801%2 F1205247.html&langpair=zh%7Cen&hl=de&ie=UTF-8)

~240mm² Die-Size.

9800 GX2:
- direkter Nachfolger von Ultra
- 14. oder 19. Feburar
- Doppel-PCB-Karte mit zwei GPUs -> GX2
- nur ein SLI-Connector
- Kühler umschliesst die Karte völlig
- verwendete GPU unklar (wahrscheinlich G92)
- 9800 GX2
GeForce 9800 GX2

1. 1GB Frame Buffer

2. Two PCBs

3. Two 65nm GPUs Total

4. 256 Stream Processors Total
http://enthusiast.hardocp.com/article.html?art=MTQzOSwxLCxoZW50aHVzaWFzdA==

http://img295.imageshack.us/img295/5028/02geforce9800gx2114a4eebn2.jpg
http://img168.imageshack.us/img168/4195/03geforce9800gx2114a457vl6.jpg
http://img185.imageshack.us/img185/4937/05geforce9800gx21149fb5mr2.jpg (http://imageshack.us)
http://img148.imageshack.us/img148/7276/07geforce9800gx21149ed6qq7.jpg
- 30-50% schneller als 8800 Ultra
- $449 MSRP
- empfohlenes NT: 580W(40A 12V) (Zum Vergleich 8800 Ultra 500W/30A)
- eingebaute Hybrid-Power-Stromspartechnologie (Soetwas? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=391632))

mehr:http://www.tomshardware.tw/309,news-309.html

Noch ein paar High-Res-Bilder der 9800 GX2:
http://www.pcpop.com/doc/0/264/264200.shtml



Quelle der ersten Infos:
http://www.mobile01.com/topicdetail.php?f=298&t=466876&p=1
(G.F. welcher alle Daten zur 8800 GT und GTS-G92 leakte und somit wohl diese Infos nicht einfach phantasiert.)

Zudem hat NV via FW-inf auch schon die Existenz gewisser GF9-SKU geleakt:

GeForce9-Notebook-SKUs:
[DEV_0405&SUBSYS_15D21043] NVIDIA GeForce 9500M GS
[DEV_0405&SUBSYS_16341043] NVIDIA GeForce 9500M GS
[DEV_0405] NVIDIA NB9P-GE1
[DEV_0406] NVIDIA NB9P-GE

[DEV_042E&SUBSYS_17C21043] NVIDIA GeForce 9300M G
[DEV_042E] NVIDIA NB9M-GE1



Nunja, SLI-HighEnd ist nicht unbedingt das, was sich die meisten wohl gewünscht haben... :|

laser114
2007-12-14, 17:36:05
Nvidia startet bei der neuen Namensgebung mit Mid-Range-Produkten?

Wäre sehr ungewöhnlich, bzw. wurde so ja noch nicht gemacht. Und auch beim G92 hätte man wenn man da generell nicht von absieht die Bezeichnung deutliche einfachen machen können, hat man aber nicht...

reunion
2007-12-14, 17:44:03
Vielleicht beherrscht die 9er-Serie ja schon D3D10.1 und deshalb wurde G92 nur mit einer 8 deklariert? Oder man nennt die Karten dann einfach um. Ich kann mir jedenfalls kaum vorstellen, dass G92 nur so kurz verkauft wird. Vermutlich wird D9E auch nichts anderes als zwei G92 sein.

laser114
2007-12-14, 18:17:21
Vielleicht kann ja G92 auch schon D3D10.1, nur man schaltet das aktuell noch nicht frei. Die 9 nach dem G steht ja eigentlich auch für Erweiterungen, ob da das bisher bekannte ausreicht?

Wobei dann eine frühere Eröffnung der Geforce-9-Reihe noch unlogischer wäre, man kann das Produkt ja weiter als 8xxx verkaufen und auf die Dual-GPU-Lösung warten.

Anarchy-HWLUXX
2007-12-15, 02:43:37
Bei der abartigen nachfrage kann nVidia die G92 modelle das ganze Q1 lang in massiven stückzahlen absetzen - jetzt noch ein modell bringen unterhalb der 8800GT macht sowas von garkein sinn.

Ailuros
2007-12-15, 06:00:39
Bei der abartigen nachfrage kann nVidia die G92 modelle das ganze Q1 lang in massiven stückzahlen absetzen - jetzt noch ein modell bringen unterhalb der 8800GT macht sowas von garkein sinn.

Weil die heutige 8600GTS irgendwelchen Sinn macht oder? Mainstream != Performance.

OBrian
2007-12-15, 12:15:06
Bei der abartigen nachfrage kann nVidia die G92 modelle das ganze Q1 lang in massiven stückzahlen absetzen - jetzt noch ein modell bringen unterhalb der 8800GT macht sowas von garkein sinn.
Bei einem Stückpreis von über 200€ ist der G92 sicher ein gutes Geschäft für Nvidia, aber darunter oberhalb der 8600GTS haben sie ja nichts, was sie der HD 3850/3870 entgegensetzen könnten. Einen G92 auf 96 oder weniger Shader zu beschneiden, würde zwar funktionieren, aber der G92 dafür kostet genausoviel, auch wenn man die Karte dann für 150€ verkauft. Und da DX10.1 als Checklistenfeature auch ein weiterer Vorteil für AMD ist, den Nvidia nur mit einem neuen Chip auch bringen kann, wäre die o.g. 9600GT schon sehr sinnvoll, wenn sie sich billiger fertigen läßt (wegen Shrink und/oder weniger Einheiten).

Gast
2007-12-15, 17:43:44
Haben sich die ursprünglichen Probleme von SLI eigentlich schon gelöst?

1.) Es haben ja am Anfang nur die Spiele davon profitiert, für die extra der Treiber optimiert wurde. Wie sieht das heute aus bei nicht so verbreiteten Spielen oder Spielen, die nicht so oft als Benchmark genützt werden wie Nfs Pro Street, Soldier of Fortune 3 etc. Im Alltag werden ja in den seltensten Fällen nur Crysis und 3DMark verwendet.

2.) Ursprünglich war ja eines der Probleme von SLI, dass 2 Speicher verwendet wurden, wo die Daten doppelt drin waren z.B. bei 2x512MB waren es effektiv nur 512MB und nicht 1GB. Wenn man bedenkt, dass 1GB Speicher noch ziemlich teuer ist, aber weniger als 512MB für einen High End Chip zu wenig ist, dann ist das ja schon fast eine K.O. Kriterium. Hat sich da Nvidia etwas einfallen lassen oder verwenden sie vielleicht gleich einen gemeinsam genutzten Speicher mit gemeinsamen Interface mit 512Bit Anbindung, oder eben mit einer Optimierung 2x256Bit.

Gast
2007-12-15, 18:06:36
Also zu 1)
Das sehe ich nicht wirklich als ein Problem, es gibt für praktisch jedes Spiel ein SLI Profil.

mapel110
2007-12-15, 18:16:11
zu 2: Das ist immernoch so und wird sich wohl auch so schnell nicht ändern. ATI hat das gleiche Problem bei Crossfire.

Gast
2007-12-16, 06:58:18
Naja dann sehe ich da aber ein größeres Problem. ATI will ja in Zukunft 4 Grafikchips und mehr auf einem Board zusammenschalten. Das wäre dann von der Leistung schon ca. 2TFlop und 512MB effektiver Speicher werden dann auch nicht mehr ausreichen und 4GB RAM auf einer Grafikkarte zu verbauen, wird sich in nächster Zeit niemand leisten können vor allem nicht bei Karten um die 200-300 Euro, wenn dann 3GB nicht genützt werden.

Mich wundert es schon die ganze Zeit, warum Nvidia/AMD nicht gleich mit den High End Chips raus kommen, sondern erst mit den Mainstream Chips. Hat das vielleicht den Grund, dass sie daran arbeiten, einen gemeinsamen Controller für 2 Grafikkarten zu bauen und deshalb ein paar Monate länger brauchen? An sich ist es ja ziemlich egal, ob man 2x256Bit verbaut, oder 1x512Bit bzw. können ja die 512Bit auch wieder in 2x256 Bit unterteilt werden, wie beim Phenom. Wenn bei Intel ein gemeinsam genützter L2 Cache gut funktioniert (trotz sehr kleinem L1 Cache), dann wird man es bei den Grafikkarten auch mit dem RAM hinbekommen.

AnarchX
2007-12-16, 12:30:03
Naja dann sehe ich da aber ein größeres Problem. ATI will ja in Zukunft 4 Grafikchips und mehr auf einem Board zusammenschalten. Das wäre dann von der Leistung schon ca. 2TFlop und 512MB effektiver Speicher werden dann auch nicht mehr ausreichen und 4GB RAM auf einer Grafikkarte zu verbauen, wird sich in nächster Zeit niemand leisten können vor allem nicht bei Karten um die 200-300 Euro, wenn dann 3GB nicht genützt werden.

ATis dedizierter Ringbus zeigt doch, wo man sich hinbewegen will. Nämlich weg von AFR... ;)

HOT
2007-12-16, 19:19:13
Hier gibt es ein paar Infos über GeForce 9, die man wohl doch ernst nehmen sollte:

D9P:
- 9600GT
- die erste GeForce 9
- Launch 14.2. Valentinstag
- Leistung zwischen 8600GTS und 8800GT -> Konkurrent zur HD3850
- verwendet das gleiche PCB wie die 8800GT, also 256Bit SI(?)

D9E:
- noch kein Endkunden-Name
- direkter Nachfolger von Ultra/GTX
- Launch um März herum
- Doppel-PCB-Karte mit zwei GPUs -> GX2
- nur ein SLI-Connector
- Kühler umschliesst die Karte völlig
- verwendete GPU unklar

Quelle:
http://www.mobile01.com/topicdetail.php?f=298&t=466876&p=1
(G.F. welcher alle Daten zur 8800 GT und GTS-G92 leakte und somit wohl diese Infos nicht einfach phantasiert.)

Zudem hat NV via FW-inf auch schon die Existenz gewisser GF9-SKU geleakt:

GeForce9-Notebook-SKUs:



Nunja, SLI-HighEnd ist nicht unbedingt das, was sich die meisten wohl gewünscht haben... :|

Irgendwie macht der Name, 9600GT, keinen Sinn. Der D9E heisst sicherlich 8900GTX oder 8800GX2 (2xG92). Ich könnte mir vorstellen, dass man den D9P 8700GTS nennt. Dazu würde auch das 256Bit RAM Interface gut passen.
Irgendwie ist die Benamsung sehr dubios bei NV. Warum entlässt man den G92 dann nicht als D9irgendwas und damit als Geforce9? Der war doch nur 2 Monate vorher dran. Meiner Meinung nach ist zum Namen der Karten noch nicht das letzte Wort gesprochen - NV wird sich da selber noch entscheiden müssen.

Moralelastix
2007-12-16, 19:30:09
Omg, irgendwie hab ich das schon befürchtet das nur eine neue GX2 daherkommt.
Kein neuer Higend Chip sondern nur zwei "G92 mobile Chips" wie bei der alten GX2.

Is das ne Enttäuschung!

Aber irgendwie war es ja auch klar. Wieso sollte NV sich gezwungen sehen einen neuen Highendchip zu bringen wo sie doch den Markt so gut im Griff haben.

Jetzt passt auch das "PR Fass" mit dem Trippel SLI und dem Quad SLI ins Bild.

Coda
2007-12-16, 20:30:55
Gegen G92 spricht, dass offenbar D3D10.1 unterstützt werden soll.

HOT
2007-12-16, 20:35:02
Wer sagt, dass der G92 das nicht sogar schon kann und das nur bisher nicht freigeschaltet ist?

laser114
2007-12-16, 20:38:34
Eigentlich können es doch nur zwei Chips sein: G92 oder D9P. Alles andere erscheint von der Leistung wenig passend, und für eine Dual-GPU-Karte einen eigenen Chip zu entwerfen wäre auch irgendwie sinnlos.

Wenn man jetzt noch weitere Infos zum D9P hätte, könnte man wohl abschätzen welche Variante realistischer ist.

mapel110
2007-12-16, 20:43:49
Wer sagt, dass der G92 das nicht sogar schon kann und das nur bisher nicht freigeschaltet ist?
Ailuros sagt das.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6114882#post6114882

HOT
2007-12-16, 22:19:18
Ach so, also eher D9E = 2x D9P? Dann fehlt nurnoch ein low-end Chip und es passt. Dann wäre auch klar, warum man den G92 "nur" 8800 genannt hat. Er ersetzt halt die alte G80 Serie komplett für ein paar Monate.

laser114
2007-12-16, 22:36:16
Ob im Februar Nvidia schon mit 55nm ankommt, oder eher noch auf 65nm setzt?

D9P dürfte ja was das Transistorbudget angeht durchaus begrenzt sein.

mapel110
2007-12-16, 22:52:19
Ob im Februar Nvidia schon mit 55nm ankommt, oder eher noch auf 65nm setzt?

D9P dürfte ja was das Transistorbudget angeht durchaus begrenzt sein.
Warum?!

R580 384 Mio Transistoren 90nm 650 Mhz (Damals hieß es schon "Oh je, so viele Transistoren bei dem Prozess. Da ist Ende.")
G80 681 Mio Transistoren 90nm 612 Mhz (Ups, 10 Monate später geht auf einmal nahezu doppelt soviel)
G92 754 Mio Transistoren 65nm 650 Mhz

Aber natürlich geht da kaum noch was. Der Fertigungsprozess ist am Ende....
Mit den Fertigungsprozess-Orakeln hier im Forum sollte man echt ganz vorsichtig sein.

laser114
2007-12-16, 23:11:11
Es ging mir eher um die Fertigungskosten pro Chip, D9P sollte als Performance-Chip ja jetzt nicht zu teuer werden. Da liegt der Hase im Pfeffer.

Gast
2007-12-20, 10:24:18
g92 is auch Performance in 65 nm.. um 600M werdens schon sein

AnarchX
2007-12-22, 09:17:53
http://img264.imageshack.us/img264/4157/9600gt17fa7ce1hp7.jpg (http://imageshack.us)
Source also tells some specs of the nex-gen GPU D9P. The core clocks at 500MHz while memory at 2000MHz, GPU will have 96SP. It is a main-stream product and only have one SLI connector so it can not support 3-Way SLI.

http://en.expreview.com/?p=132


Mit 96SPs/48TMUs und entsprechender Taktbarkeit(?) vielleicht doch eine gute Basis für eine GX2, die Die-Size scheint auch irgendwo bei 200mm² zu liegen, auch wenn ein fetterer Single-Chip wünschenswerter wäre...

GeneralHanno
2007-12-22, 11:40:46
SI sind hoffentlich 256bit, alles andere wäre enttäuschend. allerdings glaube ich noch an einen high-end single chip.
begründung: die D9P unterstützt nur dual-SLI. die ULTRA/GTX unterstützen tri-SLI, aber sind bald EOL. Eine GX2 passt auch nicht zu tri-SLI (hoffe jedenfalls, dass nvidia nicht so ne sch*** wie 6-way-SLI entwickelt...)

==> wenn der tri-SLI vorstoß ernst gemeint war, muss es einen neuen high-end chip (D9E) bald geben!

AnarchX
2007-12-22, 11:42:49
Das war auch mal meine Argumentation, aber Quad-SLI läuft ja mittlerweile auch unter Vista, wegen den neuen Treibern. :uponder:

GeneralHanno
2007-12-22, 11:43:54
Das würde aber bedeuten, dass nvidia TRI_SLI auslaufen lassen müsste ...
kennst du die chipsatz roadmaps näher, was die dazu sagen?

deekey777
2007-12-22, 11:45:31
192 bit wären auch nicht schlecht (3 ROP-Partitions).

reunion
2007-12-22, 11:47:10
http://img264.imageshack.us/img264/4157/9600gt17fa7ce1hp7.jpg (http://imageshack.us)


http://en.expreview.com/?p=132


Mit 96SPs/48TMUs und entsprechender Taktbarkeit(?) vielleicht doch eine gute Basis für eine GX2, die Die-Size scheint auch irgendwo bei 200mm² zu liegen, auch wenn ein fetterer Single-Chip wünschenswerter wäre...

96SPs bei den hier angegebenen 500Mhz Coretakt wären aber zu wenig für eine 3870 und damit in der GX2-Ausführung zu weniger für eine 3870 X2. Aber vielleicht gab es ja außer D3D10.1 auch noch einige Effizienzverbesserungen. Und auf 200mm² wirst du da wohl auch kaum kommen (es sei denn der Chip kommt in 55nm), wenn ein acht Cluster Chip mit 4 ROP-Cluster ohne D3D10.1 330mm² benötigt in 65nm.

AnarchX
2007-12-22, 11:47:23
Momentan kenne ich nur diese:
http://img90.imageshack.us/img90/3595/roadmap1ra2.png

Zudem gibt es ja noch die Gerüchte über ein "Near 3 TFLOPs"-Setup, was wohl kaum ein 6-Way-SLI sein sollte.

Naja, vielleicht kommt gegen Mitte des Jahres noch eine richtige High-End-GPU, während die G94-GX2 vorerst als Zwischenlösung herhält.


96SPs bei den hier angegebenen 500Mhz Coretakt wären aber zu wenig für eine 3870 und damit in der GX2-Ausführung zu weniger für eine 3870 X2.
500MHz -> 9600GT
Imo 650-750MHz -> D9E-GX2

Zudem wissen wir ja nicht was neben D3D10.1 noch so Einzug in die kommenden GPUs hält. (SFU-Rate ala G86? ->480GFLOPs inkl. SFUs für die 9600GT,1440GFLOPs* für meine GX2 ;) )

*Was mal 2 auch ~ "Near 3 TFLOPs" wären. :uponder:

GeneralHanno
2007-12-22, 11:48:08
die 196bit erinnern mich an die 8600ULTRA diskussion. erinnert sich da noch einer dran? 64SP/12ROP ;D

Stellt sich natürlich die frage, welche veränderungen an der architektur der GF8->9 es geben wird. Wird wohl eher ein trippelschritt (höchstens 10% steigerung der pro mhz leistung)

AnarchX
2007-12-22, 11:51:00
Für Januar wird ja auch noch eine 8800GS-192Bit-OEM spekuliert.;)

Aber 192 Bit wird wohl gegenüber 256Bit keinen wirklichen Vorteil bringen.

GeneralHanno
2007-12-22, 11:55:25
Das ist aber eher abverkauf der G92 mit kaputten ROPs.

ein 192bit SI würde natürlich PCB kosten sparen. und im mainstream muss man auf jeden cent achten ;)

andererseits hat man ja auch das 8800-512er PCB, was man für den D9P vermutlich nutzen könnte.

AnarchX
2007-12-22, 14:27:55
PHK:

Exclusive爆料
D9P are expected to begin in February cloth and specifications
Recently, the circle to the characters in my rebellion:

NV in the February 08 release D9P to replace the 8600 GTS / GT, 65nm process TDP about 75 W (no external power source), MC is not claimed by the EXP 256, but MC192 equipped with 384 MB GDDR3 memory! GTS which is likely to support 3 way SLI and support HDMI / DP interface! ! Samples from January, February release about ......
http://we.pcinlife.com/thread-865901-1-1.html

3-Way-SLI für eine "9600GTS". :|

Imo könnt es vielleicht so aussehen:
9600GT: 96SPs/48TMUs @500/1250MHz + 256Bit 1GHz GDDR3 vs HD3850
9600GS: 64SPs/32TMUs @500/1250MHz + 192Bit <1GHz GDDR3 vs HD3830 (aka RV635XT)

Gast
2007-12-22, 14:38:02
ein rv635 der der 38xx heisst?
wohl eher 36xx

reunion
2007-12-22, 14:41:27
PHK:

http://we.pcinlife.com/thread-865901-1-1.html

3-Way-SLI für eine "9600GTS". :|

Imo könnt es vielleicht so aussehen:
9600GT: 96SPs/48TMUs @500/1250MHz + 256Bit 1GHz GDDR3 vs HD3850
9600GS: 64SPs/32TMUs @500/1250MHz + 192Bit <1GHz GDDR3 vs HD3830 (aka RV635XT)

Der Chip wird - ausgehend von G92 - in 65nm mit 96SPs/256-bit SI plus D3D10.1, den VP3 und anderen kleineren Verbesserungen locker 250mm² messen. Ich rechne mit deutlich höheren Taktraten und einem entsprechend höheren Preis. Dafür spricht auch der Triple-SLI-Support. Der Chip wird sicher nicht unter RV670 platziert, er ersetzt wohl die relativ teuer herzustellende 8800GT in der höchsten Ausbaustufe und in teildeaktivierten Konfiguration kann er vielleicht noch halbwegs mit der 3850 mithalten.

laser114
2007-12-22, 14:47:54
Für mich machen diese Design-Entscheidungen von Nvidia wenig Sinn. Mehrere Chips um 96-128 SPs mit 256 Bit Interface in 6 Monaten, aber kein normales High-End oder Mainstreamchips < 200 mm² ? :|

reunion
2007-12-22, 14:51:36
Für mich machen diese Design-Entscheidungen von Nvidia wenig Sinn. Mehrere Chips um 96-128 SPs mit 256 Bit Interface in 6 Monaten, aber kein normales High-End oder Mainstreamchips < 200 mm² ? :|

Auch bei nV läuft nicht immer alles nach Plan. G92 kam IMO deutlich zu spät, deshalb die kurze Lebenszeit. Auch bei den anderen Projekten muss sich einiges geändert haben, immerhin sprach der NV-CEO noch im Frühjahr von einem 1TFLOP-Chip im Q4 2007. Die 9er-Serie macht insofern Sinn, als das sie D3D10.1-Support bieten wird, G92 wird wohl bald wieder Geschichte sein.

LovesuckZ
2007-12-22, 14:54:59
Auch bei nV läuft nicht immer alles nach Plan. G92 kam IMO deutlich zu spät, deshalb die kurze Lebenszeit. Auch bei den anderen Projekten muss sich einiges geändert haben, immerhin sprach der NV-CEO noch im Frühjahr von einem 1TFLOP-Chip im Q4 2007. Die 9er-Serie macht insofern Sinn, als das sie D3D10.1-Support bieten wird, G92 wird wohl bald wieder Geschichte sein.

Der G92 kam genau pünktlich. Es wurde immer von einer Herbst-GPU gesprochen. Es gab keine Gerüchte über eine frühere Veröffentlichung.

AnarchX
2007-12-22, 16:50:10
Ein Update:
Source also tells some specs of the nex-gen GPU D9P. The core clocks at 500MHz while memory at 2000MHz, GPU will have 64SP (8800GS will be 96SP 192bit 384MB). It is a main-stream product and only have one SLI connector so it can not support 3-Way SLI.

And here is some unconfirmed info: GeForce 9600 GT may pin-to-pin to 8800GT,that means they will use the same PCB. Also the memory will be 256bit, GPU supports DX 10.1 and ShaderModel 4.1, and the card have the same HD playback ability as G98.

We just confirm that GeForce 9600 GT uses P545 PCB design (not 8800GT’s P393 PCB design), and the memory will be 256bit 512MB, still don’t know support DX10.1 or not .
http://en.expreview.com/?p=132

Womit ~200mm² wohl wieder realistischer wären, aber das Shader-Ratio sollte wohl etwas höher sein um gegen die HD3850 richtig zu konkurrieren: z.B. 1:3.

Aber Basis einer GX2, wenn es sich um physikalische 64SPs handelt, wohl weniger.

reunion
2007-12-22, 17:22:16
Ein Update:

http://en.expreview.com/?p=132

Womit ~200mm² wohl wieder realistischer wären, aber das Shader-Ratio sollte wohl etwas höher sein um gegen die HD3850 richtig zu konkurrieren: z.B. 1:3.

Aber Basis einer GX2, wenn es sich um physikalische 64SPs handelt, wohl weniger.

Ja, damit sollten annähernd 200mm² machbar sein, wenn D3D10.1 und ev. vorhandene sonstige Verbesserungen nicht zu viel kosten. Nur muss der Chip mit einem solchen Die mindestens gegen die 3870 bestehen, die 3850 wird bis dahin wohl kaum mehr als 120€ kosten. Und ich bezweifle, dass dafür 64SPs genug sind.

AnarchX
2007-12-22, 17:32:18
Und ich bezweifle, dass dafür 64SPs genug sind.
Kommt ganz auf die Taktrate an. ;)

Nakai
2007-12-22, 17:39:10
Hoffentlich hat NV endlich die Vram-Probleme beseitigt.


mfg Nakai

GeneralHanno
2007-12-22, 18:01:31
für einen chip der breite sind 256bit@2GHz + 512MiB VRam wohl mehr als ausreichend!

laser114
2007-12-22, 18:41:43
Ein Chip mit 64 SPs macht schon deutlich mehr Sinn.

In 65nm wohl direkter RV670-Konkurrent, eventuell sind anfangs die Yields besser. In (hypothetischen) 55nm könnte er wohl sicher unter den RV670 positioniert werden.

w0mbat
2007-12-22, 19:36:41
Aber eben nicht von der Leistung her.

robbitop
2007-12-22, 22:38:32
ATis dedizierter Ringbus zeigt doch, wo man sich hinbewegen will. Nämlich weg von AFR... ;)
Was hat denn ein Ringbus damit zu tun? Ich finde, das ist ziemlich weit hergeholt. Der Ringbus ist lediglich günstiger als ein Crossbar. Für den Interconnect von mehreren GPUs kann man auch andere Dinge nehmen.


Aber natürlich geht da kaum noch was. Der Fertigungsprozess ist am Ende....
Mit den Fertigungsprozess-Orakeln hier im Forum sollte man echt ganz vorsichtig sein.

Das ist immer auch eine Frage der Wirtschaftlichkeit.

Hvoralek
2007-12-23, 00:18:07
500MHz -> 9600GT
Imo 650-750MHz -> D9E-GX2Warum sollte die GX2 deutlich höher takten als die Ein- Chip- Ausführung?

LovesuckZ
2007-12-23, 00:21:01
Und die zweite Frage lautet: Wieso sollte man zwei-4-Cluster Chips verwenden, wenn man schon 8 Cluster Chips hat?

laser114
2007-12-23, 00:23:58
Und die zweite Frage lautet: Wieso sollte man zwei-4-Cluster Chips verwenden, wenn man schon 8 Cluster Chips hat?

Korrekt, das ist irgendwie komisch. Gleichzeitig hat der 4 Cluster-Chip aber ein genau so breites Speicherinterface wie der 8 Cluster-Chip. Wer sich das ausgedacht hat. :|

Irgendein Chip fehlt da noch. Oder gibt es doch erstmal nur eine 8800 GX2 (oder ähnlich), basierend auf zwei G92-Chips?

LovesuckZ
2007-12-23, 00:31:00
Korrekt, das ist irgendwie komisch. Gleichzeitig hat der 4 Cluster-Chip aber ein genau so breites Speicherinterface wie der 8 Cluster-Chip. Wer sich das ausgedacht hat. :|

Nunja, Bandbreite kann man nie genug haben. Ausserdem ist es ja eine Angelegenheit, die nicht im Kontext der Cluster steht.


Irgendein Chip fehlt da noch. Oder gibt es doch erstmal nur eine 8800 GX2 (oder ähnlich), basierend auf zwei G92-Chips?

Als Antwort auf die 3870x2 benötigt man keine Dual-Karte.

laser114
2007-12-23, 00:32:46
Als Antwort auf die 3870x2 benötigt man keine Dual-Karte.

Ein starker Einzelchip würde es auch tun, ja. Aber über einen neuen solchen gibt es nicht einmal Gerüchte von irgendeiner halbwegs ernstzunehmenden Seite.

Und man wird sich doch nicht von der 3870 X2 die Butter vom Brot nehmen lassen, wenn man nicht muss?

LovesuckZ
2007-12-23, 00:37:28
Und man wird sich doch nicht von der 3870 X2 die Butter vom Brot nehmen lassen, wenn man nicht muss?

Man kann aber nicht das Geldverbrennen durch AMD entgegenwirken. Wenn man liest, dass die 3870 nur 320$ kosten könnte, dann kann nVidia nur mit einem Chip mithalten. Und wenn die ersten negativen Reaktionen aufgrund der Unflexibilität der 3870x2 kommen, dann ist eine altertürmliche Alternative wesentlich besser als eine Konkurrenzdualkarte.

Hvoralek
2007-12-23, 01:12:21
Ein starker Einzelchip würde es auch tun, ja. Aber über einen neuen solchen gibt es nicht einmal Gerüchte von irgendeiner halbwegs ernstzunehmenden Seite.Wie wäre es mit einem weiteren D8P- Modell? Mit scharfer Selektion sollten 750/1900 MHz machbar sein, dazu 1 GiB schneller Speicher und man sollte gegen eine 3870 X2 gegenhalten können (ausgehend von AMDs "8800 Ultra + 15%").

Wäre es nicht auch langweilig, wenn es nur eine Karte namens 8800 GTX geben würde? :crazy:

Telema
2007-12-23, 02:18:57
also wie jetzt...kommt also im März kein neuer High-End Chip? Nur GX2?

reunion
2007-12-23, 11:08:36
Und die zweite Frage lautet: Wieso sollte man zwei-4-Cluster Chips verwenden, wenn man schon 8 Cluster Chips hat?

Weil sich der 8-Cluster-Chip mangels D3D10.1 nicht als GF9 verkaufen lässt. Da kommt sicher was anderes, wenn am Valentinstag der D9M aka GF9600 mit D3D10.1 kommt.

also wie jetzt...kommt also im März kein neuer High-End Chip? Nur GX2?

D9E soll laut AiL erst Q2/2008 kommen. Die Frage ist was D9E ist, 2 x D9P, oder doch ein neuer Single-Chip. Der D9M der 9600 ist auf jeden Fall zu schwach für eine Dual-Karte, es muss also mindestens noch einen neuen Performance-Chip geben.

Gast
2007-12-23, 11:22:46
96SPs bei den hier angegebenen 500Mhz Coretakt wären aber zu wenig für eine 3870 und damit in der GX2-Ausführung zu weniger für eine 3870 X2.

Wieso das? Eine 8800GTS(G80) ist auch schneller als eine 3870, das wäre also nicht das Problem.

GeneralHanno
2007-12-23, 11:25:36
Scheinbar zieht man bei Nvidia den Mainstream launch vor, da man im Preisbereich unter 150€ schlechter als ATi aufgestellt ist (Stcihwort 3850-256, 3600, 3400 in 55 nm).

reunion
2007-12-23, 11:28:32
Wieso das? Eine 8800GTS(G80) ist auch schneller als eine 3870, das wäre also nicht das Problem.

Eine alte 8800GTS ist maximal gleichschnell.

AnarchX
2007-12-23, 11:52:09
Da kommt sicher was anderes, wenn am Valentinstag der D9M aka GF9600 mit D3D10.1 kommt.


D9P, D9M ist eher etwas in Richtung G96 bzw. G98(D8M) mit D3D10.1.

Noch etwas von CJ:
It's born to kill the HD3850? This card was intended to go up against RV670 in Q1 2008.... There was supposed to be only a 1 month gap in release (RV670 in January, D9P on the 14th of Feb). But then something unexpected happened... A11 silicon of RV670 came back faultless so it got released much sooner than anticipated... and the more expensive G92 had to be pushed down to compete against RV670.

So when the GeForce 9600GT comes out, AMD has a 3-4 months lead in the same segment.

The cheapest HD3850 is already available for €140 over here so NV will need to match the price to remain competitive.

It might also be nice to mention the performance of D9P in 3DM06. The projected performance is around 10K (slightly higher), which is around the same as the HD3850 which is already available. 9600GT will use an 8" PCB. The die-size is in between 190mm2-200mm2, making this the "natural competitor" to RV670.

Oh and D9E will be launched one month later in March. That's the 9800-Series, the follow-up to the 8800GTX/Ultra. This one will probably beat the HD3870 X2 (R680) which will be launched on the 28th of January.
http://forum.beyond3d.com/showpost.php?p=1108981&postcount=25

Nakai
2007-12-23, 12:09:59
Oh and D9E will be launched one month later in March. That's the 9800-Series, the follow-up to the 8800GTX/Ultra. This one will probably beat the HD3870 X2 (R680) which will be launched on the 28th of January

Also das der D9E wohl schneller als der HD3870X2 sein wird, ist abzusehen.
Wenn man den D9E mit der 8800GTX vergleicht und den D9P mit der 8600GTS, dann sollte die D9E schon mit 160 SPs mit 384Bit SI kommen.
Dann müssten noch die Taktraten um einiges höher sein, was wahrscheinlich der Fall sein wird.


mfg Nakai

GeneralHanno
2007-12-23, 12:19:59
dann war an der urspünglichen 8700GT (64SP, 256bit) vll doch was wahres dran. nur dassn nvidia hat umplanen musste.

Ich glaube ja immer noch an eine 9800GTX@512bit@1GiB GDDR3

1. ATi hat schon vor einem jahr eine Platine mit 512bit gehabt (schließlich war der R600 chip an der verspätung schuld ...)
2. Nvidia will ja angeblich GDDR4 meiden und auf GDDR5 warten (den gibt es aber erst in H2/08)
3. wenn der D9P schon 256bit haben soll, dann wären bei high-end 512bit angemessen
4. die 384bit/768MiB waren eher ein rationeller "zwischenschritte" von 256/512 zu 512/1024
5. für TRI-SLI wären 512/1024 sehr willkommen

reunion
2007-12-23, 12:23:51
D9P, D9M ist eher etwas in Richtung G96 bzw. G98(D8M) mit D3D10.1.

Noch etwas von CJ:

http://forum.beyond3d.com/showpost.php?p=1108981&postcount=25

Ach das ist schon D9P? Ich dachte da kommt noch was in Richtung G92. Na dann fehlt ja da nur mehr ein Chip gegen die X2.

Also das der D9E wohl schneller als der HD3870X2 sein wird, ist abzusehen.
Wenn man den D9E mit der 8800GTX vergleicht und den D9P mit der 8600GTS, dann sollte die D9E schon mit 160 SPs mit 384Bit SI kommen.
Dann müssten noch die Taktraten um einiges höher sein, was wahrscheinlich der Fall sein wird.


mfg Nakai

Die Frage ist ob man das auch will. Schon ein 8-Cluster Core in 65nm mit 4-ROP-Cluster ohne D3D10.1 hat 330mm². Klar geht immer mehr, nur müssen eben auch die Margen stimmen. Würde mich nicht wundern, wenn es bei 8 Shader-Cluster/6 ROP-Cluster plus D3D10.1 bleiben würde. Sollte bei entsprechenden Taktraten reichen.

GeneralHanno
2007-12-23, 12:30:46
wäre etwas verschwendung 3 tape outs für 3 "8-cluster a 16SP" chips (G80, G92, G90?)

Nakai
2007-12-23, 12:39:53
Die Frage ist ob man das auch will. Schon ein 8-Cluster Core in 65nm mit 4-ROP-Cluster ohne D3D10.1 hat 330mm². Klar geht immer mehr, nur müssen eben auch die Margen stimmen. Würde mich nicht wundern, wenn es bei 8 Shader-Cluster/6 ROP-Cluster plus D3D10.1 bleiben würde. Sollte bei entsprechenden Taktraten reichen.

Ich denke nicht, dass NV das riskieren will. Wie GeneralHanno schon gesagt hat, es wäre Verschwendung.
Wenn die HD3870X2 etwa 15% schneller sein wird, dann wird NV sicherlich nicht recht viel schneller sein.

mfg Nakai

Gast
2007-12-23, 15:13:27
Was war eigentlich an der Meldung das nVidia viel GDDR4 mal geordert hat? Stimmte das oder ist da nichts von wahr.
Wenn nicht könnte es ja wieder ein 384Bit Interface werden, mit dem G80 ist man gut gefahren, 512Bit kostet bei der Architektur zuviel Platz, was die Marge unnötig drücken würde. Da kann man auch über die Taktrate gehen, und wenn das AMD Flagschiff eh nicht so der reißer wird...

Gast
2007-12-23, 16:46:31
Ich hatte jetzt schon mehrmals von der neuen nVidia GeForce 9600 GT gelesen
die am 14.2.2008 kommen soll was haltet ihr von der neuen ?

http://www.hartware.de/news_43768.html

AnarchX
2007-12-23, 16:49:17
Was war eigentlich an der Meldung das nVidia viel GDDR4 mal geordert hat? Stimmte das oder ist da nichts von wahr.

Einige unabhängige Quellen berichteten von einem Einkauf von 1.6GHz GDDR4, was durchaus zu 384Bit passen würde.

Aber generell scheint GDDR4 wohl nicht so erfolgreich zu sein, woran das liegt, kann man nur spekulieren: ATi mit Vorzugsrechten als Entwicklungspartner von Samsung, zu geringe Stückzahlen für beide IHVs, Vorenthalten von wichtigen Specs für einen GDDR4-MC.

Immerhin setzt ja selbst D9P wohl noch auf GDDR3, der aber natürlich wohl langsam auch günstiger werden wird, nachdem nun GDDR2 aus den Lagern geworfen wird.

Gast
2007-12-23, 17:50:38
Müste dann die 9600 GT nicht der Nachfolger der 8600 GT sein
und endsprechend um 100 Euro Preisbereich liegen ?



http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=8600+gt&filter=+Angebote+anzeigen+&pixonoff=off

Ailuros
2007-12-23, 18:08:33
Ach das ist schon D9P? Ich dachte da kommt noch was in Richtung G92. Na dann fehlt ja da nur mehr ein Chip gegen die X2.

CJ erklaert die Situation ziemlich ausfuehrlich; alles G92 wird zu einer minimalen Lebenszeit verdammt, weil RV670 frueher antanzte als man erwartete.

Die Frage ist ob man das auch will. Schon ein 8-Cluster Core in 65nm mit 4-ROP-Cluster ohne D3D10.1 hat 330mm². Klar geht immer mehr, nur müssen eben auch die Margen stimmen. Würde mich nicht wundern, wenn es bei 8 Shader-Cluster/6 ROP-Cluster plus D3D10.1 bleiben würde. Sollte bei entsprechenden Taktraten reichen.

ROFL :D

Erwaehnt CJ irgendwo deutlich dass 9800-wasauchimmer eine single chip Loesung sein wird? Er erwaehnt sogar die die Groesse von dem Ding. Rechne mal *2 (mit entsprechenden Taktraten blah blah blah).

reunion
2007-12-23, 18:17:36
CJ erklaert die Situation ziemlich ausfuehrlich; alles G92 wird zu einer minimalen Lebenszeit verdammt, weil RV670 frueher antanzte als man erwartete.


Ja, habe ich gesehen. Ich dachte das noch ein D3D10.1 Nachfolger für G92 kommt, also ein neuer Performancechip.


ROFL :D

Erwaehnt CJ irgendwo deutlich dass 9800-wasauchimmer eine single chip Loesung sein wird? Er erwaehnt sogar die die Groesse von dem Ding. Rechne mal *2 (mit entsprechenden Taktraten blah blah blah).

Also nur 2 x 64 SPs für High-End? Wäre das nicht etwas wenig?

AnarchX
2007-12-23, 18:24:39
Also nur 2 x 64 SPs für High-End? Wäre das nicht etwas wenig?
Ist halt die Frage was für SPs, mit 2x MADD oder 4 FLOPs durch MADD+MUL+SFU je Takt wäre es wiederum mit entsprechenden Taktraten auch nicht so wenig.

Arun geht z.B. davon aus, dass die 64SPs anhand einer Cluster/TMU-Zahl geschätzt wurden, aber bei D9P wohlmöglich es nicht mehr 16SPs pro Cluster sind.
Wo wir wieder bei den 192SPs (2x96SPs(4x24)) wären und 2x500M Transistoren, die auch schon mal "geleakt" wurden.

Ailuros
2007-12-23, 18:24:57
Ich hab auch nirgends nur 64 erwaehnt ;)

reunion
2007-12-23, 18:28:06
Ich hab auch nirgends nur 64 erwaehnt ;)

Nein, das kam von wo anders. Aber viel mehr wird man bei einem Die kleiner 200mm² wohl kaum unterbringen, wenn ich mir G92 mit 330mm² ansehen, dem auch noch D3D10.1 fehlt.

Ist halt die Frage was für SPs, mit 2x MADD oder 4 FLOPs durch MADD+MUL+SFU je Takt wäre es wiederum mit entsprechenden Taktraten auch nicht so wenig.

Arun geht z.B. davon aus, dass die 64SPs anhand einer Cluster/TMU-Zahl geschätzt wurden, aber bei D9P wohlmöglich es nicht mehr 16SPs pro Cluster sind.
Wo wir wieder bei den 192SPs (2x96SPs(4x24)) wären und 2x500M Transistoren, die auch schon mal "geleakt" wurden.

Natürlich könnte sich da einiges geändert haben, immerhin musste nV ohnehin D3D10.1 implementieren. Mal abwarten.

Ailuros
2007-12-23, 18:52:04
Nein, das kam von wo anders. Aber viel mehr wird man bei einem Die kleiner 200mm² wohl kaum unterbringen, wenn ich mir G92 mit 330mm² ansehen, dem auch noch D3D10.1 fehlt.

G92 hat 8 cluster und 64 TMUs; es sind uebrigens knapp ueber 310mm^2 auf G92.

reunion
2007-12-24, 09:30:52
Ich werfe das mal hier rein, da es ja nichts anderes als zwei D9P ist:

After some infos of D9P, we also notice the release date of GeForce 9800 GX2 aka D9E. The date is Feburary 19th,2008, not the rumored March.

We can not learn much of the card, Only knows it will be a dual GPU card and communicate with built-in SLI. It also have a SLI connector so it will become the another card supporting Quad SLI like its predecessor 7950 GX2. The power module of the card is somehow different, it have one 6pin and one 8pin power connector.

http://en.expreview.com/?p=133

AnarchX
2007-12-24, 10:14:00
Passt wieder etwas hierzu:
PHK mal wieder:
Exclusive爆料
Next year 1 and February, NV issued D9E-40/20
According to insiders informer told me but live:

NV plans to January 08 release dual-PCB D9E-40 (1GB, MC256x2, 2x4 +2 x3, 225W)

While D9E-20 are planned February release D90-20 single-PCB (512MB MC256 2x4 or 2 x3 + x3, 180W)

Adjourned unfinished ...
http://we.pcinlife.com/thread-863467-1-1.html

Aber die 2x64SPs (MADD+MUL) mag ich zu bezweifeln, immerhin wird ja ATi Ende Januar schon mit über 1 TFLOPs MADD ankommen, wo man dann schon bei NV etwas weit über 2GHz bei den SPs benötigen würde.

Naja, wer weiß im Endeffekt vielleicht wieder nur alles von NV selbst gestreuter FUD...

edit: Wobei gewisse Dinge wieder zu alten Spekus passen:
2x32TMUs @ ~800MHz(INQ, AiL) = ~ 50GTex/s (AiL)
2x96SPs @ ~2.4GHz(B3D, AiL) = ~1400GFLOPs -> Q-SLI = 2.8TFLOPs ("near 3 TFLOPs")
2x16ROPs@~800MHz bei 2x256Bit@1.6GHz = 8GB/s pro GPix/s (~8800Ultra-Verhältnis)

=Floi=
2007-12-24, 10:52:22
ich hoffe noch immer auf einen großen chip (am besten doppelt so breit wie der G80 und 30% mehr takt)
nv wird uns schonn icht enttäuschen und das ultra/gtx pcb kann auch problemlos weiterverwendet werden

GeneralHanno
2007-12-24, 13:12:13
die taktraten (zumindest die der ROP/TMU-domain, SP kann man schwer voraussagen) wird nvidiatypisch wohl eher bei konservativen 500Mhz liegen ;)

Hvoralek
2007-12-24, 14:11:00
ich hoffe noch immer auf einen großen chip (am besten doppelt so breit wie der G80 und 30% mehr takt)
nv wird uns schonn icht enttäuschen und das ultra/gtx pcb kann auch problemlos weiterverwendet werdenEinen 16- C- Chip mit 12 ROP- Blöcken? Das ganze dann 2009 in 45 nm oder wie?

Einen 30% höherem Takt (etwa 800/2000) halte ich allerdings für denkbar. Wir können aber froh sein, wenn es Anfang 2008 einen geshrinkten G80 + D3D10.1 mit solchen Taktraten geben sollte. Um die 3870 X2 zu schlagen, müsste so etwas aber auch reichen.

Gast
2007-12-24, 14:34:18
Einen 30% höherem Takt (etwa 800/2000) halte ich allerdings für denkbar.

Dazu 32 ROPs + 512bit SI mit 1GB DDR3 @1000Mhz.

Adam D.
2007-12-24, 14:51:54
Dazu 32 ROPs + 512bit SI mit 1GB DDR3 @1000Mhz.
Niemals. Nvidia ist überhaupt nicht in solch einem Zugzwang, um eine Toplösung vorzustellen. 'N bissl was über 2xRV670 zu 'nem gscheiten Preis reicht doch wieder völlig, um ATi den Wind aus den Segeln zu nehmen.

Winter[Raven]
2007-12-24, 15:03:50
Warum soll Nvidia was jetzt High-End bringen? AMD liefert nichts vergleichbares...

Ailuros
2007-12-24, 16:42:00
Passt wieder etwas hierzu:


Aber die 2x64SPs (MADD+MUL) mag ich zu bezweifeln, immerhin wird ja ATi Ende Januar schon mit über 1 TFLOPs MADD ankommen, wo man dann schon bei NV etwas weit über 2GHz bei den SPs benötigen würde.

Wo sagte die Aussage NV's ueber den TFLOP je dass es sich nur um MADD Leistung handelt?

Schon mit 1.6GHz ALU Frequenz ist man immer noch im "fast 1 TFLOP" Feld das angegeben wurde.

***edit: Du musst Dir den Unterschied zwischen theoretischem Maximum und "real throughput" etwas deutlicher machen. Ja in einer synthetischen MADD-only Applikation erreichen zwei R600 sicher diese Rate; wehe wenn aber noch andere Faktoren in einem Echtzeit-Spiel mitgemischt werden. Ich hab ein pdf von einem IHV in der Hand (hat nichts mit AMD/NV zu tun) dass noch nicht oeffentlich ist und da steht drin dass man X MPolys/sec und so und so viel MPixels/s erreicht bei 50% shader load. Und solche Angaben sind natuerlich nicht nur wahrheitsgenauer, sondern auch um einiges ehrlicher.


edit: Wobei gewisse Dinge wieder zu alten Spekus passen:
2x32TMUs @ ~800MHz(INQ, AiL) = ~ 50GTex/s (AiL)
2x96SPs @ ~2.4GHz(B3D, AiL) = ~1400GFLOPs -> Q-SLI = 2.8TFLOPs ("near 3 TFLOPs")
2x16ROPs@~800MHz bei 2x256Bit@1.6GHz = 8GB/s pro GPix/s (~8800Ultra-Verhältnis)

Ich hab ueber den 3 TFLOP Quark nie nachgefragt; es wuerde mich aber kein bisschen wundern, wenn es sich nicht um eine H1 2008 Loesung handelt. 3 Ultras@SLi sind schon heute knapp ueber 1.7 TFLOPs auf Papier.

reunion
2007-12-24, 17:15:11
Niemals. Nvidia ist überhaupt nicht in solch einem Zugzwang, um eine Toplösung vorzustellen. 'N bissl was über 2xRV670 zu 'nem gscheiten Preis reicht doch wieder völlig, um ATi den Wind aus den Segeln zu nehmen.

Wenn nV weiter über 500$ für High-End verlangen will, dann muss da jedenfalls bald was deutlich schnelleres als die 3870 X2 kommen, denn diese will AMD anscheinend um etwas über 300$ anbieten.

Ailuros
2007-12-24, 17:31:18
Einen 30% höherem Takt (etwa 800/2000) halte ich allerdings für denkbar. Wir können aber froh sein, wenn es Anfang 2008 einen geshrinkten G80 + D3D10.1 mit solchen Taktraten geben sollte. Um die 3870 X2 zu schlagen, müsste so etwas aber auch reichen.

Der Preis von "R680" soll afaik rund um die 330 Euro liegen. Wenn man sich die 3870@CF Leistungszahlen ansieht, sieht es ja nicht nach etwas besonderem aus. Das attraktive an der ganzen Geschichte ist dann eben der Preis.

Ganz nebenbei vergleichte AMD auf ihren beruehmten slides 2*3850@CF mit 2*8600GTS@SLi.

AnarchX
2007-12-24, 17:39:50
Wo sagte die Aussage NV's ueber den TFLOP je dass es sich nur um MADD Leistung handelt?

Schon mit 1.6GHz ALU Frequenz ist man immer noch im "fast 1 TFLOP" Feld das angegeben wurde.
Aber nicht mit nur 2x64SPs(MADD+MUL). ;)

Und natürlich ist mir klar, dass R6xx größere Probleme hat an sein Output-Maximum in Real-World-Szenarien zu kommen.

Ailuros
2007-12-24, 17:52:30
Aber nicht mit nur 2x64SPs(MADD+MUL). ;)

Und natürlich ist mir klar, dass R6xx größere Probleme hat an sein Output-Maximum in Real-World-Szenarien zu kommen.

Oooops ich hab komischerweise 96 gelesen als ich darauf antwortete.

AnarchX
2007-12-24, 18:04:29
HKEPC hat auch noch ein paar Infos zur 9600GT aka G94:
- 20-40% schneller als die HD3850
- $169 MSRP
- mehr Pins als G92 -> Hardware-SLI für die GX2 ohne Profile? :uponder: ;D

http://hkepc.com/?id=547

Nakai
2007-12-24, 18:21:16
20-40% schneller als die HD3850

Spricht für 96SPs mit hohem Takt.


mfg Nakai

GeneralHanno
2007-12-24, 20:39:02
20-40% schneller als die 3850 ist ja ungefähr die 8800GT leistung ;)

AnarchX
2007-12-24, 20:41:26
Im Durchschnitt, aber diese Werte werden sich wohl auf wieder gut ausgewählt Benches beziehen aus einer NV-Präsentation, im Endeffekt wird es wohl auf etwa gleiche Performance hinauslaufen, imo.

dargo
2007-12-24, 20:52:38
Hardware-SLI für die GX2 ohne Profile? :uponder: ;D

http://hkepc.com/?id=547
Was soll man davon wieder halten?

laser114
2007-12-25, 02:55:06
Was soll man davon wieder halten?

Expreview leakt in letzter Zeit ziemlich viel über kommende Nvidia-Hardware. Eventuell sie haben sehr gute Kontakte (dafür sprechen würde auch die Pre-NDA-Tests) oder das ist einfach nur FUD.

=Floi=
2007-12-25, 07:32:38
575X1,30~ ca. 750mhz und das ist für den G92 kein problem
mit dem 65nm prozess hätte man auch nahezu die doppelte nutzfäche zur verfügung. Unrealistisch ist so ein doppelt so großer chip sicherlich nicht.

alleine schon wegen den aktionären muß nv neue produkte bringen. nv wird sicherlich den 400€< bereich nicht sterben lassen und ausgerechnet jetzt kann man mit einer doppelt so schnellen karte ati in das untere segemnt abdrängen und deren magen kaputt machen

AnarchX
2007-12-25, 09:44:19
"9600 GTS" @ 3DMark2006???

9600GTS? 650/1500/2000?
http://img172.imageshack.us/img172/3006/1198478779766f60ebbert4.jpg (http://imageshack.us)

8800 GT 600/1500/1800 512M
http://img171.imageshack.us/img171/3816/1198478881159f60f6eael1.jpg (http://imageshack.us)

HD3850 668/1660 256M
http://img296.imageshack.us/img296/1750/1198478957907f610532pw1.jpg (http://imageshack.us)

http://translate.google.com/translate?hl=en&langpair=zh%7Cen&u=http://diybbs.pconline.com.cn/topic.jsp%3Ftid%3D8000957%26pageNo%3D1

AnarchX
2007-12-25, 09:58:38
Und nochmal ein Package, welches doch etwas anders aussieht, als das von Expreview:
http://img508.imageshack.us/img508/5605/000680240f6e5cd8gd1.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/258/258133.shtml

GeneralHanno
2007-12-25, 11:24:08
die gerüchte verdichten sich, dass heißt lange können sie die schotten nicht mehr dicht halten ;)

Hvoralek
2007-12-25, 15:39:59
"9600 GTS" @ 3DMark2006???Eine GT mit etwas niedrigeren Taktraten ist etwa 1/4 schneller. Das sollten also entweder 6 Cluster sein oder 4 erheblich umgebaute. Auf jeden scheint D9P tatsächlich schwächer zu sein als D8P :|

GeneralHanno
2007-12-25, 15:45:21
naja beim D8P bedeutete das P für Performence wohl noch knapp unter high-end (E wir extrme) und der nie erschienene D8M sollte mainstream sein und D8V value.

Jetzt (GF9 series) steht E weiter für extrme/high-end P für den oberen mainstream und M für budget-mediamarkt-ware .

reunion
2007-12-25, 15:46:06
Eine GT mit etwas niedrigeren Taktraten ist etwa 1/4 schneller. Das sollten also entweder 6 Cluster sein oder 4 erheblich umgebaute. Auf jeden scheint D9P tatsächlich schwächer zu sein als D8P :|

Bei einer Die-Größe von um die 200mm² und gleichem Fertigungsprozess war das zu erwarten, zaubern kann auch nV nicht. Ich wage bei der Die-Größe zu bezweifeln das es viel mehr als vier leicht modifizierte Cluster sind. Das Ding muss ja wohl auch noch für eine GX2 herhalten.

laser114
2007-12-25, 15:47:25
Eine GT mit etwas niedrigeren Taktraten ist etwa 1/4 schneller. Das sollten also entweder 6 Cluster sein oder 4 erheblich umgebaute. Auf jeden scheint D9P tatsächlich schwächer zu sein als D8P :|

Ich vermute das System mit E, P, M usw. gibts nur ab D9; und beim G92 und G98 haben sich das Gerüchteseiten noch dazugedichtet ... das passt dann eher in Nvidias Schema. ;)

aths
2007-12-25, 15:50:17
Bei der abartigen nachfrage kann nVidia die G92 modelle das ganze Q1 lang in massiven stückzahlen absetzen - jetzt noch ein modell bringen unterhalb der 8800GT macht sowas von garkein sinn.Doch. Mir fehlt ja seit längerem eine GPU mit 64 SP (und kaufte da ich mir die 8800 GT im Moment nicht leisten kann zumal der Stromverbrauch bei meinem System dann schon kritisch wäre) eine mit 32 SP. Wie viele SP die 9600 bringen soll weiß ich nicht, aber ich wäre froh wenn endlich mal die Lücke zwischen 8600 GTS und 8800 GT geschlossen würde.

reunion
2007-12-25, 15:58:33
Doch. Mir fehlt ja seit längerem eine GPU mit 64 SP (und kaufte da ich mir die 8800 GT im Moment nicht leisten kann zumal der Stromverbrauch bei meinem System dann schon kritisch wäre) eine mit 32 SP. Wie viele SP die 9600 bringen soll weiß ich nicht, aber ich wäre froh wenn endlich mal die Lücke zwischen 8600 GTS und 8800 GT geschlossen würde.

Wenn es keine Nv sein muss, scheint die HD3850 um 140€ das zu sein, was du suchst und vor allem schon heute bekommst.

aths
2007-12-25, 16:07:34
Ich habe mich an die 2D-Features von Nvidia gewöhnt.

Bei einer Die-Größe von um die 200mm² und gleichem Fertigungsprozess war das zu erwarten, zaubern kann auch nV nicht. Ich wage bei der Die-Größe zu bezweifeln das es viel mehr als vier leicht modifizierte Cluster sind. Das Ding muss ja wohl auch noch für eine GX2 herhalten.Auf eine GX2 habe ich keine Lust.

Hvoralek
2007-12-25, 16:38:00
naja beim D8P bedeutete das P für Performence wohl noch knapp unter high-end (E wir extrme) und der nie erschienene D8M sollte mainstream sein und D8V value.Sofern es bei der Gf 8 diese neuen Bezeichnungn schon gab, war wohl G84 = D8M und G86 = D8V.

Jetzt (GF9 series) steht E weiter für extrme/high-end P für den oberen mainstream und M für budget-mediamarkt-ware .Ich wäre erstaunt, wenn man nun wieder mit nur drei Chips (High- End, Mainstream, Budget) ankommt, nachdem beide Hersteller mit Performancechips zuletzt gut gefahren sind.


Bei einer Die-Größe von um die 200mm² und gleichem Fertigungsprozess war das zu erwarten, zaubern kann auch nV nicht. Ich wage bei der Die-Größe zu bezweifeln das es viel mehr als vier leicht modifizierte Cluster sind. Das Ding muss ja wohl auch noch für eine GX2 herhalten.An eine GX2 mit 2x4 Clustern glaube ich nicht, da wäre ein 8- C- Einzelchip sinnvoller. Für vier "leicht veränderte" Cluster sind die Werte, sofern echt, auch viel zu hoch. Das sind entweder schss Cluster oder vier deutlich aufgebohrte.

GeneralHanno
2007-12-25, 17:22:15
@Hvoralek:

prinipiell stimme ich dir zu. allerdings hat anarchX mir einige überzeugende argumente genannt, dass "V" für die IGPs steht und "M" für low-end dezidiert (P für oberen Mainstream und E für High-End). Man kann das hoffentlich so deuten, dass wie zur guten alten GF6-Zeit Mainstream ("P") = Halber High-end ("E"). Dann könnte ich auch auf das Performece-Sekment verzichten. was ich nicht mag, sind diese Mainstreamprodukte mit 1/4 oder 1/3 breite vom high-end chip ...

ein weiterer gedanke von mir wäre, vll hat man die 2. MUL urbar gemacht (wären ja theoretisch bis zu 50% mehr leistung) indem man eine eigene SFU integriert hat ...

Malabolge
2007-12-25, 17:23:32
Ich habe mich an die 2D-Features von Nvidia gewöhnt.


Nur mal als Nachfrage : Welche besonderen sollen das sein ???

OnT: Nvidia sollte sich "neue" Namen überlegen bei g100 denk ich an Matrox , bei 9600/9800 an ATI

Das könnte jede menge Leute verwirren und wieder in Kleinkrige ausarten










PS: aths komm jetzt bitte nicht mit Rechtschreibung , sondern beantworte die Frage !

Hvoralek
2007-12-25, 17:33:23
prinipiell stimme ich dir zu. allerdings hat anarchX mir einige überzeugende argumente genannt, dass "V" für die IGPs steht und "M" für low-end dezidiert (P für oberen Mainstream und E für High-End). Man kann das hoffentlich so deuten, dass wie zur guten alten GF6-Zeit Mainstream ("P") = Halber High-end ("E"). Dann könnte ich auch auf das Performece-Sekment verzichten. was ich nicht mag, sind diese Mainstreamprodukte mit 1/4 oder 1/3 breite vom high-end chip ...Die Sache mit den IGPs habe ich irgendwie verpasst. Wo war denn das? Und gibt es für die nicht sowieso ein eigens Namensschema?

Mir scheint es auch durchaus sinnvoll, statt eines Chips für den gesamten Mittelklassebereich einen für den oberen und einen für den unteren zu bringen. Bisher waren die immer Erfolge (RV570, D8P).

ein weiterer gedanke von mir wäre, vll hat man die 2. MUL urbar gemacht (wären ja theoretisch bis zu 50% mehr leistung) indem man eine eigene SFU integriert hat ...Das würde nicht viel bringen. Bisher ist das zweite MUL afaik zu etwa 20% nutzbar, die rechnerische Arithmetikleistung würde also um gut 1/3 steigen. Aber eben nur die Arithmetikleistung und auch die nur bei extrem multiplikationslastigem Code. Praktisch würde ich durch eine volle Nutzbarkeit des zweiten MUL vlt. 5%, wenn es hoch kommt, 10% tatsächlicher Mehrleistung erwarten.

Wenn das tatsächlich vier Cluster sind und die Werte stimmen, muss man daran mehr gemacht haben. Vorstellbar wäre etwa eine Erweiterung des zweiten MUL zu einem voll nutzbaren MADD (ähnlich wie bei NV40 --> G70). Dadurch würde sich die praktische Arithmetikleistung wohl benahe verdoppeln.

Nakai
2007-12-25, 18:30:21
Wenn das tatsächlich vier Cluster sind und die Werte stimmen, muss man daran mehr gemacht haben. Vorstellbar wäre etwa eine Erweiterung des zweiten MUL zu einem voll nutzbaren MADD (ähnlich wie bei NV40 --> G70). Dadurch würde sich die praktische Arithmetikleistung wohl benahe verdoppeln.


Das müssen 6 Cluster sein.

AIL hat ja gemeint, dass das neue Highend von NV über eine Milliarde Transistoren geht. Bei 6 Cluster wäre man dann bei etwa 550 Millionen.

6 Cluster und konventionelle Taktraten würden besser zu NV passen.
Und dann wären noch ein paar generelle Verbesserungen.


mfg Nakai

Hvoralek
2007-12-25, 19:19:07
D8P wiegt über 750 Mio. Transistoren, G84 (2C/ 2 ROP- Blöcke) auch schon etwa 300. Mit vier deutlich aufgebohrten Clustern, 4 ROP- Blcken, D3D10.1 und vlt. noch ein bisschen Kleinkram würde man wohl auch auf > 500 Mio. Transistoren pro Chip kommen.

Ailuros
2007-12-27, 06:37:51
Eine GT mit etwas niedrigeren Taktraten ist etwa 1/4 schneller. Das sollten also entweder 6 Cluster sein oder 4 erheblich umgebaute. Auf jeden scheint D9P tatsächlich schwächer zu sein als D8P :|

D8P war auch nicht original mit 7 clusters geplant ;)

Das Ding mit den 4 "umgebauten" clusters sitzt mir nicht ganz so richtig; ich bin mir gar nicht so sicher ob MADD+MADD unter G8x/9x ueberhaupt Sinn macht, aber es kann durchaus sein dass ich irgend was verpasse. Es waere dann wohl irgendwo in der Richtung 64*4*=/>1.7.

Der wesentlichste Punkt hier ist dass man selbst mit dual MADD einen hoehere ALU Frequenz braucht, welche aber auch nicht umsonst ist.

Was jetzt die Transistoren-Anzahl bei D9x betrifft, so lange wir nicht wissen was an Redundanz aus dem Fenster geflogen ist und wieviele TMUs/SFs, hat das Zeug keinen Sinn. Sicher bin ich mir nur ueber 4*64; dass 256bits in den Mainstream-Bereich kommt hoerte ich schon seit der G80 Veroeffentlichung.

AnarchX
2007-12-27, 10:11:41
Auch noch eine Andeutung auf den GeForce 9 Launch im Februar/März:
http://img299.imageshack.us/img299/1351/20071227122755758333615og7.jpg
http://hkepc.com/?id=551

Da fragt man sich ob der MCP78U dann vielleicht im Gegensatz zum MCP78S plötzlich D3D10.1 beherrscht und ob das nicht vielleicht auch noch auf andere aktuelle GPUs zutrifft. :uponder:


D8P war auch nicht original mit 7 clusters geplant ;)

Das Ding mit den 4 "umgebauten" clusters sitzt mir nicht ganz so richtig; ich bin mir gar nicht so sicher ob MADD+MADD unter G8x/9x ueberhaupt Sinn macht, aber es kann durchaus sein dass ich irgend was verpasse. Es waere dann wohl irgendwo in der Richtung 64*4*=/>1.7.

War es nicht so, dass G86 pro Takt eine SFU erledigen kann? Vielleicht hat man dies in die "richtigen" G9x-GPUs übernommen: 64*(2(MADD)+1(MUL)+1(SFU))*>1.7GHz = >430GFLOPs.
Fragt sich nur wie oft SFUs gebraucht werden und ob deren Nutzung vielleicht in Zukunft zunimmt.

Ansonsten bliebe ja auch noch die Möglichkeit einer zusätzlichen Vec8-ALU pro Cluster -> 4x 24 SPs.

Gast
2007-12-27, 15:40:45
D8P war auch nicht original mit 7 clusters geplant ;)


Die 8800GT vielleicht nicht, der D8P dagegen schon.

Ailuros
2007-12-27, 16:16:42
War es nicht so, dass G86 pro Takt eine SFU erledigen kann? Vielleicht hat man dies in die "richtigen" G9x-GPUs übernommen: 64*(2(MADD)+1(MUL)+1(SFU))*>1.7GHz = >430GFLOPs.
Fragt sich nur wie oft SFUs gebraucht werden und ob deren Nutzung vielleicht in Zukunft zunimmt.

Lass die Finger von SFU FLOPs weg bei solchen theoretischen Zahlen.

Ailuros
2007-12-27, 16:18:50
Die 8800GT vielleicht nicht, der D8P dagegen schon.

8800GT= D8P

Gast
2007-12-27, 16:23:28
8800GT= D8P

Und was ist die 8800GTS-512?

Ailuros
2007-12-27, 18:43:25
Und was ist die 8800GTS-512?

D8E ist es auf jeden Fall nicht :P

AnarchX
2007-12-27, 18:47:30
D8P ist ja auch nur eine Klasse. Imo:
D8P-GTS -> 512MB 88GTS
D8P-GT -> 88GT
D8P-SE -> 88GS

Ailuros
2007-12-27, 18:54:34
Die 8800GS kommt ja anscheinen jetzt doch noch in den Retail Markt; die einzigen die sich dann nicht mehr darueber freuen sind die Kerle im Treiberteam. Die unendlichen diversen Anpassungen an 192/256/320/384 bit breite Busse duerften diesen so langsam zum Hals heraus haengen.

Die Frage ist ob sie bei D9E (H2 2008 um den Threadtitel endlich richtig anzulegen) bei 256 bleiben oder sogar auf 320 wieder steigen werden; unter normalen Umstaenden liefert das konservativste GDDR5 auf 256bit schon 160GB/s.

AnarchX
2007-12-27, 19:00:07
Nur sollten dann aber die ROP-Partitionen bzw. die ROPs etwas aufgemöbelt werden. ;)

reunion
2007-12-27, 19:02:47
Die Frage ist ob sie bei D9E (H2 2008 um den Threadtitel endlich richtig anzulegen)

H2 2008? Das heißt bis dahin muss G80 herhalten? Oder eine GX2 auf D9P-Basis?

AnarchX
2007-12-27, 19:07:55
H2 2008? Das heißt bis dahin muss G80 herhalten?
Da wäre Gainward ja überrascht, für die G80 schon EOL ist:
http://www.gainward.com/product/product_sub_e.php

Aber warum sollte eine GX2 auf D9P-Basis nicht unter D9E eingeordnet werden? :|

Ailuros
2007-12-27, 19:08:33
H2 2008? Das heißt bis dahin muss G80 herhalten? Oder eine GX2 auf D9P-Basis?

Dass G80 innerhalb der ersten Monate in 2008 abgeloest wird, steht ja schon auf jeder 0815 trash tabloid Seite.

nomadhunter
2007-12-27, 19:10:54
Die Frage ist ob sie bei D9E (H2 2008 um den Threadtitel endlich richtig anzulegen) bei 256 bleiben oder sogar auf 320 wieder steigen werden; unter normalen Umstaenden liefert das konservativste GDDR5 auf 256bit schon 160GB/s.
Kommt drauf an, was für eine Leistung man anpeilt. Für 2x8800GTX würden 160GB/s reichen, mit 320bit würde man bei gleichem Speichertakt schon auf 200GB/s kommen, also 2x8800Ultra. Vorausgesetzt man orientiert sich mit dem Verhältnis Shaderleistung zu Bandbreite wieder am G80.

H2 2008? Das heißt bis dahin muss G80 herhalten? Oder eine GX2 auf D9P-Basis?
Ich vermute eine GX2. Auf D9P-Basis geht aber nur, wenn D9P mehr als ein halber G92 (64SPs) ist. 96SP*2 bei 70-80% SLI-Effizienz entsprächen einem Singlechip mit 160-170SPs. Das wäre genug für eine neue High-End-Lösung.

Ailuros
2007-12-27, 19:15:48
D9E wird von allen zu moderat eingeschaetzt; irgendwo in einem anderem Thread hab ich die Transistoren-Anzahl mal ganz schnell eingeschaetzt, aber momentan sollte man sich damit begnuegen dass das Ding gegen AMD's sogenannten "R7x0" antreten wird.

AnarchX
2007-12-27, 19:17:52
Oha, also ist D9E der Monster-Die in 55nm.

4-fache G80-Leistung kostet natürlich etwas.

Ailuros
2007-12-27, 19:26:41
Oha, also ist D9E der Monster-Die in 55nm.

4-fache G80-Leistung kostet natürlich etwas.

Lass mich mal sehen was Du gehoert hast....:D

nomadhunter
2007-12-27, 19:36:14
4xG80? Das schreit aber nach 512bit Speicherinterface.
4xGTX = 320GB/s = 2500MHz @ 512bit :eek:
Wenn man wieder einen ziemlich bandbreitenlimitierten Chip baut:
4xGTS-512 = 240GB/s ~ 1900MHz @ 512bit / 2500MHz @ 384bit

Wie schnell soll GDDR5 werden?

AnarchX
2007-12-27, 19:42:36
Lass mich mal sehen was Du gehoert hast....:D
Mehr als angepeilter Release, mögliche Leistung auch im Bezug auf die Konkurrenz und dass der Die/Transistorcount, wie du schon sagt zu moderat geschätzt wurde und im Verhältnis zu bisherigen GPUs wahnwitzig klingen soll, auch eben nicht. Vielleicht kannst du ja noch etwas Klarheit bringen, wenn du darfst...


Wie schnell soll GDDR5 werden?
GDDR5 startet doch bei 0.5ns also 2GHz.
Aber ich würde nicht unbedingt Performance = Bandbreite setzen, da ja deren Anteil an der Gesamtleistung stetig sinkt und es ja auch Möglichkeit gibt diese effizienter zu nutzen(z.B. ist eine 88GT 2.5mal so schnell wie eine 79GTX, obwohl sie nur 11% mehr Bandbreite hat. ;)).

GeneralHanno
2007-12-27, 19:46:18
das 4x bezieht sich gearantiert auf die aritmetikleistung (dort hat man ja schon mehrmal xx TeraFLOP gehört ;))
ich denke, dass bandbreite und füllraten langsamer wachsen werden als die aritmetikpower !

AnarchX
2007-12-27, 19:48:00
Die Zahlen beziehen sich eigentlich nicht auf theoretische Leistungsdaten. ;)

Ailuros
2007-12-27, 19:51:37
das 4x bezieht sich gearantiert auf die aritmetikleistung (dort hat man ja schon mehrmal xx TeraFLOP gehört ;))
ich denke, dass bandbreite und füllraten langsamer wachsen werden als die aritmetikpower !

GDDR5 faengt afaik mit 2.5GHz an; rechne mal selber aus wieviel Bandbreite es auf einem 256/320 oder sogar 384bit breitem Bus ergibt. Deshalb sagte ich auch dass selbst 256bit nicht unbedingt zu kurz geschnitten sind.

Es ist eigentlich Faktor 3x aber momentan total nebensaechlich.

Ailuros
2007-12-27, 19:59:36
Mehr als angepeilter Release, mögliche Leistung auch im Bezug auf die Konkurrenz und dass der Die/Transistorcount, wie du schon sagt zu moderat geschätzt wurde und im Verhältnis zu bisherigen GPUs wahnwitzig klingen soll, auch eben nicht. Vielleicht kannst du ja noch etwas Klarheit bringen, wenn du darfst...

Nein ich will wissen was Du von der die-Groesse gehoert hast; wahnwitzig eigentlich nicht nur was den Stromverbrauch betrifft, aber hier ist beiden IHVs eher Leistung pro Watt wichtiger als alles andere. Ist AMD's Antwort dual-chip dann wird es sowieso so langsam Zeit dass PSUs fuer nur GPUs weiter verbreitet werden; selbst bei kleinerem die grenzt das insgesamte Resultat tatsaechlich an den Wahnsinn.


GDDR5 startet doch bei 0.5ns also 2GHz.
Aber ich würde nicht unbedingt Performance = Bandbreite setzen, da ja deren Anteil an der Gesamtleistung stetig sinkt und es ja auch Möglichkeit gibt diese effizienter zu nutzen(z.B. ist eine 88GT 2.5mal so schnell wie eine 79GTX, obwohl sie nur 11% mehr Bandbreite hat. ;)).

2.5GHz von dem was ich hoerte; bei 256bit ist es schon mal fast doppelt so viel Bandbreite wie auf der 8800GTX. Bei 384bit sind es 240GB/s.

Die Bandbreite skaliert schon unveraendert im high end Bereich seit einige Jahren; der einzige Unterschied ist dass die arithmetische Leistung um zich Male schneller nach oben schiesst.

sklave_gottes
2007-12-27, 20:37:56
GDDR5 faengt afaik mit 2.5GHz an; rechne mal selber aus wieviel Bandbreite es auf einem 256/320 oder sogar 384bit breitem Bus ergibt. Deshalb sagte ich auch dass selbst 256bit nicht unbedingt zu kurz geschnitten sind.

Es ist eigentlich Faktor 3x aber momentan total nebensaechlich.


Das hat sich vor 2-3 Monaten im rv670 Thread noch anders angehört. Da habe ich gesagt das mit hohem GDDR4/5 takt noch 256bit ausreichen Können. Du meintest 384/512bit wäre für next High end unverzichtbar.....

was denn nu ?:biggrin:


mfg martin

GeneralHanno
2007-12-27, 21:28:34
2GHz GDDR5 @ 256bit = 1GHz GDDR3 @ 512bit

sollte eigentlich beides mehr als ausreichen sein. es ist halt die frage, ob GDDR5 pünktlich verfügbar ist ;)

nomadhunter
2007-12-27, 21:42:06
2GHz GDDR5 @ 256bit = 1GHz GDDR3 @ 512bit

sollte eigentlich beides mehr als ausreichen sein. es ist halt die frage, ob GDDR5 pünktlich verfügbar ist ;)
Auch für G80x4? Das wäre nämlich nicht mal 2xGTX. Selbst wenn die Bandbreite nicht so stark wächst wie die Shaderleistung, wäre das schon ziemlich knapp.

sklave_gottes
2007-12-27, 22:06:00
Auch für G80x4? Das wäre nämlich nicht mal 2xGTX. Selbst wenn die Bandbreite nicht so stark wächst wie die Shaderleistung, wäre das schon ziemlich knapp.


1. Wieso sollte der next High Chip 4xg80 Leistung haben ? Jedesmal wird Hier gedacht der Nächste Chip ist 4-8 mal so schnell wie der Beste der letzten Generation. Ich denke wenn Überhaupt ist mit singel Chip knapp x2 drin.

2. Selbst wenn die Shaderleistung verdreifacht wird muss die Speicherbandbreite noch lange nicht folgen.(siehe 7900gtx ---> 8800GTX)
(X1800XT ----> X1900XT)

3. Eine 8800GTS hat nichtmal 64 GB/s, 160GB/s wären 2,5 mal soviel das Reicht locker für den nächsten Top Chip.

4. Speicherbandbreite sollte immer im gesunden verhältnis zum GPU sein. (sihe HD2900XT und HD3870)

mfg martin

nomadhunter
2007-12-27, 23:42:02
1. Wieso sollte der next High Chip 4xg80 Leistung haben ? Jedesmal wird Hier gedacht der Nächste Chip ist 4-8 mal so schnell wie der Beste der letzten Generation. Ich denke wenn Überhaupt ist mit singel Chip knapp x2 drin.
Lies mal ein paar Posts weiter oben. ;)

2. Selbst wenn die Shaderleistung verdreifacht wird muss die Speicherbandbreite noch lange nicht folgen.(siehe 7900gtx ---> 8800GTX)
(X1800XT ----> X1900XT)
Die 8800GT und GTS-512 zeigen aber, dass eine enorme Steigerung der Shaderleistung ohne Steigerung der Bandbreite bei den derzeitigen Anwendungen nicht gerade sinnvoll ist. Und innerhalb des nächsten halben Jahres bis Jahres wird sich das nicht zu stark ändern. Der G80 ist relativ gut ausbalanciert.

3. Eine 8800GTS hat nichtmal 64 GB/s, 160GB/s wären 2,5 mal soviel das Reicht locker für den nächsten Top Chip.
Siehe Punkt 1.

4. Speicherbandbreite sollte immer im gesunden verhältnis zum GPU sein. (sihe HD2900XT und HD3870)
Natürlich, aber eine Vervierfachung der Shaderleistung ohne die Bandbreite zumindest zu verdoppeln bis -dreifachen halte ich für eher wenig erfolgsversprechend. Siehe GTS-512. Die hat nur noch 60% soviel Bandbreite/GFLOP wie die GTX und ist deswegen trotz höherer Shaderleistung in höheren Auflösungen/AA/Settings deutlich im Nachteil.

laser114
2007-12-28, 00:17:51
GDDR5 mit deutlich mehr als 2 GHz soll noch 2008 gut verfügbar sein?
Ist das nicht etwas optimistisch gedacht?

Ailuros
2007-12-28, 09:29:37
Das hat sich vor 2-3 Monaten im rv670 Thread noch anders angehört. Da habe ich gesagt das mit hohem GDDR4/5 takt noch 256bit ausreichen Können. Du meintest 384/512bit wäre für next High end unverzichtbar.....

was denn nu ?:biggrin:


mfg martin

Schnall Dich mal etwas kuerzer mit dem 512bit breitem Bus, denn fuer den hab ich mich sehr ausdruecklich geaeussert. Dass NV tatsaechlich GDDR4 total ueberholen will fuer das Monster war mir zu dem Zeitpunkt nicht bekannt und die Entscheidung (wenn GDDR5 wirklich festliegt) fuer die jeweilige Busbreite haengt tatsaechlich von der Verfuegbarkeit je nach Frequenz vom GDDR5 Speicher ab.

Ob Du jetzt 2.0GHz@320bit oder 2.5GHz@256bit nimmst, macht Dir genau welchen Unterschied fuer die resultierende Bandbreite? Ich schnall mit Absicht die Bandbreite nur auf 2*8800GTX an, weil ich persoenlich schaetze dass dieses fuer das kommende Dingsbums ausreichen koennte.

Und um es noch ausfuehlricher zu machen, ich fand erst vor kurzem heraus (was heisst dass es diesmal von zuverlaessigen Quellen bestaetigt wurde und nicht nur ein Geruecht eines Heinis einer trash-tabloid Seite ist...) dass sich NV aus gutem Grund so starr gegen GDDR4 wehrt. Ist Dir persoenlich der Grund bekannt, oder besser gefragt ist es wirklich moeglich als einfacher User ueber alle Konstanten stets bescheid zu wissen?

Grestorn
2007-12-28, 09:32:50
Und um es noch ausfuehlricher zu machen, ich fand erst vor kurzem heraus (was heisst dass es diesmal von zuverlaessigen Quellen bestaetigt wurde und nicht nur ein Geruecht eines Heinis einer trash-tabloid Seite ist...) dass sich NV aus gutem Grund so starr gegen GDDR4 wehrt. Ist Dir persoenlich der Grund bekannt, oder besser gefragt ist es wirklich moeglich als einfacher User ueber alle Konstanten stets bescheid zu wissen?

Darfst Du über diesen Grund sprechen oder fällt das mal wieder unter den NDA?

Moralelastix
2007-12-28, 09:39:16
http://www.vrforums.com/showthread.php?t=218890
GeForce 9800 GTX (G100) Specs revealed
- Codenamed G100
- 65nm process
- 256 shader processors
- 780MHz core clock
- 3200MHz memory clock
- 512-bit memory width
- 2048MB (256X8) GDDR5 chips
- GDDR5 @ 0.25-0.5ns
- Dual DVI-out
- Supports DX 10.1, VP3
- 15-25% lower TDP than 8800GTS

Dann könnte der RAM ja passen abgesehen von der Menge?

Ailuros
2007-12-28, 09:44:18
Auch für G80x4? Das wäre nämlich nicht mal 2xGTX. Selbst wenn die Bandbreite nicht so stark wächst wie die Shaderleistung, wäre das schon ziemlich knapp.

Wo zum Teufel kommt das x4 genau her? Der geschaetze Anstieg in Transistoren liegt leicht ueber 2.5x.


NV40/2004
222M Transistoren
35 GB/s Bandbreite

G80/2006
~700M Transistoren (+3.15x)
86.4 GB/s Bandbreite (+2.5x)

Wenn Du jetzt natuerlich die Ultra Bandbreite zur Hand nimmst ist es ein Faktor 3x dann im Vergleich, aber es geht hier wohl eher auch um das erste high end Modell dass dann veroeffentlicht wird.

Die Steigerung was Arithmetik betrifft ueberlasse ich Dir.

MuLuNGuS
2007-12-28, 09:48:14
http://www.vrforums.com/showthread.php?t=218890
GeForce 9800 GTX (G100) Specs revealed
- Codenamed G100
- 65nm process
- 256 shader processors
- 780MHz core clock
- 3200MHz memory clock
- 512-bit memory width
- 2048MB (256X8) GDDR5 chips
- GDDR5 @ 0.25-0.5ns
- Dual DVI-out
- Supports DX 10.1, VP3
- 15-25% lower TDP than 8800GTS

Dann könnte der RAM ja passen abgesehen von der Menge?

das klingt gut,

wann und wo kann ich die bestellen?

Ailuros
2007-12-28, 09:48:42
Darfst Du über diesen Grund sprechen oder fällt das mal wieder unter den NDA?

NV stinkt es lediglich dass AMD zu stark ihre Finger in der GDDR4 Entwicklung hatte; und es geht hier bei weitem nicht um irgend einen kindischen Sandkasten-streit, sondern dass es etwas umstaendlich wird fuer NV das Zeug zu benutzen.

Es kann aber durchaus sein dass sie das Zeug nur kurzfristig fuer D8E am Ende doch noch benutzen.

Ailuros
2007-12-28, 09:51:07
http://www.vrforums.com/showthread.php?t=218890
GeForce 9800 GTX (G100) Specs revealed
- Codenamed G100
- 65nm process
- 256 shader processors
- 780MHz core clock
- 3200MHz memory clock
- 512-bit memory width
- 2048MB (256X8) GDDR5 chips
- GDDR5 @ 0.25-0.5ns
- Dual DVI-out
- Supports DX 10.1, VP3
- 15-25% lower TDP than 8800GTS

Dann könnte der RAM ja passen abgesehen von der Menge?

D9E wird auf 55nm hergestellt. Abfalleimer und so schnell wie moeglich.

Moralelastix
2007-12-28, 09:54:58
Soll D9E nicht so ne olle Dualchip Karte wie die GX2 werden?

ollix
2007-12-28, 10:26:15
Jemand eine Idee welche Leistungsaufnahme mit der 9600GT angepeilt wird?

GeneralHanno
2007-12-28, 10:51:28
Ich würde sagen so ein mittelwert aus 8600GT und 8800GT.
Vll am ehesten mit der 8600GTS (+10W?) vergleichbar.

AnarchX
2007-12-28, 13:01:30
NV stinkt es lediglich dass AMD zu stark ihre Finger in der GDDR4 Entwicklung hatte; und es geht hier bei weitem nicht um irgend einen kindischen Sandkasten-streit, sondern dass es etwas umstaendlich wird fuer NV das Zeug zu benutzen.

Soetwas hatte ich mir schon gedacht...

Ich würde sagen so ein mittelwert aus 8600GT und 8800GT.
Vll am ehesten mit der 8600GTS (+10W?) vergleichbar.
Wenn die Gerüchte stimmen, dass die Referenz-9600GT nur über den PEG versorgt werden soll, dann sind es maximal 75W TDP, also da wo momentan die 8600GTS liegt bzw. darunter.

Sentionline
2007-12-28, 13:30:04
Im Forum von VR-Zone (http://forums.vr-zone.com/showthread.php?t=218890) sind erste, wie immer angeblich „echte Spezifikationen“ zum G100, dem Next-Generation-Grafikchip von Nvidia, aufgetaucht. Jene klingen jedoch so unrealistisch und völlig übertrieben, dass sie eher zu einem G200 passen dürften.

.
.
.
.
.
.

* Codename: G100
* Herstellung in 65 nm
* 256 Stream-Prozessoren
* 780 MHz Chiptakt
* 3.200 MHz Speichertakt
* 512 Bit Speicherinterface
* 2.048 MB (256X8) GDDR5 (0.25-0.5 ns)
* Dual DVI
* Unterstützung für DirectX 10.1, VP3
* 15–25% geringere TDP als GeForce 8800 GTS

Quelle (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/dezember/angebliche_spezifikationen_g100_g200/)

Das wird ein Kracher:biggrin:

TACO
2007-12-28, 13:31:54
GDDR5 im ersten halbjahr 08? halte ich für sehr unrealistisch...

reunion
2007-12-28, 13:32:44
Die Specs sind für die Tonne und höchstwahrscheinlich frei erfunden.

seahawk
2007-12-28, 13:36:11
GDDR5 + 512Bit - nicht wirklich.

Sentionline
2007-12-28, 13:42:06
Naja, Spekulieren dürfen wir ja auch. Auch wenn die Tec-Specs etwas drunter liegen, wäre die Karte der Hammer, oder nich?:|

Ich will endlich mehr wissen über die G100:biggrin:

sklave_gottes
2007-12-28, 13:42:08
Lies mal ein paar Posts weiter oben. ;)


Die 8800GT und GTS-512 zeigen aber, dass eine enorme Steigerung der Shaderleistung ohne Steigerung der Bandbreite bei den derzeitigen Anwendungen nicht gerade sinnvoll ist. Und innerhalb des nächsten halben Jahres bis Jahres wird sich das nicht zu stark ändern. Der G80 ist relativ gut ausbalanciert.


Siehe Punkt 1.


Natürlich, aber eine Vervierfachung der Shaderleistung ohne die Bandbreite zumindest zu verdoppeln bis -dreifachen halte ich für eher wenig erfolgsversprechend. Siehe GTS-512. Die hat nur noch 60% soviel Bandbreite/GFLOP wie die GTX und ist deswegen trotz höherer Shaderleistung in höheren Auflösungen/AA/Settings deutlich im Nachteil.


4mal g80 leistung für singel chip, ist denke ich kaum möglich. Da ist mir egal was hier irgendjemand geschrieben hat.
Das hat nichts mit der shaderleistung zu tun, die rückt bei hohen quali einstellungen wie aa/af sowieso in die hintergrund.(siehe rv670 und g80gts)
Was zählt ist das Fillraten/Bandbreite verhältnis.

mfg martin

AnarchX
2007-12-28, 13:46:26
Naja, Spekulieren dürfen wir ja auch.
Aber nicht hier... :whisper:

Und wie reunion schon schreibt, ist die originale Quelle die Phantasie eines Asiaten bei Chiphell.;)

Gast
2007-12-28, 13:49:30
Absolut unrealistische Specs.

GDDR5 kommt im 1H 08, aber nicht mit 3,2 GHz. Das wäre schon das absolute maximum, was bis jetzt nur einer angekündigt hat.

NVIDIA wäre schön doof, 512 bit Speicherinterface und 2 GB VRAM zu bieten, wenn selbst 384 bit und 1 GB reichen, um der Konkurrenz davon zu rennen.

Was als realistisch angesehen werden kann: Mehr Recheneinheiten, evtl höhere Taktraten und mehr Speicher. Dann haben sie ein Rundumpaket, das in jedem Belang schneller ist. Das Ding da oben, ist in der Produktion schon viel zu teuer.

Sentionline
2007-12-28, 13:51:50
Irgendwie muss die Karte ja schneller als die 8800 Ultra werden. Oder hab ich was verpasst?:|

Bisher ist jede Grafikkartengeneration fast doppelt so schnell (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet) gewesen wie die alte (Die 6800 Ultra kann man als 7600GT betrachten)...hm

sklave_gottes
2007-12-28, 13:57:31
Schnall Dich mal etwas kuerzer mit dem 512bit breitem Bus, denn fuer den hab ich mich sehr ausdruecklich geaeussert. Dass NV tatsaechlich GDDR4 total ueberholen will fuer das Monster war mir zu dem Zeitpunkt nicht bekannt und die Entscheidung (wenn GDDR5 wirklich festliegt) fuer die jeweilige Busbreite haengt tatsaechlich von der Verfuegbarkeit je nach Frequenz vom GDDR5 Speicher ab.

Ob Du jetzt 2.0GHz@320bit oder 2.5GHz@256bit nimmst, macht Dir genau welchen Unterschied fuer die resultierende Bandbreite? Ich schnall mit Absicht die Bandbreite nur auf 2*8800GTX an, weil ich persoenlich schaetze dass dieses fuer das kommende Dingsbums ausreichen koennte.

Und um es noch ausfuehlricher zu machen, ich fand erst vor kurzem heraus (was heisst dass es diesmal von zuverlaessigen Quellen bestaetigt wurde und nicht nur ein Geruecht eines Heinis einer trash-tabloid Seite ist...) dass sich NV aus gutem Grund so starr gegen GDDR4 wehrt. Ist Dir persoenlich der Grund bekannt, oder besser gefragt ist es wirklich moeglich als einfacher User ueber alle Konstanten stets bescheid zu wissen?


Ich sehe das doch genauso wie du. Denke auch das er in etwa 160 GB/s haben wird. Ist aber nur spec....

Wie er das erreicht ist auch egal, denke aber das 256bit@Hohem Takt wirtschaftlicher sind.

mfg martin

Gast
2007-12-28, 13:58:39
Da ist doch kein Thema.

Die jetzigen Ultras haben "niedrige" Taktraten und lahmen Speicher.

Bohrste auf z.B. 160 SP auf, setzt Taktraten auf über 700 MHz an und dazu (langsamen) GDDR5 und schon hättest du deutlich mehr Performance und Bandbreite und wahrscheinlich DX10.1

Das da oben wäre glatter Selbstmord. 2 GB VRAM der neuesten nicht mal verfügbaren Technologie (=sauteuer) und dazu ein dickes, dazu unnötiges Interfaces (die Bandbreite ist so schon X fach höher bei diesem Takt).

Nicht zu vergessen: Sie könnten den Chip auch nochmal optimieren und daraus Performance ziehen. Die müssen nicht immer über Rohpower gehen ...

GeneralHanno
2007-12-28, 14:00:45
Ein G92 hat etwa 300mm² die-size. ein rechenchip mit 4 facher leistung bräuchte selbst bei mehr performence/transitor, eingesparter retundanz und 55nm 1000mm² die-size ...

Mr.Magic
2007-12-28, 14:01:54
Ich lass mich mal überraschen.
Bei der 6800 hat damals auch jeder (u.a. bei Beyond3D) die leaked Specs angezweifelt, dann stellten sie sich als 100% richtig heraus.

Gast
2007-12-28, 14:12:26
Es gilt zu berücksichtigen, das Enthusiasten Karten dieser Art erst Sinn machen, wenn Konkurrenz in Sicht ist.
Ansonsten wird NVIDIA ein Teufel tun und schön Kohle durch billigere Chips einssacken, mit ein paar kleinen Verbesserungen hier und da.

Ohne Konkurrenz wird da absolut gar nichts in dieser Richtung laufen. Denen geht es konsequenterweise um $$$. Damals war das ja noch wesentlich besser als heute. ATI hat schon längere Zeit keinerlei Highend Chip mehr released, wenn sich das nicht ändert...

anddill
2007-12-28, 14:16:45
Deshalb kommen ja diesmal, so wie es bisher aussieht, zuerst die Midrange-Karten der 9er Reihe. Die sollen dann ATI das Geschäft mit den 38050 und 3870er Karten versalzen. Wer weiß, vielleicht kommt das beschriebene Monstrum dann zum nächsten Weihnachten in die Läden, dann klingen die Specs schon etwas realistischer.

mike49
2007-12-28, 14:28:26
Naja, Spekulieren dürfen wir ja auch.

Spekulieren ja, aber nicht gleich den ganzen CB-Artikel 1:1 per copy&paste hier posten... :rolleyes:

@Topic: Defintiv Fake! So ein Monster kommt ganz sicher nicht Anfang 2008 als Single-GPU Karte

Gast
2007-12-28, 14:30:05
Absolut unrealistische Specs.

GDDR5 kommt im 1H 08, aber nicht mit 3,2 GHz. Das wäre schon das absolute maximum, was bis jetzt nur einer angekündigt hat.

NVIDIA wäre schön doof, 512 bit Speicherinterface und 2 GB VRAM zu bieten, wenn selbst 384 bit und 1 GB reichen, um der Konkurrenz davon zu rennen.

Was als realistisch angesehen werden kann: Mehr Recheneinheiten, evtl höhere Taktraten und mehr Speicher. Dann haben sie ein Rundumpaket, das in jedem Belang schneller ist. Das Ding da oben, ist in der Produktion schon viel zu teuer.

Die Konkurrenz ist doch schon längst erledigt und spielt überhaupt keine Rolle.
NV hat sich sogar hauseigene Konkurrenz erschaffen und zwar in Form von Spielen unter anderem Crysis. Mit dem Monster könnte man sogar dieses Spiel einigermassen flüssig spielen ohne auf SLI zu setzen und das wollen wir doch irgendwann?

AnarchX
2007-12-28, 14:31:38
Ein G92 hat etwa 300mm² die-size. ein rechenchip mit 4 facher leistung bräuchte selbst bei mehr performence/transitor, eingesparter retundanz und 55nm 1000mm² die-size ...
Wenn du ihm ein 1024-Bit SI verpassen willst, dann könnte das sicherlich passieren.

Aber so würde ich keinen Grund sehen, warum ein ~400-500mm² Die @55nm mit entsprechend verbesserte G8x/G9x-Technologie und Taktraten über diesen, keine 3-4-fache Leistung erreichen sollte.

anddill
2007-12-28, 14:33:42
Spekulieren ja, aber nicht gleich den ganzen CB-Artikel 1:1 per copy&paste hier posten... :rolleyes:

Danke für den Hinweis.

Gast
2007-12-28, 14:33:44
* Herstellung in 65 nm
* 15–25% geringere TDP als GeForce 8800 GTS
Diese 2 "Facts" lassen mich an der Seriosität der Spezifikationen ernsthaft zweifeln. Das ist nie und nimmer möglich, vielleicht in 45nm und selbst da zweifelhaft. So ein Monster kommt frühstens 2009. 2008 wird's imho nicht mehr als 50% durchschnittliche Mehrleistung gegenüber einer 8800 Ultra geben, was aber objektiv betrachtet nicht schlimm wäre, da selbst diese "kleine" Leistungssteigerung pervers hoch wäre, wenn man bedenkt wie schnell schon eine Ultra ist.

Gast
2007-12-28, 14:41:24
Jetzt haben wir den 4. Thread der sich mit GPUs von NV beschäftigt die noch im H1.2008 kommen sollen. Trasht dochmal was oder merged, man blickt ja gar nix mehr.
G100 kommt nicht dieses Jahr, hatten wir im anderen Thread schon und die Specs die hier stehen hatten wir auch schon!

Gast
2007-12-28, 14:42:06
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6144497#post6144497

nomadhunter
2007-12-28, 14:45:37
Wo zum Teufel kommt das x4 genau her? Der geschaetze Anstieg in Transistoren liegt leicht ueber 2.5x.
Irgendwo weiter oben. Aber war wohl nur die Rechenleistung.

Auch 2,5 x G80 dürfte aber groß werden. RV670 in 55nm schafft es auf ~0,3mm² pro Million Transistoren, G80 in 90nm auf ~0,6mm²/MT (G92 in 65nm: ~0,38mm²/MT). Wenn die Werte in grober Näherung vergleichbar sind, dann dürfte 2,5xG80 in 55nm auf 2,5/2=1,25 mal die Die-Fläche des G80 kommen. Das wären dann >600mm². Ist das noch wirtschaftlich?

3 x GTX-Performance wären damit aber sicher möglich.

GeneralHanno
2007-12-28, 14:48:45
zumindest besser als 1000mm² die-size

vll hat man sich bei nvidia entschlossen sehr große dice zu fertigen und der G80 war erst der anfang ;)

reunion
2007-12-28, 15:05:23
Aber so würde ich keinen Grund sehen, warum ein ~400-500mm² Die @55nm mit entsprechend verbesserte G8x/G9x-Technologie und Taktraten über diesen, keine 3-4-fache Leistung erreichen sollte.

Naja, ein G92 in 65nm mit nur vier ROP-Clustern und weiter ohne D3D10.1 benötigt schon >300mm². Klar bringt 55nm noch ein bisschen und klar wird es noch zu Optimierungen kommen. Dennoch: Ich halte es für Utopie hier ernsthaft einen Chip zu erwarten, der 4-fache G80-Leistung bringt. Bis jetzt musste man froh sein, wenn eine neue Generation die doppelte Leistung zum Vorgänger brachte, und jetzt auf einmal wird hier ernsthaft über Faktor 4 diskutiert?

vll hat man sich bei nvidia entschlossen sehr große dice zu fertigen und der G80 war erst der anfang ;)

Klar wird die Die-Größe weiter steigern, alleine schon weil die Leistung bei GPUs durch verbreitern der Architektur ideal gesteigert werden kann. Und die Fertigung entwickelt sich natürlich auch weiter, dennoch sollte man keine Wunder erwarten. Die Chips werden weiterhin auf 300mm Wafern hergestellt und wenn die Entwicklung so weiter geht, kostet so ein Die bald ein ganzes Wafer. Bei einem Waferpreis von um die 10.000$ könnte so eine Karte ganz schön teuer werden. :D

GeneralHanno
2007-12-28, 15:37:38
Englische Übersetzung des Beitrags der Chinesischen Webside:


Prediction flagship NV: GEFORCE9800GTX, GDDR5 used, the specific issue on ONGOING
GeForce 9800GTX graphics chip
NVIDIA chip makers
256 bit interface chip
0.65-micron manufacturing process
Core code G100
Graphics core frequency of 780 MHz frequency
Frequency of 3200 MHz memory
Memory specifications memory types DDRV
Memory capacity (MB) 2048MB (256X8)
512 bit memory interface
Description DDRV 0.25ns memory using memory-0.50
Memory speed (ns) 0.25-0.50ns
The maximum resolution 2560 * 1600
Thermal cooling card cooling fans
PCI bus interface card interface-E2.0 16X
UDI dual 24-pin DVI-I interface
3D API DirectX 10.1
SP unit 256 (using virtual technology, the actual remains 128)
(The above is an internal source for NV speculation, the actual situation may change)

It has been learned: As the 3850/3870 ATI massive trip, NV will be on February 14 this year released on time with the 9600 GT confrontation, and continue to be in high-end 8800 GTS 8800GT 512MB play, the 8800 GTX shutdown

As ATI's high-end aspects of R700 uncertainties, GEFORCE 9800 GTX will depend on the R700 to the performance of specific decisions, but basically have been identified Skip GDDR4, instead of GDDR5 to cope with the new G100 core, Samsung has stated that it will in the next 08 GDDR5 volume production six months, and as early as 9800 GTX GDDR5 will be the first batch of prenatal supply to meet the 9800 GTX available for sale to meet the high-end market

But the price will be GEFORCE9800GTX NV past than the more expensive high-end products, to a large reason for this is that the relationship between the GDDR5, G100 in the overall framework for a very substantial adjustment, compared with the same frequency 8800 GTS fever were reduced by 15% -25% and the core overclocking better performance, and the introduction of virtual SP, in the original SP can increase a number of times (virtual performance to the original 1.3-1.5 fold), support DX10.1

HDTV adoption VP3, and finally got rid of the high-end graphics HD behalf of the shortcomings of entering in the low-end, for fever and cost considerations G100 may be used 55 NM process, or specific to the situation and the R700 yield decisions, which have rumours that the 9 Series will be the last generation of single-core GPU (high-end)

PS: The above situation is forecast personal version, not provide us with any legal responsibility, if identical, coincidentally

dargo
2007-12-28, 15:49:27
* Codename: G100
* Herstellung in 65 nm
* 256 Stream-Prozessoren
* 780 MHz Chiptakt
* 3.200 MHz Speichertakt
* 512 Bit Speicherinterface
* 2.048 MB (256X8) GDDR5 (0.25-0.5 ns)
* Dual DVI
* Unterstützung für DirectX 10.1, VP3
* 15–25% geringere TDP als GeForce 8800 GTS

Quelle (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/dezember/angebliche_spezifikationen_g100_g200/)

Das wird ein Kracher:biggrin:
Das ist doch völliger Käse.

1. 3,2Ghz Speichertakt bei einem 512Bit SI? :| Ja nee, ist klar...
2. 2GB Vram halte ich für viel zu viel. Ich würde eher von 1GB ausgehen (abhängig vom SI).
3. 12-25% weniger TDP als eine G8800GTS? lol... das ist selbst mit 55nm unmöglich.

Gast
2007-12-28, 15:53:47
SP unit 256 (using virtual technology, the actual remains 128)

Was soll das denn bedeuten???

GeneralHanno
2007-12-28, 16:04:38
ich vermute soetwas wie intel HTT (hyper threading technologie). dem system wird vorgegaukelt, es gäbe 2 CPU kerne, obwohl es nur einen physikalischen gibt
=> 128 physikalische SP -> 256 virtuelle SP ;)

nomadhunter
2007-12-28, 16:25:52
PS: The above situation is forecast personal version, not provide us with any legal responsibility, if identical, coincidentally
Hat sich also blos jemand ausgedacht, und das nicht mal unbedingt gut.
Und das mit der "virtual technology"/SMT/whatever halte ich für groben Unfug. Außerdem sind 128 reale SP viel zu wenig (wenn sie nicht plötzlich 3 mal so viele Instruktionen pro Takt schaffen).

Ich halte es für Utopie hier ernsthaft einen Chip zu erwarten, der 4-fache G80-Leistung bringt. Bis jetzt musste man froh sein, wenn eine neue Generation die doppelte Leistung zum Vorgänger brachte, und jetzt auf einmal wird hier ernsthaft über Faktor 4 diskutiert?
G100 soll ~2 Jahre nach dem G80 erscheinen, also fast vergleichbar mit dem Erscheinen des G80 ~2,5 Jahre nach der GF6-Serie. Und die 8800 GTX ist leistungsmäßig 3,5-4 x 6800 Ultra. 3x GTX-Leistung sollten also für den G100 möglich sein. Wenn AMD den High-End-Bereich nicht so vernachlässigt hätte, wären wir wahrscheinlich jetzt schon bei 1,5-2 x GTX-Leistung mit einem 65nm-192SP-High-End-Chip (das, was sich sicher viele unter G90 vorgestellt haben).

AnarchX
2007-12-28, 16:32:56
G100 soll ~2 Jahre nach dem G80 erscheinen, also fast vergleichbar mit dem Erscheinen des G80 ~2,5 Jahre nach der GF6-Serie. Und die 8800 GTX ist leistungsmäßig 3,5-4 x 6800 Ultra.
Eher Faktor ~7x (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet)(7600GT >=6800Ultra), was sich ja auch in der arithmetischen Leistung und Tex-Fill wiederfindet.;)


3x GTX-Leistung sollten also für den G100 möglich sein. Wenn AMD den High-End-Bereich nicht so vernachlässigt hätte, wären wir wahrscheinlich jetzt schon bei 1,5-2 x GTX-Leistung mit einem 65nm-192SP-High-End-Chip (das, was sich sicher viele unter G90 vorgestellt haben).
Sicherlich sollte die Leistung in diesem Maße skalieren, wenn man die Vergangenheit mit betrachtet. Aber bei Stromverbrauch und Die-Size stößt man wohl schon an gewisse Grenzen.

Was wohl aber beide IHVs nicht abhalten wird diese zu übertretten, da AMD für Ende 2008 auch einen ähnliche Leistungssprung anpeilt.:D

nomadhunter
2007-12-28, 16:42:52
Eher Faktor ~7x (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet)(7600GT >=6800Ultra), was sich ja auch in der arithmetischen Leistung und Tex-Fill wiederfindet.;)
Ja, dürfte in neuen Spielen eher hinkommen. Ich hab die Leistung über die 7800GTX in älteren Tests zurückgerechnet.

Sicherlich sollte die Leistung in diesem Maße skalieren, wenn man die Vergangenheit mit betrachtet. Aber bei Stromverbrauch und Die-Size stößt man wohl schon an gewisse Grenzen.

Was wohl aber bei IHVs nicht abhalten wird diese zu übertretten, da AMD für Ende 2008 auch einen ähnliche Leistungssprung anpeilt.:D
PCIe 2.0 = 150 Watt nur aus dem Slot
8+6-Pin-Stecker = wahrscheinlich nochmal genau so viel dazu
:biggrin:

AnarchX
2007-12-28, 16:47:44
PCIe 2.0 = 150 Watt nur aus dem Slot

Nein, es sind immernoch 75W.

nomadhunter
2007-12-28, 16:51:13
Nein, es sind immernoch 75W.
Ach ja, stimmt. Dann aber 75W Slot + 225W extra. Eine Verdoppelung auf 300W insgesamt ist es so oder so.

reunion
2007-12-28, 16:51:58
G100 soll ~2 Jahre nach dem G80 erscheinen, also fast vergleichbar mit dem Erscheinen des G80 ~2,5 Jahre nach der GF6-Serie. Und die 8800 GTX ist leistungsmäßig 3,5-4 x 6800 Ultra. 3x GTX-Leistung sollten also für den G100 möglich sein.


Ich schätze du meinst D9E mit G100 Ende 2008. Dann stimme ich dir weitgehend zu. Das Ding wird wohl ein Monster werden. Ich dachte es ging um den Refreshchip im Frühjahr.


Wenn AMD den High-End-Bereich nicht so vernachlässigt hätte, wären wir wahrscheinlich jetzt schon bei 1,5-2 x GTX-Leistung mit einem 65nm-192SP-High-End-Chip (das, was sich sicher viele unter G90 vorgestellt haben).

Wer sagt, dass im Frühjahr nicht ein solcher Chip kommt?

Hvoralek
2007-12-28, 17:06:09
Im Forum von VR-Zone (http://forums.vr-zone.com/showthread.php?t=218890) sind erste, wie immer angeblich „echte Spezifikationen“ zum G100, dem Next-Generation-Grafikchip von Nvidia, aufgetaucht. Jene klingen jedoch so unrealistisch und völlig übertrieben, dass sie eher zu einem G200 passen dürften.Ist es so schwer, vor dem Posten einer scheinbar neuen Meldung kurz ein paar Beiträge nach oben zu scrollen? :|

Die Spezifikationen wirken aber wirklich unsinnig und nicht einmal besonders gut erfunden. Naja, zumindest ist diesmal nicht von eDRAM die Rede ;D

Wenn ich das richtig im Kopf habe, sollte übrigens der Chip, der nach dem alten Namensschema G200 hieß (jetzt D9E?) vor dem Ex- G100 (jetzt D10E?) kommen.

Godmode
2007-12-28, 17:11:27
Ein G92 hat etwa 300mm² die-size. ein rechenchip mit 4 facher leistung bräuchte selbst bei mehr performence/transitor, eingesparter retundanz und 55nm 1000mm² die-size ...

Wer weiß schon was an den ALUs gemacht worden ist. Die Shaderdomäne meiner GTS taktet mit fast 2 GHz! Mit etwas Handarbeit sollte die Taktfrequenz auch auf 3 GHz oder noch mehr steigerbar sein.

Sentionline
2007-12-28, 19:59:24
Ist es so schwer, vor dem Posten einer scheinbar neuen Meldung kurz ein paar Beiträge nach oben zu scrollen? :|
Sorry das ich Infos zu der 9800 gefunden hab und nicht bei 9600 von Anfang an gepostet hab.

Nächstes mal durchsuche ich zuerst alle Foren bevor ich was Poste. Danke für den Hinweis.

mfg

Hvoralek
2007-12-28, 20:08:52
Sorry das ich Infos zu der 9800 gefunden hab und nicht bei 9600 von Anfang an gepostet hab.

Nächstes mal durchsuche ich zuerst alle Foren bevor ich was Poste. Danke für den Hinweis.Du hast das doch hier gepostet. Dann ist wohl nicht so schwer, kurz die letzten 1 oder 2 Seiten zu überfliegen.

Sentionline
2007-12-28, 20:14:25
Du hast das doch hier gepostet. Dann ist wohl nicht so schwer, kurz die letzten 1 oder 2 Seiten zu überfliegen.
Nein, ich hatte zuerst ein einzelnes Posting bei den Grafikchips gemacht. Dann wurde es zu den Spekulationen verschoben und nach 5 Min. wegen Copyrightverletzung gekürzt. Dann verschwand der Beitrag vollkommen und ich hab die komischerweise hier wiedergefunden.

Eine PN wie was warum...braucht man nicht zu verschicken. Naja, und dann noch die Leute die Meckern, weil diese die selben Infos gepostet hatten. Kann ich ja nicht wissen das die Infos der 9800 bei der 9600 sich tummelt. Riechen kann ich sowas auch nicht.

mfg

Hvoralek
2007-12-28, 20:45:41
Nein, ich hatte zuerst ein einzelnes Posting bei den Grafikchips gemacht. Dann wurde es zu den Spekulationen verschoben und nach 5 Min. wegen Copyrightverletzung gekürzt. Dann verschwand der Beitrag vollkommen und ich hab die komischerweise hier wiedergefunden.Jetzt verstehe ich: Du hattest ursprünglich einen eigenen Thread dafür aufgemacht, der dann in den hier eingefügt wurde. In dem Fall war natürlich der Rüffel, Dir die letzten Beiträge durchzulesen, unbegründet. Entschuldige.

Allerdings war das im verkehrten Unterforum. Wenn Du ins Speku- Forum geschaut hättest, hättest Du wahrscheinlich auch diesen Thread hier gefunden, in den Gerüchte zur 9600, aber eben auch zu D9E, gehören.

anddill
2007-12-28, 21:51:13
Sorry, aber wenn gerade mal wieder genug Fanboys aufeinander einschlagen, kommt man vor lauter Moderieren nicht mehr dazu, noch jedem eine PN zu schicken.

=Floi=
2007-12-29, 09:45:32
wenigstens fühlst du dich schuldig ^^

ich hoffe zwar auf so eine karte und in 55nm wäre sie durchaus realisierbar
uu laufen die designs nun 1 jahr und für 600€ ist vieles realisierbar

vieleicht setzt man auch auf "HD Gaming" und will deshalb die leistung für so hohe auslösungen überproportional steigern!

GeneralHanno
2007-12-29, 10:12:16
Oder man hat den interessanten und wachsenden GPGPU Markt im Blick ;)

Ailuros
2007-12-29, 16:47:34
Ich schätze du meinst D9E mit G100 Ende 2008. Dann stimme ich dir weitgehend zu. Das Ding wird wohl ein Monster werden. Ich dachte es ging um den Refreshchip im Frühjahr.

"G100" war der D3D11 chip; ich halte NVIDIA fuer klug genug die Transistoren woanders bis zu >2009 zu investieren. Dass was Ihr beide wohl meint, ist fuer frueher als Ende 2008 projeziert; dass IHVs ihre Projektionen bei grossen Projekten jedoch fast nie auf den Punkt einhalten koennen sollte klar sein.

Ailuros
2007-12-29, 17:07:46
G100 soll ~2 Jahre nach dem G80 erscheinen, also fast vergleichbar mit dem Erscheinen des G80 ~2,5 Jahre nach der GF6-Serie. Und die 8800 GTX ist leistungsmäßig 3,5-4 x 6800 Ultra. 3x GTX-Leistung sollten also für den G100 möglich sein.

Ja zum ersten im letzten Satz, nein zum Codenamen.

Wenn AMD den High-End-Bereich nicht so vernachlässigt hätte, wären wir wahrscheinlich jetzt schon bei 1,5-2 x GTX-Leistung mit einem 65nm-192SP-High-End-Chip (das, was sich sicher viele unter G90 vorgestellt haben).

Der Paragraph hat zu viele Hypothesen dass man ihn ueberhaupt verdauen kann. Hier mal eine Hypothese dagegen; angenommen NV kann unter 65nm 128SPs so hochmeistern dass sie sagen wir mal 1.9GHz erreichen werden, heisst das nicht authomatisch dass die gleiche Frequenz auch mit 50% mehr ALUs moeglich ist. Es ist dann eben stets das Dilemma ob man die Frequenz der schon vorhandenen Frequenzen in die Hoehe jagt oder zusaetzliche Einheiten dazusteckt und diese mit um weit weniger Frequenz ausstattet.

Daran wird und kann sich nichts langfristig aendern. Nebenbei ist NVIDIA gerade mit ihrem "Testrennen" fuer 65nm fertig; es haelt absolut gar nichts NVIDIA auf X oder Y chip zu praesentieren wenn die Vorraussetzungen dafuer auch ihnen als ideal erscheinen. Grundsaetzlich brauchten sie die 8800Ultra nicht im geringsten, denn sie wussten genau um was es sich bei R600 genau handelt.

Demzufolge wird es einen high end Abloesung fuer die GTX im Fruehjahr geben; falls diese jetzt etwas moderater ausfaellt als manche erwarten, dann heisst es lediglich zwei Dinge:

1. Es war nicht mehr unter 65nm moeglich.
2. Man hat Resourcen viel sinnvoller in den wahren "Refresh" und einem kleinerem Herstellungsprozess geschoben.

Wenn die Einzelheiten zu (2) endlich herausfliessen, wirst Du dann auch schnell merken dass so ein Brummer auch nicht unbedingt notwendig war (haengt aber auch von der Perspektive eines jenigen ab).

AnarchX
2007-12-29, 18:12:42
Da D9E bzw. der Monster-Chip ja für das sehr frühe H2 projiziert ist, würde ich eigentlich nicht erwarten, dass NV noch großartig irgendetwas im High-End präsentieren wird. Das Ziel heißt wohl eher 3870X2 schlagen und BOM gegenüber den aktuellen Lösungen senken.

Da wird wohl G94 aka D9P eine entsprechende Rolle einnehmen, über einen anderen Chip hat man ja auch nichts gehört.
Ich würde jedenfalls erwarten, dass NV im Zuge der Implementierung von D3D10.1 auch so noch am Design optimiert hat und eben auch noch die Arbeit mit dem 65nm Prozess mittlerweile verbessert hat, sodass G94 bei Stromverbrauch, Taktbarkeit und Transistordichte punkten kann gegenüber seinen Vorgängern.

Das alles sollte ihn eigentlich zu einer Basis für eine brauchbare GX2-SKU machen und NV im High-End absichern bis der Messias kommt. ;)


Schliesslich kann man ihn noch optisch auf 55nm shrinken und so wäre er für 12 Monate wohl erstmal eine vernünftige Midrange/Performance-GPU.

seahawk
2007-12-29, 18:32:54
So ähnlich würde ich es auch sehen, NV achtet sehr auf seinen Gewinn und seine Marge, man tut nicht unbedingt mehr als nötig und in ereich der Performance ist wenig nötig, eher kann man noch den Stromverbrauch senken (gut für den Mobilemarkt) und die Marge verbessern.

reunion
2007-12-29, 18:41:17
Der Paragraph hat zu viele Hypothesen dass man ihn ueberhaupt verdauen kann. Hier mal eine Hypothese dagegen; angenommen NV kann unter 65nm 128SPs so hochmeistern dass sie sagen wir mal 1.9GHz erreichen werden, heisst das nicht authomatisch dass die gleiche Frequenz auch mit 50% mehr ALUs moeglich ist. Es ist dann eben stets das Dilemma ob man die Frequenz der schon vorhandenen Frequenzen in die Hoehe jagt oder zusaetzliche Einheiten dazusteckt und diese mit um weit weniger Frequenz ausstattet.

Daran wird und kann sich nichts langfristig aendern. Nebenbei ist NVIDIA gerade mit ihrem "Testrennen" fuer 65nm fertig; es haelt absolut gar nichts NVIDIA auf X oder Y chip zu praesentieren wenn die Vorraussetzungen dafuer auch ihnen als ideal erscheinen. Grundsaetzlich brauchten sie die 8800Ultra nicht im geringsten, denn sie wussten genau um was es sich bei R600 genau handelt.

Demzufolge wird es einen high end Abloesung fuer die GTX im Fruehjahr geben; falls diese jetzt etwas moderater ausfaellt als manche erwarten, dann heisst es lediglich zwei Dinge:

1. Es war nicht mehr unter 65nm moeglich.
2. Man hat Resourcen viel sinnvoller in den wahren "Refresh" und einem kleinerem Herstellungsprozess geschoben.

Wenn die Einzelheiten zu (2) endlich herausfliessen, wirst Du dann auch schnell merken dass so ein Brummer auch nicht unbedingt notwendig war (haengt aber auch von der Perspektive eines jenigen ab).

ACK. Es gab auch in der Vergangenheit oft Phasen, wo es mal länger keine große Leistungssteigerung gab. Hier so zu tun als ob nV sich jetzt gemütlich ausruht, wo AMD etwas schwächelt, ist BS. NV ist auch nicht dumm, die wissen ganz genau, dass AMD schneller wieder dran sein wird, als ihnen lieb ist. Da wird mit Hochdruck weitergearbeitet und der nächste "echte" Refresh in Form des D9E wird alles andere als zurückhaltend. :)

Ailuros
2007-12-29, 19:31:43
Da D9E bzw. der Monster-Chip ja für das sehr frühe H2 projiziert ist, würde ich eigentlich nicht erwarten, dass NV noch großartig irgendetwas im High-End präsentieren wird. Das Ziel heißt wohl eher 3870X2 schlagen und BOM gegenüber den aktuellen Lösungen senken.

Da wird wohl G94 aka D9P eine entsprechende Rolle einnehmen, über einen anderen Chip hat man ja auch nichts gehört.
Ich würde jedenfalls erwarten, dass NV im Zuge der Implementierung von D3D10.1 auch so noch am Design optimiert hat und eben auch noch die Arbeit mit dem 65nm Prozess mittlerweile verbessert hat, sodass G94 bei Stromverbrauch, Taktbarkeit und Transistordichte punkten kann gegenüber seinen Vorgängern.

Das alles sollte ihn eigentlich zu einer Basis für eine brauchbare GX2-SKU machen und NV im High-End absichern bis der Messias kommt. ;)


Schliesslich kann man ihn noch optisch auf 55nm shrinken und so wäre er für 12 Monate wohl erstmal eine vernünftige Midrange/Performance-GPU.

High end kommt schon; grossartig wuerde ich aber nicht sagen. Persoenlich schliesse ich mich denjenigen an die den 8800GTX Kauf seit November 2006 nicht bereut haben. Ich will auch nichts von einem moderaten upgrade in der Zwischenzeit hoeren; wenn warte ich persoenlich auf den Brummer.

Den Mist names Crysis kann man sowieso nicht bald anstaendig auf einem System spielen; bleibt nur die Frage fuer mich persoenlich was an dem Aliasing-Kotz-Fest so besonders sein soll *hust*

Gast
2007-12-30, 00:16:07
Wie unterscheiden sich denn die 65/55nm Prozesse, ist das wie mit 90/80nm oder ist der 55er ein Halfnode? Da G100 ja kein DX11 wird, kommt er vieleicht 2 Jahre nach G80, vorgezogen quasi ohne die Tesselation Einheit.
Wenn der Prozess stimmt wäre 55nm für November 08 denkbar, denn was auch immer in den nächsten 3 Monaten kommt, es ist nicht G100 sondern irgendein Codename der G9x beinhaltet aber D3D10.1 compilance hat. Oder der Vorgezogene G100 ist nun G200 und da nV selber nicht mehr weiß wie die Chips heißen ist der D9(Highend) kein G9x mehr sondern G100 einfach.
Hoffentlich kommen im Juni die Mobilen G9x Teile in 55nm, dann sieht man was der Prozess taugt, dann dürfen se ihre 1,4Mrd. Transistoren gegen Ende des Jahres verballern.

Gast
2007-12-30, 00:23:42
wenn warte ich persoenlich auf den Brummer.

Estimated Launchdate? ^^

laser114
2007-12-30, 01:00:03
Wie unterscheiden sich denn die 65/55nm Prozesse, ist das wie mit 90/80nm oder ist der 55er ein Halfnode?

Nicht oder, und muss dahin; beide Aussagen sind nämlich richtig. ;)
80 nm ist ein Halfnode von 90 nm und 55 nm einer von 65 nm.

Ailuros
2007-12-30, 07:17:56
Estimated Launchdate? ^^

Projected end of summer. Heisst aber noch gar nichts. Wenn beim kritischen tapeout alles nach Plan gelaufen ist, hoert man dann sicher was von der Jubelei.

Gast
2007-12-30, 11:40:01
Naja dann passt das ja ganz gut mit November 2008, 2 Jahre nach meiner 8800GTS gibts dann eine 9800GTS :)
Da nV aber bisher kein Risiko mit der Fertigung eingegangen ist, kommt G100 wohl in 65nm...
Naja zum Release des "Zwischenschiebers" zu Ostern gesellt sich ja der erste Tapeout vom G100 dann.

Snoopy1978
2007-12-31, 17:00:25
Ich denke wir werden im Jahr 2008 einige Überraschungen erleben.Hoffentlich ist für jeden was dabei,ich hoffe auf neue "Preis-Leistungsmonster" damit endlich Crysis mal ordentlich läuft.Sorry Ailuros ich halte Crysis nicht für Mist obwohl man sich drefflich darüber streiten kann.So in etwa die Traumspezifikationen die bei VR_Zone aufgetaucht sind wären schon was.Na egal erstmal,ich wünsche allen einen guten Rutsch.

Ailuros
2007-12-31, 17:38:11
Sorry Ailuros ich halte Crysis nicht für Mist obwohl man sich drefflich darüber streiten kann.


Streiten werde ich mich auf jeden Fall darueber nicht; es handelt sich um eine streng subjektive Meinung. Fuer das Resultat ist mir persoenlich der Aufwand fuer wirklich spielbare Leistung zu gross.

Gast
2007-12-31, 20:36:50
Streiten werde ich mich auf jeden Fall darueber nicht; es handelt sich um eine streng subjektive Meinung. Fuer das Resultat ist mir persoenlich der Aufwand fuer wirklich spielbare Leistung zu gross.

Es ist nicht subjektiv, es ist absolut eindeutig. Wenigstens soviel solltest du doch wenigstens einsehen. Das Resultat steht in jedem Masse über dem, was in verhältnissmässsiger Leistung hineingesteckt wurde, ich denke da sind wir uns alle einig.

Ailuros
2007-12-31, 22:32:41
Ich hab stets eine gewisse Allergie wenn zu viele meiner System-resourcen nur so verplempert werden, weil ein ISV zu bloed oder zu faul ist seinen code anstaendig zu optimieren. Und mehr will ich jetzt nicht mehr zu dem Zeug sagen; fragt einen echten Entwickler ueber seine Meinung falls er sich ueberhaupt darueber aeussern will ;)

robbitop
2008-01-02, 01:33:25
Ich hab stets eine gewisse Allergie wenn zu viele meiner System-resourcen nur so verplempert werden, weil ein ISV zu bloed oder zu faul ist seinen code anstaendig zu optimieren. Und mehr will ich jetzt nicht mehr zu dem Zeug sagen; fragt einen echten Entwickler ueber seine Meinung falls er sich ueberhaupt darueber aeussern will ;)
Deine Meinung liegt in diesem Falle etwas neben der Wahrheit.
Kleiner Tipp: Gesetz des sinkenden Grenzertrags ;)

Snoopy1978
2008-01-02, 21:29:25
[QUOTE][hab stets eine gewisse Allergie wenn zu viele meiner System-resourcen nur so verplempert werden/QUOTE]

Ohne jetzt vom Thema abweichen zu wollen aber man kann ja immerhin über die wählbaren Grafikoptionen einstellen was für Effektebrimborium man haben möchte,es ist eben nur so das von nichts nunmal nichts kommt.Ok Crysis schlägt über die Stränge was die Anforderungen angeht aber ich glaube das Crytek auch von Nvidia in der Richtung belöffelt worden ist.So in der Art wie"Wir haben zwar noch nichts um anständige Frameraten bei Grafik am Anschlag zu ermöglichen aber das wird mit der GeForce9(mit den genannten Wunschspezies) besser werden.

Gast
2008-01-02, 22:10:15
Das ist doch Humbug, wer macht den bitte sowas um sich Wirtschaftlich zugrunde zu richten weil keiner das Spiel vernünftig spielen könnte.
Und inwieweit NV die Finger wirklich im Spiel hatte bei Crysis weis niemand, also sollte man mit seine Verschwörungstheorien sparsam sein.

dargo
2008-01-02, 23:01:58
Das ist doch Humbug, wer macht den bitte sowas um sich Wirtschaftlich zugrunde zu richten weil keiner das Spiel vernünftig spielen könnte.
Und inwieweit NV die Finger wirklich im Spiel hatte bei Crysis weis niemand, also sollte man mit seine Verschwörungstheorien sparsam sein.
Ich finde diese Verschwörungstheorien immer wieder lustig. :D
Ich überlege gerade wieviele Millionen $ NV an Crytek zahlen müsste damit aus dieser Theorie Praxis wird. ;D

Gast
2008-01-03, 07:12:37
so mies wie Crysis läuft,is es nicht grad ne gute Werbung für NV Karten

=Floi=
2008-01-03, 08:34:16
da können die neuen karten wenigstens zeigen was sie könne und da bin ioch mir sicher, dass crysis eines der spiele ist die mit den neuen karten am besten skalieren (tippe auf faktor 3! )

edit
nebenbei ist es relativ sinnfrei, wenn manche leute den regler für die details nicht finden
crysis ist auch "morgen" noch schön anzusehen und hier musste man eben auf nichts rücksicht nehmen

AnarchX
2008-01-03, 09:04:31
http://img259.imageshack.us/img259/2568/085634628e393cacl4.jpg (http://imageshack.us)http://img72.imageshack.us/img72/7453/9600gtb8e65d2bag8.jpg (http://imageshack.us)
http://www.chilehardware.com/foro/informacion-exclusiva-sobre-t133896.html

Kein D3D10.1? :| Die 90% gegenüber einer 8600GTS dürften wohl auch gerade so gegen die 3850 reichen.

mapel110
2008-01-03, 09:09:46
Kein D3D10.1? :| Die 90% gegenüber einer 8600GTS dürften wohl auch gerade so gegen die 3850 reichen.
Soll wohl eben auch preislich die 8600er ersetzen, so wie sich das liest.
Wäre allerdings wirklich traurig, wenn nvidia wieder kein D3D10.1 anbieten würde. Ich glaub, dann würd ich auch eher zur Radeon greifen.

Gast
2008-01-03, 09:16:51
Die 90% gegenüber einer 8600GTS dürften wohl auch gerade so gegen die 3850 reichen.

"Up to 90%". Naja. Die 3850 ist im Durchschnitt gut und gerne doppelt so schnell wie eine 8600GTS. Und da schon ausdrücklich ShaderModel 4.0 dort steht, scheint das wohl auch eindeutig zu sein.

reunion

Moralelastix
2008-01-03, 09:37:05
Was für einen Sinn hat dieser Chip 9600 überhaupt wenn er noch nicht mal DX10.1 bringt?
Hat er eine kleinere Fertigungstechnik? 55 nm?


Und wieso bringt NV jetzt überhaupt noch diese 8800GS Karten? Nur um die defekten G92 Chips los zu werden?

So ein Durcheinander gabs ja noch nie.

horn 12
2008-01-03, 10:32:41
Mir glaubt Ihr ja nichts. :biggrin:
Nvidia hat mehr Probleme mit der 2900PRO Serie und vor allem mit den
HD-3850 HD-3870
als Sie jemals zugeben würden, oder mal das Einbekennen würden wie damals ATI mit der 2900XT (Kein High End aber Top Preis und gute Verfügbarkeit) und werden immer nervöser. Sie hauen einfach alles raus, egal zu welchem Preis und ob die Verfügbarkeit gegeben sein wird,. ist ihnen nicht sooo wichtig. Hauptsache die alten und nicht mehr "Up to Date" Karten gehen an den Mann/ Frau.

Wenn Sie es nicht gebacken bekommen die GF9 Serie mit DX10.1 und SM 4.1 auszustatten, wird Ihnen dies teuer zu stehen kommen.
Warum haben Sie nur ATI so blosgestellt mit ihren schon DX10.1 und SM4.1 Karten (Nicht nötig, Image Presentation, Augenauswischerei), denn Fortschritt und allerneueste Technologie zählt weitaus mehr bei den Kunden als so mancher denkt.

Ati ist nun wohl wieder auf dem Vormarsch und dies passt Nvidia überhaupt nicht. So ist es halt mal, mal die einen, - mal die anderen!

Gast
2008-01-03, 10:50:55
Sorry, Horn, aber das ist völliger Schwachsinn. Nie, wirklich nie hatte Nvidia Probleme mit dem R600, denn die GTS war genau so verfügbar und schneller (bei gleichem Preis oder darunter), GTX und Ultra entblößten den R600 in jeglicher Hinsicht.
Die HD3850 macht Nvidia Sorgen, da stimme ich zu. Aber trotzdem ist das Grafikkarten-Feld zur Zeit pro Nvidia gerichtet, auch wenn sich es durch den RV670 in Richtung ATi verschiebt.

Adam D. @ work

=Floi=
2008-01-03, 10:52:05
spricht aber wieder für "DX10.1 für alle GF8 unf GF9"

horn 12
2008-01-03, 11:10:16
Sagte ja nicht die 2900XT,
sondern den Preis Leistungskracher 2900-Pro 512MB 256 Bit
wo gar macher auf diese Karte setzt, sogar auf CF Basis !!
Da dies max. 260-270 Euro kostet und die GTX / gar Ultra langsam gefährdet. Dies meinte ich, Sorry wenn mich falsch ausgedrückt habe.

Und dies kann keiner leugnen, dass die ATI´s weg gehen wie warme Semmel, :eek: meine nun alle 3 Karten welche ich vorhin aufgezählt habe!:cool:

Gast
2008-01-03, 11:10:24
was ist den davon zu halten?

http://www.theinquirer.net/gb/inquirer/news/2007/12/31/r700-taped

http://www.gamestar.de/news/pc/hardware/grafikkarten/amd/1476565/amd.html

wäre das möglich ?

wenn ja, wann soll der der G100 kommen?
noch dieses jahr ?

Gast
2008-01-03, 11:11:58
No DirectX 10.1 for GeForce 9600 GT: http://www.tcmagazine.com/comments.php?shownews=17443&catid=2

reunion

Gast
2008-01-03, 11:12:31
Und dies kann keiner leugnen, dass die ATI´s weg gehen wie warme Semmel, :eek: meine nun alle 3 Karten welche ich vorhin aufgezählt habe!:cool:

Dito, wenn ich mir die anderen Vielen Foren angucke, die Crossfire Front ist jetzt sehr hoch wie ich mit bekommen hab.

Ich glaub mit der 38X0 haben sie ein sehr guten Schuss gemacht.

seahawk
2008-01-03, 11:34:35
Tja, ohne DX10.1 braucht NV gar nicht ankommen. Das Blatt scheint sich erneut zu wenden. ATI :up:

AnarchX
2008-01-03, 11:36:47
Man sollte nicht vergessen wer die Devs in der Hand hat. ;)

Insgesamt verschiebt sich wohl die Nutzung von D3D10.1 bzw. diese wird verkürzt, ähnlich wie beim PS1.4.


Und es bleibt ja immernoch die Möglichkeit für den Marketing-Stunt zum Vista SP1 Launch. ;D

Gast
2008-01-03, 11:51:46
Tja, ohne DX10.1 braucht NV gar nicht ankommen. Das Blatt scheint sich erneut zu wenden. ATI :up:
Du bist so putzig :ulol: Ich liebe dich immer noch für deine R600-Prognosen ;D

Wieso Nvidia das jetzt macht, versteh ich zwar auch nicht. Aber irgendwas wird schon dahinter stecken. Und wenn's ihre Unfähigkeit ist ...

Adam D. @ work

Nakai
2008-01-03, 11:57:59
Tja, ohne DX10.1 braucht NV gar nicht ankommen. Das Blatt scheint sich erneut zu wenden. ATI :up:

Ab Februar siehts wieder anders aus.


mfg Nakai

Winter[Raven]
2008-01-03, 12:09:00
Tja, ohne DX10.1 braucht NV gar nicht ankommen. Das Blatt scheint sich erneut zu wenden. ATI :up:

Gehts wieder los mit dem Prophezeiungen?

robbitop
2008-01-03, 12:14:04
Ich weiß nicht, warum so viele wegen der Crysis Performance rummeckern.

Auf meiner X1900XT (welche nun maximal Midrange ist) rennt es in 1280x720 High flüssig.
Mit ner 8800 Ultra (welche nun ein Jahr alt ist aber dennoch High End) rennt es auch in 1680x1050 flüssig.

Offenbar haben hier viele Leute Amnesie. Far Cry lief damals mit einer Radeon 9800 (damaliges High End) in 1600 auch nicht besser, als Crysis es heute mit ner G80 tut.
Midrange waren damals 9600er und 5600er (und vieleicht die 5800er und die Ti4600). Die liefen in 1280 eher schlechter als Crysis es auf meiner X1900XT tut.

Far Cry war die absolute Referenz, was grafische Innovation anging. Crysis ist das auch. Wenn ich mir anschaue, was da alles beleuchtet und berechnet wird, fällt mir der Unterkiefer runter. Natürlich folgt auch die Optik eines Spiels dem Gesetz des sinkenden Grenzertrages. Vieles was hinzukommt an Optik sieht man oft nur im Detail aber nicht mehr sofort. Dieses Gesetz gilt ja nahezu überall. Mal bitte drüber nachdenken.

Das Spiel ist nunmal, wie Far Cry seinerzeit, seiner Zeit voraus. Wo ist das Problem? Es ist dennoch spielbar. In nem halben Jahr werden sicher auch Karten zu kaufen sein, mit denen auch mehr AA/AF drin ist.

@9600
wenn die Folien echt sind, sieht mir das sehr nach nem aufgebratenen G8x @65nm aus.

Gast
2008-01-03, 12:15:01
Man sollte nicht vergessen wer die Devs in der Hand hat. ;)


Der Kunde hat die Devs in der Hand. Wenn genug D3D10.1-Hardware vorhanden ist, dann wird das auch verwendet, sofern sich ein Vorteil ergibt. NV kann da nicht viel machen. Ohne D3D10.1-Hardware von nV wird das natürlich unglei schwerer. Trotzdem, wenn es AMD auch nur schafft einen Spieleproduzenten von D3D10.1 zu überzeugen, lässt sich das nicht nur Marketingtechnisch sehr gut ausschlachten, sondern verschafft den AMD-Karten auch einen gewissen Mehrwert.


Insgesamt verschiebt sich wohl die Nutzung von D3D10.1 bzw. diese wird verkürzt, ähnlich wie beim PS1.4.

Ja, leider. Aber als viel wichtiger als das nicht vorhandenen D3D10.1 empfinde ich die Leistungsangaben. Sorry, aber "up to 90%" ggü. der 8600GTS sind nicht gerade viel, selbst gegen die 3850. Das Ding hat wohl vier weitgehend unveränderte Cluster und taktet etwas unter der 8600GTS. Zusätzlich wird es wohl auch noch eine etwas höher getaktete GTS oder GTX geben, die ev. in die Näher der 3870 kommt.


Und es bleibt ja immernoch die Möglichkeit für den Marketing-Stunt zum Vista SP1 Launch. ;D

Ich hoffe dass das SP1 bald kommt, damit auch der letzte eingesehen hat, dass das Unsinn ist.

reunion

Gast
2008-01-03, 12:19:40
Ich weiß nicht, warum so viele wegen der Crysis Performance rummeckern.

Auf meiner X1900XT (welche nun maximal Midrange ist) rennt es in 1280x720 High flüssig.
Mit ner 8800 Ultra (welche nun ein Jahr alt ist aber dennoch High End) rennt es auch in 1680x1050 flüssig.

Offenbar haben hier viele Leute Amnesie. Far Cry lief damals mit einer Radeon 9800 (damaliges High End) in 1600 auch nicht besser, als Crysis es heute mit ner G80 tut.
Midrange waren damals 9600er und 5600er (und vieleicht die 5800er und die Ti4600). Die liefen in 1280 eher schlechter als Crysis es auf meiner X1900XT tut.

Far Cry war die absolute Referenz, was grafische Innovation anging. Crysis ist das auch. Wenn ich mir anschaue, was da alles beleuchtet und berechnet wird, fällt mir der Unterkiefer runter.
Das Spiel ist nunmal, wie Far Cry seinerzeit, seiner Zeit voraus. Wo ist das Problem? Es ist dennoch spielbar. In nem halben Jahr werden sicher auch Karten zu kaufen sein, mit denen auch mehr AA/AF drin ist.


Spiele es mal auf DX10 "Very High" und weine. Aber prinzipiell geben ich dir natürlich recht, in Relation zur Optik ist das Ergebnis mehr als angemessen.

reunion

seahawk
2008-01-03, 12:20:15
;6159250']Gehts wieder los mit dem Prophezeiungen?

Das ist keine Prophezeiung, aber ein OEM Deal zu bekommen ohne DX10.1, dürfte nach SP1 schwer werden, oder man muss Marge abgeben.

Gast
2008-01-03, 12:31:32
Hmm bei SM2 und SM3 unter DX9 hats auch keinen wirklich gejuckt. OEMs is das doch Schnurz, Hauptsache sie können einen DX10 Bapper draufmachen. Da Intel nichts bietet grasen nV und AMD diesen Markt vorerst alleine ab.
Vieleicht wird auch nur zu heiß gegessen aktuell, jede Vorraussage ist falsch bis nicht ein neuer Chip ankommt.
Warum nennt sich der Chip 9600? Warum nicht 8600GTX, ist er wohl doch etwas mehr als G92 es ist...

laser114
2008-01-03, 13:04:17
Hmm, wenn der eine OEM-Hersteller DX10.1 dran schreiben kann und der andere nur DX10, dürfte ersterer schon einen Vorteil haben - klingt irgendwie neuer.

robbitop
2008-01-03, 13:14:36
Spiele es mal auf DX10 "Very High" und weine. Aber prinzipiell geben ich dir natürlich recht, in Relation zur Optik ist das Ergebnis mehr als angemessen.

reunion
Ich habs auf DX9 Very High gespielt. Ja das kostet nochmal richtig. Wenn die Crysis Entwickler diese Sahneoption weggelassen hätten, hätte hier vermutlich niemand geweint. Lieber die Option haben als sie nicht zu haben. Diese Dinge kosten nunmal. Ineffizient umgesetzt ist jedenfalls nicht sonderlich. Somit finde ich das Geweine einfach nur dämlich.

Auch die Beschwerden um die Bugs verstehe ich nicht so recht. Klar, hier und da ist es manchmal noch nicht ganz sauber. Welches Spiel ist das ohne Patch schon? Verbuggt war Gothic. Verbuggt war Ultima 9. Oder wenn ich manchmal das gejaule höre, NV oder ATI machen verbugte Treiber. S3 Savage 2000 Treiber, die waren verbugt. Manchmal sind die Leute echt extrem verwöhnt.
Ein PC ist nunmal so verdammt modular und jeder kann jeden Scheiss installieren, dass es nicht immer ganz glatt läuft. Auf Konsolen ist das natürlich anders: DVD rein, Spaß haben. Weitgehend bugfrei.

GeneralHanno
2008-01-03, 13:24:33
OT: Wenn ich mich recht entsinne, gab es auch einen ÜBER-ULTRA Modus, au den sie aber verzichtet haben ;)

Gast
2008-01-03, 13:25:02
DX9 very High, wenn ich das immer lese muss ich lachen, das Wasser oder den Rauch ist in DX9 garnicht möglich ;)

Sunshafts udn POW, wow süss Interessiert mich nicht die Bohne.

Nakai
2008-01-03, 13:29:36
Und nun ein Schock für alle.
Ich hab Crysis mit einer X800XT durchgespielt. ;D
Zwar alles auf niedrig, aber so hässlich isses da auch net.


mfg Nakai

robbitop
2008-01-03, 14:00:32
Weder auf einem Screenshot noch in Bewegung konnte ich deutliche Unterschiede zw dem DX9 very high hack und DX10 very High sehen.

Hvoralek
2008-01-03, 14:17:51
Kein D3D10.1? :| Die 90% gegenüber einer 8600GTS dürften wohl auch gerade so gegen die 3850 reichen.Was unterscheidet denn dann die 9000er- Reihe von der 8000er? :|

nomadhunter
2008-01-03, 14:38:19
IMHO spricht das alles sehr dafür, dass uns G92 doch noch länger erhalten bleibt. Ich tippe weiterhin auf irgendwann im H2 08, wenn dann endlich der neue "Über-Chip" mit 2-3x GTX-Performance kommt (D9E? G200? G100 kommt ja wohl erst 2009-2010 mit DX11).

G92 ersetzen kann die 9600 nämlich keineswegs, und eine GX2-Karte könnte höchstens im Preisbereich über 300€ auftreten (für alles andere sind die Produktionskosten einer solchen Karte zu hoch). Bleibt eine perfekte Lücke für G92. Außerdem ist die 9600 wohl auch wieder nur ein einfacher G80-Aufguss in 65nm, der außer VP2 und integriertem NVIO keine Neuerungen (DX10.1) mitbringt. Vielleicht konzentriert ja NV seine Entwickler auf den neuen "Über-Chip" und ruht sich solange auf den G80-Lorbeeren aus.

Bleibt die Frage, mit was man die 8800 Ultra um damit endlich G80 ablösen will. Ob 2x9600 auf einer GX2-Karte reichen? Und was war mit dem Near-1-TFLOP-Chip Anfang 2008? Dafür müsste es fast schon eine G92-GX2-Karte sein.

Gast
2008-01-03, 14:40:12
Weder auf einem Screenshot noch in Bewegung konnte ich deutliche Unterschiede zw dem DX9 very high hack und DX10 very High sehen.


sry dann musst du dir wohl ne Brille kaufen ;)

http://www.looki.de/video/crysis_dx9_vs_dx10_hunter_video_635.html

Hvoralek
2008-01-03, 14:42:20
sry dann musst du dir wohl ne Brille kaufen ;)

http://www.looki.de/video/crysis_dx9_vs_dx10_hunter_video_635.htmlDas ist unter DX9 nur "High", oder?

Godmode
2008-01-03, 14:43:19
Bleibt die Frage, mit was man die 8800 Ultra um damit endlich G80 ablösen will. Ob 2x9600 auf einer GX2-Karte reichen? Und was war mit dem Near-1-TFLOP-Chip Anfang 2008? Dafür müsste es fast schon eine G92-GX2-Karte sein.

Meine GTS 512 erreicht schon 746 GFlops. Wenn sich die ALUs auf 2,5 GHz takten lassen, dann hätten wir schon Near-1-TFlop. In diesem Chip steckt IMO noch einiges mehr drinnen.

w0mbat
2008-01-03, 15:05:03
sry dann musst du dir wohl ne Brille kaufen ;)

http://www.looki.de/video/crysis_dx9_vs_dx10_hunter_video_635.html

Das hat doch rein gar nichts mit DX9 vs. DX10 zu tun, sonder man sieht einfach unterschiedliche Einstellungen. Das was angeblich DX10 war kann bestimmt genauso unter DX9 dargestellt werden. Fall doch nicht auf diesen Marketing-Scheiß rein :rolleyes:

Gast
2008-01-03, 15:08:49
The D9P (Performance segment a.k.a. mid-range) has been sped up to February 14 and will replace the GeForce 8600 series. First model to appear will be the GeForce 9600 GT, sporting 64 shaders, 500 MHz core, 256-bit memory interface and 512MB of graphics memory. The D9P is made with a 65nm manufacturing process and cards will require only a single 6-pin PCIe power connector. D9M-based cards are expected shortly afterward.

http://www.nordichardware.com/news,7156.html