PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 9: 9800GTX und GX2


Seiten : 1 2 [3] 4

Godmode
2008-01-06, 13:55:46
In welcher Strukturgröße soll dieses Monstrum gefertigt werden, etwa noch in 55nm?

Gast
2008-01-06, 14:04:55
- 1280MB GDDR5 mit 2-2.5GHz : 160-200GB/s (bis zu 2.2x G80GTX)
- 250-280W TDP
- $699
[/INDENT]
Den Kühler möchte ich dann mal sehen, da ist eine 2 Slotlösung aber definitiv gestorben oder die Karte wird mit einem "R600 Prototyen Kühler" ausgestattet. ;D
Und der Preis ist wohl auch etwas zu optimistisch geschätzt, würde da eher auf $1200 und aufwärts tippen.
Ansonsten könnte nV auch gleich ihr Kapital verbrennen und Amd hätte solch einem Monster eh nicht annähernd was Gleichwertiges entgegenzusetzen, wenn sie weiter nur ihre bestehende Architektur geringfügig verbessern und hauptsächlich mehr Einheiten dranklatschen.

dargo
2008-01-06, 15:20:52
In welcher Strukturgröße soll dieses Monstrum gefertigt werden, etwa noch in 55nm?
Ailuros hatte mal angedeutet, wir würden uns noch über den Stromverbrauch dieses Monsters wundern. Also würde ich in diesem Fall von max. 55nm ausgehen.

Gast
2008-01-06, 18:52:16
Ailuros zum Thema Geforce 10:

Spass beiseite: Q2 2008 high end 65nm, alles darunter 55nm.

Alles >SM4.1 =/>2009 wenn nicht gleich 2010, je nachdem wenn M$ mit Vienna fertig wird.

Soll die den noch Ende Q2 08 kommen?

nomadhunter
2008-01-06, 20:09:44
Im Q2 08 soll laut Ailuros nur irgendein Refresh im High-End kommen. Den "Monster-Chip", der wohl GF10 heißen wird, wird es erst im 2. Halbjahr geben.

dargo
2008-01-06, 20:17:13
Den "Monster-Chip", der wohl GF10 heißen wird, wird es erst im 2. Halbjahr geben.
Eben, und zweites Halbjahr könnte auch November/Dezember 2008 bedeuten. Und wenn nicht alles so läuft wie geplant sind wir schnell in 2009. Also, noch sehr viel Zeit.

Godmode
2008-01-06, 23:00:11
Ich schaetze zumindest so viel; es koennten auch locker 2.0 sein.

Kannst du uns auch verraten warum sie so ein Monster bauen wollen? Ich kann mir nicht vorstellen dass das noch wirtschaflich ist. Oder muss das Die 600 mm² groß sein um die Abwärme schneller wegbringen zu können? Werden wir in Zukunft einzelne GPUs mit 500 Watt sehen?

nomadhunter
2008-01-07, 00:22:54
Die 9800GX2 dürfte mit ihren 2x128SPs (wahrscheinlich 2xG92) auch auf ~1,5 Milliarden Transistoren kommen, und das bei 65nm. 1,7-2,0 Milliarden bei 55nm sind auch nicht mehr. Und von der Verlustleistung her macht es keinen Unterschied, dass die Transistoren bei der GX2 auf zwei Dice verteilt sind. Die GF10 könnte höchstens dadurch mehr verbrauchen, dass sie schneller taktet, aber viel mehr als 200W Realverbrauch würden mich doch erstaunen.

Und bei einer zu vermutenden Leistung von 2x9800GX2 kann man den Chip so teuer verkaufen, dass das mit der Wirtschaftlichkeit schon hinhauen wird.

Ailuros
2008-01-07, 05:15:41
Nach NV G71 GX2 = 110W, G80 = 140W.

Ailuros
2008-01-07, 06:04:23
Sorry, aber man sollte schon zumindest etwas realistisch bleiben. 3 TFLOP ist Faktor 6 ggü. einem G80. Die Transistorenanzahl steigt um Faktor ~2.5. Und die 1Ghz TMU/ROP-Takt und 3Ghz SP-Takt können wohl auch nur ein Scherz sein wenn ich mir die Taktrate des 65nm Chips von NV ansehe.

G70 lag bei 165GFLOPs und G80 bei 518GFLOPs; nur eben ist der reale Unterschied wegen der enormen Effizienz-Steigerung beim letzteren doch hoeher als der eigentliche mathematische Faktor 3x den man sich ausrechnen kann.

Nehme ich jetzt den G71 Refresh um auf den gleichen Herstellungsprozess zu kommen hab ich ungefaehr:

~700M / 278M = ~2.5x
480mm^2 / 196mm^2 = ~2.5x
518 GFLOPs / 250 GFLOPs = ~2.0x

Es gibt aber Faelle wo die G80 in realen Spielen sogar 3x mal schneller ist als eine 7900GTX.

Das Ganze soll jetzt gar nicht heissen, aber ein paar Gedanken von mir persoenlich:

1. Es handelt sich quasi um eine neue "Generation" und daher sollte eine reale angezielte zumindest bis zu 3x mal so hohe Leistung keine Ueberraschung sein.

2. Man geht wohl nicht zu so radikalen Loesungen wenn man nicht zuerst eine Tonne an Redundanz entfernt hat und auch zur gleichen Zeit mit anstaendigen Effizienz-Verbesserungen ankommt.

Erste laienhafte Schlussfolgerung: was fuer G8x/9x gilt, muss nicht unbedingt auch fuer dieses Dingsbums gelten.

Etwas feiner:

A.) Die Fundamente der heutigen Architektur muessen sich nicht unbedingt aendern; man koennte theoretisch auch bei 8C/5 oder 6 Rp bleiben, mit dem Unterschied eben dass die jeweiligen Einheiten erweitert wurden. Mehr cluster als 8 machen aber natuerlich auch viel mehr Sinn unter der bisherigen NV-Logik und der konstanten Steigerung der TMUs. Es kann zwar sein dass sich das ALU:TEX Verhaeltnis mehr in Richtung ALU biegt, aber dass die Fuellraten nur moderat steigern werden kann ich momentan nicht glauben.

B.) Die "handangepassten" ALU Frequenzen kommen mit so einigen Limitierungen. Ich gebe zu dass es fuer dieses Dingsbums vielleicht sogar zu frueh ist, aber es wuerde schon Sinn machen ein die package so zu gestalten dass man erstens keine "Handarbeit" fuer die ALU Frequenzen mehr braucht und vielleicht sogar das Ganze in weitere Hoehen problemlos treiben kann.

Zweite laienhafte Schlussfolgerung: jegliche theoretische G- oder TFLOP Zahl koennte scheissegal sein. Wenn sie es erreichen koennen nach ca. 2 Jahren seit der G80 die Leistung um bis zu 3x Mal in realen Situationen zu erhoehen, dann haben sie ihr Ziel auch erreicht. Ob es jetzt 1, 2 oder sogar 3TFLOPs sind duerfte gleichgueltig sein. Ich will persoenlich erstmal herausfinden was genau in der Architektur geaendert wurde und ich hab momentan viel wichtigere Fragen zu stellen, anstatt wie viel FLOPs das Ding auf Papier kann.

Beispiel: sehen wir endlich voll frei programmierbares AA, welches erstens automatisch 10.1 Komplianz fuer diesen Bereich garantiert und zweitens einen guten Schritt naeher an 11 liegt? Hat das Dingsbums wieder "nur" 4xRGMS und 8x sparse MSAA ist die Antwort wohl nein. Mir waere es persoenlich sowieso lieber wenn man mehr in Richtung CSAA investieren wuerde. Theoretisch sehe ich z.B. keinen Grund warum man nicht die Transparenz-AA samples direkt mit CSAA verbinden koennte.

Alles zusammengefasst: bis jetzt ist all das sinnloses Gelaber bis wichtigere Einzelheiten herausleaken.

Ailuros
2008-01-07, 09:24:58
Kannst du uns auch verraten warum sie so ein Monster bauen wollen?

Weil sie es koennen und der gesamte Markt schreit schon seit einiger Zeit nach einer grossen Leistungsteigerung. Wie stellst Du Dir vor dass man sonst eine um X Prozent Leistungsteigerung erreichen kann?

Ich kann mir nicht vorstellen dass das noch wirtschaflich ist.

Haette Dir jemand bei der 7900GTX Vorstellung gesagt, dass NV zu diesem Zeitpunkt an einem 480mm^2 die herumfuchtelt, waerend G71 auf dem gleichen Herstellungsprozess nur noch 196mm^2 gross war, haettest Du damals genauso reagiert.

Oder muss das Die 600 mm² groß sein um die Abwärme schneller wegbringen zu können? Werden wir in Zukunft einzelne GPUs mit 500 Watt sehen?

Es geht nach wie vor um Leistung pro Watt. Eine 7900GTX verbraucht nach xbitlabs 84.21W; eine 8800GTX nach xbitlabs selber 131.5W.

Nehme ich jetzt FEAR zur Hand (welches selbst auf der G71 sehr gut lief) und nehme den extremsten Fall von 2560*1600 mit 4xAA/16xAF hab ich folgende Leistung:

7900GTX = 13 fps
8800GTX = 38 fps

Wir haben hier also eine Leistungssteigerung von bis zu 192% fuer eine Steigerung was den Stromverbrauch betrifft von 56%. Das aber stets unter dem gleichen 90nm Herstellungsprozess.

Eine HD3870 mit 666M Transistoren und 192mm^2 unter 55nm, verbraucht wieder nach xbitlabs 81,1 W (im Vergleich zu den brutalen 161.1W die eine 2900XT@80nm verbraucht ein Riesenschritt). Du kannst gerne die Transistoren-Anzahl und die-Groesse mit sagen wir mal 3x multiplizieren, den Stromverbrauch aber nicht ;)

***edit: etwas klarer formuliert: zielt NV tatsaechlich auf eine so grosse Leistungssteigerung wie oben illustriert und der Stromverbrauch liegt zu weit ueber sagen wir mal 200W dann heisst es man hat Scheiss gebaut. Unter normalen oder besser optimalen Zustaenden sollte der Stromverbrauch nicht um >40% hoeher sein als bei G80.

Anarchy-HWLUXX
2008-01-07, 09:46:22
Weil sie es koennen und der gesamte Markt schreit schon seit einiger Zeit nach einer grossen Leistungsteigerung.

Sehr milde ausgedrückt - die GTX ist immernoch die Schnellste Single Karte am Markt (wenn man die Ultra ausklammert).

Die 9800GX2 wurd mit 449$ angegeben was dann wieder kein Killer High-End ist a la 8800GTX welche ja mit 549$ (?) gestartet ist ...

robbitop
2008-01-07, 10:21:45
B.) Die "handangepassten" ALU Frequenzen kommen mit so einigen Limitierungen. Ich gebe zu dass es fuer dieses Dingsbums vielleicht sogar zu frueh ist, aber es wuerde schon Sinn machen ein die package so zu gestalten dass man erstens keine "Handarbeit" fuer die ALU Frequenzen mehr braucht und vielleicht sogar das Ganze in weitere Hoehen problemlos treiben kann.
Wie soll das gehen? Für derartige Taktraten brauchst du ein custom design.


Beispiel: sehen wir endlich voll frei programmierbares AA
Was ist für dich frei programmierbar? Frei auswählbares Samplepattern (R300, VSA100 hatten das schon, G80 sollte das auch haben) oder ein frei wählbarer Filter fürs Downsampling? (können R6xx und G80 eigentlich auch ... bei letzterem wurde es bisher nicht implementiert)



Mir waere es persoenlich sowieso lieber wenn man mehr in Richtung CSAA investieren wuerde. Theoretisch sehe ich z.B. keinen Grund warum man nicht die Transparenz-AA samples direkt mit CSAA verbinden koennte.
Natürlich funktioniert CSAA mit TMAA. Denn TMAA ist nichts anderes als Alpha-to-Coverage. Auf das greift dann MSAA. Damit greift dann auch Coverage Sampling. Allerdings ist CSAA nicht für alles so gut geeignet.
Man könnte CSAA allerdings verbessern in dem man die Maske dafür auslegt, mehr Dreiecke zu speichern. Dann würde es oftmals besser aussehen.

Insgesamt ist das heute AA im G80 allerdings schon verdammt gut. :)

Ailuros
2008-01-07, 11:39:37
Wie soll das gehen? Für derartige Taktraten brauchst du ein custom design.

Tja wenn sie die clock domain Masche auch behalten wollen, dann wird es irgendwann auch Zeit dafuer. Die entsprechenden Entwicklungskosten werden dann sowieso durch die endlose "Handarbeit" pro Generation wieder ausbalanciert.

Was ist für dich frei programmierbar? Frei auswählbares Samplepattern (R300, VSA100 hatten das schon, G80 sollte das auch haben) oder ein frei wählbarer Filter fürs Downsampling? (können R6xx und G80 eigentlich auch ... bei letzterem wurde es bisher nicht implementiert).

Noch flexibler als 10.1; waeren die G8x/R6xx Algorithmen wirklich so flexibel wuerde es keine Notwendigkeit fuer die paar AA-spezifischen Erweiterungen in 10.1 geben.

Natürlich funktioniert CSAA mit TMAA. Denn TMAA ist nichts anderes als Alpha-to-Coverage. Auf das greift dann MSAA. Damit greift dann auch Coverage Sampling. Allerdings ist CSAA nicht für alles so gut geeignet.
Man könnte CSAA allerdings verbessern in dem man die Maske dafür auslegt, mehr Dreiecke zu speichern. Dann würde es oftmals besser aussehen.

Ich hab ja auch nirgends behauptet dass es nicht funktioniert; es ist eben nur auf 4xTMAA bei 16xCSAA oder 8xTMAA bei 16xQ begrenzt (ergo stets so viel TMAA samples wie MSAA samples benutzt werden). Wie waere es aber mit 16xCSAA dass Transparency AA auf mehr als nur 4x samples anwendet?

Insgesamt ist das heute AA im G80 allerdings schon verdammt gut. :)

Das heisst aber nicht dass es nicht besser werden kann; gerade Dich sollte es erstmal wundern warum 4xRGMS der gleiche "Brei" wie auf G7x ist, wobei aber 8xMSAA ein wahres sparse Dingsda ist. So viel zur angeblichen "Flexibilitaet" und "Programmierbarkeit" von dem ganzen Lumenex-Zeug.

http://www.beyond3d.com/content/reviews/3/2

8x coverage ist aus gutem Grund fast "nutzlos" im Vergleich zu 4xRGMS; denk mal ganz scharf nach warum so verdammt viel Speicher u.a. verbraten wird sobald 8x sparse ins Spiel kommt.

Coda
2008-01-07, 13:49:26
Ailuros, wenn du TMSSAA hast, dann hast du eh in fast allen Fällen pro Subsample einen anderen Farbwert und CSAA könnte eh nicht mehr greifen.

Gast
2008-01-07, 14:09:10
Es geht nach wie vor um Leistung pro Watt.


Das ist für mich so langsam das Buzz/Unwort des IT-Jahres. Das kommt immer wenn der Stromverbrauch mal wieder inakzeptabel hoch ist und ein Hersteller mal wieder geschlampt hat.
Am absoluten Verbrauch ändert dieses geblubber garnix. Spätestens beim Kühlaufwand, der Laustärke... und den Stromkosten merkt man was Phase ist. Die tolle Leistung verschwindet eh im nächsten Shooter, der Stromverbrauch bleibt.

Coda
2008-01-07, 14:16:29
Es geht um Performance/Watt, weil man damit immer die beste Leistung für eine bestimmte für dich noch "ungeschlampte" Wattzahl liefern kann.

Andere scheißen darauf und wollen einfach nur das volle Brett. Ich z.B.

Ailuros
2008-01-07, 14:21:12
Das ist für mich so langsam das Buzz/Unwort des IT-Jahres. Das kommt immer wenn der Stromverbrauch mal wieder inakzeptabel hoch ist und ein Hersteller mal wieder geschlampt hat.

Wie stark NVIDIA (da wir im einem NV Thread sind) "geschlampt" hat konnte ja man zwischen G80 und R600 sehen. In der Zwischenzeit gibt es moderateren Stromverbrauch von beiden IHVs mit G92 bzw. RV670 (und sogar teilweise besserer Leistung als beim R600) und dazu noch zu akzeptableren Preisen.

Am absoluten Verbrauch ändert dieses geblubber garnix. Spätestens beim Kühlaufwand, der Laustärke... und den Stromkosten merkt man was Phase ist. Die tolle Leistung verschwindet eh im nächsten Shooter, der Stromverbrauch bleibt.

Da hilft nur eines: entweder auf den naechsten "shrink" der Architektur X zu warten (siehe G80-->G92) oder sich mit einer Konsole begnuegen. Der Ironie zu Liebe ist die G92 sowieso nicht leiser als eine G80, verbraucht aber zugegeben etwas mehr Strom. Wer einen zu starken Koller mit dem Stromverbrauch hat, sollte erstmal die Finger vom absoluten high end Markt lassen oder alternativ ein Solar-Dingsbums einbauen und beten dass die Sonne oefters scheint :P

Gast
2008-01-07, 14:26:24
Das ändert aber wenig am grundlegenden Problem der Fertigungstechnik.

Würdest du dir eine Karte kaufen die 50x schneller ist aber auch 5x mehr verbraucht? Die 1KW liegen aber blöderweise genau in der Richtung die uns das Marketing schön reden will. Aus P/W sicht ist es natürlich eine super Karte. ;)

AnarchX
2008-01-07, 14:33:35
Aber akzeptablen Stromverbrauch, bei einer inakzeptablen Leistungssteigerung will aber auch niemand als High-End. ;)

Und wenn die 40% höhere Verlustleistung als G80GTX bei 3-facher-Leistung stimmen, dann könnte ich mir eine Cut-down-SKU vorstellen, die auf dem Niveau des G80 oder darunter liegt und trotzdem doppelt soviel leistet.

Wo ist also das Problem?

Ailuros
2008-01-07, 14:54:13
Das ändert aber wenig am grundlegenden Problem der Fertigungstechnik.

Gibt es einen anstaendigen und effektiven Gegen-vorschlag oder handelt es sich hier nur um harmlose Meckerei um mal ein paar Minuten Langeweile totzuschlagen?

Würdest du dir eine Karte kaufen die 50x schneller ist aber auch 5x mehr verbraucht?

Nur ist so eine Leistungssteigerung selbst bei 5x fachem Verbrauch auf keinen Fall moeglich. Ergo gibt es auch keine halbwegs logische Antwort fuer eine so unrealistische Hypothese. Fuer zumindest 2x so hohe Leistung "across the board" und schaetzungsweise ~40-50% mehr Stromverbrauch ist die Antwort zweifellos ja.

Die 1KW liegen aber blöderweise genau in der Richtung die uns das Marketing schön reden will. Aus P/W sicht ist es natürlich eine super Karte. ;)

Die Kurve des Stromverbrauchs skaliert am wenigsten in den letzten Jahren im Vergleich zur Leistung, Transistoren-Anzahl, Bandbreite oder weiss der Geier was noch. Wir sind momentan bei einer single-chip GPU immer noch bei irgendwo um die 140W fuer die 8800Ultra. Bis zu 1kW sind wir noch Lichtjahre entfernt.

Gast
2008-01-07, 15:25:35
Das ändert aber wenig am grundlegenden Problem der Fertigungstechnik.

Würdest du dir eine Karte kaufen die 50x schneller ist aber auch 5x mehr verbraucht? Die 1KW liegen aber blöderweise genau in der Richtung die uns das Marketing schön reden will. Aus P/W sicht ist es natürlich eine super Karte. ;)
Die Physik kann man natürlich nicht ausschalten. Ist auch ein Fakt, warum technische Fortschritte irgendwann stagnieren werden, weil zu teuer bzw. nicht mehr realisierbar. Ansonsten könnte z.B. die Rechenleistung von Chips immer weiter ansteigen, was aber nicht der Fall ist. Der Markt wird irgendwann limitieren, weil die Abnehmer von teurem High End immer weniger werden und es sich somit nicht mehr lohnt. Aber davon sind wir noch ein paar Jahre entfernt.

Gast
2008-01-07, 15:26:51
Wie stehn die Chancen dass der G100 noch 2008 kommt ?
Hab nämlich keine Lust auf ne leicht getunte Geforce 8 aka Geforce 9

Gast
2008-01-07, 16:25:38
Wie stehn die Chancen dass der G100 noch 2008 kommt ?
Hab nämlich keine Lust auf ne leicht getunte Geforce 8 aka Geforce 9
Wenn er in 45nm kommt schlecht, dann wirds wahrscheinlich Anfang 2009, jedenfalls bis man ihn kaufen kann.
Also persönlich würde ich diesen Killerchip nicht in 65 oder 55 nm erwarten. Denn dann müsste man den Chip wieder anpassen auf die 45 nm Herstellung, den man dann eh zwingend für die weiteren Refreshs benötigt.
Da würde ich lieber warten und alles mit einem Abwasch machen.

AnarchX
2008-01-07, 17:05:30
Exklusiv: GeForce 9800 GTX im Detail (http://www.hardware-aktuell.com/viewnews.php?article=707)

Ob da jemand hier mitgelesen hat?;)

DrumDub
2008-01-07, 17:14:51
Exklusiv: GeForce 9800 GTX im Detail (http://www.hardware-aktuell.com/viewnews.php?article=707)

Ob da jemand hier mitgelesen hat?;) wie kommste denn auf die absurde idee? ;) wobei ein 512 bit si natürlich unsinn ist.

w0mbat
2008-01-07, 17:19:57
Hohoho, das klingt ganz nett :)

dargo
2008-01-07, 17:21:07
Exklusiv: GeForce 9800 GTX im Detail (http://www.hardware-aktuell.com/viewnews.php?article=707)

Ob da jemand hier mitgelesen hat?;)
:confused:

Ich dachte die G9800GTX basiert auf dem G92 und kommt in Februar/März 2008 in 65nm mit "nur" DX10.0?
So langsam blicke ich bei den NV GPUs nicht mehr durch. :ucrazy3:

AnarchX
2008-01-07, 17:23:11
wobei ein 512 bit si natürlich unsinn ist.
Ohne GDDR5 wäre es aber wohl nötig, da ja GDDR4 eher ein No-Go ist.
Aber NV würde dann wohl eben verschieben, bis passender Speicher verfügbar wäre.

Aber 9800 GTX wird das teil sicherlich nicht heißen...

:confused:

Ich dachte die G9800GTX basiert auf dem G92 und kommt in Februar/März 2008 in 65nm mit "nur" DX10.0?
So langsam blicke ich bei den NV GPUs nicht mehr durch. :ucrazy3:
Bis auf Ailuros' Transistorcountschätzung ist da natürlich alles frei erfunden. Aber imo an sich nicht schlecht aufbereitet.

dargo
2008-01-07, 17:26:53
Aber 9800 GTX wird das teil sicherlich nicht heißen...

Ja, eben das verwirrt mich dabei. Eher 10800GTX wenns ein G100 werden soll.

crux2005
2008-01-07, 17:50:29
D9E soll doch 9800GTX sein, und das ist kein "G100", oder ?
und dann noch 512-bit SI :rolleyes:

Anarchy-HWLUXX
2008-01-07, 17:51:17
G** gibt es nicht mehr - das schema wurd doch umgestellt ...

Gast
2008-01-07, 18:13:08
der G100 Zusatz is natürlich Quark.

laser114
2008-01-07, 20:51:53
Ja, eben das verwirrt mich dabei. Eher 10800GTX wenns ein G100 werden soll.

10800 GTX?

Fünfstellige Modellnamen werden dann doch langsam unsympathisch.

AnarchX
2008-01-07, 20:53:23
Vielleicht wählt NV ab "G100" auch ein völlig neues Namensschema.

laser114
2008-01-07, 20:56:39
Halte ich für relativ wahrscheinlich. ;)

AnarchX
2008-01-07, 22:53:46
http://img244.imageshack.us/img244/3345/02geforce9600gt207540d2bl0.jpg (http://imageshack.us)
http://img166.imageshack.us/img166/7568/03geforce9600gt20754dd2ab2.jpg (http://imageshack.us)
http://www.tomshardware.tw/313,news-313.html

Godmode
2008-01-08, 00:42:38
http://img244.imageshack.us/img244/3345/02geforce9600gt207540d2bl0.jpg (http://imageshack.us)
http://img166.imageshack.us/img166/7568/03geforce9600gt20754dd2ab2.jpg (http://imageshack.us)
http://www.tomshardware.tw/313,news-313.html

Der Kühler ähnelt sehr dem der 8800 GT, ist eine ähnliche TDP zu erwarten?

LovesuckZ
2008-01-08, 00:48:50
Die TDP sollte deutlich unter der 8800GT liegen. Bei ausgehenden 4 Cluster und einem vernünftigen Shrink müsste sie auf dem Niveau der 8600GTS sein - ca. 71Watt.
Alles andere wäre - äh - unrealistisch.

Ailuros
2008-01-08, 05:31:59
Wenn er in 45nm kommt schlecht, dann wirds wahrscheinlich Anfang 2009, jedenfalls bis man ihn kaufen kann.
Also persönlich würde ich diesen Killerchip nicht in 65 oder 55 nm erwarten. Denn dann müsste man den Chip wieder anpassen auf die 45 nm Herstellung, den man dann eh zwingend für die weiteren Refreshs benötigt.
Da würde ich lieber warten und alles mit einem Abwasch machen.

Seit wann setzt NVIDIA auf den kleinsten verfuegbaren performance Herstellungsprozess und sogar bei einer neuen Generation? Es ist weder 65 noch 45nm.

Ailuros
2008-01-08, 05:58:55
Exklusiv: GeForce 9800 GTX im Detail (http://www.hardware-aktuell.com/viewnews.php?article=707)

Ob da jemand hier mitgelesen hat?;)

Nicht schlecht spekuliert auf jeden Fall. Etwas naiv die ALUs mit 3x multipliziert, weil man von der die Groesse die Transistoren-Anzahl einschaetzen kann. Auf jeden Fall duerften als Anfang rein theoretisch 384SPs@2GHz unter 55nm moeglich sein. Sonst auch keine krumme Zahlen und man koennte leicht denken dass doch einiges von NV kommen koennte (12 hypothetische Doppel-cluster mit jeweils 8 TMUs und 8 ROP partitions). Nur hat leider NV bis jetzt ausser der die-Groesse bis jetzt nichts herausleaken lassen. Und das auch nur weil sie jetzt schon wissen wie in etwa der angebliche "R700" aussehen wird. Man protzt nicht mit einem "Nachteil".

Diverse Quellen schaetzen dass GDDR5 benutzt wird weil sie von GDDR4 nichts hoeren wollen (wobei ich aber gespannt wird womit die "wahre" 9800GTX ankommen wird, denn ich hoerte von =/>1.5GHz@256bit) und sie sich negativ bis jetzt zu einem 512bit bus geaeussert haben; was aber auch alles und gar nichts heissen kann. Falls GDDR5 nun tatsaechlich benutzt wird, haengt es eher davon ab wo der Speichertakt liegt. Momentan kann ich eher an 5 oder 6 ROP partitions denken als alles andere.

fulgore1101
2008-01-08, 11:35:32
kommt jetzt in den nächsten 3 monaten eine neue high end karte von nvidia,abgesehen von der 9800gx2, oder nicht ?

9800gtx launch im februar/märz <----- das ist reine spekulation??


so langsam geht mir das echt auf die nüsse. ich möchte endlich was schnelleres als meine g80 gts 640mb in meinem rechner haben. ne 8800gtx kommt nicht in frage und ob sich der umstieg auf die neue gts lohnt..ich weiß es nicht. wohl eher nicht.

DrumDub
2008-01-08, 11:58:56
kommt jetzt in den nächsten 3 monaten eine neue high end karte von nvidia,abgesehen von der 9800gx2, oder nicht ?
es wird kein neues highend von nv außer der 9800gx2 vor herbst/winter 2008 geben.

Winter[Raven]
2008-01-08, 12:01:31
Nur hat leider NV bis jetzt ausser der die-Groesse bis jetzt nichts herausleaken lassen. Und das auch nur weil sie jetzt schon wissen wie in etwa der angebliche "R700" aussehen wird. Man protzt nicht mit einem "Nachteil"

D3D10.1`?

fulgore1101
2008-01-08, 13:38:23
es wird kein neues highend von nv außer der 9800gx2 vor herbst/winter 2008 geben.


das bedeutet, eine 9800gtx wird es dieses quartal nicht geben?

Gast
2008-01-08, 13:49:23
Dann gibt es garkeine 9800GTX. Denn der G100 wird sicher nicht eine GF9 Bezeichnung bekommen, würde ihn ja auf ein Teclvl mit der GF9600 stellen. Und der Unterschied zwischen G8x und G9x ist sicher kleiner als zur G1x0 Serie.
Vieleicht gibts ja wieder eine TNT, wegen "Tenth" 10. Serie, Geforce TNTh Generation.

w0mbat
2008-01-08, 14:13:11
8900 GX2 pictured (http://www.fudzilla.com/index.php?option=com_content&task=view&id=5010&Itemid=1)


CES 2008: A beast in the cage

We managed to get a picture of a 8900GX2 board and it is a dual G92 product with a two PCBs. Due to a time limit we will tell you more about it tomorrow.

The product is still not finalized, but it looks like it will be ready to be shipped in February.

Until then, please enjoy the picture.


Hm, heißt sie jetzt 9800GX2 oder 8900GX2? Letzteres wäre sehr viel näherliegend.

AnarchX
2008-01-08, 14:35:46
THG.tws Folien sagen eindeutig 9800 GX2.

laser114
2008-01-08, 14:45:06
THG.tws Folien sagen eindeutig 9800 GX2.

Was anderes passt auch nicht zur 9600 GT.

GeneralHanno
2008-01-08, 14:48:09
sehe ich auch so. selbst wenn es "nur" G92 chips sind. Jede mainstreamkarte (9600GT) braucht ein passendes "Zugpferd" aus dem high-end bereich (die 9800GX2 eben ...)

Anarchy-HWLUXX
2008-01-08, 15:08:04
8900 GX2 pictured (http://www.fudzilla.com/index.php?option=com_content&task=view&id=5010&Itemid=1)


Den schnappschuss hätten se sich sparen können - ist ja weniger zu erkennen als auf den HardOCP Pics ...

BlackBirdSR
2008-01-08, 15:48:33
Ich frage mich nur, wie man einzelne 500-600mm^2 Chips mit dermaßen hohem Logikanteil und nicht-AMD/Intel Prozessen wirtschaftlich anbieten will?
Zumal wie jetzt in Bereiche für Strom-/Leistungs-/Wärmedichte kommen die bei CPU-Herstellern wo immer möglich gemieden werden. Und inzwischen laufen Teile des Chips ja nicht mehr nur bei 500MHz...

robbitop
2008-01-08, 16:37:57
Das sind aber nur kleine Teile des Kerns. Außerdem ist eine Enthusiast-GPU eher ein Werbezugpferd als ein richtig wirtschafltiches Unterfangen. Genau deshalb möchten die IHVs ja auch auf Multi-GPU. Keine zusätzlichen Entwicklungskosten, die erst über andere Produkte abgeschrieben werden.

Anarchy-HWLUXX
2008-01-08, 18:11:38
Außerdem ist eine Enthusiast-GPU eher ein Werbezugpferd als ein richtig wirtschafltiches Unterfangen.

Quadro und Tesla sagen was anderes ;)

robbitop
2008-01-08, 18:19:30
1. GPGPU ist ein völlig neuer Markt
2. kann man hier problemlos mit Multi-GPU skalieren
3. die Verkaufszahlen sind nicht annähernd mit der GPU Sparte vergleichbar

;)

Anarchy-HWLUXX
2008-01-08, 20:24:38
1. GPGPU ist ein völlig neuer Markt
2. kann man hier problemlos mit Multi-GPU skalieren
3. die Verkaufszahlen sind nicht annähernd mit der GPU Sparte vergleichbar

;)

1. Des stimmt ... aber ohne Produkte die Power haben wird der markt nicht wachsen.

2. Braucht mehr Platz, in Rechenzentren ist Rackspace bares Geld.

3. Dafür sind die Margen astronomisch.

robbitop
2008-01-08, 20:31:55
Das wird sich zeigen. Es ging ja erstmal nur darum was Fakt ist, nicht was irgendwann mal werden wird.
Margen nutzen überigens nichts, wenn die Stückzahl nicht stimmt.

HOT
2008-01-08, 20:41:26
Vielleicht gibts ja noch ander 9800er Karten auf G92 Basis, die für SM4.1, Triple-SLI und HSLI geeignet sind - das sind die jetzigen G92 Karten ja irgendwie nicht. Also eine 9800GT und 9800GTS, die die 8800GT(S) Modelle ersetzen.

AnarchX
2008-01-08, 20:44:40
SM4.1 wohl nicht, aber H-SLI wohl schon (Hybrid-Power ist ja imo das GF9-Feature) und Tri-SLI soll es bei der 9800 GTX geben.

Mal sehen ob Ailuros' ~1.5GHz für die GTX stimmen. Ich würde eher auf 0.83ns GDDR3 @ >1150MHz tippen, was auch zu ~800MHz GPU passen würde, wenn man das Verhältnis bei 88 GT/GTS 512MB betrachtet.

reunion
2008-01-08, 20:52:34
Mal sehen ob Ailuros' ~1.5GHz für die GTX stimmen. Ich würde eher auf 0.83ns GDDR3 @ >1150MHz tippen, was auch zu ~800MHz GPU passen würde, wenn man das Verhältnis bei 88 GT/GTS 512MB betrachtet.

Nur sollen 8800GT/GTS nicht schneller sein, deshalb die geringe Bandbreite, auf die 9800GTX trifft das nicht unbedingt zu. Aber 800Mhz sind sowieso viel zu hoch gegriffen.

deekey777
2008-01-08, 20:57:25
1. GPGPU ist ein völlig neuer Markt
2. kann man hier problemlos mit Multi-GPU skalieren
3. die Verkaufszahlen sind nicht annähernd mit der GPU Sparte vergleichbar

;)
Zu zwei: Braucht man bei Tesla nicht eine zweite CPU für die zweite Grafikkarte?

AnarchX
2008-01-08, 20:58:17
Nur sollen 8800GT/GTS nicht schneller sein, deshalb die geringe Bandbreite, auf die 9800GTX trifft das nicht unbedingt zu. Aber 800Mhz sind sowieso viel zu hoch gegriffen.

Wieso?
Die AIBs liefern die GTS 512MB mittlerweile mit bis zu 740MHz.
Nimmt halt ein etwas höherwertigeres PCB und gibt der GPU >1.2V und schon sollte man die ~ 800MHz bei der schonmal genannten TDP von 180W schaffen.

dargo
2008-01-08, 21:04:43
Mal sehen ob Ailuros' ~1.5GHz für die GTX stimmen. Ich würde eher auf 0.83ns GDDR3 @ >1150MHz tippen, was auch zu ~800MHz GPU passen würde, wenn man das Verhältnis bei 88 GT/GTS 512MB betrachtet.
Soll die GTX etwa auch nur mit 16 ROPs erscheinen? :|

AnarchX
2008-01-08, 21:06:18
Soll die GTX etwa auch nur mit 16 ROPs erscheinen? :|

Hat G92 mehr?
Wobei natürlich eine andere GPU zum Einsatz kommen könnte, aber das ist wohl eher zu bezweifeln.

dargo
2008-01-08, 21:12:43
Hat G92 mehr?

Na dann bin ich mal auf die Benchmarks gespannt. Denn, dann hätte man die beiden Flaschenhälse - Bandbreite (~1,5Ghz GDDR laut Ail) und Vram (ich nehme mal an 1GB) beseitigt. Nur die ROPs würden also noch übrig bleiben.

HOT
2008-01-08, 22:09:04
Man kann höchstens sehr schnellen Speicher nehmen.
Andererseits soll der Single-G92 ja nicht das high-end darstellen, dafür gibts ja die GX2. eine 9800GTX hätte 1,2GHz Speicher und 800MHz denke ich.

Godmode
2008-01-08, 22:13:10
Zu zwei: Braucht man bei Tesla nicht eine zweite CPU für die zweite Grafikkarte?

Wie meinst du das? Die CUDA GPU Kernels werden vom CUDA CPU Programm gestartet. Dazu reicht auch eine CPU.

laser114
2008-01-08, 22:14:54
Im THG-Taiwan-Artikel stehen ja detaillertere Angaben zur 9600 GT:

GeForce 9600GT core Shader frequency of 650 MHz, 1625 MHz, carrying 256 bit 512MB GDDR3 memory, the memory frequency is 900 MHz, the memory bandwidth (Memory Bandwidth) amounted to 57.6 GB / sec, textures Fill Rate (Texture Fill Rate) of about 20.8 billion / sec, the official recommended a minimum system power demand of 400 W, or +12 V output power of 26 A,

http://www.tomshardware.com/cn/206,news-206.html

(Automatische Übersetzung, logischen Zusammenhang bitte selber bilden. ;) )



Daas man bei der 9600 GT die Bandbreite plötzlich so freundlich auslegt wundert mich dann schon eher...

LovesuckZ
2008-01-08, 22:20:48
Man nimmt die 8800GT Platine, steckt einen fast halbierten Chip rauf und schon hat man eine 9600GT.
Speicher kostet heute nichts mehr und wenn man schon 256bit hat, kann man gleich die 900MHz der GT verwenden.

laser114
2008-01-08, 22:28:34
Nun ja, das Speicher nichts kostet bezweifle ich dann doch eher. Auch wenn er günstig ist, in diesem Segment zählt jeder Cent. ;)

Anscheinend kommt auch wirklich nur die 9600 GT und erstmal kein weiteres Modell. Der Kern heißt laut THG Taiwan auch G94-400.

AnarchX
2008-01-08, 22:31:37
P545 ist aber nicht das 8800 GT PCB, 10-Layer wären wohl auch etwas übertrieben.

Aber die 256Bit@900MHz passen auch zur ziemlich hohen ROP-Leistung.

LovesuckZ
2008-01-08, 22:31:50
Nun ja, das Speicher nichts kostet bezweifle ich dann doch eher. Auch wenn er günstig ist, in diesem Segment zählt jeder Cent. ;)

Du brauchst so oder so 8 Speichersteine. Und ich bezweifel, dass es heutzutage noch preislich einen Unterschied zwischen den GDDR3 Steinen mit niedriger und hoher Latenz gibt.
Und nicht zu vergessen, dass es nVidia auf der 8600GTS Speichersteine mit 1ns und 1000MHz hatte.

laser114
2008-01-08, 22:37:13
Naja, wenn man mal schaut wieviele DDR2-Grafikkarten es noch im Low-End-Segment noch gibt ... für die scheint selbst günstiger GDDR3 zu teuer zu sein. Und nicht so gelungene Chips will man sicher auch beim Speicher verwerten...

Nun gut, das ist jetzt etwas Spekulation; die führt nicht weit.


Immerhin wird man im Vergleich 8600 GT und 8800 GT gut sehen, wann letztere durch Bandbreite oder ROPs (evtl. in seltenen Fällen auch Speicher) limitiert wird.

Hvoralek
2008-01-09, 00:05:37
Anscheinend kommt auch wirklich nur die 9600 GT und erstmal kein weiteres Modell. Der Kern heißt laut THG Taiwan auch G94-400.Wenn D9P der Ex- G94 ist, wo ist dann der frühere G96 hin? :|

Ailuros
2008-01-09, 05:36:14
;6174146']D3D10.1`?

Ja.

Ailuros
2008-01-09, 05:49:50
SM4.1 wohl nicht, aber H-SLI wohl schon (Hybrid-Power ist ja imo das GF9-Feature) und Tri-SLI soll es bei der 9800 GTX geben.

Mal sehen ob Ailuros' ~1.5GHz für die GTX stimmen. Ich würde eher auf 0.83ns GDDR3 @ >1150MHz tippen, was auch zu ~800MHz GPU passen würde, wenn man das Verhältnis bei 88 GT/GTS 512MB betrachtet.

Die Daten die schon seit geraumer Zeit herumgeflossen sind duerften die 9800GTX betreffen; ob man jetzt die angezielten Frequenzen erreichen konnte bleibt abzusehen. Was jetzt den Speicher betrifft, gibt es hier ein ziemlich starkes Oxymoron; angeblich boykottiert NV GDDR4 von der einen Seite und von der anderen schwirrt schon seit einer Ewigkeit herum dass sie eine ziemlich grosse Bestellung fuer >1.5GHz Speicher bei Samsung gemacht haben.

Nimmst Du ganz streng das 8800GT/GTS-512 Verhaeltnis, dann haut Deine Speicherfrequenz schon hin, aber es klingt wohl wahrscheinlicher dass es sich dann eher um ~700/1.8 handelt.

Ailuros
2008-01-09, 06:17:38
Das sind aber nur kleine Teile des Kerns. Außerdem ist eine Enthusiast-GPU eher ein Werbezugpferd als ein richtig wirtschafltiches Unterfangen. Genau deshalb möchten die IHVs ja auch auf Multi-GPU. Keine zusätzlichen Entwicklungskosten, die erst über andere Produkte abgeschrieben werden.

Das die ALUs auf einer G8x/9x einen "kleinen" Teil im Vergleich zum Rest einnehmen hoere ich zum ersten Mal; mach daraus "einen Anteil des Kerns" und ich stimme Dir zu. "Klein" ist der Anteil auf jeden Fall nicht.

Haarspalterei zur Seite: Du weisst dass ich mir als Laie in letzter Zeit Gedanken mache, wie IHVs (wenn auch AMD auf den clock domain Zug steigt in der Zukunft) langfristig das Ganze behandeln koennten. Erstens macht mir die bisherige "Handarbeit" Gedanken und zweitens hab ich das Gefuehl dass man die ALU-Frequenzen in der Zukunft auch nicht unendlich skalieren kann. Intel haette auch liebend gerne extravagante Frequenzen mit dem P4 in der Vergangenheit erreicht, aber es fuehrte wohl doch zu einer Sackgasse.

Gut jemand koennte mir sagen dass in der wenig absehbaren Zukunft vielleicht TF in die ALUs kommt und die ROPs in den MC eingeschleusst werden; die Frage ist dann eher was man vorhat bis zu dem Punkt.

Fuer 2008 sieht es zeitlich danach aus als ob NV weiterhin auf einen monolithischen mega-chip beruht, waehrend AMD zwar langsam mit der dual-chip Masche anfaengt, aber es fehlen einige Einzelheiten vom stornierten R700 die sie ziemlich begrenzt sich absolut im high-end behaupten zu koennen.

Von den paar geleakten Daten fuer das angebliche R7x0 Dingsbums das erst 2009 wohl erscheinen wird, haette ich das Resultat persoenlich auf 350-400mm^2@55nm eingeschaetzt. Ich haette also auf einer hypothetischen X2 ~700-800mm^2 gegen Blackbird's Schaetzung bei 500-600mm^2@55nm. Mich ueberrascht kein bisschen dass AMD unbedingt 45nm fuer das Dingsbums braucht, aber all dass mit auch dem MCM package sind weitere Kopfschmerzen die sich IHV in der Zwischenzeit machen.

Bis zumindest zur D3D11 Generation sieht es nicht danach aus als ob NV auf multi-chip setzen wuerde. Das kommende GX2 Dingsbums ist ja sowieso dual-GPU und nur ein alberner Zwischenschieber um sich ueber Wasser bis zu H2 zu halten.

Uzundiz
2008-01-09, 06:36:04
was soll denn im h2 erscheinen? 9800gtx aka g100? (sry bin leider nicht up-to-date und völlig durcheinander)

GeneralHanno
2008-01-09, 07:31:31
die 9800GTX soll H1/08 kommen (vermutlich ein G92 mit schnellem speicher).

Die "echte" neue High-end GPU (sozusagen 10800GTX - vermutlich neue namensagebung) soll im H2 kommen und von einigen daten ähnlich revolutionär wie der G80 seinerzeit werden ...

Anarchy-HWLUXX
2008-01-09, 09:15:58
die 9800GTX soll H1/08 kommen (vermutlich ein G92 mit schnellem speicher).


Selbst so ein Teil würde nicht an einer 8800 Ultra vorbeikommen ...

Ich glaub jedenfalls nicht das es ein G92 Core wird bzw. hoffe es

aths
2008-01-09, 09:22:01
die 9800GTX soll H1/08 kommen (vermutlich ein G92 mit schnellem speicher).

Die "echte" neue High-end GPU (sozusagen 10800GTX - vermutlich neue namensagebung) soll im H2 kommen und von einigen daten ähnlich revolutionär wie der G80 seinerzeit werden ...Und wer sagt dass es das "soll"?

AnarchX
2008-01-09, 09:38:29
Selbst so ein Teil würde nicht an einer 8800 Ultra vorbeikommen ...

Soll wohl ja nur die 8800 GTX "ersetzen", die Ultra wird durch die GX2 beerbt und bei imo ~$349 wird die 9800 GTX auch keine extreme Leistung liefern, vorallem würde es mich nicht wundern, wenn nur 512MB verbaut sind.

robbitop
2008-01-09, 09:44:12
@AiL
Durch custom design wird man diese Transistoren immer deutlich höher takten können als den restlichen Chip. Das kostet zwar F&E Zeit, spart jedoch Transistoren, die man sonst für die gleiche Rechenleistung aufbringen müsste.
Dass man dabei die Taktraten auf sonstwas für ein Level tweakt, erwarte ich nichtmal. Ca 2x Core Takt reicht doch.

Anarchy-HWLUXX
2008-01-09, 09:55:08
Soll wohl ja nur die 8800 GTX "ersetzen", die Ultra wird durch die GX2 beerbt und bei imo ~$349 wird die 9800 GTX auch keine extreme Leistung liefern, vorallem würde es mich nicht wundern, wenn nur 512MB verbaut sind.

Selbst mit ersetzen einer GTX wird es schwer, besonders bei RAM fressenden High-Res Settings ...

Für eine 9800GTX @ G92 braucht es :

Höheren Takt als die GTS, 730 Core / 1825 Shader hat MSI im Programm bei ihrer GTS ... noch ne ecke Mehr wär nice.

1024MB RAM, sonst kann man direkt ne GTS kaufen bzw. custom-GTS mit 1GB

Massiv schnellerer RAM als die GTS.


... ansonsten könnte sich eine 9800 GTX einfach nicht von übertakteten GTS absetzen.

AnarchX
2008-01-09, 09:57:16
Dafür bietet sie aber halt Tri-SLI und Hybrid-Power als Mehrwert.;)

Naja, mit Glück verbaut NV vielleicht doch den >1.5GHz GDDR4, wobei wohl dann wirklich nur 512MB.

Anarchy-HWLUXX
2008-01-09, 10:08:26
Dafür bietet sie aber halt Tri-SLI und Hybrid-Power als Mehrwert.;)

Lol, ohne passende Board wird das nix mit Hybrid ... das dauert noch ne ganze weile bis die AMD Boards kommen und besonders das Intel Lager wird noch später beliefert.

Tri-SLI haut es auch nicht raus, das bekommt man mit 8800GTX hin die dann sogar gebraucht günstiger zu bekommen sind (+mehr Power) als neue 9800GTX.


Naja, mit Glück verbaut NV vielleicht doch den >1.5GHz GDDR4, wobei wohl dann wirklich nur 512MB.

Ich hoffe doch net !


Ende Februar kommt wohl ne neue GraKa passend zum 24" Moni - 8800GTX, 9800GTX und 9800GX2 kommen da infrage ... würd mich net wundern wenn ich hinterher ne gebrauchte G80 GTX im Rechner hab :usad: wegen bestem PLV. Gerad hab ich ne 7950GX2 drin @ 18" TFT ...

Ailuros
2008-01-09, 10:09:17
Und wer sagt dass es das "soll"?

Ich weiss zwar nicht was Du genau meinst, aber wenn alles nach Plan laeuft kommt die entsprechende GPU schon noch im 2. Halbjahr. Momentan ist das Ding fuer Q3 projeziert afaik.

Ailuros
2008-01-09, 10:18:01
@AiL
Durch custom design wird man diese Transistoren immer deutlich höher takten können als den restlichen Chip. Das kostet zwar F&E Zeit, spart jedoch Transistoren, die man sonst für die gleiche Rechenleistung aufbringen müsste.
Dass man dabei die Taktraten auf sonstwas für ein Level tweakt, erwarte ich nichtmal. Ca 2x Core Takt reicht doch.

Bis jetzt sind es irgendwo zwischen 2.3x und 2.5x. Darum geht es mir ja ueberhaupt nicht; ich mach mir nur Gedanken wie es weitergehen soll wenn man irgendwann die 2.5GHz ALU Frequenz Grenze gesprengt hat.

Ailuros
2008-01-09, 10:34:25
Naja, mit Glück verbaut NV vielleicht doch den >1.5GHz GDDR4, wobei wohl dann wirklich nur 512MB.

Die 8800Ultra hatte auch ein beklopptes P-/L-Verhaeltnis. Das soll jetzt gar nichts heissen, aber ausschliessen wuerde ich eine 1GB Variante eigentlich nicht.

AnarchX
2008-01-09, 10:39:04
Die 8800Ultra hatte auch ein beklopptes P-/L-Verhaeltnis. Das soll jetzt gar nichts heissen, aber ausschliessen wuerde ich eine 1GB Variante eigentlich nicht.
Vielleicht als Customdesign? Aber ich nehme doch an, dass der MSRP der GTX unter dem der GX2 liegt oder?

Anarchy-HWLUXX
2008-01-09, 11:02:27
Vielleicht als Customdesign? Aber ich nehme doch an, dass der MSRP der GTX unter dem der GX2 liegt oder?

da die GTS bei 299-349$ (lieferbar bei uns ATM ab 285€) liegt und die 9800GX2 vermutlich bei 449$ müsste bei 9800GTX bei 399$ landen ...

Ailuros
2008-01-09, 11:19:44
Vielleicht als Customdesign? Aber ich nehme doch an, dass der MSRP der GTX unter dem der GX2 liegt oder?

Logischerweise schon; das haelt aber theoretisch NV trotzdem nicht davon ab eine 1GB GTX Variante fuer den gleichen Preis oder hoeher als eine GX2 zu verkaufen, wenn sie es auch tatsaechlich fuer "sinnvoll" halten.

Ehrliche Frage: kommt eigentlich R680 nur mit 512MB pro chip oder wird es auch eine teure 1GB pro chip Variante geben?

AnarchX
2008-01-09, 12:28:22
Vielleicht der Kühler der 9800 GTX?
http://img503.imageshack.us/img503/9681/pict0124largeaf5139tl1.jpg (http://imageshack.us)
http://img187.imageshack.us/img187/533/pict0127largeaf7396mn4.jpg (http://imageshack.us)
http://anandtech.com/Gallery.aspx?id=19

Sieht doch imo fast zu gut aus für eine AIB-Custom-Lösung.;)

Anarchy-HWLUXX
2008-01-09, 12:35:56
Siehe Hersteller -> eVGA ist bekannt für seine Stylischen Industrial-Look Kühler ... schau die mal die ACS³ 7800GTX und 8800GTS/GTX an

Ist also zu 95% sicher die eVGA eigene Lösung.


Bildchööön :

http://images.google.de/images?q=ACS%C2%B3+7800&ie=UTF-8&oe=utf-8&rls=org.mozilla:de:official&client=firefox-a&um=1&sa=N&tab=wi

Nakai
2008-01-09, 12:37:00
Vielleicht der Kühler der 9800 GTX?


Sieht doch imo fast zu gut aus für eine AIB-Custom-Lösung.;)


Wieso denn nicht?
EVGA ist doch dafür bekannt, interessante Grafikkarten zu bauen.

Außerdem handelt es sich nur um eine leicht abgeänderte Version des GTS-Kühlers.

Kein schieder Lüfter aber praktisch alles sonst identisch, bis auf die Plastikhülle.

Der Sinn der Backplate entzieht sich mir etwas. Man will wohl auch die Wärme hinter der GPU ableiten.


mfg Nakai

seahawk
2008-01-09, 14:26:19
Steht doch EVGA 8800GT drauf. Und da EVGA bisher noch keine Customkühler-Variante hatte macht dies auch Sinn. Paßt imho gut zu ihrer Designlinie der Vergangenheit.

Anarchy-HWLUXX
2008-01-09, 14:34:37
Steht doch EVGA 8800GT drauf. Und da EVGA bisher noch keine Customkühler-Variante hatte macht dies auch Sinn. Paßt imho gut zu ihrer Designlinie der Vergangenheit.
Bis auf den Aufkleber, den hätten se auch komplett weglassen können -> Full Black ... + schwarzes PCB :ucatch:

Na ja, dann eben doch XFX ;)

GeneralHanno
2008-01-09, 14:40:52
hmmm vll sollte man für den "G100" - neuerdings: GT200 - einen neuen thread aufmachen. Deckt ja zum großteil mit Ails Meinung ...

AnarchX
2008-01-09, 14:41:19
Logischerweise schon; das haelt aber theoretisch NV trotzdem nicht davon ab eine 1GB GTX Variante fuer den gleichen Preis oder hoeher als eine GX2 zu verkaufen, wenn sie es auch tatsaechlich fuer "sinnvoll" halten.
Für Tri-SLI könnte so eine Variante durchaus sinnvoll sein.


Ehrliche Frage: kommt eigentlich R680 nur mit 512MB pro chip oder wird es auch eine teure 1GB pro chip Variante geben?
Referenz scheint wohl 2x512MB zu sein, aber da nun alle 16 Chips auf einer Seite bei der finalen Version des PCBs sind, könnte das vielleicht mit bald folgenden 2x1GB Versionen zusammenhängen.

DrumDub
2008-01-09, 14:51:55
hmmm vll sollte man für den "G100" - neuerdings: GT200 - einen neuen thread aufmachen. Deckt ja zum großteil mit Ails Meinung ... gesagt, getan: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=398955

alle spekus für das nächste singlechip-highend von nv bitte da rein.

GeneralHanno
2008-01-09, 17:51:35
9600GT:
- 64SP (halber G92)
- 150$
- Gegner: 3850
- Launch im Februar

alles nix neues, aber doppelt bestätigt, ist glaubwürdiger ;)

quelle:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5055&Itemid=1

Nakai
2008-01-09, 18:50:48
Welche Taktraten?

mfg Nakai

GeneralHanno
2008-01-09, 18:52:21
es wurde imo etwas von 650mhz chip gemunkelt (1625mhz shader + 900er ram...)

Gast
2008-01-09, 20:09:31
G92 für die 9600gt?
http://www.hartware.de/news_43873.html

ist doch pure verschwendung und die 8800gs würde ja auch keinen sinn machen

ich würde schon fast meinen arsch verwetten das die nicht auf den G92 basiert

deekey777
2008-01-09, 20:10:43
G92 für die 9600gt?
http://www.hartware.de/news_43873.html

ist doch pure verschwendung und die 8800gs würde ja auch keinen sinn machen

ich würde schon fast meinen arsch verwetten das die nicht auf den G92 basiert
Man knallt doch keine GPU mit der Größe eines G92 auf eine Grafikkarte, die unter US-$ 150 kosten soll.

LovesuckZ
2008-01-09, 20:11:52
Dann kann man auch gleich 8800GT für den Preis verkaufen.

GeneralHanno
2008-01-09, 20:16:55
tut mir echt leid für harteware.net wenn sie die quelle nicht ordentlich lesen können.

quelle: G94-400
hartware: G92-400

:rolleyes:

Gast
2008-01-09, 22:56:31
aber da braucht man eigentlich nicht mal lesen können
das sagt einem schon der gesunde menschenverstand das da was nicht stimmt

AnarchX
2008-01-10, 09:21:08
NVIDIA GeForce 9600GT sneak peek and early bench (http://en.expreview.com/?p=184)
http://img209.imageshack.us/img209/295/3dmark062d02e9c8ok6.png (http://imageshack.us)

Bei SM3.0/HDR zieht die 96GT definitiv schon nutzen aus der höheren Pix-Fill und Bandbreite.

Die GeForce "9"500M-GS:
http://img260.imageshack.us/img260/3592/biggeforce950012d004516ok9.jpg (http://imageshack.us)
http://www.hothardware.com/News/Asus_Notebook_With_GeForce_9500M_GS_Mobile_GPU/

DrumDub
2008-01-10, 10:18:29
tja, da hat amd jetzt wohl ein problem. bin mal auf echte benches gespannt. bei 64sps bei 1800mhz sollte die alu-leistung schon etwas schwächer sein, als bei der 3850.

AnarchX
2008-01-10, 10:21:56
Achtung: Expreview und einige andere geben die Taktraten in ROP-Domain/Speicher/SP-Domain an!

Bei der 9600GT sind es immernoch 64SP@1625MHz.

Also 208GFLOPs MADD vs 429GFLOPs, wobei bei der 3850 noch die SFUs abgehen und die Nachteile der Vektor-Architektur zum Tragen kommen.

DrumDub
2008-01-10, 10:26:52
ok, danke für die info. bin dennoch auf erste richtige reviews gespannt.

AnarchX
2008-01-10, 10:36:43
ok, danke für die info. bin dennoch auf erste richtige reviews gespannt.
Ja, vorallem die MSAA-Performance dürfte interessant werden, da könnte ich mir doch vorstellen, dass sie teilweise sehr nah an die 8800 GT kommt.

Ailuros
2008-01-10, 10:40:19
tja, da hat amd jetzt wohl ein problem. bin mal auf echte benches gespannt. bei 64sps bei 1800mhz sollte die alu-leistung schon etwas schwächer sein, als bei der 3850.

Uhmm die 3850 ist nicht unbedingt schneller als eine 8800GTS/320 mit 4xAA, nur dass eben bei der letzteren oefters als genug der VRAM limitiert. Die alte GTS hat fast genausoviel theoretische GFLOPs als die 9600GT und fast genauso grosse Fuellraten.

Ailuros
2008-01-10, 10:56:13
Also 208GFLOPs MADD vs 429GFLOPs, wobei bei der 3850 noch die SFUs abgehen und die Nachteile der Vektor-Architektur zum Tragen kommen.

Tragt mir die Frechheit von CB theoretische FLOP Leistung nur noch mit MADD zu berechnen nicht weiter. Der Nachteil der quasi vector-ALUs (eigentlich sind es weder reine vector noch reine superskalare ALUs wenn man es ganz streng nimmt) existiert zwar, aber AMD fuchtelt auch verdammt viel an ihren compilers herum dass es zum Grossteil wieder fast hingebogen wird.

Wuerde sich jemand mit etwas Entwicklungs-talent hinsetzen und eine synthetische Applikation schreiben die GFLOPs in Kombination zu Fuellraten (Z/Pixel/Texel) messen wuerde, haette man auch eine bessere Uebersicht wieviel FLOPs in Echtzeit jede GPU vergleichsmaessig schaffen koennte.

G94 wird vielleicht zum naechsten mainstream Verkaufs-schlager, da RV350 sowieso nach nichts besonderes aussieht.

AnarchX
2008-01-10, 11:03:26
G94 wird vielleicht zum naechsten mainstream Verkaufs-schlager, da RV350 sowieso nach nichts besonderes aussieht.
RV350? :|
Ein Problem was ich bei der 9600 GT sehe ist nunmal der fehlende D3D10.1-Support, was doch einige weniger informierte Käufer abhalten könnte. Oder steht noch ein Marketing-Stunt zum Vista SP1 Launch an?;)

Ailuros
2008-01-10, 11:17:20
RV350? :|
Ein Problem was ich bei der 9600 GT sehe ist nunmal der fehlende D3D10.1-Support, was doch einige weniger informierte Käufer abhalten könnte. Oder steht noch ein Marketing-Stunt zum Vista SP1 Launch an?;)

RV635 tschuldigung. Mit 10.1 koennte AMD eher ein paar wichtige OEM deals landen, da es bei den Vertraegen mehr um Features und weniger um Leistung geht.

AnarchX
2008-01-10, 11:21:34
RV635 tschuldigung.
Also liegt G94 bei der Die-Size näher an diesem, als an RV670?

Gast
2008-01-10, 12:52:33
tja, da hat amd jetzt wohl ein problem. bin mal auf echte benches gespannt. bei 64sps bei 1800mhz sollte die alu-leistung schon etwas schwächer sein, als bei der 3850.
http://www.digit-life.com/articles2/video/g80_units.html
64 SPs sind nicht so der limitierende Faktor, wie man es anhand reiner Zahlen glauben mag. 32 TMUs und 16 ROPs samt 256-bit-SI sind die Einheiten, die den Takt angeben.
Die 9600GT stellt ein unglaublich gutes Angebot dar, vielleicht besser als die X1950Pro zu ihrer Zeit. AMD wird das Teil irgendwie kontern müssen: "RV660" mit 3 Quads (wie früher der RV560), eine noch niedriger getaktete RV670-Grafikkarte als die HD3850 (eine Art X1950GT, die HD3850 entspricht eher der X1950Pro). Wir werden wohl eine HD37x0 sehen, aber die 9600GT wird mit den bekannten Eigenschaften nicht zu knacken sein.

Ailuros
2008-01-10, 13:28:34
Also liegt G94 bei der Die-Size näher an diesem, als an RV670?

Ich glaub RV635 ist ~120mm^2 gross afaik. Die Kerle bei B3D haben uebrigens recht es wird nur eine HD3650 geben und keine 3670 wie in manchen previews angegeben. Wenn das finale Resultat sich so verhaelt wie in den momentanen previews verbratet das Ding etwas mehr Strom bei gleich beschissener Leistung wie auf der 2600XT.

Gast
2008-01-10, 13:32:58
RV635 ist auch im Sub 100$ Bereich....

GeneralHanno
2008-01-10, 13:46:40
auf jeden fall landet er da ganz schnell, wenn das P/L-V nicht stimmt.

Ich würde sagen alles andere zum RV6xx kommt in den entsprechenden thread ;)

Ailuros
2008-01-10, 14:03:32
RV635 ist auch im Sub 100$ Bereich....

Mehr ist er auch nicht wert.

robbitop
2008-01-10, 14:05:59
Warum eigentlich? Sollte der 55 nm halfnode nicht deutlich besser sein als der 65 nm?

Ailuros
2008-01-10, 14:21:12
Warum eigentlich? Sollte der 55 nm halfnode nicht deutlich besser sein als der 65 nm?

Nicht alles geht nach Plan wenn man so schnell wie moeglich core nach core veroeffentlicht.

dargo
2008-01-10, 15:09:55
Bei der 9600GT sind es immernoch 64SP@1625MHz.

Also 208GFLOPs MADD vs 429GFLOPs, wobei bei der 3850 noch die SFUs abgehen und die Nachteile der Vektor-Architektur zum Tragen kommen.
Wie kommst du bei der G9600GT eigendlich auf 429GFLOPS? Ich komme auf 312GFLOPS.

Ja, vorallem die MSAA-Performance dürfte interessant werden, da könnte ich mir doch vorstellen, dass sie teilweise sehr nah an die 8800 GT kommt.
Lol, wie war das nochmal - arithmetische Leistung ist alles? ;D
Hat die G9600GT eigendlich 16 ROPs?

AnarchX
2008-01-10, 15:11:16
Wie kommst du bei der G9600GT eigendlich auf 429GFLOPS? Ich komme auf 312GFLOPS.
"vs 429 GFLOPs" = HD3850. ;)

Gast
2008-01-10, 15:39:12
Lol, wie war das nochmal - arithmetische Leistung ist alles? ;D
Hat die G9600GT eigendlich 16 ROPs?

Es kommt immer auf die Anwendung drauf an. Die Rechenleistung ist jedoch ohne AA und AF wesentlich wichtiger als mit. Guck dir doch einfach die Ergebnisse der 8800GTS an. Ohne AA und AF liegt die Karte deutlich hinter der 2900XT - deren einziger Vorteil die hohe Rechenleistung ist.

Ja, die 9600GT wird bei einem 256bit Speicherinterface 4 ROP Partitionen besitzen.

LovesuckZ
2008-01-10, 15:41:17
Also liegt G94 bei der Die-Size näher an diesem, als an RV670?

Bezweifel ich. Eine 9600GT müsste ca. 470 Millionen Transistoren haben. Man sollte glücklich sein, wenn ein doppelter G84 in 65nm exakt die gleiche Größe hat wie in 80nm.

dargo
2008-01-10, 15:52:26
Die Rechenleistung ist jedoch ohne AA und AF wesentlich wichtiger als mit.

Das sieht jeder etwas anders. Für mich ist AA/AF Leistung viel wichtiger weil mich die BQ ohne (vorallem AF) nicht zufrieden stellt. Bei mir muss zumindest bei 4xAA/16xAF die Leistung stimmen.


Ja, die 9600GT wird bei einem 256bit Speicherinterface 4 ROP Partitionen besitzen.
Dh. also die G9600GT ist praktisch eine G8800GTS (G92) mit halber arithmetischen Leistung und in etwa dem alten G80 Leistung/Bandbreite Verhältnis? Jetzt bin ich erst recht auf Benchmarks gespannt. Wenn die Karte der G8800GT wirklich mit AA sehr nahe kommt bestätigt das nur wie schlecht der G92 ausbalaciert ist.

LovesuckZ
2008-01-10, 15:54:42
Wenn die Karte der G8800GT wirklich mit AA sehr nahe kommt bestätigt das nur wie schlecht der G92 ausbalaciert ist.

Bei identischer Speicherbandbreite ist das kein Wunder - oder?

dargo
2008-01-10, 16:03:16
Bei identischer Speicherbandbreite ist das kein Wunder - oder?
Und identischer ROP-Leistung (zu G92GTS) bitte nicht vergessen. Dafür aber mit einer um ~39% geringeren arithmetischen Leistung im Vergleich zur G8800GT. Ich finde es halt verdammt gut, dass NV mit der G9600GT endlich wieder die Verhältnise wie beim G80 zwischen Aritmetik, ROP-Leistung und Bandbreite hergestellt hat.

AnarchX
2008-01-10, 16:09:02
Und identischer ROP-Leistung (zu G92GTS) bitte nicht vergessen. Dafür aber mit einer um ~39% geringeren arithmetischen Leistung im Vergleich zur G8800GT. Ich finde es halt verdammt gut, dass NV mit der G9600GT endlich wieder die Verhältnise wie beim G80 zwischen Aritmetik, ROP-Leistung und Bandbreite hergestellt hat.
Mehr TMU und Shaderpower wäre auch nicht verkehrt gewesen, aber so ist die vorhanden ROP-Leistung/Bandbreite natürlich auch nicht vekehrt für eine $169-Karte.
Und vielleicht hat der G94, da er schmaler ist als der G92 auch ein so nettes Potential wie der G84 (bis zu 1000MHz ROP-Domain bei Stock-Kühler!). :D

LovesuckZ
2008-01-10, 16:10:26
Und ich sehe nicht das Problem. Die 8800GT/GTS Karten sollten die alten GTS Karten ersetzen. Bessere Leistung, besser Videoprozessor, geringerer Stromverbrauch. Dass die Karten nicht an der GTX vorbei kommen, ist kein Nachteil, da dieser preislich an den Kunden von anfang weitergegeben wurden.

Gast
2008-01-10, 16:33:05
Das sieht jeder etwas anders. Für mich ist AA/AF Leistung viel wichtiger weil mich die BQ ohne (vorallem AF) nicht zufrieden stellt. Bei mir muss zumindest bei 4xAA/16xAF die Leistung stimmen.




Im Shader-Zeitalter wird AF immer unwichtiger, weil Texturen nicht mehr einfach auf Polygone gepappt werden, sondern nur als Eingangsdaten der Shader dienen und da braucht man meistens kein AF.

AA braucht man aber immer.

Gast
2008-01-10, 16:37:44
Im Shader-Zeitalter wird AF immer unwichtiger, weil Texturen nicht mehr einfach auf Polygone gepappt werden, sondern nur als Eingangsdaten der Shader dienen und da braucht man meistens kein AF.

AA braucht man aber immer.
Und wenn man mit AF spielt?

dargo
2008-01-10, 16:52:55
Im Shader-Zeitalter wird AF immer unwichtiger, weil Texturen nicht mehr einfach auf Polygone gepappt werden, sondern nur als Eingangsdaten der Shader dienen und da braucht man meistens kein AF.

Was man braucht und was nicht entscheide ich für mich immer noch selbst.
Ich bin kein Konsolenspieler. ;)

Wenn man natürlich die Grafik mit extremen Bloom überzieht (bestes Beispiel DIRT) dann ist klar, dass man vom AF nichts mehr mitbekommt. Ich meide solche Spiele aber, oder (wenns geht) passe ich mir diese an damits wieder erträglich mit AF wird. ;)

Gast
2008-01-10, 17:04:54
AA und AF sind Pflicht.Punkt

Gast
2008-01-10, 17:05:16
Was man braucht und was nicht entscheide ich für mich immer noch selbst.
Ich bin kein Konsolenspieler. ;)

Wenn man natürlich die Grafik mit extremen Bloom überzieht (bestes Beispiel DIRT) dann ist klar, dass man vom AF nichts mehr mitbekommt. Ich meide solche Spiele aber, oder (wenns geht) passe ich mir diese an damits wieder erträglich mit AF wird. ;)
Bloom ist ein Posteffektfilzer, der den Kontrast bestimmter Flächen verstärkt. Und gefiltert wird diese Textur auch noch (auch wenn etwas Blur dabei ist).

Der Gast meinte meiner Meinung nach Folgendes: Deine persönlichen Präferenzen sind zunächst nicht relevant. Wenn die Shaderlastigkeit erhöht, so steigen die Anforderungen an die arithmetische Leistung. Dazu kommt noch, dass heute Texturen nicht bloß Bitmaps auf Dreiecken sind, sondern vielmehr. Somit verschiebt sich die Last von (aktuell) Texturenlastigkeit auf Shaderlastigkeit, also zu dem Zustand, den ATi mit dem RV530 vorzutäuschen versuchte; wir werden nach und nach vielleicht eine Stognation bei der Anzahl und der Fähigkeit der Textureneinheiten sehen, ohne dass die Endleistung leiden wird (relativ gesehen).

dargo
2008-01-10, 17:15:15
Der Gast meinte meiner Meinung nach Folgendes: Deine persönlichen Präferenzen sind zunächst nicht relevant.

Habe ich auch nicht behauptet. Ich habe nicht umsonst für "mich" gesprochen.


Wenn die Shaderlastigkeit erhöht, so steigen die Anforderungen an die arithmetische Leistung. Dazu kommt noch, dass heute Texturen nicht bloß Bitmaps auf Dreiecken sind, sondern vielmehr. Somit verschiebt sich die Last von (aktuell) Texturenlastigkeit auf Shaderlastigkeit, also zu dem Zustand, den ATi mit dem RV530 vorzutäuschen versuchte; wir werden nach und nach vielleicht eine Stognation bei der Anzahl und der Fähigkeit der Textureneinheiten sehen, ohne dass die Endleistung leiden wird (relativ gesehen).
Wie es auch in zukünftigen Games aussehen mag - in heutigen und älteren Games sieht man sofort einen deutlichen Unterschied ob AF aktiv ist oder nicht. Vorrausgesetzt, es wird nicht so viel gebloomt. Wer was anderes behauptet der ist einfach blind.

Auch wenn es keinen interessieren mag - in Crysis und Timeshift verzichte ich lieber auf POM als auf AF. Leider ist beides gleichzeitig nicht möglich (warum auch immer).

reunion
2008-01-10, 17:31:40
Mehr ist er auch nicht wert.

Mehr soll er auch nicht wert sein. Oder seit wann muss ein 120mm² Die Bäume ausreisen?

nomadhunter
2008-01-10, 17:41:04
RV350? :|
ATI kontert die GeForce 9600 mit einer Neuauflage der Radeon 9600. ;D

AnarchX
2008-01-11, 12:41:16
http://img261.imageshack.us/img261/9374/120004983246832dc61a6xo5.jpg (http://imageshack.us)

Trotz langsamerer CPU schnellere Game-Scores als bei Expreview:
http://en.expreview.com/?p=184

Ob es wohl am 171er FW liegt?

Adam D.
2008-01-11, 13:15:22
Gut möglich, das erste, was an den Treibern für neue Generationen getan wird, ist eh 3DMark-Totoptimierung :rolleyes:

Ailuros
2008-01-11, 13:18:57
Mehr soll er auch nicht wert sein. Oder seit wann muss ein 120mm² Die Bäume ausreisen?

Nur ist die Leistung genauso beschissen wie jegliche 8600/2600. Man haette bitteschoen erwarten koennen dass sich die Leistung wenigstens ein bisschen mehr steigert. Ach ja das Ding hat 10.1 also kann man den Mist auch mit einem neuem Namen verkaufen :rolleyes:

Gast
2008-01-11, 13:22:16
Nur ist die Leistung genauso beschissen wie jegliche 8600/2600. Man haette bitteschoen erwarten koennen dass sich die Leistung wenigstens ein bisschen mehr steigert.


Die Leistung wurde sogar gewaltig gesteigert. Denn im Midragesegment bekommt man jetzt den RV670. Und unter 100$ bekam man noch nie leistungsfähige Hardware.


Ach ja das Ding hat 10.1 also kann man den Mist auch mit einem neuem Namen verkaufen :rolleyes:

Bei nV gibt es nichtmal D3D10.1 und trotzdem nimmt man einen neuen Namen. :rolleyes:

reunion

AnarchX
2008-01-11, 13:48:19
Und schon gibt es das erste (P)Review zur 9600 GT:
http://translate.google.com/translate?u=http%3A%2F%2Fpublish.it168.com%2F2008%2F0110%2F20080110035101.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8

Leider eine dämliche Auswahl bei den Vergleichskarten...

Leider absolut unbrauchbar, da man eine 8800 GTS einfach auf 325/825/900MHz getaktet hat. X-D

Ailuros
2008-01-11, 14:24:02
Die Leistung wurde sogar gewaltig gesteigert. Denn im Midragesegment bekommt man jetzt den RV670. Und unter 100$ bekam man noch nie leistungsfähige Hardware.

Ich liebe es wenn man so nett alles in einen Topf wirft. Da Du selber erwaehnst dass es sich um ein <$100 Produkt handelt, hat es wohl absolut nichts mit dem Marktsegment dass RV670 anspricht zu tun.

Hier mal ein relevantes Bildchen von AMD:

http://forum.beyond3d.com/showpost.php?p=1114507&postcount=37

Und falls es Dir endlich auffaellt fehlt was zwischen der 3850 und der 3650.

Leistungsfaehige GPUs unter $100 bekam man zwar im Vergleich zum Performance oder High end segment zwar nie, aber in der Mehrzahl der Faelle bekam man in der Vergangenheit von einer "Generation" zur anderen fuer das gleiche Geld eine gesunde Leistungssteigerung.

Letztendlich dass AMD ihr Zeug mit so viel Rabatt verkauft ist deren ihr Problem; man koennte aber etwas mehr leisten als einen albernen Aufkleber auf dem Karton.

Bei nV gibt es nichtmal D3D10.1 und trotzdem nimmt man einen neuen Namen. :rolleyes:

reunion

Wenn sie eine kleinere Variante von G94 im Vergleich zur 9600GT veroeffentlichen was genau willst Du wetten dass der Leistungs-Unterschied zum vorigen 8600/8500 Kotzbrett nicht gerade gering sein wird?

Gab es ueberhaupt jemand mit wenigstens ein bisschen Anstand der die ersten D3D10 mainstream GPUs leichten Herzens empfehlen konnte (egal welcher IHV?).

reunion
2008-01-11, 15:31:09
Leistungsfaehige GPUs unter $100 bekam man zwar im Vergleich zum Performance oder High end segment zwar nie, aber in der Mehrzahl der Faelle bekam man in der Vergangenheit von einer "Generation" zur anderen fuer das gleiche Geld eine gesunde Leistungssteigerung.

Wenn sie eine kleinere Variante von G94 im Vergleich zur 9600GT veroeffentlichen was genau willst Du wetten dass der Leistungs-Unterschied zum vorigen 8600/8500 Kotzbrett nicht gerade gering sein wird?


Dein Argument zieht nicht. Ein G94 ist deutlich größer als RV635 und wird auch entsprechend teurer verkauft. Im Mainstream bekomme ich bei AMD einen RV670, der eine deutliche Leistungssteigerung ggü. dem RV630 bietet. RV635 ist im Sub-100$-Bereich absolut konkurrenzfähig und mehr sollte er wohl auch nie sein. Oder geht es dir jetzt nur um die Marketingbezeichungen?

AnarchX
2008-01-11, 16:26:40
Für RV635 seht ja eh schon der G96 in den Startlöchern:
http://img181.imageshack.us/img181/3507/new33ac47f1fh1.png (http://imageshack.us)
http://www.vr-zone.com/articles/NVIDIA_Forceware_Vista_Beta_Drivers_Preview/5491-4.html
;)

Da scheinen wohl die D9E-40/20-Codenamen auch zu stimmen.

Gast
2008-01-11, 16:30:49
Die [B]GeForce "9"500M-GS:
http://img260.imageshack.us/img260/3592/biggeforce950012d004516ok9.jpg (http://imageshack.us)
http://www.hothardware.com/News/Asus_Notebook_With_GeForce_9500M_GS_Mobile_GPU/
G84-50?
hört sich irgendwie nach 8600 incl. neune namen an
wäre G94 nicht logischer?

oder ist das wie G73 und G73A?

AnarchX
2008-01-11, 22:25:54
Für RV635 seht ja eh schon der G96 in den Startlöchern:
http://img181.imageshack.us/img181/3507/new33ac47f1fh1.png (http://imageshack.us)
http://www.vr-zone.com/articles/NVIDIA_Forceware_Vista_Beta_Drivers_Preview/5491-4.html
;)

Da scheinen wohl die D9E-40/20-Codenamen auch zu stimmen.
Und da ist die 9500GT bzw. G96:


http://img144.imageshack.us/img144/4923/02d9m34f4088bli7.jpg (http://imageshack.us)
http://www.tomshardware.tw/329,news-329.html

Taktraten sollen auch wieder bei 650/1625/900MHz (bei der 512MB Version) liegen, also leicht zu merken.:D

laser114
2008-01-11, 22:32:50
Taktraten sollen auch wieder bei 650/1625/900MHz liegen, also leicht zu merken.:D

Die kaufen ja den ganzen GDDR3 1,1 ns-Speicher auf. :D

Hvoralek
2008-01-11, 22:51:13
Und da ist die 9500GT bzw. G96:


http://img144.imageshack.us/img144/4923/02d9m34f4088bli7.jpg (http://imageshack.us)
http://www.tomshardware.tw/329,news-329.html

Taktraten sollen auch wieder bei 650/1625/900MHz (bei der 512MB Version) liegen, also leicht zu merken.:DDas ist einfach ein geshrinkter G84?

AnarchX
2008-01-11, 22:53:07
Scheint so, wobei aber halt der VP3 neu ist.

Ailuros
2008-01-12, 07:38:21
Dein Argument zieht nicht. Ein G94 ist deutlich größer als RV635 und wird auch entsprechend teurer verkauft. Im Mainstream bekomme ich bei AMD einen RV670, der eine deutliche Leistungssteigerung ggü. dem RV630 bietet. RV635 ist im Sub-100$-Bereich absolut konkurrenzfähig und mehr sollte er wohl auch nie sein. Oder geht es dir jetzt nur um die Marketingbezeichungen?

Mir geht es lediglich darum dass der Verbraucher von einem neuen chip etwas mehr haben sollte.

Die 3850 ist 9600GT Konkurrenz; wenn NV's 9500GT oder weiss der Geier wie das Ding heissen wird genauso lahmarschig ankommt wie 3650, dann entgeht NV der gleichen Kritik auch nicht.

Worauf beruht denn Dein Argument genau? Die Dinger kosten ja nur <$100 also kann man den gleichen ausgelatschten Mist fuer eine Ewigkeit wiederverkaufen?

Und wenn Du's schon hoeren willst, es kann zwar sein dass sie spaeter zwischen RV670 und RV635 noch etwas zwischenschieben aber nur dann wenn die engineers auch das gruene Licht dafuer bekommen, weil momentan ohne Ende gespart wird.

GeneralHanno
2008-01-12, 09:21:07
G98 = 16SP + 64bit
G96 = 32SP + 128bit
G94 = 64SP + 256bit
G92 = 128SP + 256bit

irgendwie sind mir das zu viele "Einsteigerchips" und so ein "echter" high-end chip fehlt leider ...

AnarchX
2008-01-12, 09:39:05
Die 3850 ist 9600GT Konkurrenz; wenn NV's 9500GT oder weiss der Geier wie das Ding heissen wird genauso lahmarschig ankommt wie 3650, dann entgeht NV der gleichen Kritik auch nicht.

Wobei NV entsprechend G96 in der neuen Genearation eine Klasse tiefer einordnet und bis auf das fehlende D3D10.1 sieht die 9500GT doch um einiges besser aus als die HD3650, vorallem die 38% mehr arithmetische Leistung gegenüber der 86GTS sind positiv zu bewerten.

reunion
2008-01-12, 09:49:53
Mir geht es lediglich darum dass der Verbraucher von einem neuen chip etwas mehr haben sollte.

Was genau fehlt dir denn an dem Chip? Es unterstützt modernstes Featureset und ist für den Preisbereich absolut konkurrenzfähig. Man kann natürlich immer mehr verlangen.

Wobei NV entsprechend G96 in der neuen Genearation eine Klasse tiefer einordnet und bis auf das fehlende D3D10.1 sieht die 9500GT doch um einiges besser aus als die HD3650, vorallem die 38% mehr arithmetische Leistung gegenüber der 86GTS sind positiv zu bewerten.

Die Marketingnamen sind doch völlig egal, es zählt P/L. Und die höherer arithmetische Leistung braucht G96 ohnehin dringend, wenn ich mir da shaderlastige Benchs zwischen G84 und RV630 anschaue.

AnarchX
2008-01-12, 10:02:05
Die Marketingnamen sind doch völlig egal, es zählt P/L.
Sicher, wobei diese Namen doch auch etwas kundenfreundlicher gestaltet sein sollten.

Ailuros
2008-01-13, 09:38:22
Was genau fehlt dir denn an dem Chip? Es unterstützt modernstes Featureset und ist für den Preisbereich absolut konkurrenzfähig. Man kann natürlich immer mehr verlangen.

Die 3670 die storniert wurde. Guten Morgen.

laser114
2008-01-13, 10:16:04
Entspricht jetzt nicht eher die 3650 die 3670?

GeneralHanno
2008-01-13, 10:38:39
wurde die spezifikationen (taktraten ...) der 3650 geändert, oder wie sehen die jetzt aus?

Gast
2008-01-13, 15:43:29
Wenn erst im Frühjahr die 9800gtx? kommt,dann kommt doch sicher nicht Ende 2008 schon ne neue "generation" oder ?

nomadhunter
2008-01-13, 15:59:59
Wieso? Die 9800GTX ist ja keine neue Generation sondern vermutlich entweder G92 oder eine leicht aufgebohrte oder geshrinkte Variante davon. Die letzte wirklich neue Geration war G80 und der wird Ende 2008 2 Jahre alt.

AnarchX
2008-01-13, 18:15:08
http://img176.imageshack.us/img176/4416/crysis3e5c8e64di4.jpg (http://imageshack.us)


http://myevilprocessor.blogspot.com/2008/01/geforce-9600-gt-benchmark.html

Nakai
2008-01-13, 18:41:37
Ernüchternd, wo doch Crysis auf allen NV-Karten wesentlich performanter ist.


mfg Nakai

maddawn
2008-01-13, 19:10:38
Ich finde die 9600GT hat ein sehr gutes P/L wenn sie für cirka 150€ im Februar zu kaufen ist.

Sind schon technische Daten zu 9600GS bekannt? Ich spekuliere mal auf technisch identisch aber weniger Takt: 256MB/512MB (100€/120€), GPU 500Mhz, Speicher 700 Mhz.

GeneralHanno
2008-01-13, 19:27:36
Hoffentlich wird die GS nur im Takt reduziert ...

Der_Korken
2008-01-13, 19:47:22
http://img176.imageshack.us/img176/4416/crysis3e5c8e64di4.jpg (http://imageshack.us)


http://myevilprocessor.blogspot.com/2008/01/geforce-9600-gt-benchmark.html

Das finde ich aber doch etwas arg unrealistisch. Wenn man sich Benches so ansieht, müssen da mehr als 64 SP arbeiten. Die 9600 GT ist ja fast an der 8800GT dran und die GTS ist gerade mal 30 bis 40 Prozent schneller. Entweder sind die Taktraten deutlich über 600Mhz oder es ist ein 5- oder sogar 6-Clusterchip.

AnarchX
2008-01-13, 19:48:09
Vergiss nicht: ROP-Leistung der 8800 GTS 512MB und Bandbreite der 8800 GT. ;)

Nakai
2008-01-13, 19:49:27
Vergiss nicht: ROP-Leistung der 8800 GTS 512MB und Bandbreite der 8800 GT. ;)

Bei 1280*1024?


mfg Nakai

dargo
2008-01-13, 20:10:10
Bei 1280*1024?

Hier gehts um Crysis. Und bei den niedrigen Frames würde es mich nicht wundern wenn da very high verwendet worden ist.

nomadhunter
2008-01-13, 20:18:47
Denk ich auch, ansonsten wären die Benchmarks vollkommen für die Tonne. Computerbase kommt mit Vista/DX10 High auf etwa das Doppelte (33,9 fps für eine GT-512) (EDIT: XP/DX9 High laut Hard Tecs 4U: 45,5 fps mit einer GT-512). Oder man hat eine extrem grafiklimitierte Szene gebencht, aber bei so einem Kurzbenchmark gehe ich eher vom normalen GPU-Bench aus.

Nakai
2008-01-13, 20:28:23
Hier gehts um Crysis. Und bei den niedrigen Frames würde es mich nicht wundern wenn da very high verwendet worden ist.

Ja, eben. Aber bei 1280*1024 von Pixelfüllratenmangel oder Bandbreitenmangel bei Crysis auf Very High zu sprechen, halte ich für falsch.

mfg Nakai

dargo
2008-01-13, 20:33:10
Ja, eben. Aber bei 1280*1024 von Pixelfüllratenmangel oder Bandbreitenmangel bei Crysis auf Very High zu sprechen, halte ich für falsch.

Warum?

Der_Korken
2008-01-13, 20:34:41
Wenn hier die Rede von Pixelfüllratenmangel ist, dann müssten die 8800GT und GTS auch gleichschnell sein. Hier ist aber von der Relation her alles in Ordnung. Abgesehen davon glaube ich nicht, dass bei 1280x1024 ohne AA schon die ROPs oder die Bandbreite limitieren.

Nakai
2008-01-13, 20:57:46
Warum?

Das sind 1310720 Pixel.
16 ROPs mit 600Mhz getaktet liefern ne Pixelfüllrate von 9600MPix/s.

Mit dieser Füllrate könnte man theoretisch 7324 solcher Auflösungen generieren.

An der Pixelfüllrate haperts daher bestimmt nicht.


mfg Nakai

€: Zu spät

mapel110
2008-01-13, 21:05:36
Warum sollten ROPs in Sachen Performance überhaupt eine Rolle spielen?! Kann mir das jemand erklären?!
6600 GT 4 ROPs
6800 GT 16 ROPs
Und wann war genau die 6800 GT um 300 % schneller?!

dargo
2008-01-13, 21:11:43
Wir sprechen hier von der G9x Generation. Was hat die NV4x Generation damit genau zu tun?

Nakai
2008-01-13, 21:15:43
Wir sprechen hier von der G9x Generation. Was hat die NV4x Generation damit genau zu tun?

Welche Grafikkarte ist bei 1280*1024 ohne AA Pixelfüllratenlimitiert?


mfg Nakai

deekey777
2008-01-13, 23:22:29
Welche Grafikkarte ist bei 1280*1024 ohne AA Pixelfüllratenlimitiert?


mfg Nakai
Gar keine, selbst MSAA. Eher stößt man auf den Bandbreitenlimit. Wobei andere Einheiten oft der limitierende Faktor sind.
ROPs sind eh Verschwenung an Transistoren, da sie kaum ausgelastet werden.

Coda
2008-01-13, 23:28:29
Wir sprechen hier von der G9x Generation. Was hat die NV4x Generation damit genau zu tun?
Der Effekt ist heute auch noch der gleiche. ROPs spielen keine Rolle sobald man VRAM limitiert ist, oder (noch viel wahrscheinlicher) der Shader mehr als einen Takt braucht.

Wo sie was bringen ist beim Shadowmap rendern und beim Z-First-Pass. Aber sie spielen garantiert nicht so eine große Rolle wie manchmal getan wird. Vor allem ist es sehr sinnvoll, dass NVIDIA die ROPs mit der breite des Speicherinterfaces skaliert. Das passt dann immer sehr gut zusammen.

AnarchX
2008-01-14, 07:30:05
9600 GT (P)Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0801%2 F1205247.html&langpair=zh%7Cen&hl=de&ie=UTF-8)

~240mm² Die-Size.

Gast
2008-01-14, 07:53:40
9600 GT (P)Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0801%2 F1205247.html&langpair=zh%7Cen&hl=de&ie=UTF-8)

~240mm² Die-Size.

Na Mahlzeit, das Ding ist ja deutlich größer als ein RV670 und soll dabei nur gegen die 3850 antreten?

dargo
2008-01-14, 09:25:53
Der Effekt ist heute auch noch der gleiche. ROPs spielen keine Rolle sobald man VRAM limitiert ist, oder (noch viel wahrscheinlicher) der Shader mehr als einen Takt braucht.

Wo sie was bringen ist beim Shadowmap rendern und beim Z-First-Pass. Aber sie spielen garantiert nicht so eine große Rolle wie manchmal getan wird. Vor allem ist es sehr sinnvoll, dass NVIDIA die ROPs mit der breite des Speicherinterfaces skaliert. Das passt dann immer sehr gut zusammen.
Eins verstehe ich dann nicht - warum kann eine G8800GTS@G92 nicht ihren 80%-igen Vorteil bei der arithmetischen Leistung gegenüber der G8800GTS@G80 ausspielen? In der Regel kommen nur ca. 40% an.

Dass, die Bandbreite der G8800GTS@G92 nicht stark limitiert haben wir schon bei Crysis rausgefunden. Bei einer 10%-igen Erhöhung der Bandbreite gibts ~5% mehr Leistung. Dabei muss man allerdings bedenken, dass die GPU schon um 20% übertaktet war. Mit den standard 650Mhz dürften wohl nur noch ca. 3% ankommen. Was bleibt also noch übrig außer der ROP-Leistung im Vergleich zum G80?

robbitop
2008-01-14, 10:56:47
In Crysis werden die ROPs ja auch für den Z-Pass stark benötigt.

dargo
2008-01-14, 11:43:24
In Crysis werden die ROPs ja auch für den Z-Pass stark benötigt.
Aha, danke. Dann muss ich wohl noch paar andere Tests anstellen. Ohne einen G92 zu besitzen ist das leider etwas problematisch. ;(
Aber wie ich schon sagte, auch viele andere Games liegen bei ca. +40%. Man muss sich nur die Tests von CB anschauen. :) Natürlich gibt es auch wenige Ausnahmen wo zb. ~53% oder gar 80% voll durchschlagen.

Wobei CB wieder mit unterschiedlichen Treibern getestet hat. Man, alles irgendwie nur "Halbwahrheiten". :mad:
Kennt zufällig Jemand gute Reviews zwischen den beiden GTS mit gleichen Treibern und möglichst WinXP?

SKYNET
2008-01-14, 12:23:48
9600 GT (P)Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0801%2 F1205247.html&langpair=zh%7Cen&hl=de&ie=UTF-8)

~240mm² Die-Size.


scheint nen kleines biest zu sein der chip... rockt gut was weg.

deekey777
2008-01-14, 12:56:16
In Crysis werden die ROPs ja auch für den Z-Pass stark benötigt.
Ich glaub, es wäre im Interesse der Leserschaft zu erklären, was der Z-Pass ist und warum gerade die NV-ROPs für diesen so geeignet sind. :naughty:

Also ich weiß es. Hoffentlich.

Nakai
2008-01-14, 13:57:42
Der Test der 9600GT ist irgendwie dumm, da nur man nur die 256M-Version der HD3850 testet.

Naja die Karte ist trotzdem irgendwie geil.


mfg Nakai

Der_Korken
2008-01-14, 14:24:58
Na Mahlzeit, das Ding ist ja deutlich größer als ein RV670 und soll dabei nur gegen die 3850 antreten?

Also ich bin nach wie vor der Meinung, dass der Chip mehr als 64 SP haben muss. Der steht ja durchgehend auf Augenhöhe mit der 8800GS, die dort mit 96 SP angegeben wurde. Auch die 240mm² sprechen doch deutlich für mehr Funktionseinheiten. Mit einiger Überarbeitung hätte ich erwartet, dass ein 64-SP-Chip ungefähr halb so groß wie der G92 wird (welcher ja ein relativ schlechter Shrink war), er ist aber deutlich größer.

laser114
2008-01-14, 14:33:31
Fällt das Kürzel GTS mit der Geforce 9 schon wieder weg?

Die Die-Size ist aber heftig groß ... so schlimm hatte ich das nicht erwartet. Senkt irgendwie auch die Hoffnung, dass das Nvidia bei zukünftigen Shrinks besser machen kann - scheinbar kosten die ROPs doch ganz ordentlich.

Iwan
2008-01-14, 15:14:17
Fällt das Kürzel GTS mit der Geforce 9 schon wieder weg?

Die Die-Size ist aber heftig groß ... so schlimm hatte ich das nicht erwartet. Senkt irgendwie auch die Hoffnung, dass das Nvidia bei zukünftigen Shrinks besser machen kann - scheinbar kosten die ROPs doch ganz ordentlich.

Vielleicht kommt noch eine GTS mit mehr Funktionseinheiten? Wenn das Die bei der 9600GT so groß ist, sind vielleicht Einheiten deaktiviert?

LovesuckZ
2008-01-14, 15:30:31
Vielleicht kommt noch eine GTS mit mehr Funktionseinheiten? Wenn das Die bei der 9600GT so groß ist, sind vielleicht Einheiten deaktiviert?

240mm² ist für einen doppelten G84 und einem fast halbierten G92 viel zu viel.
Wo soll denn da der G96 liegen? Bei 169mm²?

laser114
2008-01-14, 15:39:59
240mm² ist für einen doppelten G84 und einem fast halbierten G92 viel zu viel.

Naja, halbiert wurden nur Textureinheiten und Streamprozessoren. Allerdings sind die Messungen auf der Seite relativ groß ausgefallen, ich halte auch 220-230 mm² oder ähnlich für möglich (RV670 messen die z. B. mit 210 mm²). 16 ROPs, 256 Bit Interface etc. bleiben ja. Nichtsdestotrotz ist der Chip ziemlich groß, aber andererseits kann man da auch nicht einfach mal noch 2 Cluster mehr reinstecken, dann wird der Abstand zum G92 zu knapp.

(Ausgehen von 320 mm² für den G92, die Website misst übrigens 330 mm².)

Zum G96 wurde dann ja wirklich alles halbiert, der wird deutlich kleiner.

LovesuckZ
2008-01-14, 15:46:50
Zum G96 wurde dann ja wirklich alles halbiert, der wird deutlich kleiner.

Er wird aber nicht die halbe Größe haben. Ein G96 ist auch nicht 60mm² groß.

laser114
2008-01-14, 15:49:20
Er wird aber nicht die halbe Größe haben. Ein G96 ist auch nicht 60mm² groß.

Vom G94 zum G96 wurden praktisch alle Funktionseinheiten halbiert (im Gegensatz vom G92 -> G94). So besser verständlich? :)

LovesuckZ
2008-01-14, 15:52:23
Vom G94 zum G96 wurden praktisch alle Funktionseinheiten halbiert (im Gegensatz vom G92 -> G94). So besser verständlich? :)

Ich weiß schon, was du meinst. Ich meinte auch G92, der ist mit 85,5mm² nicht 1/4 sondern 1/3 groß. Und das bei 1 Cluster und einer ROP-Parition. Ausgehen davon müsste dann ein G96 170mm² haben. Wo wäre da der Vorteil des Shrinks? :confused:
Entweder hat nVidia die Funktionseinheiten stark verbessert oder es sind 5-6 Cluster.

/edit: Arg, zum Teufel mit den Funktionsbezeichnung. Die neue 8800GS, da mit 1 Cluster und einer ROP-Parition.

laser114
2008-01-14, 16:06:59
Du meinst jetzt sicher den G98. ;)
8800 GS!? Jetzt verstehe ich dich nicht mehr...

Der G96 ist ja praktisch nur ein geshrinkter G84. Ausgehen von der gleichen Transistorzahl komme ich mit der Packungsdichte des G92 auf 124,2 mm². Die Transistorzahl des G98 weiß ich leider nicht, sonst würde ich auch mal mit dieser nachrechnen.

Ein perfekter Shrink des G84 wären 111,6 mm², von daher halte ich rund 125-130 mm€ für den G94 für realistisch (größere Chips lassen sich leichter packen). Kann natürlich zu Abweichungen kommen wenns besonders gut oder besonders schlecht läuft.

Damit wäre der G94 in der Tat relativ groß.


Andererseits: Bei gut 320 mm² für den G92 kann ein G94 mit 6 Clustern und vollen ROP-Partitionen nicht auf 220-230 mm² schrumpfen.


Vielleicht haben sie sich auch nur etwas vermessen. :conf:

LovesuckZ
2008-01-14, 16:17:04
Andererseits: Bei gut 320 mm² für den G92 kann ein G94 mit 6 Clustern und vollen ROP-Partitionen nicht auf 220-230 mm² schrumpfen.


Warum nicht? Ein Cluster kostete in 80nm 37mm². Siehe G84 zu G86. Mit zunehmendem Verhältnis von besser zu packenden Transistoren käme man auf ein besseres Verhältnis der Transistoren/mm² Anzahl.
240mm² sind für 4 Cluster eindeutig zu viel. Das würde bedeuten, dass nVidia für 4 weitere Cluster "nur" 83mm² bräuchte...

laser114
2008-01-14, 16:24:36
Hmm, stimmt auch wieder. 6 Cluster würden die Performance auch besser treffen.

(Dann verstehe ich die Entscheidung dem G92 nur 16 ROPs / 256 Bit zu geben aber noch weniger.)

reunion
2008-01-14, 16:31:57
240mm² sind für 4 Cluster eindeutig zu viel. Das würde bedeuten, dass nVidia für 4 weitere Cluster "nur" 83mm² bräuchte...

Die Seite misst für G92 329mm² und für G94 240mm². G92 ist also gut 37% größer bei doppelt so vielen Shadercluster und identischen ROP-Anzahl. Das liegt IMHO durchaus im Rahmen. Das ein halbierter Chip eben weit mehr als die Hälfte der Transistoren benötigt ist ja nichts neues. Hier wurde allerdings nur ein Bereich halbiert. Zudem sind die 64 ALUs längst bestätigt und die Leistung spricht auch nicht für mehr Cluster. Für sechs Cluster ist der Chip von G92 ausgehend jedenfalls zu klein, ev. fünf Cluster.

LovesuckZ
2008-01-14, 16:36:09
Die Seite misst für G92 329mm² und für G94 240mm². G92 ist also gut 37% größer bei doppelt so vielen Shadercluster und identischen ROP-Anzahl. Das liegt IMHO durchaus im Rahmen. Das ein halbierter Chip eben weit mehr als die Hälfte der Transistoren benötigt ist ja nichts neues.

Und nun breche das mal runter auf den G96. Wieso sollte dieser dann nur eine Fläche von 55% des G94 haben? Zwei ROP-Partitionen werden kaum zusätzliche 20% Fläche in Anspruch nehmen.

reunion
2008-01-14, 16:40:46
Und nun breche das mal runter auf den G96. Wieso sollte dieser dann nur eine Fläche von 55% des G94 haben? Zwei ROP-Partitionen werden kaum zusätzliche 20% Fläche in Anspruch nehmen.

Wenn G96 ein halbierter G94 ist, wovon ich jetzt mangels Gewissheit ausgehe, und ich weiter als Näherung annehme, dass ein halbierter Chip ca. 0.6x die Größe des vollen Chips hat (kommt IMO ziemlich genau hin), käme ich bei G96 laut deren Messmethode auf 144mm². Was IMO durchaus realistisch ist. Denn bei G84 wurden von der Seite ja AFAIK auch über 180mm² gemessen, und viel mehr wird der Shrink 80nm auf 65nm in der Praxis nicht bringen.

LovesuckZ
2008-01-14, 16:44:37
Wenn G96 ein halbierter G94 ist, wovon ich jetzt mangels Gewissheit ausgehe, und ich weiter als Näherung annehme, dass ein halbierter Chip ca. 0.6x die Größe des vollen Chips hat (kommt IMO ziemlich genau hin), käme ich bei G96 laut deren Messmethode auf 144mm². Was IMO durchaus realistisch ist. Denn bei G84 wurden von der Seite ja AFAIK auch über 180mm² gemessen.

Techreport misste 169mm², pconline 173mm².
Der G98 ist mit einem Cluster und einer ROP-Partition 85.5mm². Ein doppelter G96 bei 60% größerem Die wäre 137mm². Darauf aufbauend müsste ein G94 219mm² haben.

reunion
2008-01-14, 16:52:45
Techreport misste 169mm², pconline 173mm².

Wenn die 173mm² von der selben Seite stimmen, dann bleibt bei G96 noch immer der VP3, PCIe2.0 und die kleineren Verbesserungen von G92. Das wäre zwar zugegebenermaßen knapp, aber durchaus im Bereich des möglichen. Einen linearen Shrink gibt es nun mal nicht, und umso kleiner die Chips, umso weiter ist man vom mathematischen Optimum entfernt.

LovesuckZ
2008-01-14, 16:57:42
Einen linearen Shrink gibt es nun mal nicht, und umso kleiner die Chips, umso weiter ist man vom mathematischen Optimum entfernt.

Und wieso sollte der G94 nun nur 4 Cluster besitzen?
Bei fast doppelter Transistorenanzahl des G96 sollte er ein besserers Packverhältnis besitzen. Und ein G96 wird kaum 144mm² groß sein, wenn ein halbierter G98 nur 85,5mm² groß ist.

reunion
2008-01-14, 16:57:45
Der G98 ist mit einem Cluster und einer ROP-Partition 85.5mm². Ein doppelter G96 bei 60% größerem Die wäre 137mm². Darauf aufbauend müsste ein G94 219mm² haben.

Und die 85.5mm² stammen von PCOnline oder sind das NV-Angaben? Sonst braucht man nämlich gar nicht anfangen zu vergleichen. Zudem sind kleinere Messfehler ohnehin nie ausgeschlossen. Wenn man das mit dem Faktor 0.6 des halben Chips weiter verfolgt, dann wäre ein doppelter Chip ca. 68% größer als der Halbe.

laser114
2008-01-14, 16:58:56
Nein, die Angabe ist von Expreview:
http://en.expreview.com/?p=77&page=4

Gast
2008-01-14, 17:06:10
Aha, danke. Dann muss ich wohl noch paar andere Tests anstellen. Ohne einen G92 zu besitzen ist das leider etwas problematisch. ;(
Aber wie ich schon sagte, auch viele andere Games liegen bei ca. +40%. Man muss sich nur die Tests von CB anschauen. :) Natürlich gibt es auch wenige Ausnahmen wo zb. ~53% oder gar 80% voll durchschlagen.

Wobei CB wieder mit unterschiedlichen Treibern getestet hat. Man, alles irgendwie nur "Halbwahrheiten". :mad:
Kennt zufällig Jemand gute Reviews zwischen den beiden GTS mit gleichen Treibern und möglichst WinXP?

Mich würde es jetzt auch mal stark interessieren, warum die G92 ihre theoretische GPU-Power gegenüber dem G80 nicht richtig umsetzten kann!

Es sind doch einige hier im Forum von G80 GTS auf G92 GT/GTS umgestiegen. Wär nett, wenn diejenigen mal ein paar Tests machen könnten, solange sie noch im Besitz beider Karten sind.

LovesuckZ
2008-01-14, 17:18:11
Nein, die Angabe ist von Expreview:
http://en.expreview.com/?p=77&page=4

Ja. Natürlich fehlt bis heute die Transistorenanzahl, aber ich bezweifel, dass eine ROP-Partition ca. 40 Millionen Transistoren benötigt.

deekey777
2008-01-14, 17:52:50
Uttar Arun zur Die-Größe des G94 (http://forum.beyond3d.com/showpost.php?p=1116277&postcount=220):
Remember that UMC has lower cost/wafer, but lower yields traditionally. At the same time, 55nm yields should also lag behind 65nm yields slightly, but I'm not sure the difference would be as substantial as between TSMC and UMC in general. And then again, yields don't mean much when you have potential redundancy nearly everywhere and that you can have plenty of bins to counteract parametric yield loss...

Overall, it should be fairly obvious that in terms of 'raw chip' cost (excluding package and testing which are harder to compare), RV670 is slightly cheaper than G94 (but probably by a bit less than the 240/210 ratio would imply). Where things get really hard to compare is when you factor in NV and AMD's different redundancy mechanisms, which both have advantages and disadvantages.

Also, these numbers are obviously better than those at expreview. CoJ and Crysis are especially good, and both are AFAIK quite ALU-heavy especially at high resolutions. This makes me suspect that we *are* looking at a higher ALU-TEX ratio than on G92 here; although whether that's via 96 SPs or a better config (consistent 3 flops/SP?) is a much harder question to answer.

P.S.: PCOnline consistently tends to overestimate chips' die sizes I think. My expectation is that the 'real 'die sizes are probably "~(192/210)*die size" for everything.

Godmode
2008-01-14, 19:23:53
Uttar Arun zur Die-Größe des G94 (http://forum.beyond3d.com/showpost.php?p=1116277&postcount=220):

Mehr Flops/SP?

deekey777
2008-01-15, 00:50:53
Mehr Flops/SP?
Der G94 scheint ein ganz neuer Chip zu sein, der G92 dagegen...
Der G80 hat den einen oder anderen Flaschenhals, vielleicht wurde hier und da verbessert. Möglicherweise sind die Verbesserungen der G86-ALUs in den G94 miteingeflossen.
http://forum.beyond3d.com/showpost.php?p=1103701&postcount=91
Surely that must have been a brainfart or typo/language mistake, ShaidarHaran. Shader performance is more like it. The point remains though that in terms of shading, this OCed 8800 GTS 512MiB is twice as fast as the 8800 GTS, but far from twice as fast overall.

Anyway there are a number of other bottlenecks which did not change:
- Input assembly.
- Post-VS FIFO Throughput.
- Triangle Setup.
- ROPs: Depth & Blending.

It will be interesting to see what happens once NVIDIA bothers improving that and bandwidth...

Nightspider
2008-01-15, 01:35:22
9800 GX2 heiß und teuer:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5126&Itemid=1

Gast
2008-01-15, 01:54:00
Wer das Ding kauft hat sowieso keine Ahnung was er da eigentlich erwirbt.

SKYNET
2008-01-15, 06:44:32
er erwirbt zumindest die schnellste grafikkarte die für geld zu haben ist, mehr muss man nicht wissen. :P

dargo
2008-01-15, 10:41:40
9800 GX2 heiß und teuer:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5126&Itemid=1
Hä? 600-700$? :| Naja, Fudo halt. :D

Gast
2008-01-15, 10:57:46
9800 GX2 heiß und teuer:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5126&Itemid=1


Wo steht da was von heiß?

Gast
2008-01-15, 11:18:02
er erwirbt zumindest die schnellste grafikkarte die für geld zu haben ist, mehr muss man nicht wissen. :P

allein die Neun im Namen 9800gx ist Bauernfang,weniger Informierte glauben dann sie bekommen eine Geforce 9.
Für jemanden der min ne GT hat, wäre der Umstieg großer Quatsch.Selbst Leute die was schwaches besitzen sollte lieber etwas länger warten.Sie würden sich nur Ende den Jahres schwarz ärgern,wenn dann echte Nachfolger kommen.

Anarchy-HWLUXX
2008-01-15, 12:04:06
Hä? 600-700$? :| Naja, Fudo halt. :D

Doll, und die erste quell die auch Pics geliefert hat sagte 449$ ...

Mal schaun was es wird ;)

Gast
2008-01-15, 15:57:54
Der G92 ist ein halbierter G90, und die Geforce 9800GTX basiert auf dem G90 und nicht G92.

AnarchX
2008-01-15, 15:59:19
Der G92 ist ein halbierter G90, und die Geforce 9800GTX basiert auf dem G90 und nicht G92.

Quelle dieser Einsicht? ;)

Gast
2008-01-15, 16:19:00
Dafür muss man kein Prophet sein.

laser114
2008-01-15, 16:20:14
Doch! Wieso sollte Nvidia einen G90 entwickeln, wenn das High-End eh die 9800 GX2 darstellt?

Die GTX kann prima auf dem G92 basieren (es braucht nur schnellen Speicher...)

Gast
2008-01-15, 16:40:04
Die Geforce 9800GX2 soll 450$ kosten und die schnellste Karte sein. Dann müsste die GTX bei ca. 399$ liegen. Die GX2 hat aber 256 Shader und der G92 nur 128. Ein ziemlicher Performance-Unterschied und das für 50$ Aufpreis, kann nicht sein. Wahrscheinlicher ist eine GTX mit 192 oder 256 Shader (G90).

Adam D.
2008-01-15, 16:53:15
Die GX2 hat 2x128 "Shader", was nicht 256 sind. Wenn die GX2 30-50% schneller als eine 8800 Ultra ist, dann dürfte ein hochgezüchteter G92 reichen, um sich zwischen Ultra und GX2 einzupendeln.

GeneralHanno
2008-01-15, 17:33:49
Ein solcher chip wäre aber verschwendung von R&D, da man als "high-end-zugpferd" ja sowieso die GX2 hat ...

Gast
2008-01-15, 19:09:37
Die Geforce 9800GX2 soll 450$ kosten und die schnellste Karte sein. Dann müsste die GTX bei ca. 399$ liegen. Die GX2 hat aber 256 Shader und der G92 nur 128. Ein ziemlicher Performance-Unterschied und das für 50$ Aufpreis, kann nicht sein. Wahrscheinlicher ist eine GTX mit 192 oder 256 Shader (G90).

Laber kein Kes, eine 9xxxGTX die mehr als 128SP hat wird es nicht geben, wenn es überhaupt eine neue GTX geben wird, ists ein hochgetakteter G92, je nachdem was man für "angebracht" sah in den vergangenen 6Monaten.
Wenn Ende des Jahres der dicke Brummer kommt werden sie wohl kaum jetzt sich nochmal die Marge versauen. Eine GX2 langt vollkommen und Marketingtechnisch AMD das Wasser zu reichen. Im Lowcost/Midrange Segment heist es nun Deals zu erlangen

Snoopy1978
2008-01-15, 19:56:20
Ich glaub auch das die GX2 das einzige High-End bis zum erscheinen des "dicken Brummers" bleiben wird.Extra noch Ressourcen auf eine spezielle 9800GTX Version zu verschwenden wäre unlogisch.Nvidia ist mit der 8800GT,der neuen GTS und der GX2 gut aufgestellt im High-End- Segment.

Gast
2008-01-15, 20:41:54
D.h dann für mich 2 Jahre 8900GTX *grummel*

GeneralHanno
2008-01-15, 22:27:56
hmmm die 8900GTX hätte ich auch gerne :D:tongue:

dargo
2008-01-15, 22:34:50
Laber kein Kes, eine 9xxxGTX die mehr als 128SP hat wird es nicht geben, wenn es überhaupt eine neue GTX geben wird, ists ein hochgetakteter G92, je nachdem was man für "angebracht" sah in den vergangenen 6Monaten.

Ich denke schon, dass da noch was @GTX kommen wird. Schließlich braucht man für Triple-SLI eine entsprechende Karte. Eine GT/GTS ist dafür ungeeignet. Oder will man tatsächlich die G8800GTX/Ultra bis zu Ende 2008 dafür verwenden? Wäre das für diesen Zeitraum für NV nicht ein wenig teuer?

Gast
2008-01-15, 22:37:29
Wieso? Ein alter Prozess wird doch sicher günstig Angeboten, der Preis der GTX wird ja weiterhin über 300€ liegen.

laser114
2008-01-15, 22:39:48
Ne, für Triple-SLI bietet sich die neue 9800 GTX (auf G92-Basis an). Die kommt dann wenn der G80 ausverkauft ist (und schnellerer Speicher zur Verfügung steht). ;)

dargo
2008-01-15, 22:58:26
Wieso? Ein alter Prozess wird doch sicher günstig Angeboten, der Preis der GTX wird ja weiterhin über 300€ liegen.
Was bei 90nm kaum profitabel ist. Zumindest nicht so wie bei 65nm.

Ailuros
2008-01-16, 05:50:07
Quelle dieser Einsicht? ;)

Lass Dich nicht irrefuehren; G92 dient als "all around"-Bruecke fuer Performance+High End zwischen G80 und GT200.

Die 9800GTX wird hoechstwahrscheinlich begrenzte Verfuegbarkeit haben und hohe Frequenzen. Mein einziges Fragezeichen ist der Speicher; das =/>1.5GHz Zeug kann nur GDDR4 sein. Es kann sein dass sich NV doch nur einmal und in begrenzten Mengen mit dem Zeug beschaeftigt.

Ailuros
2008-01-16, 05:52:48
Ich denke schon, dass da noch was @GTX kommen wird. Schließlich braucht man für Triple-SLI eine entsprechende Karte. Eine GT/GTS ist dafür ungeeignet. Oder will man tatsächlich die G8800GTX/Ultra bis zu Ende 2008 dafür verwenden? Wäre das für diesen Zeitraum für NV nicht ein wenig teuer?

NV laesst sich wohl Zeit mit dem Ding, weil man auch eine gesunde Anzahl an chips die sich hoch takten kann aussuchen muss. Das Ding basiert tatsaechlich auf G92.

Godmode
2008-01-16, 07:24:01
NV laesst sich wohl Zeit mit dem Ding, weil man auch eine gesunde Anzahl an chips die sich hoch takten kann aussuchen muss. Das Ding basiert tatsaechlich auf G92.

Und kommt dann mit der GX2, oder doch erst etwas später?

James Ryan
2008-01-16, 08:35:05
NV laesst sich wohl Zeit mit dem Ding, weil man auch eine gesunde Anzahl an chips die sich hoch takten kann aussuchen muss. Das Ding basiert tatsaechlich auf G92.

Das heißt, die Gf 9800 GTX kommt mit einem 256 Bit Speicherinterface und ganzen 16 ROPs? ;D Am besten dann noch 512 MB VRam!
Ich glaube, da ordere ich mir noch schnell eine Gf 8800 GTX solange es diese noch gibt, die dürfte gegen die 9800er garnicht so schlecht aussehen!

MfG :cool:

AnarchX
2008-01-16, 09:24:18
Noch ein paar High-Res-Bilder der 9800 GX2:
http://www.pcpop.com/doc/0/264/264200.shtml

SKYNET
2008-01-16, 10:00:19
allein die Neun im Namen 9800gx ist Bauernfang,weniger Informierte glauben dann sie bekommen eine Geforce 9.
Für jemanden der min ne GT hat, wäre der Umstieg großer Quatsch.Selbst Leute die was schwaches besitzen sollte lieber etwas länger warten.Sie würden sich nur Ende den Jahres schwarz ärgern,wenn dann echte Nachfolger kommen.


ende des jahres sind mal eben noch 10-11 monate... :rolleyes:

Snoopy1978
2008-01-16, 10:09:59
[QUOTE][/Das heißt, die Gf 9800 GTX kommt mit einem 256 Bit Speicherinterface und ganzen 16 ROPs? Am besten dann noch 512 MB VRam!
QUOTE]

Oder sie kommt zusätzlich mit ner Speicherverdoppelung auf 1000 Mibyte daher.Aber die einzige Daseinsberechtigung für ne neue Version der GTX wäre eigentlich nur um Tri-Way SLI zu unterstützen.:uponder: .Na wie auch immer,ich werfe jetzt mal die Behauptung in den Raum das die Leut von Nvidia wissen was sie tun.

Gast
2008-01-16, 10:21:08
Das heißt, die Gf 9800 GTX kommt mit einem 256 Bit Speicherinterface und ganzen 16 ROPs? ;D Am besten dann noch 512 MB VRam!
Ich glaube, da ordere ich mir noch schnell eine Gf 8800 GTX solange es diese noch gibt, die dürfte gegen die 9800er garnicht so schlecht aussehen!

MfG :cool:

Unsinn. Die 9800GTX wird mindestens 50 % schneller als die 8800GTX sein und DirectX 10.1 unterstützen und das für ca. 400 EUR. Der G92 ist der D9P. Für die 9800GTX wird der D9E (G90) verwendet mit 192 Shader und 512 Bit Speicherinterface. Was glaubst Du hat Nvidia das letzte Jahr gemacht? Mit dem kleineren Fertigungsprozess von 65nm können wesentlich mehr Transistoren auf dem Die untergebracht werden (angeblich > 1 Milliarde).

AnarchX
2008-01-16, 10:26:48
D9P ist G94, D9E ist weiterhin G92, warum sonst sollte man eine GX2 benötigen? ;)

Und was NV gemacht hat: viel Geld eingenommen mit einem geringen Aufwand an RnD um genügend Ressourcen für die D3D10.1-Generation, die mit dem Monster-Die "G200" startet, zu haben.

Gast
2008-01-16, 10:45:09
D9P ist G94, D9E ist weiterhin G92, warum sonst sollte man eine GX2 benötigen? ;)

Und was NV gemacht hat: viel Geld eingenommen mit einem geringen Aufwand an RnD um genügend Ressourcen für die D3D10.1-Generation, die mit dem Monster-Die "G200" startet, zu haben.

Falsch. Der G200 erscheint frühestens in 1 Jahr und wird dann DirectX 11 Unterstützung bieten. DirectX 10.1 wird jetzt benötigt und kommt mit der Geforce 9 Generation.

James Ryan
2008-01-16, 11:20:44
Unsinn. Die 9800GTX wird mindestens 50 % schneller als die 8800GTX sein und DirectX 10.1 unterstützen und das für ca. 400 EUR. Der G92 ist der D9P. Für die 9800GTX wird der D9E (G90) verwendet mit 192 Shader und 512 Bit Speicherinterface. Was glaubst Du hat Nvidia das letzte Jahr gemacht? Mit dem kleineren Fertigungsprozess von 65nm können wesentlich mehr Transistoren auf dem Die untergebracht werden (angeblich > 1 Milliarde).

Ich hoffe du hast Recht... allerdings siehts momentan eher nicht so aus!
D9E = G92 GX2
D9P = G92

MfG :cool:

Gast
2008-01-16, 11:27:24
Unsinn. Die 9800GTX wird mindestens 50 % schneller als die 8800GTX sein .

In Crysis,UT3 und in realer 1280er Auflösung 4xAA 8xAF...das will ich sehn.
Dieses 50% Gerede bezieht sich 100pro auf praxisfremde Auflösungen

dargo
2008-01-16, 11:30:14
Dieses 50% Gerede bezieht sich 100pro auf praxisfremde Auflösungen
Die beziehen sich höchstwahrscheinlich auf 100% GPU-Limit. Was anderes macht auch keinen Sinn. Oder testest du CPUs mit gpu-limitierten Szenen?

NV laesst sich wohl Zeit mit dem Ding, weil man auch eine gesunde Anzahl an chips die sich hoch takten kann aussuchen muss. Das Ding basiert tatsaechlich auf G92.
Was ist denn eigendlich aus der G9800GT geworden? Gabs davon auch mal ein Gerücht.