PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x


Seiten : 1 [2] 3 4

Gast
2007-05-26, 17:31:43
Könnte also so zB aussehen:

9800GTX: 96SPs x 3 (MADD+MUL) x 2Ghz = 576GFLOPs
Klingt als Lower-Highend garnicht mal so schlecht. Wahrscheinlich aber mit etwas niedriger Frequenz. (1,6-1,8)
Damit hätte man exakt den vorherigen HighendChip mit wesentlich niedrigeren Kosten erreicht.
Würde ich bei einem ordentliche Preis direkt kaufen.

9800GX2: 96SPs x 3 (MADD+MUL) x 1.6Ghz x2 Chips = 921GFLOPs = "close to 1TFLOP"
Klingt auch ganz gut.

Bisher hatte Nvidia aber noch einen Chip dazwischen.
Mindestens einen 128SP@ 1,8-2,0GHz kann man wohl schon noch erwarten.

Ailuros
2007-05-28, 11:59:09
Naja, warum heißt das Ding nicht G90 wie es in der Vergangenheit üblich was für das High-End-Modell?

G70 = 7800GTX
G71 = 7900GTX/7950GX2

Was genau war "ueblich" in der Vergangenheit? Natuerlich koennte man so was auch "G81" oder "G82" nennen, aber es gibt momentan ein absichtliches Verwirrungsspiel seitens NV mit den Codenamen. Afaik (ist aber keineswegs gesichert) duerfte G90 fuer den D3D10.1 chip reserviert sein.

Gmax
2007-05-31, 01:31:51
Wie sieht es mit der 8 Pin Stromversorgung aus, die man ja beim R6oo hat; wirds da was ähnliches geben?

Und wenn nein, hat der 8 Pin Stecker überhaupt eine Zukunft wenn Grakas weniger Strom brauchen sollten?

=Floi=
2007-05-31, 03:10:29
das pcb ist schon jetzt dafür ausgelegt
http://www.computerbase.de/bild/article/656/13/
also kann man davon ausgehen dass eine highend lösung den 8pin bekommt
ich hoffe spätestens aber beim G100 steigt NV endlich auf ein 512bit breites speicherinterface um oder sie bringen gleich 1,5gb karten

Nightspider
2007-05-31, 22:17:21
1,5GB dürften für den G92 machbar sein, allerdings nur für die absolute Spitze.
Valve meinte in einem Interview ja, dass man in Team Fortress 2 den 768 MB VRAM der G80 nutzen wolle. Wenn selbst Valve den VRAM vollbekommt, muss das schon etwas heißen. :rolleyes:
Wenn ich mir die Videos von Crysis anschaue kann ich mir aber kaum vorstellen, wo die ganzen Texturen etx. gespeichert werden sollen.

AnarchX
2007-05-31, 22:23:52
1,5GB dürften für den G92 machbar sein,
Bei einem 256Bit SI nicht wirklich wahrscheinlich.

Imo wird man den für Ende 2007 sinnvollen Schritt auf 1GB gehen und bei den professionellen Karten auf 2GB.

Dank GDDR4 kann man hohe Bandbreiten erreichen und gleichzeitig an Transistoren und PCB sparen.

Nightspider
2007-05-31, 22:43:04
Bei 1,5 GB dachte ich sowieso an 384 Bit SI. Zusammen mit GDDR4 wäre da wieder ein gutes Stuck mehr Bandbreite vorhanden.
512Bit SI und 1024 MB GDDR4 wäre aber genauso schön anzusehen.
Wollte Samsung nicht ab Mitte 2007 1,6 Ghz GDDR4 Chips herstellen ?
Samsung muss sich beeilen. GDDR5 kommt schon Anfang-Mitte 2008.

Anarchy-HWLUXX
2007-05-31, 23:25:57
GDDR5 kommt schon Anfang-Mitte 2008.

Na ja, zwischen kommen und brauchbar sein liegt ne menge zeit zwischen ... sieht man ja am GDDR4 ...

Ailuros
2007-05-31, 23:43:26
Sweeney also discusses DirectX 10. UT3 will indeed take advantage of DX10, "with multi-sampling being the biggest visible benefit." Sweeney adds, "with DX10 under Vista we have the possibility to use the video memory more efficently, to be able to display textures with a higher grade of detail . . . Most effects of UT3 are more bound to the fillrate than to basic features like geometry processing. That's why DX10 has a great impact on performance, while we mostly forgo the integration of new features."

http://forums.epicgames.com/showthread.php?t=571019

mapel110
2007-05-31, 23:48:17
Wenn man sich die UT-Reihe anschaut, konnten die Games immer nur mit sehr guten Texturen und mittelmäßiger Technik punkten. Bleibt also alles beim Alten bei dem Shooter.

Ailuros
2007-05-31, 23:59:18
Wenn man sich die UT-Reihe anschaut, konnten die Games immer nur mit sehr guten Texturen und mittelmäßiger Technik punkten. Bleibt also alles beim Alten bei dem Shooter.

- multi-threaded renderer (4+ threads)
- 16 Bit per componenent HDR-Pipeline
- runs on 64 Bit operating systems
- (confirmed) performance advantages through SLI (most likely Crossfire as well)
- post-processing effects (some examples): motion blur, depth-of-field blur, bloom
- deferred shading
- physics: Ageia PhysX engine
- 300 - 1.000 visible objects per scene
- huge scenes typically consist of 500.000 to 1.500.000 triangles
- normal maps and texture maps usually have a resolution of 2.048 x 2.048

Klingt mir nicht besonders nach "mittelmaessig". Das heisst zwar nicht dass das Resultat nicht besser sein koennte, aber es bleibt dann stets die Frage im Vergleich zu was genau. UT3 wird genauso ein reines D3D9.0 Spiel sein wie alles andere was in der naechsten Zeit auf die Regale kommt.

Gameplay mal zur Seite (obwohl es fuer mich als erstes in der Reihe steht) will ich hoffen dass Crysis als Gegenbeispiel nicht die gleichen "Macken" wie FC haben wird. Falls ja dann hat Epic wohl vielleicht doch eine vergleichsmaessig robuste und gut optimierte engine. Epic geht es ja mehr um Lizenzen als die eigenen Spiele am Ende.

Ganz nebenbei ging es hier um die Anspielung auf die Fuellraten ;)

mapel110
2007-06-01, 00:08:39
Ganz nebenbei ging es hier um die Anspielung auf die Fuellraten ;)
Wenn man einen MP-Shooter bringen will, dann sollte er auch auf einer breiten Basis gut aussehen, um erfolgreich zu werden. Und Texturfüllrate ist wohl das, wovon die meisten User "genug" haben. Wohl auch ein weiterer Grund, warum die UT-Reihe nie für Eye Candy bekannt war.

Aus G80-Sicht(Vielleicht auch G90-Sicht?!) gesehen, deutet es wohl auf schlechten Support (sei es Treiber oder Hardware) des Geometrie-Shaders hin. ;)
Über ATIs Performance in dem Bereich lässt das imo aber keine Rückschlüsse zu. Keine Hardware unter den Usern; Treiber allgemein schlecht bezüglich R600...

Ailuros
2007-06-01, 06:17:21
Wenn man einen MP-Shooter bringen will, dann sollte er auch auf einer breiten Basis gut aussehen, um erfolgreich zu werden. Und Texturfüllrate ist wohl das, wovon die meisten User "genug" haben. Wohl auch ein weiterer Grund, warum die UT-Reihe nie für Eye Candy bekannt war.

Etwas ist nie "genug" wenn es der limitierende Faktor sein koennte.

Inwiefern waren die vergangenen UT-Spiele nicht auf "eye-candy" bekannt im Vergleich zu allem anderen zur gleichen Zeit?

Aus G80-Sicht(Vielleicht auch G90-Sicht?!) gesehen, deutet es wohl auf schlechten Support (sei es Treiber oder Hardware) des Geometrie-Shaders hin. ;)

Was ich unter "G90" verstehe duerfte sowieso D3D10.1 kompliant sein, aber woher kommt jetzt schon wieder die Schlussfolgerung dass Sweeney auf irgendeine Art auf Geometrie-Shader deutete? Er sagte lediglich dass Fuellrate mehr auf die Pauke haut in dem Spiel als Geometrie und es wundert mich auch nicht wenn ich von deferred shadowing, 64bpp HDR und (?) motion blur lese.

Ein 2004 Interview von Sweeney und schon damals lag die UE3 ziemlich weit in der Entwicklung:

Our vertex shaders are quite simple nowadays, and just perform skeletal blending and linear interpolant setup on behalf of the pixel shaders. All of the heavy lifting is now on the pixel shader side -- all lighting is per-pixel, all shadowing is per-pixel, and all material effects are per-pixel.

Once you have the hardware power to do everything per-pixel, it becomes undesirable to implement rendering or lighting effects at the vertex level; such effects are tessellation-dependent and difficult to integrate seamlessly with pixel effects.

http://www.beyond3d.com/content/interviews/17/

...und das was er mit Tesselation hier meint hat nicht besonders viel mit einem D3D10 GS zu tun. UT3 war und ist ein D3D9.0 Spiel und als dieses muss es auch relativ anstaendig auf D3D9.0 GPUs laufen. Fuer das wurde es ausgelegt und nicht fuer D3D10 und das gilt genauso fuer jegliches andere Spiel der vorhersehbaren Zukunft.

We're using virtual displacement mapping on surfaces where large-scale tessellation is too costly to be practical as a way of increasing surface detail. Mostly, this means world geometry -- walls, floors, and other surfaces that tend to cover large areas with thousands of polygons, which would balloon up to millions of polygons with real displacement mapping. On the other hand, our in-game characters have enough polygons that we can build sufficient detail into the actual geometry that virtual displacement mapping is unnecessary. You would need to view a character's polygons from centimeters away to see the parallax.

http://www.beyond3d.com/content/interviews/17/2

Über ATIs Performance in dem Bereich lässt das imo aber keine Rückschlüsse zu. Keine Hardware unter den Usern; Treiber allgemein schlecht bezüglich R600...

Wenn die Fuellrate tatsaechlich wichtiger ist in dem Spiel, heisst es wohl eher dann dass eine R600 es um einiges schwerer haben wird wie in Crysis auf quasi Gleichstand zu kommen. Was hat ein nicht veroeffentlichtes Spiel mit dem was die User benutzen genau zu tun?

Aus reinem Zufall hab ich das Zeug auch nicht gepostet; was Du jetzt fuer Rueckschluesse ziehen willst ist eine andere Geschichte. Uebrigens der angebliche Mythos dass an allem nur die Treiber schuld sind fuer R600 darf jeder glauben. In der Zukunft kommt vielleicht die ganze Wahrheit zur Oeffentlichkeit und ich kann Dir nur sagen dass das Treiber-team nahezu "Wunder" liefert mit den heutigen Treibern.

Aber zurueck zu G9x und dergleichen und zum wahren Punkt: NV hat keinen Grund die Fuellraten in absehbarer Zukunft radikal zu reduzieren.

seahawk
2007-06-01, 06:53:13
deferred shading konnte dem R600 aber evtl. auch eher weniger leigen

mapel110
2007-06-01, 07:45:52
hm, hab wohl Geometrie und Vertex-Shader durcheinander geworfen?!

UT gehörte sicherlich aufgrund der Qualität der Umsetzung immer zu den besten Games auf dem Markt, aber eben die letzten neuen Effekte waren nie drin, wie das zum Beispiel bei FarCry der Fall war.

Absehbare Zukunft heißt konkret was?! Ich würde solch einen Schritt jedenfalls frühestens, wenn auch nur im Verhältnis zur restlichen Leistungsfähigkeit des Chips(d.h. immernoch mehr als Vorgängergeneration) für G100 oder noch später erwarten.
deferred shading konnte dem R600 aber evtl. auch eher weniger leigen
Bei Stalker siehts doch mit dem neuen Treiber mittlerweile auch recht gut aus. Wobei man da einen Vergleich mit den neuesten nvidia-Treibern abwarten sollte. Beide IHVs haben da wohl einen Flaschenhals elemeniert.

seahawk
2007-06-01, 08:08:50
Gut, aber ohne MSAA.

Gast
2007-06-01, 08:38:47
Uebrigens der angebliche Mythos dass an allem nur die Treiber schuld sind fuer R600 darf jeder glauben. In der Zukunft kommt vielleicht die ganze Wahrheit zur Oeffentlichkeit und ich kann Dir nur sagen dass das Treiber-team nahezu "Wunder" liefert mit den heutigen Treibern.


Was willst du damit sagen? Dass die Hardware im Arsch ist, und der Treiber das irgendwie korrigieren muss?

mapel110
2007-06-01, 10:22:46
Was willst du damit sagen? Dass die Hardware im Arsch ist, und der Treiber das irgendwie korrigieren muss?
Jup, das will er. Tut er auch schon seit Wochen. Nur bislang ist der R600 einfach zu frisch, als dass da irgendjemand ohne Hintergrundinfos daran glauben könnte. Beim NV40/G70 hats auch gedauert, bis eingesehen wurde, dass das Ding kein gutes AF mehr ala Geforce3/4/5 hardwaretechnisch kann und man hoffte auf einen Treiber. :ugly:

deekey777
2007-06-01, 10:44:13
Was willst du damit sagen? Dass die Hardware im Arsch ist, und der Treiber das irgendwie korrigieren muss?
Da gibt es mehrere Probleme, ua mit dem Speichercontroller, womit die Bandbreite nicht vollständig ausgenutzt wird und die 512 bit sich ins Nichts auflösen.

Gast
2007-06-01, 10:47:24
Da gibt es mehrere Probleme, ua mit dem Speichercontroller, womit die Bandbreite nicht vollständig ausgenutzt wird und die 512 bit sich ins Nichts auflösen.

Das ist purste Spekulation ohne Grundlage von nichtswissenden Nerds.

Nur weil irgendjemand meint, da stimme was nicht, heißt es noch lange nicht, das überhaupt auch nur ein einziger Dreckpartikel dran ist.

Ich bin mir sicher, das es zu 90 % am Treiber hängt... denn auch NVIDIA hat noch ein ungelöstes "VRAM Problem", nach knapp 7 Monaten immernoch nicht gelöst!

Gast
2007-06-01, 10:56:58
e. Beim NV40/G70 hats auch gedauert, bis eingesehen wurde, dass das Ding kein gutes AF mehr ala Geforce3/4/5 hardwaretechnisch kann und man hoffte auf einen Treiber. :ugly:


Also ich glaube immer noch, daß die Hardware das kann, man schaue sich dazu die AF-Blume in OpenGL unter High-Quality und unter High-Performance an. Treiber 158.27 auf 6600GT.

Gast
2007-06-01, 11:02:13
Bilder, ist beides 4xAF, die Form der Blume ändert sich nicht bei höheren AF-Stufen:

http://www.imgbox.de/?img=u3662g38.png

http://www.imgbox.de/?img=i36496o38.png

Ailuros
2007-06-01, 11:18:47
Jup, das will er. Tut er auch schon seit Wochen. Nur bislang ist der R600 einfach zu frisch, als dass da irgendjemand ohne Hintergrundinfos daran glauben könnte. Beim NV40/G70 hats auch gedauert, bis eingesehen wurde, dass das Ding kein gutes AF mehr ala Geforce3/4/5 hardwaretechnisch kann und man hoffte auf einen Treiber. :ugly:

Die ersten NV30 samples kamen zu 100% tot im ersten Stadium der Entwicklung von der FAB zurueck, waerend man auf R600 zumindest etwas Leben erahnen konnte durch das debugging interface.

Es bleiben hoechstwahrscheinlich immer noch threads in der pixel pipeline stecken hier und da und wenn das stimmen sollte verdient das Treiberteam eine aehnliche Medaille wie beim R200.

Genug aber mit dem OT; gut dass Du Dich an die AF/NV4x/G7x Sage erinnern kannst; mir wollte es auch damals keiner glauben dass man mit Absicht Transistoren gespart hatte.

Ailuros
2007-06-01, 11:25:46
Das ist purste Spekulation ohne Grundlage von nichtswissenden Nerds.

Nur weil irgendjemand meint, da stimme was nicht, heißt es noch lange nicht, das überhaupt auch nur ein einziger Dreckpartikel dran ist.

Ich bin mir sicher, das es zu 90 % am Treiber hängt... denn auch NVIDIA hat noch ein ungelöstes "VRAM Problem", nach knapp 7 Monaten immernoch nicht gelöst!

Fuer zu fette Aussagen gibt es neuerdings auch Besen fuer anonyme Gaeste. Bon apetit ;)

Gaestle
2007-06-01, 13:49:41
In der Zukunft kommt vielleicht die ganze Wahrheit zur Oeffentlichkeit ...

Kann R650 zur Aufklärung beitragen?

Ailuros
2007-06-01, 14:21:36
Kann R650 zur Aufklärung beitragen?

Hat NVIDIA bei der Veroeffentlichung des NV35 zugegeben dass sie mit dem NV30 Mist gebaut haben? Ich kann mich an eine ehrliche Zugabe seitens Jen-Hsun erst nach der Veroeffentlichung von NV40 erinnern.

Innerhalb einer Generation kann man nur so viel aendern wie es einem die Zeit und Unkosten erlauben. Das soll jetzt nicht heissen dass sich NVIDIA nicht bewusst ist dass sie es nicht leicht haben werden, aber die setzen schon wieder auf den naechsten Zyklus fuer H1 2008.

IMHLO waere es weiser von beiden IHVs wenn sie sich auf eine zeitige Veroeffentlichung von D3D10.1 GPUs setzen wuerden.

Coda
2007-06-01, 14:46:39
Hat NVIDIA bei der Veroeffentlichung des NV35 zugegeben dass sie mit dem NV30 Mist gebaut haben? Ich kann mich an eine ehrliche Zugabe seitens Jen-Hsun erst nach der Veroeffentlichung von NV40 erinnern.
Hast du davon noch nen Link? Würde mich mal interessieren ;)

seahawk
2007-06-01, 16:31:00
Aber sieht es nicht so aus als ob NV bereits auf DX10.1 setzt und die Zeit bsi dahin mit G92 / G92X2 überbrücken möchte.

AnarchX
2007-06-01, 16:35:29
Aber sieht es nicht so aus als ob NV bereits auf DX10.1 setzt und die Zeit bsi dahin mit G92 / G92X2 überbrücken möchte.

Naja, D3D10.1 HW ohne jegliche Software-Unterstützung wäre doch recht sinnfrei, zudem brauch es ja auch wieder neue Treiber(WDDM2.1).

Gaestle
2007-06-01, 16:42:15
Hat NVIDIA bei der Veroeffentlichung des NV35 zugegeben dass sie mit dem NV30 Mist gebaut haben? Ich kann mich an eine ehrliche Zugabe seitens Jen-Hsun erst nach der Veroeffentlichung von NV40 erinnern.


Wenn Du das meinst, was ich denke, dass Du meinst, dann vielen Dank für die Antwort.
;D


Völlig OT, und tschuldigung dafür im Voraus:

Wenn ich das recht verstanden habe, geht R600 featuremäßig über D3D10 hinaus und schon in Richtung D3D10.1.

Wenn man das als Skala sieht, neigt sich R600 eher Richtung D3D10 oder mehr Richtung D3D10.1 ?

D3D10 ...................... D3D10.1 => Wo steht R600 (bitte ein X machen ;D )

aths
2007-06-01, 17:00:30
Ich will zu den ersten zwei Punkten noch gar nichts sagen; den 64bit Quark koennt Ihr erleichtert vergessen. Ich bezweifle dass Entwickler was von dekorativen Features halten.Seit 2004 weiß ich dass NV 64-Bit-Rechenwerke anstrebt. Was ich nicht weiß ist, wie aufwändig es ist, eine FP32-ALU so zu erweitern, dass sie in mehreren Takten FP64-Operationen ausführt. Es könnte auch sein, dass die eigentlichen Rechenwerke überhaupt nicht überarbeitet werden sondern dass es nur zusätzliche Datentypen für die GPU gibt, die eine FP64-Emulation "per Software" erleichern.

Mit dem Argument, Double-Genauigkeit zu bieten, könnte NV die eine oder andere Karte an entsprechende Einrichtungen verkaufen.

Ailuros
2007-06-01, 19:25:15
Hast du davon noch nen Link? Würde mich mal interessieren ;)


http://www.beyond3d.com/content/interviews/7/

Wenn Du das meinst, was ich denke, dass Du meinst, dann vielen Dank für die Antwort.
;D


Völlig OT, und tschuldigung dafür im Voraus:

Wenn ich das recht verstanden habe, geht R600 featuremäßig über D3D10 hinaus und schon in Richtung D3D10.1.

Wenn man das als Skala sieht, neigt sich R600 eher Richtung D3D10 oder mehr Richtung D3D10.1 ?

D3D10 ...................... D3D10.1 => Wo steht R600 (bitte ein X machen ;D )


Wenn's um Geometrie bzw. Tesselation ausschliesslich gehen wuerde, waere R6x0 schon "D3D11-reif".

Aber sieht es nicht so aus als ob NV bereits auf DX10.1 setzt und die Zeit bsi dahin mit G92 / G92X2 überbrücken möchte.

Die Vorstellung habe ich auch momentan; im Gegensatz hab ich aber auch ernsthafte Zweifel dass AMD zu viele Resourcen in einen Refresh giessen wuerde und nicht zumindest versuchen R7x0 zeitgemaess auf den Markt zu bringen.

=Floi=
2007-06-10, 21:13:24
aber warum sollte man es jetzt schon rauslassen wenn der G92 10.1 fähig wäre?
bei der vorstellung bekommt man so viel mehr beachtung und erwischt ati uu wieder auf einem falschen fuß wie mit der USA

seahawk
2007-06-12, 12:09:34
http://forums.vr-zone.com/showthread.php?t=159721

AnarchX
2007-06-12, 12:14:39
http://forums.vr-zone.com/showthread.php?t=159721

15th of February 2007

:rolleyes:

dargo
2007-06-20, 16:41:14
Gibt es schon irgendwelche Informationen zum SI? 512Bit oder weiterhin 384Bit?
Bei 512Bit stellt sich mir halt die Frage wie man den Chip nach unten skalieren will. Beispiel:

G8900GTX mit 512Bit SI und 1GB Vram
G8900GTS mit 512Bit SI und 512MB Vram

Dann würde man bei der GTS was den Vram angeht einen Rückschritt machen. Oder wird man den Chip auf 384Bit mit 768MB Vram skalieren können?

PS: ich kann mir nämlich kaum vorstellen, dass es beim G9x schon eine GTS mit 1GB Vram geben sollte.

laser114
2007-06-20, 16:47:36
Dann würde man bei der GTS was den Vram angeht einen Rückschritt machen. Oder wird man den Chip auf 384Bit mit 768MB Vram skalieren können?

Das klingt bei der zur zeitigen Skalierbarkeit sinnvoll. :)

Nakai
2007-06-20, 16:54:33
G8900GTX mit 512Bit SI und 1GB Vram
G8900GTS mit 512Bit SI und 512MB Vram


Wieso kein freies SI?

G8900GTX mit 512Bit SI und 1GB Vram
G8900GTS mit 384Bit SI und 768MB Vram

mfg Nakai

€: Habs gerade selbst gesehen...

AnarchX
2007-06-20, 18:02:23
Imo wird es wohl eher so aussehen:

G92 Dual-Chip-Karte:
2x1GB(1024MBit Chips?) GDDR4 @2x256Bit
G92 Single-Chip-Karte:
1x512MB/1024MB GDDR4 @256Bit

Vorteil: gleiche oder höhere Bandbreite bei geringerer Chip- und PCB-Komplexität.

dargo
2007-06-20, 18:08:53
G92 Single-Chip-Karte:
1x512MB/1024MB GDDR4 @256Bit

Vorteil: gleiche oder höhere Bandbreite bei geringerer Chip- und PCB-Komplexität.
Hö? Jetzt verstehe ich gar nichts mehr. Man verringert das SI wieder? :|
Diese Karte hätte selbst mit 1,2Ghz GDDR4 "nur" 76,8GB/s an Bandbreite.

Nakai
2007-06-20, 18:33:58
Ich denke nicht, das das 384Bit SI vorerst berührt wird.

G92 Single-Chip-Karte:
1x768MB GDDR4 1,1Ghz GDDR4 @384Bit

Dem stimme ich zu:
G92 Dual-Chip-Karte:
2x1GB(1024MBit Chips?) GDDR4 @2x256Bit

mfg Nakai

Gast
2007-06-20, 18:57:22
Sagt mal ist es auch möglich das Nv eine Singlechip Karte mit knapp 1Tflop bringt?

z.B:
160 SPs x 3(Mul+Madd) @ 2,0GHz = marketingtechnische 960,0GFlops
das ganze dann mit 384er SI umd 768MB GDDR4

wieviel Platz bringt die Umstellung von 90nm auf 65nm?

Gast
2007-06-20, 19:10:02
Sagt mal ist es auch möglich das Nv eine Singlechip Karte mit knapp 1Tflop bringt?



damit sollte man eigentlich rechnen, dass die theoretische peakleistung zumindest 1TFLOP sein wird.

deekey777
2007-06-20, 19:12:27
Zähl mal die SFUs mit (alle vier Takte ein Flop).:biggrin:
nV hat in der Folie zum R600 nicht umsonst auf die SFUs verwiesen, das bringt 160/4*2 = 80 GFlop/s.

Nakai
2007-06-20, 19:24:55
nV hat in der Folie zum R600 nicht umsonst auf die SFUs verwiesen, das bringt 160/4*2 = 80 GFlop/s.

Wenn sie nur für normale Berechnungen benutzt werden könnten. Vll wird das NV früher oder später machen.

mfg Nakai

deekey777
2007-06-20, 19:41:22
Wenn sie nur für normale Berechnungen benutzt werden könnten. Vll wird das NV früher oder später machen.

mfg Nakai
Aber natürlich werden die SFUs beim G80 benutzt, nur eben alle vier Takte.

Der R600 kann jeden Takt eine SF ausführen und zwar durch die "fette" fünfte Einheit, aber diese kann dann keine anderen Instruktionen ausführen. Darum klammert sich AMD bei der Flop-Rechnung an MAD fest.

Hvoralek
2007-06-20, 19:52:49
wieviel Platz bringt die Umstellung von 90nm auf 65nm?Man sollte auf derselben Fläche knapp doppelt so viele Transistoren unterbringen können.

Gast
2007-06-20, 20:34:53
Aber natürlich werden die SFUs beim G80 benutzt, nur eben alle vier Takte.

Der R600 kann jeden Takt eine SF ausführen und zwar durch die "fette" fünfte Einheit, aber diese kann dann keine anderen Instruktionen ausführen. Darum klammert sich AMD bei der Flop-Rechnung an MAD fest.

das ist soweit korrekt, was die SFs angeht, davon hat NV im moment 128 die alle 4 takte ein ergebnis raushauen und ATI 64 die jeden takt ein ergebnis bringen.

wenn keine SF nötig ist kann die SFU bei ATI allerdings noch ein MAD und bei NV 1 MUL jeweils pro takt beisteuern.

Nakai
2007-06-20, 21:18:50
wenn keine SF nötig ist kann die SFU bei ATI allerdings noch ein MAD und bei NV 1 MUL jeweils pro takt beisteuern.

Das mit dem MUL ist mir neu.
Ich ging eher davon aus, dass der G80 nur 128 SFUs hat, die nur SFs bearbeiten können.

mfg Nakai

Gast
2007-06-20, 21:50:41
Das mit dem MUL ist mir neu.
Ich ging eher davon aus, dass der G80 nur 128 SFUs hat, die nur SFs bearbeiten können.


mit den ersten treibern hat es auch nicht funktioniert, mittlerweile aber schon.

robbitop
2007-06-20, 21:55:47
Das mit dem MUL ist mir neu.
Ich ging eher davon aus, dass der G80 nur 128 SFUs hat, die nur SFs bearbeiten können.

mfg Nakai
Vom verschwundenen MUL, was hier seit November im Forum rumkursierte hast du nichts mitbekommen? ;)

deekey777
2007-06-20, 21:59:22
mit den ersten treibern hat es auch nicht funktioniert, mittlerweile aber schon.
Jein. Es funktioniert schon, nur wird man den Code nie so "MUL-lastig" haben, dass diese zweite MUL-Eimheit auch 128 "MUL"-Flops pro Takt bringt:
http://www.beyond3d.com/content/reviews/7/17

AnarchX
2007-06-20, 22:58:43
As we look to G92, which has been stated to be close to 1 TFlop for single precision processing as well as being capable of double precision processing, we can say that double precision on G92 will be limited to the Tesla line. While this will surely disappoint some, the need for double precision processing on a consumer GPU is questionable at best, and NVIDIA sees this as an excellent way to differentiate the two product lines.
http://www.beyond3d.com/content/articles/77/3

AnarchX
2007-06-21, 19:03:06
These 1U units will support either 4 GPUs or 8 GPUs; the 8-core version will be using dual-GPU boards that are not yet available but will be soon.
NVIDIA Tesla High Performance Computing - GPUs Take a New Life @PC Perspective (http://www.pcper.com/article.php?aid=424&type=expert)

Gast
2007-06-21, 21:46:33
Jein. Es funktioniert schon, nur wird man den Code nie so "MUL-lastig" haben, dass diese zweite MUL-Eimheit auch 128 "MUL"-Flops pro Takt bringt:
http://www.beyond3d.com/content/reviews/7/17

das ist schon klar, nur gilt das natürlich auch für ATI, die können auch nicht immer alle einheiten auslasten, wobei es für den treiber deutlich schwerer sein dürfte für jeden kanal der Vec5-einheit eine unabhängige instruktion zu finden, als bei NV die "nur" 2 unabhängige instruktionen brauchen um die haupt-ALU und die SFU auszulasten.

Nakai
2007-06-21, 21:54:06
Vom verschwundenen MUL, was hier seit November im Forum rumkursierte hast du nichts mitbekommen?

Doch, aber das es wohl für die SFs benutzt wird, wär mir neu.

mfg Nakai

Ailuros
2007-06-21, 23:01:51
Doch, aber das es wohl für die SFs benutzt wird, wär mir neu.

mfg Nakai

NVIDIA states that the C870 has a peak performance of 518 GFlops. Careful readers might already realize the implications of this number: the missing MUL is apparently now available in CUDA, increasing theoretical peak performance by 50% over what was previously stated for the 8800 GTX in CUDA. However, the conditions necessary for the MUL in the SFU to be used are unknown, and we don't know whether or not the SFU MUL will ever be available in 3D applications.

http://www.beyond3d.com/content/articles/77

Nightspider
2007-06-21, 23:08:46
Wenn der G92 1 TeraFLOP haben soll und beim G80 518 GigaFLOPS angegeben werden, dann wird der G92 also rund doppelt so schnell bei doppelter Platz-Verfügbarkeit. Passt also.

Also nicht 3 mal so schnell wie der G80, wie anfangs vermutet.

=Floi=
2007-06-21, 23:13:08
wo hat jemand das 3 fache vermutet
alleine die doppelte rechenleistung wäre schon gigantisch

Nakai
2007-06-22, 17:03:45
http://www.beyond3d.com/content/articles/77

Danke, jetzt bin ich aufgeklärt.

mfg Nakai

AnarchX
2007-06-28, 17:18:20
[G92 is 65nm & 256-bit memory bus] (http://www.vr-zone.com/?i=5092)
We heard about an upcoming GPU from NVIDIA on 256-bit memory interface earlier this month and we thought it is the rumored 256-bit version of G84. Now we learned that it is actually the next generation G92, a 65nm performance part supporting PCI Express 2.0 and 256-bit memory interface. G92 performance lies between GeForce 8800 GTS and 8600 GTS so it is not the highest end GPU from the G9x series yet. There might be a G90 which we haven't heard about yet and NVIDIA gave clues that their next generation GPU will deliver close to 1 TFlops of performance in a recent analyst conference. G9x could support Double Precision FP too. Sampling will start in September and slated for launch in November timeframe.

Leistung unter einer 8800GTS, hat das VR-Zone aus der SI-Größe abgeleitet?

Ailuros
2007-06-28, 22:39:40
[G92 is 65nm & 256-bit memory bus] (http://www.vr-zone.com/?i=5092)


Leistung unter einer 8800GTS, hat das VR-Zone aus der SI-Größe abgeleitet?

Oder sie wissen schon was das Teil kosten wird ;)

Auf jeden Fall was Papier GFLOPs angeht: G92 ~= R600.

Zwar wird es wohl sehr wohl Faelle geben, wo das bisschen mehr Bandbreite und Speicher der 640/GTS ihr einen Vorteil geben koennten in hohen Aufloesungen gegenueber einer G92, aber mit solcher arithmetischer Kraft wuerde ich so ein Teil um einiges hoeher im Vergleich zu einer G84 einordnen.

ROPs = x2
Bandbreite = x2
GFLOPs = x3 (+)
TMUs = x1.5

AnarchX
2007-06-28, 22:55:13
Also sieht der aktuelle G92 nach:
16 ROPs, 24 TMUs/TAUs @ ~700MHz, 72SPs (24 pro Cluster?) @ ~2GHz+, 256Bit @ <1GHz

... aus? :|

Was ist denn aus dem 6 Cluster G92 geworden? Und dem G92 der 1 TFLOPs bringen soll?

Ailuros
2007-06-29, 05:48:06
Also sieht der aktuelle G92 nach:
16 ROPs, 24 TMUs/TAUs @ ~700MHz, 72SPs (24 pro Cluster?) @ ~2GHz+, 256Bit @ <1GHz

... aus? :|

Wieso 72? 6*16 = 96.

6 cluster mit 24/48 TMUs/TAUs, 16 ROPs (4*64bit)

Was ist denn aus dem 6 Cluster G92 geworden?

Siehe oben.

Und dem G92 der 1 TFLOPs bringen soll?


Uhmmm wie war nochmal die These mit einem GX2 Dingsbums? ;)

AnarchX
2007-06-29, 06:55:57
Dann war aber deine "TMUs = x1.5" nicht ganz korrekt. ;)

seahawk
2007-06-29, 07:09:33
Naja, da sollte AMD keine Probleme haben mit einerm gefixten R600 das High-End wieder zu dominieren. 256Bit sind oldfashioned in der Zeit von 512Bit.

AnarchX
2007-06-29, 07:11:24
Naja, da sollte AMD keine Probleme haben mit einerm gefixten R600 das High-End wieder zu dominieren.
Fragt sich nur ob solch einer auch noch kommt, momentan sieht es ja eher nach 2 x RV670 is.


256Bit sind oldfashioned in der Zeit von 512Bit.

2xG92 hätte auch ein effektives SI von 512Bit. ;)

robbitop
2007-06-29, 08:47:36
Wieso 72? 6*16 = 96.
Wird dabei das MUL der SFU wieder mitgezaehlt?

James Ryan
2007-06-29, 09:01:55
Also wird High-End in Zukunft bedeuten, dass einfach zwei Midrange-GPUs zu einer GX2 zusammen geklatscht werden? :|
Sorry, aber das finde ich persönlich suboptimal! Was ist denn, wenn SLI mal nicht richtig funzt? Ein G90 @ 65nm mit 160 SPs und 512 Bit Speicherinterface wäre mir 1000 Mal lieber als so ein GX2 Modell.

MfG :cool:

seahawk
2007-06-29, 09:08:47
Aus wirtschaftlichen Gesichtspunkten dürfte NV das anders sehen. Wobei ich sehnsüchtig auf G92 warte, die KArte würde mit (als Single-Chip) gut gefallen, da mit der Stromverbauch wichtig ist.

deekey777
2007-06-29, 11:56:31
Naja, da sollte AMD keine Probleme haben mit einerm gefixten R600 das High-End wieder zu dominieren. 256Bit sind oldfashioned in der Zeit von 512Bit.
Was für ein gefixter R600?

Gast
2007-06-29, 13:08:24
Der aus dem Traumland.

seahawk
2007-06-29, 13:13:09
Für Aussagen dazu ist es noch zu früh.

Nakai
2007-06-29, 13:18:59
Ahja...;)

Gibs auf, wenn einer kommt, dann wirds nur ein Die-Shrink mit einiges Fixes.

mfg Nakai

Gast
2007-06-29, 13:45:53
Was ist denn, wenn SLI mal nicht richtig funzt?:Das ist mir in fast 3 Jahren seit dem Wiederaufleben von SLI noch nie passiert (unter WinXP). Klar muss man ab und an ein wenig mit dem Nhancer rumfrickeln, aber spätestens dann läuft SLI recht ordentlich und bringt auch gute Ergebnisse.

dargo
2007-06-29, 19:10:29
G92 doch kein G80 Nachfolger?
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1183134554

AnarchX
2007-06-29, 19:14:47
G92 doch kein G80 Nachfolger?
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1183134554

Wird schon ab hier diskutiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5626004#post5626004
;)

Aber wie schon öfters erwähnt, Single-G92 wird wohl eher eine Performance-Karte sein, die sich zwischen 8800GTS und GTX einordnen könnte. HighEnd wird vorrausichtlich durch 2xG92 abgedeckt.

horn 12
2007-06-29, 19:42:00
Sprich der Gegner zur HD 2900XT, und dann wird wohl erst im Frühjahr der
G100 und R700 im Mai oder so kommen. Somit hat man ca. fast noch ein Jahr das beste was ATI / NV zu bieten hat mit 2900XT und GTX/ULTRA!

Ailuros
2007-06-29, 19:55:41
Naja, da sollte AMD keine Probleme haben mit einerm gefixten R600 das High-End wieder zu dominieren. 256Bit sind oldfashioned in der Zeit von 512Bit.

Schoen dann kommt (hoffentlich *hust*) im Herbst eine "altmodische" RV670 auf die Regale :biggrin:

Ein "gefixter R600"? Nein.

Ailuros
2007-06-29, 19:58:32
Dann war aber deine "TMUs = x1.5" nicht ganz korrekt. ;)

Hat G84 nun 16 TMUs oder nicht? Falls ja stimmt die Rechnung auch.

Ailuros
2007-06-29, 20:17:12
Also wird High-End in Zukunft bedeuten, dass einfach zwei Midrange-GPUs zu einer GX2 zusammen geklatscht werden? :|

Nicht unbedingt; nur ist es eben ein billiger und schneller Weg innerhalb kurzer Zeit etwas schnelleres auf den Markt zu bringen.

Sorry, aber das finde ich persönlich suboptimal! Was ist denn, wenn SLI mal nicht richtig funzt? Ein G90 @ 65nm mit 160 SPs und 512 Bit Speicherinterface wäre mir 1000 Mal lieber als so ein GX2 Modell.

Ich hab den Verdacht dass die yields momentan fuer einen so komplizierten chip absolut beschissen waeren. AMD rollt gerade erst ihre mainstream/budget 65nm GPUs aus und dabei schwitzen sie ziemlich erstmal Ihren OEM Vertraegen folgen zu koennen.

Gast
2007-06-29, 21:02:16
Sprich der Gegner zur HD 2900XT, und dann wird wohl erst im Frühjahr der
G100 und R700 im Mai oder so kommen.

naja, also wenn die prognose stimmt (G92 ~8800GTS) wäre es zumindest leistungsmäßig ein ganz guter gegner für die HD2900XT.

Gast
2007-06-29, 21:50:30
Das ist mir in fast 3 Jahren seit dem Wiederaufleben von SLI noch nie passiert (unter WinXP). Klar muss man ab und an ein wenig mit dem Nhancer rumfrickeln, aber spätestens dann läuft SLI recht ordentlich und bringt auch gute Ergebnisse.
Mit SuperSampling kann's komischerweise manchmal zu Problemen kommen, vor allem bei älteren Spielen.

Hvoralek
2007-06-30, 12:21:09
[... D]ann wird wohl erst im Frühjahr der
G100 und R700 im Mai oder so kommen. Somit hat man ca. fast noch ein Jahr das beste was ATI / NV zu bieten hat mit 2900XT und GTX/ULTRA!Es sei denn, es gibt Doppelchip- Varianten von G92 oder/und RV670. Die wären wohl schneller.

Adam D.
2007-06-30, 12:28:29
Es sei denn, es gibt Doppelchip- Varianten von G92 oder/und RV670. Die wären wohl schneller.
Dito. Aber ich kann mir immer noch nicht vorstellen, dass man einen 2xG92 massenmarktreif hinkriegt, trotz 65nm-Fertigung. Das wäre ja dann quasi das Aushängeschild und müsste irgendwie auch bei Stromverbrauch und Lautstärke punken ... Und das bei einem Doppeldecker?

Hvoralek
2007-06-30, 12:33:17
Dito. Aber ich kann mir immer noch nicht vorstellen, dass man einen 2xG92 massenmarktreif hinkriegt, trotz 65nm-Fertigung. Das wäre ja dann quasi das Aushängeschild und müsste irgendwie auch bei Stromverbrauch und Lautstärke punken ... Und das bei einem Doppeldecker?Der Stromverbrauch eines 3/4- G80 in 65nm sollte vergleichbar sein mit dem eines G70 in 90nm. Wenn man eine 7950 GX2 vernünftig gekühlt kriegt, sollte das mit dem Ding auch gehen.

dargo
2007-06-30, 12:38:53
Der Stromverbrauch eines 3/4- G80 in 65nm sollte vergleichbar sein mit dem eines G70 in 90nm.
Hmm, das würde auf der anderen Seite bedeuten, dass der G90 (2x) nicht doppelt so schnell ist wie ein G80.

Coda
2007-06-30, 13:05:36
Der Takt ist auch höher.

dargo
2007-06-30, 13:31:54
Der Takt ist auch höher.
Achso, dann meinte Hvoralek 3/4 nur in Bezug auf den Stromverbrauch. :)

AnarchX
2007-06-30, 13:41:10
Achso, dann meinte Hvoralek 3/4 nur in Bezug auf den Stromverbrauch. :)

Nein:
G80 -> 8 Cluster
G92 -> wahrscheinlich 6 Cluster -> 3/4 des G80
(Bei SI/ROPs sind es eigentlich nur 2/3, aber wer weiß was NV noch an den Einheiten so alles ändern wird.)

Und der Sprung von 90 auf 65nm sollte doch einiges an Potential für einen geringen Stromverbrauch bei gleichzeitig höheren Taktraten bringen.

dargo
2007-06-30, 13:46:48
Nein:
G80 -> 8 Cluster
G92 -> wahrscheinlich 6 Cluster -> 3/4 des G80
(Bei SI/ROPs sind es eigentlich nur 2/3, aber wer weiß was NV noch an den Einheiten so alles ändern wird.)

Und der Sprung von 90 auf 65nm sollte doch einiges an Potential für einen geringen Stromverbrauch bei gleichzeitig höheren Taktraten bringen.
Ok, danke. :)

Was ich nur schade finde ist, dass man den High-End G92 aus zwei GPUs realisieren möchte. Ich denke da an die Effizienz bei SLI die eigendlich nie 100% erreichen kann. :(

Coda
2007-06-30, 13:56:25
Bei AFR ist die Effizienz wirklich sehr nahe bei 100%. Und die Spiele für die man die Leistung braucht unterstützen SLI normal.

TobiWahnKenobi
2007-06-30, 13:57:40
meine erfahrung sagt, dass ich bei SLi mit ca. 70% rechnen kann. ich finde das OK.


(..)

mfg
tobi

Gast
2007-06-30, 13:57:58
es steht glaub ich nirgendwo dass nvidia dass tätsachlich aus 2 chips realisieren will, oder hat sich irgendein nvidia angestellter mal dazu geäußert? der codename könnte auch einfach nur zur verwirrung der konkurrenz gewählt worden sein ;)

Endorphine
2007-06-30, 14:08:23
Und der Sprung von 90 auf 65nm sollte doch einiges an Potential für einen geringen Stromverbrauch bei gleichzeitig höheren Taktraten bringen. Und hoffentlich wird auch wieder ein wirkungsvolles Power-Management eingebaut, was die GPU auch unter Aero-Glass Vista schlafen legt, was man beim G80 ja nicht hinbekommen hat.

AnarchX
2007-06-30, 14:55:15
Und hoffentlich wird auch wieder ein wirkungsvolles Power-Management eingebaut, was die GPU auch unter Aero-Glass Vista schlafen legt, was man beim G80 ja nicht hinbekommen hat.

Hybrid SLI. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=369095).. ;)

Imo wird man auf Grund dieser Technologie wohl bei NV nicht mehr viel Resourcen in das Power-Managment der HighEnd-GPUs investieren.

Gast
2007-06-30, 15:13:06
Und hoffentlich wird auch wieder ein wirkungsvolles Power-Management eingebaut, was die GPU auch unter Aero-Glass Vista schlafen legt, was man beim G80 ja nicht hinbekommen hat.
Bei High End GPUs ist der Stromverbrauch fast so gut egal, auch der im IDLE! Es sin immer die selben Leute die sich aufregen, nach dem Motto wenn der G80 weniger verbrauchen würde hätte ich einen. Auf die können nV und Amd im High End gut verzichten. Hört jemand, dass sich "Freaks" wie tombman, Blaire, CEO usw. beschweren? Die haben sogar 2 von denen drin. Der limitierende Faktor ist sowieso der Lastverbrauch wegen der Kühlung etc.. Der kann nicht beliebig erhöht werden und somit bleibt auch der Idle-Verbrauch im Rahmen. Und da hilft diese Hybrid-SLi-Lösung afaik auch nicht, würde den ganzen Spaß nur noch versteuern. Da müssten die Strompreise extrem anziehen, um das zu rechtfertigen.

AnarchX
2007-06-30, 15:19:07
es steht glaub ich nirgendwo dass nvidia dass tätsachlich aus 2 chips realisieren will, oder hat sich irgendein nvidia angestellter mal dazu geäußert? der codename könnte auch einfach nur zur verwirrung der konkurrenz gewählt worden sein ;)

Für Tesla soll auf jeden Fall eine Dual-Karte kommen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5604400#post5604400

Also warum auch nicht für die Enthusiasten@Desktop? ;)

Endorphine
2007-06-30, 23:34:13
Hybrid SLI. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=369095).. ;)

Imo wird man auf Grund dieser Technologie wohl bei NV nicht mehr viel Resourcen in das Power-Managment der HighEnd-GPUs investieren. Das ist aber leider recht proprietär und wird wohl mit Intel/AMD/VIA/SiS/etc.-Chipsätzen nicht funktionieren. Und die Chipsätze von nVidia konnten bis jetzt auch nicht gerade mit geringer Leistungsaufnahme punkten. Und auch sonst fällt mir außer SLI eigentlich kein Grund ein, nV-Chipsätze zu kaufen. Bei High End GPUs ist der Stromverbrauch fast so gut egal, auch der im IDLE! Der G92 (über den ich geschrieben habe) soll aber eine Performance-GPU werden, kein High-End. Und da würde ich es schon begrüßen, wenn die Leerlauf- und Desktop-Leistungsaufnahme möglichst niedrig liegt. Und es geht ja bei Power-Management auch nicht zwangsweise nur um Stromverbrauch, sondern auch um leise und trotzdem kühl laufende Rechner.

Gast
2007-07-01, 10:36:26
Und die Chipsätze von nVidia konnten bis jetzt auch nicht gerade mit geringer Leistungsaufnahme punkten.Die aktuellen IGPs sind eigentlich recht sparsam, kein Vergleich zu den High-End-Teilen.

Sonyfreak
2007-07-01, 12:41:19
Nach derzeitigem Erkenntnisstand kann man also davon ausgehen, dass auch ein kompletter G80 auch im Herbst noch die schnellste Singlechip-Grafiklösung darstellt.

Durch das 256bit Speicherinterface muss man wohl auch davon ausgehen, dass bei einer G92 GX2 2x1GB Grafikspeicher verbaut ist oder? Weil kein Highenduser wird von einer 768MB Karte, die bei manchen Anwendungen schon durchaus Vorteile bringen kann, wieder auf eine 512MB Karte umsteigen.

mfg.

Sonyfreak

Adam D.
2007-07-01, 12:45:07
2x1GB Speicher? Das ist wohl etwas überdimensioniert. Da wird dann halt mal aus 2x512MB 1GB und schon stimmt die Marketing-Klausel. Du hast natürlich schon recht, aber hälst du 2GB Speicher auf einer Grafikkarte für realistisch? ;)

Sonyfreak
2007-07-01, 13:01:28
Eigentlich halte ich das für ganz und gar nicht realistisch. Es ist ja auch nur eine wilde Spekulation von mir.

Nur denke ich eben, dass man im Highend Segment mit ner 512MB Grafikkarte - die noch dazu erst in ein paar Monaten rauskommt - nicht mehr viel reißen können wird. Und bei einer GX2 zählt ja wie bei allen SLI Varianten der Speicher auch nur einmal. Das heißt, dass man bei dem erwähnten 256bit Speicherinterface, eben 2x1GB verbauen müsste.

mfg.

Sonyfreak

Gast
2007-07-02, 10:43:46
Ich verstehe immer noch nicht wieso ihr davon ausgeht dass das high-end modell aus zwei chips mit SLI bestehen soll. Es ist zwar der spekulationsthread, aber trotzdem...
Dass so eine karte mit zwei prozessoren kommen könnte oder sogar wird, ist natürlich sehr gut möglich, aber dann eine ultra high-end karte mit zwei abgespeckten high-end chips - dass eine karte mit zwei mid-range chips den high-end darstellen soll erscheint mir mehr als unwarscheinlich. Ich glaube kaum dass nVidia nicht imstande ist einen neuen high-end chip zu entwickeln der besser ist als ein G80 sein soll. Man schaue sich den G70 an, welcher eine stark verbesserte NV40 ist; genau das kann nVidia mmn auch mit dem G90 relativ zum G80 machen (effizienz, takt, ausführungseinheiten steigern - je nachdem was möglich ist, vielleicht nur 2 von denen, vielleicht alle 3)

Coda
2007-07-02, 11:14:14
Es geht doch nicht darum ob sie es könnten, sondern ob es marktwirtschafftlich Sinn ergibt ;)

Und ich gehe davon aus, weil ich sehr viele Indizien habe die dafür sprechen.

Gast
2007-07-02, 13:08:57
Lohnt es sich denn jetzt noch eine G80 zu kaufen, wenn doch der Nachfolger schon in den Startlöchern steht ?

Habe aktuell nur Onboard VGA und würd mir gern ne neue Karte holen...da wart ich ja dann noch lieber auf ne G9x ?

AnarchX
2007-07-02, 13:10:01
Entweder brauchst du aktuell eine schnelle GraKa oder nicht. ;)

Gaestle
2007-07-02, 13:41:32
2x1GB Speicher? Das ist wohl etwas überdimensioniert. Da wird dann halt mal aus 2x512MB 1GB und schon stimmt die Marketing-Klausel. Du hast natürlich schon recht, aber hälst du 2GB Speicher auf einer Grafikkarte für realistisch? ;)

@All

Wie (un-)realistisch ist es, dass NV es schafft, die Texturen für beide Chips im Speicher zu lagern, ohne dass die Texturen doppelt im Speicher liegen (also nicht für jeden Chip einmal, sondern INSGESAMT nur einmal)? Dann wären ja trotz Dual-Chip-Lösung die (vermuteten) 1GB auch effektiv voll nutzbar.

robbitop
2007-07-02, 13:45:09
Das geht ueber SLI gar nicht.
Dafuer braeuchte man ja Zugriff auf den Memorycontroller des jeweils anderen Chips und dafuer braeuchte man Bussystem mit einer dreistelligen GiB/sek Anzahl zwischen Beiden Chips. Das waere teuer und zweitens bei einer so grossen raeumlichen Entfernung kaum machbar.

Texturredundanz hat aber auch ein Vorteil: Die Bandbreite skaliert besser mit. ;)

Gast
2007-07-02, 13:46:34
ich kann mir kaum vorstellen dass nvidias nächster highend-chip hardwarebmäßig schwächer als der G80 bestückt ist.

wenn, dann wird es eher wie bei G70 und G71 laufen, und nvidia bringt entgegen aller erwartungen "nur" einen hardwaremäßig gleich starken chip, der in sachen redundanz und stromverbrauch deutlich optimiert ist und höher taktet, und damit nur ein geringes update zu G80 darstellt. später kommt dann möglicherweise auf basis des neuen chips eine dualkarte mit reduzierten taktraten.

Gast
2007-07-02, 13:46:46
Ist halt die Frage :D

Ich bin Gelegenheitsspieler, habe aber einen WS TFT mit 1680er Auflösung...Zwickmühle... ;)

Welche geringere Auflösung wäre denn noch OK für den TFT (wegen Interpolierung).... 1280*1024 ?

James Ryan
2007-07-02, 13:48:12
Es geht doch nicht darum ob sie es könnten, sondern ob es marktwirtschafftlich Sinn ergibt ;)

Und ich gehe davon aus, weil ich sehr viele Indizien habe die dafür sprechen.

D.h. du glaubst eher an einen aufgemotzten G80 als nächstes High-End als an einen G92 mal zwei?

MfG :cool:

Gast
2007-07-02, 13:48:30
@All

Wie (un-)realistisch ist es, dass NV es schafft, die Texturen für beide Chips im Speicher zu lagern, ohne dass die Texturen doppelt im Speicher liegen (also nicht für jeden Chip einmal, sondern INSGESAMT nur einmal)?

extrem unrealistisch. man bräuchte dazu eine datenverbindung zwischen beiden GPUs, die an die 100GB/s liefern müsste um nicht den speicherbus zu limitieren.

ich glaube kaum dass sowas mit vertretbarem aufwand realisierbar ist, da ist es wohl billiger einfach den speicher doppelt zu verbauen.

Gast
2007-07-02, 13:49:32
Ich bin Gelegenheitsspieler, habe aber einen WS TFT mit 1680er Auflösung...Zwickmühle... ;)

Welche geringere Auflösung wäre denn noch OK für den TFT (wegen Interpolierung).... 1280*1024 ?Nein, ganz bestimmt kein 1280x1024. Du solltest auf jeden Fall eine Auflösung mit 16:10-Seitenverhältnis nutzen, sonst hast du ein Bild, das nicht nur interpoliert, sondern auch noch verzerrt ist.

Gast
2007-07-02, 13:51:44
D.h. du glaubst eher an einen aufgemotzten G80 als nächstes High-End als an einen G92 mal zwei?



eher schon. wobei das upgrade eventuell eher gering ausfällt, mit gleich viel hardwareeinheiten und höherem takt. sollte das nicht reichen könnte dann evtl. noch eine dualkarte zusätzlich kommen.

James Ryan
2007-07-02, 13:55:19
eher schon. wobei das upgrade eventuell eher gering ausfällt, mit gleich viel hardwareeinheiten und höherem takt. sollte das nicht reichen könnte dann evtl. noch eine dualkarte zusätzlich kommen.

Ich hoffe ja auf einen G80 mit 160 SPs und 512 Bit SI, nur die Frage ob das in 65nm machbar ist und wieviel Strom das wohl saugt.
Und es ist auch die Frage was ATi aus dem R6xx Design noch rausquetschen kann.
Einen nur im Takt erhöhten G80 @ 65m wäre IMO relativ enttäuschend.

MfG :cool:

Gast
2007-07-02, 14:01:46
Nein, ganz bestimmt kein 1280x1024. Du solltest auf jeden Fall eine Auflösung mit 16:10-Seitenverhältnis nutzen, sonst hast du ein Bild, das nicht nur interpoliert, sondern auch noch verzerrt ist.

ne kleinere 16:10 Auflösung gibts nicht, abgesehen von 320*200, oder ?
Bei 16:9 hätten wir noch 1280*720... passt das ?

Oder eben nativ 1680*1050...aber dann wirds teuer...

Gast
2007-07-02, 14:04:17
Ah 1280x800 und 1440x900 gäbe es da noch.... also brauche ich doch nicht soooo eine potente Graka...

seahawk
2007-07-02, 14:16:29
Ich hoffe ja auf einen G80 mit 160 SPs und 512 Bit SI, nur die Frage ob das in 65nm machbar ist und wieviel Strom das wohl saugt.
Und es ist auch die Frage was ATi aus dem R6xx Design noch rausquetschen kann.
Einen nur im Takt erhöhten G80 @ 65m wäre IMO relativ enttäuschend.

MfG :cool:

Die Frage ist eher ob sich der Aufwand für DX10 noch lohnt.

James Ryan
2007-07-02, 14:25:35
Die Frage ist eher ob sich der Aufwand für DX10 noch lohnt.

:|
Wus? DX10 ist doch gerade mal ein paar Monate halbwegs aktuell. Warum sollte sich das nicht mehr lohnen?

MfG :cool:

Gast
2007-07-02, 14:27:05
Ich hoffe ja auf einen G80 mit 160 SPs und 512 Bit SI, nur die Frage ob das in 65nm machbar ist und wieviel Strom das wohl saugt.


ich tippe eher auf weiter 8 cluster und 2000MHz+ shaderclock. füllrate hat das teil eh massenhaft, da braucht man den takt nicht viel zu erhöhen, vielleicht ~700MHz

Gast
2007-07-02, 14:27:58
:|
Wus? DX10 ist doch gerade mal ein paar Monate halbwegs aktuell. Warum sollte sich das nicht mehr lohnen?Verstehe ich auch nicht. D3D10 wird uns noch eine ganze Weile begleiten.

Coda
2007-07-02, 15:23:17
D.h. du glaubst eher an einen aufgemotzten G80 als nächstes High-End als an einen G92 mal zwei?

MfG :cool:
2xG92. G90 kommt wohl erst später.

James Ryan
2007-07-02, 15:27:24
ich tippe eher auf weiter 8 cluster und 2000MHz+ shaderclock. füllrate hat das teil eh massenhaft, da braucht man den takt nicht viel zu erhöhen, vielleicht ~700MHz

Das würde aber weiterhin 384 Bit Speicherinterface bedeuten, d.h. das Ding wird noch bandbreiten-limitierter. Auch eher suboptimal. :redface:

MfG :cool:

Coda
2007-07-02, 15:28:53
Wo ist G80 denn bandbreitenlimitiert? Ist er nicht.

Hvoralek
2007-07-02, 15:29:57
Es gibt ja auch noch GDDR4.

James Ryan
2007-07-02, 15:31:24
Wo ist G80 denn bandbreitenlimitiert? Ist er nicht.

Würde er noch mehr Füllrate bekommen, könnte die Bandbreite recht schnell zum begrenzenden Faktor werden.
Aber Hvoralek hat Recht, es gibt ja noch GDDR4. ;)

MfG :cool:

Gaestle
2007-07-02, 15:38:49
Das geht ueber SLI gar nicht.
Dafuer braeuchte man ja Zugriff auf den Memorycontroller des jeweils anderen Chips und dafuer braeuchte man Bussystem mit einer dreistelligen GiB/sek Anzahl zwischen Beiden Chips. Das waere teuer und zweitens bei einer so grossen raeumlichen Entfernung kaum machbar.

Texturredundanz hat aber auch ein Vorteil: Die Bandbreite skaliert besser mit. ;)
extrem unrealistisch. man bräuchte dazu eine datenverbindung zwischen beiden GPUs, die an die 100GB/s liefern müsste um nicht den speicherbus zu limitieren.

ich glaube kaum dass sowas mit vertretbarem aufwand realisierbar ist, da ist es wohl billiger einfach den speicher doppelt zu verbauen.

Und wieviel (oder wenig) Realität steckt in zwei Kernen auf einem Sockel (ähnlich Pentium D)? (Ich meine dieses "Pseudo-Dual-Core"-Zeugs, womit Intel das Multi-Core-Zeitalter eingeläutet hat)...

Gast
2007-07-02, 17:32:06
Und wieviel (oder wenig) Realität steckt in zwei Kernen auf einem Sockel (ähnlich Pentium D)? (Ich meine dieses "Pseudo-Dual-Core"-Zeugs, womit Intel das Multi-Core-Zeitalter eingeläutet hat)...

nunja, das problem ist mehr oder weniger das selbe, man bräuchte eine extrem breite verbindung zwischen den GPUs.

auch wenn das ganze sicher kostengünstiger ist als wenn man es über das PCB lösen würde, verschifft man auch nicht so einfach auf einem package 100GB/s.

Hvoralek
2007-07-02, 19:09:09
Und wieviel (oder wenig) Realität steckt in zwei Kernen auf einem Sockel (ähnlich Pentium D)? (Ich meine dieses "Pseudo-Dual-Core"-Zeugs, womit Intel das Multi-Core-Zeitalter eingeläutet hat)...Was soll es nützen, mehrere komplette GPUs auf einen Chip zu setzen? Vieles braucht man nicht mehrfach (Speichercontroller etwa), man müsste das ganze verbinden und die Anzahl der Ausführungseinheiten kann man auch so gut skalieren. Besser einen Chip mit 8 Clustern als einen mit 2x4, der insgesamt größer wäre, aber nicht schneller.

Gast
2007-07-02, 19:40:41
Was soll es nützen, mehrere komplette GPUs auf einen Chip zu setzen?

weniger ausschuss in der fertigung, der gleiche grund warum intel seine quad-cores mit 2 DIEs fertigt.

für GPUs allerdings kaum zu brauchen, da dort die einzelnen DIEs ja zusammenarbeiten müssen, während bei CPUs jeder Core mehr oder weniger für sich selbst arbeitet.

Gast
2007-07-02, 19:53:37
Es heißt ja, dass G98 wohl mit VP3 kommt.
Ich bin mal gespannt, was nVidia dort macht. Vielleicht kann nVidia seinen Qualitätsvorsprung in sachen Video-Hardware-Beschleunigung gegenüber AMD ausbauen.
Denn ATI hat es nicht in die Reihe bekommen in Sachen Qualität nVidia zu schlagen.
Es sind immer ein paar wenige Kleinigkeiten die nVidia besser ist. Ein Beispiel wäre die Einstellung von Noise Reduction. Denn nicht immer kann 100% Noise Reduction genutzt werden ohne Artefakte zu produzieren. Es hängt immer davon ab was die Peripherie kann.
ATI hat bestimmt auch einiges über Qualität nachgedacht aber die Feinheiten sind wohl verloren gegangen.

Nun haben sie wohl eine schnelle 3D-Graka im Mittelsektor als nVidia, aber mehr auch nicht. Die anderen großen Punkte liegen bei nVidia.

seahawk
2007-07-02, 20:02:49
:|
Wus? DX10 ist doch gerade mal ein paar Monate halbwegs aktuell. Warum sollte sich das nicht mehr lohnen?

MfG :cool:

Weil DX10.1 bestimmte Anforderungen stellt und wenn man zietlich passend den schnellsten DX10.1 Singelchip haben will, dann muss man beim DX10(.0) Chip aufpassen, dass er in der Rohleistung nicht zu nah an den DX10.1 kommt.

Hvoralek
2007-07-02, 21:05:11
weniger ausschuss in der fertigung, der gleiche grund warum intel seine quad-cores mit 2 DIEs fertigt.Ich dachte, es ginge um mehrere Kerne auf einem Die à la Smithfield.

Varianten mit merhreren Chips könnten für GPUs durchaus interessant sein, wenn man eine Lösung für die Datenübertragung findet. Ich gehe aber davon aus, dass dann nicht alle Chips identisch wären.

Gaestle
2007-07-03, 12:55:29
nunja, das problem ist mehr oder weniger das selbe, man bräuchte eine extrem breite verbindung zwischen den GPUs.

auch wenn das ganze sicher kostengünstiger ist als wenn man es über das PCB lösen würde, verschifft man auch nicht so einfach auf einem package 100GB/s.
Was soll es nützen, mehrere komplette GPUs auf einen Chip zu setzen? Vieles braucht man nicht mehrfach (Speichercontroller etwa), man müsste das ganze verbinden und die Anzahl der Ausführungseinheiten kann man auch so gut skalieren. Besser einen Chip mit 8 Clustern als einen mit 2x4, der insgesamt größer wäre, aber nicht schneller.
weniger ausschuss in der fertigung, der gleiche grund warum intel seine quad-cores mit 2 DIEs fertigt.

für GPUs allerdings kaum zu brauchen, da dort die einzelnen DIEs ja zusammenarbeiten müssen, während bei CPUs jeder Core mehr oder weniger für sich selbst arbeitet.



Danke allerseits! =)

.

Gast
2007-07-03, 17:46:18
Wenn die Hersteller auf 2 Chips oder 2 Kerne gehn,wird dann der Performancesprung ähnlich lahm sein wie bei den CPUs ?

AnarchX
2007-07-03, 18:04:02
Wenn die Hersteller auf 2 Chips oder 2 Kerne gehn,wird dann der Performancesprung ähnlich lahm sein wie bei den CPUs ?
Troll?
In den entsprechenden Apps waren DCs alles andere als lahm und bei 3D-Grafik ist nunmal alles ziemlich gut parallelisierbar, weshalb mehr als 2 Kerne auch noch einiges bringen (siehe SLI bzw. Q-SLI).

Gast
2007-07-03, 18:05:12
Wenn SLI funktioniert legt es schon einen saftigen Zahn zu. Wenn Multi GPU Rendering mal richtig in DX Spezifiziert und eingebaut wird, sollte die Treiberabhängigkeit / Profil pro Spiel geringer werden.
Glaube kaum das man einfach so 2xG84 nahe aneinander kleben kann um einen G80 zu simulieren.

Dann hätte man ja schon früher eine ROP Chip mit mehreren TMU Chips und etlichen SIs gehabt.

mapel110
2007-07-03, 18:12:14
Hängt ja nicht von der API-Spec ab, ob SLI mit AFR geht oder nicht, sondern die Entwickler müssen darauf Rücksicht nehmen.
Vielleicht überlegt sich nvidia (oder AMD) ja doch noch eine andere Technik für SLI bzw Dual-GPU.
Zweimal den selben Speicher verbauen ist schließlich auch nicht gerade effizient.

Gast
2007-07-03, 18:53:23
Tiling ;)
Aber genau darauf hatte ich mit meinem Post abgezielt, das eine API Unterstützung (wie auch immer die Ausfällt) es Multi GPUs vereinfacht in den Markt zu kommen.

Paul Brain
2007-07-03, 20:14:06
Wenn SLI funktioniert legt es schon einen saftigen Zahn zu. Wenn Multi GPU Rendering mal richtig in DX Spezifiziert und eingebaut wird, sollte die Treiberabhängigkeit / Profil pro Spiel geringer werden.
Glaube kaum das man einfach so 2xG84 nahe aneinander kleben kann um einen G80 zu simulieren.

Dann hätte man ja schon früher eine ROP Chip mit mehreren TMU Chips und etlichen SIs gehabt.
Hatte die Voodoo2 nicht diskrete Chips dafür?

Hvoralek
2007-07-03, 20:33:42
Hatte die Voodoo2 nicht diskrete Chips dafür?Die frühen Voodoos hatten mW alle einen Pixel- und einen oder mehrere Texelchips. Und wollte 3dfx nicht auch bei VSA200/ Thor mehrere unterschiedliche Chips verwenden?

Gast
2007-07-03, 21:05:15
Tiling ;)


das nützt auch nichts, es müssen trotzdem alle GPUs auf alle texturen zugreifen können.


Die frühen Voodoos hatten mW alle einen Pixel- und einen oder mehrere Texelchips. Und wollte 3dfx nicht auch bei VSA200/ Thor mehrere unterschiedliche Chips verwenden?

was soll ein pixel und ein texelchip sein?

Hvoralek
2007-07-03, 22:44:51
was soll ein pixel und ein texelchip sein?Chips mit ROPs bzw. mit TMUs.

Gast
2007-07-03, 22:54:28
Chips mit ROPs bzw. mit TMUs.

aha, davon ist mir nicht bekannt.

allerdings sollte der nachfolger für die voodoo5/6-serie auch ein multichip-design sein (wie ja auch schon V5 und V6), mit einem chip zur T&L-beschleunigung und mehreren zur pixelbeschleunigung.

aths
2007-07-04, 16:06:04
Hängt ja nicht von der API-Spec ab, ob SLI mit AFR geht oder nicht, sondern die Entwickler müssen darauf Rücksicht nehmen.
Vielleicht überlegt sich nvidia (oder AMD) ja doch noch eine andere Technik für SLI bzw Dual-GPU.
Zweimal den selben Speicher verbauen ist schließlich auch nicht gerade effizient.Aber noch "zulässig" aus meiner Sicht. Man hat zwei Grakas und (fast) die zweifache Geschwindigkeit. Dann noch den zweifachen Speicher nutzen können? So viele Wünsche auf einmal – das geht nun wirklich nicht.

mapel110
2007-07-04, 16:11:34
Man könnte doch den Speicher unterteilen und einen speziell für Texturen nehmen. Das macht ja wohl den Löwenanteil an Bedarf aus. Und dann müssten nurnoch beide GPUs auf diesen reinen Texturspeicher zugreifen können. Es müssen ja eh fast immer die gleichen Texturen drin sein im Speicher.
Geometrie und Framebuffer usw müssten dann natürlich wieder in einen Speicher, der für jede GPU einzeln vorhanden ist.
:uponder:

Gast
2007-07-04, 16:19:43
Man könnte doch den Speicher unterteilen und einen speziell für Texturen nehmen. Das macht ja wohl den Löwenanteil an Bedarf aus. Und dann müssten nurnoch beide GPUs auf diesen reinen Texturspeicher zugreifen können.Dann müssten aber beide Chips einen gemeinsamen Speichercontroller besitzen. Dann kann man es mit den zwei Chips auch gleich sein lassen und einen einzelnen "dickeren" Chip bauen.

Gast
2007-07-05, 19:15:43
3DLabs hat mit der Wildcat Realizm 800 vorgemacht wie's geht. Nun sind sie leider vom Markt verschwunden. :)

robbitop
2007-07-05, 20:01:13
3DLabs hat mit der Wildcat Realizm 800 vorgemacht wie's geht. Nun sind sie leider vom Markt verschwunden. :)
Nein denn die Effizienz des MultiGPU Konzeptes war extrem schlecht.

Gast
2007-07-05, 21:03:46
Nein denn die Effizienz des MultiGPU Konzeptes war extrem schlecht.
Zeig mal... Hast du dafür einen Beweis?

robbitop
2007-07-05, 21:19:57
Brauchst dir nur ein paar Reviews anzuschauen und die Skalierung zw einer GPU und mehreren anzuschauen.

dargo
2007-07-19, 00:04:43
Habe gerade gelesen, dass noch in diesem Quartal GDDR5 mit Taktraten von 1,6-2,5Ghz für den High-End Bereich erscheinen soll.
http://www.3dcenter.de/#2007-07-17
http://www.beyond3d.com/content/articles/87

Da stellt sich mir die Frage - wofür noch das SI verbreitern? Wenn wir die (fast) goldene Mitte von 2Ghz nehmen ergibt das folgende Möglichkeiten:

1. 512MB Vram mit 256Bit SI und 128GB/s.
2. 640MB Vram mit 320Bit SI und 160GB/s.
3. 768MB Vram mit 384Bit SI und 192GB/s. :eek:
4. 1024MB Vram mit 256Bit SI und 128GB/s.
5. 1280MB Vram mit 320Bit SI und 160GB/s.

Ich denke mal, NV wird in nächster Zeit kaum die 1,5GB Vram für den Desktop bringen. Deswegen der Vorschlag mit 1280MB. Oder wie seht ihr das?

PS: wer braucht da noch ein 512Bit breites SI? :tongue:

paul.muad.dib
2007-07-19, 10:03:23
The roadmap hints that mass production could be available by very early 2008, with 1Gib density chips appearing in Q2 using D-die production.

Nix dieses Quartal. Und es wird wohl kaum zu Anfang schon 2 Ghz zur Verfügung stehen.

dargo
2007-07-19, 11:11:35
Nix dieses Quartal. Und es wird wohl kaum zu Anfang schon 2 Ghz zur Verfügung stehen.
Zitat von 3DC:
Noch in diesem Quartal will man mit GDDR5 so weit sein, GDDR4 ablösen zu können, worauf dann im Mainstream-Bereich GDDR3 (Taktraten 700 bis 1200 MHz) und im HighEnd-Bereich GDDR5 Takraten (1600 bis 2500 MHz) angeboten würde.

Es wird sicherlich keine Auswirkung auf den G90 haben. Ich denke da schon eher in Richtung R700 und G90 Nachfolger. Und wenn 1,6Ghz die langsamste und 2,5Ghz die schnellste Variante ist sehe ich überhaupt kein Problem 2Ghz zu erreichen. Und selbst mit 1,6Ghz sehe ich ein 512Bit SI überflüßig, imho sogar für einen G100(?) und R700 Refresh.

AnarchX
2007-07-20, 17:36:10
[NVIDIA Next Gen. PCIe 2.0 GPU & MCP In Nov] (http://www.vr-zone.com/index.php?i=5127)
NVIDIA is also going to launch their next generation PCI Express 2.0 SLI chipsets for both Intel and AMD processors together with the next generation enthusiast GPUs known as G92 in November.[...]

Also wie oft schon vermutet also ein Jahr nach dem G80.

Das wird ein heißer Winter für die Enthusiasten mit G92 (Q)-SLI und Yorkfield... ;)

Gast
2007-07-20, 18:02:03
[NVIDIA Next Gen. PCIe 2.0 GPU & MCP In Nov] (http://www.vr-zone.com/index.php?i=5127)


Also wie oft schon vermutet also ein Jahr nach dem G80.

Das wird ein heißer Winter für die Enthusiasten mit G92 (Q)-SLI und Yorkfield... ;)
Wahrscheinlich wird's auch wieder ein sehr teurer Winter. :D

seahawk
2007-07-20, 18:41:57
Ob G92 wirklich Enthusiast ist ?

laser114
2007-07-20, 18:58:39
Ob G92 wirklich Enthusiast ist ?

Vermutlich 2x G92; G92 alleine sicher nicht, zum einem wegen der Namensgebung, zum anderen sprechen die techn. Details nicht dafür.

Ob noch ein reiner G90 kommt?

AnarchX
2007-07-20, 19:38:33
Vermutlich 2x G92; G92 alleine sicher nicht, zum einem wegen der Namensgebung, zum anderen sprechen die techn. Details nicht dafür.
Kommt ganz darauf an was nun der G92 ist, wenn es nun doch das 6 Cluster a 32SPs Monster ist, dann wäre er mit entsprechenden Taktraten sicherlich als Enthusiast einzustufen.


Ob noch ein reiner G90 kommt?
Bezweifele ich, aber vielleicht kommt er ja im Frühjahr 2008 mit dem Mainstream-GPUs, wobei aber hier auch ein 55nm Shrink des G92 denkbare wäre.

seahawk
2007-07-20, 19:44:32
Das ist halt die Frage. Sagen wir er liefert in der 250 Euro Version die Leistung der G80 GTX und in der schnellsten Singlechipvariante knapp über Ultra, dann wäre eine Duallösung sicher auch Ende 2007 High-End. (selbst mit reduzierten Takten) und auch die Einzelchips wären Enthusiast.

Ailuros
2007-07-20, 22:49:39
Das ist halt die Frage. Sagen wir er liefert in der 250 Euro Version die Leistung der G80 GTX und in der schnellsten Singlechipvariante knapp über Ultra, dann wäre eine Duallösung sicher auch Ende 2007 High-End. (selbst mit reduzierten Takten) und auch die Einzelchips wären Enthusiast.

Die 7900GT war etwa auf 7800GTX Nivaeu, aber nur weil die Anzeil der Einheiten auf beiden gleich blieb und die Taktrate der ersten leicht hoeher war.

Um eine hypothetische G92 mit 4 ROP Partitions/24 TMUs auf 8800GTX Nivaeu zu bekommen, braeuchte man ziemlich hohe Taktraten, ganz zu schweigen Ultra Nivaeu.

NVIDIA soll froh sein wenn sich das Ding in Leistung irgendwo zwischen der 8800GTS und 8800GTX bewegt bei dem Preis. Vor dem RV670 braucht sich das Ding sowieso nicht zu verstecken.

laser114
2007-07-20, 23:07:18
Das ist halt die Frage. Sagen wir er liefert in der 250 Euro Version die Leistung der G80 GTX und in der schnellsten Singlechipvariante knapp über Ultra, dann wäre eine Duallösung sicher auch Ende 2007 High-End. (selbst mit reduzierten Takten) und auch die Einzelchips wären Enthusiast.

Ich spekuliere beim G92 auf ungefähr einen halben G80 mit - dank 65nm - aber deutlich höheren Taktraten. Aber auf 8800-GTX-Niveau würde man so nicht kommen.

Wie gesagt - meine reine private Spekulation.

Coda
2007-07-21, 05:23:36
Nicht halb. Sehr wahrscheinlich 6 Cluster und 256er SI.

=Floi=
2007-07-21, 05:29:43
G90 ist interesannt und nich der popelige G92 mit irgendwelchen halben chips...

Hvoralek
2007-07-21, 09:05:58
Um eine hypothetische G92 mit 4 ROP Partitions/24 TMUs auf 8800GTX Nivaeu zu bekommen, braeuchte man ziemlich hohe Taktraten, ganz zu schweigen Ultra Nivaeu.Um bei sechs Clustern auf die Rohleistung von der acht einer GTX zu kommen, bräuchte man wohl knapp 800 MHz (und etwas weniger bei 6x8 TAs) bzw. 1800 in den Shadern. Das könnte bei einem weniger komplexen Chip in 65 nm gut machbar sein. Und zumindest eine Shaderleistung von dem Kaliber bräuchte man, um bei der GX2 auf 1 TFLOPS zu kommen.

G90 ist interesannt und nich der popelige G92 mit irgendwelchen halben chips...Die 7900 GX2 war wohl auch völliger Müll mit irgendwelchen heruntergetakteten Chips? Solange die Leistung stimmt, ist das doch völlig egal.

deekey777
2007-07-21, 11:49:40
G90 ist interesannt und nich der popelige G92 mit irgendwelchen halben chips...
Wer sagt, dass es einen G90 geben wird. Besser gesagt: Warum soll es wieder einen Monster-Chip mit über 700 (oder gar 800) Mio Transistoren geben, wenn man das Ultrahighend-Segment einfach mit zwei vermeintlichen G92 (mit je 256-bit-SI, 6 Shaderclustern) perfekt abdecken kann?

Um eine hypothetische G92 mit 4 ROP Partitions/24 TMUs auf 8800GTX Nivaeu zu bekommen, braeuchte man ziemlich hohe Taktraten, ganz zu schweigen Ultra Nivaeu.

Wir machen es so, wie Herr es schon Noah gesagt hat: Wir nehmen zwei G92.

Nightspider
2007-07-21, 11:53:41
Bloß wo liegt der Vorteil ?

-Mehr Stromverbrauch ?

-DualKarte à GX2 kostet mehr

-man muss doppelt soviel Speicher verbauen, damit man die gleiche Menge hat wie mit Single-Chip-Karte

-Effektivität ist gering, sieht man ja an vielen aktuellen Spielen, die mit SLI kaum zulegen bzw. Probleme machen...

:confused:

Konami
2007-07-21, 12:09:43
Ganz einfach: Es ist leichter zu produzieren und billiger. Vor allem in der Entwicklung, weil man mit einem einzigen GPU-Typen gleich Mainstream, High-End und Enthusiast abdecken kann.
Ich glaub trotzdem, dass noch ein G90 kommen wird, aber erst später (D3D10.1 und so).

dargo
2007-07-21, 12:21:26
Ganz einfach: Es ist leichter zu produzieren und billiger. Vor allem in der Entwicklung, weil man mit einem einzigen GPU-Typen gleich Mainstream, High-End und Enthusiast abdecken kann.
Ich glaub trotzdem, dass noch ein G90 kommen wird, aber erst später (D3D10.1 und so).
Ich sehe bei der "Doppel-Karte" aber ein Problem. Nämlich den Preis!

Wie schon Nightspider gesagt hat braucht man die doppelte Anzahl von Speicherchips und zwei PCBs, sollte es auf eine G9xx0GX2 hinauslaufen. Hinzu kommt noch, dass man kaum eine Skalierung von 100% erreicht. Ich glaube wir werden mit dieser GPU kein Verhältnis mehr wie jetzt bei der G8800GTS/GTX sehen, nämlich ~50% höherer Preis für ~50% mehr Leistung.

Vom Idle Stromverbrauch will ich erst garnicht reden. Es sei denn, NV findet einen Weg ein PCB/ eine GPU komplett in Idle abzuschalten (was ich nicht glaube).

Paul Brain
2007-07-21, 13:28:35
Vom Idle Stromverbrauch will ich erst garnicht reden. Es sei denn, NV findet einen Weg ein PCB/ eine GPU komplett in Idle abzuschalten (was ich nicht glaube).Hybrid-SLi...

Mir würd so eine Karte auch nicht taugen: Erstens ist keine Single-Slot-Lösung realisierbar (Stichwort: wassergekühlte G80 Ultra), zweitens wird eine deratige Doppel-Karte sicher deutlich lauter sein als das non-SLi-Pendant, da für die Kühlung einfach weniger Platz zur Verfügung steht (zwei Chips mit jeweils Single-Slot-Kühlung vs. ein Chip mit Dual-Slot-Kühlung).
Nicht zu vergessen natürlich das ganze Gequirks mit dem teilweise zickigen SLi.
Falls der G92 aber hübsch wenig Strom verbrauchen und deutlich schneller als meine 7900GTX sein sollte, könnt ich mir die Single-Karte aber durchaus als letzte Aufrüstung für meinen Rechner vorstellen... Sofern es Wasserkomplettkühler dafür geben wird... :)

dargo
2007-07-21, 13:34:47
Hybrid-SLi...

Für viele kein Thema, da Mainboardwechsel nötig.

laser114
2007-07-21, 13:45:56
Nicht halb. Sehr wahrscheinlich 6 Cluster und 256er SI.

256er SI wird wohl stimmen. Ob es 6 Cluster werden, da bin ich mir noch nicht sicher. Ich kann mir wie gesagt sogar nur 4 vorstellen, dann aber mit relativ hohen Taktraten. Aber naja, das wird die Zeit zeigen - 6 sind natürlich auch möglich.

Ich sehe bei der "Doppel-Karte" aber ein Problem. Nämlich den Preis! [...]

Ich befürchte, dass ist NVIDIA so lange egal, wie sich die Konkurrenz auch nichts besseres ausdenkt. Außerdem kann man den Chip vielleicht deutlich preisgünstiger herstellen, was einen Teil des Mehraufwandes für das PCB relativiert. Außerdem fallen natürlich Entwicklungskosten weg.

AnarchX
2007-07-21, 14:32:44
256er SI wird wohl stimmen. Ob es 6 Cluster werden, da bin ich mir noch nicht sicher. Ich kann mir wie gesagt sogar nur 4 vorstellen, dann aber mit relativ hohen Taktraten. Aber naja, das wird die Zeit zeigen - 6 sind natürlich auch möglich.


Immernoch an die TESLA-Dual-GPU-Karte (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5604400#post5604400)n denken, die auch für Ende des Jahres angekündigt wurden, da wäre ein 4 Cluster G92 eher ziemlich sinnlos(ausser halt je 32SPs) ;)

seahawk
2007-07-21, 15:39:47
Die 7900GT war etwa auf 7800GTX Nivaeu, aber nur weil die Anzeil der Einheiten auf beiden gleich blieb und die Taktrate der ersten leicht hoeher war.

Um eine hypothetische G92 mit 4 ROP Partitions/24 TMUs auf 8800GTX Nivaeu zu bekommen, braeuchte man ziemlich hohe Taktraten, ganz zu schweigen Ultra Nivaeu.

NVIDIA soll froh sein wenn sich das Ding in Leistung irgendwo zwischen der 8800GTS und 8800GTX bewegt bei dem Preis. Vor dem RV670 braucht sich das Ding sowieso nicht zu verstecken.

Ich gehe eher von 6 ROPs aus. damit könnte man evtl. mit entsprechenden Taktungen an eine GTX rankommen.

laser114
2007-07-21, 15:45:39
Immernoch an die TESLA-Dual-GPU-Karte (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5604400#post5604400)n denken, die auch für Ende des Jahres angekündigt wurden, da wäre ein 4 Cluster G92 eher ziemlich sinnlos(ausser halt je 32SPs) ;)

Auch wieder wahr. Wobei man mit 6 Clustern wohl über die 8800 GTS kommt, widerspricht zwar einem anderen Gerücht - aber die Leistungsfähigkeit wird wohl nicht zu früh posaunt.

AnarchX
2007-07-21, 15:49:11
Auch wieder wahr. Wobei man mit 6 Clustern wohl über die 8800 GTS kommt, widerspricht zwar einem anderen Gerücht - aber die Leistungsfähigkeit wird wohl nicht zu früh posaunt.

Ein kastrierter(4 Cluster) G92 würde sich sicherlich auch gut positionieren lassen. ;)

Coda
2007-07-21, 16:17:48
Auch wieder wahr. Wobei man mit 6 Clustern wohl über die 8800 GTS kommt, widerspricht zwar einem anderen Gerücht - aber die Leistungsfähigkeit wird wohl nicht zu früh posaunt.
Wurde schon mit 1TFlop/s angekündigt. Also G92 ~ G80 GTX von der Shaderleistung. Da bleiben eigentlich nur 6 Cluster übrig, mit 4en wär der nötige Shadertakt viel zu hoch.

Hvoralek
2007-07-21, 16:31:12
Ich gehe eher von 6 ROPs aus. damit könnte man evtl. mit entsprechenden Taktungen an eine GTX rankommen.4 ROP- Blöcke mit höherem Takt und GDDR4 sollten dafür auch reichen.

=Floi=
2007-07-23, 00:41:07
weil es im highend keinen sinn macht und restlichen gründe hat ja schon der vorredner beschrieben

1 chip ist war und bleibt auch die nächste zeit besser
ich könnte mir höchstens soetwas wie einen duacl core vorstellen wo einfach der chip nicht geteilt wird und somit auch die nachteile wegfallen

auch macht es in 65nm wieder weniger probleme wie jetzt mit den 90nm und sonst hätte man ja den g80 erst garnicht bringen brauchen
G90 wird wohl "nur" 700-768 gflop haben und deshalb wird es eben einen nachfolger der GX2 geben wo eben "eine karte" 1tflop erreicht

Hvoralek
2007-07-23, 09:49:10
weil es im highend keinen sinn macht und restlichen gründe hat ja schon der vorredner beschriebenWorauf beziehst Du Dich jetzt? Vier ROP- Blöcke mit GDDR4?

1 chip ist war und bleibt auch die nächste zeit besserDie 7900GX war doch anscheinend ganz brauchbar. Eine Begründung, warum eine G92 GX2 so großer Mist sein soll, wäre jedenfalls mal nett.

ich könnte mir höchstens soetwas wie einen duacl core vorstellen wo einfach der chip nicht geteilt wird und somit auch die nachteile wegfallenMeinst Du, man solle mehrere komplette GPUs auf ein Die setzen? Das wäre völliger Unsinn, da könnte man wirklich besser einen großen Chip mit mehr Ausführungseinheiten bauen, statt alles mehrfach auszulegen; wäre genau so schnell, aber kleiner.

Der_Korken
2007-07-23, 12:12:18
Die 7900GX war doch anscheinend ganz brauchbar. Eine Begründung, warum eine G92 GX2 so großer Mist sein soll, wäre jedenfalls mal nett.


Die GX2 hatte den nachteil, dass dort sehr viel VRAM verschwendet wurde. Durch SLI (und eine GX war nie was anderes) kann nun mal nur jeder Chip seinen eigenen Speicher benutzen, da die Bandbreite zum jeweils anderen Chip viel zu klein ist. Bei ner GX mit 1024 MB blieben effektiv meist nur 512MB übrig, da viels doppelt gespeichert werden musste. Wenn man die GX2 im SLI betreibt wird es sogar noch schlimmer, da müssen viele Sachen vierfach gespeichert werden.

Grestorn
2007-07-23, 13:18:28
Die GX2 hatte den nachteil, dass dort sehr viel VRAM verschwendet wurde. Durch SLI (und eine GX war nie was anderes) kann nun mal nur jeder Chip seinen eigenen Speicher benutzen, da die Bandbreite zum jeweils anderen Chip viel zu klein ist. Bei ner GX mit 1024 MB blieben effektiv meist nur 512MB übrig, da viels doppelt gespeichert werden musste. Wenn man die GX2 im SLI betreibt wird es sogar noch schlimmer, da müssen viele Sachen vierfach gespeichert werden.

Quark. Bei einer GX2 mit 1 GB waren immer genau 512 MB nutzbar, ganz egal ob SLI an ist oder nicht. Vierfach gespeichert wurde nie.

Paul Brain
2007-07-23, 13:19:29
Quark. Bei einer GX2 mit 1 GB waren immer genau 512 MB nutzbar, ganz egal ob SLI an ist oder nicht. Vierfach gespeichert wurde nie.
Ich denke er meinte Quad-SLi mit zwei GX2en.

Gaestle
2007-07-23, 13:21:45
Die GX2 hatte den nachteil, dass dort sehr viel VRAM verschwendet wurde. Durch SLI (und eine GX war nie was anderes) kann nun mal nur jeder Chip seinen eigenen Speicher benutzen, da die Bandbreite zum jeweils anderen Chip viel zu klein ist. Bei ner GX mit 1024 MB blieben effektiv meist nur 512MB übrig, da viels doppelt gespeichert werden musste. Wenn man die GX2 im SLI betreibt wird es sogar noch schlimmer, da müssen viele Sachen vierfach gespeichert werden.

weil es im highend keinen sinn macht und restlichen gründe hat ja schon der vorredner beschrieben

1 chip ist war und bleibt auch die nächste zeit besser

Aber was ist für ein Unternehmen besser: eine geringere Marge bei einem Produkt, welches nur in geringen Stückzahlen verkauft wird, ohne das großartig Entwicklungskosten anfallen, oder höherer Margen (pro Stück), aber dafür auch Entwicklungskosten für Chip-Weiterentwicklung und Tape-Outs?

Ich vermute, die DUAL-Lösung wird einfach billiger für NV sein, trotz RAM-Verschwendung und komplexerem PCB.

AnarchX
2007-07-23, 13:26:17
Ich vermute, die DUAL-Lösung wird einfach billiger für NV sein, trotz RAM-Verschwendung und komplexerem PCB.

Wenn es wieder eine Dual-PCB-Karte wird, dann ist die Komplexität entsprechend geringer als bei einem >256Bit PCB.

Insgesamt überwiegen eigentlich die Vorteile der Dualkarte, weshalb ATi wohl in naher Zukunft einen ähnlichen Weg gehen wird.

Hvoralek
2007-07-23, 13:29:52
Ich vermute, die DUAL-Lösung wird einfach billiger für NV sein, trotz RAM-Verschwendung und komplexerem PCB.Das kommt auf den Einzelall an. Bei der 7900GX2 war es wohl rentabler als ein 8- Quad- G7x. Und wenn Nvidia mt einer G92- GX2- Karte ankommt, wird wohl auch das rentabler sein als eine Karte mit einem einzelnen großen Chip. Um das wirklich zu beurteilen, fehlen uns hier aber die Daten.

Ailuros
2007-07-24, 23:07:57
Ich gehe eher von 6 ROPs aus. damit könnte man evtl. mit entsprechenden Taktungen an eine GTX rankommen.

Kommt drauf an was Du gerade mit "ROPs" meinst. Die GTX hat 6 ROP partitions. Wenn G92 tatsaechlich nur 6 cluster hat, machen nur 4 ROP partitions eigentlich Sinn.

Ailuros
2007-07-24, 23:16:55
Das kommt auf den Einzelall an. Bei der 7900GX2 war es wohl rentabler als ein 8- Quad- G7x. Und wenn Nvidia mt einer G92- GX2- Karte ankommt, wird wohl auch das rentabler sein als eine Karte mit einem einzelnen großen Chip. Um das wirklich zu beurteilen, fehlen uns hier aber die Daten.

Im Vergleich zu einer single chip Loesung die in etwa die gleiche Leistung bieten sollte, hat die hypothetische "GX2" zwar ein kompliziertes PCB, dafuer ist aber ein schaetzungsweise =/<250mm^2 chip um einiges billiger herzustellen.

Das mit dem Speicher ist auch eine Sache fuer sich; eine single chip Loesung koennte entweder "nur" 768MB oder 1.5GB Speicher haben. Zwischen "zu wenig" und "zu viel" liegt eben 1GB rein zufaellig in der Mitte, egal ob eine dual-chip Loesung pro Frame unter SLi immer nur 512MB benutzen kann.

seahawk
2007-07-25, 07:06:30
Kommt drauf an was Du gerade mit "ROPs" meinst. Die GTX hat 6 ROP partitions. Wenn G92 tatsaechlich nur 6 cluster hat, machen nur 4 ROP partitions eigentlich Sinn.

Da hast Du Recht. ICh frage mich halt ob NV damit leben kann Singlechipkarten nur in einer lEsitung unterhalb der heutigen Topmodelle anzubieten und den Rest mit diversen Taktungen an Dulaläsungen zu bedienen, oder ob man G80 noch länger am Leben läst.

James Ryan
2007-07-25, 08:57:14
Die 7900GX2 war doch anscheinend ganz brauchbar. Eine Begründung, warum eine G92 GX2 so großer Mist sein soll, wäre jedenfalls mal nett.


Es gibt immer noch genügend Spiele, wo SLI nur schlecht funktioniert, vor allem unter Vista! Solange SLI so bleibt, ist eine GX2 als High-End Modell eigentlich Unsinn.
Wenn ATi aber in die gleiche Kerbe schlägt sieht es nicht gut aus, da ich persönlich immer eine schnelle Singlekarte einer Dualkarte vorziehen werde.

MfG :cool:

deekey777
2007-07-25, 13:06:50
Bevor es ein anderer tut:
http://www.xbitlabs.com/discussion/3953.html
Diese Stelle ist gar nicht so unglaubwürdig:
- 512-bit memory interface.
- 1024MB GDDR4 graphics memory.
Man nehme einen imaginären G92GX2 mit 256-bit-SI und 512 MB RAM pro Chip, dann hätte man marketingtechnisch eine Grafikkarte (9800GTX) mit 512-bit-SI und 1024 MB VRAM.
- MADD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)
Hätte Arun nicht seinen Wunsch (http://forum.beyond3d.com/showpost.php?p=1026153&postcount=3) geäußert, wäre dies glaubwürdiger.
Over one TeraFLOPS of shader processing power.
Wenn die 9800GTX aus zwei G92 besteht, warum nicht?
- built in tesselation unit (in the graphics core)
Wow...
- DirectX 10.1 support
Siehe oben.
eDRAM die for "FREE 4xAA".
Bissel unglaubwürdig.

Hvoralek
2007-07-25, 13:59:58
Vieles davon könnte in marketingtechnisch wirklich hinkommen. Zwei Sechsquad- G8x zusammen dürften auch aus mehr als 1 Mrd. Transitoren bestehen.

Tesselationseinheit und D3D10.1 klingen dann aber doch ziemlich unwahrscheinlich.

EDRAM für den Backbuffer halte ich aber nicht nur für "bissl" unglaubwürdig, sondern für wirklich weit hergeholt. Wenn der sinnvoll nutzbar sein soll, bräuchte man wenigstens um die 120 MiB. Zumal man mit GDDR4/5 erst einmal genug Spielraum bei der Bandbreite haben sollte und ich insofern keinen wirklichen Bedarf dafür sehe.

dargo
2007-07-25, 15:40:39
EDRAM für den Backbuffer halte ich aber nicht nur für "bissl" unglaubwürdig, sondern für wirklich weit hergeholt. Wenn der sinnvoll nutzbar sein soll, bräuchte man wenigstens um die 120 MiB. Zumal man mit GDDR4/5 erst einmal genug Spielraum bei der Bandbreite haben sollte und ich insofern keinen wirklichen Bedarf dafür sehe.
Wie kommst du eigendlich auf die 120MB? Ich glaube aber auch nicht an EDRAM. Vorallem da wir bald GDDR5 zu sehen bekommen sollten. Mit GDDR5 sind bei einem 512Bit SI stolze 204,8-320GB/s möglich. :eek:

Godmode
2007-07-25, 15:59:29
Ich glaube nicht an die Dualchip-Karte, eher an eine Karte mit ca. 1.000 Mio Transitoren und höheren Taktraten. Das Konzept der GX2 ist einfach nicht effizient genug. Und wenn eine Teilkarte so einer GX2 nur 512 MB Speicher hat, dann ist das schon arg begrenzt und 1024 auf beiden wäre wohl wieder zu teuer. Ein 384 Bit SI * 2 wäre wohl auch ziemlich teuer und wenn sie nur 256 * 2 nehmen reicht wohl die Bandbreite wieder nicht.

Das einzige was für eine GX2 spricht ist, dass nicht so rießen Chip entwickelt und vor allem gefertigt werden muss.

Was ich mir aber noch vorstellen könnte wäre eine verbesserte Dual GPU Technik, wo sich beide Chips den Speicher teilen und beide Chips auf einem PCB sitzen. Das würde dann allerdings wieder das PCB wieder ziemlich kompliziert machen.

IMO bekommen wir wieder eine ganz normale Singlechip Highendlösung. Nur weil das Ding jetzt nicht G90 heißt, glauben viele nicht an eine Highendlösung wie wir sie bisher kannten?

edit: ich bin schon auf die Kühlung gespannt. Wenn man sich Intels Quadcore CPUs ansieht, mit gerade mal 582 Mio. Transitoren, erzeugen diese doch eine gewaltige Hitze. Ich glaube nicht an einen Rückgang des Verbrauchs mit dem Einzug des 65nm Prozesses!

dargo
2007-07-25, 16:02:49
Ein 384 Bit SI * 2 wäre wohl auch ziemlich teuer und wenn sie nur 256 * 2 nehmen reicht wohl die Bandbreite wieder nicht.

Ähm, du weißt aber schon, dass sich die Bandbreite bei einer GX2, sprich SLI verdoppelt?

Godmode
2007-07-25, 16:38:47
Ähm, du weißt aber schon, dass sich die Bandbreite bei einer GX2, sprich SLI verdoppelt?

Das hab ich jetzt nicht bedacht, aber wenn sie wirklich nur ein 256 Bit breites Interface bringen, dann kommen entweder 512 oder 1024 MB zum Einsatz und beides kann ich mirschwer vorstellen. 512 scheint mir zu wenig zu sein und 1024 ist für zwei Karten wohl zu teuer.

AnarchX
2007-07-25, 16:41:06
Das hab ich jetzt nicht bedacht, aber wenn sie wirklich nur ein 256 Bit breites Interface bringen, dann kommen entweder 512 oder 1024 MB zum Einsatz und beides kann ich mirschwer vorstellen.

Naja, 1024MB wäre eine sinnvolle Steigerung von 768MB und ein Gleichziehen mit ATi. ;)

Einzig von Nachteil ist, dass es wohl 1024MBit Chips erst Q2 2008 mit GDDR5 geben soll und so bei der "1GB"-GX2 32 Chips verbaut werden müssten.

Um nochmal auf die Herstellungskosten zurückzukommen: Für wieviel ging vor kurzem eine 7950GX2 über den Ladentisch? ;)

Hvoralek
2007-07-25, 17:31:43
Das Konzept der GX2 ist einfach nicht effizient genug.Wo gibt es denn z.B. bei der 7900GX2 nennenswerte Probleme?


Ein 384 Bit SI * 2 wäre wohl auch ziemlich teuer und wenn sie nur 256 * 2 nehmen reicht wohl die Bandbreite wieder nicht.Mit Ende des Jahres erhältlichem GDDR4 sollte ohne Probleme eine GTX- Bandbreite bei jedem der Chips auch mit 256er- SI machbar sein. Anscheinend ist ein einzelner G92 durch höheren Takt ja auch etwa so schnell wie eine GTX (für die ganze Karte ≈ 1 TFLOPS Arithmetik, insofern wohl auch etwa doppelt so hohe Filterleistung etc),insofern würde eine vergleichbare Bandbreite auch gut passen.

edit: ich bin schon auf die Kühlung gespannt. Wenn man sich Intels Quadcore CPUs ansieht, mit gerade mal 582 Mio. Transitoren, erzeugen diese doch eine gewaltige Hitze. Ich glaube nicht an einen Rückgang des Verbrauchs mit dem Einzug des 65nm Prozesses!Wie hoch takten denn Kentsfields? :wink:

Und TSMCs 65- nm- Prozess scheint wirklich nicht schlecht zu sein. Die Leistungsaufnahme von RV630 liegt doch wirklich im Rahmen.

Hvoralek
2007-07-25, 17:33:07
Wie kommst du eigendlich auf die 120MB?UXGA- Backbuffer in FP16 mit 4xMSAA (Bei so einer Karte müsste es ja wohl mindestens dafür reichen):
1600x1200 x 4x(16:8)x2 x 4 ≈ 117 MiB

Silverbuster
2007-07-25, 21:48:48
Wo gibt es denn z.B. bei der 7900GX2 nennenswerte Probleme?
.

Probleme würde ich nicht direkt sagen, aber die Karte ist sehr abhängig davon, wie gut ein Spiel SLI unterstützt. Schließlich skalieren Spiele nicht immer gut mit einem zweiten Grafikkern, das ist doch bekannt.
Ich würde z.B. niemals eine X1950XT/XTX gegen eine GX2 tauschen (völlig egal das die X1950XT/XTX ATI ist) da diese immer eine Gleichbleibende Leistung hat, die GX2 zwar oft dieser Karte weit überlegen ist, aber manchmal auch extrem in der Leistung abfällt. Beispiel wäre Rainbow Six Vegas (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/24/#abschnitt_rainbow_six_vegas), wo die Karte langsamer ist als eine X1950pro und nur ein hauch vor der 7900GT liegt. Multigpu kommt hier nicht zum tragen. Immerhin basiert das Spiel auf der U3 Engine. Gleiches Bild bei SplinterCell4 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/28/#abschnitt_splinter_cell_4), auch U3 Engine. Und dieser Effekt ist sicherlich nicht nur auf diese Engine begrenzt. In Gothic3 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/20/#abschnitt_gothic_3) scheint MultiGPU auch nicht wirklich zu funktionieren.
Man könnte jetzt sagen das die Spielehersteller hier Fehler machen und dies nicht an der Karte liegt. Sicher, ist ja nicht verkehrt diese Aussage, jedoch hilft mir als Anwender das sehr wenig. Den ich schau in die Röhre. Und diese Spiele zu meiden ist auch kein Argument wen sie mich reizen.

deekey777
2007-07-26, 01:22:25
Ähm, du weißt aber schon, dass sich die Bandbreite bei einer GX2, sprich SLI verdoppelt?
Tut sie nicht.

Grestorn
2007-07-26, 07:41:09
Tut sie nicht.

Tut sie wohl, wenn das Spiel SLI nutzen kann.

Nicht die Bandbreite pro Chip natürlich, aber die beiden Chips übertragen ja die Daten aus "ihrem" Speicher gleichzeitig, somit können pro Zeiteinheit doppelt so viele Daten übertragen werden. Ergo: Doppelte Bandbreite.

seahawk
2007-07-26, 07:49:57
Jein, da selbst da die Effizienz nicht 100% ist.

Grestorn
2007-07-26, 08:04:49
Jein, da selbst da die Effizienz nicht 100% ist.

Ja und?

Auch wenn man die Bandbreite direkt erhöht, z.B. durch Verdoppelung der Datenleitungen, wird diese nicht immer zu 100% ausgenutzt und man erhält keine 100% Effizienzsteigerung.

robbitop
2007-07-26, 10:04:33
Tut sie nicht.
Natuerlich tut sie das.

Ailuros
2007-07-26, 12:08:00
Jein, da selbst da die Effizienz nicht 100% ist.

Angenommen die Steigerung im Vergleich zu einer G80 liegt bei bis zu 80-85% und im absoluten Durchschnitt bei sagen wir mal 40-50% mehr. Eine single chip Loesung wuerde im Gegensatz wieviel Prozent durchschnittliche Leistung liefern fuer einen high end Refresh?

Der Preis muss nur stimmen und der Stromverbrauch und dieser liegt IMHLO fuer eine hypothetische G92/GX2 unter einer single chip Loesung auf 65nm fuer die bestimmte Zeitspanne.

Ailuros
2007-07-26, 12:19:06
Da hast Du Recht. ICh frage mich halt ob NV damit leben kann Singlechipkarten nur in einer lEsitung unterhalb der heutigen Topmodelle anzubieten und den Rest mit diversen Taktungen an Dulaläsungen zu bedienen, oder ob man G80 noch länger am Leben läst.

Obwohl es zu frueh ist fuer genaue Einzelheiten, werde ich das Gefuehl mit dem dual-chip Zwischen-schieber nicht los.

Erstens weil es schnell und billig abgeht, zweitens weil AMD auch anscheinend aehnliches mit 2*RV670 vorhat und drittens weil man sich eher auf den D3D10.1 high end chip konzentriert und man weder Resourcen noch Leistung fuer einen D3D10 Refresh verplempern will.

Nebenbei ist das Tesselations-Zeug sowohl fuer D3D10.1 als auch .2 IMHLO Unsinn. Natuerlich koennte uns NVIDIA wieder mal ueberraschen aber die letzte Roadmap die ich sah hatte G100 als G90 und G200 Nachfolger, wobei G100 dann "D3D11" sein soll. Vor dem letzteren API ist eine programmierbare Tesselations-Einheit quasi nutzlos, ausser die gesamte Entwickler-Bande entwickelt ab morgen Spiele in OGL.

Hvoralek
2007-07-26, 13:08:19
Angenommen die Steigerung im Vergleich zu einer G80 liegt bei bis zu 80-85% und im absoluten Durchschnitt bei sagen wir mal 40-50% mehr. Eine single chip Loesung wuerde im Gegensatz wieviel Prozent durchschnittliche Leistung liefern fuer einen high end Refresh?40-50% > GTX könnte mit einer Einchiplösung gut machbar sein. 12 Cluster und 8 ROP- Blöcke (--> Pi*Daumen 850 - 900 Mio Transistoren) auf oder knapp über GTX- Takt sollten z.B. reichen. Das müsste in 65 statt 90 nm eigentlich gut machbar sein (Das wären wohl etwa 300 mm²).

Der Preis muss nur stimmen und der Stromverbrauch und dieser liegt IMHLO fuer eine hypothetische G92/GX2 unter einer single chip Loesung auf 65nm fuer die bestimmte Zeitspanne.Der Stromverbrauch dürfte eher höher ausfallen, weil man zwei komplette GPUs braucht, statt nur die wirklich benötigten Einheiten zu vervielfältigen (Es sei denn, man würde bei der Einchipvariante die Leistung über den Takt holen, dann bräuchte man dort auch eine höhere Spannung). Der große Vorteil von GX2- Modellen dürfte die Ausbeute sein.

Toppas:-)
2007-07-26, 13:37:17
Für mich stellt sich auch die Frage, obs das ein Chip-Design / 2 chip-Design oder wie man bei der neuen ATi-Karte vermutet einen Mehrchip-Design in Form eines Cell-Prozessors sein wird. Wobei letzteres den Vorteil der Kosteneffizens hat, da hier relativ keine Chips produziert werden können mit hoher Ausbeute und im Baukasten-Prinzip der Chip produziert wird z.b. Maincontroller , Videochip, mehrere einChip-Recheneinheiten. Ein Bild gabs glaub ich mal im R700-Threat. Das letztere hat eigendlich auch den Vorteil das die nicht so aufwenigen Recheneinheiten mit 65nm oder später 45nm produziert werden können und man dadurch auch den Stromverbrauch steuern kann durch die Anzahl die man dann auf den Chip verbaut.

seahawk
2007-07-26, 14:15:30
Ja und?

Auch wenn man die Bandbreite direkt erhöht, z.B. durch Verdoppelung der Datenleitungen, wird diese nicht immer zu 100% ausgenutzt und man erhält keine 100% Effizienzsteigerung.

Mir ging es halt nur darum, dass SLI eben eine Verdopplung des theoretischen Maximums in der Realität geringere Steigerung bedeutet. Im Hinblick auf die theoretische Bandbreite der Gesamtkarte hat Du aber sicher Recht.

Obwohl es zu frueh ist fuer genaue Einzelheiten, werde ich das Gefuehl mit dem dual-chip Zwischen-schieber nicht los.

Erstens weil es schnell und billig abgeht, zweitens weil AMD auch anscheinend aehnliches mit 2*RV670 vorhat und drittens weil man sich eher auf den D3D10.1 high end chip konzentriert und man weder Resourcen noch Leistung fuer einen D3D10 Refresh verplempern will.

Nebenbei ist das Tesselations-Zeug sowohl fuer D3D10.1 als auch .2 IMHLO Unsinn. Natuerlich koennte uns NVIDIA wieder mal ueberraschen aber die letzte Roadmap die ich sah hatte G100 als G90 und G200 Nachfolger, wobei G100 dann "D3D11" sein soll. Vor dem letzteren API ist eine programmierbare Tesselations-Einheit quasi nutzlos, ausser die gesamte Entwickler-Bande entwickelt ab morgen Spiele in OGL.

Sehe ich ähnlich. Irgendwie würde mich es aber überraschen wenn keiner der beiden nicht doch die Singlechipkrone anstrebt.

dargo
2007-07-26, 15:10:00
Naja, 1024MB wäre eine sinnvolle Steigerung von 768MB und ein Gleichziehen mit ATi. ;)

Das Problem was ich hier sehe - nehmen wir mal an die neue GX2 ist doppelt so schnell wie eine G8800GTX. Sind 1024MB bei der GX2 nicht zuwenig? Ich meine, das sind ja nur 512MB je Chip. :|
Oder verhält sich die Speicherverteilung bei einer GX2 etwas anders?

Also, wenn wirklich jeder Chip nur 512MB zur Verfügung hat wird der Vram bei solcher Rohleistung schnell limitieren. Da wären 1280MB mit 640MB je Chip und 320Bit SI schon vorteilhafter. Obwohl dieses imho immer noch zu wenig wäre.

UXGA- Backbuffer in FP16 mit 4xMSAA (Bei so einer Karte müsste es ja wohl mindestens dafür reichen):
1600x1200 x 4x(16:8)x2 x 4 ≈ 117 MiB
Hmm, dann halte ich selbst 120MB für zu wenig. Wenn man schon sowas plant dann bitte für Full HD, also 1080i. :D

Beispiel wäre Rainbow Six Vegas (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/24/#abschnitt_rainbow_six_vegas), wo die Karte langsamer ist als eine X1950pro und nur ein hauch vor der 7900GT liegt. Multigpu kommt hier nicht zum tragen. Immerhin basiert das Spiel auf der U3 Engine. Gleiches Bild bei SplinterCell4 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/28/#abschnitt_splinter_cell_4), auch U3 Engine. Und dieser Effekt ist sicherlich nicht nur auf diese Engine begrenzt.
Splinter Cell - Double Agent basiert auf der UE2.5, und R6:Vegas hat recht wenig mit der UE3 gemeinsam. Na gut... sagen wir mal zumindest optisch. :D

Tut sie nicht.
Ich habe mich etwas falsch ausgedrückt. Sie verdoppelt sich theoretisch (ob sie zu 100% genutzt wird ist eine andere Geschichte) für die Ausgangsleistung beider GPUs zusammen. Für den einzelnen Chip natürlich nicht.

Hvoralek
2007-07-26, 15:23:31
Hmm, dann halte ich selbst 120MB für zu wenig. Wenn man schon sowas plant dann bitte für Full HD, also 1080i. :DWie gesagt, mindestens. Wobei 1080p kaum höher ist als UXGA. Solche Karten würden aber sicher auch in noch höheren Auflösungen und 8xMSAA genutzt, eigentlich wäre also noch mehr sinnvoll. Wäre ein eigener ROP- Chip mit einem so großen eDRAM überhaupt technisch machbar?

AnarchX
2007-07-26, 15:26:46
Das Problem was ich hier sehe - nehmen wir mal an die neue GX2 ist doppelt so schnell wie eine G8800GTX. Sind 1024MB bei der GX2 nicht zuwenig? Ich meine, das sind ja nur 512MB je Chip. :|
Oder verhält sich die Speicherverteilung bei einer GX2 etwas anders?


Ich meine natürlich 1GB effektiv, also 2GB verbaut.
Wenn man eine 7950GX2 mit 1GB für 179€ verkaufen kann, warum dann nicht eine G92GX2 mit 2GB für vielleicht 600€? ;)

dargo
2007-07-26, 15:35:02
Ich meine natürlich 1GB effektiv, also 2GB verbaut.
Wenn man eine 7950GX2 mit 1GB für 179€ verkaufen kann, warum dann nicht eine G92GX2 mit 2GB für vielleicht 600€? ;)
Das ist aber ein sehr unpassender Vergleich von dir:

1. Eine GX2 hat am Launchtag afaik min. 500€ gekostet (ich meine keine G7900GX2).
2. Eine GX2 hatte 2x 512MB GDDR3 mit je 600Mhz. Für eine GX2 auf G80 Basis braucht man da sicherlich schon min. GDDR3 mit 1,1Ghz oder sogar GDDR4 mit =>1,2Ghz was dementsprechend mehr kostet. Zusätzlich kommt noch hinzu, dass man gleich doppelt so viel, nämlich 2x 1024MB verbauen müßte.

Die G7950GX2 war einfach ein Auslaufmodell, nicht zu vergleichen.

AnarchX
2007-07-26, 15:43:56
1. Eine GX2 hat am Launchtag afaik min. 500€ gekostet (ich meine keine G7900GX2).
2. Eine GX2 hatte 2x 512MB GDDR3 mit je 600Mhz. Für eine GX2 auf G80 Basis braucht man da sicherlich schon min. GDDR3 mit 1,1Ghz oder sogar GDDR4 mit =>1,2Ghz was dementsprechend mehr kostet. Zusätzlich kommt noch hinzu, dass man gleich doppelt so viel, nämlich 2x 1024MB verbauen müßte.

Und das wäre dann mit einem möglichen Launch der G92GX2 im November 1.5 Jahre her.
Also ich sehe absolut kein Problem 2GB Einsteiger-GDDR4(1-1.1GHz), zwei leicht über 200mm² liegende Dies zu diesem Zeitpunkt für einen Preis von vielleicht 600-700€ zu verkaufen.

Und die 7950GX2 für 179€, auch wenn sie ein Auslaufmodell war, zeigt durchaus was preislich möglich ist, ich denke nicht das Leadtek hier Verlust gemacht hat,

dargo
2007-07-26, 15:57:49
Und das wäre dann mit einem möglichen Launch der G92GX2 im November 1.5 Jahre her.
Also ich sehe absolut kein Problem 2GB Einsteiger-GDDR4(1-1.1GHz), zwei leicht über 200mm² liegende Dies zu diesem Zeitpunkt für einen Preis von vielleicht 600-700€ zu verkaufen.

Und die 7950GX2 für 179€, auch wenn sie ein Auslaufmodell war, zeigt durchaus was preislich möglich ist, ich denke nicht das Leadtek hier Verlust gemacht hat,
Du vergisst hier aber, dass selbst die "abgespeckte" GPU (G92) immer noch fast die 4 fache Leistung einer G7900GT GPU bringen sollte. Für 600€ kann ich mir eine G92GX2 mit 2GB Vram kaum vorstellen. Eher für ~800€, was in etwa 999$ UVP bedeuten würde.

horn 12
2007-07-26, 17:50:37
so einen Boost wie zwischen G70/71 und dem G80 wird es sicherlich nicht so schnell geben, frühestens mit gem G100 / R700. Der Chip im November von NV und im Jänner von ATI ?? wird max. 25-30% schneller als die momentanen Topmodelle werden. Mehr wird da sicherlich nicht drinnen sein.
G100 und R700 spielt dann erst richtig in der D3D10 Liga und dann wird es wohl erst richtig anlaufen mit den kompletten D3D10 Games, vorher nur geringem Ausmaß!

Hvoralek
2007-07-26, 18:29:09
so einen Boost wie zwischen G70/71 und dem G80 wird es sicherlich nicht so schnell geben, frühestens mit gem G100 / R700. Der Chip im November von NV und im Jänner von ATI ?? wird max. 25-30% schneller als die momentanen Topmodelle werden. Mehr wird da sicherlich nicht drinnen sein.
G100 und R700 spielt dann erst richtig in der D3D10 Liga und dann wird es wohl erst richtig anlaufen mit den kompletten D3D10 Games, vorher nur geringem Ausmaß!Dir ist schon klar, dass es da um einen Wechsel von 90 zu 65 nm geht, und man damit auf einem Chip der selben Größe etwa doppelt so viele Transistoren unterbringen kann? TSMCs 65- nm- Prozess sollte bis Ende des Jahres auch ziemlich ausgereift sein, sodass entweder die Leistung pro Euro oder die Margen erheblich ansteigen müssten. Bei ATI steht etwa gleichzeitig ein Refresh an, dann evtl. schon auf 55 nm, insofern wird keiner der beiden sich großartige Margenverbesserungen gönnen können.

Ich erwarte für den High- End- G92 schon einen erheblichen Zuwachs (etwa 50-60%) ggü. einer 8800GTX, ansonsten müsste das Teil spätestens nach ATIs Refresh wohl für einen aktuellen High- End- Chip sehr günstig angeboten werden. Zumindest bei der rechnerischen Arithmetikleistung ist eine ungefähre Verdopplung auf etwa 1 TFLOPS sogar bestätigt. Ich würde von einem ähnlichen Anstieg der übrigen Leistungsmerkmale ausgehen. Falls G92 als Single- High- End- Chip gedacht ist, sollte er also sogar grob doppelt so schnell sein wie G80, wenn das High- End- Modell eine Doppelchipkarte ist, etwa vergleichbar mit einer G80- SLI- Konfiguration.

Oder gibt es irgendwelche Anzeichen außer Deinem Bauchgefühl, die auf nur 25% hindeuten?

seahawk
2007-07-26, 18:40:52
Wer sagt, dass es einen R600 Refresh geben wird und ATI nicht selbst mit 2 x RV670 bis zum R700 aushält.

Der_Korken
2007-07-26, 18:50:26
Dir ist schon klar, dass es da um einen Wechsel von 90 zu 65 nm geht, und man damit auf einem Chip der selben Größe etwa doppelt so viele Transistoren unterbringen kann? TSMCs 65- nm- Prozess sollte bis Ende des Jahres auch ziemlich ausgereift sein, sodass entweder die Leistung pro Euro oder die Margen erheblich ansteigen müssten. Bei ATI steht etwa gleichzeitig ein Refresh an, dann evtl. schon auf 55 nm, insofern wird keiner der beiden sich großartige Margenverbesserungen gönnen können.


Man kann zwar deutlich "schwerere" oder höhergetaktete Chips verbauen, aber mir wäre es lieber, wenn wir wieder mit einem zusätzlichen Stromstecker auskämen - denn so wie jetzt kann es ja mit dem Stromverbrauch nicht weitergehen.

Hvoralek
2007-07-26, 18:56:11
Wer sagt, dass es einen R600 Refresh geben wird und ATI nicht selbst mit 2 x RV670 bis zum R700 aushält.Soll nicht irgendwie um den Jahreswechsel noch ein R680 kommen? :confused:

AnarchX
2007-07-26, 20:23:29
Soll nicht irgendwie um den Jahreswechsel noch ein R680 kommen? :confused:

Es gab Gerüchte, dass diese Gerüchte von AMD in die Welt gesetzt wurden, um einen Maulwurf ausfindig zu machen.

Fuad hat was neues:
Nvidia plans two new high end cards
In next 12+ months, exec VP Confirms (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2154&Itemid=34)

... was wiedermal die "G92GX2 Übergangslösung mit dem dann im Q1 oder 2 folgenden D3D10.1 HighEnd-Chip"-Variante weiter stärkt.

Hvoralek
2007-07-26, 20:37:12
Es gab Gerüchte, dass diese Gerüchte von AMD in die Welt gesetzt wurden, um einen Maulwurf ausfindig zu machen.Das betraf doch die Gerüchte um R650. Oder gab es solche Meldungen auch bzgl. R680? Wäre schon doof, wenn gleich zwei solcher Gerüchte gerüchteweise nicht stimmen sollen :crazy:

Fuad hat was neues:
Nvidia plans two new high end cards
In next 12+ months, exec VP Confirms (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2154&Itemid=34)

Das letzte High- End- Modell ist mitterweile acht Monate alt. Da wären zwei weitere in den nächsten 12- 15 Monaten (also bis Herbst 2008!) doch normal.

Ich würde eher tippen, dass Ende diesen Jahres ein (oder zwei:wink:) G92 in 65 nm kommen und etwa Sommer 2008 dann irgndetwas in 45 nm.

Ailuros
2007-07-26, 20:48:35
40-50% > GTX könnte mit einer Einchiplösung gut machbar sein. 12 Cluster und 8 ROP- Blöcke (--> Pi*Daumen 850 - 900 Mio Transistoren) auf oder knapp über GTX- Takt sollten z.B. reichen. Das müsste in 65 statt 90 nm eigentlich gut machbar sein (Das wären wohl etwa 300 mm²).

Wenn man momentan G92 bei =/<250mm^2 mit 6 clusters/4 partitions auf 65nm einschaetzt, frag ich mich ernsthaft wie die 300 mm^2 Rechnung zustande kommen soll.

Es sieht mir uebrigens nicht danach aus als ob NV es eilig hat mit einem 512bit Bus.

Der Stromverbrauch dürfte eher höher ausfallen, weil man zwei komplette GPUs braucht, statt nur die wirklich benötigten Einheiten zu vervielfältigen (Es sei denn, man würde bei der Einchipvariante die Leistung über den Takt holen, dann bräuchte man dort auch eine höhere Spannung).

Stimmen die Messungen von XBit Labs verbraucht eine 7950GX2 nur einen Hauch mehr Strom als die 8800GTS.

http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html#sect0

Der große Vorteil von GX2- Modellen dürfte die Ausbeute sein.

Sicher ;)

dargo
2007-07-26, 20:51:12
Es sieht mir uebrigens nicht danach aus als ob NV es eilig hat mit einem 512bit Bus.

Bei den Meldungen über GDDR5 kann ich das gut verstehen. :tongue:

Ailuros
2007-07-26, 20:56:52
Soll nicht irgendwie um den Jahreswechsel noch ein R680 kommen? :confused:

AFAIK nein.

Ailuros
2007-07-26, 21:00:50
Bei den Meldungen über GDDR5 kann ich das gut verstehen. :tongue:

Ich sehe auch kein GDDR5 von NV fuer dieses Jahr.

Ailuros
2007-07-26, 21:05:39
Das betraf doch die Gerüchte um R650. Oder gab es solche Meldungen auch bzgl. R680? Wäre schon doof, wenn gleich zwei solcher Gerüchte gerüchteweise nicht stimmen sollen :crazy:

Obwohl meine Infos momentan etwas rostig geworden sind, sah es vor einiger Zeit danach aus dass beide IHVs sich mit voller Pulle auf D3D10.1 konzentrieren und bis dahin den Markt nur mit Zwischenschieber bedienen.


Ich würde eher tippen, dass Ende diesen Jahres ein (oder zwei:wink:) G92 in 65 nm kommen und etwa Sommer 2008 dann irgndetwas in 45 nm.

Das mit dem Herstellungsprozess ist vieeeeeeeeel zu gewagt. Welche Strategie verfolgt NV in den letzten Jahren? Eben....

G92 unterm Weihnachtsbaum und fuer den Osterhasen dann G90 ;)

AnarchX
2007-07-26, 21:09:07
Ich sehe auch kein GDDR5 von NV fuer dieses Jahr.

Irgendwie vermute ich auch, dass man auch bei G92 noch auf GDDR3 jenseits der 1GHz setzen könnte und dann bei den nächsten Produkten gleich auf GDDR5 geht, der ja Anfang 2008 in der Massenproduktion (http://www.beyond3d.com/content/articles/87) sein soll. Irgendwie scheint sich NV ja vor GDDR4 zu scheuen.
Oder bei G92 nicht mehr?

dargo
2007-07-26, 21:09:34
Ich sehe auch kein GDDR5 von NV fuer dieses Jahr.
Ok, für dieses Jahr wäre es auch etwas zu früh.
Was siehst du denn sonst noch? :D

2x GDDR3@1Ghz (128GB/s) für die GX2 oder 2x GDDR4@1,2Ghz (153,6GB/s)?

Lass mich raten... das erstere. :D

Oder doch 2x GDDR3@1,1Ghz mit 140,8GB/s?

Hvoralek
2007-07-26, 21:17:32
Wenn man momentan G92 bei =/<250mm^2 mit 6 clusters/4 partitions auf 65nm einschaetzt, frag ich mich ernsthaft wie die 300 mm^2 Rechnung zustande kommen soll.Das war eine Schätzung für einen 900- Mio- Transistor- Einzelchip in 65 nm.

Müsste ein 6- Cluster- G92 nicht eher in Richtung 200 mm² gehen? Oder gibt es nennenswerte Umbauten, die erheblich Transistoren fressen? In 250 mm² müsste schon fast ein ganzer 65- nm- G80 hineinpassen.

Ailuros
2007-07-26, 21:21:28
Falls die G92/GX2 These Haende und Fuesse haben sollte, kann ich mir leicht folgendes vorstellen:

2 * 6 cluster * 3 FLOPs * 1.7 GHz = 979 GFLOPs/s
2 * 24 TMUs * 725 (?) MHz = 34.8 GTexels oder 69.6 (bi/AF)
2 * 16 ROPs * 725 (?) MHz * 4 = 92.8 GPixels
2 * 512MB@256bit * 1.1 (?) GHz = 140.8 GB/s

AnarchX
2007-07-26, 21:24:45
Müsste ein 6- Cluster- G92 nicht eher in Richtung 200 mm² gehen? Oder gibt es nennenswerte Umbauten, die erheblich Transistoren fressen? In 250 mm² müsste schon fast ein ganzer 65- nm- G80 hineinpassen.

Aber auch nur bei einem optimalen Shrink, welchen es so aber nicht gibt.

Zudem soll ja im G92 für TESLA auch noch DP verbaut werden.
Ausserdem könnte ja die ~1TFLOPs vielleicht wirklich auf einen G92 bezogen sein: 6 Cluster a 32 SPs. ;)

dargo
2007-07-26, 21:26:35
2 * 512MB@256bit * 1.1 (?) GHz = 140.8 GB/s
Also doch nur 2x 512MB Vram :confused:
Oh man, bei nahezu doppelter G8800GTX Performance müsste der Vram eine schöne Bremse darstellen. Das ist ja so als ob man sich eine G8800GTS mit 320MB zulegen würde (eigendlich noch schlimmer). X-D

Ailuros
2007-07-26, 21:27:08
Das war eine Schätzung für einen 900- Mio- Transistor- Einzelchip in 65 nm.

Und wie soll dann der D3D10.1 chip aussehen bzw. leisten hm?

Müsste ein 6- Cluster- G92 nicht eher in Richtung 200 mm² gehen? Oder gibt es nennenswerte Umbauten, die erheblich Transistoren fressen? In 250 mm² müsste schon fast ein ganzer 65- nm- G80 hineinpassen.

Das Ding heisst G92 und nicht G81 aus gutem Grund. Ein kleiner Vorgeschmack ist die 8600. Denk nach was der Markt genau an multimedia Mist braucht, ob und was man alles integrieren will was bis jetzt getrennt war usw usw. Ich hoerte "unter" 250mm^2 eigentlich; von dem abgesehen da die Transistorenanzahl nicht bekannt ist, ist es eigentlich normal dass man mit G80/2 auf den falschen Pfad kommt.

Gast
2007-07-26, 21:36:27
Also doch nur 2x 512MB Vram :confused:
Oh man, bei nahezu doppelter G8800GTX Performance müsste der Vram eine schöne Bremse darstellen. Das ist ja so als ob man sich eine G8800GTS mit 320MB zulegen würde (eigendlich noch schlimmer). X-D

Was erwartest du? 32MBit oder 64MBit Chips, eine andere Bestückung gibt es nicht.

Ailuros
2007-07-26, 21:39:59
Also doch nur 2x 512MB Vram :confused:
Oh man, bei nahezu doppelter G8800GTX Performance müsste der Vram eine schöne Bremse darstellen. Das ist ja so als ob man sich eine G8800GTS mit 320MB zulegen würde (eigendlich noch schlimmer). X-D

ROFL Du mit Deinem Speicherkoller :P

http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/oblivion-aa.gif

http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=13

Wo und wieso spielen hier die Speichermengen auf dual-GPU Systemen eine besondere Rolle dass ich es gerade verpasse?

Ein Beispiel waere dass ein R600-Crossfire System ca. 29% mehr Leistung bietet als eine 8800GTX, obwohl es im ersten Fall "nur" 512MB pro Frame sind.

dargo
2007-07-26, 21:45:55
ROFL Du mit Deinem Speicherkoller :P

http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/oblivion-aa.gif

http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=13

Wo und wieso spielen hier die Speichermengen auf dual-GPU Systemen eine besondere Rolle dass ich es gerade verpasse?

Ein Beispiel waere dass ein R600-Crossfire System ca. 29% mehr Leistung bietet als eine 8800GTX, obwohl es im ersten Fall "nur" 512MB pro Frame sind.Bei aller Liebe, aber wen interessiert noch Oblivion? Eine G92GX2 brauche ich für Crysis, UT3, Alane Wake usw. und nicht für ~2 Jahre alte Games. ;)

Was erwartest du? 32MBit oder 64MBit Chips, eine andere Bestückung gibt es nicht.
Ich würde mir zumindest 768MB je GPU wünschen. :)
Mit 256Bit SI kann man das aber wohl vergessen. Eine G92GX2 mit 2x 512MB wäre ein Rückschritt!

Ailuros
2007-07-26, 21:52:33
Bei aller Liebe, aber wen interessiert noch Oblivion? Eine G92GX2 brauche ich für Crysis, UT3, Alane Wake usw. und nicht für ~2 Jahre alte Games. ;)

Bei aller Liebe kannst Du mir die relevanten Zahlen von noch nicht veroeffentlichten Spielen gerne zeigen ;D

Hvoralek
2007-07-26, 21:56:34
Aber auch nur bei einem optimalen Shrink, welchen es so aber nicht gibt.Deswegen ja auch "schon fast". Z.B. der Übergang von 80 zu 65 nm ist aber auch nicht so weit vom Optimum entfernt. Bei R600 (80 nm) liegen 1,71 Mio Transistoren auf einem mm², bei RV630 (65 nm) 2,55 Mio. Das ist ein Zuwachs vo 49% (+/- einen Keks, weil die Chips eben nicht identisch sind, sondern nur auf der gleichen Architektur basieren). Rechnerisch könnte dieser Übergang die Packdichte um 51% erhöhen.

Klar wäre ein 65- nm- G80 größer als 240 mm². Aber wohl nicht viel größer.

Zudem soll ja im G92 für TESLA auch noch DP verbaut werden.
Ausserdem könnte ja die ~1TFLOPs vielleicht wirklich auf einen G92 bezogen sein: 6 Cluster a 32 SPs. ;)Diese emulierte DP sollte nicht allzu teuer sein. Wie kommst Du eigentlich ständig auf 32SPs? Das würde eine Verdopplung der relativen Arithetikleistung bedeuten. Meinst Du, das wäre sinnvoll?

Das Ding heisst G92 und nicht G81 aus gutem Grund. Ein kleiner Vorgeschmack ist die 8600. Denk nach was der Markt genau an multimedia Mist braucht, ob und was man alles integrieren will was bis jetzt getrennt war usw usw.Multimediakram ist mir persönlich ziemlich egal. Aber wenn Du von einem "Vorgeschmack" sprichst, sind es wohl nicht nur die erweiterten Videofähigkeiten von G84. Hmm, wie war das noch mit einer integrierten Audioeinheit (http://www.xbitlabs.com/discussion/3953.html)?

Ich hätte eigentlich noch mit 8TAs pro Cluster gerechnet, aber das sieht ja nicht so aus:
2 * 24 TMUs * 725 (?) MHz = 34.8 GTexels oder 69.6 (bi/AF)




Aber 512 MiB nutzbarer RAM wäre wohl wirklich etwas knapp. Kleiner werden gängige Texturen mit der Zeit jedenfalls nicht.

Ailuros
2007-07-26, 21:58:44
Ich würde mir zumindest 768MB je GPU wünschen. :)

Es gibt momentan 2*8800GTX@SLi. Ich weiss was so ein Spass kostet, aber was man bezahlt bekommt man auch.

Mit 256Bit SI kann man das aber wohl vergessen. Eine G92GX2 mit 2x 512MB wäre ein Rückschritt!

Auf einem Dual-GPU kommt zwar fuer die Leistung in Realitaet nie 512bit bzw. 1024MB ebenbuertige Leistung raus, aber auch nie und auf keinen Fall 256bit bzw. 512MB. Nach so langer Zeit von Crossfire bzw. SLi Existenz erwarte ich dass man es schafft das Konzept dahinter etwas besser schnallen zu koennen. Und nein wo immer es mit AFR hapert, ist weder die Busbreite noch die Speichermenge die wahre Bremse.

dargo
2007-07-26, 21:58:52
Bei aller Liebe kannst Du mir die relevanten Zahlen von noch nicht veroeffentlichten Spielen gerne zeigen ;D
Ich kann dir höchstens verraten, dass Epic für UT3 am liebsten 2GB Vram Grakas hätte. ;D Haben die zumindest früher behauptet.
Naja, das Ziel wurde weit verfehlt. :D

Apropo wenig Vram:
Zeige mir nochmal Benchmarks von Quake 4 in 1920x1200 4xAA/16xAF in Ultra Quality. :devil:

Es gibt momentan 2*8800GTX@SLi. Ich weiss was so ein Spass kostet, aber was man bezahlt bekommt man auch.

Tja, hier hat man aber das Problem der 2 PCIe Steckplätze die man erst haben muss.


Auf einem Dual-GPU kommt zwar fuer die Leistung in Realitaet nie 512bit bzw. 1024MB ebenbuertige Leistung raus, aber auch nie und auf keinen Fall 256bit bzw. 512MB. Nach so langer Zeit von Crossfire bzw. SLi Existenz erwarte ich dass man es schafft das Konzept dahinter etwas besser schnallen zu koennen. Und nein wo immer es mit AFR hapert, ist weder die Busbreite noch die Speichermenge die wahre Bremse.
Du meinst also, bei einer Graka mit 2x 512MB könnte man den Vram je GPU effizienter nutzen, so dass der Vram nicht zum Flaschenhals wird?

Ailuros
2007-07-26, 22:08:50
Klar wäre ein 65- nm- G80 größer als 240 mm². Aber wohl nicht viel größer.

Eine bessere Schaetzung koennte Dir die genaue die-Groesse von G98 geben.

Multimediakram ist mir persönlich ziemlich egal. Aber wenn Du von einem "Vorgeschmack" sprichst, sind es wohl nicht nur die erweiterten Videofähigkeiten von G84. Hmm, wie war das noch mit einer integrierten Audioeinheit (http://www.xbitlabs.com/discussion/3953.html)?

Ich wuerde G84 PureVideo2 nennen und alles G9x dann PureVideo3 ;)

Audioeinheit? Keine Ahnung aber ich schaetze eher nein.

Aber 512 MiB nutzbarer RAM wäre wohl wirklich etwas knapp. Kleiner werden gängige Texturen mit der Zeit jedenfalls nicht.

Was fuer einen Unterschied in Leistung bietet eigentlich eine 2900XT 1GB im Vergleich zu einer 8800GTX oder auch zu einer 2900XT 512MB?

Von dem mal abgesehen ich hab ernsthafte Zweifel dass eine theoretische GX2 nicht ein gutes Preis-/Leistungsverhaeltnis haben koennte und zur gleichen Zeit ein logischer Zwischenschieber bis zum naechsten wahren Refresh-chip. Mit 2*1024MB ist das vorgenannte Preis-/Leistungsverhaeltnis erstmal im Eimer.

AnarchX
2007-07-26, 22:08:55
Wie kommst Du eigentlich ständig auf 32SPs? Das würde eine Verdopplung der relativen Arithetikleistung bedeuten. Meinst Du, das wäre sinnvoll?

Für TESLA auf jeden Fall. ;)

Und bei den Gamer-GPUs wäre es auch gar nicht mal so verkehrt, imo ist G80 ziemlich Pixel/Texelfüllraten-lastig, sodass da noch etwas mehr arithmetische Leistung nicht gerade ein Ungleichgewicht mit sich bringen würde.
Urheber der 192SP Idee ist Arun:
http://forum.beyond3d.com/showpost.php?p=979657&postcount=690

dargo
2007-07-26, 22:16:50
Was fuer einen Unterschied in Leistung bietet eigentlich eine 2900XT 1GB im Vergleich zu einer 8800GTX oder auch zu einer 2900XT 512MB?

Es wäre ja auch alles in Ordnung wenn die G92GX2 ähnliche Leistung wie diese Karten hätte. Sie soll aber in etwa doppelt so schnell sein, afaik. Also kann man die Leistung in noch höhere Auflösungen und/oder mehr Antialiasing investieren.

Achso, habe ich schon erwähnt, dass DIRT in 1280x1024 mit max. Details (Ultra Schatten) und 4xMSAA/16xAF ~520MB Vram frisst?

Ailuros
2007-07-26, 22:27:22
Ich kann dir höchstens verraten, dass Epic für UT3 am liebsten 2GB Vram Grakas hätte. ;D Haben die zumindest früher behauptet.
Naja, das Ziel wurde weit verfehlt. :D

Sweeney uebertreibt ab und zu gerne mal. Man muss aber auch sein Kauderwelsch richtig interpretieren koennen. Ich will und darf noch nichts ueber zukuenftige Spiele verraten :P

Apropo wenig Vram:
Zeige mir nochmal Benchmarks von Quake 4 in 1920x1200 4xAA/16xAF in Ultra Quality. :devil:

Schaff es erstmal mir den wahren Unterschied zwischen Ultra und High Quality auf einem Screenshot (ohne Zoom) zu zeigen. Textur-Kompression ist keine Suende wenn man keinen Unterschied in Echtzeit sehen kann.

Wenn ich in SS2 TC abschalte und mit 16xQ auf 2048*1536 gehe, sollte es wohl klar sein dass der Speicher selbst mit 768MB ausgeht.

Tja, hier hat man aber das Problem der 2 PCIe Steckplätze die man erst haben muss.

Wenn jemand fast 1000 Euro fuer 2 GPUs ausgibt, jucken ihn auch die 100 Euro fuer ein neues Mobo auch nicht mehr.

Du meinst also, bei einer Graka mit 2x 512MB könnte man den Vram je GPU effizienter nutzen, so dass der Vram nicht zum Flaschenhals wird?

Es sind jeweils 512MB pro Frame unter AFR. Unter optimalen Bedingungen wird die "Arbeit" fuer die beiden chips auf 50-50 aufgeteilt, dabei sollte man aber nicht verstehen dass chip 1 streng Frame 1, chip 2 Frame 2, chip 1 Frame 3 bearbeitet. Total vereinfacht stimmt es zwar schon, aber das load balancing auf heutigen multi-chip/GPU Systemen (wenn die Applikation dafuer ausgelegt wurde) ist in Echtzeit um einiges komplizierter.

Teilen sich zwei chips einen Frame rein theoretisch, liegt genau wieviel Speicher zur Verfuegung pro Frame?

dargo
2007-07-26, 22:32:07
Wenn jemand fast 1000 Euro fuer 2 GPUs ausgibt, jucken ihn auch die 100 Euro fuer ein neues Mobo auch nicht mehr.

Das ist kein Argument, zumindest nicht für mich.


Es sind jeweils 512MB pro Frame unter AFR. Unter optimalen Bedingungen wird die "Arbeit" fuer die beiden chips auf 50-50 aufgeteilt, dabei sollte man aber nicht verstehen dass chip 1 streng Frame 1, chip 2 Frame 2, chip 1 Frame 3 bearbeitet. Total vereinfacht stimmt es zwar schon, aber das load balancing auf heutigen multi-chip/GPU Systemen (wenn die Applikation dafuer ausgelegt wurde) ist in Echtzeit um einiges komplizierter.

Teilen sich zwei chips einen Frame rein theoretisch, liegt genau wieviel Speicher zur Verfuegung pro Frame?
Also doch 1024MB. :D

Ailuros
2007-07-26, 22:33:00
Es wäre ja auch alles in Ordnung wenn die G92GX2 ähnliche Leistung wie diese Karten hätte. Sie soll aber in etwa doppelt so schnell sein, afaik. Also kann man die Leistung in noch höhere Auflösungen und/oder mehr Antialiasing investieren.

Ja und?

Achso, habe ich schon erwähnt, dass DIRT in 1280x1024 mit max. Details (Ultra Schatten) und 4xMSAA/16xAF ~520MB Vram frisst?

Und falls Du eine hoehere Aufloesung benutzen koenntest, bremst dann die Speichermenge oder andere Flaschenhaelse? Selbst wenn die GPU 2GB an Speicher haette momentan wuerde sich nichts phaenomenal an der Leistung in hoeheren Aufloesungen aendern.

Ailuros
2007-07-26, 22:34:43
Also doch 1024MB. :D

Jein. Auf jeden Fall liegt so ein Ding nicht im Nachteil im Vergleich zu einer 768MB 8800GTX wegen der Speichermenge.