PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x


Seiten : [1] 2 3 4

AnarchX
2007-02-22, 17:06:06
Da mittlerweile sich die Informationen hierzu verdichten, finde ich es angebracht das der G90 seinen eigenen Thread erhält und von den G8x-Spekulation entkoppelt wird.

Bisherige Gerüchte:
- 65nm Fertigung
- Veröffentlichung: H2 2007
- 64Bit fähige ALUs(Doppelte Genauigkeit) laut CUDA-FAQ(wahrscheinlich in mehreren Takten), limitiert auf NVs Tesla GPGPU-Line (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5602364&postcount=303)
- Die G9x-GPUs sollen als GeForce 9 Serie vermarktet werden/ andere Quellen sprechen weiterhin von einer Vermarktung als GF8
- DX10.1 soll laut einigen Gerüchten von G92 und G98 noch nicht unterstützt werden, wobei aber dies keinen großen Aufwand bedeuten würde
-PCIe 2.0
-Displayports

G92:
- möglicher Aufbau:
- Variante 1: 6 Cluster(=24 Doppel-TMUs und 96SPs) und 4 ROP-Partitions(= 256Bit, 16 ROPs) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5626004#post5626004)
- Variante 2: 4 Cluster (32 (vollwertige) TMUs und 64SPs), ROPs und SI wie bei V1

- Taktraten: 700MHz+ ROPs/TMUs, 2GHz+ SPs, 1GHz+ Speicher
- Einsatz auf Performancekarten(<$300) und einer GX2-Karte(2xG92) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5604400#post5604400) wahrscheinlich
- G92 soll laut NV (http://www.beyond3d.com/content/news/230) nahe 1 TFLOP(GX2 ?) Rechenleistung besitzen und im Q4 2007 kommen
- eine Single-GPU-Variante des G92 soll knapp über 9k Punkte im 3DMark06 erreichen und liegt somit etwas hinter der 8800GTX
- der Stromverbrauch der Single-GPU-Variante soll unter einer 7900GTX(~80W) liegen
- VR-Zone berichtert von einer G92-SKU, die als 8700GTS (http://www.vr-zone.com/?i=5236)bezeichnet wird und 512MB 1.0ns GDDR3 @ 256Bit haben soll
- andere Quellen sprechen von Gerüchte über ein Package mit zwei G92 (Verbindung auf tieferer Ebene gegenüber SLI)
- G92 basierende Karten sollen extrem leise sein (http://www.theinquirer.net/default.aspx?article=41740)
-Video-Processor 3
- Vorstellung im November (http://www.vr-zone.com/index.php?i=5127), genauer am 12.11.



G98 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=285&Itemid=34):
-absolute LowEnd-GPU, die Mitte 2007 den Markt erreichen soll
-trägt intern wahrscheinlich auch die die Bezeichnung D8M (http://translate.google.com/translate?u=http%3A%2F%2Fwww.hardspell.com%2Fdoc%2Fhardware%2F38073.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) und wird im September (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1417&Itemid=1) die aktuelle GF 8400 ersetzen und somit einen besseren Konkurrenten zu ATis RV610(Radeon HD 2400) darstellen
-Video-Processor 3: wahrscheinlich nun auch VC1 mit voller Beschleunigung
-HDMI über DVI, PCIe 2.0 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1420&Itemid=1)
-die G98-basierenden Karten sollen ~$45 kosten


-G9x-Ableger für Mid-Range wahrscheinlich im Frühling 2008



Nvidia prepares to shrink G80 to make a G90 (http://www.theinquirer.net/default.aspx?article=37791)
http://developer.download.nvidia.com...in32_linux.zip

>Q: Does CUDA support Double Precision Floating Point arithmetic?

>A: CUDA supports the C "double" data type. However on G80
> (e.g. GeForce 8800) GPUs, these types will get demoted to 32-bit
> floats. NVIDIA GPUs supporting double precision in hardware will
> become available in late 2007.


NVIDIA_G98.DEV_06E0.1 = "NVIDIA G98"
NVIDIA_G98.DEV_06E1.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E2.1 = "NVIDIA G98 "
...

Ingesamt sind es 32 Einträge (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350597&page=8) im Forceware 165.01.


"Neue" Infos: (von einem Moderator bei PCinlife, die ja bekanntlich gute Quellen haben ;))

- GeForce9 wird eine Produktfamilie sein (wer hätte das gedacht...)
- GF9 und GF8 Codenamensystem(Gx0 > Gx4 >... ) sind ähnlich aber nicht identisch

- G92 zielt mit seinem Codenamen auf HighEnd ab, wird aber unter der 8800GTX positioniert sein
- G92 und G80 werden gleichzeitig am Mark sein
- G92 wird weniger verbrauchen als eine 7900GTX =)
- G92 erzielt im 3DMark06 mehr als 9k Punkte
- G92 wurde noch nicht vollständig getestet, so könnten mit Pech noch Bugs gefunden werden
- G92 hat noch keinen konkreten Termin, aber gegen Weihnachten sollte er auf jeden Fall erhältlich sein

Anmerkungen:

- G90 soll existieren und sogar ein 512Bit SI besitzen, aber da NV die Risiken minimieren (einfachere, kleinere GPUs) will, wird er wohl nicht erscheinen bzw. als Notlösung in der Hinterhand gehalten werden

- Anfang 2008 bis Ende 2008 sollen weitere G9x GPUs erscheinen

- in der GF9-Serie soll es eine 1 TFLOP-SKU geben

http://we.pcinlife.com/thread-807684-1-1.html

Anarchy-HWLUXX
2007-02-22, 17:09:06
Ja wurd auch zeit für nen gesonderten Thread ...

Ich deute H2 jedenfalls als mitte Q4, nen früherer release eines High-End Chips in 65nm würd mich scho überraschen.

AnarchX
2007-02-22, 17:34:27
Ich deute H2 jedenfalls als mitte Q4, nen früherer release eines High-End Chips in 65nm würd mich scho überraschen.
Das wird sich wohl beantworten, indem wir bald einen G80 in 80nm/G81 sehen, wenn nicht muss der G90 wohl eher kommen, da langfristig der 90nm sich für den G80 immer weniger rentieren, selbst bei noch so guten Yields und der R600 sollte ja auch noch im H1 kommen.
Aber natürlich wäre ein Jahr nach dem G80 und eben der Zeitraum des Weihnachtsgeschäftes auch kein schlechter Zeitpunkt. ;)

Hier noch ein paar Dinge die ich noch für den G9x spekuliere:
-512Bit SI für den G90, um hier wieder auf ATi aufzuholen
-256Bit im Midrange
-Veränderungen an den ALUs
-G92: entspricht G80 von den Einheitenzahlen, wobei natürlich die Einheiten die Veränderungen der G9x-Generation erfahren haben

Gast
2007-02-22, 17:52:05
Wie kommt ihr darauf das man die Bezeichnung G9x verwenden wird? G85 wie ehemals NV35 (ok die Analogie ist vieleicht ein Punkt den man vermeiden will) wäre auch möglich, wurde bei G7x Serie aber glaub ausgelassen, einen NV45 gab es zumindest.

Vieleicht gibts doch noch den NV50 oder NV60, G70 war ja der zwischen Schritt von NV40 zu NV50, G80 also ein NV50+?

Die gelbe Eule
2007-02-22, 17:55:38
65nm glaube ich noch nicht so recht. Bisher gibt es keinen High End Chip der auch noch in die nähe eines Tape Outs bei 65nm gekommen ist.

Gast
2007-02-22, 18:01:29
Ja wurd auch zeit für nen gesonderten Thread ...

Ich deute H2 jedenfalls als mitte Q4, nen früherer release eines High-End Chips in 65nm würd mich scho überraschen.

H2 = November 07 sollte alles glatt gehen. 1Jahr nach G80 der "Refresh". Wobei 65mn wohl echte Minderung beim Stromverbrauch/Hitzeentwicklung bieten wird, bei einem 512bit SI muss wohl am G80 einiges an Einheiten hinzugefügt werden. Wissen wir man das erst wenn eine echte Abwandlung des G80 erscheint (G86/G84) und kein beschnittener G80 wie die GTS ihn die GTS besitzt. Dort sind wir ja ein Cluster losgeworden (2x32bit SI + 32SU + 8(x2)TMU)

AnarchX
2007-02-22, 18:24:07
Wie kommt ihr darauf das man die Bezeichnung G9x verwenden wird?
Weil es in diese Richtung eben viele Ankündigungen gab und zudem wohl NV ein neues Namensschema verfolgt, weshalb die G9x-Bezeichnung notwendig wird.
Gx0(HighEnd) -> Gx2(LowerHighEnd/UpperMidrange) -> Gx4(Midrange) -> Gx6(LowEnd) -> Gx8(LowestEnd, siehe G78)

65nm glaube ich noch nicht so recht. Bisher gibt es keinen High End Chip der auch noch in die nähe eines Tape Outs bei 65nm gekommen ist.
Das könnte aber eben bald kommen, AiL machte dazu schon Andeutungen und schon 2006 wurde von Bestrebungen Seitens NV in Richtung 65nm berichtet

Hvoralek
2007-02-22, 18:25:57
Hier noch ein paar Dinge die ich noch für den G9x spekuliere:
[...]
-Veränderungen an den ALUsWie stellst Du Dir das vor? Das zusätzliche MUL zum MADD erweitert wie bei G70?

laser114
2007-02-22, 18:26:28
Weil es in diese Richtung eben viele Ankündigungen gab und zudem wohl NV ein neues Namensschema verfolgt, weshalb die G9x-Bezeichnung notwendig wird.
Gx0(HighEnd) -> Gx2(LowerHighEnd/UpperMidrange) -> Gx4(Midrange) -> Gx6(LowEnd) -> Gx8(LowestEnd, siehe G78)

Da könnte man aber durchaus Refresh-Chipnamen einbauen, in den ungraden Zahlen. Wer sich das Schema ausgedacht hat, hat sich dabei sicherlich auch etwas gedacht. ;)

Das könnte aber eben bald kommen, AiL machte dazu schon Andeutungen und schon 2006 wurde von Bestrebungen Seitens NV in Richtung 65nm berichtet

Ende 2007 kann ich mir schon 65 nm im High-End vorstellen ... sind ja doch noch rund 9 Monate.

Anarchy-HWLUXX
2007-02-22, 18:49:58
H2 = November 07 sollte alles glatt gehen.

November 07 ist Q4 ;) Also wie ich geschrieben hab ...

Konami
2007-02-22, 19:03:40
Da könnte man aber durchaus Refresh-Chipnamen einbauen, in den ungraden Zahlen. Wer sich das Schema ausgedacht hat, hat sich dabei sicherlich auch etwas gedacht. ;)
D.h. G81 als Refresh-Highend-Name ...
Könnte schon sein, aber bisher konnte ich überall nur lesen, dass es keinen G81 geben wird, auch bei vr-zone.

An 65nm zweifle ich inzwischen aber auch nicht mehr, G78 in 65nm soll ja auch schon im H1 erscheinen, das ist genug Zeit für nV, den Prozess auszufeilen.

Anarchy-HWLUXX
2007-02-22, 19:43:06
Der G78 ist aber auch ein winziger Low End Chip und kein 700m Transistoren monster das mit enormen Taktraten betrieben wird ... nen sehr großer unterschied, bis das mal umgesetzt ist dauert des eben ne ganze weile ...

Ailuros
2007-02-22, 23:36:49
Ich will zu den ersten zwei Punkten noch gar nichts sagen; den 64bit Quark koennt Ihr erleichtert vergessen. Ich bezweifle dass Entwickler was von dekorativen Features halten.

Fetza
2007-02-23, 00:25:30
Ich glaube nicht, das er noch diese jahr kommen wird. Ausser er baut stark auf der g80 architektur auf. NV hat doch selbst gesagt, das aufgrund der chip komplexität heutiger gpus, ein jahresrythmus nicht mehr einzuhalten ist. Die werden warscheinlich erstmal alles daran setzen demächst den g81 zur reife zu bringen.

greetz

Fetza

Nakai
2007-02-23, 11:06:07
Ich will zu den ersten zwei Punkten noch gar nichts sagen; den 64bit Quark koennt Ihr erleichtert vergessen. Ich bezweifle dass Entwickler was von dekorativen Features halten.

Dann eben 2 32Bit Präzision.^^

mfg Nakai

Thowe
2007-02-23, 15:26:16
...

Das könnte aber eben bald kommen, AiL machte dazu schon Andeutungen und schon 2006 wurde von Bestrebungen Seitens NV in Richtung 65nm berichtet

Das ist sogar wahrscheinlich. Vgl: http://www.tsmc.com/english/b_technology/b01_platform/b010101_65nm.htm

und dort im besonderen: "65-nm Benefits

NexsysSM 65-nm process many advantages over other technologies. The 65-nm process is double the gate density and more than 50-percent faster than NexsysSM 90nm. And, because there's minimal process modification there's an easy migration from 90nm. "

Ich glaube aber nicht, das NV ein großes Update gegenüber der GF8800 liefern wird, eher, das sie neue, schnellere Versionen und vor allem günstigere somit liefern können.

AnarchX
2007-02-23, 15:40:37
Stellt sich nur die Frage wie reif der 65nm Prozess ist, AFAIR wurde doch vor kurzem noch von relativ schlechten Yields berichtet, wobei sich das aber natürlich ändern könnte bis zum H2.

Auch eine Frage ist die ich mir stelle:
Wird der G90 die (erste) 1 TFLOP GPU sein?

Immerhin würde man ja dies schon mit der moderaten Erhöhung der Skalar-ALUs auf 160 und bei vielleicht 4FLOPs pro Einheit, bei 1.6GHz erreichen.
(bei dem Schritt von NV40 auf G70 erhöhte man die arithmetische Leistung ja auch um über 100% (81 -> 165GFLOPs)).

reunion
2007-02-23, 15:55:00
Auch eine Frage ist die ich mir stelle:
Wird der G90 die (erste) 1 TFLOP GPU sein?


Er könnte das TeraFLOP übertreffen, allerdings wird er IMHO nicht der erste dieser art sein. Denn bei dem Tempo, dass nV aktuell bei neuen Fertigungsprozessen vorlegt, ist ATi mit R650 sicherlich wieder einige Monate früher dran mit 65nm, und dieser wird durch den Verzicht auf skalare ALUs eine höhere Maximalleistung benötigen, und deshalb das TFLOP ziemlich sicher übertreffen.

Gast
2007-02-23, 21:13:27
Denn bei dem Tempo, dass nV aktuell bei neuen Fertigungsprozessen vorlegt, ist ATi mit R650 sicherlich wieder einige Monate früher dran mit 65nm,...
etwas an den haaren herbeigezogen
bisher ist nur nvidia nur bei neuvorstellungen etwas konservativer gefahren
90nm hatten sie auch sehr früh

Gast
2007-02-23, 23:49:41
Ich glaube nicht, das er noch diese jahr kommen wird. Ausser er baut stark auf der g80 architektur auf.

davon ist stark auszugehen, die G80-architektur als basis wird nvidia noch sehr lange erhalten bleiben.

Schrotti
2007-02-23, 23:57:56
Warum arbeitet nv nicht mit Intel zusammen und bringt den G90 dann in 45nm (das währe der Hammer schlechthin).

Gast
2007-02-24, 00:00:30
Weil der 45nm-Intel-Prozess erstens bis Herbst nicht reif wäre und zweitens wohl für GPUs gänzlich ungeeignet ist.

Schrotti
2007-02-24, 00:01:52
Ich habe da zwar nicht so die Ahnung von aber warum sollte der 45nm Prozess von Intel für GPUs unbrauchbar sein?

Edit: Intel Xeon im 45nm Prozess im 3 Quartal 2007 --> Computerbase (http://www.computerbase.de/news/hardware/prozessoren/intel/2007/februar/intel_xeon_45_3_quartal_2007/)

Gast
2007-02-24, 00:03:34
G80: 600Mio+ Logiktransistoren
Core2Duo-Kern: ~19Mio Logiktransistoren

Schrotti
2007-02-24, 00:08:15
Ok, überzeugt.

Mfg Schrotti

Gast
2007-02-24, 03:42:41
bin mal gespannt welchen bezeichnung es dann für die karten gibt, weil die 9xxx serie kennen wir ja wohl noch zu gut oder ist es denen scheiß egal und wir (ich) können dann direkt von ner 9800pro auf ne 9800gtx umsteigen? :)

(+44)
2007-02-24, 03:48:53
Ob nun G81 oder gleich G90 - an der Architektur wird sich sicherlich kaum was ändern, wird sicher wie der Schritt 6800 Ultra - 7800GTX.

Die Architektur steht, jetzt werden einfach mehr Cluster hinzugefügt und später wird der neue Chip dann wahrscheinlich nochmal geshrinked und deutlich höher getaktet. (7800GTX=>7900GTX).

Und dann kommt der NV60 ;) (Und meine 8800GTS ist endgültig nichtmehr zum Spielen brauchbar ;) )

Konami
2007-02-24, 06:19:56
bin mal gespannt welchen bezeichnung es dann für die karten gibt, weil die 9xxx serie kennen wir ja wohl noch zu gut oder ist es denen scheiß egal und wir (ich) können dann direkt von ner 9800pro auf ne 9800gtx umsteigen? :)
Sehr geil, ich würde in dem Fall von einer 9700 auf eine 9800 umsteigen, nur sicher auf keine 9800 Pro. ;D
Es ist aber auch möglich, dass nV -- angesichts der Tatsache, dass es sich eben nur um einen Refresh handelt -- den G90 8900 nennt, allerdings wäre das IMHO recht unklug, denn dann wäre ATI mit ihrer nächsten Generation namentlich wieder "schneller" als nV (8900 vs. X3800). ;)

Ailuros
2007-02-24, 07:00:46
Er könnte das TeraFLOP übertreffen, allerdings wird er IMHO nicht der erste dieser art sein. Denn bei dem Tempo, dass nV aktuell bei neuen Fertigungsprozessen vorlegt, ist ATi mit R650 sicherlich wieder einige Monate früher dran mit 65nm, und dieser wird durch den Verzicht auf skalare ALUs eine höhere Maximalleistung benötigen, und deshalb das TFLOP ziemlich sicher übertreffen.

Das ziemlich sicher gefaellt mir am besten :P

R600 ist kein R580 dem man nur so ein paar extra ALUs dazuschiebt, so dass es nur knapp +60M Transistoren kosten wuerde.

Idiotische spekulative Mathe:

R600 und G80 + jeweils 50% mehr clusters (beide aber hypothetisch auf 65nm):

6*Vec16 vs. 20*Vec8

160 * 4 FLOPs (MADD+MADD) * 1.6GHz = 1024 GFLOPs

96 * 9 FLOPs * 1.0 GHz = 864 GFLOPs

hmmmm zu wenig....

128 * 9 FLOPs * 0.9 GHz = 1037 GFLOPs

Die Verdoppelung der clusters auf R6x0 klingt eher unwahrscheinlich, was dann noch uebrig bleiben wuerde waere >5D (was mir aber keinen Sinn macht).

Natuerlich ist die sinnlose Rechnerei absolut fuer die Tonne, aber Du kannst es ja gerne probieren selber mal etwas herumzurechnen, denn mir leuchtet hier offensichtlich etwas nicht ein.

reunion
2007-02-24, 09:35:07
Wie kommst du bei 5D-ALUs, die MADD plus ADD beherrschen sollen, auf nur 9 FLOPs? Schon Xenos hatte 9 FLOPs, und dem fehlte die ADD. R3X0-R5X0 hatten mit vec3+1-ALUs schon 12 FLOPs pro ALU. Und warum sollte ATi die zweite ALU nicht ebenfalls MADD-fähig machen bei R650, wie du es bei G90 angibst.

Thowe
2007-02-24, 10:58:14
G80: 600Mio+ Logiktransistoren
Core2Duo-Kern: ~19Mio Logiktransistoren

Die Anzahl der Logiktransistoren macht nicht so den gravierenden Unterschied. Wenn man erst einmal in der Lage ist überhaupt komplexe Logiken aufs Silizium zu bringen, ist der Rest eigentlich nur noch eine Frage von Optimierungen und somit am Ende der Ausbeute. Somal auch beim G80 sicherlich einige Millionen Transistoren nur für die Erhöhung der möglichen Ausbeute drauf gehen und das ganze Design durchaus "entkompliziert" ist, ansonsten wäre die Ausbeute egal wo gefertigt ein Witz und in deren Welt zählt halt nur das time to volume.

INTEL wird aber sicherlich nichts für NVIDIA fertigen. Somal sie sich selbst durchaus sehr gut auslasten. Vor allem, der Grafikchipdesigner liefert ja nicht ein "Schaltbild" das dann mal eben belichtet wird. Sowas funktioniert ganz anders. Im Falle von NVIDIA setzen diese die Tools von Synopsys ein und die wiederum haben die nötigen Bibliotheken von TSMC. Im Falle der GF8800 gingen die ersten ICs nach ASUStek, die die Referenzkarte für NVIDIA designen, fertigen bzw. bestücken.

seahawk
2007-02-24, 17:20:39
Das ziemlich sicher gefaellt mir am besten :P

R600 ist kein R580 dem man nur so ein paar extra ALUs dazuschiebt, so dass es nur knapp +60M Transistoren kosten wuerde.

Idiotische spekulative Mathe:

R600 und G80 + jeweils 50% mehr clusters (beide aber hypothetisch auf 65nm):

6*Vec16 vs. 20*Vec8

160 * 4 FLOPs (MADD+MADD) * 1.6GHz = 1024 GFLOPs

96 * 9 FLOPs * 1.0 GHz = 864 GFLOPs

hmmmm zu wenig....

128 * 9 FLOPs * 0.9 GHz = 1037 GFLOPs

Die Verdoppelung der clusters auf R6x0 klingt eher unwahrscheinlich, was dann noch uebrig bleiben wuerde waere >5D (was mir aber keinen Sinn macht).

Natuerlich ist die sinnlose Rechnerei absolut fuer die Tonne, aber Du kannst es ja gerne probieren selber mal etwas herumzurechnen, denn mir leuchtet hier offensichtlich etwas nicht ein.

Man sollte dann aber auch min. Madd+Madd beim R6X0 annhemen. Dazu würde ich auch mehr als 900mhz Takt als Designtarget erwarten.

Ailuros
2007-02-25, 23:19:39
Wie kommst du bei 5D-ALUs, die MADD plus ADD beherrschen sollen, auf nur 9 FLOPs?

Erstens rechne ich es von der angegebenen insgesamten GFLOP-Rate runter und zweitens ergeben ungerade Dimensionen auch ungerade FLOP-Raten.

Schon Xenos hatte 9 FLOPs, und dem fehlte die ADD.

Xenos hat 5D = Vec4+scalar

R3X0-R5X0 hatten mit vec3+1-ALUs schon 12 FLOPs pro ALU.

Es sind ja auch 4D ALUs.

Und warum sollte ATi die zweite ALU nicht ebenfalls MADD-fähig machen bei R650, wie du es bei G90 angibst.

Es gibt schon einen guten Grund, aber den darfst Du Dir bis zum Launch selber ausdenken :P

Ailuros
2007-02-25, 23:27:26
Man sollte dann aber auch min. Madd+Madd beim R6X0 annhemen. Dazu würde ich auch mehr als 900mhz Takt als Designtarget erwarten.

96 * 10 FLOPs * 1.1GHz = 1056
128 * 10 FLOPs * 0.8GHz = 1024

+300MHz im ersten Fall werden alles andere als "leicht" sein zu schaffen und doppelt so viel "Universal"-ALUs als auf R600 wuerde genau wieviel mehr Transistoren kosten?

Streng Dich an und finde eher etwas dass sich im 800-850M Bereich bewegt und nicht allzu hoeher als 800MHz getaktet ist.

Gast
2007-02-26, 09:39:49
Erstens rechne ich es von der angegebenen insgesamten GFLOP-Rate runter und zweitens ergeben ungerade Dimensionen auch ungerade FLOP-Raten.


Also hat R600 wirklich nur 64 x 9 x 0.8 ~ 460GFLOPs?
Das wäre ja viel zu wenig, wenn ich da nicht noch irgendetwas wichtiges übersehe.


Xenos hat 5D = Vec4+scalar


Das weiß ich. Ich ging nur bisher davon aus, dass das auch R600 haben wird. :)

reunion

AnarchX
2007-02-26, 10:11:58
Also hat R600 wirklich nur 64 x 9 x 0.8 ~ 460GFLOPs?
Das wäre ja viel zu wenig, wenn ich da nicht noch irgendetwas wichtiges übersehe.


Ich halt es mittlerweile auch für gar nicht so unrealistisch, man sollte sich einfach mal folgendes überlegen:

Wir haben die gesicherte Info, dass der R600 bei etwas 700Mio Transistoren liegt, dazu wird das 512Bit SI wohl auch nicht gerade wenige Transistoren brauchen.

Da bleibt dann eben nicht mehr viel Platz, wenn man kein Clockdomains einsetzt, wie angenommen, deshalb wird man wohl eher an der arithmetischen Leistung etwas gespart haben um mehr Transistoren für ROPs und TMUs frei zu haben, deren Leistung auch heute noch sehr wichtig ist für die Gesamtleistung.

Ich könnte mir durchaus auch vorstellen, dass wir mit den R600 eine GPU sehen, die eigentlich gegen einen G80 auf CineFX-Basis antretten sollte.

Ailuros
2007-02-26, 11:17:21
Also hat R600 wirklich nur 64 x 9 x 0.8 ~ 460GFLOPs?
Das wäre ja viel zu wenig, wenn ich da nicht noch irgendetwas wichtiges übersehe.

Ob es jetzt 550-600 oder 470GFLOPs sind ist eher nebenwichtig; um einiges wichtiger ist die Effizienz der ALUs. Auf R580 Niveau koennen oder duerfen diese nicht liegen, sonst wuerden sie keine Chance bestehen.

Nichtdestominder Vec4 MADD = 8 FLOPs Scalar ADD = 1 FLOP; leuchtet Dir irgend eine andere Idee ein die z.B. 11 FLOPs liefern koennte? Das Resultat waere dann wohl eher Vec4 MADD + Scalar MADD + Scalar ADD.

Da bleibt dann eben nicht mehr viel Platz, wenn man kein Clockdomains einsetzt, wie angenommen, deshalb wird man wohl eher an der arithmetischen Leistung etwas gespart haben um mehr Transistoren für ROPs und TMUs frei zu haben, deren Leistung auch heute noch sehr wichtig ist für die Gesamtleistung.

Was besonderes was die Anzahl und die Faehigkeiten der ROPs bzw. TMUs im Vergleich zur Konkurrenz betrifft sehe ich nichts besonderes. Ich wuerde eher vermuten dass sie genug Transistoren verplempert haben um die Dinger dann eventuell auch als 2.5x mal so viel SPs als auf G80 "verkaufen" zu koennen.

seahawk
2007-02-26, 14:21:32
96 * 10 FLOPs * 1.1GHz = 1056
128 * 10 FLOPs * 0.8GHz = 1024

+300MHz im ersten Fall werden alles andere als "leicht" sein zu schaffen und doppelt so viel "Universal"-ALUs als auf R600 wuerde genau wieviel mehr Transistoren kosten?

Streng Dich an und finde eher etwas dass sich im 800-850M Bereich bewegt und nicht allzu hoeher als 800MHz getaktet ist.

Ich hääte jetzt 96 ALUs gesagt, auch wenn das knapp darunter liegt.

reunion
2007-02-26, 16:12:41
Ob es jetzt 550-600 oder 470GFLOPs sind ist eher nebenwichtig; um einiges wichtiger ist die Effizienz der ALUs. Auf R580 Niveau koennen oder duerfen diese nicht liegen, sonst wuerden sie keine Chance bestehen.


Das ist klar. Aber auf G80-Niveau dürfte dies ohne skalare-ALUs auch verdammt schwer werden.


Nichtdestominder Vec4 MADD = 8 FLOPs Scalar ADD = 1 FLOP; leuchtet Dir irgend eine andere Idee ein die z.B. 11 FLOPs liefern koennte? Das Resultat waere dann wohl eher Vec4 MADD + Scalar MADD + Scalar ADD.


Ich dachte alle ALUs sind über ADD+MADD fähig. Also 3 (ADD+MADD) x 4 (vec4-ALUs) = 12FLOPs. Warum muss es unbedingt eine ungerade Zahl sein?

Nakai
2007-02-26, 16:31:25
Kann es sein, dass die eine Hälfte der ALUs des R600 ein MUL extra und die andere Hälfte ein ADD extra hat.

Warum muss es unbedingt eine ungerade Zahl sein?

Die ungerade Zahl wird nur durch ein extra ADD oder extra MUL erzeugt.
Könnte jedenfalls sehr nützlich für bestimmte Berechnungen sein.

mfg Nakai

Gast
2007-02-26, 19:55:06
Kann es sein, dass die eine Hälfte der ALUs des R600 ein MUL extra und die andere Hälfte ein ADD extra hat.



was sollte denn das bringen?

Nakai
2007-02-26, 20:21:42
So ist das gesamte Design weder MUL noch ADD-Lastig.
Und wenn eine MUL benötigt wird, ist sie ganz leicht anwählbar, ebenso wie beim ADD.
Wenn man ein MUL benötigt wurde beim Xenos die gesamte Vec4-ALU blockiert.

mfg Nakai

Gast
2007-02-26, 20:39:42
So ist das gesamte Design weder MUL noch ADD-Lastig.
Und wenn eine MUL benötigt wird, ist sie ganz leicht anwählbar, ebenso wie beim ADD.
Wenn man ein MUL benötigt wurde beim Xenos die gesamte Vec4-ALU blockiert.



nur hat das eben keinen sinn, da man nicht vorher wissen kann ob mehr ADDs oder MULs vorhanden sind, es kann also passieren dass das ADD-lastige programm auf einer ALU mit zusätzlichem MUL läuft und umgekehrt.

Nakai
2007-02-26, 20:43:11
Theoretisch kann das passieren, daher ist es auch ein Problem mit der Lastverteilung.
Vll sinds ja eine Vec3 und eine scalare MADD+ADD, dann kommt man auch auf 9 Flops. Ich frage mich immer noch warum es, laut Ail, genau 9 Flops sein sollen.
Die Flexibilität der ALUs muss schon verdammt gestiegen sein um den G80 mit theoretischer niedriger Shaderleistung zu schlagen.

mfg Nakai

Hvoralek
2007-02-26, 23:40:27
Kann es sein, dass die eine Hälfte der ALUs des R600 ein MUL extra und die andere Hälfte ein ADD extra hat.Man kann wohl davon ausgehen, dass alle ALUs auf dem Chip baugleich sind. Ich habe mich schon bei Xenos gefragt, warum man dem Ding nicht einfach ein MADD über 4+1 Kanäle spendiert hat. Wenn das mit den 9 FLOPs nicht wäre (so wie ich Ailuros verstanden habe, hat er das aus den vorhandenen Angaben über Takt und Arithmetikleistung errechnet), wäre das mMn auch noch eine Idee.

Ailuros
2007-02-27, 05:19:33
Ich dachte alle ALUs sind über ADD+MADD fähig. Also 3 (ADD+MADD) x 4 (vec4-ALUs) = 12FLOPs. Warum muss es unbedingt eine ungerade Zahl sein?

Huh?

Vec4 (MADD+ADD) = 12 FLOPs
Scalar (MADD+ADD) = 3 FLOPs
-----------------------------------
15 FLOPs

....oder

Vec4 MADD = 8 FLOPs
Scalar MADD+ADD = 3 FLOPs
----------------------------------
11 FLOPs

Das einzige was eine gerade Zahl ergibt waere:

Vec4 MADD = 8 FLOPs
Scalar MADD = 2 FLOPs
----------------------------------
10 FLOPs

(wobei man noch ADD zur Vec4 ALU dazuschieben kann, dann werden es halt 12).

Konami
2007-02-27, 16:21:41
Ich wage zu bezweifeln, dass nVidias nächste Highend-GPU R600 heißt und weise daher mal ganz beiläufig auf den Threadtitel hin. ;(

Nightspider
2007-02-28, 23:21:20
Ein paar kleine Fragen ? :)

1. Wieso sollte NVidia den G81 weglassen und gleich G90 nennen ?
2. Soll der dann gegen Ende des Jahres in 60nm erscheinen ?
3. Soll die 8800 GTX dann solange gegen den R600 antreten ?
4. Was bringt 64 Bit ?
5. 1 GB oder 1,5 GDDR4-1600 Mhz Speicher ?

Was meint ihr ?

dargo
2007-02-28, 23:24:06
5. 1 GB oder 1,5 GDDR4-1600 Mhz Speicher ?

Was meint ihr ?
Das hängt in erster Linie vom SI ab würde ich mal sagen. Sollte der G90 ein SI von 512Bit haben wird zwangsläufig 0,5 oder 1GB verbaut.

Gast
2007-02-28, 23:35:01
1. Wieso sollte NVidia den G81 weglassen und gleich G90 nennen ?


codenamen sind doch vollkommen egal, ob dieser nun G81 oder G90 heißen wird, es wird in jedem fall ein aufgebohrtes G80-design sein.


2. Soll der dann gegen Ende des Jahres in 60nm erscheinen ?

gute frage, da NV in letzter zeit bei high-end-chips eher vorsichtig mit neuen prozessen ist würde ich eher auf 80nm tippen, aber wir werden es ja sehen, vielleicht lässt NV die 80nm gleich aus oder es kommt "nur" ein kostenoptimierter G80 in 80nm und der eigentliche nachfolger schon in 65nm, gegen ende des jahres glaub ich aber kaum, eher anfang nächsten jahres.


3. Soll die 8800 GTX dann solange gegen den R600 antreten ?

das wird wohl stark davon abhängen wie stark der R600 sein wird. wird dieser nur geringfügig schneller als die 8800GTX wäre das durchaus vorstellbar, NV hat eigentlich nie auf biegen und brechen versucht im absoluten high-end die performancekrone zu halten sondern war eher darauf aus ein vollständiges produktportfolio von highend bis lowend zu haben und war damit meistens zeitlich ATI etwas voraus.

Fetza
2007-02-28, 23:53:59
das wird wohl stark davon abhängen wie stark der R600 sein wird. wird dieser nur geringfügig schneller als die 8800GTX wäre das durchaus vorstellbar, NV hat eigentlich nie auf biegen und brechen versucht im absoluten high-end die performancekrone zu halten sondern war eher darauf aus ein vollständiges produktportfolio von highend bis lowend zu haben und war damit meistens zeitlich ATI etwas voraus.

Deshalb gab es auch solche blüten wie die gtx 512 oder den nv30 mit seiner monsterkühlung :) NV versucht sehr wohl mit biegen und brechen das schnellste produkt zu haben, denk mal an SLI - und da sind sie auch gut mit beraten. Prestige ist wichtig, für jedes unternehmen was marktführerschaft erreichen will.

greetz

Fetza

Ailuros
2007-03-01, 00:07:03
codenamen sind doch vollkommen egal, ob dieser nun G81 oder G90 heißen wird, es wird in jedem fall ein aufgebohrtes G80-design sein.

Ein hypothetischer G81 waere aber verhaeltnismaessig langweilig im Vergleich zu G90.

gute frage, da NV in letzter zeit bei high-end-chips eher vorsichtig mit neuen prozessen ist würde ich eher auf 80nm tippen, aber wir werden es ja sehen, vielleicht lässt NV die 80nm gleich aus oder es kommt "nur" ein kostenoptimierter G80 in 80nm und der eigentliche nachfolger schon in 65nm, gegen ende des jahres glaub ich aber kaum, eher anfang nächsten jahres.

G70--->G71 = 2 Quartale und nicht 4.

das wird wohl stark davon abhängen wie stark der R600 sein wird. wird dieser nur geringfügig schneller als die 8800GTX wäre das durchaus vorstellbar

ForceWare 1x0 fuer XP sehe ich nicht vor Ende April ;)

Gast
2007-03-01, 13:01:32
Deshalb gab es auch solche blüten wie die gtx 512 oder den nv30 mit seiner monsterkühlung :) NV versucht sehr wohl mit biegen und brechen das schnellste produkt zu haben, denk mal an SLI - und da sind sie auch gut mit beraten.

NV30 war langsamer als die damalige radeon-konkurrenz, klar versucht man den rückstand so gering wie möglich zu halten, und so eine monsterkühlung war das auch nicht sie war nur extrem laut ;)

die GTX512 war auch kein schnellschuss sondern schon lange vorher (als quadro) auf dem markt und lediglich eine logische folge.

beim NV40 war man bei spitzenmodell leistungstechnisch zurück, bot aber abgesehen davon in jedem marktsegment das bessere preis/leistungsverhältnis, vor allem auch wesentlich früher als die konkurrenz.

dafür brachte man dann den G70 wesentlich früher als die konkurrenz heraus und war wieder vorne.

ähnliches zuletzt, der G71 war dem R580 auch meistens unterlegen, allerdings gab es von ATI im mainstreamsegment lange nichts vernünftiges und mittlerweile gibt es nun schon den G80.

das spielchen geht jetzt schon lange, ATI ist in der spitzenleistung zwar vorne aber immer viel zu spät dran und bringt bei den "bezahlbareren" karten preis/leistungstechnisch meistens nichts zustande.

Ailuros
2007-03-01, 13:41:41
GTX512 war eine Entscheidung der letzten Minute.

Raff
2007-03-01, 14:01:35
ForceWare 1x0 fuer XP sehe ich nicht vor Ende April ;)

Da du offenbar sehr gut informiert bist: warum? ;)

MfG,
Raff

Gast
2007-03-01, 23:39:51
Vermutlich weil dann R600 erscheint und G8x mit Forceware 11x auf einmal "zufällig" ziemlich ALU-Performance dazugewinnt ;)

Gast
2007-03-01, 23:45:25
ähnliches zuletzt, der G71 war dem R580 auch meistens unterlegen, allerdings gab es von ATI im mainstreamsegment lange nichts vernünftiges und mittlerweile gibt es nun schon den G80.

Im Preisbereich 120-240€ konkurieren G7x und R5x0. Ich denke das ATI/AMD da noch ganz gut steht.

Gasthaus
2007-03-02, 01:54:42
Vermutlich weil dann R600 erscheint und G8x mit Forceware 11x auf einmal "zufällig" ziemlich ALU-Performance dazugewinnt ;)

Das halte ich auch für wahrscheinlich und sehr elegant für NV.Ich hoffe nur das an der BQ kein nm nach unten geschraubt wird.

Andererseits erhoffe ich mir vom neuen Treiber ein besseres Powermanagement.Volle Drehzahl im Desktop ist ein bissl dumm.

Fetza
2007-03-02, 02:05:38
NV30 war langsamer als die damalige radeon-konkurrenz, klar versucht man den rückstand so gering wie möglich zu halten, und so eine monsterkühlung war das auch nicht sie war nur extrem laut ;)

Und damit ist das bereits ein wiederspruch zu deiner behauptung bezüglich nvs mangelndem interesse an performance führerschaft. Die kühlung war in jedem fall eine monsterkühlung, da riesiger haufen kupfer mit fön drann. Extrem laut kannst du nicht so laut schreien wie die karte im betrieb unerträglich war


die GTX512 war auch kein schnellschuss sondern schon lange vorher (als quadro) auf dem markt und lediglich eine logische folge.

GTX512 war eine Entscheidung der letzten Minute. genau ;)


beim NV40 war man bei spitzenmodell leistungstechnisch zurück, bot aber abgesehen davon in jedem marktsegment das bessere preis/leistungsverhältnis, vor allem auch wesentlich früher als die konkurrenz.

Nope, sm3 bot nix für den gamer zu der zeit und das 4xaa bot kein "gamma korrektes downsampling" was sich für mich als radeon 9800pro besitzer als so störend herausstellte, das ich eine auflösung höher stellen musste. Die performance war auch im schnitt ein tick besser, bis auf doom3 - wofür ich mir den nv40 auch extra holte.

Ailuros
2007-03-02, 06:20:44
Da du offenbar sehr gut informiert bist: warum? ;)

MfG,
Raff

Der Gast hat es zwar schon beantwortet...aber warum sollte man der Konkurrenz vorzeitig zeigen was man noch irgendwo "versteckt" hat?

Um D3D10 Leistung zwischen den beiden wird es ja eigentlich gar nicht gehen in diesem Jahr, eher um D3D9 Leistung und dabei ist es egal ob es sich um XP oder Vista handelt.

Gast
2007-03-02, 11:33:56
kann auch nach hinten losgehen, wenn bei den reviews dann alte benchesgenommen werden
bei großen reviews mit riesigen "fuhrpark" nicht grad unüblich

Godmode
2007-03-02, 11:54:49
kann auch nach hinten losgehen, wenn bei den reviews dann alte benchesgenommen werden
bei großen reviews mit riesigen "fuhrpark" nicht grad unüblich

Ich denke wenn Nvidia das richtig Präsentiert, müssen sie fast den neuen Treiber verwenden!

Gast
2007-03-02, 21:29:49
Und damit ist das bereits ein wiederspruch zu deiner behauptung bezüglich nvs mangelndem interesse an performance führerschaft.


Das war 2003.
Selbst die GTX war nicht auf Teufel komm raus, sondern eher eine Spielerei von nVidia. 550MHz in 11nm mit diesem Chip war schon eine beachtliche Leistung.

Gast
2007-03-02, 23:01:42
Und damit ist das bereits ein wiederspruch zu deiner behauptung bezüglich nvs mangelndem interesse an performance führerschaft.

natürlich hat auch NV genauso interesse an der besten performance, nur eben nicht um jeden preis.

wenn es mal nicht klappt wird nicht sofort ein noch höher getaktetes modell herausgebracht, sondern am nanchfolger weiterentwickelt der dann umso mehr vorsprung hat, dank ATIs ständigen verspätungen klappt das bis jetzt ja auch wunderbar.

Ailuros
2007-03-03, 07:04:05
kann auch nach hinten losgehen, wenn bei den reviews dann alte benchesgenommen werden
bei großen reviews mit riesigen "fuhrpark" nicht grad unüblich

Schlag mal vor welche der grosse Webseiten nicht einen aktuellen Treiber sondern 6-monate alte Treiber verwenden wuerde?

Gast
2007-03-03, 13:29:04
es geht nicht drum einen alten treiber zuverwenden, sondern das nicht jedes mal ein satz neuer karten getestet wird
eine neue karte wird getestet und mit den vorigen ergebnissen getestet
da wird doch nicht jedesmal die komplette palette an karten noch mal getestet nur weil nv eine neue treiberversion bringt(was jua nciht grad selten vorkommt)

kannst mir ja mal ne seite nennen welche regelmäßige graka tests machen mit mehr als 10 karten und die jedesmal neu benchen
natürlich bei nem aussagekräftigen parcour mit ca. 10 benches

Gast
2007-03-03, 13:30:54
sry für die schreibfehler, vergessen noch mal drüber zu lesen
editieren ist ja leider nicht drin

Gast
2007-03-03, 14:41:33
es geht nicht drum einen alten treiber zuverwenden, sondern das nicht jedes mal ein satz neuer karten getestet wird
eine neue karte wird getestet und mit den vorigen ergebnissen getestet
da wird doch nicht jedesmal die komplette palette an karten noch mal getestet nur weil nv eine neue treiberversion bringt(was jua nciht grad selten vorkommt)



och die "großen" websiten machen das alle, und falls es mal aus zeitgründen oder weil die karte gerade nicht verfügbar ist nicht möglich ist, wird extra darauf hingewiesen.

Gmax
2007-03-06, 22:50:12
Sollte es eigentlich nicht bald Pixel Shader 5 Hardware geben?
G80= PS4, G90= PS5 ?

deekey777
2007-03-06, 23:31:39
Sollte es eigentlich nicht bald Pixel Shader 5 Hardware geben?
G80= PS4, G90= PS5 ?
Wie kommst du darauf?
Ich glaub mal frech, dass weder der R700 noch G90 D3D11-fähig sein werden, sondern D3D10.1 oder .2.

Ailuros
2007-03-07, 05:49:24
Sollte es eigentlich nicht bald Pixel Shader 5 Hardware geben?
G80= PS4, G90= PS5 ?

SM4.0 wird wohl noch 4 Jaehrchen aushalten muessen.

Ailuros
2007-03-07, 06:01:25
es geht nicht drum einen alten treiber zuverwenden, sondern das nicht jedes mal ein satz neuer karten getestet wird
eine neue karte wird getestet und mit den vorigen ergebnissen getestet
da wird doch nicht jedesmal die komplette palette an karten noch mal getestet nur weil nv eine neue treiberversion bringt(was jua nciht grad selten vorkommt)

Wenn der verwendete Treiber fuer spezifische Tests immer noch der neueste sein sollte, dann ist es wohl verstaendlich dass die Resultate wieder verwendet werden koennen.

kannst mir ja mal ne seite nennen welche regelmäßige graka tests machen mit mehr als 10 karten und die jedesmal neu benchen
natürlich bei nem aussagekräftigen parcour mit ca. 10 benches

Kommt ganz drauf an wie regelmaessig.

# ATI Catalyst 5.12
# NVIDIA ForceWare 81.89

http://www.xbitlabs.com/articles/video/display/games-2005_2.html


# ATI Catalyst 6.6
# Nvidia ForceWare 91.31

http://www.xbitlabs.com/articles/video/display/7games-gpus_2.html

# ATI Catalyst 6.11
# Nvidia ForceWare 93.71 for the GeForce 7 series
# Nvidia ForceWare 97.02 for the GeForce 8800 GTX

http://www.xbitlabs.com/articles/video/display/gf8800-games_2.html

Falls mir aus deren Datenbank etwas entgangen sein sollte kannst Du mich gerne korrigieren.

Du kannst Gift drauf nehmen dass wenn NV endlich mit den Leistungstreibern offiziell ankommt, dass solche Webseiten sich sofort zu neuen Tests beielen werden.

Gast
2007-03-07, 13:07:19
gut in der speziellen situation kann das gut sein
aber es eher um das generelle vorgehen
bei computerbase werden auch nicht so oft nachtests gemacht

Gaestle
2007-03-07, 13:36:33
gut in der speziellen situation kann das gut sein
aber es eher um das generelle vorgehen
bei computerbase werden auch nicht so oft nachtests gemacht

Ich bilde mir aber ein, dass dies ein "Alleinstellungsmerkmal" der CB ist.

=Floi=
2007-03-07, 20:55:53
ganz einfach
NV schaltet die physik unterstützung und SLI mit der 3. karte frei und es MUSS ein neuer treiber verwendet werden...

Ailuros
2007-03-07, 22:59:23
gut in der speziellen situation kann das gut sein
aber es eher um das generelle vorgehen
bei computerbase werden auch nicht so oft nachtests gemacht

Die Frage ist ob Xbit labs oder Computerbase die "spezielle" Situation ist.

Gast
2007-03-08, 01:00:37
da lässt sich bestimmt hervorragend drüber streiten ;)

AnarchX
2007-03-13, 11:32:11
So besonders scheint der G90 doch wohl nicht zu sein, wenn man Fuad glauben will. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5322384#post5322384)
Doch nur ein G80-Shrink in 65nm?

seahawk
2007-03-13, 11:39:16
Man könnte böse sein und sagen, dass NV einen Chip "ausgelasen" hat. G90 ist/war mehr als ein Shrink.

robbitop
2007-03-13, 11:47:21
So ist das gesamte Design weder MUL noch ADD-Lastig.
Und wenn eine MUL benötigt wird, ist sie ganz leicht anwählbar, ebenso wie beim ADD.
Wenn man ein MUL benötigt wurde beim Xenos die gesamte Vec4-ALU blockiert.

mfg Nakai
Das wuerde nur den Scheduler unnoetig verkomplizieren.

James Ryan
2007-03-13, 11:51:48
So besonders scheint der G90 doch wohl nicht zu sein, wenn man Fuad glauben will. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5322384#post5322384)
Doch nur ein G80-Shrink in 65nm?

Naja, ein G80 Shrink in 65nm + 2 Quads mehr dran (=512 Bit SI und 1 GB Ram) und erhöhten Takt dürfte schon ganz gut gegen ATis neue Karten bestehen (wenn da mal was kommen sollte... :rolleyes: ).
Was anderes war der G70 im Gegensatz zum NV40 auch nicht. ;)

MfG :cool:

AnarchX
2007-03-13, 11:55:57
Was anderes war der G70 im Gegensatz zum NV40 auch nicht. ;)

Aber bei NV47(G70) wurden die ALUs doch nochmal ordentlich aufgebohrt.

Wobei wir grade dabei sind:
[NVIDIA Getting Ready For Shader Model 5.0 GPU] (http://www.vr-zone.com/index.php?i=4768)

Stellt sich die Frage ob dies vielleicht schon für den G90 gilt, was VR-Zone auch denkt, oder erst für den G100, was imo etwas mehr Sinn machen würde.

James Ryan
2007-03-13, 11:57:33
Aber bei NV47(G70) wurden die ALUs doch nochmal ordentlich aufgebohrt.


Wer sagt dir dass ähnliches nicht auch beim G90 gemacht wird? ;)

MfG :cool:

AnarchX
2007-03-13, 12:01:53
Wer sagt dir dass ähnliches nicht auch beim G90 gemacht wird? ;)


Bevor bekannt wurde, dass der G100 schon Anfang 2008 kommen könnte, hielt ich dies auch noch für sehr realistisch.

Aber ein G90(G80 in 65nm) mit vielleicht ein paar kleineren Optimierungen(G70->G71), der seine Mehrleistung durch den Takt allein erreicht, würde imo auch Sinn machen, da man so wohl weniger Probleme mit dem neuen Prozesse haben würde und vorallem wieder eine richtige Preiskampf-GPU hätte, wie der G71 es auch war.

Da heißt es wohl abwarten, vielleicht überrascht uns NV ja doch mit einem G90 der mehr drauf hat. ;)

deekey777
2007-03-13, 12:06:26
Aber bei NV47(G70) wurden die ALUs doch nochmal ordentlich aufgebohrt.

Wobei wir grade dabei sind:
[NVIDIA Getting Ready For Shader Model 5.0 GPU] (http://www.vr-zone.com/index.php?i=4768)

Stellt sich die Frage ob dies vielleicht schon für den G90 gilt, was VR-Zone auch denkt, oder erst für den G100, was imo etwas mehr Sinn machen würde.
We heard faintly that G90 will come quickly so it seems NVIDIA is gearing up for that and it should support SM 5.0 and DX 10.1. NVIDIA has revealed in their CUDA release note that there will be a new NVIDIA GPU by late 2007 that supports double precision arithmetic so that could be G90. From our sources, we came to know that ATi is pushing for 55nm and DX10.1 by early 2008 and that could be R700.
Und das ist Bullshit.

AnarchX
2007-03-13, 12:13:39
Und das ist Bullshit.

Stehen eigentlich die D310.1 Specs schon fest?

Ob nun D3D11 oder D3D10.1, es sieht jedenfalls danach aus, das wohl SM5.0 Hardware nicht lange auf sich warten lässt.

Ailuros
2007-03-13, 13:33:07
Aber bei NV47(G70) wurden die ALUs doch nochmal ordentlich aufgebohrt.

Wobei wir grade dabei sind:
[NVIDIA Getting Ready For Shader Model 5.0 GPU] (http://www.vr-zone.com/index.php?i=4768)

Stellt sich die Frage ob dies vielleicht schon für den G90 gilt, was VR-Zone auch denkt, oder erst für den G100, was imo etwas mehr Sinn machen würde.

Ausser ich hab was verpasst stammt das Bildchen aus einem sehr fruehem draft fuer "D3D11".

AFAIK Shader Model 4.0 = D3D10-D3D10.2 und "SM5" = "D3D11" oder DX-Uebernext.

G90 ist ein 65nm G8x Refresh und danach kommen hoechstwahrscheinlich noch 2 "Refresh-generationen" fuer .1 & .2.

Ailuros
2007-03-13, 13:34:58
Stehen eigentlich die D310.1 Specs schon fest?

Ob nun D3D11 oder D3D10.1, es sieht jedenfalls danach aus, das wohl SM5.0 Hardware nicht lange auf sich warten lässt.

Nun ja wenn Dir ~2011 eine "kurze" Zeit erscheint, dann wohl kein Einwand :rolleyes:

AnarchX
2007-03-13, 13:51:34
Nun ja wenn Dir ~2011 eine "kurze" Zeit erscheint, dann wohl kein Einwand :rolleyes:

Und wie erlärst du dir die Profile im SDK?

Ailuros
2007-03-13, 14:19:11
Und wie erlärst du dir die Profile im SDK?

Die Frage ist wieso Xbit auf die Schlussvolgerung kam...

According to X-bit, NVIDIA new SDK 10 which was released just last week includes CG profiles as Fragment50, Vertex50, Geometry50 which means it supports architecture micro-code profiles for Pixel Shaders 5.0, Vertex Shaders 5.0 and Geometry Shaders 5.0.

Fragt doch mal Demirug denn ich hab das oede Gefuehl dass alles "50" vom angeblich "stornierten" NV50 stammen koennte.

Ailuros
2007-03-13, 14:21:46
Uebrigens ganz so nebenbei, falls in "D3D11" Tesselation wieder nicht programmierbar sein sollte, sieht es wohl eher danach aus dass der fixed function Bullshit im Laufe der Jahre wieder storniert wird.

deekey777
2007-03-13, 17:39:15
Fragt doch mal Demirug denn ich hab das oede Gefuehl dass alles "50" vom angeblich "stornierten" NV50 stammen koennte.
Dein Gefühl trügt dich nicht. :biggrin:

Gmax
2007-03-13, 18:32:14
Nvidia G100 scheduled for Q1 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=125&Itemid=1)

Hat Fuad die Tochter des nVidia Boss geheiratet? :biggrin:

Edit: Wenn das stimmt, dann halte ich auch PS5 für Q1 08 für möglich.

Konami
2007-03-13, 18:38:33
Nvidia G100 scheduled for Q1 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=125&Itemid=1)

Hat Fuad die Tochter des nVidia Boss geheiratet? :biggrin:

Edit: Wenn das stimmt, dann halte ich auch PS5 für Q1 08 für möglich.
Falls er mit den Codenamen Recht haben sollte, wird hier aber eigentlich schon lange über G100 geredet, nur mit einem G80-Shrink (der laut Fuad nun G90 heißen soll) hat niemand gerechnet.

Dann müsste G90 aber auch schon deutlich früher rauskommen, als R600-Konter quasi.

Ailuros
2007-03-13, 20:24:14
Nvidia G100 scheduled for Q1 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=125&Itemid=1)

Hat Fuad die Tochter des nVidia Boss geheiratet? :biggrin:

Edit: Wenn das stimmt, dann halte ich auch PS5 für Q1 08 für möglich.

*seufz* erstens ist der newsblurb fuer die Tonne (ach ja NV veroeffentlicht irgendwo =/>Q3 einen G90 und schwupps schon ein paar Monate spaeter kommt ein angeblicher "G100"....von was traeumt der Author nachts genau?).

Ich weiss schon wo die Projektion momentan liegt nur bin ich nicht so bloed und platze mein NDA.

"SM5.0" (fuer das es nichtmal eine offizielle Namensgebung bis jetzt gibt afaik) = D3D10 Nachfolger ergo "D3D11" oder wie immer dieses heisst und wohl nicht frueher als 4-5 Jahre nach der D3D10 Veroeffentlichung. Glaubt doch nicht blindlings jeden Mist den jeder zusammenkritzelt. Manchmal hilft einfache Logik.

Ailuros
2007-03-13, 20:26:26
Falls er mit den Codenamen Recht haben sollte, wird hier aber eigentlich schon lange über G100 geredet, nur mit einem G80-Shrink (der laut Fuad nun G90 heißen soll) hat niemand gerechnet.

Dann müsste G90 aber auch schon deutlich früher rauskommen, als R600-Konter quasi.

Dass G90 ein 65nm "G8x" ist musste uns der INQ weissmachen? :|

G90 war nie eine neue Generation und G100 eigentlich auch nicht.

Gmax
2007-03-13, 20:31:11
Sorry versteh ich da was falsch, aber hat nV nicht alle 2 Generationen eine neue Pixelshader Version eingeführt?

Warum sollte es dann noch so lange dauern, bis PS5 da ist?

Markus89
2007-03-13, 20:33:58
Sorry versteh ich da was falsch, aber hat nV nicht alle 2 Generationen eine neue Pixelshader Version eingeführt?

Warum sollte es dann noch so lange dauern, bis PS5 da ist?

Weil PS5.0 erst mit D3D11 kommt und wahrscheinlich nicht mit D3D10.1.
AiL hat ja oben gesagt, dass das wohl noch 4-5 Jahre dauern wird.

Konami
2007-03-13, 20:58:42
Dass G90 ein 65nm "G8x" ist musste uns der INQ weissmachen? :|

G90 war nie eine neue Generation und G100 eigentlich auch nicht.
Das hab ich auch nicht behauptet, aber ein Refresh (der ja für Anfang 08 erwartet wurde, sei es nun als "G90" oder nicht) ist trotzdem deutlich mehr als ein Shrink.

Gast
2007-03-13, 23:15:38
was verstehst du unter generation?
sm1.1: nv20
sm1.3: nv25
sm2: nv30
sm3:nv40, G70
sm4:G80

beim sm3 sind wir lange hängen geblieben
wenn man die dx version nimmt, hat dx9 verdammt lange durchgehalten(durchhalten müssen)

ich bezweifel das in zukunft wieder ein rekordtempo vorgelegt wird

Gast
2007-03-13, 23:50:07
Geht mal davon aus das G100 oder NV60, ca. 2 Jahre nach G80 erscheinen wird. Je nachdem wie "schnell" DX10.1 festgenagelt wird. Denke nicht das man den Chip zu früh bringt und dann im Refresh vieleicht das Design anpassen muss für DX10.1 compilance.
Selbiges kann man, wenn wir jetzt von einem festeren Rythmus ausgehen, auch für DX10.2 Chips sagen (G120/NV70), erstmal muss die Spec fest sein, und das kann dauern oder DX10.2 wird verworfen und DX11 kommt früher (was in etwa auf den Zeitraum 2011 hindeutet den Ailuros angedacht hat).

Ailuros
2007-03-14, 00:26:18
Das hab ich auch nicht behauptet, aber ein Refresh (der ja für Anfang 08 erwartet wurde, sei es nun als "G90" oder nicht) ist trotzdem deutlich mehr als ein Shrink.

G90 war schon immer fuer H2 2007 projeziert, seitdem es klar wurde wann G80 in etwa auf die Regale kommt.

Ailuros
2007-03-14, 00:29:53
Sorry versteh ich da was falsch, aber hat nV nicht alle 2 Generationen eine neue Pixelshader Version eingeführt?

Warum sollte es dann noch so lange dauern, bis PS5 da ist?

Argghh....

D3D9.0 =

SM2.0
SM2.0_extended = NV30
SM3.0 = NV40, G70

D3D10=

D3D10 = G80
D3D10.1
D3D10.2

Ohne dass Microsoft ein total neues API in der Form von einem D3D10 Nachfolger vorstellt, wird es weder eine "neue" Shader Version geben, noch wird ein jeniger IHV das Risiko eingehen und vorzeitig Features implementieren die bis dann in keinem API festgelegt und auch nicht brauchbar sind ausserhalb von OpenGL.

Ailuros
2007-03-14, 00:34:19
Geht mal davon aus das G100 oder NV60, ca. 2 Jahre nach G80 erscheinen wird. Je nachdem wie "schnell" DX10.1 festgenagelt wird. Denke nicht das man den Chip zu früh bringt und dann im Refresh vieleicht das Design anpassen muss für DX10.1 compilance.
Selbiges kann man, wenn wir jetzt von einem festeren Rythmus ausgehen, auch für DX10.2 Chips sagen (G120/NV70), erstmal muss die Spec fest sein, und das kann dauern oder DX10.2 wird verworfen und DX11 kommt früher (was in etwa auf den Zeitraum 2011 hindeutet den Ailuros angedacht hat).

10.1 und 10.2 sind im relativen Sinn in etwa was SM2.0_extended und SM3.0 unter D3D9.0 waren, nur sind wohl die Schritte in D3D10 kleiner. AFAIK werden beide grosse IHVs sowohl fuer .1 als auch fuer .2 kompliante HW zeitig vorstellen.

Nochmal Demirug entdeckte das 50-er Zeug ueber ein Jahr vor der G80 Vorstellung; nur weil irgend ein Depp meinte er hat eine "tolle" Entdeckung gemacht heisst es gleich gar nichts. G80=NV50 der eben nie storniert sondern lediglich unbenannt wurde.

***edit: ganz so nebenbei, wenn mich mein Gedaechtnis nicht betruegt hat die Entwicklung von "DX-Next" (heutiges D3D10) in 2002 angefangen. Es sind satte 5 Jahre bis zum Erscheinen von D3D10 und dabei wurde sogar einiges herausgedrueckt um es schneller aus der Tuer zu bekommen und eben ein paar Kleinigkeiten fuer +1 und +2 verschoben. Da sie jetzt erst mit den drafts fuer das naechste API angefangen haben, ist ca. 2011 ein ziemlich realistisches Ziel.

Ich werde froh sein wenn zukuenftige GPUs in ~2010 reine D3D10 Spiele anstaendig bewaeltigen koennen ;)

Coda
2007-03-14, 02:59:36
Ail, das Wort "kompliant" gibt es nicht im Deutschen. Es heißt "konform".

Demirug
2007-03-14, 22:47:16
D3D10 ist für eine lange Laufzeit ausgelegt. Vielleicht kommt D3D11 sogar erst mit dem Vista Nachfolger.

Was nun diesen SM5 Blödsinn angeht so habe ich XBit eigentlich für kompetenter gehalten. Die Profile heißen vp50, gp50 und fp50. Sowohl aus dem p (für program) und dem f (für fragment) ergibt sich das wird es hier mit OpenGL Profile zu tun haben. Wer sich nun mit Cg auch nur etwas auskennt (also die beigefügte Anleitung lesen kann) muss zwangsläufig feststellen das vp40 und fp40 die Profile für die GF6xxx/GF7xxx Karten sind. Daher entspricht xp40 = SM3 und xp50 = SM4. SM5 müsste entsprechend xp60 seina ber seit nvidia weiß das andere und ich ihr Zeug auch mal gerne mit einem hexeditor anschauen achten sie peinlich darauf so viele Spuren wie möglich zu verwischen.

ScottManDeath
2007-03-14, 23:17:15
Jo, noobs am Werk :(

Die xp50 Profile stammen noch aus den Zeiten, als die G80 OpenGL Extensions waehrend der Entwicklung noch anders hiessen, bevor man sich auf NV_{geometry, vertex, fragment}_program4 geeinigt hatte. Die G80 CG OpenGL Profile sind gp4gp, gp4vp, gp4fp. Die xp50 Profile werden nicht supported, anscheinend hat jemand vergessen aufzuraeumen ;)

AnarchX
2007-03-15, 11:17:48
Bei Xbit hätte ich eigentlich auch vermutet, dass sie anhand der anderen Profile prüfen, ob es sich wirklich um ein SM5.0-Profil handelt...
Das wird wohl auch Leonidas gedacht haben (http://www.3dcenter.org/#2007-03-13). :biggrin:

Paul Brain
2007-03-21, 12:18:57
G90 war schon immer fuer H2 2007 projeziert, seitdem es klar wurde wann G80 in etwa auf die Regale kommt.
"H2" ist aber auch recht dehnbar; wann würdest Du in etwa mit der G90 rechnen? Ziemlich genau ein Jahr nach G80? Oder doch schon im (Spät-) Sommer?
Wahrscheinlich eher später, da sonst die 8800 Ultra nicht viel Sinn machen würde, oder? :)

mapel110
2007-03-21, 12:30:34
Die 8800 Ultra wirds doch wohl ähnlich 7800 GTX512 kaum zu kaufen geben. Dann ists ja relativ egal, wann nochmal nen Refresh kommt.
Bei 7x00 wars ja so.

Juni 7800er GTX
November 7800 GTX512
März 7900er

Godmode
2007-03-21, 12:31:16
"H2" ist aber auch recht dehnbar; wann würdest Du in etwa mit der G90 rechnen? Ziemlich genau ein Jahr nach G80? Oder doch schon im (Spät-) Sommer?
Wahrscheinlich eher später, da sonst die 8800 Ultra nicht viel Sinn machen würde, oder? :)

Naja ich würde sagen November passt schon ganz gut. Die Ultra soll doch am 17. April kommen, das wäre dann im Oktober/November wieder ein Halbes Jahr. Es wird darauf ankommen wie stark der R600 wird. Wenn die Ultra reicht um etwa Gleichstand oder leichten Rückstand zu erreichen, dann wird Nvidia nicht viel machen. Das haben sie schon letztes Jahr bewiesen.

Gast
2007-03-21, 19:10:12
Naja ich hoffe mal das nicht die Taktraten der Quadro wie damals übernommen werden ^^
Außer 1,5GB Ram hat die Quadro FX5600 ja anscheinend nichts dazu bekommen (Genlock und der ganze Profikrams mal außen vor).
Maximale Stromaufnahme wird mit 171Watt angegeben, sind wir mal positiv gestimmt hat der Core 600MHz, aber da muss man keine Ultra bringen da es ja OC von den Herstellern schon gibt.

Ailuros
2007-03-21, 19:40:02
"H2" ist aber auch recht dehnbar; wann würdest Du in etwa mit der G90 rechnen? Ziemlich genau ein Jahr nach G80? Oder doch schon im (Spät-) Sommer?
Wahrscheinlich eher später, da sonst die 8800 Ultra nicht viel Sinn machen würde, oder? :)

Wieviel Sinn machte denn die GTX512 genau? Die Projektion war als ich das letzte Mal fragte immer noch Anfang Herbst; heisst aber auch nichts, denn es muss auch wirklich alles nach Plan laufen was heutzutage selten der Fall ist.

Nightspider
2007-03-22, 21:14:23
Die Ultra ist möglicherweise eine Version, die aus stark selektierten Chips besteht, welche schlecht verfügbar sind.
Daher wäre es möglich, dass man mit dieser nur 3-5 Monate überbrückt.
Bei der 7800 GTX 512 war es doch genauso. Deswegen der Preis.

Paul Brain
2007-03-23, 10:16:45
Die 512er-Version der 7800GTX machte sehr viel Sinn: Unter hohen Auflösungen und Qualitätssettings zog sie ihrer kleinen Schwester auf und davon; im Prinzip war es die Karte, auf die ich gewartet hatte; endlich viel Speicherbandbreite, um auch ohne SLi vernünftige Auflösungen auf meinem großen CRT fahren zu können.
Die Verfügbarkeit und der Preis stehen natürlich wieder auf einem anderen Blatt.

Wie funktioniert das mit der Selektion eigentlich genau? Immerhin steht auf dem Die meiner 7800er (welche ich übrigens gestern einschicken mußte, das Artifacting wurde unerträglich) "7800GTX-512-A2" oder so ähnlich; wann wird denn die Bezeichnung auf den Chip aufgebracht? Nach der Selektion? :)

Fetza
2007-03-23, 16:32:22
Die 512er-Version der 7800GTX machte sehr viel Sinn: Unter hohen Auflösungen und Qualitätssettings zog sie ihrer kleinen Schwester auf und davon; im Prinzip war es die Karte, auf die ich gewartet hatte; endlich viel Speicherbandbreite, um auch ohne SLi vernünftige Auflösungen auf meinem großen CRT fahren zu können.
Die Verfügbarkeit und der Preis stehen natürlich wieder auf einem anderen Blatt.

Wie funktioniert das mit der Selektion eigentlich genau? Immerhin steht auf dem Die meiner 7800er (welche ich übrigens gestern einschicken mußte, das Artifacting wurde unerträglich) "7800GTX-512-A2" oder so ähnlich; wann wird denn die Bezeichnung auf den Chip aufgebracht? Nach der Selektion? :)

man muss das aber auch schon im preis/leistungsverhältnis sehen. Bevor ich mir eine solch hoffnungslos überteuerte karte in den rechner gesteckt hätte, wär ich lieber gleich auf zwei normale 7800er karten im sli ausgewichen, da ist die performance nochmals deutlich besser.

greetz

Gast
2007-03-23, 17:13:01
man muss das aber auch schon im preis/leistungsverhältnis sehen. Bevor ich mir eine solch hoffnungslos überteuerte karte in den rechner gesteckt hätte, wär ich lieber gleich auf zwei normale 7800er karten im sli ausgewichen, da ist die performance nochmals deutlich besser.Schon richtig, sofern er ein SLI-Board gehabt hat. Für den Preis der GTX/512 hätte man damals zwei 7800GT bekommen, die ein Stück schneller wären.Aber: Es geht bei Enthusiasten nicht immer nur um Performance. Manchmal ist Hardware so "sexy", dass man auch etwas mehr bezahlt. Welcher Hardwareliebhaber hat nicht gestaunt als man sah, dass auf der GTX/512 1,1ns-GDDR3 verbaut war? Naja, trotzdem war sie für mich deutlich zu teuer, auch wenn ich ziemlich beeindruckt war.

Gast
2007-03-23, 18:05:31
Glaube nicht das man eine G70GTX mit einer G80Ultra vergleichen kann. Damals waren Auflösungen über 1600*1200 kaum gefragt, heute denke ich ist durch 20/22" WideTFTs ja 1680*1050 schon quasi Standard Highend in der jede Graka bei 4xAA/16xAF flüssiges Bild zu produzieren hat.
Gegenüber einer 8800GTX kann man mit mehr Taktrate sicher in den 1920+ Auflösungen noch Leistung rausquetschen, vorallem durch hohe Bandbreite die die Ultra vieleicht durch 1GHz GDDR3 bzw. GDDR4 bekommt.
100MHz mehr Speichertaktrate sind ja 10GB/s mehr Speicherbandbreite, und in hoher Auflösung brauchste das, zumal ja 1GHz GDDR3 sicher bis 1,1GHz gehen wird ^^ was dann 105,6GB/s wären, dazu 75MHz mehr Core, fertig.

Wer glaubt bitte das eine R600XTX mehr als 100.000 Stück erreichen wird, da kann ich auch meine G80Ultra mit 50.000er Auflage auf den Markt bringen. Marketing Strategisch rechnet sich das sicherlich.

Gast
2007-03-23, 21:38:47
"7800GTX-512-A2" oder so ähnlich; wann wird denn die Bezeichnung auf den Chip aufgebracht? Nach der Selektion? :)

natürlich, es hätte ja auch eine 7800GT werden können, das weiß man vor der selektion ja nicht ;)

Anarchy-HWLUXX
2007-03-26, 13:06:17
Ein weiterer hinweis richtung G90 :

http://www.fudzilla.com/index.php?option=com_content&task=view&id=285&Itemid=1

AnarchX
2007-03-26, 13:30:38
Ein weiterer hinweis richtung G90 :

http://www.fudzilla.com/index.php?option=com_content&task=view&id=285&Itemid=1

Da lag ich doch richtig (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5341694&postcount=346). ;)

Aber das ist auch interessant:
G98 is expected in the middle of the year so we expect to see it before the beginning of Q3.

Entweder kommt die G9x-Generation doch schon ziemlich zeitig oder Fuad spricht von 2008, was aber auch nicht wirklich realistisch scheint.

AnarchX
2007-03-26, 17:22:13
MyDrivers (http://66.249.93.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh%7Cen&u=http://news.mydrivers.com/1/80/80303.htm&prev=/language_tools) spricht von "later this year", was imo realistischer scheint, da ja im April der G78 erst an den Start gehen wird.

Ailuros
2007-03-27, 23:16:25
Ein weiterer hinweis richtung G90 :

http://www.fudzilla.com/index.php?option=com_content&task=view&id=285&Itemid=1

Und was genau hat eine =/<$60 GPU mit einer ~$600 GPU genau gemeinsam was Komplexitaet betrifft?

AnarchX
2007-03-28, 13:47:12
Nvidia to be the first TSMC customer to run 55nm designs (http://www.digitimes.com/bits_chips/a20070328PB202.html)
Given its long established ties with TSMC, Nvidia started pilot runs on 55nm in early 2007 and samples should be available for customers in the second half of 2007, the sources detailed. The graphics chip maker should introduce 55nm in volume production in the first quarter of 2008, the sources added. A Chinese-language Commercial Times report also cited sources at equipment makers as saying that AMD has also started pilot runs on 55nm. Chips fabricated on 55nm are to hit the market in early 2008.

G9x Ableger oder gar schon G10x?

reunion
2007-03-28, 16:34:26
Entweder kommt die G9x-Generation doch schon ziemlich zeitig oder Fuad spricht von 2008, was aber auch nicht wirklich realistisch scheint.


Also wenn da wirklich zuerst die Lowend-Chips kommen, dann gehen ich mal davon aus, dass G9X eine reiner Shrink der G8X Generation ist, da es mehr als unüblich ist, bei einem Refresh zuerst den Lowend-Chip vorzustellen.

Nvidia to be the first TSMC customer to run 55nm designs (http://www.digitimes.com/bits_chips/a20070328PB202.html)


G9x Ableger oder gar schon G10x?

Na klar, und G500 kommt spätestens Anfang 2008. Ich denke es sollte wohl jeder akzeptieren können, dass ein G100 nicht mehr dieses Jahr kommt.

AnarchX
2007-03-28, 16:43:15
Na klar, und G500 kommt spätestens Anfang 2008. Ich denke es sollte wohl jeder akzeptieren können, dass ein G100 nicht mehr dieses Jahr kommt.

Wer hat gesagt dass der G100 bzw. diese 55nm Chips noch dieses Jahr kommen?

Wenn G9x nicht mehr als ein reiner Shrink in 65nm ist, wäre ein richtiger Refresh für Anfang 2008 vielleicht gar nicht mal so unrealistisch (65nm für HighEnd und 55nm für Midrange und LowEnd).

w0mbat
2007-03-28, 19:08:13
G80 has 160 stream processors? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=334&Itemid=1)

Ist der G80 schon ein G90? Die 160 stream prozessoren wären genau 25% mehr. Oder wird das die 8800Ultra?

Gast
2007-03-28, 19:13:49
Das is totaler FUD von FUAD ^^ Hat er wohl falsch verstanden und mit irgend etwas gemixt als man zum Release des G80 in totaler Geistiger Abwesenheit mal vermutet hat der G80 könnte 160Skalar Units haben, aus Redundanzgründen...

Gast
2007-03-28, 19:24:12
wer weiß , wer weiß

Gast
2007-03-28, 19:40:08
Is doch Bullshit, überleg mal was das fürn Wirtschaftlicher Nachteil wäre. 32 Einheiten die nur Strom in Wärme umwandeln... alle Presse Mappen gefälscht zu den G80 Specs, und an Redundanz brauchste erst gar nicht zu denken...

Die Skalareinheiten haben ja den Nachteil das sie sehr heiß werden, in den News hat man ja von MSI gehört das bei 700MHz GPU Takt die Skalars runter getaktet werden mussten, sprich die Teile wurden zu echten Hotspots (2GHz ist wohl das gesunde max.)

Wie willste die 160 Skalars eigentlich füttern wenn der rest der Architektur gleich bleiben soll, zumal ja Shaderleistung nicht so wild gebraucht wird. Den G80 beflügeln Effizienz und die dicke TMU Leistung.
Die Geschichte ähnelt doch sehr einer G70 mit 32TMUs, als NV47 noch nicht ganz klar war ^^ Klar gabs das Teil nur wars halt ne Heizplatte... selbe dürfte für ein G80 Monstrum mit weit über 800Mio Transistoren gelten das auch noch in 90nm gefertigt wird...

Vieleicht wird der G90 aufgebohrt, vieleicht ists ein 512Bit-SI bei 1/4 mehr Rops/TMUs/Skalars.
Aber wahrscheinlicher ist ein G70-G71 Sprung, 100-150MHz mehr Takt, GDDR4 für +100GB/s Bandbreite und fertig is. Das ganze released vor Weihnachten und man ist vorne mit dabei.

Gast
2007-03-29, 20:17:15
Interessant an der ganzen Sache finde ich, das es auf einmal so schnell geht...

Noch sind 90nm Produkte vollkommen im Trend, da wird schon über 55nm diskutiert, obwohl weder 80 noch 65nm breitflächig eingeführt sind. :)

Der Sprung von 90 auf 55nm wäre schon nice, leider frühestens nächstes Jahr. Man muss sich nur mal klar machen, das sich damit schlagartig der Flächenbedarf um einen Faktor von fast 3 reduzieren würde! Abartig.

Damit wären heutige Chips problemlos umsetzbar und auch nicht mehr solche Stromfresser.

Ich habe nur die Befürchtung, das sich weder ati noch nvidia für den Verbrauch interessieren und stattdessen die Vorteile gleich in unnütze Features oder noch höhere Taktraten ummünzen...

robbitop
2007-03-30, 09:07:39
Nunja eine gewisse Redundanz zur Yieldverbesserung koennte im G80 enhalten sein. Vieleicht kann man die ja nutzen. Etwas aehnliches wurde aber G70 auch nachgesagt und bewahrheitete sich nie.

PCGH_Carsten
2007-03-30, 11:51:22
160 sind eine logische Zahl und aus Sicht des Professors auch gar nicht falsch. Neben dem 16xSIMD-Rechenwerk sind in jedem Cluster noch vier SFUs enthalten. 8*16+8*4 = 160. Einem Forscher ist es doch egal, ob "uns" das für die Spieleleistung nützt oder nicht.

robbitop
2007-03-30, 12:26:56
Es sind pro Cluster 2x SIMD8 Rechenwerke (spielt von der Leistung aber keine Rolle, da die Granularitaet der Steuerung 16 betraegt).
Wie kommst du uebrigens auf 4x SFUs pro Cluster?
Afaik macht SFU die 2. MUL ALU (welche dann auch aus je 2xSIMD8 besteht).

PCGH_Carsten
2007-03-30, 12:29:27
Wie kommst du uebrigens auf 4x SFUs pro Cluster?

Das stand im PCGH-Wissensartikel zum G80. Und Urheber dieser Info war ein sehr kompetenter Mensch (nein, nicht ich).

robbitop
2007-03-30, 13:34:14
Das stand im PCGH-Wissensartikel zum G80. Und Urheber dieser Info war ein sehr kompetenter Mensch (nein, nicht ich).
Ich habe den Artikel leider nicht hier. Koenntest du bitte die entsprechende Stelle zitieren?

deekey777
2007-03-30, 13:39:13
Ich habe den Artikel leider nicht hier. Koenntest du bitte die entsprechende Stelle zitieren?
Demirug hat es so erklärt: Wenn man die FLOPs des G80 zählt, kann man auch die SFUs dazu zählen, aber diese liefern ein FLOP nur alle vier Takte. Was in der PCGH steht, weiß ich nicht, ich muss einen Stappel mit Zeitschriften durchsuchen.

robbitop
2007-03-30, 13:46:53
Achso, dann werden gewisse SFUs ueber ein Makro realisiert.
Das (FLOPs) hat aber dennoch nichts mit der Anzahl an ALUs oder Kanaelen zu tun.

PCGH_Carsten
2007-03-30, 14:17:20
Ich habe den Artikel leider nicht hier. Koenntest du bitte die entsprechende Stelle zitieren?
... Neben den ALUs für die Ausführung von Shaderprogrammen nutzt Nvidia weitere Rechenwerke, um die Interpolation von Vertex-Daten bei Bedarf zu erledigen - zum Beispiel bei Texturkoordinaten. Durch eine entsprechende Erweiterung können die Interpolatoren des G80 nun auch wahlweise die anfallenden Spezialfunktionen ausführen. Aufgrund der Tatsache, dass die Interpolatoren auf der Basis von 2x2-Pixelblöcken (sogenannten Quads) arbeiten, beschränkt sich ein G80-Shader-Cluster jedoch auf lediglich vier Spezialfunktionen pro Takt. ... 1. Der Text, den Sie eingegeben haben, ist zu kurz. Bitte erweitern Sie den Text auf die minimale Länge von 1 Zeichen. Na toll - jetzt darf ich zusätzlich zum obigen selbstgetippten noch ein bißchen Dünnsinn hier verbreiten, damit ich das Posting auch abschicken darf... :(

deekey777
2007-03-30, 14:19:45
Du hättest auch einfach einen Smiley setzen können, das reicht schon aus. :)

=Floi=
2007-03-31, 23:21:42
ich möchte hier mal anmerken, daß diese wattangaben in der pcgh die warheit verzerren, da es um die graka an sich geht und nicht um das ganze system!

hier könnte man ruhig die reinen graka werte nehmen
das würde ein klareres bild zeichnen
ich kann nämlich auch ein system mit nem stock 3800+EE aufbauen und einer 7950GT
oder ein quad core system @4ghz kompressorkühlung und entsprechender perepherie!

---
zum thema
ich würde mich freuen wenn diese architektur nochmal richtig aufgebohrt wird beim G90 @ 55nm
möglichkeiten gibt es bei diesem design genug

Gast
2007-04-01, 15:48:29
ich möchte hier mal anmerken, daß diese wattangaben in der pcgh die warheit verzerren, da es um die graka an sich geht und nicht um das ganze system!

Das hat jetzt mal gar nichts mit dem Thread zu tun, richtig?

Und was verzerren die Wattangaben? Die werden mit dem immer gleichen System ermittelt und sind in sich schon aussagekräftig.

=Floi=
2007-04-02, 17:40:07
nur hat fast niemand genau das gleiche system
das ist eben keine konsole wo 1000000 mal das gleiche system verbaut wird
wenn nur die watt der grakas angegeben werden DANN kann man vergleichen!

Gast
2007-04-02, 22:54:04
nur hat fast niemand genau das gleiche system
das ist eben keine konsole wo 1000000 mal das gleiche system verbaut wird
wenn nur die watt der grakas angegeben werden DANN kann man vergleichen!

Mit derselben Logik könnte man ja auch die Fps-Angaben weglassen oder die Bewertung von Ausstattung - ja die ganzen Tests: Schließlich hat ja jeder unterschiedliche Präferenzen.

Darum geht es bei solchen Angaben aber gar nicht. Es soll lediglich eine Vergleichbarkeit untereinander geschaffen werden, nicht zu den Systemen der User.

Ailuros
2007-04-03, 07:20:10
Bei einer Debatte die ich gestern hatte kann man wirklich nicht mehr mit dem Codenamen Wirrwarr seitens NVIDIA durchblicken (und ja es ist wohl Absicht).

Ich hab eine halbe Stunde Fragen gestellt und ich hab es immer noch nicht kapieren koennen. Wer bescheid weiss kann mir gerne die G9x->G2x0->G1x0 zeitliche Reihenfolge entziffern, denn ich hab den Durchblick verloren. Auf jeden Fall ist nach dem Wirrwarr G100 = "D3D11" und so wie es sich anhoert will Microsoft wohl doch irgendwo in 2009 mit "Vienna" ankommen; dass dieses nicht zu Stande kommen wird sollte klar sein ;)

Die "heiklen" und interessanten Details hab ich mir natuerlich notiert; die Q3/07' Release-Projektion steht immer noch und die "GX2"-Geschichte war durchaus keine Eintagsfliege. Einzelheiten kommen erst spaeter wenn die ersten zuverlaessigen Geruechte zu Tag kommen.

AnarchX
2007-04-03, 07:48:28
Von so einem Dingsbums hoerte ich nichts, ich hab eigentlich auch nur fuer =/<65nm und >Q3/07' gefragt.

Dual-chip wird es garantiert geben nur ist mir eher ein 2*6 clusters/4 ROP partitions bewusst, dessen Codename mir leider schon irgendwo herausgerutscht ist. Wenn man weiss wie es mit der die-Groesse aussieht, dann weiss man auch warum sich so ein Dingsbums ueberhaupt Sinn macht.


Das macht natürlich Sinn: 2x G92, wo jeder wohl um die 200mm² liegen könnte und durch das 256Bit-SI kann man 2x1GB verbauen, die zu dem Zeitpunkt wohl selbst für HighEnd mehr als ausreichend sind.

Wobei das wiederrum darauf hindeutet, dass wohl dem G90 nicht mehr Cluster bzw. Partitions spendiert werden, damit er dieser Karte nicht gefährlich wird bzw. sie überhaupt Sinn macht.

Ailuros
2007-04-04, 07:27:34
Das macht natürlich Sinn: 2x G92, wo jeder wohl um die 200mm² liegen könnte und durch das 256Bit-SI kann man 2x1GB verbauen, die zu dem Zeitpunkt wohl selbst für HighEnd mehr als ausreichend sind.

Etwas mehr ;) Ueber die Speichermenge keine Ahnung.

Wobei das wiederrum darauf hindeutet, dass wohl dem G90 nicht mehr Cluster bzw. Partitions spendiert werden, damit er dieser Karte nicht gefährlich wird bzw. sie überhaupt Sinn macht.

Nach dem absichtlichen Wirrwarr von NV blick ich ernsthaft nicht mehr durch. Es koennte durchaus sein dass das was wir heute "G90" nennen ein 65nm D3D10.1 Dingsda fuer Anfang 2008 sein koennte. Ob dieses jetzt aus einem oder 2 chips besteht keine Ahnung.

Gast
2007-04-04, 20:53:49
Naja zumindest beim G86 hat man sich ja enthüllt. G86-400 sind 4 Skalarkcluster aktiv, beim G86-300 nur 3. Das ist der Unterschied zwischen 8600GTS und 8600GT :=)
Leider hat die G80 wohl den Zusatz -100 der mal garnix aussagt *g

AnarchX
2007-04-17, 11:49:58
NVIDIA_G98.DEV_06E0.1 = "NVIDIA G98"
NVIDIA_G98.DEV_06E1.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E2.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E3.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E4.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E5.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E6.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E7.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E8.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E9.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06EA.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06EB.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06EC.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06ED.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06EE.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06EF.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06F0.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06F1.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06F2.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06F3.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06F4.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06F5.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06F6.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06F7.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06F8.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06F9.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06FA.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06FB.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06FC.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06FD.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06FE.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06FF.1 = "NVIDIA G98 "

Interessant.

Anarchy-HWLUXX
2007-04-17, 13:38:04
LoL :eek:

Irgendwann is mal zuviel ;D

Ailuros
2007-04-17, 13:50:35
Interessant.

Fazit: Billigscheiss passt in jeglichen Markt :biggrin:

Anarchy-HWLUXX
2007-04-17, 13:56:11
Fazit: Billigscheiss passt in jeglichen Markt :biggrin:

Wenn man 20 verschiedene versionen frickelt wird das sicher net billiger als wenn man 3 hat ...

Argh, egal - wird sich vielleicht scho beim nächsten leak treiber "zusammenschrumpfen" :|

Godmode
2007-04-17, 14:45:45
Wenn man 20 verschiedene versionen frickelt wird das sicher net billiger als wenn man 3 hat ...

Argh, egal - wird sich vielleicht scho beim nächsten leak treiber "zusammenschrumpfen" :|

Das sind wahrscheinlich noch irgendwelche Debugeinträge aus den Testlabors.

AnarchX
2007-04-17, 19:51:56
Ob wir wohl die neuen Cluster mit 8 TAUs/TMUs bei G9x wiedersehen werden? ;)

Noch eine Überlegung:

G98 -> 1 ROP-Partition, 1 Cluster(neu?)
G96 -> 2 ROP-Partitions, 2 Clusters(neu?)
G94 -> 3/4 ROP-Partitions, 4 Clusters(neu?)
G92 -> 4 ROP-Partitions, 6 Clusters(neu?)
G90 -> ???

Godmode
2007-04-19, 22:56:34
G90 = 8 Cluster, mit G84 TMUs, höherem Takt und schnellerem Speicher. Vielleicht haben sie auch noch an anderer Stelle was optimiert? Shader Domäme vielleicht mit 2 GHz?

robbitop
2007-04-20, 07:07:13
Vieleicht auch mit 8 ROP Partitionen und 512 Bit SI.

Godmode
2007-04-20, 10:50:26
Vieleicht auch mit 8 ROP Partitionen und 512 Bit SI.

Da stellt sich die Frage was ist billiger? 512 Bit SI, oder sau schneller GDDR4 RAM. Was ist den bei GDDR4 die momentan höchste mögliche Taktrate? Die 8800 GTX verwendet IIRC GDDR mit 900 MHz.

Hier eine kleine Aufstellung von Speicherinterfacebreite, Speichertakt und der daraus resultierenden Bandbreite:
SI(Byte) Speichertakt(GHz, relativ) Bandbreite(Gigabyte)
48 1,8 86,4
48 1,9 91,2
48 2 96,0
48 2,1 100,8
48 2,2 105,6
48 2,3 110,4
48 2,4 115,2
48 2,5 120,0
48 2,6 124,8
48 2,7 129,6
48 2,8 134,4
48 2,9 139,2
48 3 144,0

64 1,8 115,2
64 1,9 121,6
64 2 128,0
64 2,1 134,4
64 2,2 140,8
64 2,3 147,2
64 2,4 153,6
64 2,5 160,0
64 2,6 166,4
64 2,7 172,8
64 2,8 179,2
64 2,9 185,6
64 3 192,0

robbitop
2007-04-20, 11:09:12
Beides natuerlich ;)
Und bitte doppelte MAD Leistung.

Godmode
2007-04-20, 11:13:54
Beides natuerlich ;)
Und bitte doppelte MAD Leistung.

Würde das die Chipgröße nicht explodieren lassen? Der Shaderleistung würde es aufjedenfall gut tun.

Anarchy-HWLUXX
2007-04-20, 11:33:55
Da stellt sich die Frage was ist billiger?

Wichtiger ist welche RAM Modelle/Geschwindigkeiten auch lieferbar sind in ausreichenden Mengen - alle andere kann man direkt aussenvor lassen.

robbitop
2007-04-20, 11:58:34
Würde das die Chipgröße nicht explodieren lassen? Der Shaderleistung würde es aufjedenfall gut tun.
Naja wenn man die in Reihe schaltet nicht. Waeren vieleicht 200 Mio Transistoren mehr. Plus die 2 zusaetzlichen ROP Partitionen und den zusaetzlichen TAs vieleicht auf insgesamt 1 Mrd Transistoren. Dank 65 nm ist das nichtmal so undenkbar. Das waere eine Steigerung von nichtmal 50%.

Aber vermutlich macht NV wieder einen auf sparen und behaelt soziemlich alles so bei uns erhoet neben den Taktraten noch die eigene Marge. Siehe G71.

Godmode
2007-04-20, 13:22:18
Aber vermutlich macht NV wieder einen auf sparen und behaelt soziemlich alles so bei uns erhoet neben den Taktraten noch die eigene Marge. Siehe G71.

Höchstwahrscheinlich wird es so kommen. Bisher ist Nvidia mit der für den Performance Entusiasten eher langweiligen Strategie wirtschaftlich sehr gut gefahren.

Gast
2007-04-22, 11:12:27
Beides natuerlich ;)
Und bitte doppelte MAD Leistung.
MAD+MAD+MUL

oder MAD+MAD (wovon das zweite wie bekannt nur wenig genutzt werden kann, siehe das jetzige MUL)?


Q

robbitop
2007-04-22, 11:31:48
Naja das MUL im G80 zaehle ich nicht. Das Teil macht mehr MiniALU Kram wie SFU, input modifier, perspective correction, Tex Ops und ist nur zu einem geringen Prozentsatz wirklich mal fuers Shading verfuegbar.
Mehr als der MAD Unit den Ruecken fuers effiziente Shaden ist kaum drin.

Ich will die doppelte reine verfuegbare MAD/DP Leistung.
Wenn man die Teile in Reihe schaltet, braeuchte man kaum mehr an Kontrolllogik investieren und man muesste auch die SFUs nicht verdoppeln.
Klar ginge etw Effizienz verloren (also keine 100%ige Steigerung) aber P/L stimmt und in laengeren Shadern bringt es was (aehnlich was man beim R580 machte).

reunion
2007-04-22, 11:48:17
Ob man wirklich an den Clustern groß herumoperieren wird? IMHO wird man hauptsächlich die Anzahl der Cluster erhöhen. Ein 512-bit SI, also acht ROP-Cluster sind sehr wahrscheinlich, dazu die Verbesserungen des G84 inkl. Videoprozessor, und eine entsprechende Skalierung der Shadereinheiten. NVIO wird ev. auch integriert. Speziell, dass die Mid- und Lowend-Cores G72/73 zumindest nach aktuellen Spekulationen vor dem High-End-Core G90 kommen, deutet IMHO stark darauf hin, dass da nicht viel mehr als ein Shrink kommt.

Gast
2007-04-22, 11:54:17
Mit GDDR4 Speicher ist ein 512Bit SI nicht sehr wahrscheinlich, da man auch so genug Bandbreite bekommt. Warum also den Chip breiter machen und damit weniger Chips aus einem Wafer rausbekommen? Siehe G70-G71...

robbitop
2007-04-22, 11:54:26
herumoperiert hat man auch schon zum G84. Das ist nicht schlimm. Bloed ist es die ALUs anzutasten, da diese aus custom transistors bestehen. Diese allerdings in Reihe zu duplizieren sollte im Rahmen eines Refreshes moeglich sein. Aber fuer den G90 glaube ich selbst nicht daran. Der wird IMO ein Shrink mit ein paar Aenderungen (bei 512 bit waer ich mir auch nicht sicher). Die Margen sollen doch hoeher werden. X-D

reunion
2007-04-22, 12:07:47
Naja, durch 65nm hat man doch deutlich mehr Platz. Da dürfte die Anzahl der Einheiten im Vergleich zu G80 massiv wachsen. Und das muss man natürlich auch mit der entsprechenden Bandbreite füttern. Ich bezweifel, dass hierfür GDDR4, welches nach wie vor bei 1.4Ghz steckt ausreicht. Ich rechne zumindest mit 50% mehr Einheiten plus höhere Taktraten und den ein oder anderen kleinen Architekturverbesserungen, ähnlich wie bei NV40 zu G70. Wobei hier der Schritt von 130nm zu 110nm wesentlich kleiner war. Das Ganze dann frühestens Ende des Jahres, Anfang 2008. Vorher sollte ein High-End-Core in 65nm gerade bei der vorsichtigen Strategie von nV nicht realistisch sein.

robbitop
2007-04-22, 12:10:39
Ich tippe eher auf das, was vom G70 zum G71 passiert ist. Mehr Takt und mehr Marge.

Gast
2007-04-22, 15:41:34
Mit GDDR4 Speicher ist ein 512Bit SI nicht sehr wahrscheinlich, da man auch so genug Bandbreite bekommt. Warum also den Chip breiter machen und damit weniger Chips aus einem Wafer rausbekommen? Siehe G70-G71...

GDDR4 muss erstmal in ausreichender Stückzahl verfügbar sein.
nVidia setzt bei der 8800"Ultra" auf GDDR3 auf Steriode. Das muss schon einen Grund haben, warum sich nVidia so sehr auf GDDR3 versteift.

Gast
2007-04-22, 15:44:01
GDDR4 muss erstmal in ausreichender Stückzahl verfügbar sein.
nVidia setzt bei der 8800"Ultra" auf GDDR3 auf Steriode. Das muss schon einen Grund haben, warum sich nVidia so sehr auf GDDR3 versteift.

Bei dieser Karte wärs wirklich egal ob GDDR3 oder GDDR4.

Die Ultra wird sowieso ultrateuer sein und in geringen Stückzahlen kommen, da hätten sie auch GDDR4 nehmen und 1,2 GHz draufpacken können.

Verstehe auch nicht, warum weiterhin GDDR3 gesetzt wird. Wenn sie mehr GDDR4 Produkte nehmen würden, dann steigen die Stückzahlen und die Preise gehen runter...

Nakai
2007-04-22, 17:01:25
Beides natuerlich ;)
Und bitte doppelte MAD Leistung.

Das MUL wird auch MAD erweitert. Der Rest, den das MUL machen musste wird extern ausgelagert.

mfg Nakai

Gast
2007-04-22, 17:05:23
Das MUL wird auch MAD erweitert. Der Rest, den das MUL machen musste wird extern ausgelagert.

mfg NakaiDas weiß du woher genau? ;)

robbitop
2007-04-22, 17:24:25
Das MUL wird auch MAD erweitert. Der Rest, den das MUL machen musste wird extern ausgelagert.

mfg Nakai
Das waere von der Kontrollogik teurer und ein aufwaendigerer Eingriff.

Nakai
2007-04-22, 17:27:21
Naja beim Nv40 hat mans auch gemacht um den G70 zu erschaffen, hier war es zwar anders, da der Shader an die TMU gebunden war, aber ob es sowas wieder gibt könnte ich nicht ausschließen. Mich würde es nicht wundern, wenn das MUL einfach nur auf ein MAD erweitert wird.

mfg Nakai

robbitop
2007-04-22, 17:34:25
Naja beim Nv40 hat mans auch gemacht um den G70 zu erschaffen, hier war es zwar anders, da der Shader an die TMU gebunden war, aber ob es sowas wieder gibt könnte ich nicht ausschließen. Mich würde es nicht wundern, wenn das MUL einfach nur auf ein MAD erweitert wird.

mfg Nakai
Das wuerde nicht viel bringen, da das MUL (wie beim NV40 und beim G70 die gleiche ALU) meistens mit anderem Kram beschaeftigt ist. Eine Auslagerung in eine zusaetzliche miniALU wuerde wieder Entwicklungsaufwand kosten. Gerade bei diesem Custom Design Transistors wird das teuer und zeitaufwaendig.

Gast
2007-04-23, 22:19:03
Bei dieser Karte wärs wirklich egal ob GDDR3 oder GDDR4.

Die Ultra wird sowieso ultrateuer sein und in geringen Stückzahlen kommen, da hätten sie auch GDDR4 nehmen und 1,2 GHz draufpacken können.

Verstehe auch nicht, warum weiterhin GDDR3 gesetzt wird. Wenn sie mehr GDDR4 Produkte nehmen würden, dann steigen die Stückzahlen und die Preise gehen runter...

Evtl. verträgt ja das G80 Design in der Praxis gar kein GDDR4?!

Ailuros
2007-04-23, 23:08:22
Ob man wirklich an den Clustern groß herumoperieren wird? IMHO wird man hauptsächlich die Anzahl der Cluster erhöhen. Ein 512-bit SI, also acht ROP-Cluster sind sehr wahrscheinlich, dazu die Verbesserungen des G84 inkl. Videoprozessor, und eine entsprechende Skalierung der Shadereinheiten. NVIO wird ev. auch integriert. Speziell, dass die Mid- und Lowend-Cores G72/73 zumindest nach aktuellen Spekulationen vor dem High-End-Core G90 kommen, deutet IMHO stark darauf hin, dass da nicht viel mehr als ein Shrink kommt.

Es ist praktisch unmoeglich geworden etwas zuverlaessiges aus NV in letzter Zeit herausfischen zu koennen. Es koennte durchaus sein dass es dieses Jahr gar keine "G90" geben wird und wir anstatt eben eine G92 GX2 sehen werden.

NVIDIA spielt momentan ein eher fieses Verwirrungspiel mit ihren eigenen Codenamen und Roadmaps. Unter normalen Umstaenden wuerde "G200" nach "G100" kommen; momentan sieht es eher nach dem Gegenteil aus. Das einzige "zuverlaessige" was man momentan sagen kann, ist dass NVIDIA so gut wie nie dicht gemacht hat und es wird extrem schwer sein in der Zukunft zu zuverlaessigen (vorzeitigen) Infos vor jedem Launch zu kommen.

seahawk
2007-04-24, 07:38:46
G92 x2 wäre dann wohl der Performancechip, der in der singlechip-Variante die Lücke von 8600GTS bis 8800GTS abdeckt ?

Godmode
2007-04-24, 10:18:17
G92 x2 wäre dann wohl der Performancechip, der in der singlechip-Variante die Lücke von 8600GTS bis 8800GTS abdeckt ?

Eventuell mit 4 - 6 Cluster aber erhöhten Taktraten, sonst bringt eine GX2 nichts, da ja schon die 8800 GTX 8 Cluster hat! Kaputte 6-Cluster-Chips könnten dann als 5 oder 4 Cluster Chips als 8700 untern den Mann gebracht werden. Somit wäre das Portfolio gut ausgerichtet und man würde für jedes Marktsegment ein entsprechendes Produkt anbieten können.

edit: Ich denke wenn ATI nicht deutlich schneller sein wird, wird von Nvidia sicher keine GX2 kommen.

Gast
2007-04-24, 15:02:57
naja in dem preisbereich gekappte chips?
würd wohl ziemlich teuer werden
der absatz wäre wohl vieo größer als die produktion fehlerhafter, aber durch teildeaktivierung brauchbarer, chips

Nightspider
2007-04-24, 19:50:58
Wer weiß. Vielleicht wirft Nvidia noch die Pläne für die Ultra über den Haufen und wartet bis Sommer um dann einen großen 65nm Chip vorzustellen.

BvB123
2007-04-24, 20:19:36
Jetz werden die Pläne garantiert nichtmehr geändert.

Nur leider weiß sie auch keiner ;)

Gast
2007-04-24, 20:36:49
edit: Ich denke wenn ATI nicht deutlich schneller sein wird, wird von Nvidia sicher keine GX2 kommen.

Der GPU Markt besteht aber nicht nur aus "reagieren auf den Konkurrenten". Wenn SLI, vorallem Quad SLI, unter Vista richtig zum laufen gebracht wird bzw. die Spiele gut und Problemlos davon profitieren dann wird man die Produkte bringen für den Highend Markt bzw. Profi Markt. Egal was der Konkurrent da macht, es geht nicht um "wir sind schneller" sondern wir bieten dieses und jenes Produkt an. Es geht um Geld und nicht um das Ego einer weniger Fanboys im Inet ;)

Ranger
2007-04-24, 21:23:19
warten wir ab was kommt

Ailuros
2007-04-24, 23:42:19
G92 x2 wäre dann wohl der Performancechip, der in der singlechip-Variante die Lücke von 8600GTS bis 8800GTS abdeckt ?

Wenn dann wohl eher ultra high end; das einzige was sie brauchen sind ausgereifte SLi-Treiber. Sehen Dir 12 clusters mit den Taktraten und ALU-Frequenzen die 65nm erlauben wuerde nach einem einfachem "Performance"-Dingsbums aus?

LovesuckZ
2007-04-25, 00:12:32
GPU: 675MHz
Mem: 2.35GHz
Shader: 1.60GHz

http://forums.vr-zone.com/showthread.php?t=146517

Ca. 18% höhrere Textur- und Rechenleistung sowie 30% höhrere Bandbreite.
Mal gucken, wie der Preis der Karte aussehen wird.
Jedenfalls hat nVidia in Sachen theoretische Angaben die Nase vorn (Bandbreite: 112.8 GB/s, GFlop/s: 614.4).
Da sieht man, wie wichtig es ist, vor seinem Konkurrenten auf dem Markt zu sein.

Ailuros
2007-04-25, 01:13:56
Wenn die XTX "nur" 1GHz GDDR4 hat, dann sind es 128.0GB/s Bandbreite. So wie es aussieht wird sie aber leider nicht frueh genug erscheinen. Falls das Ding aber nun wirklich um Monate spaeter als die XT antanzt, kann ich den Sinn der 8800Ultra bei bestem Willen nicht verstehen.

Fetza
2007-04-25, 01:18:29
Wenn die XTX "nur" 1GHz GDDR4 hat, dann sind es 128.0GB/s Bandbreite. So wie es aussieht wird sie aber leider nicht frueh genug erscheinen. Falls das Ding aber nun wirklich um Monate spaeter als die XT antanzt, kann ich den Sinn der 8800Ultra bei bestem Willen nicht verstehen.

Die karte sollte aber auch aufgrund des hohen shadertaktes extrem "geil" performaen. Die relation stimmt natürlich nur, wenn die karte nichtmehr als 600 euro kostet.

greetz

Ailuros
2007-04-25, 01:28:01
Die karte sollte aber auch aufgrund des hohen shadertaktes extrem "geil" performaen. Die relation stimmt natürlich nur, wenn die karte nichtmehr als 600 euro kostet.

greetz

Schaetzungsweise irgendwo um die 20% mehr als eine 8800GTX. Selbst wenn die Ultra nur 600 Euro kosten wuerde, wo genau ist der Sinn der GPU wenn die XTX erst im Spaetsommer antanzt?

Falls die Geruechte stimmen sollten, laesst man im Treiber nur die ausschliessliche Shader-clock Uebertaktung zu und reduziert den 8800GTX Preis um so viel dass der Abstand zum 2900XT Preis analog kleiner wird.

Fetza
2007-04-25, 02:31:49
Schaetzungsweise irgendwo um die 20% mehr als eine 8800GTX. Selbst wenn die Ultra nur 600 Euro kosten wuerde, wo genau ist der Sinn der GPU wenn die XTX erst im Spaetsommer antanzt?

Falls die Geruechte stimmen sollten, laesst man im Treiber nur die ausschliessliche Shader-clock Uebertaktung zu und reduziert den 8800GTX Preis um so viel dass der Abstand zum 2900XT Preis analog kleiner wird.

hmm, meinst du also der shadertakt läßt sich auch ohne weiteres auf einer gtx realisieren? Per nbitor geht das ja. Ok in dem fall wäres nicht mehr so beeindurckend. Ansonsten sehe ich das jetzt rein als user, der eine doch nicht unerheblich schnellere karte ab werk bekommt.

Ich frage mich, für wann der g80 nachfolger termininert ist. Kommt der noch vor august?

Ailuros
2007-04-25, 05:48:45
NV selber hat mehrmals gesagt dass ein Treiber kommen soll wo man den Shadertakt unabhaenging erhoehen koennte.

Leonidas
2007-04-25, 06:44:17
http://forums.vr-zone.com/showthread.php?t=146517



Ich kann mich irren, aber wieso 1175 MHz Speichertakt bei 1.0 ns Speicher? Das wäre der Übertaktung ab Werk doch ein wenig zu viel.

Zudem viel diese Quelle (fx57.net) doch schon kürzlich durch blödsinnige Angaben zu neuen Grafikchips auf.

AnarchX
2007-04-25, 07:19:48
Ich kann mich irren, aber wieso 1175 MHz Speichertakt bei 1.0 ns Speicher? Das wäre der Übertaktung ab Werk doch ein wenig zu viel.


Die 1175MHz kommen auch von OCW (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=62248), wobei diese von 8800Ultra o/c sprechen. Und es gibt hierzu auch das Gerücht, dass 0.83ns GDDR3 zum Einsatz kommen soll, der offensichtlich existiert (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=358591&page=3), wenn auch noch nicht der Öffentlichkeit angeboten.

reunion
2007-04-25, 17:27:12
Jedenfalls hat nVidia in Sachen theoretische Angaben die Nase vorn (Bandbreite: 112.8 GB/s, GFlop/s: 614.4).


Bandbreite sicher nicht, und Shaderfüllrate auch nur wenn man die MUL dazuzählt, die allerdings meist für andere Zwecke benötigt wird. Und selbst wenn dieser verfügbar ist, braucht man erstaml eine Code, der entsprechend MUL-lastig ist.

Die 1175MHz kommen auch von OCW (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=62248), wobei diese von 8800Ultra o/c sprechen. Und es gibt hierzu auch das Gerücht, dass 0.83ns GDDR3 zum Einsatz kommen soll, der offensichtlich existiert (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=358591&page=3), wenn auch noch nicht der Öffentlichkeit angeboten.

"8800 Ultra still has 128 Stream processors based on 90nm process and has 384-bit bus connected to a 768MB memory GDDR3 type (1.0ns)."

Ich nehme an der Mann hat sich das nicht aus den Fingern gesaugt, wenn es schon so selbstbewusst "final specs" schreibt. Die 0.83ns GRDD3-Chips befinden sich laut Samsung momentan noch in der "Evaluation"-Phase, darauf würde ich also nicht wetten. Seltsam finde ich allerdings, dass man nicht auf GDDR4 setzt, anstatt GDDR3 außerhalb der Spezifikationen betreiben zu müssen.

DrumDub
2007-04-25, 17:31:37
NV selber hat mehrmals gesagt dass ein Treiber kommen soll wo man den Shadertakt unabhaenging erhoehen koennte. genauso wie ein treiber, der den idle-stromverbrauch senkt?

AnarchX
2007-04-25, 17:49:56
Seltsam finde ich allerdings, dass man nicht auf GDDR4 setzt, anstatt GDDR3 außerhalb der Spezifikationen betreiben zu müssen.

Nunja, dafür bräuchte es ein neues PCB und es gehen ja auch im Bezug auf die R600XTX wieder die Gerüchte um, dass es mit GDDR4 Probleme(Lieferengpässe) geben soll.

Ich nehme an der Mann hat sich das nicht aus den Fingern gesaugt, wenn es schon so selbstbewusst "final specs" schreibt

Naja, es nunmal der FX57.net Typ...

Hvoralek
2007-04-25, 17:52:15
"8800 Ultra still has 128 Stream processors based on 90nm process and has 384-bit bus connected to a 768MB memory GDDR3 type (1.0ns)."

Ich nehme an der Mann hat sich das nicht aus den Fingern gesaugt, wenn es schon so selbstbewusst "final specs" schreibt. Die 0.83ns GRDD3-Chips befinden sich laut Samsung momentan noch in der "Evaluation"-Phase, darauf würde ich also nicht wetten. Seltsam finde ich allerdings, dass man nicht auf GDDR4 setzt, anstatt GDDR3 außerhalb der Spezifikationen betreiben zu müssen.Ist denn sicher, dass G80 überhaupt mit GDDR4 umgehen kann?

reunion
2007-04-25, 17:58:55
Nunja, dafür bräuchte es ein neues PCB und es gehen ja auch im Bezug auf die R600XTX wieder die Gerüchte um, dass es mit GDDR4 Probleme(Lieferengpässe) geben soll.


Bei den voraussichtlich nur sehr geringen Stückzahlen der 8800U sollte das völlig belanglos sein. ATi liefert seit Monaten die wesentlich günstigere X1950XTX in ausreichenden Stückzahlen mit GDDR4 aus. Das mit dem PCB ist allerdings durchaus ein guter Grund.

Ist denn sicher, dass G80 überhaupt mit GDDR4 umgehen kann?

Offenkundig nein. Und inzwischen wird es IMHO immer wahrscheinlicher, dass dem nicht so ist.

Coda
2007-04-25, 18:01:24
Wo ist das bitte "offenkundig"? Du drehst dir auch immer alles so hin wie's dir passt.

Kein neues PCB ist ein nicht zu unterschätzender Vorteil, vor allem wenn's um eine Karte geht wo wahrscheinlich eh nicht viele produziert werden.

reunion
2007-04-25, 18:06:53
Wo ist das bitte "offenkundig"? Du drehst dir auch immer alles so hin wie's dir passt.


Reis doch nicht meine Sätze völlig aus dem Kontext. Es ist offenkundig "nicht sicher". Das bedeutet nicht, dass dem zwangsläufig so sein muss, und ich denke das wird auch durch den zweiten Satz unterstrichen.

seahawk
2007-04-25, 18:07:41
Wenn dann wohl eher ultra high end; das einzige was sie brauchen sind ausgereifte SLi-Treiber. Sehen Dir 12 clusters mit den Taktraten und ALU-Frequenzen die 65nm erlauben wuerde nach einem einfachem "Performance"-Dingsbums aus?

Ich meinte in der Singlechipausführung also G92 alleine. 6 Cluster, 256 Bit hohe Taktung.

Schaetzungsweise irgendwo um die 20% mehr als eine 8800GTX. Selbst wenn die Ultra nur 600 Euro kosten wuerde, wo genau ist der Sinn der GPU wenn die XTX erst im Spaetsommer antanzt?



Es ist ja keine neue GPU sondern eine G80 GTX on steroids. Die bringt man jetzt aus 2 einfachen Gründen :

a) man hat einfach selektierte Chips für die Ultra schon lange gesammelt
b) länger warten geht im Hinblick auf den eigenen Nachfolger des G80 nicht mehr, da man die Kunden wohl herzlich verprellen würde, wenn man den Refresh 1-2 Monate nach der Ultra bringen würde.

Hvoralek
2007-04-25, 18:27:11
Die bringt man jetzt aus 2 einfachen Gründen :
[...]
b) länger warten geht im Hinblick auf den eigenen Nachfolger des G80 nicht mehr, da man die Kunden wohl herzlich verprellen würde, wenn man den Refresh 1-2 Monate nach der Ultra bringen würde.Würde sich die Klientel einer solchen Karte daran wirklich stören? Für so ein Teil würden sich wohl ohnehin hpts. Freaks imit viel Geld nteressieren, die sich freuen würden, nach zwei Monaten wieder ein neues Stück High- End- Hardware kaufen zu können.

Und hat irgendjemand ATI übelgenommen, dass keine zwei Monate nach der X1800XT die X1900XT/X erschienen sind?

Gast
2007-04-25, 19:00:42
Frage ist wann wird der G90 erscheinen, da is noch gut 4-5Monate hin, Frage eher wann wird die XTX Nachfolgerin erscheinen, wenn R600XTX erst im Juni auf den Markt kommt ;)

Die Ultra ist sicher die billigste Lösung um im Streit "fastest standalone GPU" mitzuwirkeln. Warum sich hier soviele drüber aufregen das sowas kommt wobei klar ist das sie niemals so eine Graka kaufen werden... Ich sehs positiv, da werden die anderen Grakas wieder paar € billiger da das Highend Segment neu belegt wird und die GTX ein wenig nachgeben wird im Preis.

G90@November wird zeigen was die Architektur kann, wie sie auf höhere Taktraten reagiert und ob die Shaderleistung mit ihrer sehr hohen Effizienz ausreicht. Denn nur FEAR skaliert mit der TMU und ALU Leistung parallel gleich gut, alle anderen Spiele reagieren auf eine höhere Taktung der ALUs sogut wie gar nicht, Pixel/Texel-Leistung reißt auch im Jahre 2007 noch die meisten FPS von den Bäumen ;)

reunion
2007-04-25, 19:28:07
Ich sehs positiv, da werden die anderen Grakas wieder paar € billiger da das Highend Segment neu belegt wird und die GTX ein wenig nachgeben wird im Preis.


Bei einem Preis von 900$ für die Ultra glaube ich das weniger. :ugly:

laser114
2007-04-25, 19:38:12
Bei einem Preis von 900$ für die Ultra glaube ich das weniger. :ugly:

Der Preis ist ja noch nicht verifiziert, bei den Dell-Taktraten geht das auch günstiger.

Godmode
2007-04-25, 19:47:31
Frage ist wann wird der G90 erscheinen, da is noch gut 4-5Monate hin, Frage eher wann wird die XTX Nachfolgerin erscheinen, wenn R600XTX erst im Juni auf den Markt kommt ;)

Die Ultra ist sicher die billigste Lösung um im Streit "fastest standalone GPU" mitzuwirkeln. Warum sich hier soviele drüber aufregen das sowas kommt wobei klar ist das sie niemals so eine Graka kaufen werden... Ich sehs positiv, da werden die anderen Grakas wieder paar € billiger da das Highend Segment neu belegt wird und die GTX ein wenig nachgeben wird im Preis.

G90@November wird zeigen was die Architektur kann, wie sie auf höhere Taktraten reagiert und ob die Shaderleistung mit ihrer sehr hohen Effizienz ausreicht. Denn nur FEAR skaliert mit der TMU und ALU Leistung parallel gleich gut, alle anderen Spiele reagieren auf eine höhere Taktung der ALUs sogut wie gar nicht, Pixel/Texel-Leistung reißt auch im Jahre 2007 noch die meisten FPS von den Bäumen ;)

Durch 65 nm hat man zum einen mehr Platz für mehr Cluster und Rop Partitionen und zum anderen kann der Takt angehoben werden, wobei ich eher die zweite Variante für wahrscheinlicher halte (Margen werden erhöht).

Gut möglich were ein 10 Cluster + 8 Rop Partitions Chip, somit würde die Transistorzahl nur geringfügig steigen (ca. 150 - 200 mio inkl neuem Videozeugs und G84 TMUs). Bin mir nicht sicher ob Nvidia wirklich ein 512 Bit Speicherinterface verbauen will. Wenn sie bei 384 bleiben, müsste wahrscheinlich der Speichertakt und der ROP Takt angehoben werden, um das Verhältnis Arithmetikleistung/TMU-Leistung beibehalten zu können.

Gibt es irgendwo Zahlen was ein PCB mit 512 Bit SI eigentlich kostet, im vergleich zu 256 oder 384? Eventuell ist es sogar billiger als extrem schneller und teilweise schlecht verfügbarer GDDR4 Ram.

Gast
2007-04-25, 21:33:03
Bei einem Preis von 900$ für die Ultra glaube ich das weniger. :ugly:

Es ist von 599$ die Rede, höhere Preise sind für DualKarten "reserviert"... wer an die 900$ glaubt für ne Single GPU Karte träumt etwas zu schlecht.

Gast
2007-04-25, 21:36:36
Gut möglich were ein 10 Cluster + 8 Rop Partitions Chip, somit würde die Transistorzahl nur geringfügig steigen (ca. 150 - 200 mio inkl neuem Videozeugs und G84 TMUs). Bin mir nicht sicher ob Nvidia wirklich ein 512 Bit Speicherinterface verbauen will. Wenn sie bei 384 bleiben, müsste wahrscheinlich der Speichertakt und der ROP Takt angehoben werden, um das Verhältnis Arithmetikleistung/TMU-Leistung beibehalten zu können.


GDDR4 mit weitaus höheren Taktraten gibt es ja schon das sollte bis zum Spätherbst ja auf breiter Basis verfügbar sein, von daher kann man beim 384Bitter bleiben. Gehen wir vom G70-G70 aus wirds nur 150MHz mehr geben. Gehen wir vom NV40-G70 aus wirds breiter, wobei G70 ja nur ein "Notnagel" war.

Gast
2007-04-25, 22:27:42
Offenkundig nein. Und inzwischen wird es IMHO immer wahrscheinlicher, dass dem nicht so ist.
Offenkundig irrst du dich. :)

Gast
2007-04-25, 22:29:58
Denn nur FEAR skaliert mit der TMU und ALU Leistung parallel gleich gut, alle anderen Spiele reagieren auf eine höhere Taktung der ALUs sogut wie gar nicht,
Falsch. Bsw NFS Carbon reagiert sehr gut auf höhere ALU-Takte.

Natürlich nicht mit einem Celeron D und in 800x600, aber in Settings, die High-End-Karten würdig sind durchaus.

Gast
2007-04-25, 22:31:37
Eventuell ist es sogar billiger als extrem schneller und teilweise schlecht verfügbarer GDDR4 Ram.
Schwer zu glauben, wenn die Gerüchte stimmen und beide IHVs im Performance-Mainstream (G84/RV630) auf hochtaktenden GDDR-RAM mit nur 128 Bit setzen - das muss dann wohl doch billiger sein.

Gast
2007-04-25, 23:12:13
Falsch. Bsw NFS Carbon reagiert sehr gut auf höhere ALU-Takte.

Natürlich nicht mit einem Celeron D und in 800x600, aber in Settings, die High-End-Karten würdig sind durchaus.

Ja ok hatte ich vergessen, aber die Mehrheit (+85%) aller Spiele tut das eben nicht. Und das wird sich in Zukunft eher nicht ändern, auch wenn die Konsolen da aufgeholt haben (wichtiges Segment für Entwickler).
Genau so wie die programmierten Shader von AMD/nV Analysiert werden auf MADD/ADD/MUL hin, wird man auch auf Texture Anforderungen schauen. Ganz zu schweigen von der TFT Technik, ihrer Marktdurchdringung und der daraus resultierenden Auflösungen die die GPUs liefern müssen. In der Summe muss eine GPU gut sein, nicht in einem Einzelfall ;)

Godmode
2007-04-25, 23:47:03
...Und das wird sich in Zukunft eher nicht ändern...

Da liegst du IHMO falsch, in Zukunft wird es viel mehr Richtung arithmethische Leistung gehen, was auf der Spieleseite bedeutet, dass sie kompliziertere Berechnungen in den Shadern durchführen und auf der Hardwareseite eben viel mehr arithmethische Leistung. Aber aufjedenfall wird die Textur Leistung nicht unwichtig werden, da gebe ich dir recht.

Ailuros
2007-04-25, 23:56:37
Ich meinte in der Singlechipausführung also G92 alleine. 6 Cluster, 256 Bit hohe Taktung.

7950GT * 2 = GX2

War oder war die GX2 nicht NV's schnellste GPU fuer deren Zeitraum?

Es ist ja keine neue GPU sondern eine G80 GTX on steroids. Die bringt man jetzt aus 2 einfachen Gründen :

a) man hat einfach selektierte Chips für die Ultra schon lange gesammelt
b) länger warten geht im Hinblick auf den eigenen Nachfolger des G80 nicht mehr, da man die Kunden wohl herzlich verprellen würde, wenn man den Refresh 1-2 Monate nach der Ultra bringen würde.

Tja bleibt nur noch die Frage wie der Nachfolger wirklich aussehen wird. Was stellst Du Dir im Gegensatz genau unter R700 vor?

seahawk
2007-04-26, 07:06:17
Ehrlich gesagt noch gar nichts, was ich hier diskutieren möchte.

Mit G80 Nachfolger meinte ich auch eher einen Refresh, als einen echten NAchfolger. Nachfolger nur im Sinne von der nächsten High-End-Karte.

Lawmachine79
2007-04-26, 08:17:31
Ja ok hatte ich vergessen, aber die Mehrheit (+85%) aller Spiele tut das eben nicht. Und das wird sich in Zukunft eher nicht ändern, auch wenn die Konsolen da aufgeholt haben (wichtiges Segment für Entwickler).
Genau so wie die programmierten Shader von AMD/nV Analysiert werden auf MADD/ADD/MUL hin, wird man auch auf Texture Anforderungen schauen. Ganz zu schweigen von der TFT Technik, ihrer Marktdurchdringung und der daraus resultierenden Auflösungen die die GPUs liefern müssen. In der Summe muss eine GPU gut sein, nicht in einem Einzelfall ;)

Irre ich oder müßten shaderlastige Spiele nicht eigentlich alle sehr gut auf Erhöhung des ALU-Takts reagieren? Was limitiert in modernen Spielen den in der Regel? Geometrie-, Textur- oder Shaderleistung?
X1950XTX mit GDDR4 aus.

Hehe...Perlen vor die Säue werfen...

Gast
2007-04-26, 21:48:43
Irre ich oder müßten shaderlastige Spiele nicht eigentlich alle sehr gut auf Erhöhung des ALU-Takts reagieren?
Nicht unbedingt. Es können auch sehr registerlastige Shader sein, die nur relativ wenig profitieren, wenn die schnellen, auf dem Chip vorhandenen Register aufgefressen sind. Zudem kann sich ein Bottleneck auch leicht verschieben, wenn du eine Variable änderst.

Was limitiert in modernen Spielen den in der Regel? Geometrie-, Textur- oder Shaderleistung?
Das schwankt. Oft ist es heute die CPU, oft das OS bzw. API (Draw-Calls). Reine Geometrieleistung der Vertexshader sollte nur in wenigen Games wirklich ein Flaschenhals sein.

mickii
2007-04-30, 14:55:08
texturbandbreite ist auch sehr oft limitierend (nicht nur, aber auch). weil all diese post-effekte wie z.b. bloom sehr viel daten transferieren und das wird in zukunft noch weiter steigen, weil es sehr viel mehr schoene screenspace effekte gibt ;)

AnarchX
2007-05-13, 22:06:39
G90 im September?

http://diy.yesky.com/vga/365/3329865.shtml

Übersetzung:

A few days ago, the foreign media have reported, AMD in the third quarter of 2007 introduced manufacturing process based on 65nm Node core of the ATI R650 will Rade 2950XTX graphics on HD. Today they got the news, AMD will also be introduced to the same manufacturing process based on 65nm Node R650 core of the ATI Radeon HD 2 950XT, its frequency than ATI Radeon 2950XTX lower HD, Other functions and interfaces completely the same. According to the company's current plan, These two manufacturing process using 65nm Node in the top DX10 graphics will be introduced in September. But from R600 issued repeated postponement of the performance, whether or not issued on time some people suspected. Nvidia's G90 competitors will be at the same time release, regret is not on the G90 Chip any information.

Coda
2007-05-13, 22:20:47
texturbandbreite ist auch sehr oft limitierend (nicht nur, aber auch). weil all diese post-effekte wie z.b. bloom sehr viel daten transferieren und das wird in zukunft noch weiter steigen, weil es sehr viel mehr schoene screenspace effekte gibt ;)
Sorry, aber da geht's um ein paar Megabyte. Postfilter sind generell sehr sehr günstig.

Winter[Raven]
2007-05-16, 23:30:05
So nachdem der R600 zu einer Lachnummer wurde, nicht nur für viele im 3dc sondern auch bei Nvidia, wollen wir uns wieder dem Refresh widmen.

Was gibts so neues? gibst was neues? 512 SI, 65µ Fertigung mal links liegen gelassen...

AnarchX
2007-05-16, 23:37:48
;5501236']So nachdem der R600 zu einer Lachnummer wurde, nicht nur für viele im 3dc sondern auch bei Nvidia, wollen wir uns wieder dem Refresh widmen.

Was gibts so neues? Die Gerüchte um 512 SI, 65µ Fertigung ect?

Naja, da gibt es verschiedene Möglichkeiten:

-G90 im September, hierzu ist nicht viel bekannt. Es könnte z.B. nur ein G80-Shrink mit ein paar Verbesserungen(z.B. die doppelte Genauigkeit bei FP) sein.

-G92: 6 Cluster/4Partitions -> HighEnd-Modell verwendet einfach 2 von diesen Chips

-B3D Spekus:
Heh, why not! (note: those are the wrong codenames)

G91: 4Q07, 192SPs, 2.0-2.6GHz shader domain, 24 TMUs with free trilinear, 16 beefed-up ROPs (stencil enhancements of G84; better blending rates), 750-800MHz+ core clock. 1.4GHz+ GDDR4 on a 256-bit memory bus. 200-240mm² on 65nm. Requires NVIO.
G93: 1H08, 96SPs, 1.8-2.4GHz shader domain, 16 TMUs with free trilinear, 8 ROPs similar to G92's, 700-750MHz+ core clock. 1.2GHz+ GDDR4 on a 128-bit memory bus. 130-150mm² on 65nm, smaller if on 55nm.
G97: 1H08, 48SPs, 1.4-1.8GHz shader domain, 8 TMUs with free trilinear, 4 weaker ROPs, 600-650MHz+ core clock. DDR2/DDR3 on a 64-bit memory bus. 70-85mm² on 55nm.
MCP78: 1H08, 24SPs, 1.2-1.4GHz shader domain, 4 TMUs with free trilinear, 2 weaker ROPs, 550-600MHz+ core clock. 50-60mm²(+NB+SB) on 55nm. Will use 8MiB+ eDRAM. Total chip around 120mm².

I would tend to believe all G9x derivatives will be based on the low-power process variant due to different custom design rules. 55nm-LP at TSMC will become available in Q3 and will be a pure optical shrink (analogue will scale too, apparently!). This also puts UMC and Chartered out of the picture, most likely...

Please note that this is, once again, mostly speculation. The goal is to come up with realistic estimates for the target die sizes, really. As for the roadmap beyond these parts, it'll be interesting to see if they optically shrink the 192SPs part to 55nm or not. I would expect them to, really, as a 6-months-refresh before the 45nm part in 4Q08 or so.
http://forum.beyond3d.com/showthread.php?t=35863&page=32

seahawk
2007-05-17, 11:23:55
Naja, erstmal muss man sagen, dass NV zuemlich alle Lecks abgedichtet hat, es ist schwer geworden vertrauneswürdige Infos über zukünftige Chips zu bekommen.
Anscheindend befindet man sich aber in einer komfortabelen Lage und hat 2 (oder gar 3) Optionen für ein zukünftiges High-End-Produkt vorliegen.

Gast
2007-05-17, 13:29:52
Kommt darauf an was die Architektur des G80 im Simulator bei 65nm fabriziert bei hohen Taktraten.

Kann man die Skalareinheiten höher takten oder muss man mehrere verbauen? Beides erhöht die Wärmeentwicklung (Takt vs mehr Leckströme da mehr Einheiten) aber die hat man anscheinend wie man an der Ultra sieht relativ gut im Griff.

nVs Philosophie deutet eher darauhin, mehr Transistor "billige" Einheiten zu verbauen. Die G80 Architektur kann wohl in allen Bereichen beliebig beschleunigt werden durch ein mehr an Einheiten. Effizienz muss man in dieser Generation nicht weiter steigern, eher Yields und Marge nach oben fahren, was ja auch Ziel ist, glaub 50% will man sich gesteckt haben.

Ein fetter G84 der evtl. kein 512Bit SI bekommt, wenn GDDR4 als die günstigere Alternative angesehen wird. Ausbalanciert für heutige Verhältnisse ist der G80 ohnehin mit der GTX/GTS.

Hvoralek
2007-05-23, 17:59:04
Laut B3D (http://www.beyond3d.com/content/news/230) soll Nvidias "next-generation chip" fast 1 TFLOPS an arithmetischer Leistung erreichen, also fast doppelt so viel wie eine 8800 GTX mit 2. MUL. In dem Zusammenhang wird noch das vierte Quartal diesen Jahres erwähnt.

Interessanterweise ist die Rede nicht von G90, sondern von G92. Das könnte ein weiteres Indiz für eine GX2- Karte auf Basis des Performance- Chips sein.

AnarchX
2007-05-23, 18:04:54
Aber wie kommt G92 zu fast einem TFLOP?

Vielleicht fügt man doch noch ein paar ALUs in die Cluster hinzu:

z.B. 6 Cluster mit insgesamt 192xMADDs + 96 MULs bei ~ 2GHz...

Oder doch MADD+MADD, wobei das jemand bei B3D (http://forum.beyond3d.com/showpost.php?p=979657&postcount=690) also nicht so sinvoll betrachtet hatte.

robbitop
2007-05-23, 18:13:42
1 TFLOP im SLI (GX2) vermute ich mal.
Vieleicht hat das Teil dann nur 6 Cluster, dafuer aber mehr Takt oder 2xMAD statt MUL und MAD?

AnarchX
2007-05-23, 18:26:49
1 TFLOP im SLI (GX2) vermute ich mal.


Das schafft aber doch auch schon ein GTX/Ultra SLI, wenn man das MUL mitzählt, was man beim Marketing doch sicherlich macht.

Ich denke schon, dass sich die ~1 TFLOPs auf einen Chip beziehen, weil man ja auch bald im GPGPU-Markt sich positionieren will.


btw.
Man stelle sich nunmal ein G92-QSLI vor... :eek:

robbitop
2007-05-23, 18:28:10
Ja aber dafuer braeuchte man 2x Karten. Wenn man dieses Jahr noch 1 TFlop/s schaffen will, muss man einen erheblichen Aufwand betreiben.

Hvoralek
2007-05-23, 18:29:38
Instiktiv hätte ich auf MUL --> MADD getippt. Das wäre natürlich nur sinnvoll, wenn die Einheit dann nicht für Perspektivkorrektur u.ä. in Anspruch genommen wird. Versteht jemand, wieso Uttar Arun meinte, das würde auf G8x mehr Probleme als Nutzen bringen?

Ausgehend von 24 Vec8- Einheiten bräuchte man mit MADD + MUL etwa 1,7 GHz für knapp ein TFLOPS, mit 2*MADD etwa 1,3 GHz. Bei einer GX2 mit sechs Clustern pro Chip sollte das machbar sein (oder auch bei einem einzelnen Chip mit 12 Clustern).

Wenn es wirklich um einen einzelnen Chip geht, wäre die Frage, ob die Texturleistung im gleichen Maße gesteigert wird. Bei G8x könnte es sinnvoll sein, sich eher auf Arithmetikleistung zu konzentrieren (was wieder für ein Aufbohren des zweiten MUL sprechen würde).

AnarchX
2007-05-23, 18:55:17
Wenn man dieses Jahr noch 1 TFlop/s schaffen will, muss man einen erheblichen Aufwand betreiben.

Man geht immerhin von 90 auf 65nm, was doch einiges an Möglichkeiten geben sollte.
Zudem scheint man ja G92 teilweise an Einheiten gegenüber G80 abzuspecken um eben gerade Platz für die zusätzlichen ALUs zu schaffen.



Wenn es wirklich um einen einzelnen Chip geht, wäre die Frage, ob die Texturleistung im gleichen Maße gesteigert wird. Bei G8x könnte es sinnvoll sein, sich eher auf Arithmetikleistung zu konzentrieren (was wieder für ein Aufbohren des zweiten MUL sprechen würde).

48 TMUs (und vielleicht auch TAUs) mit 600MHz+ sollten doch eigentlich reichen, vorallem da man hier der Konkurrenz deutlich überlegen ist und es auch bis zum R700 wohl bleiben wird.

Zudem verschwendet man ja auch weniger Transistoren für Einheiten, die man für GPGPU eh nicht benötigt.

Interessanterweise gab es Andeutungen, die sich mit dieser Meldung von NV decken, auch schon etwas früher:
http://forum.beyond3d.com/showthread.php?p=979641#post979641 -> weiterlesen...

Hvoralek
2007-05-23, 19:40:21
48 TMUs (und vielleicht auch TAUs) mit 600MHz+ sollten doch eigentlich reichen, vorallem da man hier der Konkurrenz deutlich überlegen ist und es auch bis zum R700 wohl bleiben wird.Das meine ich. Es könnte sinnvoll sein, die Arithmetikleistung knapp zu verdoppeln, die Filterleistung aber weniger stark zu steigern. Daran mangelt es G80 ja wirklich nicht.

=Floi=
2007-05-23, 20:21:58
eine noch breitere architektur würde schon genial gekoppelt mit wenig mehr takt wären diese karten sicherlich in 65nm tolle oc karten ;D :D

reunion
2007-05-24, 16:59:20
Laut B3D (http://www.beyond3d.com/content/news/230) soll Nvidias "next-generation chip" fast 1 TFLOPS an arithmetischer Leistung erreichen, also fast doppelt so viel wie eine 8800 GTX mit 2. MUL. In dem Zusammenhang wird noch das vierte Quartal diesen Jahres erwähnt.

Interessanterweise ist die Rede nicht von G90, sondern von G92. Das könnte ein weiteres Indiz für eine GX2- Karte auf Basis des Performance- Chips sein.

Interessant, das scheint ja offiziell von Nvidia zu kommen. Seltsam, dass man den Chip G92 nennt, aber was solls. Und die Midrage und Lowend-Chips dann wieder im Frühjahr. Auch nicht unwichtig, dass er RV610/630 als wesentlich konkurrenzfähiger als R600 ansieht.

AnarchX
2007-05-24, 17:40:00
Interessant, das scheint ja offiziell von Nvidia zu kommen. Seltsam, dass man den Chip G92 nennt, aber was solls.

Vielleicht kommt ja im Frühjahr mit den kleinen Chips noch der richtige G90(256SPs). ;)

Was ich mich momentan auch noch frage ist, worauf sich die nahe 1 TFLOPs beziehen:

Ein reiner Marketingwert, also MUL+MADD?
Oder doch für CUDA verwertbare Rechenleistung, also MADD-Leistung?(Dazu würden die 192SPs@2.5GHz aus dem B3D Beyond G80 Thread passen)

=Floi=
2007-05-25, 03:48:36
eher 256@1875ghz (warscheinlicher klingen 192X1875Mhz)
hier wäre man auch bei ca 830mhz chiptakt

(450mhz X 1,44 = 650mhz bei der 7800GT zur 7900GTX entspricht 575mhz X 1,44 = 828Mhz O_o )

Ailuros
2007-05-25, 22:01:53
Instiktiv hätte ich auf MUL --> MADD getippt. Das wäre natürlich nur sinnvoll, wenn die Einheit dann nicht für Perspektivkorrektur u.ä. in Anspruch genommen wird. Versteht jemand, wieso Uttar Arun meinte, das würde auf G8x mehr Probleme als Nutzen bringen?

Ausgehend von 24 Vec8- Einheiten bräuchte man mit MADD + MUL etwa 1,7 GHz für knapp ein TFLOPS, mit 2*MADD etwa 1,3 GHz. Bei einer GX2 mit sechs Clustern pro Chip sollte das machbar sein (oder auch bei einem einzelnen Chip mit 12 Clustern).

Wenn es wirklich um einen einzelnen Chip geht, wäre die Frage, ob die Texturleistung im gleichen Maße gesteigert wird. Bei G8x könnte es sinnvoll sein, sich eher auf Arithmetikleistung zu konzentrieren (was wieder für ein Aufbohren des zweiten MUL sprechen würde).


Lies nochmal das Zeug von Uttar vorsichtig durch und denke an 6 cluster/4 ROP partitions. Wieviele TMUs hat G80 fuer jeden cluster und wieviele ROPs fuer jede partition nochmal? Es sind dann eben "fettere" cluster als bisher und der ganze Schnickschnack x2@GX2.

Wenn das insgesamte Resultat dann (=/<250mm^2 * 2) in etwa gleich so viel oder weniger die space einnimmt als ein einziger G80 chip und es auch etwas genauso viel kostet, braucht NV eigentlich nur anstaendige SLi Treiber fuer das Ding.

Ailuros
2007-05-25, 22:03:49
Interessant, das scheint ja offiziell von Nvidia zu kommen. Seltsam, dass man den Chip G92 nennt, aber was solls. Und die Midrage und Lowend-Chips dann wieder im Frühjahr. Auch nicht unwichtig, dass er RV610/630 als wesentlich konkurrenzfähiger als R600 ansieht.

Das soll seltsam sein? Meine Glaskugel zeigt momentan folgendes an als rein hypothetische "roadmap":

G80-->G92-->G9x-->G2x0-->G10x0 :biggrin:

=Floi=
2007-05-26, 05:59:01
erklär dann mal warum der erste chip gleich G92 heißt?

Gast
2007-05-26, 11:10:09
2xG90, also eine GX2 Karte ;) Steht doch alles in den vorherigen Posts...

seahawk
2007-05-26, 15:28:13
erklär dann mal warum der erste chip gleich G92 heißt?

Weil
G92 = Perfromace Segment
G92x2 = High-End

Man muss sich nur die Vrogängergenration angucken um zu ahnen was NV bringen wird.

AnarchX
2007-05-26, 15:36:48
Bis zum Q4 sind dann sicherlich auch 1024Mbit GDDR4-Module verfügbar, die ein einfaches und günstiges PCB ermöglichen.

Coda
2007-05-26, 15:37:10
Was ich mich momentan auch noch frage ist, worauf sich die nahe 1 TFLOPs beziehen
Imho auf 2xG92, also die GX2.

AnarchX
2007-05-26, 15:42:53
Imho auf 2xG92, also die GX2.

Aber in der B3D-News spricht man ja von dem G92-chip und nicht einer G92-solution.

Wenn es sich wirklich auf zwei Chips bezieht, dann wird es wohl nutzbare Rechenleistung sein, also z.B. 96SPs @ 2.5GHz.

reunion
2007-05-26, 15:46:15
Aber in der B3D-News spricht man ja von dem G92-chip und nicht einer G92-solution.

Wenn es sich wirklich auf zwei Chips bezieht, dann wird es wohl nutzbare Rechenleistung sein, also z.B. 96SPs @ 2.5GHz.

Jetzt lass mal die Kirche im Dorf. nV wird garantiert nicht die MUL unterschlagen, hat man ja bei G80 auch nicht gemacht. Ev. wird die MUL zur MAD erweitert. Und 2.5Ghz ist doch "etwas" viel. Immerhin fast doppelt soviel wie jetzt, dafür reicht auch 65nm nicht IMHO.

AnarchX
2007-05-26, 15:59:33
Jetzt lass mal die Kirche im Dorf. nV wird garantiert nicht die MUL unterschlagen, hat man ja bei G80 auch nicht gemacht.
In den Dokumenten zu CUDA aber schon.


Ev. wird die MUL zur MAD erweitert.

Siehe Arun im B3D, (http://forum.beyond3d.com/showpost.php?p=979657&postcount=690) zudem ist ja das MUL auch nicht ganz ohne Bedeutung.


Und 2.5Ghz ist doch "etwas" viel. Immerhin fast doppelt soviel wie jetzt, dafür reicht auch 65nm nicht IMHO.
Soviel sind es nun auch nicht wieder, immerhin sind Ultras mit fast 1.7GHz Shaderclock unterwegs, die noch auf 90nm basieren.

reunion
2007-05-26, 16:25:54
Das soll seltsam sein?

Naja, warum heißt das Ding nicht G90 wie es in der Vergangenheit üblich was für das High-End-Modell?

In den Dokumenten zu CUDA aber schon.


Was auch logisch ist, denn in diesem Bereich kommt es nicht aufs Marketing, sondern auf die Leistung an. Da gibt es keine Grund, alles mögliche dazuzuzählen, um eine möglichst hohe GFLOPs-Zahl zu haben. Offiziell hat ein G80 allerdings nach wie vor 518GFLOPs, und das wird man bei einem G92 kaum anders auslegen.



Soviel sind es nun auch nicht wieder, immerhin sind Ultras mit fast 1.7GHz Shaderclock unterwegs, die noch auf 90nm basieren.

Das sind selektierte Chips, die nochmal selektiert wurden, und zu einem horrenden Preis nur in einer sehr geringen Stückzahl geliefert werden müssen. Ich denke wenn ein G92, der immerhin als Ein-Chip-Variante wohl auch in niedrigere Preissegmente vordringen wird 2Ghz erreicht, dann ist das nicht wenig. Zudem dürfte die Dual-Chip-Variante wie schon bei der G71-GX2 wieder niedriger getaktet sein als das Single-Chip-Modell, um eine ausreichende Kühlung zu gewährleisten.

Könnte also so zB aussehen:

9800GTX: 96SPs x 3 (MADD+MUL) x 2Ghz = 576GFLOPs
9800GX2: 96SPs x 3 (MADD+MUL) x 1.6Ghz x2 Chips = 921GFLOPs = "close to 1TFLOP"

Gast
2007-05-26, 16:45:44
Denk daran das die G8x Architektur in alle Richtungen erweitert/verkleinert werden kann. Ein Chip mit ~160SPs ist auch denkbar, auch wenn er intern evtl. einem kleineren Modell gleicht (quasi 2xG9x auf einem Die, ohne das man beeinträchtigungen hat).

AnarchX
2007-05-26, 17:17:47
Offiziell hat ein G80 allerdings nach wie vor 518GFLOPs, und das wird man bei einem G92 kaum anders auslegen.

Hat NV eigentlich diese Angabe wirklich schonmal so offiziell bekanntgegeben?
Oder stammt sie nur aus den Berechnungen der HW-Seiten?

Ich finde deine Werte doch etwas zu niedrig angesetzt, vor dem Hintergrund, dass man bald im GPGPU-Geschäft, wo MADD-Leistung am wichtigsten ist, groß mitmischen will und dass G92x2 möglicherweise bis zum G100 bzw. G200 NVs HighEnd-Lösung darstellen könnte.

Aber naja, weiter darüber zu diskutieren bringt bei dem aktuellen Informationsstand nicht wirklich viel. Da heißt es auf neue Anhaltspunkte warten.