PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x - Teil 3


Seiten : [1] 2 3 4 5

AnarchX
2007-10-08, 09:59:18
Letztes Posting: Teil 1 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5819112#post5819112)Teil 2 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5912251#post5912251)

->Diskussion zur 8800 GT (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5912218#post5912218)

Meine Gedanken, basierend auf diversen Gerüchten, zur High-End-Lösung und dem Aufbau von G92 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5888050&postcount=359) (kleines Update (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5944659&postcount=197))

Bisherige Gerüchte zu G9x allgemein:
- 65nm Fertigung
- Veröffentlichung: H2 2007
- 64Bit fähige ALUs(Doppelte Genauigkeit) laut CUDA-FAQ(wahrscheinlich in mehreren Takten), limitiert auf NVs Tesla GPGPU-Line (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5602364&postcount=303)
- Die G9x-GPUs sollen als GeForce 9 Serie vermarktet werden/ andere Quellen sprechen weiterhin von einer Vermarktung als GF8
- DX10.1 soll laut einigen Gerüchten von G92 und G98 noch nicht unterstützt werden, wobei aber dies keinen großen Aufwand bedeuten würde
- PCIe 2.0
- Displayports

G92:
http://img84.imageshack.us/img84/1558/02nvg92ef9.jpg

- Chip-Eckdaten: 754M Transistoren bei einer Die-Größe von 289mm², 65nm Fertigung
(http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5966912&postcount=352)

möglicher Aufbau: - Variante 1: 6 Cluster(=24 Doppel*-TMUs und 96SPs) und 4 ROP-Partitions(= 256Bit, 16 ROPs) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5626004#post5626004)
- Variante 2: 4 Cluster (32 (vollwertige) TMUs/oder 16-Doppel-TMUs und 64SPs), ROPs und SI wie bei V1
- Variante 3: 64TA/TFs+128SPs mit 384Bit MC im Vollausbau -> danach sieht es momentan aus
*Bi-AF bzw. trilinaere Filterung ohne Einbruch
- Taktraten: ~600MHz+ ROPs/TMUs, 1500MHz+ SPs, 900MHz+ Speicher
Einsatz auf Performancekarten(<$300) und einer GX2-Karte(2xG92) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5604400#post5604400) wahrscheinlich
G92 soll laut NV (http://www.beyond3d.com/content/news/230) nahe 1 TFLOP(GX2 ?) Rechenleistung besitzen und im Q4 2007 kommen
eine Single-GPU-Variante des G92 soll knapp über 9k Punkte im 3DMark06 erreichen und liegt somit etwas hinter der 8800GTX
der Stromverbrauch der Single-GPU-Variante soll unter einer 7900GTX(~80W) liegen
andere Quellen sprechen von Gerüchte über ein Package mit zwei G92 (Verbindung auf tieferer Ebene gegenüber SLI)
G92 basierende Karten sollen extrem leise sein (http://www.theinquirer.net/default.aspx?article=41740)
Video-Processor 3 2 mit H.264-Beschleunigung
Vorstellung im November (http://www.vr-zone.com/index.php?i=5127) bzw. 8800GT schon im Oktober (29.10.)

- bekannte SKUs:

8800 GT (G92GT/D8P) -> siehe Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=387529)
G92-8800GTS:
Dual-Slot-Kühlung
$305 MSRP 512MiB/1024MiB @256Bit
128SPs
Launch: 19.11. (oder erst Anfang Dezember?) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5985845&postcount=373) Nennung der Karte auf einer HP von NV! (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5984762&postcount=347)
http://img440.imageshack.us/img440/2889/nvidiageforce8800gts512av9.jpg
Mehr Billder... (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6032055&postcount=678)
1625MHz Shaderdomain

8800M-GTX (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5968443#post5968443), Listung bei Alienware (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6022384&postcount=586)
http://img260.imageshack.us/img260/478/8800mgtxng1.jpg





G98 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=285&Itemid=34):
http://img340.imageshack.us/img340/5290/g98core94c2794ok5.jpg
http://www.expreview.com/news/hard/2007-11-19/1195448531d6978.html

absolute LowEnd-GPU, die Mitte 2007 den Markt erreichen sollte (nun wohl November)
trägt intern wahrscheinlich auch die die Bezeichnung D8M (http://translate.google.com/translate?u=http%3A%2F%2Fwww.hardspell.com%2Fdoc%2Fhardware%2F38073.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) und wird im September (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1417&Itemid=1) die aktuelle GF 8400 ersetzen und somit einen besseren Konkurrenten zu ATis RV610(Radeon HD 2400) darstellen und auch gegen dessen Nachfolger RV620 antretten (http://www.vr-zone.com/?i=5243)
64Bit + GDDR2/3
Video-Processor 3: wahrscheinlich nun auch VC1 mit voller Beschleunigung/ oder doch nur VP2?
HDMI über DVI, PCIe 2.0 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1420&Itemid=1)
die G98-basierenden Karten sollen ~$45/59 (http://www.vr-zone.com/?i=5249) kosten
4 Layer PCB
Specs G98:

65nm
533-ball BGA 23mm x 23mm (GB1-64) package
64-bit memory bus width
8 Stream Processor
4 Texture Filtering Unit
4 Texture Addressing Unit
2 ROP
Core clock : 567MHz
Shader clock: 1.4GHz
Supports VP3
Supports HDMI out,HDMI Audio Mixing, DisplayPort

http://www.hkepc.com/?id=345



-G9x-Ableger für Mainstream wahrscheinlich im Frühling 2008 (G96?)



Nvidia prepares to shrink G80 to make a G90 (http://www.theinquirer.net/default.aspx?article=37791)
http://developer.download.nvidia.com...in32_linux.zip

>Q: Does CUDA support Double Precision Floating Point arithmetic?

>A: CUDA supports the C "double" data type. However on G80
> (e.g. GeForce 8800) GPUs, these types will get demoted to 32-bit
> floats. NVIDIA GPUs supporting double precision in hardware will
> become available in late 2007.
NVIDIA_G98.DEV_06E0.1 = "NVIDIA G98"
NVIDIA_G98.DEV_06E1.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E2.1 = "NVIDIA G98 "
...
Ingesamt sind es 32 Einträge (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350597&page=8) im Forceware 165.01.

GeForce9-Notebook-SKUs:
[DEV_0405&SUBSYS_15D21043] NVIDIA GeForce 9500M GS
[DEV_0405&SUBSYS_16341043] NVIDIA GeForce 9500M GS
[DEV_0405] NVIDIA NB9P-GE1
[DEV_0406] NVIDIA NB9P-GE

[DEV_042E&SUBSYS_17C21043] NVIDIA GeForce 9300M G
[DEV_042E] NVIDIA NB9M-GE1





"Neue" Infos: (von einem Moderator bei PCinlife, die ja bekanntlich gute Quellen haben ;))

- GeForce9 wird eine Produktfamilie sein (wer hätte das gedacht...)
- GF9 und GF8 Codenamensystem(Gx0 > Gx4 >... ) sind ähnlich aber nicht identisch

- G92 zielt mit seinem Codenamen auf HighEnd ab, wird aber unter der 8800GTX positioniert sein
- G92 und G80 werden gleichzeitig am Mark sein
- G92 wird weniger verbrauchen als eine 7900GTX =)
- G92 erzielt im 3DMark06 mehr als 9k Punkte
- G92 wurde noch nicht vollständig getestet, so könnten mit Pech noch Bugs gefunden werden
- G92 hat noch keinen konkreten Termin, aber gegen Weihnachten sollte er auf jeden Fall erhältlich sein

Anmerkungen:

- G90 soll existieren und sogar ein 512Bit SI besitzen, aber da NV die Risiken minimieren (einfachere, kleinere GPUs) will, wird er wohl nicht erscheinen bzw. als Notlösung in der Hinterhand gehalten werden

- Anfang 2008 bis Ende 2008 sollen weitere G9x GPUs erscheinen

- in der GF9-Serie soll es eine 1 TFLOP-SKU geben

http://we.pcinlife.com/thread-807684-1-1.html
http://img261.imageshack.us/img261/8684/nvspoctq4.jpg
8 Cluster mit einem VP2?
http://img261.imageshack.us/img261/9934/g8xdx101di8.jpg
Laut Folie sollen alle GeForce8 schon D3D10.1 unterstützen!

Neosix
2007-10-08, 10:19:28
@dargo (teil2) das mit 30% hab ich eigentlich hier aus dem forum oO
da ich persönlich keine der beiden karten besitze hab ich mich auf die hier immer wieder bestätigte werte verlassen. kann natürlich sein das ich das mit den 70% verwechselt habe.
aber wenn die gts 70% der leistung einer GTX hat. hat die andere nicht automatisch 30% mehr leitung?? oder übersehe ich da was in meiner rechnung?

Gast
2007-10-08, 10:20:51
Nur erschienen 8600GTs/GT zeitgleich, während 8800GT ein Jahr nach 8800GTS erscheint.

Was hat das damit zu tun? Niemand würde sich mehr auskennen, welcher Name bei nV das schnellere Modell darstellt und welcher das langsamere. Das ergibt doch nicht den geringsten Sinn, warum sollte man das machen? Nur weil jetzt ein paar Fanboys feuchte Träume vom G92 bekommen, wirft nV nicht die Nomenklatur über den Haufen. Die Karte wird sich knapp unter der 8800GTS einordnen, sonst würde sie nicht 8800GT heißen. Ist ja nicht so, dass alle anderen Namen schon belegt wären.

reunion

dargo
2007-10-08, 10:23:06
aber wenn die gts 70% der leistung einer GTX hat. hat die andere nicht automatisch 30% mehr leitung?? oder übersehe ich da was in meiner rechnung?
G8800GTX = 100fps
G8800GTS = 70fps (70% der GTX)

Die G8800GTX ist aber knapp 43% schneller als die GTS bzw. bringt knapp 143% der GTX Leistung (100fps*100/70fps). :)

Neosix
2007-10-08, 10:31:09
@ dargo ok hast recht, nach langer Überlegung bin ich auch drauf gekommen du warst aber schneller ^^
zum protokoll, ich bin ein morgenmüffel. ich brauche meine 10-12 stunden schlaff normalerweise :)

und wegen mathe. ja ist nicht mein lieblingsfach gewesen. deswegen frag besser nicht was ich grad angefangen hab zu studieren.

dargo
2007-10-08, 10:34:43
Es war doch nur Spaß (Smileys beachten), nicht so ernst nehmen. :)

Neosix
2007-10-08, 10:47:23
nichtsdestotrotzt hättest du ruhig meinen anderen text noch kommentieren können :) würde gerne von dir hören was du davon hälst. soweit ich deine beiträge lese bist du da eher realischtisch. und trägst weder ne grüne noch ne rote brille :)

dargo
2007-10-08, 10:54:42
nichtsdestotrotzt hättest du ruhig meinen anderen text noch kommentieren können :) würde gerne von dir hören was du davon hälst. soweit ich deine beiträge lese bist du da eher realischtisch. und trägst weder ne grüne noch ne rote brille :)
Ich kann dazu nichts sagen weil ich nichts weiß. Wenn ich was wüsste hätte ich es eh nicht verraten dürfen. Es gab hier mal eine Andeutung von einem Forum-User (ich nenne jetzt keinen Namen ;)) wonach ich davon ausgehe, dass die G8800GT nicht das leistet was viele hier nach der Bezeichnung erwarten oder es noch was anderes auf G92 Basis geben wird.

Hehe, Wahrheit oder gezielte Täuschung? ;D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5912379&postcount=4

Endorphine
2007-10-08, 13:12:35
Die Karte wird sich knapp unter der 8800GTS einordnen, sonst würde sie nicht 8800GT heißen. Ist ja nicht so, dass alle anderen Namen schon belegt wären. Ich vermute, dass die Benamung mehr etwas mit der neuen 8800GTS mit 112 SP zu tun hat.

Sonst hätte man ja aus einer 8800GTS auch eine 8850GTS machen können, was aber scheinbar nicht getan wurde. Daher imho der Name 8800GT.

Gast
2007-10-09, 17:49:17
Er ließ während seiner Ansprache durchscheinen, dass man um den Launch-Termin herum eine neue high-end Grafikkarte auf den Markt bringen möchte. Danach machte er an zwei Demos deutlich, wie weit sich Crysis im Vergleich zu FarCry entwickelt habe.

http://www.crysisnews.de/news-artikel,Crysis-Wurde-schon-zuviel-verraten,24461,1.html

Gast
2007-10-09, 18:11:37
könnte mit high-end auch die 8800GT gemeint sein ?

oder ist das endlich unser ominöser 280mm² chip :D

Nightspider
2007-10-09, 19:31:13
Neue HighEnd Karte:

http://www.crysisnews.de/news-artikel,crysis-wurde-schon-zuviel-verraten,24461,1.html

Besonders interessant in diesem Zusammenhang war die Rede von Nvidias Senior Vice President Dan Vivoli.

Er ließ während seiner Ansprache durchscheinen, dass man um den Launch-Termin herum eine neue high-end Grafikkarte auf den Markt bringen möchte.

laser114
2007-10-09, 19:35:37
Lies mal den Gasteintrag zwei Posts über dir. :tongue:

Aber schon interessant, dass, wenn dem so wäre, noch nichts dazu bekannt ist.

Nightspider
2007-10-09, 19:42:17
Ups. :rolleyes:

Naja, NVidia konnte die genauen Daten des G80 auch bis zum letzten Tag geheim halten.

Ich halte es durchaus für realistisch, das NV zum Crysis-Release neue Hardware vorstellen will.

Man merkt ja an der Crysis-Beta wieviel Leistung es benötigt, da kommt eine neue HighEnd-Karte genau richtig.

CryTek und Nvidia profitieren von sich gegenseitig.

Zudem stehen mit Unreal Tournament 3, Call of Duty 4, Gears of War und anderen Titeln neue Leistungsfresser in den den nächsten Monaten und ebenfalls um den Crysis-Release herum ins Haus.

James Ryan
2007-10-09, 19:44:56
Also zum Crysis-Launch eventuell ein 8 Cluster G9x? Da gab es mal vor ein paar Wochen eine chinesische Folie die genau das gezeigt hat. ;D

MfG :cool:

Gast
2007-10-09, 19:48:14
Ups. :rolleyes:

Naja, NVidia konnte die genauen Daten des G80 auch bis zum letzten Tag geheim halten.

Ich halte es durchaus für realistisch, das NV zum Crysis-Release neue Hardware vorstellen will.

Man merkt ja an der Crysis-Beta wieviel Leistung es benötigt, da kommt eine neue HighEnd-Karte genau richtig.

CryTek und Nvidia profitieren von sich gegenseitig.

Zudem stehen mit Unreal Tournament 3, Call of Duty 4, Gears of War und anderen Titeln neue Leistungsfresser in den den nächsten Monaten und ebenfalls um den Crysis-Release herum ins Haus.
Also wenn ich nV wäre, würde ich jetzt eine 8900 rausbringen. Besitzt ein 1 Gb Vram und höhere Taktraten als eine Ultra, keine Architekturveränderung.
Aufwand/Entwicklungskosten hielte sich in Grenzen und man könnte mangels Konkurrenz auch einen 800 $ Preis auf dem Markt durchkloppen. Der Rest erledigt Crysis. Da wird jeder zusätzlicher Frame gebraucht.

Nightspider
2007-10-09, 19:48:16
Also kann man mit wieviel Shader-Einheiten bei 8 Clustern rechnen ? Ich hab da noch nicht so den Durchblick.

Also wenn ich nV wäre, würde ich jetzt eine 8900 rausbringen. Besitzt ein 1 Gb Vram und höhere Taktraten als eine Ultra, keine Architekturveränderung.
Aufwand/Entwicklungskosten hielte sich in Grenzen und man könnte mangels Konkurrenz auch einen 800 $ Preis auf dem Markt durchkloppen. Der Rest erledigt Crysis. Da wird jeder zusätzlicher Frame gebraucht.

1GB VRAM ohne Architekturveränderungen ist nicht möglich.
Entweder 768 oder 1,5 GB oder NV baut dem G90 ein 512 Bit Speicherinterface ein.

dargo
2007-10-09, 19:48:22
Zudem stehen mit Unreal Tournament 3, Call of Duty 4, Gears of War und anderen Titeln neue Leistungsfresser in den den nächsten Monaten und ebenfalls um den Crysis-Release herum ins Haus.
Das werden sicherlich keine Leistungsfresser sein. Zumindest nicht erheblich mehr wie zb. Bioshock.

Gast
2007-10-09, 19:50:59
wenn highend noch vor xmas kommen würde,müßte das ding doch schon in produktion gehn und es gäbe längst erste bilder

Gast
2007-10-09, 19:56:09
Das werden sicherlich keine Leistungsfresser sein. Zumindest nicht erheblich mehr wie zb. Bioshock.
Also ich denke UT 200?/UT3 wird auf jeden Fall ein Leistungsfresser werden. CPU seitig sowieso und bei den Effekten wollen die sich auch nicht von Crytek lumpen lassen, sprich die aktuellen High End Grakas werden an der Kotzgrenze operieren.
Es wurde ja schon mal angedeutet, dass der PC extra große zusätzliche Maps bekommt, die auf Konsolen leistungstechnisch nicht möglich wären. Dazu kommt ja noch dass, es ein Multiplayer-Titel ist, wo eine recht hohe Framerate erwartet wird.

Gast
2007-10-09, 19:59:35
wenn highend noch vor xmas kommen würde,müßte das ding doch schon in produktion gehn und es gäbe längst erste bilder
Normal wäre wirklich schon was zu sehen gewesen, zumindest das PCB oder Protoypen von der Karte müssten schon "geleaked" sein.
Sie haben ja afaik auch nur gesagt, dass zum Launch von Crysis neue Karten kämen. Dieser Releasetermin im November ist doch nicht unverückbar. ;)

dargo
2007-10-09, 20:06:40
Also ich denke UT 200?/UT3 wird auf jeden Fall ein Leistungsfresser werden. CPU seitig sowieso und bei den Effekten wollen die sich auch nicht von Crytek lumpen lassen, sprich die aktuellen High End Grakas werden an der Kotzgrenze operieren.

Dann erkläre mir mal wie das auf den Konsolen laufen soll? Eine Diashow mit 10fps oder wie? :|


Es wurde ja schon mal angedeutet, dass der PC extra große zusätzliche Maps bekommt, die auf Konsolen leistungstechnisch nicht möglich wären.

Alles Schnee von gestern. Ich empfehle diesen Thread hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=221022

Gast
2007-10-09, 20:12:54
Dann erkläre mir mal wie das auf den Konsolen laufen soll? Eine Diashow mit 10fps oder wie? :|


Alles Schnee von gestern. Ich empfehle diesen Thread hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=221022

die Konsolenversion hat kleinere abgespeckte Maps,wurde alles schon gesagt.

dargo
2007-10-09, 20:15:10
die Konsolenversion hat kleinere abgespeckte Maps,wurde alles schon gesagt.
Lese dir nochmal meinen dritten Satz im letzten Post. :rolleyes:

Die gelbe Eule
2007-10-09, 20:16:09
UT2007 würde sich viel besser verkaufen, wenn man nicht noch 1k€ dranhängen muss, um es spielbar zu halten. Nächste Woche gibt es bestimmt handfeste Infos, weil dann die Karte auch in den Shops auftauchen werden.

dargo
2007-10-09, 20:18:25
UT2007 würde sich viel besser verkaufen, wenn man nicht noch 1k€ dranhängen muss, um es spielbar zu halten.
Hä? :confused:

Gast
2007-10-09, 20:28:28
UT2007 würde sich viel besser verkaufen, wenn man nicht noch 1k€ dranhängen muss, um es spielbar zu halten. Nächste Woche gibt es bestimmt handfeste Infos, weil dann die Karte auch in den Shops auftauchen werden.
So wie ich das sehe, hat Crytek hauptsächlich den Multiplayer im Auge, deshalb so früh auch eine Multiplayer-Beta. Der Single Player mit afaik ca. 10 Stunden Spielzeit könnte nur "angeflanscht" sein. Und in Crysis gibt es auch Fahrzeuge etc.. UT wird sich wahrscheinlich ein bisschen anders spielen aber es darf trotzdem optisch keine graue Maus sein, sonst wird es untergehen.
Denke zwar auch, dass die Anforderungen niedriger als bei Crysis sein werden,
aber einen flotten C2D mitsamt einem G80 (GTS/GTX) muss man wahrscheinlich schon sein eigen nennen, um es mit vollen Details flüssig spielen zu können.
Dann gibt's ja noch die Ageia Physx Geschichte, die Jungs wollen ja auch ihr Geld verdienen. Bin mal gespannt, wie die Implementierung im Multiplayer gemanged wird.

Gast
2007-10-09, 20:45:33
Hä? :confused:

Baumschule ?

Gast
2007-10-09, 21:19:02
so sehr ich mir auch eine neue high-end karte wünsche...in der originalquelle von maximumpc heißt es jedoch lediglich: "During his speech, Nvidia’s senior vice president Dan Vivoli let slip that Nvidia intended to “launch new hardware to coincide with Crysis’ launch.”"

da steht nix von high-end. und neue hardware gibts ja von NV...8800gt/"gto" und die 790er chipsets.
komisch nur, dass er auf nachfrage nicht weiter darauf einging

laser114
2007-10-09, 21:33:00
komisch nur, dass er auf nachfrage nicht weiter darauf einging

Wieso sollte er? Bisschen überraschen lassen können wir uns doch noch. :)

Gast
2007-10-09, 21:50:06
so sehr ich mir auch eine neue high-end karte wünsche...in der originalquelle von maximumpc heißt es jedoch lediglich: "During his speech, Nvidia’s senior vice president Dan Vivoli let slip that Nvidia intended to “launch new hardware to coincide with Crysis’ launch.”"

da steht nix von high-end. und neue hardware gibts ja von NV...8800gt/"gto" und die 790er chipsets.
komisch nur, dass er auf nachfrage nicht weiter darauf einging

lies mal weiter

Gast
2007-10-09, 21:52:56
als autor kann ich viel dazuschreiben, aber vivoli´s worte deuten meiner ansicht nach nicht unbedingt auf high-end hin

Snoopy1978
2007-10-09, 22:48:50
Hä?

Er meint das man nicht noch 1000 Glocken(in Form von Grakas un ähnlichem ranjagen muss) um die Bildrate von Sekund pro Bild in Bilder pro Sekund zu kippen.
Zum Thema aber denk ich(innerlich hoffe ichs vielleicht mehr) das Nvidia noch ne Überraschung parat hat und die Duskussion um die 8800Gt nutzt um abzulenken.

2.L.4.Y.
2007-10-10, 03:00:06
Erst bin ich in eurem Forum ausgelacht worden weil NVIDIA in diesem bericht http://www.beyond3d.com/content/news/230 sagt das eine neue graka mit 1Tf Leistung kommt jetzt wird es von eurer seite bestätigt > http://www.3d-center.de/artikel/2007/10-09_a.php

"Bezüglich eines neuen HighEnd-Lösung gibt es ähnlich wie bei ATI zwei verschiedene Standpunkte: Zuerst sprach man von einem G90-Chip, später sollte es dann ein DualChip-Grafikkarte auf G92-Basis werden. Die Vor- und Nachteile sind ähnlich wie bei ATI ausgeführt, einige Indizien sprechen im Fall von nVidia allerdings eher dafür, daß es nVidia mit einem echten HighEnd-Chip versuchen wird: Der stärkste Hinweis ist hier wohl die klare Aussage nVidias, daß deren nächster HighEnd-Chip eine Rechenleistung von nahezu 1 Terraflop erreichen wird. Daß diese Aussage seinerzeit dem G92-Chip zugeordnet wurde, hing damit zusammen, daß dieser damals eben als absolute HighEnd-Lösung angesehen wurde."


ich finde es schade von euch das ihr nicht spekuliert sonder es besser wusstet !!!!!

Gut der bericht ist alt aber er kam von offizieller seite ...........

Leonidas
2007-10-10, 06:15:25
Es ist gut möglich, daß die einigen tausend Benutzer dieses Forums im Laufe der Zeit andere Ansichten äußern über einen unsicheren Fakt als die Seitenredaktion zu einem bestimmten Zeitpunkt ;)

AnarchX
2007-10-10, 06:20:46
NVIDIA aims for 3 TFLOPS with next high-end GPU (http://www.nordichardware.com/news,6911.html)

G90 im Triple-SLI?

Die gelbe Eule
2007-10-10, 06:36:37
Wäre ja keine einzelne Karte. Faktor 3 zum R700 ist natürlich gewagt, aber wenn es dort schon Multicore gibt, auch keine Illusion.

AnarchX
2007-10-10, 06:56:03
Wäre ja keine einzelne Karte. Faktor 3 zum R700 ist natürlich gewagt,
Naja, da steht 3xR680.

Aber der hier den genannte Zeitrahmen ist imo etwas unrealistisch -> Frühling 2008, AFAIK kommt R700 erst im späten Q2 und 384SPs@2.5GHz auf einem Die würde ich bei NV auch erst mit 45nm erwarten.

Und auch so kommt mir der Verdacht, dass man hier etwas verwechselt hat, eben Triple-SLI...


aber wenn es dort schon Multicore gibt, auch keine Illusion.
Du meinst doch sicherlich Multi-Chip, Multi-Core gibt es schon länger.;)

Die gelbe Eule
2007-10-10, 07:02:48
Triple SLi wäre aber nicht High End, sondern doch Enthusiast. Immerhin legt man dort 1.5k €uros auf den Tisch. Theoretisch ist auch mit dem GX2 Sexta SLi möglich ;)

Multi Core ist ja marketingtechnisch nicht ganz inkorrekt.

MuLuNGuS
2007-10-10, 09:14:08
jetzt würde mich mal interessieren wann denn diese "neue" 8800GTS kommen soll, ein plus an 10% performance finde ich gar nicht mal so übel, vielleicht hole ich mir die da der G90 ja scheinbar noch auf sich warten läßt.
®

Die gelbe Eule
2007-10-10, 09:45:38
8800GTS @ 65nm (http://forums.vr-zone.com/showthread.php?t=193860)

G92, 128SP, 512MB


Nun weiß man woher der Hase langläuft, die alte GTS läuft aus. Somit würden wieder 96-112SP bei der GT Sinn machen, 64 wäre definitiv zu wenig.

AnarchX
2007-10-10, 09:47:20
Triple SLi wäre aber nicht High End, sondern doch Enthusiast. Immerhin legt man dort 1.5k €uros auf den Tisch. Theoretisch ist auch mit dem GX2 Sexta SLi möglich ;)
6 FPS Lag mit AFR und nicht zu vergessen die anderen Probleme die es geben könnte, T-SLI ist mit wie ich im #1 ausgeführt hatte eben ein Grund, dass es wohl keine GX2-Karten mehr geben wird in naher Zukunft bzw. auf Basis klassischer M-GPU-Technologien.


Multi Core ist ja marketingtechnisch nicht ganz inkorrekt.
Sicherlich, aber im 3DC kann man doch die richtige Bezeichung(Multi-Die/Chip) nennen, Multi-Core gibt es ja schon seit TNT-Tagen...

dargo
2007-10-10, 10:31:23
Er meint das man nicht noch 1000 Glocken(in Form von Grakas un ähnlichem ranjagen muss) um die Bildrate von Sekund pro Bild in Bilder pro Sekund zu kippen.

Ich habe ihn schon verstanden. Ich wollte nur damit ausdrücken wie er darauf kommt, dass UT3 ein "Hardwarefresser" sei.

Edit:
Habe ich es richtig verstanden? Es wird eine neue G8800GTS auf G92 Basis mit 512MB Vram und 128SPs für 300$ geben? Respekt. :up:

Neosix
2007-10-10, 10:46:44
also in dem neuen 3d center news. steht nun zum jahresanfang g90 in 65nm als neue highend...
ich frage mich aber wocher das kommt? auser gerüchte und wunschträume kanns ja nicht sein.

Gast
2007-10-10, 10:55:48
Edit:
Habe ich es richtig verstanden? Es wird eine neue G8800GTS auf G92 Basis mit 512MB Vram und 128SPs für 300$ geben? Respekt. :up:
"The new fresh and funky 65nm-lovin' GeForce 8800 GTS will have a price tag of over $300 but the final number has not been set."
Erwarte 349$, das ist realistisch.

Ailuros
2007-10-10, 11:04:28
Es gibt keine R680 und/oder G90 mehr, aber dafuer ist auch jegliche Quelle durchaus nicht mehr verantwortlich mit dem unendlichen Verwirrungs-Schlammasel seitens NVIDIA.

Nimmt man alle Geruechte die ueber G9x-wasauchimmer in letzter Zeit kursieren, ist es leicht zu sehen dass es viel zu viele Widersprueche gibt.

Mal hoert man von extravaganten Frequenzen, mal von GX2-Dingsbumsen, mal so und so viel Einheiten, mal hat NV angeblich Probleme mit Frequenzen usw. Der Laecherlichkeit zu Liebe kommen die ersten Refresh-Produkte sogar frueher an als anfangs projeziert und selbstverstaendlich weil die 2900PRO schon verkauft wird.

Das neueste Geruecht ueber die 3 Teraflops ist aeusserst interessant; falls dies stimmen sollte macht nur single chip G92 fuer high end Sinn und natuerlich wird es wohl von einem triple-SLi config stammen.

Vorraussetzung ist hier aber trotzdem extravagante Frequenzen so wie schon erwaehnt 800/2400MHz, denn ich will ernsthaft bezweifeln dass sich NV ausserhalb der 6 ROP partitions/384bit fuer 2008 bewegen will. An Bandbreite verhungert so ein Ding auch nicht; mit nur 1.2GHz Speicher sind es schon stolze 115GB/s theoretischer Bandbreite.

Gast
2007-10-10, 11:05:49
wenn ATi mit günstigen(55nm) und schnellen (RV670=R600 ; R680=2*RV670???) chips anfang 08 richtig durchstartet, dann steht nvdia unter zugzwang. den G100 / R700 würde ich frühestends Q2/08 erwarten.

ein 64SP chip ist zwar ganz nett, aber um mit der 2950xt und 2950X² zu konkurrieren braucht man mehr. und der G80 in 90nm ist recht teuer. daher halte ich einen neuen high-end chip im jan? für gut möglich.

Ailuros
2007-10-10, 11:16:24
G100 oder das was man unter "G100" bis jetzt verstand kommt erst mit "D3D11"/Vienna an.

Hvoralek
2007-10-10, 11:24:00
könnte mit high-end auch die 8800GT gemeint sein ?

oder ist das endlich unser ominöser 280mm² chip :DHigh- End wäre wohl entweder eine GX2 mit Vier- Cluster- Chips oder eine Ein- Chip- Karte mit einem Acht- Cluster- Modell (Das würde auf 28x mm² passen). Was auch immer davon G92 nun ist...

G100 oder das was man unter "G100" bis jetzt verstand kommt erst mit "D3D11"/Vienna an.Er meinte wohl den nächsten Nvidia- High- End- Chip auf Basis einer neuen Architektur. Das müsste dann G200 sein? :confused:

Ailuros
2007-10-10, 11:36:19
wenn ATi mit günstigen(55nm) und schnellen (RV670=R600 ; R680=2*RV670???) chips anfang 08 richtig durchstartet, dann steht nvdia unter zugzwang.

Sehr viel wird sich an dem heutigen Bild nicht aendern. Der kleinste und neueste Herstellungsprozess ist nicht unbedingt am "guenstigsten" ueberhaupt. Oefters sogar das Gegenteil, ueberhaupt wenn nicht alles nach Plan laeuft. Beispiel 90 vs. 80nm fuer die erste high end D3D10 Generation.

ein 64SP chip ist zwar ganz nett, aber um mit der 2950xt und 2950X² zu konkurrieren braucht man mehr. und der G80 in 90nm ist recht teuer. daher halte ich einen neuen high-end chip im jan? für gut möglich.

Was ist eine "2950XT" genau und wieso sollte sie mit einem 64SP chip konkurrieren?

Mal anders rum eine 2900PRO mit etwas niedrigerer Taktrate als eine 2900XT (deshalb auch der Name "2900PRO") hat es momentan eher schwer eine heutige 8800GTS zu schlagen. AMD laesst hier ihr "inventory" auslaufen mit chips die es schwer haben 742MHz zu erreichen, wobei im Gegensatz NVIDIA auch ihr "inventory" auslaufen lassen wird mit den "neuen" 8800GTS und dazu sogar etwas frueher als original geplant.

Bei den Reaktionszeiten seitens NVIDIA kann ich mir schwer vorstellen dass NVIDIA selbst in 2008 zum schnaufen kommen wuerde. Auf jeden Fall nicht mit den eher verkorksten Design-Entscheidungen (man darf sie auch anders nennen wenn man ganz gemein sein will) seitens AMD fuer die gesamte R6x0/RV6x0 Generation.

Ailuros
2007-10-10, 11:38:31
Er meinte wohl den nächsten Nvidia- High- End- Chip auf Basis einer neuen Architektur. Das müsste dann G200 sein? :confused:

Ob das Ding jetzt "G200" heissen wird keine Ahnung; auf jeden Fall wurde der originale "G90" IMHLO nicht storniert (siehe auch "NV50"/G80).

Gast
2007-10-10, 17:10:04
Interessant, was auch immer aus dem geplanten G90 geworden ist, könnte zum Re-Refresh des G80 werden *lol* (G92 ist ja quasi der Refresh des G80).
Eventuell hebt man sich das große Design für Herbst nächsten Jahres auf.

Gast
2007-10-10, 18:05:58
8800GTS @ 65nm (http://forums.vr-zone.com/showthread.php?t=193860)

G92, 128SP, 512MB


Nun weiß man woher der Hase langläuft, die alte GTS läuft aus. Somit würden wieder 96-112SP bei der GT Sinn machen, 64 wäre definitiv zu wenig.

Es wäre sehr interessant zu wissen, wann diese neue GTS gelauncht wird ;) .
Vielleicht im Dezember ? Ein bisschen Abstand müsste man ja zur neuen GTS @ 90nm halten, sonst bleibt die ja ein Ladenhüter.

Die gelbe Eule
2007-10-10, 18:30:50
Wohl im November, wenn der RV670 da ist. So kann man schnell noch die Taktraten anpassen. Eine GTS @ 90nm wird es nicht mehr geben, die wird ja auch getauscht.

James Ryan
2007-10-10, 19:30:51
8800GTS @ 65nm (http://forums.vr-zone.com/showthread.php?t=193860)

G92, 128SP, 512MB


Nun weiß man woher der Hase langläuft, die alte GTS läuft aus. Somit würden wieder 96-112SP bei der GT Sinn machen, 64 wäre definitiv zu wenig.

Nicht dass ich das schon gestern gesagt habe! ;)
Die Gf 8800 GT ersetzt die "alte" GTS leistungsmäßig, die GTS selber läuft noch kurzzeitig als 112 SP-Version auf G80-Basis und wird zügig von einem 128 SP-G92 ersetzt.
Unglücklich finde ich, dass NVIDIA die Namen nicht entsprechend ändert, die GTS könnte eigentlich zur Gf 8900 GT werden, die Gf 8800 GT wäre dann eine Gf 8900 GS.
Fehlt nur noch ein "voller" G92 als GTX und schon wäre das Lineup wieder komplett.

MfG :cool:

GeneralHanno
2007-10-10, 19:37:06
gibt es beweise, dass die graka entgültik 8800GT heißen wird ;)

zudem: vll ist der G80@65nm ja der neue high-end chip und die 8800GT wird doch "nur" 64SP haben.

James Ryan
2007-10-10, 19:46:23
Die Gf 8800 GT wird definitiv so heißen! Ich glaube das ist zur Zeit das einzig wirklich sichere! ;D

MfG :cool:

Adam D.
2007-10-10, 19:56:41
Könnte es eigentlich sein, dass Nvidia die Klassifizierung "GTS" abschaffen will? Mir kam vorher der Gedanke ... G80-GTS auslaufen lassen, dafür die 8800GT launchen und den stärkeren G92 ("neue" GTS) als 8900GT launchen?

seahawk
2007-10-10, 19:59:08
64SP würde eien Deaktivierung von 50% bedeuten, ich glaube das macht NV nicht. 96 SP wären 2/3, dazu ein niedriger Takt, was die Ausbeute optimieren müßte.

Darüber gibt es dann die neue GTS mit 112/128 SPs und leicht höherem Takt und die neue GTX die 128SPs und sehr hohen Taktung haben dürfte.

Fudo behauptete ja auch mal, dass NV sich wieder von GTS trennen möchte und zu GTX/Gt zurück kehren, da GTS sich im Ohr des Käufers schlechter als GT anhört.

Meien IDee wäre also : 8800GD (50% akt), 8800 GT 2/3, 8900GT 7/8, 8900GTX

AnarchX
2007-10-10, 20:07:54
64SP würde eien Deaktivierung von 50% bedeuten, ich glaube das macht NV nicht.Nicht ganz, 50% von den Clustern und 1/3 von ROP-Partitionen, wenn es denn 6 sind.
Und eine 6800LE gab es bei NV auchmal, obwohl man eine 6600GT hatte, die dieser in vielen Situationen gefährlich wurde.

289mm² und 256Bit-PCB ohne NVIO und die durch 65nm bedingte günstigere Kühlung bringen im Endeffekt doch immernoch höhere Margen als bei einer G80-basierenden Lösung.

Zwar 100%ig verstehe ich es auch nicht, aber momentan scheint es eben ganz danach.

LovesuckZ
2007-10-10, 20:12:00
289mm² und 256Bit-PCB ohne NVIO und die durch 65nm bedingte günstigere Kühlung bringen im Endeffekt doch immernoch höhere Margen als bei einer G80-basierenden Lösung.

Es geht das Gerücht rum, dass nVidia deutlich weniger GTX als GTS Chips aus der Produktion erhält. Die Beibehaltung der GTS ist für sie also wesentlich kostspieliger als bei der GTX. Es ist da doch sinniger gleich auf einen 8-Cluster Chip zu gehen, wodurch die Kosten wesentlich reduziert und nach dem Abverkauf der alten Chips, die Karten mit neuen bestückt werden.

Gast
2007-10-10, 20:15:12
Wenn ich Jen-Hsun wäre, würde ich Taktraten und Einheiten bei den Chips komplett weglassen und lediglich reine "Leistung" verkaufen. Das würde die Ausbeute optimieren.

Nakai
2007-10-10, 20:17:50
Wie sollte das die Ausbeute optimieren?;)

Es ist da doch sinniger gleich auf einen 8-Cluster Chip zu gehen, wodurch die Kosten wesentlich reduziert und nach dem Abverkauf der alten Chips, die Karten mit neuen bestückt werden.

Ich frage mich, ob es wirklich 8 normale Cluster werden.


mfg Nakai

AnarchX
2007-10-10, 20:18:11
Wenn ich Jen-Hsun wäre, würde ich Taktraten und Einheiten bei den Chips komplett weglassen und lediglich reine "Leistung" verkaufen. Das würde die Ausbeute optimieren.

Bis zu Graphics Power on Demand über das Netz wird es aber noch etwas dauern. :D

LovesuckZ
2007-10-10, 20:23:07
Von TheInq.com zum G92

The GPU itself has 128 "super-scalar shader units" inside, and there have not been many changes over improving the efficiency of the design.

The chip itself is a 17x17mm die (289mm2),[...]

Nvidia is not officially supporting a third SKU, the 1GB card - but we learned that there is more than one partner in the chase to get the card with 1GB. These premium SKUs will probably go for between $299 and $349. This higher price will be reflected in performance, which is bound to exceed expectations.

http://www.theinquirer.net/gb/inquirer/news/2007/10/10/nvidia-g92-little-g80-65nm

Adam D.
2007-10-10, 20:40:59
Ja, scheint sich ja zu festigen. Damit wird die 8800GT doch besser als von vielen hier erwartet und wird wohl gleich auf oder etwas unter der 8800GTS liegen.

AnarchX
2007-10-10, 20:45:10
Wobei ich etwas von GDDR2 im Zusammenhang mit den 1GiB gehört hatte - Gainward...

Gast
2007-10-10, 20:48:42
Hmm wenn die "alte" GTS auslaufen soll, und die Ausschussmenge (zwar reduziert da ja seit einem Jahr in Produktion) immer noch hoch ist beim G80. Wird der G80 auch nicht mehr lange produziert, wenn alle 10 G80 Chips, 4-6 nicht voll funktionsfähig sind, und diese nicht mehr als GTS verkauft werden, Schrott? Eher nehm ich doch den Chip komplett raus bevor ich ~50% einstampfe.

Sprich eine neue GTX wird kommen oder kommt alias G92 (der aber in 3 Versionen [mit Ausschuss]).

Gast
2007-10-10, 20:53:25
ich weiß jetzt nicht, ob ich hier gerade etwas überbewerte, aber als ich heute mein neues netzteil auspackte, war ein 6pin-to-8pin adapter und ein kleiner zettel beigelegt. davon stand nix in der produktbeschreibung und lieferbar war das NT auch erst nach 2 tagen.
auf dem zettel steht folgendes:
"Note:
New 8pin PCI-E connector inside!!
Toughpower series come with the latest 8-pin PCI-E connectors required for the next generation NVIDIA and ATI graphics cards ..."

gibt es nvidia-karten mit 8-pin anschluss? ich glaube nicht...noch nicht

(+44)
2007-10-10, 21:48:06
Ach, die haben sicher nur verallgemeinert... der Kunde kennt die Details doch nicht, aber nVidia und ATI hat er schonmal gehört ;)

Die NTs wurden halt mit den Adaptern ausgestattet nachdem ATI die HD2900 gebracht hat, fast jedes NT hat so ne Nachrüstung erfahren.

GeneralHanno
2007-10-10, 22:53:23
der G92 schint also 8 cluster mit 128SP zu haben. es wäre allerdings eine interessante frage, wie viele ROPs der chip nativ hat. von 4-8wäre alles vorstellbar, so dass man (je nach anzahl der aktive ROPs) ein unterschiedliches SI erziehlt (einsatzt auf vielen PCBs). oder doch nur "1-4ROP-256bit-chip" für alles. und dann high-end über GX2 ?

Ailuros
2007-10-11, 05:55:40
Interessant, was auch immer aus dem geplanten G90 geworden ist, könnte zum Re-Refresh des G80 werden *lol* (G92 ist ja quasi der Refresh des G80).
Eventuell hebt man sich das große Design für Herbst nächsten Jahres auf.

Alles G9x war stets nur ein "Refresh" und auch alles andere bis zum originalen G100. Ob G100 als Codename geblieben ist oder nicht keine Ahnung, auf jeden Fall war es vor einiger Zeit der geplante D3D11 chip. Von mir aus koennen sie das Ding dann "Borgo Sphinxter" nennen, viel hat sich an dem Ding zwischen damals und heute sowieso nicht mehr geaendert.

G92 ist eine logische Aenderung fuer die sich auch AMD entschieden hat (siehe aus R680 mach 2*RV670). Ich koennte mir leicht vorstellen dass beide IHVs 65nm bzw. 55nm ueberschaetzt haben. Es hiess ja stets vor dem G80 dass die zukuenftigen chips in =/<65nm stromsparender sein werden usw. usw.

Entweder das oder Microshaft masturbiert wieder im geheimen zu stark mit Vienna rum und es gibt keine einzige Chance dass sie es mit D3D11 in 2009 noch schaffen (was eigentlich am wahrscheinlichsten klingt).

Ailuros
2007-10-11, 06:07:08
der G92 schint also 8 cluster mit 128SP zu haben. es wäre allerdings eine interessante frage, wie viele ROPs der chip nativ hat. von 4-8wäre alles vorstellbar, so dass man (je nach anzahl der aktive ROPs) ein unterschiedliches SI erziehlt (einsatzt auf vielen PCBs). oder doch nur "1-4ROP-256bit-chip" für alles. und dann high-end über GX2 ?

Arun@B3D glaubt ja immer noch an ein maximales 4 ROP partitions/256bit Dingsbums. Mit dem Einsatz von hypothetischem GDDR4 bis zu 1.6GHz ist das ja auch kein Problem, aber ich sehe trotzdem nicht ein wieso NV nicht weiterhin die ROP partitions von 6 maximal nach unten skalieren sollte.

Etwa so:

Ultra High end 6
High end 5
Performance 4

For Q2 2008 erwarte ich persoenlich sowieso nichts was high end unter 65nm betrifft. Man muss ja die alte Kake auch noch ausverkaufen ;)

seahawk
2007-10-11, 06:54:24
Nicht ganz, 50% von den Clustern und 1/3 von ROP-Partitionen, wenn es denn 6 sind.
Und eine 6800LE gab es bei NV auchmal, obwohl man eine 6600GT hatte, die dieser in vielen Situationen gefährlich wurde.

289mm² und 256Bit-PCB ohne NVIO und die durch 65nm bedingte günstigere Kühlung bringen im Endeffekt doch immernoch höhere Margen als bei einer G80-basierenden Lösung.

Zwar 100%ig verstehe ich es auch nicht, aber momentan scheint es eben ganz danach.

Kommen wird so eine Karte, nur glaube ich kaum als Lauchobjekt. LE,GS isw. kamen immer an Ende des Lebenszykluses.

GeneralHanno
2007-10-11, 08:22:20
also ich würde sagen: wenn man die anzahl der nativen ROPs partitionen kennt, dann kann man auf nvdias high-end produktpalette schließen.
bei 4: 256bit SI für performencekarte und 2*256bit SI für high-end GX2.
bei 6: die GTX wirde gefreshed.

oder: es gibt einen monsterchip mit über128SP und 6-8ROP-part. allerdings halte ich da eine GX2 lösung für wahrscheinlicher (stichwort 1-TERA-FLOP)

Henroldus
2007-10-11, 09:37:33
Kommen wird so eine Karte, nur glaube ich kaum als Lauchobjekt. LE,GS isw. kamen immer an Ende des Lebenszykluses.
;D
das glaub ich auch

Iwan
2007-10-11, 10:04:07
Bis zu Graphics Power on Demand über das Netz wird es aber noch etwas dauern. :D

Denke mal der Gast meint das etwas anders. Ich glaube er macht den Vorschlag, das die Chips nicht mit einer fixen Einheiten/Taktverhältnis ausgeliefert sondern mit einer variablen, und nur die Rechenleistung immer gleich ist. Sprich sind bei einem Chip ein paar Einheiten defekt, wird der Chip dann im Gegenzug einfach höher getaktet.

Henroldus
2007-10-11, 10:09:18
Denke mal der Gast meint das etwas anders. Ich glaube er macht den Vorschlag, das die Chips nicht mit einer fixen Einheiten/Taktverhältnis ausgeliefert sondern mit einer variablen, und nur die Rechenleistung immer gleich ist. Sprich sind bei einem Chip ein paar Einheiten defekt, wird der Chip dann im Gegenzug einfach höher getaktet.
Diese Variabilität wurde mit den Unified Shadern ja bereits in Angriff genommen.

GeneralHanno
2007-10-11, 12:50:33
was haltet ihr von der vermutung, dass der 64SP chip, der D8M wird, also G94 bzw G96 ?

das würde dann so aussehen:

D8V (low-end): G98 - 16SP - 64bit
D8M (mainstream) : G94/6 - 64SP - 128bit+GDDR4?
D8P (performence) : G92 - 96-128SP - 256bit
D8E (high-end): G90/G92 wenig bekannt

Gast
2007-10-11, 20:50:41
Need Highend ^^. Was will ich mit ner Neuauflage der GTS, wenn so grafische Schmankerl ala Crysis, CoD4 und UT3 vor der Tür stehen. Bin gespannt ob die GTX oder Ultra ersetzt wird oder gar ausläuft.

Was mich aber wundert ist, das das SI auf 256Bit wieder geschrumpft ist und man lieber GDDR4 Speicher mit hoher Taktrate verbaut. Is der so "günstig" und in Masse verfügbar, das man damit einen Preiskampf fahren kann?

Am ende hat man den G80 geschrumpft, in den Fähigkeiten ausgebaut aber in der Einheitenanzahl beschnitten und kompensiert das durch mehr Taktrate in allen Bereichen? Is ja mal nV untypisch (man denke an den Schock der "breiten" 7800GTX, 6Quads WTF damals).

Gast
2007-10-11, 20:58:34
Bis zu Graphics Power on Demand über das Netz wird es aber noch etwas dauern. :D
Hehehe - so war das aber nicht gemeint.

Ich meinte variable Kombinationen aus Taktraten und aktiven Einheiten. Warum soll ich bsw. 230 GFLOPs nur auf eine Weise erreichen können?

112SPs@1030 MHz
96SPs@1200 MHz
80SPs@1440 MHz

Man müsste lediglich noch den Kerntakt jeweils etwas anpassen - leider kostet das auch noch :(

Gast
2007-10-11, 20:59:41
Ultra High end 6
High end 5
Performance 4

Das glaube ich aus dem Grunde nicht, weil man dann zu leicht via OC die nächsthöhere Version erreichen könnte. Von daher war die Abstufung zwischen GTX und GTS optimal. Zwischen 7950 GT und 7900 GTX dagegen kaum.

GeneralHanno
2007-10-11, 21:08:27
-löschen- irgendwie mist geschrieben -.-

Gast
2007-10-11, 22:28:07
die neue 8800GTS mit 128 Streamprozessoren dürfte verdammt nahe an der Leistung von der 8800GTX kratzen, auch wenn ich denke, dass vor allem in HD-Auflösungen die 8800GTX trotzdem vorne bleibt.


aber wo bleibt eine neue schnellere Karte als die 8800GTX?!

dargo
2007-10-11, 22:40:18
aber wo bleibt eine neue schnellere Karte als die 8800GTX?!
Daraus wird wohl dieses Jahr nichts.

Gast
2007-10-11, 23:26:33
so ein Mist.

will UT3 und Crysis in 1920x1200 mit Ultra HIgh Details zocken!

will aber kein Crossfire oder SLI

denke nicht, dass es die 8800GTX packt!

Gast
2007-10-11, 23:38:06
so ein Mist.

will UT3 und Crysis in 1920x1200 mit Ultra HIgh Details zocken!

will aber kein Crossfire oder SLI

denke nicht, dass es die 8800GTX packt!

ja,nicht grad clever von NV und ATI,ein neues UT und ein mies programmiertes Crysis kommt nicht jedes Jahr.

Die gelbe Eule
2007-10-12, 07:42:05
NV 8800 Lineup ? (http://forums.vr-zone.com/showthread.php?t=194422)

SKUs :

GeForce 8800 GT : 112 SP, PCIe 2.0, PV3.0(VC1), 256-bit mem interface

GeForce 8800 GTS : 112 SP, PCIe 2.0, PV3.0 (VC1), 320-bit mem interface

GeForce 8800 GTX : 128 SP, PCIe 2.0, PV3.0 (VC1), 384-bit mem interface

GeForce 8800 Ultra : 128 SP, PCIe 2.0, PV3.0 (VC1), 384-bit mem interface

seahawk
2007-10-12, 07:54:34
Alle G92 ?

Die gelbe Eule
2007-10-12, 08:12:24
Siehe PCI-E 2.0 ;)

AnarchX
2007-10-12, 08:14:22
Sieht ganz so aus, eine Ultra konnte bisher kein PureVideo 2 geschweige denn 3.

Aber warum NV keine neuen Namen vergibt wie 8900 oder 8850 ist doch etwas seltsam und somit unglaubwürdig.:|

Siehe PCI-E 2.0 ;)
Das bedeutet nichts...

Die gelbe Eule
2007-10-12, 08:33:56
Es bedeutet sehr wohl was. Man wird kaum das G80 PCB neu auflegen, nur damit PCI-E 2.0 implementiert ist. Viel zu teuer für eine Karte die ausläuft.

GeneralHanno
2007-10-12, 08:39:05
also ein chip für ein breites marksegment (200-500$).
d.h. an den gerüchten "neue GTS mit 320bit/112SP" war schon was wares dran. sicher kommt auch noch eine GS o.ä. mir 96SP.

Die gelbe Eule
2007-10-12, 08:44:04
Die GS könnte dann die 8600GTS ablösen, preislich wäre sie auf jedenfall dort angesiedelt.

GeneralHanno
2007-10-12, 08:58:48
ich denke, die 8600GT/S reihe wird eine priessenkung erfahren.
1. um die 8800GT besser zu platzieren.
2. weil ATi die besseren preise mit der 2600xt bietet.

stellst sich die frage, was aus dem 64SP chip geworden ist. ich denke das könnte der D8M werden ...

robbitop
2007-10-12, 09:03:32
Das ganze macht Sinn.

1.)Der G80 war schon lange teuer zu fertigen (90 nm)
2.)man hoerte immer was von 289 mm^2 (ganz klar Richtung 8 Cluster)

Nun kann man schoen billig die gesamte High End Linup damit erneuern.

AnarchX
2007-10-12, 10:11:51
Es bedeutet sehr wohl was. Man wird kaum das G80 PCB neu auflegen, nur damit PCI-E 2.0 implementiert ist. Viel zu teuer für eine Karte die ausläuft.
Imo ist das nicht wirklich viel Arbeit, wenn man die 8600GT Gen1 und Gen2 vergleicht und bei den Tesla-Karten soll auch Gen2 an Board sein. Und wer sagt, dass GTX und Ultra auslaufen. ;)

Das ganze macht Sinn.

1.)Der G80 war schon lange teuer zu fertigen (90 nm)
2.)man hoerte immer was von 289 mm^2 (ganz klar Richtung 8 Cluster)

Nun kann man schoen billig die gesamte High End Linup damit erneuern.
Ja, sicherlich. Aber warum kein neuer Name? Selbst Low-End-Dreck kommt teilweise mit bis zu 3 Namen über die Zeit hinweg daher. :|

Und um Ultra und GTX etwas von der GT abzugrenzen sollte man doch auch hier die Taktraten etwas verändern, die 128Bit und 256MB mehr sind imo zu wenig Argumente.

Gast
2007-10-12, 10:17:09
Und um Ultra und GTX etwas von der GT abzugrenzen sollte man doch auch hier die Taktraten etwas verändern, die 128Bit und 256MB mehr sind imo zu wenig Argumente.
50% mehr Bandbreite sind kein Argument?

AnarchX
2007-10-12, 10:18:28
50% mehr Bandbreite sind kein Argument?

Imo aber nicht für den doppelten Preis. ;)

GeneralHanno
2007-10-12, 10:26:25
glaubt ihr, dass der launch "von oben" (erst die stärkste karte) oder "von unten"(die 8800GT zuerst) kommen wird? traditionell launcht nvidia "von oben", aber diesmal gibt es indizien, dass der G92@ULTRA erst Q1/08 kommt. wie seht ihr das?

€dit: @anarchX: sind 50% mehr pixeldurchsatz auch kein argument?

Gast
2007-10-12, 10:29:38
Imo aber nicht für den doppelten Preis. ;)
Das steht wiederum auf einem anderen Blatt. :D

Womöglich wird nVidia den günstigen Preis der neuen Mainstream/Performance-Karten auch noch durch einen lauteren Lüfter (Single-Slot-Kühlung?) rechtfertigen ...

AnarchX
2007-10-12, 10:29:53
@GeneralHanno
Zum Crysis-Launch sollte NV eigentlich doch etwas stärkeres auffahren und nicht nur 3-Wege-SLI, und dann halt noch die Aussage von der Investorenkonferrenz.

Ich denke schon, dass NV im November noch etwas größeres, was momentan noch geheim gehalten wird, präsentieren wird.

Winter[Raven]
2007-10-12, 10:30:05
aber diesmal gibt es indizien, dass der G92@ULTRA erst Q1/08 kommt. wie seht ihr das?

Siehst du irgendein Stück Hardware welches gegen die Ultra antretten könnte? So macht Nvidia einfach das was am Wirtschaftlichsten ist... ;)

robbitop
2007-10-12, 10:30:07
Und um Ultra und GTX etwas von der GT abzugrenzen sollte man doch auch hier die Taktraten etwas verändern, die 128Bit und 256MB mehr sind imo zu wenig Argumente.
Wenn's nur ein Shrink ist, der nicht schneller ist, waere ein neuer Name ja Kundenveralberung. Dazu muessten die Karten weit hoeher getaktet sein. Darin sieht NV derzeit aber wohl keine Notwendigkeit und kann sich damit auch an hoeheren Yields erfreuen.

dargo
2007-10-12, 10:31:59
Und um Ultra und GTX etwas von der GT abzugrenzen sollte man doch auch hier die Taktraten etwas verändern, die 128Bit und 256MB mehr sind imo zu wenig Argumente.
Wo siehst du da Taktraten? ;)
Nur weil die Namen gleich geblieben sind muss es nicht heißen, dass die Taktraten auch gleich bleiben, siehe zb. die G8800GT mit 600/1500/900Mhz. Bei dem Shadertakt bin ich mir allerdings nicht sicher.

AnarchX
2007-10-12, 10:35:52
Wenn's nur ein Shrink ist, der nicht schneller ist, waere ein neuer Name ja Kundenveralberung. Dazu muessten die Karten weit hoeher getaktet sein.
Das gab es alles schon. ;)

Und woran erkenne ich nun ob ich eine GTX/Ultra kaufe die PCIe2 und PV3 hat, oder ob ich eine 112SP oder 96SP 8800GTS kaufe?
Eine anderen Namensgebung, sei es nur 8850, ist imo absolut notwendig!




Darin sieht NV derzeit aber wohl keine Notwendigkeit und kann sich damit auch an hoeheren Yields erfreuen.
Wohlmöglich, Ailuros hatte ja auch etwas gesagt, dass beide IHVs 65/55nm überschätzt hätten.

Aber bei PCinlife, wurde dieses G92-SKU-Refresh-Lineup von einem der Mods, die damals schon die ersten Daten leakten, als Fake abgestempelt.


€dit: @anarchX: sind 50% mehr pixeldurchsatz auch kein argument?
Sicherlich gibt es ein paar Argumente, aber trotzdem wäre diese Nähe in einigen Punkten doch untypisch von NV.

Nur weil die Namen gleich geblieben sind muss es nicht heißen, dass die Taktraten auch gleich bleiben, siehe zb. die G8800GT mit 600/1500/900Mhz. Bei dem Shadertakt bin ich mir allerdings nicht sicher.

Imo ist das doch absoulter BS im GraKa-Markt wo neue Namen selbst bei minimalsten Änderungen an der Tagesordnung sind.

robbitop
2007-10-12, 10:46:04
Wer sagt denn, dass es keine Namensaenderung geben wird?
Ausserdem hat man die Clusteranzahl bei der GTS erhoet (bzw will es) und der Name in den Docs blieb auch gleich.

AnarchX
2007-10-12, 10:49:41
Ausserdem hat man die Clusteranzahl bei der GTS erhoet (bzw will es) und der Name in den Docs blieb auch gleich.
Wobei hier die Strategie schien, dass die AIBs sie als "8800GTO" bzw. etwas anderes verkaufen und so diese SKU mit ihrem PCB und Co. gegenüber einer 4 Cluster 8800 GT entsprechend positionieren und den Preis stabil halten können, beim Abverkauf.

Und Ailuros sprach ja auch davon, dass NV "den alten Mist" auch irgenwie noch verkaufen will...

robbitop
2007-10-12, 10:52:08
Deswegen kann man ja erstmal die "kleine" einfuehren und die grossen ein paar Monate spaeter (mit Hinweis an die Hersteller, die Lager zu raeumen)
Naja pure Speku. ^^

Henroldus
2007-10-12, 10:54:55
das komplette Lineup mit 89** zu benennen wäre wohl der sinnvollste weg.
eine komplett neue architektur darf dann wieder 9*** heissen oder anders um nicht mit den alten ATI Karten verwechselt zu werden.

dargo
2007-10-12, 12:00:22
Imo ist das doch absoulter BS im GraKa-Markt wo neue Namen selbst bei minimalsten Änderungen an der Tagesordnung sind.
Ja, da gebe ich dir recht. Ich hätte mindestens eine G8820 erwartet wenn die Änderungen schon so klein sein sollten. Damit man die Karten wenigstens auseinander halten kann.

Gast
2007-10-12, 12:13:30
Die Kartons werden einfach modifziert. Es ist doch bei CPUs und Mainboards gang und gebe, dass modifizierte Versionen auch keinen Namen bekommen. Warum sollte es nicht auch mal bei den GPUs passieren?

AnarchX
2007-10-12, 12:20:07
Die Kartons werden einfach modifziert. Es ist doch bei CPUs und Mainboards gang und gebe, dass modifizierte Versionen auch keinen Namen bekommen. Warum sollte es nicht auch mal bei den GPUs passieren?
Natürlich wird bei anderen Features der Name geändert: E6300 mit 4MB -> E6320 bzw. bekamen bei ASUS alte Boards die auf Conroe-Support aufgerüstet wurden ein "C" angehängt.

Gast
2007-10-12, 12:22:37
Natürlich wird bei anderen Features der Name geändert: E6300 mit 4MB -> E6320 bzw. bekamen bei ASUS alte Boards die auf Conroe-Support aufgerüstet wurden ein "C" angehängt.

Und es geschieht bei anderen nicht. Da werden neuere Revisionen nur auf dem Board vermerkt oder dem Kunden nicht mitgeteilt (Xbox360 und 65nm CPU).

AnarchX
2007-10-12, 12:24:34
Im Endeffekt bleibt aber der Funktionsumfang gleich, was hier aber nicht der Fall wäre.

Aber naja, wir werden sehen, imo ist es extrem unrealistisch wenn VP2/3 und PCIe2 ohne neue Namen verkauft werden würde.

Gast
2007-10-12, 12:39:57
Dann dürfte die 8800GT nicht so heißen, wenn man dem G92 einen verbesserten Videoprozessor und PCIe 2.0 spendiert hat, oder? ;)

AnarchX
2007-10-12, 12:41:17
Dann dürfte die 8800GT nicht so heißen, wenn man dem G92 einen verbesserten Videoprozessor und PCIe 2.0 spendiert hat, oder? ;)

Gibt es schon eine 8800 GT, die keinen VP2 bzw. PCIe2 hat? ;)

Gast
2007-10-12, 12:45:42
Gibt es schon eine 8800 GT, die keinen VP2 bzw. PCIe2 hat? ;)

Es wird aber mit der 8800GT impliziert, dass auch die höhreren Versionen diese "Features" hätten. Das wäre ungefähr so als wenn Sone bei der Playstation für 399€ die PS2 Kompartibilität erhalten und bei dem teuren Modell gestrichen hätte. Wenn also die 8800GT über diese Features verfügen sollte, müssen es auch die anderen. Es macht daher sind im zuge der 8800GT einfach die älteren Modelle durch neuere zu ersetzen.

seahawk
2007-10-12, 13:04:49
Das Problem verschwidet, wenn es praktisch keine gemeinsame Marktzeit von 8800 (alt) und 8800Gt gibt.

Henroldus
2007-10-12, 13:25:52
Das Problem verschwindet, wenn es praktisch keine gemeinsame Marktzeit von 8800 (alt) und 8800Gt gibt.
du redest hier sicher vom Abverkauf der alten Generation,

da hab ich doch gleich mal die Liefersituation bei Geizhals gecheckt:
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=8800&filter=+Angebote+anzeigen+&pixonoff=off
und statt Knappheit sehe ich erste Bewegung in den Preisen :eek:
Lieferbarkeit für ca 300Eur gabs lange nicht

auch bei EBAY steigt das Angebot an 8800ern, da kriegen wohl einige das Flattern und wollen die alten Teile noch schnell loswerden :tongue:

AnarchX
2007-10-12, 13:29:27
Das Problem verschwidet, wenn es praktisch keine gemeinsame Marktzeit von 8800 (alt) und 8800Gt gibt.

Und wie sieht es im Second-Hand-Handel aus? ;)

Wie schon mehrmals wiederholt, ich glaube absolut nicht daran, dass man bessere SKUs nochmal unter dem gleichen Namen vemarktet und zweifele daran, dass NV soetwas tun würde. Aber lassen wir uns überraschen...

Gast
2007-10-12, 13:44:21
Hab jetzt fast ein Jahr ne 8800gtx,dass nervt :D

Kennt ihr den dämlichen Spruch den die Masse immer abläßt "Wenn du Heute einen PC kaufst ist er Morgen schon veraltet"....bullshit³ ;D ich warte ewig auf neue Hardware :O

Gast
2007-10-12, 15:02:50
Hab jetzt fast ein Jahr ne 8800gtx,dass nervt :D

Kennt ihr den dämlichen Spruch den die Masse immer abläßt "Wenn du Heute einen PC kaufst ist er Morgen schon veraltet"....bullshit³ ;D ich warte ewig auf neue Hardware :O
Am besten jetzt die GTX verkaufen und dann die günstige 8800 GT holen. Wenn man wirklich wartet bis die neue Generation kommt, dann ist die GTX wohl nur noch ein "Butterbrot" wert im Vergleich zum Releasepreis. nV scheint keine Gnade zu kennen, wenn die neue so billig in Relation zu der gebotenen Leistung ist. Dazu fortschrittlicher, weniger Verbrauch und vielleicht noch gut übertaktbar. Wenn die sich erstmal etabliert hat, dann dürfte die GTX vielleicht noch gebraucht weggehen zum Preis einer neuen GT, wenn überhaupt.

seahawk
2007-10-12, 16:09:22
Und wie sieht es im Second-Hand-Handel aus? ;)

Wie schon mehrmals wiederholt, ich glaube absolut nicht daran, dass man bessere SKUs nochmal unter dem gleichen Namen vemarktet und zweifele daran, dass NV soetwas tun würde. Aber lassen wir uns überraschen...

Ich glaube es auch nicht.

reunion
2007-10-12, 16:11:57
Das gab es alles schon. ;)

Und woran erkenne ich nun ob ich eine GTX/Ultra kaufe die PCIe2 und PV3 hat, oder ob ich eine 112SP oder 96SP 8800GTS kaufe?
Eine anderen Namensgebung, sei es nur 8850, ist imo absolut notwendig!

Imo ist das doch absoulter BS im GraKa-Markt wo neue Namen selbst bei minimalsten Änderungen an der Tagesordnung sind.


Ich gebe dir recht, doch du musst dich entscheiden. Da der Name 8800GT feststeht, gibt es genau zwei Möglichkeiten: G92 hat nur vier Cluster und erweitert die 8800-Serie nach unten, was bedeuten würde das G80 noch länger aktuell bleibt, oder G92 hat eben doch acht Cluster, und nV ersetzt die 8800-Serie mit diesem, behält aber den Namen bei.

Wenn's nur ein Shrink ist, der nicht schneller ist, waere ein neuer Name ja Kundenveralberung. Dazu muessten die Karten weit hoeher getaktet sein. Darin sieht NV derzeit aber wohl keine Notwendigkeit und kann sich damit auch an hoeheren Yields erfreuen.

Kaum ein Hersteller ist sich zu schade, für minimale Verbesserungen maximale extra Punkte zu vergeben, wenn dies unbetuchten Kunden zu Kauf verleitet und somit den Umsatz steigert.

James Ryan
2007-10-12, 17:50:33
Ich gebe dir recht, doch du musst dich entscheiden. Da der Name 8800GT feststeht, gibt es genau zwei Möglichkeiten: G92 hat nur vier Cluster und erweitert die 8800-Serie nach unten, was bedeuten würde das G80 noch länger aktuell bleibt, oder G92 hat eben doch acht Cluster, und nV ersetzt die 8800-Serie mit diesem, behält aber den Namen bei.


Langsam sollte es auch dir klar geworden sein, dass der G92 nicht nur 4 Cluster besitzt. ;)

MfG :cool:

reunion
2007-10-12, 18:48:52
Langsam sollte es auch dir klar geworden sein, dass der G92 nicht nur 4 Cluster besitzt. ;)

MfG :cool:

Das war eine nackte Wertung der Möglichkeiten. Ich habe bewusste keine Meinung abgegeben.

laser114
2007-10-13, 20:14:27
Also note that the beta includes an Extreme option that is greyed out as no commercially available hardware can produce the settings at a satisfactory frame rate.

Hmm, und in der finalen Version von Crysis ist die Funktion dann vorhanden...?

Ob das ein weiterer Hinweis ist?

=Floi=
2007-10-13, 21:46:44
wie sieht es denn mit der GTX und Ultra aus? Werden diese karten auch überarbeitet? 196SP?

ShadowXX
2007-10-13, 22:10:35
wie sieht es denn mit der GTX und Ultra aus? Werden diese karten auch überarbeitet? 196SP?
Ich schätze eher, das am G92GX2 doch was dran ist....wenn die Ergebnisse stimmen, würde das auch erstmal reichen für das neue HighEnd.

Ailuros
2007-10-14, 08:37:57
Ich schätze eher, das am G92GX2 doch was dran ist....wenn die Ergebnisse stimmen, würde das auch erstmal reichen für das neue HighEnd.


Ehrlich gesagt hab ich persoenlich auch nichts dagegen und das geht fuer beide IHVs. Die paar Leistungs-geile Heinis die unbedingt nochmal 50% mehr Leistung als bei heutigen high end GPUs "brauchen", werden mit dem Zeug dann schon zufrieden sein und fuer die totalen Spinner dann eben triple SLi bzw. Crossfire.

Mir ist es lieber wenn sich beide eher auf die naechste Generation konzentrieren als zu viel R&D und Resourcen in einen Refresh zu werfen. Im Gegenfall leidet dann eben stets die naechste Generation daran.

4711
2007-10-14, 08:45:51
Ich schätze eher, das am G92GX2 doch was dran ist....wenn die Ergebnisse stimmen, würde das auch erstmal reichen für das neue HighEnd.
hoffe ich!
Nur darf das Ding nicht einen halben Meter lang werden... :D

AnarchX
2007-10-14, 10:35:49
Ich schätze eher, das am G92GX2 doch was dran ist....wenn die Ergebnisse stimmen, würde das auch erstmal reichen für das neue HighEnd.

Gegen eine GX2 spricht aber imo mittlerweile einiges dagegen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5888050&postcount=359
+ dass es immer mehr nach einen 290mm² Die mit den vollen Einheitenumfang eines G80 aussieht, bei dem eine GX2 eher Unsinn wäre und eben dass bei der 8800GT 7C@600/1500MHz schon mit 1.05/1.1V möglich sind.

Mein Tipp für vielleicht erst Anfang 2008:
775-825MHz ROP-Domain
2.2-2.5GHz Shader-Domain
1.2-1.6GHz GDDR4
8Cluster+384Bit

(und das alles basiert nicht auf meiner Phantasie, sondern vielzähligen sich teilweise gleichenden Gerüchten ;))

Kosteneffizienter dank kleinerem Die und wegfallendem NVIO als die G80-Karten und der Verbrauch dürfte auch sich auf GTX/Ultra-Niveau bewegen.

Und eben der Umstand, dass man diese SKU mit den Triple-SLI-Plänen vereinbaren kann, was bei der GX2 nicht der Fall wäre.

GeneralHanno
2007-10-14, 10:40:42
es wurde ja mehrfach angekündigt, dass tripple-sli im novermber für die ULTRA und die GTX kommen wird. würde tri-sli auch mit aktuellen G80 funktionieren oder ist dafür ein redesign nötig (was mit dem G92 erst kommen könnte) ?

http://www.hartware.de/news_43271.html

AnarchX
2007-10-14, 10:44:00
Nein, ist halt nur 3-Wege-AFR, was es selbst schon bei G7x gab.

Aber clevererweise wird NV es auf die High-End-Karten mit zwei SLI-Connectoren limitieren.
Was aber auch imo Sinn macht, 2 Ultras sind doch sinnvoller als 3 (alte) GTS und das wird dann sicherlich auch bei den G92-SKUs so sein.

Sonyfreak
2007-10-14, 10:46:20
Mein Tipp für vielleicht erst Anfang 2008:
775-825MHz ROP-Domain
2.2-2.5GHz Shader-Domain
1.2-1.6GHz GDDR4
8Cluster+384BitWenn das alles ist und sich sonst an der Architektur im Vergleich zum G80 nichts ändert, würde die Performance aber nicht allzu stark steigen oder? Falls doch, kann man da schon spekulieren wieviel schneller so ein G90 wäre?

mfg.

Sonyfreak

AnarchX
2007-10-14, 10:51:55
Wenn das alles ist und sich sonst an der Architektur im Vergleich zum G80 nichts ändert, würde die Performance aber nicht allzu stark steigen oder? Falls doch, kann man da schon spekulieren wieviel schneller so ein G90 wäre?

Meine "9800/8900GTX":
19-20GPix/s
49-53GTex/s
845-960GFLOPs
115-150GB/s

Hier kannst du vergleichen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/2/#abschnitt_technische_daten

Dürfte sich wohl im Rahmen 7800GTX(256MB) -> 7900GTX bewegen, wenn nicht sogar noch etwas mehr.
Und das dürfte auch gut gegen eine 2950X2X reichen, die ich im Durchschnitt, wenn CF gut funktioniert 30-40% schneller als eine 8800 Ultra einschätzen würde.

reunion
2007-10-14, 11:08:57
Aber clevererweise wird NV es auf die High-End-Karten mit zwei SLI-Connectoren limitieren.
Was aber auch imo Sinn macht, 2 Ultras sind doch sinnvoller als 3 (alte) GTS und das wird dann sicherlich auch bei den G92-SKUs so sein.

Was ist daran clever? NV wird daran interessiert sein, dass möglichst viele Triple-SLi verwenden, da man damit natürlich gleich drei Karten pro PC verkaufen kann. Wenn es nach dem Sinn ginge, dann dürfte bsw. auch keine 8600GTS SLi beherrschen. Es ist eher eine Notwendigkeit, da sonst der Bus der mittleren Karte wohl ziemlich belastet werden würde. Wobei ich mich frage, wie dann Karte 1 mit Karte 3 kommuniziert.

Und das dürfte auch gut gegen eine 2950X2X reichen, die ich im Durchschnitt, wenn CF gut funktioniert 30-40% schneller als eine 8800 Ultra einschätzen würde.

Wenn es AMD gelungen ist, den AA-Bug zu beheben, und für Einbrüche zu sorgen, die zumindest nicht höher als bei R580 sind, dann dürfte die 30-40% schneller als bei einer 8800U etwas wenig sein.

GeneralHanno
2007-10-14, 11:31:20
aber die aktuellen 88GTX/ULTRA haben doch nur 1nen sli connektor, oder?

Markus89
2007-10-14, 11:33:30
aber die aktuellen 88GTX/ULTRA haben doch nur 1nen sli connektor, oder?

Sie haben zwei.

Sonyfreak
2007-10-14, 11:33:45
Meine "9800/8900GTX":
19-20GPix/s
49-53GTex/s
845-960GFLOPs
115-150GB/s

Hier kannst du vergleichen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/2/#abschnitt_technische_daten

Dürfte sich wohl im Rahmen 7800GTX(256MB) -> 7900GTX bewegen, wenn nicht sogar noch etwas mehr.
Und das dürfte auch gut gegen eine 2950X2X reichen, die ich im Durchschnitt, wenn CF gut funktioniert 30-40% schneller als eine 8800 Ultra einschätzen würde.Damit wäre diese spekulative 8900/9800GTX ja eigentlich nur eine flotter getaktete Variante des G92 mit breiterem Speicherinterface und stark erhöhtem Shaderdomain. Dadurch steigen im Vergleich zum G80 auch "nur" die Arithmetikleistung und die Speicherbandbreite wirklich deutlich an.

Wäre es da nicht irgendwie sinnvoller, wenn Nvidia vielleicht einen Chip mit 10 (oder vielleicht gar 12) Clustern auf den Markt bringt, der zudem noch die Verbesserungen hinsichtlich der TAUs der G84er Reihe mitbringt? Dann könnte man die Taktraten des Chips auch ein bisschen niedriger halten, und im Falle des Falles wenn - ATI mit einer sehr schnellen Karte kontert - noch rasch eine 8900/9800Ultra auf den Markt bringen, um den Konkurrenten zu überflügeln.

mfg.

Sonyfreak

LovesuckZ
2007-10-14, 11:55:52
Eine geringere DIE - Fläche ergibt einen höhreren Ausschus an Chips. Sollten Chips eine hohe Taktung nicht schaffen, kann man diese einfach in unteren Preisklassen weiterverkaufen.
Größere DIEs sind dagegen teurer in der Fertigung und wesentlich anfälliger für Probleme bzw. defekte Bereiche. Es ist finanziell vernünftiger einen kleineren Chip mit hohen Taktraten zu fertigen als einen großen Chip mit geringeren Takt.

AnarchX
2007-10-14, 14:27:08
Damit wäre diese spekulative 8900/9800GTX ja eigentlich nur eine flotter getaktete Variante des G92 mit breiterem Speicherinterface und stark erhöhtem Shaderdomain. Dadurch steigen im Vergleich zum G80 auch "nur" die Arithmetikleistung und die Speicherbandbreite wirklich deutlich an.

Nunja, eben wichtig für aufwendigere Shader und FP-HDR und andere Rendering-Technologien, 30-50GTex sind imo mehr als genug, auch für kommenden Titel.

Was ist daran clever? NV wird daran interessiert sein, dass möglichst viele Triple-SLi verwenden, da man damit natürlich gleich drei Karten pro PC verkaufen kann. Wenn es nach dem Sinn ginge, dann dürfte bsw. auch keine 8600GTS SLi beherrschen. Es ist eher eine Notwendigkeit, da sonst der Bus der mittleren Karte wohl ziemlich belastet werden würde. Wobei ich mich frage, wie dann Karte 1 mit Karte 3 kommuniziert.
So kann es natürlich auch sein.
Hier gibt es eine Erklärung zur neuen SLI-Bridge:
http://www.vr-zone.com/articles/Nvidia_Readies_3-Way_SLI_Technology/5341.html


Wenn es AMD gelungen ist, den AA-Bug zu beheben, und für Einbrüche zu sorgen, die zumindest nicht höher als bei R580 sind, dann dürfte die 30-40% schneller als bei einer 8800U etwas wenig sein.
Ich habe immerhin schon mit guten 15% Mehrleistung gegenüber einer 2900XT für eine Teil-GPU der X2X gerechnet, imo doch schon eine erheblich Steigerung innerhalb einer Generation.
Und selbst wenn die AA-Performance besser wird, gibt es eben noch andere Probleme wie der Mangel an Z-Samples für Schattenspielerein und eben die nur 16 TMUs pro GPU, mit dem AF auf dem R6xx noch einiges kostet.
Imo wäre ein Faktor 2 gegenüber der 2900XT für die 2950X2X im Durchschnitt schon eine gute Leistung.

Winter[Raven]
2007-10-14, 16:19:08
Unwahrscheinlich, dass AMD diese ganze AA-Problem aus der Welt geräumt hat.

Blacksoul
2007-10-14, 17:05:00
;5931430']Unwahrscheinlich, dass AMD diese ganze AA-Problem aus der Welt geräumt hat.


Gibt es zu dieser Annahme auch eine technische Begründung?
Oder weil sie sonst wieder konkurrenzfähig wären und das ja nicht sein kann?


t.b.d

Winter[Raven]
2007-10-14, 17:45:50
Gibt es zu dieser Annahme auch eine technische Begründung?
Oder weil sie sonst wieder konkurrenzfähig wären und das ja nicht sein kann?

Technik? Nun dafür müsste man tief in das Design greifen um die änderungen durchzuführen... aber wie viele es schon sagten, der R600 hat auch wo anders seine Macken...

Geld? warum soll man Geld in einen Refresh verballern? Spart man es nicht lieber für einen vollwertigen Chip?

James Ryan
2007-10-15, 05:44:33
Das R6xx Design ist aufgrund einer Designentscheidung so lahm mit FSAA, ich glaube kaum dass dies beim RV670 "mal eben so" aus der Welt geschafft werden kann. Eventuell kann man es etwas abfedern aber das grundsätzliche Problem wird wohl bestehen bleiben.

MfG :cool:

seahawk
2007-10-15, 07:11:02
Gibt es zu dieser Annahme auch eine technische Begründung?
Oder weil sie sonst wieder konkurrenzfähig wären und das ja nicht sein kann?


t.b.d

RV670 ist eine Value-Karte. Mna will sie ab $199.-- verkaufen, ohne deaktivierte Einheiten. Dazu der sehr kleine Die, da ist es doch fraglich ob man, trotz der durch das einfache Spoeicherinterface eingesparten Transistoren, sehr viel an der Leistungsfähigkeit machen konnte, besonders da Shaderresolve-AA ja Teil des Grundkonzepts ist.

StefanV
2007-10-15, 07:46:10
Das R6xx Design ist aufgrund einer Designentscheidung so lahm mit FSAA, ich glaube kaum dass dies beim RV670 "mal eben so" aus der Welt geschafft werden kann. Eventuell kann man es etwas abfedern aber das grundsätzliche Problem wird wohl bestehen bleiben.
Dafür gibts keinerlei Belege!!

Die Gerüchteküche sprach eher von 'kaputt' also nicht ganz fertig oder heile, R200 lässt grüßen...

Von daher kann man schon drauf hoffen, das man beim RV670 etwas heile gemacht hat.

Gast
2007-10-15, 09:22:39
Dafür gibts keinerlei Belege!!

Die Gerüchteküche sprach eher von 'kaputt' also nicht ganz fertig oder heile, R200 lässt grüßen...

Von daher kann man schon drauf hoffen, das man beim RV670 etwas heile gemacht hat.
Hat man denn was beim RV2x0 heilegemacht - damals - wenn du das Beispiel schon anführst?

Ailuros
2007-10-15, 09:26:15
RV670 ist eine Value-Karte. Mna will sie ab $199.-- verkaufen, ohne deaktivierte Einheiten. Dazu der sehr kleine Die, da ist es doch fraglich ob man, trotz der durch das einfache Spoeicherinterface eingesparten Transistoren, sehr viel an der Leistungsfähigkeit machen konnte, besonders da Shaderresolve-AA ja Teil des Grundkonzepts ist.

Das Shaderresolve ist mitnichten das Problem der R6xx/RV6xx Produkt-Reihe; es ist lediglich ein Anzeichen dass es ein Problem mit den ROPs gibt.

AFAIK wird bei RV670 die Shader-resolve Leistung bzw. Effizienz erhoeht und von dem was ich hoere wird sich an dem single cycle 2xAA nichts aendern (das Gegenteil wuerde mir schon einen besonderen Eindruck machen).

Lange Geschichte kurz: AMD wird die Effizienz bzw. Leistung schon steigern koennen, jedoch IMHLO nicht zum Grad dass man die Z-Fuellraten der Konkurrenz erreichen wird.

Zu guter letzt ist shader resolve fuer AA die Zukunft; der Grund warum AMD so frueh damit antanzte sind eher Architektur-bedingte Missgeschicke und keine bewusste Design-Entscheidung durch die originale Entwicklung.

robbitop
2007-10-15, 09:29:35
Zu guter letzt ist shader resolve fuer AA die Zukunft; der Grund warum AMD so frueh damit antanzte sind eher Architektur-bedingte Missgeschicke und keine bewusste Design-Entscheidung durch die originale Entwicklung.
Das habe ich schon länger vermutet. Besonders nach dem letzten Statement von Rys.

Ailuros
2007-10-15, 09:29:37
Hat man denn was beim RV2x0 heilegemacht - damals - wenn du das Beispiel schon anführst?

Man hat lediglich ein paar Pflaster eingefuehrt; eine leicht problematische Architektur "heilzumachen" kostet zu viel Resourcen dass eigentlich nie ein IHV so viele Aenderungen vornimmt dass die Wehwehchen voellig verschwinden. Es kostet zu viel Zeit und Resourcen und ist meistens nicht der Rede wert, da man sonst die Entwicklung zukuenftiger Architekturen gefaehrdet bzw. verspaetet.

Godmode
2007-10-15, 10:21:39
Nvidia konnte mit dem NV35 auch nur mehr leichte Verbesserungen bringen. Erst mit NV40 wurde wieder ein ordentlicher Chip vorgestellt. Ahnlich wird es wohl bei ATI ablaufen.

Die gelbe Eule
2007-10-15, 10:23:36
Bitte, nicht schon wieder so alte Chips audwärmen, das hatten wir schon zu Genüge und hat Null mit dem G90 zu tun.

Sonyfreak
2007-10-15, 10:53:09
Eine geringere DIE - Fläche ergibt einen höhreren Ausschus an Chips. Sollten Chips eine hohe Taktung nicht schaffen, kann man diese einfach in unteren Preisklassen weiterverkaufen.
Größere DIEs sind dagegen teurer in der Fertigung und wesentlich anfälliger für Probleme bzw. defekte Bereiche. Es ist finanziell vernünftiger einen kleineren Chip mit hohen Taktraten zu fertigen als einen großen Chip mit geringeren Takt.Aber durch die von AnarchX vorgeschlagene Änderungen am G80 würde die Performance nur recht sachte ansteigen. Eine 30-40%ige Performancesteigerung zur GTX wäre mir persönlich nicht groß genug, um auf eine neue Grafikkarte umzurüsten. Daher hoffe ich mal, dass die Leistung doch etwas höher ausfallen wird.

Nunja, eben wichtig für aufwendigere Shader und FP-HDR und andere Rendering-Technologien, 30-50GTex sind imo mehr als genug, auch für kommenden Titel.Wäre es aber in diesem Fall nicht so, dass der momentan recht günstige Einsatz von AF in Zukunft weit teurer kommen würde, wenn die Texturleistung im Vergleich zur Arithmetikleistung eher wenig ansteigt?

mfg.

Sonyfreak

AnarchX
2007-10-15, 10:56:30
Aber durch die von AnarchX vorgeschlagene Änderungen am G80 würde die Performance nur recht sachte ansteigen. Eine 30-40%ige Performancesteigerung zur GTX wäre mir persönlich nicht groß genug, um auf eine neue Grafikkarte umzurüsten. Daher hoffe ich mal, dass die Leistung doch etwas höher ausfallen wird.
Du solltest nicht in G71 -> G80 Maßstäben denken, erst recht nicht wenn ATi im High-End strauchelt.;)



Wäre es aber in diesem Fall nicht so, dass der momentan recht günstige Einsatz von AF in Zukunft weit teurer kommen würde, wenn die Texturleistung im Vergleich zur Arithmetikleistung eher wenig ansteigt?

Sicher, aber die Anforderungen an Bandbreite und arithmetische Leistung werden mehr steigen, sodass es sich wohl relativiert.

Hvoralek
2007-10-15, 13:44:26
AFAIK wird bei RV670 die Shader-resolve Leistung bzw. Effizienz erhoeht und von dem was ich hoere wird sich an dem single cycle 2xAA nichts aendern (das Gegenteil wuerde mir schon einen besonderen Eindruck machen).Seit wann kann denn R600 2x AA single- cycle? Das wäre doch schon ein Fortschritt :confused:

Ailuros
2007-10-15, 13:47:56
Seit wann kann denn R600 2x AA single- cycle? Das wäre doch schon ein Fortschritt :confused:

Seit immer :P Spass beiseite es gibt Links zum B3D Forum wo Eric Demers selber bestaetigt. 4xMSAA = 2 cycles, 8xMSAA = 4 cycles.

reunion
2007-10-15, 16:19:39
Das Shaderresolve ist mitnichten das Problem der R6xx/RV6xx Produkt-Reihe; es ist lediglich ein Anzeichen dass es ein Problem mit den ROPs gibt.

AFAIK wird bei RV670 die Shader-resolve Leistung bzw. Effizienz erhoeht und von dem was ich hoere wird sich an dem single cycle 2xAA nichts aendern (das Gegenteil wuerde mir schon einen besonderen Eindruck machen).


Auch das ist nicht das Problem, denn ein R580 kann auch nur single-cycle 2xMSAA. Wobei ja schon Xenos single-cycle 4xMSAA könnte; kann doch nicht so schwer sein das auf die aktuelle Architektur zu übertragen.

deekey777
2007-10-15, 17:21:29
Seit immer :P Spass beiseite es gibt Links zum B3D Forum wo Eric Demers selber bestaetigt. 4xMSAA = 2 cycles, 8xMSAA = 4 cycles.
Hätte er nicht 4xMSAA in einem Takt schaffen sollen?

AnarchX
2007-10-15, 17:23:21
Sieht so aus, oder warum bietet man zusätzlich kein 6xMSAA mehr an. :|

robbitop
2007-10-15, 17:25:17
Sieht so aus, oder warum bietet man zusätzlich kein 6xMSAA mehr an. :|
Weil das Tri-Setup ein 16x16 Raster hat. Da gibt's kein optimales Sparse Grid für 6x. Nur leicht suboptimale.

AnarchX
2007-10-15, 17:26:54
Weil das Tri-Setup ein 16x16 Raster hat. Da gibt's kein optimales Sparse Grid für 6x. Nur leicht suboptimale.

Oha, dann ist das ja geklärt.

micki
2007-10-16, 11:49:22
Nvidia konnte mit dem NV35 auch nur mehr leichte Verbesserungen bringen. Erst mit NV40 wurde wieder ein ordentlicher Chip vorgestellt. Ahnlich wird es wohl bei ATI ablaufen.
auch der nv40 hatte viele fehler, sie kommen nur weniger zum tage, erst die n*5 chips bringen die ganzen fixes mit sich. Hardware auf den markt zu bringen in dem Takt wie es NV und AMD/ATI machen bringt zwangsweise viele fehler. bei CPUs kann man sich das sehr viel weniger leisten, weil es keine software-schicht gibt die das kaschiert und da sehen wir wie ewig es zu einem neuen chip braucht.

Gast
2007-10-16, 11:56:19
Welche Fehler abseits des Videoprozessors hatte der NV40?

LovesuckZ

Gaestle
2007-10-16, 12:22:17
Welche Fehler abseits des Videoprozessors hatte der NV40?

LovesuckZ

Dynamic Branching im Pixelshader war IIRC sehr lahm und wurde mit G70 deutlich beschleunigt. Ich weiß aber nicht, ab das ein Designfeature war, oder ein Fehler.

micki
2007-10-16, 12:32:22
Welche Fehler abseits des Videoprozessors hatte der NV40?

LovesuckZ
kann ich dir nicht sagen ;), aber wenn man mit den hardware jungs spricht, koennen sie meist mehr ueber die fehler des konkurenten berichten als ueber die eigenen produkte. und es gibt auf beiden seiten viele fehlerByDesign und fehler beim eigentlichen design vom chip (also nicht nur wegen der designentscheidung an sich).
Wie schlecht ein chip ist, sieht man oft an den spaeter auftauchenden "Wundertreibern" beiderseits, die dann meist bessere workarounds haben als man bis zum ersten release machen kann.

LovesuckZ
2007-10-16, 14:32:03
kann ich dir nicht sagen ;),

Und wieso behauptest du dann, dass der NV40 viele Fehler gehabt hätte?

Hvoralek
2007-10-16, 14:35:46
Welche Fehler abseits des Videoprozessors hatte der NV40?Mir fiele noch die defekte Tonemappingeinheit ein.

Es gab da sicher noch eine ganze Menge Kleinkram, aber allein schon zwei komplett funktionsuntüchtige Einheiten sind ziemlich übel :ugly:

LovesuckZ
2007-10-16, 14:37:01
Mir fiele noch die defekte Tonemappingeinheit ein.

Hat sie überhaupt eine? Hat der G70 eine Tonemappingeinheit? :confused:

Hvoralek
2007-10-16, 14:47:44
Hat sie überhaupt eine? Hat der G70 eine Tonemappingeinheit? :confused:NV40 sollte afair Hardwarebeschleunigung für Tonemapping bieten. Ob man die Schaltungen bei G7x noch verbaut hat, weiß ich nicht, sie funktionierten aber sowieso nicht.

micki
2007-10-16, 15:39:56
Und wieso behauptest du dann, dass der NV40 viele Fehler gehabt hätte?
weil ich von so einigen dingen weiss?

AnarchX
2007-10-16, 17:27:06
G92-8800GTS am 19.Nov für $305? (http://news.expreview.com/2007-10-16/1192531381d4181.html)

8900GTS und GTX würden irgendwie mehr Sinn machen, wenn sie zu diesen Datum kommen...

laser114
2007-10-16, 17:50:16
8900GTS und GTX würden irgendwie mehr Sinn machen, wenn sie zu diesen Datum kommen...

Allerdings, für mich immer noch ein kritischer Punkt in den Spekulationen. Die Namensgebung ist weiterhin schwachsinnig...

James Ryan
2007-10-16, 18:22:02
G92-8800GTS am 19.Nov für $305? (http://news.expreview.com/2007-10-16/1192531381d4181.html)

8900GTS und GTX würden irgendwie mehr Sinn machen, wenn sie zu diesen Datum kommen...

Oha, die neue GTS hat auch nur ein 256 Bit Speicherinterface?
Wenn der Speichertakt auf 800 MHz bleibt wird es aber verdammt eng.

MfG :cool:

LovesuckZ
2007-10-16, 18:29:18
weil ich von so einigen dingen weiss?

Dann sage uns doch, wo der NV40 noch weitere Fehler außer dem kaputten Videoprozessor und einer Phantom "ToneMappingUnit" hätte.

AnarchX
2007-10-16, 18:39:24
Oha, die neue GTS hat auch nur ein 256 Bit Speicherinterface?
Wenn der Speichertakt auf 800 MHz bleibt wird es aber verdammt eng.

Wenn die 8800 GT schon 900MHz hat, wird man wohl kaum hier 800MHz verbauen.

Wenn es die Karte wirklich gibt, würde ich auf 1-1.1GHz Speicher tippen.

Gast
2007-10-16, 18:41:13
Auch das ist nicht das Problem, denn ein R580 kann auch nur single-cycle 2xMSAA. Wobei ja schon Xenos single-cycle 4xMSAA könnte; kann doch nicht so schwer sein das auf die aktuelle Architektur zu übertragen.

Beim Xenos wissen wir auch nicht ob er es kann, da es nie gezeigt wurde...
Denke das Single Cycle 4x FSAA oder eine Abart davon erst für R700 geplant war/ist. nV musste nach Jahren der reinen 4xFSAA und den Hybriden mal das Pattern erweitern. AMD fuhr mit 6xMSAA relativ gut..

Hvoralek
2007-10-16, 20:41:16
Oha, die neue GTS hat auch nur ein 256 Bit Speicherinterface?
Wenn der Speichertakt auf 800 MHz bleibt wird es aber verdammt eng.Hmm, vlt. verfügt der G92 überhaupt nur über ein 256- bit- SI? Das würde natürlich die Sache mit dem 1,6- GHz- GDDR4 erklären :D

LovesuckZ
2007-10-16, 21:06:33
Kann natürlich sein, dass nVidia anhand der ersten Informationen zum r600 letztes Jahr beim Design entsprechend Bezug genommen hat. Das wiederum würde jedoch auch bedeuten, dass in den 289mm² wahrscheinlich mehr als 8 Cluster sich befinden.

StefanV
2007-10-16, 21:09:14
Und wieso behauptest du dann, dass der NV40 viele Fehler gehabt hätte?
Weil er es weiß, es dir aber nicht sagen darf, sein "kann ich dir nicht sagen ;)" bedeutet 'darf ich dir nicht sagen'.

dargo
2007-10-16, 21:15:27
Hmm, vlt. verfügt der G92 überhaupt nur über ein 256- bit- SI? Das würde natürlich die Sache mit dem 1,6- GHz- GDDR4 erklären :D
Hehe, da ist was dran. Den großen Einkauf von 1,6Ghz GDDR4 Chips habe ich ganz vergessen. :D
Immerhin 102,4GB/s Speicherbandbreite.

LovesuckZ
2007-10-16, 22:44:47
Weil er es weiß, es dir aber nicht sagen darf, sein "kann ich dir nicht sagen ;)" bedeutet 'darf ich dir nicht sagen'.

Klar, weil seine "Freunde" wahrscheinlich mit Google und den namen "micki" das Internet durchforsten...
Entweder er sagt genaue Dinge, die Fehlerhaft bzw. kaputt wären oder er stellt einfach nicht Behauptungen auf.

AnarchX
2007-10-17, 10:26:47
2x 110W = 220W - Fuad zur D8E (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3652&Itemid=1)

Ich frage mich wie er immernoch an der GX2 hängt, nachdem doch langsam offensichtlich wird, was G92 ist.:|

btw.
Noch etwas interessanteres:
GF8700(G92) für OEMs? (http://news.expreview.com/2007-10-17/1192609147d6012.html)

Die gelbe Eule
2007-10-17, 10:30:33
Er schreibt aber auch über den GTX Ersatz in Q1. Wer weiß was da mit dem G92 alles passiert.

Gast
2007-10-17, 13:49:17
Mit welchem G92? Man sollte davon ausgehen das die GPU in unterschiedlichen Varianten daher kommt. Ob jetzt "nur" mal 1-2 Cluster deaktiviert sind (sprich defekte Chips) oder ob es 2 verschiedene Produktionsstraßen mit der selben Bezeichnung gibt (sehr ungewöhnlich aber schon geschehen), wissen wir ja nicht. Einmal hat der G92 xRops/96SPs und dann x+yRops/112SPs und ggf. nochmal als x+y+zRops/128SPs...

AnarchX
2007-10-18, 09:42:47
Next-Gen-GPUs, vorallem im Zusammenhang mit SLI oder gar Triple-SLI hört sich doch etwas mehr als nach einer 8800GT an:
http://img90.imageshack.us/img90/3595/roadmap1ra2.png
:D

Die gelbe Eule
2007-10-18, 09:46:22
Wird wohl die GTX und Ultra getauscht, denen ist eh Triple SLi vorbehalten. Q1 muss aber schneller kommen für mGPU :)

AnarchX
2007-10-18, 09:55:07
Wird wohl die GTX und Ultra getauscht, denen ist eh Triple SLi vorbehalten.
Wie ich es ja schon öfters erörtert hatte, G92 scheint ja eine gute Basis für deutlich schnellere High-End-SKUs zu sein, die im Endeffekt sogar eine höhere Marge als G80-SKUs haben sollten, warum sollte NV dies nicht wahrnehmen, erst recht wenn es denn Investoren versprochen wurde.

Q1 muss aber schneller kommen für mGPU :)
Wegen hSLI?;)

Die gelbe Eule
2007-10-18, 10:14:50
Damit man endlich "richtig" Strom sparen kann. Interessant wird auch wieviele Cluster der G92 haben könnte und wie hoch er taktet. Sieht bisher nach dem besten Refreshchip für NV aus.

Ri*g*g*er
2007-10-18, 11:08:54
Na dann hoffen wir mal auch auf nen Single Highend Chip.

Meine Wünsche für November/Dezember:

Single Highend Chip
mehr Power als 8800 GTX
weniger Strom verbrauch
Kühler und damit leiser

Sollte genug Power haben um Full HD - 1920 x 1200 mit Vsync jedes Game auf 60 FPS laufen zu lassen.

Preis: ??? - egal *G* (aber so 450,00 € - 500,00 € sollte ok sein)

Gruss
Ri*g*g*er

Den SLI und Crossfire - Quatsch können die sich sonst wohin stecken.

Hvoralek
2007-10-18, 14:38:48
Next-Gen-GPUs, vorallem im Zusammenhang mit SLI oder gar Triple-SLI hört sich doch etwas mehr als nach einer 8800GT an:
http://img90.imageshack.us/img90/3595/roadmap1ra2.png
:DVon wann ist die Präsentation? Ich habe ehrlich gesagt das Gefühl, dass sich z.B. dieser 1- TFLOPS- Chip vom Frühjahr inzwischen auf 2008 verschoben hat. Bei einem 8- Cluster- G92 bräuchte man schon 2400 MHz Shadertakt, aber bisher war das 1800 MHz höchste, was zu hören war :(

Hmm, obwohl, mal 2 MADD angenommen: 8 [Cluster] * 2 [Vec8] * 8 [Kanäle] * 4 [2 MADD] *1,8 GHz = 921 GFLOPS. Hmm...

Naja gut, oder mit AnarchX: 8 * 3 * 8 * 3* 1,8 = 1 036. Aber an drei Vec8 pro Cluster glaube ich immer noch nicht. Da bin ich stur :tongue:

Winter[Raven]
2007-10-18, 14:49:53
Wenn die 8800GT mit 2250 Mhz wirklich laufen sollte (OC) dann sehe ich kein Ding trotz der Komplexität bei einem High-End-Chip die nötigen 1TFLOP zu erreichen.

Abwarten, Nvidia hat die eine oder andere Überraschung noch paratt.

Hvoralek
2007-10-18, 14:55:58
Wenn die stärkste G92- SKU mit 2400 MHz laufen würde, wäre diese Zahl doch wahrscheinlich schon einmal irgendwo aufgetaucht.

Winter[Raven]
2007-10-18, 15:01:54
Wenn die stärkste G92- SKU mit 2400 MHz laufen würde, wäre diese Zahl doch wahrscheinlich schon einmal irgendwo aufgetaucht.

Wir wissen 0 über das High-End... bei Nvidia weiß man nie was noch alles kommt. Seit der G80 Verarsche traue ich keinem Gerücht mehr ...

AnarchX
2007-10-18, 15:03:32
Wenn die stärkste G92- SKU mit 2400 MHz laufen würde, wäre diese Zahl doch wahrscheinlich schon einmal irgendwo aufgetaucht.

Ist sie doch schon mehrfach. :|
Oder meinst du Dokumente, die nach NV aussehen?

An 24SPs pro Cluster glaube ich bei G92 seit der 8800GT mit ihren 112SPs aber auch nicht mehr, momentan tippe ich hierrauf:
Gegen eine GX2 spricht aber imo mittlerweile einiges dagegen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5888050&postcount=359
+ dass es immer mehr nach einen 290mm² Die mit den vollen Einheitenumfang eines G80 aussieht, bei dem eine GX2 eher Unsinn wäre und eben dass bei der 8800GT 7C@600/1500MHz schon mit 1.05/1.1V möglich sind.

Mein Tipp für vielleicht erst Anfang 2008:
775-825MHz ROP-Domain
2.2-2.5GHz Shader-Domain
1.2-1.6GHz GDDR4
8Cluster+384Bit

(und das alles basiert nicht auf meiner Phantasie, sondern vielzähligen sich teilweise gleichenden Gerüchten ;))

Kosteneffizienter dank kleinerem Die und wegfallendem NVIO als die G80-Karten und der Verbrauch dürfte auch sich auf GTX/Ultra-Niveau bewegen.

Und eben der Umstand, dass man diese SKU mit den Triple-SLI-Plänen vereinbaren kann, was bei der GX2 nicht der Fall wäre.
Meine "9800/8900GTX":
19-20GPix/s
49-53GTex/s
845-960GFLOPs
115-150GB/s

Hier kannst du vergleichen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/2/#abschnitt_technische_daten

Dürfte sich wohl im Rahmen 7800GTX(256MB) -> 7900GTX bewegen, wenn nicht sogar noch etwas mehr.
Und das dürfte auch gut gegen eine 2950X2X reichen, die ich im Durchschnitt, wenn CF gut funktioniert 30-40% schneller als eine 8800 Ultra einschätzen würde.

Hvoralek
2007-10-18, 15:11:52
Ist sie doch schon mehrfach. :|
Oder meinst du Dokumente, die nach NV aussehen?Ich erinnere mich jetzt gerade nur an 1500 und 1800 MHz. 2400 kam zustande, wenn jemand berechnet hat, wie hoch ein 8- Cluster- Chip takten müsste, um knapp 1 TFLOPS zu erreichen. Wo hat denn mal jemand wirklich behauptet, er hätte Informationen, dass eine G92- SKU wirklich so takten würde?

AnarchX
2007-10-18, 15:18:32
Vor Ewigkeiten tauchten ja im B3D die 2.5GHz (http://forum.beyond3d.com/showpost.php?p=979641&postcount=679) auf, später erzählte Ailuros etwas von 2.5GHz die etwas zu optimistisch waren und man nun auf 2.4GHz zurückging und auch im XS erzählte ein gewisse BenchZoner etwas von 2.4GHz SD und 1.6GHz GDDR4 und anderen Infos, die er Ende Oktober herausgeben wollte.

Aber was nun möglich ist, wird uns ja die 8800 GT dann in gewisser Weise verraten können. ;)

Hvoralek
2007-10-18, 15:38:38
*argh* Diese Äußerungen hatte ich inzwischen total vergessen (Nicht persönlich nehmen, Ailuros :wink:). Wobei ich ihn damals so verstanden hatte, er gehe von entweder 4 Clustern @ 2400 oder 6 Clustern @ 1800 aus und von 1 TFLOPS bei einer GX2. Aber damals habe zumindest ich an einen 8- Cluster- G92 auch gar nicht gedacht.

Naja, in 1 1/2 Wochen wissen wir ja, wie G92 genau aussieht und im November sollten dann auch alle darauf basierenden Modelle vorgestellt werden. Wie viele gibt es eigentlich? GT und GTS sind wohl sicher, dann wird noch irgendwas über den beiden kommen (Diesmal aber vlt. nur eine GTX und nicht noch zusätzlich eine Ultra) und ein 6- Cluster- Modell ("GS"?).

Hmm, wenn die GT mit 600/ 1500 taktet, müsste die neue GTS, um mit nur einem Cluster mehr einen gesunden Vorsprung zu haben, eigentlich zumindest etwas höher takten (650/ 1600?). Wenn ein Modell über der neuen GTS noch eine Daseinsberechtigung haben soll, müsste man die Taktraten bei ebenfalls 8 Clustern deutlich hochschrauben. Eine angenommene neue GTX sollte schon zumindest mit 800/2000 oder so takten. Dann scheinen 2200 - 2400 MHz Shadertakt durchaus möglich. Ach, männo, jetzt bin ich ganz :crazy:

Nightspider
2007-10-18, 17:02:34
Gehen wir mal davon aus, die neue Nvidia-HighEnd-Grafikkarte kommt im Januar oder Februar und diese hätte 2400 Mhz Shadertakt.
Dann wären diese 60-80% Mehrleistung nach 15 Monaten doch etwas wenig oder ? :|
Alleine mit der gesparten Chipfläche könnte man schon mehr als die doppelte Leistung herausholen. Als wären 160-256 Shadereinheiten beim G90 schon Pflicht wenn ihr mich fragt.

Hvoralek
2007-10-18, 17:08:06
Gehen wir mal davon aus, die neue Nvidia-HighEnd-Grafikkarte kommt im Januar oder Februar und diese hätte 2400 Mhz Shadertakt.
Dann wären diese 60-80% Mehrleistung nach 15 Monaten doch etwas wenig oder ? :|
Alleine mit der gesparten Chipfläche könnte man schon mehr als die doppelte Leistung herausholen. Als wären 160-256 Shadereinheiten beim G90 schon Pflicht wenn ihr mich fragt.Meinst Du, Nvidia baut gerne solche 5- cm²- Gebilde wie G80?

AnarchX
2007-10-18, 17:09:09
NV interessieren die Margen und der Besitz der stärksten Consumer-GraKa, die Lösung davon ist ein 289mm² Die mit hohen Taktraten, der beides in sich vereint. ;)

Nightspider
2007-10-18, 17:09:35
Meinst Du, Nvidia baut gerne solche 5- cm²- Gebilde wie G80?

Ich fänds schön. ;D

Aber okay, mit 160 Shadern geb ich mich auch zufrieden.

reunion
2007-10-18, 17:53:10
NV interessieren die Margen und der Besitz der stärksten Consumer-GraKa, die Lösung davon ist ein 289mm² Die mit hohen Taktraten, der beides in sich vereint. ;)

Was sich noch zeigen muss.

Gast
2007-10-18, 18:08:57
wanne komme dii nouwe card fon nvidia auffe de marck ?

reunion
2007-10-20, 11:44:19
G92-8800GTS am 19.Nov für $305? (http://news.expreview.com/2007-10-16/1192531381d4181.html)

8900GTS und GTX würden irgendwie mehr Sinn machen, wenn sie zu diesen Datum kommen...

Da ergibt sowieso noch einiges keinen Sinn. Wenn die 8800GT wirklich nur einen teildeaktivierten G92 beherbergt, warum kommen dann die anderen Modelle erst später? Können die Yieldraten von nV im inzwischen doch nicht mehr ganz neuen 65nm Prozess tatsächlich so schlecht sein, dass man es nicht schafft eine handvoll funktionierender Chips für einen Launch zusammenzukratzen? Das Die ist allerdings fast zu groß als das die GT schon die volle Ausbaustufe entsprechen könnte. Die Namen sind ohnehin seltsam. Die tatsächlichen Specs der GT sind alles andere als gesichert, von möglichen anderen Chips weiß man noch so gut wie gar nichts. etc. pp.

Gast
2007-10-20, 12:12:15
Da ergibt sowieso noch einiges keinen Sinn. Wenn die 8800GT wirklich nur einen teildeaktivierten G92 beherbergt, warum kommen dann die anderen Modelle erst später? Können die Yieldraten von nV im inzwischen doch nicht mehr ganz neuen 65nm Prozess tatsächlich so schlecht sein, dass man es nicht schafft eine handvoll funktionierender Chips für einen Launch zusammenzukratzen? Das Die ist allerdings fast zu groß als das die GT schon die volle Ausbaustufe entsprechen könnte. Die Namen sind ohnehin seltsam. Die tatsächlichen Specs der GT sind alles andere als gesichert, von möglichen anderen Chips weiß man noch so gut wie gar nichts. etc. pp.
Natürlich sind die gesichert - nur eben nicht notwendiger denen entsprechend, die beim Inquirer oder auf chinesischen Webseiten herumschwirren. Andererseits kann ja von dem Zeug auch zufällig mal das richtige dabei sein.

Gast
2007-10-20, 12:17:13
Da ergibt sowieso noch einiges keinen Sinn. Wenn die 8800GT wirklich nur einen teildeaktivierten G92 beherbergt,[...]
Was macht dich so sicher, dass es nur ein teildeaktivierter G92 ist?

Wenn die 112 SP wirklich stimmen, dann wäre das gerade mal ein Cluster weniger als G80 hatte. Zudem scheint NVIO integriert worden zu sein, ebenso wie wohl hoffentlich endlich der VP. Beides kostet Transistoren.

Ebenso wißt ihr nicht, ob evtl. die vermutlich teureren TCPs der G84 zum Einsatz kommen, ob DP unterstützt wird und inwieweit Registerspeicher, Tri-Setup und GS-Durchsatz verbessert wurden. Das weiß wohl nur Nvidia...

Dazu kommt, dass selbst bei idealer Skalierung der 1:1-Shrink eines G80 um 252mm² liegen würde (mögliche Einsparungen an Massetransistoren mal ausgenommen).

Fazit: Ich halte einen vollaktiven G92 bei ~290mm² durchaus für möglich.

Ailuros
2007-10-20, 15:32:08
NVIO wiegt nur eine einstellige Zahl an Transistoren; was das tri-setup betrifft hat jemand den Nagel auf den Kopf getroffen. 600MTris/s fuer 8800GT.

seahawk
2007-10-20, 15:38:39
Jetzt verstehe ich Dich langsam nicht mehr.

reunion
2007-10-20, 15:40:38
Was macht dich so sicher, dass es nur ein teildeaktivierter G92 ist?

Wenn die 112 SP wirklich stimmen, dann wäre das gerade mal ein Cluster weniger als G80 hatte. Zudem scheint NVIO integriert worden zu sein, ebenso wie wohl hoffentlich endlich der VP. Beides kostet Transistoren.

Ebenso wißt ihr nicht, ob evtl. die vermutlich teureren TCPs der G84 zum Einsatz kommen, ob DP unterstützt wird und inwieweit Registerspeicher, Tri-Setup und GS-Durchsatz verbessert wurden. Das weiß wohl nur Nvidia...

Dazu kommt, dass selbst bei idealer Skalierung der 1:1-Shrink eines G80 um 252mm² liegen würde (mögliche Einsparungen an Massetransistoren mal ausgenommen).

Fazit: Ich halte einen vollaktiven G92 bei ~290mm² durchaus für möglich.

Habe ich den Eindruck erweckt, als sei ich sicher, dass es ein teildeaktivierter Chip ist? Bin ich nämlich sicher nicht. Wenn am 29. wirklich nur die 8800GT mit den 112SPs kommt, dann halte ich es sogar für wesentlich wahrscheinlicher, dass dies schon die volle Ausbaustufe des G92 ist. Denn wie schon gesagt, dass es zu beginn nur defekte Chips gibt, wäre schon arg seltsam, und gab es in der Form noch nie.

Gast
2007-10-20, 17:43:35
Die 8800GTX wird auch ein bisschen billiger oO.....

die von Leadteak kostet etwas mehr als 420€.....


vllt. kommt dann noch Ende dieses Jahres der ersehnte Refresh vom 8800GTX?! :)

Gast
2007-10-20, 17:59:27
NVIO wiegt nur eine einstellige Zahl an Transistoren; was das tri-setup betrifft hat jemand den Nagel auf den Kopf getroffen. 600MTris/s fuer 8800GT.

Wie berechnet man die MTri/sec? Eine HD2600Pro hat ja auch laut der Folie 600MTri/sec
http://tweakers.net/reviews/690/ati-radeon-hd-2900-xt-review.html

AnarchX
2007-10-20, 18:01:41
Eben ein Triangle pro Takt (8800 GT und 2600Pro beide 600MHz -> 600MTri/s), jedenfalls schafft dies das Setup, was aber die ALUs liefern können ist je nach GPU geringer oder höher.

http://www.digit-life.com/articles2/video/g84-part2.html#p5
-> Geometry Processing Speed test
Die 8600GTS schafft hier im ersten Test genau soviel MTri/s wie die 8800GTS, da bei dieser mit 500MTri/s das Setup limitiert.

Gast
2007-10-20, 18:12:25
Für was brauch mans? Da es sich ja nicht soo sehr steigert mit den Refreshes.

Ailuros
2007-10-20, 19:04:40
Wie berechnet man die MTri/sec? Eine HD2600Pro hat ja auch laut der Folie 600MTri/sec
http://tweakers.net/reviews/690/ati-radeon-hd-2900-xt-review.html

RV6x0/R6x0/G84/G92 = 1 Tri/Takt
G80 = je nach Fall 1 Tri/Takt oder 1 Tri/2 Takte

Gast
2007-10-20, 20:10:29
NVIO wiegt nur eine einstellige Zahl an Transistoren; was das tri-setup betrifft hat jemand den Nagel auf den Kopf getroffen. 600MTris/s fuer 8800GT.
Sehr gut für 3DMark-Punkte und CAD. :)

Ailuros
2007-10-21, 12:16:04
Sehr gut für 3DMark-Punkte und CAD. :)

G80 war am Rand was die die-Groesse und Transistoren betrifft; nichtdestominder ist seine Geometrie-Rate insgesamt irgendwo doch zu schwach fuer einen USC.

Jeder IHV wuerde versuchen -wenn moeglich - an den Schwaechen bei einem Refresh nachzuholen. Die Wichtigkeit fuer professionelle SW will ich ja nicht verleugnen, aber selbst in Spielen wird es einen Unterschied machen. Wenn die durchschnittliche Leistung einer 8800GT in den ersten offiziellen Benchmarks dann veroeffentlicht wird, wird es wohl leicht zu sehen sein dass sich jeglicher Vorteil nicht nur auf 3dQuark begrenzt.

Matthias1981
2007-10-21, 21:54:25
Werden ende des Monats echt schon die neuen G92 auf den Markt kommen? Oder werden die nur offiziell vorgestellt??

AnarchX
2007-10-21, 21:57:49
Werden ende des Monats echt schon die neuen G92 auf den Markt kommen? Oder werden die nur offiziell vorgestellt??

Die 8800 GT (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=385361) wir auf jeden Fall soweit bekannt am 29.10. mit einem Hard-Launch auf den Markt gebracht.

Aber natürlich schon eine etwas seltsame Situation, aber NV hat es offensichtlich nicht nötig jetzt schon stärkere G92-SKUs zu bringen.

Matthias1981
2007-10-21, 22:01:16
Hmmmm. Weiß man wann die stärkeren G92 kommen? Weil meine 8800GTS wird langsam müde und nun noch ne Ultra ist quatsch. Meint ihr des wird was bis mitte januar??

Gast
2007-10-22, 21:55:49
Hmmmm. Weiß man wann die stärkeren G92 kommen? Weil meine 8800GTS wird langsam müde und nun noch ne Ultra ist quatsch. Meint ihr des wird was bis mitte januar??
Denke mal, dass im Januar nix kommt, eher danach - vielleicht Anfang März?

Gast
2007-10-22, 22:12:29
Hmmmm. Weiß man wann die stärkeren G92 kommen? Weil meine 8800GTS wird langsam müde und nun noch ne Ultra ist quatsch. Meint ihr des wird was bis mitte januar??

Erstmal abwarten was da an G92 Varianten kommt. Die GT und die echte neue GTS werden schon a bissl rocken, aber eine neue Ultra oder GTX wär mal nice to have.
Das die alte GTS müde wird würd ich so nicht sagen, für 20" Widescreen langt sie schon, aber ich kann gut verstehen was du meinst. Schon 1Jahr die Graka und fast nix bringt sie an die Grenze...

Gast
2007-10-22, 22:24:56
Was ist eigentlich am Gerücht das ein G96 in der 8800GT verbaut sein soll? ATM ist das ja nicht tot zu kriegen.

laser114
2007-10-22, 23:17:24
Als Mainstream hätte der G96 dann aber sehr viele Einheiten + Transistoren, unwahrscheinlich. ;)

Basiert wohl auf einer Fehlinfo von Foxconn.

Matthias1981
2007-10-23, 10:58:04
Erstmal abwarten was da an G92 Varianten kommt. Die GT und die echte neue GTS werden schon a bissl rocken, aber eine neue Ultra oder GTX wär mal nice to have.
Das die alte GTS müde wird würd ich so nicht sagen, für 20" Widescreen langt sie schon, aber ich kann gut verstehen was du meinst. Schon 1Jahr die Graka und fast nix bringt sie an die Grenze...
Also fast alle Games die ich zocke bringen sie an die grenze.
Ich will halt alles in high bei 1680x1050 zocken. Und bei Dirt, TDU, etc kanns halt unter 30FPS gehen trotzt 600/920er Takt.

Gast
2007-10-23, 11:58:11
Also fast alle Games die ich zocke bringen sie an die grenze.
Ich will halt alles in high bei 1680x1050 zocken. Und bei Dirt, TDU, etc kanns halt unter 30FPS gehen trotzt 600/920er Takt.
Dafür gibt es ja die GTX/Ultra respektive SLi. Wenn man so hohe Auflösungen benutzen will, darf man sich in Zukunft SLi nicht verschließen. Nicht umsonst plant nV schon mit Triple-SLi. Da gehört das "einfache" SLi dann schon zum Standardrepertoire für einen ambitionierten Gamer.

Ailuros
2007-10-23, 12:00:13
Ich will ernsthaft bezweifeln dass sich triple-SLi irgendwie durchsetzen wird.

Gast
2007-10-23, 12:07:29
Ich will ernsthaft bezweifeln dass sich triple-SLi irgendwie durchsetzen wird.
Meinst du, das gibt nur eine "Eintagsfliege" wie z.B. Quad-SLi es war?
Ich denke, fast jeder der jetzt von der ersten Stunde an SLi hatte, wird auf Triple-SLi aufrüsten, wenn es die versprochenen Steigerungen bringt. Dass sich SLi auf dem breiten Markt durchsetzt glaube ich auch nicht, aber Leute die jetzt schon 1200 € und mehr für Grakas ausgeben, sind sicherlich auch bereit 1500 € auszugeben. Vor allem muss man ja nicht alle 3 Karten gleich auf einen Schlag kaufen.

Die gelbe Eule
2007-10-23, 13:35:07
Quad-SLi hat nie richtig funktioniert, deswegen wurde es aufgegeben. Triple-SLi hat noch einen bedeutenden Vorteil in der Hinterhand, die dritte Karte könnte eine PhysikGPU werden. So ein Feature wird man nicht großartig bewerben, wenn es nur ein paar Leute nutzen werden, da GTX/Ultra vorausgesetzt. Auch braucht man eben passende Boards und eine sehr starke CPU, damit die Limitierung nicht so groß ausfällt.

up¦²
2007-10-23, 19:48:56
first review of GeForce 8800GT (D8P) :wink:
http://topic.expreview.com/2007-10-23/1193114539d6255_1.html

PS: sorry, hab's besser nochmal hier gepostet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5960421#post5960421

Hauwech
2007-10-23, 19:49:43
Hmm dachte Quad-SLI hätte nur unter DX9c nicht funktioniert?

Wenn ich mich nicht irre dürfte Vista mit DX10.x damit keine Probleme mehr haben, oder?

mapel110
2007-10-23, 19:53:56
Hmm dachte Quad-SLI hätte nur unter DX9c nicht funktioniert?

Wenn ich mich nicht irre dürfte Vista mit DX10.x damit keine Probleme mehr haben, oder?
QuadSLI funktioniert sowohl unter D3D9 als auch unter D3D10. Da gabs nie irgendwelche Einschränkungen bezüglich der API.

Hvoralek
2007-10-23, 20:10:59
Unter D3D9 darf das Prerenderlimit drei nicht übersteigen. Deswegen geht kein vierfach- AFR, sodass man auf SFR oder eine AFR/SFR- Mischung umsteigen muss. Jedenfalls sinkt die Effizienz. Nur unter OpenGL und D3D10 ist auch vierfach- AFR möglich. Dann bekommt man aber natürlich ein entsprechendes Eingabelag.

Henroldus
2007-10-23, 20:12:35
first review of GeForce 8800GT (D8P) :wink:
http://topic.expreview.com/2007-10-23/1193114539d6255_1.html

PS: sorry, hab's besser nochmal hier gepostet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5960421#post5960421
es wird schon seit hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5958504#post5958504
diskutiert ;)

Slipknot79
2007-10-23, 20:59:23
Ich will ernsthaft bezweifeln dass sich triple-SLi irgendwie durchsetzen wird.


Weil?

Anarchy-HWLUXX
2007-10-24, 04:01:22
Tripple ist im gegensatz zu Quad auch machbar mit nem normalen Board und drei karten ohne dass eine Karte direkt unter der anderen ist ... mit den 7 Slots die maximal auf ein ATX Board passen kann man immer schön einen Slot frei haben und 3*16er PCIe ist auch eher drin als 4*.

Wenn dann noch die Skalierung funzt ohne die Quad SLI aussetzer in manchen Games (soweit ich mich erinnern kann) ist das sicher ne absolut kaufbare sache für Leuts die am liebsten @ 30" und Highest Quality spielen ... das Kostet zwar ne ecke aba Leute mit geug geld gibt es sicherlich - sonst wär Mercedes scho nemmer vorhanden ;)

Ailuros
2007-10-24, 06:10:37
Meinst du, das gibt nur eine "Eintagsfliege" wie z.B. Quad-SLi es war?
Ich denke, fast jeder der jetzt von der ersten Stunde an SLi hatte, wird auf Triple-SLi aufrüsten, wenn es die versprochenen Steigerungen bringt. Dass sich SLi auf dem breiten Markt durchsetzt glaube ich auch nicht, aber Leute die jetzt schon 1200 € und mehr für Grakas ausgeben, sind sicherlich auch bereit 1500 € auszugeben. Vor allem muss man ja nicht alle 3 Karten gleich auf einen Schlag kaufen.

CJ illustrierte auf B3D ein bisschen wie die Bruecken aussehen koennten; falls das Zeug eine Indizie fuer triple SLi ist, dann sieht es eher grau aus fuer die Verbindung und Daten-Strom zwischen 3 GPUs.

Gast
2007-10-24, 12:41:57
Erster Test gesichtet!

http://gameswelt.de/pc/news/detail.php?item_id=69613

Die gelbe Eule
2007-10-24, 12:55:00
Den haben wir schon seit gestern ...

Gast
2007-10-24, 19:18:36
DIe 8800GT liegt wohl zwischen der 8800GTX und der 8800gts(640)

Und zu dem Preis ist sie ganz ordentlich, auch wenn sie kein DirectX 10.1 unterstützt......


Aber damit wird eine Karte seitens Nvidia die deutlich schneller als die 8800GTX ist, immer wahrscheinlicher^^

Die wird dann hoffentlich auch DX10.1 und sonstige neuen Standards unterstützen^^

Gast
2007-10-24, 21:52:29
Pff DX10.1, wann kommts? Wann kommts in Software (man merke bitte das wir JETZT erst die echten DX9 Engines sehen die alle Features nutzen und einen DX10 Mode angesetzt bekommen).

Ist der Unterschied zwischen DX10 und dem Zusatz .1 "größer" als bei SM2 (a-b-c) zu SM3?

Gaestle
2007-10-24, 21:56:52
Ist der Unterschied zwischen DX10 und dem Zusatz .1 "größer" als bei SM2 (a-b-c) zu SM3?

AFAIK nein.

AnarchX
2007-10-26, 11:30:04
Diverse Quellen sprechen von einer auf G92 basierenden 8800M-GTX, die am 19.11. vorgestellt werden soll und ein MXM-Modul der 35W TDP-Klasse besitzen soll.
Zudem wird von 256Bit mit 256 und 512MB Versionen gesprochen.

edit:
Urheber scheint wohl doch nur INQ zu sein:
http://www.theinquirer.net/gb/inquirer/news/2007/10/25/nvidia-g92-enter-notebook
Aber da ist ja meist auch etwas Wahrheit drin...

Gast
2007-10-26, 14:04:50
Diverse Quellen sprechen von einer auf G92 basierenden 8800M-GTX, die am 19.11. vorgestellt werden soll und ein MXM-Modul der 35W TDP-Klasse besitzen soll.
Zudem wird von 256Bit mit 256 und 512MB Versionen gesprochen.

edit:
Urheber scheint wohl doch nur INQ zu sein:
http://www.theinquirer.net/gb/inquirer/news/2007/10/25/nvidia-g92-enter-notebook
Aber da ist ja meist auch etwas Wahrheit drin...
Ja aber selbst wenn der Name stimmt, wird diese Variante nicht viel mit der Leistung des Desktopnamensvetters zu tun haben. Aber leistungsfähiger als der bisherige DX10 Laptopschrott wird es allemal sein. Ich hoffe, dass bei alten Games die Performance dank ausreichender klassischer Rohpower mit AF und AA auf 7950 GTX Niveau liegt. Bei neueren Games ist die G80 Architektur ja sowieso ein Garant für gute Performance.

Ailuros
2007-10-26, 14:07:48
Ja aber selbst wenn der Name stimmt, wird diese Variante nicht viel mit der Leistung des Desktopnamensvetters zu tun haben. Aber leistungsfähiger als der bisherige DX10 Laptopschrott wird es allemal sein. Ich hoffe, dass bei alten Games die Performance dank ausreichender klassischer Rohpower mit AF und AA auf 7950 GTX Niveau liegt. Bei neueren Games ist die G80 Architektur ja sowieso ein Garant für gute Performance.

Um wieviel schneller ist eine 8800GTS als eine 7950GTX in aelteren Spielen? Ich koennte mir leicht vorstellen dass dieser mobile chip 6 cluster bei irgendwo =/>500MHz haben koennte.

AnarchX
2007-10-26, 15:44:09
Mal eine kleine Rechnung:

G92(8C?): 754M G84(2C-128Bit): 289M G86(1C-128Bit): 210M

754M - 8x (289M-210M) = 122M

210M - 79M = 131M

131M > 122M :|

Selbt wenn die Rechnung nicht stimmt, was wohl der Fall ist, wird hier ja nicht unbedingt viel Platz mehr für z.B. das 384Bit SI sein.

Aber warum sollte NV diesen strategischen Vorteil aufgeben und erst recht bei einem Chip der wohl in der Lage sein wird über 45GTex an Bi-Samples auszuwerfen. :|

Hvoralek
2007-10-26, 16:27:53
Hmm... Unterscheiden sich G84 und G86 nur durch den einen Cluster oder ist bei letzterem noch irgendetwas gestrichen?

Allerdings war auch bei der G92- GTS bisher, wenn überhaupt, von einem 256- bit- SI die Rede. Ich möchte aber in dem Zusammenhang noch einmal an die Sache mit dem 1,6- GHz- GDDR4 erinnern: Der würde auch dabei noch für 102,4 GiB/s reichen, also ziemlich genau die Bandbreite einer 8800 Ultra :wink:

laser114
2007-10-26, 16:32:04
Die sollten sich nur durch das eine gestrichene Cluster unterscheiden. Der Technikstand ist gleich, genau so wie das Speicherinterface.
Edit: Sicher weiß ich das aber natürlich nicht.