PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x


Seiten : 1 2 3 [4]

Coda
2007-08-20, 22:45:34
Wahrscheinlich kann der Speichercontroller schon GDDR5. Wäre ja nichts ungewöhnliches.

AnarchX
2007-08-21, 17:47:35
G92 gunning for 800 MHz+ clock
Much improved hardware specs, speed (http://www.theinquirer.net/default.aspx?article=41836)


Nvidia's G98 is a mainstream chip
Answer is plain and simple (http://www.theinquirer.net/default.aspx?article=41837)

G98 ~ G83? Da hat man wohl Infos zum G92 unter dem falschen Codenamen bekommen...

Nightspider
2007-08-21, 18:06:11
800 Mhz, okay aber wieviele Shadereinheiten ? 128 Unified Shader wie bei der G80 ? 384 SI ? GDDR4 mit 1,2 (2,4) Ghz ?

Anarchy-HWLUXX
2007-08-21, 18:09:17
se wolln sicher net alles auf einmal leaken ... das gibt mehr hits auf der page ;)

seahawk
2007-08-21, 18:30:52
Ob die sich da so sicher sind ?

Hvoralek
2007-08-21, 18:36:14
Ob die sich da so sicher sind ?Auch wenn sich Inq- "Redakteure" bei etwas sicher sind, würde ich nicht darauf wetten, dass sie richtig liegen.

Die 800 MHz für G92 decken sich zwar mit Äußerungen von Ailuros, aber da ging es um einen halben G80. Oder am Ende ist G98 das, was jetzt alle G92 nennen und G92 das, was sich jetzt manche unter G90 vorstellen :crazy:

AnarchX
2007-08-21, 18:46:33
Naja, G98 ist definitiv ein Low-End/Entry-GPU, denn RV610 ist die (einzige) HD2000-Series-GPU die NV Sorgen macht. ;)

seahawk
2007-08-21, 18:51:25
Das meine ich. G92 ist ja sowohl ein erweiterter G86 G84 als auch ein reduzierter G80. Je nach Sichtweise.

Ailuros
2007-08-22, 06:14:16
Auch wenn sich Inq- "Redakteure" bei etwas sicher sind, würde ich nicht darauf wetten, dass sie richtig liegen.

Die 800 MHz für G92 decken sich zwar mit Äußerungen von Ailuros, aber da ging es um einen halben G80. Oder am Ende ist G98 das, was jetzt alle G92 nennen und G92 das, was sich jetzt manche unter G90 vorstellen :crazy:

Nein. 800/2400 ist fuer high end.

Ailuros
2007-08-22, 06:16:03
800 Mhz, okay aber wieviele Shadereinheiten ? 128 Unified Shader wie bei der G80 ? 384 SI ? GDDR4 mit 1,2 (2,4) Ghz ?

Schmeiss nochmal ~30% hoehere Speicherfrequenz in das obrige und Du bist so nahe wie moeglich am momentan spekulierten Jackpot ;)

Ailuros
2007-08-22, 06:21:20
Naja, G98 ist definitiv ein Low-End/Entry-GPU, denn RV610 ist die (einzige) HD2000-Series-GPU die NV Sorgen macht. ;)

Genau. INQ hat eben noch nichts von G96 gehoert, deshalb das alberne Gelabere ueber G98 und "mainstream" (nun ja kommt auch darauf an was man unter mainstream meint).

G98 ist fuer mich low-end/budget und obwohl ich momentan diesbezueglich noch nichts genaues gehoert habe, will ich ernsthaft bezweifeln dass eine =/>$50 GPU mit einem 256-bit bus ankommt.

IMHLO 128bit bis zu G96, 256bit fuer Performance G92 und 384bit fuer high end G92 oder weiss der Geier was das Ding fuer einen Codenamen traegt und falls es sich tatsaechlich um eine single chip Loesung handelt. Im Fall einer GX2 sind es dann natuerlich 2*256bit.

Ailuros
2007-08-22, 06:42:34
Das meine ich. G92 ist ja sowohl ein erweiterter G86 als auch ein reduzierter G80. Je nach Sichtweise.

Im Prinzip weder/noch.

G86 ist von vorne bis hinten so stark reduziert worden, dass jeglicher Vergleich ueberhaupt keinen Sinn macht (ist auch fuer ein billigeres Marktsegment vorgesehen).

Bis jetzt gab es im G8x-Portofolio noch keine reine Performance-GPU, nur eben beschnittene G80 chips die als 8800GTS antanzten. G92/Performance ist dann eben hier der von Grund auf entwickelte chip fuer dieses Marktsegment (was geschichtlich fuer die letzten Jahre auch nichts Neues ist).

Man sollte eben beibehalten dass bei jeglicher Vorstellung einer neuen Generation, IHVs die Redundanz der leicht "kaputten" chips voll ausnutzen durch beschnittene chips und dann diese beim ersten Refresh eben durch reine Performance GPUs zu einem grossen Prozentual ersetzt werden.

Nicht dass Du was anderes meinst, aber die 8800GTS gehoert zur G80 Familie und ein G92 ist alles andere als "reduziert" im Vergleich zur GTS ;)

seahawk
2007-08-22, 07:02:34
ICh meinte auch reduziert zum vollen G80. Als anderen Chip meinte ich natürlich G94 nicht G86, dummer Hirnaussetzter meinerseits.

AnarchX
2007-08-22, 10:14:56
Nein. 800/2400 ist fuer high end.
Und G92 taktet niedriger? Aber dann dürfen es doch nicht nur 4 Cluster sein, sonst könnte RV670 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5773617#post5773617), über den es jetzt auch einige Infos gibt, ziemlich gefährlich werden.
Dass man höher taktet als das High-End-Modell im gleichen Prozess ist ja eher nicht so üblich bzw. wohl auch nicht möglich.

seahawk
2007-08-22, 10:22:17
Ich würde es so verstehen, dass 800/2400 für das Topmodell von G92 gilt.

Sonyfreak
2007-08-22, 16:58:59
Das ist doch völlig egal. Stimmiger Content ist viel wichtiger als perfekte Kantenglättung.Bis zu einem gewissen Punkt gebe ich dir recht. Nur ohne vernünftige Kantenglättung sieht auch der schöneste Content meiner Meinung nach nicht besonders toll aus. Ich konnte weder den Gothic 3 noch den Stalker Screenshots viel abgewinnen.

Außerdem ich bezweifle stark, dass in nächster Zeit verwendbare perfekte Kantenglättung in Echtzeit möglich sein wird.

mfg.

Sonyfreak

AnarchX
2007-08-22, 20:15:08
G92, Geforce 9800 samples in September (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2588&Itemid=1)

Da wird es doch sicherlich bald handfestere Leaks (Bilder) geben...

AnarchX
2007-08-23, 13:50:43
9800 oder 8950? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2612&Itemid=1)

Wobei, wenn wirklich DX10.1 noch nicht an Board ist 8950 passen würde.

seahawk
2007-08-23, 13:56:18
8950 GX2 :D

Anarchy-HWLUXX
2007-08-23, 14:04:25
10.1 interessiert eh keinen ...

-> Will ne 8950 GX2 :ucatch:

w0mbat
2007-08-23, 14:09:31
Wieso eigentlich nicht GF8900? Wenn sie DX10.1 kann würde ich auch GF8950 verstehen, aber wie die auf GD9800 kommen ist mir rätselhaft.

Anarchy-HWLUXX
2007-08-23, 14:14:50
Wieso eigentlich nicht GF8900? Wenn sie DX10.1 kann würde ich auch GF8950 verstehen, aber wie die auf GD9800 kommen ist mir rätselhaft.

Dann eben 8900 für die kleineren Modelle und 8950 für die GX2 ... oder was ganz anderes ...

Effektiv ist GARNIX klar was den Namen angeht.

w0mbat
2007-08-23, 14:19:58
Nochmal was zu Performance des G92. Laut einigen Aussagen hier soll sich der G92 ja im Bereich einer 8800GTS einfügen. Nur, wird das gegen einen RV670 mit 320sp@825MHz ausreichen? Könnte es ein High-end Duell zwischen einem G92GX2 und einem R670 (2x RV670) geben?

AnarchX
2007-08-23, 14:29:21
Kommt halt ganz darauf an was nun G92 ist: 4 Cluster oder 6 Cluster @ 700/2000MHz+, gegen ersteren hätte RV670 wohl ziemlich gute Chancen, wenn NV nicht noch an der ein oder anderen Stelle optimiert hat.
Gegen Variante 2 kannst du dir ja selbst die Chancen ausrechnen für einen R600 mit ~11% mehr Chiptakt. ;)

w0mbat
2007-08-23, 14:32:05
Wie viel GFLOPS hätte ein G92 mit 6C @ 700e/2000m?

AnarchX
2007-08-23, 14:34:12
Wie viel GFLOPS hätte ein G92 mit 6C @ 700e/2000m?

Bei G8x zählt eine SP 3 FLOPs (2 MADD + 1 MUL), also:

6*16* 3FLOPs * 2GHz = 576GFLOPs (=8800Ultra ;))

w0mbat
2007-08-23, 14:37:43
Ok, und 4*16*3FLOPs*2GHz = 384 GigaFLOPS

Winter[Raven]
2007-08-23, 14:45:59
Also laut winfuture sind alle verfügbaren DX10 Chips auch DX10.1 Capable

AnarchX
2007-08-23, 14:48:42
;5779240']Also laut winfuture sind alle verfügbaren DX10 Chips auch DX10.1 Capable

Genauso, wie auch auf einem TNT2-Rechner DX9.0c läuft. ;)

Für DX10.1 braucht es definitiv Hardwareanpassungen, auch wenn diese nicht so tiefgreifend sind.

Hvoralek
2007-08-23, 17:34:49
Wieso eigentlich nicht GF8900? Wenn sie DX10.1 kann würde ich auch GF8950 verstehen, aber wie die auf GD9800 kommen ist mir rätselhaft.G7x --> Gf 7xxx
G8x --> Gf 8xxx
G9x --> ?

Wäre eigentlich erst einmal naheliegend. Wenn auch natürlich bei nur geringen architektonischen Änderungen Etikettenschwindel (wie auch bei Gf 4 oder Gf 7xxx).

seahawk
2007-08-23, 19:49:55
codenamen sind Schlad und Rauch bei NV. Die hätten G92 auch G81,G82 oder "Peter" nennen können.

Hvoralek
2007-08-23, 19:57:04
G82 oder so etwas wäre wohl sinnvoller gewesen, klar. Aber wenn sie schon den Chip G9x nennen, wäre es nur konsequent, auch den Karten entsprechende Bezeichnungen zu geben.

Ailuros
2007-08-24, 00:00:00
G7x --> Gf 7xxx
G8x --> Gf 8xxx
G9x --> ?

Wäre eigentlich erst einmal naheliegend. Wenn auch natürlich bei nur geringen architektonischen Änderungen Etikettenschwindel (wie auch bei Gf 4 oder Gf 7xxx).

Dass die Codenamen nicht besonders viel mit den unterliegenden Architekturen zu tun hat, ist wohl den meisten klar. Sonst haetten sie G80 auch gleich locker "G300" nennen koennen im Vergleich zu G70.

Auf jeden Fall aendert sich der Codename meistens bei NVIDIA je nach Herstellungsprozess und dabei ist es egal ob es sich um einen Refresh oder eine wahre neue Generation handelt.

Etikettenschwindel ist relativ und man kann hier mit diversen Perspektiven spielen. Man bekam eine wahre Aufruestung von einer 6800/GF6 zu einer 7800/GF7 was die Leistung betrifft, was man aber im Gegensatz nicht ebenso leicht behaupten kann wenn jemand von einer 7600/GF7 zu einer 8600/GF8 "aufgeruestet" hat. Dank fehlendem Leistungsunterschied im letzten Fall kann man leicht die architektonischen Aenderungen fuer die Lebenszeit einer 8600 leicht (gesamt Namensgebung) an den Hut stecken.

G82 oder so etwas wäre wohl sinnvoller gewesen, klar. Aber wenn sie schon den Chip G9x nennen, wäre es nur konsequent, auch den Karten entsprechende Bezeichnungen zu geben.

80-->65nm. Von dem abgesehen wuerden dann wieder einige meckern dass sie mit zich verschiedenen Codenamen nicht mehr durchblicken koennen. Angenommen man hat pro Generation 3 Refreshes und jeweils einen Codenamen fuer budget/mainstream/high end. Mit Deinem Vorschlag hat man dann gleich zumindest 12 verschiedene G8x Codenamen.

Hvoralek
2007-08-24, 00:17:36
Auf jeden Fall aendert sich der Codename meistens bei NVIDIA je nach Herstellungsprozess und dabei ist es egal ob es sich um einen Refresh oder eine wahre neue Generation handelt.So ganz konsequent aber auch nicht. Z.B. G70 in 110nm, G71 in 90nm und G80 wieder in 90nm. Aber das jetzt ist natürlich mal wieder ein größerer Schritt in der Hinsicht.

Etikettenschwindel ist relativ und man kann hier mit diversen Perspektiven spielen. Man bekam eine wahre Aufruestung von einer 6800/GF6 zu einer 7800/GF7 was die Leistung betrifft, was man aber im Gegensatz nicht ebenso leicht behaupten kann wenn jemand von einer 7600/GF7 zu einer 8600/GF8 "aufgeruestet" hat. Dank fehlendem Leistungsunterschied im letzten Fall kann man leicht die architektonischen Aenderungen fuer die Lebenszeit einer 8600 leicht (gesamt Namensgebung) an den Hut stecken.Vergleiche bitte altes High- End mit neuem High- End oder alte Mittelklasse mit neuer Mittelklasse! Dass nicht jede GraKa mit höherer Modellnummer schneller sein muss als alle mit niedrigeren, ist aber nun wirklich nichts Neues.

Es ist halt traditionell so (und mMn auch sinnvoll), dass der erste Teil einer Modellbezeichnung idR den technologischen Stand angibt und erst der hintere Teil die Leistung. Demnach war zB 6800 --> 7800 eine Art Etikettenschwindel: zwar ordentlich mehr Leistung, aber nur marginale technologische Änderungen.

80-->65nm. Von dem abgesehen wuerden dann wieder einige meckern dass sie mit zich verschiedenen Codenamen nicht mehr durchblicken koennen. Angenommen man hat pro Generation 3 Refreshes und jeweils einen Codenamen fuer budget/mainstream/high end. Mit Deinem Vorschlag hat man dann gleich zumindest 12 verschiedene G8x Codenamen.Drei Refreshes? Selbst bei NV 40 waren es nur zwei.

Eine Lösung wäre aber ganz einfach: Eine Null anhängen. Dann hat man dreistellige Nummern (wie ATI sowieso) und kann bei Bedarf die letzte Stelle varrieren (á la RV515/ 535) :biggrin:

laser114
2007-08-24, 00:21:12
NV40 kann man aber durchaus als größeren Refresh der NV38 ansehen. Sieht zwar nach außen nicht so aus, aber eigentlich hat man da an der Technik nicht besonders viel geändert (wohl aber an der Performance, da mehr Cluster). Das einzige Große waren einige Ergänzungen zum SM3.0-Support, den NV3x aber schon teilweise hatte.

Natürlich kann man aber trotzdem auch NV40 als neue Architektur sehen ... kommt eben auf die Betrachtungsweise an.

Coda
2007-08-24, 01:06:08
War bei der GeForce 2 doch auch so. Also nichts neues.

Der einzige Refresh der keine neue GeForce-Version bekommen hat war NV35.

robbitop
2007-08-24, 11:51:06
NV40 kann man aber durchaus als größeren Refresh der NV38 ansehen. Sieht zwar nach außen nicht so aus, aber eigentlich hat man da an der Technik nicht besonders viel geändert (wohl aber an der Performance, da mehr Cluster). Das einzige Große waren einige Ergänzungen zum SM3.0-Support, den NV3x aber schon teilweise hatte.

Natürlich kann man aber trotzdem auch NV40 als neue Architektur sehen ... kommt eben auf die Betrachtungsweise an.
Wo ist die Grenze zwischen einer neuen Generation und einer alten? Die CineFX Architektur wurde drastisch geaendert, damit ein NV40 mit dem Punch pro Transistor und den damals fortschrittlichen Features rauskommen konnte.
Zwischen NV3x und NV4x passierte prinzipiell mindestens so viel wie zwischen R200 und R300.

laser114
2007-08-24, 12:08:02
Wo ist die Grenze zwischen einer neuen Generation und einer alten?

Eben das ist bei solchen Diskussionen die Frage, ich glaube die Grenze zieht jeder anderswo. IMHO kann man auch R2xx-5xx in eine Generation packen, sind auch 'nur' kleinere und größere Refreshs. ;)

robbitop
2007-08-24, 12:30:00
Naja ich ziehe die Grenze da nicht so arg. Sonst waeren wir ja immernoch bei Generation 1 X-D

Ailuros
2007-08-25, 06:08:51
Vergleiche bitte altes High- End mit neuem High- End oder alte Mittelklasse mit neuer Mittelklasse! Dass nicht jede GraKa mit höherer Modellnummer schneller sein muss als alle mit niedrigeren, ist aber nun wirklich nichts Neues.

Es waren lediglich zwei Bespiele aus der Luft gegriffen und dessen Sinn war lediglich dass architektonische Aenderungen auch zu quasi "Etikettenschwindel" fuehren kann, wenn der Verbraucher nichts anderes als einen Haufen zusaetzliche Papier-features abbekommt die er aber fuer die Lebenszeit der GPU nicht benutzen wird.

Es ist halt traditionell so (und mMn auch sinnvoll), dass der erste Teil einer Modellbezeichnung idR den technologischen Stand angibt und erst der hintere Teil die Leistung. Demnach war zB 6800 --> 7800 eine Art Etikettenschwindel: zwar ordentlich mehr Leistung, aber nur marginale technologische Änderungen.

Von zusaetzlicher Leistung hat der Verbraucher in der Mehrzahl der Faelle viel mehr als von den technologischen Aenderungen. G80 ist hier eine klare Ausnahme, da er beides kombinierte was aber nicht besonders oft passiert.

Unter DX9.0 war es uebrigens 5800-->6800-->7800.

Drei Refreshes? Selbst bei NV 40 waren es nur zwei.

Ausser D3D10.2 wird gestrichen, sieht es tatsaechlich danach aus. Siehe oben unter DX9.0 gab es 3 GPU Familien; ob Du jegliche jetzt Generation oder Refresh nennen willst ist fuer mich nebensaechlich. Dass NV3x ein grandioser Flop war ebenso. Unter anderen Umstaenden haette GF5 genauso verwandt gewesen sein sollen wie GF6 zu GF7.

Eine Lösung wäre aber ganz einfach: Eine Null anhängen. Dann hat man dreistellige Nummern (wie ATI sowieso) und kann bei Bedarf die letzte Stelle varrieren (á la RV515/ 535) :biggrin:

Ach und bei ATI designiert die erste Zahl nach dem "R" stets eine grosse technologische Aenderung oder was? R3xx zu R4xx war dann womoeglich die groesste technologische Aenderung der Geschichte. Im Vergleich zu dem Beispiel verdiente GF7 doch wohl eher die zusaetzliche Zahl vom GF6.

Hvoralek
2007-08-25, 10:46:18
Es waren lediglich zwei Bespiele aus der Luft gegriffen und dessen Sinn war lediglich dass architektonische Aenderungen auch zu quasi "Etikettenschwindel" fuehren kann, wenn der Verbraucher nichts anderes als einen Haufen zusaetzliche Papier-features abbekommt die er aber fuer die Lebenszeit der GPU nicht benutzen wird.Nach irgendetwas muss man ja den Beginn einer neuen Modellreihe definieren. Und ich halte es für sinnvoller, das nach Technologie zu tun und die einzelnen Modelle dann nach Leistung zu staffeln, als "Generationen" nach Leistung zu definieren und die Karten dann nach technologischem Stand zu sortieren.

Ach und bei ATI designiert die erste Zahl nach dem "R" stets eine grosse technologische Aenderung oder was? R3xx zu R4xx war dann womoeglich die groesste technologische Aenderung der Geschichte. Im Vergleich zu dem Beispiel verdiente GF7 doch wohl eher die zusaetzliche Zahl vom GF6.Ich habe ja auch nicht behauptet, ATI sei besser. Radeon "9"000 - "9"250 anyone?

AnarchX
2007-08-25, 14:37:06
Was könnte das sein?
Nvidia to launch 8700
Games Convention 07: 65 nanometre mainstream card (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2659&Itemid=1)

Wieder Verwirrungen über G98? Oder ein G84 in 65nm?

aths
2007-08-25, 15:28:56
Was Fuad wieder aufgeschnappt haben will, interessiert imo gar nicht. Natürlich wird es über kurz oder lang einen 8600-Ersatz in 65 nm geben. Ob Fudo nun jetzt irgendwas faselt oder nicht.

AnarchX
2007-08-25, 15:33:42
Es ist eben gerade die Kunst aus diesem "Gefasel" den wahren Kern herauszuziehen.
Dass Fuad durch gute Quellen mit Infos gefüttert wird, ist zu 100% sicher.;)

Nakai
2007-08-25, 17:29:23
Dass Fuad durch gute Quellen mit Infos gefüttert wird, ist zu 100% sicher.

Ja, aber missversteht so einiges...:(

Wie kann einer der eine Hardware-"News"-Seite leitet so wenig Ahnung von der Hardware haben.

mfg Nakai

Hvoralek
2007-08-25, 19:42:06
Ja, aber missversteht so einiges...:(

Wie kann einer der eine Hardware-"News"-Seite leitet so wenig Ahnung von der Hardware haben.Vlt. bekommt Fuad auch nur deshalb so soviele Informationen, weil seine Quellen genau wissen, dass er sie zu total unverständlichem Quatsch verwurstet. So kommt nie raus, wer ihm tatsächlich was erzählt hat :biggrin:

Gast
2007-08-26, 12:19:25
Die Spielehersteller können auch ingame SLI ansteuern und sind auf keinerlei Treiberprofile angewiesen.Hmm, wie soll das funktionieren?
ist wohl aktuell eher der horror weil viele nicht wissen was im highend segment sich tun wird. für die meisten ist eine 88ultra keine alternative. selbst in diesem forum wo schon extrem aktuelle hardware verbaut wird. und absolut keine aussagekraft über den markt gemacht werden kann. gibts sogut wie keine ultras zu sehen. und die gtx ist schon 1 jahr alt.Ja, das liegt aber wohl daran, dass die typischen Highend-Käufer zum Ultra-Release bereits eine oder zwei 8800GTX hatten und die Leistung der Ultra nur geringfügig darüber lag.
Vergleiche bitte altes High- End mit neuem High- End oder alte Mittelklasse mit neuer Mittelklasse! Dass nicht jede GraKa mit höherer Modellnummer schneller sein muss als alle mit niedrigeren, ist aber nun wirklich nichts Neues.Auch dann trifft sein Vergleich noch zu. Leute, die von einer 6600GT auf eine 7600GT umstiegen, bekamen auch ordentlich mehr Leistung.

Gast
2007-08-26, 12:25:49
Es ist eben gerade die Kunst aus diesem "Gefasel" den wahren Kern herauszuziehen.
Dass Fuad durch gute Quellen mit Infos gefüttert wird, ist zu 100% sicher.;)
Nein, :cop:Fudo:cop: schnappt überall was auf und schreibt einfach alles völlig unreflektiert nieder. Dass dazwischen auch mal Treffer sind, macht allein die Statistik schon unumgänglich.

Nakai
2007-08-26, 12:38:05
Nein, :cop:Fudo:cop: schnappt überall was auf und schreibt einfach alles völlig unreflektiert nieder. Dass dazwischen auch mal Treffer sind, macht allein die Statistik schon unumgänglich.

Das ist schlichtweg Falsch, sicherlich macht er das auch, jedoch hat er auch gute Quellen. Ich schreibe dem Typen nur Inkompetenz im Bezug des Verständnis zu.

mfg Nakai

mapel110
2007-08-26, 12:38:49
Hmm, wie soll das funktionieren?
Quake4 brachte iirc ein eigenes SLI-Profil mit, das man ingame aktivieren konnte. Jede Anwendung kann Registry-Settings schreiben, damit auch Treibersettings verändern. Also stellt SLI-Support via Game-Settings kein Problem dar.

aths
2007-08-26, 12:47:34
Es ist eben gerade die Kunst aus diesem "Gefasel" den wahren Kern herauszuziehen.
Dass Fuad durch gute Quellen mit Infos gefüttert wird, ist zu 100% sicher.;)Fuad hat keine besseren Quellen als andere Journalisten in dem Fach auch, eher schlechtere, da er keine NDAs unterschreibt. Fuad lässt sich mit jedem Scheiß abfüttern und schreibt das. Er macht sich zum Handlanger von FUD (http://en.wikipedia.org/wiki/Fear%2C_uncertainty_and_doubt)-Kampagnen. Auf journalistische Sorgfaltspflichten legt er null Wert.

w0mbat
2007-08-26, 12:50:21
Trotzdem ist Fudo ein netter Mensch :)

Gast
2007-08-26, 13:01:50
Das ist schlichtweg Falsch, sicherlich macht er das auch, jedoch hat er auch gute Quellen. Ich schreibe dem Typen nur Inkompetenz im Bezug des Verständnis zu.

mfg Nakai
Deine Meinung. Auch nicht besser als meine, nur anders. :)

Gast
2007-08-26, 13:02:06
Trotzdem ist Fudo ein netter Mensch :)
Das stimmt, steht aber nicht zur Debatte.

aths
2007-08-26, 13:19:05
Trotzdem ist Fudo ein netter Mensch :)... der leider fast nie Ahnung davon hat, worüber er gerade spricht. Er plappert nach was er aufgeschnappt hat.

Klingt hart, aber ich habe mehrfach gemerkt, dass Fudo wirklich nur nachplappert und er vom Verständnis her auch gar nicht in der Lage ist, die "Information" die er bekommen haben will, einzuschätzen.

Snoopy1978
2007-08-26, 13:55:21
Aber er bringt manchmal Leute (vor allem Fanboys) zum träumen mit den "Fakten" die er da so aufschnappt.Insofern ist er durchaus nett und wichtig ;-)))

Nightspider
2007-08-26, 14:14:04
Kai hat schon eine 9800 GTX :deal:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5787062&postcount=28

Hvoralek
2007-08-26, 14:53:22
Auch dann trifft sein Vergleich noch zu. Leute, die von einer 6600GT auf eine 7600GT umstiegen, bekamen auch ordentlich mehr Leistung.Ich nehme mal als grobe Hausnummer CB- Performanceratings:
6600GT --> 7600GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating): ohne AA/AF etwa +80%, mit 4x/16x etwa +120%
7600GT --> 8600GTS (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating): ohne AA/AF etwa +60%, mit 4x/16x etwa + 140%

Siehst Du da bei der 7600 eine "ordentliche" Mehrleistung, bei der 8600 aber nicht?

Gast
2007-08-26, 14:53:36
... der leider fast nie Ahnung davon hat, worüber er gerade spricht. Er plappert nach was er aufgeschnappt hat.

Klingt hart, aber ich habe mehrfach gemerkt, dass Fudo wirklich nur nachplappert und er vom Verständnis her auch gar nicht in der Lage ist, die "Information" die er bekommen haben will, einzuschätzen.

und trotzdem is er nicht so nervig wie deinereiner

Gast
2007-08-26, 15:04:20
Was könnte das sein?
Nvidia to launch 8700
Games Convention 07: 65 nanometre mainstream card (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2659&Itemid=1)


nachdem Gy2 normalerweise kein highend-chip ist wäre das eigentlich sogar logisch. ein halber G80 in 65nm mit höheren taktraten, dafür wäre die bezeichnung 8700 sogar recht logisch ;)

w0mbat
2007-08-26, 15:09:33
@Hvoralek:
7600GT --> 8600GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating): ohne AA/AF etwa 32%, mit 4x/16x etwa 91%
6600GT --> 7600GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating): ohne AA/AF etwa 71%, mit 4x/16x etwa 102%

nordic_pegasus
2007-08-26, 15:22:07
@Hvoralek:
7600GT --> 8600GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating): ohne AA/AF etwa 32%, mit 4x/16x etwa 91%
6600GT --> 7600GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating): ohne AA/AF etwa 71%, mit 4x/16x etwa 102%

die Frage ist, ob die 8600GT oder 8600GTS als Nachfolger der 7600GT gewertet werden kann.

Ich für meinen Teil bin von einer 7600GT auf eine 8600GT umgestiegen (weil ich günstig dran kam und die bessere Bildqualität der G8x Chips haben wollte) und bin vom Performance Boost nur mässig überzeugt. Selbst im sehr G8x profitierenden Oblivion ist der Vorsprung nur messbar, nicht spürbar.

Darum wird es Zeit für einen Mainstream/Performance Chip mit deutlich mehr Bums als der G84, zumutbaren Preis und hoffentlich annehmbaren Verbrauch. Und da habe ich grosse Hoffnungen in den G92.

dargo
2007-08-26, 15:26:38
die Frage ist, ob die 8600GT oder 8600GTS als Nachfolger der 7600GT gewertet werden kann.

War die G7600GT nicht die schnellste Mainstream Graka? Von daher eher die G8600GTS.

Gast
2007-08-26, 15:36:23
Selbst im sehr G8x profitierenden Oblivion ist der Vorsprung nur messbar, nicht spürbar.

Jau, statt 18 nur 25 Fps. Merkt man kaum, die 40%. Vielleicht liegt's an deinen Oblivion-Settings? Die wirst du ja vermutlich so getrimmt haben, dass es mit der 7600 GT spielbar war und ergo kaum noch ein Grafiklimit vorhanden...

Gast
2007-08-26, 15:36:41
Jau, statt 18 nur 25 Fps. Merkt man kaum, die 40%. Vielleicht liegt's an deinen Oblivion-Settings? Die wirst du ja vermutlich so getrimmt haben, dass es mit der 7600 GT spielbar war und ergo kaum noch ein Grafiklimit vorhanden...
Link vergessen
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/19/#abschnitt_oblivion

AnarchX
2007-08-26, 15:38:02
Zudem sollte man auch bedenken, dass zwischen NV43 und G73 19 Monate lagen , während es bei G73 zu G84 nur knapp über 12 waren und hier noch DX10, was halt auch Transistoren kostet, hinzukam.

Gast
2007-08-26, 15:53:35
und hier noch DX10, was halt auch Transistoren kostet, hinzukam.

selbst schuld ein system alá Geforce4MX wäre wesentlich besser gewesen.

eine 8600 mit dem G80FSAA+AF und nur SM3 wäre wahrscheinlich deutlich schneller geworden und DX10 braucht auf diesen lahmen karten eh niemand.

AnarchX
2007-08-26, 15:57:33
Das glaube ich eher nicht, NV wurde wohl damals von einigen Devs für die GF4MX fast gelyncht, sodass man die wohl nicht mehr machen wird.

Auch so wäre es wirtschaftlicher Unsinn, das G80-Design auf DX9 abzuspecken um eventuell noch ein paar Transitoren zu erhalten, die man in Leistung investieren hätte könnnen und eben auch umgekehrt halt CineFX in einigen Punkten auf G80-Niveau heben.

Hvoralek
2007-08-26, 16:06:24
@Hvoralek:
7600GT --> 8600GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating): ohne AA/AF etwa 32%, mit 4x/16x etwa 91%
6600GT --> 7600GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating): ohne AA/AF etwa 71%, mit 4x/16x etwa 102%Man sollte Karten bei Generationenvergleichen nicht nach dem Kürzel, sondern nach dem Preis zum Erscheinen auswählen. Und afair kostete eine 7600GT zum Erscheinen 200- 250 Euro, nicht 150.

Gast
2007-08-26, 16:17:45
Das glaube ich eher nicht, NV wurde wohl damals von einigen Devs für die GF4MX fast gelyncht, sodass man die wohl nicht mehr machen wird.


leider. dabei war die 4MX-reihe eine der besten mainstreamkarten überhaupt (mit außnahme der 64bit-versionen natürlich). natürlich hat das damals in erster linie an der hohen bandbreitenabhängigkeit gelegen und damals gab es erstmals im mainstream und high-end die gleiche busbreite und den gleichen speichertyp.


Auch so wäre es wirtschaftlicher Unsinn, das G80-Design auf DX9 abzuspecken um eventuell noch ein paar Transitoren zu erhalten, die man in Leistung investieren hätte könnnen und eben auch umgekehrt halt CineFX in einigen Punkten auf G80-Niveau heben.

G80 auf SM3 abzuspecken wäre natürlich sinnlos, aber CineFX mit den G80-ROPs, den neuen VP und mit TMUs die ordentliches AF können zu erweitern wäre sicher nicht sehr schwer und im gesamtpaktet deutlich sinnvoller als das was wir jetzt als 8600 kennen. (von den 8400er und 85er krüpeln will ich garnicht reden)

AnarchX
2007-08-26, 16:29:57
Nur interessiert wohl die meisten Kunden nicht wirklich, ob nun das AA/AF besser ist, da diese gar nicht wissen was es ist.
Da wirkt ein Aufkleber ala "DX10-Hyper-Duper-Grafik" eher. ;)

Natürlich für uns, die tiefer in der Materie drin sind, ein schwacher Trost. Aber NV und auch ATi bleiben Unternehmen und keine Wohlfahrtsvereine.

Gast
2007-08-26, 16:33:48
Nur interessiert wohl die meisten Kunden nicht wirklich, ob nun das AA/AF besser ist, da diese gar nicht wissen was es ist.
Da wirkt ein Aufkleber ala "DX10-Hyper-Duper-Grafik" eher. ;)


da hast du leider recht, genauso wie eine digitalkamera mit viel MP sich besser verkauft als eine mit weniger, obwohl letztere sogar die besseren bilder liefert, verkaufen sich die grafikkarten leider über die featureliste besser als über die performance.

Gast
2007-08-26, 17:59:12
Nur interessiert wohl die meisten Kunden nicht wirklich, ob nun das AA/AF besser ist, da diese gar nicht wissen was es ist.
Da wirkt ein Aufkleber ala "DX10-Hyper-Duper-Grafik" eher. ;)

Natürlich für uns, die tiefer in der Materie drin sind, ein schwacher Trost. Aber NV und auch ATi bleiben Unternehmen und keine Wohlfahrtsvereine.
Im PC-Bereich dürfte der Kauf eher aus der Not heraus entstehen. Glaube auch nicht, dass die 8600 reißenden Absatz finden werden oder haben. Wer auf dem PC spielen möchte greift da entweder zum vollwertigen G80 oder nimmt die Vorgängergeneration. Die Informationen / Benchmarks sind im Internet leicht und schnell zugänglich. Torrents, warez etc. werden im Internet selbst von "Honks" gefunden, da werden sie die Benchmarks auch finden. Da muss man schon dumm und faul wie ein Toastbrot sein, um nicht in einer Minute durch Internetrecherche herauszufinden, dass die 8600 Serie ein Krüppel für ambitioniertes Spielen ist. Und diese Leute dürften mit dem PC an sich schon überfordert sein bzw. überhaupt kein Geld dafür haben. Denke eher noch, dass die 8600 Serie sich ganz gut in Komplettsystemen schlägt aber beim Retailverkauf...

paul.muad.dib
2007-08-26, 23:38:52
Da muss man schon dumm und faul wie ein Toastbrot sein, um nicht in einer Minute durch Internetrecherche herauszufinden, dass die 8600 Serie ein Krüppel für ambitioniertes Spielen ist.

Da es grad passt, zitiere ich mal eine Diskussion aus dem Gothic 3 Forum:

Hallo, meinFreund hat sich ne neue Kiste gekauft und da wir mal Gothic 3 bei ihm ausprobieren wollten und er so ein Highend System hat, hab ich mich gefragt, ob man Gothic 3 auch hochtunen kann und nicht nur in die andere Richtung; gibt es dafür auch Threads ? Hab zwar gesucht, aber bei 117 Seiten ist das schwer

5,3 Ghz, Dual Core
3 Gig Ram, DDR2-SDRAM
ATI 2900HD (die heisst doch so?)
win xp prof.

Die 5,3 Ghz CPU ist natürlich aus einem Ebay Rechner...
Nachdem ich ihn darauf hingewiesen habe, dass eine HD 2900 XT nicht so gut in Gothic performed:

GeForce besser ? Ha, da sollt ja meine 8600M GT besser im Renne sein ^^

grml...is aber eine Notebook-Version, net Desktop...macht des nen unterschied ? Hat immerhin 512 MB ram, DX 10 und vertex 4...
*schmoll*


Das beste ist aber dieser User:

Hi,
heißt das, dass eine Geforce 7950GX2 besser ist als eine Geforce 8600GTS?

laser114
2007-08-26, 23:40:57
Welches G3-Forum meinst du denn?

Hvoralek
2007-08-26, 23:55:10
Er meint wohl das hier (http://forum.worldofplayers.de/forum/showthread.php?t=270664).

laser114
2007-08-27, 00:16:57
In der Tat ein interessanter Thread. ;)

So, nun aber vielleicht mal wieder zurück zum Thema...

Ailuros
2007-08-28, 11:01:56
Was könnte das sein?
Nvidia to launch 8700
Games Convention 07: 65 nanometre mainstream card (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2659&Itemid=1)

Wieder Verwirrungen über G98? Oder ein G84 in 65nm?

G96= Fruehling 2008.

Ailuros
2007-08-28, 11:18:03
Nach irgendetwas muss man ja den Beginn einer neuen Modellreihe definieren. Und ich halte es für sinnvoller, das nach Technologie zu tun und die einzelnen Modelle dann nach Leistung zu staffeln, als "Generationen" nach Leistung zu definieren und die Karten dann nach technologischem Stand zu sortieren.


Tja nur werden (Gott sei Dank) neue APIs nicht so oft wie neue GPUs vorgestellt. Wenn Du bei einem API wie z.B. DX9.0 ueber 4 Jahre ueberbruecken musst als IHV, die jeweiligen API Revisionen keine besonders grossen Aenderungen mit sich bringen, ist man auch quasi gezwungen eine Reihe von Refreshes hintereinander zu bringen.

Nun gut einen 6-monatigen Produkt-zyklus gibt es zwar nicht mehr, aber alle 8-9 Monate kommt schon irgend etwas "neues".

Mein Einspruch ist lediglich im Punkt dass wir als Verbraucher viel mehr von doppelter Leistung im Endeffekt haben, als doppelt so viele Features. Wie schon erwaehnt im Idealfall bekommt man beides in einem Paket aber wiederrum auch ziemlich selten.

IMHLO macht ein <4 Jahre "wahrer" Generations-Zyklus auch keinen besonderen Sinn.

AnarchX
2007-08-29, 20:51:28
Damit wäre eine 2x1GB GX2 gar nichmal so aufwendig vom PCB:
http://www.pcgameshardware.de/?article_id=611484
;)

laser114
2007-08-29, 23:23:54
Das auch, ja.

Aber damit sollten zumindest die mobilen GPUs der aktuellen Serie etwas weiter ausbaubar sein. Eine 8700M GTS mit G84 @ 650/1400/1000 (in dem Dreh, eventuell an die besten Spannungen noch anzupassen) wäre bei NVIDIA wünschenswert. :)

AnarchX
2007-08-30, 09:00:21
256-bit G92 To Launch On Nov 12th (http://www.vr-zone.com/?i=5207)

Viele interessante Daten.

Wobei die 50GT/s etwas seltsam wirken. Oder hat man da schon ein Detail der GX2 verraten? ;)

Zudem wird bei HKEPC behauptet, dass NVs DX10-Chips auch alle DX10.1 beherrschen und dafür bald ein Treiber kommen soll. Kann das stimmen? :|

MuLuNGuS
2007-08-30, 10:10:51
also doch erstmal keine neue high-end karte...schade aber auch..

MiamiNice
2007-08-30, 10:16:10
Na Toll, was soll man jetzt kaufen um UT3 und Crysis zu spielen? Ich hatte auf den G90 im Nov gehofft der die neuen Games mal richtig beschleunigt und jetzt bringen Sie Mainstream-Karten raus, die langsamer sind als ne 8800GTX. Eine GTX reicht ja nichtmal für die Games in der Auflösung und Bildquali in der ich spielen will.

Wie kommen die überhaupt darauf das man sich heut noch eine Karte mit 256bit einbaut, wen die letzte Gen schon mehr hatte? Verstehe die Welt nimmer. Jetzt muss ich mit meiner altersschwachen 7800GT wahrscheinlich bis Jan/Feb zoggen obwohl Sie jetzt schon zu langsam ist. Das nervigste ist noch das ich mir schon extra Kohle für 2xG90 + Quadcore zur Seite gelegt habe und im Nov. komplett Urlaub eingereicht hab :mad:

Ganz Doll NV

Neosix
2007-08-30, 10:24:01
ich fühle mit dir :( hab nämlich das gleiche problem. da wartet man auf g90 und der kommt nicht.

was ich nicht verstehe. ich dachte immer die gpu hersteller entwickeln zuerst das topmodell, einfach um zu sehen was in der reihe drin ist. und dann wird für mainstream und lowend gekürzt? wieso kommt dann eine mittelklasse karte zuerst?

robbitop
2007-08-30, 10:26:19
Na Toll, was soll man jetzt kaufen um UT3 und Crysis zu spielen? Ich hatte auf den G90 im Nov gehofft der die neuen Games mal richtig beschleunigt und jetzt bringen Sie Mainstream-Karten raus, die langsamer sind als ne 8800GTX. Eine GTX reicht ja nichtmal für die Games in der Auflösung und Bildquali in der ich spielen will.

Wie kommen die überhaupt darauf das man sich heut noch eine Karte mit 256bit einbaut, wen die letzte Gen schon mehr hatte? Verstehe die Welt nimmer. Jetzt muss ich mit meiner altersschwachen 7800GT wahrscheinlich bis Jan/Feb zoggen obwohl Sie jetzt schon zu langsam ist. Das nervigste ist noch das ich mir schon extra Kohle für 2xG90 + Quadcore zur Seite gelegt habe und im Nov. komplett Urlaub eingereicht hab :mad:

Ganz Doll NV
So wie ich das sehe, hast du einen 20" Widescreen. Das bedeutet 1680x1050.
Diese Aufloesung kann ja sogar meine X1900XT bisher in allen Spielen befeuern. Haettest du jetzt einen 24" TFT oder einen 30" TFT, haette ich die Klagen ja verstanden. So hohe Aufloesungen zu befeuern ist einfach dauerhaft viel zu teuer.

Kauf dir ruhig eine G80 das sollte fuer deinen TFT reichen. Wenn das nicht reicht, halt 2x G80. Das sollte selbst fuer Crysis reichen.
Karten kauft man sowieso nicht direkt nach dem Launch, wenn man nicht gleich Pionierpreise haben will. Ansonsten kannst du natuerlich auch 2x G92 einbauen. (jede davon sollte ca G80 Performance haben aber weniger Leistungsaufnahme haben)

Und wenn das alles nichts bringt, kaufe dir einfach eine Konsole. Du wirst ueberascht sein, wie sehr das bockt und Sucht erzeugt X-D
Lass dir doch deinen Urlaub also nicht versauen ;)

MiamiNice
2007-08-30, 10:27:41
Sie werden wahrscheinlich warten bis AMD/ATI die Hosen runtergelassen haben und solange Kohle mit dem G80 zu verdienen (viele werden ihn sich noch kaufen wen UT3 und Crysis kommen) um dann mit dem G90 nochmal abzukassieren. Da AMD/ATI ja sonne dolle Firma ist die Ihre Karten auch immer sehr früh rausbringen *hust* wirds mit dem G90 sicherlich nicht mehr lange dauern. ;D

MiamiNice
2007-08-30, 10:33:45
So wie ich das sehe, hast du einen 20" Widescreen. Das bedeutet 1680x1050.
Diese Aufloesung kann ja sogar meine X1900XT bisher in allen Spielen befeuern. Haettest du jetzt einen 24" TFT oder einen 30" TFT, haette ich die Klagen ja verstanden. So hohe Aufloesungen zu befeuern ist einfach dauerhaft viel zu teuer.

Kauf dir ruhig eine G80 das sollte fuer deinen TFT reichen. Wenn das nicht reicht, halt 2x G80. Das sollte selbst fuer Crysis reichen.
Karten kauft man sowieso nicht direkt nach dem Launch, wenn man nicht gleich Pionierpreise haben will. Ansonsten kannst du natuerlich auch 2x G92 einbauen. (jede davon sollte ca G80 Performance haben aber weniger Leistungsaufnahme haben)

Und wenn das alles nichts bringt, kaufe dir einfach eine Konsole. Du wirst ueberascht sein, wie sehr das bockt und Sucht erzeugt X-D
Lass dir doch deinen Urlaub also nicht versauen ;)

Sry,

wie man auf der GC gesehen hat reicht eine GTX gerade mal für 1024*768 bei vollen Details. Ich mag aber in 1680*1050 spielen und das bei min 16AF und 8AA, und dann sollte das ganze noch immer über 60 FPS liegen zu jeder Zeit. Da ich gerne Online und in der Liga spiele.
Aussserdem möchte ich mir keinen G80 kaufen, den hätte ich auch schon letztes Jahr haben können, wollte ich aber nicht.
Von der Featureliste sagt mir nur der G90 zu. Alles was weniger als 1GB ram und 512bit hat, kommt mir nicht in meinen PC. Und das bitte auf einer Karte ohne SLI.

MfG

Und ich hasse Konsolen, eingeschränkt (sry aber wahr) Spielen können meine Kinder im Wohnzimmer.

Neosix
2007-08-30, 10:34:17
aber haben nicht relative viele hier behauptet das man nichts zurückhält was man entwickelt hat? weils eben geld kostet?
und zum anderen wäre der g90 ja in höhstwarscheinlich 65nm hergestellt und somit nicht für nv billiger?

Die gelbe Eule
2007-08-30, 10:35:25
Für 300€ so ein Biest zu bekommen, das kann AMD/ATi nicht bieten. Bisher konnte man kein NextGen Game mit aktueller Hardware, nur einer Karte auf höchsten Details und ordentlichem AF/AA spielbar bekommen. Warum das auf einmal mit Crysis und UT3 so sein soll, daß möchte ich mal gerne wissen.
Nicht vergessen das auch die CPU irgenwann limitiert und wer kann schon 4GHz sein Eigen nennen? Und gerade da sollte man sich fragen, ob man nicht sofort zwei 8800er einbauen sollte, anstatt rumzuheulen. Ein Refreshchip wird kaum doppelte Leistung zaubern können, woher auch. Bis das die GX2 nicht Fakt ist, gibt es auch kein neues HighEnd.

dargo
2007-08-30, 10:36:34
Wie kommen die überhaupt darauf das man sich heut noch eine Karte mit 256bit einbaut, wen die letzte Gen schon mehr hatte? Verstehe die Welt nimmer.
Seit wann bestimmt nur das SI die Speicherbandbreite? ;)

MiamiNice
2007-08-30, 10:40:28
Für 300€ so ein Biest zu bekommen, das kann AMD/ATi nicht bieten. Bisher konnte man kein NextGen Game mit aktueller Hardware, nur einer Karte auf höchsten Details und ordentlichem AF/AA spielbar bekommen. Warum das auf einmal mit Crysis und UT3 so sein soll, daß möchte ich mal gerne wissen.
Nicht vergessen das auch die CPU irgenwann limitiert und wer kann schon 4GHz sein Eigen nennen? Und gerade da sollte man sich fragen, ob man nicht sofort zwei 8800er einbauen sollte, anstatt rumzuheulen. Ein Refreshchip wird kaum doppelte Leistung zaubern können, woher auch. Bis das die GX2 nicht Fakt ist, gibt es auch kein neues HighEnd.

Ich persönlich wurde ein G92 GX2 gespann nicht als High End bezeichen. Ein G90 SLI oder GX2 allerdings schon. Aber wie gesagt persönliche Meinung.

Das das SI nicht alleine Ausschlaggebend für die Performance ist weiss ich auch, aber wieder zurückzurundern von mehr auf weniger find ich scheisse.

Die gelbe Eule
2007-08-30, 10:44:02
Ein G92 GX2 wäre de facto schneller als eine 8800 Ultra, somit hat man neues HighEnd. Da würde ich doch lieber 550€ für diese Karte ausgeben, als 550€+ für eine Ultra. Potential wäre eh noch einiges an OC vorhanden, gerade die Shaderclocks sorgen dann für ein richtiges Monster. Letztendlich muss der Spielehersteller dafür sorgen, daß man alles mit aktueller Hardware genießen kann, nicht der VGA Hersteller.
Crysis war z.B. für eine X1800XT 512MB gedacht und damit lief es schon ordentlich. Wäre traurig wenn man die Schraube noch höher ansetzen würde, vergrault nur Kunden.

MiamiNice
2007-08-30, 10:49:37
Wen man 2 Mainstream/Performance Karten koppelt kann da für mich kein High-End rauskommen, sondern Mainstream/Performance SLI. Die schnellste Karte die es einzeln gibt im SLI das ist High-End.

MfG

Gast
2007-08-30, 10:53:28
Man, das macht es mir wirklich schwer. Dann muss ich wohl meinen neuen PC im Oktober noch ohne Grafikkarte kaufen, würde sich ja kaum lohnen, wenn die von mir beäugte 8800GTS gleich danach ersetzt wird.
Die Frage ist: bietet die neue Karte außer geringerem Verbrauch noch andere Vorteile?

Adam D. @ work

dargo
2007-08-30, 10:56:18
Das das SI nicht alleine Ausschlaggebend für die Performance ist weiss ich auch, aber wieder zurückzurundern von mehr auf weniger find ich scheisse.
Oh man, es ist doch völlig egal wie breit das SI ist solange man die Bandbreite erhöhen kann. Afaik soll es 2008 mit dem GDDR5 von 1,6-3,2Ghz soweit sein. Selbst mit 2Ghz ist man schon bei 128GB/s. Wozu also den Chip unnötig teurer machen?
Du bist bestimmt einer von der Fraktion - der Pentium 4 ist auch so toll weil er mehr GHz hat. :ugly:

Die gelbe Eule
2007-08-30, 10:57:15
Der G92 soll knapp unterhalb der GTX performen, ist das nicht schon schnell genug für eine einzelne Karte? Ob die nun zusammenklappst oder einzeln auf das SLi Brett schnallst, damit eine Daseinsberechtigung für das SLi Brett hast, ist im Endeffekt völlig schnurz. Am End zählt nur was am Bildschirm rauskommt und wer wie immer warten möchte, der hat auch mit dem G200 noch keine neue Karte im Rechner, weil es ja auch noch zu langsam ist ^^

Gast
2007-08-30, 11:10:05
Du bist bestimmt einer von der Fraktion - der Pentium 4 ist auch so toll weil er mehr GHz hat. :ugly:

So einer bin ich ganz sicherlich nicht, das kann ich Dir versichern :)

MfG Groundfrag

MiamiNice
2007-08-30, 11:18:18
Der G92 soll knapp unterhalb der GTX performen, ist das nicht schon schnell genug für eine einzelne Karte?



Klar ist er schnell genug, für ne Mainstream Karte. Wen man sich allerdings schon Monate auf eine wirkliche weiterentwicklung freut, ist es nicht schnell genug :P

Die gelbe Eule
2007-08-30, 11:28:38
Klage lieber über ATi, weil sie haben es ausgebremst, nicht NV. Bei ATi würdest auf langer Sicht nichts vergleichbares bekommen. Bisher weiß auch noch keiner, wie der G90 dann performen wird, vielleicht ist es Dir dann auch nicht schnell genug, wer weiß das schon.

Winter[Raven]
2007-08-30, 11:31:27
Laut Auliros braucht sich auch Nvidia vor dem AMD's Refresh nicht zu vertecken ... und da der G100 früher als der R700 wieder antantzt ist es so oder so alles egal ^^.

Neosix
2007-08-30, 12:27:13
@Die gelbe Eule kannst du bitte mit deinem "ewig warten" aufhören? hier gings nie darum auf eine bestimmte Performance hin "zu warten". sondern auf eine einzellne karte ähmlich den g90 sofern es wieder eine singellösung sein wird. es gibt genug menschen (zu denen ich auch gehöre) die offensichtlich sli ablehnen aus welchen glaubensgründen auch immer. und sich eine einzelne karte wünschen die die ultra schlägt. und wenn man stattdesses eine sli lösung angeboten kriegt ist das doch mehr als enttäuschend.
das eine einzellne karte wieder kommen wird die die ultra schlägt ist denke ich mehr oder weniger sicher. die frage ist blos wann.

Anarchy-HWLUXX
2007-08-30, 12:58:25
@Die gelbe Eule kannst du bitte mit deinem "ewig warten" aufhören? hier gings nie darum auf eine bestimmte Performance hin "zu warten". sondern auf eine einzellne karte ähmlich den g90 sofern es wieder eine singellösung sein wird. es gibt genug menschen (zu denen ich auch gehöre) die offensichtlich sli ablehnen aus welchen glaubensgründen auch immer. und sich eine einzelne karte wünschen die die ultra schlägt. und wenn man stattdesses eine sli lösung angeboten kriegt ist das doch mehr als enttäuschend.
das eine einzellne karte wieder kommen wird die die ultra schlägt ist denke ich mehr oder weniger sicher. die frage ist blos wann.

Wenn man so ansprüche hat muss man sich eben dran gewöhnen enttäuscht zu werden. Mit SLI / CF hat man nun eben die möglichkeit zwischendurch eben nicht extrem teure (Herstellungs & Entwicklungskosten, Yield -> Unwirtschaftliche) High-End produkte zu bauen sondern immer wieder abwechselnd GX2 und dann ein Single Chip design zu bringen - so könnt ich mir das sehr gut vorstellen. nV muss schlieslich die Kriegskasse füllen falls Intels GPU einstieg zu-gut klappt, und ATi hat ja AMDs Rückendeckung bzw. effektiv gehts jetzt gegen AMD. Deswegen wird nVidia Intel auch keine SLI Lizenz verkaufen - man darf den Intel Chipsatz markt ja nicht aufgeben.

Ich hab mir jedenfalls die 7950 GX2 geschossen als die für 180€ angeboten wurd - super Teil ich kann nicht klagen :)

AnarchX
2007-08-30, 13:29:45
Wenn die 50GTex/s wirklich auf die GX2 bezogen sind, etwas anderes würde auch keinen wirklichen Sinn machen, so kann uns durchaus nochmal eine ordentliche Leistungssteigerung im Q4 erwarten.
Sagen wir mal die GX2 taktet mit 780MHz:

- 2x32TMUs(wohlmöglich auch TAUs ) *780MHz = 50GTex/s -> ~28% mehr als Ultra
- 2x64SPs @ 2.3GHz(?) -> 883GFLOPs -> ~53% mehr als Ultra
- 2x256Bit @1.1GHz(?) -> 140GB/s -> -> ~34% mehr als Ultra

Imo trotzdem noch ziemlich gut balanciert, bei deutlich gestiegener arithmetischer Leistung, die ab 2008 immer wichtiger werden sollte. ;)

MiamiNice
2007-08-30, 13:36:07
Wenn die 50GTex/s wirklich auf die GX2 bezogen sind, etwas anderes würde auch keinen wirklichen Sinn machen, so kann uns durchaus nochmal eine ordentliche Leistungssteigerung im Q4 erwarten.
Sagen wir mal die GX2 taktet mit 780MHz:

- 2x32TMUs(wohlmöglich auch TAUs ) *780MHz = 50GTex/s -> ~28% mehr als Ultra
- 2x64SPs @ 2.3GHz(?) -> 883GFLOPs -> ~53% mehr als Ultra
- 2x256Bit @1.1GHz(?) -> 140GB/s -> -> ~34% mehr als Ultra

Imo trotzdem noch ziemlich gut balanciert, bei deutlich gestiegener arithmetischer Leistung, die ab 2008 immer wichtiger werden sollte. ;)

Aber nur bei Games die von SLI profitieren, und das ist das Prob was ich mit der ganzen Geschichte habe.

AnarchX
2007-08-30, 14:04:17
Natürlich, aber langfristig wir man bei keinem IHV um Multi-GPU wohl herumkommen.

w0mbat
2007-08-30, 14:07:01
G92 is a high-end chip, sports 384-bit controller (http://uk.theinquirer.net/?article=42015)


RUMOUR HAS IT that upcoming G92 is a mainstream chip, not the high-end refresh that the net has been wibbling about.

Well, we can tell you that this rumour is nothing else but a bit of good old FUD, since either G92 is a high-end refresh or the company decided that a replacement for 8800GTS will be significantly faster than GeForce 8800 Ultra, leaving its high-end offering in shambles.

This baby sports some serious shading power, but more important is the fact that the memory installed on board is now GDDR4. 768MB of GDDR4, to be more precise. The amount of memory discards rumours of 256-bit bus, since it is obvious that Nvidia will keep 384-bit memory controller for the high-end series of products. We would welcome this memory controller in mainstream arena, though.

The bandwidth has now jumped over the 105 GB/s barrier, and it remains to be seen what will be the final clock of the memory – our estimate is between 1.0 and 1.2 GHz, or 2.0-2.4 GHz, but final clocks are far, far from being decided. The company needs to get the revised chip first, in order to have DisplayPort working nice and cleanly. Display Port is required for this company to get the Dell XPS contract – a new machine will be launched for Winter 2007/08, probably during CES 2008 in Las Vegas.

The company has already had some revisions of the board sent to their favourite game developers and other partners, and we can now tell you that the board is almost identical to old 8800 GTX/Ultra ones.

We would like to see 1.5GB of memory on consumer boards as well - the Quadro FX already spots 1.5GB of GDDR3 memory- but it is all a matter of price. Qimonda’s high-capacity GDDR3 sounds very tasty for Nvidia plans, but for now. The reference boards sport Samsung GDDR4 chips.

We hope the situation about this upcoming silicon gem is now as clear as mud, not FUD. µ


Na, was jetzt?!

Anarchy-HWLUXX
2007-08-30, 14:12:35
Ääääääääääääähhhh ...

Supi. :uconf2: :uclap:

AnarchX
2007-08-30, 14:13:59
Genau, wie der K10 30k im 3DM06 schafft. X-D

Naja, G92 wird definitiv sein was auch sein Name sagt -> Performance/Mid-Range.

Ob nun ein G80@65nm mit etwaigen Änderungen(DX10.1) exitiert bleibt unklar, aber dieser wird wohl definitiv nicht G92 genannt.

btw.
Bei Cnet gibt es wohl morgen ein Interview mit dem Produktmanger der GF8/9 Serie (http://vga.zol.com.cn/topic/636500.html), da gibt es dieses Bild:
http://www.directupload.com/files/ozy2gzqzxjjmty4mnkle.jpg

Wozu passt es eher: G80@65nm oder G92 x 2? ;)

Gast
2007-08-30, 14:15:56
G92 is a high-end chip, sports 384-bit controller: http://uk.theinquirer.net/?article=42015

Anarchy-HWLUXX
2007-08-30, 14:18:56
Also wenn man das Diagramm ansieht muss wohl klar sein das das Teil ein einzelner Chip mit 1000M sein soll - ansonsten müsste das Diagramm abfallen auf 500M

@Gast - schau mal 2 posts weiter oben ;)

Hvoralek
2007-08-30, 14:21:57
G92 is a high-end chip, sports 384-bit controller (http://uk.theinquirer.net/?article=42015)

Na, was jetzt?!Irgendjemand hat dem Inquirer etwas von 768- MiB- GDDR4- G92- Karten erzählt und es gibt keinen Fuad mehr, der die Meldung auf irgendwelche 3D- Mark- Werte aufblasen würde. Wir werden sehen, was dran ist, aber solange nur der Inquirer auf einen G92 > G80 hindeutet, bin ich da skeptisch.

AnarchX
2007-08-30, 14:22:33
Also wenn man das Diagramm ansieht muss wohl klar sein das das Teil ein einzelner Chip mit 1000M sein soll - ansonsten müsste das Diagramm abfallen auf 500M

Oder es stellt dar wieviel Transistoren beim HighEnd-Produkt aktiv sind. ;)

Natürlich kann es auch sein, dass man den 1000M-eDRAM-BS aufgegriffen hat und dazu ihn befragen möchte.

Falls er ein paar Infos preisgibt, werden diese wohl dann auch im Netz landen. ;)

Anarchy-HWLUXX
2007-08-30, 14:26:11
Oder es stellt dar wieviel Transistoren beim HighEnd-Produkt aktiv sind. ;)


Wär dann ein tolles verarsche Diagramm weil alle anderen werte Single-Chips sind ... sollt eingentlich net sein.

Hvoralek
2007-08-30, 14:29:05
Oder es stellt dar wieviel Transistoren beim HighEnd-Produkt aktiv sind. ;)Wo ist dann die 79x0 GX2?

Interessanter wäre mal, wo dieses Diagramm herkommt und woher dessen Ersteller seine Informationen zum G92 haben möchte.

Gast
2007-08-30, 14:41:33
Ob nun ein G80@65nm mit etwaigen Änderungen(DX10.1) exitiert bleibt unklar, aber dieser wird wohl definitiv nicht G92 genannt.

btw.
Bei Cnet gibt es wohl morgen ein Interview mit dem Produktmanger der GF8/9 Serie (http://vga.zol.com.cn/topic/636500.html), da gibt es dieses Bild:
http://www.directupload.com/files/ozy2gzqzxjjmty4mnkle.jpg



hm 1000Mio transistoren sind irgendwie seltsam, zu viel für einen optimierten G80, aber eigentlich zu wenig für einen echten high-end-nachfolger des G80.

AnarchX
2007-08-30, 14:44:49
hm 1000Mio transistoren sind irgendwie seltsam, zu viel für einen optimierten G80, aber eigentlich zu wenig für einen echten high-end-nachfolger des G80.

Aber genau passend für zwei 4 Cluster/4 ROP-Partition + VP3 GPUs. ;)

Hvoralek
2007-08-30, 14:52:45
Naja, 1 Mrd. könnte auch bei einem aufgebohrten 8- Cluster- G80 hinkommen. Ich würde auf dieses Diagramm aber nicht allzuviel geben, solange nicht klar ist, wer dahinter steckt.

Gast
2007-08-30, 15:22:50
Aber genau passend für zwei 4 Cluster/4 ROP-Partition + VP3 GPUs. ;)

man hat einen 8-cluster-chip in 90nm und will das ganze in 65nm nicht mehr schaffen und stattdessen mit einem komplizierten dual-chip-pcb kommen?

klingt ziemlich unwahrscheinlich, so eine aktion würde nur sinn machen wenn die konkurrenz zuviel druck macht und man den 4-cluster-mainstream-chip gerade fertigbekommt, zum nächsten highend-chip aber noch einige zeit ist.

dann könnte man mit einer dual-karte kontern, nur ist dafür absolut keine notwendigkeit.

Gast
2007-08-30, 15:25:09
Naja, 1 Mrd. könnte auch bei einem aufgebohrten 8- Cluster- G80 hinkommen.

nö viel zu viel, wenn man G70 vs. G71 vergleicht hätte ein aufgebohrter G80 wohl kaum mehr transistoren, aber max 700-800Mio.


1Mrd würde eher bei einem 10-cluster-chip hinkommen

Nakai
2007-08-30, 15:33:47
Eben nicht.

Schau dir den G84 und G86 an.

Die Geforce 8600GTS hat nur einen Chip, welcher nur 2 Cluster hat. Durch eine extreme Takterhöhung hat man dennoch eine recht annehmbare Leistung erhalten.
Was wird dann wohl der G92 sein?
Natürlich wird er noch verbessert sein, aber mal ne Milchmädchenrechnung.

G84 hat 289Mill Transis und der G80 681 Millionen Transis.
681 - 289 = 392
392 Millionen Transistoren sind also etwa 6 Cluster.
D.h. ein Cluster kostet etwa 65 Millionen Transistoren.
Bei 4 Cluster sind das 260 Millionen Transistoren plus noch weitere 170 Millionen für den Chip drumherum.
Das wäre etwa 420 Millionen Transistoren, außerdem denke ich, das der Chip noch Verbesserungen bekommen hat, sodass er schließlich an die 480 Millionen Transistoren rankommt.
Dann kommen die 1 Milliarde Transistoren schon recht nahe.

mfg Nakai

Hvoralek
2007-08-30, 15:34:26
nö viel zu viel, wenn man G70 vs. G71 vergleicht hätte ein aufgebohrter G80 wohl kaum mehr transistoren, aber max 700-800Mio.


1Mrd würde eher bei einem 10-cluster-chip hinkommenKommt darauf an, wie der aufgebohrt wird. Neuer Videokram, doppelt so viele TAs, zwei volle MADDs und vlt. eigene Einheiten für Spezialfunktionen im Shader... Ich denke schon, dass man da an die 300 Mio Transistoren lassen könnte.

Gast
2007-08-30, 16:58:00
Kommt darauf an, wie der aufgebohrt wird. Neuer Videokram, doppelt so viele TAs, zwei volle MADDs und vlt. eigene Einheiten für Spezialfunktionen im Shader...

videokram kostet fast nix (<10Mio.) eine eigene einheit für die spezialfunktionen gibt es bereits, noch eine würde keinen sinn machen und an 2 MADDs glaub ich erst recht nicht, das MUL ist ja nur ein "abfallprodukt" der SFU.

das einzige was noch denkbar wäre gleich viele TAUs wie TFUs einzubauen, wobei das ganze mit AF-einsatz aus performancesicht ziemlich sinnlos wäre und damit bei einem high-end-chip eher eine verschwendung.

Hvoralek
2007-08-30, 17:24:14
videokram kostet fast nix (<10Mio.) eine eigene einheit für die spezialfunktionen gibt es bereits, noch eine würde keinen sinn machen und an 2 MADDs glaub ich erst recht nicht, das MUL ist ja nur ein "abfallprodukt" der SFU.Belegen nicht SFUs für ein paar Takte einen kompletten SP? Die MULs werden m.W. i.W. durch Perspektivkorrektur blockiert. Jedenfalls könnte man für zwei volle MADDs, die auch wirklich jederzeit unabhängig von SFUs, Perspektivkorrektur und sonstwas zur Verfügung stehen, schon einige Transistoren verwenden. Eine höhere relative Arithmetikleistung würde G8x auch nicht schaden (wäre aber natürlich auch durch höheren Shadertakt erreichbar, wenn man den stärker steigert als den des übrigen Chips. Oder durch beides).

das einzige was noch denkbar wäre gleich viele TAUs wie TFUs einzubauen, wobei das ganze mit AF-einsatz aus performancesicht ziemlich sinnlos wäre und damit bei einem high-end-chip eher eine verschwendung.Ich habe ehrlich gesagt das Gefühl, dass diese wenigen TAs mehr schaden als sie theoretisch sollten. Zumindest ändert sich am Verhältnis von G80 und G84 durch AF alleine anscheinend nichts (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/15/#abschnitt_gothic_3). Jedenfalls aber werden G80 sehr schnell die TAs ausgehen, wenn man ungefilterte Texturensamples braucht (bei Vertex Texturing m.W. z.B.). ATI hat ja nicht ohne Grund sogar mehr Addressierer als Filtereinheiten verbaut.

Gast
2007-08-30, 17:50:40
Ich habe ehrlich gesagt das Gefühl, dass diese wenigen TAs mehr schaden als sie theoretisch sollten. Zumindest ändert sich am Verhältnis von G80 und G84 durch AF alleine anscheinend nichts (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/15/#abschnitt_gothic_3).


klar wie soll sich auch was ändern?
ob die TAs jetzt da sind und nicht gebraucht werden oder garnicht da sind wird kaum einen unterschied machen. zudem reicht schon reine TF ohne AF damit die TAs kein flaschenhals mehr sein können (alternativ auch noch FP16-filterung)


Jedenfalls aber werden G80 sehr schnell die TAs ausgehen, wenn man ungefilterte Texturensamples braucht (bei Vertex Texturing m.W. z.B.). ATI hat ja nicht ohne Grund sogar mehr Addressierer als Filtereinheiten verbaut.


nur braucht man praktisch nie ungefilterte texursamples der trend geht sogar eher weg von lookup-tables zu vollständigen berechnungen.

dass der R600 mehr TAs als TFs hat lässt eigentlich nur den schluss zu, dass die TAs verdammt billig sind. eventuell war der R600 ursprünglich sogar mit 32 TMUs gedacht (was er ja dringend benötigen würde), was aber wieder verworfen wurde da der chip für die 80nm-fertigung dann einfach zu groß wäre. so hat man schlussendlich nur die teuren TFs entfernt und die billigen TAs drinnengelassen.

Nightspider
2007-08-30, 17:58:22
War das Tapeout vom G92 nicht vor wenigen Wochen, wäre es nicht möglich das das Tapeout vom G90 auch bald folgt ?

Es kann ja sein, dass NV den "Großen" erst im Dezember in freie Wildbahn entlassen will.

AnarchX
2007-08-30, 20:34:21
btw.
Bei Cnet gibt es wohl morgen ein Interview mit dem Produktmanger der GF8/9 Serie (http://vga.zol.com.cn/topic/636500.html), da gibt es dieses Bild:
http://www.directupload.com/files/ozy2gzqzxjjmty4mnkle.jpg


Jetzt wurde es auf "G?? ????M" geändert. :uponder:

Hvoralek
2007-08-30, 20:53:44
klar wie soll sich auch was ändern?
ob die TAs jetzt da sind und nicht gebraucht werden oder garnicht da sind wird kaum einen unterschied machen. zudem reicht schon reine TF ohne AF damit die TAs kein flaschenhals mehr sein können (alternativ auch noch FP16-filterung)Ich nehme nicht an, dass da nicht voll trilinear gefiltert wurde, sodass G80 durch AF nicht so viel Leistung verlieren dürfte wie G84 und seinen Vorsprung ausbauen müsste.

dass der R600 mehr TAs als TFs hat lässt eigentlich nur den schluss zu, dass die TAs verdammt billig sind. eventuell war der R600 ursprünglich sogar mit 32 TMUs gedacht (was er ja dringend benötigen würde), was aber wieder verworfen wurde da der chip für die 80nm-fertigung dann einfach zu groß wäre. so hat man schlussendlich nur die teuren TFs entfernt und die billigen TAs drinnengelassen.Ja, klar: Wenn man einen Chip nicht so bauen kann, wie man möchte, lässt man einfach das Billigste drin (Adressierer und Sampler), auch wenn das alleine völlig überflüssig ist und man problemlos auch die Transistoren noch einsparen könnte. Nein, mehr noch: Man könnte ohne Einbußen auch die Hälfte der verbliebenen TAs entfernen und noch mehr Transistoren sparen, tut das aber nicht, weil die ja so schön billig sind. Und Nvidia scheint ja bei G84/86 auch Freude daran gefunden zu haben, Transistoren mit sinnlosen, aber billigen Schaltungen zu verpulvern, weil... G84 irgendwie noch 2mm² größer sein musste.

Ich kann mir das irgendwie schwer vorstellen. Es mag noch sein, dass ATI die Teile beim Streichen von TMUs nicht entfernen konnte (Tesselator ahoi). Aber ich sehe nicht, wieso man zwar die TFs, aber nicht die TAs und TSs entfernen können sollte. Und Nvidia hat die zusätzlichen TAs bei G84/G86 auf jeden Fall mutwillig verbaut.

Gast
2007-08-30, 21:19:56
Ich nehme nicht an, dass da nicht voll trilinear gefiltert wurde, sodass G80 durch AF nicht so viel Leistung verlieren dürfte wie G84 und seinen Vorsprung ausbauen müsste.


zumindest die 8800er serie filtert ohne AF immer voll-trilinear, so lange man den performanceregler nicht mindestens auf performance oder high-performance stellt.

aths
2007-08-30, 21:30:35
videokram kostet fast nix (<10Mio.) eine eigene einheit für die spezialfunktionen gibt es bereits, noch eine würde keinen sinn machen und an 2 MADDs glaub ich erst recht nicht, das MUL ist ja nur ein "abfallprodukt" der SFU.Des Interpolators.

Hvoralek
2007-08-30, 22:11:55
zumindest die 8800er serie filtert ohne AF immer voll-trilinear, so lange man den performanceregler nicht mindestens auf performance oder high-performance stellt.Unter "Quality" nur zum Teil (http://www.3dcenter.org/artikel/geforce_8800_gtx/index3.php).

Die gelbe Eule
2007-08-30, 22:14:07
8800 = HQ, alles andere wäre DAU verdächtig.

Ailuros
2007-08-30, 22:56:24
Unter "Quality" nur zum Teil (http://www.3dcenter.org/artikel/geforce_8800_gtx/index3.php).

Wobei der Leistungs-Unterschied zwischen HQ und Q so laecherlich ist, dass ich es an Deiner Stelle ueberhaupt nicht erwaehnen wuerde. Es wird ja wohl nicht allzu schwer sein den Slider auf HQ zu stellen oder?

Zu dem Dingsbums-Graph oben: ich sehe nirgends in diesem bis zu G80 wo sich die Transistoren-Anzahl innerhalb einer Generation so stark steigt wie mit diesem angeblichen G92/1000Mio.

dargo
2007-08-30, 23:11:50
Wobei der Leistungs-Unterschied zwischen HQ und Q so laecherlich ist, dass ich es an Deiner Stelle ueberhaupt nicht erwaehnen wuerde.
Naja, ich hatte schon (wenn mich nicht alles täuscht) mal 15-20% Vorteil für Q gemessen. Findest du das auch lächerlich?

Die gelbe Eule
2007-08-30, 23:13:29
Hast dann auch die Optimierungen ausgeschaltet? 20% wären wirklich sehr krass, habe das noch in in Reviews gesehen ...

Gast
2007-08-30, 23:13:44
Unter "Quality" nur zum Teil (http://www.3dcenter.org/artikel/geforce_8800_gtx/index3.php).


ließ nochmal durch was ich geschreiben habe: OHNE AF wird immer voll-trilinear gefiltert(bei Q-stellung), mit AF wird unter OGL immer und unter D3D wenn die "Trilineare Optimierung" aktiv ist brilinear gefiltert.

Gast
2007-08-30, 23:14:46
Naja, ich hatte schon (wenn mich nicht alles täuscht) mal 15-20% Vorteil für Q gemessen. Findest du das auch lächerlich?

beim G80? wo soll denn das der fall sein, halte ich zwar nicht für unmöglich aber sehr unwahrscheinlich.

Ailuros
2007-08-30, 23:20:32
Naja, ich hatte schon (wenn mich nicht alles täuscht) mal 15-20% Vorteil für Q gemessen. Findest du das auch lächerlich?

Im extremsten Fall fuer Leute mit einem Koller fuer ultra-extreme Falle schon. Das heisst aber dann bitte bis zu (und es sind ganz genau genommen -17%, wobei im Vergleich eine R5x0 im gleichen Fall bis zu -50% einbricht um es auf den Punkt zu bringen) und keinesfalls im Durchschnitt.

Und ja selbstverstaendlich finde ich den Unterschied laecherlich, denn der wahre Durchschnitt beinflusst generell nicht die Spielbarkeit.

dargo
2007-08-30, 23:21:16
beim G80? wo soll denn das der fall sein, halte ich zwar nicht für unmöglich aber sehr unwahrscheinlich.
Ja, in TDU. Ich werde es nochmal genau messen. :)

Hast dann auch die Optimierungen ausgeschaltet? 20% wären wirklich sehr krass, habe das noch in in Reviews gesehen ...
Was für Optimierungen? HQ bedeutet anisotrop und trilinear Optimierungen "off". Ich kenne sonst keine Optimierungen.

Edit:
Es sind ~15% Verlust. Das ganze in 1280x1024 4xMSAA/16xAF, max. Details
HQ
http://multipics.net/img/TestDriveUnlimited2007-08-3023-ho51.jpg (http://multipics.net/?img=TestDriveUnlimited2007-08-3023-ho51.jpg)

Q
http://multipics.net/img/TestDriveUnlimited2007-08-3023-cha1.jpg (http://multipics.net/?img=TestDriveUnlimited2007-08-3023-cha1.jpg)

Nicht wundern, dass die beiden Bilder minimal zeitversetzt gemacht wurden. Die Framerate war durchgehend konstant.

Hvoralek
2007-08-31, 09:46:07
ließ nochmal durch was ich geschreiben habe: OHNE AF wird immer voll-trilinear gefiltert(bei Q-stellung), mit AF wird unter OGL immer und unter D3D wenn die "Trilineare Optimierung" aktiv ist brilinear gefiltert.Hast Du dafür eine Quelle?

Und dann nochmal: Wenn also immer entweder trilinear oder/ und anisotrop gefilter wird und demnach eine TA für zwei TFs immer ausreicht, warum verpulvert Nvidia dann bei G84 die Transistoren für die zusätzlichen TAs? Und warum sollten sie es bei G92 nicht tun?

mike49
2007-08-31, 11:33:43
Sorry, aber was hat denn diese abgelutschte AF-Diskussion jetzt mit dem G9x zu tun???

Hvoralek
2007-08-31, 11:41:34
Sorry, aber was hat denn diese abgelutschte AF-Diskussion jetzt mit dem G9x zu tun???Es geht um den Sinn oder Unsinn, die TMUs von G9x gegenüber denen von G80 auf ähnliche Weise zu erweitern wie bei G84.

Ailuros
2007-08-31, 12:35:32
Da die >50GTexels Fuellrate die momentan im Netz kursiert doch wahres an sich hat, rechnet NV diese Fuellrate wohl ebenso wie beim G80 aus. 32*800*2 = 51,2 ;)

Hvoralek
2007-08-31, 12:55:14
Da die >50GTexels Fuellrate die momentan im Netz kursiert doch wahres an sich hat, rechnet NV diese Fuellrate wohl ebenso wie beim G80 aus. 32*800*2 = 51,2 ;)Das heißt dann wohl: keine G84- TMUs, aber auch kein 1- Mrd- Transistor- Chip.

AnarchX
2007-08-31, 12:58:32
Beim G80 zählt NV auch doch die maximale Füllrate, welche durch die 64 bzw. 48 TMUs möglich ist, also schliesst es keine 8 TAUs pro TCP beim G92 aus.

Imo wird man beim G92 schon auf 32 TAUs aufbohren um hier mit dem RV670 gleichzuziehen und um sich mehr vom G84/G96(?) abzusetzen.

Ailuros
2007-08-31, 13:00:21
Das heißt dann wohl, keine G84- TMUs, aber auch kein 1- Mrd- Transistor- Chip.

Fuer's erste bin ich vorruebergehend lieber vorsichtig; fuer's zweite sagte ich ja schon dass die Transistoren-Anzahl innerhalb einer Generation bis jetzt nie so starg gestiegen ist fuer single chip Loesungen.

Bei einer moeglichen GX2 Loesung dann aber schon ;)

Ailuros
2007-08-31, 13:03:14
Imo wird man beim G92 schon auf 32 TAUs aufbohren um hier mit dem RV670 gleichzuziehen und um sich mehr vom G84/G96(?) abzusetzen.

Wahrscheinlich ja zum letzten; fuer's fettgedruckte = :|

AnarchX
2007-08-31, 13:08:17
Wahrscheinlich ja zum letzten; fuer's fettgedruckte = :|

Der soll doch bis auf den MC gleich zum R600 aufgebaut sein, also halt auch 32 TAUs?
Aber natürlich war das mit dem gleichziehen eher unglücklich gedacht, so würde ja der 32 TAU G92 wohl auf ~20GT in synthetischen Tests kommen während RV670 weiterhin bei ~13GT hängt, da er nur 16 TMUs hat.

Die gelbe Eule
2007-08-31, 13:13:58
Man bringt wohl erst den G92 der stärker als die X2900XT ist und das zum gleichen Preis. Wenn dann ATi nachzieht pappt man einfach zwei G92 zusammen (wohl etwas abgespeckt) und schon liegt man wieder vorne. Danach kann man in Ruhe den G90 kommen lassen, welcher aber dann locker über der GX liegen muss. ATi steht dann da, weil zu spät und nix entgegenzusetzen.

w0mbat
2007-08-31, 13:17:30
Dann bringt ATI den R670.

dargo
2007-08-31, 13:21:02
Fuer's erste bin ich vorruebergehend lieber vorsichtig; fuer's zweite sagte ich ja schon dass die Transistoren-Anzahl innerhalb einer Generation bis jetzt nie so starg gestiegen ist fuer single chip Loesungen.

Bei einer moeglichen GX2 Loesung dann aber schon ;)
Kannst du schon was zur Transistor-Anzahl vom G92 sagen? ~500 Millionen?

Ailuros
2007-08-31, 13:43:34
Dann bringt ATI den R670.

Und was genau ist Deiner Meinung nach ein "R670"?

AnarchX
2007-08-31, 13:45:04
Close to 1 TFLOP :D

Anarchy-HWLUXX
2007-08-31, 14:08:51
Close to 1 TFLOP :D

In CF ...

Ailuros
2007-08-31, 14:37:28
Close to 1 TFLOP :D

no shit! :eek::biggrin:

w0mbat
2007-08-31, 15:26:53
In CF ...

Nein, zwei R670 im CF würden dann wohl Close to 2TFLOPS bringen :tongue:

Gast
2007-08-31, 19:45:43
Nein, zwei R670 im CF würden dann wohl Close to 2TFLOPS bringen :tongue:
Wird auch langsam Zeit. Wir brauchen endlich einen Chip mit (mal wieder) dreifacher ALU-Anzahl. So ein Ungleichgewicht wie bisher geht ja auf keine Kuhhaut. Was zukünftige Spiele brauchen, sind 960 MADD-ALUS 16 TMUs mit single-clycle fp32 und mindestens 1024 Bit Bus. ROPs oder so braucht man dagegen kaum noch.

Gast
2007-08-31, 20:04:26
Wird auch langsam Zeit. Wir brauchen endlich einen Chip mit (mal wieder) dreifacher ALU-Anzahl. So ein Ungleichgewicht wie bisher geht ja auf keine Kuhhaut. Was zukünftige Spiele brauchen, sind 960 MADD-ALUS 16 TMUs mit single-clycle fp32 und mindestens 1024 Bit Bus. ROPs oder so braucht man dagegen kaum noch.

Man sieht, dass du eine verzerrte Vorstellung hast.

Ergo:
Troll woanders rum...


mfg Nakai

Ailuros
2007-08-31, 20:19:10
Man sieht, dass du eine verzerrte Vorstellung hast.

Ergo:
Troll woanders rum...


mfg Nakai

Trotz seiner absichtlichen Uebertreibungen hat er gute Chancen Recht zu haben. Ein R6x0-Refresh der rein hypothetisch 1TFLOP erreichen sollte, klingt keinesfalls nach einer balancierten Loesung ausser man schiesst die Transistoren-anzahl und den Stromverbrauch zur Decke raus. Deshalb fragte ich wombat auch was er sich unter dem angeblichen R670 genau vorstellt.

1 TFLOP sagt mir ueberhaupt nichts; die kann AMD auch locker mit 6 clusters@1000MHz erreichen. Hat man jetzt fuer solch ein Ding 4 TMUs bzw. ROPs pro cluster, hat man dann die bisherigen R600 "Wehwechen" geloest oder man hat nur etwas gleiches aber schnelleres entwickelt?

***edit: um es klarer zu machen; handelt es sich bei G92 tatsaechlich um eine single chip Loesung dann hoechstwahrscheinlich:

128*3*2.4GHz = 920GFLOPs
64*800 = 51,2 GTexels/s bi/AF
24*800*4 = 76.8 GPixels 4xMSAA

Das ganze Paket jetzt mit bei weitem hoeherer Bandbreite als 120GB/s und >16 coverage AA.

Ich nehme gern den dritten FLOP wieder weg und sage realistischere 614GFLOPs, wieviele TMUs/ROPs braucht denn AMD um die anderen Raten zu erreichen? Wobei ich ernsthaft hoffe dass diesmal AMD klug genug ist und die R600 ROPs gleich ganz zum Fenster rausschmeisst.

AnarchX
2007-08-31, 20:27:10
Sollte doch nicht so schwierig nachvollziehbar sein, wie man diese ~1TFLOPs erreichen kann ohne einen Monsterchip zu bauen, der Gefahr läuft sich wieder massiv zu verspäten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366355
-> 2x RV670(=R600 mit 256Bit-MC + DX10.1 @55nm)

Zudem spricht man wohl in internen Cat.-Roadmaps von Quad/Tripod-Support für Ende 2007.

Also könnt es wohl darauf hinauslaufen, dass sich Anfang 2008 zwei Dual-GPU-Lösungen gegenüberstehen.

Ailuros
2007-08-31, 20:30:29
Anfang 2008? errrr.....:|

AnarchX
2007-08-31, 20:35:57
Anfang 2008? errrr.....:|

Eben im Sinne, dass zu diesem Zeitpunkt beide Lösungen auf jeden Fall den Markt erreicht haben sollten, falls es bei RV670 wegen 55nm Probleme geben sollte.

Ailuros
2007-08-31, 20:50:18
G92 wird (wenn die letzten Einzelheiten problemlos ablaufen) tatsaechlich noch im November antanzen.

In der Roadmap von vr-zone (die auch ziemlich alt ist) steht P fuer "projected" fuer Januar 2008 drin.

Gast
2007-08-31, 21:44:25
Hast Du dafür eine Quelle?

meine 8800GTS.

Ailuros
2007-08-31, 23:11:52
Kannst du schon was zur Transistor-Anzahl vom G92 sagen? ~500 Millionen?

Das stoerende an der Sache ist, dass vieles dass ich hier ausspucke auf andere Foren wie B3D weitergetragen wird. B3D als Beispiel ist ziemlich heikel mit solchen Einzelheiten, hauptsaechlich weil sie Angst haben von NV Stunk zu bekommen. Wavey ist zwar nicht mehr da, aber alte Wunden heilen nicht so schnell wie manche denken.

Gast
2007-08-31, 23:31:25
Wenn das Teil im November vorgestellt wird, wann kann man es dann kaufen?

Und ist es ungünstig, gleich beim Release zu kaufen?

Neosix
2007-09-01, 00:03:28
ungünsitg? neeeeein. aber du bezahlst locker bis zu 100-200€ drauf. wegen schlechter verfügbarkeit sind die ersten preise meist mondpreise.

(+44)
2007-09-01, 00:15:25
Nicht, wenn es ein Midrange-Chip wird, der kostet ja vielleicht nur 250-300.

Beim Release der 8800GTX trafen ca. 100€ zu, viel mehr aber auch nicht.

mapel110
2007-09-01, 00:27:49
Wenn das Teil im November vorgestellt wird, wann kann man es dann kaufen?

Also alles andere als ein Hardlaunch wäre ziemlich peinlich, vorallem aber auch sehr unnötig mangels Konkurrenz.

BlackBirdSR
2007-09-01, 08:13:53
Frage nach double precision im G92 kam hier auf.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5804566#post5804566

mapel110
2007-09-01, 08:19:32
Frage nach double precision im G92 kam hier auf.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5804566#post5804566
Irgendwie bin ich verwirrt. Du schreibst da bei SSE 32 bit. Ich hab aber schon öfters gelesen, dass SSE 64bittig ist und schon immer war. Und dann hab ich noch bei Computerbase auf einmal was von 128bit gelesen seit SSE1.
http://www.computerbase.de/news/hardware/prozessoren/amd/2007/august/amd_sse5_bulldozer/
Wie das klassische SSE arbeitet auch SSE5 auf 128 Bit breiten Registern,

:ucrazy4:

PCGH_Carsten
2007-09-01, 08:27:24
Irgendwie bin ich verwirrt. Du schreibst da bei SSE 32 bit. Ich hab aber schon öfters gelesen, dass SSE 64bittig ist und schon immer war. Und dann hab ich noch bei Computerbase auf einmal was von 128bit gelesen seit SSE1.
http://www.computerbase.de/news/hardware/prozessoren/amd/2007/august/amd_sse5_bulldozer/
Wie das klassische SSE arbeitet auch SSE5 auf 128 Bit breiten Registern,

:ucrazy4:
Die Register sind 128 Bit breit, das stimmt, aber: Jedes Register enthält 4 32-Bit Floats.

BlackBirdSR
2007-09-01, 09:02:19
Irgendwie bin ich verwirrt. Du schreibst da bei SSE 32 bit. Ich hab aber schon öfters gelesen, dass SSE 64bittig ist und schon immer war. Und dann hab ich noch bei Computerbase auf einmal was von 128bit gelesen seit SSE1.
http://www.computerbase.de/news/hardware/prozessoren/amd/2007/august/amd_sse5_bulldozer/
Wie das klassische SSE arbeitet auch SSE5 auf 128 Bit breiten Registern,

:ucrazy4:

Die Register sind alle 128Bit breit. Das gilt für SSE-SSE4 und wohl auch SSE5.
Das hat allerdings nichts mit der Genauigkeit oder den Datentypen zu tun.
Mit SSE eingeführt, kann man in das 128Bit Register ingesamt 4x32Bit Werte packen. Daher auch packed SSE, mit theoretisch 4-fachem Durchsatz ggü. x87.
SSE2 ermöglicht zusätzlich 2x64Bit Werte pro Register. Der Durchsatz halbiert sich also, ermöglicht aber höhere Genauigkeit. Wenn man es braucht toll, ansonsten sind natürlich auch 4x32Bit möglich. Und gerade bei Physik in Spielen scheint das mehr als ausreichend momentan.
128 Bit breite Datentypen würden wenig Sinn machen. Der Durchsatz sinkt auf 1 relativ gesehen, die Latenz steigt an und die wenigsten Prgramme auf dieser Welt brauchen das unbedingt.

Gast
2007-09-01, 15:01:07
Also alles andere als ein Hardlaunch wäre ziemlich peinlich, vorallem aber auch sehr unnötig mangels Konkurrenz.

Was meinst du mit Hardlaunch?

dargo
2007-09-01, 15:15:34
Was meinst du mit Hardlaunch?
Dass die Hardware sofort verfügbar ist. Genau das Gegenteil vom Paperlaunch.

Gast
2007-09-02, 14:06:24
Es sollte doch am Fr. ein Interview mit dem Productmanager von nVidia stattfinden...auf zol.com.cn war das glaub ich. Weiß jemand was herausgekommen ist?

Gast
2007-09-02, 14:53:28
Meinste das hier: http://vga.zol.com.cn/topic/636500.html

Kann leider kein Mandarin...

Gast
2007-09-02, 17:10:23
jep genau das. wär ja mal interessant was da gesagt wurde.
naja, wenn neuigkeiten dabei waren werden wir es schon noch erfahren. ist ja auch noch wochenende ;)

Gast
2007-09-03, 12:05:21
Er hat gesagt dass nvidia-karten viel besser sind als die von ATi. und man soll sich doch lieber nvidia karten kaufen und mit nvidia hat man viel längere balken, sagar den längsten balken überhaupt.

Naja, sowas wird er wohl gesagt haben

Gast
2007-09-03, 20:59:06
kA was man davon halten soll:
http://forums.vr-zone.com/showthread.php?t=183032

nvidia scheint es spaß zu machen die leute zappeln zu lassen.

AnarchX
2007-09-03, 21:03:25
Leider kann man es nicht validieren, da der betreffende Thread nur einem kleinen Kreis zugänglich ist:
http://we.pcinlife.com/thread-815475-1-2.html

Aber mittlerweile bezweifele ich eher 6 TCPs.

Gast
2007-09-03, 22:00:37
warum interessiert euch überhaupt der g92 ?

Nakai
2007-09-03, 22:50:26
Gute Leistung bei niedrigem Stromverbrauch.

mfg Nakai

€: Aber mittlerweile bezweifele ich eher 6 TCPs.

4 TCPs sind bei diesem hohen Takt und einigen Neuerungen mehr als genug.

Bond2k
2007-09-04, 19:32:14
kA was man davon halten soll:
http://forums.vr-zone.com/showthread.php?t=183032

nvidia scheint es spaß zu machen die leute zappeln zu lassen.

Wieviel wurde denn mit der GTX erreicht?

Gast
2007-09-04, 19:36:03
Aber mittlerweile bezweifele ich eher 6 TCPs.

6TCPs sind entweder zu viel oder zu wenig. damit würde man mit entsprechenden taktraten ja schon GTX-leistung erreichen, das wäre für eine midrange-karte doch zu viel.

AnarchX
2007-09-04, 19:48:59
Genau das ist das Problem, deshalb wird es wohl eher ein kleiner Chip mit höheren Taktraten, der nur die 8800GTS ersetzt.

Bei PCinlife gibt es auch ein paar interessante Daten (http://we.pcinlife.com/thread-817895-1-1.html), die zwar als Fake von einem Mod. betitelt wurden, aber in gewisser Sicht durchaus Sinn machen.

G92 (könnte G92"GT" sein)
740MHz
64 SPs
256BIT DDR3 1800MHZ 512MB
Stromverbrauch zwischen 7900GS und GTX
9.7k 3DM06 @ QX6700
249-299 USD


G98(?, wohl eher nicht da dieser ja der Entry-Chip sein soll)
800MHz
32SPs
256BIT DDR3 1600MHZ 512MB
höherer Stromverbrauch als 8600GTS
7.4k 3DM06 @ QX6700
169-199 USD

Vielleicht eine Vorschau auf G96 oder eine taktstärkere Version des G84(die spekulierte GF8700 ;)), was aber sehr seltsam wäre.

Natürlich kann es wie der Mod anmerkt auch nur alles erfunden sein, aber in gewissen Punkt klingen diese Daten gar nichmal so realitätsfern.

Gast
2007-09-04, 19:59:18
256bit beim G98? sicher nicht

beim G92 denke ich auch eher an 800+MHz und 2000+MHz für den shader-clock beim topmodell.

damit sollte man sich zwischen 8800GTS und 8800GTX positionieren können.

AnarchX
2007-09-04, 20:09:34
256bit beim G98? sicher nicht


Wie schon gesagt, würde ich die Daten auch nicht eher auf G98 beziehen.

Aber natürlich sind 256Bit eher Unsinn, diese wird es wohl auch in Zukunft nicht beim Mainstream bzw. unterem Mid-Range geben, mit GDDR5 kann man ja in 2008 dann wieder mal gut die Bandbreite gegenüber G84GTS verdoppeln.

Darüber könnte sich wohl 256Bit auch noch sehr lange halten, bzw. 2x256Bit bei Multi-GPU-Lösungen.

Gast
2007-09-04, 20:47:10
was soll das mit den bezeichnungen,wäre der nächste chip mit ner 90zahl nicht 90 und dann die kleinen 92 usw ?

Coda
2007-09-04, 20:53:41
6TCPs sind entweder zu viel oder zu wenig. damit würde man mit entsprechenden taktraten ja schon GTX-leistung erreichen, das wäre für eine midrange-karte doch zu viel.
Nicht wenn die Highend-Karte GX2 heißt. Manche Tesla-Ankündigungen sprechen sehr deutlich dafür meiner Meinung nach.

AnarchX
2007-09-04, 21:03:24
Mal noch ein paar "Spekulationen", die von PHK kommen, der eigentlich für alle Leaks in der nahen Vergangenheit verantwortlich war:

- G92 soll 6 TPCs haben @ 1.6GHz SC (bei der arithtmetischen Leistung entspräche dies ja 4 TPC @ 2.4GHz)
-10k+ im 3DM06
- die Flagschiffversion soll aus zwei G92-Dies auf einem Package bestehen (:|, macht nicht viel Sinn, ausser NV geht wirklich den nächsten Schritt)
- Flagschiffversion soll eben 1 TFLOPs erreichen
-800Mhz Takt für TMUs/ROPs
-G92"GX2" soll Hybrid-SLI unterstützen, wodurch unter "2D" nur ein Core aktiv ist
-auch scheint es wohl ein Dokument zu geben, welches diese Daten listet

keine Gewähr für Richtigkeit, Original ist zum Teil chinesisch

Coda
2007-09-04, 21:06:32
2 Dies auf einem Package machen nur Sinn wenn man wirklich dringend Platz sparen muss oder SLI irgendwie stark erweitert hat. Weil dann hat man das Problem von einer Stelle aus ein 512-Bit-SI auf das Board packen zu müssen wie bei R5xx.

Aber für unmöglich halte ich die Möglichkeit nicht.

AnarchX
2007-09-04, 21:10:48
Weil dann hat man das Problem von einer Stelle aus ein 512-Bit-SI auf das Board packen zu müssen wie bei R5xx.


Genau das denke ich auch, dazu kommt ja noch der Umstand, dass man bei einer Sandwich-Lösung aller 79x0GX2 simplere PCBs einsetzen kann und beide Hotspots etwas getrennt hat.

Aber vielleicht kommt ja wirklich ein neuer SLI-Modus, der einen breiten Interconnect benötigt? TMUs/ROPs arbeiten im AFR, während ALUs in einem anderen Modus arbeiten?

Adam D.
2007-09-04, 21:13:27
Solch eine Leistung für 249-299$? Das wäre doch schon ordentlich :|

Gast
2007-09-04, 21:30:18
Aber vielleicht kommt ja wirklich ein neuer SLI-Modus, der einen breiten Interconnect benötigt? TMUs/ROPs arbeiten im AFR, während ALUs in einem anderen Modus arbeiten?

wie soll das gehen, die ALUs arbeiten ja nicht getrennt sondern verarbeiten die ausgangswerte der TMU.

AnarchX
2007-09-04, 21:35:38
wie soll das gehen, die ALUs arbeiten ja nicht getrennt sondern verarbeiten die ausgangswerte der TMU.

Das war nur eine fixe Idee ohne wirklichen Hintergrund.

Headman
2007-09-04, 21:56:26
Genau das denke ich auch, dazu kommt ja noch der Umstand, dass man bei einer Sandwich-Lösung aller 79x0GX2 simplere PCBs einsetzen kann und beide Hotspots etwas getrennt hat.


Dafür kann man bei Sandwichbauweise nur kleine 1 Slot Kühler verwenden und ich behaupte mal das ein großer Kühler àla 8800 GTX oder 2900XTX effizienter ist .

AnarchX
2007-09-04, 21:59:23
Dafür kann man bei Sandwichbauweise nur kleine 1 Slot Kühler verwenden und ich behaupte mal das ein großer Kühler àla 8800 GTX oder 2900XTX effizienter ist .

Nein, man könnte auch mit Heatpipes arbeiten:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5756384&postcount=639

Gast
2007-09-04, 22:05:58
Dafür kann man bei Sandwichbauweise nur kleine 1 Slot Kühler verwenden und ich behaupte mal das ein großer Kühler àla 8800 GTX oder 2900XTX effizienter ist .


nicht zwangsläufig, es wäre beispielsweise auch denkbar bei einer dual-pcb-bauweise die obere GPU auf der oberseite und die untere GPU an der unterseite des jeweiligen PCBs zu montieren. damit hätte man auf beiden seiten genug platz.

natürlich wird eine derartige karte dann ein wahres monster ;)

AnarchX
2007-09-05, 10:45:25
Mal noch ein paar Dinge zum G92-MCM(Dual-Die-Package):

補充一點別的東西: 兩顆G92該怎麼連接的問題,其實要回頭檢視G8x的TCP、以及CELL computing Board。

從CELL computinb Board的結構上、RSX對XDR存取的效率可以知道,線性對應定址、Cache coherency protocol做得好的話,一個GPU可以非常有效率地對另一個device的local memory作讀寫,所以其實我們大可把多數GPU用線性定址mapping串接起來,所以要是G92有512bit,那兩個G92就可以256bit對外、256bit 互接就可以了;而G92的單晶片產品只要封裝上不實作完整的512bit,就可以達到產品區隔。

當然實體層不見得是這樣,可是觀念應該很接近了:既然上層結構(TCP)已經做了切割,那麼要做的其實只是把TPC--ROP中間這段 corssbar跨晶片連結起來就可以。那麼前端FIFO workload的分配做好之後,所有的動作其實就都與Driver沒有關係,那連結效率就只剩底層I/O overhead,以及分離成兩塊的記憶體造成的一些零碎問題,但是這都可以解決(極端地來說對每塊ROP而言記憶體都是切塊分散的)。

用BR03對這部分也有一個明顯的好處:GPU BIOS其實在BR03上,對Host而言BR03後全部視為同一個GPU,除了能跨越BR03的NVIDIA之外。這對上述的實做法其實也是有利,只是沒搞錯的話目前Q uadro Plex靠的也是BR03,這顆晶片適合這樣像多層星形連結的方式嗎?這倒是還有疑問。
http://www.aiplus.idv.tw/blog/index.php?op=ViewArticle&articleId=1916&blogId=2

Add other things: how connected the two G92 problem, we have to look back G8x TCP, and the Cell computing Board.

Cell computinb Board from the structure, access to the RSX right XDR efficiency know, linear counterparts addressability, good Cache coherency protocol, a GPU can be very efficient to another device to read and write the local memory, so we can use the most GPU linear addressability mapping rods , so if a slave G92, G92 will be two external pipelines, pipelines can access each other; The G92 single-chip products, as long as the package is not a complete slave, we can meet product segmentation.

Of course, physical layer is not necessarily so, but the concept should be very close: Since the upper structure (TCP) has been done cutting, in fact, do so only to the TPC - this corssbar ROP middle-chip can be linked together. Then the front FIFO workload distribution in place, all the movements are in fact on the no relationship with Driver, the only link to the efficiency of the underlying I / O overhead, and separated into two memory caused some problems piecemeal, but this can be resolved (extreme right, and each block is credited ROP Recalling all of the cuts spread).

BR03 with this part also an obvious advantages: GPU BIOS BR03, in fact, right after all BR03 Host, the same as a GPU, in addition to leap from BR03 NVIDIA. This is in fact the above is beneficial, but it is not mistaken by the Quadro Plex is BR03, this chip for links such as multi-star way? This is also remains in doubt.

Leider übersetzt Google hier einiges etwa seltsam, so die "256Bit" mit pipeline.


Aber wenn das nicht nur Phantasien eines etwas technisch-bewanderten Mods@PCinlife sind, so wird wohl G92-MCM wirklich den nächsten Schritt gehen und hier Komunikation zwischen den GPUs herrschen, die neue Maßstäbe setzt.

Die gelbe Eule
2007-09-05, 11:00:00
Hmmm, wenn man mal alles zusammenträgt, soll der G92 nur knapp unter der GTX liegen, wäre also schneller als eine 8800GTS 640MB.

Bei angepeilten 0,5 TF müsste der Coretakt gegenüber einem GTS Design also ROPs/Shader/TMUs und unter 256bit brachial darüber liegen. Rechnet man MADD+MUL zusammen, so kommt man wohl locker in den nahen 1GHz Bereich, läßt man ROPs/Shader/TMUs unangetastet. Wie möchte man sonst die 0,5 TF erreichen?

Mit anderen Worten, ich glaube nicht daran, daß hier ein 256bit SI kommt, weil dann die Yieldrate sehr gut ausfallen muss, um solche Taktmonster fahren zu können, welche dann auch leistungsmäßig den Gerüchten folgen leisten müssten.

Gast
2007-09-05, 11:09:58
Das gute an schnellen Modellen über Taktselektion ist die Möglichkeit, langsamere Modelle sehr günstig hinzubekommen. Ganz im Gegensatz zu schnellen Modellen über vollaktive Einheiten und langsameren über abgeschaltete Blöcke.

Gast
2007-09-05, 11:10:37
nicht zwangsläufig, es wäre beispielsweise auch denkbar bei einer dual-pcb-bauweise die obere GPU auf der oberseite und die untere GPU an der unterseite des jeweiligen PCBs zu montieren. damit hätte man auf beiden seiten genug platz.

natürlich wird eine derartige karte dann ein wahres monster ;)
Und würde in viele Boards einfach wegen des NB-Kühlers gar nicht hineinpassen. Nein, das ist IMO keine Option.

Gast
2007-09-05, 11:11:41
2 Dies auf einem Package machen nur Sinn wenn man wirklich dringend Platz sparen muss oder SLI irgendwie stark erweitert hat. Weil dann hat man das Problem von einer Stelle aus ein 512-Bit-SI auf das Board packen zu müssen wie bei R5xx.

Aber für unmöglich halte ich die Möglichkeit nicht.
Das Package kann ggü. einem Single-Core-Package ja deutlich größer ausfallen, von daher sehe ich das Platzproblem nicht.

AnarchX
2007-09-05, 11:14:05
so kommt man wohl locker in den nahen 1GHz Bereich, läßt man ROPs/Shader/TMUs unangetastet. Wie möchte man sonst die 0,5 TF erreichen?


Ganz verstehe ich dich irgendwie nicht. :|

Du weißt aber schon, dass ROPs/TMUs und eben die SPs zwei verschieden Taktdomainen beim G8x-Design haben und auch unabhängig voneinander taktbar sind?

So brauch es bei 64SPs 2.6GHz für 500GFLOPs und bei 96SPs 1.73GHz in der Shaderdomain, aber es ist ja die rede von nahe einem TFLOPs, wo wieder die bekannten Möglichkeiten 64SP@2.4GHz und 96SP@1.6GHz in die Betrachtung kommen. ;)

Das Package kann ggü. einem Single-Core-Package ja deutlich größer ausfallen, von daher sehe ich das Platzproblem nicht.

Eher meint eher, dass diese MCM-Package-Karte deutlich kleiner wäre, als die bisherigen Modelle mit zwei GPUs. ;)

Gast
2007-09-05, 11:28:52
Eher meint eher, dass diese MCM-Package-Karte deutlich kleiner wäre, als die bisherigen Modelle mit zwei GPUs. ;)
JA, das ist eine seiner aufgezählten Möglichkeiten - Platz sparen braucht man bei ATX-Karten aber eher selten. Ich bezog mich eher auf den Teil: "Weil dann hat man das Problem von einer Stelle aus ein 512-Bit-SI auf das Board packen zu müssen wie bei R5xx."

AnarchX
2007-09-05, 11:40:12
Aber ein größeres Package wäre ja wieder etwas nachteilig, wenn man die beiden Chip schnell verbinden will. Naja, mal sehen was da NV im Geheimen so zusammenbraut...

Gast
2007-09-05, 11:50:41
Aber ein größeres Package wäre ja wieder etwas nachteilig, wenn man die beiden Chip schnell verbinden will. Naja, mal sehen was da NV im Geheimen so zusammenbraut...
Wir reden ja nicht von Tellergroß. Nur eben so groß, dass die Pads raufpassen. Zwei Zentimeter Abstand sind sicherlich nicht dramatisch für die mögliche Verbindungsgeschwindigkeit.

Ailuros
2007-09-05, 12:19:07
***edit: ich hab was ueberlesen; tschuldigung

Coda
2007-09-05, 14:54:22
Das Package kann ggü. einem Single-Core-Package ja deutlich größer ausfallen, von daher sehe ich das Platzproblem nicht.
Warum ist das so? Also wieso kann es nicht auch bei einem Die groß sein?

Gast
2007-09-05, 15:03:59
Warum ist das so? Also wieso kann es nicht auch bei einem Die groß sein?
Ist die Frage ernst gemeint?

Die gelbe Eule
2007-09-05, 15:20:03
Was die GX2 angeht, ATi hat doch auch 2 Dual Karten (aka HD2600XT Gemini) im Programm und auf das 8800 GTX PCB passen doch locker 2 Chips. Erfahrungen in dem Bereich haben doch Gigabyte und Asus, vielleicht fertigen die dann für alle Referenz PCBs.

Anarchy-HWLUXX
2007-09-05, 16:26:06
Was die GX2 angeht, ATi hat doch auch 2 Dual Karten (aka HD2600XT Gemini) im Programm und auf das 8800 GTX PCB passen doch locker 2 Chips. Erfahrungen in dem Bereich haben doch Gigabyte und Asus, vielleicht fertigen die dann für alle Referenz PCBs.

Die Karte darf aber nicht zu groß werden - maximal 8800GTX abmessungen ... da jetzt einfach mal so 2 GPUs, 16 RAM Chips und eine Stromversorgung für alles draufzubekommen ist sicher nicht einfach.

Bei ner GX2 hätte man eine viel kürzere Karte, folglich wär die Zahl der User mit zu kleinen Towern geringer.

-> Ich hab ne 7950GX2 und die passt gerade mal so in meinen Coolermaster Tower rein - das Powerkabel geht kuschelig eng an der HDD vorbei.

Die gelbe Eule
2007-09-05, 16:31:43
Zu Not kommen die BGAs auf die Rückseite. Und wenn man den RAM M-förmig verbaut, kommt man doch mindestens auf 12x64MB = 768MB. Passt dann auch zum 320bit SI.

Was die Kühlung angeht, kann man einfach ein paar mm in die Tiefe gehen, weil wenn der Radial größere Schaufeln hat, kann er mehr Luft umsetzen.

Stromversorgung ist kein Thema mehr, weil PCI-E 2.0 und schlimmer als eine 7800GT Dual wird sie kaum sein unter 65nm.

Anarchy-HWLUXX
2007-09-05, 17:17:23
Stromversorgung ist kein Thema mehr, weil PCI-E 2.0 und schlimmer als eine 7800GT Dual wird sie kaum sein unter 65nm.

Die 7800 Dual war mönströs BREIT - was mal komplett gegen alle GraKa Standards verstößt -> never.

Und ob PCIe 1.* oder 2.0, die Spannungswandler & sonstigen Bauteile brauchen Platz + Kühlung, und das net wenig wie man bei der 8800GTX sehen kann.

Hvoralek
2007-09-05, 17:51:04
Zu Not kommen die BGAs auf die Rückseite. Und wenn man den RAM M-förmig verbaut, kommt man doch mindestens auf 12x64MB = 768MB. Passt dann auch zum 320bit SI.Was für ein 320- bit- SI? Und dafür bräuchte man 10 Chips (bzw. 20 bei zwei GPUs) und nicht 12.

AnarchX
2007-09-05, 20:07:17
Nvidia G92 is GeForce 8700 GTS (http://www.vr-zone.com/?i=5236)
VR-Zone has learned more about the upcoming Nvidia G92 where the official marketing name is most likely to be GeForce 8700 GTS. As revealed earlier, G92 is 65nm based and has 256-bit memory bus width. The reference 8700 GTS card has 8-layer PCB and comes with 512MB GDDR3 1ns memories so the memory clock of G92 is estimated to be between 900Mhz to 1GHz. Core clock is unknown yet.

Hmm... :uponder:

Würde aber auch zu diesen G92-Specs passen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5814788#post5814788

Dass aber eine 8700GTS eine 8800GTS ersetzt ist eher auszuschliessen, also wird es wohl noch mehr G92-SKUs geben. ;)

dargo
2007-09-05, 20:30:45
Die Bezeichnung verwirrt mich etwas. Nach dieser müsste ja die G8700GTS langsamer sein als eine G8800GTS. Ich bin immer davon ausgegangen, dass der G92 leistungsmässig etwas unter der G8800GTX liegt.

Oder kommt da noch was schnelleres @G92?

Coda
2007-09-05, 21:08:36
Ist die Frage ernst gemeint?
Natürlich ist die Frage ernst gemeint. Warum sollte man die Traces auf einem Package nicht auch bei einem Die länger und damit das Packaging größer machen können?

nordic_pegasus
2007-09-05, 21:17:51
Nvidia G92 is GeForce 8700 GTS (http://www.vr-zone.com/?i=5236)


wenn jetzt noch der Stromverbrauch wie spekuliert sehr moderat ist... eine sehr gute Mainstream/Performance Karte

Gast
2007-09-05, 21:24:55
Wegen der Trace-Länge?? Du kannst nicht an einen Memory-Pad einen 1m langen Draht löten und an den anderen nur 1mm.

Coda
2007-09-05, 21:43:39
Kann man schon, wenn man auf dem Board dann mit Serpentinen-Routing gegensteuert.

Die gelbe Eule
2007-09-06, 01:41:15
Was für ein 320- bit- SI? Und dafür bräuchte man 10 Chips (bzw. 20 bei zwei GPUs) und nicht 12.

Warum 12? Es gibt 64MB Packages und 12x64 sind 768MB, wie auf der GTX verbaut. 4 links 4 oben 4 rechts, also 12. Bei einem 256bit SI würde man nur unnötig Platz verschwenden, wären 2 GPUs direkt nebeneinander.
Und bisher hat man in der Anordnung entweder 8 vorne oder zusätzlich noch 8 hinten gesehen. 16x32MB wären dann 512MB, sehr wahrscheinlich zu mager für Highend, wenn man doch bereits 768MB anbietet.

http://666kb.com/i/arkdndkxl3f73gob2.png


65nm sind einfacher zu kühlen als 90nm, da reicht dann auch ein Ultra Kühler mit der Länge des GTX PCB.

*edit*

Habs nochmal deutlicher gezeichnet. hier kommt man also locker mit dem GTX Design klar und packt einfach die zweite GPU dahinter.

Zum Vergleich 7800GT Dual:

http://www.golem.de/0509/40413-asus_en7800gt_dual.jpg

Da man nun die BGAs nach links versetzen kann, würde man die Komponenten welche die 7800GT Dual höher machten auf die gesparte Fläche verteilen und schon wäre die Karte auch nicht größer als eben eine GTX. Möglich wäre auch die BGAs hinten anzuordnen und vorne die GPU näher ranrücken zu lassen.

Gast
2007-09-06, 07:52:47
Kann man schon, wenn man auf dem Board dann mit Serpentinen-Routing gegensteuert.
Aber nur begrenzt, irgendwann tötest du dir die Signallaufzeiten damit. Und das ist bei Multi-Die und ergo größerem Package einfacher - besonders, da die Speicherchips oft sowieso L-förimig angeordnet sind.

Gast
2007-09-06, 10:39:09
kommt der G90 erst im Sommer 08 ?

prophet
2007-09-06, 10:42:19
G92 ist schön und gut, aber gibt es endlich was Neues zum Nachfolger von 8800 GTX/Ultra?

gruß,
prophet

Winter[Raven]
2007-09-06, 10:57:07
G92 ist schon und gut, aber gibt es endlich was Neues zum Nachfolger von 8800 GTX/Ultra?

gruß,
prophet

G100?

Kommt auf jeden Fall früher als R700... :biggrin:

Mehr gibts derzeit nicht zu wissen ...

AnarchX
2007-09-06, 11:02:29
G92 ist schon und gut, aber gibt es endlich was Neues zum Nachfolger von 8800 GTX/Ultra?


Da gibt es verschiedene Möglichkeiten:
- G92GX2, also eine simple Dual-Karte
- G92-Dual-Package mit Multi-GPU-Technologie der nächsten Ebene
- G90 im Frühjahr zusammen mit dem G96


@Winter[Raven]

AFAIK soll das doch der D3D11-Chip sein, was aber noch etwas weiter in der Zukunft(2009) ist und somit der R8xx eher ein Gegner sein könnte. R700 wird wohl eher noch ein verbessertes R600-Design mit D3D10.1 sein.

Gast
2007-09-06, 11:04:28
bei echten neuen highend will dann aber 512bit sehn und Dualcore

AnarchX
2007-09-06, 11:09:17
bei echten neuen highend will dann aber 512bit sehn und Dualcore

Das träfe auf meine Möglichkeiten Nr.1 und 2 ja zu. Beide 512Bit effektiv und "Dual-Core" mit zwei Dies ("Single-Die-Dualcore" ist bei GPUs sinnlos da man ja dann gleich über Funktionseinheiten skalieren kann)

Winter[Raven]
2007-09-06, 11:17:57
@Winter[Raven]

AFAIK soll das doch der D3D11-Chip sein, was aber noch etwas weiter in der Zukunft(2009) ist und somit der R8xx eher ein Gegner sein könnte. R700 wird wohl eher noch ein verbessertes R600-Design mit D3D10.1 sein.

Ahso, ja natürlich, der soll ne D3D11 (Danke für die richtige schreibweise ;), es gibt kein DX10^^).

Auliros erwähnte aber den G100 und R700 in einem Kontext ... also kann der G100 nicht 2009 kommen ;)

dargo
2007-09-06, 11:20:07
bei echten neuen highend will dann aber 512bit sehn und Dualcore
Was ist denn daran High-End? Gabs doch schon mit der G7950GX2. ;)

AnarchX
2007-09-06, 11:25:51
Seite 50 erreicht...


-> nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x - Teil 2 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5819120#post5819120)

:wink:

Nahaz
2007-09-06, 11:30:40
Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5819120#post5819120) gehts weiter. :)