PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 9: 9800GTX und GX2 Teil 2


Seiten : 1 2 [3] 4 5

Fallacy
2008-02-24, 21:20:17
Es ist eine Frage der Spieleauswahl. Würde man ein Rating von den Spielen auf HT4U machen, käme man wohl auf über 20%.

Genau aus diesem Grund führen wir ein solches "Ranking" bei uns in dieser Art nicht ein. Es mag auf den ersten Blick eine Erleichterung für den Leser darstellen, weil er nur noch ein Diagram klicken muss. Aber ob man mit 10-15 Benchmarks auf eine "generelle 3D-Performance" schließen kann ist eben mehr als fraglich. Und wie man hier auch schön sieht, wird das von vielen leider so gehandhabt.

Grüße
Leander - HT4U

GeneralHanno
2008-02-24, 21:35:04
Nvidia hat schon 4 Singel GPU Karten die schneller sind.

aber keine davon (die nicht schon EOL ist) beherrscht tri-sli ;)

James Ryan
2008-02-25, 06:00:13
Sagt mal, die Gf 9800 GTX wird mit 675/1100 MHz und 512 MB wohl kaum schneller sein als eine Gf 8800 GTX... würde es sich nicht mehr lohnen, letztere zu kaufen? ;)

MfG :cool:

Ailuros
2008-02-25, 06:17:43
Sagt mal, die Gf 9800 GTX wird mit 675/1100 MHz und 512 MB wohl kaum schneller sein als eine Gf 8800 GTX... würde es sich nicht mehr lohnen, letztere zu kaufen? ;)

MfG :cool:


Fuer die Faelle wo bei der ersten VRAM auslaeuft wohl ja. Wenn das Zeug stimmt, dann hat NVIDIA natuerlich einen Vogel fuer die Namensgebung. Nur marginal schneller in den meisten Faellen und VP2 verdienen bei weitem nicht den 9800 Unsinn.

Gast
2008-02-25, 10:16:59
Geforce 9800GX2 to cost $599:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5874&Itemid=1

dargo
2008-02-25, 10:52:14
Geforce 9800GX2 to cost $599:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5874&Itemid=1
Tja, dann waren die 449$ wohl nur ein Gerücht.

AnarchX
2008-02-25, 12:13:46
Tja, dann waren die 449$ wohl nur ein Gerücht.
Wohl eher ein alter Preis, als man die 3870X2 wohlmöglich noch stärker einschätzte und diese für deutlich <$400 spekuliert wurde.
Aber so sind die ~500€ inkl. MwSt. doch recht in Ordnung für dieses Onecard-SLI-System.

Gast
2008-02-25, 12:20:37
Und wer soll das Ding kaufen? Zwei 8800GTS, die schneller sind, bekommt man billiger.

dargo
2008-02-25, 12:22:38
Und wer soll das Ding kaufen?
Die, die kein entsprechendes NV Brett haben. ;)

AnarchX
2008-02-25, 12:22:55
Und wer soll das Ding kaufen? Zwei 8800GTS, die schneller sind, bekommt man billiger.
Naja, das billiger relativiert sich ganz schnell dadurch, dass man ein SLI-Board benötigt.

GeneralHanno
2008-02-25, 15:46:44
dann wird nvidias line-up wohl so aussehen:

9800GX2, 2*G92(8C)@600Mhz, 2*512MiB GDDR3(1,0ns)@2Ghz, Sli-onboard, dualslot, 599$

9800GTX, G92(8C)@675Mhz, 512MiB GDDR3(0,83ns)@2200(+)Ghz, TSLI, dualslot, 399$

9800GT, G92(7C)@600(625/650)Mhz, 512MiB GDDR3(1,0ns)@2Ghz, singelslot, (249/299)$

9600GT, G94(4C)@650Mhz, 512/256 GDDR3(1,0ns)@1,8Ghz, singelslot, 189$/169$

James Ryan
2008-02-25, 16:11:44
dann wird nvidias line-up wohl so aussehen:

9800GX2, 2*G92(8C)@600Mhz, 2*512MiB GDDR3(1,0ns)@2Ghz, Sli-onboard, dualslot, 599$

9800GTX, G92(8C)@675Mhz, 512MiB GDDR3(0,83ns)@2200(+)Ghz, TSLI, dualslot, 399$

9800GT, G92(7C)@600(625/650)Mhz, 512MiB GDDR3(1,0ns)@2Ghz, singelslot, (249/299)$

9600GT, G94(4C)@650Mhz, 512/256 GDDR3(1,0ns)@1,8Ghz, singelslot, 189$/169$

Ganz schön traurig, vor allem da es eine G92-GTS für ~210€ lieferbar gibt.
Die Gf 9800 GTX ist maßlos überteuert!

MfG :cool:

Anarchy-HWLUXX
2008-02-25, 16:18:35
Ganz schön traurig, vor allem da es eine G92-GTS für ~210€ lieferbar gibt.
Die Gf 9800 GTX ist maßlos überteuert!

MfG :cool:
Das ist ne sehr komige "no-name Karte" die man nur bei einer Kette bekommt die sich in der vergangenheit alles andere als Kundenfreundlich aufgeführt hat.

Normaler Preis ist immernoch 230-250€

GeneralHanno
2008-02-25, 16:19:31
es ist offensichtlich, dass man den namen GF9xxx vornehmlich deshalb gewählt hat, um für eigentlich alte produkte (geshrikte G8x) neue hohe preise zu rechtfertigen ...

€dit:
noch ein paar infos zur 9800GTX:
http://www.pcgameshardware.de/aid,633593/News/Geforce_9800GTX_Angeblich_aehnlicher_Kuehler_wie_8800GTS/
- neues (längeres PCB), vermutlich wegen tri-sli
- (leicht modifizierter?) GTS-512 kühlkörper

Anarchy-HWLUXX
2008-02-25, 16:27:17
es ist offensichtlich, dass man den namen GF9xxx vornehmlich deshalb gewählt hat, um für eigentlich alte produkte (geshrikte G8x) neue hohe preise zu rechtfertigen ...

... genauso wie bei den HD38** ... sind ja auch langsamer als ide 2900. Dieses GF9* gebashe geht mir auf den sack. Man kann sich nicht Marketingteschnisch in den fuß schiessen nur weil es theoretisch technisch gesehen eher zu trifft, was den großteil der endkunden allerdings net interessiert, da zählt das PLV. Hätte nV alle G9* als GF9 angeboten hätten mer die diskussion garnicht.

Ajo -

9800GTX mit 8800GTS kühler ???
http://en.expreview.com/?p=276

Längenvergleich - 9800GX2 == 3870X2 ( == 9800GTX ??? )
http://en.expreview.com/?p=275

Argh - zu lahm. Dafür hab ich die Orginal quelle und net die abtipper ;)

James Ryan
2008-02-25, 16:52:15
Das ist ne sehr komige "no-name Karte" die man nur bei einer Kette bekommt die sich in der vergangenheit alles andere als Kundenfreundlich aufgeführt hat.

Normaler Preis ist immernoch 230-250€

Immernoch deutlich günstiger als die 350€ für die GTX. ;)
Ich glaube momentan ist es am günstigsten abzuwarten und falls die Gf 9800 GTX wirklich so "schwach" ausfallen wird, sich eine G92-Gf 8800 GTS für ~210-220€ zu kaufen.

MfG :cool:

GeneralHanno
2008-02-25, 16:55:54
sehe ich auch so.

gerade wenn die 8800GT(S) dann EOL ist (dürfte in 2 monaten soweit sein), dann wird sie sicherlich noch ein stück günstiger. und dann zahlt man tatsächlich nur für den namen GF9 50€ mehr !

Gast
2008-02-25, 17:53:38
... genauso wie bei den HD38** ... sind ja auch langsamer als ide 2900.
HD3870 ist schneller... D3D10.1 und PowerPlay sind zumindest ein paar Argumente für einen neuen Namen und das neue Namensschema, obwohl doch sehr grenzwertig. Bei NV ist es reines Marketing ;)

Immernoch deutlich günstiger als die 350€ für die GTX. ;)
Ich glaube momentan ist es am günstigsten abzuwarten und falls die Gf 9800 GTX wirklich so "schwach" ausfallen wird, sich eine G92-Gf 8800 GTS für ~210-220€ zu kaufen.

Ja so siehts aus. Ich hoffe dass RV7x0 stark ist und bald antanzt, denn werden wenigstens die Preise wieder fairer ;)

9800ProZwerg
2008-02-25, 18:03:18
würde es sich nicht mehr lohnen, letztere zu kaufen? ;)


Tja, das ist ja das schöne!
So kann man sich ne gebrauchte 8800GTX holen, die dann auf fast 8800 Ultra Niveau bringen und muss sich das ganze geeiere um die GF9XXX nicht antun:wink:

Hakim
2008-02-25, 18:05:21
sry habe net alles jetzt durchgelesen. Wird die 98gtx gegenüber den den anderen G92 chips etwas verbessert? 16 ROPs, 256 Bit SI, 512 MB Vram und 128 Shadereinheiten?

Gast
2008-02-25, 18:10:13
sry habe net alles jetzt durchgelesen. Wird die 98gtx gegenüber den den anderen G92 chips etwas verbessert? 16 ROPs, 256 Bit SI, 512 MB Vram und 128 Shadereinheiten?
Das ist die 100000€-Frage! Wie es im Moment aussieht, unterscheidet sich die 9800GTX von der 8800GTS nur durch etwas höheren Takt, dezent schnelleren Speicher, Triple-SLI und HybridPower-Fähigkeit, sogar der Kühler und Speichermenge bleiben gleich.

Offiziell ist noch nichts...

Gast
2008-02-25, 18:25:15
Immernoch deutlich günstiger als die 350€ für die GTX. ;)

8800 GTX gibts ab 280€! ;)

reunion
2008-02-25, 18:29:57
Schon bekannt?
http://www.vr-zone.com/articles/GeForce_9800_GTX_Card_Photos_%26_Specs_Unveiled/5599.html

12 Layer PCB, welches satte 10.5" lang ist, 168W TDP und die Taktraten liegen bei 673/1683 mit 512MB GDDR3. Der Lüfter erreicht max. 2900rpm. Lächerlich für eine 9800GTX IMHO.

w0mbat
2008-02-25, 18:34:20
Toll!

[/ironie]

reunion
2008-02-25, 18:37:36
Klar. 800MHz sind möglich, wenn man die 180Watt in Kauf nimmt.
Asus und EVGA bieten Karten mit 740/1835 bzw. 1800MHz an. Und 800Mhz sollten nicht erreichbar sein? :confused:

OC-Karten kann man nicht als Maßstab für Serienkarten nehmen. Die 673Mhz für die 9800GTX sprechen eine mehr als deutliche Sprache wie weit man gehen kann. Zudem bedarf es wohl wesentlich weniger als 800Mhz Coretakt für die 180W TDP.

reunion,

Was glaubst du? Will oder kann NVIDIA den Takt nicht höher setzen?

Ich sehe zumindest keinen Sinn darin eine 9800GTX unnötig auszubremsen.

AnarchX
2008-02-25, 18:40:30
Schon bekannt?
http://www.vr-zone.com/articles/GeForce_9800_GTX_Card_Photos_%26_Specs_Unveiled/5599.html

12 Layer PCB, welches satte 10.5" lang ist, 168W TDP und die Taktraten liegen bei 673/1683 mit 512MB GDDR3. Der Lüfter erreicht max. 2900rpm. Lächerlich für eine 9800GTX IMHO.

In der Tat, wobei ich mich ernsthaft frage wofür das Teil 12 Layer (wie die G80GTX mit 384Bit und NVIO) benötigt und warum für die 4% mehr GPU-Takt und dem eigentlich energieeffizienten 0.83ns GDDR3 die TDP gegenüber die 88GTS512 um 28W ansteigt. :|

Captain Future
2008-02-25, 18:42:23
Ich sehe zumindest keinen Sinn darin eine 9800GTX unnötig auszubremsen.
ich meinte bisher. was noch nicht aufm markt ist, sollte man nicht in stein meisseln

Anarchy-HWLUXX
2008-02-25, 18:42:36
HD3870 ist schneller... D3D10.1 und PowerPlay sind zumindest ein paar Argumente für einen neuen Namen und das neue Namensschema, obwohl doch sehr grenzwertig. Bei NV ist es reines Marketing ;)


Für den enduser ist DX10.1 belanglos - jedenfalls für absehbarfe zeit und ich weiss trozdem nicht was PowerPlay ist ... sowas wie HybridPower ?

Schon bekannt?
http://www.vr-zone.com/articles/GeForce_9800_GTX_Card_Photos_%26_Specs_Unveiled/5599.html

12 Layer PCB, welches satte 10.5" lang ist, 168W TDP und die Taktraten liegen bei 673/1683 mit 512MB GDDR3. Der Lüfter erreicht max. 2900rpm. Lächerlich für eine 9800GTX IMHO.

Der Lüfter ist der gleiche wie bei der GTS, eigentlich zu belanglos um da jetzt die rpm hinzuschrieben ;)

Irgendwie macht das ganze kein sinn ... evtl. verarscht nV und ja gründlich ;D

@ Pic - endlich mal was zum ansehen
@ Daten - argh, mag nemmer, am besten zum launch abwarten ... wenn nicht gerade eine Karte vorher in Tester händer gerät.

reunion
2008-02-25, 18:45:04
ich meinte bisher. was noch nicht aufm markt ist, sollte man nicht in stein meisseln

Wenn man die Taktraten höher setzen könnte würde man das auch machen. Das kostet immerhin genau null und erlaubt einen höheren Verkaufspreis. Aber das ist nur meine Meinung.

Anarchy-HWLUXX
2008-02-25, 18:48:05
Wenn man die Taktraten höher setzen könnte würde man das auch machen. Das kostet immerhin genau null und erlaubt einen höheren Verkaufspreis. Aber das ist nur meine Meinung.

Kost null ? Das wär mir neu ... schliesslich mussen die Cores den Takt auch schaffen und darauf hin getestet werden.

=Floi=
2008-02-25, 18:49:29
auch muß man sich fragen, um wieviel die karte schneller/besser ist und ob man nicht einfach eine 8800GTS512 für 212-240€ kaufen sollte

selbst wenn die karte nocht 24 rops hätte, wäre sie vieleicht max20-30% schneller, wie die 8800GTS512. Nur zu welchem preis? Wo die 8800er eingehen wird auch dieser chip keine wunder vollbringen!

Adam D.
2008-02-25, 18:54:42
Hier stand Mist.

(Trotzdem riesengroße Enttäuschung, was Nvidia da für 'ne gequirlte Scheiße abzieht)

Anarchy-HWLUXX
2008-02-25, 18:58:06
auch muß man sich fragen, um wieviel die karte schneller/besser ist und ob man nicht einfach eine 8800GTS512 für 212-240€ kaufen sollte

selbst wenn die karte nocht 24 rops hätte, wäre sie vieleicht max20-30% schneller, wie die 8800GTS512. Nur zu welchem preis? Wo die 8800er eingehen wird auch dieser chip keine wunder vollbringen!
Ganz meine meinung - irgendetwas muss die GTX haben was die leute dazu bringt dese anstatt der GTS zu nehmen ... und 3-way SLI gehört nicht dazu (zu exotisch).

Was noch ganz übel ist - die 8800GTX sinkt immer weiter unter 300€ , die neue GTX muss diese einfach schlagen ... sonst wird das nix.


Hier stand Mist.

(Trotzdem riesengroße Enttäuschung, was Nvidia da für 'ne gequirlte Scheiße abzieht)

Jetzt mal ruhig hier ... du kannst soviel bashen wie du willst wenn die Gerüchte am launch day bestätigt werden, bis dahin sind es nur gerüchte.

reunion
2008-02-25, 19:01:24
Kost null ? Das wär mir neu ... schliesslich mussen die Cores den Takt auch schaffen und darauf hin getestet werden.

Selektieren und testen muss man sowieso. Wenn eine kritische Masse an Chips eine gewisse Taktraten erreicht sehe ich keinen Grund diese nicht zum Verkauf anzubieten.

Adam D.
2008-02-25, 19:01:41
Jetzt mal ruhig hier ... du kannst soviel bashen wie du willst wenn die Gerüchte am launch day bestätigt werden, bis dahin sind es nur gerüchte.
Bashen? Ich hab hier 'ne 8800GT im Rechner, was sollte ich groß bashen? Ich find es nur 'ne Frechheit, diese Karte so zu bringen. Ich glaube nicht, dass es an den Specs noch viel zu spekulieren gibt, nicht mal 'n GB RAM bekommt die Karte spendiert. Sorry, aber ... :rolleyes:

Hvoralek
2008-02-25, 19:04:47
Wenn man die Taktraten höher setzen könnte würde man das auch machen. Das kostet immerhin genau null und erlaubt einen höheren Verkaufspreis. Aber das ist nur meine Meinung.Höhere Taktraten bedeuten eine höhere Ausfallrate und damt mehr Garantiefälle. Die schnellste Einzelkarte und entsprechend freie Hand bei der Preisgestaltung hat man auch so.

Vlt. möchte man auch nicht, dass die GTX der GX2 zu nahe kommt. Nach den Äußerungen vor kurzem wäre es arg peinlich, wenn die GX2 nicht deutlich schneller wäre. Ob der Unterschied dann daher rührt, dass die GX2 so toll ist oder daher, dass die Einzelkarte enttäuscht, wäre dem Marketing wohl egal.

dildo4u
2008-02-25, 19:07:58
Ich glaube nicht, dass es an den Specs noch viel zu spekulieren gibt, nicht mal 'n GB RAM bekommt die Karte spendiert. Sorry, aber ... :rolleyes:
Erstmal bekommt man Ram der 20% schneller ist als alles was vorher mit dem G92 kombiniert wurde und es wird mit ziehmlicher sicherheit Karten mit 1GB V-Ram geben genau wie es 1GB Versionen von der GT und der neuen GTS gibt.

AnarchX
2008-02-25, 19:08:38
http://img169.imageshack.us/img169/4958/resizephppk7.jpg (http://imageshack.us)

Irgendwie trifft es das "Extraordinary" doch ziemlich gut, aber nicht im positiven Sinne... X-D

Erstmal bekommt man Ram der 20% schneller ist
Laut Expreview sind es aber nur 1.1GHz also ~13%, für 20% also 1.164GHz müsste man schon ziemlich nah an die Grenze des RAMs gehen, die AIBs wollen für ihre OC-Versionen auch noch etwas Luft.

reunion
2008-02-25, 19:10:22
Höhere Taktraten bedeuten eine höhere Ausfallrate und damt mehr Garantiefälle. Die schnellste Einzelkarte und entsprechend freie Hand bei der Preisgestaltung hat man auch so.

Vlt. möchte man auch nicht, dass die GTX der GX2 zu nahe kommt. Nach den Äußerungen vor kurzem wäre es arg peinlich, wenn die GX2 nicht deutlich schneller wäre. Ob der Unterschied dann daher rührt, dass die GX2 so toll ist oder daher, dass die Einzelkarte enttäuscht, wäre dem Marketing wohl egal.

Sorry, aber auch mit 800/2000 wäre eine 9800GTX selbst bei schlechter SLI Skalierung deutlich hinter der 9800GX2 mit 2 x 600/1500. Und die Äußerungen kamen ja nicht von ungefähr, sondern waren wohl eine Reaktion auf die niedrigen Taktraten der 9800GTX. Die höheren Ausfälle sind ein Argument, aber keines das stark genug wäre um höhere Taktraten zu unterbinden. Die 9800GTX ist so keine 300$ wert, zur 9800GX2 um 599$ klafft eine riesen Lücke, eine Karte mit 800/2000 könnte man deutlich teurer verkaufen. Wenn das kein Argument ist für höhere Taktraten dann weiß ich auch nicht. Der einzig logische Schluss aus meiner Sicht ist, dass einfach nicht mehr drin ist.

Hvoralek
2008-02-25, 19:24:09
Sorry, aber auch mit 800/2000 wäre eine 9800GTX selbst bei schlechter SLI Skalierung deutlich hinter der 9800GX2 mit 2 x 600/1500.Bei 70% Skalierung (was etwa der Durchschnitt bei gängigen Benchmarkszenarien sein sollte) komme ich auf nicht einmal 30% Vorsprung für die GX2 genüber einer 800- MHz- Karte.

Und die Äußerungen kamen ja nicht von ungefähr, sondern waren wohl eine Reaktion auf die niedrigen Taktraten der 9800GTX.Da könnte beides die Henne und beides das Ei sein. Ob man zuerst beschloss, die GTX niedriger zu takten, oder, gegen Doppelchipkarten zu wettern, die die schnellste Einzelkarte kaum schlagen, können wir hier wohl nicht klären, solange wir nicht wissen, ob man die GTX nicht mit höheren Taktraten liefern kann oder möchte.

Die höheren Ausfälle sind ein Argument, aber keines das stark genug wäre um höhere Taktraten zu unterbinden. Die 9800GTX ist so keine 300$ wert, zur 9800GX2 um 599$ klafft eine riesen Lücke, eine Karte mit 800/2000 könnte man deutlich teurer verkaufen. Wenn das kein Argument ist für höhere Taktraten dann weiß ich auch nicht. Der einzig logische Schluss aus meiner Sicht ist, dass einfach nicht mehr drin ist.Die GTX ist so schon überteuert. Man könnte auch mangels Konkurrenz für dieselbe Karte noch mehr verlangen.

Ich habe hier noch keine Begründung gelesen, warum, wenn selbst Nvidia mit der Möglichkeit, die besten Chips aus der Produktion von vornherein auszusortieren, nur 673 MHz damit erreichen können soll, teils 10% höher getaktete Karten mit aus den normalen 8800- GTS- Chargen seletierten Chips nicht in Massen den Geist aufgeben. Die Platinenhersteller werden keine Modelle anbieten, bei denen absehbar ist, dass die reihenweise reklamiert würden.

AnarchX
2008-02-25, 20:03:23
There are two SLI connectors and two 6-pin PCIe power connector.
Und jetzt nochmal genau das Bild anschauen.

http://img167.imageshack.us/img167/3144/9800gtx140716ba9jv8.jpg (http://imageshack.us)


:|

Gast
2008-02-25, 21:39:26
Für den enduser ist DX10.1 belanglos - jedenfalls für absehbarfe zeit und ich weiss trozdem nicht was PowerPlay ist ... sowas wie HybridPower ?

Nein das ist die Stromspartechnologie von ATI, die je nach GPU Auslastung die Spannung reguliert.

Bei der HD4xxx wird diese Technologie verbessert und nennt sich "PowerPlay+"


Zitat:"mit der PowerPlay+-Technologie der Stromverbrauch ohne Belastung auf unter zehn Watt gedrückt werden"

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/februar/details_radeon-hd-4000-serie_amd/

AnarchX
2008-02-25, 21:41:51
Laut einigen Infos soll PowerPlay+, aber wohl eher in Richtung NVs HybridPower gehen, sprich es wird ein AMD Chipsatz notwendig.

LovesuckZ
2008-02-25, 22:30:46
OC-Karten kann man nicht als Maßstab für Serienkarten nehmen.

Sind es keine Serienkarten? :confused:

Die 673Mhz für die 9800GTX sprechen eine mehr als deutliche Sprache wie weit man gehen kann.


Ahso, also können Asus und EVGA weiter gehen als nVidia? :confused:

dargo
2008-02-25, 23:32:06
Vlt. möchte man auch nicht, dass die GTX der GX2 zu nahe kommt.
Ähm, bei 75% SLI Effizienz wäre eine GX2 immer noch ~33% schneller als diese popelige GTX. Irgendwie verstehe ich NV überhaupt nicht mehr. Man verpasst hier praktisch einer G92GTS Triple-SLI Support, Hybridpower und das wars. :ucrazy2:

Hvoralek
2008-02-25, 23:44:34
Ähm, bei 75% SLI Effizienz wäre eine GX2 immer noch ~33% schneller als diese popelige GTX.Findest Du 75% nicht etwas optimistisch? Das könnte in typischen Benchmarkszenarien vlt. noch hinkommen. Bei Dingen, die bei der Treieroptimierung nicht höchste Priorität haben, i.d.R. aber wohl nicht. Ich würde eher von etwa 70% in bekannten Benchmarks ausgehen und vlt. 50-60% im Durchschnitt insgesamt.

dargo
2008-02-25, 23:54:05
Findest Du 75% nicht etwas optimistisch?
Nö. :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/

1600x1200 4xAA/16xAF - durchschnittlich +81% bei der G9600GT. Da sind auch Games bei die mit >90% durch SLI profitieren.

clockwork
2008-02-26, 00:07:54
Sollten die Angaben stimmen: Wie viel schneller wäre denn eine 9800GT/X im vergleich zu einer G80 GTS mit 648/1522/1000? Grob über den Daumen.

dargo
2008-02-26, 00:14:27
Sollten die Angaben stimmen: Wie viel schneller wäre denn eine 9800GT/X im vergleich zu einer G80 GTS mit 648/1522/1000? Grob über den Daumen.
~20% im Durchschnitt (die GTX). Wenn die G80GTS 96SPs besitzt.

Gast
2008-02-26, 00:17:30
Nö. :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/

1600x1200 4xAA/16xAF - durchschnittlich +81% bei der G9600GT. Da sind auch Games bei die mit >90% durch SLI profitieren.
Und im Nvidia vorzeigegame Crysis je nach Level 9 bis 63 Prozent :rolleyes:

http://www.pcgameshardware.de/aid,631574/Test/Benchmark/3870_X2_Ueberraschungen_bei_Crysis-Tests/

clockwork
2008-02-26, 00:29:13
~20% im Durchschnitt (die GTX). Wenn die G80GTS 96SPs besitzt.
Ja, sind 96sp. Für 200$ beziehungsweise Euro Aufpreis aber nicht gerade berauschend. :rolleyes:
Was hat's eigentlich mit diesen 8-Pin Stromsteckern auf sich? Mein Netzteil (be quiet) hat zwei 6er, geht das trotzdem?

dargo
2008-02-26, 00:34:04
Und im Nvidia vorzeigegame Crysis je nach Level 9 bis 63 Prozent :rolleyes:

http://www.pcgameshardware.de/aid,631574/Test/Benchmark/3870_X2_Ueberraschungen_bei_Crysis-Tests/
Nun, mal davon abgesehen, dass ich kein Freund von SLI/CF bin - hat nicht gerade der 174-er FW deutlich an SLI-Effizienz zugelegt? Außerdem - lag bei diesen Benchmarks von der PCGH in jedem Test ein nahezu 100%-iges GPU-Limit vor?

Edit:
Bei CB unter DX10 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/) ist die SLI-Effizienz bei dem Island-Level deutlich besser, nämlich +76%. Wobei die Werte mit AA recht seltsam sind. Da ist plötzlich SLI langsamer. :|

Ja, sind 96sp. Für 200$ beziehungsweise Euro Aufpreis aber nicht gerade berauschend. :rolleyes:

Mit einem richtigen G80 Upgrade müssen wir leider auf den GT200 warten.

Hakim
2008-02-26, 00:45:19
irgendwie kann ich das nicht glauben. Normal müsste doch eine neue GTX die alte Generation immer derbe abziehen. Wenn die Gerüchte stimmen kann ich mir gut vorstellen das bei sehr hohen Auflösungen plus AA usw die karte gegenüber einer G80 Ultra nicht viel besser darstehen kann.

dargo
2008-02-26, 00:58:31
Wenn die Gerüchte stimmen kann ich mir gut vorstellen das bei sehr hohen Auflösungen plus AA usw die karte gegenüber einer G80 Ultra nicht viel besser darstehen kann.
Die G92GTS ist mehr oder weniger eine G8800GTX solange die 512MB nicht limitieren. Zumindest bei Game-Benches die ich in 1600x1200 4xAA/16xAF beobachtet habe. Eine G9800GTX mit lächerlichen 675Mhz ist ~4% schneller als die G92GTS. Lass es von mir aus 5% durch den etwas schnelleren Speicher sein. Nein, eine G9800GTX mit diesen lächerlichen Daten kann kaum eine G8800Ultra übertreffen.

O RLY?
2008-02-26, 07:09:49
Was man bisher von der GeForce 9800 GTX ist ganz schön ernüchternd.
Marketingtechnisch auch nicht gerade ein Reißer, wenn man die reinen Daten zum vorherigen Spitzenmodell vergleicht:

- nur 256-Bit SI vs. 384-Bit
- "nur" 512 MiB vs. 768 MiB

Damit fängt man nicht mal den "Computer-Bild-Leser" und "Media-Markt-PC-Käufer" ;)
IMO wären da 512-Bit und 1024 MiB Speicher angebracht gewesen!
Aber wenn man sieht wie überraschend gut sich die GeFprce 9600 GT gegen eine GeForce 8800 GT behauptet und trotz ihrer 64 Shadereinheiten im Vergleich zu 112 Sahdern nahezu 8800-GT-Niveau erreicht, dann heisst es erst mal abwarten und Tee trinken.
Nichtsdestotrotz eher enttäuschende Specs, irgendewie stagniert der Grafikkartenmarkt seit dem release des G80 im Q4 06.

DerKleineCrisu
2008-02-26, 07:30:27
Was bringen denn 512 Bit ?.

Wieviel das bingt hat man ja bei der 2900 XT gesehen ;).

solange sich die Pixel sich noch auf dem Bildschirm bewegen können und

Nvidia schneller ist als AMD werden sie ä teufel tun was noch schnelleres auf den Markt zu werfen.

Wie sagte mal einer das meiste Geld wird im OEM & Mittelklasse gemacht
und nicht im Hegh End Bereich und da sind sie gut im rennen.

Grüße

Grisu

hmm gibt es nun eigendlich diesen " Wundertreiber " worauf alle 2900 besitzer warten ???.

O RLY?
2008-02-26, 07:41:48
Was bringen denn 512 Bit ?.Mehr Speicherbandbreite?! Man sieht ja, wie bei der 8800 GTS (G92) in hohen Auflösungen mit AA(AF die Puste ausgeht gegen eine 8800 GTX/Ultra.

Wieviel das bingt hat man ja bei der 2900 XT gesehen ;).Bitte keine Äpfel mit Birnen vergleichen ;)
Wie sagte mal einer das meiste Geld wird im OEM & Mittelklasse gemacht
und nicht im Hegh End Bereich und da sind sie gut im rennen.Schon mal was von Prestige gehört? Für eine "neue" High-End Karte sind mir die Specs einfach viel zu schwach, IMO hätte man die Karte eher 8900 GTX nennen sollen...

Ailuros
2008-02-26, 07:43:05
Nichtsdestotrotz eher enttäuschende Specs, irgendewie stagniert der Grafikkartenmarkt seit dem release des G80 im Q4 06.

Nein. NV bereitet sich lediglich fuer den naechsten groesseren Sprung vor.

Ailuros
2008-02-26, 07:52:41
Mehr Speicherbandbreite?! Man sieht ja, wie bei der 8800 GTS (G92) in hohen Auflösungen mit AA(AF die Puste ausgeht gegen eine 8800 GTX/Ultra.

Ja aber zum allerletzten Mal, wieso geht der GTS die Puste aus? Erstens ist AF ueberfluessig in Deinem Satz oben da eine GTS/512 mehr Texelfuellrate hat als die 8800Ultra und zweitens laeuft der VRAM in der Mehrzahl der Faelle als erstes aus.

Bitte keine Äpfel mit Birnen vergleichen ;)

Wieviel mehr Leistung wuerde denn eine G9x mit einem 512bit breitem Bus Deiner Meinung nach genau liefern?

Schon mal was von Prestige gehört? Für eine "neue" High-End Karte sind mir die Specs einfach viel zu schwach, IMO hätte man die Karte eher 8900 GTX nennen sollen...

Dass die Namensgebung laecherlich ist sollte klar sein. Wenn Du schon eine 8800-wasauchimmer besitzen solltest, wuerde ich Dir eine 9800-wasauchimmer sowieso nicht raten und dass sogar wenn die letztere um 30 oder sogar 50% schneller waere.

Gast
2008-02-26, 08:08:43
Sind es keine Serienkarten? :confused:


Es sind Karten wofür die Vertriebspartner die Hand ins Feuer legen müssen, das kann nV am Arsch vorbei gehen.


Ahso, also können Asus und EVGA weiter gehen als nVidia? :confused:

Natürlich, ist ja auch logisch. Einen RV670 bekomme ich auch mit bis zu 850Mhz von HIS, trotzdem liegt der Referenztakt nur bei 775Mhz. AMD oder nV müssen da ganz andere Toleranzen einplanen.

reunion

Gast
2008-02-26, 08:10:34
Wieviel mehr Leistung wuerde denn eine G9x mit einem 512bit breitem Bus Deiner Meinung nach genau liefern?


Wenn ich mir die 9600GT so ansehe, dann sollte ein G92 mit 512-bit Bus (also doppelter Bandbreite) zumindest 30-50% schneller sein.

reunion

Gast
2008-02-26, 08:20:06
Was man bisher von der GeForce 9800 GTX ist ganz schön ernüchternd.
Marketingtechnisch auch nicht gerade ein Reißer, wenn man die reinen Daten zum vorherigen Spitzenmodell vergleicht:

- nur 256-Bit SI vs. 384-Bit
- "nur" 512 MiB vs. 768 MiB

Damit fängt man nicht mal den "Computer-Bild-Leser" und "Media-Markt-PC-Käufer" ;)
IMO wären da 512-Bit und 1024 MiB Speicher angebracht gewesen!
Aber wenn man sieht wie überraschend gut sich die GeFprce 9600 GT gegen eine GeForce 8800 GT behauptet und trotz ihrer 64 Shadereinheiten im Vergleich zu 112 Sahdern nahezu 8800-GT-Niveau erreicht, dann heisst es erst mal abwarten und Tee trinken.
Nichtsdestotrotz eher enttäuschende Specs, irgendewie stagniert der Grafikkartenmarkt seit dem release des G80 im Q4 06.


Was ich vorallem lächerlich finde ist die Länge der Karte. Mit 10.5" ist das Ding so lange wie eine 3870 X2 und das bei nur einer GPU und 512MB VRAM. Auch die TDP von 168W ist für die Leistung nicht gerade niedrig.

reunion

w0mbat
2008-02-26, 09:20:37
GeForce 8800GTX (G80, 90nm)
128SP @ 1350MHz = 518,4 GFLOPs
24 ROPs & 64 TMUs @ 575MHz = 13,8 GPIXELs & 36,8 GTEXELs
768MB GDDR3 @ 900MHz @ 384-bit = 86,4 GB/s

GeForce 8800Ultra (G80, 90nm)
128SP @ 1512MHz = 580,6 GFLOPs
24 ROPs & 64 TMUs @ 612MHz = 14,6 GPIXELs & 39,1 GTEXELs
768MB GDDR3 @ 1080MHz @ 384-bit = 103,6 GB/s

GeForce 8800GTS-512 (G92, 65nm)
128SP @ 1625MHz = 624,0 GFLOPs
16 ROPs & 64 TMUs @ 650MHz = 10,4 GPIXELs & 41,6 GTEXELs
512MB GDDR3 @ 970MHz @ 256-bit = 62,0 GB/s

GeForce 9800GTX (G92, 65nm)
128SP @ 1688MHz = 648,1 GFLOPs
16 ROPs & 64 TMUs @ 675MHz = 10,8 GPIXELs & 43,2 GTEXELs
512MB GDDR3 @ 1100MHz @ 256-bit = 70,4 GB/s

Stimmt das so? Wenn ja, was soll das?! 8800Ultra & 8800GTS-512 sollten etwa auf dem gleichen Niveau liegen.

AnarchX
2008-02-26, 09:25:05
In den meisten Fällen wohl schon und da wo man ein Tri-SLI einsetzen würde, dürfte sich die Ultra/GTX absetzen auf Grund der höheren Speichermenge und Bandbreite, der Zugewinn durch die neu Kompression ist ja eher zu vernachlässigen.

Die HT4u-Reviews sind in diesem Zusammenhang interessant:
http://www.ht4u.net/reviews/2008/msi_geforce_9600_gt/index10.php
GTX, Ultra und GTS-512 @ gleichem Treiber

Hier setzt sich die 88Ultra mit 4xAA teilweise um über 30% ab von der GTS-512, also eine Vorsprung der für die 98GTX nicht einholbar ist.

Ailuros
2008-02-26, 09:41:52
Wenn ich mir die 9600GT so ansehe, dann sollte ein G92 mit 512-bit Bus (also doppelter Bandbreite) zumindest 30-50% schneller sein.

reunion

Theoretisch:

675/1688/1200@256bit vs. 675/1688/1200@512bit soll zumindest 30-50% mehr Leistung bringen? ROTFLMAO :D

Schau Dir etwas genauer die 9600GT@SLi reviews an und ueberhaupt im Vergleich zur 8800Ultra mit 768MB VRAM und 103.7GB/s Bandbreite.

Ein theoretischer G9x (nein G92 waere es nicht mehr) mit 32 ROPs, 153GB/s Bandbreite und 1024MB Speicher haette gute Chancen bis zu 30% schneller zu sein insgesamt. Mit nur 512MB ist das obrige totaler Schwachsinn und nein solche "Einzelheiten" sind nicht selbstverstaendlich und nein zu allerletzten Mal Bandbreite skaliert die Leistung von sich alleine nur um Bruchteile an dem was mehr Fuellrate/Takt liefern wuerde.

Wenn Du jetzt die R&D Unkosten und die extra Transistoren/pins/traces/PCB layers fuer 8*64 zusammenrechnest waere jeglicher IHV komplett verrueckt an so etwas ueberhaupt zu denken.

Letztendes da Deine Logik ja durchaus ueberzeugend ist, ist die 3870 um 50% langsamer als die 2900XT oder? *seufz*

puntarenas
2008-02-26, 09:49:52
Ich halte mich jetzt am Strohhalm 12-Layer PCB fest und glaube an eine 9800GTX mit 384Bit SI, 768MB und natürlich 24 ROPs. Hoffentlich bringt die CeBIT ein paar Neuigkeiten, 25 leicht variierte 9600GTs interessieren mich nicht sonderlich, werden aber wohl die Ticker füllen.

I want to believe!

Gast
2008-02-26, 09:56:21
Theoretisch:

675/1688/1200@256bit vs. 675/1688/1200@512bit soll zumindest 30-50% mehr Leistung bringen? ROTFLMAO :D

Schau Dir etwas genauer die 9600GT@SLi reviews an und ueberhaupt im Vergleich zur 8800Ultra mit 768MB VRAM und 103.7GB/s Bandbreite.

Ein theoretischer G9x (nein G92 waere es nicht mehr) mit 32 ROPs, 153GB/s Bandbreite und 1024MB Speicher haette gute Chancen bis zu 30% schneller zu sein insgesamt. Mit nur 512MB ist das obrige totaler Schwachsinn und nein solche "Einzelheiten" sind nicht selbstverstaendlich und nein zu allerletzten Mal Bandbreite skaliert die Leistung von sich alleine nur um Bruchteile an dem was mehr Fuellrate/Takt liefern wuerde.

Wenn Du jetzt die R&D Unkosten und die extra Transistoren/pins/traces/PCB layers fuer 8*64 zusammenrechnest waere jeglicher IHV komplett verrueckt an so etwas ueberhaupt zu denken.

Schau dir den Vergleich 9600GT vs. 8800GTS doch an. Eine 8800GTS hat doppelt so viele Cluster wie eine 9600GT bei gleichen Taktraten und ist trotzdem nur gut ~30% schneller. Der einzige Grund hierfür muss das SI sein. Hätte man das Si ebenfalls verdoppelt, so müsste die 8800GTS doppelt so schnell sein wie eine 9600GT.


Letztendes da Deine Logik ja durchaus ueberzeugend ist, ist die 3870 um 50% langsamer als die 2900XT oder? *seufz*

Der Vergleich hinkt gewaltig. Eine 2900XT hat nur lächerliche 16 TMUs und 32 Z-Samples/Takt. Logisch das der Chip nicht so viel Bandbreite benötigt wie ein G92.

reunion

AnarchX
2008-02-26, 10:10:36
Schau dir den Vergleich 9600GT vs. 8800GTS doch an. Eine 8800GTS hat doppelt so viele Cluster wie eine 9600GT bei gleichen Taktraten und ist trotzdem nur gut ~30% schneller. Der einzige Grund hierfür muss das SI sein. Hätte man das Si ebenfalls verdoppelt, so müsste die 8800GTS doppelt so schnell sein wie eine 9600GT.

I think the key point we may wish t consider given the 9600GT's performance is that G92 was very much limited by the 'non-scalable' parts of the pipeline, such as triangle setup, input assembly, and so forth. G92 SKUs are also limited by bandwidth, especially with 4xMSAA. There are some other factors to consider but I certainly think those are the most interesting and surprising ones here.

Aber sicher würde ein breiteres SI und somit eine höhere Z-Leistung noch einiges an Leistung freisetzen können.

Auch noch etwas interessantes:
http://img517.imageshack.us/img517/3215/2008022623b1ba07af0ed8eej7.png (http://imageshack.us)

dargo
2008-02-26, 10:18:40
Aber wenn man sieht wie überraschend gut sich die GeFprce 9600 GT gegen eine GeForce 8800 GT behauptet und trotz ihrer 64 Shadereinheiten im Vergleich zu 112 Sahdern nahezu 8800-GT-Niveau erreicht, dann heisst es erst mal abwarten und Tee trinken.

Das liegt einfach daran, dass der G94 bzw. die G9600GT nicht mehr so stark im Verhältnis bei den ROPs und Bandbreite kastriert ist als es noch beim G92 der Fall war. Und wie man bei dem G94 sieht verlangen die Spiele noch lange kein Arithmetik-Monster. Ich hoffe nur, NV verschätzt sich beim GT200 nicht zu sehr und bohrt nicht nur die Arithmetik-Leistung extrem auf.

Wenn ich mir die 9600GT so ansehe, dann sollte ein G92 mit 512-bit Bus (also doppelter Bandbreite) zumindest 30-50% schneller sein.

Auf keinem Fall.

Edit:
So eine Lösung beim G92:
24 ROPs, 675Mhz Coretakt (1688Mhz Shadertakt), 384Bit SI mit 1,1Ghz GDDR3 und 768MB Vram wäre mir lieber als das:
16 ROPs, 675Mhz Coretakt (1688Mhz Shadertakt), 512Bit SI mit 1,1Ghz GDDR3 und 512/1024MB Vram.

Ich bin bin mir noch nicht mal sicher ob Zweiteres günstiger wäre.

Gast
2008-02-26, 11:22:45
Liebe Mods, wurde im anderen Thread auch schon angesprochen, bitte einen der beiden schließen. Bei zwei Spekulationsthreads zur 9800GTX verliert man leicht den Überblick:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6309862

Godmode
2008-02-26, 11:37:52
So eine sinnlose Karte. Wenn ich mir die Daten meiner GTS anschaue, kann ich über die 9800 GTX einfach nur lachen!

http://img148.imageshack.us/img148/50/gts512ta9.pnghttp://pics.computerbase.de/2/0/6/0/4/3_m.jpg

Gast
2008-02-26, 11:47:24
Sollten die Angaben stimmen: Wie viel schneller wäre denn eine 9800GT/X im vergleich zu einer G80 GTS mit 648/1522/1000? Grob über den Daumen.
40%. :)

Die 8800GT ist bereits 25% schneller, die GTS nochmal 10%; die GTX dann nochmal 5%.

dargo
2008-02-26, 11:49:46
40%. :)

Die 8800GT ist bereits 25% schneller, die GTS nochmal 10%; die GTX dann nochmal 5%.
Seit wann ist eine G8800GT 25% schneller als eine G80 GTS mit 648/1522/1000? Bitte genau lesen. :)

Ailuros
2008-02-26, 12:00:58
Schau dir den Vergleich 9600GT vs. 8800GTS doch an. Eine 8800GTS hat doppelt so viele Cluster wie eine 9600GT bei gleichen Taktraten und ist trotzdem nur gut ~30% schneller. Der einzige Grund hierfür muss das SI sein. Hätte man das Si ebenfalls verdoppelt, so müsste die 8800GTS doppelt so schnell sein wie eine 9600GT.

"Muss" ist gut. Ich wuerde an Deiner Stelle mich mal ausnahmsweise auf die AA und AF Leistung von G94 konzentrieren um zu sehen ob hier etwas ueberarbeitet wurde.

Der Vergleich hinkt gewaltig. Eine 2900XT hat nur lächerliche 16 TMUs und 32 Z-Samples/Takt. Logisch das der Chip nicht so viel Bandbreite benötigt wie ein G92.

reunion

Der Vergleich hinkt ueberhaupt nicht; ich hab RV670 (und nicht G92) mit R600 verglichen. Es sind auf RV670 die gleichen laecherlichen 16 TMUs bzw. 32 z-samples/Takt wie auf R600. R600 hat aber rein zufaellig einen 512bit Bus und RV670 einen 256bit Bus + bessere Kompression fuer AA und dabei der ganzen Laecherlichkeit zu liebe ist der RV670 in der Mehrzahl der Faelle leicht schneller und das nicht nur wegen den schaebigen 33MHz Taktunterschied.

Gast
2008-02-26, 12:10:08
So eine Lösung beim G92:
24 ROPs, 675Mhz Coretakt (1688Mhz Shadertakt), 384Bit SI mit 1,1Ghz GDDR3 und 768MB Vram wäre mir lieber als das:
16 ROPs, 675Mhz Coretakt (1688Mhz Shadertakt), 512Bit SI mit 1,1Ghz GDDR3 und 512/1024MB Vram.

Ich bin bin mir noch nicht mal sicher ob Zweiteres günstiger wäre.

Wenn Du bei der zweiten Lösung die 16 durch 32 ROPs ersetzt, wär das doch ne nette Lösung (mit 1024MB Vram)! :D

Tippe aber trotzdem auf die erste Lösung, für irgendwas muss ja das 12-Layer PCB gut sein!

puntarenas
2008-02-26, 12:50:32
Nochmal die alte These, bitte zerlegen:

Im G92 schlummern noch 8 ROP, er ist eigentlich auf ein 384Bit-Speicherinterface ausgelegt und das bekommen wir mit 9800GT(X). Als der RV670 kam, wollte NVidia in diesem Preissegment nicht länger mit dem teuren (noch teurer als G92) G80 kontern, wodurch die 8800GT als Zwischenlösung geboren ist, bis das 9er-LineUp komplett steht und G94 war halt noch nicht soweit..

Ansonsten sieht der G92 gegen den G94 wirklich etwas blass aus, aber natürlich kann auch bei NVidia mal was daneben gehen, vielleicht wollte man ja in weitaus höhere Taktregionen vorstoßen.

Gast
2008-02-26, 12:57:23
Seit wann ist eine G8800GT 25% schneller als eine G80 GTS mit 648/1522/1000? Bitte genau lesen. :)
Ops überlesen.

Aber ich vergleiche normal keine OC Karten mit nonOC Karten.
Also entweder ich vergleiche beide mit Default Takt oder beide übertaktet. Weil ich jetzt keine Lust habe mich damit rumzuschlagen, das die eine sich im Schnitt um 22,1084104% übertakten lässt und die andere um 19,9812491%, gehe ich von gleichen Übertaktungspielraum aus.

Gast
2008-02-26, 13:00:20
Im G92 schlummern noch 8 ROP, er ist eigentlich auf ein 384Bit-Speicherinterface ausgelegt und das bekommen wir mit 9800GT(X)
Das wird imho zu eng im G92. Der Chip ist einfach schon so voll.

Das würde einen größeren 2ten G92 bedeuten und der ist auch kaum vorstellbar.


Probier das mal:
Die gezeigten Specs stammen von der 9800GTS, die GTX bekommt GDDR4 und noch mehr Takt.

w0mbat
2008-02-26, 13:18:38
Der G92 hat doch mehr Transistoren als der G80, hat aber nur die Hälfte der ROPs/des SI. Es kam auch kein DX10.1 oder ähnliches hinzu - also müsste er doch theoretisch weniger Transistoren haben. Was hat nVidia mit dem G92 gemacht? Haben sie da irgendwas neues eingebaut von dem ich nichts weiß?

BvB123
2008-02-26, 13:22:52
Kleine Effizienz Verbesserungen und besseren VP2.

Ailuros
2008-02-26, 13:23:53
Der G92 hat doch mehr Transistoren als der G80, hat aber nur die Hälfte der ROPs/des SI. Es kam auch kein DX10.1 oder ähnliches hinzu - also müsste er doch theoretisch weniger Transistoren haben. Was hat nVidia mit dem G92 gemacht? Haben sie da irgendwas neues eingebaut von dem ich nichts weiß?

Theoretisch sollte das Ding hoehere Frequenzen tolerieren als G80, von denen ich aber leider nichts sehen kann. Ich werde das Gefuehl nicht los dass NV tatsaechlich mit Absicht bis zum 2. Halbjahr nur so dahertrotteln will damit der Einschlag dann auch fuer mehr Furore sorgt. Eine bessere Erklaerung kann ich mir bei bestem Willen nicht ausdenken.

pest
2008-02-26, 13:33:57
9800GTX 3DMark06 (http://en.expreview.com/?p=280)

w0mbat
2008-02-26, 13:33:58
Man sollte auch bedenken das selbst nVidia nicht fehlerfrei ist und der G92 vielleicht einfach nicht das geworden ist was er hätte werden sollen.

Gast
2008-02-26, 13:36:48
Wie kommst du auf diesen Unsinn?

9800ProZwerg
2008-02-26, 13:39:15
9800GX2 Benches:
http://www.computerbase.de/news/hardware/chipsaetze/nvidia/2008/februar/benchmarks_bilder_geforce_9800_gx2/

Naja...

Gast
2008-02-26, 13:44:15
Der G92 hat doch mehr Transistoren als der G80, hat aber nur die Hälfte der ROPs/des SI. Es kam auch kein DX10.1 oder ähnliches hinzu - also müsste er doch theoretisch weniger Transistoren haben. Was hat nVidia mit dem G92 gemacht? Haben sie da irgendwas neues eingebaut von dem ich nichts weiß?
- weniger ROPs
o gleichviele Shadereinheiten und TMUs.
++ Doppelt so viele TAUs.
+ Einen VP2, der G80 hat gar keinen.
+ PCIe 2.0.
+ Integrierter NVIO.
+ Eine bessere Effizienz, zum Beispiel der Bandbreite.
+ Eine höhere Taktbarkeit, eventuell durch mehr Transistoren erkauft.

Unterm Strich haben wir mehr Zuwachs an Eineheiten. Oder hast du Informationen, wie viele Transistoren ein NV ROP-Cluster kostet?

Anarchy-HWLUXX
2008-02-26, 13:47:58
9800GX2 Benches:
http://www.computerbase.de/news/hardware/chipsaetze/nvidia/2008/februar/benchmarks_bilder_geforce_9800_gx2/

Naja...
Ouch ...

Wobei da noch der vergleich mit der X2 aussteht ...

pest
2008-02-26, 13:48:46
Ouch ...


Nvidia braucht noch ein Argument für ihre SLI-Bretter :wink:

Blacksoul
2008-02-26, 13:49:39
Ouch ...

Wobei da noch der vergleich mit der X2 aussteht ...


Wobei doch die 9800 GTX als Gegner der 3870 X2 gedacht war.
Vorallem preislich.


t.b.d

puntarenas
2008-02-26, 13:54:37
9800GTX 3DMark06 (http://en.expreview.com/?p=280)
Naja, wenn man sich den neuen Geiz bei NVidia anschaut, dann glaub ich langsam auch, dass mit möglichst geringem Aufwand nochmal Kasse gemacht werden soll und vor Herbst nichts "Tolles" mehr kommt: Lüftersensor bei 9600GT eingespart (http://en.expreview.com/?p=279#more-279)

Trotzdem seltsam, solche Chips entstehen ja nicht in zwei Wochen und ich kann (und will) mir nicht vorstellen, dass man für den Nachfolger des G80 geplant hat, einfach mal mit kleineren Verbesserungen auf der Stelle zu treten.

dildo4u
2008-02-26, 13:56:31
9800GX2 Benches:
http://www.computerbase.de/news/hardware/chipsaetze/nvidia/2008/februar/benchmarks_bilder_geforce_9800_gx2/

Naja...
Alter Treiber die GX2 kann gar nicht langsammer sein als ein 8800GT SLI.

Spasstiger
2008-02-26, 14:01:24
Die 9800 GTX ist ja jetzt doch eine Enttäuschung. Einfach eine G92 GTS mit 10% mehr Speichertakt und leicht anders aussehendem Kühler. Da kann man auch gleich eine 8800 GTS (G92) kaufen und übertakten.

Gast
2008-02-26, 14:06:51
Alter Treiber die GX2 kann gar nicht langsammer sein als ein 8800GT SLI.

Natürlich kann sie, denn sie hängt nur an einem PCie-Slot.

Gast
2008-02-26, 14:09:12
- weniger ROPs
o gleichviele Shadereinheiten und TMUs.
++ Doppelt so viele TAUs.
+ Einen VP2, der G80 hat gar keinen.
+ PCIe 2.0.
+ Integrierter NVIO.
+ Eine bessere Effizienz, zum Beispiel der Bandbreite.
+ Eine höhere Taktbarkeit, eventuell durch mehr Transistoren erkauft.

Unterm Strich haben wir mehr Zuwachs an Eineheiten. Oder hast du Informationen, wie viele Transistoren ein NV ROP-Cluster kostet?

Wenn man mal G70 -> G71 zum Vergleich nimmt (von 303 Mio. auf 278 Mio. Transistoren runter, trotz starker Taktsteigerung und kleinerem Fertigungsverfahren) und das auf G80 -> G92 umrechnet, kommt man hier theoretisch (bei unveränderter Anzahl ROPs/Shader/TMUs etc.) von 681 Mio. auf ~625 Mio. Transistoren runter. Bleiben also für die neuen Features ganze 129 Mio. Transistoren übrig! Daher denke ich schon, dass im G92 24ROPs + 384bit SI enthalten sein könnten! :)

dildo4u
2008-02-26, 14:11:01
Natürlich kann sie, denn sie hängt nur an einem PCie-Slot.
Dann ist das Board zu lahm und nicht die Karte warten wir mal Tests auf einem X48 Board ab.

Gast
2008-02-26, 14:11:15
Daher denke ich schon, dass im G92 24ROPs + 384bit SI enthalten sein könnten! :)
Oder 20ROPs + 320Bit SI :)

AnarchX
2008-02-26, 14:17:10
Bei den GX2-Benches handelt es sich nicht um eine echte GX2 sondern eine alte Simulation mit zwei GTS-512 @550/8x0MHz
;)

Daher denke ich schon, dass im G92 24ROPs + 384bit SI enthalten sein könnten! :)
Sind sie aber nicht:

- Shadercluster(8 TMUs+16SPs) ~ 70Mio Transistoren
- ROP-Partition(4 ROPs+64Bit MC) ~40 Mio Transitoren
- Setup+IO+VP2 ~ 65 Mio. Transitoren
(Basis ist G84, G86, G92, G94)

G92 = 8*70+4*40+65 = 785Mio ~754Mio
G94 = 4*70+4*40+65 = 505Mio
G84 = 2*70+2*40+65 = 285Mio ~ 289Mio
G86 = 1*70+2*40+65 = 215Mio ~ 210Mio

:D

dildo4u
2008-02-26, 14:20:21
Bei den GX2-Benches handelt es sich nicht um eine echte GX2 sondern eine alte Simulation mit zwei GTS-512 @550/8x0MHz
;)
Und wahrscheinlich zusätzlich noch mit einem uralten Treiber schade das CB es für nötig hält da eine "News" draus zu machen.

Gast
2008-02-26, 14:21:24
Wenn man mal G70 -> G71 zum Vergleich nimmt (von 303 Mio. auf 278 Mio. Transistoren runter, trotz starker Taktsteigerung und kleinerem Fertigungsverfahren) und das auf G80 -> G92 umrechnet, kommt man hier theoretisch (bei unveränderter Anzahl ROPs/Shader/TMUs etc.) von 681 Mio. auf ~625 Mio. Transistoren runter.
Die Anzahl ist eben nicht unverändert.
Der G92 hat mal eben doppelt so viele TAUs.


Auch kann NV mal eben so viele Transistoren gespart haben, bei den selben Einheiten, oder ist der G80 bereits so arg am Limit?

Anarchy-HWLUXX
2008-02-26, 14:22:24
Bei den GX2-Benches handelt es sich nicht um eine echte GX2 sondern eine alte Simulation mit zwei GTS-512 @550/8x0MHz
;)
Sich0000r ? Bei CB könnt ich das mal direkt glauben ohne nachfragen :ucatch:

AnarchX
2008-02-26, 14:30:56
Hier nochmal der Link:
My performance simulation of GeForce 9800GX2 (http://www.xtremesystems.org/forums/showthread.php?t=171932&highlight=gx2+simulation)
GeForce 9800GX2 is two 8800-512 PCB together, but clocks of GPU a MEMs will be lowest, because heat. I underclock GPU/MEM from 650/1940 to 550/1800 in SLI and now i am testing games with. You can see results in first game ...
;)

btw.
GeForce 9800GX2 delayed to 18 March 2008? (http://my.ocworkbench.com/bbs/showthread.php?p=427645#post427645)
:uup:

Hvoralek
2008-02-26, 14:34:49
Die Anzahl ist eben nicht unverändert.
Der G92 hat mal eben doppelt so viele TAUs.Und diese paar Adressierer kosten wie viel?

Gast
2008-02-26, 14:36:58
Und diese paar Adressierer kosten wie viel?
Weisst du es? :)

AnarchX
2008-02-26, 14:37:18
Und diese paar Adressierer kosten wie viel?

Würde 15-20 Mio Transistoren pro Cluster schätzen.


- Shadercluster(8 TMUs+16SPs) ~ 70Mio Transistoren
- ROP-Partition(4 ROPs+64Bit MC) ~40 Mio Transitoren
- Setup+IO+VP2 ~ 65 Mio. Transitoren
(Basis ist G84, G86, G92, G94)

G92 = 8*70+4*40+65 = 785Mio ~754Mio
G94 = 4*70+4*40+65 = 505Mio
G84 = 2*70+2*40+65 = 285Mio ~ 289Mio
G86 = 1*70+2*40+65 = 215Mio ~ 210Mio

G80 dürfte wohl neben den kleineren 4TA/8TF-Clustern noch etwas kleinere ROPs haben und das Setup ist mangels IO und VP1 wohl auch um einiges kleiner.

Gast
2008-02-26, 14:38:01
Und diese paar Adressierer kosten wie viel?

Diese "paar" (=32) Adressierer müssen für D3D10 immhin voll auf FP32 ausgelegt sein. So billig werden die Dinger nicht sein.

reunion

Anarchy-HWLUXX
2008-02-26, 14:50:55
Hier nochmal der Link:
My performance simulation of GeForce 9800GX2 (http://www.xtremesystems.org/forums/showthread.php?t=171932&highlight=gx2+simulation)

;)

Ich hab mal dem verfasser der News die Quelle zugemailt, mal sehen wann das Update kommt ...


Update da - aber das die Pseudo GX2 werte mit deutlich niedrigerem Takt gemacht wurden wird trozdem net erwähnt.

Gast
2008-02-26, 15:30:26
GeForce 9800GTX (G92, 65nm)[/B]
128SP @ 1688MHz = 648,1 GFLOPs
16 ROPs & 64 TMUs @ 675MHz = 10,8 GPIXELs & 43,2 GTEXELs
512MB GDDR3 @ 1100MHz @ 256-bit = 70,4 GB/s



Bei dem GPU-Z Ausdruck auf Computerbase.de hat die 9800GTX nur 56 TMUs mit 37,8GTexel und damit wahrscheinlich auch nur 112Pixelshader.

Manfred

LovesuckZ
2008-02-26, 15:36:14
Diese "paar" (=32) Adressierer müssen für D3D10 immhin voll auf FP32 ausgelegt sein. So billig werden die Dinger nicht sein.

reunion

Klar sind sie billig. Sonst wären sie nie und nimmer in den Low-End Modellen.

Gast
2008-02-26, 15:41:10
Bei dem GPU-Z Ausdruck auf Computerbase.de hat die 9800GTX nur 56 TMUs mit 37,8GTexel und damit wahrscheinlich auch nur 112Pixelshader.

Manfred


na dann fragt man sich ja echt mit welcher Berechtigung die 9800gtx auf den markt kommen wird...

Gast
2008-02-26, 15:42:14
Klar sind sie billig. Sonst wären sie nie und nimmer in den Low-End Modellen.
Doch warum nicht?
In den Lowend Dinger sind nur 16, beim vollwertigen G92 64. Reicht dir der Unterschied nicht?

Hvoralek
2008-02-26, 15:44:42
Würde 15-20 Mio Transistoren pro Cluster schätzen.Du rechnest also damit, dass durch 8 statt 4 Adressierer die Cluster um rund 1/3 zulegen (von 50-55 auf 70 Mio)? Demnach müssten 8 Adressierer 30- 40 Mio. ausmachen, also etwa die Hälfte eines D8P- Clusters. So viel wie 8 Filtereinheiten (die als Kernelement einer TMU allein schon um einiges größer sein dürften), 32 Sampler und die kompletten Arithmetikeinheiten zusammen?

Ich wäre schon erstaunt, wenn die 32 zusätzlichen TAs insgesamt 20 Mio Transistoren kosten würden.

Diese "paar" (=32) Adressierer müssen für D3D10 immhin voll auf FP32 ausgelegt sein. So billig werden die Dinger nicht sein.Es kommt nicht nur darauf an, mit was für Daten gearbeitet wird, sondern auch und gerade, was man damit macht (Eine einfache Speicherzelle ist auch bei noch größeren Formaten Kleinkram). Gerechnet wird bei TMUs in den Filtereinheiten. Was tun denn Adressierer Aufwändiges mit FP32- Werten?

LovesuckZ
2008-02-26, 15:46:40
Doch warum nicht?
In den Lowend Dinger sind nur 16, beim vollwertigen G92 64. Reicht dir der Unterschied nicht?

Wäre es pro Cluster so teuer, hätten sie es nicht in den Low-End Modellen verbaut. Dabei ist es egal, ob ein oder 8 Cluster.

Gast
2008-02-26, 15:47:53
Mal anders rum:

Wie viele Transistoren meinst du fressen 4 weitere ROPs?

LovesuckZ
2008-02-26, 15:49:19
Wie viele Transistoren meinst du fressen 4 weitere ROPs?

Kann man nicht sagen. Es fehlt hier zur endgültigen Klärung die Transistoranzahl des G98.

Gast
2008-02-26, 15:49:48
Wäre es pro Cluster so teuer, hätten sie es nicht in den Low-End Modellen verbaut. Dabei ist es egal, ob ein oder 8 Cluster.
Wie soll es denn sonst sein?

Lowend ist nunmal auf dem selben Techlevel, wie Highend.
Zudem ist es nicht mehr teuer, wenn man nur noch einen Bruchteil an Einheiten in den Chip packt.

AnarchX
2008-02-26, 15:55:08
Du rechnest also damit, dass durch 8 statt 4 Adressierer die Cluster um rund 1/3 zulegen (von 50-55 auf 70 Mio)? Demnach müssten 8 Adressierer 30- 40 Mio. ausmachen, also etwa die Hälfte eines D8P- Clusters. So viel wie 8 Filtereinheiten (die als Kernelement einer TMU allein schon um einiges größer sein dürften), 32 Sampler und die kompletten Arithmetikeinheiten zusammen?

Ich wäre schon erstaunt, wenn die 32 zusätzlichen TAs insgesamt 20 Mio Transistoren kosten würden.

Da ist auch etwas dran. Aber warum braucht dann G80 so wenige Transistoren für seinen Aufbau im Vergleich zu seinen Nachfolgern. :|
Meine Schätzung scheint ja relativ gut zu pasen, wenn man G86-G92 nach diesem Schema berechnet.

LovesuckZ
2008-02-26, 15:56:16
Wie soll es denn sonst sein?

Warum sonst hätten G84/6 die volle Anzahl an Adressierer? Man hätte jedes Transistorchen sparen müssen - vorallen beim G86. Anscheinend ist die benötigte Fläche nicht annährend solch einer Bedeutung geschenkt worden.


Lowend ist nunmal auf dem selben Techlevel, wie Highend.
Zudem ist es nicht mehr teuer, wenn man nur noch einen Bruchteil an Einheiten in den Chip packt.

Natürlich ist es vorallem im Low-End teuer überflüssiges Zeug am Board zu haben. G8x Design ist einfach ineffizient für Low-End. 8 TMUs bei einer Rechenleistung wohl unter der einer 6600GT. Die Skalare-Architektur scheint auch nicht gerade wenig Transistoren zu benötigen - ebenso die ROPs.

Da ist auch etwas dran. Aber warum braucht dann G80 so wenige Transistoren für seinen Aufbau im Vergleich zu seinen Nachfolgern. :|
Meine Schätzung scheint ja relativ gut zu pasen, wenn man G86-G92 nach diesem Schema berechnet.

Masse-Transistoren für hohen Takt. Warum man es nicht ausnutzt, weiß wohl nur nVidia.

Gast
2008-02-26, 16:03:14
Masse-Transistoren für hohen Takt. Warum man es nicht ausnutzt, weiß wohl nur nVidia.
Weil kein Bedarf besteht.

Die 9800GTX und GX2 werden auch so mit günstigem GDDR3 für 500€ verkauft.


AMD hat bis jetzt keine Konkurrenzkarte, also kann NV wenns notwendig wird die Asse ziehen.

Spasstiger
2008-02-26, 16:47:17
Man kann ja zur Klärung der Frage, wieviele Transistoren die TAs verbrauchen, ein einfaches Gleichungssystem aufstellen.
Für die 65-nm-Generation ziehen wir den G92, den G94 und den G98 heran. Der G98 müsste der Diefläche nach (85.5 mm² (http://en.expreview.com/?p=77&page=4)) etwa 190 Mio. Transistoren haben (G92 hat 754 Mio. bei 324 mm², G94 hat 505 Mio. bei 225 mm²).
A steht im Folgenden für die Anzahl an Shaderclustern (inkl. TMUs + L1-Cache), B für die Anzahl an ROP-Blöcken (inkl. SI und L2-Cache). C steht für die restlichen Transistoren für IO, Setup und den VP.

Zweite Generation (65 nm):
---
G92: 8*A + 4*B + C = 754
G94: 4*A + 4*B + C = 505
G98: 0,5*A + 1*B + C = 190
=> A=62,25; B=32,375; C=126,5

Erste Generation (80/90 nm):
---
G80: 8*A + 6*B + C = 681
G84: 2*A + 2*B + ?*C = 289
G86: 1*A + 2(?)*B + ?*C = 210
=> ?
/EDIT: Oder vielleicht ein besserer Vergleich, alle GPUs mit VP2 und TA-Zahl = TMU-Zahl:
G92: 8*A + 4*B + C = 754
G94: 4*A + 4*B + C = 505
G84: 2*A + 2*B + C = 289
=> A=62,25; B=45,75; C=73

Jetzt fehlt aber natürlich noch eine Berechungsbasis für den G80.

Ein G92*1,5 (12 Shadercluster = 192 Streamprozessoren; 6 ROP-Blöcke = 384 Bit SI) würde so übrigens rund 1,1 Mrd. Transistoren benötigen. Das passende PCB hätte man wohl schon vom G80 und mit etwas gesenkten Taktraten (z.B. 550/1500/900) und gesenkter Spannung könnte man auch die Leistungsaufnahme in Grenzen halten. Das hätte ich mir als 9800 GTX gewünscht.

GeneralHanno
2008-02-26, 16:49:13
das problem wäre wohl weniger 8 ROP-part (512bit MC) zu verbauen, aber das package und die platine wären extrem komplex!

€dit: mal nicht so ungeduldig... einen doppelten G92 wird sicher geben: den GT200 !

Spasstiger
2008-02-26, 17:18:19
€dit: mal nicht so ungeduldig... einen doppelten G92 wird sicher geben: den GT200 !
Einen G92*1,5 hätte man 17 Monate nach dem G80-Release aber auch mal bringen können. Der GT200 kommt ja wohl erst im Herbst, also fast 2 Jahre nach dem G80.
Seit dem November 2006 hat keiner weiter an der Performanceschraube gedreht, nur die Preise sind angemessen gefallen.

Gast
2008-02-26, 17:18:39
€dit: mal nicht so ungeduldig... einen doppelten G92 wird sicher geben: den GT200 !
Das mit Sicherheit, was soll der GT200 sonst auch sein? ;)

Beim Speicher kann NV dann weiterhin sparen und auf bis dahin billigen GDDR4 setzten, während sich die Konkurrenz mit teurem GDDR5 rumschlagen muss, um mitzuhalten.

Gosh
2008-02-26, 17:18:56
Test bei Computerbase gesehn ? Flop,beide Karten,vorallem bei dem Preis.

AnarchX
2008-02-26, 17:23:01
Beim Speicher kann NV dann weiterhin sparen und auf bis dahin billigen GDDR4 setzten, während sich die Konkurrenz mit teurem GDDR5 rumschlagen muss, um mitzuhalten.
Mit GDDR4 wird NV sicherlich nichts zu tun haben. ;)

Gast
2008-02-26, 17:24:52
Mit GDDR4 wird NV sicherlich nichts zu tun haben. ;)
Warum?

Meinst du ernshaft NV nimmt gleich GDDR5 oder bleibt NV weiterhin bei GDDR3?

Anarchy-HWLUXX
2008-02-26, 17:27:20
Test bei Computerbase gesehn ? Flop,beide Karten,vorallem bei dem Preis.
Lies mal die letzten posts hier - die angeblichen benches sind müll², gemacht mit nen GTS-SLI auf viel zu niedrigen Taktraten ... für CB aba trozdem kein grund se wieder rauszunehemen :rolleyes:

AnarchX
2008-02-26, 17:28:32
Meinst du ernshaft NV nimmt gleich GDDR5 oder bleibt NV weiterhin bei GDDR3?
Entweder 512-Bit GDDR3, was knapp werden könnte oder <=384-Bit GDDR5.

GDDR4 ist eine Gemeinschaftsentwicklung von Samsung und ATi, NV hat hier offenbar große Probleme, diesen zu nutzen, da seine Specs wohl nicht wirklich zur eigenen Architektur passen.

LovesuckZ
2008-02-26, 17:29:18
Ein G92*1,5 (12 Shadercluster = 192 Streamprozessoren; 6 ROP-Blöcke = 384 Bit SI) würde so übrigens rund 1,1 Mrd. Transistoren benötigen. Das passende PCB hätte man wohl schon vom G80 und mit etwas gesenkten Taktraten (z.B. 550/1500/900) und gesenkter Spannung könnte man auch die Leistungsaufnahme in Grenzen halten. Das hätte ich mir als 9800 GTX gewünscht.

Sowas bringt man nicht, wenn man 6 Monate später etwas neues vorstellen will.
Und ich bezweifel, dass man hier bei unter 200 Watt läge. Immerhin hat die Karte 50% mehr Funktionseinheiten und eine ähnliche Taktrate.
Nicht nur das: Für einen Übergangschip wäre die Fertigung verdammt teuer. Nicht nur der Chip wäre entsprechend größer (400-500mm²), auch die Platine müsste wieder aufwendiger gebaut werden.
Ich denke, dass nVidia heute einfach irgendwas billiges haben wollte und dann im 3. Quartal wieder etwas großes zu bringen.

Spasstiger
2008-02-26, 17:36:36
Ich denke, dass nVidia heute einfach irgendwas billiges haben wollte und dann im 3. Quartal wieder etwas großes zu bringen.
Dann hätten sie das Teil aber auch 8800 GTO nennen können.
Bei 9800 GTX denkt jeder an eine neue Generation, vor allem, wenn dann auch der Preis entsprechend hoch ist. Und ich frage mich, wie NV dann die Karten im Herbst nennen möchte. Bei verdoppelter Rohleistung gegenüber der 9800 GTX wäre z.B. 9800 Ultra ziemlich lächerlich. Ich kann mir höchstens vorstellen, dass man auf ein neues Namensschema umschwenkt, z.B. GeForce 10E GTX fürs High-End (E wie Enthusiast) und GeForce 10P GTS fürs Performance-Segment.

Gast
2008-02-26, 17:38:35
Neue Namen im Herbst aus der Tasche zu zaubern wird das Geringste Problem sein. ;)

puntarenas
2008-02-26, 17:41:55
Neue Namen im Herbst aus der Tasche zu zaubern wird das Geringste Problem sein. ;)
Ich machs für den halben Preis ;)

AnarchX
2008-02-26, 17:42:32
Generell kann man wohl davon ausgehen, dass etwas mit G92+65nm schief lief.

Im Frühjahr wurden ja noch bis zu 2.6GHz für die Shaderdomain als möglich geäußert, die wohl nicht nur reines Wunschdenken sind, sondern Ergebnisse von Simulatorläufen.

Stellt sich die Frage, ob NV vielleicht den Schritt auf 55nm geht, der neben einer kleineren Die-Size vielleicht auch bessere Taktpotential mit sich bringt, immerhin wird wohl G92 noch etwas am Markt bleiben, da GT200(proj. Q3) erstmal in hochpreisigen Bereichen sich bewegen wird und für Ableger wahrscheinlich 45nm nötig ist, um vernünftige Margen einzufahren, was dann wohl erst Frühjahr 2009 bedeuten würde.

Ich kann mir höchstens vorstellen, dass man auf ein neues Namensschema umschwenkt, z.B. GeForce 10E GTX fürs High-End (E wie Enthusiast) und GeForce 10P GTS fürs Performance-Segment.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6299342&postcount=550
;)

Gast
2008-02-26, 17:49:06
Vielleicht ist der aktuell verfügbare 55nm Prozess auch vermurkst und nur zum Kostensparen gut.
Weshalb erstmal bei 65nm bleiben muss und nicht beliebig den G92 aufblasen kann, sondern in ferner Zukunft auf 45nm setzen wird.

reunion
2008-02-26, 17:51:07
Im Frühjahr wurden ja noch bis zu 2.6GHz für die Shaderdomain als möglich geäußert, die wohl nicht nur reines Wunschdenken sind, sondern Ergebnisse von Simulatorläufen.


Naja, gesagt wird viel wenn der Tag lang ist. Diese 2.6hz und später dann 2.4Ghz könnten genau so gut vom jemanden frei erfunden worden sein. AMD konnte ja von 80nm (R600) bis 55nm (RV670 ) auch kaum mehr Taktraten herausholen. Mittlerweile sind wir an einem Punkt angelangt, wo das Design maßgeblich für die erreichbaren Taktraten ist. Ist ja im CPU-Bereich nicht anders, der Phenom kann ein Lied davon singen. Diese automatische Taktsteigerung durch eine kleinere Strukturbreite sind einfach nicht mehr drin, außer vielleicht bei thermischen Problemen.


Stellt sich die Frage, ob NV vielleicht den Schritt auf 55nm geht, der neben einer kleineren Die-Size vielleicht auch bessere Taktpotential mit sich bringt, immerhin wird wohl G92 noch etwas am Markt bleiben, da GT200(proj. Q3) erstmal in hochpreisigen Bereichen sich bewegen wird und für Ableger wahrscheinlich 45nm nötig ist, um vernünftige Margen einzufahren, was dann wohl erst Frühjahr 2009 bedeuten würde.


Vor dem H2 kommt AFAIK kein 55nm Chip von nV und ob es sich dann noch auszahlt halte ich für zweifelhaft.

LovesuckZ
2008-02-26, 17:51:12
Im Frühjahr wurden ja noch bis zu 2.6GHz für die Shaderdomain als möglich geäußert, die wohl nicht nur reines Wunschdenken sind, sondern Ergebnisse von Simulatorläufen.


Keine Chance. Das waren wohl eher Spielchen. Das wäre zum G80 fast eine Verdopplung. Selbst die 7900GTX konnte man gerade mal auf 700MHz bringen. Und die Karte war hochoptimiert.
50% sollten mit dem heutigen G92 machbar sein. Und der Aufwand sollte nichtmal so hoch sein.

Spasstiger
2008-02-26, 17:53:32
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6299342&postcount=550
;)
Thx, sieht aber sehr verwirrend aus für den Laien.

Ich selbst ärgere mich ein wenig, dass ich damals im April 2007 nicht gleich eine GeForce 8800 GTX gekauft habe, kostete damals 430€ neu. Die Karte wäre immer noch auf High-End-Niveau, selbst wenn die 9800 GTX kommt. Ich ging ja damals noch davon aus, dass ATI mit einer schnelleren Karte kontert und die Preise stark fallen, was sich aber nicht so schnell bewahrheitet hat.
G80-Käufer (auch die "early adopters") haben einfach alles richtig gemacht, ist ja fast wie beim R300 damals (Radeon 9700). ;)

MiamiNice
2008-02-26, 17:59:21
Die neuen Karten von NV sind imho nen Witz. Möchte keine der beiden Karten in meinem Rechner haben. Kaum Mehrleistung immer noch zu viel Stromverbrauch.
Ausserdem nur 256 Bit ??? und 512 MiB Ram ???. Das Kürzel "GTX" stand doch immer für High-End nicht für die Mittelklasse. Ich versteh die Welt nicht mehr.

MfG

AnarchX
2008-02-26, 18:01:29
Keine Chance. Das waren wohl eher Spielchen. Das wäre zum G80 fast eine Verdopplung. Selbst die 7900GTX konnte man gerade mal auf 700MHz bringen. Und die Karte war hochoptimiert.
Bei G71 mag ich doch bezweifeln, dass man hier auf hohe Taktraten hin gearbeitet hat, da ja die GX2-Pläne wohl doch schon recht früh vorhanden waren. Auch spricht die Reduktion des Transistorcounts nicht unbedingt dafür.

Bei G80 auf G92 haben wir hingegen gar einen ganze Full-Node Unterschied, zudem scheint ja G92 auch Massetransistoren für entsprechende Taktraten zu haben.


50% sollten mit dem heutigen G92 machbar sein. Und der Aufwand sollte nichtmal so hoch sein.
Wenn man sich anschaut, wie gut die GTS-512 mit ihren 1.2xV übertakten lassen und das die AIBs bis zu 740MHz bei unter 150W Board-TDP liefern können, dann sollte das durchaus möglich sein.

Im Endeffekt hat Ailuros wohl recht, NV wird nicht sonderlich bedrängt durch ATi und kann somit den GT200 wirksamer "einschlagen" lassen.

LovesuckZ
2008-02-26, 18:06:02
Bei G71 mag ich doch bezweifeln, dass man hier auf hohe Taktraten hin gearbeitet hat, da ja die GX2-Pläne wohl doch schon recht früh vorhanden waren. Auch spricht die Reduktion des Transistorcounts nicht unbedingt dafür.

50% höhrere Taktrate beim G71 zum G70 bei gleichem Stromverbrauch.
Der G71 war eben ein verdammt margenoptimiertes Ungeheuer. Der Prozeß ließ wohl nicht mehr als als 700-720MHz zu.

Ailuros
2008-02-26, 18:50:55
Vor dem H2 kommt AFAIK kein 55nm Chip von nV und ob es sich dann noch auszahlt halte ich für zweifelhaft.

Dafuer muesste das Resultat ein totaler Misserfolg werden; eine Verspaetung im Entwicklungs-zyklus vor dem Produktions-Stadium wuerde ein erstes schlechtes Anzeichen sein, so wie manche von uns es Monate vor dem R600-Release erfuhren. Aber ich will Dir natuerlich Deinen Optimismus nicht verpatzen oder? :P

reunion
2008-02-26, 18:53:01
Dafuer muesste das Resultat ein totaler Misserfolg werden; eine Verspaetung im Entwicklungs-zyklus vor dem Produktions-Stadium wuerde ein erstes schlechtes Anzeichen sein, so wie manche von uns es Monate vor dem R600-Release erfuhren. Aber ich will Dir natuerlich Deinen Optimismus nicht verpatzen oder? :P

Hm? Ich verstehe nur Bahnhof.

Ailuros
2008-02-26, 19:04:44
Hm? Ich verstehe nur Bahnhof.

Wie deutet man sonst indirekt in Deutsch an dass es bis jetzt keine Probleme gibt?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5172&Itemid=34

Natuerlich legt Fudo etwas zu frueh an, denn "R700" kommt etwas spaeter als RV770.

Gast
2008-02-26, 19:08:26
Natuerlich legt Fudo etwas zu frueh an, denn "R700" kommt etwas spaeter als RV770.
...und GT200, kommt der vor oder nach R700?

AnarchX
2008-02-26, 19:09:57
Dann ist wohl auch Digitimes "55nm D9P" für Juni wohlmöglich auch der GT200?

Würde aber wohl dann gegen GDDR5 und für 512-Bit@GDDR3(<=150GB/s) sprechen, was wiederum die Größe etwas relativiert.

reunion
2008-02-26, 19:10:16
Wie deutet man sonst indirekt in Deutsch an dass es bis jetzt keine Probleme gibt?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5172&Itemid=34

Natuerlich legt Fudo etwas zu frueh an, denn "R700" kommt etwas spaeter als RV770.

Du sagtest doch selbst wenn alles nach Plan läuft Q3. Auch in der Meldung steht 2H.

This card will compete with R700; and both these cards are expected in the second half of 2008.

Gosh
2008-02-26, 19:18:46
This card will compete with R700; and both these cards are expected in the second half of 2008.

November, wetten :usad:

Gast
2008-02-26, 20:22:08
November, wetten :usad:
Ist doch lange bekannt, mit üblicher Verpätung dann Januar 2009.

Ob man das den Juli08 Hoffern nochmal sagen sollte?

4711
2008-02-26, 20:33:29
Entweder 512-Bit GDDR3...sowas kommt noch nicht mal in die Nähe meines Rechners.

dargo
2008-02-26, 22:56:42
€dit: mal nicht so ungeduldig... einen doppelten G92 wird sicher geben: den GT200 !
Das wäre aber die nächste Enttäuschung. Ein doppelter G92 reicht nicht um den G80 2,5-3x zu überbieten. Da muss schon imo etwas mehr passieren.

Gast
2008-02-26, 23:01:22
Das wäre aber die nächste Enttäuschung. Ein doppelter G92 reicht nicht um den G80 2,5-3x zu überbieten. Da muss schon imo etwas mehr passieren.
Ist das nicht ein wenig hoch gegriffen? Ich meine, die Hersteller operieren doch jetzt schon in abenteuerlichen Regionen was Transistorcounts und Hitzeentwicklung angeht und das Shrinken flutscht auch nicht mehr so selbstverständlich wie früher.

Irgendwie scheinen mir diese Multi-GPU-Überlegungen nicht ganz ohne Not entstanden zu sein und ob man sowas auf Anhieb derart effizient hinkriegt, bleibt doch fraglich.

dargo
2008-02-26, 23:05:02
Ist das nicht ein wenig hoch gegriffen?
Der GT200 soll angeblich 2,5x mehr Transistoren besitzen als ein G80. Einige interne Verbesserungen erwarte ich bei einer neuen GPU ebenfalls. Also ~3x G80 Leistung würde ich dabei schon erwarten.

Spasstiger
2008-02-26, 23:30:55
Der GT200 soll angeblich 2,5x mehr Transistoren besitzen als ein G80. Einige interne Verbesserungen erwarte ich bei einer neuen GPU ebenfalls. Also ~3x G80 Leistung würde ich dabei schon erwarten.
Bei 2,5-mal so vielen Transistoren wären z.B. 20 Shader/TMU-Cluster (jeweils 60-65 Mio. Transistoren) und 8 ROP-Gruppen (jeweils ~45 Mio. Transistoren) denkbar.
Also 320 Streamprozessoren und ein 512 Bit Speicherinterface. Damit würde man mit der Radeon HD2900 XT gleichziehen, nur halt mit bedeutend mehr TMUs (160 bilineare bzw. 80 fp16-fähige gegenüber 16 fp16-fähigen TMUs), mind. doppeltem Shadertakt und effizienterer Architektur.
Ich frage mich nur, wie man dabei die Leistungsaufnahme und Kühlerlautstärke im Zaum halten möchte.
Das wird doch auf 250 Watt TDP hinauslaufen.

dargo
2008-02-26, 23:35:24
Also 320 Streamprozessoren und ein 512 Bit Speicherinterface.
Naja, 320SPs finde ich schon etwas viel. Ich würde eher von 256 ausgehen, die aber effizienter als beim G8x/G9x arbeiten.

Spasstiger
2008-02-26, 23:40:56
Naja, 320SPs finde ich schon etwas viel. Ich würde eher von 256 ausgehen, die aber effizienter als beim G8x/G9x arbeiten.
Gut, ich könnte mir vorstellen, dass man aus dem zusätzlichen MUL ein weiteres MADD macht, ähnlich wie beim Wechsel von der GeForce 6 zur GeForce 7, und dafür halt die Zahl an Shader-ALUs nicht so drastisch steigert.
Aber das Problem der Leistungsaufnahme löst man so nicht, man entschärft es nur minimal.

Nur komisch finde ich, dass man die 9800 GTX so schwach auslegt, wenn der Nachfolger wirklich mehr als doppelt soviel Rechenpower bekommt. Mit einer Steigerung von 50-70% ist die Spielergemeinde bei einer neuen Generation auch zufrieden, wenn die Leistungssteigerungen dafür häufiger kommen (also z.B. im Jahrestakt).

AnarchX
2008-02-26, 23:42:54
Ich würde eher von 128 TMUs, die vielleicht nun auch FP16 in einem Takt filtern können, also 16 Cluster, wohinter eben mehr als 16 skalare MADD+MUL SPs stehen.

Also vielleicht:
128 TMUs @ ~650MHz: 2.3 bzw. 4.6 mal G80GTX
384(MADD+MUL)SPs@~1.9GHz: 4.2 mal G80GTX

Beim SI halt 512-Bit+~1.2GHz GDDR3 oder <=384-Bit + GDDR5, wobei hier dann die ROP-Anzahl bzw. Z-Sampler Anzahl pro Partition doch erhöht werden sollte.
512Bit@1.2GHz: ~1.7mal G80GTX
oder
320Bit@2.2GHz ~2 mal G80GTX

Und generell halt noch ein paar Optimierungen am Setup, 1 Tri/Clock wäre z.B. auch nicht verkehrt.

Gut, ich könnte mir vorstellen, dass man aus dem zusätzlichen MUL ein weiteres MADD macht, ähnlich wie beim Wechsel von der GeForce 6 zur GeForce 7, und dafür halt die Zahl an Shader-ALUs nicht so drastisch steigert.

Das MUL braucht man aber offensichtlich für andere Aufgaben, wie Interpolationen.



Nur komisch finde ich, dass man die 9800 GTX so schwach auslegt, wenn der Nachfolger wirklich mehr als doppelt soviel Rechenpower bekommt. Mit einer Steigerung von 50-70% ist die Spielergemeinde bei einer neuen Generation auch zufrieden, wenn die Leistungssteigerungen dafür häufiger kommen (also z.B. im Jahrestakt).
Scheint aber wohl wirtschaftlicher für NV zu sein. ;)

Superheld
2008-02-26, 23:53:50
9800GTX 3DMark06 (http://en.expreview.com/?p=280)

hmm dann könnte ich ca 3000P mehr in 3DMark06 haben =)

Ailuros
2008-02-27, 05:59:21
Du sagtest doch selbst wenn alles nach Plan läuft Q3. Auch in der Meldung steht 2H.

RV770 ist fuer Ende Q2 angesetzt; die X2 kommt spaeter. Bis jetzt laeuft eben alles nach Plan.

Ailuros
2008-02-27, 06:07:37
Ich würde eher von 128 TMUs, die vielleicht nun auch FP16 in einem Takt filtern können, also 16 Cluster, wohinter eben mehr als 16 skalare MADD+MUL SPs stehen.

Also vielleicht:
128 TMUs @ ~650MHz: 2.3 bzw. 4.6 mal G80GTX
384(MADD+MUL)SPs@~1.9GHz: 4.2 mal G80GTX

Beim SI halt 512-Bit+~1.2GHz GDDR3 oder <=384-Bit + GDDR5, wobei hier dann die ROP-Anzahl bzw. Z-Sampler Anzahl pro Partition doch erhöht werden sollte.
512Bit@1.2GHz: ~1.7mal G80GTX
oder
320Bit@2.2GHz ~2 mal G80GTX

Und generell halt noch ein paar Optimierungen am Setup, 1 Tri/Clock wäre z.B. auch nicht verkehrt.


Es duerften mehr als 8 und weniger als 12 cluster sein. 384/128 ist uebrigens 3:1. Ich kann Dir nur sagen dass es keine einfach aufgemoebelte g8x oder g9x ist; man hat nicht einfach die existierende Architektur genommen und alles mit einem Faktor X multipliziert.

Gast
2008-02-27, 08:30:34
RV770 ist fuer Ende Q2 angesetzt; die X2 kommt spaeter. Bis jetzt laeuft eben alles nach Plan.

Das weiß ich. Nur es ging ja um GT200, und der soll erst im H2 kommen.

reunion

Gast
2008-02-27, 08:33:14
384/128 ist uebrigens 3:1.

Und 3:1 ist viel zu wenig. Es gibt durchaus ernstzunehmende Aussagen, dass sich GT200 beim ALU/TEX-Verhältnis deutlich in Richtung ALU orientiert.

reunion

Gast
2008-02-27, 08:55:30
"Nvidia has informed their partners the upcoming GeForce 9800 GX2 launch is delayed again till March 18th."

http://www.vr-zone.com/articles/GeForce_9800_GX2_Launch_Delayed_Till_18th_March/5602.html

Ailuros
2008-02-27, 09:38:13
Das weiß ich. Nur es ging ja um GT200, und der soll erst im H2 kommen.

reunion

Momentan etwa zeitgleich zu R780 oder wie immer das Dingsbums heissen wird.

GeneralHanno
2008-02-27, 09:42:02
bevor es zu sehr um den GT200 geht, gibts dafür einen eigenen thread ;)

die GX2 scheint nvidia ja arge probleme zu bereiten. vermutlich wollen sie diesen neuen "wundertreiber 174 ..." noch weiter optimieren.
ich kann mir durchaus vorstellen, dass die 9800GX2 "nur" doppelt so schnell ist wie die 9600GT ...

Ailuros
2008-02-27, 09:42:31
Und 3:1 ist viel zu wenig. Es gibt durchaus ernstzunehmende Aussagen, dass sich GT200 beim ALU/TEX-Verhältnis deutlich in Richtung ALU orientiert.

reunion

So war es auch gemeint; lies nochmal genauer den vorigen Post durch.

AnarchX
2008-02-27, 09:44:37
Und 3:1 ist viel zu wenig. Es gibt durchaus ernstzunehmende Aussagen, dass sich GT200 beim ALU/TEX-Verhältnis deutlich in Richtung ALU orientiert.

Fragt sich wofür? Generell scheinen sich zukünftige Spiele nicht wirklich vom aktuellen ALU/TEX-Verhältnis zu entfernen, weshalb ich den Schritt von 2:1 auf 3:1 gerade so als wagbar sehen würde. Höchstens in GPGPU-Bereich wäre ein größerer Schritt von Nutzen.

Ich kann Dir nur sagen dass es keine einfach aufgemoebelte g8x oder g9x ist; man hat nicht einfach die existierende Architektur genommen und alles mit einem Faktor X multipliziert.
Also wohl doch tiefgreifendere Änderungen, die man nur schwierig voraussehen kann.

Ailuros
2008-02-27, 09:44:44
ich kann mir durchaus vorstellen, dass die 9800GX2 "nur" doppelt so schnell ist wie die 9600GT ...

Sie brauchen ja momentan auch nicht mehr.

AnarchX
2008-02-27, 09:46:50
Wie man das wohl deuten kann?

A nice little birdy told me that G92 is still gonna be around for a while longer... *cough* G92b *cough*.

/runs away and hides

Also wohl doch eine B-Revision auf 55nm?

GeneralHanno
2008-02-27, 09:48:07
naja aus der 4-fachen breite (textur und aritmetik) die doppelte leistung zu holen, ist kein besonderes klanzstück!

€dit: nun, der GT200 mag die 9800GX2 ersetzten (bzw pulveresieren), aber für den bereich unter 400€ wird man wohl bis weihnachten den G92 benutzen!

Ailuros
2008-02-27, 09:54:06
Fragt sich wofür? Generell scheinen sich zukünftige Spiele nicht wirklich vom aktuellen ALU/TEX-Verhältnis zu entfernen, weshalb ich den Schritt von 2:1 auf 3:1 gerade so als wagbar sehen würde. Höchstens in GPGPU-Bereich wäre ein größerer Schritt von Nutzen.

Wer spricht denn von 3:1? Von dem abgesehen welches der heutigen Spiele braucht mehr Fuellrate ueberhaupt?

Also wohl doch tiefgreifendere Änderungen, die man nur schwierig voraussehen kann.

Ich glaube ich hatte schon damals erwaehnt als der 384 Unfug auftauchte, dass jemand einfach ganz naiv das meiste mit 3x multipliziert hat.

AnarchX
2008-02-27, 09:54:59
naja aus der 4-fachen breite (textur und aritmetik) die doppelte leistung zu holen, ist kein besonderes klanzstück!
Kommt ganz aufs Game drauf an:
http://www.pcinlife.com/article/graphics/2008-02-21/1203606520d503_15.html


€dit: nun, der GT200 mag die 9800GX2 versetzten (bzw pulveresieren), aber für den bereich unter 400€ wird man wohl bis weihnachten den G92 benutzen!
Und da wäre wohl eine Die-Size von ~250mm² nicht verkehrt, zudem löst man vielleicht auch das Taktproblem, sodass man gegen den RV770 wohlmöglich eine GeForce 9900GT schickt, vielleicht läuft bis dahin auch die GDDR5-Produktion entsprechend.:D

DrumDub
2008-02-27, 09:55:28
€dit: nun, der GT200 mag die 9800GX2 versetzten (bzw pulveresieren), aber für den bereich unter 400€ wird man wohl bis weihnachten den G92 benutzen! bingo!

dargo
2008-02-27, 09:57:36
€dit: nun, der GT200 mag die 9800GX2 ersetzten (bzw pulveresieren), aber für den bereich unter 400€ wird man wohl bis weihnachten den G92 benutzen!
Warum denn das? Den GT200 sehe ich in zwei Varianten, genauso wie beim G80 - eine GT200GTX und eine GT200GT bzw. GTS.

Gast
2008-02-27, 10:00:33
€dit: nun, der GT200 mag die 9800GX2 ersetzten (bzw pulveresieren), aber für den bereich unter 400€ wird man wohl bis weihnachten den G92 benutzen!

Eher unter 300€. Dort muss das Ding dann allerdings gegen RV770 konkurrieren. Ob da ein G92 reicht?

GeneralHanno
2008-02-27, 10:01:51
@drago:

wenn ich mir die vermutete die-size so angucke, dann wird der GT200 wohl als GTX 599$ und als GT(S) 399-499$ kosten. billiger besteimmt nicht. vll gibts die GT(S) für 350€ zu kaufen, aber alles darunter (ja die 400€ stimmten vll nicht ganz) wird man wohl noch mit der GF9 füllen (G92,94,96,98).

dargo
2008-02-27, 10:02:10
Von dem abgesehen welches der heutigen Spiele braucht mehr Fuellrate ueberhaupt?

Wie meinst du das? Selbst Crysis hängt noch gut an der Füllrate, zumindest im gleichen Maße wie an der arithmetischen Leistung.

Gast
2008-02-27, 10:02:36
Von dem abgesehen welches der heutigen Spiele braucht mehr Fuellrate ueberhaupt?


Eben, ein aktueller G8x hat Texelfüllrate zum Schweinefüttern. Selbst 16xAF kostet faktisch keine Leistung. Ich denke davon hat man erstmal genug.

dargo
2008-02-27, 10:08:25
@drago:

wenn ich mir die vermutete die-size so angucke, dann wird der GT200 wohl als GTX 599$ und als GT(S) 399-499$ kosten. billiger besteimmt nicht.
Ich nehme jetzt mal ganz frech deine 399$ für einen abgespeckten GT200. Das wären ca. 320-340€ in DE.
Dass ein großes "Die" teuer sein muss hatten wir auch schon beim G80 vermutet. Was der G80 mit der Zeit dann gekostet hat wissen wir alle. Kleiner ist der mit der Zeit nicht geworden. Den Preis bestimmt nicht nur die Die-Größe, sondern vorallem die Konkurrenz.

AnarchX
2008-02-27, 10:11:03
Eher unter 300€. Dort muss das Ding dann allerdings gegen RV770 konkurrieren. Ob da ein G92 reicht?
Wenn GDDR5 für diesen verfügbar sein soll, dann wird er es wohl auch für NV.

Mal eine schnelle Überlegung:

9900 GT: G92@55nm, 128SPs, 750/1800/1800MHz, Preis: ~$249, Launch: Juli

Eben ganz wie NV42 bzw. 6800 GS, welche auch noch nach dem G70 gelauncht wurde und dank 110nm gegenüber NV41 deutlich an Taktpotential zulegte (XFX mit bis zu 485MHz) und so eine vollwertigen Konkurrent zum RV530XT darstellte.

Für GT100 oder wie der Mid-Range-Ableger der GT-Serie heißen wird, kommt wohl ein Launch erst @45nm in Frage, um seine wohl ~1Mrd. Transistoren auf eine vernünftige(<=250mm²) Die-Size zu bringen.

dargo
2008-02-27, 10:13:44
Wie groß schätzt ihr den GT200 in 55nm? Und wie groß ist nochmal der G80?

GeneralHanno
2008-02-27, 10:14:34
den midrange ableger der GT200 würde ich für jan/feb 2009 erwarten, also in einem jahr!

aber wenn nvidia sich für den 55nm halfnode entscheidet, dann doch sicherlich in erster linie bei dem G94,96 und 98 ;)

schließlich wäre ein G92@55nm kaum größer als ein G94@65nm ;)

€dit: on der GT200 in 65 oder 55nm kommt, steht imo noch nicht ganz fest. der G80 (90nm) hatte 480mm²

AnarchX
2008-02-27, 10:24:38
aber wenn nvidia sich für den 55nm halfnode entscheidet, dann doch sicherlich in erster linie bei dem G94,96 und 98 ;)

Wieso?

Wenn man G92 im Sommer dank 55nm noch etwas besser takten kann und ihn mit GDDR5 befeuern kann, so wäre der Shrink wohl nicht so sinnlos, erst recht, wenn man somit den RV770 in Schach halten kann.

Erinnert imo etwas an: 6600GT ~ 6800nu(130nm/GDDR2) --- > 6600GT < 6800GS(@110nm/GDDR3).

Zudem soll G92 wohl auch Basis für Tesla-(Dual)-Karten sein und da ist eine höhere Pro-Watt-Leistung stets gewünscht.

Wie groß schätzt ihr den GT200 in 55nm?
Wieso schätzen? :D

GeneralHanno
2008-02-27, 10:27:41
weil bei den kleineren GPUs die marge wesentlich kleiner ist und daher kostenoptimierungen wesentlich wichtiger sind.

dargo
2008-02-27, 10:29:09
Wieso schätzen? :D
Weil wir im Speku-Unterforum sind. ;)

Deathcrush
2008-02-27, 10:33:39
Schon erwähnt?

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1478021/nvidia.html


GeForce 9800 GTX mit 3DMark 06............ Grafikkarte erreicht im Standardtest des Benchmarks einen Wert von 14014 Punkten, ein Wert, der mit GeForce 8800 Ultra-Karten oder auch übertakteten 8800 GTS-Karten mit G92-GPU ebenfalls möglich ist. ........

GeneralHanno
2008-02-27, 10:36:46
ja wurde schon erwähnt. einfach ein paar seiten zurückblättern.

nur ist 3d-mark total nichtssagend, weil es nicht reale belastungen darstellt.

Deathcrush
2008-02-27, 10:42:21
Ich würde aber auch keine Wunder erwarten wenn er so niedrig ausfallen würde ;) Denn das kann man damit sehr gut aussagen, auch wenn ihn einige hier verteufeln.

Gast
2008-02-27, 10:42:54
Ich hätte mal zwei Fragen, die mich sehr beschäftigen :)

1) Glaubt ihr, dass es auf der CeBit schon erste 9800GTX in Hinterzimmern zu sehen geben wird und dass fleißig Informationen durchsickern?

2) @Ailuros: Woher nimmst du eigentlich deine Informationen, es klingt stets sehr bestimmt was du "spekulierst". Ich will hier nicht deine Anonymität in Frage stellen oder persönlich werden, aber ein Hinweis wie "Fensterputzer bei NVidia" oder "Entwicklungschef bei TSMC", ganz unverbindlich und zur Not auch knapp an der Realität vorbei natürlich, wäre toll.

Danke euch, macht Spaß hier mitzulesen!

GeneralHanno
2008-02-27, 10:45:10
zu 1)

die 9800GX2 soll (von nvidia angeordnet) nur in hinterzimmern und nicht öffentlich gezeigt werden. selbiges könnte auch für die 9800GTX gelten, wobei hierbei die bedingungen noch strenger sein werden

zu 2)

Ail hat gute quellen, aber mehr weis ich darüber leider auch nicht ;)

AnarchX
2008-02-27, 10:47:20
weil bei den kleineren GPUs die marge wesentlich kleiner ist und daher kostenoptimierungen wesentlich wichtiger sind.

Theoretisch schon, aber warum zieht sich dann z.B. der Launch von G96 solange hin?
Momentan bieten HD3600er-Serie und GF8600 doch ein weit schlechteres P/L-Verhältnis und werden wohl trotzdem gekauft, da mancher Kunde wohl nicht über 100€ ausgeben will bzw. der Händler/OEM entsprechend kalkuliert.
Ich würde eher denken, dass Mid-Range mittlerweile deutlich empfindlicher im Bezug auf die Margen ist.

Hvoralek
2008-02-27, 11:19:09
Dass ein großes "Die" teuer sein muss hatten wir auch schon beim G80 vermutet. Was der G80 mit der Zeit dann gekostet hat wissen wir alle. Kleiner ist der mit der Zeit nicht geworden. Den Preis bestimmt nicht nur die Die-Größe, sondern vorallem die Konkurrenz.Mittlerweile ist 90nm selbst bei TSMC ein alter Hut. Ein älterer/ reiferer Prozess bedeutet zum einen weniger Defekte, zum anderen wird TSMC die Fertigung in alten Prozessen wahrscheinlich günstiger anbieteten ls die gleich großer Chips in neueren.

Zu Deinem letzten Satz: Was legt "Die Konkurrenz bestimmt den Preis" denn bzgl. GT200 nahe?

Anarchy-HWLUXX
2008-02-27, 11:24:15
Nvidia 9800GX2 is the heaviest card ever

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5936&Itemid=1

Fudzie hat also alle GraKas der Welt gewogen ;D Und die X2 ist sicherlich auch kein leichtgewicht ... und beim Transport helfen die lustigen Fullsize verlängerungen die GraKas zu stabilisieren - das hat Dell scho gut erkannt.



More 9800GX2 in house pictures

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5939&Itemid=1

Briefmarkensize Bildchen die nix neues zeigen, aba das gehäuse ist wohl aus Metall statt Plastik ...

As we said back in January, Nvidia uses metal and not plastic, which slightly helps cooling and looks more expensive. We believe that plastic might even had some melting issues but it certainly looks better in black metal.

Schmelzen ? Wär a bissi dämlich hier Thermoplast zu verwenden ;) Gibt genug Kunststoffe die garnicht Schnelzen können - jedenfalls nicht bei Temperaturen unter Zimmerbrand niveau.

puntarenas
2008-02-27, 11:45:26
Briefmarkensize Bildchen die nix neues zeigen, aba das gehäuse ist wohl aus Metall statt Plastik ...

Okay, vielleicht kein Kriterium um Grafikkarten zu bewerten, aber ich finde die Karte sieht total geil aus :)

dargo
2008-02-27, 11:47:56
Zu Deinem letzten Satz: Was legt "Die Konkurrenz bestimmt den Preis" denn bzgl. GT200 nahe?
Nun, ich hoffe zumindest, dass ein RV770 mit einem abgespeckten GT200 (sprich GT/GTS/GTO oder was auch immer) konkurrieren kann.

Anarchy-HWLUXX
2008-02-27, 11:48:17
Okay, vielleicht kein Kriterium um Grafikkarten zu bewerten, aber ich finde die Karte sieht total geil aus :)
Ja, das sowieso :ucatch:

Gast
2008-02-27, 11:54:17
Nun, ich hoffe zumindest, dass ein RV770 mit einem abgespeckten GT200 (sprich GT/GTS/GTO oder was auch immer) konkurrieren kann.

Kaum vorstellbar, dann müsste ja ein R700 mit zwei RV770 den GT200 deutlich schlagen.

Ailuros
2008-02-27, 11:57:24
1) Glaubt ihr, dass es auf der CeBit schon erste 9800GTX in Hinterzimmern zu sehen geben wird und dass fleißig Informationen durchsickern?

Die Infos sind anscheinend schon durchgesickert.

2) @Ailuros: Woher nimmst du eigentlich deine Informationen, es klingt stets sehr bestimmt was du "spekulierst". Ich will hier nicht deine Anonymität in Frage stellen oder persönlich werden, aber ein Hinweis wie "Fensterputzer bei NVidia" oder "Entwicklungschef bei TSMC", ganz unverbindlich und zur Not auch knapp an der Realität vorbei natürlich, wäre toll.


Zu 100% genau ist es nie und nein ich hab keinen direkten Verbund zu jeglichem IHV nur sehr gute und alte Freundschaften. Ich glaub ich hab mich irgendwo vertippt ueber die neue Generation und ich muss jetzt zusehen was jetzt stimmt und was nicht *seufz*

dargo
2008-02-27, 12:00:15
Kaum vorstellbar, dann müsste ja ein R700 mit zwei RV770 den GT200 deutlich schlagen.
Was heißt denn deutlich. Eine 3870X2 schlägt die G8800Ultra ja auch nicht selten.

Außerdem:
GT200GT = 100fps
GT200GTX = 150fps
RV770 = 90fps
R700 = 153fps (85% CF Effizienz)

Gast
2008-02-27, 12:00:56
Nun, ich hoffe zumindest, dass ein RV770 mit einem abgespeckten GT200 (sprich GT/GTS/GTO oder was auch immer) konkurrieren kann.

wenn der gt200 wirklich so schnell wird wie immo spekuliert wird, solltest du eher hoffen dass die rv770x2 sich zwischen die abgespeckte gt200 und die richtige gt200 setzen kann und nicht geradeso mit der abgespeckten mitkommt

puntarenas
2008-02-27, 12:06:06
Die Infos sind anscheinend schon durchgesickert.

Im Wesentlichen schon, aber da das PCB wegen HybridPower und TripleSLI ohnehin überarbeitet wurde, besteht ja noch ein letztes Fünkchen Hoffnung auf einen bescheidenen 2D-Modus. Das kann natürlich zugunsten der eigenen Mainboardsparte auch komplett und für kommende Karten begraben worden sein.

Balkenlänge ist natürlich das Wichtigste und da ist ja bereits recht genau abschätzbar, wo die Karte liegen wird. Ich hoffe nur, der teure GDDR3-RAM schlägt nicht allzu sehr auf den Endpreis durch, daneben muss man ja auch noch das "GTX" bezahlen.

Gast
2008-02-27, 12:07:27
Was heißt denn deutlich. Eine 3870X2 schlägt die G8800Ultra ja auch nicht selten.

Außerdem:
GT200GT = 100fps
GT200GTX = 150fps
RV770 = 90fps
R700 = 153fps (85% CF Effizienz)

Ich glaube kaum das bei einer abgespeckten Version des GT200 1/3 der gesamten Chips deaktiviert ist. RV770 ist klar im Performancesegment bis 299$ angesiedelt, wenn dieser mit einem abgespecktem GT200 mithalten könnte, wäre das für nV nicht schön.

w0mbat
2008-02-27, 12:08:21
Fudo hat eine 9800GX2 und jammert darüber. Die Treiber sind angeblich total instabil (regelmäßige Abstürze in versch. Spielen), der Lüfter wird immer rauf und runter geregelt und die Abdeckungen an den Stromanschlüssen brechen sehr leicht ab.

Wenn nVidia die Treiber mitsamt der Lüftersteuerung in den Griff bekommt und noch ein bisschen stabilere Klappen verbaut wäre sie aber ganz ok.

Gast
2008-02-27, 12:08:49
Was heißt denn deutlich. Eine 3870X2 schlägt die G8800Ultra ja auch nicht selten.

Außerdem:
GT200GT = 100fps
GT200GTX = 150fps
RV770 = 90fps
R700 = 153fps (85% CF Effizienz)

Ich glaube der unterschied wird,wie schon bei g80 eher bei 30%(solange man nicht auf 2560 hochgeht) liegen,und nicht dass gt200gtx 50% schneller ist als die abgespeckte version.

AnarchX
2008-02-27, 12:09:40
Außerdem:
GT200GT = 100fps
GT200GTX = 150fps
RV770 = 90fps
R700 = 153fps (85% CF Effizienz)
Imo überschätzt du RV770 etwas, wenn er knapp über einer 8800 Ultra liegt, also in deiner Projektion knapp unter 70FPS kann man wohl zufrieden sein.

dargo
2008-02-27, 12:10:32
Ich glaube kaum das bei einer abgespeckten Version des GT200 1/3 der gesamten Chips deaktiviert ist.

Beim G80 war es nicht anders.


RV770 ist klar im Performancesegment bis 299$ angesiedelt, wenn dieser mit einem abgespecktem GT200 mithalten könnte, wäre das für nV nicht schön.

Ja, ok. Das ist natürlich was anderes. Den abgespeckten GT200 würde ich eher auf 399-449$ schätzen.

Ailuros
2008-02-27, 12:12:41
Was heißt denn deutlich. Eine 3870X2 schlägt die G8800Ultra ja auch nicht selten.

Außerdem:
GT200GT = 100fps
GT200GTX = 150fps
RV770 = 90fps
R700 = 153fps (85% CF Effizienz)

ROTFLMAO :D

Ailuros
2008-02-27, 12:14:07
Beim G80 war es nicht anders.


Ja, ok. Das ist natürlich was anderes. Den abgespeckten GT200 würde ich eher auf 399-449$ schätzen.

Kannst Du eigentlich einsehen dass Du hier nur Schwachsinn zusammenrechnest ohne die blasseste Ahnung zu haben um was es sich genau bei A & B handelt?

dargo
2008-02-27, 12:16:04
Kannst Du eigentlich einsehen dass Du hier nur Schwachsinn zusammenrechnest ohne die blasseste Ahnung zu haben um was es sich genau bei A & B handelt?
Ail, ich weiß selbstverständlich, dass ich hier zuviel fantasiere. Wir sind hier aber noch im Speku-Forum.

Ailuros
2008-02-27, 12:34:19
Ail, ich weiß selbstverständlich, dass ich hier zuviel fantasiere. Wir sind hier aber noch im Speku-Forum.

Nur faengt man beim spekulieren einer zukuenftigen GPU nicht mit der finalen Leistung an ohne jegliche andere Daten in der Hand zu haben.

dargo
2008-02-27, 12:40:11
Nur faengt man beim spekulieren einer zukuenftigen GPU nicht mit der finalen Leistung an ohne jegliche andere Daten in der Hand zu haben.
Ach, die Vorfreude ist doch immer noch das Schönste. :wink:
Gerade, nachdem man so was lächerliches @G9800GTX präsentiert hat. :sneak:

Ailuros
2008-02-27, 12:42:28
Selbst wenn die 9800GTX um 30% schneller waere als die 8800GTX, waere es keine anstaendige Aufruestung fuer 8800-wasauchimmer Besitzer.

dargo
2008-02-27, 12:43:43
Selbst wenn die 9800GTX um 30% schneller waere als die 8800GTX, waere es keine anstaendige Aufruestung fuer 8800-wasauchimmer Besitzer.
Für mich schon, denn so hätte ich +~90% Mehrleistung. Natürlich müsste sich die Neue auch um ~20% übertakten lassen. Sonst schmilzt der Vorsprung wieder.

Ailuros
2008-02-27, 12:57:05
Im Angesicht von GF-Next bleibt es eine idiotische Investition.

MEDIC-on-DUTY
2008-02-27, 13:53:38
Insg. eine eher traurige Vorstellung von nVidia. Da hätte man es auch einfach bei einer GX2 belassen können und die alte 88er Riege bis zum nächsten HighEnd-Singlechip weiterlaufen lassen können. Die Refresh-Chips hätten es auch mit 8850 oder was auch immer getan.

Anarchy-HWLUXX
2008-02-27, 13:55:22
Im Angesicht von GF-Next bleibt es eine idiotische Investition.

Die GF-Next wird ne Liga drüber ligen und wenn man günstig einkauft + zeitig verkauft ist der wertverlust sicher auch akzeptabel ...


Die 8800GTX, die Kann man rüchblickend als "Investition" ansehen, ATM ist keine der neuen GraKas in einer ähnlichen Position, zuviel bewegung am markt.


Die Refresh-Chips hätten es auch mit 8850 oder was auch immer getan.

Ich hingegen denke das alle G9* als GF9*** zu bringen mehr sinn gemacht hätte.

Ailuros
2008-02-27, 14:05:51
Die 8800GTX, die Kann man rüchblickend als "Investition" ansehen, ATM ist keine der neuen GraKas in einer ähnlichen Position, zuviel bewegung am markt.

Rein "zufaelligerweise" hab ich die 7800GTX mit der 8800GTX damals ersetzt und hab mit Absicht die 7900GTX ausfallen lassen. Wenn man eine Parallele zur Vergangenheit ziehen wuerde waere eine 9800GTX mit was genau vergleichbar?

Ich hingegen denke das alle G9* als GF9*** zu bringen mehr sinn gemacht hätte.

Mit 8900GTX haette ich nichts einzuwenden; NV's Logik beruht auf der grossen Leistungs-steigerung vom G94 im Vergleich zu G84. So kann ich es auch verstehen, aber ich koennte so oder so 8700 fuer mainstream und 8900 high end besser verdauen.

Hakim
2008-02-27, 14:06:19
Ich hab irgendwie das Gefühl das (wenn den die GTX wirklich so rauskommt) man auch wegen ATI so eine Karte auf den Markt wirft. Warum soll man eine 32 ROPs, 512bit SI, 160> Shader, 1Gb Vram Monster auf den Markt werfen wenn schon die Midrange Karten ATI in Schacht halten (single karten). So kommt man günstiger davon.

Ailuros
2008-02-27, 14:08:44
Ich hab irgendwie das Gefühl das (wenn den die GTX wirklich so rauskommt) man auch wegen ATI so eine Karte auf den Markt wirft. Warum soll man eine 32 ROPs, 512bit SI, 160> Shader, 1Gb Vram Monster auf den Markt werfen wenn schon die Midrange Karten ATI in Schacht halten (single karten). So kommt man günstiger davon.

Nicht dass die obrigen Einzelheiten auf den Punkt stimmen, aber etwas umgekrempelt hast Du schon GF-Next. So was kommt noch im Laufe des Jahres und jegliche G92-high end Variante war und ist eine Bruecke bis zum Punkt wo es wirklich wieder losgeht.

Anarchy-HWLUXX
2008-02-27, 14:18:03
Rein "zufaelligerweise" hab ich die 7800GTX mit der 8800GTX damals ersetzt und hab mit Absicht die 7900GTX ausfallen lassen. Wenn man eine Parallele zur Vergangenheit ziehen wuerde waere eine 9800GTX mit was genau vergleichbar?

Mit nüx. Der Leistungsunterschied zwischen 7900GTX und 7800GTX war da viel deutlicher + verdoppelung des VRAMs ...


Mit 8900GTX haette ich nichts einzuwenden; NV's Logik beruht auf der grossen Leistungs-steigerung vom G94 im Vergleich zu G84. So kann ich es auch verstehen, aber ich koennte so oder so 8700 fuer mainstream und 8900 high end besser verdauen.

Ich sehe es so das nV wgen der HD38** benennung seitens ATI sich gezwungen sah ebenfalls eine "neue" Generation einzuläuten um beim 08/15 käufer nicht als veraltet darzustehen usw.

Ailuros
2008-02-27, 14:39:57
Mit nüx. Der Leistungsunterschied zwischen 7900GTX und 7800GTX war da viel deutlicher + verdoppelung des VRAMs ...

Um bis zu ~75% mehr fuer die 7900GTX (launch 09.03.06); um wieviel schneller ist aber die 8800GTX (launch 08.11.06) als die 7800GTX?

PCGH_Carsten
2008-02-27, 22:31:51
Im Angesicht von GF-Next bleibt es eine idiotische Investition.
GF-Next – jetzt nennst du sie auch schon so. *g*

dargo
2008-02-27, 22:56:35
Im Angesicht von GF-Next bleibt es eine idiotische Investition.
Ansichtssache, der Preis entscheidet. Bei +~90% mehr Leistung und einem Aufpreis von (vielleicht) ~150€ wäre das für mich alles andere als idiotisch.

Gosh
2008-02-27, 22:58:21
Geforce 9

man verkauft zum drittenmal den G80 chip (Überarbeitung is lächerlich)

Welcome to the World of Bauernfang :uhippie:

Paul Brain
2008-02-28, 00:03:03
Um bis zu ~75% mehr fuer die 7900GTX (launch 09.03.06); um wieviel schneller ist aber die 8800GTX (launch 08.11.06) als die 7800GTX?
Ähm, warum vergleicht ihr denn nicht die 7800GTX-512 mit der 7900GTX? Da war der Unterschied in den meisten Fällen auch nur im niedrigen, einstelligen Prozentbereich vorhanden... Die 512er hatte sogar mehr Bandbreite als die 79er, dafür gabs durch die höheren Taktraten der 79er mehr Shaderleistung, was im Endeffekt meistens leicht schneller war als die 512er.
So gesehen wiederholt sich die Geschichte mit G92... ;)

Gast
2008-02-28, 00:17:24
...Zu 100% genau ist es nie und nein ich hab keinen direkten Verbund zu jeglichem IHV nur sehr gute und alte Freundschaften...

Amüsant!

Schön, das du "direkten" Kontakt geschrieben hast, AEG war ja zum Glück von Nvidia beauftragt worden. Und somit hast du dein Gewissen wohl wieder etwas beruhigt, hm?

Allein die Tatsache, dass du 99,9% im Speku-Forum "tätig" bist und jetzt ja schon wieder schöne Marketingnahmen verbreitest, ist mehr als verdächtig.

Auch deshalb fällt es immernoch sehr schwer zu glauben, dass das alles hinter dir liegt.....Schade eigentlich.

Gast
2008-02-28, 00:36:47
Geforce 9

man verkauft zum drittenmal den G80 chip (Überarbeitung is lächerlich)

Welcome to the World of Bauernfang :uhippie:
Toller Hecht.

Dir wärs woll auch lieber man würde heute noch den G80 zum selben Preis verkaufen.

Dann wär halt statt einer billigen 8800GT eine verkrüppelte 8800GTS320 im Slot.

Gast
2008-02-28, 01:26:55
Toller Hecht.

Dir wärs woll auch lieber man würde heute noch den G80 zum selben Preis verkaufen.

Dann wär halt statt einer billigen 8800GT eine verkrüppelte 8800GTS320 im Slot.
Er hat doch recht :P nach 1,5 Jahren nach der 8800GTX kommt die 9800GTX die in höheren Auflösungen und Filter nicht schneller ist :rolleyes:

Gosh
2008-02-28, 01:35:54
Er hat doch recht :P nach 1,5 Jahren nach der 8800GTX kommt die 9800GTX die in höheren Auflösungen und Filter nicht schneller ist :rolleyes:

Genau.

Stellt euch vor der normale uninformiete Kunde,was die große Masse ist, kommt in einen PC Laden.
Er hat ein Geforce 8 Produkt zu Haus und sieht nun im Regal eine Geforce 9.
Reaktion :eek: "Wau die nächste Generation is draußen",er kauft sich das Ding,baut es ein und es ist kein bißchen schneller.

Ich nenne dass Bauernfang,vorallen vom Namen Geforce 9 her,weil es den Leuten eine neue Generation vorgaukelt.

YfOrU
2008-02-28, 04:01:57
Der "normal" uninformierte Kunde kauft sich einen komplett-Pc mit vielen tollen Cardreadern, TV Karte und sogar dem neuesten Windows.
Rest egal denn der geht ins Internet, kann drucken und Musik abspielen.
Ein Gebrauchsgegenstand wie Fernseher, Mikrowelle.. an denen schraubt er auch nicht.

Der kleine Teil dieser Personengruppe, der den PC aufrüstet und so blöd sein sollte sich nicht zu informieren aber trotzdem ein paar hundert Euro auf den Tisch legt,
der hats nicht anderst verdient. Wer nicht fragt bleibt dumm.
Ganz abgesehn davon das es keinen Grund geben würde aufzurüsten denn es läuft defakto alles.

Ein nur gering schlechteres Vorgängerprodukt ist für den Kunden von Vorteil denn er bekommt unter Verwendung seines Gehirns deutlich mehr für sein Kapital.
Das jetzt der Highendbereich aufpoliert wird um dafür wieder etwas höhere Preise ansetzen zu können ist bei den aktuellen Preis/Leistungsverhältnissen doch in Ordnung.

Spasstiger
2008-02-28, 04:52:56
Genau.

Stellt euch vor der normale uninformiete Kunde,was die große Masse ist, kommt in einen PC Laden.
Er hat ein Geforce 8 Produkt zu Haus und sieht nun im Regal eine Geforce 9.
Reaktion :eek: "Wau die nächste Generation is draußen",er kauft sich das Ding,baut es ein und es ist kein bißchen schneller.

Ich nenne dass Bauernfang,vorallen vom Namen Geforce 9 her,weil es den Leuten eine neue Generation vorgaukelt.
Ich kann mir auch vorstellen, dass noch einige Heulthreads kommen werden, in denen sich Leute wundern, warum ihre 9800 GTX nicht schneller als die 8800 GTX ist. Vielleicht weniger in diesem Forum, aber durchaus im Giga- oder Gamestar-Forum.

James Ryan
2008-02-28, 05:47:00
Ich nenne dass Bauernfang,vorallen vom Namen Geforce 9 her,weil es den Leuten eine neue Generation vorgaukelt.

Man lernt halt von der Konkurrenz ;)

MfG :cool:

Ailuros
2008-02-28, 06:15:30
Amüsant!

Schön, das du "direkten" Kontakt geschrieben hast, AEG war ja zum Glück von Nvidia beauftragt worden. Und somit hast du dein Gewissen wohl wieder etwas beruhigt, hm?

Indirekt war es vor der Focus Gruppe und heutzutage. Zwischen 2004 und 2006 war es ein direkter Kontakt selbst durch AEG geschleusst, wegen des direkten NDAs das ich selber an NVIDIA geschickt hatte und jeglicher Meinungsaustausch direkt mit NV vorging.

Mein Gewissen war nie unruhig und Du wirst es auch sehr schwer haben mich in Unruhe ueber die gesamte damalige Schlammschlacht zu bringen. Ich hab mich bei niemand bisher entschuldigen muessen, ganz im Gegenteil zu einem bekannten vorigen administrator einer wohl bekannten Seite, der heute bei AMD arbeitet und das sogar oeffentlich.

Allein die Tatsache, dass du 99,9% im Speku-Forum "tätig" bist und jetzt ja schon wieder schöne Marketingnahmen verbreitest, ist mehr als verdächtig.

Die Focus Gruppe ist weiterhin operativ, aber ich hab seit 2006 nichts mehr damit zu tun. Aber wenn Du wirklich so stark daran interessiert bist diverse Interessen von verschiedenen Leuten zu suchen kann ich Dir gerne die ganze Seifenoper in einem anderen Thread erzaehlen. Ich hatte und habe nichts zu verstecken. Ich bin im Grunde aber dagegen jeglichen persoenlich Dreck ueber's Netz zu ziehen wie andere Kerle in der Vergangenheit.

Auch deshalb fällt es immernoch sehr schwer zu glauben, dass das alles hinter dir liegt.....Schade eigentlich.

Das ist eigentlich Dein Problem. Die halben Infos ueber NV's naechstes Projekt stammen von jemand der bei AMD zeitig arbeitet von einer langen privaten Debatte im B3D IRC Kanal.

Ailuros
2008-02-28, 06:21:33
Ähm, warum vergleicht ihr denn nicht die 7800GTX-512 mit der 7900GTX? Da war der Unterschied in den meisten Fällen auch nur im niedrigen, einstelligen Prozentbereich vorhanden... Die 512er hatte sogar mehr Bandbreite als die 79er, dafür gabs durch die höheren Taktraten der 79er mehr Shaderleistung, was im Endeffekt meistens leicht schneller war als die 512er.
So gesehen wiederholt sich die Geschichte mit G92... ;)

Dein letzter Satz ist eigentlich das was ich meinte; wie man zu der Schlussfolgerung kommt duerfte weniger wichtig sein.

Nebenbei: CJ sprach gestern von einem "G92b"; von dem Ding hatte ich persoenlich bis jetzt nichts gehoert. Ich koennte mir leicht vorstellen dass sie mit G92 nie die angezielten Frequenzen erreichen konnten. Das "b" Ding koennte entweder ein einfaches respin sein oder sogar ein die-shrink.

Und obwohl es in den anderen Thread gehoert: GF-Next ist doch nicht auf 55nm, sondern auf 65nm.

Gast
2008-02-28, 08:20:10
Und obwohl es in den anderen Thread gehoert: GF-Next ist doch nicht auf 55nm, sondern auf 65nm.

Das relativiert die große Die-Size aber deutlich. Das Ding wird dann also nichtmal doppelt so groß wie ein G92 was die Transistorenanzahl betrifft.

reunion

AnarchX
2008-02-28, 11:25:10
http://img524.imageshack.us/img524/5430/9800gtxpower4e0646acvm2.png (http://imageshack.us)

http://www.expreview.com/news/hard/2008-02-28/1204190728d7963.html

Also wohl doch etwas an den 168W dran, trotz der eher ernüchternen Taktraten.:|

Ailuros
2008-02-28, 11:25:32
Das relativiert die große Die-Size aber deutlich. Das Ding wird dann also nichtmal doppelt so groß wie ein G92 was die Transistorenanzahl betrifft.

reunion

Die-size stimmte auch nicht.

Ailuros
2008-02-28, 11:27:17
http://img524.imageshack.us/img524/5430/9800gtxpower4e0646acvm2.png (http://imageshack.us)

http://www.expreview.com/news/hard/2008-02-28/1204190728d7963.html

Also wohl doch etwas an den 168W dran, trotz der eher ernüchternen Taktraten.:|

Das was CJ meinte ist wohl ein 55nm 8C/G92 so wie es aussieht. Nach der Tabelle oben ist es auch wohl so dass man das originale Ziel nie erreichen konnte.

AnarchX
2008-02-28, 11:28:27
Die-size stimmte auch nicht.

;D

Und die Leistungsprojektion wohl auch nicht?

Das was CJ meinte ist wohl ein 55nm 8C/G92 so wie es aussieht. Nach der Tabelle oben ist es auch wohl so dass man das originale Ziel nie erreichen konnte.
Und die B-Revision wird es erreichen? 55nm scheint ja, wenn man sich ATis Ergebnisse ansieht, auch nicht gerade so gut zu laufen.

dargo
2008-02-28, 11:37:00
http://img524.imageshack.us/img524/5430/9800gtxpower4e0646acvm2.png (http://imageshack.us)

http://www.expreview.com/news/hard/2008-02-28/1204190728d7963.html

Also wohl doch etwas an den 168W dran, trotz der eher ernüchternen Taktraten.:|
Wenn ich mir die Verlustleistung der G8800Ultra so anschaue dann frage ich mich welcher Honk die TDP dieser mit 17xW festgelegt hat.

Hvoralek
2008-02-28, 11:39:36
Die-size stimmte auch nicht.Ist das Teil also kleiner als bisher angenommen oder sogar noch größer?

Ailuros
2008-02-28, 11:50:08
;D

Und die Leistungsprojektion wohl auch nicht?

Doch. Ich kann bis jetzt den Aufbau bei bestem Willen nicht entziffern aber wenn die Info stimmt dann sollte man nicht G8x/9x als Anhaltspunkt nehmen.

Und die B-Revision wird es erreichen? 55nm scheint ja, wenn man sich ATis Ergebnisse ansieht, auch nicht gerade so gut zu laufen.

Um es mal richtig auszudruecken: man hat wohl mit G92@65nm ins eigene Bein geschossen. Es sieht nicht danach aus als ob irgendwelche Redundanz entfernt wurde und die originalen Frequenz-Ziele konnte man auch nicht einhalten. Dass es quasi eine Art Panik-Entscheidung wegen der frueheren RV670 Veroeffentlichung war, ist ja kein Geheimnis.

Ailuros
2008-02-28, 11:51:31
Ist das Teil also kleiner als bisher angenommen oder sogar noch größer?

Groesser.

puntarenas
2008-02-28, 11:56:45
Ist anzunehmen, dass diese legendäre "B-Revision" nochmal in den Markt kommt, vielleicht schon mit der "echten" 9800GTX oder gibt es voraussichtlich noch einen Shrink Mitte des Jahres, um entspannter bis zum Herbst durchzukommen?

dargo
2008-02-28, 12:04:26
Groesser.
Weißt du schon ob es einen oder zwei GT200 Ableger geben wird? Also praktisch wie beim G80 - GTX und GTS oder von mir aus GT? Und ob diese gleichzeitig gelauncht werden?

Gast
2008-02-28, 12:14:15
Groesser.

Noch größer? Kaum vorstellbar.

reunion

4711
2008-02-28, 12:14:59
Du kannst eine meiner Ultras haben,damit kommste locker über den Winter:tongue:

Blacksoul
2008-02-28, 12:16:32
Du kannst eine meiner Ultras haben,damit kommste locker über den Winter:tongue:


Zum heizen sicherlich. ;D

Weißt du schon ob es einen oder zwei GT200 Ableger geben wird? Also praktisch wie beim G80 - GTX und GTS oder von mir aus GT? Und ob diese gleichzeitig gelauncht werden?

Davon kann man doch eigentlich stark ausgehen, oder nicht? :|
Wann war es denn nicht der Fall? Jedenfalls bei aktuelleren Generationen.
(Uh, ich ahne schon, dass ich gleich bestimmt haufenweise Beispiele bekomme ...)


t.b.d

4711
2008-02-28, 12:16:43
Noch größer? Kaum vorstellbar.

reunion
Wieso neues Gehäuse wird mitgeliefert für 700€ muß das doch drinn sein :wink:

dargo
2008-02-28, 12:20:53
Wieso neues Gehäuse wird mitgeliefert für 700€ muß das doch drinn sein :wink:
:confused:

reunion sprach von der Die-Größe.

4711
2008-02-28, 12:23:45
achso ich dachte die Länge der Karte...dann isses ja wurscht.

Gast
2008-02-28, 12:26:19
Warum haben wir eigentlich noch keinen Speku-Thread für GT200?