PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 9: 9800GTX und GX2 Teil 2


Seiten : [1] 2 3 4 5

AnarchX
2008-01-28, 14:17:01
die 7950GX2 hatte auch eine andere G71 version und das waren ja auch laptop chips. Ich würde da zumindest nicht auf mehr leistung hoffen.
Nein, die 7950GX2 hatte normale G71-D, entsprechen war auch der Vebrauch >2x7900GT (siehe Xbit-Labs).
G71-M(45W TDP @575MHz) wäre wohl zu teuer gewesen, für diese ~500€ Karte. ;)

=Floi=
2008-01-28, 14:38:29
ok hast recht, aber es war eine eigene revision/bezeichnung des chips

GeneralHanno
2008-01-28, 14:48:44
hat die 9800GX2 nicht sogar 225W TDP ?

AnarchX
2008-01-28, 14:56:01
hat die 9800GX2 nicht sogar 225W TDP ?

Laut THG.tw empfiehlt ja NV ein 40A NT, für die 88U 30A.
Sieht mir eher nach einer >250W TDP aus.

Naja, vielleicht machen sie es wie ATi bei der X2, die nur eine 196W TDP, trotz höheren Verbrauch als die 2900XT, bekommen hat. ;)

dargo
2008-01-28, 15:02:54
hat die 9800GX2 nicht sogar 225W TDP ?
Falls sie wirklich mit 2x 550Mhz kommt würde ich von ~220W TDP ausgehen. Real ca. 160W.

Edit:
Jetzt mal ne ganz blöde Idee:

G9800GTX - angeblich 180W TDP
G8800GTX = 177W TDP
G8800GTS(G92) = 140W TDP
G8800GTS(G80) = 147W TDP

Wenn wir davon ausgehen, dass die G92GTS im Durchschnitt ~30-40% schneller ist als eine G80GTS bei sogar etwas weniger Abwärme dann müsste die G9800GTX wenn sie auf dem G92 basiert doch auch ca. 40% schneller sein als die G8800GTX, oder?

Ich weiß, ich spinne. :D

Gast
2008-01-28, 17:00:50
Eine Leistungsbewertung der 9500GT gibts noch nicht, oder?

Würde mir eine Performance vergleichbar oder besser als die 1950pro erhoffen. Wäre damit die perfekte Gelegenheits-Gaming Karte.

AnarchX
2008-01-28, 17:05:41
Eine Leistungsbewertung der 9500GT gibts noch nicht, oder?

Würde mir eine Performance vergleichbar oder besser als die 1950pro erhoffen. Wäre damit die perfekte Gelegenheits-Gaming Karte.

Naja, wird in etwa einer 8600 GTS entsprechen, bei ALU-lastigen Games etwas schneller, wenn man die GDDR3-Version betrachtet. Mit GDDR2 natürlich noch um einiges langsamer.

Eine X1950Pro wird sie nicht übertreffen.

Godmode
2008-01-28, 17:06:19
Wenn ich mir die GX2 Bilder auf Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/januar/geforce_9800_gx2_kuehlers/) ansehe frage ich mich, warum nur 4 Kondensatoren auf der Doppelkarte verbaut wurden? Ebenso bei der neuen X2 von ATI, insgesamt 4 Kondensatoren auf der Platine. Ich kann mich erinnern, dass früher viel mehr von denen drauf war? Ist die Spannungsversorgung einfacher geworden, oder was ist der Grund dafür? Hier zb. ein 7900GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/4/) oder auf der 8800 GTS 512 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/3/), da sind gleich 8 Stück verbaut!

Interessant wäre dann noch, was biliger ist: zwei eher einfachere PCBs(GX2) oder ein komplexeres PCB(X2) zu bauen?

Anarchy-HWLUXX
2008-01-28, 18:12:21
Also heutzutage kann man auch ein Dual Opteron Brett fast komplett Ohne die Kondensator Türme bauen : http://www.happyware.de/deutsch/produkte/server-komponenten/iwill-mainboards/dk8es/index.html

Leider wurde Iwill scho vor einiger zeit aufgekauft :(

Wenn man sich da im vergleich ein aktuelles Tyan ansieht :eek: die sind geradezu zugepflastert mit Kondensatoren.

Billiger ist ne Digitale Stromversorgung sicherlich nicht aber sehr platzsparend - bei den Dual Karten wären so monster Turm-Kondis einfach im weg gewesen, den eingesparten platz kann man nu für die Kühler ausnutzen.


PS : Ich hab den fehler gemacht die Comments bei den CB und TechPowerUp news zu lesen ... so viel schwachfug kann nur und Comments stehen

Godmode
2008-01-28, 18:33:41
Also heutzutage kann man auch ein Dual Opteron Brett fast komplett Ohne die Kondensator Türme bauen : http://www.happyware.de/deutsch/produkte/server-komponenten/iwill-mainboards/dk8es/index.html

Leider wurde Iwill scho vor einiger zeit aufgekauft :(

Wenn man sich da im vergleich ein aktuelles Tyan ansieht :eek: die sind geradezu zugepflastert mit Kondensatoren.

Billiger ist ne Digitale Stromversorgung sicherlich nicht aber sehr platzsparend - bei den Dual Karten wären so monster Turm-Kondis einfach im weg gewesen, den eingesparten platz kann man nu für die Kühler ausnutzen.



Ok das klingt logisch!



PS : Ich hab den fehler gemacht die Comments bei den CB und TechPowerUp news zu lesen ... so viel schwachfug kann nur und Comments stehen

Ich finde is immer recht amusant wie sich die Fanboys zerfetzen :). Bei uns hier ging heute Vormittag bzw. Nachmittag die selbe Show ab. Zum Glück hat Andill aufgeräumt und den Thread dicht gemacht. N1

Ailuros
2008-01-29, 08:26:37
Falls sie wirklich mit 2x 550Mhz kommt würde ich von ~220W TDP ausgehen. Real ca. 160W.

Edit:
Jetzt mal ne ganz blöde Idee:

G9800GTX - angeblich 180W TDP
G8800GTX = 177W TDP
G8800GTS(G92) = 140W TDP
G8800GTS(G80) = 147W TDP

Wenn wir davon ausgehen, dass die G92GTS im Durchschnitt ~30-40% schneller ist als eine G80GTS bei sogar etwas weniger Abwärme dann müsste die G9800GTX wenn sie auf dem G92 basiert doch auch ca. 40% schneller sein als die G8800GTX, oder?

Ich weiß, ich spinne. :D

Wieso sollst Du spinnen? Falls der Stromverbrauch stimmt, sieht es ziemlich duester fuer NV aus fuer die 9800GTX wenn sie nicht so viel Leistung landen kann.

Moralelastix
2008-01-29, 18:01:39
Was is davon zu halten "GeForce 9800 GX2 Scored 14K+ In 3DMark06"

Das is ja kaum der Rede wert!? Ich hatte da auf deutlich mehr gehofft.

Für was soll NV dann überhaupt noch ne 9800GTX bringen deren Leistung noch darunter liegen muss damit sich die GX2 noch verkauft?

dargo
2008-01-29, 18:07:21
Was is davon zu halten "GeForce 9800 GX2 Scored 14K+ In 3DMark06"

Nichts, ohne die CPU zu kennen. Außerdem, wer bencht eine G9800GX2 mit 1280x1024 1xAA/1xAF? :ucrazy:

Moralelastix
2008-01-29, 18:14:05
http://www.vr-zone.com/articles/GeForce_9800_GX2_Scored_14K%2B_In_3DMark06/5532.html

.... Außerdem, wer bencht eine G9800GX2 mit 1280x1024 1xAA/1xAF? :ucrazy:

Wieso? Wenn die Dualkarte von AMD auch bei den Settings ordentlich davon ziehen kann.
18000 gegenüber 14000(8800ultra) dann kann sich NV da auch keine Blöße leisten.

deekey777
2008-01-29, 18:19:02
http://forums.vr-zone.com/showthread.php?t=231259
GeForce 9600GT SLI performance tests und Zusammenfassung bei Overclockers.ru: http://www.overclockers.ru/hardnews/28100.shtml

AnarchX
2008-01-31, 12:18:06
Die 9600 GT scheint ein nettes OC-Potential zu haben:
http://img527.imageshack.us/img527/8544/attachment2f3f4de3vo8.jpg (http://imageshack.us)
http://my.ocworkbench.com/bbs/showthread.php?p=426467#post426467

Mit VMOD vielleicht auch 1GHz@air? ;)

Gast
2008-01-31, 14:04:08
Die 9600 GT scheint ein nettes OC-Potential zu haben:
http://img527.imageshack.us/img527/8544/attachment2f3f4de3vo8.jpg (http://imageshack.us)
http://my.ocworkbench.com/bbs/showthread.php?p=426467#post426467

Mit VMOD vielleicht auch 1GHz@air? ;)

Ist aber auch nichts ungewöhnliches für so einen schmalen Chip! Der G84 ließ sich auch viel besser übertakten als der G80.

Gast
2008-02-01, 09:06:26
Es wird keine 9800GTX geben. In Zukunft wird es sowohl bei ATI als auch bei Nvidia im High-End Bereich nur noch Dual-Chip Lösungen geben.
2 x RV670 = R680
2 x RV770 = R700
2 x G92 = 9800GX2
2 x GT200 = G100

Grestorn
2008-02-01, 09:07:31
Es wird keine 9800GTX geben. In Zukunft wird es sowohl bei ATI als auch bei Nvidia im High-End Bereich nur noch Dual-Chip Lösungen geben.

Woher nimmst Du diese Weisheit?

Snoopy1978
2008-02-01, 09:24:36
Ich nehme mal an entweder ein Glaskugelbesitzer oder Schlussfolgerungen anhand von Produkt- und Marktentwicklungen oder auch Aussagen der Hersteller.

GeneralHanno
2008-02-01, 09:48:06
dann erzähl mir mal, wie nvidia die tri-sli lücke schließen will?
und der GT200 soll über 500mm² haben. da wird der G100 bestimmt keine dualkarte werden :rolleyes:

ach ja, bei ati geben ich die aber recht ;)

€dit: wie wahrscheinlich haltet ihr eine 9600GS und wie mag die aussehen?

Gast
2008-02-01, 10:05:03
dann erzähl mir mal, wie nvidia die tri-sli lücke schließen will?
und der GT200 soll über 500mm² haben. da wird der G100 bestimmt keine dualkarte werden :rolleyes:

ach ja, bei ati geben ich die aber recht ;)



Es könnte auch andersherum sein: 2 x G100 = GT200.
Nvidia wird es wie ATI machen, da es einfach wirtschaftlicher ist nur noch kleinere Chips herzustellen (bessere Fertigungsausbeute).So braucht man für die verschiedenen Marksegmente (Midrange, Highend, usw.) auch nur noch einen einzigen Chip, der durch Zusammenschalten von mehreren davon nach oben skaliert werden kann.

GeneralHanno
2008-02-01, 10:12:13
bei ATi unterschreibe ich das so was du sagst, aber bei nvidia ...

zunächst einmal haben der G100 und der GT200 nichts miteinander zu tun. das eine ist ein DX10.1 chip und das andere ein Dx11 chip. ergo stehen sie in keiner "verbindung" miteinander.

zudem bietet nvidia ja schon tri-sli (mit 3 grafikkarten). das heißt bei nvidia geht der trend weniger zu multi-dice (also mehrere kleine chips auf einem PCB), sondern zu einzelnen grafikkarten (die 9800GX2 halte ich eher für eine notlösung) mit einer fetten DIE, welche dann nach bedarf zu dual- oder tri-SLI verbunden werden können.

Gast
2008-02-01, 10:13:48
Ich glaube auch, dass ATI beim RV770 ein Interface entwickelt hat, mit dem direkt mehrere Chips ohne zusätzliche PCIe-Bridge zusammengeschaltet werden können. So wäre auch eine Karte mit 3 oder sogar 4 Chips möglich.

GeneralHanno
2008-02-01, 10:18:35
der RV770 wird ein etwas verbesserter RV670 sein. (also vermutlich 256bit+GDDR4). der R700 besteht dann aus 2 RV770 und nutzt vermutlich das PCB der X2 3870. also R700 = PCIe-switch lösung

die "echte" multi-die lösung (sozusagen der ursprüngliche R700) werden wohl erst 2009/10 kommen. als neuer R800 mit DX11 ...
R800 = (hoffentlich) one-package oder ringbus lösung

DrumDub
2008-02-01, 10:26:04
Es könnte auch andersherum sein: 2 x G100 = GT200.
nein.

Gast
2008-02-01, 11:06:58
nein.

Da alles, was über den GT200 und G100 bis jetzt bekannt ist nur Gerüchte oder noch besser Wunschdenken ist, ist diese Aussage Schwachsinn.

DrumDub
2008-02-01, 11:13:58
Da alles, was über den GT200 und G100 bis jetzt bekannt ist nur Gerüchte oder noch besser Wunschdenken ist, ist diese Aussage Schwachsinn. also ich denke schon, dass die aussagen zu den codenamen von ail korrekt sind. aber das ist eh nicht thema dieses threads...

Gast
2008-02-01, 12:00:52
Ich gehe davon aus, dass es Nvidia in Zukunft so machen wird wie ATI (Multichipkarten) da sie sonst keine Chance haben, preislich mitzuhalten.
ATI kann so Highend-Lösungen unter 400 EUR anbieten (siehe 3870 X2) während Nvidia für ihre Single-Monsterchip Karten über 500 EUR verlangt, aufgrund höherer Produktionskosten. Intel macht es mit ihren Quadcore-Prozessoren ja genauso (2 Dualcores auf einem Chip).

AnarchX
2008-02-01, 12:12:46
ATI kann so Highend-Lösungen unter 400 EUR anbieten (siehe 3870 X2) während Nvidia für ihre Single-Monsterchip Karten über 500 EUR verlangt, aufgrund höherer Produktionskosten

Ähmm... G80 gibt es seit November 2006 und er basiert noch auf dem 90nm Prozess, welcher schon seit 2005 für GPUs verwendet wird. ;)

Wenn NV wöllte, so könnten sie locker eine Single-GPU-SKU@65/55nm auf den Markt bringen, welche die 3870X2 ungespitzt in den Boden rammt, bei wohlgemerkt besserer Marge.

Aber das RnD spart man sich und basteltet eben schnell die 9800 GX2 und konzentriert sich auf den GT200, der vielleicht eine ähnlich lange "Amtszeit" wie der G80 hat.:D
AMD hingegen ist aber gezwungen auf Grund der finanziellen Lage auf solche billigen Multi-GPU-Lösungen zu setzen.

Gast
2008-02-01, 12:55:29
Ähmm... G80 gibt es seit November 2006 und er basiert noch auf dem 90nm Prozess, welcher schon seit 2005 für GPUs verwendet wird. ;)

Der G80 hat, als er auf den Markt gekommen ist aber auch 550 EUR gekostet.

Wenn NV wöllte, so könnten sie locker eine Single-GPU-SKU@65/55nm auf den Markt bringen, welche die 3870X2 ungespitzt in den Boden rammt, bei wohlgemerkt besserer Marge.

Das glaube ich kaum. Diese Single 65nm GPU ist der G92 und ein einzelner von diesen hat gegen die 3870 X2 keine Chance, deswegen 9800GX2.

Aber das RnD spart man sich und basteltet eben schnell die 9800 GX2 und konzentriert sich auf den GT200, der vielleicht eine ähnlich lange "Amtszeit" wie der G80 hat.:D

Der GT200 wird bei Einführung aber auch wieder 550 bis 600 EUR kosten und nur einen Nischenmarkt bedienen.

AMD hingegen ist aber gezwungen auf Grund der finanziellen Lage auf solche billigen Multi-GPU-Lösungen zu setzen.

Diese Strategie könnte sich aber auszahlen, wenn man wirtschaftlich denkt, was ein Unternehmen ja tun muss.

AnarchX
2008-02-01, 13:06:58
Der G80 hat, als er auf den Markt gekommen ist aber auch 550 EUR gekostet.
Und das zu recht, wenn man ihn in der Relation zu den damaligen Konkurrenzprodukten und Vorgängern sieht.

Eine 3870X2 kann nunmal nicht wirklich teurer sein, da der Kunde sonst auf das billigere und wohl schnellere HD3870 CF oder eben auf eine problemlosere 8800 GTX knapp über 300€ setzen würde.


Das glaube ich kaum. Diese Single 65nm GPU ist der G92 und ein einzelner von diesen hat gegen die 3870 X2 keine Chance, deswegen 9800GX2.
Nein, G92 ist keine High-End-GPU, was man am beschnittenen SI/ROP-Anzahl sieht.
Hätte er auch 24ROPs und 384Bit, so könnte er locker bei seinem Taktpotential die 3870X2 in ihre Schranken weisen.

Der GT200 wird bei Einführung aber auch wieder 550 bis 600 EUR kosten und nur einen Nischenmarkt bedienen.
Dafür wird er aber auch eine Leistung bieten, die diesem Preis würdig ist.
ATi könnte für eine vergleichbare Leistung auch nicht weniger verlangen.


Diese Strategie könnte sich aber auszahlen, wenn man wirtschaftlich denkt, was ein Unternehmen ja tun muss.
Wer an RnD spart, fährt langfristig an die Wand, vorallem wenn man gegen NV konkurriert. Und auch 3Dfx ist ein gutes Beispiel, dass diese Strategie nicht aufgeht.

Gast
2008-02-01, 13:31:18
Eine 3870X2 kann nunmal nicht wirklich teurer sein, da der Kunde sonst auf das billigere und wohl schnellere HD3870 CF oder eben auf eine problemlosere 8800 GTX knapp über 300€ setzen würde.


Die 8800GTX ist nur so billig, weil sie im Ausverkauf ist.


Nein, G92 ist keine High-End-GPU, was man am beschnittenen SI/ROP-Anzahl sieht.


Ganz genau. Ich denke nämlich, dass Nvidia auch keine High-End-GPU mehr herstellen wird, sondern wie ATI zukünftig nur noch Multichiplösungen anbietet. Die angeblichen Specs des GT200 könnten auch ein Multichip sein, denn man könnte auch sagen, dass der R680 640 Streamprozessoren, > 1 Teraflop Rechenleistung usw. hat.


Und auch 3Dfx ist ein gutes Beispiel, dass diese Strategie nicht aufgeht.

3Dfx ist aus anderen Gründen pleite gegangen, ausserdem ist die damalige Marktsituation nicht mit der heutigen vergleichbar.

Snoopy1978
2008-02-01, 13:38:11
Die angeblichen Specs des GT200 könnten auch ein Multichip sein, denn man könnte auch sagen, dass der R680 640 Streamprozessoren, > 1 Teraflop Rechenleistung usw. hat.


Nvidia war ja in der Vergangenheit immer für Überraschungen gut,aber die Specs lassen eher nicht an Multichip glauben.

reunion
2008-02-01, 14:46:05
Wenn NV wöllte, so könnten sie locker eine Single-GPU-SKU@65/55nm auf den Markt bringen, welche die 3870X2 ungespitzt in den Boden rammt, bei wohlgemerkt besserer Marge.


Ich wage zu bezweifeln, dass ein G92 wesentlich billiger herzustellen ist als zwei RV670. Zudem wäre es für AMD auch kein Problem eine Singel-GPU herzustellen, die deine Anforderungen erfüllen würde.


Aber das RnD spart man sich und basteltet eben schnell die 9800 GX2 und konzentriert sich auf den GT200, der vielleicht eine ähnlich lange "Amtszeit" wie der G80 hat.:D


Ist es nicht genau das, was du AMD vorwirfst? RnD zu sparen und sich auf zukünftige Produkte zu konzentrieren?


AMD hingegen ist aber gezwungen auf Grund der finanziellen Lage auf solche billigen Multi-GPU-Lösungen zu setzen.

NV ist gezwungen auf wesentlich teurere Multi-GPU-Lösungen zu setzen um AMDs billige Multi-GPU-Lösung zu schlagen. Man muss zwei G92 nehmen da zwei D9E Chips bei wohlgemerkt größerem Die als RV670 vermutlich zu wenig wären.

laser114
2008-02-01, 14:48:12
Ich wage zu bezweifeln, dass ein G92 wesentlich billiger herzustellen ist als zwei RV670. Zudem wäre es für AMD auch kein Problem eine Singel-GPU herzustellen, die deine Anforderungen erfüllen würde.

Eine G92-Grafikkarte ist aber auf jeden Fall billiger als Grafikkarte mit 2x RV670, wo man noch einen PLX-Chip, eine komplexerer Platine, mehr Speicher, einen größeren Kühler etc. braucht.

reunion
2008-02-01, 14:49:32
der RV770 wird ein etwas verbesserter RV670 sein. (also vermutlich 256bit+GDDR4). der R700 besteht dann aus 2 RV770 und nutzt vermutlich das PCB der X2 3870. also R700 = PCIe-switch lösung


Ich glaube du unterschätzt RV770 etwas. Erstens wohl eher GDDR5 und zweitens wird man die Chips sicher nicht auf einem 3870 X2 PCB unterbringen. PCie-Switch-Lösung ja aber mit integriertem Switch ondie - also auf einem Package.

reunion
2008-02-01, 14:53:13
Eine G92-Grafikkarte ist aber auf jeden Fall billiger als Grafikkarte mit 2x RV670, wo man noch einen PLX-Chip, eine komplexerer Platine, mehr Speicher, einen größeren Kühler etc. braucht.

Natürlich, doch bei den Stückzahlen und der kurzen Marktpräsenz fällt das kaum ins Gewicht. RnD kosten für die 3870 X2 liegen praktisch bei null. Ein Singel-Chip muss erstmal seine Entwicklungs-/Tapeout- und sonstige Kosten hereinspielen.

Diese Strategie könnte sich aber auszahlen, wenn man wirtschaftlich denkt, was ein Unternehmen ja tun muss.

Der Punkt ist das es nicht sein kann das man einen Großteil der Ausgaben für einen immer unrentabler werdenden High-End-Core verpulvert, der diese Investitionen durch die geringen Stückzahlen in diesen Markt vermutlich nicht mal annähernd wieder hereinholen kann. Stattdessen wird dann in anderen Märken gespart wo man mit halbherzigen Lösungen abgespeist wird um die Ausgaben wieder hereinzuholen.

GeneralHanno
2008-02-01, 15:04:24
gerade für ATi wäre es einfacher auf schnelleren GDDR4 zu setzten. zumal der RV770 eventuell schon ende Q2 kommen soll, findest du nicht, das wäre mit GDDR5 etwas knapp.

mit dem PCIe-swich on die bzw onpackage bin ich mir nicht ganz sicher. gabs dazu nicht auch mal ne mitteilung oder ähnliches ...

nomadhunter
2008-02-01, 16:33:51
Es wird keine 9800GTX geben.
Die 9800 GTX ist inzwischen praktisch sicher.

2 x GT200 = G100
Wie kommst du auf die Idee? G(T)200 = DX10.1, G100 = DX11. G(T)200 = H2/08, G100 dürfte Ende 09 oder so kommen.

Hvoralek
2008-02-01, 17:17:19
Woher nimmst Du diese Weisheit?Aus einer Vermischung von Intel- und ATI- Marketing? :confused:

Abgesehen davon, dass Ein- Chip- GraKaen Mist seien und untergehen würden (Was auch sein mag, aber jedenfalls erst nach der 9800 GTX und G200), scheint da ja nichts hinter zu stecken.

Ist es nicht genau das, was du AMD vorwirfst? RnD zu sparen und sich auf zukünftige Produkte zu konzentrierenEs ist ein Unterschied, ob man Übergangslösungen baut und sich auf später kommende Chips konzentriert, oder ob man auf Übergangslösungen baut und gleichzeitig die mittelfristigen Forschungsbudgets kürzt.

Ailuros
2008-02-02, 07:53:06
Es könnte auch andersherum sein: 2 x G100 = GT200.
Nvidia wird es wie ATI machen, da es einfach wirtschaftlicher ist nur noch kleinere Chips herzustellen (bessere Fertigungsausbeute).So braucht man für die verschiedenen Marksegmente (Midrange, Highend, usw.) auch nur noch einen einzigen Chip, der durch Zusammenschalten von mehreren davon nach oben skaliert werden kann.

2x Mal in zwei verschiedenen Threads ist schon mehr als noetig und auch kein Zufall. Da Du aber so sicher darueber zu sein scheinst, kannst Du ja mal mit ein paar rohen GT200 Specs anfangen damit wir auch alle schoen mitlachen koennen.

Ailuros
2008-02-02, 08:21:24
NV ist gezwungen auf wesentlich teurere Multi-GPU-Lösungen zu setzen um AMDs billige Multi-GPU-Lösung zu schlagen. Man muss zwei G92 nehmen da zwei D9E Chips bei wohlgemerkt größerem Die als RV670 vermutlich zu wenig wären.

Wo genau ist der Unterschied zwischen G92 und D9E?

Reicht eine R680 wirklich aus eine 9800GTX zu schlagen?

Es gibt fuer alles sowohl Vor- als auch Nachteile; eine R680 beisst zwar viel weniger in die Margen als eine 9800GX2, aber genau das umgekehrte gilt dann auch wenn man die 9800GTX mit der R680 vergleicht.

Natürlich, doch bei den Stückzahlen und der kurzen Marktpräsenz fällt das kaum ins Gewicht. RnD kosten für die 3870 X2 liegen praktisch bei null. Ein Singel-Chip muss erstmal seine Entwicklungs-/Tapeout- und sonstige Kosten hereinspielen.

Wenn R680 tatsaechlich nur 0 R&D Kosten hatte, dann hat eine single chip G92 high end Loesung genau wieviel Unkosten? Schau Dir mal ganz genau an wieviele Varianten es vom G92 geben wird und wann dieser seinen genauen tape-out hatte.

Der Punkt ist das es nicht sein kann das man einen Großteil der Ausgaben für einen immer unrentabler werdenden High-End-Core verpulvert, der diese Investitionen durch die geringen Stückzahlen in diesen Markt vermutlich nicht mal annähernd wieder hereinholen kann. Stattdessen wird dann in anderen Märken gespart wo man mit halbherzigen Lösungen abgespeist wird um die Ausgaben wieder hereinzuholen.

Dass NVIDIA dieses Jahr einen geringeren Gewinn machen wird als in 2007 kann wohl keiner bezweifeln, denn das vorige Jahr war so schwarz wie moeglich fuer AMD bis zur RV670 Vorstellung.

Wenn jemand aber Deinen obrigen Paragraph falsch auslesen wuerde, koennte er sogar denken dass die Grafik-abteilung AMD's fuer 2008 mehr Gewinn machen koennte als NV.

Ein relativer (aber leider nicht gross genug) Vorteil im Performance-Segment heisst leider nicht dass man die Eindruecke auch im high end Segment mit dual-chip Loesungen unter den heutigen Umstaenden gewinnen kann.

Fuer jemand der auf einer G7x/R5x0 bis jetzt hockte, ist die R680 durchaus ein sehr gutes Angebot, aber auch nicht unbedingt ein insgesamt besseres als einer der auslaufenden 8800GTX bei deren Strassenpreis oder sogar GTS512. Zeig mir aber warum ein 8800GTX Besitzer als Beispiel den Kopf auf das Ding wenden wuerde. Wenn Du endlich einsiehst dass ATI fast 1.5 Jahre brauchte um den Leistungsstand mit etwas Vorsprung zu schlagen, hat man nicht unbedingt etwas besonderes erreicht.

AnarchX
2008-02-02, 12:58:10
Es ist ein Unterschied, ob man Übergangslösungen baut und sich auf später kommende Chips konzentriert, oder ob man auf Übergangslösungen baut und gleichzeitig die mittelfristigen Forschungsbudgets kürzt.
Genau, das war meine Intention in dieser Aussage.

Und allein an der Die-Size erkennen zu wollen, dass RV670 deutlich billiger als G92 ist, würde ich vermuten, ist auch nicht wirklich richtig.

Und wie Ailuros andeutet könnte es wohl bald auch heißen:
1 x G92 >= 2xRV670 @ 3D-Leistung
;)

reunion
2008-02-02, 13:12:29
Wo genau ist der Unterschied zwischen G92 und D9E?


Im meinte natürlich D9P.

Und allein an der Die-Size erkennen zu wollen, dass RV670 deutlich billiger als G92 ist, würde ich vermuten, ist auch nicht wirklich richtig.


Die Wafergröße ist identisch, der Waferpreis sollte sich bei einem Half-Note kaum unterschieden. Kleinere Chips begünstigen die Yieldraten. Bleiben deutlich mehr Chips pro Wafer bei RV670. Was sollte sonst noch den Preis beeinflussen?


Und wie Ailuros andeutet könnte es wohl bald auch heißen:
1 x G92 >= 2xRV670 @ 3D-Leistung
;)

Was noch immer kein Beinbruch für AMD wäre, ein G92 ist gut 60-70% größer. Doch würde ein G92 reichen, wäre die GX2 überflüssig. Und das Ding wird bei gut 650mm² benötigter Waferfläche alles andere als ein guter Deal für NV.

Hvoralek
2008-02-02, 13:45:20
Die Wafergröße ist identisch, der Waferpreis sollte sich bei einem Half-Note kaum unterschieden. Kleinere Chips begünstigen die Yieldraten. Bleiben deutlich mehr Chips pro Wafer bei RV670. Was sollte sonst noch den Preis beeinflussen?Die Ausbeute hängt nicht nur von der Größe des Chips ab, sondern auch von der Architektur. Außerdem spielt es eine Rolle, wie viele Chips die Zieltaktraten schaffen.

Was noch immer kein Beinbruch für AMD wäre, ein G92 ist gut 60-70% größer.Wenn man mit mehr Waferfläche und einer aufwändigeren Platine auch noch langsamer ist, wäre das schon... nicht schön.

laser114
2008-02-02, 14:01:20
Die Ausbeute hängt nicht nur von der Größe des Chips ab, sondern auch von der Architektur. Außerdem spielt es eine Rolle, wie viele Chips die Zieltaktraten schaffen.

Richtig, wobei aber der RV670 wirklich ziemlich günstig sein sollte. Die Chips sollen ja auch einigen leicht zu fertigen Cache aufweisen.
Davon abgesehen lohnt es sich für AMD sogar, in manchen Regionen eine 3690 mit vollen RV670PRO-Ausbau und -Takt mit einem 128-Bit-Interface zu verschachteln. Sollte es Probleme beim Erreichen dieser 670 MHz geben, hätte man sicher niedrigerer Taktraten bei dieser Karte gewählt. Die 3850 ist ja auch ziemlich günstig.

Man sollte nicht vergessen, dass der RV670 als Performance-Chip geplant war. Die Ummodelung des High-End-Modells vom R650 zum R680 mit 2x RV670 dürfte jedenfalls nicht von langer Hand geplant gewesen sein.

reunion
2008-02-02, 14:12:49
Die Ausbeute hängt nicht nur von der Größe des Chips ab, sondern auch von der Architektur.


Natürlich. Ich sehe von AMD noch immer keine teildeaktivierte R6xx-Karte mit Ausnahme der 2900GT, was für eine gute Ausbeute und hohe Redundanz spricht.


Außerdem spielt es eine Rolle, wie viele Chips die Zieltaktraten schaffen.


Naja, Chips welche die Taktraten der 3870 nicht schaffen werden eben dann auf der 3850 verbaut. Die braucht man sowieso. Und diese Taktraten sollte wirklich praktisch jeder RV670 schaffen, sonst würde die 3690 niedriger Takten.


Wenn man mit mehr Waferfläche und einer aufwändigeren Platine auch noch langsamer ist, wäre das schon... nicht schön.

Zwei kleinere Chips haben ggü. einem großen aber gewichtige Vorteile: Das beginnt schon bei der besseren Ausnutzung der runden Wafer am Rand und endet bei weniger Fläche die man bei Fehlern verliert. Schön wäre es natürlich trotzdem nicht, aber wenn es sich nV leisten kann einen G92 gegen einen RV670 zu stellen, sollte das auch machbar sein.

Hvoralek
2008-02-02, 15:48:35
Man sollte nicht vergessen, dass der RV670 als Performance-Chip geplant war. Die Ummodelung des High-End-Modells vom R650 zum R680 mit 2x RV670 dürfte jedenfalls nicht von langer Hand geplant gewesen sein.Gab es denn je Planungen für einen "R650"? Ich dachte, der sei eine Ente gewesen.

laser114
2008-02-02, 16:19:17
Gab es denn je Planungen für einen "R650"? Ich dachte, der sei eine Ente gewesen.

AFAIK ja (ob in 65 oder 55 nm kann ich dir nicht sagen), er wurde dann im Zuge AMDs neuer Strategie gecancelt. So habe ich das mitbekommen.

James Ryan
2008-02-02, 16:59:41
Natürlich. Ich sehe von AMD noch immer keine teildeaktivierte R6xx-Karte mit Ausnahme der 2900GT, was für eine gute Ausbeute und hohe Redundanz spricht.


Ansichtssache.
Ein RV670 mit 240 SPs oder noch weniger wäre genau wie konkurrenzfähig?
Genau, überhaupt nicht!

MfG :cool:

dargo
2008-02-02, 17:12:47
Ich sehe von AMD noch immer keine teildeaktivierte R6xx-Karte mit Ausnahme der 2900GT, was für eine gute Ausbeute und hohe Redundanz spricht.

Der Grund könnte einfach sein, dass AMD sich mit dem R600 "langfristig" gar nicht erst beschäftigen will. Bei der Leistung/Watt nicht wirklich verwunderlich.

w0mbat
2008-02-02, 17:36:18
Gab es denn je Planungen für einen "R650"? Ich dachte, der sei eine Ente gewesen.

Es gab auf jeden Fall Personen bei AMD die sich damit beschäftigt haben. AFAIK wurde aus dem R650-Projekt der RV670, wobei der Codename R650 als "Ente" genutzt wurde.

In den Slides zum R650 war schon von "Better Bandwidth Usage", "Less Energie Consumption" und "Higher Clocks" die Rede. Aber damals sprach man auch noch von DX10.0 und 65nm.

AnarchX
2008-02-02, 17:41:44
In den Slides zum R650 war schon von "Better Bandwidth Usage", "Less Energie Consumption" und "Higher Clocks" die Rede. Aber damals sprach man auch noch von DX10.0 und 65nm.

Aber wo sind die 30% mehr TMU-Leistung pro MHz geblieben?;) -> "More Texture Power"

Eine reine Ente oder vielleicht etwas, was man im RV770 wieder sehen wird? :uponder:

w0mbat
2008-02-02, 17:58:10
Hm, kA was sie da genau optimieren wollten. Vielleicht sollte die Mehrleistung einfach durch einen höheren Takt kommen. Das sollte doch auf was mit einem besseren AF zu tun haben und die Gerüchte hielten sich ja auch noch beim RV670 ganz hartnäckig.

reunion
2008-02-02, 20:13:57
Ansichtssache.
Ein RV670 mit 240 SPs oder noch weniger wäre genau wie konkurrenzfähig?
Genau, überhaupt nicht!

MfG :cool:

Begründung? Gegen eine 8600GTS würde das Ding aber sowas von locker reichen.

Der Grund könnte einfach sein, dass AMD sich mit dem R600 "langfristig" gar nicht erst beschäftigen will. Bei der Leistung/Watt nicht wirklich verwunderlich.

Warum sollte man deshalb keine schon produzierten Chips mit Defekt verkaufen wollen? Besser wenig Verlust als den ganzen Chip wegschmeißen.

GeneralHanno
2008-02-02, 20:23:47
besser als die teilkaputten RV670 wegschmeißen, ist es doch, sie auf einer 3730 (o.ä.) zu verbauen ...

aber irgendwie schein die ausbeute ja extrem gut zu sein ...

LovesuckZ
2008-02-02, 20:25:50
Begründung? Gegen eine 8600GTS würde das Ding aber sowas von locker reichen.

34xx und 36xx.

Warum sollte man deshalb keine schon produzierten Chips mit Defekt verkaufen wollen? Besser wenig Verlust als den ganzen Chip wegschmeißen.

Weil man aufgrund des geringeren Preises keine Marktlücke hat.

GeneralHanno
2008-02-02, 20:33:00
selbst die schnellste 3600 (oder soll ich 2600 sagen) stinkt gegen den die 8600GTS ab ;)

Marktlüge (meinst du marklücke ?) - wurde korrigiert ;)

LovesuckZ
2008-02-02, 20:34:57
selbst die schnellste 3600 (oder soll ich 2600 sagen) stinkt gegen den die 8600GTS ab ;)

Sie ist jedoch wesentlich kleiner als der rv670 und wird eine kostengünstigere Platine besitzen. Und in diesem Preisbreich spielt die Leistung nur eine untergeordnete Rolle.

dargo
2008-02-02, 20:40:09
Warum sollte man deshalb keine schon produzierten Chips mit Defekt verkaufen wollen? Besser wenig Verlust als den ganzen Chip wegschmeißen.
Habe ich was vom wegwerfen gesagt? Du hast behauptet:

Ich sehe von AMD noch immer keine teildeaktivierte R6xx-Karte mit Ausnahme der 2900GT, was für eine gute Ausbeute und hohe Redundanz spricht.

Warum sollte AMD noch auf den "heißen" R600 setzen wenn man mit dem RV670 deutlich besser/günstiger fährt?

Nakai
2008-02-02, 20:41:20
Und in diesem Preisbreich spielt die Leistung nur eine untergeordnete Rolle.

Nicht nur das. Die HD3600-Serie wird dadurch eine Low-End-Graka. Das ultimative Low-End bilden dann die HD3400 und die baldigen Onboardchipsätze.


mfg Nakai

LovesuckZ
2008-02-02, 20:53:18
Nicht nur das. Die HD3600-Serie wird dadurch eine Low-End-Graka. Das ultimative Low-End bilden dann die HD3400 und die baldigen Onboardchipsätze.
mfg Nakai

So sieht es aus. 2400 -> 36xx, 36xx -> 38xx, 2900 -> 3870x².
Und wo soll hier ein teildeaktivierter rv670 Chip liegen?

Nakai
2008-02-02, 20:55:25
Würde sich aber prima als OEM-Sparchip verkaufen und zwischen HD3850 und HD3650 ist noch Platz.

ATi Radeon HD3810;D


mfg Nakai

laser114
2008-02-02, 21:02:34
besser als die teilkaputten RV670 wegschmeißen, ist es doch, sie auf einer 3730 (o.ä.) zu verbauen ...

Richtig. Aber auf so einer Karte (3690 - auch wenn es die nur für manche Märkte gibt - China?) kommt ein voller RV670-Kern @ 670 MHz zum Einsatz, was gekürzt wurde ist das Speicherinterface. Mein Fazit daher: Ein Ausbeuteproblem liegt nicht vor, denn auch ein Beschneiden um ein Viertel der Einheiten oder ein niedriger Takt wären kein Problem gewesen, da der Hauptknackpunkt der Karte das 128-Bit-Interface ist und die mit $119 MSPR preislich sogar knapp unter 8600-GTS-Niveau liegt.

GeneralHanno
2008-02-02, 21:28:35
es gab ja durchaus pläne eines RV670-GT mit 240SP. vermutlich haben aber 3 faktoren dazu geführt, da rauf vorerst zu verzichten.

1. die 3870 war ursprünlich für 300$ geplant und die 3850 für 200$. jetzt ist die 3850-256 bald bei 100€. damit ist die marge vermutlich schon so knapp, dass eine noch günstigere karte nicht wirklich retabel wäre. also es gibt keine marktlücke (oder lüge).

2. bei ATi ging man wohl auch davon aus, dass der G92 nur 64SP habe, daher sah man den RV670 klar vor dem G92. nun hatte der G92 aber 128SP und selbst die 3870 kommt an die GT nicht ran ...

3. vermutlich ist die ausbeute besser als erwarten (der 55nm prozess war für AMD auf alle fälle ein glücksgriff)

ich vermute daher, dass auf dem aktuellen markt, kein platz/nutzen für einen RV670-GT ist. vermutlich wird ATi - ähnlich wie mit den "kleinen R600" - ende Q2 kommen, wenn die chips abverkauft werden müssen, um platz für den R700 zu schaffen.

AnarchX
2008-02-02, 21:36:03
es gab ja durchaus pläne eines RV670-GT mit 240SP.

Gab es nicht, es waren mal geplant:
RV670XT 825MHz
RV670Pro 750MHz
RV670GT 600MHz
... alle auf einem vollen RV670 basierend.

Aber deine Punkte für den Wegfall der HD3830 sind schon gut.


Die HD3690 (RV670LE?) dient wohl eher schon langsam die Lager zu räumen und Platz für RV770 zu machen, der im Q2 schon kommen könnte. Und die Marge wird wohl hier auch stimmen, wenn man mal an die X1650GT denkt, die damals mit RV570 für $80 verkauft wurde.


Aber mit GF9 hat das hier doch weniger zu tun... ;)

GeneralHanno
2008-02-02, 21:41:13
also ich meine mal irgendwann folien mit 240SP gesehen zu haben ...
aber ist ja jetzt auch egal, was ATi vor 4 monaten gedacht hat ;) : back 2 GF9 ...

dann gehe ich mal mit gutem bleistift voran:
9800GTX schon anfang märz?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5502&Itemid=1

€dit: ich war ne sekunde schneller *ätsch*
€dit2: wenn die 9800er karten zur ccebit vorgestellt werden sollen, dann können die schotten nicht mehr lange dich halten *freu*

AnarchX
2008-02-02, 21:43:20
aber ist ja jetzt auch egal, was ATi vor 4 monaten gedacht hat ;) : back 2 GF9 ...
Genau! ;)
http://img135.imageshack.us/img135/8948/albatroninvitecebit2008te7.jpg (http://imageshack.us)
http://www.hexus.net/content/item.php?item=11552

"latest 9600 and 9800 NVIDIA VGA cards"

laser114
2008-02-02, 22:07:19
G96 ala 9500 kommt demnach noch nicht im ersten Quartal?

laser114
2008-02-03, 00:04:56
ForceWare 171.16 Beta:

NVIDIA_G94.DEV_0622.1 = "NVIDIA GeForce 9600 GT"

Eine weitere Bestätigung...

NVIDIA_G92.DEV_0606.1 = "NVIDIA G92-100"

Und was wird hier noch gebastelt? :confused:

Ailuros
2008-02-03, 09:59:14
Was noch immer kein Beinbruch für AMD wäre, ein G92 ist gut 60-70% größer. Doch würde ein G92 reichen, wäre die GX2 überflüssig. Und das Ding wird bei gut 650mm² benötigter Waferfläche alles andere als ein guter Deal für NV.

Kommt auf die Frequenzen bzw. finale Leistung der 9800GTX an. Welcher Depp hat Dir denn genau erzaehlt dass die GX2 schneller sein wird? Bei 550MHz pro core? Da sind selbst 2*8800GT@SLi schneller.

Ailuros
2008-02-03, 10:07:00
Natürlich. Ich sehe von AMD noch immer keine teildeaktivierte R6xx-Karte mit Ausnahme der 2900GT, was für eine gute Ausbeute und hohe Redundanz spricht.

Bei der Leistung die die 2900GT lieferte ist es wohl eher schwer an weniger cluster ueberhaupt zu denken.

Ehrliche Frage: wie sieht es eigentlich mit chips fuer Schlepptops aus? ***edit: falls hier selbst nur eine Variante mit deaktivierten clusters gibt, dann haut wohl die Geschicht mit der angeblichen "besseren" Ausbeute auch nicht so grossartig hin. Mit R6x0 war es sowieso totaler Schwachsinn irgend etwas von dem Zeug in Schlepptops zu benutzen.

dargo
2008-02-03, 10:14:16
Kommt auf die Frequenzen bzw. finale Leistung der 9800GTX an. Welcher Depp hat Dir denn genau erzaehlt dass die GX2 schneller sein wird? Bei 550MHz pro core? Da sind selbst 2*8800GT@SLi schneller.
Hoppala, du meinst also die G9800GTX soll schneller sein als die G9800GX2? Hmm, das wäre schon merkwürdig, ich hätte aber nichts dagegen. :D
So wird die G9800GTX wiederum recht interessant.

PS: wie kommst du aber darauf, dass 2xG8800GT@SLI schneller sein sollte als eine G9800GX2? Ich dachte die GX2 soll 2x 128SPs haben. Somit dürften sich beide von der Leistung her kaum unterscheiden.

GeneralHanno
2008-02-03, 10:17:07
nun, es soll definitiv eine mobile 38xx geben.
allerdings ist der lastverbrauch von ATi höher als bei nvidia (insb. in relation zur leistung)

daher sehe ich 2 möglichkeiten:
- 320SP@500MHz
- 240SP@600MHz

reunion
2008-02-03, 10:20:05
Kommt auf die Frequenzen bzw. finale Leistung der 9800GTX an. Welcher Depp hat Dir denn genau erzaehlt dass die GX2 schneller sein wird? Bei 550MHz pro core? Da sind selbst 2*8800GT@SLi schneller.

Wäre die 9800GTX schneller als die GX2, dann wäre die GX2 überflüssig. Denn mit dem Single-Chip würde man wesentlich billiger fahren. Und um die Leistung einer GX2 bei funktionierenden AFR zu erreichen, müsste die GTX schon die doppelte Taktfrequenz aufweisen, also mit 1.1Ghz Coretakt laufen. Was ja wohl wenig realistisch ist. Die GX2 stellt mit Sicherheit das Topmodell dar.

Ailuros
2008-02-03, 10:20:30
Hoppala, du meinst also die G9800GTX soll schneller sein als die G9800GX2? Hmm, das wäre schon merkwürdig, ich hätte aber nichts dagegen. :D
So wird die G9800GTX wiederum recht interessant.

Kommt ganz drauf mit welchen und wie vielen Applikationen jemand einen Durchschnitt schneiden will.

PS: wie kommst du aber darauf, dass 2xG8800GT@SLI schneller sein sollte als eine G9800GX2? Ich dachte die GX2 soll 2x 128SPs haben. Somit dürften sich beide von der Leistung her kaum unterscheiden.

Es haette 2*8800GTS sein sollen. Ich hab einfach eine "S" vergessen.

Ailuros
2008-02-03, 10:23:21
Wäre die 9800GTX schneller als die GX2, dann wäre die GX2 überflüssig. Denn mit dem Single-Chip würde man wesentlich billiger fahren.

Dann war die 7900GTX damals auch groesstenteils ueberfluessig gewesen. Frage dazu waere ob NV mehr 7900GTX2 oder 7900GTX am Ende verkauft hat damals.

Aber um Deine Logik ein bisschen besser zu beantworten: zu glauben dass G92 750+M Transistoren brauchte um nur GTS/512 Frequenzen oder nur leicht darueber zu erreichen ist aeusserst naiv.

reunion
2008-02-03, 10:24:38
Dann war die 7900GTX damals auch groesstenteils ueberfluessig gewesen. Frage dazu waere ob NV mehr 7900GTX2 oder 7900GTX am Ende verkauft hat damals.

Warum? Die 7900GTX war langsamer als die GX2. NV benötigte die GX2 um mit ATi mithalten zu können.


Aber um Deine Logik ein bisschen besser zu beantworten: zu glauben dass G92 750+M Transistoren brauchte um nur GTS/512 Frequenzen oder nur leicht darueber zu erreichen ist aeusserst naiv.

Habe ich ja nirgends behauptet.

dargo
2008-02-03, 10:36:34
Warum? Die 7900GTX war langsamer als die GX2. NV benötigte die GX2 um mit ATi mithalten zu können.

Das Verhältnis zwischen der G9800GTX/GX2 wird denke ich diesmal etwas anders aussehen wie damals mit G7900GTX/GX2.

G7950GX2 = 500Mhz Coretakt
G7900GTX = 650Mhz Coretakt

G9800GX2 = 550Mhz Coretakt
G9800GTX = 800+Mhz(?) Coretakt

Sollte die G9800GTX noch hochgetakteten GDDR4 abbekommen wirds mit AA und höheren Auflösungen recht interessant.

AnarchX
2008-02-03, 11:38:49
Und was wird hier noch gebastelt? :confused:

Könnte imo doch die 8800M-GTS mit nur 4 aktiven Clustern sein.

Hvoralek
2008-02-03, 12:16:05
Schön wäre es natürlich trotzdem nicht, aber wenn es sich nV leisten kann einen G92 gegen einen RV670 zu stellen, sollte das auch machbar sein.Wo stellt Nvidia denn einen D8P gegen einen RV670? Der eine spielt, abgesehen von der 8800 GS in Kleinstauflage, im Bereich von 220 - 300€ (mit der 9800 GTX bald auch noch höher), der andere von 120 - 180€.

Könnte imo doch die 8800M-GTS mit nur 4 aktiven Clustern sein.Wäre es nicht sinnvoller, für ein 4C- Modell einen D9P zu verwenden?

laser114
2008-02-03, 12:27:37
Wo stellt Nvidia denn einen D8P gegen einen RV670? Der eine spielt, abgesehen von der 8800 GS in Kleinstauflage, im Bereich von 220 - 300€ (mit der 9800 GTX bald auch noch höher), der andere von 120 - 180€.

8800 GT für 190€, sofort lieferbar:
http://shop.vv-computer.de/shop/article/502244?referer=geizhals.at
Inzwischen hat sich die Situation beruhigt, RV670XT und G92GT konkurrieren durchaus miteinander.

Wäre es nicht sinnvoller, für ein 4C- Modell einen D9P zu verwenden?

Sicher, ist die 8800M GTS denn schon lieferbar?

@mobiler Markt:
Laut Xbitlabs nehmen sich die 8800 GT und 3870 unter Last nicht viel, mit leichtem Vorteil für die Nvidia-Karte.

Die Geforce 8800M GTX hat 6 Cluster @ 500/1250 mit 800 MHz Speicher an 256 Bit. Die Rechenleistung hat man also auf ~ 70% reduziert.

Das würde einen Takt von ~ 550 MHz bei einer mobilen 3870 ausmachen. Das sollte mit deutlich weniger Spannung zu machen sein, selektieren kann man ja auch. 88,88% beim Speichertakt macht dann genau 1000 MHz, dafür bräuchte man GDDR4 um das mit sinnvoller Leistungsaufnahme hinzubekommen.

Eine Mobility Radeon 3870 mit 550 MHz Kerntakt und 1000 MHz Speichertakt wäre wohl schon konkurrenzfähig.

Wobei das schon doch etwas Off-Topic ist... :D

AnarchX
2008-02-03, 16:10:08
Wäre es nicht sinnvoller, für ein 4C- Modell einen D9P zu verwenden?
Den gab es aber noch nicht Mitte Dezember.;)
Aber langfristig wird wohl D9P diesen Platz einnehmen und gleichzeitig wohl aber auch in günstigeren NBs zu finden sein.

Hvoralek
2008-02-03, 18:43:01
Denn gab es aber noch nicht Mitte Dezember.;)Ach so, die gibt es schon :redface:

Ailuros
2008-02-04, 06:06:22
Warum? Die 7900GTX war langsamer als die GX2. NV benötigte die GX2 um mit ATi mithalten zu können.

Die GX2 und jegliche X2 ist nur dann insgesamt schneller, wenn man in einem Review sagen wir mal 10 Spiele testet, bei denen AFR auch einen Unterschied macht.

Damit Du mich nicht falsch verstehst: geh mal ein paar Monate zurueck und denk nach wie viele bezweifelten dass NV wieder eine GX2 auftischen wird. Um sich ueber Wasser fuer eine kurze Zeit zu halten ist es natuerlich eine schnelle und billige Loesung (wenn man eine roadmap etwas langfristiger betrachtet).

Es ist auch zweifellos so dass mehr und mehr Spiele mit AFR im Hinterkopf entwickelt bzw. optimiert werden, aber es bleibt auch Tatsache dass es sich meistens um die breitest verkauften Titel handelt.

Insgesamt stimmt es dass NV eine Antwort fuer die X2 braucht, sie haetten aber high end G92 auch dann veroeffentlicht wenn AMD keine R680 veroeffentlich haette. Es handelt sich nicht nur um eine Reaktion auf die Konkurrenz sondern auch dem Publikum irgend etwas leicht schnelleres zu liefern - als Zwischenpflaster - bis man die G80 Leistung endlich und mit etwas mehr "oooomph" uebertreffen kann.

Uebrigens nochmals was hat NV damals mehr verkauft? GX2 oder 7900GTX?

Ailuros
2008-02-04, 06:09:58
Sollte die G9800GTX noch hochgetakteten GDDR4 abbekommen wirds mit AA und höheren Auflösungen recht interessant.

1GB GDDR4 waere noch interessanter.

AnarchX
2008-02-06, 09:02:42
GeForce 9800 GX2 might get 2GB of memory
Could be manufacturer dependant (http://www.fudzilla.com/index.php?option=com_content&task=view&id=5563&Itemid=34)
http://img517.imageshack.us/img517/7598/geforce9800gx2diagramb7cy1.jpg (http://imageshack.us)

Gast
2008-02-06, 14:04:05
welcher hersteller hat den 1gbit gddr3?
auf der samsung seite ist nichts zu finden

AnarchX
2008-02-06, 14:43:21
welcher hersteller hat den 1gbit gddr3?
auf der samsung seite ist nichts zu finden
Qimonda

up¦²
2008-02-06, 14:54:00
Waren die "voltage offset issues" schon bekannt?
Ansonsten: der Preis ist heiß :smile:
http://en.expreview.com/?p=251#more-251

LovesuckZ
2008-02-06, 15:08:58
Waren die "voltage offset issues" schon bekannt?
Ansonsten: der Preis ist heiß :smile:
http://en.expreview.com/?p=251#more-251

Ja, das haben sie schon mal früher berichtet.
Interessant ist folgendes:
Our source said AA performance of 9600GT will be optimized, by utilizing less graphic memory than GeForce 8 series.

Lassen wir uns überraschen.

dargo
2008-02-06, 15:16:24
1GB GDDR4 waere noch interessanter.
Ja, davon gehe ich auch aus. Eventuell sogar zwei Versionen - 512/1024MB. Nur letztere würde ich mir näher anschauen.

AnarchX
2008-02-06, 15:20:20
Ja, das haben sie schon mal früher berichtet.
Interessant ist folgendes:

Lassen wir uns überraschen.
Da wird es wohl wie bei ATi für die "neue" Generation ein paar exklusive Workarounds im Treiber geben. :D

Gast
2008-02-06, 15:44:10
Interessant ist folgendes:


Lassen wir uns überraschen.

Das ist nicht interessant sondern definitiv Bullshit, weil das VRAM-Problem auch ohne AA auftritt.

Hvoralek
2008-02-06, 18:26:31
Da wird es wohl wie bei ATi für die "neue" Generation ein paar exklusive Workarounds im Treiber geben. :DIch bin mal gespannt, ob auch die 9800er- Reihe die abbekommt. Dann können sie zumindest in keiner Weise auf die Hardware verweisen.

Das ist nicht interessant sondern definitiv Bullshit, weil das VRAM-Problem auch ohne AA auftritt.Der hohe Speicherverbrauch kann ja mehrere Ursachen haben. Irgendetwas hat man da auch letzten Sommer wohl schon gemacht, als mit einem Treiber die GTS 320 erheblich zulegte.

Paul Brain
2008-02-06, 20:45:16
Laut einem nVidia-Mitarbeiter, mit dem ich heute auf der ITnT gesprochen habe, werden 9800GTX und GX2 am 14. Februar vorgestellt; auf den Termin bei der Cebit angesprochen meinte er, daß sie da halt auch präsentiert werden würden - der Launch wäre aber wie gesagt am 14.2.
Zu den Specs konnte er mir leider nichts genaues sagen, da er der Quadro-Abteilung angehörte; seinen angeblich anwesenden Kollegen aus dem GeForce-Bereich konnte ich allerdings den ganzen Tag lang leider nicht antreffen... :rolleyes:

Adam D.
2008-02-06, 20:47:11
Ich glaube, der Termin wurde nach hinten verschoben. Wenn die Karten wirklich in einer Woche vorgestellt werden sollten, dann wüssten wir inzwischen Specs, Preise usw.

Botcruscher
2008-02-06, 20:54:19
Wie sind die zwei PCBs eigentlich intern verbunden?

Gast
2008-02-07, 00:22:08
SLI Bridge

nomadhunter
2008-02-07, 00:26:01
Auf den ersten "Nacktbildern" (http://forums.vr-zone.com/showthread.php?t=230836) sieht das so ähnlich wie eine flexible SLI-Bridge aus, die einfach die zwei PCBs verbindet. Könnte aber auch sein, dass man das beim endgültigen Serienmodell anders macht (bei der 7950GX2 war es ja eine Art Stecker beim einen PCB der in eine Buchse auf dem anderen PCB gesteckt wurde). Technisch gesehen wird es wohl nichts anderes als eine normale SLI-Bridge zwischen zwei Einzelkarten sein.

Gast
2008-02-07, 11:23:30
9600GT schon wieder verschoben?
http://www.theinquirer.net/gb/inquirer/news/2008/02/06/9600gt-delayed-yet-again

Gast
2008-02-07, 21:28:55
9600GT wohl doch schon am 19 Feb

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5614&Itemid=1

Da scheinen Fuad und Inquirer ja verschiedene Informanten zu haben...

laser114
2008-02-08, 12:59:30
http://www.nvidia.com/object/geforce_9500M.html
http://www.nvidia.com/object/geforce_9300M.html

Geforce 9500M GS:
2 Cluster @ 475 MHz / 950 MHz Shader
700 MHz Speicher @ 128 Bit

==> entspricht exakt der 8600M GT

Geforce 9300M G:
1 Cluster @ 400 MHz / 800 MHz Shader
600 MHz Speicher @ 64 Bit

==> enspricht exakt der 8400M GS

AnarchX
2008-02-08, 13:33:07
Viewing HD movies on a PC has been brought to a new level with PureVideo® HD. GeForce 9500M GS allows you to have motion picture quality wherever you are, offloading 100% of Blu-ray and HD DVD H.264 video decoding from the CPU so that it is free to do other tasks.
Wobei das nach VP3 klingt -> G96.

Gast
2008-02-08, 13:35:07
Ich lese da nichts von VC-1.

Gast
2008-02-08, 14:21:04
So 9800 GX2 doesn't use same GPU's that 8800 GTS 512MB sports? 8800 GTS 512MB has G92-400-A2 when this baby here uses G92-450-A2's!!????????????

nomadhunter
2008-02-08, 17:28:50
G92-400 and G92-450 are both the same chip: G92.
400/450 is only the SKU name. (8800 GT is G92-200)

Snoopy1978
2008-02-08, 18:02:34
Entschuldigung wenn ich mal blöd fragen muss:was bedeutet SKU?

nomadhunter
2008-02-08, 18:05:19
http://de.wikipedia.org/wiki/Stock_Keeping_Unit :wink:

James Ryan
2008-02-11, 08:44:05
Ist jetzt eigentlich bekannt ob

1) die Gf 9800 GX2 wirkich am 14.2. gelauncht wird?
2) wann die Gf 9800 GTX gelauncht wird?
3) wann und ob es eine Gf 9800 GT/GTS geben wird und wie diese aussehen wird?

MfG :cool:

Gast
2008-02-11, 09:19:25
Die GX2 kommt erst im März.

Snoopy1978
2008-02-11, 09:19:44
Moin,Moin.

1) Die GeForce9800GX2 wird wohl nicht im Februar gelauncht sondern Anfang März(zumindest möchte Albatron als Boardpartner Karten auf der CeBit vorstellen).

2) Das ist noch unbekannt,es wird gemunkelt das Albatron die Karte auf der CeBit vorstellt.

3) Darüber liegt noch weniger vor,im Startbeitrag zu diesem Thread gibt es ein Gerücht dazu das diese Karte Ende März/Anfang April gelauncht werden könnte.

Gast
2008-02-11, 09:21:28
Ist jetzt eigentlich bekannt ob

1) die Gf 9800 GX2 wirkich am 14.2. gelauncht wird?
2) wann die Gf 9800 GTX gelauncht wird?
3) wann und ob es eine Gf 9800 GT/GTS geben wird und wie diese aussehen wird?

MfG :cool:

1) Die 9800GTX wird anfang März zur Cebit gelauncht und ist als Konkurrenz zu 3870X2 gedacht.
2) Es wird keine 9800GTX geben.
3) Es wird auch keine 9800GT/GTS geben.

Solche Modelle erscheinen erst wieder mit dem GT200 Chip im dritten Quartal.

Gast
2008-02-11, 09:24:20
Ist jetzt eigentlich bekannt ob

1) die Gf 9800 GX2 wirkich am 14.2. gelauncht wird?
2) wann die Gf 9800 GTX gelauncht wird?
3) wann und ob es eine Gf 9800 GT/GTS geben wird und wie diese aussehen wird?

MfG :cool:

1) Die 9800GX2 wird anfang März zur Cebit gelauncht und ist als Konkurrenz zur Radeon 3870X2 gedacht.
2) Es wird keine 9800GTX geben.
3) Es wird auch keine 9800GT/GTS geben.

Solche Modelle erscheinen erst wieder mit dem GT200 Chip im dritten Quartal.

James Ryan
2008-02-11, 09:42:31
Das heißt, bis zur GT200 wird es keine schnellere Single-Karte als G92-GTS bzw. G80-GTX/Ultra geben?

MfG :cool:

Paul Brain
2008-02-11, 10:10:13
Das heißt, bis zur GT200 wird es keine schnellere Single-Karte als G92-GTS bzw. G80-GTX/Ultra geben?

MfG :cool:
Doch. Glaubts den Gästen nicht alles.

dargo
2008-02-11, 10:13:59
Das heißt, bis zur GT200 wird es keine schnellere Single-Karte als G92-GTS bzw. G80-GTX/Ultra geben?

Selbst Ail hat bestätigt, dass eine G9800GTX auf Basis vom G92 erscheinen wird. Er hatte auch eine Andeutung gemacht, dass der G92 nicht umsonst so viele Transistoren Onboard hat.

James Ryan
2008-02-11, 10:23:39
Selbst Ail hat bestätigt, dass eine G9800GTX auf Basis vom G92 erscheinen wird. Er hatte auch eine Andeutung gemacht, dass der G92 nicht umsonst so viele Transistoren Onboard hat.

Gut! ;)
Ich hoffe auf eine Gf 9800 GT mit 1 GB VRam und ansonsten technisch identisch zur G92-GTS. :)

MfG :cool:

Gast
2008-02-11, 12:29:13
weiss man mitlererweile ob die 9500gs in 65nm gefertigt wird?
bzw. auf welchen chip sie basiert?

laser114
2008-02-11, 14:33:35
weiss man mitlererweile ob die 9500gs in 65nm gefertigt wird?
bzw. auf welchen chip sie basiert?

Wenn du die mobile meinst ... wird sicher ein G96 (in 65 nm).

Gast
2008-02-11, 15:59:34
http://www.nvidia.com/object/geforce_9500M.html
http://www.nvidia.com/object/geforce_9300M.html

Geforce 9500M GS:
2 Cluster @ 475 MHz / 950 MHz Shader
700 MHz Speicher @ 128 Bit

==> entspricht exakt der 8600M GT


Die Karte wird ja u.a. auf dem Asus M51 verbaut, aber wie es aussieht erstmal mit DDR2 Speicher. Da hat man ja schon gesehen, wie wunderbar die 8600M GT an der mangelnden Bandbreite verreckt ist. Die GDDR3 Variante mit fast doppeltem Takt (700 Mhz) ist oft annähernd doppelt so schnell.
Das ist einfach nur zum Kotzen was da im Mobile Bereich gespielt wird. Ich suche zwar kein Zockerlaptop aber wenn ich mich für so eine Karte entscheide, dann soll die wenigstens ein bisschen was leisten und nicht durch langsamen Speicher ihr gesamtes Potential vernichtet werden. Denn sonst kann ich auch zu einer Onboardgrafik von Intel greifen.

GeneralHanno
2008-02-11, 17:20:12
für die GX2 sieht es nicht gerade rosig aus:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1202732246

Gast
2008-02-11, 17:35:15
für die GX2 sieht es nicht gerade rosig aus:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1202732246
Fragt sich, wie sie das mit der Hitzentwicklung lösen wollen. Mit Luftkühlung wird das wohl nichts, evtl. watercooling only oder Spannungen und Taktraten massiv senken.

GeneralHanno
2008-02-11, 17:43:46
tja scheinbar stecken sie in dem dilemma: verbrauch optimieren (takt und spannung senken), aber aufgrund der schlechten SLI-sklalierung in benchs total sch*** dazustehen, oder eben taktraten ahoi und massive hitze ...

FAZIT: eigentlich sind alle multi-GPU systeme total kacke :(

=Floi=
2008-02-11, 17:45:02
rofl
sicher war dual 7950GX2 nicht schneller, weil die cpu limitierte :rolleyes:

und woher sollen denn die "weit über 250 watt" kommen?
1 normale karte braucht um die 110 watt und mit leicht gesenkten taktraten und neuem stepping könnte man locker 200 watt realisieren

Gast
2008-02-11, 18:12:56
rofl
sicher war dual 7950GX2 nicht schneller, weil die cpu limitierte :rolleyes:

Ne das lag afaik zum Großteil an dem AFR of SFR Mode. Da war die Skalierung fast nie gut.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2_quad-sli/10/#abschnitt_battlefield_2

Anarchy-HWLUXX
2008-02-11, 18:31:47
für die GX2 sieht es nicht gerade rosig aus:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1202732246
Toll, von Futzie abgeschrieben ... der bringt das doch alle tage wieder.

=Floi=
2008-02-11, 18:44:06
battlefield 2 ist mit dem 2,6ghz X2 zu sehr limitiert
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/14/#abschnitt_battlefield_2

Gast
2008-02-11, 18:53:56
Selbst Ail hat bestätigt, dass eine G9800GTX auf Basis vom G92 erscheinen wird. Er hatte auch eine Andeutung gemacht, dass der G92 nicht umsonst so viele Transistoren Onboard hat.

Ist da schon mehr bekannt? Mehr ROPs oder Shader?

GeneralHanno
2008-02-11, 18:57:22
besseres taktpotential. mit etwas mehr spannung soll der G92 wohl bis 800mhz gehen ...

Gast
2008-02-11, 19:00:28
besseres taktpotential. mit etwas mehr spannung soll der G92 wohl bis 800mhz gehen ...

Das ist aber jetzt nichts Besonderes.

nomadhunter
2008-02-11, 21:31:27
Gerade beim Shadertakt könnte noch einiges drin sein. ~2 GHz könnte ich mir bei der 9800 GTX vorstellen. Zusammen mit GDDR4 könnte das eine schöne Karte geben. Nur die wenigen ROPs könnten ein Problem bleiben (auch bei 800 MHz Chiptakt).

dargo
2008-02-11, 23:15:04
Das ist aber jetzt nichts Besonderes.
Naja, wenn man die max. 650Mhz Coretakt der GTS betrachtet (mal von den OC Varianten abgesehen) wären 800Mhz+ imo schon bemerkenswert.

Gast
2008-02-11, 23:22:00
Naja, wenn man die max. 650Mhz Coretakt der GTS betrachtet (mal von den OC Varianten abgesehen) wären 800Mhz+ imo schon bemerkenswert.

Gibt ja schon OC-Varianten mit 740Mhz. Dazu hat NV ja auch bis jetzt ordentlich Zeit gehabt zu selektieren und die besten Chips schön zu horten! Dazu noch bisl mehr Spannung als die GTS und schon sind 800Mhz kein Problem. :)

pest
2008-02-11, 23:25:24
dann sollte NV aber was mit dem Speichermanagement und/oder Busbreite machen, sonst ist die Karte nur für schnöde Benches gut

dargo
2008-02-11, 23:26:37
Gibt ja schon OC-Varianten mit 740Mhz. Dazu hat NV ja auch bis jetzt ordentlich Zeit gehabt zu selektieren und die besten Chips schön zu horten!
Ich glaube nicht, dass NV bei der GTX die GTS Chips verwenden wird.

Gast
2008-02-11, 23:27:06
dann sollte NV aber was mit dem Speichermanagement und/oder Busbreite machen, sonst ist die Karte nur für schnöde Benches gut

1GB Speicher @1,6Ghz+ und gut! ;)

Gast
2008-02-11, 23:27:57
Ich glaube nicht, dass NV bei der GTX die GTS Chips verwenden wird.

Neues Stepping wär realistisch, haste Recht!

Gast
2008-02-12, 10:19:53
http://www.theinquirer.net/gb/inquirer/news/2008/02/11/here-9600gt-specs

Snoopy1978
2008-02-12, 10:30:32
Ne ordentliche 9800GTX wäre mir auf jeden Fall lieber als den Spass den Nvidia jetzt wieder mit der GX2 verabstaltet.Laut vr-zone soll die GX2 am 11.März starten aber bis jetzt noch keine wirklich funktionierenden Karten im Umlauf sein und es wurde auch noch,neben den Warnaufklebern wegen Hitze,ein Hinweisaufkleber aufgebracht der laut GameStar :"Kunden auf den Unterschied zwischen einem 8-Pin-Stromanschluss für Mainboards und einem solchen für Grafikkarten hinweist.".

Ailuros
2008-02-12, 11:49:03
Gerade beim Shadertakt könnte noch einiges drin sein. ~2 GHz könnte ich mir bei der 9800 GTX vorstellen. Zusammen mit GDDR4 könnte das eine schöne Karte geben. Nur die wenigen ROPs könnten ein Problem bleiben (auch bei 800 MHz Chiptakt).

Wenn es die 9800GTX auch tatsaechlich geben wird und wenn die Frequenzen stimmen sollten die in der Vergangenheit herumgeisterten, dann:

8800GTS/512 =

16*650 = 10400
64*650 = 41600


8800GTX =

24*575 = 13800
64(32)*575 = 36800(18400)


9800GTX=

16*800 = 12800
64*800 = 51200

So und jetzt schau Dir mal ganz genau den Leistungs-Unterschied zwischen der GTS/512 und der 8800GTX an und erklaer mir wieso 16 ROPs@800MHz theoretisch zu wenig sein wuerden.

Gast
2008-02-12, 12:17:21
So und jetzt schau Dir mal ganz genau den Leistungs-Unterschied zwischen der GTS/512 und der 8800GTX an und erklaer mir wieso 16 ROPs@800MHz theoretisch zu wenig sein wuerden.

Die GTS(G92) liegt trotz ~16% mehr Rohpower als die 8800GTX bei 1600x1200 4xAA/16AF meist 5-10% hinter der GTX! Das könnte schon zum Teil an den ROPs liegen!

http://www.hardtecs4u.de/reviews/2007/msi_nx8800gts/

Anarchy-HWLUXX
2008-02-12, 12:20:17
neben den Warnaufklebern wegen Hitze,ein Hinweisaufkleber aufgebracht der laut GameStar :"Kunden auf den Unterschied zwischen einem 8-Pin-Stromanschluss für Mainboards und einem solchen für Grafikkarten hinweist.".

1. Hitze-Warnaufkleber finden sich auch auf den aktuellen ATis, darüber spricht natürlich keiner

2. Das mit dem 8pin ist ne gute idee, es besteht wirklich verwechslungsgefahr ...

Gast
2008-02-12, 12:26:11
2. Das mit dem 8pin ist ne gute idee, es besteht wirklich verwechslungsgefahr ...

Sind die denn gar nicht anders geformt, so dass sie gar nicht hineingesteckt werden können?

StefanV
2008-02-12, 12:50:37
Natürlich sind sie ganz anders geformt, achtet mal auf die Ecken...

Gast
2008-02-12, 13:06:14
Natürlich sind sie ganz anders geformt, achtet mal auf die Ecken...

Dann gibts da doch kein Problem (wenn man mal von Hardcore-DAUs absieht, die auch DDR2-Riegel in DDR1-Slots gekriegt haben :D).

Anarchy-HWLUXX
2008-02-12, 14:24:52
Sind die denn gar nicht anders geformt, so dass sie gar nicht hineingesteckt werden können?
Unterschätze nie die doofheit mancher Menschen :ucatch:

Ausserdem sichert man sich so gegen Klagen ab.

StefanV
2008-02-12, 16:15:20
Die GTS(G92) liegt trotz ~16% mehr Rohpower als die 8800GTX bei 1600x1200 4xAA/16AF meist 5-10% hinter der GTX! Das könnte schon zum Teil an den ROPs liegen!

http://www.hardtecs4u.de/reviews/2007/msi_nx8800gts/
Das könnte aber auch an der Speicherbandbreite und den 256MiB mehr Speicher liegen...

reunion
2008-02-12, 17:13:32
Die 9800GX2 kommt am 11. März:
http://www.vr-zone.com/articles/GeForce_9800_GX2_Launch_On_March_11th/5560.html

Die Karte braucht im Gegensatz zur 3870 X2 wohl auf jeden Fall einen 8-Pin Anschluss.

Gast
2008-02-12, 17:27:08
Die 3870X2 braucht den eigentlich auch bei einem gemessenen Spitzenverbrauch von 270W (Quelle: c't 03/08).

nomadhunter
2008-02-12, 17:53:13
So und jetzt schau Dir mal ganz genau den Leistungs-Unterschied zwischen der GTS/512 und der 8800GTX an und erklaer mir wieso 16 ROPs@800MHz theoretisch zu wenig sein wuerden.
Du hast doch selbst ausgerechnet, dass eine theoretische 9800GTX @ 800MHz immer noch weniger Pixel-/Z-Füllrate hat als die 8800 GTX, und das bei wesentlich mehr Shaderleistung (2 GHz Shader wären 50% mehr), ähnlich viel mehr Texelfüllrate und mit 1,6GHz-GDDR4 sogar etwas mehr Bandbreite. Ich weiß nicht, wie sehr die ROPs limitieren. Bei kleinen Auflösungen mit wenig AA wohl garnicht, aber die 9800GTX wird High-End sein, und da weiß ich nicht ob da die geringe ROP-Leistung nicht problematisch wird.

Und es ist ja bekannt, dass die GTS-512 der GTX in high-endigen Settings unterlegen ist, obwohl sie außer ROPs/Bandbreite/Speicher der GTX überlegen ist.

laser114
2008-02-12, 17:58:53
Die 3870X2 braucht den eigentlich auch bei einem gemessenen Spitzenverbrauch von 270W (Quelle: c't 03/08).

Was misst die c't denn da eigentlich immer zusammen? :|

Hvoralek
2008-02-12, 18:47:15
Was misst die c't denn da eigentlich immer zusammen? :|Das kann eigentlich nur der Verbrauch des gesamten Systems gewesen sein. Eine 3870 X2 alleine sollte unter Volllast noch unter 200 W liegen.

AnarchX
2008-02-12, 18:52:37
Laut c't sollen das wohl Lastspitzen der einzelnen Grakas sein.

laser114
2008-02-12, 19:03:45
Das kann eigentlich nur der Verbrauch des gesamten Systems gewesen sein. Eine 3870 X2 alleine sollte unter Volllast noch unter 200 W liegen.

Das wäre aber ein komisches System, mit 3870 X2 und sicherlich sonst nicht schwacher Hardware "nur" 270 Watt?

Laut c't sollen das wohl Lastspitzen der einzelnen Grakas sein.

So habe ich ihn auch verstanden, aber ich habe da in Erinnerung dass die schon bei anderen Modellen komisch hohe Werte gemessen hatten (8800 Ultra z. B.), die weit über jeglicher TDP lagen und auch nicht mehr durch den Anschlüssen entsprachen (bei der 8800 Ultra waren es glaube ich über 225 Watt).

Gast
2008-02-13, 00:07:59
9800GTX=

16*800 = 12800
64*800 = 51200

So und jetzt schau Dir mal ganz genau den Leistungs-Unterschied zwischen der GTS/512 und der 8800GTX an und erklaer mir wieso 16 ROPs@800MHz theoretisch zu wenig sein wuerden.

Solange das SI genug Bandbreite bringt, sollten die ROPs kein Problem darstellen, ab der 2000er Auflösung wirds halt eng.
Aber für was denn noch mehr Texelfüllrate?
Bin ich froh wenn die ROPs und das SI eine Einheit darstellen und die TMU/TAs separat getaktet werden.

Ailuros
2008-02-13, 06:17:43
Die GTS(G92) liegt trotz ~16% mehr Rohpower als die 8800GTX bei 1600x1200 4xAA/16AF meist 5-10% hinter der GTX! Das könnte schon zum Teil an den ROPs liegen!

http://www.hardtecs4u.de/reviews/2007/msi_nx8800gts/

Nur ist es eben ein ziemlich dummer Zufall dass dieses nur mit 4xAA passiert und es sich um eine 512 gegen eine 768MB GPU handelt. Eine single chip G92 (4*64) high end Variante wuerde man wohl eher mit 1GB Speicher bestuecken ;)

Ailuros
2008-02-13, 06:23:03
Du hast doch selbst ausgerechnet, dass eine theoretische 9800GTX @ 800MHz immer noch weniger Pixel-/Z-Füllrate hat als die 8800 GTX, und das bei wesentlich mehr Shaderleistung (2 GHz Shader wären 50% mehr), ähnlich viel mehr Texelfüllrate und mit 1,6GHz-GDDR4 sogar etwas mehr Bandbreite. Ich weiß nicht, wie sehr die ROPs limitieren. Bei kleinen Auflösungen mit wenig AA wohl garnicht, aber die 9800GTX wird High-End sein, und da weiß ich nicht ob da die geringe ROP-Leistung nicht problematisch wird.

Und es ist ja bekannt, dass die GTS-512 der GTX in high-endigen Settings unterlegen ist, obwohl sie außer ROPs/Bandbreite/Speicher der GTX überlegen ist.

Jetzt denk mal stark nach was aus den 3 fettgedruckten zuerst limitieren koennte in hohen Aufloesungen mit 4xAA.

IMHO: VRAM->Bandbreite-> ROPs

Anders:

RV670 = 16*775*32z = 396800
G92 = 16*650*96z = 998400

Ailuros
2008-02-13, 06:24:57
Solange das SI genug Bandbreite bringt, sollten die ROPs kein Problem darstellen, ab der 2000er Auflösung wirds halt eng.

Bingo!

Aber für was denn noch mehr Texelfüllrate?
Bin ich froh wenn die ROPs und das SI eine Einheit darstellen und die TMU/TAs separat getaktet werden.

Du antwortest ja selber auf Deine eigene Frage. Kommen die ROPs vollstaendig ins SI in der Zukunft, brauchen sie dann natuerlich noch viel weniger Einheiten.

Paul Brain
2008-02-13, 09:14:08
So habe ich ihn auch verstanden, aber ich habe da in Erinnerung dass die schon bei anderen Modellen komisch hohe Werte gemessen hatten (8800 Ultra z. B.), die weit über jeglicher TDP lagen und auch nicht mehr durch den Anschlüssen entsprachen (bei der 8800 Ultra waren es glaube ich über 225 Watt).
Also wenn man Messungen vertrauen sollte, dann jenen der c't. Diese Lastspitzen sind durchaus realistisch, für eine TDP aber irrelevant, da sie offenbar nur selten und nur für sehr kurze Zeit auftreten. Diese Spikes sind nicht wirklich energiereich und sollten IMHO daher auch bei der Beurteilung des benötigten Netzteils keine große Rolle spielen. Dies aber mit Vorbehalt... ;)

Gast
2008-02-13, 09:22:51
Was misst die c't denn da eigentlich immer zusammen? :|


Den Leistungsverbrauch NUR der Grafikkarte, mit professionellem Equipment gemessen.

Gast
2008-02-13, 09:23:51
Laut c't sollen das wohl Lastspitzen der einzelnen Grakas sein.


Genau. Spitzenlast 270W verbraucht eine 38790GX2. Durchschnittslastverbrauch liegt bei etwa 200W.

Gast
2008-02-13, 09:25:56
Also wenn man Messungen vertrauen sollte, dann jenen der c't. Diese Lastspitzen sind durchaus realistisch, für eine TDP aber irrelevant, da sie offenbar nur selten und nur für sehr kurze Zeit auftreten. Diese Spikes sind nicht wirklich energiereich und sollten IMHO daher auch bei der Beurteilung des benötigten Netzteils keine große Rolle spielen. Dies aber mit Vorbehalt... ;)



Doch, gerade das Netzteil muss diese hohen Lastspitzen bewältigen, lediglich bei der TDP spielen die Lastspitzen keine Rolle.

dargo
2008-02-13, 11:00:48
Jetzt denk mal stark nach was aus den 3 fettgedruckten zuerst limitieren koennte in hohen Aufloesungen mit 4xAA.

IMHO: VRAM->Bandbreite-> ROPs

Hmm, ich bin da eher zur anderer Erkenntnis gekommen. Die ROPs limitieren mindestens um den gleichen Faktor wie die Bandbreite beim G92.


Anders:

RV670 = 16*775*32z = 396800
G92 = 16*650*96z = 998400
Dass ATI sparsamer mit der ROP-Leistung umgeht ist bekannt. Warum NV soviel mehr braucht ist mir allerdings ein Rätsel.

Hvoralek
2008-02-13, 12:30:46
Hmm, ich bin da eher zur anderer Erkenntnis gekommen. Die ROPs limitieren mindestens um den gleichen Faktor wie die Bandbreite beim G92.Du meinst ROPs und TMUs zusammen haben einen ähnlichen Einfluss wie die Bandbreite, oder?

Paul Brain
2008-02-13, 13:05:49
Doch, gerade das Netzteil muss diese hohen Lastspitzen bewältigen, lediglich bei der TDP spielen die Lastspitzen keine Rolle.Die Frage ist nur, ob diese extrem kurzzeitig höheren Ströme nicht problemlos aus den Pufferelkos gespeist werden können, nachdem die Leistungsangabe im Netzteil sich ja auf Dauerlast bezieht...

dargo
2008-02-13, 22:52:27
Du meinst ROPs und TMUs zusammen haben einen ähnlichen Einfluss wie die Bandbreite, oder?
Öhm, wenn sie voneinander abhängig sind dann ja.

Hvoralek
2008-02-13, 23:50:52
Öhm, wenn sie voneinander abhängig sind dann ja.Man kann beide unabhängig voneinander skalieren (Die TMUs sitzen in den Clustern, die ROPs hängen am SI). Allerdings laufen beide Einheitenarten mit dem Grundkerntakt. Wenn Du also die Z- Füllrate über den Takt erhöhst oder verringerst, ändert sich die Texelfüllrate mit.

Ailuros
2008-02-14, 06:18:02
Hmm, ich bin da eher zur anderer Erkenntnis gekommen. Die ROPs limitieren mindestens um den gleichen Faktor wie die Bandbreite beim G92.

G92 hat gleichzeitig weniger ROPs und Bandbreite als G80. Ein klein bisschen hilft das intelligentere z-culling auf dem ersten schon mit.

Dass ATI sparsamer mit der ROP-Leistung umgeht ist bekannt. Warum NV soviel mehr braucht ist mir allerdings ein Rätsel.

CSAA.

Gast
2008-02-14, 10:06:53
Hallo,

die Startseite verrät nichts von einer 9800 GTX bzw. einer High-End Singleslot-Karte.

Wird diese nicht erscheinen und es bleibt bei der 9600GT und der 9800 GX2?

GeneralHanno
2008-02-14, 15:12:30
wann fällt nun eigentlich nach neustem stand das NDA zur 9600GT. heute (14.) oder in einer woche(21.) ?

Die 9800GX2 scheint ja immer weiter nach hinter verschoben zu werden ...

Paul Brain
2008-02-14, 16:03:02
Die 9800GX2 scheint ja immer weiter nach hinter verschoben zu werden ...Das Trumm interessiert doch eh fast niemanden, wirklich interessant wäre die 9800GTX... Nachdems bei dieser wohl keine thermischen und noch viel weniger SLi-skalierungstechnische Probleme gibt wäre es interessant, wann nVidia gedenkt, diese Karte vorzustellen.
Ein Nach-hinten-verschieben der GTX könnte also höchstens marketingpolitische Gründe haben...

AnarchX
2008-02-14, 16:26:13
wann fällt nun eigentlich nach neustem stand das NDA zur 9600GT. heute (14.) oder in einer woche(21.) ?

22.02. laut PCO, die heute nochmal ein Review einer OC-9600GT anbieten:
http://209.85.135.104/translate_c?hl=de&langpair=zh%7Cen&u=http://www.pconline.com.cn/diy/graphics/reviews/0802/1222458.html

Bei manchen Ergebnissen hat man doch ehrlich Zweifel, dass es nur 64SPs MADD+MUL sein sollen. :|

laser114
2008-02-14, 17:21:24
Also 21.02 bei uns. ;)

Gast
2008-02-14, 17:55:04
Also ich habe gerade von Colorful das Presse XLS bekommen.
GPU 650MHz; RAM 1800MHz GDDR3 , 256Bit SI
Die 3DMark Scores sind - 06:10453 ; 05:15064
Darunter sind die 8800GT und die HD3870 gelistet die jeweils ein bissl schneller sind.

Hvoralek
2008-02-14, 19:29:56
CSAA.Das spielt aber wahrscheinlich nur eine Rolle, wenn man es auch nutzt. Oder führt allein die Möglichkeit, CSAA zu nutzen, zu einem erhöhtem Füllratenbedarf auch bei normalem MSAA?

Ich hatte immer vermutet, der geringere Füllratenbedarf bei AMD läge an Hier-Z. Ist der nicht gerade dazu da, Z- Füllrate zu sparen?

Hallo,

die Startseite verrät nichts von einer 9800 GTX bzw. einer High-End Singleslot-Karte.Die 9800 GTX kann man wohl als sicher ansehen. Sie wird aber auf jeden Fall eine Doppelslotkühlung brauchen.

Gast
2008-02-15, 09:16:21
Die 9800 GTX kann man wohl als sicher ansehen. Sie wird aber auf jeden Fall eine Doppelslotkühlung brauchen.

Ob sie wohl schon im März vorgestellt wird, oder würde das der 8800 Ultra schaden? Die GTX läuft afaik aus.

deekey777
2008-02-15, 11:12:54
No GeForce 9800 GX2 @ CeBIT (http://vr-zone.com/articles/No_GeForce_9800_GX2_%40_CeBIT/5564.html)
Ist auch gut so, wer braucht das Teil...

AnarchX
2008-02-15, 11:25:47
No GeForce 9800 GX2 @ CeBIT (http://vr-zone.com/articles/No_GeForce_9800_GX2_%40_CeBIT/5564.html)
Ist auch gut so, wer braucht das Teil...

Genau, erst recht wenn NV wohl noch eine 1 TFLOPs GPU verbirgt für den Frühling:
http://img509.imageshack.us/img509/2699/20080215968b45f8381414dim6.jpg (http://imageshack.us)
http://www.crhc.uiuc.edu/IMPACT/ftp/talks/toronto-11-29-2007.pdf
;D

Aber ehrlich gesagt, denke ich dass die 128-GPUs falsch sind und die Uni NV vielleicht missverstanden hat mit dem 1 TFLOP-Tesla-Produkt.

128 * 2 * 128SPs @ 1.35GHz (550MHz mit 2.5x SD;)) passen irgendwie ziemlich perfekt zu dieser Zahl.

deekey777
2008-02-15, 11:30:35
Wenn man so etwas sieht:
http://img504.imageshack.us/img504/3140/albatronfa4.gif
Dann it davon auszugehen, dass die Hersteller etwas zeigen wollen.

AnarchX
2008-02-15, 12:23:27
G98: 8400 -> 9400
http://img87.imageshack.us/img87/49/g98b49c62als6.png (http://imageshack.us)
http://www.vr-zone.com/?i=5568

AnarchX
2008-02-15, 21:11:41
Was man wohl hiervon halten kann?
http://www.techarp.com/article/Desktop_GPU_Comparison/nvidia_4_big.png

-1053MHz Speichertakt für die 9800 GX2.
- 780/2000MHz GPU-Takt für die 9800 GTX, was wenn man die Pseudo-G200-Specs die dort noch aufgeführt werden übersieht, vielleicht gar nichtmal so unrealistisch ist.

Hvoralek
2008-02-15, 21:27:19
- 780/2000MHz GPU-Takt für die 9800 GTX, was wenn man die Pseudo-G200-Specs die dort noch aufgeführt werden, vielleicht gar nichtmal so unrealistisch ist.800/2000 MHz für die GTX scheinen im Moment wahrscheinlich. Das würde ich aber nicht auf diese Tabelle stützen. Wenn in der Zeile "9800 GTX" dieser eine Wert mal wirklich dem der 9800 GTX entsprechen sollte, ist das wohl reiner Zufall.

Anarchy-HWLUXX
2008-02-15, 21:29:51
Dafür ist der Transistor count bei der 9600GT mal a bissi falsch :lol:

GeneralHanno
2008-02-15, 21:36:32
vll hat man sich kurzfristig, aufgrund des schlechten performence entschieden, doch ULTRA speicher (also 0.83ns GDDR3) zu verbauen.

Bakelit
2008-02-15, 22:34:53
Wenn man so etwas sieht:

....

Dann it davon auszugehen, dass die Hersteller etwas zeigen wollen.

Das lässt dann doch mal auf eine neue Highend-Karte in absehbarer Zeit hoffen. Irgendeine 9800 wird also mit grosser Wahrscheinlichkeit vorgestellt, ob 9800gx2 oder 9800gtx ist mir persönlich erstmal egal - Hauptsache es geht sichtbar weiter.
Ich finde auch die Wuchtbrumme 9800gx2 gar nicht so uninteressant, das Design der Kühllösung erscheint trotz der Packungsdichte sehr leistungsfähig und könnte noch angenehm leise sein.
Eine leistungsfähige single-gpu Lösung wäre allerdings mein persönlicher Favorit.

Nur noch 1 Monat auf cebit warten .. das ist ja wie Weihnachten :biggrin:

dargo
2008-02-15, 22:45:23
Was man wohl hiervon halten kann?
http://www.techarp.com/article/Desktop_GPU_Comparison/nvidia_4_big.png

Nicht viel.

G9800GTX:
DX10.1
256 SPs
512Bit SI mit mickrigen 1000Mhz GDDR4

:|

Und wie zum Teufel kann das Ding schon auf dem G100 basieren?

Undertaker
2008-02-15, 22:49:32
Nicht viel.

G9800GTX:
DX10.1
256 SPs
512Bit SI mit mickrigen 1000Mhz GDDR4

:|

Und wie zum Teufel kann das Ding schon auf dem G100 basieren?

1000MHz bei 512Bit sollten für diese Generation mehr als zureichen... :)

dargo
2008-02-15, 23:00:03
1000MHz bei 512Bit sollten für diese Generation mehr als zureichen... :)
So war das nicht gemeint. Mich wundert es sehr, dass wir im März von NV schon ein 512Bit breites SI sehen sollen. Und warum man so ein breites SI mit so niedrig (für GDDR4 Verhältnise) getakteten Speicher nimmt. Ich dachte 384Bit und zb. 1,4Ghz GDDR4 wäre einiges günstiger.

Diese ominöse G9800GTX sieht mir irgendwie nach dem ominösen GT200 aus. Die 3x höhere arithmetische Leistung gegenüber der GTX passt schon mal mit den 256SPs @2Ghz.

Gast
2008-02-15, 23:11:42
Kann net sein oder? GT200 ist eine neue Generation, die 9800GTX sollte doch nur ein selektierter G92 sein mit hoher Taktrate, quasi die 8800GTX Nachfolgerin. Die "Specs" halte ich für Fake...

AnarchX
2008-02-16, 09:25:56
NVIDIA GeForce 9600GT 512MB G94 Tested @ Tweaktown (http://www.tweaktown.com/reviews/1293/1/page_1_introduction/index.html)

reunion
2008-02-16, 09:42:56
NVIDIA GeForce 9600GT 512MB G94 Tested @ Tweaktown (http://www.tweaktown.com/reviews/1293/1/page_1_introduction/index.html)

Nichts aufregendes. Leistung liegt bei diesem Modell meist ca. auf dem Niveau der 3870 (allerdings ist die Karte leicht übertaktet). Leistungsaufnahme unter idle deutlich über der 3870, unter Last nur minimal darunter. Die ist mit 240mm² deutlich größer. Insgesamt kommt die Karte ganz einfach zu spät in einem nicht mehr taufrischen Fertigungsprozess.

AnarchX
2008-02-16, 09:55:09
Der Verbrauch ist etwas verwunderlich, wenn TT richtig gemessen haben soll. Aber wiederum war ja auch teilweise von 95W TDP die Rede. Da scheinen wohl ROPs und SI ziemlich ausschlaggebend für den Gesamtverbrauch zu sein.

In der Tat nicht sehr spannend, sie muss definitv über den Preis punkten: <=150€, immerhin gibt es ja schon eine 8800 GT mittlerweile für ~180€.

LovesuckZ
2008-02-16, 11:17:40
Nichts aufregendes. Leistung liegt bei diesem Modell meist ca. auf dem Niveau der 3870 (allerdings ist die Karte leicht übertaktet). Leistungsaufnahme unter idle deutlich über der 3870, unter Last nur minimal darunter. Die ist mit 240mm² deutlich größer. Insgesamt kommt die Karte ganz einfach zu spät in einem nicht mehr taufrischen Fertigungsprozess.

Die Karte kommt von UMPC. Also wird sich nVidia schon was dabei gedacht haben.
Und nur weil man drei Monate nach AMD kommt, heißt es noch lange nicht, dass man zu spät sei.
Ansonsten hätte ATi schon längst die Pforten schließen können.

AnarchX
2008-02-18, 08:25:18
http://img301.imageshack.us/img301/1705/9800gx2spec19e1f368bd6.jpg (http://imageshack.us)
http://en.expreview.com/?p=261

VR-Zone hat diese Daten auch erhalten:
http://www.vr-zone.com/?i=5572

Gast
2008-02-18, 09:51:48
Quasi 'ne 8800GTO mal 2 - wie uninteressant. Ich glaube, dass die 3870X2 die deutlich bessere Dual-Card-Variante ist.

Adam D. @ work

Gast
2008-02-18, 09:56:53
Ist doch schon lange Klar wie die GX2 aussehen wird

AnarchX
2008-02-18, 09:57:31
Ich glaube, dass die 3870X2 die deutlich bessere Dual-Card-Variante ist.

Und weshalb?:|
Immerhin hat man bei dieser keinen Zugriff auf die Profile und die Gen1 PCie-Bridge die hier verbaut wurde, ist sicherlich auch nicht so optimal.


Aber NV scheint momentan wohl fleissig die Treiber für die 9800GX2 zu optimieren, so zeigt der 174.12 vorallem unter extremen Einstellungen deutliche Zuwachse.

Gast
2008-02-18, 11:36:15
und die Gen1 PCie-Bridge die hier verbaut wurde, ist sicherlich auch nicht so optimal.


Bleibt abzuwarten ob NV mehr als eine PCIe1-Bridge bieten kann.

Gast
2008-02-18, 11:45:28
Bleibt abzuwarten ob NV mehr als eine PCIe1-Bridge bieten kann.


Davon ist auszugehen, immerhin hat man einen solchen Chip selbst entwickelt und braucht ihn nicht zuzukaufen.

Gast
2008-02-18, 11:46:48
Davon ist auszugehen, immerhin hat man einen solchen Chip selbst entwickelt und braucht ihn nicht zuzukaufen.

Wo? Man hat nur den Chip der auf der 7900GX2 verbaut wurde, und der ist logischerweise PCIe1.

Gast
2008-02-18, 11:49:35
Was denkst du denn ist ein NF200?

AnarchX
2008-02-18, 12:03:16
VR-Zone learned that the fastest single card from Nvidia, the GeForce 9800 GTX (D9E-20) will be launched in late March, about 2 weeks after the 9800 GX2. It is G92 based and it is rumored to be clocked between 750-850MHz.
http://www.vr-zone.com/?i=5574
;)

James Ryan
2008-02-18, 12:04:58
Endlich mal wieder Neuigkeiten zur GTX! :)

MfG :cool:

GeneralHanno
2008-02-18, 12:06:47
mich würde eher der speicher interessieren ;)

Gast
2008-02-18, 12:20:38
Was denkst du denn ist ein NF200?

Jedenfalls kein PCIe-Switch mit 3 x 16 PCie2.0 Lanes und 3 Ports.

Anarchy-HWLUXX
2008-02-18, 12:22:34
Na ja, wenn es nur Höherer takt ist kann man den Speed auch mit einer OC-GTS hinbekommen ...

Also ist es viel interesannter wie der Speicher aussieht usw. , evtl. sind noch paar mehr sachen auf dem DIE vorhanden als bisher angenommen :| wär jedenfalls wünschenswert - nur nicht warscheinlich ;D

Gast
2008-02-18, 12:25:58
Jedenfalls kein PCIe-Switch mit 3 x 16 PCie2.0 Lanes und 3 Ports.

/edit: Oder doch, du hattest recht.

AnarchX
2008-02-18, 12:28:17
Na ja, wenn es nur Höherer takt ist kann man den Speed auch mit einer OC-GTS hinbekommen ...

Naja, wenn die Defaulttaktraten um die 800MHz liegen, dann kann man wohl mit Stock-OC in Richtung 900MHz gehen, was eine GTS 512MB eher nicht schafft und wenn 0.83ns GDDR3 verbaut wäre, kommt man auch in Regionen die eine GTS nicht erreicht: ~1200MHz.

Aber natürlich wäre GDDR4 eine tolle Sache, die ihr wohlmöglich eine Sieg über die 3870X2 im Durschnitt ermöglichen könnte.

James Ryan
2008-02-18, 12:31:29
Naja, wenn die Defaulttaktraten um die 800MHz liegen, dann kann man wohl mit Stock-OC in Richtung 900MHz gehen, was eine GTS 512MB eher nicht schafft und wenn 0.83ns GDDR3 verbaut wäre, kommt man auch in Regionen die eine GTS nicht erreicht: ~1200MHz.

Aber natürlich wäre GDDR4 eine tolle Sache, die ihr wohlmöglich eine Sieg über die 3870X2 im Durschnitt ermöglichen könnte.

Naja, nur wird so eine Karte sicherlich 450-500€ kosten.
Eine G92-Gf 8800 GTS bekommt man für 235€, also knapp die Hälfte.
Die GTX muss schon ordentlich was bieten für den Preis meiner Meinung nach.
Interessant wird, ob man eventuell ein Gf 9800 GTX Bios auf eine G92-Gf 8800 GTS flashen könnte. ;D

MfG :cool:

AnarchX
2008-02-18, 12:33:40
Naja, nur wird so eine Karte sicherlich 450-500€ kosten.

Imo wird da eher die 9800 GX2 liegen, die 9800 GTX ist im <400€ Bereich zu erwarten, soll ja in der Referenz auch nur mit 512MB kommen. Eben mehr oder weniger eine Konkurrenz zur 3870X2.

Gast
2008-02-18, 12:36:49
Und weshalb?:|
Performance-technisch wird die 9800X2 sicherlich sehr mächtig sein, dafür fehlt der Karte die Stromspar-Techniken wie der ATi-X2 und auch das Board-Design wirkt eher suboptimal. Deshalb sehe ich das bessere Design eher bei ATi, ich kann mich aber natürlich irren.

Adam D. @ work

deekey777
2008-02-18, 12:37:08
http://www.vr-zone.com/?i=5574
;)
Werden etwa G92 für die GTX aussortiert?

dildo4u
2008-02-18, 12:38:57
Performance-technisch wird die 9800X2 sicherlich sehr mächtig sein, dafür fehlt der Karte die Stromspar-Techniken wie der ATi-X2 und auch das Board-Design wirkt eher suboptimal. Deshalb sehe ich das bessere Design eher bei ATi, ich kann mich aber natürlich irren.

Die GX2 bekommt ja eine neue G92 Revision möglich das dort endlich eine Stromspartechnik Integriert wurde.

James Ryan
2008-02-18, 12:39:57
Imo wird da eher die 9800 GX2 liegen, die 9800 GTX ist im <400€ Bereich zu erwarten, soll ja in der Referenz auch nur mit 512MB kommen. Eben mehr oder weniger eine Konkurrenz zur 3870X2.

Welchen Sinn hat dann eine G92-Gf 9800 GTX @ 800 MHz, wenn heutige GTS-Karten das auch schon erreichen, und ebenfalls nur 512 MB haben?
Ich denke die GTX wird auch mit 1 GB kommen, die GX2 soll ja angeblich auch 2*1 GB bekommen!

MfG :cool:

AnarchX
2008-02-18, 12:41:27
Performance-technisch wird die 9800X2 sicherlich sehr mächtig sein, dafür fehlt der Karte die Stromspar-Techniken wie der ATi-X2

Da ist das letzte Wort noch nicht gesprochen, immerhin gab es Andeutungen(Interview@PCGH, Vgpu in nTune) in die Richtung, das GF9 wohl auch ohne hSLI Strom sparen kann und seit 8800M ist ja auch bekannt, dass G92 sehr gut Strom sparen kann.

Die GX2 bekommt ja eine neue G92 Revision möglich das dort endlich eine Stromspartechnik Integriert wurde.
Nein ist immernoch A2, und mal eben integrieren ist auch nicht. G92 hat sie schon an Board.

Werden etwa G92 für die GTX aussortiert?
Laut Ailuros ist ja G92 so riesig bzw. hat über 700M, weil er für solche Taktraten ursprünglich konzipiert wurde.

Welchen Sinn hat dann eine G92-Gf 9800 GTX @ 800 MHz, wenn heutige GTS-Karten das auch schon erreichen, und ebenfalls nur
Vielleicht GDDR4, sicher Tri-SLI und Stromsparen über intern oder halt hSLIs HybridPower...

dildo4u
2008-02-18, 12:43:48
Nein ist immernoch A2, und mal eben integrieren ist auch nicht. G92 hat sie schon an Board.
.
Es gab doch letztens die Meldung plus Bilder das die GX2 G92 450 statt der 400 Chips der GTS bekommt.

AnarchX
2008-02-18, 12:45:33
Es gab doch letztens die Meldung plus Bilder das die GX2 G92 450 statt der 400 Chips der GTS bekommt.
Ja, aber das ist nicht die Revision, sondern nur eine Klassifizierung bzw. Qualitätsangabe der GPU.
Eine neue Revision wäre G92-A3-450 oder halt B1/2, was dann 55nm wäre.;)

James Ryan
2008-02-18, 12:55:27
Vielleicht GDDR4, sicher Tri-SLI und Stromsparen über intern oder halt hSLIs HybridPower...

Wäre interessant ob man dann aktuelle G92-Karten via Bios- oder Treiberhack auch zum Stromsparen überreden könnte. ;)

MfG :cool:

Anarchy-HWLUXX
2008-02-18, 12:55:58
Naja, nur wird so eine Karte sicherlich 450-500€ kosten.
Eine G92-Gf 8800 GTS bekommt man für 235€, also knapp die Hälfte.
Die GTX muss schon ordentlich was bieten für den Preis meiner Meinung nach.
Interessant wird, ob man eventuell ein Gf 9800 GTX Bios auf eine G92-Gf 8800 GTS flashen könnte. ;D

MfG :cool:

Klar kann man OC-GTS schlecht mit GTX @ default vergleichen ... aber der Performanceunterschied muss ja entsprechend groß sein.

GTS gibt es in mengen für ~250€ , die günstigsten für 232€ / 240€ incl. Versand

Die GX2 sollte bei knapp 400€ liegen um nicht zu teuer zu werden verglichen mit der X2 welche man inzwischen locker für ~350€ bekommt.


Müsste also demnächst so aussehen (Preise als Geizhals Minimum +10€)
8800GT - 190€
8800GTS - 250€
9800GTX - 300€
9800GX2 - 370€

Gosh
2008-02-18, 13:05:36
Welchen Sinn hat dann eine G92-Gf 9800 GTX @ 800 MHz, wenn heutige GTS-Karten das auch schon erreichen, und ebenfalls nur 512 MB haben?


Bauernfang.Leute sehen die 9xxx und glauben an eine neue Generation.

Gast
2008-02-18, 13:12:25
Ja wann kommen nun die neuen High-End karten von nVidia?
Um wieviel besser wird die 9800GX2 zur GTX/Ultra?? Braucht man dann dafür ein bestimmtes Board? Besitze ein P5KC

Gast
2008-02-18, 13:13:37
Jedenfalls kein PCIe-Switch mit 3 x 16 PCie2.0 Lanes und 3 Ports.

Sondern?

Anarchy-HWLUXX
2008-02-18, 13:13:58
Bauernfang.Leute sehen die 9xxx und glauben an eine neue Generation.

Man könnte auch sagen das nV die 8800GT und 8800GTS als 9800er hätte bringen sollen ( toller satzbau ;D ) ... dann würde das ganze gleichmäßiger aussehen. Andererseits sind nu die Karten leistungstechnisch besser geordnet.


Ja wann kommen nun die neuen High-End karten von nVidia?
Um wieviel besser wird die 9800GX2 zur GTX/Ultra?? Braucht man dann dafür ein bestimmtes Board? Besitze ein P5KC

Die GX2 sollte auf jedem Board laufen, bei der ersten GX2 brauchte es noch teilweise BIOS updates aber inzwischen sollten die meisten entsprechende unterstützung an Board haben.

Gast
2008-02-18, 13:14:36
Sondern?

Ok, hat sich erledigt.

Gast
2008-02-18, 13:18:53
Die GX2 sollte auf jedem Board laufen, bei der ersten GX2 brauchte es noch teilweise BIOS updates aber inzwischen sollten die meisten entsprechende unterstützung an Board haben.

Und wann kommt die Karte raus? Ist das dann das neue High-End oder kommt nach 3 Monaten wieder etwas neues raus? Gibt es irgendwo schon Infos zu der Karte wo man sich ein bisschen durchlesen kann? Finde im Internet nichts.

Anarchy-HWLUXX
2008-02-18, 13:22:07
Und wann kommt die Karte raus? Ist das dann das neue High-End oder kommt nach 3 Monaten wieder etwas neues raus? Gibt es irgendwo schon Infos zu der Karte wo man sich ein bisschen durchlesen kann? Finde im Internet nichts.

Aktuelle gerüchte sagen ~ anfang/mitte März

Gast
2008-02-18, 13:23:19
Aktuelle gerüchte sagen ~ anfang/mitte März
Aja aber Tests oder Berichte gibt es noch nicht?

Anarchy-HWLUXX
2008-02-18, 13:28:57
Aja aber Tests oder Berichte gibt es noch nicht?

Öm, nein ;D

Bis auf inoffizielle Fotos und angeblichen Specs von heute is nix konkretes bekannt ...

GeneralHanno
2008-02-18, 13:30:24
die SLI-lotterie eben ;)

wenn alle parameter stimmen, kann sie bis zu 70-100% schneller sein, als eine 8800GT, aber real, wird sie sich wohl 20% über der ULTRA einordnen und die probleme mit sli-skalierung, vram und stromverbrauch/hitze haben ;)

Gast
2008-02-18, 13:33:00
Lohnt es sich dann,wenn man keine probleme will aber dennoch mehr power als GTX Ultra, die 9800GTX zu nehmen?

Wie soll die 9800GX2 oder 9800GTX denn aussehen?

GeneralHanno
2008-02-18, 14:10:23
ich schreib es dir mal auf:

Name: 8800ULTRA, 9800GX2, 9800GTX
Chip: G80, 2*G92, G92
Shader: 128, 2*128, 128
TMUs: 64, 2*64, 64
TAUs: 32, 2*64, 64
ROPs: 24, 2*16, 16
Chipt.: 612, 2*600, 800
Shadert.: 1650, 2*1500, 2000
SI: 384, 2*256, 256
Speicher: 756, 2*512, 1024
Speichert.:1050, 2*1000, 1200

DU siehst, je nachdem ist mal die ULTRA und mal die 9800GTX schneller. die daten der 9800GX2 sehen auf dem papier toll aus, aber alle dualkarten haben so ihre macken ...

Gast
2008-02-18, 14:13:33
Okay anhand diesen Daten denke ich das es für mich die 9800 GTX wird. Noch eine frage. Ist dies das High-End oder kommt da dieses Jahr noch was?

Gast
2008-02-18, 14:16:23
Edit: welche Speicherbandbreite hat die 9800 GTX den? Ist das schon bekannt? Ahh ist das SI=Speicherinterface? Dann wären es ja "nur" 256. Ist das nicht ein bisschen wenig bei soviel RAM(1024MB)?

GeneralHanno
2008-02-18, 14:18:27
die 9800GTX ist nur eine billig umgelabelte OC 8800GTS-1024, kaum schneller als die 1 jahre ULTRA. die 9800GX2 ist ein hastig zusammen gezimmertes sli-monster - total ineffizient- gibt selbst der nvidia CEO zu.

der echte kracher (codename: GT200) kommt diesen herbst. ein singelchip, der mühelos selbst ein 9800GX2-Quad-SLi oder 8800ULTRA-tripple-SLI-gespann in die tasche stecken wird. der preis wird aber auch bei über 500€ liegen ...

€dit: exakt, die ganze G92 generation, hat zu wenig bandbreite und ROP-power (z-fill)

Anarchy-HWLUXX
2008-02-18, 14:22:32
zusammen gezimmertes sli-monster - total ineffizient- gibt selbst der nvidia CEO zu.


WTF ? Da hast du was mal komplett falsch verstanden oder ne müllige übersetzung gelesen ... es ging um anfängliche probleme bei der Produktion der GPUs.

AnarchX
2008-02-18, 14:23:31
die 9800GTX ist nur eine billig umgelabelte OC 8800GTS-1024, kaum schneller als die 1 jahre ULTRA.
Aber dafür wohl auch billiger...


die 9800GX2 ist ein hastig zusammen gezimmertes sli-monster - total ineffizient- gibt selbst der nvidia CEO zu.

:nono:
Nana, laut Jensen liefern die gründlich geplanten Dual-GPU-Lösungen von Nvidia eine Ausnahmeleistung, die auf keine Fall mit einem einer einzelnen GPU möglich wären.;D

Naja, mal im Ernst: G80GTX/U-Besitzer die kein SLI/CF wollen, können wohl besser GF9 überspringen und im H2 dann zu einer HD4000 bzw. GT200-SKU wechseln.

GeneralHanno
2008-02-18, 14:28:05
WTF ? Da hast du was mal komplett falsch verstanden oder ne müllige übersetzung gelesen ... es ging um anfängliche probleme bei der Produktion der GPUs.

er hat die 3870X2 kritisiert und das gesagte konnte man problemlos auf alle Multi-gpu-karten, also auch die 9800GX2 übertragen. ich denke wir sind uns einig hier, dass multi-gpu-karten diverse nachteile haben:
- hitze
- lautstärke
- treibersupport zwingend notwendig
- mikro-ruckler
- (...)

Anarchy-HWLUXX
2008-02-18, 14:30:28
LoL, so kann man aussagen auch vollends re-Interpretieren ... unterstes Bild niveau :(

GeneralHanno
2008-02-18, 14:36:12
hier ist z.b. ein artikel zu den äußerungen des nvidia CEOs über dual-gpu-skus:
http://www.hardware-infos.com/news.php?news=1835

Anarchy-HWLUXX
2008-02-18, 14:50:50
hier ist z.b. ein artikel zu den äußerungen des nvidia CEOs über dual-gpu-skus:
http://www.hardware-infos.com/news.php?news=1835


Der wichtige Tei :

“If you want to put two GPUs on an add-in card and you deliver the absolute highest performance in the world, the enthusiast that uses that particular PC will certainly tolerate the fact that it’s a much larger solution. But if it’s not the highest performance solution in the world, as in the case of the X2, then it’s just really problematic. You know, there’s no market really for a product that’s larger, louder, and not as high performance. So, I think that GeForce 8800 GTX is still absolutely the best DX10 and highest graphics performance GPU in the world,”

Wenn man sich mal anschaut wie die X2 verglichen mit der Ultra/GTX abschneidet (HT4U Benches bei 1920*1200, kleiner macht kein sinn) ist die Performance eben nicht so überragend ... ergo muss die GX2 deutlich besser als die GTX/Ultra abschneiden damit man die aussage nicht doch noch nachträglich auf diese anwenden kann - mer werden es bald sehen.

Ailuros
2008-02-18, 15:09:54
die 9800GTX ist nur eine billig umgelabelte OC 8800GTS-1024, kaum schneller als die 1 jahre ULTRA. die 9800GX2 ist ein hastig zusammen gezimmertes sli-monster - total ineffizient- gibt selbst der nvidia CEO zu.

Billig umgelabelte Oc 8800GTS? Die ca. 50M mehr Transistoren die ich auf G92 sehe sind alles andere als "billig". Und wenn man schon einen chip fuer bis zu X Frequenzen entwickelt, dann handelt es sich nicht um eine "uebertaktete" GTS/512, sondern ist die 8800GTS 512 eher eine untergetaktete G92.

der echte kracher (codename: GT200) kommt diesen herbst. ein singelchip, der mühelos selbst ein 9800GX2-Quad-SLi oder 8800ULTRA-tripple-SLI-gespann in die tasche stecken wird. der preis wird aber auch bei über 500€ liegen ...

Stimmt schon nur....

€dit: exakt, die ganze G92 generation, hat zu wenig bandbreite und ROP-power (z-fill)

Bei den 800MHz die Du selber angibst sind es lediglich 7% weniger Z-Fuellrate als bei der 8800GTX. Kapselt man die Faelle aus wo die GTS/512 an VRAM verhungert im Vergleich zur 8800GTX, hat die erste zwar 25% weniger Z-fill und 28% weniger Bandbreite als die zweite; es kommt aber nie zu solchen Leistungsunterschieden.

Nehmen wir mal die angeblichen Specs der hypothetischen 9800GTX zur Hand:

128*3*2.0 = 768 GFLOPs/s (+48% 8800GTX)
64 TF *800 = 51200 (+39% 8800GTX)
64 TA *800 = 51200 (+180% 8800GTX)
16 ROP *800 = 12800 (-7% 8800GTX)

Stimmt jetzt auch noch das 1.5GHz Geruecht fuer den Speicher, sind es 11% mehr Bandbreite im Vergleich zur 8800GTX.

Der Schwachsinn dass G92 an Z-/Pixel-Fuellraten verhungern soll koennte man so langsam begraben; ueberhaupt wenn manche schon wissen wie es bei die Verhaeltnisse zwischen ALU:TEX:Z-Fill bei der naechsten "Generation" aussehen. Nach Deiner Logik duerfte der 55nm chip auf keinen Fall um X mal schneller sein als G80 weil er eben an Z-Fill bzw. Bandbreite verhungern wuerde.

G92 hat wie schon oefters erwaehnt auch anstaendigeres Z-culling, was zwar keine Welten ausmacht, aber es ist immerhin Z-fill + X% hoehere Verwerfungsrate.

Ailuros
2008-02-18, 15:20:51
Wenn man sich mal anschaut wie die X2 verglichen mit der Ultra/GTX abschneidet (HT4U Benches bei 1920*1200, kleiner macht kein sinn) ist die Performance eben nicht so überragend ... ergo muss die GX2 deutlich besser als die GTX/Ultra abschneiden damit man die aussage nicht doch noch nachträglich auf diese anwenden kann - mer werden es bald sehen.

Nur hat eben Huang nicht die GX2 im Hinterkopf; klar wird es zu einem unschoenen Widerspruch in seiner Aussage kommen wenn man sich spaeter die GX2 unter die Lupe nimmt, nur ist es besser dass er sich hier mit dem Zeug ins eigene Bein schiesst als dass er das Ganze dann in kurzer Zeit wieder zuruecknehmen muss.

NV's langfristigere Strategie geht auf single chip high end. Bis zum Punkt wo sich daran was aendern koennte. ist solch eher doofes PR schon verstaendlich. Den leichten "Ruecksatz" was NV's Umsatz fuers erste Halbjahr betrifft, haben sie schon selber seit Ende Sommer 2007 eingesehen. Sie opfern eben u.U. ein Halbjahr um agressiver im zweiten Halbjahr zuschlagen zu koennen.

dargo
2008-02-18, 16:19:46
Naja, nur wird so eine Karte sicherlich 450-500€ kosten.

Warum sollte sie? Eine GTX mit 512MB erwarte ich bei diesen Daten im Bereich von ca. 350€ (wenn die GX2 wirklich eine UVP von 449$ abbekommt). 1GB Variante würde ich auf ca. 400€ schätzen.

James Ryan
2008-02-18, 16:22:15
Warum sollte sie? Eine GTX mit 512MB erwarte ich bei diesen Daten im Bereich von ca. 350€ (wenn die GX2 wirklich eine UVP von 449$ abbekommt). 1GB Variante würde ich auf ca. 400€ schätzen.

Eine GTX ist immer High-End gewesen, und das auch zu einem High-End Preis!
300€ für eine GTX als Einführungspreis wird es nicht geben, dann eher eine Gf 9800 GT/GTS für 300€ und niedrigeren Taktraten.

MfG :cool:

dildo4u
2008-02-18, 16:25:31
Eine GTX ist immer High-End gewesen, und das auch zu einem High-End Preis!

Nein schon bei der Geforce 7 Serie stand die 79X0GX2 von der Performance und vom Preis über der 7900GTX.Von daher wird (wenn die 9800 GX2 ca 400-450€ kostet) sich die GTX whol bei 350€ einpendeln.

"Insgesamt ist die GeForce 7950 GX2 die mit Abstand schnellste Grafikkarte, die wir je in unserem Testlabor hatten, womit wir jedem High-End-Spieler, der selbst keine hohen Kosten von etwa 650 Euro scheut, ans Herz legen möchten, einen Blick auf die nVidia-Karte zu werfen. Obwohl die Karte etwa 200 Euro teurer als eine GeForce 7900 GTX oder Radeon X1900 XTX ist, ist das Preis-Leistungs-Verhältnis aufgrund der immensen Performance nicht viel schlechter, als bei den anderen High-End-Karten."

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/27/#abschnitt_fazit

James Ryan
2008-02-18, 16:31:46
Die Gf 7900 GTX kam 1. früher raus als die GX2 und 2. kostete diese bei Einführung auch 499€.
Der Vergleich hinkt also! ;)

MfG :cool:

dargo
2008-02-18, 16:32:07
Eine GTX ist immer High-End gewesen, und das auch zu einem High-End Preis!
300€ für eine GTX als Einführungspreis wird es nicht geben, dann eher eine Gf 9800 GT/GTS für 300€ und niedrigeren Taktraten.

MfG :cool:
1. G92 war imo nie als High-End gedacht/geplant sondern eher ein Lückenfühler bis zum "echten" High-End @GT200.

2. Ich habe 350€ für eine 512MB GTX genannt und keine 300€.

Die billigste G92GTS kostet ca. 235€. Alles über 350€ für eine leicht schnellere GTX (mal von der Bandbreite abgesehen) würde den Preis in keinster Weise rechtfertigen. Hier sollte man auch bedenken, dass eine etwas schnellere GX2 sich bei ca. 380€ einpendeln wird. Da bleibt für die 512MB GTX nicht viel, außer eben ~350€.

Ailuros
2008-02-18, 16:47:37
1. G92 war imo nie als High-End gedacht/geplant sondern eher ein Lückenfühler bis zum "echten" High-End @GT200.

G92 wurde entwickelt um vom Performance bis zum High end Segment abzudecken. Was heisst "echtes" high end ueberhaupt? Der 55nm chip kommt nicht morgen und auch nicht in einem Monat.

2. Ich habe 350€ für eine 512MB GTX genannt und keine 300€.

Wenn es nach mir ginge wuerde eine 9800GTX eher in 1GB Varianten antanzen. Da der Speicher hier am meisten kostet, wird jetzt irgend etwas >GDDR3 benutzt, wird es wohl auch den finalen Preis nochmal beinflussen.

Die billigste G92GTS kostet ca. 235€. Alles über 350€ für eine leicht schnellere GTX (mal von der Bandbreite abgesehen) würde den Preis in keinster Weise rechtfertigen. Hier sollte man auch bedenken, dass eine etwas schnellere GX2 sich bei ca. 380€ einpendeln wird. Da bleibt für die 512MB GTX nicht viel, außer eben ~350€.

Ich bin mir immer noch nicht sicher ob sie das Ding letztenendlich veroeffentlichen werden. Aber idiotische Preis-/Leistungsverhaeltnisse gibt es bei NV oefters als man gern haben koennte. Das beste Beispiel war die 8800Ultra im Vergleich zur 8800GTX. Ich bin mir nichtmal sicher ob es nur 2*512 9800GX2 geben wird LOL.