PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800GTS mit 112SPs am 29.10. (= 8800GTO?)


Seiten : [1] 2

AnarchX
2007-10-03, 10:21:11
In einem chinesischen Forum (http://www.mobile01.com/topicdetail.php?f=298&t=413501&last=3742976) ist eine Tabelle aufgetaucht, die eine neue G80-SKU zeigt, nämlich eine 8800GTS mit 112SPs/28TMUs, restliche Daten sollen gleich sein:
http://pic.xfastest.com/sxs112/NV/8800GT/01.png
NVIDIA will NOT be doing any formal launch activities, press announcements, website updates, or any other marketing around this new sku. Partners can conduct their own marketing activities around the sku as they see fit.
Das hört sich auch sehr ähnlich wie bei der 7900GTO an.

Die gelbe Eule
2007-10-03, 10:57:36
In der Übersetzung steht aber auch, daß die 640er getauscht wird und man Glück haben muss, so eine zu erwischen, da man nichr davon ausgehen kann, daß alle alten 640er beim Retailer verkauft worden sind. Man wird kaum eine "neue" 640er vermarkten wollen, eher der Abstand zur 8800GT wahren, die gefährlich schnell an die alte 640er herankommen würde.

laser114
2007-10-03, 12:22:36
Sehr interessante Entwicklung, wohl um die Leistung der 8800 GT im Vornehinein wohl als etwas niedriger erscheinen zu lassen?...

Allerdings schlecht für den Kunden der dann eine 8800 GTS 640 kaufen will.

Gast
2007-10-03, 14:13:03
wer macht eigentlich den lasercut (deaktivieren der 2 bzw. 1 cluster des G80 für die 88GTS) ? nvidia (bei seinem auftragsfertiger) oder die boardpartner ?

Gast
2007-10-03, 16:49:14
Ich will endlich einen Refresh vom 8800GTX!

-etwas schneller

-vor allem stromsparender!

3DoMan
2007-10-03, 17:03:21
NA, ich würde nicht all zu viel drauf geben das eine 8800 GT mit 64 SPUs an eine 8800 GTS mit 96 SPUs rannkommt, höchstens in synthetischen Benchmarks, aber da sind noch immer 32 SPUs oder anders gesagt, 1/3 mehr SPUs in der "alten" GTS. In neueren Spielen dürfte die 8800GTS so rund 20% schneller sein. Mal sehen. Ach ja, da währen dann noch der 640MB große VRam der GTS gegenüber 512MB VRam der GT.

seahawk
2007-10-03, 17:13:48
Du vergißt den Taktunterschied

Ganxsta
2007-10-06, 15:51:00
Wie schnell kann so ein 8800GTS mit 112SPs werden? (im vergleich zu 96SP)

AnarchX
2007-10-06, 15:53:26
Wie schnell kann so ein 8800GTS mit 112SPs werden? (im vergleich zu 96SP)

7/6 Cluster -> ~17% schneller, wenn die Bandbreite bzw. die ROPs, die ja gleich bleiben nicht limitieren.

Spasstiger
2007-10-06, 15:53:31
Wie schnell kann so ein 8800GTS mit 112SPs werden? (im vergleich zu 96SP)
(112/96-1)*100 % schneller.

dargo
2007-10-06, 19:24:46
Wie schnell kann so ein 8800GTS mit 112SPs werden? (im vergleich zu 96SP)
Nichts weltbewegendes, ca. 10-15%. Aber falls sie es zum gleichen Preis gibt, warum nicht.

The_Invisible
2007-10-06, 19:37:36
Ich will endlich einen Refresh vom 8800GTX!

-etwas schneller

-vor allem stromsparender!

8800u ist etwas schneller und laut nv auch stromsparender dank A3 :D

mfg

dargo
2007-10-06, 19:40:52
Ich will endlich einen Refresh vom 8800GTX!

Ja, und ich will eine Million € im Lotto gewinnen. ;)
Klappt auch nicht...

master_blaster
2007-10-07, 14:28:21
Zitat:
Zitat von Gast
Ich will endlich einen Refresh vom 8800GTX!

Ja, und ich will eine Million € im Lotto gewinnen.
Klappt auch nicht...

Hervorragender Beitrag!


8800u ist etwas schneller und laut nv auch stromsparender dank

Was ist A3?

laser114
2007-10-07, 14:30:07
Das Stepping. Mit der 8800 Ultra kam das A3-Stepping, findet man auch auf einigen 8800 GTS. Vor der 8800 Ultra kam der G80 im A2-Stepping ... und ich habe bis heute keine GTX im A3 gesehen.

Nakai
2007-10-07, 14:37:50
8800u ist etwas schneller und laut nv auch stromsparender dank A3

Nicht wirklich...

mfg Nakai

Raff
2007-10-07, 14:38:09
Irgendwann ist der alte Ramsch verkauft, dann finden sich garantiert auf allen G80-Karten die A3-er.

MfG,
Raff

master_blaster
2007-10-07, 18:04:02
Was ist am A3 anders?

Gast
2007-10-07, 18:10:09
Das sind die Karten, die auf der Ultra zuerst aufgetaucht sind.

James Ryan
2007-10-07, 18:10:23
Besser taktbar!
(vgl. meine Zotac Gf 8800 GTS in der Sig! ;) )

MfG :cool:

Gast
2007-10-08, 10:48:00
So eine neue 8800GTS mit 112SP sollte ja dann bei vernünftiger Übertaktung sehr nah an die Leistung einer non-oc 8800GTX heran kommen.

Gast
2007-10-10, 10:33:26
(vgl. meine Zotac Gf 8800 GTS in der Sig! ;) )

Na sicher ... 2000Mhz RAM-Takt :rolleyes:

James Ryan
2007-10-10, 18:52:47
Na sicher ... 2000Mhz RAM-Takt :rolleyes:

DDR... :rolleyes:

MfG :cool:

Tigershark
2007-10-11, 01:00:46
News....

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/oktober/neue_geforce_8800_gts_g92-basis/


or einigen Tagen wurde bekannt, dass die GeForce 8800 GTS 320 ausläuft und von der GeForce 8800 GT ersetzt werden wird. Die GeForce 8800 GTS 640 soll im Zuge dessen ferner ein Upgrade von 96 auf 128 Stream-Prozessoren erfahren, um einen Leistungsvorsprung zur 8800 GT wahren zu können.

Darüber hinaus war einer GeForce 8800 GTS bislang der in 90 nm gefertigte G80 vorbehalten, was sich neuesten Meldungen zu Folge bald ändern soll. Denn die chinesische Webseite Expreview will nun aus verlässlicher Quelle erfahren haben, dass die neue, aufgebohrte GeForce 8800 GTS – wie die nVidia GeForce 8800 GT – ebenfalls auf dem moderneren G92 basieren wird, der auf der 65-nm-Technologie beruht. Damit würde ein altes Laster der GeForce 8800 GTS zu Grabe getragen werden, nämlich der stattliche Stromverbrauch dieser Grafikkarte. Er dürfte fortan in etwa den einer GeForce 8800 GT zugesprochenen 110 Watt statt die bisherigen knapp 150 Watt betragen.

Expreview sieht es als gesichert an, dass es insgesamt zwei Modelle der GeForce 8800 GT sowie ein neues Modell der GeForce 8800 GTS (eben jenes, das nun auf dem G92 basieren soll) geben wird. So soll es eine GeForce 8800 GT mit 96 Stream-Prozessoren (SP) und eine mit 112 geben. Das Upgrade der 8800 GTS soll sich nicht (wie bislang vermutet) von 96 SP auf nur 112 SP belaufen, sondern mit dem G92 in sogar 128 SP resultieren. Konsequenterweise soll das Speicherinterface der 8800 GTS aber statt bisher 320 Bit künftig nur noch 256 Bit breit sein, wie es auch bei der 8800 GT der Fall sein wird.

....also NOCHMAL komplett anders als alles bisher angenommene?
Spannung.... ;)

Spasstiger
2007-10-11, 01:15:09
128 SPs und 256 Bit bei der 8800 GTS? Das wären imo zu tiefgreifende Änderungen, um beim alten Namen zu bleiben. Stiftet ja nur Verwirrung.
Und dann noch zwei Versionen der 8800 GT.

Interessant wäre dann noch zu wissen, ob die neue 8800 GTS vielleicht sogar GDDR4-Speicher mit 1000 MHz und mehr bekommt.

laser114
2007-10-11, 08:44:30
128 SPs und 256 Bit bei der 8800 GTS? Das wären imo zu tiefgreifende Änderungen, um beim alten Namen zu bleiben. Stiftet ja nur Verwirrung.

Man reduziere den Takt um 3/4 und erhöhe den Speichertakt auf 1000 MHz. Schon ist die GTS bis auf die Pixelfüllrate die selbe geblieben.

AnarchX
2007-10-11, 09:06:48
Man reduziere den Takt um 3/4 und erhöhe den Speichertakt auf 1000 MHz. Schon ist die GTS bis auf die Pixelfüllrate die selbe geblieben.

512MB != 640MB. ;)

Gast
2007-10-11, 09:08:10
DDR... :rolleyes:

MfG :cool:
Für solche Experten wie dich sind es 2000 MHz DDR.

Henroldus
2007-10-11, 09:31:52
512MB != 640MB. ;)
das wird nur in den wenigsten Fällen einen Unterschied machen vorrausgesetzt der VRAM Bug ist debugged ;)

dargo
2007-10-11, 10:08:33
Interessant wäre dann noch zu wissen, ob die neue 8800 GTS vielleicht sogar GDDR4-Speicher mit 1000 MHz und mehr bekommt.
Wozu? Es gibt doch GDDR3 bis zu 1,1Ghz.

das wird nur in den wenigsten Fällen einen Unterschied machen vorrausgesetzt der VRAM Bug ist debugged ;)
Dann warte mal Crysis ab. ;)

Edit:
Ist eine neue G8800GTS mit 1GB Vram zu erwarten?

Gast
2007-10-11, 10:11:02
das wird nur in den wenigsten Fällen einen Unterschied machen vorrausgesetzt der VRAM Bug ist debugged ;)
512 MiB = 4 ROP-Partitions
640 MiB = 5 ROP-Partitions
Eine ROP-Partition kann: http://www.beyond3d.com/content/reviews/1/10

AnarchX
2007-10-11, 10:13:36
Ist eine neue G8800GTS mit 1GB Vram zu erwarten?

AFAIK war eine 8800GT mit 1GiB in der Überlegung, aber nicht offiziell von NV, sondern von einem AIB, aber da wurde auch etwas von GDDR2 genannt, wohl wieder ein DAU-Fänger...

GeneralHanno
2007-10-12, 15:39:09
die GTS112 soll im sli mit der GTS96 laufen können:

http://www.hartware.de/news_43273.html

reunion
2007-10-14, 22:17:47
die GTS112 soll im sli mit der GTS96 laufen können:

http://www.hartware.de/news_43273.html


Ja, habe es auch gerade gelesen. Nur wäre man wohl schön blöd, wenn man das machen würde, da sich die Leistung logischerweise am langsameren Modell orientiert. Aber das beste:
http://www.vr-zone.com/articles/112_SP_8800_GTS_Works_w_96_SP_8800_GTS_In_SLI/5346.html#Scene_1

nV will nicht, dass man die neue 8800GTS als eine neue Karte mit 112SPs vermarktete, stattdessen soll sie als 8800GTS "special edition" oder "OC edition" gekennzeichnet werden. Na wenn das mal nicht für gehörig Verwirrung sorgen wird. Die 320MB Version soll definitiv keinen zusätzlichen Cluster bekommen.

GeneralHanno
2007-10-14, 22:22:50
kann die 320 sowieso nicht mehr bestellt werden?

laser114
2007-10-14, 22:28:15
nV will nicht, dass man die neue 8800GTS als eine neue Karte mit 112SPs vermarktete, stattdessen soll sie als 8800GTS "special edition" oder "OC edition" gekennzeichnet werden.

Auf Hauen und Biegen die alten Marketingnamen beibehalten? Wie soll man das verstehen? :confused:

Anstatt dass sie eine 8900er-Serie daraus machen...

=Floi=
2007-10-14, 22:44:09
und eine 8900 GTX und ultra

Gast
2007-10-14, 22:44:19
Auf Hauen und Biegen die alten Marketingnamen beibehalten? Wie soll man das verstehen? :confused:

Anstatt dass sie eine 8900er-Serie daraus machen...

Wäre Marketing-technisch ziemlich dumm.

Könnte mir allerdings vorstellen, dass die Karten ursprünglich nicht so stark geplant waren. Die 8800GTX und Ultra waren für 2007 als Spitzenmodelle geplant und der G92 sollte nur die GT/GTS ersetzen (bei ähnlicher Leistung), um höhere Margen zu erzielen.

Dann wurde die RV670 stärker als erwartet und man hat den G92 etwas aufgebohrt. Da aber GTX und Ultra die Spitzenmodelle waren, konnten Sie die neuen Karten nicht 8900 nennen.

Trotzdem bleibt es Marketing-technisch unzureichend.

laser114
2007-10-14, 22:52:08
Wäre Marketing-technisch ziemlich dumm.

Könnte mir allerdings vorstellen, dass die Karten ursprünglich nicht so stark geplant waren...

Selbst wenn dem so wäre und der G92 für absolutes High-End nicht ausreicht, hätte ich eine 8900er-Serie eröffnet. Eine 8900 GTX oder so ähnlich hätte dann eben ein G80-Abkömmling mit hohen Taktraten darstellen müssen...

viking
2007-10-15, 12:34:55
Oha, hier tut sich ja viel im Hause NV - ob Ati überhaupt noch eine Chance hat?
Ich bin am überlegen, ob ich auf die 8900er warte oder noch eine 8800er kaufen.

Gast
2007-10-26, 08:37:12
wie werden sich eigentlich die kommende GT und die neue GTS unterschieden? Irgendwie Blick ich da nicht durch...

Ri*g*g*er
2007-10-26, 11:31:14
Schön abwarten,

werd ich auch machen, das kann nur Vorteile bringen.
Bräuchte die Leistung einer 8800 GTX aber ich sehe nicht ein über 400,00 € für nen altes Stück Hardware hinzulegen.

Die GT wird zwar schnell aber für mich zu langsam sein und vor allem am Anfang für Mondpreise über den Tisch gehen ~280,00 € für die 512 version würde ich mal schätzen.

Also lieber ATI´s Antwort abwarten und vor allem die GTS und dann mal schaun was der Hardwarefunk eventuell noch zu einem neuem GTX Modell hören lässt.

Neue Hardware ohnen neuen Namen ist irgendwie komisch normalerweise hauen die ja jeden Fuzzel auf die Packung seihe z.b. AGP 8 da hiessen die Karten auch anders und konnten nix mehr.

Gruss
Ri*g*g*er

MadManniMan
2007-10-26, 11:51:48
Bräuchte die Leistung einer 8800 GTX...

Die GT wird zwar schnell aber für mich zu langsam sein...

Die GTX dürfte soviel schneller als eine GT sein, daß man es in Nicht-Mond-Auflösungen (alles über 1600/1650 aufwärts) eben gerade so merkt - und das ist Dir zuviel Geschwindigkeitsunterschied?

Ri*g*g*er
2007-10-26, 12:03:45
@MadManniMan

Häh ?!?

Also meine Auflösung 1920 x 1200 da drunter nie, denn ich fahre immer native Display-Auflösung.
Dazu 2 AA reicht mir aber AF sollte auch noch mindestens 4 sein.

Ne GT wird dafür nicht ausreichen (Speicher, Anbindung des Speichers nur mal als Beispiel genannt)

Eine GTX ist interessant nur kaufe ich mir JETZT bestimmt keine mehr wo das Teil nun schon über 1 Jahr ist und ich wette mit Dir bis zur Cebit bekommen wir sowohl von Nvidia als auch von ATI noch eine neue Highend Grafikkarte zu sehen.

Stichwort Grafikspeicher mehr als 768/1 Gig auf Grafikkarten wird kommen und DDR 4 bei Nvidia steht auch noch aus.

Gruss
Ri*g*g*er

MadManniMan
2007-10-26, 12:34:55
Häh ?!?

Hi! :)


Also meine Auflösung 1920 x 1200 da drunter nie, denn ich fahre immer native Display-Auflösung.
Dazu 2 AA reicht mir aber AF sollte auch noch mindestens 4 sein.

Oha, entschuldige. Du fährst genau jene Auflösung, die ich als durchaus kritisch betrachte, was Ram anbelangt ;)
Und warum so bescheiden mit 2*/4*? Zumindest ists bei den 8800ern so, daß 4* nicht viel mehr als 2* ziehen sollte - und beim AF trumpft die gesamte Reihe mit soviel Füllrate auf, daß es an Qualitätsverschwendung grenzt, nicht 16* zu nutzen.


Ne GT wird dafür nicht ausreichen (Speicher, Anbindung des Speichers nur mal als Beispiel genannt)

Also beim Ram gehe ich mit, daß es schwierig werden könnte. Aber ansonsten ist es doch einerlei, wie eine Karte ihre Leistung erbringt.


Eine GTX ist interessant nur kaufe ich mir JETZT bestimmt keine mehr wo das Teil nun schon über 1 Jahr ist und ich wette mit Dir bis zur Cebit bekommen wir sowohl von Nvidia als auch von ATI noch eine neue Highend Grafikkarte zu sehen.

Möglicherweise hast Du Recht - und mit Deiner R580 wär mir das Aufrüsten eh zu knapp.


Stichwort Grafikspeicher mehr als 768/1 Gig auf Grafikkarten wird kommen und DDR 4 bei Nvidia steht auch noch aus.

Bist Du denn oft begrenzt durch die 512MB Deiner Radeon?

Ri*g*g*er
2007-10-26, 12:59:01
Hi MadManniMan,

ich hatte noch keine 8800 im Rechner egal welche aber der Sprung von einer X1900XT (R580) würde sich so doer so nur auf ne 8800 GTX lohnen.

Ja, die 512 RAM limitieren schon ab und zu.

Hab z.b. sehr viel BF2 gespielt mit folgenden Einstellungen:

4 AA
16 AF
+ Vsync
+ Triple Buffering (das kostet auch RAM)

da geht schon auf der ein oder anderen Map der Speicher aus kann man sehr schön an der Spielerzahl + Fahrzeugen erkennen.

-Dann Gothic 3 dort werden auch volle 512 RAM verbraucht.
-Dark Messiah - Might and Magic
-Oblivion

sind bestimmt noch nen paar mehr bin aber @work und kann nicht nachschaun *G*

Auch kann ich Dir sagen, das ATI´s A.I. auf aus unspielbar sind, das frisst so viel Leistung in den oben genannten Einstellungen kann man sich schwer vorstellen ist aber so ;-)

In UT 3 hab ich durch die gute Shaderpower und den Prozessor durchschnittlich ~35 Fps das kann man noch sehr gut spielen.

Alle Source Titel sowieso und Quake Wars läuft auch noch Top also warte ich lieber auf richtiges Highend.

grosses Speicherinterface
viel Speicher

vieleicht rutscht die 8800 GTX ja auf 350,00 € das wäre natürlich was anderes hehe

Gruss
Ri*g*g*er

MadManniMan
2007-10-26, 14:01:11
Hi MadManniMan,

ich hatte noch keine 8800 im Rechner egal welche aber der Sprung von einer X1900XT (R580) würde sich so doer so nur auf ne 8800 GTX lohnen.

Da könntest Du Recht haben... ich jedenfalls brauche immer mindestens die doppelte Leistung, um mich zu reizen.
Laut ComputerBase (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/24/#abschnitt_performancerating_qualitaet) würdest Du mit ner GTX wohl etwa jene doppelte Leistung haben, eine GT könnte mit vielleicht 50 % zu Buche schlagen.

Mußte halt überlegen, ob die anderen Features (D3D10, 8*MSAA, SSAA ...) Dir irgendwie ähnlich mehr Wert wären.

Ja, die 512 RAM limitieren schon ab und zu.

Hab z.b. sehr viel BF2 gespielt mit folgenden Einstellungen:

4 AA
16 AF
+ Vsync
+ Triple Buffering (das kostet auch RAM)

da geht schon auf der ein oder anderen Map der Speicher aus kann man sehr schön an der Spielerzahl + Fahrzeugen erkennen.

Kannst Du echt nachvollziehen, daß Dir dann da ver VRAM ausgeht? Wenn ja, wären natürlich mehr als 512 MB wünschenswert.

-Dann Gothic 3 dort werden auch volle 512 RAM verbraucht.
-Dark Messiah - Might and Magic
-Oblivion

sind bestimmt noch nen paar mehr bin aber @work und kann nicht nachschaun *G*

Heißt "verbraucht" denn auch gleichzeitig, daß sie nen Flaschenhals darstellen? ;)

Auch kann ich Dir sagen, das ATI´s A.I. auf aus unspielbar sind, das frisst so viel Leistung in den oben genannten Einstellungen kann man sich schwer vorstellen ist aber so ;-)

Also würdest Du Dich über weniger Performance-aggressives "High Quality" freuen, hm?

In UT 3 hab ich durch die gute Shaderpower und den Prozessor durchschnittlich ~35 Fps das kann man noch sehr gut spielen.

UT3 würde aber gerade vom D3D10-AA profitieren ;)

Alle Source Titel sowieso und Quake Wars läuft auch noch Top also warte ich lieber auf richtiges Highend.

...letztendlich mußt Du wissen, ob Dir die 1900XT überhaupt zu lahm wäre - mir wär sies nich, aber ich fahr ja auch 1280.

grosses Speicherinterface
viel Speicher

Viel Speicher ... da geh ich mit.
Großes Speicherinterface? Ist es denn so wichtig, wie die Leistung zu Stande kommt?

vieleicht rutscht die 8800 GTX ja auf 350,00 € das wäre natürlich was anderes hehe

Das klingt gar nicht sooo unrealistisch - aber eher müßtest Du ein Verschwinden der GTX aus dem Markt einkalkulieren.

Spasstiger
2007-10-26, 14:44:30
wie werden sich eigentlich die kommende GT und die neue GTS unterschieden? Irgendwie Blick ich da nicht durch...
Die endgültigen Daten sind ja jetzt mit relativ großer Sicherheit bekannt.

Zuerst mal die 8800 GTS (G80):

Shaderleistung: 96 skalare Shader-ALUs (jeweils 1 MADD + 1 MUL), 1200 MHz Shadertakt => 345,6 GFLOPs
Texturfüllrate: 24 TAs, 48 bi-TMUs, 500 MHz TMU-Takt => 12 Gigatexel/s bilinear, mit 2:1 bi-AF oder trilinear
Pixelfüllrate: 20 ROPs, 500 MHz ROP-Takt => 10 Gigapixel/s (oder 40 Mrd. z-Werte pro Sekunde)
Speicherbandbreite: 320 Bit SI, 800 MHz GDDR3-Speicher => 64 Gigabyte/s
Sonstiges: 640 MB Grafikspeicher mit 1,1 ns Zugriffszeit, Videoprozessor 1 (kein H.264), 2-Slot-Kühler, 90-nm-Fertigung, Die-Größe 486 mm², 681 Mio. Transistoren


Jetzt die 8800 GT (G92):

Shaderleistung: 112 skalare Shader-ALUs (jeweils 1 MADD + 1 MUL), 1500 MHz Shadertakt => 504 GFLOPs
Texturfüllrate: 56 TAs, 56 bi-TMUs, 600 MHz TMU-Takt => 33,6 Gigatexel/s bilinear, 16,8 Gigapixel/s mit 2:1 bi-AF oder trilinear
Pixelfüllrate: 16 ROPs, 600 MHz ROP-Takt => 9,6 Gigapixel/s (oder 38,4 Mrd. z-Werte pro Sekunde)
Speicherbandbreite: 256 Bit SI, 900 MHz GDDR3-Speicher => 57,6 Gigabyte/s
Sonstiges: 512 MB Grafikspeicher mit 1,0 ns Zugriffszeit, Videoprozessor 2 (unterstützt H.264), 1-Slot-Kühler, 65-nm-Fertigung, Die-Größe 289 mm², 754 Mio. Transistoren


Man kann davon ausgehen, dass bei der 8800 GT noch nicht alle Funktionseinheiten des G92 freigeschalten sind, um Spielraum für eine neue High-End-Karte offen zu halten.

Moralelastix
2007-10-26, 15:17:30
Hoffentlich kann die neue GTS noch ordentlich was oben drauf packen.

> 128 SPUs?

Spasstiger
2007-10-26, 15:26:16
Aber nur Milllionen Transistoren keine Mrd. : Milliarde(n) ;)
Jo, habs korrigiert. ;) /EDIT: Hättest dein Posting deswegen nicht zensieren brauchen.

Was ich mir Anfang nächstens Jahres noch als neue Karte auf G92-Basis vorstellen könnte:
128 Shader-ALUs, 64 TAs und TMUs, 256 Bit SI, 16 ROPs, 600-650 MHz ROPs/TMUs, 1800-2000 MHz Shadertakt, 512 MB bis 1 GB GDDR4-Speicher mit 1600 MHz.
So eine Karte wäre meistens schneller als eine 8800 Ultra.

AnarchX
2007-10-26, 15:34:10
Wobei der Gast doch nach der neuen GTS(7C-G80?) gefragt hatte, um die es in diesem Thread geht:


Zuerst mal die 8800 GTS (G80):

Shaderleistung: 96 skalare Shader-ALUs (jeweils 1 MADD + 1 MUL), 1200 MHz Shadertakt => 345,6 GFLOPs
Texturfüllrate: 24 TAs, 48 bi-TMUs, 500 MHz TMU-Takt => 12 Gigatexel/s bilinear, mit 2:1 bi-AF oder trilinear
Pixelfüllrate: 20 ROPs, 500 MHz ROP-Takt => 10 Gigapixel/s (oder 40 Mrd. z-Werte pro Sekunde)
Speicherbandbreite: 320 Bit SI, 800 MHz GDDR3-Speicher => 64 Gigabyte/s
Sonstiges: 640 MB Grafikspeicher mit 1,1 ns Zugriffszeit, Videoprozessor 1 (kein H.264), 2-Slot-Kühler, 90-nm-Fertigung, Die-Größe 486 mm², 681 Mio. Transistoren


Jetzt die 8800 GT (G92):

Shaderleistung: 112 skalare Shader-ALUs (jeweils 1 MADD + 1 MUL), 1500 MHz Shadertakt => 504 GFLOPs
Texturfüllrate: 56 TAs, 56 bi-TMUs, 600 MHz TMU-Takt => 33,6 Gigatexel/s bilinear, 16,8 Gigapixel/s mit 2:1 bi-AF oder trilinear
Pixelfüllrate: 16 ROPs, 600 MHz ROP-Takt => 9,6 Gigapixel/s (oder 38,4 Mrd. z-Werte pro Sekunde)
Speicherbandbreite: 256 Bit SI, 900 MHz GDDR3-Speicher => 57,6 Gigabyte/s
Sonstiges: 512 MB Grafikspeicher mit 1,0 ns Zugriffszeit, Videoprozessor 2 (unterstützt H.264), 1-Slot-Kühler, 65-nm-Fertigung, Die-Größe 289 mm², 754 Mio. Transistoren



"8800 GTS" 7 Cluster Version (G80):

Shaderleistung: 112 skalare Shader-ALUs (jeweils 1 MADD + 1 MUL), 1200 MHz Shadertakt => 403 GFLOPs
Texturfüllrate: 28 TAs, 56 bi-TMUs, 500 MHz TMU-Takt => 14 Gigatexel/s bilinear, mit 2:1 bi-AF oder trilinear
Pixelfüllrate: 20 ROPs, 500 MHz ROP-Takt => 10 Gigapixel/s (oder 40 Mrd. z-Werte pro Sekunde)
Speicherbandbreite: 320 Bit SI, 800 MHz GDDR3-Speicher => 64 Gigabyte/s
Sonstiges: 640 MB Grafikspeicher mit 1,1 ns Zugriffszeit, Videoprozessor 1 (kein H.264), 2-Slot-Kühler, 90-nm-Fertigung, Die-Größe 486 mm², 681 Mio. Transistoren


Wenn nicht gerade Speichermenge/bandbreite und ROP-Leistung limitieren, hat sie der 8800 GT auch nichts entgegen zu setzen. Da will NV wohl einfach die 7C-G80 loswerden und den AIBs die Möglichkeit geben die Karten im Abverkauf etwas attraktiver zu machen.

Moralelastix
2007-10-26, 15:35:24
Du rechnest also heuer nicht mehr mit der neuen GTS.

Mist ich ging davon aus das die noch kommt.:(

Können die neuen GT Karten zusammen mit einer alten GTS im SLI Modus funktionieren?


Urgs, was seh ich da die neue GTS soll noch auf dem G80 basieren? Sicher?

4711
2007-10-26, 15:38:42
so ist das..wer keinen g80 hat sofort zugreifen wenns ne NV sein soll,ansonsten kann man getrost aufs neue warten.

Sonyfreak
2007-10-26, 15:39:46
Die endgültigen Daten sind ja jetzt mit relativ großer Sicherheit bekannt.Diesen Werten zufolge sollte die 8800GT noch weniger unter AA/AF einbrechen als die GTS oder?

mfg.

Sonyfreak

AnarchX
2007-10-26, 15:41:39
Urgs, was seh ich da die neue GTS soll noch auf dem G80 basieren? Sicher?

Mal einen Blick ins #1 werfen. ;)

Das hier soll die Abverkauf 88GTS sein, die am 29.10. still eingeführt werden soll. Die G92-GTS, wenn es denn diese gibt und sich hier nicht vielleicht doch ein andere Launch dahinter verbirgt, soll am 19.11. kommen.

Gast
2007-10-26, 15:41:58
Vielen Dank @Spasstiger&AnarchX !

Gast
2007-10-26, 16:44:32
Diesen Werten zufolge sollte die 8800GT noch weniger unter AA/AF einbrechen als die GTS oder?

Bei AA stärker, weil die Bandbreite + VRam Menge schneller ausgereizt ist. :(
Hoffentlich lässt sich der Speicher ordentlich übertakten:
- Bei der GTS sind 90Mhz Spielraum; bei der GT 100Mhz
- dazu noch etwas Glück ...

Gast
2007-10-26, 20:40:39
Bei Geizhals ist die erste 8800GT schon gelistet.
http://geizhals.at/eu/a291468.html

Scheint sich zu bestätigen: 112 SP @ 1500 MHz. Der Preis von 240€ wäre echt nice.

Hvoralek
2007-10-27, 13:23:53
Das hier soll die Abverkauf 88GTS sein, die am 29.10. still eingeführt werden soll. Die G92-GTS, wenn es denn diese gibt und sich hier nicht vielleicht doch ein andere Launch dahinter verbirgt, soll am 19.11. kommen.Warum fängt man eigentlich mit dem G80- Abverkauf gerade beim Erscheinen der GT an? Vor ein paar Wochen hätte man noch einiges für eine 7-C-GTS verlangen können, aber mit der GT, die in aller Regel schneller sein wird, weniger Strom verbraucht und wohl etwa 230€ kosten dürfte, wird man die neue GTS wohl nur noch für unter 200€ los. :|

AnarchX
2007-10-27, 13:55:48
Ja, alles sehr merkwürdig.

Im Endeffekt wurde wohl die 8800 GT in ihren Specs verstärkt, da man RV670 etwas unterschätzte.

Nightspider
2007-10-29, 00:03:46
Wie schnell soll denn die 8800GTS_2.0 werden , wenn die 8800 GT schon schneller ist als die 8800 GTX_1.0 ?

http://resources.vr-zone.com/floppyimage/8800gt/crysis1920.jpg

Anarchy-HWLUXX
2007-10-29, 08:44:08
Wie schnell soll denn die 8800GTS_2.0 werden , wenn die 8800 GT schon schneller ist als die 8800 GTX_1.0 ?

http://resources.vr-zone.com/floppyimage/8800gt/crysis1920.jpg


AA / AF aufdrehen und die GT plaziert sich wieder hinter der GTX ein ... wer fährt denn scho ne High-End karte ohne AA/AF ?

Gast
2007-10-29, 08:52:25
Achso ;)

http://www.elitebastards.com/hanners/asus/en8800gt/charts/oblivion-2048aa.png

Gast
2007-10-29, 09:14:46
AA / AF aufdrehen und die GT plaziert sich wieder hinter der GTX ein ... wer fährt denn scho ne High-End karte ohne AA/AF ?

In Crysis ist man dazu gezwungen AA wegzulassen, da sonst die Performance in ruckelnde Bereiche abfällt.

Anarchy-HWLUXX
2007-10-29, 11:45:16
In Crysis ist man dazu gezwungen AA wegzulassen, da sonst die Performance in ruckelnde Bereiche abfällt.

Was mich persönlich ziemlich ankotzen würde - geile grafik verhunzt mit jaggies überall ? Nein danke ... da wart ich lieber bis die Hardware genug power hat, das game wird sicher net schlechter oder teurer sein in 3-6 monaten ...

Gast
2007-10-29, 14:17:30
wer weis wer weiss ;)

ne aber warum ist ne gt schneller als ne gtx?
sollte sie eigentlich in keinem bereich sein oder?

Gaestle
2007-10-29, 14:57:14
Am Ende des 8800GT Tests von hardocp:


UPDATE - 10/29/07-8:29am: A very interesting addendum to this. I just got off the phone with BFG Tech and NVIDIA has been doing some strange things lately. As of this morning, the GeForce 8800 GTS 640MB (unsure on the 320MB) will have its stream processors officially increased to 112, the same as the GT. This should put the GTS back ahead of the GT as per the paper specs. However, the separation in the products is still going to be very small except for those of you wanting to run high resolutions with AA turned on. To do that you are still going to need a $400+ video card..or so. Our new spec GTS is on the way to us now and we will of course be updating you. Given the GT's faster clocks and possibly larger texture unit, we will have to wait and see. Undoubtedly though, the 8800 GT remains a stellar value at the expected price points.


http://enthusiast.hardocp.com/article.html?art=MTQxMCw2LCxoZW50aHVzaWFzdA==

Gast
2007-10-29, 18:33:55
was meint ihr wie der G92 in voller pracht aussieht?

er hat ein paar transistoren mehr auf der waage als der G80
dies könnte ja am vp2 und nvio liegen


nur 2 rop-gruppen weniger dürften ja auch einiges an transistoren sparen
dem entgegen stehen wieder 56 "ganze" tmus

ich würde auf 8cluster tippen, aber nur 6 rop-partitionen

wie seht ihr das?

Gast
2007-10-29, 18:34:59
meine natürlich 4 rop-partitionen :/

AnarchX
2007-10-29, 18:45:51
Wird sich zeigen müssen, ich fände jedenfalls für den Chip nur 256-Bit etwas unsinnig:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5975438#post5975438

4711
2007-10-29, 18:48:17
In Crysis ist man dazu gezwungen AA wegzulassen, da sonst die Performance in ruckelnde Bereiche abfällt.
ich spiel mit 4xssaa und 16 af.....und nun?

Undertaker
2007-10-29, 19:02:26
Wird sich zeigen müssen, ich fände jedenfalls für den Chip nur 256-Bit etwas unsinnig:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5975438#post5975438

hätte aber den vorteil, dass man die nächste high-end generation mit absolut sinnvollen 1024mb vram bestücken kann... 768mb wären zu wenig, 1,5gb zu viel...

K4mPFwUr$t
2007-10-29, 19:10:45
@undertaker
dem kann ich zustimmen, bis dahin sollte GDDR4 genug ausbeute bieten und GDDR5 langsam in den startlöchern sein. also an bandbreite wird es wohl nicht mangeln.

AnarchX
2007-10-29, 19:15:40
hätte aber den vorteil, dass man die nächste high-end generation mit absolut sinnvollen 1024mb vram bestücken kann... 768mb wären zu wenig, 1,5gb zu viel...
Aber brauchen wir wirklich schon 1GiB?
Imo sind 768MB für 2008 in den meisten Fällen doch noch ausreichend, laut letzen Infos wird ATis kommendes Flagschiff auch nur mit 512MB effektiv erscheinen in der Referenzversion.

Und wie ich schon im erwähnten Thread gepostet hatte, der schnellste erhältliche GDDR4 würde "nur" ~100GB/s ermöglichen, die ich in Anbetracht, dass ein High-End-G92 wohl ~50 GTex/s Bi-Samples aufwerfen könnte, zu wenig finde und auch im Bezug auf kommende Rendertechnologien.

1GiB werden wir vielleicht in 2009 auf dem G100 sehen, welcher diese an auf ein zwei Chips verteiltes 512-Bit anbindet.

Undertaker
2007-10-29, 19:20:11
nun, es ist eine high-end karte. da ist "für die meisten fälle" einfach nicht genug ;) das die 512mb der 8800gt schon in älteren spielen wie coh nicht immer ausreichen, lässt mich für 768mb bei neuen krachern wie crysis nix besseres hoffen - und besser zuviel ram und zuwenig bandbreite als andersherum ;)

4711
2007-10-29, 19:26:22
genau deswegen keine GT sondern immer noch ne GTX oder Ultra..auch wenns einigen Herren nett in den Kram paßt...ich hörse schon brüllen.."ich hab den Bug ich hab den Bug"
achso hab ich ja vergessen..den gibt es ja garnett...

AnarchX
2007-10-29, 19:30:57
nun, es ist eine high-end karte. da ist "für die meisten fälle" einfach nicht genug ;) das die 512mb der 8800gt schon in älteren spielen wie coh nicht immer ausreichen, lässt mich für 768mb bei neuen krachern wie crysis nix besseres hoffen - und besser zuviel ram und zuwenig bandbreite als andersherum ;)

Wobei man hier auch sehen sollte, dass das Speichermanagment bei GF8 immernoch nicht ganz optimal läuft, wie man z.B. in den Situationen sieht wo die GT extrem einbricht, dass GTS 640 oder 2900XT 512 teilweise mehr als doppelt so schnell sind.

Imo sollte man doch dieses Problem eher beheben, anstatt als Workaround verschwenderisch bei der Bebauung mit VRAM umzugehen.

Ich tippe nachwievor hierauf:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5944659&postcount=197

Vielleicht kommt ja um die fetten Portemonnaies der Luxus-Enthusiasten noch mehr zu erleichtern eine Extrem Edition oder vielleicht als Ultra mit 1.5GiB, die sogar mit einseitige Bestückung(12 Chips) möglich wären, da es bei GDDR4 auch High-Density-Module(1024Mbit) gibt, was dann wohl ~$999 bedeuten könnte, aber für Triple-SLI mit dessen Möglichkeiten gar nicht mal so verkehrt wäre.

robbitop
2007-10-29, 19:37:53
1GiB werden wir vielleicht in 2009 auf dem G100 sehen, welcher diese an auf ein zwei Chips verteiltes 512-Bit anbindet.
Spekulation, der ich technisch nicht zustimmen kann.

Gast
2007-10-29, 19:42:07
ich spiel mit 4xssaa und 16 af.....und nun?
Mit welcher Auflösung? Wie ist dann RAM Verbrauch?
Ich wette dir geht bereits ab 1280x1024 @16xSSAA der RAM aus. Also, es wird eigentlich höchste Zeit für 1GB auf Highend Karten...

Dafür werden wir auch belohnt ---> Crysis ohne jaggies :)

http://666kb.com/i/at2msfuos9ergmzl7.jpg

4711
2007-10-29, 19:44:40
vista 32 >DX9>1680x1050 und vsyng an.
Ich wette dir geht bereits ab 1280x1024 @16xSSAA der RAM aus>da zu sag ich mal lieber nix..

AnarchX
2007-10-29, 19:47:10
Spekulation, der ich technisch nicht zustimmen kann.

Nunja, ATi wird offensichtlich diesen Weg gehen, passende Patente scheinen auch vorhanden zu sein, also wird dieser Weg durchaus Vorteile haben, die vielleicht auch NV erkannt hat.

Im Endeffekt werden die GPUs immer größer, sodass dieser Schritt aus fertigungstechnischen Gründen wohl eben notwendig wird:
wo G70 bei 320mm² lag und dessen Shrink bei 200mm², sind es bei G80 schon 480mm² und bei G92 immernoch ganze ~300mm², da kann man erahnen welche Dimension es bei kommenden GPUs annehmen würde.

viking
2007-10-29, 19:47:11
Uhh... sieht aber schick aus ;)

Naja, ich werde mir DEFINITIV eine 8800GT zulegen... K**k auf Crysis, so billig komm ich als Schüler nie wieder davon ;)

/me Ironie

F5.Nuh
2007-10-29, 20:21:43
Mich stört leider immer noch der zu geringe speicher. Tendiere z.Z. eher zur jetzigen GTX (die wird ja wohl derbe sinken im preis bei ebay usw.).

Ich frage mich aber auch ob manch hersteller die neue GTS nicht mit mehr speicher bestücken oder sogar mit einer anderen kühlung. Wäre dann echt was für mein neues system.

robbitop
2007-10-29, 20:29:30
Nunja, ATi wird offensichtlich diesen Weg gehen, passende Patente scheinen auch vorhanden zu sein, also wird dieser Weg durchaus Vorteile haben, die vielleicht auch NV erkannt hat.
Das will ich erstmal sehen, wie man bezahlbare Interconnects mit mehreren 100 GiB/s zw zwei Kerne packt.

Im Endeffekt werden die GPUs immer größer, sodass dieser Schritt aus fertigungstechnischen Gründen wohl eben notwendig wird:
wo G70 bei 320mm² lag und dessen Shrink bei 200mm², sind es bei G80 schon 480mm² und bei G92 immernoch ganze ~300mm², da kann man erahnen welche Dimension es bei kommenden GPUs annehmen würde.
Die werden immer größer, weil den GPU Herstellern manchmal das was das Murphy Law hergibt, nicht reicht. Würde man sich damit (wie es die mainstream die sizes tun) zufrieden geben, wäre das kein Problem.
Und dass man das kann beweisen G71 und G92 wunderbar.

Ich glaube an den Firlefanz nicht, bis ich ihn effektiv und bezahlbar funktionieren sehe.

AnarchX
2007-10-29, 20:41:34
Um mal wieder auf das Thema zurückzukommen:
96+ Pixel Pipelines
http://www.evga.com/products/moreinfo.asp?pn=640-P2-N829-A1
:ugly:
Da ist ja eine vermehrte FAG-Nutzung vorprogrammiert...

GeneralHanno
2007-10-29, 20:53:42
chiptakt 576mhz

laser114
2007-10-29, 20:57:28
Aha, 900 MHz @ 320 Bit. Kommt genau auf die angegebenen 72 GB/s. Also doch volle ROP-Partitionen.

Und 96+ Streamprozessors, Nvidias Marketingsabteilung hat doch echt einen an der Waffel. Getaktet sind die übrigens mit 1350 MHz, wie die der GTX ... gleiches gilt für den Chiptakt.

AnarchX
2007-10-29, 21:00:03
Ähmm... das ist ein OC-Version -> SSC.

Je nach Glück hat man nun hier eben einen 6C oder 7C G80* drin.

* Topic bzw. #1 beachten... ;)

laser114
2007-10-29, 21:08:13
Je nach Glück hat man nun hier eben einen 6C oder 7C G80* drin.

Juhu, der Grafikkartenkauf wird Lotterie. ;D
Was denkt sich denn Nvidia bei so etwas?

GeneralHanno
2007-10-29, 21:10:16
wie werde ich am besten die alten, teuren, heißen G80 los :biggrin:

laser114
2007-10-29, 21:11:59
wie werde ich am besten die alten, teuren, heißen G80 los :biggrin:

In dem man unter einem alten Produktnamen etwas besseres versteckt? Finde ich etwas merkwürdig. ;)

Die_Allianz
2007-10-29, 21:46:41
hey leute wäre mal jemand so nett und würde das insider-geplauder der letzten paar posts für mich übersetzten?

ist die evga-karte die neue GTS?

AnarchX
2007-10-29, 21:52:16
ist die evga-karte die neue GTS?
Ja, es ist eine neue GTS, aber eben nicht auf G92 sondern noch auf G80 basierend um diesen Wohl im Abverkauf attraktiver zu machen.

Zu genaueren Daten, siehe hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5969158&postcount=51

Die_Allianz
2007-10-29, 21:57:21
Ja, es ist eine neue GTS, aber eben nicht auf G92 sondern noch auf G80 basierend um diesen Wohl im Abverkauf attraktiver zu machen.

Zu genaueren Daten, siehe hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5969158&postcount=51

danke. hatte ich schon fast so verstanden.
Völlig unverständlich ist allerdings, was nV da treibt! :mad:
Verarschen lasse ich (und viele andere hoffentlich auch) mich nicht! Entweder die rücken jetzt mal zügig mit Infos zum neuen Portfolio raus, oder ich behalte mein Geld!

Edit:
Das A/A nix auf die Reihe kriegt zur Zeit hat wohl leider schon die ersten Auswirkungen auf den Markt! Hoffentlich können die bald wieder mithalten!

Nightspider
2007-10-29, 22:01:33
Also kommt keine neue 8800 GTS auf G92-Basis ? :frown:

AnarchX
2007-10-29, 22:04:17
Also kommt keine neue 8800 GTS auf G92-Basis ? :frown:

Keine Ahnung, aber die 112SPs-G80-GTS soll es ja ab heute geben und die G92-GTS wird für den 19.11. spekuliert.;)

Die_Allianz
2007-10-29, 22:22:28
Keine Ahnung, aber die 112SPs-G80-GTS soll es ja ab heute geben und die G92-GTS wird für den 19.11. spekuliert.;)

aber was sollte die Einführung einer neuen G80-Variante 14 Tage vor der G92-Variante bringen? Diese wäre ja dann ab dem 19.11 unverkäuflich.
Abverkauf nicht! nicht in der kurzen Zeit! Dann hätte man schon viel früher angefangen.
Ich verstehe die Lage aktuell einfach nicht.

laser114
2007-10-29, 22:36:27
Da gehts nicht nur dir so. ;)

Irgendwas ist da wohl durcheinandergeraten... der aktuelle Stand des Angebots ist auch für Nvidia wenig befriedigend...

Hvoralek
2007-10-29, 23:47:35
[D]er schnellste erhältliche GDDR4 würde "nur" ~100GB/s ermöglichen, die ich in Anbetracht, dass ein High-End-G92 wohl ~50 GTex/s Bi-Samples aufwerfen könnte, zu wenig finde und auch im Bezug auf kommende Rendertechnologien.Worauf beziehst Du Dich denn damit? :confused:

master_blaster
2007-10-30, 15:53:11
Kann es sein, dass die neue GTS die aktuelle GTX komplett aus den Socken bläst? Ist ja auch die gleiche Preisklasse: http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1475018/nvidia.html
Kommt dann noch was schnelleres in Form einer neuen GTX und handelt es sich bei den GT/GTS Versionen eigentlich wieder um kastrierte Chips, wo Funktionseinheiten deaktiviert wurden?

Nightspider
2007-10-30, 16:24:16
Ich habe hier gestern irgentwo gelesen, das in dieser GTS die alten GTX Chips stecken und nicht der neue G92 Chip ? :confused:

Anarchy-HWLUXX
2007-10-30, 16:24:32
Das ist ne OC version mit weltfremden preisvorstellungen ... der OC ist bei lausigen 100MHz für Shader und RAMs ... *gähn*

Das Teil kommt keinesfalls an eine GTX ran welche 16 SPs mehr hat, 64bit-Breiteres SI und 128MB mehr RAM ...

@Nighty - wie willst du 640MB an einer G92 festmachen ? geht net ;)

Hvoralek
2007-10-30, 23:08:55
Kann es sein, dass die neue GTS die aktuelle GTX komplett aus den Socken bläst? Ist ja auch die gleiche Preisklasse: http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1475018/nvidia.html
Kommt dann noch was schnelleres in Form einer neuen GTX und handelt es sich bei den GT/GTS Versionen eigentlich wieder um kastrierte Chips, wo Funktionseinheiten deaktiviert wurden?Wenn man den Takt nicht geändert hat, ist die 7-C-GTS auf jeden Fall langsamer als eine GTX. Weniger Cluster und ROP- Blöcke, geringere Taktraten, kleinerer, langsamerer und schmaler angebundener Speicher, keine Chanche. Das Ding wird nicht einmal die GT in sinnvoll nutzbaren Einstellungen schlagen, wenn Du mich fragst.

@Nighty - wie willst du 640MB an einer G92 festmachen ? geht net ;)Wenn das Ding wirklich 5 ROP- Blöcke hat, sollte das gehen.

arcanum
2007-10-31, 00:15:53
@Nighty - wie willst du 640MB an einer G92 festmachen ? geht net ;)

http://forum.beyond3d.com/showpost.php?p=1084185&postcount=52

"Nvidia will refresh their line up in November
8800GTX (new) - 700MHz Core, 128SPs @ 1800MHz, 384-bit
8800GTS (new) - 650MHz Core, 112SPs @ 1600MHz, 320-bit"

ich kann mir auch nicht vorstellen, dass der G92 bei 10% mehr transistoren gegenüber dem G80 beschnitten sein soll und die GT das maximum ist.

Undertaker
2007-10-31, 00:36:02
insgesammt wäre das aber ein erschreckend mieser refresh :| die "neue" gtx wäre wohl kaum 20% schneller als die alte ultra...

AnarchX
2007-10-31, 00:42:22
insgesammt wäre das aber ein erschreckend mieser refresh :| die "neue" gtx wäre wohl kaum 20% schneller als die alte ultra...
Das ist doch auch alles nur reine Spekulation:
http://www.penstarsys.com/editor/so3d/q4_2007/index.html
... und teilweise eben richtig falsch:
The RV670 has a much higher transistor count than the R600, and I am speculating that it might be as high as 800 million transistors vs. the R600’s 700 million.
Hier gibt es mittlerweile ein AMD-Dokument was von 666M spricht und im RV670-Thread einsehbar ist...

Da erscheint mir dies doch sinnvoller im Bezug auf G92-High-End:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5944659&postcount=197
;)

BAGZZlash
2007-10-31, 09:41:14
Sollte man den Namen des Threads nicht mal auf den neusten Stand bringen?

AnarchX
2007-10-31, 09:44:35
Sollte man den Namen des Threads nicht mal auf den neusten Stand bringen?

Wieso?
Die 8800 GTS die mit einem 7C-G80(#1!) ausgeliefert wird heißt doch immernoch 8800 GTS. ;)

AnarchX
2007-10-31, 13:35:05
eVGA 8800GTS SSC Edition
http://img164.imageshack.us/img164/7682/2404727f37730cb0hl3.jpg

Die gelbe Eule
2007-10-31, 13:47:34
Hmm also doch kein G92 Ableger für die GTS ;)

Pac
2007-10-31, 13:52:33
Hmmm ich hoffe noch auf einen G92er Ableger der GTS wg. Takt und Strom. Denn auf dem G80 nur weitere SPs freischalten ist kein grosser Anreiz für einen Kauf - vor allem wenn es die 8800 GT gibt. Und von einer "alten" GTS auf die GT umsteigen lohnt auch nicht so wirklich, vor allem wenn die GTS wie bei mir ja noch nicht soooo alt ist.

Die gelbe Eule
2007-10-31, 14:59:54
Eher kommt eine GTX und Ultra auf G92 Basis, die GT ist bereits schnell genug und mit dem neuen Board in 2 Wochen garantiert noch besser auszureizen.

BAGZZlash
2007-10-31, 15:19:31
Wieso?
Die 8800 GTS die mit einem 7C-G80(#1!) ausgeliefert wird heißt doch immernoch 8800 GTS. ;)


Ja, aber nicht GTO und der 29.10. ist auch vorbei.

AnarchX
2007-10-31, 15:54:02
Ja, aber nicht GTO und der 29.10. ist auch vorbei.
Hinter GTO steht ja ein Fragezeichen und an sich ist es ja auch mehr oder weniger eine neue 7900GTO, wenn die 8800 GT nicht so stark wäre.
Und am 29. wurde sie ja mehr oder weniger eingeführt (AIBs haben die Webseiten geupdatet).

AnarchX
2007-10-31, 18:34:48
http://www.hardwarecanucks.com/imagehosting/2404727f3772f0df.jpg
http://www.hardwarecanucks.com/forum/video-cards/3097-new-8800gts-640mb-112-sps-hardwarecanucks.html

Fragt sich nur was eVGA für die Karte haben will.

Nightspider
2007-10-31, 18:41:52
http://www.hardwarecanucks.com/imagehosting/2404727f3772f0df.jpg
http://www.hardwarecanucks.com/forum/video-cards/3097-new-8800gts-640mb-112-sps-hardwarecanucks.html

Fragt sich nur was eVGA für die Karte haben will.

Die Frage ist, wo die GTX in dem Benchmark liegen würde.

Die EVGA GTS, welche für mich nur eine alte GTS mit mehr Shadern zu sein scheint, hat keine Daseins-Berechtigung.

Die_Allianz
2007-10-31, 18:50:47
Fragt sich nur was eVGA für die Karte haben will.

fragt sich nur wer die Karte kaufen will?

Die ist genauso langsam wie eine GT, die aber wesentlich weniger Strom verbraucht!
Wer soll sowas kaufen? :confused:

Gast
2007-10-31, 19:15:02
Da ist wenigstens ein g'scheiter Kühler drauf, für 10€ mehr als die GT könnte man drüber nachdenken :)

Doomi
2007-10-31, 19:16:11
wenn die Karte nur ca 20 € teurer als die GT wäre, ich würde sie kaufen. ist schließlich default etwas schneller wie die GT, hat ein breiteres Speicherinterface und damit bei höheren Auflösungen noch mehr Power und etwas mehr Speicher. Dazu einen etwas besseren Kühler der auch im Sommer sehr leise bleibt. Insgesamt gesehen also bis auf den höheren Stromverbrauch die bessere Karte wenn sie preislich nur leicht über der GT liegen würde.

Adam D.
2007-10-31, 19:18:42
Da die neuen GTS höchstwahrscheinlich als Special Edition verkauft werden, kannst du dich auf Preise jenseits von 300€ gefasst machen - da bin ich mir sicher.

Gast
2007-10-31, 19:25:11
Wer soll die für 300€ kaufen wenn die GT bis dahin vielleicht bei 220€ liegt? Kann irgendwas ned stimmen...

F5.Nuh
2007-10-31, 23:36:07
also wird die "neue" gts doch noch 640 mb haben? auf dem screenshot steht "A2", gibt es eventuel welche mit dem a3 stepping, die sich dazu noch sehr gut takten lassen?

Dann wäre das Teil sogar sehr interessant, wenn der Preis stimmt. Interessant wäre natürlich auch wo die "alte" gtx in der tabelle stehen würde.

Die_Allianz
2007-11-01, 11:41:21
Frage zum Speicherinterface (resultierend Menge) einer evtl. GTS auf G92 Basis:

Wenn eine neue GTS mit 128SP G92 kommt, könnte diese dann ein breiteres Speicherinterface haben?
Beim G80 war dies ja der Fall (GTS<->GTX | 320<->384). Ich selbst kann mir diese Frage leider nicht beantworten, weil ich über den internen Aufbau zu wenig weiß.

Gast
2007-11-01, 15:51:04
die anzahl der shader-cluster hat damit nichts zu tun

die anzahl der rop-partitionen ist wichtig
und da weiss keiner wieviele der G92 wirklich hat

ganz ausschließen kann man ein 320/384bit SI wohl nicht

Gast
2007-11-01, 18:43:58
Eventuell sind es ja nur abverkäufe besser selektierter Chips?
In 3 Wochen sollte es ja spätestens soweit sein, ob ein G92-400 kommt oder nicht. Oder gar ein abgespeckter G90 ^^

Nakai
2007-11-01, 18:46:07
Nur dann mal die Frage?

Was ist die GTX, wenn die GTS schon 8 Cluster hat?


mfg Nakai

Gast
2007-11-01, 18:52:47
hyperfluid

Gast
2007-11-01, 18:58:23
Was meinst mit Cluster... man sollte bei den neuen nV Chips nicht von festen Verhältnissen in den Bauteilen ausgehen. Ausnahme scheint hier wirklich nur noch das SI und die ROPs zu sein. Ein 64Bit Kanal ist wohl immer an 4ROPs gekoppelt.
Das zeigte auch die Folie des G92/8800GT in der ein ROP-SI "Cluster" grau unterlegt war und grund für die Spekulation auf eine GTS mit 320Bit SI war.

Das Verhältnis TMU/TA/SPs scheint beliebig zu sein, sieht man ja an den Änderungen vom G80 zum G92.

Eine neue GTX, die aber dann wohl wirklich 8900 oder 9800 heisen wird, kommt mit? D3D10.1 Unterstützung im 1.Quartal 08, sagen die Gerüchte bisher.
Wäre ungewöhnlich das beim Refresh einer Generation kein Superhighend rauskommt.

Oder nimm einfach eine 8800GT und rechne sie auf die Architektur der 8800GTX rauf, dann weiste was kommt ;)

DrumDub
2007-11-02, 10:33:47
Das zeigte auch die Folie des G92/8800GT in der ein ROP-SI "Cluster" grau wer sagt dir, dass diese folie von nv kommt und nicht selbst gebastelt ist?

Gast
2007-11-02, 10:56:58
Errrrm:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=3993&Itemid=34

Gast
2007-11-02, 11:00:21
ups zu spät :P

Henroldus
2007-11-02, 19:50:34
8800 GTS 512MB auf Nividia-Website bestätigt (http://www.nvidia.com/object/geforce_family.html) :tongue:
unter der Fußnote 5 ganz unten

wird lustig, wenn in 2 oder 3 Wochen alle wieder ihre 8800GT bei Ebay verticken

AnarchX
2007-11-02, 19:55:40
8800 GTS 512MB auf Nividia-Website bestätigt (http://www.nvidia.com/object/geforce_family.html) :tongue:
unter der Fußnote 5 ganz unten

Ist im richtigen Thread schon seit 2 Tagen bekannt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5984762&postcount=347

Wie schon öfters darauf hingedeutet, geht es hier um die G80-112SP-640MB-GTS.

Henroldus
2007-11-02, 19:58:59
seit 2 Tagen?, na da hab ich auch mal gepennt

S.T.A.L.K.E.R
2007-11-02, 20:55:20
wird lustig, wenn in 2 oder 3 Wochen alle wieder ihre 8800GT bei Ebay verticken

Warum sollen Leute die 1ne oder 2 8800 GT haben ihre Karte verkaufen? Ich sehe keinen Grund dazu die Graka wieder zu verkaufen wenn ich eine hätte.

Gast
2007-11-02, 21:08:21
Ist im richtigen Thread schon seit 2 Tagen bekannt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5984762&postcount=347

Wie schon öfters darauf hingedeutet, geht es hier um die G80-112SP-640MB-GTS.

Jetzt blick i gaor ned mehr durch... SOll des heissen es wird 2 (!) neue GTS geben, einmal auf Basis des alten G80 und dann noch eine G92 GTS? :confused: :confused: :confused:

laser114
2007-11-02, 21:32:43
SOll des heissen es wird 2 (!) neue GTS geben, einmal auf Basis des alten G80 und dann noch eine G92 GTS?

Korrekt.

Gast
2007-11-02, 21:33:58
Möcht ja ned nerven aber bitte erklär mir mal jemand den Sinn davon? :confused:

Gast
2007-11-04, 08:16:21
Möcht ja ned nerven aber bitte erklär mir mal jemand den Sinn davon? :confused:

Abverkauf alter Chips... was auch sonst?

Womit ich mich aber überhaupt nicht anfreunden kann, ist eine 128SP 512MB GTS. Das wäre ja praktisch ein Downgrade für Besitzer ähnlicher Karten. Der Speicher wurde nicht erhöht, sondern wieder reduziert. Was nützt mir die hohe Leistung, wenn sie dann noch mehr einbricht:confused:

GeneralHanno
2007-11-04, 09:36:14
alles zu den neuen 8800GTS:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/zwei_geforce_8800_gts_dezember/

Die_Allianz
2007-11-04, 10:15:25
alles zu den neuen 8800GTS:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/zwei_geforce_8800_gts_dezember/

jetzt lassen sie den einzigen Grund auf die GTS zu warten, die 1GB-Variante, wieder außen vor. ;)

Die machen auch nix anderes als gerüchte zusammentragen und als Fakten zu verkaufen.

Hoffentlich kommt bald eine 1 GB Karte, die schneller als die GTX ist!

Matrix316
2007-11-04, 10:29:20
Warum können die nicht einfach wie früher eine 50 zum Namen hinzufügen? Man kann doch nicht drei 8800 GTS bringen die alle unterschiedliche Leistungen haben?!

Warum nennt man nicht die 8800 GT "8850 GT", die neue alte GTS "8850 GTO" und die neue neue GTS "8850 GTS"?

Schon jetzt ist es doch für die meisten verwirrend, wenn eine 8800 GT schneller als eine 8800 GTS ist.

Gast
2007-11-04, 10:45:03
Warum nennt man nicht die 8800 GT "8850 GT", die neue alte GTS "8850 GTO" und die neue neue GTS "8850 GTS"?

Weil niemand die ältere Schrott-Hardware mehr kaufen würde, wenn sie sehen, das günstigere Produkte schneller sind. Ist doch klar, oder? ;)
Das ist denke ich mal so beabsichtigt, denn wie würde man die bisherigen Chips noch los, wenn schnellere Produkte günstiger verfügbar sind und das jeder auf dem ersten Blick erkennen kann?

Hvoralek
2007-11-04, 12:44:59
alles zu den neuen 8800GTS:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/zwei_geforce_8800_gts_dezember/Nur 24 Doppel- TMUs? Bei 128 SPs müssten das doch 28 sein :confused:

nomadhunter
2007-11-04, 12:50:01
Nur 24 Doppel- TMUs? Bei 128 SPs müssten das doch 28 sein :confused:
Du meinst wahrscheinlich die neue G80-GTS mit 112SPs?

Bei der G90-GTS ist aber auch ein Fehler: 20 ROPs bei weiterhin nur 256bit-Speicherinterface...

Gast
2007-11-04, 12:50:16
Am 19. November eine neue G80 GTS und dann 2 (!) Wochen später eine noch neuere G92 GTS?

Gabs schonmal was hirnrissigeres im Grafikkarten Business?

GeneralHanno
2007-11-04, 13:00:04
ich vermute mal, es war ursprünglich geplant, die ganze G92 generation ende nov zu launchen und regulär den G80 abzulösen. weil ATi den RV670 von Q1 auf nov vorverlegt hat, hat nvidia den G92 auch nach vorne gelegt. problem: die alten G80 sollen ja noch bis dez (oder länger) laufen, weshalb nun so eine übersättigung an alten und neuen grakas statt findet.

Lenon
2007-11-04, 13:15:14
Ist die RV670er Serie denn so gut, daß man mit so einem bullshit "kontern" muß ?

Ab Dezember ists also ein Glücksspiel welche Karte man bekommt.

Die_Allianz
2007-11-04, 13:33:20
Ist die RV670er Serie denn so gut, daß man mit so einem bullshit "kontern" muß ?
nein ich sehe dass anders.
nV hat eine grundsätzliche roadmap im Hinterkopf (siehe neue G80 GTS), kann aber auf jede neue Karte von ATI reagieren.
Die(nV) hatten jetzt mehr als 1 Jahr Zeit für neuentwicklungen, welche jetzt auch marktreif sind.
Wenn sich langsam rauskristallisiert, was ATI für karten launchen will (aktuell RV670), schmeißt nV kurzfristig ne karte auf den markt, welche den ATI-Pedant platt macht und Kunden abfängt.;D

Das man seine eigene Roadmap ein wenig umwürfelt ist dabei zu verschmerzen, solange ATI dabei kein Land mehr sieht.

das sind die ersten auswirkungen des quasi-monopols im oberen Leistungssegment. Da kann man sich schon mal auf die nächsten jahre einstimmen..;(

Ab Dezember ists also ein Glücksspiel welche Karte man bekommt.

nein denn die GTS lassen sich doch eindeutig anhand der speichermenge unterscheiden.

4711
2007-11-04, 13:48:30
das sind die ersten auswirkungen des quasi-monopols im oberen Leistungssegment. Da kann man sich schon mal auf die nächsten jahre einstimmen.

jo sie werdens uns mit den ersten,ich nenn sie mal GTXsen und Ultras richtig geben...

Die_Allianz
2007-11-04, 13:50:51
jo sie werdens uns mit den ersten,ich nenn sie mal GTXsen und Ultras richtig geben...
bitte?

Alphaflight
2007-11-05, 23:30:25
Am 19. November eine neue G80 GTS und dann 2 (!) Wochen später eine noch neuere G92 GTS?

Gabs schonmal was hirnrissigeres im Grafikkarten Business?


Den Jungs von nv ist halt langweilig, ATi kommt ja leider nicht zu potte ;)

Anarchy-HWLUXX
2007-11-06, 14:09:39
Am 19. November eine neue G80 GTS und dann 2 (!) Wochen später eine noch neuere G92 GTS?

Gabs schonmal was hirnrissigeres im Grafikkarten Business?

So bekommt die günstige Karte 2 wochen lang die volle dröhnung an aufmerksamkeit - und bei der hohen performance zum (demnächst) kleinen Preis auch zurecht.

Die GTS wird dann wieder nen gutes stück mehr kosten was den käuferkreis doch nen ganzes stück schrumpfen lässt.

Ritter Sport Nugat
2007-11-06, 14:14:20
http://geizhals.at/deutschland/a292918.html

Doomi
2007-11-06, 14:43:20
http://geizhals.at/deutschland/a292918.html

ja und? da ist keine Karte gelistet...

Hvoralek
2007-11-06, 18:55:23
ja und? da ist keine Karte gelistet...Es ist kein Händler gelistet, der die Karte führt. Sofern sich Geizhals die Angaben nicht aus den Fingern gesaugt hat, nennt BFG hier ausdrücklich 112 SPs.

Gast
2007-11-07, 09:29:08
Den Jungs von nv ist halt langweilig, ATi kommt ja leider nicht zu potte ;)

Ganz und gar nicht. Aus nVidia Sicht ist der Zeitpunkt optimal um alte Chips abzuverkaufen!

Ihr dürft dabei nicht vergessen, das natürlich die Verkaufszahlen immer weiter abnehmen, je höher der Preis ist. Es kann durchaus sein, das nVidia weitaus mehr GTX/Ultras fertigen könnte, als in wirklichkeit gebraucht werden oder weggehen, daher wäre es Verschwendung diese als 96 SP GTS zu verkaufen. Macht man eben ein neues Produkt raus um so die Lager leerzeräumen für den Nachfolger.

Genau danach sieht es ja aus. Weg mit den alten Chips bevor dann ein neuer kommt.

Gast
2007-11-07, 09:58:57
Woohooo, 2 Wochen um alte Chips abzuverkaufen, na ob das mal wohl richtig durchdacht ist... :rolleyes:

=Floi=
2007-11-07, 10:11:59
der G92 ist nicht alt und nur der wird zz richtig gut verkauft

Gast
2007-11-07, 10:14:28
Woohooo, 2 Wochen um alte Chips abzuverkaufen, na ob das mal wohl richtig durchdacht ist... :rolleyes:

Warum nicht? Es hängt alles von der Preisgestaltung ab. Siehe 8800 GT. Die geht weg wie warme Semmeln, dank ihres guten Verhältnisses.

Vielleicht wird nVidia die Karte kurze Zeit vergünstigt anbieten, bis der Nachfolger raus ist. Könnt ich mir gut vorstellen. Preise können sich täglich ändern...

Gast
2007-11-07, 10:25:31
der G92 ist nicht alt und nur der wird zz richtig gut verkauft
zur zeit wird garnichts verkauft es gibt keine..
http://www.snogard.de/
die haben angeblich welche....

nomadhunter
2007-11-07, 13:13:21
Vielleicht wird nVidia die Karte kurze Zeit vergünstigt anbieten, bis der Nachfolger raus ist. Könnt ich mir gut vorstellen. Preise können sich täglich ändern...
Außerdem kann man die Karte ja noch weiter anbieten, auch wenn die neue G92-GTS schon raus ist. Dazu müsste man den Preis evtl. noch weiter senken, aber besser, als auf den Chips sitzen zu bleiben, ist das allemal.

Gast
2007-11-07, 13:15:54
Wie tief müsste man den Preis dann senken? Da herrscht dermassen Gedränge, die passt nirgends rein.

nomadhunter
2007-11-07, 13:38:25
Wie tief müsste man den Preis dann senken? Da herrscht dermassen Gedränge, die passt nirgends rein.
Auslaufmodelle passen selten in das neue Preisgefüge. Das ist bei ATI nicht anders. Z.B. wird die X1950GT seit Monaten fast zum gleichen Preis wie die 2600XT GDDR3 verkauft, die X1950Pro fast zum gleichen Preis wie die 2600XT GDDR4.

laser114
2007-11-07, 15:57:58
Auslaufmodelle passen selten in das neue Preisgefüge. Das ist bei ATI nicht anders. Z.B. wird die X1950GT seit Monaten fast zum gleichen Preis wie die 2600XT GDDR3 verkauft, die X1950Pro fast zum gleichen Preis wie die 2600XT GDDR4.

Schlechtes Beispiel, da AMD den RV570 wohl weiter gefertigt hat und auch adie X1950 Pro/GT als einzige Karten der X1000-Serie weiterhin beworben hat (wenn auch nicht ganz so auffällig wie die HD-Serie, aber die Karten waren z. B. in Promotions neben HD 2400, 2600 & 2900 inbegriffen). Ersetzt werden diese ja erst durch den RV670.

reunion
2007-11-08, 19:02:35
Test:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/3173-evga-8800gts-640mb-w-112sps-ssc-edition-review.html

Henroldus
2007-11-08, 20:53:58
Test:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/3173-evga-8800gts-640mb-w-112sps-ssc-edition-review.html
ja schon gesehen und in meiner Lieblingsauflösung 1600x1200 4/8AA 16AF eigentlich auch immer schneller als die GT-leider wohl auch teurer ;(
da kommt das breitere SI und der Mehrspeicher wohl doch zum Tragen trotz der niedrigeren Taktraten.

troublemaker55
2007-11-08, 21:37:00
Ich find das review nicht ganz so aussagkräftig.......man lässt ne overclocked gts ( mehr als 12%) gegen eine normale gt antreten, was die relationen natürlich verschiebt.

Henroldus
2007-11-08, 22:19:40
Ich find das review nicht ganz so aussagkräftig.......man lässt ne overclocked gts ( mehr als 12%) gegen eine normale gt antreten, was die relationen natürlich verschiebt.
naja 12% sollten bei jeder standard GT auch locker drin sein aber hast recht ist etwas unfair wenn nicht umgesetzt

TeleTubby666
2007-11-08, 22:31:47
Aber im Gegensatz zur GT scheint die nen vernünftigen Kühler zu haben :)

Wann wird die bei uns erhältlich sein?

Gast
2007-11-08, 22:36:15
Is doch aber nen oller G80, interessiert ned besonders wenn bald die G92 GTS erscheint...

Gast
2007-11-08, 23:30:14
Ich find das review nicht ganz so aussagkräftig.......man lässt ne overclocked gts ( mehr als 12%) gegen eine normale gt antreten, was die relationen natürlich verschiebt.

Richtig... eine Zotac GT 700/1000/1700 (16 % mehr GPU, 11 % mehr Speicher und 13 % mehr Shadertakt als Standard GT) würde kurzen Prozess mit dieser GTS machen und das zu einem Preis knapp um 200€.

Die GTS scheint nicht wirklich interessant zu werden, höchstens die oc versionen mit deutlich höheren taktraten, aber dann auch preisen um 300-350 € ... naja.
Bei der anderen Version ists dank der 512MB fast schon wieder n downgrade. :rolleyes: Da fährt man mit zwei GTs fast schon besser!

Gast
2007-11-08, 23:32:47
jo in 800x600...

Gast
2007-11-08, 23:37:36
Nö, das funktioniert selbst in 1600x1200!

Bedenke, das die neue GTS auf basis eines 65 nm chips 512MB/256 bit haben wird, aber wohl erheblich teurer wird! Und die andere, ist, wie hier bereits festgestellt wurde, nicht wirklich schneller, wenn sie mal gegen eine gleichwertige GT verglichen wird und hat noch die Nachteile bezüglich Stromverbrauch...

Gortha
2007-11-09, 13:43:18
Die G92-GTS soll erheblich teurer als was werden?

Die wird wie die 640MB-Version so um die 300 €uronen liegen.
Vielleicht sogar weniger.
Und schneller als ne GTX sein.

Gast
2007-11-09, 15:52:12
Die G92-GTS soll erheblich teurer als was werden?

... 8800 GT.

Da liegt das Hautproblem. Bei dem bekannten Artikel, wo die 112 SP Version der GTS getestet wurde, kann sich selbst diese >OC-Version< der GTS NICHT gegen eine Standard-GT durchsetzen.
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/3173-evga-8800gts-640mb-w-112sps-ssc-edition-review.html

Gegen eine 15-20 % schnellere GT die nun schon für etwa ~210€ verfügbar wäre, haben die neuen GTS zur Zeit keine Chancen.

Die 90nm Version erst recht nicht, da ja auch ihr Taktpotential stark begrenzt ist.

Warum sollte der User nun 50 % mehr Geld für eine gleichwertige Karte ausgeben?

dreas
2007-11-09, 15:56:13
Sind nicht 50% mehr aber Recht hast du sonst voll und ganz.

Superheld
2007-11-09, 15:56:58
... 8800 GT.
Da liegt das Hautproblem. Bei dem bekannten Artikel, wo die 112 SP Version der GTS getestet wurde, kann sich selbst diese >OC-Version< der GTS NICHT gegen eine Standard-GT durchsetzen.


dann guck dir nochmal genau die Balken an, das meiste gewinnt nähmlich die GTS;)

Gast
2007-11-09, 16:01:40
dann guck dir nochmal genau die Balken an, das meiste gewinnt nähmlich die GTS;)

Guck nochmal genau hin. Hast du berücksichtigt, das hier eine übertaktete GTS gegen eine Standard GT verglichen wurde?

Ich denke nicht. ;)

Würde ich eine Standard GTS gegen eine Standard GT setzen oder jeweils die zwei besten Varianten nehmen, so sehe ich da keine Vorteil mehr für die GTS.

Den einzigen Vorteil des größeren VRAMs wird sie mit Erscheinen der 65 nm Version wieder verlieren.

Gast
2007-11-09, 16:03:20
Noch interessanter wird der Vergleich unter Berücksichtigung des Preises. Wenn die 2. schnellste GT schon für 220€ zu haben ist und diese liefert ~15-20% mehr Power als die Standard GT, was spricht dann noch für die GTS, die (wesentlich) teurer sein soll?

Superheld
2007-11-09, 16:15:44
Würde ich eine Standard GTS gegen eine Standard GT setzen oder jeweils die zwei besten Varianten nehmen, so sehe ich da keine Vorteil mehr für die GTS.
Den einzigen Vorteil des größeren VRAMs wird sie mit Erscheinen der 65 nm Version wieder verlieren.

na das wissen wir doch schon eine Weile, den Tag vergess ich nie;(:)

Gortha
2007-11-09, 16:41:48
Leute ihr vergesst, dass ich von der G92-GTS geredet habe.

Die ist eine GT mit 128 Stream-Prozessoren und höheren Taktraten.
D.h. sie wird ein gutes Stück schneller als die GT sein!
Deswegen hab ich auch geschrieben : "Und schneller als ne GTX sein"

Die jetztige "neue" GTS @ G80 mit 112 Stream-Prozzis ist doch nur
ein übergang für ~ einen Monat...
Und ja, die ist natürlich "nicht viel" besser als eine GT bei dem Preis.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/nvidia_geforce_8800_gts_512_mb/

Gast
2007-11-10, 17:48:38
D.h. sie wird ein gutes Stück schneller als die GT sein!

Diese hat statt 640 MB nur noch 512 MB und statt 320 bit SI nur noch 256 bit SI. Das heißt, erstmal büßt sie Leistung ein im Vergleich zu den jetzt erhältlichen GTS. Es könnte durchaus sein, das sie in hohen Auflösungen und wenn ihr der VRAM ausgeht, langsamer wäre als ne 96 SP mit gleichen Taktraten ...

Wo siehst du überhaupt, das sie höhere Taktraten haben wird? Eigentlich ist es genau umgekehrt. Wenn man schon viele SP hat, dann brauchen diesen nicht mehr so hoch getaktet sein um anständige Leistung zu erreichen. Dadurch erhöht sich widerum die Ausbeute und der Profit...

Es erscheint mir reichlich unwahrscheinlich, das nVidia diese Version gleich sehr hoch taktet, da somit kaum noch Spielraum für ne GTX/Ultra bliebe. Man muss bedenken, das ein höherer Takt bei mehr Recheneinheiten auch wieder schwieriger zu realisieren ist. Bei 128 SP erwarte ich auf keinen Fall 700 MHz oder mehr wie bei der 8800 GT. Das würde zum einen den Stromverbrauch (Kühlung) in die Höhe treiben und zum anderen der Ausbeute nicht gut tun.

Ich würde etwas im Bereich um 600-650 MHz erwarten, mehr aber auch nicht. Bei dem Vergleich da oben wurde aber schon ne GTS mit 576 MHz GPU & 112 SP hergenommen und trotzdem liegt sie zum Teil hinter einer normalen GTS zurück. Ganz zu schweigen von den OC-Versionen.

Wenn jetzt noch der Bonus des VRAMs und des SI wegfällt, dann erwarte ich weiterhin ähnliches Niveau. Dumm ists vorallem deshalb, weil solche Karten meist mit AA+AF betrieben werden. Bei 1920x1200 dürfte es schon reichlich eng mit VRAM + Bandbreite werden.

"Toll" ist: Die Rohpower ist gestiegen, aber ausnutzen wirst du sie nicht können. Zockst du an einem üblichen TFT mit 16xx oder 19xx, so hast du mehr fps, kannst diese aber nicht wirklich in mehr Qualität ummünzen, denn z.B. ein höheres AA Level erfordert widerum mehr VRAM + Bandbreite und gerade die hat die Karte ja weniger.

AnarchX
2007-11-10, 18:07:06
Von der G92-8800GTS soll es aber auch 1GiB-Versionen geben. ;)

Bei der Bandbreite würde ich eigentlich 1GHz GDDR3 und somit auch 64GB/s wie bei der G80-GTS erwarten.

Gast
2007-11-10, 19:38:56
Von der G92-8800GTS soll es aber auch 1GiB-Versionen geben. ;)

Diesen wird man dir nicht kostenlos zur Verfügung stellen.

Und gerade wenns um 1 GB geht, halte ich einen Preisaufschlag & niedrigen Speichertakt für sehr wahrscheinlich. Also noch uninteressanter als die 512 MB Version.

Was nützt dir 1 GB, wenn die Bandbreite immer noch nicht ausreicht? Nix.

Einen Preisaufschlag von 30-50 Euro würde ich noch miteinrechnen, dadurch verschlechtert sich das Verhältniss zu einer (zwei) GTs erheblich.

AnarchX
2007-11-10, 19:45:27
Was nützt dir 1 GB, wenn die Bandbreite immer noch nicht ausreicht? Nix.

Das werden dann entsprechende Benchmarks zeigen müssen, woran es eher fehlt.

Aber dass es auch anders gehen kann, zeigen ja HD2900Pro/XT 1GiB, die mit GDDR4 daherkommen... ;)

Nunja, wird man abwarten müssen, wie sich das dann im Dezember entwickelt.

Gast
2007-11-10, 19:51:33
Aber dass es auch anders gehen kann, zeigen ja HD2900Pro/XT 1GiB, die mit GDDR4 daherkommen... ;)

Ziemlich mieses Beispiel, oder?
Der Preisaufschlag für den extra VRAM beträgt gute 100€. :eek:

Für das Geld kriegste widerum eine leistungsmäßig bessere GTX oder fast zwei GT...

Ich kann mir die nächsten Monate keine Karte vorstellen, die mit 1 GB daher kommt und gerade mal ~300 kostet. Bei den Billigkarten wird meist extrem langsamer & günstiger GDDR genutzt.

Selbst wenn es die zwei Versionen geben sollte, so kommen die sicher nicht mit gleichen Preisen daher (wäre sinnlos).

AnarchX
2007-11-10, 19:57:47
Die hast du sicherlich übersehen:
http://geizhals.at/deutschland/a280300.html
;)

Selbst wenn es die zwei Versionen geben sollte, so kommen die sicher nicht mit gleichen Preisen daher (wäre sinnlos).
Natürlich nicht, würde auf einen MSRP von $399 für die 1GiB-GTS tippen, wenn hier vernünftiger Speicher eingesetzt wird.

btw.
1GiB(16x512MBit) 1.0ns Speicher dürften wohl im Einkauf AFAIK so um die $80-90 liegen.

Gast
2007-11-10, 20:05:28
Was nützt dir 1 GB, wenn die Bandbreite immer noch nicht ausreicht? Nix.

Was nützen dir >100 GiB/s Bandbreite, wenn die VRAM-Menge immer noch nicht ausreicht? Nix. :)

1.024 MiByte sind für Top-Spiele 2009 mMn wichtig bei entsprechend leistungsfähigen Grafikkarten.

Gast
2007-11-10, 20:08:19
Die hast du sicherlich übersehen:
http://geizhals.at/deutschland/a280300.html
;)

Das ist ja keine XT, sondern eine Pro. Im Vergleich zu den anderen Pro auch hier ein Preisaufschlag von satten ~50€.

Bei dem Preis, der nahe an einer 2900XT oder weit über einer 8800GT liegt, lohnt es schon darüber nachzudenken, die nächstschnellere Version zu nehmen...

Hier ist es genau umgekehrt: Was nützt dir der VRAM ohne die dafür nötige Rohpower? ;)
Dieser Kompromiss ist mist! Entweder großer VRAM / hohe Rohpower oder beides gegen Aufpreis. VRAM auf kosten der Rohpower ist ja nun nicht so sonderlich sinnvoll...

Gortha
2007-11-10, 22:31:37
@Gast du laberst dir hier einen Stuss zusammen.

Die G92 GTS wird mehr Power haben. Und keine Ahnung wie du darauf kommst, die Taktraten müßten niedriger sein.

Zudem wird sie die GTX wohl ersetzen und evtl. läuft dann auch schnell die Ultra aus.

Spasstiger
2007-11-10, 22:36:09
Im Vergleich zu den anderen Pro auch hier ein Preisaufschlag von satten ~50€.
Was ja nun wirklich nicht viel ist für 1 GiB GDDR4-Speicher statt 512 MiB GDDR3-Speicher.

Gast
2007-11-10, 22:56:35
Die G92 GTS wird mehr Power haben.[/qoute]

Zeig mir eine seriöse Quelle, einschließlich der genauen Taktraten zum Zeitpunkt des Launchs. Ich warte gespannt.
Solltest du das nicht können, wissen wir sehr bald, wer hier irgendeinen Stuß zusammenredet.

[QUOTE=Spasstiger;6015803]Was ja nun wirklich nicht viel ist für 1 GiB GDDR4-Speicher statt 512 MiB GDDR3-Speicher.

Klar ist das viel. Das sind 25 % Preisaufschlag, bei einer Karte, die leistungsmäßig deutlich schlechter ist als z.B. eine 8800 GT oder 2900 XT. Erstere ist dann immer noch günstiger und zweitere trotzdem in vielen Fällen schneller.

Du wirst gar nicht dazu kommen, den VRAM auszunutzen, da dir vorher die Rohpower ausgeht. Schon die 2900XT ist nicht die schnellste, wie willst du da mit einer 2900Pro Auflösungen fahren, die für solche Karten prädestiniert sind? z.B. 1600-1920 & 4-8x AA? Da limitiert bei dir der VRAM nicht wirklich, weil vorher die (gesenkte) Rohleistung zum tragen kommt.

Du bezahlst somit 25 % mehr für einen Vorteil den du so gar nicht hast. Du hast in vielen Fällen sogar Leistung eingebüßt, wenn du stattdessen nicht zur 2900XT/8800 GT gegriffen hast.

Die aktuelle Entwicklung lässt gar keinen anderen Schluss zu. Wenn hier immer von Games geredet wird: Es darf zur Zeit keine Games geben, die nur auf Karten mit mehr als 512 MB laufen, da sie sonst nur von sagen wir mal <1 % aller Gamer überhaupt ausgeführt werden können. Welcher Publisher kann sich sowas leisten?

Gast
2007-11-10, 22:58:33
@Gast du laberst dir hier einen Stuss zusammen.

Die G92 GTS wird mehr Power haben. Und keine Ahnung wie du darauf kommst, die Taktraten müßten niedriger sein.

Zudem wird sie die GTX wohl ersetzen und evtl. läuft dann auch schnell die Ultra aus.


Ohne 2 SLI Konnektoren sicherlich nicht, wie will man Triple-SLI sonst fahren... GTX/Ultra wirds weiterhin geben.

Hvoralek
2007-11-10, 23:11:59
Zeig mir eine seriöse Quelle, einschließlich der genauen Taktraten zum Zeitpunkt des Launchs. Ich warte gespannt.
Solltest du das nicht können, wissen wir sehr bald, wer hier irgendeinen Stuß zusammenredet.Du hast natürlich Glück, dass Du nicht wiedererkennbar bist, wenn die neue GTS dann doch mit >= 600 MHz ankommt, gelle?

Klar ist das viel. Das sind 25 % Preisaufschlag, bei einer Karte, die leistungsmäßig deutlich schlechter ist als z.B. eine 8800 GT oder 2900 XT.Ist der gleiche Speicher teurer, wenn er auf anderen Karten verbaut wird? Bei einer GT dürften sich 50€ nämlich durchaus lohnen für 1 GiB GDDR4.

Gast
2007-11-10, 23:42:53
Du hast natürlich Glück, dass Du nicht wiedererkennbar bist, wenn die neue GTS dann doch mit >= 600 MHz ankommt, gelle?

Wieso sollte ich Probleme damit haben, wenn Spekulationen sich als wahr/unwahr erweisen?

Außerdem gehe ich nicht von den dir genannten Taktraten aus. Ich gehe lediglich davon aus, das diese nicht so hoch sein werden, wie bei einigen GT Versionen die es jetzt schon gibt. Also unter 700 MHz. 700 MHz bei 128 SP wären ein starkes Stück, schließlich wäre so eine neue GTX/Ultra Variante kaum noch profitabel machbar, daher sehr unwahrscheinlich und auch gar nicht passend in einen Preisbereich um 300$. Hohe Taktraten & viele Recheneinheiten erfordern Selektion und die ist nicht umsonst. Bei sehr teuren Karten fällt dies weniger ins Gewicht.

Ist der gleiche Speicher teurer, wenn er auf anderen Karten verbaut wird? Bei einer GT dürften sich 50€ nämlich durchaus lohnen für 1 GiB GDDR4.

Zumindest du hast es ansatzweise gemerkt. Natürlich ist mehr Speicher teurer, besonders, wenn er dann auch noch hohe Taktraten liefern soll.
Das ist bei dem Beispiel mit der Pro nicht so wirklich der Fall. 925 MHz sind für GDDR4 ein Klacks, das untere Ende. Immerhin packen schon sehr viele GDDR3 Chips die 1 GHz Marke. Gehst du nun aber eine Stufe höher, auf deutlich über 1 GHz, so stellt sich die Situation schlagartig anders da.
Es ist schon ein Unterschied ob du 1024MB GDDR4 mit gemächlichen Taktraten verbaust (der am meistproduzierte) oder 1024 MB GDDR3 vom mittelmäßigen und schnellsten Speicher. Der ist nämlich sauteuer.
Ursprünglich war GDDR4 für ~1,6 GHz geplant, daraus scheint wenig geworden zu sein, da einige sich gleich mit der Entwicklung um GDDR5 befasst haben.
Das bedingt natürlich folgenden Fall: In aktuellen produkten findest du praktisch keine Karten die auf GDDR4 in großen Mengen und hohen Taktraten setzen. Ergo ist die produzierte Menge eher niedrig und der Preis dafür bleibt hoch. Wäre dem nicht so, gäbe es schon eine Schwemme von Karten mit 1 GB mit hohen Taktraten. Leider ist dem nicht so, zum Teil wird der umgekehrte Weg eingeschlagen. Je größer der Speicher, desto mieser der Speed. Lowcost Produkte werden zum Teil schon mit 1 GB ausgeliefert, weil der genutzte GDDR2 billig zu haben ist, aber natürlich nicht so viel reißt.

Nun stellt sich der Fall da, das selbst die 8800GT schon mit 900 MHz daher kommt, daher sollte eine der neuen 128 SP GTS nicht mit noch weniger daher kommen, da auch deren SI nicht größer sein wird. Nun musst du auch berücksichtigen, das 1 GB Speicher auch nochmal größer sind, als bei den bisherigen Modellen.
Hier treten gleich drei Preistreiber ein > GDDR4 als Technologie selbst (geringe Produktionsmengen = teurer), viel Speicher = teurer, hohe Taktraten = nochmal teurer. Kombinierst du alles, so wird sich dies im Endpreis widerspiegeln.
Mich wundert nicht, das der Preisunterschied bei der Pro weniger beträgt als bei der XT, denn letztere bekam höhere Taktraten spendiert.

Gast
2007-11-11, 11:54:01
@Gast du laberst dir hier einen Stuss zusammen.

Die G92 GTS wird mehr Power haben. Und keine Ahnung wie du darauf kommst, die Taktraten müßten niedriger sein.

Zudem wird sie die GTX wohl ersetzen und evtl. läuft dann auch schnell die Ultra aus.

Du laaberst Stuß!

Hvoralek
2007-11-11, 20:21:14
Wieso sollte ich Probleme damit haben, wenn Spekulationen sich als wahr/unwahr erweisen?Ich hatte den Eindruck, dass Du großen Wert darauf legtest, wer am Ende recht haben würde. Muss an Deinem Auftreten liegen.

Außerdem gehe ich nicht von den dir genannten Taktraten aus. Ich gehe lediglich davon aus, das diese nicht so hoch sein werden, wie bei einigen GT Versionen die es jetzt schon gibt. Also unter 700 MHz.Jetzt sollen plötzlich nur noch die Taktraten der Standard- G92- GTS niedriger sein als die der stärksten ab Werk übertakteten GTs? Du hattest die Aussage, die G92- GTS werde schneller sein als die GT (das bezog sich offensichtlich auf die Leistung der Referenzmodelle), ziemlich aggressiv angegriffen. Es ist wohl zu viel verlangt, Standardmodelle mit Standardmodellen zu vergleichen und ab Werk übertaktete mit ab Werk übertakteten (die es von der G92- GTS natürlich auch geben wird) :rolleyes:

700 MHz bei 128 SP wären ein starkes Stück, schließlich wäre so eine neue GTX/Ultra Variante kaum noch profitabel machbar, daher sehr unwahrscheinlich und auch gar nicht passend in einen Preisbereich um 300$. Hohe Taktraten & viele Recheneinheiten erfordern Selektion und die ist nicht umsonst. Bei sehr teuren Karten fällt dies weniger ins Gewicht.Wie Gortha schon angedeutet hatte, ist es durchaus möglich, dass G92 G80 wirklich komplett ersetzen soll.

Zumindest du hast es ansatzweise gemerkt. Natürlich ist mehr Speicher teurer, besonders, wenn er dann auch noch hohe Taktraten liefern soll. [...]Sehe ich das richtig, dass Du mit allem darauf Folgendem nur sagen möchtest, dass mehr Speicher teurer ist als weniger Speicher und schnellerer Speicher teurer als langsamerer? Das wird jedem hier klar sein. Die Frage ist, wie viel z.B. 1 GiB 1000- MHz- Speicher (unabhängig davon, ob GDDR3 oder 4) mehr kosten würde als 512 MiB 800er Speicher. Dazu sehe ich in Deinem Beitrag nichts.

Es gibt eben Anhaltspunkte wie etwa die unterschiedlichen 2900- Pro- Modelle. Bei denen beträgt übrigens der Unterschied zwischen solchen mit 512 MiB 800- MHz- GDDR3 und solchen mit 1024 MiB 925- MHz- GDDR4 z.Zt. noch rund 40€. In der von Dir zitierten Passage hatte ich nun gefragt, ob irgendetwas dagegen spricht, für denselben Mehrpreis eine GT mit in gleichem Umfang aufgemöbelten Speicher anzubieten. Eine 1- GiB- GT mit knapp 60 GB/s Bandbreite um 260€ (bzw. wohl etwa 240€, wenn die Dinger wieder verfügbar sind) würde sicher ihre Abnehmer finden.

Gast
2007-11-11, 21:42:32
Jetzt sollen plötzlich nur noch die Taktraten der Standard- G92- GTS niedriger sein als die der stärksten ab Werk übertakteten GTs?

Schau mal über den Tellerrand hinaus. Hier ging es um eine 112 SP GTS. Die hat noch 640 MB + 320 bit und trotzdem reichts nicht um ne GT abzuhängen (selbst bei erhöhten Taktraten).

Die neue hat 128 SP, dafür aber nur noch 512 MB + 256 bit = Verlust. Du weißt nicht, wie sich das auswirkt. Den ersten GT Benches nach, wird die Bandbreite sich gerade bei den hohen Auflösung und AA Stufen auswirken. Da hinkt sie zum Teil z.B. einer GTX plötzlich deutlich hinterher, obwohl sie sie sonst gut im Griff hat.

Auch ist weniger der GPU Takt entscheidend, interessant wird die Shaderdomäne. Bei 128 SP wird es dann widerum etwas schwieriger diese hohen Taktraten zu halten. Es müssen schließlich alle dafür geeignet sein.

Du hattest die Aussage, die G92- GTS werde schneller sein als die GT (das bezog sich offensichtlich auf die Leistung der Referenzmodelle), ziemlich aggressiv angegriffen.

Zurecht. Die bisherigen Ergebnisse lassen keinen anderen Schluss zu.

Es ist wohl zu viel verlangt, Standardmodelle mit Standardmodellen zu vergleichen und ab Werk übertaktete mit ab Werk übertakteten (die es von der G92- GTS natürlich auch geben wird) :rolleyes:

Es ist wohl zuviel verlangt, richtig zu lesen? Das wurde nirgendwo erwähnt!
Vielleicht solltest du das nächste mal die Diskussion genau verfolgen, denn dann fällt auf, das sich sogar eine übertaktete 112SP gegen eine StandardGT in einigen Fällen der Kürzeren zieht und da hat sie NOCH den Bonus von 640 MB & 320 bit. Der fällt aber weg.

Sehe ich das richtig, dass Du mit allem darauf Folgendem nur sagen möchtest, dass mehr Speicher teurer ist als weniger Speicher und schnellerer Speicher teurer als langsamerer?

Nein. Es geht darum, das 1 GB Versionen einen Technologiewechsel erfordern und zum einen ist die Technologie GDDR4 teurer als die Massenware GDDR3, vorallem wenn es um Taktraten jenseits der 1 GHz geht und zum anderen wird dies noch dadurch verschlechtert, das 1 GB GDDR4 mit hohen Taktraten auf Performance Karten schwierig in den Markt zu bringen ist. Es muss profitabel bleiben und das erlaubt zur Zeit eigentlich nur den Schluss, das es entweder 1 GB GDDR4 mit ~1 GHz werden oder etwas mehr, mit einem heftigen Preisaufschlag. Sollte schon die normale Karte 305 $ kosten, so sind 350 $ ++ für eine 1 GB - 1 GHz Variante sehr wahrscheinlich. Das macht sie um einiges uninteressanter, da sie so praktisch schon in den Highend Bereich rutscht, wo jetzt Karten wie die GTX hausen und die hat widerum auch schon 128SP und mehr Takt + Speicher + breiteres Interface als ne gewöhnliche 112 SP GTS (schlägt sich aber trotzdem noch mit einer GT herum). Besonders erwähnenswert deshalb, weil diese Karte sogar ja noch 768MB besitzt und dazu ein 384 bit SI @ 900 MHz GDDR3.

Bandbreitenmäßig würde eine 128 SP GTS mit 1 GHz GDDR4 @ 256 bit schlechter dastehen. Sie müsste dies durch Rohpower ausgleichen um an der GTX (und GT) vorbeiziehen zu können.

Gortha
2007-11-12, 19:21:24
Gut dass du weist, wie hoch der RAM getaktet wird.(der G92-GTS, egal ob 512o.1024) ;D
Gut dass du meinst, dass 128 G92-SP langsamer sind als 112 G92-SP. ;D ;D
Gut dass du ständig mit der G80-112-SP-GTS und der G92-128-SP-GTS durcheinanderkommst. ;D ;D ;D
Gut dass du vergessen hast, dass wir hier im Spekulatiusforum sind und Spekulationen durchaus in verschiedene Richtungen gehen können. :D :D :D :D

;P

Hvoralek
2007-11-13, 00:26:30
Schau mal über den Tellerrand hinaus. Hier ging es um eine 112 SP GTS. Die hat noch 640 MB + 320 bit und trotzdem reichts nicht um ne GT abzuhängen (selbst bei erhöhten Taktraten).

Die neue hat 128 SP, dafür aber nur noch 512 MB + 256 bit = Verlust. Du weißt nicht, wie sich das auswirkt. Den ersten GT Benches nach, wird die Bandbreite sich gerade bei den hohen Auflösung und AA Stufen auswirken. Da hinkt sie zum Teil z.B. einer GTX plötzlich deutlich hinterher, obwohl sie sie sonst gut im Griff hat.

Auch ist weniger der GPU Takt entscheidend, interessant wird die Shaderdomäne. Bei 128 SP wird es dann widerum etwas schwieriger diese hohen Taktraten zu halten. Es müssen schließlich alle dafür geeignet sein.Es geht um das voraussichtliche Verhältnis der GTS 512 zur GT. Da spielt es keine Rolle, inwieweit der kleinere und schmaler angebundene Speicher ein Nachteil ggü. der GTS 640-2 ist, den haben nämlich beide gleichermaßen.

Zurecht. Die bisherigen Ergebnisse lassen keinen anderen Schluss zu.Welche Ergebnisse? Bisher sieht alles danach aus, dass die GTS mit einem Cluster mehr als die GT ankommen wird und mit gleich viel und gleich breit angebundenem Speicher. Die einzige Möglichkeit, wie die nicht schneller sein könnte als eine GT, sind niedrigere Taktraten. Gibt es irgendwelche Hinweise darauf? Im Gegenteil spricht die recht gute Übertaktbarkeit der GTs eher dafür, dass mit einer Doppelslotkühlung und evtl. höheren Standardtaktraten deutlich mehr als 600/1500/900 drin wären. Von schärfer selektierten Chips ganz zu schweigen.

Es ist wohl zuviel verlangt, richtig zu lesen? Das wurde nirgendwo erwähnt!
Vielleicht solltest du das nächste mal die Diskussion genau verfolgen, denn dann fällt auf, das sich sogar eine übertaktete 112SP gegen eine StandardGT in einigen Fällen der Kürzeren zieht und da hat sie NOCH den Bonus von 640 MB & 320 bit. Der fällt aber weg.Dann meintest Du weiter oben also, dass die stärksten ab Werk übertakteten G92- GTSen keine 700 MHz erreichen würden? Begründung? Der eine zusätzliche Cluster wird wohl kaum dazu führen, dass Oc- Versionen mit maximal 690 MHz ankommen :wink:

Am einfachsten wäre es aber, OC- Versionen gleich komplett herauszulassen und einfach die Standardmodelle zu vergleichen. Bestehen hier Zweifel, dass für die die G92- GTS 600/1500/900 MHz erreichbar sind?

Warum kommst Du eigentlich immer wieder mit der GTs 640-2 an? Es geht hier um einen Vergleich der GT mit der G92- GTS (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6012312#post6012312) (und eigentlich den Sinn oder Unsinn, bei diesen Karten 1 GiB Speicher zu verbauen). Die GTS 512 wird gegenüber der 640er Nachteile bei Speichermenge und -anbindung haben, sicher. Es mag sein, dass sie unter bestimmten Bedingungen auch mal hinter sie zurückfällt. Dann hat die GT aber genau die gleichen Probleme. Diese Nachteile der GTS 512 ggü. den GTS 640ern bestehen nicht gegenüber der GT.

Nein. Es geht darum, das 1 GB Versionen einen Technologiewechsel erfordern und zum einen ist die Technologie GDDR4 teurer als die Massenware GDDR3, vorallem wenn es um Taktraten jenseits der 1 GHz geht und zum anderen wird dies noch dadurch verschlechtert, das 1 GB GDDR4 mit hohen Taktraten auf Performance Karten schwierig in den Markt zu bringen ist.Wenn GDDR4 per se schweineteuer ist, warum liegen dann zwischen einer 2900 Pro mit 512 MiB GDDR3 und einer solchen mit doppelt so viel auch noch ein Stück schnellerem GDDR4 nur 40€?

Es muss profitabel bleiben und das erlaubt zur Zeit eigentlich nur den Schluss, das es entweder 1 GB GDDR4 mit ~1 GHz werden oder etwas mehr, mit einem heftigen Preisaufschlag. Sollte schon die normale Karte 305 $ kosten, so sind 350 $ ++ für eine 1 GB - 1 GHz Variante sehr wahrscheinlich. Das macht sie um einiges uninteressanter, da sie so praktisch schon in den Highend Bereich rutscht, wo jetzt Karten wie die GTX hausen und die hat widerum auch schon 128SP und mehr Takt + Speicher + breiteres Interface als ne gewöhnliche 112 SP GTS (schlägt sich aber trotzdem noch mit einer GT herum). Besonders erwähnenswert deshalb, weil diese Karte sogar ja noch 768MB besitzt und dazu ein 384 bit SI @ 900 MHz GDDR3.Wenn ich mir ansehe, wie sich eine 512- MiB- GT schlägt, sollte eine GTS 1024 mit 1,1- GHz- Speicher eine GTX ziemlich konstant schlagen (die Bandbreite wäre zwar noch etwas geringer, aber G92 scheint damit auch sparsamer umzugehen als G80). Wo wäre das Problem, wenn so ein Ding dann 350€, meinetwegen mit noch schnellerem Speicher auch 400€ kostet?

Und nochmal: Was spricht gegen eine 1- GiB- GT, die (bei Verfügbarkeit der Karten und Preisen um 200€ für die Standardversion) um 240€ kosten sollte? Es gibt ja durchaus Situationen, in denen der GT offenbar schlicht der Speicher ausgeht.

Gast
2007-11-13, 14:04:56
Da spielt es keine Rolle, inwieweit der kleinere und schmaler angebundene Speicher ein Nachteil ggü. der GTS 640-2 ist, den haben nämlich beide gleichermaßen.

Genau deshalb gibt es da keine brauchbaren Vergleichswerte, weil es keine 65nm-128 SP GPU mit nur 512 MB & 256 bit zum vergleichen gibt. ;) Die derzeitige GTS ist aufgrund anderen Aufbaus kein direkter Vergleich.
Falls die Rohleistung höher sein sollte, so wird der Speicher erst recht zum tragen kommen, da mehr Daten geschaufelt werden wollen. Der Bremsklotz würde in diesem Fall noch stärker wirken und das ist nunmal der unberechenbare Faktor. Gerade wenn die 128 SP Version noch schneller werden sollte, ist man dazu geneigt, die Auflösung oder den Detailgrad noch höher zu drehen -> wirkt besonders auf Speicher und Bandbreite.

Im Gegenteil spricht die recht gute Übertaktbarkeit der GTs eher dafür, dass mit einer Doppelslotkühlung und evtl. höheren Standardtaktraten deutlich mehr als 600/1500/900 drin wären. Von schärfer selektierten Chips ganz zu schweigen.

Übertaktbarkeit war noch nie ein Indiz für das Endprodukt... meine Wunschprodukte gabs nie im Handel, obwohl alle realisierbar waren (spezialisierte OC-Shops sei dank).

Begründung? Der eine zusätzliche Cluster wird wohl kaum dazu führen, dass Oc- Versionen mit maximal 690 MHz ankommen :wink:

Mehr Recheneinheiten = höhere Ausfallquote, wenn es um bestimmte Taktraten geht.
Außerdem geht der Stromverbrauch eher in die Höhe. Bleibt man weit weg vom Limit kann man leicht ne geringere Corevoltage anlegen und so den Verbrauch niedrig halten. Gehst du ans Limit, so wird zum einen eine bessere Kühlung erforderlich und zum anderen ist im Grenzbereich meistens eine stark gesteigerte Corevoltage nötig. Wo der Grenzbereich liegt, mag ich nicht beurteilen. Die besten GT-Karten kamen kaum über die 730 MHz hinaus ohne Modding, das hat bis jetzt schon mehr als ein Test der (Zotac) gezeigt. Sicherlich würde noch mehr gehen mit mehr Spannung, aber der Verbrauch steigt dann sehr stark an.

Warum kommst Du eigentlich immer wieder mit der GTs 640-2 an?

Kann mich nicht daran erinnern sie jemals ausser zum Vergleich der technischen Daten erwähnt zu haben. Sie ist wie gesagt nicht zu vergleichen.
Es handelt sich bei der GT und der kommenden GTS512 nicht um einen reinen Die-Shrink...

Wenn GDDR4 per se schweineteuer ist, warum liegen dann zwischen einer 2900 Pro mit 512 MiB GDDR3 und einer solchen mit doppelt so viel auch noch ein Stück schnellerem GDDR4 nur 40€?

Weil er nicht ausgereizt wird. Der Takt ist immer noch geringer als bei der vor Jahren vorgestellten XTX die gleich mit 1 GHz daher kam.
Diese Taktrate ist für GDDR4 sowieso ein Witz... wenn 1 GHz GDDR3 auf ~200€ Karten wie der GT zum Einsatz kommt, was soll dann <1 GHz GDDR4 mit geringeren Taktraten bei einem ~250€ Produkt mit noch höherem Preis für einen Sinn machen?
Ein ganz entscheidender Grund für den Einsatz wird wohl gewesen sein, das größere Speichermengen mit GDDR4 besser zu realisieren waren, da dort die Entwicklung noch weiter geht, während bei GDDR3 kaum noch etwas kommt (es gibt kaum Karten die so viel Speicher nutzen und noch auf GDDR3 setzen).

Wo wäre das Problem, wenn so ein Ding dann 350€, meinetwegen mit noch schnellerem Speicher auch 400€ kostet?

... es kauft fast niemand. ;)
Die Marktlücke wäre viel zu groß. NVIDIA wird sich schon was einfallen lassen, um die Lücke zwischen GT (200-250) und den Highend Karten zu schließen. Da muss noch ne Karte mit 300-350 rein.

Die GTX zu schlagen sollte nicht so schwer sein, das wäre mit 600/1000/1500 geschafft. Aber dann werden die abgespeckten GT aufgrund ihrer schieren Rohpower (700/1000/1700 = ~200€) da reinspielen, also muss es ein Alleinstellungsmerkmal geben.

Hvoralek
2007-11-13, 20:36:12
Genau deshalb gibt es da keine brauchbaren Vergleichswerte, weil es keine 65nm-128 SP GPU mit nur 512 MB & 256 bit zum vergleichen gibt. ;) Die derzeitige GTS ist aufgrund anderen Aufbaus kein direkter Vergleich.Stimmt. Deshalb ja die Frage, was Du ständig mit der G80- GTS möchtest.

Falls die Rohleistung höher sein sollte, so wird der Speicher erst recht zum tragen kommen, da mehr Daten geschaufelt werden wollen. Der Bremsklotz würde in diesem Fall noch stärker wirken und das ist nunmal der unberechenbare Faktor. Gerade wenn die 128 SP Version noch schneller werden sollte, ist man dazu geneigt, die Auflösung oder den Detailgrad noch höher zu drehen -> wirkt besonders auf Speicher und Bandbreite.Rechnest Du damit, dass man eine G92- GTS auf den Markt bringt, deren Rohleistung unter der einer GT liegt? Und ja, natürlich wird der Speicher dann ein noch größeres Problem. Dementsprechend lohnen sich auch Versionen mit mehr/ schnellerem Speicher noch eher.

Mehr Recheneinheiten = höhere Ausfallquote, wenn es um bestimmte Taktraten geht. Außerdem geht der Stromverbrauch eher in die Höhe. Bleibt man weit weg vom Limit kann man leicht ne geringere Corevoltage anlegen und so den Verbrauch niedrig halten. Gehst du ans Limit, so wird zum einen eine bessere Kühlung erforderlich und zum anderen ist im Grenzbereich meistens eine stark gesteigerte Corevoltage nötig. Wo der Grenzbereich liegt, mag ich nicht beurteilen. Die besten GT-Karten kamen kaum über die 730 MHz hinaus ohne Modding, das hat bis jetzt schon mehr als ein Test der (Zotac) gezeigt. Sicherlich würde noch mehr gehen mit mehr Spannung, aber der Verbrauch steigt dann sehr stark an.Dass 8 statt 7 Cluster ein Serienmodell mit 600 MHz unmöglich machen sollen, kann ich mir nicht vorstellen. Der Stromverbrauch wird natürlich höher ausfallen als bei der GT, aber da kann man wohl sowieso einen Doppelslotkühler erwarten.

Kann mich nicht daran erinnern sie jemals ausser zum Vergleich der technischen Daten erwähnt zu haben. Sie ist wie gesagt nicht zu vergleichen.Du hast häufiger erwähnt, dass das SI bei der G92- GTS schmaler sein werde. Das stimmt ja auch, nur gibt hat das rein gar keine Bedeutung für das Verhältnis zwischen der G92- GTS und der GT. Deshalb noch einmal die Frage: Warum hast du das überhaupt erwähnt?

Weil er nicht ausgereizt wird. Der Takt ist immer noch geringer als bei der vor Jahren vorgestellten XTX die gleich mit 1 GHz daher kam.
Diese Taktrate ist für GDDR4 sowieso ein Witz... wenn 1 GHz GDDR3 auf ~200€ Karten wie der GT zum Einsatz kommt, was soll dann <1 GHz GDDR4 mit geringeren Taktraten bei einem ~250€ Produkt mit noch höherem Preis für einen Sinn machen?Du meinst, mit der erbrachten Leistung könnte man einen höheren Mehrpreis als 40€ nicht rechtfertigen? Man kann sicher nicht so einen hohen Aufpreis verlangen wie bei der GTS 640 ggü. der GTS 320, aber ich bezweifle, dass die Platinenhersteller, die diese Modelle entwickeln, bei jeder verkauften Einheit noch draufzahlen.

... es kauft fast niemand. ;)Warum nicht? 350 - 400€ ist sicher kein allzu Absatzstarkes Marktsegment, aber das Problem hast Du dort immer.

Um eines klarzustellen: Es geht mir nicht darum, die G92- GTS solle ausschließlich mit 1 GiB Speicher angeboten werden. Eine 512- MiB- Version wäre für einen entsprechend niedrigeren Preis sicher sinnvoll und wurde ja auch schon praktisch bestätigt.

Die Marktlücke wäre viel zu groß. NVIDIA wird sich schon was einfallen lassen, um die Lücke zwischen GT (200-250) und den Highend Karten zu schließen. Da muss noch ne Karte mit 300-350 rein.Wenn man noch etwas nennenswert über der GT plaziert, wäre das das neue High- End (Das sagtst Du ja praktisch selbst). Aber gerade dann wäre es sinnvoll, wenn nicht notwendig, auch ein 1- GiB- Modell anzubieten. Nimm mal folgendes an: GT 512 (200- 210€) - GT 1024 (250€) - GTS 512 (300€) - GTS 1024 (350€). Wo siehst Du da eine Lücke? Ohne die 1- GiB- Versionen hätte man eine Lücke und würde mit den neuen Modellen die alte GTX nicht konstant schlagen, klar. Noch ein Grund dafür.

Gast
2007-11-13, 22:17:34
Ich sehe die Probleme darin, das keiner bereit sein wird, das doppelte an Geld für eine Karte hinzulegen, die weniger als einen zweistelligen Prozenwert schneller ist als eine halb so teure Karte. Sehr gutes Beispiel ist die aktuelle GTS. Wer will die jetzt noch haben?

Und das erreicht NVIDIA nur noch ein Alleinstellungsmerkmal oder überragender Leistung. Letzteres geht aber Hand in Hand mit Verbrauch und den dafür nötigen hohen Taktraten.

Den Kunden interessierts nicht wirklich, ob es eine normale oder ab Werk verbesserte Version ist (wissen viele nicht mal). Wenn du schon die wirklich stark aufgebohrte 700/1000/1700 GT für ~205€ hinterhergeschmissen bekommst, würdest du dann für eine der neuen GTS-Karten noch 100-150€ drauflegen?

Mit 675/1000/1750 kämen die da noch nicht so weit... was ich mir vorstellen würde, wäre mind 700/1200/1800 + 1 GB Version. Wobei da die Frage bleibt, obs nicht auch brauchbare 1 GB Versionen der GT gibt...

Als nächstes stellt sich dann noch die Frage, was aus der GTX+Ultra wird. So viel Taktspielraum sehe ich nicht, das man noch 1-2 schnellere Modelle über der GTS anbieten kann.

Hvoralek
2007-11-14, 01:31:42
Ich sehe die Probleme darin, das keiner bereit sein wird, das doppelte an Geld für eine Karte hinzulegen, die weniger als einen zweistelligen Prozenwert schneller ist als eine halb so teure Karte. Sehr gutes Beispiel ist die aktuelle GTS. Wer will die jetzt noch haben?Bei einem weiteren Cluster und evtl. höheren Taktraten wäre das wohl ein zweistelliger Prozentsatz und High- End ist nicht gerade für gutes P/L- Verhältnis bekannt. Mit einer so einer Karte für 300/ 350€ (512/1024 MiB) sähe das aber immerhin schon besser aus als imM mit der GTX/ Ultra. Die jetzige GTS ist aber wirklich Schwachsinn: Langsamer, energiehungriger und teurer als die GT.

Den Kunden interessierts nicht wirklich, ob es eine normale oder ab Werk verbesserte Version ist (wissen viele nicht mal). Wenn du schon die wirklich stark aufgebohrte 700/1000/1700 GT für ~205€ hinterhergeschmissen bekommst, würdest du dann für eine der neuen GTS-Karten noch 100-150€ drauflegen?Können wir bitte bei Standardmodellen bleiben? Es wird sicherlich auch von der neuen GTS ab Werk übertaktete Versionen geben, das ist ja nun nicht so ungewöhnlich.

Mit 675/1000/1750 kämen die da noch nicht so weit... was ich mir vorstellen würde, wäre mind 700/1200/1800 + 1 GB Version. Wobei da die Frage bleibt, obs nicht auch brauchbare 1 GB Versionen der GT gibt...Moment, jetzt kannst Du Dir doch plötzlich eine 1- GiB- Version als sinnvoll vorstellen?

Als nächstes stellt sich dann noch die Frage, was aus der GTX+Ultra wird. So viel Taktspielraum sehe ich nicht, das man noch 1-2 schnellere Modelle über der GTS anbieten kann.Wenn noch größere Modelle geplant sind, wird man für die GTs nicht gerade die besten Chips rausjagen. Insofern kann man zum Taktpotenzial des G92 imM nicht viel sagen.

mictasm
2007-11-14, 03:38:00
Als nächstes stellt sich dann noch die Frage, was aus der GTX+Ultra wird. So viel Taktspielraum sehe ich nicht, das man noch 1-2 schnellere Modelle über der GTS anbieten kann.

Vielleicht will man das ja auch gar nicht, da der direkte Konkurrent momentan etwas zurückliegt und man sich hierdurch ein bisschen mehr Zeit nehmen kann für den Ersatz oder Refresh von GTX/Ultra.

Gast
2007-11-15, 13:08:22
Können wir bitte bei Standardmodellen bleiben?

Nein, denn der Markt besteht zu ~50 % aus OC-Versionen. Nur das zählt. Warum sollten wir die ignorieren? Immerhin ist selbst die zur Zeit günstige Variante schon eine OC-Version und für 10€ mehr kriegste eine mit 100 mehr GPU, 100 mehr Speicher und 200 MHz mehr Shadertakt...

Wie ich schon sagte: Den Kunden interessiert das nicht. Die Werte bekommt er garantiert und mit Garantie. Ich sehe niemanden, der freiwillig mehr Geld für weniger ausgibt! Daher sind solche Tests für n Arsch!

Es wird sicherlich auch von der neuen GTS ab Werk übertaktete Versionen geben, das ist ja nun nicht so ungewöhnlich.

Aber: Nicht umsonst!!

Bei der GT bekommste das OC für Lau derzeit. Jeder Euro mehr würde das Verhältniss deutlich verschlechtern. Besonders im Grenzbereich kostet Selektion richtig Asche. Die GT war davon ja noch weit entfernt mit ihren Taktraten. Sollte eine der neuen GTS mit z.B. 700 MHz GPU daher kommen, kannste nicht erwarten, das es ne OC-Version mit 800 MHz gibt, die du kostenlos kriegst. Man kommt damit näher ans Limit und Selektion = Kosten.

Moment, jetzt kannst Du Dir doch plötzlich eine 1- GiB- Version als sinnvoll vorstellen?

Hä? Wovon sprichst du? Wer sagt, das ich mir das nicht vorstellen kann? Es ist schon seit längerem die Rede davon, das es ein paar Versionen mit 1 GB geben soll...

Hvoralek
2007-11-15, 20:48:21
Nein, denn der Markt besteht zu ~50 % aus OC-Versionen. Nur das zählt. Warum sollten wir die ignorieren? Immerhin ist selbst die zur Zeit günstige Variante schon eine OC-Version und für 10€ mehr kriegste eine mit 100 mehr GPU, 100 mehr Speicher und 200 MHz mehr Shadertakt...Und was möchtest Du dann vergleichen? Die schnellste OC gegen die schnellste OC? Durchschnittlich getaktete Karten gegen durchschnittlich getaktete? Gleich teure Karten? Und was machst Du, wenn wie jetzt bei der G92- GTS noch nicht absehbar ist, was für OC- Modelle es geben wird?

Aber: Nicht umsonst!!

Bei der GT bekommste das OC für Lau derzeit.Ich würde im Moment nichts auf irgendwelche GT- Preise geben, bis die Dinger wieder lieferbar sind. Und bevor Du so rumholzt, solltest Du vlt. erst einmal abwarten, was es für GTS- Versionen geben wird und was die jeweils kosten.

Hä? Wovon sprichst du? Wer sagt, das ich mir das nicht vorstellen kann? Es ist schon seit längerem die Rede davon, das es ein paar Versionen mit 1 GB geben soll...Das ganze Theater hier begann doch am Streit um den Sinn oder Unsinn von 1- GiB- GT bzw. -GTS- Versionen. Bist Du nun nicht mehr der Meinung, dass die zwingend völlig überteuert sein müssten?

Übrigens ist ja inzwischen absehbar, dass die G92- GTS mit 8C und 650 MHz ankommen wird. Damit sollte auch die Standard- GTS schneller sein als Deine 700- MHz- OC- GTs. So viel zu Gorthas "Stuss".

Gast
2007-11-15, 21:50:59
Und was machst Du, wenn wie jetzt bei der G92- GTS noch nicht absehbar ist, was für OC- Modelle es geben wird?

Weiter denken. ;)

Ist es zuviel verlangt anhand von wenigen wichtigen Kriterien zu vergleichen?
Es gibt nur wenige Dinge die von Belang sind: Preis (fällt hier aber fast raus, da es andere Preisklassen werden), Preis-Leistung (guter Indikator. Rechtfertigt der hohe Aufpreis das bisschen Mehrleistung?).

Ich verstehe nur nicht wie man so stumpfsinnig sein kann und eine Standard GT, die TEURER ist als das derzeit günstigste Modell als Vergleich nehmen kann, wenn fürs selbe Geld doch was besseres Verfügbar ist. Das geht mir einfach nicht in den Schädel.
Guckst du mal bei Geizhals, so wirst du feststellen, das so ziemlich jede zweite Version abweichende Taktraten hat. Wieso ignorieren diese Tester solche Karte andauernd? Um das Ergebniss zu schönen?

Die Lösung wäre so einfach: Eine Standard-Karte gegen eine Standard Karte vergleichen UND / ODER die SCHNELLSTE Karte einer Reihe gegen die schnellste Karte einer anderen Reihe zu vergleichen. Wo liegt da das Problem?

Das ganze Theater hier begann doch am Streit um den Sinn oder Unsinn von 1- GiB- GT bzw. -GTS- Versionen.

Das habe ich nie gesagt. Lies nochmal nach.
Ich freue mich über Mehrspeicher immer, wenn er nicht absolut unsinnig ist und bei Lowcost Karten eingesetzt wird oder den Preis um über 20 % in die Höhe treibt...

Übrigens ist ja inzwischen absehbar, dass die G92- GTS mit 8C und 650 MHz ankommen wird. Damit sollte auch die Standard- GTS schneller sein als Deine 700- MHz- OC- GTs.

Nutzt du deine hellseherischen Fähigkeiten? Ich sagte schon, das der GPU Takt nicht das entscheidende Detail ist. Du wirst anhand dessen keine Leistungsangaben machen können. Auf den Shadertakt wird es ankommen. Hieraus ziehen die meisten OC-GT Karten ihre Leistung. Kontrolliere das am besten mal.

Ich bleibe dabei: Das mehr an Recheneinheiten nützt dir nichts, wenn die Taktraten nicht annäherend die selben sind und da liegen die Maßstäbe ziemlich hoch, da diese eben schon bei ~210€ Karten auftreten. Rechne es doch einfach anhand der theoretischen Leistung nach, dann wirst du schnell erkennen, das da wesentlich mehr kommen muss um einen Preis zu rechtfertigen der in der 300er Region liegt.

Hvoralek
2007-11-15, 22:31:07
Guckst du mal bei Geizhals, so wirst du feststellen, das so ziemlich jede zweite Version abweichende Taktraten hat. Wieso ignorieren diese Tester solche Karte andauernd? Um das Ergebniss zu schönen?Die Tester werden sich bedanken, wenn sie nicht nur 15 verschiedene Modelle testen müssen, sondern auch noch jeweils eine Reihe OC- Versionen davon. Man muss sich im Großen und Ganzen an einen Standard halten, da bietet sich das an, was der Hersteller selbst vorsieht. OC- Versionen kann man bei Bedarf anhand der Standardwerte abschätzen. Z.T. gibt es auch eigene Kurztests für unterschiedliche OC- Versionen.

Die Lösung wäre so einfach: Eine Standard-Karte gegen eine Standard Karte vergleichen UND / ODER die SCHNELLSTE Karte einer Reihe gegen die schnellste Karte einer anderen Reihe zu vergleichen. Wo liegt da das Problem?Es werden doch üblicherweise Standardkarten gegen Standardkarten verglichen. Wo liegt nun Dein Problem?

Das habe ich nie gesagt. Lies nochmal nach.
Ich freue mich über Mehrspeicher immer, wenn er nicht absolut unsinnig ist und bei Lowcost Karten eingesetzt wird oder den Preis um über 20 % in die Höhe treibt...Genau das war der Problempunkt. Dass mehr Speicher bei der GT Leistung bringen würde, hat nie jemand bezweifelt. Ob es aber wirklich sinnvoll i.S.v. den Aufwand/ Preis wert sei, darum ging es.

Nutzt du deine hellseherischen Fähigkeiten? Ich sagte schon, das der GPU Takt nicht das entscheidende Detail ist. Du wirst anhand dessen keine Leistungsangaben machen können. Auf den Shadertakt wird es ankommen. Hieraus ziehen die meisten OC-GT Karten ihre Leistung. Kontrolliere das am besten mal.Um an 8C@1625 MHz heranzukommen, bräuchte eine 7-C-OC-GT über 1850 MHz. Ich habe noch keine gesehen, die ab Werk so hoch taktet.

Ich bleibe dabei: Das mehr an Recheneinheiten nützt dir nichts, wenn die Taktraten nicht annäherend die selben sind und da liegen die Maßstäbe ziemlich hoch, da diese eben schon bei ~210€ Karten auftreten. Rechne es doch einfach anhand der theoretischen Leistung nach, dann wirst du schnell erkennen, das da wesentlich mehr kommen muss um einen Preis zu rechtfertigen der in der 300er Region liegt.Wer hat denn behauptet, dass die G92- GTS ein besseres P/L- Verhältnis haben würde als die GT oder OC- GTs? Du hast nur ziemlich aggressiv angezweifelt, dass sie überhaupt schneller sein würde.

Gast
2007-11-16, 11:09:17
Es werden doch üblicherweise Standardkarten gegen Standardkarten verglichen. Wo liegt nun Dein Problem?

Es wird am Markt vorbeigetestet! Wenn die OC-Karten günstiger sind als Standardmodelle, dann erfordert dies ein umdenken. Dies sollte in den Reviews berücksichtigt werden, wird es aber nicht. Dadurch wird das reale Ergebniss völlig verfälscht, da sich niemand Standardkarten kauft, wenn er bessere für gleichen Preis besorgen kann.

Um an 8C@1625 MHz heranzukommen, bräuchte eine 7-C-OC-GT über 1850 MHz.

Jetzt haben wir es ja:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/details_preis_bilder_starttermin_g92_gts/

Meines erachtens ziemlich enttäuschend. 650 MHz GPU, 970 MHz Speicher und 1650 Shadertakt.

Der Speicher ist ja wohl ein ziemlicher Witz. Da hätte ich mir schon 1,2 GHz vorgestellt, ATI packt es auch bei den kommenden 200€ Karten und die 128 SP GTS soll ja sogar "299 und 349 US-Dollar" kosten. Wird mal wieder am falschen Ende gespart.

Die derzeit schnellste GT bietet übrigens 700/1000/1750. Jetzt rechne doch mal aus, um wieviel schneller eine der Standard-GTS wäre, obwohl diese immernoch teurer sein wird. Es lohnt aus P/L-Sicht einfach nicht.

Undertaker
2007-11-16, 11:58:01
aus p/l sicht würde auch keiner eine cpu größer einem e4600 kaufen :rolleyes: die sache ist vielmehr, dass der markt eine insgesammt schnellere karte fordert, auch wenn der mehrpreis der mehrleistung übersteigt...

Gast
2007-11-16, 12:28:57
aus p/l sicht würde auch keiner eine cpu größer einem e4600 kaufen :rolleyes:

Das Argument ist schwach und falsch. ;)

Der E4600 für 112 € ist kein Schnäppchen, da du für weniger als das doppelte Geld, doppelt so viele Kerne bekommen kannst bei fast identischer Leistung pro Kern. Also ein sehr guter Deal (http://geizhals.at/eu/a238093.html). Für 75 % mehr Geld 80-100 % mehr Leistung. Ich finde, das ist nicht schlecht. ;)

Bei der kommenden GTS sehe ich das jedoch nicht. Sofern sie für 300€ kommen sollte, so ist dies 50 % teurer als die GT-Karten zurzeit. Dafür müsste sie jedoch schon 50 % schneller sein um das gleiche Verhältniss von Leistung pro Euro zu erreichen. Das wird sie mit den jetzt bekannten Daten nunmal nicht sein. Gegenüber der bekannten Zotac dürften dies sogar nur 10-20 % sein, insofern kein guter Deal.

Undertaker
2007-11-16, 13:14:37
und in wieviel % der anwendungen kann man bei einem quadcore auch doppelte leistung erwarten? aber ok, dann mach das beispiel halt mit dem q6600 oder einem low-end dualcore ;) oder 8800gtx vs 8800 ultra ;) die aufpreise sind leistungsmäßig seltenst gerechfertigt. die 8800gt ist da eine ausnahme, und wem die leistung ausreicht der kann sich darüber freuen :)

Toppas:-)
2007-11-16, 13:28:24
Das ist schon richtig und war immer so das für ein paar Prozent Mehrleistung halt auch übermässig Geld verlang wird. Meist wird auf eine spezielle Selektierung hingewiesen, im CPU-Bereich ist es nicht anders.Für einen C2D6850 wird halt mehr verlang als für einen C2D6750, obwohl beide vielleicht auf dem selben Wafer waren, nur duch den Multi getrennt später nach selektierung.
Das P/L-Verhältniss bei der 8800GT kann ich mir auch so erklären, das Nvidia möglichst die User auf die DX10 Generation schnell bringen möchte um entsprecht den Absatz später GPUs zu sichern (wäre meine Sichtweise).Vielleicht kann man ein paar ATI-User zum Wechseln bewegen, wenn sie es bei der ´8800-alt Generation nicht schon gemacht haben.
Ansonsten macht die Preispolitik derzeit auch keinen Sinn, da von ATI Seite im High-End Bereicht derzeit kein Gefahr droht und warum soll man sonst auf Marge verzichten.

Gast
2007-11-16, 13:28:57
und in wieviel % der anwendungen kann man bei einem quadcore auch doppelte leistung erwarten?

Mit dieser Frage hatte ich gerechnet und sie ist ein noch schwächeres Argument als zuvor.

Weißt du auch warum? Weil du es nicht anders messen kannst. Es interessiert nicht im geringsten ob DU in der Lage bist diese Leistung zu nutzen. Fakt ist nunmal, du hast fast doppelte Rohleistung. Was du damit anstellst, liegt im Aufgabenbereich des Nutzers. Sollte deine Vorstellungskraft nicht ausreichen um einen Nutzen daraus zu ziehen, dann ist dieses Produkt ganz einfach nichts für dich.

Nur schließe dann bitte nicht daraus, das es anderen genauso geht. Ich habe schon seit Anfang an den Xeon Quad hier und bin normaler Zocker. Ich hab ihn mir nicht für Games verkauft. Ich habe ihn mir gekauft um mehrere Dinge gleichzeitig erledigen zu können. Endlich kann ich zocken und nebenbei den Rest erledigen, ohne das ich davon was merke. Ich weiß nicht wie es anderen geht, aber die Anwendungsbereiche sind riesig. Beispielweise gibt es Spiele bei denen es sich lohnt zwei Keys zu kaufen um Items selbst austauschen zu können. D.h. zwei Spiele gleichzeitig offen. Auch kann ich jetzt meine Datenbestände im Hintergrund bearbeiten/komprimieren, ohne das ich auf etwas "verzichten" muss. Bei niedriger Priorität müsste ich den Rechner die Nacht über an lassen... Auch nutze ich gerne die Virtualisierung, während im Hintergrund meine normalen Anwendungen laufen. Diese frisst extrem viel Leistung. Windows & Linux gleichzeitig ist nun auch kein Fall, der besondere Erwähnung verdient hätte. Kein Bock jedes mal das richtige OS zu starten.
Ich kam damals auch lange Zeit mit einer 6GB HDD aus, bis ich eine 160er hatte, die war ratzfatz voll. Sofern du die Sachen hast, wirst du schnell deine neuen Aufgabenbereiche finden ... nur darüber reden, ohne es wirklich selbst getestet zu haben, das funktioniert eben nicht.

Abgesehen davon und das ist das wirkliche Totschlagargument gegen deine Argumentation: Liefert denn eine Grafikkarte mit doppelt so hoher Rohpower immer die doppelte Leistung ?
Das tut sie natürlich nicht, wie will sie das auch schaffen, wenn es viele Anwendungen gibt deren GPU Limit nicht stets und dauerhaft bei 100% liegt. Selbst die Grafikfresser-Anwendungen werden zum Teil durch die KI zum CPU-Fresser degradiert.

Undertaker
2007-11-16, 13:32:26
gast, du bist nun 100% ot. punkt ist nach wie vor der:

die aufpreise sind leistungsmäßig seltenst gerechfertigt. die 8800gt ist da eine ausnahme, und wem die leistung ausreicht der kann sich darüber freuen

wenn dir die karte nicht gefällt, dann kauf sie halt nicht :| welches problm hast du??

Gast
2007-11-16, 13:39:09
Wie du selbst siehst, ist diese Argumentation ziemlich unpassend. Du wirst auch bei einer Grafikkarte nicht immer doppelte fps haben, nur weil sie doppelt so viele Rohpower hat. Dafür sind die Anwendungen einfach zu verschieden.

Wie dem auch sei, wenn der Preis von 299$ für die 512MB Version gilt, dann wären Preise um 270-280€ möglich. Hoffentlich bewahrheitet sich das dann auch in der Realität, denn ernsthafte Konkurrenz hat nVidia zur Zeit ja nicht.

Mich täte vielmehr interessieren, ob die 1 GB Version mit GDDR4 antritt, denn das war bei den meisten 1 GB Karten bisher der Fall. Das könnte widerum bedeuten, da GDDR4 auch mehr Potential hat, das diese z.B. mit 1 GHz daher kommt oder vielleicht noch etwas mehr ?

Undertaker
2007-11-16, 13:42:38
bei den niedrigen angekündigten taktraten ist das gewiss nicht gddr4... gddr3 bietet die vorteile der bewährtheit auf der gesammten g80/g92 generation und die breite herstellerunterstützung (gddr4 baut ja z.b. qimonda nicht)

Gast
2007-11-16, 13:47:11
Das hat auch niemand gesagt. Guckst du aber mal genau hin fällt dir auf, das diese Angabe sich wahrscheinlich auf die 512MB bezieht. Dann da wurde nämlich GDDR3 explizit erwähnt (die soll damit kommen)!

Nur würde es eigentlich keinen großen Sinn machen 1 GB GDDR3 zu verbauen, da das eine Nischenlösung wäre und daher teurer.

ATI packt sogar schon jetzt bei den 200€ Karten 1,2 GHZ GDDR4 drauf, warum sollte NVIDIA da bei einer >300€ Karte dran sparen?

Undertaker
2007-11-16, 13:50:18
warum wäre 1gb gddr3 teurer als 1gb gddr4? aus der übersicht von cb ist außerdem zu entnehmen das es sich um gddr3 handelt:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/preis_bilder_starttermin_g92_gts/

und solange es keine gegenteiligen meldungen gibt ist dies die wahrscheinlichste llösung

Gast
2007-11-16, 13:56:02
warum wäre 1gb gddr3 teurer als 1gb gddr4?

Das hängt von der Betrachtungsweise ab. Doppelt so viele Speicherchips auf eine Karte zu pflanzen kann mitunter teurer sein, als die Option einfach doppelt so große Speicherchips zu nehmen. Guck dir den Markt mal an und sag mir, wieviele Karten du findest, die mit 1 GB und mehr daher kommen und noch GDDR3 einsetzen (vorallem in diesem Preisbereich).
Die Produktionsmengen richten sich schließlich nach dem Bedarf und wo kein Bedarf ist, ist ein hoher Preis normal.

aus der übersicht von cb ist außerdem zu entnehmen das es sich um gddr3 handelt

Davon steht nichts in dem Text. Guck nochmal hin.
In der Tabelle steht lediglich der Speichertakt. Nicht welche Speicherart auf jede der beiden Versionen gepflanz wird. Sonst hätten sie das noch explizit dabei geschrieben - wie bisher immer. ;)

Undertaker
2007-11-16, 14:01:58
Das hängt von der Betrachtungsweise ab. Doppelt so viele Speicherchips auf eine Karte zu pflanzen kann mitunter teurer sein, als die Option einfach doppelt so große Speicherchips zu nehmen. Guck dir den Markt mal an und sag mir, wieviele Karten du findest, die mit 1 GB und mehr daher kommen und noch GDDR3 einsetzen (vorallem in diesem Preisbereich).
Die Produktionsmengen richten sich schließlich nach dem Bedarf und wo kein Bedarf ist, ist ein hoher Preis normal.

wieso sollten gddr4 chips doppelt so groß sein? :confused: quatsch. die einzige gddr4 1gb karte am markt ist übrigens die hd2900 (xt/pro) (afair auch 16 speicherchips), mit praktisch null marktrelevanz

edit: jep, sind definitiv 16 chips

Davon steht nichts in dem Text. Guck nochmal hin.
In der Tabelle steht lediglich der Speichertakt. Nicht welche Speicherart auf jede der beiden Versionen gepflanz wird. Sonst hätten sie das noch explizit dabei geschrieben - wie bisher immer. ;)

linker tabellenrand: "Speichermenge (GDDR3)"

Gast
2007-11-16, 14:19:07
quatsch.

Weil du etwas nicht verstehst ist es noch lange kein Quatsch. ;)

die einzige gddr4 1gb karte am markt ist übrigens die hd2900 (xt/pro) (afair auch 16 speicherchips), mit praktisch null marktrelevanz

Dann erzähl mir mal, welche Marktrelevanz 1 GB GDDR3 Karten haben sollen, die in diesem Preisbereich praktisch gar nicht existieren. Dann hast du dir die Antwort schon selbst gegeben.

Speicherchips die in großen Massen gefertigt werden, sind günstig. Speicherchips in die geringen Mengen gefertigt werden, sind teuer. Nun sag mir: Warum gibt es relevante Karten mit 1 GB GDDR3 nicht?

Bis dato hat so gut wie jeder der so viel Speicher verbaute GDDR4 bevorzugt. Deshalb habe ich vermutet, das NVIDIA hier einen ähnlichen Weg geht. Noch sehe ich dazu keine sicheren Fakten. News sind höchstens Indizien. Wo siehst du da eine 1 GB Version?

Generell interessiert mich, was NVIDIA davon hat, so lange an GDDR3 festzuhalten. Wenn ATI 200€ Karten mit 1,2 GHz GDDR4 Speichertakt ausliefern kann, was bringt NVIDIA dazu, bei 300-350€ Karten weiterhin bei 0,9x GHz GDDR3 zu bleiben? Die 2900Pro zeigt, das dies auch bei 1 GB möglich zu sein scheint, wenn sie nur wollten...

Undertaker
2007-11-16, 14:45:29
Weil du etwas nicht verstehst ist es noch lange kein Quatsch. ;)

dann erklär es doch einfach wenn du es besser weist ;) gddr4 kann höher getaktet werden, ist aber weder günstiger noch größer (bzgl kapazität, auch hier sind 512mbit chips üblich)

Dann erzähl mir mal, welche Marktrelevanz 1 GB GDDR3 Karten haben sollen, die in diesem Preisbereich praktisch gar nicht existieren. Dann hast du dir die Antwort schon selbst gegeben.

Speicherchips die in großen Massen gefertigt werden, sind günstig. Speicherchips in die geringen Mengen gefertigt werden, sind teuer. Nun sag mir: Warum gibt es relevante Karten mit 1 GB GDDR3 nicht?

Bis dato hat so gut wie jeder der so viel Speicher verbaute GDDR4 bevorzugt. Deshalb habe ich vermutet, das NVIDIA hier einen ähnlichen Weg geht. Noch sehe ich dazu keine sicheren Fakten. News sind höchstens Indizien. Wo siehst du da eine 1 GB Version?

1. die einzigen cosumer-karten mit 1gb hatten 16 speicherchips. mit 16 speicherchips der gleichen bauart wie auf 8800gt/gts/gtx/ultra kannst du somit 1gb realisieren.
2. schon die 512mb version des r600 hat gddr4 verwendet, das hat mit der speichergröße nix, nada, gar nichts zu tun. klar soweit?
3. gddr3 wird von mehr herstellern und in weitaus höheren stückzahlen produziert. damit günstiger und sichere verfügbarkeit
4. in der meldung steht eindeutig gddr3. wenn du das anzweifelst, ist das dein gutes recht, aber ohne gegenteilige quellen reine spekulation

Generell interessiert mich, was NVIDIA davon hat, so lange an GDDR3 festzuhalten. Wenn ATI 200€ Karten mit 1,2 GHz GDDR4 Speichertakt ausliefern kann, was bringt NVIDIA dazu, bei 300-350€ Karten weiterhin bei 0,9x GHz GDDR3 zu bleiben? Die 2900Pro zeigt, das dies auch bei 1 GB möglich zu sein scheint, wenn sie nur wollten...

gdd3 ist billiger. und für diese karte ausreichend schnell.

F5.Nuh
2007-11-16, 14:47:18
warum wäre 1gb gddr3 teurer als 1gb gddr4? aus der übersicht von cb ist außerdem zu entnehmen das es sich um gddr3 handelt:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/preis_bilder_starttermin_g92_gts/

und solange es keine gegenteiligen meldungen gibt ist dies die wahrscheinlichste llösung

Schön, sowas wollte ich sehen. Doppelslot Kühlung, bis 1gb Ram und um die 250-300 €. Hoffentlich klappt es mit dem Start Anfang Dezember. :D

Gast
2007-11-16, 14:54:47
2. schon die 512mb version des r600 hat gddr4 verwendet, das hat mit der speichergröße nix, nada, gar nichts zu tun. klar soweit?

Hat jemand was anderes gesagt oder behauptet?

3. gddr3 wird von mehr herstellern und in weitaus höheren stückzahlen produziert. damit günstiger und sichere verfügbarkeit

So Pauschal geschrieben ist das natürlich völlig Banane und falsch.
Weil GDDR3 in Massen produziert wird, das wird GDDR4 übrigens auch (guckst du bei Samsung etc.), heißt das noch lange nicht, das große und schnelle Speicherchips in großen Mengen gefertigt werden und günstig zu haben sind. Wäre dem so, so wäre jede Karte damit ausgestattet. ;)

4. in der meldung steht eindeutig gddr3. wenn du das anzweifelst, ist das dein gutes recht, aber ohne gegenteilige quellen reine spekulation

In der Meldung steht gar nichts. Es wurde von einer anderen Seite zitiert. Guckst du Quelle...
Auch sind das keine Fakten, sondern wie du so schön sagst: Spekulationen.

Fakten wären es, wenn NVIDIA dies bekanntgegeben hätte.

Undertaker
2007-11-16, 15:29:46
Hat jemand was anderes gesagt oder behauptet?

So Pauschal geschrieben ist das natürlich völlig Banane und falsch.
Weil GDDR3 in Massen produziert wird, das wird GDDR4 übrigens auch (guckst du bei Samsung etc.), heißt das noch lange nicht, das große und schnelle Speicherchips in großen Mengen gefertigt werden und günstig zu haben sind. Wäre dem so, so wäre jede Karte damit ausgestattet. ;)

nein, da liegst du falsch. gddr4 wird nur von symsung produziert, von hynix gibts noch testmuster - das war es aber auch schon. deswegen der höhere preis, deswegen kein einsatz bei g80/g92 :)

In der Meldung steht gar nichts. Es wurde von einer anderen Seite zitiert. Guckst du Quelle...
Auch sind das keine Fakten, sondern wie du so schön sagst: Spekulationen.

Fakten wären es, wenn NVIDIA dies bekanntgegeben hätte.

mit einem unterschied: diese seiten bekommen ihre informationen von insidern und liegen mit ihren daten meist sehr nahe am endgültigen produkt. du rätst ins blaue hinein. das ist ein unterschied. im moment spricht wirklich rein gar nichts für gddr4 auf der 1gb g92 gts

Gast
2007-11-16, 19:08:01
nein, da liegst du falsch. gddr4 wird nur von symsung produziert, von hynix gibts noch testmuster - das war es aber auch schon. deswegen der höhere preis, deswegen kein einsatz bei g80/g92 :)


Aber Reunion kommt doch immer angewackelt das die Marge scheise ist mit G80, da muss man sparen bei nV *g
Wenn GDDR4 so teuer ist warum hats ATI dann verbaut beim R600 (der mit Sicherheit 0 eingespielt hat).

Denke mal das langsamste GDDR4 war zu der Zeit teurer als der GDDR3 hochgetaktet, den gabs ja in Massenproduktion, was bei hoher Abnahme auch gute Rabatte wieder bietet.

Solange ein Wirtschaftlicher Vorteil nicht die Leistung total versemmelt wird nV immer Konservativ agieren. Einen NV30 vergisst man nicht, deswegen auch 90nm bei G80 anstelle 80nm.

laser114
2007-11-16, 19:09:44
AMD (ATI) kam in der Anfangsphase günstiger an GDDR4 als Nvidia, da gabs Kooperationen bei der Entwicklung. ;)

up¦²
2007-11-16, 19:11:53
mehr fotos infos ...
http://sg.vr-zone.com/articles/G92_GeForce_8800_GTS_512_Card_Pics_%26_Specs/5405.html#Scene_1

Gast
2007-11-16, 19:19:18
@Undertaker

Ich kann gar nicht falsch liegen, da nicht ich das gesagt habe, sondern Samsung. Ich zitiere lediglich. ;)Guckst du hier (http://www.samsung.com/global/business/semiconductor/productInfo.do?fmly_id=147&partnum=K4U52324QE&&ppmi=1050).
Oder magst du Samsung widersprechen, hmm?

Mal abgesehen davon, als die X1950XTX erschienen ist gab es noch keine Schwemme an Karten die 1 GHz GDDR3 nutzten. Laut Samsung war der 0.91 ns GDDR4 früher verfügbar und in Massenproduktion als 1.0 ns GDDR3. Steht ebenfalls dort. Daher wundert mich diese Entscheidung damals nicht.

up¦²
2007-11-16, 19:32:48
1k wird nochmal bestätigt oder selbe Quelle...
http://www.expreview.com/img/news/071116/g92_gts_spec.png
http://www.expreview.com/news/hard/2007-11-16/1195203167d6959.html

Gast
2007-11-16, 19:39:25
Scheint die selbe Quelle zu sein, denn die haben in der News wieder den Link zu IT168.com, genau wie Computerbase.

Die Frage wäre jetzt, woher die ihre Informationen herhaben. So lang nicht einige der bekannten Seiten was dazu melden, ist das für mich weiterhin nur Spekulation. Taktraten können sich zwischen Testexemplar & Serienproduktion auch noch ändern...

Undertaker
2007-11-16, 19:39:57
@Undertaker

Ich kann gar nicht falsch liegen, da nicht ich das gesagt habe, sondern Samsung. Ich zitiere lediglich. ;)Guckst du hier (http://www.samsung.com/global/business/semiconductor/productInfo.do?fmly_id=147&partnum=K4U52324QE&&ppmi=1050).
Oder magst du Samsung widersprechen, hmm?

auf welchen fakt von dieser seite spielst du an? dir ist klar, dass gddr3 noch von anderen herstellern außer samsung produziert wird? gddr4 aber eben nicht...

und ach ja, für die vermuteten 970mhz der gts gibts auch auf der samsung-seite passende 512mbit bausteine - genau die könnten auf der karte verbaut werden, 16 stk. davon für 1gb vram :)

bei gddr4 gibts auch nur 512mbit, ergo ebenfalls 16 rams notwendig und damit auf grund der höheren stückpreise zwangsläufig teurer

Gast
2007-11-16, 19:49:23
auf welchen fakt von dieser seite spielst du an?

Guck dir das Produktionsdatum an... Kannst du dich an Karten mit 1 GHz GDDR3 erinnern, als es noch keine R600 oder G80 Serie gab?

Du erwähntest die X1950XTX. Die wurde von Computerbase im August getestet. Jetzt kannst du dir vielleicht ausmalen, das es ein wenig knapp gewesen wäre, wenn der nötige GDDR3 Speicher (der mit 1ns am Limit gelaufen wäre) erst im gleichen Quartal in Produktion ging. Der schnellere 0.91ns GDDR4 war laut Samsung schon ab Juni verfügbar. Die Entscheidung von ATI GDDR4 zu nehmen kam daher sicher nicht aus dem Buch heraus. ;)

Bemerkenswert ist auch die Tatsache, das laut Samsung selbst 0.83 und 0.714 ns GDDR4 früher in die Massenproduktion ging als die zur Zeit genutzten 1ns Chips.

F5.Nuh
2007-11-16, 19:54:46
Ich freue mich schon wie ein kleines Kind auf diese Graka, die frage ist welchen Hersteller :D? Zotac fällt sehr positiv aus. Layout ist die gleiche, nur das Zubehör ist immer unterschiedlich. Ein paar Spiele umsonst dazu ist nicht schlecht :)

Undertaker
2007-11-16, 19:59:27
Guck dir das Produktionsdatum an... Kannst du dich an Karten mit 1 GHz GDDR3 erinnern, als es noch keine R600 oder G80 Serie gab?

Du erwähntest die X1950XTX. Die wurde von Computerbase im August getestet. Jetzt kannst du dir vielleicht ausmalen, das es ein wenig knapp gewesen wäre, wenn der nötige GDDR3 Speicher (der mit 1ns am Limit gelaufen wäre) erst im gleichen Quartal in Produktion ging. Der schnellere 0.91ns GDDR4 war laut Samsung schon ab Juni verfügbar. Die Entscheidung von ATI GDDR4 zu nehmen kam daher sicher nicht aus dem Buch heraus. ;)

Bemerkenswert ist auch die Tatsache, das laut Samsung selbst 0.83 und 0.714 ns GDDR4 früher in die Massenproduktion ging als die zur Zeit genutzten 1ns Chips.

wenn du mir jetzt noch erklärst was das mit der kommenden gts zu tun haben soll :confused: die braucht nix unter <1ns

@fat dogg: dito, ich werd sie mir ebenfalls zulegen :D die kleinen schwächen die die gt hatte (lautstärke, rammenge) sollten bei der karte behoben sein :)

Gast
2007-11-16, 20:09:55
wenn du mir jetzt noch erklärst was das mit der kommenden gts zu tun haben soll :confused:

Genau das gleiche was deine Anmerkung mit der X1950XTX in diesem Thread zu suchen hatte: Nix. ;)

die braucht nix unter <1ns

Richtig. Bei 970 MHz passen 1.0 ns genau ins Schema. Obwohls immer noch ein wenig Verschwendung ist. ;)
Wenn der Chiphersteller die schon für 1 GHz freigibt...

So, nun aber endgültig zurück zum Thema. Ich sag nix mehr dazu, so lange keine neuen Infos da sind. ;)

Gast
2007-11-16, 20:14:03
wenn du mir jetzt noch erklärst was das mit der kommenden gts zu tun haben soll :confused: die braucht nix unter <1ns

@fat dogg: dito, ich werd sie mir ebenfalls zulegen :D die kleinen schwächen die die gt hatte (lautstärke, rammenge) sollten bei der karte behoben sein :)

von welcher lautstärke sprichst du? die gt ist angenehm leise. und welche rammenge? die gt kommt demnächst ebenfalls mit 1 GiB

Undertaker
2007-11-16, 20:28:20
Genau das gleiche was deine Anmerkung mit der X1950XTX in diesem Thread zu suchen hatte: Nix. ;)


nun, wie du bei erneutem lesen sicher feststellen wirst habe ich die x1950xtx in diesem thread kein einziges mal in den mund genommen :)

von welcher lautstärke sprichst du? die gt ist angenehm leise. und welche rammenge? die gt kommt demnächst ebenfalls mit 1 GiB

die lautstärke die erreicht wird, wenn man die lüfterdrehzahl so bearbeitet das die karte nicht mehr bei >90°C arbeiten muss ;) das kannte ich schon von meiner x1900xt, die ist dann nach einem sommer abgeraucht :X

zu der 8800gt 1gb: wusst ich gar nicht das die kommt. aber auch wenn, wäre sie immernoch kein sinnvolles update zu meiner alten 8800gts, die neue ist es aber

F5.Nuh
2007-11-16, 21:27:06
Die GT wird nicht in 1 gb erscheinen, es waren doch nur Modelle mit 256 und 512 MB geplant.

Hoffe die ersten GTS werden nicht iergendwelche Fehler oder ähnliches haben. Will nämlich bei der ersten Lieferung bestellen. Muss nur noch Vista 64 iergendwo günstig erwerben.

AnarchX
2007-11-16, 22:11:30
Die GT wird nicht in 1 gb erscheinen, es waren doch nur Modelle mit 256 und 512 MB geplant.

http://www.pcgameshardware.de/?article_id=621133
:wink:

F5.Nuh
2007-11-16, 22:15:18
http://www.pcgameshardware.de/?article_id=621133
:wink:

Wenn es nur zotac ist, kann man trotzdem davon ausgehen das es nur 512 mb geben wird. Da steht nämlich eindeutig "Limitierte Auflage", ausser andere Hersteller ziehen mit.

AnarchX
2007-11-16, 22:23:01
Wenn es nur zotac ist, kann man trotzdem davon ausgehen das es nur 512 mb geben wird. Da steht nämlich eindeutig "Limitierte Auflage", ausser andere Hersteller ziehen mit.

Gainward/Palit wird imo auf jeden Fall mitziehen.

Hvoralek
2007-11-16, 23:49:45
Es wird am Markt vorbeigetestet! Wenn die OC-Karten günstiger sind als Standardmodelle, dann erfordert dies ein umdenken. Dies sollte in den Reviews berücksichtigt werden, wird es aber nicht. Dadurch wird das reale Ergebniss völlig verfälscht, da sich niemand Standardkarten kauft, wenn er bessere für gleichen Preis besorgen kann.Dann soll man also die schnellste OC- Karte nehmen, die nicht mehr kostet als die Standardkarte? Beim billigsten Händler? Beim günstigsten seriösen Händler? Welche sind seriös? Lieferbar oder reicht gelistet? Gelistet mit Lieferzeitangabe? Oder doch UVP? Und was, wenn sich nach einer Woche die Preislage ändert oder neue Modelle erscheinen? Nachtesten?

Die Überlegungen kann ich nachvollziehen, aber ich halte sie für wenig praktikabel. Es gibt nun einmal Karten, die in der Form normalerweise niemand kauft. Soll man jetzt anstelle einer GTs 640 oder einer 2900 Pro die 8800 GT bzw. 3870 doppelt testen?

Dass die Preisangaben sämtlicher GTs imM mit Vorsicht zu genießen sind, sollte auch klar sein.

Jetzt haben wir es ja:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/details_preis_bilder_starttermin_g92_gts/

Meines erachtens ziemlich enttäuschend. 650 MHz GPU, 970 MHz Speicher und 1650 Shadertakt.Das war doch schon länger bekannt :confused:

Aber ich finde es schon lustig: Du hast Gortha vor kurzem noch verbal zusammengefaltet, weil er angenommen hat, dass die neue GTS 512 schneller werden würde als die GT. Jetzt ist das Ding eindeutig schneller selbst als jede OC- GT und Du gibst Dich enttäuscht :ugly:

Der Speicher ist ja wohl ein ziemlicher Witz. Da hätte ich mir schon 1,2 GHz vorgestellt, ATI packt es auch bei den kommenden 200€ Karten und die 128 SP GTS soll ja sogar "299 und 349 US-Dollar" kosten. Wird mal wieder am falschen Ende gespart.Ich bin mir nicht mehr so sicher, ob bei der GT (und bei der GTS 512) die Bandbreite wirklich so knapp ist. Zumindest Ailuros meint (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6032011#post6032011), da würde meist noch eher die Z- Füllrate ausgehen. Ich finde das zwar etwas seltsam, aber seine Äußerungen haben normalerweise Hand und Fuß. Zu G80/ G92 und Bandbreite (-nmangel) gibt es aber auch einen eigenen Thread.

Die derzeit schnellste GT bietet übrigens 700/1000/1750. Jetzt rechne doch mal aus, um wieviel schneller eine der Standard-GTS wäre, obwohl diese immernoch teurer sein wird. Es lohnt aus P/L-Sicht einfach nicht.Hatte ich mich je zum P/L- Verhältnis geäußert? Es ist bei solchen Komponenten aber auch nicht die Regel, dass man für die n- fache Menge Geld auch die n-fache Mengen Leistung bekommt. Gerade in höheren Berichen zahlt man meist auch für geringe Mehrleistung deutlich drauf. Dafür, dass es keine Konkurrenz in dem Segment gibt, halte ich $300 Preisempfehlung für die GTS noch für sehr fair (Bei der GT sind es $250, oder?).

Wie du selbst siehst, ist diese Argumentation ziemlich unpassend. Du wirst auch bei einer Grafikkarte nicht immer doppelte fps haben, nur weil sie doppelt so viele Rohpower hat. Dafür sind die Anwendungen einfach zu verschieden.Bei Prozessoren rechnest Du Kerne*n -> Leistung*n (wo das nur in einigen Spezialgebieten halbwegs gilt und bei Spielen bisher nur 2 Kerne einigermaßen etwas bringen) und bei Grafikkarten, wo selbst eine Verdopplung aller Funktionseinheiten zu einer fast verdoppelten Leistung führt, stellst Du auf "zu verschiedene Anwendungen" ab ;D

Und jetzt komm bitte nicht mit irgendwelchen GPU- Benchmarks mit CPU- Limit.

Dann erzähl mir mal, welche Marktrelevanz 1 GB GDDR3 Karten haben sollen, die in diesem Preisbereich praktisch gar nicht existieren. Dann hast du dir die Antwort schon selbst gegeben.Wie viele marktrelevante 1- GiB- Karten gibt es denn bisher?

Generell interessiert mich, was NVIDIA davon hat, so lange an GDDR3 festzuhalten. Wenn ATI 200€ Karten mit 1,2 GHz GDDR4 Speichertakt ausliefern kann, was bringt NVIDIA dazu, bei 300-350€ Karten weiterhin bei 0,9x GHz GDDR3 zu bleiben? Die 2900Pro zeigt, das dies auch bei 1 GB möglich zu sein scheint, wenn sie nur wollten...Nanu? War nicht vor kurzem noch eine 1- GiB- GT oder -GTS zu einem vertretbaren Mehrpreis völlig unmöglich?

von welcher lautstärke sprichst du? die gt ist angenehm leise. und welche rammenge? die gt kommt demnächst ebenfalls mit 1 GiBEr spricht wohl von der Lautstärke, die das Ding im Hochsommer produzieren könnte (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6016698#post6016698).

reunion
2007-11-17, 11:50:10
Ich bin mir nicht mehr so sicher, ob bei der GT (und bei der GTS 512) die Bandbreite wirklich so knapp ist. Zumindest Ailuros meint (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6032011#post6032011), da würde meist noch eher die Z- Füllrate ausgehen. Ich finde das zwar etwas seltsam, aber seine Äußerungen haben normalerweise Hand und Fuß. Zu G80/ G92 und Bandbreite (-nmangel) gibt es aber auch einen eigenen Thread.


AiL meint viel, wenn der Tag lang ist. Ich bin nur nicht darauf eingegangen, weil ich nach zahlreichen Diskussionen mit ihm genau weiß, wohin das führt. Die etwas geringere Z-Füllrate, die immer noch um Größenordnungen über der AMD-Konkurrenz liegt (so wichtig also gar nicht sein kann), gleicht die GT durch den höheren Chiptakt faktisch aus. Das einzige was da eindeutig limitiert ist die Speicherbandbreite und bei manchen Szenen die VRAM-Größe, das sieht ein Blinder mit dem Krückstock.

Gast
2007-11-17, 12:49:32
AiL meint viel, wenn der Tag lang ist.

Hat aber öfter recht, als der Durchschnitt der Forenspekulanten. ;D

Hvoralek
2007-11-17, 13:10:48
Die etwas geringere Z-Füllrate, die immer noch um Größenordnungen über der AMD-Konkurrenz liegt (so wichtig also gar nicht sein kann), gleicht die GT durch den höheren Chiptakt faktisch aus. Das einzige was da eindeutig limitiert ist die Speicherbandbreite und bei manchen Szenen die VRAM-Größe, das sieht ein Blinder mit dem Krückstock.Eine GTX hat immerhin fast 1/2 mehr Füllrate als eine GT bei genau 50% mehr Bandbreite. Natürlich schlagen auch Texturen auf die Bandbreite (da ist die GT wegen ihres kleineren Speichers ohnehin etwas gehandicappt), aber dafür geht G92 wohl effizienter mit Bandbreite um. Wenn die GT so krass an der Bandbreite hängen würde wie man auf den ersten Blick glaubt, müsste sie der GTX auch ziemlich schnell ausgehen.

Die Füllrate der GTS 512 liegt übrigens auch nur durch den höheren Takt über der einer GT. Das sind etwa 8%, wie bei der Bandbreite. Zumindest großartig verschlimmern wird sich die Lage insofern also nicht.

Wieso ATI dann mit ihren Krümmelfüllraten so schnellen Speicher verbaut, frage ich mich allerdings auch.

reunion
2007-11-17, 13:24:39
Eine GTX hat immerhin fast 1/2 mehr Füllrate als eine GT bei genau 50% mehr Bandbreite.


Du redest jetzt vom ROP-Output, oder? Ich glaube nach wie vor nicht, dass das groß von Bedeutung ist, sonst müssten die AMD-Chips völlig untergehen mit ihrer deutlich unterlegenen Z-Füllrate.


Natürlich schlagen auch Texturen auf die Bandbreite (da ist die GT wegen ihres kleineren Speichers ohnehin etwas gehandicappt), aber dafür geht G92 wohl effizienter mit Bandbreite um. Wenn die GT so krass an der Bandbreite hängen würde wie man auf den ersten Blick glaubt, müsste sie der GTX auch ziemlich schnell ausgehen.

Warum? Wie man sieht ist die GT ohne AA meist fast auf GTX-Niveau, erst mit AA/hoher Auflösung geht ihr offensichtlich die Bandbreite aus. Die GTX hat wesentlich mehr Bandbreite im Verhältnis zur Texelfüllrate.


Die Füllrate der GTS 512 liegt übrigens auch nur durch den höheren Takt über der einer GT. Das sind etwa 8%, wie bei der Bandbreite. Zumindest großartig verschlimmern wird sich die Lage insofern also nicht.


Du vergisst den zusätzlichen Cluster. Oder redest du noch immer von ROP-Output? IMHO überschätzt du die Bedeutung dessen ziemlich.


Wieso ATI dann mit ihren Krümmelfüllraten so schnellen Speicher verbaut, frage ich mich allerdings auch.

Ich frage mich eher warum nV mit ihrer Monsterfüllrate so langsamen Speicher verbaut.