Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x - Teil 3
Hvoralek
2007-11-04, 19:13:56
Ohne Konkurrenz im High- End- Segment kann man dort nicht viel erwarten. Denkt mal an R300: Da tat sich zwei Jahre lang kaum etwas.
dargo
2007-11-04, 19:14:17
Was mich stoert ist dass NV sich anscheinend zu viel Zeit laesst mit dem Zeug; oder sie bescheissen uns natuerlich alle wieder koeniglich und tanzen mit dem Zeug in 2008 mit der SP1 Vorstellung an.
Lol, das wäre ja köstlich. ;D
Ailuros
2007-11-04, 19:24:14
Situation:
--> User sagt G92, 128 SE, 700 Mhz -> geil
--> Ich sage: "schwach von NV, nicht toll"
--> Du sagst: "nicht schwach, sondern schlau"
Ich rege mich nicht auf, ich find es einfach nur schwach von NV, solche Leistung bei einem Refresh zu bringen. Das hat gar nix mit dumm oder klug zu tun. Klar, NV macht viel Geld, das weiß jeder.
Mir geht es nur darum, das viel mehr möglich wäre.
Momentan hast Du nur die 8800GT gesehen und die Leistung die sie liefert fuer ihre ~$250 ist ueber dem was viele erwartet haben. Du wirst wohl nicht ernsthaft glauben wollen dass wenn teurere Modelle antanzen werden dass sie dann nur um 10-15% schneller sein werden als eine GT oder?
Wenn ausser 2560*1600/4xAA eine GT so verdammt nahe an der 8800GTX Leistung liegt, dann solltest Du Dir vorstellen koennen was fuer Leistung man bei doppelt so hohem Preis erreichen koennte.
Wenn du dich ein paar Wochen zurückdenkst, als hier noch 160 SE und 700 Mhz spekuliert wurden, bei 768 bis 1536 MB VRAM (HighEnd).
Und wer zum Teufel sagt ueberhaupt dass eine solche idiotische Konstellation heutzutage Sinn macht? 160 SPs entsprechen einem 512bit breitem Bus und diese koennen leider nur mit 512MB bzw. 1024MB Speicher (und hoeher verbunden werden). Fuer diese Generation ist mir kein 512bit bus von NV bewusst. Erstens erhoeht es immer noch die Unkosten viel zu viel und nein diese ueberdecken nicht die Verschwendung an einer Unzahl an ROPs fuer so ein Ding und auch nicht den billigerem Speicher den man dafuer einlegen koennte.
Und nun schau was wir haben: weniger Leistung als die alte HighEnd nach 15 Monaten.
Was ich will dürfte klar sein: 150% der G80 Leistung oder mehr.
Und diese wird auch im neuen Jahr zustande kommen; wie genau wissen leider momentan nur die Fritzen von NV.
Das hat nix damit zu tun, das mir die neuen Chips aufgedrängt werden oder nicht. Ich sagte nur, das ich es schwach finde.
Ganz nebenbei da Du offensichtlich nur mit der Anzahl der clusters die Leistung skalieren siehst, ergeben 128SPs@2.5GHz runde theoretische 960GFLOPs und diese sind natuerlich fast 2x mal so viel wie auf G80.
Ailuros
2007-11-04, 19:25:20
Ohne Konkurrenz im High- End- Segment kann man dort nicht viel erwarten. Denkt mal an R300: Da tat sich zwei Jahre lang kaum etwas.
Deshalb empfinde ich auch dass es eine Schande ist dass AMD sich nicht aufkrempeln kann und NVIDIA richtig in die Ecke treiben.
Nightspider
2007-11-04, 19:33:51
dann solltest Du Dir vorstellen koennen was fuer Leistung man bei doppelt so hohem Preis erreichen koennte.
Ganz nebenbei da Du offensichtlich nur mit der Anzahl der clusters die Leistung skalieren siehst, ergeben 128SPs@2.5GHz runde theoretische 960GFLOPs und diese sind natuerlich fast 2x mal so viel wie auf G80.
Genau davon reden wir ja. Es geht nicht darum was möglich wäre, sondern darum, das es sehr stark danach aussieht, das die 8800 GTS 128 SE und 1,5 Ghz haben wird.
Mit dem doppelten Preis könnte man viel machen. Macht NV aber scheinbar nicht.
Ich wäre auch froh, wenn die neuen Karten mehr als 15% vor den alten liegen würden.
Du wirst wohl nicht ernsthaft glauben wollen dass wenn teurere Modelle antanzen werden dass sie dann nur um 10-15% schneller sein werden als eine GT oder?
Bisher sieht es aber danach aus, wenn man de Gerüchten glauben schenken darf, bloß nicht 15% über GT sondern der alten GTX.
Nakai
2007-11-04, 19:49:26
Deshalb empfinde ich auch dass es eine Schande ist dass AMD sich nicht aufkrempeln kann und NVIDIA richtig in die Ecke treiben.
Die Zeiten sind vorbei.
Mir ist zwar klar, das ATI das könnte, aber irgendwie sind die dazu irgendwie zu verklemmt.
mfg Nakai
Die Zeiten sind vorbei.
Mir ist zwar klar, das ATI das könnte, aber irgendwie sind die dazu irgendwie zu verklemmt.
mfg Nakai
Sicher? Ich denke eher die könnens ned besser bzw. sie sind finanziell verklemmt.
Gutes High End ist sehr wichtig, vor allem da die Mainstreamkarten meist kastrierte Ableger davon sind. Ist der High-End-Chip stark, ist auch Mainstream stark, aber High-End-Garbage gibt noch schlimmeren Mainstream-Garbage.
Keiner weiß auch wie teuer die Fertigung bei TSMC für 65 nm und kleiner bei diesen Transistormonster ist. Da ist es verständlich, dass nV die Architektur nicht unnötig aufblähen will. Und triple-SLi zeigt ja schon, dass diese kleineren Performancesprünge schon längere Zeit geplant war. Die GTX hat ja diese 2 SLi-Verbindungen für triple-SLi. Also war das spätestens für nV im Oktober 06 klar, wie es weitergeht.
dargo
2007-11-04, 20:10:51
Gutes High End ist sehr wichtig, vor allem da die Mainstreamkarten meist kastrierte Ableger davon sind. Ist der High-End-Chip stark, ist auch Mainstream stark, aber High-End-Garbage gibt noch schlimmeren Mainstream-Garbage.
Nana, da wäre ich vorsichtig. Die G8600GT(S) ist alles andere als gelungen.
Nana, da wäre ich vorsichtig. Die G8600GT(S) ist alles andere als gelungen.
Für den Transistor Count ist die eigentlich schon gut. Halt sehr stark beschnitten.
Nakai
2007-11-04, 20:55:25
Für den Transistor Count ist die eigentlich schon gut.
Und das wars auch schon.;)
mfg Nakai
Hvoralek
2007-11-04, 21:13:28
Lol, das wäre ja köstlich. ;DDas würde man aber wohl nicht erst beim Erscheinen von Vista SP1 bekannt geben, sondern entweder bei der Vorstellung der eigenen Produkte oder spätestens, wenn ATI mit ihrem D3D10.1- Kram ankommt und ihn entsprechend bewirbt.
Ausschließen würde ich das aber nicht. Wie war das noch mit "USC? Haben wir übrigens auch" ;D
Und das wars auch schon.;)
mfg Nakai
Die HD2600 XT hat doch afaik 100 Mio. mehr davon und ist nicht immer besser wie eine 8600 GTS. Da hat nV mit weniger Mitteln (fast) genausoviel erreicht. Und das war ja das Ziel. Wenn der High End Chip schlecht ist, kann man nicht für den Mainstreambereich zu viel beschneiden und es wird teurer.
GeneralHanno
2007-11-04, 21:28:09
was ist eigentlich aus unserer terra-flopp karte geworden? die hat nvidia hat auf einer aktionärskonferenz versprochen!
Wäre denn jetzt für NV nicht die ideale Gelegenheit, eine wirklich gute Karte rauszubringen, mit welcher z.bsp. Crysis auch in DX10 very high anständig läuft?
Zumal es für Crysis ja notwendig wäre und das Game momentan recht populär ist... (Ausser die Performance in der Demo liege deutlich unterhalb derer in der Vollversion).
Ich würde das vom Marketing her relativ clever finden!
=Floi=
2007-11-05, 03:07:52
nö, erst werden mal großflächig die neue 8800GT und 88000GTS (ab)verkauft und danach kommt ne richtig gute powerkarte die auch ihre 500€ wert ist!
es fallen so viele leute auf die gute performance rein, aber im grunde ist die gtx ja schon 1 jahr alt und somit wird einem nur was vorgegaukelt (highend für 250€) obwohl es in wirklichkeit garnicht so ist, denn der highendnachfolger steht ja schon in den startlöchern und eine 8800GT dürfte für schätzungweise 70$ zu produzieren sein...
Winter[Raven]
2007-11-05, 08:22:00
Deshalb empfinde ich auch dass es eine Schande ist dass AMD sich nicht aufkrempeln kann und NVIDIA richtig in die Ecke treiben.
Warum bist du der Meinung AMD/ATI könnten das?
Ailuros
2007-11-05, 08:31:12
Genau davon reden wir ja. Es geht nicht darum was möglich wäre, sondern darum, das es sehr stark danach aussieht, das die 8800 GTS 128 SE und 1,5 Ghz haben wird.
Mit dem doppelten Preis könnte man viel machen. Macht NV aber scheinbar nicht.
Ich wäre auch froh, wenn die neuen Karten mehr als 15% vor den alten liegen würden.
Rein theoretisch:
128*3*1.5 = 576 GFLOPs
96*3*1.2 = 346 GFLOPs
---------------------------
+66%
64 TFs * 750MHz = 48 GTexels/s bi/AF
48 TFs * 500MHz = 24 GTexels/s bi/AF
---------------------------
+100%
Klingt mir zumindest an 2 Stellen nicht nach nur 15% Steigerung im Vergleich zur G80/GTS, unter der Vorraussetzung dass das Zeug auch stimmt.
Mit dem doppelten Preis könnte man viel machen. Macht NV aber scheinbar nicht.
Anfang 2008 wird es eine =/>$500 Loesung geben die um 50% schneller sein wird als die heutige GTX. Ob dieses nun eine single chip oder GX2 Loesung sein wird leg ich meine Hand noch nicht ins Feuer; auf jeden Fall macht mir persoenlich eine GX2 mehr Sinn um das Ganze fuer die naechste Generation zu ueberbruecken. AMD hat ja auch nichts besseres als eine 38x0 X2 nachdem was es aussieht.
seahawk
2007-11-05, 08:31:46
;5998255']Warum bist du der Meinung AMD/ATI könnten das?
Weil man einzige Firma kurzfristig die Möglichkeit hätte.
Ailuros
2007-11-05, 08:38:39
;5998255']Warum bist du der Meinung AMD/ATI könnten das?
Mit einer anderen Strategie waere es durchaus moeglich. AMD kann NVIDIA selbst mit den zich Problemen gute Konkurrenz bieten. IMO sind die Probleme einfach Resultate einer falschen Strategie; wuerde sich da was aendern, wuerde NV um einiges schwerer zum Schnaufen haben.
Anarchy-HWLUXX
2007-11-05, 10:27:15
Wäre denn jetzt für NV nicht die ideale Gelegenheit, eine wirklich gute Karte rauszubringen, mit welcher z.bsp. Crysis auch in DX10 very high anständig läuft?
Hol dir einfach zwei GTs oder zwei G92-GTS ;)
Nach den CB benches sollten alle G92 basierten Karten sehr gut performen in Crysis - die GT ist sehr nahe an der GTX dran :eek:
J0ph33
2007-11-05, 12:01:26
Mit einer anderen Strategie waere es durchaus moeglich. AMD kann NVIDIA selbst mit den zich Problemen gute Konkurrenz bieten. IMO sind die Probleme einfach Resultate einer falschen Strategie; wuerde sich da was aendern, wuerde NV um einiges schwerer zum Schnaufen haben.
wie sähe eine bessere strategie aus? nicht auf takt sondern auf mehr einheiten setzen? konservativer bzgl. des fertigungsprozesses sein?
wie sähe eine bessere strategie aus?
Das nV Developer-Team aufkaufen.
Das nV Developer-Team aufkaufen.
Oder das G80 Design kopieren. :ulol:
Ailuros
2007-11-05, 20:35:56
wie sähe eine bessere strategie aus? nicht auf takt sondern auf mehr einheiten setzen? konservativer bzgl. des fertigungsprozesses sein?
Eine bessere Strategie wuerde keine Verspaetungen zulassen, das generelle Risiko minimalisieren und zur gleichen Zeit die Margen maximalisieren. Zur gleichen Zeit braeuchte man auch eine um weit bessere Entwickler-Unterstuetzung.
Ailuros
2007-11-05, 20:37:33
Das nV Developer-Team aufkaufen.
Guter Scherz, aber die engineers bei ATI sind alles andere als mies; ganz im Gegenteil. Die Sache stinkt eher bei der Direktion.
J0ph33
2007-11-05, 20:44:19
Eine bessere Strategie wuerde keine Verspaetungen zulassen, das generelle Risiko minimalisieren und zur gleichen Zeit die Margen maximalisieren. Zur gleichen Zeit braeuchte man auch eine um weit bessere Entwickler-Unterstuetzung.
mmmh...das ist leicht gesagt...Verspätungen hat wohl niemand gern, aber scheinbar begünstigen die neuen Fertigungsprozesse dies...
beim R600 scheint dazu noch ne Menge anderes schief gelaufen zu sein, ich frage mich immernoch, wie man von einem geradezu bombastischen R580 und einem guten R520 auf einen R600 herabsacken konnte...frühe Folien sprachen von "2* R580-Performance", damit würde man sehr gut mithalten...es fragt sich, ob die Schuld für das Verfehlen dieses Ziels wirklich bei der Direktion zu suchen ist, oder ob man nur richtig viel Pech hatte...
Nakai
2007-11-05, 20:56:11
beim R600 scheint dazu noch ne Menge anderes schief gelaufen zu sein, ich frage mich immernoch, wie man von einem geradezu bombastischen R580 und einem guten R520 auf einen R600 herabsacken konnte...frühe Folien sprachen von "2* R580-Performance", damit würde man sehr gut mithalten...es fragt sich, ob die Schuld für das Verfehlen dieses Ziels wirklich bei der Direktion zu suchen ist, oder ob man nur richtig viel Pech hatte...
Was da alles schiefgegangen ist, kann man nur erahnen.
Von den thermischen Problemen abgesehen, ist die Entwicklung ziemlich contra ATI gegangen. Man sieht ja schon, dass die Anforderungen an die Texelfüllrate weiter gestiegen sind.
Weiterhin noch die unbalancierte AA-Performance, das haut einfach derbe rein.
Hätte man den Chip etwa auf 850Mhz hochjagen und ein paar weitere Probleme beseitigen können, wäre der R600 gar nicht mal so mies gewesen.
mfg Nakai
Ailuros
2007-11-05, 21:09:17
mmmh...das ist leicht gesagt...Verspätungen hat wohl niemand gern, aber scheinbar begünstigen die neuen Fertigungsprozesse dies...
beim R600 scheint dazu noch ne Menge anderes schief gelaufen zu sein, ich frage mich immernoch, wie man von einem geradezu bombastischen R580 und einem guten R520 auf einen R600 herabsacken konnte...frühe Folien sprachen von "2* R580-Performance", damit würde man sehr gut mithalten...es fragt sich, ob die Schuld für das Verfehlen dieses Ziels wirklich bei der Direktion zu suchen ist, oder ob man nur richtig viel Pech hatte...
R520 kam auch ziemlich spaet an und er haette auch locker ein paar mehr Einheiten haben koennen von Anfang an; zeitlich kam dann der R580 an der dann leider ALUs praktisch im Ueberschuss hatte.
R600 hatte ein grosses Problem am Anfang mit dem Herstellungsprozess; die ersten samples waren nur auf einer Form zugaenglich ergo fast tot. Dann ging es so langsam aufwaerts und man hatte zur gleichen Zeit mit kapputen ROPs zu kaempfen als auch mit dem uebermaessigen Taktraten die das Ding nicht ueber 400MHz steigen liess.
Der Stromverbrauch mit den ersten operativen samples bei knapp 380MHz liess den G80 bei seiner Erscheinung tatsaechlich wie ein IGP erscheinen.
Das originale Ziel fuer R600 war uebrigens =/>800MHz, aber es ist selbst ein Wunder dass sie am Ende 742MHz bei dem finalen Stromverbrauch geschafft haben.
Glaubst Du es ist ein Zufall dass NVIDIA den spezifischen 80nm Prozess nie beruehrt hat?
AnarchX
2007-11-05, 21:36:33
Glaubst Du es ist ein Zufall dass NVIDIA den spezifischen 80nm Prozess nie beruehrt hat?
R600 war doch 80HS.
NV hätte doch bei einem optischen Shrink von 90GT auf 80GT gehen müssen oder nicht?
Und das 80nm nicht wirklich schlecht war, sah man ja auch am G73-B1 und G84/G86, da wäre 80nm bestimmt für den G80 nicht verkehrt gewessen, wenn man nicht gerade nochmal deutlich an der Taktschraube drehen gewollt hätte.
Würde eher auf mangelnde Fertigungs-Kapazitäten tippen.
reunion
2007-11-05, 22:16:13
R600 war doch 80HS.
NV hätte doch bei einem optischen Shrink von 90GT auf 80GT gehen müssen oder nicht?
Und das 80nm nicht wirklich schlecht war, sah man ja auch am G73-B1 und G84/G86, da wäre 80nm bestimmt für den G80 nicht verkehrt gewessen, wenn man nicht gerade nochmal deutlich an der Taktschraube drehen gewollt hätte.
Würde eher auf mangelnde Fertigungs-Kapazitäten tippen.
Erstens ist 80nm nicht gleich 80nm. AMD verwendete den High-Performance-Prozess namens "80HS". Zweitens gab es keinen einzige 80nm Chip, der auch nur annähernd die Transistorenanzahl eines R600 erreichte. Und TSMC gab selbst zu, dass der 80HS Prozess Probleme mit hochkomplexen Chips hat.
Hvoralek
2007-11-06, 00:28:37
beim R600 scheint dazu noch ne Menge anderes schief gelaufen zu sein, ich frage mich immernoch, wie man von einem geradezu bombastischen R580 und einem guten R520 auf einen R600 herabsacken konnte...frühe Folien sprachen von "2* R580-Performance", damit würde man sehr gut mithalten...es fragt sich, ob die Schuld für das Verfehlen dieses Ziels wirklich bei der Direktion zu suchen ist, oder ob man nur richtig viel Pech hatte...Was hat R600 mit R5xx zu tun? Das Ding basiert doch auf R400/ Xenos. Wenn man bedenkt, dass R400 damals sogar komplett eingestellt wurde und nun die zweimal generalüberholte Neuauflage davon immer noch ein ziemlicher Reinfall ist, würde mich mal interessieren, wie viele dieser Probleme in dem Grunddesign verankert liegen.
Guter Scherz, aber die engineers bei ATI sind alles andere als mies; ganz im Gegenteil. Die Sache stinkt eher bei der Direktion.Es war doch sicher nur Zufall, dass Dave Orton kurz nach der Übernahme durch AMD gegangen wurde ist. Ist nicht auf dessen Mist auch R400 gewachsen?
Ailuros
2007-11-06, 05:37:42
Es war doch sicher nur Zufall, dass Dave Orton kurz nach der Übernahme durch AMD gegangen wurde ist. Ist nicht auf dessen Mist auch R400 gewachsen?
Mir faellt es schwer die Verantwortung fuer eine so grosse Firma nur an einen Mann zu werfen. Er sass zwar fuer's breite Publikum am "Lenkrad" aber ATI war nie eine "one man show". Es koennte durchaus sein, dass jeweilige falsche Design-Entscheidungen davon originieren, dass man getrennte Desing-Teams links und rechts hatte. Ab R800 soll es ja zur kompletten Vereinigung der Teams kommen.
R400 war ein quasi 4*4 Design und nicht 4*16 wie R600; das erste waehre fuer seine Zeit als USC zu schwach gewesen und mit dem zweiten baute man auf der R400 und spaeter Xenos-Logik eine Architektur mit ziemlich tiefen (oder lange wenn's besser klingt) "pipelines".
Ein kleiner Ausschnitt und direkt relevant, aber...:
META HTP implements a longer pipeline, enabling it to achieve higher clock speeds ranging from 360 MHz in 130nm to 500 MHz in 90nm, and up to 700 MHz in 65nm process using standard cells together with high speed SRAM macros for cache. A longer pipeline would normally reduce benchmark performance per MHz; however META HTP includes additional architectural features to compensate including a return address cache and branch prediction table support. A four threaded META HTP delivers up to 1552 DMIPS in a 65nm process.
http://www.imgtec.com/News/Release/index.asp?ID=687
Fudzilla.com: "D8E, Nvidia's new high end comes in Q1
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4045&Itemid=1
Undertaker
2007-11-06, 17:00:09
buhu, ich will keinen dualchip-sli-gemurkse :frown: eine 8900gtx mit 192sp/256bit und 1gb 1,5ghz+ gddr4(/5?), das wär nett :)
GeneralHanno
2007-11-06, 19:41:19
dann musst du auf den G100 warten. steht doch im text ;)
AnarchX
2007-11-06, 21:34:18
dann musst du auf den G100 warten. steht doch im text ;)
Wobei G100 laut Ailuros NVs D3D11-GPU sein soll und deshalb erst gegen 2009 kommen sollte.
Eher kommt da wohl noch der G90. ;)
buhu, ich will keinen dualchip-sli-gemurkse :frown: eine 8900gtx mit 192sp/256bit und 1gb 1,5ghz+ gddr4(/5?), das wär nett :)
Tri-SLI deutet doch eigentlich darauf hin, dass wir erstmal keine GX2 wiedersehen werden, welche mit einem 300mm² G92, der dann am besten noch mit 2x1GB schnellem GDDR4 bestückt werden müsste, was doch ziemlicher unwirtschaftlicher BS wäre, imo.
Naja, irgendwann wird NV das Geheimnis des G92 lüften...
Hvoralek
2007-11-06, 23:19:54
Wobei G100 laut Ailuros NVs D3D11-GPU sein soll und deshalb erst gegen 2009 kommen sollte.
Eher kommt da wohl noch der G90. ;)Ich dachte, G90 sei auf jeden Fall tot und das nächste High- End- Dingens vor G100 hieße G200? *gnarf*
Naja, solange es nicht zu einem dieser Chips irgendwelche Informationen gibt, sind die Namen ja auch herzlich egal. Problematisch wird es nur, wenn verschiedene Quellen mal unter derselben Bezeichnung unterschiedliche Chips verstehen sollten :ugly:
buhu, ich will keinen dualchip-sli-gemurkse :frown: eine 8900gtx mit 192sp/256bit und 1gb 1,5ghz+ gddr4(/5?), das wär nett :)
Ist doch längst klar, dass um Dual/Multi-GPU kein Weg rumführt :wink:
GX2 als Doppeldecker ist doch eine prima Lösung.
Godmode
2007-11-06, 23:21:40
Was wird jetzt eigentlich im November vorgestellt, wenn es schon kein High-End ist?
LovesuckZ
2007-11-06, 23:26:46
8800GTS mit 112SP, 320bit und 640mb auf G80 Basis.
Godmode
2007-11-06, 23:38:10
8800GTS mit 112SP, 320bit und 640mb auf G80 Basis.
Wirklich fad, schade. Die G92-GTS kommt dann erst im Dezember?
LovesuckZ
2007-11-06, 23:39:04
Wirklich fad, schade. Die G92-GTS kommt dann erst im Dezember?
Anscheinend, aber nichts ist sicher.
James Ryan
2007-11-07, 05:43:21
8800GTS mit 112SP, 320bit und 640mb auf G80 Basis.
Die gibts doch schon! :|
MfG :cool:
Anarchy-HWLUXX
2007-11-07, 12:54:08
Die gibts doch schon! :|
MfG :cool:
Auf Geizhals allerdings noch net ...
MuLuNGuS
2007-11-07, 13:35:12
Die gibts doch schon! :|
MfG :cool:
was wo, her mit den karten:D
GeneralHanno
2007-11-07, 17:45:25
hier nochmal newsmeldungen zum thema 2*G92 = D8E (dual-GPU)
http://www.hartware.de/news_43412.html
http://www.techreport.com/discussions.x/13543
James Ryan
2007-11-07, 18:13:03
was wo, her mit den karten:D
Bei EVGA wird doch eine entsprechende Gf 8800 GTS SSC schon gelistet oder nicht?
MfG :cool:
F5.Nuh
2007-11-07, 19:18:43
Anscheinend, aber nichts ist sicher.
wäre echt dumm.. wieder 2 Monate warten. :frown:
Schaut man sich den Unterschied zwischen 8800GTS und 8800GTX bisher an, kann man von einem "Full" betriebenem G92 doch hohe Taktraten erwarten.
OC Versionen der 8800GT gehen aktuell bis 700/1750. Da dürfte die echte G92-8800GTS drüber liegen. Hach wenns doch nur schon raus wäre ob ein G90 kommt... 2GHz auf den 128SP oder 1,7GHz auf 160 anstelle von 128SP. Das is Highend, aber ohne Konkurrenz macht sich nV da nicht ins Hemd...
hier nochmal newsmeldungen zum thema 2*G92 = D8E (dual-GPU)
http://www.hartware.de/news_43412.html
http://www.techreport.com/discussions.x/13543
Hat sich die GX2 so gut verkauft?
Warum muss man so ein "Schrott" bringen... Die Karte bringt nur was wenns SLI richtig funst, das will ich als "nichtSLI aber auch Highend User" mal ganz und garnicht.
Dann auch noch das Kühlproblem und die Karte ist ganz sicher nicht Triple-SLI Fähig, da versalzt sich wieder das Marketing selbst die Suppe.
Mario-Edition der GT: :smile:
http://www.tcmagazine.com/comments.php?shownews=16722&catid=2
Matthias1981
2007-11-08, 07:28:58
Hmmm. Wenn bald nix neues kommt wäre es zum überlegen 2 8800GT oder eine 8800 Ultra zu holen. Weil würde gerne so Januar - Februar aufrüsten.. Meine 8800GTS macht mittlerweile bei einigen Spielen schön schlapp :(
reunion
2007-11-08, 23:08:16
Interessant:
* D8M: Eighth generation mainstream, previously named G98
* D8P: Eighth generation performance, previously named G92
* D9M: Ninth generation mainstream
* D9P: Ninth generation performance
* D9E: Ninth generation enthusiast
http://www.dailytech.com/article.aspx?newsid=9506
Die D9X-Serie soll dann Dx10.1 bringen.
Wollte im Nov. neuen high-end Pc zusammenbasteln mit dem ich eine weile über die runden komme
jetzt les ich, dass das erst Anfang 2008 kommt :(
drmaniac
2007-11-09, 09:53:44
Tja.... D9E wirds dann wohl werden, mit Zwischenschrittchen gebe ich mich nicht ab ;)
Greuel
2007-11-09, 14:44:51
Tja.... D9E wirds dann wohl werden, mit Zwischenschrittchen gebe ich mich nicht ab ;)
und wann is ungefähr mit D9E zu rechnen?
GeneralHanno
2007-11-09, 14:56:41
mitte 2008. steht doch im text.
Steht da gar net, between now and next Summer ^^
Was aber nicht passt, das D9P der Nachfolger der 8600GT Serie werden soll. D8P ist ja die 8800GT Serie, da sollte D9P also der Nachfolger sein.
Wenn D9M schon mit einem 128Bit Interface daher kommen soll, lässt sich auch was im 150€ Segment basteln, was 8500/8600 ablöst. Mit DX10.1 compilance.
Schade das es wohl kein D8E gibt, oder das halt G80 ist... G90 gibts also nicht, bzw. gabs nie/wurde gecancelt als man mit dem G92 alles hinbekommen hat.
nomadhunter
2007-11-09, 18:19:07
G90 gibts also nicht, bzw. gabs nie/wurde gecancelt als man mit dem G92 alles hinbekommen hat.
War G100 nicht mal als D3D11-Chip geplant? Dann könnte D9E nämlich genau das sein, was ursprünglich als G90 geplant war.
Ailuros
2007-11-10, 10:15:56
War G100 nicht mal als D3D11-Chip geplant? Dann könnte D9E nämlich genau das sein, was ursprünglich als G90 geplant war.
Was bis jetzt als "G100" bekannt war, ist tatsaechlich der D3D11 chip. Ja auch zum letzten und es gibt noch einen Zwischenschieber danach bis zum D3D11 chip. Ausser M$ erscheint mit D3D11 bzw. Vienna ohne jegliche Verspaetung, was wohl eher unwahrscheinlich ist.
mapel110
2007-11-10, 10:24:58
Was bis jetzt als "G100" bekannt war, ist tatsaechlich der D3D11 chip. Ja auch zum letzten und es gibt noch einen Zwischenschieber danach bis zum D3D11 chip. Ausser M$ erscheint mit D3D11 bzw. Vienna ohne jegliche Verspaetung, was wohl eher unwahrscheinlich ist.
Ich würde eher von mehreren Zwischenschiebern ausgehen. 2009 ist geplant, also wirds vor 2010 (eher 2011) sicher nichts. Und bis dahin nur noch ein Performance-Update kann ich mir nicht vorstellen.
AnarchX
2007-11-10, 11:11:11
Q: Other enthusiast refreshes?
A: We are *at* the end of the year, and we decided that the refresh we'd do at this time is 8800 GT. From 8800 GT, you could obviously do SLI. And soon you'll be able to do tri-way SLI. You're going to be able to put a lot of GPU horsepower in your system.
http://forum.beyond3d.com/showpost.php?p=1089534&postcount=1
Juhu - 3-way-SLI was bei Spielen und Settings abkackt, die mehr als 512 MB brauchen...
Naja, sowas kauft man sich ja, um dann in 1024 mit niedrigen Texturdetails zu zocken.
AnarchX
2007-11-10, 11:50:33
Ich denke nicht, dass sich Tri-SLI auf die 8800 GT bezieht.
Ansonsten soll ja noch die G92-8800GTS mit bis zu 1GiB kommen, wobei ich hier auch das vorhandensein von 2 Connectoren bezweifele.
Dank Tri-SLI wird man halt nochmal ein paar GTX/Ultras an die Enthusiasten los, die dann im Januar(?) nochmals genötigt werden aufzurüsten, durch das volle Potential des G92. ;)
Dank Tri-SLI wird man halt nochmal ein paar GTX/Ultras an die Enthusiasten los, die dann im Januar...
das glaubste doch da selbst nicht was Du da schreibst..bis Jänner sind es mit Müh und Not noch 6 Wochen....
AnarchX
2007-11-10, 12:32:18
Das "(?)" hinter Januar hast du wohl übersehen? ;)
Ansonsten wird es wohl Anfang Dezember einen Hardlaunch von 780i/a geben und die Dritt-Karten sind ja auch problemlos verfügbar, während die "G92-GTX" im Januar wohl erstmal gelaunch werden könnte, was dann wohl eine dauerhafte Verfügbarkeit im Februar bedeuten würde.
Ich glaube nicht, dass NV sich die Krone durch die HD3870 X2 streitig machen lassen will.
mapel110
2007-11-10, 12:35:36
Ob die bei Tri-SLI dann auch automatisch 32bit-Betriebssysteme ausschließen?! Bei 3x1GB VRam (oder auch 3x768MB) dürfte es dann doch wirklich am Ende sein wegen der Adressierung. :uponder:
/edit
Wenns doch so gut mit Treiberhacks lösbar ist, werden wohl auch noch 32bit-Systeme supportet werden.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=389279
dargo
2007-11-10, 13:13:05
Ob die bei Tri-SLI dann auch automatisch 32bit-Betriebssysteme ausschließen?! Bei 3x1GB VRam (oder auch 3x768MB) dürfte es dann doch wirklich am Ende sein wegen der Adressierung. :uponder:
Um ehrlich zu sein wird es auch höchste Zeit. Es wäre mir lieber wenn dieses 32Bit Gedöns schon tot wäre.
Was bis jetzt als "G100" bekannt war, ist tatsaechlich der D3D11 chip. Ja auch zum letzten und es gibt noch einen Zwischenschieber danach bis zum D3D11 chip. Ausser M$ erscheint mit D3D11 bzw. Vienna ohne jegliche Verspaetung, was wohl eher unwahrscheinlich ist.
Na dann fehlt uns nur der "neue" Highend Chip G90 fürs 1. Quartal 2008. Dann kommt dessen Refresh (G95 z.b.) Dezember 08/Januar 09. Dann darf Vienna auch Weihnachten 09 mit G100/R700 aufkreuzen.
laser114
2007-11-10, 17:20:25
R700 ist sehr wahrscheinlich DX10.1, das was du meinst wäre dann wohl ein DX11-Chip von AMD.
Tri-SLI dürfte aber 32-Bit einen weiteren Kick geben. Dass sich das im High-End so lange hält finde ich auch erstaunlich, aber solangsam wird doch 64-Bit auch wichtiger.
R700 ist sehr wahrscheinlich DX10.1, das was du meinst wäre dann wohl ein DX11-Chip von AMD.
Da schon RV670 D3D10.1 sind, wäre es sehr blamabel, wenn R700 wieder einen Schritt zurück gehen würde.
Nakai
2007-11-10, 19:06:56
Da schon RV670 D3D10.1 sind, wäre es sehr blamabel, wenn R700 wieder einen Schritt zurück gehen würde.
Er wird aber Dx10.1 haben.
mfg Nakai
laser114
2007-11-10, 20:43:06
Da schon RV670 D3D10.1 sind, wäre es sehr blamabel, wenn R700 wieder einen Schritt zurück gehen würde.
Wieso? Das ist doch kein Rückschritt, sondern eben die gleiche Stufe. Wenn DX11 erst mit Vienna kommt, ist das auch nichts bedauerliches, R700 ist für 2008 geplant. Microsoft erzählt Vienna kommt 2010, und das müssen sie auch erstmal schaffen. Ein neues Feature über Jahre hinaus ist wohl etwas wenig.
Und eine weitere DX10-Version ist mir nicht bekannt.
Ja, aber du sprichst hier nur von sehr wahrscheinlich...
laser114
2007-11-10, 21:04:34
Ja, wie denn sonst? Wenn ich darüber etwas sicher wüsste, stände ich sicher unter NDA. So kann ich nur vom wahrscheinlichen sprechen. ;)
Triple SLI ist aktuell gar keine Option. 1. Gibts genug Probleme mit SLI unter Vista (siehe Crysis z.b.) und 2. kann die 8800GT gar nicht so Betrieben werden. Also muss man auf "alte" Karten zurück greifen, is ja nur GTX/Ultra die doppelte Konnektoren haben. Und da macht es meiner Meinung nach auch net soo viel Sinn, schließlich sind die im normalen SLI (wenns funst) ohne Konkurrenz. Wer will schon ein Triple SLI für Auflösungen über 1920x und dann gibts Einbrüche weil der VRAM auf den 8800GT ausgeht...
Und die G92-GTS ist selbst mit 1Gib Speicher keine Option, was machen die Leuts auf die Triple SLI abzielt? Die haben doch schon GTX/Ultra im SLI Betrieb... Gibts schon den Motherboard Chip der 3x16 PCIe Lines für die Grafikports zur Verfügung stellt, oder wollen die mit 1x16 und 2x8 Lines fahren?
Ein echter G90, geshrinkter G80 + 16-32SPs und equivalente Anzahl an TMU/TAs wie beim G92 wäre gut gewesen. Aber das ging wohl nicht, G92 is kein schlechter Chip und sicher auch gut das dadurch DX10 Karten nen dicken Schub bekommen haben.
Also muss der gediegene G80 Besitzer auf den Chip zwischen G9x und G10x warten, also der echte DX10.1 Refresh vom G80 ^^
DisplayPort
http://www.pcpop.com/doc/0/241/241675_6.shtml
Ailuros
2007-11-12, 05:31:47
R700 ist sehr wahrscheinlich DX10.1, das was du meinst wäre dann wohl ein DX11-Chip von AMD.
Tri-SLI dürfte aber 32-Bit einen weiteren Kick geben. Dass sich das im High-End so lange hält finde ich auch erstaunlich, aber solangsam wird doch 64-Bit auch wichtiger.
Wurde D3D10.2 gestrichen? (ehrliche Frage).
Henroldus
2007-11-12, 09:36:12
DisplayPort
http://www.pcpop.com/doc/0/241/241675_6.shtml
da ist kein displayport zu sehen sondern nur ein HDMI-Dongle :|
ausserdem braucht den noch kein mensch
Anarchy-HWLUXX
2007-11-12, 10:08:56
Display Port - ja ne, so nitzlich wie nen drittes nasenloch ... Alle Aktuellen TFTs haben DVI und das wird sich net allzuschnell ändern, wübei das wirklich nötig wäre damit der DP auch mal brauchbar wird.
laser114
2007-11-12, 13:17:49
Wurde D3D10.2 gestrichen? (ehrliche Frage).
Die Version ist mir nicht bekannt. Wann gab es dazu mal Infos? :)
StefanV
2007-11-12, 14:50:59
Display Port - ja ne, so nitzlich wie nen drittes nasenloch ...
Nein, Display Port ist solangsam WIRKLICH nötig!
Alle Aktuellen TFTs haben DVI und das wird sich net allzuschnell ändern,
Warum?!
Weil Display Port abwärtskompatibel ist?!
wübei das wirklich nötig wäre damit der DP auch mal brauchbar wird.
Tja, abwarten und Tee rauchen, es kann schneller kommen als du denkst...
dargo
2007-11-12, 15:48:13
Nein, Display Port ist solangsam WIRKLICH nötig!
Aber hallo! Jetzt fehlen nur noch passende TFTs. Oder gibts schon was?
mictasm
2007-11-13, 02:02:33
Passend in Auflösung und Ausnutzung der zusätzlichen Bandbreite des DisplayPorts oder passend vom Anschluss her? Für letzteres sollte wie bei HDMI ein Adapter oder Kabel auf DVI ja reichen.
AnarchX
2007-11-13, 09:35:19
512MB Nvidia® GeForce™ Go 8800M GTX [+$400 or $12/mo.]
Dual 512MB NVidia® GeForce™ Go 8800M GTX – SLI Enabled [+$1,000 or $30/mo.]
http://www.alienware.com/Configurator_Pages/area-51_m17x.aspx?syscode=PC-LT-AREA51M17x&SubCode=SKU-DEFAULT
Mal sehen wie der wohl hier verbaute G92 nun konfiguriert ist.
Anarchy-HWLUXX
2007-11-13, 13:30:02
Tja, abwarten und Tee rauchen, es kann schneller kommen als du denkst...
Schnell ? Wenn es in 6 monaten eine breite pallette an gutem DP Monitoren zu gescheiten Preisen gibt wär ich sehr erfräut - wird aber nicht passieren.
Ich geh eher davon aus das die Hochpreisigen Monis zuerst DP bekommen und die günstigen weiterhin DVI behalten.
@Kompatibilität - Adapter vermindern die Quali, sind klobig und Sonderkabel kosten extra ...
Gast/GeneralHanno
2007-11-13, 13:33:45
keine GTS512?
http://www.hartware.de/news_43431.html
AnarchX
2007-11-13, 13:44:55
Wird sich zeigen, die 112SP-G80-GTS wurde ja auch nicht durch NV vorgestellt und so geht es vielleicht auch bei der G92-GTS, die definitiv keine 88GTX/Ultra ersetzen wird, imo.
Das was, auf der mittlerweile geänderten NV-HP stand, war doch schon recht eindeutig.
Gortha
2007-11-13, 13:48:31
keine GTS512?
http://www.hartware.de/news_43431.html
Naja, die G92-GTS 512/1024 ist ja wohl nicht schneller als eine Ultra...
von daher muß man aus der News nicht herauslesen, dass es keine GTS
geben wird.
Zumal dies hier ja schon bei NVidia selber (aus versehen) zu sehen war:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/nvidia_geforce_8800_gts_512_mb/
Wird sich zeigen, die 112SP-G80-GTS wurde ja auch nicht durch NV vorgestellt und so geht es vielleicht auch bei der G92-GTS, die definitiv keine 88GTX/Ultra ersetzen wird, imo.
Das was, auf der mittlerweile geänderten NV-HP stand, war doch schon recht eindeutig.
Sinnd die G80-Lager leer - wer weiß... wohl eher nicht.
Nvidia schlachtet gerade das Huhn, das goldene Eier legt (-e?)...
Gortha
2007-11-13, 14:02:37
Wird sich zeigen, die 112SP-G80-GTS wurde ja auch nicht durch NV vorgestellt und so geht es vielleicht auch bei der G92-GTS, die definitiv keine 88GTX/Ultra ersetzen wird, imo.
Das was, auf der mittlerweile geänderten NV-HP stand, war doch schon recht eindeutig.
Naja AnarchX,
Leistungsmäßig würde eine G92-GTS mit 1024 MB die GTX auf jeden Fall schlagen/ersetzen...
LG
Gortha
AnarchX
2007-11-13, 14:31:51
Leistungsmäßig würde eine G92-GTS mit 1024 MB die GTX auf jeden Fall schlagen/ersetzen...
Kommt ganz auf die Taktung an.
Ich gehe jedoch eher von 128SPs@GT-Taktung + vielleicht 1GHz GDDR3 aus, was ausreichen würde die alte Ordnung GT < GTS wiederherzustellen.
Um eine GTX anzugreifen, würde ihr wohl weiterhin Bandbreite und ROP-Leistung fehlen, jedenfalls in Enthusiasten-Settings.
dargo
2007-11-13, 14:41:25
Passend in Auflösung und Ausnutzung der zusätzlichen Bandbreite des DisplayPorts oder passend vom Anschluss her?
Ersteres.
=Floi=
2007-11-13, 20:41:01
http://www.hartware.de/news_43431.html
ach verdammt, das kann doch nciht sein. Ich will endlich ne richtig starke karte mit mind der doppelten leistung einer 8800GTX
GeneralHanno
2007-11-13, 21:00:39
http://www.hartware.de/news_43431.html
ach verdammt, das kann doch nciht sein. Ich will endlich ne richtig starke karte mit mind der doppelten leistung einer 8800GTX
hab ich ne seite zuvor schon gepostet. Im Q1 werden wohl die X2 karten von ATi und nvidia kommen ...
StefanV
2007-11-13, 22:41:46
Ersteres.
30" vielleicht? ;)
dargo
2007-11-14, 06:26:09
30" vielleicht? ;)
:confused:
Falscher Link?
AnarchX
2007-11-14, 10:01:41
GeForce 9 steht vor der Tür?
[DEV_0405&SUBSYS_15D21043] NVIDIA GeForce 9500M GS
[DEV_0405&SUBSYS_16341043] NVIDIA GeForce 9500M GS
[DEV_0405] NVIDIA NB9P-GE1
[DEV_0406] NVIDIA NB9P-GE
[DEV_042E&SUBSYS_17C21043] NVIDIA GeForce 9300M G
[DEV_042E] NVIDIA NB9M-GE1
Würde auf G98-SKUs tippen...
ShinyMcShine
2007-11-14, 11:16:04
GeForce 9 steht vor der Tür?
Würde auf G98-SKUs tippen...
Der FW156 ist ja jetzt doch schon etwas älter. Sehr komisch... Außerdem will nVidia sich doch erstmal auf TripleSLI konzentieren, was nur mit den HighEnd 8800er Karten möglich sein wird. Schießen die sich da (marketingtechnisch) nicht ins eigene Bein, wenn die eine neue Lowcost-/Midrange-Serie rausbringen und die dann 9xxx nennen?
AnarchX
2007-11-14, 11:19:06
Würde die oben genannten Karten nicht vor dem Q1 erwarten, wo es doch auch langsam GF9 im oberen Segment geben sollte.;)
ShinyMcShine
2007-11-14, 12:32:47
Meinst Du, dass zwischen TripleSLI, welches ja zu Weihnachten gepusht und auch wirklich nutzbar sein soll, und der 9er Serie nur so wenig Zeit liegt? Ich hätte jetzt eher auf Q2/08 getippt. Lassen wir uns überraschen...
AnarchX
2007-11-14, 12:36:11
Meinst Du, dass zwischen TripleSLI, welches ja zu Weihnachten gepusht und auch wirklich nutzbar sein soll, und der 9er Serie nur so wenig Zeit liegt? Ich hätte jetzt eher auf Q2/08 getippt. Lassen wir uns überraschen...
Nunja, zu Weihnachten kauft sich der Enthusiast halt ein Board mit 780a/i und die dazu verfügbare GTX/Ultra und dann Ende Januar/Anfang Februar wird das volle Potential des G92 gezeigt um auch der HD3870 X2 zu zeigen wo sie steht, wo wiederrum der Enthusiast sich genötigt fühlt 3 von diesen Karten zu kaufen um Crysis endlich wieder in seinen gewünschten Setting(2560x... ?) spielen zu können.
ShinyMcShine
2007-11-14, 13:16:47
Nunja, zu Weihnachten kauft sich der Enthusiast halt ein Board mit 780a/i und die dazu verfügbare GTX/Ultra und dann Ende Januar/Anfang Februar wird das volle Potential des G92 gezeigt um auch der HD3870 X2 zu zeigen wo sie steht, wo wiederrum der Enthusiast sich genötigt fühlt 3 von diesen Karten zu kaufen um Crysis endlich wieder in seinen gewünschten Setting(2560x... ?) spielen zu können.
Würde heissen, Du spekulierst darauf, dass der G92 sowohl in der 8800er als auch (zumindest anfänglich) in der 9xxxer Serie verbaut wird (in welcher Form auch immer: 9xxxX2...)?
Ich sehe mich schon Cryis auf einem 24"-TFT mit 960x600 spielen (dafür aber auch mit AA)... :)
AnarchX
2007-11-14, 16:45:47
HKEPC hat etwas über den G98 zu berichten
- Launch am 3 Dezember, zusammen mit 8800 GTS 512MB und Tri-SLI
- 4 TMUs/ 8 SPs , 2(?) ROPs
- 567 TMU-Domain, 1400MHz Shaderdomain
- Video-Prozessor 3
http://translate.google.com/translate?u=http%3A%2F%2Fwww.hkepc.com%2F%3Fid%3D345&langpair=zh%7Cen&hl=en&ie=UTF-8
GeneralHanno
2007-11-14, 16:49:31
die GT hat nur VP2, oder?
laser114
2007-11-14, 16:58:07
Was sind denn die Unterschiede zwischen VP2 und VP3?
GeneralHanno
2007-11-14, 17:11:01
da der VP2 kein VC-1 dekodieren kann, kann der VP3 das vll ja ...
LovesuckZ
2007-11-14, 17:20:08
da der VP2 kein VC-1 dekodieren kann, kann der VP3 das vll ja ...
Er untersützt die erste des Decodierungsprozesses nicht. Dafür reicht aber immernoch ein einfacher Single-Core Prozessor aus.
AnarchX
2007-11-14, 17:43:37
http://img84.imageshack.us/img84/1364/28319193711fcak3.jpg
GeneralHanno
2007-11-14, 17:53:11
liegt ja ziemlich genau auf dem niveau einer 8800GTS. und das in einem NB!
dann wird der NB8E (8800 M GTX) wohl nativ 6 cluster haben.
laser114
2007-11-14, 17:54:19
Na das ist doch mal eine Aussage. Wird also etwas unter der 8800 GTS in niedrigeren Einstellungen und etwas unter der 8800 GT in höheren Einstellungen. So wissen wir zwar nicht, was der G92 wirklich hat, aber im Mobilbereich ist das doch ein deutlicher Sprung.
liegt ja ziemlich genau auf dem niveau einer 8800GTS. und das in einem NB!
dann wird der NB8E (8800 M GTX) wohl nativ 6 cluster haben.
Nein, das werden G92 Chips mit 6 Clustern sein.
reunion
2007-11-14, 18:52:32
NVIDIA G98, 8800GTS 512, 3-way SLI on Dec 3rd:
http://www.hkepc.com/?id=345
Specs G98:
65nm
533-ball BGA 23mm x 23mm (GB1-64) package
64-bit memory bus width
8 Stream Processor
4 Texture Filtering Unit
4 Texture Addressing Unit
2 ROP
Core clock : 567MHz
Shader clock: 1.4GHz
Supports VP3
Supports HDMI out,HDMI Audio Mixing, DisplayPort
Hvoralek
2007-11-14, 18:57:22
http://img84.imageshack.us/img84/1364/28319193711fcak3.jpgWären nicht mehr Cluster mit geringerem Takt für den Stromverbrauch besser? Oder wird so der 6- C- Schrott entsorgt, den man eigentlich für die GT verwenden wollte? :biggrin:
Specs G98:
8 Stream Processor
2 ROPInteressant. Ist die Architektur doch flexibler als gedacht?
LovesuckZ
2007-11-14, 18:59:49
Wären nicht mehr Cluster mit geringerem Takt für den Stromverbrauch besser? Oder wird so der 6- C- Schrott entsorgt, den man eigentlich für die GT verwenden wollte? :biggrin:
Mehr Cluster besitzen mehr funktionseinheiten, die auch bei niedrigem Takt voll arbeiten. Ausserdem wird hier eben der 6 Cluster Schrott verkauft.
Interessant. Ist die Architektur doch flexibler als gedacht?
Diese Möglichkeit ist bekannt. Man kann einzelne Vec8 Einheiten deaktivieren, glaube die 8400 hat auch nur eine Vec8 Einheit.
robbitop
2007-11-14, 19:03:09
Scheint eine Art halber Cluster zu sein. Das gleiche hat man ja bei IGPs auch schon seit Langem gemacht. Einfach eine halbe Quadpipe eingebaut.
Hvoralek
2007-11-14, 19:16:47
Mehr Cluster besitzen mehr funktionseinheiten, die auch bei niedrigem Takt voll arbeiten. Ausserdem wird hier eben der 6 Cluster Schrott verkauft.Mehr Cluster bei gleichem Takt brauchen natürlich mehr. Die Frage ist, ob n Cluster bei x MHz nicht mehr Strom brauchen würden als 2*n Cluster bei x/2 MHz. Bei niedrigerem Takt könnte man zusätzlich die Spannung senken. Außerdem müssen manche Teile des Chips unabhängig von der Anzahl der aktiven Funktionseinheiten vorhanden sein.
=Floi=
2007-11-14, 19:37:19
ein breiterer chip braucht mehr chipfläche und ist somit teurer!
AnarchX
2007-11-14, 19:46:11
Diese Möglichkeit ist bekannt. Man kann einzelne Vec8 Einheiten deaktivieren, glaube die 8400 hat auch nur eine Vec8 Einheit.
Nein, die 8400GS ist eine 8500GT mit 64Bit SI. Die 8300GS hat nur 8SPs.
Aber die 2 ROPs mag ich nicht so recht glauben.
Hvoralek
2007-11-14, 22:05:18
ein breiterer chip braucht mehr chipfläche und ist somit teurer!Das ist doch ein G92, oder?
Ailuros
2007-11-15, 06:04:51
http://img84.imageshack.us/img84/1364/28319193711fcak3.jpg
Say I didn't say so ;)
Ailuros
2007-11-15, 06:07:14
Nein, die 8400GS ist eine 8500GT mit 64Bit SI. Die 8300GS hat nur 8SPs.
Aber die 2 ROPs mag ich nicht so recht glauben.
Wieso? Was spricht gegen 128bit breite Busse im low end Segment?
AnarchX
2007-11-15, 07:40:43
Wieso? Was spricht gegen 128bit breite Busse im low end Segment?
Warum 128Bit? 4 ROPs wären ja bei den aktuellen RPs 64Bit.
AnarchX
2007-11-15, 09:29:51
Neue Infos zur 8800 GTS 512MB:
- G92-basierend
- 128SPs/64TMUs
- 650MHz TMU-Domain
- 1625MHz Shader-Domain
- 970MHz GDDR3
- $299-349
- neues Dual-Slot-Lüfter Design (vielleicht der aufgestockte GT-Lüfter wie bei Galaxy?)
http://chiphell.com/viewthread.php?tid=12346
Nett, GPU-Leistung(bis auf ROPs) über einer Ultra, aber weiterhin wohl gezielt bandbreitenlimitiert.
GeneralHanno
2007-11-15, 09:53:31
eher konservativ getaktet. aber da die 8800GT sowieso vor der 3870 liegt, warum sollte man dann auch den takt seitens nvidia extrem erhöhen ;)
AnarchX
2007-11-15, 09:58:54
eher konservativ getaktet. aber da die 8800GT sowieso vor der 3870 liegt, warum sollte man dann auch den takt seitens nvidia extrem erhöhen ;)
Zudem reden wir von einem MSRP bis $349... ;)
Naja, beim Speicher muss man halt hoffen, dass es andere AIBs wie Zotac gleich tun und 1GiB Samsung verbauen, der ja in einigen Fällen schon ~1.2GHz geschafft hat, z.B. bei der 8600GTS.
Henroldus
2007-11-15, 11:36:51
Neue Infos zur 8800 GTS 512MB:
- G92-basierend
- 128SPs/64TMUs
- 650MHz TMU-Domain
- 1625MHz Shader-Domain
- 970MHz GDDR3
- $299-349
- neues Dual-Slot-Lüfter Design (vielleicht der aufgestockte GT-Lüfter wie bei Galaxy?)
http://chiphell.com/viewthread.php?tid=12346
Nett, GPU-Leistung(bis auf ROPs) über einer Ultra, aber weiterhin wohl gezielt bandbreitenlimitiert.
ich denke diese Karte muss man noch abwarten!
um die 300Eur für eine Leistung auf GTX/Ultraniveau sind einfach vielversprechend.
Bis dahin sollte die Verfügbarkeit des G92 auch wieder besser sein.
Da ich prinzipiell viel Leistung zu angemessenem Preis will, sind mir die 8800GT und erst recht die 3870 mittlerweile zu "billig" :wink:
also noch bis zum 3. Dezember warten und dann die GTS samt Crysis im "Bundle" holen :biggrin:
Gortha
2007-11-15, 13:12:02
Neue Infos zur 8800 GTS 512MB:
- G92-basierend
- 128SPs/64TMUs
- 650MHz TMU-Domain
- 1625MHz Shader-Domain
- 970MHz GDDR3
- $299-349
- neues Dual-Slot-Lüfter Design (vielleicht der aufgestockte GT-Lüfter wie bei Galaxy?)
http://chiphell.com/viewthread.php?tid=12346
Nett, GPU-Leistung(bis auf ROPs) über einer Ultra, aber weiterhin wohl gezielt bandbreitenlimitiert.
MEINE!!!! ;D
Was meint ihr, eventuell auch mehr ROPs? 20? 18?
LG
AnarchX
2007-11-15, 13:25:45
Was meint ihr, eventuell auch mehr ROPs? 20? 18?
Da G92 wohl weiterhin die ROP-Partitionen hat: 16 ROPs (da eine RP = 64Bit+4 ROPs).
dargo
2007-11-15, 14:32:33
Neue Infos zur 8800 GTS 512MB:
- G92-basierend
- 128SPs/64TMUs
- 650MHz TMU-Domain
- 1625MHz Shader-Domain
- 970MHz GDDR3
- $299-349
- neues Dual-Slot-Lüfter Design (vielleicht der aufgestockte GT-Lüfter wie bei Galaxy?)
Was soll das heißen? 512 und 1024MB Vram? :naughty:
GeneralHanno
2007-11-15, 15:22:59
G98 ab 3. Dez:
http://www.pcgameshardware.de/?article_id=621360
ShinyMcShine
2007-11-15, 16:12:56
G98 ab 3. Dez:
http://www.pcgameshardware.de/?article_id=621360
Wird wohl eine "launchreiche" Zeit, wenn G98, G92Mobile und ein G92@128SPs (evtl.) am selben Tag releast werden. Hoffentlich gibt es die 8800GTS@G92 gleich mit 1GB RAM ab Launch!
AnarchX
2007-11-15, 16:21:21
Wird wohl eine "launchreiche" Zeit, wenn G98, G92Mobile und ein G92@128SPs (evtl.) am selben Tag releast werden. Hoffentlich gibt es die 8800GTS@G92 gleich mit 1GB RAM ab Launch!
Würde ich vermuten, da in diesem Zeitraum ja auch die 1GiB 8800 GTs kommen werden und es anzunehmen ist, dass die neue 8800 GTS auch das gleiche PCB verwenden wird, eben halt mit 3 Phasen für die GPU.
Mal sehen ob man nun auf 16 Chips oder doch auf 8x 1GBit-Chips setzt.
Was soll das heißen? 512 und 1024MB Vram? :naughty:
Schön wäre es, aber das ist wohl eher zu bezweifeln, da Zotac schon für seine 1GiB 8800 GT etwas unter 300€ haben will.
dargo
2007-11-15, 16:23:14
Schön wäre es, aber das ist wohl eher zu bezweifeln, da Zotac schon für seine 1GiB 8800 GT etwas unter 300€ haben will.
Wie hoch ist die UVP?
AnarchX
2007-11-15, 16:24:54
Wie hoch ist die UVP?
Die gibt es eben noch nicht:
http://www.pcgameshardware.de/?article_id=621133
dargo
2007-11-15, 16:28:25
Die gibt es eben noch nicht:
http://www.pcgameshardware.de/?article_id=621133
Dann würde ich erstmal die Behauptung mit knapp unter 300€ abwarten. Denn das würde bedeuten, dass die 512MB GT 229$ und die 1GB GT ~329$ kosten würde. Was mir etwas viel für die 1GB Version vorkommt. 299$ wären imho angebrachter.
GeneralHanno
2007-11-15, 16:34:19
für die GTS-G92 mit 1GiB Vram (GTS512 kann man dann ja nicht mehr sagen) wird man wohl 399$ hinblättern müssen ...
AnarchX
2007-11-15, 16:45:00
http://img260.imageshack.us/img260/2170/g928800gtey3.jpg
:D
GeneralHanno
2007-11-15, 16:53:08
der kühler sieht noch effizenter aus als der der 3870 :love2:
luft geht zu 100% nach draußen, größerer rotor als die GT, schlicht und elegant
Nightspider
2007-11-15, 16:55:53
Ich find 650 Mhz trotzdem ein bisschwen wenig. 700 Mhz ab Werkund 750 bei oc-Versionen solltens schon sein...
Anarchy-HWLUXX
2007-11-15, 16:58:33
für die GTS-G92 mit 1GiB Vram (GTS512 kann man dann ja nicht mehr sagen) wird man wohl 399$ hinblättern müssen ...
LoL ... bei dem preis würdern die Verkaufszahlen verdammt mies werden -> zu teuer, kann man gleich zwei GT nehmen und hat dann noch geld über.
GeneralHanno
2007-11-15, 17:00:24
@nightspider:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6028969&postcount=626
@Anarchy-HOCP:
premiumaufschlag ;)
außerdem rede ich von UVP, d.h. der straßenpreis wäre etwas niedriger.
dargo
2007-11-15, 17:02:24
http://img260.imageshack.us/img260/2170/g928800gtey3.jpg
:D
Klasse. :up:
Endlich der G80 Kühler drauf. =)
Wobei mir irgendwie die Schlitze fehlen. :|
GeneralHanno
2007-11-15, 17:05:36
naja, der G80 kühler sieht schon etwas anders aus ...
http://images.google.de/imgres?imgurl=http://pics.computerbase.de/1/5/8/8/6/160.jpg&imgrefurl=http://www.computerbase.de/bild/article/614/1/&h=645&w=1280&sz=169&hl=de&start=1&um=1&tbnid=ZAqrdZo_9v6ivM:&tbnh=76&tbnw=150&prev=/images%3Fq%3D8800%2BGTX%26svnum%3D10%26um%3D1%26hl%3Dde%26lr%3Dlang_de%26client% 3Dopera%26rls%3Dde%26sa%3DN
dargo
2007-11-15, 17:06:07
LoL ... bei dem preis würdern die Verkaufszahlen verdammt mies werden -> zu teuer, kann man gleich zwei GT nehmen und hat dann noch geld über.
Ja genau. Und die miese Kühlung, nur 512MB Vram, ein SLI Board und die SLI "Probleme" gleich miteinsacken. ;)
399$ (330€ Straßenpreis) für eine "G8800Ultra" mit 1GB Vram finde ich gerechtfertigt.
naja, der G80 kühler sieht schon etwas anders aus ...
http://images.google.de/imgres?imgurl=http://pics.computerbase.de/1/5/8/8/6/160.jpg&imgrefurl=http://www.computerbase.de/bild/article/614/1/&h=645&w=1280&sz=169&hl=de&start=1&um=1&tbnid=ZAqrdZo_9v6ivM:&tbnh=76&tbnw=150&prev=/images%3Fq%3D8800%2BGTX%26svnum%3D10%26um%3D1%26hl%3Dde%26lr%3Dlang_de%26client% 3Dopera%26rls%3Dde%26sa%3DN
Nicht wirklich. Es scheint der gleiche Lüfter verbaut zu sein. Nur die Abdeckung ist anders. Ok, eventuell drunter sieht er auch etwas anders aus. Hauptsache der ist so effizient und leise wie der G8800GTS Kühler. :)
Anarchy-HWLUXX
2007-11-15, 17:19:05
@Anarchy-HOCP:
premiumaufschlag ;)
außerdem rede ich von UVP, d.h. der straßenpreis wäre etwas niedriger.
Wird nicht funktionieren ... bzw. würde da das alles spekulazius ist ...
@dargo - Miese Kühlung ? Ja ne is klar ... und das wobei die meisten karten der nächsten batch Herstellereigene Lösungen haben.
reunion
2007-11-15, 17:22:20
Nicht wirklich. Es scheint der gleiche Lüfter verbaut zu sein. Nur die Abdeckung ist anders. Ok, eventuell drunter sieht er auch etwas anders aus. Hauptsache der ist so effizient und leise wie der G8800GTS Kühler. :)
Du scheinst in der Lage zu sein durch Wände zu sehen. Alles was man anhand des Bildes sagen kann, ist, dass ein Radiallüfter verbaut ist, welcher die Lüft nach draußen bläst. Wie es hinter der Abdeckung aussieht, kann nur spekuliert werden. Beachtenswert finde ich vorallem den Knick im Kühlblech.
aye...anfang nov hab ich mir gesagt: schickse die 2900 pro zurück und holst dir in 2 wochen die 8800 gt...jetzt, wo ich endlich ne gt haben könnte, heißt es wieder 2 wochen warten auf die 8800 gts @g92...ich will endlich zocken :((
dargo
2007-11-15, 17:50:16
aye...anfang nov hab ich mir gesagt: schickse die 2900 pro zurück und holst dir in 2 wochen die 8800 gt...jetzt, wo ich endlich ne gt haben könnte, heißt es wieder 2 wochen warten auf die 8800 gts @g92...ich will endlich zocken :((
Wenn du so denkst/planst wirst du nie zum spielen kommen. Wenn die G8800GTS@G92 veröffentlicht wird könnten schon Informationen zur neuen GTX kommen. :D
Du scheinst in der Lage zu sein durch Wände zu sehen. Alles was man anhand des Bildes sagen kann, ist, dass ein Radiallüfter verbaut ist, welcher die Lüft nach draußen bläst.
Ich wette mit dir das ist der gleiche Lüfter der schon beim G80 vorhanden ist.
Beachtenswert finde ich vorallem den Knick im Kühlblech.
Da wird man wohl die Kühlfläche etwas vergrößert haben. Soll mir recht sein, wenn der Lüfter dadurch etwas langsamer drehen muss. :)
Wie schätzt ihr die G8800GTS@G92 mit 1GB Vram ein? ~60% schneller als die G8800GTS640@G80?
AnarchX
2007-11-15, 18:01:07
Wie schätzt ihr die G8800GTS@G92 mit 1GB Vram ein? ~60% schneller als die G8800GTS640@G80?
Wird wohl ganz auf die Speicherbandbreitenlast der App ankommen, sie liegt ja immernoch hinter den 64GB/s der G80-GTS, wobei NV von Verbesserungen in der Komprimierung bei G92 sprach.
Aber da ja die Games ihren Schwerpunkt immer mehr auf die Shader legen, werden die 80% Mehrleistung in diesem Punkt sicherlich in 2008 langsam durchkommen.
Da plant wohl jemand ein Upgrade? ;)
Hvoralek
2007-11-15, 18:02:46
Wie schätzt ihr die G8800GTS@G92 mit 1GB Vram ein? ~60% schneller als die G8800GTS@G80?Du meinst die G80- GTS- 640- 1 (*gnarf*)? Von den Eckdaten her ist die Artithmetikleistung 81% höher, die Texelfüllrate 73% und die Z- Füllrate 4%, die Bandbreite hingegen sogar 3% geringer :ugly:
Ohne AA dürfte die etwa 2/3 schneller sein, mit AA oder/und großen Texturen wird man sehen müssen, wieviel effizienter die Bandbreite bei G92 genutzt wird. Ich würde aber auch mit 4xAA im Schnitt noch 30% Vorsprung schätzen.
GeneralHanno
2007-11-15, 18:05:18
schnapp dir nen taschenrechner und rechne die rohleistung/füllraten usw aus ;)
8800GTS640 vs 8800GTS1024
346 GFLOPs vs ~600GFLOPs (+73%)
24000 MTex/s vs 41600MTex/s (+73%)
10000 MPix/s vs 10400Mpix/s (+4%)
64000 MB/s vs 64000MB/s (+0%)
640MiB vs 1024MiB (+60%)
reunion
2007-11-15, 18:06:24
Ich wette mit dir das ist der gleiche Lüfter der schon beim G80 vorhanden ist.
Schon möglich. Auch wenn ich nicht verstehe, warum du den Lüfter so vergötterst. Der Lüfter ist wie jeder Lüfter nur deshalb leise, weil er langsam drehen kann.
Da wird man wohl die Kühlfläche etwas vergrößert haben. Soll mir recht sein, wenn der Lüfter dadurch etwas langsamer drehen muss. :)
Ein Knick nach innen vergrößert die Kühlfläche? Das ist ja nur das Abdeckblech.
dargo
2007-11-15, 18:08:58
Wird wohl ganz auf die Speicherbandbreitenlast der App ankommen, sie liegt ja immernoch hinter den 64GB/s der G80-GTS, wobei NV von Verbesserungen in der Komprimierung bei G92 sprach.
Naja, gut. Mit 30Mhz mehr beim Speicher hat man die 64GB/s. :cool:
Trotzdem, bei einer "G8800Ultra" Rohleistung oder sogar etwas drüber ist es immer noch recht wenig. Was macht NV mit dem 1,6Ghz GDDR4 eigendlich? Für noch schnellere G92 bunkern? :D
Aber da ja die Games ihren Schwerpunkt immer mehr auf die Shader legen, werden die 80% Mehrleistung in diesem Punkt sicherlich in 2008 langsam durchkommen.
Hmm. :uponder:
Die 60% wären mir noch etwas zuwenig, aber bei 80% könnte man es sich überlegen.
Da plant wohl jemand ein Upgrade? ;)
Psst. ;)
Schon möglich. Auch wenn ich nicht verstehe, warum du den Lüfter so vergötterst. Der Lüfter ist wie jeder Lüfter nur deshalb leise, weil er langsam drehen kann.
Soll ich dich an den X1800XT/X1900XT Lüfter erinnern? ;)
Der war selbst auf minimalster Drehzahl hörbar.
Ein Knick nach innen vergrößert die Kühlfläche? Das ist ja nur das Abdeckblech.
Ups, ich hatte da wohl einen Denkfehler. Ich dachte die Höhe beim Lüfter würde der Höhe vom gesamten G80 Kühler entsprechen und nur wo die Kühllamellen vorhanden sind die Erhöhung. Das wird aber nicht klappen. Denn so würde man einen zusätzlichen Slot blockieren.
Wenn du so denkst/planst wirst du nie zum spielen kommen. Wenn die G8800GTS@G92 veröffentlicht wird könnten schon Informationen zur neuen GTX kommen. :D
ich hoffe, dass ich nirgendwo irgendwas von g92-gtx lese, sobald ich meine gts bestellt habe...sonst werde ich wahnsinnig!^^
reunion
2007-11-15, 18:32:17
Soll ich dich an den X1800XT/X1900XT Lüfter erinnern? ;)
Der war selbst auf minimalster Drehzahl hörbar.
Ja, weil minimalste Drehzahl AFAIK noch immer 7V waren.
dargo
2007-11-15, 19:19:39
Ja, weil minimalste Drehzahl AFAIK noch immer 7V waren.
Das spielt keine Rolle. Einen Schritt mit dem ATITool zurück und der Lüfter blieb stehen. ;)
Slipknot79
2007-11-15, 19:48:47
Specs G98:
65nm
533-ball BGA 23mm x 23mm (GB1-64) package
64-bit memory bus width
Naja nach dicken Eiern klingt das nicht so :(
=Floi=
2007-11-15, 20:20:19
wie stark werden sich die ROPs auswirken?
reunion
2007-11-15, 20:23:09
Du meinst die G80- GTS- 640- 1 (*gnarf*)? Von den Eckdaten her ist die Artithmetikleistung 81% höher, die Texelfüllrate 73% und die Z- Füllrate 4%, die Bandbreite hingegen sogar 3% geringer :ugly:
Ohne AA dürfte die etwa 2/3 schneller sein, mit AA oder/und großen Texturen wird man sehen müssen, wieviel effizienter die Bandbreite bei G92 genutzt wird. Ich würde aber auch mit 4xAA im Schnitt noch 30% Vorsprung schätzen.
Was reitet eigentlich nV die neuen Karten derart an der Bandbreite verhungern zu lassen? Schön langsam glaube ich wirklich, dass ein G92 nur vier ROP-Cluster hat, auch wenn das in meinen Augen nicht wirklich Sinn macht.
G92GTS ist das erwartete Upgrade fürs Upper Mainstream/Highend. Löst wohl die GTS ab, Ultra/GTX bleiben bis der Highend Nachfolger mit D3D10.1 kommt ^^
Das ein echter 8800 Nachfolger kommt in 3-6 Monaten ist doch so sicher wie das Amen in der Kirche. Wenn G9x eben auch 8800er Nummern bekommt, folgt ein Highend Upgrade zum erscheinen von D3D10.1 das sich namentlich absetzt. Geforce 9800 oder equivalent, eine Geforce 8900 gibts dann nicht. Dafür ist es zu spät, wenn man die Vergangenheit betrachtet (7800-7900).
Hingegen: Ist G92 einfach nur ein kostenoptimierter Chip des G80, setzt man ihn klar in die gleiche Produktreihe. Der D3D10.1 compilant Chip startet eine neue Namensreihe. Hoffen wir mal auf Ostern 2008 :) [Cebit...)]
laser114
2007-11-15, 20:42:06
Was reitet eigentlich nV die neuen Karten derart an der Bandbreite verhungern zu lassen? Schön langsam glaube ich wirklich, dass ein G92 nur vier ROP-Cluster hat, auch wenn das in meinen Augen nicht wirklich Sinn macht.
Der einzige Sinn darin dürfte darin bestehen, den High-End-Karten weiterhin noch eine Berechtigung zu geben bzw. das Namensschema zu erklären.
Hvoralek
2007-11-15, 20:50:39
wie stark werden sich die ROPs auswirken?Kaum. Die Pixelfüllrate ist egal und z-/ Stencilleistung sollten auch 4 RBEs reichlich liefern.
LovesuckZ
2007-11-15, 21:55:12
Was reitet eigentlich nV die neuen Karten derart an der Bandbreite verhungern zu lassen? Schön langsam glaube ich wirklich, dass ein G92 nur vier ROP-Cluster hat, auch wenn das in meinen Augen nicht wirklich Sinn macht.
Machen die 16 ROPs bei den rv670 Karten auch keinen Sinn? Oder würden sie erst dann keinen Sinn ergeben, wenn die Doppelherzkarte erscheint? :rolleyes:
Die Karte ist für nVidia wesentlich billiger in der Herstellung. Nur 512mb Speicher, nur 256bit Interface, wesentlich kleinerer Chip, wahrscheinlich eine biligere Kühllösung und das für 350$? Sieht vollkommen in Ordnung aus.
Nakai
2007-11-15, 21:59:10
Nur 512mb Speicher, nur 256bit Interface, wesentlich kleinerer Chip, wahrscheinlich eine biligere Kühllösung und das für 350$? Sieht vollkommen in Ordnung aus.
Da stimme ich dir zu. NV hat genau gewusst wie sie die Karte skalieren mussten um sie in ein preislichen Rahmen reinzurbingen.
Wie der Name schon sagt, ist das nur der G92. Vll kommt noch was nach, ich würde mich jedenfalls freuen. Nach den neuesten Infos wird wohl daraus nicht so schnell was.
Ein Doppel-G92 oder ein etwas schnellerer G90 wäre wünschenswert.
mfg Nakai
Nightspider
2007-11-15, 22:00:49
Boar ich spiele gerade Crysis. Das Spiel übertrifft nochmals die extrem hohen Erwartungen. Die Effekte sind einfach nur: :eek:
Und die Frames sind auch manchmal einfach nur :eek:
Ich brauch ne GeForce 9 ! Aber flott !
reunion
2007-11-15, 22:06:01
Machen die 16 ROPs bei den rv670 Karten auch keinen Sinn? Oder würden sie erst dann keinen Sinn ergeben, wenn die Doppelherzkarte erscheint? :rolleyes:
Wie unschwer zu erkennen war, ging es mir um das SI und nicht um die ROPs, bei nV hängt das nunmal zusammen. Aber das von dir nur irgend ein Dünnschiss kommt, war ja klar. Die 8800GT hängt in höherer Auflösung mit AA deutlich sichtbar an der Bandbreite. Die neue GTS bekommt einen Shader-Cluster mehr plus ~8% höhere Taktraten, aber nur lächerliche 8% mehr Speicherbandbreite, wird also noch mehr an der Bandbreite hängen. Aber tut mit vielmals leid, dass ich für deinen Götzen durch die Blume leises Unverständlich geäußert haben.
Die Karte ist für nVidia wesentlich billiger in der Herstellung. Nur 512mb Speicher, nur 256bit Interface, wesentlich kleinerer Chip, wahrscheinlich eine biligere Kühllösung und das für 350$? Sieht vollkommen in Ordnung aus.
Das bestreitet auch niemand, trotzdem wird hier Leistung verpulvert. Die Karte hat eine höhere Rechenleistung/Füllrate als eine 8800Ultra, wird aber mangels Bandbreite diese nicht ausspielen können. Keine Ahnung, warum nV den G80 unbedingt noch weiter leben lassen will.
AnarchX
2007-11-15, 22:07:24
Ich brauch ne GeForce 9 ! Aber flott !
Die gibt es bald:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6025633 :D
Aber eine HighEnd-GeForce9 wird es wohl eher im Januar/Februar geben.
Die neue GTS bekommt einen Shader-Cluster mehr plus ~8% höhere Taktraten, aber nur lächerliche 8% mehr Speicherbandbreite, wird also noch mehr an der Bandbreite hängen.
Das ist natürlich richtig, aber im Endeffekt hält man sie so in hohen Einstellungen von GTX und Ultra fern und stellt nach dem wohl nicht ganz geplanten Upgrade der 8800 GT auf 7C die alte Ordnung: GT<GTS<GTX<Ultra wieder her.
reunion
2007-11-15, 22:11:07
Das ist natürlich richtig, aber im Endeffekt hält man sie so in hohen Einstellungen von GTX und Ultra fern und stellt nach dem wohl nicht ganz geplanten Upgrade der 8800 GT auf 7C die alte Ordnung: GT<GTS<GTX<Ultra wieder her.
Sinn? Warum nicht den teuren G80 ersetzen?
dildo4u
2007-11-15, 22:14:20
Sinn? Warum nicht den teuren G80 ersetzen?
Weil der als GTX und Ultra eh nicht in Masse verkauft wird da kommt man noch lange mit den schon produzierten aus.Und so kann sich mit der New GTX/Ultra Zeit lassen.
reunion
2007-11-15, 22:17:08
Weil der als GTX und Ultra eh nicht in Masse verkauft wird da kommt man noch lange mit den schon produzierten aus.Und so kann sich mit der New GTX/Ultra Zeit lassen.
Ein G92 würde bei gleichem oder gar höheren Verkaufspreis weitaus mehr Margen bringen als ein G80.
laser114
2007-11-15, 22:20:49
Sinn? Warum nicht den teuren G80 ersetzen?
Anscheinend kriegt man die Bandbreite mit dem G92 wirklich nicht in akzeptablem Preisrahmen hoch genug, was dann wirklich für nur 256-Bit sprechen würde.
Hat Nvidia sich eventuell beim Speicherangebot Ende 2007 verschätzt?
Da kein Konkurrenzmodell existiert, muss man sich ja auch nicht beeilen. Vielleicht wartet man wirklich nur auf besseren Speicher.
Alternativ haben sie noch so viele G80-Restbestände ... das glaube ich aber eher nicht.
LovesuckZ
2007-11-15, 22:47:39
Das bestreitet auch niemand, trotzdem wird hier Leistung verpulvert. Die Karte hat eine höhere Rechenleistung/Füllrate als eine 8800Ultra, wird aber mangels Bandbreite diese nicht ausspielen können. Keine Ahnung, warum nV den G80 unbedingt noch weiter leben lassen will.
Natürlich spielt sie die höhrere Rechenleistung aus - das macht auch eine 8800GT. Erst beim Einsatz von AA wird sich das Ergebnis ändern. Viel schlimmer wiegen die 512mb Speicher. Ohne AA spielt Bandbreite so gut wie keine Rolle.
/edit: Die 8800GT ist trotz geringerer Speicherbandbreite selbst bei 8AA meisten noch vor der GTS. Und der Abstand zur 8800GTX ist nur bei der Überfüllung des Speicher bei 50%+.
James Ryan
2007-11-16, 05:52:45
Ein G92 würde bei gleichem oder gar höheren Verkaufspreis weitaus mehr Margen bringen als ein G80.
Das ist NVIDIA relativ egal, G80 wird eh kaum/gar nicht mehr produziert und wenn dann nur noch auf GTX/Ultra Karten gepflanzt die kaum noch jemand kauft.
Wozu eine G92-GTX bringen?
Das erfordert nochmal ein neues PCB, deutlich höhere Taktraten (=schlechtere Yields) und vor allem Geld.
MfG :cool:
Ailuros
2007-11-16, 06:14:07
Wie unschwer zu erkennen war, ging es mir um das SI und nicht um die ROPs, bei nV hängt das nunmal zusammen. Aber das von dir nur irgend ein Dünnschiss kommt, war ja klar. Die 8800GT hängt in höherer Auflösung mit AA deutlich sichtbar an der Bandbreite. Die neue GTS bekommt einen Shader-Cluster mehr plus ~8% höhere Taktraten, aber nur lächerliche 8% mehr Speicherbandbreite, wird also noch mehr an der Bandbreite hängen. Aber tut mit vielmals leid, dass ich für deinen Götzen durch die Blume leises Unverständlich geäußert haben.
Eine 8800GT haengt zuerst an ihrer Z-Fuellrate ab und dann erst an der Bandbreite. Manchmal benehmt Ihr Euch als ob Ihr nie ein Block-diagram einer GPU gesehen habt. Wie verlaeuft der Datenstrom denn bei einer GPU genau, bevor das Resultat in den RAMDAC stroemt?
Das bestreitet auch niemand, trotzdem wird hier Leistung verpulvert. Die Karte hat eine höhere Rechenleistung/Füllrate als eine 8800Ultra, wird aber mangels Bandbreite diese nicht ausspielen können. Keine Ahnung, warum nV den G80 unbedingt noch weiter leben lassen will.
Kuh so gut wie moeglich ausmelken faellt der Groschen? *grins*
Spass beiseite ich muss bei diesem Punkt Lovesuck doch recht geben; wenn es ebenso bei der Konkurrenz aussieht kann man sich solchen Bloedsinn leisten. Ueberhaupt wenn ROP!=ROP zwischen den beiden Architekturen liegt.
Trotz angeblichen "Aenderungen" ist der generelle Durchbruch pro ROP immer noch 2:1 zwischen G92 und RV670.
Ailuros
2007-11-16, 06:16:05
Nebenbei ich hab meine 2*G92@GX2 These immer noch nicht aufgegeben; was ich aber dann verdaechtige ist eine ebenso kurze Lebenszeit wie bei der 7950GX2 ;)
AnarchX
2007-11-16, 07:44:01
G92 GeForce 8800 GTS 512 Card Pics & Specs (http://www.vr-zone.com/?i=5405)
http://img113.imageshack.us/img113/2364/8800gts5121kg0.jpg
http://img113.imageshack.us/img113/4593/8800gts512vq0.jpg
http://img113.imageshack.us/img113/9351/8800gts5122ck9.jpg
Nvidia D9E To Fight AMD R680 (http://www.vr-zone.com/?i=5404)
There is no D8E if you are wondering. D9E is expected to launch in February next year to meet head on against R680.
Mit dem Datum gehe ich mit, aber an 2xG92 glaube ich eher nicht...
ShinyMcShine
2007-11-16, 08:05:04
G92 GeForce 8800 GTS 512 Card Pics & Specs (http://www.vr-zone.com/?i=5405)
Nvidia D9E To Fight AMD R680 (http://www.vr-zone.com/?i=5404)
Mit dem Datum gehe ich mit, aber an 2xG92 glaube ich eher nicht...
Oh je, nVidia setzt wirklich auf eine Preisspanne von 300-350$ für die 512MB Version? Ich hätte bei dem doch relativ moderat getaktetem VRAM und den heutigen Speicherpreisen damit gerechnet, dass die 1024MB Karte um die 350$ kostet, aber daraus wird wohl nix werden. :( Zu mal von der 1024MB Karte noch nirgends die Rede ist. Meint Ihr, die kommt diese Jahr überhaupt noch?
Also werde ich mir wohl doch eine ab Werk übertaktete 8800GTS@G92 für ca. 330EUR holen "müssen". :) So ca. Core@680MHz, SPs@1700MHz und RAM@1050MHz würden mir gefallen... :cool: Mal schauen was Gainward und Co. anbieten...
Schönes Kärtchen, könnte eventuell die Ablöse für meine jetzige GTS werden! :)
MfG :cool:
James@work
GeneralHanno
2007-11-16, 08:36:37
im artikel steht der D9E wäre eine GX2@2*G92 und soll im feb.08 kommen. die neuen SKU bezeichnungen sind echt für den a****. warum gehört die singelkarte zur 8. generation, die dual-karte aber zur 9. ? :confused:
AnarchX
2007-11-16, 09:14:42
Weil D8E ~ G80-SKUs.
Und D9E wird wohl eben auch eine GeForce9 sein...
Na dann werd ich wohl vorher meine 8800GT über eBay verkaufen und mir eine 8800GTS auf G92-Basis zulegen. Wenn das Ding nicht mehr als 300€ kostet, ist sie mein ;)
Adam D. @ work
Irgendwann im März 2008 wird sie dann auch verfügbar sein :)
Wilde Spekulation: :)
Die Ausbeute des G92 war zu gut! Darum gibt es so wenige GT-Karten!
Da zu viele der G92 Chips mit Ihren 128 SPs und den GTS-Takten liefen, hat sich nVidia diese lieber für die teurere Karte aufgehoben. Somit wird die neue GTS in ausreichenden Stückzahlen verfügbar sein! ;)
dargo
2007-11-16, 13:29:45
Wilde Spekulation: :)
Die Ausbeute des G92 war zu gut! Darum gibt es so wenige GT-Karten!
Da zu viele der G92 Chips mit Ihren 128 SPs und den GTS-Takten liefen, hat sich nVidia diese lieber für die teurere Karte aufgehoben. Somit wird die neue GTS in ausreichenden Stückzahlen verfügbar sein! ;)
Würde durchaus Sinn machen. NV wollte wohl unbedingt AMD die Show mit der G8800GT stehlen.
ShinyMcShine
2007-11-16, 15:47:54
Wilde Spekulation: :)
Die Ausbeute des G92 war zu gut! Darum gibt es so wenige GT-Karten!
Da zu viele der G92 Chips mit Ihren 128 SPs und den GTS-Takten liefen, hat sich nVidia diese lieber für die teurere Karte aufgehoben. Somit wird die neue GTS in ausreichenden Stückzahlen verfügbar sein! ;)
Das ging mir auch schon durch den Sinn! Erstmal ATI den Wind aus den Segeln nehmen, dann weiterschauen. So wie es momentan aussieht kann ATI auch nicht gerade mit einer tollen Verfügbarkeit beim RV670 glänzen (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1195215227). Somit kommt wieder kein "richtiger" Konkurrenzkampf zustande...
GeneralHanno
2007-11-16, 15:52:24
wartet doch noch 6 wochen, bis nach weihnachten.
1. dann sollte die verfügbarkeit besser sein -> bessere preise
2. dann ist weihnachten vorbei und die preise fallen sowieso ;)
ShinyMcShine
2007-11-16, 16:05:08
wartet doch noch 6 wochen, bis nach weihnachten.
1. dann sollte die verfügbarkeit besser sein -> bessere preise
2. dann ist weihnachten vorbei und die preise fallen sowieso ;)
Crysis, UT3, NfS und Co. warten halt net so lange. :) Dass muss einem halt der kleine Aufpreis wert sein, hehe... ;D
Blacksoul
2007-11-16, 16:13:17
wartet doch noch 6 wochen, bis nach weihnachten.
1. dann sollte die verfügbarkeit besser sein -> bessere preise
2. dann ist weihnachten vorbei und die preise fallen sowieso ;)
Warten kann man immer.
"6 Wochen, bis nach Weihnachten" stehen schon wieder neue Karten "vor der Türe".
t.b.d
K4mPFwUr$t
2007-11-16, 16:27:21
warten in der IT welt gibt es nicht ;D
Hvoralek
2007-11-16, 18:09:30
Eine 8800GT haengt zuerst an ihrer Z-Fuellrate ab und dann erst an der Bandbreite.Ich kann mir kaum vorstellen, dass G92 so viel effizienter mit Bandbreite umgeht, dass trotz der deutlich höheren Z- Füllrate 1/4 langsamerer Speicher als bei der 3870 bequem ausreicht. ATI wird dort ja auch nicht ohne Grund GDDR4 verbauen.
Anarchy-HWLUXX
2007-11-16, 18:38:58
Crysis, UT3, NfS und Co. warten halt net so lange. :) Dass muss einem halt der kleine Aufpreis wert sein, hehe... ;D
LoL ? Werden bei dir die Games schlechter mit der Zeit oder wie ... normalerweise werden se ja besser mit Patches und besseren treibern usw.
Ich kann mir kaum vorstellen, dass G92 so viel effizienter mit Bandbreite umgeht, dass trotz der deutlich höheren Z- Füllrate 1/4 langsamerer Speicher als bei der 3870 bequem ausreicht. ATI wird dort ja auch nicht ohne Grund GDDR4 verbauen.
Du hast wohl vergessen was der R600 mit seiner exorbitanten Bandbreite (mehr! als eine Ultra) angestellt hat, gar nix...
Undertaker
2007-11-16, 19:05:55
LoL ? Werden bei dir die Games schlechter mit der Zeit oder wie ... normalerweise werden se ja besser mit Patches und besseren treibern usw.
nö, aber dann gibts schon die nächsten kracher ;)
dargo
2007-11-16, 19:08:30
Crysis, UT3, NfS und Co. warten halt net so lange. :) Dass muss einem halt der kleine Aufpreis wert sein, hehe... ;D
Bis auf Crysis laufen die anderen Games mit einem G80 butterweich. Natürlich bei "moderater" Auflösung.
skivi
2007-11-16, 19:34:51
Naja, gut. Mit 30Mhz mehr beim Speicher hat man die 64GB/s. :cool:
Trotzdem, bei einer "G8800Ultra" Rohleistung oder sogar etwas drüber ist es immer noch recht wenig. Was macht NV mit dem 1,6Ghz GDDR4 eigendlich? Für noch schnellere G92 bunkern? :D
Hmm. :uponder:
Die 60% wären mir noch etwas zuwenig, aber bei 80% könnte man es sich überlegen.
Psst. ;)
Dargo du weisst sicher noch wo ich folgendes geschrieben habe:
Die neue 8800 GTS G92 ist ja nicht mehr weit. ;)
Als ob die was reißen könnte. :rolleyes:
So schnell kann sich das Blatt wenden =)
Btw: Wenn die wirklich so stark ist, geht meine alte in Pension bzw. wechselt den Besitzer.
dargo
2007-11-16, 20:10:28
Dargo du weisst sicher noch wo ich folgendes geschrieben habe:
Die neue 8800 GTS G92 ist ja nicht mehr weit. ;)
So schnell kann sich das Blatt wenden =)
Btw: Wenn die wirklich so stark ist, geht meine alte in Pension bzw. wechselt den Besitzer.
Was soll sich da wenden? Selbst wenn die neue GTS@G92 80% schneller wäre als die alte GTS sind es immer noch nur ~24% mehr Leistung als eine G8800GTX. So wie heute Crysis performt müsste man eine Karte mit der 3 fachen Leistung einer G8800GTX verbauen um wirklich Spaß mit max. Details zu haben. Wobei ich mir bei DX10 sogar nicht sicher bin ob die dreifache Leistung überhaupt in jeder Situation reichen würde. X-D
Edit:
Ich frage mich gerade ob Crysis wirklich soviel Rechenpower braucht oder ob Crytek von EA unter Druck gesetzt worden ist damit das Game unbedingt zum Weihnachtsgeschäft 2007 erscheint. Denn...
http://www.gamestar.de/news/pc/spiele/action/egoshooter/crysis/1475537/crysis.html
skivi
2007-11-16, 20:14:32
Ich könnte aber bestimmt paar Details hochsetzen und doch noch eine bessere Framerate haben als mit der jetzigen um das geht es doch;)
Und zu dem Preis @ GTX/Ultra oder vielleicht sogar noch ein wenig drüber, sage ich nicht nein.
Kann Dargo nur zustimmen, wer eine GTS640 hat, der brauch keine neu Karte da diese nicht wirklich mehr Performance rausquetschen, einzig mit einer Ultra macht man richtigen Sprung nach vorne.
Und eine 2xG92 macht sich lächerlich in DX10 solange SLI da nicht funst, vorallem wenn beide GPUs nur 512MB bekommen. Fast schon lachhaft bei richtigem Highend wo Auflösungen und AA keine Grenzen kennen, da wird die Ultra wohl noch 6Monate alles in die Schranken verweisen.
Hvoralek
2007-11-17, 00:01:04
Du hast wohl vergessen was der R600 mit seiner exorbitanten Bandbreite (mehr! als eine Ultra) angestellt hat, gar nix...Den mit diesen Schrott- ROPs überflüssigen 512- bit- Bus hatte man im R600- Design nun mal drin. Vlt. hat man sich entschieden, zumindest an einer Stelle bei den Eckdaten vorne zu liegen, statt noch ein paar $$ mehr am Speicher zu sparen. Bei der 3870 wäre es aber kein Problem gewesen, z.B. nur 900- MHz- Speicher zu verbauen, wenn man mit mehr Bandbreite nichts anfangen kann, und 1200er- Speicher dürfte dort auch noch ein Stück teurer sein. Außerdem ist immer noch unklar, was da an der Architektur repariert wurde.
Wollte mir gerade die Bilder der neuen GTS direkt bei IT168.com ansehen und bekomme folgende Meldung von Antivir:
In der Datei 'C:\Users\wüterich\AppData\Roaming\Opera\Opera\profile\cache4\opr09W9T.js'
wurde ein Virus oder unerwünschtes Programm 'JS/Iframe.B' [JS/Iframe.B] gefunden.
'C:\Users\wüterich\AppData\Roaming\Opera\Opera\profile\cache4\opr09WA4.htm'
wurde ein Virus oder unerwünschtes Programm 'HEUR/Exploit.HTML' [HEUR/Exploit.HTML] gefunden.
Nur ne Fehlmeldung oder tatsächlich was böses?
skivi
2007-11-17, 11:27:16
Kann Dargo nur zustimmen, wer eine GTS640 hat, der brauch keine neu Karte da diese nicht wirklich mehr Performance rausquetschen, einzig mit einer Ultra macht man richtigen Sprung nach vorne.
Und eine 2xG92 macht sich lächerlich in DX10 solange SLI da nicht funst, vorallem wenn beide GPUs nur 512MB bekommen. Fast schon lachhaft bei richtigem Highend wo Auflösungen und AA keine Grenzen kennen, da wird die Ultra wohl noch 6Monate alles in die Schranken verweisen.
Das ist ja der springende Punkt ev. könnte sie sogar eine Ultra einholen und ist sogar noch billiger als meine GTS die ich anfangs Jahr gekauft habe.
Aber jedem das seine.:rolleyes:
troublemaker55
2007-11-17, 13:15:14
Hier mal ein paar Bilder zu der neuen G92 8800 GTS:
http://www.vr-zone.com/articles/G92_GeForce_8800_GTS_512_Card_Pics_%26_Specs/5405.html
Ich hoffe mal, dass sie die Temperaturen damit besser in den Griff bekommen, als bei der 8800GT.
ich find das design schon arg komisch
potthässlich (mitlererweile scheint für manche kunden ja sogar das design der hardware wichtig zu sein)
und dann auhc noch dieser höhenunterschied, der imho nicht mal nen rechten winkel enthält
sieht irgendwie voll schief aus
Nakai
2007-11-17, 13:49:26
Jup, dem muss ich zustimmen. Wenn das wirklich der finale Kühlkörper ist, dann haben die Designer einige Fehlentscheidungen getroffen. Die Karte sieht wirklich nicht gerade toll aus. Vll ist das Design aber für einen besseren Luftstrom optimiert.
mfg Nakai
AnarchX
2007-11-17, 13:53:52
Was ist am Design auszusetzen, auf der NV-Folie sieht sie dank NV-Design doch schon besser aus:
http://img440.imageshack.us/img440/2889/nvidiageforce8800gts512av9.jpg
Imo hat sie etwas von einem bulligen SUV, was im Bezug auf die GPU auch durchaus passt. :D
Soll ja immer noch Leute geben die kein Window und tausend Lichterchen im PC verbaut haben, und denen es ziemlich wurscht ist wie die Karte aussieht, Hauptsache leise und schnell.
Die_Allianz
2007-11-17, 13:55:47
meinetwegen kann der kühler hässlich wie die nacht sein! er ist dafür da, die enstehende Abwärme effizient abzuführen! sonst nix.
Und die leute, die nen blinkenden PC mit Plexi-Fenster haben...... werden auch irgendwann erwachsen. Wenn nicht, sollen die doch nen neuen LED-Kühler kaufen. Ich will das beim Kauf nicht mitfinanzieren, da ich die Karte nur beim ein-, und dann nochmal beim ausbauen sehe.
ShinyMcShine
2007-11-17, 14:00:22
Auf HT4U schreiben sie jetzt: "Für den 12. Dezember soll der Launch der neuen GeForce 8800 GTS geplant sein welche es dann als 512 MB und als 1024 MB Variante geben wird."
Ich dachte 03.12.! :confused: Will nicht noch 9 Tage länger warten müssen!
Imo hat sie etwas von einem bulligen SUV, was im Bezug auf die GPU auch durchaus passt. :D
wie gut das du kein autodesigner bist ;)
ne mir ist das design ja auch egal
aber nach den "designerstücken" der 8800gts aber auch gt etwas verwunderlich
erst nutzen sie schön glänzenden lack und ne schöne abdeckung die nichts bringt
und jetzt auf einmal back 2 the roots?
dargo
2007-11-17, 15:34:52
Soll ja immer noch Leute geben die kein Window und tausend Lichterchen im PC verbaut haben, und denen es ziemlich wurscht ist wie die Karte aussieht, Hauptsache leise und schnell.
Richtig. Die Karte soll Leistung bringen und keinen Schönheitswettbewerb gewinnen. :D
Nakai
2007-11-17, 17:21:09
Trotzdem ist sie potthässlich. :D
Das ist nur meine subjektive Meinung und ja ich weiß, dass Aussehen nicht das Wichtigste ist. Die inneren Werte sind viel wichtiger.;D
Was ist am Design auszusetzen, auf der NV-Folie sieht sie dank NV-Design doch schon besser aus:
Naja 2 weiße Streifen...
Die Karte soll Leistung bringen und keinen Schönheitswettbewerb gewinnen.
Die wurde da den Trostpreis bekommen...:rolleyes:
mfg Nakai
=Floi=
2007-11-17, 17:33:14
was habe ich von kühlern die toll aussehen aber laut sind?
jetzt könnte ich da wieder die andere marke nennen, die mit den durchsichtigen heatpipe kühlern wirklich optisch schöne karten baut aber teilweise einfach zu laut sind
Nakai
2007-11-17, 17:49:26
Ich sagte bereits, das ist mein subjektives Empfinden. Hier gehts nicht darum, dass ihr die Karte nun rechtfertigen müsst. Für ihren Preisbereich ist die Karte von der Leistung her Top!
Dagegen sag ich nichts, für 350€ gibts nichts besseres.
Dennoch bleib ich dabei:
Die Karte ist potthässlich.;D
Zum Glück suche ich normalerweise Karten nicht nach dem Äußerem aus.
mfg Nakai
=Floi=
2007-11-17, 18:01:25
wenn ich mir eine 8800GTS+ mit G92 kaufen sollte, kommt eh ein VF900 drauf
1 Jahr rum und nur lahm getunte 8800er,enttäuschend
James Ryan
2007-11-17, 18:20:36
Egal wie die Karte aussieht, hauptsache der Kühler ist leise und effizient.
Auf Austauschlüfter habe ich keine Lust, aus Garantie- und Wiederverkaufsgründen.
Ich hoffe auch dass Zotac eine gut übertaktete GTS bringt, dann schlage ich zu!
MfG :cool:
(+44)
2007-11-17, 19:02:07
...wäre es bei all deinem nvidia-Enthusiasmus nicht klug, erstmal abzuwarten? ;)
Wirklich arg schneller als deine GTS werden all diese Karten nicht, vielleicht hat die 9800GTX dann endlich mal einen Mehrwert für dich, aber jetzt umzurüsten is eh nich so toll, zumindest wenn man die alte Karte verkaufen will.
ShinyMcShine
2007-11-17, 20:21:09
Egal wie die Karte aussieht, hauptsache der Kühler ist leise und effizient.
Auf Austauschlüfter habe ich keine Lust, aus Garantie- und Wiederverkaufsgründen.
Ich hoffe auch dass Zotac eine gut übertaktete GTS bringt, dann schlage ich zu!
MfG :cool:
Dem ist nichts hinzuzufügen! Dann hat auch meine ASUS X1950Pro ausgedient!
Anarchy-HWLUXX
2007-11-17, 21:57:01
Trotzdem ist sie potthässlich. :D
Unfug, ich find se cool :p
Ailuros
2007-11-18, 07:55:23
Ich kann mir kaum vorstellen, dass G92 so viel effizienter mit Bandbreite umgeht, dass trotz der deutlich höheren Z- Füllrate 1/4 langsamerer Speicher als bei der 3870 bequem ausreicht. ATI wird dort ja auch nicht ohne Grund GDDR4 verbauen.
Wie sieht es denn mit der 4xAA Leistung zwischen den beiden genau aus?
http://www.hardware.fr/articles/693-1/dossier-amd-radeon-hd-3800.html
Es testet ja leider fast keiner mehr mit 2xAA, aber ein Zyklus im Vergleich zu 2 fuer 4xAA ist der Bandbreite nicht gerade egal.
AnarchX
2007-11-18, 08:00:13
EVGA's MOD RIG leaks upcoming flagship products? (http://www.rwlabs.com/newsitem.php?id=11)
8850GT X2 and 8900 GTX "Black Pearl"
GeForce 9800 GTX 1.5GB
Wohl eher ein Scherz der Betreiber dieser Datenbank.
GeneralHanno
2007-11-18, 08:51:22
@Ailuros:
schau mal auf CB. die haben AA skalierung im test ;)
@anarchX: wenn die gerüchte stimmen, dann hießen 1,5GiB -> 384bit SI -> 6ROP-part
Ailuros
2007-11-18, 09:25:15
@Ailuros:
schau mal auf CB. die haben AA skalierung im test ;)
Komischerweise zeigt CB noch ein besseres Bild fuer die G92 in 1280/4xAA:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/28/#abschnitt_performancerating
http://www.hardware.fr/articles/693-15/dossier-amd-radeon-hd-3800.html
Hardware.fr benutzt auch teilweise andere Spiele und hat auch Transparenz-MSAA eingeschaltet.
Hier die Z-Fuellraten fuer beide von CB und auch Fablemark Resultate:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/10/#abschnitt_theoretische_benchmarks
Mit 4xAA ist die 3870 ebenso grottig wie die 2900 in einem rein stencil-Fuellraten limitierten synthetischen Test.
Etwas fundamentales scheint sich an den 3870 ROPs nicht geaendert zu haben und leider hat bis jetzt noch keiner synthetische MRT Tests vorgenommen.
Falls Du jetzt auf 8xMSAA anspielen solltest; Mahlzeit. Dieses ist sogar auf einer 8800GTX/Ultra eher selten spielbar.
GeneralHanno
2007-11-18, 09:32:35
an dem füllraten tests @ CB sieht man sehr schön, dass diese beim R600 und RV670 quasi gleich sind, also dass der kern(insb. die TMUs, ROPs) eigentlich nicht überarbeitet wurden (leider). die verbesserte AA performence soll ja auf das verbesserte shader-resolve zurück zu führen sein , aber das findet ja eben in den shadern und nicht den ROPs statt, weshalb die füllraten immer noch so niedrig sind ;)
reunion
2007-11-18, 18:59:54
EVGA leaked 9800GTX 1.5Gb, 8900GTX "Black Pearl", 8850GTX2:
http://img250.imageshack.us/img250/994/attachmenta593bdbac6.png
http://img260.imageshack.us/img260/1182/nvidianewsrwbmvcard1550wq3.jpg
http://forum.donanimhaber.com/m_19129325/tm.htm
AnarchX
2007-11-18, 19:10:19
4 Posts über dir... ;)
Aber ernstnehmen würde ich diese etwas seltsam Unterrubrik bei EVGA eher nicht, zudem wenn dann eine von diesen dreien...
reunion
2007-11-18, 19:14:18
Oh sorry.
Rahat güzelinden bir bilgisayar toplanır herhalde
muuuhhaaaaaaaaaa ist der Satz geil
Bei EVGA kann man GPU-Namen selber in eine Datenbank eintragen. Siehe VR-Zone Thread. HD6660 lol
Spasstiger
2007-11-19, 08:10:13
Warum GDDR3-RAM bei der 8800 GTS und nicht GDDR4-RAM? Will man der 8800 GTX und Ultra noch eine Existenzberechtigung lassen?
AnarchX
2007-11-19, 08:27:31
Warum GDDR3-RAM bei der 8800 GTS und nicht GDDR4-RAM? Will man der 8800 GTX und Ultra noch eine Existenzberechtigung lassen?
Anzunehmen, alternativ wäre es auch möglich das NV einfach keinen Zugriff auf (1-1.4GHz) GDDR4 hat und die Produktion von Samsung an ATi geht.
Wobei Hynx nun auch produziert.
Zudem kommt ja noch, dass man das 8800 GT PCB mit 3 Phasen für die GPU hier verwenden wird.
AnarchX
2007-11-19, 09:50:42
G98:
http://img340.imageshack.us/img340/5290/g98core94c2794ok5.jpg
http://www.expreview.com/news/hard/2007-11-19/1195448531d6978.html
85mm² @ 65nm und dann soll es nur ein halber G86 (bei TMU/SPs) sein? Das mag ich doch zu beweifeln... ;)
Hakim
2007-11-19, 12:40:47
Kann man ungefähr einschätzen wie schnell die neue GTS sein wird? Laut Datenblatt ändert sich ja nicht sehr viel gegenüber einer GT. Also wenn die neue GTS wirklich deutlich besser sein sollte als eine OC 88GT, werde ich wohl das stepup nutzen und auf eine GTS upgraden.
ShinyMcShine
2007-11-19, 12:47:15
Die 8800GTX wird mit normalen Displaysettings und bis 1600x1200 wohl schon überholt werden. Darüber macht sich die höhere Bandbreite der alten 8800er Highendkarten sicher bemerkbar. Für die Ultra wird es in dem einen oder anderen Benchmark wohl auch reichen, wenn man bedenkt, wie die 8800GT abgeschnitten hat.
mapel110
2007-11-19, 12:51:28
ca 23 % mehr Rohpower wird die neue GTS haben gegenüber der 8800 GT, aber nur etwa 5-6 % mehr Speicherbandbreite. Shadertakt wurde allerdings auch nur um einige Prozent gesteigert (unter 10%), also lohnt das warten nur im Hinblick auf die 1GB-Variante imo. Mehr Vram ist immer gut. ;)
fulgore1101
2007-11-19, 13:22:01
kommen dieses jahr jetzt also in der tat noch 2 neue gts modelle auf den markt? eine mit g80 und eine mit g92 chip? oder ist das unsinn?
ich blick da nicht durch.:rolleyes:
AnarchX
2007-11-19, 13:25:54
Das Problem ist nunmal die 8800 GT, welche schneller werden musste, als ursprünglich geplant war um gegenüber dem RV670, den man unterschätz hatte, gut dazustehen.
Mit der 112SP-G80-GTS jetzt und nun der G92-GTS im Dezember versucht NV wieder die Ordnung GT<GTS herzustellen.
Das Problem ist nunmal die 8800 GT, welche schneller werden musste, als ursprünglich geplant war um gegenüber dem RV670, den man unterschätz hatte, gut dazustehen.
Mit der 112SP-G80-GTS jetzt und nun der G92-GTS im Dezember versucht NV wieder die Ordnung GT<GTS herzustellen.
Naja, sieht aber momentan eher so aus, als ob NVIDIA den RV670 zuletzt überschätzt hat.
Die GT ist teilweise mehr als 20% schneller, eine 6 Cluster GT hätte eigentlich auch gegen den RV670 gereicht.
MfG :cool:
James@work
LovesuckZ
2007-11-19, 14:01:05
Naja, sieht aber momentan eher so aus, als ob NVIDIA den RV670 zuletzt überschätzt hat.
Die GT ist teilweise mehr als 20% schneller, eine 6 Cluster GT hätte eigentlich auch gegen den RV670 gereicht.
Ja, mit 6 Cluster wäre man nur ca. 15% langsamer, wenn nicht sogar weniger. Auch wäre man mit 6 Cluster immernoch schneller als eine 8800GTS, eben nur nichtmehr so verdammt viel. Ich sehe hier daher keine Panikaktionen von nVidia.
sklave_gottes
2007-11-19, 16:22:37
Wie sieht es denn mit der 4xAA Leistung zwischen den beiden genau aus?
http://www.hardware.fr/articles/693-1/dossier-amd-radeon-hd-3800.html
Es testet ja leider fast keiner mehr mit 2xAA, aber ein Zyklus im Vergleich zu 2 fuer 4xAA ist der Bandbreite nicht gerade egal.
Weder mit 2aa noch mit 4aa kann der g92 die fps besser halten als der rv670.
Mit anderen Worten der g92 verliert mehr leistung beim zuschalten von aa.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/5/#abschnitt_aa_und_af_skalierung
Zitat von LovesuckZ
Ja, mit 6 Cluster wäre man nur ca. 15% langsamer, wenn nicht sogar weniger. Auch wäre man mit 6 Cluster immernoch schneller als eine 8800GTS, eben nur nichtmehr so verdammt viel. Ich sehe hier daher keine Panikaktionen von nVidia.
Ja auch mit 6 cluster wäre man bei 1280x1024 4aa/16af noch vorne, aber nicht mehr so deutlich. Ich finde es gut so wie es ist :-)
mfg martin
reunion
2007-11-19, 16:40:28
Naja, sieht aber momentan eher so aus, als ob NVIDIA den RV670 zuletzt überschätzt hat.
Die GT ist teilweise mehr als 20% schneller, eine 6 Cluster GT hätte eigentlich auch gegen den RV670 gereicht.
MfG :cool:
James@work
Ja, und teilweise ist der RV670 mehr als 20% schneller. Wenn ich jetzt vom CB-Rating ausgehe, dann ist ein RV670 schlimmstenfalls 16% langsamer als eine 8800GT in 1280 x 1024 4AA/8AF. Überall anders ist die Differenz deutlich geringer, zum Teil zieht RV670 sogar vorbei. Sechs Cluster hätte vielleicht für einen Gleichstand gereicht, aber für mehr nicht. Zudem sollte ja RV670 ursprünglich mit 825Mhz - also 6.5% höher - takten. Der zusätzliche Cluster bei der 8800GT war also allemal nötig, da man natürlich die Konkurrenz schlagen wollte. Der Kunde kann sich freuen, da er jetzt für sehr wenig Geld sehr viel Leistung bekommt.
Weder mit 2aa noch mit 4aa kann der g92 die fps besser halten als der rv670.
mfg martin
Wo wurde denn 2xAA getestet?
arcanum
2007-11-19, 16:55:00
um mal die phasen-diskussion neu zu entfachen:
http://www.xtremesystems.org/forums/showpost.php?p=2565611&postcount=80
ich höre jetzt schon die ersten leute das massensterben bei der GTS prophezeien ;)
aber spass beseite: wenn nvidia 2 phasen für die GTS als ausreichend erachtet, wird es für die GT alle mal reichen.
Spasstiger
2007-11-19, 16:57:33
Soll die neue 8800 GTS jetzt eigentlich wirklich 350€ kosten mit nur 512 MiB VRAM?
Für den Preis hätte man sich auch längst eine gebrauchte 8800 GTX holen können.
Und der Performancevorteil gegenüber der 8800 GT dürfte mit 512 MiB GDDR3-Speicher auch nur gering ausfallen, jedenfalls nicht so hoch, dass sich alleine dafür die Mehrkosten lohnen würden.
Wann kommt denn eine neue GPU-Generation bei NV?
LovesuckZ
2007-11-19, 16:58:36
Ja, und teilweise ist der RV670 mehr als 20% schneller. Wenn ich jetzt vom CB-Rating ausgehe, dann ist ein RV670 schlimmstenfalls 16% langsamer als eine 8800GT in 1280 x 1024 4AA/8AF. Überall anders ist die Differenz deutlich geringer, zum Teil zieht RV670 sogar vorbei.
6 Cluster != andere AA Ergebnisse.
Nakai
2007-11-19, 17:03:52
6 Cluster != andere AA Ergebnisse.
Das stimmt, nur wäre dann der G92 einfach noch etwas langsamer. Aber ich denke NV hätte dann den Takt etwas angepasst.
mfg Nakai
sklave_gottes
2007-11-19, 17:05:46
Wo wurde denn 2xAA getestet?
Habe ich doch oben schon verlinkt. Geh doch einfach mal drauf und skroll runter :wink:
Bei AF skall Test.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/5/#abschnitt_aa_und_af_skalierung
AnarchX
2007-11-19, 17:19:00
Soll die neue 8800 GTS jetzt eigentlich wirklich 350€ kosten mit nur 512 MiB VRAM?
Für den Preis hätte man sich auch längst eine gebrauchte 8800 GTX holen können.
Und der Performancevorteil gegenüber der 8800 GT dürfte mit 512 MiB GDDR3-Speicher auch nur gering ausfallen, jedenfalls nicht so hoch, dass sich alleine dafür die Mehrkosten lohnen würden.
Nein nicht 350€, sondern bis zu $349, was dann mit passender Verfügbarkeit im Januar wohl um die 300€ sein sollten.
Wann kommt denn eine neue GPU-Generation bei NV?
G9x ist doch die neue Generation, im Januar/Februar wird es dann imo GF9800 mit einem voll ausgereizten G92 geben...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.