Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x - Teil 3
laser114
2007-11-30, 22:41:12
Große Designänderungen sind wohl eher nicht nötig, denke ich mal. Was hat AMD denn groß geändert?
Die meisten Features dürfte auch der G80 unterstützen, eventuell müssen ein paar Kleinigkeiten geändert werden.
skivi
2007-12-01, 13:55:41
Dann ist der G92 nur ein Lückenfüller. Und mit der Geforce 9 Serie wird es auch wieder eine anständige GTS geben. 9800GTS
dargo
2007-12-01, 13:58:30
Dann ist der G92 nur ein Lückenfüller. Und mit der Geforce 9 Serie wird es auch wieder eine anständige GTS geben. 9800GTS
Klar ist es ein Lückenfüller. Schließlich brauchte NV eine Performancekarte im Bereich von 200€.
James Ryan
2007-12-01, 13:58:49
Dann ist der G92 nur ein Lückenfüller. Und mit der Geforce 9 Serie wird es auch wieder eine anständige GTS geben. 9800GTS
Der G92 ist quasi NVIDIAs X1950 Pro: Günstig zu fertigen bei anständiger Leistung.
Ich bin mal gespannt wie die Gf 9 Reihe aussehen wird. Gibt es wieder anfangs nur GTX und GTS? Wird es endlich einen vernünftigen 2D-Modus geben?
MfG :cool:
laser114
2007-12-01, 14:56:44
Alternate beginnt wohl mit dem Ausverkauf der 8800 GTX (399€):
http://www.alternate.de/html/shop/productDetails.html?artno=JBXVG1&baseId=13384
(Preisentwicklung: http://geizhals.at/deutschland/?phist=224909&age=365)
Die neue 8800 GTS dürfte daher wirklich bald kommen.
Mal ne kurze Zwischenfrage: Der "D9E" soll laut aktuellen Meldungen von Digitimes im Febrauar kommen. Ist das bereits Nvidias Nextgen (also kein simpler Refresh), ehemals als G100 gehandelt?
Dann wäre ATI mit dem R700, der ja im April oder Mai kommen soll, mal wieder spät dran...
laser114
2007-12-01, 15:06:02
Mal ne kurze Zwischenfrage: Der "D9E" soll laut aktuellen Meldungen von Digitimes im Febrauar kommen. Ist das bereits Nvidias Nextgen (also kein simpler Refresh), ehemals als G100 gehandelt?
Anzunehmen, ja. Wobei das auch ein Update in der Art Geforce 6 -> Geforce 7 sein kann (vom Prinzip, ein Verdoppelung der Einheiten wäre doch ziemlich viel), eben noch mit DX10.1.
Darum ging es mir ja, ob es das dann war mit dem High End für ca. Q1-3 bei NV oder ob da nochmal was bedeutend besseres nachkommt...
Mit bedeutend meine ich natürlich schon so einen deftigen Unterschied wie von der GF7 zur GF8, nicht wie von der 6 zur 7.
laser114
2007-12-01, 15:16:57
Naja, schon wieder eine neue Architektur für Nvidia wohl eher nicht aus dem Boden stampfen. Es könnte allerdings einige Verbesserungen geben, genaues ist halt noch nicht bekannt. ;)
James Ryan
2007-12-01, 15:37:12
Darum ging es mir ja, ob es das dann war mit dem High End für ca. Q1-3 bei NV oder ob da nochmal was bedeutend besseres nachkommt...
Mit bedeutend meine ich natürlich schon so einen deftigen Unterschied wie von der GF7 zur GF8, nicht wie von der 6 zur 7.
Die Gf 9 wird ziemlich sicher sowas wie von Gf 6 zu Gf 7. Eine völlig neue Architektur ist erst in ca. 2-3 Jahren dran!
MfG :cool:
Naja, ich wollte nur wissen ob man mit der GF9 vermutlich gut bedient ist und ob man damit wieder längere Zeit, wenn vielleicht auch nicht so lange wie mit der 8800, das Beste haben wird.
Also Hauptsache bis zum Herbst 2008 oder gar später kommt nichts Besseres, dann könnte man sich auch mal eine 500 Euro Karte leisten. Bei der 8800 hätte es sich ja gelohnt, wenn man gleich vom Anfang an mit eingestiegen wäre, die war einfach sehr lange das nonplusultra.
Ich hatte halt nur die Befürchtung gehabt, dass wäre jetzt nur ein billiger Refresh und zur Jahresmitte würde dann wieder ein neuer (wesentlich shcnellerer) Hammer kommen womit sich eine hohe Investition nicht gerade gelohnt hätte.
dargo
2007-12-01, 16:02:01
Also Hauptsache bis zum Herbst 2008 oder gar später kommt nichts Besseres, dann könnte man sich auch mal eine 500 Euro Karte leisten. Bei der 8800 hätte es sich ja gelohnt, wenn man gleich vom Anfang an mit eingestiegen wäre, die war einfach sehr lange das nonplusultra.
Ähm, und wenn im Herbst 2008 was schnelleres kommt - wird deine Karte dann dadurch langsamer? :|
Nein, aber ich habe persönlich mehr davon, wenn ich eine Karte habe, die lange Zeit das Beste ist und ich mich nicht schon wieder nach was schnellerem sehen würde. Es würde mir den Spaß an der Karte verderben, wenn es nach wenigen Monaten was deutlich besseres geben würde und auch meine Investition zerstören.
Wer damals ca. 500 Euro für eine gtx bezahlt hat (jaja, nicht direkt am Launch-Tag!), der hat bis heute kaum einen Wertverlust erlitten (immer noch satte 400+ Euro NP nach einem Jahr!) und immer noch die praktisch schnellste Karte am Markt. In so einen Fall gibt man auch gerne mal etwas mehr aus, anstatt nur 200-300 Euro für Mittel- oder Oberklasse.
hab gtx am start gekauft und is immernoch das schnellste,also 1 jahr alt.
bei der Gf9 wirds genau so sein ,kauf dir die schnellste oder zweitschnellste am start und du hast min 1 jahr ruhe.es kommt zwar ca. ein halbes jahr später immer ne "turboversion" aber ein umstieg wäre großer schwachsinn,weil der sprung lächerlich ist.
dargo
2007-12-01, 17:07:51
Nein, aber ich habe persönlich mehr davon, wenn ich eine Karte habe, die lange Zeit das Beste ist und ich mich nicht schon wieder nach was schnellerem sehen würde. Es würde mir den Spaß an der Karte verderben, wenn es nach wenigen Monaten was deutlich besseres geben würde und auch meine Investition zerstören.
:hammer:
Ist schon scheiße wenn der Penis nach ca. einem Jahr wieder kürzer wird.
Nein, aber ich habe persönlich mehr davon, wenn ich eine Karte habe, die lange Zeit das Beste ist und ich mich nicht schon wieder nach was schnellerem sehen würde. Es würde mir den Spaß an der Karte verderben, wenn es nach wenigen Monaten was deutlich besseres geben würde und auch meine Investition zerstören.
Das müsste dir diese Entwicklung eigentlich passen. Vielleicht alle zwei Jahre mal wieder richtiges High-End und dazwischen 10% hier und dort. Da dank AMD der Wert der Karten sowieso rapide fällt, wird auch der Geschwindigkeitzuwachs zeitlich immer länger dauern.
Viel billiges Zeug, aber schnell wird es nicht mehr so rasch.
:hammer:
Ist schon scheiße wenn der Penis nach ca. einem Jahr wieder kürzer wird.
Dumm wenn man nichts rafft und nur Scheiße schreibt, gell?
Ich weiss nicht was dein Penis so macht und ob Du überhaupt damit was anfangen kannst, aber ich gebe für eine Grafikkarte nur dann (gerne) viel Geld aus, wenn sie mich lange Zeit zufriedenstellen kann.
Ich wäre auch heute noch mit was Langsamerem als meiner aktuellen GTX zufrieden, wenn ich wüsste dass es eh nichts Schnelleres gibt und SLI kommt für mich nicht in Frage. Sobald aber etwas bedeutend Besseres, also nicht sowas wie gtx->ultra, zur Verfügung steht, dann habe ich weniger Spaß daran und möchte gerne die neue Karte haben. DENN: Leistung kann man eigentlich nie genug haben (Stichwort Crysis) und ich Spiele lieber in bestmöglicher Qualität. Trotzdem soll alles preislich (P/L) noch in akzeptablen Verhältnissen bleiben und der meist hohe Wertverlust soll sich unbedingt in Grenzen halten!
Wenn also im Laufe 2008 nichts Besseres als eine D9 ultra kommt, die nur wenig schneller aber unverhältnismässig teurer ist, dann kann mir das egal sein und ich würde mir die ersten D9E kaufen (sobald siche deren Preis eingependelt hat).
Weniger gerne möchte ich sowas wie mit der 7800 zur 7900 erleben, die recht dicht beieinander waren und wo die Performance doch nochmal gut zulegte. (Und im Endeffekt waren beide nicht so doll).
Geht mal davon aus das die "Februar GPU" 1TFLOP schaffen wird, sprich ein Arithmetik Monster das D3D10.1 rdy ist und Geometry Shader auch schneller laufen werden (alles was eventuell am G80 fehlt oder nicht so performant eingebaut wurde wird dann aufgebohrt).
Mal schaun ob es wieder ein 384Bit Interface geben wird, 6 ROPs langen ja an Rohpower gepaart mit G92 TMUs. Aber wer weis was man für spielerreien so einbaut, 32xAF oder True 16xAA anyone ^^
Nightspider
2007-12-01, 17:53:59
Ich hoffe mal, das man die Architektur vom G92 schon nochmal deutlich verändert, in Hinsicht auf Shader-Effizienz, sowiesi Anzahl der Shader.
512Bit wären vllt auch nicht verkehrt, falls NV kein GDDR4 verbaut und bis zu GDDR5 dauerts bestimmt noch bis Mitte 2008
DENN: Leistung kann man eigentlich nie genug haben (Stichwort Crysis) und ich Spiele lieber in bestmöglicher Qualität. .
Crysis ist das einzigste Spiel das grottig läuft, ok gute Grafik aber an der Optimierung denke ich hapert es doch noch sehr (wie damals bei Farcry...). Quadcores schlafen ein, SLI funst nicht im DX10 Mode und unter Vista (speziell 64bit) läufts unrund. Also mal Ball flachhalten, wer eine 8800GTS/GTX vor einem Jahr gekauft hat kann heute immer noch in max. Details spielen, oder ruckelt hier bei jemanden UT07/COD4 in 1680+ Auflösungen mit AA?
oder ruckelt hier bei jemanden UT07/COD4 in 1680+ Auflösungen mit AA?
Aber mit Sicherheit!!
COD4 ist zwar längst nicht so anspruchsvoll wie Crysis, aber mit 1680er Auflösung + AA hast Du oft auch nur 30fps. Da ist man mit ner GTX für gewöhnlich anderes gewohnt. Mehr Leistung schadet zumindest auch hier nicht. Und diese Games sind ja erst der Anfang, bzw sie werden immer anspruchsvoller...
Ich spiele es auf nem CRT mit 1024x768 und 8xAA. Das bringt ne gute Optik und meist 60+ fps.
Heute sind schlecht programmiete Spiele die Regel,man sollte da nie seinem PC die Schuld geben.
Finde auch das Highendkarten zuwenig Leistung haben.Ich spiele z.B nur in 1280 mit 4xAA 8xAF und hab selten zufriedenstellende FPS in akt. Spielen.
Wenn ich das Beste kauf,will ich immer top fps mit meinen Einstellungen
OBrian
2007-12-01, 22:32:55
Das stimmt auch nicht generell, nicht alles läßt sich über den Gothic3-Kamm scheren. Daß aktuelle Spiele trotzdem viel Leistung fressen, ist aber normal bei besserer Grafik. Das Problem ist nur, daß wir inzwischen an einem Punkt sind, wo eine Verbesserung, die die doppelte Leistung braucht (bzw. die FPS halbiert), kaum noch sofort auffällt. Die dynamische Beleuchtung bei Stalker z.B. sieht gut aus, braucht aber das fünffache an Leistung, und ohne sieht es auch nicht wirklich mies aus. Früher brauchte man nur drei Aphatexturen mit aufgemaltem Busch hinzustellen und hatte schon eine wahnsinnige Verbesserung, aber wollte man die Vegetation bei Crysis verbessern, könnte man wesentlich stärkere und entsprechend leistungsfressende Geschütze auffahren und man würde es optisch immer noch nicht merken.
dargo
2007-12-01, 23:35:12
Dumm wenn man nichts rafft und nur Scheiße schreibt, gell?
Ich weiss nicht was dein Penis so macht und ob Du überhaupt damit was anfangen kannst, aber ich gebe für eine Grafikkarte nur dann (gerne) viel Geld aus, wenn sie mich lange Zeit zufriedenstellen kann.
Also doch nur zum rumprollen (auf dem Schulhof?). Dachte ich mir schon. Ich weiß nicht ob es deine Vorstellungskraft sprengt, aber deine Karte wird auch nicht langsamer nur weil eine schnellere später erscheint.
...
Trotzdem soll alles preislich (P/L) noch in akzeptablen Verhältnissen bleiben und der meist hohe Wertverlust soll sich unbedingt in Grenzen halten!
Such dir lieber ein anderes Hobby.
GeneralHanno
2007-12-01, 23:38:56
Aber der virtuelle Penis wird um 10cm kürzer ;)
Such dir lieber ein anderes Hobby.
Das brauche ich nicht, da ich mehr raffe als Du.
Ich habe nen High End Rechner der sicher mehr taugt als deiner und für den ich recht wenig bezahlt habe, weil ich meine HW clever kaufe und verkaufe.
Meine Graka ist sicher keine Penisverlängerung, ich weiss gut was damit anzufangen.
Und jetzt halt bitte das Maul, kommt nur Scheiße raus!
Danke!
boxleitnerb
2007-12-02, 07:36:35
Ich möchte mal für den Gast Partei ergreifen, denn ich sehe die Sache ähnlich.
Übrigens ist es genausowenig in Ordnung, Gäste mit so einem Quatsch zu beleidigen wie andere registrierte Member.
Ich habe im Frühjahr 07 meine 8800GTX gekauft. Es ist nunmal so, dass ich immer die meiste Leistung brauche und wie der Gast dafür auch gern was springen lasse. Klar hat eine GTX ein schlechteres PLV als eine GTS, aber immer noch ein besseres als SLI, was ich mir wegen Mikrorucklern und Netzteil und extra Wasserkühler und extra Mainboard nicht unbedingt antun will.
Die eigene Karte wird natürlich nicht langsamer, das hat keiner behauptet. Aber wenn man unter den o.g. Umständen maximale Leistung will, fühlt man sich gezwungen, wieder aufzurüsten, wenn der Leistungssprung ordentlich ist (40%), neue Technik da ist oder die Karte noch besseres AA/AF unterstützt.
Bitte jetzt nicht sagen, dass mich keiner zwingt, ne GF8/9/... zu kaufen. Das weiss ich selber, doch einer zwingt mich: Ich. Weil ich dann in alten Spielen, in denen es vorher nicht ging, nochmal 8xS oder gar 16xS dazuknallen kann und bei neueren eine Stufe höher gehen kann. Leistung hat man NIE genug, auch bei 1280x1024 (TFT) nicht, egal was hier irgendwelche Neider, die keine GTX o.ä. haben, sagen.
Momentan fühle ich mich also nicht so, als hätte ich irgendwas verpasst. Ich gebe zwar gern Geld für Leistung aus, aber z.B. die Ultra hätte für mich keinen Sinn gemacht, da ist der Aufpreis dann doch zu gross. Dagegen ist mir eine GTS (alt oder neu) ein Quentchen zu langsam, da es für einen erträglichen Aufpreis in Extremsituationen bis zu 50% mehr Leistung gibt.
Wie gesagt: Ich stimme dem Gast voll und ganz zu. Denn von uns aus persönlich gesehen, haben wir Geld gespart, weil wir in unserem Bedarfsbereich nichts besseres kaufen können, weil es einfach keine besseren Einzelkarten gibt.
Wer das nicht versteht, gehört zu einer anderen Zielgruppe und sollte seine blöden Peniskommentare für sich behalten, das ist mehr als kindisch - danke.
Nakai
2007-12-02, 10:41:04
1. Ich habe im Frühjahr 07 meine 8800GTX gekauft. Es ist nunmal so, dass ich immer die meiste Leistung brauche und wie der Gast dafür auch gern was springen lasse. Klar hat eine GTX ein schlechteres PLV als eine GTS, aber immer noch ein besseres als SLI, was ich mir wegen Mikrorucklern und Netzteil und extra Wasserkühler und extra Mainboard nicht unbedingt antun will.
2. Die eigene Karte wird natürlich nicht langsamer, das hat keiner behauptet. Aber wenn man unter den o.g. Umständen maximale Leistung will, fühlt man sich gezwungen, wieder aufzurüsten, wenn der Leistungssprung ordentlich ist (40%), neue Technik da ist oder die Karte noch besseres AA/AF unterstützt.
3. Bitte jetzt nicht sagen, dass mich keiner zwingt, ne GF8/9/... zu kaufen. Das weiss ich selber, doch einer zwingt mich: Ich. Weil ich dann in alten Spielen, in denen es vorher nicht ging, nochmal 8xS oder gar 16xS dazuknallen kann und bei neueren eine Stufe höher gehen kann. Leistung hat man NIE genug, auch bei 1280x1024 (TFT) nicht, egal was hier irgendwelche Neider, die keine GTX o.ä. haben, sagen.
4. Momentan fühle ich mich also nicht so, als hätte ich irgendwas verpasst. Ich gebe zwar gern Geld für Leistung aus, aber z.B. die Ultra hätte für mich keinen Sinn gemacht, da ist der Aufpreis dann doch zu gross. Dagegen ist mir eine GTS (alt oder neu) ein Quentchen zu langsam, da es für einen erträglichen Aufpreis in Extremsituationen bis zu 50% mehr Leistung gibt.
5. Wie gesagt: Ich stimme dem Gast voll und ganz zu. Denn von uns aus persönlich gesehen, haben wir Geld gespart, weil wir in unserem Bedarfsbereich nichts besseres kaufen können, weil es einfach keine besseren Einzelkarten gibt.
6. Wer das nicht versteht, gehört zu einer anderen Zielgruppe und sollte seine blöden Peniskommentare für sich behalten, das ist mehr als kindisch - danke.
1. Der Software ist es egal welche Hardware vorhanden ist.
2. Macht Sinn, wenn man die vorrige Relation mit einbezieht.
3. Leistung hat man wirklich nie genug, das stimmt schon. Jedoch schaue ich deutlich mehr auf die Preis/Leistung, aber jedem das seine.
4. Jeder hat seine eigenen Präferenzen.
5. Die 8800GTX war im Frühjahr ein guter Kauf, jetzt nicht mehr.
6. Manche würden es sich gerne kaufen und haben leider nicht genug Geld um das zu tun. Eine HD3870 und eine Geforce 8800GT sind derzeit kaum langsamer als die GTX und kostet etwa die Hälfte.
Aber jeder hat seine Präferenzen aus meiner Sicht, hätte ich niemals die GTX gekauft.
mfg Nakai
dargo
2007-12-02, 10:45:21
Das brauche ich nicht, da ich mehr raffe als Du.
Ich habe nen High End Rechner der sicher mehr taugt als deiner...
Köstlich. ;D
Hab dich gut eingeschätzt.
Klar hat eine GTX ein schlechteres PLV als eine GTS...
Das ist schon mal falsch. Die GTX hatte mindestens ein genauso gutes P/L Verhältnis wie eine GTS 640.
boxleitnerb
2007-12-02, 11:30:57
Von mir aus. Das war doch dann mal ne nette Ausnahme, sonst ist absolutes Highend immer schlechter im PLV. Damals gab es keine Alternative zur GTX, wenn man diese Leistung wollte und das wars mir eben wert.
Heute würde ich natürlich keine GTX mehr holen sondern die neue GTS. Aber das war nicht Gegenstand der Diskussion, denn ich habe schon eine GTX.
Zu Nakais 1: Und?
Es ging doch bloss darum, dass manche Leute kein SLI wollen und die sind jetzt etwas erleichtert, dass es keine 9xxx GTX gibt, für die sie wegen ihrer Ansprüche wieder Geld ausgeben "müssen".
Weiss nicht genau, was du damit gemeint hast.
Zu 3:
Siehe dargos Richtigstellung über meinem Post.
@dargo: Wie sah es mit der 320er aus? Hab jetzt nicht wirklich Lust, mit Benchmarks und Preisen rumzurechnen :)
dargo
2007-12-02, 11:46:57
Es ging doch bloss darum, dass manche Leute kein SLI wollen und die sind jetzt etwas erleichtert, dass es keine 9xxx GTX gibt, für die sie wegen ihrer Ansprüche wieder Geld ausgeben "müssen".
Bin ich eigendlich der Einzige der diese Logik nicht versteht? :|
Nehmen wir mal an, du kaufst dir im November 2006 eine G8800GTX. Wenn im November 2007 keine "G9800GTX" erscheint bist du glücklich da du kein Geld für eine neue Karte ausgeben musst (wobei das "müssen" sich schon ziemlich lächerlich anhört). Was machst du denn wenn Games Ende 2007/Anfang 2008 mit deiner G8800GTX in deinen Settings nicht mehr flüssig laufen? Also, ich wäre froh darüber wenn dann Ende 2007 es was ~doppelt so schnelles wieder gibt.
Wie sah es mit der 320er aus? Hab jetzt nicht wirklich Lust, mit Benchmarks und Preisen rumzurechnen :)
Die 320-er GTS steht bei mir gar nicht zur Debatte wegen (für mich) zu wenig Vram.
Nakai
2007-12-02, 12:02:42
Zu Nakais 1: Und?
Es ging doch bloss darum, dass manche Leute kein SLI wollen und die sind jetzt etwas erleichtert, dass es keine 9xxx GTX gibt, für die sie wegen ihrer Ansprüche wieder Geld ausgeben "müssen".
Weiss nicht genau, was du damit gemeint hast.
Die meisten werden wohl glücklich gewesen sein, dass die 8800GTX so lange soviel wert gewesen ist. Jedoch ändert dies nichts an der Tatsache dass die 8800GTX trotzdem altert.
Die Software entwickelt sich immer weiter, die Hardware meistens nur in Sprüngen.
Deine 8800GTX gehört schon lange wieder zum alten Eisen.
Ich bin ehrlichgesagt nicht froh, dass die GTX seit einem Jahr nur etwa 100€ billiger geworden ist. Weder ATI noch NV bieten eine performantere Lösung an, dennoch wird deine Karte älter und bei neueren Spielen schwächer, obwohl sie Highend ist.
Bin ich eigendlich der Einzige der diese Logik nicht versteht?
Er will eine Highendgrafikkarte, mit der er lange und glücklich zufrieden sein kann. Ebenso schätzt er eine relativ gute Preis/Leistung.
Also, ich wäre froh darüber wenn dann Ende 2007 es was ~doppelt so schnelles wieder gibt.
Ich auch, jedoch nicht wegen den Highendmodelle, sondern wegen den Preis/Leistungsknallern.
Die ganze Entwicklung ist wie zu R300-Zeiten stehen geblieben...leider:(
mfg Nakai
dargo
2007-12-02, 12:08:47
Er will eine Highendgrafikkarte, mit der er lange und glücklich zufrieden sein kann.
Das gelingt nur wenn es einen Stillstand bei der Software gibt. Und dann wollen wir doch nicht wirklich, oder?
boxleitnerb
2007-12-02, 12:14:51
Natürlich hätte ich gerne eine bessere Karte, aber es GIBT nunmal für diejenigen, die eine GTX haben, nix besseres (ausser SLI).
Ich unterstützte den Gast lediglich gegen diese doofen Angriffe und kann seine Argumentation nachvollziehen. Dass wir uns beide freuen würden, wenn es was schnelleres gäbe, steht ausser Frage, aber zur Zeit ist dem nun nicht so, das ist die Realität. Da kann man heulen wie man will, wenn Crysis nur eher schlecht läuft, man kann nix dran ändern.
Ich weiss, es ist ein wenig absurd, macht aber schon Sinn.
Gäbe es was besseres, hätte ich besser Performance, dafür 500 EUR weniger in der Tasche
Nun habe ich schlechtere Performance, dafür 500 EUR, die ich für was anderes ausgeben kann.
Nightspider
2007-12-02, 14:14:47
Ich muss boxleitnerb zustimmen. Warum werden hier immer einige Leute wegen ihrem Kaufverhalten kritisiert ? Wenn manche Leute, wie wir halt gerne viel Geld für viel Leistung ausgeben, is das ja unsere Sache.
Nakai
2007-12-02, 15:00:41
Wenn manche Leute, wie wir halt gerne viel Geld für viel Leistung ausgeben, is das ja unsere Sache.
Naja eure Sache, was ich schon gesagt habe. Viel Sinn für mich macht das aber nicht. Meine teuerste Grafikkarte war eine neue Geforce 3, danach war nur noch eine X800XT für 299€ relativ teuer. Heutzutage würde ich nicht mehr als 200€ für ne Grafikkarte ausgeben.
mfg Nakai
Telema
2007-12-02, 15:29:00
also wenn man überlegt das die GTX 1 Jahr alt ist und immernoch High-End ist. Dann hat sich der kauf vor einen Jahr für über 500,- schon gelohnt. Hätte ich mich damals mit dem x1800 CF nicht so verzettelt, hätte ich bestimmt nicht vor lauter Frust den ganzen scheiss verkauft.
Gehts hier eigentlich um die G92 und G98...oder um den D9E? Gibt es irgendwelche Specs dazu?
Wollte eigentlich mir die neue GTS zulegen. Meine alte GTS640 lässt sich aber sehr gut takten(650/1500/1020) und daher wäre der untschied evtl mir doch zu gering...Dann warte ich lieber bis Februar
K4mPFwUr$t
2007-12-02, 15:38:17
warte lieber bis zur D9E. den mit der alten GTS haste noch den vorteil mit mehr VRAM und mehr bandbreite.
GeneralHanno
2007-12-02, 17:32:17
eigentlich sollte der thread gesplittet werden in einem "GForce 9 Series D9E, D9P, D9M" und halt "Weitere Produkte der GForce 8 Series"
Wann kommen jetzt mal eigentlich mal wieder schnelle Grafikkarten auf den markt, so GTX x 2, will mir 30fps in Crysis nicht antun, bzw. Gibts dazu näheres, oder wird das einfach nur G92 um Faktor 2 in 1 Karte/Chip inkl. DX10.1????
GeneralHanno
2007-12-02, 20:18:34
eine GX2 mit DX10.1 wird es sicher nicht geben ;)
dann könnte man ja den G92 nicht verwenden, sondern müsste einen neuen designen.
daher gehe ich davon aus, dass im februar die 9800GTX kommen wird
- singelchip
- 1 Tera-Flop
- 1+ Mrd transistoren
- 512bit SI
Nakai
2007-12-02, 20:37:37
1 Teraflop denke ich nicht.
mfg Nakai
GeneralHanno
2007-12-02, 20:44:04
immerhin hat nvidia auf einer aktionärskonferenz einen "near to 1 tera flop chip/SKU" angekündigt ;)
dildo4u
2007-12-02, 20:45:27
Knapp zwei mal 8800GT Speed sollte machbar sein.
AnarchX
2007-12-02, 21:10:53
Fragt sich nur wie lange man damit auskommen will, gegen R700-High-End, der eigentlich Mitte des Jahres kommen wird, hat man da AFAIK weniger eine Chance.
Aber das muss wohl dann der G200 im H2 richten. :upara:
Zudem scheint ja Geforce 9 nicht unbedingt D3D10.1 zu bedeuten:
DEV_0405&SUBSYS_15D21043] NVIDIA GeForce 9500M GS
[DEV_0405&SUBSYS_16341043] NVIDIA GeForce 9500M GS
[DEV_0405] NVIDIA NB9P-GE1
[DEV_0406] NVIDIA NB9P-GE
[DEV_042E&SUBSYS_17C21043] NVIDIA GeForce 9300M G
[DEV_042E] NVIDIA NB9M-GE1
(Die 9300 basiert auf dem G86.)
Oder enthält NV der GeForce 8 Serie einfaches dieses vor?
Damit wäre auch der G92 wieder als D9E im Rennen der mit >700/1800 und dem spekuliert 1.6 GHz GDDR4, der nicht zu 512 Bit passt, in der Größe von 1GiB wohl eine durchaus brauchbare High-End-SKU ergeben würde, die sehr gut gegen die 3870 X2 konkurrieren sollte.
Tera[b]flop[/b9 is aber keine gute Marketingbezeichnung :D
Spasstiger
2007-12-03, 00:48:56
Wenn man wirklich neue High-End-Chips bringt, halte ich eine Rechenleistung von knapp 1 Teraflops für sehr realistisch, z.B. mit 160 Shaderunits und 2000 MHz Shadertakt. Vielleicht erweitert man die Shaderunits auch um ein zweites MADD (statt nur ein MUL), damit hätte man schlagartig auch 1/3 mehr an Rechenleistung und man könnte bei 128 Shaderunits bleiben.
Auf jeden Fall erwarte ich eine ordentliche Bandbreite, die alle bisherigen Karten deutlich übertrifft und genug VRAM (1 GiB).
Vielleicht wirds auch ganz anders kommen als man denkt. Ich werfe mal folgende High-End-Alternativ in den Raum:
- 128 Shaderunits mit zwei MADD
- 64 TAs, 64 TMUs (evtl. schon fp16-fähig wie bei ATI?)
- 24 ROPs, 4xMSAA in einem Takt
- 384 Bit SI wie bisher (man müsste nix zusätzlich entwickeln)
- 650-700 MHz TMU/ROP-Domain
- 1900 MHz Shaderdomain
- 768 MiB 1600 MHz GDDR4-Speicher, später eine Variante mit 1536 MiB
Würde für NV wohl einen vergleichsweise geringen Entwicklungsaufwand bedeuten und man könnte das jetzige High-End dennoch deutlich auf Distanz halten. Und es würde für 973 Teraflops reichen, also knapp ein Teraflops.
Einen Faktor 2 gegenüber der 8800 Ultra muss Nvidia gar nicht anstreben, weil es keine Konkurrenz im Single-Chip-Bereich gibt. Man muss nur die Kunden befriedigen, die Crysis auch gerne mit Edeloptik flüssig spielen wollen. ;)
Godmode
2007-12-03, 01:47:50
Könnte es möglich sein, dass der G92 auch für die Geforce 9 verwendet wird. Ein G92 mit höheren Taktraten und 384 Bit SI sollte genügend Leistung für Geforce 9800 GTS erzeugen können? Eventuell schlummert im G92 schon D3D10.1, was aber der Geforce 9 Serie vorbehalten ist?
Diese Strategie würde sehr gut zu nVidia passen und wir haben sowas in der Vergangenheit schon öfters zu Gesicht bekommen.
Ob eine auf G92 basierende Karte für den Enthusiastenbereich reichen würde, ist eine andere Frage.
Ich habe eine kurze Aufstellung über die Rechenleistung einer möglichen Geforce 9 gemacht. Dabei bin ich von 128 oder 160 Streamprozessoren und 3 oder 4 Flops ausgegeangen. Die Shadertaktfrequenz liegt zwischen 1,5 und 3,0 GHz, wobei Frequenzen jenseits von 2,0 GHz rein den Anschauungszwecken dienen.
http://www.imgnow.de/thumbs/Geforce9c19bmp.png (http://www.imgnow.de/?img=Geforce9c19bmp.bmp)
Snoopy1978
2007-12-03, 10:15:26
Vielleicht wirds auch ganz anders kommen als man denkt. Ich werfe mal folgende High-End-Alternativ in den Raum:
- 128 Shaderunits mit zwei MADD
- 64 TAs, 64 TMUs (evtl. schon fp16-fähig wie bei ATI?)
- 24 ROPs, 4xMSAA in einem Takt
- 384 Bit SI wie bisher (man müsste nix zusätzlich entwickeln)
- 650-700 MHz TMU/ROP-Domain
- 1900 MHz Shaderdomain
- 768 MiB 1600 MHz GDDR4-Speicher, später eine Variante mit 1536 MiB
Ich würde mich Spasstiger anschliesen,vor allem das 384 Bit SI ,find ich zumindest, ist ein guter Kompromiss zwischen dem schmaleren aber auch langsameren 256 Bit und dem breiterm aber auch wesentlich aufwendigerem 512 Bit SI.
Mstrmnd
2007-12-03, 15:25:08
Ich würde mich Spasstiger anschliesen,vor allem das 384 Bit SI ,find ich zumindest, ist ein guter Kompromiss zwischen dem schmaleren aber auch langsameren 256 Bit und dem breiterm aber auch wesentlich aufwendigerem 512 Bit SI.
Das Problem ist, dass so ein SI einen an genau eine Speicher-Konfiguration bindet und auch zwingt schnellen Speicher zu verwenden. ATI bietet schon lange Karten mit 1 GiB VRAM an und nVidia soll jetzt wieder mit 768 MiB antanzen? 1,5 GiB halte ich aktuell noch für zu teuer/übertriebne für Desktop-Karten. Und die Flexibilität wäre wie gesagt dadurch gegeben, dass man einen abgespeckten Chip auch mit 512 MiB ausliefern kann, wobei sich das Top-Modell mit 1 GiB auch deutlicher von den vorherigen Modellen absetzen könnte.
laser114
2007-12-03, 15:50:13
8800GTX end of life is January
8800GTS 640MB as well
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4502&Itemid=1
Nvidia is promising that Triple SLI systems will get reviewed in late December, but the real product will ship in January.
Tri SLI motherboard will only work with 8800 Ultra, GTX and the old GTS 640 cards.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4501&Itemid=1
Man setze sich daraus etwas zusammen. ;)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4502&Itemid=1
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4501&Itemid=1
Man setze sich daraus etwas zusammen. ;)
Mach doch bitte. Ich sehe da keinen konkreten Sinn, bzw. eine ganze Reihe von möglichen Strategien.
MadManniMan
2007-12-03, 16:33:28
Für mich:
Man sahnt mit Triple-SLI nochmal ordentlich ab, schmeißt dann aber in kaum einem Dutzend Wochen neues High-End hinterher.
Und: ist die GTS 320 schon EOL? Es erschiene mir nämlich seltsam, den G80 bis auf jene auslaufen zu lassen.
Adam D.
2007-12-03, 16:33:36
Naja, wenn GTX/GTS Januar enden, muss ein Nachfolger her. Wäre doch 'n tolle Start, eine neue Karte mit TSLi zu launchen ;)
AnarchX
2007-12-03, 17:00:43
ATI bietet schon lange Karten mit 1 GiB VRAM an und nVidia soll jetzt wieder mit 768 MiB antanzen? .
Die HD3870 X2 wird aber nur mit 2x512MB daherkommen. ;)
laser114
2007-12-03, 17:25:09
Man sahnt mit Triple-SLI nochmal ordentlich ab, schmeißt dann aber in kaum einem Dutzend Wochen neues High-End hinterher.
So sah das für mich auch aus.
Und: ist die GTS 320 schon EOL? Es erschiene mir nämlich seltsam, den G80 bis auf jene auslaufen zu lassen.
Die sollte mit Erscheinen der 8800 GT EOL sein, ja.
Was mir aber gerade auffällt: Die 8800 Ultra fehlt.
nomadhunter
2007-12-03, 18:00:17
Was mir aber gerade auffällt: Die 8800 Ultra fehlt.
Deswegen glaube ich eher, dass die Ultra noch etwas länger als die anderen G80er auf dem Markt bleiben wird (drunter dann G92-GT statt G80-GTS und G92-GTS statt G80-GTX), bis irgendwann im Februar/März oder so der neue High-End-Chip kommt.
Mich wundert es doch sehr, daß hier schon wieder über einen möglichen Überchip von Ati spekuliert wird, obwohl man ja weiß was von den Spekulationen des R600 (wird den G80 in jeder Hinsicht übertreffen) übrig blieb.
Ati sollte zusehen das der neue Chip so schnell wie möglich auf dem Markt erscheint, sonst wird sich die Performancelücke zu NV immer weiter dehnen.
Und ja, ich wünsche AMD/Ati endlich nochmal ein Erfolgserlebnis, nachdem der Phenom nun auch etwas enttäuscht wird es Zeit das man wieder aufholt, damit wir auch in Zukunft so tolle Produkte wie die HD3870/3850 bzw. 8800GT/GTS G92 zu diesen Preisen haben werden.
Nightspider
2007-12-03, 21:27:25
Interessant:
03.12.2007 18:43 Uhr - Wie Digitimes.com berichtet, hat Samsung in einer Pressmitteilung den momentan schnellsten GDDR5-Speicher vorgestellt, der eine Übertragungsgeschwindigkeit von sechs GiBit pro Sekunde erreicht.
http://www.pcgameshardware.de/?article_id=623342
http://www.pcgameshardware.de/screenshots/medium/2007/12/Samsung_6Gbps_GDDR5_01.jpg
laser114
2007-12-03, 21:31:15
Massenfertigung in der ersten Hälfte 2008, Muster sind schon letzten Monat an die Grafikkartenhersteller gegangen...
Hmm, mal sehen ob das hier schon Einfluss hat.
Godmode
2007-12-03, 21:39:43
Interessant:
http://www.pcgameshardware.de/?article_id=623342
6 GBit? Pro Pin, oder wie jetzt?
Spasstiger
2007-12-03, 23:28:35
6 GBit? Pro Pin, oder wie jetzt?
Pro Teilchip, von denen 32 auf einem GDDR5-Chip verbaut sind. Sprich 32*6 GBit/s = 192 GBit/s = 24 GByte/s.
An einem 32-Bit-Speicherinterface (pro Chip) ergibt das einen Speichertakt von 3 GHz (real).
Ich bin mir nur nicht sicher, ob die Chips wirklich noch an einem 32-Bit-SI hängen oder doch schon an einem 64-Bit-SI. Bei einem 64-Bit-SI wären es 1,5 GHz real.
Godmode
2007-12-03, 23:35:03
Pro Teilchip, von denen 32 auf einem GDDR5-Chip verbaut sind. Sprich 32*6 GBit/s = 192 GBit/s = 24 GByte/s.
An einem 32-Bit-Speicherinterface (pro Chip) ergibt das einen Speichertakt von 3 GHz (real).
Ich bin mir nur nicht sicher, ob die Chips wirklich noch an einem 32-Bit-SI hängen oder doch schon an einem 64-Bit-SI. Bei einem 64-Bit-SI wären es 1,5 GHz real.
Danke für die Erklärung! Damit ließen sich wahre Bandbreitenmonster bauen.
Spasstiger
2007-12-03, 23:36:55
Danke für die Erklärung! Damit ließen sich wahre Bandbreitenmonster bauen.
Jopp. 8 Chips an einem Grafikchip mit schmalem 256-Bit-SI und man hätte dennoch Bandbreiten, die alles bisherige weit in den Schatten stellen.
Nightspider
2007-12-03, 23:40:45
Hat jemand zufällig eine Tabelle, wo die Bandbreiten für GDDR1-5 bei entsprechenden Mhz-Zahlena aufgeführt sind ? =)
Realyn
2007-12-03, 23:43:10
Hi,
vielleicht der falsche Thread, aber lese mich gerade im thema G9x und 9800 durch.
Ich werd mir in den nächsten 1-2 monate einen neuen komplett pc(aktuell x800 und 64´er) kaufen. Dieser soll wieder gut 2 jahre halten.
Meine frage:ist es "bescheuert" auf die 1 gbit GTS zu warten, wo es mit die letzte karte der 8´er generation ist?
Macht es da mehr sinn für 200€ eine GT zu kaufen und dann im Februar/März diese auf ebay für nen "bischen" zu verkaufen und dann eine 9800 reinpacken?
Es würd mich halt irgendwie ärgern 350€ in die neue GTS zu investieren, wenn bald schon die 9800 kommt welche ~40% schneller ist.
dargo
2007-12-03, 23:49:00
@Realyn
Ich würde dir empfehlen nochmal zu fragen wenn du mit deinem Kauf soweit bist. Bis dahin dürfte schon mehr über die neuen GPUs bekannt sein.
Spasstiger
2007-12-03, 23:53:10
Hat jemand zufällig eine Tabelle, wo die Bandbreiten für GDDR1-5 bei entsprechenden Mhz-Zahlena aufgeführt sind ? =)
Da brauchst keine Tabelle, die Bandbreite ist bei gleichem Takt auch immer gleich, egal ob GDDR1, 2, 3, 4 oder 5. Der Speichertakt, der angegeben wird, ist der externe Takt und der muss einfach nur noch mit der Breite des Speicherinterfaces vom Grafikchip und mit 2 (wegen DDR) multipliziert werden, schon hat man die Bandbreite.
Intern siehts in den Chips der verschiedenen GDDR-Standards aber unterschiedlich aus.
Bei GDDR1 und GDDR2 arbeiten die Speicherzellen mit dem externen Takt und und es werden auf/von 2 Speicherzellen parallel Bits übertragen (Zweifach-Prefetch).
Bei GDDR3 arbeiten die Speicherzellen mit dem halben externen Takt, dafür werden 4 Bit auf einmal gelesen/geschrieben (Vierfach-Prefetch).
Bei GDDR4 und GDDR5 arbeiten die Speicherzellen mit einem Viertel des externen Takts und es wird mit 8 Speicherzellen bzw. 8 Bit parallel gearbeitet (Achtfach-Prefetch).
Der Sinn dieser Prefetch-Geschichte ist, dass man den Takt der Speicherzellen im Laufe der Zeit nur geringfügig anheben muss oder sogar absenken kann, während die Bandbreite immer weiter steigt. Ein nahezu konstanter Takt der Speicherzellen bedeutet im Lauf der Zeit durch bessere Fertigungstechnologien, dass immer geringere Spannungen ausreichen und somit der Energiebedarf auch mit zunehmender Speichermenge nicht wesentlich steigt.
Realyn
2007-12-04, 01:20:30
@Realyn
Ich würde dir empfehlen nochmal zu fragen wenn du mit deinem Kauf soweit bist. Bis dahin dürfte schon mehr über die neuen GPUs bekannt sein.
Jo, wollte ich auch machen, trotzdem danke!
Werde jetzt erstmal langsam gehäuse,nt,mainboard(ob pcie oder pcie2 ist doch wurst oder?) e.t.c. eintrudeln lassen .. mal schaun wegen der graka
Ich bin ehrlich gesagt nicht froh, dass die GTX seit einem Jahr nur etwa 100€ billiger geworden ist. Weder ATI noch NV bieten eine performantere Lösung an, dennoch wird deine Karte älter und bei neueren Spielen schwächer, obwohl sie Highend ist.
Das wärst Du aber SEHR, wenn Du dafür 500 Euro ausgegeben hättest. So hattest Du ein Jahr lang die ultimative Leistung praktisch OHNE WERTVERLUST - Du hättest das Geld also jederzeit zum Großteil wiederbekommen können! Demnach hat dich die Karte KEINE 500 Euro gekostet (das Geld ist nicht verloren!), hat aber dir 500-Euro-Leistung für ein ganzes Jahr gebracht!!!!!! Würdest Du die Karte jetzt für 400 Euro verkaufen (kinderleicht) hättest Du nur lächerliche 100 Euro für 1 Jahr High End Zocken bezahlt!! Bisher hast Du hingegen mit keiner PC-Komponente schneller Geld vernichten können als mit den schnellsten (8und teuersten) Grafikkarten, die dann nach nem halben Jahr schon wieder durch neue (richtige) High End Modelle (keine GTX->Ultra) abgelöst und entwertet wurden.
Zudem könntest Du die GTX nun auch wieder verkaufen und dir ne neue GT oder GTS kaufen, wenn Du trotzdem viel Leistung behalten (da JETZT auch günstiger zu haben) aber wieder etwas Geld aus dem PC rausholen willst, sprich den nunmal sicher bald anstehenden enormen Wertverfall etwas abfedern. Wie man es dreht und wendet, die GTX war ein SUPER Kauf!
Bin ich eigendlich der Einzige der diese Logik nicht versteht? :|
Nehmen wir mal an, du kaufst dir im November 2006 eine G8800GTX. Wenn im November 2007 keine "G9800GTX" erscheint bist du glücklich da du kein Geld für eine neue Karte ausgeben musst....
Es gibt sicher einige die das besser verstanden haben...
Ich wäre jedenfalls glücklicher, als wenn ich wüsste es gäbe was Besseres, könnte oder wollte es mir aber nicht leisten, da ich erst vor kurzem so viel bezahlt habe! Wenn es nichts Besseres gibt muss man halt an den Settings schrauben und gut iss.
Nach einem Jahr darf es ruhig mal was neues und schnelleres sein, wenn die Hardware bis dahin so weit "gealtert" ist (Stichwort Crysis), dass sie nicht mehr so richtig schnell ist in den neuesten Games. ABER: Die Rede war nicht von einem Jahr, sondern davon, dass wie in der Vergangenheit eher üblich, mal eben schnell ne 7900 oder x1900 nach 6 Monaten oder kürzer nachgeschoben wird und dein 500-Euro-Geschoss dann ganz schnell nur noch Müll $WERT$ ist! Du hast also für das Zocken in dieser Zeit einen höheren Wertverfall und somit einen höheren Preis bezahlt!! Das war bei der 8800GTX eben ganz anders! Fast die komplette 7800er Riege wurde selbst von der lächerlich billigen 7900GS überflügelt und damit völlig entwertet- da fühlt man sich dann als High End User ganz schön verarscht!
Ich hoffe jetzt hat es auch der letzte kapiert... High End Zocken muss nicht immer teuer sein - wenn man clever ist! Wer dann noch mit Ebay umgehen kann, der kann auf die öde "Mittelklasse" komplett verzichten!
Der_Korken
2007-12-04, 15:56:01
Es gibt sicher einige die das besser verstanden haben...
Ich wäre jedenfalls glücklicher, als wenn ich wüsste es gäbe was Besseres, könnte oder wollte es mir aber nicht leisten, da ich erst vor kurzem so viel bezahlt habe! Wenn es nichts Besseres gibt muss man halt an den Settings schrauben und gut iss.
Nach einem Jahr darf es ruhig mal was neues und schnelleres sein, wenn die Hardware bis dahin so weit "gealtert" ist (Stichwort Crysis), dass sie nicht mehr so richtig schnell ist in den neuesten Games. ABER: Die Rede war nicht von einem Jahr, sondern davon, dass wie in der Vergangenheit eher üblich, mal eben schnell ne 7900 oder x1900 nach 6 Monaten oder kürzer nachgeschoben wird und dein 500-Euro-Geschoss dann ganz schnell nur noch Müll $WERT$ ist! Du hast also für das Zocken in dieser Zeit einen höheren Wertverfall und somit einen höheren Preis bezahlt!! Das war bei der 8800GTX eben ganz anders! Fast die komplette 7800er Riege wurde selbst von der lächerlich billigen 7900GS überflügelt und damit völlig entwertet- da fühlt man sich dann als High End User ganz schön verarscht!
Ich hoffe jetzt hat es auch der letzte kapiert... High End Zocken muss nicht immer teuer sein - wenn man clever ist! Wer dann noch mit Ebay umgehen kann, der kann auf die öde "Mittelklasse" komplett verzichten!
Ich glaube, was du meinst und was dargo meint, sind zwei verschiedene Dinge. Und ihr habt beide ein wenig Recht, meiner Meinung nach.
Wenn nach 6 Monaten eben eine schnellere Karte erscheint, dann besitzt du zwar nicht mehr die schnellste Karte, aber das ist eigentlich egal, solange du alles optimal damit zocken kannst. Nur weil eine schnellere Karte existiert, heißt das noch nicht, dass du mit deiner Karte plötzlich neuere Spiele nicht mehr zocken kannst. Nur weil es bei den Karten einen Sprung gibt, bedeutet das nicht, dass auch die Anforderungen plötzlich einen Sprung machen. Bei deiner Performance macht es also erstmal keinen Unterschied, ob nach 6 Monaten eine neue Karte erscheint, oder nicht. (So hab ich dargo verstanden).
Allerdings ist die eigene Karte, wenn sie denn nicht mehr die neueste ist, weniger Geld wert. Das ist dann ärgerlich. Und: Wenn neuere Hardware erscheint, werden die Softwarehersteller sich bei zukünftigen Games darauf einstellen und es ist wahrscheinlich, dass die eigene Karte dann schneller schlapp macht - eben weil die Anforderungen durch neue verfügbare Hardware angehoben werden.
Ich hoffe, das war jetzt verständlich, ihr habt beide irgendwo Recht.
ShinyMcShine
2007-12-05, 22:52:58
Es kommt Leben in die Bude! :)
http://forum.donanimhaber.com/m_19461389/tm.htm
Ich kann zwar kein Türkisch, aber die Bilder sprechen für sich!
Nightspider
2007-12-05, 23:26:20
Es kommt Leben in die Bude! :)
http://forum.donanimhaber.com/m_19461389/tm.htm
Ich kann zwar kein Türkisch, aber die Bilder sprechen für sich!
Wir sind im G90-Thread. Hat sich dein Post verlaufen ? ;)
Snoopy1978
2007-12-05, 23:40:48
Also wenn das jetzt ein Bild einer GeForce9 Grafikkarte mit 1,5 GB GDDR5 Speicher gewesen wäre dann wären wir alle happy.
Es kommt Leben in die Bude! :)
http://forum.donanimhaber.com/m_19461389/tm.htm
Ich kann zwar kein Türkisch, aber die Bilder sprechen für sich!
256bit.........was fürn Leben?
Mstrmnd
2007-12-06, 23:04:06
Wir sind im G90-Thread. Hat sich dein Post verlaufen ? ;)
Guten Morgen! Im Titel steht "Alles rund um die neue Generation G9x", also passt hier auch eine Nachricht über den G92. Siehe auch den Eingangspost.
Hvoralek
2007-12-07, 02:31:17
Anzunehmen, ja. Wobei das auch ein Update in der Art Geforce 6 -> Geforce 7 sein kann (vom Prinzip, ein Verdoppelung der Einheiten wäre doch ziemlich viel), eben noch mit DX10.1.Bei 6 --> 7 gab es keine Verdopplung (von 4 Quads auf 6). Aber auch eine Verbreiterung um 50% halte ich für unwahrscheinlich. Das wären 12 Cluster und 8 (9?) ROP- Blöcke. Scheint mir ein bisschen viel zu sein.
Fragt sich nur wie lange man damit auskommen will, gegen R700-High-End, der eigentlich Mitte des Jahres kommen wird, hat man da AFAIK weniger eine Chance.
Aber das muss wohl dann der G200 im H2 richten. :upara:G200 ist aber auch wieder nur eine Neuauflage von G80, oder? Ist das dann D10E?
Damit wäre auch der G92 wieder als D9E im Rennen der mit >700/1800 und dem spekuliert 1.6 GHz GDDR4, der nicht zu 512 Bit passt, in der Größe von 1GiB wohl eine durchaus brauchbare High-End-SKU ergeben würde, die sehr gut gegen die 3870 X2 konkurrieren sollte.Glaubst Du wirklich, dass man demselben Chip zwei unterschiedliche Bezeichnungen geben würde?
Vielleicht wirds auch ganz anders kommen als man denkt. Ich werfe mal folgende High-End-Alternativ in den Raum:
- 128 Shaderunits mit zwei MADD
- 64 TAs, 64 TMUs (evtl. schon fp16-fähig wie bei ATI?)
- 24 ROPs, 4xMSAA in einem Takt
- 384 Bit SI wie bisher (man müsste nix zusätzlich entwickeln)
- 650-700 MHz TMU/ROP-Domain
- 1900 MHz Shaderdomain
- 768 MiB 1600 MHz GDDR4-Speicher, später eine Variante mit 1536 MiB
Würde für NV wohl einen vergleichsweise geringen Entwicklungsaufwand bedeuten und man könnte das jetzige High-End dennoch deutlich auf Distanz halten. Und es würde für 973 Teraflops reichen, also knapp ein Teraflops.Das scheint mir ganz plausibel (bis auf den letzten Satz :wink:).
Guten Morgen! Im Titel steht "Alles rund um die neue Generation G9x", also passt hier auch eine Nachricht über den G92. Siehe auch den Eingangspost.Zur 8800 GT gibt es einen eigenen Thread, gerade, damit Neuigkeiten dazu dort und nicht hier gepostet werden.
Zur 8800 GT gibt es einen eigenen Thread, gerade, damit Neuigkeiten dazu dort und nicht hier gepostet werden.
Ist dieser Thread nicht geschlossen worden?
Hvoralek
2007-12-07, 14:58:09
Ist dieser Thread nicht geschlossen worden?Aktuell ist der hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=393782&page=2
Ailuros
2007-12-08, 14:38:55
G200 ist aber auch wieder nur eine Neuauflage von G80, oder? Ist das dann D10E?
Es wuerde mich nicht wundern, wenn das Ding auch storniert wurde. M$ will von 10.1 direkt auf D3D11 steigen.
GeneralHanno
2007-12-08, 14:52:01
DX11 soll Vienna only sein und erscheint frühestens 2009 ?
nomadhunter
2007-12-08, 15:04:05
Vienna/DX11 dürfte frühestens irgendwann 2010 (http://blogs.zdnet.com/microsoft/?p=592) kommen. Vor Ende 2009 dürfte deswegen auch kein DX11-Chip erscheinen. Da NVIDIA aber kaum bis Ende 2009 nur Refreshes/Shrinks von G9x/D9x rausbringen kann, ist IMHO auf jeden Fall noch ein "richtig" neuer (nicht-nur-Refresh) DX10.1-Chip zu erwarten. Bevorzugt so Ende 08/Anfang 09.
GeneralHanno
2007-12-08, 15:29:46
der sprung von DX9.0(c) auf DX10 war ja recht radikal, was man u.a. auch daran sieht, dass Ati UND nvidia sich für eine neue architektur entschieden haben. Wird der sprung von DX10(.1) auf DX11 auch so groß sein, oder eher ein "Major-update"
Ailuros
2007-12-08, 15:30:09
Schon; nur war das was unter G200 geplant war ein D3D10.2 chip.
Ailuros
2007-12-08, 15:33:13
der sprung von DX9.0(c) auf DX10 war ja recht radikal, was man u.a. auch daran sieht, dass Ati UND nvidia sich für eine neue architektur entschieden haben. Wird der sprung von DX10(.1) auf DX11 auch so groß sein, oder eher ein "Major-update"
Ausser der programmierbaren Tesselation ist mir nichts anderes bekannt fuer D3D11. Das soll jetzt nicht heissen dass D3D11 = D3D10.1 + Tesselation sein wird, aber so fundamentale Aenderungen in den Architekturen wie zwischen D3D9.0 und 10.0 erwarte ich persoenlich nicht.
GeneralHanno
2007-12-08, 15:41:03
DX10.1 + Tesslation würde vermutlich auch nicht DX11 sondern DX10.2 heißen ;)
Wenn die Grafikchips mit DX11 erst Ende 2009 auf den Markt kommen werden, dann müssen ATi und Nvidia 2008 quasi noch eine (weitere) DX10.1 Grafikkartengeneration zwischen schieben.
DX11 soll Vienna only sein und erscheint frühestens 2009 ?
schon wieder only...wie kann man so einen dämlichen Fehler nur widerholen :(
GeneralHanno
2007-12-08, 23:31:29
aus marketingsicht ist das kein fehler. ohne DX10 hätte vista doch nix gutes ;D
K4mPFwUr$t
2007-12-08, 23:34:48
bisher lohnt sich ja DX10 nur bedingt. die unterschiede sind je nach game nur marginalst oder keine. oder wie bei crysis kann man sie zu 90% unter DX9 tweaken ;)
Hvoralek
2007-12-09, 00:29:17
aus marketingsicht ist das kein fehler. ohne DX10 hätte vista doch nix gutes ;DDoch: Aero ;D
Ich finde an Aero zwar am besten, dass man es abschalten kann, aber es scheint wirklich Leute zu geben, die dieses Klickibuntizeug toll finden.
Adam D.
2007-12-09, 01:22:13
Doch: Aero ;D
Ich finde an Aero zwar am besten, dass man es abschalten kann, aber es scheint wirklich Leute zu geben, die dieses Klickibuntizeug toll finden.
Kannst du mir sagen, was der Post in diesem Thread zu suchen hat?
Hvoralek
2007-12-09, 01:36:27
Kannst du mir sagen, was der Post in diesem Thread zu suchen hat?Das war OT, stimmt :redface:
Nightspider
2007-12-11, 19:20:48
Nachdem die GTS512 von MSI schon 700 GFlOPs haben soll, sind die 1000 nurnoch einen Katzensprung entfernt und die 3000 halte ich auch für sehr realistisch @ 2008
Nakai
2007-12-11, 19:42:00
Nachdem die GTS512 von MSI schon 700 GFlOPs haben soll, sind die 1000 nurnoch einen Katzensprung entfernt und die 3000 halte ich auch für sehr realistisch @ 2008
Naja G90 ist wohl ein verbesserter G80.
Nehmen wir doch mal den G70 als Vorbild.
50% mehr Einheiten und sogar noch leicht verbesserte.
Da ich den G92 als Vorbild zum G90 mal nehme, kann man schließen:
192 SPs
96 Doppel TMUs
384Bit SI
700Mhz TMU-Takt
1,6 Ghz Shadertakt
192*3*1,6 = 921,6 GFlops
67200 MTex/s
Das wäre wirklich ne Bestie, ob da der Stromverbrauch noch zumutbar ist?
Ende 2008 seh ich dann den G91 ähnlich dem G71. Also nur ein simpler Die-Shrink(65Nm zu 45Nm) mit 512Bit-SI und noch ein paar Verbesserungen.
192*4*2,4 Ghz = 1843,2 GFlops
96000MTex/s
Naja Milchmädchen-Rumrechnerei, vll hat NV nen Ass im Ärmel.
mfg Nakai
deLuxX`
2007-12-11, 19:51:09
Naja G90 ist wohl ein verbesserter G80.
Nehmen wir doch mal den G70 als Vorbild.
50% mehr Einheiten und sogar noch leicht verbesserte.
Da ich den G92 als Vorbild zum G90 mal nehme, kann man schließen:
192 SPs
96 Doppel TMUs
384Bit SI
700Mhz TMU-Takt
1,6 Ghz Shadertakt
192*3*1,6 = 921,6 GFlops
67200 MTex/s
Das wäre wirklich ne Bestie, ob da der Stromverbrauch noch zumutbar ist?
Ende 2008 seh ich dann den G91 ähnlich dem G71. Also nur ein simpler Die-Shrink(65Nm zu 45Nm) mit 512Bit-SI und noch ein paar Verbesserungen.
192*4*2,4 Ghz = 1843,2 GFlops
96000MTex/s
Der Punkt ist halt, dass nVIDIA erst in die Puschen kommt sobald ATI im High-End Sektor wieder konkurenzfähig wird. Sonst wirds nacher noch so ein Jahr wie 2007.:rolleyes:
dargo
2007-12-11, 20:13:34
Ende 2008 seh ich dann den G91 ähnlich dem G71. Also nur ein simpler Die-Shrink(65Nm zu 45Nm) mit 512Bit-SI und noch ein paar Verbesserungen.
192*4*2,4 Ghz = 1843,2 GFlops
96000MTex/s
Naja Milchmädchen-Rumrechnerei, vll hat NV nen Ass im Ärmel.
Das würde ich zu 99% ausschließen in Hinblick auf GDDR5.
Nightspider
2007-12-11, 20:16:14
Der Punkt ist halt, dass nVIDIA erst in die Puschen kommt sobald ATI im High-End Sektor wieder konkurenzfähig wird. Sonst wirds nacher noch so ein Jahr wie 2007.:rolleyes:
Allerdings muss NVidia auch damit rechnen, das AMD durchaus eine gefährliche Grafikkarte im 1. Halbjahr 2008 herausbringt.
GeneralHanno
2007-12-11, 20:37:06
Q1 kommt die 3870 X2. Im Sommer (Q2/3) kommt dann wohl der R700.
Nvidia wird wohl zunächst auf ein 512bit SI + GDDR3 gehen, da GDDR5 erst Mitte 08 verfügbar sein wird.
dargo
2007-12-11, 20:43:28
Nvidia wird wohl zunächst auf ein 512bit SI + GDDR3 gehen, da GDDR5 erst Mitte 08 verfügbar sein wird.
Würde ich ebenfalls ausschließen. Mit dem immer wieder auftauchenden 1,6Ghz GDDR4 hätte NV bei einem 384Bit SI eine brachiale Bandbreite von 153,6GB/s. Das reicht locker für einen G80*2. 512Bit SI werden wir wohl bei NV noch länger nicht sehen.
laser114
2007-12-11, 21:03:31
G80*2 wirds auch nicht werden, wenn man mal bedenkt das der G92 in 65 nm immer noch irgendwas zwischen 289 und 330 mm² groß ist. Mehr Texturadressierer und sonst maximal *1,5 wird einem neuen High-End wohl entsprechen.
Nakai
2007-12-11, 21:13:20
Das würde ich zu 99% ausschließen in Hinblick auf GDDR5.
Es geht eher darum, dass NV den nächsten feineren Schnitt machen muss.
Wenn ATI 1GB-Karten anbietet und NV immernoch mit 768MB, dann könnte das natürlich ein Kaufargument werden, aber nur wenn die beiden Kontrahenten eine ähnliche Performance haben. Ebenso kann NV den GDDR5 niedriger Takten lassen und dadurch den billigeren GDDR5 einkaufen, da dieser mit 512Bit wohl genug Bandbreite haben wird.
Natürlich spricht dagegen ein größeres und komplexeres PCB, aber seien wir mal ehrlich. Mit 14 Layern hat ATI ein 512 Bit SI Anfang 2007 verwirklicht. Es wär ja lächerlich wenn das NV nicht schaffen könnte, zumal die Kosten bis dato bestimmt reduziert wurden.
mfg Nakai
€:
G80*2 wirds auch nicht werden, wenn man mal bedenkt das der G92 in 65 nm immer noch irgendwas zwischen 289 und 330 mm² groß ist. Mehr Texturadressierer und sonst maximal *1,5 wird einem neuen High-End wohl entsprechen.
Full ack!
Der G92 ist schon fast doppelt so groß wie der RV670. Das wäre typisch unnvidianisch ein so kostspieliges Unterfangen durchzusetzen.
Hvoralek
2007-12-11, 21:52:33
Natürlich spricht dagegen ein größeres und komplexeres PCB, aber seien wir mal ehrlich. Mit 14 Layern hat ATI ein 512 Bit SI Anfang 2007 verwirklicht. Es wär ja lächerlich wenn das NV nicht schaffen könnte, zumal die Kosten bis dato bestimmt reduziert wurden.Mit Blick auf Nvidias immerhin 12- lagige 384- bit- Platinen und einige Äußerungen im Vorfeld der R600- VÖ habe ich nicht den Eindruck, dass 512bit @ 14 Lagen ein technischer Klacks sind, den jede halbwegs vernünftige Entsicklungsabteilung mal eben aus dem Ärmel schütteln könnte. R600 war zwar keine Glanzleistung, aber bei ATI sitzen sicher nicht nur Vollpfosten in der R&D- Abteilung. Wenn Nvidia mit denen (in Teilbereichen) nicht mithalten könnte, wäre das sicher nicht "lächerlich'".
GeneralHanno
2007-12-11, 22:01:09
PCGH meint zum thema GX2 + 9800GTX:
http://www.pcgameshardware.de/?article_id=624584
Nakai
2007-12-11, 22:08:59
Mit Blick auf Nvidias immerhin 12- lagige 384- bit- Platinen und einige Äußerungen im Vorfeld der R600- VÖ habe ich nicht den Eindruck, dass 512bit @ 14 Lagen ein technischer Klacks sind, den jede halbwegs vernünftige Entsicklungsabteilung mal eben aus dem Ärmel schütteln könnte. R600 war zwar keine Glanzleistung, aber bei ATI sitzen sicher nicht nur Vollpfosten in der R&D- Abteilung. Wenn Nvidia mit denen (in Teilbereichen) nicht mithalten könnte, wäre das sicher nicht "lächerlich'".
Sicherlich war das nicht leicht für ATI. Jedoch ist 1 Jahr in dem Chipsektor eine ziemlich lange Zeit.
PCGH meint zum thema GX2 + 9800GTX:
Das ändert einiges...
mfg Nakai
reunion
2007-12-11, 22:12:33
Würde ich ebenfalls ausschließen. Mit dem immer wieder auftauchenden 1,6Ghz GDDR4 hätte NV bei einem 384Bit SI eine brachiale Bandbreite von 153,6GB/s. Das reicht locker für einen G80*2. 512Bit SI werden wir wohl bei NV noch länger nicht sehen.
NV hat bis heute noch keinen einzigen Chip veröffentlicht, der mit GDDR4 arbeitet. Schön langsam bezweifle ich, dass sich das noch mal ändern wird.
Nightspider
2007-12-11, 22:13:04
PCGH sind aber auch die einzigen Vollpfosten, die das glauben oder ?
Okay ich lese die Zeitung auch aber bitte...wie wahrscheinlich ist das schon ?
Wir haben doch auch alle nur Argumente gegen eine GX2 Lösung gefunden...die Chance ist minimal...
Edit:
Soweit ich weiß ist der G80 oder wenigstens der G92 doch GDDR4 ready oder ?
Erstmal muss die Marge und die Konkurrenzfähigkeit stimmen bevor nVidia überhaupt etwas auf den Markt wirft, die haben gelernt und werden die nächsten 10Jahre keinen FX mehr rausbringen. Natürlich schwankt die Leistung für den Endkunden da etwas, aber nV muss kein 512Bit SI bringen und keine 14Layer die die Marge töten.
Mehr TMUs bringens nicht, die ROPs werden weiter optimiert damit das Design noch effizienter als der G92 mit der Bandbreite umgehen kann. Ein eventueller Speicher/Addressierbug dürfte mit dem G90/whatever zu Ostern kommt auch aus der Welt sein. Wenns denn sowas gibt, oder es doch nur am Treiber/Vista liegt ka, sehen wir ja.
Also bleibt das Grundgerüst des G92 gepaart mit mehr Arithemitscher Power und Bandbreite. Das wäre typisch nV, minimaler Aufwand, maximales Ergebnis/gute Marge. Es muss nicht 55nm sein, der kostet mehr Geld ^^. Es wird ein Highend Chip, da is der VK eh gut.
Es gibt keine Konkurrenz jenseits der 8800GTS512/640. Auch eine X2 seitens ATI wird da nix reißen da es ja ein Crossfire Kärtchen wird, das wird gegen normales SLI sich messen müssen lassen.
Der "alte" G80 in GTXAausführung müsste mittlerweile auch günstig herzustellen sein, aber ein Refresh mit ein wenig R&D dürfte auf 65nm Basis die selbe Marge raushaun, mit D3D10.1 kompilance als Bonus.
Eventuell ist G90 aber auch "mehr", mehr auf dem Weg zum D3D11 Chip. Vieleicht sehen wir schon Schritte die die Arithemtische Leistung nochmal stark erhöht, oder Aufgaben der ROPs/TMUs verlagert. Muss ja nix wildes sein aber die Evolution geht ja weiter. Hinweise auf G100 erwarte ich in den nächsten 3 Monaten seitens nV. Und dazu gehört kein 512Bit-SI, sondern GDDR4 mit hoher Taktrate und einem passenden SI das für den Mainstream Refresh im nächsten November wieder mit 256Bit-SI antanzen kann.
reunion
2007-12-11, 22:29:49
Es muss nicht 55nm sein, der kostet mehr Geld ^^.
55nm ist als rein optischer Shrink wenn überhaupt dann nur marginal teurer als 65nm pro Wafer. Dafür hat man ein deutlich kleineres Die und weniger Stromverbrauch. Das zahlt sich definitiv aus, gerade aus finanzieller Hinsicht.
Godmode
2007-12-11, 22:31:54
Naja Milchmädchen-Rumrechnerei, vll hat NV nen Ass im Ärmel.
mfg Nakai
Es heißt entweder "ein Ass" oder als Abkürzung "n Ass", aber sicher nicht "nen Ass" was soviel bedeutet wie "einen Ass"!
reunion
2007-12-11, 22:35:21
Mit Blick auf Nvidias immerhin 12- lagige 384- bit- Platinen und einige Äußerungen im Vorfeld der R600- VÖ habe ich nicht den Eindruck, dass 512bit @ 14 Lagen ein technischer Klacks sind, den jede halbwegs vernünftige Entsicklungsabteilung mal eben aus dem Ärmel schütteln könnte. R600 war zwar keine Glanzleistung, aber bei ATI sitzen sicher nicht nur Vollpfosten in der R&D- Abteilung. Wenn Nvidia mit denen (in Teilbereichen) nicht mithalten könnte, wäre das sicher nicht "lächerlich'".
Eben. Vorallem da Ati im punkto PCB-Design schon immer besser war. Man kam oft mit weniger Layer und kürzeren Platinen aus, und das zum Teil trotz höherem Stromverbauch.
55nm ist als rein optischer Shrink wenn überhaupt dann nur marginal teurer als 65nm pro Wafer. Dafür hat man ein deutlich kleineres Die und weniger Stromverbrauch. Das zahlt sich definitiv aus, gerade aus finanzieller Hinsicht.
Ich glaube nicht das es so einfach ist, sonst hätte man es mit anderen Chips schon gemacht. Und die Profite die nV einfährt sprechen für sich, da ist jede Hausgemachte Argumentation nutzlos, die Marge stimmt.
LovesuckZ
2007-12-11, 23:30:54
55nm ist als rein optischer Shrink wenn überhaupt dann nur marginal teurer als 65nm pro Wafer. Dafür hat man ein deutlich kleineres Die und weniger Stromverbrauch. Das zahlt sich definitiv aus, gerade aus finanzieller Hinsicht.
Der 55nm Prozeß ist anscheinend nichtmal so weit, um genug 775MHz Chips für AMD zu liefern.
Ausserdem kostet ein Shrink immer wieder Geld, das sich meisten nur dann lohnt zu investieren, wenn die neue Architektur zu lange auf sich wartet lässt. Mit den Shrink auf 65nm ist nVidia schon runtergegangen und wird wohl hier bleiben. Da AMD die Preise raketenhaft in den Keller geführt hat, hat nVidia die bessere Strategie für das High-End, da ihre Marge dank der deutlich billigeren Fertigung wesentlich besser sein werden.
Hvoralek
2007-12-12, 00:25:26
PCGH sind aber auch die einzigen Vollpfosten, die das glauben oder ?Das ist ja völliger Unsinn. Zunächst einmal wird Nvidia ihr schönes neues Namensschema wohl kaum gleich wieder durcheinanderbringen, indem man die Chipbezeichnung D8E für eine solche Konstruktion verwendet. Darüber ist D8E ziemlich sicher G80. Dass man Ende Januar eine solche Zwischenlösung bringen würde, wenn bereits im Februar ein neuer Chip für dasselbe Segment erscheint, ist auch ziemlich unwahrscheinlich, zumal afaik die 3870 X2 auch erst im Febrauer erscheint. Und Schließlich ist D9E bestimmt nicht G100. Mit dem würde ich irgendwann Mitte 2009 rechnen.
Ailuros
2007-12-12, 06:00:32
Eben. Vorallem da Ati im punkto PCB-Design schon immer besser war. Man kam oft mit weniger Layer und kürzeren Platinen aus, und das zum Teil trotz höherem Stromverbauch.
Hmmm... waere der Stromverbrauch aber niedriger waeren es auch mehr Layer und kuerzere Platinen gewesen. Besser wuerde ich es nicht nennen; mach daraus sparsamer und dann sind wir einig.
Ailuros
2007-12-12, 06:06:23
Der 55nm Prozeß ist anscheinend nichtmal so weit, um genug 775MHz Chips für AMD zu liefern.
Ausserdem kostet ein Shrink immer wieder Geld, das sich meisten nur dann lohnt zu investieren, wenn die neue Architektur zu lange auf sich wartet lässt. Mit den Shrink auf 65nm ist nVidia schon runtergegangen und wird wohl hier bleiben. Da AMD die Preise raketenhaft in den Keller geführt hat, hat nVidia die bessere Strategie für das High-End, da ihre Marge dank der deutlich billigeren Fertigung wesentlich besser sein werden.
Ja fuer mainstream->high end, aber nicht fuer low-end->mainstream.
Nakai
2007-12-12, 12:15:13
Es heißt entweder "ein Ass" oder als Abkürzung "n Ass", aber sicher nicht "nen Ass" was soviel bedeutet wie "einen Ass"!
Ich bin ein Bayer...das darf man mir nicht ankreiden...;)
mfg Nakai
AnarchX
2007-12-14, 11:47:49
8800 GS im Januar? (http://translate.google.com/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-861648-1-1.html&langpair=zh%7Cen&hl=de&ie=UTF-8)
- 192 Bit -> 12 ROPs
- 384MB VRAM
- 112SPs
- MSRP ~$180
HKEPC hat auch so eine Karte genannt:
http://hkepc.com/?id=489
Aber mit leicht unpassender Konfig von 12 ROPs und 256Bit.
Henroldus
2007-12-14, 12:14:33
8800 GS im Januar? (http://translate.google.com/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-861648-1-1.html&langpair=zh%7Cen&hl=de&ie=UTF-8)
- 192 Bit -> 12 ROPs
- 384MB VRAM
- 112SPs
- MSRP ~$180
HKEPC hat auch so eine Karte genannt:
http://hkepc.com/?id=489
Aber mit leicht unpassender Konfig von 12 ROPs und 256Bit.
na bis dahin kann AMD/ATI wenigstens mit ihrer verfügbaren HD3850 absahnen.
Ailuros
2007-12-14, 13:12:37
8800 GS im Januar? (http://translate.google.com/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-861648-1-1.html&langpair=zh%7Cen&hl=de&ie=UTF-8)
- 192 Bit -> 12 ROPs
- 384MB VRAM
- 112SPs
- MSRP ~$180
HKEPC hat auch so eine Karte genannt:
http://hkepc.com/?id=489
Aber mit leicht unpassender Konfig von 12 ROPs und 256Bit.
Mir ist nichts von einer 8800GS fuer den retail Markt bekannt; kann aber sein dass sie doch noch ihre Meinung geaendert haben. Ich sehe keinen Grund warum so ein Ding so verkorkst ausgestaltet sein sollte; was spricht gegen 6 cluster/4 ROP partitions?
Mir ist nichts von einer 8800GS fuer den retail Markt bekannt; kann aber sein dass sie doch noch ihre Meinung geaendert haben. Ich sehe keinen Grund warum so ein Ding so verkorkst ausgestaltet sein sollte; was spricht gegen 6 cluster/4 ROP partitions?
Man will vielleicht auch Chips mit defekten ROPs verkaufen.
GeneralHanno
2007-12-14, 13:30:06
als PCB würde mann wohl (wie ATi bei der 2900GT) eins der 8800GT(S) 512 nehmen und halt nur 6 von 8 Speicherchips verbauen.
Ailuros
2007-12-14, 17:06:41
Man will vielleicht auch Chips mit defekten ROPs verkaufen.
Es geht hier um NVIDIA und nicht AMD :P
Ailuros
2007-12-14, 17:09:19
als PCB würde mann wohl (wie ATi bei der 2900GT) eins der 8800GT(S) 512 nehmen und halt nur 6 von 8 Speicherchips verbauen.
Das ist schon klar, aber es kling verdammt umstaendlich mehrere chips unter dem Namen "8800GS" zu haben die mal 4 und mal 3 ROP partitions haben und dazu noch die unterschiedliche Speichermengen.
laser114
2007-12-14, 17:11:50
Es geht hier um NVIDIA und nicht AMD :P
Ähm, und wo ist das Problem?
Nvidia muss doch die ROPs an das Speicherinterface bündeln, ergo ist irgendwas an den ROPs defekt und man will trotzdem eine Karte mit 256-Bit bauen wird das schief gehen.
Ich finde die Spezifikationen der 8800 GS daher schon logisch: Zum einem hat man so mit 384 MiB weniger Geld auszugeben als für 512 MiB, zum anderen kann man so mit 256er-Varianten gut konkurrieren, auch dank Fehler beim Speicher. Desweiteren klingt das auf dem Markt besser. Auch wird man so klar unter der 8800 GT sich einordnen, mit Bandbreitenlimitierung kennt sich Nvidia ja beim G92 schon gut aus. ;)
Ob die Karte allerdings auch auf dem Retail-Markt landen würde oder nur an OEMs geht wäre noch eine andere Frage.
AnarchX
2007-12-14, 17:24:20
Noch ein paar Infos über GeForce 9:
D9P:
- 9600GT
- die erste GeForce 9
- Launch 14.2. Valentinstag
- Leistung zwischen 8600GTS und 8800GT -> Konkurrent zur HD3850
- verwendet das gleiche PCB wie die 8800GT, also 256Bit SI(?)
D9E:
- noch kein Endkunden-Name
- direkter Nachfolger von Ultra/GTX
- Launch um März herum
- Doppel-PCB-Karte mit zwei GPUs -> GX2
- nur ein SLI-Connector
- Kühler umschliesst völlig die Karte
- verwendete GPU unklar
Quelle:
http://www.mobile01.com/topicdetail.php?f=298&t=466876&p=1
(G.F. welcher alle Daten zur 8800 GT und GTS-G92 leakte)
AnarchX
2007-12-14, 17:27:07
...
reunion
2007-12-14, 17:46:11
Es geht hier um NVIDIA und nicht AMD :P
Soll das ein Scherz sein? Auch bei G80 gab es die GTS mit einem deaktiviertem ROP-Cluster.
Hvoralek
2007-12-14, 18:03:49
Das ist schon klar, aber es kling verdammt umstaendlich mehrere chips unter dem Namen "8800GS" zu haben die mal 4 und mal 3 ROP partitions haben und dazu noch die unterschiedliche Speichermengen.Normalerweise würde ich das für unwahrscheinlich halten, bei Nvidia aber seit ihren ganzen 8800 GTSen, die alle auch im Retailmarkt verfügbar sind, nicht mehr...
Noch ein paar Infos über GeForce 9:
D9P:
- 9600GT
- die erste GeForce 9
- Launch 14.2. Valentinstag
- Leistung zwischen 8600GTS und 8800GT -> Konkurrent zur HD3850
- verwendet das gleiche PCB wie die 8800GT, also 256Bit SI(?)Sollte D9P nicht irgendwann im Sommer kommen? Es wäre jedenfalls ungewöhnlich, eine Serie nicht mit den High- End- Modellen zu starten und noch merkwürdiger, wenn D9P langsamer wäre als D8P.
Ich finde die Angaben wenig plausibel. Auch an einen Doppel- Chip- D9E glaube ich nicht so recht.
Soll das ein Scherz sein? Auch bei G80 gab es die GTS mit einem deaktiviertem ROP-Cluster.Das bezog sich wohl auf die anderen Probleme, die ATI mit dem R600- ROPs hatte :wink:
Ailuros
2007-12-14, 18:07:25
Soll das ein Scherz sein? Auch bei G80 gab es die GTS mit einem deaktiviertem ROP-Cluster.
Und wer erzaehlte Dir dass der Grund der Deaktivierung einer ROP partition auf Defekten beruhte?
Ailuros
2007-12-14, 18:10:10
Noch ein paar Infos über GeForce 9:
D9P:
- 9600GT
- die erste GeForce 9
- Launch 14.2. Valentinstag
- Leistung zwischen 8600GTS und 8800GT -> Konkurrent zur HD3850
- verwendet das gleiche PCB wie die 8800GT, also 256Bit SI(?)
D9E:
- noch kein Endkunden-Name
- direkter Nachfolger von Ultra/GTX
- Launch um März herum
- Doppel-PCB-Karte mit zwei GPUs -> GX2
- nur ein SLI-Connector
- Kühler umschliesst völlig die Karte
- verwendete GPU unklar
Quelle:
http://www.mobile01.com/topicdetail.php?f=298&t=466876&p=1
(G.F. welcher alle Daten zur 8800 GT und GTS-G92 leakte)
Jetzt fehlt nur noch der projezierte MSRP fuer G96, damit man auch schoen sehe kann wieviel eine 8800GS genau Sinn machen wuerde ;)
Ailuros
2007-12-14, 18:20:02
Normalerweise würde ich das für unwahrscheinlich halten, bei Nvidia aber seit ihren ganzen 8800 GTSen, die alle auch im Retailmarkt verfügbar sind, nicht mehr...
Nur sind die alten GTS-en am auslaufen; ein jeglicher IHV muesste ja verrueckt sein wenn man pro Herstellungsprozess mehr als eine Variante eines gleichen chips herstellen wuerde.
Unter 65nm und G92 hast Du momentan:
G92/GTS 512MB
G92/GT 512/256MB
G92/GS 256MB
....alle mit 4 ROP partitions.
Sollte D9P nicht irgendwann im Sommer kommen? Es wäre jedenfalls ungewöhnlich, eine Serie nicht mit den High- End- Modellen zu starten und noch merkwürdiger, wenn D9P langsamer wäre als D8P.
G96 war fuer Fruehjahr 2008 projeziert. Februar gehoert auf meinem Kalender garantiert nicht mehr zum Winter ;)
Ich finde die Angaben wenig plausibel. Auch an einen Doppel- Chip- D9E glaube ich nicht so recht.
Im Vergleich zu einem neuem single chip Monstrum, ist so ein Ding am schnellsten und billigsten herzustellen. Was genau hat denn die Konkurrenz? R680 ist 2*3870.
Das bezog sich wohl auf die anderen Probleme, die ATI mit dem R600- ROPs hatte :wink:
Unter der vorigen Logik haette ATI alle ROPs deaktivieren muessen :P
mapel110
2007-12-14, 18:27:11
R680 ist 2*3870.
Hat das Ding dann auch 3 oder 4 Stromanschlüsse? Oder ist nen extra-Netzteil mit im Lieferumfang? O_o
Auch bei dem neuen nvidia-Monster bin ich dann mal auf den Stromhunger gespannt. Das kann ja nix werden.
laser114
2007-12-14, 18:28:58
Hat das Ding dann auch 3 oder 4 Stromanschlüsse? Oder ist nen extra-Netzteil mit im Lieferumfang? O_o
1x 6-Pin und 1x 8-Pin; gemäß dem PCI-Express-2.0-Standard für Grafikkarten mit einer TDP von über 150 Watt.
Ailuros
2007-12-14, 18:34:16
Hat das Ding dann auch 3 oder 4 Stromanschlüsse? Oder ist nen extra-Netzteil mit im Lieferumfang? O_o
Auch bei dem neuen nvidia-Monster bin ich dann mal auf den Stromhunger gespannt. Das kann ja nix werden.
http://forum.beyond3d.com/showpost.php?p=1105812&postcount=3
reunion
2007-12-14, 18:41:01
Im Vergleich zu einem neuem single chip Monstrum, ist so ein Ding am schnellsten und billigsten herzustellen. Was genau hat denn die Konkurrenz? R680 ist 2*3870.
Und was ist eine D9P?
Um klar vorne zu bleiben braucht es mindestens 2 x 8800GT mit jeweils 1GB VRAM.
Unter der vorigen Logik haette ATI alle ROPs deaktivieren muessen :P
Es ging um Fertigungsfehler, nicht um Defekte im Design. So kann man eben auch solche Chips noch verkaufen, was du jetzt mit ATi willst weiß ich nicht.
Hat das Ding dann auch 3 oder 4 Stromanschlüsse? Oder ist nen extra-Netzteil mit im Lieferumfang? O_o
Warum sollte es? Die TDP liegt unter R600XT.
Hvoralek
2007-12-14, 18:42:59
Hat das Ding dann auch 3 oder 4 Stromanschlüsse? Oder ist nen extra-Netzteil mit im Lieferumfang? O_o2 3870er würden immer noch nicht mehr Energie brauchen als eine 2900 XT. Wenn man gute Chips dafür verwendet, die mit niedrigen Spannungen laufen, noch weniger.
Nur sind die alten GTS-en am auslaufen; ein jeglicher IHV muesste ja verrueckt sein wenn man pro Herstellungsprozess mehr als eine Variante eines gleichen chips herstellen wuerde.
Unter 65nm und G92 hast Du momentan:
G92/GTS 512MB
G92/GT 512/256MB
G92/GS 256MB
....alle mit 4 ROP partitions.Wieso spricht es dagegen, einen auch bzgl. der ROPs teildeaktivierten G92 zu bringen, dass man das bisher nicht getan hat?
G96 war fuer Fruehjahr 2008 projeziert. Februar gehoert auf meinem Kalender garantiert nicht mehr zum Winter ;)Also ist D9P = G96. War nicht mal die Rede von einem D8P- Nachfolger mit dem Namen im Sommer? Oder sieht das mittelfrisitge Line- Up so aus: D9E > D8P > D9P > D9'M'?
Dann hätte Nvidia im 200- €- Preisbereich lange kein D3D10.1- Modell. Ich finde es auch immer noch seltsam, dass D9P langsamer sein soll als D8P.
Im Vergleich zu einem neuem single chip Monstrum, ist so ein Ding am schnellsten und billigsten herzustellen. Was genau hat denn die Konkurrenz? R680 ist 2*3870.Ein 10C-/ 6RBE- Chip würde vlt. 400 mm² messen. Das soll teurer sein als 2 320mm²- Chips, doppelter Speicher und eine entsprechende Platine?
Oder besteht D9E aus 2x D9P? Der wird ja dann wohl kleiner sein als D8P.
dargo
2007-12-14, 18:51:52
D9E:
- noch kein Endkunden-Name
- direkter Nachfolger von Ultra/GTX
- Launch um März herum
- Doppel-PCB-Karte mit zwei GPUs -> GX2
- nur ein SLI-Connector
- Kühler umschliesst völlig die Karte
- verwendete GPU unklar
Es gibt also im ersten Quartal 2008 doch keine Single-GPU High-End Lösung? Mist... :usad:
Ein 10C-/ 6RBE- Chip würde vlt. 400 mm² messen. Das soll teurer sein als 2 320mm²- Chips, doppelter Speicher und eine entsprechende Platine?
Oder besteht D9E aus 2x D9P? Der wird ja dann wohl kleiner sein als D8P.
AMD macht doch das selbe warum nicht auch NV, bei der alten GX/GX2 Generation hat man auch Geld verdient ohne nen 32Pipe G71 zu bauen (der Afair ein richtiges Monster war, in allen Bereichen...).
Es geht nur ums Geld, und wenn eine Lösung auf den Markt gelangt und die andere nicht, weiste das die Marge da nicht gepasst hat ^^
Die Kosten eines Chips sind ja nicht allein von der DIE Größe abhängig...
Ailuros
2007-12-14, 19:09:09
Und was ist eine D9P?
Um klar vorne zu bleiben braucht es mindestens 2 x 8800GT mit jeweils 1GB VRAM.
Du solltest mich eher fragen was D9E ist, denn "P" steht wohl fuer "Performance". Das mit dem 1GB pro GPU ist auch Unsinn, ausser man will den Strassenpreis in die Hoehe sprengen.
Es ging um Fertigungsfehler, nicht um Defekte im Design. So kann man eben auch solche Chips noch verkaufen, was du jetzt mit ATi willst weiß ich nicht.
Nochmal es gab keine Fertigungsfehler in den G80 ROPs. Es war eigentlich vorhersehbar dass ein einzelner Satz soviel Radau bei Euch Kerlen hervorrufen wuerde, aber im grossen Bild eine komplizierte D3D10 zu entwickeln ist vergleichsmaessig die Entwicklung einer einfachen analogen ROP ein Kinderspiel. Wenn man hier verpatzt, dann ist der Sarkasmus auch gerechtfertigt.
Ailuros
2007-12-14, 19:21:19
Wieso spricht es dagegen, einen auch bzgl. der ROPs teildeaktivierten G92 zu bringen, dass man das bisher nicht getan hat?
*seufz* Such nach den Spezifikationen des G92M und dann erklaer ich Dir was genau eine "8800GS" ist. Wieviele cluster und ROP partitions hat denn die Schlepptop GPU?
Ein 10C-/ 6RBE- Chip würde vlt. 400 mm² messen. Das soll teurer sein als 2 320mm²- Chips, doppelter Speicher und eine entsprechende Platine?
GX2 waren bis jetzt zwei GPUs einfach zusammengeblebt. Wieviel kostet heute eine einzelne 8800GT?
Woher kommt die Tatsache dass ein 10C chip nur 400mm^2 gross sein wuerde genau? Erstens sind die ROP partitions eng mit dem MC verbunden und zweitens kosten hoehere Frequenzen auf mehr SPs auch mehr Transistoren.
Selbst 112@1.5GHz vs. 112@1.9GHz wuerde fuer den zweiten Fall mehr Transistoren bedeuten und man sollte hier erstmal mit einem 160@1.5 vs. 160@1.9GHz Vergleich anfangen, wenn ueberhaupt Aepfel mit Aepfeln vergleichen will. Die G8x/9x ALUs erreichen so hohe und unabhaengige Frequenzen weil ein fetter Batzen an Handarbeit im Design steckt.
Oder besteht D9E aus 2x D9P? Der wird ja dann wohl kleiner sein als D8P.
Die G70 basierende GX2 hatte nur einen sehr geringen Zeitabstand zur G71 basierenden GX2. Ich wuensche mir ja die Wiederholung einer solchen bloeden These ab, aber man kann auch nicht immer verstehen was IHVs genau im Hinterkopf haben.
reunion
2007-12-14, 19:24:05
Du solltest mich eher fragen was D9E ist, denn "P" steht wohl fuer "Performance". Das mit dem 1GB pro GPU ist auch Unsinn, ausser man will den Strassenpreis in die Hoehe sprengen.
Ja, dann eben D9E. 1GB pro GPU wird nV aber brauchen, da ihnen bei den 512MB Karten sehr oft der VRAM ausgeht.
laser114
2007-12-14, 19:29:33
*seufz* Such nach den Spezifikationen des G92M und dann erklaer ich Dir was genau eine "8800GS" ist. Wieviele cluster und ROP partitions hat denn die Schlepptop GPU?
6 Cluster und 4 ROP-Partitionen. Was ändert das an der Tatsache, das mann auch die ROP-Partitionen verringern kann?
Ja, dann eben D9E. 1GB pro GPU wird nV aber brauchen, da ihnen bei den 512MB Karten sehr oft der VRAM ausgeht.
Naja 8800GT SLI Benches schlagen jede Single GPU, gibts denn einen Fall wo das nicht so ist (auch in 2560 er Auflösung)?
horn 12
2007-12-14, 19:38:11
Somit wird wohl ATI über kurz oder lang Ende Jänner das High End wieder zurückerobern,- bis der G92 X² kommt.
An diesen 2 DUAL Chip Grafikkarten wird es sich dann messen müssen.
Schau ma mal wer das Rennen diesmal macht.
Also keine SingleChip Graka nä. Jahr 2008, und dies bis ca. Juli/ August des Jahres mal 100 Prozentig würde ich sagen.
reunion
2007-12-14, 19:40:07
Naja 8800GT SLI Benches schlagen jede Single GPU, gibts denn einen Fall wo das nicht so ist (auch in 2560 er Auflösung)?
Schau dir doch die Benchs bei CB - speziell mit SLi - an:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/19/#abschnitt_call_of_juarez
In hohen und sehr höhen Auflösungen bricht das 8800GT SLi-System immer wieder extrem ein.
dargo
2007-12-14, 20:10:22
Schau dir doch die Benchs bei CB - speziell mit SLi - an:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/19/#abschnitt_call_of_juarez
In hohen und sehr höhen Auflösungen bricht das 8800GT SLi-System immer wieder extrem ein.
Das liegt lustigerweise immer an DX10. Entweder NV muss noch viel an den Treibern feilen damit der Vram-Bedarf sinkt (falls es überhaupt möglich ist) oder 1GB Vram anbieten was wiederum ziemlich teuer sein dürfte bei einer GX2. Irgendwie finde ich diese 256Bit SI Kombination Mist. Mir würde eine G92GX2 mit 384Bit und 2x 768MB besser gefallen.
Mal ne andere Frage - wäre eine G92GX2 mit 2x192Bit SI und 768MB Vram möglich? Ich denke da immer noch an den 1,6Ghz DDR4. Das wären immerhin stolze 153,6GB/s die imho eh nicht nötig sind. Man könnte so zb. 1,2Ghz Riegel verwenden die immer noch 115,2GB/s ergeben.
AnarchX
2007-12-14, 20:15:02
Bleibt das Problem, dass es dann nur 24 ROPs sind, die doch bei entsprechender TMU/SP-Anzahl doch zu wenig sein könnten.
1024MBit GDDR3 ist ja verfügbar und wird auch von ASUS auf ihrer 1GiB-GT verwendet, also sehe ich kein Problem warum man, diesen nicht auch auf einer High-End-SKU Ende Q1 08 verwenden sollte....
Hvoralek
2007-12-14, 20:16:24
Es gibt also im ersten Quartal 2008 doch keine Single-GPU High-End Lösung? Mist... :usad:Im ersten Quartal? Wenn auch D9E eine Doppelchiplösung ist, sehe ich nirgends Hinweise auf einen neuen High- End- Einzelchip bis D10E/ R7xx (wobei man bei letzterem wohl in irgendeiner Weise verstärkt auf Multi- GPU- Bauweise setzen wird). Mich würde es langsam nicht mehr wundern, wenn High- End- User 2008 durchgehend mit AFR- Lösungen leben müsten :ugly:
Nochmal es gab keine Fertigungsfehler in den G80 ROPs. Es war eigentlich vorhersehbar dass ein einzelner Satz soviel Radau bei Euch Kerlen hervorrufen wuerde [...].Bei Überlegungen, einzelne ROP- Blöcke zu deaktivieren, geht es nicht um Konstruktionsfehler bei der Entwicklung der ROPs, sondern um Produktionsfehler bei der Herstellung der Chips. Wenn sich in einem ROP- Block Fehler ansammeln, die nicht durch Redundanzen aufgefangen werden, wäre es doch schade, den ganzen Chip wegzuwerfen.
*seufz* Such nach den Spezifikationen des G92M und dann erklaer ich Dir was genau eine "8800GS" ist. Wieviele cluster und ROP partitions hat denn die Schlepptop GPU?Da sind 4 RBEs aktiv. Ich sehe aber immer noch nicht, warum man davon, dass bei allen bisher erschienenen G92- Modellen alle ROPs aktiv waren, darauf schließen können soll, dass auch nie welche erscheinen werden, bei denen das nicht so ist.
Woher kommt die Tatsache dass ein 10C chip nur 400mm^2 gross sein wuerde genau?Eine Schätzung ausgehend von G92.
Wenn ich von einer Skalierung von 70% durch einen zweiten Chip ausgehe, müsste man 2x 6C übrigens ziemlich genauso hoch takten wie 1x 10C, um die gleiche Leistung zu erreichen. Wenn Du für ein Neues High- End- Modell 10C@1950 MHz ansetzt und das für unmöglich erklärst, stellt sich die Frage, ob 2x 6C @ 1900 MHz einfacher/ günstiger machbar wären. 2x 6C@1600 MHz gingen natürlich, wären aber langsamer (von GPGPU abgesehen).
Wie gesagt lässt sich zumindest G92 aber auch ganz gut übertakten. Für einige GT- Modelle garantieren die Platinenhersteller schon 1750 MHz.
Die G70 basierende GX2 hatte nur einen sehr geringen Zeitabstand zur G71 basierenden GX2.Was für eine G70- GX2? :confused:
dargo
2007-12-14, 20:21:02
Bleibt das Problem, dass es dann nur 24 ROPs sind, die doch bei entsprechender TMU/SP-Anzahl doch zu wenig sein könnten.
Stimmt, die ROPs sind ja an das SI gebunden. Meinst du 24 ROPs wären wirklich zu wenig (würden schon gut limitieren)? Sind immerhin 50% mehr als ein einzelner G92.
Edit:
Ich spinne jetzt mal ein wenig. :D
G92GX2:
2x 600Mhz GPU-Takt
2x 1512Mhz Shader-Takt
2x 96 SPs (je 6 Cluster)
2x 12 ROPs
2x 1000Mhz GDDR3 (96GB/s)
2x 192Bit SI
2x 768MB Vram
Kann hier jemand bitte die GFLOPs ausrechnen?
Hvoralek
2007-12-14, 20:24:20
Meinst du 24 ROPs wären wirklich zu wenig (würden schon gut limitieren)? Sind immerhin 50% mehr als ein einzelner G92.Bei einer SLI- Effizienz von durchschnittlich vlt. 70% bleibt da nicht viel.
AnarchX
2007-12-14, 20:29:33
Kann hier jemand bitte die GFLOPs ausrechnen?
Für NV G8x und G92:
SP-Anzahl * (2 FLOPs für MADD + 1 FLOP für MUL) * Takt in GHz = ... GFLOPs
Also: 2*96*3FLOPs * 1.512GHz = 871 GFLOPs
Für R6xx:
SP-Anzahl * (2 FLOPs für MADD) * Takt in GHz = ... GFLOPs
:wink:
dargo
2007-12-14, 20:38:49
Für NV G8x und G92:
SP-Anzahl * (2 FLOPs für MADD + 1 FLOP für MUL) * Takt in GHz = ... GFLOPs
Also: 2*96*3FLOPs * 1.512GHz = 871 GFLOPs
Ok, dann machen wir doch einfach hier raus:
2*96*3FLOPS*1625Mhz = 936GFLOPS
Mit ca. 85% SLI Effizienz kommt man ganz gut auf +~50% der GTX Leistung.
PS: was mich noch interessieren würde - beim G80/G92 kann man ja den Shadertakt unabhängig vom GPU-Takt einstellen. Ist der GPU-Takt für die Berechnung der GFLOPS irrelevant? :confused: Kann ich mir nicht vorstellen. Der GPU-Takt taucht nämlich in deiner Rechnung nicht auf.
laser114
2007-12-14, 20:40:43
Zumindest nicht für die Arithmetikleistung, die ja so immer angegeben wird. Da braucht man nur den Shader-Takt.
dargo
2007-12-14, 20:48:59
Zumindest nicht für die Arithmetikleistung, die ja so immer angegeben wird. Da braucht man nur den Shader-Takt.
Aber dann kann man doch die GFLOPS als Performanceindikator doch eigendlich vergessen. Wenn man denn will könnte man ja auch nur 300Mhz mit 1512Mhz Shadertakt kombinieren und würde so die gleiche arithmetische Leistung wie 600Mhz und 1512Mhz Shadertakt erreichen? :|
Ich glaube die G92GX2 wird eher so aussehen:
2x 650Mhz GPU-Takt
2x 1625Mhz Shader-Takt
2x 96 SPs (je 6 Cluster)
2x 16 ROPs
2x 800Mhz GDDR3 (102,4GB/s)
2x 256Bit SI
2x 512 und/oder 1024MB Vram
Edit:
Ich könnte mir auch hier folgende Preise vorstellen:
G92GX2 512MB = 399$
G92GX2 1024MB = 499-549$
nomadhunter
2007-12-14, 20:53:28
Aber dann kann man doch die GFLOPS als Performanceindikator doch eigendlich vergessen. Wenn man denn will könnte man ja auch nur 300Mhz mit 1512Mhz Shadertakt kombinieren und würde so die gleiche arithmetische Leistung wie 600Mhz und 1512Mhz Shadertakt erreichen? :|
Die GFLOPS sind halt nur ein Indikator für die arithmetische Leistung und dafür sind sie gut geeignet. Und ja, die arithmetische Leistung hängt nur vom Takt der Rechenwerke ab, also dem Shadertakt. Mit dem eigentlichen Chiptakt sind ja nur TMUs, ROPs und ein paar andere Dinge getaktet.
AnarchX
2007-12-14, 20:54:14
Aber dann kann man doch die GFLOPS als Performanceindikator doch eigendlich vergessen.
Es ist nunmal ein Performanceindikator für die arithmetische Leistung einer GPU und nicht der Gesamtleistung. ;) (Jedenfalls noch vorerst nicht...)
Dazu sind die Angaben von ATi und NV auch nicht unbedingt vergleichbar:
- Vektor-Architektur vs skalare Architektur
- SPs die General Shading und Single Functions ausführen können vs reine SFUs bzw. minimale Nutzung für General Shading.
:D
Wenn du etwas tiefer ins Thema GPUs einsteigen willst, würde ich dir B3D empfehlen:
http://www.beyond3d.com/content/reviews/1/
Aber die Aritikel von 3DC auf der Hauptseite sind auch schon sehr informativ, wenn es deutsch sein soll.
Godmode
2007-12-14, 20:54:52
Aber dann kann man doch die GFLOPS als Performanceindikator doch eigendlich vergessen. Wenn man denn will könnte man ja auch nur 300Mhz mit 1512Mhz Shadertakt kombinieren und würde so die gleiche arithmetische Leistung wie 600Mhz und 1512Mhz Shadertakt erreichen? :|
Ich glaube die G92GX2 wird eher so aussehen:
2x 650Mhz GPU-Takt
2x 1625Mhz Shader-Takt
2x 96 SPs (je 6 Cluster)
2x 16 ROPs
2x 800Mhz GDDR3 (102,4GB/s)
2x 256Bit SI
2x 512 und/oder 1024MB Vram
Ja würde es! Darum musst du um auf die Leistung schließen zu können mehrere Dinge beachten: Arithmetikleistung, Texelfüllrate, Pixelfüllrate und Speicherbandbreite.
Hvoralek
2007-12-14, 21:12:17
Darum musst du um auf die Leistung schließen zu können mehrere Dinge beachten: Arithmetikleistung, Texelfüllrate, Pixelfüllrate und Speicherbandbreite.Genau genommen nicht die Pixel-, sondern die Z- Füllrate. Die Pixelfüllrate ist praktisch egal.
Stimmt, die ROPs sind ja an das SI gebunden. Meinst du 24 ROPs wären wirklich zu wenig (würden schon gut limitieren)? Sind immerhin 50% mehr als ein einzelner G92.
Edit:
Ich spinne jetzt mal ein wenig. :D
G92GX2:
2x 600Mhz GPU-Takt
2x 1512Mhz Shader-Takt
2x 96 SPs (je 6 Cluster)
2x 12 ROPs
2x 1000Mhz GDDR3 (96GB/s)
2x 192Bit SI
2x 768MB Vram
Kann hier jemand bitte die GFLOPs ausrechnen?
Viel zu wenig. Bei diesen Angaben kann man gleich auf einen Single-Karte Lösung setzen.
Und vor AMD muss nVidia keine angst haben. Die 3870 ist im Durchschnitt mit AA und AF ca. 40% langsamer.
LovesuckZ
dargo
2007-12-14, 21:48:09
Viel zu wenig. Bei diesen Angaben kann man gleich auf einen Single-Karte Lösung setzen.
Und vor AMD muss nVidia keine angst haben. Die 3870 ist im Durchschnitt mit AA und AF ca. 40% langsamer.
LovesuckZ
Hier hast du 936GFLOPS was bei 85% SLI Effizienz ca. 50-55% mehr Leistung als die GTX liefert. Beim Speicher könnte man auch auf 2x 900Mhz gehen.
2x 650Mhz GPU-Takt
2x 1625Mhz Shader-Takt
2x 96 SPs (je 6 Cluster)
2x 16 ROPs
2x 800Mhz GDDR3 (102,4GB/s)
2x 256Bit SI
2x 512 und/oder 1024MB Vram
LovesuckZ
2007-12-14, 22:36:01
Sollte auch mit einer Single-Karte Lösung erreicht werden können. Die 8800GTX-512 scheint sich bei den recheneinheiten auf ca. 1900Mhz zu bringen. 125mhz mehr und man hat die 50% Mehrleistung.
Dazu kommt noch, dass man auf Basis des G92 keine wirtschaftliche Vorraussetzung hat zwei Chips auf "eine" Karte zu verbauen, die maximal 500€ kosten kann. Und sollte im Frühjahr - in der Richtung Februar bzw. März - ein neuer Chip kommen, verstehe ich nicht den Sinn des G92.
dargo
2007-12-14, 22:41:16
Sollte auch mit einer Single-Karte Lösung erreicht werden können. Die 8800GTX-512 scheint sich bei den recheneinheiten auf ca. 1900Mhz zu bringen. 125mhz mehr und man hat die 50% Mehrleistung.
1. Es gibt keine G8800GTX-512
2. Nur weil sich ein G92 bis auf 1900Mhz Shadertakt übertakten lässt heißt es noch lange nicht, dass NV diesen Takt serienmäßig verwenden wird. Einen Puffer verbaut man immer.
Und sollte im Frühjahr - in der Richtung Februar bzw. März - ein neuer Chip kommen, verstehe ich nicht den Sinn des G92.
Die letzten Gerüchte sprechen ja von keiner neuen High-End Single-GPU für zumindest Anfang 2008. Man geht von einer GX2 aus.
AnarchX
2007-12-14, 22:43:20
Und sollte im Frühjahr - in der Richtung Februar bzw. März - ein neuer Chip kommen, verstehe ich nicht den Sinn des G92.
Naja, wäre eben mit dem NV42 vergleichbar, welcher auch nur für die 6800GS (~8800 GT) herhielt im Performance-Bereich und dann noch im unteren Bereich einen Auftritt als 6800XT (~"8800 GS") hatte und eben im Mobile-Bereich als Go 6800 Ultra ("8800M-GTS/GTX" vermarktet wurde.
Zeitlich auch vergleichbar: Einführung im November 05, Ablösung durch G73 im März 06.
dargo
2007-12-14, 22:44:47
Dazu kommt noch, dass man auf Basis des G92 keine wirtschaftliche Vorraussetzung hat zwei Chips auf "eine" Karte zu verbauen, die maximal 500€ kosten kann.
Hö?
Eine G8800GT512 mit 112SPs kostet 229$. Eine GX2 mit 2x96 SPs könnte man imho in ~3 Monaten locker für 399-449$ verkaufen. Das wäre ein Straßenpreis von 340-380€.
LovesuckZ
2007-12-14, 22:47:11
2. Nur weil sich ein G92 bis auf 1900Mhz Shadertakt übertakten lässt heißt es noch lange nicht, dass NV diesen Takt serienmäßig verwenden wird. Einen Puffer verbaut man immer.
Wir reden hier von einer Karte mit der TDP einer 8800GTS-640. Mit einer höhreren Spannung sollten 810/2025 locker zu erreichen sein. Dann hätte man 40% mehr Texturleistung und 50% mehr Rechenleistung als eine 8800GTX. Und das mit einer TDP, die maximal wohl auf dem Niveau der 8800GTX liegen würde.
Die letzten Gerüchte sprechen ja von keiner neuen High-End Single-GPU für zumindest Anfang 2008. Man geht von einer GX2 aus.
Aus wirtschaftlicher Sicht macht dies mit einem G92 in seiner jetzigen Form keinen Sinn. Das nVidia ihre Affinität zu hohen Margen gerne bestätigt, bezweifel ich solch eine Karte doch sehr stark an.
Dazu noch 1gb Speicher und 1100-1200Mhz Speichertakt und man wäre aus Sicht der Fertigung wesentlich besser aufgestellt als AMD. Und der Kunde muss sich nicht mit dem typischen Problemen einer Multi-GPU Variante herumschlagen.
Naja, wäre eben mit dem NV42 vergleichbar, welcher auch nur für die 6800GS (~8800 GT) herhielt im Performance-Bereich und dann noch im unteren Bereich einen Auftritt als 6800XT (~"8800 GS") hatte und eben im Mobile-Bereich als Go 6800 Ultra ("8800M-GTS/GTX" vermarktet wurde.
Zeitlich auch vergleichbar: Einführung im November 05, Ablösung durch G73 im März 06.
Dann verstehe ich nicht, warum man den G92 8 Cluster gab, wenn 5-6 locker ausgereicht hätten, um mit AMD mitzuhalten. Hohe Taktraten scheinen bei nVidia's Design kein Problem zu sein und man hat mehr als genug Texturleistung, dass man hier hätte sparen können. Speicherbandbreite und -menge als Problemfall wären ja nicht schlimmer aufgetreten als jetzt...
Hö?
Eine G8800GT512 mit 112SPs kostet 229$. Eine GX2 mit 2x96 SPs könnte man imho in ~3 Monaten locker für 399-449$ verkaufen. Das wäre ein Straßenpreis von 340-380€.
Die Fertigung ist aufwendiger: Man benötigt zwei Chips vom Wafer. Und im schlimmsten Fall muss man bei spätiger Produktionsverbesserung vermehrt auf bessere Chips zurückgreifen. Dazu kommt die doppelte Speichermenge, die aufwendigere Platine und Kühlung. Bei einer hohpreisigen Single-Karte ist die Nachfrage geringer und somit der Bedarf nach sehr guten Chips auch kleiner. Und die anderen können dann als 8800GT/8800GTS verwendet werden.
Auch herrscht im Moment keine 7900GTX Zeit, wo man für eine X² locker zwischen 600-700€ nehmen kann. Mehr als 400€ ist nicht drin. Und da wäre man mit einer Single-Karte viel besser aufgestellt.
Ailuros
2007-12-14, 22:54:59
6 Cluster und 4 ROP-Partitionen. Was ändert das an der Tatsache, das mann auch die ROP-Partitionen verringern kann?
Man kann vieles. Ob es aber dann Sinn macht zich SKUs pro GPU hat ist dann eher die Frage. Eine GS fuer desktop, eine fuer Schlepptops, eine fuer weiss der Geier was auch immer usw....wenn Dir das jetzt nicht umstaendlich und unwirtschaftlich klingt dann weiss ich auch nicht mehr weiter.
laser114
2007-12-14, 22:59:45
Jedes Modell vom G92 was ich bisher kenne hat verschiedene SKUs (8800 GTS 512, 8800 GT, 8800M GTX und 8800M GTS). Meinst du eins mehr schadet da noch viel? Ich nicht. ;)
Nightspider
2007-12-14, 23:02:02
Ich glaube trotzdem nicht daran, das die neue HighEnd Grafikkarte 1.Q 2008 mit 2 Chips kommen wird. Vor allem nicht auf G92 Basis.
Bei 2 Chips ist doch dasselbe Problem wie mit dem Speicher oder ? Doppelt vorhanden aber nur einmal effektiv.
Bei eine Dual-G92 Karte wären das nur 2mal 256 Bit SI und deutlich mehr Leistung als eine 8800 GTX...das kann doch so nicht stimmen.
Ailuros
2007-12-14, 23:02:56
Ja, dann eben D9E. 1GB pro GPU wird nV aber brauchen, da ihnen bei den 512MB Karten sehr oft der VRAM ausgeht.
Da die SKUs gerade auf den Markt gekommen sind und es nicht besonders einfach ist von 320/640 auf 256/512 zu schalten, wuerde ich mit solchen Schlussfolgerungen etwas vorsichtiger sein. Fuer eine wirkliche dual-GPU high end Loesung braeuchten theoretisch sowohl AMD als auch NV eigentlich 1GB pro GPU, nur koennen sie dann leider das Resultat nicht mehr fuer =/>$500 verkaufen.
Der Ironie zu Liebe soll es ja auch eine 384MB GS noch geben, damit das ganze Schlammasel eben noch schlimmer wird.
LovesuckZ
2007-12-14, 23:05:51
Jedes Modell vom G92 was ich bisher kenne hat verschiedene SKUs (8800 GTS 512, 8800 GT, 8800M GTX und 8800M GTS). Meinst du eins mehr schadet da noch viel? Ich nicht. ;)
Weniger Cluster, aber gleiche ROP-Anzahl und somit gleiches Speicherinterface.
Ailuros
2007-12-14, 23:06:57
Jedes Modell vom G92 was ich bisher kenne hat verschiedene SKUs (8800 GTS 512, 8800 GT, 8800M GTX und 8800M GTS). Meinst du eins mehr schadet da noch viel? Ich nicht. ;)
Komischerweise haben alle vier obrigen 4 volle ROP partitions und 256 bzw. 512MB Speicher. Wieso es unnoetige Komplikationen mit sich fuehrt siehe 2 Posts weiter oben.
Ailuros
2007-12-14, 23:41:07
Wir reden hier von einer Karte mit der TDP einer 8800GTS-640. Mit einer höhreren Spannung sollten 810/2025 locker zu erreichen sein. Dann hätte man 40% mehr Texturleistung und 50% mehr Rechenleistung als eine 8800GTX. Und das mit einer TDP, die maximal wohl auf dem Niveau der 8800GTX liegen würde.
Da es interne Experimente mit bis zu 800/2400MHz gab, sieht es mir bis jetzt danach aus als ob man vorruebergehend (bis zum naechsten shrink womoeglich) diese Masche aufgegeben hat. Die Entscheidung fuer den 7. cluster der GT wurde wohl relativ kurzfristig getroffen.
Aus wirtschaftlicher Sicht macht dies mit einem G92 in seiner jetzigen Form keinen Sinn. Das nVidia ihre Affinität zu hohen Margen gerne bestätigt, bezweifel ich solch eine Karte doch sehr stark an.
Dazu noch 1gb Speicher und 1100-1200Mhz Speichertakt und man wäre aus Sicht der Fertigung wesentlich besser aufgestellt als AMD. Und der Kunde muss sich nicht mit dem typischen Problemen einer Multi-GPU Variante herumschlagen.
Ideal ist solch eine Loesung bei weitem nicht; man kann aber ziemlich viel Resourcen damit freilegen und sich auf zukuenftige Produkte besser konzentrieren.
Dann verstehe ich nicht, warum man den G92 8 Cluster gab, wenn 5-6 locker ausgereicht hätten, um mit AMD mitzuhalten. Hohe Taktraten scheinen bei nVidia's Design kein Problem zu sein und man hat mehr als genug Texturleistung, dass man hier hätte sparen können. Speicherbandbreite und -menge als Problemfall wären ja nicht schlimmer aufgetreten als jetzt...
8 cluster weil man die 640/GTS ersetzen wollte und man auch noch sinnvoll auf bis zu 6 cluster reduzieren kann. 4 ROP partitions sind nur Performance Material.
Wenn hohe Frequenzen kein Problem sein sollten, frage ich mich ernsthaft warum diese bis jetzt von 1.35GHz@90nm auf nur 1.625GHz@65nm gestiegen sind.
laser114
2007-12-14, 23:52:03
Wenn hohe Frequenzen kein Problem sein sollten, frage ich mich ernsthaft warum diese bis jetzt von 1.35GHz@90nm auf nur 1.625GHz@65nm gestiegen sind.
Mit der Ultra gibts ja sogar 1.5 GHz@90nm, wenn auch sicherlich nicht in den Stückzahlen der GTX.
LovesuckZ
2007-12-15, 00:01:27
Wenn hohe Frequenzen kein Problem sein sollten, frage ich mich ernsthaft warum diese bis jetzt von 1.35GHz@90nm auf nur 1.625GHz@65nm gestiegen sind.
Um dem Stromverbrauch niedrig zu halten.
Bei 1,1V der GT sind minimum wohl 1674Mhz drin. Bei 1,238V der GTS sind es anscheinend ca. 1850mhz. Ich sehe ehrlich kein Problem in der Erreichung von ca. 2025Mhz mit leicht erhöhter Spannung.
dargo
2007-12-15, 00:18:09
Bei 1,1V der GT sind minimum wohl 1674Mhz drin. Bei 1,238V der GTS sind es anscheinend ca. 1850mhz. Ich sehe ehrlich kein Problem in der Erreichung von ca. 2025Mhz mit leicht erhöhter Spannung.
http://img49.imageshack.us/my.php?image=880jz9.jpg
Weiß allerdings nicht ob die Spannung geändert wurde.
LovesuckZ
2007-12-15, 00:26:49
Das sind postive Ausnahmen. Fakt ist jedoch, dass ca. 740/1850 wohl zu 90% erreicht werden. Warum 810/2025Mhz bei leicht erhöhter Spannung ein Problem darstellen, erschließt sich mir nicht.
N0Thing
2007-12-15, 00:58:32
Hier hast du 936GFLOPS was bei 85% SLI Effizienz ca. 50-55% mehr Leistung als die GTX liefert. Beim Speicher könnte man auch auf 2x 900Mhz gehen.
Eine Effizentz von 85% ist doch sehr gewagt, zumal es immer von den Spielen anhängt, die man für einen Test benutzt. 75% erscheinen mir deutlich naheliegender, zumindest nach den Benchmarks, die ich bisher dazu gesehen habe, was immer noch besser ist, als Crossfire, wenn auch nicht viel.
Das sind postive Ausnahmen. Fakt ist jedoch, dass ca. 740/1850 wohl zu 90% erreicht werden. Warum 810/2025Mhz bei leicht erhöhter Spannung ein Problem darstellen, erschließt sich mir nicht.
Das ist und bleibt Spekulation, solange man nur einzelne Erfahrungsberichte hat und keine breite Basis. Ob sich alle in Foren melden, die nich über einen bestimmten Takt gekommen sind, weiß man einfach nicht.
Ailuros
2007-12-15, 06:05:14
Um dem Stromverbrauch niedrig zu halten.
Bei 1,1V der GT sind minimum wohl 1674Mhz drin. Bei 1,238V der GTS sind es anscheinend ca. 1850mhz. Ich sehe ehrlich kein Problem in der Erreichung von ca. 2025Mhz mit leicht erhöhter Spannung.
Das heisst aber dann dass das angegebene Ziel von fast 1 TFLOP nicht erreicht wurde; und nein 770GFLOPs liegen in meinem Buch nicht in der Region.
Ich hab mir in der Vergangenheit mal ganz grob erklaeren lassen wie IHVs ihre Frequenzen festsetzen; da stecken so viele Sicherheitsmassnahmen im Paket dass es selbstverstaendlich ist dass meistens eine sehr gute Uebertaktbarkeit erscheint. Eine 3870 kann man auch sehr gut uebertakten und hier fragen sich auch nicht wenige warum AMD die Dinger auf "nur" 775MHz ansetzte.
reunion
2007-12-15, 09:09:21
Um dem Stromverbrauch niedrig zu halten.
Bei 1,1V der GT sind minimum wohl 1674Mhz drin. Bei 1,238V der GTS sind es anscheinend ca. 1850mhz. Ich sehe ehrlich kein Problem in der Erreichung von ca. 2025Mhz mit leicht erhöhter Spannung.
1.25V ist nicht mehr so wenig für 65nm. Eine 3870 hat ebenfalls 1.25V Corespannung, und diese stellt nicht ohne Grund das höchste Modell der Serie dar. Ich glaube nicht das man hier noch viel weiter gehen kann. Und zwischen 1.625Ghz und 2.4Ghz (diese 2.4Ghz bräuchte man für "close to 1TFLOP") ist doch noch ein gehöriger Unterschied. Das man die GTS laut dir bis 1.85Ghz übertakten kann ist irrelevant, da man diese Knautschzone auch bei einem hypothetischen GTX mit 2.4Ghz Shadertakt bräuchte.
AnarchX
2007-12-15, 09:19:51
Wobei MSI ja schon eine 8800 GTS mit 730/1825MHz im Handel (http://www.hardtecs4u.com/reviews/2007/msi_nx8800gts/index8.php) anbietet.
Also wäre der Schritt auf 2GHz für eine High-End-SKU wohl gar nichtmal so unrealistisch, wenn auch natürlich wohlmöglich hier kein Potential mehr nach oben besteht, aber die 7900GTX war ja auch schon bei 700MHz Retail am Ende.
Ansonsten wäre wohl eine G92-xxx-A3 eine Mögllichkeit mehr Takt zu erreichen, G80-A3 hat dies ja auch gezeigt.
Aber es scheint wohl, dass G92 uns doch nicht so lange begleiten wird und Anfang 2008 neue GPUs anstehen, eben NV42-ähnlich... ;)
reunion
2007-12-15, 09:38:21
Wobei MSI ja schon eine 8800 GTS mit 730/1825MHz im Handel (http://www.hardtecs4u.com/reviews/2007/msi_nx8800gts/index8.php) anbietet.
Also wäre der Schritt auf 2GHz für eine High-End-SKU wohl gar nichtmal so unrealistisch, wenn auch natürlich wohlmöglich hier kein Potential mehr nach oben besteht, aber die 7900GTX war ja auch schon bei 700MHz Retail am Ende.
Ansonsten wäre wohl eine G92-xxx-A3 eine Mögllichkeit mehr Takt zu erreichen, G80-A3 hat dies ja auch gezeigt.
Aber es scheint wohl, dass G92 uns doch nicht so lange begleiten wird und Anfang 2008 neue GPUs anstehen, eben NV42-ähnlich... ;)
2Ghz Shaderclock bei 128SPs wären 768GFLOPs, das ist mit verlaub zu wenig.
dargo
2007-12-15, 10:56:41
2Ghz Shaderclock bei 128SPs wären 768GFLOPs, das ist mit verlaub zu wenig.
Wenn eh eine neue GPU erscheinen sollte wer sagt, dass diese bei 128SPs aufhört?
AnarchX
2007-12-15, 11:42:47
2Ghz Shaderclock bei 128SPs wären 768GFLOPs, das ist mit verlaub zu wenig.
GFLOPs:
472 / 345 = 1,37
990(CF!)/768 = 1,29
GTex/s:
12 / 24 = 0,5
24(CF!)/ ~50 = ~ 0,5
Wäre wohl als direkter Konkurrent durchaus möglich, wenn die 3870 X2 auf den ~$399-Bereich abzielt.
Also:
- 3870 X2 vs "9800 GTS 1GiB GDDR4" @ ~$399-499
- nichts vs 9800GX2 @ >$699
reunion
2007-12-15, 13:32:16
GFLOPs:
472 / 345 = 1,37
990(CF!)/768 = 1,29
GTex/s:
12 / 24 = 0,5
24(CF!)/ ~50 = ~ 0,5
Wäre wohl als direkter Konkurrent durchaus möglich, wenn die 3870 X2 auf den ~$399-Bereich abzielt.
Also:
- 3870 X2 vs "9800 GTS 1GiB GDDR4" @ ~$399-499
- nichts vs 9800GX2 @ >$699
Naja, die 8800GTS/640, die du hier anscheinend als Vergleich heranziehst, ist aber doch meist langsamer als die 3870. Zudem darfst du auch nicht vergessen das sich bei der 3870 X2 natürlich auch die Speicherbandbreite und die Z-Füllrate verdoppelt. Dafür hat man natürlich den CF-Nachteil, hier muss sich zeigen, wie gut AMD die Treiber hinbekommt. Eine GX2 - sofern sie wirklich kommt - braucht 1GB VRAM pro GPU, wenn nV auch in sehr hohen Auflösungen konkurrieren will und eine Leistung pro GPU, die mindestens auf 8800GT-Niveau (eher höher) liegt, um einen deutlich höheren Preis als die 3870 X2 zu rechtfertigen. Und da will ich dann auch erstmal die Kühlung und vorallem den Preis sehen.
Ailuros
2007-12-16, 06:31:10
1. Wenn NV zweimal quasi das gleiche andeutet (nahezu 1 TFLOP pro GPU und nahezu 3 TFLOP pro System), dann waere es marketingtechnischer Selbstmord wenn man mit <900GFLOPs ankommen wuerde.
2. G92 hat nichts im geringsten mit irgendetwas 9x00 zu tun. Macht die Augen es gibt keinen Schimmer D3D10.1 in G92.
3. reunion: bei heutigen dual-GPU setups ist gegen "R680" 512MB pro GPU vollkommen ausreichend. Den Kaugummi wirst Du irgendwann ausspucken muessen, wenn sich jemand ernsthaft hinsetzt und mit zukuenftigen Treibern den Speicherverbrauch pro GPU misst. Ich weigere mich natuerlich meine Hand ins Feuer zu legen fuer die GX2 Moeglichkeit seitens NV, aber es macht heute insgesamt mehr Sinn als bei einer single-chip Loesung. Selbst wenn so ein Ding ankommt, wird seine Lebenszeit so begrenzt sein dass man sich in der Zukunft fast nicht mehr daran erinnern wird.
AnarchX
2007-12-16, 10:46:46
1. Wenn NV zweimal quasi das gleiche andeutet (nahezu 1 TFLOP pro GPU und nahezu 3 TFLOP pro System), dann waere es marketingtechnischer Selbstmord wenn man mit <900GFLOPs ankommen wuerde.
Was aber dann wohl wieder auf eine Single-GPU hindeuten würde, 4-Way-SLI hat man ja in gewisser Weise in der Launchpräsentation zu Tri-SLI als suboptimal dargestellt und da wird man wohl kaum auf 6-Way-SLI gehen...
2. G92 hat nichts im geringsten mit irgendetwas 9x00 zu tun. Macht die Augen es gibt keinen Schimmer D3D10.1 in G92.
Aber warum hat man das Teil dann nicht einfach G82 genannt, was logischer wäre? :|
James Ryan
2007-12-16, 12:17:01
Zudem darfst du auch nicht vergessen das sich bei der 3870 X2 natürlich auch die Speicherbandbreite und die Z-Füllrate verdoppelt.
Warum verdoppelt sich die Speicherbandbreite bei Crossfire? :|
MfG :cool:
AnarchX
2007-12-16, 12:21:13
Warum verdoppelt sich die Speicherbandbreite bei Crossfire? :|
Wegen der redundanten Speicherhaltung unter AFR, jede GPU hat somit ihr eigenes Speicherinterface/-bandbreite, ist bei SLI auch so.
Aber die Verdopplung ist AFAIK schon sehr theoretisch, noch theoretischer als die Verdopplung der Rechenleistung, bei heutige Renderverfahren.
Naja, die 8800GTS/640, die du hier anscheinend als Vergleich heranziehst, ist aber doch meist langsamer als die 3870.
Ohne AA und AF vielleicht, ansonsten doch eher drunter.
Ailuros
2007-12-17, 05:51:53
Was aber dann wohl wieder auf eine Single-GPU hindeuten würde, 4-Way-SLI hat man ja in gewisser Weise in der Launchpräsentation zu Tri-SLI als suboptimal dargestellt und da wird man wohl kaum auf 6-Way-SLI gehen...
D8E vs. D9E mit minimalem Zeitabstand.
Aber warum hat man das Teil dann nicht einfach G82 genannt, was logischer wäre? :|
Siehe oben.
AnarchX
2007-12-17, 17:44:31
PHK mal wieder:
Exclusive爆料
Next year 1 and February, NV issued D9E-40/20
According to insiders informer told me but live:
NV plans to January 08 release dual-PCB D9E-40 (1GB, MC256x2, 2x4 +2 x3, 225W)
While D9E-20 are planned February release D90-20 single-PCB (512MB MC256 2x4 or 2 x3 + x3, 180W)
Adjourned unfinished ...
http://we.pcinlife.com/thread-863467-1-1.html
Wenn die "9800GTS" mit nur 512MB Referenz kommt, sollte NV doch schonmal etwas am Speichermanagment arbeiten, ebenfalls wenn es sich bei D9E-40 um die Onboard-Speichermenge handelt...
laser114
2007-12-17, 17:54:53
180 Watt bei der D90-20, die Single-GPU ist? :|
AnarchX
2007-12-17, 18:01:09
180 Watt bei der D90-20, die Single-GPU ist? :|
In der Tat: :|
Aber nunja, wohlmöglich kommt sie mit >=800/2000MHz daher und dann noch der von NV bestellte 1.6GHz GDDR4, wo diese TDP für eine 65nm GPU vielleicht gar nichtmal so abwegig wäre. (die neue 88GTS hat ja schon 140W...)
GeneralHanno
2007-12-17, 18:03:29
was soll das heißen: 2x4 +2 x3 ????
AnarchX
2007-12-17, 18:07:05
was soll das heißen: 2x4 +2 x3 ????
Stromstecker.
James Ryan
2007-12-17, 18:11:18
PHK mal wieder:
http://we.pcinlife.com/thread-863467-1-1.html
Wenn die "9800GTS" mit nur 512MB Referenz kommt, sollte NV doch schonmal etwas am Speichermanagment arbeiten, ebenfalls wenn es sich bei D9E-40 um die Onboard-Speichermenge handelt...
:|
Warum dieser Rückschritt bei der GTS? Mehr als 512 MB sind doch schon seit über einem Jahr im High-End Standard, und eine Gf 9800 GTS wird das High-End im nächsten Jahr sein. Komischer Schachzug von NVIDIA.
MfG :cool:
laser114
2007-12-17, 18:11:41
Aber nunja, wohlmöglich kommt sie mit >=800/2000MHz daher und dann noch der von NV bestellte 1.6GHz GDDR4, wo diese TDP für eine 65nm GPU vielleicht gar nichtmal so abwegig wäre. (die neue 88GTS hat ja schon 140W...)
Man bastelt also eine fette GPU, die von der TDP leicht über den Niveau der 8800 GTX/Ultra liegt; nimmt diese aber nicht als High-End sondern eine Dual-GPU-Lösung bei 225 W?
Aus welchen Chips soll denn diese Dual-Karte bestehen? Die müsste ja mit deutlich niedrigerer Verlustleistung pro Chip laufen.
GeneralHanno
2007-12-17, 18:12:06
ok, d.h leider keine angaben zu den ausführungseinheiten :(
dargo
2007-12-17, 18:16:41
Aus welchen Chips soll denn diese Dual-Karte bestehen? Die müsste ja mit deutlich niedrigerer Verlustleistung pro Chip laufen.
Zwei zusammengeklatschte G8800GTs ergeben nahezu 225W TDP.
laser114
2007-12-17, 18:45:11
Hmm, dann sollten im G92 aber doch D3D10.1-Funktionen stecken, falls der genutzt werden soll. ;)
LovesuckZ
2007-12-17, 18:48:29
Hmm, dann sollten im G92 aber doch D3D10.1-Funktionen stecken, falls der genutzt werden soll. ;)
Muss ja. Wirtschaftlich gesehen macht es keinen Sinn zwei verschiedene Chips zu produzieren.
mapel110
2007-12-17, 19:02:06
Ailuros hat doch gesagt, dass der G92 keine lange Lebensdauer haben wird und er recht schnell vom neuen Performance-Chip abgelöst wird.
Ich kann mir gut vorstellen, dass nvidia auch erstmal Erfahrungen mit 65nm und komplexen Chips sammeln wollte, bevor sie da weiter gehen mit den selben oder auch neueren Designs.
Also ich kann jedenfallls auch nicht mehr an DX10.1 bei bisherigen nvidia-Produkten glauben. Man hätte ATI diesen Marketingvorteil sicher nicht eingeräumt.
reunion
2007-12-17, 19:05:57
Also ich kann jedenfallls auch nicht mehr an DX10.1 bei bisherigen nvidia-Produkten glauben. Man hätte ATI diesen Marketingvorteil sicher nicht eingeräumt.
Es wurde doch schon längst indirekt bestätigt, dass keine GF8 D3D10.1 vollständig unterstützt.
Hvoralek
2007-12-17, 23:40:48
D8E vs. D9E mit minimalem Zeitabstand.Ist D8E nicht G80? :confused:
Nein, G92 ist D8E, davor gabs diese Einteilung noch nicht.
Alle D9x Derivate sind volle D3D10.1 GPUs.
Hvoralek
2007-12-18, 02:20:29
Nein, G92 ist D8E, davor gabs diese Einteilung noch nicht.G92 ist D8P.
Ailuros
2007-12-18, 12:37:47
Ist D8E nicht G80? :confused:
Nein.
Ailuros
2007-12-18, 12:42:11
Hmm, dann sollten im G92 aber doch D3D10.1-Funktionen stecken, falls der genutzt werden soll. ;)
Nochmals nein. Falls es D8E tatsaechlich geben wird, wird dieser genauso wenig Sinn machen wie die G70/GX2 die im Handumdrehen fuer die G71/GX2 verschwunden ist.
AnarchX
2007-12-18, 12:46:26
Wo und wann gab eine G70-GX2? :|
7900GX2 und 7950GX2 setzen beide auf G71.
deekey777
2007-12-18, 13:19:01
Wo und wann gab eine G70-GX2? :|
7900GX2 und 7950GX2 setzen beide auf G71.
Die Quadro-Version hatte noch den G70. Ob auch die 7900GX2 auch den G70 nutzte, weiß ich nicht.
mapel110
2007-12-18, 13:34:12
Also ich meine mich auch an eine 7800 GX2 errinnern zu können. Die war aber wirklich sehr schnell wieder weg bzw vielleicht hab ich dazu auch nur irgendeine News gelesen, dass die kommen soll inkl. eines Vorserien-Pics der Karte. :uponder:
Snoopy1978
2007-12-18, 18:08:56
An eine 7800GX2 kann ich mich nicht erinnern.Aber die 7900GX2 mit ihrer ansehnlichen Länge ist mir noch gut im Bewusstsein.
robbitop
2007-12-18, 18:20:41
Es gab diverse Dual Chip G70, G72 und NV43 Karten. Die wurden von BFG (??) limitiert gefertigt. IIRC aber ohne PEG Switch, so dass jede GPU mit PEG8x angebunden war und einen SLI Chipsatz benötigte.
AnarchX
2007-12-18, 18:23:04
Es geht aber eher um offizielle Karten, Galaxy brachte mit ihren Masterpieces so einige Dual-NV-GPU-Karten heraus, da war mir doch eine G70-GX2 neu.
Die ersten Dualkarten für Dell hatten noch G70.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/januar/nvidia_dell_quad_sli-pc/
kommen echte Infos zu den neuen Highendkarten erst nach x-mas ? Damit man mit den alten Karten nochmal auf Dummfang gehen kann.
http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1476485/nvidia.html
Starten die den neuen Chip gleich als Dual oder sind das zwei 8800er ?
Wenns der Neue ist,warum nicht erstmal als Single,dann kann man die Leute doch zweimal abzocken .
Hvoralek
2007-12-25, 19:23:38
http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1476485/nvidia.html
Starten die den neuen Chip gleich als Dual oder sind das zwei 8800er ?
Wenns der Neue ist,warum nicht erstmal als Single,dann kann man die Leute doch zweimal abzocken .Gerüchte um eine High- End- Doppelchipkarte Anfang 2008 gibt es schon länger. Das sind wohl entweder zwei D8Ps (8800 GT/ GTS512) oder zwei D9Ps (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=395419) (dessen Nachfolger, wahrscheinlich aber etwas schwächer). Ob noch ein 9xxx- High- End- Einzelchip kommt, scheint im Moment fraglich. Sicher ausschließen kann man, dass auf dieser GX2 schon Chips verbaut werden, die einzeln schneller sind als die der 8800er.
Ailuros
2007-12-27, 06:42:41
Gerüchte um eine High- End- Doppelchipkarte Anfang 2008 gibt es schon länger. Das sind wohl entweder zwei D8Ps (8800 GT/ GTS512) oder zwei D9Ps (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=395419) (dessen Nachfolger, wahrscheinlich aber etwas schwächer). Ob noch ein 9xxx- High- End- Einzelchip kommt, scheint im Moment fraglich. Sicher ausschließen kann man, dass auf dieser GX2 schon Chips verbaut werden, die einzeln schneller sind als die der 8800er.
Theoretisch und nach 3dfart Zahlen stets:
2*D9P = ~=/>18000 = ~8800GTX + 50%
Passt ja zu den "News" die sich auf die PCOnline Benches beziehen (China Webseite) http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1476491/nvidia.html
9600GTS 10754 im 3DMark 06, im SLI kommt man an die Werte die Ailuros geschrieben hat.
Macht also 2x eine 9600GTS/GT mit je 512MB und 256Bit-SI, ist wohl eine 64SPU GPU?
Ailuros
2007-12-27, 16:22:45
9600GTS 10754 im 3DMark 06, im SLI kommt man an die Werte die Ailuros geschrieben hat.
Macht also 2x eine 9600GTS/GT mit je 512MB und 256Bit-SI, ist wohl eine 64SPU GPU?
128 SPs (2*64) @1.5GHz ergibt weniger GFLOPs als eine GTS/512.
Naja - viel sieht man nicht... :wink:
GeForce 9800 GX2
http://enthusiast.hardocp.com/article.html?art=MTQzOSwxLCxoZW50aHVzaWFzdA==
AnarchX
2008-01-04, 13:31:30
Naja - viel sieht man nicht... :wink:
GeForce 9800 GX2
http://enthusiast.hardocp.com/article.html?art=MTQzOSwxLCxoZW50aHVzaWFzdA==
Wirklich so blind?:|
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=395419
-> GeForce 9: 9600GT und D9E im Q1 2008?
Der Thread hier könnte eh mal dicht gemacht werden...
Wirklich so blind?:|
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=395419
-> GeForce 9: 9600GT und D9E im Q1 2008?
Der Thread hier könnte eh mal dicht gemacht werden...
Was hat das mit der 9600GT zu tun?
Alles ziemlich unübersichtlich...
Bleib friedlich, ... bitte :wink:
AnarchX
2008-01-04, 13:37:43
"... und D9E...";)
Also bitte dort weiterdiskutieren und posten, dieser Thread wird eh bald geschlossen, da er auch schon die forumverträgliche 50 Seiten-Marke überschritten hat.
GeneralHanno
2008-01-04, 13:38:04
Dann macht den Thread doch zu und verweist auf die "Nachfolger". Zumal der Thread die 1000er Posts Marke ja schon gesprengt hat !
anddill
2008-01-04, 13:56:41
Nachfolgegeneration:GeForce 9: 9600GT und D9E im Q1 2008? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=395419)
8800 GS - 192-Bit, 384MB, 96SPs (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=396949)
3-Wege-SLI (Triple-SLI) (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=380832)
8800GT (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=393782)
8800GTS (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=393044)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.