Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x - Teil 3
AnarchX
2007-10-26, 16:32:17
Hmm... Unterscheiden sich G84 und G86 nur durch den einen Cluster oder ist bei letzterem noch irgendetwas gestrichen?
Das ist natürlich unbekannt und könnte es erklären.
Allerdings war auch bei der G92- GTS bisher, wenn überhaupt, von einem 256- bit- SI die Rede. Ich möchte aber in dem Zusammenhang noch einmal an die Sache mit dem 1,6- GHz- GDDR4 erinnern: Der würde auch dabei noch für 102,4 GiB/s reichen, also ziemlich genau die Bandbreite einer 8800 Ultra :wink:
Aber glaubst du man wird 1.6GHz GDDR4 auf einer $305 G92-8800GTS sehen?
Mehr als 1.2GHz Speicher würde ich hier nicht erwarten.
Hmm... langsam wird es dochmal Zeit, dass jemand die Bilder der 384Bit-Prototyp-Next-Gen-NV-GraKa leakt, von der ich desöfteren schon gehört hatte. :D
btw.
Shack: Do you have any insight to how well the upcoming range of cards will support Crysis, not just on the high end but lower down the ladder as well?
Cevat Yerli: Very, very well. Stay tuned for more on this. In mid November you will see the new NVidia cards. They are a blast for Crysis and really, really very good deals.
http://www.shacknews.com/featuredarticle.x?id=639
Hvoralek
2007-10-26, 17:36:16
Aber glaubst du man wird 1.6GHz GDDR4 auf einer $305 G92-8800GTS sehen?
Mehr als 1.2GHz Speicher würde ich hier nicht erwarten.Ich erwarte auch nicht, dass die stärkste G92 "GTS" heißt. ImM vermute ich über der GT noch eine GTS mit 8 Clustern, die etwa auf dem Niveau der alten GTX liegt (also ca. 600/ 1500/ 1200) und eine 8- C- GTX darüber (vlt. 700/ 1800/ 1600).
Hmm... langsam wird es dochmal Zeit, dass jemand die Bilder der 384Bit-Prototyp-Next-Gen-NV-GraKa leakt, von der ich desöfteren schon gehört hatte. :D
btw.
http://www.shacknews.com/featuredarticle.x?id=639Dass Mitte Nov. neue Nvidia- GraKaen kommen, ist ja nichts Neues. Eben die übrigen G92er. Ich nehme schon an, dass wir von D8E nicht erst drei Wochen vor der VÖ etwas hören werden.
AnarchX
2007-10-26, 17:53:10
Ich nehme schon an, dass wir von D8E nicht erst drei Wochen vor der VÖ etwas hören werden.
D8E-GTS/GTX/Ultra sollten doch eigentlich die bisherigen G80-SKUs sein oder wie sollten sie sonst bezeichnet sein?
Naja, lassen wir uns überraschen, aber wohlmöglich wird es mit der near 1 TFLOPs SKU dieses Jahr nichts mehr, weil man abwarten will was ATi mit R670/R680 bringen wird oder vielleicht sollen die Enthusiasten jetzt erstmal noch eine 3. 88GTX/U kaufen und dann nochmal im Januar nochmal wegen der überzeugenden Leistung sich ein neue Drei-Gespann kaufen.:D
D8E-GTS/GTX/Ultra sollten doch eigentlich die bisherigen G80-SKUs sein oder wie sollten sie sonst bezeichnet sein?
Naja, lassen wir uns überraschen, aber wohlmöglich wird es mit der near 1 TFLOPs SKU dieses Jahr nichts mehr, weil man abwarten will was ATi mit R670/R680 bringen wird oder vielleicht sollen die Enthusiasten jetzt erstmal noch eine 3. 88GTX/U kaufen und dann nochmal im Januar nochmal wegen der überzeugenden Leistung sich ein neue Drei-Gespann kaufen.:D
Man könnte auch erst mal warten, bis jeder Gamer sich spieltaugliche DX10 Hardware zugelegt hat. Und das dürfte mit Hilfe der neuen GT passieren. Ausgezeichnete Leistung, sehr günstig. Dann dürften auch die letzten 7900 und X1900 aus dem Rechner der Gamer vertrieben werden. nV dürfte in nächster Zeit absolut dominieren. Die High Endler haben eh keine andere Wahl als bei nV zu bleiben. Wichtig, war/ist, dass die Zauderer jetzt noch ins nV Lager dank GT kommen werden. Amd steht wirklich auf verlorenem Posten. Da müssen die neuen Karten absolute Granaten werden, um Kunden die schon eine GT gekauft haben zum Wechseln zu bewegen. Will jetzt hier kein Flamewar anfangen, aber nV hat imho wirklich keinen Grund irgendetwas überhastet im High End durchprügeln zu müssen. Denke, dass die neuen High End Karten Anfang März nächsten Jahres kommen werden.
Wie sehr eine VIEL SCHNELLERE Graka als die 8800GTX von Nöten ist, sieht man schon bei Crysis!
19/20 Fps Average.
Na gute Nacht.....
Die 8800GT ist zwar gut bzgl. Preis/Leistung aber vllt. nur für ein Jahr brauchbar!
die GT schafft in Crysis noch keine 15fps...hört auf zu träumen.
Godmode
2007-10-26, 19:50:44
Wie sehr eine VIEL SCHNELLERE Graka als die 8800GTX von Nöten ist, sieht man schon bei Crysis!
19/20 Fps Average.
Na gute Nacht.....
Die 8800GT ist zwar gut bzgl. Preis/Leistung aber vllt. nur für ein Jahr brauchbar!
Crysis wird wohl der Grund für Tripple-SLI sein! ;)
die GT schafft in Crysis noch keine 15fps...hört auf zu träumen.
Umsonst heißt das Setting nicht "Very High"!
Wie sehr eine VIEL SCHNELLERE Graka als die 8800GTX von Nöten ist, sieht man schon bei Crysis!
19/20 Fps Average.
Na gute Nacht.....
Die 8800GT ist zwar gut bzgl. Preis/Leistung aber vllt. nur für ein Jahr brauchbar!
Man muss ja nicht gleich alles voll aufdrehen. Medium Settings reichen für das erste auch mal, im März dann mit very high durchspielen. Werden ja auch noch irgendwann extreme Einstellungen freigeschaltet. Denke, dass dann selbst der G90 dann wieder etwas zu langsam für diese Einstellungen sein wird. Crysis wird uns und die Hardware noch mindestens ein Jahr lang beschäftigen.
mapel110
2007-10-26, 20:07:07
Manche sagen ja auch, dass Crysis oder auch Farcry sehr gut für Benchmarks sind bzw sich gar kaum für mehr eignen. Ist allerdings nicht meine Meinung. ^^
Manche sagen ja auch, dass Crysis oder auch Farcry sehr gut für Benchmarks sind bzw sich gar kaum für mehr eignen. Ist allerdings nicht meine Meinung. ^^
und wenn schon!
Die Grafik ist dermaßend beeindruckend.
GOTHIC4 mit dieser Grafik wäre was feines oder irgendein Rollenspiel.
Stimmt des jetzt dass es auch ne neue GTS mit dem neuen Kern geben wird oder sind des nur Gerüchte?
ShinyMcShine
2007-10-27, 20:19:03
Ich hoffe ja auf eine neue 8800GTS@G92 mit Dualslotkühler für ca. 300-320 EUR mit den folgenden Daten:
650 MHz Chiptakt
128 Streamprozessoren @ 1625 MHz Shadertakt (ergibt 624 GFLOP)
20 ROPs
13000 MPix/s Pixelfüllrate
64 TMUs und TAUs
41600 MTex/s Texelfüllrate
512 GDDR3 @ 1100 MHz mit 256 Bit Speicherinterface (ergibt 70400 MB/s Speicherbandbreite)
Was meint Ihr: (Un)realistisch?
AnarchX
2007-10-27, 20:44:05
20 ROPs und 256Bit passen nicht, da es bei G8x/G9x ROP-Partitionen gibt, welche aus je 4 ROPs und einem 64-Bit-Speicherkanal bestehen.
Mich würde es nicht wundern, wenn die G92-8800 GTS gleich taktet wie die GT und eben nur einen Cluster(8TMUs/16SPs) mehr mitbringt, wären immerhin 17% mehr GPU-Leistung und in etwa das Niveau der 8800 Ultra, dazu halt noch 1GHz GDDR3 oder vielleicht doch 320Bit mit 900MHz.
Naja, wenn etwas dran ist, wird es wohl bald Leaks geben.
Vielleicht hat man ja diese mit der 8800M-GTX verwechselt...
Spasstiger
2007-10-27, 20:47:54
Was meint Ihr: (Un)realistisch?
20 ROPs kann nicht sein bei einem 256-Bit-SI, aber sonst spekuliere auch in diese Richtung.
Vielleicht nennt man so eine Karte dann auch GTX und bringt sie gleich mit 1 GiB VRAM. Dann hätte man wieder ausschließlich die Kürzel GT und GTX in der Performance- bis High-End-Baureihe.
Den G80 lässt man wohl sterben, da zu teuer in der Fertigung.
=Floi=
2007-10-27, 21:01:42
wird nv eigentlich dann das SI auf 512bit aufbohren?
AnarchX
2007-10-27, 21:05:00
wird nv eigentlich dann das SI auf 512bit aufbohren?
Wer braucht ein 512Bit SI heutzutage/in der nahen Zukunft, wenn man etwas dazwischen haben kann.;)
384Bit mit GDDR4 1.2GHz+ oder in 2008 mit GDDR5 sollte doch noch etwas ausreichen. Zudem kann man dann auch mal auf 1.5GiB als sinnvollen Zwischenschritt gehen.
=Floi=
2007-10-27, 21:06:51
ja, 1,5gb vram wären ideal, nur frage ich mich ob man da nicht gleich auf 512bit breite geht, damit der vram nicht limitiert und man keinen so teuren und schnellen ram braucht
Ein 512-Bit-PCB ist auch teuer, zudem muss der Chip dann ziemlich groß sein, damit das Pinout überhaupt so vorhanden sein kann.
Winter[Raven]
2007-10-27, 21:21:49
Ein 512-Bit-PCB ist auch teuer, zudem muss der Chip dann ziemlich groß sein, damit das Pinout überhaupt so vorhanden sein kann.
plz del
dargo
2007-10-27, 21:28:11
Mich würde es nicht wundern, wenn die G92-8800 GTS gleich taktet wie die GT und eben nur einen Cluster(8TMUs/16SPs) mehr mitbringt, wären immerhin 17% mehr GPU-Leistung und in etwa das Niveau der 8800 Ultra, dazu halt noch 1GHz GDDR3 oder vielleicht doch 320Bit mit 900MHz.
Das würde ich schon eher begrüßen. Schließlich ergibt das wieder 640MB Vram. :)
Also beim G92 würde ich das Verhältnis zwischen TMU/TA und SPs nicht als Fix ansehen. Die 8800GT zeigt ja das man jetzt vermehrt Schwerpunkte im Chip ausbaut (z.b. 56TAs bei "nur" 16ROPs).
Der Unterschied zwischen G80 und G84/86 hat ja schon gezeigt das die Architektur flexibel aufgebaut ist bzw. erweitert werden kann.
Mit den Verbesserungen der G9x Serie könnte man auch stark die SPs erhöhen, falls die bei hohem Takt zu heiß werden muss man eben wieder in die Breite gehen. 160SPs @ 1350MHz sind ja nicht schlechter als 128SPs @ 1500MHz.
20 oder 24 ROPs mit einem festen TMU/TA zu SP Verhältnis von 2:1 sind sicher im Simulator am laufen, Frage ist ob es Kühlbar ist oder wie der ominöse 32TMU G7x Chip zu heiß wird.
Ich denke das 160SPs mit 80TMU/TA Einheiten ein bissl overkill darstellen. Bei 600MHz wären das 48MTexel... und an Texelleistung verhungert die neue 8800GT ja sicher nicht, eher an Pixelfüllrate oder am SI.
24ROPs mit 140SPs und 60TMU/TA @600/1500 wären schon gepaart mit einem 384Bit SI und GDDR4... ownage.
Aber ich denke nicht das die eventuelle neue 8800GTS-G92 nur einen Cluster mehr mit bringt. Wann hat nV mal 2 gleichgetaktete Chips gehabt und einer ist abgespeckt. Eher packt man noch 50-100MHz drauf und taktet den Speicher etwas schneller. Damit wäre es möglich die GTX und evtl die Ultra mit einem Schlag abzulösen.
Ob noch breitere Chips kommen vor G90/G1x0, wer weiß...
Fetza
2007-10-27, 22:55:03
Ich habe in diesem thread schon länger nicht mehr nachgesehen, irgendwie reden ja jetzt alle von dieser neuen performance karte. Aber was ist denn nun mit dem high-end nachfolger des g80? Gibts darüber noch nichts? Weil seit dem ich die crysis demo gezockt habe, zieht es mich nach mehr grafikpower... und sli find ich irgendwie nicht so sinnvoll.
AnarchX
2007-10-27, 23:02:21
Das ist wäre mein Tipp für das neue High-End:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5944659&postcount=197
ShinyMcShine
2007-10-27, 23:10:00
@ Fetza:
Ich denke, die neue 8800GTS@G92 (oder wie immer sie auch heissen mag) wird vorerst genug Performance pro EURO für Crysis in "normalen" Auflösungen bis 1600x1200 bzw. 1680*1050 bieten.
Für höhere Auflösungen und Ansprüche muss halt noch die 8800 Ultra herhalten (da SLI für Dich keine Option ist) bis in Q1/2008 (wenn überhaupt) oder so der neue HighEnd-Chip kommt.
Ich glaube du hast noch nicht in den Demo-Benchmark Thread reingeschaut, aber selbst ein 8800GTX SLI Gespann unter Windows XP / DX9 ist am Rande des spielbaren in 1920*1200 + 4xAA
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=388068
Über DX10 und den Very High Detail Mode brauchen wir vor erscheinen einer GPU mit doppelter Shaderperformance der 8800Ultra gar nicht reden.
@AnarchX
SP Domain @ 2,2GHz is aber schon heftig hoch... die neue 8800GTS@G92 könnte da mehr aufschluss geben ob man mehr SPs verbaut oder ob man sie höher taktet für richtiges Highend.
@ Fetza:
Ich denke, die neue 8800GTS@G92 (oder wie immer sie auch heissen mag) wird vorerst genug Performance pro EURO für Crysis in "normalen" Auflösungen bis 1600x1200 bzw. 1680*1050 bieten.
Für höhere Auflösungen und Ansprüche muss halt noch die 8800 Ultra herhalten (da SLI für Dich keine Option ist) bis in Q1/2008 (wenn überhaupt) oder so der neue HighEnd-Chip kommt.
Ich erwarte trotzdem für den neuen High End Chip keine sehr großen Leistungsexplosionen, die man nach über 1 Jahr erwarten könnte - falls das mit dem Triple-SLi wahr werden sollte. Von immer doppelt so schnell wie eine GTX ist der wahrscheinlich etwas entfernt. Im neuen Jahr wird man dann zumindest um SLi als High End User nicht mehr rumkommen. Das Nonplusultra ist dann natürlich Triple-SLi.
Fetza
2007-10-27, 23:21:10
@ Fetza:
Ich denke, die neue 8800GTS@G92 (oder wie immer sie auch heissen mag) wird vorerst genug Performance pro EURO für Crysis in "normalen" Auflösungen bis 1600x1200 bzw. 1680*1050 bieten.
Für höhere Auflösungen und Ansprüche muss halt noch die 8800 Ultra herhalten (da SLI für Dich keine Option ist) bis in Q1/2008 (wenn überhaupt) oder so der neue HighEnd-Chip kommt.
Du, ich habe eine gts@621/1620/1020.... also macht für mich die neue gts nun keinen sinn :-)
Das ist wäre mein Tipp für das neue High-End:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5944659&postcount=197
Klingt brauchbar *g*, wenn sie denn so kommt!
ShinyMcShine
2007-10-27, 23:25:08
In diesem Sinne, musst halt noch ein bisschen warten... ;)
Warum gibt es eigentlich kein 24/32xAF Modus? Mit den vielen Einheiten wäre das doch drin, evtl. sogar gratis. Texturen mit 4xSSAA bearbeitet sehen halt doch besser aus als mit reinem 16xAF.
hallo!
durch die ganze crysis geschichte aufgeschreckt hab ich mal hier in den thread geschaut..ihr sprecht ja davon dass ne gf9 noch tatsächlich im november bzw morgen (29.10.07) vorgestellt werden sollen..danach riecht es aber nicht wirklich, oder? also bis auf die eine information die noch vom juni stammte..
gibts denn neue gerüchte, sagen wir, bis zum frühling, auf ne performanceerhöhung?
meiner meinung nach hat durch die schlappe von ati in dieser generation nvidia ihre neuen karten erstmal so ~1 jahr nach hinten verschoben. ich hoffe dass ich damit falsch liege..ich würde sagen dass crytek sich auch gewünscht hätten dass püntklich zum crysis start ne doppelt so starke gpu rauskommt..
Meiner Meinung hat der G92 nicht nur 112 SPs sondern eigentlich 128 wie der G80 auch. Nur bei der GT gibts halt nur 112, wahrscheinlich wegen der Ausbeute. Anfang 2008 kann man dann mit einer GTS/GTX/Ultra Rev.2 rechnen :D. Das würde die Performanceupdates erklären. Das kleinere Speicherinterface kann man ja doch höheren Speichertakt bequem erstzen ;).
Aber das ist nur Speku, sind ja auch im passenden Forum dafür ;). Mir kommt es nur verdammt komisch vor, einen Chip zu designen, der nativ 112SPs hat. Wollte den Gedanken nur mal anstossen.
GeneralHanno
2007-10-28, 17:29:31
oder der G92 hat doch 5 oder 6 ROP-part und bei der GT sind nur 4 freigeschaltet ...
Na ja ich glaube nicht, dass das 384Bit Speicherinterface noch vorhanden ist, damit gab es einfach zuviele (Software-)Probleme, die NV bis heute nicht befriedigend gelöst hat. Das hängt ziemlich sicher mit dem Memory Remapping zusammen, dass NV verwendet, um den Speicher auf 256MB Adressraum zu limitieren. Das wird mit den krummen Zahlen (Speichergrössen) nicht funktionieren, das ist der ganze Witz bei der Geschichte. Jetzt wo DDR4 in Massen verfügbar ist, ist das auch garnicht mehr nötig. Meiner Meinung nach ist das die einzige Veränderung, die man am G80 vorgenommen hat - das Speicherinterface auf 256Bit zu kappen (physisch ist das sicherlich auch noch vorhanden, nur werden wir es meiner Meinung nach nicht mehr sehen). Ansonsten ist der G92 ein lupenreiner Die Shrink. Die Grösse passt sehr gut und ich wette die Transistorzahl auch. Vielleicht sehen wir morgen was genaueres.
Hvoralek
2007-10-28, 17:49:59
Meiner Meinung hat der G92 nicht nur 112 SPs sondern eigentlich 128 wie der G80 auch. Nur bei der GT gibts halt nur 112, wahrscheinlich wegen der Ausbeute. Anfang 2008 kann man dann mit einer GTS/GTX/Ultra Rev.2 rechnen :D.Dickere G92er wird es wohl Mitte November geben :wink:
AnarchX
2007-10-28, 17:53:29
Na ja ich glaube nicht, dass das 384Bit Speicherinterface noch vorhanden ist, damit gab es einfach zuviele (Software-)Probleme, die NV bis heute nicht befriedigend gelöst hat.
Und die wären?
Nunja, zu 384Bit und somit 24 ROPs gibt es durchaus verschiedenen Meinungen und Aussagen....
Imo wäre es bei einem 289mm² Die, der noch entsprechendes Potential haben sollte bei den Taktraten eher unklug den Vorteil des Zwischen-SIs nicht zu nutzen.
Für 100GB/s bräuchte es schon High-End-GDDR4 mit 1.6GHz und 1GiB mit diesem wären wohl auch nicht sonderlich sinnvoll aus P/L-Sicht.
GeneralHanno
2007-10-28, 17:54:41
@HOT:
das ist doch widersprüchlich: es soll eine GTX/ULTRA rev.2 geben (auf G92 basis), aber die anzahl der nativen ROP-partitionen soll 4 betragen :|
Und? Vllt erachtet NV die als mächtig genug ;).
Wie gesagt, alles höchstz spekulativ ;).
James Ryan
2007-10-28, 18:03:11
Und die wären?
Du weißt sowieso was HOT meint, nämlich dass das 320/384 Bit Speicherinterface für den VRam Bug verantwortlich sein soll.
Selbstverständlich komplett ohne Beweis. ;)
Ich denke dass der HighEnd G92 wieder ein 384 Bit Speicherinterface haben wird, ganz einfach weil damit wieder 768 MB VRam möglich sind und natürlich die Geschwindkeit höher sein wird.
MfG :cool:
Oder eben marketingtechnisch eher konkurrenzfähige 1GB mit 256Bit.
Natürlich hab ich keinen Beweis, aber einen begründeten Verdacht. Den Beweis hat nur und ausschließlich NV und die rücken damit ganz sicher nicht raus. Was aber Fakt ist, ist dass es immer noch Probleme mit den GTS Versionen gibt. Es ist zwar was getan worden, aber die eigentliche Ursache ist nicht behoben. Es wurde eher an den Symptomen rumgedoktort. D.h. die 320MB Version ist jetzt überhaupt vernünftig nutzbar.
AnarchX
2007-10-28, 18:09:51
Du weißt sowieso was HOT meint, nämlich dass das 320/384 Bit Speicherinterface für den VRam Bug verantwortlich sein soll.
Selbstverständlich komplett ohne Beweis. ;)
Deshalb hoffte ich auch auf einer Erläuterung, da man den VRAM-Bug auch auf den 8600ern mit ihrem "normalen" 128Bit SI beobachten konnte (hiermit meine ich Szenarien wo 8600GT(S) teilweise hinter eine 7600GT teilweise sogar GS fiel).
Du kannst auch nur lästern (dazu noch sehr einseitig). Konstruktive Beiträge habe ich von dir noch nicht gelesen. Technische Erklärungen, überhaupt nur Ansätze: Fehlanzeige.
James Ryan
2007-10-28, 18:22:16
Natürlich hab ich keinen Beweis, aber einen begründeten Verdacht. Den Beweis hat nur und ausschließlich NV und die rücken damit ganz sicher nicht raus.
Och bitte... :rolleyes:
Entweder du kannst Beweise liefern oder du erzählst keine Märchen.
MfG :cool:
reunion
2007-10-28, 18:24:01
Was aber Fakt ist, ist dass es immer noch Probleme mit den GTS Versionen gibt.
Achtung: Wenn das die falschen lesen, geht gleich wieder eine seitenlange, völlig überflüssige Diskussion los, ob der VRAM-Bug überhaupt existiert.
Achtung: Wenn das die falschen lesen, geht gleich wieder eine seitenlangen, völlig überflüssige Diskussion los, ob der VRAM-Bug überhaupt existiert.
Jo hast recht ;) War auch nur ein Gedankenspiel sonst nix. Das man da immer gleich so drauf einsteigen muss, ist mir auch total unverständlich.
Deshalb hoffte ich auch auf einer Erläuterung, da man den VRAM-Bug auch auf den 8600ern mit ihrem "normalen" 128Bit SI beobachten konnte (hiermit meine ich Szenarien wo 8600GT(S) teilweise hinter eine 7600GT teilweise sogar GS fiel).
Das ist ein interessanter Punkt. Ist das sicher, dass das am SI liegt? Erläuterung ist weiter oben.
AnarchX
2007-10-28, 18:31:15
Das ist ein interessanter Punkt. Ist das sicher, dass das am SI liegt? Erläuterung ist weiter oben.
Wieso SI?
Wenn dann liegt es am Speichermanagment, was an sich ja eher eine Software(Treiber)-Sache ist.
Hier mal ein Beispiel, wo die 86GTS hinter eine 76GT fällt, der bekannte Speicherfresser CoD2:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/12/#abschnitt_call_of_duty_2
Ich ging davon aus was das klar ist nach meinem Initialposting oben :rolleyes:
Die Benches zeigen aber schon in diese Richtig. Verhält sich eine 8600GTS auch so wie eine 8800GTS, wenn das Spiel länger läuft (bei älteren Treibern vornehmlich)?
LovesuckZ
2007-10-28, 18:39:11
Achtung: Wenn das die falschen lesen, geht gleich wieder eine seitenlange, völlig überflüssige Diskussion los, ob der VRAM-Bug überhaupt existiert.
Jaja, früher dachten auch alle es gäbe Hexen und die Welt wäre eine Scheibe. Genauso wie man eben heute glaubt, es gäbe einen VRam Bug. Komisch an der Sache ist nur, dass diejenigen, die ihn prädigen, keinen Beweis für seine Existenz haben.
Was der Kirche lieb war, kann dir nur billig sein, gell?
Dann gibts halt keinen ;). Dann sind die Karten bei viel Speichernutzung halt einfach lahm. Das spricht nicht grade für die Serie :D. Mal im Ernst, es gab diese Schlussfolgerung ja nicht umsonst bei der GTS. "Die Erde ist flach" passt eher zu den Leuten, die nicht glauben wollen, dass es da ein Problem gab/gibt. Die andere Fraktion glaubt eher an Ufos ;).
Nakai
2007-10-28, 18:54:24
Komisch an der Sache ist nur, dass diejenigen, die ihn prädigen, keinen Beweis für seine Existenz haben.
Komisch, dass nahezu alle Tests die im Inet vorhanden sind, einen erheblichen Einbruch bei hohen Auflösungen und Qualitätsfeatures bei der Geforce 8800GTS 320 zu verzeichnen sind.
Was der Kirche lieb war, kann dir nur billig sein, gell?
Cool Polemik...;D
mfg Nakai
€: Ich glaube an UFOs:P
James Ryan
2007-10-28, 19:01:49
Ob der VRam-Bug exisitiert oder nicht, ist egal.
Nicht egal ist es, wenn ein Mr. HOT einfach ohne jeglichen Beweis behauptet, dass das Speicherinterface der GTS/GTX für diesen VRam-Bug verantwortlich sein soll.
Das ist einfach nur Spekulation seinerseits, nichts weiter, dementsprechend sollte es auch gekennzeichnet sein.
MfG :cool:
LovesuckZ
2007-10-28, 19:57:20
Dann gibts halt keinen ;). Dann sind die Karten bei viel Speichernutzung halt einfach lahm. .
Wenn der Speicher ausgeht, ist jede Karte "halt einfach lahm". :rolleyes:
Komisch, dass nahezu alle Tests die im Inet vorhanden sind, einen erheblichen Einbruch bei hohen Auflösungen und Qualitätsfeatures bei der Geforce 8800GTS 320 zu verzeichnen sind.
Hm, passiert auch auf dem r600. Bug? Die X2600XT Karten haben auch "einen erheblichen Einbruch bei hohen Auflösungen und Qualitätsfeatures". Bug?
Man, Hardware ist heutzutage sowas von verbuggt, scheiß Kapitalisten.
reunion
2007-10-28, 19:59:34
Wenn der Speicher ausgeht, ist jede Karte "halt einfach lahm". :rolleyes:
Aber nicht lahmer als eine langsamere Karte mit gleich viel oder gar weniger VRAM.
Aber nicht lahmer als eine langsamere Karte mit gleich viel oder gar weniger VRAM.
Das kommt auf das Management bei einem Speicher-"Überfluss" an. Und auf die Anbindung an das Host-System.
Wenn der Speicher ausgeht, ist jede Karte "halt einfach lahm". :rolleyes:
Jo früher oder später ;). Den Geforce8 offenbar eher früher.
Hm, passiert auch auf dem r600. Bug? Die X2600XT Karten haben auch "einen erheblichen Einbruch bei hohen Auflösungen und Qualitätsfeatures". Bug?
Man, Hardware ist heutzutage sowas von verbuggt, scheiß Kapitalisten.
Der ist klar vorhanden, AA ist auf dem R600 nachgewiesenermassen lahm und es scheint auch nicht behebbar zu sein. Das steht völlig außer Frage und ist vollkommen OT. Diente wohl nur als polemische Anspielung...
Ob der VRam-Bug exisitiert oder nicht, ist egal.
Nicht egal ist es, wenn ein Mr. HOT einfach ohne jeglichen Beweis behauptet, dass das Speicherinterface der GTS/GTX für diesen VRam-Bug verantwortlich sein soll.
Das ist einfach nur Spekulation seinerseits, nichts weiter, dementsprechend sollte es auch gekennzeichnet sein.
MfG :cool:
Eigentlich spekuliert doch jeder ob und was da los ist. Darum gehts hier nicht, das hier ist ein Spekulationsforum, hier darf man spekulieren. Es gibt halt das Problem, dass den Geforce8 schnell der VRAM ausgeht. Das kann man auch nicht wegdiskutieren, obwohl das in deine heile Welt wohl nicht reinpasst... Und der Ton, den du anschlägst ist gelinde gesagt scheisse, sorry.
James Ryan
2007-10-28, 20:17:19
Eigentlich spekuliert doch jeder ob und was da los ist. Darum gehts hier nicht, das hier ist ein Spekulationsforum, hier darf man spekulieren. Es gibt halt das Problem, dass den Geforce8 schnell der VRAM ausgeht. Das kann man auch nicht wegdiskutieren, obwohl das in deine heile Welt wohl nicht reinpasst... Und der Ton, den du anschlägst ist gelinde gesagt scheisse, sorry.
Spekulieren ist eine Sache, bei dir ist es aber anscheinend Fakt, dass das "krumme" SI der G80 Karten verantwortlich ist für den VRam-Bug.
Du hast allerdings keinen einzigen Beweis dafür! Und sorry, sowas finde ich gelinde gesagt auch scheisse.
MfG :cool:
=Floi=
2007-10-28, 20:31:03
aber die frage ist auch ob nicht gleich ein richtig aufgebohrter chip kommt. 192sp wäre ideal und damit würde man auch bei der shaderleistung vor amd liegen
Spekulieren ist eine Sache, bei dir ist es aber anscheinend Fakt, dass das "krumme" SI der G80 Karten verantwortlich ist für den VRam-Bug.
Du hast allerdings keinen einzigen Beweis dafür! Und sorry, sowas finde ich gelinde gesagt auch scheisse.
MfG :cool:
Das war ein Ansatz, der sich angesichts AnarchX Einwand offenbar nicht bestätigt. Na und? Muss man jetzt so nen Zwergenaufstand deswegen machen? Die Sache ist ja offenbar geklärt.
AnarchX
2007-10-29, 22:28:43
http://hkepc.com/?id=280&page=1#view
http://img223.imageshack.us/img223/3368/23532628102007nvidia20gom9.jpg
G92 = 8C(128SPs) und 5RPs(320)Bit? :|
HKEPC meint die neue 8800 GTS soll am 19.11. für ~$349 und mit dem G92-400 kommen.
Nakai
2007-10-29, 22:30:48
Wie kommt man dann bitte auf 754 Millionen Transistoren?
mfg Nakai
AnarchX
2007-10-29, 22:33:50
Wie kommt man dann bitte auf 754 Millionen Transistoren?
Das ist die Frage...
Auf jeden Fall werden wohl die 32 zusätzliche TAs etwas kosten, sowohl als auch IO+VP2.
DP scheint ja laut NV nicht im G92 enthalten zu sein.:|
laser114
2007-10-29, 22:37:47
320 Bit?
Um dann eine neue High-End-Lösung bei 640 MB zu kreieren?
Passt irgendwie auch nicht.
Godmode
2007-10-29, 22:45:11
Also entweder schafft es nvidia alles dicht zu halten, oder die Highend SKU des G9x kommt doch noch nicht so bald. Weiß noch wer wann wir das erstemal Bilder der 8800 GT zu Gesicht bekommen haben.
PCGH_Carsten
2007-10-29, 22:49:53
320 Bit?
Um dann eine neue High-End-Lösung bei 640 MB zu kreieren?
Passt irgendwie auch nicht.
Du kannst damit auch 1.280 MiByte hinbekommen.
laser114
2007-10-29, 22:51:44
Du kannst damit auch 1.280 MiByte hinbekommen.
Hmm, gibts denn schon so große und schnelle GDDR3/4-Speicher?
Das wird doch so wieder unnötig teuer ... aber naja, ist eben High-End. Gäbe dann bestimmt auch eine 640 MiB-Version.
Don Vito
2007-10-29, 23:51:29
Hmm, gibts denn schon so große und schnelle GDDR3/4-Speicher?
Das wird doch so wieder unnötig teuer ... aber naja, ist eben High-End. Gäbe dann bestimmt auch eine 640 MiB-Version.
Das Problem wird da eher was anderes...
Gut ich habe ein 64BIT OS...
Aber SLI oder glecih Tripple SLI...
man stelle sich vor 2x 1280MiB bzw 3x 1280MiB;D
robbitop
2007-10-29, 23:55:32
Das Problem wird da eher was anderes...
Gut ich habe ein 64BIT OS...
Aber SLI oder glecih Tripple SLI...
man stelle sich vor 2x 1280MiB bzw 3x 1280MiB;D
Es wäre, dank uraltem und unfortschrittlichem AFR-Verfahren, aber nur effektiv 1x1280 MiB. Und das mit fett geilen Lags von 2 zusätlichen Frames und dazu ungleich verteilten FPS-Verläufen (frag mal Tombman). Und schön kompatibel ist's auch noch. Geil! :|
Ich hoffe, dass irgendwann mal vernünftige Interconnects zwischen die DIEs kommen und die Dinger als eine Einheit fungieren können. Aber auch das wird sehr teuer.
Ailuros
2007-10-30, 05:49:04
Eigentlich spekuliert doch jeder ob und was da los ist. Darum gehts hier nicht, das hier ist ein Spekulationsforum, hier darf man spekulieren. Es gibt halt das Problem, dass den Geforce8 schnell der VRAM ausgeht. Das kann man auch nicht wegdiskutieren, obwohl das in deine heile Welt wohl nicht reinpasst... Und der Ton, den du anschlägst ist gelinde gesagt scheisse, sorry.
Erstens gab es tatsaechlich den VRAM Bug, nur hat er absolut gar nichts mit dem Speicherinterface zu tun. Ich lese schon seit Tagen ein endloses hin und her zwischen User ob es diesen gab, woher dieser kommt und weiss der Geier worueber dann noch gestritten wird.
Das Zeug gab es nur in 2 oder 3 Treiber-Revisionen, es tauchte nicht ueberall auf, das Problem war dass wenn Textur-Daten in den Speicher geschrieben wurden diese nicht wieder nach Verbrauch geloescht wurden und das bloedeste wenn jemand nicht diese Treiber sauber entfernte blieb es noch etwas laenger in Systemen stecken.
Im ersten Fall handelt es sich um einen einfachen Treiber-bug und von da an ab sobald es durch neuere Treiber verschwand liegt dann das Problem zwischen dem keyboard und dem Buerostuhl.
Was gibt es da heutzutage noch tolles wegzudiskuttieren? Wenn Du willst koennen wir gerne ueber serioese HW-bugs plaudern, nur leider geht es dann nicht mehr ueber G8x/9x.
Der ist klar vorhanden, AA ist auf dem R600 nachgewiesenermassen lahm und es scheint auch nicht behebbar zu sein. Das steht völlig außer Frage und ist vollkommen OT. Diente wohl nur als polemische Anspielung...
Siehe letzter Paragraph oben. Es ist verstaendlich dass es in eine solche Debatte gezogen wird, wenn man HW-bugs bzw. falsche Implementierungen fuer chip A andeutet, wenn in Realitaet chip A nur minimale HW-bugs hat und der direkte Konkurrent ein paar ziemlich ernsthafte. Es hat alles und gar nichts mit einer solchen Debatte zu tun.
Ich haette die obrige Erklaerung fuer den Bug auch frueher erklaeren koennen, aber manchmal ist es doch goldiger ein bisschen Abstand von dem ganzen albernen Zirkus zu nehmen.
Ailuros
2007-10-30, 05:51:32
http://hkepc.com/?id=280&page=1#view
http://img223.imageshack.us/img223/3368/23532628102007nvidia20gom9.jpg
G92 = 8C(128SPs) und 5RPs(320)Bit? :|
HKEPC meint die neue 8800 GTS soll am 19.11. für ~$349 und mit dem G92-400 kommen.
Zwar kann es durchaus sein dass mich jemand an der Nase herumgefuehrt hat, aber ich wurde off the record versichert dass G92 nur 4*64 ist.
seahawk
2007-10-30, 07:01:46
Das ist die Frage...
Auf jeden Fall werden wohl die 32 zusätzliche TAs etwas kosten, sowohl als auch IO+VP2.
DP scheint ja laut NV nicht im G92 enthalten zu sein.:|
Nein, sie sagen in der 8800GT, sie sagen immer 8800GT auf diese Frage.
ShinyMcShine
2007-10-30, 09:52:44
http://hkepc.com/?id=280&page=1#view
http://img223.imageshack.us/img223/3368/23532628102007nvidia20gom9.jpg
G92 = 8C(128SPs) und 5RPs(320)Bit? :|
HKEPC meint die neue 8800 GTS soll am 19.11. für ~$349 und mit dem G92-400 kommen.
Ahh! AnarchX gibt mir neue Hoffnung, nachdem von einigen Usern die 8800GTS@G92 schon totgesagt wurde! Danke für den zuverlässigen Informationsfluss!
Nakai
2007-10-30, 13:06:57
Auf jeden Fall werden wohl die 32 zusätzliche TAs etwas kosten, sowohl als auch IO+VP2.
Die 32 zusätzlichen TAs sollten nicht gerade teuer sein.
IO+VP2 seh ich auch nicht so tragisch.
Hat NV wohl viel Renundanz eingebaut, weil die Ausbeute nicht passt ist?
mfg Nakai
ShinyMcShine
2007-10-30, 17:07:15
Also Jungs (und Mädels)! Noch 20 Tage bis zur neuen 8800GTS@G92-400. Dass Ihr mir ja auch alle ständig News postet! Ich werde auch meinen Teil dazu beitragen! ;)
Zwar kann es durchaus sein dass mich jemand an der Nase herumgefuehrt hat, aber ich wurde off the record versichert dass G92 nur 4*64 ist.
Ist ja auch da aufgeführt als 8800GTS mit 512MB
http://hkepc.com/?id=280&page=1#view
Neben der "alten" 8800GTS640 sieht man die neue 8800GTS512 mit 256Bit SI und 64/64/20 TMU/TAU/ROP.
Wenn die Speichertaktrate 1,2GHz oder so beträgt setzt sie sich schon gut von der 8800GT ab, 1GiB DDR4 RAM wäre aber für echtes Highend wünschenswert.
ShinyMcShine
2007-10-30, 22:06:43
Meine Wunsch-GTS:
660 MHz Chiptakt, 1650 MHz Shadertakt bei 128 SP (= 634 GFLOP), 20 ROPs (= 13200 MPix/s), 64 TMUs (= 42240 MTex/s), 64 TAUs, 512MB GDDR3@1100 MHz mit 256 Bit SI (= 70400 MB/s Speicherbandbreite).
Sollte doch genug sein, um in hohen Auflösungen die GTX zu packen und hinter der Ultra zu bleiben?
AnarchX
2007-10-30, 22:08:55
Wie schon gesagt: 20 ROPs != 256Bit, da eine ROP-Partition 64Bit+4ROPs besitzt.
Das war beim G80 so, muss aber nicht für G92 gelten oder?
Die Webseite und die Quelle von Ailuros sagen ja 256Bit SI bei 20ROPs, aber vom Technischen Standpunkt aus ist man gewollt "mehr" als ein muss zu sehen ^^
Am interessantesten fand ich die Idee von Quasar (pcgh_Carsten), 1280MBit sind ja auch möglich. Das wäre ein würdiger Nachfolger der 8800Ultra, Leistungsdaten wie ShinyMcShine angibt nur eben 320Bit SI dazu.
PCGH_Carsten
2007-10-30, 22:38:04
Zwar kann es durchaus sein dass mich jemand an der Nase herumgefuehrt hat, aber ich wurde off the record versichert dass G92 nur 4*64 ist.
G92 oder G92GT? ;)
? Wenn die G92-400 den Kartennamen 8800GTS wirklich bekommt, welchen Codenamen hat die 8800GT dann. G92-200 ?
ShinyMcShine
2007-10-30, 22:41:47
Das war beim G80 so, muss aber nicht für G92 gelten oder?
Die Webseite und die Quelle von Ailuros sagen ja 256Bit SI bei 20ROPs, aber vom Technischen Standpunkt aus ist man gewollt "mehr" als ein muss zu sehen ^^
Das ist die Frage, ob es beim G92 auch heissen muss: 20 ROPs != 256Bit SI...
ShinyMcShine
2007-10-30, 22:42:23
? Wenn die G92-400 den Kartennamen 8800GTS wirklich bekommt, welchen Codenamen hat die 8800GT dann. G92-200 ?
8800GT = G92-270
nomadhunter
2007-10-31, 00:43:20
Weiß eigentlich irgendwer, was hinter der 270 bzw. 400 steckt?
AnarchX
2007-10-31, 00:48:40
Ist eben ein interner Bezeichnungscode für Taktraten und aktive Einheiten der GPU, wie bei ATi z.B. RV670XT oder RV670Pro, aber eben noch etwas komplizierter.
Ailuros
2007-10-31, 05:34:56
G92 oder G92GT? ;)
Bleibt immer noch die Frage ob und was auf der letzten deaktiviert wurde und ob sie auf single chip fuer high end gehen werden.
Ailuros
2007-10-31, 07:59:25
Das war beim G80 so, muss aber nicht für G92 gelten oder?
Die Webseite und die Quelle von Ailuros sagen ja 256Bit SI bei 20ROPs, aber vom Technischen Standpunkt aus ist man gewollt "mehr" als ein muss zu sehen ^^
Wo sagte ich dass das Ding 20 ROPs haben koennte? Ganz im Gegenteil deuten meine Infos nur auf maximal 4*64 bits was auf bis zu 256bits deutet. Jegliche ROP partition hat 4 ROPs. Bei 4 ROP partitions sind es insgesamt 16 ROPs und nicht mehr.
Ich hab auch von einer 512MB G92/GTS gehoert fuer irgendwo ab Mitte November; wenn der 512 Framebuffer stimmt, dann ist wohl alles >256bit auszuschliessen.
Wozu denn ueberhaupt auch? Eine 8800GT bricht gegenueber einer 8800GTX nur >1600*1200 mit 4xAA um sehr viel ein; sonst bis zu 16*12 kann sie sich ziemlich gut halten. Eine hoeher getaktete G92/GTS mit mehr Bandbreite koennte IMO noch besser abstechen.
Bis zu Anfang 2008 kommt ja sowieso kein 8800GTX Ersatz afaik.
ShinyMcShine
2007-10-31, 10:27:37
OK, ist ja alles kein Problem mit den ROPs. Wir werden sehen was in zwei Wochen rauskommt.
Ich persönlich kann auch mit 16 ROPs gut leben, und in der Tat macht natürlich ein 256Bit SI bei 16 ROPs wohl mehr Sinn.
Ist eben momentan wieder alles irreführend, wenn man sich die Informationen zusammenträgt (man bedenke, was es für Gerüchte drei Wochen vor dem Launch der 8800GT gab), da die Tabelle beim HKEPC-Link eben von 20 ROPs spricht, bei einem G92 mit 256Bit SI. Lassen wir uns überraschen (oder von mehreren Quellen beeinflussen). ;)
Übrigens schreibt Fudzilla zur neuen 8800GTS@G92 folgendes:
"We have confirmed that Nvidia plans to re-launch Geforce 8800GTS cards based on the D8P/G92 chip. This means that the new (old) 8800GTS card will have 256 bit memory interface, but still it should end up faster than its predecessor.
The key is the faster Shader clock at a fast clock, but we still do not know when will this card be launched.
A few people are discussing on the Internet that Nvidia plans to launch this new product in two weeks; however, this doesn’t make much sense to us, as the 8800GT has been selling so well that it has been in short supply from day one." http://www.fudzilla.com/index.php?option=com_content&task=view&id=3924&Itemid=1
Evtl. hat nVidia wohl zu viele G92-Chips, bei denen alle 8 Cluster funktionieren, und will die sich für die 8800GTS aufsparen. Die Ausbeute ist einfach zu gut, darum gibt es zu wenig 8800GTs. ;)
AnarchX
2007-10-31, 10:32:05
Was mich noch nachdenklich macht, ist dass neue neue GTS für den 19. ebenfalls wie auch die 8800M-GTX spekuliert werden, sodass vielleicht nur letzere eben mit 128SPs kommt, da die neue neue GTS an sich nicht unbedingt wirklich viel Sinn macht.
Ailuros
2007-10-31, 11:03:58
Was mich noch nachdenklich macht, ist dass neue neue GTS für den 19. ebenfalls wie auch die 8800M-GTX spekuliert werden, sodass vielleicht nur letzere eben mit 128SPs kommt, da die neue neue GTS an sich nicht unbedingt wirklich viel Sinn macht.
Die Schlepptop chips haben sowieso stets eine merkwuerdige Namensgebung wobei die Anzahl der Einheiten bzw. Leistung nicht besonders viel gemeinsam hat mit den desktop-Bruedern. Es wuerde mich nicht wundern wenn die 8800M-GTX entweder mit 6 oder 7 cluster ankommen wuerde und moderaterer Taktung als die 8800GT.
Wenn die neue GTS irgendwo zwischen $300-350 platziert wird, gibt es genug Luftraum fuer um einiges schnelleren Speicher als bei der GT, mit einer Bandbreite leicht unter der heutigen GTX.
ShinyMcShine
2007-10-31, 11:26:26
Die Schlepptop chips haben sowieso stets eine merkwuerdige Namensgebung wobei die Anzahl der Einheiten bzw. Leistung nicht besonders viel gemeinsam hat mit den desktop-Bruedern. Es wuerde mich nicht wundern wenn die 8800M-GTX entweder mit 6 oder 7 cluster ankommen wuerde und moderaterer Taktung als die 8800GT.
Wenn die neue GTS irgendwo zwischen $300-350 platziert wird, gibt es genug Luftraum fuer um einiges schnelleren Speicher als bei der GT, mit einer Bandbreite leicht unter der heutigen GTX.
Full ACK!
AnarchX
2007-10-31, 11:28:57
Die Schlepptop chips haben sowieso stets eine merkwuerdige Namensgebung wobei die Anzahl der Einheiten bzw. Leistung nicht besonders viel gemeinsam hat mit den desktop-Bruedern. Es wuerde mich nicht wundern wenn die 8800M-GTX entweder mit 6 oder 7 cluster ankommen wuerde und moderaterer Taktung als die 8800GT.
Am sinnvollsten wäre hier doch imo alle 8 Cluster und eben maximal 500MHz oder weniger, was ja eine niedrigere Spannung benötigen sollte, als weniger Cluster, aber dafür mit höheren Takt und im Endeffekt auch eine niedrige TDP bedeuten sollte.
Wenn die neue GTS irgendwo zwischen $300-350 platziert wird, gibt es genug Luftraum fuer um einiges schnelleren Speicher als bei der GT, mit einer Bandbreite leicht unter der heutigen GTX.
Sicher, aber die Frage ist wofür man sie braucht.
RV670XT wird es wohl maximal mit der 8800 GT aufnehmen können, sodass man diese preislich angepasst hat.
Darüber aber hat NV doch quasi ein Monopol (bis zum Q1...) und kann sich die nicht sehr hohe Mehrleistung einer GTX/Ultra entsprechend bezahlen lassen.
nur sehe ich keinen platz mehr für eine neue karte zwischen GT und GTX (<1600x1200)
wie soll das aussehen? 100€ mehrpreis für 5fps mehr? 0o
nur sehe ich keinen platz mehr für eine neue karte zwischen GT und GTX (<1600x1200)
wie soll das aussehen? 100€ mehrpreis für 5fps mehr? 0o
Eigentlich wird's jetzt mal langsam Zeit, die Leistungsgrenze der Ultra "deutlich" nach oben zu übertreffen. Alles andere ist Schwachsinn, der Markt wird momentan mit gebrauchten und günstigen GTS geflutet, die GT wird günstig auf den Markt geworfen. Bald zieht Amd nach. Da braucht da keiner noch ne Karte, die sich dort einreiht.
ShinyMcShine
2007-10-31, 12:08:02
nur sehe ich keinen platz mehr für eine neue karte zwischen GT und GTX (<1600x1200)
wie soll das aussehen? 100€ mehrpreis für 5fps mehr? 0o
Ich denke, nVidia wird mit der neuen 8800GTS@G92 die GTX auslaufen lassen. Schliesslich ist der G92 auch günstiger herzustellen als der G80, welcher somit der Ultra vorgehalten bliebe.
ShinyMcShine
2007-10-31, 12:11:44
Eigentlich wird's jetzt mal langsam Zeit, die Leistungsgrenze der Ultra "deutlich" nach oben zu übertreffen. Alles andere ist Schwachsinn, der Markt wird momentan mit gebrauchten und günstigen GTS geflutet, die GT wird günstig auf den Markt geworfen. Bald zieht Amd nach. Da braucht da keiner noch ne Karte, die sich dort einreiht.
Solange AMD keinen Chip rausbringt, der es mit der Ultra aufnehmen kann, warum sollte nVidia da schon nachlegen (das nVidia-Monopol im Highend-Sektor ist halt nicht gut)?
nVidia wird sich auf günstigere Fertigung konzentrieren, und die teueren G80-Chips durch neue Produkte mit G92 ersetzen, die gleiche oder bessere Leistung bringen als ihre G80-Pendants (8800GT für 8800GTS@G80, 8800GTS@G92 für 8800GTX). Somit kann nVidia noch höhere Gewinne erzielen, in Ruhe den Highendnachfolger entwickeln und ausgereift auf den Markt bringen, sobald AMD was entsprechendes rausbringt (womit wir leider wohl wieder ein nVidia-Monopol im Highend-Sektor hätten)...
AnarchX
2007-10-31, 16:39:59
Da scheinen ja die mit der G92-GTS liebäugeln, Glück zu haben.;)
Bestätigung von NV:
HD DVD / Blu-ray Video Playback on NVIDIA GeForce 8800 GTS 512MB and 8800 GT is classified as Excellent. HD DVD / Blu-ray Video Playback on NVIDIA GeForce 8800 Ultra, GeForce 8800 GTX and GeForce 8800 GTS 320MB/640MB are classified as Good.
http://img155.imageshack.us/img155/9726/512mbgtshs5.png
http://www.nvidia.com/object/geforce_family.html
Was wiederum weiterhin offen lässt ob nun G92 wirklich nur 4RPs hat und was NV mit diesem verwirrenden Namensspiel bezwecken will. :|
DrumDub
2007-10-31, 16:55:30
Da scheinen ja die mit der G92-GTS liebäugeln, Glück zu haben.;)
Bestätigung von NV:
http://www.nvidia.com/object/geforce_family.html
Was wiederum weiterhin offen lässt ob nun G92 wirklich nur 4RPs hat und was NV mit diesem verwirrenden Namensspiel bezwecken will. :| bei 512mb gibts aber nur nen 256bit si. das ist schon nen nachteil gegenüber der g80-gts.
ShinyMcShine
2007-10-31, 17:04:51
Da scheinen ja die mit der G92-GTS liebäugeln, Glück zu haben.;)
Bestätigung von NV:
http://img155.imageshack.us/img155/9726/512mbgtshs5.png
http://www.nvidia.com/object/geforce_family.html
Was wiederum weiterhin offen lässt ob nun G92 wirklich nur 4RPs hat und was NV mit diesem verwirrenden Namensspiel bezwecken will. :|
Faszinierend, wo Du immer die Infos ausgräbst! Danke AnarchX! Jetzt zurücklehnen und hoffen, dass weitere Infos leaken... ;D
ShinyMcShine
2007-10-31, 17:08:10
bei 512mb gibts aber nur nen 256bit si. das ist schon nen nachteil gegenüber der g80-gts.
Mit entsprechend schnellem Speicher hat man "nur" noch den Nachteil der geringeren VRAM-Größe bei der 8800GTS@G92. Mit mehr als 1000MHz Speichertakt hat die neue 8800GTS@G92 ja schonmal mehr Speicherbandbreite als die alte 8800GTS@G80. Wenn die neue mit 1100 oder 1200 MHz kommt, werden sich die 128MB weniger VRAM schon nicht sooo bemerkbar machen. :)
Nakai
2007-10-31, 17:40:34
Was wiederum weiterhin offen lässt ob nun G92 wirklich nur 4RPs hat und was NV mit diesem verwirrenden Namensspiel bezwecken will.
Höhergetaktete 8800GT, gehe ich davon aus.
Der G92GTX wartet auch noch.
mfg Nakai
Nightspider
2007-10-31, 18:07:00
Die Frage wäre auch, in welchem Preis-Segment Nvidia die mögliche neue GTS und GTX ansiedeln will.
In 2-3 Wochen gibt es die GT für ~200€.
Wenn die G92-GTS nur einen höheren Takt oder 128 statt 112 Shadereinheiten hätte, wärden 300-350 Euro ja schon viel zu hoch angesetzt.
Dann müsste man schon mit 1024 MB VRAM bei der neuen GTS / GTS kommen, um punkten zu können.
Am besten wäre es natürlich, einen Refresh des G80 in 65nm herauszubringen, sodass uns das 384 Bit SI erhalten bleibt.
Einen schnellen Refresh mit einem Rückschritt im SI wäre echt erbärmlich. :|
Außer die G92-Varianten der GTS und GTX kommen mit GDDR 4 1,4-1,6 Ghz.
Hvoralek
2007-10-31, 18:14:28
Einen schnellen Refresh mit einem Rückschritt im SI wäre echt erbärmlich. :|
Außer die G92-Varianten der GTS und GTX kommen mit GDDR 4 1,4-1,6 Ghz.Da war doch mal was?
Außerdem: Wie "erbärmlich" soll nach dieser Logik erst RV670 sein? :D
ShinyMcShine
2007-10-31, 18:28:24
Immerhin bietet Samsung ja schon GDDR4 mit 1.6GHz an:
"SAMSUNG GDDR4 is a hyper-synchronous, double data rate DRAM, operating at clock speeds up to 1.6GHz and delivering data at speeds up to 3.2Gb/second."
Ist wohl halt immer eine Kostenfrage. Ist der G92 auf GDDR3 beschränkt oder kann er auch mit GDDR4 umgehen? Wenn nicht, wäre die 8800GTS@G92 ja auf ca. 1,1GHz GDDR3 (wenns 1,1GHz GDDR3 überhaupt noch gibt) beschränkt. :( Aber allein deshalb denke ich, dass der G92 auch mit GDDR4 umgehen kann.
AnarchX
2007-10-31, 18:31:47
G92 unterstützt laut NV GDDR4 und GDDR3 gibt es momentan bis 0.83ns (1200MHz).
Aber viel würde ich von der 8800 GTS 512 nicht erwarten, wie schon gesagt oberhalb der GT hat NV eh ein Monopol. ;)
Nightspider
2007-10-31, 18:32:11
Samsung bietet ihn nicht nur an. Nvidia hat doch angeblich schon 1,6 Ghz GDDR4 Speicher eingekauft. !? :confused:
ShinyMcShine
2007-10-31, 18:39:12
G92 unterstützt laut NV GDDR4 und GDDR3 gibt es momentan bis 0.83ns (1200MHz).
Aber viel würde ich von der 8800 GTS 512 nicht erwarten, wie schon gesagt oberhalb der GT hat NV eh ein Monopol. ;)
Nichtsdestotrotz (was für ein tolles Wort) erhoffe ich mir von der 8800GTS@G92 eine Egalisierung der Leistung der 8800GTX!
laser114
2007-10-31, 19:28:38
Ich freu mich schon auf die Verwirrung bei den Info: Ich habe eine Geforce 8800 GTS.
Obs dann die 320er, die 640er mit 96 SPs, die 640er mit 112 SPs oder die 512er ist, weiß man noch nicht.
Nvidia muss ja wirklich an der Bezeichnung 8800 hängen.
dargo
2007-10-31, 19:31:29
Wenn die G92-GTS nur einen höheren Takt oder 128 statt 112 Shadereinheiten hätte, wärden 300-350 Euro ja schon viel zu hoch angesetzt.
Nicht wenn beides zutrifft. :D
Zum Bleistift 700Mhz mit 128SPs. Außerdem war für die neue GTS früher die Rede von 305$ was ca. 270€ entsprechen würde.
AnarchX
2007-10-31, 19:37:36
Außerdem war für die neue GTS früher die Rede von 305$ was ca. 270€ entsprechen würde.
Und hier wären dann durchaus eben nur 8C@GT-Taktraten, 1GHz GDDR3, Dual-Slot-Kühler möglich.
ShinyMcShine
2007-10-31, 19:48:54
Samsung bietet ihn nicht nur an. Nvidia hat doch angeblich schon 1,6 Ghz GDDR4 Speicher eingekauft. !? :confused:
Mit 1,6GHz Speichertakt kommt man bei einem 256Bit SI ja auf 102,4GB/sec und wäre somit verdammt nahe an der 8800Ultra (103,7GB/sec). Aber 1GB GDDR4 mit 1,6GHz für einen 8800Ultra@G92-Refresh wäre wohl selbst für diese Preisklasse zu teuer. Ein 8800Ultra@G92-Refresh ist zunächst sowieso wildeste Spekulation. Erstmal die 8800GTS@G92 abwarten!
dargo
2007-10-31, 19:57:12
Und hier wären dann durchaus eben nur 8C@GT-Taktraten, 1GHz GDDR3, Dual-Slot-Kühler möglich.
Hmm, dann muss wohl der eingekaufte GDDR4 mit 1,6Ghz für eine neue GTX im Januar/Februar(?) 2008 vorgesehen gewesen sein. Vielleicht dann auch mit 1GB Vram? :D
Ich glaube, ich warte noch die ~3 Monate. :D
ShinyMcShine
2007-10-31, 20:13:42
Und hier wären dann durchaus eben nur 8C@GT-Taktraten, 1GHz GDDR3, Dual-Slot-Kühler möglich.
Dat reicht mir! ;D
Hmm, dann muss wohl der eingekaufte GDDR4 mit 1,6Ghz für eine neue GTX im Januar/Februar(?) 2008 vorgesehen gewesen sein. Vielleicht dann auch mit 1GB Vram? :D
Ich glaube, ich warte noch die ~3 Monate. :D
1gb glaub ich nicht,aber 768 zu 1000% und ich tippe sogar auf Weinachten.
ShadowXX
2007-10-31, 21:01:13
Nvidia muss ja wirklich an der Bezeichnung 8800 hängen.
Naja....9800 könnten unliebsame Erinerungen bei nV wecken;)
dargo
2007-10-31, 21:03:50
1gb glaub ich nicht,aber 768 zu 1000% und ich tippe sogar auf Weinachten.
Bei 768MB brauchst du zwingend ein 384bit SI. Ich dachte, die gesamte G92 Palette wird 256bit beinhalten. Keine Ahnung, schauen wir mal.
ShinyMcShine
2007-10-31, 21:18:43
Naja....9800 könnten unliebsame Erinerungen bei nV wecken;)
Was spricht gegen 8900? Wäre doch auch OK!
laser114
2007-10-31, 21:41:32
Naja....9800 könnten unliebsame Erinerungen bei nV wecken;)
Naja, der Name scheint aber irgendwann wohl mal zu kommen:
http://s1.directupload.net/images/user/071031/fbuct2sv.jpg (http://www.directupload.net)
Abgesehen davon können sie die auch 8900 nennen, siehe den Einwand vor mir. Wäre auch irgendwie logischer. ;)
crux2005
2007-10-31, 21:44:12
Quelle ? oder self made ?
laser114
2007-10-31, 21:47:34
Habs da gesehen:
http://www.hardware-infos.com/news.php?news=1247
Laut Meldung:
Ein weiteres Indiz für die baldige Vorstellung ist eine GeForce 9800 GTX Folie, die versteckt auf dem nVidia-Server lag - mittlerweile natürlich wieder entfernt wurde -, und wir dieser News beigefügt haben.
(Die Meldung ist natürlich veraltet, was aber der Existenz der Folie wenig Abbruch tut.)
Kann aber auch einfach nur ein Praktikant gewesen sein, der nen bisschen Powerpoint üben wollte. ;)
AnarchX
2007-10-31, 21:51:13
Oder da hat sich einfach jemand einen Scherz erlaubt.;)
Nachdem G92 wohl kein D3D10.1 beherrscht würde ich eher GeForce 9 ausschliessen.
laser114
2007-10-31, 21:52:08
Joa, der Name kann aber irgendwann immer noch kommen. Sei es durch einen DX10.1-G90 oder irgendwas aus G1xx. Vielleicht auch D9E/D9P nach internen Entwicklungsnamen.
Edit: Die News ist von Florian, den kenn ich zumindest übers Netz. Scherze erlaubt der sich eigentlich nicht, ist also schon davon auszugehen das sie auf dem Server lag - wieso auch immer.
AnarchX
2007-10-31, 22:04:37
But Wait, There's More NVIDIA G92 for 2007 (http://www.dailytech.com/article.aspx?newsid=9474)
Yet NVIDIA isn't done yet. A G92-derivative will appear later this year with even more shader units. According to company guidance, the new G92 will launch in early December and feature 128 shader units as opposed to the 112 featured on GeForce 8800 GT.
[...]
The new 65nm G92 has a tentative SKU designation of GeForce 8800 GTS. This might sound confusing as NVIDIA already sports a GeForce 8800 GTS card based on the 90nm G80 silicon. However, since G92 sports a 256-bit memory interface, the new 8800 GTS cards will feature traditional memory blocks of 512MB or 1024MB. The older, G80-based GeForce 8800 GTS features 320-bit memory blocks of 320MB or 640MB.
laser114
2007-10-31, 22:09:16
Ich denke folgende Eckpunkt für die nächste Neuauflage der 8800 GTS sind damit sicher:
- G92 Grafikchip mit 8 Clustern
- 256 bit-Speicherinterface
- 512 MiB RAM (schreibt ja Nvidia zumindest auf der Homepage)
Ob damit Nvidia zum ersten mal zu GDDR4-Speicher greift, oder reichen 1000+ MHz GDDR3 aus?
AnarchX
2007-10-31, 22:14:46
Ich denke folgende Eckpunkt für die nächste Neuauflage der 8800 GTS sind damit sicher:
- G92 Grafikchip mit 8 Clustern
- 256 bit-Speicherinterface
- 512 MiB RAM (schreibt ja Nvidia zumindest auf der Homepage)
Sieht so aus, stellt sich nur die Frage nach den Taktraten, die vielleicht demnächst beantwortet wird.
Ob damit Nvidia zum ersten mal zu GDDR4-Speicher greift, oder reichen 1000+ MHz GDDR3 aus?
Nunja, GDDR3 gibt es mit bis zu 1200MHz(von mehreren Herstellern), aber GDDR4 wäre an sich vom Stromverbrauch und wohl Preis besser, aber fragt sich ob Samsung als einziger Hersteller genügend Kapizitäten für ATi und NV hat.
laser114
2007-10-31, 22:18:48
Andererseits könnte Nvidia über die Speicherbandbreite auch weiterhin einen Abstand zur Ultra schaffen ... mit 64 GB/s sollte das ja möglich sein.
Naja, mal abwarten. Gibt es GDDR4 immer noch nur von Samsung?
ShinyMcShine
2007-11-01, 09:45:13
Andererseits könnte Nvidia über die Speicherbandbreite auch weiterhin einen Abstand zur Ultra schaffen ... mit 64 GB/s sollte das ja möglich sein.
Ich hoffe ja schon auf ein paar GB/sec mehr, als bei der alten GTS. 70,4GB/sec mit 1100MHz wären OK (zu mehr sage ich natürlich auch nicht nein)! Dann hat man zur Ultra immer noch 30GB/sec Abstand...
Ein G92 "Cluster" besteht aus: 64Bit SI + 4 ROP + 14TMU/TA + 28SP oder?
Das mal 6 macht ne dicke Wumme...
384Bit SI + 24ROP + 84 TMU/TA + 168SP
Bei 600/1750/1200 macht das:
14,400 MPixel/s, 50400MTexel/s, 115,2GB/s, 588GFLOPs bzw. 882GFLOPs
Wäre halt "nur" die ROP Leistung einer jetzigen Ultra, aber sonst wär das mal ein Wort und nahe am Terraflop.
Was macht man eigentlich mit der ganzen Texelfüllrate...
ShinyMcShine
2007-11-01, 19:22:35
In dem Fall hätte der G92 ja wirklich das Zeug, die komplette alte 8x00er-Serie von nVidia (inklusive Ultra) zu ersetzen, und diese in der Fertigung für nVidia günstiger werden zu lassen. Allerdings verstehe ich die Namensgebung von nVidia in dem Fall wirklich nicht. Ich hätte mindestens eine 8x50er-Serie daraus gemacht.
Mittlerweile findet man ja auch immer häufiger den Hinweis (z.B. http://www.dailytech.com/But+Wait+Theres+More+NVIDIA+G92+for+2007/article9474.htm), dass die 8800GTS@G92 erst im Dezember kommen soll. :( Dann wird es ja fast zu spät für Crysis. Da haben es die ersten ja schon paar Mal durchgezockt...
Ich hoffe doch sehr auf ein Release am 19.11. ;(
Hvoralek
2007-11-01, 19:26:41
Ein G92 "Cluster" besteht aus: 64Bit SI + 4 ROP + 14TMU/TA + 28SP oder?Ein Cluster besteht aus 8 TMUs und 2 Vec8- Einheiten (also 16 SPs). Daneben und unabhängig davon gibt es die RBEs: je 4 ROPs samt 64- bit- SI. Bei einer 8800 GT sind sieben Cluster und vier RBEs freigeschaltet.
Hmm man könnte also auch 4 RBEs (für was steht das?) verbauen mit hohem Takt?
750MHz für die ROPs, 600 für die TMU/TAs, 1750MHz für die SPs und 1200-1600MHz für den RAM. Getrennte ROP/TMU Clockdomains hatten wir ja beim G70 mal gesehen, warum nicht wieder.
Bleibt man bei einem 256Bit SI kann man schön 1GiB RAM vermarkten, geht man wieder auf das breitere SI muss man am Ende 1,5GiB RAM verbauen um die Highend User zufrieden zu stellen ^^
Oder reichen 768MiB RAM aktuell einfach bis rauf auf 1920*1200@4xAA ?
dargo
2007-11-01, 20:16:15
Oder reichen 768MiB RAM aktuell einfach bis rauf auf 1920*1200@4xAA ?Das dürfte noch reichen. Jetzt mal extreme Texturmods außen vorgelassen.
Hvoralek
2007-11-01, 20:24:43
RBE = Render Back End.
Prinzipiell müsste es möglich sein, auch für die eine eigene Taktdomäne einzuführen. Eine Leistungsskalierung über die Anzahl ist aber wohl einfacher. Und die G8x- ROPs sind so leistungsstark, dass die bei der 8800 GT eher selten ein Flaschenhals sein dürften. Das Problem ist eben das schmale SI.
Bei G7x takteten afair lediglich die VS etwas höher, alle anderen (wichtigen) Teile des Chips aber gleich.
Für den Speicherbedarf sind Auflösung und AA weniger wichtig. Da kommt es mehr auf Texturen an.
Ailuros
2007-11-01, 20:37:37
Prinzipiell müsste es möglich sein, auch für die eine eigene Taktdomäne einzuführen. Eine Leistungsskalierung über die Anzahl ist aber wohl einfacher. Und die G8x- ROPs sind so leistungsstark, dass die bei der 8800 GT eher selten ein Flaschenhals sein dürften. Das Problem ist eben das schmale SI.
Das schmale SI oder die davon resultierende Bandbreite? Ich wuerde die niedrigere Z Fuellrate auch nicht aussen weg lassen, denn wenn Du von diversen reviews die Leistung zwischen 8800GTX und 8800GT vergleichst ist der Unterschied in 2560 mit 4xAA im Durchschnitt irgendwo ueber 40% (was aber heisst dass der Leistungsunterschied bis zu >40% reicht, denn ich beziehe mich hier nur auf eine Aufloesung).
Wie gross ist denn der Bandbreiten- bzw. Z-Fuellraten Unterschied zwischen der GTX und der GT? 50% fuer's erste und 44% fuer's zweite.
Hvoralek
2007-11-01, 20:44:04
Das schmale SI oder die davon resultierende Bandbreite?Die aus dem schmalen SI folgende Wahl zwischen geringer Bandbreite und schnellem (und teurem) Speicher :wink:
Ailuros
2007-11-01, 21:06:38
Die aus dem schmalen SI folgende Wahl zwischen geringer Bandbreite und schnellem (und teurem) Speicher :wink:
Bei einer Performance-GPU ist es auch scheissegal; bis zu 1600 mit 4xAA liegt die GT so verdammt nahe an der GTX Leistung dass es nicht der Rede wert ist in mehr als 900MHz GDDR3 zu investieren.
Bleibt jetzt das SI hypothetisch auf fuer die kommenden high end Loesungen, ist es im Grunde auch ziemlich egal ob dual- oder single-chip. Benutzt man teureren GDDR4, duerfte sich der Unterschied durch die benoetigte maximale Speichermenge womoeglich wieder ausgleichen (2*512 vs. 2*768 oder 1024 vs. 1536). Ich will sowieso ernsthaft bezweifeln dass es im einen oder anderen Fall nur 900MHz GDDR3 sein werden.
AnarchX
2007-11-01, 21:10:53
Laut Expreview (http://www.expreview.com/news/hard/2007-11-01/1193911170d6733.html) soll die neue G92-8800 GTS 512MB am 3.12. für 2299CNY (~$310) kommen.
dargo
2007-11-01, 21:14:44
Laut Expreview (http://www.expreview.com/news/hard/2007-11-01/1193911170d6733.html) soll die neue 8800 GTS 512MB am 3.12. für 2299CNY (~$310) kommen.
Kommt die neue GTS jetzt doch auf G80 Basis? Das fände ich sehr schade.
Ailuros
2007-11-01, 21:18:19
Kommt die neue GTS jetzt doch auf G80 Basis? Das fände ich sehr schade.
Anarch hat gerade eine 8800GTS 512MB erwaehnt.
AnarchX
2007-11-01, 21:19:04
Kommt die neue GTS jetzt doch auf G80 Basis? Das fände ich sehr schade.
Nein, auf G80 basiert die seit ein paar Tagen erhältliche neue 8800 GTS mit 112SPs (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5988668#post5988668), die im Dezember wiederum durch einen neue 8800 GTS mit 128SPs, aber auf G92 Basis ersetzt wird.:crazy:
dargo
2007-11-01, 21:28:04
Nein, auf G80 basiert die seit ein paar Tagen erhältliche neue 8800 GTS mit 112SPs (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5988668#post5988668), die im Dezember wiederum durch einen neue 8800 GTS mit 128SPs, aber auf G92 Basis ersetzt wird.:crazy:
Achso. :ucrazy3:
Sorry, bei deinen Asia-Links(:D) sehe ich oft nur wirres Zeug.
PS: haben die bei NV in letzter Zeit zuviel gekifft was die Nahmensgebungen angeht? :D
Anarch hat gerade eine 8800GTS 512MB erwaehnt.
Sprich ein voller G92, 8 Cluster(=128SP+64TMA/TU) und 4 REPs (=16ROP+4x64Biz SI)? Brennt jetzt nicht wirklich die GTX weg, in 2560+4xAA Ist man je nach Taktrate zwischen 20-40% langsamer. Die neue GTS hält eine Auflösungstufe mehr mit der GTX mit, als die GT mit der GTX *löl*
Seltsame Politik, sowas hatten wir ja noch gar nicht das der Refresh "nur" Mainstream und Lower Enthusiast (oder lower Highend, 2. Tier Highend) abdeckt.
Hvoralek
2007-11-01, 21:39:19
PS: haben die bei NV in letzter Zeit zuviel gekifft was die Nahmensgebungen angeht? :DDie wollen doch nur bei den Steamumfragen nächstes Jahr ihre Modellreihen ganz oben stehen haben. Das sieht doch bestimmt nach was aus, wenn da allein so viele 8800er stehen wie bei ATI 2xxx- und 3xxx-er zusammen :D
Henroldus
2007-11-01, 21:47:53
Sprich ein voller G92, 8 Cluster(=128SP+64TMA/TU) und 4 REPs (=16ROP+4x64Biz SI)? Brennt jetzt nicht wirklich die GTX weg, in 2560+4xAA Ist man je nach Taktrate zwischen 20-40% langsamer. Die neue GTS hält eine Auflösungstufe mehr mit der GTX mit, als die GT mit der GTX *löl*
Seltsame Politik, sowas hatten wir ja noch gar nicht das der Refresh "nur" Mainstream und Lower Enthusiast (oder lower Highend, 2. Tier Highend) abdeckt.
es mangelt halt seit über einem Jahr an Konkurrenz in diesem Leistungsbereich was sehr schade ist und somit den Druck von Nvidia nimmt.
dargo
2007-11-01, 21:49:43
Die wollen doch nur bei den Steamumfragen nächstes Jahr ihre Modellreihen ganz oben stehen haben. Das sieht doch bestimmt nach was aus, wenn da allein so viele 8800er stehen wie bei ATI 2xxx- und 3xxx-er zusammen :D
Jo, daran hatte ich noch gar nicht gedacht. :eek: ;D
Nightspider
2007-11-01, 21:58:58
Um es auf den Punkt zu bringen: Es ist scheiße.
Keine neuen Leistungssprünge für solch Hardware fressende Spiele wie Crysis und wir werden dazu gezwungen uns eine Heizung aufzubauen.
Ich meine okay, es wird Winter aber 3*G80 dürfte nicht nur laut werden sondern auch viel Strom fressen und die Slots auf dem MB blockieren.
Erstmal muss SLI vernünftig laufen, unter DX10 hatte man sich Verbesserungen versprochen aber nicht die Spec macht gute Ruckelfrei Spiele, sondern die Entwickler auf beiden Seiten...
TripleSLI is wie QuadSLI, brauch kein Mensch und läuft vieleicht mit 1-2 Games wenn überhaupt. Crysis kann ja nichtmal normales SLI im VeryHigh, wie solls da mit Triple und Quad erst abgehn...
ShinyMcShine
2007-11-01, 22:07:10
Um es auf den Punkt zu bringen: Es ist scheiße.
Keine neuen Leistungssprünge für solch Hardware fressende Spiele wie Crysis und wir werden dazu gezwungen uns eine Heizung aufzubauen.
Ich meine okay, es wird Winter aber 3*G80 dürfte nicht nur laut werden sondern auch viel Strom fressen und die Slots auf dem MB blockieren.
Ja, man erkennt einfach, dass ein Monopol in einem bestimmten Bereich nicht gut für die "Innovationsfreudigkeit- und geschwindigkeit" eines Herstellers ist. :(
Sehr schade übrigens, dass die neue 8800GTS erst Anfang Dezember rauskommt (was leider für den Punkt "langsamere Innovationsgeschwindigkeit" spricht).
Nakai
2007-11-01, 23:00:38
Sehr schade übrigens, dass die neue 8800GTS erst Anfang Dezember rauskommt (was leider für den Punkt "langsamere Innovationsgeschwindigkeit" spricht).
Und? Dann haben wir etwas bessere 8800GTX-Leistung.
Ich finde es einfach beschissen, wenn es ein Fast-Monopol gibt. Man sieht doch wohin das führt.
R420er oder R580er-Zeiten würde ich mir herwünschen. Nur NV kann bis jetzt das Highend bedienen, aber selbst das nicht richtig.
mfg Nakai
laser114
2007-11-01, 23:03:40
Nur NV kann bis jetzt das Highend bedienen, aber selbst das nicht richtig.
Und mit der 8800 GT haben sie sich diesen Markt praktisch auch noch genommen. Die 8800 GTS 512 schließt dann die Leistung wohl ab. Es fehlt einfach das neue High-End, die Entwicklung was Preis/Leistung angeht geht zwar weiter, aber die Leistung trabt auf der Stelle.
Würde ich so nicht sagen, von der Shaderpower hat G9x ja mal richtig zugelegt, aber gegen eine G80 GTX ist eben (noch) kein Kraut gewachsen. Und bisher hat die dicke ausgereicht, wer weiß wie gut/schlecht Crysis wirklich programmiert ist, ob DX10 nicht wieder angeflanscht wurde wie bei Lost Planet mit den "besseren" Schatten der Fall war.
Ein G9x Derivat mit dem Aufbau einer alten GTS oder GTX und 2-3facher Arithmetischer Leistung dürfte die Crysis Wände wackeln lassen. ROP/TMU Leistung dürfte ja genug da sein (wir haben 4xMSAA bei ~20% Leistungsverlust bis 1600*1200, da warens früher 50% ^^)
Nakai
2007-11-01, 23:10:25
Und mit der 8800 GT haben sie sich diesen Markt praktisch auch noch genommen.
Darf ich ehrlich sein?
Ich glaube NV wird mit der 8800GTS-G92 nur knapp über 8800Ultra-G80-Niveau sein.
Wenn die 8800GTS-G92 alle 8 Cluster und leicht erhöhte Taktraten hat, sehe ich vor Q3 nächsten Jahres keine besseren Karten mehr.
(Außer eine 8800GTX-G92 gegen HD3870 X2)
Triple SLI muss man ja auch irgendwie pushen.
mfg Nakai
LovesuckZ
2007-11-01, 23:15:40
Ja, man erkennt einfach, dass ein Monopol in einem bestimmten Bereich nicht gut für die "Innovationsfreudigkeit- und geschwindigkeit" eines Herstellers ist. :(
Äh, was? Die 8800GTX ist noch nichtmal ein Jahr auf dem Markt. Es kann nicht immer solche Geschwindigkeitssprünge geben. Und sind wir ehrlich. Eigenlich war die Karte viel zu früh dran. NVIO, nur 1/2 der TAUs, veralterter Videoprozessor, dazu der 90nm Prozeß und der hohe Stromverbrauch unter Last. Eine Stagnation würde dem ganzen Bereich erstmal gut tun.
Und wie oft wechseln sich denn die Architekturen im CPU Bereich ab? Alle 5 Jahre?
Nakai
2007-11-01, 23:30:58
Und wie oft wechseln sich denn die Architekturen im CPU Bereich ab? Alle 5 Jahre?
Wir sind aber im GPU-Bereich, außerdem ist das nur schwerlich vergleichbar.
Eigenlich war die Karte viel zu früh dran. NVIO, nur 1/2 der TAUs, veralterter Videoprozessor, dazu der 90nm Prozeß und der hohe Stromverbrauch unter Last. Eine Stagnation würde dem ganzen Bereich erstmal gut tun.
Ja, der Chip war zu früh dran.
Es ist bereits eine Stagnation seit fast einem Jahr.
mfg Nakai
Stagnation hin oder her, bin zurfrieden mit der alten GTS640, da ist noch Luft nach oben wenn die Ultra mal ersetzt wird ^^
ShinyMcShine
2007-11-02, 08:52:04
Äh, was? Die 8800GTX ist noch nichtmal ein Jahr auf dem Markt. Es kann nicht immer solche Geschwindigkeitssprünge geben. Und sind wir ehrlich. Eigenlich war die Karte viel zu früh dran. NVIO, nur 1/2 der TAUs, veralterter Videoprozessor, dazu der 90nm Prozeß und der hohe Stromverbrauch unter Last. Eine Stagnation würde dem ganzen Bereich erstmal gut tun.
Und wie oft wechseln sich denn die Architekturen im CPU Bereich ab? Alle 5 Jahre?
Was ich damit ausdrücken wollte war: Wenn ATI noch eine richtige Konkurrenz im Highend-Sektor und zum Teil auch schneller wäre, dann denke ich dass wir zu Weihnachten die nächste High-End-Karte in den Händen hielten (dann ist die 8800GTX auch länger als ein Jahr auf dem Markt ;) ).
Ich werde mir nicht anmaßen zu sagen, dass es wieder einen Leistungssprung wie bei der 8800GTX geben soll (dafür war dieser meines Erachtens nach zu groß), aber einen "sanften Refresh" in Form einer 8850GTX oder 8900GTX hätte ich schon erwartet (und nicht "nur" ein Ersetzen der bisherigen GTX/Ultra durch einen stromsparenderen/effizienteren Chip, wobei ich auch diese Leistung durchaus sehr gut finde, also nicht falsch verstehen). Ist vielleicht auch Wunschdenken meinerseits...
DrumDub
2007-11-02, 12:15:28
hoffe, dass wurde noch nicht gepostet. aber damit dürfte wohl klar sein, dass vor frühjahr 2008 nix neues im highend kommt: http://www.bootdaily.com/images/stories/hardware/graphics/nvidia/8800gt/lineup.jpg
http://www.bootdaily.com/index.php?option=com_content&task=view&id=849&Itemid=51
AnarchX
2007-11-02, 12:18:12
Fragt sich nur wo da, die 512MB GTS ist und ob NV ihr "Ass" schon auf einer Roadmap präsentieren würde.;)
Gaestle
2007-11-02, 14:24:14
Fragt sich nur wo da, die 512MB GTS ist und ob NV ihr "Ass" schon auf einer Roadmap präsentieren würde.;)
Die GTS wird ja auch verstärkt. Vielleicht gilt das auch für GTX und Ultra?
? Wie denn das... eine 8800GTS512 hat doch die SPs einer GTX, deutlich mehr Texelfüllrate bei weniger Pixelfüllrate und Speicherbandbreite...
Ein 8800GTX/Ultra Nachfolger wird eine andere Mixture aus den einzelnen Bauteilen erhalten denke ich, die der G9x bietet. Mehr SPs bei gleicher oder geringerer TMU/TA Anzahl. Kommt drauf an wie teuer GDDR4 Speicher ist wenn man 1GiB verbauen möchte. 1GiB spricht für 256Bit SI, wo aber die ROPs gut hochgetaktet werden müssen (Z-Leistung und Pixelfüllrate brauch es ja im Highend wo 2560er Auflösung das max Darstellt), ein 384Bit SI würde wieder 768MiB RAM bedeuten aber auch eine günstige alternative, da langt die langsamste GDDR4 Speichersorte für +100GB/s Bandbreite
GeneralHanno
2007-11-03, 17:10:58
die GTS-512MiB-G92 hat ja wie die GT ein 256bit SI und 16ROPs. ich habe so langsam das gefühl, dass der G92 nativ nur über 4 statt wie der G80 über 6 ROP-part. verfügt ...
damit wäre der G92 dann auch für eine "neue" GTX ungeeignet.
Hvoralek
2007-11-03, 17:16:46
damit wäre der G92 dann auch für eine "neue" GTX ungeeignet.Wieso? Wenn noch eine G92- GTX kommen sollte, würde ich Taktraten von 700 - 800 MHz erwarten, Füllrate wäre also genug da und mit schnellem Speicher könnte man auch ausreichende Bandbreiten schaffen. Ein G92 mit 8 Clustern und 4 RBEs/256bit @ 750/ 1900/ 1600 sollte ohne Probleme eine Ultra schlagen können.
reunion
2007-11-03, 17:17:53
Bald gibt es vier 8800GTS-Varianten: :conf:
8800GTS : G80, 90nm, 96SP, 320bit, 320MB, VP1
8800GTS : G80, 90nm, 96SP, 320bit, 640MB, VP1
8800GTS : G80, 90nm, 112SP, 320bit, 640MB, VP1, Launch 19th Nov
8800GTS : G92, 65nm, 128SP, 256bit, 512MB, VP2, Launch 3rd Dec
http://www.expreview.com/news/hard/2007-11-03/1194066469d6767.html
Na wenn das mal nicht für gehörig Verwirrung sorgt. Keine Ahnung, was sich nV davon erhofft.
AnarchX
2007-11-03, 17:21:06
Ich habe Zweifel, dass ein 289mm² (gemessen wurden zum Teil 300-330mm²) Chip nur ein 256Bit SI haben soll, da ist doch genug Fläche für die Pads vorhanden bzw. wäre die Frage, wofür sie sonst verschwendet wurde.
Bei einer $310 MSRP-SKU wie der GTS 512 ist ein 256Bit-PCB nicht verwunderlich.
Und warum sollte man einen 64-TMU-Chip, der wohl bis zu ~800MHz auf einer High-End-SKU erreichen wird, dermaßen im Punkt Bandbreite kastrieren, wenn man die Möglichkeit zu Schritten wie 320 oder 384Bit hat?
Wohl um dann eine GX2 mit 2x300m² Dies und 2x1GB GDDR4 zu bauen? ;D
Na wenn das mal nicht für gehörig Verwirrung sorgt. Keine Ahnung, was sich nV davon erhofft.
Man will wohl irgendwann mit den Verkaufsrekord der 8800er-Serie prahlen. :D
Die_Allianz
2007-11-03, 17:24:32
Bald gibt es vier 8800GTS-Varianten: :conf:
8800GTS : G80, 90nm, 96SP, 320bit, 320MB, VP1
8800GTS : G80, 90nm, 96SP, 320bit, 640MB, VP1
8800GTS : G80, 90nm, 112SP, 320bit, 640MB, VP1, Launch 19th Nov
8800GTS : G92, 65nm, 128SP, 256bit, 512MB, VP2, Launch 3rd Dec
http://www.expreview.com/news/hard/2007-11-03/1194066469d6767.html
Na wenn das mal nicht für gehörig Verwirrung sorgt. Keine Ahnung, was sich nV davon erhofft.
ATI plattmachen, was sonst. ;D Aber eine 1GB-Version fehlt da eindeutig noch
3.dezember? noch ziemlich lange hin...;( schade. dann hoffentlich ein hardlaunch.
reunion
2007-11-03, 17:30:55
Ich habe Zweifel, dass ein 289mm² (gemessen wurden zum Teil 300-330mm²) Chip nur ein 256Bit SI haben soll, da ist doch genug Fläche für die Pads vorhanden bzw. wäre die Frage, wofür sie sonst verschwendet wurde.
Bei einer $310 MSRP-SKU wie der GTS 512 ist ein 256Bit-PCB nicht verwunderlich.
Und warum sollte man einen 64-TMU-Chip, der wohl bis zu ~800MHz auf einer High-End-SKU erreichen wird, dermaßen im Punkt Bandbreite kastrieren, wenn man die Möglichkeit zu Schritten wie 320 oder 384Bit hat?
Wohl um dann eine GX2 mit 2x300m² Dies und 2x1GB GDDR4 zu bauen? ;D
Nur stellst sich schön langsam die Frage, was mit dem Chip los ist. Jetzt kam er endlich, der G92, aber nur in Form einer GT mit 7 Clustern und 256-bit SI. Irgendwann im Dezember soll dann eine GTS mit 8 Clustern und ebenfalls 256-bit SI kommen, welche aber wohl ebenfalls nicht ausreichen wird, um G80 zu ersetzen. Niemand weiß, wieviele ROP-Cluster das Ding letztendlich haben wird, bzw. warum nV den Chip gegen den wesentlich teureren G80 zurückhält. Womöglich hat das Ding tatsächlich nur ein 256-bit SI, dank GDDR4 sollte man trotzdem auf eine vergleichbare Bandbreite kommen.
Hvoralek
2007-11-03, 17:43:12
Bald gibt es vier 8800GTS-Varianten: :conf:
8800GTS : G80, 90nm, 96SP, 320bit, 320MB, VP1
8800GTS : G80, 90nm, 96SP, 320bit, 640MB, VP1
8800GTS : G80, 90nm, 112SP, 320bit, 640MB, VP1, Launch 19th Nov
8800GTS : G92, 65nm, 128SP, 256bit, 512MB, VP2, Launch 3rd DecDie meisten davon kann man anhand der Speichergröße auseinander halter. Das Problem sind die beiden 640er, die sich nicht unterscheiden lassen, aber etwa 10 - 15% auseinder liegen dürften. Insofern waren ja die beiden X1900GTs weniger problematisch; die waren praktisch gleich schnell.
Ich habe Zweifel, dass ein 289mm² (gemessen wurden zum Teil 300-330mm²) Chip nur ein 256Bit SI haben soll, da ist doch genug Fläche für die Pads vorhanden bzw. wäre die Frage, wofür sie sonst verschwendet wurde.Man muss ja nicht auf Gedeih und Verderb jeden Millimeter Chiprand nutzen.
Bei einer $310 MSRP-SKU wie der GTS 512 ist ein 256Bit-PCB nicht verwunderlich.
Und warum sollte man einen 64-TMU-Chip, der wohl bis zu ~800MHz auf einer High-End-SKU erreichen wird, dermaßen im Punkt Bandbreite kastrieren, wenn man die Möglichkeit zu Schritten wie 320 oder 384Bit hat?Mit schnellem Speicher hätte man ungefähr die Bandbreite einer Ultra, die ja wirklich nicht gerade daran zu verhungern scheint. Selbst bei der GT wird Bandbreite erst in hohen AA- Stufen ein Problem, und der gegenüber wäre mit schnellem Speicher noch fast eine Verdopplung möglich (bei etwa 50% höherer Rohleistung bei 8C@800Mhz). Warum also nicht?
3DoMan
2007-11-03, 17:55:52
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/nvidia_geforce_8800_gts_512_mb/
Also hier reden sie davon, das die neue GTS auch mit 1GB Vram zu haben sein wird:smile: 128 Stream-Prozessoren, verbesserter Videoprozessor, also ist es der 65nm G92 in seiner Endausbaustufe.
Na, wie gut das ich doch noch gewartet habe.
8800GTS : G92, 65nm, 128SP, 256bit, 512MB, VP2, Launch 3rd Dec
warum den wieder nur 512mb..ich raffs nett...
w0mbat
2007-11-03, 18:02:39
8800GT-G92, 7C-112SP, 600/1500/900, 256/512MB GDDR3
8800GTS-G92, 8C-128SP, ???/???/???, 512/1024MB GDDR3
Ich denke nicht das nVidia keine neue GTX bringen wird. Die alte GTX wird mit der neuen GTS ja obsolet. Könnte der G92 nicht sogar 10C haben, z.b. 8800GTX-G92, 10C-160SP, 900/2000/1600, 1GB GDDR4? Wie sicher ist es das der G92 "nur" max. 8C hat?
PCGH_Carsten
2007-11-03, 18:07:10
Er hat 754M Transistoren - wieviel Massetransistoren soll den G80 gehabt haben, damit nebem dem VP2, dem IO-Part (NVIO), 8 TPCs samt zusätzlicher 32 TAUs noch Platz für weitere großartige Dinge bleibt?
3DoMan
2007-11-03, 18:09:00
Neue 8800GTS -> G92 / bis 1GB Vram / höher getaktet als 8800 GT / VP2 / 128 SP
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/november/nvidia_geforce_8800_gts_512_mb/
laser114
2007-11-03, 18:09:38
Wie sicher ist es das der G92 "nur" max. 8C hat?
G80 scheint recht wenig Redundanz zu haben, da man ja bei der ersten 8800 GTS gleich zwei Cluster deaktiviert hat. Insofern konnte man wohl mit dem Shrink wenig einsparen. Eventuell wurden aber die ROP-Partitionen / das Speicherinterface etwas gekürzt
Dem gegenüber steht:
- mehr Texturadressierer pro Cluster
- VP2 in die Hardware
Daher sollte die Transistoranzahl bei 8 Clustern wohl leicht gestiegen sein. Sofern die angegebenen Daten zum G92 (754M Tranaistoren, 289 mm^2 Die) ist das wohl relativ sicher. Ein Cluster scheint irgendwas bei ~ 79M Transistoren zu brauchen (Differenz G84 und G86, die sich sonst sehr ähnlich sind). Daher sind 8 Cluster eigentlich recht sicher, wenn Die-Größe und Transistorzahl stimmt.
AnarchX
2007-11-03, 18:11:20
Niemand weiß, wieviele ROP-Cluster das Ding letztendlich haben wird, bzw. warum nV den Chip gegen den wesentlich teureren G80 zurückhält.
Nunja, der wesentlich teurer G80 muss wohl erst noch abverkauft werden, was bei den GTX/U-SKUs wohl nicht so schnell geht bzw. sollen sich die Enthusiasten jetzt erstmal noch ein G80-Tri-SLI aufbauen und dann nochmal im Frühjahr zuschlagen?:D Und Notwendigkeit besteht ja nicht bis ATi ihren R670/R680 launcht...
Womöglich hat das Ding tatsächlich nur ein 256-bit SI, dank GDDR4 sollte man trotzdem auf eine vergleichbare Bandbreite kommen.
Mit 1.6GHz GDDR4, der wohl nicht gerade billig ist
Während für ein 384Bit-GTS-PCB wohl auch nur 10 Layer wie bei der GTS benötigen würde bzw. bei dem GTX/U-PCB nur 12 und man hier nicht nur eine vergleichbare Bandbreite erreichen würde, selbst mit niedrig getakteten GDDR4.
8800GTS : G92, 65nm, 128SP, 256bit, 512MB, VP2, Launch 3rd Dec
warum den wieder nur 512mb..ich raffs nett...
Das ergibt sich nunmal aus der SI-Größe, aber es soll auch 1GiB-Versionen geben.
8800GT-G92, 7C-112SP, 600/1500/900, 256/512MB GDDR3
8800GTS-G92, 8C-128SP, ???/???/???, 512/1024MB GDDR3
Ich denke nicht das nVidia keine neue GTX bringen wird. Die alte GTX wird mit der neuen GTS ja obsolet. Könnte der G92 nicht sogar 10C haben, z.b. 8800GTX-G92, 10C-160SP, 900/2000/1600, 1GB GDDR4? Wie sicher ist es das der G92 "nur" max. 8C hat?
Für 10C sind imo 754M Transistoren zu wenig.
w0mbat
2007-11-03, 18:18:03
Und was macht dann nVidia, wenn die 8800GTS-G92 die 8800GTX/Ultra zum Frühstück isst? Das ist das high-end Produkt eine GTS ung daran glaube ich nicht. Und nach den Berichten zur 8800GT denke ich auch nicht das man eine GTX nur durch einen höheren Takt etablieren könnte.
Es gab ja mal das Gerücht von einer G92-GX2. Wäre das möglich?
8800GX2-2xG92, 16C-256SP, 500/1300/1600, 1GB GDDR4
Also quasi eine doppelter 8C-G92 mit niedrigeren Taktraten.
Zitat:
Zitat von 4711 Beitrag anzeigen
8800GTS : G92, 65nm, 128SP, 256bit, 512MB, VP2, Launch 3rd Dec
warum den wieder nur 512mb..ich raffs nett...
Das ergibt sich nunmal aus der SI-Größe, aber es soll auch 1GiB-Versionen geben.
Die verarschen uns doch...zb.diese eigenartigen Betatreiber..nutz ich einen alten sieht Crysis um Welten besser aus ....die Karte geht höher zu takten usw (G80)...manman hoffendlich stellt ATI bald was Anständiges auf die Beine das is ja nicht mehr zum Aushalten der Schwachfug.
dargo
2007-11-03, 18:19:28
Ich denke nicht das nVidia keine neue GTX bringen wird. Die alte GTX wird mit der neuen GTS ja obsolet. Könnte der G92 nicht sogar 10C haben, z.b. 8800GTX-G92, 10C-160SP, 900/2000/1600, 1GB GDDR4? Wie sicher ist es das der G92 "nur" max. 8C hat?
Ich bin mir ziemlich sicher, dass NV noch ein "Ersatz" für die GTX bringen wird. Nur halt nicht mehr in diesem Jahr. Eventuell ~Februar 2008?
Die verarschen uns doch...zb.diese eigenartigen Betatreiber..nutz ich einen alten sieht Crysis um Welten besser aus ....die Karte geht höher zu takten usw (G80)...manman hoffendlich stellt ATI bald was Anständiges auf die Beine das is ja nicht mehr zum Aushalten der Schwachfug.
Meine Güte, jetzt geh mal etwas an die frische Luft. :)
Du bist ja nur noch am bashen hier. Wenn du nicht zufrieden bist dann verkaufe doch deine NV Karte. Crysis ist noch gar nicht draußen, wollte dich nur mal daran erinnern. ;)
was hast du denn für ein prob?
Tatsachen sonst nix was hat mit bashen zutun?
Sogar der uralt Treiber ist unter Vista DX10 um Welten besser als dieser Betamüll der dazu auch noch falsch taktet (G80) einfach mal so von heut auf morgen...ich hab keine Abstürze mehr in keinem Game und das ding rennt mit 730 mit dem betakrams gerade mal 684...schon eigenartig .....
reunion
2007-11-03, 18:24:23
Nunja, der wesentlich teurer G80 muss wohl erst noch abverkauft werden, was bei den GTX/U-SKUs wohl nicht so schnell geht bzw. sollen sich die Enthusiasten jetzt erstmal noch ein G80-Tri-SLI aufbauen und dann nochmal im Frühjahr zuschlagen?:D
Für mich nicht wirklich logisch. Wann G92 kommt, wusste nV schon lange. Lagerbestände hätten längst abgebaut werden können. Jetzt den G92 zurückzuhalten, um den G80 mit wesentlich geringeren Margen zu verkaufen, macht nicht wirklich Sinn. Und ob sich jetzt wirklich viele Enthusiasten einen dritten G80 kaufen, wenn sie wissen, dass im Frühjahr die volle Ausbaustufe des G92 kommt, wage ich auch zu bezweifeln.
Und Notwendigkeit besteht ja nicht bis ATi ihren R670/R680 launcht...
Es besteht immer die Notwendigkeit, Kosten zu reduzieren und damit die Margen zu erhöhen.
Mit 1.6GHz GDDR4, der wohl nicht gerade billig ist
Während für ein 384Bit-GTS-PCB wohl auch nur 10 Layer wie bei der GTS benötigen würde bzw. bei dem GTX/U-PCB nur 12 und man hier nicht nur eine vergleichbare Bandbreite erreichen würde, selbst mit niedrig getakteten GDDR4.
Naja, die GT ist ja auch trotz weniger Bandbreite meist schneller als die GTS. Auch hier gilt natürlich die alte Weisheit, dass hochgetakteter Speicher zu beginn vielleicht teuer ist, aber im Gegensatz zu einem komplexen PCB schnell im Preis sinkt. Sicher bin ich natürlich nicht, aber nachdem auch die neue GTS nur mit 256-bit kommt, würde ich es zumindest nicht ausschließen.
AnarchX
2007-11-03, 18:26:39
Und was macht dann nVidia, wenn die 8800GTS-G92 die 8800GTX/Ultra zum Frühstück isst? Das ist das high-end Produkt eine GTS ung daran glaube ich nicht. Und nach den Berichten zur 8800GT denke ich auch nicht das man eine GTX nur durch einen höheren Takt etablieren könnte.
Mich würde es nicht wundern, wenn die 8800 GTS 512MB nur mit 8Cs @ GT-Takt + Dual-Slot-Kühler und vielleicht 1-1.1GHz GDDR3 daherkommt, immerhin soll ja die Preisdifferenz nur $60 zwischen GT und neuer GTS betragen und NV hat hier eben ein Monopol.
Im Endeffekt wäre die Ultra durch 100GB/s + 768MB noch in ihrer Existenz für Enthusiasten gesichert, zudem wird wohl auch die neue GTS nicht von Tri-SLI unterstützt werden. ;)
Es gab ja mal das Gerücht von einer G92-GX2. Wäre das möglich?
8800GX2-2xG92, 16C-256SP, 500/1300/1600, 1GB GDDR4
Also quasi eine doppelter 8C-G92 mit niedrigeren Taktraten.
Sicher möglich aber die Frage ist, wie sinnvoll das wäre:
- GX2 mit zwei teuren 300mm² Dies
- 2x1GiB um auf effektive 1GiB zu kommen wären nötig
- warum das Taktpotential von G92 nicht nutzen(immerhin gibt es ja schon OC-GTs mit 700/1750MHz)?
- Q-SLI war damals nicht wirklich erfolgreich und ist momentan tot und NV will Tri-SLI etablieren, wo eine GX2 nicht hineinpassen würde
ShinyMcShine
2007-11-03, 18:27:10
ATI plattmachen, was sonst. ;D Aber eine 1GB-Version fehlt da eindeutig noch
3.dezember? noch ziemlich lange hin...;( schade. dann hoffentlich ein hardlaunch.
Es war doch auch mal der 19.11. als Launchtermin genannt worden. Launcht nVidia da was anderes als die 8800GTS@G92?
Ich denke mir, dass es für nVIdia viel besser passt, am 19.11. die 8800GTS@G92 loszulassen, um damit ATIs neue Grafikkarten zu torpedieren. Die werden doch keine zwei Wochen warten, um die Kundschaft ATI kaufen zu lassen... :confused:
ShinyMcShine
2007-11-03, 18:36:56
Mich würde es nicht wundern, wenn die 8800 GTS 512MB nur mit 8Cs @ GT-Takt + Dual-Slot-Kühler und vielleicht 1-1.1GHz GDDR3 daherkommt, immerhin soll ja die Preisdifferenz nur $60 zwischen GT und neuer GTS betragen und NV hat hier eben ein Monopol.
Im Endeffekt wäre die Ultra durch 100GB/s + 768MB noch in ihrer Existenz für Enthusiasten gesichert, zudem wird wohl auch die neue GTS nicht von Tri-SLI unterstützt werden. ;)
Das ist auch meine Meinung. Nur so würde es marketingtechnisch doch auch Sinn machen.
Gibt es eigentlich wirklich kein (White-)Paper von nVidia, welches den internen Chip-Aufbau ihrer Chips ein wenig erläutert? Wäre doch wirklich mal interessant. :tongue:
Adam D.
2007-11-03, 18:41:07
Es war doch auch mal der 19.11. als Launchtermin genannt worden. Launcht nVidia da was anderes als die 8800GTS@G92?
Ich denke mir, dass es für nVIdia viel besser passt, am 19.11. die 8800GTS@G92 loszulassen, um damit ATIs neue Grafikkarten zu torpedieren.
Aha, was spricht denn nach der 8800GT noch für die neuen ATis? ;)
w0mbat
2007-11-03, 18:45:21
UVD, DX10.1, weniger Stromverbrauch und billiger :)
nix,deswegen ist sie ja gekommen und im Dez spricht kein AAs mehr über die GT...das ist das Geile an einem Monopol....:tongue:
ShinyMcShine
2007-11-03, 18:47:09
Aha, was spricht denn nach der 8800GT noch für die neuen ATis? ;)
Das wissen wir ja alle noch nicht (DirectX 10.1 lasse ich für mich persönlich mal nicht gelten: bis das gebraucht wird, haben wir alle 'eh schon wieder neue Grafikkarten :tongue:). Ich hoffe trotzdem, dass die neuen ATIs mit der GT mithalten können, damit nVidia in diesem Preissegment ein wenig Konkurrenz bekommt.
Den Launch einer Grafikkarte, die nur wenig mehr kostet (war für die HD3870 nicht 299$ im Gespräch?) aber (evtl. viel) mehr Power hat als ein Konkurrenzprodukt würde ich als nVidia-CEO auf jeden Fall durchziehen. ;)
laser114
2007-11-03, 18:50:21
Die 3870 wurde unlängst von 299 USD auf 199 USD gesenkt, nach letzten Berichten.
ShinyMcShine
2007-11-03, 18:52:04
Die 3870 wurde unlängst von 299 USD auf 199 USD gesenkt, nach letzten Berichten.
Oha! Da scheint ATI wohl die Hosen voll zu haben. :( So viel zu meiner Hoffnung, dass nVidia Konkurrenz bekommt.
Dann haben die natürlich auch keinen unmittelbaren Nutzen davon, am gleichen Tag die 8800GTS@G92 rauszubringen. Sehr schade! Muss ich wohl bis 03.12. mit meiner neuen Grafikkarte warten (ein wenig Resthoffnung habe ich trotzdem noch).
AnarchX
2007-11-03, 18:53:31
Es war doch auch mal der 19.11. als Launchtermin genannt worden. Launcht nVidia da was anderes als die 8800GTS@G92?
AFAIK soll doch hier die 8800M-GTX kommen. ;)
Ich denke mir, dass es für nVIdia viel besser passt, am 19.11. die 8800GTS@G92 loszulassen, um damit ATIs neue Grafikkarten zu torpedieren. Die werden doch keine zwei Wochen warten, um die Kundschaft ATI kaufen zu lassen... :confused:
Die 8800 GT ist wohl schon mehr als genug gegen die HD3870, welche nach letzten Infos nur mit 775MHz kommt...
Für mich nicht wirklich logisch. Wann G92 kommt, wusste nV schon lange. Lagerbestände hätten längst abgebaut werden können. Jetzt den G92 zurückzuhalten, um den G80 mit wesentlich geringeren Margen zu verkaufen, macht nicht wirklich Sinn. Und ob sich jetzt wirklich viele Enthusiasten einen dritten G80 kaufen, wenn sie wissen, dass im Frühjahr die volle Ausbaustufe des G92 kommt, wage ich auch zu bezweifeln.
Es besteht immer die Notwendigkeit, Kosten zu reduzieren und damit die Margen zu erhöhen.
Das stimme ich dir zu, nur ist vielleicht eben die 8800 GT ausserplanmässig im Bezug auf Leistung und Termin, eben wegen des früheren Markteintritts des RV670, während sich die anderen SKUs wieder an den Plan halten?
Naja, die GT ist ja auch trotz weniger Bandbreite meist schneller als die GTS.
Wobei letzere in höheren Auflösungen/AA-Settings doch aufholt, was eben ein Problem für eine G92-GTX gegenüber einer 8800 Ultra sein könnte.
Auch hier gilt natürlich die alte Weisheit, dass hochgetakteter Speicher zu beginn vielleicht teuer ist, aber im Gegensatz zu einem komplexen PCB schnell im Preis sinkt. Sicher bin ich natürlich nicht, aber nachdem auch die neue GTS nur mit 256-bit kommt, würde ich es zumindest nicht ausschließen.
Das 384Bit-PCB scheint aber nicht so teuer zu sein 10/12 Layer je nach Stromversorgung und man könnte eben hier auch noch beim teueren Speicher sparen, mit der in meinen Augen noch einige Zeit sinnvollen Speichermenge von 768MiB gegenüber 1GiB@256Bit.
w0mbat
2007-11-03, 18:57:29
Das wissen wir ja alle noch nicht (DirectX 10.1 lasse ich für mich persönlich mal nicht gelten: bis das gebraucht wird, haben wir alle 'eh schon wieder neue Grafikkarten :tongue:). Ich hoffe trotzdem, dass die neuen ATIs mit der GT mithalten können, damit nVidia in diesem Preissegment ein wenig Konkurrenz bekommt.
Den Launch einer Grafikkarte, die nur wenig mehr kostet (war für die HD3870 nicht 299$ im Gespräch?) aber (evtl. viel) mehr Power hat als ein Konkurrenzprodukt würde ich als nVidia-CEO auf jeden Fall durchziehen. ;)
Mit DX10.1 soll angeblich AA in UE3-Titel funktionieren. Also nichts mit darauf warten, sondern sofort profitieren.
Adam D.
2007-11-03, 19:17:08
Oha! Da scheint ATI wohl die Hosen voll zu haben. :( So viel zu meiner Hoffnung, dass nVidia Konkurrenz bekommt.
Dann haben die natürlich auch keinen unmittelbaren Nutzen davon, am gleichen Tag die 8800GTS@G92 rauszubringen. Sehr schade! Muss ich wohl bis 03.12. mit meiner neuen Grafikkarte warten (ein wenig Resthoffnung habe ich trotzdem noch).
Sie werden natürlich in Konkurrenz mit der 8800GT gehen, aber halt über den Preis. AMD hat 100%ig nicht mit dieser 8800GT gerechnet, das zerstört ihre Pläne völlig. Die Preisreduktion ist für mich ein Zeichen dafür, dass man keine Konkurrenz in Sachen Performance ist, man ordnet sich darunter und das auch mit dem Preis. Also alles wunderbar.
mike49
2007-11-03, 19:25:07
Mit DX10.1 soll angeblich AA in UE3-Titel funktionieren. Also nichts mit darauf warten, sondern sofort profitieren.
Das funktioniert mit meiner 8800GTS sogar unter DX9 ;)
P.S. Ob Treiberhack o.ä. ist mir egal, auf jeden Fall werden die Kanten geglättet.
w0mbat
2007-11-03, 19:29:51
@mike49: Nein, nicht richtig und ohne Bildfehler.
Adam D.
2007-11-03, 19:41:11
Schon mal die 169.04 versucht? Damit gibt es laut ziemlicher vieler G80-User keine Bildfehler mit AA ;)
dargo
2007-11-03, 20:33:49
Mit DX10.1 soll angeblich AA in UE3-Titel funktionieren. Also nichts mit darauf warten, sondern sofort profitieren.
Dann zähl mir jetzt mal die UE3 Titel auf die DX10.1 unterstützen. *hust*
ShinyMcShine
2007-11-03, 20:36:03
Mit DX10.1 soll angeblich AA in UE3-Titel funktionieren. Also nichts mit darauf warten, sondern sofort profitieren.
Jetzt bin ich aber baff! :confused: DX10.1 soll doch erst mit Vista SP1 Einzug erhalten? Wie kann UT3 dies jetzt schon für die AA-Unterstützung benutzen, ohne die entsprechende API auf Betriebssystemebene zu haben?
Kannste doch nachpatchen, und die Technik die für die Schatten benutzt wird ermöglicht es laut der momentan Spec halt kein AA draufzulegen.
Das heist aber nicht das die Schatten deswegen nicht mit der Technik berechnet werden können... Und wenn eine GPU durch den Treiber eben auch AA ermöglicht, obwohl die Spec das nicht vorsieht, jo mei. Hatten wir doch schon öfters... Geometry Instancing beim R520 oder sowas...
DX10 GPUs sind doch viel mehr Programmierbarer als alles vorher dagewesene, warum also nicht etwas können was DX10 nicht betrachtet, btw gibts ja immer Herstellerspezifische Features, unter OpenGL gab es ja viele Unterschiede.
Mit DX10.1 soll angeblich AA in UE3-Titel funktionieren. Also nichts mit darauf warten, sondern sofort profitieren.
Zwischen "soll" und "sofort" liegen noch einige Monate... außerdem wer sagt das die AMD Treiber schon DX10.1 fähig sind bis dahin, und das auch noch Performant. Mit AA hat die R600 Serie es ja nach wie vor nich so dolle...
Ailuros
2007-11-04, 07:49:49
Das Thema mit der UE3 engine ist fuer mich noch offen bis ich endlich eine passable Antwort dafuer bekomme.
Was das UT3 demo betrifft, will ich hoffen dass ich mir jetzt nicht gerade wieder ins eigene Bein schiesse aber ich hab Angst dass fuer richtiges AA selbst D3D10.1 nicht die Rettungsplanke am Ende sein wird.
drmaniac
2007-11-04, 12:41:14
Um mal auf das eigentliche Topic zu kommen ;)
Wann kommt den nun ca der G90, also die Highend Version, der GF8800GTX Nachfolger :D ;) ?
Alles andere interssiert mich eigentlich nicht wirklich (die ganzen Low Cost Vorreiter Modelle)...
Ailuros
2007-11-04, 14:19:46
Gut dann bleiben wir beim Topic. Was ist ein "G90" und welcher IHV soll diesen momentan unter Fertigung haben? :P
***edit: G92 high end kommt IMHO =/>Q2 2008.
dargo
2007-11-04, 14:26:30
Das Thema mit der UE3 engine ist fuer mich noch offen bis ich endlich eine passable Antwort dafuer bekomme.
Was das UT3 demo betrifft, will ich hoffen dass ich mir jetzt nicht gerade wieder ins eigene Bein schiesse aber ich hab Angst dass fuer richtiges AA selbst D3D10.1 nicht die Rettungsplanke am Ende sein wird.
Was verstehst du unter richtigem AA? Oder anders gefragt, was stört dich an dem aufgezwungenen AA in DX9 bei UT3 (Demo). Sind jemandem da schon irgendwelche Fehler mit AA aufgefallen?
***edit: G92 high end kommt IMHO =/>Q2 2008.Doch erst Q2 2008? :usad:
ShinyMcShine
2007-11-04, 14:29:56
Was verstehst du unter richtigem AA? Oder anders gefragt, was stört dich an dem aufgezwungenen AA in DX9 bei UT3 (Demo). Sind jemandem da schon irgendwelche Fehler mit AA aufgefallen?
Screenshots wären sehr hilfreich!
dargo
2007-11-04, 14:35:18
Screenshots wären sehr hilfreich!
Ohne Savegames kann man das wohl erstmal vergessen.
laser114
2007-11-04, 14:39:44
Doch erst Q2 2008? :usad:
Naja, Nvidia hat vor einer Weile mal eine Aussage gemacht, jetzt jedes halbe Jahr eine neue High-End-Lösung zu präsentieren. Glaube das war zum Launch der 8800 GTX. Das wäre dem nach:
Q4 2006 -> 8800 GTX
Q2 2007 -> 8800 Ultra
Q4 2007 -> Tri-SLI
Und dann wäre erst wieder Q2 2008 etwas dran.
Ailuros
2007-11-04, 14:42:49
Was verstehst du unter richtigem AA? Oder anders gefragt, was stört dich an dem aufgezwungenen AA in DX9 bei UT3 (Demo). Sind jemandem da schon irgendwelche Fehler mit AA aufgefallen?
Fehler bis jetzt noch nicht; shader aliasing aber schon :P
Ailuros
2007-11-04, 14:43:39
Naja, Nvidia hat vor einer Weile mal eine Aussage gemacht, jetzt jedes halbe Jahr eine neue High-End-Lösung zu präsentieren. Glaube das war zum Launch der 8800 GTX. Das wäre dem nach:
Q4 2006 -> 8800 GTX
Q2 2007 -> 8800 Ultra
Q4 2007 -> Tri-SLI
Und dann wäre erst wieder Q2 2008 etwas dran.
Wie soll denn tri-SLi erscheinen ohne eine high end GPU?
laser114
2007-11-04, 14:44:49
Wie soll denn tri-SLi erscheinen ohne eine high end GPU?
Soll doch nach ersten Folien erstmal mit 8800 GTX/Ultra laufen.
Ailuros
2007-11-04, 14:49:50
Soll doch nach ersten Folien erstmal mit 8800 GTX/Ultra laufen.
Wusste ich nicht. Ziemlich fraglich das Ganze, denn die meisten wissen ja dass in kurzer Zeit etwas schnelleres verfuegbar sein wird.
dargo
2007-11-04, 14:50:07
Fehler bis jetzt noch nicht; shader aliasing aber schon :P
Öhm, was soll MSAA in DX10.1 gegen Shaderaliasing bewirken? Habe ich was verpasst?
Naja, Nvidia hat vor einer Weile mal eine Aussage gemacht, jetzt jedes halbe Jahr eine neue High-End-Lösung zu präsentieren. Glaube das war zum Launch der 8800 GTX. Das wäre dem nach:
Q4 2006 -> 8800 GTX
Q2 2007 -> 8800 Ultra
Q4 2007 -> Tri-SLI
Und dann wäre erst wieder Q2 2008 etwas dran.
Jetzt denke mal weiter. Auf Dauer wird man damit Probleme bekommen. Oder wie will man in zb. 3 Jahren die Leistung steigern? Mit 6 Grakas? :D
Was fehlt ist eine High-End Lösung mit einer GPU.
Ailuros
2007-11-04, 15:02:43
Öhm, was soll MSAA in DX10.1 gegen Shaderaliasing bewirken? Habe ich was verpasst?
Hoechstwahrscheinlich gar nichts, wenn die Entwickler weiterhin so faul bleiben; wenn Du aber die D3D10.1 Vorraussetzungen vorsichtig durchwuehlst, ist es schon offensichtlich dass damit um einiges mehr moeglich ist.
laser114
2007-11-04, 15:27:32
Jetzt denke mal weiter. Auf Dauer wird man damit Probleme bekommen. Oder wie will man in zb. 3 Jahren die Leistung steigern? Mit 6 Grakas? :D
Was fehlt ist eine High-End Lösung mit einer GPU.
Ich erwarte für Q2 2008 schon einen neuen Chip.
(Oder zumindest was auf G92-Basis.)
AnarchX
2007-11-04, 15:47:31
Ich erwarte für Q2 2008 schon einen neuen Chip.
(Oder zumindest was auf G92-Basis.)
G92-Bx? (der optische Shrink von G92 auf 55nm) ;)
laser114
2007-11-04, 15:54:13
G92-Bx? (der optische Shrink von G92 auf 55nm) ;)
Für High-End wären in diesem Fall sehr schnelle Speicher wichtig, falls der G92 wirklich auf 256-Bit begrenzt ist.
AnarchX
2007-11-04, 16:06:09
Für High-End wären in diesem Fall sehr schnelle Speicher wichtig, falls der G92 wirklich auf 256-Bit begrenzt ist.
GDDR5 soll ja im H1 2008 auch irgendwann kommen, aber du kennst meine Meinung zu "G92 - 256Bit-only".;)
Hier mal ein paar Roadmap-Spekus für Performance und höher:
Winter:
8800 Ultra 128SPs 384Bit 768MiB $549
8800 GTX 128SPs 384Bit 768MiB $449
8800 GTS 128SPs 256Bit 1024MiB $399 (600/1500/1000MHz), Dezember 2007
8800 GTS 128SPs 256Bit 512MiB $310 (600/1500/1000MHz), Dezember 2007
8800 GT 112SPs 256Bit 512MiB $249 (600/1500/900MHz)
Alle G80-GTS sind bis Mitte Dezember EOL.
Frühjahr 2008:
8900 Ultra 128SPs 384Bit 1536MiB $899 (850/2500/1600MHz), Tri-SLI, April/Mai 2008, G92-Bx?
8900 GTX 128SPs 384Bit 768MiB $599 (800/2200/1300MHz), Tri-SLI, Januar 2008
8900 GTS 128SPs 384Bit 768MiB $449 (700/1750/1000MHz), Januar 2008
8800 GTS 128SPs 256Bit 1024MiB $399 (600/1500/1000MHz)
8800 GTS 128SPs 256Bit 512MiB $310 (600/1500/1000MHz)
8800 GT 112SPs 256Bit 512MiB $249 (600/1500/900MHz))
Ende Januar auch G80-GTX/U EOL.
laser114
2007-11-04, 16:13:15
Bei Winter gehe ich mit, obs die GTS auch offiziell mit 1024 MiB Speicher von Nvidia oder nur von Boardpartnern gibt, sei dabei erstmal dahingestellt.
Ansonsten: An eine parallele Bedienung der 8800er & 8900er Serie glaube ich nicht. Und würde neue 8900-Karten schon Januar 2008 anstehen, würde ich nicht Anfang Dezember eine neue 8800 GTS launchen. Andererseits habe ich Nvidias Marketing schon einmal nicht verstanden. :|
reunion
2007-11-04, 16:14:28
GDDR5 soll ja im H1 2008 auch irgendwann kommen, aber du kennst meine Meinung zu "G92 - 256Bit-only".;)
Hier mal ein paar Roadmap-Spekus für Performance und höher:
Winter:
8800 Ultra 128SPs 384Bit 768MiB $549
8800 GTX 128SPs 384Bit 768MiB $449
8800 GTS 128SPs 256Bit 1024MiB $399 (600/1500/1000MHz), Dezember 2007
8800 GTS 128SPs 256Bit 512MiB $310 (600/1500/1000MHz), Dezember 2007
8800 GT 112SPs 256Bit 512MiB $249 (600/1500/900MHz)
Alle G80-GTS sind bis Mitte Dezember EOL.
Frühjahr 2008:
8900 Ultra 128SPs 384Bit 1536MiB $899 (850/2500/1600MHz), Tri-SLI, April/Mai 2008, G92-Bx?
8900 GTX 128SPs 384Bit 768MiB $599 (800/2200/1300MHz), Tri-SLI, Januar 2008
8900 GTS 128SPs 384Bit 768MiB $449 (700/1750/1000MHz), Januar 2008
8800 GTS 128SPs 256Bit 1024MiB $399 (600/1500/1000MHz)
8800 GTS 128SPs 256Bit 512MiB $310 (600/1500/1000MHz)
8800 GT 112SPs 256Bit 512MiB $249 (600/1500/900MHz))
Ende Januar auch G80-GTX/U EOL.
Durchaus möglich, nur an einen weiteren Shrink des G80 bzw. G92 auf 55nm glaube ich nicht mehr. Vielleicht kommen die anderen G9x-Chips in 55nm. Ein High-End-Chip in 55nm kommt bei nV IMHO erst mit der nächsten Generation. Außerdem halte ich die Taktraten für zu hoch gegriffen. 850Mhz sind IMO utopisch, nachdem man jetzt schon mehrmals gehört hat, dass 65nm nicht die gewünschten Erfolge liefert und auch AMD mit Rv670 wohl nicht mal 800Mhz erreicht. Auch eine 1536MB Version ist zumindest fraglich.
Die_Allianz
2007-11-04, 16:18:27
GDDR5 soll ja im H1 2008 auch irgendwann kommen, aber du kennst meine Meinung zu "G92 - 256Bit-only".;)
was ist deine meinung zu G92 - 256Bit-only?
AnarchX
2007-11-04, 16:18:52
@laser114
Naja, die neue 8800 GTS 512MB wäre im Endeffekt eine kostenreduzierte Version der G80-GTS, mit etwas höherer Leistung um wieder in die 8800er-Serie Ordnung zu bringen.;)
Einer Ultra wird sie wohl auf keinen Fall gefährlich werden, erst recht wenn man in Richtung höhere Auflösungen/AA-Settings schaut.
Eine GTX wird sie zwar in "niedrigen" Auflösungen angreifen können, aber diese ist imo hauptsächlich nur noch verfügbar für Tri-SLI-Aufrüster.
Durchaus möglich, nur an einen weiteren Shrink des G80 bzw. G92 auf 55nm glaube ich nicht mehr. Vielleicht kommen die anderen G9x-Chips in 55nm. Ein High-End-Chip in 55nm kommt bei nV IMHO erst mit der nächsten Generation.
Warum sollte NV einen einfachen optischen Shrink auslassen, erst recht wenn man die 8800 GT wohl nicht ewig bei $249 halten wird bzw. kann?
Außerdem halte ich die Taktraten für zu hoch gegriffen. 850Mhz sind IMO utopisch, nachdem man jetzt schon mehrmals gehört hat, dass 65nm nicht die gewünschten Erfolge liefert und auch AMD mit Rv670 wohl nicht mal 800Mhz erreicht.
Ich habe es ja auch für das Ende Q1 2008 projiziert, wo 55nm doch schon etwas besser laufen sollte und bisher hatte NV eigentlich immer aus optischen Shrinks Takt schöpfen können.
Auch eine 1536MB Version ist zumindest fraglich.
Als Ultra für $899 eigentlich doch nicht, zudem gibt es ja auch mittlerweile 1024MBit-Speicherchips, wodurch das PCB nicht unnötig komplex gemacht werden muss.
(Heute konnte man doch schon eine 2900Pro mit 1GiB GDDR4 für ~260€ kaufen. ;))
Die_Allianz
2007-11-04, 16:29:39
ok. das ist alles aber kein großes geheimnis.
woher aber kommt das breitere SI?
Und warum denkst du eine 256bit-GDDR4 Variante für das neuen High-End sei unwahrscheinich?
AnarchX
2007-11-04, 16:36:04
woher aber kommt das breitere SI?
Nunja, wir haben 754 Mio. Transistoren und einen ~300mm² großen Die, da liegt doch der Verdacht nahe, dass es doch ein voller G80+32TAs+VP2+IO sein könnte. ;)
Und warum denkst du eine 256bit-GDDR4 Variante für das neuen High-End sei unwahrscheinich?
Weil der schnellste GDDR4 nichtmal reichen würde, um die Bandbreite einer 8800 Ultra zu erreichen und der Bandbreitenbedarf bzw. ihr Anteil an der Performance wird wohl kaum schon 2008 so stagnieren...
Zudem ist es für NV ein absolutes Kinderspiel beim G8/9x Design einen 320/384Bit-Bus zu ermöglichen, welcher die PCB-Komplexität nur minimal steigert.
Hvoralek
2007-11-04, 16:39:51
Frühjahr 2008:
8900 Ultra 128SPs 384Bit 1536MiB $899 (850/2500/1600MHz), Tri-SLI, April/Mai 2008, G92-Bx?
8900 GTX 128SPs 384Bit 768MiB $599 (800/2200/1300MHz), Tri-SLI, Januar 2008
8900 GTS 128SPs 384Bit 768MiB $449 (700/1750/1000MHz), Januar 2008
8800 GTS 128SPs 256Bit 1024MiB $399 (600/1500/1000MHz)
8800 GTS 128SPs 256Bit 512MiB $310 (600/1500/1000MHz)
8800 GT 112SPs 256Bit 512MiB $249 (600/1500/900MHz))
Ende Januar auch G80-GTX/U EOL.Meinst Du, nachdem man schon mit einer 8"8"00 GT und einer vierten 8"8"00 GTS ankommt, wird man bei irgendetwas auf G92- Basis noch eine 8900er- Reihe aufmachen?
AnarchX
2007-11-04, 16:52:09
Meinst Du, nachdem man schon mit einer 8"8"00 GT und einer vierten 8"8"00 GTS ankommt, wird man bei irgendetwas auf G92- Basis noch eine 8900er- Reihe aufmachen?
Imo hätten wir ein logisch benanntes Line-Up, wenn NV den RV670 richtig eingeschätzt hätte. ;)
Aber da es hier wohl Probleme gab, wurde eben aus der 8700 GTS eine 8800 GT, die dann schliesslich wohl noch auf 7C aufgerüstet wurde, nachdem man vielleicht noch erfahren hatte, dass RV670 mit bis zu 825MHz und gewissen Bug-Fixes kommen soll, nur war es hier vielleicht schon zu spät für eine Namensänderung.
Wie oben schon gesagt, wird das EOL der G80-GTS und die neue G92-88GTS das Bild wieder etwas korrigieren, die 7C-G80-GTS wird dies ja auch schon teilweise Mitte November tun, wenn hier noch etwas Werks-OC dazu kommt, wenn man mal das CB-Rating zu Rate zieht.
Nakai
2007-11-04, 16:57:21
dass RV670 mit bis zu 825MHz und gewissen Bug-Fixes kommen soll, nur war es hier vielleicht schon zu spät für eine Namensänderung.
Das hat man nun etwas gesenkt. IMO wird der RV670 nicht mehr der G92-Konkurrent.
Mit 775Mhz bietet man für ~175€ eine sehr gute Karte, nach meiner Meinung.
mfg Nakai
w0mbat
2007-11-04, 16:58:56
mMn hätte nVidia alle GPUs auf G92-Basis 8900 nennen sollen. Damit hätte man eine klare Abgrenzung und es wäre ersichtlich das eine 8900GT schneller als eine 8800GTS ist.
Was ist eigentlich mit der ominösen 8800GS?
8800GS-G92, 6C-96SP
@Nakai:
nVidia dacht wohl der RV670 wird kein voller R600 und kommt erst im Q108. Nachdem der 55nm Prozess sehr gut lief und der RV670 schon in der Rev. A11 gut ging zog AMD den RV670 aber vor. nVidia musste darauf reagieren: Der G92GT wurde auf 7C aufgeblasen und in 8800GT umbenannt, da nVidia sonst ziemlich dumm ausgesehen hätte. Eine 6C 8700GTS mit einem >300mm² Die hätte sowohl in der Performance und im Preis keine Chance gegen einen 194mm² RV670 gehabt.
Nachdem AMD gehört hatte das der G92GT schneller werden soll, hat man erst über eine Takterhöhung nachgedacht. Nach bekannt werden der vollen Specs wurde aber klar das selbst ein 850MHz RV670 nicht an eine 8800GT rankommen würde und das man wieder über den Preis gehen muss. Deshalb wurde jetzt wohl sogar die Taktraten noch ein wenig gesenkt um die Margen zu erhöhen.
8900 GTS 128SPs 384Bit 768MiB $449 (700/1750/1000MHz), Januar 2008
das wärs doch...
aber da es keine passende ati geben wird tippe ich eher auf 500-600€
w0mbat
2007-11-04, 17:09:22
aber da es keine passende ati geben wird tippe ich eher auf 500-600€
R680 anyone
Nakai
2007-11-04, 17:10:27
@Nakai:
nVidia dacht wohl der RV670 wird kein voller R600 und kommt erst im Q108. Nachdem der 55nm Prozess sehr gut lief und der RV670 schon in der Rev. A11 gut ging zog AMD den RV670 aber vor. nVidia musste darauf reagieren: Der G92GT wurde auf 7C aufgeblasen und in 8800GT umbenannt, da nVidia sonst ziemlich dumm ausgesehen hätte. Eine 6C 8700GTS mit einem >300mm² Die hätte sowohl in der Performance und im Preis keine Chance gegen einen 194mm² RV670 gehabt.
Nachdem AMD gehört hatte das der G92GT schneller werden soll, hat man erst über eine Takterhöhung nachgedacht. Nach bekannt werden der vollen Specs wurde aber klar das selbst ein 850MHz RV670 nicht an eine 8800GT rankommen würde und das man wieder über den Preis gehen muss. Deshalb wurde jetzt wohl sogar die Taktraten noch ein wenig gesenkt um die Margen zu erhöhen.
Damit hat man sich gegenseitig das Geschäft vermiest.
Der RV670 ist nicht mehr viel mehr als ne Midrange-Graka und NV hat nun ein Highend im Performancesegment.
Beides ist wirklich nicht sonderlich erwünscht würde ich sagen.
mfg Nakai
horn 12
2007-11-04, 17:35:59
Somit sollten vor allem die 2900XT Besitzer sicher bei Ihrer Karte bleiben da nun selbst der RV670 HDV-3870 keine Chance gegen die 2900XT haben wird, vor allem nicht bei OC ten 2900XT zwischen 800-830 Mhz!
Da haben sich wohl einige zu früh gefreut!
Nightspider
2007-11-04, 17:37:43
8900 GTS 128SPs 384Bit 768MiB $449 (700/1750/1000MHz), Januar 2008
das wärs doch...
Selbst das wäre nach 15 Monaten einfach nur schwach von Nvidia...
w0mbat
2007-11-04, 17:44:06
Somit sollten vor allem die 2900XT Besitzer sicher bei Ihrer Karte bleiben da nun selbst der RV670 HDV-3870 keine Chance gegen die 2900XT haben wird, vor allem nicht bei OC ten 2900XT zwischen 800-830 Mhz!
Da haben sich wohl einige zu früh gefreut!
Ein 775MHz RV670 wird wohl schon schneller als eine HD2900 XT sein, aber einen Grund zum wechseln sucht man wohl vergeblich.
AnarchX
2007-11-04, 17:45:20
Selbst das wäre nach 15 Monaten einfach nur schwach von Nvidia...
Nach welchem Maßstab bewertest du das? :|(Schonmal in die Vergangenheit geschaut, was es da für Leistungsteigerungen über gewisse Zeiträume gab?)
Zudem hat NV ein Monopol ab Performance...;)+
Ein 775MHz RV670 wird wohl schon schneller als eine HD2900 XT sein, aber einen Grund zum wechseln sucht man wohl vergeblich.
Naja, wenn man durch Ebay am Ende noch Geld rausbekommt, nimmt ein R600-User doch gerne den niedrigeren Verbrauch/Lautstärke? und die gewissen Bug-Fixes bei RV670. ;)
Nightspider
2007-11-04, 17:48:38
Nach welchem Maßstab bewertest du das? :|(Schonmal in die Vergangenheit geschaut, was es da für Leistungsteigerungen über gewisse Zeiträume gab?)
Zudem hat NV ein Monopol ab Performance...;)
Ja ist klar. Aber trotzdem bekommt NV von mir dafür kein Bienchen...
Die GeForce 7 war einiges schneller als die GeForce 6 und die GeForce 8 ist locker doppelt so schnell wie eine GeForce 7...
Das oben genannte wäre eine 8800 GTX auf 700 Mhz !?
Da frag ich mich: "hallo?" soviel schafft man mit nem Wasserkühler auch. Dafür muss man keine 15 Monate warten um dann 15% mehr Leistung zu erhalten.
collapse
2007-11-04, 17:48:59
Selbst das wäre nach 15 Monaten einfach nur schwach von Nvidia...
Schwach mag sein. Strategisch immer noch Top. >D
Wer wuerd denn wollen das die Konkurenzz total den Bac hruntergeht, wen man immer genau nen Ticken besser ist und so die Preise hoch halten kann und mit weniger Entwicklungsaufwand (Lange Lebenzeit, Lange angenehme Entwicklung). Sich sicher fuhlt und die Kosten stark senken kann....
ich warte auf jedenfall den R680 ab,was da wieder abgeht im mom,Treiber...muß ich mir nicht gefallen lassen.
horn 12
2007-11-04, 17:51:38
Dies schon, aber mehr als 230-250 Euro wird man für eine HD2900XT Orog. auch nicht mehr bekommen.
Wenn die AA/ AF Qualität Performanceschub wirklich heftig zugenommen hat, könnte selbst ich es mir überlegen. Müssten dann aber bei >= 50% liegen.
dargo
2007-11-04, 17:53:36
Hoechstwahrscheinlich gar nichts, wenn die Entwickler weiterhin so faul bleiben; wenn Du aber die D3D10.1 Vorraussetzungen vorsichtig durchwuehlst, ist es schon offensichtlich dass damit um einiges mehr moeglich ist.
Hmm, du meinst also mit DX10.1 ist ein Kraut gegen Shaderaliasing gewachsen? :eek:
Sorry, ich bin aber kein Technik-Guru. Das wäre natürlich eine kleine Sensation. Die Frage ist nur wie teurer dann ein ShAA(:D) sein wird. Wobei, jedes Feature braucht erstmal etwas Zeit. Wenns diese Generation es nicht packt dann halt die nächste.
Dies schon, aber mehr als 230-250 Euro wird man für eine HD2900XT Orog. auch nicht mehr bekommen.
Wenn die AA/ AF Qualität Performanceschub wirklich heftig zugenommen hat, könnte selbst ich es mir überlegen. Müssten dann aber bei >= 50% liegen.
Das muß nicht sein..es haben sich viele verkauft :D die letzten Tage und die nächsten kommen in Dezember :smile:
dargo
2007-11-04, 18:01:10
Selbst das wäre nach 15 Monaten einfach nur schwach von Nvidia...
Aus Mangel an Konkurrenz ist das alles andere als schwach. Ich würde sogar sagen es ist das schlauste was man machen kann für die eigene Gewinnmaximierung. ;)
ShinyMcShine
2007-11-04, 18:39:38
GDDR5 soll ja im H1 2008 auch irgendwann kommen, aber du kennst meine Meinung zu "G92 - 256Bit-only".;)
Hier mal ein paar Roadmap-Spekus für Performance und höher:
Winter:
8800 Ultra 128SPs 384Bit 768MiB $549
8800 GTX 128SPs 384Bit 768MiB $449
8800 GTS 128SPs 256Bit 1024MiB $399 (600/1500/1000MHz), Dezember 2007
8800 GTS 128SPs 256Bit 512MiB $310 (600/1500/1000MHz), Dezember 2007
8800 GT 112SPs 256Bit 512MiB $249 (600/1500/900MHz)
Alle G80-GTS sind bis Mitte Dezember EOL.
Meinst Du echt, dass die 8800GTS@G92 "nur" mit 8800GT-Takten rauskommt? Wäre schade! Habe mal was gelesen, dass die 8800GTS@G92 mit höheren Taktraten rauskommen soll. Verdammt ich verliere jetzt auch den Überblick (auch über meine eigene G92-Linksammlung).
Nightspider
2007-11-04, 18:54:39
Hier schreiben immer alle, es sei nicht schwach.
Dann freuen sich wohl alle für NV, das die viel Geld machen und wir fürs teure Geld kaum Mehrleistung bekommen oder wie ?
Für mich ist das definitiv schwach.
Der G80 war mit das beste, was man damals schaffen konnte.
Wen interessieren die 15% Mehrleistung der 8800 GTS 2.0 ?
Jetzt vielleicht einige aber wenn im Frühjahr neue HighEnd Grafikkarten kommen, die dann doppelt so schnell sind, werden sich einige Fragen, warum sie für 15% Mehrleistung nach 15 Monaten soviel Geld für eine 8800 GTS 2.0 ausgegeben haben.
Ich finds nicht toll.
Die_Allianz
2007-11-04, 18:59:07
klar ist das für den endkunden beschissen, wenn nur mickrige updates nachgeschoben werden, und keinerlei infos über die zukunft kommt.
Schuld daran ist aber einzig und allein ATI/AMD. Ich hoffe die fangen sich irgendwann 2008 wieder! Den RV670 kann ja leider schon abschreiben...;(
laser114
2007-11-04, 19:00:38
AMD muss die Architektur nun durchschleppen. Das weiß auch Nvidia, genau so sollten sie aber wissen, dass die sich wieder fangen können. Siehe Geforce FX -> Geforce 6.
Und genau wie Nvidia damals macht AMD jetzt viel Geld übers Low-Cost-Segment. Das kann man eben noch am einfachsten zu Recht basteln.
dargo
2007-11-04, 19:01:52
Dann freuen sich wohl alle für NV, das die viel Geld machen und wir fürs teure Geld kaum Mehrleistung bekommen oder wie ?
Das muss ich jetzt nicht verstehen oder? Kommt bei dir ein NV Mitarbeiter vorbei und zwingt dich einen beispielweise 15% schnelleren G92 zu kaufen oder wie? :|
Nightspider
2007-11-04, 19:02:31
Das muss ich jetzt nicht verstehen oder? Kommt bei dir ein NV Mitarbeiter vorbei und zwingt dich einen beispielweise 15% schnelleren G92 zu kaufen oder wie? :|
Nein :|
dargo
2007-11-04, 19:03:35
Nein :|
Also, worüber beschwerst du dich hier eigendlich?
Edit:
Ich hätte auch gerne jetzt einen G92 der doppelt so schnell ist wie meine GTS. Ist aber nix. Also heißt es weiter warten.
Ailuros
2007-11-04, 19:08:26
Hmm, du meinst also mit DX10.1 ist ein Kraut gegen Shaderaliasing gewachsen? :eek:
Sorry, ich bin aber kein Technik-Guru. Das wäre natürlich eine kleine Sensation. Die Frage ist nur wie teurer dann ein ShAA(:D) sein wird. Wobei, jedes Feature braucht erstmal etwas Zeit. Wenns diese Generation es nicht packt dann halt die nächste.
Antialiasing wird mit D3D10.1 um einiges kontrollierbarer und natuerlich hauptsaechlich fuer Entwickler. Fuer das was mit dem Zeug moeglich waere koennte AMD sowieso nicht viel anstellen, nicht mit der oeden Z- und noch geringeren Pixel-Fuellrate.
Was mich stoert ist dass NV sich anscheinend zu viel Zeit laesst mit dem Zeug; oder sie bescheissen uns natuerlich alle wieder koeniglich und tanzen mit dem Zeug in 2008 mit der SP1 Vorstellung an.
Nightspider
2007-11-04, 19:09:08
Situation:
--> User sagt G92, 128 SE, 700 Mhz -> geil
--> Ich sage: "schwach von NV, nicht toll"
--> Du sagst: "nicht schwach, sondern schlau"
Ich rege mich nicht auf, ich find es einfach nur schwach von NV, solche Leistung bei einem Refresh zu bringen. Das hat gar nix mit dumm oder klug zu tun. Klar, NV macht viel Geld, das weiß jeder.
Mir geht es nur darum, das viel mehr möglich wäre.
Wenn du dich ein paar Wochen zurückdenkst, als hier noch 160 SE und 700 Mhz spekuliert wurden, bei 768 bis 1536 MB VRAM (HighEnd).
Und nun schau was wir haben: weniger Leistung als die alte HighEnd nach 15 Monaten.
Was ich will dürfte klar sein: 150% der G80 Leistung oder mehr.
Das dürfte nach 15 Monaten auf jeden Fall machbar sein.
Bei der 8800 GT hat man jetzt nur Phasen-Stabilitätsprobleme und einen zu kleinen Kühler. Es wäre viel mehr möglich.
Das hat nix damit zu tun, das mir die neuen Chips aufgedrängt werden oder nicht. Ich sagte nur, das ich es schwach finde.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.