PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008?


Seiten : 1 2 3 [4] 5

Sorkalm
2008-03-31, 15:35:05
Q2, was sich mittlerweile wohl auf Anfang Q3 geändert haben kann.
Aber warten wir einfach die Computex Anfang Juni ab.;)

Selbst wenn es die 9900GTX und 9900GX2 gibt, so könnte ich mir vorstellen, dass diese sich eher unter dem Preisbereich des GT200 bewegen - <400€ (?), immerhin soll G92B auch nur um die 280mm² liegen.

Ich denke nicht, dass Nvidia eine 9900 GX2 bringt, wenn der neue High-End-Chip schon zu dem Zeitpunkt erschienen wäre. Den erwarte ich doch etwas später, also späteres Q3 oder Q4. ;)

Nakai
2008-03-31, 15:35:31
Ich denke eher, bei der G9900GTX handelt es sich einfach um den G92b und bei der G9900GX2 2xG92b mit etwas niedrigeren Taktraten (beides in 55nm). Dh. die Lebenszeit der G9800GTX und G9800GX2 dürfte sehr kurz sein.

Die GT200 wird niemals auf den Notebookmarkt kommen. Dafür wird wohl G92B ausgewählt sein.


mfg Nakai

LovesuckZ
2008-03-31, 16:19:14
Welchen Sinn macht eine 9900GX2 mit verringerten Taktraten?!

GeneralHanno
2008-03-31, 16:24:21
Welchen Sinn macht eine 9900GX2 mit verringerten Taktraten?!

die veringerte taktrate bezog sich auf die 9900GTX und nicht die 9800GX2 ;)

dargo
2008-03-31, 16:26:15
Welchen Sinn macht eine 9900GX2 mit verringerten Taktraten?!
Den gleichen Sinn den schon die G9800GTX und G9800GX2 ergibt.

LovesuckZ
2008-03-31, 16:27:38
Du meinst also, sie werden eine 9900GX mit 700-750Mhz bringen, wenn das gerade 25% mehr Leistung zur 9800GX2 darstellt? :ugly:

Spasstiger
2008-03-31, 16:29:30
Du meinst also, sie werden eine 9900GX mit 700-750Mhz bringen, wenn das gerade 25% mehr Leistung zur 9800GX2 darstellt? :ugly:
Wenn der Stromverbrauch gleichzeitig um 25% sinkt, könnte das aus Sicht von Nvidia ein kluger Schachzug sein.

dargo
2008-03-31, 16:31:43
Du meinst also, sie werden eine 9900GX mit 700-750Mhz bringen, wenn das gerade 25% mehr Leistung zur 9800GX2 darstellt? :ugly:
Die 750Mhz finde ich schon viel zu hoch gegriffen. Man könnte halt auf einer G9900GX2 2x den G92b mit zb. 700Mhz verbauen. Eventuell lässt sich so die Verlustleistung/Wärmeentwicklung leicht senken und die GPU dürfte für NV in 55nm eh etwas günstiger sein. Es geht also nicht in erster Linie um mehr Leistung sondern um Kostensenkung.

GeneralHanno
2008-03-31, 16:42:10
2 "ähnliche" GX2 hat nvidia auch mit der 7900GX2 zu 7950GX2 gebracht. daher zählt dieses argument imo nicht ;)

bei den taktraten wäre ich nicht zu optimistisch. gerade bei der GX2 würde ich 650-700mhz erwarten ...
aber vll gibts ja 2GiB GDDR5 ...

AnarchX
2008-03-31, 16:45:42
NVIDIA GT200 : GeForce 9900 GTX & 9900 GT In Q3 (http://www.vr-zone.com/?i=5684)
Also keine GX2, was dann in Richtung GT200 wieder passen würde.
Wenn auch die Eröffnung der GF10-Serie bzw. ein neues Schema für die Leistungsklassifizierung wünschenswert wäre...

Der_Korken
2008-03-31, 16:51:15
Nvidia has positioned GeForce 9900 GTX to replace 9800 GX2 and this gave a clue that a single GT200 card will actually outperform a dual G92 card.


Sehr schön. Endlich geht es wieder voran im Highend-Segment.

Ailuros
2008-03-31, 16:54:51
NVIDIA GT200 : GeForce 9900 GTX & 9900 GT In Q3 (http://www.vr-zone.com/?i=5684)
Also keine GX2, was dann in Richtung GT200 wieder passen würde.
Wenn auch die Eröffnung der GF10-Serie bzw. ein neues Schema für die Leistungsklassifizierung wünschenswert wäre...

ΝVIDIA hat sich oefters offiziell darueber geaeussert dass sie weiterhin auf der single chip Masche bleiben werden. Dual-GPU Loesungen sind nur Pflaster wenn es ein die shrink bei dem Ausklang einer "Generation" erlaubt.

Kudd3l
2008-03-31, 17:29:25
Zumindest laut expreview, scheint es sich wohl bei der 9900GTX um den G92 Shrink auf 55nm zu handeln.
So interpretiere ich es zumindest, auf Grund der geplanten 9900GX2.

Soll laut expreview im Sommer kommen, als 9900GTX und 9900GX2.

Quelle: http://en.expreview.com/2008/03/31/gt200-to-become-9900gtx-and-9900gx2-launch-date-set-to-july/

Ailuros
2008-03-31, 17:30:57
Ich wuerde an Deiner Stelle keine Wetten eingehen.

Kudd3l
2008-03-31, 17:34:15
Jo bleibt abzuwarten, zu wünschen wäre es, wenn sie denn G92 nicht schon wieder aufwärmen.
Nur wurde häufiger schon über einem G92 Shrink spekuliert, von daher wäre das im Bezug auf 9900GTX nicht unwahrscheinlich.

http://www.hardware-infos.com/news.php?news=1946

w0mbat
2008-03-31, 20:16:27
Ich vermute das GT200 = G92 RevB @55nm & GDDR4 ist bzw. vielleicht mit einem größeren SI. Ich hatte GT200 bis jetzt für "GF next" gehalten, aber wenn nV den wirklich zur GF9900 macht schließe ich auf eine weiter G92 Variation. Sollte mit GF next nicht auch einen neues Namensschema kommen?

Es könnte natürlich aber auch sein das GT200 wirklich "GF next" ist und der G92 RevB nur die unteren Preissegmente bedienen soll.

Hm... :|

Wenn man nur mehr wüsset :D

Ailuros
2008-04-01, 05:29:29
G92B ist afaik nach wie vor 4*64 und wenn es schon schneller ram sein sollte dann macht GDDR5 mehr Sinn.

Godmode
2008-04-02, 01:12:09
G92B ist afaik nach wie vor 4*64 und wenn es schon schneller ram sein sollte dann macht GDDR5 mehr Sinn.

Das wär doch was feines und durchaus machbar:

Fertigung: 55 nm
Chiptakt: 800 MHz
Shadertakt: 2000 MHz
Shader-Einheiten: 128
FLOPs: 768 GFLOPs
ROPs: 16
Pixelfüllrate: 12.800 MPix/s
TMUs: 64
TAUs: 64
Texelfüllrate: 51.200 MTex/s
Speichertakt: 1500 MHz GDDR5
Speichermenge: 1024 MB
Speicherinterface: 256 Bit
Speicherbandbreite: 96 GB/s

Dies wäre eine würdiger G80 Refresh, so wünsche ich mir G92b. Dieses Teil sollte sich eigentlich von der Ultra schön absetzen können.

Die gelbe Eule
2008-04-02, 01:31:03
Das SI sollte man aber vielleicht dann doch erweitern auf 512bit, dann hat man doppelte Ultra Performance.

Gast
2008-04-02, 03:14:19
Mich würden da die nur 16 ROPs stören (wenn die "Pro-ROP-Leistung" nicht mindestens um 50% verbessert wird).

Die gelbe Eule
2008-04-02, 03:18:30
Wo es hingeht sieht man doch an der 9600GT. Und genau zwei dieser Karten sind im SLi 30% schneller als eine Ultra. Baut man dies auf einen Chip, hat man nochmals 30% Effizienz mehr. Dann haben wir doppelte G80 GTX Performance, ohne das an den Taktraten was verändert würde. Mit 1GB VRAM und diversen anderen Taksteigerungen hat man endlich wieder schönes One Chip Highend.

Coda
2008-04-02, 04:21:01
Mich würden da die nur 16 ROPs stören (wenn die "Pro-ROP-Leistung" nicht mindestens um 50% verbessert wird).
Wtf? Wieso das denn? Die ROPs limitieren doch praktisch nie.

Baut man dies auf einen Chip, hat man nochmals 30% Effizienz mehr.
In deinen Träumen vielleicht.

GT200 wird sowieso eher >3x G80-Performance liefern. Alles andere wäre bei der Die-Größe total lächerlich.

Ailuros
2008-04-02, 05:59:58
GT200 wird sowieso eher >3x G80-Performance liefern. Alles andere wäre bei der Die-Größe total lächerlich.

Mehr als 3 klingt mir aber auch wieder zu optimistisch um ehrlich zu sein. Keiner scheint ja bis jetzt eine Ahnung zu haben was sie im Bereich Effizienz angestellt haben. Ohne zu wissen was das Ding, wie und wo ausfuehrt intern, waere jede Spekulation daneben. Es ist war dass das originale Ziel tatsaechlich irgendwo in der bis zu 3x Richtung lag; ob dieses nun mit all dem notwendigen double precision Schnickschnack u.a. erreicht wurde keine Ahnung.

Was aber war ist zum obrigen vorigen Unsinn, ist dass hoechstwahrscheinlich zu viel Transistoren in 8*64 investiert wurden, weil man sonst die notwendige Bandbreite nicht erreichen kann. Waere =/>2.2GHz GDDR5 verfuegbar in gesunden Mengen und bei logischen Preisen, waeren die verschendeten Transistoren fuer 8*64 besser wo anders investiert und 16 G8x/9x ROPs die mit genuegend Bandbreite gefuettert werden sind immer noch um zich Male effizienter als die 2*16 einer 3870X2.

Anders: ich bin alles andere als "froh" ueber den 512bit bus bei GF-Next.

=Floi=
2008-04-02, 06:59:59
3X könnte man ja bei 8XAA ja durchaus öfters erreichen, wenn man hier ansetzt...

---
zitat
Baut man dies auf einen Chip, hat man nochmals 30% Effizienz mehr.

rofl
sli ist jetzt schon ziemlich effizient bezogen auf sich selbst

Godmode
2008-04-02, 09:26:13
Das SI sollte man aber vielleicht dann doch erweitern auf 512bit, dann hat man doppelte Ultra Performance.

Vielleicht beim GT200, beim G92b schwer vorstellbar. Solch ein Aufwand nur für einen Refreshchip?

dargo
2008-04-02, 15:27:13
Das SI sollte man aber vielleicht dann doch erweitern auf 512bit, dann hat man doppelte Ultra Performance.
Doppelte Performance durch die Verdoppelung der Bandbreite. Ja ne ist klar... :|

Wo es hingeht sieht man doch an der 9600GT. Und genau zwei dieser Karten sind im SLi 30% schneller als eine Ultra.
Diese zwei Karten liefern im Grunde genommen:

1. 624 GFLOPs
2. 32 ROPs
3. 115,2 GB/s Bandbreite

Ohne die SLI-Effizienz jetzt zu berücksichtigen. Warum wundern dich jetzt also diese ~+30%?

Die gelbe Eule
2008-04-02, 15:33:22
@dargo:

Schau Dir mal Benchmarks (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6397435&postcount=54) von A.Wesker an, wo er mit höherem RAM-Takt mal eben 30-40% rausholt. Warum es so skaliert, kann Dir bestimmt hier jemand erklären, nur ich bin da nicht so firm drin. Trotzdem kann man vergleichen was eine Stock G80 GTX leisten kann und was ein Modell mit gleichem Unterbau, aber verbesserter Effizienz und weit höherem Takt zu leisten vermag. Und wir reden hier ja von High End, also 8xAA und da macht sich eine höhere Bandbreite eben bemerkbar.

dargo
2008-04-02, 15:45:05
@dargo:

Schau Dir mal Benchmarks (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6397435&postcount=54) von A.Wesker an, wo er mit höherem RAM-Takt mal eben 30-40% rausholt. Warum es so skaliert, kann Dir bestimmt hier jemand erklären, nur ich bin da nicht so firm drin.
Was gibts denn hier zu erklären? Siehst du die 901Mhz am Core nicht? Wenn er den Coretakt um ~39% erhöht dann ist es doch selbstverständlich, dass die standard 62GB/s hier limitieren.

Die gelbe Eule
2008-04-02, 15:49:29
Natürlich sehe ich diese, doch sehe ich genauso, daß nur durch den reinen Chiptakt die Leistung steigt. Er hat es ja nicht zum Spaß nur so angegeben. Warum das bei der GT200 nicht der Fall sein sollte, kannst mir gerne erklären.

dargo
2008-04-02, 15:58:41
Natürlich sehe ich diese, doch sehe ich genauso, daß nur durch den reinen Chiptakt die Leistung steigt. Er hat es ja nicht zum Spaß nur so angegeben.

Kann es sein, dass du die Zusammenhänge nicht so ganz verstehst? Du siehst doch, dass er die GPU stark übertaktet hat. Da ist es doch wohl klar, dass man auch den Speicher 1:1 übertakten sollte. Sonst verhungert das Ding an Bandbreite.

Lass A.Wesker die gleichen Tests nochmal mit den 650Mhz Coretakt machen, dann wirst du sehen in welchen Ausmaß die Leistung beim G92 steigt. ;)


Warum das bei der GT200 nicht der Fall sein sollte, kannst mir gerne erklären.
Tut mir leid, aber ich kann dir nicht folgen. Wovon sprichst du überhaupt? Was hat das jetzt mit einem GT200 zu tun? :confused:

Gast
2008-04-02, 16:19:09
Wtf? Wieso das denn? Die ROPs limitieren doch praktisch nie.

Die Speicherbandbreite/-interface und Speichermenge soll ja beim G92 nicht limitieren. Wenn jetzt die ROPs auch nicht limitieren, woran liegt es dann, das der G92 eine so schlechte Pro-Mhz-Leistung bzw Pro-Recheneinheit-Leistung gegenüber dem G80 hat (bei hohen Einstellungen mit 4xAA)???

Die gelbe Eule
2008-04-02, 16:25:34
Kann es sein, dass du die Zusammenhänge nicht so ganz verstehst? Du siehst doch, dass er die GPU stark übertaktet hat. Da ist es doch wohl klar, dass man auch den Speicher 1:1 übertakten sollte. Sonst verhungert das Ding an Bandbreite.

Lass A.Wesker die gleichen Tests nochmal mit den 650Mhz Coretakt machen, dann wirst du sehen in welchen Ausmaß die Leistung beim G92 steigt. ;)


Tut mir leid, aber ich kann dir nicht folgen. Wovon sprichst du überhaupt? Was hat das jetzt mit einem GT200 zu tun? :confused:

Muss der sarkastische Unterton sein? Kannst mich ja gleich als bekloppt hinstellen ...

Klar ist hier gar nichts. Warum sollte die GT200 mit 650MHz GPU daherkommen, wenn doch die Ultra fast genauso schnell war/ist?
Wir reden hier von einer zukünftigen Karte, die kleiner gefertigt wird und demnach höhere Taktraten zuläßt. Wie man Leistung am effizientesten rauskitzelt, dass ist hier dei Frage. Bastelt man nur drumherum, dann kommt eine ähnliche 9800GTX raus, die kaum einer kaufen würde. 1.5GHz GDDR5 wären sonst fehl am Platz, beläßt man die GPU da wo sie jetzt ist.

dargo
2008-04-02, 17:22:12
Warum sollte die GT200 mit 650MHz GPU daherkommen, wenn doch die Ultra fast genauso schnell war/ist?

Wer sagt überhaupt der GT200 würde mit 650Mhz takten?
Ich verstehe deine Zusammenhänge mit einem GT200 hier überhaupt nicht. Der GT200 soll ja einiges "breiter" sein. Von daher bringt hier schon mal Taktraten zu vergleichen rein gar nichts. Das ist ja so als ob du einen P4 und C2D mit 3Ghz vergleichen würdest.


Wir reden hier von einer zukünftigen Karte, die kleiner gefertigt wird und demnach höhere Taktraten zuläßt.

Da würde ich nicht drauf wetten bei so einem Monster wie dem GT200.


Wie man Leistung am effizientesten rauskitzelt, dass ist hier dei Frage. Bastelt man nur drumherum, dann kommt eine ähnliche 9800GTX raus, die kaum einer kaufen würde. 1.5GHz GDDR5 wären sonst fehl am Platz, beläßt man die GPU da wo sie jetzt ist.
Wenn NV bei GT200 mit ~2,5 mal so vielen Transistoren wie beim G80/G92 eine G9800GTX nicht deutlich schlägt dann läuft bei denen einiges schief.

reunion
2008-04-02, 17:54:40
Wenn NV bei GT200 mit ~2,5 mal so vielen Transistoren wie beim G80/G92 eine G9800GTX nicht deutlich schlägt dann läuft bei denen einiges schief.

Ein G92 hat eine Die-Size von 330mm². Bei vergleichbarer Packdichte wird ein GT200 nicht mal doppelt so viele Transistoren haben.

AnarchX
2008-04-02, 17:58:54
Mit wohl >=600mm² sollte es wohl kein Problem sein für eine GPU, bei der man wohl mehr wert auf die Ausnutzung des Prozesses legt, als bei ein paar schnellen Übergang-Shrinks, 1.5Mrd oder mehr Transistoren zu tragen.

dargo
2008-04-02, 18:00:47
Ein G92 hat eine Die-Size von 330mm². Bei vergleichbarer Packdichte wird ein GT200 nicht mal doppelt so viele Transistoren haben.
Die Frage ist hier eher ob die Packdichte des G92 richtungsweisend für einen GT200 ist. Außerdem, was spricht beim GT200 dagegen die gleiche Taktik wie schon beim G80 zu verwenden? Nämlich den kleinen Teil in einen externen Chip zu verbauen.

AnarchX
2008-04-02, 18:03:38
Außerdem, was spricht beim GT200 dagegen die gleiche Taktik wie schon beim G80 zu verwenden? Nämlich den kleinen Teil in einen externen Chip zu verbauen.
NVIO mit seinem (niedrigen) 2-stelligen Millionen Transistorenbedarf kann man vernachlässigen bei der Die-Size bzw. deren Optimierung.;)

dargo
2008-04-02, 18:06:18
NVIO mit seinem (niedrigen) 2-stelligen Millionen Transistorenbedarf kann man vernachlässigen bei der Die-Size bzw. deren Optimierung.;)
Könnte man in diesen Chip nicht paar Sachen mehr reinpacken wie noch beim G80? Kenne mich damit nicht so aus.

reunion
2008-04-02, 18:15:17
NVIO mit seinem (niedrigen) 2-stelligen Millionen Transistorenbedarf kann man vernachlässigen bei der Die-Size bzw. deren Optimierung.;)

Bleibt die Frage warum dann jeder Chip ohne NVIO bedeutend mehr Transistoren/Funktionseinheiten benötigt. Hier besteht schon eine gewisse Diskrepanz zwischen der Transistorenanzahl eines NVIO und den Chips die ohne NVIO auskommen. Durchaus vorstellbar das diese Integration einiges an Massetransistoren verschlingt. Es gab ja auch Meldungen das NVIO deswegen extern ist, da man nur so mögliche Interferenzen vermeiden könnte.

AnarchX
2008-04-02, 18:15:52
Könnte man in diesen Chip nicht paar Sachen mehr reinpacken wie noch beim G80? Kenne mich damit nicht so aus.
:|
NVIO beim G80 trug doch nur solche unerhebliche Logik wie RAMDAC bzw. ein SLI-Switch, die wie schon gesagt nicht wirklich relevant sind für Transistorcount bzw. Die-Size.

NVIO war gerüchteweise notwendig, damit man im IO weiter arbeiten konnte, während die GPU wohl schon finalisiert wurde oder es lag an einem Problem durch die hohe Shaderdomain, was man dann ab G84 löste.

NVIO wird/wurde ja übrigens auf 110nm gefertigt und so groß ist der Chip hauptsächlich nur wegen den nötigen Anschlusspads, auf der Oberfläche befindet sich nur wenig mit Transistoren belichtete Fläche.

Also wie schon gesagt eher unerheblich, wenn man wichtigere Teile der GPU auslagern wöllte wie ROPs, TMUs oder Co., dann würde man HighSpeed-Verbindungen mit >100GB/s benötigen, was wohl nicht so unproblematisch ist und eher von ATi als erstes in Angriff genommen werden könnte, um ihre X2s zu verbessern.

Bleibt die Frage warum dann jeder Chip ohne NVIO bedeutend mehr Transistoren/Funktionseinheiten benötigt.
Jeder Chip ohne NVIO hat TA=TMUs.

reunion
2008-04-02, 18:20:08
Mit wohl >=600mm² sollte es wohl kein Problem sein für eine GPU, bei der man wohl mehr wert auf die Ausnutzung des Prozesses legt, als bei ein paar schnellen Übergang-Shrinks, 1.5Mrd oder mehr Transistoren zu tragen.

Eine Wafer hat nach wie vor nur 300mm und kostet mehrere tausend Dollar. Einen solchen Chip will ich erstmal sehen im üblichen Preisrahmen welche die Leute bereit sind für eine GPU zu zahlen. Von den Entwicklungskosten ganz zu schweigen. Über 600mm² wäre schon ein starkes Stück.

dargo
2008-04-02, 18:24:10
Eine Wafer hat nach wie vor nur 300mm und kostet mehrere tausend Dollar. Einen solchen Chip will ich erstmal sehen im üblichen Preisrahmen welche die Leute bereit sind für eine GPU zu zahlen. Von den Entwicklungskosten ganz zu schweigen. Über 600mm² wäre schon ein starkes Stück.
Wenn man schon 330mm² ab 150€ anbieten kann sehe ich da nicht so das Problem.

reunion
2008-04-02, 18:28:33
Jeder Chip ohne NVIO hat TA=TMUs.

Das ist bekannt. Einem G92 fehlen zwei ROP-Cluster und trotzdem stieg die Transistorenanzahl um satte 73mio an. Ich wage zu bezweifeln das die 32 TAUs auch nur annähernd so teuer sind. Die andere Verbesserungen dürften kaum ins Gewicht fallen. Aber ich lasse mich natürlich gerne eines besseren Belehren.

dargo
2008-04-02, 18:39:06
Das ist bekannt. Einem G92 fehlen zwei ROP-Cluster und trotzdem stieg die Transistorenanzahl um satte 73mio an.
Hat man beim G92 nicht Transistoren für hohe Taktraten "verschwendet"? Was im nachhinein wohl nichts (G9800GTX) gebracht hat?

Gast
2008-04-02, 18:44:58
Das ist bekannt. Einem G92 fehlen zwei ROP-Cluster und trotzdem stieg die Transistorenanzahl um satte 73mio an.

~20Mio. für NVIO, ~20Mio für den verbesserten videoprozessor, bleiben noch ~33Mio. für den rest, klingt imo nicht so unglaubwürdig.

GeneralHanno
2008-04-02, 19:18:52
nvidia wird die transistoreneffizienz, also die leistung in realtion zum transistorencount sicher nochmals um mind. 10% steigern können.
der Gt200 ist immerhin ein neues design und kein refresh.

da bei high-end GPUs 90% der kosten durch F&E entstehen, machen 100mm² diesize mehr oder weniger den kohl auch nicht mehr fett ;)

Moralelastix
2008-04-02, 19:21:27
Die Speicherbandbreite/-interface und Speichermenge soll ja beim G92 nicht limitieren. Wenn jetzt die ROPs auch nicht limitieren, woran liegt es dann, das der G92 eine so schlechte Pro-Mhz-Leistung bzw Pro-Recheneinheit-Leistung gegenüber dem G80 hat (bei hohen Einstellungen mit 4xAA)???

@Coda

Jo, darauf hätt ich auch gern ne Antwort.

GeneralHanno
2008-04-02, 21:41:09
der G92 soll nicht speichermengen und bandbreite limitiert sein? das ich nicht lache! natürlich wird der G92 primär von der geringen speichermenge und bandbreite ausgebremst. die pixelfüllrate ist irrelevant. höchstens noch das z-fill, aber eigentlich ist davon auch genug vorhanden ...

mapel110
2008-04-02, 21:59:25
höchstens noch das z-fill, aber eigentlich ist davon auch genug vorhanden ...
Bis 4xAA ja, darüber nein.

GeneralHanno
2008-04-02, 23:37:55
um die 8xMSAA leistung auf der Gf zu steigern wäre mehr z-fill die brecheisenmethode. sinnvoller wäre es zu untersuchen, warum die Gf beim wechsel von 4xMSAA auf 8xMSAA überproportional viel z-fill verliert. ATi hats ja (mehr oder weniger erfolgreich) vorgemacht, wie man füllraten sparen kann ;)

Ailuros
2008-04-03, 05:23:38
Klar ist hier gar nichts. Warum sollte die GT200 mit 650MHz GPU daherkommen, wenn doch die Ultra fast genauso schnell war/ist?
Wir reden hier von einer zukünftigen Karte, die kleiner gefertigt wird und demnach höhere Taktraten zuläßt. Wie man Leistung am effizientesten rauskitzelt, dass ist hier dei Frage. Bastelt man nur drumherum, dann kommt eine ähnliche 9800GTX raus, die kaum einer kaufen würde. 1.5GHz GDDR5 wären sonst fehl am Platz, beläßt man die GPU da wo sie jetzt ist.

G92 ist auch auf 65nm; wieso sollte ein um zich Mal komplizierterer chip auf dem gleichen Herstellungsprozess mir nichts dir nichts hoeher takten?

G92 = [8*(2*8)]
GT200 = [10*(3*8)]

um die 8xMSAA leistung auf der Gf zu steigern wäre mehr z-fill die brecheisenmethode. sinnvoller wäre es zu untersuchen, warum die Gf beim wechsel von 4xMSAA auf 8xMSAA überproportional viel z-fill verliert. ATi hats ja (mehr oder weniger erfolgreich) vorgemacht, wie man füllraten sparen kann

16xCSAA verbraucht auch um einiges mehr z-fill als 4xMSAA ist aber nur marginal langsamer meistens als das letztere. Das Problem der GFs bleibt IMHLO dass es sich um einen Wechsel von 4xRGMS zu 8x sparse MSAA handelt.

Was soll der 8xMSAA Koller ueberhaupt? AMD hat einen geringen Vorteil bei einem unspielbaren Modus und eine lange Liste an Nachteilen im Vergleich zu allem AA der Konkurrenz. Oder hat hier jemand die Schnappsidee dass Crysis ploetzlich mit 8xMSAA in anstaendigen Aufloesungen auf diesen GPUs spielbar sein wird?

Mit wohl >=600mm² sollte es wohl kein Problem sein für eine GPU, bei der man wohl mehr wert auf die Ausnutzung des Prozesses legt, als bei ein paar schnellen Übergang-Shrinks, 1.5Mrd oder mehr Transistoren zu tragen.

Im schlimmsten Fall und dem originalen die size Geruecht sind es knapp ueber 1.3Mrd Transistoren, wenn man die exact gleiche Packdichte von G92 nimmt. Anders <600M Transistoren mehr als G92. Die paar mehr TMUs und doppelt so viel ROPs bzw. Speichercontroller werden wohl nicht einen ganzen G94+100M schlucken. ALUs sind vergleichsmaessig billig; fuer den geschaetzten Unterschied sind nur 112(gleiche)SPs sehr wenig.

Ob Redundanz im Design insgesamt entfernt wurde kann ich nicht wissen. G80 hat uebrigens fast die gleiche Packdichte wie G71 auf 90nm.

Ob jetzt 1.3 oder 1.5 ist im Grund egal; 2.5x mal G92 sind es nicht. Bei 55nm schon, aber ich machte den Fehler zu schnell nur einer Quelle zu trauen. So oder so unter dem Strich haben beide IHVs erstmal die Anzahl der SPs/cluster erhoeht. Es bleibt nach wie vor abzusehen wer mehr R&D in Effizienz-steigerungen investiert hat. Ist nun GT200 nur ein sturer breiterer G92, dann wird er wohl schon selbst 2*RV770 schlagen koennen, aber bis zu 3x mal schneller als G80 wird das Ding am Ende wohl doch nicht sein.

NVIDIA spielt nach wie vor ein ziemlich uebles Verwirrungspiel zu allen Seiten; privat erscheinen sie ziemlich selbstsicher dass sie sich gegenseitig auf die Schultern klopfen.

reunion
2008-04-03, 08:41:56
Wenn man schon 330mm² ab 150€ anbieten kann sehe ich da nicht so das Problem.

G92 war nicht viel mehr als ein einfacher Die-Shrink, die Entwicklungskosten sind kaum der Rede wert. Zumal die Fehlerrate natürlich exponentiell mit der Die-Size steigt.

~20Mio. für NVIO, ~20Mio für den verbesserten videoprozessor, bleiben noch ~33Mio. für den rest, klingt imo nicht so unglaubwürdig.

Und was ist mit den zwei fehlenden ROP-Cluster die auch nochmal gut 75mio Transistoren verschlingen dürften?

G92 ist auch auf 65nm; wieso sollte ein um zich Mal komplizierterer chip auf dem gleichen Herstellungsprozess mir nichts dir nichts hoeher takten?

G92 = [8*(2*8)]
GT200 = [10*(3*8)]


Mhm, also 10 Cluster mit je 24 ALUs. Das sind bei schlechterer Granularität gut 90% mehr als bei G80.


Was soll der 8xMSAA Koller ueberhaupt? AMD hat einen geringen Vorteil bei einem unspielbaren Modus und eine lange Liste an Nachteilen im Vergleich zu allem AA der Konkurrenz. Oder hat hier jemand die Schnappsidee dass Crysis ploetzlich mit 8xMSAA in anstaendigen Aufloesungen auf diesen GPUs spielbar sein wird?


Seit wann ist 8xMSAA unspielbar?



Im schlimmsten Fall und dem originalen die size Geruecht sind es knapp ueber 1.3Mrd Transistoren, wenn man die exact gleiche Packdichte von G92 nimmt. Anders <600M Transistoren mehr als G92. Die paar mehr TMUs und doppelt so viel ROPs bzw. Speichercontroller werden wohl nicht einen ganzen G94+100M schlucken. ALUs sind vergleichsmaessig billig; fuer den geschaetzten Unterschied sind nur 112(gleiche)SPs sehr wenig.

Ob Redundanz im Design insgesamt entfernt wurde kann ich nicht wissen. G80 hat uebrigens fast die gleiche Packdichte wie G71 auf 90nm.

Ob jetzt 1.3 oder 1.5 ist im Grund egal; 2.5x mal G92 sind es nicht. Bei 55nm schon, aber ich machte den Fehler zu schnell nur einer Quelle zu trauen. So oder so unter dem Strich haben beide IHVs erstmal die Anzahl der SPs/cluster erhoeht. Es bleibt nach wie vor abzusehen wer mehr R&D in Effizienz-steigerungen investiert hat. Ist nun GT200 nur ein sturer breiterer G92, dann wird er wohl schon selbst 2*RV770 schlagen koennen, aber bis zu 3x mal schneller als G80 wird das Ding am Ende wohl doch nicht sein.

NVIDIA spielt nach wie vor ein ziemlich uebles Verwirrungspiel zu allen Seiten; privat erscheinen sie ziemlich selbstsicher dass sie sich gegenseitig auf die Schultern klopfen.

Mit den Daten muss man froh sei wenn man im Schnitt doppelten G80-Speed erreicht. Das 512-bit SI mit den 32 ROPs dürfte wohl einiges an Transistoren schlucken, und so viel Platz hat man in 65nm eben auch nicht - ein G92 ist schon relativ groß. Das es gegen RV770 reicht sollte klar sein, der Chip bedient auch nur das Performance-Segment und gegen Crossfire ist man mit einem Single-Chip ohnehin im Vorteil. Doch das erhoffte Monster scheint GT200 wohl nicht zu werden.

Gast
2008-04-03, 10:29:46
Wenn der RV770 doppelt so schnell wird wie der RV670, wird der GT200 gegen die 4870X2 keine Chance haben und eine Dualkarte mit 2 x GT200 wird es wohl aufgrund des Stromverbrauchs nicht geben.

aths
2008-04-03, 11:09:33
G92 war nicht viel mehr als ein einfacher Die-Shrink, die Entwicklungskosten sind kaum der Rede wert. Zumal die Fehlerrate natürlich exponentiell mit der Die-Size steigt. Das leuchtet mir nicht ein.

pXe
2008-04-03, 11:22:18
Wenn der RV770 doppelt so schnell wird wie der RV670, wird der GT200 gegen die 4870X2 keine Chance haben und eine Dualkarte mit 2 x GT200 wird es wohl aufgrund des Stromverbrauchs nicht geben.

Eine SingelGPU mit einer DualGPU Karte zu vergleichen ist wegen der Mikrorucklerproblematik ziemlich sinnfrei (ausser natürlich bei epeen Benchmarks).


pXe

Coda
2008-04-03, 11:45:09
16xCSAA verbraucht auch um einiges mehr z-fill als 4xMSAA ist aber nur marginal langsamer meistens als das letztere. Das Problem der GFs bleibt IMHLO dass es sich um einen Wechsel von 4xRGMS zu 8x sparse MSAA handelt.
Das hat rein gar nichts mit der Performance zu tun.

Gast
2008-04-03, 11:48:30
Das leuchtet mir nicht ein.

Es stimmt ja auch nicht, denn der Zusammenhang ist linear.

Gast
2008-04-03, 12:17:51
Nicht mal das. Da hängt soviel vom Fertigungsprozess selbst ab. Mit heutigem Wissen einen 110 nm Prozess zu betreiben bringt wohl ein besseres Ergebnis al vor 5 Jahren z.B.. In 10 Jahren wird man sich über die heutigen Ausfallquoten bei 45 oder 55 nm nur noch beömmeln (hoffe ich zumindest).

GeneralHanno
2008-04-03, 12:21:31
je ausgereifter der fertigungsprozess ist, desto geringer ist die wahrscheinlichkeit für einen fehler. dennoch bleibt es dabei, dass ein doppelt so großer chip häufiger fehlerhaft ist (egal ob nun 90nm oder 45nm), als ein kleiner. ob der zusammenhang nun linear oder exponential weis ich jetzt auch nicht so genau ...

Ailuros
2008-04-03, 13:28:00
Mhm, also 10 Cluster mit je 24 ALUs. Das sind bei schlechterer Granularität gut 90% mehr als bei G80.

Woher willst Du wissen wie die Granularitaet aussieht?

Seit wann ist 8xMSAA unspielbar?

Mach mir doch mal eine Liste in welchen heutigen Spielen und in welchen Aufloesungen 8xMSAA noch spielbar ist.

Mit den Daten muss man froh sei wenn man im Schnitt doppelten G80-Speed erreicht.

Mit welchen Daten denn genau? Hat irgend jemand erwaehnt ueber was jegliche Einheit faehig ist? Und ja es koennten sowohl nur 2 FLOPs/SP oder auch 6 FLOPs/SP sein. Pick your poison; auf jeden Fall ist selbst im einen oder anderen Fall jegliche Zahl nutzlos wenn man nicht weiss was genau geaendert wurde.

Das 512-bit SI mit den 32 ROPs dürfte wohl einiges an Transistoren schlucken, und so viel Platz hat man in 65nm eben auch nicht - ein G92 ist schon relativ groß.

ROP und deren Faehigkeiten kann vieles heissen.


Das es gegen RV770 reicht sollte klar sein, der Chip bedient auch nur das Performance-Segment und gegen Crossfire ist man mit einem Single-Chip ohnehin im Vorteil. Doch das erhoffte Monster scheint GT200 wohl nicht zu werden.

Dass Du Dich ueber das Ganze als erster negativ gemeldet haettest war mir schon klar. An Deiner Stelle wuerde ich erstmal abwarten bis mehr Eckdaten bekannt sind bevor Du zu irgendwelchen vorzeitigen Schlussfolgerungen kommst. Es tut mir leid falls es so klang dass ich enttaeuscht sein koennte.

AnarchX
2008-04-04, 11:21:05
Fudo verwirrt?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=6647&Itemid=1

Klingt doch ganz nach GT200 und nicht nach etwas anderem...

Gast
2008-04-04, 11:57:35
Eine SingelGPU mit einer DualGPU Karte zu vergleichen ist wegen der Mikrorucklerproblematik ziemlich sinnfrei (ausser natürlich bei epeen Benchmarks).
pXe

Nur wenn die Chips über Crossfire verbunden sind.

Iwan
2008-04-04, 12:14:22
Fudo verwirrt?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=6647&Itemid=1

Klingt doch ganz nach GT200 und nicht nach etwas anderem...

Klingt für mich eher nach einer 9800Ultra, also eben ein G92 mit etwas höheren Taktraten und vor allem 1024MB VRAM als Standard... :|

AnarchX
2008-04-04, 12:24:38
156 -> 225W TDP = etwas höhere Taktraten?;)

Zudem ist die 9800er-Reihe D9E.

deekey777
2008-04-04, 12:28:47
156 -> 225W TDP = etwas höhere Taktraten?;)

Zudem ist die 9800er-Reihe D9E.
GX2 wäre auch eine Idee. Auch der R680 ist ein Chip (auf zwei RV670 verteilt).

Gast
2008-04-04, 13:29:41
156 -> 225W TDP = etwas höhere Taktraten?;)

Zudem ist die 9800er-Reihe D9E.

Bei 800Mhz mit entsprechender Spannungserhöhung vollkommen im Rahmen.

LovesuckZ
2008-04-04, 15:28:18
GX2 wäre auch eine Idee. Auch der R680 ist ein Chip (auf zwei RV670 verteilt).

Er ist ein Codename, kein Chip.

Sorkalm
2008-04-04, 17:19:23
Er ist ein Codename, kein Chip.

D9E-40 steht auch für die 9800 GX2, von daher passt das Beispiel trotzdem.

puntarenas
2008-04-04, 17:27:48
D9E-40 steht auch für die 9800 GX2, von daher passt das Beispiel trotzdem.
Ja, vielleicht möchte Nvidia einfach nicht noch ein weiteres Mal den G92 launchen und D10U klingt ja auch hübsch. Ich habe hier schon mehrfach gelesen, dass bei einem Shrink die handoptimierten Einheiten komplett neu gemacht werden müssen. Ein geshrinkter G92 mit frisch optimierten Shadern hätte doch einen schmuckeren Codenamen als G92b verdient und vielleicht geht Nvidia zunächst mit dem Dual-Chip-Topmodell an den Start.

Klingt nur irgendwie ziemlich spekulativ ;)

tombman
2008-04-04, 17:27:56
NVIDIA GT200 : GeForce 9900 GTX & 9900 GT In Q3 (http://www.vr-zone.com/?i=5684)
Also keine GX2, was dann in Richtung GT200 wieder passen würde.
Wenn auch die Eröffnung der GF10-Serie bzw. ein neues Schema für die Leistungsklassifizierung wünschenswert wäre...
Sehr schön. Endlich geht es wieder voran im Highend-Segment.
Genau, das wird dann der RICHTIGE Nachfolger der G80 GTX. Nach fast 2 Jahren :eek:

Da werde ich dann auch wieder zuschlagen ;)

Gast
2008-04-04, 17:57:25
Aber nicht mehr in 2008.

seahawk
2008-04-04, 19:29:57
GTX und GT, so muss es sein.

Nightspider
2008-04-05, 00:07:58
Genau, das wird dann der RICHTIGE Nachfolger der G80 GTX. Nach fast 2 Jahren :eek:

Da werde ich dann auch wieder zuschlagen ;)

Wie oft wirst du denn zuschlagen ?

mapel110
2008-04-05, 00:15:10
Wie oft wirst du denn zuschlagen ?
Er muss ja zweimal, sonst ists ja nur ein Sidegrade und kein Upgrade. ^^

Nightspider
2008-04-05, 00:22:10
Er muss ja zweimal, sonst ists ja nur ein Sidegrade und kein Upgrade. ^^

Da ist was dran, dennoch dürfte ein G200 8800 SLI (oder gar Tri-SLI ?) bashen...

Ich selbst bin sogar vorab schon am überlegen, mit vom Zivigeld 1-2 Monate nach der ersten GT200-Karte noch eine einzubauen.

6 fache G80-Power for teh win ;D

Iwan
2008-04-05, 01:35:09
Mit bashen würd ich da vorsichtig sein, nach einigen jahren in denen man den Markt beobachtet und sieht was Hersteller ankündigen und was nachher erscheint, das wird meist heißer gekocht als gegessen. G200 in games irgendwo in der Nähe eines aktuellen Sli-Systems und NV wird zufrieden sein. Solche Monster wie R300 oder G80 die erscheinen und einfach alles wegfegen was bisher dagewesen ist, würde ich nicht sooft erwarten.

Nightspider
2008-04-05, 01:39:26
Nunja...nach 2 Jahren dürfte es nicht sooo schwer sein die alte Generation wegzufegen...zumal man in den 2 Jahren genug Zeit hatte den Chip zu perfektionieren, wie beim G80.

Falls (was sicher nicht eintritt) Ende 2008 die ersten OLED-Displays erscheinen würde, wäre es perfekt...

Gast
2008-04-05, 02:02:48
Das der GT200 oder wie das Teil jetzt auch gennant wird, schneller sein wird wie ein G80 steht ausser Frage.

Aber ein Meilenstein wird das nicht, eher sowas wieder Sprung von einer 9700Pro auf X800XT. Und ATI bringt so was wie von 5900Ultra auf 6800Ultra.

Ailuros
2008-04-05, 06:05:41
Aber ein Meilenstein wird das nicht, eher sowas wieder Sprung von einer 9700Pro auf X800XT.

Der Leistungssprung von R300 auf R4x0 war groesser als R4x0 zu R5x0; beim ersten musst man auch keine Transistoren fuer zusaetzliche Komplianz investieren.

Und ATI bringt so was wie von 5900Ultra auf 6800Ultra.

Echt? NV35 -->NV40 war SM2.0_extended-->SM3.0 und 1 quad-->4 quads.

RV770 ist genauso SM4.1 wie RV670 und es gibt nirgends im zweiten so deutliche arithmetische Schwaechen wie in NV3x.

mictasm
2008-04-05, 07:06:18
Falls (was sicher nicht eintritt) Ende 2008 die ersten OLED-Displays erscheinen würde, wäre es perfekt...

Die würden aber kaum zu solch einer Karte passen. Oder erwartest du OLED Auflösungen in Richtung 2560x1600 Punkten im bezahlbaren Bereich in 2008?

Mir würde es reichen, wenn ein GTX-SLI deutlich geschlagen wird. Wenn gleichzeitig die Leistungsaufnahme im Vergleich gesenkt wird, wäre ich zufrieden.

dargo
2008-04-05, 09:40:11
Die würden aber kaum zu solch einer Karte passen. Oder erwartest du OLED Auflösungen in Richtung 2560x1600 Punkten im bezahlbaren Bereich in 2008?

Was hat das mit der Auflösung zu tun? Bzw. wozu so eine hohe? Für Crysis reichen dir auch 1680x1050 mit 8xQAA. Oder noch besser SSAA. ;)

Gast
2008-04-05, 10:12:08
Für Crysis reichen dir auch 1680x1050 mit 8xQAA. Oder noch besser "SSAA"<>dafür mußte aber noch lange warten.

Und 1680x1050 8xSQ + MSAA lacht die GX2 drüber.
die haben sich doch mit der GX2 ins eigene Knie geschossen,und ich wette der GT200 wie wir ihn erwarten kommt frühestens in 2009,das was dieses Jahr noch kommt ist alles Aufguß,ich tippe da eher auf ne GX2 mit mehr Ram.
Und für dich sowieso egal da du nur max 300€ zahlen willst für HighEnd ;D

Gast
2008-04-05, 10:48:43
Mir würde es reichen, wenn ein GTX-SLI deutlich geschlagen wird. Wenn gleichzeitig die Leistungsaufnahme im Vergleich gesenkt wird, wäre ich zufrieden<>Wie soll das denn gehen?

Gast
2008-04-05, 12:44:02
Der Leistungssprung von R300 auf R4x0 war groesser als R4x0 zu R5x0; beim ersten musst man auch keine Transistoren fuer zusaetzliche Komplianz investieren.



Echt? NV35 -->NV40 war SM2.0_extended-->SM3.0 und 1 quad-->4 quads.

RV770 ist genauso SM4.1 wie RV670 und es gibt nirgends im zweiten so deutliche arithmetische Schwaechen wie in NV3x.



War alles Symbolisch gemeint, natürlich weist du das, schreibst aber trotzdem über das Design, als währe es nicht anderes möglich. Ging mir eher nur darum das massenmarkt Chips Leistung zu gesprochen wird die nachher nicht vorhanden ist.

mictasm
2008-04-05, 12:47:45
Was hat das mit der Auflösung zu tun? Bzw. wozu so eine hohe? Für Crysis reichen dir auch 1680x1050 mit 8xQAA. Oder noch besser SSAA. ;)

Ok, du meinst also OLED in der von dir genannten Auflösung in 2008 zu sehen, die in einem Bereich <2000€ liegen...

Das Thema OLED sollten wir hier lassen.

Woher weisst du eigentlich, was mir reicht? ;)

Mir würde es reichen, wenn ein GTX-SLI deutlich geschlagen wird. Wenn gleichzeitig die Leistungsaufnahme im Vergleich gesenkt wird, wäre ich zufrieden<>
Wie soll das denn gehen?

Hä? Ich rede hier von einer Ein-Chip-Lösung im Gegensatz zum Zwei-Karten-SLI, da erwarte ich schon, dass sich die Leistungsaufnahme etwas nach unten bewegt...

dargo
2008-04-05, 13:08:14
Woher weisst du eigentlich, was mir reicht? ;)

Das bezog sich nicht direkt auf dich sondern auf den GT200 in Verbindung mit Crysis und 1680x1050 8xQMSAA oder gar SSAA. Selbst damit dürfte diese GPU in DX10 völlig überfordert sein.

Ailuros
2008-04-05, 13:33:20
War alles Symbolisch gemeint, natürlich weist du das, schreibst aber trotzdem über das Design, als währe es nicht anderes möglich. Ging mir eher nur darum das massenmarkt Chips Leistung zu gesprochen wird die nachher nicht vorhanden ist.

Das einzige "kleine" Problem hier ist, dass man Deinen Symbolismus um 180 Grad drehen muss damit er erstmal Sinn macht.

Wenn's schon sein muss dann ist RV770 eher vergleichbarer mit R3x0/R4x0 und G80 hat nicht das geringste mit NV35 gemeinsam. Symbolisch oder nicht ist alles NV3x der groesste Misthaufen den NV je gebaut hat und G80 hingegen mit Abstand ihr groesster Erfolg.

Das bezog sich nicht direkt auf dich sondern auf den GT200 in Verbindung mit Crysis und 1680x1050 8xQMSAA oder gar SSAA. Selbst damit dürfte diese GPU in DX10 völlig überfordert sein.

Ich bin persoenlich froh wenn ich eine gesunde Leistungsteigerung nach >2 Jahren in allem anderen als dem Crysis-Quark sehe.

dargo
2008-04-05, 13:43:44
Ich bin persoenlich froh wenn ich eine gesunde Leistungsteigerung nach >2 Jahren in allem anderen als dem Crysis-Quark sehe.
Ich auch. Trotzdem ist Crysis @DX10 neues Maßstab. Und zukünftige Games (wofür eigendlich ein GT200 gedacht ist) werden sicherlich nicht weniger Leistung brauchen als heutige Games.

Ailuros
2008-04-05, 14:46:22
Ich auch. Trotzdem ist Crysis @DX10 neues Maßstab. Und zukünftige Games (wofür eigendlich ein GT200 gedacht ist) werden sicherlich nicht weniger Leistung brauchen als heutige Games.

Crysis ist im besten Fall (und stets IMHLO) ein schlechtes Beispiel wie man tonnenweise Resourcen verschwenden kann. Fuer den Aufwand den Crysis braucht, erwarte ich persoenlich um einiges mehr.

dargo
2008-04-05, 15:00:03
Crysis ist im besten Fall (und stets IMHLO) ein schlechtes Beispiel wie man tonnenweise Resourcen verschwenden kann. Fuer den Aufwand den Crysis braucht, erwarte ich persoenlich um einiges mehr.
Ach komm, das sagst du nur weil Crysis der G8800GTX die Grenzen aufzeigt. Wie manch einer schon gesagt hat, einfach die Augen im Spiel aufmachen und es mit anderen Games vergleichen. Mit dem GT200 wird keiner mehr über zu wenig Performance in Crysis meckern, zumindest in DX9 nicht.

Slipknot79
2008-04-05, 15:27:37
Ach komm, das sagst du nur weil Crysis der G8800GTX die Grenzen aufzeigt. Wie manch einer schon gesagt hat, einfach die Augen im Spiel aufmachen und es mit anderen Games vergleichen. Mit dem GT200 wird keiner mehr über zu wenig Performance in Crysis meckern, zumindest in DX9 nicht.


Naja mit meinem Gespann meckere ich jetzt schon nicht in DX9 :redface:

dargo
2008-04-05, 15:43:45
Naja mit meinem Gespann meckere ich jetzt schon nicht in DX9 :redface:
Das ist mir klar. Es ging hier aber um Single-GPU-Systeme. :wink:

reunion
2008-04-06, 10:18:58
Das leuchtet mir nicht ein.
Es stimmt ja auch nicht, denn der Zusammenhang ist linear.


Ja ich habt recht, die Fehlerrate steigt linear mit der Die-Size - mein Fehler.

Ailuros
2008-04-06, 19:09:40
Ach komm, das sagst du nur weil Crysis der G8800GTX die Grenzen aufzeigt.

So kleinlich oder kindisch bin ich weitem nicht und Du koenntest Dir aehnliche Frechheiten leicht sparen, nur weil ich zufaelligerweise nicht die gleiche Meinung ueber ein Spiel habe.

Wie manch einer schon gesagt hat, einfach die Augen im Spiel aufmachen und es mit anderen Games vergleichen.

Ich bin lang genug unterwegs um ein paar Einzelheiten unterscheiden zu koennen und ich hab auch das unbezweifelte Recht meiner persoenlichen Meinung.

Mit dem GT200 wird keiner mehr über zu wenig Performance in Crysis meckern, zumindest in DX9 nicht.

Dass es spielbarer wird will wohl keiner bezweifeln; es wird ja sowieso meistens ueber die D3D10 path Leistung gemeckert als alles andere.

Aber Du kannst mir ja gerne mehr ueber GT200 erzaehlen und dessen Leistung in Crysis ich bin ganz Augen ;D

Von dem abgesehen ich aendere meine Meinung ueber Crysis auch nicht wenn es in 2500*1600 mit 16xS/16xAF spielbar sein sollte.

Gast
2008-04-06, 19:13:35
Für 2560x1600@16xS in Crysis müsste man 2Gb Speicher haben. Also das kommt definitiv nicht morgen...

dargo
2008-04-06, 19:20:37
Dass es spielbarer wird will wohl keiner bezweifeln; es wird ja sowieso meistens ueber die D3D10 path Leistung gemeckert als alles andere.

DX10 ist in Crysis ein Fall für sich. Aber selbst in DX9 ist eine G8800GTX in zb. 1680x1050 4xMSAA/16xAF mit High Details zu langsam.

Aber Du kannst mir ja gerne mehr ueber GT200 erzaehlen und dessen Leistung in Crysis ich bin ganz Augen ;D

Wie war das nochmal mit dem kindisch. ;)

Ailuros
2008-04-07, 05:41:46
Wie war das nochmal mit dem kindisch. ;)

Du bist derjenige der sich hier so selbstsicher darueber zeigt dass Du schon vorhersen willst dass sich unter "high" keiner mehr beschweren wird. Also schiess los wir sind im Speku-Forum und es geht um GT200 und nicht warum ich nicht sooo viel von einem Spiel halte.

dargo
2008-04-07, 10:44:53
Du bist derjenige der sich hier so selbstsicher darueber zeigt dass Du schon vorhersen willst dass sich unter "high" keiner mehr beschweren wird. Also schiess los wir sind im Speku-Forum und es geht um GT200 und nicht warum ich nicht sooo viel von einem Spiel halte.
Für "high" reicht schon 2x G8800GTX aus. Sollte der GT200 mehr bieten umso besser. Ich spreche hier von 1680x1050 4xMSAA/16xAF. Für 1920x1200 mit AA/AF und mehr ist nach wie vor SLI/CF zuständig.

Grestorn
2008-04-07, 11:01:05
Für "high" reicht schon 2x G8800GTX aus.

2x 8800GTX reicht für VeryHigh und 4xAA bei 1280x800.

dargo
2008-04-07, 11:03:33
2x 8800GTX reicht für VeryHigh und 4xAA bei 1280x800.
Das kann schon sein. Es ging mir aber um 1680x1050 4xMSAA/16xAF. Das sind nochmal 72% mehr Pixel.

Ailuros
2008-04-07, 20:17:57
Für "high" reicht schon 2x G8800GTX aus. Sollte der GT200 mehr bieten umso besser. Ich spreche hier von 1680x1050 4xMSAA/16xAF. Für 1920x1200 mit AA/AF und mehr ist nach wie vor SLI/CF zuständig.

Es kann sowohl mehr als auch weniger sein. Und nein es "muss" oder "sollte" gar nichts. Es bleibt dabei dass man mit den paar verstreuten Infos die es momentan gibt ueberhaupt nichts vorhersehen kann.

dargo
2008-04-07, 22:35:44
Es bleibt dabei dass man mit den paar verstreuten Infos die es momentan gibt ueberhaupt nichts vorhersehen kann.
Stimmt noch nicht mal der Transistorcount des GT200 der ursprünglich auf 2-2,5x GTX lag? Daran kann man in der Regel mehr oder weniger grob die Leistung einschätzen.

Ailuros
2008-04-08, 05:31:25
Stimmt noch nicht mal der Transistorcount des GT200 der ursprünglich auf 2-2,5x GTX lag? Daran kann man in der Regel mehr oder weniger grob die Leistung einschätzen.

Waere das Ding auf 55nm wie jemand original "wissen" wollte waeren es ~G80*3; da es aber auf 65nm ist am Ende ist das Resultat eher ~G80*2. Sagt mir aber auch nichts. Wenn man nicht weiss was sie genau angestellt haben was die Effizienz betrifft, hat selbst das Zeug keinen Sinn. Ich weiss nichtmal ueber was genau jede SP faehig ist.

GeneralHanno
2008-04-08, 09:07:10
wenn wir davon ausgehen, dass der GT200 in 65nm gefertigt wird (konservative strategie - nvidia typisch), dann hat er einen transistorencount von ~ 2xG80. da es ein neues design ist (im gegensatz zum G9x), wird die effizienz (leistung/tansistor) etwas bis deutlich (ist NICHT bekannt) steigen. also hat der GT200 MINDESTENS doppelte G80 performence. mehr kann man imo zum jetzigen zeitpunkt nicht sagen ...

AnarchX
2008-04-08, 09:13:57
128 TMUs dürften wohl nicht soviel bringen, weshalb man hier sinnvoller auf 80 bzw. 96 TMUs steigern könnte, sodass man in >256SPs bzw. x stärkere SPs investieren könnte, wo eine Steigerung wohl mehr Leistung nach sich zieht.

Aber einige Effizienzsteigerungen wie auch bei NV40 auf G70 kann man wohl auch erwarten.

Ailuros
2008-04-08, 10:40:01
128 TMUs dürften wohl nicht soviel bringen, weshalb man hier sinnvoller auf 80 bzw. 96 TMUs steigern könnte, sodass man in >256SPs bzw. x stärkere SPs investieren könnte, wo eine Steigerung wohl mehr Leistung nach sich zieht.

240 und ALUs sind um einiges billiger als TMUs/ROPs. Die Frage bleibt worueber jede SP genau faehig ist und ob zusaetzlich Logik dazukam oder sie einfach nur 8 SPs in jedes cluster dazugeklatscht haben. Es klingt wohl eher unwahrscheinlich bei deren Optimismus, aber wir werden schon sehen um was es sich genau handelt.

Aber einige Effizienzsteigerungen wie auch bei NV40 auf G70 kann man wohl auch erwarten.

Ich hab den Verdacht dass sie von MADD+MUL auf MADD+MADD damals gestiegen sind damit die pipeline durch TEX OPs weniger blockiert wurde. Das meiste an zusaetzlicher Leistung vom G7x kam sowieso von den zusaetzlichen 2 quads und um einiges weniger von der zweiten MADD Einheit in den ALUs.

Es gibt momentan zich Thesen die fuer GT200 herumschwirren; von einfachem MADD bis zu MADD+MADD+MADD. Ohne zusaetzliche Logik koennte jeder Fall ab MADD+MUL zu einer Effizienz-Reduzierung pro FLOP fuehren. Ist auch alles scheissegal; wenn sie es geschafft haben um X Prozent die Auslastung jeglicher Einheit zu erhoehen dann liefert <1 TFLOP doch am Ende mehr als irgend eine verrueckte 2+TFLOP Marketingziffer die nur imposant auf Papier aussieht.

Gast
2008-04-08, 10:42:15
wenn wir davon ausgehen, dass der GT200 in 65nm gefertigt wird (konservative strategie - nvidia typisch), dann hat er einen transistorencount von ~ 2xG80. da es ein neues design ist (im gegensatz zum G9x), wird die effizienz (leistung/tansistor) etwas bis deutlich (ist NICHT bekannt) steigen. also hat der GT200 MINDESTENS doppelte G80 performence. mehr kann man imo zum jetzigen zeitpunkt nicht sagen ...


Aha, Ailuros schreibt er hat vom GT200 keine genauen Angaben und ihr schreibt doppelte Performance, Crysis aufm 90 Zoll XXl Full HD mit 200fps bei 16xSSAA und 16xAF.


Ihr verwechselt wunschdenken mit spekulation, man braucht schon Anhaltspunkte(kaum vorhanden aktuell) um in etwa "schätzen" zu können wie das ganze aussieht.

dargo
2008-04-08, 10:47:57
Aha, Ailuros schreibt er hat vom GT200 keine genauen Angaben und ihr schreibt doppelte Performance, Crysis aufm 90 Zoll XXl Full HD mit 200fps bei 16xSSAA und 16xAF.

Wo wurde das behauptet? Also erspar uns diesen Blödsinn in Zukunft bitte. Bei einer mehr oder weniger neuen Generation darf man durchaus Effizienzsteigerungen erwarten. Oder wie erklärst du dir, dass dem G80 im Vergleich zum G71 "nur" ~69% mehr Speicherbandbreite reichen bei nicht selten dreifacher Leistung?

Gast
2008-04-08, 10:53:31
Wo wurde das behauptet? Also erspar uns diesen Blödsinn in Zukunft bitte. Bei einer mehr oder weniger neuen Generation darf man durchaus Effizienzsteigerungen erwarten. Oder wie erklärst du dir, dass dem G80 im Vergleich zum G71 "nur" ~69% mehr Speicherbandbreite reichen bei nicht selten dreifacher Leistung?


Sorry, aber immer noch Wunschdenken. Du hast weder einsicht noch Ahnung vom Halbleiter Markt, sieht man leider an deiner Art wie du eine Einheit beschreibst.

Die letzten 4 Seiten hast du nur Wunschdenken zu Tage gebracht, da dir die Basis fehlt.

dargo
2008-04-08, 10:59:27
Sorry, aber immer noch Wunschdenken.
Dass der G80 bis zu 3x schneller ist als ein G71 ist also Wunschdenken, aha. :rolleyes:

Edit:
Oh, entschuldige. Er ist sogar bis zu 4,5 mal schneller als ein G71. :cool:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/8/

Man sollte natürlich hier nicht vergessen, dass CB beim G71 ältere Treiber verwendet. Lass es von mit aus bis zu 4 fache G71-Leistung sein.

Gast
2008-04-08, 11:27:24
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6702&Itemid=1

puntarenas
2008-04-08, 11:38:27
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6702&Itemid=1
ComputerBase hat mögliche Speicherkonfigurationen schonmal durchgespielt: Klick! (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/april/folgt_nvidia-gpu_d10u-20/)

tombman
2008-04-08, 11:41:22
Doppelte G80 GTX Leistung + 512bit 1Gb Speicher würden mir für G200 locker ausreichen ;) (+ ein paar kleinere Spielerein und fette hype techdemos dazu ;D) Dann wäre die Gpu Welt wieder in Ordnung :cool:

Gast
2008-04-08, 11:47:22
Aber nicht mit GDDR3.

tombman
2008-04-08, 11:48:25
Aber nicht mit GDDR3.
Bei einem 512bit SI ist mir egal ob es nur GDDR3 ist ;)

Gast
2008-04-08, 11:49:04
Aber nicht mit GDDR3.
Warum?
Doppelt so viel Bandbreite, wie eine 9800GTX hat reicht locker!

Die Bandbreite ist nicht so wichtig!

Gast
2008-04-08, 11:49:50
Dann kann man auch seine G80 behalten oder glaubt einer die schaffen dann 800mhz,du redest von 2x Leistung + zum G80.

dargo
2008-04-08, 11:54:17
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6702&Itemid=1
Also 512Bit SI für die GTX und 448Bit SI für die GTS/GT? Interessante Kombination.

Aber nicht mit GDDR3.
Mit knapp 141GB/s Bandbreite denke ich schon. ;)

Gast
2008-04-08, 11:56:34
mit GDDR5 steht da auch.

Gast
2008-04-08, 11:57:58
Also 512Bit SI für die GTX und 448Bit SI mit die GTS/GT? Interessante Kombination.


Mit knapp 141GB/s Bandbreite denke ich schon. ;)
Nein,wie soll das denn aussehen?
675/1700/1080-512 SI und 1000mb vram?
die wird richtig schnell.

Gast
2008-04-08, 11:59:21
Dann kann man auch seine G80 behalten oder glaubt einer die schaffen dann 800mhz,du redest von 2x Leistung + zum G80.
warum keine 800Mhz? =)

mit GDDR5 steht da auch.
Ein dickes SI scheint doch billiger zu sein. ;)


Mit knapp 141GB/s Bandbreite denke ich schon. ;)
0,83ns GDDR3 ermöglicht 1200Mhz, macht dann 153,6GB/s. :D

dargo
2008-04-08, 12:02:20
Nein,wie soll das denn aussehen?
675/1700/1080-512 SI und 1000mb vram?
die wird richtig schnell.
Lass doch die GPU-Taktraten erstmal weg. Ohne zu wissen wie breit der GT200 wird und wie effizient die einzelnen Bereiche im Vergleich zum G80 arbeiten bringen irgendwelche Taktraten erstmal gar nichts.

Gast
2008-04-08, 12:03:40
Was hatt man denn davon?
Was dabei an Leistung rummkommt sieht man der neuen GTX,und GT200 soll dann mit ähnlichen Daten 2x+ zum G80 sein?
Träumer.

Gast
2008-04-08, 12:04:38
Die Taktraten sind dir aber vorgegeben bei diesem Zenario.

dargo
2008-04-08, 12:04:46
Ein dickes SI scheint doch billiger zu sein. ;)

Ob billiger keine Ahnung, sicherer auf jeden Fall. Wer weiß schon ob GDDR5 großflächig bis zum GT200 verfügbar ist?


0,83ns GDDR3 ermöglicht 1200Mhz, macht dann 153,6GB/s. :D
Ich kann mich nicht erinnern, dass NV an die Grenzen ging. Man lässt immer etwas Spielraum nach oben offen.

Gast
2008-04-08, 12:06:51
Die Grenzen kann man austakten mit der GTX und was kommt bei raus?
Volt ohne Ende das ist doch immer dein KO Kriterium.

deekey777
2008-04-08, 12:11:27
Aha, Ailuros schreibt er hat vom GT200 keine genauen Angaben und ihr schreibt doppelte Performance, Crysis aufm 90 Zoll XXl Full HD mit 200fps bei 16xSSAA und 16xAF.


Ihr verwechselt wunschdenken mit spekulation, man braucht schon Anhaltspunkte(kaum vorhanden aktuell) um in etwa "schätzen" zu können wie das ganze aussieht.
So in etwa.
Mich würde es kaum wundern, wenn die kommende Generation nur in 3DMark 2006 (aber auch Vantage) eine deutlich höhere Leistung zeigt, aber gerade in Crysis wird sehr schwer, wenn die Einstellungen nicht über das Wahnsinnige hinausgehen müssen.

Ailuros
2008-04-08, 12:47:36
Dass der G80 bis zu 3x schneller ist als ein G71 ist also Wunschdenken, aha. :rolleyes:

Edit:
Oh, entschuldige. Er ist sogar bis zu 4,5 mal schneller als ein G71. :cool:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/8/

Man sollte natürlich hier nicht vergessen, dass CB beim G71 ältere Treiber verwendet. Lass es von mit aus bis zu 4 fache G71-Leistung sein.


http://www.beyond3d.com/images/reviews/nv40/ps-big.png
http://www.beyond3d.com/content/reviews/36/9


So in etwa.
Mich würde es kaum wundern, wenn die kommende Generation nur in 3DMark 2006 (aber auch Vantage) eine deutlich höhere Leistung zeigt, aber gerade in Crysis wird sehr schwer, wenn die Einstellungen nicht über das Wahnsinnige hinausgehen müssen.

NVIDIA wird es wohl lieber sein von einer marketing-technischen Perspektive wenn sie mehr Leistung in Crysis praesentieren koennen als in 3dmark06'.

Ganz nebenbei war FarCry bei seiner Erscheinung mit maessigen settings in 1024 spielbar; es ging um einiges aufwaerts bei R4x0/NV4x aber wirklich spielbar in hohen Aufloesungen mit AA/AF wurde es erst mit G7x/R5x0.

deekey777
2008-04-08, 13:12:19
...
NVIDIA wird es wohl lieber sein von einer marketing-technischen Perspektive wenn sie mehr Leistung in Crysis praesentieren koennen als in 3dmark06'.

Ganz nebenbei war FarCry bei seiner Erscheinung mit maessigen settings in 1024 spielbar; es ging um einiges aufwaerts bei R4x0/NV4x aber wirklich spielbar in hohen Aufloesungen mit AA/AF wurde es erst mit G7x/R5x0.
Wie soll man in einem Spiel wie Crysis, das laut Crytek selbst pro Frame im Durchschnitt auf 2 Mio Tris und 2.000 Drawcalls kommt, eine doppelte Leistungssteigerung zeigen, ohne dabei wahnwitzige Einstellungen zu nutzen?
Für Marketing-Folien ist das vielleicht ideal (HD-Gaming mit schönen Balken), aber real ist da nichts zu machen. Wobei IMO die beliebten Timedemo doch etwas zeigen, was auf das eigentliche Spiel nur zufällig übertragbar ist (auch wenn in Crysis kurz geflogen wird).
Und da wir schon bei Crytek und Far Cry sind:
http://mitrax.de/?cont=artikel&aid=24&page=10 (:biggrin:), die letzten Absätze
Die Erfahrung aus Far Cry, wo hier und da die Möglichkeiten nicht ausgereizt wurden, führt bei Crysis zu einem mulmigen Gefühl, ob die Performance doch nicht besser sein könnte, was die CPU-Last angeht.

Ailuros
2008-04-08, 13:47:41
Wie soll man in einem Spiel wie Crysis, das laut Crytek selbst pro Frame im Durchschnitt auf 2 Mio Tris und 2.000 Drawcalls kommt, eine doppelte Leistungssteigerung zeigen, ohne dabei wahnwitzige Einstellungen zu nutzen?

Eben.


Und da wir schon bei Crytek und Far Cry sind:
http://mitrax.de/?cont=artikel&aid=24&page=10 (:biggrin:), die letzten Absätze
Die Erfahrung aus Far Cry, wo hier und da die Möglichkeiten nicht ausgereizt wurden, führt bei Crysis zu einem mulmigen Gefühl, ob die Performance doch nicht besser sein könnte, was die CPU-Last angeht.

Es war nicht leicht damals Demi fuer einen Kommentar zu ueberreden. Heutzutage wuerde man wohl keine Chancen einen Kommentar ueber Crysis bei jeglichem Entwickler erreichen.

Ich hab damals von NVIDIA direkt die 4 timedemos bekommen und es war glaub ich in Regulator (Aussenszene-Nachts-Lichter schwirren rum) als ich damals mit der 6800 sowohl mit SM2.0 als auch mit dem SM3.0 patch auf einstellige Frameraten stoss. Erst mit spaeteren Treiber-updates ging es mit der Leistung um einiges aufwaerts:

http://mitrax.de/?cont=artikel&aid=24&page=15

Und wenn ich schon lesen muss dass ich meine Augen aufmachen soll bei Crysis, habe ich das gleiche muerbe Gefuehl dass an einigen Stellen etwas nicht stimmen kann. Egal ob es die Gefuehle einiger verletzt wenn man nicht ueber Ihr Lieblingsspiel gleich in Ohnmacht faellt. Crysis ist nichts anderes als FarCryOnSteroids und obwohl ich den Kerlen von CryTek mit ihrer begrenzten Erfahrung den Hut abnehme fuer das was sie in so kurzer Zeit erreicht haben, heisst es nicht dass ich nicht glaube dass es nicht besser gegangen waere.

Mr. Lolman
2008-04-08, 13:54:53
Ganz nebenbei war FarCry bei seiner Erscheinung mit maessigen settings in 1024 spielbar;

Hm? Farcry lief mit Max Details, 4xAA/4xAF auf ner übertakteten 9700pro.

Gast
2008-04-08, 14:04:51
DX11 kommt frühestens 2009. Daher benötigen ATi und Nvidia einen "zwischenschieber" der noch auf DX10(.1?) setzt.

selten so gelacht.
dx10 ist grad mal rausgekommen, imemr langsam mit den jungen pferden.
dx11 sollte 2010 rauskommen

Ailuros
2008-04-08, 14:05:28
Hm? Farcry lief mit Max Details, 4xAA/4xAF auf ner übertakteten 9700pro.

Erstens lief meine 9700PRO damals nicht in einer Gefruehrtruhe und zweitens ist Spielbarkeit nach wie vor eine ziemlich subjektive Angelegenheit.

Gast
2008-04-08, 14:07:15
;6344333']Frage mich auch warum es unbedingt 10.1 oder gar 11 sein muss. So gesehen haben wir noch nichtmal DX9 && D3D10 ausgenützt. Ist ja alles schön und gut ist aber alles Zukunftsmusik.

WORD!

deekey777
2008-04-08, 14:10:34
Hm? Farcry lief mit Max Details, 4xAA/4xAF auf ner übertakteten 9700pro.
Es gibt Stellen in Far Cry, die erst mit meiner X1950GT spielbar wurden.

Spasstiger
2008-04-08, 15:05:06
Hm? Farcry lief mit Max Details, 4xAA/4xAF auf ner übertakteten 9700pro.
Stellenweise hatte man mit den Settings unter 15 fps. Und Farcry neigt dazu, sich sehr zäh spielen zu lassen, wenn die Framerate unter 30 fps fällt.
4xAA war erst mit der X800 Pro drin, die zwei Monate nach Farcry-Release erschient.

Cpl. Dwayne Hicks
2008-04-08, 15:22:20
Ich errinnere mich kurz nach dem release Far Cry nur in 1024x768 alles maximum, ohne AA und AF flüssig speilen zu können

Als ich es 2 Jahre später mit aktuellen Treibern und gepatched nochmals durchgespielt hatte konnte ich noch zusätzlich 4x AA und 8x AF aktivieren, und es lief IMO sogar noch beser.
Das war jeweils auf einem Athlon XP 2,3 Ghz und einer 256MB 9800 PRO mit 1 GB RAM....

AnarchX
2008-04-08, 15:46:29
Fuad schon wieder mit seinen 896MB, die er ja schon mal mit der GX2 vor Ewigkeiten in Verbindung gebracht hatte.:D

Hätte eher auf 384-Bit/768MB bei der kleineren GT200 geschätzt, vorallem da hier keine doppelseitige Bestückung, wie wohl bei 14 Chips nötig wäre.

Ailuros
2008-04-08, 16:01:36
Dass wohl NV wieder sowohl cluster als auch ROP partitions deaktivieren wird bei den ersten GT200 chips braucht keinen newsblurb.

GeneralHanno
2008-04-08, 16:58:56
9800GX2 ist im juni (zum glück) EOL:
http://www.pcgameshardware.de/aid,638981/News/Geforce_9800_GX2_Produktion_soll_im_Juni_eingestellt_werden/

tombman
2008-04-08, 17:09:57
9800GX2 ist im juni (zum glück) EOL:
http://www.pcgameshardware.de/aid,638981/News/Geforce_9800_GX2_Produktion_soll_im_Juni_eingestellt_werden/
Lol, ich weiß schon warum ich keine habe ;)

reunion
2008-04-08, 17:12:45
9800GX2 ist im juni (zum glück) EOL:
http://www.pcgameshardware.de/aid,638981/News/Geforce_9800_GX2_Produktion_soll_im_Juni_eingestellt_werden/

Nur wird das wohl kein GT200 im Q2, sondern wie von Fuad angegeben ein G92 Refresh. Anders ist der Name 9900GTX und vorallem eine neue GX2 kaum erklärbar.

Slipknot79
2008-04-08, 17:32:41
9800GX2 ist im juni (zum glück) EOL:
http://www.pcgameshardware.de/aid,638981/News/Geforce_9800_GX2_Produktion_soll_im_Juni_eingestellt_werden/


Die sollten sich lieber dem G80-Treiber wieder zuwenden :mad:

Gast
2008-04-08, 17:48:21
Geforce9900 mit dem GT200 ? Also doch keine neue Architektur und der GT200 basiert auch nur auf den G92 ?

Snoopy1978
2008-04-08, 18:03:44
[QUOTE]Geforce9900 mit dem GT200 ? Also doch keine neue Architektur und der GT200 basiert auch nur auf den G92 ?[/QUOTE

Also ich glaub nicht das Nvidia im Laufe das Jahres 2008 seine GPU`s nur über "simple" Shrinks weiterentwickeln wird.Das wäre dann echt etwas daneben,mit der 9800GTX haben die grünen Jungs ja eine "nichts Halbes und nichts Ganzes" High-End Lösung präsentiert.Mindestens eine Weiterentwicklung der G92-Architektur werden wir,ich hoffe das ganz fest, schon erleben.

Gast
2008-04-08, 18:05:02
Eine 9800GTX ist aber kein HighEnd...

puntarenas
2008-04-08, 18:07:39
Nur wird das wohl kein GT200 im Q2, sondern wie von Fuad angegeben ein G92 Refresh. Anders ist der Name 9900GTX und vorallem eine neue GX2 kaum erklärbar.
Expreview (http://en.expreview.com/) rudert schon wieder zurück:

Update: According to sources, 9900GX2 do not exist for now. We will update infomation ASAP.

Snoopy1978
2008-04-08, 19:35:48
Eine 9800GTX ist aber kein HighEnd...

Deswegen schrieb ich ja auch das die aktuelle "HighEnd-Lösung" keine wirkliche HighEnd-Lösung darstellt.

Update: According to sources, 9900GX2 do not exist for now. We will update infomation ASAP.

Mich hätte mal interessiert wie so eine Karte ausgesehen hätte bei der vermuteten Die-Fläche des GT200 von < 500mm/2.

GeneralHanno
2008-04-08, 19:43:37
die 9900 bezog sich wohl eher auf modelle mit dem weiterhin ungesicherten G92b(55nm) ...

deekey777
2008-04-08, 20:27:30
die 9900 bezog sich wohl eher auf modelle mit dem weiterhin ungesicherten G92b(55nm) ...
Das ist der Punkt, der mich verwirrt: Einerseits soll es einen G92b in 55 nm geben, der GT200 (G100, D10U oder sonst was) dagegen in 65 nm? Aktuell schein eine große Täuschungsaktion stattzufinden.

san.salvador
2008-04-08, 20:43:29
Das ist der Punkt, der mich verwirrt: Einerseits soll es einen G92b in 55 nm geben, der GT200 (G100, D10U oder sonst was) dagegen in 65 nm? Aktuell schein eine große Täuschungsaktion stattzufinden.
IIRC ist es durchaus üblich, bei neuen High-End-GPUs den vorletzten Prozess zu nehmen, da man damit mehr Erfahrung und somit mehr Zuverlässigkeit hat.

deekey777
2008-04-08, 20:51:22
IIRC ist es durchaus üblich, bei neuen High-End-GPUs den vorletzten Prozess zu nehmen, da man damit mehr Erfahrung und somit mehr Zuverlässigkeit hat.
Nenne ein Beispiel. Halbwegs aktuell.

Der_Korken
2008-04-08, 21:11:13
Nenne ein Beispiel. Halbwegs aktuell.

Ich denke mal, er meint zB den G80, der in 90nm gefertigt wurde, obwohl es bereits vereinzelt 80nm-Chips gab (zB die X1950Pro). Beim R600 war zwar 80nm das bis dahin kleinste Verfahren, aber die Ableger erschienen direkt danach in 65nm. Ob man sich bewusst gegen 65nm entschieden oder es einfach zu spät war, weiß ich nicht. Alles was danach kam, würde ich nicht als explizite High-End-Chips bezeichnen, da es eigentlich nur Shrinks der vorherigen Generation waren mit ein paar zusätzlichen Optimierungen.

deekey777
2008-04-08, 21:21:36
Ich denke mal, er meint zB den G80, der in 90nm gefertigt wurde, obwohl es bereits vereinzelt 80nm-Chips gab (zB die X1950Pro). Beim R600 war zwar 80nm das bis dahin kleinste Verfahren, aber die Ableger erschienen direkt danach in 65nm. Ob man sich bewusst gegen 65nm entschieden oder es einfach zu spät war, weiß ich nicht. Alles was danach kam, würde ich nicht als explizite High-End-Chips bezeichnen, da es eigentlich nur Shrinks der vorherigen Generation waren mit ein paar zusätzlichen Optimierungen.
Es gab auch den G73b von NV in 80 nm. Nur ist ein G73b und ein G80 zwei verschiedene Chips, was ihren "Zielbereich" angeht.
NV:
NV30/35 -> 130 nm, NV40 -> 130 nm, G70 -> 110 nm, G71 -> 90 nm, G80 -> 90 nm, G92 -> 65 nm, G92b -> 55 nm, aber GT200 65 nm?
ATi:
R300/R350/R360: 150 nm
R420/R423+R481/R80: 130 nm (aber es gab auch den R430 in 110 nm)
R520/580: 90 nm
R600: 80 nm
RV670: 55 nm
Es gab nie einen "Rückschritt", da die GPUs von Generation zur Generation mehr Transistoren hatten/haben (der Übergang von G70 zum G71 bestätigt sogar diese Entwicklung).

AnarchX
2008-04-08, 21:27:45
Wer sagt, dass G92B und GT200 im gleichen Zielbereich sind?

Bis auf ein paar ominöse 9900GX2-Gerüchte spricht dafür eigentlich nichts, eher sieht es nach einem Einsatz in NBs und für günstigere 9800-SKUs aus.
Und das EOL der 98GX2 im Q2 passt auch zu diversen Termingerüchten zum GT200.

Sorkalm
2008-04-08, 21:33:38
Bis auf ein paar ominöse 9900GX2-Gerüchte spricht dafür eigentlich nichts

Expreview war die einzige Quelle dafür, und die haben sich jetzt selbst widerrufen...

Spasstiger
2008-04-08, 21:39:03
Vielleicht sollten wir wieder auf den Namen D10E zurückschwenken, denn hier im Thread gehts ja um die nächste echte High-End-GPU von Nvidia seit dem G80 und nicht um irgendwelche G92-Varianten in 55 nm. ;)

Sorkalm
2008-04-08, 22:17:05
D10U heißt er bei Fudzilla, und wo anderes habe ich den Codenamen nach neuen Schema noch nicht gehört. ;)

Da wissen wir zur Zeit:

D10U-30: 512 Bit GDDR3 (1024 MiB)
D10U-20: 448 Bit GDDR3 (896 MiB)

sehr großer Chip, 65 nm

Captain Future
2008-04-08, 22:32:13
D10U heißt er bei Fudzilla, und wo anderes habe ich den Codenamen nach neuen Schema noch nicht gehört. ;)

Da wissen wir zur Zeit:

D10U-30: 512 Bit GDDR3 (1024 MiB)
D10U-20: 448 Bit GDDR3 (896 MiB)

sehr großer Chip, 65 nm
Eigentlich wissen wir nur, dass das bei Fudo steht.

Sorkalm
2008-04-08, 22:46:52
Nicht alles, aber das aller meiste, ja. ;)

Klingt aber bisher plausibel.

dargo
2008-04-08, 22:50:46
Und wenn ich schon lesen muss dass ich meine Augen aufmachen soll bei Crysis, habe ich das gleiche muerbe Gefuehl dass an einigen Stellen etwas nicht stimmen kann. Egal ob es die Gefuehle einiger verletzt wenn man nicht ueber Ihr Lieblingsspiel gleich in Ohnmacht faellt. Crysis ist nichts anderes als FarCryOnSteroids und obwohl ich den Kerlen von CryTek mit ihrer begrenzten Erfahrung den Hut abnehme fuer das was sie in so kurzer Zeit erreicht haben, heisst es nicht dass ich nicht glaube dass es nicht besser gegangen waere.
Fühlst dich also doch "angepisst", dass ein Game erschienen ist welches der G8800GTX die Grenzen aufzeigt. Anders kann ich dieses Statement nicht deuten.

deekey777
2008-04-08, 22:53:45
Fühlst dich also doch "angepisst", dass ein Game erschienen ist welches der G8800GTX die Grenzen aufzeigt. Anders kann ich dieses Statement nicht deuten.
Du hast immernoch nicht verstanden, worum es Ailuros und mir ging. Weiterhin gehst du davon aus, dass in Crysis allein die Grafikkarte den Ton angibt.

Coda
2008-04-08, 23:04:41
Das ist ja auch praktisch so.

dargo
2008-04-08, 23:05:14
Weiterhin gehst du davon aus, dass in Crysis allein die Grafikkarte den Ton angibt.
Das tue ich nicht. Ohne CPU geht es ja schlecht. :wink:

Crysis ist aber zu einem sehr großen Teil gpu-limitiert. Hängt natürlich immer von den Settings ab. Wer aber einen ~3Ghz C2D besitzt ist locker auf der sicheren Seite oder anders gesagt - CPU-Leistung ist dann genug vorhanden.

Edit:
Wenn du der Meinung bist Crysis wäre stark cpu-limitiert kannst du mir gerne ein entsprechendes Savegame zuschicken. Ich schau mir das mal näher an. Kann ja sein, dass ich was übersehen habe.

Captain Future
2008-04-08, 23:10:33
Das ist ja auch praktisch so.
Dafür ist der Island-GPU-Bench aber ziemlich CPU-limitiert...

dargo
2008-04-08, 23:12:49
Dafür ist der Island-GPU-Bench aber ziemlich CPU-limitiert...
Wie bitte?

Gast
2008-04-08, 23:13:49
Hängt natürlich immer von den Settings ab. Wer aber einen ~3Ghz C2D besitzt ist locker auf der sicheren Seite oder anders gesagt - CPU-Leistung ist dann genug vorhanden.
Wenn Physik ins Spiel kommt, ist ein 3Ghz C2D schnell erledigt. ;)

dargo
2008-04-08, 23:20:34
Wenn Physik ins Spiel kommt, ist ein 3Ghz C2D schnell erledigt. ;)
Dann muss ich wohl ein anderes Crysis gespielt haben als du. Ich warte immer noch auf ein entsprechendes Savegame.

deekey777
2008-04-08, 23:30:11
Das tue ich nicht. Ohne CPU geht es ja schlecht. :wink:

Crysis ist aber zu einem sehr großen Teil gpu-limitiert. Hängt natürlich immer von den Settings ab. Wer aber einen ~3Ghz C2D besitzt ist locker auf der sicheren Seite oder anders gesagt - CPU-Leistung ist dann genug vorhanden.

Edit:
Wenn du der Meinung bist Crysis wäre stark cpu-limitiert kannst du mir gerne ein entsprechendes Savegame zuschicken. Ich schau mir das mal näher an. Kann ja sein, dass ich was übersehen habe.
Siehst du: Du denkst nur in "CPU-Limit" und "GPU-Limit". Dabei sieht deine Denkweise so aus: Wenn die Framerate mit steigender Auflösung sinkt, ist das Spiel "GPU-limitiert". Bleibt die Framerate gleich, ist das Spiel "CPU-limitiert".
Was ich dir schon seit längerem zu erklären versuche, ist, dass in Crysis aufgrund der hohen Polygonen-Zahl und der hohen Anzahl an Drawcalls die CPU und eigentlich die gesamte Rendering-Pipeline ausgebremst werden. Das Spiel lässt viele Objekte berechnen, obwohl diese nicht zu sehen sind (siehe mein Screenshot, wo der Protagonist einfach den Felsen anstarrt).
Auch wenn die Erfahrungen aus Far Cry für mich noch gegenwärtig sind, waage ich mich nicht zu sagen, dass Crytek Mist gebaut hätte: Crysis sieht einfach nur zu gut aus. Und alles, was gut aussieht, muss berechnet werden. Möglicherweise wäre die Lage besser, wenn das Spiel auf das Vista-Treibermodell hinentwickelt worden wäre, aber insbesondere auf D3D10.

Dafür ist der Island-GPU-Bench aber ziemlich CPU-limitiert...

http://www.tomshardware.com/de/Geforce-9800-GTX,testberichte-239991-11.html

dargo
2008-04-09, 00:14:02
Siehst du: Du denkst nur in "CPU-Limit" und "GPU-Limit". Dabei sieht deine Denkweise so aus: Wenn die Framerate mit steigender Auflösung sinkt, ist das Spiel "GPU-limitiert". Bleibt die Framerate gleich, ist das Spiel "CPU-limitiert".

Was soll denn bitte daran falsch sein?

Edit:
Momentmal - vielleicht wurde ich nur falsch verstanden. Ob das Spiel cpu-/ oder gpu-limitiert ist hängt natürlich immer von der verwendeten Kombination aus CPU/GPU ab. Grundsätzlich zu sagen Crysis wäre völlig gpu-limitiert ist natürlich falsch.


Was ich dir schon seit längerem zu erklären versuche, ist, dass in Crysis aufgrund der hohen Polygonen-Zahl und der hohen Anzahl an Drawcalls die CPU und eigentlich die gesamte Rendering-Pipeline ausgebremst werden. Das Spiel lässt viele Objekte berechnen, obwohl diese nicht zu sehen sind (siehe mein Screenshot, wo der Protagonist einfach den Felsen anstarrt).

Ich habe nirgendwo gesagt, dass noch wohlmöglich mehr Frames in Crysis nicht "ausquetschbar" sind, falls du darauf hinaus willst. Dafür fehlen mir einfach die nötigen Kenntnisse. Was ich aber sagen kann, es gibt in Crysis keine Szene die einen ~3Ghz C2D in unspielbare Frames drückt. Nein selbst der empfohlene E6600 mit 2,4Ghz kommt nicht in diese Bereiche. Und das reicht mir schon.

Ailuros
2008-04-09, 06:10:57
Fühlst dich also doch "angepisst", dass ein Game erschienen ist welches der G8800GTX die Grenzen aufzeigt. Anders kann ich dieses Statement nicht deuten.

Nein und abermals nein. Meine Kritik was Crytek betrifft hat nicht heute begonnen, sondern sie ist schon ein halbes Jahrzehnt alt. Mit Deiner Logik bin ich gegen Crytek "angepisst" weil ihre Spiele auf einer groesseren Anzahl von GPUs durch die Jahre nicht spielbar waren.

Es waere leichter einzusehen dass ich glaube dass Crytek ihren game-code besser optimieren haette koennen. In FarCry hatte ich eine handhafte Bestaetigung dass unnoetig Resourcen verschwendet wurden und das gleiche Gefuehl gibt mir Crysis auch obwohl ich es als Laie nicht bestaetigen kann.

Ich habe nirgendwo gesagt, dass noch wohlmöglich mehr Frames in Crysis nicht "ausquetschbar" sind, falls du darauf hinaus willst.

Es fehlt hoechstwahrscheinlich an Optimierungen und das in den Grundsaetzen des game codes. Daran laesst sich nicht mehr viel aendern.


Dafür fehlen mir einfach die nötigen Kenntnisse.

Ach und warum glaubst Du hab ich mich in 2004 von einem Profi ueber FC beraten lassen? Weil ich einen Grund brauchte die stellenweise einstelligen Frameraten auf meiner damals geschaetzten 9700PRO und spaeter 6800 zu gerechtfertigen?

Was ich aber sagen kann, es gibt in Crysis keine Szene die einen ~3Ghz C2D in unspielbare Frames drückt. Nein selbst der empfohlene E6600 mit 2,4Ghz kommt nicht in diese Bereiche. Und das reicht mir schon.

Gut dann sollte Dir auch ausreichen dass Crysis erst nach zwei GPU und CPU Generationen ab G80/C2D spielbar werden wird und ich "verteidige" schon jetzt meine zukuenftige GPU egal ob sie auf R700 oder GT200 heissen wird.


Was ich dir schon seit längerem zu erklären versuche, ist, dass in Crysis aufgrund der hohen Polygonen-Zahl und der hohen Anzahl an Drawcalls die CPU und eigentlich die gesamte Rendering-Pipeline ausgebremst werden. Das Spiel lässt viele Objekte berechnen, obwohl diese nicht zu sehen sind (siehe mein Screenshot, wo der Protagonist einfach den Felsen anstarrt).
Auch wenn die Erfahrungen aus Far Cry für mich noch gegenwärtig sind, waage ich mich nicht zu sagen, dass Crytek Mist gebaut hätte: Crysis sieht einfach nur zu gut aus. Und alles, was gut aussieht, muss berechnet werden. Möglicherweise wäre die Lage besser, wenn das Spiel auf das Vista-Treibermodell hinentwickelt worden wäre, aber insbesondere auf D3D10.

Das fettgedruckte zeigt mir aber das genau was ich oefters im Spiel sehen konnte. Es fehlt womoeglich einfach an kritischen Optimierungen. Falls die engine in solchen Faellen (was ich natuerlich nicht wissen kann) nicht richtig unnoetige Daten verwirft, faellt es in die Kategorie der fehlenden Optimierungen und falls es nicht anders gegangen ist bleibt das Fragezeichen warum man sich fuer einen code entschieden hat wo solches Zeug nicht moeglich ist.

Wir drehen uns aber dann weiterhin im Kreis und das unnoetige OT wird noch laenger. Sowohl FC als auch Crysis sind ausserordentlich schoene Spiele. Haetten aber beide IHVs nicht Leute zu Crytek ruebergeschickt wuerde das letztere noch miserabler auf heutigen GPUs laufen.

sklave_gottes
2008-04-09, 08:14:13
http://www.beyond3d.com/images/reviews/nv40/ps-big.png
http://www.beyond3d.com/content/reviews/36/9




NVIDIA wird es wohl lieber sein von einer marketing-technischen Perspektive wenn sie mehr Leistung in Crysis praesentieren koennen als in 3dmark06'.

Ganz nebenbei war FarCry bei seiner Erscheinung mit maessigen settings in 1024 spielbar; es ging um einiges aufwaerts bei R4x0/NV4x aber wirklich spielbar in hohen Aufloesungen mit AA/AF wurde es erst mit G7x/R5x0.


Ich weis Jetzt nicht was für dich eine hohe Auflösung war 2004. Aber mit meiner X800XT@OC, war die damalige standart Auflösung 1280x1024 mit 4aa/16af Butterweich Spielbar. (schnitt 60fps) Sogar 6aa war zu 99% immer über 25fps.
Das man für doom3 was ein Jahr später gekommen ist auch soviel Power Brauchte bei keinem Optischen vorsprung spricht auch für FarCry.

Und was Crysis angeht, gibt es ja den abnehmbaren grenzbetrag. Solange kein Spiel in etwa die selbe Grafik liefert(ist meine auffassung), sollte man mit solchen probnosen vorsichtig sein.

Meiner Meinung ist eher das aktuelle CMR ein Leistungsfresser.(CPU)

mfg martin

Doomi
2008-04-09, 08:58:09
ich weiß nicht was einige haben, ich hab Crysis ganz normal durchgespielt mit ner 8800 GT und ich konnte nirgends ein unspielbar feststellen.( Ausnahme - Flugzeugträger am Ende, aber das war auch nicht wirklich unspielbar )
Meine Auflösung war 1280 x 960 mit 2 x AA und 8 AF , sonst alles high auf XP.

Ich denke mir mal einige Leute hier übertreiben es gewaltig und wollen ein Next Gen Spiel in Brutaloauflösung mit Monster AA spielen, das geht nunmal
nicht. Da hilft auch kein Rumgejammer. Jedenfalls war Far Cry damals mit meiner Geforce 6800 GT 128 MB schon fast als übersmooth zu bezeichnen. Und das war auch ein Next Gen Titel. Allerdings hab ich da auch nur 2x AA und 4 AF bei 1280 x 960 genommen.

Also Leute, Anspruch auf Monster AA herunterstellen, dann klappts auch mit den neuen Games...

dargo
2008-04-09, 09:22:35
Gut dann sollte Dir auch ausreichen dass Crysis erst nach zwei GPU und CPU Generationen ab G80/C2D spielbar werden wird und ich "verteidige" schon jetzt meine zukuenftige GPU egal ob sie auf R700 oder GT200 heissen wird.

Das ist mir alles zu pauschal ausgedrückt. Ich konnte Crysis ohne Probleme in 1280x720 mit 4xMSAA/8xAF (High Details, Schatten, PP und MB auf Mittel) mit der OC G80GTS und dem restlichen System (siehe Sig.) durchspielen. Alternativ 1280x800 2xMSAA/8xAF. Nur auf dem Flugzeugträger (Kampfszene) musste ich im ersten Fall auf 2xMSAA runter, im zweiten Fall auf 1xMSAA. Ich spreche hier allerdings von Frames zwischen ca. 30 und 40fps. Um mal einen Anhaltspunkt zu bekommen - der intergrierte GPU-Benchmark liefert mit diesen Settings (die erstgenannte Auflösung) genau 40 avg.fps.

Und das mit der neuen CPU-Generation ist schlichtweg falsch. Dafür reicht schon locker eine fast 2 Jahre alte CPU aus (C2D @~3Ghz). Es sei denn du beziehst dich hier auf den DX10 Modus mit very high Settings. Das mag schon sein, ich habe die CPU-Last bei very high noch nicht überprüft.

PS: sehr wichtig dabei - alle aktuellen Patches müssen installiert sein.

MartinRiggs
2008-04-09, 09:31:52
Oh bitte Dargo, könntest du mal mit deinem verschissenen Crysis aufhören.
Es geht hier um den GT200 und nicht um das mieseste Hype-Game 2007.

dargo
2008-04-09, 09:50:25
Oh bitte Dargo, könntest du mal mit deinem verschissenen Crysis aufhören.

Falls du das noch nicht mitbekommen hast, das ist das einzige Game wo momentan mehr Leistung wünschenswert wäre. Zumindest in "gesunden" Auflösungen. Ich wüsste also nicht, dass dies zu sehr OT wäre. Aber dein Beitrag ist natürlich sehr informativ in Bezug auf den GT200. :rolleyes:

Gast
2008-04-09, 10:09:26
Falls du das noch nicht mitbekommen hast, das ist das einzige Game wo momentan mehr Leistung wünschenswert wäre.
Falsch.

In so ziemlich jedem Game brauchts sehr viel Mehrleistung.

dargo
2008-04-09, 10:20:43
Falsch.

In so ziemlich jedem Game brauchts sehr viel Mehrleistung.
In welchen Games sonst ist eine G8800GTX für 1280x1024 4xMSAA/16xAF denn zu langsam?

Gast
2008-04-09, 10:30:30
In welchen Games sonst ist eine G8800GTX für 1280x1024 4xMSAA/16xAF denn zu langsam?
Was will ich mit der kleinen Auflösung mit popeligen 4xMSAA?

Paul Brain
2008-04-09, 10:37:50
Was will ich mit der kleinen Auflösung mit popeligen 4xMSAA?
Warum müssen Gäste immer so provokant sein?!?

Im Prinzip hast Du ja recht; 1280x1024 ist zwar von der Auflösung her nicht das Problem, aber von den erhältlichen Schirmgrößen: Bei 17- bzw. 19" kommt einfach keine Atmosphäre auf. Das Minimum sehe ich bei 1680x1050 auf 22", besser 1920x1200 auf 24 oder gar 26". Highend sollte letzteres mit zumindest 2xAA/8xAF schaffen. Der Unterschied zu 4xAA ist zwar sichtbar, aber bei 2xAA fällt wenigstens dieses extreme "Kantenlaufen" weg, das man ohne AA hat. Mehr als 4xMSAA braucht man beim Spielen aber in den seltensten Fällen, dann noch viel lieber TSAA. Meine Meinung halt, muß sich ja nicht zwangsläufig mit euren decken... ;)


Btw., Fudzilla berichtet vom RV770, der angeblich zur Computex im Juni launchen soll. Vielleicht kommt GT200 ja wirklich schon in Q2...
Und das, nachdem ich mir grad eine 8800GTS Black Pearl bestellt hab *argl* ;-)

tombman
2008-04-09, 10:39:40
Was will ich mit der kleinen Auflösung mit popeligen 4xMSAA?
1280x1024 ist keine kleine Auflösung :rolleyes: Ist höher als das kleine HD Format! (720p)

dargo
2008-04-09, 10:41:53
Warum müssen Gäste immer so provokant sein?!?

Das ist eine gute Frage. Hier nochmal für den Gast worum es überhaupt ging:

Falls du das noch nicht mitbekommen hast, das ist das einzige Game wo momentan mehr Leistung wünschenswert wäre. Zumindest in "gesunden" Auflösungen.

Und ich wiederhole mich nochmal 1680x1050 und 1920x1200 (beides mit 4xMSAA natürlich) ist SLI/CF Gebiet und bleibt erstmal das. Ok, 1680x1050 könnte so langsam in den nächsten Jahren zum Standard werden. Der Weg zu 1920x1200 mit einer Single-GPU-Grafikkarte ist aber noch sehr lang. Es sei denn wir erleben in den nächsten Jahren technischen Stillstand bei Games.

deekey777
2008-04-09, 10:48:48
...


Das fettgedruckte zeigt mir aber das genau was ich oefters im Spiel sehen konnte. Es fehlt womoeglich einfach an kritischen Optimierungen. Falls die engine in solchen Faellen (was ich natuerlich nicht wissen kann) nicht richtig unnoetige Daten verwirft, faellt es in die Kategorie der fehlenden Optimierungen und falls es nicht anders gegangen ist bleibt das Fragezeichen warum man sich fuer einen code entschieden hat wo solches Zeug nicht moeglich ist.
...
Das scheint ein Problem vieler "Outdoor-Engines" bzw. Spiele zu sein, das Culling ist bei diesen nicht optimal.

Gast
2008-04-09, 10:57:38
Mehr als 4xMSAA braucht man beim Spielen aber in den seltensten Fällen, dann noch viel lieber TSAA.
TAA ist Pflich richtig.
4xMSAA ist viel zu wenig.
Ich sehe die SS-Hybride nicht als Spassmodi an.

1280x1024 ist keine kleine Auflösung :rolleyes: Ist höher als das kleine HD Format! (720p)
Nö, denn 720p sind:
1280x720


Und ich wiederhole mich nochmal 1680x1050 und 1920x1200 (beides mit 4xMSAA natürlich) ist SLI/CF Gebiet und bleibt erstmal das.
Du willst mich nicht verstehen. Ich will mehr als diese Leistung mit einer Karte haben.

Gast
2008-04-09, 10:59:07
Nö, denn 720p sind:
1280x720

Gut, dann ist meinetwegen 720p schlechter, mir egal.
Das man für mehr als 1280x1024 SLI brauchen soll stört mich.

MartinRiggs
2008-04-09, 11:15:09
Falls du das noch nicht mitbekommen hast, das ist das einzige Game wo momentan mehr Leistung wünschenswert wäre. Zumindest in "gesunden" Auflösungen. Ich wüsste also nicht, dass dies zu sehr OT wäre. Aber dein Beitrag ist natürlich sehr informativ in Bezug auf den GT200. :rolleyes:

Wozu brauche ich mehr Performance in Crysis wenn ich es nicht mehr spiele;D
Gibt auch so genug games wo ich in 1680x1050 gerne mehr AA/AF reinhauen würde und es kommen ja auch noch so sachen wir Far Cry 2 die bestimmt auch nicht allzu geringe anforderungen haben werden, schlechter wie Crysis können sie ja nicht sein.
Und nein 1680x1050 plus AA/AF ist noch nicht CF/SLI-Gebiet, bis auf wenige Games performt da die 8800GT schon ganz ordentlich.

dargo
2008-04-09, 11:41:30
Du willst mich nicht verstehen. Ich will mehr als diese Leistung mit einer Karte haben.
Du bist nicht der Einzige. :wink:

Wozu brauche ich mehr Performance in Crysis wenn ich es nicht mehr spiele;D

Wo habe ich geschrieben, dass du es brauchst?

GeneralHanno
2008-04-09, 11:55:41
also nun mal die crysis diskussionen etwas dämpfen, sonst wird der thread nachher noch gesplittet ;)

wofür braucht man die x-fache G80 power?
1. um crysis auf extra hoch flüssig zu spielen
2. um andere spiele auf full-hd (1080p oder 24") mit AA/AF zu spielen
3. für alle SS-FS-AA fans ;)

zur zeit sieht es ja so aus:
- überarbeitete G80 architektur
- DX10 oder DX10.1
- 65nm
- diesize über 500mm²
- vermutlich 8 ROP-Part. (a 4 ROPs & 64bit) = 32 ROPs
- 512bit SI @ 1024MiB GDDR3
- infos zu shadern/TMUs unbekannt, aber etwa doppelte G80 performence
- singel-GPU-modell
- verfügbar vermutlich Q3
- preis: 500$++

Gast
2008-04-09, 12:05:35
3. für alle SS-FS-AA fans ;)

Exakt.
16xAF ist nie ein großes Problem für 1680x1050.

Aber für AA fehlt einfach Power, viel Power. 4xMSAA ist ein netter Versuch, aber es ist zu wenig.

Paul Brain
2008-04-09, 12:26:16
Exakt.
16xAF ist nie ein großes Problem für 1680x1050.

Aber für AA fehlt einfach Power, viel Power. 4xMSAA ist ein netter Versuch, aber es ist zu wenig.
Für 1280x1024 auf einem 19"er, vielleicht. Aber bei 1920x1200 auf 24" brauchst nicht mehr, der Unterschied ist einfach nur mehr vernachlässigbar (sofern mit TSAA die restlichen Kanten geglättet werden können).
Ja, ich weiß das, denn ich habe den direkten Vergleich... ;)

Das soll nicht heissen, daß ich mehr AA oder SSAA gegenüber abgeneigt bin - ganz im Gegenteil. Wenn ein Spiel aber in 1920x1200 bei 4xAA und maximalen Settings gut spielbar ist, verspür ich jedenfalls kein Bedürfnis nach neuer Hardware...
Bevor ich die In-game-Settings runterschraub bin ich auch mit 2xAA zufrieden, danach wird die Auflösung reduziert und erst wenn das alles nichts hilft, kommen die In-Game-Settings dran. Falls ein Spiel das bei meiner Hardware verlangt warte ich normalerweise mit dem Spielen, bis ich was schnelleres hab... :D Crysis hab ich hier auch schon monatelang unangetastet rumliegen, genauso Stalker. Letzteres werd ich mal angehen, wenn ich die 8800GTS eingebaut hab; vielleicht tu ich mir auch Crysis in 1280x800 2xAA an, soferns unter XP mit maximalen Settings läuft...

Ailuros
2008-04-09, 12:59:52
Ich weis Jetzt nicht was für dich eine hohe Auflösung war 2004. Aber mit meiner X800XT@OC, war die damalige standart Auflösung 1280x1024 mit 4aa/16af Butterweich Spielbar. (schnitt 60fps) Sogar 6aa war zu 99% immer über 25fps.

R4x0/NV4x = 1280
R5x0/G7x = 1600

***edit:

Das ist mir alles zu pauschal ausgedrückt. Ich konnte Crysis ohne Probleme in 1280x720 mit 4xMSAA/8xAF (High Details, Schatten, PP und MB auf Mittel) mit der OC G80GTS und dem restlichen System (siehe Sig.) durchspielen. Alternativ 1280x800 2xMSAA/8xAF. Nur auf dem Flugzeugträger (Kampfszene) musste ich im ersten Fall auf 2xMSAA runter, im zweiten Fall auf 1xMSAA. Ich spreche hier allerdings von Frames zwischen ca. 30 und 40fps. Um mal einen Anhaltspunkt zu bekommen - der intergrierte GPU-Benchmark liefert mit diesen Settings (die erstgenannte Auflösung) genau 40 avg.fps.

Irrelevant zu dem was ich behaupte. Ausser Du hast irgend etwas handhaftes von jemand der weiss wo es langgeht dass es nicht besonders vieles gibt dass man am gamecode haette besser optimieren oder von Anfang an haette besser machen koennen; mit gleicher BQ und um einiges besserer Leistung.

Und das mit der neuen CPU-Generation ist schlichtweg falsch. Dafür reicht schon locker eine fast 2 Jahre alte CPU aus (C2D @~3Ghz). Es sei denn du beziehst dich hier auf den DX10 Modus mit very high Settings. Das mag schon sein, ich habe die CPU-Last bei very high noch nicht überprüft.

PS: sehr wichtig dabei - alle aktuellen Patches müssen installiert sein.

Fuer eine GeForce-UeberNext braucht man auch eine UeberNext-CPU um ein balanciertes System zu bauen.

In welchen Games sonst ist eine G8800GTX für 1280x1024 4xMSAA/16xAF denn zu langsam?

Wohl keinem heute verfuegbarem; fuer 1280+AA reicht heutzutage aber auch eine 9600GT vollkommen aus.

Captain Future
2008-04-09, 13:23:04
http://www.tomshardware.com/de/Geforce-9800-GTX,testberichte-239991-11.html
Danke:
9800GTX E2160 @1,8: 18 Fps
9800GTX E2160 @2,41: 21,3 Fps

Einer der höchsten Sprünge bei Very High im Testfeld (1280x1024)

tombman
2008-04-09, 14:27:36
1280x1024 ist keine kleine Auflösung :rolleyes: Ist höher als das kleine HD Format! (720p)
Nö, denn 720p sind:
1280x720.
Und jetzt rechne mal :rolleyes:

1280x1024 = 1310720 Pixel
1280x720= 921600 Pixel

1310720/921600 ~ 1.42 -> 1280x1024 hat 42% mehr Pixel als 1280x720, also ganz klar deutlich höher

Also nix mit "kleiner Auflösung"...

p.s: ja, ich weiß, daß man auch einfach 1024/720 hätte rechnen können; wollte "die Leute" aber ned "überfordern" ;D

Gast
2008-04-09, 14:50:20
Und jetzt rechne mal :rolleyes:

Oh ich habe mich verlesen, siehe den Post dadrunter.
Dennoch bleibt meine Aussage: "Beitrag anzeigen
Was will ich mit der kleinen Auflösung mit popeligen 4xMSAA?"

Imho ist es es klein, da kann hundert mal HD oder besser dranstehen. Was ist den HD? Nichts weiter als 2 Auflösugen. Nichts besonderes oder neues.

1280x1024 ist nicht besonders aufrgegend als Auflösung, die 5:4 Gucklöcher, die damit betrieben werden sind auch nicht das wahre.

GeneralHanno
2008-04-09, 14:55:15
der GT200 wird auch nicht diese auflösungen als zielgruppe haben ;D:P

Ailuros
2008-04-09, 14:58:56
der GT200 wird auch nicht diese auflösungen als zielgruppe haben ;D:P

Bei 130-140GB/s Bandbreite und 1GB Speicher garantiert nicht.

Nightspider
2008-04-09, 15:15:22
Ironie ?

Paul Brain
2008-04-09, 15:18:08
Bei 130-140GB/s BandbreiteWoher hast Du derart konkrete Informationen? Wie wird denn die Speicheranbindung gelöst? Welches GDDR, Taktrate, Breite?

Captain Future
2008-04-09, 15:19:27
Schnellstes GDDR3, 512 Bit.

GeneralHanno
2008-04-09, 15:26:23
es sieht ja immoment sehr nach 512bit@GDDR3 aus ...
aber ob nun 1GHz-GDDR3@512bit oder 2GHz-GDDR5@256bit ist ja auch egal :biggrin:

Ailuros
2008-04-09, 15:36:33
Woher hast Du derart konkrete Informationen? Wie wird denn die Speicheranbindung gelöst? Welches GDDR, Taktrate, Breite?

Selbst Trash-tabloid Seiten haben schon das Zeug aufgeschnappt. 8*64/1GB fuer ultra high end und fuer's billigere Modell 7*64/896MB Speicher. Es ist mit GDDR3 (da sie von GDDR4 nichts hoeren wollen) und die Speicherfrequenz wird momentan bei 1.1GHz angegeben, aber ich behalte noch meine eigene konservativere 1GHz GDDR3 These in der Schublade bis konkreteres erscheint.

Um zusammenzufassen: bis jetzt ist folgendes herausgeleakt:

riesiger die bei 65nm (mehr sag ich noch nicht bis jemad anders die Klappe zuerst aufmacht)
[10*(3*8)]
8 ROP partitions (8*64)

Grosse und wichtige Fragezeichen:

1. Ueber was jegliche ALU genau faehig ist.
2. Ob es irgendwelche wichtige Aenderungen in der Architektur gab was die Effizienz betrifft.
3. ALU und TMU Frequenzen
4. Wie man effektiv so ein Monstrum kuehlt ;)

Gast
2008-04-09, 16:08:19
4. Wie man effektiv so ein Monstrum kuehlt ;)


Wie bisher auch. Entscheidend ist nicht der absolute Verbrauch, sondern der spezifische pro Chipfläche.

Die gelbe Eule
2008-04-09, 16:13:20
Selbst Trash-tabloid Seiten haben schon das Zeug aufgeschnappt. 8*64/1GB fuer ultra high end und fuer's billigere Modell 7*64/896MB Speicher. Es ist mit GDDR3 (da sie von GDDR4 nichts hoeren wollen) und die Speicherfrequenz wird momentan bei 1.1GHz angegeben, aber ich behalte noch meine eigene konservativere 1GHz GDDR3 These in der Schublade bis konkreteres erscheint.

Um zusammenzufassen: bis jetzt ist folgendes herausgeleakt:

riesiger die bei 65nm (mehr sag ich noch nicht bis jemad anders die Klappe zuerst aufmacht)
[10*(3*8)]
8 ROP partitions (8*64)

Grosse und wichtige Fragezeichen:

1. Ueber was jegliche ALU genau faehig ist.
2. Ob es irgendwelche wichtige Aenderungen in der Architektur gab was die Effizienz betrifft.
3. ALU und TMU Frequenzen
4. Wie man effektiv so ein Monstrum kuehlt ;)

0.8ns gibts zuweilen schon auf schnelle 9600GTs und hier taktet man fröhlich auf 1.125MHz. Kann man logischerweise dann locker auf der GT200 verbauen, bis sie da ist. Mit dem Speed auf 512-bit sollte ja einiges möglich sein, 1GB RAM vorausgesetzt.

GeneralHanno
2008-04-09, 16:22:37
vermutlich wird die GTX 1,0ns-ram bekommen und die ultra dann 0,83ns-ram ...

ob nvidia auch was an den TMUs gemacht hat? 10 cluster mit octo-TMUs wäre ja keine besondere steigerung ...

Coda
2008-04-09, 16:27:02
Die Texturleistung brauchen sie eigentlich auch nicht mehr so stark steigern im Moment.

LovesuckZ
2008-04-09, 16:44:26
ob nvidia auch was an den TMUs gemacht hat? 10 cluster mit octo-TMUs wäre ja keine besondere steigerung ...

Sie brauchen nicht mehr Texturleistung. Man sieht doch sehr schön an einer 9600GT, dass selbst 32 TMUs vollkommen ausreichend sind. nVidia sollte ihre Augenmerk klar auf die Erhöhung der Rechenleistung setzen.

Gast
2008-04-09, 17:14:05
Wird auf jedenfall ein geiles Teil. Ist eigentlich der Preis auch schon in etwa bekannt? Was denkt ihr wieviel die kosten wird?

Gast
2008-04-09, 17:22:00
550€ - 600€ für das Topmodell, wie immer.

Spasstiger
2008-04-09, 17:30:43
Ich werd das 400€-Modell holen (D10U-20 ?!), sofern es nicht so stark abgespeckt ist wie die G80 GTS gegenüber der GTX.

AnarchX
2008-04-09, 17:32:03
ob nvidia auch was an den TMUs gemacht hat? 10 cluster mit octo-TMUs wäre ja keine besondere steigerung ...
Vielleicht kann ja GT200 FP16-Texturen mit Fullspeed filtern, was dann gegenüber G80 eine Steigerung um 2.5 + Takterhöhung(?) bedeuten würde.

Aber auch so wären wohl 80 TA/TMUs mehr als genug, wenn der Chip sie entsprechend auslasten kann, was wohl bei G92 eher nicht so der Fall ist, meistens.

Ich werd das 400€-Modell holen (D10U-20 ?!), sofern es nicht so stark abgespeckt ist wie die G80 GTS gegenüber der GTX.
448-Bit/896MiB klingen ja schonmal vielversprechend, fragt sich wieviel Cluster NV hier deaktiviert und wieweit der Takt gegenüber D10U-30 gesenkt wird.

Spasstiger
2008-04-09, 17:42:48
448-Bit/896MiB klingen ja schonmal vielversprechend, fragt sich wieviel Cluster NV hier deaktiviert und wieweit der Takt gegenüber D10U-30 gesenkt wird.
Höhere Taktraten waren für mich noch nie ein Kaufgrund, solange der Rest gleich ist. Selbst ist der Mann. ;)
Ein teildeaktivierter Chip hat zudem mit einer gewissen Wahrscheinlichkeit das bessere OC-Potential (weniger Transistoren, die schalten müssen -> geringere Wahrscheinlichkeit von Metastabilität, wenn eigentlich stabile Zustände anliegen sollten -> höhere Taktraten bei gleicher Stabilität mit endlicher Wahrscheinlichkeit möglich). Aber das ist nur Wahrscheinlichkeitsrechnung, in der Praxis gibts keine Erfolgsgarantie. Wenn am PCB gespart wird, kann das OC-Potential auch deutlich schlechter ausfallen.

LovesuckZ
2008-04-09, 17:45:41
Aber auch so wären wohl 80 TA/TMUs mehr als genug, wenn der Chip sie entsprechend auslasten kann, was wohl bei G92 eher nicht so der Fall ist, meistens.


Ähm, er wird sie alleine durch die angebliche höhrere Speicherbandbreite besser ausnutzen.
Aber auch die G92 nutzen die Texturleistung aus - man muss nur die richtigen Einstellungen wählen.

Coda
2008-04-09, 17:51:19
Vielleicht kann ja GT200 FP16-Texturen mit Fullspeed filtern, was dann gegenüber G80 eine Steigerung um 2.5 + Takterhöhung(?) bedeuten würde.
Wozu? Verwendet doch eh kein Spiel und ich sehe auch keine große Verwendung dafür am Horizont, solange es keine Kompression dafür gibt.

Halte ich deshalb für äußerst unwahrscheinlich vor D3D11.

Gast
2008-04-09, 17:51:57
Ich werd das 400€-Modell holen (D10U-20 ?!), sofern es nicht so stark abgespeckt ist wie die G80 GTS gegenüber der GTX.
Zwischen G80 GTX und GTS sinds 50%, hier sinds nach den ersten Daten zu Urteilen 30%. :)

Mir macht nur sorgen, das GT200 mal wieder nur ein High-End Chip ist, mit 2 oder Versionen:
GTX: 512bit, maximaler Takt, 8 ROP Cluster ---- 550€
GTS: 448bit, gesenkter Takt, 7 ROP Cluster ---- 400€
evtl GT: 384bit, gesenkter Takt, 6 ROP Cluster ---- (wenn diese Version wirklich kommt) 320€

Dadrunter gibts nur einen geshrinkten G92, die echte Mittelklasse/Performace Karten kommen dann nächstes Jahr. :(

Spasstiger
2008-04-09, 17:54:02
Wozu? Verwendet doch eh kein Spiel und ich sehe auch keine große Verwendung dafür am Horizont, solange es keine Kompression dafür gibt.

Halte ich deshalb für äußerst unwahrscheinlich vor D3D11.
Warum gibts fp16-Filterung in einem Pass dann bei ATI seit dem R600? Wegen Firestream?

Gast
2008-04-09, 17:54:50
Ein teildeaktivierter Chip hat zudem mit einer gewissen Wahrscheinlichkeit das bessere OC-Potential
Bringt aber nichts wenn er erstmal 50% Mehrpower einholen muss. ;)
Bei der G80 GTS fehlen zudem ganze 5cm am PCB...

GeneralHanno
2008-04-09, 17:55:35
naja, wir müssen bedenken, dass nvidia für jedes PCB mit verändertem SI eine neue variante rausbringen muss (wir bei G80, GTS, GTX eben).
daher wird es hier auch nur 2 SKU varianten geben.

Spasstiger
2008-04-09, 17:57:32
Bringt aber nichts wenn er erstmal 50% Mehrpower einholen muss. ;)
Bei der G80 GTS fehlen zudem ganze 5cm am PCB...
Die G80 GTS wäre in der Tat kein gutes Beispiel für meine These. Aber eine 8600 GT z.B., die normalerweise deutlich niedriger taktet als die 8600 GTS, lässt sich auf praktisch denselben Chiptakt wie die 8600 GTS im übertakteten Zustand bringen. Nur beim Speicher gibts dann noch Differenzen, weil die 8600 GTS Speicher mit kürzeren Zugriffszeiten verwendet.

naja, wir müssen bedenken, dass nvidia für jedes PCB mit verändertem SI eine neue variante rausbringen muss (wir bei G80, GTS, GTX eben).
daher wird es hier auch nur 2 SKU varianten geben.
Man kann die Leiterbahnen des größeren PCB auch brach liegen lassen. Ein Muss ist ein neues PCB in solchen Fällen nicht, es scheint nur wirtschaftlicher zu sein.

AnarchX
2008-04-09, 17:59:01
Ähm, er wird sie alleine durch die angebliche höhrere Speicherbandbreite besser ausnutzen.

50%+ mehr ALU-Leistung hinter den TMUs dürfte wohl auch nicht ganz unerheblich für deren Nutzungsgrad sein.

Bei G8x(ohne G80)/G9x reicht ja nichtmal die ALU-Leistung um genügend Texturkoordinaten zu erzeugen um in MT-Fillrate-Tests annähernd an die theoretische Leistung zu kommen, wie andere GPUs.

Coda
2008-04-09, 18:00:22
Bitte? Texturkoordinaten werden von den Interpolatoren geliefert in diesen Tests. Da muss die ALU überhaupt nichts rechnen.

Da klemmt's wenn dann am Speicher.

AnarchX
2008-04-09, 18:06:34
Da klemmt's wenn dann am Speicher.
Tut es offensichtlich nicht, z.B. erreicht die 86GTS nur eine ~15% höhere Füllrate als die 86GT, was in etwa dem GPU-Takt-Unterschied enspricht, obwohl sie 40% mehr Bandbreite als erstere hat, die ja im Falle einer Bandbreitenlimitierung durchschlagen sollte.

Hatte die Frage damals mal im B3D gestellt und eben diese Antwort mit der mangelhaften Interpolationsleistung bekommen:
http://forum.beyond3d.com/showthread.php?t=44666

Oder liegt es gar an den Octa-TMUs?

Alle G92 und G94-SKU zeigen ja auch dieses "Problem".

Coda
2008-04-09, 18:15:01
Es waere leichter einzusehen dass ich glaube dass Crytek ihren game-code besser optimieren haette koennen. In FarCry hatte ich eine handhafte Bestaetigung dass unnoetig Resourcen verschwendet wurden und das gleiche Gefuehl gibt mir Crysis auch obwohl ich es als Laie nicht bestaetigen kann.
Die CPU limitiert doch gar nicht in Crysis. Warum sollte man dann den Gamecode optimieren? Oder meinst du die Engine?

Hatte die Frage damals mal im B3D gestellt und eben diese Antwort mit der mangelhaften Interpolationsleistung bekommen:
http://forum.beyond3d.com/showthread.php?t=44666
Ja eben. Interpolatoren sind aber nicht die normale ALU. Außerdem wird man das nicht aufbohren solange es in der Praxis nicht limitiert. Sobald auch nur eine Op zwischen zwei Texturfetches passiert limitiert da gar nichts mehr.

LovesuckZ
2008-04-09, 18:17:38
Tut es offensichtlich nicht, z.B. erreicht die 86GTS nur eine ~15% höhere Füllrate als die 86GT, was in etwa dem GPU-Takt-Unterschied enspricht, obwohl sie 40% mehr Bandbreite als erstere hat, die ja im Falle einer Bandbreitenlimitierung durchschlagen sollte.


16 TMUs und 128bit gegen 64 TMUs gegen 256bit.
Du siehst, nur weil bei der ersten Konstellation keine Bandbreitenlimitierung vorläge, muss dies nicht bei der zweiten Konstellation zutreffen.

AnarchX
2008-04-09, 18:23:16
Ja eben. Interpolatoren sind aber nicht die normale ALU.
Hmm.. da ist man bei B3D über >G80 aber anderer Meinung:
http://forum.beyond3d.com/showpost.php?p=1074126&postcount=4
bzw. scheint es da auch ein entsprechendes Paper von NV zu geben, wo die Nutzung der ALU für Interpolationsaufgaben beschrieben wird:
http://forum.beyond3d.com/showthread.php?t=31854

Diese Eigenschaft würde ja auch den Vorteil mit sich bringen, dass man bei fallender Texturlast in zukünftigen Shadern die ALUs für die höhere ALU-Last einsetzen könnte.


Außerdem wird man das nicht aufbohren solange es in der Praxis nicht limitiert. Sobald auch nur eine Op zwischen zwei Texturfetches passiert limitiert da gar nichts mehr.
Oha, da kann man das also wohl vernachlässigen.

Coda
2008-04-09, 18:32:20
Es ist nicht die normale ALU in dem Sinne dass das berüchtigte "Mul" normal die Interpolation macht und nur nebenher von der ALU genutzt werden kann wenn das nicht der Fall ist. Okay?

AnarchX
2008-04-09, 18:52:07
Es ist nicht die normale ALU in dem Sinne dass das berüchtigte "Mul" normal die Interpolation macht und nur nebenher von der ALU genutzt werden kann wenn das nicht der Fall ist. Okay?
Aber wenn dann hinter 8 TMUs 24 statt 16 MULs sitzen wäre ja auch die Interpolationsleistung höher.

16 TMUs und 128bit gegen 64 TMUs gegen 256bit.
Du siehst, nur weil bei der ersten Konstellation keine Bandbreitenlimitierung vorläge, muss dies nicht bei der zweiten Konstellation zutreffen.
Wenn man sich ein paar Werte anschaut, dann kann man bei G92 eine leichte Bandbreitenlimitierung durchaus vermuten, aber es wird nicht die Bandbreite "allein", wie du es gesagt hast, da für verantwortlich sein, dass GT200 seine 80(?) TMUs wohl besser ausnutzen kann, immerhin spielen wir ja heute nicht mehr mit Single-Texturen.;)

Nightspider
2008-04-09, 19:04:48
Was war nochmal nötig um die Leistung bei vielen Polygonen (Crysis) zu erhöhen ?

dargo
2008-04-09, 22:49:26
Fuer eine GeForce-UeberNext braucht man auch eine UeberNext-CPU um ein balanciertes System zu bauen.

Eben nicht. Selbst wenn der GT200 3x G8800GTX Leistung bietet wird ein ~3Ghz C2D immer noch nicht stark limitieren. In "very High Settings" die alleine auf GPU-Kosten gehen erst recht nicht.

Wohl keinem heute verfuegbarem; fuer 1280+AA reicht heutzutage aber auch eine 9600GT vollkommen aus.
Wenn das der Fall wäre würde mich die momentane Lage bei High-End GPUs nicht so aufregen. :wink:

Zwischen G80 GTX und GTS sinds 50%, hier sinds nach den ersten Daten zu Urteilen 30%. :)

Mir macht nur sorgen, das GT200 mal wieder nur ein High-End Chip ist, mit 2 oder Versionen:
GTX: 512bit, maximaler Takt, 8 ROP Cluster ---- 550€
GTS: 448bit, gesenkter Takt, 7 ROP Cluster ---- 400€
evtl GT: 384bit, gesenkter Takt, 6 ROP Cluster ---- (wenn diese Version wirklich kommt) 320€

Dadrunter gibts nur einen geshrinkten G92, die echte Mittelklasse/Performace Karten kommen dann nächstes Jahr. :(
Passt doch alles ganz gut ins Preissegment finde ich. Weiter gehts dann eventuell mit:

4. G92b als GTX mit ~800/2000/1100Mhz für ~250€
5. G92b als GT für ~180€
6. G92b als GS für ~140€
7. Die G9600GT bleibt für ~100€

Ailuros
2008-04-10, 05:52:32
Eben nicht. Selbst wenn der GT200 3x G8800GTX Leistung bietet wird ein ~3Ghz C2D immer noch nicht stark limitieren. In "very High Settings" die alleine auf GPU-Kosten gehen erst recht nicht.

Mit GF-Uebernext war die D3D11 Generation gemeint.

Wenn das der Fall wäre würde mich die momentane Lage bei High-End GPUs nicht so aufregen. :wink:

In wievielen Spielen ist denn eine G94 in 1280/AA unspielbar?

Was war nochmal nötig um die Leistung bei vielen Polygonen (Crysis) zu erhöhen ?

Aenderungen im Tri-setup von G8x/9x u.a.

Die CPU limitiert doch gar nicht in Crysis. Warum sollte man dann den Gamecode optimieren? Oder meinst du die Engine?

Die Engine generell; ich hab deekey nicht genau verfolgt ob er sein Beispiel dokumentiert hat, aber ich hab in dem Ding oefters das Gefuehl dass die engine aus X Grund nicht richtig unsichtbare Daten (fuer den Spieler) verwirft.

****edit:

Zwar verdammt OT, aber....

http://forum.beyond3d.com/showpost.php?p=1146517&postcount=15

Gast
2008-04-10, 10:26:16
In wievielen Spielen ist denn eine G94 in 1280/AA unspielbar?

Kommt drauf an wie viel AA man nimmt.

dargo
2008-04-10, 10:42:24
In wievielen Spielen ist denn eine G94 in 1280/AA unspielbar?

Keiner sagte was von unspielbar. Wobei das auch ein sehr dehnbarer Begriff ist. Für den einen reichen 30fps, der andere will 50fps haben. Nur mal so als Beispiel. 1280x1024 mit 4xMSAA wird mit einer G9600GT aber schon bei vielen UE3 Games eng, Stalker kann man damit auch fast vergessen.

Ailuros
2008-04-10, 10:47:00
Kommt drauf an wie viel AA man nimmt.

Eine 9600GT liegt nach den CB Tests in 1280/4xAA um 14% hinter einer 8800GT und um 28% hinter einer 8800GTX in D3D9.0. Unter D3D10 4xAA ist der Unterschied zur 8800GT nur noch bei 6%.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating_qualitaet

Keiner sagte was von unspielbar. Wobei das auch ein sehr dehnbarer Begriff ist. Für den einen reichen 30fps, der andere will 50fps haben. Nur mal so als Beispiel. 1280x1024 mit 4xMSAA wird mit einer G9600GT aber schon bei vielen UE3 Games eng, Stalker kann man damit auch fast vergessen.

Mehr oder weniger auf 8800GTS/640 Niveau wo immer MSAA ueberhaupt fehlerfrei einschaltbar ist. Ja und?

sklave_gottes
2008-04-10, 12:14:00
R4x0/NV4x = 1280
R5x0/G7x = 1600

***edit:




der R4x0 war dem NV4x was FarCry angeht überlegen. Und eher b.z.w. auf g70 nivau.

http://www.3dcenter.de/artikel/geforce_7800_gt/bench5.php

1600x1200 mit 4aa und 8af kein problem.


zum g200

Ich kann mir nicht vorstellen das man am g200 viel gegenüber g80 verändern wird. Ich denke man wird ihn gröstenteils nur vergrössern mit ein paar Optimimierungen.

Richtig neu wird erst der g100

mfg martin

Gast
2008-04-10, 12:16:28
der R4x0 war dem NV4x was FarCry angeht überlegen. Und eher b.z.w. auf g70 nivau.

[

NV4x = SM3.0 = volle Bildqualität!

sklave_gottes
2008-04-10, 12:22:42
NV4x = SM3.0 = volle Bildqualität!

der test ist von 2005.... da gab es kein sm3.0 in FarCry :-)

Gast
2008-04-10, 12:27:45
SM3.0 in Fracry gab es schon 2004.

deekey777
2008-04-10, 12:46:10
NV4x = SM3.0 = volle Bildqualität!
Halbwahr.
So lange kein HDRR verwendet wurde, zeigen R420 und NV40 die gleiche visuelle Qualität. Hätte der R420 wie der NV40 mindestens FP16-Alphablending unterstützt, wäre auch mit ihm HDRR in Far Cry möglich.
der test ist von 2005.... da gab es kein sm3.0 in FarCry :-)
Mit dem später zurückgezogenen Patch 1.2 wurden zwei weitere Renderpfade in Far Cry eingefügt und das Mitte Sommer 2004
SM3.0 in Fracry gab es schon 2004.
Das Jahr 2004 besteht aus 12 Monaten.

Ailuros
2008-04-10, 13:10:24
Das HDR Zeug in FC ist auch nur stellenweise nutzvoll; in manchen Stellen sieht es zum kotzen aus. Mehr ein Tech-preview als alles andere.

Und ja zur Verfuegbarkeit des SM3.0 Pfads; ich hatte als ich den Artikel fuer Mitrax schrieb das inoffizielle Zeug seit irgendwo Ende Juli 2004 in der Hand.

Uhmmm nebenbei reicht es nicht so langsam mit dem Crytek Zeug?

Paul Brain
2008-04-10, 14:40:39
der R4x0 war dem NV4x was FarCry angeht überlegen. Und eher b.z.w. auf g70 nivau.
[..]
1600x1200 mit 4aa und 8af kein problem.
Never. Die X800XT damals hat gerade eben so für 1600x1200 und 2xAA gereicht, mit G70 waren dann 1920x1200 4xAA 8xAF TSAA möglich. TSAA bei R420 -> Slideshow...

Egal. Ich möcht jetzt schön langsam wissen, ob im Q2 wirklich schon der GT200 kommt, oder eher nur der G92b...

AnarchX
2008-04-10, 17:11:36
http://forums.techpowerup.com/showthread.php?t=57423
:D

Die gelbe Eule
2008-04-10, 17:18:19
Muss nichts heißen, wenn es nur die Vendor ID dazu gibt.

mapel110
2008-04-10, 18:13:58
beim G80 gabs die auch etliche Monate vorher.

Ailuros
2008-04-11, 09:20:18
der R4x0 war dem NV4x was FarCry angeht überlegen. Und eher b.z.w. auf g70 nivau.

http://www.3dcenter.de/artikel/geforce_7800_gt/bench5.php

1600x1200 mit 4aa und 8af kein problem.

Nein und das weil in den kritischen Stellen wo sich zu viele Lichter anhaeuften die 8 VS des G7x schon einen Vorteil brachten; aber die ganze Debatte ist so verdammt nebensaechlich dass es langsam Zeit wird dass wir zurueck zum eigentlichen Thema kommen.


zum g200

Ich kann mir nicht vorstellen das man am g200 viel gegenüber g80 verändern wird. Ich denke man wird ihn gröstenteils nur vergrössern mit ein paar Optimimierungen.

Richtig neu wird erst der g100

mfg martin

Kommt ganz drauf an was man mit "viel" genau meint. NV4x/G7x waren quasi die ersten MIMD Experimente in echten GPUs was die VS Einheiten betrifft; bei G80 musste man die ALUs vereinigen ergo sah es danach aus als ob ein konservativerer Schritt von einer Anzahl an SIMD Einheiten mit einer externen MIMD Verbindung (ala =/>R3xx) angebrachter war.

Am letzteren wird sich IMHLO vorruebergehend nichts aenderen. Ab D3D11 kann es durchaus sein dass wir MIMD Einheiten sehen; ob diese nun wirklich vollstaendig MIMD sein werden bleibt abzusehen.

X.Perry_Mental
2008-04-11, 13:10:59
Nvidia bestätigt: "GT-200" mit 1 Milliarde Transistoren (http://www.golem.de/0804/58955.html)

AnarchX
2008-04-11, 13:18:49
"rund 1 Mrd.", nunja werden es wohl wirklich nur 80 TMUs und 240 MADD+MUL SPs sein, und wahrscheinlich noch einige kleinere Detailänderungen im Bezug auf die Effizienz.

Godmode
2008-04-11, 13:24:59
"rund 1 Mrd.", nunja werden es wohl wirklich nur 80 TMUs und 240 MADD+MUL SPs sein, und wahrscheinlich noch einige kleinere Detailänderungen im Bezug auf die Effizienz.

Dann kanns wirklich gut möglichs ein, das GT200 in 65nm gefertigt wird!

w0mbat
2008-04-11, 13:26:21
Und wieder mal hatte Fudo recht :)

Gast
2008-04-11, 13:27:38
"rund 1 Mrd.", nunja werden es wohl wirklich nur 80 TMUs und 240 MADD+MUL SPs sein, und wahrscheinlich noch einige kleinere Detailänderungen im Bezug auf die Effizienz.

Bei nur ca. 33% mehr Transistoren als bei G92 muss man fraoh sein wenn man das inkl. 512-bit SI überhaupt unterbringt.

Gast
2008-04-11, 13:28:03
Dann kanns wirklich gut möglichs ein, das GT200 in 65nm gefertigt wird!

Ist das nicht schon lange fix?

AnarchX
2008-04-11, 13:40:04
Wenn aber die herumschwirrenden Die-Sizes stimmen, dann wäre aber die Packdichte bei GT-200 wohl ziemlich schlecht oder liegt es an den Pads für das 512-Bit SI.:|

Zudem, wenn man von G9x ausgeht (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6310721&postcount=619), läge eine 10 Cluster/512-Bit SKU ja schon bei knapp über 1 Mrd. Transistoren, da bleibt dann auch nicht mehr viel übrig für zusätzliche Einheiten/Optimierungen.