Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008?


Seiten : 1 2 [3] 4 5

Ailuros
2008-02-14, 06:08:51
Hvoralek,

Nehmen wir einfach mal das Zeug dass in diversen blurbs herumschwirrt und das halbwegs Sinn machen koennte:

650*96 = 62.4 GTexels/s
384*2.0 = 2.3 TFLOPs/s

G80 =
36.8/18.4 (+70%-140%)
0.518 TFLOPs/s (+344%)

Das 650/2.0 Verhaeltnis klingt zwar etwas merkwuerdig, aber da es sich um einen richtigen Refresh handelt, kann ja auch keiner wissen was sie genau angestellt haben. Wie dem auch sei, ich erwarte tatsaechlich eine radikale Aenderung was das ALU:TEX Verhaeltnis betrifft. Es kommt natuerlich auch darauf an wie man zaehlt, aber angenommen man setzt G80 theoretisch als 2:1 an, dann wird sich es schon auf 4:1 biegen.

AnarchX,

Schliesslich soll ja GT200 primär die Leistungskrone deutlich an sich reißen und nicht die für Leistung pro Watt.

Netter Widerspruch; wie sollen sie denn das erste ohne das zweite genau erreichen? Es geht stets um Leistung/Watt und ueberhaupt im Vergleich zu ihren eigenen vorigen Produkten.

7950GX2 verbratet nach xbitlabs 110W und die 8800GTX 135W. Alle chips auf TSMC/90nm, aber auch 2*196mm2 vs. 484(+)mm2. RV770/55nm kann wohl nicht nur 192mm2 gross sein wie RV670 oder?

Gast
2008-02-14, 08:12:03
Tja, das wäre dann so ziemlich genau das ALU/TEX-Verhältnis, das AMD schon bei der R6xx-Serie hat.

robbitop
2008-02-14, 10:46:31
Egal wie das verdammte Ding am Ende genannt wird in H2 kommt 55nm.
Fudo blubberte immer wieder was von 65 nm.

G!ZMo
2008-02-14, 16:09:24
Fudo blubberte immer wieder was von 65 nm.

Fudo blubbert doch den ganzen tag (meist sinnloses) zeug ;D

robbitop
2008-02-14, 16:16:11
Fudo blubbert doch den ganzen tag (meist sinnloses) zeug ;D
Er hat aber erstaunlich oft Recht. Seine Informationsquellen scheinen schon extrem gut zu sein.
Das, was Fudo nicht richtig kann, ist diese Informationen korrekt zu interpretieren. Wenn er also etwas in diese hineininterpretiert, sind seine Schlüsse oft obsolet. Die reinen Informationen, die unineterpretiert sind, sind schon so verkehrt nicht. Natürlich haben auch seine Quellen ab und an unrecht.

Ein guter Journalist ist der Fudo in meinen Augen nicht, aber er hat halt Quellen.

AnarchX
2008-02-14, 16:21:06
Naja, Fudo schrieb aber auch dass NV ein 55nm Tapeout hinter sich hat und GT200 ein 55nm Chip ist.
Ich vermute, dass er zwischenzeitlich wohl auch die reale Die-Size gehört hat, bei der man es nicht verübeln kann, wenn man sich da Gedanken macht, dass es vielleicht doch nur 65nm ist. :D

Gosh
2008-02-14, 18:12:48
Fudo blubbert doch den ganzen tag (meist sinnloses) zeug ;D

behaupte nicht irgendwelche Lügen.

Coda
2008-02-14, 18:59:41
Tja, das wäre dann so ziemlich genau das ALU/TEX-Verhältnis, das AMD schon bei der R6xx-Serie hat.
Nope. Das ist immer noch 2x so viel Tex.

AnarchX
2008-02-14, 19:04:29
Nope. Das ist immer noch 2x so viel Tex.
Wenn man nur die MADDs berechnet.
Aber generell ist ja der Vergleich von ALU:Tex-Verhältnis zwischen einer skalaren und einer vektoriellen Architektur eh nicht so brauchbar.

GeneralHanno
2008-02-14, 20:34:42
nvidia bekennt sich zu singel-gpu:
http://www.pcgameshardware.de/aid,632367/News/Nvidia-Chef_haelt_Single-GPU-Karten_fuer_die_bessere_High-End-Loesung/

Hvoralek
2008-02-14, 20:54:37
Wenn man nur die MADDs berechnet.
Aber generell ist ja der Vergleich von ALU:Tex-Verhältnis zwischen einer skalaren und einer vektoriellen Architektur eh nicht so brauchbar.Rechnerisch komme ich auf 37 FLOPs/ Texel mit den Zahlen oben und 40 für R600/ RV670. Das sagt aber eben nichts aus, wenn die jeweilige Effizienz nicht bekannt ist. Allerdings kommt es bei G8x und R6xx gerade mal ganz gut hin mit 1 theor. FLOPS ≈ 1 theor. FLOPS.

Wobei die hohe relative Arithmetikleistung des G200 wahrscheinlich mit Blick auf Szenarien gewählt wurde, für die R600 zu langsam ist. Für dessen Lebensdauer und dessen Anwendungsgebiete war sie dennoch sehr hoch.

nvidia bekennt sich zu singel-gpu:
http://www.pcgameshardware.de/aid,632367/News/Nvidia-Chef_haelt_Single-GPU-Karten_fuer_die_bessere_High-End-Loesung/Da bringt wohl schon jemand Geschütze gegen "R700" in Stellung. Ich bin nur mal gespannt, wie sie dann ihre eigene GX2 verkaufen wollen, die mit den niedrigeren Taktraten kaum schneller werden wird als die GTX. AMD schlägt mit der X2 zumindest ihre eigenen Ein- Chip- Karten deutlich.

reunion
2008-02-14, 21:02:11
Keine 9800GX2 zur Cebit:
http://www.vr-zone.com/?i=5564

K4mPFwUr$t
2008-02-14, 21:18:09
hat nV scheinbar keinen bedarf mehr an der GX2, den das würde das interview mit dem nV chef nur bestätigen.

Hvoralek
2008-02-14, 21:21:17
hat nV scheinbar keinen bedarf mehr an der GX2, den das würde das interview mit dem nV chef nur bestätigen.Warum sollten sie die plötzlich nicht mehr brauchen? Das Interview könnte zwar ein Anzeichen sein, dass die GX2 doch noch eingestampft wird, aber ich würde dann vermuten, dass sie das unfreiwillig tun *skeptischaufkühlungschiel*

K4mPFwUr$t
2008-02-14, 21:24:55
Laut Huang mache eine Karte mit zwei GPUs nur wirklich Sinn, wenn diese dann auch absolut überragende Leistung liefert, weshalb er die Geforce 8800 GTX noch immer für die beste Grafikkarte am Markt hält, was jedoch niemanden überraschen dürfte. Die Entscheidung ob er tatsächlich dieser Ansicht ist oder damit nur indirekt Werbung für die anstehende Geforce 9800 GX2 machen will, bleibt jedoch jedem selbst überlassen.

meine vermutungen stützen sich darauf. die 3870X2 kann halt nur ihre volle leistung ausfahren wenn ein ausreichenter CF support vorhanden ist. und solange die 3870X2 nicht generell mehr leistung hat, wird die chance auf einer 9800GX2 wohl eher gering sein.

zumal die dualkarte von nV scheinbar mit vielen problemen zu kämpfen hat.
wenn sie trozdem kommen sollte, wohl eher in geringen stückzahlen.

GeneralHanno
2008-02-14, 21:34:11
hauptsache ein paar alienware-kiddys können ihre Q-sli 7900GX2 in den ruhestand schicken, weil es endlich einen würdigen nachfolger (achtung: ironie) gibt ;)

Snoopy1978
2008-02-14, 22:11:14
Laut Pcgameshardware(eigentliche Quelle ist Xbitlabs) hat sich der der Nvidia-CEO Jen-Hsung Huang kürzlich zu Singlechip im High-End Bereich bekannt und hält solche Dualchip-Grakas für Mumpitz.Vielleicht sollte er mal in die Entwicklungsabteilung gehen und denen das mitteilen damit wir von solchen Ideen verschont bleiben.

Hvoralek
2008-02-14, 23:05:29
Ein bisschen hochscrollen kann sehr hilfreich sein: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6280724#post6280724

Snoopy1978
2008-02-15, 00:08:43
Oh sorry,habe das wohl übersehen.

Coda
2008-02-15, 01:36:29
Wenn man nur die MADDs berechnet.
Nö auch so, wenn man die ALU-Effizienz in Betracht nimmt.

8800GT und 3870 nehmen sich da fast nichts und G92 hat fast 4x soviel Tex.

James Ryan
2008-02-15, 05:48:52
nvidia bekennt sich zu singel-gpu:
http://www.pcgameshardware.de/aid,632367/News/Nvidia-Chef_haelt_Single-GPU-Karten_fuer_die_bessere_High-End-Loesung/

Gott sei Dank sage ich da nur!
Das heißt für mich, dass NVIDIA auch in Zukunft lieber auf fette Single-GPUs setzen wird, und GX2 Modelle nur im absoluten Notfall releast werden.
Bezüglich der Gf 9800 GX2 bin ich mir schon nicht mehr sicher ob die überhaupt noch kommen wird!

MfG :cool:

Ailuros
2008-02-15, 06:22:06
Keine 9800GX2 zur Cebit:
http://www.vr-zone.com/?i=5564

Nvidia has told their partners not to display any GeForce 9800 GX2 cards at CeBIT so probably you won't get to see them without an NDA signed. The official launch is on March 11th and partners will receive the reference cards about a week before the launch.

Der Inhalt von dem Link oben. Jetzt erklaer mir mal genau "keine".

Gast
2008-02-15, 07:50:22
willst unbedingt zum nvidia-StefanV werden ailuros?
müssen wir jedes einzelne Wort auf die Goldwage legen?
und kein Mensch interessiert sich für eine zusammengeklebte Frickelkarte

Grestorn
2008-02-15, 08:10:28
willst unbedingt zum nvidia-StefanV werden ailuros?
müssen wir jedes einzelne Wort auf die Goldwage legen?
und kein Mensch interessiert sich für eine zusammengeklebte Frickelkarte

Toll dass Du für über 6 Milliarden Menschen sprechen kannst...

reunion
2008-02-15, 08:25:42
Der Inhalt von dem Link oben. Jetzt erklaer mir mal genau "keine".

Es sollte klar sein wie das gemeint war.

GeneralHanno
2008-02-15, 09:20:37
keine 9800GX2 für den einfachen messe pöbel ;)

MEDIC-on-DUTY
2008-02-15, 12:32:47
so siehts aus. Die GX2 wird sehr wohl auf der Messe sein, aber eben nur hinter dem Vorhang.

Back to Topic:

Im Westen nichts Neues?

Ailuros
2008-02-16, 08:12:41
willst unbedingt zum nvidia-StefanV werden ailuros?

Wer ist StefanV und wieso nennt er mich Opa? :biggrin:

müssen wir jedes einzelne Wort auf die Goldwage legen?

So lange es gegen keine Regeln verstosst, werde ich mich weiterhin so ausdruecken und verhalten wie es mir passt.

und kein Mensch interessiert sich für eine zusammengeklebte Frickelkarte

Ein analoges Publikum dass sich fuer eine R680 interessieren koennte. Das an dem GX2 nichts besonderes liegt sollte klar sein, das Problem hier ist eher Deine eher grundlose Aufregung.

Rampage 2
2008-02-20, 19:18:53
Also ich spekuliere mal folgendes:

- 55nm Fertigungstechnik (dürfte wohl sicher sein)
- 1.5++ Mrd. Transistoren
- DX10.1
- 32 Pixel-Pipelines
- 96 Texel-Pipelines
- 512 Shader-Prozessoren
- 512 Bit SI
- 700MHz Chiptakt (22.4 Gpixel/67.2 Gtexel/sec.)
- 2.0GHz Shadertakt (= 3.0 Teraflops/sec.)
- 1GB 2.0GHz* (mindestens) GDDR5 RAM (= 256GB/sec. SB)

*= Selbst 3.0GHz reicht bei 256Bit SI nicht aus, und außerdem wird diese Taktrate nicht sofort zur Verfügung stehen, maximal 2.5 GHz und mit 384Bit SI reicht das auch nicht aus (= 240GB/sec. SB - also zuwenig)

bitte diese daten korrigieren!

dargo
2008-02-20, 19:24:01
256GB/s Bandbreite? :|

Schau dir mal die Bandbreite des G71 und G80 an und vergleiche dann den Leistungszuwachs beim G80. Nein, an so eine hohe Bandbreite glaube ich beim GT200 auf keinem Fall. Eher im Bereich von ~140-160GB/s würde ich sagen.

Rampage 2
2008-02-20, 19:50:49
Der G80 ist im Schnitt nur doppelt so schnell wie der G71. GT200 soll aber 3x so schnell sein!

Gast
2008-02-20, 19:56:45
Ist das mit dem 512 BIT SI jetzt eigentlich schon so gut wie sicher ? Oder bleibt das SI so wie bei der 8800er reihe?

dargo
2008-02-20, 19:59:55
Der G80 ist im Schnitt nur doppelt so schnell wie der G71. GT200 soll aber 3x so schnell sein!
Der G80 ist je nach Game zwischen 2,5 und 4 mal so schnell wie ein G71 bei unter 70% mehr Bandbreite.

K4mPFwUr$t
2008-02-20, 20:24:51
zumal der GT200 eine US architektur hat, sowas wie pixelpipes gibt es nicht mehr.
jeder einheit kann sowohl pixel als auch vertex.

Gosh
2008-02-20, 21:03:01
Der G80 ist im Schnitt nur doppelt so schnell wie der G71. GT200 soll aber 3x so schnell sein!

ja,in 3xxx Auflösung mit Superduper AA ;D

Grestorn
2008-02-20, 21:04:54
ja,in 3xxx Auflösung mit Superduper AA ;D

Naja, wenn man davon spricht, wieviel GPUs schneller sind, dann normalerweise auch hauptsächlich in Bereichen in denen nicht die CPU limitiert...

AnarchX
2008-02-20, 21:21:08
ja,in 3xxx Auflösung mit Superduper AA ;D
Du solltest solche Kommentare besser unterlassen, immerhin ist es ja nicht das erste mal, dass du mit solchem provokativen und nicht wirklich sinnvollen "Spam" auffällst:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6257996#post6257996
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6250731#post6250731
...
:wink:
Mittlerweile sollte dir ja der Unterschied zwischen GPU- und CPU- Limitierung klar sein oder?

Snoopy1978
2008-02-20, 21:25:38
Ich deute die 32 Pixelpipelines und die 96 Texelpipelines mal in 32 ROPs und 96 TMUs um.
Aber 512 Shaderprozessoren wären vielleicht etwas zuviel geschätzt.

Ailuros
2008-02-20, 21:38:47
Also ich spekuliere mal folgendes:

- 55nm Fertigungstechnik (dürfte wohl sicher sein)

Hoechstwahrscheinlich ja.

- 1.5++ Mrd. Transistoren

Klingt nach einem doppelten G92.


- 32 Pixel-Pipelines
- 96 Texel-Pipelines

Nett abgeschrieben; kein weiterer Kommentar.

- 512 Shader-Prozessoren

...und der Spass soll nicht nur auf 2.0 GHz getaktet sein sondern noch in 1.5 B Transistoren passen? ALUs lassen sich nicht wie jpegs komprimieren.

- 512 Bit SI
- 1GB 2.0GHz* (mindestens) GDDR5 RAM (= 256GB/sec. SB)

Wenn es 8*64 sein wird, dann ist GDDR5 ueberfluessig. Es ist entweder breiter Bus mit GDDR3 oder eine kleinere Breite mit GDDR5; pick your poison.

*= Selbst 3.0GHz reicht bei 256Bit SI nicht aus, und außerdem wird diese Taktrate nicht sofort zur Verfügung stehen, maximal 2.5 GHz und mit 384Bit SI reicht das auch nicht aus (= 240GB/sec. SB - also zuwenig)

Diese Schlussvolgerung kommt genau woher? Rechne mal aus wie sich floating point power und Transistoren-Anzahl im Vergleich zur Bandbreite skaliert haben fuer die letzten paar Generationen an GPUs, dann ist die Anwort einfacher.

Gast
2008-02-20, 22:00:07
Der G80 ist je nach Game zwischen 2,5 und 4 mal so schnell wie ein G71 bei unter 70% mehr Bandbreite.

Dann müsste man doch jetzt erst recht so langsam mal die Bandbreite stark erhöhen, denn man kann die Effizienz der Bandbreitennutzung ja nicht endlos immer wieder stark verbessern!?!

nomadhunter
2008-02-20, 22:50:11
Dann müsste man doch jetzt erst recht so langsam mal die Bandbreite stark erhöhen, denn man kann die Effizienz der Bandbreitennutzung ja nicht endlos immer wieder stark verbessern!?!
Schon mal daran gedacht, dass bei neueren Spielen die arithmetische Leistung immer wichtiger im Vergleich zur Bandbreite werden könnte? Der Trend ist doch schon seit Jahren zu beobachten. Selbst mit Effizienzsteigerung haben heutige Karten wesentlich weniger Bandbreite pro Rechenleistung als alte Karten.

K4mPFwUr$t
2008-02-21, 00:26:00
allerdings ist nur arithmetische leistung keine garantie auf gute spielperformance, siehe R600. sehr viel arithetische leistung, aber im spiel merkt man nicht viel davon. der mix macht es halt.

Ailuros
2008-02-21, 06:02:50
allerdings ist nur arithmetische leistung keine garantie auf gute spielperformance, siehe R600. sehr viel arithetische leistung, aber im spiel merkt man nicht viel davon. der mix macht es halt.

R600=

64 ALUs * 10 FLOPs * 0.742GHz = 475GFLOPs/s
825MHz@512bit = 105.6 GB/s

G80=

128 ALUs * 3 FLOPs * 1.35GHz = 518GFLOPs/s
900MHz@384bit = 86.4 GB/s

RV670=

496GFLOPs/s
72.0GB/s

G92 (GTS 512)=

624GFLOPs/s
62.1GB/s

Wieso verhungert die RV670 nicht an Bandbreite sondern ist rundum effizienter und schneller als R600?

Das die Mischung hier am wichtigsten ist stimmt schon, denn ich hab ja auch die Fuellraten oben weggelassen. Wenn die arithmetische Leistung aber hypothetisch auf einem zukuenftigen chip um sagen wir mal 3x steigert, die Fuellraten aber um einiges weniger als ein Faktor 3 dann braucht man auch keine Uebermenge an Bandbreite. Wir brauchen balancierte chips die nicht an Bandbreite verhungern und nicht dekorativen Mist auf GPUs den der Verbraucher nur unnoetig bezahlen muss.

IHVs werden sich sowieso an Spiele wie Crysis und all das was weitere zukuenftige Spiele vorraussetzen konzentrieren.

Botcruscher
2008-02-21, 11:27:11
R600 ist ein ganz schlechtes Beispiel. Man könnte auch fragen was ATI eigentlich mit dem 512Bit Speicherinterface vor hatte. Bei G92 sieht man ja das irgendwann der Speicher zum Problem wird. Zwar aus diversen Gründen aber es ist nunmal da.

Ailuros
2008-02-21, 14:42:40
R600 ist ein ganz schlechtes Beispiel. Man könnte auch fragen was ATI eigentlich mit dem 512Bit Speicherinterface vor hatte.

FP16 Filterung zum groessten Teil. Zwar hatten die Entwickler einen Hirndefekt sich auf das Zeug zu konzentrieren, man braucht fuer den Mist aber schon eine Unmenge an Bandbreite.

Bei G92 sieht man ja das irgendwann der Speicher zum Problem wird. Zwar aus diversen Gründen aber es ist nunmal da.

Obere High end GPUs der naechsten Generation werden wohl schwer nur 512MB an Speicher haben.

robbitop
2008-02-21, 17:17:47
FP16 Filterung zum groessten Teil. Zwar hatten die Entwickler einen Hirndefekt sich auf das Zeug zu konzentrieren, man braucht fuer den Mist aber schon eine Unmenge an Bandbreite.

Meinst du nicht eher FP16-Blending und einen FP16-Framebuffer?

Hvoralek
2008-02-21, 17:22:38
Meinst du nicht eher FP16-Blending und einen FP16-Framebuffer?Mit Blick darauf kann man wohl kaum von einem "Hirndefekt" sprechen. Wenn ATI auf FP16- Filterung gesetzt hat (Danach sehen auch die TMUs aus), war das aber das völlig falsche Pferd.

robbitop
2008-02-21, 17:27:26
Mit Blick darauf kann man wohl kaum von einem "Hirndefekt" sprechen. Wenn ATI auf FP16- Filterung gesetzt hat (Danach sehen auch die TMUs aus), war das aber das völlig falsche Pferd.
Es ging in dem Zusammenhang aber um das 512-bit-SI. Texturen in die Caches zu laden ist ja weniger kritisch. Auch bei fp16. Da wird ja konstant nur gelesen. Die fragmentierten und stetigen reads/writes des Framebuffers sind eher die großen Verbraucher.

Ailuros
2008-02-21, 18:00:41
Meinst du nicht eher FP16-Blending und einen FP16-Framebuffer?

U.a. auch; es gibt auch anderen Quark fuer den sie die Bandbreite gebraucht haette wie z.B. anstaendigere Leistung beim edge detect custom filter. Das Ding hat schon seine Vorteile, nur werden sie sich leider nicht fuer die Lebenszeit der R6x0/7x0 Familien beweisen koennen.

AnarchX
2008-02-21, 20:55:31
NV wird wohl mit GT2x0 ein neues Schema für die Endkundennamen einführen:
GeForce D/M+8/6/3+(80)/60/40 (80 ist nur für die 800er-Serie)

Also wohl GeForce D880 für den schnellsten GT200. Generationen fallen damit wohl weg. :|

Der_Korken
2008-02-21, 21:17:23
NV wird wohl mit GT2x0 ein neues Schema für die Endkundennamen einführen:
GeForce D/M+8/6/3+(80)/60/40 (80 ist nur für die 800er-Serie)

Also wohl GeForce D880 für den schnellsten GT200. Generationen fallen damit wohl weg. :|

Klingt zunächst ähnlich wie das Namensschema der HD3xxx-Reihe. Nur was mit der nächsten Generation passiert, sieht man da noch nicht.

Hvoralek
2008-02-21, 21:21:20
NV wird wohl mit GT2x0 ein neues Schema für die Endkundennamen einführen:
GeForce D/M+8/6/3+(80)/60/40 (80 ist nur für die 800er-Serie)

Also wohl GeForce D880 für den schnellsten GT200. Generationen fallen damit wohl weg. :|Und wenn ein Nachfolger kommt, heißt der einfach genau so? Findet man dann auf Ebay etwa eine "Geforce 640 vom Mai 2009"? ;D

Zumindest würde das dem Massenmarktglauben, im Elektronikbereich sei Neueres automatisch besser, entgegenkommen.

Und was ist mit Chipnamen? Hat dieses "T" in GT200 einen Sinn oder ist das einfach so da und danach geht es normal mit G100 weiter?

AnarchX
2008-02-21, 21:28:46
Wofür das "T" steht sollte doch klar sein.;) -> ten

Vielleicht sieht es ja dann so aus:
GT200 - D800
GT100 - D600
GT50 - D300

Aber vielleicht schiebt ja NV nach dem GeForce doch noch die Generation ein: GeForce 10 D880.

Ansonsten wäre das ja eine konsequente Fortsetzung von dem, was man mit G92 als 8800 begonnen hat.;D

robbitop
2008-02-21, 23:43:44
U.a. auch; es gibt auch anderen Quark fuer den sie die Bandbreite gebraucht haette wie z.B. anstaendigere Leistung beim edge detect custom filter. Das Ding hat schon seine Vorteile, nur werden sie sich leider nicht fuer die Lebenszeit der R6x0/7x0 Familien beweisen koennen.
Edge Detect ist eine sehr geniale Idee. Wenn's nur nicht über die ALUs laufen würde. Aber groß Bandbreite braucht das nicht. Es muss eigentlich nur der Framebuffer nocheinmal eingelesen werden und nur der Teil (Die Kanten) nochmal abschließend geschrieben werden. Das sollte im Burst und halt nur einmal pro Bild sein. Im Vergleich zu dem, was sonst auf dem Framebuffer passiert, ist das vermutlich kaum erwähnenswert. :)
Das könnte man auch mit CSAA kombinieren. Könnte der G80 auch.
Allerdings ist ja irgendwann auch mal eine Schwelle erreicht, an der man den Vorteil nicht mehr sieht. :D

Ailuros
2008-02-22, 05:57:50
Wofür das "T" steht sollte doch klar sein.;) -> ten

Vielleicht sieht es ja dann so aus:
GT200 - D800
GT100 - D600
GT50 - D300

Aber vielleicht schiebt ja NV nach dem GeForce doch noch die Generation ein: GeForce 10 D880.

Ansonsten wäre das ja eine konsequente Fortsetzung von dem, was man mit G92 als 8800 begonnen hat.;D

Ich hab's aufgegeben mit dem Codenamen-Wirrwarr. Ich hoerte von einem "G200" und die Treiber sollen nur "G1x0" enthalten.

Ailuros
2008-02-22, 06:01:19
Edge Detect ist eine sehr geniale Idee. Wenn's nur nicht über die ALUs laufen würde. Aber groß Bandbreite braucht das nicht. Es muss eigentlich nur der Framebuffer nocheinmal eingelesen werden und nur der Teil (Die Kanten) nochmal abschließend geschrieben werden. Das sollte im Burst und halt nur einmal pro Bild sein. Im Vergleich zu dem, was sonst auf dem Framebuffer passiert, ist das vermutlich kaum erwähnenswert. :)
Das könnte man auch mit CSAA kombinieren. Könnte der G80 auch.
Allerdings ist ja irgendwann auch mal eine Schwelle erreicht, an der man den Vorteil nicht mehr sieht. :D

Kommt auf die Anzahl der samples an; normalerweise sollte 12x edge detect um einiges billiger sein als 16xCSAA; 24x aber wohl nicht.

robbitop
2008-02-22, 10:51:44
Kommt auf die Anzahl der samples an; normalerweise sollte 12x edge detect um einiges billiger sein als 16xCSAA; 24x aber wohl nicht.
Coverage Samples kosten kaum Bandbreite. Allerdings läuft der Kram ja nicht am Ende nur einmal ab sondern halt bei jedem Framebufferzugriff. Ich denke beide Verfahren sind sehr günstig. Wobei ich von edge detect CFAA deutlich mehr halte. Es ist eben kein box-filter mehr.
Allerdings ist es über die ALUs anscheinend ziemlich teuer.

Ailuros
2008-02-23, 01:41:57
Coverage Samples kosten kaum Bandbreite. Allerdings läuft der Kram ja nicht am Ende nur einmal ab sondern halt bei jedem Framebufferzugriff. Ich denke beide Verfahren sind sehr günstig. Wobei ich von edge detect CFAA deutlich mehr halte. Es ist eben kein box-filter mehr.
Allerdings ist es über die ALUs anscheinend ziemlich teuer.

Coverage sampling laeuft nicht ohne Multisampling; waehrend der CSAA Anteil tatsaechlich relativ wenig an VRAM und Bandbreite vergleichsmaessig kostet, bleiben stets die Unkosten fuer den Multisampling Anteil. 16xQ kann bis zu 85% Verlust fuehren, nicht nur wegen dem 8x MSAA Anteil, sondern auch weil man auch an die 20 depth tests fuer den Modus braucht. Im Durchschnitt duerfte der Verlust fuer 24x edge detect in etwa auf dem 16xQ Niveau liegen.

Mit 12xMSAA haette man nicht unbedingt schlechtere Leistung als bei beiden und zumindest im Vergleich zu 16xQ nicht unbedingt mehr in Transistoren dafuer verbraten.

Wer von den beiden als erster MSAA+custom filter+coverage sampling implementiert wird wohl einen Ass im Aermel haben. Ich hab ueberhaupt nichts gegen custom filter, so lange sie mir nicht das gesamte Bild unnoetig verschmieren. Ja zu den edge-detect modi, pfui Teufel zu dem Tent filter Mist oder jegliche Quincunx artige Erfindung.

robbitop
2008-02-23, 10:26:01
Coverage sampling laeuft nicht ohne Multisampling;
Edge Detect CFAA auch nicht. Was meinst du, woran die Kanten als Kanten erkannt werden? ;)



Wer von den beiden als erster MSAA+custom filter+coverage sampling implementiert wird wohl einen Ass im Aermel haben. Ich hab ueberhaupt nichts gegen custom filter, so lange sie mir nicht das gesamte Bild unnoetig verschmieren. Ja zu den edge-detect modi, pfui Teufel zu dem Tent filter Mist oder jegliche Quincunx artige Erfindung.
Ich weiß nicht, ob beides zu kombinieren, soviel Sinn ergibt. Denn es greift recht schnell das Gesetz des sinkenden Grenzertrags.

Ailuros
2008-02-23, 10:45:20
Edge Detect CFAA auch nicht. Was meinst du, woran die Kanten als Kanten erkannt werden? ;)

Sowohl 16xQ als auch 24x edge detect haben 8xMSAA. Das genau meinte ich auch in meinen vorigen Posts. Entschuldige die Haarspalterei, aber das was der Verbraucher unter CSAA einschalten kann (8x, 16x, 16xQ) kostet mit steigender Tendenz an Leistung.

Ich weiß nicht, ob beides zu kombinieren, soviel Sinn ergibt. Denn es greift recht schnell das Gesetz des sinkenden Grenzertrags.

We think it's likely that we'll see AMD experiment with different filters over the lifetime of their current product generation, before taking the concept to their next GPU architecture generation. They can't really abandon it, even if you argue it has only come around as a result of a disabled ROP resolve path, as we do.

That it might be a result of a hardware limitation elsewhere in the chip is somewhat serendipitous for all concerned, though. Combine non-box down-filtering with better subpixel coverage determination and you get AA image quality that increases another step over what we've got already, so it's likely that's going to happen across the board. The programmable AA down-filter will become a fast path in all consumer hardware in due course.

How to build that in hardware? It seems like a reasonable evolution of current approaches to us, but we'll certainly leave it to the experts! Hardware engineers will thus read this and shake their fists at the screen, but when we think about increasing post-filter AA quality in a modern graphics processor, better subpixel coverage determination and better-than-box filtering is what comes to mind.

Was den Kleinkram Markt betrifft sieht es bei der OGL-ES2.0 Generation eigentlich vielversprechend aus. IMG hat programmierbares MSAA mit custom filter, NVIDIA hat CSAA und AMD bleibt noch ein Fragezeichen bis mehr ueber den "Mini-Xenos" bekannt ist. Zumindest BB hatten einen coverage sampling Algorithmus entwickelt ;)

AnarchX
2008-02-28, 18:28:51
Exklusive GT200-Einblicke aus XFXs RnD-Lab in Indien:

http://img167.imageshack.us/img167/1836/gt200ss4f8ba6f8fn8.jpg
Responding to the PM the resolution is 2560x1600
http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2160045&enterthread=y

:D
Samples müsste theoretisch schon unterwegs sein, jedoch wäre die hohe Leistung und "GDDR-ATi" doch unglaubwürdig.

edit:
Laut Screenshot wohl doch eher 1280x1024, was den Leistungspunkt wieder relativieren würde.

Gast
2008-02-28, 18:57:48
Genau wie die GF9800@G92 ist diese Generation auch "nur" mit 512 MB VRam als referenz bestückt ? Was ist da nur los ?

Gast
2008-02-28, 19:02:26
Vielleicht bauen die bei Nvidia durch die Übernahme von Ageia PhysX fix nochmal eine PhysX PPU in die GPU ein.

OK, das war Ironie... Das wäre wohl in absehbarer Zeit so schnell realisierbar, aber vielleicht hat die Übernahme die eigentlichen Pläne von Nvidia dennoch etwas über den Haufen geworfen und hat damit zu tun, in wie weit die Produktlinie nun aufgebaut wurde.

MfG

Gast
2008-02-28, 19:10:54
Ich würde nicht davon ausgehen, dass GPU-Z da etwas sinnvolles anzeigt.

Gast
2008-02-28, 19:18:55
Schon klar, aber die Speichermenge wird es doch richtig auslesen oder ?

Der_Korken
2008-02-28, 19:42:29
Schon klar, aber die Speichermenge wird es doch richtig auslesen oder ?

Ich würde mich nicht drauf verlassen.

Wenn das wirklich 2560x1600 waren, dann :up:

Man sollte eventuell noch berücksichtigen, dass der Chip noch nicht fertig sind und die Treiber dafür erst recht noch nicht.

w0mbat
2008-02-28, 21:01:08
Also, um ehrlich zu sein schreit das nach Fake - aber man weiß ja nie.

Spasstiger
2008-02-28, 21:06:22
In 1280x1024 erwarte ich ehrlichgesagt deutlich über 20k. Eher 25k.
/EDIT: Wobei die CPU hier auch etwas "schwachbrüstig" ist, nur 2,66 GHz.
Für 2560x1600 wären 16600 Punkte aber ganz schick.

w0mbat
2008-02-28, 21:25:41
Die CPU-Score ist für 2,66GHz doch zu hoch, oder? Vergelicht mal mit div. Benchthreads.

GeneralHanno
2008-02-28, 21:32:55
engenier samples werden meist mit weniger (oder langsamen) speicher besetzt. daher könnte die finale version sicherlich 1GiB haben ...

Gast
2008-02-28, 21:41:20
In 1280x1024 erwarte ich ehrlichgesagt deutlich über 20k. Eher 25k.
/EDIT: Wobei die CPU hier auch etwas "schwachbrüstig" ist, nur 2,66 GHz.
Für 2560x1600 wären 16600 Punkte aber ganz schick.


für die 2,66 ghz wäre das auch schon ziemlich gut, da er extem cpu limitiert ist.

dargo
2008-02-28, 22:36:52
Exklusive GT200-Einblicke aus XFXs RnD-Lab in Indien:

http://img167.imageshack.us/img167/1836/gt200ss4f8ba6f8fn8.jpg

http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2160045&enterthread=y

:D
Samples müsste theoretisch schon unterwegs sein, jedoch wäre die hohe Leistung und "GDDR-ATi" doch unglaubwürdig.

edit:
Laut Screenshot wohl doch eher 1280x1024, was den Leistungspunkt wieder relativieren würde.
Wenn der GT200 wirklich die Performance bieten wird die alle erwarten ist die Wahl des 3DMark06 (und dann noch mit einem 2,66Ghz Quadcore) selten dämlich. Das Ding dürfte extrem am CPU-Limit hängen.

crux2005
2008-02-28, 22:48:07
da wurde aber mit einer älterer version von 3Dmar06 gebencht

Gast
2008-02-28, 23:19:03
Das doch Fake oder. Bisher haben wir noch nie ein 3DMark eines Engineering Sampels gesehen.
Außerdem wären Leaks vom Vantage oder von Crysis Benches sehenswert, in allem anderen wird die Karte doch nur ausgebremmst ;)

Ailuros
2008-02-29, 05:16:50
engenier samples werden meist mit weniger (oder langsamen) speicher besetzt. daher könnte die finale version sicherlich 1GiB haben ...

Nicht nur. ISVs bekamen in der Vergangenheit quasi "7800GT" oder "8800GTS".

MEDIC-on-DUTY
2008-02-29, 14:32:42
Ganz klar ein Fake. Sollte hier nicht auch gleich GDDR5 an den Start gehen?

G!ZMo
2008-02-29, 15:11:54
Ganz klar ein Fake. Sollte hier nicht auch gleich GDDR5 an den Start gehen?

wer sagt dir denn, dass gpu-z den speichertyp richtig erkennt? :rolleyes:

Snoopy1978
2008-02-29, 15:24:37
So was gabs in der Vergangenheit schon öfter,ich habe schon Screenshots von Ati X900XT(die spätere X1800XT) gesehen.Das werden sich wohl irgendwelche Scherzkekse "zusammengebastelt haben".

crux2005
2008-02-29, 16:40:04
Gefälschte Benchmarks zum „GT200“ im Umlauf @ CB.de ("http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/februar/gefaelschte_benchmarks_gt200_umlauf"/)

Gast
2008-02-29, 16:50:26
Logisch oder wieso sollte man jede Bezeichung des Chips zensieren?

derguru
2008-02-29, 16:56:20
naja ich find die werte eigentlich jetzt auch nicht so den bringer oder besser gesagt die werte wären aufjedenfall keine überraschung.ich find sogar die werte eigentlich schwach.über den r700 sagt man ja auch in etwa 4 fache leistung einer 3870 so würde man in dem bereich in etwa liegen.

also furz egal was da steht vorallem dauerts eh noch bis die rauskommen.

Ailuros
2008-03-01, 07:32:22
Fuer die angebliche 4-fache Leistung wird spezifisch STALKER erwaehnt fuer "R7x0". Ich kann mir gut vorstellen dass 2*RV770 im Fall von Stalker schneller sein koennte als GF-Next; das dumme ist eigentlich nur dass die Stalker engine stark veraltet ist.

Ob die Werte jetzt echt sind oder nicht (eher das zweite) duerfte doch scheissegal sein; 3dmark06 ist sowieso seit langem schon nicht mehr besonders relevant.

Naechster Generation GPUs werden sich eher in Spielen wie Crysis behaupten muessen (obwohl ich persoenlich nicht besonders viel von dem Zeug halte). Ein Problem dass vielleicht diese GPUs haben werden ist dass keine besonders berauschenden AAA Spiele-Titel in H2 2008 erscheinen werden.

Gosh
2008-03-01, 12:33:35
das dumme ist eigentlich nur dass die Stalker engine stark veraltet ist.

.


Warum sollte sie veraltet sein,es ist alles andere als veraltet.Weil man nicht irgend einen Shader benutzt oder weil es keine möchtegern dynamische Schatten drin hat ? Die Optik und das Gameplay überzeugt mich mehr als Crapsis von Craptek.

deekey777
2008-03-01, 13:56:59
Warum sollte sie veraltet sein,es ist alles andere als veraltet.Weil man nicht irgend einen Shader benutzt oder weil es keine möchtegern dynamische Schatten drin hat ? Die Optik und das Gameplay überzeugt mich mehr als Crapsis von Craptek.
Warum schreibst du in diesem Forum?

Hvoralek
2008-03-01, 14:04:55
Fuer die angebliche 4-fache Leistung wird spezifisch STALKER erwaehnt fuer "R7x0". Ich kann mir gut vorstellen dass 2*RV770 im Fall von Stalker schneller sein koennte als GF-Next; das dumme ist eigentlich nur dass die Stalker engine stark veraltet ist.Vierfache RV670- Leistung in Stalker wäre immer noch klar weniger als dreifache G80- Leistung :wink:

Warum schreibst du in diesem Forum?Ej, is doch voll 1337 hier, Mann :ugly:

Ich bin nicht mal unglücklich über Gosh. Da wird einem mal wieder klar, was man an manchen anderen Leuten hat.

dargo
2008-03-01, 15:48:46
Warum sollte sie veraltet sein,es ist alles andere als veraltet.Weil man nicht irgend einen Shader benutzt oder weil es keine möchtegern dynamische Schatten drin hat ? Die Optik und das Gameplay überzeugt mich mehr als Crapsis von Craptek.
Zum ersteren sage ich lieber nichts. Zum zweiteren - ich wusste gar nicht, dass Grafikkarten Einfluss aufs Gameplay haben. :D

reunion
2008-03-01, 17:02:38
Vierfache RV670- Leistung in Stalker wäre immer noch klar weniger als dreifache G80- Leistung :wink:


Nur bezog sich die 4-fache Leistung nicht nur auf Stalker.

Hvoralek
2008-03-02, 00:48:31
Nur bezog sich die 4-fache Leistung nicht nur auf Stalker.Fuer die angebliche 4-fache Leistung wird spezifisch STALKER erwaehnt fuer "R7x0".Ja, was denn nun? :confused:

GeneralHanno
2008-03-02, 18:33:20
WIe schätzt ihr eigentlich die Möglichkeit ein, dass beim GT200 das G80 Prinzip (Core- und Shadertakt getrennt) weiterentwickelt wird ? Also z.B. ein Shader, TMU, ROP und introduktion (triangle-setup usw) takt.

Immerhin sind in meinen augen beim G80 TMU und shader wesentlich "enger" verknüft (ein cluster eben) als die ROPs mit einem rendercluster. also wenn man TMU und shader getrennt takten kann, warum dann nicht auch andere komponenten?

nachtrag: kann man eigentlich verallgemeinert sagen (ich weis dass das immer schlecht ist), dass die TMU die "taktkritischste einheit", also das "schwächste glied der kette" sind ???

Ailuros
2008-03-03, 05:08:17
Vierfache RV670- Leistung in Stalker wäre immer noch klar weniger als dreifache G80- Leistung :wink:

Der Abstand zwischen G8x/9x und R6xx/RV6x0 wird noch groesser sobald AF ins Spiel kommt. Ich weiss zwar bis jetzt nicht wieviel NV an der MRT bzw. HDR Leistung genau drehen koennte, aber die jeweiligen Fuellraten erwarte ich nicht dass sie sich um einen Faktor 3x steigern werden.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/16/#abschnitt_stalker

Ailuros
2008-03-03, 05:11:33
Nur bezog sich die 4-fache Leistung nicht nur auf Stalker.

Alles aber direkt mit hoeheren Fuellraten verbunden.

Ailuros
2008-03-03, 05:22:48
WIe schätzt ihr eigentlich die Möglichkeit ein, dass beim GT200 das G80 Prinzip (Core- und Shadertakt getrennt) weiterentwickelt wird ? Also z.B. ein Shader, TMU, ROP und introduktion (triangle-setup usw) takt.

Immerhin sind in meinen augen beim G80 TMU und shader wesentlich "enger" verknüft (ein cluster eben) als die ROPs mit einem rendercluster. also wenn man TMU und shader getrennt takten kann, warum dann nicht auch andere komponenten?

Es sind mehr als nur 2 clock domains auf G80. Je groesser die Anzahl der domains und je groesser der Unterschied in Frequenz zwischen diesen desto komplizierter wird die Entwicklung. G8x/9x ALU clock domains haben einen fetten Batzen an Handarbeit und zusaetzlicher Logik um so hohe Frequenzen zu erreichen.

nachtrag: kann man eigentlich verallgemeinert sagen (ich weis dass das immer schlecht ist), dass die TMU die "taktkritischste einheit", also das "schwächste glied der kette" sind ???

TMU/ROPs sind bis jetzt unter den empfindlichsten Einheiten einer GPU. Wenn Du verdammt vereinfacht diese zwei aus dem Design entfernst hast Du dann ja praktisch eine CPU und koenntest das Ganze verdammt hoeher takten.

Eine Idee fuer die weniger absehbare Zukunft waere alles texturing in die ALUs zu schieben und alles render output in den Speichercontroller. Ich hab aber den Verdacht dass es etwas mit dem ersten dauern koennte, bis ALUs um einiges staerker werden. Was ich nicht weiss oder wissen kann bis jetzt ist ob und wieviel fixed function HW fuer so eine Loesung benoetigt. Falls ja wuerde es mich nicht wundern wenn man hier trotz allem doch noch eine clock-divider brauchen wuerde.

Cyphermaster
2008-03-03, 12:05:33
Lieber Ailuros - bitte achte in Zukunft darauf, keine Reihen-Postings zu fabrizieren, sondern fasse sie zu 1-2 Posts sinnig zusammen. Danke.

AnarchX
2008-03-07, 12:11:05
Einer der Boardpartner von NVIDIA hatte uns vor ein paar Tagen dringend geraten dieses Jahr auch die Computex im Juni 2008 zu besuchen. Gründe dafür wollte man uns nicht nennen - er sei zur Verschwiegenheit verpflichtet. Nichts desto trotz würden die geplanten Ereignisse wohl von Bedeutung sein. Gestern erfuhren wir von einem Insider dann Näheres und auch unglaubliches. NVIDIAs GT200 Chip sei fertig und solle in drei Monaten das Licht der Welt erblicken.
http://www.ht4u.net/news/1488_cebit_nvidia_bringt_bald_den_gt200_in_den_markt

Anarchy-HWLUXX
2008-03-07, 12:21:30
Hört sich geil an ;D

Ein anderer Partner erklärte uns kopfschüttelnd, dass NVIDIA momentan offenbar soviel "in der Schublade" liegen habe, dass Neuvorstellungen und Präsentationen vorgenommen werden könnten, wann sie wollten. Man sei letztenendes nicht sicher, was ein R700 wirklich zu leisten im Stande sei - man sei eben auf Überraschungen vorbereitet.

dargo
2008-03-07, 12:39:37
http://www.ht4u.net/news/1488_cebit_nvidia_bringt_bald_den_gt200_in_den_markt
Endlich! :up:

Gast
2008-03-07, 12:42:32
Wie genau will man jetzt die 9800er an den Mann und die Frau bringen? :confused:

Für die neue Serie gibt es doch so schon kaum Argumente, wenn jetzt der übermächtige Nachfolger schon am Horizont auftaucht, brauch man außer vielleicht der GX2 doch garnichts mehr launchen.

Gast
2008-03-07, 12:46:13
Hört sich geil an ;D


Ne, hört sich sch*** an. Abwarten und die Latte ein klein wenig höher legen. Gefällt mir nicht, so ne Taktik, und Dir bei näherer Betrachtung sicher auch nicht.

Gast
2008-03-07, 12:51:37
Wie genau will man jetzt die 9800er an den Mann und die Frau bringen? :confused:

Über den Preis! 9800er alle unter 250-300€, und die ganz neue Generation bei ~450-600€ zu Beginn! ;)

Armaq
2008-03-07, 12:52:29
Hört sich geil an ;D
Es kann auch nur so sein. Nvidia ist jetzt allein gegen 2 Giganten. Ihren Vorsprung durch Faulheit einzuschmelzen, kann keine Option sein. Egal was AMD bringt, NV muss eine Antwort haben.
Alles andere wäre nicht akzeptabel.

Anarchy-HWLUXX
2008-03-07, 13:02:41
Ne, hört sich sch*** an. Abwarten und die Latte ein klein wenig höher legen. Gefällt mir nicht, so ne Taktik, und Dir bei näherer Betrachtung sicher auch nicht.
Siehe Armaq ...

nV muss den Vorsprung halten, seine Position sichern und nebenbei auch noch gut gewinn einfachren um die weitere Entwicklung zu finanzieren.

Nicht gefallen ist eine sache, würd ich es genauso machen ? Jup.

PHuV
2008-03-07, 13:29:06
Ne, hört sich sch*** an. Abwarten und die Latte ein klein wenig höher legen. Gefällt mir nicht, so ne Taktik, und Dir bei näherer Betrachtung sicher auch nicht.

Wenn Du im Markt bestehen mußt, mußt Du genau so handeln. Ich täts an Nvidias Stelle nicht anders machen.

http://www.ht4u.net/news/1488_cebit_nvidia_bringt_bald_den_gt200_in_den_markt

:up: lechz hechel, damit warte ich definitiv, bis ich mein SLI 8800GTX ablöse. Wenn man bedenkt, daß dieses Teil seit Herbst 2006 bei mir werkelt, ist das eine gute Investition gewesen, nur eine Ti4200 hat länger gehalten.

Gast
2008-03-07, 13:31:13
Wenn Du im Markt bestehen mußt, mußt Du genau so handeln. Ich täts an Nvidias Stelle nicht anders machen.



Niemand täte es an Nvidias Stelle anders machen, denn NVdia tut das einzig richtige. GELD VERDIENEN.

Paul Brain
2008-03-07, 13:31:45
Über den Preis! 9800er alle unter 250-300€, und die ganz neue Generation bei ~450-600€ zu Beginn! ;)
DAS wirds wohl nicht spielen. Wenn sie performancetechnisch einsam an der Spitze stehen, können sie verlangen, was sie wollen - und werden das auch tun. Geh mal eher von EUR 700,- für einen GT200 aus (siehe Launchpreise von G80).

Gast
2008-03-07, 13:36:53
DAS wirds wohl nicht spielen. Wenn sie performancetechnisch einsam an der Spitze stehen, können sie verlangen, was sie wollen - und werden das auch tun.


Wie kommst du auf solchen Quatsch?
Wer etwas verkaufen will muss die Preise dem Markt anpassen und nicht umgekehrt!

Paul Brain
2008-03-07, 13:43:11
Wie kommst du auf solchen Quatsch?
Wer etwas verkaufen will muss die Preise dem Markt anpassen und nicht umgekehrt!
LOL.
Wenns nach Dir ginge, hätten CPUs der Extreme- und FX-Serie genausowenig Daseinsberechtigung wie eine 8800Ultra, allemögliche andere High-End-Hardware oder auch ein Porsche, Aston Martin etc.

Ich checks irgendwie nicht, wieso alle auf einmal der Meinung sind, daß Mehrleistung nur zum gleichen Teil in Mehrpreis enden darf. Das war doch schon immer so, daß das keine Lineare ist - 30% Mehrleistung kosten 80% Aufpreis (Hausnummer). Das gilt höchstens im Low-Cost-Markt nicht, wo das Verhältnis auch schonmal umgekehrt sein kann. Ab Performance bis hinauf zum High-End war es aber immer schon so.

Mach Dir keine Sorgen, wenn man doppelt so schnell ist wie die Konkurrenz, wird das Zeug auch gekauft wenns 3x so teuer ist.

Gast
2008-03-07, 14:02:09
Niemand täte es an Nvidias Stelle anders machen, denn NVdia tut das einzig richtige. GELD VERDIENEN.

Schön für NV. Als Kunde ist mir dann aber doch lieber ich zahle weniger. Aber schön das alle so glücklich sind das nV mächtig abcasht.

Paul Brain
2008-03-07, 14:07:01
Schön für NV. Als Kunde ist mir dann aber doch lieber ich zahle weniger. Aber schön das alle so glücklich sind das nV mächtig abcasht.
Das ist eben der freie Markt...
nVidia ist mittlerweile extrem arrogant geworden, andererseits finde ich es auch gut, wenn sie genug Gewinn einfahren, damit sie sich die Entwicklung eines Gegenparts für Larrabee leisten können...

Gast
2008-03-07, 14:07:49
Alles aber direkt mit hoeheren Fuellraten verbunden.

Ob Crysis unbedingt an der Füllrate hängt?

Es sind mehr als nur 2 clock domains auf G80.

Natürlich, selbst ein RV670 hat nicht weniger als 27 clock domains AFAIK.

reunion

Gast
2008-03-07, 15:54:41
Schön für NV. Als Kunde ist mir dann aber doch lieber ich zahle weniger. Aber schön das alle so glücklich sind das nV mächtig abcasht.


Du hast wohl noch nie selber gearbeitet oder wie stellst du dir vor, dass unsere Wirtschaft funktioniert?

Gast
2008-03-07, 15:57:23
Du hast wohl noch nie selber gearbeitet oder wie stellst du dir vor, dass unsere Wirtschaft funktioniert?
Als Arbeitnehmer bekommt man wahrlich keinen Eindruck von der Funktionsweise des Kapitalismus.

Gast
2008-03-07, 16:10:21
Als Arbeitnehmer bekommt man wahrlich keinen Eindruck von der Funktionsweise des Kapitalismus.


Wenn dein Chef zu dir kommt und sagt "unsere Kunden wollen nur noch halbe Preise, deshalb muss ich dein Gehalt auf die Hälfte reduzieren", dann versteht das sicher jeder.

Nightspider
2008-03-07, 18:37:13
ich glaube zwar, das der Chip 3 mal so schnell sein wird wie der G80 aber in 3 Monaten kommt er bestimmt noch nicht...frühestens Vorstellung im Juni oder Juli...

Ailuros
2008-03-07, 18:40:59
Ob Crysis unbedingt an der Füllrate hängt?

Eigentlich nicht IMHO; was aber wiederum nicht besonders gut fuer AMD's naechsten Doppeldecker heissen koennte da das Ding AFR nicht besonders gut verdaut.

Natürlich, selbst ein RV670 hat nicht weniger als 27 clock domains AFAIK.

reunion

Ja aber nicht so grossen Unterschieden zwischen den Frequenzen wie auf G8x/9x.

ich glaube zwar, das der Chip 3 mal so schnell sein wird wie der G80 aber in 3 Monaten kommt er bestimmt noch nicht...frühestens Vorstellung im Juni oder Juli...

Das Resultat ist eigentlich schon praesentabel aber eben noch nicht marktreif um auf Regale zu kommen. Sie halten auch gewollt dicht darueber weil man sonst die 9800-sales gleich ganz verdammen wuerde. Bis zu 3x mal schneller waere nuechterner fuer meinen Geschmack. Um so viel ist auch G80 im Vergleich zu G71 schneller.

Gast
2008-03-07, 19:03:18
Hmm dann wäre ja November als Release gar spät? Da ich eine 8800GTS640 ersetzen will mit einer GeforceT-Series Karte muss die auch schon bissl was auf die Bahn bringen. Wenn es ein Sprung wird, wie von 7900GT512 auf 8800GTS640 bin ich mehr als zufrieden.
Mittlerweile sind ja auch die Auflösungen am PC entsprechend etwas gestiegen, von damals 1280*1024 über 1680*1050 zu dann 1920*1200 :)

Ailuros
2008-03-07, 19:05:59
Wenn es keine Probleme durch den finalen Produktions-prozess geben sollte, wuerde ich persoenlich "back to school" schaetzen.

Der_Korken
2008-03-07, 19:06:33
Einerseits schön, dass es endlich vorangeht mit der Leistung, aber so langsam machen sich doch Befürchtungen breit, dass ATI sich langfristig aus dem Highend-Markt verabschieden wird. Der G80 ist immer noch nicht ganz verdaut, da kommt bereits der nächste Schlag.

Hab ich das bisher richtig verstanden, dass der GT200 noch auf dem G80-Konzept basiert? Oder wird das ein Architekturwechsel wie G71 auf G80?

Nightspider
2008-03-07, 19:15:00
Ich les zwar hier immer mit...aber das wurde glaub ich noch nicht gepostet...falls doch ignorieren... ;)

NVIDIAs GT200-Chip ein Stromfresser ?
Hatten die Gerüchte vor wenigen Tagen erst behauptet, dass NVIDIAs kommender High-End-Chip mit dem Codenamen GT200 sehr große Hitze entwickle und der Hersteller diesen erst einmal noch in 65nm Fertigung in den Markt schicken will, erfährt man heute, dass auch von einem bisherigen Spitzenplatz im Stromverbrauch ausgegangen werden müsse. So will Fudzilla erfahren haben, dass die TDP (Thermal Design Power) des GT200 bei 250 Watt liegen wird. Sollte dies zutreffen, steht jetzt schon fest, dass NVIDIA den bisherigen AMD-Weg beschreiten muss und diese Karte zusätzlich zu einem 6-Pin Stromanschluss, ebenfalls mit einem 8-Pin Stromanschluss austatten wird.

http://www.ht4u.net/news/1294_nvidias_gt200-chip_ein_stromfresser

laser114
2008-03-07, 19:19:36
Ja, wurde schon gepostet und ist bei der Leistung kein Wunder.

Für AMD siehst natürlich schlecht aus im High-End-Markt, ja...

Gast
2008-03-07, 20:40:01
Ist denn jetzt gesichtert, dass die RV770 X2 von AMD wieder mit dem herkömmlichen Crossfire arbeitet? Wenn ja, dann siehts wirklich nicht sehr rosig aus.

laser114
2008-03-07, 22:10:19
Ist denn jetzt gesichtert, dass die RV770 X2 von AMD wieder mit dem herkömmlichen Crossfire arbeitet? Wenn ja, dann siehts wirklich nicht sehr rosig aus.

Sagen wir es mal so: Man darf es als gesichert annehmen.

Im High-End selber sieht es nicht rosig aus, jo. Ich bezweifle aber, dass Nvidia ein GT200-Abkömmling (o. ä.) schnell gegen den RV770 positionieren kann, gegen die Single-Karte muss dann G92 ran. Das könnte schon besser für AMD aussehen, ist aber Off-Topic.

AnarchX
2008-03-07, 22:54:02
Einen für damalige Verhältnisse riesigen NV40 schickte man auch Anfangs in nahezu halber Konfiguration auf den Markt -> 6800LE.

Aber da hatte wohl auch etwas mit der Ausbeute zu tun und wenn diese bei GT200 stimmt, dann wird man wohl diesen eher als "GeForce 10 D880 und D860"(?) für >300/350€ auf den Markt schicken, wo die Marge für NV höher ist.
Was dann eher wieder für einen aufgebohrten G92 spricht, der dann im Q4 oder Q1 09 durch einen GT100/GT150(?) abgelöst wird.

Ailuros
2008-03-08, 06:59:09
Sagen wir es mal so: Man darf es als gesichert annehmen.

Im High-End selber sieht es nicht rosig aus, jo. Ich bezweifle aber, dass Nvidia ein GT200-Abkömmling (o. ä.) schnell gegen den RV770 positionieren kann, gegen die Single-Karte muss dann G92 ran. Das könnte schon besser für AMD aussehen, ist aber Off-Topic.

Brauchen sie auch nicht; die Luecke koennte theoretisch locker die G92b (Mai?) fuellen. Wenn sie mit dem Ding endlich die angeblichen 800/2000 Frequenzen erreichen koennen (die schon seit einer Ewigkeit herumschwirren), kann ich mir schwer vorstellen das es nicht ausreicht sogar mit einem hoeheren MSRP anzutanzen.

Rosig sieht es nicht im high end aus was die Leistungs-krone betrifft, aber miserabel nun auch wieder nicht. Sonst wenn die Geruechte ueber ~250mm^2 stimmen sollten (mit 96 ALUs) dann haben sie zwar mit 2*250mm^2 einen moderaten Vorteil was die Margen betrifft aber auch hoechstwahrscheinlich folgende Nachteile:

1. Man quetscht wieder die Preis runter fuer das dual-Dingsbums um ein konkurrenzfaehiges Preis-Leistungsverhaeltnis zu haben.

2. Bei der Packdichte der Transistoren bei angeblichen 250mm^2 wird der Stromverbrauch nicht besonders ueberzeugend sein, selbst auf single chip RV770.

3. Ausser es kam nochmal Logik dazu wird es vielleicht etwas mit der Verzweigungs-Granularitaet hapern bei 6 cluster.

4. GDDR5 hin und her wenn es fuer das dual Dingsda keine 2*1GB Variante geben wird, verhungert das Ding an VRAM bei extremen Aufloesungen.

Aber da hatte wohl auch etwas mit der Ausbeute zu tun und wenn diese bei GT200 stimmt, dann wird man wohl diesen eher als "GeForce 10 D880 und D860"(?) für >300/350€ auf den Markt schicken, wo die Marge für NV höher ist.
Was dann eher wieder für einen aufgebohrten G92 spricht, der dann im Q4 oder Q1 09 durch einen GT100/GT150(?) abgelöst wird.

Bei der enormen die-Groesse waere es Wahnsinn fuer den Anfang etwas unter $450 auf die Regale zu schicken. Wieviel kosteten die ersten 8800GTS beim G80 Launch?

Der_Korken
2008-03-08, 11:36:11
Bei der enormen die-Groesse waere es Wahnsinn fuer den Anfang etwas unter $450 auf die Regale zu schicken. Wieviel kosteten die ersten 8800GTS beim G80 Launch?

Knapp 500 €, die GTX etwa 650€.

Winter[Raven]
2008-03-08, 11:55:13
Hängt davon ab ob AMD was dagegen setzten kann, die 650 € sind wohl für die Ultra reserviert.

Gast
2008-03-08, 12:40:28
einem gig Ram kostet das Ding 800€

Nightspider
2008-03-10, 00:03:49
Mir ist da gerade eine Frage aufgekommen:

Wenn der GT200 wirklich nur vor den G100 als ein größerer G80-Refresh geschoben wurde, da noch kein DX11 fertig ist/wird.

Warum sollte das NV hindern, den G100 dann nur mit SM4.0 auf den Markt zu werfen oder zumindest mit SM4.1 ??

Wenn man neue Chip-Generationen auf den Markt wirft tut man das doch auch, weil die neue Architektur besser und schneller ist.
Nicht weil es ein neues SM gibt oder ?

Das neuere G90 oder G100 Design wäre doch auch ohne SM5.0 möglich gewesen oder ?

Ich kann mir da nichts wirklich logisches zusammenreimen.

Help !

Coda
2008-03-10, 01:12:39
Die Codenamen haben einfach keine Aussagekraft. Was bei NVIDIA wirklich geplant wird weiß man sowieso nicht.

Ailuros
2008-03-10, 07:03:53
Mir ist da gerade eine Frage aufgekommen:

Wenn der GT200 wirklich nur vor den G100 als ein größerer G80-Refresh geschoben wurde, da noch kein DX11 fertig ist/wird.

Warum sollte das NV hindern, den G100 dann nur mit SM4.0 auf den Markt zu werfen oder zumindest mit SM4.1 ??

Wenn man neue Chip-Generationen auf den Markt wirft tut man das doch auch, weil die neue Architektur besser und schneller ist.
Nicht weil es ein neues SM gibt oder ?

Das neuere G90 oder G100 Design wäre doch auch ohne SM5.0 möglich gewesen oder ?

Ich kann mir da nichts wirklich logisches zusammenreimen.

Help !

Lass die Codenamen links liegen; der originale stornierte NV30 hatte damals eine Tesselations-Einheit und seither gibt es das Zeug in keinem Design der nicht fuer D3D11 bestimmt ist.

Gast
2008-03-10, 17:00:54
Ist ja lustig das der G200 kein Dx 11 kann.Damit hat Amd also die Krone.

Coda
2008-03-10, 17:06:55
Alle Chips die dieses und evtl. sogar nächstes Jahr noch erscheinen werden kein D3D11 können.

Gast
2008-03-10, 21:26:25
Ist ja lustig das der G200 kein Dx 11 kann.Damit hat Amd also die Krone.

Glaubst du das AMD/ATI wieder an die spitze kommt? Niemals.

Intel und nVidia sind atm die besten die es gibt.In 10 Jahren wird es wenn es so weitergeht kein ATI mehr geben. Genauso wie AMD.

Winter[Raven]
2008-03-10, 21:34:50
Alle Chips die dieses und evtl. sogar nächstes Jahr noch erscheinen werden kein D3D11 können.

Frage mich auch warum es unbedingt 10.1 oder gar 11 sein muss. So gesehen haben wir noch nichtmal DX9 && D3D10 ausgenützt. Ist ja alles schön und gut ist aber alles Zukunftsmusik.

Gast
2008-03-10, 21:45:43
Glaubst du das AMD/ATI wieder an die spitze kommt? Niemals.

Intel und nVidia sind atm die besten die es gibt.In 10 Jahren wird es wenn es so weitergeht kein ATI mehr geben. Genauso wie AMD.
Wer keine Ahnung hat...

Es ist ganz normal in dem Geschäft dass mal was schief geht, das dauert halt dann ein wenig bis wieder alles passt.
Wahrscheinlich ist dir das aber klar und du willst nur gegen AMD herziehn, ist ja grad angesagt...

Gast
2008-03-10, 21:51:40
;6344333']Frage mich auch warum es unbedingt 10.1 oder gar 11 sein muss. So gesehen haben wir noch nichtmal DX9 && D3D10 ausgenützt. Ist ja alles schön und gut ist aber alles Zukunftsmusik.
Ich frag mich auch immer, was brauchen wir eine neue C# oder C++ Version. Mit den alten kann man doch noch sooo viel machen. Das wird noch garnicht ausgenutzt.
Und erst die neuen Prozessoren. Mit den alten hätte man doch noch soooo viel machen können, wenn man sie richtig ausnutzten würde. Damit könnte man bestimmt auch noch die Weltherrschaft erringen. X-D

Wenn merkt ihr endlich mal, dass das Geschwafel vom Ausnutzen eines Befehlssatzes/API Schwachsinn ist?

Anarchy-HWLUXX
2008-03-11, 02:17:12
Ist ja lustig das der G200 kein Dx 11 kann.Damit hat Amd also die Krone.
Als ob DX11 vor 2010 kommen würd ...

Gast
2008-03-11, 02:37:29
Ist ja lustig das der G200 kein Dx 11 kann.Damit hat Amd also die Krone.

AMD sollte erstmal ordentlich Leistung bringen! Ansonsten bringt auch ein D3D11, D3D12 genau 0!

Ailuros
2008-03-11, 05:26:01
Ist ja lustig das der G200 kein Dx 11 kann.Damit hat Amd also die Krone.

Jetzt erzaehl uns jetzt mal was die Vorraussetzungen fuer D3D11 Komplianz genau sind erstmal.... :P

Anarchy-HWLUXX
2008-03-11, 10:57:41
Jetzt erzaehl uns jetzt mal was die Vorraussetzungen fuer D3D11 Komplianz genau sind erstmal.... :P
Glaskugel, LKW Ladung Kaffeesatz, Gedankenleser im M$ DX-HQ ... und so hat man die antwort :ucatch:


-> DX11 gelaber nu bitte einstellen :|

Gast
2008-03-11, 11:04:42
AMD sollte erstmal ordentlich Leistung bringen!
Richtig: Leistung und Bildqualität.

Keines davon wird uns ein RV770 bringen. AMD verkrampft sich weiterhin und missbraucht Performance Chips für Highend Karten, dank der "Super Erfindung X2".

Undertaker
2008-03-11, 11:08:07
Knapp 500 €, die GTX etwa 650€.

Wobei das an der Verfügbarkeit lag, bei 400-425€/500-550€ hatte es sich dann recht schnell eingependelt.

K4mPFwUr$t
2008-03-11, 11:11:15
um diskussionen über DX11 zu führen ist es momentan einfach zu früh. M$ kommt ja auch wohl frühstens 2010 damit raus (verschiebungen inkl.).

was für die nächste zeit intressant ist, leistung in DX9 (solange vista bleibt wie es ist), leistung in DX10, bildqualität, 2d modus und natürlich BQ.

GeneralHanno
2008-03-11, 17:25:26
GT200 wird es auch als dual-karte geben - irgendwann!

Interessantes Interview: PCGH und Nvidia (http://www.pcgameshardware.de/aid,635714/News/Nvidia_Exklusive_Infos_zu_Hybrid_SLI_Multi-GPU-Karten_und_Geforce_9800/)

reunion
2008-03-11, 17:41:29
VR-Zone has learned that Nvidia is preparing to shrink G92 process technology from 65nm to 55nm to better compete against the upcoming RV770. DigiTimes today reported that RV770 will come along by end Q2 which is about the same timeframe as the 55nm G92. Most probably, you will see RV770 based mobile parts first as notebook makers have already received RV770 samples for testing.
[...]
In any case the 55nm G92 even with higher clocks can't match up against RV770, Nvidia will have to push ahead the schedule of next generation GT200.

http://www.vr-zone.com/articles/Nvidia_Prepares_55nm_G92_Against_AMD_RV770/5645.html

Nakai
2008-03-11, 17:52:38
55Nm wäre was neues.
Sollte bestimmt einiges drin sein.


mfg Nakai

Anarchy-HWLUXX
2008-03-11, 17:56:46
GT200 wird es auch als dual-karte geben - irgendwann!

Interessantes Interview: PCGH und Nvidia (http://www.pcgameshardware.de/aid,635714/News/Nvidia_Exklusive_Infos_zu_Hybrid_SLI_Multi-GPU-Karten_und_Geforce_9800/)
Fast nix interesanntes bei ... ausser der aussage das die 9600GT kein Hybrid Power braucht und nur die 9800er Serie das unterstützt - ich hoffe doch nicht !

Die 9600GT verballert zwar nicht so viel aber wenn man diese komplett ausschalten kann dann ist das immernoch ne massive einsparung.


Den rest der Antworten hätt ich mir auch selbst denken können.

LovesuckZ
2008-03-11, 17:56:58
Im anderen Thread liest man, dass der rv770 nur 40% schneller als der r670 wäre und hier könnte nVidia selbst mit höhreren Taktraten nicht mit der Karte mithalten.

GeneralHanno
2008-03-11, 18:20:43
http://www.vr-zone.com/articles/Nvidia_Prepares_55nm_G92_Against_AMD_RV770/5645.html

das gehört eigentlich eher in den GF9 thread ;)

AnarchX
2008-03-11, 18:37:27
Fast nix interesanntes bei ... ausser der aussage das die 9600GT kein Hybrid Power braucht und nur die 9800er Serie das unterstützt - ich hoffe doch nicht !

http://img99.imageshack.us/img99/9545/8300687fa032ax4.jpg

Naja, hoffentlich bietet dann NV beim GT200 PoweMizer endlich für die GeForce an.

Gast
2008-03-11, 19:21:00
Glaubst du das AMD/ATI wieder an die spitze kommt? Niemals.

Intel und nVidia sind atm die besten die es gibt.In 10 Jahren wird es wenn es so weitergeht kein ATI mehr geben. Genauso wie AMD.

Das gleiche sagte man damals wo es die Radeon 9700/9800 gab.Also labber nicht.

Ailuros
2008-03-12, 05:52:36
http://www.vr-zone.com/articles/Nvidia_Prepares_55nm_G92_Against_AMD_RV770/5645.html

Wie auf B3D schon erwaehnt wurde, hat diese Einzelheit CJ auf B3D schon Wochen vor vr-zone erwaehnt.

Glaskugel, LKW Ladung Kaffeesatz, Gedankenleser im M$ DX-HQ ... und so hat man die antwort

Diejenigen die wissen was mehr oder weniger (ich bin mir gar nicht sicher ob diese schon in Stein gemetzelt sind) von D3D11 vorrausgesetzt wird, halten mit Absicht sehr gut dicht.

Dass es eine programmierbare Tesselations-Einheit geben wird ist schon quasi gesichert; es gibt noch ein paar verstreute Geruechte ueber Sachen wie order independent transparency u.a. aber etwas klares darueber weiss ausser den wahren "insiders" auch niemand.

Und um es nochmal zu erwaehnen: D3D11 != D3D10.1 + Tesselation; sonst koennte man es locker D3D10.2 nennen. Die Leistung der heutigen Tesselations-Einheiten ist sowieso nichts um jemand aus den Socken zu reissen und es wird vielleicht auch auf den ersten 11 GPUs nicht besonders toll sein. Im idealsten techdemo Fall auf heutigen GPUs bekommt man ~25% mehr Geometrie.

Ailuros
2008-03-12, 05:55:52
GT200 wird es auch als dual-karte geben - irgendwann!

Interessantes Interview: PCGH und Nvidia (http://www.pcgameshardware.de/aid,635714/News/Nvidia_Exklusive_Infos_zu_Hybrid_SLI_Multi-GPU-Karten_und_Geforce_9800/)

Entschuldige PCGH, aber das ist ein ziemlich lauwarmes Interview.

Tarkin
2008-03-12, 08:54:36
Entschuldige PCGH, aber das ist ein ziemlich lauwarmes Interview.

so wie alles auf PCGH...

Gast
2008-03-12, 10:31:46
We learned that Nvidia's big 65nm chip is going to launch in Q3 or possibly even later. Nvidia is about to launch the Geforce 9800 GX2, its dual chip G92GTS card and after that it plans to launch a product codenamed GT200.

Someone calls this card the D10E (Desktop 10th generation Enthusiast) and it is likely that Nvidia might brand this product as Geforce 10.

The earliest we believe that Nvidia can launch its GT200 / G100 / D10E is in late Q3, but we wouldn't be surprised if it slips to early Q4 2008.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=6245&Itemid=1

Gast
2008-03-12, 13:45:32
"Passend zu diesen Meldungen sind auch erste, angebliche Infos zum GT200 aufgetaucht, Nvidias neuer Geheimwaffe, die ein stark aufgewerteter GeForce 8- bzw. 9-Chip sein soll, ohne jedoch zu protzen. So dürften auch beim GT200 Leistungssteigerungen von um die 40 Prozent zu erwarten sein, was zwar deutlich mehr ist als bei einem Refresh-Chip, dennoch das Kaliber eines Next-Generation-Chips verfehlt"...




http://www.hardware-infos.com/news.php?news=1890

AnarchX
2008-03-12, 13:54:16
Mal nicht den Part vergessen, wo es offensichtlich wird, dass es sich hier um Bullshit handelt:
Passend zu diesen Meldungen sind auch erste, angebliche Infos zum GT200 aufgetaucht, Nvidias neuer Geheimwaffe, die ein stark aufgewerteter GeForce 8- bzw. 9-Chip sein soll, ohne jedoch zu protzen. So dürften auch beim GT200 Leistungssteigerungen von um die 40 Prozent zu erwarten sein, was zwar deutlich mehr ist als bei einem Refresh-Chip, dennoch das Kaliber eines Next-Generation-Chips verfehlt, den Nvidia voraussichtlich im dritten oder vierten Quartal dieses Jahres in persona des G100 vorstellen wird.

;D

laser114
2008-03-12, 13:55:40
Merke: Man nehme Aussagen immer von der Originalquelle, nachdem sie dreimal verwurschtelt wurden kommt nur noch so ein Zeug bei raus.

Anarchy-HWLUXX
2008-03-12, 13:55:55
Das hört sich stark nach zusammeninterpretierten meldungen aus 3. hand an ... die Quelle hat 0 infos vonwegen GT200.

Und der 40% wert ist doch der angebliche vorsprung der RV770 vor der RV670.

Besonders der letzte absatz dieser falschmeldung hört sich stark nach dem HT4U newspost an ... nur eben vollkommen verdreht.

Ailuros
2008-03-12, 14:01:54
NVIDIA soll innerhalb der naechsten 8-9 Monate 2 refreshes und eine neue "Generation" vorstellen? :confused:

Nun ja manche wuerden sich sicher freuen wenn alle 3 Monate eine neue GPU antanzen wuerde, aber wir koennen uns beruhigt wieder aus den Wolken landen. Bitte angeschnallt bleiben, bis....:biggrin:

nomadhunter
2008-03-12, 15:40:14
VR-Zone has learned that Nvidia is preparing to shrink G92 process technology from 65nm to 55nm to better compete against the upcoming RV770. DigiTimes today reported that RV770 will come along by end Q2 which is about the same timeframe as the 55nm G92. Most probably, you will see RV770 based mobile parts first as notebook makers have already received RV770 samples for testing.
[...]
In any case the 55nm G92 even with higher clocks can't match up against RV770, Nvidia will have to push ahead the schedule of next generation GT200.
http://www.vr-zone.com/articles/Nvidia_Prepares_55nm_G92_Against_AMD_RV770/5645.html
Wenn das stimmt (irgendwelche "G92-b"-Gerüchte schwirren ja schon länger rum), wie sinnvoll ist dann noch ein 65nm-GT200? Wird NVIDIA wirklich 4-6 Monate nachdem man G92 auf 55nm umgestellt hat im High-End wieder einen 65nm-Chip vorstellen? Das wäre als hätte man G71 durch einen 110/130nm-G80 abgelöst.

LovesuckZ
2008-03-12, 15:43:55
Das hat etwas mit Planung zu tun. Der GT200 wurde wahrscheinlich wesentlich früher begonnen als der G92-b. Da man nie weiß, wie gut neuere Prozesse sind, hat man sich für den alten entschieden.
Ist auch kein Problem, da der GT200 kannst oben stehen wird und AMD wohl nur mit Crossfire etwas entgegen stellen kann. Da ist der dickere Single-Chip kein Nachteil.

GeneralHanno
2008-03-12, 15:57:30
exakt. soweit ich weis hat nvidia VOR dem G80 auch schon mit 80nm und 65nm rumexperimentiert, aber der G80 kam trotzdem in 90nm ;)
nvidia fährt nunmal die strategie, bei neuen high-end designs nur bewährte prozesse zu verwenden ...

wenn ich noch einen tipp abgeben darf, wozu nvidia den G92-b nutz.
1. notebook bereich, da man hier schlecht einen GT200 verbauen kann ;)
2. performencebereich. bis der GT200 bei unter 300€ liegt, werden wohl einige monate verstreichen

Hvoralek
2008-03-12, 16:01:07
Wenn das stimmt (irgendwelche "G92-b"-Gerüchte schwirren ja schon länger rum), wie sinnvoll ist dann noch ein 65nm-GT200? Wird NVIDIA wirklich 4-6 Monate nachdem man G92 auf 55nm umgestellt hat im High-End wieder einen 65nm-Chip vorstellen? Das wäre als hätte man G71 durch einen 110/130nm-G80 abgelöst.Wer sagt denn, dass GT200 erst 4-6 Monate nach dem 55- nm- D8P kommt? Ersterer erscheint ja wahrscheinlich irgendwann im Q3, und womöglich kommen sowohl Desktop- RV770 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6348080#post6348080) als auch der 55- nm- D8P (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6347704#post6347704) auch erst zu der Zeit. Dass das High- End ggü. Mittelklassekarten derselben Zeit 1/2 Fertigungsprozess zurückhängt, wäre nicht ungewöhnlich.

Godmode
2008-03-12, 16:48:37
Ich frage mich in welches Namensschema GT200 fallen wird? Geforce 9900, oder doch Geforce 10?

GeneralHanno
2008-03-12, 16:50:11
ich denke es wird nicht 9900 sein, weil die änderungen zu gravierend sind! also entweder GF10 oder ganz was neues ;)

reunion
2008-03-12, 16:50:27
Garantiert nicht Geforce 9.

AnarchX
2008-03-12, 16:51:31
Ich frage mich in welches Namensschema GT200 fallen wird? Geforce 9900, oder doch Geforce 10?

Gerüchte sprechen von einem neuen Schema: GeForce (10?) D880 und D860.

nomadhunter
2008-03-12, 17:33:02
Wenn der Schritt G92 zu G92 auf anderem PCB schon eine neue Generation wert ist, dann müsste GT200 eher Geforce 12 heißen. :tongue: Sicher aber nicht mehr Geforce 9. Aber jetzt kommt ja wohl erstmal G92b, den man auch irgendwie einordnen muss. Geforce 10 wird der wohl eher nicht heißen, auch wenn ich NVIDIA eigentlich alles zutraue. Vielleicht bleibt ja auch wieder der Name trotz besserer Performance... (wie G80-GTS und G92-GTS)

Gast
2008-03-12, 18:22:00
man hätte fürn g92b noch die 9800Ultra oder halt 99-Karten, ich hoffe nicht, dass es wieder der gleiche name bei besserer performance wird

Ailuros
2008-03-12, 22:53:27
Wenn das stimmt (irgendwelche "G92-b"-Gerüchte schwirren ja schon länger rum), wie sinnvoll ist dann noch ein 65nm-GT200? Wird NVIDIA wirklich 4-6 Monate nachdem man G92 auf 55nm umgestellt hat im High-End wieder einen 65nm-Chip vorstellen? Das wäre als hätte man G71 durch einen 110/130nm-G80 abgelöst.


G70@110nm
G71@90nm
G80@90nm
G92@65nm
Gxxx@65nm

Das Risiko ist eben kleiner mit 65nm als mit 55nm und AMD hat bis heute nur einen 666M/192mm^2 die vorgestellt. Kurz danach kommt dass G92b@55nm zwei Zwecken dient; als erster sich besser gegen RV770 im Performance-Segment als bisherige GF-SKUs zu positionieren und als zweites ein stinknormales Testrennen mit begrenzter Komplexitaet, was seit Jahren bei NVIDIA zur Masche geworden ist.

AnarchX
2008-03-24, 09:23:32
Huang says that graphics processors are better suited to some computation-intensive tasks, like computational finance, astrophysics, biology and flow dynamics. In fact, he thinks Nvidia eventually can eat into one of Intel's key markets -- high-end servers -- as software developers take advantage of the "many-core" architecture. (Intel takes a multi-core approach, with two or four core processors; Nvidia graphics processors have as many as 240 cores.)
http://messages.finance.yahoo.com/Stocks_(A_to_Z)/Stocks_N/threadview?m=tm&bn=13029&tid=435392&mid=435402&tof=7&rt=2&frt=2&off=1

10 Cluster mit je 24 SPs?

Gast
2008-03-24, 09:48:31
na dann,800€.>1024Ram ala GDDR5 312er bit

Captain Future
2008-03-24, 11:25:32
http://messages.finance.yahoo.com/Stocks_(A_to_Z)/Stocks_N/threadview?m=tm&bn=13029&tid=435392&mid=435402&tof=7&rt=2&frt=2&off=1

10 Cluster mit je 24 SPs?
Das ist aber nicht mehr die Aussage vom Jenson, oder?

Sorkalm
2008-03-24, 14:25:52
http://messages.finance.yahoo.com/Stocks_(A_to_Z)/Stocks_N/threadview?m=tm&bn=13029&tid=435392&mid=435402&tof=7&rt=2&frt=2&off=1

10 Cluster mit je 24 SPs?

Hmm, die SP um 50% verbreitert und zwei Cluster mehr. Und was hat man mit den Textureinheiten gemacht?
Ein bisschen mehr müsste es für ein "Monster-Die" in 55-nm-Fertigung eigentlich schon werden (ausgehend von der geleakten Größe des G92b), ich würde jedenfalls nicht davon ausgehen dass die Textureinheiten stärker als die Arithmetikeinheiten verbreitert wurden.

dargo
2008-03-24, 15:35:42
Hmm, die SP um 50% verbreitert und zwei Cluster mehr. Und was hat man mit den Textureinheiten gemacht?
Ein bisschen mehr müsste es für ein "Monster-Die" in 55-nm-Fertigung eigentlich schon werden (ausgehend von der geleakten Größe des G92b), ich würde jedenfalls nicht davon ausgehen dass die Textureinheiten stärker als die Arithmetikeinheiten verbreitert wurden.
Es hat niemand behauptet, dass der GT200 in 55nm kommt. Außerdem wer sagt, dass die SPs genau das gleiche können wie beim G8x/G9x?

mike49
2008-03-24, 16:18:44
http://messages.finance.yahoo.com/Stocks_(A_to_Z)/Stocks_N/threadview?m=tm&bn=13029&tid=435392&mid=435402&tof=7&rt=2&frt=2&off=1

10 Cluster mit je 24 SPs?
Wie kommt Ihr denn jetzt überhaupt darauf, daß sich das auf GT200 bezieht?

Vielleicht war da ja einfach eine GX2 mit ihren 2x128=256SP's gemeint.

Sorkalm
2008-03-24, 16:22:34
Es hat niemand behauptet, dass der GT200 in 55nm kommt.

Liegt aber nahe, wenn der G92b deutlich vor dem nächsten High-End-Chip ("GT200") kommt.

Außerdem wer sagt, dass die SPs genau das gleiche können wie beim G8x/G9x?

Mit welcher Erweiterung würdest du denn rechnen?

Captain Future
2008-03-24, 16:22:47
es gibt noch ein paar verstreute Geruechte ueber Sachen wie order independent transparency u.a. aber etwas klares darueber weiss ausser den wahren "insiders" auch niemand.

Order Independent Transparency würde de facto bedeuten: Alpha-Blending in den Shadern, oder?

Chris Lux
2008-03-24, 18:15:31
nope, zu Order Independent Transparency gehört ein wenig mehr.

dargo
2008-03-24, 18:22:05
Liegt aber nahe, wenn der G92b deutlich vor dem nächsten High-End-Chip ("GT200") kommt.

Lese einfach diesen Thread durch. Ail dürfte mehrfach darauf eingegangen sein.


Mit welcher Erweiterung würdest du denn rechnen?
Ich weiß es nicht. Mit einer höheren Effizienz der SPs kann man aber schon rechnen. Genaueres weiß wahrscheinlich niemand. Und wenn jemand was weiß wird er es sicherlich hier nicht kundtun.

Captain Future
2008-03-24, 18:40:25
nope, zu Order Independent Transparency gehört ein wenig mehr.
Noch mehr als voll programmierbar und wahlfreier Zugriff auf sämtliche Ressourcen? Kannst du mir das erklären bitte?

Sorkalm
2008-03-24, 20:24:34
Lese einfach diesen Thread durch. Ail dürfte mehrfach darauf eingegangen sein.

Gerade er sprach mehrmals von 55 nm, wie es auch im Thread steht...
Auch wenn er zum Schluss nicht mehr so sicher war.

dargo
2008-03-24, 20:27:28
Gerade er sprach mehrmals von 55 nm, wie es auch im Thread steht...
Auch wenn er zum Schluss nicht mehr so sicher war.
Ich glaube nicht, dass ein fetter GT200 in 55nm kommt wenn man gerade erst Erfahrungen mit einem im Vergleich kleinen G92b sammeln wird. Die Strategie von NV dürfte mittlerweile bekannt sein.

Chris Lux
2008-03-24, 21:12:05
Noch mehr als voll programmierbar und wahlfreier Zugriff auf sämtliche Ressourcen? Kannst du mir das erklären bitte?
blending, wenn es korrekt sein soll, muss in einer bestimmten reihenfolge passieren (front-to-back oder back-to-front), man kann nicht einfach die reihenfolge in einem frame ändern, da man dann in einen bspw. b2f geblendeten wert etwas einfügen muss, was dann gar nicht mehr korrekt zu machen ist, da das integral neu evaluiert werden muss. also reicht direkter framebufferzugriff und blending nicht aus. da muss man algorithmisch noch etwas tun...

robbitop
2008-03-24, 22:37:28
Die GF3 konnte Order Independant Blending laut einem PDF von NVIDIA bereits. Da gab es irgendeine Möglichkeit, das in OGL zu realisieren.

Coda
2008-03-24, 22:40:45
Das war und ist keine in der Praxis anwendbare Methode robbitop.

Ailuros
2008-03-26, 06:09:55
http://messages.finance.yahoo.com/Stocks_(A_to_Z)/Stocks_N/threadview?m=tm&bn=13029&tid=435392&mid=435402&tof=7&rt=2&frt=2&off=1

10 Cluster mit je 24 SPs?

Kein ja oder nein nur ein sehr breites Grinsen und Dankeschoen fuer den Tipp den mir jemand vor einiger Zeit zugeschossen hat.

Solche Zahlen sind so nutzlos wie immer wenn man nicht weiss wie die Effizienz einer Architektur aussieht und ueber was jegliche Einheit faehig ist.

Gerade er sprach mehrmals von 55 nm, wie es auch im Thread steht...
Auch wenn er zum Schluss nicht mehr so sicher war.

Die erste Kleinigkeit die ich ueber GT200 bekam war ein XXXmm^2 die unter 55nm; heutzutage wo ich mehr und um einiges wichtigere Einzelheiten habe, bin ich mir sicher dass es 65nm sind und ich habe es auch zu diesem Zeitpunkt auch angegeben.

***edit: order independent transparency falls es dieses auch tatsaechlich in D3D11 geschafft hat, ist D3D11 Material falls es Pflicht sein sollte. Der einzige IHV der sich keine besondere Kopfschmerzen darueber machen wuerde (obwohl sie sich nur mit Kleinkram beschaeftigen heutzutage) ist IMG/PowerVR aus verstaendlichen Gruenden.

Sorkalm
2008-03-26, 14:33:00
Die erste Kleinigkeit die ich ueber GT200 bekam war ein XXXmm^2 die unter 55nm; heutzutage wo ich mehr und um einiges wichtigere Einzelheiten habe, bin ich mir sicher dass es 65nm sind und ich habe es auch zu diesem Zeitpunkt auch angegeben.

Hmm ok, dass habe ich dann nicht mitbekommen.

GeneralHanno
2008-03-26, 15:53:21
Solche Zahlen sind so nutzlos wie immer wenn man nicht weiss wie die Effizienz einer Architektur aussieht und ueber was jegliche Einheit faehig ist.

hmm, vll hat nvidia es doch geschafft mehr aus der 2. MUL zu machen oder (noch besser) 2 MADD / shader :D

€dit: doppelte genauigkeit (wegen CUDA usw) sollte auch selbstverständlichsein, oder?

€dit2: neue gerüchte: GT200 hat 200 SP und 512bit SI -> http://www.nordichardware.com/news,7550.html

Ailuros
2008-03-27, 05:42:23
Es sollte eigentlich >200 heissen, wenn er die originale Quelle verfolgt haette.

(10*(3*8)

Es gibt zwei Fragen momentan die wichtiger sind: ueber was genau jede SP faehig ist und ob wie CJ auf B3D andeutete es noch etwas staerkeres unter Entwicklung gibt.

hmm, vll hat nvidia es doch geschafft mehr aus der 2. MUL zu machen oder (noch besser) 2 MADD / shader

Es koennte auch nur single MADD sein im konservativsten Fall oder sogar triple MADD im sehr optimistischen Fall.

So lange ich nicht weiss ob das obrige der "grosse die" ist ueber den seit einiger Zeit gemurmelt wird, hat es keinen Sinn.

Nakai
2008-03-27, 12:00:54
(10*(3*8))

Wow, 240 SPUs bei 10 Blocken mit 3 Vec8-Shader.
Wenn man das wirklich auf den G80 und G92 projezieren kann, dann müsste der GT200 40(80) TMUs haben.

Sieht schonmal nicht schlecht aus, sollte aber nicht für 3x G80 reichen, da wurde wohl noch einiges im Detail geändert.


mfg Nakai

Nightspider
2008-03-27, 12:10:08
Wenn schon ein paar 9600GTs und 8800 GTs zu 2048 MB VRAM geschafft haben, sollte es doch kein Ding sein, das die Hersteller aufs teure HighEnd mit 2-3facher G80 Leistung 2 GB VRAM draufschnallen.

dargo
2008-03-27, 12:19:50
Wenn schon ein paar 9600GTs und 8800 GTs zu 2048 MB VRAM geschafft haben, sollte es doch kein Ding sein, das die Hersteller aufs teure HighEnd mit 2-3facher G80 Leistung 2 GB VRAM draufschnallen.
2GB Vram? Wer braucht denn sowas? Nee, also 1GB sollte schon reichen. Je nachdem wie das SI ausfällt sehen wir vielleicht etwas mehr.

Spasstiger
2008-03-27, 13:02:59
Wenn man das wirklich auf den G80 und G92 projezieren kann, dann müsste der GT200 40(80) TMUs haben.
Der G92 hat genausoviele TAs wie TMUs. Wird beim GT200 vermutlich nicht anders sein.
80 TMUs klingen realistisch. Wenn die dazu noch fp16-fähig sind wie bei ATI, muss man sich in Sachen Texelfüllrate keine Sorgen machen.

Gast
2008-03-27, 13:04:17
Naja 384Bit-SI haben sich ja bewährt, eine Wiederholung des G80 (GTX und GTS) wäre doch annehmbar. Mit GDDR5 zusammen wäre das ein ordentlicher Batzen Bandbreite (153,6GB/sec bei 1,6GHz oder?).
786MB RAM als Grafikspeicher reichen aus, 512 sind für das kommende Highend undenkbar.

Spasstiger
2008-03-27, 13:11:53
Sorgen machen mir die ROPs. Bei einem 384-Bit-SI wären ja immer noch 24 ROPs zu erwarten. Und das bei eventuell verdoppelter Bandbreite und verdreifachter Shaderleistung gegenüber dem G80. Man müsste die ROP-Domain dann schon mit 1 GHz takten, um ungefähr dasselbe Verhältnis wie beim G80 zu erreichen. Der G92 hat ja ganz klar zu wenig ROP-Power wie man an Benchmarks in hohen Auflösungen + AA (v.a. 8xAA) sieht.

Nakai
2008-03-27, 13:12:14
Der G92 hat genausoviele TAs wie TMUs. Wird beim GT200 vermutlich nicht anders sein.'

Wurde mit TFs erweitert.


mfg Nakai

Nightspider
2008-03-27, 13:13:56
768 reichen auf keinen Fall
Für den G80 vielleicht.
Wenn man aber einen Chip mit der zwei-bis dreifachen Leistung eines Chips vom Schlage eines G80 hat sollten es mindestens 1GB sein.
Crysis erschien letztes Jahr und das Spiel kann man in Einstellungen flüssig mit einem G200 spielen, in denen die 1024 MB voll werden.

Spiele mit mehr VRAM bedarf kommen...und das sicherlich noch dieses Jahr.
Wenn der GT200 wieder bis Mitte oder Ende 2009 HighEnd bleiben soll, dann muss der VRAM ausreichend groß dimensioniert werden.

Ich persöhnlich halte 1GB schon fast für zu wenig für den neuen HighEnd Chip @ 3.Quartal

AnarchX
2008-03-27, 13:22:46
Naja, für NV wären ja auch 1280 oder 1536MiB möglich.;)

Spasstiger
2008-03-27, 13:24:49
768 reichen auf keinen Fall
Für den G80 vielleicht.
Wenn man aber einen Chip mit der zwei-bis dreifachen Leistung eines Chips vom Schlage eines G80 hat sollten es mindestens 1GB sein.
Crysis erschien letztes Jahr und das Spiel kann man in Einstellungen flüssig mit einem G200 spielen, in denen die 1024 MB voll werden.

Spiele mit mehr VRAM bedarf kommen...und das sicherlich noch dieses Jahr.
Wenn der GT200 wieder bis Mitte oder Ende 2009 HighEnd bleiben soll, dann muss der VRAM ausreichend groß dimensioniert werden.

Ich persöhnlich halte 1GB schon fast für zu wenig für den neuen HighEnd Chip @ 3.Quartal
Wenn Nvidia den VRAM-Bug fixen kann, sehe ich keine Probleme mit 768 MiB VRAM. Welches Spiel verwendet schon deutlich mehr? Die Spieleentwickler orientieren sich immer mehr an der Konsolenhardware und da ist Speicher Mangelware. Entsprechend sind auch bei PC-Spielen keine drastischen Steigerungen in den nächsten zwei Jahren zu erwarten. Es wird mehr auf arithmetische Last als Texturlast hinauslaufen.

Die vorsichtig geschätzten Specs könnten also so aussehen?
- 10 Shadercluster zu je 3 Vec8-SPUs => 240 skalare SPUs
- 384 Bit SI, 24 ROPs
- 80 TMUs
- 768 MiB GDDR5-Speicher (evtl. 1536 MiB bei einer Ultra-Version)
- Shadertakt > 1,5 GHz, ROP/TMU-Takt > 800 MHz, Speichertakt > 1,6 GHz

Nightspider
2008-03-27, 13:38:18
In Crysis hab ich damals ~850 MB mit einer 8800 GTX vollbekommen.

Mehr ist mit Sicherheit auch möglich.

Meinst du denn, das 768 MB noch für 2008 reichen ? :|

Da gab es doch schon einige Beispiele, wie man die "überfüllt"

Spasstiger
2008-03-27, 13:53:26
In Crysis hab ich damals ~850 MB mit einer 8800 GTX vollbekommen.

Mehr ist mit Sicherheit auch möglich.

Meinst du denn, das 768 MB noch für 2008 reichen ? :|

Da gab es doch schon einige Beispiele, wie man die "überfüllt"
Wenn ein Spiel nicht deutlich mehr als 1 GiB VRAM belegt, sollte man mit 768 MiB VRAM eigentlich keinen großartigen Performanceeinbruch erleben. Vielleicht 10% weniger. PCIe 2.0 x16 hat eigentlich schon genug Bandbreite, um Ramüberfüllung bis zu einem gewissen Maß zu kompensieren (zeigen auch Benchmarks mit PCI 2.0 vs. PCI 1.1). Alles unter der Annahme, dass NV den VRAM-Bug beseitigt.
GDDR5-Speicher wird sicherlich teuer sein und um den GT200 zu einem attraktiven Preis an den Mann bringen zu können, sollte man auf jeden Fall auch eine 768-MiB-Version veröffentlichen. 1536 MiB kann man den AIB-Partnern überlassen.

GeneralHanno
2008-03-27, 14:01:04
wie al schon gesagt hat: spekulationen mit shaderzahlen sind sinnlos, weil der GT KEIN in die breite skalierter G80 sein wird, sondern vermutlich die architektur überarbeitet wurde ...

und zum chiptakt: mit mehr als 600-700mhz core (TMU+ROP) würde ich in keinem fall rechnen! bei den shadern bin ich mir nicht so sicher, da könnten es VIELLEICHT 2+GHz werden ...

Nightspider
2008-03-27, 14:03:05
+2Ghz Shadertakt und 240 SU würde schon gut an die 3fache G80 Power reichen.

In Extreamsituationen vielleicht noch mehr. Bin schon gespannt.

Wenn der GT200 @ 3. Quartal erscheint, ist der G80 bereits fast 2 Jahre alt

Gast
2008-03-27, 14:36:10
Naja, für NV wären ja auch 1280 oder 1536MiB möglich.;)

Das wäre für AMD genau so möglich, ein zusätzlicher Ringstop und fertig. Die Frage ist nur warum sollte man das machen? Es ist in der Branche nunmal üblich sich an Zweierpotenzen zu halten.

Gast
2008-03-27, 14:46:16
Alles unter der Annahme, dass NV den VRAM-Bug beseitigt.


Es gibt keinen VRAM-Bug, also kann er auch nicht beseitigt werden.

w0mbat
2008-03-27, 14:47:47
Dafür dass es ihn nicht gibt tritt er aber zu häufig auf :rolleyes:

Spasstiger
2008-03-27, 14:58:56
Es gibt keinen VRAM-Bug, also kann er auch nicht beseitigt werden.
Dann sagen wir eben, Nvidia muss das Speichermanagement optimieren. ATI bekommts schließlich auch hin.

The_Invisible
2008-03-27, 15:10:45
Dafür dass es ihn nicht gibt tritt er aber zu häufig auf :rolleyes:

mehr verbrauch != bug

sonst wäre ein ferrari gegenüber einen polo auch buggy.

mfg

puntarenas
2008-03-27, 15:13:48
mehr verbrauch != bug

sonst wäre ein ferrari gegenüber einen polo auch buggy.

Einen Ferrari mit dem Tankvolumen eines Polo fände ich aber schon ein wenig buggy :tongue:

Sonyfreak
2008-03-27, 15:33:54
Die vorsichtig geschätzten Specs könnten also so aussehen?
- 10 Shadercluster zu je 3 Vec8-SPUs => 240 skalare SPUs
- 384 Bit SI, 24 ROPs
- 80 TMUs
- 768 MiB GDDR5-Speicher (evtl. 1536 MiB bei einer Ultra-Version)
- Shadertakt > 1,5 GHz, ROP/TMU-Takt > 800 MHz, Speichertakt > 1,6 GHzEin 256-bit Speicherinterface dürfte auf jeden Fall mal ausscheiden, weil man damit einfach nicht mehr die benötigte Speicherbandbreite verwirklichen kann. Ein 512-bit Speicherinterface wäre hingegen einfach unnötig, da man wahrscheinlich ohnehin schnelle Speicherchips zur Verfügung hat.
Ob 768MB Grafikspeicher für einen Chip ausreichen der 3-mal so schnell wie ein G80 ist, wage ich auch irgendwie zu bezweifeln. Mit weniger als 1GB RAM sollte meiner Meinung nach keine Highendkarte mehr auf den Markt kommen. Daher hoffe ich mal auf 1280MB Speicher für die GTS und 1536MB Speicher für die GTX Variante. :)

Wie schauts eigentlich bezüglich Stromverbrauch aus? Wird man da das Niveau vom G80 halten können, oder wird der Verbrauch abermals steigen?

mfg.

Sonyfreak

GeneralHanno
2008-03-27, 15:35:41
spannung und taktrate sind ja noch nicht bekannt. aber wenn die die-size jenseits von 500+ liegt, dann würde ich auch von G80+verbrauch ausgehen ;)

Spasstiger
2008-03-27, 15:39:51
Wie schauts eigentlich bezüglich Stromverbrauch aus? Wird man da das Niveau vom G80 halten können, oder wird der Verbrauch abermals steigen?
9800-GX2-Niveau unter Last kann man sich ja inzwischen erlauben, es würde von der Käuferschaft akkzeptiert werden.

Gast
2008-03-27, 16:03:23
Dafür dass es ihn nicht gibt tritt er aber zu häufig auf :rolleyes:


Wo? :rolleyes:

Nightspider
2008-03-27, 16:16:49
Vor allem sollte man bedenken, das der GT200 wieder Tri-SLI fähig sein wird.

Für SLI oder spätestens für Tri-SLI wären 768 und 1024 MB zu wenig...

Zum Vergleich, ein Tri-GT200-SLI-Gespann könnte theoretisch bis zu 9 mal schneller sein als eine 8800 GTX.
Damit wirds man Crysis auch in 2560*1600, 4AA und Very High @ DX10 flüssig spielen können, zumindest von der Leistung her, denn denn 768 oder 1024 MB dürften dann viel zu wenig sein.

Spasstiger
2008-03-27, 16:28:33
Wo? :rolleyes:
Hier (http://www.pcgameshardware.de/aid,637262/Test/Benchmark/PCGH-Test_Geforce_9800_GX2_SLI/) z.B., vergleiche GeForce 9800 GX2 (mit "VRAM-Bug") und HD3870 X2 (mit gut funktionierendem Speichermanagement):

Niedrigere VRAM-Last:
http://www.pcgameshardware.de/screenshots/original/2008/03/PCGH_Geforce_9800_GX2_Crysis_1280x1024_1.png
9800 GX2: 45,7 fps
HD3870 X2: 27,3 fps

Höhere VRAM-Last:
http://www.pcgameshardware.de/screenshots/original/2008/03/PCGH_Geforce_9800_GX2_Crysis_1650x1080_2.png
9800 GX2: 8,6 fps
HD3870 X2: 19,7 fps
Komischerweise bricht der Quad-SLI-Verbund deutlich weniger stark ein.

LovesuckZ
2008-03-27, 16:46:48
Na, dafür hat die AMD einen "niedrigen Vram-Last" Bug. Es gleicht sich eben alles aus. Und spielbar ist nur die 9800GX2 in 1280*1024.

Gast
2008-03-27, 16:47:35
Dass es sich dabei nicht um einen Bug handelt, wurde doch schon ausreichend durchgekaut.

Spasstiger
2008-03-27, 17:10:06
Na, dafür hat die AMD einen "niedrigen Vram-Last" Bug.
Das ist kein Bug, die Architektur und die generelle Rechenleistung sind im Fall von Crysis einfach nur unterlegen.
Also mich würde es definitiv nerven, wenn meine Grafikkarte bei von mir genutzten Auflösungen regelmäßig deftig einbricht statt einfach nur konstant niedrigere Frameraten zu liefern.

LovesuckZ
2008-03-27, 17:15:06
Das ist kein Bug, die Architektur und die generelle Rechenleistung sind im Fall von Crysis einfach nur unterlegen.

Und woran unterscheidet es sich zum "Vram Bug"? :confused:


Also mich würde es definitiv nerven, wenn meine Grafikkarte bei von mir genutzten Auflösungen regelmäßig deftig einbricht statt einfach nur konstant niedrigere Frameraten zu liefern.

Es sind konstant niedrige Frames bei nVidia.

Gast
2008-03-27, 17:36:58
Sorgen machen mir die ROPs. Bei einem 384-Bit-SI wären ja immer noch 24 ROPs zu erwarten. Und das bei eventuell verdoppelter Bandbreite und verdreifachter Shaderleistung gegenüber dem G80. Man müsste die ROP-Domain dann schon mit 1 GHz takten, um ungefähr dasselbe Verhältnis wie beim G80 zu erreichen. Der G92 hat ja ganz klar zu wenig ROP-Power wie man an Benchmarks in hohen Auflösungen + AA (v.a. 8xAA) sieht.

Die ROPs sehen aber nicht mehr so aus wie noch bei G80 :)

Spasstiger
2008-03-27, 17:41:53
Die ROPs sehen aber nicht mehr so aus wie noch bei G80 :)
Hoffen wir es. Die GT200 sollte auch bei extremen Auflösungen und AA-Settings Frameraten wie ein Triple-SLI-Verbund aus drei 8800 GTXen liefern und nicht kläglich scheitern wie die 9800 GX2.

dargo
2008-03-27, 22:51:17
Wie schauts eigentlich bezüglich Stromverbrauch aus? Wird man da das Niveau vom G80 halten können, oder wird der Verbrauch abermals steigen?

Das glaube ich auf keinem Fall. Ich gehe von ca. 180-200W real beim GT200 aus.

Ailuros
2008-03-28, 05:25:52
Wenn Nvidia den VRAM-Bug fixen kann, sehe ich keine Probleme mit 768 MiB VRAM. Welches Spiel verwendet schon deutlich mehr? Die Spieleentwickler orientieren sich immer mehr an der Konsolenhardware und da ist Speicher Mangelware. Entsprechend sind auch bei PC-Spielen keine drastischen Steigerungen in den nächsten zwei Jahren zu erwarten. Es wird mehr auf arithmetische Last als Texturlast hinauslaufen.

Trotzdem koennte man einiges an den TMUs aendern; G84/9x sind ziemlich schwach mit bilinear.

Die vorsichtig geschätzten Specs könnten also so aussehen?
- 10 Shadercluster zu je 3 Vec8-SPUs => 240 skalare SPUs

Bleiben wir mal vorruebergehend dabei dass aus 16SPs es hoechstwahrscheinlich nun 24SPs sind pro cluster.

- 384 Bit SI, 24 ROPs

512/32

- 80 TMUs

Keine Ahnung; es koennten auch mehr sein wenn sie mit TA/TF variablen Zahlen gespielt haben.

- 768 MiB GDDR5-Speicher (evtl. 1536 MiB bei einer Ultra-Version)

Siehe oben.

- Shadertakt > 1,5 GHz, ROP/TMU-Takt > 800 MHz

Wieso 800/1500?

Speichertakt > 1,6 GHz

Wohl eher 1.1

BlackBirdSR
2008-03-28, 05:29:54
Das glaube ich auf keinem Fall. Ich gehe von ca. 180-200W real beim GT200 aus.

Dann stellt sich mir folgende Frage:
Geld wird nicht mit einer High-End-Karte verdient, sondern mit den Modellen im Low-End und Mainstream. Wie müsste so ein Chip aussehen, der einer 200W peak Architektur entstammt?
Die resultierende Leistung würde eine rießige Kluft zwischen High-End und Mainstream hinterlassen. Und der Dumme ist wieder der Kunde, kann die "Geforce Next" für ca. 150€ u. U. doch immer noch kein Crysis in flüssigen Bildern auf den 22" Bildschirm zaubern.

Kurzum: Dieser Chip muss auch nach unten skalieren, und ein Low-End Mainstream Produkt darf dann nicht plötzlich an der 9600GT scheitern, oder so viel vebrrauchen wie die 8800GTX.

Ailuros
2008-03-28, 05:37:05
Kurzum: Dieser Chip muss auch nach unten skalieren, und ein Low-End Mainstream Produkt darf dann nicht plötzlich an der 9600GT scheitern, oder so viel vebrrauchen wie die 8800GTX.

Wenn sie noch alle Tassen im Schrank haben dann kommt ein solches mainstream SKU mit 55nm und eher etwas in Richtung 4*64bit.

GeneralHanno
2008-03-28, 08:28:08
Zitat:Speichertakt > 1,6 GHz

Wohl eher 1.1

aber GDDR5, oder doch noch GDDR3 ?

Gast
2008-03-28, 08:50:11
Trotzdem koennte man einiges an den TMUs aendern; G84/9x sind ziemlich schwach mit bilinear.



Bleiben wir mal vorruebergehend dabei dass aus 16SPs es hoechstwahrscheinlich nun 24SPs sind pro cluster.



512/32



Keine Ahnung; es koennten auch mehr sein wenn sie mit TA/TF variablen Zahlen gespielt haben.



Siehe oben.



Wieso 800/1500?



Wohl eher 1.1

Ein 512-bit SI mit GDDR3. Da scheint GDDR5 wohl doch noch nicht so weit zu sein.

dargo
2008-03-28, 10:48:02
512/32

Wohl eher 1.1
Aha, dann geht NV wohl auf Nummer sicher und will so Knappheit beim GDDR5 umgehen.

Dann stellt sich mir folgende Frage:
Geld wird nicht mit einer High-End-Karte verdient, sondern mit den Modellen im Low-End und Mainstream. Wie müsste so ein Chip aussehen, der einer 200W peak Architektur entstammt?
Die resultierende Leistung würde eine rießige Kluft zwischen High-End und Mainstream hinterlassen. Und der Dumme ist wieder der Kunde, kann die "Geforce Next" für ca. 150€ u. U. doch immer noch kein Crysis in flüssigen Bildern auf den 22" Bildschirm zaubern.

Kurzum: Dieser Chip muss auch nach unten skalieren, und ein Low-End Mainstream Produkt darf dann nicht plötzlich an der 9600GT scheitern, oder so viel vebrrauchen wie die 8800GTX.
Nun, ich bin mir gar nicht sicher ob der GT200 überhaupt weit nach unten skalieren will, zumindest nicht in 65nm. Vielleicht später in 55/45nm. Für das untere Segment ist doch der G92b geplant, afaik.

GeneralHanno
2008-03-28, 10:51:13
wobei GEGEN 1,1GHz GDDR3 würde sprechen, dass diese speicherbausteine (0,83ns) nur 64MiB haben. d.h. mit 8 speicherbausteinen hätte man 512MiB Vram und mit 16 (!) speicherbausteinen 1GiB Vram ...

AnarchX
2008-03-28, 10:58:12
Für 512-Bit brauch es doch 16 Chips: 16*32-Bit = 512-Bit.
Also passt das schon.

Naja, da kann man dann wohl wenigstens beim GT200-"Refresh", der wohl wieder eine kleineres SI hat, fast gleiche Bandbreiten durch GDDR5 erwarten.

Gast
2008-03-28, 11:48:16
Für 512-Bit brauch es doch 16 Chips: 16*32-Bit = 512-Bit.
Also passt das schon.

Naja, da kann man dann wohl wenigstens beim GT200-"Refresh", der wohl wieder eine kleineres SI hat, fast gleiche Bandbreiten durch GDDR5 erwarten.

Bei NVs verschwenderischer Platinenbauweise reicht das locker für "full-size" mit Henkel dran. :D

Gast
2008-03-28, 11:49:07
wobei GEGEN 1,1GHz GDDR3 würde sprechen, dass diese speicherbausteine (0,83ns) nur 64MiB haben. d.h. mit 8 speicherbausteinen hätte man 512MiB Vram und mit 16 (!) speicherbausteinen 1GiB Vram ...

Ein R600 hatte auch 16 Speicherbausteine, geht auch gar nicht anders bei einem 512-bit SI.

Gast
2008-03-30, 18:56:51
doch kannst 32 nehmen ;)

Sorkalm
2008-03-31, 12:54:18
Expreview meldet sich zu Wort - und, das gibt mir zu denken, - die hatten bisher verdammt gute Quellen was Nvidia-Chips angeht:

http://en.expreview.com/2008/03/31/gt200-to-become-9900gtx-and-9900gx2-launch-date-set-to-july/

GT200 to become 9900GTX and 9900GX2, launch date set to July

According to our sources, GT200’s final product name and launch day have been set. Two NVIDIA GeForce card will use the core, they are 9900GX2 and 9900GTX.

It is similar to today’s NV tactic: 9900GX2 just like todays 9800GX2, it is a two GPU product, and 9900GTX is a conventional single GPU product.source mentions that both cards will be announce in July.

GT200 = G92b (x2)?


Edit: Und für alle die an einen Aprilscherz denken: Auch wenn das eine asiatische Seite ist, bei der News steht "March 31st".

Gast
2008-03-31, 13:15:29
glaube nicht wirklich dran,der gt200 war doch eh vornerein für ende des jahres geplant.
das mitn g92b und den namen kann stimmen, aber der gt200 ist noch was ganz anderes

GeneralHanno
2008-03-31, 13:21:31
die 500mm²+ die wird NIEMALS auf einem dual-gpu-SKU landen - NIEMALS!

Sorkalm
2008-03-31, 13:23:00
die 500mm²+ die wird NIEMALS auf einem dual-gpu-SKU landen - NIEMALS!

Korrekt. Deswegen wird wohl auch GT200 nicht dieser Die sein. Oder: Nvidia spielt ein sehr gutes Codenamespiel. ;)

AnarchX
2008-03-31, 13:35:09
glaube nicht wirklich dran,der gt200 war doch eh vornerein für ende des jahres geplant.

Nein, GT200 war/ist nicht für Ende 2008 geplant.

Da wird wohl Expreview bzw. ihre Quelle eher GT200 mit G92-B verwechselt haben, der mit wohlmöglich bis zu 800MHz eine solche Bezeichnung verdient hätte.

Sorkalm
2008-03-31, 13:42:06
Tja, oder der G92b heißt bei Nvidia GT200. Der Launch passt nämlich ziemlich genau zum Zeitraum.

Nur dann kennen wir jetzt gar keinen Codenamen für das Monster-Die.

Blacksoul
2008-03-31, 13:44:46
War es nicht so, dass das T in GT200, für Ten stehen sollte?
Also GeForce Ten. Somit wäre die 9900-Bezeichnung wieder hinfällig.


t.b.d

Sorkalm
2008-03-31, 13:45:37
Naja, dann hat die Quelle wohl wirklich den Codenamen verwechselt.

Wann soll denn der große Die erscheinen? Ende 2008?

Gast
2008-03-31, 13:49:55
Wieso sollte der Codename für eine so geringe Änderung an Performance/Features eine solche Änderung durchlaufen? Das macht keinen Sinn. Ebenso macht es keinen Sinn, dass ein solcher Die, wen wir uns unter GT200 vorstellen, auf eine Dual-GPU-Karte kommt. Die Quelle hat höchstwahrscheinlich einfach nur den Codenamen vertauscht. IMO wäre es fahrlässig, "unseren" GT200 für Juli zu erwarten. G92B würde auf diesen Zeitraum viel besser passen. Genauso wie es das Namensschema zu erwarten gibt.

Sorkalm
2008-03-31, 13:51:57
Auf jeden Fall heißt das eins: Wenn eine 9900 GX2 im Juli kommt, dauert es noch etwas bis zum nächsten großen Wurf.

Gast
2008-03-31, 14:36:20
wieder so ein Krüppel G92 ich könnt kotzen :(

Gast
2008-03-31, 14:39:31
Nein, GT200 war/ist nicht für Ende 2008 geplant.


für wann denn dann?
mit ende des jahres meinte ich generell q4, wenns keine probleme gibt frühes q4, solltest probleme geben vll spätes oder meinste der kommt früher?

GeneralHanno
2008-03-31, 14:45:17
damit der G92 mit GDDR5 laufen würde, müsste man doch den speicherkontroler (auf dem die) überarbeiten, oder?

Spasstiger
2008-03-31, 14:57:52
Edit: Und für alle die an einen Aprilscherz denken: Auch wenn das eine asiatische Seite ist, bei der News steht "March 31st".
Die sind uns allerdings auch ein paar Stunden voraus.
Ich hoffe jedenfalls auf einen echten High-End-Nachfolger der 8800 GTX/Ultra noch in diesem Jahr. Als Besitzer eines 30" TFTs muss man doch langsam verzweifeln, wenn man es auf GPU-Killer wie Crysis abgesehen hat. Gerade mal Triple SLI mit drei 8800 GTX/Ultra kommt hierfür wirklich in Frage (evtl. noch Crossfire X mit 2*HD3870 X2), möchte man nicht auf Features und DX10 verzichten. Und mit Triple SLI hat man hässliche Mikroruckler.

AnarchX
2008-03-31, 15:24:30
für wann denn dann?

Q2, was sich mittlerweile wohl auf Anfang Q3 geändert haben kann.
Aber warten wir einfach die Computex Anfang Juni ab.;)

Selbst wenn es die 9900GTX und 9900GX2 gibt, so könnte ich mir vorstellen, dass diese sich eher unter dem Preisbereich des GT200 bewegen - <400€ (?), immerhin soll G92B auch nur um die 280mm² liegen.

dargo
2008-03-31, 15:33:11
Selbst wenn es die 9900GTX und 9900GX2 gibt, so könnte ich mir vorstellen, dass diese sich eher unter dem Preisbereich des GT200 bewegen - <400€ (?), immerhin soll G92B auch nur um die 280mm² liegen.
Ich denke eher, bei der G9900GTX handelt es sich einfach um den G92b und bei der G9900GX2 2xG92b mit etwas niedrigeren Taktraten (beides in 55nm). Dh. die Lebenszeit der G9800GTX und G9800GX2 dürfte sehr kurz sein.