PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x - Teil 2


Seiten : 1 2 3 [4] 5

Adam D.
2007-10-04, 22:27:46
Das sind für mich noch nicht höhere Settings.
Man sollte den geringeren Speicher nicht unterschätzen...

(In 1600*1200 mit 4x AA / 16x AF sind es dann 27%.)
Jo, und da punktet der G92 mit seinen 512MB VRam ja auch. Deshalb halte ich ja eine relativ nahe Performance an der GTS für durchaus realistisch.

Gast
2007-10-04, 23:09:58
was kann man vom G90 erwarten,nur ein lahmer Refresh mit 10-20% mehr FPS ?

Henroldus
2007-10-04, 23:29:36
was kann man vom G90 erwarten,nur ein lahmer Refresh mit 10-20% mehr FPS ?
ja genau und das nach über einem Jahr weiterentwicklung und neuerdings mit der Konkurrenz im Nacken :|

</ironie>

Gast
2007-10-04, 23:39:51
Laut TweakPC sollen aus diversen Quellen bereits Informationen über die neue GeForce Generation ans Licht gekommen sein.
Ging man zuvor aus, dass der G92 eine Midrange Karte wird, so soll man jetzt zum Entschluss gekommen sein,
dass es ein High-End Modell sein wird, die GeForce 9800.
Nach unbestätigten Angaben soll der G92 bereits im November vorgestellt werden
und über eine Milliarde Transistoren verfügen, im G80 sind es lediglich 681 Millionen.

Spezifikationen des neuen G92 auf einer GeForce 9800 GTX sollen folgende sein:

65 Nanometer Prozess
Über eine Milliarde Transistoren
Unified-Shader-Architecture der zweiten Generation
Floatingpoint 64 Support
Über ein Teraflop Shader-Rechengeschwindigkeit
MADD+ADD Konfiguration für die Shader (2 + 1 FLOPS = 3 FLOPS pro ALU)
512-Bit-Speicher Interface
1.024 Megabyte GDDR4-Speicher
Direct-X 10.1 Support
OpenGL-3.0 Support
eDRAM die für "FREE 4xAA”
Eingebauter Audio-Chip (HDMI)
Verbesserte AA- und AF-Qualität
Die mutmaßlichen Preise der Karten sollen auch schon bekannt sein, so soll die GeForce 9800 GTX zwischen 549 und 649 US-Dollar und die GeForce 9800 GTS zwischen 399 und 499 US-Dollar kosten.

Quelle: TweakPC


----------------------------------------------------------------------------------------------------------


Angeblich soll der G80 Refresh also der G81 mit 25% mehr Shader Einheiten kommen.


"Im März wird bekanntlich die neue DirectX10 Grafikkartengeneration von ATI erwartet.

nVidia hat seine neuen Grafikkarten (GeForce 8) bereits seit einiger Zeit auf dem Markt,
will aber offenbar nochmal nachlegen, um ATI jeglichen Wind aus den Segeln zu nehmen.

Angeblich ist eine GeForce 8900 GTX mit 25% mehr Shader Einheiten geplant, das wären dann 160.
Ob dieses Modell weiterhin auf dem in 90nm Technik gefertigten G80 Grafikchip basiert
und ob es höher getaktet wird als eine GeForce 8800 GTX, ist noch Spekulation."

was soll immer dieses edram und 4xaa for free ? hat die xbox360 auch drin und AA ist selten an.
aber erst 1Q is ätzend und dann bestimmt nichtmal viel schneller.

Superheld
2007-10-04, 23:42:00
Über eine Milliarde Transistoren:eek:

Die gelbe Eule
2007-10-04, 23:43:53
@Gast:

Hört sich an wie wie aufgewärmte alte Gerüchte. Sollte es aber dennoch so kommen, hätte Houston ein Problem ^^

Henroldus
2007-10-04, 23:48:29
liesst sich wie ein wunschzettel von onkel Fuad, auf dem alle Features(PCIe 2.0 fehlt übrigens) abgehakt werden können.
bei tweakpc steht nix, hier will nur ein gast provozieren und gerüchte streuen :rolleyes:

"zwischen" Preise gabs auch noch nie

Hvoralek
2007-10-05, 00:10:36
Diese angeblichen Spezifikationen gab es (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5846032#post5846032) doch schon mehrfach....

Steffko
2007-10-05, 00:33:13
Die sollen langsam die Hosen runterlassen, ich werd hektisch ;D

Btw. ist eigentlich davon auszugehen, dass die Karten ziemlich kurz nach der Präsentation schon in den Handel kommen oder wird die Karte, die da im November präsentiert wird (was auch immer es letztlich ist), ohnehin erst irgendwann 2008 zu haben?

deekey777
2007-10-05, 00:40:32
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5698117#post5698117
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5756099&postcount=630
Henroldus:
Schonmal auf die Idee gekommen, dass der Gast möglicherweise nur etwas über den G92 recherchiert hat und (erst jetzt) auf diesen Unsinn gestossen ist? Da ist doch ein Smiley (:mad:), was die Vermutung nahelegt, dass er sich über Unsinn einfach aufregt und dies hier kundtut.

Gast
2007-10-05, 02:07:01
Jo, und da punktet der G92 mit seinen 512MB VRam ja auch. Deshalb halte ich ja eine relativ nahe Performance an der GTS für durchaus realistisch.

Gibt ja ne neue GTS640 mit 112SPs und 28TMUs. Wenn die zum gleichen Preis kommt (oder 299€/$) passt das. Die 8800GT512 (G92) wird sich dann genau zwischen der 320 und 640er Version der "alten" GTS einsortieren für 249 €/$ ?
Das die 8800GT256 dann gleich die 8600GTS ersetzt kann ich mir gut vorstellen, wenn es sich für nVidia rechnet, sonst machen sie das ja nicht. Ziel war auch dieses Jahr 45% Marge oder ^^

seahawk
2007-10-05, 07:21:45
Beyond3D zeichent doch langsam ein klares Bild

Und das sieht gut aus für AMD :D

RV670 Gladiator ca. 8800 new GTS
RV 670 Revival > G92 aka 8800GT

Erhebliche Hitzeprobleme bei G92 und hohe TDP.

Gast
2007-10-05, 08:56:48
Ich mag deine Einschätzungen. Sie haben immer etwas von Absurdität und Sarkasmus.

LovesuckZ

Gast
2007-10-05, 09:12:31
Beyond3D zeichent doch langsam ein klares Bild
[...]
Erhebliche Hitzeprobleme bei G92 und hohe TDP.
Halte ich für sehr unwahrscheinlich. Diese Probleme bei einem Refresh? Ne ;)

AnarchX
2007-10-05, 10:07:05
Nun auch ganz in schwarz.
Wobei es irgendwie aussieht als wäre sie nur angemalt (grünes PCB schimmert oben beim SLI-Connector durch)?:|
http://img212.imageshack.us/img212/8092/phkgt1ap0.jpg
http://img526.imageshack.us/img526/7671/phkgt2al2.jpg
http://we.pcinlife.com/thread-828690-1-1.html

Gast
2007-10-05, 10:10:10
Warum macht nie jemand irgendwelche Test mit den Karten? Man, Man, Man.

James Ryan
2007-10-05, 10:24:33
:biggrin:
Goil, die Karte ist schwarz angemalt, sieht man gut an den Teilen auf der Rückseite.

btw, die 3DC-Newsschreiber wissen anscheinend einiges genauer:
Generell dürfte diese neue GeForce 8800 GTS als nVidias Antwort auf den RV670-Chip (Radeon HD 2950 Pro und XT) zu sehen sein, nachdem dieser stärker ausfällt als erwartet und nVidias eigene Lösung für das Performance-Segment in Form des G92-Chips (GeForce 8800 GT) zwar gut und günstig ausgefallen ist, aber von der Performance her wohl nicht gegen die schnellste RV670-Variante ankommen kann.
:|

MfG :cool:

Gast
2007-10-05, 10:45:07
Vergiss nicht das es nur eine Meinung/Wertung ist. Denn die andere Seite, Grund für eine schnellere 8800GTS könnte sein: Abstand zur 8800GT zu gewinnen. Man muss ja auch ne Karte für das 300-350€ Segment haben, wenn man nicht die GTX da reinfallen lassen will.
Die News liest sich so nur schöner da man "Druck" von AMD auf nV besser vermarktwursten kann.

LovesuckZ
2007-10-05, 11:23:41
Nvidia admits defeat in G92 vs. RV670 battle (http://www.theinquirer.net/gb/inquirer/news/2007/10/03/nvidia-admits-defeat-g92-vs)

This time around, Nvidia did not tout its G92_200 series as the fastest thing since Niki Lauda, but rather admitted a defeat in this all-popular synthetic benchmark at the hands of yet unnamed Radeon HD part.
A reference board from Nvidia is capable of scoring 10.800 3DMarks, while a reference board from ATI will score around 11.400 3DMarks, or a clear 550-600 points advantage.

Ja, ganze 600 Punkte oder ca. 6% schneller im 3dMark2006.
Das Leute immer noch nichts daraus gelernt haben, dass Werte ohne AA und AF keine Bedeutung haben?!

http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_21.html#sect0
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1024mb/6dm1_4x.gif

Mit AA und AF kann es dann schonmal so aussehen!

Gast
2007-10-05, 11:35:27
Nvidia admits defeat in G92 vs. RV670 battle (http://www.theinquirer.net/gb/inquirer/news/2007/10/03/nvidia-admits-defeat-g92-vs)


Ja, ganze 600 Punkte oder ca. 6% schneller im 3dMark2006.
Das Leute immer noch nichts daraus gelernt haben, dass Werte ohne AA und AF keine Bedeutung haben?!


Wenn ein G92 nicht nur 32TFUs, sondern auch 32 TAUs hat, dann sagt das eine ganze menge aus.


http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_21.html#sect0
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1024mb/6dm1_4x.gif

Mit AA und AF kann es dann schonmal so aussehen!

Oder so:

http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1024mb/6dm4_4x.gif

Gast
2007-10-05, 11:48:46
Geforce 8800 GT doesn't do DirectX 10.1: No support for Shader model 4.1 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3479&Itemid=1)

reunion

LovesuckZ
2007-10-05, 11:53:09
Wenn ein G92 nicht nur 32TFUs, sondern auch 32 TAUs hat, dann sagt das eine ganze menge aus.

Und was?
Zu deinem Bild: Ich wette, dass AA nicht funktioniert. Oder seit wann sollte eine X2600XT fast doppelt so schnell sein wie eine 1950pro, wenn AA ins Spiel kommt?
http://www.xbitlabs.com/articles/video/display/asus-eah2600pro_18.html
3DMark2006 ist mitnichten texturleistungsabängig. Die guten Resultate der 2900XT Karten sind ohne AA bekannt.

LovesuckZ
2007-10-05, 11:53:49
Geforce 8800 GT doesn't do DirectX 10.1: No support for Shader model 4.1 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3479&Itemid=1)
reunion

It can mean one of two things, one, that Nvidia doesn't want release the information or two, simply that this chip doesn't have support for Shader model 4.1 and DirectX 10.1.

;D

Gast
2007-10-05, 11:59:54
Und was?


Das die Karte nicht nur im 3dmark langsamer ist.


Zu deinem Bild: Ich wette, dass AA nicht funktioniert.


Möglich.


3DMark2006 ist mitnichten texturleistungsabängig. Die guten Resultate der 2900XT Karten sind ohne AA bekannt.

Oh doch, zumindest der SM2-Test hängt bei einem R600 klar an der Texelfüllrate, denn man AF bricht er dort pervers ein.

reunion

Gast
2007-10-05, 12:01:39
;D

Fuad eben. Trotzdem scheint ein SM4.1 Support alleine schon dem Namen 8800GT wegen unwahrscheinlich.

reunion

LovesuckZ
2007-10-05, 12:06:40
Das die Karte nicht nur im 3dmark langsamer ist.

Das liest du aus dem 3DMark2006 Ergebnis? :confused:


Möglich.

Aha. Also wolltest du nur schnell etwas zeigen, um deine fave-Karte im besseren Licht darstehen zulassen? :rolleyes:


Oh doch, zumindest der SM2-Test hängt bei einem R600 klar an der Texelfüllrate, denn man AF bricht er dort pervers ein.

Und welche Limitierung hindert der 8800GTX dort besser abzuschneiden?

Gast
2007-10-05, 12:07:03
Und was?
Zu deinem Bild: Ich wette, dass AA nicht funktioniert. Oder seit wann sollte eine X2600XT fast doppelt so schnell sein wie eine 1950pro, wenn AA ins Spiel kommt?
http://www.xbitlabs.com/articles/video/display/asus-eah2600pro_18.html
3DMark2006 ist mitnichten texturleistungsabängig. Die guten Resultate der 2900XT Karten sind ohne AA bekannt.

Die Werte bei Xbitlabs kann man eh vergessen, da die 3DMark Werte alle nach oben gingen mit neuen Treibern.
Z.b. FW163.67 @ Vista 32
C2D6400@2,66GHz und einer GTS640 auf Standard Takt

1280*1024 4xAA + TMSAA / 16xAF
HDR/SM3 HDR2 (DeepFreeze): 26,7 und nicht 19,6
SM2 Test 1 (Proxycon): 23,7 vs. 18,4

Gast
2007-10-05, 12:13:50
Das liest du aus dem 3DMark2006 Ergebnis? :confused:


Aus was denn sonst?


Aha. Also wolltest du nur schnell etwas zeigen, um deine fave-Karte im besseren Licht darstehen zulassen? :rolleyes:


Was soll diese Unterstellung? Ich nehme doch an, dass auch AA an ist, wenn xbitlabs das hinschreibt, nur beweisen kann ich es natürlich nicht. Deshalb ist deine Vermutung möglich, aber mehr auch nicht. Im übrigen war es nicht nur ich, der "schnell etwas zeigen wollte, um seine fave-Karte im besseren Licht darstehen zulassen". Wer im Glashaus sitzt sollte bekanntlich nicht mit Steinen werfen.


Und welche Limitierung hindert der 8800GTX dort besser abzuschneiden?

Woher soll ich das wissen? Eine 8600GTS geht dort jedenfalls gut ab, deshalb liegen die fehlenden Addressierungseinheiten nahe.

reunion

LovesuckZ
2007-10-05, 12:22:25
Aus was denn sonst?

Tja, da haben wir das Problem. Du hast keine Ahnung, wie sich beide Karten in Spielen mit und ohne AA/AF verhalten, stimmt's?


Was soll diese Unterstellung? Ich nehme doch an, dass auch AA an ist, wenn xbitlabs das hinschreibt, nur beweisen kann ich es natürlich nicht. Deshalb ist deine Vermutung möglich, aber mehr auch nicht. Im übrigen war es nicht nur ich, der "schnell etwas zeigen wollte, um seine fave-Karte im besseren Licht darstehen zulassen". Wer im Glashaus sitzt sollte bekanntlich nicht mit Steinen werfen.

Du nimmst an. Aha. Ich habe mir eben mehrere Beispiele von xbitlabs angesehen und dieses Ergebnis rausgelassen.


Woher soll ich das wissen? Eine 8600GTS geht dort jedenfalls gut ab, deshalb liegen die fehlenden Addressierungseinheiten nahe.
reunion

Beide Karten (8600GTS, 2600XT) haben je 16 Adressierungseinheiten. Warum sollte die 8600GTS soviel schneller sein? Wären die Test 1 und 2 von der Texturleistung abhängig, müssten die 8800 Karten wesentlich schneller sein. Das sind sie nicht - die 8800GTS ist sogar langsamer als die 2900XT.

/edit: Wo wir gerade dabei sind: Die 10800 Punkte einer Karte mit 4 Cluster, 16TA/32TFUs und 16 ROPs @ 600Mhz, 64SP @ 1800MHz und mit einem 256bit Speicherinterface @ 1600MHz sind ein No-Go. Würden wir davon ausgehen, dass der 3DMark2006 rein von der Rechenleistung abhängig wäre, müsste man mindesten eine ähnliche Leistung wie die der 8800GTX erreichen. Das wären also 64SP @ 2700Mhz oder 96SP @ 1800Mhz.

robbitop
2007-10-05, 12:26:28
D3D10.1 braucht kein Mensch zu der Lebenszeit der Karte (sogar D3D10 ist in heutigen Spielen irgendwie nur draufgepappt).
Aber schlecht es zu haben, ist es nicht. ;)
Mich wuerde es nicht wundern, wenn RV670 in ihrem Preissegment als Sieger hervorgeht.
Das Teil ist immerhin ein voller R600 mit Verbesserungen. Nur von der Dualversion halte ich (wie von allen CF/SLI Systemen) nichts.

AnarchX
2007-10-05, 12:28:17
Fuad eben. Trotzdem scheint ein SM4.1 Support alleine schon dem Namen 8800GT wegen unwahrscheinlich.


Bzw. bewirbt man es eben nicht groß, da alle GeForce8 D3D10.1-kompatibel sind, wie es die Folie im Post #1 aussagt.

Wir werden sehen...

Noch ein Grund für die hohe Leistung im 3DMark für 8600GTS und vielleicht auch 8800 GT und eben auch R600, könnte vielleicht auch das höher getaktete Vertex-Setup sein, was im praxisfernen 3DMark06, der in gewissem Maße vertexlimitiert sein soll, vielleicht eben etwas bringt.
z.B. reagiert der Vertextest schon, wenn man bei einer GTS allein die ROP-Domain und somit auch das Setup anhebt:
http://forum.beyond3d.com/showpost.php?p=1066431&postcount=6

Gast
2007-10-05, 12:30:46
Tja, da haben wir das Problem. Du hast keine Ahnung, wie sich beide Karten in Spielen mit und ohne AA/AF verhalten, stimmt's?


Bei gleichen Aufbau wie bei G84 wird sich G92 auch gleich Verhalten was die 3dmark/Spieleleistung betrifft.


Du nimmst an. Aha. Ich habe mir eben mehrere Beispiele von xbitlabs angesehen und dieses Ergebnis rausgelassen.


Du bist wirklich lustig. Genausogut könnte ich behaupten, bei deinem verlinken Test war AA nicht an. Was soll der Zirkus?


Beide Karten (8600GTS, 2600XT) haben je 16 Adressierungseinheiten. Warum sollte die 8600GTS soviel schneller sein? Wären die Test 1 und 2 von der Texturleistung abhängig, müssten die 8800 Karten wesentlich schneller sein. Das sind sie nicht - die 8800GTS ist sogar langsamer als die 2900XT.

Ich kann dir nicht folgen.

reunion

Gast
2007-10-05, 12:32:56
Bzw. bewirbt man es eben nicht groß, da alle GeForce8 D3D10.1-kompatibel sind, wie es die Folie im Post #1 aussagt.


Gerade dann würde man es groß bewerben. Wäre die gesamte GF8-Reihe DX10.1 kompatibel, würdest du das sicher in jeder zweiten Marektingfolie dick und fett lesen könne. Aber robbitop hat natürlich recht, brauchen wird man es kaum.


Noch ein Grund für die hohe Leistung im 3DMark für 8600GTS und vielleicht auch 8800 GT und eben auch R600, könnte vielleicht auch das höher getaktete Vertex-Setup sein, was im praxisfernen 3DMark06, der in gewissem Maße vertexlimitiert sein soll, vielleicht eben etwas bringt.
z.B. reagiert der Vertextest schon, wenn man bei einer GTS allein die ROP-Domain und somit auch das Setup anhebt:
http://forum.beyond3d.com/showpost.php?p=1066431&postcount=6

Stimmt, die Vertexleistung war im 3dmark ja auch nicht ganz unwichtig und hier hat eine 8600GTS auch starke Verbesserungen ggü. G80 erfahren.

reunion

Gast
2007-10-05, 12:38:42
/edit: Wo wir gerade dabei sind: Die 10800 Punkte einer Karte mit 4 Cluster, 16TA/32TFUs und 16 ROPs @ 600Mhz, 64SP @ 1800MHz und mit einem 256bit Speicherinterface @ 1600MHz sind ein No-Go. Würden wir davon ausgehen, dass der 3DMark2006 rein von der Rechenleistung abhängig wäre, müsste man mindesten eine ähnliche Leistung wie die der 8800GTX erreichen. Das wären also 64SP @ 2700Mhz oder 96SP @ 1800Mhz.

Da in G92 mit Sicherheit auch die Verbesserungen des G84 vorhanden sind, würde sich das sogar sehr schön ausgehen, denn bereits eine 8600GTS mit nur zwei Cluster erreicht ca. 6K. Ganz umsonst heißt das Ding nicht 8800GT, eine Leistung auf 8800GTX-Niveau glaubst du doch selbst nicht.

reunion

LovesuckZ
2007-10-05, 12:39:41
Bei gleichen Aufbau wie bei G84 wird sich G92 auch gleich Verhalten was die 3dmark/Spieleleistung betrifft.

Interessant, duweißt also schon, wie hoch die Rechenleistung der 8800GT ausfallen wird. Kannst du nicht gleich die ganzen Spezifikationen der Karte nennen?


Du bist wirklich lustig. Genausogut könnte ich behaupten, bei deinem verlinken Test war AA nicht an. Was soll der Zirkus?

Klar, eine X2600XT, die in jedem verfluchten Test mit AA deutlich langsamer als die X1950pro ist, soll ausgerechnet im 3DMark2006, in den beiden Test mit dem Hang zur Rechenleistungsgeschwindigkeit, so dermaßen schnell sein.
Erklären kannst du es nicht, aber es ist erstmal für dich plausible...

Ich kann dir nicht folgen.


Das liegt daran, dass du vorhin unsinn geredet hast: Ausgangspunkt war "Wenn ein G92 nicht nur 32TFUs, sondern auch 32 TAUs hat, dann sagt das eine ganze menge aus." und dann folgte: "Oh doch, zumindest der SM2-Test hängt bei einem R600 klar an der Texelfüllrate, denn man AF bricht er dort pervers ein.".

Da in G92 mit Sicherheit auch die Verbesserungen des G84 vorhanden sind, würde sich das sogar sehr schön ausgehen, denn bereits eine 8600GTS mit nur zwei Cluster erreicht ca. 6K. Ganz umsonst heißt das Ding nicht 8800GT, eine Leistung auf 8800GTX-Niveau glaubst du doch selbst nicht.
reunion

Eine 8600GTS schafft im SM2.0 Test nur 45% der Leistung einer 8800GTX und im SM3.0 Test sind es nur noch 40%. Und nun soll eine 8800GT mit doppelten Funktionseinheiten der 8600GTS plötzlich mehr als die doppelte Leistung erbingen?!
Quelle: Xbitlabs

Winter[Raven]
2007-10-05, 12:39:49
Lieber reunion,

würdest du es lassen auf jedes Postin einzeln zu antworten? Es gibt den Quote Befehlt!!

seahawk
2007-10-05, 12:54:22
Nvidia admits defeat in G92 vs. RV670 battle (http://www.theinquirer.net/gb/inquirer/news/2007/10/03/nvidia-admits-defeat-g92-vs)

!

Das sage ich ja schon lange. ATI is back on top. :biggrin:

G92 ist niocht langsam sondenr auch heiss und daher wuird der Kühler laut, weil der Babylüfter schnell drehen muss.

Gast
2007-10-05, 13:02:50
Interessant, duweißt also schon, wie hoch die Rechenleistung der 8800GT ausfallen wird. Kannst du nicht gleich die ganzen Spezifikationen der Karte nennen?


Das habe ich nicht behauptet. Wie jeder andere spekulieren auch ich. Und momentan gehe ich eben von besagtem vier Cluster/64SP Chip mit 256-bit SI und 600/1800 Taktraten aus. Was außer im 3dmark eine Leistung knapp unter der alten 8800GTS ergeben würde und auch sehr gut zum Namen 8800GT passen würde.


Klar, eine X2600XT, die in jedem verfluchten Test mit AA deutlich langsamer als die X1950pro ist, soll ausgerechnet im 3DMark2006, in den beiden Test mit dem Hang zur Rechenleistungsgeschwindigkeit, so dermaßen schnell sein.
Erklären kannst du es nicht, aber es ist erstmal für dich plausible...


Beim 3dmark ist vieles nicht plausibel. Was willst du jetzt von mir, das ich mich niederknie und dir die Füße küssen? Ich habe doch gesagt, das dein Verdacht durchaus möglich ist.


Das liegt daran, dass du vorhin unsinn geredet hast: Ausgangspunkt war "Wenn ein G92 nicht nur 32TFUs, sondern auch 32 TAUs hat, dann sagt das eine ganze menge aus." und dann folgte: "Oh doch, zumindest der SM2-Test hängt bei einem R600 klar an der Texelfüllrate, denn man AF bricht er dort pervers ein.".

Ich wüsste nicht, was daran Unsinn wäre.


Eine 8600GTS schafft im SM2.0 Test nur 45% der Leistung einer 8800GTX und im SM3.0 Test sind es nur noch 40%. Und nun soll eine 8800GT mit doppelten Funktionseinheiten der 8600GTS plötzlich mehr als die doppelte Leistung erbingen?!
Quelle: Xbitlabs

Mit einem Q6600 aufwärts würde sich das ganz locker ausgehen. Wie schon gesagt: Die Gesamtpunkteanzahl ist wertlos ohne Angaben des Testsystems.

reunion

AnarchX
2007-10-05, 13:04:31
Das sage ich ja schon lange. ATI is back on top. :biggrin:

G92 ist niocht langsam sondenr auch heiss und daher wuird der Kühler laut, weil der Babylüfter schnell drehen muss.

G92_200 (wohl die 88GT) - $229 vs RV670XT $299, da fehlt noch G92_300.;)

Gast
2007-10-05, 13:05:34
;5904418']Lieber reunion,

würdest du es lassen auf jedes Postin einzeln zu antworten? Es gibt den Quote Befehlt!!

Lieber Raven. Wie du vielleicht mithilfe deine scharfen Verstandes bemerkt haben dürftest, wurden die Beiträge, auf die ich geantwortet habe, nicht zur gleichen Zeit erstellt. Und da ich als Gast nicht editieren kann, war es mir nicht möglich, diese in einem Beitrag zusammenzufassen.

reunion

Gast
2007-10-05, 13:10:41
G92_200 (wohl die 88GT) - $229 vs RV670XT $299, da fehlt noch G92_300.;)

Wohl eher 8800GT vs. RV670PRO und RV670 XT vs. 8800GTS_new. Würde die 8800GT mit einem RV670XT mithalten, würde nV das Ding nicht so billig verkaufen. Und wer oder was soll eine G92_300 sein? Hierbei könnte es sich genausogut schon um die 8800GT handeln,.

reunion

AnarchX
2007-10-05, 13:14:01
Wohl eher 8800GT vs. RV670PRO und RV670 XT vs. 8800GTS_new. Würde die 8800GT mit einem RV670XT mithalten, würde nV das Ding nicht so billig verkaufen.
Naja, ich meinte das INQ hier eben diese beiden unterschiedlich kostenden SKUs verglich.;)


Und wer oder was soll eine G92_300 sein? Hierbei könnte es sich genausogut schon um die 8800GT handeln,.

Vielleicht G92 mit allen bzw. 6C oder 4C@700MHz+/2GHz+/1GHz+, der dann die New-GTS, nach deren Aberverkauf ersetzt?

James Ryan
2007-10-05, 13:16:16
G92 ist niocht langsam sondenr auch heiss und daher wuird der Kühler laut, weil der Babylüfter schnell drehen muss.

Mit lauten Lüftern und heißen Chips hat ATi ja Erfahrung! ;)
SCNR!

@AnarchX
Ist der G92-300 eventuell der etwas zu groß geratene Chip über den noch gar nichts richtig bekannt ist?

MfG :cool:

Gast
2007-10-05, 13:18:39
@AnarchX
Ist der G92-300 eventuell der etwas zu groß geratene Chip über den noch gar nichts richtig bekannt ist?

MfG :cool:

Wenn es ein anderer Chip wäre, würde sich das Ding nicht G92 nennen. Wie bei jedem Chip gibt es eben auch bei G92 verschiedene Varianten mit verschiedenen Taktraten.

reunion

Gast
2007-10-05, 13:21:11
Vielleicht G92 mit allen bzw. 6C oder 4C@700MHz+/2GHz+/1GHz+, der dann die New-GTS, nach deren Aberverkauf ersetzt?

Du weißt ja, was ich davon halte. Es wurde schon so oft über Chips spekuliert, die zu beginn teilweise deaktiviert sind und erst später ihre volle Leistungsfähigkeit erhalten, und jedesmal war es falsch. Das lohnt sich einfach nicht. Hätte ein G92 6 Cluster, würde es keine neue GTS geben.

reunion

LovesuckZ
2007-10-05, 13:21:12
Wenn es ein anderer Chip wäre, würde sich das Ding nicht G92 nennen. Wie bei jedem Chip gibt es eben auch bei G92 verschiedene Varianten mit verschiedenen Taktraten.
reunion

G80, G70, NV40... Alles Bezeichnungen für unterschiedliche Chip-Ausführungen.

seahawk
2007-10-05, 13:21:25
Mit lauten Lüftern und heißen Chips hat ATi ja Erfahrung! ;)
SCNR!

@AnarchX
Ist der G92-300 eventuell der etwas zu groß geratene Chip über den noch gar nichts richtig bekannt ist?

MfG :cool:

Hat man von der FX5800 gelernt. ;D

Die andere Idee hat hingegen was. Was wäre wenn sich NV entscheiden hätte, statt teildeaktivierter Chips 2 Versionen eines Chips zu bauen.

Die IDee finde ich gerade sehr spannend.

Du weißt ja, was ich davon halte. Es wurde schon so oft über Chips spekuliert, die zu beginn teilweise deaktiviert sind und erst später ihre volle Leistungsfähigkeit erhalten, und jedesmal war es falsch. Das lohnt sich einfach nicht. Hätte ein G92 6 Cluster, würde es keine neue GTS geben.

reunion

Das weiss man nicht. Auch NV wird G90 Reste abverkaufen müssen, so wie auch ATI die X2900RPO brachte um R600 los zu werden.

Gast
2007-10-05, 13:25:13
Das weiss man nicht. Auch NV wird G90 Reste abverkaufen müssen, so wie auch ATI die X2900RPO brachte um R600 los zu werden.

Und warum sollte man das ausgerechnet jetzt machen, wo G92 kommt, und nicht in Erwartung des G92 schon ein paar Monate früher? Ne, wie schon gesagt: Könnte G92 G80 leistungsmäßig ersetzen, dann gäbe es keine neue GTS.

reunion

seahawk
2007-10-05, 13:26:15
Weil am nicht mußte. 8800 war mehr oder weniger ohne Konkurrenz, warum ohne Not die Marge senken ?

Gast
2007-10-05, 13:27:34
Weil am nicht mußte. 8800 war mehr oder weniger ohne Konkurrenz, warum ohne Not die Marge senken ?

Was hat das mit Margen senken zu tun, wenn ich Lagerbestände abbaue?

reunion

James Ryan
2007-10-05, 13:27:46
Was ist denn, wenn NVIDIA die Gf 8800 GTS nur kurzfristig neu auflegt um G80-Chips so schnell wie möglich loswerden zu können?
Dafür würde eine nicht allzugroße Einführung der "neuen" GTS sprechen.

MfG :cool:

Die gelbe Eule
2007-10-05, 13:30:12
Nach oben hin können sie alles langsam tauschen und anstatt die Preise nun deutlich runterzufahren, haut man noch die G80 mit 112SP raus.

Gast
2007-10-05, 13:30:59
Was ist denn, wenn NVIDIA die Gf 8800 GTS nur kurzfristig neu auflegt um G80-Chips so schnell wie möglich loswerden zu können?
Dafür würde eine nicht allzugroße Einführung der "neuen" GTS sprechen.

MfG :cool:

Wenn man die Chips nur loswerden will, braucht man keine neue 8800GTS.

LovesuckZ
2007-10-05, 13:31:15
Was hat das mit Margen senken zu tun, wenn ich Lagerbestände abbaue?
reunion

Weil die Chips billiger angeboten werden müssen? :rolleyes:
Eine Pro kostet in der Fertigung genauso viel wie eine 2900XT. Wird aber für über 100€ weniger angeboten. Schlimmer sieht es noch bei der 2900GT aus, die wird AMD verdammt zusetzen.
nVidia lässt einfach die alte GTS durch die neue Ersetzen und kann so die Margen stabil halten. Und wenn die Bestände geleert sind, kommt die neue Karte.

Gast
2007-10-05, 13:35:53
Weil die Chips billiger angeboten werden müssen? :rolleyes:

Warum? Das G92 im November kommt, würde von NV-Chef schon vor Monaten offiziell verkündet. Und jetzt kommt man drauf, dass man die alten Chips noch loswerden will? Nicht dein ernst, oder?


Eine Pro kostet in der Fertigung genauso viel wie eine 2900XT. Wird aber für über 100€ weniger angeboten. Schlimmer sieht es noch bei der 2900GT aus, die wird AMD verdammt zusetzen.

PRO und GT sind defekte oder zu langsame Chips, entweder man wirft sie weg, und verliert so alles, oder man gleicht den Verlust zumindest teilweise wieder aus.

reunion

Gast
2007-10-05, 13:35:59
Das Tapeout eines Chips kostet mehr als eine Million Dollar, ein Speed-Binning dagegen vermutlich weniger. Zudem kann man das später besser anpassen, ohne nochmal eine Million investieren zu müssen.

Die gelbe Eule
2007-10-05, 13:41:52
Ich versteh dann nicht, warum NV nun die G80 Chips, welche nun massenhaft da sind, einfach in die Tonne hauen soll? Das man heute noch X1800 CF neu kaufen kann, ist mehr traurig als toll. Nur weil einige User aufgrund der "alten" Chips erwarten, daß diese dann 50% günstiger sein sollen, muss NV nicht darauf eingehen.

robbitop
2007-10-05, 13:42:07
Ein Tapeout liegt eher bei ~5 Mio $

deekey777
2007-10-05, 13:43:26
Ein Tapeout liegt eher bei ~5 Mio $
Was kostet ein Respin?

Gast
2007-10-05, 13:44:59
Was kostet ein Respin?

Ein Respin setzt ein neues Tapeout voraus.

reunion

Gast
2007-10-05, 13:46:11
Warum? Das G92 im November kommt, würde von NV-Chef schon vor Monaten offiziell verkündet. Und jetzt kommt man drauf, dass man die alten Chips noch loswerden will? Nicht dein ernst, oder?

Komisch, AMD darf sowas machen, aber bei nVidia ist soetwas böse.


PRO und GT sind defekte oder zu langsame Chips, entweder man wirft sie weg, und verliert so alles, oder man gleicht den Verlust zumindest teilweise wieder aus.
reunion

Ach und was ist eine 8800GTS? Der Cut zwischen 8800GTS und 8800GTX war riesig, ein Wunder das nVidia jetzt erst Karten mit 7 Clusters bringt.

LovesuckZ

Gast
2007-10-05, 13:53:52
Komisch, AMD darf sowas machen, aber bei nVidia ist soetwas böse.


Was darf AMD? R600 wird mit an Sicherheit grenzender Wahrscheinlichkeit durch RV670 ersetzt. Das muss man sich mal vorstellen, was sich hier einige zusammenträumen: Da soll G92 nur mit 2/3 seiner eigentlichen Funktionseinheiten kommen, da nV jetzt draufkommt, dass man ja noch G80 Chips auf Lager hat und dieser verkaufen will.


Ach und was ist eine 8800GTS? Der Cut zwischen 8800GTS und 8800GTX war riesig, ein Wunder das nVidia jetzt erst Karten mit 7 Clusters bringt.

LovesuckZ

Eine 8800GTS gibt es schon ewig. Bestände dieser hätte man schon längst leeren können.

reunion

Nakai
2007-10-05, 13:55:39
Komisch, AMD darf sowas machen, aber bei nVidia ist soetwas böse.

Wieso böse, das wurde ja schon immer so gemacht. Nur das Problem wird sein, das Nv wohl zuviele G80 auf Lager hat. Ich denke, man hat nicht so einen starken Rv670 erwartet, deswegen will man nun ne verbesserte GTS gegen diesen werfen um nicht so schlecht dazustehen. Der wahre Highend wird noch auf sich warten, denke ich.

mfg Nakai

Die gelbe Eule
2007-10-05, 14:00:13
Und den R600 gab es wie lange nicht? Ich verstehe bei Dir immernoch nicht, warum man Torschlußpanik bekommen sollte und alle G80 abstossen müsste. Wir reden hier auf beiden Seiten von Refreshchips, nicht von neuen Architekturen. Wenn bei gleichem Preis die Leistung etwas besser ist, dafür aber die Leistungsaufnahme deutlich geringer, hat man einen Mehrwert.
Was nun der RV670 besser kann, bei einem höheren Preis, daß muss man erstmal abwarten. Ich glaube kam das ATI den Preis der RV670 bei 225€ ansetzen wird, weil dann hätten sie wieder das Problem ganz oben nichts zu haben und so günstig ist der Chip bestimmt nicht.

Gast
2007-10-05, 14:02:48
Was darf AMD? R600 wird mit an Sicherheit grenzender Wahrscheinlichkeit durch RV670 ersetzt. Das muss man sich mal vorstellen, was sich hier einige zusammenträumen: Da soll G92 nur mit 2/3 seiner eigentlichen Funktionseinheiten kommen, da nV jetzt draufkommt, dass man ja noch G80 Chips auf Lager hat und dieser verkaufen will.

Ach hör auf. Jedesmal gibt es von dir nur Pro-AMD Aussagen. Sei es bei der r600, sei es bei den 2600 Karten oder jetzt bei den neuen Karten.
Du hast kein Plan, was bei nVidia abgeht, tust aber so, als ob du alles wüsstet.


Eine 8800GTS gibt es schon ewig. Bestände dieser hätte man schon längst leeren können.


Nein, da man so seine Marge zerstört hätte. Man heißt ja nicht AMD.

Schon lustig, dass alle Welt weiß, wie stark der rv670 ist.

LovesuckZ

Gast
2007-10-05, 14:08:01
Ich verstehe bei Dir immernoch nicht, warum man Torschlußpanik bekommen sollte und alle G80 abstossen müsste.

Muss man ja nicht, und tut man ja auch nicht. Nur wenn G92 G80 ersetzen würde, dann sollte man es tun.

Ach hör auf. Jedesmal gibt es von dir nur Pro-AMD Aussagen. Sei es bei der r600, sei es bei den 2600 Karten oder jetzt bei den neuen Karten.
Du hast kein Plan, was bei nVidia abgeht, tust aber so, als ob du alles wüsstet.


Da spricht wiedermal genau der richtige.

[QUOTE)
Nein, da man so seine Marge zerstört hätte. Man heißt ja nicht AMD.
[/QUOTE]

Stell dir vor, man kann auch die Produktion herunterfahren und so Lagerbestände abbauen, ganz ohne den Preis zu senken.

Die gelbe Eule
2007-10-05, 14:10:50
Und genau das macht der G92 ja nicht, er ersetzt eben nur die 320er und schiebt sich zwischen 8600-800GTS, nicht die ganze Palette, wäre ja auch leistungsmäßig unmöglich.
Das ATi auch alte Chips zu neuen umlabelt, nur damit sie ins Portfolio passen, ist Dir bekannt oder? Der normale Kunde bekommt davon nichts mit.

Gast
2007-10-05, 14:18:22
Muss man ja nicht, und tut man ja auch nicht. Nur wenn G92 G80 ersetzen würde, dann sollte man es tun.

Das muss er nicht. Es ist immer noch eine Kosten-Nutzen-Frage. Und wenn nVidia emfpindet, dass der G80 bis zum nächsten CHip vollkommen ausreicht, dann werden sie keine unnötigen Entwicklungen und Tape-Outs durchführen.

Da spricht wiedermal genau der richtige.
Warum so angepisst. Ich kann mich noch an die Diskussion errinnern, in der du daraufbestanden hast, dass die 2600XT deutlich weniger Strom benötigen würde als die 8600GTS, da sie keinen Stromanschluss besitze. Kam nicht ganz so.


Stell dir vor, man kann auch die Produktion herunterfahren und so Lagerbestände abbauen, ganz ohne den Preis zu senken.

Du weißt also über die Produktion und Lagerbestände von nVidia bescheit. Aha. Wer sagt, dass sie es nicht schon gemacht haben? Wer sagt, dass sie nicht vielleicht G80-7Cluster Chips für einen Gegenschlag schon länsgt gesammelt haben (vergleich der 7800GTX512)?
Bis auf dir, haben wir anderen keine Übersicht über nVidia's Vorgänge und Pläne. Komisch finde ich, dass AMD anscheinend nicht deinen Vorschlag umsetzt. Aber bei denen kommt es ja auch nicht mehr auf Gewinn an...

LovesuckZ

AnarchX
2007-10-05, 14:21:24
Ich glaube kam das ATI den Preis der RV670 bei 225€ ansetzen wird, weil dann hätten sie wieder das Problem ganz oben nichts zu haben und so günstig ist der Chip bestimmt nicht.

RV670 ist doch nicht nur eine SKU...

2950GT $179 vs 8800 GT 256MB oder vielleicht 8700 GT(S) $179
2950Pro $229/249 vs 8800 GT 512MB
2950XT $299/349 vs New-GTS
2950X2X $499/599 vs 8800Ultra bzw. Nachfolger
(alles Schätzungen, anhand der Gerüchte)

James Ryan
2007-10-05, 14:29:09
Schon lustig, dass alle Welt weiß, wie stark der rv670 ist.

Jep, da hast du Recht. Alles das gleiche Spielchen wie vorm R600 Launch.
Dabei geht es hier um den G92 und bei diesem ist es eben nicht bekannt wie er überhaupt aussehen wird und wie schnell er letztlich wird.

MfG :cool:

Gast
2007-10-05, 14:34:00
Das muss er nicht. Es ist immer noch eine Kosten-Nutzen-Frage. Und wenn nVidia emfpindet, dass der G80 bis zum nächsten CHip vollkommen ausreicht, dann werden sie keine unnötigen Entwicklungen und Tape-Outs durchführen.


G80 muss zwangsläufig bis zum nächsten Chip ausreichen, die Frage ist wann der nächste Chip kommt.


Warum so angepisst.


Weil du wiederholt anstatt auf die Beiträge einzugehen mir irgendetwas auf den Kopf wirfst, was völlig aus dem Zusammenhang gerissen ist.


Ich kann mich noch an die Diskussion errinnern, in der du daraufbestanden hast, dass die 2600XT deutlich weniger Strom benötigen würde als die 8600GTS, da sie keinen Stromanschluss besitze. Kam nicht ganz so.


Die TDP-Angaben waren falsch. Was willst du mir damit jetzt sagen? Ich beanspruche nicht die Wahrheit für mich. Wie jeder andere lege auch ich meine Sicht der Dinge dar.


Du weißt also über die Produktion und Lagerbestände von nVidia bescheit. Aha. Wer sagt, dass sie es nicht schon gemacht haben? Wer sagt, dass sie nicht vielleicht G80-7Cluster Chips für einen Gegenschlag schon länsgt gesammelt haben (vergleich der 7800GTX512)?


Niemand sagt das. Und ich habe auch nirgends irgendetwas in der richtig behauptet. Wieder ein typischen Beispiel von deiner Unfähigkeit auf Beiträge einzugehen. Stattdessen stellst du irgendwelche Behauptungen auf, die nicht stimmen.

reunion

Godmode
2007-10-05, 15:09:42
Ich denke wir bekommen im November wieder ein neues Highend Lineup von Nvidia. Die ganzen FUD Kampagnen wirken ja ziemlich gut, was man anhand dieses Threads merkt.;D

Henroldus
2007-10-05, 15:10:43
GeForce 8800 GT Cooler Has 3 Heat-Pipes (http://vr-zone.com/articles/GeForce_8800_GT_Cooler_Has_3_Heat-Pipes/5320.html)

AnarchX
2007-10-05, 15:16:22
Die Folien kommen aber wohl von einem AIB und nicht NV.
Tritt die 8800 GT vielleicht doch nur gegen die "RV670XTX" an, also gegen die 2950GT?:|

Gast
2007-10-05, 15:18:17
Die Folien kommen aber wohl von einem AIB und nicht NV.
Tritt die 8800 GT vielleicht doch nur gegen die "RV670XTX" an, also gegen die 2950GT?:|

Wie gesagt: 600MHz bei 4 Cluster machen überhaupt keinen Sinn. Und wenn die Karte nur mit 600MHz kommen sollte, erwarte einen Stromverbrauch, der maximal auf dem Niveau der 8600GTS liegt!

LovesuckZ

AnarchX
2007-10-05, 15:20:40
Wie gesagt: 600MHz bei 4 Cluster machen überhaupt keinen Sinn. Und wenn die Karte nur mit 600MHz kommen sollte, erwarte einen Stromverbrauch, der maximal auf dem Niveau der 8600GTS liegt!


Soll ich das noch zehnmal wiederholen, dass die Karte "8800 GT" heißt und wohl ein Shader-Ratio von mehr als 1:2.5 hat.:rolleyes:

Henroldus
2007-10-05, 15:20:40
Die Folien kommen aber wohl von einem AIB und nicht NV.
Tritt die 8800 GT vielleicht doch nur gegen die "RV670XTX" an, also gegen die 2950GT?:|
sieht in der ursprünglichen Quelle
http://www.chilehardware.com/foro/nvidia-vs-amd-t117534.html
jedenfalls so aus.

aber 3 Heatpipes zeugen schon von einer gewissen Hitze :biggrin:

Gast
2007-10-05, 15:23:30
Soll ich das noch zehnmal wiederholen, dass die Karte "8800 GT" heißt und wohl ein Shader-Ratio von mehr als 1:2.5 hat.:rolleyes:

Und? Die Karte kann heißen wie sie will. Die 7900GT war auch nicht schneller als eine 7800GTX mit 512mb.
Jeglicher Stromverbrauch über einer 8600GTS wäre eine Enttäuschung und erbärmlich.

LovesuckZ

Adam D.
2007-10-05, 15:24:39
sieht in der ursprünglichen Quelle
http://www.chilehardware.com/foro/nvidia-vs-amd-t117534.html
jedenfalls so aus.

aber 3 Heatpipes zeugen schon von einer gewissen Hitze :biggrin:
Und ich frag mich, wo die herkommt. So hoch getaktet scheint das Vieh ja nicht zu sein, der Prozess ist vielleicht Schuld?

Gast
2007-10-05, 15:30:04
Und ich frag mich, wo die herkommt. So hoch getaktet scheint das Vieh ja nicht zu sein, der Prozess ist vielleicht Schuld?

Vielleicht bewegt sich der Lüfter auch kaum. 2D Modus passiv und im 3D Modus eine leichte Erhöhung der Spannung des Lüfters.

LovesuckZ

AnarchX
2007-10-05, 15:33:47
Und? Die Karte kann heißen wie sie will. Die 7900GT war auch nicht schneller als eine 7800GTX mit 512mb.
Aber wir können uns doch einigen, dass NV kaum 6C@600MHz für $229 verkaufen wird. ;)
Und wir reden hier ja immernoch von einer 8800 und nicht 8900...


Jeglicher Stromverbrauch über einer 8600GTS wäre eine Enttäuschung und erbärmlich.

Warum sollten plötzlich 4C mit Shaderdomain >1.5GHz @65nm so wenig verbrauchen wie 2C@SD <1.5GHz @ 80nm?

Und wenn man von den TDPs ausgeht: 8600GTS 71W und 8800 GT wohl 110W, sind es bei letzerer doch gar nicht soviel...

dildo4u
2007-10-05, 15:33:55
Und ich frag mich, wo die herkommt. So hoch getaktet scheint das Vieh ja nicht zu sein, der Prozess ist vielleicht Schuld?
Man wollte whol unbedingt eine Single Slot Lösung anbieten und die reicht halt nur mit Heatpipes.Ich finds persönlich besser wenn solche High-Midrange Karten die Kühlung der großen Karten bekommen ist immer schön leise siehe 8800GTS.

Gast
2007-10-05, 15:39:17
Aber wir können uns doch einigen, dass NV kaum 6C@600MHz für $229 verkaufen wird. ;)


Warum nicht? Sie haben zu G71 Zeiten einen "G70" zu ca. 250€ - 300€ verkauft.


Warum sollten plötzlich 4C mit Shaderdomain >1.5GHz @65nm so wenig verbrauchen wie 2C@SD <1.5GHz @ 80nm?

Weil der Chip in einer geringeren Fertiung hergestellt wird? Eine 7900GT verbraucht auch nicht mehr als eine 6600GT und das trotz doppelter Transistorenanzahl.


Und wenn man von den TDPs ausgeht: 8600GTS 71W und 8800 GT wohl 110W, sind es bei letzerer doch gar nicht soviel...

"Garnicht soviel"? Die Karte verbraucht ca. soviel wie eine 7900GTX in 90nm. Soviel würde die Karte auch verbrauchen, wenn nVidia direkt einen 4 Cluster-Chip in 90nm gebracht hätte.

James Ryan
2007-10-05, 15:39:45
aber 3 Heatpipes zeugen schon von einer gewissen Hitze :biggrin:

Wie kann man sich nur über sowas "freuen"? :|
3 Heatpipes zeugen übrigens nicht unbedingt von einer gewissen Hitze, eher von einem großen (=leisen) Kühler. Eine Eigenschaft, die ATi seit der X850er Reihe (Ende 2004!) nicht bieten kann.

MfG :cool:

Nakai
2007-10-05, 15:40:15
Lovesucks, wir wissen nichts von der Karte. Warte es ab, sei geduldig.

Wenn die Karte mit 600Mhz+ und 1,5Ghz+ taktet und nicht soviel verbraucht, dann können wir froh sein.

mfg Nakai

Henroldus
2007-10-05, 15:42:13
Wie kann man sich nur über sowas "freuen"? :|
3 Heatpipes zeugen übrigens nicht unbedingt von einer gewissen Hitze, eher von einem großen (=leisen) Kühler. Eine Eigenschaft, die ATi seit der X850er Reihe (Ende 2004!) nicht bieten kann.

MfG :cool:
ich freue mich nicht über die Hitze! sondern auf die daraus herleitbare Leistung.

Gast
2007-10-05, 15:44:41
Lovesucks, wir wissen nichts von der Karte. Warte es ab, sei geduldig.
Wenn die Karte mit 600Mhz+ und 1,5Ghz+ taktet und nicht soviel verbraucht, dann können wir froh sein.
mfg Nakai

Ich sehe nicht, wie man bei einem 4C Chip mit der Rechenleistung einer 8800GTS und einem wahrscheinlichen Stromverbrauch von ca. 80 Watt in 65nm Fertigung und der daraus resultierenden Leistung von "können wir froh sein" sprechen kann.
Mit diesem Verbrauch wäre der Chip eine herbe Enttäuschung.

Gast
2007-10-05, 15:46:59
Heatpipes sind für eines gut: Wärmeenergie schnell von einem Ort zu einem anderen zu transportieren. Das ist bei besonders kleinen Die-Sizes wichtig.


Q

AnarchX
2007-10-05, 15:47:39
Warum nicht? Sie haben zu G71 Zeiten einen "G70" zu ca. 250€ - 300€ verkauft.
Aber auch nur in der 20PP/GT-Version oder gab es die GTX für 250€(ehrliche Frage)?


Weil der Chip in einer geringeren Fertiung hergestellt wird? Eine 7900GT verbraucht auch nicht mehr als eine 6600GT und das trotz doppelter Transistorenanzahl
Taktet aber auch niedriger, Takt+ die dafür benötigte Spannung sind wichtige Faktoren für den Stromverbrauch und NV43 war ja AFAIK auch ohne Low-K gefertigt.


"Garnicht soviel"? Die Karte verbraucht ca. soviel wie eine 7900GTX in 90nm. Soviel würde die Karte auch verbrauchen, wenn nVidia direkt einen 4 Cluster-Chip in 90nm gebracht hätte.
Aber dessen Shader wären wohl nicht über 1.5GHz getaktet. ;)

Aber nunja, vielleicht die 110W schon wieder veraltet, am besten warten wir noch etwas handfesteres ab, bis wir hierüber weiter diskutieren...

Nakai
2007-10-05, 15:49:03
Ich sehe nicht, wie man bei einem 4C Chip mit der Rechenleistung einer 8800GTS und einem wahrscheinlichen Stromverbrauch von ca. 80 Watt in 65nm Fertigung und der daraus resultierenden Leistung von "können wir froh sein" sprechen kann.
Mit diesem Verbrauch wäre der Chip eine herbe Enttäuschung.

Die meisten meinen, dass der G92 nicht gegen Rv670 antreten wird. Deswegen hat man schnell noch eine 8800GTS als Übergang eingeführt.
NV wird sich auch an Spezifikationen halten müssen und ich denke, die Karte wird noch einige Potential haben.
Die Karte wird knapp unter der alten 8800GTS anzusiedeln sein, nach meiner Ansicht. Mit etwas OC wohl darüber, ich frage mich was man zu bedenken hat.

mfg Nakai

seahawk
2007-10-05, 15:51:58
ich freue mich nicht über die Hitze! sondern auf die daraus herleitbare Leistung.

Du mesitn Verlustleistung :biggrin:

Gast
2007-10-05, 15:54:21
Aber auch nur in der 20PP/GT-Version oder gab es die GTX für 250€(ehrliche Frage)?

Die 7900GT hatte eine sehr ähnliche Spezifikation wie die 7800GTX. 6 Quads @450mhz, 256bit Speicherinterface, 256mb @ 660MHz... Der G71 war ein einfacher Shrink des G70s von 110nm auf 90nm. Und bei dieser Ausführung verbrauchte die Karte nicht mehr als eine 6600GT! Und wurde für 250-300€ verkauft.

Taktet aber auch niedriger, Takt+ die dafür benötigte Spannung sind wichtige Faktoren für den Stromverbrauch und NV43 war ja AFAIK auch ohne Low-K gefertigt.

Und wieso sollten diese Faktoren bei der 8800GT nicht gelten?

Aber dessen Shader wären wohl nicht über 1.5GHz getaktet. ;)

Wer weiß. Kleinerer DIE, weniger Transistoren, geringere Wärmeentwicklung. 1800Mhz bei 64SP sind verdammt wenig. Ich seh da keinen Vorteil bei der hohen Taktung, wenn am Ende nicht genug Leistung herauskommt.

LovesuckZ

reunion
2007-10-05, 15:56:34
GeForce 8800 GT Cooler Has 3 Heat-Pipes (http://vr-zone.com/articles/GeForce_8800_GT_Cooler_Has_3_Heat-Pipes/5320.html)

Tja, damit scheinen sich die Spekulationen ja nach und nach zu bestätigen.

Die gelbe Eule
2007-10-05, 15:57:38
Und wenn das Teil einen 2slot Kühler bekommt, wayne ohne SLi. Hauptsache kalt und leise, dann ist für OC immernoch Potential da.

Gast
2007-10-05, 15:57:39
Tja, damit scheinen sich die Spekulationen ja nach und nach zu bestätigen.

Welche? Feststeht die Taktung und die Speichermenge. Waren das schon alle Spekulationen?

LovesuckZ

Henroldus
2007-10-05, 15:58:18
Du mesitn Verlustleistung :biggrin:
nein! du weisst was gemeint ist seahawk.

so ich muss weg, schönes wochenende euch allen...

reunion
2007-10-05, 15:59:41
Welche? Feststeht die Taktung und die Speichermenge. Waren das schon alle Spekulationen?

LovesuckZ

Die Karte liegt unter der 8800GTS, sonst würde sie nicht 8800GT heißen. Alles andere als vier Cluster würde keinen Sinn ergeben. Dazu passt auch der genannte Verkaufspreis von 229$, welcher sich perfekt in die GF8-Reihe eingliedert was das P/L-Verhältnis betrifft.

Die gelbe Eule
2007-10-05, 16:04:59
Dafür ist sie ja auch gute 90€ günstiger und auch nicht wirklich weit weg. Bin auf OC Versionen gespannt, was man da default rausholen kann.

Nakai
2007-10-05, 16:07:46
Dafür ist sie ja auch gute 90€ günstiger und auch nicht wirklich weit weg. Bin auf OC Versionen gespannt, was man da default rausholen kann.

Ich sowieso.:biggrin:

mfg Nakai

seahawk
2007-10-05, 16:14:31
Die Karte liegt unter der 8800GTS, sonst würde sie nicht 8800GT heißen. Alles andere als vier Cluster würde keinen Sinn ergeben. Dazu passt auch der genannte Verkaufspreis von 229$, welcher sich perfekt in die GF8-Reihe eingliedert was das P/L-Verhältnis betrifft.

Langsamer als GTS, heiss und der kleien Läfter ist sicher auch nicht leise.

Aber das sagte ich schon und da wollte es keiner glauben. Die Karte wird von Gladiator mit 20-30% Unterschied abgefertigt.

reunion
2007-10-05, 16:22:16
Interessant finde ich vorallem diese Folie:

http://img186.imageshack.us/img186/2724/nvidiavsamdcopy21f3a6zo8.jpg (http://imageshack.us)

Da glaube nV offensichtlich noch, RV670 würde wie RV570 ein 3/4 R600. Das jetzt RV670 zur 2950XT/Pro wird, und dank 55nm mit sehr kleinem Die, niedrigem Stromverbrauch und modernsten Features schon im November antanzt, scheint wohl überraschend gekommen zu sein.

dildo4u
2007-10-05, 16:25:04
Laut CB ist schon ein Pic einer 8800GT mit einem größeren Lüfter aufgetaucht.


http://pics.computerbase.de/1/9/3/6/7/4.jpg

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/oktober/hat_geforce_8800_gt_temperaturproblem/

reunion
2007-10-05, 16:27:03
Laut CB ist schon ein Pic einer 8800GT mit einem größeren Lüfter aufgetaucht.


http://pics.computerbase.de/1/9/3/6/7/4.jpg

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/oktober/hat_geforce_8800_gt_temperaturproblem/

Na also. Der kleine Lüfter hätte wohl ganz schon drehen müssen bei einer TDP von über 100W.

Die gelbe Eule
2007-10-05, 16:30:10
Der Lüfter ist Kacke, weil laut. Sollen den alten Radial nehmen, größer aber laufruhiger.

AnarchX
2007-10-05, 16:56:49
Na also. Der kleine Lüfter hätte wohl ganz schon drehen müssen bei einer TDP von über 100W.

Imo ist der Lüfter hier nicht größer sondern einfach nur die Öffnung:
http://pics.computerbase.de/1/9/3/6/7/4.jpg
http://img212.imageshack.us/img212/6949/8800gt2on0.jpg

Oder?:|

seahawk
2007-10-05, 17:03:35
Sieht in bedien Fällen ziemlich laut aus.

AnarchX
2007-10-05, 17:08:10
Das soll die "GPU" sein:
http://resources.vr-zone.com/newzhunter/8800GT-3.jpg


Vielleicht ist die Black-GT, hier eine ältere Version, die noch heißer lief und nun hat man einen kleineren Lüfter um die BOM zu senken bzw. sie brauch nicht mehr?;)
(Halt soetwas wie die frühe 88GTX mit WaKü-Anschlüssen)

Das Photo von Mobile1 sieht jedenfalls sehr nach einem aktuellen Photo, was NV rausschickt.

seahawk
2007-10-05, 17:09:51
Kann man da irgendwie die Größe ermitteln ?

Die gelbe Eule
2007-10-05, 17:14:19
Klar kann man, die Bohrungen neben dem HS haben Standardmaße.

Miko
2007-10-05, 17:22:02
Hi sorry für meine Unwissenheit aber was heißt nm ?
Hab grad danach gegoogelt und gefunden das es die abkürzung für Nanometer ist .. ergibt für mich leider keinen Sinn :/
Wär dankbar für eine kurze und knappe Antwort

Die gelbe Eule
2007-10-05, 17:28:27
Wie groß ein einzelner Transistor ist, 65nm = 65 milliardstel Meter.

Miko
2007-10-05, 17:29:35
Danke Eule :)

seahawk
2007-10-05, 17:40:45
Klar kann man, die Bohrungen neben dem HS haben Standardmaße.

Sind doch die Bohrlöcher für den Kühler oder ? 58,5 oder 53,5 ?

James Ryan
2007-10-05, 18:38:48
Das soll die "GPU" sein:
http://resources.vr-zone.com/newzhunter/8800GT-3.jpg


Vielleicht ist die Black-GT, hier eine ältere Version, die noch heißer lief und nun hat man einen kleineren Lüfter um die BOM zu senken bzw. sie brauch nicht mehr?;)
(Halt soetwas wie die frühe 88GTX mit WaKü-Anschlüssen)

Das Photo von Mobile1 sieht jedenfalls sehr nach einem aktuellen Photo, was NV rausschickt.

Sorry, aber die Pics sehen nicht nach einem "kleinen" G92 aus. Klar ist dass der Heatspreader, nur wozu sollte NVIDIA so einen verbauen bei einer DIE welche so groß ist wie die einer Gf 8600?

MfG :cool:

Gast
2007-10-05, 19:59:20
Imo ist der Lüfter hier nicht größer sondern einfach nur die Öffnung:
http://pics.computerbase.de/1/9/3/6/7/4.jpg
http://img212.imageshack.us/img212/6949/8800gt2on0.jpg

Oder?:|
Zumindest hat der auf dem oberen Bild mehr Blätter.


Q

Gast
2007-10-05, 20:13:50
Na also. Der kleine Lüfter hätte wohl ganz schon drehen müssen bei einer TDP von über 100W.

Die Karte wird bestimmt keine 100Watt verbrauchen. Mir kann keiner plausible erklären, warum eine Karte mit einem Chip, der nicht nur ca. 300 Millionen Transistoren weniger und eine DIE Fläche von ca. 210mm² in 65nm Fertigung besitzt, 100Watt verbrauchen soll, wenn die GTS, mit einem Chip von 460mm² und 700Millionen Transitoren in 90nm Fertigung und mehr Speicher ca. 130 Watt benötigt.
Und nein, der Shadertakt ist dafür bestimmt nicht verantwörtlich!

LovesuckZ

reunion
2007-10-05, 20:26:10
Die Karte wird bestimmt keine 100Watt verbrauchen. Mir kann keiner plausible erklären, warum eine Karte mit einem Chip, der nicht nur ca. 300 Millionen Transistoren weniger und eine DIE Fläche von ca. 210mm² in 65nm Fertigung besitzt, 100Watt verbrauchen soll, wenn die GTS, mit einem Chip von 460mm² und 700Millionen Transitoren in 90nm Fertigung und mehr Speicher ca. 130 Watt benötigt.
Und nein, der Shadertakt ist dafür bestimmt nicht verantwörtlich!

LovesuckZ


Wenn ich darauf eingehe, kommt sowieso nichts dabei raus. Deshalb: Warte doch einfach ab. :)

Gast
2007-10-05, 20:30:52
Wenn ich darauf eingehe, kommt sowieso nichts dabei raus. Deshalb: Warte doch einfach ab. :)

Na, du sagst doch, dass die Karte 100 Watt benötigen wird.
Welche Erklärung sollte deiner Meinung nach für solch einen Strombedarf geben?

LovesuckZ

dargo
2007-10-05, 20:52:50
Die Karte wird bestimmt keine 100Watt verbrauchen. Mir kann keiner plausible erklären, warum eine Karte mit einem Chip, der nicht nur ca. 300 Millionen Transistoren weniger und eine DIE Fläche von ca. 210mm² in 65nm Fertigung besitzt, 100Watt verbrauchen soll, wenn die GTS, mit einem Chip von 460mm² und 700Millionen Transitoren in 90nm Fertigung und mehr Speicher ca. 130 Watt benötigt.

130W sind etwas zu hoch gegriffen für eine G8800GTS. :)

reunion
2007-10-05, 20:53:22
Na, du sagst doch, dass die Karte 100 Watt benötigen wird.

Ich sage das, was andere Quellen behaupten. Und eine TDP von knapp über 100W bedeutet noch lange keinen Verbrauch von 100W. Aber trotzdem ist das natürlich viel.


Welche Erklärung sollte deiner Meinung nach für solch einen Strombedarf geben?

LovesuckZ

Ich weiß es nicht. Dafür könnte es dutzende Gründe geben. Vielleicht kommt der Chip doch noch in 80nm, die 65nm wurden nämlich noch nirgends bestätigt. Vielleicht sind die TDP-Werte von einer möglichen GX2-Variante, oder von einem völlig anderem Chip der auch noch etwas später kommt. Vielleicht hat nV einfach nur aus welchen Gründen auch immer massive Probleme mit der 65nm Fertigung. etc.

Und letztendlich bleibt noch immer ein großes Fragezeichen hinter der Analysten-Konferenz mit Michael Hara, auf welcher dieser einen Chip "close to 1TFlop in 4Q07" versprochen hatte.

Gast
2007-10-05, 20:53:36
Selbst wenn der Chip deutlich weniger braucht, so benötigt doch noch der Speicher einiges (und vermutlich aufgrund höherer Taktfrequenz bei höherer Spannung sogar deutlich mehr). Da kann das mit den 100W schon hinkommen.

Gast
2007-10-05, 20:54:41
130W sind etwas zu hoch gegriffen für eine G8800GTS. :)

TDP Angabe. Real liegt die Karte ja bei ca. 105 Watt. Und eine 8800GT sollte bei einer 110 Watt TDP angabe ca. bei 85 Watt liegen. Und genau hier sind meine Bedenken. Halber G80 + 65nm Fertigung + leicht erhöhte Taktung soll gerademal 20 Watt weniger verbrauchen als die 8800GTS?!

LovesuckZ

dargo
2007-10-05, 20:58:41
Selbst wenn der Chip deutlich weniger braucht, so benötigt doch noch der Speicher einiges (und vermutlich aufgrund höherer Taktfrequenz bei höherer Spannung sogar deutlich mehr). Da kann das mit den 100W schon hinkommen.
Nein, der Speicher spielt da kaum eine Rolle. Vorallem nicht weil der G92 128MB weniger haben wird.

reunion
2007-10-05, 20:58:41
Naja, eine 8800GTS ist ja auch kein "voller" G80.

dargo
2007-10-05, 21:01:28
TDP Angabe. Real liegt die Karte ja bei ca. 105 Watt. Und eine 8800GT sollte bei einer 110 Watt TDP angabe ca. bei 85 Watt liegen. Und genau hier sind meine Bedenken. Halber G80 + 65nm Fertigung + leicht erhöhte Taktung soll gerademal 20 Watt weniger verbrauchen als die 8800GTS?!

LovesuckZ
Mal davon abgesehen, dass die GTS 147W TDP hat (wir wollen aber nicht kleinig werden) gebe ich dir vollkommen recht. Ein 1/2 G80 in 65nm, kleinerem SI, weniger Vram soll 110W TDP haben? Da stimmt 100%-ig was nicht. Entweder die Karte wird einiges sparsamer, oder bei dieser TDP schneller.

Gast
2007-10-05, 21:11:23
Mal davon abgesehen, dass die GTS 147W TDP hat (wir wollen aber nicht kleinig werden) gebe ich dir vollkommen recht. Ein 1/2 G80 in 65nm, kleinerem SI, weniger Vram soll 110W TDP haben? Da stimmt 100%-ig was nicht. Entweder die Karte wird einiges sparsamer, oder bei dieser TDP schneller.

110 Watt könnten zu einem 289mm² Chip mit ca. 700 Millionen Transistoren passen. Also zu einem G80 Shrink.
Ein "nativer" G92 mit 4 Cluster und allen Features sollte nicht größer als 200mm² sein. Und erst recht keine TDP von 110 Watt erhalten.

LovesuckZ

AnarchX
2007-10-05, 21:12:48
Gerüchte über Hitzeprobleme, ein Bild eines 8800 GT?-Samples(fuschhafte Bemalung, fehlendes NV-Logo-Design) mit stärkerem Kühler und die TDP-Angaben beides von PHK und eben ein wohl neueres Bild mit kleinerer Kühllösung und einem fertigeren Eindruck von Mobile1, was NV wahrscheinlich vor kurzem erst an die Partner herausgegeben hat und dann geleakt wurde.

Imo hatte G92 vielleicht durchaus anfänglich Probleme, die aber nun gelöst wurden.

Wohlmöglich liegt die TDP der endgültigen Version nun bei <=100W.

dargo
2007-10-05, 21:13:50
110 Watt könnten zu einem 289mm² Chip mit ca. 700 Millionen Transistoren passen. Also zu einem G80 Shrink.
Ein "nativer" G92 mit 4 Cluster und allen Features sollte nicht größer als 200mm² sein. Und erst recht keine TDP von 110 Watt erhalten.

LovesuckZ
Die erste Variante würde mir besser gefallen. :D

Gast
2007-10-05, 21:21:04
Selbst wenn der angebliche G92 mit 4 Cluster, 4 ROP-Partitionen und 64SP ein Hitzeproblem gehabt hätte, wäre die Angabe einer TDP von 110 Watt ebenfalls unglaubwürdig.
Wenn selbst eine 7800GTX mit ca. 333mm² und 300 Millionen Transistoren mit einer Single-Slot-Kühlung leise gekühlt werden kann, soll der G92 mit ca. 450 Millionen und ca. 200mm² Probleme bereiten? Die 7900GT mit den selben Eigenschaften, wurde von einem wahrscheinlich 50cent Lüfter ausreichend gekühlt. So einen sollte locker auf die 8800GT ebenfalls passen.

AnarchX
2007-10-05, 21:33:34
Ob glaubwürdig oder nicht, auch NV kann mal Pech mit einem Prozess haben.

Und vielleicht verbraucht eben das G8x-Design wegen einem aufwendigen Setup entsprechend viel, auch mit weniger Funktionseinheiten: z.B.
die 8600GTS verbraucht trotz 1/4-G80-Einheiten und nur 1/3 an Speicher einer 8800GTX und 80nm, über 1/3 von deren Verbrauch.

Imo sind 110W TDP! bei einem 1/2 G80 mit SD über 1.5GHz @65nm mit möglichem Problemen beim Prozess bei weitem nicht unrealistisch.

Aber das werden wir ja in naher Zukunft genauer wissen...

Jedenfalls scheint die Zusammenfassung von mir oben eine Besserung anzudeuten.

Sorry, aber die Pics sehen nicht nach einem "kleinen" G92 aus. Klar ist dass der Heatspreader, nur wozu sollte NVIDIA so einen verbauen bei einer DIE welche so groß ist wie die einer Gf 8600?

Vielleicht ist G92 doch der 289mm² Kern und hat eben insgesamt 8C/6RPs und wird für 8800 GT(4C/4RP) und andere SKUs genutzt, wie die 1 TFLOP-Karte (mit wahrscheinlich 128SP@2.4GHz).
Wie schon gesagt immernoch besser als ein 480mm² Kern und langfristig plant man vielleicht eine echten 4C-G9x, wie eben NV41 bzw. NV42 bei NV40, in 55nm, der dann im Q1 kommt?

Immerhin wurde auf der Analysten-Konferenz ja gesagt, dass man den Zyklus beibehalten will Ende des Jahres einen HighEnd-Chip vorzustellen und die kleineren Chips im Frühjahr...

Da NV keine Folien mit genauen Die-Maßen herausgibt, ist die Situation leider sehr schwierig einzuschätzen. :D

Gast
2007-10-05, 22:40:44
Nvidia wird hier keine Chance gegen ATIS 2950 haben, den die "neueste" Nvidia Generation bietet keinerlei Innovationen. Hier hat diesmal ATI die Nase voraus. Stichworte 55nm, Einslotlösung, der dadurch resultierende Stromverbrauch, PCIE 2.0, DX10.1, etc.pp. Finde ich gut, dadurch wird Nvidia gezwungen die Preise zu senken. In diesem Sinne

Gast
2007-10-06, 00:23:05
Geforce 8800 GT doesn't do DirectX 10.1


No support for Shader model 4.1

"Documents seen by Fudzilla indicates that G92/D8P aka the Geforce 8800 GT is not Shader model 4.1 compatible. It can mean one of two things, one, that Nvidia doesn't want release the information or two, simply that this chip doesn't have support for Shader model 4.1 and DirectX 10.1.

This comes as an interesting surprise as we know that the RV670 aka the Radeon HD 2950 series will support Shader model 4.1 and DirectX 10.1.

We will ask around and try to find out if this is the case, but this would be a big setback for Nvidia, at least when it comes to feature tick boxes on upcoming games."



Quelle: fudzilla

Gast
2007-10-06, 00:28:37
Joah, trauriges Bild was Nividia da abgibt. Wie gesagt, der Nvidiachip wird keine Chance gegen den Atichip haben. Achja, hab ne 8800GTS 640MB und plane auf ne 2950 umzusteigen. Gruss

w0mbat
2007-10-06, 00:32:33
Leute, was labert ihr da? Es wird sich bestimmt nicht lohnen von einer GTS640 auf eine HD2950 er umzusteigen (den Dual-RV670 jetzt mal ausgenommen). Auch weiß noch niemand hier wie schnell der G92 ist und wie er sich gegen den RV670 schlägt.

Endorphine
2007-10-06, 00:36:38
Geforce 8800 GT doesn't do DirectX 10.1


No support for Shader model 4.1

"Documents seen by Fudzilla indicates that G92/D8P aka the Geforce 8800 GT is not Shader model 4.1 compatible. It can mean one of two things, one, that Nvidia doesn't want release the information or two, simply that this chip doesn't have support for Shader model 4.1 and DirectX 10.1.

This comes as an interesting surprise as we know that the RV670 aka the Radeon HD 2950 series will support Shader model 4.1 and DirectX 10.1.

We will ask around and try to find out if this is the case, but this would be a big setback for Nvidia, at least when it comes to feature tick boxes on upcoming games."



Quelle: fudzilla SM 4.1 hat einen vergleichbar großen Nutzen wie PS 1.4 bei der Radeon 8500: die Fanboys können sich darüber die Köpfe einschlagen, aber für den Anwender hat's keinerlei Bedeutung.

Immer wieder das selbe...

Gast
2007-10-06, 00:37:17
Ich möchte aber auf so eine innovative Karte umsteigen denn das Datenblatt beeindruckt mich. Ich freue mich schon auf benches und auf die Übertaktungsfreudigkeit des 55nm Chips. Und erzähl mir nix. Mein erster PC war ein C16. Und ich behaupte mal das diese ATI-Karte auf neudeutsch "rocken" wird. Gruss

AnarchX
2007-10-06, 00:45:50
SM 4.1 hat einen vergleichbar großen Nutzen wie PS 1.4 bei der Radeon 8500: die Fanboys können sich darüber die Köpfe einschlagen, aber für den Anwender hat's keinerlei Bedeutung.

Immer wieder das selbe...
PS1.4 war doch imo schon etwas mehr als der Sprung von D3D10 auf 10.1. oder?

Und wie schon öfters angemerkt, die Folie im Post #1 sagt eben dass D3D10.1 auf GF8 später aktiviert wird und kommt offensichtlich von NV, auch HKEPC und andere haben dies schon eher gemeldet.

Dass NV nicht explizit bei der 8800 GT Vermarktung so großen Wert auf D3D10.1 legt, hat vielleicht darin seinen Grund. ;)

Gast
2007-10-06, 00:51:42
PS1.4 war doch imo schon etwas mehr als der Sprung von D3D10 auf 10.1. oder?

Und wie schon öfters angemerkt, die Folie im Post #1 sagt eben dass D3D10.1 auf GF8 später aktiviert wird und kommt offensichtlich von NV, auch HKEPC und andere haben dies schon eher gemeldet.

Dass NV nicht explizit bei der 8800 GT Vermarktung so großen Wert auf D3D10.1 legt, hat vielleicht darin seinen Grund. ;)

Jaja, Nvidia behauptet auch das der Vram-Bug noch behebt wird. Ich behaupte mal das alle G8 Karten kein DX10.1 darstellen können. Nvidia schläft und ATI ackert. So siehts aus. OK, der 2900 war ne Fehlkonstruktion. Von der rede ich aber nicht. Ich rede von der 2950 und das ist ne ganz andere Konstruktion. Ende aus Mickey Mouse. P.S.: Bin kein Fanboy. Gruss

Endorphine
2007-10-06, 00:52:31
Ich möchte aber auf so eine innovative Karte umsteigen OK, der Sommer ist langsam vorbei und draußen ist nicht mehr so viel los. Dennoch wirst du wesentlich mehr Freude dabei haben, zum Beispiel mal einen Tag Ski fahren zu gehen, als dein Geld und deine Lebenszeit für so eine sinnfreie Umrüstaktion zu verschenken. denn das Datenblatt beeindruckt mich. Du hast doch gar kein Datenblatt. Hättest du eins, dann dürftest du noch nicht sagen, dass du eins hast. Ich freue mich schon auf benches und auf die Übertaktungsfreudigkeit des 55nm Chips. *gähn* Das ist die selbe Leier wie bei 3D-Beschleunigerevolutionen schon seit 10 Jahren: die Balken werden ein wenig länger, aber im Wesentlichen ändert sich bei so kleinen Evolutionen für den Anwender überhaupt nichts. Von SM 4.1 profitiert momentan vielleicht ein experimentierfreudiger Entwickler. Der gibt aber andere Dinge von sich als du. [...] und auf die Übertaktungsfreudigkeit des 55nm Chips. Mopedtuning-Niveau, spannend... Und erzähl mir nix. Mein erster PC war ein C16. Ein C16 ist ein Heimcomputer, aber gewiss kein PC. In deinem Alter trollst du noch durch die Foren? Und ich behaupte mal das diese ATI-Karte auf neudeutsch "rocken" wird. Gruss Das wird sie sicher, vor allem deinen Geldbeutel, wenn du von einer GF8800 auf sie umsteigst. Übrigens ist das hier der G9x-Thread, ATI-Grafikkarten sind hier komplett off-topic.

deekey777
2007-10-06, 01:13:03
Nur so am Rande:

Es ist kein Hack, wenn G80 schon den in D3D10.1 vorgesehen Subsample-Zugriff auf den Z-Buffer hat. Der Treiber hat schließlich volle Kontrolle über den Chip.
Gemeint ist die Fähigkeit, MSAA in UE3-Spielen zu verwenden.

reunion
2007-10-06, 09:58:12
SM 4.1 hat einen vergleichbar großen Nutzen wie PS 1.4 bei der Radeon 8500: die Fanboys können sich darüber die Köpfe einschlagen, aber für den Anwender hat's keinerlei Bedeutung.

Immer wieder das selbe...

Selbst wenn nur ein paar Techdemos was davon haben, nehme ich es allemal gerne mit - kostet ja nichts extra.

Und wie schon öfters angemerkt, die Folie im Post #1 sagt eben dass D3D10.1 auf GF8 später aktiviert wird und kommt offensichtlich von NV, auch HKEPC und andere haben dies schon eher gemeldet.


Ich bin nach wie vor der Meinung könnte die gesamte GF8-Serie D3D10.1, dann würden wir das spätestens seit der Vorstellung des G80 wissen. Warum sollte nV das verheimlichen? Das ist doch ein geradezu geniales Marketinginstrument, und wenn der Unterschied noch so lächerlich gering ist, beeindruckt das doch so manchen, weniger Betuchten Kunden mit Sicherheit.

Gast
2007-10-06, 10:06:34
DX10 war aber irgendwie griffiger als 10.1.

Außerdem würde man sich so die Möglichkeit aufsparen, mit D3D10.1 für die neuen Karten werben zu können. Mittlerweile hat sich DX10 ja etabliert.

Gast
2007-10-06, 12:02:18
Wie groß ein einzelner Transistor ist, 65nm = 65 milliardstel Meter.
nein!
65nm bezeichnet die kleinstmögliche strucktur die noch scharf abgrenzbar ist.
ein Transi besteht aus source, drain und gate und ist in dieser fertigungstechnologie dann schon größer als 65nm.

Henroldus

Gast
2007-10-06, 13:22:59
ATI sagt das ihre neue highend Karte im März kommt. Warum bekommt NV ned mal das Maul auf ?

Iwan
2007-10-06, 13:33:33
ATI sagt das ihre neue highend Karte im März kommt. Warum bekommt NV ned mal das Maul auf ?

NV hat derzeit die stärksten GPUs, also warum sollten sie ihre Karten auf den Tisch legen? Wären sie schön blöd wenn sie das machen würde. AMD steht unter Zugzwang und muss halt was vorlegen!

Endorphine
2007-10-06, 13:34:00
Selbst wenn nur ein paar Techdemos was davon haben, nehme ich es allemal gerne mit - kostet ja nichts extra. Natürlich. Würde ich auch so machen. Diese Mini-Evolution ist aber kein Grund dafür, von einer SM 4.0-Karte wie einer GF8 nun auf eine SM 4.1-Karte umzusteigen, weil:
Ich möchte aber auf so eine innovative Karte umsteigen denn das Datenblatt beeindruckt mich. Das wäre dann nämlich genau so wie zu Radeon 8500-Zeiten, als die ganzen ATI-Fans meinten, dass PS 1.4 extrem wichtig ist und man deshalb gar keine GF3/GF4 kaufen dürfte.

Deswegen als einfacher Benutzer umzusteigen ergibt keinen Sinn. Wenn man aber ohnehin eine SM 4.1-Karte kauft, ist es natürlich nett, diesen Bonus mitzunehmen. Aber kein Grund, als Anwender nur deshalb umzurüsten. Die Vergangenheit zeigt mit der Radeon 8500 und deren PS 1.4 einfach, dass diese Evolutiönchen auf Shader-Model Ebene einfach keine Bedeutung für die Karten haben, die sie einführen. Ich bin nach wie vor der Meinung könnte die gesamte GF8-Serie D3D10.1, dann würden wir das spätestens seit der Vorstellung des G80 wissen. Warum sollte nV das verheimlichen? Das ist doch ein geradezu geniales Marketinginstrument, und wenn der Unterschied noch so lächerlich gering ist, beeindruckt das doch so manchen, weniger Betuchten Kunden mit Sicherheit. Das denke ich auch. Und selbst wenn die Treiber-Entwicklung noch nicht so weit sein sollte, kann man das Checklisten-Feature ja schon bewerben und ankündigen, dass man es später durch neue Treiber nachliefert. Dazu ist sich kaum ein Hersteller zu schade.

Gast
2007-10-06, 13:59:11
NV hat derzeit die stärksten GPUs, also warum sollten sie ihre Karten auf den Tisch legen?

um noch mehr kunden zu gewinnen ?

AnarchX
2007-10-06, 14:05:05
CJ auf die Frage ob G92 64 oder gar 96SPs hat:
You might wanna up that... ;)

Imo wird es wohl nur die 289mm² GPU geben, die auf einer 8800 GT halt nicht mit vollem Ausbau vorgestellt wird, der Heatspreader spricht jedenfalls dafür und vielleicht auch den etwas höheren Verbrauch bei nur 4C.

Und dann langsam im Zuge des G80-Abverkaufs durch New-GTS, werden dann stärkere SKUs auf G92-Basis vorgestellt im November(?).

So sehe ich das jedenfalls.

Warum man nun gegen eine 194mm2 GPU mit 289mm2 antritt ist etwas seltsam, aber eben immernoch besser als ein teildeaktiver 480mm2 Die und im Endeffekt spart man sich Tapeouts und hat in der Planung wohlmöglich einen echten 4C-G9x @55nm, der dann im Frühjahr als 9600/9700GTS vielleicht vorgestellt wird.
(Und warum sollte NV nichtmal soetwas machen, wenn ATi es in der Vergangenheit schon öfters gemacht hatte: X800GT, X1800GTO, X1900GT... ;))

James Ryan
2007-10-06, 14:44:38
Sollte das wahr sein, ist nur die Frage, warum der G92 nicht G91 heißt und wieviel SPs ein "voller" G92 dann hat: 128 oder gar 160? :biggrin:

MfG :cool:

AnarchX
2007-10-06, 14:47:43
Sollte das wahr sein, ist nur die Frage, warum der G92 nicht G91 heißt

G98 = G86 @ 65nm
G96 soll G84 @ 65nm sein
G94 wäre dann G82(4C?), welchen es aber nie gab
G92 -> G80 @65nm

Wie im ersten Post es steht, G9x soll ein ähnliches aber nicht gleiches Namens-Schema wie G8x haben. ;)

seahawk
2007-10-06, 16:11:40
Da hat NV aber richtige Probleme. Hohe TDP, Riesenchip und langsamer.

Ich freue mich schon auf den RV670.

Im Hinblick auf G92 :

G92_200 = G92 / 2/4
G92_300 = G92 / 3/4

sklave_gottes
2007-10-06, 16:43:35
CJ auf die Frage ob G92 64 oder gar 96SPs hat:


Imo wird es wohl nur die 289mm² GPU geben, die auf einer 8800 GT halt nicht mit vollem Ausbau vorgestellt wird, der Heatspreader spricht jedenfalls dafür und vielleicht auch den etwas höheren Verbrauch bei nur 4C.

Und dann langsam im Zuge des G80-Abverkaufs durch New-GTS, werden dann stärkere SKUs auf G92-Basis vorgestellt im November(?).

So sehe ich das jedenfalls.

Warum man nun gegen eine 194mm2 GPU mit 289mm2 antritt ist etwas seltsam, aber eben immernoch besser als ein teildeaktiver 480mm2 Die und im Endeffekt spart man sich Tapeouts und hat in der Planung wohlmöglich einen echten 4C-G9x @55nm, der dann im Frühjahr als 9600/9700GTS vielleicht vorgestellt wird.
(Und warum sollte NV nichtmal soetwas machen, wenn ATi es in der Vergangenheit schon öfters gemacht hatte: X800GT, X1800GTO, X1900GT... ;))

Nein bei ATI war ein kleiner aber feiner unterschied. Erst wurden die vollen Chips verkauft und dann später als man keine Chips für up mainstream hatte wurden die grossen Chips teils deaktiviert.

Bei Nvidia siehts jetzt bissel anders aus. Als ob sie den Chip von anfang an für 4c gebaut hätten. Mir kommt das bissel komisch vor :-)

seahawk
2007-10-06, 16:54:17
Es gibt natürlich auch die Option, dass NV zwei G92 Versionene fertigen läst. Eine 4C und eine 8C, diese wäre dann G90 gewesen aber aus Gründen der Verwirrung nannte man sie auch G92.

laser114
2007-10-06, 17:02:08
Es gibt natürlich auch die Option, dass NV zwei G92 Versionene fertigen läst. Eine 4C und eine 8C, diese wäre dann G90 gewesen aber aus Gründen der Verwirrung nannte man sie auch G92.

Ja, sowas kann sein, so dass nvidia immer von G92 gesprochen hat. Halte ich auch für wahrscheinlicher, als einen 8 Cluster Chip mit nur der Hälfte der Funktionseinheiten zu starten ... das ist ja Geldverschwendung hoch 3.

LovesuckZ
2007-10-06, 17:02:57
Da hat NV aber richtige Probleme. Hohe TDP, Riesenchip und langsamer.


Du nervst.
Du hast keine Ahnung und redest trotzdem dauernd von irgendwelchen Tatsachen. :rolleyes:

James Ryan
2007-10-06, 17:23:57
Einfach labern lassen und nicht aufregen (auch wenns schwer ist). Immerhin hat ATi seit knapp einem Jahr ein Riesenproblem in Form des G80. ;)

@AnarchX
Hat das neue Namensschema irgendeinen Sinn außer die Verwirrung?

MfG :cool:

seahawk
2007-10-06, 17:45:06
Du nervst.
Du hast keine Ahnung und redest trotzdem dauernd von irgendwelchen Tatsachen. :rolleyes:

Du auch nicht KLEINER

Die Hohe TDP ist recht sicher, zumindest für eine G92 Version.

Adam D.
2007-10-06, 17:49:08
Du auch nicht KLEINER
Fang endlich mal an, hier im Konjunktiv zu reden. Keiner hier weiß wirklich, was passieren wird. Und du schaffst es immer wieder, mit deinen Pro-ATi-Postings hier die Gemüter zu erhitzen. Wie kann man nur so biased sein? :confused:

seahawk
2007-10-06, 17:51:14
Fang endlich mal an, hier im Konjunktiv zu reden. Keiner hier weiß wirklich, was passieren wird. Und du schaffst es immer wieder, mit deinen Pro-ATi-Postings hier die Gemüter zu erhitzen. Wie kann man nur so biased sein? :confused:

Erregt sind nur die NV-Fanboys. ;D

Ailuros
2007-10-06, 17:53:53
*hust*

Ihr koennt Euch von mir aus weiterhin gegenseitig nerven und nur gerade das lesen was gerade passt aber:

http://forum.beyond3d.com/showpost.php?p=1074879&postcount=602

Ailuros
2007-10-06, 17:55:02
Die Hohe TDP ist recht sicher, zumindest für eine G92 Version.

Welche aber relativ analog zur Anzahl der SPs und finalen Leistung ist.

Ailuros
2007-10-06, 17:56:27
Erregt sind nur die NV-Fanboys. ;D

Was Dich aber auf welches Lager genau setzt? Ich sehe bis jetzt keinen Grund zur Begeisterung fuer Dich; im gegebenen Fall wuerde ich etwas mehr abwarten, bevor ich mich doch am Ende blamieren wuerde an Deiner Stelle.

Adam D.
2007-10-06, 17:56:39
Erregt sind nur die NV-Fanboys. ;D
Nein, generell. Mir ist es ja wirklich egal, was du denkst oder was der Rest der Nvidia-Fraktion tolles heraufbeschwört, nur die Diskussionskultur geht immer so schnell dann kaputt, das find ich nicht gut.
Wir können uns ja dann die Köpfe einschlagen, wenn wir feste Werte von beiden haben. Davor gepflegt diskutieren plz :frown:

dargo
2007-10-06, 17:57:14
*hust*

Ihr koennt Euch von mir aus weiterhin gegenseitig nerven und nur gerade das lesen was gerade passt aber:

http://forum.beyond3d.com/showpost.php?p=1074879&postcount=602
Ailuros, das hat eh keinen Sinn. Hier sind einfach zu viele 3DFurz Spieler unterwegs. ;)

Ailuros
2007-10-06, 18:02:06
Ailuros, das hat eh keinen Sinn. Hier sind einfach zu viele 3DFurz Spieler unterwegs. ;)

Einen Benchmark kann man unter Umstaenden schon als Anzeige benutzen; das einzige Unglueck ist eben dass bei 1280 1xAA/1xAF immer noch zu stark die CPU limitiert auf heutigen GPUs. Noch schlimmer man kauft sich auch nicht unbedingt eine >250$ GPU um mit solchen oeden settings zu spielen.

dargo
2007-10-06, 18:21:45
Einen Benchmark kann man unter Umstaenden schon als Anzeige benutzen; das einzige Unglueck ist eben dass bei 1280 1xAA/1xAF immer noch zu stark die CPU limitiert auf heutigen GPUs. Noch schlimmer man kauft sich auch nicht unbedingt eine >250$ GPU um mit solchen oeden settings zu spielen.
Meine Rede, der größte Witz dabei ist aber dann auch, dass die CPU-Leistung ins Endergebnis fließt und die Graka-Tests auf einen CPU-Core limitiert sind. X-D

seahawk
2007-10-06, 18:30:06
Einen Benchmark kann man unter Umstaenden schon als Anzeige benutzen; das einzige Unglueck ist eben dass bei 1280 1xAA/1xAF immer noch zu stark die CPU limitiert auf heutigen GPUs. Noch schlimmer man kauft sich auch nicht unbedingt eine >250$ GPU um mit solchen oeden settings zu spielen.

Nur ist zumindest die 8800Gt keine Karte die in der Preisklasse liegt.

Ailuros
2007-10-06, 18:49:48
Nur ist zumindest die 8800Gt keine Karte die in der Preisklasse liegt.

Wie gesagt schoen langsam bis die finalen Details ankommen ; zwischen man glaubt alles schon zu wissen ueber X und der gesamten Wahrheit kann es so manche Unterschiede geben.

Ich hab mich keineswegs auf nur ein Produkt der gesamten Familie bezogen; wer die erste Runde (insgesamt Refreshes) fuer D3D10 gewonnen hat ist schon seit einiger Zeit klar. Und obwohl es besser werden wird fuer AMD in naechster Zeit, werden sie nicht die gleiche Anzahl an Vertraegen wie die Konkurrenz je erreichen, noch sieht es irgendwo nach einem Gewinn-reichen Resultat fuer die gesamte R6x0 Aera aus.

dargo
2007-10-06, 18:57:13
Wie gesagt schoen langsam bis die finalen Details ankommen ; zwischen man glaubt alles schon zu wissen ueber X und der gesamten Wahrheit kann es so manche Unterschiede geben.

Danke für den Hinweis, den Rest kann ich mir denken. ;)

Gast
2007-10-06, 19:16:38
Danke für den Hinweis, den Rest kann ich mir denken. ;)

Das heißt?

seahawk
2007-10-06, 19:18:15
Wie gesagt schoen langsam bis die finalen Details ankommen ; zwischen man glaubt alles schon zu wissen ueber X und der gesamten Wahrheit kann es so manche Unterschiede geben.

Ich hab mich keineswegs auf nur ein Produkt der gesamten Familie bezogen; wer die erste Runde (insgesamt Refreshes) fuer D3D10 gewonnen hat ist schon seit einiger Zeit klar. Und obwohl es besser werden wird fuer AMD in naechster Zeit, werden sie nicht die gleiche Anzahl an Vertraegen wie die Konkurrenz je erreichen, noch sieht es irgendwo nach einem Gewinn-reichen Resultat fuer die gesamte R6x0 Aera aus.

Die Preise machen aber, auch im Hinblick auf 8800GTS (neu) Sinn.

Beim zweiten Teil stimme ich Fir voll zu. Mehr als einen Abmilderung des Problems kann RV670 nicht mehr bringen.

dargo
2007-10-06, 19:22:54
Das heißt?
Denke dir deinen eigenen Teil dabei. ;)

AnarchX
2007-10-07, 00:06:06
Updated Specs of GF8800GT based on NVIDIA G92 (http://my.ocworkbench.com/bbs/showthread.php?p=421770#post421770)
The 8800GT graphics card is PCIe 2.0 compliant and come with a core clk of 600MHz and memory will be at 1800MHz. Shader clk is expected to be running at 1.2GHZ (to be finalised).
:|

Gast
2007-10-07, 00:12:41
Tja, das ist dann wohl der ganz normale GTS-Chip auf 65nm geschrumpft.

laser114
2007-10-07, 00:19:45
Updated Specs of GF8800GT based on NVIDIA G92 (http://my.ocworkbench.com/bbs/showthread.php?p=421770#post421770)

:|

Hmm, kommt leistungsmäßig auf das selbe wie 64 SP @ 1800 MHz.

Nur wieso taktet der G92 nur so langsam? Für 65nm sind 600/1200 ja nun wirklich nicht erstrebenswerte Taktraten.
Ist der eventuell noch nicht ganz ausgereift und müsste eigentlich noch ein neues Stepping bekommen, aber NVIDIA will ihn nun raus haben?

AnarchX
2007-10-07, 00:20:53
Tja, das ist dann wohl der ganz normale GTS-Chip auf 65nm geschrumpft.

Mit einem in Richtung Tex verschoben ALU:Tex-Verhältnis Ende 2007, wenn man zudem noch die Bandbreite gegenüber einer GTS um 10% reduziert hat? :|

Aber vielleicht ist es ja ein Zahlendreher und man meint 2.1GHz (bei 64SPs)... :D

Gast
2007-10-07, 00:34:36
Mit einem in Richtung Tex verschoben ALU:Tex-Verhältnis Ende 2007, wenn man zudem noch die Bandbreite gegenüber einer GTS um 10% reduziert hat? :|

Aber vielleicht ist es ja ein Zahlendreher und man meint 2.1GHz (bei 64SPs)... :D

G80 minus:
- 2 TCP
- 2 ROPs

Das sind ein Drittel weniger Funktionseinheiten. Rechnen wir mal, dass die statt 33% nur 20% der Die-Fläche belegen. 484*0,8= 387,2mm². Perfekte Skalierung nach 65nm vorausgesetzt läge die Die-Fläche dann bei ~202mm².

Die mäßigen Taktraten sprächen dafür, dass sehr viele Dies diese auch erreichen.

IMO ein sinnhafter Schritt.

Gast
2007-10-07, 01:24:37
Soso für NVidia vielleicht. Für uns Kunden nicht. Das die Firmen sich auch immer gleich berufen fühlen uns zu beweisen, was uns passiert/droht, wenn die Konkurrenz einmal schwach ist.

Gast
2007-10-07, 01:33:20
Natürlich ist es für den Kunden ebenfalls vom Vorteil, wenn beide Unternehmen gesunde Produkte auf den Markt werfen.

Gast
2007-10-07, 01:35:39
Aber vielleicht ist es ja ein Zahlendreher und man meint 2.1GHz (bei 64SPs)... :D

Warum sollte man 600MHz bei 4 Cluster ansetzen? Eine solch niedrige Taktung spricht mehr für 6 Cluster als für 4.

LovesuckZ

AnarchX
2007-10-07, 07:44:13
Warum sollte man 600MHz bei 4 Cluster ansetzen? Eine solch niedrige Taktung spricht mehr für 6 Cluster als für 4.


Weil NV nunmal die 8800 GT unter einer 8800 GTS einordnet, was mit 6C@600MHz wohl nicht ganz der Fall mehr wäre:
http://img520.imageshack.us/img520/1658/nv8800gtxj4.jpg

Wieso kommst du dauernd auf die Idee, dass die 8800 GT schneller als eine GTS sein soll?:|

Gast
2007-10-07, 08:20:23
Soso für NVidia vielleicht.
Natürlich für Nvidia. Für den Kunden kann so eine Modellpflege ja nicht "sinnvoll" sein. Vorteilhaft vielleicht, aber der Kunde hat per se nichts davon, wenn eine Firma über alle Marksegmente profitabel aufgestellt ist (es sei denn er ist Aktionär, aber davon ist seine Funktion als Kunde ja erstmal unberührt), denn er kauft ja i.d.R. nur in/aus einem Segment.

Gast
2007-10-07, 08:22:23
Weil NV nunmal die 8800 GT unter einer 8800 GTS einordnet, was mit 6C@600MHz wohl nicht ganz der Fall mehr wäre
Es gäbe da schon Szenarien, in denen das vorstellbar wäre.

Gast
2007-10-07, 08:23:20
Natürlich für Nvidia. Für den Kunden kann so eine Modellpflege ja nicht "sinnvoll" sein. Vorteilhaft vielleicht, aber der Kunde hat per se nichts davon, wenn eine Firma über alle Marksegmente profitabel aufgestellt ist (es sei denn er ist Aktionär, aber davon ist seine Funktion als Kunde ja erstmal unberührt), denn er kauft ja i.d.R. nur in/aus einem Segment.
P.S.: Natürlich ist es in einem Speku-Forum auch eher sinnvoll, über den Sinngehalt von Maßnahmen für die jeweilige Firma zu spekulieren. Denn es geht ja darum, die Wahrscheinlichkeit der Spekulation einzuschätzen.

john carmack
2007-10-07, 10:03:53
http://www.gamestar.de/index.cfm?pid=398&pk=1474311

Nvidia05.10.2007, 11:05

Keine neue High-End-Karte in diesem Jahr

Wie Fudzilla meldet, wird Nvidia dieses Jahr keine neue High-End-Karte mehr vorstellen, sondern nur die bereits bekannte GeForce 8800GT und eine Einsteigerkarte mit dem G98-Chip. Damit bleiben die GeForce 8800 GTX und Ultra auch ein Jahr nach ihrer Markteinführung die schnellsten erhältlichen Karten.


Wirklich sehr, sehr schade...

reunion
2007-10-07, 10:13:48
Mit einem in Richtung Tex verschoben ALU:Tex-Verhältnis Ende 2007, wenn man zudem noch die Bandbreite gegenüber einer GTS um 10% reduziert hat? :|

Aber vielleicht ist es ja ein Zahlendreher und man meint 2.1GHz (bei 64SPs)... :D

Vielleicht sind es ja vier Cluster mit 96 SPs? Sonst wäre das wirklich dürftig und gegen RV670 wohl kaum ausreichend.

Weil NV nunmal die 8800 GT unter einer 8800 GTS einordnet, was mit 6C@600MHz wohl nicht ganz der Fall mehr wäre:
http://img520.imageshack.us/img520/1658/nv8800gtxj4.jpg


Vorallem ordnet nV RV670 weit unter R600 und unter 8800GTS 320MB ein, na wenn das mal nicht in die Hose geht. ATi verkauft den Chip wohl nicht ohne Grund als 2950XT, da scheint G92 auf verlorenen Posten.


Wieso kommst du dauernd auf die Idee, dass die 8800 GT schneller als eine GTS sein soll?:|

Verstehe auch nicht was sich da manche zusammenträumen, wo es schon mehrere Folien von nV gibt, die den Namen 8800GT bestätigen und diesen ganz klar unter der 8800GTS einordnen.

Neosix
2007-10-07, 10:36:02
das ist die hoffnung die noch immer bei manchen nicht ausstirbt. die hatten wohl auf ne neue performancekönig karte gewartet und kriegen was ein segment drunter.

Winter[Raven]
2007-10-07, 10:39:03
Vorallem ordnet nV RV670 weit unter R600 und unter 8800GTS 320MB ein, na wenn das mal nicht in die Hose geht.

Vielleicht bewertest du den RV670 über?

LovesuckZ
2007-10-07, 10:48:15
;5909582']Vielleicht bewertest du den RV670 über?

Das macht er bei jeder neuen Karte von AMD.


Wieso kommst du dauernd auf die Idee, dass die 8800 GT schneller als eine GTS sein soll?

Chips müssen produziert werden, da ist es egal ob man die auf 600MHz oder 800mHz verkauft. Bei 4 Cluster und 4 ROP-Paritionen sollte der Chip irgendwo bei ca. 160mm² sein. Sry, aber 110Watt und 600MHz/1200MHz entsprechen da wohl nichtmal annährend der Wirlichkeit.

reunion
2007-10-07, 10:50:53
;5909582']Vielleicht bewertest du den RV670 über?

AMD setzt RV670 ganz klar über R600 an und die werden es wohl besser wissen als nV.

Das macht er bei jeder neuen Karte von AMD.


Du bist wirklich ein Komiker. Ausgerechnet der User, der seit Tagen darauf besteht, dass eine 8800GT entgegen öffentlichen Präsentationen von nV alles wegrockt unterstellt mir soetwas.

LovesuckZ
2007-10-07, 11:01:11
Du bist wirklich ein Komiker. Ausgerechnet der User, der seit Tagen darauf besteht, dass eine 8800GT entgegen öffentlichen Präsentationen von nV alles wegrockt unterstellt mir soetwas.

Oha, warum gleich so aggressiv? Ich spreche nirgendwo von "wegrocken", sondern spekukliere über die Unsinnigkeiten der Angaben, die hier durch den Raum fliegen.
Das nVidia gerne die Öffentlichkeit in letzter Zeit verstärkt im Dunkeln lässt, sollte bekannt sein.
Aber du kannst gerne den Grund nenne, wieso ein solcher G92 doch locker 85 Watt real verbrauchen sollte, wenn er die gleiche größe wie ein G84 haben sollte und dabei niedriger getaktet ist.

James Ryan
2007-10-07, 11:06:42
AMD setzt RV670 ganz klar über R600 an und die werden es wohl besser wissen als nV.

Beweise? :|

MfG :cool:

Die gelbe Eule
2007-10-07, 11:08:09
Man muss wohl hier 6 Cluster bringen bei den niedrigen Taktrakten, da 64 Shader bei 1.1GHz mit 600MHz GPU Takt etwas zu lahm sind, um sich wirklich von einer 8600GTS abzuheben. Preislich gesehen würde man für ca. 20% Mehrleistung das doppelte drauflegen. Das merkt auch der letzte DAU.

laser114
2007-10-07, 11:08:57
;5909582']Vielleicht bewertest du den RV670 über?

Naja, über den RV670 sind aber nun schon ziemlich genaue Informationen bekannt. Zur Erstellungszeit der Folien ging nvidia wahrscheinlich von einem 3/4 R600 aus.

@LovesuckZ: Du solltest dir übrigens auch mal überlegen, ob du nicht gewisse Präferenzen gegenüber einem Grafikchiphersteller hast. Wenn gewisse Infos nicht in die gezeichneten Bilder passen kannst du sie ja helfen einzuordnen. So entstehen öde Diskussionen die nichts bringen, und da ist garantiert nicht nur reunion dran Schuld.

reunion
2007-10-07, 11:12:21
Das nVidia gerne die Öffentlichkeit in letzter Zeit verstärkt im Dunkeln lässt, sollte bekannt sein.

Ja, nur in etwas mehr als 20 Tagen soll der Launch stattfinden und die jetzt an die Öffentlichkeit dringenden Informationen stammen offensichtlich alle von NV-Partnern, welche NV so kurz vor dem Launch kaum anlügen wird.


Aber du kannst gerne den Grund nenne, wieso ein solcher G92 doch locker 85 Watt real verbrauchen sollte, wenn er die gleiche größe wie ein G84 haben sollte und dabei niedriger getaktet ist.

Die TDP-Angaben sind alles andere als gesichert. Der Kühlkörper unter dem Blech scheint relativ klein zu sein. Am wahrscheinlichsten ist, dass die TDP-Angaben einfach falsch sind. Vielleicht kommt auch wirklich später auf dem selben Chip basierend eine Karte mit mehr Cluster, und bei der 8800GT wurde - warum auch immer - nicht alles aktiviert.

Aber das eine 8800GT mit 4 Cluster (vielleicht 96 SPs) und 600/1200 kommt, verwundert kein bisschen, sondern ist sogar sehr logisch und nachvollziehbar. Sechs Cluster wären zu viel für eine Karte, die ganz klar unter der 8800GTS platziert ist.

Gast
2007-10-07, 11:14:28
@LovesuckZ: Du solltest dir übrigens auch mal überlegen, ob du nicht gewisse Präferenzen gegenüber einem Grafikchiphersteller hast. Wenn gewisse Infos nicht in die gezeichneten Bilder passen kannst du sie ja helfen einzuordnen. So entstehen öde Diskussionen die nichts bringen, und da ist garantiert nicht nur reunion dran Schuld.

Reunion macht erstmal nichts anderes als AMD Karten überzubewerten.
Ansonsten steht es auch dir frei mir zu erklären, wie eine Karte mit ca. 50 Millionen Mehrtransistoren als die 2600XT, einen wahrscheinlich größeren DIE von ca. 15mm² und einer Taktung von 600MHz/1200MHz eine TDP Angabe von 110 Watt erhalten könnte.

LovesuckZ

reunion
2007-10-07, 11:17:50
Reunion macht erstmal nichts anderes als AMD Karten überzubewerten.


Du sitzt wiedermal im Glashaus und wirfst mit Steinen.

laser114
2007-10-07, 11:19:39
Das kann durchaus viele Gründe haben ... ungesicherte TDP-Angabe, ungesicherte Taktraten (als 4C-Chip möchte NVIDIA vielleicht die Taktraten relativ hoch ansetzen) oder ähnliches.

4C @ 600/1200 halte ich aber für relativ unwahrscheinlich, das ist doch dann zu langsam.

dildo4u
2007-10-07, 11:21:26
AMD setzt RV670 ganz klar über R600 an und die werden es wohl besser wissen als nV.

Nein die Performance soll ca gleich sein.

http://img212.imageshack.us/img212/1451/rv6701ay5.jpg

reunion
2007-10-07, 11:23:01
Nein die Performance soll ca gleich sein.

Sie wird zumindest nicht langsamer sein, wenn man die Karte als HD2950XT verkauft.

dildo4u
2007-10-07, 11:24:00
Sie wird zumindest nicht langsamer sein, wenn man die Karte als HD2950XT verkauft.
Steht wo?

James Ryan
2007-10-07, 11:24:17
4C @ 600/1200 halte ich aber für relativ unwahrscheinlich, das ist doch dann zu langsam.

Ich denke von den 4 Clustern sollten wir uns langsam verabschieden, CJs Aussage passt auch dazu.
Eigentlich passt alles, bis auf der Name! ;D
Obwohl, 6 Cluster @600/1200 und "nur" ein 256 Bit Speicherinterface passen ganz eventuell doch auf eine Gf 8800 GT.

MfG :cool:

reunion
2007-10-07, 11:25:14
Steht wo?

Das wirst du schon noch früh genug sehen.

laser114
2007-10-07, 11:27:35
6 Cluster @600/1200 und "nur" ein 256 Bit Speicherinterface passen ganz eventuell doch auf eine Gf 8800 GT.

Joa, eben. Gerade wenn man die 8800 GTS dann noch etwas vergrößert.

Trotzdem halte ich diese Taktraten für 65nm relativ niedrig. Ich kann mir nicht vorstellen, dass Nvidia die grundsätzlich angepeilt hat...

Die gelbe Eule
2007-10-07, 11:33:27
Viele verpassen eines beim RV670, den Preis. AMD würde seine Kunden gehörig verarschen, welche eine X2900XT für 310€ gekauft haben, dann festellen mussten, daß eine 2900pro übertaktet genauso schnell ist, aber nur 210€ kostet. Wenn nun wieder eine Karte kommt welche mehr leistet, aber genauso günstig ist, hört der Spaß auf. AMD würde den RV670 niemals unter 250€ bringen, da man sonst einen Preiskampf heraufbeschwört, welche die Margen und somit den Umsatz deutlich verkleinern würde. Man müsste also deutlich mehr Karten verkaufen in dem Bereich als jemals zuvor, sehr schwer wenn Konkurrenz da ist.

Gast
2007-10-07, 11:33:46
Sie wird zumindest nicht langsamer sein, wenn man die Karte als HD2950XT verkauft.
Das ist deine Annahme…

reunion
2007-10-07, 11:34:18
Man muss wohl hier 6 Cluster bringen bei den niedrigen Taktrakten, da 64 Shader bei 1.1GHz mit 600MHz GPU Takt etwas zu lahm sind, um sich wirklich von einer 8600GTS abzuheben. Preislich gesehen würde man für ca. 20% Mehrleistung das doppelte drauflegen. Das merkt auch der letzte DAU.

Mit vier Cluster und 600/1200 Taktraten wäre die Karte annähernd doppelt so schnell wie eine 8600GTS.

Das ist deine Annahme…

Nein ist es nicht.

Gast
2007-10-07, 11:36:10
Nein ist es nicht.
Ach so, du gibst nur anderer Leute Meinung wieder?

dargo
2007-10-07, 11:37:45
Viele verpassen eines beim RV670, den Preis. AMD würde seine Kunden gehörig verarschen, welche eine X2900XT für 310€ gekauft haben, dann festellen mussten, daß eine 2900pro übertaktet genauso schnell ist, aber nur 210€ kostet.

Welchen Otto Normal-User interessiert OC?


AMD würde den RV670 niemals unter 250€ bringen, da man sonst einen Preiskampf heraufbeschwört, welche die Margen und somit den Umsatz deutlich verkleinern würde. Man müsste also deutlich mehr Karten verkaufen in dem Bereich als jemals zuvor, sehr schwer wenn Konkurrenz da ist.
Warum nicht bei so einer kleinen GPU?

Endorphine
2007-10-07, 11:37:52
Das wirst du schon noch früh genug sehen. In der Wirtschaft wird grundsätzlich immer schöngeredet, aber es wird niemals bei einer Eigenschaft untertrieben, für deren Maximierung der Kunde bereit ist, richtig Geld locker zu machen. Wenn sogar AMD schreibt, dass die Performance nicht steigt, dann kann man auch sehr stark davon ausgehen, dass dem auch so ist.

Die Zahl 2950 kann man aus Marketingsicht schon mit PCIe 2.0 rechtfertigen. Auch das gab's in der Vergangenheit schon mehrmals.

James Ryan
2007-10-07, 11:40:14
Joa, eben. Gerade wenn man die 8800 GTS dann noch etwas vergrößert.

Trotzdem halte ich diese Taktraten für 65nm relativ niedrig. Ich kann mir nicht vorstellen, dass Nvidia die grundsätzlich angepeilt hat...

Langsam passt wirklich alles:
Die Gf 8800 GT bekommt einen 6 Cluster G92 mit sehr niedrigen Taktraten um der Gf 8800 GTS nicht gefährlich zu werden. Letztere wird noch einmal verbreitet und quasi abverkauft.
Später (Q108?) kommt dann eine Gf 8900/9800 GTX mit GTX und "ordentlichen" Taktraten, sollte der RV670 wirklich so stark werden.

@Die gelbe Eule
Im Kunden verarschen ist ATi doch geübt, sie X1800 -> X1900. Die X1800 verlor praktisch über Nacht 50-60% an Wert!

MfG :cool:

reunion
2007-10-07, 11:41:19
Ach so, du gibst nur anderer Leute Meinung wieder?

Warte ab.

In der Wirtschaft wird grundsätzlich immer schöngeredet, aber es wird niemals bei einer Eigenschaft untertrieben, für deren Maximierung der Kunde bereit ist, richtig Geld locker zu machen. Wenn sogar AMD schreibt, dass die Performance nicht steigt, dann kann man auch sehr stark davon ausgehen, dass dem auch so ist.

Die Zahl 2950 kann man aus Marketingsicht schon mit PCIe 2.0 rechtfertigen. Auch das gab's in der Vergangenheit schon mehrmals.

Ich stimme dir durchaus zu. Wie schon gesagt: Sie wird zumindest nicht langsamer sein.

AnarchX
2007-10-07, 11:43:37
Ich denke von den 4 Clustern sollten wir uns langsam verabschieden, CJs Aussage passt auch dazu.


Von 4 Clustern vielleicht nicht, sondern von eben G8x-Clustern...
Auch Ailuros hat imo so eine Andeutung gemacht:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5908339#post5908339

128SPs(4x32) @ 1.2GHz ergeben ja auch die öfters genannten 460GFLOPs, auch wenn der Schritt imo etwas seltsam wäre.

robbitop
2007-10-07, 11:48:05
Langsam passt wirklich alles:
Die Gf 8800 GT bekommt einen 6 Cluster G92 mit sehr niedrigen Taktraten um der Gf 8800 GTS nicht gefährlich zu werden.
Eine 6C G92 mit 600 MHz wuerde eine GTS vermutlich schon ueberholen.

Gast
2007-10-07, 11:54:23
Warte ab.

Was meinst du?
Gibtst du nun anderer Leute Meinung wieder oder war das nicht deine Annahme: "Sie wird zumindest nicht langsamer sein, wenn man die Karte als HD2950XT verkauft."


Oder was soll deine Vorstellung hier werden?

James Ryan
2007-10-07, 11:55:19
Eine 6C G92 mit 600 MHz wuerde eine GTS vermutlich schon ueberholen.

Eine alte GTS ja, darum wird sie auch verbreitert. ;)

MfG :cool:

reunion
2007-10-07, 11:56:14
Eine alte GTS ja, darum wird sie auch verbreitert. ;)

MfG :cool:

6 Cluster mit 600 MHhz > 7 Cluster mit 500Mhz.

Was meinst du?


Das du schon noch sehen wirst das es nicht nur eine Annahme ist.

Die gelbe Eule
2007-10-07, 12:01:00
Tja, dann nimm das 256bit zu 320bit Interface, sowie 512MB zu 640MB und schon hast immernoch einen Abstand. Wahrscheinlich wird man auch den Takt der neuen GTS erhöhen. So weit liegen dann die 250€ und 300€ GPUs nicht auseinander, aber es bleibt dennoch das Verhältnis wie bei 320er zu 640er.

AnarchX
2007-10-07, 12:03:16
Tja, dann nimm das 256bit zu 320bit Interface, sowie 512MB zu 640MB und schon hast immernoch einen Abstand. Wahrscheinlich wird man auch den Takt der neuen GTS erhöhen.
Davon spricht aber nicht die Folie:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=384580+


So weit liegen dann die 250€ und 300€ GPUs nicht auseinander, aber es bleibt dennoch das Verhältnis wie bei 320er zu 640er.
$249 8800 GT 512MB und die GTS 640 liegt nachwievor bei $399 und dies versucht man wohl mit der Erhöhung auf 7 Cluster auch zu erhalten.


Wer immernoch der Meinung ist, dass eine 8800 GT von ihren Spezifikationen stärker als eine GTS bzw. New-GTS zu einem Preis von $249, soll dies bitte mal stichhaltig argumentieren und dies auch mit Bezug auf die vorliegenden Infos, die ja sicherlich nicht alle falsch sind. ;)

Die gelbe Eule
2007-10-07, 12:08:58
Die Folie kann sich jeder selbst bauen. Für die 512er war doch bereits 229$ angekündigt oder?

Nakai
2007-10-07, 12:09:36
Schon mit der Annahme von NV dass der G92 gegen Rv670 antreten soll und noch unter 8800GTs 320 angesiedelt sein sollte, sagt doch schon alles, über die neue NV-Karte aus.

Ich versteh einfach nicht, wie alle wieder soviel von NV erwarten, wenn NV selber behauptet haben, dass der G92 schlechter in der Performance geplant war als ne 8800GTS.

Ach so, du gibst nur anderer Leute Meinung wieder?

Tut mir leid, aber er hat Recht mit seiner Annahme. Der Name "RV670" ist schon sehr irreführend...

mfg Nakai

AnarchX
2007-10-07, 12:11:42
Die Folie kann sich jeder selbst bauen. Für die 512er war doch bereits 229$ angekündigt oder?

Ist es so schwierig zu erkennen, dass dies wohl doch schon etwas älter ist?
Mittlerweile sollte doch selbst bei NV angekommen sein, was für RV670-SKUs es geben wird und dies das dazu keine RV670XTX gehört.;)


Tut mir leid, aber er hat Recht mit seiner Annahme. Der Name "RV670" ist schon sehr irreführend...

Passen tut er imo doch schon, nur hat ATi diesmal etwas anders abgespeckt als bei den anderen RVx70.

Aber das NV auf dieser alten Folie etwas von RV670Pro für $199 und einer RV670XTX für $249 schreibt ist schon etwas seltsam, nicht das sie die 8800 GT wirklich an die "RV670XTX" angepasst haben, was ja im Coolaler-Forum eine 2950GT war, die eine solche Bezeichnung trug. :|

dargo
2007-10-07, 12:24:32
Ich versteh einfach nicht, wie alle wieder soviel von NV erwarten, wenn NV selber behauptet haben, dass der G92 schlechter in der Performance geplant war als ne 8800GTS.

Was ich an der ganzen Diskussion nicht verstehe, dass alle meinen mit dem G92 würde nur eine G8800GT (unterhalb der G8800GTS) erscheinen. Ich könnte mir gut vorstellen, dass da dieses Jahr noch mehr kommt.

laser114
2007-10-07, 12:28:03
Was ich an der ganzen Diskussion nicht verstehe, dass alle meinen mit dem G92 würde nur eine G8800GT (unterhalb der G8800GTS) erscheinen. Ich könnte mir gut vorstellen, dass da dieses Jahr noch mehr kommt.

Wenns ein sechs Cluster-Design ist, kann das passieren. Dann bekommt die 8800 GT eben nur niedrige Taktraten.

dargo
2007-10-07, 12:30:05
Wenns ein sechs Cluster-Design ist, kann das passieren. Dann bekommt die 8800 GT eben nur niedrige Taktraten.
Du hast mich nicht verstanden. Ich könnte mir durchaus vorstellen, dass auf Basis vom G92 eine G8800GT (unterhalb der G8800GTS) und eine G8800(?) oberhalb erscheinen könnte.

AnarchX
2007-10-07, 12:33:02
In einen ~289mm² Die sollten aber mehr als 6 G80-Cluster passen.;)

Ich kann mir nicht vorstellen warum NV davon abweichen sollte eine neue High-End-GPU am Ende des Jahres vorzustellen.
Da ATi recht zeitnah kommt, muss man eben entsprechend hier alles geheimhalten, um diesen prestigträchtigen Sieg zu holen.

Nakai
2007-10-07, 12:33:36
Was ich an der ganzen Diskussion nicht verstehe, dass alle meinen mit dem G92 würde nur eine G8800GT (unterhalb der G8800GTS) erscheinen. Ich könnte mir gut vorstellen, dass da dieses Jahr noch mehr kommt.

Bestimmt kommt da was noch nach, aber nicht dieses Jahr. Anfang nächstes Jahres geht die Schlacht weiter. Ich gehe von einer Version genau zwischen 8600GTS und 8800GTS 320 und einer Version sehr nahe an 8800GTS aus.

Die Frage die mich eher interessiert ist, ob NV eine Dualkarte plant? Bis jetzt hab ich nicht viel davon gesehen. Eher das NV nen G90 nachschiebt.

Gast
2007-10-07, 12:39:20
Das du schon noch sehen wirst das es nicht nur eine Annahme ist.
Hihihi - deine Spielchen sind wirklich süß. :) Du weißt nichts, willst aber den Eindruck erwecken, ein Insider zu sein.

Gast
2007-10-07, 12:47:12
In einen ~289mm² Die sollten aber mehr als 6 G80-Cluster passen.;)
Perfekte Prozesskalierung vorausgesetzt, passt ein kompletter G80 in <260mm² bei 65nm.

10 TCP und 512 Bit?

reunion
2007-10-07, 12:47:38
Hihihi - deine Spielchen sind wirklich süß. :) Du weißt nichts, willst aber den Eindruck erwecken, ein Insider zu sein.

Na wenn du das sagst. Wir werden ja sehen, wer recht behält. Aber da du als Gast sowieso keine Wiedererkennungsmerkmale hast, ist es natürlich leicht, große Sprüche zu klopfen.

Gast
2007-10-07, 12:52:56
Wieso sollte NVIDIA ihre eigenen High-End Produkte selbst übertrumpfen? Ich denke die neue High End Graka ist schon fertig, jedoch will man erstmal warten was AMD bringt. Dann können sie rechtzeitig kontern und sich die Performancekrone (?vielleicht?) zurückerobern, falls es überhaupt was zum Zurückerobern gibt.

Jedenfalls können die für ihre GTX doch noch ohne Probleme für ~450-500€ verkaufen, um den High End Markt zu bedienen ...

Nakai
2007-10-07, 12:55:32
Du weißt nichts, willst aber den Eindruck erwecken, ein Insider zu sein.

Aber da du als Gast sowieso keine Wiedererkennungsmerkmale hast, ist es natürlich leicht, große Sprüche zu klopfen.

Billiges Gast-Gebashe...einfach ignorieren...

(Eigentlich ein weiterer Grund, Gastkontos abzuschaffen, aber ich denk ich weiß schon wer es ist...)


mfg Nakai

seahawk
2007-10-07, 13:03:31
Weil NV nunmal die 8800 GT unter einer 8800 GTS einordnet, was mit 6C@600MHz wohl nicht ganz der Fall mehr wäre:
http://img520.imageshack.us/img520/1658/nv8800gtxj4.jpg

Wieso kommst du dauernd auf die Idee, dass die 8800 GT schneller als eine GTS sein soll?:|

Aber das meint wohl die 8800GTS (neu)

600MHz 1.2 Shaderclock und 96SP.

Nakai
2007-10-07, 13:11:23
Oder die neue GTS ist gegen den RV670 gerichtet. Der G92 dagegen zwischen 8600GTS und 8800GTS 320.
Nach der eigenen Präsentation natürlich, aber da kann sich was ändern.

mfg Nakai

seahawk
2007-10-07, 13:47:39
G92 ist gegen RV670 gerichtet. Wir sehen jetzt erst eine Variante von G92. Gladiatior ist nahe am Maximum von dem was RV670 kann, 8800Gt aber nicht an dem MAximum von G92.

LovesuckZ
2007-10-07, 13:49:30
Wer immernoch der Meinung ist, dass eine 8800 GT von ihren Spezifikationen stärker als eine GTS bzw. New-GTS zu einem Preis von $249, soll dies bitte mal stichhaltig argumentieren und dies auch mit Bezug auf die vorliegenden Infos, die ja sicherlich nicht alle falsch sind. ;)

Weil sie solch einen 4 G80-Cluster mit 4 ROP Partitionen und 256bit Speicheirnterface für den selben Preis verkaufen könnten wie eine 8600GTS.
Solch ein Chip sollte locker auf 750MHz laufen und dabei eine TDP mit dem selben Wert einer 8600GTS haben.
Es fehlen einfach zuviele Informationen, um sich ein genaues Bild machen zu können. Trotzdem reden einige hier schon als ob sie Werte der Karte schon hätten.

Gast
2007-10-07, 21:57:37
Bei der ganzen Diskussion um die 8800GT und 8800GTS "neu" lohnt sich ein Blick auf diesen Artikel: http://www.digit-life.com/articles2/video/g80_units.html

AnarchX
2007-10-07, 22:11:21
Weil sie solch einen 4 G80-Cluster mit 4 ROP Partitionen und 256bit Speicheirnterface für den selben Preis verkaufen könnten wie eine 8600GTS.
Können sicherlich, aber ob man es macht ist eine andere Frage. Man denke an die 8600GTS für 200€, was nicht wirklich zur Leistung angemessen war...


Solch ein Chip sollte locker auf 750MHz laufen und dabei eine TDP mit dem selben Wert einer 8600GTS haben.
Imo ist die TDP(110W) von PHK wohl veraltet, genauso wie seine Bilder von einem Sample mit stärker Kühllösung.

Aber trotzdem glaube ich dass die TDP trotz 600MHz@ROP-Domain höher als bei einer 8600GTS ist, worauf ja auch der Kühler hindeutet, was aber nicht in mehr als 4 Cluster zu suchen ist, sondern in anderen Clustern als bei G8x, die auf Grund höherer Pro-MHz-Leistung etwas mehr verbrauchen, vielleicht mehr SPs, was Ailuros in seinen letzten Post und wiederum auch andere in Vergangenheit angedeutet haben.


Es fehlen einfach zuviele Informationen, um sich ein genaues Bild machen zu können.
Sicherlich fehlt noch einiges, aber NV-Folien, Aussagen von vielen Personen und zusätzliche Gegebenheiten wie das Upgrade der GTS auf 7C, deuten doch sehr in eine Richtung an, die nicht ganz konform geht mit dem was du glaubst.

Aber wer weiß vielleicht überrascht uns NV und es kommt doch zu deiner 8800 GT, was ja aus Kundensicht zu begrüßen wäre.;)


@ G9x-High-End:
During his speech, Nvidia’s senior vice president Dan Vivoli let slip that Nvidia intended to “launch new hardware to coincide with Crysis’ launch.” Vivoli didn’t elaborate, but the rumor mill has been predicting that Nvidia would ship a new top-end GPU right before the holiday shopping season, just as they did with the GeForce 8800 last year.
http://www.maximumpc.com/article/nvidia_launching_new_hardware_to_coincide_with_crysis_release

Für Crysis, welches wohl aktuelle 8800er-Karten an ihre Grenzen bringt in maximalen Details, wäre neue, schnellere HW sicherlich nicht verkehrt und auch ein imo nötiger Schachzug.
Anderseits: "8800 GT - The Crysis Experience for Budget-Price"... :uponder:

Godmode
2007-10-07, 22:40:46
@ G9x-High-End:

http://www.maximumpc.com/article/nvidia_launching_new_hardware_to_coincide_with_crysis_release

Für Crysis, welches wohl aktuelle 8800er-Karten an ihre Grenzen bringt in maximalen Details, wäre neue, schnellere HW sicherlich nicht verkehrt und auch ein imo nötiger Schachzug.
Anderseits: "8800 GT - The Crysis Experience for Budget-Price"... :uponder:

Ich bin immer noch überzeut davon, dass wir im November ein neues Highend Modell von nVidia sehen werden. Ihr könnt euch sicher noch die Zeit vor G8x erinnern, IMO läuft es jetzt sehr ähnlich. Von wegen keine US-Architektur ^^ Niemand weiß wirklich was kommen wird und die die schon was wissen, sagen klarerweise nichts (NDA).

Welche Gründe würden für die Verspätung des G9x Highend-Chips auf Q108 sprechen?
- Chip erreicht den gewünschten Takt nicht?
- Margen zu schlecht?
- andere Probleme, Fehler im Chip?
- warten auf ATI?



Ich würde mir das Weihnachtsgeschäft nicht entgehen lassen wollen!

Gast
2007-10-07, 23:37:05
1jahr vergangen immernoch kein termin für neue highend...schön doof...erstens x-mas und crysis als reines marketinggame. extra mies programmiert,damit leute nach hardware schrein.

Die gelbe Eule
2007-10-08, 07:48:44
http://resources.vr-zone.com/newzhunter/06-GF8800GT.jpg

NVIO Chip hier außerhalb, wie beim G80. Von der Länge des PCBs ausgehend, würde ich mal sagen der G92 ist ein G80 Upgrade und da kommt noch einiges hinterher an Performance.

seahawk
2007-10-08, 07:53:14
NVIO, wo ?

Die gelbe Eule
2007-10-08, 07:53:42
Die schwarze Raute links.

AnarchX
2007-10-08, 08:17:32
Die schwarze Raute links.

Das ist kein NVIO(der sieht völlig anders aus), sondern wohl der Chip der für die Display-Ports benötigt wird.;)

NV 8800GT scores 11760 in 3Dmark06 (http://my.ocworkbench.com/bbs/showthread.php?p=421815#post421815)
We have got the initial scores of GeForce 8800GT runnning on a ASUS P5K-D board with Core 2 Quad Q6600 processor. It scored 11760 in 3dmark06. The Core runs at 600MHz while memory is at 1800MHz.

Das wird ja immer mehr...

seahawk
2007-10-08, 08:26:53
Taktraten festgelegt.

Und für ein 4 Cluster 96SP Chip wäre das realistisch.

Die gelbe Eule
2007-10-08, 08:30:27
Somit kann man spekulieren wieviele SPs man braucht, damit man so hoch fahren kann. Nur wenn das kein NVIO ist, wo versteckt man dann die RAM-DACs, SLi Bridge und die DualLink DVI Ansteuerung?

AnarchX
2007-10-08, 08:33:18
Somit kann man spekulieren wieviele SPs man braucht, damit man so hoch fahren kann. Nur wenn das kein NVIO ist, wo versteckt man dann die RAM-DACs, SLi Bridge und die DualLink DVI Ansteuerung?
Natürlich im Die, G80 hatte laut letzten Infos nur ein NVIO, da es hier Zeitprobleme gab und man so an beiden getrennt arbeiten konnte.
An dem hohen Shadertakt lag es eben nicht, wie G84 bewies.

Die gelbe Eule
2007-10-08, 08:35:21
96 SPs wäre dann wohl passend für 600MHz. Ein ähnliches System mit 3GHz Quad und 8800GTS bei 630/1000MHz fährt fast an die 12k heran.

AnarchX
2007-10-08, 08:39:17
96 SPs wäre dann wohl passend für 600MHz.
Du weist aber schon, dass die SPs eine andere, höhere Taktdomain haben?

Ich bin nachwievor überzeugt das 16 Doppel-TMUs@600MHz eigentlich für eine 8800 GT reichen sollten, nur sollte sie aber im Verhältnis zu anderen G8x-Karten deutlich mehr Shaderpower haben um gegen RV670 in jeder Situation sich gut postieren zu können.

Fast 12k sind doch schon eine ganze Menge, aber vielleicht wieder diese dummen 1024xer Benches, wie sie es bei der 8600GTS auch gab...:rolleyes:

Die gelbe Eule
2007-10-08, 08:43:08
Wenn man von den 1.2GHz ausgeht die vor kurzem in den Raum geworfen wurden, fehlt dann doch etwas. Aber vielleicht hat man auch die Shaderanzahl krass erhöht und kommt mit 128 daher.