PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Alles zu kommenden Geforce9-Grafikkarten - 9600GSO-G94, 9850 X,...


Seiten : [1] 2 3

dildo4u
2008-03-09, 02:34:23
Teil 2

9800GTX OC angeblich mit Lukü und default Spannung.

Core: 850 Speicher:1188 Shadertakt: 2160

Im Vergleich zur (G92)GTS: "GPU core overclking better (better PCB/PWM/Cooling)"

http://s5.directupload.net/images/080309/7vqzioig.jpg

http://www.unihw.com/html/24/n-124.html

LovesuckZ
2008-03-09, 02:36:08
Das wäre eine 9800GTX.

Gast
2008-03-09, 08:15:23
Abwarten, im Juni kommt der Nachschlag :)

Gast
2008-03-09, 08:27:04
alles rausgeworfenes geld solange die nix am "bít" und am ram machen gibt es von mir keine kohle mehr

reunion
2008-03-09, 09:01:46
Die Spannungen sind denke ich auch ganz intressant:

9800GTX Spec:
vGPU=1.2v~1.21v idle, 1.26~1.27v load
vRam=2.0v

Da ging nV im Vergleich zur 8800GTS doch nochmal mit der Spannung hoch, das erklärt dann auch die überproportional gestiegene TDP.

=Floi=
2008-03-09, 09:07:07
http://www.tomshardware.com/de/9600-GT-GeForce-Xpertvision,testberichte-239968.html
der neue treiber bingt nochmal mehr fps!

eine richtige überarbeitung wäre schön gewesen, aber auch so geht es ganz gut mit dem G92

Ailuros
2008-03-09, 10:05:50
Genau das wollte ich nicht tun, sonst hätte ich die Benchmarks gar nicht einzeln aufgeführt. So ein Mittelwert sagt überhaupt nichts aus über die Spielbarkeit diverser Spiele und Computerbase lässt da unverständlicherweise auch Benchmarks einfließen, wo mit keiner Karte brauchbare Frameraten drin sind.

Dann brauchst Du eher derartige reviews:

http://www.hardocp.com/article.html?art=MTQ1NCwxLCxoZW50aHVzaWFzdA==

Wenn ein reviewer 20 Spiele testet, dann kommt der Durchschnitt normalerweise auch aus diesen 20 Spielen; es gibt eben zur Zeit ein paar Spiele wo man mit maximalen settings nicht von Spielbarkeit selbst auf dem teuersten System reden kann. Entweder man reduziert die settings in idiesen so stark dass man dann eher die Platform bzw. CPU misst oder man laesst sie ganz weg und begnuegt sich mit der gleichen oeden Kake die unedliche Male wieder und wieder getestet wurde und die Leistung sowieso oefters im Ueberfluss liegt, nur um mir nichts dir nichts die Interpretation abzugeben die gerade jedem passt.

LovesuckZ
2008-03-09, 10:14:44
http://www.tomshardware.com/de/9600-GT-GeForce-Xpertvision,testberichte-239968.html
der neue treiber bingt nochmal mehr fps!

eine richtige überarbeitung wäre schön gewesen, aber auch so geht es ganz gut mit dem G92

Eine 9600gt liegt auf dem Niveau der 8800GTS-640. Das ist ziemlich überraschend. Da sieht man aber auch, dass das G80 Design einfach nur Bandbreite benötigt.

Gast
2008-03-09, 12:39:06
Die Spannungen sind denke ich auch ganz intressant:

9800GTX Spec:
vGPU=1.2v~1.21v idle, 1.26~1.27v load
vRam=2.0v

Da ging nV im Vergleich zur 8800GTS doch nochmal mit der Spannung hoch, das erklärt dann auch die überproportional gestiegene TDP.
um so unverständlicher sind die niedrigen taktrate
ich seh schon die ersten reviews
kaum schneller aber höherer stromverbrauch
die bekommt bestimmt keine krone aufgesetzt

imho wären 725mhz doch locker drin gewesen, das packt doch schon jede normale 8800gts

y33H@
2008-03-09, 12:47:42
Die GTS/640 hat rund 11% mehr Bandbreite und ebenfalls 11% mehr GFLOP/s. In den Benches kann die GTS diesen leichten Vorsprung aber nicht in ensprechende Fps ummünzen. nV haben mit den Treiber gute Arbeit geleistet und auf 256 Bit optimiert, das macht sich ebenso bemerkbar wie die kleineren Verbesserungen bei AA und dem 1:1 Verhältnis bei Adressierung/Filterung.

Imo sind G80 und G94 aber sehr ähnlich, die Unterschiede sind marginal.

EDIT
Auch grade gesehen, 1.27v in 3D und dann so ein Takt ... pfui.

cYa

Raff
2008-03-09, 12:51:43
Die Spannungen sind denke ich auch ganz intressant:

9800GTX Spec:
vGPU=1.2v~1.21v idle, 1.26~1.27v load
vRam=2.0v

Da ging nV im Vergleich zur 8800GTS doch nochmal mit der Spannung hoch, das erklärt dann auch die überproportional gestiegene TDP.

Reicht das, um die 8800 Ultra in Sachen Stromhunger einzuholen? Vermutlich nicht ganz. Aber gut, dafür wird die 9800 GTX eben auch nicht die absolut schnellste Grafikkarte. Es ist echt traurig, dass man seit Ende 2006 mit einer 8800 GTX High-End im Rechner haben kann ...

MfG,
Raff

puntarenas
2008-03-09, 12:56:10
Möglicherweise aufgrund von Stabilitätsproblemen? Im Zusammenhang mit der GV-NX88T512HP (8800GT 700/1715/920 Mhz) kann man von Abstürzen in einigen älteren Spielen lesen: Klick! (http://www.jzelectronic.de/jz2/board.php?sid=58708f4928f14ea041fb9596cac8625f&id=304&thema_id=1335&kategorie=Support&rub=VGA%20Grafikkarten&act=Anzeige)
Im Gigabyte-Forum wird das bestätigt und anscheinend bekommen alle Hersteller von OC-Versionen der 8800GT derartige Klagen reihenweise zu hören.

Bei der 8800GTS (G92) liegt ja bereits ein klein wenig mehr Spannung an, aber möglicherweise operiert diese bei OC auch bereits hart an der Kante. Sollte das zutreffen, braucht NVidia die Spannung beim G92 schlicht und einfach schon allein deshalb, um die gewünschte Zuverlässigkeit in kritischen Szenarien gewährleisten zu können?

LovesuckZ
2008-03-09, 13:57:42
Reicht das, um die 8800 Ultra in Sachen Stromhunger einzuholen? Vermutlich nicht ganz. Aber gut, dafür wird die 9800 GTX eben auch nicht die absolut schnellste Grafikkarte. Es ist echt traurig, dass man seit Ende 2006 mit einer 8800 GTX High-End im Rechner haben kann ...

MfG,
Raff

Traurig ist es eher, nach High-End zu schreien, aber sich gleichzeitig auch über die Preise zu beschweren. :rolleyes:
Ich seh's schon kommen, wenn die neuen Karten 500-600€ kosten und doppelt so schnell sind und gewisse Leute sich dann darüber beschweren, dass der Preis viel zu hoch wäre - hatten wir ja bei den 8800GTX Karten gesehen.

dargo
2008-03-09, 14:04:57
Es ist echt traurig, dass man seit Ende 2006 mit einer 8800 GTX High-End im Rechner haben kann ...

Erstens das und zweitens - was hat NV der 65nm Fertigungsprozess eigendlich gebracht, außer kleinerem Die?

G8800GTX768 = 177W TDP
G9800GTX512 = 168W TDP

:|

Gast
2008-03-09, 14:09:39
Möglicherweise aufgrund von Stabilitätsproblemen? Im Zusammenhang mit der GV-NX88T512HP (8800GT 700/1715/920 Mhz) kann man von Abstürzen in einigen älteren Spielen lesen: Klick! (http://www.jzelectronic.de/jz2/board.php?sid=58708f4928f14ea041fb9596cac8625f&id=304&thema_id=1335&kategorie=Support&rub=VGA%20Grafikkarten&act=Anzeige)
Im Gigabyte-Forum wird das bestätigt und anscheinend bekommen alle Hersteller von OC-Versionen der 8800GT derartige Klagen reihenweise zu hören.
Diese GTs haben auch nur 2 Phasen. ;)


Erstens das und zweitens - was hat NV der 65nm Fertigungsprozess eigendlich gebracht, außer kleinerem Die?

Neue Features, alles in einem Die, außerdem ist die Leistung höher, bis auf die Bandbreite.

dargo
2008-03-09, 14:15:00
Neue Features, alles in einem Die, außerdem ist die Leistung höher, bis auf die Bandbreite.
Was für neue Features, außer dem VP? Das erklärt immer noch nicht warum die G9800GTX so viel Strom verbraucht. Wir reden hier von 90nm vs. 65nm. Außerdem bitte nicht vergessen, dass die G8800GTX 50% mehr Vram hat was auch in Mehrverbrauch resultiert. Auch wenn es nicht besonders viel ausmacht.

LovesuckZ
2008-03-09, 14:23:57
Was für neue Features, außer dem VP? Das erklärt immer noch nicht warum die G9800GTX so viel Strom verbraucht. Wir reden hier von 90nm vs. 65nm. Außerdem bitte nicht vergessen, dass die G8800GTX 50% mehr Vram hat was auch in Mehrverbrauch resultiert. Auch wenn es nicht besonders viel ausmacht.

Weil der Prozeß einfach gut war. Die Karte ist nunmal eine dieser Jahrhunderterrungenschaften.
Anscheinend erreicht man nicht die gewünschten Ergebnisse und deswegen benötigt man soviel Strom. Dafür kann man locker mit der 8800GTS mithalten - siehe hier 9600gt.

Gast
2008-03-09, 14:24:46
Der VRAM zoeht praktisch gar nichts.

Was für neue Features, außer dem VP?
Du kennst sie bereits.
PCIe 2.0
VP2, der G80 hat da ja total versagt
Hybrid-SLI
der NVIO ist on Die
Du unterschlägst den eigentlichen Vorteil der 65nm: Der Chip ist bedeutend günstiger, er dringt jetzt in Preisbereiche vor, die mit dem G80 undenkbar waren.

Die TDP zu vergleichen ist eh sinnlos.

Nightspider
2008-03-09, 14:27:16
Dann frag ich mir nur, ob der GT200 auch in diesem "schlechten" 65nm-Prozess hergestellt wird.

Wenn der Gt200 so groß wird, wie vermutet, wirds in 65nm eng...sehr großer Die und hoher Stromverbrauch: 250W Abwärme...

Nakai
2008-03-09, 14:30:07
sehr großer Die und hoher Stromverbrauch: 250W Abwärme...

Der G92 war wirklich nichts besonderes. Ich denke beim GT200 wird NV einen besser optimierten 65Nm-Bereich verwenden.
Und die 250W werden bestimmt nicht erreicht werden.


mfg Nakai

LovesuckZ
2008-03-09, 14:30:08
Dann frag ich mir nur, ob der GT200 auch in diesem "schlechten" 65nm-Prozess hergestellt wird.

Nein, diese Betrachtung ist falsch. Der G92 scheint ein hingerotztes Herbstupdate gewesen zu sein.
Vergleicht dochmal G71 und G80. Der erste hat eine TDP von 110, der zweite von 177. Macht 60% mehr bei 2,5fach sovielen Transistoren und im Schnitt dreifacher Leistung. Und der G71 war hochoptimiert. Das kann man vom G92 nicht behaupten.

Gast
2008-03-09, 14:30:33
Wenn der Gt200 so groß wird, wie vermutet, wirds in 65nm eng...sehr großer Die und hoher Stromverbrauch: 250W Abwärme...
Wenns nach Dargo geht, dann ist der GT200 Die größer als ein G80 Die, vom Stromverbrauch brauchen wir gar nicht anzufangen.

Gast
2008-03-09, 14:32:04
Und die 250W werden bestimmt nicht erreicht werden.

Das wird nicht das Problem sein, siehe R600.
Die Kosten für den Die schon eher.

dargo
2008-03-09, 14:36:28
PCIe 2.0

Wahnsinnsfeature. Welche Vorteile habe ich davon und vorallem welche Auswirkung hat das auf den Stromverbrauch der Graka?


VP2, der G80 hat da ja total versagt

Hatte ich schon erwähnt. ;)
Das erklärt immer noch nicht den sehr hohen Stromverbrauch einer G9800GTX512. Soviele Transistoren verschlingt der VP auch nicht. Außerdem hat der VP beim Zocken eh nichts zu tun.


Hybrid-SLI

Auch das erklärt nicht den hohen Stromverbrauch.


der NVIO ist on Die

Das ist weder ein Vor- noch ein Nachteil. Zumindest für den Kunden.


Du unterschlägst den eigentlichen Vorteil der 65nm: Der Chip ist bedeutend günstiger, er dringt jetzt in Preisbereiche vor, die mit dem G80 undenkbar waren.

Tue ich das?
Erstens das und zweitens - was hat NV der 65nm Fertigungsprozess eigendlich gebracht, außer kleinerem Die?
Dass ein kleineres Die in geringeren Preis resultiert dürfte selbsterklärend sein.

Und ja, der G80 ist soo teuer:
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=Geforce+8800GTX&asd=on&filter=+Liste+aktualisieren+&pixonoff=off

Nightspider
2008-03-09, 14:37:48
Dann frag ich mich aber, ob es so kompliziert für NV gewesen wäre, den Prozess schon für den G92 so zu optimieren, das er noch weniger Strom, bei gleicher Leistung frisst.

Spätestens fast ein halbes Jahr später, jetzt mit der 9800GTX etc. hätte man doch schon einen solch optimierten 65nm Prozess verwenden können, das diese weniger verbrauchen oder ?

Wird der Vorgang nicht einfach von selbst optimiert ?

Oder müssten jedesmal neue Masken etc. hingelasert werden, um bestimmte Stellen im Chip dicker, dünner zu machen. bzw. ein paar Leitungen zu ändern ?

So richtig kann ich mir unter besagtem "optimieren" nix vorstellen.

Edit:

Und ja, der G80 ist soo teuer:
http://geizhals.at/deutschland/?cat=...+&pixonoff=off

Du hast wohl vergessen, das der G80 nichtmehr produziert wird und nur die Reste verkauft werden ?
Der jetztige Preis hat überhaupt nichts mit der Situation zu tun....der Chip ist 1,5 Jahre alt

dargo
2008-03-09, 14:44:29
Du hast wohl vergessen, das der G80 nichtmehr produziert wird und nur die Reste verkauft werden ?
Der jetztige Preis hat überhaupt nichts mit der Situation zu tun....der Chip ist 1,5 Jahre alt
Das ist zwar richtig, dem Kunden kann das aber egal sein. Wer Leistung will ist mit einer G8800GTX für 275€ sehr gut bedient, vorallem wenn eine G9800GTX512 350-400€ kosten sollte.

LovesuckZ
2008-03-09, 14:45:31
Dann frag ich mich aber, ob es so kompliziert für NV gewesen wäre, den Prozess schon für den G92 so zu optimieren, das er noch weniger Strom, bei gleicher Leistung frisst.

Spätestens fast ein halbes Jahr später, jetzt mit der 9800GTX etc. hätte man doch schon einen solch optimierten 65nm Prozess verwenden können, das diese weniger verbrauchen oder ?


Es kostet alles Geld. Und warum nochmal Geld in etwas investieren, was man in einem halben Jahr nicht mehr benötigt? Den ganzen 9800 Zeug will man einfach nochmal in die Presse. PR und so.
Es ist ja nicht so, dass der G92 nicht optimiert ist. Er erreicht mit moderatem Verbrauch eine sehr gute Leistung. Aber hat wohl die anversierten Taktraten und Spannung wohl nicht erreicht.

Gast
2008-03-09, 14:53:25
Wahnsinnsfeature. Welche Vorteile habe ich davon und vorallem welche Auswirkung hat das auf den Stromverbrauch der Graka?

Solange AGP lebt bringt es leider wenig, aber bei einer Ausnutzung von PCIe dürfte der Boost gewaltig werden.


Das erklärt immer noch nicht den sehr hohen Stromverbrauch einer G9800GTX512.

Es kommt eben alles zusammen, hier ein paar % da ein paar. ;)

Auch das erklärt nicht den hohen Stromverbrauch.

Nein, es senkt ihn.


Das ist weder ein Vor- noch ein Nachteil. Zumindest für den Kunden.

Ich bin froh, wenn ein Chip weniger zu kühlen ist, einen G80 mit einem G71 Kühler zu kühlen ist praktisch nicht möglich, einen G92 bekomme ich in den Griff, schonmal dank gleichem Lochabstand, gut das hat nichts mit dem Verbrauch zu tun ...

Dass ein kleineres Die in geringeren Preis resultiert dürfte selbsterklärend sein.

Als Kernfeature kann man das ruhig öfter erwähnen.

Und ja, der G80 ist soo teuer:

Er läuft auch aus, mal sehen ob er in einem Monat immer noch so einfach und billig zu bekommen ist.
Außerdem ein G92 ist nunmal immer noch billiger, vergleiche mal den Preis einer 8800GT mit der GTS640.

LovesuckZ
2008-03-09, 14:57:20
Er läuft auch aus, mal sehen ob er in einem Monat immer noch so einfach und billig zu bekommen ist.
Außerdem ein G92 ist nunmal immer noch billiger, vergleiche mal den Preis einer 8800GT mit der GTS640.

Bestimmt kann man die GTX nächsten Monat für den Preis noch kaufen - denn für die Vielzahl der Käufer ist die Karte dank G92 einfach uninteressant geworden.
Man erhält heute schon für 220€ 90-95% der Leistung einer 8800GTX. Wieso da 60€ mehr Ausgeben, wenn man dafür eine deutlich längere Karte erhält, die nicht nur keinen VP2 hat, sondern auch noch deutlich mehr Strom aus der Steckdose zieht?

dargo
2008-03-09, 15:00:30
Man erhält heute schon für 220€ 90-95% der Leistung einer 8800GTX. Wieso da 60€ mehr Ausgeben, wenn man dafür eine deutlich längere Karte erhält, die nicht nur keinen VP2 hat, sondern auch noch deutlich mehr Strom aus der Steckdose zieht?
Das könnte man zum Teil auch auf die G9800GTX übertragen. Es sei denn die kostet unter 300€.

Gast
2008-03-09, 15:06:05
Das könnte man zum Teil auch auf die G9800GTX übertragen. Es sei denn die kostet unter 300€.
Die 9800 ist ein anderes Thema und hat nur sehr bedingt mit dem Thema G92 zu tun.

dargo
2008-03-09, 15:08:04
Die 9800 ist ein anderes Thema und hat nur sehr bedingt mit dem Thema G92 zu tun.
Warum? Die G9800GTX ist die Karte die am nähesten an eine G8800GTX rankommt.

Gast
2008-03-09, 15:10:09
Du kannst die 9800GTX schlechtreden, aber nicht den G92 im Allgemeinen. ;)

Jetzt vor allem aus preislicher Sicht.

LovesuckZ
2008-03-09, 15:10:11
Die 8800GTX ist so billig, weil sie durch den G92 keine Daseinberechtigung für ca 95% der Käufer im Markt hat.
Das hat mit der 9800GTX nichts zu tun. Die wird sich wahrscheinlich ebenfalls nicht wesentlich besser verkaufen als die 8800GTX heutzutage.

AnarchX
2008-03-09, 15:15:42
9800 GTX OCing (http://www.unihw.com/html/24/n-124.html)

Für 100% Fan auch nicht so berauschend.

dildo4u
2008-03-09, 15:16:04
Vieleicht lässt NV wegen Linkboost auch so viel Luft mit dem Takt bei der 9800GTX.Möglich das alle Serie 9 Karten(Siehe 9600GT) Linkboost unterstützen.Damit dürften auch die Testergebnisse besser ausfallen als der Default Takt vermuten lässt wie bei der 9600GT.

http://www.3dcenter.org/news/2008/woche10.php#2008-03-04

9800 GTX OCing (http://www.unihw.com/html/24/n-124.html)

Für 100% Fan auch nicht so berauschend.
;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6339789#post6339789

Hvoralek
2008-03-09, 15:21:38
Wenns nach Dargo geht, dann ist der GT200 Die größer als ein G80 Die, vom Stromverbrauch brauchen wir gar nicht anzufangen.Nicht nur, wenn es nach dargo geht :wink:

dildo4u
2008-03-09, 17:01:57
9800GTX diesmal mit einem 4.5GHZ Quad-Core.

http://img216.imageshack.us/img216/868/1200803091253531jj9.jpg

http://www.unihw.com/html/24/n-124-2.html

AnarchX
2008-03-09, 17:11:51
http://img503.imageshack.us/img503/1246/20080309cdd6d64312d3579so0.jpg (http://imageshack.us)
112SPs (7C)
:|

G92-350 kommt wohl in einem noch nicht veröffentlichten 174er FW vor:
  G92-150=GeForce8800GS
  G92-270=GeForce8800GT
  G92-400=GeForce8800GTS 512MB
  G92-240=GeForce9800GS?
  G92-250=GeForce9800GT?
  G92-350=GeForce9800GTS?
  G92-420=GeForce9800GTX
  G92-450=GeForce9800GX2
http://www.vr-zone.com/articles/GeForce_9800_Series_Line-Up_Unveiled%3B_GX2%2C_GTX%2C_GTS%2C_GT%2C_GS/5594.html

Gast
2008-03-09, 17:14:47
Ist 1Ghz GDDR3 tatsächlich so günstig?

Gast
2008-03-09, 17:18:09
http://img503.imageshack.us/img503/1246/20080309cdd6d64312d3579so0.jpg (http://imageshack.us)
112SPs (7C)
:|

G92-350 kommt wohl in einem noch nicht veröffentlichten 174er FW vor:

http://www.vr-zone.com/comments/GeForce_9800_Series_Line-Up_Unveiled%3B_GX2,_GTX,_GTS,_GT,_GS/5594.html

GTS= 800/1000?
GTX= 650/1100?

ahjaaa...

Hvoralek
2008-03-09, 17:21:20
http://img503.imageshack.us/img503/1246/20080309cdd6d64312d3579so0.jpg (http://imageshack.us)
112SPs (7C)
:|Mit den Taktraten wäre die wohl z.T. schneller als eine 9800 GTX. Das ALU- Grund- Taktverhältnis wäre auch niedriger als bei allen anderen D8P- Karten.

Eher unwahrscheinlich, dass Nvidia so eine Karte bringen wird. 9800er nur entweder niedrig getaktet oder teildeaktiviert? Und wenn schon die GTX mit relativ hohen Spannungen läuft, was für eine würde man dann hier anlegen?

AnarchX
2008-03-09, 17:24:47
Mit den Taktraten wäre die wohl z.T. schneller als eine 9800 GTX. Das ALU- Grund- Taktverhältnis wäre auch niedriger als bei allen anderen D8P- Karten.

Da wurde wohl am BIOS herumgespielt, aber die "9800GTS" von VW hatte auch 7C:
http://www.unihw.com/html/18/n-118.html

Naja, wird wohl ein übertaktete 9800 GT sein, mit 2GiB, bei der man ja auch schonmal 650/1625/1000MHz nannte.


Eher unwahrscheinlich, dass Nvidia so eine Karte bringen wird. 9800er nur entweder niedrig getaktet oder teildeaktiviert? Und wenn schon die GTX mit relativ hohen Spannungen läuft, was für eine würde man dann hier anlegen?
Mit 8800GTS512s ~1.2V sind 800MHz eigentlich kein Problem.

Gast
2008-03-09, 17:52:14
@ OC aber das reicht nicht für die Qualitätsicherung aus, Spielraum muss immer vorhanden sein, deswegen hat die GTX ja schon eine Spannung von 1,26V.

Gruß

dargo
2008-03-09, 18:02:56
Eine 9600gt liegt auf dem Niveau der 8800GTS-640. Das ist ziemlich überraschend.
Was ist denn daran so überraschend?

Die G9600GT gleicht die fehlende ROP-Leistung durch den um ~27% höheren Coretakt mehr als aus. Und durch den höheren Shadertakt hat sie fast die gleiche arithmetische Leistung. Die Speicherbandbreite der G9600GT ist auch fast auf dem G80GTS Niveau.

LovesuckZ
2008-03-09, 18:09:56
Was ist denn daran so überraschend?

Die G9600GT gleicht die fehlende ROP-Leistung durch den um ~27% höheren Coretakt mehr als aus. Und durch den höheren Shadertakt hat sie fast die gleiche arithmetische Leistung. Die Speicherbandbreite der G9600GT ist auch fast auf dem G80GTS Niveau.

Die 8800GTS hat 18% mehr Texturleistung (trilinear), 11% mehr Bandbreite, 10% mehr Rechenleistung und 1,03 weniger Pixel/Z-Fill Leistung.
Und eine 9600GT schlägt diese Karte. Das ist wahrlich überraschend.

AnarchX
2008-03-09, 18:27:48
Ein hoher Setup-Takt hat halt noch nie geschadet. ;)

LovesuckZ
2008-03-09, 18:31:13
Ein hoher Setup-Takt hat halt noch nie geschadet. ;)

Wird überbewertet, oder warum liegt eine 3870 ohne AA/AF nur 8800GTX Niveau? ;)

AnarchX
2008-03-09, 18:36:13
Wird überbewertet, oder warum liegt eine 3870 ohne AA/AF nur 8800GTX Niveau? ;)
Wir wollen ja nicht gleich verschiedene Apfelsorten mit Birnen vergleichen. ;)

Aber wenn man bei CB die GTS640 mit einem neueren Treiber testen würde, dann könnte ich mir vorstellen, dass sie wohlmöglich gleichauf mit der 96GT liegt bzw. sich vor sie setzt, sind in den Ratings ja nur 5-10%.

LovesuckZ
2008-03-09, 18:39:04
http://www.tomshardware.com/de/9600-GT-GeForce-Xpertvision,testberichte-239968.html

Und die OC Version der 8800GTS ist prozentual höher getaktet.

horn 12
2008-03-09, 18:43:02
@AnarchX
Wie schätzt Du selbst die 9800GTX und GX2 ein.
9800GTX 10-15 über der 8800 GTX;- also die Neue Ultra Version sozusagen....
und die GX2 um die 30% oberhalb der 8800Ultra; in etwa HD 3870X2.

dargo
2008-03-09, 18:44:15
Wird überbewertet, oder warum liegt eine 3870 ohne AA/AF nur 8800GTX Niveau? ;)
Das ist jetzt nicht dein Ernst oder? :|

reunion
2008-03-09, 18:45:00
Mit 8800GTS512s ~1.2V sind 800MHz eigentlich kein Problem.

Ach bitte. Deshalb benötigt die 9800GTX für 675Mhz auch fast 1.3V.

Raff
2008-03-09, 19:33:58
@AnarchX
Wie schätzt Du selbst die 9800GTX und GX2 ein.
9800GTX 10-15 über der 8800 GTX;- also die Neue Ultra Version sozusagen....
und die GX2 um die 30% oberhalb der 8800Ultra; in etwa HD 3870X2.

Die 9800 GTX wird vermutlich immer auf 8800-GTX-Niveau oder darüber sein (außer 512 MiB reichen nicht mehr aus und/oder 8x AA+ kommt zum Einsatz). Eine simulierte 9800 GTX bekommt hier aber von der 8800 Ultra regelmäßig auf die Fresse: http://www.pcgameshardware.de/aid,634265/Test/PCGH_Exklusiv_Preview_der_Geforce_9800GTX/

Die arithmetische Leistung ist eben nicht alles. Eine 8800 GTX/Ultra mit dem Takt der 9800 GTX würde meilenweit davonrennen. Hm, das könnte ich mit meiner Karte direkt mal nachstellen. Nur die 1107 MHz RAM-Takt sind problematisch. ;)

MfG,
Raff

Gast
2008-03-09, 19:44:00
ich lese da immer "um eine höher getaktete GTS/512"...die rennen im Schnitt mit 750/1800....eine höheres bit muß her wie beim G80 und mehr Ram und wenns nur wieder 765 sind,alles andere macht keinen Sinn und den Ram auf 1200 oder mehr schon mal gar nicht.

Thunder99
2008-03-09, 21:44:24
Wenn ich mir die ganzen Infos so anschaue dann vermute ich mal, dass nvidia mit der 8800GT und GTS auf "soll Zustand" ist mit dem Design und den Taktraten.
Bei der GTX sehe ich da immense Probleme den G92 Core richtig gut zu takten, ergo Fertigungsprobleme oder ein Design Problem :eek::confused:
Da stell ich mir die Frage: Gab es jemals einen G90 der gecancled wurde da er Schrott war und nun der G92 dafür herhalten muss?

Der G94 ist in Sachen Stromverbrauch ein Meilenstein mit seiner Leistung, aber bedingt von "nur" 64 Shader Einheiten

Gast
2008-03-09, 22:07:16
Da stell ich mir die Frage: Gab es jemals einen G90 der gecancled wurde da er Schrott war und nun der G92 dafür herhalten muss?

Gut vorstellbar, das der G90 von Nvidia zurück in die Schublade geschoben wurde, dort lauert ja angeblich noch einiges. :D

Momentan ist einfach kein Bedarf für so ein teures Design, erst mit RV770 muss Nvidia wieder Gas geben und da brauchst auch kein G90 mehr, sondern den GT200.

Coda
2008-03-09, 22:09:14
Ich weiß auch nicht ob man sich vor einem RV-Chip so in Acht nehmen muss *seufz* ATI wo ist die Konkurrenz? Wir brauchen euch.

Wenn ich sowas hier lese wird mir ganz anders:
Ein anderer Partner erklärte uns kopfschüttelnd, dass NVIDIA momentan offenbar soviel "in der Schublade" liegen habe, dass Neuvorstellungen und Präsentationen vorgenommen werden könnten, wann sie wollten. Man sei letztenendes nicht sicher, was ein R700 wirklich zu leisten im Stande sei - man sei eben auf Überraschungen vorbereitet.

Eine Radeon 9700 wär jetzt genau das richtige. Aber ein RV770? Ich weiß nicht. R700 wäre angebrachter.

Der einzige Hoffnungsschimmer für mich ist, dass ATI wirklich eine solide treiberunabhängige Multi-GPU-Architektur mit RV770 bringt, aber meine Skepsis sagt was anderes :(

Gast
2008-03-09, 22:20:44
Ich weiß auch nicht ob man sich vor einem RV-Chip so in Acht nehmen muss *seufz* ATI wo ist die Konkurrenz? Wir brauchen euch.

Wenn ich sowas hier lese wird mir ganz anders:


Eine Radeon 9700 wär jetzt genau das richtige. Aber ein RV770? Ich weiß nicht. R700 wäre angebrachter.

Der einzige Hoffnungsschimmer für mich ist, dass ATI wirklich eine solide treiberunabhängige Multi-GPU-Architektur mit RV770 bringt, aber meine Skepsis sagt was anderes :(
RV770 wird wohl schneller sein als eine 8800Ultra sein.
Du solltest eigentlich wissen, dass das mehr eine Marketingaussage war als etwas anderes, fertige Designs lässt man nicht in einer Schublade, wäre viel zu teuer ;)

Nein frühestens mit R800 wird sich das bessern, R700 ist 0815 Crossfire.

LovesuckZ
2008-03-09, 22:25:30
Schneller als eine 8800 Ultra sollte nach fast 2 Jahren G80 doch das Mindestziel sein.

Hvoralek
2008-03-09, 22:35:01
Schneller als eine 8800 Ultra sollte nach fast 2 Jahren G80 doch das Mindestziel sein.Wenn der 55- nm- D8P nicht deutlich höher taktet, gibt es bei Nvidia einen schnelleren Chip auch erst mit GT200.

LovesuckZ
2008-03-09, 22:38:56
Deutlich schneller - ja.
Und selbst mit einem G92 kann man noch locker mithalten, denn AMD muss erstmal die Mehrleistung hinzaubern, ohne den Stromverbrauch unter LAST in die Höhe zu bringen.

Winter[Raven]
2008-03-09, 23:10:15
Wenn der 55- nm- D8P nicht deutlich höher taktet, gibt es bei Nvidia einen schnelleren Chip auch erst mit GT200.

Das hat aber mit der Aussage von Love garnichts zutung. Es ist nunmal Fakt, dass AMD seit G80 nichts leistungsstärkeres präsentieren konnte...

Ob NV dann mit dem G200 was stärkeres Präsentiert liegt an AMd und keinem anderem.

Coda
2008-03-09, 23:12:21
RV770 wird wohl schneller sein als eine 8800Ultra sein.
Das reicht aber nicht.

Du solltest eigentlich wissen, dass das mehr eine Marketingaussage war als etwas anderes, fertige Designs lässt man nicht in einer Schublade, wäre viel zu teuer ;)
War es ja offenbar nicht, wenn es von einem Partner kommt.

Nein frühestens mit R800 wird sich das bessern, R700 ist 0815 Crossfire.
Also zum vergessen.

reunion
2008-03-09, 23:32:55
Ich weiß auch nicht ob man sich vor einem RV-Chip so in Acht nehmen muss *seufz* ATI wo ist die Konkurrenz? Wir brauchen euch.

Wenn ich sowas hier lese wird mir ganz anders:


Niemand lässt einen Chip der um Millionen von Dollar entwickelt wurde einfach in der Schublade vermodern. Hat man ja bei R300 gesehen, als auch solche Sprüche aufkamen, wie viele Designs da nicht in der Schublade lagen als man gefordert wurde. Ist auch gar nicht möglich, da mittlerweile alleine schon vom ersten Tapeout bis zur Massenproduktion 6 bis 12 Monate benötigt werden. Refreshes waren selten mehr als eine reine Taktsteigerung, ich sehe hieran gar nichts ungewöhliches. Mit GT200 wird nV wieder an die Grenzen des machbaren gehen wenn man den Spekulationen glauben kann. Wo liegt das Problem? G92 ist eben in die Hosen gegangen. Man kann nicht immer alles auf die Konkurrenz schieben.

LovesuckZ
2008-03-10, 00:05:50
Jaja, der G92 sei in die Hose gegangen und trotzdem wird er gekauft. Na gut, kann ja nicht jeder Mainstreamkarten auf den Markt. ;D

Liszca
2008-03-10, 01:29:23
Zu den benchmarks bei 2560x1600 mit 4x FSAA:

also ich kann bei dieser auflösung nur erkennen ob AA an oder aus ist, folglich macht es keinen sin höher als 2x aa zu benchen, weil man den unterschied eh nicht mehr wahr nimmt.

selbst bei 1920x1200 finde ich 4x aa schon ein wenig fragwürdig.

sklave_gottes
2008-03-10, 02:33:47
Zu den benchmarks bei 2560x1600 mit 4x FSAA:

also ich kann bei dieser auflösung nur erkennen ob AA an oder aus ist, folglich macht es keinen sin höher als 2x aa zu benchen, weil man den unterschied eh nicht mehr wahr nimmt.

selbst bei 1920x1200 finde ich 4x aa schon ein wenig fragwürdig.


wie oft denn noch:
die auflösung alleine hat damit nichts zu tun. Es kommt auf den pixelabstand an!
2560x1600 auf einem 70zoll und du wirst 8aa als minimum fordern....

Ailuros
2008-03-10, 07:14:29
wie oft denn noch:
die auflösung alleine hat damit nichts zu tun. Es kommt auf den pixelabstand an!
2560x1600 auf einem 70zoll und du wirst 8aa als minimum fordern....

Und da hast auch vollkommen recht. Nebenbei kann ich zwar auf dem 21" CRT noch 2048*1536 erreichen und ja die Maske wird ueberfahren (was eine Art oversampling auf einer Achse bedeutet), aber selbst bei dem sehr kleinen Pixelabstand (auf einer Achse) brauch ich immer noch AA weil alpha Texturen als Beispiel immer noch gruseln.

GeneralHanno
2008-03-10, 07:32:07
naja, auch eine frage wie weit man vom bildschirm entfernt sitzt ;)

Ailuros
2008-03-10, 07:48:21
naja, auch eine frage wie weit man vom bildschirm entfernt sitzt ;)

Ca. 1m entfernt; da mein input Zeug schnurlos ist kann ich auf dem Buero hier auch ans andere Ende ruecken und etwas unter 2m Abstand haben. Ich seh die Unterschiede immer noch und nein auf den Balkon gehe ich nicht raus fuer so ein Experiment :P

Gast
2008-03-10, 09:25:52
Was soll das jetzt überhaupt? Einer stellt mal wieder AA in Frage und alle die es nutzen müssen sich rechtfertigen, wenn sie gerne BQ haben?

Gast
2008-03-10, 11:57:46
Das reicht aber nicht.
Naja wieviel schneller ist halt die Frage, du darfst auch nciht vergessen, dass es sich dabei um einen Value-Chip handelt.

War es ja offenbar nicht, wenn es von einem Partner kommt.
Wie schon gesagt wurde, man läßt keine fertigen Designs in der Schublade, ganz ba davon, dass Partner sehr gemeinsame Marketingausagen tätigen, die sind nicht immer glaubwürdiger

Also zum vergessen.
Ja leider, sofern es einen schnelleren Einzelchip gibt, was ja mit GT200 ja schon am Horizont auftaucht.

up¦²
2008-03-10, 14:57:07
CeBit Nachlese bei 3dnews.ru:
http://img85.imageshack.us/img85/1795/msi9800gx2em3.jpg

Thunder99
2008-03-10, 22:02:37
G92 ist eben in die Hosen gegangen
Wie kommst du darauf? Ein Chip der mehr Leistung bringt als eine alte GTS und dazu weniger Strom verbraucht. Nur für einen wirklichen High-End Chips sehe ich den G92 als "in die Hose gegangen", warum hat dann nvidia keinen G90? (wiederhol mich)

LovesuckZ
2008-03-10, 22:15:59
Weil er erst noch kommt. AMD hat auch noch keinen r700 bzw. einen r670.

Gast
2008-03-10, 22:25:13
Ich frage mich was die 9800GTX soll ?

8800GTX
768mb Vram DDR3
384bit SI
DX 10.0
TDP 145W
kein 2D Modus

9800GTX
512mb Vram DDR3
256bit SI
DX10.0
TDP über 160W
kein 2D Modus

puntarenas
2008-03-10, 22:38:42
Ich frage mich was die 9800GTX soll ?

G92 ist wesentlich profitabler und G80 ist EOL, das hatten wir aber schon zu genüge. Besitzer einer 8800GTX warten halt auf die nächste Generation, Nvidia hält die derzeitige Strategie eben für die gewinnträchtigste, da hilft kein Jammern und Flehen.

BTW, du plenkst! (http://de.wikipedia.org/wiki/Plenk)

Hvoralek
2008-03-10, 23:02:39
Ich frage mich was die 9800GTX soll ?Warum schreibst Du nicht wenigstens alle wichtigen Eckdaten ab? Dann würde man sehen, dass die 9800 auf dem Papier auch ein paar Vorteile hat. Der Hauptgrund dürfte aber darin liegen, dass D8P kleiner und günstiger zu fertigen ist als G80.

Gast
2008-03-10, 23:11:29
O.K. ich meinte es "Ich frage mich was die 9800GTX" für MICH als Kunden :wink:

LovesuckZ
2008-03-10, 23:25:16
Hybrid-Sli.

mictasm
2008-03-11, 00:02:18
O.K. ich meinte es "Ich frage mich was die 9800GTX" für MICH als Kunden :wink:

Das ist keine vollständige Frage...

Wie weiter oben schon geschrieben wurde: Wer noch keine 8800GTX oder Ultra hat, einen mittelgroßen Monitor besitzt und die Leistung braucht, für den ist die 9800GTX eine ordentliche Karte.

Gast
2008-03-11, 07:31:09
Wie weiter oben schon geschrieben wurde: Wer noch keine 8800GTX oder Ultra hat, einen mittelgroßen Monitor besitzt und die Leistung braucht, für den ist die 9800GTX eine ordentliche Karte.

Um 399$ ist das Ding nur verarsche, mehr nicht.

Gast
2008-03-11, 12:54:46
die frage ist eher warum taktet nvidia die 9800gtx so niedrig?
die 675mhz machen gar keinen sinn

ein aufwändigeres board und stromversorgung, höhere vcore
und das für 25mhz? wäre lächerlich
vll sind die ja doch höher als angenommen

Gast
2008-03-11, 12:56:59
vor allem da eigentlich jeder G92 auf der 8800gt oder gts 700mhz mitmacht
selbst 800mhz sind ohne höherer spannung nicht selten
klar ist oc und serienfertigung ein unterschied, aber ich finde schon das der takt ziemlich niedrig gewählt wurde

so wird die karte in tests nen höheren stromverbauch haben, aber kaum schneller als ne 8800gts sein

=Floi=
2008-03-11, 14:10:07
täuscht euch da nicht, denn wenn die karte doch stärker am ram hängt, könnte die so in bestimmten einstellungen doch um einiges schneller werden.

Tigershark
2008-03-11, 14:12:23
Ich bin der Meinung einfach mal abwarten bis die Karte WIRKLICH kommt. Sollte sie dann tatsächlich so niedrig takten, kann man sich immer noch das Maul darüber zerreissen, und falls nicht, dann ist sie besser als gedacht ;)

Gast
2008-03-11, 14:32:31
täuscht euch da nicht, denn wenn die karte doch stärker am ram hängt, könnte die so in bestimmten einstellungen doch um einiges schneller werden.

Die ~13% mehr Ramtakt gegenüber G92 GTS werden da nicht viel bringen! Durchschnittlich so ~6-7%, wie einige Tests hier im Forum gezeigt haben.

Aber ich bin jetzt auch dafür mal abzuwarten, denn für irgendwas muss ja das komplizierte PCB gut sein !?!

James Ryan
2008-03-11, 15:04:00
Abwarten scheint in der Tat das einzig sinnvolle momentan.
Wenn die Gf 9800 GTX so "schwach" wird, kann man getrost eine Standard-G92-GTS kaufen (oder eher eine Gf 8800 GTX).
Sollte die Gf 9800 GTX doch deutlich stärker werden, ist eh alles in Butter.

MfG :cool:

Paul Brain
2008-03-11, 15:10:31
Was ist jetzt eigentlich mit dem ominösen "G92b"? Also ein Respin des aktuellen G92? Gibts damit dann im Mai (?) eine GeForce 10800GTX? :uhammer:

Oder wird das dann eine 9800GTX-1024 mit 1 Gig RAM als "Unterscheidungsmerkmal"?
Schön langsam frag ich mich, warum ich nicht schon längst ne GTS gekauft hab. Warten auf 9800GTX is ja schön und gut, aber wenn kurz drauf schon wieder was neues kommt ists bis GT200 auch nicht mehr lang hin...

GeneralHanno
2008-03-11, 15:48:05
schwer zu sagen was das mit dem G92b auf sich hat.

vll auch nur eine taktoptimierte a3 ...

Interessantes Interview: PCGH und Nvidia (http://www.pcgameshardware.de/aid,635714/News/Nvidia_Exklusive_Infos_zu_Hybrid_SLI_Multi-GPU-Karten_und_Geforce_9800/)

€dit: vr zone meint nun: G92B = G92@55nm vs RV770

Gast
2008-03-11, 20:14:42
http://www.abload.de/img/12052611801878zl.jpg
http://www.pcgameshardware.de/aid,635750/News/Crysis-Benchmarks_einer_Geforce_9800_GTX/

Man sieht deutlich das das SI+512mb Vram der Bottleneck ist :rolleyes:

Nightspider
2008-03-11, 20:39:01
Wieviel FPS haben denn 8800 GTX / ULTRA / GT / GTS in 1280*1024 @ High ohne AA /AF ?

dargo
2008-03-11, 20:40:41
http://www.abload.de/img/12052611801878zl.jpg
http://www.pcgameshardware.de/aid,635750/News/Crysis-Benchmarks_einer_Geforce_9800_GTX/

Man sieht deutlich das das SI+512mb Vram der Bottleneck ist :rolleyes:
Ersteres nein, Zweiteres sehr wohl. Ist aber nicht gerade verwunderlich bei 1680x1050 8xQMSAA und 512MB in Crysis. :cool:

GeneralHanno
2008-03-11, 20:46:32
das setting ist natürlich fern jeglicher realität ...

ich bin mal gespannt, was nvidias neue "wundertreiber" so bringen werden ;)

Godmode
2008-03-11, 21:24:37
Was wunderbares hätte die Geforce 9800 GTX werden können:

800 Mhz GPU
1200 MHz Speicher an einem 384 Bit SI
2000 MHz Shaderdomain
768 MB RAM
128 ALUs
64 TA/TF
24 ROPs
und da ganze in 55 nm

wir können jetzt eigentlich nur mehr auf den GT200 hoffen. :rolleyes:

LovesuckZ
2008-03-11, 21:25:40
Nö, war nie geplant.

Godmode
2008-03-11, 21:29:09
Nö, war nie geplant.

Ob geplant oder nicht, es ist nur Wunschdenken meinerseits!

GeneralHanno
2008-03-12, 09:00:40
Nun zum Thema G92b:

G92b soll ja ein G92 sein, der von 65nm auf 55nm geshrinkt wird. es ist ja bekannt, dass die packdichte eher semioptimal ist. glaubt ihr, dass nvidia für 55nm ein echtes redesign machen wird, oder die liberies von G92a verwendet und nur "optisch" shrinkt?

Gast
2008-03-12, 09:08:20
Nun zum Thema G92b:

G92b soll ja ein G92 sein, der von 65nm auf 55nm geshrinkt wird. es ist ja bekannt, dass die packdichte eher semioptimal ist. glaubt ihr, dass nvidia für 55nm ein echtes redesign machen wird, oder die liberies von G92a verwendet und nur "optisch" shrinkt?

Die Packdichte ist für die Transistorenanzahl genauso gut oder schlecht wie bei allen G8x-Designs. Das man nicht ganz AMD-Niveau erreicht ist ganz einfach designbedingt. Da gibt es nichts zu optimieren.

Godmode
2008-03-12, 09:21:36
Nun zum Thema G92b:

G92b soll ja ein G92 sein, der von 65nm auf 55nm geshrinkt wird. es ist ja bekannt, dass die packdichte eher semioptimal ist. glaubt ihr, dass nvidia für 55nm ein echtes redesign machen wird, oder die liberies von G92a verwendet und nur "optisch" shrinkt?

Ich könnte mir vorstellen dass sie biem Shaderteil vieles neu machen müssen, da dieser mit Customlogik implementiert wurde, handbearbeitete Schaltungen IIRC.

Paul Brain
2008-03-12, 10:53:56
Ich könnte mir vorstellen dass sie biem Shaderteil vieles neu machen müssen, da dieser mit Customlogik implementiert wurde, handbearbeitete Schaltungen IIRC.
Gibt es hier schon einen definitiven Zeitplan? Erwartet uns mit G92b (sofern er kommt; kommt er?) neues HighEnd vor GT200?

AnarchX
2008-03-12, 10:57:31
G92B wird wohl Basis für stärkere/günstigere Notebook-SKUs und im Desktop-Bereich wohl eher Basis für eine Starke Performance-SKU, die gegen RV770 konkurrieren wird. Mich würde es nicht wundern, wenn G92-B erst ein paar Wochen nach GT200 releast wird.
Man erinnere sich an die 6800GS. ;)

Ailuros
2008-03-12, 10:57:51
Was genau soll denn nicht optimal mit der Packdichte auf G92 sein?

G80@90nm
681M - 484mm^2 = 1.40M/mm^2

G92@65nm
754M - 324mm^2 = 2.33M/mm^2

RV670@55nm
666M - 192mm^2 = 3.47M/mm^2

Nimmt man jetzt theoretisch die Packdichte des RV670 - was sowieso Bloedsinn ist - dann wuerde mit der gleichen Packdichte und den gleichen 754M Transistoren ein G92b@55nm bei knapp unter 220mm^2 liegen.

***edit:

Mich würde es nicht wundern, wenn G92-B erst ein paar Wochen nach GT200 releast wird.

*grunz* G92 -->G92b --> GT200

Paul Brain
2008-03-12, 11:02:09
*grunz* G92 -->G92b --> GT200Jo, nur wann? Lohnt sich das Warten, wenn man von der 9800GTX enttäuscht ist? Oder wird G92b so kurz vor dem GT200 kommen, daß es dann sowieso komplett sinnfrei wäre, sich eine GF9 zu kaufen?

GeneralHanno
2008-03-12, 11:16:40
nun, ein shrink von 90nm auf 65nm bedeutet theoretisch die doppelte packdichte ;) wobei es natürlich keinen perfekten shrink gibt ...
glaubt ihr denn trotzdem, dass nvidia noch ein neues optimiertest design für den G92b entwickelt, oder dass sie das design des G92a 1zu1 übernehmen ...

der G92b wird wohl so ein "nachbrenner" wie die 7950GT

Ailuros
2008-03-12, 11:19:14
Jo, nur wann? Lohnt sich das Warten, wenn man von der 9800GTX enttäuscht ist? Oder wird G92b so kurz vor dem GT200 kommen, daß es dann sowieso komplett sinnfrei wäre, sich eine GF9 zu kaufen?

Ein Spekulationsforum ist generell ein schlechter Platz sich fuer Kaufsentscheidungen zu beraten. Wenn Dir das Zeug das schon seit etlicher Zeit auf dem Markt befindet nicht passen sollte, wird Dir jeglicher G92-shrink auch nicht den Tag retten. Die Leistung pro Watt wird zwar auf "GT200" steigen, aber das heisst dann auch natuerlich dass der Stromverbrauch sich auch um einiges von den heutigen GPUs entfernen wird. Ausserdem kostet heute eine G92 irgendwo an die 200-250 Euro je nach Modell. Jegliche "GF-Next" wird wohl um einiges mehr als das kosten.

Wenn Du mir jetzt sagst dass Du nicht mehr als 250 Euro ausgeben willst, so und so viel mehr Leistung als G92 mit einem "logischen" Stromverbrauch, dann gehen wir dann sowieso gleich ins Jahr 2009.

GeneralHanno
2008-03-12, 11:46:23
welche 55nm prozesse stehen jetzt eigentlich bei TSMC zur verfügung?

AnarchX
2008-03-12, 11:57:27
http://www.tsmc.com/english/b_technology/img/55nm.gif
http://www.tsmc.com/english/b_technology/b01_platform/b010101_55nm.htm

Für einen 800MHz G92 wäre wohl 55GC nicht vekehrt.

GeneralHanno
2008-03-12, 11:59:17
AMD fertigt den RV670 in 55GP, oder?

auf CB steht, dass der G92B vornehmlich für mobile gedacht ist, also vermutlich auch eher 55GP.

Gast
2008-03-12, 12:40:04
Ich könnte mir vorstellen dass sie biem Shaderteil vieles neu machen müssen, da dieser mit Customlogik implementiert wurde, handbearbeitete Schaltungen IIRC.

Na und? Ein optischer Shrink funktioniert immer.

GeneralHanno
2008-03-12, 12:41:43
ein optischer shrink wäre für nvidia wesentlich angenehmer und einfacher. aber ein redesign mit optimierten shader transistoren wäre schon was feines ;)

Coda
2008-03-12, 12:55:21
Die Packdichte ist für die Transistorenanzahl genauso gut oder schlecht wie bei allen G8x-Designs. Das man nicht ganz AMD-Niveau erreicht ist ganz einfach designbedingt. Da gibt es nichts zu optimieren.
Du hast recht. Theoretisch würde man von G80 aus auf ~280mm² kommen bei G92 - es sind 289mm².

laser114
2008-03-12, 12:56:40
Du hast recht. Theoretisch würde man von G80 aus auf ~280mm² kommen bei G92 - es sind 289mm².

Ne, es sind irgendwas zwischen 320 und 330 mm². Die 289 mm² basierten auf eine Fehlinfo.

Paul Brain
2008-03-12, 13:01:35
Ein Spekulationsforum ist generell ein schlechter Platz sich fuer Kaufsentscheidungen zu beraten. Wenn Dir das Zeug das schon seit etlicher Zeit auf dem Markt befindet nicht passen sollte, wird Dir jeglicher G92-shrink auch nicht den Tag retten. Die Leistung pro Watt wird zwar auf "GT200" steigen, aber das heisst dann auch natuerlich dass der Stromverbrauch sich auch um einiges von den heutigen GPUs entfernen wird. Ausserdem kostet heute eine G92 irgendwo an die 200-250 Euro je nach Modell. Jegliche "GF-Next" wird wohl um einiges mehr als das kosten.

Wenn Du mir jetzt sagst dass Du nicht mehr als 250 Euro ausgeben willst, so und so viel mehr Leistung als G92 mit einem "logischen" Stromverbrauch, dann gehen wir dann sowieso gleich ins Jahr 2009.
Nö, sag ich Dir nicht. :wink: Geld ist mir zwar nicht komplett egal, für High-End würd ich aber auch schonmal EUR 700,- ausgeben (wenn alles "paßt", so wie ich mir das vorstelle). Wenn allerdings alle paar Wochen etwas neues gelauncht wird, von dem man hofft, daß es die eigenen Erwartungen erfüllen kann (mehr Performance/Watt, SI um in hohen Auflösungen und Qualitätssettings nicht zurückzufallen) isses halt schwierig, etwas zu kaufen. Im Nachhinein betrachtet hätt ich den Idle-Verbrauch eines G80 ignorieren und mir eine GTX oder Ultra holen sollen; nur daß derart lange nichts kommt, das zumindest dessen Performance in hohen Auflösungen erreicht und dabei halt etwas stromsparender zu Werke geht, war eigentlich nicht abzusehen.

Daß mir die Abwärme unter Last wurscht ist hat man denke ich bei der 7800GTX-512 gesehen: angenehmer Idle-Verbrauch, für damals brachiales SI für hohe Auflösungen. Die 7900GTX bot dann ein paar mickrige Prozent mehr Leistung und einen deutlich gesenkten Lastverbrauch; das war damals die für mich perfekte Karte.

Wenn Du mir jetzt sagen könntest, daß es einen G92b mit ~700MHz GPU- und entsprechendem Shadertakt und 1GB VRAM bei 1200MHz geben wird, der noch dazu weniger verbraucht als das aktuelle Zeugs, würd ich warten.
Wenn der aber denselben Speichertakt nutzen wird wie die GTX und nur beim GPU-Takt zulegt, kann ich drauf verzichten.

Aber ich seh schon: ich werd mir jetzt eine GTS Black Pearl zulegen (bis es die GTX als Black Pearl gibt vergeht ja noch mal a schönes Zeitl), den Speicher so weit wie möglich hochjagen und mit dem Ding dann auf GT200 warten und hoffen, daß es möglichst bald eine Abwandlung davon gibt, die mein Netzteil noch packt... :)
Als ich mir das wassergkühlte, schweineteure Trumm zugelegt hab hab ich nicht damit gerechnet, daß die Verlustleistung von Grafikkarten derart durch die Decke gehen würde... :usweet:

Gast
2008-03-12, 13:07:39
Du hast recht. Theoretisch würde man von G80 aus auf ~280mm² kommen bei G92 - es sind 289mm².

Ich habe immer recht. Bei G92 ist die Transistorenanzahl auch auf 754mio gewachsen, deshalb gehen die 324mm² voll in Ordnung. Zumal ein G94 mit 505mio Transistoren auf 240mm² kommt, was auch dazu passt. Und das nV alle Design "verwurschtelt" ist wohl eher unwahrscheinlich, das Design erlaubt eben nicht ganz so viele Transistoren/mm² wie das R6xx-Design.

reunion

sklave_gottes
2008-03-12, 13:38:38
Ich habe immer recht. Bei G92 ist die Transistorenanzahl auch auf 754mio gewachsen, deshalb gehen die 324mm² voll in Ordnung. Zumal ein G94 mit 505mio Transistoren auf 240mm² kommt, was auch dazu passt. Und das nV alle Design "verwurschtelt" ist wohl eher unwahrscheinlich, das Design erlaubt eben nicht ganz so viele Transistoren/mm² wie das R6xx-Design.

reunion


Was wohl zum teil auch an den grösseren catches liegt....

Ailuros
2008-03-12, 13:51:32
Im Nachhinein betrachtet hätt ich den Idle-Verbrauch eines G80 ignorieren und mir eine GTX oder Ultra holen sollen; nur daß derart lange nichts kommt, das zumindest dessen Performance in hohen Auflösungen erreicht und dabei halt etwas stromsparender zu Werke geht, war eigentlich nicht abzusehen.

Natuerlich war es absehbar. Die Geschichte wird sich auch mehr oder weniger mit der naechsten Generation wiederholen. Persoenlich hat mich der idle Stromverbrauch der 8800GTX nie bis jetzt gestoert; so lange ich das Ding nicht hoeren kann ist es mir auch wurscht.

Wenn Du mir jetzt sagen könntest, daß es einen G92b mit ~700MHz GPU- und entsprechendem Shadertakt und 1GB VRAM bei 1200MHz geben wird, der noch dazu weniger verbraucht als das aktuelle Zeugs, würd ich warten.
Wenn der aber denselben Speichertakt nutzen wird wie die GTX und nur beim GPU-Takt zulegt, kann ich drauf verzichten.

Ich hab nichts definitives ueber G92b, nur die 800/2000/1500 Frequenz-Geruechte die schon seit einer Ewigkeit herumschwirren, was aber ueberhaupt nichts heissen muss momentan. Da Du schon so lange gewartet hast, wuerde ich mich persoenlich an Deiner Stelle an einer RV770 orientieren. Wenn jetzt "GT200" um so und so viel schneller sein sollte, kannst Du dann immer noch zu so einem Ding beim ersten grossen Preisverfall dieser dann spaeter greifen.

Ich habe immer recht.......

reunion

Echt? :devil:

***edit:

Was wohl zum teil auch an den grösseren catches liegt....

...und den ALU Frequenzen.

Anarchy-HWLUXX
2008-03-12, 14:01:41
Ich weiss net wo das jetzt reingehört :usad: also postel ich es hia ;D


nVidia greift an - mit Software.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=6252&Itemid=1

Das wär dann ne heftige breitseite gegen Intel, weniger gegen AMD denn deren CPUs sind deutlich günstiger zu haben.



PS - CB berichtet das am 7. Aprill bei AMD die nächste runde Price-Cuts ansteht ...

GeneralHanno
2008-03-12, 14:04:51
hmmm. vll eine art CUDA für den home-PC ?
auf jeden fall will man physX ja der CUDA auf nvidia-gpus zum laufen bringen ...

Anarchy-HWLUXX
2008-03-12, 14:14:15
hmmm. vll eine art CUDA für den home-PC ?
auf jeden fall will man physX ja der CUDA auf nvidia-gpus zum laufen bringen ...

Denk ich eher weniger da CUDA fähige software ja mangelware ist und eine theoretische überlegenheit bringt dem Enduser nichts.

Naheliegender wäre das in die öffentlichkeit zu tragen was wir schon lange wissen - ne übermäßig schnelle CPU mit langsamer Grafik ist untauglich für halbwegs aktuelle Games, ne günstige (<100€) CPU mit Performance Grafik (9600GT) langt für Crysis.


Für uns nix neues, für den CPU fixierten "normalo User" schon eher interesannt.

Paul Brain
2008-03-12, 14:43:53
Natuerlich war es absehbar. Die Geschichte wird sich auch mehr oder weniger mit der naechsten Generation wiederholen. Persoenlich hat mich der idle Stromverbrauch der 8800GTX nie bis jetzt gestoert; so lange ich das Ding nicht hoeren kann ist es mir auch wurscht.Für mich, und ich denke auch für viele andere, war es nicht absehbar. Soetwas hat es in der Vergangenheit einfach nicht gegeben. "Früher" hats halbjährliche Updates gegeben, wobei eigentlich immer eine neue Highend-Lösung dabei war, also etwas, was zumindest nicht langsamer war als das "alte" HighEnd.
Eine 8800GT ist preis-/leistungstechnisch eh der Hammer, nur für die HighEnd-Fraktion leider ungeeignet; und zu der zähl ich mich halt. Ich mag nicht eineinhalb Jahre nach G80 eine Karte kaufen, die in hohen Auflösungen nix reisst und für Crysis sowieso zu langsam ist.


Ich hab nichts definitives ueber G92b, nur die 800/2000/1500 Frequenz-Geruechte die schon seit einer Ewigkeit herumschwirren, was aber ueberhaupt nichts heissen muss momentan. Da Du schon so lange gewartet hast, wuerde ich mich persoenlich an Deiner Stelle an einer RV770 orientieren. Wenn jetzt "GT200" um so und so viel schneller sein sollte, kannst Du dann immer noch zu so einem Ding beim ersten grossen Preisverfall dieser dann spaeter greifen.800/2000/1500? Sind die 1500 für den Speicher gemeint? Na das wär doch was... :)
Wann RV770 kommt ist ja eigentlich auch nicht klar.
*argl*
Gut, ich quäl euch hier sicher nicht länger mit meiner Entscheidungsfindung. Heutzutag is ja eh schon alles deutlich schneller als meine alte 7900er... ;)

Hvoralek
2008-03-12, 15:05:12
Naheliegender wäre das in die öffentlichkeit zu tragen was wir schon lange wissen - ne übermäßig schnelle CPU mit langsamer Grafik ist untauglich für halbwegs aktuelle Games, ne günstige (<100€) CPU mit Performance Grafik (9600GT) langt für Crysis.


Für uns nix neues, für den CPU fixierten "normalo User" schon eher interesannt.So verstehe ich Fuad auch. Ich frage mich nur, wie man das mit einem Stück Software zeigen möchte :confused:

Naja, gewisse Leute bei Epic wird es freuen.

Gast
2008-03-12, 15:14:28
800/2000/1500? Sind die 1500 für den Speicher gemeint? Na das wär doch was... :)

...wären da nicht die mikrigen 16 ROPs! :(

LovesuckZ
2008-03-12, 15:17:33
Epic? Die wollen doch komplett zurück auf die CPU.:ugly:

...wären da nicht die mikrigen 16 ROPs! :(

Die keinen Nachteile darstellen.

Hvoralek
2008-03-12, 15:30:48
Epic? Die wollen doch komplett zurück auf die CPU.:ugly:Wollen sie nicht. Sweeney meinte, man würde evtl. dazu gezwungen, wenn die Masse nicht irgendwann kapiert, dass GPUs für Spiele wichtig und IGPs für halbwegs neue völlig ungeeignet sind. Da wird ihm jeder recht sein, der versucht, genau das den Leuten das klarzumachen.

Ich finde die Panikmache von Sweeney und auch Marc Rein (http://www.gamesindustry.biz/content_page.php?aid=18292) übrigens übertrieben. Es mag zwar der Großteil der Rechner nur über IGPs verfügen, aber wie viele davon sind einfache Bürorechner? Wie viele der privaten werden nicht nur zum Surfen, Tippen und Moorhühnerjagen genutzt, sondern auch für anspruchsvollere Spiele?

Anarchy-HWLUXX
2008-03-12, 15:33:43
Evtl. können mer bald den "Das ist das Ende des PCs" Thread zu Grabe tragen ...

LovesuckZ
2008-03-12, 16:54:26
Wollen sie nicht. Sweeney meinte, man würde evtl. dazu gezwungen, wenn die Masse nicht irgendwann kapiert, dass GPUs für Spiele wichtig und IGPs für halbwegs neue völlig ungeeignet sind. Da wird ihm jeder recht sein, der versucht, genau das den Leuten das klarzumachen.


Er beschwert sich, dass 60% der vorhandenen PCs nicht zum Spielen geeignet wären und er aufgrund von IGPs und etc. auf die CPU will, da bei diesen keine so starke Trennung herrsche.
Sry, selbst die beste High-END CPU ist nicht in der Lage, die Leistung einer 8600GT zu erreichen. Und der Typ freut sich wie ein Schnitzel, dass er auf Handhelds in 320*240 flüssige Ergebnisse zaubern kann.

Hvoralek
2008-03-12, 17:23:02
Er beschwert sich, dass 60% der vorhandenen PCs nicht zum Spielen geeignet wären und er aufgrund von IGPs und etc. auf die CPU will, da bei diesen keine so starke Trennung herrsche.Er will aber nicht zurück zu Softwarerendering, weil er das so toll fände, sondern nur, weil (und solange) der Großteil der Rechner mit IGPs bestückt ist. Wobei ich mich schon frage, ob nicht das, was mit Softwarerendering auf heutigen Mittelklasseprozessoren neben der gesamten Spielmechanik (!) noch machbar ist, nicht selbst auf IGPs ebenso gut laufen würde.

4711
2008-03-12, 17:36:46
800/2000/1500> bin jetzt schon gespannt mit wieviel Volt die dahin gebrügelt wurde....wenns stimmt.
Wobei die 1500 wieder nur Augenwischerei sind,die 800/2000 wären da schon "mehr wert"...aber ändern tuts im Grunde zur ner GT92 auch nix...alles wischiwaschi.
Und des EWerk wirds freuen....

PCGH_Carsten
2008-03-12, 18:14:20
Ich finde die Panikmache von Sweeney und auch Marc Rein (http://www.gamesindustry.biz/content_page.php?aid=18292) übrigens übertrieben. Es mag zwar der Großteil der Rechner nur über IGPs verfügen, aber wie viele davon sind einfache Bürorechner? Wie viele der privaten werden nicht nur zum Surfen, Tippen und Moorhühnerjagen genutzt, sondern auch für anspruchsvollere Spiele?

Wer erinnert sich noch an Reins Zwischenrufe beim NV40-Launch "Anti-Aliasing is dead"? Hat damals auch keiner geglaubt, dass der sich nicht nur profilieren wollte. Und was ist daraus geworden: UE3-AA nur mit Treiberhacks und übles Shader-Flimmern.

In Verbindung mit INtels Raytracing-Brimborium wäre ich da ergo vorsichtig.

dargo
2008-03-12, 18:19:18
Was wunderbares hätte die Geforce 9800 GTX werden können:

800 Mhz GPU
1200 MHz Speicher an einem 384 Bit SI
2000 MHz Shaderdomain
768 MB RAM
128 ALUs
64 TA/TF
24 ROPs
und da ganze in 55 nm

Jepp, das wäre ein schöner G80-Refresh. :)

Gast
2008-03-12, 18:43:50
Eine 8800GT ist preis-/leistungstechnisch eh der Hammer, nur für die HighEnd-Fraktion leider ungeeignet; und zu der zähl ich mich halt.


Klar,aber dann mit so ner alten Krücke spielen oder was? Wenn du dich mit der Karte zur High-End Fraktion dazuzählst dann gute nacht.

Paul Brain
2008-03-12, 18:51:23
Klar,aber dann mit so ner alten Krücke spielen oder was? Wenn du dich mit der Karte zur High-End Fraktion dazuzählst dann gute nacht.Heast was glaubst warum suder ich die ganze Zeit herum? G80 hab ich nicht gekauft, weil der Idle-Verbrauch für mich indiskutabel war, und weil ich damit gerechnet hatte, in etwa einem halben bis dreiviertel Jahr einen Refresh in Händen halten zu können. Der Refresh kam aber erst ein Jahr später, heißt G92 und is langsamer als G80.
Bislang hab ich immer High-End gekauft, seit 2D-Zeiten. Matrox Millennium, Voodoo Graphics, Voodoo 2 12MB SLI (damals kosteten Grafikkarten noch richtig Geld, vor allem wenn man drei davon im Rechner hatte), TNT2 Ultra ..... X800XT, 7800GTX-512, 7900GTX. Jeweils die schnellste Single-Chip-Karte (die PressEdition-Versionen mal ausgenommen). Also komm wieder runter, Mitleid hab ich bereits mit mir selbst. Aber die zwei Wochen druck ich jetzt auch noch durch, und wenn die GTX enttäuscht kauf ich noch am selben Tag von deren Vorstellung die GTS Black Pearl. Obwohls mir widerstrebt, aber die 7900er druck ich langsam echt nimma durch.

Gast
2008-03-12, 18:58:40
War eig. eher als Spaß gedacht. aber naja... Die GTS Black Pearl ist ja mal mehr als geldverschwendung in meinen Augen.Meiner Meinung nach sollte man den Thread hier einstellen bis die Karte verfügbar ist. Am Ende kommt doch sooder so eine andere raus wie hier einige wieder etwas anderes behaupten. Ich denke die 9800 GTX wird vernünftig werden und schneller sein als eine 8800 GT/S/X. Abwarten und Tee trinken sage ich da nur.

Ich denke nicht das nVidia so blöd ist und eine Grafikkarte rausbringt die von einer "alten" 88 GTX versägt wird. Warten wir alle schön ab bis sie draussen ist und wenn sie sch.... sein wird dann können wir weiter lästern und wenn sie besser ist als gedacht ist doch jeder zufrieden.

Anarchy-HWLUXX
2008-03-12, 19:19:15
Black Pearl ? Die Teile sind sowas von überteuert ...

Asus alternative :
http://geizhals.at/deutschland/a300261.html

Nahezu identischer OC und 140€ billiger - der WaKühler ist sicher keine 140€ wert, mehr als 80€ dürfen die net kosten.

AnarchX
2008-03-12, 19:33:03
http://img166.imageshack.us/img166/7857/g92b1ffe8262yz6.png (http://imageshack.us)
http://www.vr-zone.com/?i=5647

LovesuckZ
2008-03-12, 19:41:08
Die Werte sind nicht bestätigt! Sind also nur normale Schätzungen (G92-b) bzw. auf Basis von Spekulationen.

AnarchX
2008-03-12, 19:42:28
Die Werte sind nicht bestätigt! Sind also nur normale Schätzungen (G92-b) bzw. auf Basis von Spekulationen.
Naja, für eine spekulationsbasierende Schätzung sind die bei G92-B aber ziemlich genau.;)

reunion
2008-03-12, 19:44:15
Wenn die 276mm² stimmen wäre der Shrink aber verdammt mies.

Gaestle
2008-03-12, 19:46:44
Und was ist daraus geworden: UE3-AA nur mit Treiberhacks und übles Shader-Flimmern.


Bleibt das auch mit DX10.1 so?

Nakai
2008-03-12, 19:49:32
Wenn die 276mm² stimmen wäre der Shrink aber verdammt mies.

Das war er schon bei 65Nm...


mfg Nakai

AnarchX
2008-03-12, 19:59:04
Wenn die 276mm² stimmen wäre der Shrink aber verdammt mies.
Naja, AMD konnte beim Shrink von RV630 auch nicht gerade glänzen, obwohl RV635 sogar noch weniger Transistoren hat.

Generell scheinen 65 und 55nm nicht gerade rühmliche Prozesse für TSMC zu sein.

Paul Brain
2008-03-12, 20:29:00
Black Pearl ? Die Teile sind sowas von überteuert ...

Asus alternative :
http://geizhals.at/deutschland/a300261.html

Nahezu identischer OC und 140€ billiger - der WaKühler ist sicher keine 140€ wert, mehr als 80€ dürfen die net kosten.
Eigentlich wär die Asus eh besser, weil der RAM-Takt höher als bei der Black Pearl ist.
Der Kühler allein kostet einen knappen Hunderter, plus Versand.
Um den OC gehts mir aber auch gar nicht, nur hab ich in der Vergangenheit mit mehreren Karten Scherereien gehabt, und es hat mich echt angekotzt, jedes Mal den Kühler umbauen zu müssen, wenn die Karte reklamiert wurde. In der Hinsicht bin ich einfach bequem geworden, und wenn ich mir um EUR 50,- Mehrpreis Ruhe und Frieden kaufen kann, dann tu ich das... ;)

Natürlich hat die Black Pearl noch einen Nachteil: Man hat keinen Luftkühler, infolgedessen der künftige Käuferkreis stark eingeschränkt ist.

laser114
2008-03-12, 21:04:26
G80: 681 Millionen Transistoren @ 90 nm - 484 mm²

---

Theoretischer optimaler Shrink auf 65 nm G80 - 252 mm²
Optimales Redesign (G80) mit 754 Mil. Transistoren - 280 mm²
G92: 754 Millionen Transitoren @ 65 nm: 334 mm²

---

Theoretischer optimaler Shrink auf 55 nm G80 - 181 mm²
Optimales Redesign (G80) mit 754 Mil. Transistoren - 200 mm²
Theoretischer optimaler Shrink auf 55 nm G92 - 239 mm²
G92b: 754 Millionen Transitoren @ 65 nm: 276 mm²


Klar, die Transistorendichte nimmt bei Chips mit kleineren Dieflächen. Aber der G92b ist mehr als 150% größer als ein theoretischer optimaler Shrink des G80 auf 55 nm (ich meine wohlgemerkt den G80 mit 6 ROP-Partitionen - 384 Bit).

Das lief echt nicht optimal.

Zum Vergleich:

R600: 700 Millionen Transistoren @ 80 nm - 408 mm²

Theoretischer optimaler Shrink auf 55 nm -193 mm²
Optimales Redesign (R600) mit 666 Mil. Transistoren - 183 mm²
RV670: 754 Millionen Transitoren @ 65 nm - 192 mm²



Man vergleiche nur mal die kursiven Daten: Beim Shrink von 80 auf 55 nm ging bei AMD weniger verloren als beim Shrink von 65 nm auf 55 nm (unter Beachtung der geringeren Transistorenzahl des RV670!).

Gast
2008-03-12, 23:26:33
G92b brauch nicht Optimal zu sein, wenn er nach einem Respin brauchbar ist, wird er kommen (bzw. ist schon in der Produktion, da er spätestens im Juni ran muss). Er ist günstiger als der G90, was ausreicht um die Marge auf hohem LvL zu halten, GT200 kommt ja ;)

Ailuros
2008-03-12, 23:35:12
G80: 681 Millionen Transistoren @ 90 nm - 484 mm²

NVIO,VP1,1.2/1.35/1.5GHz, 4 TAs/cluster, 6 ROP partitions; wieviel davon Ultras wurden ist ein anderes Kapitel


Theoretischer optimaler Shrink auf 65 nm G80 - 252 mm²
Optimales Redesign (G80) mit 754 Mil. Transistoren - 280 mm²
G92: 754 Millionen Transitoren @ 65 nm: 334 mm²

G92 = 324mm^2
w/o NVIO, VP2, 1.5-1.625GHz (bis jetzt), 8 TAs/cluster, 4 ROP partitions


---


Zum Vergleich:

R600: 700 Millionen Transistoren @ 80 nm - 408 mm²

Theoretischer optimaler Shrink auf 55 nm -193 mm²
Optimales Redesign (R600) mit 666 Mil. Transistoren - 183 mm²
RV670: 754 Millionen Transitoren @ 65 nm - 192 mm²

R600 = 420mm^2 und B3D gibt komischerweise 720M Transistoren an. Ist aber auch egal, da die Packdichte in beiden Faellen fast gleich ist.

Man vergleiche nur mal die kursiven Daten: Beim Shrink von 80 auf 55 nm ging bei AMD weniger verloren als beim Shrink von 65 nm auf 55 nm (unter Beachtung der geringeren Transistorenzahl des RV670!).

Ich hab oben irgendwo den Zusammenhang mit dem theoretischen Zeug verloren, denn RV670 ist @55nm, 666M, 192mm^2.

Ein paar Gedanken zum RV670: erstens gab es Platz die paar 10.1 Vorraussetzungen einzubauen und zweitens wurde wohl nicht nur das SI bzw. ring Dingsbums reduziert.

Drittens sind jegliche Vergleiche sinnfrei, da die extravaganten ALU Frequenzen auf G8x/9x nicht nur mehr Transistoren fressen, aber auch einige Eigenarten aufweisen ueber die sich AMD bis jetzt keine Kopfschmerzen machen musste.

Viertens gab es nie eine Performance-SKU von AMD auf 65nm.

Als allerletztes wuerde es mich kein bisschen wundern wenn ein G92b@55nm wieder relative groesser als "erwartet" ausfallen wuerde. Wenn sie die ALU Frequenzen zwischen 1.7 und 2.GHz angesetzt haben schon gar nicht.

AnarchX
2008-03-13, 08:44:50
Review der 9800GX2 @ PCO (http://www.pconline.com.cn/diy/graphics/reviews/0803/1241871.html)

Zusammenfassung:
http://img186.imageshack.us/img186/2826/9800gx222d2d9e7uj1.jpg (http://imageshack.us)
http://en.expreview.com/2008/03/13/geforce-9800gx2-got-reviewed-and-still-buggy/

Gast
2008-03-13, 08:46:12
LOL, schön wenn eine schweineteure Karte wie die 9800GX2 bei jedem zweitem Spiel in hohen Auflösungen einfach nichts mehr darstellt mangels VRAM.

AnarchX
2008-03-13, 08:46:27
http://img174.imageshack.us/img174/681/2329753461651412c00bo22xc1.jpg (http://imageshack.us)
http://img404.imageshack.us/img404/8974/23297536259ffea6ea58o22aa8.jpg (http://imageshack.us)
http://img214.imageshack.us/img214/5923/23305787242373683884o22pj8.jpg (http://imageshack.us)
http://img151.imageshack.us/img151/5576/2329753747634460f011o22yw5.jpg (http://imageshack.us)
http://img409.imageshack.us/img409/8200/2330578862ea837a1c86o22nc3.jpg (http://imageshack.us)
http://img442.imageshack.us/img442/4660/23297538614f38f02a1do22lp2.jpg (http://imageshack.us)

http://www.xfastest.com/

Naja, wenigstens der MSRP stimmt doch halbwegs...

Anarchy-HWLUXX
2008-03-13, 11:32:04
Also der Preis ist nur knapp über der GTS angesiedelt ... passend zum gebotenen.

Sorkalm
2008-03-13, 11:59:20
Ultra High Speed Memory Interface - ja ne ist klar. :|

Na, ob sich die Positionierung 9800 GTX vs. 3870 X2 halten kann, da bin ich mal gespannt.

Paul Brain
2008-03-13, 12:24:19
Tja, sowas kommt dabei raus, wenn die Konkurrenz schwach ist... ;(

Godmode
2008-03-13, 12:31:47
Ich könnte mir vorstellen, dass es interessante OC Varianten geben wird. Mit dieser monströsen Spannungsversorgung, sollte doch einiges drinnen sein!

9800ProZwerg
2008-03-13, 12:42:03
Die 9800GTX ist so lang wie die 8800GTX,oder?

GeneralHanno
2008-03-13, 12:43:39
exakt gleich lang ;)

der vram mangel ist echt übel bei der GX2 ...

Gast
2008-03-13, 12:48:40
Warum wird der VRAM so kleingehalten?

GeneralHanno
2008-03-13, 12:51:32
das liegt am speicherinterface.
der G80 (8800GTX) hat 384bit (6 * 64bit), also konnten 2*6=12 speicherbausteine verbaut werden, ergo 756MiB.
der G92 (9800GTX) hat 256bit (4*64bit), also können 2*4=8 speicherbausteine verbaut werden. nun kann man entweder günstige 512MiB oder teure 1024MiB verbauen ...

Gast
2008-03-13, 12:54:58
So ein Mist. So viel Aufpreis gibt es ja bei den 8800 GT 1024MB nicht zu zahlen dass es abschrecken würde. Andererseits mag auf den GTXen natürlich ein anderer Speicher verbaut sein.

GeneralHanno
2008-03-13, 12:59:41
auf der G92-8800-GTS ist 1ns ram verbaut, auf der 9800GTX wird teurerer 0,83ns ram verbaut. eine 9800GTX mit 1GiB vram wird es garantiert geben, die kostet dann sicher aber 50€ aufpreis ...

AnarchX
2008-03-13, 13:05:30
eine 9800GTX mit 1GiB vram wird es garantiert geben, die kostet dann sicher aber 50€ aufpreis ...
Bis jetzt scheint aber kein Hersteller 1024MBit 0.83ns Speicher anzubieten, sodass ein neues PCB nötig wäre.

puntarenas
2008-03-13, 13:24:17
Bis jetzt scheint aber kein Hersteller 1024MBit 0.83ns Speicher anzubieten, sodass ein neues PCB nötig wäre.
Böse Falle, denn die Stückzahlen einer GTX werden im Gegensatz zu einer GT die wenigsten Hersteller dazu ermuntern, wobei der Preisbereich ja mit dem einer 8800GTS G92 zum Launch vergleichbar ist und dort hat es ja sogar vereinzelt geklappt und wurde vielleicht einfach von NVidia weitestgehend unterdrückt.

Was ist denn eigentlich aus den Gerüchten 512MB/1024MB für die 9800GTX geworden, ist ein weiteres Referenzdesign für die 1024MB-Variante sehr unwahrscheinlich?

Gast
2008-03-13, 13:30:37
Bis jetzt scheint aber kein Hersteller 1024MBit 0.83ns Speicher anzubieten, sodass ein neues PCB nötig wäre.
Das ist die Frage, theoretich könnte XpertVision/Gainward das alte 8800GT(S) Layout nehmen.

James Ryan
2008-03-13, 14:14:42
Also der Preis ist nur knapp über der GTS angesiedelt ... passend zum gebotenen.

Richtig!
Alles andere wäre auch richtig böse gewesen!

MfG :cool:

Gast
2008-03-13, 14:34:08
Wann schätzt ihr ein wann eine 9800 GTX mit 1GB RAM kommen wird? Gehen wir mal davon aus das der release der "normalen" beim 18. märz bleibt.

Wäre es sinnvoll von einer 88GT aufzurüsten?

GeneralHanno
2008-03-13, 14:35:09
nein. alle die einen G80, G92, RV670 haben, können getrost abwarten, was der GT200 und RV770 bringen ;)

dildo4u
2008-03-13, 14:42:00
RV670 haben,
Sorry aber die 9800GTX liegt whol ziehmlich sicher mit einer 3780 X2 gleich auf von daher wär das schon eine sinvolle Aufrüstung von einer 3780 vorallem weil man diesen Speed ohne den Crossfire/SLI Nachteil bekommt.
Nvidia kann sicher nicht umsonst ca 300€ für die 9800GTX nehmen wenn die 3780 nur 150€ kostet.

GeneralHanno
2008-03-13, 14:44:21
du würdest doch trotzdem keinem raten, von einem RV670 auf eine 9800GTX aufzurüsten ;)
dann muss er eben 4monate mit schlechtem AF leben, und soll auf den GT200/R700 warten ...

dildo4u
2008-03-13, 14:48:49
du würdest doch trotzdem keinem raten, von einem RV670 auf eine 9800GTX aufzurüsten ;)

Doch würde ich wenn man z.B Besitzer eines 22 oder 24 Zoll TFT ist und die Karte gerade bei Hardwarelastigen Games nicht mher dessen nativen Auflösung flüssig schafft.

Gast
2008-03-13, 14:56:37
nein. alle die einen G80, G92, RV670 haben, können getrost abwarten, was der GT200 und RV770 bringen ;)
Bei der 8800Ultra sind die 8800GTX und GTS Besitzer auch nicht wie verrückt aufgesprungen. ;)

Gast
2008-03-13, 15:08:22
Sorry aber die 9800GTX liegt whol ziehmlich sicher mit einer 3780 X2 gleich auf von daher wär das schon eine sinvolle Aufrüstung von einer 3780 vorallem weil man diesen Speed ohne den Crossfire/SLI Nachteil bekommt.
Nvidia kann sicher nicht umsonst ca 300€ für die 9800GTX nehmen wenn die 3780 nur 150€ kostet.

Mach dich nicht lächerlich. Die 9800GTX wird nur einen Fliegenschiss schneller sein als die 8800GTS.

Gast
2008-03-13, 15:11:26
Doch würde ich wenn man z.B Besitzer eines 22 oder 24 Zoll TFT ist und die Karte gerade bei Hardwarelastigen Games nicht mher dessen nativen Auflösung flüssig schafft.

Natürlich, deshalb hat es sich auch vor höchstens drei Monaten einen RV670 gekauft.

GeneralHanno
2008-03-13, 15:15:34
dann warte mal ab, was Paul Brain zum thema G92@24" sagt ;)

Gast
2008-03-13, 15:20:27
Doch würde ich wenn man z.B Besitzer eines 22 oder 24 Zoll TFT ist und die Karte gerade bei Hardwarelastigen Games nicht mher dessen nativen Auflösung flüssig schafft.

Nein, dann empfiehlt man eine 8800 GTX und keine 9800 GTX.

Gast
2008-03-13, 15:24:21
... das schon eine sinvolle Aufrüstung von einer 3780 vorallem weil man diesen Speed ohne den Crossfire/SLI Nachteil bekommt.
Nvidia kann sicher nicht umsonst ca 300€ für die 9800GTX nehmen wenn die 3780 nur 150€ kostet.

Was hat eine 3870er für ein CF/SLI nachteil? Sammel dich erstmal und überarbeite denn Stuss von oben....:rolleyes:

GeneralHanno*zustimm*

Das Auge
2008-03-13, 15:29:46
dann warte mal ab, was Paul Brain zum thema G92@24" sagt ;)

Was soll man denn da sagen, außer das 1920x1200 selbst für eine GT512 kein Problem ist?

Gast
2008-03-13, 15:32:27
Was soll man denn da sagen, außer das 1920x1200 selbst für eine GT512 kein Problem ist?

Schalt mal moderate Kantenglättung hinzu oder beobachte den VRAM-Verlauf.

Aber nicht mit Mario 64 bitte. :ugly:

Nightspider
2008-03-13, 15:33:45
Ein Bekannter von mir behauptet, er hätte mit 2-9800 GX2 im SLI bei Crysis unter 1920*1200 mit 16 AA und High 70 FPS !

Ist das möglich ?

Rein technisch vom VRAM her dürfte der doch niemals 70 FPS haben oder ?

y33H@
2008-03-13, 15:35:47
Weder vom VRAM noch von der Auflösung her noch aufgrund des 16xAA möglich.
Wenn eine G92-GTS (welche flotter als eine GX2 GPU ist), in 1600*1200 mit 4xAA/8xAF noch keine 15 Fps packt ...

cYa

Gast
2008-03-13, 15:37:32
Sag deinem Bekannten das er scheiße labbert. Wo bitteschön hat er den eine GX2? Und ausserdem erscheinen mir 70fps enorm hoch

GeneralHanno
2008-03-13, 15:37:41
zudem: woher hat der junge 2 9800GX2 ? die sind noch nicht einmal erhältlich!

dargo
2008-03-13, 15:41:30
http://img174.imageshack.us/img174/681/2329753461651412c00bo22xc1.jpg (http://imageshack.us)
http://img404.imageshack.us/img404/8974/23297536259ffea6ea58o22aa8.jpg (http://imageshack.us)
http://img214.imageshack.us/img214/5923/23305787242373683884o22pj8.jpg (http://imageshack.us)
http://img151.imageshack.us/img151/5576/2329753747634460f011o22yw5.jpg (http://imageshack.us)
http://img409.imageshack.us/img409/8200/2330578862ea837a1c86o22nc3.jpg (http://imageshack.us)
http://img442.imageshack.us/img442/4660/23297538614f38f02a1do22lp2.jpg (http://imageshack.us)

http://www.xfastest.com/

Naja, wenigstens der MSRP stimmt doch halbwegs...
Wie war das nochmal - eine G9800GTX wäre nie für 399$ möglich? Lol, jetzt liegt sie sogar 100$ drunter. ;D
Na, wenigstens stimmt der Preis. Für 240-250€ Straßenpreis in DE ist die G9800GTX gar nicht mal so schlecht. Sind schon 1GB Vram Versionen angekündigt?

PS: das mit den 156W TDP kommt schon eher hin. ;)

dildo4u
2008-03-13, 15:57:04
Review der 9800GX2 @ PCO (http://www.pconline.com.cn/diy/graphics/reviews/0803/1241871.html)

Zusammenfassung:
http://img186.imageshack.us/img186/2826/9800gx222d2d9e7uj1.jpg (http://imageshack.us)
http://en.expreview.com/2008/03/13/geforce-9800gx2-got-reviewed-and-still-buggy/
Brutal 80% Schneller als die 3780 X2 bei Crysis. :eek:
Als 2GB Version wird die GX2 whol wirklich zu der High-End Alternative bis zur nästen Generation im Herbst.

dargo
2008-03-13, 16:06:18
Brutal 80% Schneller als die 3780 X2 bei Crysis. :eek:
Als 2GB Version wird die GX2 whol wirklich zu der High-End Alternative bis zur nästen Generation im Herbst.
Also ich sehe das +67%, auch egal. Wir brauchen diese Leistung aber ohne SLI. :usad: Dann reichen auch 1GB Vram. :D

dildo4u
2008-03-13, 16:08:06
24 zu 41fps sind nur 67%. :|

LovesuckZ
2008-03-13, 16:08:18
Die du dir sowieso nicht leisten würdest, da es mehr als 400€ koste. :ugly:

dargo
2008-03-13, 16:10:19
24 zu 41fps sind nur 67%. :|
Um genau zu sein sind es 41,4 vs. 24,8fps. Rechne nochmal nach. :D

Gast
2008-03-13, 16:10:26
Brutal 80% Schneller als die 3780 X2 bei Crysis. :eek:
Als 2GB Version wird die GX2 whol wirklich zu der High-End Alternative bis zur nästen Generation im Herbst.

Nur wenn man ohne Antialising zocken will^^

dildo4u
2008-03-13, 16:12:17
Nur wenn man ohne Antialising zocken will^^
Hä ich schrieb ja extra eine 2GB Version der GX2.Es wurden schon 8800GT und 9600 GT mit 2GB angekündigt und die dürfen keine 600€ kosten. ;)

Gast
2008-03-13, 16:16:04
Hä ich schrieb ja extra eine 2GB Version der GX2.Es wurden schon 8800GT und 9600 GT mit 2GB angekündigt und die dürfen keine 600€ kosten. ;)

Naja mal sehen was da noch so kommt ;)

PHuV
2008-03-13, 16:44:56
PGHW - Geforce 9800 GX2: Neue Benchmarks aufgetaucht (http://www.pcgameshardware.de/aid,635974/News/Geforce_9800_GX2_Neue_Benchmarks_aufgetaucht/)

Es scheint kein so ein Flop wie die AMD 3570 X2 zu werden, die Ergebnisse sehen ja nicht schlecht aus.

Spasstiger
2008-03-13, 16:49:47
PGHW - Geforce 9800 GX2: Neue Benchmarks aufgetaucht (http://www.pcgameshardware.de/aid,635974/News/Geforce_9800_GX2_Neue_Benchmarks_aufgetaucht/)

Es scheint kein so ein Flop wie die AMD 3570 X2 zu werden, die Ergebnisse sehen ja nicht schlecht aus.
Die 3870 X2 ist für ihren Preis sicher kein Flop (in extrem hohen Auflösungen oder mit 8xAA oft mehr als 50% schneller als eine 8800 Ultra). Mit dem eigentlichen Problem, dem Mikroruckeln, hat man auch bei der 9800 GX2 zu kämpfen.

DrumDub
2008-03-13, 16:50:43
PGHW - Geforce 9800 GX2: Neue Benchmarks aufgetaucht (http://www.pcgameshardware.de/aid,635974/News/Geforce_9800_GX2_Neue_Benchmarks_aufgetaucht/)

Es scheint kein so ein Flop wie die AMD 3570 X2 zu werden, die Ergebnisse sehen ja nicht schlecht aus. :ulol: beide karten sind ein flop. oder hat schon irgendein hersteller das microruckler-problem gelöst?

Gast
2008-03-13, 16:51:03
PGHW - Geforce 9800 GX2: Neue Benchmarks aufgetaucht (http://www.pcgameshardware.de/aid,635974/News/Geforce_9800_GX2_Neue_Benchmarks_aufgetaucht/)

Es scheint kein so ein Flop wie die AMD 3570 X2 zu werden, die Ergebnisse sehen ja nicht schlecht aus.
Ja sicherlich.Die Gx2 kostet über 500 E.Klar kein flop lol.

Gast
2008-03-13, 16:55:54
Hallo,

bekanntermaßen wird die 4870x2 Mirostov Kilrovsky's überlegene AA-Lösung namens Spectral-AA einsetzen. Könnte sich ATi diesen AA-Modus einverleiben und ein unerschütterliches Kaufargument in den Händen halten?

LovesuckZ
2008-03-13, 16:57:38
Die 3870 X2 ist für ihren Preis sicher kein Flop (in extrem hohen Auflösungen oder mit 8xAA oft mehr als 50% schneller als eine 8800 Ultra).

Unter D3D10 fast durchgehend langsamer. Abhänigkeit von Profilen, Mikroruckler, Kopplung an A.I, kein SuperSampling-AA, kein konkurenzfähiges AF.
Ne, sowas ist eben auch ein Flop, wenn eine 8800GTS-512 210€ bzw. eine 8800GTX 270€ kostet.

reunion
2008-03-13, 17:12:16
Unter D3D10 fast durchgehend langsamer. Abhänigkeit von Profilen, Mikroruckler, Kopplung an A.I, kein SuperSampling-AA, kein konkurenzfähiges AF.
Ne, sowas ist eben auch ein Flop, wenn eine 8800GTS-512 210€ bzw. eine 8800GTX 270€ kostet.

Bei dir ist sowieso jede Nicht-NV-Karte ein Flop. Warum erwähnst du das überhaupt noch?

DrumDub
2008-03-13, 17:14:38
Ne, sowas ist eben auch ein Flop, wenn eine 8800GTS-512 210€ bzw. eine 8800GTX 270€ kostet. als erstere gibts nur für 220€ und letztendlich sind alles dualchipkarten so lange müll, bis das microrucklerproblem gelöst wird.

LovesuckZ
2008-03-13, 17:18:35
Bei dir ist sowieso jede Nicht-NV-Karte ein Flop. Warum erwähnst du das überhaupt noch?

Weil hier so getan werde, ob die 3870x2 kein Flop wäre.
Auch nVidia's x2 ist ein Flop. Nur eben aus anderen Gründen: Stromverbrauch, Vram-Mangel, Mikroruckler.

GeneralHanno
2008-03-13, 17:27:48
Hallo,

bekanntermaßen wird die 4870x2 Mirostov Kilrovsky's überlegene AA-Lösung namens Spectral-AA einsetzen. Könnte sich ATi diesen AA-Modus einverleiben und ein unerschütterliches Kaufargument in den Händen halten?

WTF? :eek:
könntest du das etwas näher erläutern :tongue:

Sorkalm
2008-03-13, 18:21:38
http://s7.directupload.net/images/user/080313/4naenpr2.jpg

Eventuell gibt es auf Expreview auch noch weitere interessante Folien, aber auf die Artikel dort komme ich momentan nicht rauf...

y33H@
2008-03-13, 18:23:10
@ LovesuckZ

*zustimm*

Solange es die 88GTX zu dem Preis gibt und man für wohl 350€ eine 98GTX mit hohem RAM-Takt bekommt,
können X2 und GX2 einpacken - die Probleme/Nervereien/whatever sind einfach zu viel des Guten.

cYa

LovesuckZ
2008-03-13, 18:37:23
http://s7.directupload.net/images/user/080313/4naenpr2.jpg

Eventuell gibt es auf Expreview auch noch weitere interessante Folien, aber auf die Artikel dort komme ich momentan nicht rauf...

Das ist'ne dumme Folie. Wenn ich Geld wie heu hätte, würde ich den Quadcore und die 9800GTX nehmen.
Die sollten also eher sowas Quadcore und 9600GT gegen Dual-Core und 9800GTX vergleichen. Ungefähr gleicher Preis - wie sieht die Leistung aus.

Coda
2008-03-13, 18:39:22
WTF? :eek:
könntest du das etwas näher erläutern :tongue:
Frag mich auch was das sein soll. Es gibt überhaupt keinen Web-Eintrag zu der Person. Imho bloß blödes rumgetrolle.

dargo
2008-03-13, 18:52:54
Solange es die 88GTX zu dem Preis gibt und man für wohl 350€ eine 98GTX mit hohem RAM-Takt bekommt,
können X2 und GX2 einpacken - die Probleme/Nervereien/whatever sind einfach zu viel des Guten.

Wie kommst du überhaupt auf die 350€?
Sollten die 299$ stimmen wird eine G9800GTX 240-250€ kosten.

dildo4u
2008-03-13, 19:00:24
Das ist'ne dumme Folie. Wenn ich Geld wie heu hätte, würde ich den Quadcore und die 9800GTX nehmen.
Die sollten also eher sowas Quadcore und 9600GT gegen Dual-Core und 9800GTX vergleichen. Ungefähr gleicher Preis - wie sieht die Leistung aus.
Ich schätze mal die Folie gehört zur neuen Nvidia PR Strategie gegen Intel.Mit der Message die GPU ist wesentlich wichtiger für die Performance als eine High-End CPU.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=6252&Itemid=1

AnarchX
2008-03-13, 19:02:37
Ich schätze mal die Folie gehört zur neuen Nvidia PR Strategie gegen Intel.Mit der Message die GPU ist wesentlich wichtiger für die Performance als eine High-End CPU.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=6252&Itemid=1
Genau:
http://en.expreview.com/2008/03/13/nvidia-want-to-persuade-us-to-buy-more-vga-cards/

LovesuckZ
2008-03-13, 19:05:43
Ich schätze mal die Folie gehört zur neuen Nvidia PR Strategie gegen Intel.Mit der Message die GPU ist wesentlich wichtiger für die Performance als eine High-End CPU.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=6252&Itemid=1

Ich weiß. Das Problem ist, dass man den Leuten zeigen muss, mehr Geld in die Grafikkarte als in die CPU zu investieren. Wer nur 300€ zur Verfügung hat, steht wohl kaum vor der Entscheidung, sich eine 300€ GPU und eine 150€ CPU statt eine 300€ CPU zu kaufen.
Daher muss nVidia zeigen, dass eine 300€ GPU mit einer 100€ CPU wesentlich schneller ist als eine 100€ GPU und eine 300€ CPU.

Gast
2008-03-13, 19:08:23
Ich schätze mal die Folie gehört zur neuen Nvidia PR Strategie gegen Intel.Mit der Message die GPU ist wesentlich wichtiger für die Performance als eine High-End CPU.


Seh ich auch so, daher sinddie Folien fürn A....
Wer sich ein QX9650 kauft hat andere sachen damit vor, als ihn auf Default laufen zu lassen.

Gast
2008-03-13, 19:11:58
Daher muss nVidia zeigen, dass eine 300€ GPU mit einer 100€ CPU wesentlich schneller ist als eine 100€ GPU und eine 300€ CPU.
Oh, wie Fürsorglich von NV, als ob das nicht jeder normale selbst weiß :rolleyes:
Die müßen doch echt denken die Kunden sind be.....

sklave_gottes
2008-03-13, 19:23:11
Oh, wie Fürsorglich von NV, als ob das nicht jeder normale selbst weiß :rolleyes:
Die müßen doch echt denken die Kunden sind be.....
Das hat nichts mit be... zu tun. Kunden die sich nicht so sehr auskennen, greifen sehr schnell unbewust zu einer schlechten kombi zum "zocken".
z.b. Intel quad + geforce 8500gt/HD3470
Wobei sicher Intel 90€ cpu + 9600gt/HD3850 besser wäre.

Nakai
2008-03-13, 19:37:25
Wenn NV sich wirklich mit Intel anlegen...ohweh.
Dann gibts wieder Knebelverträge von Intel, dass die Großhändler ja keine NV-Graka nehmen sollen.;D


mfg Nakai

LovesuckZ
2008-03-13, 19:48:40
Sagen wir so: Gefährlich wird es erst, wenn nVidia AMD CPUs untereinander vergleicht. :ugly:

GeneralHanno
2008-03-13, 19:52:07
und der gewinner ist DAAMIT ;)

nidia rät zu AMD cpus und intel rät zu ati grafikkarten ;D

Gast
2008-03-13, 19:53:48
und der gewinner ist DAAMIT ;)

nidia rät zu AMD cpus und intel rät zu ati grafikkarten ;D
zu Geil ;D

Gast
2008-03-13, 20:08:10
Passt zum Thema

"Expreview berichtet von Treiberproblemen. So muss SLI gegenwärtig über die Forceware manuell aktiviert werden, um auf beide G92-GPUs zurückzugreifen. Desweiteren soll die Geforce 9800 GX2 zur Zeit nicht auf einem X48-Chipsatz lauffähig sein. Es wird von Abstürzen berichtet, sobald eine 3D-Applikation gestartet wird."

http://www.pcgameshardware.de/aid,635974/News/Geforce_9800_GX2_Neue_Benchmarks_aufgetaucht/

Henroldus
2008-03-13, 22:09:58
Ich weiß. Das Problem ist, dass man den Leuten zeigen muss, mehr Geld in die Grafikkarte als in die CPU zu investieren. Wer nur 300€ zur Verfügung hat, steht wohl kaum vor der Entscheidung, sich eine 300€ GPU und eine 150€ CPU statt eine 300€ CPU zu kaufen.
Daher muss nVidia zeigen, dass eine 300€ GPU mit einer 100€ CPU wesentlich schneller ist als eine 100€ GPU und eine 300€ CPU.
womit sie auch vollkommen recht haben(im Gamebereich), nur ALDI und co wollens nicht wahr haben.
ich hab es schon oft betont, ein CPU reicht locker 2 Jahre aus, hingegen die graka muss man mindestens jährlich tauschen.
Quadcores sind was für Renderer und zur Videobearbeitung, evtl auch zum 24h Zippen ;D
zumal sich in den heutigen zeit die CPU Lebenszeit(nicht dauer!) durch OC im PC noch etwas verlängern lässt.

Sorkalm
2008-03-13, 22:21:38
womit sie auch vollkommen recht haben, nur ALDI und co wollens nicht wahr haben.

Naja, die wenigsten Rechner bei ALDI sind für Spieler.

Das die vollkommen überdimensioniert sind, das wollen nicht mal die Kunden wahrhaben, ja...

Gast
2008-03-13, 22:34:26
Daher muss nVidia zeigen, dass eine 300€ GPU mit einer 100€ CPU wesentlich schneller ist als eine 100€ GPU und eine 300€ CPU.

Kommt aber auch auf Spiel drauf an! Strategiespiele z.B. zerren gerne mal derbe an der CPU. Da wäre dann die zweite Option oft besser!

Schlammsau
2008-03-14, 07:27:15
Die X2 ist kein Flop und wenn die GX2, mit dem Preis auch noch etwas runter geht, finden diese Karten durchaus ihre Abnehmer!...nahezu jeden den ich kenne, macht bei diesen Preis nur diesen :eek:
Ob ihrs glauben wollt oder nicht, 90% aller potenziellen Käufer haben noch nie was vom "Mickroruckeln" gehört und wollen nur möglichst hohe FPS!
Is leider so!

James Ryan
2008-03-14, 08:23:29
Ob ihrs glauben wollt oder nicht, 90% aller potenziellen Käufer haben noch nie was vom "Mickroruckeln" gehört und wollen nur möglichst hohe FPS!
Is leider so!

Sie bekommen aber mit den aktuellen Doppelchipkarten keine höheren FPS!
Klar, der FPS Counter zeigt mehr an, das nützt aber nichts wenn es trotzdem ruckelt!

MfG :cool:

Schlammsau
2008-03-14, 08:37:21
Sie bekommen aber mit den aktuellen Doppelchipkarten keine höheren FPS!
Klar, der FPS Counter zeigt mehr an, das nützt aber nichts wenn es trotzdem ruckelt!

MfG :cool:
jepp das wissen wir! aber wie siehts mit den Massen an DAU´s aus, die nicht in diesem Forum sind?!

PHuV
2008-03-14, 09:00:39
Die X2 ist kein Flop

Kann man sehen, wie man möchte, ich nenne nur mal

Radeon HD 3870 X2 in Crossfire X Tested
(http://www.tweaktown.com/articles/1319/1/page_1_introduction/index.html)
Und verglichen mit Tripel-SLI ist das, bezogen auf Multi-GPU, wohl ein Flop.

Gast
2008-03-14, 09:06:44
Kann man sehen, wie man möchte, ich nenne nur mal

Radeon HD 3870 X2 in Crossfire X Tested
(http://www.tweaktown.com/articles/1319/1/page_1_introduction/index.html)
Und verglichen mit Tripel-SLI ist das, bezogen auf Multi-GPU, wohl ein Flop.

Mach dich nicht lächerlich, das sind Tests ohne AA/AF, da limitiert die CPU und sonst nichts. Dein ständiges Gebashe ist ja kaum mehr auszuhalten.

Schlammsau
2008-03-14, 09:29:42
Kann man sehen, wie man möchte, ich nenne nur mal

Radeon HD 3870 X2 in Crossfire X Tested
(http://www.tweaktown.com/articles/1319/1/page_1_introduction/index.html)
Und verglichen mit Tripel-SLI ist das, bezogen auf Multi-GPU, wohl ein Flop.

jetzt kommste mit dem test wieder, du kleiner nVidia Fanboy du. :comfort:
haste schon vergessen was die andren dazu gepostet haben ;)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=406857

-getestet mit CPU limitirenden Einstellungen!
-mit inoffiziellen CrossfireX Treiber getestet!
-laut diesem Review, ist die X2 in Crysis deutlich langsamer als eine einzelne 3870!

ergo....dieser Test ist für die Tonne!
warum postest du gerade dann dieses Review wieder? Hast doch schon einige Kommentare dazu bekommen! ;)

AnarchX
2008-03-14, 12:37:30
9800 GTX Review @ PCO (http://www.pconline.com.cn/diy/graphics/reviews/0803/1243353.html)

puntarenas
2008-03-14, 12:50:32
Endlich geht es los, wobei mich die Benchmarkbalken nicht wirklich interessieren, ich will einfach nur definitiv erfahren, ob die Karte einen Idle-Modus kennt oder nicht. Allein aus Marketinggründen wird NVidia die 9800GTX vermutlich wirklich erst am 25. oder noch später starten, ein gemeinsamer Launch mit der 9800GX2 wäre vielen sicher lieber, es reicht einfach mit der Warterei auf einen "alten" Chip.

Was meinen die eigentlich mit Quad-SLI, ich dachte Triple-SLI wäre eines der Alleinstellungsmerkmale?

Adam D.
2008-03-14, 13:05:05
Für mich spricht der Fakt, dass nur die 9800er-Reihe hSLi kann, deutlich gegen einen eigenen Idle-Modus ;)

PHuV
2008-03-14, 13:14:21
Mach dich nicht lächerlich, das sind Tests ohne AA/AF, da limitiert die CPU und sonst nichts. Dein ständiges Gebashe ist ja kaum mehr auszuhalten.

2 mal was dazu gesagt, und es soll "ständiges" Gebashe sein? :| Wieder ein Grund mehr, Gäste hier rauszuwerfen.

jetzt kommste mit dem test wieder, du kleiner nVidia Fanboy du. :comfort:


Ich bin kein NV-Fanboy, ich hatte früher auch mal ATI-Karten, so ist es ja nicht, gelle. ;)

Anarchy-HWLUXX
2008-03-14, 13:16:57
9800 GTX Review @ PCO (http://www.pconline.com.cn/diy/graphics/reviews/0803/1243353.html)
Alles ohne AA/AF :usad:

Wenigstens haben se hübsche Pics sonst wär des Review komplett nutzlos gewesen :ucatch:

Paul Brain
2008-03-14, 13:33:29
Alles ohne AA/AF :usad:

Wenigstens haben se hübsche Pics sonst wär des Review komplett nutzlos gewesen :ucatch:
Ma und ich hab mich schon so auf das Review gefreut...
Wie dämlich muß man sein, um solche Karten ohne Qualitätsfeatures zu testen?!? :uhammer2:

PHuV
2008-03-14, 13:52:36
Alles ohne AA/AF :usad:

Wenigstens haben se hübsche Pics sonst wär des Review komplett nutzlos gewesen :ucatch:

Na ja, wenn es beispielsweise bei Crysis bei 1440x960 (was ist den das für eine Auflösung :|) zu einer 8800 GTX gerade mal 6 Frames und bei 1920x1200 gerade mal 3 Frames Unterschied bleiben, dann ist ja bei meinen 2560x1600 kaum eine Verbesserung zu erwarten. Wenn das Ding nicht recht günstig wird, dann ist das wohl nicht der Renner.

DrumDub
2008-03-14, 14:15:59
Wenn das Ding nicht recht günstig wird, dann ist das wohl nicht der Renner. ist halt auch nur nen flop.

hab mir übrings grad ne 8800gt für 160 eur geordert. :D

puntarenas
2008-03-14, 14:19:17
ist halt auch nur nen flop.
Füllt berechtigt ein freigewordenes Preissegment auf, einen Flop kann ich da nicht erkennen. Dass es kein Renner wird war ohnehin schon klar, allerdings sind Benches ohne AA/AF natürlich wenig originell, schließlich will man ja gerade in Extremsituationen sehen, wie weit die erhöhte Bandbreite durch den teuren Speicher das Kärtchen zur 8800GTX aufschließen lässt.

DrumDub
2008-03-14, 14:30:02
Füllt berechtigt ein freigewordenes Preissegment auf, einen Flop kann ich da nicht erkennen. Dass es kein Renner wird war ohnehin schon klar, allerdings sind Benches ohne AA/AF natürlich wenig originell, schließlich will man ja gerade in Extremsituationen sehen, wie weit die erhöhte Bandbreite durch den teuren Speicher das Kärtchen zur 8800GTX aufschließen lässt. sli/cf/x2 sind für mich so lange nen flop, bis das mikrorucklerproblem gelöst ist.

puntarenas
2008-03-14, 14:31:14
sli/cf/x2 sind für mich so lange nen flop, bis das mikrorucklerproblem gelöst ist.
Kann ich unterschreiben, aber es ging um eine 9800GTX :)

DrumDub
2008-03-14, 14:33:21
Kann ich unterschreiben, aber es ging um eine 9800GTX :) ahh. sorry. mein fehler. habs so gelesen als wäre es nen weiterer test der 9800GX2 gewesen.

Paul Brain
2008-03-14, 14:37:42
ahh. sorry. mein fehler. habs so gelesen als wäre es nen weiterer test der 9800GX2 gewesen.
Nö, die interessiert die Informierten hier eigentlich so gut wie gar nicht... :tongue:

Gast
2008-03-14, 14:45:39
1440x960 (was ist den das für eine Auflösung :|)
Das ist eine 16:10 Auflösung. :)

Gast
2008-03-14, 14:52:49
Das ist eine 16:10 Auflösung. :)

Falsch, 16:10 wär 1440x900 oder 1536x960! :)

Hvoralek
2008-03-14, 15:12:22
Das ist eine 16:10 Auflösung. :)Nein, das ist 3:2. Sachen gibt's... :|

Schlammsau
2008-03-14, 16:40:04
Ich bin kein NV-Fanboy, ich hatte früher auch mal ATI-Karten, so ist es ja nicht, gelle. ;)

versteh mich nicht falsch.....aber gerade dieses Review ist wirklich anzuzweifeln!
Allein wenn man mal logisch drüber nachdenkt, können die Ergebnisse die da veröffentlicht wurden, gar nicht stimmen!
Oder was meinst du?

http://www.abload.de/img/cfxx21_g_057lf.gif]

Gast
2008-03-14, 17:02:40
Natürlich können die stimmen sind Mediumsettings und damit CPU Limitiert was eine X2 ausbremst. Dennoch den X2 liegt kein Crysis, selbst 2x8800GTS schlagen derzeit 2x X2 QuadCF relativ easy.

Schlammsau
2008-03-14, 17:24:37
so ein blödfug, eine X2 ist mit Sicherheit nicht langsamer als eine einzelne 3870....
wie kommst du auf sowas? bei 1600x1200 und einem "Core 2 Quad Q6600 @ 3GHz" ein CPU Limit? *rofl*

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis

Gast
2008-03-14, 17:35:26
so ein blödfug, eine X2 ist mit Sicherheit nicht langsamer als eine einzelne 3870....
wie kommst du auf sowas? bei 1600x1200 und einem "Core 2 Quad Q6600 @ 3GHz" ein CPU Limit? *rofl*

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis

Hast du noch nix vom CPU Limit gehört das sich verstärkt bei mehreren Chips? Und Medium Settings in Crysis sind sehr wohl CPU Limitiert an einigen Stellen des Benchmarks was dann zu Lasten der Dualchipkarte geht. Daher auch die niedrigeren Ergebnisse.

Schlammsau
2008-03-14, 17:39:20
oh man....nichtmal mit meiner 8800GS oder HD3850 512MB, 800x600, alles@Low hab ich mit meinem E4300@2,92Ghz ein CPU Limit. Selbst da limitiert noch meine Grafikarte!!!! Im Benchmark Forum (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=404696) findest du die Ergebnisse.

Gast
2008-03-14, 17:46:28
oh man....nichtmal mit meiner 8800GS oder HD3850 512MB, 800x600, alles@Low hab ich mit meinem E4300@2,92Ghz ein CPU Limit. Selbst da limitiert noch meine Grafikarte!!!! Im Benchmark Forum (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=404696) findest du die Ergebnisse.

Ohje...es geht um ZWEI Chips!!! Hallo?

Schlammsau
2008-03-14, 17:48:05
jetz mog i nimma :P

Gast
2008-03-14, 17:50:21
jetz mog i nimma :P

Dir fehlt das Praxiswissen wie MultiGPU funktioniert , schade.

y33H@
2008-03-14, 17:54:08
Keine Ahnung ob das schon einer gesehen/gepostet hat, neue Pics bei tcmagazine.com (http://www.tcmagazine.com/comments.php?shownews=18684&catid=2):

http://www.abload.de/thumb/nvidia_geforce_9800_cth.jpg (http://www.abload.de/image.php?img=nvidia_geforce_9800_cth.jpg) http://www.abload.de/thumb/nvidia_geforce_9800_dzs.jpg (http://www.abload.de/image.php?img=nvidia_geforce_9800_dzs.jpg) http://www.abload.de/thumb/nvidia_geforce_9800_m3b.jpg (http://www.abload.de/image.php?img=nvidia_geforce_9800_m3b.jpg)

EDIT
Toll, PCGH hat die auch oben *grummel*

cYa