PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Alles zu kommenden Geforce9-Grafikkarten - 9600GSO-G94, 9850 X,...


Seiten : 1 2 [3]

A.Wesker
2008-03-31, 12:25:19
die GTS ist natürlich schneller schau dir die taktraten an,aber wenn AA oder ein Mod mit hohen Auflösungen dazu kommt ist Essig und dann hilft nur noch der Affengriff,der nicht vorhandene Bug läßt grüßen.

Und ihr solltet das endlich mal trennen und einsehen die ganzen 92er Karten ist eine reine Geldmacherei und sonst nix,die einzig brauchbaren Karten für AA und hohe Auflösungen und dazu zählt auch 1680x1050 ist die G80 Reihe.
Mit 8xS sinds bei Gothic 3 trotzdem noch > 46 FPS und das bei 1920x1200. Habe bisher kein Spiel (außer Crysis) gesehen, dass bei mir mit 1680x1050 4xAA/16AF nicht flüssig rennt...

Gast
2008-03-31, 13:13:35
die GTS ist natürlich schneller schau dir die taktraten an,aber wenn AA oder ein Mod mit hohen Auflösungen dazu kommt ist Essig und dann hilft nur noch der Affengriff,der nicht vorhandene Bug läßt grüßen.

Und ihr solltet das endlich mal trennen und einsehen die ganzen 92er Karten ist eine reine Geldmacherei und sonst nix,die einzig brauchbaren Karten für AA und hohe Auflösungen und dazu zählt auch 1680x1050 ist die G80 Reihe.
Welcher Bug? :)

Geldmacherei? Die 8800GT mit ihren 750Millionen Transistoren kosten 150€.
Die 8800Ultra war für 600€ natürlich ein reines Verlust Geschäft für NV. :rolleyes:

dargo
2008-03-31, 15:50:13
G9800GTX nun für 252,50€ lieferbar.
http://www.mindfactory.de/product_info.php/info/p0426521?pid=geizhals

Gast
2008-03-31, 18:19:59
"Artikel nicht gefunden"

Sind die 4 Stück wohl schon verkauft. http://geizhals.at/deutschland/a324489.html

AnarchX
2008-04-01, 13:02:43
Naja, immerhin scheint für die 98GTX bessere OC-Versionen als bei der GTS512 zu geben:
http://en.expreview.com/2008/04/01/foxconn-9800gtx-512mb-core-clock-rated-at-780mhz/

Mal sehen ob die anderen Hersteller dies noch überbieten.

puntarenas
2008-04-01, 14:31:10
Was mich am meisten freut:

Once the PCB received a good cleaning, the 9800 GTX began to look a lot more respectable. Solid state capacitors and ferrite core chokes were surface mounted in the same fashion as we see Gig abyte tout in their Ultra Durable 2 design.
Quelle: benchmarkreviews.com (http://benchmarkreviews.com/index.php?option=com_content&task=view&id=154&Itemid=72&limit=1&limitstart=5)

Für mich als Laien heißt das, lange Lebensdauer und nie wieder Spulenpfeifen. Kann das ein Elektronik-Guru bestätigen oder gibt es das Phänomen auch bei dieser Art von Bauteilen?

dargo
2008-04-01, 15:18:28
Naja, immerhin scheint für die 98GTX bessere OC-Versionen als bei der GTS512 zu geben:
http://en.expreview.com/2008/04/01/foxconn-9800gtx-512mb-core-clock-rated-at-780mhz/

Mal sehen ob die anderen Hersteller dies noch überbieten.
Mit diesen Taktraten wirds langsam interessanter. :) Wieviel bräuchte man eigendlich um die G8800GTS640 um 100% zu überbieten? 850Mhz beim Coretakt?

A.Wesker
2008-04-01, 15:20:34
Mit diesen Taktraten wirds langsam interessanter. :) Wieviel bräuchte man eigendlich um die G8800GTS640 um 100% zu überbieten? 850Mhz beim Coretakt?
könnten wir ja mal testen :-)

GeneralHanno
2008-04-01, 17:00:01
mit einem sehr potenten kühlsystem und default vcore von über 1,25V ist das natürlich overclockers dream ;)
ABER: das problem ist und bleibt der vram. da gibts einfach nicht viel zu machen ...

mir wäre eine GTX mit hochwertigem 1.0 ns Samsung Vram, dann aber 1024MiB !!! lieber gewesen ...

Gast
2008-04-03, 00:24:13
http://www.awardfabrik.de/grafikkarten/club3d-geforce-9800gtx-7.html

9800GTX ist bei gleichen Takraten langsammer als 8800GTS.

Wahrscheinlich langsammere Speichertimings.

Stark nVidia !

Gast
2008-04-03, 01:16:46
Verschiedene Treiber, grottiger Test, super Marketingbalken. :ugly:

Superheld
2008-04-03, 02:38:30
Naja beim benchmarken kann schon mal was schief laufen, obwohl eigeintlich klar sein sollte das die GTX vorne liegt:rolleyes:

und was ich nicht verstehe warum der Ram-takt bei der BFG OC GTS niedriger liegt als bei der standart GTS:|

Gast
2008-04-03, 10:02:34
und was ich nicht verstehe warum der Ram-takt bei der BFG OC GTS niedriger liegt als bei der standart GTS:|
Schreibfehler, so wie ausversehen der Takt verdoppelt wurde. ;)

Die gelbe Eule
2008-04-03, 14:41:00
Gibts schon was aus der Plauderkiste für eine 9800 GT?

AnarchX
2008-04-03, 15:13:59
Gibts schon was aus der Plauderkiste für eine 9800 GT?
112SPs, 650/1625/1000MHz

Gast
2008-04-03, 15:20:48
Die 8800 (G92) fallen dann entgültig weg?

James Ryan
2008-04-03, 15:22:02
Die 8800 (G92) fallen dann entgültig weg?

Nö, werden quasi nur umbenannt.
Warum die aber nicht direkt Gf 9800 genannt wurden, ist mir vollkommen unklar!
Die Gf 9600 GT kam ja bspw. auch vor der Gf 9800 GTX raus.

MfG :cool:

GeneralHanno
2008-04-03, 15:48:54
also nvidia wird keine 8800er mehr "rausrücken", aber die 9800er sind quais das gleiche ;)
die 8800er wird dann aber noch (länger) als restposten geben *auf-den-abverkauf-freu*

Gast
2008-04-03, 16:27:16
also nvidia wird keine 8800er mehr "rausrücken", aber die 9800er sind quais das gleiche ;)
Das meinte ich in #516. ;)
Es macht halt wenig Sinn eine 8800GTS 512 neben einer 9800GTX und 9800GTS zu haben.


die 8800er wird dann aber noch (länger) als restposten geben *auf-den-abverkauf-freu*Ich bezweifel, das die Preise deutlich/überhaupt runter gehen.

GeneralHanno
2008-04-03, 17:05:44
naja etwas potential ist schon noch da. wenn ich bedenke, dass in 2 wochen die 8800GTX bei 199€ sein könnte ...

Gast
2008-04-03, 18:45:30
Das mit der 8800GTX bezweifel ich. ;)
Es gibt nur eine für 209€, die anderen starten mit über 230€.
Dann der Fakt, das der G80 seit einiger Zeit nicht mehr gebaut wird, also die Regale werden täglicher leerer.
Ich sage dir eher, in 2 Wochen gibts nur noch 8800GTX für 250€. ;)

GeneralHanno
2008-04-03, 19:44:24
vor einiger zeit gab es einen abverkauf der 7950GX2 für 189€. wer hätte das bei DER high-end karte erwartet. irgend ein händler (vermutlich einer der die 9800GTX für besser als die 8800GTX hölt), wird sicher bald seine alte 8800GTX zum kampfpreis abverkaufen ...

Gast
2008-04-03, 19:56:27
Das mit der 8800GTX bezweifel ich. ;)
Es gibt nur eine für 209€, die anderen starten mit über 230€.
Dann der Fakt, das der G80 seit einiger Zeit nicht mehr gebaut wird, also die Regale werden täglicher leerer.
Ich sage dir eher, in 2 Wochen gibts nur noch 8800GTX für 250€. ;)


Jede Karte bekommt man irgendwann hinter her geschmissen, das war schon bei der GF 2 Ultra so( 1400dm musste da mal hinlegen) und wird auch bei der 8800GTX/Ultra so enden. Eine 9700Pro(der letzte Meilenstein seit 8800GTX) bekam man auch zum ende für ein paar €.

Die Karte an sich wird halt nur an die preise der anderen Karten angepasst und die 9800GTX wird auch noch billiger werden.

Gast
2008-04-04, 09:10:14
Jede Karte bekommt man irgendwann hinter her geschmissen, das war schon bei der GF 2 Ultra so( 1400dm musste da mal hinlegen) und wird auch bei der 8800GTX/Ultra so enden. Eine 9700Pro(der letzte Meilenstein seit 8800GTX) bekam man auch zum ende für ein paar €.

Die Reste in den Shops werden nie billig, die steigen sogar im Preis und genau die Reste meine ich.

Die G80 müssten einfach bald ausverkauft sein.

Gast
2008-04-05, 02:10:11
Die Reste in den Shops werden nie billig, die steigen sogar im Preis und genau die Reste meine ich.

Die G80 müssten einfach bald ausverkauft sein.


Das gilt höchstens für eine 8800 Ultra, nicht für die GTX.

In 6 Monaten schreit kein Hahn mehr nach einer 8800GTX, da zu lahm und verbrauch zu hoch.

AnarchX
2008-04-10, 12:37:15
NV goes 55nm - G94b und G96b (http://www.vr-zone.com/articles/Nvidia_55nm_Mobile_Graphics_Cards_Unveiled/5705.html)

Vielleicht dann auch noch eine 9600GTS, 9650GT oder 9700GT für den Desktop?

GeneralHanno
2008-04-10, 13:13:52
ich könnte mir sogar vorstellen, dass nvidia keinen G92b bringt ...
der G92a läuft dann halt pünktlich aus und wird vom GT200 ersetzt. den preisbereich von 150€ könnte dann ein hochgetakteter G94b übernehmen ...

Die gelbe Eule
2008-04-10, 13:42:12
Ob die b-Modelle wirklich Desktop Ableger finden werden?

AnarchX
2008-04-10, 13:44:28
Gesparte Die-Size sind ja theoretisch gesparte Kosten, wohlmöglich landen dann auf den Desktop-Karten die GPUs, welche die Mobile-Spannung nicht schaffen.

Die gelbe Eule
2008-04-10, 14:09:32
Nur bräuchte man hier ja wieder ein neues PCB, welches auch angepasst werden müsste. Ob man das für ein paar selektierte neue Chips angehen möchte, wage ich zu bezweifeln.

AnarchX
2008-04-10, 14:11:53
Nur bräuchte man hier ja wieder ein neues PCB, welches auch angepasst werden müsste.
:|
Diese B-Varianten werden zu 99% pin-kompatibel zu den A-Varianten sein.

AnarchX
2008-04-11, 10:07:30
GeForce 9500GT mit OnBoard-Stromsparmechanismus? (http://www.expreview.com/news/hard/2008-04-11/1207900868d8343.html)

http://img386.imageshack.us/img386/9949/power2529939bhk0.jpg (http://imageshack.us)

Wird ja auch langsam mal Zeit...

GeneralHanno
2008-04-11, 10:20:24
sehr gute idee, nvidia. das ganze vll noch für den desktop, so wie ATi ...

AnarchX
2008-04-11, 10:27:33
Das ist doch eine Desktopkarte. ;)

War wohl notwendig um ein paar OEM-Deals zu bekommen, die auf solche Eigenschaften wert legen.

GeneralHanno
2008-04-11, 10:32:11
hmm da hast du recht ...
ich hatte in der eile angenommen, es wäre NB ...

wobei natürlich auch nur jemand mit rivertuner gespielt haben könnte. wenns aber stimmt, dann kann man nur hoffen, dass nvidia auch für alle anderen G9x "nachzieht"

AnarchX
2008-04-11, 16:43:54
Die 9300GS scheint wohl auch ihren Takt zu senken:
http://img402.imageshack.us/img402/650/12079223929496949348aj6.jpg (http://imageshack.us)

GeneralHanno
2008-04-11, 16:50:50
das ist gut :D
es gab ja auch mal ein statement von nvidia, dass (einige) G9x über einen 2d modus verfügen sollen ...

es wäre natürlich lecker, wenn die vcore auch noch gesenkt würde, aber daran glaube ich nicht (leider)

AnarchX
2008-04-11, 16:53:09
Naja, wenn schon wäre die PowerMizer-Funktion wünschenswert, die eben auch die Abschaltung von Funktionseinheiten beinhaltet, wodurch die 8800M auf dem Desktop auf 5W kommen.

GeneralHanno
2008-04-11, 16:55:41
für einen surfPC der auch für ein spielchen @19" reicht, wäre die 9500GT sich nett. immerhin handelt es sich um eine 8600GT(S)

Hvoralek
2008-04-11, 17:22:52
Die 9300GS scheint wohl auch ihren Takt zu senken:
http://img402.imageshack.us/img402/650/12079223929496949348aj6.jpg (http://imageshack.us)Wirklich üppig ist das allerdings nicht :|

GeneralHanno
2008-04-11, 17:32:05
der chip ist ja auch recht schmal ...

Hvoralek
2008-04-11, 18:46:19
der chip ist ja auch recht schmal ...Und deshalb wird der Takt im Leerlauf nur geringfügig gesenkt?

LovesuckZ
2008-04-11, 18:52:23
Weil es keine Ersparnis mehr bringt.

Hvoralek
2008-04-11, 18:57:28
Weil es keine Ersparnis mehr bringt.Wieso sollte eine weitere Taktsenkung nichts nützen? Gilt P ~ f nur für Chips ab einer bestimmten Größe?

Captain Future
2008-04-11, 19:38:52
Gesetz des abnehmenden Grenzertrags.

Gast
2008-04-11, 19:54:29
Gilt P ~ f nur für Chips ab einer bestimmten Größe?

P ~ f gilt nie wirklich und schon garnicht im leerlauf, höchstens unter last kommt man annähernd auf dieses verhältnis.

RoNsOn Xs
2008-04-11, 19:54:55
was bringt taktfreuquenz senken überhaupt? die spannung die anliegt wird ja nicht mitgesenkt, ergo dürfte das doch überhaupt keine ersparnis bringen, da der takt unter 2d eh nicht ausgelastet wird, nicht marginal, oder?
also wird genauso viel verbraten im 2d-betrieb. so hab ich bisher gedacht

Captain Future
2008-04-11, 20:00:53
Kannst du das Konzept "Takt auslasten" erklären? Dann kommst du vielleicht selbst drauf

san.salvador
2008-04-11, 20:01:26
Und weshalb werden CPUs allein durchs übertakten wärmer? ;)

RoNsOn Xs
2008-04-11, 20:06:16
werden sie doch gar nicht, erst wenn sie ausgelastet werden.

san.salvador
2008-04-11, 20:10:48
werden sie doch gar nicht, erst wenn sie ausgelastet werden.
Da hab ich aber ganz andere Erfahrungen gemacht.

RoNsOn Xs
2008-04-11, 20:14:20
hm ich nicht sofern die vcore gleich bleibt. woher sollte die wärme auch kommen?

Hvoralek
2008-04-11, 20:15:38
Gesetz des abnehmenden Grenzertrags.Selbst wenn das Einsparpotenzial durch Taktsenkungen um x% bei geringen Taktraten geringer sein sollte als bei höheren (warum?), würde es immer noch zumindest etwas bringen.

Captain Future
2008-04-12, 09:47:35
Selbst wenn das Einsparpotenzial durch Taktsenkungen um x% bei geringen Taktraten geringer sein sollte als bei höheren (warum?), würde es immer noch zumindest etwas bringen.
Richtig, aber du musst Werte (Taktraten, Spannungen) finden, welche alle Karten noch stabil mitmachen. Sonst gibst du am Ende für's Binning mehr aus, als du für die Karten bekommst. Außerdem soll die GPU doch nicht für jeden HD-Film in den Higfh-modus schalten

AnarchX
2008-04-12, 11:34:38
Außerdem soll die GPU doch nicht für jeden HD-Film in den Higfh-modus schalten
Die Erklärung hört sich am besten an.
Wenn die 9300GS wirklich 16SPs, wie laut GPU-Z, hat, dann entsprächen ja 16SPs@1100MHz den 32@550MHz bei der 9500GT im Low-Power-Modus.;)

Hvoralek
2008-04-12, 14:21:16
Richtig, aber du musst Werte (Taktraten, Spannungen) finden, welche alle Karten noch stabil mitmachen. Sonst gibst du am Ende für's Binning mehr aus, als du für die Karten bekommst.Meinst Du, es würde schon unter 450 MHz Probleme geben?

Die Erklärung hört sich am besten an.
Wenn die 9300GS wirklich 16SPs, wie laut GPU-Z, hat, dann entsprächen ja 16SPs@1100MHz den 32@550MHz bei der 9500GT im Low-Power-Modus.;)Ich finde auch, das klingt plausibel.

AnarchX
2008-04-13, 16:42:00
Nvidia First 55nm Desktop Graphics; GeForce 9800 GT (http://www.vr-zone.com/articles/Nvidia_First_55nm_Desktop_Graphics%3B_GeForce_9800_GT/5714.html)

Sorkalm
2008-04-13, 16:52:50
Klecker, klecker ... bin mal auf das Line-UP unterhalb des GT200 gespannt...

AnarchX
2008-04-14, 09:36:56
NVs nächter Geniestreich... X-D

8800 GS -> 9600GSO

http://img237.imageshack.us/img237/8186/ceqasahpixdoi147ea1d1ig3.jpg (http://imageshack.us)
http://vga.zol.com.cn/88/885947.html

NV macht es dem Kunden offensichtlich nicht einfach, der vielleicht auch mal in Versuchung kommt die technischen Daten zu lesen.

AnarchX
2008-04-14, 13:59:46
Also gab es doch einen G90:
http://img381.imageshack.us/img381/8062/79154e4083vj4.jpg (http://imageshack.us)

http://www.bit-tech.net/hardware/2008/04/14/nvidia_analyst_day_-_biting_back_at_intel/4

w0mbat
2008-04-14, 14:23:53
Wo siehst du das?

GeneralHanno
2008-04-14, 14:39:31
auf der X-achse steht bei 2007 "G90" , ist aber nur seeeehr schwer zu lesen ...

RoNsOn Xs
2008-04-14, 14:43:56
soll das nicht G80 heißen?! :confused:

w0mbat
2008-04-14, 15:15:15
Also ich lese da G80.

Gast
2008-04-14, 18:48:53
Im Text dazu wird auch G80 geschrieben... ohje

mrt
2008-04-14, 19:00:46
Da steht auch G80, einen G90 gab es nie wirklich bzw G90=G92 ;)

GeneralHanno
2008-04-16, 13:02:12
fudzilla blubbert wieder irgend was vom G92 nachfolger ...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6858&Itemid=1

Die gelbe Eule
2008-04-19, 17:14:42
Im Gewinnspiel von EVGA taucht eine 9700GT mit 768MB RAM auf. Könnte eine 8800GS basierende GPU mit doppelter Bandbreite werden. Wink mit dem Zaunpfahl?

AnarchX
2008-04-19, 17:23:01
Link?

Und wie kommst du auf die Idee mit der doppelten Bandbreite, die bei 768MB ein 384-Bit SI, was G92 sicherlich nicht hat und wohl kaum auf einer 9700 zum Einsatz kommen würde, nach sich ziehen würde? :|

GeneralHanno
2008-04-19, 18:06:27
Im Gewinnspiel von EVGA taucht eine 9700GT mit 768MB RAM auf. Könnte eine 8800GS basierende GPU mit doppelter Bandbreite werden. Wink mit dem Zaunpfahl?

das ist einfach eine zwischenstufe zwischen 9800 und 9600, also ein G92@192bit@756MiB ...

Thunder99
2008-04-22, 23:51:05
das ist einfach eine zwischenstufe zwischen 9800 und 9600, also ein G92@192bit@756MiB ...
...und ordentliche Taktrate, also mehr als die 9600GSO...

AnarchX
2008-04-24, 13:47:33
Laut Chiphell soll G92 allein $100 kosten und mit den Shrink auf 55nm soll man die Kosten auf $70-80 senken können:
http://forums.vr-zone.com/showthread.php?t=266999

Gast
2008-04-24, 13:50:34
Laut Chiphell soll G92 allein $100 kosten und mit den Shrink auf 55nm soll man die Kosten auf $70-80 senken können:
http://forums.vr-zone.com/showthread.php?t=266999

Das wäre aber verdammt teuer wenn man bedenkt das man ganze Karten mit Stromversorgung und RAM schon für deutlich unter 200$ bekommt. Viel Gewinn kann da nicht mehr übrig bleiben.

reunion

GeneralHanno
2008-05-01, 13:19:38
die 9800GT soll mit dem G92b kommen, aber auf einigen 9800GT soll auch noch der G92a-65nm verbaut werden!

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/geforce_9800_gt_g92_55_65/

€dit: das ganze mal etwas weiter-gesponnen:
- kein GDDR5 für G92b (zumind. vorerst)
- keine wesentlich höheren taktraten (ich denke 650mhz ist real.)
- primärziel: reine kostenreduktion!

RoNsOn Xs
2008-05-01, 13:42:05
wo wird die sich platzieren? was wird sie kosten? hat sie andere specs als die 88gt?

Snoopy1978
2008-05-01, 13:48:36
Platzierung wird möglicherweise das obere Performance Segment sein und der Preis,tippe ich mal, wird um die 200 Euro herum liegen.Zu den Specs wies ich nichts zu sagen.

w0mbat
2008-05-01, 13:48:38
Die 9800GT wird wohl eine leicht höhere getaktete 8800GT mit Hybrid-SLI und je nach Ausführung in 55nm.

puntarenas
2008-05-01, 13:53:47
Platzierung wird möglicherweise das obere Performance Segment sein und der Preis,tippe ich mal, wird um die 200 Euro herum liegen.Zu den Specs wies ich nichts zu sagen.
Wohl kaum, die 9800GTX geht ja bereits für gut 200€ über die Ladentheke und bis zum Release ist noch etwas hin. 150€ bis 180€ wären wohl ein angemessener Listenpreis und mit dem kostengünstigeren Prozess vielleicht sogar endlich profitabel :)

RoNsOn Xs
2008-05-01, 14:45:12
aber wer sollte sich das gute stück kaufen, nur weils ein 55nm prozess ist? :confused:

GeneralHanno
2008-05-01, 15:24:06
ich denke die namen "9xxx", "tri-sli-ready" und "hybrid-sli" wird sich nvidia teuer bezahlen lassen ;)

preislich wird sie etwa die 8800GTS-512 ersetzen.

Paul Brain
2008-05-02, 12:46:27
ich denke die namen "9xxx", "tri-sli-ready" und "hybrid-sli" wird sich nvidia teuer bezahlen lassen ;)

preislich wird sie etwa die 8800GTS-512 ersetzen.
...aber wohl langsamer sein als diese, damit sich die 9800GTX mehr als die derzeitigen ~2% absetzen kann... :|

GeneralHanno
2008-05-02, 12:59:29
das ergibt sich von alleine, wenn die 9800GT mit 7 clustern (verbesserte ausbeute), max. 650mhz und 1,0ns GDDR3-ram kommt ...

Paul Brain
2008-05-02, 13:37:23
das ergibt sich von alleine, wenn die 9800GT mit 7 clustern (verbesserte ausbeute), max. 650mhz und 1,0ns GDDR3-ram kommt ...
Ist mir schon klar, wollte nur mal wieder meinen Frust über die 9er-Serie loswerden: Gleiche oder sogar schlechtere Produkte zu einem höheren Preis zu verkaufen, dazu gehört schon was...

Hvoralek
2008-05-02, 15:41:31
das ergibt sich von alleine, wenn die 9800GT mit 7 clustern (verbesserte ausbeute), max. 650mhz und 1,0ns GDDR3-ram kommt ...Wenn ich mir ansehe, wie "sehr" die 9600 GT an vier statt acht Clustern leidet, werden sieben statt acht die 9800 GT fast nichts kosten gegenüber der GTS 512.

dargo
2008-05-02, 16:41:02
aber wer sollte sich das gute stück kaufen, nur weils ein 55nm prozess ist? :confused:
Die, die noch einen R520/R580 oder G70/G71 in Betrieb haben und jetzt mehr Leistung brauchen.

GeneralHanno
2008-05-02, 16:41:05
du hast schon recht, Hvoralek, aber in der GF9 serie gilt dann nach leistung:
9800GX2 > 9800GTX > 9800GT > 9600GT

das "trauige" ist aber, dass diese karten verhältnismäßig recht dicht beisammenliegen:
sprich die high-end GX2 ist "kaum" schneller als die mainstream 9600GT:
bsp 1600x1200 4xAA/16xAF: GX2 183% zu 96GT 100%

MSABK
2008-05-02, 17:03:54
Gibt es schon genaue Infos zur 9500 GT?

AnarchX
2008-05-02, 17:10:50
Wohl mehr oder weniger eine günstigere 8600GTS, die dazu noch etwas sparsamer ist und wohl den VP3 mitbringt.
Mit Glück ist sogar ein Stromsparmechanismus vorhanden:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6423232&postcount=532

GeneralHanno
2008-05-02, 17:16:18
Gibt es schon genaue Infos zur 9500 GT?
ist quasi eine 8600GT (32SP, 128bit SI) im aktuellen 65nm prozess und mit ner 9 im namen. (vergleichbar mit ATis "glanzleistung" 2600->3650 :biggrin:)

Hvoralek
2008-05-03, 14:01:27
das "trauige" ist aber, dass diese karten verhältnismäßig recht dicht beisammenliegen:
sprich die high-end GX2 ist "kaum" schneller als die mainstream 9600GT:
bsp 1600x1200 4xAA/16xAF: GX2 183% zu 96GT 100%Dass das High- End ungefähr doppelt so schnell ist wie Mainstream, war früher mal normal.

LovesuckZ
2008-05-03, 14:25:09
Das lag aber auch daran, dass das High-End früher nicht so riesig war.

GeneralHanno
2008-05-03, 14:39:00
und "früher" war high-end auch noch single-GPU ;)

LovesuckZ
2008-05-03, 14:44:16
Nicht mehr seit der SLI Einführung von nVidia. Zwei GPUs bzw. zwei Platinen zu "einer" Karte ist also nur der logische Schritt gewesen.

GeneralHanno
2008-05-03, 14:49:19
Nicht mehr seit der SLI Einführung von nVidia. Zwei GPUs bzw. zwei Platinen zu "einer" Karte ist also nur der logische Schritt gewesen.
das gibt nen rüffel von raff :biggrin:
es wäre mir neu, dass NVIDIA SLI erfunden hat (als high-end-etablierte) ;)

LovesuckZ
2008-05-03, 14:50:33
Ich hatte vorher sogar kein "von nVdia".
Es sollte klar sein, was ich meine.

Sorkalm
2008-05-06, 23:02:25
Test der 9500 GT
http://en.expreview.com/2008/05/06/review-nvidia-geforce-9500gt

Interessant ist noch folgendes:

- die Karte hat einen Idle-Modus, taktet also automatisch herunter
- der GPU-Takt ist wieder an den PCIe-Takt gebunden
- keine Veränderungen beim Videoprozessor (gegenüber G84)

reunion
2008-05-13, 17:13:54
Die 9800GT, welche zT bereits auf den 55nm G92b basieren soll, wird mit 600Mhz takten und noch im Juni vorgestellt:
http://www.vr-zone.com/articles/55nm_GeForce_9800_GT_Final_Clocks/5771.html

Also gleiche Taktraten für beide Versionen. Da scheint auch nV aus dem 55nm Prozess keine höheren Taktraten heraus holen zu können.

GeneralHanno
2008-05-13, 17:45:00
können sicherlich schon, nvidia will nicht ;)

schließlich soll die 9800GT ja eines kostenoptimiertes performenceprodukt werden - nicht mehr und nicht weniger ...

Sorkalm
2008-05-20, 14:07:38
Aldi bringt Montag einen PC mit einer "Geforce 9500 GT" (mit DDR3-Speicher, also vermutlich GDDR3):
http://www.medion.de/ms/aldi/md8835/sued/flash.html

Genau Details stehen nicht da. Ob das nun was umgelabeltes ist, kann ich aber nicht sagen. An einen G96 glaube ich aber noch nicht...

AnarchX
2008-05-20, 15:46:50
Warum soll es keine echte 9500 GT sein, G96 hat schon seit Monaten sein Tape-Out hinter sich und der 55nm Shrink soll ja laut VR-Zone auch schon anstehen.

Aber interessant, dass ALDI diesmal auf AMD bei der CPU setzt.

Sorkalm
2008-05-27, 13:35:10
On G92 (and presumably G92b), Hara claimed 'that product has a lifecycle of another 6-8 to 12 months' and then continued on to say that 'the new stuff that is coming out the next 3 to 4 months is all on top of it, positioned above it'.

http://www.beyond3d.com/content/news/642

Womit wir wohl bis 2009 mit G92(b) als Performance-Chip rechnen müssen.

Hvoralek
2008-05-27, 13:41:54
http://www.beyond3d.com/content/news/642

Womit wir wohl bis 2009 mit G92(b) als Performance-Chip rechnen müssen.Dabei ist wohl zweifelhaft, ob der Chip in 8 - 12 Monaten noch im Performancesegment liegen wird. Das Spitzenmodell mag mit ~ 200€ starten, aber in der Zeit wird ziemlich sicher einiges von dem darüber angesetzten in den Preisbereich rutschen.

Sorkalm
2008-05-27, 14:02:36
Naja, der Chip ist immer noch ein ziemlicher Klopper, auch G92b ist noch ziemlich groß. Verschleudert wird das Zeug ja eh schon (8800 GT), irgendwas wird doch Nvidia noch verdienen wollen?
576 mm² im Performance-Segment wären dann nochmal einige Nummern schärfer. ;)

Hvoralek
2008-05-27, 14:06:33
Naja, der Chip ist immer noch ein ziemlicher Klopper, auch G92b ist noch ziemlich groß. Verschleudert wird das Zeug ja eh schon (8800 GT), irgendwas wird doch Nvidia noch verdienen wollen?
576 mm² im Performance-Segment wären dann nochmal einige Nummern schärfer. ;)Ich stelle mir da eher einen etwas abgespeckten GT200 in 55 nm gegen Jahresende vor. Mit 8C/ 4*64 könnte man so bei 350 mm² liegen, was sich mit GDDR5 doch ganz gut im Bereich von 200 - 300€ machen würde.

LovesuckZ
2008-05-27, 15:43:28
Ich stelle mir da eher einen etwas abgespeckten GT200 in 55 nm gegen Jahresende vor. Mit 8C/ 4*64 könnte man so bei 350 mm² liegen, was sich mit GDDR5 doch ganz gut im Bereich von 200 - 300€ machen würde.

Niemals. Der G92b ist ca. 285mm² groß. Ein solcher Chip sollte mindesten 400mm² haben.
Der G92b ist die Konsequenz aus den niedrigen Preisen: Lange Produktzyklen.

Hvoralek
2008-05-27, 16:12:47
Niemals. Der G92b ist ca. 285mm² groß. Ein solcher Chip sollte mindesten 400mm² haben.Bei einem idealen Shrink würde ein voller "GT200b" 412 mm² messen. Selbst bei einem praktischen Skrink sollte man durch die Einsparung von 2 C und der Hälfte der (dicken und sicher nicht billigen) ROPs deutlich darunter kommen.

Der G92b ist die Konsequenz aus den niedrigen Preisen: Lange Produktzyklen.Oh, stimmt: Wenn eine 3870 300€ kosten würde und eine 8800 GT 350€ oder so, würde man uns wahrscheinlich die nächsten Monate noch zweimal dieselben Modelle mit neuen Namen und zu niedrigeren Preisen als tolle Neuerung vorsetzen :rolleyes:

Wo ist das Problem, wenn längere Zeit dieselben Modelle angeboten werden, dabei alle nach und nach in niedrigere Preissegmente rutschen und oben "angebaut" wird? Nennenswerte technologische Fortschritte gibt es imM nicht.

LovesuckZ
2008-05-27, 16:47:29
Bei einem idealen Shrink würde ein voller "GT200b" 412 mm² messen. Selbst bei einem praktischen Skrink sollte man durch die Einsparung von 2 C und der Hälfte der (dicken und sicher nicht billigen) ROPs deutlich darunter kommen.

Ja, so "ideal" wie man es beim G92 angenommen hat?


Oh, stimmt: Wenn eine 3870 300€ kosten würde und eine 8800 GT 350€ oder so, würde man uns wahrscheinlich die nächsten Monate noch zweimal dieselben Modelle mit neuen Namen und zu niedrigeren Preisen als tolle Neuerung vorsetzen :rolleyes:

Was erwartest du, wenn der Markt zusammenbricht? Heute muss man 192mm² bzw. 240mm² für unter 100€ verkaufen. 324mm² unter 200€. Und du willst einen fast 400mm² Chip in den Bereich zwischen 200-300€ ansiedeln?


Wo ist das Problem, wenn längere Zeit dieselben Modelle angeboten werden, dabei alle nach und nach in niedrigere Preissegmente rutschen und oben "angebaut" wird? Nennenswerte technologische Fortschritte gibt es imM nicht.

Das Problem liegt in der Erwartungshaltung. Immer mehr, immer mehr.

Hvoralek
2008-05-27, 17:09:04
Ja, so "ideal" wie man es beim G92 angenommen hat?G92 ist deutlich komplexer als G80. Da lag das Problem nicht im Fertigungsprozess.

Was erwartest du, wenn der Markt zusammenbricht? Heute muss man 192mm² bzw. 240mm² für unter 100€ verkaufen. 324mm² unter 200€. Und du willst einen fast 400mm² Chip in den Bereich zwischen 200-300€ ansiedeln?Ich sehe keinen zusammengebrochenen Markt. Und ja, ich gehe davon aus, dass man einen 350- oder meinetwegen auch 400- mm²- Chip für 200- 300€ rentabel verkaufen kann, wenn sich ein kaum kleinerer Chip für 120 - 200€ noch lohnt. Und selbst mit G92 fährt Nvidia ja keine Verluste ein, man hatte im Vorfeld nur noch bessere Margen erwartet.

Das Problem liegt in der Erwartungshaltung. Immer mehr, immer mehr.Jetzt sag bitte nicht, Du erwartest in der Branche keine kontunuiertliche Entwicklung und wärst glücklich, heute noch 700€ für eine Geforce 2 Ultra ausgeben zu können. Die Erwartungshaltung ist in der Branche selbstverständlich und z.Z. auch noch völlig berechtigt. Entscheidend ist, dass man zum gleichen Preis zu einem späteren Zeitpunkt bessere Hardware bekommt. Wenn das z.B. eine 8800 GT Nov. 2007 für 250€, Frühjahr 2008 für 160€ und Ende 2008 vll. für 100€ ist, ist das genauso gut oder schlecht als wenn man jedesmal ein neues, im Grunde gleiches Modell gebracht hätte. Die Preise sinken auf Dauer durch einerseits feinere und zweitens ausreifende Fertigungsverfahren, die Modellreihe wird nach oben erweitert, die kleineren Modelle rutschen nach unten durch, und technologisch ist das alles bei Nvidia D3D10.0 und bei AMD D3D10.1. Klappt doch.

LovesuckZ
2008-05-27, 17:16:33
Ich sehe keinen zusammengebrochenen Markt. Und ja, ich gehe davon aus, dass man einen 350- oder meinetwegen auch 400- mm²- Chip für 200- 300€ rentabel verkaufen kann, wenn sich ein kaum kleinerer Chip für 120 - 200€ noch lohnt. Und selbst mit G92 fährt Nvidia ja keine Verluste ein, man hatte im Vorfeld nur noch bessere Margen erwartet.

nVidia fährt keine Verluste ein - AMD dagegen schon. Was bringt dir ein Markt, der nur aus nVidia besteht?


Jetzt sag bitte nicht, Du erwartest in der Branche keine kontunuiertliche Entwicklung und wärst glücklich, heute noch 700€ für eine Geforce 2 Ultra ausgeben zu können. Die Erwartungshaltung ist in der Branche selbstverständlich und z.Z. auch noch völlig berechtigt. Entscheidend ist, dass man zum gleichen Preis zu einem späteren Zeitpunkt bessere Hardware bekommt. Wenn das z.B. eine 8800 GT Nov. 2007 für 250€, Frühjahr 2008 für 160€ und Ende 2008 vll. für 100€ ist, ist das genauso gut oder schlecht als wenn man jedesmal ein neues, im Grunde gleiches Modell gebracht hätte. Die Preise sinken auf Dauer durch einerseits feinere und zweitens ausreifende Fertigungsverfahren, die Modellreihe wird nach oben erweitert, die kleineren Modelle rutschen nach unten durch, und technologisch ist das alles bei Nvidia D3D10.0 und bei AMD D3D10.1. Klappt doch.

Wenn der Preis von 250€ auf 125€ in 6 Monate einbricht, ist das keine kontinuierliche Entwicklung. Sie zeigt, dass man mehr Aufwand für weniger Gewinn dürchführen muss. Das ist kurzfristig für den Kunden gut. Langfristig wird es jedoch zu deutlich längeren Produktzyklen und einen aussteigenden Konkurrenten führen.

Hvoralek
2008-05-27, 17:26:47
nVidia fährt keine Verluste ein - AMD dagegen schon. Was bringt dir ein Markt, der nur aus nVidia besteht?Ja natürlich, wenn AMDs GPU- Sparte ein paar Quartale mal Verluste einfährt (Wie viel war das zuletzt? $11 Mio.?), wird AMD umgehend pleite gehen. Gewisse Schwankungen sind da normal, auch AMDs Prozessorsparte hat immer mal wieder Verluste gemacht. Solange sich das zumindest mittelfristig ausgleicht, mache ich mir keine Sorgen.

Wenn der Preis von 250€ auf 125€ in 6 Monate einbricht, ist das keine kontinuierliche Entwicklung.Im Nov. war noch Nachfrage >> Angebot. Wenn Nvidia ausreichend hätte liefern können, hätte man wohl Preise um 200€ gehabt; die Entwicklung ist im GraKamarkt normal. Und bitte: Kontinuierliche Entwicklung bedeutet auch nicht, dass jeden Monat alles gleichmäßig um eine bestimmten Prozentsatz günstiger wird, sondern, dass die grobe Entwicklung mittelfrisitg stattfindet. Wenn Dir das imM zu schnell geht, schau Dir mal die die G80- Preisentwicklung über das erst volle Jahr nach Markteintritt an.

Sie zeigt, dass man mehr Aufwand für weniger Gewinn dürchführen muss.Ich verstehe nicht, was Du mit dem Satz meinst.

Die momentane Preisentwicklung in dem Bereich zeigt mir v.a., dass AMD und Nvidia imM ungefähr gleich gut aufgestellt sind. Und etwas besseres als etwa gleich starke konkurrierende Unternehmen kann dem Kunden kaum passieren.

LovesuckZ
2008-05-27, 17:36:50
Ja natürlich, wenn AMDs GPU- Sparte ein paar Quartale mal Verluste einfährt (Wie viel war das zuletzt? $11 Mio.?), wird AMD umgehend pleite gehen. Gewisse Schwankungen sind da normal, auch AMDs Prozessorsparte hat immer mal wieder Verluste gemacht. Solange sich das zumindest mittelfristig ausgleicht, mache ich mir keine Sorgen.

AMD wird nicht jetzt Pleite gehen. Sie können sich auch einfach aus dem Markt zurückziehen.


Im Nov. war noch Nachfrage >> Angebot. Wenn Nvidia ausreichend hätte liefern können, hätte man wohl Preise um 200€ gehabt; die Entwicklung ist im GraKamarkt normal. Und bitte: Kontinuierliche Entwicklung bedeutet auch nicht, dass jeden Monat alles gleichmäßig um eine bestimmten Prozentsatz günstiger wird, sondern, dass die grobe Entwicklung mittelfrisitg stattfindet. Wenn Dir das imM zu schnell geht, schau Dir mal die die G80- Preisentwicklung über das erst volle Jahr nach Markteintritt an.

nVidia musste die Preise senken als AMD gleichmal um 25% runterging. Dann ist der Preis nochmal um die Hälfte eingebrochen. Bei AMD von 200€ auf 100€.
AMD hat es zweimal probiert, nie hat es geklappt. Weder mit der 2400/2600 noch mit den jetzigen Karten konnte man ins Plus kommen.


Ich verstehe nicht, was Du mit dem Satz meinst.

Was gibt es daran nicht zu verstehen? Der G84 war 169mm² und kostete 150€. Der G94 ist 240mm² und wurde für 130€ gelauncht und liegt unter 100€. Dazu kommt noch der G92. Größerer Aufwand, bei kleinerem Endpreis resuliert in weniger Gewinn pro Chip. Gehen die Verkaufszahlen zurück, wird auch der Gewinn kleiner. Um dies auszugleichen, wird der Chip eben geshrinkt und wieder auf den Markt geworfen.


Die momentane Preisentwicklung in dem Bereich zeigt mir v.a., dass AMD und Nvidia imM ungefähr gleich gut aufgestellt sind. Und etwas besseres als etwa gleich starke konkurrierende Unternehmen kann dem Kunden kaum passieren.

Sie sind nicht konkurrenzfähig. Wären sie es, gäbe es halbwegs konstante Preise am Markt. Siehe G71 und r580. AMD hat die Preise deutlich gesenkt, nVidia musste nachziehen. nVidia brachte den G94, AMD senkte wieder die Preise deutlich. Also musste nVidia mit dem G94 nachziehen.
Errinnert ein bisschen an den CPU Markt - macht AMD da eigentlich schon wieder Gewinn?

Hvoralek
2008-05-27, 17:58:37
AMD wird nicht jetzt Pleite gehen. Sie können sich auch einfach aus dem Markt zurückziehen.Und auch das machen sie natürlich nach ein paar Verlustquartalen. Nachdem man noch Modellreihen in der Planung und Entwicklung hat, in die auch schon viel Geld gesteckt wurde. Ein Ausstieg droht nur, wenn die Aussichten, mit der Sparte wieder schwarze Zahlen zu schreiben, auf lange Sicht schlecht sind, und auch dann wohl nicht plötzlich, sondern auf Raten.

nVidia musste die Preise senken als AMD gleichmal um 25% runterging. Dann ist der Preis nochmal um die Hälfte eingebrochen. Bei AMD von 200€ auf 100€.
AMD hat es zweimal probiert, nie hat es geklappt. Weder mit der 2400/2600 noch mit den jetzigen Karten konnte man ins Plus kommen.Was hat das mit meiner Aussage zu tun, dass die Preisentwicklung bei der 8800 GT normal verlaufen wäre, wenn nicht zeitweise durch enorme Nachfrage der Preis weit überhöht ausgefallen wäre? Oder möchtest Du jetzt irgendwie AMD die Schuld die hohe Nachfrage zuweisen und ich kapiere das nur nicht?

Was gibt es daran nicht zu verstehen? Der G84 war 169mm² und kostete 150€. Der G94 ist 240mm² und wurde für 130€ gelauncht und liegt unter 100€. Dazu kommt noch der G92. Größerer Aufwand, bei kleinerem Endpreis resuliert in weniger Gewinn pro Chip. Gehen die Verkaufszahlen zurück, wird auch der Gewinn kleiner. Um dies auszugleichen, wird der Chip eben geshrinkt und wieder auf den Markt geworfen.Also meinst Du einfach nur, dass man größere Chips ("mehr Aufwand durchführen" :|) im gleichen Preissegment anbieten muss und dadurch die Margen sinken? Das stimmt natürlich. Und?

Sie sind nicht konkurrenzfähig. Wären sie es, gäbe es halbwegs konstante Preise am Markt. Siehe G71 und r580. AMD hat die Preise deutlich gesenkt, nVidia musste nachziehen. nVidia brachte den G94, AMD senkte wieder die Preise deutlich. Also musste nVidia mit dem G94 nachziehen.
Errinnert ein bisschen an den CPU Markt - macht AMD da eigentlich schon wieder Gewinn?Was mit imM sehen, nennt sich "Preiskampf". So etwas passiert, wenn mehrere Unternehmen ähnliche Produkte anbieten und dabei ähnlich gute Angebote machen können.

AnarchX
2008-06-18, 10:17:33
Wundertreiber für G92, der sein volles Potential weckt:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7975&Itemid=34
?
;D

Sorkalm
2008-06-18, 10:37:32
177.34@G92? :D

Hvoralek
2008-06-18, 12:31:06
Wundertreiber für G92, der sein volles Potential weckt:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7975&Itemid=34
?
;DJa, ne, is klar :|

Ich kann mir eher vorstellen, dass "9800 GTX+" eine Neuauflage der Karte ist mit höheren Taktraten.

Anarchy-HWLUXX
2008-06-18, 13:18:46
Fudzie labert müll ... software ist software und hardware ist hardware ...

seahawk
2008-06-18, 13:37:35
Fudzie labert müll ... software ist software und hardware ist hardware ...

Gut aber wie die vorhandene Hardware ausgenutzt wird ist dann eben auch wieder Treibersache. (nicht das ich FUAD glauben würde)

AnarchX
2008-06-19, 07:49:53
Laut PHK soll die 9800GTX+ am 26.5. gelauncht werden. ;)

AnarchX
2008-06-19, 08:20:35
We are excited to announce the new NVIDIA GeForce 9800 GTX+ GPU that sets a new price performance bar in the GeForce 9 family.

The GeForce 9800 GTX+ takes the highly efficient G92-based GeForce 9800 GTX and offers unbeatable value for value conscious gamers.

Key product points:

· GeForce 9800 GTX+ is the best single card price/performance at $229; the original GeForce 9800 GTX will transition to $199
· Processor clock of 1836MHz and graphics clock of 738MHz
· GeForce PhysX support! World’s only physics API for both the CPU and the GPU!
· Support for CUDA-based applications, including Folding@Home and Badaboom video transcoding applications.
· Support for 2-way and 3-way SLI
http://my.ocworkbench.com/bbs/showthread.php?p=432833#post432833

Preiskampf! :up:

Jetzt fehlt nur noch die 9800GX2+ für $329-349. ;D

Anarchy-HWLUXX
2008-06-19, 09:39:14
Ich glaub das erst wenn ich es sehe ... und zwar auf der nVidia Homepage.

Nicht von Kartenherstellern die die Takte anpassen können wie se lustig sind.

Anarchy-HWLUXX
2008-06-19, 09:44:43
Gut aber wie die vorhandene Hardware ausgenutzt wird ist dann eben auch wieder Treibersache. (nicht das ich FUAD glauben würde)
Wann wurd schomal auf einer großserien GPU ein veature erst nachträglich aktiviert - und zwar mit absicht ?

@ GTX+ : Der Name passt mal sowas von garnicht in das bisherige Schema :|

Und da Die Taktraten erhöht wurden wird des sicher kein Treibertrick.

AnarchX
2008-06-19, 11:32:30
@ GTX+ : Der Name passt mal sowas von garnicht in das bisherige Schema :|

Bei dem Namenswirwarr bei GF8/9 kommt es wohl auch nicht mehr drauf an. ;D

Mal sehen, was beim Speicher passiert, die Steigerung bei der GPU ist mit 9% nicht unbedingt hoch, wenn auch mit $30 noch akzeptabel im Vergleich zu den OC-GTX.

Aber schon ziemlich amüsant, wie NV mit einem 10.5" PCB und dickem Dual-Slot-Kühler gegen die von der HW eher billig daherkommende 4850 antritt. Vielleicht kann ja G92B noch etwas helfen die BOM akzeptabel zu halten.

reunion
2008-06-19, 11:37:35
Aber schon ziemlich amüsant, wie NV mit einem 10.5" PCB und dickem Dual-Slot-Kühler gegen die von der HW eher billig daherkommende 4850 antritt. Vielleicht kann ja G92B noch etwas helfen die BOM akzeptabel zu halten.

Vorallem ist das Ding noch immer zu wenig. 30$ mehr als eine 4850 für weniger Leistung und mehr Stromverbauch braucht niemand.

AnarchX
2008-06-19, 11:52:59
und mehr Stromverbauch braucht niemand.
What makes this all possible? The 9800 GTX+ is the 55nm refresh of G92 - all current 9800-series cards are built on 65nm technology.

http://www.pcper.com/comments.php?nid=5814

;)

Speichertakt scheint aus Kostengründen wohl nur 1GHz zu sein.

dildo4u
2008-06-19, 11:57:07
"Check back tomorrow for more details and comparisons to this puppy"

Also schon Morgen ein Test gegen die 4850.

Sorkalm
2008-06-19, 12:26:01
Speichertakt scheint aus Kostengründen wohl nur 1GHz zu sein.

Das verkehrt doch das "+" völlig.

Gast
2008-06-19, 12:27:27
wenn die boardpartner das neue baby dann auf 800mhz core übertakten wäre es sicher ne überlegung wert...

taktpotential dürfte der neue chip dank 55nm sicherlich haben und wenn dann der stromverbrauch stimmt könnte es eine gute alternative zum 4850 werden ;)

AnarchX
2008-06-19, 12:45:14
NVs PR-Maschine ist fleißig am Arbeiten:
AMD’s Radeon HD 4850 has 800 shader cores. The GeForce 9800 GTX+ has only 128 cores. Doesn’t this put you at a disadvantage?

Core counts are as about as useful as MHz ratings. In the end, it comes down to real world performance. Our cores are designed to be exceptionally efficient and operate at near full utilization.

If you were to normalize 3DMark Vantage performance, per core, it would give you a better sense of the relative performance of different cores.
http://forum.beyond3d.com/showpost.php?p=1178466&postcount=4014

Sorkalm
2008-06-19, 13:10:24
Die Marketingmaschine hätte sich mal lieber einen sinnvolleren Namen für die 9800 GTX+ einfallen lassen sollen :whistle:

James Ryan
2008-06-19, 13:16:18
Wäre Geforce 9800 Ultra nicht "etwas" sinniger?
Oder von mir aus auch Geforce 9900 GTX. Aber Geforce 9800 GTX+ geht ja mal garnicht! :|

MfG :cool:

AnarchX
2008-06-19, 13:24:37
Wäre Geforce 9800 Ultra nicht "etwas" sinniger?
Oder von mir aus auch Geforce 9900 GTX. Aber Geforce 9800 GTX+ geht ja mal garnicht! :|


Die 9800Ultra kommt vielleicht noch als Angriff auf die 4870 von unten?

AnarchX
2008-06-19, 13:31:37
Wundertreiber aka PhysX-Treiber:
Use of the PhysX driver, 3 DMark Vantage's score was boosted to 7,000 to 8,000 degrees, Unreal Tournament 3 (PhysX enabled)弱からframe rate of 30 fps to 70 fps ultra improve.
http://pc.watch.impress.co.jp/docs/2008/0619/nvidia.htm?ref=rss

;)

Spasstiger
2008-06-19, 13:36:43
Die 9800Ultra kommt vielleicht noch als Angriff auf die 4870 von unten?
Aber wie soll ein G92-Deriviat dem RV770 gefährlich werden? Selbst die Radeon HD4850 ist teilweise doppelt so schnell wie die 9800 GTX in 1920x1200 mit 4xAA.
Gut, Nvidia wird dann wohl die Benchmarks rauskramen, die sie im gewünschten Licht dastehen lassen.

/EDIT: Das mit dem doppelt so schnell kommt wohl nicht hin, aber hier ist die HD4850 zumindest in World in Conflict und Crysis @ 1920x1200 mit 4xAA einer 9800 GTX deutlich überlegen: http://www.hardware.fr/articles/724-7/preview-ati-radeon-hd-4850.html. Ohne AA schenken sich die beiden Karten nicht viel.

AnarchX
2008-06-19, 13:38:52
Aber wie soll ein G92-Deriviat dem RV770 gefährlich werden? Selbst die Radeon HD4850 ist teilweise doppelt so schnell wie die 9800 GTX in 1920x1200 mit 4xAA.
Wo? HW.fr misst doch gerade mal 18% Vorsprung für die 4850 über der alten 9800GTX in 1920x1200 mit 4xAA.

Anarchy-HWLUXX
2008-06-19, 13:41:11
Wo? HW.fr misst doch gerade mal 18% Vorsprung für die 4850 über der alten 9800GTX in 1920x1200 mit 4xAA.
Na in ausgesuchten worst-case benches ;)

dildo4u
2008-06-19, 13:44:12
Selbst die Radeon HD4850 ist teilweise doppelt so schnell wie die 9800 GTX in 1920x1200 mit 4xAA.
Gut, Nvidia wird dann wohl die Benchmarks rauskramen, die sie im gewünschten Licht dastehen lassen.
Wenn der V-Ram ausgeht klar dann bricht die 9800GTX schon mal komplett weg es wird aber 9800GTX mit 1GB Ram geben in der Realität liegen beide Karte ca gleich auf.Imo sind aber beide Karten nicht in der Lage anspruchsvolle Games wie Crysis/Call of Juarez etc bei 1920*1200 mit 4XAA flüssig zu rendern ob man dann 8 gegen 16fps hat spielt da auch keine Rolle.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6597219&postcount=133

http://www.pcper.com/article.php?aid=579&type=expert&pid=4

Spasstiger
2008-06-19, 13:52:40
Ich frage mich halt, ob die Einbrüche beim G92 in hohen Qualisettings wirklich nur vom VRAM kommen. Ich hab momentan eine 8800 GT 1 GiB VRAM testweise im Rechner und es ist schon pervers, wie die mit TSSAA und 8xAA wegbricht. Meine HD2900 Pro zeigt sich da deutlich entspannter, Oblivion läuft gefühlt in 1920x1200 mit 4xTSSAA bzw. adaptivem AA sogar flüssiger auf der HD2900 Pro, gebencht hab ich es noch nicht. Es ist jedenfalls sehr hakelig und laggy auf der 8800 GT.
Mikroruckler gibts auch und zwar immer in den Phasen, in denen der VRAM vom Spiel gefüllt wird.

Jedenfalls würde ich mir nach diesem Monat wohl keinen G92-Ableger mehr kaufen. Schöner wäre ein 3/4-GT200 für ~200€.

robbitop@work
2008-06-19, 14:06:39
Ich frage mich halt, ob die Einbrüche beim G92 in hohen Qualisettings wirklich nur vom VRAM kommen. Ich hab momentan eine 8800 GT 1 GiB VRAM testweise im Rechner und es ist schon pervers, wie die mit TSSAA und 8xAA wegbricht. Meine HD2900 Pro zeigt sich da deutlich entspannter, Oblivion läuft gefühlt in 1920x1200 mit 4xTSSAA bzw. adaptivem AA sogar flüssiger auf der HD2900 Pro, gebencht hab ich es noch nicht. Es ist jedenfalls sehr hakelig und laggy auf der 8800 GT.
Mikroruckler gibts auch und zwar immer in den Phasen, in denen der VRAM vom Spiel gefüllt wird.

Jedenfalls würde ich mir nach diesem Monat wohl keinen G92-Ableger mehr kaufen. Schöner wäre ein 3/4-GT200 für ~200€.
TSSAA ist ja auch schweine teuer. Die HD2xxx Serie macht AFAIK, unabhängig von der Einstellung, nur TMAA.
8xMS ist bei der G8x/9x Schiene auch eher ungünstig. Und natürlich ist der VRAM-Faktor bei so hohem MSAA auch präsent.

Spasstiger
2008-06-19, 14:19:28
Und natürlich ist der VRAM-Faktor bei so hohem MSAA auch präsent.
Die Karte, die ich da habe, hat aber schon 1 GiB VRAM. Nur scheint das bisher nirgendwo einen Vorteil gegenüber der HD2900 Pro zu bringen. Wenn die 2900 Pro komplett wegbricht, hats die 8800 GT schon längst getan.
Einzig und allein die höhere Rohleistung macht sich bemerkbar in 10-50% höheren fps je nach Spiel und Setting.

Hvoralek
2008-06-19, 14:31:35
Die Karte, die ich da habe, hat aber schon 1 GiB VRAM. Nur scheint das bisher nirgendwo einen Vorteil gegenüber der HD2900 Pro zu bringen. Wenn die 2900 Pro komplett wegbricht, hats die 8800 GT schon längst getan.Bei 8x MSAA stimmt auf G8x auch einiges andere nicht. Die Rohfüllraten brechen damit böse ein (>> 50% ggü. 4x). Am VRAM klemmt es wohl am ehesten mit 4x MSAA in hohen Auflösungen.

Den Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=400255), der nach dem Sinn von 1 GiB RAM auf einer 8800 GT sucht, kennst Du glaube ich schon. Ergebnis dort scheint bisher zu sein, dass man nur bei D3D10- CoH bei spielbaren Einstellungen einen Vorteil für 1 GiB hat.

AnarchX
2008-06-19, 17:53:08
Jedenfalls weiß NV die 9800 GTX+ im 3DMV wohl entsprechend zu positionieren:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6598251&postcount=1

Hatte Fuad doch recht mit dem Wundertreiber.

Adam D.
2008-06-19, 17:58:59
In der Hinsicht hat Fudo meist die richtigen Informationen, nur wirft er so Sachen wie 9800GTX+ und Wundertreiber dann falsch zusammen.

Gast
2008-06-19, 18:19:54
Ich bin mal gespannt was da kommt... wesentlich besser als die 9800 GTX darf sie nicht werden, um der GTX 260 nicht zu nahe zu kommen... und soviel Platz ist da nicht dazwischen.

MSABK
2008-06-19, 18:29:49
Wann kommt eigentlich die 9500 GT?

Zockerfrettchen
2008-06-19, 19:22:15
http://www.pcgameshardware.de/aid,648210/News/Nvidia_will_HD_4850_mit_Geforce_9800_GTX_kontern/

Nur eine höher getaktete 9800gtx, nichts besonderes.... Wenns in 55nm wäre (glaube ich nicht), wäre es dennoch eine Überlegung wert.

Gast
2008-06-19, 20:01:49
ist das jetzt der G92b?

Coda
2008-06-19, 20:01:50
Ich glaub das erst wenn ich es sehe ... und zwar auf der nVidia Homepage.

Nicht von Kartenherstellern die die Takte anpassen können wie se lustig sind.
Mich wundert inzwischen gar nichts mehr.

deekey777
2008-06-19, 20:08:25
Auch Guru3D erwähnt im HD4850-Artikel die 9800GTX+.

AnarchX
2008-06-19, 20:09:41
Nvidia hat ja offenbar heute morgen, nachdem sie erfahren haben, dass die HD4850 heute schon gelauncht wird, eine Rundmail versendet. ;)

Gast
2008-06-19, 21:34:57
Werden die Teile eigentlich wirklich erst Mitte Juli vorgestellt? In Anbetracht der HD4850 würde Nvidia ein Paper Launch glaub gut tun ;)

AnarchX
2008-06-19, 21:40:55
Wohl am 25.06. und die Preise der 9800GTX werden wohl auch nächste Woche auf 4850-Niveau fallen.

AnarchX
2008-06-19, 22:15:13
G92B:
http://img54.imageshack.us/img54/9766/chipcompare2vb3.jpg
edit: Packgages sind in real gleich groß!
http://www.pcper.com/comments.php?nid=5817

Offenbar doch nur 231 mm², also tut der Preiskampf NV wohl nicht ganz so weh.

Für ~180€ Tendenz fallend sicherlich auch ein interessante* Karte, die wir AMD zu verdanken haben. ;)


*:
- CUDA mit einigen interessanten Apps
- PhysX sehr bald
- OC-Potential
- Möglichkeit zu H-SLI
...

Coda
2008-06-19, 22:19:30
Der Shrink ist aber wirklich erstaunlich gut. 40% ist mehr als man rechnerisch erwarten müsste.

AnarchX
2008-06-19, 22:21:31
Der Shrink ist aber wirklich erstaunlich gut. 40% ist mehr als man rechnerisch erwarten müsste.
Im B3D vermutet man auch, dass es wohl mehr als ein optischer Shrink war - G70-zu-G71-ähnlich.

LovesuckZ
2008-06-19, 22:41:06
nVidia könnte endlich mal die 260 Karten bringen. Warum hält man die noch zurück? Wundertreiber? :lol:

/edit: Und zum Shrink: Oh, das wird Reunion weh tun. Jetzt kann nVidia bessere Preise machen als AMD (sry, Reunion, aber soviel Sarkasmus muss sein).

dildo4u
2008-06-19, 22:47:13
nVidia könnte endlich mal die 260 Karten bringen. Warum hält man die noch zurück? Wundertreiber? :lol:

Soll am 26.6 den 4870 Launch stören/ablenken.

deekey777
2008-06-19, 22:48:47
Der Shrink ist aber wirklich erstaunlich gut. 40% ist mehr als man rechnerisch erwarten müsste.
Weil der G92 "bescheiden" gelungen ist. Der G92b ist definitiv der neue G71.

Gast
2008-06-19, 22:50:21
/edit: Und zum Shrink: Oh, das wird Reunion weh tun. Jetzt kann nVidia bessere Preise machen als AMD (sry, Reunion, aber soviel Sarkasmus muss sein).

Stimmt nicht, da das Darumherum dieser Karten teurer bleibt.

LovesuckZ
2008-06-19, 22:51:19
Wie kommst du darauf?
G92: 2,333 Millionen Transistoren/mm²
G94: 2,10 Millionen Transistoren/mm²

Stimmt nicht, da das Darumherum dieser Karten teurer bleibt.

Was soll denn teurer sein? Ist doch fast alles exakt gleich. Gleicher Speicher (0,8), ähnlicher Stromverbrauch und somit ähnliche Stromversorgung.

Nakai
2008-06-19, 22:55:04
Offenbar doch nur 231 mm², also tut der Preiskampf NV wohl nicht ganz so weh.

Für ~180€ Tendenz fallend sicherlich auch ein interessante* Karte, die wir AMD zu verdanken haben.

Wow, das sieht echt gut aus.

Der G92b ist definitiv der neue G71.

Nein, das denke ich nicht. Der G71 hat wenigstens 40 bis 50% höheren Takt mit sich gebracht. Beim G92b wird es sowas wohl nicht geben. Es lohnt sich nichtmal.
Ich hoffe, dass man endlich den Stromverbrauch senken konnte.


mfg Nakai

€: Egal Deutschland hat gewonnen....:ulol5::umassa::umassa:

AnarchX
2008-06-19, 23:00:29
Nein, das denke ich nicht. Der G71 hat wenigstens 40 bis 50% höheren Takt mit sich gebracht. Beim G92b wird es sowas wohl nicht geben. Es lohnt sich nichtmal.
Ich hoffe, dass man endlich den Stromverbrauch senken konnte.

Nunja, man verwendet ja offenbar das 98GTX-PCB weiter, was natürlich auch bedeuten könnte, dass man für Tri-SLI kein neues PCB entwickeln wollte und man dank der fetten Stromversorgung ordentliches OC-Potential (mit VMod) hat. :D

edit:
Die Die-Size kann wohl doch nicht ganz stimmen, wenn man sich beide Packages auf den Karten anschaut, die doch gleich groß sind.
Wohl doch die 27xmm².

BvB123
2008-06-19, 23:31:20
9800GTX+
http://www.pcper.com/images/news/9800gtx+/chip_55nm.jpg

9800GTX
http://www.pcper.com/images/news/9800gtx+/chip_65nm,.jpg

Gruß

Anarchy-HWLUXX
2008-06-19, 23:48:34
Mich wundert inzwischen gar nichts mehr.
So schauts aus ... wenn man eh ne neue Namensgebung einführt kann man die alte auch komplett über den haufen werfen ;D


Mehr News dazu :

http://www.techpowerup.com/63380/NVIDIA_Gently_Intros_GeForce_9800_GTX+.html

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juni/nvidia_geforce_9800_gtx/

AnarchX
2008-06-20, 00:15:00
http://www.anandtech.com/video/showdoc.aspx?i=3338&p=3
;)

AnarchX
2008-06-20, 01:19:59
Radeon HD 4850 512MB and GeForce 9800 GTX+ Performance Quick Take
(http://www.firingsquad.com/hardware/amd_radeon_hd_4850_geforce_9800_gtx+/)
... trotz altem FW175 reicht es offenbar für einen Sieg. ;)

dildo4u
2008-06-20, 01:23:02
Radeon HD 4850 512MB and GeForce 9800 GTX+ Performance Quick Take
(http://www.firingsquad.com/hardware/amd_radeon_hd_4850_geforce_9800_gtx+/)
... trotz altem FW175 reicht es offenbar für einen Sieg. ;)
Dort steht auch was von 1.1Ghz Speichertakt.

Hvoralek
2008-06-20, 01:33:45
Radeon HD 4850 512MB and GeForce 9800 GTX+ Performance Quick Take
(http://www.firingsquad.com/hardware/amd_radeon_hd_4850_geforce_9800_gtx+/)
... trotz altem FW175 reicht es offenbar für einen Sieg. ;)Ich bin vor kurzem aus den GT200-/ RV770- Threads ausgestiegen, aber Firingsquad scheint dort trotz NDA technische Daten veröffentlicht/bestätigt zu haben :D

James Ryan
2008-06-20, 06:45:39
Radeon HD 4850 512MB and GeForce 9800 GTX+ Performance Quick Take
(http://www.firingsquad.com/hardware/amd_radeon_hd_4850_geforce_9800_gtx+/)
... trotz altem FW175 reicht es offenbar für einen Sieg. ;)

Bin mal auf OC-Werte, Preis und die neuen Treiber gespannt! :biggrin:
Hoffentlich bringen die auch was für meine 8800 GTX!

MfG :cool:

reunion
2008-06-20, 08:39:45
/edit: Und zum Shrink: Oh, das wird Reunion weh tun. Jetzt kann nVidia bessere Preise machen als AMD (sry, Reunion, aber soviel Sarkasmus muss sein).

Das wird man auch müssen, da man leistungsmäßig nicht mit der 4870 mithalten wird können. Wobei die Die-Size wohl deutlich größer ist als diese 231mm² wie von AnarchX schon korrigiert. Und nicht vergessen LovesuckZ: Die Karte kommt mindestens acht Monate zu spät und zerstört den Markt.

LovesuckZ
2008-06-20, 14:27:27
Und nicht vergessen LovesuckZ: Die Karte kommt mindestens acht Monate zu spät und zerstört den Markt.

Ganz schlecht, wirklich. nVidia hat doch schon seit 19 Monate solch eine Karte im Angebot, wie können sie da 8 Monate zu spät sein? :rolleyes:

Gast
2008-06-20, 15:44:24
Bin mal auf OC-Werte,


die werden nicht wesentlich besser sein, schon die ganzen ATI-gpus haben gezeigt dass 55nm weder im bezug auf verbrauch noch auf die taktbarkeit was bringt und eine reine kostensparmaßnahme ist.

dildo4u
2008-06-20, 15:49:00
die werden nicht wesentlich besser sein, schon die ganzen ATI-gpus haben gezeigt dass 55nm weder im bezug auf verbrauch noch auf die taktbarkeit was bringt und eine reine kostensparmaßnahme ist.
OC mit der 55nm 9800GTX+

http://s4.directupload.net/images/080620/vindpa2m.jpg

If you recall from our 3DMark Vantage test page the stock clocks scored 7888 with Physics enabled. After the overclock the score increased nearly 1,000 points up to 8,862 3DMarks (a 12.3% increase in performance)! The card would run at 900MHz on some benchmarks, but wasn't stable on others like 3DMark Vantage. We stopped at 840MHz on the core and 1215MHz on the memory, but this card may have a little more in it. Notice the card was running 50C with these settings!..

..The NVIDIA GeForce 9800 GTX+ was designed to be a spoiler to ATI's Radeon HD 4850/4870 and it might have done the job. The GeForce 9800 GTX+ was faster in the majority of the benchmarks we tested it on and it had a tad more overclocking head room than the ATI Radeon HD 4850 did.



http://www.legitreviews.com/article/731/1/

Gast
2008-06-20, 15:49:29
Naja ob ATI mit der HD4850 Geld verdient, weis ja net. 1Mrd Transistoren bei 55nm aufm Wafer. Und dann die bekannten hier im Forum die meinem mit G200 würde man kein Geld verdienen... (größerer Chip + alter Prozess vs kleinerer Chip neuerer Prozess / min. 300€ VK vs. 169€ VK o.O).

Schlammsau
2008-06-20, 16:23:02
Schaut nicht so gut aus für die +.....je mehr Auflösung und AA, desto schlechter.
Stromverbaruch inter Last um 1 Watt gesunken, im Idle um 2 Watt gestiegen.Deswegen sie 2 Stromanschlüsse ;D
Sie verbraucht laut Hardware.fr, 50 Watt unter Load mehr als ihre Gegenspielerin die 4850. Im Idle sind es 16 Watt mehr als die 4850. (Und das obwohl Powerplay erst mit dem 8.7 Catalyst freigeschalten wird)
http://www.hardware.fr/articles/724-3/b-maj-b-preview-radeon-hd-4850-geforce-9800-gtx-v2.html
Die Karte ist wirklich nur eine leicht übertaktete 9800GTX.
Ganz tolle Arbeit nVidia! :|

Gesamtperformancerating
http://www.abload.de/img/unbenanntl2v.png

deekey777
2008-06-20, 16:27:38
Crossposting werden nicht geduldet! Beim nächsten Mal werden sie gelöscht und geahndet.

Psychopat
2008-06-20, 17:15:12
wenn die boardpartner das neue baby dann auf 800mhz core übertakten wäre es sicher ne überlegung wert...

taktpotential dürfte der neue chip dank 55nm sicherlich haben und wenn dann der stromverbrauch stimmt könnte es eine gute alternative zum 4850 werden ;)

Das ist die große Frage, die eine 9800GTX+ hoffentlich beantworten kann, ob der 55nm Prozess wirklich Taktvorteile bringt. Bei den 3000ern wird ja immer behauptet, 55nm hätten keinen bis minimalen Vorteil gebracht, vorallem in der Leistungsaufnahme.

Edit: Bei hwbot macht die schnellste 9800GTX 920 MHz, 840 MHz on air sind keine Seltenheit. Die geposteten Werte von dildo4u der 9800GTX+ sind also nichts besonderes.

Schlammsau
2008-06-20, 17:22:44
Das ist die große Frage, die eine 9800GTX+ hoffentlich beantworten kann, ob der 55nm Prozess wirklich Taktvorteile bringt. Bei den 3000ern wird ja immer behauptet, 55nm hätten keinen bis minimalen Vorteil gebracht, vorallem in der Leistungsaufnahme.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6601466#post6601466

Anarchy-HWLUXX
2008-06-20, 17:35:24
Edit: Bei hwbot macht die schnellste 9800GTX 920 MHz, 840 MHz on air sind keine Seltenheit. Die geposteten Werte von dildo4u der 9800GTX+ sind also nichts besonderes.

Machen die Karten das mit default Kühlung und Spannung ?

Psychopat
2008-06-21, 14:12:11
Die Details kann man aus dem Graph bei Hwbot leider nicht rauslesen.

http://www.hwbot.org/cewolf/;jsessionid=7FA285219E8CF0C4794CFB6AE18A378D?img=167399936&width=600&height=300&iehack=.png

Die höchste Punktdichte liegt aber zwischen 825 und 850 MHz, und da werden sicher einige mit default Kühler und Spannung dabei sein. Btw, die def Spannung der 9800GTX ist doch eh schon ziemlich hoch (verglichen mit 8800GTS).

zum Vergleich noch der Graph der 8800GTS:
http://www.hwbot.org/cewolf/;jsessionid=7FA285219E8CF0C4794CFB6AE18A378D?img=-429214354&width=600&height=300&iehack=.png

Gast
2008-06-21, 14:39:27
Die Karte ist wirklich nur eine leicht übertaktete 9800GTX.
Ganz tolle Arbeit nVidia! :|

Solange der Preis dabei gesenkt wird, kann es den Kunden nur freuen - dann hat er die freie Wahl zwischen zwei schnellen Karten um 150 Euro oder gar darunter.

dargo
2008-06-21, 14:47:04
Wird es eigendlich eine G9800GTX+ mit 1GB Vram geben? Wenn ja, wie hoch ist die UVP?

AnarchX
2008-06-21, 14:49:12
Sehr unwahrscheinlich, da es 1Gbit Module nur bis 1.0ns gibt, was dann bedeutet:
- eben nur 1GB mit 1000MHz
oder
- der Hersteller muss ein eigenes PCB mit 16 Chips entwerfen

dildo4u
2008-06-21, 14:52:49
Aber es wurde doch schon mal diese Karte ausgestellt.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6552280&postcount=140

reunion
2008-06-21, 14:56:07
Aber es wurde doch schon mal diese Karte ausgestellt.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6552280&postcount=140

Das ist aber keine GTX+.

dildo4u
2008-06-21, 14:57:16
Das ist aber keine GTX+.
Noch nicht nein aber das PCB wär ja auch mit dem 55nm G92b nutzbar.

reunion
2008-06-21, 15:02:38
Noch nicht nein aber das PCB wär ja auch mit dem 55nm G92b nutzbar.

Das ist aber kein anderes PCB sondern nur eins mit 1Gbit RAM-Module, und die gibt es eben nicht mit 0.83ns.

Gast
2008-06-21, 15:34:22
Sehr unwahrscheinlich, da es 1Gbit Module nur bis 1.0ns gibt, was dann bedeutet:
- eben nur 1GB mit 1000MHz


mit ein wenig spannungserhöhung und/oder langsameren latenzen sollte man die 1100MHz locker schaffen, ich denke schon dass es den einen oder anderen hersteller gibt der das machen würde.

Gast
2008-06-21, 16:17:35
Sie verbraucht laut Hardware.fr, 50 Watt unter Load mehr als ihre Gegenspielerin die 4850.
Gesamtperformancerating
http://www.abload.de/img/unbenanntl2v.png


Sehe hier leider keine 50 Watt die du nennst: http://img411.imageshack.us/img411/1296/powerax0.jpg

Und die verwendeten Treiber sind auch nich wirklich ersichtlich, abwarten bis die Teile offiziell sind und jemand mit Ahnung dran war zu Testen.

Black-Scorpion
2008-06-21, 17:02:31
Sehe hier leider keine 50 Watt die du nennst: http://img411.imageshack.us/img411/1296/powerax0.jpg

Und die verwendeten Treiber sind auch nich wirklich ersichtlich, abwarten bis die Teile offiziell sind und jemand mit Ahnung dran war zu Testen.
25W mehr Idle und 25W mehr Load

Gast
2008-06-21, 17:04:51
25W mehr Idle und 25W mehr Load

Also das ist ne echte Käse-Rechnung...

Black-Scorpion
2008-06-21, 17:20:43
Also das ist ne echte Käse-Rechnung...
Ich habe so nicht gerechnet.
Ich schätze so ist er auf die 50W gekommen. Natürlich ist es Käse.
Die Karte verbraucht 25W mehr und keine 50W.

Gast
2008-06-21, 18:46:17
olol! Jetzt gibt es von NVidia schon eine Anleitung wie man am besten eine 9800GTX+ Bencht!
Hauptsache es sind die richtigen Tests dabei!
http://my.ocworkbench.com/bbs/showthread.php?p=432870#post432870

Gast
2008-06-21, 19:58:14
Junge wenn man keine Ahnung hat...

Die Review Guide sind immer bei den Grafikkarten dabei! Sind sehr witzig teilweise zu Lesen auf was die IHVs Hinweisen. Aber macht kein Wirbel um 5 Jahre alten Fubar.

Gast
2008-06-21, 20:01:44
25W mehr Idle und 25W mehr Load

Mir gings eher darum, das man beim Stromverbrauch da immer auf die offiziellen Angaben der IHVs sich verlassen sollte. Oder eben eine Webseite mit Reputation in diesem Gebiet, stelle mal xbitlabs da heraus.

Gast
2008-06-21, 20:02:42
Junge wenn man keine Ahnung hat...

Die Review Guide sind immer bei den Grafikkarten dabei! Sind sehr witzig teilweise zu Lesen auf was die IHVs Hinweisen. Aber macht kein Wirbel um 5 Jahre alten Fubar.

Nenn mich nicht Junge Du Spaten
Wer lesen kann ist klar im vorteil!

Gast
2008-06-21, 20:04:14
http://www.pcgameshardware.de/aid,648418/News/Versetzt_AMDs_Radeon-HD48x0-Reihe_Nvidia_in_Panik/

Sorkalm
2008-06-21, 20:13:56
olol! Jetzt gibt es von NVidia schon eine Anleitung wie man am besten eine 9800GTX+ Bencht!

Selbst für Firefox 3 gibts einen Reviewer Guide. ;)
Ist absolut üblich.

AnarchX
2008-06-21, 20:19:26
Bei newegg sind die Preise schon unten:
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&Description=9800%20GTX&bop=And&Order=PRICE

Bei uns sind momentan nur vereinzelt ~175€ erreicht:
http://geizhals.at/deutschland/?cat=gra16_512&asuch=9800%20GTX&sort=p

Also dürften nächste Woche die restlichen Händler reagieren, immerhin ist das Ziel ja die 150€ der HD4850. ;)

Gast
2008-06-22, 00:36:16
Wann kommt eigentlich die 9500 GT?

Wen interessiert die noch, wenn es ne 9600gso für 60€ neu gibt

das_Apo
2008-06-22, 10:12:29
Sind mittlerweile eigentlich schon Notebooks mit Geforce 9M Chips in 65nm aufgetaucht?
Sollen ja jetzt im Sommer kommen, wobei "Sommer" ja ein dehnbarer Begriff ist. :(

Gast
2008-06-22, 12:05:38
Sind mittlerweile eigentlich schon Notebooks mit Geforce 9M Chips in 65nm aufgetaucht?
Sollen ja jetzt im Sommer kommen, wobei "Sommer" ja ein dehnbarer Begriff ist. :(


Schon die GF8M Chips sind in 65nm gefertigt und basierten auf dem G92.

das_Apo
2008-06-22, 15:00:03
Schon die GF8M Chips sind in 65nm gefertigt und basierten auf dem G92.

Jein, nur die 8800M GTS und GTX basieren auf dem G92 und sind in 65nm gefertigt. Alle anderen GF8M Chips darunter basieren auf dem G84 oder G86 und sind noch in 80nm gefertigt.
Mir gehts halt um um die Low-Cost- und Mainstream-Versionen, die zwar alles andere als leistungsstark sind aber die integrierten Intel Lösungen locker in die Tasche stecken. Die Performance soll wohl nicht umbedingt mit dem GF9M Refresh steigen aber dafür ist mit einem geringeren Stromverbrauch und vor allem weniger Abwärme zu rechnen, denn selbst ein GF8400GS soll wohl ziemlich gut heizen.

AnarchX
2008-06-22, 16:57:28
Schau mal bei Nvidia, da sind nun eine ganze Menge an GeForce 9M gelistet, wenn du die GPU herausfinden willst, dann schau einfach in die inf eines aktuellen Mobile-Treibers.

dildo4u
2008-06-22, 17:13:15
9800GT jetzt doch in 55nm?Am 15 Juli soll sie kommen.

http://www.pcgameshardware.de/aid,648431/News/Geforce_9800_GT_am_15_Juli/

Adam D.
2008-06-22, 17:29:13
War doch von Anfang an klar, oder? War halt nur so, dass die 9800GT erst mit Abfall-G92 gefüttert werden sollte.

LovesuckZ
2008-06-22, 17:31:43
Richtig, jetzt wird sie mit Abfall-G92b gefüttert - was sollte die Bemerkung?

dildo4u
2008-06-22, 17:31:59
War doch von Anfang an klar, oder? War halt nur so, dass die 9800GT erst mit Abfall-G92 gefüttert werden sollte.
Jo aber so wies ausshiet kommen jetzt gar keine 9800GT mit 65nm G92 mher.Sondern die Karte wurde extra auf Mitte Juli verschoben damit alle mit 55nm Chips ausgeliefert werden was ja ein guter Move von NV wäre.

Sorkalm
2008-06-22, 17:32:51
Wie kommst du darauf, das es so aussieht?

dildo4u
2008-06-22, 17:34:07
Wie kommst du darauf, das es so aussieht?
Na sonst hätte man die Karte ja schon längt gelauncht mit 65nm G92 und würde nich bis mitte Juli warten.

Adam D.
2008-06-22, 17:34:31
Richtig, jetzt wird sie mit Abfall-G92b gefüttert - was sollte die Bemerkung?
Hab mich nur dazu geäußert, dass die 9800GT von Anfang an auch für 55nm geplant war bzw. das der Sinn einer 9800GT ist. Zum Glück hat sich Nvidia entschieden, den 65nm-Kern nicht mehr zu verwenden. Und ja, in dem Fall bleibt Abfall Abfall, im positiven Sinne.

Jo aber so wies ausshiet kommen jetzt gar keine 9800GT mit 65nm G92 mher Sondern die Karte wurde extra auf Mitte Juli verschoben damit alle mit 55nm Chips ausgeliefert werden was ja ein guter Move von NV wäre.
Jo, klar. Absolut begrüßenswert, dann hat das Umlabeln immerhin 'nen Sinn.

LovesuckZ
2008-06-22, 17:37:13
Hab mich nur dazu geäußert, dass die 9800GT von Anfang an auch für 55nm geplant war bzw. das der Sinn einer 9800GT ist. Zum Glück hat sich Nvidia entschieden, den 65nm-Kern nicht mehr zu verwenden. Und ja, in dem Fall bleibt Abfall Abfall, im positiven Sinne.


Warum ist 55nm so interessant? Es bringt für den Kunden doch garnichts.

/edit: Hoffen wir mal, ass die 9800gt nicht so lange braucht. Hybrid-SLI reizt mich einfach zu stark und bei einem Preis von 200€ kann man sich zwei dieser Dinge doch glatt kaufen.

Adam D.
2008-06-22, 17:39:29
Warum ist 55nm so interessant? Es bringt für den Kunden doch garnichts.

/edit: Hoffen wir mal, ass die 9800gt nicht so lange braucht. Hybrid-SLI reizt mich einfach zu stark und bei einem Preis von 200€ kann man sich zwei dieser Dinge doch glatt kaufen.
Naja, bissl weniger Stromverbrauch, möglicherweise höheres Übertaktungspotential, günstigere Herstellung resultiert in günstigeren Endkundenpreisen, dazu hSLi. Ist zwar nicht viel, aber es ist etwas.

dargo
2008-06-22, 18:10:13
9800GT jetzt doch in 55nm?Am 15 Juli soll sie kommen.

http://www.pcgameshardware.de/aid,648431/News/Geforce_9800_GT_am_15_Juli/
Wundert mich nicht besonders für einem Kampfpreis von ~100€.

deekey777
2008-07-22, 19:38:34
NVIDIA remark 8800GT to 9800GT, no more HybridPower (http://en.expreview.com/2008/07/22/nvidia-remark-8800gt-to-9800gt-no-more-hybridpower/)
According to our source, GeForce 9800GT is just around the corner. Because there are still lots of 8800GT inventory out there, NVIDIA have decided that they will allow partners to flash BIOS, change 8800GT device ID to 9800GT device ID directly.


What’s more, if partner wants, NVIDIA can laser remark those inventory G92 chip.

9800GT will support HybridPower, but because of inventory cards lack of control chips so they will not support the power saving feature.

:ulol:

AnarchX
2008-07-24, 10:10:58
http://img184.imageshack.us/img184/8523/16566888hy3.jpg
http://en.expreview.com/2008/07/24/geforce-9500gt-nvs-first-55nm-product-hits-market/

122mm² sind doch immernoch ziemlich groß für so einen relativ leistungsschwachen Chip, aber bei RV635 sieht es auch nicht besser aus.

Insgesamt aber nicht gerade überzeugend die Verkleinerung des Dies von 169mm² @80nm auf 122mm² @55nm.

reunion@work
2008-07-24, 10:41:19
122mm² sind doch immernoch ziemlich groß für so einen relativ leistungsschwachen Chip, aber bei RV635 sieht es auch nicht besser aus.


Das wird sich aber mit RV730 ändern wenn man sich mal RV770 ansieht.

reunion@work
2008-07-24, 10:46:07
NVIDIA remark 8800GT to 9800GT, no more HybridPower (http://en.expreview.com/2008/07/22/nvidia-remark-8800gt-to-9800gt-no-more-hybridpower/)


:ulol:

Also das ist ja dann wirklich eine Frechheit sondergleichen. Schon das umbenennen in eine neue Generation wegen eines lächerlichen Features ist ein starkes Stück, aber das schlägt dem Faß wirklich den Boden aus. "Tut mir leid, sie haben nur eine umgeflashte 8800GT bekommen, dadurch ist H-SLI leider nicht möglich." :ulol:

up¦²
2008-07-30, 01:22:41
Zeit für eigenen Fred...?
Review 9500 GT:
http://www.guru3d.com/article/geforce-9500-gt-review/1

Sorkalm
2008-10-07, 13:08:01
Vielleicht kommt am 15. Oktober auch eine neue "9600 GSO". Bei der man aber vom G92 auf den G94b wechselt:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/oktober/geforce_9600_gso_gpu/

Man muss das Namenschaos offenbar noch ein bisschen verbessern. ;D

Unyu
2008-10-07, 14:37:36
Vielleicht kommt am 15. Oktober auch eine neue "9600 GSO". Bei der man aber vom G92 auf den G94b wechselt:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/oktober/geforce_9600_gso_gpu/

Man muss das Namenschaos offenbar noch ein bisschen verbessern. ;D
Wo ist das Problem?

Das Produkt wird ja nicht schlechter durch den G94b. :rolleyes:

AnarchX
2008-10-07, 14:39:50
Das Produkt wird ja nicht schlechter durch den G94b. :rolleyes:
Kommt ganz darauf an, wie dieser konfiguriert wird. ;)

Aber das ist hier eher wirklich Offtopic, interessanter sind da eher die GF200, wo der ominöse GT200-400 eigentlich schon längst hätte erscheinen müssen, wie lang er schon im Treiber ist. Wohlmöglich wurde er gecancelt.

Sorkalm
2008-10-07, 15:29:45
Kannst du das mal in diesen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=407256&page=36) verschieben? ;)

Laut Expreview bekommt die neue 9600 GSO 512 MiB Speicher ... mal schauen ob eher großes oder kleines Speicherinterface.

AnarchX
2008-10-07, 16:11:24
Verschoben.

Ich denke doch schon, dass es 256-Bit sind, sonst wird es wohl schwierig sein mit 64SPs die Leistung der 9600GSO zu erreichen.
Aber naja, NV war ja für einige Überraschung in der Vergangenheit gut. :rolleyes:

Mal sehen, was sich hinter den neune GeForce 9000 X vebirgt...

Viel Interessanter finde ich aber der Eintrag:

NVIDIA_G92.DEV_060E.1 = "NVIDIA GeForce 9850 X"

Sorkalm
2008-10-08, 16:10:51
Es werden wohl 256 Bit, aber nur 48 SPs, also 24 TMUs:
http://en.expreview.com/2008/10/08/1049.html

AnarchX
2008-10-11, 12:09:33
Bestätigung:
http://img524.imageshack.us/img524/6545/19745688ov3.jpg (http://imageshack.us)
http://www.expreview.com/news/hard/2008-10-11/1223711455d10176.html

Mit min. 75% 9600GT Leistung dürfte sie sich auf dem Niveau der 4670 und 9600GSO-G92 bewegen und wohl auch NV dank ~180mm² G94b Die die ein oder andere Preisrunde mit der 4670 ermöglichen.

deekey777
2008-10-28, 14:45:40
Hm...
Specification:
Product Inno3D Geforce 9600 GSO
Chipset Geforce 9600 GSO
Memory 512MB GDDR3
Core Frequency 650MHz
Memory Frequency 1600MHz
RAMDAC 400MHZ
Interface PCI-Express
Memory Bus 256-bit
Stream Processors 96
Max. Resolution 2560 x 1600
SLI Ready Yes
Output
1. Dual-Link DVI
2. HDTV
http://www.inno3d.com/products/graphic_card/gf9/9600gso_512.htm
Ich glaube kaum, dass die Specs stimmen.

Die gelbe Eule
2008-11-10, 10:38:21
Wann kann man eigentlich mit einer Neuauflage von der 9600GT rechnen? Würde gerne mein 8800GS SLi ersetzen und ordentlich Performance mit mehr AA spüren.

AnarchX
2009-01-14, 15:43:20
9600 GT Green Edition:
http://img164.imageshack.us/img164/9784/nv9600gtgreen4143920ju2.gif (http://imageshack.us)
http://vr-zone.com/articles/nvidia-preparing-geforce-9600-gt-green-edition/6439.html?doc=6439

Spannung von 1.1 auf 1.0V und GPU-Takt von 650/1625 auf 600/1500.