Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil2]


Seiten : 1 2 [3] 4 5 6

Palpatin
2008-04-28, 15:09:11
Stimmt nur ned ;) Zeig diesen Typen dann das da:

http://img501.imageshack.us/img501/8213/ghitrhbietruhbtrubvu4trda6.jpg (http://imageshack.us)
Kommt auf die Aulösung an und wenn man sagt x ist um y langsamer als z muss z = 100% sein und nicht x. Also in deinem Beispiel wär die HD3870 um 33% langsamer als die GTX und nicht um 49% :)

Gast
2008-04-28, 15:33:00
...
Da kommt meist der Kommentar:
Ach all die Spiele sind NV optimiert, AMD wird extra gebremst1111!!!! :rolleyes:

Das Niveau sackt merklich ab hier...

Sorkalm
2008-04-28, 16:21:11
http://www.vr-zone.com/articles/GeForce_9900_GTX_is_10.5-inch_Long%2C_Dual_Slot/5740.html

VR-Zone got to know that the GeForce 9900 GTX card is 10.5" long, full height and dual slot and the cooler is TM71 from CoolerMaster. Dubbed GT200 or D10U, we heard that this architecture might be dual chip with TDP up to 240W.

Ich weiß zwar nicht wie die auf "evtl. Dual-Chip" kommen, aber der Rest der Informationen dürfte stimmen.

Gast
2008-04-28, 16:21:22
Das Niveau sackt merklich ab hier...
Du hast nicht verstanden worauf ich hinaus will.
Wenn NV in dem Rating gut steht, wird geguckt woran es liegt, meistens bleibt nichts anderes übrig als zu behaupten alle Spiele wären NV Optimiert (faktsich ist es kein Einziges).
Die AMD Hochburgen Oblivion und Dirt wurden ja gekickt, ok das AMD dort nie schneller war ist egal.

w0mbat
2008-04-28, 20:18:14
http://i114.photobucket.com/albums/n273/Wirmish/GPU-ZGT-200.png
http://forum.beyond3d.com/showpost.php?p=1153999&postcount=662


Hm, ein neuer Fake oder echt? Jetzt kann das Spielchen vor vorne losgehen, diesmal aber ohne GTixel/s :D

Nakai
2008-04-28, 20:37:42
Das Ding hätte 48 TMUs und 1059GFLOPs.

Die Transistorzahl wäre dann, wenn man vom G92 ausgeht, etwa auf 1100 Millionen Transistoren.


mfg Nakai

Gast
2008-04-28, 20:38:39
Schon realistischer.
Bis auf den veralteten Forceware.

K4mPFwUr$t
2008-04-28, 20:38:52
das D10E verwirrt mich doch etwas, der GT200 sollte doch gF9900 werden :|
ansonsten halte ich die daten für realistischer als bei dem anderen ding.

und wenn es ein fake ist, dann ist er jedenfalls besser als der letzte.

Gast
2008-04-28, 20:39:38
Bis auf den veralteten Forceware.
ups 176 statt 174 :redface:

Gast
2008-04-28, 20:41:57
das D10E verwirrt mich doch etwas
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6647&Itemid=34

Hm bisher wars D10U.

K4mPFwUr$t
2008-04-28, 20:44:33
D10 spricht ja für gF 10 und nicht für 9900 wie bisher angedacht war.

E = freak segment :usad:
P = performance
C, V = cost, value?

dargo
2008-04-28, 20:48:07
Schon realistischer.

Ich dachte die 240 SPs wären so gut wie sicher? :|

Das Ding hätte 48 TMUs und 1059GFLOPs.

Also, ich komme bei dem Bild auf 936GFLOPs. Trotzdem ist es wohl wieder nur ein Fake. Da hat wohl jemand den Braten gerochen. :D
Die Die-Size ist imho immer noch viel zu klein und wie schon gesagt die Sache mit den SPs.

Nakai
2008-04-28, 20:54:52
Also, ich komme bei dem Bild auf 936GFLOPs. Trotzdem ist es wohl wieder nur ein Fake. Da hat wohl jemand den Braten gerochen.
Die Die-Size ist imho immer noch viel zu klein und wie schon gesagt die Sache mit den SPs.

Nicht bei dem betriebenen Takt.


mfg Nakai

dargo
2008-04-28, 20:58:20
Nicht bei dem betriebenen Takt.

Das ist schon klar. Es geht hier aber um die "standard" Grafikkarten so wie sie auf den Markt kommen und keine durch User übertakteten.

Sorkalm
2008-04-28, 20:58:39
Rundet GPU-Z nicht eh alle Die-Größen auf eine Genauigkeit von 10 Quadratmilimetern?

w0mbat
2008-04-28, 20:59:32
Nein.

crux2005
2008-04-28, 21:05:14
8 * 24 = 192 SPs
hat Ailuros nicht von 10 * 24 geredet ? ;D

ja lol, langsam wie immer ...

Nakai
2008-04-28, 21:52:13
8 * 24 = 192 SPs
hat Ailuros nicht von 10 * 24 geredet ? ;D

ja lol, langsam wie immer ...

Wird wohl die kleine Variante sein...


mfg Nakai

Gast
2008-04-28, 22:17:29
Wird wohl die kleine Variante sein...

Die aber nicht mit 512bit SI und 32 ROPs daherkommen würde.

deekey777
2008-04-28, 22:25:33
Wird wohl die kleine Variante sein...


mfg Nakai
240 ist gleich 10 * 24, da kann man 192 bis zum Erbrechen durch 24 teilen (= acht Cluster), trotzdem ergeben 48 TMUs sechs Cluster.
Die andere Idee wäre, dass es 32 SPs per Cluster sind (und 8 TMUs), dann passen die wohl am wahrscheinlichsten Gerüchte mit 10*24 nicht.

Psychopat
2008-04-29, 00:49:28
Also, ohne mich groß auszukennen, würde ich mal sagen 8*24 macht mehr Sinn für nVidia. Geht man davon aus, das RV770 etwa doppelte 3870 Leistung bringt, wäre man mit 50% Verbreiterung gegenüber G80 doch etwa auf gleichem Niveau.
10*24 würde doch den Chip unnötig groß machen, was den Gewinn schmälert. Zu schnell will nVidia die Chips doch auch nicht haben, das macht es schwierig den Refresh davon zu verkaufen (wie jetzt mit 8800gtx <-> 9800gtx).

Gast
2008-04-29, 00:49:33
Abwarten was die ROPs können, wo der Chip geändert wurde. Schließlich gibt es nur eine Karte mit der sich die GT200 max. Ausführung messen muss, das ist die 8800Ultra. Alles was danach Single GPU kam war/ist/wird immer langsamer sein.

tombman
2008-04-29, 01:22:40
Abwarten was die ROPs können, wo der Chip geändert wurde. Schließlich gibt es nur eine Karte mit der sich die GT200 max. Ausführung messen muss, das ist die 8800Ultra. Alles was danach Single GPU kam war/ist/wird immer langsamer sein.
Nene, die muß auch schneller als jede (G)X2 sein, ansonsten wirds sie ausgelacht- zumindest von mir ;D

Spasstiger
2008-04-29, 01:37:19
Nene, die muß auch schneller als jede (G)X2 sein, ansonsten wirds sie ausgelacht- zumindest von mir ;D
Es ist doch schon die 8800 Ultra schneller als die 9800 GX2, zumindest in den Settings, für die High-End-Lösungen unabdingbar sind.

derguru
2008-04-29, 01:39:04
wenn man nach den spekulationen geht und der doppelt soviel shader +512bit hat dann reicht mir das als prognose das sie schneller wird als eine x2 oder gx2,in hohen auflösungen sowieso.

Hvoralek
2008-04-29, 01:58:52
Rundet GPU-Z nicht eh alle Die-Größen auf eine Genauigkeit von 10 Quadratmilimetern?Selbst wenn: 478 ist nicht auf 10 gerundet. Und der Abstand zu den hier genannten knapp 600 auch wesentlich größer.

Coda
2008-04-29, 02:24:30
Das Problem mit GPU-Z ist einfach: Es gibt von der GPU fast keine Daten auszulesen.

Die ganzen Dinge wie Die-Größe usw. kommen von einer Datenbank im Programm. Bei einem neuen Chip ist das Ding so gut wie unnütz. Deshalb stört mich der Name auch.

CPU-Z kann wirklich auch bei neuen Chips fast alles auslesen, weil das standardisiert ist.

GeneralHanno
2008-04-29, 07:58:47
wo kommt denn der blödsinn mit den 48TMUs her? wenn ich die texelfillrate durch den takt teile, dann komme ICH auf 96 ... :|

Gast
2008-04-29, 08:10:04
Aber wozu 96 TMUs? :eek:
Hat G92 nicht schon genug? Eine verdoppelung reicht doch locker.

GeneralHanno
2008-04-29, 08:12:18
der G92 hat doch 64TMUs (8 cluster mit octo-TUs)

MEDIC-on-DUTY
2008-04-29, 09:20:28
Hm, ein neuer Fake oder echt? Jetzt kann das Spielchen vor vorne losgehen, diesmal aber ohne GTixel/s :D

Da hat wohl jetzt jemand mit mehr Photoshopkenntnissen Hand angelegt ;D

Ailuros
2008-04-29, 09:35:39
Es reicht so langsam mit dem Scheiss. Die size liegt knapp unter 600mm^2.

GeneralHanno
2008-04-29, 09:38:56
Es reicht so langsam mit dem Scheiss. Die size liegt knapp unter 600mm^2.
das ist doch mal ein klares statement :D

Ailuros
2008-04-29, 09:54:51
das ist doch mal ein klares statement :D

AFAIK (und das schon seit einiger Zeit) liegt eine fuenf am Anfang und eine am Ende.

=Floi=
2008-04-29, 10:41:38
ist die DIE-Size nicht das uninteresannteste überhaupt?!
sicherlich schön zu wissen, aber es sagt nichts über die leistungsfähigkeit der gpu aus

mapel110
2008-04-29, 10:46:25
ist die DIE-Size nicht das uninteresannteste überhaupt?!
sicherlich schön zu wissen, aber es sagt nichts über die leistungsfähigkeit der gpu aus
Wenn man noch den Fertigungsprozess weiß, kann man ungefähr auf die Transistorzahl schließen. Da gibts sinnlosere Werte ala Pixelfüllrate oder 3DMark01-Werte. ^^

Ailuros
2008-04-29, 10:51:33
ist die DIE-Size nicht das uninteresannteste überhaupt?!
sicherlich schön zu wissen, aber es sagt nichts über die leistungsfähigkeit der gpu aus

Im gegebenen Fall wo es konstante Verzweiflungsversuche gibt die genauen Specs auszuraten, hilft Dir und jeglichem anderen auf ersten Blick einen Fake erkennen zu koennen.

Wie dem auch sei, Vincent hat ausnahmsweise mal wieder einen Treffer auf B3D landen koennen. Auf ersten Blick sehen die GT200 Specs nach nichts besonders imposantem aus oder anders ausgedrueckt nicht nach dem Monstrum dass jeder bis jetzt erwartet hat. Der zweite Blick der wohl erst nach den ersten unabhaengigen Benchmarks zu Tage kommt wird um einiges aufklaerender sein.

w0mbat
2008-04-29, 16:07:04
[...]
Wie dem auch sei, Vincent hat ausnahmsweise mal wieder einen Treffer auf B3D landen koennen. Auf ersten Blick sehen die GT200 Specs nach nichts besonders imposantem aus oder anders ausgedrueckt nicht nach dem Monstrum dass jeder bis jetzt erwartet hat. Der zweite Blick der wohl erst nach den ersten unabhaengigen Benchmarks zu Tage kommt wird um einiges aufklaerender sein.


GT200: 240SP
[...]
Performance : 2 times as the 8800GTX
512Bit Memory controller

The most underestimate GPU ever.


:tongue:

LovesuckZ
2008-04-29, 16:13:06
Nein, das war die 8800GTX.
Ich bezweifel, dass der GT200 annährend so gut wird - sei feature- wie leistungstechnisch (~ Faktor 3 zur 7900GTX, maximal Faktor 4).

Grestorn
2008-04-29, 16:23:47
(~ Faktor 3 zur 7900GTX, maximal Faktor 4).

Na, in RealLife Situationen ist das aber auch nicht realistisch. Man muss immer zwischen der theoretischen Leistung und dem, was in der Praxis beim Spieler ankommt unterscheiden.

Und da man nicht weiß wie die Aussage "2x so schnell" zu verstehen ist, kann man sie auch überhaupt nicht werten.

Gosh
2008-04-29, 16:32:24
Performance : 2 times as the 8800GTX


ist auch das Mindeste nach der Zeit

Gast
2008-04-29, 16:35:08
Mindeste? Ich glaube dir ist nicht bewusst wie schnell eine 8800GTX war...Ati konnte bis heute keine SingleGPU liefern die auch nur annäherend mithalten kann.

Gast
2008-04-29, 16:36:11
Es reicht so langsam mit dem Scheiss. Die size liegt knapp unter 600mm^2.

Oh. Das wäre ja krass gross.

Bei ähnlicher Packdichte wie beim G92 wären das ca. 1.5 Milliarden Transistoren. *staun*

Hoffentlich stimmts ;)

Gast
2008-04-29, 16:36:20
ist auch das Mindeste nach der Zeit
Warum?
Zwischen 6800Ultra und 7900GTX lagen über 2 Jahre und der Sprung war kleiner.

mapel110
2008-04-29, 16:39:13
Warum?
Zwischen 6800Ultra und 7900GTX lagen über 2 Jahre und der Sprung war kleiner.
nana, da unterschlägst jetzt aber die 7800 GTX. Die kam doch noch bissl eher.

Gast
2008-04-29, 17:16:23
nana, da unterschlägst jetzt aber die 7800 GTX. Die kam doch noch bissl eher.
Die brachte aber wahrlich keine Leistungsverdoppelung. ;)

Zwischen 6800Ultra und 7900GTX kommt es schon eher hin.

Coda
2008-04-29, 17:24:32
Na, in RealLife Situationen ist das aber auch nicht realistisch.
Doch, das ist realistisch. Die 8800GTX versägt die 7900GTX förmlich.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet

Mr.Magic
2008-04-29, 17:24:47
Die brachte aber wahrlich keine Leistungsverdoppelung. ;)

Zwischen 6800Ultra und 7900GTX kommt es schon eher hin.

Dafür brachte mir die 8800GTX fast überall eine Verdopplung gegenüber der 7950GX2, und da lagen nur ein paar Monate dazwischen. :cool:

GeneralHanno
2008-04-29, 17:35:18
6800, 7800, 7900 und 7950 basieren alle auf der selben grundarchitektur. die G80 ist komplett neu (so wie der spung von netburst zu core) ...

Gast
2008-04-29, 17:41:14
Dafür brachte mir die 8800GTX fast überall eine Verdopplung gegenüber der 7950GX2, und da lagen nur ein paar Monate dazwischen. :cool:
Neue Architektur.
Vergleich mal 5950Ultra mit 6800Ultra. Das war eine Verdoppelung bis Vervierfachung, nach einem Jahr.
Vergleichbar wie der Sprung zum G80, nur so etwas erleben wir sehr selten.

Sorkalm
2008-04-29, 17:47:07
Naja, NV38 zu NV40 war ein Sprung von 130 auf ~ 230 Millionen Transistoren (im selben Fertigungsverfahren), also auch eine klare Vergrößerung der Dice.

G71 auf G80 war ein Sprung von 278 Mil. Transistoren auf 681 Millionen Transistoren, ebenfalls eine klare Ausdehnung der Die-Größe.

GeneralHanno
2008-04-29, 17:48:09
Naja, NV38 zu NV40 war ein Sprung von 130 auf ~ 230 Millionen Transistoren (im selben Fertigungsverfahren), also auch eine klare Vergrößerung der Dice.

G71 auf G80 war ein Sprung von 278 Mil. Transistoren auf 681 Millionen Transistoren, ebenfalls eine klare Ausdehnung der Die-Größe.

und wer meinte vor ner seite, dass die die-size nichtssagend sei :biggrin:

€dit: =Floi= wars :D

Coda
2008-04-29, 17:55:55
Dafür brachte mir die 8800GTX fast überall eine Verdopplung gegenüber der 7950GX2, und da lagen nur ein paar Monate dazwischen. :cool:
Dual-GPU ignorier ich grundsätzlich was Leistungsbetrachtungen von Chips angeht.

Hvoralek
2008-04-29, 18:23:46
Warum?
Zwischen 6800Ultra und 7900GTX lagen über 2 Jahre und der Sprung war kleiner.Ich sehe da grob eine Verdopplung: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating_qualitaet

sklave_gottes
2008-04-29, 18:46:05
Doch, das ist realistisch. Die 8800GTX versägt die 7900GTX förmlich.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet


aber auch "nur" die 7900GTX
gegen eine x1950 ist die 8800ultra 87% und die 8800gtx 69% schneller.
Bei 1600x1200 mit aa/af

der g80 war und ist eine sehr gute karte. Aber die 3 fache Leistung gegenüber g71 hat der g80 nicht nur sich selbst zu verdanken. Sondern zum großen teil auch dem schwachen g71. Wie gesagt gegen r580 kriegt nichtmal die 8800ultra doppelte leistung hin.

mfg martin

Gast
2008-04-29, 18:48:21
Wie gesagt gegen r580 kriegt nichtmal die 8800ultra doppelte leistung hin.
Der Test ist alt, die Treiber auch.

sklave_gottes
2008-04-29, 18:51:15
Der Test ist alt, die Treiber auch.


http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/

MEDIC-on-DUTY
2008-04-29, 18:56:31
Themaverfehlung?

HarryHirsch
2008-04-29, 19:08:19
wurde der schon gepostet?
Infos zur GeForce 9900 GTX (http://www.hartware.de/news_44686.html)

Mr.Magic
2008-04-29, 19:27:06
Dual-GPU ignorier ich grundsätzlich was Leistungsbetrachtungen von Chips angeht.

Dual-GPU wird von nVidia als High-End verkauft, also muss sich der nächste High-End-Chip auch dagegen behaupten können (sollte bei der eher lächerlichen 9800GX2 aber auch keine große Sache sein).

aber auch "nur" die 7900GTX
gegen eine x1950 ist die 8800ultra 87% und die 8800gtx 69% schneller.
Bei 1600x1200 mit aa/af

der g80 war und ist eine sehr gute karte. Aber die 3 fache Leistung gegenüber g71 hat der g80 nicht nur sich selbst zu verdanken. Sondern zum großen teil auch dem schwachen g71. Wie gesagt gegen r580 kriegt nichtmal die 8800ultra doppelte leistung hin.

mfg martin

Die X1950 hat sich bei mir bereits im Vorfeld disqualifiziert, da keine ordentlichen AA-Modi verfügbar sind.

Ergänzung zum vorherigen Post:
Der Unterschied bei den Generationen war bei mir jedenfalls deutlich spürbar. Die 6800U schaffte es gerade mal GTA:SA ordentlich mit 4xS darzustellen, die 7900GT packte 8xS halbwegs, mit der 7950GX2 war 16xS möglich, und bei einer 8800GTX kann man auf 16xSS hochgehen.
Bei Morrowind ging die 5950U bereits wegen der Texturgröße (bis 4096²) in die Knie, und die 6800U war mit MGE-Shadern (HDR) hoffnungslos überfordert. Bei der 8800 braucht es Shader + Supersampling um die Grafikkarte kleinzukriegen.
Das liese sich beliebig fortsetzen.

Einfach ausgedrückt, läuft das Spiel zu flüssig, ist die Einstellung zu niedrig. OK, richtig alte Sachen bekommt man auch mit 32xS kaum unter 60FPS.

Meine Faustregel beim Grafikkartenkauf: Doppelte Geschwindigkeit bei gleicher Einstellung, und/oder gleiche FPS mit einer besseren AA-Stufe muss bei ausgewählten Spielen drin sein. Bedeutet momentan z.B. 1920x1080 - Morrowind 32xSAA, Oblivion 8xSAA, TDU 8xSAA, Crysis 16xCSAA.

MEDIC-on-DUTY
2008-04-29, 19:37:13
wurde der schon gepostet?
Infos zur GeForce 9900 GTX (http://www.hartware.de/news_44686.html)

Nein, aber ich würde sagen im Westen nichts Neues.

MEDIC-on-DUTY
2008-04-29, 19:39:14
Crysis 16xCSAA.

Etwas zu optimistisch, oder was meinst Du? Irgendwie habe ich das dumpfe Gefühl, dass der GT200 nicht das Monster wird, was hier allg. erwartet wird.

Nakai
2008-04-29, 19:48:20
Doppelte 8800GTX-Power. Ich schätze mit etwas mehr.


mfg Nakai

Mr.Magic
2008-04-29, 19:48:42
Etwas zu optimistisch, oder was meinst Du? Irgendwie habe ich das dumpfe Gefühl, dass der GT200 nicht das Monster wird, was hier allg. erwartet wird.

Wieso? 2xAA ist (mit einer 9800GX2) schon fast möglich. Bei einer neuen Architektur, die für diese art Spiel optimiert ist, erwarte ich dann schon, das erweitertes 4xAA spielbar ist.

Crysis hat aber auch keine Priorität (besitze das Spiel nichtmal). Solange der Rest läuft wie ich mir das wünsche...

Gast
2008-04-29, 19:54:30
Etwas zu optimistisch, oder was meinst Du? Irgendwie habe ich das dumpfe Gefühl, dass der GT200 nicht das Monster wird, was hier allg. erwartet wird.

Wieso? 16xCoverage kostet kaum mehr als 4xAA ich hab das Gefühl das die GT200 bei Crysis wie die Lutzi abgehn wird.

Coda
2008-04-29, 19:58:47
Dual-GPU wird von nVidia als High-End verkauft, also muss sich der nächste High-End-Chip auch dagegen behaupten können (sollte bei der eher lächerlichen 9800GX2 aber auch keine große Sache sein).
Wir sind hier in einem Technik- nicht in einem Marketingforum. Es geht um den Chip, nicht um wieviele oder welcher Speicher verbaut wird.

Etwas zu optimistisch, oder was meinst Du? Irgendwie habe ich das dumpfe Gefühl, dass der GT200 nicht das Monster wird, was hier allg. erwartet wird.
Bei ~600mm² in 65nm, 240W und 512 Bit SI? Erm. Ich denke doch - alles ander wäre ja blamabel. Das sind rein rechnerisch ja schon 2,4x so viele Transistoren und noch dazu Architekturverbesserungen und höhere Taktfrequenzen. NVIDIA wird mal wieder schön tiefstapeln.

MEDIC-on-DUTY
2008-04-29, 20:04:28
alles ander wäre ja blamabel.

Sehe ich auch so. Drücken wir mal die Daumen, dass es wieder einen würdigen Nachfolger für die Kult 88er geben wird. War und ist schon ein feines Stück Hardware. Die Messlatte ist hoch gelegt.

Gast
2008-04-29, 20:04:45
Ich hab einfach nur den Wunsch Crysis in Surround Auflösung 3840x1024 zu spielen. 8800 GTX kackt sogar mit High Einstellung vollkommen ab wegen Speichermangel.

MEDIC-on-DUTY
2008-04-29, 20:08:53
Ich hab einfach nur den Wunsch Crysis in Surround Auflösung 3840x1024 zu spielen. 8800 GTX kackt sogar mit High Einstellung vollkommen ab wegen Speichermangel.

Was ist denn bitte eine Surround Auflösung?

reunion
2008-04-29, 20:09:35
Bei ~600mm² in 65nm, 240W und 512 Bit SI? Erm. Ich denke doch - alles ander wäre ja blamabel. Das sind rein rechnerisch ja schon 2,4x so viele Transistoren und noch dazu Architekturverbesserungen und höhere Taktfrequenzen. NVIDIA wird mal wieder schön tiefstapeln.

Naja, ein G92 hat auch schon 330mm², GT200 wohl 575mm². Der Fertigungsprozess ist identisch. Macht also bei vergleichbarer Packdichte ca. 75% mehr Transistoren.

K4mPFwUr$t
2008-04-29, 20:10:41
@MEDIC-on-DUTY
damit mein er sicherlich sollche gebogene displays, oder halt 3xTFTs mit triple head von matrox.

LovesuckZ
2008-04-29, 20:13:57
der g80 war und ist eine sehr gute karte. Aber die 3 fache Leistung gegenüber g71 hat der g80 nicht nur sich selbst zu verdanken. Sondern zum großen teil auch dem schwachen g71. Wie gesagt gegen r580 kriegt nichtmal die 8800ultra doppelte leistung hin.


Bis auf den Speicher ist eine 8800GTX auch nicht gerade das Effizienzwunder. Eine 9600GT erreicht 75% der Leistung einer 8800GTX. Hätte der GT200 die gleiche Effizienz, könnte man mit ca. 2,5 facher Transistorzahl wohl 3fache 8800GTX Werte erreichen.

Coda
2008-04-29, 20:19:28
Naja, ein G92 hat auch schon 330mm², GT200 wohl 575mm². Der Fertigungsprozess ist identisch. Macht also bei vergleichbarer Packdichte ca. 75% mehr Transistoren.
G92 hatte das letzte Mal als ich nachgerechnet habe fast exakt die gleiche Packdichte wie G80 auf den Prozess umgerechnet.

G80: 681 Mio Transistoren, 90nm, Die Size: 484mm²
G92: 754 Mio. Transistoren, 65nm, Die Size: 289mm²

G80 -> G92 theoretisch: 484mm² * 65²/90² * 754/681 = 279mm²

Wenn man weiterrechnet kommt man bei G92-Packdichte fast exakt auf 1500 Mio. Transistoren für ein 575mm² 65nm Die. Das sind dann 2,2x so viele wie G80.

Ist nicht weit von dem weg was ich gesagt habe und immer noch ein Monster. 600mm² sind so groß wie Montecito (http://forums.legitreviews.com/images/random/intel_cores.jpg)! Wenn sie damit keine 3x GTX-Performance bringen dann haben sie sich arg verkalkuliert, sonst würde man die Die-Size nicht in Kauf nehmen.

AnarchX
2008-04-29, 20:26:51
G92 ist aber 310-330mm² groß, die 289mm² waren falsch.

reunion
2008-04-29, 20:26:59
G92 hatte das letzte Mal als ich nachgerechnet habe fast exakt die gleiche Packdichte wie G80 auf den Prozess umgerechnet.

G80: 681 Mio Transistoren, 90nm, Die Size: 484mm²
G92: 754 Mio. Transistoren, 65nm, Die Size: 289mm²

G80 -> G92 theoretisch: 484mm² * 65²/90² * 754/681 = 279mm²

Und auf was willst du jetzt hinaus? Es ging ja um den Vergleich mit GT200. G92 bekam ja auch doppelt so viel TAUs, den Videoprozessor, NVIO, usw. - logisch das der mehr Transistoren benötigt. Die 289mm² stimmen allerdings sicher nicht. 324mm² sind es laut B3D: http://www.beyond3d.com/resources/chip/129

Coda
2008-04-29, 20:30:33
G92 ist aber 310-330mm² groß, die 289mm² waren falsch.
Jo, kann ja sein. Das heißt aber noch lange nicht, dass man die Packdichte bei GT200 beibehalten wird. G92 war ja offenbar ein relativer Schnellschuß.

Und auf was willst du jetzt hinaus?
Ich will darauf hinaus, dass man ganz sicher nicht mit einem 575mm²-Die kommt und dann 2x8800GTX-Performance abliefert. Das hätten sie auch anders erreichen können.

Gast
2008-04-29, 20:40:24
Was ist denn bitte eine Surround Auflösung?
Es gibt Widescreen, Ultra Widescreen und halt Surround mit 3 oder mehr Displays. Man kann bis 5 Stück so anschließen.

Und weil bei 3840x1024 vertikale Auflösung nicht besonders hoch ist braucht man mindestens 4xAA und das kombiniert frisst wahnsinnig Performance und Speicher. Hoffentlich gibts da mit dem GT200 eine Abhilfe.

Gast
2008-04-29, 20:52:16
Doch, das ist realistisch. Die 8800GTX versägt die 7900GTX förmlich.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet

Das macht auch eine X1950XTX :P

MEDIC-on-DUTY
2008-04-29, 22:34:57
Wer hat jetzt ne Info, wann die Vorstellung des GT200 kommt bzw. wann die NDA fällt?

AffenJack
2008-04-29, 23:44:15
Wenn gt200 wie ail sagt noch in q2 kommt, würde ich mal auf ne vorstellung auf der computex tippen oder paar tage vorher um da schon die karten auszustellen

Gast
2008-04-30, 09:53:40
Etwas zu optimistisch, oder was meinst Du? Irgendwie habe ich das dumpfe Gefühl, dass der GT200 nicht das Monster wird, was hier allg. erwartet wird.

Dafür wird wohl der RV770 ein Monster.

http://www.bilgiustam.com/512mb-ati-hd-4870rv770-1gb-geforce-9800-gx2-crysis-ve-3dmark-2006-testleri/

GeneralHanno
2008-04-30, 09:54:37
90% fake, schau doch mal im R700 thread ;)

Gast
2008-04-30, 09:59:11
Das es noch Leute gibt die angesichts der Zahlen in dem mehr als schlechten Fake dem ganzen Glauben schenken o_O

Gast
2008-04-30, 09:59:14
Ich glaube schon, dass Nvidia eine böse Überraschung erleben wird und jetzt die Quittung dafür bekommt, dass sie sich so lange auf der 8800GTX ausgeruht haben.

GeneralHanno
2008-04-30, 10:01:32
naja, nvidia arbeitet seit der zeit am GT200, der wird schon ordentlich einschalgen ...

590mm² diesize@65nm ~ mind doppel G80 power :D

€dit: und ums nochmal zum 100x mal zu sagen:
der RV770 (250-300mm² diesize) ist NICHT der direkte konkurrent des GT200

Gast
2008-04-30, 10:09:40
Doch, der RV770 ist der Konkurrent zum GT200, hat ATI schon selbst bestätigt.

Gast
2008-04-30, 10:10:29
Ich glaube schon, dass Nvidia eine böse Überraschung erleben wird und jetzt die Quittung dafür bekommt, dass sie sich so lange auf der 8800GTX ausgeruht haben.



Über kurz oder lang wird ATi die Segel streichen, bei AMD sind einfach zuviel Pfeifen im Vorstand. der RV770 ist eigentlich das Gegenstück zum G80 bzw. die Antwort auf diesen.

Gast
2008-04-30, 10:12:56
Ihr werdet euch noch wundern, der R700 wird den GT200 plattmachen, so wie damals der R300 die Geforce 4.

GeneralHanno
2008-04-30, 10:16:25
Ihr werdet euch noch wundern, der R700 wird den GT200 plattmachen, so wie damals der R300 die Geforce 4.

ist das das wunschdenken eines frustrierten fanboys, oder gibt es dafür handfeste belege?

der R700 (2*RV770) wird der kunkurrent des GT200 (preisbereich: 500€+)
der RV770 ist ein performence produkt, das sich eher mit der 9800GT messen darf ...

Gast
2008-04-30, 10:19:30
Ihr werdet euch noch wundern, der R700 wird den GT200 plattmachen, so wie damals der R300 die Geforce 4.


AMD ist am sparen und weit ab von irgendeiner Risiko bereitschaft. Ich würde dort kündigen. Da bekommt man doch höchsten depressionen wenn man dort Designer ist und nur mit Stumpfen Waffen kämpft.

Umgerechnet holt Nvidia derzeit etwa 30% mehr Leistung pro Transitor raus, wenns dann auch noch mehr sind ists eh Hoffnungslos.

[fu]121Ah
2008-04-30, 10:34:40
die frage ist eher, was mit dem ursprünglichen 700er design wurde, das soll ja jetzt das r800 design werden... naja, es wäre an der zeit für was neues grosses bei ati... nvidia hat eher das problem der fertigung und menge... ansonsten ist der gt200 überlegen.

Gast
2008-04-30, 10:37:48
abwarten Tee trinken,wenn das Ding mit GDDR3 kommt und dem SI des G92 verreckt das Ding an seiner nicht vorhandenen Bandbreite.

Gast
2008-04-30, 10:41:01
ist das das wunschdenken eines frustrierten fanboys, oder gibt es dafür handfeste belege?



Ist die Frage ernst gemeint? Ersteres natürlich.

Gast
2008-04-30, 10:44:39
Umgerechnet holt Nvidia derzeit etwa 30% mehr Leistung pro Transitor raus, wenns dann auch noch mehr sind ists eh Hoffnungslos.


Das ist absoluter Käse. Einen wesentlichen Einfluss hat dass Nvidia mit dem eigenen Design wesentlich eher am Markt war. Dadurch wird darauf entwickelt und 30% sind im Rahmen von "architekturspezifischen" Optimierungen sicherlich zu machen.
AMD hat die SM 4.x Runde einfach verka*kt. Solche Rückstände holen die ohne eine wesentliche Änderung des SM (D3d 11?) nicht auf. Hoffentlich realisiert das auch mal der Vorstand.

Schlammsau
2008-04-30, 10:46:38
es gibt viele Speku´s zu dem R770 aber am wahrscheinlichsten ist das sich die Leistung im Vergleich zum RV670 in etwa verdoppelt!
Und Verdoppelung heisst in etwa das selbe Leistungsniveau zu haben wie eine 9800GX2!
Und das ist doch mal nicht schlecht, für eine SingleGpu Karte! Und wenn dann noch die X2 Version rauskommt.....
Aber das sind alles nur Spekulatius :)

Grestorn
2008-04-30, 10:58:55
Wie immer können wir alle(!) nur hoffen, dass nVidia nicht schon wieder deutlich im Vorteil ist. Das würde letztlich irgendwann zum Ende von ATI führen und das wäre für alle ein echter Nachteil.

Also, lasst uns hoffen dass der R700 konkurenzfähig sein wird!

Gast
2008-04-30, 11:07:05
Das ist absoluter Käse. Einen wesentlichen Einfluss hat dass Nvidia mit dem eigenen Design wesentlich eher am Markt war. Dadurch wird darauf entwickelt und 30% sind im Rahmen von "architekturspezifischen" Optimierungen sicherlich zu machen.



Solche Optimierungen sind aber nur im Treiber zu machen.

Gast
2008-04-30, 11:08:16
es gibt viele Speku´s zu dem R770 aber am wahrscheinlichsten ist das sich die Leistung im Vergleich zum RV670 in etwa verdoppelt!


Das ist die unwahrscheinlichste Speku, am wahrscheinlichsten sind 50% Mehrleistung zum RV670.

Gast
2008-04-30, 11:09:45
Wie immer können wir alle(!) nur hoffen, dass nVidia nicht schon wieder deutlich im Vorteil ist. Das würde letztlich irgendwann zum Ende von ATI führen und das wäre für alle ein echter Nachteil.

Also, lasst uns hoffen dass der R700 konkurenzfähig sein wird!

Unsinn, S3 gibt es ja auch immer noch, vielleicht wird ATi in Zukunft mit denen konkurrieren müssen anstatt mit Nvidia.

mapel110
2008-04-30, 11:11:55
Solche Optimierungen sind aber nur im Treiber zu machen.
Warum?! Die API stellt die Funktionen zur Verfügung. Wenn dort etwas dabei ist, was der anderen Architektur nicht schmeckt, hat man "gewonnen", je nach Sichtweise.
Aber ich kann mir vorstellen, dass gerade Top-Entwickler doch irgendwie einen Draht haben zu den IHVs, um in Erfahrung zu bringen, was sie aus Performance-Sicht besser noch rauslassen, um die nächste Generation, die vor der Tür steht, nicht blamabel aussehen zu lassen.
Damit würden sie es sich schließlich auch verscherzen mit dem Support der IHVs bei der Entwicklung.
Unsinn, S3 gibt es ja auch immer noch, vielleicht wird ATi in Zukunft mit denen konkurrieren müssen anstatt mit Nvidia.
Nicht den Teufel an die Wand malen. Bevor AMD/ATI den Karren so weit in den Dreck fährt, wird die Grafiksparte an einen anderen weiterverkauft.

Gast
2008-04-30, 11:26:10
Warum?! Die API stellt die Funktionen zur Verfügung. Wenn dort etwas dabei ist, was der anderen Architektur nicht schmeckt, hat man "gewonnen", je nach Sichtweise.



Die API ist aber nicht chip-spezifisch, also kann man auch über die API nicht chip-spezifisch programmieren/optimieren.
API-Funktionen != hardware-level-Funktionen des Chips.

Gast
2008-04-30, 11:41:37
Die API ist aber nicht chip-spezifisch, also kann man auch über die API nicht chip-spezifisch programmieren/optimieren.
API-Funktionen != hardware-level-Funktionen des Chips.


Wieder Käse. Natürlich kann man das. Manche Funktionen laufen auf der einen Architektur schneller als auf der anderen. Man kann ähnliche Ergebnisse über unterschiedliche Funktionen erreichen. Welche wählt man also?!

Gast
2008-04-30, 11:58:57
der R700 (2*RV770) wird der kunkurrent des GT200 (preisbereich: 500€+)
R700 wird es verdammt schwer gegen den GT200 haben.
Erstens ist Multi GPU keine Alternative, aber selbst wenn, können 2 RV770 gar nicht so schnell sein.


der RV770 ist ein performence produkt, das sich eher mit der 9800GT messen darf ...
Besonders hier wirds AMD schwer haben.
G94 ist bereits größer als RV670, schneller und für den Endkunden billiger.
Genauso wirds in Zukunft auch sein, der große RV770 gegen den winzigen G92b? Das wird hart.

Vielleicht bekommt AMD wenigstens eine Antwort auf G94 hin, um im unter 100€ Bereich noch etwas zu sagen zu haben.

MEDIC-on-DUTY
2008-04-30, 11:59:19
Gibt´s jetzt Glaskubeln bei Aldi im Sonderangebot?

Gast
2008-04-30, 12:04:21
Nein, es gibt Fakten auf dem Tisch. Wenn du Tee trinken und warten willst, dann ist der Fred nichts für dich.

Schlammsau
2008-04-30, 12:05:36
Das ist die unwahrscheinlichste Speku, am wahrscheinlichsten sind 50% Mehrleistung zum RV670.
nein, die unwahrscheinlichste Speku ist diese hier.....
http://www.bilgiustam.com/resimler/2008/04/testcrysis2.jpg
würd mich freuen wenns so wäre, aber glauben tu ich das nicht!

Gast
2008-04-30, 12:07:16
R700 wird es verdammt schwer gegen den GT200 haben.
Erstens ist Multi GPU keine Alternative, aber selbst wenn, können 2 RV770 gar nicht so schnell sein.

Der R700 ist keine normale Crossfire-Lösung. Beide GPUs werden über den Ringbus miteinander verbunden, ähnlich wie bei den Quadcores von Intel. So werden auch beide 256bit-Speichercontroller zu einem 512bit-Controller zusammengeschaltet.

James Ryan
2008-04-30, 12:10:23
Ich glaube schon, dass Nvidia eine böse Überraschung erleben wird und jetzt die Quittung dafür bekommt, dass sie sich so lange auf der 8800GTX ausgeruht haben.

Du meinst, NVIDIA hat seit November 2006 nichts getan, außer einen G92 zu bringen? ;D
Wenn du dich da mal nicht gewaltig irrst... ;)

MfG :cool:

Gast
2008-04-30, 12:11:17
Der R700 ist keine normale Crossfire-Lösung.
Belege?

Grestorn
2008-04-30, 12:12:57
Der R700 ist keine normale Crossfire-Lösung. Beide GPUs werden über den Ringbus miteinander verbunden, ähnlich wie bei den Quadcores von Intel. So werden auch beide 256bit-Speichercontroller zu einem 512bit-Controller zusammengeschaltet.

So lange die beiden GPUs unabhängig rechnen, werden sie auch die gleichen Probleme wie alle Multi-GPU Lösungen haben. Insbesondere den Input-Lag, alle anderen Probleme lassen sich m.E. ganz gut lösen.

Gast
2008-04-30, 12:13:16
Du meinst, NVIDIA hat seit November 2006 nichts getan, außer einen G92 zu bringen? ;D
Ja so läuft das doch ab.
Nach dem R600 Launch haben alle NV Entwickler 2 Jahre Urlaub bekommen, alle Projekte wurden auf Eis gelegt, der Architekturnachfolger gecancelt. :D
Ne also was Manche hier denken. ;D

reunion
2008-04-30, 12:14:09
Besonders hier wirds AMD schwer haben.
G94 ist bereits größer als RV670, schneller und für den Endkunden billiger.
Genauso wirds in Zukunft auch sein, der große RV770 gegen den winzigen G92b? Das wird hart.

Vielleicht bekommt AMD wenigstens eine Antwort auf G94 hin, um im unter 100€ Bereich noch etwas zu sagen zu haben.

Also die 276mm² bei G92b würde ich nicht unbedingt als winzig bezeichnen. Und G94 wird vielleicht für den Kunden billiger angeboten, hat aber ein deutlich größeres Die als RV670. Von G92 mal ganz zu schweigen. Wenn es AMD mit RV770 schafft einen G92b bei vergleichbarer Die-Size zu schlagen, dann hat man im sehr wichtigen Performance- und Midragesegment wohl lange Zeit die Oberhand. Denn für einen Performancechip auf GT200-Basis wird man wohl auf 45nm warten müssen.

Der R700 ist keine normale Crossfire-Lösung. Beide GPUs werden über den Ringbus miteinander verbunden, ähnlich wie bei den Quadcores von Intel. So werden auch beide 256bit-Speichercontroller zu einem 512bit-Controller zusammengeschaltet.

Doch, R700 ist eine stink normale Crossfire-Lösung. Erst der Nachfolger wird hier zumindest die Probleme mit den doppelt ausgelegten Speicher lösen können.

Gast
2008-04-30, 12:19:10
Und G94 wird vielleicht für den Kunden billiger angeboten, hat aber ein deutlich größeres Die als RV670.
Das war bisher kein Grund, den RV670 billiger anzubieten.
Selbst beschnittene G92 befinden sich im RV670 Preisbereich.

Gast
2008-04-30, 12:20:57
Wenn es AMD mit RV770 schafft einen G92b bei vergleichbarer Die-Size zu schlagen
Wenn.
G92b wird kleiner als G92 und gleichzeitig schneller.

Gast
2008-04-30, 12:26:03
Wenn.
G92b wird kleiner als G92 und gleichzeitig schneller.

naja etwas schneller vll, der shrink dient vor allem der kostenreduzierung (es war mal 30$ günstiger genannt worden)

Hvoralek
2008-04-30, 12:58:13
abwarten Tee trinken,wenn das Ding mit GDDR3 kommt und dem SI des G92 verreckt das Ding an seiner nicht vorhandenen Bandbreite.GT200 hat aller Voraussicht nach ein 8x64- bit- SI.

Doch, R700 ist eine stink normale Crossfire-Lösung. Erst der Nachfolger wird hier zumindest die Probleme mit den doppelt ausgelegten Speicher lösen können.Eine Anbindung "wie bei Intels Quadcores" wäre wohl nicht die beste Lösung. Die kommunizieren immer noch über den FSB, oder?

Ailuros
2008-04-30, 13:16:25
Also die 276mm² bei G92b würde ich nicht unbedingt als winzig bezeichnen.

Woher kommt die Zahl denn schon wieder?

Und G94 wird vielleicht für den Kunden billiger angeboten, hat aber ein deutlich größeres Die als RV670.

65nm vs. 55nm ist genauso relevant wie ein Aepfel gegen Birnen Vergleich. Ich will bezweifeln dass Du weisst welchen genau 65nm bzw. 55nm fuer jeglichen erwaehnten chip benutzt wird und noch mehr was jeglicher kostet, wie es mit den Margen aussieht usw usw.

Und falls es nicht klar genug sein sollte, AMD braucht etwas mehr als nur RV670 um endlich an echten Gewinn zu gelangen fuer die Grafik-abteilung.

Von G92 mal ganz zu schweigen.

Hat sich was in der Zwischenzeit beim 30:70 Verhaeltnis fuer "high end" geaendert oder nicht?


Wenn es AMD mit RV770 schafft einen G92b bei vergleichbarer Die-Size zu schlagen, dann hat man im sehr wichtigen Performance- und Midragesegment wohl lange Zeit die Oberhand.

Wenn meine Grossmutter auf Schienen rasen koennte, waere sie vielleicht ein Schnellzug *hust* Zu viele Hypothesen in einem Satz....

Denn für einen Performancechip auf GT200-Basis wird man wohl auf 45nm warten müssen.

Sagt wer?

Doch, R700 ist eine stink normale Crossfire-Lösung. Erst der Nachfolger wird hier zumindest die Probleme mit den doppelt ausgelegten Speicher lösen können.

Aber auch nur das Speicher-problem; der Rest der Probleme wird wohl leider bleiben. Nichtdestominder tatsaechlich ein Schritt in die richtige Richtung, aber etwas besseres haetten sie sich auch einfallen lassen koennen wenn sie schon fuer die absehbare Zukunft mit performance chips den high end Markt bedienen wollen. Aber wie gesagt man spart ja wo immer es geht so viel wie moeglich an R&D.

Sorkalm
2008-04-30, 13:18:32
Woher kommt die Zahl denn schon wieder?

Die hat VR-Zone mal für den G92b genannt.

[fu]121Ah
2008-04-30, 13:40:48
der ringbus hilft tatsächlich schon extrem, löst jedoch die anderen probleme nicht. nur, wenn man so die GPUs zentral steuern kann, synchen und die last abgleichen, könnte es, mithilfe eines guten protokolls, möglich sein, die mikroruckler etc. zu umgehen.

Ailuros
2008-04-30, 13:46:39
Die hat VR-Zone mal für den G92b genannt.

Ich hab noch nichts darueber gehoert, aber falls das Zeug stimmen sollte, dann deutet es deutlich auf um einiges hoehere Frequenzen. Bei einer ziemlich konservativen hypothetischen Packdichte von 3.0x sind es schon ca. 828M Transistoren.

Mr.Magic
2008-04-30, 14:52:33
Denn für einen Performancechip auf GT200-Basis wird man wohl auf 45nm warten müssen.

Chipfertigung ohne Ausschuss? Alle Dies und Cluster im Wafer 100% funktionstüchtig? Das würde nVidia sicher freuen...

AnarchX
2008-04-30, 14:58:34
Perfomance bedeutet ja heutzutage: <$300. Und da wird GT200 mit seinen 600mm² wohl vorerst nicht zu finden sein.

Aber das wir auf 45nm warten müssen ist natürlich fraglich, Shrink auf 55nm und Reduktion des SI auf 256-Bit bei Nutzung von GDDR5 für gleichbleibende Bandbreite und eventuell kleinere Reduktionen der Clusteranzahl, schon hätte man wohl einen netten Performancepart für das Weihnachtsgeschäft. ;)

Nakai
2008-04-30, 15:00:40
Chipfertigung ohne Ausschuss? Alle Chips und Cluster im Wafer 100% funktionstüchtig? Das würde nVidia sicher freuen...

Ich nehm mal 585mm² für GT200, also 24,1mm Kantenlänge für den Die.
Bei 300mm-Wafer würden theoretisch 120 Chips reinpassen, aber natürlich sind die Chips am Rand abgeschnitten. Aufm 300mm Wafer passen etwa 120 G80s.
Wieviele GT200 passen auf so einen Wafer, wenn der GT200 über 20% größer ist?
Ich würde auf knapp 95 Chips schätzen...


mfg Nakai

GeneralHanno
2008-04-30, 15:03:08
der GT200 wird als GTX (einstieg 600€) und GTS (einstieg 450€) kommen. bei der GTS werden halt alle chipteile gekürzt (ROPs, cluster, takt)

tombman
2008-04-30, 15:05:52
der GT200 wird als GTX (einstieg 600€) und GTS (einstieg 450€) kommen. bei der GTS werden halt alle chipteile gekürzt (ROPs, cluster, takt)
Wenn der GT200 am Anfang nicht mindestens 600€ kostet freß ich nen Besen (aus Schoko) ;D

mapel110
2008-04-30, 15:10:22
Wenn der GT200 am Anfang nicht mindestens 600€ kostet freß ich nen Besen (aus Schoko) ;D
Wenn ATI nicht in die Puschen kommen sollte, dann wird das auch der Standardpreis sein... die nächsten 2 Jahre...

Grestorn
2008-04-30, 15:11:17
Wenn der GT200 am Anfang nicht mindestens 600€ kostet freß ich nen Besen (aus Schoko) ;D

Du Weichei! ;)

tombman
2008-04-30, 15:11:55
Du Weichei! ;)
YESSIR, with SALT please ;)

Sorkalm
2008-04-30, 15:13:06
Aber das wir auf 45nm warten müssen ist natürlich fraglich, Shrink auf 55nm und Reduktion des SI auf 256-Bit bei Nutzung von GDDR5 für gleichbleibende Bandbreite und eventuell kleinere Reduktionen der Clusteranzahl

Und wieso für das Segment nicht den G92b nehmen?
Läuft doch bei dir fast auf das selbe hinaus, will man eine ordentliche Die-Größe erreichen.

Nightspider
2008-04-30, 15:33:54
Wenn der GT200 am Anfang nicht mindestens 600€ kostet freß ich nen Besen (aus Schoko) ;D

Bestellst dir dann wieder 2 Karten und machst am Releasetag bzw. 1-2 Tage danach ein flüssiges 3DmarkVantage Video, wie damals zum G80-Release ? =)

Ich weiß es noch, als wär es gestern gewesen...diese pure Freude, beim Erscheinen des G80 und die Freude 560 Euro auszugeben. :ulol:

Gast
2008-04-30, 15:40:37
Die erste Charge ist doch eh beschnitten und irgendwie kaputt...wetten :D

GeneralHanno
2008-04-30, 15:42:08
Die erste Charge ist doch eh beschnitten und irgendwie kaputt...wetten :D

hää?

Gast
2008-04-30, 15:45:39
nix häää war die letzte Zeit doch immer so,ich tippe die erste Charge auf GDDR3,wenn die ATI was taugt,die läuft dann nach 2 Monaten aus und er Burner kommt.

Paul Brain
2008-04-30, 16:01:37
nix häää war die letzte Zeit doch immer so,ich tippe die erste Charge auf GDDR3,wenn die ATI was taugt,die läuft dann nach 2 Monaten aus und er Burner kommt.
Zumindest war in den letzten Jahren immer der Videoprozessor in der ersten Generation defekt oder nicht vorhanden; 6800GT/Ultra, 8800GTS/GTX, 2900XT...

AnarchX
2008-04-30, 16:06:58
Und wieso für das Segment nicht den G92b nehmen?
Läuft doch bei dir fast auf das selbe hinaus, will man eine ordentliche Die-Größe erreichen.
Bleibt die Frage offen, ob G92B jemals GDDR5 unterstützen wird und Ailuros hat ja die Andeutung gemacht, dass GT200 Specs nicht besonders aussehen, aber was daraus an Performance resultiert soll wohl doch nicht zu verachten sein.;)

Zudem wäre, wenn GT200 D3D10.1 mitbringt, dies auch für ein Performance-Produkt wünschenswert.

Auch so wird wohl G92B eher in das Segment <$200 abzielen und kommt natürlich um einiges eher an den Markt, als diese hypothetische Lösung.

Ein GT220 mit 64TMUs, 192SPs, 256-Bit was in ~300-330mm²@55nm passen sollte,@~750/2200MHz+~1.6GHz+ GDDR5, wäre doch eine nette Performance-Lösung die im November für ~$299 launchen könnte. :D

Sorkalm
2008-04-30, 16:10:17
Ich denke konkrete Spekulationen zu dem Performance-Part werden wohl erst möglich sein, wenn die genauen Daten des GT200 bekannt sind.

Aber: So klein ist der G92b nicht, und ob sich der optische Shrink hier lohnen würde, wenn man den gleich wieder ersetzten möchte ist auch noch eine andere Sache...

Slipknot79
2008-04-30, 16:10:53
Ich weiß es noch, als wär es gestern gewesen...diese pure Freude, beim Erscheinen des G80 und die Freude 560 Euro auszugeben. :ulol:

700 waren es bei ihm :cool:

Sonyfreak
2008-04-30, 16:20:09
Wie lange hat es damals gedauert, bis die 8800GTX "nur noch" 500€ gekostet hat?

mfg.

Sonyfreak

Slipknot79
2008-04-30, 16:25:55
Wie lange hat es damals gedauert, bis die 8800GTX "nur noch" 500€ gekostet hat?

mfg.

Sonyfreak

Ca 4-5 Monate

MEDIC-on-DUTY
2008-04-30, 16:27:00
Wie lange hat es damals gedauert, bis die 8800GTX "nur noch" 500€ gekostet hat?

mfg.

Sonyfreak

Zu lange. Selbst die späteren Ultras sind heute noch überteuert. Aber wer ausser uns soll denn sonst die Entwicklungskosten reinholen :ugly:

AnarchX
2008-04-30, 16:27:32
Ca 4-5 Monate
Laut CB war sie Anfang Februar 07 schon bei 475€, als kann wohl ausgehen, dass auch "bessere" Hersteller in diesem Zeitraum bei ~500€ lagen.

MEDIC-on-DUTY
2008-04-30, 16:32:51
ok, aber man muss sagen, die Karte war auch zu dem Zeitpunkt ein echtes "Brett". Im Gegensatz zu dem Vorgeplänkel.
Selbst jetzt gehen die gebrauchten beim eHafen noch für die Hälfte übern Tisch.

Coda
2008-04-30, 16:38:46
Das macht auch eine X1950XTX :P
Thema verfehlt.

Nightspider
2008-04-30, 16:38:58
700 waren es bei ihm :cool:

Ich weiß.

Ich habs noch nen Monat herausgezögert um ~150 € zu sparen, ich Banause :tongue:

Gast
2008-04-30, 17:40:05
Frage, wenn im July der GT200 schon extrem früh kommen soll, warum soll man dann noch einen G92b bringen?
55nm wird doch eh immer mit kleinen/mobilen GPUs getestet und dann im Refresh erst auf die Highend Chips angewendet. G92(b) ist aber kein kleiner Chip, oder solls zumindest nicht sein. Wenn die G9600GT GPUs genug Marge abwerfen, werden die eventuell nochmal geshrint aber ansonsten kann ich mir nicht vorstellen, das nochmal eine G8800/G9800 kommt. Warum auch, gibt keinen Grund dafür.

The_Invisible
2008-04-30, 17:46:10
Bestellst dir dann wieder 2 Karten und machst am Releasetag bzw. 1-2 Tage danach ein flüssiges 3DmarkVantage Video, wie damals zum G80-Release ? =)

Ich weiß es noch, als wär es gestern gewesen...diese pure Freude, beim Erscheinen des G80 und die Freude 560 Euro auszugeben. :ulol:

wenn der gt200 so lange hält wie der g80 hat er sogar ein gutes preis/leistungsverhältnis auf zeit :D

mfg

Gast
2008-04-30, 17:48:30
wenn der gt200 so lange hält wie der g80 hat er sogar ein gutes preis/leistungsverhältnis auf zeit :D

mfg
Wenn man nicht gerade Monate später die überteuerte Ultra kauft. ;)

gamingforce
2008-04-30, 17:49:22
also so schnell wie 2x 8800GTX im SLi sollte der schon werden oder?

Gast
2008-04-30, 17:50:20
Schneller. Fred lesen.

dargo
2008-04-30, 18:22:44
Frage, wenn im July der GT200 schon extrem früh kommen soll, warum soll man dann noch einen G92b bringen?

Weil man auch was fürs Performance-Segment braucht.

Nakai
2008-04-30, 19:29:28
Weil man auch was fürs Performance-Segment braucht.

Jetzt gibts 2 Möglichkeiten:
NV unterschätzt ATI
oder
NV unterschätzt ATI nicht

Ob ein G92 reicht um den RV770 zu schlagen. Der G92 schafft es etwa 50% schneller zu sein, wie ein RV670.
Wenn der Rv770 mehr als 50% schneller wird, dann wird der G92b ein Problem haben.



mfg Nakai

GeneralHanno
2008-04-30, 19:36:32
dann muss nvidia eben über den preis gehen ;)
für die "prestige" ist ja sowieso der GT200 zuständig :D

Gast
2008-04-30, 19:41:29
Weil man auch was fürs Performance-Segment braucht.

Man hat doch alles, oder? Als G80/NV50 kam, gab es auch nix neues für das untere Segment, Highend und eins darunter wurden bedient, wer nicht wollte musste eben warten.

sklave_gottes
2008-04-30, 19:45:26
Das grosse Problem von amd ist das der rv770 unbedingt schneller als ein g92b sein muss bei etwa gleichem preis. Denn Nvidea ist einfach der viel stärkere NAME!

Das ist ein Problem. Siehe 7900gtx und x1900xt. letzte frist die gtx fast auf. und.... man hat weniger karten verkauft als nvidea. Der Name machts. Und um das wieder hinzubiegen muss man halt schneller und biliger sein. Und das wird sehr schwer.

mfg martin

Anarchy-HWLUXX
2008-04-30, 21:15:06
Das ist ein Problem. Siehe 7900gtx und x1900xt. letzte frist die gtx fast auf. und.... man hat weniger karten verkauft als nvidea. Der Name machts. Und um das wieder hinzubiegen muss man halt schneller und biliger sein. Und das wird sehr schwer.

mfg martin

Die Performance der ATi ist im nachhinein besser geworden durch Treiberupdates, was einem beim launch nix gebracht hat ... und man hatte ja noch die negativen Berichte über die X1800.

AnarchX
2008-04-30, 21:21:12
Die Performance der ATi ist im nachhinein besser geworden durch Treiberupdates, was einem beim launch nix gebracht hat ...
...bzw. zeigten die Games Anfang 2006 noch nicht die deutlichen Schwächen der CineFX-Architektur. Und vernünftige Kühlerlösungen brachte ATi damals auch noch nicht zu stande, aber das hat sich zum Glück gebessert.

Aber mit der GF8-Serie hat NV imo definitiv wieder einiges an Prestige gewonnen, was auch bei zukünftiger Schwäche helfen könnte.

Gast
2008-04-30, 21:22:44
Die Performance der ATi ist im nachhinein besser geworden durch Treiberupdates, ....


sagen wir, insbesonders durch "Optimierungen" an der Bildqualität, wie man an den Tests von HT4U sieht.

deekey777
2008-04-30, 21:26:27
sagen wir, insbesonders durch "Optimierungen" an der Bildqualität, wie man an den Tests von HT4U sieht.
Blahblah.
Die Treiberabteilung hat die Performance bei Verwendung des MSAA deutlich verbessert.
Macht HT4U Bildvergleiche oder lässt sich die Bildqualität anhand von Balken beurteilen?

Nightspider
2008-04-30, 22:03:06
Vielleicht siehts ja schlussendlich wirklich so aus, das der GT200 ein Jahr (oder gar darüber hinaus) den HighEnd Markt befüttern soll.

Die guten GT200 Chips in die GTX (später Ultra) und die schlechteren in die GT / GTS.

Der G92 @ 55nm (G92b) deckt dann ebenfalls solange (ein Jahr oder länger) die restlichen Märkte ab.

Eine hochgetaktete Variante des G92b, welche die Taktraten auch mitmachen könnte Ende des Jahres, nach dem GT200 erscheinen und die Lücke zwischen 9800 GTX und "10.800 GTS" schließen, während ab Sommer die G92b Chips schon in die 9800-Serie gesetzt wird, damit NV Geld sparen kann. (Die guten Chips könnten ja dann für eine 9800 Ultra oder 9900 GTX selektiert werden.

Winter[Raven]
2008-04-30, 22:20:53
Jetzt gibts 2 Möglichkeiten:
NV unterschätzt ATI
oder
NV unterschätzt ATI nicht

mfg Nakai

Eigentlich würde ich dies anders formulieren... Nvidia nimmt AMD vorerst gar nicht mehr ernst und konzentriert sich bzw. mobilisiert seine Kräfte an anderer Front.

gamingforce
2008-04-30, 22:26:02
Schneller. Fred lesen.

Das will ich sehen, glaub ich nicht das ein Gt 200 schneller als 2x 8800GTX ist bei 1920x1200 4xAA 16xAF, NEVER !!!

Gast
2008-04-30, 22:31:57
Das will ich sehen, glaub ich nicht das ein Gt 200 schneller als 2x 8800GTX ist bei 1920x1200 4xAA 16xAF, NEVER !!!


glaub ich auch nicht,und in niedrigen auflösung wird es sogar noch schlechter aussehen.

Coda
2008-04-30, 22:33:08
Das will ich sehen, glaub ich nicht das ein Gt 200 schneller als 2x 8800GTX ist bei 1920x1200 4xAA 16xAF, NEVER !!!
Wenn die Die-Size stimmt dann ist er das sicher und noch mehr. Die 8800GTX ist inzwischen für Chip-Maßstäbe auch schon uralt. Das wäre nun wirklich nichts besonderes.

gamingforce
2008-04-30, 22:37:32
Wenn ich mir die Benches ansehe, das 2x GX2 (oder auch eine) total weg brechen sobald es an die Settings für Männer geht, da knallen die GTXn die ohne probleme weg :rolleyes: (auch meine 2x GTS 512er Karten gehen unter)

Und das war schon mehr als peinlich was NV da abgezogen hat, ich hab die befürchtung das es NV diesmal so ergeht wie dem R600 dicke Daten aber hinten raus kommt nur warme Luft:(

Hvoralek
2008-04-30, 22:39:47
Wenn ich mir die Benches ansehe, das 2x GX2 (oder auch eine) total weg brechen sobald es an die Settings für Männer geht, da knallen die GTXn die ohne probleme weg :rolleyes: (auch meine 2x GTS 512er Karten gehen unter)Und der Spitzen- GT200 bekommt natürlich nur 512 MiB Speicher :rolleyes:

Coda
2008-04-30, 22:46:25
Und das war schon mehr als peinlich was NV da abgezogen hat, ich hab die befürchtung das es NV diesmal so ergeht wie dem R600 dicke Daten aber hinten raus kommt nur warme Luft:(
Aha. Und wieso sollte das so sein auf Basis einer verbesserten G8x-Architektur?

Leute macht euch doch nich lächerlich. Falls 65nm, 512 Bit SI und fast 600mm² stimmen hat das Ding mindestens die zweifache 8800GTX Leistung.

Gast
2008-04-30, 22:49:32
Und das war schon mehr als peinlich was NV da abgezogen hat
Warum peinlich?
Die GX2 hat NV die Performance Krone gesichert.

Gast
2008-04-30, 23:05:04
Warum peinlich?
Die GX2 hat NV die Performance Krone gesichert.

Wo denn??? In richtigen Settings "für Männer" wie gamingforce schon sagt wird die GX2 von einem GTX-SLI aber so richtig gefickt :P

Snoopy1978
2008-04-30, 23:07:04
Ich denke Nvidia wird schon eine ordentliche Lösung vorstellen,wie gesagt die bisher durchgesickerten Daten lassen schon auf was "Größeres" schliesen.Es kommt eben nur darauf an was der Einzelne unter "Groß" definiert.

gamingforce
2008-04-30, 23:08:51
Warum peinlich?
Die GX2 hat NV die Performance Krone gesichert.


schonma mit ner GX2 gezockt ?(nicht nur 3Dmark laufen lassen) :rolleyes:

Ich denke Nvidia wird schon eine ordentliche Lösung vorstellen,wie gesagt die bisher durchgesickerten Daten lassen schon auf was "Größeres" schliesen.Es kommt eben nur darauf an was der Einzelne und "Groß" definiert.

ich hoffe es, ich bin von den beiden GTS 512er eigentlich sehr entäuscht (800/1920/1100), mehr als nur 3DMark ist nicht drin flüssiges gameplay kann man voll knicken :(

Gast
2008-04-30, 23:12:05
Ich denke Nvidia wird schon eine ordentliche Lösung vorstellen,wie gesagt die bisher durchgesickerten Daten lassen schon auf was "Größeres" schliesen.Es kommt eben nur darauf an was der Einzelne und "Groß" definiert.
Alles andere wäre auch eine blamage, nach dem GF 9800 Reinfall ;D

gamingforce
2008-04-30, 23:19:20
Ich denk so ein Wurf wie der G80 war, wird ihnen nicht so schnell wieder gelingen (denk ich ma), aber wird sich zeigen.

Godmode
2008-04-30, 23:26:02
Ich denk so ein Wurf wie der G80 war, wird ihnen nicht so schnell wieder gelingen (denk ich ma), aber wird sich zeigen.

Also wenn man dem Posting von Vincent auf B3D glauben schenken kann, dann wird uns der GT200 wieder genau so eine Freude wie der G80 bringen.

Gast
2008-04-30, 23:26:12
Wo denn??? In richtigen Settings "für Männer" wie gamingforce schon sagt wird die GX2 von einem GTX-SLI aber so richtig gefickt :P
schonma mit ner GX2 gezockt ?(nicht nur 3Dmark laufen lassen) :rolleyes:

Nein.
Ich habe nichts von Zockperformance geschrieben. Da kannst du die 3870 X2 genauso wegkippen.
Ist doch klar, für Männer gitbs die 8800Ultra Triple SLi, für Kinder die 9800 GX2, mit ihrem hohen 3DMark Wert. Deshalb: Performancee Krone, die wäre mit einem G80 SLi nicht möglich, besonders weil das keine Einzelkarte ist, auch wenn die Probleme dieselben sind.

Alles andere wäre auch eine blamage, nach dem GF 9800 Reinfall ;D
Warum ist die 9800 ein Reinfall?

Ich denk so ein Wurf wie der G80 war, wird ihnen nicht so schnell wieder gelingen (denk ich ma), aber wird sich zeigen.
Ja G80 war eine neue Architektur, jetzt gibts halt nur 2,5 fache G80 Leistung, für die knapp 2 Jahre ein sehr guter Wert.

gamingforce
2008-04-30, 23:29:13
na mal sehen, ich hoffe bloss die steht noch gut da wenn 8xQ AA ins SPiel kommt, solche Settings kann ich mit den 2x Spielzeug G92 total vergessen :(

Gast
2008-04-30, 23:30:37
schonma mit ner GX2 gezockt ?(nicht nur 3Dmark laufen lassen) :rolleyes:



ich hoffe es, ich bin von den beiden GTS 512er eigentlich sehr entäuscht (800/1920/1100), mehr als nur 3DMark ist nicht drin flüssiges gameplay kann man voll knicken :(

haha was für eine kacke,bis 1920x1200+4aa reicht sogar eine karte aus abgesehen bei crysis.einfach lächerlich die aussage aber wie schon der ganze fred

Gast
2008-04-30, 23:33:59
Warum ist die 9800 ein Reinfall?

Ach ja stimmt, die 9800GTX geht ja richtig ab ggü der 8800GT G92 :rolleyes: besonders für den mehr Preis^^

Gast
2008-04-30, 23:39:57
na mal sehen, ich hoffe bloss die steht noch gut da wenn 8xQ AA ins SPiel kommt, solche Settings kann ich mit den 2x Spielzeug G92 total vergessen :(
Wie oft den noch?
8xQ (MSAA) ist nicht praxisrelevant!
Schalte 8x (CSAA) oder 8xS oder 8xSQ ein.

Gast
2008-04-30, 23:41:22
Ach ja Crysis
http://s2.directupload.net/images/080423/temp/i7gwcico.png (http://s2.directupload.net/file/d/1408/i7gwcico_png.htm)

bin mal auf den GT200 gespannt im Solo Betrieb....

Gast
2008-04-30, 23:43:30
Ein Traum wird in Erfüllung gehn, Crysis ohne Details runterzustellen zocken zu können. :-)

Gast
2008-04-30, 23:45:41
Ein Traum wird in Erfüllung gehn, Crysis ohne Details runterzustellen zocken zu können. :-)

Genau wie auf meinem Bildchen mit der GX2.

Gast
2008-04-30, 23:46:57
Ich nicht.
Ich würde lieber HL2 CM7 mit 4x4OGSSAA oder Oblivion oder Gothic 3 flüssig sehen.

Gast
2008-04-30, 23:47:11
Genau wie auf meinem Bildchen mit der GX2.

Ich nehme an bis doppelt so schnell wie eine 9800GX2

Gast
2008-04-30, 23:49:19
Das was Oblivion für die 8800GTX war, ist Crysis für den GT200. Damit macht es dann richtig Sinn und es läuft extrem gut.

Gast
2008-04-30, 23:50:01
Ich nehme an bis doppelt so schnell wie eine 9800GX2
In extremen Settings, wo der GX2 der VRAM ausgeht wird GT200 rennen, so um die 5-6 fache GX2 Leistung, dafür ohne Lag und Mikroruckler. :)

Gast
2008-04-30, 23:50:48
Das was Oblivion für die 8800GTX war, ist Crysis für den GT200.
Oblivion ownt heute immer noch die schnellsten Karten.

Gast
2008-04-30, 23:51:22
Echt? Dann hätt ich 82 FPS ;D Goil,na ich bin mal gespannt,wenn das Ding doppelt so schnell ist wie die GX2 wird se gekauft.

Gast
2008-04-30, 23:53:21
In extremen Settings, wo der GX2 der VRAM ausgeht wird GT200 rennen, so um die 5-6 fache GX2 Leistung, dafür ohne Lag und Mikroruckler. :)
VRam Mikrouckler...ich lach mich schlapp echt,bin gerade in 1920x1200 2 Std.in Crysis rumgerannt und du wirst es nicht glauben mir ist beides nicht aufgefallen.

Gast
2008-05-01, 00:20:12
für die ganzen konsolenports kannste gleich eine 100euro karte kaufen und bis zum geht nicht mehr in welcher auflösung du willst spielen,wie man z.b. an der schrott engine unreal gesehen hat.

4711
2008-05-01, 00:21:23
Ich nicht.
Ich würde lieber HL2 CM7 mit 4x4OGSSAA oder Oblivion oder Gothic 3 flüssig sehen.

http://s3.directupload.net/images/080501/temp/yleeh29o.png (http://s3.directupload.net/file/d/1416/yleeh29o_png.htm)

sieht aber auch nett aus mit der ollen GX2

sind schon nett die Vergleiche wenn ich das bei Crysis in der Auflösung schieße sind das 5-6mb ;D

Die hat aber auch die Bluse voll ;D

Und wenn man das so alles sieht,sieht man immer wieder schön,was die Crysis Grafik zur Zeit darstellt.

Gast
2008-05-01, 00:31:36
Ist das 4x4OGSSAA?
Naja flüssig ist es nicht, da bräuchte ich schon 50fps in der Stelle. ;)
Dazu das 26fps bei SLi schlechter als 26fps bei einer Single Karte sind.

Also Gebraucht wird:
Doppelte GX2 Leistung aber ohne GX2 Nachteile. :D
Das ganze für sogenante "alte Spiele", Crysis ist mir jetzt wayne. :)

Gast
2008-05-01, 00:37:10
http://s3.directupload.net/images/080501/temp/yleeh29o.png (http://s3.directupload.net/file/d/1416/yleeh29o_png.htm)

sieht aber auch nett aus mit der ollen GX2

sind schon nett die Vergleiche wenn ich das bei Crysis in der Auflösung schieße sind das 5-6mb ;D

Die hat aber auch die Bluse voll ;D

Und wenn man das so alles sieht,sieht man immer wieder schön,was die Crysis Grafik zur Zeit darstellt.


du weist schon das die engine paar jahre auf dem buckel hat?und wayne interessiert noch crysis so ein grafikmonster wird es so schnell nicht mehr wiedergeben siehe verkaufszahlen,die entwickler heulen heute noch in jedem interview.multiport games ist angesagt und da kannste ganz schnell highendgrafik vergessen.

4711
2008-05-01, 00:38:58
4x4OGSSAA?...weiß nett ;D du bist doch der Fachman oder frag mal Gamingdingenskirchen,nachher isses noch 8xQ,NEIN es ist "8xSQ" und TMSAA und 16 AF und HL2 kannste,ja auch CM7 mit den FPS flüssig spielen.
Ach ja und gemikroruckelt und kein vram mehr, vieleicht bin ich schon zu abgestumpft um den Schwachsinn beim Spielen noch Ernst zu nehmen.

Gast
2008-05-01, 00:40:11
Ist das 4x4OGSSAA?
Naja flüssig ist es nicht, da bräuchte ich schon 50fps in der Stelle. ;)
Dazu das 26fps bei SLi schlechter als 26fps bei einer Single Karte sind.

Also Gebraucht wird:
Doppelte GX2 Leistung aber ohne GX2 Nachteile. :D
Das ganze für sogenante "alte Spiele", Crysis ist mir jetzt wayne. :)

Mit SLI rennt das flüssig.

4711
2008-05-01, 00:41:11
du weist schon das die engine paar jahre auf dem buckel hat?und wayne interessiert noch crysis so ein grafikmonster wird es so schnell nicht mehr wiedergeben siehe verkaufszahlen,die entwickler heulen heute noch in jedem interview.multiport games ist angesagt und da kannste ganz schnell highendgrafik vergessen.
Jo ist ja gut...es fällt eben auf,das Crysis in einer ganz anderen Lige spielt "im AUSSEHEN" und was wahr und wird wie gesagt "wayne".

Gast
2008-05-01, 00:47:16
http://s3.directupload.net/images/080501/temp/yleeh29o.png (http://s3.directupload.net/file/d/1416/yleeh29o_png.htm)

sieht aber auch nett aus mit der ollen GX2

sind schon nett die Vergleiche wenn ich das bei Crysis in der Auflösung schieße sind das 5-6mb ;D



Wiso ist das alles verwaschen/unscharf?

Gast
2008-05-01, 00:51:41
Mal Gammakorrektur ausstellen dann sieht es normal aus.

Gast
2008-05-01, 01:18:18
liegt am HDR,wenn man ein paar Meter vor geht ist das weg.

stickedy
2008-05-01, 01:50:30
Ist es eigentlich nicht möglich, dass in einem Grafikchip-Thread normal diskutiert wird? Was ist daran so schwer? Ich hab auch hier gerade viel Mist entfernt und will so einen Schwachsinn hier nicht mehr sehen.

Und eine Bemerkung noch: Den Meldebutton gibt es nicht grundlos!

Gast
2008-05-01, 08:54:05
4x4OGSSAA?...weiß nett ;D du bist doch der Fachman oder frag mal Gamingdingenskirchen,nachher isses noch 8xQ,NEIN es ist "8xSQ" und TMSAA und 16 AF und HL2 kannste,ja auch CM7 mit den FPS flüssig spielen.
Ach ja und gemikroruckelt und kein vram mehr, vieleicht bin ich schon zu abgestumpft um den Schwachsinn beim Spielen noch Ernst zu nehmen.
Gerade mal 8xSQ und olles TMSAA? Naja das zeigt mir doch es gibt weitaus mehr Spiele als Crysis wo dringend weitaus mehr Leistung notwendig ist.
Und ja 26SLI Fake fps mit zusätzlichem Lag sind vielleicht so gut, wie 16 normale fps.

Bei HL2 spürt man ein Frame Lag mehr sehr deutlich.

Mit SLI rennt das flüssig.
Es geht nicht um SLI.
Mit was für Karten? 2 9800GX2? Die haben zu wenig VRAM, der Lag ist gigantisch, Mikroruckler auch.

Gast
2008-05-01, 09:21:14
Blahblah.
Die Treiberabteilung hat die Performance bei Verwendung des MSAA deutlich verbessert.
Macht HT4U Bildvergleiche oder lässt sich die Bildqualität anhand von Balken beurteilen?


Was schreibst du denn für einen Quark? Bei AF steigt die Leistung deutlich dank der "Optimierungen", bei AA tut sich da gar nix.

GeneralHanno
2008-05-01, 09:26:53
ich denke wir müssen nicht darüber diskutieren wer von 7900GTX und 1900xt das bessere AF hatte :rolleyes:
und nun bitte BTT ...

4711
2008-05-01, 09:35:48
[QUOTE=Gast;6471895]Gerade mal 8xSQ und olles TMSAA? Naja das zeigt mir doch es gibt weitaus mehr Spiele als Crysis wo dringend weitaus mehr Leistung notwendig ist.
Und ja 26SLI Fake fps mit zusätzlichem Lag sind vielleicht so gut, wie 16 normale fps.

Bei HL2 spürt man ein Frame Lag mehr sehr deutlich.

gerade mal 8x...,bei CM7,Schwätzer,
da hab ich ja Glück das es "richtige" 26 FPS sind und das "ich" den "Frame Lag" nicht merke,vieleicht spiele ich auch mehr,anstatt irgendwas zu suchen.

ach ja ich will hier die GX2 nicht schönreden,das Ding tut es einfach und ich werde wohl einer der ersten sein die eine GT200 haben oder 2,trotz deiner so heiß geliebten Mikroruckler.

Gast
2008-05-01, 09:47:40
gerade mal 8x...,bei CM7,Schwätzer,
Ich habe nicht behauptet mehr zu haben, sondern das heutige Karten bei vielen Spielen an der Kotzgrenze sind.

Ich würde HL2 mit 26SLI Fps nicht spielen können. Das liegt auch nicht am "suchen", sondern am Anspruch. Das ist scheinbar nicht flüssig und meine Grundaussage war doch nur, das mehr als nur das olle Crysis mehr Power braucht.

4711
2008-05-01, 09:57:09
was hat CM7 mit dem orig.HL² zu schaffen?
Entschuldige den Schwätzer aber ich kanns VRAM und Mikrogeruggel gesabbel nicht mehr hören.
90% die sich darüber aufregen haben wahrscheinlich nie SLI gehabt und hängen sich hintenan wie bei dem Creative Gelaaber,ist ja "in".
Und davon kennen die meisten noch nichtmal den Unterschied bei AA und AF.
Kommt ja bald der GT200 dann sind beide Themen vom Tisch und ihr könnt euch was anderes suchen oder erfinden.

Gast
2008-05-01, 10:07:33
ich denke wir müssen nicht darüber diskutieren wer von 7900GTX und 1900xt das bessere AF hatte :rolleyes:
und nun bitte BTT ...

Die 7900GTX natürlich, da ATI die gute mögliche AF-Qualität der X1900 ja mit A.I. versaut hat.

GeneralHanno
2008-05-01, 10:12:30
das AF der 7900GTX war ja auch komplett winkelunabhängig :rolleyes:

4711
2008-05-01, 10:20:19
ich sags ja,wer weis überhaupt was aber Hauptsache was erzählen.

Gast
2008-05-01, 10:24:45
was hat CM7 mit dem orig.HL² zu schaffen?
Was soll die Frage? Mir egal was es damit zu tun hat. Mich interressiert nur, das es eine blanke Lüge ist zu beahupten aktuelle Karte wären für alles aktuelle schnell genug!

Ich weiß nicht genau, warum du mit dem Wort Schwätzer kommst.
Fakt ist: Ich sehe ob ich 1 oder 2 Frames Lag habe, HL2 läuft mit unter 60fps nicht flüssig, 16xAF ist kein Thema, FSAA kenne ich gut genug, wer es nicht kennt braucht auch keinen GT200.
Mikroruckler wurden bewiesen, wer Ruckler sieht sieht auch Ruckler, die nur alle 2 Frames auftreten, wo ist da der Unterschied?

Gast
2008-05-01, 10:27:45
Eigendlich hab mich weiter oben für den "Schwätzer " entschuldigt,wenn ich das jetzt wieder lese frag ich mich warum.

dargo
2008-05-01, 10:55:19
Jetzt gibts 2 Möglichkeiten:
NV unterschätzt ATI
oder
NV unterschätzt ATI nicht

Ob ein G92 reicht um den RV770 zu schlagen. Der G92 schafft es etwa 50% schneller zu sein, wie ein RV670.
Wenn der Rv770 mehr als 50% schneller wird, dann wird der G92b ein Problem haben.

Nun, der G92 wird denke ich keine Chance gegen den RV770 haben. Dafür soll ja der G92b kommen. Ob der dann ATI Paroli bieten kann wird sich erst zeigen müssen. Wenn nicht oder eher Gleichstand wird es wieder einen schönen Preiskampf in diesem Segment geben.

Ich stelle mir das folgendermaßen vor:

GT200GTX = 599$ (eventuell 649$)
GT200GTS = 449-499$ (je nachdem wie stark die "Kastrierung" ausfällt)
G92bGTX = 249-299$

Man hat doch alles, oder? Als G80/NV50 kam, gab es auch nix neues für das untere Segment, Highend und eins darunter wurden bedient, wer nicht wollte musste eben warten.
In dieser Zeit hatte afaik ATI unter High-End auch nichts Vernünftiges zu bieten. Das sieht jetzt etwas anders aus.

Sorkalm
2008-05-01, 11:51:53
In dieser Zeit hatte afaik ATI unter High-End auch nichts Vernünftiges zu bieten. Das sieht jetzt etwas anders aus.

RV570 war zu diesem Zeitpunkt ziemlich stark, auch der G84 hatte ja starke Probleme mit dem...

Aber btw: Wir sind ziemlich OT.

deekey777
2008-05-01, 12:17:13
Was schreibst du denn für einen Quark? Bei AF steigt die Leistung deutlich dank der "Optimierungen", bei AA tut sich da gar nix.
Du hast also einen Treibervergleich über mehrere Treiberversionen, mit dem du nachweisen kannst, dass die Leistungssteigerungen allein aus den "AF-Optimierungen" kommen?

Und nochmal: Die Treiberabteilung hat seit dem Start des R600 die Performance mit MSAA verbessert (und natürlich kommen diverse AF-Spielereien hinzu, aber auch Shaderreplacement etc.).

AnarchX
2008-05-02, 10:00:04
GT200 SLI: Crysis @2560x1600 VH 4XAA flüssig spielbar? (http://we.pcinlife.com/thread-926798-1-1.html)

Preis für die GTX soll aber auf 88Ultra-Niveau liegen.

tombman
2008-05-02, 10:03:19
GT200 SLI: Crysis @2560x1600 VH 4XAA flüssig spielbar? (http://we.pcinlife.com/thread-926798-1-1.html)

Preis für die GTX soll aber auf 88Ultra-Niveau liegen.
Wo siehst du da was? Außer Fragezeichen sehe ich nix...

AnarchX
2008-05-02, 10:05:03
Wo siehst du da was? Außer Fragezeichen sehe ich nix...

Solltest wohl mal den ostasiatischen Zeichensatz installieren oder halt:
http://www.google.com/translate_t?langpair=zh|en
;)

Der Poster ist PHK, der in der Vergangenheit so einiges leakte, was dann eintrat. Also hat er wohl gute Quellen. (Wenn irgendetwas mit einem Panda als Wasserzeichen versehen auftaucht, ist es von ihm.)

Gast
2008-05-02, 10:07:13
Lustige Smiles. ;)

MEDIC-on-DUTY
2008-05-02, 10:20:10
GT200 SLI: Crysis @2560x1600 VH 4XAA flüssig spielbar? (http://we.pcinlife.com/thread-926798-1-1.html)

Preis für die GTX soll aber auf 88Ultra-Niveau liegen.

Danke für die Quelle. Wenn das stimmt, dann wärs doch nen Brett ;) Naja, aber auch "nur" unter SLI

horn 12
2008-05-02, 10:31:48
Dies wird dann aber auch nicht sooo toll werden, (meine mit nur einer Einzel Karte des GT200 GPU Chips)
wenn man schon SLI braucht für Crysis, und Very High oder "nur" High,
Oder soll es gar auf Extrem High so spielbar sein, dann nehme ich gerade Gesagtes gerne zurück!
Dies wird wohl ein Kopf an Kopf rennen bei NV/ATI werden.

AnarchX
2008-05-02, 10:34:38
Schonmal geschaut, was aktuelle GPUs in diesem Setting liefern? ;)

Wenn man nun von vielleicht ~30FPS für das GT200-SLI ausgeht, was mancher wohl als spielbar definieren würde, dann wäre das mal eben ~3-fache 8800 GTX-Leistung in diesem Fall für einen GT200.

GeneralHanno
2008-05-02, 10:36:25
wenn man vom GT200 redet, dann sollte man eher von der effizienz des G94 ausgehen, als von der effizienz des G92 ...

MEDIC-on-DUTY
2008-05-02, 10:37:44
Schonmal geschaut, was aktuelle GPUs in diesem Setting liefern? ;)

Wenn man nun von vielleicht ~30FPS für das GT200-SLI ausgeht, was mancher wohl als spielbar definieren würde, dann wäre das mal eben ~3-fache 8800 GTX-Leistung in diesem Fall für einen GT200.

Auf jeden Fall können wir uns wieder auf eine reine Rennsemmel freuen...

gamingforce
2008-05-02, 10:57:05
Schonmal geschaut, was aktuelle GPUs in diesem Setting liefern? ;)

Wenn man nun von vielleicht ~30FPS für das GT200-SLI ausgeht, was mancher wohl als spielbar definieren würde, dann wäre das mal eben ~3-fache 8800 GTX-Leistung in diesem Fall für einen GT200.



hast du schonmal Crysis gespielt ?

es kommt drauf an in welches Level man ist, im ersten level sind 1920x1200 4xAA 16xAF nen klacks und ohen Probleme spielbar und flüssig, aber dann :rolleyes:

Crysis muss erstmal anständigt Programmiert werden, vorher sollte man diese Beta Techdemo nicht als Maßstab nehmen.

dargo
2008-05-02, 11:05:14
Danke für die Quelle. Wenn das stimmt, dann wärs doch nen Brett ;) Naja, aber auch "nur" unter SLI
Wenn das stimmt wäre das schon eine Sensation. Immerhin sprechen wir bzw. er von DX10 und very High. Und auch wenn er von SLI spricht - 2560x1600 hat ~78% mehr Pixel als 1920x1200. Das ist praktisch der gleiche Wert der durchs SLI gewonnen wird. Das würde also bedeuten, dass ein GT200 1920x1200 4xAA mit very High schafft. Die Frage ist nur was er unter flüssig versteht.

Dies wird wohl ein Kopf an Kopf rennen bei NV/ATI werden.
Das lese ich immer wieder von dir bei neuen Grafikkarten-GPUs. :D
Sorry, aber ich glaube du schätzst den RV770 und GT200 völlig falsch ein.

horn 12
2008-05-02, 11:10:22
Rechne nicht, der RV770 wird weitaus schneller werden als angenommen. Aber besser BTT und wir warten gemütlich ab.

MEDIC-on-DUTY
2008-05-02, 11:17:17
Wenn das stimmt wäre das schon eine Sensation. Immerhin sprechen wir bzw. er von DX10 und very High. Und auch wenn er von SLI spricht - 2560x1600 hat ~78% mehr Pixel als 1920x1200. Das ist praktisch der gleiche Wert der durchs SLI gewonnen wird. Das würde also bedeuten, dass ein GT200 1920x1200 4xAA mit very High schafft. Die Frage ist nur was er unter flüssig versteht.

...und zu welchem Preis. Nicht die Anschaffung, sondern was das Teil aus der Steckdose unter Last zieht. Aber wenn 3x 88er im Raum stehen, dann sind 250W nicht so abwegig. Bei SLI bis zu 500 W (!). Das wäre schon ein richtiger Negativrekord. Aber es verlangt auch keiner von einer 88er GT 2560x1600 :D

gamingforce
2008-05-02, 11:18:45
bringt doch alles nix, keiner weiss die Daten von GT200/RV770 aber alle wissen schon das der GT200 schneller wird;D

Ich seh schon die ganzen Heuler, wenn der GT200/RV770 doch nicht so das wahre wird wie alle sich erhoffen.

...und zu welchem Preis. Nicht die Anschaffung, sondern was das Teil aus der Steckdose unter Last zieht. Aber wenn 3x 88er im Raum stehen, dann sind 250W nicht so abwegig. Bei SLI bis zu 500 W (!). Das wäre schon ein richtiger Negativrekord. Aber es verlangt auch keiner von einer 88er GT 2560x1600 :D


woher nehmen manche Leuet überhaupt das die DIE größer wird wie beim G80 ? (Bilder, Fakten ?)
selbst das war ja schon nen riesen Ding, und jetzt noch größer? :|
Was für ne Graka wird den das bitte?

Und wenn das Ding wirklich soviel frisst, dann gute Nacht.

MEDIC-on-DUTY
2008-05-02, 11:22:17
bringt doch alles nix, keiner weiss die Daten von GT200/RV770 aber alle wissen schon das der GT200 schneller wird;D

Ich seh schon die ganzen Heuler, wenn der GT200/RV770 doch nicht so das wahre wird wie alle sich erhoffen.

Nun, das ist auch nicht der Facts-Channel. Aber aus den bereits hier recht gut abgesteckten Daten (Posts LESEN!), kann man eine gewisse Performance ableiten bzw. erwarten. Und nVidia muss ein Brett bringen um ATI auch weiterhin im HighEnd Sektor auf Distanz zu halten.

dargo
2008-05-02, 11:23:36
...und zu welchem Preis. Nicht die Anschaffung, sondern was das Teil aus der Steckdose unter Last zieht. Aber wenn 3x 88er im Raum stehen, dann sind 250W nicht so abwegig. Bei SLI bis zu 500 W (!). Das wäre schon ein richtiger Negativrekord.
Ich denke es werden wohl ca. 220-240W TDP, also ca. 180W real. Wenn das Ding zwei fache oder gar mehr Leistung bringt als ein G92 dann hat NV gute Arbeit geleistet. Ich will ja nicht bestreiten, dass das nichts ist. Für meinen Geschmack ist meine persönliche Grenze schon lange überschritten worden. Aber was will man machen wenn der Fertigungsprozess einfach nicht hinterher kommt? Dann wird wieder gemeckert, dass eine neue Generation nur 50% Mehrleistung bringt.

gamingforce
2008-05-02, 11:37:01
Nun, das ist auch nicht der Facts-Channel. Aber aus den bereits hier recht gut abgesteckten Daten (Posts LESEN!), kann man eine gewisse Performance ableiten bzw. erwarten. Und nVidia muss ein Brett bringen um ATI auch weiterhin im HighEnd Sektor auf Distanz zu halten.

ich lese die Posts hier udn das ganz genau, und abgestekc twerden kann garnichts es gibt einfach NICHT EINEN Punkt der 100% sicher ist was die Daten von der Karte angeht.

Was ist den wenn der GT200 nen aufgepusteter G92b wird?
Ich hab natürlich kein Plan davon was er wirklich wird, und ihr auch nicht.
Bloss weil die hardcore Spekulanten ne Superglaskugel daheim stehen haben und sagen " das Ding wird der überflieger" :rolleyes:

Wenn ich zurück denke, habt ihr das auch vom R600 gedacht und was war>>Schuss in Ofen;)

The_Silent_One
2008-05-02, 11:38:52
Und nVidia muss ein Brett bringen um ATI auch weiterhin im HighEnd Sektor auf Distanz zu halten.

was wir aus gründen des konkurrenzkampfes natürlich alle nicht wollen ;)

deekey777
2008-05-02, 11:41:36
ich lese die Posts hier udn das ganz genau, und abgestekc twerden kann garnichts es gibt einfach NICHT EINEN Punkt der 100% sicher ist was die Daten von der Karte angeht.

Was ist den wenn der GT200 nen aufgepusteter G92b wird?
Ich hab natürlich kein Plan davon was er wirklich wird, und ihr auch nicht.
Bloss weil die hardcore Spekulanten ne Superglaskugel daheim stehen haben und sagen " das Ding wird der überflieger" :rolleyes:

Wenn ich zurück denke, habt ihr das auch vom R600 gedacht und was war>>Schuss in Ofen;)
Bist du sicher, dass du den Thread gelesen hast?
Denn hier schwirren auch die wahrscheinlichen Spezifikationen des GT200. Und ja, er ist ein "aufgepusteter" G92.

Slipknot79
2008-05-02, 11:46:16
Wenn man nun von vielleicht ~30FPS für das GT200-SLI ausgeht, was mancher wohl als spielbar definieren würde, dann wäre das mal eben ~3-fache 8800 GTX-Leistung in diesem Fall für einen GT200.

30fps sind unter SLI aber ned spielbar wegen den Mikrorucklern.

deekey777
2008-05-02, 11:50:44
30fps sind unter SLI aber ned spielbar wegen den Mikrorucklern.
Wieviele Leute wissen, was Mikroruckler sind? Und wieviele Leute geilen sich über die angebliche Performance von "9900GTX SLI" auf?
a <<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<b

gamingforce
2008-05-02, 11:52:46
Bist du sicher, dass du den Thread gelesen hast?
Denn hier schwirren auch die wahrscheinlichen Spezifikationen des GT200. Und ja, er ist ein "aufgepusteter" G92.

:eek:

ohman, ich weiss nichtmehr was stimmten soll, dieses Forum sagt das, das ander wieder was anderes usw.

Wenn es nen G92 wird, kann man die Leistugn vergessen denk ich das der """neue""" GT200 an 2x8800GTX ran kommt, in 3DMark in 1280x1024 ja vieleicht das kann sein und glaub ich auch, aber nicht unter den anständigen Settings dann wirds ihr ergehen wie der GX2.

Und jetzt brauch keiner sagen der Speicher Limitiert bei ner X2 tuts das auch nicht und hat auch nur 512MB.

gamingforce
2008-05-02, 11:54:44
Wieviele Leute wissen, was Mikroruckler sind? Und wieviele Leute geilen sich über die angebliche Performance von "9900GTX SLI" auf?
a <<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<b

Diese ganze Microruckler Geschichte hängt mir zum Hals raus:mad:

DIe meisten wissen wirklich nicht was das ist oder schonma gesehen haben, die sache wird viel zu viel gehypt weil so schlimm ist es nicht wie PCGH oder andere immer sagen.

Unyu
2008-05-02, 11:56:11
Und jetzt brauch keiner sagen der Speicher Limitiert bei ner X2 tuts das auch nicht und hat auch nur 512MB.
Bei 512MiB limitiert der Speicher.

dargo
2008-05-02, 11:59:44
Wenn es nen G92 wird, kann man die Leistugn vergessen denk ich das der """neue""" GT200 an 2x8800GTX ran kommt, in 3DMark in 1280x1024 ja vieleicht das kann sein und glaub ich auch, aber nicht unter den anständigen Settings dann wirds ihr ergehen wie der GX2.

1. Es wird ein GT200 und kein G92, steht auch im Threadtitel. :rolleyes:
2. Woran machst du das fest? Wie oft muss man dir noch sagen, dass der GT200 mit 1GB Vram erscheint?

Grestorn
2008-05-02, 12:02:33
30fps sind unter SLI aber ned spielbar wegen den Mikrorucklern.

Das hat mit den fps nichts zu tun sondern mit der Verteilung der Last zwischen CPU und GPU.

deekey777
2008-05-02, 12:05:04
1. Es wird ein GT200 und kein G92, steht auch im Threadtitel. :rolleyes:
2. Woran machst du das fest? Wie oft muss man dir noch sagen, dass der GT200 mit 1GB Vram erscheint?
3. Mich würde es nicht wundern, wenn es nur eine GB-Version (und dann als nächste Stufe 2 GB) geben wird.
Wenn der GT200 eine Flaschenhälse des G80 verbessert, dann kann man eine mehr als ausreichende Performance-Bombe erwarten.

Sorkalm
2008-05-02, 12:06:23
ich lese die Posts hier udn das ganz genau, und abgestekc twerden kann garnichts es gibt einfach NICHT EINEN Punkt der 100% sicher ist was die Daten von der Karte angeht.

Sicher ist die riesige Die, denn das wird von jedem ernstzunehmenden Gerücht hervorgekaut - und der Fertigungsprozess. Mit diesem Daten kann man sich schon die grob geschätzte Leistung ausmalen, also zumindest eine Einschätzung in eine Leistungskategorie.

gamingforce
2008-05-02, 12:09:53
Ich frag mich wieso die DIE so groß wird, der G92 ist ja schon ein "kleiner" Chip :|

egal, wird sich zeigen ich glaub vorher garnichts nur das was ich sehe ;)

AnarchX
2008-05-02, 12:12:32
Ich frag mich wieso die DIE so groß wird, der G92 ist ja schon ein "kleiner" Chip :|

Weil nunmal wieder ein größerer Leistungssprung ansteht, der eben nicht nur für NVs GeForce-Familie wichtig ist.

Und da dies sicherheitshalber unter 65nm über die Bühne geht, kommt nunmal da ein entsprechend großer Die heraus, bei dem man eben nicht hoffen und bangen muss, das er die viel zu hoch gesteckte Taktprojektion schafft und somit auch sein Leistungsziel.

MEDIC-on-DUTY
2008-05-02, 12:15:51
Weil nunmal wieder ein größerer Leistungssprung ansteht, der eben nicht nur für NVs GeForce-Familie wichtig ist. Und da dies sicherheitshalber unter 65nm über die Bühne geht, kommt nunmal da ein entsprechend großer Die heraus, bei dem man eben nicht hoffen und bangen muss, das er die viel zu hoch gesteckte Taktprojektion schafft und somit auch sein Leistungsziel.

bei 65nm kommt auch noch die Qualitätskomponente ins Spiel, da dieser Prozess entsprechend ausgreift sein sollte.

James Ryan
2008-05-02, 12:26:42
Rechne nicht, der RV770 wird weitaus schneller werden als angenommen. Aber besser BTT und wir warten gemütlich ab.

Hatten wir das gleiche Spielchen nicht schon vor dem R600 Launch?

MfG :cool:

Psychopat
2008-05-02, 12:35:00
Mich würde mal interessieren was da für ein Lüfter drauf kommt. Muss ja ein ziemlicher Föhn sein bei der Leistungsaufnahme. Ich befürchte eine ähnlich laute Turbine wie bei 2900XT...

Das mit Hybrid-Power könnte in dem Fall blöd werden: nVidia baut keinen ordentlichen 2D Sparmodus ein sondern verweist auf Hybrid-Power, und alle ohne nForce-Brett haben ein Problem.

James Ryan
2008-05-02, 12:36:28
Mich würde mal interessieren was da für ein Lüfter drauf kommt. Muss ja ein ziemlicher Föhn sein bei der Leistungsaufnahme. Ich befürchte eine ähnlich laute Turbine wie bei 2900XT...

Das mit Hybrid-Power könnte in dem Fall blöd werden: nVidia baut keinen ordentlichen 2D Sparmodus ein sondern verweist auf Hybrid-Power, und alle ohne nForce-Brett haben ein Problem.

NVIDIA hat seit der FX 5800 Ultra eigentlich immer sehr gute und leise Kühler für ihre High-End Karten verwendet.
Ich würde mir diesbezüglich keine Sorgen machen. ;)

MfG :cool:

Gast
2008-05-02, 12:42:27
NVIDIA hat seit der FX 5800 Ultra eigentlich immer sehr gute und leise Kühler für ihre High-End Karten verwendet.
Ich würde mir diesbezüglich keine Sorgen machen. ;)

MfG :cool:

Seit der 7800GTX. 5800U und auch 6800U waren alles andere als leise.

w0mbat
2008-05-02, 12:43:07
Vorallem wäre ein so hohes TDP kein Problem wenn GT200 wirklich ~600mm² groß sein wird. Viel Fläche um Wärme abzuführen.

Slipknot79
2008-05-02, 12:53:40
DIe meisten wissen wirklich nicht was das ist oder schonma gesehen haben, die sache wird viel zu viel gehypt weil so schlimm ist es nicht wie PCGH oder andere immer sagen.


Ist es.