PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 4] - Übersicht in #1!


Seiten : [1] 2 3 4 5

AnarchX
2008-05-30, 15:08:57
letzter Post Teil 3: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6541893#post6541893

GT200 - Zusammenfassung aktueller Gerüchte/Spekulationen:

GPU-Codename: G200
Die-Size: 575mm²
Transitorenanzahl: >1Mrd.(laut NV (http://www.golem.de/0804/58955.html)) Update: 1.4Mrd. bestätigt (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6542350&postcount=51)
Die-Shot (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6540341&postcount=1661)

GPU-Aufbau:
- 512-Bit, 32 (?) ROPs
- 10 Cluster mit je 8 TMUs und je 24 skalaren Shadereinheiten (Fähigkeiten noch unbekannt) -> 80 TMUs, 240SPs(Bestätigung? (http://www.marketwatch.com/news/story/nvidias-picture-brighter-stock-price/story.aspx?guid=%7BB82E0D80-25BB-49F2-9BE3-A50EFD3E8CEC%7D))

mögliches PCB-Design:
http://img232.imageshack.us/img232/5411/9900gtxside48db423adh7.jpg (http://imageshack.us)
http://www.vr-zone.com/articles/GeForce_9900_GTX_Card_Design_Exposed/5763.html
STEP-File zum selber anschauen: http://www.mediafire.com/?gem3dcyjd9y
http://img167.imageshack.us/img167/3626/200805211639524826787e5nd3.jpg (http://imageshack.us)
Fotos der Karte:
http://img89.imageshack.us/img89/1249/2008052276e7838a450d9ecmz7.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/5051/200805220692d90f068b76bwp5.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/4426/200805229183401ab0a35a1pe3.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/295/295937.shtml

möglicher Kühler:
http://img232.imageshack.us/img232/2015/129478612vohbe6.jpg (http://imageshack.us)
http://diy.pconline.com.cn/graphics/news/0805/1294786.html

Bilder der finalen Karte bei VR-Zone (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6550720&postcount=432)

SKUs:
- intern D10U-300 und -200
- Handelname: GeForce GTX 280 und 260 (http://www.hkepc.com/?id=1165&fs=c1n) (engl. (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html))
GTX 280:
- voller G200
- 240 SPs, 80 TMUs, 32 ROPs, 512-Bit
- 1GiB GDDR3
- Taktraten: 602/1296/1107MHz
- theoretische Leistung: 48 GTex/s, 933GFLOPs, 142GB/s
- 236W TDP
- 10.5" PCB
- $649
- 30W Idle-Verbrauch (kein H-SLI) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6548979#post6548979)
-> 25W (NV-Folie) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6549656&postcount=398)

GTX 260:
- teildeaktiverter G200
- 192 SPs, 64 TMUs, 28 ROPs, 448-Bit
- 896MiB GDDR3
- Taktraten: 576/1240?/999MHz
- theoretische Leistung: 36,8 GTex/s, 714GFLOPs, 112GB/s
- 182W TDP
- 10.5" PCB
- $449
- NV-Folie (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6554435&postcount=640)

(Quelle der genaueren SKU-Daten (http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed))


- Launch: 18 Juni 2008 (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html) auf den 17. Juni vorgezogen

spekulierte Leistung:

- flüssige Darstellung von Crysis in 2560x1600 Very High 4xAA (http://we.pcinlife.com/thread-926798-1-1.html) durch ein GT200 (GTX 280?) SLI ( ~ 3-fache 8800 GTX Leistung für eine GTX 280)
- QX9650 OC + GT200 soll mehr als 13.000 Punkte in 3DMark Vantage unter Performance (http://we.pcinlife.com/thread-933395-1-1.html)(1280x1024 1xAA/AF) erzielen (~ etwas über 8800 GTX SLI Leistung)
(Anmerkung: PHK ist bekannt für zutreffende Leaks seit einigen Jahren.)
- GTX 280 erreicht 7.000 Punkte unter 3DMark Vantage Extreme Preset (http://www.pczilla.net/en/post/11.html) Update: Offenbar SLI-Werte:
Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6538909&postcount=1539
- GTX 280 unter F@H: ~2.8x HD3870, 5xPS3 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6523912&postcount=867)
- GTX 280: ~ 1.25x GTX 260 laut INQ
http://img78.imageshack.us/img78/1931/gtx200seriesperformanceni9.jpg
http://www.vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html
-> 2560x1600 (http://gathering.tweakers.net/forum/view_message/30163213)

Snoopy69
2008-05-30, 15:11:34
Ah hier... :D

Ich hab Vantage noch garnicht ausprobiert. Inwieweit hat die CPU Einfluss auf das Ergebnis? Ist das auch so CPU-limitiert wie 3DMark06 @ default?

pest
2008-05-30, 15:12:53
Ein kleines Bauteil benötigt IMMER weniger Stromaufnahme bei gleicher Spannung.


Das kann man nicht so allgemein sagen. Umso kleiner die Strukturbreite, desto mehr (zusätzliche) Probleme bekommt man.


Mit dem Unterschied, dass die FPS in Vantage bei SLI wenig Wert sind. Du kannst davon 30% abziehen - das sind dann deine wahren FPS.


ich kann es echt nicht mehr lesen, dann spiel mit 60fps ;-)

Snoopy69
2008-05-30, 15:16:14
Das kann man nicht so allgemein sagen. Umso kleiner die Strukturbreite, desto mehr (zusätzliche) Probleme bekommt man.



ich kann es echt nicht mehr lesen, dann spiel mit 60fps ;-)
Oh ja, Intel hat ja sooo viele Probleme mit ihren 45mn. Und die ganzen OCer mit 4GHz und höher auch :rolleyes:
Intel hat 45mn wohl besser im Griff, hm? Hinzu kommt, dass eine CPU (besonders XEON) hochgenau arbeiten müssen.

Bei Grakas merken die Meisten die Pixel- oder Renderfehler erst garnicht...

Ich wette , dass Intel mit dem Knowhow von NV und ATI die beste Graka herstellen könnte die jemals produziert wurde - in 45nm!!!

pest
2008-05-30, 15:20:47
Oh ja, Intel hat ja sooo viele Probleme mit ihren 45mn. Und die ganzen OCer mit 4GHz und höher auch :rolleyes:
Intel hat 45mn wohl besser im Griff, hm?

Jeder Prozess (je nachdem wie gut er ausgereift ist) ist für bestimmte Taktregionen ausgelegt,
zusätzlich zur benutzen Struktur, also Pipelinegröße usw. GPU!=CPU ;-)
Zeig mir einen 45nm Intel der die 4.4GHz bei 1.3V schafft ;)

deekey777
2008-05-30, 15:22:08
Wollen wir nicht beim Thema bleiben?
Irgendwie wäre es schade, wenn der vierte Teil so beginnt, wie der dritte endete.

Ailuros
2008-05-30, 15:22:52
Ich wette , dass Intel mit dem Knowhow von NV und ATI die beste Graka herstellen könnte die jemals produziert wurde - in 45nm!!!

Echt? Dann schau mal nach was der Grafikteil im ATOM Dingsbums (IP von Imagination Technologies) fuer einen Herstellungsprozess und Groesse im Vergleich zum restlichen SoC hat und erklaer mir auch warum. Und ja die Herstellung von ATOM lag ausschliesslich in Intel's Haenden.

Snoopy69
2008-05-30, 15:27:03
Wieso gerade 4,4GHz? Davon hab ich nix gesagt. Es gibt sicher hier und da welche.
Ein QX9650 läuft mit 1,3V schon mit 4GHz mit Lukü. Mit besserer Kühlung sind evtl. 100-200MHz mehr drin. Von den grösseren CPU´s rede ich erst garnicht. Die packen noch mehr.

Das sind die CPUs mit dem besseren Die - also aus der Mitte des Wavers. Die am Rand sind eher "Abfall" - sind für den Lowlevel-markt gedacht.


@ Ailuros

Hab keine Infos zum ATOM...
Kannst es mit per PN zuschicken? Wir wollen doch wieder verstärkt über den GT200 reden :)

Ailuros
2008-05-30, 15:31:07
Wollen wir nicht beim Thema bleiben?
Irgendwie wäre es schade, wenn der vierte Teil so beginnt, wie der dritte endete.

Daran wird sich schwer etwas zu aendern sein, ueberhaupt wenn es solche Giftspritzen-Artikel wie der vom Inquirer gibt. Das dummste an der Angelegenheit ist dass sie auch jeden Scheiss der in solchen Mist-Artikeln aufgetragen werden dann gleich auch blindlings glauben. Ueberhaupt von Kerlen bei denen es zu bezweifeln ist dass sie ueberhaupt eine Ahnung von dem ganzen Zeug haben.

Das Thema ist dass leider zu viele GT200 nach den Spezifikationen vorzeitig beurteilen. Die bisherigen Leistungs-resultate von RV770 stimmen nicht, die Spezifikationen sind im groessten Teil falsch aber es bleibt dabei dass FLOP!=FLOP ist zwischen den beiden.

Gast
2008-05-30, 15:33:07
Das Thema ist dass leider zu viele GT200 nach den Spezifikationen vorzeitig beurteilen. Die bisherigen Leistungs-resultate von RV770 stimmen nicht, die Spezifikationen sind im groessten Teil falsch aber es bleibt dabei dass FLOP!=FLOP ist zwischen den beiden.
Stimmen nicht (RV770), wieso (und: zu hoch/niedrig)?

Aber ich stimme dir zu: Bis zum Launchday gibts jetzt wahrscheinlich unr noch Spam.

tombman
2008-05-30, 15:35:27
Angezeigte/gemessene 30fps = gefühlte 20fps. Das gilt eig für den ganzen fps-Bereich
Das zeigt mir, daß du es nicht verstanden hast. Über den ganzen fps Bereich = Blödsinn.
Die cpu kann nicht unendlich schnell vorrechnen, also kanns nicht immer gleich bleiben.
Wenn die cpu 10ms braucht pro frame und die gpu 20ms, dann gibts keinen Unterschied mehr...
Dann bekommst 10-10-10 - ein "15er" taucht da nicht mehr auf...Dann hast mit SLI echte, schöne 100fps und ohne eben 50fps...

w0mbat
2008-05-30, 15:38:59
[...]
Das Thema ist dass leider zu viele GT200 nach den Spezifikationen vorzeitig beurteilen. Die bisherigen Leistungs-resultate von RV770 stimmen nicht, die Spezifikationen sind im groessten Teil falsch aber es bleibt dabei dass FLOP!=FLOP ist zwischen den beiden.

Ja, wie ich schon sagen sind alle ein wenig auf die ganzen Fakenews im Web konzentriert und die sind eben nicht richtig. Und auch AMD sieht den RV770 deutlich unter dem G200, obwol dieser (RV770) schneller als eine 9800GTX sein soll.

Snoopy69
2008-05-30, 15:40:52
Das wurde mir aber anders gesagt!?
Wäre schon komisch, wenn MR nur genau bei 30fps auftreten würden, oder?

tombman
2008-05-30, 15:44:14
Das wurde mir aber anders gesagt!?
Wäre schon komisch, wenn MR nur genau bei 30fps auftreten würden, oder?
Es ist ein Zusammenspiel zwischen cpu und gpu. Je schneller die cpu mit dem frame fertig ist, und je langsamer die gpu, desto schlimmer wirds, weil die cpu keiner aufhält.
Lies dir den MR thread nochmal genau durch, dann kapierst es.

Die gelbe Eule
2008-05-30, 15:44:20
Schade das es noch keine Performanceableger gibt, gerade eine aktuelle 9600GT auf Basis des GT200 wäre genial.

Snoopy69
2008-05-30, 15:48:56
Es ist ein Zusammenspiel zwischen cpu und gpu. Je schneller die cpu mit dem frame fertig ist, und je langsamer die gpu, desto schlimmer wirds, weil die cpu keiner aufhält.
Lies dir den MR thread nochmal genau durch, dann kapierst es.
Ich weiss...
Da war was mit der CPU. Bei MR ist sie zu schnell. Ich Verstehe nur nicht, dass kein Hersteller das in den Griff bekommt. Wenn doch, wären 2x GTX260 oder 280 mein :)
Im übrigen hast du mir noch nicht gesagt, welche Einstellungen ich brauche, damit SLI bei Crysis bei mir richtig geht (PN? :wink:)

Die gelbe Eule
2008-05-30, 15:51:15
Reitet doch nicht immer darauf rum. Hätte tombman das nicht herausgefunden, würde es keinen stören, weil für diese nicht existent. Nur weil es die MR gibt, muss man sich nicht sofort darauf versteifen. Ich erkenne es eher selten und auch nur wenn ich mich darauf konzentriere, aber leigt wohl daran das ich eh immer mit 70+ fps spielen kann.

dargo
2008-05-30, 15:54:04
Uebrigens hat CJ auch wieder recht und im Vergleich zu G80 (und NICHT G92) hat GT200 eine 3x fache ROP-blending Leistung.
Meine Fresse, ist das wirklich wahr? :eek:
Dann dürfte doch was an den DX10 Crysis-Werten dran sein. Das Game dürfte abgehen wie Schmidts Katze.

Gast
2008-05-30, 16:06:49
Meine Fresse, ist das wirklich wahr? :eek:
Dann dürfte doch was an den DX10 Crysis-Werten dran sein. Das Game dürfte abgehen wie Schmidts Katze.

Naja, für "flüssige Darstellung von Crysis in 2560x1600 Very High 4xAA" (nehmen wir mal >30fps) brauchts ca 10x 8800GTX Leistung! Glaube kaum das der GT200 das bringt!

dargo
2008-05-30, 16:09:15
Naja, für "flüssige Darstellung von Crysis in 2560x1600 Very High 4xAA" (nehmen wir mal >30fps) brauchts ca 10x 8800GTX Leistung! Glaube kaum das der GT200 das bringt!
Du verwechselst hier was. Bei dieser BQ war nur die Rede von G280GTX*2. Bei einer sprach man afaik von 1920x1200 4xMSAA/16xAF.

Gast
2008-05-30, 16:09:58
@Ailuros,

hast du beide "Vögel" bekommen, also einen roten und einen grünen oder nur einen grünen?

Grüsse
Demo

Snoopy69
2008-05-30, 16:13:21
Schön, dass du so bescheiden bist...
Crysis macht halt mit Tweaks so richtig Spass. Und da hast du in Full-HD gerade mal 30fps. Also genau der MR-Bereich.

reunion
2008-05-30, 16:30:35
Das Thema ist dass leider zu viele GT200 nach den Spezifikationen vorzeitig beurteilen. Die bisherigen Leistungs-resultate von RV770 stimmen nicht, die Spezifikationen sind im groessten Teil falsch aber es bleibt dabei dass FLOP!=FLOP ist zwischen den beiden.

Naja, die 25% über der 9800GTX sollten schon stimmen. Die Specs wohl nicht.

Gast
2008-05-30, 16:32:24
Naja, für "flüssige Darstellung von Crysis in 2560x1600 Very High 4xAA" (nehmen wir mal >30fps) brauchts ca 10x 8800GTX Leistung! Glaube kaum das der GT200 das bringt!
So schlimm sieht es gar nicht aus die GTX liefert zwar unspielbare FPS aber es pendelt sich ein. Ich schätze unter 2560x1600 liefert eine GTX zwischen 10-15 FPS wenn GT200 3x so viel Power hat dann gibts sogar Reserven für 8xAA.

Gast
2008-05-30, 16:32:30
Ich hab Vantage noch garnicht ausprobiert. Inwieweit hat die CPU Einfluss auf das Ergebnis? Ist das auch so CPU-limitiert wie 3DMark06 @ default?


schon mal die cpu-auslastung bei den grafiktests gesehen?

die liegt bei einem dualcore in der regel unter 30%, ganz extrem ist es bei den feature-tests, da ist die cpu komplett im idle.

Snoopy69
2008-05-30, 16:34:20
schon mal die cpu-auslastung bei den grafiktests gesehen?

die liegt bei einem dualcore in der regel unter 30%, ganz extrem ist es bei den feature-tests, da ist die cpu komplett im idle.
So wenig?
Also ist es egal, ob ich einen DC oder einen QC verwende? Da hab ich an allen anderen 3DMark´s bemängelt. Also, dass das Ergebnis mit QC höher war, obwohl die Graka sch... ist.

dargo
2008-05-30, 16:37:27
Die 55nm Variante wird erstmal zu einer radikalen Preissenkung fuehren und einem die der um <30% kleiner ist als GT200 und nein es ist immer noch nicht das Ende der gesamten Geschichte. Es wird noch mehr "Ueberraschungen" geben.
Wenn du von radikaler Preissenkung sprichst dann kann das imo nur eins bedeuten - weg vom 512Bit SI. Ende des Jahres dürfte die Verfügbarkeit von GDDR5 schon eher stimmen. Was ich mich nur die ganze Zeit frage - wie tief geht NV mit dem SI runter? Auf 256Bit würde es kaum Sinn machen, man würde sich ja selbst mit 2Ghz GDDR5 verschlechtern. Sehen wir also wieder so ne (komische) krumme Zahl?

Edit:
320Bit @1280MB Vram?

Gast
2008-05-30, 16:39:14
So wenig?
Also ist es egal, ob ich einen DC oder einen QC verwende? Da hab ich an allen anderen 3DMark´s bemängelt. Also, dass das Ergebnis mit QC höher war, obwohl die Graka sch... ist.

kommt darauf an welchen score du meinst, es gibt wieder GPU- und CPU-score, welche beide praktisch nur vom jeweiligen stück hardware abhängig sind. (bei CPU wieder mit extremer multicore-skalierung)

der gesamtscore errechnet sich aus beiden und ist dementsprechend auch von beiden komponenten abhängig.

Gast
2008-05-30, 16:39:19
Wenn du von radikaler Preissenkung sprichst dann kann das imo nur eins bedeuten - weg vom 512Bit SI. Ende des Jahres dürfte die Verfügbarkeit von GDDR5 schon eher stimmen. Was ich mich nur die ganze Zeit frage - wie tief geht NV mit dem SI runter? Auf 256Bit würde es kaum Sinn machen, man würde sich ja selbst mit 2Ghz GDDR5 verschlechtern. Sehen wir also wieder so ne (komische) krumme Zahl?

Und wo ist dann die Überraschung? Ich glaube es gibt dann noch weiteres Highend in Form von 512Bit SI + DDR5.

Snoopy69
2008-05-30, 16:41:12
Wenn du von radikaler Preissenkung sprichst dann kann das imo nur eins bedeuten - weg vom 512Bit SI. Ende des Jahres dürfte die Verfügbarkeit von GDDR5 schon eher stimmen. Was ich mich nur die ganze Zeit frage - wie tief geht NV mit dem SI runter? Auf 256Bit würde es kaum Sinn machen, man würde sich ja selbst mit 2Ghz GDDR5 verschlechtern. Sehen wir also wieder so ne (komische) krumme Zahl?
Da haben wir´s wieder - diese Kompromisse.
Warum bleiben die nicht bei 512bit und bauen das weiter aus? Ach ja - wenn man jetzt schon die Asse ausspielt, hat man für später nix mehr :ulol:

Gast
2008-05-30, 16:41:32
Sehen wir also wieder so ne (komische) krumme Zahl?

sehen wir mit der 260er sowieso.

ich denke dass es aus wirtschaftlicher sicht durchaus sinnvoll wäre erstmals auf 1,5GiB mit dazugehörigem SI zu gehen.

wobei imo prinzipiell auch 256bit denkbar sind, ich glaube dass die bandbreite beim G200 ziemlich überdimensioniert ist.

Gast
2008-05-30, 16:41:58
Meine Fresse, ist das wirklich wahr? :eek:
Dann dürfte doch was an den DX10 Crysis-Werten dran sein. Das Game dürfte abgehen wie Schmidts Katze.

ne das ist Bullshit,

Gast
2008-05-30, 16:43:16
Ich schätze unter 2560x1600 liefert eine GTX zwischen 10-15 FPS wenn GT200 3x so viel Power hat dann gibts sogar Reserven für 8xAA.

Wie soll das gehen, wenn eine 8800GTX unter 1920x1200 very high ohne AA schon nur ~10fps liefert? Das wären dann unter 2560x1600 noch ~6fps und dann mit zusätzlich 4xAA noch ~3-4fps. Wenn ein GT200 jetzt 3x so schnell wie eine 8800GTX ist, wären das dann 9-12fps. GT200-SLI bringt dann wohl so maximal um ~20fps rum. Macht nach Abzug der Mikrorukler gefühle 12-15fps mit SLI! Alles andere als flüssig!!!

Am Ende wird eine GT200 alleine es wohl gerade so schaffen 1920x1200 ohne AA halbwegs flüssig (>30fps) darzustellen!

dargo
2008-05-30, 16:45:55
sehen wir mit der 260er sowieso.

Ja, so war das aber weniger gemeint. Der Speicherausbau ist ja abhängig vom SI. Und damit man sich nicht zuweit von den 1GB Vram entfernen muss (schließlich soll es auch nicht unnötig teuer sein) sehe ich hier 1,28GB Vram @320Bit mit 2Ghz GDDR5 als sinnvoll (160GB/s). Klar 1,5GB Vram @384Bit würde auch gehen. Nur, ob NV sofort in Richtung 1,5GB geht?

Edit:
Theoretisch könnte sich natürlich auch beim GT200 in 55nm das selbe wiederholen wie beim G80 vs G92. NV verkleinert das SI auf 384Bit (oder gar 256Bit, der G92 hatte ja auch weniger Bandbreite) und liefert nur Karten mit 768MB GDDR5 aus (bei 256Bit 1GB).

Snoopy69
2008-05-30, 16:51:59
der G92 hatte ja auch weniger bandbreite) und liefert nur Karten mit 768MB GDDR5 aus.
Können sie dann behalten. Ich reize ja jetzt schon mehr als 700MB Vram aus

mapel110
2008-05-30, 16:51:59
Edit:
Theoretisch könnte sich natürlich auch beim GT200 in 55nm das selbe wiederholen wie beim G80 vs G92. NV verkleinert das SI auf 384Bit (oder gar 256Bit, der G92 hatte ja auch weniger bandbreite) und liefert nur Karten mit 768MB GDDR5 aus.
Oder es könnte so laufen wie bei G70/G71. Wäre natürlich der Idealfall für uns Kunden.

Gast
2008-05-30, 16:55:42
Oder es könnte so laufen wie bei G70/G71. Wäre natürlich der Idealfall für uns Kunden.

Solange AMD/ATI nur Luftpumpem produziert, wird das wohl leider nicht passieren. :(

dargo
2008-05-30, 16:56:13
Können sie dann behalten. Ich reize ja jetzt schon mehr als 700MB Vram aus
Bist du der einzige Kunde auf der ganzen Welt? :rolleyes:
Wenn ich radikale Preissenkung höre dann heißt das für mich von 649$ runter auf höchstens 499$. Da wird man 768MB Vram "verschmerzen" können.

Edit:
Es könnte auch sein, dass ich mich hier völlig vertue und es sogar in Richtung 399$ geht. Ich weiß ja nicht wie radikal Ailuros radikal meint. :D

Was mich auch etwas wundert ist der relativ hoher "Aufpreis" von 200$ für die G280GTX gegenüber der G260GTX. Die erstere liefert schließlich "nur" 20% mehr Leistung bei einem ~45% höheren Preis. Hier lässt sich NV das absolute High-End diesmal wohl richtig gut bezahlen.

Gast
2008-05-30, 16:56:26
Und wo ist dann die Überraschung? Ich glaube es gibt dann noch weiteres Highend in Form von 512Bit SI + DDR5.

den chip der das auch nur ansatzweise auslastet möcht ich sehn

AnarchX
2008-05-30, 17:00:25
Interesting Information From NVIDIA's 2008 Stockholders Letter (http://anandtech.com/weblog/showpost.aspx?i=453)

http://img139.imageshack.us/img139/6818/dieshot43750fevr9.jpg (http://imageshack.us)

Wobei CJ und PCinlife von 1.4 für GT200 sprechen...

reunion
2008-05-30, 17:07:10
Interesting Information From NVIDIA's 2008 Stockholders Letter (http://anandtech.com/weblog/showpost.aspx?i=453)

http://img139.imageshack.us/img139/6818/dieshot43750fevr9.jpg (http://imageshack.us)

Wobei CJ und PCinlife von 1.4 für GT200 sprechen...

Nur 1.2Mrd. Transistoren bei der Die-Größe ist schon eine verdammt schlechte Packdichte. Noch schlechter als bei G92/94.

Gast
2008-05-30, 17:10:37
Solange AMD/ATI nur Luftpumpem produziert, wird das wohl leider nicht passieren. :(

Die Luftpumpe wird wohl der G200 weil die Karte eh keiner kauft für den Preis.
Bevor ich ne graka für 650 € kaufe zeiht ne PS3 ein und da bin ich nicht der einzige der so denkt.

Und wer es doch kauft ist entweder nicht ganz dicht in der Birne oder halt nen extremer FB.

Anarchy-HWLUXX
2008-05-30, 17:11:35
Der DIE auf dem Bild ist aba keine GT200 ... oder doch ?

Gast
2008-05-30, 17:12:34
Wielange muss man den warten? Würde ungern 600EUR für einen GT200 ausgeben wenn in Sep/Okt eine günstigere, leisere und verbrauchsärmere Variante kommt...

Coda
2008-05-30, 17:18:28
Wielange muss man den warten? Würde ungern 600EUR für einen GT200 ausgeben wenn in Sep/Okt eine günstigere, leisere und verbrauchsärmere Variante kommt...
Also das auf dem Bild ist sicher kein GT200. Ob es G80 oder G92 ist kann ich aber auch nicht sagen.

dargo
2008-05-30, 17:20:08
Die Luftpumpe wird wohl der G200 weil die Karte eh keiner kauft für den Preis.
Bevor ich ne graka für 650 € kaufe zeiht ne PS3 ein und da bin ich nicht der einzige der so denkt.

Und wer es doch kauft ist entweder nicht ganz dicht in der Birne oder halt nen extremer FB.
Ich finde eher denjenigen der sich eine PS3 kauft nicht ganz dicht in der Birne. Wie kann man nur soviel Geld für so viel Elektroschrott bezahlen? :rolleyes:

Gast
2008-05-30, 17:22:36
Ich finde eher denjenigen der sich eine PS3 kauft nicht ganz dicht in der Birne. Wie kann man nur soviel Geld für so viel Elektroschrott bezahlen? :rolleyes:
Dann eher eine X360 mit Blu-ray im September :)

Anarchy-HWLUXX
2008-05-30, 17:23:56
Wielange muss man den warten? Würde ungern 600EUR für einen GT200 ausgeben wenn in Sep/Okt eine günstigere, leisere und verbrauchsärmere Variante kommt...
Es gibt genug leute die es satt haben zu warten ... und wenn die neuen aufschlagen werden höchstens die Alten billiger während die 55nm Modelle wieder mit hohen Preisen anfangen.

Gast
2008-05-30, 18:00:24
Vielen Dank Ailuros, ich hätte mir sofort zum Start ne GTX260 oder gar die 280er geholt, aber mit deiner Andeutung, das es nur kurze Zeit später(3 Monate?) was besseres gibt, hast du mich gerettet, und viele andere bestimmt auch, wer eine GTX hat oder gar SLI, kann auch noch wenige Monate warten mit dem Kauf.

Ich glaube nur das deine Posts hier nicht im Sinne von Nvidia sind, die dachten ja sie können so zweimal Geld aus den Kunden ziehen, so hast du einige früh genug gewarnt, und die nicht mehr warten können, den ist nicht zu helfen.
Also nochmals Danke Ali

Gruss
Peter

Gast
2008-05-30, 18:09:30
Ich finde eher denjenigen der sich eine PS3 kauft nicht ganz dicht in der Birne. Wie kann man nur soviel Geld für so viel Elektroschrott bezahlen? :rolleyes:

das mus man vom G200 sagen, das Ding hat nix neues hängen Meilen hinter ATi hinterher (FPS isnd ja gut und schön) aber wollen den doppelten Preis dafür, die spinnen ud hoffe die fliegen damit richtig auf die Fresse (was sie garantiert machen).

ich hoffe das scheiss Ding bleibt in der Regalen liegen udn nur die ganz kaputten kaufen den "Elektroschrott".

AnarchX
2008-05-30, 18:11:28
CJ ist aber wirklich mutig:
:biggrin:

http://img89.imageshack.us/img89/944/gtx200seriesintroducingsx6.jpg (http://imageshack.us)

GeneralHanno
2008-05-30, 18:54:17
auch interessant, dass "parallel computing" VOR "graphic processing" steht ;)

@ anarchX: glückwunsch zum mod. ich hoffe wir kriegen nun mehr zucht&ordnung in die speku-threads!

Gast
2008-05-30, 19:01:54
Wie soll das gehen, wenn eine 8800GTX unter 1920x1200 very high ohne AA schon nur ~10fps liefert? Das wären dann unter 2560x1600 noch ~6fps und dann mit zusätzlich 4xAA noch ~3-4fps. Wenn ein GT200 jetzt 3x so schnell wie eine 8800GTX ist, wären das dann 9-12fps. GT200-SLI bringt dann wohl so maximal um ~20fps rum. Macht nach Abzug der Mikrorukler gefühle 12-15fps mit SLI! Alles andere als flüssig!!!

Am Ende wird eine GT200 alleine es wohl gerade so schaffen 1920x1200 ohne AA halbwegs flüssig (>30fps) darzustellen!
Dann gehen wir eben von Windows XP aus. Von mir aus soll GT200 in Vista so dastehen, aber in XP kannst du mit Sicherheit alles hochdrehen was es gibt.

Ansonsten wird Crysis einziger Titel weit und breit sein mit dem man eine GT200 auslastet. Deshalb lohnt sich da für mich nicht. Aber wenn es mal PC GTA4 gibt dann kann ich es nochmal überlegen.

dargo
2008-05-30, 19:04:34
Aber wenn es mal PC GTA4 gibt dann kann ich es nochmal überlegen.
Als ob GTA IV große Anforderungen an die Hardware stellen würde. :D

Gast
2008-05-30, 19:06:19
Ich schätze die Crysis Performance einer GTX 280 +250% gegenüber einer 8800GTX ein. Hinzu kommt das 4xAA es praktisch forfree geben wird ;) Eine GTX 280 wird bei 1920x1200 4xAA VeryHigh ~35 fps erreichen, zwei GTX 280@SLI ca. 25-30fps @2560x1600 4xAA VeryHigh und ist damit spielbar

Gast
2008-05-30, 19:12:58
Ich schätze die Crysis Performance einer GTX 280 +250% gegenüber einer 8800GTX ein. Hinzu kommt das 4xAA es praktisch forfree geben wird ;) Eine GTX 280 wird bei 1920x1200 4xAA VeryHigh ~35 fps erreichen, zwei GTX 280@SLI ca. 25-30fps @2560x1600 4xAA VeryHigh und ist damit spielbar

Träumer.;D

Gast
2008-05-30, 19:15:01
Träumer.;D

Ich denke schon das dies realistisch ist beim Blick auf die Leistungsdaten

Snoopy69
2008-05-30, 19:15:29
Bist du der einzige Kunde auf der ganzen Welt? :rolleyes:
Wenn ich radikale Preissenkung höre dann heißt das für mich von 649$ runter auf höchstens 499$. Da wird man 768MB Vram "verschmerzen" können.

Edit:
Es könnte auch sein, dass ich mich hier völlig vertue und es sogar in Richtung 399$ geht. Ich weiß ja nicht wie radikal Ailuros radikal meint. :D

Was mich auch etwas wundert ist der relativ hoher "Aufpreis" von 200$ für die G280GTX gegenüber der G260GTX. Die erstere liefert schließlich "nur" 20% mehr Leistung bei einem ~45% höheren Preis. Hier lässt sich NV das absolute High-End diesmal wohl richtig gut bezahlen.
Stillstand = Rückschritt!!!
Für Highend will ich 1GB sehen...

Snoopy69
2008-05-30, 19:21:11
Ich finde eher denjenigen der sich eine PS3 kauft nicht ganz dicht in der Birne. Wie kann man nur soviel Geld für so viel Elektroschrott bezahlen? :rolleyes:
Ich hab selber eine PS3.
Was die auf kleinstem Raum leistet ist schon beachtlich. Wahrscheinlich hast du noch kein Spiel laufen sehen. Die GPU hat NUR 256MB :wink:
Man muss sich eig. um nix kümmern, weil alles ohne Probleme lauft.

Finde mal etwas Vergleichbares, mit dem du spielen, surfen und Bluray-Filme sehen kannst. 400€ reichen dir da nicht :wink:

Crysis gibts leider für die PS3 nicht, aber bald FarCry 2 :D

Sorkalm
2008-05-30, 19:45:11
G(T)200 also 1,4 Mrd. Transistoren?

Und die 1,2 Mrd. beziehen sich auf eine andere GPU (z. B. in 55 nm?).

mapel110
2008-05-30, 19:47:27
Ich würde eher darauf tippen, dass die 1.2 Milliarden einer Fantasie entsprungen sind.

Sorkalm
2008-05-30, 19:59:08
Ich würde eher darauf tippen, dass die 1.2 Milliarden einer Fantasie entsprungen sind.

Du meinst ein Nvidia-Mitarbeiter erstellt da so eine Präsentation für Aktionäre, und denkt sich für einen Vergleich eine "schräge" Zahl von 1,2 Milliarden aus?
Das Dokument kommt ja nicht von irgendwo, sondern ziemlich sicher von Nvidia - man findest es ja über den Nvidia-Server. ;)

mapel110
2008-05-30, 20:05:16
Die Zahl macht aber doch für kein Produkt Sinn. Was soll denn noch mit 1.2 Milliarden kommen, wenn der High End 1,4 hat und das etwas abgespeckte Teil wohl darauf basieren wird.

Ich glaube kaum, dass nvidia es schaffen könnte, ähnlich wie bei G70 zu G71, 200 Millionen Transistoren einzusparen. Das wäre meine einzige Idee zu der Zahl.

dildo4u
2008-05-30, 20:09:00
NV hat schon mal die Zahl 1Milliarde genannt(Geschätz?) für den nästen Next Gen Chip damals wurde ausdrücklich betont das es sich bei der Zahl nur um die Logiktransistoren ohne Cache handelt.Vieleicht sind die 1.2 Milliarden die reinen Logiktransistoren und der Rest Cache.

Snoopy69
2008-05-30, 20:10:17
Wer von den hier Anwesenden im Thread würde die Karte eigentlich gleich kaufen?
Euch ist schon klar, dass eine 8800GTX bis zu 550-600€ und eine Ultra bis zu 650-700€ gekostet hat? :wink:

derwalde
2008-05-30, 20:13:54
Wer von den hier Anwesenden im Thread würde die Karte eigentlich gleich kaufen?
Euch ist schon klar, dass eine 8800GTX bis zu 550-600€ und eine Ultra bis zu 650-700€ gekostet hat? :wink:

ich würde direkt zugreifen wenn nicht kurz nachher die gt200b erscheinen würde. solange kann( und muss) ich mich dann doch gedulden. ansonsten hätt ich wohl zum release-tag zugegriffen.

Sorkalm
2008-05-30, 20:14:42
Ich glaube kaum, dass nvidia es schaffen könnte, ähnlich wie bei G70 zu G71, 200 Millionen Transistoren einzusparen. Das wäre meine einzige Idee zu der Zahl.

Wenn man das SI reduziert, könnte das möglich sein...

Snoopy69
2008-05-30, 20:14:57
Die Frage ist nur, wann die Neue erscheint (mit 55nm, oder?).

dildo4u
2008-05-30, 20:17:06
Die Frage ist nur, wann die Neue erscheint (mit 55nm, oder?).
Nach dem Tapeout sinds ohne das noch Probleme auftauchen rund 90Tage.Aber ich tippe auf minimal 5 Monate Abstand zwischen den Chips bis November wie bei der GTX--> Ultra.

Grestorn
2008-05-30, 20:19:11
Wer von den hier Anwesenden im Thread würde die Karte eigentlich gleich kaufen?
Euch ist schon klar, dass eine 8800GTX bis zu 550-600€ und eine Ultra bis zu 650-700€ gekostet hat? :wink:

Ich werds wohl machen. Meine 88GTX ist nun 1 1/2 Jahre alt. Wird Zeit... :)

Wieso meint ihr eigentlich, dass der GT200b besser sein würde? Ich tippe eher auf die MidRange-Fassung des GT200s...

Gast
2008-05-30, 20:20:10
Dann erinner demjenigen der Dir den Bloedsinn erzaehlt hat dass die 9800GTX nur 512MB Speicher hat und zu wenig Bandbreite hat. Wenn Du jetzt scharf nachdenkst stell Dir mal den Unterschied in sehr hohen Aufloesungen mit AA vor.

Ach so;

es geht also um die Scores bei denen selbst eine 2900er der 9800GTX "davonfliegt" weil die alte Chipreihe von Nvidia eine Macke bei hohen Auflösungen und/oder 8xAA hat. Naja da sollte die neue GTX280 den alten Chips aber auch wirklich davoneilen. Wäre doch blamabel wenn Nvidia hier immer noch den gleich Bock geschossen hätte wie bei den G8x/G9x GPU's.
Ergo, bei "normalem" 4x AA und normalen Auflösungen bis 1920x1200 bleibt es dabei; die GTX ist nur "ein wenig" schneller als die alte Ultra.


@Ailuros,

hast du beide "Vögel" bekommen, also einen roten und einen grünen oder nur einen grünen?

Grüsse
Demo


Wenn Ailuros immer noch beim Marketing von Nvidia mithilft natürlich nur ein grüner Vogel. Bin allerdings nicht mehr auf dem laufenden.


auch interessant, dass "parallel computing" VOR "graphic processing" steht

Wahrscheinlich wegen der FP64 units. Die haben soviele Transistoren gefressen das die Spieleperformance nicht großartig gesteigert werden konnte.

Gast
2008-05-30, 20:28:50
Ich werds wohl machen. Meine 88GTX ist nun 1 1/2 Jahre alt. Wird Zeit... :)

Wieso meint ihr eigentlich, dass der GT200b besser sein würde? Ich tippe eher auf die MidRange-Fassung des GT200s...
Mehr takt bei weniger Stromverbrauch.

Hvoralek
2008-05-30, 20:32:28
Da haben wir´s wieder - diese Kompromisse.
Warum bleiben die nicht bei 512bit und bauen das weiter aus? Ach ja - wenn man jetzt schon die Asse ausspielt, hat man für später nix mehr :ulol:Weil >250 GiB/s nur noch eine mininale Mehrleistung bringen würden? Es wäre wohl nicht jeder bereit, für vll. 2% mehr Leistung 100€ oder so draufzulegen.

Können sie dann behalten. Ich reize ja jetzt schon mehr als 700MB Vram ausBei einem 384- bit- SI würden sicherlich auch einzelne Platinenhersteller 1,5- GiB- Karten produzieren.

Als ob GTA IV große Anforderungen an die Hardware stellen würde. :DEs soll ja auf beiden Konsolen ziemlich bösartig ruckeln. Wenn man dann auch noch bei der Umsetzung geschlampt hat, könnten die Anforderungen schon deutlich höher sein als die von irgendwelchen 08/15- UE3- Spielen. Also, eine 8600/ 2600 wird wohl da mal nicht reichen :D

Snoopy69
2008-05-30, 20:34:05
Ich werds wohl machen. Meine 88GTX ist nun 1 1/2 Jahre alt. Wird Zeit... :)

Wieso meint ihr eigentlich, dass der GT200b besser sein würde? Ich tippe eher auf die MidRange-Fassung des GT200s...
Ich hab meine Karten erst seit Aug. 2007, aber es kribbelt schon wieder. :D
Allerdings stört mich der "Deppenzuschlag". Wenn ich einen genauen Termin für 55nm wüsste, wäre die Entscheidung nicht so schwer.

@ Hvoralek

Warum überhaupt 512bit, wenn es deiner Meinung nach eh nicht mehr bringt? Dann könnte NV auch gleich bei 384bit bleiben

Hvoralek
2008-05-30, 20:48:23
Warum überhaupt 512bit, wenn es deiner Meinung nach eh nicht mehr bringt? Dann könnte NV auch gleich bei 384bit bleibenDie Breite des SI für sich sagt gar nichts aus, ist eigentlich völlig schnurz. Was zählt, sind zwei Dinge, die damit zusammenhängen, nämlich Speichergröße und -bandbreite. Ein 512- bit- SI ist für GT200 sicherlich sinnvoll, solange man GDDR3 nutzt; damit kommt man auf ungefähr 140 GiB/s. GDDR5 taktet fast doppelt so hoch wie Spitzen- GDDR. Wenn man also mit dem gleichen SI darauf umsteigen würde, hätte man plötzlich knapp die doppelte Bandbreite. Das wäre wahrscheinlich mehr, als man sinnvoll nutzen könnte. Mit GDDR5@384 bit käme man auf etwa 200 GiB/s.

Snoopy69
2008-05-30, 20:52:35
Deshalb doch 512bit + DDR5...

GeneralHanno
2008-05-30, 20:54:50
wir sollten immer einige äußerungen von nvidia im hinterkopf behalten:
nach dem dicken singelchip, kommt ein chip, der dual-SKU fähig ist ...

HarryHirsch
2008-05-30, 20:56:13
Deshalb doch 512bit + DDR5...

den chip der das auch nur ansatzweise auslastet möcht ich sehn:|

Hvoralek
2008-05-30, 20:57:29
Deshalb doch 512bit + DDR5...Weshalb? Weil man damit eine schön große Zahl auf dem Papier stehen hat? Wenn GT200 mit 140 GiB/s einigermaßen bedient ist, dürfte es zwischen 200 und 260 GiB/s nur einen marginalen Leistungsunterschied geben.

dargo
2008-05-30, 21:00:33
Es soll ja auf beiden Konsolen ziemlich bösartig ruckeln.

CPU- oder GPU-Limit? Oder eher Speichermangel? :D


Wenn man dann auch noch bei der Umsetzung geschlampt hat, könnten die Anforderungen schon deutlich höher sein als die von irgendwelchen 08/15- UE3- Spielen. Also, eine 8600/ 2600 wird wohl da mal nicht reichen :D
Naja, diese beiden Karten zähle ich nicht zu Gamer-Karten. ;)

Hvoralek
2008-05-30, 21:02:42
CPU- oder GPU-Limit? Oder eher Speichermangel? :DKeine Ahnung. Aber wenn es sowieso schon ruckelt, kann man auch gleich noch alles so hoch drehen, dass alle Komponenten gleichermaßen aus dem letzten Loch pfeifen :wink:

dargo
2008-05-30, 21:03:27
Deshalb doch 512bit + DDR5...
Ist es denn so schwer zu verstehen? :|
Es gibt noch keine GPU die ~200GB/s Bandbreite braucht. Was konnte der R600 mit seinen 512Bit SI nochmal anfangen?

Hvoralek
2008-05-30, 21:17:04
Ist es denn so schwer zu verstehen? :|
Es gibt noch keine GPU die ~200GB/s Bandbreite braucht.Das würde man ja sogar noch mit 384 bit + GDDR5 schaffen, wenn es sinnvoll wäre. 512 bit + GDDR5 würde eine noch höhere Bandbreite ergeben, selbst mit nur 1800- MHz- GDDR5.

Wobei ich schon erstaunt bin, dass man GT200 erst einmal "nur" 140 GiB/s verschafft. Das ist weniger als doppelt so viel wie bei einer 8800 GTX. Andererseits wird man wohl zumindest die G92- Bandbreitensparmaßnahmen ergänzt haben, wenn nicht noch weitere.

nagus
2008-05-30, 21:22:41
CJ ist aber wirklich mutig:
:biggrin:

http://img89.imageshack.us/img89/944/gtx200seriesintroducingsx6.jpg (http://imageshack.us)


aha... hoch interessant... und was ist hiermit?
http://www.anandtech.com/weblog/showpost.aspx?i=453

da steht 1.2 mrd, nicht 1.4

.... sorry, hat vorher schon jemand gepostet.

anyway: jeder der glaubt dass die GT200 3x so schnell wird wir eine 8800GTX lebt im Traumland.

Gast
2008-05-30, 21:27:30
CPU- oder GPU-Limit? Oder eher Speichermangel? :D


Naja, diese beiden Karten zähle ich nicht zu Gamer-Karten. ;)
GTA4 ist zumindest auf Xbox360 CPU limitiert. Alleine im Multiplayer Modus mit allen Autos die aber stehen und ganz ohne Fussgänger und Autofahrer läuft's butterweich.

Snoopy69
2008-05-30, 21:41:09
Ist es denn so schwer zu verstehen? :|
Es gibt noch keine GPU die ~200GB/s Bandbreite braucht. Was konnte der R600 mit seinen 512Bit SI nochmal anfangen?
Dann nochmal die Frage...
WARUM 512bit beim GT200???

mapel110
2008-05-30, 21:43:42
Dann nochmal die Frage...
WARUM 512bit beim GT200???
Damit man billigeren Speicher verbauen kann. Marge und Verfügbarkeit erhöhen...

Und wie teuer und aufwendig ein breiteres Speicherinterface ist, weiß hier keine so genau, um exakt sagen zu können "Ein breiteres Interface lohnt nicht, da es schnelleren Speicher gibt"!

reunion
2008-05-30, 21:47:22
Damit man billigeren Speicher verbauen kann. Marge und Verfügbarkeit erhöhen...

Und wie teuer und aufwendig ein breiteres Speicherinterface ist, weiß hier keine so genau, um exakt sagen zu können "Ein breiteres Interface lohnt nicht, da es schnelleren Speicher gibt"!

Verdrahtung ist teuer, bleibt teuer. Hochgetakteter Speicher ist vielleicht zu beginn teuer, in ein paar Monaten sieht es aber schon wieder anders aus.

Snoopy69
2008-05-30, 21:50:38
Damit man billigeren Speicher verbauen kann. Marge und Verfügbarkeit erhöhen...

Und wie teuer und aufwendig ein breiteres Speicherinterface ist, weiß hier keine so genau, um exakt sagen zu können "Ein breiteres Interface lohnt nicht, da es schnelleren Speicher gibt"!
Deshalb frage ich doch...
Oben wird geschreiben, dass 512bit keinen Sinn machen. Warum hat der GT200 dann 512bit, wenn 384 völlig ausreichen?
Man tankt ja auch kein Super+, wenn man weiss dass es auch Normal tut

dargo
2008-05-30, 21:53:54
Dann nochmal die Frage...
WARUM 512bit beim GT200???
Weil GDDR3 nunmal kaum über 1,1Ghz hinausgeht (afaik ist bei 1,2Ghz Schluss) und man kein Risiko in Bezug auf GDDR5 eingehen wollte. Würde NV von Anfang an auf GDDR5 setzen hätte man das Ding nicht im Juni veröffentlichen können.

Oben wird geschreiben, dass 512bit keinen Sinn machen. Warum hat der GT200 dann 512bit, wenn 384 völlig ausreichen?

:|

Wo hast du das wieder her? Nenne mir doch ganz einfach einen anderen Weg 140GB/s an Bandbreite zu erreichen ohne GDDR4 und GDDR5. Ich weiß auch ehrlich gesagt nicht warum du dich auf diese 512Bit so verbeißt. Das SI ist im Prinzip völlig egal, nur die Bandbreite zählt.

MartinRiggs
2008-05-30, 21:59:25
Sieht irgendwie schwer so aus als ob NV(mal wieder) mit der heissen Nadel strickt nur um ATI die Show zu stehlen.
Bin gespannt ob sie sich nicht doch selbst ins Bein schiessen.

Hvoralek
2008-05-30, 22:02:06
Oben wird geschreiben, dass 512bit keinen Sinn machen. Warum hat der GT200 dann 512bit, wenn 384 völlig ausreichen?
Man tankt ja auch kein Super+, wenn man weiss dass es auch Normal tutZum x-ten Mal: 512 bit zusammen mit GDDR5 macht für GT200 höchstwahrscheinlich keinen Sinn. Siehst Du bei den bisherigen Gerüchten irgendetwas über GDDR5?

Man wollte bei GT200 mit GDDR3 auskommen, wohl weil man während der Planung weder sicher wusste, wann GDDR5 in Serienproduktion gehen, noch, wann GT200 erscheinen würde. Es spricht ja einiges dafür, dass der mal für Ende 2007 geplant war, als man noch GDDR3 hätte verwenden müssen; damit wären 384 bit wohl wirklich zu wenig gewesen. Um auf Nummer sicher zu gehen, hat man sich also entschieden, für GT200 nicht auf GDDR5, sondern auf GDDR3@512 bit zu setzen.

Mit GDDR5 ließe sie dieselbe Bandbreite sogar an einem 256- bit- SI erreichen. Die wird nicht schlechter, wenn sie durch hohen Takt statt vielen Leiterbahnen erreicht wird.

Snoopy69
2008-05-30, 22:09:29
Weil GDDR3 nunmal kaum über 1,1Ghz hinausgeht (afaik ist bei 1,2Ghz Schluss) und man kein Risiko in Bezug auf GDDR5 eingehen wollte. Würde NV von Anfang an auf GDDR5 setzen hätte man das Ding nicht im Juni veröffentlichen können.


:|

Wo hast du das wieder her? Nenne mir doch ganz einfach einen anderen Weg 140GB/s an Bandbreite zu erreichen ohne GDDR4 und GDDR5. Ich weiß auch ehrlich gesagt nicht warum du dich auf diese 512Bit so verbeißt. Das SI ist im Prinzip völlig egal, nur die Bandbreite zählt.
Meine ich doch in den letzten Posts...
Warum nicht gleich 384bit, wenn man eh DDR3 einsetzt? Stattdessen wird 512bit eingesetzt, das angeblich mit 55nm eh wieder niedriger als 512bit sein soll. Das will mir nicht in den Kopf. Und so richtig erklären konnte es auch noch niemand.

Gast
2008-05-30, 22:12:04
Ich frag mich ja wie Nvidia weiter macht. Der GT200 bekommt einen Die-shrink -> höhere Margen für Nvidia, evtl. leicht höhere Taktraten. Und dann? Ob die bis zum DX11 Chip auf GT200 Technologie sitzen bleiben?

dargo
2008-05-30, 22:12:23
Meine ich doch in den letzten Posts...
Warum nicht gleich 384bit, wenn man eh DDR3 einsetzt?
:hammer: :uconf3: :uhippie:

Ich gebs auf... Hvoralek du bist dran. :ugly:

Snoopy69
2008-05-30, 22:15:05
Hab ich dich aus dem Konzept gebracht dargo? :ulol:
Ich wills halt verstehen. Veilleicht reden wir auch nur aneinander vorbei...

Hvoralek
2008-05-30, 22:21:28
Meine ich doch in den letzten Posts...
Warum nicht gleich 384bit, wenn man eh DDR3 einsetzt?Man verwendet ein breiteres SI, gerade weil man erst einmal GDDR3 verbaut. Mit GDDR3 wären einem 384- bit- SI kaum über 100 GiB/s zu erreichen, das wäre sicherlich zu wenig. Mit GDDR5 sollten an so einem SI 200 GiB/s kein Problem sein. GT200 mit GDDR3@512 bit liegt wie gesagt bei ~ 140 GiB/s.

Also noch einmal: Mit GDDR5 kann man an einem 384- bit- SI eine viel größere Bandbreite erreichen als mit GGDR3 an einem 512- bit- SI. Und auf die kommt es für die Leistung an. Den Chip interessiert nicht, ob er z.B. jede Sekunde 1 Mrd*1024 bits bekommt oder 2Mrd*512 bits.

Um das sicherzustellen: Die Begriffe Bandbreite, Speichertakt und Interfacebreite sagen Dir alle etwas?

AnarchX
2008-05-30, 22:21:49
Was is denn daran so schwer zu verstehen?

GT200 benötigt ca. 150GB/s, laut internen Simulationen.

GDDR5 ist momentan noch schlecht verfügbar bzw. im H1 2008 gar nicht, wo GT200 schon seit Ende 2007 fertig ist.

Von GDDR4 will NV nicht wissen, da dieser von ATI entwickelt wurde und diese Exklusivrechte auf die Bestellung haben.

Also bleibt nur GDDR3 der mit maximal 0.83ns/1200MHz daherkommt, woraus sich 512-Bit für das Speicherinterface folgern, um eben die 140-150GB/s zu erreichen.

btw.
http://img164.imageshack.us/img164/5172/2008053077986b5f4b98b9air5.jpg (http://imageshack.us)
http://img75.imageshack.us/img75/1880/20080530cfad86897673cc7tv9.jpg (http://imageshack.us)

;D

w0mbat
2008-05-30, 22:24:21
Man braucht eine hohe Speicherbandbreite. Die kann man zB erreichen in dem man ein großes 512bit SI verwendet und mit relativ moderat getaktetem GDDR3 koppelt. Nvidia braucht für den G(T)200 eine hohe Bandbreite und der Chip war für eine Zeit geplant in der man noch keinen GDDR5 VRAM verwenden konnte.

Also hat man sich für ein großes 512bit SI entschieden, damit man auch mit GDDR3 eine hohe Bandbreite hat.

Wenn man zB ein 384bit SI hätte, würde GDDR3 nicht reichen, da die Bandbreite dann zu gering wäre und man wusste ja nicht ob zum Launchzeitpunkt GDDR5 verfügbar sein würde.

Bei einem G(T)200 Refresh kann man aber sicher sein das es genügend GDDR5 auf dem Markt gibt, also kann der Refresh ruhig ein kleineres SI bekommen.

dargo
2008-05-30, 22:30:10
Hab ich dich aus dem Konzept gebracht dargo? :ulol:
Ich wills halt verstehen. Veilleicht reden wir auch nur aneinander vorbei...
Ok, nochmal zum mitschreiben. NV sieht für die G280GTX 140GB/s an Bandbreite vor. Es gibt mehrere Möglichkeiten dies zu erreichen. Mit breitem SI und weniger Taktrate (in diesem Fall 512Bit und 1,1Ghz GDDR3) oder durch schmaleres SI und hohe Taktrate. Du hast die 384Bit in den Raum geworfen. Damit und 1,1Ghz Taktfrequenz kommt man nur auf 105,6GB/s (1100Mhz*2*384/8). Du siehst also NV hat gar keine andere Möglichkeit gehabt als ein 512Bit SI zu nutzen. Ich sehe heute immer noch keinen GDDR5. Man ging also auf Nummer sicher.

Bei dem GT200b oder wie das Ding immer heißen soll, dass in 55nm kommen soll kann man GDDR5 wohl schon eher einplanen. Mit 1,6Ghz (was afaik die langsamste GDDR5 Variante sein soll) kommt man mit einem 384Bit SI immer noch auf 153,6GB/s. Und wer weiß, vielleicht reicht das schon aus für einem GT200b.

clockwork
2008-05-30, 22:48:35
Hätten die GDDR5 eigentlich auch weniger Spannung ähnlich ddr2->ddr3?

AnarchX
2008-05-30, 22:51:29
Hätten die GDDR5 eigentlich auch weniger Spannung ähnlich ddr2->ddr3?
Einblick in GDDR5 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=417069)
Also von ~2V auf 1.5V.

Snoopy69
2008-05-30, 23:07:21
Ok, soweit ich es klar. Ich kannte die ganze Vorgeschichte mit DDR5 ja nicht.
Und DDR5 + 512bit ist zuviel? Ok...

Würde auch heissen, dass die 8800er mit 384bit und DDR3 limitiert wären (so steht es ja oben)

K4mPFwUr$t
2008-05-30, 23:12:24
willst du es nicht verstehen oder kannst du es nicht verstehen?

eine GPU mit mehr rohleistung schreit förmig nach mehr bandbreite.

Hvoralek
2008-05-30, 23:12:28
Würde auch heissen, dass die 8800er mit 384bit und DDR3 limitiert wären (so steht es ja oben)Die Bandbreite wäre zu knapp für GT200. Der ist aber ein ganzes Stück schneller als G80 und braucht deshalb mehr davon. Für G80 waren ~80 GiB/s wohl ganz passend.

Snoopy69
2008-05-30, 23:15:23
willst du es nicht verstehen oder kannst du es nicht verstehen?

eine GPU mit mehr rohleistung schreit förmig nach mehr bandbreite.
Aber 512bit + DDR5 sollen angeblich zuviel sein. Wurde weiter oben geschrieben

K4mPFwUr$t
2008-05-30, 23:17:55
X-( oh man ... bei manchen leuten kann man sich echt nur an den kopf greifen.

was erwartest du? das der GT200 um faktor 6 schneller ist als der G80 und deswegen vieleicht 512bit undd GDDR5 die benötigte bandbreite liefern kann um entsprechend qualitätssettings zu fahren?

Snoopy69
2008-05-30, 23:20:42
Ruhig Brauner, keiner tut dir was.
Ihr tut scheinbar nichts anderes als euch mit Grakas zu befassen. Mein Gebiet ist ein anderes :wink:

K4mPFwUr$t
2008-05-30, 23:25:24
willst du mir was unterstellen?

was du hier für einen bullshit schreibst geht mal garnicht, man sollte annehmen das jemand der ein system wie hat wie deins auch etwas logik und wissen mit bringt, so kann man sich halt irren.

im endeffekt braucht der GT200 kein 512bit + GDDR5 aus mehreren gründen ...
- bevor die massive bandbreite genutzt werden kann geht der GPU rohleistungstechnisch eh die puste aus
- preis für die karte wäre mehr als nur extrem, da man neben dem besonderem PCB auch noch GDDR5 braucht und sonstige anpassungen
- kein schwein investiert 200€ mehr um vieleicht 5% mehr AA leistung zu bekommen

Snoopy69
2008-05-30, 23:27:44
Ich interessiere mich nicht für alles. Soviel Zeit hab ich auch nicht

Ailuros
2008-05-30, 23:28:02
Aber 512bit + DDR5 sollen angeblich zuviel sein. Wurde weiter oben geschrieben

Es wird Zeit dass wir es endlich schnallen dass die Kombination von Busbreite (bzw. Anzahl der ROPs) + Speicherart fast vollkommen egal ist um Bandbreite A, B oder C zu erreichen.

Und nein es gibt nie so etwas viel "zu viel" Bandbreite oder "zu viel" Fuellrate. Das Ziel jedes IHV ist jegliche Architektur mit genau so viel Fuellrate bzw. Bandbreite auszuruesten damit erstmal der chip nicht unterfuettert wird und damit der Endverbraucher auch nicht zu viel am Ende bezahlen muss.

GT200 wurde mit 512bit+GDDR3 ausgeruestet weil NVIDIA nichts von GDDR4 hoeren will und weil sie kein Risiko mit der Verfuegbarkeit von GDDR5 am Anfang eingehen wollten. Wie oft muss man den gleichen Quark ueberhaupt immer und immer wieder wiederholen?

Hvoralek
2008-05-30, 23:32:26
Aber 512bit + DDR5 sollen angeblich zuviel sein. Wurde weiter oben geschriebenJa, GT200 kann anscheinend ~ 150 GiB/s sinnvoll nutzen. Weniger kostet deutlich Leistung, viel mehr würde aber kaum etwas bringen. Das passt auch ganz gut: Das ist knapp doppelte 8800- GTX- Bandbreite, dazu kommen sicher ein paar Effizienzsteigerungen (zumindest die von G92). Wenn der Chip grob doppelt so schnell ist wie G80, sollte er damit ganz gut bedient sein.

Und K4mPFwUr$t, Du bist ja anscheinend unfehlbar und verstehst jede Erläuterung auf Anhieb. Hoffe ich zumindest, ansonsten würde ich Dir wünschen, dass Dich auch mal jemand so anpflaumt. Offenbar hat Snoopy69 weniger Hintergrundwissen als viele andere hier und es gibt sicher Leute, die den Zusammenhang zwischen SI- Breite, Speicherart /-takt und GPU- Leistung schneller verstehen würden. Allerdings fragt er zumindest in einem freundlichen Ton nach, und ich finde, allein schon das verbietet, so herumzumotzen. Wenn Du Dich also nicht mit Leuten unter Deinem Niveau (*hust*) abgeben möchtest, musst Du seine Beiträge nicht lesen, geschweige denn, darauf antworten.

Ailuros
2008-05-30, 23:34:38
aha... hoch interessant... und was ist hiermit?
http://www.anandtech.com/weblog/showpost.aspx?i=453

da steht 1.2 mrd, nicht 1.4

.... sorry, hat vorher schon jemand gepostet.

Es sind 1.4. Wie und warum siehe nach dem Launch.

anyway: jeder der glaubt dass die GT200 3x so schnell wird wir eine 8800GTX lebt im Traumland.

Insgesamt ist die G80 auch nicht im Durchschnitt 3x mal so schnell wie G71. Bis zu 3x dann eben schon.

Nun schiess mal los da Du so gute Quellen hast wie die Leistung zwischen GT200 und G80 genau aussieht?

K4mPFwUr$t
2008-05-30, 23:35:29
@Hvoralek
wer wind sät, wird sturm ernten. und nichts anderes hat snoopy69 mit seiner art bewirt.
besonders Ruhig Brauner, keiner tut dir was.

das hat auch nichts mit unfehlbar und schnelles verständnis zu tuen. es ist einfach sinnfreie sturrheit und verblendheit gegenüber der realität.

Hvoralek
2008-05-31, 00:03:41
wer wind säht, wird sturm ernten. und nichts anderes hat snoopy69 mit seiner art bewirt.
besonders

das hat auch nichts mit unfehlbar und schnelles verständnis zu tuen. es ist einfach sinnfreie sturrheit und verblendheit gegenüber der realität.Aha, er hat also "Wind gesät" nachdem Du ihn in dem Tonfall angeblökt hattest? Er hat nun wirklich höflich gefragt, zwar immer dasselbe, aber nicht aus Sturheit, um uns zu ärgern, sondern, weil er die Erklärungen wirklich nicht verstanden hat. Offenbar möchte er es ja verstehen, und ich tue gerne, was ich kann, um ihm dabei zu helfen (Gut, imM habe ich auch die Zeit für so etwas :ugly:).

Ich kann aber jeden verstehen, der es ähnlich wie dargo inzwischen aufgegeben hat. Wie gesagt, wenn es Dich nervt, überlese seine Beiträge einfach und fertig. Jemanden so anzupflaumen, nur weil er diese Zusammenhänge nicht auf Anhieb versteht, ist wirklich eine ganz miese Art. Es gehört doch wohl zum Grundbestand zwischenmenschlichen Verhaltens, dass man niemanden auslacht, sonstwie unnötig runtermacht oder gar beschimpft, nur weil er etwas nicht kann. Normalerweise ärgern sich Leute dann schon selbst genug. Anders sieht es aus, wenn jemand etwas nicht möchte. Z.B. Deine miserable Rechtschreibung/ Zeichensetzung kann eigentlich nicht nur an Unfähigkeit liegen, sondern muss auch mit mangelndem Willen zusammenhängen, korrekt und damit auch besser lesbar zu schreiben. Wenn Dich jetzt jemand dafür zur Sau machen würde, könnte ich es gut nachvollziehen.

Also Snoopy69, sind in dem ganzen Wirrwar jetzt erst einmal folgende Dinge rübergekommen?:
Das in dem Zusammenhang Wesentliche ist die Bandbreite. Die hängt von der Breite des Speicherinterfaces und dem Speichertakt ab. D.h. n MHz Speicher und x bit SI = 2n MHz und x/2 bit = n/2 MHz und 2x bit. SI und Speichertakt alleine haben aber keine Bedeutung.
GDDR5 taktet deutlich höher als GDDR3 (etwa 1,8 - 2,2 GHz, der schnellste GDDR3 liegt bei 1,2)
Je schneller eine GPU ist, desto mehr Bandbreite braucht sie.

Ailuros
2008-05-31, 00:20:58
Je schneller eine GPU ist, desto mehr Bandbreite braucht sie.

Mir ist schon klar dass Du das Ganze grob vereinfacht hast damit er es auch versteht, aber das obrige gilt nicht in allen zumindest theoretischen Faellen. SGX ist auch eine GPU, ist um einiges schneller als APX 2500, verbraucht aber um einiges weniger Bandbreite.

Gast
2008-05-31, 00:21:04
Ganz egal scheint es wohl nicht zu sein, wie man eine bestimmte Bandbreite erreicht (Speicher-Timings). Zumindest bei GDDR3 gegenüber GDDR4, siehe:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=409568

Gast
2008-05-31, 00:31:56
Schon bekannt? http://resources.vr-zone.com//newspics/May08/30/gtx200-series-price.jpg

Hvoralek
2008-05-31, 00:36:09
Ganz egal scheint es wohl nicht zu sein, wie man eine bestimmte Bandbreite erreicht (Speicher-Timings). Zumindest bei GDDR3 gegenüber GDDR4, siehe:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=409568Die Bandbreite ist erst einmal gleich. Es gibt auch noch andere Dinge, die einen gewissen Einfluss haben können, das stimmt.

Mir ist schon klar dass Du das Ganze grob vereinfacht hast damit er es auch versteht, aber das obrige gilt nicht in allen zumindest theoretischen Faellen. SGX ist auch eine GPU, ist um einiges schneller als APX 2500, verbraucht aber um einiges weniger Bandbreite.Das gilt natürlich nur innerhalb einer Architektur. Z.B. Bei G80/ G92 hinkt der Vergleich schon leicht, weil G92 Bandbreite effizienter nutzt.

Schon bekannt? http://resources.vr-zone.com//newspics/May08/30/gtx200-series-price.jpgWurde glaube ich schon mehrfach gepostet.

Ailuros
2008-05-31, 00:50:19
Die Bandbreite ist erst einmal gleich. Es gibt auch noch andere Dinge, die einen gewissen Einfluss haben können, das stimmt.

Wie z.B. dass selbst AMD intern einsehen musste dass GDDR4 ein Fehlschlag der ganz auf ihre eigene Rechnung fliegt ist. Warum fragt jemand ganz einfach wird kein GDDR4 auf RV770 benutzt?

Das gilt natürlich nur innerhalb einer Architektur. Z.B. Bei G80/ G92 hinkt der Vergleich schon leicht, weil G92 Bandbreite effizienter nutzt.

GT200 duerfte auf der gewonnenen Erfahrung vom G92/94 aufbauen.

Sorkalm
2008-05-31, 00:57:07
CJ ist aber wirklich mutig:

Der Todfeind von Nvidia ist doch auch der Inquirer.

http://s7.directupload.net/images/080531/94x2mmrx.jpg

;D

Gosh
2008-05-31, 01:48:41
Eher die beste kostenlose Werbung.

Ailuros
2008-05-31, 08:09:42
Erlaubt mir mal jetzt eine andere (etwas generelle) Kleinigkeit:

beide IHVs veroeffentlichen IMHLO ihre neuen GPUs zur falschen Zeit. Und ja ich bleibe dabei dass ein IHV etwas veroeffentlicht wenn es fertig ist.

Die Frage bleibt wer zum Henker im Sommer zu einer neuen GPU greifen wird.

Kurz danach etwas zusaetzliche Kritik an beide IHVs: mir ist zwar klar dass eine 3870X2 und/oder eine 9800GX2 der billigste und schnellste weg fuer beide war die Leistung um X gegen single chip zu erhoehen, aber fuer mich bleibt es dabei dass man mit beiden Produkten und ihrer so kurzen Lebenszeit im Angesicht von RV770/GT200 den Kunden sehr nett verarscht hat.

Wie schon oefters wiederholt NVIDIA gehoert gelyncht fuer die idiotische "series 9" Namensgebung und auch fuer das hoechstwahrscheinlich fehlende 10.1 in GT200. Hat CJ recht und sie haetten tatsaechlich die TMUs fuer 10.1 umkrepeln muessen bleibt die Frage warum sie mit all dem R&D die sie fuer GT200 geopfert haben nicht so weit gegangen sind. Ja man spart Unkosten auf einem ohnehin schon zu teuren chip, aber ich werde persoenlich nicht ueberzeugt sein dass 10.1 "nutzlos" sein wird bis ich sehe dass kein einziges zukuenftiges Spiel einen 10.1 fuer deferred shading/shadowing + MSAA nutzen wird.

AMD verdient auch keine Lorbeeren fuer das gesamte GDDR4 Schlammasel. Man drehte die Spezifikationen zu seinen eigenen Gunsten und das einzige was man erreichte ist dass der spezifische Speichertyp nicht nur mehr Strom verbraucht als GDDR3 am Ende, sondern auch unerwartete Nebeneffekte fuer ihre eigenen Architekturen aufweisst.

Einen weiteren Tritt in den Hintern verdiente sich NVIDIA mit dem Marketing-Scheiss gegen Intel. Bis Intel ihren Larabee Mist vorstellt sehe ich keinen einzigen Grund sich in ein endloses und aeusserst kindisches Affen-PR hin und her dass eigentlich nur einen bitteren Geschmack im Maul des Lesers laesst. Intel wird es tatsaechlich nicht leicht haben (stets IMHLO) gegen AMD und NVIDIA was Grafik betrifft; aber bis zum Zeitpunkt wo es soweit kommt kann man auch gefaelligst die Klappe halten und auf die Vermarktung seiner eigenen zeitigen Produkte konzentrieren.

Tschuldigung fuer's OT aber meine 2 cents.

***edit: und damit ich es nicht vergesse Charlie ist ein hoffnungsloser Fall. Selten hab ich so viel Scheiss auf einer einzigen Seite gelesen.

Gast
2008-05-31, 08:48:33
Es sind 1.4. Wie und warum siehe nach dem Launch.
Ich tippe auf NVIO.

Gast
2008-05-31, 09:03:46
[quote>Skipping the rest of the bias, GT200b will not hit the market for another couple of months, most likely for the annual NVIDIA November refresh, so anyone buying a GT200 card will not end up with a dead duck. He or she will get the fastest single-core graphics card on the planet, even if it is still a G8x derivate.[/quote]
http://www.nordichardware.com/news,7815.html

Man darf gespannt sein was der Chip bietet. Finde es als potenzieller GT200 Käufer aber gut, dass er nicht gleich im September kommt.

Ailuros
2008-05-31, 09:18:31
Die B Version dient hauptsaechlich um die Preise reduzieren zu koennen.

AnarchX
2008-05-31, 09:24:06
X-( oh man ... bei manchen leuten kann man sich echt nur an den kopf greifen.

So ein Ton muss hier doch nicht sein.
Wenn der Gegenüber auch noch so schwerfällig ist, was ja von Zeit zu Zeit mal ein jeder von uns sein kann, so bietet doch ein Forum die Möglichkeit sich einfach zurückzuziehen und den geduldigeren Usern die Erklärarbeit zu überlassen.

Gast
2008-05-31, 10:36:59
Die B Version dient hauptsaechlich um die Preise reduzieren zu koennen.

Nur um die Fertigung günstiger zu machen ? Nur dieser eine Punkt ?

Also...

- keine effizientere Stromaufnahme ?
- keine besseren Taktraten ?
- kein DirectX10.1 hier ?

Im Endeffekt ist der dann genauso, nur geshrinkt und günstiger zu produzieren ?

Gast
2008-05-31, 10:39:18
Die B Version dient hauptsaechlich um die Preise reduzieren zu koennen.

kann ich mir nicht vorstellen ..... 55nm bedeutet kühler und mehr OC möglich

AnarchX
2008-05-31, 10:46:30
Weniger Stromverbrauch reduziert ja im Endeffekt durch die geringeren Ansprüche an PCB und Kühler auch die Kosten/Preise.;)

derwalde
2008-05-31, 10:48:11
Nur um die Fertigung günstiger zu machen ? Nur dieser eine Punkt ?

Also...

- keine effizientere Stromaufnahme ?
- keine besseren Taktraten ?
- kein DirectX10.1 hier ?

Im Endeffekt ist der dann genauso, nur geshrinkt und günstiger zu produzieren ?


so langsam was ich nicht mehr was ich glauben soll.... *vewirrt sei*

Ailuros
2008-05-31, 10:56:33
Nur um die Fertigung günstiger zu machen ? Nur dieser eine Punkt ?

Ich sagte hauptsaechlich.


- keine effizientere Stromaufnahme ?

Wieso nicht?

- keine besseren Taktraten ?

Wenn sie die Taktraten erhoehen beisst man am Gewinn durch den shrink der geringeren Stromaufnahme wieder ab. Entschuldige aber solche Fragen brauchen nur sehr einfache Logik.


- kein DirectX10.1 hier ?

Wenn GT200 tatsaechlich nicht voll 10.1 kompliant ist, dann sieht es eher danach aus dass die gesamte GT2x0 Familie nichts davon abbekommt.

Im Endeffekt ist der dann genauso, nur geshrinkt und günstiger zu produzieren ?

Wuerde es Dich stoeren wenn Du einen geringeren Stromverbrauch zu einem attraktiverem Preis bekommen wuerdest?

Unyu
2008-05-31, 11:49:17
Die B Version dient hauptsaechlich um die Preise reduzieren zu koennen.
Also: 576mm² -> 412mm², dann noch abzüglich Redundanz ...
:)

Dann noch am PCB und der Bestückung gespart ... :eek:

dargo
2008-05-31, 11:53:27
Insgesamt ist die G80 auch nicht im Durchschnitt 3x mal so schnell wie G71. Bis zu 3x dann eben schon.

Wobei das noch etwas untertrieben ist. Es gibt auch Extremfälle wo sie noch schneller ist. Hier um mehr als den Faktor 4.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/8/

mictasm
2008-05-31, 12:01:20
Ganz ehrlich, können wir diese blödsinnigen Vergangenheitsvergleiche endlich nach so vielen unnötigen Seiten mal lassen und uns nur auf Informationen und Diskussionen zur neuen Generation konzentrieren. Wenn man hier sehr regelmäßig mitliest, um etwas Neues zu erfahren, sind die Wiederholungen alle 3-5 Seiten wirklich nervig!

Gast
2008-05-31, 12:34:58
Ailuros: Was für andere Überraschungen ? ;-) Kannst du das "ein wenig" konkretisieren ? Noch im Jahr 2008 ?

Gast
2008-05-31, 12:46:53
Ich sagte hauptsaechlich.



Schon klar, aber ist der "Rest" Nebensache und nicht von grosser Bedeutung ? ;)


Wenn sie die Taktraten erhoehen beisst man am Gewinn durch den shrink der geringeren Stromaufnahme wieder ab. Entschuldige aber solche Fragen brauchen nur sehr einfache Logik.

Das stimme ich dir auch zu.. Also sind die Taktraten jetzt schon am Limit von gut und böse ?

Wenn GT200 tatsaechlich nicht voll 10.1 kompliant ist, dann sieht es eher danach aus dass die gesamte GT2x0 Familie nichts davon abbekommt.

Schade eigentlich, das habe ich mir schon so gedacht... Aber die Hoffnugn stirbt zu letzt. Obwohl, man weiß ja nie, ob noch irgendwo etwas deaktiviert im Chip schlummert :)

Wuerde es Dich stoeren wenn Du einen geringeren Stromverbrauch zu einem attraktiverem Preis bekommen wuerdest?

Nein, mit sicherlich nicht... Ich hoffe nur, dass der IDLE-Verbrauch dieses Mal nicht so exorbitant hoch ist.

MfG

mapel110
2008-05-31, 12:51:30
Nein, mit sicherlich nicht... Ich hoffe nur, dass der IDLE-Verbrauch dieses Mal nicht so exorbitant hoch ist.

MfG
Zwecks Verkauf von Hybrid-SLI-Boards dürfte der sogar sehr hoch sein. =)

Unyu
2008-05-31, 12:54:44
Zwecks Verkauf von Hybrid-SLI-Boards dürfte der sogar sehr hoch sein. =)
Nur so viel höher (in %), wie es der Lastverbrauch auch ist. :smile:

Gast
2008-05-31, 12:57:59
Nein, mit sicherlich nicht... Ich hoffe nur, dass der IDLE-Verbrauch dieses Mal nicht so exorbitant hoch ist.

MfG
Höher als bei einer 8800 Ultra sicherlich. Außerdem will nV doch h-SLi einführen und da brauchts ja eine Rechtfertigung dafür, sprich einen hohen Idle Verbrauch. Oder ist das Projekt h-SLi schon ad acta gelegt worden? Imho ist der hohe Idle Verbrauch nicht schlimm, denn unter Last ist die Karte auch nicht gerade sparsam. Man kommt eigentlich nicht mehr umher 2 Rechner zu besitzen. Eine Power-Machine und eine Alltagshure. Die ganzen Gaming-Rechner nähern sich momentan einfach immer mehr Supersportwagen an: Schweineteuer und nur bedingt alltagstauglich, Zweitwagen ist Pflicht.

Unyu
2008-05-31, 13:00:22
Na die ganze Karte abzuschalten ist auch sinnvoller als mit Müh und Not wegen 3W einen Aufstand zu machen und rumzustocher ......

Gast
2008-05-31, 13:01:54
So etwas sind genau die Lücken, bei denen der Konkurrent (sofern es ihn noch gibt), punkten kann. Einen Rechner gespart ;).

Unyu
2008-05-31, 13:03:51
Was ist denn die Konkurrenzkarte zur GTX 280? ;)

Chris2CB
2008-05-31, 13:24:17
Na die ganze Karte abzuschalten ist auch sinnvoller als mit Müh und Not wegen 3W einen Aufstand zu machen und rumzustocher ......


Da geht es schon um ein bißchen mehr, zudem kann man auch die Kühleistung reduzieren, da ja keine Verlustleistung Produziert wird.

Die Ganze Karte offline zu legen ist wirklich Sinnvoller.....achso halt moment dann habe ich ja kein Signal..........

Dafür bräuchte ich dann schon wieder ein neues System und irgendwann muss man nunmal einen Schlussstrich ziehen!

Gast
2008-05-31, 13:41:28
Die ganze Karte in eine externe Box reinlegen und gut ist. Die Box an einer PCIE-Karte anschließen, die im PCIE-Slot vom Mobo steckt. Einschalten und Auschlaten, wann immer man möchte und wann immer man Extra-Leistung benötigt. So einfach es klingt, ist es aber auch nun wieder nicht, da die Hersteller da wohl nicht früh genug drüber nachgedacht haben.

Diese Sache hier, könnte die Lösung sein: http://www.magma.com/products/pciexpress/expressbox1/

http://www.magma.com/products/pciexpress/expressbox1/

Obwohl noch nicht für >200 Watt-Karten optimiert, macht diese Meldung aber Hoffnung:

In the near future, "Double-wide" graphics cards or cards that require auxiliary power will be compatible with Magma ExpressBox1 Wide

Allerdings ist der Preis dieser externen Box auch exorbitant hoch, könnte sich nach einigen Jahren aber vielleicht gerechnet haben.

Daredevil
2008-05-31, 13:52:07
Jeah!
Mit externer Kühlung und externer Stromversorgung, das wär cool :)

Spasstiger
2008-05-31, 13:53:56
Jeah!
Mit externer Kühlung und externer Stromversorgung, das wär cool :)
Ich fänds doof. Ich hab lieber alles in einem Gehäuse und nicht auf mehrere Boxen verteilt.

w0mbat
2008-05-31, 14:01:56
Könnte man dann doch zB in einen HDD-Schacht stecken.

Unyu
2008-05-31, 14:10:42
? In den HDD Schacht kommen HDDs und nicht irgendwelche Boxen mit Grafikkarten oder NTs.

w0mbat
2008-05-31, 14:22:05
Ich habe aber keine 4 HDDs, sonder nur 1 bis max. 2, also ist da noch Platz und so wird es auch 90% aller PC-User gehen.

Moralelastix
2008-05-31, 14:30:02
Was für ne PCIe Geschwindigkeit haben diese Boxen, 8x?

Selbst 16x könnte vielleicht schon knapp werden für den GT200?

Und was is mit PCIe 2.0?

Gast
2008-05-31, 14:30:31
Ich fänds doof. Ich hab lieber alles in einem Gehäuse und nicht auf mehrere Boxen verteilt.


Wieso das ? Man kann doch die Box auf seinem Desktop oben drauf stellen. Das sieht doch dann ganz i.O. aus.Ich würde lieber die Box draußen haben wollen , alleine schon wegen der Abwärme.

Im Desktop selber wird es dadurch viel kühler :)

Gast
2008-05-31, 14:32:56
Ich frage mich allerdings warum diese externen Lösungen lediglich für Notebooks und nicht auch für Desktops propagiert werden.

Gast
2008-05-31, 14:37:40
Was für ne PCIe Geschwindigkeit haben diese Boxen, 8x?

Selbst 16x könnte vielleicht schon knapp werden für den GT200?

Und was is mit PCIe 2.0?


Provides a x16 physical connection
PCI Express Specification: Revision 1.1 (hier kommt demnächst aber auch 2.0 , dann auch Platz für grössere Sandwitch-Karten)

Moralelastix
2008-05-31, 14:57:57
Wenns sowas gibt wieso bringt Asus dann diese bescheuerte 1x Box raus, sind die blöd bei Asus oder kostet die Magma ExpressBox 16x so viel, wohl kaum.

Gast
2008-05-31, 15:11:13
Also: 576mm² -> 412mm², dann noch abzüglich Redundanz ...
Das wird nicht funktionieren.

Gast
2008-05-31, 15:13:06
Höher als bei einer 8800 Ultra sicherlich.
WEil?

J0ph33
2008-05-31, 15:27:06
Provides a x16 physical connection
PCI Express Specification: Revision 1.1 (hier kommt demnächst aber auch 2.0 , dann auch Platz für grössere Sandwitch-Karten)

heißt noch lange nicht, dass das elektrisch auch 16x mal sind, oder?

Gast
2008-05-31, 15:27:45
Provides a x16 physical connection
PCI Express Specification: Revision 1.1 (hier kommt demnächst aber auch 2.0 , dann auch Platz für grössere Sandwitch-Karten)

Aber nur laut Specs:

Interconnect Bandwidth: 2000Mbps 250MB/sec (full x1 PCIe speed with no latency)

Supports PCI Express cards that require up to 55 watts of
continuous power


Kann man also total vergessen, diese total überteuerte Box!

Gast
2008-05-31, 15:28:51
Link vergessen:

http://www.magma.com/products/pciexpress/expressbox1/pdf/Specs(70-02360-33).pdf

Unyu
2008-05-31, 15:31:09
Das wird nicht funktionieren.
Aha und warum?
Wo klemmts?

CrazyIvan
2008-05-31, 15:58:52
Höher als bei einer 8800 Ultra sicherlich. Außerdem will nV doch h-SLi einführen und da brauchts ja eine Rechtfertigung dafür, sprich einen hohen Idle Verbrauch. Oder ist das Projekt h-SLi schon ad acta gelegt worden? Imho ist der hohe Idle Verbrauch nicht schlimm, denn unter Last ist die Karte auch nicht gerade sparsam. Man kommt eigentlich nicht mehr umher 2 Rechner zu besitzen. Eine Power-Machine und eine Alltagshure. Die ganzen Gaming-Rechner nähern sich momentan einfach immer mehr Supersportwagen an: Schweineteuer und nur bedingt alltagstauglich, Zweitwagen ist Pflicht.
Genau das ist in meinen Augen der falsche Weg. Die verschiedenen Puzzleteile für einen Spiele-PC mit geringem idle-Verbrauch existieren schon - man muss sie jetzt nur noch vernünftig zusammensetzen.

Im Endeffekt werden 80% des Verbrauchs doch von vier Bauteilen bestimmt:

1. GPU
Hier hilft HybridPower bzw. irgendwann das AMD-Derivat oder gar die Kooperation beider, wie es die Spatzen ja hie und da schon von den Dächern pfeifen. Ein IGP dürfte im Vergleich zu einem Chipsatz ohne Grafik vielleicht 5w mehr verbrauchen. Also sind da, vor allem angesichts von GT200 und R700, gigantische Mengen an Wärme und Energie zu sparen.

2. CPU
Hier sind die Hersteller schon einen Schritt weiter. Ich verstehe allerdings immer noch nicht, warum intel bei EIST den idle-Takt nicht weiter absenkt. Würde das nichts bringen zwecks Leckströme etc.? Da gäfellt mir AMD mit 800Mhz bzw. 1 Ghz schon bedeutend besser. Trotzdem hätte ich kein Problem mit sagen wir mal 300Mhz, falls es denn was bringt.

3. Mainboard
die Spannungswandler und sonstige elektronischen Bauteile (bin auf dem Gebiet weit vom Bescheidwissen entfernt) scheinen ja einiges an Effizienz zu kosten. Das nächste Stepping bei intel will das Problem ja angehen und die aus dem Notebooksektor bekannte Abschaltung einiger dieser teile mittels eines Signals der CPU einführen.

4. Netzteil
80%Plus Netzteile setzen sich langsam durch. Finde ich sehr gut.

Alles in allem ist mir das Delta zwischen idle und Last bei derzeit gängigen High-End-Systemen zu gering. Mit obigen Mitteln sollte es eigentlich möglich sein, ein High-End-System im idle mit <50 Watt zu betreiben, selbst wenn es bei Last >400W ziehen sollte.

P.S. Sry für OT. BTT ;)

Gast
2008-05-31, 16:25:23
[...]

Du hast Powerplay bei ATI vergessen. Diese ehemalige Notebooktechnik senkt den Idle Verbrauch schon drastisch beim RV670 und funktioniert wie z.B. C&Q von AMD.

Man munkelt, dass Powerplay beim RV770 verbessert wurde und die Idle Leistungsaufnahme auf 10W sinkt.

CrazyIvan
2008-05-31, 17:07:03
Ich habe PowerPlay nicht vergessen, sondern ignoriert. Denn ich sehe es als halbgewalkte Lösung an. Da sich der Lastverbrauch von Grafikkarten rapide steigert, wird auch der idle-Verbrauch mindestens linear steigen - PowerPlay hin oder her. Allein schon die Grundversorgung von PCB und Speicher spielen da eine große Rolle. die Endlösung kann in dem Fall nur HybridPower o.ä. sein, alles andere wäre ein Stop auf halbem Weg.

Spasstiger
2008-05-31, 17:31:18
Wieso das ? Man kann doch die Box auf seinem Desktop oben drauf stellen. Das sieht doch dann ganz i.O. aus.Ich würde lieber die Box draußen haben wollen , alleine schon wegen der Abwärme.
Oben drauf liegen bei mir CDs, Gamepad, Fernbedienung, Adapter. Und darüber ist dann die ausziehbare Tastaturablage. Wenn ich schon ein Gehäuse hab, will ich die Hardware auch da reinpacken.

Gast
2008-05-31, 19:01:47
...die Endlösung kann in dem Fall nur HybridPower o.ä. sein, alles andere wäre ein Stop auf halbem Weg.

Na na na, wer wird den solche Wörter benutzen...

Übrigends glaube ich das nicht. Powerplay beim RV670 hat ja schon gut gezeigt was möglich ist. Und von einer steigenden Idle Aufnahem aufgrund steigender Render-Leistung der Grafikkarten kann man auch nicht zwingend ausgehen.

Sollte die 4850 wirklich nur eine Leistungaufnahme von 10 Watt im Idle aufweisen wäre man ja schön blöd wenn man sich lieber eine Technik wie Hybrid-Power + Board Zwang + Treibergehudel an den Hals holt.

The_Invisible
2008-05-31, 19:18:42
Na na na, wer wird den solche Wörter benutzen...

Übrigends glaube ich das nicht. Powerplay beim RV670 hat ja schon gut gezeigt was möglich ist. Und von einer steigenden Idle Aufnahem aufgrund steigender Render-Leistung der Grafikkarten kann man auch nicht zwingend ausgehen.

Sollte die 4850 wirklich nur eine Leistungaufnahme von 10 Watt im Idle aufweisen wäre man ja schön blöd wenn man sich lieber eine Technik wie Hybrid-Power + Board Zwang + Treibergehudel an den Hals holt.

ja, man bedenke das es nicht nur windows gibt.

und für eine 5farben textkonsole sind sicher keinem 100w verbrauch der graka recht :D

mfg

Gast
2008-05-31, 19:23:13
Ich habe PowerPlay nicht vergessen, sondern ignoriert. Denn ich sehe es als halbgewalkte Lösung an. Da sich der Lastverbrauch von Grafikkarten rapide steigert, wird auch der idle-Verbrauch mindestens linear steigen - PowerPlay hin oder her. Allein schon die Grundversorgung von PCB und Speicher spielen da eine große Rolle. die Endlösung kann in dem Fall nur HybridPower o.ä. sein, alles andere wäre ein Stop auf halbem Weg.

Was für ein Schwachsinn :rolleyes: warum soll man sich erst ein neues MB zulegen (NV Chipsatz :kotz: ) und dann noch VISTA, damit man im IDLE Strom sparen kann ???

Black-Scorpion
2008-05-31, 19:33:57
Ich habe PowerPlay nicht vergessen, sondern ignoriert. Denn ich sehe es als halbgewalkte Lösung an. Da sich der Lastverbrauch von Grafikkarten rapide steigert, wird auch der idle-Verbrauch mindestens linear steigen - PowerPlay hin oder her. Allein schon die Grundversorgung von PCB und Speicher spielen da eine große Rolle. die Endlösung kann in dem Fall nur HybridPower o.ä. sein, alles andere wäre ein Stop auf halbem Weg.
Wenn dann mach wenigsten einen Smileys dahinter.
Wenn NV zu blöd ist einen 2D Modus in die Desktopkarten zu verbauen ist das deren Problem.
Das sie es können zeigen ja die Mobil Chips.
Damit eine Erfindung zu rechtfertigen die den Kartenbesitzer auch noch dazu zwingt (welch Zufall) ein Board mit nForce Chipsatz zu kaufen, kann nicht dein ernst sein. Für Leute mit Intel CPU fält es auch erstmal weg da es die passenden Boards dafür schlicht nicht gibt.
Das es dann auch nur mit Vista funktioniert kommt auch noch dazu.

Gast
2008-05-31, 19:37:28
Zwar schon im RV770-Sammelthread, wahrscheinlich aber auch hier ganz passend. Wieder mal ein offizielles AMD-Dokument von Hardware-Infos...

http://www.hardware-infos.com/news.php?news=2110

Gast
2008-05-31, 19:38:04
Wenn dann mach wenigsten einen Smileys dahinter.
Wenn NV zu blöd ist einen 2D Modus in die Desktopkarten zu verbauen ist das deren Problem.
Das sie es können zeigen ja die Mobil Chips.
Damit eine Erfindung zu rechtfertigen die den Kartenbesitzer auch noch dazu zwingt (welch Zufall) ein Board mit nForce Chipsatz zu kaufen, kann nicht dein ernst sein. Für Leute mit Intel CPU fält es auch erstmal weg da es die passenden Boards dafür schlicht nicht gibt.
Das es dann auch nur mit Vista funktioniert kommt auch noch dazu.
Die können sich das halt erlauben. Kompromisslose "Speedhuren" werden auch in Zukunft nicht um nV rumkommen. Damit können sie dem User die Bedingungen aufdiktieren und ihn nach ihren Vorstellungen melken.

Anarchy-HWLUXX
2008-05-31, 19:58:27
Auf VR-Zone gesehn :

http://img135.imageshack.us/img135/5166/gtx200seriesperformanceox2.jpg

http://vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html

177er Treiber für die GTX und der 8.3er für die X2 laut VR-Zone

HarryHirsch
2008-05-31, 20:00:17
Auf VR-Zone gesehn :

http://img135.imageshack.us/img135/5166/gtx200seriesperformanceox2.jpg

die länge der balken ist echt gut gewählt

Eggcake
2008-05-31, 20:07:52
Haha...wiedermal sehr geile Grafik. Wie immer...ich krieg mich nich wieder ein... :D

pest
2008-05-31, 20:09:07
demnach liegt die GTX260 auf ca. 9800GX2 Niveau

pest
2008-05-31, 20:15:15
Yeah Balken dranpinseln...

dargo
2008-05-31, 20:20:27
demnach liegt die GTX260 auf ca. 9800GX2 Niveau
Wie kommst du darauf?

Unabhängig davon ob die Benchmarks Fake sind oder nicht - eine GX2 ist nur 24% im 3DMark Vantage schneller als eine X2.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/7/

Bei dem oben gezeigten Diagramm ist die G260GTX ca. 75% schneller als die X2. Somit wäre die G260GTX ~41% schneller als die GX2.
Ist natürlich alles nur grobgerechnet. Ich weiß nicht wie weit die CPU bei dem 3DMark Test von CB limitiert.

Schlammsau
2008-05-31, 20:21:42
in Call of Juarez 2,5x schneller als eine X2!?
neeee.......die Balken sind pure Verarsche!
Obwohl.....in extremen Auflösungen, kann das schon sein! Evtl. bei 2xxx x irgendwas!
5fps die X2 und die GTX280 hat 12fps!

pest
2008-05-31, 20:22:15
Wie kommst du darauf?


ok, so schnell wie ne GX2 ohne AA/AF in Crysis :tongue:

pest
2008-05-31, 20:23:32
in Call of Juarez 2,5x schneller als eine X2!?
nene..............

Die ham bestimmt bei CB geillert, da ist ne GX2 auch schon 2mal so schnell

Unyu
2008-05-31, 20:25:00
In Call of Juarez hat der Balken nicht mehr vollständig draufgepasst. ;) (oder warum sind sonst 260 und 280 gleich schnell?)
-> eher 3x 3870 X2. :eek:

dargo
2008-05-31, 20:25:17
in Call of Juarez 2,5x schneller als eine X2!?
neeee.......die Balken sind pure Verarsche!
Wird eh Fake sein. Warum sollten plötzlich in CoJ beide Geforce-Next gleich schnell sein? CPU-Limit scheint ja anhand der X2 nicht vorzuliegen.

Anarchy-HWLUXX
2008-05-31, 20:26:16
Yeah Balken dranpinseln...
@gast - du bist arm ...


http://img174.imageshack.us/img174/7227/gtx200seriesperformanceiy4.jpg


Fake hin oder her - jetzt stimmt wenigstens die Länge

dargo
2008-05-31, 20:28:47
In Call of Juarez hat der Balken nicht mehr vollständig draufgepasst. ;) (oder warum sind sonst 260 und 280 gleich schnell?)

Stimmt, das ist ne logische Erklärung. Dann hat der Diagramm-Ersteller wohl nicht viel Ahnung von Diagrammen. :tongue:

Gast
2008-05-31, 20:28:47
cool noch eine :D

Eggcake
2008-05-31, 20:32:09
@gast - du bist arm ...


http://img123.imageshack.us/img123/1083/gtx200seriesperformanceyo9.jpg


Fake hin oder her - jetzt stimmt wenigstens die Länge

Nur die Gamenamen sind weg ;)

dildo4u
2008-05-31, 20:45:43
Wenn man die Grafik und das Computerbase Ranking zu Grunde legt ist die GTX280 im Schnitt ca 120% schneller als eine 8800 GTX.

Anarchy-HWLUXX
2008-05-31, 20:45:47
Nur die Gamenamen sind weg ;)
Kackö, nochmal fixen ...

AnarchX
2008-05-31, 21:29:29
Sinnvoll erweiterte Diagramme sind gern gesehen, aber verfälschtes möche ich nicht hier sehen.
Verstanden?;)


Jedenfalls sollte man diese Folien doch ziemlich ernst nehmen, CJ und VR-Zone sind ja nicht gerade bekannt für Fakes, sondern für eintreffende Leaks.

Gast
2008-05-31, 21:35:05
@gast - du bist arm ...


http://img174.imageshack.us/img174/7227/gtx200seriesperformanceiy4.jpg


Fake hin oder her - jetzt stimmt wenigstens die Länge


Jetzt müsste man nur noch die Auflösung und die AA und AF Einstellungen kennen um die Balken einordnen zu können. Ohne diese Angaben...naja...

AnarchX
2008-05-31, 21:37:38
Laut CJ 2560x1600 Benchmarks:
http://gathering.tweakers.net/forum/view_message/30163213

Da dürfte der VRAM nicht ganz unwichtig sein.

Schlammsau
2008-05-31, 22:09:18
Laut CJ 2560x1600 Benchmarks:
http://gathering.tweakers.net/forum/view_message/30163213

Da dürfte der VRAM nicht ganz unwichtig sein.

sag ich ja....extreme Auflösung wo der RAM entscheidend ist! :biggrin:
dürfte aber eh im unspielbaren Bereich sein. Zumindest in Crysis.

Gast
2008-05-31, 22:10:16
sag ich ja....extreme Auflösung wo der RAM entscheidend ist! :biggrin:

Nicht nur

Gast
2008-05-31, 22:14:05
Warum hat NVIDIA nicht gegen eine HD3870 gebencht? Die Balken wären hier noch größer (bei NVIDIA).

Und nur bedingt aussagekräftig, da:
- ev. VRAM-Limit bei der X2
- ev. funktioniert Crossfire nicht
- alter (ATI) gegen neuer (NVIDIA) Treiber

Adam D.
2008-05-31, 22:23:47
Warum hat NVIDIA nicht gegen eine HD3870 gebencht? Die Balken wären hier noch größer (bei NVIDIA).

Und nur bedingt aussagekräftig, da:
- ev. VRAM-Limit bei der X2
- ev. funktioniert Crossfire nicht
- alter (ATI) gegen neuer (NVIDIA) Treiber
Das Ding ist 'ne Marketing-Folie. Man sucht sich Szenarien, bei dem der Konkurrent besonders kacke aussieht, nimmt noch 'n paar total bekloppte Balken und wirbt dann mit dem Produkt, war doch immer so.

PS: HD3800X2 ist ATis aktuelle High-End-Karte, daher der Vergleich.

deekey777
2008-05-31, 22:27:12
Warum hat NVIDIA nicht gegen eine HD3870 gebencht? Die Balken wären hier noch größer (bei NVIDIA).

Und nur bedingt aussagekräftig, da:
- ev. VRAM-Limit bei der X2
- ev. funktioniert Crossfire nicht
- alter (ATI) gegen neuer (NVIDIA) Treiber
Wäre ja interessant, wenn NV schon mit einer HD4870X2 testen durfte.

Gast
2008-05-31, 22:27:14
Aha und warum?
Wo klemmts?
Hast du schonmal einen 'idealen' shrink gesehen? Darüber hinaus lassen sich manche Bereich nicht linear mit dem Prozess schrumpfen.

Gast
2008-05-31, 22:28:41
Interessant wirds ja erst, wenn gegen die alte Generation gebencht wird. Alle Käufer der 8800Ultra/GTX/GTS sind, denke ich, die Hauptzielgruppe. Alle andere haben erst auf G9x oder RV670 gewechselt und werden hier wohl nicht nochmal € hinblettern.

Bin auf die GTX260 gespannt, die dürfte gegenüber der G80-GTS640 ja 2,5x Leistung bringen, ebenso die GTX280 gegenüber der G80-GTX.
Nach 1,5Jahren wirds endlich wieder interessant!

Gast
2008-05-31, 22:28:58
Wird eh Fake sein. Warum sollten plötzlich in CoJ beide Geforce-Next gleich schnell sein? CPU-Limit scheint ja anhand der X2 nicht vorzuliegen.
HL2 ist auf einer Geforce FX 5200 auch nicht cpu-limitiert...

dildo4u
2008-05-31, 22:36:23
Wäre ja interessant, wenn NV schon mit einer HD4870X2 testen durfte.
Auch der wird in der Auflösung whol hier und da der V-Ram ausgehen.Bis die 2GB Version kommt werden whol noch ein paar Monate vergehen.

Gast
2008-05-31, 22:46:19
Auch der wird in der Auflösung whol hier und da der V-Ram ausgehen.Bis die 2GB Version kommt werden whol noch ein paar Monate vergehen.

2GB im Consumer Bereich kannst nicht vor 2010 erwarten. Allein die Quadro könnte 2GB haben in der max Ausführung, alles andere entspricht nicht dem was nV unter Marge versteht ^^

dildo4u
2008-05-31, 22:50:53
2GB im Consumer Bereich kannst nicht vor 2010 erwarten.
Die Karte muss 1GB pro GPU haben bei Crossfire/SLI wenn ihr bei Crysis nicht der V-Ram ausgehen soll.Eine 9800GX2 hat auch 1GB verbaut kann aber nur 512mb nutzen.

CrazyIvan
2008-05-31, 23:10:10
Wenn dann mach wenigsten einen Smileys dahinter.
Wenn NV zu blöd ist einen 2D Modus in die Desktopkarten zu verbauen ist das deren Problem.
Das sie es können zeigen ja die Mobil Chips.
Damit eine Erfindung zu rechtfertigen die den Kartenbesitzer auch noch dazu zwingt (welch Zufall) ein Board mit nForce Chipsatz zu kaufen, kann nicht dein ernst sein. Für Leute mit Intel CPU fält es auch erstmal weg da es die passenden Boards dafür schlicht nicht gibt.
Das es dann auch nur mit Vista funktioniert kommt auch noch dazu.

Jetzt mal sachte. Ich ergreife hier keinesfalls für irgendeinen IHV Partei. Es geht darum, dass das hinter HybridPower steckende Konzept einfach das beste ist. Es sollte doch wohl jedem einleuchten, dass das Abschalten der kompletten Karte per definitionem besser sein muss, als irgendein idle-Modus. Alles auf einer GT200 oder R700 ist nunmal für den Volllastbereich ausgelegt. Demzufolge dürfte der Wirkungsgrad von Spannungswandlern etc. im idle dermaßen schlecht sein, dass da einfach viel Energie verpufft. Gleiches gilt für die >=1GiB VRAM, die im Desktop-Betrieb kein Mensch braucht. Unter eine gewisse Grenze wird man mit PowerPlay etc. nicht kommen - und um ehrlich zu sein bezweifle ich die propagierten 10W bei einem RV770XT sehr stark. Faktor 2 ist in meinen Augen eher realistisch.

Auch will ich hier niemanden zu nem Boardkauf oder gar Chipsatzzwang überreden. Falls Du mein Posting wirklich gelesen hast, sollte Dir nicht entgangen sein, dass ich eine mögliche Kooperation seitens nV und AMD ansprach. Wo dann da der Zwang sein soll, musst Du mir mal erklären.

P.S.
Es nervt mich tierisch, dass hier hinter JEDEM Beitrag gleich irgendwelches Fanboygehabe vermutet wird. Das Niveau ist in den letzten Jahren rapide gesunken - kein Wunder, dass sich viele wertvolle Forenmitglieder schon lange verabschiedet haben. Ist jetzt allerdings nicht direkt auf Dich bezogen, Anonym. Musste das nur mal loswerden.

Gast
2008-05-31, 23:13:44
Die Karte muss 1GB pro GPU haben bei Crossfire/SLI wenn ihr bei Crysis nicht der V-Ram ausgehen soll.Eine 9800GX2 hat auch 1GB verbaut kann aber nur 512mb nutzen.

Es gab afaik eine FireGL mit 2GB RAM, aber lass erstmal sehen, wie eine normale RV770 XT Karte aussehen wird, welches SI sie bringen wird. Wenn es GDDR5 schon ist, wird die X2 wohl erst im November kommen.

Gabs eigentlich schon Gerüchte zur 3. GT200 Variante?
Da GTX als Name aktuell wohl feststeht? wird es eventuell eine GTS260 geben, die die hälfte des RAMs beinhaltet. AKA G80-GTS320.

Unyu
2008-05-31, 23:17:50
2GB im Consumer Bereich kannst nicht vor 2010 erwarten.
Warum? (außer den Kosten)
Gibt doch schon eine 9600GT mit 2GiB....

Hast du schonmal einen 'idealen' shrink gesehen?
G70 -> G71 war nicht schlecht.

deekey777
2008-05-31, 23:26:35
2GB im Consumer Bereich kannst nicht vor 2010 erwarten. Allein die Quadro könnte 2GB haben in der max Ausführung, alles andere entspricht nicht dem was nV unter Marge versteht ^^
Es gibt schon einige Grafikkarten mit 2 GB, MSI hat zuletzt eine 9600GT 2 GB auf den Markt gebracht, die einen Turboknopf hat. Auch Diamond hat einige Radeon mit 2 GB anzubieten.

dargo
2008-05-31, 23:26:37
HL2 ist auf einer Geforce FX 5200 auch nicht cpu-limitiert...
Hast du überhaupt verstanden was ich meinte? Außerdem CoJ und 2560x1600. :rolleyes:

deekey777
2008-05-31, 23:30:20
Hast du überhaupt verstanden was ich meinte? Außerdem CoJ und 2560x1600. :rolleyes:

http://www.digit-life.com/articles2/digest3d/index0803.html
(cat. 8.3)

Aber wie gesagt: PR-Folien... Man kann nicht mit ihnen leben und darf sie nicht töten.

dargo
2008-05-31, 23:34:12
http://www.digit-life.com/articles2/digest3d/index0803.html
(cat. 8.3)

Was möchtest du mir jetzt damit sagen?

deekey777
2008-05-31, 23:36:48
Was möchtest du mir jetzt damit sagen?
Du bist doch fähig, die Links aunzuschauen oder? Falls nicht:
http://www.digit-life.com/articles2/digest3d/0308/itogi-video-cj-wxp-2560-pcie.html
http://www.digit-life.com/articles2/digest3d/0308/itogi-video-cj-wxp-aaa-2560-pcie.html

dargo
2008-05-31, 23:43:18
Du bist doch fähig, die Links aunzuschauen oder?
Ja logisch. Nur was soll ich mit den Links? Da limitiert die CPU selbst schon bei einer GX2? Ich denke die Leute von der PR-Abteilung sind schlau genug die DX10-Version zu testen.

Hier sieht die Framerate schon etwas anders aus:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/17/

Edit:
Langsam gehen mir die Benchmarks mit SLI/CF auf die Nerven. :mad:
Kann es sein, dass es damit nur noch Treiberprobleme gibt? Aus dem genannten Link:

HD3870X2:
1280x1024 4xAA/16xAF = 15,2fps
1600x1200 1xAA/1xAF = 31,5fps
1600x1200 4xAA/16xAF = 18,8fps

Ähm... :|

Gast
2008-05-31, 23:43:20
Die X2 hat 34FPS, die GTX 280 müsste also was um die 70FPS haben, halte ich für möglich.

Gast
2008-05-31, 23:43:52
Hast du überhaupt verstanden was ich meinte?
Jo. Das:
"Wird eh Fake sein. Warum sollten plötzlich in CoJ beide Geforce-Next gleich schnell sein? CPU-Limit scheint ja anhand der X2 nicht vorzuliegen." (dargo)

Darauf ich:
"HL2 ist auf einer Geforce FX 5200 auch nicht cpu-limitiert..."(Gast)

Was DU anscheinend nicht verstanden hast: Du schließt anhand der Fps-Werte der X2 auf ein nicht vorhandenes CPU-Limit - an was Karten, die 2,5x so schnell sein solln (!, sic) durchaus stoßen können.

Siehe Half-Life 2: Auf Geforce FX gnadenlos grafiklimitiert, auf richtigen Grafikkarten eher ein CPU-Benchmark.

Gast
2008-05-31, 23:48:14
Wer sagt den das hier die CPU limitiert? schon aufgefallen das die Grafik/Diagramm gar nicht höher geht?

Gast
2008-05-31, 23:51:54
In DX10 hat eine X2 bei 2560x1600 4xAA/16xAF gerade mal 11FPS, eine 3 Fache Steigerung wären auch nur 33FPS und die kann man dem G200 schon mal locker zutrauen, schon nur wegen dem Speicher-Vorteil!

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/16/#abschnitt_call_of_juarez

dargo
2008-05-31, 23:59:12
Was DU anscheinend nicht verstanden hast: Du schließt anhand der Fps-Werte der X2 auf ein nicht vorhandenes CPU-Limit - an was Karten, die 2,5x so schnell sein solln (!, sic) durchaus stoßen können.

Moment mal, meinst du jetzt ein CPU-Limit schon bei der X2 oder erst bei der G280GTX? Ersteres kann nicht stimmen da die G280GTX gar nicht so stark zulegen könnte. Zweiteres zweifle ich auch an, denn das würde bedeuten, dass die G280GTX viel mehr als um den Faktor 2,5 schneller wäre als die X2. Nicht besonders glaubhaft.

tombman
2008-06-01, 01:06:10
@gast - du bist arm ...


http://img174.imageshack.us/img174/7227/gtx200seriesperformanceiy4.jpg


Fake hin oder her - jetzt stimmt wenigstens die Länge

OMG, falls das stimmt, ist die 280er GANZ KLAR DEUTLICH schneller als jede GX2.
Eine GX2 ist laut cb nicht mehr als 33% schneller als eine X2, was der GTX 280 eine ÄRGERE ownage gegenüber der GX2 bescheinigen würde :eek:

Btw, wenn sich 260er und 280er annähern, dann ist das ganz klar ein CPU Limit. Sieht man ja auch abhängig von der Komplexität der benchmarks. Bei vantage ist der Unterschied am größten, weil da die Last auf die GPU am stärksten ist...

Um mal "fettes Brot" in "Betina" zu zitieren "ich werd ein bischen geil..." ;D

dargo
2008-06-01, 01:13:41
Btw, wenn sich 260er und 280er annähern, dann ist das ganz klar ein CPU Limit.
Denke bitte nochmal nach und beachte die "1.0" der X2. Falls du ein CPU-Limit erst bei Geforce-Next meinst, wäre eine Möglichkeit. Dann würde das aber auf der anderen Seite bedeuten, dass die G280GTX noch mehr als 2,5 mal schneller wäre. Das kann einfach nicht stimmen. Es sei denn der X2 ging bei diesen Settings der Vram aus. Dann sagt dieser CoJ-Benchmark gar nichts mehr aus.

Odal
2008-06-01, 01:24:22
halte das nicht für realistisch die GTX280 liegt in 3dmurks zu weit vor der GTX260 => fake

tombman
2008-06-01, 01:26:55
Denke bitte nochmal nach und beachte die "1.0" der X2. Falls du ein CPU-Limit erst bei Geforce-Next meinst,
Jo, meine ich....

dargo
2008-06-01, 01:27:33
halte das nicht für realistisch die GTX280 liegt in 3dmurks zu weit vor der GTX260 => fake
Inwiefern zu weit? Ich sehe da ~28% mehr Leistung für die G280GTX. Da die Skala vom Diagramm nicht fein genug ist könnten es genau die +25% sein.

tombman
2008-06-01, 01:27:58
Inwiefern zu weit? Ich sehe da ~28% mehr Leistung für die G280GTX. Da die Skala vom Diagramm nicht fein genug ist könnten es genau die +25% sein.
Sehe ich genauso ;) (hast auch 2.25/1.75 gerechnet? ;D)

Ich sehs schon kommen, meine beiden G80 GTX @ SLI fliegen bald in hohem Bogen raus- und eine GTX 280 kommt rein ;) (erstmal nur eine)

(+44)
2008-06-01, 01:43:26
Hattest du nich T-SLI? Wieso haste die dritte Karte rausgenommen?

Und wolltest du nicht aus Gründen der Vernunft abwarten, bis sich die Preise stabilisieren? ;) (Zumal Hardware in Österreich ja leicht teuerer ist als hier, oder?)

dargo
2008-06-01, 01:47:12
Sehe ich genauso ;) (hast auch 2.25/1.75 gerechnet? ;D)

Nicht ganz, eher 225fps vs. 175fps. Wir kommen aber zum selben Ergebnis. :)

tombman
2008-06-01, 01:48:07
Nicht ganz, eher 225fps vs. 175fps. Wir kommen aber zum selben Ergebnis. :)
Naja, fps sinds ja nicht, nur Faktoren...

dargo
2008-06-01, 01:57:12
Naja, fps sinds ja nicht, nur Faktoren...
Ist völlig egal. :)
Die X2 gibt mit 100% den Ton an. Also gehe ich von 100fps für weitere Berechnungen aus.

HarryHirsch
2008-06-01, 02:07:17
OMG, falls das stimmt, ist die 280er GANZ KLAR DEUTLICH schneller als jede GX2.
Eine GX2 ist laut cb nicht mehr als 33% schneller als eine X2, was der GTX 280 eine ÄRGERE ownage gegenüber der GX2 bescheinigen würde :eek:

Btw, wenn sich 260er und 280er annähern, dann ist das ganz klar ein CPU Limit. Sieht man ja auch abhängig von der Komplexität der benchmarks. Bei vantage ist der Unterschied am größten, weil da die Last auf die GPU am stärksten ist...

Um mal "fettes Brot" in "Betina" zu zitieren "ich werd ich bischen geil..." ;D

naja: "da kam mal einer an und sagte alter biste nich" ich sagte: "nein"

ich würde gerne benches gegen aktuelle treiber sehen

Odal
2008-06-01, 02:12:22
Inwiefern zu weit? Ich sehe da ~28% mehr Leistung für die G280GTX. Da die Skala vom Diagramm nicht fein genug ist könnten es genau die +25% sein.


28,57%

Die 280GTX ist aber nicht 28,6% "mehr" wie die GTX260 und dazu üßte auch noch 3dmurks den idealfall widerspiegeln....um so eine mehrperformance in der praxis zu erreichen müsste die GTX280 min. 30-35% "fetter" als eine GTX260 sein..ist sie aber nicht nach den werten die ich kenne

dargo
2008-06-01, 02:24:43
28,57%

Die 280GTX ist aber nicht 28,6% "mehr" wie die GTX260 und dazu üßte auch noch 3dmurks den idealfall widerspiegeln....um so eine mehrperformance in der praxis zu erreichen müsste die GTX280 min. 30-35% "fetter" als eine GTX260 sein..ist sie aber nicht nach den werten die ich kenne
Die G280GTX hat ~31% mehr arithmetische Leistung. Wenn der 3DMark stark davon profitiert ist es kein Ding der Unmöglichkeit.

Gast
2008-06-01, 02:25:09
die leistung ist doch nichs besonderes,wurde doch in 2560*1600 gebencht und da ist die speicherbandbreite erst mal wichtig,kluger schachzug um noobs hinters licht zu führen.

Gast
2008-06-01, 02:27:42
Ja logisch. Nur was soll ich mit den Links? Da limitiert die CPU selbst schon bei einer GX2? Ich denke die Leute von der PR-Abteilung sind schlau genug die DX10-Version zu testen.

Hier sieht die Framerate schon etwas anders aus:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/17/

Edit:
Langsam gehen mir die Benchmarks mit SLI/CF auf die Nerven. :mad:
Kann es sein, dass es damit nur noch Treiberprobleme gibt? Aus dem genannten Link:

HD3870X2:
1280x1024 4xAA/16xAF = 15,2fps
1600x1200 1xAA/1xAF = 31,5fps
1600x1200 4xAA/16xAF = 18,8fps

Ähm... :|


Hier mit 8.5er Treiber sind es 25,1 FPS

http://www.abload.de/img/1al900.jpg (http://www.abload.de/image.php?img=1al900.jpg)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_3870_x2_atomic/3/#abschnitt_benchmarks

dargo
2008-06-01, 02:27:53
die leistung ist doch nichs besonderes,wurde doch in 2560*1600 gebencht und da ist die speicherbandbreite erst mal wichtig,kluger schachzug um noobs hinters licht zu führen.
Ich weiß, man sollte lieber diese Geschosse in 1280x1024 1xAA/1xAF benchen um ihre Leistung zu zeigen. :rolleyes:

HarryHirsch
2008-06-01, 02:30:52
stimmt schon...
aber leider stehen keine fps bei

Gast
2008-06-01, 02:46:17
Unerwünschter Ton. Sinngemäß: Hinweis auf Speicherbandbreitenlimitierung.

http://www.abload.de/img/cod4224x.png (http://www.abload.de/image.php?img=cod4224x.png)

http://www.abload.de/img/crysisndj.png (http://www.abload.de/image.php?img=crysisndj.png)

http://www.abload.de/img/16678a6v.png (http://www.abload.de/image.php?img=16678a6v.png)

tombman
2008-06-01, 02:56:17
Unerwünschter Ton. Sinngemäß: Hinweis auf Speicherbandbreitenlimitierung.
Weißt du doch gar nicht :rolleyes:

dargo
2008-06-01, 02:57:30
Unerwünschter Ton. Sinngemäß: Hinweis auf Speicherbandbreitenlimitierung.

http://www.abload.de/img/cod4224x.png (http://www.abload.de/image.php?img=cod4224x.png)

http://www.abload.de/img/crysisndj.png (http://www.abload.de/image.php?img=crysisndj.png)

http://www.abload.de/img/16678a6v.png (http://www.abload.de/image.php?img=16678a6v.png)
An deiner Ausdrucksweise merke ich, dass du gerade aus der Pubertät bist... aber lassen wir das.

Und wo ist jetzt der Beweis, dass es der X2 ausschließlich an Speicherbandbreite in den hohen Settings mangelt? Oder anders gefragt - seit wann spielt nur die Speicherbandbreite bei hohen Settings eine Rolle? Das einzige was ich hier nur erkennen kann ist, dass es der X2 in Crysis bei 2560x1600 an Vram mangelt oder es Treiberprobleme gibt. Schließlich erreicht die G8800GTS höhere Werte obwohl NV eigendlich mit dem Vram "verschwenderischer" umgeht.

HarryHirsch
2008-06-01, 03:00:38
also ich sehe das der cat 8.3 der x2 nicht so gut liegt

Gast
2008-06-01, 03:07:54
Glaubst wirklich die 280er wird langsamer als die GX2?

Weißt du doch gar nicht :rolleyes:

die wird max max max so schnell wie eine 8800gtx sli sein und dann ist happy hour.von mehr braucht ihr gar nicht zu träumen es geht nur teilweise um die speicherbandbreite.1 da ist logischerweise die stärke der gt200 und 2. gerade in der auflösung ist die x2 karte einfall fürs bughouse,da sie dort extreme performance verluste erleidet und das nimmt ausgerechnet nv als benchmarkauflösung,haha ohmann

tombman
2008-06-01, 03:10:13
die wird max max max so schnell wie eine 8800gtx sli sein und dann ist happy hour.
Dann nenn mal deinen Nickname, um deine Aussage zu untermauern- ansonsten isses nur Kiddie-Bla-Bla als Gast ;)

HarryHirsch
2008-06-01, 03:14:38
also 2*8800gtx wird se sicher haben, nur zu welchem preis? (abwärme, stromverbrauch)

HarryHirsch
2008-06-01, 04:00:50
ich sag ma so:
http://www.abload.de/img/stopposting-marcus082.gif (http://www.abload.de/image.php?img=stopposting-marcus082.gif)

tombman
2008-06-01, 04:02:45
ich sag ma so:
http://www.abload.de/img/stopposting-marcus082.gif (http://www.abload.de/image.php?img=stopposting-marcus082.gif)
Rofl, wie geil :up:

Ne, aber echt jetzt, kommt der da mit fear und nem lowtech quake an :rolleyes:

Vantage, Crysis und AoC, das interessiert bei G200. (ich sage nicht mehr GT200, weil auch G200 auf dem Chip steht)

AnarchX
2008-06-01, 08:27:11
Müsst ihr denn alle auf einen Gast eingehen, dessen Ton nicht angemessen ist für das 3DC und seine Intention klar Provokation ist? :rolleyes:

Da ich hier nun massiv OT-Spam entsorgen musste, wurde der User der sich an diesem am meisten beteiligt hat: HarryHirsch, entsprechend verwarnt.

Und alle anderen, die sich zukünftig nicht daran halten können, beim Thema zu bleiben und einen angemessenen Ton einzuhalten, werden sich ebenfalls auf eine Beurlaubung vom Forum gefasst machen müssen, die je nach Vorgeschichte nicht gerade kurz ausfallen muss.

pest
2008-06-01, 09:02:41
hab gerade gelesen das für den Chart Cat 8.3 verwendet wurde. Die neuen Catalyst Driver 8.4 und 8.5 haben doch die Performance für CF nochmal deutlich gebessert.

Gast
2008-06-01, 09:44:51
Moment mal, meinst du jetzt ein CPU-Limit schon bei der X2 oder erst bei der G280GTX? Ersteres kann nicht stimmen da die G280GTX gar nicht so stark zulegen könnte. Zweiteres zweifle ich auch an, denn das würde bedeuten, dass die G280GTX viel mehr als um den Faktor 2,5 schneller wäre als die X2. Nicht besonders glaubhaft.


Warum denn nicht? In diesen Extrem- Setting lassen sich bestimmt auch Situationen finden in denen eine 1GB Karte 5x schneller ist als eine mit effektiven 512MB.


Ich weiß, man sollte lieber diese Geschosse in 1280x1024 1xAA/1xAF benchen um ihre Leistung zu zeigen. :rolleyes:

Naja, zwischen dieser und der 2500er Auflösung + AA gibts bestimmt noch ein paar Varianten. Sollte alles unter 2500er Auflösung zu CPU-limitert (oder zu wenig VRAM-limitiert... ;)) sein, kann man sich die Karte auch schenken.

Gast
2008-06-01, 09:45:29
Hier mit 8.5er Treiber sind es 25,1 FPS

http://www.abload.de/img/1al900.jpg (http://www.abload.de/image.php?img=1al900.jpg)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_3870_x2_atomic/3/#abschnitt_benchmarks


Ähm Dude, wir brauchen 2560*1600 als Auflösung, 1600*1200+4xAA ist nicht das selbe.
Wäre auch noch die Frage ob man AF eingeschaltet hat bei den nV Benchmarks, da würde die X2 ja noch ein bissl einbrechen (wenn man die FPS nur sehen könnte! der Faktor sagt fast nix aus in der Auflösung).
5FPS * 2,5 = ruckel

nagus
2008-06-01, 09:59:37
OMG, falls das stimmt, ist die 280er GANZ KLAR DEUTLICH schneller als jede GX2.
Eine GX2 ist laut cb nicht mehr als 33% schneller als eine X2, was der GTX 280 eine ÄRGERE ownage gegenüber der GX2 bescheinigen würde :eek:

Btw, wenn sich 260er und 280er annähern, dann ist das ganz klar ein CPU Limit. Sieht man ja auch abhängig von der Komplexität der benchmarks. Bei vantage ist der Unterschied am größten, weil da die Last auf die GPU am stärksten ist...

Um mal "fettes Brot" in "Betina" zu zitieren "ich werd ein bischen geil..." ;D

:crazy:

um deine pupertäre "geilheit" etwas zu dämpfen: die GX2 ist mit aktuellen treibern ca. 10% schneller als eine X2. wir wollen doch auf auf dem boden der tatsachen bleiben und nicht mit 3 monate alten treibern vergleichen... gelle?

also bevor du zu schnell kommst, warte mal lieber faire bechmarks ab... falls du es noch halten kannst.

mapel110
2008-06-01, 10:16:43
Bei dem CB-Test muss man auch immer bedenken, dass die 2GPU-Karten nicht immer ihre Leistung auf die Straße bringen.
Call of Juarez mit AA bricht massiv ein bei der GX2; und was bei den neuesten CB-Zahlen auch merkwürdig ist, ist der Einbruch bei UT3 bei hinzuschalten von AA/AF bei der X2.

Die Single-GX280 wird dagegen immer auf ihre Leistung kommen, hat ja schließlich kein Treiberprofil- oder VRam-Problem.

tombman
2008-06-01, 10:17:35
warte mal lieber faire bechmarks ab..
Wieso sollte ich? ATI hat im highend eh nix mehr zu reden ;)

Und die GX2 ist weit schneller als nur 10% gegenüber der X2...

Schau mal lieber hier rein:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_3870_x2_atomic/3/#abschnitt_benchmarks

Und dann nimm alles raus, wo es cpu Limits, VRAM Probleme oder SLI/CF Probleme gibt.

http://www.abload.de/img/baaaa8rl.jpg (http://www.abload.de/image.php?img=baaaa8rl.jpg)

GeneralHanno
2008-06-01, 10:28:28
die 3870X2 und die 9800GX2 sind doch beide kacke, weil sie auf dual-GPU setzen. die referenz gegen die sich RV770 und GT200 imo messen müssen ist die 8800 ULTRA. jeglicher vergleich von dual-GPU gegen singel-GPU ist extrem ungenau und wenig aussagekräftig!