PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 6] - Übersicht in #1!


Seiten : [1] 2 3 4 5

AnarchX
2008-06-11, 14:03:27
letzter Post Teil 5: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6574421#post6574421

GT200 - Zusammenfassung aktueller Gerüchte/Spekulationen:

GPU-Codename: G200
Die-Size: 575mm²
Transitorenanzahl: >1Mrd.(laut NV (http://www.golem.de/0804/58955.html)) Update: 1.4Mrd. bestätigt (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6542350&postcount=51)
Die-Shot (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6540341&postcount=1661)

GPU-Aufbau:
- 512-Bit, 32 (?) ROPs
- 10 Cluster mit je 8 TMUs und je 24 skalaren Shadereinheiten (Fähigkeiten noch unbekannt) -> 80 TMUs, 240SPs(Bestätigung? (http://www.marketwatch.com/news/story/nvidias-picture-brighter-stock-price/story.aspx?guid=%7BB82E0D80-25BB-49F2-9BE3-A50EFD3E8CEC%7D))

mögliches PCB-Design:
http://img232.imageshack.us/img232/5411/9900gtxside48db423adh7.jpg (http://imageshack.us)
http://www.vr-zone.com/articles/GeForce_9900_GTX_Card_Design_Exposed/5763.html
STEP-File zum selber anschauen: http://www.mediafire.com/?gem3dcyjd9y
http://img167.imageshack.us/img167/3626/200805211639524826787e5nd3.jpg (http://imageshack.us)
Fotos der Karte:
http://img89.imageshack.us/img89/1249/2008052276e7838a450d9ecmz7.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/5051/200805220692d90f068b76bwp5.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/4426/200805229183401ab0a35a1pe3.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/295/295937.shtml

möglicher Kühler:
http://img232.imageshack.us/img232/2015/129478612vohbe6.jpg (http://imageshack.us)
http://diy.pconline.com.cn/graphics/news/0805/1294786.html

Bilder der finalen Karte bei VR-Zone (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6550720&postcount=432)

SKUs:
- intern D10U-300 und -200
- Handelname: GeForce GTX 280 und 260 (http://www.hkepc.com/?id=1165&fs=c1n) (engl. (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html))
GTX 280:
- voller G200
- 240 SPs, 80 TMUs, 32 ROPs, 512-Bit
- 1GiB GDDR3
- Taktraten: 602/1296/1107MHz
- theoretische Leistung: 48 GTex/s, 933GFLOPs, 142GB/s
- 236W TDP
- 10.5" PCB
- $649 $499 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=65)
- 30W Idle-Verbrauch (kein H-SLI) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6548979#post6548979)
-> 25W (NV-Folie) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6549656&postcount=398)
http://img183.imageshack.us/img183/922/2008060784677969aab813ekb8.jpg

GTX 260:
- teildeaktiverter G200
- 192 SPs, 64 TMUs, 28 ROPs, 448-Bit
- 896MiB GDDR3
- Taktraten: 576/1240?/999MHz
- theoretische Leistung: 36,8 GTex/s, 714GFLOPs, 112GB/s
- 182W TDP
- 10.5" PCB
- $449 $399 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=65)
- NV-Folie (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6554435&postcount=640)

(Quelle der genaueren SKU-Daten (http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed))


- Launch: 18 Juni 2008 (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html) auf den 17. Juni vorgezogen

spekulierte Leistung:

- flüssige Darstellung von Crysis in 2560x1600 Very High 4xAA (http://we.pcinlife.com/thread-926798-1-1.html) durch ein GT200 (GTX 280?) SLI ( ~ 3-fache 8800 GTX Leistung für eine GTX 280)
- QX9650 OC + GT200 soll mehr als 13.000 Punkte in 3DMark Vantage unter Performance (http://we.pcinlife.com/thread-933395-1-1.html)(1280x1024 1xAA/AF) erzielen (~ etwas über 8800 GTX SLI Leistung)
(Anmerkung: PHK ist bekannt für zutreffende Leaks seit einigen Jahren.)
- GTX 280 erreicht 7.000 Punkte unter 3DMark Vantage Extreme Preset (http://www.pczilla.net/en/post/11.html) Update: Offenbar SLI-Werte:
Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6538909&postcount=1539
- GTX 280 unter F@H: ~2.8x HD3870, 5xPS3 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6523912&postcount=867)
- GTX 280: ~ 1.25x GTX 260 laut INQ
http://img78.imageshack.us/img78/1931/gtx200seriesperformanceni9.jpg
http://www.vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html
-> 2560x1600 (http://gathering.tweakers.net/forum/view_message/30163213)
http://img365.imageshack.us/img365/3882/20080607d6ac1e661e770b4qp0.jpg
- Crysis 1920x1200 VH GPU1-Benchmark: 34FPS Avg. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6567402&postcount=306)

Don Vito
2008-06-11, 14:07:47
Zitat:
Zitat von Anarchy-HWLUXX
Nicht jedes HW Forum gehört automatisch zur Enthusiast Liga ... tombman hingegen gehört sicherlich dazu

3D-Center is mehr ne Know-How ecke als High-End HW user Spielplatz

Nicht mehr...
DonVito auch nicht.

Zitat:
HardwareLuxx - Your Guide to Luxurious Hardware

Ich weiss auch nicht, warum wegen 600€ rumgenörgelt


Nur weil wir derzeitig noch nicht auf SSD schwören???


Naja egal, der Preis von rund 600 Eurio ist ganz ok. Am Releasetag der 8800gtx (8. November 2006) kostete diese teilweise 700 euro. Das ließen sich die Händler mit Verfügbarkeit eben bezahlen.

Den Preis finde ich wie Snoopy schon sagte ganz ok, da mehr Leistung ( 50-100% ????)für im Endeffekt das gleiche Geld geboten wird

Snoopy69
2008-06-11, 14:09:23
@ InsaneDruid

Die X19x0 wurde dann aber nicht bei Neuerscheinung gekauft, da ich für meine X1900XT noch 510€ rum hinlegen musste

Schlammsau
2008-06-11, 14:10:42
Den Preis finde ich wie Snoopy schon sagte ganz ok, da mehr Leistung ( 50-100% ????)für im Endeffekt das gleiche Geld geboten wird

:nono: wenn die Karte wirklich nur maximal 2x schneller als ne einzelne 9800GTX für rund 200€ ist! Sind 600€ zuviel Geld für die gebotene Leistung!

Snoopy69
2008-06-11, 14:15:18
:nono: wenn die Karte wirklich nur maximal 2x schneller als ne einzelne 9800GTX für rund 200€ ist! Sind 600€ zuviel Geld für die gebotene Leistung!
Hallo?

Es ist derzeit das Schnellste und Neueste was man bekommen kann. Und das ist eben nun mal überdurchschnittlich teuer. Ist so, war immer so und wird auch immer so bleiben.

Und mit SLI bist du auch nicht immer schneller. Teilweise auch mal langsamer oder gleich schnell wie eine Single-Karte.

Schlammsau
2008-06-11, 14:15:55
Hallo?

Es ist derzeit das Schnellste und Neueste was man bekommen kann. Und das ist eben nun mal überdurchschnittlich teuer. Ist so, war immer so und wird auch immer so bleiben.

da muss man aber nicht unbedingt drauf eingehen!

Odal
2008-06-11, 14:16:14
Die 1950xtx kam so august 2006. Ich hab sofort eine gekauft für 399, da sie defekt war und zu dem Zeitpunkt keine neue lieferbar war holte ich ne 1900xt - die kam zu diesem zeitpunkt 299,-


ich hab meine X1900XT im dezember 2006 für 199€ gekauft (gebraucht gabs die schon teilweise ab 150€) ....k.a. wo du deine hardware herbeziehst

die 3870 war mir damals zu wenig verfügbar also wurdes ne "getunete" 3850 für 170€ im dezember 07 die langt eigentlich immer noch für alles bis auf crysis...die 88GT hätte ich gar nicht gebraucht..die kaufte ich mir blos als spass an der freud vor nem guten monat für 124€ und um mal SSAA testen zu können

für die x1900XT hätte ich im november/dezember 07 sicher noch 100€ oder mehr bekommen

aber egal lassen wir die alten karten ruhen :D ich sag nur das man auch deutlich günstiger zu nem flüssigen spielverhalten kommen konnte fernab der 88GTX

naja und bei der GTX280 ist ja schon im vorraus der wertverfall abzusehen

AnarchX
2008-06-11, 14:17:19
Bitte etwas mehr auf das Thema konzentrieren, Teil 6 sollte doch bis zum Montag reichen oder?;)

Snoopy69
2008-06-11, 14:17:50
da muss man aber nicht unbedingt drauf eingehen!
Hat auch keiner gesagt.
Manchen ist der Preis egal...

AnarchX
2008-06-11, 14:20:36
GTX 260 fällt auf $399? (http://my.ocworkbench.com/bbs/showthread.php?p=432463#post432463)

Ob man das als Omen verstehen kann... :uponder:

edit:
Der Hinweis oben war ernst gemeint...

Odal
2008-06-11, 14:23:33
4870 so schnell wie GTX260 vielleicht? ;)

lässt man noch ein paar wochen ins land ziehen dürfte ja nochmal weniger drin sein

macht man da bei dem komplexen pcb und dem riesen chip ühberhaupt noch gewinn?

Don Vito
2008-06-11, 14:24:35
Bei solchen Karten geht es wohl weniger um den Gewinn als um das Prestige

AnarchX
2008-06-11, 14:25:02
macht man da bei dem komplexen pcb und dem riesen chip ühberhaupt noch gewinn?
Die Materialkosten sind bei High-End-Karten wohl weniger das Problem, so haben diese mit die größten Margen.
Problem ist eher das RnD, was sich aber dann ja auf die ganze Produktfamilie auslegen lässt.

4711
2008-06-11, 14:25:29
event hat NV auch schon die neuen ATIs gebenscht ;D
4870 gogogo dann kostet das Flagschiff event nur 500€ :D
Aufs OC bin ich mal gespannt,wenn die so gehen wie die GX2en,dann aber hallo.

reunion@work
2008-06-11, 14:25:32
GTX 260 fällt auf $399? (http://my.ocworkbench.com/bbs/showthread.php?p=432463#post432463)

Ob man das als Omen verstehen kann... :uponder:

Also wenn die HD4870 tatsächlich so nah an der GTX260 dran ist, dann wäre das ziemlich bitter für NV. Immerhin ist der Chip nichtmal halb so groß, und die GTX 260 ist ja auch nicht so arg abgespeckt, so dass die GTX280 nicht weit vorne sein dürfte.

Gast
2008-06-11, 14:26:02
GTX 260 fällt auf $399? (http://my.ocworkbench.com/bbs/showthread.php?p=432463#post432463)

Ob man das als Omen verstehen kann... :uponder:

edit:
Der Hinweis oben war ernst gemeint...

Das muss ja nicht heissen das die 260er "schlecht" ist ;)
NV hätte wohl eher nicht daran gelaubt das AMD die karten so preiswert verkaufen kann. Als nextes kommt dann die GTX 280@$499 :) dann stimmt alles.

Don Vito
2008-06-11, 14:27:12
Dann wird die 280gtx aus den Staaten importiert:D

MikBach
2008-06-11, 14:28:07
Es ist derzeit das Schnellste und Neueste was man bekommen kann.

Ohne D3D10.1 kannst du das Wort "Neueste" wohl streichen...

deekey777
2008-06-11, 14:28:14
Bitte etwas mehr auf das Thema konzentrieren, Teil 6 sollte doch bis zum Montag reichen oder?;)
Ich ergänze diesen Hinweis um einen weiteren:
Postings mit Kaufabsichten werden nur in einem gewissen Maße geduldet und sind somit gefährdet, gelöscht zu werden.

dargo
2008-06-11, 14:55:44
GTX 260 fällt auf $399? (http://my.ocworkbench.com/bbs/showthread.php?p=432463#post432463)

Ob man das als Omen verstehen kann... :uponder:

Sehr schön. =)

Meinst du NV hat ATI unterschätzt? Die Preisanpassung würde ich zumindest so deuten. Ich vermute mal der G92b hat doch keine Chance mit der HD4870 zu konkurrieren und so versucht NV die G260GTX als Solche hinzustellen, auch wenn diese höchstwahrscheinlich schneller sein wird.

GeneralHanno
2008-06-11, 14:57:45
die gerüchte der letzten tage lassen zumindest darauf schließen, dass der GT200 schwächer als erwartet und der RV770 stärker als erwartet wird.

drmaniac
2008-06-11, 14:59:01
also bitte,

wenn eine neue 600 kostet und "nur" doppelt so schnell ist wie zwei die je 200 kosten (ich formuliere das ganz bewusst so allgemein) dann ist das ...verständlich... es entfällt das SLI, Steckplatz gespart, Microruckel gespart, und es ist eben neuste Technik. War schon IMMER teurer.

siehe Intel. Die lassen sich die Enthusiasten Modelle auch 1000 kosten...rechnet mal wieviel CPUs man dafür bekommt von Intel die insgesamt XX mal schneller sind als eine 1000$CPU...

MikBach
2008-06-11, 15:02:48
und es ist eben neuste Technik.

Nochmal auch für dich.
Ohne D3D10.1 KANN es nicht die neuste Technik sein.

drmaniac
2008-06-11, 15:17:38
ich nehme das als Wortklauberei. Es ist für NVIDIA die neuste, schönste, beste, liebste, dollste Karte... what ever

Nenn es wie DU willst. Das aktuell schnellste Produkt einer Firma kostet am meisten.

Das das hier einige nicht verstehen wollen ist schon fast unnormal ;D

Coda
2008-06-11, 15:21:02
Nochmal auch für dich.
Ohne D3D10.1 KANN es nicht die neuste Technik sein.
Du hast echt ein Problem.

MikBach
2008-06-11, 15:22:04
Du hast echt ein Problem.
Inwiefern?

edit:
ich nehme das als Wortklauberei. Es ist für NVIDIA die neuste, schönste, beste, liebste, dollste Karte... what ever

Nenn es wie DU willst. Das aktuell schnellste Produkt einer Firma kostet am meisten.

Das das hier einige nicht verstehen wollen ist schon fast unnormal ;D
Dass das schnellste Produkt einen saftigen Aufpreis hat, dies ist normal.
Nur kann man halt nicht sagen, dass es die neuste Technolgie ist, wenn NV jetzt schon die 2 Generation als Technikbremse beim Featureset fungiert.

Gast
2008-06-11, 15:26:31
da muss man aber nicht unbedingt drauf eingehen!

Dann tu uns den Gefallen und geh nicht drauf ein und schreibe nichts!

Coda
2008-06-11, 15:28:07
Inwiefern?
Als ob sich die Technik eines Chips allein durch das Shadermodel definiert. Das ist ja wohl lächerlich.

Nur kann man halt nicht sagen, dass es die neuste Technolgie ist, wenn NV jetzt schon die 2 Generation als Technikbremse beim Featureset fungiert.
Wie ATI davor jahrelang viel schlimmer. VIEL schlimmer. Da hab ich von dir nichts gehört. Im Gegenteil hast du dann noch rumgeheult dass Splinter Cell keinen SM2-Pfad hatte. Und das ist nur die Spitze des Eisbergs.

Ich habe ja nichts dagegen wenn Leute einen bestimmten IHV favorisieren aber dieses Verhalten geht mir dermaßen auf den Zeiger.

Gast
2008-06-11, 15:29:58
If you are hoping that a single GTX 280 will get you to more than 1920x1200, don't kill the messenger; we have to regrettably disappoint you.
...
Nvidia claims that a single GTX 280 will be enough for Crysis at 1920x1200 that is a standard resolution for most of the 24-inch LCD's.
...
We’ve had a chance to play Crysis with a single card and we can tell you that 1920x1200 FSAA 4X with beta drives brings the card to its knees. Ouch.
Quelle: http://www.fudzilla.com/index.php?option=com_content&task=view&id=7837&Itemid=34
(ok, ist zwar Fud, aber wenn sies wirklich gespielt haben).

Bleibt zu hoffen, das 1xAA oder 2xAA noch geht.

Anarchy-HWLUXX
2008-06-11, 15:40:13
The best you can hope for at 2560x1600 is 2X FSAA with these two cards.

"Nur" 2*AA 2560er ;) :lol:

ATM kann man die Auflösung garnicht fahren !

Gast
2008-06-11, 15:44:48
Wie gesagt, mit einer Karte werden maximal 1920x1200 NoAA optimal spielbar sein und 1920x1200 2xMSAA noch mittel-gut spielbar sein! ;)

Gast
2008-06-11, 15:53:30
Warum hängen sich eigentlich alle auf Crysis auf?Wer Spielt das game denn bitte gerne?

Das wird einmall durchgezockt und fertig....

MikBach
2008-06-11, 15:55:34
Als ob sich die Technik eines Chips allein durch das Shadermodel definiert. Das ist ja wohl lächerlich.
Was soll denn daran lächerlich sein?
Über das Shadermodel definiert man den Techlevel einer Grafikkarte.
Oder worüber tust du das? :confused:


Wie ATI davor jahrelang viel schlimmer. VIEL schlimmer. Da hab ich von dir nichts gehört. Im Gegenteil hast du dann noch rumgeheult dass Splinter Cell keinen SM2-Pfad hatte. Und das ist nur die Spitze des Eisbergs.
Toller Vergleich, echt.
Meinst du nicht, dass es etwas lächerlich ist dies zu vergleichen.
SC ps1.1 und 3.0. Aber kein SM2.
Ausserdem ist es für mich grundsätzlich etwas anderes wenn ich auf ein paar Effekte verzichten müsste (SM2 - SM3, wobei eh die meisten Effekte mit SM2 machbar waren), als wenn ich auf vernünfiges AA verzichten muss (D3D10.0)
AA und gutes AF sind Pflicht, Effekte die Kür.
Ich hoffe du kannst mir folgen...

Ich habe ja nichts dagegen wenn Leute einen bestimmten IHV favorisieren aber dieses Verhalten geht mir dermaßen auf den Zeiger.
Ich favorisiere nicht grundsätlich einen IHV, habe zur Zeit eine NV und mir damals auch eine 6800GT geholt, die aber gegen eine X800XT ausgetauscht wurde, weil damals von SM3 noch nicht viel zu sehen war.

dargo
2008-06-11, 15:57:57
Warum hängen sich eigentlich alle auf Crysis auf?

Weil Crysis nunmal das Maßstab ist. Immerhin besser als 3DMark. Es geht auch nicht nur um Crysis sondern um die CryEngine2.


Wer Spielt das game denn bitte gerne?

Ich.


Das wird einmall durchgezockt und fertig....
Nö.

James Ryan
2008-06-11, 16:21:36
Warum hängen sich eigentlich alle auf Crysis auf?Wer Spielt das game denn bitte gerne?

Das wird einmall durchgezockt und fertig....

Crysis ist momentan das einzige Spiel, dass einen G80 wirklich in die Knie zwingt.
Ich habe mit meiner übertakteten GTX bei keinem anderen Spiel Probleme, alles läuft butterweich mit FSAA und AF (Bsp.: UT3, Bioshock, MoH:Airborne, AC).

MfG :cool:

frix
2008-06-11, 16:22:56
crysis ist nun mal was die technik betrifft seiner zeit voraus. Daher denke ich dass auch zukünftige spiele in diese richtung gehen werden. Für mich ergibt sich dadurch eine tendenz, was die grafikkarten auch in zukünftigen spielen leisten können.

AnarchX
2008-06-11, 16:23:47
Zotac GTX 280 für 550€ und GTX 260 für 370€ in den Niederlanden gelistet:
http://www.azerty.nl/producten/zoek?p_tab=8&GROEP_ID=160&SORTERING=prijs_desc

Gast
2008-06-11, 16:26:34
Das wird einmall durchgezockt und fertig....

Dafür brauchen wir aber erstmal eine Grafikkarte, die Crysis auf unseren 24" Monitoren flüssig darstellen kann! ;):D

Gast
2008-06-11, 16:26:45
Was soll denn daran lächerlich sein?
Über das Shadermodel definiert man den Techlevel einer Grafikkarte.
Oder worüber tust du das? :confused:



Was sagst du denn dazu, dass unter OpenGL ein G80 wesentlich mehr Techlevel bietet als eine HD38xx?

frix
2008-06-11, 16:27:00
komischer shop. Eine 8800 GTX verkaufen sie noch für 490€ :uconf3:

Coda
2008-06-11, 16:27:02
Was soll denn daran lächerlich sein?
Über das Shadermodel definiert man den Techlevel einer Grafikkarte.
Oder worüber tust du das? :confused:
Technik besteht nicht nur aus Checklistenfeatures. Es geht auch darum wie es implementiert ist. Ein Intel Atom kann auch das gleiche wie ein Core 2 und ist wohl nicht das gleiche "Techlevel".

Toller Vergleich, echt.
Meinst du nicht, dass es etwas lächerlich ist dies zu vergleichen.
SC ps1.1 und 3.0. Aber kein SM2.
Ausserdem ist es für mich grundsätzlich etwas anderes wenn ich auf ein paar Effekte verzichten müsste (SM2 - SM3, wobei eh die meisten Effekte mit SM2 machbar waren), als wenn ich auf vernünfiges AA verzichten muss (D3D10.0)
AA und gutes AF sind Pflicht, Effekte die Kür.
Ich hoffe du kannst mir folgen...
Damit hast du vollends gezeigt das du keine aber auch gar keine Ahnung hast wovon du redest.

Fehlendes D3D10.1 als "Technologiebremse" darzustellen aber SM2 statt SM3 nicht ist einfach nur noch unfassbar lächerlich. Der Technologieunterschied ist um Magnituden größer gewesen. Und darauf besteh ich sehr eindrücklich. Da werd ich echt sauer wenn ich solche Scheiße les. Ich musste mich ewig mit dem ATI-SM2-Crap rumärgern die es nichtmal zustande gebracht haben statisches Branching zu implementieren obwohl das völlig trivial ist. DAS war eine Technologiebremse. Und zwar ganz real in der Industrie.

Das einzige relevante Feature von D3D10.1 für irgendeinen Spieler ist der Z-Readback von einem Multisample-Buffer und ich bin mir ziemlich sicher, dass die NVIDIA-Chips das können und somit immer die Möglichkeit besteht per Treiber doch Multisampling anzubieten. Was jetzt auch schon ein paar Mal früher geschah als bei ATI (Stalker, UE3-Spiele, usw.)

Wenn man so ne große Klappe hat sollte man auch mal die Fakten verstanden haben.

Gast
2008-06-11, 16:31:45
Wie gesagt, mit einer Karte werden maximal 1920x1200 NoAA optimal spielbar sein

Aber nicht Very High :P

James Ryan
2008-06-11, 16:32:25
Das einzige relevante Feature von D3D10.1 für irgendeinen Spieler ist der Z-Readback von einem Multisample-Buffer und ich bin mir ziemlich sicher, dass die NVIDIA-Chips das können und somit immer die Möglichkeit besteht per Treiber doch Multisampling anzubieten.

Laut NVIDIA-Folie ist dies auch so.
Notfalls gibts ja noch den nHancer.

Aber die D3D10.1 Diskussion hatten wir jetzt schon tausend Mal, ich verstehe nicht, warum die ATi-Anhänger da immer wieder drauf rumreiten müssen.
Können die Mods nicht solche Beiträge einfach löschen?

MfG :cool:

Gast
2008-06-11, 16:43:39
Laut NVIDIA-Folie ist dies auch so.
Notfalls gibts ja noch den nHancer.

Aber die D3D10.1 Diskussion hatten wir jetzt schon tausend Mal, ich verstehe nicht, warum die ATi-Anhänger da immer wieder drauf rumreiten müssen.
Können die Mods nicht solche Beiträge einfach löschen?

MfG :cool:

Vorallem wenn sie so unfundiert sind, wie der von MikBach, wann begreifen die Leute endlich, das DX10.1 völlig irrelevant ist.
Wenn man so ein Bullshit schon hört, fehlendes DX10.1 als Technologiebremse zu bezeichnen und im selben Atemzug, das Shadermodell als unbedeutend runterspielen.

Unfassbar wie verblendet und uninformiert man sein kann.

Gast
2008-06-11, 16:47:16
Zotac GTX 280 für 550€ und GTX 260 für 370€ in den Niederlanden gelistet:
http://www.azerty.nl/producten/zoek?p_tab=8&GROEP_ID=160&SORTERING=prijs_desc

Was hab ich gesagt, ihr mit euren 650.- Euro, war ja klar bei dem tiefen Doller Kurs derzeit.

Adam D.
2008-06-11, 16:51:22
Wer tatsächlich erwartet hatte, dass Crysis auf 1920x1040 mit 4xAA flüssig auf einer GTX280 darzustellen ist, dann hat er glaub ich etwas zu hohe Erwartungen gehabt ;D

Gast
2008-06-11, 16:54:48
http://www.ocworkbench.com/news/news.php

Gast
2008-06-11, 17:07:46
Die 4870 ist so schnell wie die GTX260. Dann wird die 4870X2 die GTX280 weit hinter sich lassen.

Gast
2008-06-11, 17:08:21
Die 4870 ist so schnell wie die GTX260.

Lesen müsste man können!

Gast
2008-06-11, 17:09:42
Lesen müsste man können!

OK, mindestens so schnell.

Anarchy-HWLUXX
2008-06-11, 17:09:54
http://www.ocworkbench.com/news/news.php
Die sache mit dem Preis wurd scho gepostet ...

dargo
2008-06-11, 17:12:46
Zotac GTX 280 für 550€ und GTX 260 für 370€ in den Niederlanden gelistet:
http://www.azerty.nl/producten/zoek?p_tab=8&GROEP_ID=160&SORTERING=prijs_desc
Soll ich schon mal die Zitate was die Preise vom GT200 angeht rausholen? :D
Nee, die spare ich mir für später auf. ;)

MikBach
2008-06-11, 18:14:34
Technik besteht nicht nur aus Checklistenfeatures. Es geht auch darum wie es implementiert ist. Ein Intel Atom kann auch das gleiche wie ein Core 2 und ist wohl nicht das gleiche "Techlevel".
Und was willst du mir jetzt genau damit sagen?
Es geht mir doch darum, dass man mit D3D10.1 das AA besser implementieren kann als mit 10.0.
Und mit implementieren meine ich die Entwickler und nicht irgendwelche Treiberhacks (oder aber auch Hacks von Entwicklern, die nur unzureichende Ergebnisse liefern)

Damit hast du vollends gezeigt das du keine aber auch gar keine Ahnung hast wovon du redest.
Ja ne, ist klar. Du hast dafür aber voll den Plan, oder wie?
Ich habe mich vielleicht missverständlich ausgedrückt, aber ich weiss schon, wovon ich rede.

Fehlendes D3D10.1 als "Technologiebremse" darzustellen aber SM2 statt SM3 nicht ist einfach nur noch unfassbar lächerlich.
Wo habe ich geschrieben, dass SM2 keine Technologiebremse war? Kann gar nicht sein, weil es so war.
Ja, SM2 war eine Technologiebremse.
Dass fehlendes 10.1 eine Technologiebremse ist, da habe ich mich nicht korrekt ausgedrückt, gebe ich zu. Es ist eine Bremse für gute Bildqualität für Spiele out of the Box.

Der Technologieunterschied ist um Magnituden größer gewesen. Und darauf besteh ich sehr eindrücklich. Da werd ich echt sauer wenn ich solche Scheiße les. Ich musste mich ewig mit dem ATI-SM2-Crap rumärgern die es nichtmal zustande gebracht haben statisches Branching zu implementieren obwohl das völlig trivial ist. DAS war eine Technologiebremse. Und zwar ganz real in der Industrie.
Du brauchst ja nicht gleich in die Luft zu gehen. :rolleyes:
Dem stimme ich auch vollkomen zu.
Nur wie schon erwähnt, ist ein korrekt im Spiel implementiertes AA für mich wichtiger als ein paar nette Effekte.

Das einzige relevante Feature von D3D10.1 für irgendeinen Spieler ist der Z-Readback von einem Multisample-Buffer und ich bin mir ziemlich sicher, dass die NVIDIA-Chips das können und somit immer die Möglichkeit besteht per Treiber doch Multisampling anzubieten. Was jetzt auch schon ein paar Mal früher geschah als bei ATI (Stalker, UE3-Spiele, usw.)
Hier bringst du es auf den Punkt.
Man muss mit Treiberhacks arbeiten. Mit 10.1 könnte es auch der Entwickler locker machen.
Ausserdem sind die Treiberhacks oft fehlerhaft.

Wenn man so ne große Klappe hat sollte man auch mal die Fakten verstanden haben.
Ich glaube hierzu spar ich mir lieber ein Kommentar...:|

Adam D.
2008-06-11, 18:20:29
Treiber-Hacks oft fehlerhaft? Soso, davon kann ich nicht berichten. Auf der Nvidia-Folie stand, dass das MSAA-Feature von D3D10.1 von den Nvidia-Karten unterstützt wird. Und mir ist es egal, wie ich dazu komm, kann auch gern ein Hack sein. Hat bis jetzt bei mir immer wunderbar funktioniert.

MikBach
2008-06-11, 18:26:13
Laut NVIDIA-Folie ist dies auch so.
Notfalls gibts ja noch den nHancer.

Aber die D3D10.1 Diskussion hatten wir jetzt schon tausend Mal, ich verstehe nicht, warum die ATi-Anhänger da immer wieder drauf rumreiten müssen.
Können die Mods nicht solche Beiträge einfach löschen?

MfG :cool:
Was hat denn das mit ATI-Anhänger(n) zu tun, wenn man gute Bildqualität beim AA beim Erscheinen eines Spiels haben will und nicht erst nachdem sich die IHVs bemüht haben Treiberhacks zu schreiben, damit ein must-have-Feature wie AA erst möglich wird...
Oder legt ihr alle keinen Wert auf vernünftiges AA? :|

@Adam
In Crysis z.B. ist MSAA nicht korrekt implmentiert

edit:
Vorallem wenn sie so unfundiert sind, wie der von MikBach, wann begreifen die Leute endlich, das DX10.1 völlig irrelevant ist.
Wer sagt, dass 10.1 irellevant ist, der hält nichts von guter BQ.

deekey777
2008-06-11, 18:27:36
Wäre es möglich, auf die D3D10.1-Diskussion zu verzichten? Danke.

Gast
2008-06-11, 18:30:40
Oder legt ihr alle keinen Wert auf vernünftiges AA? :|


Genau aus diesem Grund besitze ich ein 8800GTX SLI und arbeite mit nHancer, weil die dadurch möglichen AA Modi, denen von Ati überlegen sind.

Gast
2008-06-11, 18:33:00
Genau aus diesem Grund besitze ich ein 8800GTX SLI und arbeite mit nHancer, weil die dadurch möglichen AA Modi, denen von Ati überlegen sind.


was haste denn von nHancer wenn die nv karten schon bei 8aa stark an performance verliert,da nützt die flexibilät auch nichts.:)

Gast
2008-06-11, 18:35:05
Dann hast du noch nie mit einem 8800GTX SLI gearbeitet, die fangen bei 16xCoverage erst an warm zu werden.

The_Invisible
2008-06-11, 18:35:52
was haste denn von nHancer wenn die nv karten schon bei 8aa stark an performance verliert,da nützt die flexibilät auch nichts.:)

für was gibts 8x und 16x CSAA?

zudem haben die AA "hacks" bei mir auch immer gut funktioniert, wenns bei g200 gleich ist sehe ich da kein problem.

mfg

Snoopy69
2008-06-11, 18:36:57
Zotac GTX 280 für 550€ und GTX 260 für 370€ in den Niederlanden gelistet:
http://www.azerty.nl/producten/zoek?p_tab=8&GROEP_ID=160&SORTERING=prijs_desc
Die Preise sind aber auch allgemein sehr gestört.

http://www.azerty.nl/8-160-51612/sf-px88ultra768d3-hp.html

bei uns

http://geizhals.at/deutschland/a254947.html

Gast
2008-06-11, 18:37:29
Dann hast du noch nie mit einem 8800GTX SLI gearbeitet, die fangen bei 16xCoverage erst an warm zu werden.


ach dafür braucht man also den nHancer:)ich lach mal nicht ist ja sonst fies.

Gast
2008-06-11, 18:38:07
Ist ja auch völliger Unsinn, das die 8800GTX/Ultra Modelle bei 8xAA schlapp machen, das trifft vielleicht auf G92 (8800GT/GTS9800GTX/GX2) zu, aber sicher nicht auf ein 8800GTX SLI.
Es gibt derzeit nichts Vergleichbares vom Quality Filtering Potential, zu einem 8800GTX/Ultra SLI System.

The_Invisible
2008-06-11, 18:51:44
Ist ja auch völliger Unsinn, das die 8800GTX/Ultra Modelle bei 8xAA schlapp machen, das trifft vielleicht auf G92 (8800GT/GTS9800GTX/GX2) zu, aber sicher nicht auf ein 8800GTX SLI.
Es gibt derzeit nichts Vergleichbares vom Quality Filtering Potential, zu einem 8800GTX/Ultra SLI System.

ja, den neuen g9x fehlt es einfach an vram/speicherbandbreite, siehe http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/

außerdem sieht man da von der tollen 8xAA performance der radeons auch nicht viel.

mfg

tombman
2008-06-11, 18:52:54
...Quelle: http://www.fudzilla.com/index.php?option=com_content&task=view&id=7837&Itemid=34
(ok, ist zwar Fud, aber wenn sies wirklich gespielt haben).
Damit bestätigt er aber, daß 1920x1200 OHNE AA spielbar waren, und das heißt >30fps.

Und damit ist 8800Ultra SLI Leistung für EINE GTX280 BESTÄTIGT :cool:

Das wurde jetzt schon 100x bestätigt, zusammen mit dem vantage X Wert ;)

2x 4870 @ CF werden sicher schneller sein, fragt sich nur wieviel und was die MR machen.

Wenns innerhalb von ~ +25% bleibt, dann bleibe ich bei GTX280.
Wenns allerdings deutlich >30% geht und die MR WEG sind (oder FAST weg), dann muß ich mir wohl 2x HD4870 nehmen ;)

The_Invisible
2008-06-11, 18:58:46
Damit bestätigt er aber, daß 1920x1200 OHNE AA spielbar waren, und das heißt >30fps.

Und damit ist 8800Ultra SLI Leistung für EINE GTX280 BESTÄTIGT :cool:

Das wurde jetzt schon 100x bestätigt, zusammen mit dem vantage X Wert ;)

2x 4870 @ CF werden sicher schneller sein, fragt sich nur wieviel und was die MR machen.

Wenns innerhalb von ~ +25% bleibt, dann bleibe ich bei GTX280.
Wenns allerdings deutlich >30% geht und die MR WEG sind (oder FAST weg), dann muß ich mir wohl 2x HD4870 nehmen ;)

und warum haust du dann nicht gleich 2x gtx280 rein?

mfg

Gast
2008-06-11, 18:59:21
Damit bestätigt er aber, daß 1920x1200 OHNE AA spielbar waren, und das heißt >30fps.

Und damit ist 8800Ultra SLI Leistung für EINE GTX280 BESTÄTIGT :cool:

Das wurde jetzt schon 100x bestätigt, zusammen mit dem vantage X Wert ;)

2x 4870 @ CF werden sicher schneller sein, fragt sich nur wieviel und was die MR machen.

Wenns innerhalb von ~ +25% bleibt, dann bleibe ich bei GTX280.
Wenns allerdings deutlich >30% geht und die MR WEG sind (oder FAST weg), dann muß ich mir wohl 2x HD4870 nehmen ;)

In 1920x1200 mit moderatem AA dürfte man bei einer 4870 wohl von circa +30% auf eine 9800GTX ausgehen.
Wenn man die Skalierungsunterschiede zwischen SLI und CF nicht berücksichtigt, wäre das immerhin +50-60% auf ein 9800GTX SLI.

Die Frage bleibt halt, wie sieht es mit höheren AA Settings aus, das ist halt die besondere Stärke der grossen G80er Karten.

tombman
2008-06-11, 19:02:18
In 1920x1200 mit moderatem AA dürfte man bei einer 4870 wohl von circa +30% auf eine 9800GTX ausgehen.
Wenn man die Skalierungsunterschiede zwischen SLI und CF nicht berücksichtigt, wäre das immerhin +50-60% auf ein 9800GTX SLI.
Da hat aber jemand in Mathe nicht aufgepaßt ;) Wenn Karte A 30% schneller als Karte B ist, dann sind auch 2 Karten A 30% schneller als 2 Karten B, und nicht 60% ;)

tombman
2008-06-11, 19:08:02
Hmm, also laut LEAK X2700 für eine HD4850.

ATI meint, die 70er ist 30% schneller als die 50er. Also wird daraus ~ X3500 für die HD4870.

Jo, des schaut wirklich nach GTX260/GX2 Niveau aus.

X4800 soll die GTX280 haben...

X3500 * 1.8 (CF Skalierung) ~ >6000 für HD4870 X2 :eek:

Das wäre beeindruckend für ATI :)

Klar, war jetzt best case Milchmädchen pro ATI, aber trotzdem :eek:

Gast
2008-06-11, 19:12:45
Hmm, also laut LEAK X2700 für eine HD4850.

ATI meint, die 70er ist 30% schneller als die 50er. Also wird daraus ~ X3500 für die HD4870.

Jo, des schaut wirklich nach GTX260/GX2 Niveau aus.

X4800 soll die GTX280 haben...

X3500 * 1.8 (CF Skalierung) ~ >6000 für HD4870 X2 :eek:

Das wäre beeindruckend für ATI :)

Klar, war jetzt best case Milchmädchen pro ATI, aber trotzdem :eek:


Das wären 25%+ für die X2 beim Vantage, wenn man davon ausgeht das die Skalierung beim Vantage überdurschnittlich ausfallen dürfte, sollte sich das in der Summe und in der Praxis etwas reduzieren.

Snoopy69
2008-06-11, 19:19:33
We’ve had a chance to play Crysis with a single card and we can tell you that 1920x1200 FSAA 4X with beta drives brings the card to its knees. Ouch.


War mir klar...
Auch SLI bringt man "to its knees"

Gast
2008-06-11, 19:24:57
Damit bestätigt er aber, daß 1920x1200 OHNE AA spielbar waren, und das heißt >30fps.

Und damit ist 8800Ultra SLI Leistung für EINE GTX280 BESTÄTIGT :cool:

Das wurde jetzt schon 100x bestätigt, zusammen mit dem vantage X Wert ;)

2x 4870 @ CF werden sicher schneller sein, fragt sich nur wieviel und was die MR machen.

Wenns innerhalb von ~ +25% bleibt, dann bleibe ich bei GTX280.
Wenns allerdings deutlich >30% geht und die MR WEG sind (oder FAST weg), dann muß ich mir wohl 2x HD4870 nehmen ;)

oder zwei GTX 280er ;)

tombman
2008-06-11, 19:25:39
Ich habe mir mal den neuesten Test @ Cb angesehen. Da kommt es gar nicht selten vor, daß eine HD3870 X2 20% bis 30% vor einer 9800GTX liegt, alle mit neuen Treibern.

Ich gehe mittlerweile von genau diesem Abstand bei R700 vs G200 aus.

Daß Nvidia gegen eine X2 verliert, schien ihnen wenig auszumachen, weil sie ja die GX2 hatten.

Diesmal könnte das aber kritisch werden, weil wie wollen sie einen G200 auf ne GX2 klatschen?

Deshalb der G200b, nur für die neue GX2? ;)

Bis August hat Nvidia ja Zeit, weil erst dann kommt die X2 von ATI. Die Performance-Krone hätten sie bis dorthin mit 2x GTX280 ja locker drin ;)

Größtes Problem aber weiterhin: der Preis!

Viele werden einfach stur nach "FPS= Gott" gehen, und da wird 2x HD4870 einfach besser dastehen als eine GTX280!

Vielleicht denkt sich Nvidia ja: "Das reißen wir mit userem besseren Namen einfach heraus"- aber ob das DIESMAL klappt, wage ich zu bezweifeln ...

tombman
2008-06-11, 19:28:05
oder zwei GTX 280er ;)
Ja, man kann auch 3x GTX280 nehmen, aber das ist eine andere Preisklasse, die nur die wenigsten mitmachen werden.
Und spätestens mit R700 nützt 2x GTX280 dann auch nix mehr, weil man dann immer noch 2x R700 nehmen kann, zum selben Preis- und trotzdem 30% schneller sein!

Dh, da bräuchte man dann schon 3x GTX280, zusammen mit nem 1500 Watt Netzteil, nem 780i/790i mobo und ABARTIG viel Kohle, nur um mit ATI gleichzuziehen...das wird einfach zu krass. (3x R700 geht wegen Platzmangel nicht...)

Sorkalm
2008-06-11, 19:28:07
Deshalb der G200b, nur für die neue GX2? ;)

Wie sie den Chip auf eine GX2-Karte kriegen will ich sehen. ;)
2x 512 Bit (was für eine Platine!), die Wärmeentwicklung, 2x die Die-Größe ... meinst du nicht, dass das etwas unrealistisch ist?

Gast
2008-06-11, 19:32:18
Hmm, also laut LEAK X2700 für eine HD4850.

ATI meint, die 70er ist 30% schneller als die 50er. Also wird daraus ~ X3500 für die HD4870.

Jo, des schaut wirklich nach GTX260/GX2 Niveau aus.

X4800 soll die GTX280 haben...

X3500 * 1.8 (CF Skalierung) ~ >6000 für HD4870 X2 :eek:

Das wäre beeindruckend für ATI :)

Klar, war jetzt best case Milchmädchen pro ATI, aber trotzdem :eek:

CF Skaliert in Vantage mit ca. 70% und eine X2 mit voller 4870 Dual Power wird es auch nicht geben, wie auch bei 160Watt TDP pro Karte! PCI-E 2.0 sieht max. 300Watt vor und das ist schon kaum zumutbar für den Kunden/Hardware!

Eine TDP von ca. 250Watt könnte ich mir für die 4870X2 gut vorstellen, das wäre dann etwas über 4850 Dual Power:

Somit ca. x3000 pro GPU + 70% CF = x5100

tombman
2008-06-11, 19:33:14
Wie sie den Chip auf eine GX2-Karte kriegen will ich sehen. ;)
2x 512 Bit (was für eine Platine!), die Wärmeentwicklung, 2x die Die-Größe ... meinst du nicht, dass das etwas unrealistisch ist?
Hast du mein Fragezeichen übersehen?
Ich bezweifele das ja ebenfalls stark.

Aber auf EINE Platine müßten sie ja nicht gehen, haben sie ja bei der jetzigen GX2 auch nicht tun müssen.

Stellt euch mal eine G200 GX2 vor: volle pci Baulänge und 2 Kilo schwer ;D;D

Gast
2008-06-11, 19:34:07
Ja, man kann auch 3x GTX280 nehmen, aber das ist eine andere Preisklasse, die nur die wenigsten mitmachen werden.
Und spätestens mit R700 nützt 2x GTX280 dann auch nix mehr, weil man dann immer noch 2x R700 nehmen kann, zum selben Preis- und trotzdem 30% schneller sein!

Dh, da bräuchte man dann schon 3x GTX280, zusammen mit nem 1500 Watt Netzteil, nem 780i/790i mobo und ABARTIG viel Kohle, nur um mit ATI gleichzuziehen...das wird einfach zu krass. (3x R700 geht wegen Platzmangel nicht...)

Quad CF ist gerdemal für gar nichts, da wird nie und nimmer an ein GTX 280er SLI ran kommen!

tombman
2008-06-11, 19:35:39
Quad CF ist gerdemal für gar nichts, da wird nie und nimmer an ein GTX 280er SLI ran kommen!
Bei jetziger Skalierung sicher nicht, aber wenn die Quad-CF verbessern?

Btw, X5500 schätze ich R700 schon ein...(wäre mir für einen Umstieg allerdings zuwenig)

Gast
2008-06-11, 19:36:34
Ich habe mir mal den neuesten Test @ Cb angesehen. Da kommt es gar nicht selten vor, daß eine HD3870 X2 20% bis 30% vor einer 9800GTX liegt, alle mit neuen Treibern.

Ich gehe mittlerweile von genau diesem Abstand bei R700 vs G200 aus.

Daß Nvidia gegen eine X2 verliert, schien ihnen wenig auszumachen, weil sie ja die GX2 hatten.

Diesmal könnte das aber kritisch werden, weil wie wollen sie einen G200 auf ne GX2 klatschen?

Deshalb der G200b, nur für die neue GX2? ;)

Bis August hat Nvidia ja Zeit, weil erst dann kommt die X2 von ATI. Die Performance-Krone hätten sie bis dorthin mit 2x GTX280 ja locker drin ;)

Größtes Problem aber weiterhin: der Preis!

Viele werden einfach stur nach "FPS= Gott" gehen, und da wird 2x HD4870 einfach besser dastehen als eine GTX280!

Vielleicht denkt sich Nvidia ja: "Das reißen wir mit userem besseren Namen einfach heraus"- aber ob das DIESMAL klappt, wage ich zu bezweifeln ...

G200b plus 10-20% mehr Takt und schon ist man wieder in führung, ich sehe da überhaupt kein Problem!

tombman
2008-06-11, 19:37:32
G200b plus 10-20% mehr Takt und schon ist man wieder in führung, ich sehe da überhaupt kein Problem!
Dein Wort in meinem Ohr ;D

Gast
2008-06-11, 19:40:05
Naja abwarten ganz so leicht kann man sich die Rechnung auch nicht machen.
Crossfire unterliegt immer noch Skalierungsschwankungen und das Mikrorucklerproblem ist noch nicht gelöst.
Viele kaufen lieber eine etwas langsamere Single GPU, als ein Multi-GPU mit Mikrorucklern und nach den grossen Ankündigungen von Ati, das Problem zu lösen, wird man noch genauer hinschauen, wenn die 4870X2 in den Testbüros ist.
Dazu kommt, das insbesondere die Benchmarks in den DX10 Games eine grössere
Gewichtung einnehmen werden bei der Kaufentscheidung.
Wer da die Nase vorn hat wird sich erst noch zeigen müssen, weil insbesondere bei den DX10 Titeln häufiger mal mässige Multi-GPU Skalierungen dabei sind.

Beim R700 wird neben der Leistung auch sehr entscheidend sein, wieviele von den angekündigten Innovationen wirklich gut umgesetzt werden.

Für viele, die sich Karten der Kategorie GTX280 oder 4870X2 holen, wird auch die optionale Multi-GPU Ausbaustufe eine Rolle spielen und da ist CrossfireX noch in den Kinderschuhen.

Wenn es Ati schafft die CrossfireX Skalierung deutlich zu verbessern, was sie ja angeblich über die Kommunikation über den Shared Memory erreichen wollen, wird eine X2 deutlich attraktiver.

Wenn sie es nicht schaffen, wird GTX280 SLI definitiv die bessere Variante sein.

Winter[Raven]
2008-06-11, 19:40:54
Ahh ... würdet Ihr aufhören Nvidia mit schwarzer Farbe an die Wand zu malen?

Wir wissen == 0 über das Stück Silizium. (Ok, paar Daten sind bekannt, aber nicht wie effiktiv diese sind)

Wartet doch einfach die paar Tage noch ab... Ihr Geilt euch an irgendwelchen dämlichen Resuts aus dem Schwanzverlängerungsprogramm :)

Gast
2008-06-11, 19:42:36
G200b plus 10-20% mehr Takt und schon ist man wieder in führung, ich sehe da überhaupt kein Problem!

G200b dient nur zu Kostensenkung/Chip, genauso wie G92b ... wie oft denn noch. Der optische Shrink bringt keinerlei Vorteile in Sachen Taktfrequenz und Energieverbrauch.

Snoopy69
2008-06-11, 19:42:45
Ich denke, das war allen 30"-Usern schon vorher klar, dass sie min. SLI brauchen. Ich weiss, warum ich mir keinen 30" geholt hab

Gast
2008-06-11, 19:47:43
Hmm, also laut LEAK X2700 für eine HD4850.

ATI meint, die 70er ist 30% schneller als die 50er. Also wird daraus ~ X3500 für die HD4870.

Jo, des schaut wirklich nach GTX260/GX2 Niveau aus.

X4800 soll die GTX280 haben...

X3500 * 1.8 (CF Skalierung) ~ >6000 für HD4870 X2 :eek:


Die X2 kommt sicher mit niedrigeren Taktraten, weil sonst der Stromverbrauch ausufern würde.

AffenJack
2008-06-11, 19:49:48
Dein Wort in meinem Ohr ;D

Kann dir doch erstmal eh egal sein, du holst dir doch eh ne 280gtx oder 4870 cf und wenn dann was besseres kommt rüstest halt noma auf oder nicht?;)

Snoopy69
2008-06-11, 19:50:05
Die X2 kommt sicher mit niedrigeren Taktraten, weil sonst der Stromverbrauch ausufern würde.
Der Takt macht wesentlich weniger aus als VGPU

reunion
2008-06-11, 19:52:28
;6575423']Ahh ... würdet Ihr aufhören Nvidia mit schwarzer Farbe an die Wand zu malen?


Nervös?


Wir wissen == 0 über das Stück Silizium. (Ok, paar Daten sind bekannt, aber nicht wie effiktiv diese sind)

Wartet doch einfach die paar Tage noch ab... Ihr Geilt euch an irgendwelchen dämlichen Resuts aus dem Schwanzverlängerungsprogramm :)

Darf man nicht mehr spekulieren wenn es nicht zugunsten von nV aussieht?

GeneralHanno
2008-06-11, 19:53:20
G200b dient nur zu Kostensenkung/Chip, genauso wie G92b ... wie oft denn noch. Der optische Shrink bringt keinerlei Vorteile in Sachen Taktfrequenz und Energieverbrauch.

korrekt, wobei ich beim G200b AUSNAHMSWEISE eine ultra-version mit höhrem shadertakt -> Tflop erwarten würde ;)

Gast
2008-06-11, 19:53:52
G200b dient nur zu Kostensenkung/Chip, genauso wie G92b ... wie oft denn noch. Der optische Shrink bringt keinerlei Vorteile in Sachen Taktfrequenz und Energieverbrauch.

abwarten, mehr Takt ist auch bei den 65nm GPUs drin, oder die G92 OC Karten schon vergessen die mit bis zu 780MHz Takten?

Snoopy69
2008-06-11, 19:54:56
Gekauft wird eh, was am besten geht - auch wenn es eine S3-GPU ist :D

4711
2008-06-11, 19:55:19
naja ich hab 5100 mit meiner GX2...jaja OCed aber egal ich habs.
Die GX2 ist schneller :P deswegen musse ja wech ;D

Adam D.
2008-06-11, 19:55:56
Darf man nicht mehr spekulieren wenn es nicht zugunsten von nV aussieht?
Verstehst du: ich finde die aktuellen Gerüchte einfach verwirrend. Nvidia schlechter als erwartet, ATi (deutlich?) besser als erwartet ... AMD hat keine Kohle, kein RnD, Entlassung und co, Nvidia verdient sich dumm und dämlich und hat wohl massig Ressourcen in den G200 gesetzt ... Und dann dieses Ergebnis? Wie gesagt, mich würde es freuen. Aber es wäre doch wirklich seltsam.

Gast
2008-06-11, 19:56:54
G200b dient nur zu Kostensenkung/Chip, genauso wie G92b ... wie oft denn noch. Der optische Shrink bringt keinerlei Vorteile in Sachen Taktfrequenz und Energieverbrauch.
Noch immer ist eine "G200b"-Version ein bloßes Gerücht.
Vielleicht hat irgendein NV-Fanboy seinen Wunschtraum von einer etwas kühleren Karte ausgemalt, und dieser Wunschtraum geistert nun als "G200b" durchs Netz.

Viel wahrscheinlicher ist, dass auch hier nach 6-12 Monaten ein typischer Refresh-Chip kommt, so wie bei NV seit vielen Jahren üblich.

Winter[Raven]
2008-06-11, 19:57:16
Nervös?



Darf man nicht mehr spekulieren wenn es nicht zugunsten von nV aussieht?


a) Nö, warum sollte ich? Der "Bessere" gewinnt, ob AMD oder NV ist mir so egal wie als ob in China ein Reissack umfällt :)

b) Spekulieren darf man natürlich, aber man sollte nicht von dem Schwanzprpgramm auf alles andere schließen, Nvidia wird bestimmt noch einige Überraschungen aus dem Ärmel zaubern.

AnarchX
2008-06-11, 19:58:53
korrekt, wobei ich beim G200b AUSNAHMSWEISE eine ultra-version mit höhrem shadertakt -> Tflop erwarten würde ;)
Naja, Ailuros meinte ja eher Kostenreduktion.
Ausserdem erreicht die GTX 280 wenn man großzügig ist, schon jetzt das TFLOP. ;D

Mal sehen wie nun die finale Leistung aussieht, das aktuelle Bild vorallem im Vergleich zu RV770 ist sehr amüsant und etwas sonderbar, und hiermit beziehe ich mich nicht nur auf öffentliche Infos. ;)

4711
2008-06-11, 19:58:56
schaun mer mal..bis jetzt seh ich weit und brei nix was meine GX2 ersetzt.

Adam D.
2008-06-11, 19:58:57
Noch immer ist eine "G200b"-Version ein bloßes Gerücht.
Vielleicht hat irgendein NV-Fanboy seinen Wunschtraum von einer etwas kühleren Karte ausgemalt, und dieser Wunschtraum geistert nun als "G200b" durchs Netz.

Viel wahrscheinlicher ist, dass auch hier nach 6-12 Monaten ein typischer Refresh-Chip kommt, so wie bei NV seit vielen Jahren üblich.
Wieso? Es war lange Zeit nicht sicher, ob es 65nm oder 55nm werden, als sich dann die 65nm rauskristallalisiert haben, haben die selben Quellen aber davon gesprochen, dass der Shrink auf 55nm recht schnell käme. Ich halte das für sehr realistisch, inzwischen dürfte der Prozess recht ausgereift sein. Außerdem muss Nvidia das Ding dringend auf <500mm² bringen.

Gast
2008-06-11, 20:01:19
Noch immer ist eine "G200b"-Version ein bloßes Gerücht.
Vielleicht hat irgendein NV-Fanboy seinen Wunschtraum von einer etwas kühleren Karte ausgemalt, und dieser Wunschtraum geistert nun als "G200b" durchs Netz.

Viel wahrscheinlicher ist, dass auch hier nach 6-12 Monaten ein typischer Refresh-Chip kommt, so wie bei NV seit vielen Jahren üblich.

*Hust* auch der G200 ist ein Gerücht, genauso der RV770, denn zu kaufen gibts die Karte nicht und Offiziell sind sie auch net...
Tapeout vom G200b und G92b sind raus, 3-4Monate till Release.

Gast
2008-06-11, 20:04:02
Naja, Ailuros meinte ja eher Kostenreduktion.
Ausserdem erreicht die GTX 280 wenn man großzügig ist, schon jetzt das TFLOP. ;D

Mal sehen wie nun die finale Leistung aussieht, das aktuelle Bild vorallem im Vergleich zu RV770 ist sehr amüsant und etwas sonderbar, und hiermit beziehe ich mich nicht nur auf öffentliche Infos. ;)


Man kann kosten sparen UND höher Takten zb. mit einer Ultra ;)

reunion
2008-06-11, 20:04:49
Naja, Ailuros meinte ja eher Kostenreduktion.
Ausserdem erreicht die GTX 280 wenn man großzügig ist, schon jetzt das TFLOP. ;D

Ja, vielleicht wenn man FP64- und FP32-Einheiten addiert. :)


Mal sehen wie nun die finale Leistung aussieht, das aktuelle Bild vorallem im Vergleich zu RV770 ist sehr amüsant und etwas sonderbar, und hiermit beziehe ich mich nicht nur auf öffentliche Infos. ;)

Tja, wer hätte das gedacht?

Gast
2008-06-11, 20:05:28
korrekt, wobei ich beim G200b AUSNAHMSWEISE eine ultra-version mit höhrem shadertakt -> Tflop erwarten würde ;)

Der TFLOP is doch nur Marketing, bin gespannt wo Tombman den Flaschenhals der G200 raustesten wird. An der Arithmetik Power kanns ja jetzt nimmer liegen, oder Crysis brennt da Leistung weg, das man auf ner Single GPU gute 2TFLOP brauch um flüssig über die Runde zu kommen?

Ich mein, vglt. doch mal G80 gegen G200, doppelte Shaderpower, da muss es gut 80% mehr FPS geben in 1920*1200 @ 4xAA. Bisher hat ja nicht die Texfill oder die Bandbreite limitiert, wenn man die Benchmarks die das gezeigt haben mal anschaut.

tombman
2008-06-11, 20:05:41
schaun mer mal..bis jetzt seh ich weit und brei nix was meine GX2 ersetzt.
JEDE GTX280 wird besser als deine GX2, soviel ist sicher ;) Weil auch GTX280 kann man ocen. Dafür OHNE MR, Double Precision, 1GB Ram etc...

reunion
2008-06-11, 20:05:46
Noch immer ist eine "G200b"-Version ein bloßes Gerücht.
Vielleicht hat irgendein NV-Fanboy seinen Wunschtraum von einer etwas kühleren Karte ausgemalt, und dieser Wunschtraum geistert nun als "G200b" durchs Netz.

Viel wahrscheinlicher ist, dass auch hier nach 6-12 Monaten ein typischer Refresh-Chip kommt, so wie bei NV seit vielen Jahren üblich.

Nein, G200b ist kein Gerücht.

AnarchX
2008-06-11, 20:08:17
X-D
Gehört wohl zu jedem Launch...

Laut PHK hat NV jetzt einen neuen Treiber zu den Reviewern geschickt, mit dem unbedingt ein Wiederholungstest durchgeführt werden soll:
http://we.pcinlife.com/thread-948353-1-1.html

Wohl der Wundertreiber, der endlich das Potential der 1.4Mrd Transistoren weckt? ;) ;D

4711
2008-06-11, 20:08:50
JEDE GTX280 wird besser als deine GX2, soviel ist sicher ;) Weil auch GTX280 kann man ocen. Dafür OHNE MR, Double Precision, 1GB Ram etc...
jaja,aber nicht das es sich lohnt zu wechseln, zumindest nicht für mich,noch nicht..
Und ob du die 280er auch 20% ocen kannst...wir werden sehen.

Gast
2008-06-11, 20:09:02
Man kann kosten sparen UND höher Takten zb. mit einer Ultra ;)

Klar sind noch Reserven vorhanden, aber damit steigt nochmals die Leistungsaufnahme.

4711
2008-06-11, 20:10:04
X-D
Gehört wohl zu jedem Launch...

Laut PHK hat NV jetzt einen neuen Treiber zu den Reviewern geschickt, mit dem unbedingt ein Wiederholungstest durchgeführt werden soll:
http://we.pcinlife.com/thread-948353-1-1.html

Wohl der Wundertreiber, der endlich das Potential der 1.4Mrd Transistoren weckt? ;) ;D
Die haben sich mal die Ergebnisse der OCeden GX2eiern hihi zu Gemüde geführt und sich tote erschreckt ;D

Snoopy69
2008-06-11, 20:12:53
Wieso wurde der Releasetermin eigentlich vorgezogen - wegen ATI?

Eine GX2 wird wohl nur mit G200b möglich sein.

Und wird es ausser dem G200 noch einen stärkeren Chip dieses jahr geben oder erst wieder nächstes Jahr?

jaja,aber nicht das es sich lohnt zu wechseln, zumindest nicht für mich,noch nicht..
Und ob du die 280er auch 20% ocen kannst...wir werden sehen.
Mehr wird auch nicht drin sein.

tombman
2008-06-11, 20:13:18
jaja,aber nicht das es sich lohnt zu wechseln, zumindest nicht für mich,noch nicht..
Und ob du die 280er auch 20% ocen kannst...wir werden sehen.
Braucht gar nicht, die wird auch so schneller sein. Das wichtigste ist aber: KEINE MR ;)
Außer natürlich, dir sind MR völlig egal...

Snoopy69
2008-06-11, 20:16:04
Braucht gar nicht, die wird auch so schneller sein. Das wichtigste ist aber: KEINE MR ;)
Außer natürlich, dir sind MR völlig egal...
Du sagtest doch aber, dann man jeseits von 30fps eigentlich kein MR mehr hat (spürt).

4711
2008-06-11, 20:16:16
Sie ist nicht schneller als eine GX2!Basta!
Das kannste noch tausend mal schreiben,sie ist wahrscheinlich hier und da besser aber schneller nicht,das ist Fakt,zumindest was man bis jetzt kennt,wie es dann aussieht werden wir ja sehen.
Außer natürlich, dir sind MR völlig egal>völlig wurscht absolut völlig wurscht es hat mich noch nie gestört und wird mich auch nie stören und aufgefallen ist es mir auch noch nicht außer in Crysis und da geh ich auf 1680x1250 und dann hat sich auch so was von erledigt.
Und nun? :D

James Ryan
2008-06-11, 20:16:38
X-D
Gehört wohl zu jedem Launch...

Laut PHK hat NV jetzt einen neuen Treiber zu den Reviewern geschickt, mit dem unbedingt ein Wiederholungstest durchgeführt werden soll:
http://we.pcinlife.com/thread-948353-1-1.html

Wohl der Wundertreiber, der endlich das Potential der 1.4Mrd Transistoren weckt? ;) ;D

Hoffentlich bringt der Treiber nochmal gut Leistung.
Bei ATi ist es übrigens auch üblich, beim HD 2900 XT Launch gab es doch sogar mehrere "Presse"-Treiber, Chaos pur!
Wird eigentlich mal Zeit für die "Geforce Series 200"-Treiber.

MfG :cool:

Snoopy69
2008-06-11, 20:18:23
Sie ist nicht schneller als eine GX2!Basta!
Das kannste noch tausend mal schreiben,sie ist wahrscheinlich hier und da besser aber schneller nicht,das ist Fakt,zumindest was man bis jetzt kennt,wie es dann aussieht werden wir ja sehen.
Vielleicht nicht schneller @ default, aber unproblematischer, da Spiele keinen SLI-Support brauchen.
Wie schnell ist deine GX2 @ default?

Gemessene FPS bringen dir nichts, wenn es effektiv ruckelt bzw. nicht schneller aussieht wie eine Single-Karte

tombman
2008-06-11, 20:20:05
Du sagtest doch aber, dann man jeseits von 30fps eigentlich kein MR mehr hat (spürt).
Nein, sagte ich nie :rolleyes: Das legst du mir jetzt schon zum 1000sten Mal in den Mund, und es stimmt immer noch nicht...

Nochmal zum auswendig lernen:

<30fps -> wayne, da sowieso ruckel, auch mit single card
30fps bis ca 45fps -> Mikroruckler bei AFR SLI
>45fps -> Mikroruckler immer noch da, aber kaum noch spürbar

4711
2008-06-11, 20:21:27
Vielleicht nicht schneller @ default, aber unproblematischer, da Spiele keinen SLI-Support brauchen.
Wie schnell ist deine GX2 @ default?
default>ist mir völlig Latte.

tombman
2008-06-11, 20:23:38
Sie ist nicht schneller als eine GX2!Basta!
Doch, ist sie, schon 100 Mal bestätigt worden :rolleyes: X4800 OHNE OC. Deine X5100 werden vernichtet mit OC ;)

Außer natürlich, dir sind MR völlig egal>völlig wurscht absolut völlig wurscht es hat mich noch nie gestört und wird mich auch nie stören und aufgefallen ist es mir auch noch nicht außer in Crysis und da geh ich auf 1680x1250 und dann hat sich auch so was von erledigt.
Und nun? :D
Das ist aber dann rein psychologischer Investitionsschutz ("Ich seh nix" (TM) ;D), und hat nix mehr mit Tatsachen zu tun.
Und auf very high nutzt dir auch 1680x1050 NIX mehr, weil die fps nicht reichen...

4711
2008-06-11, 20:26:40
wo wiederlegt?
Bei Future...06 oder Vantage ;D da haste dich aber schwer verguckt....Meine, Hisn etc.....die rauchen das Ding in der Pfeife,incl.deinem SLI G80 :D
Und Crysis >das ist mir so wurst wie der Sack Reis in China.

X4800 OHNE OC. Deine X5100 werden vernichtet mit OC...und das ist vollkommen wurst das ist Angst vorm bösem Wolf OC ins Spiel zubringen ;D
Und die bekommste nie und nimmer auf 1200mhz Memory :P

Snoopy69
2008-06-11, 20:26:58
default>ist mir völlig Latte.
Die GTX280 kann man auch oc´en - schon gewusst? :wink:

AnarchX
2008-06-11, 20:27:31
http://img253.imageshack.us/img253/7003/20080612f8241a5989c24d5rk6.jpg (http://imageshack.us)
http://we.pcinlife.com/thread-948441-1-1.html

Superheld
2008-06-11, 20:28:16
4711

Crysis ist dir wurst weils bei dir rucket und der vram aussgeht;)

tombman
2008-06-11, 20:28:18
wo wiederlegt?
Bei Future...06 oder Vantage ;D da haste dich aber schwer verguckt....Meine, Hisn etc.....die rauchen das Ding in der Pfeife,incl.deinem SLI G80 :D
Und Crysis >das ist mir so wurst wie der Sack Reis in China.
Bei vantage. Du sagtest du hast MIT OC X5100.
Die GTX280 hat X4800 OHNE OC ;) (und kein 512mb Speicherlimit so wie deine)

Aber wir können gerne wetten: 500€ Wette was schneller sein wird OHNE cpu Limit? Bist dabei?

Adam D.
2008-06-11, 20:28:34
Für sowas gibt's doch noch gar keine Netzteile ... Omg, 3x ~200W nur für Grafikkarten :D

tombman
2008-06-11, 20:29:24
Für sowas gibt's doch noch gar keine Netzteile ... Omg, 3x ~200W nur für Grafikkarten :D
Doch gibts. 1200 Watt SINGLE RAIL sollte reichen. Oder 1500 Watt split rail..

4711
2008-06-11, 20:30:03
Boa Leute wie alt seid hier ... muß ich jetzt meine OC GX2 gegen eine SUPERDUBERMONSTER 600 € Karte verteidigen?
Wie lächerlich.

Gast
2008-06-11, 20:30:24
4711

Crysis ist dir wurst weils bei dir rucket und der vram aussgeht;)

So siehts aus, selbst mit einer GTX260 oder OC HD4870 hat man bei Crysis mehr Fun :)

tombman
2008-06-11, 20:32:27
Boa Leute wie alt seid hier ... muß ich jetzt meine OC GX2 gegen eine SUPERDUBERMONSTER 600 € Karte verteidigen?
Wie lächerlich.
Dann fang nicht damit an, wenn du nicht gewinnen kannst ;)

4711
2008-06-11, 20:32:42
4711

Crysis ist dir wurst weils bei dir rucket und der vram aussgeht;)

da geht nix aus zum xten male,eerst beim 30" und das ist mit auch Latte,schau im LUXX und hier mein Bildchen und laß dir die FPS auf der Zunge zergehen.

Dann fang nicht damit an, wenn du nicht gewinnen kannst ;)

Ich hab schon gewonnen,nur einge schnallen es nicht...

pest
2008-06-11, 20:33:59
JEDE GTX280 wird besser als deine GX2, soviel ist sicher ;) Weil auch GTX280 kann man ocen. Dafür OHNE MR, Double Precision, 1GB Ram etc...

und wozu brauchst Du die doppelte Penetration :confused:

tombman
2008-06-11, 20:34:01
Ich hab schon gewonnen,nur einge schnallen es nicht...
Deine GX2 hat fps-mäßig gegen die GTX280 VERLOREN. Das schnallst DU nicht.

und wozu brauchst Du die doppelte Penetration :confused:
Es erhöht den Wiederverkaufswert ;)

Gast
2008-06-11, 20:36:32
Design mässig ist die Karte aber schon mal sicher der Hammer!

Wenigstens etwas ;)

4711
2008-06-11, 20:37:10
Deine GX2 hat fps-mäßig gegen die GTX280 VERLOREN. Das schnallst DU nicht.

Wo?
Zeigs mir!
Du kannst meine Benches wiederlegen wenn du eine im Rechner hast,nicht früher.
Und dann werden wir sehen...

tombman
2008-06-11, 20:37:31
http://img253.imageshack.us/img253/7003/20080612f8241a5989c24d5rk6.jpg (http://imageshack.us)
http://we.pcinlife.com/thread-948441-1-1.html
Pornös...aber bei heutigen Konsolenports auch irgendwie sinnlos..

tombman
2008-06-11, 20:38:19
Wo?
Zeigs mir!
Du kannst meine Benches wiederlegen wenn du eine im Rechner hast,nicht früher.
Und dann werden wir sehen...
Dann gilt das gleiche auch für dich, und du hast JETZT erstmal gar nix gewonnen mit deiner GX2 ;)

pest
2008-06-11, 20:39:07
Es erhöht den Wiederverkaufswert ;)

ihr neues Auto, jetzt mit Lenkrad ;)...

tombman
2008-06-11, 20:39:29
ihr neues Auto, jetzt mit Lenkrad ;)...
Mit "Diamantlenkrad" ;)

Snoopy69
2008-06-11, 20:41:46
Design mässig ist die Karte aber schon mal sicher der Hammer!

Wenigstens etwas ;)
Ich finde dieses Design leider nicht durchdacht. Siehe linke und mittlere Karte.
Die Lufteinlässe müssten hinten sein, dann könnte man die Karte so zusammenklatschen.


Wieso wurde der Releasetermin eigentlich vorgezogen - wegen ATI?

Eine GX2 wird wohl nur mit G200b möglich sein.

Und wird es ausser dem G200 noch einen stärkeren Chip dieses jahr geben oder erst wieder nächstes Jahr?


*hust*

4711
2008-06-11, 20:42:01
Dann gilt das gleiche auch für dich, und du hast JETZT erstmal gar nix gewonnen mit deiner GX2 ;)
Nene mein Lieber meine Werte und andere stehen,du vergleichst mit irgendwas was du nicht hast,und willst mir erzählen wie schneller sie ist.
Vergiß es und warte ab genau wie ich und beide werden wir eine X2 im Rechner haben oder auch 2 :D
Doch im mom habe ich gewonnen ;D :P

tombman
2008-06-11, 20:45:14
Nene mein Lieber meine Werte und andere stehen,du vergleichst mit irgendwas was du nicht hast,und willst mir erzählen wie schneller sie ist.
Ähm, in Logik wohl nicht ganz aufgepaßt, was? Wir BEIDE vergleichen mit was, was wir nicht haben. Du sagst du hast schon gewonnen, das setzt einen Vergleich VORRAUS. Du kannst ja nicht gegen dich selbst gewinnen ;)
Die WAHRSCHEINLICHKEIT, daß deine GX2 von der GTX280 geschlagen wird ist derzeit deutlich höher, als daß dies nicht der Fall ist ;)

4711
2008-06-11, 20:48:12
Ähm, in Logik wohl nicht ganz aufgepaßt, was? Wir BEIDE vergleichen mit was, was wir nicht haben. Du sagst du hast schon gewonnen, das setzt einen Vergleich VORRAUS. Du kannst ja nicht gegen dich selbst gewinnen ;)
Die WAHRSCHEINLICHKEIT, daß deine GX2 von der GTX280 geschlagen wird ist derzeit deutlich höher, als daß es nicht der Fall ist.

Ach hör auf!
Es wird lächerlich,ich habe!
Und wenn du vergleichen willst was hier rumgeistert ist ne OC GX2 weitaus schneller.
Das ist Fakt!
Und die Wahrscheinlichkeit werden wir sehen.
Ende der Durchsage.

Moralelastix
2008-06-11, 20:49:57
Ich finde dieses Design leider nicht durchdacht. Siehe linke und mittlere Karte.
Die Lufteinlässe müssten hinten sein, dann könnte man die Karte so zusammenklatschen.
*hust*

Die hat auch Lufteinlässe hinten so ähnlich wie bei der G92 GTS auch schon.

Wenn ich allerdings schon wieder dieses dämliche Slotblech seh mit den mickrigen Lüftungsschlitzen......
Wieso lassen sie das Blech nicht durchgehend offen? Der Napschutz?

4711
2008-06-11, 20:50:53
Man kann sie auch einfach wieder "ausziehen",das paßt schon.

tombman
2008-06-11, 20:51:03
... ist ne OC GX2 weitaus schneller.
Das ist Fakt!
[...]
Und die Wahrscheinlichkeit werden wir sehen.

Also was jetzt, "Fakt" oder "werden wir sehen"?

Jetzt widersprichst dir schon selbst ;D

AnarchX
2008-06-11, 20:51:28
@4711/tombman: Legt mal bitte etwas mehr Ruhe an den Tag, wie die Performance aussehen wird wisst ihr doch in 4-5 Tagen.

Und dann gibt es auch noch etwas was sich PN nennt, wenn ihr eure Diskussion weiterführen wollt.;)

Gast
2008-06-11, 20:52:44
Ich finde dieses Design leider nicht durchdacht. Siehe linke und mittlere Karte.
Die Lufteinlässe müssten hinten sein, dann könnte man die Karte so zusammenklatschen.


Damit hab ich auch das aussehen und nicht die Funktion des Design gemeint ;)

Snoopy69
2008-06-11, 20:59:42
Also wenn ich mir so die Preise ansehe, ist man mit 2x 3870 X2 wesentlich schneller und billiger dran (520€)
Besser wäre aber 3870 X2 + 3870

tombman
2008-06-11, 21:00:21
Also wenn ich mir so die Preise ansehe, ist man mit 2x 3870 X2 schneller und billger dran
Aber nur wenn du dir quad-CF echt antun willst ;D

derwalde
2008-06-11, 21:01:10
http://img253.imageshack.us/img253/7003/20080612f8241a5989c24d5rk6.jpg (http://imageshack.us)
http://we.pcinlife.com/thread-948441-1-1.html


sex anyone? :ugly:

Gast
2008-06-11, 21:03:17
Was meinst ihr was man für eine CPU Power für zwei GTX 280er benötigt, besonders in kleinen Auflösungen um nicht an die CPU limit zu kommen?

Reicht ein 4GHz Quad?

tombman
2008-06-11, 21:04:06
Was meinst ihr was man für eine CPU Power für zwei GTX 280er benötigt, besonders in kleinen Auflösungen um nicht an die CPU limit zu kommen?

Reicht ein 4GHz Quad?
Sicher, aber wieso willst du mit ner GTX280 kleine Auflösungen fahren???

mapel110
2008-06-11, 21:06:13
Was meinst ihr was man für eine CPU Power für zwei GTX 280er benötigt, besonders in kleinen Auflösungen um nicht an die CPU limit zu kommen?

Reicht ein 4GHz Quad?
Für ein SLI-Gespann von der Power wäre wohl schon 1680er Auflösung besonders klein. Einzige Ausnahme Crysis.
Musst halt warten, bis Intel was besseres rausbringt. Von AMD kommt ja nichts mehr.
btw es gibt keinen 4 Ghz Quad. Der höchste Takt bislang ist 3.2 Ghz.

Snoopy69
2008-06-11, 21:09:34
btw es gibt keinen 4 Ghz Quad. Der höchste Takt bislang ist 3.2 Ghz.
Dafür gibt es ja pretestet CPU´s oder selber suchen.

Und überhaupt... Warum brauchst du so viel MHz?

http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_elf_prozessoren_athlon_phenom/#abschnitt_vorwort

QC ist auch noch nicht wirklich nötig http://www.computerbase.de/artikel/hardware/prozessoren/2008/bericht_1_2_3_4_cpu-kerne/

Gast
2008-06-11, 21:10:37
oder einfach QX9650 oder QX9770 besorgen, da macht doch jeder die 4GHz ;)

mapel110
2008-06-11, 21:13:23
Dafür gibt es ja pretestet CPU´s oder selber suchen.
Dann übertaktest noch das SLI-Gespann und schon reichen 4 Ghz wieder nicht mehr. :ugly:

tombman
2008-06-11, 21:15:23
Dann übertaktest noch das SLI-Gespann und schon reichen 4 Ghz wieder nicht mehr. :ugly:
Die reichen noch sehr lange... neues games gehen alle Richtung Graka-Limit...

mapel110
2008-06-11, 21:17:05
Die reichen noch sehr lange... neues games gehen alle Richtung Graka-Limit...
Für Leute, die nur 1680er Auflösung fahren können, geht die Entwicklung Richtung CPU-limit...

Snoopy69
2008-06-11, 21:18:34
Dann übertaktest noch das SLI-Gespann und schon reichen 4 Ghz wieder nicht mehr. :ugly:
Wenn du 800x600 spielst ja :ulol:

http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_elf_prozessoren_athlon_phenom/24/#abschnitt_world_in_conflict
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_elf_prozessoren_athlon_phenom/25/#abschnitt_crysis

CPU-Limit bei 1680x1050? *OMG* NIEMALS. Das ist schon recht starkes Graka-Limit

Selbst wenn ich Grakas haben werde, die doppelt so stark wie mein SLI sind, werde ich den E6600 behalten.

Gast
2008-06-11, 21:23:51
Also wenn ich mir so die Preise ansehe, ist man mit 2x 3870 X2 wesentlich schneller und billiger dran (520€)
Besser wäre aber 3870 X2 + 3870

Nee also wirklich, das ist Humbug ;)

(bin ATI FB)

Snoopy69
2008-06-11, 21:25:13
Nee also wirklich, das ist Humbug ;)

(bin ATI FB)
Warum? http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_crossfire_x_nvidia_quad-sli/#abschnitt_einleitung

Gast
2008-06-11, 21:25:34
Nur kann man halt nicht sagen, dass es die neuste Technolgie ist, wenn NV jetzt schon die 2 Generation als Technikbremse beim Featureset fungiert.
Wie stehst du denn zur Technikbremse, die AMD momentan in OpenGL darstellt? Nichteinmal eine einzige DX10-Funktion ist im Treiber implementiert.


Meinst du, AMD möchte mit Absicht OpenGL in der Spieleentwickllung abtöten, damit sie auf lange Sicht weniger zu tun haben in der Treiberabteilung?

Gast
2008-06-11, 21:25:45
Selbst wenn ich Grakas haben werde, die doppelt so stark wie mein SLI sind, werde ich den E6600 behalten.

Großer Fehler ;) wirst schöne max. FPS haben und recht besch. min FPS :P

Snoopy69
2008-06-11, 21:29:52
Großer Fehler ;) wirst schöne max. FPS haben und recht besch. min FPS :P
Welches Game? Crysis sicher nicht (Min-FPS 90)

MikBach
2008-06-11, 21:31:03
Wie stehst du denn zur Technikbremse, die AMD momentan in OpenGL darstellt? Nichteinmal eine einzige DX10-Funktion ist im Treiber implementiert.


Meinst du, AMD möchte mit Absicht OpenGL in der Spieleentwickllung abtöten, damit sie auf lange Sicht weniger zu tun haben in der Treiberabteilung?
OGL ist bei Spielen eh schon fast tot.
Da braucht man nicht mehr nachzuhelfen.

Gast
2008-06-11, 21:34:31
Warum? http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_crossfire_x_nvidia_quad-sli/#abschnitt_einleitung
Welches Game? Crysis sicher nicht (Min-FPS 90)

lol bei welchen Settings ?

Nee mal im ernst ich verstehe nicht wie so ein Freak wie du (SSD, Chiller, SLI) an der CPU so sparen will.
Es gibt auch Games außer Crysis und manche brauchen gut CPU Dampf, AC z.b ;)

Snoopy69
2008-06-11, 21:38:40
lol bei welchen Settings ?

Nee mal im ernst ich verstehe nicht wie so ein Freak wie du (SSD, Chiller, SLI) an der CPU so sparen will.

Ich weiss halt was nötig oder oversized ist :D
Na bei Settings, die NICHT Graka-limitierend sind.

AC?

In den 2 Links sieht ja jeder selbst, was man braucht. Ein QX9775 jedenfalls nicht.
Kann zudem jeder selber nachtesten, indem man unter- dann übertaktet. Dann sieht man ja, ab welchem Takt man ein CPU-Limit hat (1-2fps zählen nicht)

Gast
2008-06-11, 21:41:25
Ich weiss halt was nötig oder oversized ist :D
AC?
AC = Assassin's Creed

Naja mach wie du denkst :wink:

Gast
2008-06-11, 21:45:59
OGL ist bei Spielen eh schon fast tot.
Da braucht man nicht mehr nachzuhelfen.

Naja ist immerhin weiter verbreitet als DX10.1.:)

Snoopy69
2008-06-11, 21:48:26
AC = Assassin's Creed

Naja mach wie du denkst :wink:
Gibts davon eine Demo incl. Bench? Dann teste ich das.

Odal
2008-06-11, 21:48:56
Wie stehst du denn zur Technikbremse, die AMD momentan in OpenGL darstellt? Nichteinmal eine einzige DX10-Funktion ist im Treiber implementiert.

DX10 in openGL ist auch schwer möglich sind beides zwei konkurierende grafik APIs das eine hat mit dem anderen nix zutun ^^

und was gibts denn aktuelles für OGL?

MikBach
2008-06-11, 22:01:25
Naja ist immerhin weiter verbreitet als DX10.1.:)
Weil die Entwickler noch nicht darauf gekommen sind wie einfach sie dadurch AA implementieren könnten.
Früher oder später werden sie es herausfinden.
Dann good bye D3d10.0, natürlich, was das AA angeht.

edit:

und was gibts denn aktuelles für OGL?
Nichts.

Gast
2008-06-11, 22:15:06
Weil die Entwickler noch nicht darauf gekommen sind wie einfach sie dadurch AA implementieren könnten.


was hast du immer mit deinem AA?

nvidia hat bestätigt dass sie alles was für AA in 10.1 notwendig ist implementiert haben, du kannst dir sicher sein, dass sie auch einen weg finden das zugänglich zu machen, genauso wie ATI damals GI angeboten hat ohne SM3 hardware zu haben.

Gast
2008-06-11, 22:18:38
Er ist halt ein Ati Fanboy und an irgendetwas muss er sich ja aufhängen, sowohl den R700, wie auch den G200 Thread sülzt er mit DX10.1 voll, niemand will es hören.
Man kann das Thema diskutieren, wenn Spiele DX10.1 verwenden, da gibt es allerdings derzeit keines, also sinnlos darüber zu diskutieren.

MikBach
2008-06-11, 22:20:19
was hast du immer mit deinem AA?

nvidia hat bestätigt dass sie alles was für AA in 10.1 notwendig ist implementiert haben, du kannst dir sicher sein, dass sie auch einen weg finden das zugänglich zu machen, genauso wie ATI damals GI angeboten hat ohne SM3 hardware zu haben.
Geht aber nu per Hack, nicht direkt über die API

edit:
Er ist halt ein Ati Fanboy und an irgendetwas muss er sich ja aufhängen, sowohl den R700, wie auch den G200 Thread sülzt er mit DX10.1 voll, niemand will es hören.
Man kann das Thema diskutieren, wenn Spiele DX10.1 verwenden, da gibt es allerdings derzeit keines, also sinnlos darüber zu diskutieren.
Wenn mann keine Ahnung über APIs hat und über Hacks, dann lieber keine Scheisse labbern.

PS ich habe eine NV, also nix mit ATI-Fanboy...:P

Adam D.
2008-06-11, 22:24:31
Die Diskussion gehört hier aber nicht rein verdammt. Es ist mir kack egal, ob es über API oder Hack läuft, wenn das Endergebnis das selbe ist. Und so wird es den meisten gehen.

AnarchX
2008-06-11, 22:25:12
Geht aber nu per Hack, nicht direkt über die API
Da wäre ich mir nicht so sicher, da Demirug doch mal erwähnt hatte, dass man die Fähigkeiten über ein D3D10-Device abruft.
Dass kann man dann wohl auch mit dem Z-Sample-Lesen bei Nvidia machen.

Insofern bietet NV wohl kein vollständiges 10.1, was wohl einiges an RnD für die TMUs benötigt hätte, aber eben das annähernd wichtigste Feature.

Imo solltest du dich mit deinem Ton (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6575991&postcount=174) doch etwas zurückhalten, wenn du dich nicht auf Wissenzuwachs einlassen willst, welchen dir unter anderem Coda präsentiert/nahelegt.

MikBach
2008-06-11, 22:39:26
Da wäre ich mir nicht so sicher, da Demirug doch mal erwähnt hatte, dass man die Fähigkeiten über ein D3D10-Device abruft.
Dass kann man dann wohl auch mit dem Z-Sample-Lesen bei Nvidia machen.

Insofern bietet NV wohl kein vollständiges 10.1, was wohl einiges an RnD für die TMUs benötigt hätte, aber eben das annähernd wichtigste Feature.
Nö.
Demi hat etwas ganz anderes gesagt. Dass man durch das kompilieren mit einem 10.1 SDK 10.0 leicht in 10.1 SDK umwandeln kann.
Wenn die API den Chip aber nicht als 10.1 erkennt, kannst du nichts machen.

Imo solltest du dich mit deinem Ton (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6575991&postcount=174) doch etwas zurückhalten, wenn du dich nicht auf Wissenzuwachs einlassen willst, welchen dir unter anderem Coda präsentiert/nahelegt.
Ich sehe nicht falschen an dem Ton , vor allem wenn irgendein Gast falsche Behauptungen in den Raum stellt.
Und Coda ist einer meiner Lieblingsdiskussionpartner. Viel Wissen erhoffe ich mir da allerdings nicht, was ich eh nicht schon wüsste...:)

deekey777
2008-06-11, 22:45:01
Wäre es möglich, auf die D3D10.1-Diskussion zu verzichten? Danke.
Ich wiederhole mich nur ungern: Hier geht es nicht darum, was D3D10.1 kann oder nicht. Es steht fest, dass der G200 auf dem Level von D3D10 bleibt. Warum dies unbedingt wieder und wieder durchgekaut werden muss, ist nicht nur unklar, sondern absolut störend.

Gast
2008-06-11, 23:49:02
Gibts davon eine Demo incl. Bench? Dann teste ich das.

Nee gibt es nicht ;)

Hier ist eine Test bei PCHG http://www.pcgameshardware.de/aid,637474/Test/Benchmark/Assassins_Creed_im_PCGH-Test_DX10_schneller_als_DX9_-_aber_nur_mit_minimalen_Details/&menu=browser&image_id=797259&article_id=637474

Gast
2008-06-12, 00:33:54
Für Leute, die nur 1680er Auflösung fahren können, geht die Entwicklung Richtung CPU-limit...

Also mir is kein Game untergekommen was profitiert hätte vom Umstieg C2D@2,8GHz auf Q6600@ 2,4GHz. Ich lass sogar den Quad bei einigen Spielen mit 1,6GHz laufen *g
In der 1680er Auflösung merke ich aber, das langsam meiner 8800GTS640 die Puste ausgeht, bzw. muss ich den Shadertakt mit Rivatuner auf über 1,4GHz raufdrehn um z.b. AOC gut Spielen zu können (ohne Schatten, Rest max, flutscht).
Deswegen will ich evlt eine 260GTX ;) Das ist die neue/alte GTS, ich kaufe seit NV40 nur das 2. größte Modell, da diese genau mein Bedarf erreichen, 1920*1200 kommt erst, wenn es ein 24" TFT gibt der all meine Ansprüche deckt.

BTW ist der Thread Titel immer noch falsch, der CHIP heist G200, nix GT.

Gast
2008-06-12, 00:36:15
Sind diese Gerüchte um den minimalen Strombedarf eigentlich schon bestätigt? Die Leaks sind ja alle auf nForce Brettern gemacht oder? Wehe das funst nur mit nem nV Chipsatz...

mapel110
2008-06-12, 00:46:27
Es stand auf einer nvidia-Folie und da Computerbase diese Meldung von ihrer Webseite entfernen musste, stehen die Chancen gut, dass es auch so kommen wird. Bei nforce-Chipsätzen sinkt der Verbrauch auf nahe 0 bei Hybrid-SLI-Einsatz.

tombman
2008-06-12, 02:59:33
Oh Mann, seht mal was gerade passiert ist:

http://www.abload.de/img/vantage-omgapv.jpg

Durch den neuen 177er Treiber!

Wenn man jetzt 1+1 zusammenzählt, dann hatte die GTX280 mit dem "alten" Treiber tatsächlich nur X4100, und jetzt mit dem neuen X4800.

Ich habe aber mit 2x 8800GTX @ OC jetzt schon X5700!!!

Was das heißt, brauche ich ja nicht mehr ausführen- die GTX280 ist tatsächlich langsamer als 2x G80 Ultra...

Jetzt weiß ich echt nimmer was ich glauben soll!

Aber viel erwarte ich mir von der GTX280 nimmer...

Eggcake
2008-06-12, 03:01:49
http://img.photobucket.com/albums/v123/antunesrj/Nelson_haha.jpg


Sorry :)


Mh...also ehrlichgesagt glaube ich grad überhaupt nix mehr, weder bei der R700 noch beim GT200 - man hört so viele unterschiedliche Dinge...paar Tage noch! :)

Gast
2008-06-12, 03:03:52
Scheisst doch auf 3dmark...

tombman
2008-06-12, 03:04:06
Ich glaub auch nix mehr....

Anarchy-HWLUXX
2008-06-12, 03:05:20
nur durch den Treiber 1000 Punkte ... das einzige was das Heisst ist das der massiv auf den BENCHMARK optimiert wurde - ob das nun in Games auch so aussieht - öm, wohl eher NICHT.

Und wieden nen beweis dafür das 3DMark müll ist und nur als Digitaler Schwanzvergleich zu gebrauchen ist.

=Floi=
2008-06-12, 03:16:58
es ist doch überall so, dass der treiber mit den richtigen optimierungen erst die performance bringt und nicht die tolle hardware die einfach per bruteforce alles durchschleust.
So geht es schon die ganzen jahre und uu hat nv für die 280er einfach einen software dongle eingebaut, oder speziellen treiber beigelegt.

tombman
2008-06-12, 03:25:40
OK, in Crüsis hat er schon mal nix verändert, im Gegenteil, 1 bis 2 fps weniger...

Jetzt kann man nur noch hoffen, daß wenigstens die Crüsis Werte stimmten, und das China-Bild wirklich "very high" und nicht nur "high" gezeigt hat...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6567402&postcount=306
(die Polys/frame bei frame 4xx hätten es verraten, aber genau die sind unscharf :mad:)

Btw, bzgl Mikroruckler hat sich ebenfalls nichts getan, und das ist der "launch Treiber"-> dh für mich, daß Nvidia diesbzgl nichts unternehmen will-- oooohh kaaay -> ich bin ne speed-Hure, da gibts keine Treue :cool:

Gast
2008-06-12, 03:38:06
hmm du kommst mit 2 8800gtx auf x5500?ähm die 4870x2 soll ja gerade mal bei dem wert sein.irgendwas stimmt aber ganz gewaltig nicht.

Gast
2008-06-12, 04:02:55
Oh Mann, seht mal was gerade passiert ist:

http://www.abload.de/img/vantage-omgapv.jpg

Durch den neuen 177er Treiber!

Wenn man jetzt 1+1 zusammenzählt, dann hatte die GTX280 mit dem "alten" Treiber tatsächlich nur X4100, und jetzt mit dem neuen X4800.

Ich habe aber mit 2x 8800GTX @ OC jetzt schon X5700!!!

Was das heißt, brauche ich ja nicht mehr ausführen- die GTX280 ist tatsächlich langsamer als 2x G80 Ultra...

Jetzt weiß ich echt nimmer was ich glauben soll!

Aber viel erwarte ich mir von der GTX280 nimmer...


dann kann ich dazu nur sagen,die karte wird weitaus schwächer als gedacht,und dieser bench wird dann stimmen.

http://www.abload.de/img/screenshot002f5n.jpg (http://www.abload.de/image.php?img=screenshot002f5n.jpg)

tombman
2008-06-12, 04:10:42
Jo, da könnten sogar die 3k von der Ultra stimmen...

Meine waren ja auch overclockt....

Habe mir gerade Crysis noch mal mit VH+4xAA angesehen.
Für nen richtigen fps Schub wird man wohl 2x GTX280 nehmen müssen :(
Erst dann wird Crysis so richtig mit VH+AA spielbar sein...
(im Eislevel hat das Teil 3 Millionen Polygone pro Frame :uhammer:)
Sieht aber SO geil aus:
http://www.abload.de/thumb/crysis642008-06-1204gzi.bmp (http://www.abload.de/image.php?img=crysis642008-06-1204gzi.bmp)

Gast
2008-06-12, 04:21:13
dann könnte man pauschal sagen ultra triple ist gleich zusetzen mit 280gtx sli.naja weis nicht was ich davon halten soll,ob jetzt multi gpu 2 kern oder 3 ist ja dann auch schnuppe,sogar bei last wäre ein triple ca. identisch.ich sehe einfach kein sinn an der sache.

tombman
2008-06-12, 04:34:15
Ich glaube abwarten is das beste...

Gast
2008-06-12, 04:40:08
dann lohnt sich das aufrüsten doch nicht,für crysis immer noch zu langsam und bei allem anderen reicht ja schon jede furzkarte für 100 euro.bin entäuscht von den werten,da hilft auch kein gezwungen erhöhter vantagewert der nichts zubedeuten hat.wie viele andeuten halten sich die verbesserungen der treiber nur beim benchmark und darauf kann man dann auch verzichten.

Don Vito
2008-06-12, 05:45:01
Warten wir einfach mal die ersten Userbenches ab und schon kann man das mehr abschätzen...
Wer weiß in wieweit der Treiber final ist...
Leistungsmäßig wird sie sicherlich nicht so stark sein wie erwartet und ATI könnte ein klares Comeback feiern.

4711
2008-06-12, 06:42:57
...meine Rede....aber erstmal....naja egal,jetzt wissen wir ja was ein G80 SLi und eine GX2 OCed Wert ist.
Entweder haben sie noch einen dicken Trumpf im Ärmel oder es ist wie ich schon zigmal schrieb und wie sie es die letzte Zeit halten ein Aufguß zum Abzocken und die "Hammerkarte" kommt erst noch (um die 4870X2 zu kontern),was man auch aus diverseren Insider Posts rauslesen kann.
Noch nichtmal die GX2 hat ein Prob mit 512 Ram wenn die Memory über 1150mhz läuft>deswegen rennt mir ja auch kein G80 SLI Gespann weg.
Abwarten Tee trinken ich freu mich auf jedenfall erstmal auf die 4870 GDDR5 mit 1000mb.

AnarchX
2008-06-12, 07:15:59
IT168 hat ein paar High-Res-Bilder der Medusa Demo:
http://publish.it168.com/2008/0611/20080611028402.shtml

Oh Mann, seht mal was gerade passiert ist:

http://www.abload.de/img/vantage-omgapv.jpg

Durch den neuen 177er Treiber!

Wenn man jetzt 1+1 zusammenzählt, dann hatte die GTX280 mit dem "alten" Treiber tatsächlich nur X4100, und jetzt mit dem neuen X4800.

Ich habe aber mit 2x 8800GTX @ OC jetzt schon X5700!!!

Was das heißt, brauche ich ja nicht mehr ausführen- die GTX280 ist tatsächlich langsamer als 2x G80 Ultra...

Jetzt weiß ich echt nimmer was ich glauben soll!

Aber viel erwarte ich mir von der GTX280 nimmer...

Wie ich es schonmal im Teil 5 schrieb:
"GTX 280 board will deliver 1.5x performance improvement on average over high-end GF8 and GF9 single-GPU boards."
... so steht es in den aktuellsten Nvidia Dokumenten.

Wieso man dafür 1.4 Mrd. Transistoren benötigt, bleibt das große Fragezeichen.

pest
2008-06-12, 07:43:34
wollt ich gestern schon in den Vantage-Thread schreiben, weil sich viele gewundert haben warum die NV-Karten jetzt plötzlich so krass zulegen.

Schlammsau
2008-06-12, 07:51:48
gabs wohl wieder einen super dupa Vantage Beschleunigungs Treiber! Warum immer nur auf den 3DMurks optimiert wird..... *kopfschüttel*

AnarchX
2008-06-12, 08:09:19
Intel Q6600 + NF680i + 2GB DDR2 800 Memory
Microsoft Windows Vista 64-bit SP1
http://img519.imageshack.us/img519/5368/10404725b7b9237qn1.jpg (http://imageshack.us)
http://publish.it168.com/2008/0611/20080611033801.shtml

Grestorn
2008-06-12, 08:11:32
Einige dieser Ergebnisse schreien geradezu "CPU Limit"!

Ansonsten: Eigentlich im Rahmen des von mir Erwarteten. Wunder gibt's nur einmal alle 10 Jahre, in den 90ern war das die Voodoo Gfx und in diesem Jahrzehnt der G80 :)

captainsangria
2008-06-12, 08:12:11
Intel Q6600 + NF680i + 2GB DDR2 800 Memory
Microsoft Windows Vista 64-bit SP1
http://img519.imageshack.us/img519/5368/10404725b7b9237qn1.jpg
http://publish.it168.com/2008/0611/20080611033801.shtmlDas sieht doch nach CPU-Limit aus, oder?

Superheld
2008-06-12, 08:16:06
jop manche;)

reunion
2008-06-12, 08:22:51
Wie ich es schonmal im Teil 5 schrieb:
"GTX 280 board will deliver 1.5x performance improvement on average over high-end GF8 and GF9 single-GPU boards."
... so steht es in den aktuellsten Nvidia Dokumenten.

Wieso man dafür 1.4 Mrd. Transistoren benötigt, bleibt das große Fragezeichen.

GPCPU, die einzig logische Erklärung nach dem Streit mit Intel und nVs sich schon über Monate hinziehende Kampagne wie viel schneller eine GPU nicht in vielen Anwendungen wäre inkl. den Folding@home Benchs und zahlreichen Folien zu diesem Thema.

Der Vergleich G7x vs. R5xx gefällt mir immer besser. nV hat zwar den schnellsten Single-Chip, aber erreicht dies nur mit einem unverhältnismäßig hohen Einsatz an Ressourcen. Wobei das bei R5xx ja nur zu beginn so war. Gegen die X2 wird man schlecht dastehen. Nur wusste man halt damals noch nichts von Microrucklern.

Gast
2008-06-12, 08:22:51
hmm du kommst mit 2 8800gtx auf x5500?ähm die 4870x2 soll ja gerade mal bei dem wert sein.irgendwas stimmt aber ganz gewaltig nicht.


Wieso? Die 4870 wird ja auch nicht schneller sein als eine 8800GTX.

Schlammsau
2008-06-12, 08:24:16
Wieso? Die 4870 wird ja auch nicht schneller sein als eine 8800GTX.

Du meinst die 4850! :wink:
Die 4870 wird 30-40% schneller als eine 8800GTX werden!

Gast
2008-06-12, 08:24:25
jo aber dann alle Karten die da gelistet sind.

Gast
2008-06-12, 08:25:52
Du meinst die 4850! :wink:
Die 4870 wird 30-40% schneller als eine 8800GTX werden!

Nein, ich meine die 4870! :wink:

Schlammsau
2008-06-12, 08:27:10
Nein, ich meine die 4870! :wink:
:| :rolleyes: wenn du meinst! ;D

GeneralHanno
2008-06-12, 08:37:22
das wird stark von szenario abhängen. in einigen fällen wird die 4850 die 88GTX schlage, in anderen fällen wird die 88GTX die 4870 schlagen ;)

im mittel würde ich die 4850 knapp UNTER der 88GTX sehen und die 4870 kanpp drüber ....

nagus
2008-06-12, 08:55:48
das wird stark von szenario abhängen. in einigen fällen wird die 4850 die 88GTX schlage, in anderen fällen wird die 88GTX die 4870 schlagen ;)

im mittel würde ich die 4850 knapp UNTER der 88GTX sehen und die 4870 kanpp drüber ....

soll das ein witz sein? die 4870er wird ca. 30-40% schneller als die 9800GTX. wie soll deiner meinung nach die rechnung 4870= +/-10%8800GTX aufgehn?

The_Invisible
2008-06-12, 09:00:14
...meine Rede....aber erstmal....naja egal,jetzt wissen wir ja was ein G80 SLi und eine GX2 OCed Wert ist.
Entweder haben sie noch einen dicken Trumpf im Ärmel oder es ist wie ich schon zigmal schrieb und wie sie es die letzte Zeit halten ein Aufguß zum Abzocken und die "Hammerkarte" kommt erst noch (um die 4870X2 zu kontern),was man auch aus diverseren Insider Posts rauslesen kann.
Noch nichtmal die GX2 hat ein Prob mit 512 Ram wenn die Memory über 1150mhz läuft>deswegen rennt mir ja auch kein G80 SLI Gespann weg.
Abwarten Tee trinken ich freu mich auf jedenfall erstmal auf die 4870 GDDR5 mit 1000mb.

doch, sie hat ein prob mit dem vram. wenn der ausgeht helfen dir auch 10k ramtakt nix.

btw
wenn die gtx280 wirklich nur die performance liefert muss man sich als g80 besitzer zweimal überlegen ob man umsteigt. naja, hoffen wir halt mal auf crysis, sonst bräuchte ich eigentlich eh keine schnellere karte. :D

mfg

James Ryan
2008-06-12, 09:00:33
soll das ein witz sein? die 4870er wird ca. 30-40% schneller als die 9800GTX. wie soll deiner meinung nach die rechnung 4870= +/-10%8800GTX augehn?

Kommt wirklich auf das Szenario an, die 8800 GTX ist teilweise auch bis zu 30% schneller als eine 9800 GTX (Stichwort VRam).
Aber mal wieder offtopic hier, es geht um die GT200 und nicht um die HD 4850/4870.

MfG :cool:

mapel110
2008-06-12, 09:15:03
Intel Q6600 + NF680i + 2GB DDR2 800 Memory
Microsoft Windows Vista 64-bit SP1

CB kommt bei Call of Juarez auf deutlich höhere Werte und bei WIC kommt CB sogar in 2560er Auflösung auf mehr als doppelt so hohe Werte. Test also mal wieder für die Tonne.

Schlammsau
2008-06-12, 09:26:12
CB kommt bei Call of Juarez auf deutlich höhere Werte und bei WIC kommt CB sogar in 2560er Auflösung auf mehr als doppelt so hohe Werte. Test also mal wieder für die Tonne.


sie haben einafch nur verschiedene Benchszenen verwendet!

CoJ
Als Testsequenz nutzen wir die aktualisierte Vollversion und ein selber erstelltes Savegame.

WiC
Als Testsequenz benutzen wir nicht die integrierte Benchmarkfunktion, da diese sich etwas seltsam verhält. Stattdessen verwenden wir die Introsequenz zur ersten Kampagne der Demo

hacky
2008-06-12, 09:34:07
Also so sehr liegen die glaube ich nicht falsch mit den Call of Juarez Werten in dem Diagram mit G200.

Ich habe da relativ viel mit rumgetestet @ SLI und kam auf solche Werte:

Q6600@2400/3000
2x XFX 8800GTX (630MHz Coretakt Version) SLI
NV 174.74, vista 64bit
High, Shadowz: 2048x2048, Shadowq: Normal
AA: MSAAx4 AF

Werte @2,4 GHz Q6600

1920x1200

Min 23,5
Max 67,6
Avg 35,6

Ohne AA

Min 25,9
Max 88,5
Avg 44,7


Werte @ 3,0 GHz quasi identisch -> GPU Killerapplication


Da Call of Juarez sehr gut mit SLI skaliert könnte man die Werte ganz gut prozentual runter rechnen.

Odal
2008-06-12, 09:38:35
Kommt wirklich auf das Szenario an, die 8800 GTX ist teilweise auch bis zu 30% schneller als eine 9800 GTX (Stichwort VRam).
Aber mal wieder offtopic hier, es geht um die GT200 und nicht um die HD 4850/4870.

MfG :cool:

und wo is das problem bei der 4870? die wird auch noch mit 1GB ram kommen

Sorkalm
2008-06-12, 09:38:39
Durch den neuen 177er Treiber!

Wenn man jetzt 1+1 zusammenzählt, dann hatte die GTX280 mit dem "alten" Treiber tatsächlich nur X4100, und jetzt mit dem neuen X4800.

Oh man, das heißt, man muss bei den Reviews wieder extrem aufpassen, auch wenn nur auf diesen Benchmark optimiert wurde...

GeneralHanno
2008-06-12, 09:43:32
das ist in meinen augen immer das schlimmste in der frühen (pre) launch-phase: die treiber

für den G94 gab's ja auch so nen wundertreiber. da kriegt man echt alle 2 tage was neues -> vergleichbarkeit=0
daher finde ich, dass die frühen tests nur ein erster indikator sind. so 1-2 monate nach dem launch, kann man dann von brauchbaren treibern reden ;)

€dit: hardwareinfo testet z.b. immer erst recht spät (so 2-3 monate nach dem launch) und daher kriegen sie meist andere werte raus als CB mit ihren exclusivtests ...

Grindcore
2008-06-12, 09:45:42
Da möchte ich an dieser Stelle doch mal auf das "Is ja kaum schneller als ne X1900XT" Geunke hinweisen, als die G80-GTX damals erschien. Die schiere Rohleistung lässt mich jedenfalls hinsichtlich der Performance mit Supersampling-Mischmodi etc. nur das Beste hoffen.

Taigatrommel
2008-06-12, 09:54:25
Da scheint tatsächlich irgendwo ein CPU Limit zu sein:

Vantage 1920x1200
GTX 280: X4817
4870: X2773
9800 GTX: X2096

Lost Planet (Snow) 1920x1200
GTX 280: 86
4870: 43
9800 GTX: 48

Lost Planet (Cave) 1920x1200
GTX 280: 63
4870: 56
9800 GTX: 63

Call of Juarez 1920x1200
GTX 280: 31,1
4870: 32,5
9800 GTX: 19,7

World in Conflict 1920x1200
GTX 280: 32
4870: 26
9800 GTX: 17

Im Vantage ist die GTX 280 deutlich überlegen.
Im ersten Lost Planet Benchmark (kenne ich nicht) zieht die 280er der neuen Radeon um gaze 100% davon, selbst die 9800 GTX schlägt die 4870.

Im zweiten Cave Benchmark ist der Abstand deutlich geringer, die neue GeForce ist nur um knapp 12% schneller. Interessant ist hier die Tatsache das die 9800 GTX nicht nur schneller als die 4870 ist, sondern gleich auf mit der GTX 280 liegt.

In Call of Juarez ist die 4870 ein wenig schneller.
Zu guter letzt WiC wo nVidia um rund 20% schneller ist.

Die Preise werden noch immer mit 349,- für 4870 und 649,- für GTX 280 angegeben. Sollte die GTX 280 wirklich nur 20-30% schneller sein, dann sollte nVidia mal die Preisschraube deutlich nach unten drehen.

Superheld
2008-06-12, 09:59:50
Lost Planet (Cave) testet eigentlich den CPU wo quads auch deutlich Vorteile haben

Gast
2008-06-12, 10:02:52
doch, sie hat ein prob mit dem vram. wenn der ausgeht helfen dir auch 10k ramtakt nix.

btw
wenn die gtx280 wirklich nur die performance liefert muss man sich als g80 besitzer zweimal überlegen ob man umsteigt. naja, hoffen wir halt mal auf crysis, sonst bräuchte ich eigentlich eh keine schnellere karte. :D

mfg
Ich weiß zwar nicht warum ich überhaupt noch Antworte aber nun gut zum letzten MAL
"ER GEHT NICHT AUS"!!
Sonst hätt ich schon längst wieder ne Ultra im Rechner.
Kannste das nun entgültig verstehen?

mictasm
2008-06-12, 10:12:02
Ich weiß zwar nicht warum ich überhaupt noch Antworte aber nun gut zum letzten MAL
"ER GEHT NICHT AUS"!!
Sonst hätt ich schon längst wieder ne Ultra im Rechner.
Kannste das nun entgültig verstehen?

Bis zu welcher Auflösung spielst du denn?

X.Perry_Mental
2008-06-12, 10:16:23
GTX 280 drops to $499, GTX 260 to $399 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=65)
Da scheint ja deutlich Bewegung in den Markt zu kommen. Erklärungsversuche (meinerseits):
- nVidia hat den RV770 unterschätzt
- nVidia hat die selbstgesteckten Ziele beim GT200 nicht erreicht
- AMD liefert zu extrem agressiven Preisen und nVidia muss reagieren

AnarchX
2008-06-12, 10:19:07
Naja, Fuad. Aber wenn die Leistung stimmt, die ich gehört habe, dann sind $499 wohl wirklich angebrachter.

Nur was werden wohl die Investoren dazu sagen, dass NV eine 575mm² Die inkl. 512-Bit PCB für so einen Preis verkaufen muss. X-D

Sorkalm
2008-06-12, 10:20:18
$499 und $399 als Startpreise für Karten mit einem solch riesigen Chip? :eek:

Anarchy-HWLUXX
2008-06-12, 10:22:25
Noch eine Option :

- Die Preise der aktuellen karten sind jetzt schon so weit im Keller das man das High-End Preisniveau senken muss da sonst der Aufschlag zu massiv ist.

Sorkalm
2008-06-12, 10:25:31
- Die Preise der aktuellen karten sind jetzt schon so weit im Keller das man das High-End Preisniveau senken muss da sonst der Aufschlag zu massiv ist.

Sicher hängt das damit zusammen, ich glaube nicht, dass der GTX 280 eine Single-Chip-Karte was anhaben kann, die 9800 GX2 in relevanten Settings auch nicht...

Trotzdem wären $499 für die High-End-Variante ziemlich wenig, da käme ich im Euro-Raum ja auf sub 400€-Preise bei Verfügbarkeit...

Winter[Raven]
2008-06-12, 10:27:01
Man versucht AMD aus allen Märkten zu drängen?

Snoopy1978
2008-06-12, 10:29:53
Trotzdem wären $499 für die High-End-Variante ziemlich wenig, da käme ich im Euro-Raum ja auf sub 400€-Preise bei Verfügbarkeit...

Da wird sich Nvidia mit dem geplanten Shrink in Form des GT200b beeilen müssen,ansonsten steigen die Investoren denen aufs Dach.

Chris2CB
2008-06-12, 10:30:12
Noch eine Option :

- Die Preise der aktuellen karten sind jetzt schon so weit im Keller das man das High-End Preisniveau senken muss da sonst der Aufschlag zu massiv ist.



Das ist egal, bei den Kosten für eine GTX280 muss man ordentlich was verlangen, ATI ist mit der 2900XT auch wohl eher auf der 0:0 Schwelle gefahren, den Preis kann man nur senken wenn man mit weniger im Geldbeutel zufrieden ist.

Bei den aktuellen zahlen, ergibt das wenig Sinn, UVP von 600$ ist bei einer GTX280 schon angemessen, auch wenn eine 4870 hier und da schnell ist.

Schlammsau
2008-06-12, 10:31:58
;6576850']Man versucht AMD aus allen Märkten zu drängen?

da stellt sich dann nur die Frage, welcher Hersteller dann den meisten Gewinn mit seiner Karte einfährt!
nV mit ihrer Monsterkarte inkl. Monster DIE, oder Ati mit ihrem halb so grossen DIE und ihrer nicht so monstermässigen Karte.
Ich weiss schon wer da gewinnen wird. ;D

GeneralHanno
2008-06-12, 10:33:19
nun, wenn die GTX-280 auf 499$ fällt, dann kann man ja für 649$ ne GTX-290 "ULTRA" anbieten (vor allem um in den benchmarks den R700 auszustechen) ;)

Schlammsau
2008-06-12, 10:37:24
nun, wenn die GTX-280 auf 499$ fällt, dann kann man ja für 649$ ne GTX-290 "ULTRA" anbieten (vor allem um in den benchmarks den R700 auszustechen) ;)
Es kann gut sein, dass es dazu kommt!
Nur wie soll die Karte aussehen? Soll sie 3 Slots belegen? Einen TDP von bis zu 300Watt haben? Laut Gerüchten, reichen ja schon 2 4850 aus um die 280GTX zu schlagen! Und wenn ATi ihr X2 Gespann "nur" aus 2 4850 macht, sollte eine TDP von nur 220Watt dabei rauskommen. Bei höherer Leistung, als eine 280GTX!

Cpl. Dwayne Hicks
2008-06-12, 10:39:38
Lost Planet schmeckt den RADEONs nicht... ich hab mal gelesen dass die ALU Auslastung bei unter 50% liegen soll... wenn ich mich recht errinnere.

dildo4u
2008-06-12, 10:39:42
Wenn der Preis der Leistung angepasst wurde ist immer noch eine riesen Lücke zwischen der 4870 und der GTX280 sogar die 260 ist immer noch 50$ teurer auch nach der Preissenkung.


280GTX 500$
260GTX 400$
ATI4870 350$

Chris2CB
2008-06-12, 10:40:33
Es kann gut sein, dass es dazu kommt!
Nur wie soll die Karte aussehen? Soll sie 3 Slots belegen? Einen TDP von bis zu 300Watt haben? Laut Gerüchten, reichen ja schon 2 4850 aus um die 280GTX zu schlagen! Und wenn ATi ihr X2 Gespann "nur" aus 2 4850 macht, sollte eine TDP von nur 220Watt dabei rauskommen. Bei höherer Leistung, als eine 280GTX!


Abwarten und Tee trinken, kann mir nicht vorstellen das 2 4850er schneller sein werden als eine GTX 280. vor allem kommen die ATI Karten erst mal nur mit 512mb Ram und NV gleich mit 1gb, des weiteren müsste CF zu 100% skalieren um an eine 280er ran zu kommen.

Nächste Woche ists so weit.

Sorkalm
2008-06-12, 10:42:55
Wenn der Preis der Leistung angepasst wurde ist immer noch eine riesen Lücke zwischen der 4870 und der GTX280 sogar die 260 ist immer noch 50$ teurer auch nach der Preissenkung.

Da AMD auf Folien die HD 4850 als Sub-$200-Lösung ansieht, glaube ich auch nicht an diesen Preis für die 4870. ;)

Letztendlich muss die GTX 260 soweit günstiger sein - nicht weil sie nicht schneller als die HD 4870 ist, ich gehe schon davon aus, dass sie klar an der 4870 vorbeizieht - aber sie ist halt das einzige Modell was man über der 4870 platzieren kann, soweit kann man G92 wohl nicht mehr aufmotzen.

dildo4u
2008-06-12, 10:43:00
Nächste Woche ists so weit.
Nich wirklich die 4870 kommt erst am 25.6 und die X2 hat noch gar kein Termin August ist wahrscheinlich.Erst dann wissen wir ob an den CF Problemen effektiv gearbeitet wurde.

James Ryan
2008-06-12, 10:43:22
da stellt sich dann nur die Frage, welcher Hersteller dann den meisten Gewinn mit seiner Karte einfährt!
nV mit ihrer Monsterkarte inkl. Monster DIE, oder Ati mit ihrem halb so grossen DIE und ihrer nicht so monstermässigen Karte.
Ich weiss schon wer da gewinnen wird. ;D

Wäre schön wenn AMD mal wieder anfangen würde, Geld zu verdienen.
Könnte mit dem RV770 wirklich gelingen.
Um den Preis der GTX 280 mache ich mir keine Sorgen, dann macht NVIDIA mal eben zwei Quartale nicht einen so großen Gewinn, die Investoren wird das nicht wirklich schrecken.
Letztlich gibt es aber einen Gewinner, und das sind wir Kunden! :)

MfG :cool:

Odal
2008-06-12, 10:45:45
Abwarten und Tee trinken, kann mir nicht vorstellen das 2 4850er schneller sein werden als eine GTX 280. vor allem kommen die ATI Karten erst mal nur mit 512mb Ram und NV gleich mit 1gb, des weiteren müsste CF zu 100% skalieren um an eine 280er ran zu kommen.

Nächste Woche ists so weit.

natürlich sind 2x4850 schneller als eine gtx280

das sollte eigentlich ausser frage stehen

GeneralHanno
2008-06-12, 10:47:07
nun, die ULTRA wäre natürlich primär ein überteuerter papiertiger, um in reviews besser zu stehen ...

wenn man den preis gegenüber der GTX-280 nochmals um 150-200$ erhöht, dann hat man auch etwas mehr platz für:
1. einen noch besseren kühler (vollkupfer usw) -> höhere TDP
2. selektierte chips, die ~650MHz/1400MHz schaffen
3. hochwertige speicherchips, die am limit getaktet werden

teuer, ineffizient, aber auf dem papier siehts gut aus ;D

dildo4u
2008-06-12, 10:48:48
natürlich sind 2x4850 schneller als eine gtx280

das sollte eigentlich ausser frage stehen
Nich jedes Spiel skaliert zu 80 oder mher Prozent mit CF siehe z.B Crysis.Von daher ist erstmal gar nix klar.

Hier mit aktuellen Treibern eine X2 3870 22fps ohne CF 31fps mit CF.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6564474&postcount=118

Gast
2008-06-12, 10:52:05
Ich denke eher die KArte ist auch (!) unter 1920x1200 äusserst CPU limitiert und deshalb kommt die Power gar nicht zur Geltung.

pXe
2008-06-12, 10:56:31
Also für 400 Euro würde ich mir auch die GTX280 holen, sonst wirds wohl die GTX260. Vorausgesetzt es gibt keine bösen Überraschungen mehr.


pXe

Gast
2008-06-12, 11:01:23
jo :D 400€ wäre OK dann könnte ich beim nHancer bleiben.

Schlammsau
2008-06-12, 11:03:16
jo :D 400€ wäre OK dann könnte ich beim nHancer bleiben.

wenn die Karte wirklich 400€ kostet, fress ich nen Besen!

Chris2CB
2008-06-12, 11:10:52
wenn die Karte wirklich 400€ kostet, fress ich nen Besen!



Irgenwann wird sie 400€ kosten........:wink: Mahlzeit