PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 5] - Übersicht in #1!


Seiten : [1] 2 3 4

AnarchX
2008-06-06, 14:45:16
letzter Post Teil 4: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6560160#post6560160

GT200 - Zusammenfassung aktueller Gerüchte/Spekulationen:

GPU-Codename: G200
Die-Size: 575mm²
Transitorenanzahl: >1Mrd.(laut NV (http://www.golem.de/0804/58955.html)) Update: 1.4Mrd. bestätigt (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6542350&postcount=51)
Die-Shot (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6540341&postcount=1661)

GPU-Aufbau:
- 512-Bit, 32 (?) ROPs
- 10 Cluster mit je 8 TMUs und je 24 skalaren Shadereinheiten (Fähigkeiten noch unbekannt) -> 80 TMUs, 240SPs(Bestätigung? (http://www.marketwatch.com/news/story/nvidias-picture-brighter-stock-price/story.aspx?guid=%7BB82E0D80-25BB-49F2-9BE3-A50EFD3E8CEC%7D))

mögliches PCB-Design:
http://img232.imageshack.us/img232/5411/9900gtxside48db423adh7.jpg (http://imageshack.us)
http://www.vr-zone.com/articles/GeForce_9900_GTX_Card_Design_Exposed/5763.html
STEP-File zum selber anschauen: http://www.mediafire.com/?gem3dcyjd9y
http://img167.imageshack.us/img167/3626/200805211639524826787e5nd3.jpg (http://imageshack.us)
Fotos der Karte:
http://img89.imageshack.us/img89/1249/2008052276e7838a450d9ecmz7.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/5051/200805220692d90f068b76bwp5.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/4426/200805229183401ab0a35a1pe3.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/295/295937.shtml

möglicher Kühler:
http://img232.imageshack.us/img232/2015/129478612vohbe6.jpg (http://imageshack.us)
http://diy.pconline.com.cn/graphics/news/0805/1294786.html

Bilder der finalen Karte bei VR-Zone (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6550720&postcount=432)

SKUs:
- intern D10U-300 und -200
- Handelname: GeForce GTX 280 und 260 (http://www.hkepc.com/?id=1165&fs=c1n) (engl. (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html))
GTX 280:
- voller G200
- 240 SPs, 80 TMUs, 32 ROPs, 512-Bit
- 1GiB GDDR3
- Taktraten: 602/1296/1107MHz
- theoretische Leistung: 48 GTex/s, 933GFLOPs, 142GB/s
- 236W TDP
- 10.5" PCB
- $649
- 30W Idle-Verbrauch (kein H-SLI) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6548979#post6548979)
-> 25W (NV-Folie) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6549656&postcount=398)
http://img183.imageshack.us/img183/922/2008060784677969aab813ekb8.jpg

GTX 260:
- teildeaktiverter G200
- 192 SPs, 64 TMUs, 28 ROPs, 448-Bit
- 896MiB GDDR3
- Taktraten: 576/1240?/999MHz
- theoretische Leistung: 36,8 GTex/s, 714GFLOPs, 112GB/s
- 182W TDP
- 10.5" PCB
- $449
- NV-Folie (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6554435&postcount=640)

(Quelle der genaueren SKU-Daten (http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed))


- Launch: 18 Juni 2008 (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html) auf den 17. Juni vorgezogen

spekulierte Leistung:

- flüssige Darstellung von Crysis in 2560x1600 Very High 4xAA (http://we.pcinlife.com/thread-926798-1-1.html) durch ein GT200 (GTX 280?) SLI ( ~ 3-fache 8800 GTX Leistung für eine GTX 280)
- QX9650 OC + GT200 soll mehr als 13.000 Punkte in 3DMark Vantage unter Performance (http://we.pcinlife.com/thread-933395-1-1.html)(1280x1024 1xAA/AF) erzielen (~ etwas über 8800 GTX SLI Leistung)
(Anmerkung: PHK ist bekannt für zutreffende Leaks seit einigen Jahren.)
- GTX 280 erreicht 7.000 Punkte unter 3DMark Vantage Extreme Preset (http://www.pczilla.net/en/post/11.html) Update: Offenbar SLI-Werte:
Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6538909&postcount=1539
- GTX 280 unter F@H: ~2.8x HD3870, 5xPS3 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6523912&postcount=867)
- GTX 280: ~ 1.25x GTX 260 laut INQ
http://img78.imageshack.us/img78/1931/gtx200seriesperformanceni9.jpg
http://www.vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html
-> 2560x1600 (http://gathering.tweakers.net/forum/view_message/30163213)
http://img365.imageshack.us/img365/3882/20080607d6ac1e661e770b4qp0.jpg
- Crysis 1920x1200 VH GPU1-Benchmark: 34FPS Avg. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6567402&postcount=306)

AnarchX
2008-06-06, 14:46:28
Diskussionen über Crysis, sofern es dazu keine GT200-Ergebnisse gibt, bitte einschränken bzw. in das passende Unterforum verlegen.

Gast
2008-06-06, 14:47:19
die tabelle ist wohl der hoffnungsschimmer aller nv user,hehe.

na dann gute träume:)

Gast
2008-06-06, 14:53:14
das die single karten in ausgewählten Settings schneller sind als die X2 ist schon realistisch. Jedoch muss man natürlich die Skala des NV-Diagramms kritisieren.

Gast
2008-06-06, 15:04:17
das die single karten in ausgewählten Settings schneller sind als die X2 ist schon realistisch. Jedoch muss man natürlich die Skala des NV-Diagramms kritisieren.

Und zwar bei Settings, in denen der X2 der Speicher ausgeht.

Gast
2008-06-06, 15:06:40
Und zwar bei Settings, in denen der X2 der Speicher ausgeht.

das lustige ist in den settings ist eine 3870 nur max 10% langsamer als eine 3870x2:)

Adam D.
2008-06-06, 15:11:08
Und zwar bei Settings, in denen der X2 der Speicher ausgeht.
Ja, aber das sind halt die Settings, auf die die GTX280 zielt. Was anderes wär auch seltsam für 'ne Karte für 649$ ;)

Gast
2008-06-06, 15:12:26
D.h. Crossfire funktioniert nicht richtig und die X2 hat eigentlich auch nur 512MB Speicher, da alle Daten doppelt sind.

Gast
2008-06-06, 15:16:23
Ja, aber das sind halt die Settings, auf die die GTX280 zielt. Was anderes wär auch seltsam für 'ne Karte für 649$ ;)

Eine 4870X2 mit 1GB shared RAM wird bei diesen Settings 3mal schneller als eine 3870X2 sein.

Gast
2008-06-06, 15:16:41
Ja, aber das sind halt die Settings, auf die die GTX280 zielt. Was anderes wär auch seltsam für 'ne Karte für 649$ ;)


falsch das ist ja nur eine irreführung falscher tatsachen,weil so jeder denkt hey in meiner auflösung sagen wir mal 1680*1050 ist das das selbe spiel.den nv user sind ja so naiv:)

ups sorry ist mir nur so raus gerutscht:)

Adam D.
2008-06-06, 15:22:52
Eine 4870X2 mit 1GB shared RAM wird bei diesen Settings 3mal schneller als eine 3870X2 sein.
Aha, woher kommt diese Zahl?

falsch das ist ja nur eine irreführung falscher tatsachen,weil so jeder denkt hey in meiner auflösung sagen wir mal 1680*1050 ist das das selbe spiel.den nv user sind ja so naiv:)

ups sorry ist mir nur so raus gerutscht:)
Das ist 'ne Marketing-Folie - was erwartest du? :| Wenn du genug AA aufdrehst auf 1680x1050, wirst du schon in etwa das selbe Bild sehen. Vielleicht nicht so stark, klar ...

Anarchy-HWLUXX
2008-06-06, 15:24:25
nur eine irreführung falscher tatsachen

:lol: nice one ;D

Gast
2008-06-06, 15:32:28
Da lief aber kein AA oder AF und da reichen sogar bei NV 512MB meistens aus, ATI wird da Grantiert keinen Vorteil durch 1GB haben! So wie es aussieht wird die X2 aber nur 2x512MB haben...

Der Vorteil von 1GB sieht man erst mit AA und hoher Auflösung...

MiamiNice
2008-06-06, 15:39:24
OT:
Warum werden die Threads immer gesplittet, könnt Ihr die nicht zusammen lassen zwecks der Übersicht?

dildo4u
2008-06-06, 15:41:27
OT:
Warum werden die Threads immer gesplittet, könnt Ihr die nicht zusammen lassen zwecks der Übersicht?
Alle großen Sammelthreads werden nach 1000 Posts gesplittet egal in welchem Teil des Forums.

Eggcake
2008-06-06, 15:44:59
Weiss jetzt nicht wirklich was ein 5000-Seitenthread mit Übersicht zu tun hat. Ist mir lieber sie werden ab und an gesplittet, der Anfangspost bleibt ja erhalten.

Gast
2008-06-06, 15:53:52
Da lief aber kein AA oder AF und da reichen sogar bei NV 512MB meistens aus, ATI wird da Grantiert keinen Vorteil durch 1GB haben! So wie es aussieht wird die X2 aber nur 2x512MB haben...

Der Vorteil von 1GB sieht man erst mit AA und hoher Auflösung...

Der R700 ist ein Dualcore on Chip RV770 mit 512 bit 1GB shared GDDR5.

Schlammsau
2008-06-06, 16:02:47
Der R700 ist ein Dualcore on Chip RV770 mit 512 bit 1GB shared GDDR5.

schön wärs......

dargo
2008-06-06, 16:04:59
Hot in the city... http://www.hartware.de/news_44955.html

Man ich will Benches sehn...
*ggg

Ich kann meinen Finger am Kühler der NB vom Mainboard auch keine 3-4 Sekunden halten. Und nun? :D

Gast
2008-06-06, 16:09:58
aha, woher weisst du denn das? die meisten spekulanten sind der meinung dass das die alte r700 technologie war und neu mit r800 oder rv880 oder so kommt.

Gast
2008-06-06, 16:12:07
*ggg

Ich kann meinen Finger am Kühler der NB vom Mainboard auch keine 3-4 Sekunden halten. Und nun? :D
p965 chipset? ich weis nur dass die nvidias auch gut und gerne 80 grad heiss werden... mein p35 ist kühler...

AnarchX
2008-06-06, 16:44:14
Nvidia GTX280 appearance imitation GeForce 9800GTX, the top card set 6 - pin ,8-pin external power connector and S / PDIF audio output, providing dual-DVI, S-video video interfaces, carrying 512 - bit 1GB GDDR3 memory, GPU step process to TSMC 55 nm, the original default GPU / Memory / Shader frequency settings were 600/1100/1290 MHz, the current display GTX280 Set 621/1049/1296 MHz, according to manufacturers that the future Shipments will be set at a higher frequency, but at this stage GTX280 effectiveness remains to be adjusted, as for further testing, please lock our first report.
http://www.tomshardware.com/cn/387,news-387.html

Veränderte Taktraten? :|

dargo
2008-06-06, 16:57:19
http://www.tomshardware.com/cn/387,news-387.html

Veränderte Taktraten? :|
Haben die eventuell den PCIe außerhalb von 100Mhz betrieben? :D

Edit:
Wobei der Speicher gar untertaktet ist. :|

Gast
2008-06-06, 17:05:28
Vielleicht liegt es grade an der hitzewelle warum sie mit den taktraten runter müssten.

Vielleicht hat fuad in dieser hinsicht wirklich recht das die 280 GTX verdammt heis wird?

AnarchX
2008-06-06, 17:08:41
Laut Text steigen sie doch gerade auf 621/1296 bzw. 1336MHz laut RT bei der GPU, nur die Senkung des Speichertakts auf 1050MHz ist doch sehr seltsam.
Laut GPU-Z sieht es aber eher aus, dass sie selbst herumgetaktet haben.

Sollte man wohl nicht soviel darauf geben.

btw.
XFX scheint wohl eine GTX 280 XXX(?) mit 675MHz GPU zu planen.

Odal
2008-06-06, 17:18:06
Vielleicht liegt es grade an der hitzewelle warum sie mit den taktraten runter müssten.

Vielleicht hat fuad in dieser hinsicht wirklich recht das die 280 GTX verdammt heis wird?


die sind ja nich runter sondern eher hoch...

hängt das vielleicht damit zusammen das man AMD/ATI doch unterschätzte? Die news über die HD4870X2 die den GT280 abfrühstückte deuten ja darauf hin

Gast
2008-06-06, 17:20:31
hab ihr den Link angeschaut? Man sieht ja gleich das die Taktraten manuell verändert wurden...

dargo
2008-06-06, 17:25:12
hängt das vielleicht damit zusammen das man AMD/ATI doch unterschätzte? Die news über die HD4870X2 die den GT280 abfrühstückte deuten ja darauf hin
Jo, deswegen übertaktet man die GPU um satte 3% weil man die Konkurrenz unterschätzt hat. ;D

Nakai
2008-06-06, 17:28:36
btw.
XFX scheint wohl eine GTX 280 XXX(?) mit 675MHz GPU zu planen.

Wär ja nichts neues von XFX.;)

Ich hoffe, dass der GTX 280 und die HD4870X2 ordentlich reinhauen.
Ich wünsche mit einen ungefähren Gleichstand wieder her. ;(


mfg Nakai

Gast
2008-06-06, 17:37:18
Ich wünsche mit einen ungefähren Gleichstand wieder her. ;(



ja ich auch, dann können wir wieder die texturfilter optimieren bis man den längeren hat :(

Gast
2008-06-06, 17:41:48
Wär ja nichts neues von XFX.;)

Ich hoffe, dass der GTX 280 und die HD4870X2 ordentlich reinhauen.
Ich wünsche mit einen ungefähren Gleichstand wieder her. ;(


mfg Nakai

Es gibt keinen Gleichstand, wie auch mit einer GPU gegen zwei GPUs ;)

Gast
2008-06-06, 17:44:00
Ein gleichstand wer sowieso nicht gut für Ati.Dann würden sich 80 % der Leute sich die Nvidia Karte kaufen.;)Die X2 müsste schon 20 % schneller sein.^^

Nakai
2008-06-06, 17:47:27
Es gibt keinen Gleichstand, wie auch mit einer GPU gegen zwei GPUs ;)

Wenn die HD4870X2 etwa 15% schneller ist(für Mikroruckler etc.), dann kann man sagen, dass sie die schnellste Karte ist.
Ob es 2 oder mehrere Chips sind, ist mir egal. Oder hat man die Voodoo-Karten damals als eine Verschwendung deklariert, weil sie aus mehreren Chips besteht hatten, obwohl sie schneller war?


mfg Nakai

mictasm
2008-06-06, 17:49:25
Falscher Thread und diesen nicht gelesen?

w0mbat
2008-06-06, 17:49:53
Wenn sie schneller ist.

Gast
2008-06-06, 17:54:06
hängt das vielleicht damit zusammen das man AMD/ATI doch unterschätzte? Die news über die HD4870X2 die den GT280 abfrühstückte deuten ja darauf hin

Glaub ich auch die bekommen Muffensausen :ucatch:

Gast
2008-06-06, 17:55:36
Nur wird man das kaum so greifen können, von wegen 15% schneller.
Der R700 bleibt ein Multi-GPU und die Skalierung ist je nach Anwendung unterschiedlich.
Wenn die Vantage Werte, von X5500 für den R700 und X4800 für die GTX280 stimmen, sind das gerade mal 15%.
In Spielen, wie z.B. Crysis, liegt die Crossfire Skalierung aber unter 50%.
Dazu kommt, das man auf Grund der Mikroruckler Problematik, Spielraum lassen muss.
Bei einer Single GPU kann man sehr viel grenzwertiger mit Quality Filtering agieren.

Damit sich eine 4870X2 lohnt, muss sie schon sehr viel mehr als 15% schneller sein, als die GTX280, ansonsten überwiegen Skalierungsproblematik, Crossfire Profil Unzulänglichkeiten, Mikroruckler, u.s.w..

Gast
2008-06-06, 17:55:59
Der R700 wird Wahrscheinlich auch gegen einen G200b bestehen müssen und ich sehe da ehrlich gesagt keinen einzigen Vorteil für einen R700, nur eine lange Nachteil Liste...

Sollte eine R700 Karte wirklich x5500 Vatage Punkte bringen und der G200 hat ja schon x5000, könnte NV das locker mit dem G200b durch etwas mehr Takt ausgleichen, zudem man natürlich in 3D Mark eine super Skalierung erreicht, in den Games dürfte das dann für den R700 eher sehr schelcht aussehen wenn man dann nur eine Skalierung nur 50% erreicht oder so....

seahawk
2008-06-06, 17:59:39
Laut Text steigen sie doch gerade auf 621/1296 bzw. 1336MHz laut RT bei der GPU, nur die Senkung des Speichertakts auf 1050MHz ist doch sehr seltsam.
Laut GPU-Z sieht es aber eher aus, dass sie selbst herumgetaktet haben.

Sollte man wohl nicht soviel darauf geben.

btw.
XFX scheint wohl eine GTX 280 XXX(?) mit 675MHz GPU zu planen.

Naja, bei dem breiten Interface reicht wohl alles um 1000Mhz für den Speicher aus. Evtl. ne Frage der Leistungsaufnahme. Speicher etwas weniger Spannung, erlaubt der GPU etwas mehr zu geben - > mehr Takt.

Gast
2008-06-06, 18:02:26
Der R700 wird Wahrscheinlich auch gegen einen G200b bestehen müssen und ich sehe da ehrlich gesagt keinen einzigen Vorteil für einen R700, nur eine lange Nachteil Liste...

Sollte eine R700 Karte wirklich x5500 Vatage Punkte bringen und der G200 hat ja schon x5000, könnte NV das locker mit dem G200b durch etwas mehr Takt ausgleichen, zudem man natürlich in 3D Mark eine super Skalierung erreicht, in den Games dürfte das dann für den R700 eher sehr schelcht aussehen wenn man dann nur eine Skalierung nur 50% erreicht oder so....

ja locker zu weihnachten ,blos hat es die dann schon mit der r800 zutun:)

Gast
2008-06-06, 18:09:23
ja locker zu weihnachten ,blos hat es die dann schon mit der r800 zutun:)

Ja klar, träum weiter!

Die 4870X2 soll August oder September auf den Markt kommen...

Gast
2008-06-06, 18:11:34
Ja klar, träum weiter!

Die 4870X2 soll August oder September auf den Markt kommen...

ich red von der G200b,mache mal deine glubschaugen auf:)

Gast
2008-06-06, 18:14:41
bist wohl nicht so der hellste, was?

Der G200b soll 3-4 Monate nach dem G200 kommen, der G200 kommt am 17 Juni....

Gast
2008-06-06, 18:18:34
bist wohl nicht so der hellste, was?

Der G200b soll 3-4 Monate nach dem G200 kommen, der G200 kommt am 17 Juni....

ja bin ein wenig beschrängt,achsoo die kommt in 3-4 monaten,mach noch die obligatorische verspätung dazu und dann haben wir nikolaus:)

Gast
2008-06-06, 18:19:39
ja ich auch, dann können wir wieder die texturfilter optimieren bis man den längeren hat :(

Bringt nix mehr seit der G80 Serie im Highend Bereich. Bench mal 16xAF vs 1xBi, da kommt nix bei rum.

Gast
2008-06-06, 18:20:21
ja locker zu weihnachten ,blos hat es die dann schon mit der r800 zutun:)

R800 = Q2/2009

Gast
2008-06-06, 18:41:47
Bringt nix mehr seit der G80 Serie im Highend Bereich. Bench mal 16xAF vs 1xBi, da kommt nix bei rum.

nur steigt die texturleistung deutlich weniger als die shaderleistung und wenn beide annähernd gleich auf ist reicht es für die paar prozent vorsprung.

=Floi=
2008-06-06, 19:27:54
weil eben wohl doch weniger texturleistung benötigt wird im vergleich zur aritmetik.

OgrEGT
2008-06-06, 20:24:45
*ggg

Ich kann meinen Finger am Kühler der NB vom Mainboard auch keine 3-4 Sekunden halten. Und nun? :D

Ich auf jeden fall auch nicht :biggrin:

OgrEGT
2008-06-06, 20:30:04
Es gibt keinen Gleichstand, wie auch mit einer GPU gegen zwei GPUs ;)

Naja kann eigentlich egal sein, ob eine oder 2 GPU's. Solange der Verbrauch von 2 GPU's nicht höher ist und die gleiche Leistung herauskommt...

Nakai
2008-06-06, 20:39:01
Ist eh alles nur relativ. Wenn eine HD4870X2 etwa 10% mehr Frames bei gleicher BQ liefert, dann ist sie theoretisch schneller.
Die Frames müssen auch gerendert werden, die sind zwar vom Zeitpunkt ziemlich schlecht, aber die wurden berechnet.

Naja ich glaube nicht, dass die HD4870X2 der GTX 280 wirklich gefährlich wird...
abwarten und Tee(mit nem ordentlichen Schuß Rum) saufen.;)


mfg Nakai

Ailuros
2008-06-06, 21:32:30
Es bleiben nur sehr wenige Tage uebrig bis die ersten Leistungsdaten von den GT200 Boards erscheinen und dann etwas spaeter von den RV770 GPUs. Da man die letzteren auch in CF verbinden kann wird es dann endlich jegliche Einzelheit klaeren. Bis dahin werden wir uns wohl gedulden koennen.

Was jetzt den R800 Unsinn betrifft: wie schon mal erwaehnt es ist RV8x0 welches urspruenglich RV7x0 war.

dildo4u
2008-06-06, 21:40:20
und dann etwas spaeter von den RV770 GPUs. Da man die letzteren auch in CF verbinden kann wird es dann endlich jegliche Einzelheit klaeren. Bis dahin werden wir uns wohl gedulden koennen.

Die Frage ist nur ob man die CF Ergebnisse dann so 1:1 für die X2 übernehmen kann.Oder ob gegenüber einer einzelnen 4870 der Takt abgespeckt werden muss um noch halbwegs vernünftige TDP Werte zu erhalten.

Snoopy69
2008-06-06, 21:58:14
Stehen eig. nur die Termine für die baldigen Karten fest oder auch schon für die übernächsten (G200b)?

Gast
2008-06-06, 22:07:27
28.10.08 15:00 ;)

Anarchy-HWLUXX
2008-06-06, 22:10:31
GeForce GTX 280 Card Stripped Naked (http://vr-zone.com/articles/GeForce_GTX_280_Card_Stripped_Naked/5856.html)

http://img508.imageshack.us/img508/2039/gtx280cardsgb3.jpg

Mehr @ link !

Ailuros
2008-06-06, 22:11:29
Die Frage ist nur ob man die CF Ergebnisse dann so 1:1 für die X2 übernehmen kann.Oder ob gegenüber einer einzelnen 4870 der Takt abgespeckt werden muss um noch halbwegs vernünftige TDP Werte zu erhalten.

Wie gross ist denn der Unterschied zwischen einer HD3870X2 und 2*HD3870@825MHz@CF?

tombman
2008-06-06, 22:19:14
Selbst wenn die X2 20% schneller als die GTX280 ist -> hat sie immer noch verloren, weils auf der SINGLE CHIP Karte schlicht und einfach flüssiger aussehen wird ;)

EDIT: btw, bzgl. 6 pin PCI-e auf 8 pin Adapter:
Habe heute meine Spezialkabel für mein Galaxy 1000er NT (NICHT DXX!) bekommen ;)
Dort werden übrigens NICHT einfach die schwarzen Kabel verdoppelt, sondern schlicht und einfach die zwei zusätzlichen schwarzen Massekabel einfach auf zwei ANDERE schwarze Kabel eines MOLEX-Steckes gelegt- sieht nur eleganter aus, weil dafür ein modularer Anschluß am NT und NICHT außen an einen Molex gesteckt wird. Es wird aber genau der EIngang genutzt, der auch für die 2x Masse des Molel benutzt wird.
Also: wenn wer einen 6->8 pin PCI-e STROM-Adapter bauen will, dann muß er nur einfach die beiden zusätzlichen Pins auf dem Grakastecker mit zwei schwarzen Molex-Leitungen eines beliebigen Molex-Steckers verbinden. Dann sollte es keine Probleme geben, denn genau so macht es Enermax ;) (eines ansonsten UNBENUTZTEN Molex-Steckers...)

Snoopy69
2008-06-06, 22:58:29
Selbst wenn die X2 20% schneller als die GTX280 ist -> hat sie immer noch verloren, weils auf der SINGLE CHIP Karte schlicht und einfach flüssiger aussehen wird ;)

Wirklich? :wink:
Ich dachte über 30 fps gibt es keine MR mehr (bzw. nicht mehr spürbar)

InsaneDruid
2008-06-06, 23:00:13
Nee, die "mR" sind (fast) immer da, und beeinflussen auch raten über 30 fps.. man spürt dann halt, sagen wir 35 fps obwohl 50 angezeigt werden.

tombman
2008-06-06, 23:02:16
Wirklich? :wink:
Ich dachte über 30 fps gibt es keine MR mehr (bzw. nicht mehr spürbar)
Falsch gedacht. Von 30fps bis ca 45fps sieht man es...
Unter 30fps interessiert eh keinen, weil da ruckelt es IMMER, was aber nix mit multi-gpu oder AFR zu tun hat...

Snoopy69
2008-06-06, 23:06:17
tombman hat das letztes Mal aber verneint. Jetzt wieder doch???
Naja, egal...
Wenn ein Spiel kommt, das ein GTX280-SLI auf 30fps zwingt, wird es eh wieder ruckeln. Die sollen endlich mal was dagegen tun! (Unfähig?)

tombman
2008-06-06, 23:23:17
tombman hat das letztes Mal aber verneint. Jetzt wieder doch???
Ich glaube langsam einfach, du hast es nie verstanden...

Wenn ein Spiel kommt, das ein GTX280-SLI auf 30fps zwingt, wird es eh wieder ruckeln. Die sollen endlich mal was dagegen tun! (Unfähig?)
??? Auf 30fps ruckelt mit SINGLE GPU gar nix...

Snoopy69
2008-06-06, 23:25:00
Lies richtig, das steht SLI :wink:

tombman
2008-06-06, 23:25:17
p.s. so macht man es, wenn NT keinen pic-e 8pin Stecker hat (und man keinen Adapter hat)

[english for google ;D: SOLUTION TO THE "No 8-PIN PCI-e PLUG ON PSU" PROBLEM:]

http://img444.imageshack.us/img444/2539/pcie8px3.jpg (http://imageshack.us)

clockwork
2008-06-06, 23:29:29
p.s. so macht man es, wenn NT keinen pic-e 8pin Stecker hat (und man keinen Adapter hat)
Ich gehe mal stark davon aus das neuen Karten ein 6->8 Pin beiliegen wird. Ist das bei den aktuellen nicht schon so? Aber danke für die Heimwerkerking-Lösung.

Snoopy69
2008-06-06, 23:38:01
Die einfachste Sache der Welt.
Stecker liegen bestimmt dabei. Bei 8800 soll es aber auch Hersteller geben, denen das schon zuviel ist.

The_Invisible
2008-06-07, 07:44:36
p.s. so macht man es, wenn NT keinen pic-e 8pin Stecker hat (und man keinen Adapter hat)

http://img444.imageshack.us/img444/2539/pcie8px3.jpg (http://imageshack.us)

ich sehe schon die ersten die einfach 2 lose unisolierte drähte so verbinden ;D

btw
hoffe das ein 500w markennetzteil noch reicht, wollte damit eigentlich länger ruhe haben da mich sli eh nicht interessiert

mfg

Ailuros
2008-06-07, 08:51:39
Kommt darauf an was genau in einem System steckt und wie stark das Netzteil auf dem +12V rail ist. 500W klingen aber verdammt knapp. Ein solches Risiko wuerde ich persoenlich nicht eingehen.

K4mPFwUr$t
2008-06-07, 09:07:28
@Ailuros
das ist unsinn, oder willst du diesen hype um kraftwerle ala 1000W NTs nur bestärken?
ein 500W markennetzteil reicht aus.

pest
2008-06-07, 09:30:37
Nee, die "mR" sind (fast) immer da, und beeinflussen auch raten über 30 fps.. man spürt dann halt, sagen wir 35 fps obwohl 50 angezeigt werden.

wozu machen sich eigentlich andere die Mühe, Diagramme zu erstellen, und das theoretisch auseinanderzunehmen, wenn es am Ende eh' zu 90% ignoriert wird...ganz schön borniert.

Gast
2008-06-07, 09:51:46
@Ailuros
das ist unsinn, oder willst du diesen hype um kraftwerle ala 1000W NTs nur bestärken?
ein 500W markennetzteil reicht aus.

Im gegensatz zu ihm hast du kein Argument aufgeführt was dagegen sprechen würde, auserdem spricht er nicht von 1kw Netzteilen.

Schlammsau
2008-06-07, 09:57:45
Falsch gedacht. Von 30fps bis ca 45fps sieht man es...
Unter 30fps interessiert eh keinen, weil da ruckelt es IMMER, was aber nix mit multi-gpu oder AFR zu tun hat...

gut wenn du der Meinung bist! Bitteschön! Dann liegt das aber an nVidia´s SLi und nicht an MGPU im allgemeinen! Bei Crossfire sind diese Ruckler allem anschein nach nämlich ab 30-40fps nicht mehr wahrnehmbar! Kommt aber sehr stark aufs Spiel an! DMC 4 läuft Butterweich, NFS Pro Street hat ein gewisses "Grundruckeln" mit egal wie vielen fps, Crysis ist ab 30 Bildern pro Sekunde der Wahnsinn!
Ich glaube es ist schon was dran an der Aussage, dass die Mikrorucklerproblematik nur in den Spielen gelöst werden kann!

K4mPFwUr$t
2008-06-07, 10:01:37
@Gast
schau dich einfach mal im forum um, was für systemsetups mit wellchen NTs gefahren werden.

schlammsau hat eine 430W NT und betreibt damit einen übertakteten C2D, dann noch zwei 3870 dazu. um nur ein beispiel zu nennen.

Gast
2008-06-07, 10:04:04
Völliger Unsinn, die sind sehr wohl wahrnehmbar, man hat zwar die Frametimes mit dem Framelimiter etwas harmonisiert, trotzdem ist Crossfire nach wie vor von Mikrorucklern betroffen.

Schlammsau
2008-06-07, 10:08:42
@Gast
schau dich einfach mal im forum um, was für systemsetups mit wellchen NTs gefahren werden.

schlammsau hat eine 430W NT und betreibt damit einen übertakteten C2D, dann noch zwei 3870 dazu. um nur ein beispiel zu nennen.

jepp und unter Vollast habe ich 360Watt die sich das System gönnt!
Ich muss immer lachen wenn z.B. auf der Verpackung einer 3870 steht: " empfohlen wird ein 450 Watt NT"! ;D

dargo
2008-06-07, 10:10:53
Kommt darauf an was genau in einem System steckt und wie stark das Netzteil auf dem +12V rail ist. 500W klingen aber verdammt knapp. Ein solches Risiko wuerde ich persoenlich nicht eingehen.
Naja, so schlimm sieht es nun auch nicht aus. :)
Gute 500W NTs liefern max. ca. 32-35A combined auf der 12V Schiene. Die G280GTX wird real unter 17A bleiben. Da ist also noch genug Luft für zb. einen Yorkfield und den üblichen Rest vorhanden. Sollte man "nur" einen Wolfdale verwenden erst recht.

Schlammsau
2008-06-07, 10:14:03
Völliger Unsinn, die sind sehr wohl wahrnehmbar, man hat zwar die Frametimes mit dem Framelimiter etwas harmonisiert, trotzdem ist Crossfire nach wie vor von Mikrorucklern betroffen.

nein sind sie nicht!!
Nicht bei der Mehrzahl von mir getesteten Spielen! Pro Street stellt da eine Ausnahme dar! Da schwanken die fps mit CF ohne Grund um 50%! Liegt aber wohl am Spiel! Und nocheinmal.....ab 30-40fps fühlen sich die fps wie echte fps an! Nichts mit 30% abziehen! Jedenfalls ist es mit Crossfire und dem 8.6 Gatalyst so! Vielleicht hat sich ja der Hersteller dem Problem angenommen!? Ich weiss es nicht, da ich MGPU Gespann erst seit einer Woche habe!

AnarchX
2008-06-07, 10:17:49
Listenpreis für die GTX 260 von EVGA soll offenbar bei 399€ liegen.

dargo
2008-06-07, 10:20:10
Listenpreis für die GTX 260 von EVGA soll offenbar bei 399€ liegen.
399€? oder 399$?

AnarchX
2008-06-07, 10:22:41
399€? oder 399$?
Euro, scheint wohl von einem niederländischen Distributor/Online-Shop zu kommen, die auch 19% MwSt. haben.

Gast
2008-06-07, 10:23:37
Listenpreis für die GTX 260 von EVGA soll offenbar bei 399€ liegen.


Meint ihr ein 500Watt Fortron NT Reicht aus für eine GTX260 oder 280?

das hat 2 12V Leitungen a 18Ampere

Sorkalm
2008-06-07, 11:11:51
Euro, scheint wohl von einem niederländischen Distributor/Online-Shop zu kommen, die auch 19% MwSt. haben.

Kann hinkommen, dann sehen wir bald Preise von um die 350€, was auch nach Umrechnung der $449 passt. ;)

GeneralHanno
2008-06-07, 11:31:06
die GTX260 wird mir immer sympatischer. nicht so stark beschnitten wie die 8800GTS-640, aber dennoch halbwegs günstig ...

Sorkalm
2008-06-07, 11:32:25
Wird wohl der indirekte 4870-Konkurrent. Nicht so billig wie die 4870-Karte, aber zumindest so günstig, dass wer eine 4870 kaufen wollte auch überlegt, eine GTX 260 zu nehmen.

AnarchX
2008-06-07, 12:04:29
Mikro-Ruckler/Frametime-Diskussion bitte dort weiterführen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=417785

Gast
2008-06-07, 12:21:36
Wird wohl der indirekte 4870-Konkurrent. Nicht so billig wie die 4870-Karte, aber zumindest so günstig, dass wer eine 4870 kaufen wollte auch überlegt, eine GTX 260 zu nehmen.

Ich finde es irgendwie schade für ATI und für uns alle falls die Karten wirklich so kommen wie hier spekuliert wird. Welcher normal denkende Mensch kauft den noch ne ATI Karte wen die NV Karten wirklich so gut sind. Wen ich hier so lese fallen ja quasi alle Argumente die es immer so gegen NV gab nach wech aber ATI schafft es nicht Boden gut zu machen.

Finde NV sollte mal ne Generation ins Land gehen lassen damit ATI wieder aufholen kann, sonst können wir bald NV Karten für 1000€ + kaufen.

Schlammsau
2008-06-07, 12:32:42
Ich finde es irgendwie schade für ATI und für uns alle falls die Karten wirklich so kommen wie hier spekuliert wird. Welcher normal denkende Mensch kauft den noch ne ATI Karte wen die NV Karten wirklich so gut sind. Wen ich hier so lese fallen ja quasi alle Argumente die es immer so gegen NV gab nach wech aber ATI schafft es nicht Boden gut zu machen.

Finde NV sollte mal ne Generation ins Land gehen lassen damit ATI wieder aufholen kann, sonst können wir bald NV Karten für 1000€ + kaufen.

:confused:
weil nicht jeder 400 bzw. 600€ in eine Grafikkarte investieren will bzw. kann!:rolleyes:
Ich bin z.B. so einer! Meine Schmerzgrenze liegt bei 200-250€! Und da hat in spätestens 2 Wochen nVidia gar nichts mehr zu lachen!
Die 4850 wird aller vorraussicht nach auf 9800GTX Niveau sein. Die 4870 nochmal 30% schneller!
Und das für viel weniger Geld, höherem Techlevel, deutlich niedrigerem Stromverbrauch!
Was will ein Performance Käufer mehr?

tombman
2008-06-07, 12:36:42
:confused:
weil nicht jeder 400 bzw. 600€ in eine Grafikkarte investieren will bzw. kann!:rolleyes:
Ich bin z.B. so einer! Meine Schmerzgrenze liegt bei 200-250€! Und da hat in spätestens 2 Wochen nVidia gar nichts mehr zu lachen!
Na glaubst vielleicht die X2 wird günstiger als die GTX280?
Preise kann man nicht vergleichen ohne die Leistung zu beleuchten!

Gast
2008-06-07, 12:41:01
Ich finde es irgendwie schade für ATI und für uns alle falls die Karten wirklich so kommen wie hier spekuliert wird. Welcher normal denkende Mensch kauft den noch ne ATI Karte wen die NV Karten wirklich so gut sind. Wen ich hier so lese fallen ja quasi alle Argumente die es immer so gegen NV gab nach wech aber ATI schafft es nicht Boden gut zu machen.

wie es scheint ist ATI garnicht so schlecht aufgestellt, zumindest ärgern könnten sie NV gewaltig.
sollte es auch endlich wieder ordentliche texturfilterung geben wären die ATI-karten durchaus eine ziemlich brauchbare alternative.


Finde NV sollte mal ne Generation ins Land gehen lassen damit ATI wieder aufholen kann, sonst können wir bald NV Karten für 1000€ + kaufen.

lol, ist NV die caritas? wir könnten ja mal spenden sammeln für ATI, da es ihnen ja sooo schlecht geht :D

Schlammsau
2008-06-07, 12:41:13
Na glaubst vielleicht die X2 wird günstiger als die GTX280?
Preise kann man nicht vergleichen ohne die Leistung zu beleuchten!

Die X2 ist mir egal......zu teuer, zu viel Stromverbrauch und zu viel Leistung die noch nicht benötigt wird!
Es kommen immer mehr Konsolenports! Schau dich doch mal um!
Ich kann mit einer einzelnen 3870 fast alles flüssig zocken! Mit einer 3870X2 läuft wirklich alles Butterweich!
Ok.....Crysis! Aber das ist die Ausnahme!

Gast
2008-06-07, 12:43:13
:confused:
weil nicht jeder 400 bzw. 600€ in eine Grafikkarte investieren will bzw. kann!:rolleyes:
Ich bin z.B. so einer! Meine Schmerzgrenze liegt bei 200-250€! Und da hat in spätestens 2 Wochen nVidia gar nichts mehr zu lachen!

Wie kann man nur so von sich auf andere schliessen? Man muss auf mal über den Tellerrand blicken und erkennen das man nicht der einzigste auf der Welt ist. Ich behaupte einfach mal das sich ne GTX 260 für 350€ besser verkauft als die neue ATI für 250€. Und das gerade bei den informierten Leuten, die dank Internet ja immer mehr werden.

Das Problem daran ist das NV sich immer mehr Marktanteile sichert und ATI sich immer mehr aus dem High End Bereich zurück zieht. Daraus resultiert das NV die Preise für das High End Segment frei bestimmen kann. Und glaub mir das ist nicht gut für uns alle.

MfG

tombman
2008-06-07, 12:43:47
Die X2 ist mir egal......zu teuer, zu viel Stromverbrauch und zu viel Leistung die noch nicht benötigt wird!
Es kommen immer mehr Konsolenports! Schau dich doch mal um!
Ich kann mit einer einzelnen 3870 fast alles flüssig zocken! Mit einer 3870X2 läuft wirklich alles Butterweich!
Ok.....Crysis! Aber das ist die Ausnahme!
Ich werde wahrscheinlich auch erstmal nur EINE GTX280 kaufen (dafür mit Wakü, das wird teuer genug :))

Schlammsau
2008-06-07, 12:47:28
Wie kann man nur so von sich auf andere schliessen? Man muss auf mal über den Tellerrand blicken und erkennen das man nicht der einzigste auf der Welt ist. Ich behaupte einfach mal das sich ne GTX 260 für 350€ besser verkauft als die neue ATI für 250€. Und das gerade bei den informierten Leuten, die dank Internet ja immer mehr werden.

Das Problem daran ist das NV sich immer mehr Marktanteile sichert und ATI sich immer mehr aus dem High End Bereich zurück zieht. Daraus resultiert das NV die Preise für das High End Segment frei bestimmen kann. Und glaub mir das ist nicht gut für uns alle.

MfG

Dummfug!
Der am meisten gefragte Bereich ist der zwischen 100 und 200 Euro!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=411357

Gast
2008-06-07, 12:50:08
Dummfug!
Der am meisten gefragte Bereich ist der zwischen 100 und 200 Euro!

Mag sein, ich spreche aber hier von High End Karten.

MfG

clockwork
2008-06-07, 12:52:28
Meint ihr ein 500Watt Fortron NT Reicht aus für eine GTX260 oder 280?

das hat 2 12V Leitungen a 18Ampere
Mein 530W bequiet zieht auch ohne Probleme ein GTS-SLI (mit OC (G80)). Mit meinem kleinen Wolfdale + OC geht der Verbrauch nicht über 400 Watt, eher ~370. Ich glaube da wäre noch mehr als genug Luft für einen großen Quad mit OC.

Schlammsau
2008-06-07, 12:52:52
High End ist sowas von egal, wenn die beiden Konkurrenten gut im Performance Bereich aufgestellt sind, verdienen sich beide dumm und dämlich daran!

clockwork
2008-06-07, 12:55:48
High End ist sowas von egal, wenn die beiden Konkurrenten gut im Performance Bereich aufgestellt sind, verdienen sich beide dumm und dämlich daran!
Warum hast du denn überhaupt ein Crossfire wenn eine X2/GTX dann zuviel Strom verbraucht? ;)

Schlammsau
2008-06-07, 12:57:54
Warum hast du denn überhaupt ein Crossfire wenn eine X2/GTX dann zuviel Strom verbraucht? ;)

Ich rede von der 4870X2 bzw. der 260/280GTX.....also der neuen Generation!
Die schlucken noch einiges mehr als meine beiden Kärtchen!

Gast
2008-06-07, 13:43:34
wenn die 4870 das hält was sie verspricht (Verbrauch etc)werden es sich viele überlegen 600€ auszugeben zumal man es ja bei NV gewöhnt ist ganz schnell eine "alte" Karte zuhaben.
Und wenn die 4870X2 die dicke NV verheizt hat man ganz schnell eine "alte" Karte,zumal man ja scheinbar die MR bei ATI wohl in den Griff zu bekommen scheint.

dargo
2008-06-07, 13:56:11
Ich rede von der 4870X2 bzw. der 260/280GTX.....also der neuen Generation!
Die schlucken noch einiges mehr als meine beiden Kärtchen!
Nein, eine G260GTX verbraucht weniger als dein CF, und die G280GTX eventuell etwas mehr. In Idle verbraucht dein CF mehr als die beiden Geforce-Next.

Gast
2008-06-07, 13:59:22
abwarten Tee trinken ,mich würde es nicht wundern wenn der Spaaaarmodus 2D oder Idle nur auf NfurzBrettern geht.

Eggcake
2008-06-07, 14:07:25
Na glaubst vielleicht die X2 wird günstiger als die GTX280?
Preise kann man nicht vergleichen ohne die Leistung zu beleuchten!
Hä? Keiner will für 250€ ne ATI-Karte mit der Leistung von ner 600€ NV-Karte. Natürlich "wollen" schon, doch das existiert nicht. Ich bin auch einer der keine 400-600€ für ne Grafikkarte ausgibt, und da ist ATI die einzige Wahl für mich bei der neuen Generation.

Aber keiner spricht davon für 250€ ne stärkere Karte zu kriegen als für 600€...

dargo
2008-06-07, 14:09:59
abwarten Tee trinken ,mich würde es nicht wundern wenn der Spaaaarmodus 2D oder Idle nur auf NfurzBrettern geht.
Ach, und die 45W Idle der G9800GTX sind auch schon mit HSLI? :rolleyes:
http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0

Gast
2008-06-07, 14:19:12
G9800GTX...? Kenn ich nicht und der freudiger Aufschrei des wenig Verbrauchs ist mir wohl auch entgangen.
Die 18 der ATI ist wenig find ich wenn du schon so Vergleiche rausholst und dann auch noch auf die G200 Monster abwälzt.

dargo
2008-06-07, 14:25:20
G9800GTX...?
Dir ist wohl die NV-Folie entgangen. :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6549656&postcount=398

PS: die Lastwerte nicht ernst nehmen. Da scheint ein CPU-Limit im Spiel gewesen zu sein.

GeneralHanno
2008-06-07, 14:29:46
man muss ja auch zwischen mittleren last-verbrauch unter last und lastspitzen (die gerne mal bei ÜBER 200W liegen) unterscheiden ... ;)

Sorkalm
2008-06-07, 14:35:18
zumal man ja scheinbar die MR bei ATI wohl in den Griff zu bekommen scheint.

Wo siehst du denn das?

dargo
2008-06-07, 14:38:14
man muss ja auch zwischen mittleren last-verbrauch unter last und lastspitzen (die gerne mal bei ÜBER 200W liegen) unterscheiden ... ;)
Xbitlabs misst den realen Verbrauch. Die Lastspitzen werden von der c´t erfasst. Diese interessieren mich aber weniger da sie nur für X ms auftreten.

GeneralHanno
2008-06-07, 14:40:30
für ein träges kühlsystem ist natürlich nur der reale mittel verbrauch interessant. für die dimensionierung eines NT sollte man aber mit den lastspitzen kalkulieren ;)

dargo
2008-06-07, 14:43:13
für ein träges kühlsystem ist natürlich nur der reale mittel verbrauch interessant. für die dimensionierung eines NT sollte man aber mit den lastspitzen kalkulieren ;)
Kann man so oder so sehen. Jedes (Marken)-NT hat für X ms einen gewissen Puffer. Außerdem laste ich mein NT bzw. wähle es so aus, dass es eh nie größer ~80% ausgelastet wird. Zur Sicherheit halt.

Snoopy69
2008-06-07, 14:53:48
Xbitlabs misst den realen Verbrauch. Die Lastspitzen werden von der c´t erfasst. Diese interessieren mich aber weniger da sie nur für X ms auftreten.
Ein Fehler!!!
Man muss sich dann nicht wundern, wenn das ein oder andere Sys. abkackt, weil das NT solche kurzen Leistungsspitzen vielleicht nicht liefern kann.
Hochwertiges NT hin- oder her - jedes NT altert! Ein altes, sehr hochwertiges und starkes NT schwächelt mit der Zeit mehr und mehr.

btw: Der Begriff "Marken-NT" ist unglücklich gewählt von Manchen. Alle NTs haben eine Marke.
Hochwertiges NT trifft es besser.

Chris2CB
2008-06-07, 14:59:43
Kann man so oder so sehen. Jedes (Marken)-NT hat für X ms einen gewissen Puffer. Außerdem laste ich mein NT bzw. wähle es so aus, dass es eh nie größer ~80% ausgelastet wird. Zur Sicherheit halt.


Hier begrenzt nur der eigene Geldbeutel, bei den aktuellen Enermax Serien ist es so das je stärker das NT desto effizienter sind diese. Bei Seasonic ists auch so. Auch im niedrigen Watt Berreich ist ein 600er besser als ein 400er und aus Sicherheitsgründen bzw. Schutz vor unzureichender Versorgung ist es doch besser das alle lastspitzen zusammen das NT nicht mehr als zu 80% auslasten.

Gast
2008-06-07, 15:16:04
Mein 530W bequiet zieht auch ohne Probleme ein GTS-SLI (mit OC (G80)). Mit meinem kleinen Wolfdale + OC geht der Verbrauch nicht über 400 Watt, eher ~370. Ich glaube da wäre noch mehr als genug Luft für einen großen Quad mit OC.

Hast ja auch 2 getrennte 12V Schienen, die eine macht glaub 18A die andere ~26A. Wenn also die GTX280 drin sitzt und ihre 16A verlangt, bekommt sie die aus beiden Schienen verteilt.

Snoopy69
2008-06-07, 15:28:09
Ob mein NT (Sig.) 2x GTX280 mitmachen würde? Ich hoffe aber, dass eine schon ausreicht.

Marodeur
2008-06-07, 15:42:39
Hmpf, mit meinem 24-Zöller muss ich jetzt direkt halbwegs aktuell bleiben was Grafikkarten betrifft. Kein Vorteil ohne Nachteil... :/

Ich geh mal recht in der Annahme das mein 400W-Netzteil (Revoltec Chromus II) das für die 8800GT und übertaktetem C2D noch locker reicht bei den neuen von NV langsam an die Grenze kommt?

Snoopy69
2008-06-07, 15:52:14
Könnte gehen, aber OC mit dem NT wird etwas knapp. 500W wären besser.
Mit dem 24" war es dir doch von vorneherein klar, dass man eine fette Graka braucht, wenn man nativ spielen will, oder? :D

Gast
2008-06-07, 16:24:46
Man muss sich dann nicht wundern, wenn das ein oder andere Sys. abkackt, weil das NT solche kurzen Leistungsspitzen vielleicht nicht liefern kann.

die leistungsspitzen müssen nicht vom netzteil abgedeckt werden, für ein paar ms reichen auch die kondensatoren in der spannungsversorgung.

Snoopy69
2008-06-07, 16:26:47
Wenn die Spitzen aber sehr hoch sind, sinkt die Pufferungszeit :wink:

Gast
2008-06-07, 16:29:33
Da gibt es gar keine Puffer!
Rechnet doch mal aus, wie gross ein Kondensator sein müsste, um ohne Spannungsverlust für ein paar ms ein paar zig Ampere liefern zu können.

Gast
2008-06-07, 16:33:26
Ob mein NT (Sig.) 2x GTX280 mitmachen würde? Ich hoffe aber, dass eine schon ausreicht.

Aber der E6600 auf keinen Fall :P

Snoopy69
2008-06-07, 16:36:59
Puffern schon, aber nicht so hohe Stromspitzen. Sollte klar sein.

Snoopy69
2008-06-07, 16:37:41
Aber der E6600 auf keinen Fall :P
Erklär mal warum? :wink:

Gast
2008-06-07, 17:30:02
Hä? Keiner will für 250€ ne ATI-Karte mit der Leistung von ner 600€ NV-Karte. Natürlich "wollen" schon, doch das existiert nicht. Ich bin auch einer der keine 400-600€ für ne Grafikkarte ausgibt, und da ist ATI die einzige Wahl für mich bei der neuen Generation.

Aber keiner spricht davon für 250€ ne stärkere Karte zu kriegen als für 600€...

Du hast wohl noch nie was von einem G92b gehört?

Gast
2008-06-07, 17:36:40
Du hast wohl noch nie was von einem G92b gehört?

Schon aber warum veraltete hardware kaufen wenn Ati in jeder sache weiter ist...

Schlammsau
2008-06-07, 17:59:09
Du hast wohl noch nie was von einem G92b gehört?

Was meinst du den wann der G92b kommt?
Glaubst du er steht morgen vor der Tür und sagt "Hallo, hier bin ich" ;D
Es wird auch noch ein wenig Zeit vergehen, eher er da ist!

Snoopy69
2008-06-07, 18:04:50
Mal sehen - vielleicht halte ich bis zum G200b durch. Völlig neue Techniken sind ja immer mit Vorsicht zu geniessen.
Eine neue CPU kommt für mich auch nicht in Frage - hat keinen Vorteil in Spielen (nur messbar).
Ich warte wohl auf den Nehalem...

Eggcake
2008-06-07, 18:09:46
Du hast wohl noch nie was von einem G92b gehört?

Von dem war nicht die rede - du solltest die Posts besser lesen.

anddill
2008-06-07, 18:10:15
Da gibt es gar keine Puffer!
Rechnet doch mal aus, wie gross ein Kondensator sein müsste, um ohne Spannungsverlust für ein paar ms ein paar zig Ampere liefern zu können.
Eine CPU oder GPU zieht locker um die 100A. Das liegt in der Größenordnung eines Car-HiFi Verstärkers. Nur daß der größere Spannungsschwankungen abkann. Und jetzt schaut Euch mal die Kondensatoren an, die da zum Puffern verbaut werden...

Gast
2008-06-07, 18:44:19
Schon aber warum veraltete hardware kaufen wenn Ati in jeder sache weiter ist...

das müssen sie erst beweisen.

AnarchX
2008-06-07, 19:10:19
PHK mit ein paar 3DMurks-Ergebnissen von GTX260/280 vs 88U/98GTX/3870X2:
http://img256.imageshack.us/img256/7868/200806076071621f4299b7ezg5.th.jpg (http://img256.imageshack.us/my.php?image=200806076071621f4299b7ezg5.jpg)

tombman
2008-06-07, 19:14:19
PHK mit ein paar 3DMurks-Ergebnissen von GTX260/280 vs 88U/98GTX/3870X2:
http://img256.imageshack.us/img256/7868/200806076071621f4299b7ezg5.th.jpg (http://img256.imageshack.us/my.php?image=200806076071621f4299b7ezg5.jpg)
Extrem enttäuschend!! Nur 58% schneller als eine 8800Ultra :eek:

Und wieso wird die 9800GTX von der 8800Ultra so PHÖSSE gefickt? Nur wegen Speichergröße und Speichermenge? Ist ja ärger krank.

Superheld
2008-06-07, 19:14:31
bisschen mau wie ich finde:cool:

tombman
2008-06-07, 19:19:50
Und wieso schlägt eine 8800Ultra eine 9800GTX auf 1280x1024 OHNE AA in Vantage. Bei den settings kann die Speichermenge+ - Bandbreite doch gar keinen Einfluß haben. Und shadermäßig ist die 9800er doch schneller :confused:

Irgendwas ist da faul?

AnarchX
2008-06-07, 19:21:31
Da klingt doch das vielversprechender:
http://img365.imageshack.us/img365/3882/20080607d6ac1e661e770b4qp0.jpg (http://imageshack.us)

http://img183.imageshack.us/img183/922/2008060784677969aab813ekb8.jpg (http://imageshack.us)
Also doch Clock-Gating.

Und wieso schlägt eine 8800Ultra eine 9800GTX auf 1280x1024 OHNE AA in Vantage. Bei den settings kann die Speichermenge+ - Bandbreite doch gar keinen Einfluß haben. Und shadermäßig ist die 9800er doch schneller :confused:

Irgendwas ist da faul?
Ja, die Ultra ist definitiv etwas zu schnell, wenn man sich die Ergebnisse bei CB anschaut:
http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/6/#abschnitt_overallscore
... aber ist auch ein neuerer Treiber.

GeneralHanno
2008-06-07, 19:23:14
das ist schon so korrekt. vergleich mal die 8800GTS512 und die ULTRA hier:
http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/6/#abschnitt_messungen_verschiedener_grafikkarten

kann es sein, dass der 3DMV ziemlich z-fill limitiert ist?

€dit: klasse. ein echter 2d modus ABSEITS von HSLI *freu*

gamingforce
2008-06-07, 19:23:54
PHK mit ein paar 3DMurks-Ergebnissen von GTX260/280 vs 88U/98GTX/3870X2:
http://img256.imageshack.us/img256/7868/200806076071621f4299b7ezg5.th.jpg (http://img256.imageshack.us/my.php?image=200806076071621f4299b7ezg5.jpg)


das doch Bullshit, ne Ultra hat in P nicht nur 6625 und ne X2 in Extreme nicht 2181 sondern 3004 (bei mir) und ich hab nur nen Phenom 3 Ghz.

Die GTX280 Punkte denk ich auch net das die richtig sind weil dann haben 2x8800GTS 512 Mb schneller (hab ich vorher gehabt und hatte 10600) und das glaub ich her nicht.

tombman
2008-06-07, 19:25:40
Grr, verdammter NETZ-BULLSHIT :mad:

Ich will endlich verläßliche benchmarks :(

gamingforce
2008-06-07, 19:26:43
die Benchmarks die ich glaube sind dann die die ICH selber mache und keine anderen :biggrin:

Gast
2008-06-07, 19:32:29
Naja viel mehr wird es dann auch nicht werden.Ihr habt euch einfach zuviel versprochen.

schade das der Chip auch so teuer ist...Für Nvidia wird sich der 8800 traum mit sicherheit nicht wiederhollen...

maddawn
2008-06-07, 19:33:51
PHK mit ein paar 3DMurks-Ergebnissen von GTX260/280 vs 88U/98GTX/3870X2:
http://img256.imageshack.us/img256/7868/200806076071621f4299b7ezg5.th.jpg (http://img256.imageshack.us/my.php?image=200806076071621f4299b7ezg5.jpg)
also doch nur 50% mehr Gesamtperformance und nicht 50% schnellere Shaderpipelines, ist die Effizienz nicht stark verbessert wurden sondern der Chip nur verbreitert (GPU/Speicherinterface und Speicherausbau)?

GeneralHanno
2008-06-07, 19:34:40
G200= brute force (vom G80)

RV770 = brute force (vom RV670)

tombman
2008-06-07, 19:36:29
also doch nur 50% mehr Gesamtperformance und nicht 50% schnellere Shaderpipelines, ist die Effizienz nicht stark verbessert wurden sondern der Chip nur verbreitert (GPU/Speicherinterface und Speicherausbau)?
Wie die den Preis bei nur +50% durchdrücken wollen...

mapel110
2008-06-07, 19:41:04
Die Benchmarks sind doch gefaked.... Da stimmt einiges nicht. Speziell die Performance von der 3870 X2.

Odal
2008-06-07, 19:41:12
das doch Bullshit, ne Ultra hat in P nicht nur 6625 und ne X2 in Extreme nicht 2181 sondern 3004 (bei mir) und ich hab nur nen Phenom 3 Ghz.

Die GTX280 Punkte denk ich auch net das die richtig sind weil dann haben 2x8800GTS 512 Mb schneller (hab ich vorher gehabt und hatte 10600) und das glaub ich her nicht.


doch GTX280<=2xG92 ist genau das was ich spekuliert hab ^^

Gast
2008-06-07, 19:42:07
Die Benchmarks sind doch gefaked.... Da stimmt einiges nicht. Speziell die Performance von der 3870 X2.


richtig aber das ist ja der nv thread:)

dildo4u
2008-06-07, 19:43:35
Die Benchmarks sind doch gefaked.... Da stimmt einiges nicht. Speziell die Performance von der 3870 X2.
Uralter Treiber 8.3.

maddawn
2008-06-07, 19:44:26
Wie die den Preis bei nur +50% durchdrücken wollen...
edit: ich als Leihe frag mich wieso die GPU so groß geworden ist und wieso sie 1,4Mrd-Transistoren hat, wenn dann "nur" 50-60% Mehrperformance rausspringen

mapel110
2008-06-07, 19:46:04
doch GTX280<=2xG92 ist genau das was ich spekuliert hab ^^

1.4 Milliarden Transistoren gegenüber 2x754 Mio im Nachteil? Also wenn du das glaubst....
Allein SLI frisst etliches auf und obendrein musste man logischerweise nicht alles verdoppelt bei GT200. Videoprozessor ist nur einmal vorhanden etc pp.

mapel110
2008-06-07, 19:46:59
Uralter Treiber 8.3.
CB hat den Vantage auch mit dem 8.3 gebencht. STimmt trotzdem nicht.

GeneralHanno
2008-06-07, 19:47:00
jetzt spekuliert doch nicht über so einen dämlichen vermutlich gefälschten schwanzmark wert.

ich finds viel wichtiger, dass der G200 spannung und taktrate dynamisch ändern kann und nicht benötigte cluster abschalten!

Gast
2008-06-07, 19:48:34
ATI wir Nvidia diesmal plattmachen.

4870X2 = 2,4 TFlops
GTX280 = 933 GFlops

Dazu kostet die X2 noch 100 bis 150 $ weniger und hat auch kein Mikroruckelproblem mehr, da shared Memory verwendet wird wie vermutet.

http://forums.vr-zone.com/showthread.php?t=285719

Odal
2008-06-07, 19:48:42
1.4 Milliarden Transistoren gegenüber 2x754 Mio im Nachteil? Also wenn du das glaubst....
Allein SLI frisst etliches auf und obendrein musste man logischerweise nicht alles verdoppelt bei GT200. Videoprozessor ist nur einmal vorhanden etc pp.


ja und du glaubst wohl das meiste eines chips intern doppelt so breit zu machen lässt die leistung mit 100% effizienz anwachsen?

dildo4u
2008-06-07, 19:48:52
CB hat den Vantage auch mit dem 8.3 gebencht. STimmt trotzdem nicht.
"ATi Catalyst 64-8-471-1-080425-62964 (wahrscheinlich eine Betaversion vom Catalyst 8.4) zum Einsatz."

http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/6/#abschnitt_overallscore

Gast
2008-06-07, 19:49:25
sieht schwer nach flop aus

mapel110
2008-06-07, 19:49:58
ja und du glaubst wohl das meiste eines chips intern doppelt so breit zu machen lässt die leistung mit 100% effizienz anwachsen?
Ich denke sogar mehr, weil mehr Know How einfließen kann in jedliche Funktion.

dildo4u
2008-06-07, 19:50:19
edit: ich als Leihe frag mich wieso die GPU so groß geworden ist und wieso sie 1,4Mrd-Transistoren hat, wenn dann "nur" 50-60% Mehrperformance rausspringen
Es sind 130% siehe G9800GTX.Der 8800 Ultra Wert unter 1920*1200 bei Vantage ist zu hoch im Vergleich zum G92 selbst in der Auflösung limitiert der V-Ram und die Bandbreite nicht siehe 9800GX2.

http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/6/#abschnitt_overallscore

Gast
2008-06-07, 19:51:41
die x2 und ultra werte sind lachhaft.

tombman
2008-06-07, 19:55:19
Vantage P (=1280x1024, no AA):
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6563328&postcount=131

8800Ultra: 6625
9800GTX: 5816

Ja genau --> BULLSHIT

Grestorn
2008-06-07, 19:56:07
Dazu kostet die X2 noch 100 bis 150 $ weniger und hat auch kein Mikroruckelproblem mehr, da shared Memory verwendet wird wie vermutet.

Shared Memory ist hier ein Nachteil (abgesehen davon dass man mit dem halben Speicher auskommt und die Texturen nur einmal über den Bus müssen). Aber vorallem ändert Shared Memory absolut nichts am MicroRuckler Problem.

Ich weiß gar nicht, wie Du auf diesen Trichter kommst.

dildo4u
2008-06-07, 19:58:15
Vantage P (=1280x1024, no AA):

8800Ultra: 6625
9800GTX: 5816

Ja genau --> BULLSHIT
Der P Wert stimmt Vantage läuft auf G80 leicht besser.Aber der Xtreme Wert der Ultra is ca 500 Punkte zu hoch.

P Wert 9800GTX und 8800 Ultra
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/7/#abschnitt_3dmark_vantage


Ultra unter Xtreme.
http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/6/#abschnitt_overallscore

Snoopy69
2008-06-07, 19:59:11
PHK mit ein paar 3DMurks-Ergebnissen von GTX260/280 vs 88U/98GTX/3870X2:
http://img256.imageshack.us/img256/7868/200806076071621f4299b7ezg5.th.jpg (http://img256.imageshack.us/my.php?image=200806076071621f4299b7ezg5.jpg)
Wieso postet du das?

tombman
2008-06-07, 20:06:01
Der P Wert stimmt Vantage läuft auf G80 leicht besser.Aber der Xtreme Wert der Ultra is ca 500 Punkte zu hoch.

Ok, aber mit 2500 für die Ultra würds wieder passen ;)
4800:2500 ~ 1.9 ;)

Also genau was wir erwarten, nämlich: GTX280 = 8800ULTRA @ SLI MINUS MR ;D

Spasstiger
2008-06-07, 20:09:17
Da gibt es gar keine Puffer!
Exakt. Die Kondensatoren in der Spannungsversorgung auf einem PCB dienen nur dazu, um die Gleichspannung vom hochfrequenten Signal zu entkoppeln.

Snoopy69
2008-06-07, 20:09:39
Also genau was wir erwarten, nämlich: GTX280 = 8800ULTRA @ SLI MINUS MR ;D
Ich will´s hoffen

dildo4u
2008-06-07, 20:10:08
Die meisten Testwerte vorallem vom 06 3DMark sind eh massiv CPU limitiert zum Glück testet Computerbase mit 4GHz statt den 3Ghz von diesem Test.

Blaire
2008-06-07, 20:40:51
http://img365.imageshack.us/img365/3882/20080607d6ac1e661e770b4qp0.jpg

^^ Das zeigt doch schonmal wo die Reise hingeht. Crysis auf 2560x1600 hat bisher kein Quad oder Triple SLI ansatzweise geschafft in spielbare FPS darzustellen.

Gast
2008-06-07, 20:58:42
Dazu kostet die X2 noch 100 bis 150 $ weniger und hat auch kein Mikroruckelproblem mehr, da shared Memory verwendet wird wie vermutet.


mikroruckler haben genau garnichts mit shared memory zu tun, im gegenteil, wenn der speicher geteilt wird könnten sich die GPUs prinzipiell beim speicherzugriff gegenseitig blockieren, was mit einem extra-speicher für jede gpu nicht passieren kann.

Gast
2008-06-07, 20:59:11
Zumindest sieht man aber das der G200 die theoretische Performance auf die Straße bringt, ok die is zu klein, der geht gleich auf die Autobahn ^^

Is die Frage, wie der G92b den Midrange besetzen kann oder ob nV den Midrange G200 noch vor RV870 bringen muss, bzw. der 55nm G200 vor November an den Start geht.
Noch eine Woche o.O

Snoopy69
2008-06-07, 21:00:15
http://img365.imageshack.us/img365/3882/20080607d6ac1e661e770b4qp0.jpg

^^ Das zeigt doch schonmal wo die Reise hingeht. Crysis auf 2560x1600 hat bisher kein Quad oder Triple SLI ansatzweise geschafft in spielbare FPS darzustellen.
Ob´s stimmt, werden wir ja sehen. Nach meiner Erfahrung wird oft gerne übertrieben.

tombman
2008-06-07, 21:20:56
Ob´s stimmt, werden wir ja sehen. Nach meiner Erfahrung wird oft gerne übertrieben.

Langsamer als eine GX2 DÜRFEN sie nicht sein (und zwar in JEDEM benchmark, also NIX Speicherlimit und co.), ansonsten gibts Auslache und böse reviews im Netz -> not gonna happen ;)

gamingforce
2008-06-07, 21:25:22
http://img365.imageshack.us/img365/3882/20080607d6ac1e661e770b4qp0.jpg

^^ Das zeigt doch schonmal wo die Reise hingeht. Crysis auf 2560x1600 hat bisher kein Quad oder Triple SLI ansatzweise geschafft in spielbare FPS darzustellen.


das sagt garnix ;)

2560x1600 in DX10 kann ich auch locker.............alles MIN ;D

ne, da ist ja nichts ersichlich ob nun Very High oder AA und AF an sein soll.

gamingforce
2008-06-07, 21:25:43
Langsamer als eine GX2 DÜRFEN sie nicht sein (und zwar in JEDEM benchmark, also NIX Speicherlimit und co.), ansonsten gibts Auslache und böse reviews im Netz -> not gonna happen ;)
so seh ich das auch.

Spasstiger
2008-06-07, 21:30:53
Bei hohen Qualieinstellungen (1920x1080 und höher mit hochwertigem AA-Modus) wird die 9800 GX2 eh keine wirkliche Konkurrenz sein, da hier schon die 8800 GTX gut mithält.

tombman
2008-06-07, 21:32:33
Bei hohen Qualieinstellungen (1920x1080 und höher mit hochwertigem AA-Modus) wird die 9800 GX2 eh keine wirkliche Konkurrenz sein, da hier schon die 8800 GTX gut mithält.
Die GTX280 wird auch ohne SPeicherprobleme der GX2 davonziehen ;)

Gast
2008-06-07, 21:33:16
shared speicher würde erlauben, natürlich nur bei einer entsprechenden logik, dass die prerendered bilder im richtigen "takt" ausgegeben werden. die logik dürfte ziemlich einfach sein. dabei greift diese einfach auf die gerenderten bilder zu, und gibt diese im richtigen (oder einfach fürs auge nicht mehr sichtbaren bereich) zyklus aus. rein theoretisch ist dies auch bei exklusivem speicher möglich, kostet halt in beiden fällen fps...

Grestorn
2008-06-07, 21:37:43
Sorry, aber ob das memory shared ist oder nicht, hat überhaupt keinen Einfluss darauf, wann der Treiber das Bild freigibt und der CPU somit erlaubt das nächste Frame zu rendern.

Snoopy69
2008-06-07, 21:45:30
Trotzdem - 512MB sind einfach zu wenig...
Mit 768MB oder mehr wäre die 9800GTX in jedem Bereich schneller.

Godmode
2008-06-07, 21:55:31
Was hier eigentlich noch gar nicht betrachtet wurde, ist die Vergrößerung der Register-Files/Chaches beim GT200. Bei B3D meinte jmd. das diese im Vergleich zum G80 vergrößert wurden.

Wenn ich Werte aus den Registern, bzw Caches lesen kann, brauche ich nicht so oft auf den vergleichsweise langsamen RAM zugreifen, bzw kann ich die Latenzen beim Zugriff verstecken. Dadurch sollte eine bessere Auslastung der ALUs erreicht werden.

Ich bin schon sehr auf entsprechende Artikel gespannt, was Auslastung und theoretische GFlops betrifft.

edit: jetzt habe ich die Quelle gefunden, es war CJ der es anscheinend aus den Unterlagen herausgelesen hat.
http://forum.beyond3d.com/showpost.php?p=1168189&postcount=1790

mapel110
2008-06-07, 21:58:37
Trotzdem - 512MB sind einfach zu wenig...
Mit 768MB oder mehr wäre die 9800GTX in jedem Bereich schneller.
Mit mehr Bandbreite wäre sie schneller.... Was für Vergleiche von 1024 vs 512 habt ihr eigentlich gesehen, dass ihr glaubt, der Vram-Verbrauch von nvidia wäre derart krankhaft?! :|

Snoopy69
2008-06-07, 22:05:44
Mit mehr Bandbreite wäre sie schneller.... Was für Vergleiche von 1024 vs 512 habt ihr eigentlich gesehen, dass ihr glaubt, der Vram-Verbrauch von nvidia wäre derart krankhaft?! :|
Ich liege ständig ÜBER 512MB Vram...

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/

dildo4u
2008-06-07, 22:07:07
Mit mehr Bandbreite wäre sie schneller.... Was für Vergleiche von 1024 vs 512 habt ihr eigentlich gesehen, dass ihr glaubt, der Vram-Verbrauch von nvidia wäre derart krankhaft?! :|
http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/&page=3

Gast
2008-06-07, 22:11:21
shared speicher würde erlauben, natürlich nur bei einer entsprechenden logik, dass die prerendered bilder im richtigen "takt" ausgegeben werden.

es nützt nichts wenn die "falschen" bilder "richtig" ausgegeben werden.

man könnte auch jetzt schon einfach die ausgabe der einzelnen frames steuern, was aber nichts bringen würde, da der beginn des renderings und damit der inhalt des frames selbst zeitlich falsch sind.

mapel110
2008-06-07, 22:20:26
Ich liege ständig ÜBER 512MB Vram...

Das spielt keine Rolle. Kannst du dir gerne von Razor bestätigen lassen.

und der CB-Test mit seinen tollen Jericho und UT3-Benchmarks ist leider auch kaum was wert.
http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/&page=3
Die Radeon lagert auch aus. Und weiter?! Schau dir mal an, welche Grafikkarte in 2500er Auflösung in dem Game auf einmal schneller ist als die Radeon, obwohl sie vorher langsamer als diese war...

Snoopy69
2008-06-07, 22:29:55
Das spielt keine Rolle. Kannst du dir gerne von Razor bestätigen lassen.

und der CB-Test mit seinen tollen Jericho und UT3-Benchmarks ist leider auch kaum was wert.

Kann mir nicht vorstellen, dass CB sich so blamieren will. Wo sind denn 3DC-eigene Tests?

Gast
2008-06-07, 23:16:15
Das spielt keine Rolle. Kannst du dir gerne von Razor bestätigen lassen.

und der CB-Test mit seinen tollen Jericho und UT3-Benchmarks ist leider auch kaum was wert.

Die Radeon lagert auch aus. Und weiter?! Schau dir mal an, welche Grafikkarte in 2500er Auflösung in dem Game auf einmal schneller ist als die Radeon, obwohl sie vorher langsamer als diese war...
jop, verwunderlich... evnt, genau aus diesem grund, da in so einer hohen auflösung das defensivere auslagern "wirkung" zeigt.

Gast
2008-06-07, 23:43:48
Was hier eigentlich noch gar nicht betrachtet wurde, ist die Vergrößerung der Register-Files/Chaches beim GT200. Bei B3D meinte jmd. das diese im Vergleich zum G80 vergrößert wurden.

Wenn ich Werte aus den Registern, bzw Caches lesen kann, brauche ich nicht so oft auf den vergleichsweise langsamen RAM zugreifen, bzw kann ich die Latenzen beim Zugriff verstecken. Dadurch sollte eine bessere Auslastung der ALUs erreicht werden.

Ich bin schon sehr auf entsprechende Artikel gespannt, was Auslastung und theoretische GFlops betrifft.

edit: jetzt habe ich die Quelle gefunden, es war CJ der es anscheinend aus den Unterlagen herausgelesen hat.
http://forum.beyond3d.com/showpost.php?p=1168189&postcount=1790

Geht eher darum die ganze Architektur auch füttern zu können, es sind mehr Einheiten einfach. Die Auslastung war/ist schon sehr hoch, in wieweit die 2. MUL Einheit noch mehr abverlangt, sehen wir bald.

Gast
2008-06-07, 23:48:17
BTW bin ich gespannt ob das SI immer noch den Chip ausbremst wie beim G92 ;)
Ein G200b mit nur 256Bit GDDR5 SI hätte das große Problem, das sich damit die Anzahl der ROPs wieder reduziert, aber 512Bit GDDR5 ist vieleicht doch nicht der "Overkill" den man vermutet ^^

Odal
2008-06-08, 01:34:11
beim G92 bremmst das SI nicht wirklich in dem maße...schaut man sich den speziellen test an profitiert der G92 an 1. stelle von der erhöhung des Core Taktes an 2. stelle von erhöhung des Shadertaktes und erst an 3. stelle von erhöhtem speichertakt und somit mehr speicherbandbreite

Gast
2008-06-08, 01:54:18
Wie will man das den Testen? Man kann einem G92 durch etwas mehr Takt am Speicher eben nicht gleich 30-40GB mehr zur Verfügung stellen!

Zudem müssten da die Treiber noch dafür Optimiert sein.

Gast
2008-06-08, 07:15:01
Bei hohen Qualieinstellungen (1920x1080 und höher mit hochwertigem AA-Modus) wird die 9800 GX2 eh keine wirkliche Konkurrenz sein, da hier schon die 8800 GTX gut mithält.

Das stimmt nicht div.Tests hin oder her in 1920x1200 mit 4xAA passiert garnix mit der GX2 es ist ihr schlichtweg egal,deshalb sage ich ja abwarten was der G200 in der Auflösung schafft.Den 2500x für 30" juckt die wenigsten.

Ailuros
2008-06-08, 07:41:04
BTW bin ich gespannt ob das SI immer noch den Chip ausbremst wie beim G92 ;)
Ein G200b mit nur 256Bit GDDR5 SI hätte das große Problem, das sich damit die Anzahl der ROPs wieder reduziert, aber 512Bit GDDR5 ist vieleicht doch nicht der "Overkill" den man vermutet ^^

G92 mangelt es weder an Pixel- noch an Z-Fuellrate, sondern an Bandbreite. Wie man eine X notwendige Bandbreite dann in der Zukunft anzielt ist egal und nein kein IHV ist so bloed und ueberfuettert unnoetig einen chip sowohl mit Bandbreite als auch mit ueberfluessigen ROPs die relativ teuer sind.

Schon 1800GHz GDDR5@512bit waeren 230GB/s. Was soll denn ein solcher chip grossartiges haben im Vergleich zu GT200 dass er ploetzlich so viel mehr Bandbreite wirklich brauchen wuerde?

Odal
2008-06-08, 08:50:55
Wie will man das den Testen? Man kann einem G92 durch etwas mehr Takt am Speicher eben nicht gleich 30-40GB mehr zur Verfügung stellen!

Zudem müssten da die Treiber noch dafür Optimiert sein.

von besonderen treiberoptimierungen bzgl. bandbreite hör ich zum ersten mal...wohl eher auf die speichermenge

G92 mangelt es weder an Pixel- noch an Z-Fuellrate, sondern an Bandbreite. Wie man eine X notwendige Bandbreite dann in der Zukunft anzielt ist egal und nein kein IHV ist so bloed und ueberfuettert unnoetig einen chip sowohl mit Bandbreite als auch mit ueberfluessigen ROPs die relativ teuer sind.

Schon 1800GHz GDDR5@512bit waeren 230GB/s. Was soll denn ein solcher chip grossartiges haben im Vergleich zu GT200 dass er ploetzlich so viel mehr Bandbreite wirklich brauchen wuerde?

nur wieso reagiert er dann aus bandbreitenerhöhung kaum?
http://www.hardware-infos.com/tests.php?test=40&seite=7
und die viele bandbreite hat dem r600 doch 0 gebracht sollte die g80/92 architektur soviel mehr bandbreite fressen?

Gast
2008-06-08, 09:37:36
Hast du, Odal, noch einen solchen Test zur Hand? Glaub 1680*1050 4xAA is noch nicht die Grenze des SI erreicht, denke mal ab 1920*1200 4xAA und darüber sieht man es besser, allerdings is dann der VRAM auch langsam am Ende.

Eventuell meint Ailuros auch die interne Bandbreite und Register/Caches?

Gast
2008-06-08, 10:01:21
Dicker Spekulatius:

Der G200 hat im Treibermenu einen Schieberegler mit dem man die Leistung einstellen kann. Das wird in etwa so aussehen 25%, 50% ,75% und 100%. Bei den jeweiligen % Werten steht dann auch in W die maximale Verlustleistung bei.
Um eine ATI X2 zu schlagen braucht eine GTX nur 50% Ihrer Leistung und verbraucht dabei weniger Strom als die ATI Karte. Idle verbrauch ist bei der GTX auch geringer.

MfG

Adam D.
2008-06-08, 10:30:58
Sorry, aber: ;D

Gast
2008-06-08, 10:34:27
Sorry, aber: ;D

weiss net was es da zu rollen gibt, wir werden es sehen ^^

Adam D.
2008-06-08, 10:36:47
weiss net was es da zu rollen gibt, wir werden es sehen ^^
Kein IHV wird die Leistung ihrer Chips hardware-seitig beschränken lassen. Was wäre das denn? Der Idle-Modus ist das einzig sinnvolle. Und wie gesagt, zur Performance kann man einfach noch nix sagen. Ob der G200 nur 50% seiner Leistung braucht, um die HD4800X2 zu schlagen, sei mal dahin gestellt, ich bezweifle es.

Gast
2008-06-08, 10:41:24
Kein IHV wird die Leistung ihrer Chips hardware-seitig beschränken lassen. Was wäre das denn? Der Idle-Modus ist das einzig sinnvolle. Und wie gesagt, zur Performance kann man einfach noch nix sagen. Ob der G200 nur 50% seiner Leistung braucht, um die HD4800X2 zu schlagen, sei mal dahin gestellt, ich bezweifle es.

Es geht um den Last Stromhunger und darum das man nicht immer die vollen 100% Leistung braucht. Vielleicht ist es auch nur nen Marketing Feature um ATI mal wieder richtig einen auszuwischen.

Vielleicht wird sie 75% brauchen das ist realistischer.

Aber wie gesagt reiner Spekulatius und muss nix mit der Realität zu tun haben.

MfG

mapel110
2008-06-08, 10:43:43
So ein Regler macht wenig Sinn. Wenn zu viel Leistung da ist, kann man auch Vsync einschalten und/oder die fps limitieren, wenns die Engine hergibt (quake3-Eingine kanns ja). Das lässt den Chip dann auch schon nicht mehr unter Vollast laufen.

Adam D.
2008-06-08, 10:44:10
Es geht um den Last Stromhunger und darum das man nicht immer die vollen 100% Leistung braucht. Vielleicht ist es auch nur nen Marketing Feature um ATI mal wieder richtig einen auszuwischen.

Vielleicht wird sie 75% brauchen das ist realistischer.

Aber wie gesagt reiner Spekulatius und muss nix mit der Realität zu tun haben.

MfG
Hmm, aber das ist doch Unsinn, findest du nicht? Im Idle braucht man kaum Leistung, deshalb fährt man das Ding ja auch mächtig runter. Aber in einer 3D-Umgebung kann man eine Karte immer ans Maximum bringen, deshalb halte ich hier eine Regulierung für Blödsinn. Man muss doch das Potential einer Karte richtig ausnutzen können.

PS: Nach aktuellen Spekulationen: 2xHD4870>GTX280 (bei sehr guter Crossfire-Skalierung natürlich)

Gast
2008-06-08, 10:46:40
So ein Regler macht wenig Sinn. Wenn zu viel Leistung da ist, kann man auch Vsync einschalten und/oder die fps limitieren, wenns die Engine hergibt (quake3-Eingine kanns ja). Das lässt den Chip dann auch schon nicht mehr unter Vollast laufen.

Spart aber nicht soviel Strom wie eine teilweise deaktivierung des Chips.
Da der Stromverbrauch ein immer mehr diskutiertes Thema ist, bin ich halt der Meinung das son Regler schon irgendwo Sinn macht.

MfG

Gast
2008-06-08, 10:50:23
Spart aber nicht soviel Strom wie eine teilweise deaktivierung des Chips.
Da der Stromverbrauch ein immer mehr diskutiertes Thema ist, bin ich halt der Meinung das son Regler schon irgendwo Sinn macht.

MfG
Wovon träumst du eigentlich?Die Leistung wird genutzt die da ist Basta.Ausserdem weiß Nvidia noch garnicht wie schnell die 4870 ist.

dargo
2008-06-08, 10:55:49
Wie will man das den Testen? Man kann einem G92 durch etwas mehr Takt am Speicher eben nicht gleich 30-40GB mehr zur Verfügung stellen!

Indem man den GPU/Shader- und Speichertakt um zb. 40% untertaktet, mit diesen Daten bencht und den Speicher wieder hochtaktet.

G92 mangelt es weder an Pixel- noch an Z-Fuellrate, sondern an Bandbreite.
Nicht wirklich wie man an der G9800GTX im Vergleich zur G8800GTS512 sieht. :)

Odal
2008-06-08, 11:07:10
Hast du, Odal, noch einen solchen Test zur Hand? Glaub 1680*1050 4xAA is noch nicht die Grenze des SI erreicht, denke mal ab 1920*1200 4xAA und darüber sieht man es besser, allerdings is dann der VRAM auch langsam am Ende.

Eventuell meint Ailuros auch die interne Bandbreite und Register/Caches?


leider hab ich keine anderen benches zur hand..ich müsste mir höchstens die mühe machen selbst welche durchzuführen
vielleicht mach ich das sogar mal mit company of heroes (ist ja sehr speicherhungrig somit die wahrscheinlichkeit auf häufigen und intensiven speicherzugriff gegeben) und hat einen guten internen benchmark
das ganze natürlich mit SSAA um eine hohe auflösung zu simulieren und MSAA also hybrid

es gibt keine "Grenze des SI" die last skaliert doch über den kompletten chip

Unyu
2008-06-08, 11:14:24
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_zotac_geforce_9800_gtx_amp_edition/3/#abschnitt_benchmarks
4,5% mehr Bandbreite: nur im unspielbaren Crysis bei 4xMSAA limitiert die Bandbreite. :)

Gast
2008-06-08, 11:25:53
Wovon träumst du eigentlich?Die Leistung wird genutzt die da ist Basta.Ausserdem weiß Nvidia noch garnicht wie schnell die 4870 ist.

Wenn jemand ausser Ati weiss, wie schnell die 4000er Reihe ist, dann ist es Nvidia.
In dem Moment, wo Ati ihre Karten an Test-Pages/Journalisten rausgibt, weiss auch NV was auf sie zukommt.
Bist du so naiv, das du glaubst die hätten keine Quellen?
Umgekehrt wird das kaum anders sein.

Odal
2008-06-08, 11:36:20
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_zotac_geforce_9800_gtx_amp_edition/3/#abschnitt_benchmarks
4,5% mehr Bandbreite: nur im unspielbaren Crysis bei 4xMSAA limitiert die Bandbreite. :)

auch in Crysis bringt mehr bandbreite weniger als mehr GPU takt

http://www.hardware-infos.com/tests.php?test=40&seite=8

Sorkalm
2008-06-08, 11:38:50
Naja, unterschiedliche Szenen können unterschiedliche Limits hervorrufen.

Sagen wir es mal so: Die Bandbreite ist kaum das Limit beim G92.

Odal
2008-06-08, 11:47:33
so ich hab jetzt mal Company of Heroes durchgetestet...

Einstellung trotz Vista DX9 (einzig vernünftig spielbare) und alles auf hoch bzw. ultra

1280x1024 16xAF AA=16xS heisst 2x2 SSAA und 4xMSAA

sprich theoretisch ungefähr auflösung 2560x2048 in 4xAA und 16xAF

88GT hab ich dabei einmal mit halbierten dann vollem und jeweils die GPU/Speicher Kombinationen daraus laufen lassen

GPU=50% Takt Speicher=50% Takt
http://www.abload.de/img/300_750_4509fz.png

GPU=50% Takt Speicher=100% Takt
http://www.abload.de/img/300_750_900906.png

GPU=100% Takt Speicher=50% Takt
http://www.abload.de/img/600_1500_450szl.png

GPU=100% Takt Speicher=100% Takt
http://www.abload.de/img/600_1500_900kvs.png

100% mehr GPU Takt bringen 52% mehr leistung bei den avg. FPS und 78,5% mehr leistung bei den min. FPS

100% mehr Speichertakt (Bandbreite) bringt 14,8% mehr avg. FPS und 22,7% mehr min. FPS

klar müsste man um wirklich hieb und stichfeste werte zu haben ne lange testreihe führen aber die tendenz ist für mich eindeutig...

GPU Leistung bringt dem G92 immer noch deutlich mehr als Bandbreite

dargo
2008-06-08, 12:17:35
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_zotac_geforce_9800_gtx_amp_edition/3/#abschnitt_benchmarks
4,5% mehr Bandbreite: nur im unspielbaren Crysis bei 4xMSAA limitiert die Bandbreite. :)
Nein. Wo siehst du da einen Beweis, dass die Bandbreite in Crysis limitiert? Als ob das das Einzige wäre was den G80 vom G92 unterscheidet. Zum x-ten Mal - der G92 ist was seine Bandbreite angeht gut ausgewogen.

Unyu
2008-06-08, 12:28:29
In dem Test bekommt die 9800GTX:
4,5% mehr Bandbreite
12% mehr Füllrate
12% mehr Shaderleistung
0% mehr VRAM

Jetzt gucke ich auf die Balken: Aha, in einem Spiel ist die übertaktete 9800 GTX 4% schneller als die unübertaktete. -> 1x mal Bandbreiten limitiert/ oder fehlts zufällig am VRAM?

Den G80 im Test einfachen ignorieren, geht doch. :)

Odal
2008-06-08, 12:32:37
In dem Test bekommt die 9800GTX:
4,5% mehr Bandbreite
12% mehr Füllrate
12% mehr Shaderleistung
0% mehr VRAM

Jetzt gucke ich auf die Balken: Aha, in einem Spiel ist die übertaktete 9800 GTX 4% schneller als die unübertaktete. -> 1x mal Bandbreiten limitiert/ oder fehlts zufällig am VRAM?

Den G80 im Test einfachen ignorieren, geht doch. :)


was is denn das für ne logik? die GPU wurde um 12% übertaktet und der speicher um 4,5 und weil die FPS zufällig um 4$ steigen limitiert natürlich die bandbreite? :confused:

so kann man das nicht messen du musst alles extra unter/übertakten und dann messen und vergleichen

Unyu
2008-06-08, 12:39:47
Die Logik reicht um festzustellen, das lediglich in einem Spiel mit einer Einstellung entweder die Bandbreite limitiert oder die VRAM Größe.

Was soll bei den 4% sonst limitieren?

Superheld
2008-06-08, 12:42:01
.....na die Rops:tongue:

Unyu
2008-06-08, 12:42:55
.... die wurden um 12% übertaktet. :confused:

Die limitieren bei den anderen Balken. ;(

Spasstiger
2008-06-08, 13:48:48
Das stimmt nicht div.Tests hin oder her in 1920x1200 mit 4xAA passiert garnix mit der GX2 es ist ihr schlichtweg egal,deshalb sage ich ja abwarten was der G200 in der Auflösung schafft.Den 2500x für 30" juckt die wenigsten.
Ich rede ja nicht nur von 4xMSAA. Jeder, der auf Bildquali steht, schaltet mindestens noch Transparenz-AA dazu, evtl. geht man sogar auf 8xS.

AnarchX
2008-06-08, 14:05:27
http://img152.imageshack.us/img152/2676/20080608fdc53e7275eee77sv2.jpg (http://imageshack.us)

Gast
2008-06-08, 14:06:35
Taktbereinigt ist der G80 einfach schneller als ein G92, der grösste unterschid gibt es aber nur in der Bandbreite und Speichermenge, der rest ist etwa gleich! Die Speichermenge bremst den G92 in nidrigen Auflösung aber sicher nicht aus, also bleibt nur noch die Bandbreite übrig.

Bester Beweis für mich ist das der G92 ab 800MHz durch noch mehr Takt kaum noch mehr Leistung erreicht, wenn man aber den Speicher deutlich Übertaktet steigt die Leistung im Vergleich dann aber wider extrem an, 50MHz Speichertakt sind dann schon mal locker 300-400 Punkte im 3D Mark 06!

Selbst beim G94 kann man dies sehr gut beobachten, da hat man ab 1000MHz ROP durch 100MHz mehr Speichertakt gleich mal 600 Punkte (!!!) mehr im 3D Mark 06!

Gast
2008-06-08, 14:08:29
http://www.abload.de/img/mes5bg.jpg (http://www.abload.de/image.php?img=mes5bg.jpg)

Warum geht die GTX280 so ab ? :ugly:

Die hinkt im 06er sogar der X2 hinterher ;D

Wie war das mit der 3fachen 8800GTX Power ?

Gast
2008-06-08, 14:14:05
Hast du, Odal, noch einen solchen Test zur Hand? Glaub 1680*1050 4xAA is noch nicht die Grenze des SI erreicht, denke mal ab 1920*1200 4xAA und darüber sieht man es besser, allerdings is dann der VRAM auch langsam am Ende.


der relative bandbreitenverbrauch bleibt in jeder auflösung gleich.

Gast
2008-06-08, 14:14:54
So ein Regler macht wenig Sinn. Wenn zu viel Leistung da ist, kann man auch Vsync einschalten und/oder die fps limitieren, wenns die Engine hergibt (quake3-Eingine kanns ja).


da stimme ich dir zu, was aber imo durchaus sinn machen würde, insbesondere bei mobilen GPUs, wäre ein framelimiter im treiber, der würde dann auch etwas sparen.

Nightspider
2008-06-08, 14:23:27
Mal ne Frage:

In Crysis funktioniert doch POM und AF nicht zusammen, soweit ich weiß.

Würde mit DX10.1 wieder beides zusammen funzen ?

Gast
2008-06-08, 14:24:24
Mal ne Frage:

In Crysis funktioniert doch POM und AF nicht zusammen, soweit ich weiß.

Würde mit DX10.1 wieder beides zusammen funzen ?

Ja würde klappen ;)

horn 12
2008-06-08, 14:30:29
Dies ist ja das GELÄMMER! Die GTX würde dafür schon locker reichen, aber wenn es nicht unterstützt wird nutzt einem eine solche Top Grafikkarte dann erneut erbärmich wenig.:mad:
Bestes BEISPIEL ist Assassins Creed, einfach ein Traum mit ner HD3870, klasse Bild und dennoch schnell genug,- vor allem Dank D3D10.1:smile:
Und dies will NV nicht wahrhaben lassen und boikottiert somit den Fortschritt welcher durch D3D10.1 zustande kommen würde.:(

Gast
2008-06-08, 14:34:33
Dies ist ja das GELÄMMER! Die GTX würde dafür schon locker reichen, aber wenn es nicht unterstützt wird nutzt einem eine solche Top Grafikkarte dann erneut erbärmich wenig.:mad:
Bestes BEISPIEL ist Assassins Creed, einfach ein Traum mit ner HD3870, klasse Bild und dennoch schnell genug,- vor allem Dank D3D10.1:smile:
Und dies will NV nicht wahrhaben lassen und boikottiert somit den Fortschritt welcher durch D3D10.1 zustande kommen würde.:(
Die haben doch jetzt schon einen aufgeblähten Chip. Mit D3D10.1 hätte man vielleicht noch mehr Transistoren investieren müssen. Man muss sich vorstellen, 1,4 Mrd. Tr., ein riesengroßer Die und ein Verkaufspreis von nur um die 600 bis 700 Dollar. Das ist alles andere als den Fortschritt zu blockieren. Das ist eher alles ausschöpfen was momentan möglich ist.

Gast
2008-06-08, 14:44:10
Bestes BEISPIEL ist Assassins Creed, einfach ein Traum mit ner HD3870, klasse Bild und dennoch schnell genug,- vor allem Dank D3D10.1:smile:


Naja wenn man Effekte weglässt und dadurch AA aktiv bekommt, weis net ob das im Sinne des Erfinders ist...
Und was Crysis mit einem D3D10.1 Pfad alles darstellen kann, kann niemand hier beantworten oder war der Gast ein Dev? Nein, also.

Gast
2008-06-08, 14:46:24
Naja wenn man Effekte weglässt und dadurch AA aktiv bekommt, weis net ob das im Sinne des Erfinders ist...
Und was Crysis mit einem D3D10.1 Pfad alles darstellen kann, kann niemand hier beantworten oder war der Gast ein Dev? Nein, also.

Was für Effekte werden denn bitte weggelassen?

Gast
2008-06-08, 14:49:26
In Crysis funktioniert doch POM und AF nicht zusammen, soweit ich weiß.

Würde mit DX10.1 wieder beides zusammen funzen ?

das hat nichts mit DX10.1 zu tun, sondern höchstens mit der implementierung des POM-shaders, diese könnte man selbst in SM3 AF-fähig machen.

Gast
2008-06-08, 14:50:30
Was für Effekte werden denn bitte weggelassen?

die meisten partikeleffekte.

Gast
2008-06-08, 15:11:39
die meisten partikeleffekte.
und AF

Gast
2008-06-08, 15:14:07
http://www.abload.de/img/mes5bg.jpg (http://www.abload.de/image.php?img=mes5bg.jpg)

Warum geht die GTX280 so ab ? :ugly:*****

Die hinkt im 06er sogar der X2 hinterher ;D

Wie war das mit der 3fachen 8800GTX Power ?

*******Das wäre weniger als mit meiner GX2.....
Hier stand dochmal was mit 17000 Punkten.

Gast
2008-06-08, 15:15:51
man sind die werte schlecht nicht mal in 2560*1600 kann die sich absetzen,das muss ja jetzt ein alptraum für die nv fanboys sein,was macht ihr nun?

Black-Scorpion
2008-06-08, 15:15:54
Die haben doch jetzt schon einen aufgeblähten Chip. Mit D3D10.1 hätte man vielleicht noch mehr Transistoren investieren müssen. Man muss sich vorstellen, 1,4 Mrd. Tr., ein riesengroßer Die und ein Verkaufspreis von nur um die 600 bis 700 Dollar. Das ist alles andere als den Fortschritt zu blockieren. Das ist eher alles ausschöpfen was momentan möglich ist.
Was hat Fortschritt blockieren damit zu tun das nV einen Riesen unbedingt mit 65µm produzieren will? Das ist den Kunden sche** egal, das sie dadurch 10.1 nicht unterstützen kann den Kunden allerdings nicht egal sein.

T'hul-Nok Razna
2008-06-08, 15:27:46
man sind die werte schlecht nicht mal in 2560*1600 kann die sich absetzen,das muss ja jetzt ein alptraum für die nv fanboys sein,was macht ihr nun?
Wo sind die schlecht? im Vergleich zur 8800Ultra gar nicht mal so übel. Im Gegenteil nun bin ich persönlich auf den Preis der 260 gespannt.
Man bedenke jetzt ganz nüchtern das der 3DMark nun wirklich nicht die "Referenz" darstellt, ergo schön brav warten wie die sich auch in anderen Game schlagen wird.
Mir pers. ist aber die max. Verlustleistung eher wichtig, sollte mit einem Alternativkühler doch gut und leise gekühlt werden, da ich weniger Bedürfniss hege wieder einen Fön im Rechner zu klatschen.

Gast
2008-06-08, 15:39:15
Die Benchmarks sind doch gefaked.... Da stimmt einiges nicht. Speziell die Performance von der 3870 X2.


Wieso stimmen die Benchmarks nicht?

Die GTX280 soll doch laut CJ mit neuen Treibern einen Score von X4800 erreichen. Mit den alten Treibern hat sie X4100 erreicht. => der GTX280-Wert stimmt sehr wahrscheinlich.

Die 8800Ultra hat mit den alten Treibern ca. X2500 erreicht und wird hier mit den neuen Treibern getestet so dass sie hier ~X3000 erreicht.

=> Die neuen Treiber beschleunigen also nicht nur die GTX sondern auch die alten Karten.

=> die Relation mit den alten Treibern lag bei X4100/X2500 = 1,64 und mit den neuen Treibern bei X4800/X3000 = 1,6 => passt also auch.

=> so ist das Leben. Die GTX280 ist unter Vantage eben nicht schneller.

PS.: laut Computerbase sind die neuesten Treiber die 175.16. Bei dem Benchmark wurden also anscheinend wirklich die neuen "Benchmark-Treiber" 177.26 für den GTX280-Release benutzt. Link: http://www.computerbase.de/downloads/treiber/grafikkarten/nvidia/nvidia_forceware/

deekey777
2008-06-08, 15:45:18
und AF
Das war ein Treiberfehler, der längst korrigiert wurde.

Marodeur
2008-06-08, 16:15:51
Könnte gehen, aber OC mit dem NT wird etwas knapp. 500W wären besser.
Mit dem 24" war es dir doch von vorneherein klar, dass man eine fette Graka braucht, wenn man nativ spielen will, oder? :D

Ja, war mir klar. Mich nervt nur an wenn man für neue Generationen dickere Netzteile braucht weshalb ich recht glücklich mit der 8800GT bin/war.

Das Chromus II hat noch nichtmal getrennte 12V-Leitungen sondern "nur" eine dicke mit 25A. Werte und stabilität sind aber top. ;)

Nachdem ich mich jetzt 2 Rechner mit dem NT durchgerettet hab steht nun dann wohl doch ein Neues an, nervt halt. ;)

Odal
2008-06-08, 16:26:45
Taktbereinigt ist der G80 einfach schneller als ein G92, der grösste unterschid gibt es aber nur in der Bandbreite und Speichermenge, der rest ist etwa gleich! Die Speichermenge bremst den G92 in nidrigen Auflösung aber sicher nicht aus, also bleibt nur noch die Bandbreite übrig.

Bester Beweis für mich ist das der G92 ab 800MHz durch noch mehr Takt kaum noch mehr Leistung erreicht, wenn man aber den Speicher deutlich Übertaktet steigt die Leistung im Vergleich dann aber wider extrem an, 50MHz Speichertakt sind dann schon mal locker 300-400 Punkte im 3D Mark 06!

Selbst beim G94 kann man dies sehr gut beobachten, da hat man ab 1000MHz ROP durch 100MHz mehr Speichertakt gleich mal 600 Punkte (!!!) mehr im 3D Mark 06!

mach mal wie ich nen benchmarktest und präsentier den uns...und komm mir jetzt nicht wieder mit 3dmark....

ausserdem kannst du keinen G80 mit einem G92 vergleichen....vollkommen verschiedene chips und die karten haben auch vollkommen verschiedene speicherbestückung
ein G92 ist eher GPU limitiert als Bandbreite...punkt

was nicht heißt das man mit mehr bandbreite noch mehr performance erreichen könnte...aber das verhältnis "mehr bandbreite/mehr fps" ist halt nicht sonderlich rosig


Bestes BEISPIEL ist Assassins Creed, einfach ein Traum mit ner HD3870, klasse Bild und dennoch schnell genug,- vor allem Dank D3D10.1:smile:
Und dies will NV nicht wahrhaben lassen und boikottiert somit den Fortschritt welcher durch D3D10.1 zustande kommen würde.:(

Da musste ich gerade Grinsen und dachte "na sicher Bestes Beispiel weil einziges Beispiel" aber im Grunde hast du Recht...

kruemelmonster
2008-06-08, 16:34:24
...
Das Chromus II hat noch nichtmal getrennte 12V-Leitungen sondern "nur" eine dicke mit 25A. Werte und stabilität sind aber top. ;)
...


Nix "nur", das ist schon besser so:


Power Supply Myths Exposed! (http://www.pcpower.com/technology/myths/#m8)
Myth #8:
...
Here are the facts: A large, single 12-volt rail (without a 240VA limit) can transfer 100% of the 12-volt output from the PSU to the computer, while a multi-rail 12-volt design has distribution losses of up to 30% of the power supply's rating. Those losses occur because power literally gets "trapped" on under-utilized rails. For example, if the 12-volt rail that powers the CPU is rated for 17 amps and the CPU only uses 7A, the remaining 10A is unusable, since it is isolated from the rest of the system.
...


Von meinem be quiet DPP 430 (2x 20A @ 12V, 28A combined) werd ich mich mit der neuen VGA Generation wohl verabschieden müssen. Den C2D + G80 wuppt es noch, es wird allerdings bei CPU & GPU Maximalauslastung instabil wenn noch MaxOC dazukommt. An C2Q + GT200 + OC ist damit auf jeden Fall nicht mehr zu denken.
Hab mir schon einen Nachfolger ausgesucht: PCP&C Silencer 610, 49A Single Rail @ 12V, das sollte wieder ein paar Jahre reichen.

Coda
2008-06-08, 17:34:41
Mal ne Frage:

In Crysis funktioniert doch POM und AF nicht zusammen, soweit ich weiß.

Würde mit DX10.1 wieder beides zusammen funzen ?
Das geht auch mit D3D9 schon ohne Probleme. D3D10.1 bringt in der Hinsicht überhaupt nichts neues.

Schlammsau
2008-06-08, 17:38:03
http://www.abload.de/img/mes5bg.jpg (http://www.abload.de/image.php?img=mes5bg.jpg)

Warum geht die GTX280 so ab ? :ugly:

Die hinkt im 06er sogar der X2 hinterher ;D

Wie war das mit der 3fachen 8800GTX Power ?

fake?

tombman
2008-06-08, 17:47:18
Die 8800Ultra hat mit den alten Treibern ca. X2500 erreicht und wird hier mit den neuen Treibern getestet so dass sie hier ~X3000 erreicht.
Ja klar, ein neuer Treiber kommt und macht eine 8800Ultra 50% (!!!) schneller als eine 9800GTX- :rolleyes:
(3000 zu 2000 bei vantage extreme)
Und nein, das war KEIN Speicherlimit, weil beide Karten auf 3dmark06 auf 2560x1600 mit 4xAA (!!) gleich schnell sind.

Da hast dein fake ;)

Gast
2008-06-08, 18:01:31
Ja klar, ein neuer Treiber kommt und macht eine 8800Ultra 50% (!!!) schneller als eine 9800GTX- :rolleyes:
(3000 zu 2000 bei vantage extreme)
Und nein, das war KEIN Speicherlimit, weil beide Karten auf 3dmark06 auf 2560x1600 mit 4xAA (!!) gleich schnell sind.

Da hast dein fake ;)


eben deshalb sind die 4800 bei der 280gtx auch fake,man sollte die 4100 in betracht ziehen,wie schon vorher.:)

tombman
2008-06-08, 18:07:25
eben deshalb sind die 4800 bei der 280gtx auch fake,man sollte die 4100 in betracht ziehen,wie schon vorher.:)
Nein, die 4800 sind sicher KEIN fake bei der 280er...
4100 war der Anfangswert, durch bessere Treiber gings dann Richtung 4800...
Quelle: -CJ- und andere...
Ich würde mich nicht wundern, wenn zu release die 5000er Marke fällt ;)

Gast
2008-06-08, 18:12:08
Nein, die 4800 sind sicher KEIN fake bei der 280er...
4100 war der Anfangswert, durch bessere Treiber gings dann Richtung 4800...
Quelle: -CJ- und andere...
Ich würde mich nicht wundern, wenn zu release die 5000er Marke fällt ;)


hahha ,achso da gehts aber :)

tombman
2008-06-08, 18:13:31
hahha ,achso da gehts aber :)
Ähm, neue Technologie? Na klar geht das :rolleyes:

Gast
2008-06-08, 18:19:18
Ja klar, ein neuer Treiber kommt und macht eine 8800Ultra 50% (!!!) schneller als eine 9800GTX- :rolleyes:
(3000 zu 2000 bei vantage extreme)
Und nein, das war KEIN Speicherlimit, weil beide Karten auf 3dmark06 auf 2560x1600 mit 4xAA (!!) gleich schnell sind.

Da hast dein fake ;)

tsts..

4800/4100 = 1,17
3000/2500 = 1,2

passt also zumindest bei diesen beiden Karten.

Vielleicht hat ja Nvidia einen Fehler gemacht bei dem neuen Treiber. Wenn man sich auf computerbase.de die Ergebnisse des ersten Vantage-Tests anschaut dann hat die GTX ca. X2200 Punkte und die Ultra X2500 Punkte. Beim neuen Treiber wird die GTX ein wenig langsamer, die Ultra aber im gleichen Verhältnis schneller wie die GTX280.

Ergo triebt Nvidia wieder das gleiche alte Spiel wie schon früher. Nur die neuen Karten kommen in den Genuss der Treiberoptimierung. Anscheinend hat man bei diesem Treiber aber die Ultra aus unerfindlichen Gründen vergessen. Mal sehen ob bis zum Release noch neue Treiber kommen die das wieder korrigieren.

Link: http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/6/

tombman
2008-06-08, 18:22:48
tsts..

4800/4100 = 1,17
3000/2500 = 1,2

Nix da, du gehst von absolut gleicher Technologie aus, und genau das kannst ned wissen.
Intern kann sich bei der neuen Serie einiges getan haben, du gehst aber automatisch davon aus, daß sich genau NIX getan hat, nur eben mehr vom selben/breiter (SP, SI etc)

Gast
2008-06-08, 18:24:20
Nix da, du gehst von absolut gleicher Technologie aus, und genau das kannst ned wissen.
Intern kann sich bei der neuen Serie einiges getan haben, du gehst aber automatisch davon aus, daß sich genau NIX getan hat, nur eben mehr vom selben/breiter (SP, SI etc)


und du bist wieder mal am hoffen:)