PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 6] - Übersicht in #1!


Seiten : 1 2 3 [4] 5

Gast
2008-06-14, 17:56:09
ASUS GTX 280 für 516€ und die 260 für 354€:
http://www.azerty.nl/producten/zoek?p_tab=8&GROEP_ID=160&SORTERING=prijs_desc

Nur 350€ für die GTX260 is NICE o:O
Wieviel soll die HD4870 kosten

dargo
2008-06-14, 17:57:46
Die haben doch noch ein Ass im Ärmel oder ? Vielleicht haben sie noch nciht die ganze Power´mit dem Treiber frei geschaltet. Hmpf ?!

Wie war das damals mit der 8800er GTX im Vergleich zum Vorgänger (hat da jemand noch Werte zu?)

Ich lache mich schlapp wenn NV absichtlich Treiber in Umlauf geschickt hat die die Karte nur zum Teil auslasten um undichte Stellen zu finden. Dürfte aber eher unwahrscheinlich sein.

Gast
2008-06-14, 17:58:27
Bei der 8800 GTX hat man sich in der Spekulations-Welt auch die Zähne ausgebissen und hat dann festgestellt, dass man falsch lag. Die 8800er Serie hatte nämlich doch noch "Unified Shader", anders als vorher prophezeit wurde.

dargo
2008-06-14, 18:00:28
Über die Temp der GTX280 weis man ja noch nix, warum es bisher nur A2 Step Chips gibt frag ich mich ernsthaft.

Du hast einiges verpasst. :)

Idle = 45°C
Last = 74°C

Wenn bei Last wirklich 100% GPU-Limit herrschte dann finde ich den Kühler sogar sehr gut für so ein Monster. Ich hatte schon mit ~90°C gerechnet.

Gast
2008-06-14, 18:23:18
Schade, dass so gut wie NIE auch Min-FPS gebencht werden ;(

überhaupt nicht schade, es geht ja nicht darum die spielbarkeit festzustellen sondern unterschiedliche hardware zu vergleichen.

pest
2008-06-14, 18:24:04
alle Crysis-Benches vom techpowerup-Review sind fälschlicherweise bei 1280x1024

Gast
2008-06-14, 18:27:25
Ich lache mich schlapp wenn NV absichtlich Treiber in Umlauf geschickt hat die die Karte nur zum Teil auslasten um undichte Stellen zu finden. Dürfte aber eher unwahrscheinlich sein.

wie beim G80, MUL wird erst später nachgeliefert ;)

Sonyfreak
2008-06-14, 18:28:42
wie beim G80, MUL wird erst später nachgeliefert ;)Das hat damals aber keinen nennenswerten Performancesprung gebracht oder doch?

mfg.

Sonyfreak

AnarchX
2008-06-14, 18:29:26
Da G200 doch ziemlich stark auf G8x/G9x basiert, sehe ich da keinen unbedingt großen Optimierungsbedarf auf seine Architektur speziell hin.

Das hat damals aber keinen nennenswerten Performancesprung gebracht oder doch?

B3D konnte 15% MUL-Nutzung für normales Shading mit einem synthetischen Test messen, also nicht weltbewegendes.

Bei G200 verspricht NV eine MUL-Nutzung bis zu 98%, aber man darf nicht vergessen, dass die MUL auch noch andere Aufgaben hat, wie das liefern von Eingangswerten.
Aber langfristig, wenn die Texturlast in den Shadern abnimmt, ist die höhere Nutzbarkeit nicht verkehrt.

Gast
2008-06-14, 18:32:13
Da G200 doch ziemlich stark auf G8x/G9x basiert, sehe ich da keinen unbedingt großen Optimierungsbedarf auf seine Architektur speziell hin.

Stimmt die Treiber dürften gut optimiert sein.

GeneralHanno
2008-06-14, 18:32:25
wenn ich nur an die ganzen treiberverspechen denke :
G80: Vram bug sollte gefixed werden, und 2d modus ...
R600: bessere AA-performence ...

also ICH setze nicht viel in diese treiberhoffnungen. meist gibt es ein paar monate nach dem launch einen sehr guten treiber der nochmal ~10% bringt, aber wenn die hardware schlecht ist, kann auch der beste treiber nix reißen ...

Gast
2008-06-14, 18:41:15
Das hat damals aber keinen nennenswerten Performancesprung gebracht oder doch?


damals wurde beim ersten treiber mit funktionierendem MUL etwa 15% performancesteigerung gemessen. leider wurde der test soweit ich weiß mit späteren treibern nicht wiederholt, wäre ja durchaus denkbar, dass sich was verbessert hat.

spiele haben natürlich überhaupt nicht reagiert, waren damals ja alles andere als shaderlimitiert.

angeblich soll die MUL-auslastung beim G200 ja deutlich besser sein.

Snoopy69
2008-06-14, 18:50:03
Du hast einiges verpasst. :)

Idle = 45°C
Last = 74°C

Wenn bei Last wirklich 100% GPU-Limit herrschte dann finde ich den Kühler sogar sehr gut für so ein Monster. Ich hatte schon mit ~90°C gerechnet.
An was das wohl liegt? (grosse GPU-Die-Fläche) :wink:

Wenn das stimmt sind < 30°C @ load nicht unmöglich :)

Bei welchem Game wurden denn die 74°C erreicht? Umgebungstemp? Auflösung? Mit oder ohne AA? Sind alles wichtige Faktoren.

dargo
2008-06-14, 18:52:03
also ICH setze nicht viel in diese treiberhoffnungen. meist gibt es ein paar monate nach dem launch einen sehr guten treiber der nochmal ~10% bringt, aber wenn die hardware schlecht ist, kann auch der beste treiber nix reißen ...
Es gab mal einen NV-Treiber der in Stalker ~300% mehr Leistung brachte. ;)

Nein, worauf ich hinaus will. Bei neuen Generationen bin ich immer etwas vorsichtig was die Performance angeht. Gerade hier wo bei diesen Scans die neue GPU in paar Games ein gutes Stück schneller war als eine GX2 und dann in anderen Games das Ergebnis wieder ernüchternd war. Vielleicht müssen halt für einige Games noch die Handbremsen gelöst werden.

Gast
2008-06-14, 19:04:27
Das grosse Problem dürfte wohl sein das die aktuellen Spiele nicht wirklich Shader lastig sind und somit kann sich der G200 auch nicht wirklich absetzten.

In diesem Leistungs-Berreich kommt man zudem halt recht schnell an eine CPU limite, sieht man zb. sehr schön bei UT3!

Mehr TMUs hätten vieleicht wirklich was gebracht.

nagus
2008-06-14, 19:13:39
Die Treiber werdens richten>G80>was ein geheule 10-20% nach ein paar Treibern 300%.

ja natürlich. und ATI entwickelt die treiber ja nicht weiter :|

Snoopy69
2008-06-14, 19:14:13
In diesem Leistungs-Berreich kommt man zudem halt recht schnell an eine CPU limite, sieht man zb. sehr schön bei UT3!


Das will ich sehen, wie man bei zb 1920x1200 (oder höher) + hohem AA/AF/Details an ein CPU-Limit kommt. NIEMALS!!!

Zu meinem Quote, wie man auf ein CPU-Limit kommt hat sich auch noch keiner geäussert.

Gast
2008-06-14, 19:25:56
http://img180.imageshack.us/img180/5518/112222398no9.png

Snoopy69
2008-06-14, 19:27:45
Schade, null AA

Gast
2008-06-14, 19:28:25
Trotzdem sind die Werte beeindruckend.

Gast
2008-06-14, 19:30:38
Dann schalt mal AA ein dann fällt die Kinnlade runter. Nene, zu dem Preis gibts besseres. 400-450 Euro würden OK sein. Mehr nicht (GT280)

Snoopy69
2008-06-14, 19:31:31
Bringt mir leider nichts, da AA das Ganze sehr limitieren wird.
Da kannst du min. 20-25% abziehen mit zb 4x AA.

Ohne AA sieht es leider auch @ 1920x1200 teilweise besch... aus. Und den anderen Benches kann ich irgendwie nicht so recht glauben. Sieht eher nach Max-FPS aus http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6582553&postcount=643

Gast
2008-06-14, 19:32:28
Bringt mir leider nichts, da AA das Ganze sehr limitieren wird.
Da kannst du min. 20-25% abziehen mit zb 4x AA

Selbst dann wäre es noch spielbar. Ich glaube einige vergessen wie extrem VeryHigh an der Performance nagt.

Gast
2008-06-14, 19:32:48
@Snoopy: Das meinte ich oben. Also, das beindruckt mich ganz und garnicht.

Gast
2008-06-14, 19:34:15
@Snoopy: Das meinte ich oben. Also, das beindruckt mich ganz und garnicht.

Versuch das mal mal mit 3WAY-SLI hinzubekommen...

Gast
2008-06-14, 19:35:16
Hallo, da ist NULL AA drin. Und mit Triple Sli sollte das auch drin sein. Kommt ja derselbe Preis raus...

Gast
2008-06-14, 19:35:50
Hallo, da ist NULL AA drin. Und mit Triple Sli sollte das auch drin sein. Kommt ja derselbe Preis raus...

3x Performance? Und das wäre nicht beeindruckend? Sagt mal in welcher Welt lebt ihr ?

Snoopy69
2008-06-14, 19:38:18
Selbst dann wäre es noch spielbar. Ich glaube einige vergessen wie extrem VeryHigh an der Performance nagt.
Wenn ich im Spiel NIE unter 30fps (nicht mal kurz) sehe, dann ist es spielbar, ja :)

Gast
2008-06-14, 19:38:26
Da G200 doch ziemlich stark auf G8x/G9x basiert, sehe ich da keinen unbedingt großen Optimierungsbedarf auf seine Architektur speziell hin.


Denk mal als Beispiel an die Treiber die bei AMD was an der Art der Speicherverwaltung geändert haben, war es nicht R580 der anfangs Probleme hatte in höherer Auflösung auf touren zu kommen?
Desweiteren, wer weis ob die Veränderungen an der Architektur (erst das MUL meiden wie der Teufel das Weihwasser und dann volle lotte ansprechen) nicht auch Änderungen an den Spieleprofilen erfordert.
Da weder ich noch du Treiberentwickler sind, kann man nix dazu sagen, wie weit der Treiber aktuell ist. Ob der Scheduler die breitere Architektur richtig mit Aufgaben versorgt, ob das SI nicht besser versorgt werden muss...
Ab Forceware 180 kann man sich den Unterschied zur alten Generation ansehen.
Aber dafür gibts jetzt jede Woche einen neuen Beta Treiber der geleaked werden will ;)

Gast
2008-06-14, 19:38:45
Nochmal: 3*GTX schafft die Werte oben auch. Also haut mich das nicht vom Hocker. Ist ja auch fast dersaelbe Preis 3*200=600, GT280=600. Ist ja auch egal, die Karte ist völlig überteuert. Ausserdem will ich mal andere benches sehen, nicht immer das blöde Crysis das eh Nvidia sponsort ist.

AnarchX
2008-06-14, 19:39:10
Die Werte sind sicherlich auf den ersten Blick beeindruckend, aber sie sagen ohne einen G80 im Vergleich, bei dem ebenfalls dieser "Wundertreiber" verwendet wird, leider nicht viel aus.

btw.
Gibt es für diese Tabelle auch eine greifbare Quelle oder kann man annehmen, dass sie jemand via Excel mal schnell erfunden hat? ;)

Gast
2008-06-14, 19:39:42
Wenn ich im Spiel NIE unter 30fps (nicht mal kurz) sehe, dann ist es spielbar, ja :)

Das ist EINE GTX280! Mit SLI GTX280 könnte man sicher 4xAA bekommen und das wäre schon der Hammer. Das dies natürlich seinen Preis hat sollte klar sein.

Gast
2008-06-14, 19:40:33
Nochmal: 3*GTX schafft die Werte oben auch. Also haut mich das nicht vom Hocker. Ist ja auch fast dersaelbe Preis 3*200=600, GT280=600. Ist ja auch egal, die Karte ist völlig überteuert. Ausserdem will ich mal andere benches sehen, nicht immer das blöde Crysis das eh Nvidia sponsort ist.

Nein das schafft sie nicht, Quad 9800 GX2 schafft gerade mal 44,5 fps

dargo
2008-06-14, 19:40:37
Das grosse Problem dürfte wohl sein das die aktuellen Spiele nicht wirklich Shader lastig sind und somit kann sich der G200 auch nicht wirklich absetzten.

Ja, das stimmt. Aber gerade wei WiC oder CoH (bin mir nicht sicher) müsste die neue Geforce abgehen wie Schmidts Katze. Eins von diesen Games (oder sogar beide) hängt sehr stark an arithmetischer Leistung.

ja natürlich. und ATI entwickelt die treiber ja nicht weiter :|
Das hat doch damit nichts zu tun. Es geht hier um den Abstand zum G80 in erster Linie.

http://img180.imageshack.us/img180/5518/112222398no9.png
Fake oder echt? Wenn echt finde ich den Sprung schon sehr beeindruckend.

Superheld
2008-06-14, 19:40:50
Die Werte sind sicherlich auf den ersten Blick beeindruckend, aber sie sagen ohne einen G80 im Vergleich, bei dem ebenfalls dieser "Wundertreiber" verwendet wird, leider nicht viel aus.

hui da wird sich die 8800gt freuen.....wenns wahr werden sollte=)

Snoopy69
2008-06-14, 19:41:29
Nochmal: 3*GTX schafft die Werte oben auch. Also haut mich das nicht vom Hocker. Ist ja auch fast dersaelbe Preis 3*200=600, GT280=600. Ist ja auch egal, die Karte ist völlig überteuert. Ausserdem will ich mal andere benches sehen, nicht immer das blöde Crysis das eh Nvidia sponsort ist.
Nicht überteuert!
Ist ein völlig normaler Preis für ein neues Topmodel.

Wie war das nochmal bei der 8800 Ultra - 700€? :wink:

tombman
2008-06-14, 19:41:46
du behauptest auch viel wenn der tag lang ist.
wie war das "welches spiel wird es wagen eine gtx280 in die knie zu zwingen?"
:rolleyes:
Das war auf die ZUKUNFT bezogen, und nach Crysis wird nix mehr kommen, weil Konsolenports das Land regieren. Nach der finanziellen Crysis-Pleite (auch wenns objektiv keine war) wird sich so ein Projekt keiner mehr trauen. Also nix mehr mit high-end PC-only games ;)
Also wenn Crysis in 1920 Very High nicht möglich ist, dann wird das nicht meine nächste Graka...
Da wirst aber noch lange warten können. Ich kann eine GTX280 ja mit meinem SLI setup simulieren und weiß daher was geht und was nicht.
In einem Jahr wirst dann das bekommen was du willst ;)
Eigentlich wartet die Gaming Welt doch nur auf einen Test:
- 1920, very high, island
- 1920, very high, eislevel

Wieso bringt das niemand???
Ich habs ja schon gebracht- allerdings nur mit 8800GTX SLI simuliert. Für 1920x1200, 4xAA auf VERY HIGH wirst du GTX280 @ SLI brauchen...
http://cgi.ebay.de/Brand-New-EVGA-01G-P3-1280-AR-GeForce-GTX-280-1GB-GDDR3_W0QQitemZ380035581900QQihZ025QQcategoryZ3762QQrdZ1QQssPageNameZWD2VQQcmdZV iewItemQQ_trksidZp1638Q2em122

3-2-1... meins :ugly:
Ich hätte schon fast gekauft, bin aber dann inkl. Steuer auf 550€ pro Karte gekommen (der Zoll läßt DIESE Karten sicher NICHT durch, egal wie die deklariert wurden). -> bringts nicht.
Mit Versand nichtmal 475,- €, verglichen mit unseren Preisen ganz gut, hier ist die günstigste GTX 280 mit 559,- € gelistet.
Wie sieht es mit Zoll aus? Da kann auch noch mal etwas dazu kommen.... zudem könnte es schwierig werden, wenn die Karte mal einen Defekt haben sollte.
Siehe oben.
Denk daran, da kommt noch Zoll (ca 2-3 %) und MwSt drauf.
Siehe Don Vito post ;)
Zoll kommt keiner drauf, habe mich beim Zollamt informiert;)
rofl, die 9800GX2 ist für ~350,-€ lieferbar, da muss die GTX280 aber noch nachlegen
Und genau DAS ist das Problem. Der größte Feind ist nicht die HD4870 und auch nicht die kommende X2. Der Feind heißt GX2. Selbes Leistungsniveau und schlappe 350€ Preis :eek:

Neu im Beyond3d Forum:
http://forum.beyond3d.com/showpost.php?p=1176005&postcount=3513
3DMark 2006

fillrate - single texturing:
GTX 280: ~ 14300

fillrate - multi texturing:
GTX 280: ~ 40177

pixel shader:
GTX 280: ~ 845

vertex shader - simple:
GTX 280: ~ 246

vertex shader - complex:
GTX 280: ~ 119

shader particles:
GTX 280: 177

perlin noise:
GTX 280: ~ 300

Das entspricht ~8800GTX SLI Leistung.

Aber trotzdem schwach. In der fillrate sind die Nvidias stärker, aber die shader Leistung der ATI Karten = :eek:

"one tera" -> Mama, ich hab Angst ;D

http://img180.imageshack.us/img180/5518/112222398no9.png
Fake.

Gast
2008-06-14, 19:44:46
Fake?

Glaube ich nicht denn: 2048x1536 4xAA/16xF auf HIGH schafft schon gut FPS.
http://img125.imageshack.us/img125/3808/crysisjpgmf5.jpg

tombman
2008-06-14, 19:46:43
Glaube ich nicht denn: 2048x1536 4xAA/16xF auf HIGH schafft schon gut FPS.
http://img125.imageshack.us/img125/3808/crysisjpgmf5.jpg
Fake.

Sorry, Gäste, imageshack ohne Quellen sind bei mir INSTANT FAKE.

Snoopy69
2008-06-14, 19:47:11
Das war auf die ZUKUNFT bezogen, und nach Crysis wird nix mehr kommen, weil Konsolenports das Land regieren. Nach der finanziellen Crysis-Pleite (auch wenns objektiv keine war) wird sich so ein Projekt keiner mehr trauen. Also nix mehr mit high-end PC-only games ;)


Ich hoffe, dass dann wenigstens ECHTES Full-HD kommt und nicht so eine interpolierte Sch...! ;(
Maus + Tasta-Unterstützung muss auch Pflicht sein, denn ich hasse Shooter auf dem Gamepad.

Gast
2008-06-14, 19:47:29
@tombman: lol die GX2 kann da aber gut mithalten. Und dann der Preis 350 versus 600. Da hat sich Nvidia bei der Preisgestaltung aber ein Ei ins Nest gelegt. Also, die 280er ist völlig überteuert. Wie gesagt, 400-450 wäre vertretbar, mehr nicht!

dargo
2008-06-14, 19:47:52
Die Werte sind sicherlich auf den ersten Blick beeindruckend, aber sie sagen ohne einen G80 im Vergleich, bei dem ebenfalls dieser "Wundertreiber" verwendet wird, leider nicht viel aus.

Es wäre schon verdammt dreist von NV wenn sie uns einen Treiber enthalten würden der mal eben ~45% mehr Leistung in Crysis auf einem G80 bringt. Meinst du nicht? :)

tombman
2008-06-14, 19:49:00
@tombman: lol die GX2 kann da aber gut mithalten. Und dann der Preis 350 versus 600. Da hat sich Nvidia bei der Preisgestaltung aber ein Ei ins Nest gelegt. Also, die 280er ist völlig überteuert. Wie gesagt, 400-450 wäre vertretbar, mehr nicht!
Ich würde auch noch 500€ zahlen, denn immerhin bietet sie gegenüber der GX2 auch Vorteile. KEINE MR, 1gb ram, XP tauglich @ SLI. (quad sli = vista only)

pest
2008-06-14, 19:50:24
das ist nen Review von techpowerup (was wieder down ist),
hab doch schon geschrieben das die Crysis-Werte Murks sind (Auflösung falsch),
die anderen stimmen.

Gast
2008-06-14, 19:51:59
Montag abend hab ich eine drinn,dann schaun mer mal...hab ja noch die Daten der GX2.

Gast
2008-06-14, 19:52:08
Naja, ich bin auch schon 31, ich rechne noch in DM. Das sind, Augen auf, 1200DM! Das ist krass und Nvidia muss die Preise senken. Find ich gut, dann senkt ATI auch. We`ll see..

Snoopy69
2008-06-14, 19:53:55
@tombman: lol die GX2 kann da aber gut mithalten. Und dann der Preis 350 versus 600. Da hat sich Nvidia bei der Preisgestaltung aber ein Ei ins Nest gelegt. Also, die 280er ist völlig überteuert. Wie gesagt, 400-450 wäre vertretbar, mehr nicht!
Je nachdem, was die HD4870 leistet und kostet werde ich entscheiden, was ich nehme. ATI wäre technisch auf einem höheren Level.
Ich werde Benches abwarten und dann evtl. 2x ATI nehmen. Aber auch nur, wenn die Mehrperformance den Mehrpreis einiges übersteigt

tombman
2008-06-14, 19:57:24
2x HD4870 ist aber deutlich langsamer als 2x GTX280, also für mich auch keine Option...

Snoopy69
2008-06-14, 19:57:42
Ich würde auch noch 500€ zahlen, denn immerhin bietet sie gegenüber der GX2 auch Vorteile. KEINE MR, 1gb ram, XP tauglich @ SLI. (quad sli = vista only)
Hm - also mittlerweile ist Vista dem XP gleich in Spielen

Ich meinte ja auch 2x 4870 vs. 1x GTX280.
Natürlich sind 2x GTX280 noch besser und vom P/L-Verhältnis immer noch viel besser als meine SSD-Kombi (1100€) :D
Aber reicht mein NT dafür aus?

Raff
2008-06-14, 19:57:59
Je nachdem, was die HD4870 leistet und kostet werde ich entscheiden, was ich nehme. ATI wäre technisch auf einem höheren Level.

Also ich hätte ein Problem, wieder zu Ati zu wechseln. BQ-Fetischisten haben in der GF8 ihren Messias gefunden: Exzellentes AF und dazu SSAA-MSAA-Hybrid-Modi, die qualitativ so richtig knallen (und jede Karte plätten). Bei aktuellen Radeon-Karten ist A.I. Pflicht, es flimmert deswegen, es gibt keine Hybriden ...

Hoffentlich tut Ati etwas an den "Optimierungen", wenn die Quellen mit 32+ TMUs stimmen.

MfG,
Raff

tombman
2008-06-14, 19:59:30
Hm - also mittlerweile ist Vista dem XP gleich in Spielen
Nein, isses nicht, aber das habe ich nicht gemeint.

Quad SLI = vista only

2x GTX280 = XP fähig ;)

Also ich hätte ein Problem, wieder zu Ati zu wechseln.
Das kannst laut sagen!

Gast
2008-06-14, 20:00:20
Bringt nix, du wirfst die doch eh im ca. April09 wieder raus ;)
Kommt nur auf die FPS an, der Rest wird schon werden.
Wer soll denn DX10.1 fördern?
Bis Konsolenports da gebrauch von machen...
Siehe COD4, geile Grafik moderate Anforderungen, und am PC bessere Texturen, rennt auf jeder 100€ Graka ohne QuadCore...
Der einzige Grafikkracher könnte das nächste Projekt der Oblivion Macher werden, oder eben Dragon Age. Danach gibts wieder einen leichten Grafik Rückschritt in dem die Qualität des Content entscheiden wird, sprich Medium Texturen die gut aussehen, da sie von der Konsole kommen und auf dem PC AF bekommen (klasse, eigentlich brauch man keine neue Graka, die alte Gen langt).

Es geht wohl nur um gleichbleibende Leistung, quasi die Power einer 8800Ultra in den Mainstream für 200€ bringen und das bei 1/4 des Stromverbrauchs...

tombman
2008-06-14, 20:03:01
Außer für Crysis und Vantage würde EINE GTX280 eigentlich für alles in 1920x1200 reichen, tut ja mein SLI derzeit auch. Höhere Last wird wegen der Konsolen kaum kommen, denn wo die 720p ohne AA fahren habe ich am PC eben 1920x1200 mit AA.

Wenn nur nicht die Geilheit auf Crysis+ Very High da wäre .... ;)
(und ein bischen vantage auch;D)

Gast
2008-06-14, 20:03:51
2x HD4870 ist aber deutlich langsamer als 2x GTX280, also für mich auch keine Option...

2xGTX280 sinds wohl auch nicht, oder hast du noch etwas im Sinn, das soviel Power brauch? Welches Spiel geht denn nicht in 1920x1200@4xaa mit deiner Kiste?
Crysis alleine isses nicht Wert, alle UT3 Games brauchen moderat GPU Power (AA gibts über die nV Tricks), und im reinen Benchmark gezerre geht man unter ^^

Gast
2008-06-14, 20:05:12
S.T.A.L.K.E.R.: Clear Sky hrhr, eventuell, ka...

Gast
2008-06-14, 20:10:52
Jetzt sind wir mal realistisch. Crysis ist das einzige game das erst mit der nächsten Generation Grafikkarten ein Augenschmaus inklusive BQ optimum wird. Jedes andere game bekommst du mit ner guten 200 Euro Karte flüssig am laufen (auf nem TFT 22 Zoll 1680*1050). Ich spiele auch kein Vantage oder 3dMurks. Und für ein in meinen Augen seelenloses Spiel (Crysis) geb ich keine 1200 Euronen aus (GT280 Sli). Bin ja kein Dukatenscheisser. Ende der Durchsage

Sonyfreak
2008-06-14, 20:11:37
2xGTX280 sinds wohl auch nicht, oder hast du noch etwas im Sinn, das soviel Power brauch? Welches Spiel geht denn nicht in 1920x1200@4xaa mit deiner Kiste?Siehe hier:
Also ich hätte ein Problem, wieder zu Ati zu wechseln. BQ-Fetischisten haben in der GF8 ihren Messias gefunden: Exzellentes AF und dazu SSAA-MSAA-Hybrid-Modi, die qualitativ so richtig knallen (und jede Karte plätten). Bei aktuellen Radeon-Karten ist A.I. Pflicht, es flimmert deswegen, es gibt keine Hybriden ...
Die Bildwiederholrate von jedem halbwegs aktuelle Spiel lässt sich mit den Hybrid- und SSAA-Modi der Nvidia-Karten in den unspielbaren Bereich drücken. Damit hat man genug Möglichkeiten, auch die Leistung von zwei 280GTX-Karten zu verbrauchen. ;)

Ich bin schon neugierig, ob neue BQ-Features zeitgleich mit dem G200 auf den Markt kommen. :)

mfg.

Sonyfreak

Snoopy69
2008-06-14, 20:15:26
Jmd hier behauptete vor paar tagen, dass meine CPU mit Assassin's Creed limitieren würde.
Völliger Blödsinn. Mit dem simplen Anno 1701 hat man teilweise noch weniger Min-FPS als mit Crysis (AC hat 3x soviel)

Raff
2008-06-14, 20:16:12
Ich bin schon neugierig, ob neue BQ-Features zeitgleich mit dem G200 auf den Markt kommen. :)

Sofern sich bewahrheitet, dass der GT200 "nur" ein G80 auf Dope ist, wird sich da wohl nix tun ...

MfG,
Raff

Gast
2008-06-14, 20:17:08
So ein Schwachsinn. Ab 1600x limitiert bestimmt keine CPU. Da sollte sich der Herr mal besser informieren. So ein Quark...

Snoopy69
2008-06-14, 20:19:44
Ich weiss das. So Mancher aber leider nicht.

Schlammsau
2008-06-14, 20:19:46
2x HD4870 ist aber deutlich langsamer als 2x GTX280, also für mich auch keine Option...

kostet aber auch die hälfte! ;)

Gast
2008-06-14, 20:22:11
+ den Ärger mit dem CF Crap und BQ um das 10 fache teurer,

Gast
2008-06-14, 20:24:29
kostet aber auch die hälfte! ;)
Was sagt uns der Kommentar? Genau, du bist kein Highend User ;) Du bist auch mit einer 4850/9800GTX zufrieden, wir aber nicht. Was drückt, das muss drücken und 1680*1050 in 16xS muss die Karte abkönnen, denn CSAA brauch kein Mensch. Dann lieber 4xAA+TSAA, aber selbst da geht der heutigen Generation ja die Puste aus.
Will 4xSSAA in Gothic2, flüssig...

tombman
2008-06-14, 20:25:12
kostet aber auch die hälfte! ;)
Da wäre ich vorsichtig. HD4870 wird sicher 300€ kosten hierzulande.

Daredevil
2008-06-14, 20:26:48
Dann wird sie aber auch hoffentlich dementsprechend mehr Leisten.
Ati wird mit sicherheit keine Karte auf den Markt werden die Fast doppelt soviel kostet wie eine 4850 bei 30% mehr Leistung ( oder wieviel auch immer ).

Raff
2008-06-14, 20:26:51
Will 4xSSAA in Gothic2, flüssig...

Na komm, das geht schon auf einer 8800 GTX. Sogar der Nachfolger geht mit 16xS und moderater Übertaktung.

MfG,
Raff

tombman
2008-06-14, 20:28:58
Dann wird sie aber auch hoffentlich dementsprechend mehr Leisten.
Ati wird mit sicherheit keine Karte auf den Markt werden die Fast doppelt soviel kostet wie eine 4850 bei 30% mehr Leistung ( oder wieviel auch immer ).
Erstmal überhaupt auf den Markt bringen. Von HD4870 Tests/Leaks weit und breit keine Spur...

Gast
2008-06-14, 20:29:51
Vielleicht meinte er Gothic 3. Wie dem auch sei, bald wissen wir mehr. Noch ein paarmal schlafen dann wissen wir bescheid...

Sonyfreak
2008-06-14, 20:30:12
Sofern sich bewahrheitet, dass der GT200 "nur" ein G80 auf Dope ist, wird sich da wohl nix tun ...Ich befürchte auch. Trotzdem wäre es genial, wenn Nvidia 32xAF und ein Shader-AA auf den Markt werfen würde. :)
Na komm, das geht schon auf einer 8800 GTX. Sogar der Nachfolger geht mit 16xS und moderater Übertaktung.Wenn man nen 30"-Monitor hat, geht sich das wahrscheinlich nicht mehr aus. Da braucht man schon ein bisschen mehr Power. :D

mfg.

Sonyfreak

Snoopy69
2008-06-14, 20:31:48
Wenn man nen 30"-Monitor hat, geht sich das wahrscheinlich nicht mehr aus. Da braucht man schon ein bisschen mehr Power. :D

mfg.

Sonyfreak
Ein bisschen ist gut (ca. 77% mehr)

Black-Scorpion
2008-06-14, 20:31:49
Erstmal überhaupt auf den Markt bringen. Von HD4870 Tests/Leaks weit und breit keine Spur...

Es war schon vorher bekannt das die 70er später kommt.

tombman
2008-06-14, 20:32:41
Es war schon vorher bekannt das die 70er später kommt.
Was der 280er die Zeit gibt im Preis zu fallen ;)

Gast
2008-06-14, 20:34:57
ach komm hör auf :D am Montag Morgen hängste um 8 Uhr schon vor deinem Stammkaufladen rum.

AnarchX
2008-06-14, 20:35:21
http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=50760
http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=50759
Jetzt muss nur noch die Verfügbarkeit stimmen, dass sich diese Preise halten können bzw. noch weiter fallen.

Black-Scorpion
2008-06-14, 20:36:13
Das hilft ihr auch nicht viel weiter.
Da muss schon einiges runter um überhaupt in die Nähe der 4870er zu kommen.

Apropos Zahlen?
Wo ist eigentlich AIL?
Der war doch so begeistert von den 2x0er und die 48x0er sind schlechter wie gedacht.
So viel dazu.

Gast
2008-06-14, 20:36:57
Ja, in Holland. Bin gespannt was die Dinger in good ol`Germany kosten. Aber Nvidia scheint zu raffen das die mit 600 nicht durchkommen.

tombman
2008-06-14, 20:37:53
ach komm hör auf :D am Montag Morgen hängste um 8 Uhr schon vor deinem Stammkaufladen rum.
ROFL ;D

Da würde ich aber nur die Scheibe abschlecken können, weil bei uns die PC Läden sich angewöhnt haben überhaupt erst um 10 aufzumachen (wohl ne Anpassung an die Lebengewohnheiten lichtscheuer nerds ;D).

Also mit EINER GTX280 könntest Recht haben, die könnte SEHR schnell bei mir sein. Ob eine zweite dazukommt ist ne andere Frage. Erstmal den kleinen Hunger stillen ;D

w0mbat
2008-06-14, 20:39:01
GTX280 ~500€
GTX260 ~350€
HD4870 ~280€
HD4850 ~180€

?

Gast
2008-06-14, 20:40:21
http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=50760
http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=50759
Jetzt muss nur noch die Verfügbarkeit stimmen, dass sich diese Preise halten können bzw. noch weiter fallen.

Kann man die Dinger ohne MWST und Gebühren importieren? Wenn ich was bei Amazon.uk bestelle ists ja auch komplett ohne weitere Gebühr, da EU und die UK Steuer drauf is.

Gast
2008-06-14, 20:41:01
mmm 2 4870er im Crossfire find ich doch reizvoller als ne einzelne GT280. Oder wie seht ihr das?

Gast
2008-06-14, 20:41:25
kostet aber auch die hälfte! ;)

Ohne gute Treiber nutzt der beste Preis nix ;)

dildo4u
2008-06-14, 20:42:46
GTX280 ~500€


?
430€ nach dem Launch wenn sich die Abzockphase gelegt hat.Du kannst nicht nur die ATIs von $ zu € umrechnen.Imo wird die GTX280 selbst mit Steuern in 3-4 Wochen höstens 650$ kosten.

http://cgi.ebay.de/Brand-New-EVGA-01G-P3-1280-AR-GeForce-GTX-280-1GB-GDDR3_W0QQitemZ380035581900QQihZ025QQcategoryZ3762QQrdZ1QQssPageNameZWD2VQQcmdZV iewItemQQ_trksidZp1638Q2em122

Gast
2008-06-14, 20:42:49
mmm 2 4870er im Crossfire find ich doch reizvoller als ne einzelne GT280. Oder wie seht ihr das?
MR und die Abhängigkeit von AMD, das der Treiber das CF Profil liefern muss. Da kannste auch bei 2x8800GTX bleiben, wenn ein Spiel kommt was kein Profil hat (sehr selten), wird halt eins erstellt und jut is.

tombman
2008-06-14, 20:43:42
mmm 2 4870er im Crossfire find ich doch reizvoller als ne einzelne GT280. Oder wie seht ihr das?
Wird sicher schneller sein, aber dafür hast dann eben MR und ATI Profilabhängigkeit. Außerdem brauchst ein CF mobo.
Eine 280er bringt die Leistung IMMER rüber, ohne Profile und MR.

Gast
2008-06-14, 20:44:29
MR sollte ja laut einigen Internetseiten verbessert worden sein...ich finde 2*4870 irgendwie reizvoller.

pest
2008-06-14, 20:44:30
GTX280 ~500€
GTX260 ~350€
HD4870 ~280€
HD4850 ~180€

?

ist der Aufschlag zur GTX260 dann der Deppenaufschlag ?

Schlammsau
2008-06-14, 20:45:39
Ohne gute Treiber nutzt der beste Preis nix ;)
alte leier ohne Sinn und Verstand!
Hast wohl schon sehr lange keine ATi mehr gehabt wa?
Die Treiber sind sehr gut und stehen denen von nV in nichts nach!
Ich weiss wovon ich rede....hatte bis vor 2 Monaten noch eine 8800GS.....wenn auch nicht lange! ;)

Wird sicher schneller sein, aber dafür hast dann eben MR und ATI Profilabhängigkeit. Außerdem brauchst ein CF mobo.
Eine 280er bringt die Leistung IMMER rüber, ohne Profile und MR.

Immer ist was anderes ;)
Und was ist wenn man schon ein CF Board hat? Und bei den omminösen µRucklern ist das letzte Wort noch nicht gesprochen! :)

tombman
2008-06-14, 20:46:38
MR sollte ja laut einigen Internetseiten verbessert worden sein...
Das wird sich nächste Woche ja hoffentlich zeigen, wenn wir hier Leute finden, die gut genug und vorallem WILLENS sind hier frametime Werte von 2x HD4850 zu liefern/posten!

Das Problem ist, daß es kaum Leute gibt, die VIELE DX10 Titel auf der Platte haben. Da werden dann zwei bis drei Lieblingsgames gebenched und ansonsten herrscht Funkstille :/

Black-Scorpion
2008-06-14, 20:46:44
GTX280 ~500€
GTX260 ~350€
HD4870 ~280€
HD4850 186€ (http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=50695)

?
Habe mal einen Link eingefügt. ;)

pest
2008-06-14, 20:48:03
Das wird sich nächste Woche ja hoffentlich zeigen, wenn wir hier Leute finden, die gut genug und vorallem WILLENS sind hier frametime Werte von 2x HD4850 zu liefern/posten!

das bezieht sich nur auf die X2-Variante, kann man (hoffentlich) mit 2xHD48xx nicht vergleichen

Gast
2008-06-14, 20:48:43
Ich würds mir wünschen. Das wäre endgeil reduziertes/kein ruckeln auf Crossfire

tombman
2008-06-14, 20:49:43
das bezieht sich nur auf die X2-Variante, kann man (hoffentlich) mit 2xHD48xx nicht vergleichen
Ob sich bei der X2 überhaupt was getan hat bezweifel ich jetzt mal stark. Außer Speku. gibts dazu ja nix. Hoffentlich klärt sich diese Frage nächste Woche...

Aber die X2 würde ich vor August eh nicht erwarten....

Gast
2008-06-14, 20:51:09
alte leier ohne Sinn und Verstand!
Hast wohl schon sehr lange keine ATi mehr gehabt wa?
Die Treiber sind sehr gut und stehen denen von nV in nichts nach!
Ich weiss wovon ich rede....hatte bis vor 2 Monaten noch eine 8800GS.....wenn auch nicht lange! ;)


Ich rede von MultiGPU...

dargo
2008-06-14, 21:07:23
Da wäre ich vorsichtig. HD4870 wird sicher 300€ kosten hierzulande.
Bei 349$ eher 250-260€, natürlich ohne den "Deppenaufschlag". :wink:

Apropos Zahlen?
Wo ist eigentlich AIL?
Der war doch so begeistert von den 2x0er und die 48x0er sind schlechter wie gedacht.
So viel dazu.
Bei dem überwiegenden OT der hier im Thread bei den letzten Seiten zu finden ist nehme ich ihm das überhaupt nicht übel. Und du glaubst wohl selbst nicht, dass er uns vor Montag was verrät. ;)

tombman
2008-06-14, 21:14:10
Bei 349$ eher 250-260€, natürlich ohne den "Deppenaufschlag". :wink:

Der aber sicher kommt, zumindest anfangs...299€ ;D;D

350$~ 226€. 20% kannst für Europa IMMER draufhauen (Steuer) und schon bist bei 277€.
-> 299€ beim Händler ;)

Damit wäre sie 50% teurer als eine jetzige GTX. Aber sicher nicht 50% schneller im Durchschnitt.

Wie heißts so schön: you get, what you pay for ;)

Geheimtipp bleibt weiterhin die HD4850. Nur nützt die HighEnd Leuten leider nix ;)

dargo
2008-06-14, 21:15:17
GTX280 ~500€
GTX260 ~350€
HD4870 ~280€
HD4850 ~180€

?
Eher so:
GTX280 ~470€ (wenn die 649$ weiter stimmen)
GTX260 ~290€
HD4870 ~250€
HD4850 ~150€ (bei 199$, hab diese Summe mal zu Gesicht bekommen)

Edit:
Der Aufschlag für die G280GTX ist aber echt heftig gegenüber der G260GTX.

tombman
2008-06-14, 21:21:57
Eher so:
GTX280 ~470€ (wenn die 649$ weiter stimmen)
GTX260 ~290€
HD4870 ~250€
HD4850 ~150€ (bei 199$, hab diese Summe mal zu Gesicht bekommen)

Edit:
Der Aufschlag für die G280GTX ist aber echt heftig gegenüber der G260GTX.
Jo, der größte Sprung ist sicher bei der 280er zu finden, aber die Leistungskrone war schon immer überdeutlich zu bezahlen.
Und bei Nvidia ist die 260er ja effektiv im Chip BESCHNITTEN, was die 4850er ja gegenüber der 4870er NICHT ist.

Die 280er müßte eigentlich auf 400 runter, dann wärs wieder geil :)

Gast
2008-06-14, 21:31:30
Ich befürchte auch. Trotzdem wäre es genial, wenn Nvidia 32xAF und ein Shader-AA auf den Markt werfen würde. :)


shader-aa kann es wie der name sagt nur im shader geben, und den liefert die software, nicht die hardware.

dargo
2008-06-14, 21:34:39
Jo, der größte Sprung ist sicher bei der 280er zu finden, aber die Leistungskrone war schon immer überdeutlich zu bezahlen.

Das stimmt so nicht ganz. Zur G80 Zeit hat die GTX in etwas das mehr gekostet was sie auch gegenüber der GTS geleistet hat.


Und bei Nvidia ist die 260er ja effektiv im Chip BESCHNITTEN, was die 4850er ja gegenüber der 4870er NICHT ist.

Das spielt keine Rolle. In beiden Fällen sind die GPUs für den jeweiligen IHV gleich teuer. Man muss hier auch bedenken, dass der Unterschied bei der NV-GPU nur 25Mhz beträgt. Da ist es selbstverständlich, dass man diese GPU beschneiden muss um in andere Preissegmente vorzustoßen. Bei ATI ist der Taktunterschied deutlich größer. Im Endeffekt leisten aber beide wohl +25-30%.

Snoopy69
2008-06-14, 21:44:56
Edit:
Der Aufschlag für die G280GTX ist aber echt heftig gegenüber der G260GTX.
Wie immer im HW-Sektor. Bin nicht überrascht.

dargo
2008-06-14, 21:47:14
Wie immer im HW-Sektor. Bin nicht überrascht.
Lese dir nochmal bitte meinen letzten Post durch. :ugly:

Snoopy69
2008-06-14, 21:54:39
Hab ich gelesen...
Trotzdem kosten Topmodelle wesentlich mehr als die zweitletzten (siehe Intel). Da spielt es auch keine Rolle, ob die Mehrperformance nur 10% beträgt. :ueye:

tombman
2008-06-14, 21:59:17
Das stimmt so nicht ganz. Zur G80 Zeit hat die GTX in etwas das mehr gekostet was sie auch gegenüber der GTS geleistet hat.
8800Ultra anyone? Kostete VIEL mehr als GTX, brachte aber fast nix..

Das spielt keine Rolle. In beiden Fällen sind die GPUs für den jeweiligen IHV gleich teuer.
Wie teuer etwas ist hängt auch davon ab wie teuer man es verkaufen kann. Natürlrich kann man den 280er teurer verkaufen als den 260er...
Der 280er wurde ja sicherlich nicht absichtlich zerstört nur um einen 260er zu erhalten. Der 260er ist einfach ein fehlerhafter 280er...

pest
2008-06-14, 22:02:56
Der 280er wurde ja sicherlich nicht absichtlich zerstört nur um einen 260er zu erhalten. Der 260er ist einfach ein fehlerhafter 280er...

wenn du es so siehst ist jede GPU fehlerhaft ;) aber irgendnen Yield brauchen die ja

Gast
2008-06-14, 22:03:00
. Man muss hier auch bedenken, dass der Unterschied bei der NV-GPU nur 25Mhz beträgt. Da ist es selbstverständlich, dass man diese GPU beschneiden muss um in andere Preissegmente vorzustoßen. Bei ATI ist der Taktunterschied deutlich größer. Im Endeffekt leisten aber beide wohl +25-30%.

Weiß man schon, welcher Speicher auf den GTX260 verbaut sein wird?
Hoffentlich auch der flotte 0,8ns.

=Floi=
2008-06-14, 22:04:23
die gtx ist aber schneller als die alte gts und hier ist es wohl ähnlich

dargo
2008-06-14, 22:05:58
8800Ultra anyone? Kostete VIEL mehr als GTX, brachte aber fast nix..

Da hast du recht. Ich sehe die Ultra aber als eine Karte die die Welt nicht braucht. :)

tombman
2008-06-14, 22:06:02
Der 260er ist doch genau derselbe Abfall wie die 320er GTS damals ;)

Beim 260er kann man HEUTE schon absehen, daß der ned lange halten wird...

Dem 280er gebe ich auch nicht lange ;D

dargo
2008-06-14, 22:08:13
Der 260er ist einfach ein fehlerhafter 280er...
Das ist nicht automatisch gesagt. Wenn irgendwann die Nachfrage nach einer G260GTX überproportional steigt können auch "vollwertige" 280-er dafür verwendet werden.

Gast
2008-06-14, 22:08:44
Der 260er ist doch genau derselbe Abfall wie die 320er GTS damals ;)

Beim 260er kann man HEUTE schon absehen, daß der ned lange halten wird...

Dem 280er gebe ich auch nicht lange ;D

Ich bin mit der 8800GTS gut gefahren bisher, 1.5Jahre sorgenlos ;)
Deswegen mache ich bei der Generation eventuell das selbe, aber hab da noch bedenken das der 55nm Shrink da was reißen kann. Taktrate war aber irgendwie schon immer ein Problem bei nV, die Ultra hatte ja auch ein Furz an Takt bekommen, quasi jede GTX geht Ultra Taktraten...

dargo
2008-06-14, 22:11:19
Der 260er ist doch genau derselbe Abfall wie die 320er GTS damals ;)

Sorry, aber das ist Unsinn. Die 260-er könnte man höchstens mit der GTS640 vergleichen. Und selbst das geht nicht mehr da die 260-er deutlich weniger beschnitten wurde.

Gast
2008-06-14, 22:13:08
Das ist nicht automatisch gesagt. Wenn irgendwann die Nachfrage nach einer G260GTX überproportional steigt können auch "vollwertige" 280-er dafür verwendet werden.


wohl kaum, wenn man so viele gute chips hat wird man viel eher den preis der 280 senken damit deren nachfrage größer wird.

Snoopy69
2008-06-14, 22:13:47
"Abfall" ist vielleicht etwas hart ausgedrückt. Für Leute mit weniger Geld muss es halt auch was abgespecktes geben - Mid-range eben.

Fetza
2008-06-14, 22:18:17
Sorry, aber das ist Unsinn. Die 260-er könnte man höchstens mit der GTS640 vergleichen. Und selbst das geht nicht mehr da die 260-er deutlich weniger beschnitten wurde.

Meinst du das auf den takt bezogen? Weil ansonsten finde ich die beschneidung beider chips eigentlich ziemlich identisch (in relation 96=128 und 192=240).

Btw, ich bin bis heute mit meiner gts640 echt zufrieden, hatte noch nie so lange spass an einer graka, länger hat bisher nur meine voodoo2@sli combo gehalten. :D

Gast
2008-06-14, 22:19:34
*Hust* die GTX260 is alles andere nur nicht Midrange *g
Ist einfach "1 unter Highend" fertig. Und für Tombmann sind nicht "voll nutzbare" Chips halt Abfall, weil defekt. Hat er auch recht, ich zieh den Nutzen daraus ^^

Raff
2008-06-14, 22:21:10
8800Ultra anyone? Kostete VIEL mehr als GTX, brachte aber fast nix..

Ja – bis vor ein paar Tagen. 8800 Ultra für 230 €uro :biggrin::

http://preissuche.pcgameshardware.de/a255322.html

Hätte ich keine GTX, würde ich die wohl kaufen. Das ist ein fettes Angebot.

MfG,
Raff

tombman
2008-06-14, 22:25:13
Ja – bis vor ein paar Tagen. 8800 Ultra für 230 €uro :biggrin::

http://preissuche.pcgameshardware.de/a255322.html

Hätte ich keine GTX, würde ich die wohl kaufen. Das ist ein fettes Angebot.

MfG,
Raff
350€ GX2 :cool:
http://geizhals.at/eu/a324511.html

Die geht sicher noch unter 300€ diesen Monat ;D

Gast
2008-06-14, 22:26:44
Ja – bis vor ein paar Tagen. 8800 Ultra für 230 €uro :biggrin::

http://preissuche.pcgameshardware.de/a255322.html

Hätte ich keine GTX, würde ich die wohl kaufen. Das ist ein fettes Angebot.

MfG,
Raff

Und ein schöner Stromfresser :rolleyes: die GTX260 nimmt nicht viel mehr unter Last und Idle ist die GTX260 klar besser :up:

Nightspider
2008-06-14, 22:27:00
Oder man kauft sich jetzt ne 260 und im 4.Q ne G200b-Karte

Ich wette dort kommt GDDR5

Das NV vor Ende 2009 kein GDRR5 verbauen wird ist schwachsinn, außer man bringt erst Ende 2009 die nächste HighEnd Generation.

Denn höhere Taktraten brauchen mehr Bandbreite. Und 512Bit SI macht auch schon dicht, bei den Leistungen einer GTX 280 mit GDDR3...

Also haben wir jetzt eine ca. 30 % höhere Bandbreite und mind 70% Leistung als die 8800 GTX. Na wenn das mal nicht knapp ist.

dargo
2008-06-14, 22:28:41
Meinst du das auf den takt bezogen? Weil ansonsten finde ich die beschneidung beider chips eigentlich ziemlich identisch (in relation 96=128 und 192=240).

Nein, auf die Endleistung. Die G280GTX wird ca. 25% schneller sein als die G260GTX. Die G8800GTX war 45-50% schneller als die G8800GTS640.

Gast
2008-06-14, 22:29:59
Der 260er ist doch genau derselbe Abfall wie die 320er GTS damals ;)

Beim 260er kann man HEUTE schon absehen, daß der ned lange halten wird...

Dem 280er gebe ich auch nicht lange ;D


Vor kurzem klang das aber noch ganz anders :rolleyes:

Von wegen "Die GT200 pwned alles weg" um mal bei deiner Wortwahl zu bleiben.

Gast
2008-06-14, 22:31:01
Das tut sie ja auch ;)

Snoopy69
2008-06-14, 22:33:05
Ja – bis vor ein paar Tagen. 8800 Ultra für 230 €uro :biggrin::

http://preissuche.pcgameshardware.de/a255322.html

Hätte ich keine GTX, würde ich die wohl kaufen. Das ist ein fettes Angebot.

MfG,
Raff
Viel besser geht eine Ultra auch nicht. Mit der gleichen VGPU wird aus einer GTX auch eine Ultra (ausser beim Vram)

Unyu
2008-06-14, 22:44:37
Und ein schöner Stromfresser :rolleyes: die GTX260 nimmt nicht viel mehr unter Last und Idle ist die GTX260 klar besser :up:
Ich behaupte einfach mal die GTX 260 saugt unter Last schon weniger als die GX2. :)

dargo
2008-06-14, 22:54:53
Ich behaupte einfach mal die GTX 260 saugt unter Last schon weniger als die GX2. :)
Das dürfte logisch sein:

GX2 = 250W TDP
G260GTX = 183W TDP

Snoopy69
2008-06-14, 23:00:02
Gibt es sichere Angaben zur Peak-Leistungsaufnahme der GTX280? Ich will wissen, ob ein Seasonic M12 700W für 2x GTX280 + hohem OC ausreicht.

Gast
2008-06-14, 23:06:45
Gibt es sichere Angaben zur Peak-Leistungsaufnahme der GTX280? Ich will wissen, ob ein Seasonic M12 700W für 2x GTX280 + hohem OC ausreicht.


Ich würde es nicht probieren, ist relativ unwahrscheinlich. Aber vielleicht kann das Netzteil auch mehr ab als draufsteht....

Gast
2008-06-14, 23:14:07
Ich will wissen, ob ein Seasonic M12 700W für 2x GTX280 + hohem OC ausreicht.

das kommt auf die einzelnen schienen an, 700W reichen auf jeden fall.

dargo
2008-06-14, 23:17:51
Gibt es sichere Angaben zur Peak-Leistungsaufnahme der GTX280? Ich will wissen, ob ein Seasonic M12 700W für 2x GTX280 + hohem OC ausreicht.
Dein NT hat combined 56A auf 12V. Eine G280GTX dürfte wohl bei ~180W liegen, also 15A. Nimm von mir aus 200W bist du bei 33A für beide Karten. Bei starken OC kann das aber schnell in Richtung ~45A gehen. Wenn du da noch eine hungrige CPU hast würde ich das nicht unbedingt riskieren. Ohne OC ja, mit "extrem" OC eher nein.

Gast
2008-06-14, 23:23:53
Reicht ein 500 Watt Netzteil für eine GTX 280 ?

dargo
2008-06-14, 23:26:41
Welches?

Snoopy69
2008-06-14, 23:36:50
Ich würds einfach ausprobieren, falls ich 2x GTXen hab. Für meine jetzige Kombi hab ich ca. 480W (NT-Ausgang - Steckdose sind 600W). Mit einer GTX280 käme ich auf ca. 400W (Steckdose 500W).
also noch 300W Reserve (bei 100% Ausgangslast). Alles ausgehend von 80% Effizienz (bei Seasonic kein Thema).

Bei 100% Ausganglast (700W) wären es also 875W Aufnahmeleistung

-=Popeye=-
2008-06-14, 23:37:04
Ja – bis vor ein paar Tagen. 8800 Ultra für 230 €uro :biggrin::

http://preissuche.pcgameshardware.de/a255322.html

Hätte ich keine GTX, würde ich die wohl kaufen. Das ist ein fettes Angebot.

MfG,
Raff

350€ GX2 :cool:
http://geizhals.at/eu/a324511.html

Die geht sicher noch unter 300€ diesen Monat ;D

... oder eine 9800GTX für ~200,-€ ;)
http://geizhals.at/deutschland/a324670.html

Zurück zum Thema, die bisher gesehenen Benchmark-Werte der GTX280 haben mich nicht wirklich überzeugt zu viele Ungereimtheiten und Fake-Screens (siehe Crysis (http://s7.directupload.net/images/080614/xvcccx4m.jpg), 3DM Vantage (http://ukj58sa8.multipic.de/vanteg.jpg)), absolut enttäuschend finde ich die GTX260 (siehe hier (http://www.pcgameshardware.de/aid,647500/News/it168com_Detaillierte_Benchmarkergebnisse_von_AMDs_und_Nvidias_Next-Generation-Karten/&menu=browser&image_id=838197&article_id=647500&page=1&show=original)) Vergleich mit einer 9800GTX, 3870X2 und 9800GX2, glaubwürdiger sind in meinen Augen die Werte der HD4850 und HD4870 Karten (siehe hier (http://www.pcgameshardware.de/aid,647500/News/it168com_Detaillierte_Benchmarkergebnisse_von_AMDs_und_Nvidias_Next-Generation-Karten/&menu=browser&entity_id=215810&image_id=838198&article_id=647500&mode=article&overview=yes&page=1&show=original)).

Aber egal, warten wir mal ab ob die bisher gezeigten Benchmark-Werte wirklich stimmen.

Gast
2008-06-14, 23:47:38
Wie kannst du bei der GTX280 von ungereimheiten sprechen und dann bei der GTX260 von Enttäuschung? Es is die selbe GPU mit nem deaktivierten Cluster und minimal geringere Taktrate, man kanns auch übertreiben... bisher sind keine echten Leaks zur HD4870 gekommen, da muss man warten wie die GTX260 dagegen hällt.

Die HD4850 ist klar das Schnäppchen diesen Sommer, aber der Thread Titel lautet auch Highend und nicht Midrangen 200€ Segment.

Gast
2008-06-15, 00:18:27
128 TMUs???

http://forums.vr-zone.com/showthread.php?t=288836

MartinRiggs
2008-06-15, 00:20:45
Also ich hätte ein Problem, wieder zu Ati zu wechseln. BQ-Fetischisten haben in der GF8 ihren Messias gefunden: Exzellentes AF und dazu SSAA-MSAA-Hybrid-Modi, die qualitativ so richtig knallen (und jede Karte plätten). Bei aktuellen Radeon-Karten ist A.I. Pflicht, es flimmert deswegen, es gibt keine Hybriden ...

Hoffentlich tut Ati etwas an den "Optimierungen", wenn die Quellen mit 32+ TMUs stimmen.

MfG,
Raff

Nö GF8 ist bestimmt nicht der BQ-Messiah zumindest alle Karten ohne vollwertigen G80 sind es nicht.
Auf meiner scheiss GT kann ich nur selten die Hybriden anmachen ohne das die Karte zusammenklappt und das normale MSAA-Bild finde ich schlechter als bei ATI(warum ka:confused:), das AF mag zwar besser sein aber Otto-Normalverbraucher sieht den Unterschied nicht.

Gast
2008-06-15, 00:25:23
auch wenn deine GT die Einstellungen nicht packt ist die Bildqualität nun mal auf den 8xxx/9xxx Serie super!

Unyu
2008-06-15, 00:30:01
Otto-Normalverbraucher sieht den Unterschied nicht.
Der kann dann viel Geld sparen und sich gleich eine 8400 schnappen.

Snoopy69
2008-06-15, 00:30:52
So schlecht steht die 9800GX2 garnicht da.
Ist minimal langsamer (ab und an auch mal schneller) und 40-50% günstiger. Hm...

-=Popeye=-
2008-06-15, 00:33:44
Wie kannst du bei der GTX280 von ungereimheiten sprechen und dann bei der GTX260 von Enttäuschung? Es is die selbe GPU mit nem deaktivierten Cluster und minimal geringere Taktrate, man kanns auch übertreiben... bisher sind keine echten Leaks zur HD4870 gekommen, da muss man warten wie die GTX260 dagegen hällt.

Die HD4850 ist klar das Schnäppchen diesen Sommer, aber der Thread Titel lautet auch Highend und nicht Midrangen 200€ Segment.

Antwort zur GTX280: Ganz einfach, weil dieser Bench (http://s7.directupload.net/images/080614/xvcccx4m.jpg) definitiv nicht stimmt, weil hier nicht auf High oder in einer niedrigeren Auflösung gebencht wurde.

Antwort zur GTX260: Weil sie sich einfach zuwenig von ihrer Vorgänger-Karte (9800GTX) absetzen kann.

Antwort zur HD4870: Diese Karte wird mit Sicherheit mit einer GTX260 (abhängig vom Spiel) mithalten können.

Antwort zur HD4850: hier sind wir uns einig, Leistungsniveau der 9800GTX zu besserem Preis.

Sonyfreak
2008-06-15, 00:33:50
Nö GF8 ist bestimmt nicht der BQ-Messiah zumindest alle Karten ohne vollwertigen G80 sind es nicht.
Auf meiner scheiss GT kann ich nur selten die Hybriden anmachen ohne das die Karte zusammenklappt und das normale MSAA-Bild finde ich schlechter als bei ATI(warum ka:confused:),Bezüglich BQ bietet die Geforce 8/9 Serie das aktuell maximal Mögliche. Ob die jeweilige Grafikkarte auch schnell genug ist, um diese theoretischen Vorzüge auf die Straße zu bringen, steht auf einem anderen Blatt. Fakt ist aber, dass man viele etwas ältere Spiele mit den HybridAA-Modi und dem nahezu perfekten AF sehr aufhübschen kann.
das AF mag zwar besser sein aber Otto-Normalverbraucher sieht den Unterschied nicht.Auch Otto-Normalverbraucher kann den Unterschied durchaus sehen, wenn er weiß wohin er schauen muss.
128 TMUs???
http://forums.vr-zone.com/showthread.php?t=288836Irgendwie kann ich mir nicht vorstellen, dass die GTX260 von 128 auf nur 56 TMUs beschnitten wird. Das wäre schon ein herber Eingriff.

mfg.

Sonyfreak

Unyu
2008-06-15, 00:33:56
So schlecht steht die 9800GX2 garnicht da.
Ist minimal langsamer (ab und an auch mal schneller) und 40-50% günstiger. Hm...
Gegen die GTX 260 für 350€ sieht die GX2 preis/leistungsmäßig imho sehr alt aus.

Snoopy69
2008-06-15, 00:40:35
Davon ist hier aber nix zu sehen...
Wenn eine übertaktete GTX280 teilweise schon hinter der GX2 liegt, dann eine GTX260 (default) erst recht. Oder wie siehst du das?

Öhm nö.

Alle Tests mit XP SP2 Crysis DX9 High Settings

Zotac GTX 280 AMP Edition Specs 700/1150/1400/Default GTX280 Specs 600/1100/1300

http://www.abload.de/img/gpuz_ocvwy.gif

http://8ynme6w1.multipic.de/750x445/clipboard09gh.jpg

http://s7.directupload.net/images/080614/xvcccx4m.jpg

http://8ynme6w1.multipic.de/750x637/clipboard06fg.jpg

http://8ynme6w1.multipic.de/750x641/clipboard08g.jpg

http://s5.directupload.net/images/080614/4v6a4yct.jpg

http://8ynme6w1.multipic.de/750x644/gtx28093.jpg

http://8ynme6w1.multipic.de/750x654/clipboard035.jpg

http://8ynme6w1.multipic.de/750x648/clipboard02f.jpg

http://8ynme6w1.multipic.de/750x652/clipboard04ff.jpg

http://8ynme6w1.multipic.de/750x649/clipboard05f.jpg

http://8ynme6w1.multipic.de/750x636/clipboard07g.jpg

http://www.abload.de/img/farcry_1600_1200jji.gif http://www.abload.de/img/farcry_2048_1536gl5.gif

Unyu
2008-06-15, 00:47:11
So richtig zu gefallen weiß der Test nicht:
- alter Treiber
- hm fast alle Balken über 100fps? Was soll den das?

Gerade wenns kritisch wird fehlen der GX2 auf jeden Fall ein paar MiB VRAM, würde ich nicht haben wollen für so viel Geld um dann an Texturen oder sonstewo sparen zu müssen.
Außerdem kann man ja die GX2 Balken nicht 1:1 mit Single GPU Balken vergleichen. :)

Unterm Strich ist die GTX 280 maximal 30% schneller als die 260. Da sind 350€ ein fairer Preis. ;)

Nightspider
2008-06-15, 00:47:46
Was denn nun ? 64 oder 128 TMUs ?

:|

Gast
2008-06-15, 00:47:51
Der Eintrag auf VR-Zone ist hinten und vorne falsch. Die GTX 280 besitzt 80 TMUs und die GTX 260 64 TMUs. Ferner beträgt die Anzahl der ROPs bei GTX 260 28 und nicht 24.
Lohnt sich nicht, auf die Werte näher einzugehen. Die "echten" Specs sind doch bereits seit Wochen bekannt.

-=Popeye=-
2008-06-15, 00:57:08
Gegen die GTX 260 für 350€ sieht die GX2 preis/leistungsmäßig imho sehr alt aus.

Nicht wirklich (siehe hier (http://www.pcgameshardware.de/aid,647500/News/it168com_Detaillierte_Benchmarkergebnisse_von_AMDs_und_Nvidias_Next-Generation-Karten/&menu=browser&image_id=838197&article_id=647500&page=1&show=original)), gegen eine 9800GX2 sieht das Ding mächtig alt aus.

Snoopy69
2008-06-15, 01:05:04
Die GTX260 muss also etwas das Preis-Niveau der 9800GX2 haben. Mit vielleicht 50€ Differenz.

Wenn man jetzt zb 550€ für die GTX280 annimmt und die 9800GX2 von 350 auf 300€ fällt, dann wäre man mit 2x 9800GX2 besser dran oder nicht?
Und eine GX2 ist laut den Benches nur minimal langsamer. Und 2 davon... Oo @ GTX280 :D

Gast
2008-06-15, 01:29:33
Nicht wirklich (siehe hier (http://www.pcgameshardware.de/aid,647500/News/it168com_Detaillierte_Benchmarkergebnisse_von_AMDs_und_Nvidias_Next-Generation-Karten/&menu=browser&image_id=838197&article_id=647500&page=1&show=original)), gegen eine 9800GX2 sieht das Ding mächtig alt aus.

Eine GX2 sieht in Sachen Stromverbrauch und MR alt aus. BTW sind das keine offiziellen Benchmark Ergebnisse, mal Dienstag abwarten und den Ball bis dahin flachhalten. Das Baby hat OC Potenzial ;)

Snoopy69
2008-06-15, 01:37:26
MR bei zb 80fps? Ajo klar :rolleyes:

Snoopy69
2008-06-15, 01:44:44
Stromverbrauch ist für einige sicher Zweitrangig, wenn dagegen min. 200€ (400DM) Differenz stehen.
Und MR merkt im 50FPS-Bereich keine Sau mehr.

Taigatrommel
2008-06-15, 01:45:37
MR bei zb 80fps? Ajo klar :rolleyes:
Als ich noch ein 8800 GTX SLI Setup hatte, lief zumindest WoW deutlich stockender und "unflüssiger" wie mit einem Single-Card Setup. Das bei beinahe gleich hohen FPS. Diese lagen übrigens so zwischen 50 und 100. Auch in Bereichen mit ~100 FPS fühlte sich das Spiel mit einer einzelnen Karte einfach flüssiger an.

Snoopy69
2008-06-15, 01:48:24
Bei 100fps - aha...
Du hörst sicher auch Gras wachsen, gell?

Taigatrommel
2008-06-15, 01:53:54
Die einen reagieren halt empfindlicher darauf als die anderen. Ich kann dir nur das sagen, was ich festgestellt habe und das ist eben ein zäherer Bildaufbau auch bei hohen FPS mit Multi-GPU im Vergleich zu einer Single-Chip Lösung.
Selbst wenn die GTX 280 "nur" 8800 GTX SLI Leistung bieten würde, wäre sie für mich bereits sehr interessant.

Eggcake
2008-06-15, 02:04:04
Selbst wenn die GTX 280 "nur" 8800 GTX Leistung bieten würde, wäre sie für mich bereits sehr interessant.

Ich nehme mal schwer an du meintest hier SLI oder 9800GX2... ;)

Snoopy69
2008-06-15, 02:04:56
Wie, 500-600€ für eine Karte hinlegen, die die Leistung von vor 2 Jahren hat? Wäre ziemlich sinnfrei...
Ich warte Benches ab. Irgendein GX2-User wird die GTX280 ja kaufen und berichten. Dann entscheide ich...

Gast
2008-06-15, 02:06:42
Du könntest mal von deinem hohen Ross runterkommen und nicht jeden hier anmachen der sich eine Karte holen möchte, da er kein SLI mag bzw. er bisher "nur" eine 8800GTX oder darunter hatte...

Gast
2008-06-15, 02:06:48
Bei 100fps - aha...
Du hörst sicher auch Gras wachsen, gell?

:ugly:

der Typ hat noch nie SLi gehabt, 100 FPS in MR ja sicher udn morgen kommt der Weihnachstman.

Das ruckeln war irgendwas anderes aber keine MR, ich würd soagr sagen 80% die alle schreihen "ey die scheiss MR" hab noch nie welche gesehen :rolleyes:

-=Popeye=-
2008-06-15, 02:09:40
Als ich noch ein 8800 GTX SLI Setup hatte, lief zumindest WoW deutlich stockender und "unflüssiger" wie mit einem Single-Card Setup. Das bei beinahe gleich hohen FPS. Diese lagen übrigens so zwischen 50 und 100. Auch in Bereichen mit ~100 FPS fühlte sich das Spiel mit einer einzelnen Karte einfach flüssiger an.

Wenn ich mich recht entsinne glaube ich irgendwo mal gelesen zuhaben das MR nur im Bereich von 25>35 FPS auftreten, seit dem Artikel der PCGH und dem Thread hier im Forum will auf einmal alle Welt MR feststellen und das in jedem Spiel.

Ihr spinnt doch alle. Sorry for OT.

Taigatrommel
2008-06-15, 02:11:54
Ich hatte normales und 3-way SLI. Habe letztens erst zwei 8800er bei ebay verkauft, bevor der Preisverfall zu groß wird.

Ja, ich meinte 8800 GTX SLI Leistung. Über MR habe ich mich nie wirklich beschwert, nur bei manchen Spielen waren sie halt deutlicher zu spüren als bei anderen. Mag auch daran liegen, dass WoW z.B. SLI nicht wirklich mag.
Ich habe auch keine Ahnung ob das wirklich MR waren. Fakt ist: SLI aktiv spürbar zäherer Spielverlauf, SLI deaktiviert spürbar besserer Bildverlauf bei gleichen FPS.

Gast
2008-06-15, 02:14:13
Seltsam, neue Gen aber das geheule um die Performance hört nicht auf. Kauft euch 2Karten, dann is Ruhe. Im R700 Thread das selbe, HD4870 setzt sich nicht von der X2 ab, eih Leuts kauft euch 2 aber lasst das Müllgeposte...

Snoopy69
2008-06-15, 02:19:20
@ Nick

Deshalb bin ich ja so gespannt, welchen Eindruck GX2-User von der GTX280 haben. Der Unterschied beim Stromverbrauch ist zwar nicht zu übersehen, aber wenn man für minimal mehr Geld 50-80% mehr Performance haben kann ist das schon verlockend.

Mal sehen...

Gast
2008-06-15, 02:23:28
@ Nick

Deshalb bin ich ja so gespannt, welchen Eindruck GX2-User von der GTX280 haben. Der Unterschied beim Stromverbrauch ist zwar nicht zu übersehen, aber wenn man für minimal mehr Geld 50-80% mehr Performance haben kann ist das schon verlockend.

Mal sehen...

512mb vs. 1024mb Vram beim nicht ganz optimalen Speichermanagment, noch fragen ^^

cR@b
2008-06-15, 02:24:52
Als ich noch ein 8800 GTX SLI Setup hatte, lief zumindest WoW deutlich stockender und "unflüssiger" wie mit einem Single-Card Setup. Das bei beinahe gleich hohen FPS. Diese lagen übrigens so zwischen 50 und 100. Auch in Bereichen mit ~100 FPS fühlte sich das Spiel mit einer einzelnen Karte einfach flüssiger an.

@ Snoopy

Das was er schreibt kann ich so bestätigen! Anscheinend spielen die Frames kaum ne Rolle zwecks MR. Auch wenn die Werte was anderes sagen, laufen MultiGPU Karte generell einfach hackeliger warum auch immer...

Man bin ich scharf auf die 280er... kanns kaum erwarten :ugly:

Gast
2008-06-15, 02:28:27
@ Snoopy

Das was er schreibt kann ich so bestätigen! Anscheinend spielen die Frames kaum ne Rolle zwecks MR. Auch wenn die Werte was anderes sagen, laufen MultiGPU Karte generell einfach hackeliger warum auch immer...

Man bin ich scharf auf die 280er... kanns kaum erwarten :ugly:

Bullshit.............

Snoopy69
2008-06-15, 02:34:28
512mb vs. 1024mb Vram beim nicht ganz optimalen Speichermanagment, noch fragen ^^
Am Ram kann´s nicht liegen. Sieh dir die Benches an.


@ cR@b

An MR in einem so hohen FPS-Bereich glaube ich nicht. Muss dann am nicht 100%igen Zusammenspiel mit SLI zusammenhängen. Evtl. auch abhängig vom Spiel.
Und wenn mir die Leistung der GTX280 nicht ausreicht, was mit Crysis 100% der Fall sein wird, bin ich mit 2x GTX280 auch wieder blöd dran. ;(

Taigatrommel
2008-06-15, 02:41:46
@ cR@b

An MR in einem so hohen FPS-Bereich glaube ich nicht. Muss dann am nicht 100%igen Zusammenspiel mit SLI zusammenhängen. Evtl. auch abhängig vom Spiel.
Und wenn mir die Leistung der GTX280 nicht ausreicht, was mit Crysis 100% der Fall sein wird, bin ich mit 2x GTX280 auch wieder blöd dran. ;(
Genau das meinte ich ja. Habe keine Ahnung, ob es sich dabei wirklich um Mikroruckler handelte. Jedoch zählt das Ergebnis:
SLI aus = teilweise flüssigerer Bildaufbau bei gleichen FPS.

Damit ist für mich eine einzelne Karte mit SLI Performance deutlich interessanter als eine MGPU Lösung. Du sprichst das zwei Problem an:
Nicht jedes Spiel verhält sich gleich gut mit SLI. Das scheint bei den MR ähnlichen Problemen (hoffe das ist diplomatisch genug ausgedrückt...) an und hört bei nur geringen bis gar keinen Performanceverbesserungen auf.

Da ist man dann teils dabei bei Spiel A SLI zu deaktivieren, Spiel B wiederum verträgt sich gut damit also wieder aktivieren, so ein Mist, Spiel C kurz spielen nur das hat Probleme mit SLI, also wieder rein ins Panel und deaktivieren. Sowas nervt. Diese Kompatibilität war schon immer ein Schwachpunkt von SLI. Das war sie schon zu GeForce 6xxx Zeiten. Es gibt Spiele und Auflösungen die profitieren extrem vom SLI und es gibt die genauen Gegenteile.

Bei letzteren sind gleichschnelle Einzelchipkarten also schlicht und ergreifend im Vorteil. Mal davon abgesehen, dass man diese dann auch noch in SLI nutzen kann um noch mehr Performance zu bekommen. Wobei dies ja auch mit 2x GX2 möglich ist.....

cR@b
2008-06-15, 02:47:15
Diese Gäste tststs :rolleyes:

Schaut mal der Typ auf nvnews hat ne Asus im Rechner und n paar Benchies etc. laufen lassen. Ich auch haben wüll :(

http://www.nvnews.net/vbulletin/showthread.php?t=114233&page=16

Name des Posters: Spajdr

Hat die Karte für rund 510€ angeblich bekommen...

Snoopy69
2008-06-15, 02:52:54
Wenn man aber eh die Leistung von 2x GTX280 benötigt, da zb 30", stellt sich die Frage, ob man 1100-1200€ oder nur 650-700€ für 2x 9800GX2 hinlegen sollte.

Crysis-Benches http://publish.it168.com/2008/0614/20080614001101.shtml

Die Point of View-Karte kommt also mit Assassin´s Creed für ca. 599€ daher.

dildo4u
2008-06-15, 02:55:25
Geil der erste Bench mit 8XMSAA@1920*1200 mit der GTX 280.Hat jemand Vergleichswerte bei 1900*1200?

http://s6.directupload.net/images/080615/w84vwjqk.jpg

http://www.nvnews.net/vbulletin/showpost.php?p=1681157&postcount=250

cR@b
2008-06-15, 03:00:09
Alter link hehe... naja ok so alt auch net.

Sein Sys mit 280 GTX

http://img261.imageshack.us/img261/2015/gtx2ez2.jpg

Mein Sys s. Sig

http://www.abload.de/img/c2d_3200_mark06_1140kr1.jpg (http://www.abload.de/image.php?img=c2d_3200_mark06_1140kr1.jpg)

Taigatrommel
2008-06-15, 03:00:37
Name des Posters: Spajdr

Hat die Karte für rund 510€ angeblich bekommen...
Der lebt in Tschechien, weiß ja nicht wie die Preise dort so sind..... jedenfalls postet dort auch ein Holländer. Bei einem seiner Shops hat die Karte 549,- gekostet bei einem anderen 503,- Euro.

Da könnte man ja beinahe hoffen Morgen tatsächlich Kampfpreise im Bereich ~500,- Euro zu sehen..... wobei es sicherlich auch wieder genügend Händler geben wird, die einen Frühkäuferaufschlag verlangen.:mad:

dildo4u
2008-06-15, 03:02:01
@cR@b

Wie gesagt mich interresiert eher die Performance mit 8XMSAA bei einer hohen Auflösung da bricht die 8800GTX noch recht ordentlich ein.

-=Popeye=-
2008-06-15, 03:02:34
Genau das meinte ich ja. Habe keine Ahnung, ob es sich dabei wirklich um Mikroruckler handelte. Jedoch zählt das Ergebnis:
SLI aus = teilweise flüssigerer Bildaufbau bei gleichen FPS.

Damit ist für mich eine einzelne Karte mit SLI Performance deutlich interessanter als eine MGPU Lösung. Du sprichst das zwei Problem an:
Nicht jedes Spiel verhält sich gleich gut mit SLI. Das scheint bei den MR ähnlichen Problemen (hoffe das ist diplomatisch genug ausgedrückt...) an und hört bei nur geringen bis gar keinen Performanceverbesserungen auf.

Da ist man dann teils dabei bei Spiel A SLI zu deaktivieren, Spiel B wiederum verträgt sich gut damit also wieder aktivieren, so ein Mist, Spiel C kurz spielen nur das hat Probleme mit SLI, also wieder rein ins Panel und deaktivieren. Sowas nervt. Diese Kompatibilität war schon immer ein Schwachpunkt von SLI. Das war sie schon zu GeForce 6xxx Zeiten. Es gibt Spiele und Auflösungen die profitieren extrem vom SLI und es gibt die genauen Gegenteile.

Bei letzteren sind gleichschnelle Einzelchipkarten also schlicht und ergreifend im Vorteil. Mal davon abgesehen, dass man diese dann auch noch in SLI nutzen kann um noch mehr Performance zu bekommen. Wobei dies ja auch mit 2x GX2 möglich ist.....

Diese Ausage ist nachvollziehbar, dass hat aber nichts mit Mikrorucklern zutun sondern mit Kompatibilitätsproblemen.

Coda
2008-06-15, 03:02:36
Ich befürchte auch. Trotzdem wäre es genial, wenn Nvidia 32xAF und ein Shader-AA auf den Markt werfen würde. :)
Es gibt kein Shader-AA.

-=Popeye=-
2008-06-15, 03:05:11
Was haltet ihr davon?

http://www.nvnews.net/vbulletin/showpost.php?p=1681633&postcount=312

cR@b
2008-06-15, 03:06:21
@cR@b

Wie gesagt mich interresiert eher die Performance mit 8XMSAA bei einer hohen Auflösung da bricht die 8800GTX noch recht ordentlich ein.

Die Auflösung krieg ich net hin :D Das muss dann Tombman übernehmen... am besten einmal mit, einmal ohne Sli.

Gast
2008-06-15, 03:09:49
Geil der erste Bench mit 8XMSAA@1920*1200 mit der GTX 280.Hat jemand Vergleichswerte bei 1900*1200?

http://s6.directupload.net/images/080615/w84vwjqk.jpg

http://www.nvnews.net/vbulletin/showpost.php?p=1681157&postcount=250


Naja ein schlechter Vergleich ^^

http://www.abload.de/img/10390505y34d9.jpg (http://www.abload.de/image.php?img=10390505y34d9.jpg)

Snoopy69
2008-06-15, 03:16:04
@ dildo4u

Hier ist meins (vom letzten Jahr!!!)
1920x1200 8xAA 2Q (<- wichtig) 16xAF

http://www.abload.de/thumb/hc_140kw6.jpg (http://www.abload.de/image.php?img=hc_140kw6.jpg)

http://service.futuremark.com/compare?3dm06=3632069

Gast
2008-06-15, 03:16:10
http://www.abload.de/thumb/12tai6hbg.gif (http://www.abload.de/image.php?img=12tai6hbg.gif)

dildo4u
2008-06-15, 03:23:55
@Gast mit welchem Takt läuft die X2 3870 bei CB hat die Karte schon bei 1600*1200 mit 8XMSSA nur 11000 Punkte.Außerdem bitte mit Aniso Filter auf Optimal testen wie oben.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/7/#abschnitt_3dmark06

Gast
2008-06-15, 03:25:05
Ich denk mal da war kein 8xAA aktiv ist nix neues bei Ati Treibern ;)

Gast
2008-06-15, 03:30:01
ist schon alles so wie es sein sollte,bloß waren es nicht eine x2 sondern noch eine 3870 dabei,also triple,aber wie gesagt eine x2 ist mindestens ebenbürtig beim 3d mark 06.

ach die karten liefen auf default:)

dildo4u
2008-06-15, 03:32:13
Dann schreib doch nästes mal bitte dazu das es ein Tripple CF ist. ;)

Snoopy69
2008-06-15, 03:33:03
Ich denk mal da war kein 8xAA aktiv ist nix neues bei Ati Treibern ;)
Obwohl angezeigt?
Den Screen kenne ich übrigens aus dem Luxx-Forum.

Mein Ergebnis ist jedenfalls echt :)

Aber die Ergebnisse von hier finde interessant. SLI skaliert zwar nicht immer optimal, aber dafür kann NV ja nix.

http://www.nvnews.net/vbulletin/showpost.php?p=1681633&postcount=312

PHuV
2008-06-15, 03:38:37
Was haltet ihr davon?

http://www.nvnews.net/vbulletin/showpost.php?p=1681633&postcount=312

Die erste vernünftige Benchmarktabelle, weil auch Auflösungen mit 2560x1600 in 1AA,1AF und 4AA, 4AF berücksichtigt werden.

In very high ist Crysis auf 30" immer noch nicht flüssig spielbar, selbst mit 280@SLI, aber die restlichen Werte sind doch recht ordentlich.

Snoopy69
2008-06-15, 03:41:23
In very high ist Crysis auf 30" immer noch nicht flüssig spielbar, selbst mit 280@SLI, aber die restlichen Werte sind doch recht ordentlich.
Hehe, und tombman hat mir mal wieder nicht geglaubt :D
Selbst bei 1920x1200 nicht mal richtig (Min-FPS nicht vergessen)

Sind auch die einzig sinnvollen Benches (mit HQ). Denn ohne viel Last setzen sich starke Karten nicht so sehr von Midrange-Karten ab. Für jmd, der seine Karte lange behalten will nicht unwichtig. (weil genug Reserven)

Gast
2008-06-15, 03:45:55
Obwohl angezeigt?
Den Screen kenne ich übrigens aus dem Luxx-Forum.

Jo leider

Gast
2008-06-15, 03:48:42
In very high ist Crysis auf 30" immer noch nicht flüssig spielbar, selbst mit 280@SLI, aber die restlichen Werte sind doch recht ordentlich.

Unter XP vieleicht mit dem FakeVeryHigh das rennt ja schneller ich denke schon damit kann man es zocken.

Snoopy69
2008-06-15, 03:49:40
Jo leider
Hat sich ja erledigt - ist ja T-CF.

Gast
2008-06-15, 03:50:17
Hat sich ja erledigt - ist ja T-CF.

Dann könnte es passen klar.

Gast
2008-06-15, 03:52:51
Geil der erste Bench mit 8XMSAA@1920*1200 mit der GTX 280.Hat jemand Vergleichswerte bei 1900*1200?

http://s6.directupload.net/images/080615/w84vwjqk.jpg

http://www.nvnews.net/vbulletin/showpost.php?p=1681157&postcount=250


http://img113.imageshack.us/img113/3199/6641554be7.th.jpg (http://img113.imageshack.us/my.php?image=6641554be7.jpg)

Gast
2008-06-15, 03:54:08
Dann könnten die Werte doch passen mit den 1920x1200 und um die 40 fps VH und einer GTX280? Das ist doch sehr sehr nett ok mit 4xAA sind es dann nur noch 22 fps aber das ist klar. Interessant zu wissen wäre noch welcher Treiber zum Einsatz kam.

tombman
2008-06-15, 03:54:20
:ugly:

der Typ hat noch nie SLi gehabt, 100 FPS in MR ja sicher udn morgen kommt der Weihnachstman.

Das ruckeln war irgendwas anderes aber keine MR, ich würd soagr sagen 80% die alle schreihen "ey die scheiss MR" hab noch nie welche gesehen :rolleyes:
Ist sicher richtig. Viele vergessen, daß AFR auch eine geringe Input-Latenz erzeugt.
Ich hatte normales und 3-way SLI. Habe letztens erst zwei 8800er bei ebay verkauft, bevor der Preisverfall zu groß wird.

Ja, ich meinte 8800 GTX SLI Leistung. Über MR habe ich mich nie wirklich beschwert, nur bei manchen Spielen waren sie halt deutlicher zu spüren als bei anderen. Mag auch daran liegen, dass WoW z.B. SLI nicht wirklich mag.
Ich habe auch keine Ahnung ob das wirklich MR waren. Fakt ist: SLI aktiv spürbar zäherer Spielverlauf, SLI deaktiviert spürbar besserer Bildverlauf bei gleichen FPS.
Jo, es ist nicht bei allen games gleich schlimm...

Btw, @nvnews 280er Werte. Sie ist ein bischen langsamer als 2x GTX.
Aber sie scheint ohne Probleme auf 700core zu laufen ;)
http://www.nvnews.net/vbulletin/showpost.php?p=1681237&postcount=284
Allerdings wird sie sehr heiß.
Das heißt also: da muß wakü drauf ;)

Der X4800 Wert ist jedenfalls 100% bestätigt (ohne oc) :cool:

Gast
2008-06-15, 03:57:42
Ich sehe gerade die 177.26 kamen zum Einsatz dann sind die Crysis Werte komplett falsch. Die 177.34 sind deutlich fixer

Gast
2008-06-15, 04:01:31
also Crysis in VH bei 1920x1200 4AA ist mit 280er SLI und etwas OC schon mal auf 45FPS und das ist in Crysis recht gut spielbar!

tombman
2008-06-15, 04:03:38
Ich sehe gerade die 177.26 kamen zum Einsatz dann sind die Crysis Werte komplett falsch. Die 177.34 sind deutlich fixer
Wurde nie bestätigt :rolleyes:

Ist bis jetzt reines Wunschdenken.

also Crysis in VH bei 1920x1200 4AA ist mit 280er SLI und etwas OC schon mal auf 45FPS und das ist in Crysis recht gut spielbar!
Jo, 1920x1200, VERY HIGH, 4xAA wird mit GTX280 SLI spielbar sein. Habe ich eh schon früher gesagt, einfach rein aus der 8800GTX SLI Leistung heraus geschätzt ;)

Man kanns auch so sagen:

In HD Qualität und Very High + 4xAA: EINE GTX280
In FULL HD Qualität und Very High+ 4xAA: ZWEI GTX280 ;)

Der Traum Crysis so zu spielen, wie es alle immer wollten, wird also erfüllt: wenn man mal eben 1000€ zur Hand hat ;D

Gast
2008-06-15, 04:05:18
Jo kann man so sehen. Man kann sagen wenn der Benchmark bei rund 30 fps liegt ist es spielbar...Um die 40er Marke ist schon deutlich fixer das passt schon. Also Tombi order gleich zwei GTX280 ich will wieder ein Bild vom Teppich :D ;)

Snoopy69
2008-06-15, 04:06:29
Ist sicher richtig. Viele vergessen, daß AFR auch eine geringe Input-Latenz erzeugt.


Man könnte die Standardeinstellung im Treiber bei den Vorgerenderten Bildern von "3" auf 2 oder 1 stellen

tombman
2008-06-15, 04:09:03
Jo kann man so sehen. Man kann sagen wenn der Benchmark bei rund 30 fps liegt ist es spielbar...Um die 40er Marke ist schon deutlich fixer das passt schon. Also Tombi order gleich zwei GTX280 ich will wieder ein Bild vom Teppich :D ;)
Ich rechne eh schon im Kopf aus: 2x 8800GTX + 2. Wakü = 400€
2x GTX280 = 1000€, 1000€-400€ = 600€

600€ müßte ich also aufbringen: das sollte doch zu schaffen sein ;D;D

Snoopy69
2008-06-15, 04:10:50
Jo kann man so sehen. Man kann sagen wenn der Benchmark bei rund 30 fps liegt ist es spielbar...
Für mich nicht!!!
Mit 30Min-FPS schon...

Im Crysis-Bench bei Assault Harbor hab ich auch um die 30FPS (avg), die aber im Laufe des Benches auf 15 und weniger FPS zusammensacken.

Immer noch schön spielbar? Ich denke nicht :wink:

Gast
2008-06-15, 04:13:56
Für mich nicht!!!
Mit 30Min-FPS schon...

Im Crysis-Bench bei Assault Harbor hab ich auch um die 30FPS (avg), die aber im Laufe des Benches auf 15 und weniger FPS zusammensacken.

Immer noch schön spielbar? Ich denke nicht :wink:

Da kann man noch so schön optimieren. Das Bloom Zeugs kostet auch nochmal rund 30% sowas stell ich gleich aus, kostet nur Leistung und nervt nur.

Gast
2008-06-15, 04:15:53
Für mich nicht!!!
Mit 30Min-FPS schon...

Im Crysis-Bench bei Assault Harbor hab ich auch um die 30FPS (avg), die aber im Laufe des Benches auf 15 und weniger FPS zusammensacken.

Immer noch schön spielbar? Ich denke nicht :wink:

Dann packst du halt noch eine 3. 280er rein und schon sind wir bei 60FPS ;)

Snoopy69
2008-06-15, 04:18:51
Ich rechne eh schon im Kopf aus: 2x 8800GTX + 2. Wakü = 400€
2x GTX280 = 1000€, 1000€-400€ = 600€

600€ müßte ich also aufbringen: das sollte doch zu schaffen sein ;D;D
Für 2x 8800GTX + Wakü müsste mehr rausspringen.

Aber 600 werden dir trotzdem nicht reichen. Was ist da mit Wakü? :D
Mit 750-800€ kommt alles hin.

tombman
2008-06-15, 04:21:04
Für 2x 8800GTX + Wakü müsste mehr rausspringen.

Aber 600 werden dir trotzdem nicht reichen. Was ist da mit Wakü? :D
Mit 750-800€ kommt alles hin.
Naja, die sollen von mir aus ne Zeit lang ohne oc oder wakü vor sich hindampfen ;D
Erstmal HABEN :D

Gast
2008-06-15, 04:24:35
Wurde nie bestätigt :rolleyes:

Ist bis jetzt reines Wunschdenken.


http://www.nvnews.net/vbulletin/showpost.php?p=1681283&postcount=290
Doch da

Gast
2008-06-15, 04:25:06
Vom Zeus kommen ja auch die Scores

Snoopy69
2008-06-15, 04:27:35
Dann packst du halt noch eine 3. 280er rein und schon sind wir bei 60FPS ;)
Reicht sicher auch nicht.
Wenn ich da noch an Tweaks denke...

Vielleicht wird es eine Karte Ende 2009 schaffen die Cry-Engine 2 auszureizen. Und das denke ich noch nicht mal :ulol:
Es gibt ja nicht mal eine CPU, die mit fetten Physik-Effekten zurecht kommt (nicht mal mehrere QX9775).

tombman
2008-06-15, 04:28:13
http://www.nvnews.net/vbulletin/showpost.php?p=1681283&postcount=290
Doch da
Das nennst du ne Bestätigung? Lol, da werf ich doch gleich mal paint an und schreibe 96fps rein mit Treiber 178.45 :rolleyes:

Gast
2008-06-15, 04:30:03
Das nennst du ne Bestätigung? Lol, da werf ich doch gleich mal paint an und schreibe 96fps rein mit Treiber 178.45 :rolleyes:

Die Tabelle ist auch vom Zeus, das kannst du als Bestätigung akzeptieren :-)

tombman
2008-06-15, 04:30:53
Die Tabelle ist auch vom Zeus, das kannst du als Bestätigung akzeptieren :-)
Und wer zur Hölle ist dieser Zeus? Jen-Hsun Huang? ;D

Snoopy69
2008-06-15, 04:39:39
Worüber ich mir noch Gedanken mache...
Was ist wenn ich wieder SLI hab, aber zukünftig keinen Nehalem nutzen kann (Intel will keine NV-Chipsätze unterstützen)?
Diese Lizenz-Sch... kotzt mich ziemlich an!!! :mad:

Das Paradoxe...
Intel und AMD sind Konkurenten. Aber trotzdem laufen ATI(AMD)-Karten auf Intel-MBs problemlos als CF :rolleyes:

tombman
2008-06-15, 04:52:38
Worüber ich mir noch Gedanken mache...
Was ist wenn ich wieder SLI hab, aber zukünftig keinen Nehalem nutzen kann (Intel will keine NV-Chipsätze unterstützen)?
Diese Lizenz-Sch... kotzt mich ziemlich an!!! :mad:

Da wird noch viel Wasser die Mühlen runterfließen. Das kommt sicher nicht. Oder Nvidia baut nur mehr Grakas ohne Ausgang. Dann rennt KEINE Nvidia Graka auf was anderem als nv mobos (die haben ja in Zukunft alle Ausgang über den chipset)

Snoopy69
2008-06-15, 04:58:47
Ich frag mich nur, warum man immer das Optimum verhindern will. In dem Fall 2x oder 3x NV + Nehalem!?
Man ist gezwungen zu AMD-CPUs oder auf "alte" Intel-CPUs zu greifen. Oder aber zu CF und dann Nehalem.
Man bekommt mom. jedenfalls NIE das Optimum!

tombman
2008-06-15, 05:01:56
Ich hab nur Angst, daß AMD sich mit Intel zusammentut nur um Nvidia zu killen.
Die denken wohl, die kommen ungeschoren davon, wenn Intel AMD nicht mehr braucht. Das wird ein böses Erwachen- weil Intel teilt mit niemandem ;)

Snoopy69
2008-06-15, 05:07:43
Wenn Intel 2009 oder 2010 mit dem "Larabee" kommt gibt es eh "Tote"

Gast
2008-06-15, 06:31:15
@dildo4u
http://www.abload.de/thumb/unbenannt471111lub.jpg (http://www.abload.de/image.php?img=unbenannt471111lub.jpg)
GX2 20% OC! .....

Gast
2008-06-15, 06:34:13
ach ja Canjon :D und wie mir da der vram flöten geht :lol:

tombman
2008-06-15, 06:38:54
@dildo4u
http://www.abload.de/thumb/unbenannt471111lub.jpg (http://www.abload.de/image.php?img=unbenannt471111lub.jpg)
GX2 20% OC! .....
Würde mal sagen klarer Sieg für die 280er ;)

Gast
2008-06-15, 06:42:11
jo aber so richtig!
Pack mal eine von deinen GTXen und laß mal laufen.
PS
Morgen hab ich so ein Ding,dann werd ich das ganze mal überprüfen....

tombman
2008-06-15, 07:00:35
jo aber so richtig!
Pack mal eine von deinen GTXen und laß mal laufen.
PS
Morgen hab ich so ein Ding,dann werd ich das ganze mal überprüfen....
Hier bitte :)

KORREKTUR-> SIEHE HIER
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6584732&postcount=975

http://img78.imageshack.us/img78/840/compare280xt9.jpg (http://imageshack.us)

Sieht so aus, als ob die beiden GTX gewinnen, ABER: ich bin mit dem oc schon am Ende, während wir alle wissen, daß die 280er auch auf 700core rennen kann ;)

Ich würde mal sagen: GTX280 kommt geil ;)

tombman
2008-06-15, 07:17:02
Ich sehe gerade, daß dieser noob dort zwar 16xAF im Text dazuschreibt, aber dann doch nur mit optimal getestet hat :mad:

Da verbessern sich zwei der vier Werte nochmal um ca 10% bei den beiden GTXen. Die anderen bleiben eher gleich. Es trifft canyon (jetzt 48fps) und forrest (jetzt 41fps).
Also teilweise schon deutlich schneller als die 280er...

Mit oc wird die 280er sicher innerhalb von 10% der beiden GTX liegen -> daher mal WAYNE ;)

Und wenn die Treiber sich auf die 280er eingeschossen haben -> :devil:

Und das beste: OHNE MR :)

Die GX2 dürfte aber ziemlich sicher geschlagen sein ;)

Daredevil
2008-06-15, 07:21:19
Du hast also das gleiche wie jetzt, nur als Einzelkarte. ( Oder Doppelte Leistung, mit den MultiGPU Problemen )
Und dafür hat man nun 2 Jahre geschuftet um ne Karte zu erschaffen die von ihrem Vorgänger abgezogen wird, auch wenn es 2 GPUs sind? ( Die machen sich eben selber Konkurenz )
Hmmmm wär es da nicht Billiger gekommen sich um die scheis Rucklerprobleme zu kümmern?
Scheint wohl doch nicht so einfach zu sein das ganze weg zu bekommen *seufz* :(

tombman
2008-06-15, 07:23:59
Du hast also das gleiche wie jetzt, nur als Einzelkarte. ( Oder Doppelte Leistung, mit den MultiGPU Problemen )
Und dafür hat man nun 2 Jahre geschuftet um ne Karte zu erschaffen die von ihrem Vorgänger abgezogen wird, auch wenn es 2 GPUs sind? ( Die machen sich eben selber Konkurenz )
Hmmmm wär es da nicht Billiger gekommen sich um die scheis Rucklerprobleme zu kümmern?
Scheint wohl doch nicht so einfach zu sein das ganze weg zu bekommen *seufz* :(
Wenn ich bei nur einer 280er bleibe dann ja. Also ca gleiche fps, aber subjektiv viel flüssiger.

Aber man könnte man ja noch ne zweite dazukaufen :devil:

AnarchX
2008-06-15, 08:25:55
NVIDIA GeForce GTX 280 Preview
What we all want to see: Benchmarks (http://www.vr-zone.com/articles/NVIDIA_GeForce_GTX_280_Preview/5872-3.html)

Wird es wohl langsam Zeit für den passenden Thread, spätestens wenn heute abend bei den Asiaten der 16. beginnt. ;)

Gast
2008-06-15, 08:46:21
worauf ich am meißten gespannt bin :D mal ganz ehrlich jetzt,auf Stalker mit AA....
???
das konnt ich schon lange mir meiner 8800GT zocken....

The_Invisible
2008-06-15, 08:49:52
hoffentlich werden zum vergleichen dann nicht nur die krüppel g9x herangezogen die unter hoher auflösung/aa stärker einbrechen.

mfg

GeneralHanno
2008-06-15, 08:52:34
für MICH muss sich der G200 mit der referenz in form der 8800 ULTRA messen!

wenn der thread die 1000 erreicht, kann das ganze ja in's grafikforum wandern ...

Unyu
2008-06-15, 10:55:01
NVIDIA GeForce GTX 280 Preview
What we all want to see: Benchmarks (http://www.vr-zone.com/articles/NVIDIA_GeForce_GTX_280_Preview/5872-3.html)

Was it eigentlich so schwer daran mit Bildqualität zu benchen? :(

Gast
2008-06-15, 10:58:56
jops, die benchmarks sind komletter BS
highend kaufen und in medium detail ohne AA und AF spielen^^

Mr.Magic
2008-06-15, 11:03:49
wozu?
wegen dem schiß Crysis?
Da reden doch eh nur noch Machoisten von ;D

Auch anderen Spielen würde eine Geschwindigkeitsverdopplung guttun.

Mass Effect bricht bei mir (Single-8800GTX-OC) z.B. bereits bei popeligem 1920x1080|16xCSAA|16xAF von 60FPS auf 35FPS ein (min FPS lagen irgendwo bei 20-25) - vSync on versteht sich.

Gast
2008-06-15, 11:42:12
Hier mal eine sehr nette Zusammenfassung der letzten Wochen inklusive der aktuellen Meldungen zu den SLI-Benches, 2D-Stromsparmodus und dem "Wundertreiber" 177.34. ;)

http://www.hardware-infos.com/news.php?news=2151

Banshee18
2008-06-15, 12:00:42
Also scheint es den Wundertreiber wirklich zu geben. Da nV ausdrücklich empfiehlt, mit ihm neu zu benchen, könnte ich mir vorstellen, dass er nicht nur bei Crysis starke Verbesserungen bringt. Ich freue mich auf aktuelle Benchmarks. :smile:

GeneralHanno
2008-06-15, 12:02:28
hartware.de plaudert mit nvidia über physik:
http://www.hartware.de/news_45015.html

AnarchX
2008-06-15, 12:07:07
Also scheint es den Wundertreiber wirklich zu geben. Da nV ausdrücklich empfiehlt, mit ihm neu zu benchen, könnte ich mir vorstellen, dass er nicht nur bei Crysis starke Verbesserungen bringt. Ich freue mich auf aktuelle Benchmarks. :smile:
Imo bleibt aber doch nur Grund zu Freude, wenn die im Vergleich stehenden GeForce ebenfalls mit diesem Treiber getestet werden. Die 9600GT stand ja auch damals teils doch etwas besser durch ihren persönlichen Treiber da, als es dann der faire Vergleich offenbarte.

Nebenbei: W1zzard meint der 177.36 soll wohl eher nicht viel bringen, aber bei den Tests die Techpowerup abliefert, kann man ihn nicht ganz so ernst nehmen.

Snoopy69
2008-06-15, 12:12:06
Hier bitte :)

KORREKTUR-> SIEHE HIER
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6584732&postcount=975

http://img78.imageshack.us/img78/840/compare280xt9.jpg (http://imageshack.us)

Sieht so aus, als ob die beiden GTX gewinnen, ABER: ich bin mit dem oc schon am Ende, während wir alle wissen, daß die 280er auch auf 700core rennen kann ;)

Ich würde mal sagen: GTX280 kommt geil ;)
Ist das mit oder ohne "2Q"? Meins ist mit!

Gast
2008-06-15, 12:13:12
hartware.de plaudert mit nvidia über physik:
http://www.hartware.de/news_45015.html
Interessant ist die Aussage, dass man die Physikberechnung auf eine Grafikkarte ab der Geforce 8 auslagern kann. Die Frage, die sich nun stellt: ist damit auch der integrierte Grafikchip eines Mainboards (8200) gemeint und wenn ja, reicht dieser für die Brechnungen aus, um die Frames nicht! in den Keller zu ziehen, sondern im Gegenteil?

The_Invisible
2008-06-15, 12:16:45
Auch anderen Spielen würde eine Geschwindigkeitsverdopplung guttun.

Mass Effect bricht bei mir (Single-8800GTX-OC) z.B. bereits bei popeligem 1920x1080|16xCSAA|16xAF von 60FPS auf 35FPS ein (min FPS lagen irgendwo bei 20-25) - vSync on versteht sich.

was ist hier popelig?

vor ein paar jahren konnte man noch froh sein wenn man mit ner 500€ karte 1920 ohne irgendwas flüssig spielen konnte, an vsync gar nicht zu denken.

mfg

GeneralHanno
2008-06-15, 12:17:10
wie sehr die physikberechnung entgültig auf die FPS drückt, werden vermutlich etliche tests der nächsten monate untersuchen. darüber zu spekulieren ist imo recht sinnlos ...

PS: morgen ist es soweit :D

AnarchX
2008-06-15, 12:17:13
Interessant ist die Aussage, dass man die Physikberechnung auf eine Grafikkarte ab der Geforce 8 auslagern kann. Die Frage, die sich nun stellt: ist damit auch der integrierte Grafikchip eines Mainboards (8200) gemeint und wenn ja, reicht dieser für die Brechnungen aus, um die Frames nicht! in den Keller zu ziehen, sondern im Gegenteil?
Das wird wohl dann die Vielzahl an PhysX-Spielen mit GPU-Unterstützung zeigen müssen, die für Ende 2008 spekuliert werden, ich könnte mir vorstellen, dass das Spiel anhand der Leistung der Physik-GPU gewisse Details, wie z.B. Partikelmenge festlegt. Aber das ist hier doch nicht das Thema.

Einzig interessant ist doch, dass NV G200 offenbar Physik und Grafik zu traut.

Winter[Raven]
2008-06-15, 12:17:52
Nebenbei: W1zzard meint der 177.36 soll wohl eher nicht viel bringen, aber bei den Tests die Techpowerup abliefert, kann man ihn nicht ganz so ernst nehmen.

Ich tippe ganz stark auf eine neue Beta in den nächsten Tagen ^_^

Snoopy69
2008-06-15, 12:18:05
Auch anderen Spielen würde eine Geschwindigkeitsverdopplung guttun.

Mass Effect bricht bei mir (Single-8800GTX-OC) z.B. bereits bei popeligem 1920x1080|16xCSAA|16xAF von 60FPS auf 35FPS ein (min FPS lagen irgendwo bei 20-25) - vSync on versteht sich.
Mensch, ist doch völlig logisch... Die GTX280 wird da auch ziemlich einbrechen. Und Crysis zwingt auch GTX280-SLI mächtig in die Knie.

Banshee18
2008-06-15, 12:22:02
Imo bleibt aber doch nur Grund zu Freude, wenn die im Vergleich stehenden GeForce ebenfalls mit diesem Treiber getestet werden. Die 9600GT stand ja auch damals teils doch etwas besser durch ihren persönlichen Treiber da, als es dann der faire Vergleich offenbarte.
Logisch, wobei ich allerdings bezweifle, dass man auch aus den alten Chips noch so viel Performance herauskitzeln kann.

Nebenbei: W1zzard meint der 177.36 soll wohl eher nicht viel bringen, aber bei den Tests die Techpowerup abliefert, kann man ihn nicht ganz so ernst nehmen.
Bei Hardware-Infos steht was von 177.34. Hast du dich verschrieben, der Autor von Hardware-Infos, oder sind das wirklich zwei verschiedene Treiber?

Snoopy69
2008-06-15, 12:26:32
NVIDIA GeForce GTX 280 Preview
What we all want to see: Benchmarks (http://www.vr-zone.com/articles/NVIDIA_GeForce_GTX_280_Preview/5872-3.html)

Wird es wohl langsam Zeit für den passenden Thread, spätestens wenn heute abend bei den Asiaten der 16. beginnt. ;)
Leider finde ich die Vergleiche zum Schnarchen langweilig. Leistungsfressendes AA wurde weggelassen. Da ist der andere Link wesentlich besser.
Entweder wollen die einen verarschen oder die haben keine Ahnung worauf es ankommt.

Gibt es irgendwo einen Vergleich zw. 8800GTX/Ultra und GTX280 in HQ? (ausser den von mir)

Andreas12
2008-06-15, 12:30:29
Mich würde mal die Performance beim FS- X interessieren.
Wird aber wie immer, bestimmt nicht mit gebencht.

Snoopy69
2008-06-15, 12:39:26
@ tombman

Welches MB nutzt du, wenn SLI?

Gast
2008-06-15, 12:39:50
Also scheint es den Wundertreiber wirklich zu geben. Da nV ausdrücklich empfiehlt, mit ihm neu zu benchen, könnte ich mir vorstellen, dass er nicht nur bei Crysis starke Verbesserungen bringt. Ich freue mich auf aktuelle Benchmarks. :smile:


Uiuiuiu... ;)

Gibt es also von Nvidia wieder mal Review-Treiber mit super toller Performance, ähh Balkenlänge damit man gegenüber der Konkurrenz nicht so schlecht aussieht. Dafür aber sehr wahrscheinlich wieder mal mit Bildfehlern, flimmernden Texturen etc...

Also nichts neues, same procedure as last year (naja nicht ganz weil ATi letztes Jahr voll abgelust hat, aber für die Jahre davor stimmt es).

AnarchX
2008-06-15, 12:48:44
Bei Hardware-Infos steht was von 177.34. Hast du dich verschrieben, der Autor von Hardware-Infos, oder sind das wirklich zwei verschiedene Treiber?
Meine natürlich 177.34:
http://www.xtremesystems.org/forums/showpost.php?p=3061346&postcount=11

Unyu
2008-06-15, 12:49:16
Gibt es also von Nvidia wieder mal Review-Treiber mit super toller Performance, ähh Balkenlänge
Klar ein Treiber, der bei jedem Spiel Details weglässt. :cool:
Wie groß ist der nochmal? 10GiB?