PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 280/260: (P)Review-Thread - Teil 2


Seiten : 1 [2] 3

tombman
2008-07-05, 04:12:30
@ tombman
Dafür, dass es 2x 4870 sind nicht schlecht, oder?
1920x1200 + 8x AA + 16x AF
http://www.abload.de/image.php?img=48702tj8.jpg
410€ vs. 768€ (jeweils minimum)
Also CF vs. SLI
Hier das Gleiche mit SLI, aber viel stärkerer CPU. Und jeder weiss, dass man 2x GTX280 @ HD/HQ eine sehr starke CPU braucht.
http://www.forumdeluxx.de/forum/attachment.php?attachmentid=72060&d=1214907434
Jetzt fehlen nur noch gescheite Spielebenches...

1.) 3DMark2006 -> ;D
2.) 8xAA -> ;D²

Ende der Durchsage.

p.s.:

Es ist ja schon entlarvend, daß HD48xx user 3DMark2006 benchen und GTX2xx user VANTAGE ;)

Und dann natürlich alles in 8xAA- weil das eine Stärke von ATI ist :D

Gast
2008-07-05, 04:25:27
http://youtube.com/watch?v=vQdrJCPsWF0

GTX280 Destruction unbedingt mal anschaun eine Karte gibt bei über 100 Grad den Geist auf.

Nur Geil ;D bei 115° R.I.P. =)

tombman
2008-07-05, 04:27:59
Nur Geil ;D bei 115° R.I.P. =)
gar nix is RIP :rolleyes:

Snoopy69
2008-07-05, 04:45:44
1.) 3DMark2006 -> ;D
2.) 8xAA -> ;D²

Ende der Durchsage.

p.s.:

Es ist ja schon entlarvend, daß HD48xx user 3DMark2006 benchen und GTX2xx user VANTAGE ;)

Und dann natürlich alles in 8xAA- weil das eine Stärke von ATI ist :D
Das Gleiche suche ich mit Vantage Extreme.

Und warum lachst du wegen 8xAA? Nicht ok? Hätte ich zb nur eine GTX280 käme ich mir ziemlich gearscht vor, da die 2 ATI-Kärtchen (410€) eine GTX280 ziemlich versägen (fast doppelte Punkte). Wie gesagt, man müsste mehr Spiele-Benches sehen. Für 410€ scheint es jedenfalls mächtig Power zugeben.

btw:
Ich hab gelesen, dass ATI die höchste Performance-Dichte pro mm² hat. Würde ATI nun seine GPU genauso gross bauen (also noch mehr Einheiten parallelisieren wie es NV mit dem G200 gemacht hat), wäre ATI der wahre Sieger. Die Technik vor ATI liest sich auf jeden Fall interessanter.

NV hat lediglich auf altbewährte Technik zurückgegriffen und Flaschenhälse aufgebohrt (so PCGH)


btw:

Hast du deine Wasserkühler schon? Meine beiden GPU-X² G200 "wären" normal schon da, aber ich war es nicht :D Naja, am Mo. dann...
Draufgebastelt werden sie aber erst in 1-2 Wochen.

Cpl. Dwayne Hicks
2008-07-05, 05:05:52
Weil nVidia schwächer mit 8x AA ist darf mit der Einstellung jetzt also nicht mehr gebencht werden oder wie? :hammer:

Gast
2008-07-05, 05:12:50
Weil nVidia schwächer mit 8x AA ist darf mit der Einstellung jetzt also nicht mehr gebencht werden oder wie? :hammer:

Nvidias 16xAA ist schneller Sportsfreund nur wird es deshalb öfter gemessen?

Cpl. Dwayne Hicks
2008-07-05, 05:36:20
Ein bisschen schneller ist vielleicht 16x CSAA, es funktioniert aber nicht in jedem Spiel.... "Sportsfreund"
Ich finde es übrigens schon vernünftig dass in den meisten reviews ausschliesslich standard MSAA in benchmarks verwendet wird...

Snoopy69
2008-07-05, 05:43:26
Und wie wäre das Verhältnis richtig?
ATI 8xAA = NV 4xAA?

Oder hat jmd Screens (vergrössert) wo man 8xAA von ATI und NV vergleichen kann?


btw:

Hardcore-SLI-"Bitch" alias "tombgirl" :D

http://youtube.com/watch?v=4-Fvelz5hW8&feature=related

Cpl. Dwayne Hicks
2008-07-05, 05:47:27
Von der BQ her nehmen die sich nicht viel...

Gast
2008-07-05, 10:09:21
Das Gleiche suche ich mit Vantage Extreme.


Hast du schon einen Vantage Benchmark mit 8xAA in Petto? Weil der 3DMark06 nichts mehr heute aussagt, außer das du eine schnelle CPU hast.

Superheld
2008-07-05, 10:14:44
Von der BQ her nehmen die sich nicht viel...

ihr ein alter Test zum r600, hat sich ja nischt verändert in der Zeit

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/6/#abschnitt_aa_kontrolliert

In Half-Life 2 kann das 8xAA auf dem R600 seine vollen Stärken ausspielen und schlägt das 8xQAA von nVidia deutlich. Beinahe sämtliche Winkel werden von der ATi-Grafikkarte besser geglättet – sehr gut, ATi!. Das 8xQAA von nVidia ist keinesfalls schlecht und dem 4xAA überlegen, die Sampleanordnung scheint nVidia aber nicht so gut wie den Kanadiern gelungen zu sein. So hat ein Quervergleich mit anderen Spielen gezeigt, dass ATis Implementierung effektiver arbeitet.

Der 8xAA-Modus ist ATi auf dem R600 sehr gut gelungen und sieht ohne Zweifel besser als nVidias 8xQAA aus. Selbst das 16xQAA muss sich anstrengen, um an das acht-fache AA auf dem R600 heranzukommen.

Cpl. Dwayne Hicks
2008-07-05, 10:54:52
OK :smile: Dann ist es umso besser dass die D3D10 Karten von ATi mit 8x MSAA so gut abscheiden.

Und 16xQ CSAA ist deutlich lahmer als ATi's 8x MSAA.

Gast
2008-07-06, 21:03:31
Und 16xQ CSAA ist deutlich lahmer als ATi's 8x MSAA.

nur gibt es auch 16xCSAA, dieses ist deutlich schneller und in >90% der fälle auch schöner als alle 8x-modi.

tombman
2008-07-06, 21:54:45
Hardcore-SLI-"Bitch" alias "tombgirl" :D

http://youtube.com/watch?v=4-Fvelz5hW8&feature=related
:heart:

Die nehm ich gleich mit :D Obwohl sie ja leider kein besonders gebährfreudiges Becken hat (worauf ich stehe) ;D

][immy
2008-07-06, 23:32:21
Und wie wäre das Verhältnis richtig?
ATI 8xAA = NV 4xAA?

Oder hat jmd Screens (vergrössert) wo man 8xAA von ATI und NV vergleichen kann?


btw:

Hardcore-SLI-"Bitch" alias "tombgirl" :D

http://youtube.com/watch?v=4-Fvelz5hW8&feature=related

hmm, von einer solchen kühlung habe ich mir ehrlich gesagt mehr versprochen.
ist aber irgendwie ein komischer test. 47xx = eine 280GTX und über 10000 für 2x 280 GTX (SLI & OC). also gerade beim 3D-mark würde ich erwarten das es schon 2x so schnell ist. die scheint darüber ja schon fast erstaunt zu sein.
trotzdem schon erschreckend, das man die karte auch mit flüssigem stickstoff nicht so viel höher takten kann.

The_Invisible
2008-07-06, 23:40:07
die eine gtx war ja ohne oc, der sli benchmark mit.

@chick
sieht wirklich nicht schlecht aus, zumindest viel besser als andere "computer-chicks" die ich so kenne :D

mfg

Gast
2008-07-06, 23:54:32
Und wie wäre das Verhältnis richtig?
ATI 8xAA = NV 4xAA?




Wohl eher genau anders herum...

Grestorn
2008-07-07, 07:45:34
Wohl eher genau anders herum...

Die reinen 4x und 8x MS Modi von ATI und nV sind exakt gleichwertig. Das Samplemuster ist prinzipiell identisch, nur gespiegelt. Es gibt keinen Grund, warum das eine besser als das andere sein sollte. Durch die Spiegelung findet man immer Szenen, bei denen das eine Muster etwas besser passt, dafür gibt es genau so viele Szenen, bei denen das andere Muster etwas bessere Resultate liefert.

Unterschiede ergeben sich alleine durch die jeweiligen Zusatzoptionen beim AA.

reunion@work
2008-07-07, 08:04:33
Die reinen 4x und 8x MS Modi von ATI und nV sind exakt gleichwertig. Das Samplemuster ist prinzipiell identisch, nur gespiegelt. Es gibt keinen Grund, warum das eine besser als das andere sein sollte. Durch die Spiegelung findet man immer Szenen, bei denen das eine Muster etwas besser passt, dafür gibt es genau so viele Szenen, bei denen das andere Muster etwas bessere Resultate liefert.

Unterschiede ergeben sich alleine durch die jeweiligen Zusatzoptionen beim AA.

4xMSAA ist gespiegelt, 8xMSAA nicht.

Grestorn
2008-07-07, 08:51:35
Ich finde gerade keine passenden Artikel im Netz. Kennst Du einen Link, der die Sample-Pattern von ATI und nVidia vergleicht?

reunion@work
2008-07-07, 09:17:03
Ich finde gerade keine passenden Artikel im Netz. Kennst Du einen Link, der die Sample-Pattern von ATI und nVidia vergleicht?

Nein, aber so sehen die Pattern aus:

G80:

http://img83.imageshack.us/img83/535/g808xmsaajt8.png

R600:

http://img137.imageshack.us/img137/7683/r6008xmsaaqv7.png

Gast
2008-07-07, 09:26:26
Die reinen 4x und 8x MS Modi von ATI und nV sind exakt gleichwertig. Das Samplemuster ist prinzipiell identisch, nur gespiegelt. Es gibt keinen Grund, warum das eine besser als das andere sein sollte. Durch die Spiegelung findet man immer Szenen, bei denen das eine Muster etwas besser passt, dafür gibt es genau so viele Szenen, bei denen das andere Muster etwas bessere Resultate liefert.

Unterschiede ergeben sich alleine durch die jeweiligen Zusatzoptionen beim AA.


Warum schreibst Du irgend welchen Schmus, wenn Du es doch gar nicht genau weisst?! Leute, die nur irgendwas nachplappern und das dann so hinstellen als wäre es Fakt gibts hier doch schon genug...

Odal
2008-07-07, 10:29:00
:heart:

Die nehm ich gleich mit :D Obwohl sie ja leider kein besonders gebährfreudiges Becken hat (worauf ich stehe) ;D


Wie du stehst auf Büffelhüften? :biggrin:
Wobei die Ische mir da auch nicht gefällt....aber nach den Auto Tuning Girls scheint das ja jetzt in Mode gekommen zu sein...
Den untersetzten Herren mit lichtem Haar aus dem anderen Video find ich aber passender.

Grestorn
2008-07-07, 10:30:08
Warum schreibst Du irgend welchen Schmus, wenn Du es doch gar nicht genau weisst?! Leute, die nur irgendwas nachplappern und das dann so hinstellen als wäre es Fakt gibts hier doch schon genug...

Ich kann die Grafiken die Reunion oben gepostet hat leider nicht sehen (die URL wird hier im Konzern gefiltert), aber ich gehe schon davon aus, dass Reunion recht hat. Wie sehr sich die Pattern unterscheiden und wie stark sich das auswirkt, kann ich erst mal nicht sagen.

Es mag gut sein, dass ich einem Irrtum aufgesessen bin, was die Pattern angeht. Und? Wenn Du Dich noch niemals in Deinem Leben geirrt hast, dann werf doch einfach mal den ersten Stein...

Übrig bleibt: Wenn das Pattern von ATI wirklich besser sein sollte, warum hat es dann nVidia nicht inzwischen adaptiert? Auf ein Pattern ist schließlich kein Patent... :)

Deswegen halte ich generelle Qualitätsunterschiede als Folge des Patterns, eher für unwahrscheinlich.

tomsen
2008-07-07, 10:37:06
Wie du stehst auf Büffelhüften? :biggrin:
Wobei die Ische mir da auch nicht gefällt....aber nach den Auto Tuning Girls scheint das ja jetzt in Mode gekommen zu sein...
Den untersetzten Herren mit lichtem Haar aus dem anderen Video find ich aber passender.

Ja tombman weiß woraufs ankommt. Wieso steht die nicht gleich im Bikini da, dann würde ich mir das Video auch komplett anschauen. :D

VMod hat sie glaub nicht durchgeführt, da ihr wohl die Kenntnisse fehlen?! Den Takt erreichen viele auch unter Luft, der ist nicht gerade berauschend.

Snoopy69
2008-07-07, 11:14:47
Ja tombman weiß woraufs ankommt. Wieso steht die nicht gleich im Bikini da, dann würde ich mir das Video auch komplett anschauen. :D

VMod hat sie glaub nicht durchgeführt, da ihr wohl die Kenntnisse fehlen?! Denn der Takt erreichen viele auch unter Luft, der ist nicht gerade berauschend.
Trotzdem hat sie wohl mehr Punkte wie du :ulol:

tomsen
2008-07-07, 12:21:09
Hat ja auch 2 Karten und ich nur eine.

Gast
2008-07-07, 13:01:36
http://www.overclockers.co.uk/showproduct.php?prodid=GX-144-LT&groupid=701&catid=56&subcat=1176&name=Leadtek%20GeForce%20GTX%20280%20Extreme%201024MB%20GDDR3%20TV-Out/Dual%20DVI%20(PCI-Express)%20-%20Retail

Snoopy69
2008-07-07, 13:07:09
http://www.overclockers.co.uk/showproduct.php?prodid=GX-144-LT&groupid=701&catid=56&subcat=1176&name=Leadtek%20GeForce%20GTX%20280%20Extreme%201024MB%20GDDR3%20TV-Out/Dual%20DVI%20(PCI-Express)%20-%20Retail

rund 488€

Zu diesem Preis bekommen wir die bestimmt nicht so schnell ;(

Gast
2008-07-07, 16:07:42
Snoopy hast du nich tauch 2xGTX280 ?

Snoopy69
2008-07-08, 06:59:39
Hatte...

PHuV
2008-07-08, 14:55:52
Hatte...

Wie, kein SLI mit 280er mehr? :confused:

Snoopy69
2008-07-08, 18:34:11
Hab sie vor ein paar Tagen mit je 20€ Verlust abgestossen... *puh*
Wenn ich jetzt wieder kaufen würde, hätte ich nur + :)

Ich warte mal den 11.07. ab. Vielleicht kommt wirklich diese Hammerkarte

http://www.overclockers.co.uk/showproduct.php?prodid=GX-144-LT

Erstmal muss ich mein Sys. von Grund auf neu aufbauen. Ein E6600 @ 3700MHz ist einfach zu schwach für ein GTX280-SLI. Soll ein Quad mit min. 4000MHz werden.

Beispiel...
Um einem Q6600 @ default in Spielen gleich zuziehen muss ein E8400 mit 3600MHz laufen.
Wie hoch der wohl laufen müsste bei einem 4000MHz-Quad? :wink:

MB wird höchstwahrscheinlich das ASUS Striker Extreme 790i. Gefältt mir mir zwar optisch nicht so gut wie das XFX/EVGA, aber es ist der absolute OC-König unter den 780/790i-Brettern.

ZÜNDELholz
2008-07-08, 20:13:48
Hab sie vor ein paar Tagen mit je 20€ Verlust abgestossen... *puh*
Wenn ich jetzt wieder kaufen würde, hätte ich nur + :)




Erstmal muss ich mein Sys. von Grund auf neu aufbauen. Ein E6600 @ 3700MHz ist einfach zu schwach für ein GTX280-SLI. Soll ein Quad mit min. 4000MHz werden.

Beispiel...
Um einem Q6600 @ default in Spielen gleich zuziehen muss ein E8400 mit 3600MHz laufen.
Wie hoch der wohl laufen müsste bei einem 4000MHz-Quad? :wink:

MB wird höchstwahrscheinlich das ASUS Striker Extreme 790i. Gefältt mir mir zwar optisch nicht so gut wie das XFX/EVGA, aber es ist der absolute OC-König unter den 780/790i-Brettern.

Wenn du so geil auf Kerne bist dann warte doch auf den Nehalem.
Da ja laut deiner aussage die games mit 4 Kernen voll genutzt werden und die Quads damit völlig überlastet sind, ist deine strategie doch völlig sinnlos!
Denk mal drüber nach....
Gruss ZÜNDELholz

Snoopy69
2008-07-08, 20:21:38
Denk mal drüber nach...

Nehalem und Nforce? :rolleyes:

ZÜNDELholz
2008-07-08, 20:30:32
Denk mal drüber nach...

Nehalem und Nforce? :rolleyes:

Na siehst Du , meine Antwort war genauso sinnlos, wie Dein Quadbeispiel für SLi in Games.

obwohl, ich hoffe mal, dass mit der Nehalem-plattform Nvidia mit Intel bezüglich SLi einig wird, denn den Nforce-shit will ich mir nicht antun.

ottoman
2008-07-08, 21:52:56
Beispiel...
Um einem Q6600 @ default in Spielen gleich zuziehen muss ein E8400 mit 3600MHz laufen.
Wie hoch der wohl laufen müsste bei einem 4000MHz-Quad? :wink:
den käse hast du schon auf http://www.forumdeluxx.de/forum/showthread.php?t=504260&page=7 verzapft und bist immernoch den link schuldig geblieben. ein spiel muss schon auf quadcore optimiert sein, damit es was bringt. solche spiele kannst du jedoch an einer hand abzählen. ansonsten bringt dir der qc genau 0,nix. da ist es egal wieviel kerne der prozessor hat.
wenn du mal beispiele bringen könntest, wo in üblichen settings (also nicht 800er auflösung) ein quadcore so derbe schneller ist als ein dualcore, so wie oben beschrieben, dann kannst du das gerne weiter behaupten.
ansonsten ist es einfach bullshit! ;)

edit: hast du dir http://www.computerbase.de/artikel/hardware/prozessoren/2008/bericht_1_2_3_4_cpu-kerne/ überhaupt mal angeschaut? da bringt ein qc fast nix und die testen nur in 1280x1024 ohne aa/af...

Snoopy69
2008-07-08, 22:13:09
@ otto

Heft kaufen. Links selber suchen...
Wie gesagt - Dirt und Lost Planet sind erst der Anfang.

Zudem bei euch ist von EINER Karte die Rede. Hast du eine Ahnung was 2x GTX280 + OC an Daten ziehen? :wink:
Den CB-Link kenne ich schon. Für die Tonne, glaubs mir. Ich gehe von GTX280SLI aus!!!

btw: Käse und bullshit ist, wenn man nicht liest, was ich schreibe...


@ Zündel

Ich will aber JETZT nen Quad unsd nicht erst Q4/2008 (wohl eher Q1/2009)

ZÜNDELholz
2008-07-08, 22:26:33
@ otto

Heft kaufen. Links selber suchen...
Wie gesagt - Dirt und Lost Planet sind erst der Anfang.

Zudem bei euch ist von EINER Karte die Rede. Hast du eine Ahnung was 2x GTX280 + OC an Daten ziehen? :wink:
Den CB-Link kenne ich schon. Für die Tonne, glaubs mir. Ich gehe von GTX280SLI aus!!!

btw: Käse und bullshit ist, wenn man nicht liest, was ich schreibe...



Aha, deswegen werden aus dualcoreoptimierten Games plötzlich quadcoreoptimierte Games, wenn der Snoopy sli aktiviert. :D

[QUOTE=Snoopy69;6645087]@ Zündel

Ich will aber JETZT nen Quad unsd nicht erst Q4/2008 (wohl eher Q1/2009) [QUOTE=Snoopy69;6645087]

Na das kannst du auch machen, aber doch bitte nicht mit der Begründung, dass sich erst durch ein Quadcore SLi lohnt.

ottoman
2008-07-08, 22:32:50
warum ist der cb link für die tonne? weil die "nur" eine 9800gx2 genommen haben?
die aktuelle pcgh habe ich gerade nicht zur hand, aber wenn die (laut aussagen) nur in 1024x768 testen, dann sagt das nicht gerade viel. oder spielst du mit 4ghz quadcore und 2x gtx280 in so einer auflösung, dazu ohne aa/af? :)

Ronny145
2008-07-09, 00:31:05
Der 3,6 Ghz Dual ist dort aber durchgehend schneller als der Quad 2,4 Ghz. Da würde bei einigen games deutlich weniger Takt reichen, um die Kerne auszugleichen. Von daher müsste der Quad erstmal gleichziehen. Bei Rainbow Six Vegas scheints da auch ne GPU Limitierung zu geben, zwischen 2,4 und 3,6 Ghz kaum Unterschied.

Snoopy69
2008-07-09, 00:43:48
Na das kannst du auch machen, aber doch bitte nicht mit der Begründung, dass sich erst durch ein Quadcore SLi lohnt.
Bitte erst mitreden, wenn man auch SLI hat/hatte...
Ist doch wohl logsich, dass die CPU bei SLI mehr schaffen muss bzw. sich der Bereich der Auflösung nach oben hin verschiebt, da mit SLI viel später ein Graka-Limit eintritt :wink:

@ otto

Weil die GX2 halb so stark ist wie GTX280-SLI? :wink:
Wie grad geschrieben... Je später das Graka-Limit, desto höher kann die Auflösung sein, wo die CPU noch limitieren kann. Klar soweit?
Noch gibt es wenige Spiele, die mit 4 Cores gut skalieren. Reichen würden auch 3 Cores. Dirt und Lostplanet (50-60% Vorteile durch QC) sollte man aber nicht vergessen.

ottoman
2008-07-09, 02:06:18
ja natürlich ist die 9800gx2 nur etwa halb so stark wie die gtx280sli, dafür war es aber auch nur eine 1280er auflösung ohne alles beim cb test. eine hohe auflösung und viel aa/af braucht aber ein vielfaches der leistung einer 1024/1280er auflösung.

am besten wäre es, wenn sich da mal ein magazin bzw eine seite dransetzen könnte und mal testet, was ein quadcore im vergleich zum dualcore bringt. von mir aus auch mit 280sli, aber hauptsache in gängigen auflösungen (ab 1600x1200 bei der gtx280) und üblichen qualisettings (4x+ AA). dazu am besten noch verlaufsdiagramme der fps, also nicht nur min/max/avg werte sondern ein schönger graph. dann sieht man auch, ob das spiel allgemein mehr cpu kraft braucht, oder nur an wenigen stellen. und falls die cpu nur an wenigen stellen ins schwitzen kommt, wie sehen da die fps aus? wird es kritisch bei 30fps oder ist es komplett egal weil die fps bei 70 liegen? usw usf

ich kenne zwar den aktuellen test bzw. vergleich der pcgh nicht, aber wenn nur wieder mit 1024er auflösung getestet wurde, dann sagt das nunmal echt nicht viel. kann ich mir schon gut vorstellen, dass da ein qc in einigen spielen ordentlich was bringt. nur bei einem 22"+ monitor und hohen aa/af werten (weniger wäre ein bisschen unwürdig bei einer gtx280 :) ) schrumpft der vorsprung doch arg zusammen, wenn er nicht sogar 0 wird.
und im moment ist es keinesfalls so, dass man einen 3600er dualcore braucht um einem 2400er quad paroli bieten zu können, jedenfalls in spielen und üblichen auflösungen. ich lasse mich gerne vom gegenteil überzeugen, aber bis jetzt habe ich noch nichts widersprüchliches gehört bzw gesehen :)

Snoopy69
2008-07-09, 02:16:14
Wie schon mehrmals geschrieben...
PCGH-Heft kaufen oder abwarten bis es im Netz steht. ist allerdings NUR EINE Graka

Undertaker
2008-07-09, 08:24:39
Snoopy, für ein SLI brauchst du in der Tat durch das höhere GPU-Limit mehr Leistung (bzw. kannst mehr CPU-Power in fps umsetzen), mehr Kerne kann ein Spiel deswegen nicht nutzen. Ein 4GHz Quad wird auch mit 3 GTX280 von 50 Spielen in evntl. 3-4 erheblich (>50%) schneller sein, in 6-7 Games noch Vorteile liefern aber bei den restlichen 40 genauso schnell sein wie ein 4GHz Dualcore. Und bei Spielen wie Crysis würde dir sogar ein Singlecore reichen ;)

Angiesan
2008-07-09, 14:40:23
Wobei ich noch anmerken möchte, dass in dem angesprochenen Test von der
PCGH 08 von bis zu 50% die Rede ist, in üblichen Auflösungen und Qualitätseinstellungen
der Vorteil jedoch deutlich zurückgeht. Aber wie snoopy schon sagte, das
dürfte sich bei einem Sli Gespann weiter nach oben verschieben.

Und ich bin mir sicher, dass heute auch ein Dual-Core noch genug Power hat eine
GTX 280Sli Kombi in die Knie zu zwingen. Aber wer natürlich die bestmögliche Performance
haben will kommt unter allen Umständen nicht um einen Quadcore vorbei.
Ob dies dann aber bezüglich der Spielbarkeit wirklich ausschlaggebend ist
bezweifele ich stark.
In ca. 2 Jahren werden hier sicherlich alle auf Quads unterwegs sein, da
sich die HW Basis etabliert hat und die Unternehmen entsprechend entwickeln
werden.



Grüße

Snoopy69
2008-07-09, 16:34:28
Snoopy, für ein SLI brauchst du in der Tat durch das höhere GPU-Limit mehr Leistung (bzw. kannst mehr CPU-Power in fps umsetzen), mehr Kerne kann ein Spiel deswegen nicht nutzen. Ein 4GHz Quad wird auch mit 3 GTX280 von 50 Spielen in evntl. 3-4 erheblich (>50%) schneller sein, in 6-7 Games noch Vorteile liefern aber bei den restlichen 40 genauso schnell sein wie ein 4GHz Dualcore. Und bei Spielen wie Crysis würde dir sogar ein Singlecore reichen ;)
Sehe ich genauso...
Ich möchte in keinem Spiel ein CPU-Limit haben. Ok, bei einem gemoddeten Crysis ist das absolut unmöglich.

Gast
2008-07-09, 16:36:29
Wenn du es genauso siehst müsstest du ja beim Dual Core bleiben.

oh man

Snoopy69
2008-07-09, 16:42:54
Lies richtig! :wink:

derwalde
2008-07-09, 19:09:33
so ganz versteh ich deine argumentation nicht. wieso haust mit gtx280 nicht einfach perverse qualitässettings rein (SSAA) und gut ist. da "umgehst" doch nen cpu-limit dass beim dualcore mit 3,7 Ghz angeblich geben soll. ob du dann 60 oder 70 fps hast ist doch egal? :redface:

Snoopy69
2008-07-09, 19:30:52
Und wie erklärst du es dir, dass jmd mit stärkerer CPU und nur EINER GTX280 mehr Min-Fps hat wie ich mit schwächerer CPU und 2x GTX280? :wink:
Entweder ich muss einen QC auf min 4000MHz prügeln oder ein QC mit min. 3500MHz muss her.

"OC-Burner" hat mit seinen Test ja gezeigt, dass man selbst mit HD/HQ mit QC ein Limit mit 3,6GHz geraaaade so aus dem Weg geht

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6602182#post6602182

Also bitte keine Speku´s mehr :wink:

Wie gesagt, man kann Crysis so modden, das KEINE Desktop-CPU der Welt es spielbar macht :D

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6559233&postcount=955

Hatte zu spät gelesen, dass das ein Frame-to-frame-capturing war :D

Hmmm.... :heart: http://www.youtube.com/watch?v=YG5qDeWHNmk&feature=related

Krass und gemein http://www.youtube.com/watch?v=oYzGuSCmE-8&feature=related

Gänsehaut-Feeling :eek: http://www.youtube.com/watch?v=EWNBp5-rfYg&feature=related

ottoman
2008-07-09, 20:05:47
"OC-Burner" hat mit seinen Test ja gezeigt, dass man selbst mit HD/HQ mit QC ein Limit mit 3,6GHz geraaaade so aus dem Weg geht

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6602182#post6602182
den beitrag kenne ich und finde ihn sehr interessant, jedoch wurde leider auf einen vergleich zu dualcore verzichtet. imho dürfte zu einem dc kein bzw kaum unterschied bestehen, weil das allesamt doch schon ältere spiele sind(bis auf mass effect), die wohl nicht von einem qc gebrauch machen werden.
es müßte echt mal jemand richtig testen, das würde mich wirklich mal interessieren :)

danke übrigens für die videos, das kannte ich vorher garnicht und bin schwer beeindruckt!

Snoopy69
2008-07-09, 20:20:07
Dirt und Lost Planet sind auch nicht dabei. Da wird es richtig interessant :wink:

btw:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6647000&postcount=425

Voyager
2008-07-10, 19:20:18
Kann mich grad nicht entscheiden welche Grafikkarte ist bestellen soll.

Könnte jemand der GTX260 Besitzer mal den internen Crysis GPU Bench durchlaufen lassen,mit 1680/1050,DX9,high,kein AA/AF ?
Super wäre einmal ohne OC und einmal mit

HD-Ronny
2008-07-10, 21:58:44
gnomi hat die gtx260 mit 1680*1050 Auflösung, 16*HQAF, VSync Off und Prerenderlimit 1 gebencht :
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6604768&postcount=1
Crysis (GPU Bench, DX 10)
Medium
42 (34)
Medium + 4*AA
33 (19)
High
33 (20)
High + 4*AA
26 (11)
Very High
20 (12)
Very High + 4*AA
17 (9)
Werte in Klammern sind die einer 8800 GTS 640MB

mr orange
2008-07-18, 18:58:48
hier gibt es noch was neues zum gt200b, wobei ich keine ahnung habe wie glaubwürdig fudzilla ist.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8515&Itemid=1

Gast
2008-07-18, 19:20:23
Leider nichts neues, Release für September (vorgezogen) ist seit Wochen in der Gerüchteküche...

yardi
2008-07-19, 14:06:00
Die Asus GTX 280 ist auf 336€ gerutscht :eek: Lagernd bei VV-Computer.

Wollte eigentlich bis Ende des Monates warten, aber mir kribbelt es gerade gewaltig in den Fingern. Das Enermax Modu82+ mit 625W gibts dort auch am billigsten und es ist auch lagernd. Was sagt ihr, soll ich zuschlagen? :D

Raff
2008-07-19, 14:08:15
Nein. :naughty: Erste zu stellende Frage: Ist die 8800 GTX denn wirklich zu langsam? Zweitens: Die Preise fallen garantiert noch weiter. Wenn die erste GTX 280 auf 299 Euro steht, hole ich mir wohl auch eine.

MfG,
Raff

cR@b
2008-07-19, 17:57:53
Erste zu stellende Frage: Ist die 8800 GTX denn wirklich zu langsam? Zweitens: Die Preise fallen garantiert noch weiter. Wenn die erste GTX 280 auf 299 Euro steht, hole ich mir wohl auch eine.

MfG,
Raff

1. Ja
2. Ja
3. War klar :D

mictasm
2008-07-19, 18:24:48
Wenn die erste GTX 280 auf 299 Euro steht, hole ich mir wohl auch eine.

MfG,
Raff

Es ist schon erschreckend, das wären dann zwei GTX 280 zum Preis einer 8800GTX... Ich bin auch stark am Überlegen, ob sich das Warten auf den G200b eigentlich noch lohnt.

Ich warte dann aber auf 299€ für eine Karte mit Spiel und DVI auf HDMI Adapter.

Matrix316
2008-07-19, 19:33:19
Ich warte lieber auf den Nachfolger mit leiserem Lüfter. ;)

Gast
2008-07-19, 19:46:37
Eigentlich hat RAFF ja Recht, es gibt nichts was nicht auf 8800GTX laufen würde. Deshalb warte ich bis alle ihre GTX280 günstig abstossen und dann greife ich zu für 120-140€.

Anarchy-HWLUXX
2008-07-20, 15:17:58
Ich warte lieber auf den Nachfolger mit leiserem Lüfter. ;)

Wenn se den Shrink dazu verwenden das maximum an Takt rauszuholen wird das nix ;)

Eins ist klar, konservativ fahren reicht nicht.

tombman
2008-07-20, 15:27:54
Wenn se den Shrink dazu verwenden das maximum an Takt rauszuholen wird das nix ;)

Eins ist klar, konservativ fahren reicht nicht.
Die haben jetzt sicher eine Art Schock und werden den nächsten chip sicher maximal auf Leistung tunen...

Gast
2008-07-20, 15:33:09
Wenn se den Shrink dazu verwenden das maximum an Takt rauszuholen wird das nix ;)

Eins ist klar, konservativ fahren reicht nicht..
Wenn es bei 55 nm bleibt, glaube ich noch nicht mal an gsteigerte Takraten
Manche Karten haben ja sogar in 55 nm mehr gebraucht haben als in 65 nm. Der Prozess scheint alles andere als gut zu sein.
Das müsste also kleiner als 55 nm werden und das wird mit 99 %iger Sicherheit nix mehr in diesem Jahr. Also ist noch langes Warten angesagt.

dildo4u
2008-07-20, 18:04:51
Computerbase Kurztest: Asus GeForce GTX 280 TOP

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_asus_geforce_gtx_280_top/3/

k0nan
2008-07-21, 11:40:55
Können die 260/280GTX eigtl sowas wie Cool & Quiet (also weniger Takt & weniger Vcore im Idle) oder laufen die durchgehend mit voller Power?

dildo4u
2008-07-21, 11:43:05
Können die 260/280GTX eigtl sowas wie Cool & Quiet (also weniger Takt & weniger Vcore im Idle)
Jup.

Bei den Messungen der Leistungsaufnahme können wir die Effizienz der erstmals bei der GeForce-GTX-200-Serie eingeführten Stromsparmechanismen in Aktion erleben. Dazu taktet sich die Grafikkarte nicht nur extrem herunter, zusätzlich werden auch einige Einheiten deaktiviert, was auf den Namen „Clock Gating“ hört. Dadurch erzielt der 3D-Beschleuniger mit den gemessenen 158 Watt (gemeint ist hier der gesamte PC) ein deutlich besseres Ergebnis als die GeForce 8800 Ultra und kann sich gar noch vor der GeForce 9800 GTX platzieren. Zwar reicht es nicht, eine Radeon HD 3870 (136 Watt) zu schlagen, aufgrund der Größenunterschiede zwischen den GPUs ist der Messwert aber dennoch als gut zu bezeichnen – hierzu gehört Nvidia ein Lob ausgesprochen, da man nun auch abseits von Hybrid-SLI auf jedem Mainboard Strom sparen kann.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/32/#abschnitt_leistungsaufnahme

AnarchX
2008-07-21, 11:45:07
Können die 260/280GTX eigtl sowas wie Cool & Quiet (also weniger Takt & weniger Vcore im Idle) oder laufen die durchgehend mit voller Power?

Bei GTX 200 hat NV einen sehr hochentwickelten Stromsparmodus eingeführt, der Taktabsenkung, Spannungssenkung und das Abschalten von ganz Funktionsblöcken beinhaltet.

Das sollte dann laut NV zu 25W Idle-Verbrauch führen, real sind es aber nun eher ~35W.

k0nan
2008-07-21, 20:44:49
Wow, das ist ja schonmal ne ganze Menge an Einsparung - so gefällt mir das :)


Besten Dank!

Slipknot79
2008-07-21, 20:56:05
Wow, das ist ja schonmal ne ganze Menge an Einsparung - so gefällt mir das :)


Besten Dank!


Der Modus geht sogar soweit, dass er die Spannung/Takt auch dann absenkt, wenn einfach mehr Takt/Spannung im Game nicht benötigt wird. Ist genau dann der Fall, wenn man die fps (Vsynch oder entwicklerseitige Einschränkung) im Spiel begrenzt.

Gast
2008-07-22, 18:30:02
Dieses Review von Hardware-Infos - eben entdeckt - muss auch unbedingt in die Liste. Habe bisher noch keines gesehen, dass den Architekturaufbau so gut erklärt.
Gut ist auch, dass alle Chips (auch alte) mit ein und demselben Treiber getestet wurden. Leider keine AMD-Vergleichskarten.

http://www.hardware-infos.com/tests.php?test=42

k0nan
2008-07-22, 19:42:22
Der Modus geht sogar soweit, dass er die Spannung/Takt auch dann absenkt, wenn einfach mehr Takt/Spannung im Game nicht benötigt wird. Ist genau dann der Fall, wenn man die fps (Vsynch oder entwicklerseitige Einschränkung) im Spiel begrenzt.

Danke, auch das gefällt mir. Jetzt muss nur noch der Preis fallen ;)

Kann mich momenta nicht so richtig zwischen einer 4870 und GTX 280 entscheiden. Muss für 1920x1200 reichen. Ich glaube, ich werd noch nen Monat warten müssen, bis sich die Preise eingependelt haben.

Gast
2008-07-22, 20:55:58
Ich würde jetzt auch warten. An deiner Stelle würde ich bei round about 300Euro zuschlagen. Achso, die 280 ist natürlich zu bevorzugen!

Nightspider
2008-07-23, 22:12:17
Ich brauch mal eure Hilfe.

Ein Kumpel hat ne GTX280 gekauft aber da war nur ein 6 Pol-Anschluss dabei.

Zwar hatte er noch einen 6 Poligen aber der PC fährt nich hoch, wenn er zwei 6 polige Anschlüsse an der Karte hat, dann blinkt die rote Lampe.

Gast
2008-07-23, 22:48:02
Wird man im Oktober schon den G200B kaufen können?

Slipknot79
2008-07-23, 22:55:58
Ich brauch mal eure Hilfe.

Ein Kumpel hat ne GTX280 gekauft aber da war nur ein 6 Pol-Anschluss dabei.

Zwar hatte er noch einen 6 Poligen aber der PC fährt nich hoch, wenn er zwei 6 polige Anschlüsse an der Karte hat, dann blinkt die rote Lampe.


Ist ihm ned aufgefallen, dass ein Anschluss auf der Karte 8 Pins hat? Oo

Nightspider
2008-07-23, 23:17:07
Ist ihm ned aufgefallen, dass ein Anschluss auf der Karte 8 Pins hat? Oo

Doch klar, der man im Shop meinte, es würde wohl auch gehen wenn man nur 2 6er reinsteckt.

Kann man sich da vielleicht was "basteln" ? :D

Matzi
2008-07-24, 01:13:29
vergiss es glaub dem mann im shop kein wort sie geht nur mit nem 6 pol. und dem 8 pol.
sag deinem kumpel er sollte sich vorher informieren ob die HW zur karte passt , er kann sich adapter bestellen die nich teuer sind oder nen neues NT
mfg.

Kann mich grad nicht entscheiden welche Grafikkarte ist bestellen soll.

Könnte jemand der GTX260 Besitzer mal den internen Crysis GPU Bench durchlaufen lassen,mit 1680/1050,DX9,high,kein AA/AF ?
Super wäre einmal ohne OC und einmal mit

hier noch ein link von ner 260er
http://www.abload.de/image.php?img=crisysbenchfls.bmp
takten lässt sie sich allgemein recht gut ..... zumindest was meine `EX`260er ;D betrifft oder was man in den verschiedenen foren zu lesen bekommt !

Slipknot79
2008-07-24, 01:58:08
Doch klar, der man im Shop meinte, es würde wohl auch gehen wenn man nur 2 6er reinsteckt.

Kann man sich da vielleicht was "basteln" ? :D

Lagen keine Adapter dabei? War das Teil originalverpackt? Bei meiner BFG lag ein Adapter bei, wo man von 2x6 Pin (ausm SLI-NT) auf 8-Pin (Y-Kabel) umstecken konnte (2x75W liefern eben 150W). Gedacht für das NT wo man 2x6Pin hat.

Rote LED heißt jedenfalls, zu wenig Saft.

Anarchy-HWLUXX
2008-07-24, 11:48:31
Man kann adapter zu 8-pin Kaufen und auch selbermachen - nen Neues NT ist da sicher nicht nötig solang es theoretisch genug Power bietet (Watt & Ampere )

Fetza
2008-07-24, 14:56:51
Es ist schon erschreckend, das wären dann zwei GTX 280 zum Preis einer 8800GTX... Ich bin auch stark am Überlegen, ob sich das Warten auf den G200b eigentlich noch lohnt.

Ich warte dann aber auf 299€ für eine Karte mit Spiel und DVI auf HDMI Adapter.

Naja, der g200 soll ja ein ziemlich fön sein, von daher wird die frage sein, wie lärmempfindlich man ist.

Aber der preis ist schon geil. :)

Voyager
2008-07-25, 21:16:22
6 Tage im Urlaub,hier hat sich ja nicht viel getan ;)
Hat jemand ein Review zur Hand mit einer gut übertakteten GTX260 ?

Gast
2008-07-25, 21:25:52
Immer das Gesabbel von Fön. Wozu gibt es tools? Man sieht doch eindeutig das der Chip total kühl ist. Schaut euch mal die Atis an, da kjann man ein komplettes Frühstück drauf braten. Also Leute, es geht auch leiser mit dem guten Geforcekühler. Peace

mictasm
2008-07-25, 22:40:35
6 Tage im Urlaub,hier hat sich ja nicht viel getan ;)
Hat jemand ein Review zur Hand mit einer gut übertakteten GTX260 ?

Zwar nur ein Kurztest: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_zotac_geforce_gtx_260_amp/

LovesuckZ
2008-07-26, 10:38:38
Naja, der g200 soll ja ein ziemlich fön sein, von daher wird die frage sein, wie lärmempfindlich man ist.

Aber der preis ist schon geil. :)

Ich habe meine GTX260 als sehr leise empfunden - einzig die SPannungswandler fand ich nervig.

derwalde
2008-07-26, 10:42:32
gibt es irgendwo nen review wo die zotac AMP gtx 280 gegen die asus TOP antritt?

dargo
2008-07-26, 13:32:11
Ich hätte mal eine Frage an die G280/G260 Besitzer. Die Karte(n) verbrauchen laut NV in Idle 25W. Laut Messungen soll es wohl eher in Richtung 35W gehen. Kann man diese Karten mit dem Rivatuner zb. in Idle mit 200/200Mhz wie den G80 takten? Das dürfte auch einige Watt bringen. Beim G80 ist es zumindest der Fall.

Ich habe meine GTX260 als sehr leise empfunden - einzig die SPannungswandler fand ich nervig.
Jetzt sag mir bitte nicht, dass sie wie verrückt am Pfeifen ist. ;(
Welchen Hersteller hast du genommen?

Slipknot79
2008-07-26, 14:23:31
>Jetzt sag mir bitte nicht, dass sie wie verrückt am Pfeifen ist.

Aber nur bei hohen fps, 1000-2000-3000 etc.

Grundsätzlich sind die GTXen recht leise wenn man mit Vsynch spielt, da schalten in manchen Spielen sogar die Stromsparmodi ein. C&C Kanes Rache macht ca 320-350W bei mir (250W habe ich im Desktop)

MartinRiggs
2008-07-26, 14:51:37
Naja ich hab noch keine GTX260/280 gehört, aber die HD4870 ist schon nicht leise also kann die GTX280 gar keine Leisetreter sein.

derguru
2008-07-26, 14:55:51
Naja ich hab noch keine GTX260/280 gehört, aber die HD4870 ist schon nicht leise also kann die GTX280 gar keine Leisetreter sein.

http://www.abload.de/img/gpu-noisef9m.png

Mr. Lolman
2008-07-26, 15:05:05
Naja ich hab noch keine GTX260/280 gehört, aber die HD4870 ist schon nicht leise also kann die GTX280 gar keine Leisetreter sein.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/24/#abschnitt_lautstaerke

Gast
2008-07-27, 19:55:55
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/24/#abschnitt_lautstaerke

2 tests, zwei verschiedene ergebnisse. :(

Gast
2008-07-28, 00:28:13
Man sollte sich so eine Karte kaufen bevor man etwas postet was offensichtlich falsch ist. Die 260 ist z.B. von Grundauf leiser da sparsamer ausgestattet. Hoffentlich hört mal die Mär hier auf. Ich hab ne 260 und kann mich nicht beschweren. Nvidia geht auf Nummer sicher und stellt lächerliche Lüftereinstellungen ein. Hier helfen die allseits bekannten tools. Ende der Durchsage. (Entweder selber "probehören" oder es sein lassen).

sklave_gottes
2008-07-28, 12:08:48
2 tests, zwei verschiedene ergebnisse. :(


Die ergebnisse müssen nicht verschieden sein. Die test sind einfach unterschiedlich. Im einem wird die Lautstärke in der reallen Umgebung getestet.(computerbase)
Im anderen werden die Lüfter je nach drehzahl verglichen.

mfg martin

Gast
2008-07-28, 18:01:03
http://enthusiast.hardocp.com/article.html?art=MTUzNCwxLCxoZW50aHVzaWFzdA==

AnarchX
2008-08-04, 07:38:42
Nun hat Xbit-Labs endlich die GTX 200 gemessen:
http://img242.imageshack.us/img242/2600/gtx200power8275944al5.gif (http://imageshack.us)
http://www.xbitlabs.com/articles/video/display/geforce-gtx200-theory_12.html#sect0

V2.0
2008-08-04, 07:59:57
Da liegt die 260 sehr angenehm.

Schlammsau
2008-08-04, 08:08:37
Nun hat Xbit-Labs endlich die GTX 200 gemessen:
http://img242.imageshack.us/img242/2600/gtx200power8275944al5.gif (http://imageshack.us)
http://www.xbitlabs.com/articles/video/display/geforce-gtx200-theory_12.html#sect0
Laut dem Diagramm sind aber auch die GTX2x0 sehr weit enfernt, von den "versprochenen" 25Watt.
Vielleicht auch nur eine Treibersache!?

Snoopy69
2008-08-04, 08:13:58
Ich würde sagen eine Bios-Sache...
Der Treiber wählt ja nur eine der 3 geflashten VGPUs aus.

Schade, dass es keine findigen Bios-Programmierer gibt, dann wäre weniger oder mehr als 1,03/1,18V drin.

Schlammsau
2008-08-04, 08:18:54
Ich würde sagen eine Bios-Sache...
Der Treiber wählt ja nur eine der 3 geflashten VGPUs aus.

Schade, dass es keine findigen Bios-Programmierer gibt, dann wäre weniger oder mehr als 1,03/1,18V drin.

Gibt es keinen Bios Editor?

reunion
2008-08-04, 16:39:07
Von xbitlabs gibt es mittlerweile ein sehr umfangreiches Architekturpreview zur GTX200-Serie: http://www.xbitlabs.com/articles/video/display/geforce-gtx200-theory.html

Die Shaderleistung ist allerdings enttäuschend, man verliert faktisch jeden Test gegen RV770:

http://www.xbitlabs.com/images/video/geforce-gtx200-theory/xbitmark.gif

Gast
2008-08-04, 17:50:47
sehr schöner Test.

was ich nicht verstehe, warum ist die GTX 280 dann
so viel schneller in Crysis?

Schlammsau
2008-08-04, 18:00:53
sehr schöner Test.

was ich nicht verstehe, warum ist die GTX 280 dann
so viel schneller in Crysis?

Ist Crysis sehr Shaderlastig?

The_Invisible
2008-08-04, 18:04:15
sehr schöner Test.

was ich nicht verstehe, warum ist die GTX 280 dann
so viel schneller in Crysis?

theorie und praxis sind eben immer zwei paar stiefel.

ein game besteht ja nicht nur aus shader.

mfg

=Floi=
2008-08-04, 18:32:32
dann frage ich hier mal. warum kann sich die 280er nicht wirklich von der 9800GTX absetzten?

Mr. Lolman
2008-08-04, 18:48:40
was ich nicht verstehe, warum ist die GTX 280 dann
so viel schneller in Crysis?

Je nach Test ist sie das eh nicht: http://www.ixbt.com/video3/i0608-video.shtml

Blaire
2008-08-04, 18:54:43
Ist sicher was schief gelaufen eine 8800GTS,8800Ultra liegt viel zu nahe dran an der GTX280, CPU limitiert kann auch nichts sein da SLI ja gut skaliert.

derwalde
2008-08-04, 19:00:42
Je nach Test ist sie das eh nicht: http://www.ixbt.com/video3/i0608-video.shtml

lol solche testwerte sind mir aber völlig neu

Andreas12
2008-08-04, 19:03:12
Je nach Test ist sie das eh nicht: http://www.ixbt.com/video3/i0608-video.shtml

In spielbaren Auflösungen ist die GTX280 ca. 30% schneller als
eine 4870.

Also immer diese Benchmaks in unspielbaren Auflösungen.
Man könnte fast meinen, da wird von einigen Seiten versucht
die eine oder andere Karte ins rechte Licht zu rücken.

Und am Ende ist bei den Kiddis das Geschrei wieder groß wenn
die Games dann doch nicht laufen wie erhofft.

Bastieeeh
2008-08-04, 19:06:55
Mögt ihr russisch so sehr oder wieso verlinkt ihr nicht zu Digit-Life.com (http://www.digit-life.com/articles3/i3dspeed/0608/i0608-video-p1.html)?

tombman
2008-08-04, 19:33:20
Je nach Test ist sie das eh nicht: http://www.ixbt.com/video3/i0608-video.shtml
Kann nur bullshit sein. Sieht man allein an den Unterschieden zwischen der 280er und der GX2 als auch den G80/G92 Karten.
Das entspricht aber so GAR NICHT den anderen reviews als auch meiner persönlichen Erfahrung. Die 280er verhält sich unter Crysis so wie 8800GTX @SLI!

Snoopy69
2008-08-05, 06:37:55
Sehe ich auch so...
Ok, wenn ich in so kleinen Auflösungen spielen würde ist die GTX280 oversized. Limit ist dann die CPU. Wenn man allerdings ne "Männer-Auflösung" ab 1920x1200 + mindestens 4xAA + AF etc. spielt setzt sie sich ganz schön von den Roten ab. Wäre es nicht so hätte ich mit Sicherheit kein NV.

Ich muss aber auch zugeben, dass mir die Entwicklung der Roten besser gefällt. Deren Effizienz pro mm² ist höher als die von NV.

Schlammsau
2008-08-05, 06:56:20
Sehe ich auch so...
Ok, wenn ich in so kleinen Auflösungen spielen würde ist die GTX280 oversized. Limit ist dann die CPU. Wenn man allerdings ne "Männer-Auflösung" ab 1920x1200 + mindestens 4xAA + AF etc. spielt setzt sie sich ganz schön von den Roten ab. Wäre es nicht so hätte ich mit Sicherheit kein NV.

Dann ist eine GTX280 aber auch 20-30% schneller als eine GTX260!
Die 4870 war und ist niemals die Konkurrenz zur 280GTX gewesen......

Snoopy69
2008-08-05, 07:09:33
Gibt es keinen Bios Editor?
Doch - Nibitor. Aber bei 1,18V ist Schluss. Soviel haben die GTX280 @ default.
Geht also nur runter (1,12V, 1,06V und 1,03V).

ottoman
2008-08-05, 13:19:32
Ich muss aber auch zugeben, dass mir die Entwicklung der Roten besser gefällt. Deren Effizienz pro mm² ist höher als die von NV.
kommt drauf an, was du jetzt genau meinst. dazu gibts nämlich einen interessanten artikel: http://www.anandtech.com/video/showdoc.aspx?i=3341&p=7
bei frames pro mm² ist ati jedenfalls vorne.

Snoopy69
2008-08-05, 13:32:36
Kommt aufs Gleiche raus...
Ich meinte Rechenleistung pro mm²

mictasm
2008-08-05, 13:33:42
bei frames pro mm² ist ati jedenfalls vorne.
und bei Frames pro Mitarbeiter? Gibt es noch unsinnigere Vergleiche?

Andreas12
2008-08-05, 14:37:08
kommt drauf an, was du jetzt genau meinst. dazu gibts nämlich einen interessanten artikel: http://www.anandtech.com/video/showdoc.aspx?i=3341&p=7
bei frames pro mm² ist ati jedenfalls vorne.

Hilfe, es wird ja immer doller.
Wer denkt sich denn nur sowas aus?

Weiß ja nicht wie s anderen geht,
also mich interessieren eigentlich nur die FPS
auf meinem Schirm.

Schlammsau
2008-08-05, 14:41:03
So wie es aussieht Anandtech, eine der seriösesten Hardwarereview Seiten überhaupt!

derwalde
2008-08-05, 15:34:22
So wie es aussieht Anandtech, eine der seriösesten Hardwarereview Seiten überhaupt!

wie kommt es eigentlich dazu dass ich mir bei 90% deiner posts immer an den kopf fassen muss.

kanns du dieses fangebotte nicht einmal ausstellen. nicht nur dass der die angabe fps pro mm² bescheuert ist, noch bescheuerter ist es wie ein bot darauf hinzuweisen wie seriös anandtech ist. oder ist dass etwa einen neue erkenntnis?

wir wissen hier mittlerweile ALLE dass ati die preis/leistungskrone aufhat, dass muss man doch nicht wirklich an JEDER stelle beiläufig und unterschwellig wiederholen.

Schlammsau
2008-08-05, 15:38:20
wie kommt es eigentlich dazu dass ich mir bei 90% deiner posts immer an den kopf fassen muss.

kanns du dieses fangebotte nicht einmal ausstellen. nicht nur dass der die angabe fps pro mm² bescheuert ist, noch bescheuerter ist es wie ein bot darauf hinzuweisen wie seriös anandtech ist. oder ist dass etwa einen neue erkenntnis?

wir wissen hier mittlerweile ALLE dass ati die preis/leistungskrone aufhat, dass muss man doch nicht wirklich an JEDER stelle beiläufig und unterschwellig wiederholen.

ich hab nur auf den Post von andreas geantwortet. nicht mehr und nicht weniger!

ottoman
2008-08-05, 15:47:41
ich hab nur den post von snoopy erweitert und auf einen (eher theoretischen) artikel verwiesen, in dem nv sogar noch ziemlich gut wegkommt. das hier ist ein gtx280 thread und da passt das imho recht gut rein. wenn euch das nicht interessiert, dann seid ihr hier im falschen thread. warum wird beim shader bild ein paar posts vorher nicht gemeckert, hat ja auch nichts direkt mit den fps zu tun?! lächerlich

und dass mir das jetzt noch als fanboy geblubber ausgelegt wird, finde ich schon ziemlich frech und dazu muss man wahrscheinlich auch nichts mehr sagen...

@derwalde
vielleicht hättest du den artikel vorher mal lesen sollen oder wenigstens überfliegen, da steht nämlich noch einiges mehr. aber stimmt schon, sinnlos rumsabbeln macht irgendwie mehr spass.

Cubitus
2008-08-05, 16:18:52
Kann nur bullshit sein. Sieht man allein an den Unterschieden zwischen der 280er und der GX2 als auch den G80/G92 Karten.
Das entspricht aber so GAR NICHT den anderen reviews als auch meiner persönlichen Erfahrung. Die 280er verhält sich unter Crysis so wie 8800GTX @SLI!

So ist es!

Und mit zwei 280er GTXen lässt sich Crysis sogar angenehm mit 1920*1200@8xSQ (2x2 SS+2MSAA) spielen. Das muss man sich mal auf der Zunge zergehen lassen :D
Mit DX9+Mstr.Mod 3.1 sind immerhin ca 25-30 FPS drinn.

So eine Leistung schaffen nicht mal zwei x² 4870er...

Gast
2008-08-05, 16:31:24
2x2 SS+2MSAA<>was ist das?

Coda
2008-08-05, 16:44:49
So wie es aussieht Anandtech, eine der seriösesten Hardwarereview Seiten überhaupt!
Anandtech hat von GPUs nicht wirklich viel Ahnung.

Die theoretische FLOPS-Betrachtung ist totaler Schwachsinn. Das hat noch nie was ausgesagt und wird es auch nie tun.

reunion
2008-08-05, 16:55:31
Schon die 412mm² bei Gt200 sind totaler Blödsinn.

Gast
2008-08-05, 16:56:56
@Ottoman

sorry, wollte dich bestimmt niemand angreifen
aber ist doch wirklich lächerlich..fps pro mm²..
bin gespannt wann fps pro € kommt.... oder gibts bestimmt
schon

Cpl. Dwayne Hicks
2008-08-05, 16:57:12
Die theoretische FLOPS-Betrachtung ist totaler Schwachsinn. Das hat noch nie was ausgesagt und wird es auch nie tun.

Was genau meinst du damit?

Gast
2008-08-05, 17:04:38
Ist sicher was schief gelaufen...
lol solche testwerte sind mir aber völlig neu

Kann nur bullshit sein...

Ist klar :rolleyes: ist ATI mal nicht scheiße, stimmt alles nicht :(

Schonmal dran gedacht, das "Rescue" (Level Nr.3) nicht so häufig gebencht wird und daher nicht so "optimiert" ist wie "Island" ;)

http://www.abload.de/img/jq24im.jpg (http://www.abload.de/image.php?img=jq24im.jpg)

derwalde
2008-08-05, 17:06:53
@derwalde
vielleicht hättest du den artikel vorher mal lesen sollen oder wenigstens überfliegen, da steht nämlich noch einiges mehr. aber stimmt schon, sinnlos rumsabbeln macht irgendwie mehr spass.

dein post war auch nicht das problem für mich, das gebotte danach aber schon.

Gast
2008-08-05, 17:32:14
@Ottoman

sorry, wollte dich bestimmt niemand angreifen
aber ist doch wirklich lächerlich..fps pro mm²..
bin gespannt wann fps pro € kommt.... oder gibts bestimmt
schon

gibts schon ewig, bei cb preisleistung..

oda hier..

http://www.techpowerup.com/reviews/Sapphire/HD_4850_Toxic/26.html

tombman
2008-08-05, 17:41:30
Schonmal dran gedacht, das "Rescue" (Level Nr.3) nicht so häufig gebencht wird und daher nicht so "optimiert" ist wie "Island" ;)
Schon mal daran gedacht, daß es nicht um die Leistung ATI vs Nvidia geht, sondern um den Vergleich nvidia vs nvidia?
Wenn eine 280er auf Crysis, EGAL WO, nur 20% schneller als eine 9800GTX ist, wobei aber die GX2 weit drüber ist, dann stimmt einfach was nicht- und zwar MASSIV. Dazu brauche ich die ATI Werte gar nicht kennen, um zu wissen, daß es nur bullshit sein kann.

Das nächste Mal Hirn einschalten...

So, ab jetzt wieder ignore ;)

dargo
2008-08-05, 18:35:21
2x2 SS+2MSAA<>was ist das?
1920x1200 8xQS (2x2 SS+2MSAA) = 3840x2400 2xMSAA auf 1920x1200 runterskaliert.

Cubitus
2008-08-05, 21:27:47
Genau! In der Praxis sieht das dann so aus, scnr :D

http://s7.directupload.net/images/080805/temp/5a6hl49p.jpg (http://s7.directupload.net/file/d/1512/5a6hl49p_jpg.htm) http://s2.directupload.net/images/080805/temp/uy9ns8dq.jpg (http://s2.directupload.net/file/d/1512/uy9ns8dq_jpg.htm)

Andreas12
2008-08-05, 21:45:10
http://www.abload.de/img/jq24im.jpg

die Werte stimmen schon, sind aber wieder unspielbare Einstellungen
gebencht worden.

bei spielbaren Einstellungen sieht die sache anders aus.
da kommt die 4870er auch nicht an die 30FPS ran.

Grindcore
2008-08-06, 08:58:36
Apropos "Optimierungen", im Benchmark-Unterforum kann man anhand des call of juares Threads schön sehen, was von den Tests auf den meisten Seiten zu halten sein dürfte.

Während 4870 und GTX280 im integrierten DX10-Benchmark noch beinahe gleich schnell sind (1-2 Frames unterschied), liegt die 280 bei einem zufällig gewählten Savegame 20-38% vorn.

Wäre Ähnliches über ein Benchmarkergebnis zuungunsten der GTX zutage gefördert worden, hätten die üblichen Verdächtigen im H-Luxx vermutlich schon nen Scheiterhaufen gebastelt.

dargo
2008-08-13, 09:02:35
Kurze Frage - bis wieviel Mhz ist der Speicher der G260GTX spezifiziert?

AnarchX
2008-08-13, 09:09:41
Kurze Frage - bis wieviel Mhz ist der Speicher der G260GTX spezifiziert?

1.0s/1000MHz

Ausserdem: GTX 260 und nicht 260GTX. ;)

dargo
2008-08-13, 09:18:18
1.0s/1000MHz

Ich meinte nicht wie hoch der Speicher der GTX 260 (;)) taktet sondern bis wieviel Mhz der (wie du jetzt ja angegeben hast) 1,0ns Speicher spezifiziert ist. :)
Oder sind das auch nur 1000Mhz?

Gast
2008-08-13, 09:35:22
Ich meinte nicht wie hoch der Speicher der GTX 260 (;)) taktet sondern bis wieviel Mhz der (wie du jetzt ja angegeben hast) 1,0ns Speicher spezifiziert ist. :)
Oder sind das auch nur 1000Mhz?
1000MHz.

Rechnet man immer 1000 durch (/) anzahl nanosekunden.

also bei 1,6ns speicher wären es 1000/1,6 macht 625mhz.

gruss

[fu]121ah@work

dargo
2008-08-13, 09:37:11
Hmm, ich frage deswegen weil ich schon bei 1215Mhz bin und immer noch keine Artefakte sehe. oO

AnarchX
2008-08-13, 09:57:37
Hmm, ich frage deswegen weil ich schon bei 1215Mhz bin und immer noch keine Artefakte sehe. oO

Eben qualitativ guter Speicher, der wohl eine ausreichend hohe Spannung bekommt.

derwalde
2008-08-13, 10:13:50
Hmm, ich frage deswegen weil ich schon bei 1215Mhz bin und immer noch keine Artefakte sehe. oO

die 260gtx sollen wohl alle an sich sehr gut gehen, z.T. besser als ihr großer bruder.

Voyager
2008-08-13, 17:45:57
Hmm, ich frage deswegen weil ich schon bei 1215Mhz bin und immer noch keine Artefakte sehe. oO

Der Speicher der GTX260 geht erstaunlich hoch.
Meiner läuft bis knapp 1300Mhz

Gast
2008-08-13, 19:52:25
Wie groß ist denn der Leistungsunterschied zwischen der 260 GTX und der 280?

Lohnt es sich denn von einer 88GTX umzusteigen?

Gast
2008-08-13, 19:55:32
Sicherlich eine GTX280 hat in etwa 2x8800GTX SLI Speed

Gast
2008-08-13, 20:04:40
Aja okay, aber ist der Preisunterschied zwischen 260GTX und 280GTX gerechtfertigt?

Gast
2008-08-13, 20:39:55
Aja okay, aber ist der Preisunterschied zwischen 260GTX und 280GTX gerechtfertigt?

Nimm die GTX280 alleine schon wegen den 1GB Speicher

dargo
2008-08-13, 22:28:11
Aja okay, aber ist der Preisunterschied zwischen 260GTX und 280GTX gerechtfertigt?
Nein, was aber völlig normal am Ende der High-End-Kette ist.

MEDIC-on-DUTY
2008-08-14, 08:53:06
Bei der 280er gibt es eben keine Kompromisse in Sachen Leistung und das hat seinen Preis.
Dennoch würde ich die 280er nehmen. Denn aktuell ist Grafikpower in diesem Segment so günstig
wie noch nie, wenn man mal dieses CF/X2 Geschmarre ausser acht lässt.

Es gibt eigentlich nie den richtigen Zeitpunkt zum Kauf. Lustig finde ich die Leute, die immer sagen sie
warten noch ab, aber sich dann wundern warum zu Hause die Kiste bei neues Games abspackt und
dann nach Argumenten bei der Software suchen warum das so ist. (z.B. gern gesehen in Crysis-Heul-Posts)

Die 260er wäre sicherlich der "Vernunftkauf". Für das letzte Quentchen Mehrleistung muss man immer unverhältnismäßig
mehr Kohle auf den Tisch legen. Egal in welchem Bereich. Oder man verfügt über das Wissen, wie ein Polo auf Golf GTI-Niveau
zu tunen ist. Was aber auch Mehrkosten in anderen Bereichen verursacht. Also alles in allem doch eine Glaubensfrage?

Gast
2008-08-14, 09:10:25
Warum bricht die GTX 280 eigentlich in Rainbow Six Vegas laut computerbase 4870X2 Review so brutal ein:
2560x1600 8xAA/16xAF: 13,6 Frames, wärend die 4870 X2 mit 52,3 Frames 385% schneller ist, Singel 4870 (alter Treiber, 512MBRam) schafft aber nur 6,6 Frames hier ist die 4870 gar über 800% schneller. Das der 512 MB ATI hier der Speicher ausgeht ist klar, aber das bei der GTX 280 das Gigabyte limitiert ist schon sehr heftig.

MEDIC-on-DUTY
2008-08-14, 09:24:44
Warum bricht die GTX 280 eigentlich in Rainbow Six Vegas laut computerbase 4870X2 Review so brutal ein:
2560x1600 8xAA/16xAF: 13,6 Frames, wärend die 4870 X2 mit 52,3 Frames 385% schneller ist, Singel 4870 (alter Treiber, 512MBRam) schafft aber nur 6,6 Frames hier ist die 4870 gar über 800% schneller. Das der 512 MB ATI hier der Speicher ausgeht ist klar, aber das bei der GTX 280 das Gigabyte limitiert ist schon sehr heftig.

Weil CF bei der 4780X2 mal zur Abwechslung bei diesem Game richtig funktioniert? Und es stellt sich die Frage, ob dies mit oder ohne PhysX getestet wurde.

Fetza
2008-08-14, 16:21:08
(z.B. gern gesehen in Crysis-Heul-Posts)


Crysis ist ein schlechtes beispiel, denn heulen tut da vor allem der hersteller, weil die bösen raubkopierer ja schuld sind, an den schlechten verkaufszahlen. Mit den exorbitant hohen hardware anforderungen, hat das natürlich garnichts zu tun.;)

Crysis kommt mir auch erst dann auf den tisch, wenn ich vernünftige graka hardware dafür habe, und eine gtx 280 ist ja schon minimum um es wirklich flüssig mit allen details zu spielen.

yardi
2008-08-14, 17:52:10
Ich kann zu der ganzen Diskussion nur sagen das ich die GTX 280 (ja verdammt, so heisst das Teil ;)) für mittlerweile ~320€ für ein Super Angebot halte.
Soviel High-End gabs selten für so nen guten Preis (in dem Preisbereich lag früher eher die Mittelklasse). Naja nVidia ist wohl auch nix anderes übrig geblieben.

Dr.Dirt
2008-08-15, 10:22:44
Ich kann zu der ganzen Diskussion nur sagen das ich die GTX 280 (ja verdammt, so heisst das Teil ;)) für mittlerweile ~320€ für ein Super Angebot halte.
Ich auch, deshalb werde ich, wenn ich aus dem Urlaub zurück bin, mir sie zulegen.

deekey777
2008-08-15, 11:51:11
Weil CF bei der 4780X2 mal zur Abwechslung bei diesem Game richtig funktioniert? Und es stellt sich die Frage, ob dies mit oder ohne PhysX getestet wurde.
Vegas unterstütz kein PhysX@Hardware, oder?

clockwork
2008-08-17, 21:55:00
Gibt es zwischen den verschiedenen Herstellern der GTX260 (Leadtek, Asus, Zotac usw.) unterschiede? Andere Lüfter, Spannung, Kabel im Karton, ein Spiel als Beigabe oder ähnliches? Welche würdet ihr denn empfehlen? OC ist nicht so wichtig, wenn sie getaktet wird dann bis ~600-625.

Im HWL hab ich gelesen dass Gigabyte angeblich 1.03V Spannung anliegen hat, die anderen 1.13V, stimmt das? Ändert sich damit auch die Stromaufnahme zum besseren?

dargo
2008-08-17, 22:02:45
Welche würdet ihr denn empfehlen? OC ist nicht so wichtig, wenn sie getaktet wird dann bis ~600-625.

Die günstigste, was sonst? :)


Im HWL hab ich gelesen dass Gigabyte angeblich 1.03V Spannung anliegen hat, die anderen 1.13V, stimmt das?
Keine Ahnung ob das stimmt, würde aber eventuell erklären warum ich "nur" bei der GPU auf 648Mhz komme. Wobei ich noch nicht sicher bin ob 670Mhz auch gehen. 702Mhz sind aber definitiv zu viel.


Ändert sich damit auch die Stromaufnahme zum besseren?

Wenn dem so ist, natürlich.

dildo4u
2008-08-23, 13:07:07
Nvidia bestätigt: GTX 260 bald mit 216 ALUs

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/august/nvidia_gtx_260_216_alus/

tombman
2008-08-23, 13:13:44
Oh Mann, Verarsche pur.

Zuerst das Preisdebakel und jetzt das.

Nvidia-Karten kann man in Zukunft echt immer erst nach 2 Monaten kaufen :mad:

Gast
2008-08-23, 13:16:10
Oh Mann, Verarsche pur.

Zuerst das Preisdebakel und jetzt das.

Nvidia-Karten kann man in Zukunft echt immer erst nach 2 Monaten kaufen :mad:
Ja schon traurig dieser trend bei nvidia...

dargo
2008-08-23, 13:23:28
Oh Mann, Verarsche pur.

Zuerst das Preisdebakel und jetzt das.

Nvidia-Karten kann man in Zukunft echt immer erst nach 2 Monaten kaufen :mad:
Ist das für dich eine neue Erkenntnis? :confused:
Es war doch von vorne klar, dass bald was Neues von NV erscheint. Und die 217€ die ich für eine GTX 260 bezahlen musste fand ich völlig in Ordnung.

tombman
2008-08-23, 13:29:50
Und die 217€ die ich für eine GTX 260 bezahlen musste fand ich völlig in Ordnung.
Findest das auch noch wenn jetzige Käufer mehr power bekommen?

Deppensteuer gibts bei HighEnd am Anfang immer, das war immer klar. Aber diese Art Abzocke ist doch eher unverschämt³.

dargo
2008-08-23, 13:34:54
Findest das auch noch wenn jetzige Käufer mehr power bekommen?

Warum denn nicht? Ich gönne es doch jedem der gewartet hat. Ich verstehe den Satz eh nicht. Macht es dir Freude wenn andere Leute nicht die Power haben sollen die du auch genießt? :|

Es war von Anfang an klar, dass bald ein GT200b erscheint. Ob jetzt noch eine 216SP´s GT200 GPU dazu kommt ist doch völlig schnuppe. Diese lächerlichen ~10% mehr Power... wen juckt das? Gedanken über eine neue Grafikkarte mache ich mir erst Ende 2009/Anfang 2010 wenn es heißt mindestens GTX 260*2. ;)

reunion
2008-08-23, 13:45:37
Diese neue GTX260 Ende September deutet aber eher darauf hin dass GT200b noch etwas länger auf sich warten lässt.

dargo
2008-08-23, 13:54:54
Diese neue GTX260 Ende September deutet aber eher darauf hin dass GT200b noch etwas länger auf sich warten lässt.
Wie kommst du darauf? Ich sehe hier nichts anderes als den Wunsch sich besser gegen die HD4870 zu positionieren. Und wenn die Ausbeute so gut ist, warum nicht?

Gast
2008-08-23, 13:55:54
Hallo, wie ist das, bleibt die Speichermenge auf den neuen 260ern dann trotzdem noch wie bei den alten oder ist dann auch mehr Speicher drauf?

dargo
2008-08-23, 14:01:21
Bleibt gleich. Die Speichermenge ist vom SI abhängig. :)

reunion
2008-08-23, 14:03:38
Wie kommst du darauf?

Wenn man Ende September schon den GT200b Startbereit hätte oder kurz davor wäre, bräuchte man wohl kaum noch eine bestehende GT200-GPU aufzubohren.


Ich sehe hier nichts anderes als den Wunsch sich besser gegen die HD4870 zu positionieren. Und wenn die Ausbeute so gut ist, warum nicht?

Ich wage zu bezweifeln das die Ausbeute so gut ist. Die Gerüchte um eine GTX250 kommen wohl nicht von ungefähr.

Der_Korken
2008-08-23, 14:05:39
Hallo, wie ist das, bleibt die Speichermenge auf den neuen 260ern dann trotzdem noch wie bei den alten oder ist dann auch mehr Speicher drauf?

Es ist möglich, dass man statt der 14 Speicherbausteine eben 15 verwendet. Daraus resultieren dann 480 Bit SI und 960 MB Speicher. Ich denke aber mal, dass man sich diesen Zwischenschritt sparen wird, denn zusätzlicher Speicher kostet Geld, das bloße aktivieren von Recheneinheiten (sofern die Chipausbeute das hergibt) nicht. Es gab ja mal eine ähnliche Aktion vor etwa einem Jahr, wo man die 8800GTS 640 plötzlich mit 112 Shader-Einheiten verkauft hat, den Speicher aber bei 640MB belassen hat. So wird es diesmal wohl auch sein.

AnarchX
2008-08-23, 14:07:09
Es ist möglich, dass man statt der 14 Speicherbausteine eben 15 verwendet. Daraus resultieren dann 480 Bit SI und 960 MB Speicher.
Das geht nicht, die einzeln deaktivierbaren ROP-Partitionen bestehen aus einem 64-Bit Kanal und 4 ROPs.

Hallo, wie ist das, bleibt die Speichermenge auf den neuen 260ern dann trotzdem noch wie bei den alten oder ist dann auch mehr Speicher drauf?
Es wird wohl bei den 448-Bit und somit 896MiB und eben den 28 ROPs bleiben.

Wenn man Ende September schon den GT200b Startbereit hätte oder kurz davor wäre, bräuchte man wohl kaum noch eine bestehende GT200-GPU aufzubohren.

GTS640 Rev2 kam auch erst zum Lebensende.

tombman
2008-08-23, 14:10:27
Die bohren da gar nix auf. Die sehen einfach, daß der yield bei 1 core mehr jetzt deutlich besser, oder "zu gut", ist, und schon verkaufen die sie so. Besser positioniert vs Hd4870...

dargo
2008-08-23, 14:14:06
Wenn man Ende September schon den GT200b Startbereit hätte oder kurz davor wäre, bräuchte man wohl kaum noch eine bestehende GT200-GPU aufzubohren.

Eine G80GTS mit 112SP´s hielt NV auch für nötig obwohl die G8800GT afaik schon da war.

Unyu
2008-08-23, 14:17:55
Besser positioniert vs Hd4870...
Wobei die GTX 260 schon getestet wurde, der Käufer weiß doch gar nichts, von den 10% Mehrleistung.
Zumindest wenn der Name gleich bleibt, was ja nicht bestätigt ist.

dargo
2008-08-23, 14:20:58
Wobei die GTX 260 schon getestet wurde, der Käufer weiß doch gar nichts, von den 10% Mehrleistung.
Zumindest wenn der Name gleich bleibt, was ja nicht bestätigt ist.
Es wird sicherlich auch genug Tests mit der Neuen geben. Trotzdem finde ich auch die gleiche Namensgebung eher unpassend. Die hätten sie ruhig auch GTX 260 Rev. 2 (oder was weiß ich) nennen können.

HD-Ronny
2008-08-23, 14:44:14
Oder z.B GTX261 ... Aber das wäre viel zu einfach und für jeden unbedarften ersichtlich.

Slipknot79
2008-08-23, 17:35:17
Oh Mann, Verarsche pur.

Zuerst das Preisdebakel und jetzt das.

Nvidia-Karten kann man in Zukunft echt immer erst nach 2 Monaten kaufen :mad:


Naja seh ich weniger schlimm. Die 500eur pro Karte hätte ich so oder so ausgegeben und ob sie nach 3 wochen oder 3 monaten die Hälfte wert ist, spielt eh keine Rolle weil ich nicht davon ausgehe, dass bis zur nächsten Konsolengeneration irgendwas rauskommt, was das System battlen wird.

Gast
2008-08-23, 18:38:38
Naja seh ich weniger schlimm. Die 500eur pro Karte hätte ich so oder so ausgegeben und ob sie nach 3 wochen oder 3 monaten die Hälfte wert ist, spielt eh keine Rolle weil ich nicht davon ausgehe, dass bis zur nächsten Konsolengeneration irgendwas rauskommt, was das System battlen wird.
Das hat man beim G80 auch schon gesagt. Ich glaube aber trotzdem, dass die Karten diesmal lange state of the art bleiben werden, da in den nächsten 2 Jahren nichts wirklich schnelleres von nV und Amd zu erwarten ist, es sei denn, sie schaffen es wider Erwarten die bisherigen Probleme mit Multi-GPU zu lösen.

dargo
2008-08-23, 18:55:41
Das hat man beim G80 auch schon gesagt.
Beim Launch vom G80 gabs noch keine CryEngine2. ;)

Für 1680x1050 4xMSAA/16xAF inkl. Mstr Config wären ~150% Leistung einer GTX280 gar nicht mal so verkehrt. Aber stimmt irgendwie schon, außerhalb von Crysis gibts wirklich nichts was eine GTX 280/260 in die Knie zwingt. Ich meine natürlich bei "normalen" Settings (also 4xMSAA/16xAF) in Verbindung mit 1680x1050.

clockwork
2008-08-24, 03:00:50
Kann mal bitte jemand mit Nibitor, oder anderen Programmen falls das geht, das BIOS einer Gigabyte GTX260 auslesen? Andere wie Zotac, Gainward usw sind auch gerne willkommen. Extra (3D) wird vin nV mit 1,18V angegeben, eine Spannung von 1.06 bringt 40W und 1.03V satte 70W(!!) ersparniss unter Volllast. Temperatur und Lautstärke werden dadurch auch ziemlich gesenkt. Wäre interessant zu wissen welcher Hersteller von der Referenz abweicht, da ich mir auch eine zulegen will. Anderen wird damit sicher auch geholfen. ;)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=33424&stc=1&d=1216470538
(vom user Okampa)

Gast
2008-08-24, 09:24:27
Naja seh ich weniger schlimm. Die 500eur pro Karte hätte ich so oder so ausgegeben und ob sie nach 3 wochen oder 3 monaten die Hälfte wert ist, spielt eh keine Rolle weil ich nicht davon ausgehe, dass bis zur nächsten Konsolengeneration irgendwas rauskommt, was das System battlen wird.

so kann man zu Fenster rausgeschmissenes Geld auch rechtfertigen.

Schlammsau
2008-08-24, 09:27:02
oben war ich

Oh Mann, Verarsche pur.

Zuerst das Preisdebakel und jetzt das.

Nvidia-Karten kann man in Zukunft echt immer erst nach 2 Monaten kaufen :mad:

Ohne dich belehren zu wollen, aber man sollte nie Hardware gleich nach dem Release kaufen! ;)

MSABK
2008-08-24, 12:06:38
Auf Computerbase ist ein Bild von dem Die.

http://666kb.com/i/b1if1nt7ju5b0l542.jpg

Ein richtiges Monster.

Gast
2008-08-24, 12:55:30
Hey mal eine Frage,

brauche ich für FarCry2,Stalker2 eine GTX 260 um es flüssig zu spielen? Habe im moment eine 88GTX und da läuft Crysis für mich sehr gut. Möchte eig. ungern eine neue Karte kaufen. Also, kann ich mit meiner GTX FC2 oder SCS ansehnlich spielen ala Crysis oder verbrauchen die mehr an Hardware?

dargo
2008-08-24, 12:58:13
Hey mal eine Frage,

brauche ich für FarCry2,Stalker2 eine GTX 260 um es flüssig zu spielen? Habe im moment eine 88GTX und da läuft Crysis für mich sehr gut. Möchte eig. ungern eine neue Karte kaufen. Also, kann ich mit meiner GTX FC2 oder SCS ansehnlich spielen ala Crysis oder verbrauchen die mehr an Hardware?
1. Falscher Thread.
2. Wer soll das jetzt schon genau wissen?
3. FC2 ist multiplattform, das sollte deine Frage grob beantworten.

Gast
2008-08-24, 13:52:00
Brauchts dazu (also für die neue 260) einen neuen Chip oder reicht da ein neues BIOS?

Und wann wird man die neuen Karten wohl kaufen können?

Raff
2008-08-24, 17:40:21
Auf Computerbase ist ein Bild von dem Die.

http://666kb.com/i/b1if1nt7ju5b0l542.jpg

Ein richtiges Monster.

Da gibt's mehr:
http://www.pcgameshardware.de/aid,657277/News/Nvision_2008_Tour_durch_Nvidias_Hauptquartier/?article_id=657277&page=6

MfG,
Raff

Magellan
2008-08-25, 06:56:42
Hm,
mal eine Frage zum aktuellen Preis der GTX 280: Kann mir jemand von euch erklären, warum der wieder steigt? Ich bin eigentlich davon ausgegangen, das der mit Erscheinen der 4870X2 noch weiter sinkt. Mittlerweile ist bei fast allen Modellen das Gegenteil zu beobachten, wenn man sich die Preisentwicklung bei Geizhals anschaut. Das Model von Asus liegt inzwischen schon wieder 11 Euro über dem bisher erreichten Tiefstpreis.
Auffällig ist auch, dass kaum ein Shop die Karten auf Lager hat. Vielleicht ist der Preis auch deshalb gestiegen (Nachfrage höher als Verfügbarkeit)

reunion@work
2008-08-25, 07:35:07
Hm,
mal eine Frage zum aktuellen Preis der GTX 280: Kann mir jemand von euch erklären, warum der wieder steigt? Ich bin eigentlich davon ausgegangen, das der mit Erscheinen der 4870X2 noch weiter sinkt. Mittlerweile ist bei fast allen Modellen das Gegenteil zu beobachten, wenn man sich die Preisentwicklung bei Geizhals anschaut. Das Model von Asus liegt inzwischen schon wieder 11 Euro über dem bisher erreichten Tiefstpreis.
Auffällig ist auch, dass kaum ein Shop die Karten auf Lager hat. Vielleicht ist der Preis auch deshalb gestiegen (Nachfrage höher als Verfügbarkeit)

Der Grund dürfte im sinkenden EUR/USD-Kurs zu finden sein.

dildo4u
2008-08-25, 15:25:59
Thermalright: Alternativkühler für GTX 260/280

http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2008/august/thermalright_alternativkuehler_gtx_260_280/

Xylophon
2008-08-30, 12:35:41
hier noch ein Review der XFX

http://www.pc-experience.de/wbb2/thread.php?threadid=27739

reev
2008-08-30, 16:00:54
Kann mal bitte jemand mit Nibitor, oder anderen Programmen falls das geht, das BIOS einer Gigabyte GTX260 auslesen? Andere wie Zotac, Gainward usw sind auch gerne willkommen. [...]
Schau mal hier (http://www.techpowerup.com/vgabios/index.php?page=1&architecture=&manufacturer=&model=&interface=&memSize=896)...

dildo4u
2008-09-09, 12:16:38
Erste Benchmarks zur GTX 260 mit 216 Shadern

http://www.hkepc.com/?id=1684&page=2&fs=idn#view


http://s6.directupload.net/images/080909/7uskjdy8.jpg

Jake Dunn
2008-09-09, 13:30:26
Erste Benchmarks zur GTX 260 mit 216 Shadern

http://www.hkepc.com/?id=1684&page=2&fs=idn#view


http://s6.directupload.net/images/080909/7uskjdy8.jpg


Ein weiteres Kapitel der Nvidia verarsche ;D

5% Mehrleistung bei 20% mehr Preis :rolleyes:

Unyu
2008-09-09, 13:38:19
9% bei ordentlicher Last (Vantage).

Den Preis kennst du noch nichtmal, der Name ist schon mal nicht gleich,aber immer nur meckern gelle, rufen wir erstmal Verarsche. :cool:

Gast
2008-09-09, 13:38:55
20% teurer? würde dann Preislich mit der kommenden 4850X2 konkurieren?

dildo4u
2008-09-09, 13:40:23
Die Karte wird die "alte" GTX260 früher oder später eh komplett ersetzen auch vom Preis her weil NV keine 192SP GTX260 mher produziert.Am Anfang wird sie whol um die 240€ kosten also etwa so viel wie eine 4870 mit 1GB ram.

Grindcore
2008-09-09, 13:40:33
Hrhr, echt witzig, wenn man bedenkt wie viele es für eine gute Idee hielten, lieber auf diese "neue, bessere und außerirdischere" Version der GTX260 zu warten. Was fürn Marketingstunt.

Undertaker
2008-09-09, 13:43:20
Wie soll man das verstehen? Mehrleistung zum gleichen Preis, da die alte 260 ausläuft, wo ist da das Problem? Gut für den Kunden :)

Grindcore
2008-09-09, 13:47:13
Nein, is ja prinzipiell nich schlecht, wenn diese Version an die Stelle der alten GTX tritt, allerdings haben ne Menge Leute bspw. darauf verzichtet bei den 199.- Euro Angeboten etc. zuzuschlagen, um auf die vermeintlich wesentlich tollere, neue GTX zu warten.

Unyu
2008-09-09, 13:56:16
Ja und jetzt kostet die GTX 260 204€. :comfort:

Jake Dunn
2008-09-09, 13:57:37
9% bei ordentlicher Last (Vantage).

Den Preis kennst du noch nichtmal, der Name ist schon mal nicht gleich,aber immer nur meckern gelle, rufen wir erstmal Verarsche. :cool:

Bei mir steht 8,57% und im schlechtesten Fall nur 0,88% also spar dir die Rosinenpickerei mal.

Und Vantage ist kein Game, also wayne :rolleyes:

Unyu
2008-09-09, 14:01:49
8,57%
Gerundet 9%. :eek:


Und Vantage ist kein Game, also wayne
Wo gehts hier um Games? :rolleyes:
Es ist shaderlastiger und das soll ja so wichtig sein, sonst würde man die HD4 nicht so hypen.

Odal
2008-09-09, 14:39:45
wenn sie wenigstens die neue GTX260 zum preis der alten verticken würden...um konkurenzfähig zur 4870 zu werden..und nebenbei als ausgleich für die 9800GT/GTX abzocke...

aber so....

Coda
2008-09-09, 14:42:52
5% Mehrleistung bei 20% mehr Preis :rolleyes:
Seit wann steigt der Preis linear mit der Leistung?

dildo4u
2008-09-09, 14:51:33
wenn sie wenigstens die neue GTX260 zum preis der alten verticken würden...um konkurenzfähig zur 4870 zu werden
Die alte ist zum gleichen Preis konkurenzfähig vom Speed her und hat mher V-Ram.

Mr. Lolman
2008-09-09, 15:07:10
Die alte ist zum gleichen Preis konkurenzfähig vom Speed her und hat mher V-Ram.

Die alte ist häufig langsamer und braucht auch den zusätzlichen VRAM. Die 1GB 4850 ist zB kaum flotter als die 512MB Variante: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_sapphire_radeon_hd_4850_1024_mb/21/#abschnitt_performancerating_qualitaet


BTW, falls noch nicht bekannt - Stalker Clear Sky DX10 Test: http://www.pcgameshardware.de/aid,658971/Test/Benchmark/Stalker_Clear_Sky_Grosser_DX10-Benchmark-Test/?page=2

dildo4u
2008-09-09, 15:12:51
Die alte ist häufig langsamer und braucht auch den zusätzlichen VRAM.
Kommt auf die Games an die man testet im Schnitt liegen beide Karten gleich auf.
http://ht4u.net/reviews/2008/gigabyte_geforce_gtx_260/

In fast allen Bereichen unseres Tests kann man sich vor der unmittelbaren Konkurrenz aus Hause AMD platzieren. Gerade im Bereich Leistungsfähigkeit und Leistungsaufnahme muss sich die arg gescholtene GTX 260 bei der gebotenen Leistung nicht verstecken. Sie schlägt auf diesen Ebenen klar die Radeon HD 4870

Und ob sie den V-Ram braucht wurde nirgends bewiesen ist reine Speku ausgehend vom G80/G92.

AnarchX
2008-09-09, 15:15:06
BTW, falls noch nicht bekannt - Stalker Clear Sky DX10 Test: http://www.pcgameshardware.de/aid,658971/Test/Benchmark/Stalker_Clear_Sky_Grosser_DX10-Benchmark-Test/?page=2
Was hat man denn da zusammengebencht: kein AA/AF, eine sonderlich starke 88GTX und eine 98GX2 die über 100% skaliert, siehe 9800GTX.

Gast
2008-09-09, 15:22:25
Was hat man denn da zusammengebencht: kein AA/AF, eine sonderlich starke 88GTX und eine 98GX2 die über 100% skaliert, siehe 9800GTX.

Steht doch im Text das AF fast keine Leistung kostet außer bei der Hd3870 und an AA brauch mal ja wohl nicht denken bei den Frames.

Palpatin@work
2008-09-09, 15:48:11
Kann es sein das bei SLI - CF irgendwas nicht richtig dargestellt wird und es deshalb zu den starken Werten der GX2 kommt? Kann ja nicht sein das die GX2 mehr als doppelt so schnell ist wie die Pro Chip deutlich höher getaktete GTX 9800+.

Gast
2008-09-09, 16:06:23
Steht doch im Text das AF fast keine Leistung kostet außer bei der Hd3870 und an AA brauch mal ja wohl nicht denken bei den Frames.

Doch wenn man SLi hat...

Gast
2008-09-09, 16:09:55
Doch wenn man SLi hat...

nichtmal damit, außer man spielt in 1280x1024, AA kostet in stalker extrem viel leistung.

Gast
2008-09-09, 16:14:56
Doch wenn man SLi hat...

Nein denn die zur Zeit schnellste Grafikarte die X2 schafft geradeso 48,5fps in 22" :wink:

Gast
2008-09-09, 16:15:15
nichtmal damit, außer man spielt in 1280x1024, AA kostet in stalker extrem viel leistung.

Natürlich tut es das. 1680x1050

Gast
2008-09-09, 16:16:32
Nein denn die zur Zeit schnellste Grafikarte die X2 schafft geradeso 48,5fps in 22" :wink:

30-40 fps mit 4xAA ist garkein Problem

Gast
2008-09-09, 21:03:25
BTW, falls noch nicht bekannt - Stalker Clear Sky DX10 Test: http://www.pcgameshardware.de/aid,658971/Test/Benchmark/Stalker_Clear_Sky_Grosser_DX10-Benchmark-Test/?page=2

Und wieder wurde auf einem Nvidia Motherboard gebencht :(

Raff
2008-09-09, 21:08:31
Und wieder wurde auf einem Nvidia Motherboard gebencht :(

... welches angesichts der Radeon-Werte nicht "parteiisch" zu sein scheint.

MfG,
Raff

Schlammsau
2008-09-09, 21:11:28
... welches angesichts der Radeon-Werte nicht "parteiisch" zu sein scheint.

MfG,
Raff

Ist es das gleiche Board, wie bei euren letzten umstrittenen Tests?

PCGH_Raffael
2008-09-09, 21:16:25
Ist es das gleiche Board, wie bei euren letzten umstrittenen Tests?

Wie man unten an Benchmarkgrafiken sehen kann, kommt ein Nforce 680i SLI zum Einsatz. Das "eigenartige" Brett war ein P5N-D mit NF 750i SLI. Alle "richtigen" Grafikkartentests erfolgen nun aber auf einem X48.

MfG,
Raff

AnarchX
2008-09-11, 16:35:33
Noch ein GTX 260 216SPs Review:
http://translate.google.ch/translate?u=http%3A%2F%2Fdiy.pconline.com.cn%2Fgraphics%2Freviews%2F0809%2F14145 07.html&sl=zh-CN&tl=en&hl=de&ie=UTF-8

san.salvador
2008-09-11, 16:39:29
Wie man unten an Benchmarkgrafiken sehen kann, kommt ein Nforce 680i SLI zum Einsatz. Das "eigenartige" Brett war ein P5N-D mit NF 750i SLI. Alle "richtigen" Grafikkartentests erfolgen nun aber auf einem X48.

MfG,
Raff
X48 unterstützt SLI? :|

Mr. Lolman
2008-09-11, 17:18:57
Alle "richtigen" Grafikkartentests erfolgen nun aber auf einem X48.

MfG,
Raff

Na endlich. Denn auf die Idee NV-Karten mit nem AMD-Mainboard zu testen kommt ja eigentlich auch niemand... :|

... welches angesichts der Radeon-Werte nicht "parteiisch" zu sein scheint.

MfG,
Raff

Für euch schien das andere MB ja ursprünglich auch nicht parteiisch zu sein. Was ich sagen will ist, dass es wohl auf Dauer besser ist, wenn man möglichst wenig Angriffsfläche bietet. Der Benchartikel in 09/08 war hinsichtlich dessen ja auch ein bisschen ein Schuss ins eigene Knie...


EDIT: Ich les grad - http://www.pcgameshardware.de/aid,659368/Test/Benchmark/Grafikkarten_Uebersicht_und_PCGH-Kaufempfehlung_fuer_September/ - klingt ja schonmal ganz nett. Wie ich sehe ist die Powercolor 4870 nun besser als die Sapphire. Wenn das eure Excelformel so berechnet hat, würd ich die nochmal überdenken, denn offensichtlich ist die Sapphire deutlich leiser bei unmerkbar weniger fps. Welches Proggi wird denn aktuell für die Lautstärkenmessung herangezogen? Und zuguterletzt: Wo sind die neuen NV-Karten in eurer Tabelle?

Matrix316
2008-09-11, 18:19:29
Na endlich. Denn auf die Idee NV-Karten mit nem AMD-Mainboard zu testen kommt ja eigentlich auch niemand... :|

[/I]

Warum eigentlich nicht? Wenn denn auch Intel CPUs auf einem AMD Board laufen würden...;)

Gast
2008-09-12, 11:49:12
ich kann net so gut englisch....was ist denn das Fazit von dem test der neuen GTX260?

VooDoo7mx
2008-09-13, 05:50:15
Also bei den Stalker Benches kann ja hinten und vorne was nicht stimmen. Die GTX260 und GTX 280 sind ja kaum schneller als die alten. Und Multi Chip Systeme skalieren extrem. Also diese Werte nehme ich erst einmal nicht ernst.

Wenn man sich die kleinen Sprüngen von 8800GTX auf GTX 280 anschaut könnte man glatt auf die Idee kommen, dass das Spiel nen CPU Limit hätte, wenn man jedoch die dual gpu Skalierung betrachtet kann man fast vom Gegenteil sprechen. :|

AnarchX
2008-09-16, 20:15:30
GTX 260 216SPs Diskussion:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=431580

reunion
2008-11-04, 18:15:00
Newegg verkauft die GTX280 bereits um $374.99, dürfte auf eine baldige Preissenkung auch in Europa und den bevorstehenden Abverkauf hindeuten: http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&Depa=0&Description=GTX%20280

AnarchX
2008-11-04, 18:17:28
Bei dem aktuellen Dollarkurs dürfe da ja nicht viel herumkommen für Europa.

Gast
2008-11-04, 18:51:39
Newegg verkauft die GTX280 bereits um $374.99, dürfte auf eine baldige Preissenkung auch in Europa und den bevorstehenden Abverkauf hindeuten: http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&Depa=0&Description=GTX%20280

Abverkauf? Es steht doch noch garkein Nachfolger an

Raff
2008-11-04, 19:07:39
Abverkauf? Es steht doch noch garkein Nachfolger an

Dann sind die da wohl nur Hirngespinste: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=434247

Da kommt schon was. Die Frage ist nur, ob das noch dieses Jahr etwas wird ...

MfG,
Raff

Gast
2008-11-04, 19:19:16
Dann sind die da wohl nur Hirngespinste: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=434247

Da kommt schon was. Die Frage ist nur, ob das noch dieses Jahr etwas wird ...


Ich spekuliere auf ne überarbeitete 55nm GTX260 mehr wird dieses Jahr nicht mehr kommen.

Gast
2008-11-04, 19:27:57
Da kommt schon was. Die Frage ist nur, ob das noch dieses Jahr etwas wird ...


Nvidia hat immer gesagt das der GTX280 für die Zukunft gebaut wurde. Will man eine GX2 bauen ginge das auch nur mit 2xGTX260 "55nm die im 1.Quartal 09 erscheint, zuvor bringt man halt die normale 55nm GTX260 ergibt doch Sinn oder nicht? ;)

Ronny G.
2008-11-04, 20:51:13
Abverkauf? Es steht doch noch garkein Nachfolger an


wenn man die preise hierzulande anschaut sieht man das die GTX280er stark im Preis gestiegen sind, von teilweise 330€ zu ihrer besten Zeit auf jetzt durchschnittliche 370€, deswegen glaube ich nicht an einen Abverkauf.

Ruhig um den Refresh GT200 ist es aber trotzdem, fast zu ruhig.

reunion
2008-11-04, 21:15:28
Der Preisanstieg ist rein auf den schwächeren Euro zurückzuführen. Bei Newegg ging der Preis von $649 zu beginn schnell auf $449 zurück, und jetzt fällt er schon unter $400.

Gast
2008-11-04, 22:03:59
In der neuen PCGH steht das im nächsten Heft die GTX270 und 290 getestet werden. Hat das irgendwas zu bedeuten? Oder ist das auch nur reine Speku?

Raff
2008-11-04, 22:45:15
In der neuen PCGH steht das im nächsten Heft die GTX270 und 290 getestet werden. Hat das irgendwas zu bedeuten? Oder ist das auch nur reine Speku?

Hast du auch das Sternchen gesehen? :wink:

MfG,
Raff

mike49
2008-11-06, 23:06:14
Scheint wohl nix zu werden mit dem Test:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/november/nvidia_55-nm-chip_probleme/

Megamember
2008-11-10, 14:45:41
Und was ist das dann, dauernd diese Widersprüche, erst heisst es der SHrink kommt frühestens März nächsten Jahres, jetzt sind sie doch schon fertig??:

http://www.xbitlabs.com/news/video/display/20081107235337_Nvidia_Reports_Successful_Transition_to_New_Process_Technology.ht ml

Spasstiger
2008-11-10, 14:51:56
Und was ist das dann, dauernd diese Widersprüche, erst heisst es der SHrink kommt frühestens März nächsten Jahres, jetzt sind sie doch schon fertig??:

http://www.xbitlabs.com/news/video/display/20081107235337_Nvidia_Reports_Successful_Transition_to_New_Process_Technology.ht ml
Die ganzen bisherigen Gerüchte gingen von einem November-Release aus, der jetzt aber eventuell nicht gehalten wird. Im Dezember oder spätestens Januar sollte es aber klappen.

dildo4u
2008-11-17, 16:00:07
Kann das jemand bestätigen das der 180er im Prinzip das Performancebild total verändert?Wenn das stimmt muss man imo sämtliche Preis/Leistungsratgeber neu schreiben so groß sind teilweise die Zuwächse.

http://pctuning.tyden.cz/index.php?option=com_content&task=view&id=12022&Itemid=44&limit=1&limitstart=4

http://pctuning.tyden.cz/ilustrace3/obermaier/GF_180/vysledky_1.png

http://www.xtremesystems.org/forums/showpost.php?p=3434921&postcount=5

Palpatin@work
2008-11-17, 16:28:05
Kann das jemand bestätigen das der 180er im Prinzip das Performancebild total verändert?Wenn das stimmt muss man imo sämtliche Preis/Leistungsratgeber neu schreiben so groß sind teilweise die Zuwächse.

http://pctuning.tyden.cz/index.php?option=com_content&task=view&id=12022&Itemid=44&limit=1&limitstart=4

http://pctuning.tyden.cz/ilustrace3/obermaier/GF_180/vysledky_1.png

http://www.xtremesystems.org/forums/showpost.php?p=3434921&postcount=5

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_geforce_18042/8/#abschnitt_performancerating.

Da machts jetzt nicht soviel aus, aber im Schnitt 4% ist schon recht ordentlich.

Gast
2008-11-17, 16:48:56
Bei dem anderen Test wurden auch mehr Games getestet , kann schon hinkommen.

Mr. Lolman
2008-11-17, 17:10:47
http://www.xtremesystems.org/forums/showpost.php?p=3434921&postcount=5

Ist nett, aber die wirklich hohen Gewinne gibts eh nur bei realtitätsfremden Settings (die man weder spielt, noch normalerweise bencht): In Stalker Clear Sky hat eine GTX280 schon in 1680x1050 mit 4xAA nur ~14 fps. (mit 180er Treiber).

Gast
2008-11-17, 17:19:44
Ist nett, aber die wirklich hohen Gewinne gibts eh nur bei realtitätsfremden Settings (die man weder spielt, noch normalerweise bencht): In Stalker Clear Sky hat eine GTX280 schon in 1680x1050 mit 4xAA nur ~14 fps. (mit 180er Treiber).

http://pctuning.tyden.cz/ilustrace3/obermaier/GF_180/Stalker.png

Ob 14 oder 20fps macht schon einen Unterschied... Und bei MultiGPU ist es dann auch allemal spielbar.

Gast
2008-11-17, 17:30:40
http://pctuning.tyden.cz/ilustrace3/obermaier/GF_180/Stalker.png

wie kann SLI mit dem 178er über 100% skalieren?

Mr. Lolman
2008-11-17, 17:36:48
http://pctuning.tyden.cz/ilustrace3/obermaier/GF_180/Stalker.png

Ob 14 oder 20fps macht schon einen Unterschied... Und bei MultiGPU ist es dann auch allemal spielbar.

Najo. 35-40fps avg. mit MultiGPU würd ich nicht als spielbar betrachten. Ist aber wohl Geschmackssache...

wie kann SLI mit dem 178er über 100% skalieren?

Wohl mit dem gleichen Trick, mit dems möglich war in 1920 soviel fps zu erreichen, wie Computerbase mit 1680 ;)

Gast
2008-11-17, 17:55:14
wie kann SLI mit dem 178er über 100% skalieren?

Das ist ein bekanntes Phänomen und liegt wohl am Treiber.

Najo. 35-40fps avg. mit MultiGPU würd ich nicht als spielbar betrachten. Ist aber wohl Geschmackssache...

Na Hauptsache wieder alles schlecht reden...kennt man ja von dir.
Für einen Treiber ist der Zuwachs enorm.