PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX295 @ Quad SLI, erste Erfahrungen ;)


Seiten : [1] 2

tombman
2009-01-12, 16:35:48
BITTE DEN GANZEN TEXT LESEN, NICHT NUR DIE ZAHLEN SCHNELL ANSEHEN; WICHTIG!!!
(ich kenn euch ja)

Habe die Karten ja seit Freitag, konnte aber erst gestern Nacht ein bischen testen.

Leider habe ich derzeit kein Gerät welches mir 1920x1200 anzeigen kann, maximal 1920x1080 (1080p) ist drin. (Full HD Projektor/beamer)
Mein FW900 CRT ist ja "verschieden" ...

Die Konsequenz daraus ist, daß ich zb gewisse Benchmarks nicht in der gewohnten 16:10 1920x1200 Auflösung durchführen kann, darunter auch zb Vantage Extreme.

Ich mußte daher die benchmarks in 1920x1080, 16:9, durchführen. Die fps Werte sind also eventuell ~10% zu hoch- das muß man sich also gegebenenfalls dazu- bzw wegdenken/rechnen.
Treiber war in beiden Fällen der 181.20 WHQL.

Eines gleich vorweg: die Rechenleistung von 4 GT200 Chips ist abartig ;)

Verglichen mit 2x GTX280 ist die Steigerung ca 50% bis 80% im Plus. Meistens aber eher im 50% Plus Bereich. Die 280er waren dabei aber leicht oced(*), die 295er nicht. In der Praxis kann man also von 60% ausgehen, wenn der Treiber und das Profil paßt.
Wenn beide oced werden, sollte sich das Verhältnis nochmal in Richtung 295 veschieben, weil die 295er gar nicht so schlecht ocen sollen, der Grundtakt ist ja recht niedrig gewählt.

Bei 2x 295er Karten im quad sli sollte man auch bedenken, daß selbst ein 4Ghz Core2quad oftmals ein cpu Limit verursacht :ugly:
Da kann wohl nur mehr ein i7 auf 4Ghz ein bischen helfen, den ich aber nicht besitze.

Hier mal ein paar Werte:

3DMark Vantage @ 1920x1080 auf "extreme" settings, dh: 4xAA, 16xAF, Optionen alle auf Extreme, Post Processing auf 1:2. (Achtung: im neuen vantage whitepaper steht bei extreme post.pro. auf 1:5, was deutlich schneller und schlechtere Qualität liefert- ich habe aber trotzdem auf 1:2 getestet, so wie es früher üblich war.)
Keine Cpu Tests.

GTX280 SLi* -> GTX295 SLI

Gpu Score: 10296 -> 15670
Jane Nash: 34.35 -> 51.25 (fps)
New Calico: 25.82 -> 40.37 (fps)

Feature Test 3: 65.08 -> 113.12
Feature Test 6: 75.87 -> 137.24

(bei vielen Feature Tests lief SLI gar nicht, da gewinnt eine 280 natürlich gegen eine halbe 295)

Furmark, 1920x1080, 4xAA:

126fps -> 213fps

3Dmark06, 1920x1080, 4xAA, 16xAF:

Canyon Flight: 77fps -> 110fps (bei 8xAA immer noch 100fps - ich gehe von einem Cpu Limit aus)

Das selbe ohne AA bei den feature tests:

Fillrate Multitexture: 85364 -> 134554
Pixel Shader: 1200 -> 1594
Vertex Complex: 290 -> 396

Crysis, 1920x1080, 4xAA, VERY HIGH, 32bit, DX10, Build: 6156:

Bench_Gpu: 34.85fps -> 44.02fps

Das hört sich jetzt nach wenig Steigerung an, ABER: bei 8xAA und sogar 16xAA waren es immer noch 44fps!
Habe den Test mal auf 1280x720 ohne AA laufen lassen, und es kam 49fps heraus. Das nenne ich mal ein fettes CPU Limit!

Im Spiel selbst spürt man das mehr an fps aber deutlich. Während ich früher mit 3x fps herumgerannt bin, sind es jetzt 5x fps :up:

X3 Terran Conflict Rolling Demo, 1920x1080, 4xAA, 16xAF, alles auf Maximum, no quality control:

Overall AVG FPS: 79fps -> 99fps (schwerstes Cpu Limit!)

(Btw, X3TC auf ner 70" Leinwand im Dunkeln auf Full HD ist der HAMMER. In der letzten Szene mit dem HighPoly Megaschiff hätte ich mich am liebsten in ne Raumfähre geschmissen und "Bringen sie uns rein, Lieutenant!" gerufen)

Stalker Clear Sky hätte ich auch gerne testen wollen, leider war ich zu faul die soundcard nach dem Umbau wieder einzubauen- und prompt startete CS nicht mehr :mad:
Werde das aber auf jeden Fall nachholen, denn ich wollte vorallem das testen, was Grakas richtig quält.

Und jetzt kommen wir zu der Schattenseite:

Mikroruckler from Hell :(

In Vantage war es eine Katastrophe. Da sieht man 30fps auf dem Schirm, und es ruckelt an einigen Stellen mit gefühlten 10fps dahin. :uhammer:
Ich habs nachgemessen, ja, es sind tatsächlich 100ms im 4ten frame. Also 3 superschnelle frames und danach der 4te frame als Bombe, doppelt so schlimm wie bei normalem SLI :eek: (bei Quad SLi/CF muß man immer 4 frames betrachten)
Natürlich sieht man die ersten 3 superschnellen nicht, nur den 4ten als Megalag.
Besonders am Ende von New Calico, wenn die kleinen Schiffe durch die vielen Felsen fliegen, oder beim Kameraflug mitten durch die Felsen, waren es wirklich keine Mikroruckler mehr, es waren Makroruckler aus der Hölle :mad:
Es gab aber auch Szenen wo 30fps wie 30fps aussahen, leider tröstet das wenig...

In Crysis ging es mit den Mikrorucklern, da war es ziemlich stabil, man konnte gamen. Da die fps so hoch waren störten kleinere Ausflüge in den 30ms Bereich kaum, weil das ja immer noch gefühlte 30fps sind ;)

Ein kurzer Spezialtest mit dem kleinen tool XVOX (Polygontestmonster) brachte aber wieder 100ms frames zu Tage- das saugt schwer.

Andere games konnte ich noch nicht testen, zumal die fps dort sowieso so hoch gewesen wären, daß man von MR eh nichts mehr gesehen hätte. Bei 100fps und mehr gibts auch bei Quad-SLI kein MR mehr, weil die durchschnittlichen frametimes zu klein werden.

Jetzt zu etwas Kuriosem:

Normale Monitore für den PC können selten weniger als 50Hz ausgeben, nicht so Geräte für den Full HD Heimkinogebrauch.
Dort gibt es nämlich den 24Hz Kinomodus, auch 1080 24p genannt. Auch mein Full HD beamer kann natürlich in 24Hz Bilder auf die Wand werfen, um zb Blurays wie im Kino sehen zu können.
Die 24Hz Ausgabe bietet er auch Windows an, und die Nvidiatreiber haben kein Problem das auszugeben.
(na, wer ahnt jetzt schon worauf ich hinaus will?)

Jeder kennt natürlich VSYNC, also das Warten auf die Ausgabe auf den Monitor. Wenn der Monitor aber in 24Hz ausgibt, dann gibts auch praktisch keine superschnellen frametimes mehr und in Folgen dessen auch keine superlangsamen. vorrausgesetzt die Chips rechnen schneller als 24fps, was ja hier die Fall ist ;)

Ich habe also die Ausgabe auf 1920x1080 24p gesetzt und Vantage gestartet und VSYNC aktiviert. Jetzt gabs es zwar nie mehr als 24fps, dafür aber perfekt synchron den ganzen benchmark durch (mit einigen kurzen Abstechern knapp darunter). Der Flug durchs Felsenfeld usw war echt Hollywood ;D;D
24 synchrone fps sind besser als viel höhere fps, die Mikro- und Makroruckler haben.
Für das Gamerauge wäre zwar 30fps besser, aber anders gings eben nicht synchron.

Leider erhöht sich der input lag bei 24fps :( Ob das ganze also wirklich nutzbar ist bleibt abzuwarten.

Fazit:

Die Rohleistung ist das was ich mir erhofft hatte, echt supergeil.

Die Mikro- oder jetzt besser Makroruckler hauen aber DERZEIT alles zusammen- zumindest in theoretischen Tests oder Benchmarks.
Außer Crysis, und auch das nur kurz, habe ich ja noch nicht wirklich viele echte games getestet!

Ob ich die Karten behalten werde hängt davon ab wie sich Quad-SLI mit 2x GTX295 in echten games schlägt. Da habe ich noch viel zuwenig getestet .
Es kann aber durchaus sein, daß ich die beiden so schnell wieder los bin, wie ich sie herhatte ;D
In dem Fall würde ich 2x GTX280 behalten oder auch nur EINE GTX295 und dann auf 2x GT212 in ein paar Monaten setzen.

In diesem thread werde ich weitere Erfahrungen posten, also

....stay tuned, but don't hold your breath ;)

mfG

tombman

p.s.: mein 1100 Watt Coolermaster NT (80plus silver, 3x8 pin, 6x6 pin pcie Stecker) zuckte auch beim Furmark nicht mal mit der Wimper, Stromversorgung paßte also.
Die Lüfter ließ mich das cp nicht einstellen, da werde ich wohl das evga tool nehmen müssen- 90°C auf 40% Lüfter habe ich aber schon gesehen. Ich muß das G15 display neu anpassen, da ich ja jetzt 8 Temp.werte (4x Gpu+ 4x Gpu Ambient) anzeigen muß. Dazu auch später mehr.

derguru
2009-01-12, 16:48:37
die übertaktung der karte ist wirklich nicht rosig aber das hat sein grund,die 295 gtx hat unter last ein vcore von 1,08V im gegensatz zur 285gtx mit 1,15V.
bei den temps bei der karte kein wunder warum die karte mit wenig vcore läuft aber ich vermute unterwasser und ein wenig vcore erhöhnung geht die 295gtx dann ab wie schmitz katz.

tombman
2009-01-12, 16:56:14
2x 295 muß man gar nimmer übertakten, die sind eh schnell genug. Das Problem sind eher die frametimes.

Außerdem habe ich die Karten nicht per Fernabsatz bestellt sondern direkt im Laden gekauft. Ob die die gegebenenfalls zurücknehmen, ist auch so ne Sache.

Am liebsten hätte ich ja gern die Leistung von 2x 295 in EINEM Chip- das wäre der Hammer ;D

Aber zum pimpen taugen 2x 295 auf jeden Fall. Die Frage ist nur, ob sie auch zum gamen taugen, vorallem für den Preis :ugly:

reunion
2009-01-12, 16:58:06
Danke für den Bericht. Wie zu erwarten sind 4 GPUs kaum Alltagstauglich. Der Lag ist zu groß, die SLI-Probleme verstärken sich zu stark. Und mit solch einem High-End-Geschoss dann mit 24 fps zu spielen kann wohl kaum die Lösung sein.

Mr. Lolman
2009-01-12, 17:02:19
Feiner Erfahrungsbericht. :up:


Leider erhöht sich der input lag bei 24fps :( Ob das ganze also wirklich nutzbar ist bleibt abzuwarten.

Hm. Müssten ~166ms sein, wenn ich nicht verrechnet hab. Konstante 24fps bei 1920x1080 sollte ja eigentlich auch eine einzelne GTX28x schaffen, oder?

tombman
2009-01-12, 17:08:48
Konstante 24fps bei 1920x1080 sollte ja eigentlich auch eine einzelne GTX28x schaffen, oder?
In Vantage Extreme sicher nicht ;) Das können dann wirklich nur 4 Chips...

derguru
2009-01-12, 17:15:51
2x 295 muß man gar nimmer übertakten, die sind eh schnell genug. Das Problem sind eher die frametimes.

das stimmt allerdings:biggrin:
aber gut zuwissen was eigentlich jeder weiß,alles über 2 karten ist murks(ja,ja eine ist noch besser;))
ich glaub am ende haste wieder 2 singlekarten im sli,ich tippe mal auf 285gtx sli.

tombman
2009-01-12, 17:22:38
ich glaub am ende haste wieder 2 singlekarten im sli,ich tippe mal auf 285gtx sli.
Hmm, wie gut overclocken die 285er eigentlich? Packen die 800mhz core?
Weil auf 700core unter Wasser (ohne mehr vcore) bin ich ja jetzt schon mit den 280ern...
Außerdem brauche die 285er wieder völlig andere Wasserkühler, saugt auch :(

derguru
2009-01-12, 17:28:59
Hmm, wie gut overclocken die 285er eigentlich? Packen die 800mhz core?
Weil auf 700core unter Wasser (ohne mehr vcore) bin ich ja jetzt schon mit den 280ern...
Außerdem brauche die 285er wieder völlig andere Wasserkühler, saugt auch :(
da gibt es noch keine erfahrungswerte aber wenn schon asus offiziell eine oc karte mit 712/1600 takt rausbringen will dürften die 800 mit wasser nicht das problem sein.
abgesehen davon geht bei der 295gtx in der auflösung 1920*1200 mit hybrid AA öftermal die luft aus(falls du überhaupt sowas anwendest),dann helfen auch keine 2*295gtx mehr.

tombman
2009-01-12, 17:36:46
hm, 800/2000 im SLI, das wär schon was ;D

urbi
2009-01-12, 17:55:49
Ich hätte eigentlich einen weniger deutlichen Performancezuwachs erwartet. :D
Ohne Microruckler wäre das ganze so eine ziemlich interessante Angelegenheit. Canyon Flight mit über 100fps bei derart hohen Einstellungen und Verdacht auf CPU-Limit? Hut ab! :)

Philipus II
2009-01-12, 18:41:29
Danke tombman-super Bericht!

Das Auge
2009-01-12, 19:12:51
Deinen Enthusiasmus in alle Ehren, aber das...


Und jetzt kommen wir zu der Schattenseite:

Mikroruckler from Hell :(

macht die ganze Chose leider absolut unbrauchbar. Gibts denn was neues in Sachen Frametime-Limiter seitens nvidia?

deekey777
2009-01-12, 19:29:52
Was die Mikroruckler angeht: Wie sieht's aus, wenn du die Einstellungen herunterschraubst?

redpanther
2009-01-12, 19:47:44
Kann man nicht eine GTX295 mit einer GTX280 als Tripple SLI laufen lassen?
Hätte das eventuell Vorteile, da du ja schreibst das 4te Frame käme so spät?

Von der SLI effizienz sollte das do eh nicht groß ins gewicht fallen?

Crazy_Chris
2009-01-12, 19:48:49
Husch Husch einen Core i7 kaufen und auf mindestens 4Ghz takten. :biggrin:

Angiesan
2009-01-12, 20:50:33
Moin Tombman auf dich ist immer Verlass:biggrin:
Wenn es was Schnelles und Neues gibt muss ich immer nur nach einem neuen Post von Dir Ausschau halten und schon habe ich die Infos die ich brauche.
Netter,kurzer User-Test und wie so oft in der letzten Zeit von Dir, mit der nötigen Objektivität.
Danke und Grüße

Philipus II
2009-01-12, 21:00:52
Nur der i7 fehlt noch...

Spasstiger
2009-01-12, 21:08:23
Husch Husch einen Core i7 kaufen und auf mindestens 4Ghz takten. :biggrin:
Den braucht er allerdings auch nur für GTA IV. GPU-Leistung kann man immer gut verbraten, einfach 16xS-AA + TSSAA verwenden.

user77
2009-01-12, 21:22:52
Danke Tomban für den tollen Bericht!

Was hast du eigentlich mit den 2 x GTX 280 gemacht?

Kannst du mit dem neuen Quad SLI deine Wohnung heizen?

Der_Korken
2009-01-12, 22:09:01
Kann man nicht eine GTX295 mit einer GTX280 als Tripple SLI laufen lassen?
Hätte das eventuell Vorteile, da du ja schreibst das 4te Frame käme so spät?

Von der SLI effizienz sollte das do eh nicht groß ins gewicht fallen?

Ich glaube nicht, dass das funktioniert, da die Karten ja außerdem noch die unterschiedliche Speicherbestückung und die Anzahl der ROPs unterscheidet. Und selbst wenn man sich das hinbiegen würde: Das Problem bleibt bestehen, nur dann eben beim jeweils 3ten Frame, statt beim jeweils 4ten ;)

tombman
2009-01-12, 22:15:21
2x 280 stehen zum Verkauf, da sind sogar 1 slot hohe Vollbereich-Wasserkühler drauf von aqua computer ;)

Und ihr werdet lachen, ich denke tatsächlich gerade darüber nach mir ein i7 sys zu holen, zumal die Leute auf ebay ca 500€ für einen QX9650 boxed bezahlen, was ja meine derzeitige cpu ist ;) Damit wäre das i7 Sys finanzierbar ;)

Mit welchem mobo kriegt man derzeit einen 920i am besten auf 4Ghz?

Außerdem spekuliere ich auch darauf, daß ein X58 chipset vielleicht weniger MR produziert als ein 780i chipset, der ja doch schon ziemlich alt ist.
Aber auch wenn nicht, core i7 kann man immer brauchen, siehe GTA4 ;D

Wenns ganz böse kommt gebe ich eine 295er zurück und hole mir um 200€ eine 2GB 9600 Karte- nur für GTA4, und stecke sie zur 295er dazu ---ROFL ;D
(ich glaube, solange der selbe Treiber verwendet wird, akzeptiert Vista 2 unterschiedliche Grakas)

Naja, erstmal muß ich mehr mehr games testen, ist nur blöd heute, da guter TV Tag auf Pro7 :redface:

Gast
2009-01-12, 22:24:58
Hallo, Tombman

Ich suche nettes kartengespann um meinen i7 4,5GHz futter zu geben.
Gib es ein Board auf dem 4x GTX295 laufen?

gruss

tombman
2009-01-12, 22:36:35
Das kannst du vergessen, da kein Treiber der Welt mehr als 4 Gpus unterstützt.
Ein 4x 295er hätten schon 8 Gpus.

Eine 295er hat auch nur einen SLI Anschluß und nicht 2 oder 3.

ZapSchlitzer
2009-01-12, 22:37:47
Derzeit wird wohl nur Quad-Sli unterstützt. Außerdem dürfte dein i7 bereits mit einem Quad-Sli limitieren, da ist ein Octa-Gespann weit entfernt von gut und böse.

Raff
2009-01-12, 22:41:03
Derzeit wird wohl nur Quad-Sli unterstützt. Außerdem dürfte dein i7 bereits mit einem Quad-Sli limitieren, da ist ein Octa-Gespann weit entfernt von gut und böse.

Hört doch mal mit dem Blödsinn auf. ;) GeForce-Karten unterstützen Fullscene-Supersampling. Um mit 2x SSAA bei absoluter Grafiklimitierung die gleiche Framerate zu haben wie ohne AA ist bereits eine zweite GPU/Karte nötig. Mit 4x SSAA sind's schon 4 GPUs. Und mit 16x SSAA oder 32xS ... ach, was rede ich. :D

MfG,
Raff

HisN
2009-01-12, 22:48:20
Wieso CPU-Limit bei DX9-Software? Da laufen doch sowieso nur 3 Grakas.
Oder was verstehe ich da nicht im Zusammenhang mit Schwanzi06, bei X3 kann ich es ja noch verstehen^^
Ich meine vom Schwanzi kann man ja sowieso nur noch den Canjonflight nehmen wenn man die GPU testen möchte :-)

Grüner Salat
2009-01-12, 22:54:07
Ein Danke auch von mir.
Viele Punkte, deren Wissen sehr nützlich ist.

tombman
2009-01-13, 02:57:34
OK, habe jetzt soundcard wieder eingebaut, stalker cs rennt wieder.

Die Leistung und Skalierung ist abartig.

Von 26fps mit 2x 280 jetzt bei selben settings mit 2x 295 auf ca 50fps !!!! :massa:
Das sind fast 100% Skalierung, und das bei QUAD-SLI!!!!

Die frametimes waren auf 50fps perfekt. Wenn was kurz ruckelte, dann nur weil das Diskettensymbol aufleuchete, das Spiel also was nachlud.
Die 50fps wurden auf einer speziellen Stelle erreicht, die sehr hohe Last generiert.
Die settings waren: 1920x1080, ALLES (und ich meine ALLES), auf die höchsten Einstellungen eingestellt, die möglich sind (neueste Stalker CS Version)- bis auf jegliches AA, das war draußen.

Wenn ich 4xAA und A-Test AA (Bäume etc) auch noch dazunehme sind es immer noch ca 30fps- OH MY GOD. Die Frametimes waren nicht perfekt, aber im Bereich 20ms bis 40ms- also SLI ähnlich.
Das Diskettensymbol leuchtete auch deutlich häufiger auf- vielleicht war das schon zuviel für den armen Graka-Ram? kA.

Jedenfalls dachte ich nicht, daß es möglich ist Stalker CS mit dieser Generation an hardware ABSOLUT MAXIMIERT flüssig laufen zu sehen :eek:

So macht (quad) SLI wieder Spaß :up:

Weitere games folgen...

Fetza
2009-01-13, 03:11:28
Jedenfalls dachte ich nicht, daß es möglich ist Stalker CS mit dieser Generation an hardware ABSOLUT MAXIMIERT flüssig laufen zu sehen :eek:

So macht (quad) SLI wieder Spaß :up:

Weitere games folgen...

Erstmal gratz zum quad-sli :)

Aber wenn irgendein game heutzutage nicht auf quad-sli perfekt rennt (von mr abgesehen), wäre es wohl lächerlich.;)

Nightspider
2009-01-13, 03:13:12
Die frametimes waren auf 50fps perfekt. Wenn was kurz ruckelte, dann nur weil das Diskettensymbol aufleuchete, das Spiel also was nachlud


Zeit für SSD ! ;D

derguru
2009-01-13, 03:18:44
Aber wenn irgendein game heutzutage nicht auf quad-sli perfekt rennt (von mr abgesehen), wäre es wohl lächerlich.;)
siehste doch,stalker cs kannste noch abschminken mit aa settings jedenfalls mit nv karten.
mit aa ist meine 295gtx ein gutes stück lahmer als eine einzelne 4870 1gb karte,eventuell läuft kein sli.
gegen stalker cs ist performancemäßig crysis ein klacks.

edit:die karte bleibt im idle modus beim bench,ist ja lustig.

tombman
2009-01-13, 03:48:55
Ich habe gehört, daß SLi im benchmark gar ned rennen soll, im game aber schon.

Also laut Lastanzeige rennt SLi in Stalker CS, anders wären die fps auch gar ned nicht erreichbar.

Und ja, nichts ist derzeit so heftig wie Stalker CS- ok, von Vantage abgesehen, aber das ist kein game ;D

Btw, kleiner furmark Stresstest- bei 100% Lüftern erreichte einer von 4 Kernen nach 5 Minuten 95°C. Das war mir dann doch zuviel und ich habe abgebrochen.
Das Gehäuse war dabei offen, und overclockt waren die Karten auch nicht.

Man kann also sagen, daß furmark einfach ein Hitzekiller ist, mit dem Lüftkühlungen von highend Chips überfordert sind.

Da werden wohl wieder Wasserkühler ran müssen, kommen eh bald auf den Markt :rolleyes:
http://www.aqua-computer.de/prodimg/g295_web_1.jpg

derguru
2009-01-13, 04:00:10
das kann sein das sli nicht geht aber ist das bei dir auch so mit dem idle takt?
http://www.abload.de/thumb/xrengine2009-01-1303-5q1zi.png (http://www.abload.de/image.php?img=xrengine2009-01-1303-5q1zi.png)

tombman
2009-01-13, 04:09:56
Glaube ich nicht, da die temps sehr hoch waren bei allen chips, das geht mit idle Takt nicht, schätze ich mal...

derguru
2009-01-13, 04:15:42
komisch obwohl ich die selbe karte habe sogar vom selben hersteller.
naja wayne ist nur ein benchmark;)

die wird wahrscheinlich auch mein waterblock werden dann 800/1600 träum:eek:

tombman
2009-01-13, 05:13:38
Lol, habe gerade crysis warhead gezockt...MR waren praktisch nicht da, dafür locker 50fps bei 1920x1080, 4xAA, ENTHUSIAST ;D

Das ganze noch auf der Leinwand -> Orgasmusgarantie :cool:

Davon werde ich sicher ein Video machen wenn cinema gaming an den Start geht.
Dann verlang ich Eintritt ins Gamer-Paradies :naughty:

Also in echten games schlägt sich quad-sli derzeit recht gut :up:

Habe auch Lost Planet Colonies probiert, aber dort kam ich mit Mühe auf 80fps, meistens war ich am 120fps internen Limit. rofl.
(und das bei 1920x1080, 16xAA)

Ok, ich geh schlafen, aber bis jetzt schaut es so aus, als ob ich 2x GTX295 doch behalten werde...

tombman
2009-01-13, 05:53:26
Ok, einer noch.

Call of Juarez benchmark DX10:

1920x1080, 4xAA, 2048x2048: 101fps AVG ;D;D;D

Gn8..

Schlammsau
2009-01-13, 07:28:39
Sorry für OT, aber ich kann gerade nicht anders......warst es nicht du Tombman, der sich wegen der ganzen Konsolenports, erstmal keine Ultra Enthusiast High End Lösung mehr kaufen wollte?
Der die µR entdeckt und deshalb eigentlich kein SLi mehr haben wollte? Und schon gar niemals mehr, als 2 GPU´s?

Sowas nenne ich mal inkonsiquent und es nimmt dir mal wieder etwas Glaubwürdigkeit. Du würdest dir sogar 16 GPU´s ins System bauen, wenns möglich wäre. :cool:
Die µR scheinen ja doch nicht soooo schlimm zu sein, sonst würdest du das Gespann nicht behalten. *Kopfschüttel* [/OT Ende]

AnarchX
2009-01-13, 07:59:22
Teste doch mal das 64x(Q) SLI AA:
http://img243.imageshack.us/img243/3488/sliaa7326592mq4.png
... imo doch dass interessanteste an Q-SLI.

32xQ SLI AA (2x16Q mit 2x RGSSAA) bzw. 16x SLI AA (2x8x(Q?) mit 2x RGSSAA) sind wohl auch nicht so sinnfrei bei einem Quad-SLI, da man hier wieder bei 2-Way-AFR wäre.

Im FW 185.20 sollten diese Modi auf jeden Fall funktionieren.

Gast
2009-01-13, 08:00:48
Und wieder ein Triumph für NVidia, nach BQ, CUDA und PhysX jetzt auch die µR eingedämmt.

Wenn AMD/ATI nicht völlig ins Ramschsegment abrutschen will, sollten sie was tun.

Schlammsau
2009-01-13, 08:06:02
Wenn AMD/ATI nicht völlig ins Ramschsegment abrutschen will, sollten sie was tun.

Sie rutschen nicht ins "Ramschsegment"! ;)

Gast
2009-01-13, 08:24:15
Wenn AMD/ATI nicht völlig ins Ramschsegment abrutschen will, sollten sie was tun.

ATI steht Leistungsmäßig mit seiner 4870x2 gar nicht mal so schlecht da. In 8xAA überholt sie sehr oft die GTX295 und ist von der Preis/Leistung her viel attraktiver.

dargo
2009-01-13, 11:00:21
Lol, habe gerade crysis warhead gezockt...MR waren praktisch nicht da, dafür locker 50fps bei 1920x1080, 4xAA, ENTHUSIAST ;D

Das ganze noch auf der Leinwand -> Orgasmusgarantie :cool:

Nett, sehr nett. (y)

Gratulation zum neuen Spielzeug, so gefällst du mir gleich besser. :D

LovesuckZ
2009-01-13, 11:19:22
ATI steht Leistungsmäßig mit seiner 4870x2 gar nicht mal so schlecht da. In 8xAA überholt sie sehr oft die GTX295 und ist von der Preis/Leistung her viel attraktiver.

Und nVidia überholt AMD mit HQ-AF und TSAA. :rolleyes:

Sonyfreak
2009-01-13, 14:05:40
Super Bericht tombman! Danke, dass du uns an deinen ersten Erfahrungen teilhaben hast lassen. :up:

mfg.

Sonyfreak

tombman
2009-01-13, 14:07:42
Sorry für OT, aber ich kann gerade nicht anders......warst es nicht du Tombman, der sich wegen der ganzen Konsolenports, erstmal keine Ultra Enthusiast High End Lösung mehr kaufen wollte?
Der die µR entdeckt und deshalb eigentlich kein SLi mehr haben wollte? Und schon gar niemals mehr, als 2 GPU´s?
Der Aufpreis ist jetzt nicht sooo schlimm für mich, da immer noch relativ viel für 280er bezahlt werden, vorallem für wassergekühlte.
Die 295er haben ein besseres P/L, es war also sogar wirtschaftlich sinnvoll umzusteigen. Es ist sogar wirtschaftlich sinnvoll auf ein i7 Sys umzusteigen, da auch für meinen QX9650 relativ viel bezahlt wird. Ich werde also auch hier mittelfristig umsteigen.

Außerdem haben mich doch einige games gewurmt- ich hasse es, wenn ich games nicht maximieren kann, weil ich sonst in den unspielbaren fps-Bereich kommen würde. Ja, ich weiß, nur ein total Bekloppter zahlt wegen ein paar games locker 400€ Aufpreis, aber so bin ich halt :redface: (und verglichen mit den Sachen, die ich früher gemacht habe, ist das gar nix)

Wegen MR: ich habe einfach mal schauen wollen, ob Quad derzeit tragbar ist oder nicht. In Vantage (eXtreme) nicht, in echten games bis jetzt anscheinend schon, zumindest nicht schlimmer als bei normalem SLI. Eine leichte Verbesserung zu früher ist schon erkennbar, wahrscheinlich bemüht sich Nvidia ja- wer weiß.

Sowas nenne ich mal inkonsiquent und es nimmt dir mal wieder etwas Glaubwürdigkeit. Du würdest dir sogar 16 GPU´s ins System bauen, wenns möglich wäre. :cool:
Die µR scheinen ja doch nicht soooo schlimm zu sein, sonst würdest du das Gespann nicht behalten. *Kopfschüttel*
"inkonsEquent" heißt das. Bezogen auf mögliche Handlungen in der Zukunft war ich nie sehr glaubwürdig. Wie oft habe ich schon gesagt, ich mache A und tue dann aber B. Aber ist das wichtig? Nein.
Wichtig ist doch nur der Wahrheitsgehalt über die Einschätzungen von Situationen oder die Bewertung von zb hardware.
Wenn ich sage, daß es nur noch Konsolenports gibts, und man ultra high end nicht mehr braucht um games vernünftig spielen zu können, dann ist das die Wahrheit. Ob ich persönlich jetzt doch wieder unvernünftig werde ist mein Problem- nicht zur Nachahmung empfohlen ;)
Wenn ich sage "springt nicht ins kalte Wasser von ner hohen Brücke", dann aber selbst doch springe, dann war nicht die Aussage falsch, sondern meine Handlung :cool:
Analog dazu würde ich nie auf die Idee kommen 2x GTX295 für die Masse zu empfehlen, und Enthusiasten brauche ich auch nix empfehlen, die kaufen sowieso.

Btw, ich weiß schon, daß du als ATI-FAN (ich habe nicht "fanboy" geschrieben :cop: ;)) jetzt ob der relativ angenehmen Leistung von Quad-SLI etwas nervös wirst und dir ein bischen Luft machen mußt- is ok :)

Slipknot79
2009-01-13, 14:17:24
tombman, hast du Schwierigkeiten gehabt den QX9650 auf 4GHz zu bringen auf dem EVGA 780i? Also zickiges Mobo? Ich habe selbst ein "psychologisches" Problem mit 3,6GHz :)

user77
2009-01-13, 14:24:51
Was hast du für deine 2 GTX295 bezahlt? Wo hast du gekauft?

Shakti
2009-01-13, 14:40:16
Guter Bericht, Danke.
Warum nicht immer vsync an, (meiner Meinung nach das mindeste was sein muss beim Spielen) hab ich auch und ich merke NICHTS von Microrucklern.

y33H@
2009-01-13, 14:43:49
Warum nicht immer vsync1) Input-Lag
2) Framedrops ohne Triple-Buffering
3) Noch mehr Input-Lag durch Triple-Buffering

Tearing haste idR nur dann, wenn die Fps deutlich über den Hz liegen ...

cYa

Schlammsau
2009-01-13, 14:43:51
Der Aufpreis ist jetzt nicht sooo schlimm für mich, da immer noch relativ viel für 280er bezahlt werden, vorallem für wassergekühlte.
Die 295er haben ein besseres P/L, es war also sogar wirtschaftlich sinnvoll umzusteigen. Es ist sogar wirtschaftlich sinnvoll auf ein i7 Sys umzusteigen, da auch für meinen QX9650 relativ viel bezahlt wird. Ich werde also auch hier mittelfristig umsteigen.
Das kannst du machen wie du lustig bist. Immer schön die Wirtschaft ankurbeln!

Außerdem haben mich doch einige games gewurmt- ich hasse es, wenn ich games nicht maximieren kann, weil ich sonst in den unspielbaren fps-Bereich kommen würde. Ja, ich weiß, nur ein total Bekloppter zahlt wegen ein paar games locker 400€ Aufpreis, aber so bin ich halt :redface: (und verglichen mit den Sachen, die ich früher gemacht habe, ist das gar nix)
Welche Games sollen das den sein, die nicht flüssig auf einem GTX280 SLi flüssig laufen?

Wegen MR: ich habe einfach mal schauen wollen, ob Quad derzeit tragbar ist oder nicht. In Vantage (eXtreme) nicht, in echten games bis jetzt anscheinend schon, zumindest nicht schlimmer als bei normalem SLI. Eine leichte Verbesserung zu früher ist schon erkennbar, wahrscheinlich bemüht sich Nvidia ja- wer weiß.
Bei den FPS kein Wunder!
"inkonsEquent" heißt das. Bezogen auf mögliche Handlungen in der Zukunft war ich nie sehr glaubwürdig. Wie oft habe ich schon gesagt, ich mache A und tue dann aber B. Aber ist das wichtig? Nein.
Wichtig nicht, aber dir hätte ich schon mehr Hirnschmalz zugetraut…..obwohl, eigentlich doch nicht.
Es muss halt doch immer das schnellste und teuerste sein!

Wenn ich sage, daß es nur noch Konsolenports gibts, und man ultra high end nicht mehr braucht um games vernünftig spielen zu können, dann ist das die Wahrheit. Ob ich persönlich jetzt doch wieder unvernünftig werde ist mein Problem- nicht zur Nachahmung empfohlen ;)
Du kannst von mir aus nen Porsche in deinen PC bauen, dass juckt mich nicht die Bohne! Nur hast du vor nicht allzu langer Zeit, MGPU Systeme mit mehr als 2 GPU´s regelrecht verflucht. Und jetzt hast du selber eins!
Wenn ich sage "springt nicht ins kalte Wasser von ner hohen Brücke", dann aber selbst doch springe, dann war nicht die Aussage falsch, sondern meine Handlung :cool: Analog dazu würde ich nie auf die Idee kommen 2x GTX295 für die Masse zu empfehlen, und Enthusiasten brauche ich auch nix empfehlen, die kaufen sowieso.
Schon klar!
Btw, ich weiß schon, daß du als ATI-FAN (ich habe nicht "fanboy" geschrieben :cop: ;)) jetzt ob der relativ angenehmen Leistung von Quad-SLI etwas nervös wirst und dir ein bischen Luft machen mußt- is ok :)

Das hat absolut nichts mit Fanboyismus zu tun! Ich würde und habe bei einem Quadfire Gespann, genauso meinen Kopf geschüttelt. Sowas hat mehr Nachteile als Vorteile. Alleine der Energiebedarf oder die extremen Anschaffungskosten. Wie viel hast du gezahlt, 900-1000€ ohne Wakü ? Und für was? Für unsere kommenden Konsolenports, die selbst auf einer ollen 9800GT flüssig laufen?
Das hat nichts mit ATi vs nVidia zu tun!

tombman
2009-01-13, 14:44:35
tombman, hast du Schwierigkeiten gehabt den QX9650 auf 4GHz zu bringen auf dem EVGA 780i? Also zickiges Mobo? Ich habe selbst ein "psychologisches" Problem mit 3,6GHz :)
Ich habe ein XFX 780i, und da der Multi beim QX nach oben offen ist braucht das mobo nix besonderes können. Ich fahre auf schlappen 333Mhz fsb :rolleyes:
Und das psychologische Problem kenne ich, ich wollte auch unbedingt 4Ghz damals haben ;D
Kauf dir doch einfach ein i7 Sys, da bist sogar mit 3.8Ghz schneller als mit einem 4Ghz Core2Quad- werde ich vermutlich auch machen :)
Mit ein bischen Glück sind sogar mit nem i7-920 wieder 4Ghz drin ;)
Was hast du für deine 2 GTX295 bezahlt? Wo hast du gekauft?
Beim Ditech in Wien letzte Woche 2 von 5 Karten in ganz Österreich abgestaubt- runtergehandelt von 499€ auf 473€ pro Stück.
Zwar immer noch zu teuer, aber wer so schnell in .at was haben will, muß eben fett zahlen...

tombman
2009-01-13, 14:56:41
Das kannst du machen wie du lustig bist. Immer schön die Wirtschaft ankurbeln!
Welche Games sollen das den sein, die nicht flüssig auf einem GTX280 SLi flüssig laufen?
Bei den FPS kein Wunder!
Wichtig nicht, aber dir hätte ich schon mehr Hirnschmalz zugetraut…..obwohl, eigentlich doch nicht.
Es muss halt doch immer das schnellste und teuerste sein!
Du kannst von mir aus nen Porsche in deinen PC bauen, dass juckt mich nicht die Bohne! Nur hast du vor nicht allzu langer Zeit, MGPU Systeme mit mehr als 2 GPU´s regelrecht verflucht. Und jetzt hast du selber eins!
Schon klar!
Das hat absolut nichts mit Fanboyismus zu tun! Ich würde und habe bei einem Quadfire Gespann, genauso meinen Kopf geschüttelt. Sowas hat mehr Nachteile als Vorteile. Alleine der Energiebedarf oder die extremen Anschaffungskosten. Wie viel hast du gezahlt, 900-1000€ ohne Wakü ? Und für was? Für unsere kommenden Konsolenports, die selbst auf einer ollen 9800GT flüssig laufen?
Das hat nichts mit ATi vs nVidia zu tun!
Gemessen an der Anzahl deiner Rufzeichen echauffierst du dich immer heftiger und wirst sogar beleidigend.
Nachdem das sowieso offtopic ist, beende ich diese "Diskussion" jetzt ;)
Wahrscheinlich wirst du jetzt versuchen, mich durch Provokationen oder Beleidigungen zum Weiterschreiben zu bewegen- aber, um Seven-of-Nine zu zitieren: "Sie werden scheitern" ;)

Slipknot79
2009-01-13, 14:57:54
>Kauf dir doch einfach ein i7 Sys, da bist sogar mit 3.8Ghz schneller als mit einem 4Ghz Core2Quad- werde ich vermutlich auch machen
Mit ein bischen Glück sind sogar mit nem i7-920 wieder 4Ghz drin

Bin auch am Überlegen obs doch nicht ein Core i7 werden soll ^^, was mich noch davon abhält, sind die hohen Temps die beim ocen entstehen sollen (trotz wakü) und Core i7 und 3.8GHz -> psychologischer Shit wieder :( Dafür soll SLI besser skalieren?!?!?! Und den QX9650 hab ich schon um 370EUR inkl EMS-Versand geordert ^^ :cool:
Jedenfalls scheinen manche Leute Probleme damit zu haben, den QX auch bei 333MHz auf 4GHz zu ocen (wo ich mir auch ned wirklich erklären kann wo das Problem liegen soll), daher meine Frage vorhin. Dann versuchen sie zB 10x400, und schon geht die shice mit GTLs und anderen Voltages los.

Schlammsau
2009-01-13, 14:58:24
Gemessen an der Anzahl deiner Rufzeichen echauffierst du dich immer heftiger und wirst sogar beleidigend.
Nachdem das sowieso offtopic ist, beende ich diese "Diskussion" jetzt ;)
Wahrscheinlich wirst du jetzt versuchen, mich durch Provokationen oder Beleidigungen zum Weiterschreiben zu bewegen- aber, um Seven-of-Nine zu zitieren: "Sie werden scheitern" ;)

Wo bin ich beleidigend geworden? :|

derguru
2009-01-13, 15:01:38
>Kauf dir doch einfach ein i7 Sys, da bist sogar mit 3.8Ghz schneller als mit einem 4Ghz Core2Quad- werde ich vermutlich auch machen
Mit ein bischen Glück sind sogar mit nem i7-920 wieder 4Ghz drin

Bin auch am Überlegen obs doch nicht ein Core i7 werden soll ^^, was mich noch davon abhält, sind die hohen Temps die beim ocen entstehen sollen (trotz wakü) und Core i7 und 3.8GHz -> psychologischer Shit wieder :( Dafür soll SLI besser skalieren?!?!?! Und den QX9650 hab ich schon um 370EUR geordert ^^

was für hohe temps,was ist den für dich hoch? ich habe bei 4,3ghz inkl. turbo mit prime 65°C unter wasser und ich hab nicht mal einen leistungstarken wasserkühler.

Slipknot79
2009-01-13, 15:06:20
was für hohe temps,was ist den für dich hoch? ich habe bei 4,3ghz inkl. turbo mit prime 65°C unter wasser und ich hab nicht mal einen leistungstarken wasserkühler.


Im luxx Forum kommen manche auf 70°C und mehr für 4GHz. Vielleicht hast du ne gute CPU erwischt.

tombman
2009-01-13, 15:08:38
was für hohe temps,was ist den für dich hoch? ich habe bei 4,3ghz inkl. turbo mit prime 65°C unter wasser und ich hab nicht mal einen leistungstarken wasserkühler.
Welches mobo nutzt du eigentlich? Und sollte man beim i7-920 Kauf was beachten (boxxed natürlich)? Gibts da auch schon neue steppings?
Welchen Speicher hast du?

@slip: auf 70°C kannst aber mit dem QX auf 4Ghz auch kommen unter 4x prime small fft...

Slipknot79
2009-01-13, 15:18:15
@slip: auf 70°C kannst aber mit dem QX auf 4Ghz auch kommen unter 4x prime small fft...


IntelBurnTest 1.9=Referenz :cool: :redface:


Es rennen nicht mal die 3.6GHz bei mir stabil :(, Prime95 lauft über Nacht ohne Probleme, egal welcher Test, aber IntelBurnTest 1.9 erzeugt bei 200 loops (ca 8h Laufzeit) 5% fehlerhafte Durchgänge :( -> Psychologischer Shit ^^

derguru
2009-01-13, 15:23:54
du kannst eigentlich jedes x-beliebige mobo kaufen,kommt halt drauf an was für extra sachen du haben willst wie triple sli usw.
empfehlen kann ich eigentlich das Gigabyte GA-EX58-UD5 die kriegt man schon für 230 und hat alles was man braucht.
ich habe den billigsten arbeitsspeicher überhaupt drinnen;)(warte noch bis die ddr3 preise noch ein wenig fallen dann kaufe ich mir 6 gb riegel)
3gb DDR3-1333 für 60 euro,weiß auch gar nicht was alle meckern das intel so teuer sein soll,bei mobo,cpu und ram komme ich in etwa die selbe preiskategorie wie ein amd sys und habe viel mehr leistung;)

tombman
2009-01-13, 15:30:50
Das habe ich befürchtet. Ich wollte auch das GIGA UD5, nur leider hat das eine so beschissene Slot-Verteilung, daß bei 2 Doppelstock Grakas kein einziger PCI Steckplatz mehr frei ist- und den brauche ich für die X-FI Elite Pro.
Könnte mir zwar eine PCI-E X-FI kaufen, mag aber nicht :(
(die Qualität der Elite Pro ist besser als bei den normalen Karten..)

@slip: also sooo lang habe diese Tests gar ned laufen lassen, 1 bis 2 Stunden haben mir schon gereicht, und da war es stabil- reicht auch für den Alltag.
Aber wenn nicht mal 3.6ghz stabil rennen, dann hast ne schlechte cpu erwischt- ok, es ist ja auch kein QX ;)
An deiner Stelle würde ich sofort i7 kaufen und den QX ganz schnell abbestellen.

Slipknot79
2009-01-13, 15:33:26
derguru, kannst du durch einen persönlichen Test eine bessere SLI-Skalierung mit X58 bestätigen?

@Tombmans€dit: Kann ich ned abbestellen, ist schon unterwegs. Hab ja bei 370EUR nix zu verlieren, außerdem bietet der Typ sogar 60 Tage Rücknahmeshit an. Ich glaube ned, dass die CPU eine Krücke ist, denn auf 4GHz und 1.4V rennt Prime Small FFT stundenlang stabil, aber in place und blend hauen nach wenigen Sekunden Errors raus. Also muss die CPU eigentlich ganz ok sein. Muss am FSB-Problem der 780er liegen. Wenn ich die FSB-Voltage anhebe, "verbessert" sich die Stabilität von 1-2s auf max 10s :rolleyes:

derguru
2009-01-13, 15:41:45
derguru, kannst du durch einen persönlichen Test eine bessere SLI-Skalierung mit X58 bestätigen?


100% sogar kann ich das bestätigen aber um sicher zugehen könnte ich sogar mal ein paar vergleiche mit tombmans hardware machen dann weiß man es sogar genau.

er müsste aber sli abklemmen da ich "nur" eine 295gtx habe;) sowird man immerhin die I7 power sehen.

tombman mach doch mal nur canyon mit einer karte auf default aber 4ghz.ich mach das dann auch mal.

edit:habe 116fps im canyon OC 675/1450/1188 sind es 140fps

Slipknot79
2009-01-13, 15:46:24
wtf macht mich beide ned geil auf core i7 :redface: Ne passt schon, haut rein :)


Obwohl: Ist das überhaupt vergleichbar? Die 295GTX nutzt ja nen EIGENEN nf200-chip und somit spielt es keine Rolle was X58 macht?!?!? Der X58 wird ja erst dann angesprochen, wenn man 2x295GTX auf dem Mobo verbaut hat?

derguru
2009-01-13, 15:54:16
wtf macht mich beide ned geil auf core i7 :redface: Ne passt schon, haut rein :)


Obwohl: Ist das überhaupt verlgiechbar? Die 295GTX nutzt ja nen EIGENEN nf200-chip und somit spielt es keine Rolle was X58 macht?!?!?

nei sicher nicht von der skalierung aber schau doch in guru die skalierung das sollte alles beantworten;)

http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/19

tombman
2009-01-13, 16:05:10
Naja, skaliert X58 SLI wirklich besser oder wird das Cpu Limit nur stark angehoben?

Laut diesem Bild

http://www.abload.de/img/slix58vs790i3y0b.jpg (http://www.abload.de/image.php?img=slix58vs790i3y0b.jpg)

ist die reine SLI-Leistung nicht höher, nur das Cpu Limit wird stark angehoben )

Kindergärtner
2009-01-13, 16:08:02
Wichtig nicht, aber dir hätte ich schon mehr Hirnschmalz zugetraut…..obwohl, eigentlich doch nicht.
Es muss halt doch immer das schnellste und teuerste sein!


Gemessen an der Anzahl deiner Rufzeichen echauffierst du dich immer heftiger und wirst sogar beleidigend.


Wo bin ich beleidigend geworden? :|

Wenn du schon selber nicht mehr weisst was du so von dir gibst, dann halt am Besten einfach die Beine still.
Vielleicht ist diese Ausdrucksweise bei dir im näheren Umfeld so üblich, bei vernünftigen und sachlich argumentierenden Menschen ist dies aber leider nunmal nicht der Fall.

Du hast also zwei Möglichkeiten:

1. Werde erwachsen, dann nehmen dich anständige Leute hier auch Ernst.
2. Werde nicht erwachsen. Dann solltest du die Finger aber auch von den Leuten lassen, die mit dir nichts anfangen können.

Ich danke für ihre Aufmerksamkeit.

y33H@
2009-01-13, 16:14:33
@ tombman

CPU-Limit.

cYa

Slipknot79
2009-01-13, 16:15:41
Hier habe ich auch einen eher ernüchternen Test gefunden:

http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=218&page=3

Weiß ned was das soll mit dem guru3d-Benchmark. oO Verwirrt alles.


Wenn ein CPU-Limit vorliegt, sollte man woher eher zu Crysis (Warhead) greifen. Dann sieht es wieder laut THG besser aus für die Skalierung: http://www.tomshardware.com/reviews/core-i7-gaming,2061-7.html sofern man nicht mit 2560x1600 rumspielt.

tombman
2009-01-13, 16:26:41
Hier habe ich auch einen eher ernüchternen Test gefunden:

http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=218&page=3

Weiß ned was das soll mit dem guru3d-Benchmark. oO Verwirrt alles.


Wenn ein CPU-Limit vorliegt, sollte man woher eher zu Crysis (Warhead) greifen. Dann sieht es wieder laut THG besser aus für die Skalierung: http://www.tomshardware.com/reviews/core-i7-gaming,2061-7.html

Man sieht eh, sobald die Sache rein grafikkartenlimitiert wird, skaliert gar nix besser beim i7- nur, daß es eben 100% Graka-limit in der Praxis kaum gibt. Deswegen kannst du mit einem i7 die benchmark scores immer ein bischen "frisieren" ;)
Der i7 hautb dir einfach die max frames nach oben und pushed deine avg fps immer ne Spur nach oben. Oder man kann auch sagen: er holt eben derzeit das beste aus SLI heraus, aber nicht weil X58 SLI besser skalieren läßt, sondern weil der i7 so ne schnelle Cpu ist ;)

I want one :)

Gast
2009-01-13, 16:47:02
etwas lahm dein Quad SLI, an die Werte kommt man ja auch locker mit drei GTX 280...

Mr. Lolman
2009-01-13, 16:49:05
1) Input-Lag
2) Framedrops ohne Triple-Buffering
3) Noch mehr Input-Lag durch Triple-Buffering

Tearing haste idR nur dann, wenn die Fps deutlich über den Hz liegen ...

cYa

Tearing hat man, auch wenn die fps unter den Hz liegen, und die Monitorfrequenz ungleich einem ganzzahligen Vielfachen der Framerate ist (bei vsync off natürlich ;))

y33H@
2009-01-13, 16:53:51
idR Regel sagte ich. Schließlich ist die Wahrscheinlichkeit, dass "die Monitorfrequenz ungleich einem ganzzahligem vielfachen der Framerate ist" recht gering ;)

cYa

Philipus II
2009-01-13, 16:54:55
I want one :)
And we want your benches!:biggrin:

Matrix316
2009-01-13, 16:55:44
etwas lahm dein Quad SLI, an die Werte kommt man ja auch locker mit drei GTX 280...
Was vielleicht daran liegt, dass 2x295 = 4x260...

Mr. Lolman
2009-01-13, 16:58:23
idR Regel sagte ich. Schließlich ist die Wahrscheinlichkeit, dass "die Monitorfrequenz ungleich einem ganzzahligem vielfachen der Framerate ist" recht gering ;)

cYa

Nö. Die ist sogar sehr hoch. Tearing hat man bei VSyncOff und bspw. 60Hz sobald die fps != 60, 30, 20, 15, 12,.... sind.

Gast
2009-01-13, 17:09:21
Was vielleicht daran liegt, dass 2x295 = 4x260...

Nicht wirklich, da die GPU auf den GTX 295 wie auf den GTX 280 auch 240SP und 80TMUs haben.

Würde mal sagen krasses CPU Limit...

user77
2009-01-13, 17:11:25
Ich habe nie gedacht, dass ich das mal sagen würde,

Tombman du brauchst mehr CPU-Power!!

=Floi=
2009-01-13, 17:51:06
warum kein 8xAA? Da hätte ich bei dir ein wenig mehr erwartet.
Das GB UD5 bietet extrem viele features, da würde ich eher die x-Fi tauschen.
Das cpu-limit ist doch bis auf 1 game überall ausreichend hoch.
Von QX9XXX auf Core i7 mit der gleichen ghz zahl sollten bei spielen und max. 4 core nicht mal 20% liegen, eher 10%!

Ich muß aber hier schlammsau schon ein wenig rechtgeben. Er hat schon recht und wenn jemand zuerst 50x etwas anderes sagt, und dann zum start von quad sli zuschlägt, dann wirkt das eben nicht so konsequent.

Gast
2009-01-13, 17:53:36
Nö. Die ist sogar sehr hoch. Tearing hat man bei VSyncOff und bspw. 60Hz sobald die fps != 60, 30, 20, 15, 12,.... sind.

auch dann hat man noch tearing, denn neben eh schon unwahrscheinlichen zufall, dass die framerate ganz genau einen ganzen teiler der bildwiederholrate ist müsste das frame nun rein zufällig auch noch genau mit dem vsync-signal fertig werden, und das ist schon ein zufall zu viel.

so lange die framerate allerdings unter der bildwiederholfrequenz liegt hat man maximal eine rissstelle, was außer in speziellen fällen (z.b. stroboskop) eigentlich nicht auffällt.

Shakti
2009-01-13, 18:11:03
Grau ist alle Theorie.
Nach wenigen Sekunden sehe ich tearing und stoert mich tearing in jedem Spiel. Aber ging ja nicht darum, sondern meine Frage war an Monsieur le tombman gerichtet, ob bei vsync an, gerade bei soviel gpu-power, sich das microruckeln nicht sowieso erledigt hat.

pest
2009-01-13, 18:34:12
habe bei 4,3ghz inkl. turbo mit prime 65°C unter wasser und ich hab nicht mal einen leistungstarken wasserkühler.

diese Angabe ist ohne Raumtemperatur eine null-Aussage, leider...und bei ~20° Raumtemp. kauf ich dir das nicht ab


Jedenfalls scheinen manche Leute Probleme damit zu haben, den QX auch bei 333MHz auf 4GHz zu ocen (wo ich mir auch ned wirklich erklären kann wo das Problem liegen soll), daher meine Frage vorhin. Dann versuchen sie zB 10x400, und schon geht die shice mit GTLs und anderen Voltages los.

SLI + Quad frisst Bandbreite zum Frühstück. Nen i7 ist da klar im Vorteil.

y33H@
2009-01-13, 18:42:30
Von QX9XXX auf Core i7 mit der gleichen ghz zahl sollten bei spielen und max. 4 core nicht mal 20% liegen, eher 10%!20-50% triffts eher ...

cYa

Gast
2009-01-13, 18:46:28
Tearing hat man, auch wenn die fps unter den Hz liegen, und die Monitorfrequenz ungleich einem ganzzahligen Vielfachen der Framerate ist (bei vsync off natürlich ;))

Tearing hast du IMMER bei VSync off. Das Verhältnis von Monitorrefresh und fps ist dabei völlig egal.

Matrix316
2009-01-13, 19:19:31
Nicht wirklich, da die GPU auf den GTX 295 wie auf den GTX 280 auch 240SP und 80TMUs haben.

Würde mal sagen krasses CPU Limit...
Nur: Weniger Speicher, geringerer Speichertakt, geringerer Shadertakt und geringerer Chiptakt macht dann doch was aus.

Sagen wir mal eine Hälfte einer GTX 295 hat 85% der Leistung einer GTX 280, dann wären 4x85% = "340%" und 3*100% = "300%" - also nicht sehr viel weniger. Und wenn man noch abzieht, dass SLI nicht unbedingt 100% skaliert...

Spasstiger
2009-01-13, 19:34:12
Ich muß aber hier schlammsau schon ein wenig rechtgeben. Er hat schon recht und wenn jemand zuerst 50x etwas anderes sagt, und dann zum start von quad sli zuschlägt, dann wirkt das eben nicht so konsequent.
Probieren geht über Studieren. Ich hab hier auch immer gegen LCD-Bildschirme gebasht bis ich selbst drei Stück durchprobiert habe (erst TN-Panel, dann A-MVA und bei P-MVA bin ich erstmal geblieben).

tombman
2009-01-14, 00:14:00
etwas lahm dein Quad SLI, an die Werte kommt man ja auch locker mit drei GTX 280...
Warum wurden dann neue Weltrekorde mit 2x 295 erreicht, wenn 3x 280 nicht zu schlagen gewesen wären? ;)

Von der Rechenleistung sind 4 vollwertige Chips immer noch schneller als 3. Es hängt vom Takt ab was letztendlich gewinnt.
295er kommen aber auch fast auf die oc Werte der 280er, deshalb sehe ich 2x 295 vor 3x 280.

3x 285 wird wahrscheinlich gleichwertig sein, ich wollte aber keine 3 Karten im System, und ich wollte auch nicht unbedingt die schnellsten fps der Welt, nur ein spürbares PLUS im Vergleich zu 2x 280- was ich auch bekommen habe ;)

btw, die 295er waren nicht übertaktet...
Was vielleicht daran liegt, dass 2x295 = 4x260...
Nein, denn -v
Nicht wirklich, da die GPU auf den GTX 295 wie auf den GTX 280 auch 240SP und 80TMUs haben.

Würde mal sagen krasses CPU Limit...
So ist es ;)
warum kein 8xAA? Da hätte ich bei dir ein wenig mehr erwartet.
Weil mich 8xAA nur peripher interessiert.

Das GB UD5 bietet extrem viele features, da würde ich eher die x-Fi tauschen.
Oder den flexible riser Trick anwenden: an PCI angrenzenden PCi-E slot per riser erhöhen und dann PCI slot per flexiblem riser "umleiten"- habe ich alles schon gemacht ;)

Das cpu-limit ist doch bis auf 1 game überall ausreichend hoch.
Von QX9XXX auf Core i7 mit der gleichen ghz zahl sollten bei spielen und max. 4 core nicht mal 20% liegen, eher 10%!
20% schneller bei gleichem Takt ist der i7 schon...

Ich muß aber hier schlammsau schon ein wenig rechtgeben. Er hat schon recht und wenn jemand zuerst 50x etwas anderes sagt, und dann zum start von quad sli zuschlägt, dann wirkt das eben nicht so konsequent.
"Konsequenz" ist nur ein anderes Wort für "dumme Sturheit". Und zwischen "zuschlagen" und "neu ausprobieren mit anschließender Reevaluation" liegt ein großer Unterschied. Wenn die MR mich in echten games erschlagen hätten, wären die Karten jetzt schon wieder beim Händler...
Nur: Weniger Speicher, geringerer Speichertakt, geringerer Shadertakt und geringerer Chiptakt macht dann doch was aus.

Sagen wir mal eine Hälfte einer GTX 295 hat 85% der Leistung einer GTX 280, dann wären 4x85% = "340%" und 3*100% = "300%" - also nicht sehr viel weniger. Und wenn man noch abzieht, dass SLI nicht unbedingt 100% skaliert...
Man wird das in der Praxis ansehen müssen- ich wollte eben 4 Chips haben und nicht 3 Doppelslot Karten im Sys.
Verlege mal 3 Graka-Waküs mit Schnellkopplern unabhängig voneinander. Es geht zwar, aber es wird eng: da braucht man 3x 1 slot Kühler, spezielle, superflache 90° Winkel (gibts) und 6 Schnellkoppler, die 20€ pro Stück kosten. Im inneren des Gehäuses siehts dann borgmäßig aus.
Mit nur 2 Doppelstockkühlern ist es deutlich einfacher ;) (nur 4 Schnellkoppler und normale 90°C Winkel, was ich alles schon besitze)
Und wie gesagt, um den allerletzten fps gings nicht...
Probieren geht über Studieren. Ich hab hier auch immer gegen LCD-Bildschirme gebasht bis ich selbst drei Stück durchprobiert habe (erst TN-Panel, dann A-MVA und bei P-MVA bin ich erstmal geblieben).
Eben, erst mal schauen wie die NEUE Situation ist und dann NEU bewerten. Ich hatte ja damals auch kurz eine dritte 8800er- und die gab ich nach ein paar Tagen eiskalt zurück.
Diesmal waren die MR "ok", und ich behalte die Karten :)

Aber ich wette, diese Pseudokritik mit der "fehlenden Konsequenz" kommt eh nur von den Leuten, die dringend irgendwas brauchen um tombman zu kritisieren. So wie wenn ein Läufer sagt, er kaufe niemals Schuhe der Marke A- um dann später genau mit diesen Weltrekord zu rennen: Die, die den Typ mögen oder neutral sind, werden zum Rekord gratulieren- die anderen werden die "fehlende Konsequenz" kritisieren ;D

Gast
2009-01-14, 08:44:15
Also ich war ja lange Zeit kein Freund von Tombman bzw. der Art seiner Einträge hier aber mittlerweile muss ich mal wirklich ein Lob aussprechen ! Er hat in seinem fortgeschrittenen Alter endlich gelernt, sich richtig zu artikulieren und es macht wirklich Spaß, seine Beiträge zu lesen. Klasse, weiter so ! ;)

Matrix316
2009-01-14, 09:13:13
Man wird das in der Praxis ansehen müssen- ich wollte eben 4 Chips haben und nicht 3 Doppelslot Karten im Sys.
Verlege mal 3 Graka-Waküs mit Schnellkopplern unabhängig voneinander. Es geht zwar, aber es wird eng: da braucht man 3x 1 slot Kühler, spezielle, superflache 90° Winkel (gibts) und 6 Schnellkoppler, die 20€ pro Stück kosten. Im inneren des Gehäuses siehts dann borgmäßig aus.
Mit nur 2 Doppelstockkühlern ist es deutlich einfacher ;) (nur 4 Schnellkoppler und normale 90°C Winkel, was ich alles schon besitze)
Und wie gesagt, um den allerletzten fps gings nicht...
Ich sag ja auch net, dass 3x280 schneller sind, sondern 2x295 ist schon schneller, nur halt nicht extrem, weil die einzelnen Karten schon etwas abgespeckter sind, als eine 280.

tombman
2009-01-14, 13:14:57
Ich sag ja auch net, dass 3x280 schneller sind, sondern 2x295 ist schon schneller, nur halt nicht extrem, weil die einzelnen Karten schon etwas abgespeckter sind, als eine 280.
Jo, es würde mich auch nicht wundern wenn Leute mit 3x 285 sogar ein bischen schneller sind, was mir aber egal wäre. Die 3x 285 wären sogar ein bischen teurer als 2 Stück 295er- bei einem schlechteren P/L :eek:

Psychopat
2009-01-14, 13:28:48
Noch eine Überlegung zu CPU-Leistung und MR:
Es ist evtl. gar nicht so schlecht am CPU-Limit zu sein, denn dadurch werden ja die MR unterbunden. Das CPU-Limit könnte der Grund sein, warum in Spielen die MR sich in Grenzen halten.

tombman
2009-01-14, 13:44:42
Noch eine Überlegung zu CPU-Leistung und MR:
Es ist evtl. gar nicht so schlecht am CPU-Limit zu sein, denn dadurch werden ja die MR unterbunden. Das CPU-Limit könnte der Grund sein, warum in Spielen die MR sich in Grenzen halten.
Da ist sicher was dran. Wenn die Karten gerade knapp schneller als das cpu Limit sind, dann könnte das cpu Limit helfen, MR zu reduzieren.
Vielleicht war bei Vantage die cpu so dermaßen schneller, daß die Grakas diese blöde MR Muster erzeugen konnten.
Ich werde mal die Cpu per Multi ärger runterprügeln und schauen was die MR in Vantage machen :D

Wenn das stimmt, wäre es vielleicht sogar kontraproduktiv auf ein i7 Sys umzusteigen, obwohl die avg fps besser wären :ugly:

Das wäre vielleicht überhaupt einer neuer Ansatz um MR zu verhindern- rofl.

1.) man schaue wieviel avg fps ein Spiel bringt
2.) Man drehe die Cpu so lange herunter, bis die avg fps anfangen zu sinken, vorallem in grafiklastigen Szenen
3.) Man stelle den Cpu speed knapp unterhalb der Leistung der Grafikkarten ein, um ein künstliches speedlimit für zu kurze frametimes zu schaffen - rofl

Beispiel:

Grafiklastige Szene bringt 50fps, aber mit massiv MR, da Cpu gut genug für 200fps wäre. Also für 5ms frametime (1000/200).

Kadenz bei Quad-SLi, wenns scheiße rennt: 5-5-5-65 = 80ms für 4 frames = "20ms" pro frame = 50fps

Sichtbar wären aber nur die 65ms, was 15 fps entspricht! Also hätte man 50fps, sehen würde man aber nur 15fps- und damit ein schweres Ruckeln!

-> Cpu auf 1/4 des Taktes runterdrehen -> schnellste, mögliche frametime = 20ms statt vorher 5ms (5*4=20)

Neue Kadenz: 20-20-20-20 :cool: (= 50fps-50fps-50fps-50fps)

Gast
2009-01-14, 14:16:56
Wo bin ich beleidigend geworden? :|
Mangelnder Hirnschmalz und so...

Tombman: Lass dich nicht dazu provozieren. Sonst wirst du am Ende gesperrt und wiedereinmal ist ein überdurchschnittlich interessanter Thread zum Teufel gegangen. ;)

Gast
2009-01-14, 14:25:03
20-50% triffts eher ...

cYa
bei spielen ist der i7 praktisch NICHT vorne. das ist ja der witz. theoretisch ja, praxis suckt er.

derguru
2009-01-14, 14:47:02
bei spielen ist der i7 praktisch NICHT vorne. das ist ja der witz. theoretisch ja, praxis suckt er.

in einigen spielen gibts schon performancevorteile vorallem dann wenn man 2*295gtx karten im einsatz hat.

naja ich weiß gar nicht was es zu überlegen gibt,tombman könnte fast ohne extra zuschuss durch den verkauf von seinem mainboard und cpu sich ein aktuelles bundle aus mainboard,cpu und speicher kaufen.
ich hätte die cpu schon lange verkauft bevor die nachfrage noch weiter sinkt.

tombman
2009-01-14, 14:48:05
bei spielen ist der i7 praktisch NICHT vorne. das ist ja der witz. theoretisch ja, praxis suckt er.
da habe ich aber ganz anderes gelesen...

Gast
2009-01-14, 15:30:43
bei spielen ist der i7 praktisch NICHT vorne. das ist ja der witz. theoretisch ja, praxis suckt er.


ja, wenn die grafikkarte limitiert, oder wenn man eh genug frames hat.

bei den spielen die cpu-power brauchen wie GTA4 oder FSX ist er schon deutlich vorne.

PHuV
2009-01-14, 15:44:28
@Tombman,

erst mal :up: Super Test.

Jetzt wäre interessant, was ein 790i-Mainboard hier noch rausreissen könnte, die SLI-Kommunikation ist ja hier verbessert worden.

Dann verstehe ich Stalker Clear Sky nicht. Ich habe es bei meiner Konfiguration mit allen Details auf höchste Stufe und 2560x1600 mit 2xGTX 280ern durchschnittlich schon 50-60 FPS.

Das die Kadenz immer bei der letzten GPU landet, halte ich für ein sehr interessantes Detail.

Gast
2009-01-14, 16:29:33
@Tombman,

erst mal :up: Super Test.

Jetzt wäre interessant, was ein 790i-Mainboard hier noch rausreissen könnte, die SLI-Kommunikation ist ja hier verbessert worden.

Dann verstehe ich Stalker Clear Sky nicht. Ich habe es bei meiner Konfiguration mit allen Details auf höchste Stufe und 2560x1600 mit 2xGTX 280ern durchschnittlich schon 50-60 FPS.

Das die Kadenz immer bei der letzten GPU landet, halte ich für ein sehr interessantes Detail.

Ja nee is klar! Und Schweine können fliegen!!!

Gast
2009-01-14, 18:03:22
Dann verstehe ich Stalker Clear Sky nicht. Ich habe es bei meiner Konfiguration mit allen Details auf höchste Stufe und 2560x1600 mit 2xGTX 280ern durchschnittlich schon 50-60 FPS.

sicher, deshalb hab ich mit einer 280GTX in 1920x1200 nichtmal 30fps ;)

ZÜNDELholz
2009-01-14, 19:57:27
@Tombman,

erst mal :up: Super Test.

Jetzt wäre interessant, was ein 790i-Mainboard hier noch rausreissen könnte, die SLI-Kommunikation ist ja hier verbessert worden.

Dann verstehe ich Stalker Clear Sky nicht. Ich habe es bei meiner Konfiguration mit allen Details auf höchste Stufe und 2560x1600 mit 2xGTX 280ern durchschnittlich schon 50-60 FPS.



Poste mal ein Screen vom Clearskybenchmarktest im entsprechenden Thread!

derguru
2009-01-14, 19:58:52
im stalker cs bench geht kein sli also lohnt sich das auch nicht benchen,wenn er 25fps schafft ohne aa kann er sich glücklich schätzen.

AmaR
2009-01-14, 20:59:25
was für hohe temps,was ist den für dich hoch? ich habe bei 4,3ghz inkl. turbo mit prime 65°C unter wasser und ich hab nicht mal einen leistungstarken wasserkühler.

Sorry, dass ich hier im Thread störe, aber könntest du da mal ein paar Details zu diesem Setting posten? V-Core, DRAM-Freq. etc...


Wenn es tombman interessiert, ich benutze das P6T Deluxe von Asus und bin damit sehr sehr zufrieden. Rockstable und massig OC Einstellungen. Wobei so ziemlich alle X58-Boards sich da nicht viel geben.

Meiner lüppt zZ 24/7 mit angenehmen 1.25V auf 3.8ghz.
Für die 4ghz braucht er allerdings schon 1.35V und das ist es mir für 200mhz wahrlich nicht wert.
Noch dazu, weil ich ihn mit einer Lukü betreibe (Noctua).

derguru
2009-01-14, 21:11:51
das ist mein 24/7 alltagseinstellung.(eist enable)
http://www.abload.de/thumb/gif34sq.gif (http://www.abload.de/image.php?img=gif34sq.gif)

dargo
2009-01-14, 22:25:26
bei spielen ist der i7 praktisch NICHT vorne. das ist ja der witz. theoretisch ja, praxis suckt er.
Genau. :|
http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/19

tombman
2009-01-14, 22:26:07
Dann verstehe ich Stalker Clear Sky nicht. Ich habe es bei meiner Konfiguration mit allen Details auf höchste Stufe und 2560x1600 mit 2xGTX 280ern durchschnittlich schon 50-60 FPS.

Ganz sicher nicht an der Stelle, an der ich gemessen habe ;) Da würdest nicht mal auf 20fps kommen ...

Ich bezweifle auch stark, ob du wirklich alles maximiert hast (also höchsten render Modus, Sichtweite, AA, etc etc...)
----

Btw, wie siehts eigentlich mit dem Foxconn Renaissance X58 aus?

http://geizhals.at/eu/a378149.html

Gutes Mobo? Preislich wie das UD5 giga, aber für mich bessere Slotverteilung (ein pci bleibt frei). Wichtig ist mir auch ein Port 80 LED, deshalb fällt Asus raus...

Raff
2009-01-14, 22:28:05
Ganz sicher nicht an der Stelle, an der ich gemessen habe ;)

Ich bezweifle auch stark, ob du wirklich alles maximiert hast (also höchsten render Modus, Sichtweite, AA, etc etc...)

Es kommt auch stark auf die Tageszeit an. Mit Sun Shafts bzw. God Rays ist jede Grafikkarte platt. Schreitet der Tag voran, steigen die Fps.

MfG,
Raff

PHuV
2009-01-14, 22:46:12
Ihr habt recht, ich hab wohl irgend eine Stelle falsch eingestellt. Ich habe Stalker gerade neu installiert, da mein Vista vor Weihnachten die Grätsche gemacht hat. Hab alles auf das höchste gesetzt und am Anfang beim Neustart allem hoch 21-30 FPS :redface: Ich nehm alles zurück.

tombman
2009-01-14, 23:08:59
Es kommt auch stark auf die Tageszeit an. Mit Sun Shafts bzw. God Rays ist jede Grafikkarte platt. Schreitet der Tag voran, steigen die Fps.

Also, an meiner Stelle, mit allem an inkl AA und A-Test AA (!), schaffen 2 Stück GTX295 30fps ;)
Sun Shafts und God Rays sind natürlich dabei...

Spasstiger
2009-01-14, 23:19:29
Poste mal in diesem Thread ein paar Frametime-Messungen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940
Auf Seite 2 des Threads findest du bereits einige Auswertungen von einem Crossfire-Verbund.

Gast
2009-01-16, 15:32:37
Von der Rechenleistung sind 4 vollwertige Chips immer noch schneller als 3. Es hängt vom Takt ab was letztendlich gewinnt.
295er kommen aber auch fast auf die oc Werte der 280er, deshalb sehe ich 2x 295 vor 3x 280.


Nur blöd das mein 3-Way GTX 280 SLI System in 3D Mark Vantage schneller ist als dein Quad SLI und gerade in diesem Bench sollte Quad SLI ja einigermassen gut Skalieren, da möchte ich ja nicht wissen wie das Quad SLI so in den Games ab geht...

Slipknot79
2009-01-16, 16:23:56
So, ich bin geheilt. :redface: Mein 370eur QX9650 macht tatsächlich 4200MHz auf dem 780i EVGA Oo Will aber nix verschreien, aber es sieht schon recht gut aus.

Aber der Stromverbrauch ist EXTREM, wie es sich für nen EXTREME gehört oO 971W in Prime95 + Furmark, dabei hat mein Netzteil 800W. Macht also einen Wirkungsgrad von 82,4%, damit steht das Netzteil wohl EXTREM knapp vorm Abschalten. :redface:

dargo
2009-01-16, 17:09:31
Aber der Stromverbrauch ist EXTREM, wie es sich für nen EXTREME gehört oO 971W in Prime95 + Furmark, dabei hat mein Netzteil 800W. Macht also einen Wirkungsgrad von 82,4%, damit steht das Netzteil wohl EXTREM knapp vorm Abschalten. :redface:
Wie du aus diesen beiden Werten die Effizienz von deinem NT ableiten kannst ist mir ein Rätsel. :biggrin: Nee, so funktioniert das nicht.

Slipknot79
2009-01-16, 17:49:14
dann setze ein "mindestens" vor 82,4% :)

dargo
2009-01-16, 18:07:17
dann setze ein "mindestens" vor 82,4% :)
Auch das ist falsch, bzw. kann falsch sein. Ohne zu wissen wie hoch die "Nennlast" deines Systems ist kann du überhaupt nicht die Effizienz errechnen. Theoretisch könnte dein System 700W benötigen wodurch dein NT dann eine Effizienz von ~72% bei dieser Last hätte.

Slipknot79
2009-01-16, 18:12:15
axo ich weiß schopn was du meinst.

Wie könnte ich es sonst ermitteln? Vielleicht hilft es zu wissen, wie groß der Spannungsabfall auf 12V ist, wenn ich Last anlege? Ich kann alles auf eine 12V-Schiene legen.

dargo
2009-01-16, 18:19:09
Wie könnte ich es sonst ermitteln?
Mit einem einfachen Verbrauchsmessgerät gar nicht.

Slipknot79
2009-01-16, 18:28:30
Nun so falsch kann ich ned legen, da es ein 80 Plus NT ist, also 72% sind sicher ned drin. Viel Spielraum gibt es also nicht.

Eine erneuter Run ergab nun 977W Oo

dargo
2009-01-16, 18:48:17
Nun so falsch kann ich ned legen, da es ein 80 Plus NT ist, also 72% sind sicher ned drin.

Das mit den 72% sollte nur ein Beispiel sein. Ich wollte damit nur darauf hinweisen, dass die 800W mit denen dein NT spezifiziert ist keinesfalls in deine Rechnung aufgenommen werden kann. :)

Slipknot79
2009-01-16, 18:55:40
Das mit den 72% sollte nur ein Beispiel sein. Ich wollte damit nur darauf hinweisen, dass die 800W mit denen dein NT spezifiziert ist keinesfalls in deine Rechnung aufgenommen werden kann. :)


Wir wollen nicht über 1W streiten, oder? :P

Laut http://www.80plus.org/manu/psu/psu_reports/SP100-TAGAN-BZ800-Report.pdf liegt das Maximum bei 799W bzw. 997W. Es fehlen also noch 20W an der Steckdose bis mein NT abschalten sollte, ich habe zwar keine Laborgeräte, habe aber auch Zweifel, dass ich um 100W daneben liegen sollte. Oo Wie gaynow willst du es haben? Die Heisenbergsche Unschärferelation hat, soweit ich weiß, noch niemand überwunden :redface:

Freakazoid
2009-01-16, 19:02:20
So, ich bin geheilt. :redface: Mein 370eur QX9650 macht tatsächlich 4200MHz auf dem 780i EVGA Oo Will aber nix verschreien, aber es sieht schon recht gut aus.

Aber der Stromverbrauch ist EXTREM, wie es sich für nen EXTREME gehört oO 971W in Prime95 + Furmark, dabei hat mein Netzteil 800W. Macht also einen Wirkungsgrad von 82,4%, damit steht das Netzteil wohl EXTREM knapp vorm Abschalten. :redface:

Damit hätte dein NT mehr als 100% Wirkungsgrad :|

dargo
2009-01-16, 19:09:01
Wir wollen nicht über 1W streiten, oder? :P

Laut http://www.80plus.org/manu/psu/psu_reports/SP100-TAGAN-BZ800-Report.pdf liegt das Maximum bei 799W bzw. 997W. Es fehlen also noch 20W an der Steckdose bis mein NT abschalten sollte, ich habe zwar keine Laborgeräte, habe aber auch Zweifel, dass ich um 100W daneben liegen sollte. Oo Wie gaynow willst du es haben? Die Heisenbergsche Unschärferelation hat, soweit ich weiß, noch niemand überwunden :redface:
Ich glaube du verstehst mich nicht. Der Ausgangspunkt war folgender:
Aber der Stromverbrauch ist EXTREM, wie es sich für nen EXTREME gehört oO 971W in Prime95 + Furmark, dabei hat mein Netzteil 800W. Macht also einen Wirkungsgrad von 82,4%

Du hast diese 800W in die Rechnung gebracht die da nichts zu suchen haben. Stelle dir mal vor, du würdest an der Steckdose statt 971W "nur" 850W messen. Nach deiner Rechnung hätte dein NT plötzlich einen Wirkungsgrad von 94%, was vollkommen falsch ist. Nur darum gings mir und nicht wie genau du mit deiner Vermutung liegst.
Nur mal so nebenbei - nur weil ein Hersteller bei deinem NT max. 800W angibt heißt es noch lange nicht, dass dieses NT nicht mehr verkraftet. Es gibt NTs die durchaus mehr verkraften können als angegeben.

Damit hätte dein NT mehr als 100% Wirkungsgrad :|
Wie kommst du denn darauf? :confused:

Slipknot79
2009-01-16, 19:17:22
War alles wohl ein Missverständnis. Da ich die 800W in Rechnung gebracht habe, also vom Typenschild abgelesen, ist wohl klar, dass es nicht das ist, was wirklich ins System wandert. oO Das meinte ich ja dann mit dem "kannst mindestens einfügen", nur damit meinte ich sowas wie "bestenfalls". Oo

Dass es Fertigungstoleranzen gibt, ist wohl klar. Das macht im Prinzip auch jeden Benchmark im Sinne eines Vergleichs sinnlos, wo wir wieder beim Thema "Wie genau will du es haben" wären.

Freakazoid
2009-01-16, 19:51:48
Ich glaube du verstehst mich nicht. Der Ausgangspunkt war folgender:


Du hast diese 800W in die Rechnung gebracht die da nichts zu suchen haben. Stelle dir mal vor, du würdest an der Steckdose statt 971W "nur" 850W messen. Nach deiner Rechnung hätte dein NT plötzlich einen Wirkungsgrad von 94%, was vollkommen falsch ist. Nur darum gings mir und nicht wie genau du mit deiner Vermutung liegst.
Nur mal so nebenbei - nur weil ein Hersteller bei deinem NT max. 800W angibt heißt es noch lange nicht, dass dieses NT nicht mehr verkraftet. Es gibt NTs die durchaus mehr verkraften können als angegeben.


Wie kommst du denn darauf? :confused:

Sein Netzteil ist auf 800W spezifiziert, er misst allerding eine Leistung von 971W, das passt doch nicht.

dargo
2009-01-16, 19:58:11
Sein Netzteil ist auf 800W spezifiziert, er misst allerding eine Leistung von 971W, das passt doch nicht.
Oh doch. :)

Ich weiß leider nicht wieviel Leistung sein System braucht. Nehmen wir mal an es wären 780W. Wenn er an der Steckdose 971W misst heißt das in diesem Beispiel nichts anderes als, dass sein NT eine Effizienz von 80,33% bei dieser Last aufweist. Ist gar nicht mal so unüblich, schließlich haben heutige NTs je nach Last einen Wirkungsgrad von 80% aufwärts. Hinzu kommt noch:
Nur mal so nebenbei - nur weil ein Hersteller bei deinem NT max. 800W angibt heißt es noch lange nicht, dass dieses NT nicht mehr verkraftet. Es gibt NTs die durchaus mehr verkraften können als angegeben.

Würde sein System nur als Beispiel 826W anstatt der von mir genannten 780W brauchen würde sein NT bei dieser Last eine Effizienz von 85% aufweisen.

Schlammsau
2009-01-16, 19:58:22
Sein Netzteil ist auf 800W spezifiziert, er misst allerding eine Leistung von 971W, das passt doch nicht.

Doch das passt! Es zieht 971Watt aus der Steckdose aber in Wirklichkeit gibt das NT nur ~800Watt an die Hardware. Wirkungsgrad und so :wink:

Freakazoid
2009-01-16, 20:16:16
Doch das passt! Es zieht 971Watt aus der Steckdose aber in Wirklichkeit gibt das NT nur ~800Watt an die Hardware. Wirkungsgrad und so :wink:

Mir schon klar was Wirkungsgrad bedeutet, hatte Montag Physik Abi :D
Ja so passt es mit den Werten.

Nevermore4ever
2009-01-16, 20:19:56
Jetzt zu etwas Kuriosem:

Normale Monitore für den PC können selten weniger als 50Hz ausgeben, nicht so Geräte für den Full HD Heimkinogebrauch.
Dort gibt es nämlich den 24Hz Kinomodus, auch 1080 24p genannt. ...

24 synchrone fps sind besser als viel höhere fps, die Mikro- und Makroruckler haben.
Für das Gamerauge wäre zwar 30fps besser, aber anders gings eben nicht synchron.

Leider erhöht sich der input lag bei 24fps :( Ob das ganze also wirklich nutzbar ist bleibt abzuwarten.


Muss ich das jetzt so verstehen, dass der verwendete Beamer nichts zwischen 24 Hz und 50 Hz unterstützt, oder wären dir noch andere Tests möglich (z.B. um den Lag einzuschätzen)? Oder gab es bei 30 Hz + Vsync in diesem Test schon wieder Mikroruckler?

Bei meinem TV gehen z.B. 23, 24, 25, 29, 30, 50, 59, 60 Hz. Leider muss ich mich für eigene Tests noch etwas gedulden. :frown: (Leute, wenn ihr gerade zuviel Geld habt: HDTVs am PC rocken :cool: - jetzt vielleicht noch mehr!)


Außerdem würde mich interessieren, ob man einen der vier Grafikchips für PhysX abstellen kann und mit den anderen dreien die Grafik berechnet, oder ob nur allgemein PhysX+Grafik eingestellt werden kann.

tombman
2009-01-16, 21:41:21
Nur blöd das mein 3-Way GTX 280 SLI System in 3D Mark Vantage schneller ist als dein Quad SLI und gerade in diesem Bench sollte Quad SLI ja einigermassen gut Skalieren, da möchte ich ja nicht wissen wie das Quad SLI so in den Games ab geht...
Nur blöd, daß du nicht sagst welche andere Komponenten du im Sys hast, ob irgendetwas overclocked war, welche Treiberversion du verwendet hast und welche Einstellungen in Vantage.

Ohne mehr Info höre ich nur bla bla ;)

tombman
2009-01-16, 21:52:56
Muss ich das jetzt so verstehen, dass der verwendete Beamer nichts zwischen 24 Hz und 50 Hz unterstützt, oder wären dir noch andere Tests möglich (z.B. um den Lag einzuschätzen)? Oder gab es bei 30 Hz + Vsync in diesem Test schon wieder Mikroruckler?

Bei meinem TV gehen z.B. 23, 24, 25, 29, 30, 50, 59, 60 Hz. Leider muss ich mich für eigene Tests noch etwas gedulden. :frown: (Leute, wenn ihr gerade zuviel Geld habt: HDTVs am PC rocken :cool: - jetzt vielleicht noch mehr!)


Außerdem würde mich interessieren, ob man einen der vier Grafikchips für PhysX abstellen kann und mit den anderen dreien die Grafik berechnet, oder ob nur allgemein PhysX+Grafik eingestellt werden kann.
ANBIETEN im DESKTOP tut mir der beamer die selben Werte wie dein TV ;)

ABER, was dann wirklich auch IN 3D funktioniert ist ne andere Sache. 30Hz ging im Desktop zb ohne Probleme, in 3D verabschiedete sich der Nvidia Treiber ODER änderte das Signal dermaßen, daß der Beamer nix mehr damit anfangen konnte-> schwarzer Bildschirm.

24Hz und 50Hz geht jedenfall perfekt, dazwischen nix. (ob er 25Hz anbietet weiß ich jetzt nicht auswendig, wäre aber auch egal)
Zwischen 30 und 50 gibts eh nix, und 30Hz ging ned...

Aber nächste Woche habe ich dann auch (irgendeinen) HDTV zum Test...

Ich habe mir heute um 260€ schnell einen 24" TFT beim lokalen Händler geholt, den ich bald wieder abstoßen/verkaufen werde, sobald mein setup fix ist- sprich, mein künftiger TV der Monitorrolle übernehmen kann ;)

Und ja, TVs oder Beamer am PC ownen 10x mehr als normale PC-TFTs am PC ;D

Nevermore4ever
2009-01-18, 15:54:18
... Außerdem würde mich interessieren, ob man einen der vier Grafikchips für PhysX abstellen kann und mit den anderen dreien die Grafik berechnet, oder ob nur allgemein PhysX+Grafik eingestellt werden kann.
...
Und ja, TVs oder Beamer am PC ownen 10x mehr als normale PC-TFTs am PC ;D

Ok, danke... und wie war das nun mit PhysX? :uponder:

mike49
2009-01-18, 16:27:02
Nun so falsch kann ich ned legen, da es ein 80 Plus NT ist, also 72% sind sicher ned drin. Viel Spielraum gibt es also nicht.

Eine erneuter Run ergab nun 977W Oo

Soll das heißen, das System aus deiner Sig zieht ~1kW aus der Steckdose :confused:

CB hat bei einem vergleichbaren Setup gerade mal 557W ermittelt:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/32/#abschnitt_leistungsaufnahme

Slipknot79
2009-01-18, 20:54:28
CB soll mal Furmark anschmeißen. Das zieht ordentlich. Normalerweise habe ich in Games 450-600W und 600W und alles darüber ist schon wirklich sehr viel. Furmark ohne Prime95 macht gute 750W.

Coda
2009-01-18, 21:34:15
Furmark wird vom ATI-Treiber aber gedrosselt. Oder kann man das mit Exe-Renaming umgehen?

dildo4u
2009-01-18, 21:34:54
Oder kann man das mit Exe-Renaming umgehen?
Kann man ja.

Slipknot79
2009-01-19, 21:00:48
So, Netzteil geschrottet :)

Ich wollte es einfach wissen, schaltet es sich nun ab oder nicht? Und ja, es hat sich abgeschaltet und das gleich für immer :redface:
Wie geht sowas? Me hat herausgefunden, dass Furmark mit 4xAA mehr Strom zieht. Also Prime 95 (Small FFT) und Furmark Stabilitytest/XtremeBurning Mode 10min laufen lassen. Blick auf das Wattermeter (Maxwert gespeichert): 1084W, da war also Schluss :redface:

Dabei wollte ich noch statt Prime95 den IntelBurnTest zuschalten :redface:

Neues Netzteil geholt (Thermaltake 850W), selbe Testanordnung, braucht "nur" 986W, also gute 100W weniger. Oo Kick und Bann Wirkungsgrad vom Tagan NT ^^
Das neue NT wird dann mit dem IntelBurnTest gestresst ^^

tombman
2009-01-19, 21:11:20
Ich weiß ned wieso du da rumnoobst- unter 1000 Watt würde ich bei deinem Sys ned gehen.

Slipknot79
2009-01-19, 21:25:45
Weil ich ned weiß, was ich mit nem 1000W NT machen soll oO. Selbst wenn das Tagan NT abgeschaltet hätte und sich wieder einschalten ließ, hätte ich es behalten.

Daredevil
2009-01-19, 21:32:41
CB soll mal Furmark anschmeißen. Das zieht ordentlich. Normalerweise habe ich in Games 450-600W und 600W und alles darüber ist schon wirklich sehr viel. Furmark ohne Prime95 macht gute 750W.
So, Netzteil geschrottet :)

;D ;D ;D
Jetzt weißt du wieso, eine Belastung die im normalen PC Bereich kaum auftreten kann.

Slipknot79
2009-01-19, 21:37:10
Ein 800W NT ist aber ned für normale PC gedacht :redface:
Unnormaler PC, unnormaler Test. Also nix für ungut, ich will den Test ja ned 24h laufen lassen. Aber das Teil hat ned mal 10min gehalten oO

PHuV
2009-01-19, 22:46:37
Weil ich ned weiß, was ich mit nem 1000W NT machen soll oO. Selbst wenn das Tagan NT abgeschaltet hätte und sich wieder einschalten ließ, hätte ich es behalten.

Na ja, aber so gibtst Du im Endeffekt mehr Geld aus, als wenn Du gleich ein vernünftiges 1000er genommen hättest, oder? ;)

;D ;D ;D
Jetzt weißt du wieso, eine Belastung die im normalen PC Bereich kaum auftreten kann.

Und so sieht man, daß die ganzen Netzteiltests und die Wahrheit, die da verbreitet wird, nur für die normalen PCs gelten. Sobald ein bißchen mehr gefordert ist, muß man doch einiges über die angenommene Spezifikation hinausgehen, und gleich entsprechende Komponenten verbauen.

Skinner
2009-01-19, 22:53:55
sehe ich das richtig.... (habe nur den ersten (wichtigen) beitrag gelesen)

entweder massig Frames und Microruckler, oder 24 Frames Synced und super smooth mit massig input lag?

Das owned natürlich alles weg :D Solange wie diese Probleme nicht wirklich gelößt sind, ist das hier doch alles nur ein riesen großer schwanzvergleich :D

tombman
2009-01-19, 23:01:17
sehe ich das richtig.... (habe nur den ersten (wichtigen) beitrag gelesen)

entweder massig Frames und Microruckler, oder 24 Frames Synced und super smooth mit massig input lag?

Das owned natürlich alles weg :D Solange wie diese Probleme nicht wirklich gelößt sind, ist das hier doch alles nur ein riesen großer schwanzvergleich :D
Lies alles noch mal ganz genau durch, jeden post, 3x ;)

Slipknot79
2009-01-19, 23:07:57
>Na ja, aber so gibtst Du im Endeffekt mehr Geld aus, als wenn Du gleich ein vernünftiges 1000er genommen hättest, oder?

Ned unbedingt. Teuer wäre ein 20EUR Netzteil, das darf dann wohl in Flammen aufgehen. Aber von einem 136EUR Netzteil erwarte ich mir schon etwas anderes. Jedenfalls check ich mir gegen Garantie ein neues NT, das kommt OVP auf ebay raus. Im März 08 hat das NT 136EUR gekostet, jetzt kostet es immer noch so viel. oO


btw, das Thermaltake NT hat nun den Test bestanden. 15min IntelBurnTest + Furmark ergaben 1028W, also geschätzte (mit 83% Wirkungsgrad) 853W in den PC hinein.

Skinner
2009-01-19, 23:16:09
Lies alles noch mal ganz genau durch, jeden post, 3x ;)

wozu, damit ich das überlese?


Leider erhöht sich der input lag bei 24fps Ob das ganze also wirklich nutzbar ist bleibt abzuwarten.

Fazit:

Die Rohleistung ist das was ich mir erhofft hatte, echt supergeil.

Die Mikro- oder jetzt besser Makroruckler hauen aber DERZEIT alles zusammen- zumindest in theoretischen Tests oder Benchmarks.
Außer Crysis, und auch das nur kurz, habe ich ja noch nicht wirklich viele echte games getestet!

Da kann ich den text 100000 mal lesen, der Inhalt wird sich kaum ändern.

tombman
2009-01-19, 23:28:25
wozu, damit ich das überlese?



Da kann ich den text 100000 mal lesen, der Inhalt wird sich kaum ändern.
Ich sagte jeden post, nicht nur den ersten :rolleyes:

Aber vermutlich willst du eh glauben, was du nur glauben willst...

Demogod
2009-01-20, 00:40:58
und ich glaube ihr redet aneinander vorbei :D

nagus
2009-01-20, 08:20:36
meine meinung zu der ganzen thematik: pure geldvernichtung und angeberei. zu mehr ist sowas nicht nütze. (im übrigen auch Crossfire X4 ;) dann lieber ein "normales" SLI oder CF gespann und halbwegs erträgliches "ruckeln" also dieser schwachsinn mit 4 GPUs. da sist doch vollkommen PLEM PLEM. wer braucht sowas????

Skinner
2009-01-20, 08:53:35
und ich glaube ihr redet aneinander vorbei :D

So sehe ich das auch ;) Aber ist mir schnuppe ;)

kahlchen
2009-01-20, 12:24:48
tolle review. macht immer wieder spaß zu lesen!
danke :)

Daredevil
2009-01-20, 13:39:44
meine meinung zu der ganzen thematik: pure geldvernichtung und angeberei. zu mehr ist sowas nicht nütze. (im übrigen auch Crossfire X4 ;) dann lieber ein "normales" SLI oder CF gespann und halbwegs erträgliches "ruckeln" also dieser schwachsinn mit 4 GPUs. da sist doch vollkommen PLEM PLEM. wer braucht sowas????
Du nicht, ich schon ;D

tombman
2009-01-22, 05:37:52
meine meinung zu der ganzen thematik: pure geldvernichtung und angeberei. zu mehr ist sowas nicht nütze. (im übrigen auch Crossfire X4 ;) dann lieber ein "normales" SLI oder CF gespann und halbwegs erträgliches "ruckeln" also dieser schwachsinn mit 4 GPUs. da sist doch vollkommen PLEM PLEM. wer braucht sowas????
Ich finde zb deinem post auch PLEM PLEM, und brauche sowas auch nicht. Halt dich einfach raus, wennst schon nix zu sagen hast.
Oder stellst dich auch vor Bugatti auf und schreist raus, wieso man ein 400Km/h Auto braucht? Nein, brauchst nicht antworten.
======

OK, wieder OnTopic:

Leider haben sich Probleme ergeben, die nix mit SLI oder FPS oder MR zu tun haben. Wer's nachlesen will, hier (inkl. Video):
http://www.evga.com/forums/m.asp?m=747509

Beim Surfen oder gamen habe ich das Problem nicht- trotzdem, da werde ich wohl EVGA kontaktieren müssen...

Gast
2009-01-22, 07:14:08
Ich finde zb deinem post auch PLEM PLEM, und brauche sowas auch nicht. Halt dich einfach raus, wennst schon nix zu sagen hast.
Oder stellst dich auch vor Bugatti auf und schreist raus, wieso man ein 400Km/h Auto braucht? Nein, brauchst nicht antworten.
======

OK, wieder OnTopic:

Leider haben sich Probleme ergeben, die nix mit SLI oder FPS oder MR zu tun haben. Wer's nachlesen will, hier (inkl. Video):
http://www.evga.com/forums/m.asp?m=747509

Beim Surfen oder gamen habe ich das Problem nicht- trotzdem, da werde ich wohl EVGA kontaktieren müssen...
Lol, Tombman du und deine Problemchen. HDMI ist an sich mülliger Standard es kann sein das deine Monitore/Beamer tatsächlich mit der Version das in deine GTX295 einprogrammiert wurde, nicht kompatibel sind! Versuche ein anderes HDMI Moni aufzutreiben aber kein HD Fernseher.

tombman
2009-01-22, 07:47:52
:rolleyes:

Meine beamer fressen jeden Standard. Und das sind auch nicht meine Probleme, das sind die Probleme von EVGA, schließlich gehts auch anderen so- ich war nur der erste mit nem BeweisVIDEO :cool:

Gast
2009-01-22, 07:52:53
:rolleyes:

Meine beamer fressen jeden Standard. Und das sind auch nicht meine Probleme, das sind die Probleme von EVGA, schließlich gehts auch anderen so- ich war nur der erste mit nem BeweisVIDEO :cool:
Es kommt drauf an wie genau sich ein Hersteller an den Standard hält. Es hängt nur von ihrem freien Willen ob sie eine Lösung für dich finden wollen.

tombman
2009-01-22, 07:56:23
Es kommt drauf an wie genau sich ein Hersteller an den Standard hält. Es hängt nur von ihrem freien Willen ob sie eine Lösung für dich finden wollen.
Sorry, aber das ist lächerlich. Ist nicht meine erste Nvidiakarte mit nativem HDMI, und früher gings auch.
Und die müssen auch keine Lösung "für mich" finden, sondern für so ziemlich jeden EVGA 295 Besitzer. Bis jetzt keine ich keinen, der ein Signal aus dem HDMI port bekommen hat.

Ganz abgesehen davon bleibt ja noch das andere Problem, aber das hast du vermutlich "überlesen"...

pest
2009-01-22, 08:54:52
Oder stellst dich auch vor Bugatti auf und schreist raus, wieso man ein 400Km/h Auto braucht? Nein, brauchst nicht antworten.


Nullargument, der Bugatti verliert nach 6 Monaten nicht die Hälfte seines Wertes.

Armaq
2009-01-22, 09:18:45
Was soll das geflame gegen die Tombman jetzt? Ich würde mir solche Hardware nicht kaufen, aber ich finde es interessant. Das gibt einem ja auch einen Ausblick. Hört auf mit dem gezicke.

Gibts denn andere 295 wo das Problem nicht besteht? Ergo ist es ein EVGA Problem?

OC_Burner
2009-01-22, 09:48:23
Besteht das Problem mit dem Flackern auch bei niedrigeren Auflösungen wie z.B. 1600x1200 oder ein paar Stufen darunter? Oder erst ab 1920x1080? Und das Flackern tritt nur im Windowsdesktop auf? Testweise Aero mal deaktiviert?

tombman
2009-01-22, 09:57:19
Nullargument, der Bugatti verliert nach 6 Monaten nicht die Hälfte seines Wertes.
Doppelnullargument. Weil man sich Grafikkarten ja sicher als Wertanlage kauft... :rolleyes:
Eine Analogie muß nicht alle Bereiche abdecken, sondern nur diese, für welche sie gedacht war.
Und der Bezug war auf Leistung, nicht auf Wertanlage. Quad SLI = abartig schnell -> Bugatti = abartig schnell.
Besteht das Problem mit dem Flackern auch bei niedrigeren Auflösungen wie z.B. 1600x1200 oder ein paar Stufen darunter? Oder erst ab 1920x1080? Und das Flackern tritt nur im Windowsdesktop auf? Testweise Aero mal deaktiviert?
Ist alles im Video zu sehen, bei 800x600 gabs kein Flackern. Wo die Grenze ist, wo es beginnt zu flackern, interressiert mich, ehrlich gesagt, auch nicht. Aero ist sowieso aus, immer.

tombman
2009-01-22, 10:04:44
Der "first to make clear"-Part spricht für sich. Warum postest Du eigentlich Fragen und Probleme in öffentlichen Foren, wenn Du eh alles hast, alles kannst und alles weißt?
Weil ich nicht will, daß 20 noobs mit Ratschlägen kommen, die ich schon längst alle bedacht und vorallem getestet habe.
Außerdem geht es nicht nur darum, eine Lösung für ein Problem zu finden, sondern EVGA Druck zu machen ;)
Deshalb auch das Video als Beweis. Ich bin eben gut darin Information zu verbreiten, sprich, ich mache Wind.
Das MR Phänomen war auch schon vor mir bekannt (zumindest von einem), aber ich habs BEKANNT gemacht.
Die Probleme mit den EVGA 295 Karten haben auch schon einige im Forum dort gepostet, aber ich wette, mein Post macht MEHR Wind :cool:
Niemand kann ein Video verleugnen :cool:

edit: lol, nicht schnell genug gelöscht, Panasonic ;D

Labberlippe
2009-01-22, 10:46:15
Sorry, aber das ist lächerlich. Ist nicht meine erste Nvidiakarte mit nativem HDMI, und früher gings auch.
Und die müssen auch keine Lösung "für mich" finden, sondern für so ziemlich jeden EVGA 295 Besitzer. Bis jetzt keine ich keinen, der ein Signal aus dem HDMI port bekommen hat.

Ganz abgesehen davon bleibt ja noch das andere Problem, aber das hast du vermutlich "überlesen"...

Hi

Hast Du schonmal den technical support direkz kontaktiert?

Gruss Labberlippe

derguru
2009-01-22, 14:08:54
jedenfalls kann ich das bestätigen,bei meiner evga gibt es die selben symptome.bin mir aber nicht sicher ob das nur ein evga problem ist,könnte durchaus bei allen 295gtx so sein.ich frag mal leute mit anderen herstellern.

edit:
ich hab das mit dem flackern nochmal getestet und es flackert nicht mehr,habe keine idee woran das liegt das es aufeinmal nicht mehr flackert.

die auflösung beträgt 1920*1200,die quali des videos ist miserabel aber reicht zum erkennen das es nicht flackert.
DSCI0052.AVI (http://www.1filesharing.com/download/0KUH99VR/)

Saugbär
2009-01-22, 19:20:06
Wie kann man eigendlich solche Monster im Sommer kühlhalten, wenn allein das Netzteil bei einem Wirkungsgrad von 85% 150 Watt direkt in Wärme umwandelt?
Wie sieht es eigendlich mit der Speicherauslastung bei solchen Auflösungen aus? VidMemWatch sollte doch Anhaltspunkte geben, wenn der Speicher knapp wird

Crazy_Chris
2009-01-22, 21:29:36
EVGA :udown: ;D

cooles Video.

Zumindest die Probleme unter Windows sind sicher auf die Treiber zurückzuführen. Besteht das Problem auch mit aktiviertem Aero?

tombman
2009-01-23, 01:38:43
Btw, habe mir das Bios angesehen, und der Subvendor ist Nvidia, nicht EVGA.
Bei den anderen Karten, zb Asus, XFX steht auch der "richtige" subvendor drinnen.

Btw, die XFX hat als einzige ein neueres Bios, am Ende nicht 01/02 sondern 72/73- vielleicht flashe ich meine Karte(n) mal um und schaue was passiert ;D

Das mit Aero checke ich gleich mal ab...

p.s: Wasserkühler für die beiden 295er habe ich jetzt schon mal bestellt und auch bezahlt.

tombman
2009-01-23, 01:44:39
Ok, also mit AERO gibts keinerlei Flackern mehr.

Betrifft offenbar nur den 2D Part, nicht den 3D Part, denn Aero ist ja "3D"...

Das Flackern dürfte also eine Treibersache sein.

Viel schlimmer finde ich allerdings, daß aus dem HDMI port nix rauskommt...

derguru
2009-01-23, 01:46:29
eventuelle ist bei mir das flackern wieder weg gegangen nachdem ich wieder zurück geflasht hatte und dafür habe das bios von der nibitorseite genommen gehabt.jedenfalls habe ich kein flackern mehr.

ps.welche haste bestellt? AQUA?

tombman
2009-01-23, 01:54:58
eventuelle ist bei mir das flackern wieder weg gegangen nachdem ich wieder zurück geflasht hatte und dafür habe das bios von der nibitorseite genommen gehabt.jedenfalls habe ich kein flackern mehr.

ps.welche haste bestellt? AQUA?
Warum hast das durchgestrichen? Flackerts doch wieder? :confused:

Jo, AQUA :biggrin:

Btw, für die EVGA Karten, und NUR für die EVGA Karten, wird es ein VOLTAGE TUNING TOOL geben :massa:

http://www.evga.com/forums/tm.asp?m=749117&mpage=1&key=��

Von 684/1476 auf 783/1692 -- LOOOOOOOOOOOOOOL.

Wie geil ist das denn???

p.s. und das beste:


Sorry guys, unfortunately in Rev1 the GTX 285 is not supported, there are technical reasons for this. We are working on it.

Damit ist wohl klar, daß 3x GTX285 doch langsamer sein werden als 2x GTX295 :biggrin:

derguru
2009-01-23, 02:04:51
omg,das ist ja mal echt geil.ich hoffe die brauchen nicht 3 jahrzehnte dafür.
lol was für ein zufall das ich mich für evga entschieden hatte,haha.;D

das ist ja mehr als geil,evga traut den karten also mehr spannung zu,das ist ein gutes zeichen das die qualität stimmt.:wink:

ps. ich will genau diesen skin haben für den evga oc tool,ich find den nicht.O

nein,flackert nicht bloß hast du ja geschrieben das es mit aero nicht mehr flackert.ich glaub ich weiß aber wieso es flackert,erst wenn die karten in den idle modus gehen flackerts bloß ist mir gerade aufgefallen das meine karte gar nicht mehr in den idle modus gehen.(neuster treiber WQHL 181.22 )so kann man auch eine kleine macke kaschieren.

tombman
2009-01-23, 02:08:12
EVGA ist doch eh praktisch "Nvidia selbst", siehst ja an der Subvendor ID bei den frühen Karten ;)

Und ja, EVGA ownt normal, aber ich habe auch nur durch Zufall zugegriffen, weil ich die eben als erstes bekommen konnte am 9. Jänner ;D

Den Treiber ziehe ich mir jetzt auch mal...

=Floi=
2009-01-23, 02:50:08
naja das anheben der vcore wird sicherlich mit einem erlöschen der garantie einhergehen.

derguru
2009-01-23, 02:54:24
naja das anheben der vcore wird sicherlich mit einem erlöschen der garantie einhergehen.

bestimmt aber solange sie den karten einiges an vcore noch zutrauen ist das ein gutes zeichen das es auch keine probleme macht.
allerdings wundert es mich schon das die vcore bis 1,35V geht denn das ist schon extrem.
ich hatte meine karte auf 1,15V erhöht und der kühler hatte probleme mit 100% die gpu´s zukühlen.
aber mir kann es wurscht sein wasser marsch,marsch:biggrin:

tombman
2009-01-23, 03:07:46
Jo, die 1.35v haben mich auch erst mal schlucken lassen.

Naja, der Kühler kann froh sein, wenn er die default Werte kühlen kann. Viele dachten ja, ein Sandwich mit dem riesigem G200 Kern wäre unmöglich zu bauen, weil es dafür keinen Kühler gibt.

Nvidia hat einfach die vcore auf 1.03v verringert und nen 55nm Kern genommen und schon gehts :)

Das ist ja das Geniale an der GTX295: sie hat sowenig vcore, daß noch MASSIV Luft nach oben beim ocen bleibt., wenn man die vcore wieder auf ein Niveau anhebt, mit dem auch die single gpu Karten fahren ;)

Fazit: Wasser FTW :cool:

Slipknot79
2009-01-23, 03:10:19
Wenn das Voltage-Tool nur nen Check der Subvendor ID macht, dann ist das Tool praktisch für alle zu haben nach nem entsprechenden BIOS Flash. Schade nur, dass eh nur noch Konsolenports rauskommen :(

tombman
2009-01-23, 03:25:57
Wenn das Voltage-Tool nur nen Check der Subvendor ID macht, dann ist das Tool praktisch für alle zu haben nach nem entsprechenden BIOS Flash. Schade nur, dass eh nur noch Konsolenports rauskommen :(
Jo, dachte ich auch. Keine Ahnung wie die das locken wollen.
Beim Precision tool habens ja auch nix machen können, rennt auch überall.

Konsolenports: jo, ich sagte ja damals schon, daß Crysis das letzte seine Art ist.

Seit neuestem sind sie sogar zu faul PC-Auflösungen zu unterstützen. Da bekommt dann jeder schwarze Streifen, der nicht zufällig 16:9 fährt.
Gut, mich wird das bald nimmer betreffen, denn ich werde bald nur mehr 16:9 displays haben ;)

Mit Quad-SLi hoffe ich ja, bei 99% aller games zumindest 50fps zu erhalten, denn dann wirkt ein Vsync auf 50Hz wie ein perfektes Anti-MR Gegenmittel :ugly:
1080p50 kann praktisch jeder LCD/Plasma-TV :cool:

So nach dem Motto: "Sieg" durch massiven Overkill :ugly:

Slipknot79
2009-01-23, 03:33:47
>Mit Quad-SLi hoffe ich ja, bei 99% aller games zumindest 50fps zu erhalten, denn dann wirkt ein Vsync auf 50Hz wie ein perfektes Anti-MR Gegenmittel

Naja, wenn du geil bist auf Ambient Occlusion, dann wirds wohl auch keine 50fps geben und das trotz Voltage Tool und Wakü.

Zu den schwarzen Balken wird es hoffentlich bald was im Widescreemgamingforum geben. Mirror's Edge und FEAR 2 (die ja unsere Systeme extrem in die Knie zwingen :rolleyes:) habens notwendig ^^.

Mir persönlich ist aber 16:10 lieber als 16:9, das bissl mehr oben und unten geht ab :redface: 16:9 wirkt auf mich schon irgendwie zamgedepscht, zumindest wenn man knapp davor sitzt. Oo 16:10-Beamer/LCDs gibt's ned oder?

tombman
2009-01-23, 03:36:58
Je größer das Bild wird, desto weniger geht dir die Höhe ab.

Im Kino kommt 2.35:1 cinemascope ja auch sehr geil, und das ist wirklich schmal.

Slipknot79
2009-01-23, 03:39:54
Yo, habs noch auf "wenn man davor sitzt" korrigiert.

Hab gerade geizhals gecheckt, dürfte echt nix geben in 16:10 oO Aber so 52" LSD tät mich schon reizen :redface:

€dit: wtf LCD natürlich :)


Wird das Bild des Beamers ned zu pixelig auf zB 2,5 x 4,4m? Trotz Full HD.

tombman
2009-01-23, 03:47:15
2.5 x 4.4 Meter??? So groß schaue ich doch nie im Leben...

Jetzt, im provisorischen Aufbau, habe ich ca 73" Bild, und das ist schon ned klein, wenn man nur 2 Meter entfernt davorsitzt ;)

In der Endlage werde ich irgendwas zwischen 80" und 90" haben und ca 3 Meter entfernt sitzen.
Das reicht bei weitem...

edit: Du willst echt ein 200" Bild? Dann würde ich mir aber einen sehr lichtstarken beamer holen ;)

Slipknot79
2009-01-23, 04:02:50
Ne, das mit dem Beamer lass ich noch. Mir taugts ned, dass die Beamer kein "echtes" Schwarz darstellen können, halt nur so dunkel wie man sein Zimmer dunkel bekommt. oO Dann haben ja diese Beamer auch ihre eigenen Vor und Nachteile je nach Technologie. Entweder zu hell, oder zu träge oder Regenbogeneffekt, unscharf an den Rändern, Farbuntreue? etc. :( Die Lösung scheinen ja diese 3 Chip Beamer zu sein, nur wer zahlt das? :(


Obwohl, andererseits werde ich schon schwach bei dem Gedanken, mich in einen Recarositz zu setzten und mit dem G25 abzugehen :)

tombman
2009-01-23, 04:44:24
Hol dir den Sony HW10 wie ich.
http://geizhals.at/eu/a362675.html

Der hat praktisch keine Nachteile mehr. Technik ist LCOS (=SXRD=DILA), sprich: kein Regenbogen (anders als bei DLP ;)), hohe fillrate (anders als bei LCD ;)), super Schwarzwert, Konvergenzkontrolle (!, Panel Adjust), Shadingkontrolle (!!! in hunderten Bereichen am Schirm per service menu VOM USER einstellbar :massa:), gleichbleibende Schärfe (ARCF Lens), Horizontaler und Vertikaler Lensshift, 1080p24, HDMI 1.3, x.v.color, deep color...

Und das beste: er ist mit 1800€ bezahlbar :cool:

Du hast nicht gegamet, bevor du nicht im Rennsitz GT5p an der Leinwand gespielt hast ;)

Besser sind nur wenige beamer, und die kosten 4000€ (JVC HD350)

Slipknot79
2009-01-23, 15:04:46
http://img145.imageshack.us/img145/7783/15546651ix9.jpg

Mir kommen die Tränen :(

Unyu
2009-01-23, 16:12:42
Wegen den verloren wirkenden Lautsprechern? ;(

centurio81
2009-01-23, 20:10:28
:eek: Wie geil is das denn??

foenfrisur
2009-01-23, 22:15:07
gab es hier denn nun irgendwo 64x aa tests oder hast du irgendwas dazu geschrieben?
konnte und wollte auch nix mehr finden :D

mfg

tombman
2009-01-24, 03:33:48
Na geil, jetzt wirds lustig :mad:

Bzgl des nicht funktionierenden HDMI ports:

http://nvidia.custhelp.com/cgi-bin/nvidia.cfg/php/enduser/std_adp.php?p_faqid=2354

Dh, der HDMi port ist NICHT bootfähig. Und im Quad-SLI setup funkt er schon mal GAR NICHT, auch nicht in Windows :uhammer:

Man muß Quad-SLI ausschalten um zumindest in Windows den HDMI port zu erhalten...

IMO ist der port damit zu 99% NUTZLOS- vorallem, weil er nicht booten kann.

Also einfach mal NUR den HDMI port anschließen GEHT NICHT. Ohne DVI-HDMI Adapter gibts kein HDMI bei der GTX295, wenn nicht noch ein anderer Monitor angeschlossen ist fürs booten :uhammer:

Meine Pläne, einfach ohne jegliche Adapter, die Karte(n) mit dem LCD-TV per HDMI Kabel zu verbinden, kann ich also vergessen.

Tröstlich ist nur, daß die DVI-HDMI Adapter offenbar keine Verschlechterung der Bildqualität erzeugen, immerhin etwas.

Aber die erneuten 130€ für das ATLONA HDMI 1.3b 10Meter-Flatkabel (ich Idiot dachte, es liegt an den Kabeln :rolleyes:) hätte ich mir sparen können- auch wenn das Kabel ownt. Ok, ich brauche wahrscheinlich eh 2 Stück ;D

tombman
2009-01-24, 03:36:56
http://img145.imageshack.us/img145/7783/15546651ix9.jpg

Mir kommen die Tränen :(
So ähnlich wirds bei mir bald aussehen, nur besser :cool:

Demogod
2009-01-24, 04:48:35
:D

tombman
2009-01-24, 07:01:30
Ok, noch was ist mir aufgefallen.

Es hat sich schon bei Cryostasis gezeigt, und jetzt wurde es eindeutig bei Mirror's Edge:

Wenn ein Spiel GPU Physik nutzt, und man Quad SLi hat, dann ist es besser statt 4-AFR den 3-AFR Modus zu benutzen. Es scheint so, als ob eine GPU dann nur für die Physik "frei bleibt" was zu besseren fps und flüssigerem gameplay führt.

foenfrisur
2009-01-24, 09:57:43
das war ja quasi vorauszusehen, das es so läuft.

mfg

Philipus II
2009-01-24, 12:53:31
tombman-ich sehe immer wieder gerne (aber auch neidisch), was du an Hardware ankarrst.Und ich finde es super, dass du uns mit ein paar Eindrücken teilhaben lässt, an Dingen, die ich mir eh nicht leisten kann:biggrin:
Danke!

PHuV
2009-01-24, 12:58:23
Aber die erneuten 130€ für das ATLONA HDMI 1.3b 10Meter-Flatkabel (ich Idiot dachte, es liegt an den Kabeln :rolleyes:) hätte ich mir sparen können- auch wenn das Kabel ownt. Ok, ich brauche wahrscheinlich eh 2 Stück ;D

Wenn Du so viel für ein HDMI-Kabel ausgibst, bist Du selbst schuld. ;) Mein Händler wollte mir auch für 255 € ein 20m Kabel andrehen, und ein Oelbach 0,75 für 95 €, welche ich dann mal zum Testen zu Hause hatte. Ich habe bei Ebay die billigsten HDMI-Kabel (für 1.3) (http://cgi.ebay.de/High-End-Silver-Line-HDMI-Kabel-20-m_W0QQitemZ120367138930QQcmdZViewItemQQptZTV_Sat_Zubeh%C3%B6r?hash=item120367138 930&_trksid=p3286.c0.m14&_trkparms=72%3A1229|66%3A2|65%3A12|39%3A1|240%3A1318) geholt, ca. 50 € für 20m, und die funktionieren genau so gut. Also, teure Kabel sind bei HDMI vollkommen unnötig!

tombman
2009-01-24, 12:59:57
Wenn Du so viel für ein HDMI-Kabel ausgibst, bist Du selbst schuld. Mein Händler wollte mir auch für 255 € ein 20m Kabel andrehen, und ein Oelbach 0,75 für 95 €, welche ich dann mal zum Testen zu Hause hatte. Ich habe bei Ebay die billigsten HDMI-Kabel (für 1.3) geholt, ca. 50 € für 20m, und die funktionieren genau so gut. Also, teure Kabel sind bei HDMI vollkommen unnötig!
[ ] Du hast mitbekommen, daß es sich hierbei um ein FLACHBANDkabel handelt :rolleyes:

Nevermore4ever
2009-01-25, 01:55:55
...Dh, der HDMi port ist NICHT bootfähig. Und im Quad-SLI setup funkt er schon mal GAR NICHT, auch nicht in Windows :uhammer:

Man muß Quad-SLI ausschalten um zumindest in Windows den HDMI port zu erhalten...


Aua. nVidia hat sich in letzter Zeit ein paar ziemlich dämliche Dinger geleistet, was das Thema Anschlüsse angeht.:uroll:

...Meine Pläne, einfach ohne jegliche Adapter, die Karte(n) mit dem LCD-TV per HDMI Kabel zu verbinden, kann ich also vergessen.

Je nach Unterbau geht's vielleicht doch. Die Karten sollen ja zumindest noch HybridPower unterstützen, wobei ich bei Meldungen wie der aus dem nVidia-Forum ins Zweifeln gerate, ob Quad-SLI da vielleicht auch wieder einen Strich durch die Rechnung macht. Aber grundsätzlich sollten sich Grafiksignale für zwei Monitore durch die Chipsatzgrafik schleifen lassen.

Ich habe bei mir z.B. ein ASUS M3N-HT Deluxe, das einen D-Sub (tja...) und einen HDMI-Anschluss besitzt (100 Dummpunkte für nVidia: wegen des Chipsatzes unterstützt keiner der Anschlüsse Dual-Link, 2560*1600 kann man vergessen - aber FullHD geht immerhin).:ucrazy3:

Der HDMI-Anschluss ist auch prinzipiell bootfähig, nur zeigt er beim Booten nichts an, wenn am D-Sub auch noch was hängt, erst unter Windows hat man wieder DualView (nochmal 200 Dummpunkte für nVidia). Ich tippe also mein BIOS-Passwort blind ein, beim Windows-Passwort hab ich dann schon ein Bild.:uexplode: Aber immerhin - es klappt ohne Adapter.

Tröstlich ist nur, daß die DVI-HDMI Adapter offenbar keine Verschlechterung der Bildqualität erzeugen, immerhin etwas.

Das will ich auch hoffen. Bei digitalen Signalen habe ich aber eigentlich eh den Anspruch, dass ein Stück Alufolie als Kabel noch gut genug sein müsste.;)

...Wenn ein Spiel GPU Physik nutzt, und man Quad SLi hat, dann ist es besser statt 4-AFR den 3-AFR Modus zu benutzen. Es scheint so, als ob eine GPU dann nur für die Physik "frei bleibt" was zu besseren fps und flüssigerem gameplay führt.

:)Aaaah, nun wäre das auch geklärt, danke.

y33H@
2009-01-25, 01:58:39
Es scheint so, als ob eine GPU dann nur für die Physik "frei bleibt" was zu besseren fps und flüssigerem gameplay führt.Seit der v9.09.0010 funzt PhysX wohl mit SLI :) Der Treiber checkt das von selbst scheint mir ...

cYa

Gast
2009-01-25, 02:36:32
was immer noch fehlt sind 64xQAA Berichte, sinnlos or what? spacken!

y33H@
2009-01-25, 02:40:35
sinnlos or whatJupp. CSAA alleine lutscht ...

cYa

Nevermore4ever
2009-01-26, 17:16:08
Je nach Unterbau geht's vielleicht doch. Die Karten sollen ja zumindest noch HybridPower unterstützen, wobei ich bei Meldungen wie der aus dem nVidia-Forum ins Zweifeln gerate, ob Quad-SLI da vielleicht auch wieder einen Strich durch die Rechnung macht. Aber grundsätzlich sollten sich Grafiksignale für zwei Monitore durch die Chipsatzgrafik schleifen lassen.

Ich muss mich korrigieren. nVidia unterstützt wohl bei GTX 285 und 295 KEIN HybridPower mehr, womit sie sich 1000 Dummpunkte verdienen.:uattack4:

foenfrisur
2009-01-26, 18:28:57
aber sie verbraucht im idle ohnehin wenig, weshalb das feature eh immer unsinniger wird, da es noch nichtmal problemlos funktioniert ;)

mfg

Gast
2009-01-26, 18:50:42
http://www.youtube.com/watch?v=CHPtbDz7xgE

Trubritar hats wieder mal geschafft eine GTX295 zu zerschießen. :D

LovesuckZ
2009-01-26, 18:53:25
aber sie verbraucht im idle ohnehin wenig, weshalb das feature eh immer unsinniger wird, da es noch nichtmal problemlos funktioniert ;)

mfg

ca. 70 Watt ist nicht wenig. 140 Watt, wenn man Quad-SLI verwendet.
Und meine beiden 9800gx2 funktionieren prächtig mit Hybrid-Power.

foenfrisur
2009-01-26, 19:35:14
ich geb ja zu, das ich bei der 285gtx war, die ja im idle ca. 40watt hat...hab den thread mal wieder verdreht...maaan

mfg

tombman
2009-01-26, 22:32:09
http://www.youtube.com/watch?v=CHPtbDz7xgE

Trubritar hats wieder mal geschafft eine GTX295 zu zerschießen. :D
Naja, 1600 shadercore ohne vcore Erhöhung und besserer Kühlung zu fahren ist schon ein bischen :crazy:

Aber dem kanns sicher wurscht sein, ist ja nicht seine Privatkarte...

Im 285er review hat er schon ein EVGA T-Shirt an ;D;D

pest
2009-01-26, 22:36:44
Naja, 1600 shadercore ohne vcore Erhöhung und besserer Kühlung zu fahren ist schon ein bischen :crazy:


der Typ muss ein wenig dämlich sein oder? Ich mein wie bekommt man eine Graka ohne vMod kaputt? Da kommen doch max Bildfehler :confused:

it's so fucking unbelievable, oc just got me 2000 points more in vantage X-D

Coda
2009-01-26, 22:47:04
Naja, 1600 shadercore ohne vcore Erhöhung und besserer Kühlung zu fahren ist schon ein bischen :crazy:
Das ergibt jetzt aber mal überhaupt keinen Sinn. Ein Chip sollte durch bloßes übertakten ohne erhöhen der VCore nicht sterben. Höchstens abstürzen.

Mit VCore-Erhöhung wäre es schädlich.

Gast
2009-01-26, 22:53:50
tombman wird dir sicher gleich erklären warum das bei nvidia alles anders ist

Megamember
2009-01-26, 23:06:29
Warum? Der Chip zieht doch auch ohne die V-Core Erhöhung mehr Strom und wird wärmer. Ist zwar unwahrscheinlich das die Karte dadurch stirbt aber möglich.

Gast
2009-01-26, 23:10:31
Warum? Der Chip zieht doch auch ohne die V-Core Erhöhung mehr Strom und wird wärmer. Ist zwar unwahrscheinlich das die Karte dadurch stirbt aber denkbar.
Bei denen stirbt doch immer ne Karte durch bloße Übertaktung. Das ist ein running gag. Die Karten sind mit Sicherheit nicht kaputt, sondern überhitzen in dem Test und stürzen ab. Nach einem Reboot ist da alles wieder in Ordnung. Nur ist das halt für die Show alles andere als unterhaltsam. Die müssen kaputt sein. :D

Coda
2009-01-27, 00:52:19
Warum? Der Chip zieht doch auch ohne die V-Core Erhöhung mehr Strom und wird wärmer. Ist zwar unwahrscheinlich das die Karte dadurch stirbt aber möglich.
Wenn dann krepiert die Stromversorgung. Ein Siliziumchip hält auch 150° aus ohne zu sterben. Er wird nur sehr instabil, weil die Transistoren dann viel langsamer schalten.

tombman
2009-01-27, 00:55:56
Ich verstehe auch nicht, wie er eine Karte durch bloßes ocing kaputt bekommen hat.

Ich glaube eher, die Karte ist gar nicht kaputt, sondern hat nur einen Wackelkontakt bei der Stromversorgung, dann gibts nämlich ebenfalls rotes Licht.

Besonders bei Verwendung von Stromadaptern kann das vorkommen. Der Typ sollte sich mal ein bischen mit den Stromsteckern beschäftigen und im Betrieb mal ein bischen dran rütteln.
Wenn die LED dann kurzzeitig Orange wird, weiß er was los ist-> Stecker sitzen nicht richtig.

Habe ich alles selbst schon erlebt ;) (nicht bei der 295, sondern bei der 280er)

Das wäre dann aber ein reim mechanisches Problem, kein elektrisches.

Die Lösung wäre dann, er verbiegt die Metalhülsen der Stecker der Adapter, dann wird der Kontakt besser bzw stabil.

Die rote LED bedeutet ja nicht: "Chip ist kaputt", sondern nur "zuwenig Strom"...

tombman
2009-01-29, 10:58:24
MEGAUPDATE

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7070951&postcount=530

Archon
2009-01-29, 12:44:58
MEGAUPDATE

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7070951&postcount=530

;D ... (y) ... ich freu schon mal mich auf Deinen Erfahrungsbericht !

Gast
2009-01-29, 13:06:13
Ein Glück, dass Tombman keine Frauen hat, die würden bei ihm vermutlich verhungern :D

Gast
2009-02-05, 16:32:52
Grafikkarten-Test: Crossfire-X gegen Quad-SLI und 3-Way-SLI (http://www.pcgameshardware.de/aid,675191/Test/Benchmark/Grafikkarten-Test_Crossfire-X_gegen_Quad-SLI_und_3-Way-SLI/)

Von der miesen Skalierung und den mörderischen Mikrorucklern abgesehen, lässt PCGH auch kein gutes Haar am Input-Lag:

Triple-SLI -> Fail!
Quad-SLI -> Epic Fail!

:ugly:

tombman
2009-02-09, 22:09:04
Glaubt nicht alle Tests ;) Vorallem nicht den Bullshit wegen Spielbarkeit und Input-Lag.
Im Stalker CS thread habe ich sogar ein Video gebracht wie geil das mit Quad-SLI maximiert rennt...

===

Btw, hier mal die Waküs verbaut. Temp-Werte sind in IDLE. Full Load Werte kommen innerhalb dieser Woche- aber Furmark reagiert VIEL besser mit Wakü als mit Lukü! Ca die Hälfte an Temp!

http://www.abload.de/img/gtx295-wakxdiz.jpg (http://www.abload.de/image.php?img=gtx295-wakxdiz.jpg)

Btw, die Anleitung war ziemlich schwach. Ich mußte einen Kühler zerlegen um die Flußrichtungen herauszufinden :rolleyes:

Gast
2009-02-09, 23:59:26
Glaubt nicht alle Tests ;) Vorallem nicht den Bullshit wegen Spielbarkeit und Input-Lag.
Im Stalker CS thread habe ich sogar ein Video gebracht wie geil das mit Quad-SLI maximiert rennt...

===


In dem Video waren ganz klar MR zu sehen als du dich gedreht hast und da war nicht einmal das Diskettensymbol zu sehen.
Nichts von wegen Bullshit.

tombman
2009-02-10, 00:10:20
In dem Video waren ganz klar MR zu sehen als du dich gedreht hast und da war nicht einmal das Diskettensymbol zu sehen.
Nichts von wegen Bullshit.
Nur waren das keine MR :rolleyes:

Das waren ECHTE Ruckler mit fps auf die Hälfte. Bei MR verändern sich die fps NICHT.

Und diese echten Ruckler kommen vom Spiel, weil es content nachlädt und dabei lächerlicherweise nur EINEN CPU-Core benutzt- für ALLES.
Normalerweise sollte eine streaming engine MINDESTENS 2 Kerne nutzen, besser 4.

Gast
2009-02-10, 00:35:59
Ein bißchen enttäuscht darf man aber sein, oder? Ich meine, der Entdecker der Mikroruckler kauft sich Quad-SLI, macht noch kurz die Biege zu Triple-SLI und landet schließlich doch wieder bei Mikroruckler-Deluxe und Input-Lag für LowSense-Gamer und das Ganze nur wegen 3DMark Vantage. Bin vom Glauben an das Gute im Tombman abgefallen. :(

tombman
2009-02-10, 01:20:17
Ein bißchen enttäuscht darf man aber sein, oder? Ich meine, der Entdecker der Mikroruckler kauft sich Quad-SLI, macht noch kurz die Biege zu Triple-SLI und landet schließlich doch wieder bei Mikroruckler-Deluxe und Input-Lag für LowSense-Gamer und das Ganze nur wegen 3DMark Vantage. Bin vom Glauben an das Gute im Tombman abgefallen. :(
Ich hatte beides, und Quad ist nicht nur in Vantage schneller bei mir. Bezüglich MR und IL gabs auch keine merkbaren Unterschiede zu Triple.

Das sage ich dir aus der PRAXIS- du kannst gerne glauben was du willst...

doors4ever1
2009-02-11, 22:50:56
Ich hatte beides, und Quad ist nicht nur in Vantage schneller bei mir. Bezüglich MR und IL gabs auch keine merkbaren Unterschiede zu Triple.

Das sage ich dir aus der PRAXIS- du kannst gerne glauben was du willst...
Hast du eigentlich daran gedacht eigene Review Seite aufzumachen? Sowas von dir würde ganz bestimmt mehr Spass machen wie gekauftes PR Zeug aus Tom's Hardware ect.

Blaire
2009-02-13, 19:18:45
Mega Test GTX295 Quad SLi vs GTX280 Tri SLi
http://img1.abload.de/img/quadvs.tri3a8q.png

http://www.youtube.com/watch?v=vrZwKHOyohg#

tombman
2009-02-14, 00:59:28
Mega Test GTX295 Quad SLi vs GTX280 Tri SLi
http://img1.abload.de/img/quadvs.tri3a8q.png

http://www.youtube.com/watch?v=vrZwKHOyohg#
Wenn er cpu limitiert ist, was gut sein kann, dann wird Triple immer schneller sein...

Edit, habe mir die Tests abgesehen. Fazit: schon wieder ein noob, der ned testen kann :rolleyes:

1.) cpu Limits
2.) falscher Treiber
3.) falsche Testsettings

Blaire
2009-02-14, 01:21:53
Zumindest die FPS Einbrüche von COD5 sind meiner Meinung nach aufs Profil zurückzuführen, da wird QuadSLI ein paar andere Bits brauchen. :)

tombman
2009-02-14, 01:26:22
Zumindest die FPS Einbrüche von COD5 sind meiner Meinung nach aufs Profil zurückzuführen, da wird QuadSLI ein paar andere Bits brauchen. :)
Die ganze Zeit war er auf 91fps fixiert- ein ärgeres Cpu limit kann man sich gar ned vorstellen.

90% aller Tri und Quad user sind sowieso zu blöd das richtig zu testen ;)

mike49
2009-02-14, 03:10:04
90% aller Tri und Quad user sind sowieso zu blöd das richtig zu testen ;)
Jo, typische DAUs und Noobs eben... ;D

Gast
2009-02-14, 18:44:03
Jo, typische DAUs und Noobs eben... ;D

Und wer bist du jetzt ?!

Gast
2009-02-20, 11:51:23
man sollte bei cod5 vielleicht erwähnen, dass das spiel einen framelimiter hat. mehr als 91 fps sind nicht möglich. eingestellt werden kann (über die konsole oder cfg) maximal ein wert von 85. mehr als 91 hab ich bei mir im spiel allerdings noch nie zu gesicht bekommen.

Gast
2009-02-20, 14:45:43
ich habe gerade nachgelesen. das limit liegt tatsächlich bei 91 fps.
man kann es mit dem befehl /com_maxfps 0 aufheben. das funktioniert aber nicht bei online spielen, da die server i. d. r. entsprechend konfiguriert sind.
die tester haben schlichtweg vergessen, das framelimit zu deaktivieren bzw. sie wussten davon nichts.

tombman
2009-02-23, 07:49:43
Wenn 1100 Watt nicht mehr reicht...... dann tuns eben 1250 Watt :eek:

Auch den Text durchlesen -v
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7123826&postcount=997

Philipus II
2009-02-23, 12:54:36
@ Tombman: Du bist einfach Klasse!
Übrigens: Eine 9800 GTX+ 2048 MB wäre eine Ergänzung für GTA4...

PHuV
2009-02-23, 18:43:55
Wenn 1100 Watt nicht mehr reicht...... dann tuns eben 1250 Watt :eek:

Auch den Text durchlesen -v
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7123826&postcount=997

Wow, das ist mal ein Netzteil, wo die Stecker endlich ausreichen. Was hast Du dafür hingelegt?

Schlammsau
2009-02-23, 19:37:13
Wow, das ist mal ein Netzteil, wo die Stecker endlich ausreichen. Was hast Du dafür hingelegt?

mindestens 270€ (http://geizhals.at/eu/a382767.html) :hammer:

Slipknot79
2009-02-23, 22:49:37
mindestens 270€ (http://geizhals.at/eu/a382767.html) :hammer:


335 wenn es seine Lieblingsfiliale war :redface:

Schlammsau
2009-02-24, 08:57:17
335 wenn es seine Lieblingsfiliale war :redface:
Bei uns würde man seinen Rechner als Millionengrab bezeichen! ;D

dargo
2009-02-24, 10:14:34
Bei uns würde man seinen Rechner als Millionengrab bezeichen! ;D
Bei uns bezeichnet man Leute wie dich als Neider. Man könnte schon fast sagen - typisch Deutschland. Jetzt lasst tombman endlich mit den dummen Bemerkungen in Ruhe. Ich bin froh, dass wir Jemanden haben der uns immer auf dem laufenden in der Praxis hält was High-End betrifft.

Schlammsau
2009-02-24, 10:53:06
Bei uns bezeichnet man Leute wie dich als Neider. Man könnte schon fast sagen - typisch Deutschland. Jetzt lasst tombman endlich mit den dummen Bemerkungen in Ruhe. Ich bin froh, dass wir Jemanden haben der uns immer auf dem laufenden in der Praxis hält was High-End betrifft.

Sorry aber ich bin garantiert nicht neidisch! ;)
Mir erschliest sich nur immer noch nicht, warum man so abartig viel Geld in etwas steckt, was in 1 bis 2 Jahren fast nichts mehr Wert ist.

Respekt und Anerkennung schenke ich Leuten, die mit Möglichst wenig Geld, dass meiste aus ihrer Hardware rausholen und nicht das teuerste vom teuersten kaufen.

dargo
2009-02-24, 10:55:31
Sorry aber ich bin garantiert nicht neidisch! ;)
Mir erschliest sich nur immer noch nicht, warum man so abartig viel Geld in etwas steckt, was in 1 bis 2 Jahren fast nichts mehr Wert ist.

Schon mal einen Neuwagen gekauft?

Schlammsau
2009-02-24, 11:07:45
Schon mal einen Neuwagen gekauft?
Nein, genau aus diesem Grund. Und bei Hardware geht das alles noch viel schneller.

dargo
2009-02-24, 11:12:13
Nein, genau aus diesem Grund.
Hatte ich mir schon gedacht, sonst wüsstest du was Wertverlust überhaupt bedeutet. Gerade in den ersten Jahren.

Schlammsau
2009-02-24, 11:15:40
Hatte ich mir schon gedacht, sonst wüsstest du was Wertverlust überhaupt bedeutet. Gerade in den ersten Jahren.
Wie lange hat man einen Neuwagen? 5 Jahre, 10 Jahre? Oder etwa noch länger?
Wenn Tombman jetzt 2000€ für seine Kombi gezahlt hat, bekommt er in 2 Jahren nur noch ein drittel davon. Aber egal, ich bin raus......

dargo
2009-02-24, 11:20:05
Wie lange hat man einen Neuwagen? 5 Jahre, 10 Jahre? Oder etwa noch länger?

Der es sich leisten kann auch mal 1-2 Jahre. Oder halt solange bis der Wagen langweilig wird.


Wenn Tombman jetzt 2000€ für seine Kombi gezahlt hat, bekommt er in 2 Jahren nur noch ein drittel davon. Aber egal, ich bin raus......
Was geht dich das Geld von tombman oder überhaupt Jemanden was an? Also doch Neid... Du solltest lieber den Leuten dankbar sein, dass sie den Markt unterstützen. Dabei spielt es keine Rolle ob man 2.000€ für Hardware, 50.000€ für einen Neuwagen oder 300.000€ für eine Immobilie investiert.

FatBot
2009-02-24, 11:41:32
Sorry aber ich bin garantiert nicht neidisch! ;)
Mir erschliest sich nur immer noch nicht, warum man so abartig viel Geld in etwas steckt, was in 1 bis 2 Jahren fast nichts mehr Wert ist.
Mir ist bisher nicht aufgefallen, dass es Hardware in seinem Rechner so lange aushalten durfte. Er kauft und verkauft halt in kürzeren Abständen als andere, das machen viele so, da bleiben die Kosten auch vergleichsweise überschaubar. Am Ende ist es ein Hobby wie jedes andere und Egomane Tombman lässt uns daran teilhaben. Zwingt einen ja keiner, mit- oder nachzumachen. Gibt einen Haufen Sachen, für die Leute Zeit und Geld investieren (Briefmarken sammeln, Modelleisenbahn, Autotuning, WoW, 3dcenter) und der Nächste tippt sich nur an die Stirn, da wirst Du bei Dir sicher auch fündig.

tombman
2009-02-24, 11:56:36
Highend HW ist keine Wertanlage, das ist ein halbjährlicher MITGLIEDSBEITRAG ;D

Propagandapanda
2009-02-24, 12:00:18
Highend HW ist keine Wertanlage, das ist ein halbjährlicher MITGLIEDSBEITRAG ;D
:biggrin::biggrin::biggrin:

(Wobei ich zugeben muss ich bin darauf schon neidisch. "Beamer + QuadGPU"-Zocken :massa:)

€: Wobei ich mir persönlich kein MGPU mehr kaufen werde.

tombman
2009-02-24, 12:05:33
Ein octer GT212 oder spätestens GT300 sollte eh für alles ausreichen in Zukunft.
Die Konsolen werden das Maximum an Grafik eh limitieren....

_DrillSarge]I[
2009-02-24, 12:28:20
Ein octer GT212 oder spätestens GT300 sollte eh für alles ausreichen in Zukunft.
Die Konsolen werden das Maximum an Grafik eh limitieren....
quad/triple-sli jetzt aber auch ;)

PHuV
2009-02-24, 14:23:22
Sorry aber ich bin garantiert nicht neidisch! ;)
Mir erschliest sich nur immer noch nicht, warum man so abartig viel Geld in etwas steckt, was in 1 bis 2 Jahren fast nichts mehr Wert ist.

Respekt und Anerkennung schenke ich Leuten, die mit Möglichst wenig Geld, dass meiste aus ihrer Hardware rausholen und nicht das teuerste vom teuersten kaufen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4993081&postcount=35

Schlammsau
2009-02-24, 15:04:14
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4993081&postcount=35

Netter Beitrag! ;)
Aber trotzdem geht es hier nicht um Neid! Ich könnte mir auch diese Hardware leisten, müsste nur mein Geld ein wenig umschichten, d.h. weniger feiern, nicht mehr ins Fitnessstudio gehen, meine liebste weniger zum Essen ausführen, etc.!
Nur leider sind mir solche Dinge wichtiger als immer die teuerste und schnellste Hardware in meinem kleinen schwarzen Kasten zu haben.
Sorry guys.....ihr müsst euch ein anderes Opfer suchen. ;)