Archiv verlassen und diese Seite im Standarddesign anzeigen : Lohnt sich 580er SLi noch?
Hübie
2013-04-15, 04:20:42
Hi Leute.
Ich habe die Möglichkeit eine MSI Lightning günstig zu bekommen. Diese hat ebenso wie meine 1536 MB VRAM. Nun stellt sich mir die Frage ob das überhaupt lohnt, da ich nicht weiß wie gut die mittlerweile skalieren. Auf großes rumgebastel hab ich kein Bock mehr weil die Zeit eh knapp ist. Also wie is da der Stand? Ich habe einen 3D-Monitor und würde evtl. auch mal 3D-Vision nutzen (Brille muss ich kaufen).
Mein Netzteil ist ein Cougar CMX 700. Ich habe immer ein fps-Limit bei 118 fixiert. Stemmt das NT die beiden? Meine hat den Peter drauf und ist sauleise.Die Lightning versaut mir das sicher oder? Die müsste ausserdem in einen x4 Slot was ja noch mal Performance frisst, wa?
Was habt ihr denn so für Erfahrungen?
LG Hübie
boxleitnerb
2013-04-16, 09:17:49
Ich hatte bis vor kurzem ja 580 3GB SLI. Die Skalierung ist wenn das Profil stimmt, immer gut unabhängig vom Alter. Nur wenn der VRAM ausgeht, siehts etwas düster aus. Neuere Spiele belegen bei mir so knapp 2GB, manchmal auch etwas mehr. Ich würde ehrlich gesagt keine Karte unter 2GB mehr haben wollen.
Vom Verbrauch her:
Mit einem 2600K@4,2 GHz und den 580ern unübertaktet kam ich an der Steckdose so auf 600-700W.
Die 118fps konstant kannst du eh vergessen wegen CPU-Limit. Das geht nur in Ausnahmefällen.
Summa summarum:
Ich würde es nicht machen. Bei dir kommen zuviele Punkte zusammen. Netzteil reicht grad so, würde dann aber am Limit arbeiten hier und da und wäre dann sicher auch lauter. Zu wenig VRAM. Und der x4 Slot ist auch nicht optimal, da gehen sicher nochmal 5-10% Performance verloren im ein oder anderen Titel.
Hübie
2013-04-16, 09:37:39
Das limit habe ich nur drin damit der Verbrauch nicht explodiert und die Spulen nicht rasseln (in manchen Videos z.B.).
Meine Tendenz war ja im Text schon herauszulesen aber ich geh halt auf Nummer sicher, denn Erfahrungen lassen sich nicht so einfach ersetzen ;)
Danke Danke fürs Feedback. Noch jemand?
Niall
2013-04-16, 10:18:03
Hmm,
mich persönlich würde allein der Verbrauch und die Abwärme davon abhalten.
Wie du schon vermutet hast, wird dir die Lighting - so gut der Kühler auch ist
- vermutlich ordentlich hochdrehen, allein schon weil die andere Karte ja auch
ordentlich Abwärme produziert. :freak:
Vermutlich würde ich wenn ich Mehrleistung wollte eher die 580 verkaufen und
direkt auf die 690 / Titan gehen. Dann hast du zumindest die Abwärme gebündelt. :)
Grüße!
Tesseract
2013-04-16, 10:27:37
ich hab vor einiger zeit das selbe gemacht und es bisher nicht bereut. bis jetzt bin ich mit "normalen" setting, d.h. ohne texturmods oder ähnlichem auch noch nicht in die situation gekommen wo mir der vram ausgehen würde und das performanceplus ist in einigen situationen schon deutlich.
eine lösung für die zukunft ist das wohl keine, aber als billiges zwischenupgrade bis mal wieder was ordentliches kommt ist das eine überlegung wert.
so solltest aber bedenken, dass zwei 580er ohne direct heat exhaustion (also die meisten customdesigns) leicht die gehäusekühlung überstrapazieren und überhitzen wo sich 2 referenzkarten noch wohl fühlen. wenn du also kein case mit zig lüftern und kein board mit viel abstand zwischen den karten hast würde ich aus temperaturgründen von 2x customlüfter eher die finger lassen.
außerdem ist 4x PCIe auf einem slot schon grenzwertig wenig, mit 2*8 wär der spielraum deutlich größer.
wenn du also sagst du hast für rumgebastel wenig zeit dann eher nein.
robbitop
2013-04-16, 10:57:33
Zu viel Wärme, zu viel Lautstärke, zu wenig VRAM, PCIe 4x, µ-Ruckler, Profilabhängig... Ich würde die 580 verticken und eine 7970 kaufen und diese auf 1,2 GHz prügeln. Da hat man mehr von. Oder eine 680.
LSSJBroly
2013-04-16, 11:51:03
Ich bin auch von einem 580 SLI mit 1,5GiB auf eine OC GTX 680 gewechselt. Gut, das SLI mag etws mehr Power gehabt haben, aber subjektiv läuft die 680 einfach besser. Man meint nicht, was +512MiByte Vram ausmachen können. Auch die Microruckler können stören, aber wie gesagt, rein subjektiv. Mein Hauptgrund war einfach, das 1,5GiB zu wenig war.
Insgesamt wirst du mit einer schnellen HD 7970 oder GTX 680 wohl glücklicher werden. Mit OC sind +50-60% auf eine Stock 580 drin.
Knuddelbearli
2013-04-16, 12:26:47
ich würd eine reiche kosten nutzen analyse durchführen
wenn du viel zockst und eventuell der PC auch noch öfters über nacht rumidelt hat sich selbst eine 7970 Ghz schnell bezahlt gemacht
Wenn du 2 Monitore nutzt ist es sogar überhaupt keine Frage mehr die Fermi Bilanz ist da desaströs
TobiWahnKenobi
2013-04-16, 12:54:10
ich schliesse mich mal dem thenor an.. das alte kram raus und was aktuelles rein. GTX690 ist super für 3DV.
(..)
mfg
tobi
Niall
2013-04-16, 12:56:16
ich würd eine reiche kosten nutzen analyse durchführen
wenn du viel zockst und eventuell der PC auch noch öfters über nacht rumidelt hat sich selbst eine 7970 Ghz schnell bezahlt gemacht
Wenn du 2 Monitore nutzt ist es sogar überhaupt keine Frage mehr die Fermi Bilanz ist da desaströs
Seit der 6XX Reihe ist doch der Multi-Monitor Betrieb kein Problem mehr oder?
Sonst kann man sich im Inspector leicht die Targets anpassen.
Was das Idling angeht, ist die 680 auch gleichauf.
Oder war das nur auf die 4XX / 5XX Generation bezogen? :)
Tesseract
2013-04-16, 13:06:36
multimonitor ist egal. wenn beide an der selben graka hängen läuft die zweite sowieso auf minimaltakt im idle und die primäre kann man per multidisplay power saver vom inspector runtertakten - das muss/sollte man aber bei einer karte auch schon.
Ich bin auch von einem 580 SLI mit 1,5GiB auf eine OC GTX 680 gewechselt. Gut, das SLI mag etws mehr Power gehabt haben, aber subjektiv läuft die 680 einfach besser. Man meint nicht, was +512MiByte Vram ausmachen können. Auch die Microruckler können stören, aber wie gesagt, rein subjektiv. Mein Hauptgrund war einfach, das 1,5GiB zu wenig war.
wo waren dir 1.5GB zu wenig?
Mit OC sind +50-60% auf eine Stock 580 drin.
eine 580 kann man auch ordentlich overclocken und 50-60% sind schon überaus optimistisch für die 680. so viel schneller ist das teil im schnitt einfach nicht.
microruckler sind natürlich ein argument, aber auch nur wenn man vsync aus hat.
Palpatin
2013-04-16, 13:10:25
Naja eine 580er bekommst du auf Ebay imo für min 250€ an den Mann, also ja machen und wenns dir nicht zusagt beide auf Ebay verkaufen und durch eine OC 7970 GHZ oder 680 ersetzen.
Knuddelbearli
2013-04-16, 13:10:54
Nein tun sie bei Fermi nicht, das tun sie nur wenn die Bildschirme das selbe Timing haben was selbst wenn die Monitore aus der Selben Modellserie kommen nur sehr warscheinlich ist und nicht garantiert.
@Niall das steht doch dabei
die Fermi Bilanz
Tesseract
2013-04-16, 13:19:16
Naja eine 580er bekommst du auf Ebay imo für min 250€ an den Mann
aber wirklich nicht. die gehen in der regel für so 150-200 weg, je nach modell. für 250 bekommst du eine neue...
Nein tun sie bei Fermi nicht, das tun sie nur wenn die Bildschirme das selbe Timing haben was selbst wenn die Monitore aus der Selben Modellserie kommen nur sehr warscheinlich ist und nicht garantiert.
wie gesagt: inspector drüber und beide sind auf minimaltakt. die ohne monitor taktet auch so runter.
man sollte das tool nur aus machen bevor man zocken will weil es die angewohnheit hat die karte manchmal unter last runter zu takten, warum auch immer.
LSSJBroly
2013-04-16, 17:42:46
wo waren dir 1.5GB zu wenig?
Skyrim mit offiziellen Hi-reas Texturen + 8x MSAA war schon schluss, mit Mod-texturen kaum machbar (in 1080p). Das gleiche in Fallout 3/New Vegas mit mod-textures. Dazu kommen auch Nachladerruckler in Metro, BF3 oder Crysis 2.
eine 580 kann man auch ordentlich overclocken und 50-60% sind schon überaus optimistisch für die 680. so viel schneller ist das teil im schnitt einfach nicht.
microruckler sind natürlich ein argument, aber auch nur wenn man vsync aus hat
Ich hatte mein SLI auch mit 900MHz gegen eine 1200/3500MHz GTX 680 getestet. Fakt ist, das das SLI meistens nur zwischen 15-30% schneller als die einzelne 680 war, trotz optimaler skalierung von oft über 90-95%.
BF3 z.B. ist mit einer GTX 680 OC fast so schnell (weniger als 10% differenz) als ein 580 SLI.
(Hab ausreichend Benchmarks gemacht, um das zu sehen;))
Und ein FPS-limiter ist auch kein Allheilmittel gegen Microruckler.
Hübie
2013-04-17, 08:38:50
Okay vielen Dank liebe Leute. In Skyrim habe ich auch permanent 1514 MB. Also grenzwertig.
Titan oder 690 kommen nicht in Frage. Wir bekommen ein Baby und wie soll ich da 1000 Euro rechtfertigen? Sorry aber Geld scheißen kann ich nicht. Allein Kinderzimmer mit Ausstattung kostet schon 1,5 bis 2 Riesen. Das ist mir wichtiger.
680 ist mit 2 GB zu teuer. Mit 4 erst recht. Aktuell läuft meine auf 900 / 2100 MHz also wäre der Zugewinn nicht so drastisch um den Preis zu rechtfertigen. AMD kommt (noch) nicht in Frage.
Also warte ich weiter. Is doch krank ;D Mir ist mein Geld wohl noch zuviel wert.
robbitop
2013-04-17, 09:21:51
Darf man fragen, warum AMD nicht in Frage kommt? P/L ist ziemlich gut. Und das Gebashe ist idR auch übertrieben. Frage mal den guten BQ-Fetischisten Raff. Der würde sich keine 7970 antun, wenn die so schlecht wäre, wie immer suggeriert wird. Mehr P/L gibt es im Moment leider nicht.
IMO wird sich die Situation erst (vieleicht) mit den 20 nm Karten im nächsten Jahr verbessern.
Hübie
2013-04-17, 09:33:41
Ich habe kurz gesagt nicht die Freiheiten wie im Moment mit nVidia. BQ ist sicher nicht schlecht, aber das Gesamtpaket ist für mich nicht stimmig genug. Ich würde mir ja gerne mal die HD7970 zum Testen einbauen aber kenne niemanden der eine entbehren kann.
LG Hübie
4Fighting
2013-04-17, 09:44:44
dumme frage:
warum keine gtx670er ?
robbitop
2013-04-17, 09:51:32
Was fehlt denn im "Gesamtpaket"? Ich würde an deiner Stelle mal Leute wie Raff nach ihren Erfahrungen fragen. Leider sind hier im Forum nur ein Teil der User wirklich neutral.
Hübie
2013-04-17, 09:58:25
SSAA-Bits, PhysX, Cuda... das will ich nicht mehr missen.
@4fighting: Gute Frage. Die gibt's ja auch mit 4 GB. Muss mir mal eben Preise suchen.
Edit: Hahahaaa. Die Preise sind soooo krank! 400 Schleifen für eine Performance-Karte? Ich leb irgendwie in der falschen Zeit ;D
4Fighting
2013-04-17, 10:05:51
Naja gibt sie auch mit 2GB ;-)
robbitop
2013-04-17, 10:13:30
Du programmierst mit CUDA und GPU PhysX hat eine relevante Verbreitung? Bezüglich letzterem: Wir haben doch 2013, oder? ;)
Die SSAA bits kriegen angeblich (ich hab noch eine alte GTX470 - will aber auch irgendwann upgraden) auch kaum mehr ein Spiel mit SSAA zum laufen als bei AMD per default geht. Zumindest laut Raff.
Hübie
2013-04-17, 11:20:18
Da habe ich andere Erfahrungen bzgl. der Bits. Ich habe schon öfter gelesen dass hier und da SSAA nicht auf AMDs Karten lief. Konkrete Beispiele müsste ich jetzt suchen. Eine Liste wäre nicht schlecht ;D
PhysX ist mir hauptsächlich wegen Spielen wie Batman AA & AC wichtig. Das gibt echt noch mal ein deutliches Plus bei der Atmosphäre und ich will einfach nicht auf die Möglichkeit verzichten wenn ein Spiel es denn anbietet. CUDA wegen einiger Programme die ich so nutze (Videoencoding, -schnitt). Auch die aktuell kommunizierten Probleme der frametimes schrecken mich etwas ab. Daher warte ich mal noch bei AMD ab wie die sich entwickeln. Aktuell holen die ja ordentlich auf, was auch einigen neuen Mitarbeitern dort gedankt werden sollte.
@4fighting: Eine 670 mit 2 GB kostet aber auch 330-350€. Da müsste ich also auch ~200€ draufzahlen. Steht ebenfalls in keiner Relation. Preislich würde für mich da nur die HD 7970 in Frage kommen. Aber die will ich erst mal "aussitzen" (siehe oben).
Also das Thema SLi mit zwei GF110 ist für mich somit gestorben. Ebenso das Upgrade auf eine andere nVidia-Karte. AMD bleibt noch aussen vor. Ich bin also in einer Seifenblase gefangen.
LG Hübie
TobiWahnKenobi
2013-04-17, 11:22:56
nimm doch einfach die olle AMD-karte, greif die games ab, guck ob du und dein equipment mit der karte klarkommen und wenn nicht, versuchst du sie wieder zu verkaufen. billiger kann man zumindest nicht an hohe frames in aktuellen titeln rankommen und scheinbar gibts doch etliche leute (except me), die sich mit AMD als bildlieferant arrangieren können.
(..)
mfg
tobi
Hübie
2013-04-17, 11:31:41
Mir gehts nicht um hohe frames. Ich zocke Spiele wie Skyrim (400 Stunden auf dem Zähler ;D), Endless Space, Mass Effect-Reihe, The Witcher 1 & 2, Dragon Age Origins, Risen 1 & 2, Dirt 2, Far-Cry-Reihe, Starcraft, Diablo 3, X-Com Enemy Unknown und ab und zu mal Battlebumms. BF4 ist mir Wurst, aber kommt ebenso wie Crysis 3 und Tomb Raider irgendwann mal für 20 € auf meinen PC.
Am wichtigsten ist mir im Augenblick jedoch Skyrim wo mir leider der VRAM ausgeht. Es gibt auch Stellen (um Morthal z.B.) wo die fps auch auf 25 einbrechen. Skyrim läuft unter 35 fps nicht mehr schön.
TobiWahnKenobi
2013-04-17, 12:06:36
skyrim ist auch mein "evergreen".
(..)
mfg
tobi
Hübie
2013-04-17, 12:19:23
:naughty: Das Spiel ist auch einfach bildhübsch, musikalisch einmalig und immer wieder einladend neues zu entdecken.
Ich zocke aber wie ihr seht alles durch die Bank, quer Beet, übers Feld hinweg und bin bisher auf keinerlei Probleme gestoßen die ich auf nvidia schieben könnte. Ich erwarte einfach nur flüssiges gameplay und Stabilität.
Ich sehe mich mal auf dem Marktplätzen diverser Foren nach Gebrauchtware um. Vielleicht ergibt sich da ja ein Schnäppchen.
Knuddelbearli
2013-04-17, 12:37:06
du spielst schonmal eindeutig kein Gothic ^^
Hübie
2013-04-17, 12:45:37
Nein. Mit Gothic 3 verging mir der Appetit. Ich besitze zwar Götterdämmerung aber allein der Anfang war so schlecht gemacht dass ich nicht weiter machen konnte.
Knuddelbearli
2013-04-17, 13:25:25
dachte da eher an 1+2
vor allem 2 hat NV massive Probleme :-/
robbitop
2013-04-17, 14:11:04
Ach Gothic 3 war ab dem Community Patch 1.7x relativ brauchbar. Gerade musikalisch und von der Landschaft doch sehr schön und handgemacht. Götterdämmerung ist das blöde Murks-AddOn aus Indien. :-/
Ich würde sogar weiter gehen und sagen: Gothic 3 ist mit dem KuhMuhNity-Patch ein großartiges Spiel, in jeder Hinsicht. Der Sound trägt auf jeden Fall viel zur Immersion bei, ähnlich intensiv wie beim Evergreen Outcast (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514062). =)
MfG.
Raff
N0Thing
2013-04-17, 14:24:08
dachte da eher an 1+2
vor allem 2 hat NV massive Probleme :-/
Scheint kein generelles Phänomen zu sein, beide Spiele haben auf unterschiedlicher Nvidia-Hardware bei mir nie Probleme gemacht.
TobiWahnKenobi
2013-04-17, 15:36:43
Man kann ever"greens" auf nicht-grünen Karten spielen? ;-)
(..)
mfg
tobi
aufkrawall
2013-04-17, 16:05:17
vor allem 2 hat NV massive Probleme :-/
Ja klar.
Also ich hab mein olles 480er SLi modernisiert (durch Prozessor i7-2700K und Motherboard Asrock Extreme7) u. die Tage wieder reaktiviert und nutze es bei Games, welche ich unter Downsampling spiele. Ich hab daneben auch ein System mit einer ASUS HD7970-DC2T-3GD5. Shooter spiele ich aber wieder ausschließlich auf dem SLi-Sys. Da kann mir einer erzählen was er will, für mich ist das Spielerlebnis auf der Plattform besser.
/edit @Hübie - hab'sch ganz vergessen ...
Zwie Fermis, egal ob 480 oder 580 würd ich mir mit Lukü aber nicht antun.
Hübie
2013-04-17, 19:31:01
Ich würde sogar weiter gehen und sagen: Gothic 3 ist mit dem KuhMuhNity-Patch ein großartiges Spiel, in jeder Hinsicht. Der Sound trägt auf jeden Fall viel zur Immersion bei, ähnlich intensiv wie beim Evergreen Outcast (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514062). =)
MfG.
Raff
Tja ich habe beides gespielt und fand G3 später auch wirklich sehr gut, aber der fade Beigeschmack blieb. Götterdämmerung hats dann voll versaut.
Was sagst du denn zum topic, zu SSAA auf Radeons (gings immer da wo es auch mit nV geht) und wie stehts um die BQ. Aufkrawall hat da ja so einige Erkenntnisse erlangt und publiziert. Ist wahrscheinlich auch heißer gekocht als gegessen, aber will nix unter den Tisch fallen lassen.
Outcast war seiner Zeit weit voraus und das schreckte viele Leute ab. Bei mir läuft es leider nicht mehr absturzfrei :( Habs hier neben mir im Regal stehen. Übrigens spiele ich auch mal so shooter wie Q3, UT2004 oder Hard Reset. Schnell, ehrlich und direkt ;D
@kmf: Über eine Wakü denke ich übrigens schon länger nach, aber ich kenne keinen im Freundeskreis der Erfahrung damit hat und mir mit Rat und Tat zur Seite stehen würde. Nun is der Spaß ja auch nicht billig. Für Fermi lohnt es sich imo aber jetzt nicht mehr.
aufkrawall
2013-04-17, 19:49:17
Ist wahrscheinlich auch heißer gekocht als gegessen, aber will nix unter den Tisch fallen lassen.
In G3 war mir auch der AA-Bug (meine nicht ausfallende Glättung, HDR & Bloom waren aus) bei Radeons störend aufgefallen.
Hatte mich total gewundert, denn 8xAA war mir von NV besser in Erinnerung.
Ist mir dann schließlich in jedem Spiel aufgefallen, bis es mich nachts verfolgt hatte. Psychologisch ätzend, so was. ;)
Tu es dir mal an. Wenn du es merkst, spricht das für dein Wahrnehmungsvermögen.
Mit 8xSGSSAA 80% weniger fps und dann so faule Kompromisse...
Hübie
2013-04-18, 00:23:55
So. Sachstand: ich bekomme die Karte morgen und werde übers Wochenende testen. Wenn Interesse besteht stelle ich gerne Vergleiche an. Dann bitte mit Wünschen. Meine Hardware findet ihr hier in meinem Profil. Wie gesagt tendiere ich zu einem Nein, aber der Kerl will die unbedingt loswerden (Geldmangel;D).
Edit: Ich bearbeite mal mein Bruderherz ob er mir seine HD7970 leihen kann.
Ach ja und kann mir mal eben jmd sagen wie sich jetzt LOD-Bias auf Fermi verhält? Bei DX10/11 wählt der Treiber automatisch und bei 9 muss ichs manuell verschieben oder wie jetzt? Oder gilt das nur für Kepler? Bitte um Aufklärung :smile:
Tesseract
2013-04-18, 01:53:20
afaik ist mit dem neuesten treiber lod auf allen generationen seit G80 und API-versionen immer automatisch, sofern nicht manuell umgestellt.
was du bei SLI bzw. beim testen beachten solltest: (mit inspector)
- geht nur auf fullscreen
- für alles außer benchmarks smooth AFR behavior an machen; spielt sich deutlich besser damit
- SLI rendering mode gibt an ob und welcher modus verwendet wird, ist das auf auto wird der prefered sli mode genommen
- alles was kein SLI-profil hat läuft im single-mode. d.h. wenn etwas kein profil hat (was sehr selten ist) musst du eines anlegen
- global solltest du keinen SLI-mode forcieren, das kann bei browsern und ähnlichen anwendungen probleme machen
Hübie
2013-04-20, 17:48:53
So. ich habe nun seit fast zwei Tagen den Kram am laufen und bin recht positiv überrascht wie wenig die Framelatenz negativ auffällt. Erst bei ca 45 fps merkt man es sowohl in Skyrim als auch The Witcher 2. Auch die Installation ging ohne Murren. Man hätte mir aber sagen sollen wie rum man die Brücke setzen muss. Der grün flackernde Bildschirm ließ mich erst schlimmstes erwarten. Google brachte jedoch schnell Klarheit.
Der Energieverbrauch hält sich in Grenzen da ich den fps-Limiter global auf 118 gesetzt habe und zudem beide Karten mjt lediglich 770 / 2010 MHz betreibe. Vergleiche mit meinem alten HD-4000-CrossFire lasse ich mal aus da sich bei AMD sicher auch so einiges getan hat. out of the box läuft SLi aber schon mal recht unkompliziert. Was mir den ganzen Sinn an der Sache aber nimmt ist die Tatsache dass beide Karten nur 1536 MB VRAM zur Verfügung haben. Daher entscheide ich mich gegen dieses Setup.
Eine Alternative steht noch aus. Titan zu teuer, GK104 zu wenig Leistungsplus. Also heißt es ABWARTEN.
So far...
aufkrawall
2013-04-20, 17:59:55
SLI mit zwei 670ern?
Was ging denn mit der Brücke nicht?
afair ist es bei mir egal, wo ich die drauf setze.
Hübie
2013-04-21, 01:08:27
Pff. 800 Euro für zwei mal 4 GB der 670er sind indiskutabel. Die Richtung der Brücke ist entscheidend.
Tesseract
2013-04-21, 04:52:13
Pff. 800 Euro für zwei mal 4 GB der 670er sind indiskutabel. Die Richtung der Brücke ist entscheidend.
das ist halt der punkt. 1,5GB vram hin oder her, aber so viel performance pro € bekommt man anders fast nicht.
theoretisch ist die richtung der brücke egal, in der praxis zicken die aber manchmal rum. ich hab bei mir von den 8 verschiedenen prositionen (2 bridges * 2 karten * 2 kartenpositionenpositionen) ein paar durchprobiert und davon haben etwa 2/3 funktioniert und 1/3 nicht, warum weiß ich nicht.
Nightspider
2013-04-21, 05:42:08
Benutz doch einfach das SLI übergangsweise und vertick die Karten nach der nächsten Preissenkung.
Hübie
2013-04-21, 08:45:25
Na ja es wäre eine Option. Mir wurde vor ein paar Monaten gesteckt, dass im Sommer was von nVidia komme und es sei nicht Titan aka GK110. Von GK110 werden wir zwar auch einen salvage-part sehen aber der liegt dann auch wieder bei 750 Eier bei weniger Leistung ggü. zwei GK104 (GTX670).
Ich müsste 170-180 für die Lightning blechen. Also was denkt ihr? Der Preis ist imo fair.
TobiWahnKenobi
2013-04-21, 09:15:57
die mischung aus habenwollen und was der geldbeutel hergibt, bestimmt was fair ist.
ich fände 100€ fair und würde dann auch eine nehmen, weil ich nicht weiss wozu. wenn du das teil aber gern möchtest, weil du darin eine aufwertung siehst, wären für dich bestimmt auch 150 oder 170€ fair.
billiger als ein wechsel auf etwas aktuelles ist es allemal.
(..)
mfg
tobi
Hübie
2013-04-21, 10:16:31
Der Geldbeutel gäbe auch Titan her, aber mein Geiz gibt es einfach nicht her. Das sind alles Preise wie bei Apple. Wenig Hardware für viel Geld. Das mach ich nicht mit.
LG Hübie
one of many
2013-04-21, 17:32:54
trotzdem klar am meisten hardware für alle ohne lust auf doppelten lärm plus zusätzliches sli gefummel plus restliche sli nachteile.
mit wakü braucht mir keiner kommen dafür bin ich viel zu faul. ^^
bis auf den preis eine traumkarte für single gpu fundis! :)
doch das p bei p/l ist mir ehrlich gesagt egal denn über höchstens 660ti hat imho nichts mehr mit vernunft zu tun, da zählen nur noch innere werte.
die 680 wäre höchstens etwas weniger unvernünftig gewesen. ^^
amd war aus den gründen die du schon erwähnt hast auch kein thema.
hatte auch eine 580 vorher, so blieben nur 680 oder titan und der unterschied mit ds und sgssaa ist da deutlich genug für mich.
ohne oc sogar noch leiser als 680 referenzkarte und keine knappen 2gb machten die entscheidung noch leichter.
die titan macht einstellungen möglich die ich ohne sli nie für möglich gehalten hätte. würde die jederzeit wieder kaufen.
Hübie
2013-04-30, 20:41:28
So. Hab den Spaß nun seit über einer Woche am laufen und habe nun so mein setting gefunden. Die zweite hat mich nicht viel gekostet. Lasse beide auf 770 MHz laufen. Das spart Energie. Nach hin und her mit adaptive v-sync. framelimiter etc. bin ich - je nach Spiel - auf Standard V-Sync @1/2 refresh rate und fps-limiter von 58 gekommen. Bei Spielen mit hohen fps (120) halt mit 120 Hz und 118er limit.
Man kann also sehr gut gegen Mikroruckler vorgehen. Das framemetering kommt jedenfalls recht gut rüber. Skyrim kann ich nun mit 4xSGSSAA statt 2xSGSSAA zocken und es bleibt stets flüssig. Sauer aufstoßen tut mir halt immer noch der VRAM aber was solls. Als Übergangslösung sicher nicht verkehrt (hält vielleicht noch mal 2 Jahre durch ;D).
LG Hübie
ps: Das war jetzt auch eine rein preisliche Entscheidung.
SamLombardo
2013-04-30, 22:15:16
...und jetzt noch die 3D Vision Brille. Dann bin ich mal auf Dein Fazit gespannt. Auch und gerade als Skyrim Spieler erwartet Dich eine ganz neue Welt:eek:
Gruß Sam
Hübie
2013-05-01, 00:43:21
Ja also wenn ich mal günstig an eine rankomme dann schlage ich zu.
Geht an meinem XL2410T auch 3DVision 2 oder muss das die alte Brille sein? :confused:
SamLombardo
2013-05-01, 08:43:29
Du kannst beide Brillen nutzen, wirst aber keinen Unterschied sehen, da 3D Vision 2 seine Vorteile nur mit Lightboost Monitor ausspielen kann. Das ist der 2410 leider nicht. Macht aber erstmal nichts, das wow Erlebnis ist trotzdem da:wink:.
...du kannst dir also ruhig die 3D V 1 Brille holen, solltest Du sie preiswerter bekommen. Solltest Du irgendwann auf einen Lightboost Monior upgraden, dann kannst Du diese auch weiter nutzen mit den Vorteilen von 3DV 2 (kein Ghosting, heller). Es hängt ausschliesslich am Monitor.
Gruß Sam
Hübie
2013-05-01, 12:22:33
Alles klar. Danke. Die 3dV2 ist ja etwas leichter und bequemer zu tragen. Also wäre diese Wahl ohne hin besser als die erste.
Gabs da nicht mal was mit Treiberhack und Lightboost oder so? :confused:
TobiWahnKenobi
2013-05-01, 12:48:03
lightboost ist technisch bedingt. über die brillen kann man streiten. ich empfinde die zweier nicht bequemer, nicht leichter und das tollste zum schluss -> sie fällt gern auseinander und der rahmen spiegelt.
(..)
mfg
tobi
Hübie
2013-05-01, 12:49:38
Oh. Okay. Aber du weißt schon das man sich nicht auf die Brillen setzen soll? ;D
Ich mach ma looki looki wo es die günstig gibt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.