PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 2GB VRAM (GTX660) - in aktuellen Spielen 100% VRAM Auslastung


Seiten : [1] 2

Alter Sack
2015-02-21, 08:51:24
Hallo Zusammen,

mir ist es jetzt bei 2 Spielen aufgefallen (Dying Light & COD-AW), dass der VRAM immer mit ziemlich gneau 1480 MB gefüllt ist... und zwar egal welche Grafikeinstellungen ich vornehme. Das Spiel bleibt dann trotzdem komplett flüssig spielbar, obwohl der VRAM komplett dicht ist.

Soweit mir gesagt wurde, nutzt meine GTX660 (ähnlich der GTX970) das letzt halbe GByte VRAM nicht, wesalb dann eben genau bis zur 1,5 GByte Grenze gefüllt wird.

Habe zum Vergleich das 15 Monate alte SplinterCell-Blacklist gezockt und trotz sehr guter DirectX-11 Optik benötigt Blacklist nur 700-800 MByte VRAM. Bei den beiden neuen Game wird komplett gefüllt.

Die Frage ist, warum aktuelle Spiele das so tun (unabhängig von Grafikeinstellungen)?
Ich vermute da irgendeinen Zusammenhang mit der NexGen-Abstammung der Programmierung.

-|NKA|- Bibo1
2015-02-21, 08:57:28
Welchen Treiber? Vielleicht ein bug bei den aktuellen Treibern?

Alter Sack
2015-02-21, 09:05:51
Welchen Treiber? Vielleicht ein bug bei den aktuellen Treibern?


Der aktuelle 347.52. War beim vorherigen Treiber (347.25) auch schon so.

Leonidas
2015-02-21, 13:35:58
Eventuell benutzt NV seine Erfahrungen von der 970, um das letzte 0,5GB bei der 660 nicht zu nutzen. Immerhin hat die Karte nur ein 192 Bit Interface, das letzte 0,5GB ist also nur mit 64 Bit und damit verhältnismäßig langsam angebunden. Die 2 GB der Karte waren immer nur eine Marketingmaßnahme.

Alter Sack
2015-02-21, 13:54:19
Was mich wundert ist, dass der VRAM bei den beiden genannten Spielen tatsächlich bis Anschlag gefüllt wird, egal welche Settings ich verwende. Auch auf "low" wird der komplett VRAM dicht gemacht.

Habe in der aktuellen PCGHW einen Artikel gelesen, dass selbst die 4 GB VRAM der GTX980 was 4K-Gaming angeht nicht zukunftssicher sind, aber man davon ausgeht, dass NVidia & Ati bereits an Karten mit 6-8 GB VRAM arbeiten.

Wäre die GTX970 mit 6 GB VRAM und komplett mit 256bit angebunden erschienen, wäre mir das aktuell 400€ wert.
Wenn´s mich nicht zu sehr die kommenden Monate einschränkt, werde ich wohl oder übel meine GTX660 noch behalten, bis die Nachfolgergeneration erscheint.

Mal schauen, wie Dying Light performt (komme dieses Wochenende erst dazu, es richtig zu zocken). Dying Light wäre ja so ein Kandidat, der angeblich extreme Anforderungen an die Hardware stellen soll.

Gast
2015-02-21, 14:47:25
Wäre die GTX970 mit 6 GB VRAM und komplett mit 256bit angebunden erschienen, wäre mir das aktuell 400€ wert.

Wie soll das gehen die Karte hat ein 224+32bit SI! Selbst mit vollen 256bit SI sind 6GB Blödsinn, dann würde man eher auf 8GB gehen und die Chips Pingleich verlöten.

Alter Sack
2015-02-21, 14:53:37
Es geht mir darum, dass 4 GB anscheinend für 4k-Gaming nicht wirklich zukunftssicher sind.

Gast
2015-02-21, 15:09:43
Das war doch schon vorher klar. Der Rest einfach nur Marketing der Hersteller. So wie es @Leonidas bei der 660 beschreibt. Es gibt auch Spiele die 6 oder 8GB füllen, sollten die Entwickler nochmal überdenken. Kann sein die Laden in den VRAM etwas, was da nicht hingehört weil der GDDR5 generell schneller agiert.

Gast
2015-02-21, 22:02:43
Was mich wundert ist, dass der VRAM bei den beiden genannten Spielen tatsächlich bis Anschlag gefüllt wird, egal welche Settings ich verwende.
Das sollte dich nicht wundern. Selbst wenn du eine Grafikkarte mit 4GB oder 8GB hättest, würdest du beobachten können, wie sich der VRam komplett auffüllt. Das liegt imo daran, daß der 'überschüssige' VRAM immer auch zum Cachen von Texturen verwendet wird.
Um die Sache kurz zu machen:
Zum einen werden imo von manchen Gameengines die Texturen im voraus geladen und im VRam bereit gehalten, zum anderen werden mit Texturen belegte Speicherbereiche, welche nicht mehr benötigt werden (weil zB. ein anderer Spielabschnitt betreten wurde), erst dann wieder freigegeben, wenn tatsächlich neue Texturen nachgeladen werden müssen.
Der VRam wird also entweder gleich vollgeladen oder er füllt sich nach einer gewissen Weile automatisch komplett mit Texturen.
Ob ein Spiel tatsächlich an die VRam-Grenze stößt, merkst du erst, wenn es wirklich dramatische Einbrüche bei den FPS gibt. Dann bekommst du Nachladeruckler die in den Sekundenbereich gehen.

4GB für 4K-Gaming.....
das klingt so logisch und überraschend einfach. Wirklich jeder würde sofort erkennen, daß man für 4K-Gaming erst gar nicht mit 2GB VRam angekleckert kommen braucht. Nicht wahr?
Und ob 4GB da mal reichen. Mit 8GB wäre man klar besser aufgestellt. Ich warte ja immernoch 'drauf, daß man im 4K-Marketing auf den Zusammenhang der Zahlen 4 und 16 aufmerksam wird. :naughty:

Ich lache gerade im Stillen in mich hinein, weil dein Post gut zeigt, wie die Leute heute ticken. Sicher werden die Texturen in 4K größer ausfallen und man wird die Kompression erhöhen müssen.
Es liegt imo aber einzig und allein an den Spielen, ob 2/4/8GB VRam für 4K-Gaming ausreichen werden. Was nutzt der ganze 4K-Hype am PC, wenn wir noch in einer Zeit leben, wo aktuelle Konsolen nichtmal auf 1080p kommen?
Die Spiele orientieren sich immer an den technischen Möglichkeiten von Konsolen. Und wohin kommt man denn nun mit den 8GB unified GDDR5 der PS4 wirklich?
Mit Mühe kriegt man damit 1080p@30FPS. Und auf der XB1 gibts noch nichtmal das.

Und du möchtest schon jetzt für 4K-Gaming gerüstet sein?
Ich glaube da können wir uns alle noch ganz entspannt ein paar Jahre zurücklehnen. Ohne ein Crysis 4(K) wird es für die Grafikkartenhersteller sehr schwer werden Argumente für Grafikkarten mit mehr als 2GB VRam zu liefern.

Schrotti
2015-02-22, 00:02:14
Ich hatte bis Januar 2015 zwei 680er mit 2GB im SLi in Benutzung und hatte keine Probleme mit Spielen (in Full HD).

Von daher kann ich sagen das mir 2GB Vram je Karte gereicht haben.

dargo
2015-02-22, 09:08:47
Ich hatte bis Januar 2015 zwei 680er mit 2GB im SLi in Benutzung und hatte keine Probleme mit Spielen (in Full HD).

Von daher kann ich sagen das mir 2GB Vram je Karte gereicht haben.
Und was hat das mit dem Thema GTX660 @192Bit SI und 2GB zu tun?

Alter Sack
2015-02-22, 09:45:04
Also mit Dying Light hatte ich gestern Abend zuerst Probleme, aber nach ein paar Einstellungen flutscht es nun mit 60 FPS.
Früher (vor 15 Jahren) musste man mit derben optischen Einschnitten leben, wenn die Grafikkarte es nicht geschafft. Wenn man heute von ultra-high auf mediem reduziert sieht man das als Laie oft gar nicht.

Trotzdem würde ich gerne dieses Jahr meine Hardware wechseln wollen.
Mein i7-2600k (nonOC) wird im Sommer 4 Jahre alt udn die GTX660 feiert ihren 3. Geburtstag. Vor 10 Jahren hätte man gesagt, dass die Hardare steinalt und unbrauchbar geworden ist. Heute ist das nicht mehr so.


Wenn ich die Wahl hätte, wäre meine nächste CPU eine Core-i mit 6 Kernen und ca. 50% höherer ProKern-Leistung als mein i7-2600k bei einer TDP von max. 80 Watt für den core-i Sechskerner.
Bei der Graka würde mir die GPU-Leistung der GTX970 gepaart mit 6-8 GB VRAM (mind. 256bit angeschlossen) in 14nm bei max. 120 Watt TDP ausreichen, um sofort zuzuschlagen.

Was meint ihr wann man mit Hardware in oben beschriebener Leistung und Ausstattung rechnen kann.

@Gast:
4K-Gaming wäre für mich interessant, wenn Windows selber auch so skalieren würde, wie z.B. MacOS. Bei Windows habe ich nur die Möglichkeit, Schriften per DPI hochzuskalieren, jedoch nicht den ganzen Bildschirm. Wenn ich z.B. eine Fernsteuerung per Remotedesktop oder Teamviewer auf einen anderen PC mache (kommt sehr oft vor), wird das ganze deutliche kleiner.
Das ist der Kackpunkt und deshalb bleibe ich bei meinem 27-Zoll Desktop vorerst noch bei FullHD.
Unabhängig davon wäre mein nächster Bildschirm 27-18 Zoll groß, aht 4k und macht 144hz.
4K deshalb, weil es doppeltes FullHD ist und ich damit notfalls auf FullHD runtergehen kann, ohne das interpoliert werden muss (als Zwischenpixel). Von 4k auf 2k würde bedeuteen,d ass der 4k-Bildschirm für FullHD exakt 2 Pixel zur Verfügung hat und ich damit exakt die Bildqualität meines derzeitigen Bildschirms erreiche, wenn ich z.B. mal ein älteres Spiel zocken will.

grobi
2015-02-22, 09:49:57
Ich verstehe auch dein Problem nicht. Wenn du noch warten willst das 8GB Vram angeboten werden und dann zu einen günstigen Preis. Dann warte halt noch wenn du klar kommst.

Um deinen i7 2600K musst du dir keine Sorgen machen. Warum hast du ihn eigentlich nicht übertaktet? Dafür hättest du keine K -CPU kaufen müssen. Jetzt wird es Zeit mal den Multi zu erhöhen und zu schauen wie weit er kommt.;)

Alter Sack
2015-02-22, 11:09:22
Ich verstehe auch dein Problem nicht. Wenn du noch warten willst das 8GB Vram angeboten werden und dann zu einen günstigen Preis. Dann warte halt noch wenn du klar kommst.

Um deinen i7 2600K musst du dir keine Sorgen machen. Warum hast du ihn eigentlich nicht übertaktet? Dafür hättest du keine K -CPU kaufen müssen. Jetzt wird es Zeit mal den Multi zu erhöhen und zu schauen wie weit er kommt.;)

Weil mir nach knapp 4 Jahren so langsam mal wieder die Finger jucken. Basteldrank eben ;) . Gerade was Grakas angeht, besteht in Zukunft wohl Bedarf durch NexGen.

Den 2600k hatte ich ganz am Anfang mal testweise übertaktet. Irgendwie habe ich den anfangs kaum auf 3,7 Ghz (3,4 ist standard) bekommen.
Außerdem ist der 2600k wie Du schon geschrieben hast ja eigentlich stark genug.
Interessant finde ich da vor allem den Stromverbrauch. Meiner hat noch 95 Watt TDP und will auch beim zocken gut gekühlt werden. Meine Frau hat einen aktuellen Haswell mit 65 Watt TDP drin, der deutlich kühler bleibt. Dasselbe gilt für die GTX750Ti meiner Frau... die Karte braucht noch nicht mal einen extra Stromanschluss und kommt leistungstechnisch bis auf 10-15% an meine GTX660 ran.
Mein Rechner zieht beim zocken ca. 180-200 Watt aus der Dose. Der neue PC meiner Frau bei ähnlichen Werten teils nur 100-130 Watt. Das bedeutet vor allem, dass man gedämmte Gehäuse verwenden kann, ohne dass man sich den Kopf über Lüftung zerbricht.

Für den Wechsel auf eine GTX970 müsste ich meine PC-Lüftung im CoolerMaster Silence Gehäuse komplett überarbeiten oder gleich auf ein anderes Gehäuse wechseln und das will ich vermeiden.
Deshalb bin ich sehr gespannt, was eine von 28nm auf 14nm verkleinerte Maxwell-Karte mit 6GB VRam bei ähnlicher Leistung verbrauchen könnte.

Thunder99
2015-02-22, 15:08:58
Current Gen macht 4GB Sinn, next Gen macht 8GB Sinn da dann die GPU Leistung wahrscheinlich ausreicht um 4k zu befeuern

Alter Sack
2015-02-22, 15:51:06
Nur das 8 GB noch nicht erhältlich ist.

dargo
2015-02-22, 18:00:46
Nur bei Nvidia nicht. :wink:

Gast
2015-02-22, 18:47:35
Bei der Graka würde mir die GPU-Leistung der GTX970 gepaart mit 6-8 GB VRAM (mind. 256bit angeschlossen) in 14nm bei max. 120 Watt TDP ausreichen, um sofort zuzuschlagen.
Aha - daher weht der Wind. Warum sagst du nicht gleich, daß dir nVidia mit der GTX970 den Sommer verregnet hat? ;)

Wenn du unbedingt eine neue Grafikkarte haben mußt, dann hast du in diesem Jahr nur eine einzige Option:
GTX980 oder GTX980Ti (soll angeblich noch kommen).

Was meint ihr wann man mit Hardware in oben beschriebener Leistung und Ausstattung rechnen kann.
Angeblich noch in diesem Quartal - aber der Preis wird dich vermutlich schocken.


@Gast:
4K deshalb, weil es doppeltes FullHD ist und ich damit notfalls auf FullHD runtergehen kann, ohne das interpoliert werden muss
Hoffentlich wird das später dann mal tatsächlich so funktionieren, wie du dir das gerade vorstellst. Wenn du mal genauer darüber nachdenkst, daß dann jeder Pixel mehr als doppelt so groß wird (denn die Zwischenräume zwischen den Pixeln verdoppeln sich ebenfalls), dann kann das wohl kaum optisch mit einem nativen FullHD-Display mithalten.
Es sei denn, du stehst auf dicke schwarze Balken am Rand. ;)

Schau dir einfach mal ein aktuelles ipad mit Retina-Display an. Dann wirst du merken, wie stark sich die Pixeldichte optisch auswirken kann. Ich würde mir das FullHD-Bild auf einem 4K-Display unbedingt vorher anschauen wollen. Am Ende ist die Überraschung groß. Damit man die Pixeltreppchen dann noch weg kriegt, hilft dir vermutlich auch kein noch so gutes AA. Es sei denn du magst matschige Texturen.

Alter Sack
2015-02-22, 19:35:38
Aha - daher weht der Wind. Warum sagst du nicht gleich, daß dir nVidia mit der GTX970 den Sommer verregnet hat? ;)

Wenn du unbedingt eine neue Grafikkarte haben mußt, dann hast du in diesem Jahr nur eine einzige Option:
GTX980 oder GTX980Ti (soll angeblich noch kommen).


Die hatte ich gar nicht auf der Uhr und bin nur durch das 3,5 GB Debakel darauf gestoßen. Habe mich dann aber in das Thema tiefer reingelesen und denke mittlerweile, dass meine nächste NVidia-Karte mind. 6 GB VRAM habens sollte. ATI wäre auch OK unter der Bedingung das die Karte was Verbrauch angeht nicht schlechter ist.


Angeblich noch in diesem Quartal - aber der Preis wird dich vermutlich schocken.


Die Maxwell-Chips sind noch in 28nm gefertigt... genau wie meine GTX660 in 28nm gefertigt wurde.
Daher würde ich auch deshalb noch warten, bis kleinere Strukturen für mehr Leistung/Effizienz sorgen.



Hoffentlich wird das später dann mal tatsächlich so funktionieren, wie du dir das gerade vorstellst. Wenn du mal genauer darüber nachdenkst, daß dann jeder Pixel mehr als doppelt so groß wird (denn die Zwischenräume zwischen den Pixeln verdoppeln sich ebenfalls), dann kann das wohl kaum optisch mit einem nativen FullHD-Display mithalten.
Es sei denn, du stehst auf dicke schwarze Balken am Rand. ;)

Schau dir einfach mal ein aktuelles ipad mit Retina-Display an. Dann wirst du merken, wie stark sich die Pixeldichte optisch auswirken kann. Ich würde mir das FullHD-Bild auf einem 4K-Display unbedingt vorher anschauen wollen. Am Ende ist die Überraschung groß. Damit man die Pixeltreppchen dann noch weg kriegt, hilft dir vermutlich auch kein noch so gutes AA. Es sei denn du magst matschige Texturen.

Mir geht´s darum, dass ich nicht interpolieren will bei FullHD. Mit 5k bekommt man nicht glatt 2:1 runter, bei 4K zu 2K schon. 5K ist daher der komplette Schwachsinn.

gnomi
2015-02-22, 19:56:06
Nvidia wird es locker angehen lassen und nichts bringen, bevor nicht AMD mit einer neuen Generation an Grafikkarten stark vorlegt.
Die 970 ist auch ein wenig die Folge der zu starken Marktmacht.
Ich will nvidia jetzt nicht in Schutz nehmen, aber im Performance Segment besteht schon das Problem, dass die Kunden quasi High End wollen, aber im Gegenzug nur schlecht zahlen.
Alleine die Masse an 970 Käufern, die über 980 Käufer meinten ein Schnäppchen geschlagen zu haben und jetzt blöd reingucken, ist ja auch sehr interessant. :wink:
Hier wollen die Hersteller offensichtlich mittlerweile besser verdienen als früher, wo die zweit- oder drittschnellste Karte nicht so weit zurück lag. (Geforce 4 z.B.)
Und das geht nur über qualitativ gezielte Einsparungen. Funktionsfähige Chips gibt es bei der 900 Serie sicher genug und speziell die 980 fühlen sich OOTB wie gedrosselt an.

Gast
2015-02-22, 21:47:47
Alleine die Masse an 970 Käufern, die über 980 Käufer meinten ein Schnäppchen geschlagen zu haben und jetzt blöd reingucken
:devil:
So schlimm ist es nun auch wieder nicht.
Aber ich erinnere mich noch an solche Artikel:

Die Produkte GTX 980 und GTX 970 machen einen grundlegend ausbalancierten Eindruck, wobei die GTX 970 in Relation zur Rechenleistung über eine größere Speichertransferrate verfügt als die GTX 980.
http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Test-Geforce-GTX-980-970-GM204-Maxwell-1136157/7/
Das sollte man sich heute aus der ex-post Perspektive genüßlich auf der Zunge zergehen lassen. Und das sind ja auch nicht die einzigen Reviews, welche die GTX970 für Gamer als No-Brainer gefeiert haben.

Daß mit der GTX970 etwas nicht stimmen kann, hatte sich hier im Forum eigentlich schon früh abgezeichnet. Ich erinnere nur an zB. diesen KB-Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=557076

Wenn eine Karte schon unter Crysis 3 dermaßen patzt, dann konnte das schon damals kein Treiber-Bug sein. Nur damals waren halt alle noch zu sehr aufgehypt, um sich die verlinkten Benches in diesem Thread mal nüchtern und in aller Ruhe anzusehen. :(
Und jetzt kommt auch noch das kaputte Speicherinterface dazu.
Ich erinnere mich noch dunkel an einen Thread, wo jemand sich gefragt hat: GTX780 oder GTX970. Wenn der sich doch noch die GTX780Ti geholt hat, freut er sich jetzt ein Loch in den Bauch. :)

C'est la vie!

Gast
2015-02-22, 22:05:36
Noch aus dem damaligen Thread:
Wenn meine Regierung mich lässt, dann gehe ich auch gleich auf 2x GTX 980 und schicke meine beiden 680er in Rente.
Da kann man (siehe Foren-Profil) dann ja nur noch gratulieren.

Ich glaube, wenn Schrotti heute mit 2x GTX970 dasitzen würde (3,5 GB SLI *Schenkelklopfer!*), dann wäre er ziemlich am Boden zerstört. Eine GTX970 ist schon ärgerlich genug. Aber mit einer GTX970 SLI macht man sich ja inzwischen einfach nur noch lächerlich. ;)

Leonidas
2015-02-28, 12:15:06
Es geht mir darum, dass 4 GB anscheinend für 4k-Gaming nicht wirklich zukunftssicher sind.


4 GB ist noch nichtmal für FullHD zukunftssicher. Langfristig haben die Spielekonsolen für Auflösungen knapp unter FullHD 4-5 GB Grafikspeicher zur Verfügung, der Rest ist CPU-Speicher und OS-Speicher. Das wird derzeit noch nicht ausgenutzt oder aber es wird nur verschwenderisch ausgenutzt. Es kommt aber die Zeit, wo es bewußt und auf das letzte Bit ausgenutzt werden wird. Dann könnte es dazu kommen, das FullHD auf dem PC dann 6 GB Grafikkartenspeicher genötigt. Und 4K entsprechend viel mehr.

Alter Sack
2015-02-28, 14:48:56
4 GB ist noch nichtmal für FullHD zukunftssicher. Langfristig haben die Spielekonsolen für Auflösungen knapp unter FullHD 4-5 GB Grafikspeicher zur Verfügung, der Rest ist CPU-Speicher und OS-Speicher. Das wird derzeit noch nicht ausgenutzt oder aber es wird nur verschwenderisch ausgenutzt. Es kommt aber die Zeit, wo es bewußt und auf das letzte Bit ausgenutzt werden wird. Dann könnte es dazu kommen, das FullHD auf dem PC dann 6 GB Grafikkartenspeicher genötigt. Und 4K entsprechend viel mehr.

Also müsste es doch eigentlich eine Karte mit der GPU-Leistung einer GTX970, aber mit 6 GB VRAM (und kompletter 256bit Anbindung) sein.

Mich würde brennend für meine Zukunftsplanung interessieren, wann Karten mit den oben beschriebenen Daten und mit einer TDP-max. on 140-150 Watt erhältlich sein werden (unabhängig vom Preis). Das wird nur mit kleineren Strukturen von <20nm funktionieren.

Aktuell muss ich z.B. in Dying Light schon recht massiv nach unten regeln, damit es wirklich flüssig läuft (also z.B. kein AA, keine Umgebungsverdeckung, nur 40-50% Sichtweite), aber nur für 1-2 Spiele lohnt sich kein Upgrade auf einen GTX970/980, zumal diese ja nur 4 GB bieten.

gnomi
2015-02-28, 17:26:14
Man kann ja jetzt schon alternativ eine 780 mit 6GB kaufen und damit auf weniger Rohleistung gegen mehr Texturspeicher setzen.
Die Entwicklung ist ehrlich gesagt schwer vorherzusehen.
4GB mit mehr Leistung wie bei der 980 sind aber wohl besser, da PC Spiele immer skalierbar sind und die meisten vorerst noch bei 1080P bleiben.
Leider, leider muss immer mit Presets oder noch schlimmer maximalen Details getestet werden.
Man kann durch optimale Einstellungen selbst auf Midrange Karten sehr gute Ergebnisse rausholen.
Ich habe auch sehr lange meine 680 genutzt und war immer sehr zufrieden. (nur wegen Umstieg auf 1440P und GSync musste dann einfach deutlich mehr her)

Edit: Sehe gerade, dass AMD die 290X auch schon mit 8GB verkauft. Ist dann natürlich ein noch besserer Deal. :up:
8 GB hätten der 980 auch schon gut gestanden. Aber hier wird wohl eine Extra Karte auf anderem Preisniveau rauskommen, so lange sich die 8er Karten der Konkurrenz jetzt nicht besonders stark verkaufen.

Alter Sack
2015-02-28, 19:28:06
@gnomi

Da ich ein komplett gedämmtes Gehäuse habe (muss an dem Rechner teils den ganzen Tag arbeiten), wäre mir der Stromverbrauch der Karte sehr wichtig. Hoher Verbrauch & gedämmtes Gehäuse hassen nicht zusammen. Deshalb wäre für mich auch wichtig, dass Nvidia & Ati in kleineren Strukturen bauen (derzeit ja die GTX9xer Karten immer noch 28nm, so wie bei meiner GTX660).

Gast
2015-02-28, 20:56:47
Mich würde brennend für meine Zukunftsplanung interessieren, wann Karten mit den oben beschriebenen Daten und mit einer TDP-max. on 140-150 Watt erhältlich sein werden (unabhängig vom Preis). Das wird nur mit kleineren Strukturen von <20nm funktionieren.
Meinst du das im Ernst? - Ich glaube da kannst du warten, bis am Nordpol Bananen wachsen. Das, was du beschreibst, wäre exakt eine GTX970 (TDP 145) mit doppeltem Speicher. Wird sicher direkt 150,-€ mehr kosten. Außer dir würde so etwas kein Mensch bezahlen wollen. Erst recht nicht mit dem aktuellen Speicherproblem dieses Chips.

Wenn du dir dann die ersten Benches von deiner vermeintlichen Traumkarte anschaust (wenn sie denn endlich erhältlich wäre) und sie mit der Leistung dann aktueller Karten unter 4K vergleichst, wirst du sie vielleicht gar nicht mehr haben wollen.

Kaufe dir nur das, was du tatsächlich benötigst. Niemand kann wissen, was die Zukunft bringt. Plötzlich ist dann irgendein neues Feature notwendig, was du unbedingt haben möchtest.
Vielleicht wird nVidia seine GPUs demnächst um 4 Risc-Cores erweitern. Dann hätten Gamer einen zusätzlichen intergrierten Quad mit ungebremstem Zugriff auf den GDDR5 der Grafikkarte für 4K-Gaming. Das ganze wird sicher mal in Richtung PS4 gehen, wo es schon jetzt nur noch unified Memory gibt, auf den dann alle Komponenten zugreifen.
Von solchen Features profitieren dann vermutlich auch nur neuere Spiele.

Die GTX970 wäre vermutlich etwas für dich gewesen - aber so wie sich das ganze im Moment darstellt, ist diese Karte imo eher keine Empfehlung für die Zukunft.
Vielleicht wartest du auf die GTX980Ti und darauf das die GTX980 dann preislich auf GTX970-Niveau fällt? Für die nähere Zukunft wäre das vermutlich mit die beste Option. Es wird dann sicher von Gainward und anderen wieder Phantom-Editions mit doppeltem Speicher geben.
Für echtes 4K-Gaming werden vermutlich dann doch wieder Sachen erforderlich werden, die man heute noch gar nicht kennt. Vermutlich dann auch wieder ein neuer Kopierschutz für 4K-Content etc., so daß die aktuellen Karten dann mehr oder weniger nutzlos sein werden.

Zum Thema TDP noch:
Auf die Herstellerangaben kann man sich imo nicht verlassen. Auf diesen Karten sind Chips verbaut, welche ein Powertarget vorgeben. Zusätzlich wird vermutlich wie beim Furmark kräftig über den Treiber manipuliert, um die Karte in einem möglichst genügsamen Licht dastehen zu lassen. Das sollte daher kein Kaufkriterium sein.
Im Worstcase wird eine Karte mit 150er TDP je nach Anwendung/Auslastung genausoviel Strom benötigen, wie eine Karte mit 250er TDP. Unterschiede gibt es dann nur bei maximaler Last oder tatsächlich optimaler Auslastung. Man kann ja schon jetzt mit der Wahl GPU/CPU-PhysX in manchen Spielen die Leistungsaufnahme beliebig beeinflussen.

Gast
2015-02-28, 21:24:43
Da ich ein komplett gedämmtes Gehäuse habe (muss an dem Rechner teils den ganzen Tag arbeiten), wäre mir der Stromverbrauch der Karte sehr wichtig.
Wenn du an dem PC arbeitest, solltest du dir vielleicht eine CPU mit guter iGPU aussuchen. Zum arbeiten nutzt du dann einfach die iGPU. Zum Spielen dann einfach auf die dedizierte Grafik wechseln.

Wobei ich nicht weiß, warum du da überhaupt ein Problem siehst. Eine GTX980 verbraucht im Idle/2D/Desktop-Betrieb doch nur 11 Watt:
http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/index24.php

Wenn man nicht als Grafikdesigner arbeitet, wird die Grafikkarte doch gar nicht hochgefahren. Oder übersehe ich gerade etwas?

Razor
2015-03-01, 09:21:49
Mann, mann, mann... "Zukunftssicherheit" gab's im PC-Sektor noch nie!

Wieder einmal haben wir im Konsolensektor den Fall, dass man dort mit DEUTLICH mehr VRAM aufwarten kann, als dies bei den PC's der Fall ist. Nätirlich spricht man dort von "unified" RAM, also RAM, der von CPU und GPU gleichermaßen genutzt wird (was übrigens auch ein ganz erheblicher Vorteil ggü. PCs ist ;-). Und bei schlechten Konsolenportierungen kanallts dann eben im PC-Sektor, wie Leo ja schon schrieb. Und warum gibts von AMD "mähr" VRAM? Hmmm? Klar, die bauen ja die Konsolen GPU... wenn auch Effizienz und Leistung generell auf der Strecke bleiben.

Und noch ein Punkt zu "4K".

Mann spricht hier nicht von 2:1 sondern 4:1 - sprich, die GPU samt VRAM müssen gleich die vierfache Menge an Pixeln wuppen, nicht die zweifache. Wenn heute also 4GB gerade mal für FullHD "reichen", müssten es schon 16GB für "4k" sein, gelle? Und das "Skalieren" übernimmt i.d.R. der Bildschirm selbst, der dafür hervorragend geeignet sein sollte. Nicht einfach die Pixel mal vier und gut is... sondern das Berechnen der Zwischenwerte zu benachbarten Pixeln ist angesagt.

Sorry, aber dieses halbgare Gefasel über irgendwelches Marketing-BlaBla geht einem echt auf den Geist... immer wieder.
Fakt ist: der PC-Sektor ist für 4k noch nicht bereit, Konsolen schon gar nicht und im WoZi brauchts das nur für ultra-große Displays... für 85-100 Zoll und mehr.

Razor

Alter Sack
2015-03-01, 09:42:16
Wenn du an dem PC arbeitest, solltest du dir vielleicht eine CPU mit guter iGPU aussuchen. Zum arbeiten nutzt du dann einfach die iGPU. Zum Spielen dann einfach auf die dedizierte Grafik wechseln.

Wobei ich nicht weiß, warum du da überhaupt ein Problem siehst. Eine GTX980 verbraucht im Idle/2D/Desktop-Betrieb doch nur 11 Watt:
http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/index24.php

Wenn man nicht als Grafikdesigner arbeitet, wird die Grafikkarte doch gar nicht hochgefahren. Oder übersehe ich gerade etwas?

Idle ist überhaupt kein Problem. Wie ich gelesen habe, gehen die Lüfter bei der GTX970 im idle komplett aus.

Der Punkt ist, dass ich aktuell (i7-2600k nonOC, 1x HDD, 1xSDD und GTX660 nonOC) beim zocken ca. 190 Watt gesamt verbrauche (gemessen mit Strommessgerät). Diese Wärmeleistung muss die Kühlung demnach maximal abtransportieren können, ohne dass es zu warm im Gehäuse wird.

Eigenartigerweise verbraucht eine GTX970 (TFP 145 Watt, aber 2x PCIE-Strom) ca. 100 Watt mehr im gesamten System gemessen, wie eine GTX660 (140 Watt TDP und 1x PCIE-Strom). Ich müsste also meine Kühlung daraufhin auslegen, dass 50-100 Watt mehr Wärmeleistung abtransportiert werden können und schon muss man sich wieder mit Lautstärke und Kühlung im Gehäuse beschäftigen.

Habe im ansonsten fast komplett geschlossenen und gedämmten Gehäuse 2x 120x120 in der Front zum reinblasen und 1x 120x120 im Heck (raussaugend), sowie 1x 140x140 im top zum raussaugen.
Hatte mir in Bezug auf eine großere Graka und mehr Abwärme überlegt, diese vier Lüfter gegen schnellere (=lautere) zu ersetzen und dann aber mit einem Schalter im Idle komplett auszuschalten. Da ich beim zocken sowieso ein immer ein Headset aufhabe, dürfen die Lüfter da gerne auch wieder etwas lauter werden, nur beim arbeiten eben nicht.
Idle braucht mein Sys. derzeit 70-75 Watt und dafür braucht man vermutlich noch keine aktive Gehäusebelüftung, zumal mein Case im top offen ist und die warme Luft wg. des Kamin-Effekts ja nach oben steigt und aus dem Case entweichen kann.

Alter Sack
2015-03-01, 09:53:10
Meinst du das im Ernst? - Ich glaube da kannst du warten, bis am Nordpol Bananen wachsen. Das, was du beschreibst, wäre exakt eine GTX970 (TDP 145) mit doppeltem Speicher. Wird sicher direkt 150,-€ mehr kosten. Außer dir würde so etwas kein Mensch bezahlen wollen. Erst recht nicht mit dem aktuellen Speicherproblem dieses Chips.

Wenn du dir dann die ersten Benches von deiner vermeintlichen Traumkarte anschaust (wenn sie denn endlich erhältlich wäre) und sie mit der Leistung dann aktueller Karten unter 4K vergleichst, wirst du sie vielleicht gar nicht mehr haben wollen.

Kaufe dir nur das, was du tatsächlich benötigst. Niemand kann wissen, was die Zukunft bringt. Plötzlich ist dann irgendein neues Feature notwendig, was du unbedingt haben möchtest.
Vielleicht wird nVidia seine GPUs demnächst um 4 Risc-Cores erweitern. Dann hätten Gamer einen zusätzlichen intergrierten Quad mit ungebremstem Zugriff auf den GDDR5 der Grafikkarte für 4K-Gaming. Das ganze wird sicher mal in Richtung PS4 gehen, wo es schon jetzt nur noch unified Memory gibt, auf den dann alle Komponenten zugreifen.
Von solchen Features profitieren dann vermutlich auch nur neuere Spiele.

Die GTX970 wäre vermutlich etwas für dich gewesen - aber so wie sich das ganze im Moment darstellt, ist diese Karte imo eher keine Empfehlung für die Zukunft.
Vielleicht wartest du auf die GTX980Ti und darauf das die GTX980 dann preislich auf GTX970-Niveau fällt? Für die nähere Zukunft wäre das vermutlich mit die beste Option. Es wird dann sicher von Gainward und anderen wieder Phantom-Editions mit doppeltem Speicher geben.
Für echtes 4K-Gaming werden vermutlich dann doch wieder Sachen erforderlich werden, die man heute noch gar nicht kennt. Vermutlich dann auch wieder ein neuer Kopierschutz für 4K-Content etc., so daß die aktuellen Karten dann mehr oder weniger nutzlos sein werden.

Zum Thema TDP noch:
Auf die Herstellerangaben kann man sich imo nicht verlassen. Auf diesen Karten sind Chips verbaut, welche ein Powertarget vorgeben. Zusätzlich wird vermutlich wie beim Furmark kräftig über den Treiber manipuliert, um die Karte in einem möglichst genügsamen Licht dastehen zu lassen. Das sollte daher kein Kaufkriterium sein.
Im Worstcase wird eine Karte mit 150er TDP je nach Anwendung/Auslastung genausoviel Strom benötigen, wie eine Karte mit 250er TDP. Unterschiede gibt es dann nur bei maximaler Last oder tatsächlich optimaler Auslastung. Man kann ja schon jetzt mit der Wahl GPU/CPU-PhysX in manchen Spielen die Leistungsaufnahme beliebig beeinflussen.

Die beschrieben Graka ist natürlich Träumerei, dass ist mir bewusst ;) .
Habe mir gestern mal die Roadmaps von Intel/AMD/NVidia hier auf der 3DC-Webseite angeschaut und da wird wohl dieses Jahr bei den Grakas nicht mehr viel kommen (außer vielleicht im HighEnd-Bereich).
Im CPU-Bereich sieht´s was Leistungssprünge außerhalb des kosmetischen Bereichs angeht auch schlecht aus.

EIGENTLICH kann ich also meine GTX660 noch weiternutzen, muss aber zunehmend mit Problemen wg. NexGen-Titeln rechnen, weil diese einfach für mehr VRam optimiert wurden (für mich derzeit ganz klar in COD-AW und Dying-Light zu sehen und ich will unbedingt noch Far Cry 4 zocken).

EIGENTLICH wäre es aber auch egal, ob ich mir jetzt oder in 6 Monaten eine GTX970 oder GTX980 holen, denn die nächsten 12 Monate wird wohl kaum was wirklich neues rauskommen, oder was meint Ihr?

EIGENTLICH ist mir die die GTX970 aber für das Desaster mit den 3,5 GB doch zu teuer (mind. 360€) (http://www.amazon.de/s/ref=nb_sb_noss?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&url=search-alias%3Daps&field-keywords=asus+gtx970). Wäre der VRam der GTX970 wie versprochen mit vollen 256bit und 4 GB angebunden, wäre die Entscheidung vielleicht schon gefallen. Ich könnte auch zur GTX980 greifen, wo 4 GB voll nutzbar sind, aber unabhängig vom Preis verbraucht die Karte nochmal deutlich mehr und ultra-silent im Case wäre damit wohl endgültig Geschichte (zumindest mir LuKü).

Noch eine Frage:
Kann man aktuell derzeit (wir haben immerhin schon Anfang März ;) ) ungefähr abschätzen, wann die nächsten Karten von NVidia oder AMD rauskommen? Für mich wäre eine Karte mit der Leistung einer GTX970 und mind. vollen 4 GB interessant, wobei die TDP nicht höher sein sollte, als bei der GTX970.

Man merkt bei mir doch sehr deutlich, dass NVidia mit dem 3,5GB-Desaster "wirkt". Ich hätte ohne diesen Sche*** sicherlich schon aufgerüstet.

Alter Sack
2015-03-01, 10:02:06
Mann, mann, mann... "Zukunftssicherheit" gab's im PC-Sektor noch nie!

Wieder einmal haben wir im Konsolensektor den Fall, dass man dort mit DEUTLICH mehr VRAM aufwarten kann, als dies bei den PC's der Fall ist. Nätirlich spricht man dort von "unified" RAM, also RAM, der von CPU und GPU gleichermaßen genutzt wird (was übrigens auch ein ganz erheblicher Vorteil ggü. PCs ist ;-). Und bei schlechten Konsolenportierungen kanallts dann eben im PC-Sektor, wie Leo ja schon schrieb. Und warum gibts von AMD "mähr" VRAM? Hmmm? Klar, die bauen ja die Konsolen GPU... wenn auch Effizienz und Leistung generell auf der Strecke bleiben.

Und noch ein Punkt zu "4K".

Mann spricht hier nicht von 2:1 sondern 4:1 - sprich, die GPU samt VRAM müssen gleich die vierfache Menge an Pixeln wuppen, nicht die zweifache. Wenn heute also 4GB gerade mal für FullHD "reichen", müssten es schon 16GB für "4k" sein, gelle? Und das "Skalieren" übernimmt i.d.R. der Bildschirm selbst, der dafür hervorragend geeignet sein sollte. Nicht einfach die Pixel mal vier und gut is... sondern das Berechnen der Zwischenwerte zu benachbarten Pixeln ist angesagt.

Sorry, aber dieses halbgare Gefasel über irgendwelches Marketing-BlaBla geht einem echt auf den Geist... immer wieder.
Fakt ist: der PC-Sektor ist für 4k noch nicht bereit, Konsolen schon gar nicht und im WoZi brauchts das nur für ultra-große Displays... für 85-100 Zoll und mehr.

Razor

Fakt ist (wie ihr schon geschrieben habt), dass die PS4/XOne aktuell für eine Inflation der Leistungsanforderung gesorgt hat. Vermutlich muss man jetzt das neue Leistungsniveau erstmal erreichen und hat dann für längere Zeit erstmal Ruhe. Die Frage wäre für mich ist jetzt, ob die 3,5 GB der GTX970 dauerhaft ausreichen können, um in FullHDD glücklich zu werden (mir reichen in der Regel einfach AA/AF-Modi aus).

4k:
OK, ich gebe mich geschlagen. 4K-Gaming (und vor allem 4K-Desktop) sind wohl einfach noch zu weit in der Zukunft (wird wohl so richtig erst in 2-5 Jahren zum Durchbruch kommen). Sehe es teils auf den Macbooks mit Retina: wenns mal blöde läuft wird Windoof im Parallels auf einmal winzig klein dargestellt ;) (habe aber selber kein Mac, nur beim Kunden gesehen).

Gast
2015-03-01, 10:11:32
1.Und warum gibts von AMD "mähr" VRAM? Hmmm? Klar, die bauen ja die Konsolen GPU... wenn auch Effizienz und Leistung generell auf der Strecke bleiben...
2.Und das "Skalieren" übernimmt i.d.R. der Bildschirm selbst...

Razor
1. Wie ein 8Kerner und eine 7870+ die dann zusammen 100w verbrauchen sind in einer Komsole die dem PC Konkurrenz macht zuviel. Kannst du diesen Unsinn mal entwirren.
2. Noch nie einen größeren Blödsinn gelesen! Seit wann macht das Display irgendetas anderes als seine Referenzen an die GPU zu melden.

Dann sollte man auf seiten nV nicht ständig 4k bewerben. Und ja bei AMD gib es mehr VRAM und das schon länger+breiterem SI was ja bei 4k wichtig wäre, dass dieses dann mehr verbraucht weiss man auch nicht erst seit heute. Es gibt sogar Konsumerkarten mit 8GB VRAM und 512bit SI die in 4k eine 150-550 Euro teurere NVidia Karte alt aussehen lassen.

Joh, man man man...warum verbreitet man hier bloss immer solchen Bullshit! Compressionsverfahren ersetzen nur dann Bandbreite wenn sie auch Anwendung finden. Nur soviel dazu.

Schrotti
2015-03-01, 11:31:34
Der Punkt ist, dass ich aktuell (i7-2600k nonOC, 1x HDD, 1xSDD und GTX660 nonOC) beim zocken ca. 190 Watt gesamt verbrauche (gemessen mit Strommessgerät). Diese Wärmeleistung muss die Kühlung demnach maximal abtransportieren können, ohne dass es zu warm im Gehäuse wird.

Eigenartigerweise verbraucht eine GTX970 (TFP 145 Watt, aber 2x PCIE-Strom) ca. 100 Watt mehr im gesamten System gemessen, wie eine GTX660 (140 Watt TDP und 1x PCIE-Strom). Ich müsste also meine Kühlung daraufhin auslegen, dass 50-100 Watt mehr Wärmeleistung abtransportiert werden können und schon muss man sich wieder mit Lautstärke und Kühlung im Gehäuse beschäftigen.


Dann wäre ja eine 960 mit 4GB, so die Karten denn kommen, genau das richtige für dich.

GeForce GTX 960 mit 4 GB erscheint im März (http://www.computerbase.de/2015-01/geforce-gtx-960-mit-4-gb-erscheint-im-maerz/)

30% mehr Leistung bei vergleichbarer Verlustleistung.

Gast
2015-03-01, 11:47:07
Dann wäre ja eine 960 mit 4GB....30% mehr Leistung bei vergleichbarer Verlustleistung.

Definitiv ist soetwas nicht moeglich! 30% mehr Leistung bei gleicher Verlustleistung...wie soll das gehen? Durch mehr Speicher? Der verbraucht auf jeden Fall mehr Strom! Denke eher nicht. Inno3d wollten auch eine TitanZ mit eigenem Kuehlerlayout veroeffentlichen! Gibt es die?

Wenn die Verlustleistung bei mehr VRAM gleich bleibt, wird der Takt gesenkt und dann sind die Karten meist langsamer, als Modelle mit weniger VRAM. Der Vorteil verpufft.

Alter Sack
2015-03-01, 12:27:59
Die GTX960 hat nut 128bit Speicherinterface und leistungstechnisch ist die Karte auch ehern ald sidegrade ohne Leistungsreserven zur GTX660 snzusehen (trotz 4GB).
Die GTX970 mit echten 4GB und komplett angebundenen 256bit wärs gewesen, aber Nvidia musste die GTX970 ja unbedingt kastrieren.

EDIT:
NVidia wird das schon sehr genau so gewollt haben. GTX970 Besitzer werden durch die Speicherkastration wohl früher wieder upgraden müssen, als GTX980 User. Man hat sich NexGen angeschaut und mit nur 3,5 GB absichtlich an dem wichtigen Punkt (VRam) beschnitten. ... krass nur, dass man das verheimlicht hat.
AMD-Karten hätte ich mir eigentlich nicht mehr angeschaut, da bei mir nach der 4850 die GTX285 und danach die GTX660 kam. Bin jedenfalls derzeit sehr gespannt, wie AMDs Fiji werden wird. NVidia hat hier den Bogen einfach überspannt...

Gast
2015-03-01, 13:35:16
Wer weiß was Nvidia mit der 970 als GM 204 noch so vorhat. Ggf. eine 970 mit vollen SI und vollem parallel ansprechbaren VRam im Sinne von Lese und Schreibzugriffe an einem 256bit SI bei 4 GB VRam launchen? Die würde als 970ti OC dann ja der 980 Referenz@default sicher Konkurrenz machen können. Bzw. die Lücke von ca. 20% Leistungsunterschied gut füllen.

Bevor ich mir eine 960 4 GB in den Rechner hänge, würde ich definitiv über eine 970 3,5 GB nachdenken. Scheint für mich das rundere Produkt zu sein wenn man auflösungstechnisch erst mal nicht mehr als 1080p anstrebt. Dürfte auch mit einer 960 128bit SI und 4 GB VRam definitiv nicht mehr sein. Die kostet bestimmt auch 250-275$.

Die moralische Zwickmühle des nicht ausreichenden Kommunizieren von Spec's + strategischer Absichten die sich hinter einem Designansatz verbergen können, lass ich da mal außen vor. Für 1080p ist die 970 sicher gut geeignet, 2k-4K gibt sie so sicherlich nicht uneingeschränkt her. Da hat Nvidia einfach mal versucht den Markt und die eigene Käuferschaft zu manipulieren, dass im Sinne der Schaffung künftiger oder zukünftiger Kaufanreize. Ziemlich ausgefuchst wenn mich jemand fragt. Dier Käufer der 970 waren denen mal egal.

Schön zu sehen wie man eine ganze Gemeinde mit tollen Spec's hinters Licht führen kann. Abartig wie da gefeiert wurde! Fing ja schon bei der TDP-Angabe des Maxwell ala GM204 an.

Gast
2015-03-01, 18:15:12
Bevor ich mir eine 960 4 GB in den Rechner hänge, würde ich definitiv über eine 970 3,5 GB nachdenken. Scheint für mich das rundere Produkt zu sein wenn man auflösungstechnisch erst mal nicht mehr als 1080p anstrebt.
Eben nicht.

Jede noch so erbärmliche 1080p-taugliche Karte performt imo besser, als eine Karte bei der 20% vom VRAM nur mit 32 Bit angebunden sind. Weißt du überhaupt was das bedeutet? Hier lesen:

Messwerte aber zeigen Ruckler und ein Drittel weniger Bilder pro Sekunde.
http://www.golem.de/news/fehlender-cache-verursacht-ruckler-nvidias-beschnittene-geforce-gtx-970-stottert-messbar-1501-111985.html

Das bedeutet je nach Windowsversion statt 60 FPS nur 40FPS und obendrauf gibts noch ständig Aussetzer und Freezes. Na besten Dank. Und was soll man dafür bezahlen? 350 €? Geht es noch?
Und das nVidia Willens oder überhaupt in der Lage ist, den 32-Bit Bremsklotz über den Treiber abzuschalten glaubt hier doch wohl hoffentlich keiner. Denn dann wäre die Sammelklage in den USA für nVidia quasi schon verloren.

Ich kann mir gut vorstellen, wie man bei nVidia im stillen Kämmerlein gerade nach einer Ersatzverwendung für die 512 MegaByte GDDR5 sucht. Mein Vorschlag: Wie wäre es mit einem 512 MegaByte großen FIFO-Cache für HDMI-Sound? Vielleicht könnte man den nutzlosen Speicher auch als Shadow-Ram umfunktionieren. Da könnte man dann vermutlich 512(!!) mal das BIOS der GTX970 reinkopieren. :ulol:

Das einzige was mich wirklich schockt ist, daß die Fachpresse davon nix mitbekommen hat. Einfach schnell einen Bench durchgezogen und schnell ab in die Weihnachtsferien. Das sind ja nicht irgendwelche Praktikanten die dort sitzen und einfach nur schnell schnell die Herstellerangaben vom Karton abpinnen. Das sind Technik-Experten, die jede Hardware akribisch prüfen, bevor sie ihren Award vergeben.
Zustände wie beim ADAC!!
Bin ja schonmal gespannt, wer Grafikkartenhersteller des Jahres wird.....
Ach nee.
Nicht wirklich.
:D

Schrotti
2015-03-01, 19:22:00
Die GTX960 hat nut 128bit Speicherinterface und leistungstechnisch ist die Karte auch ehern ald sidegrade ohne Leistungsreserven zur GTX660 snzusehen (trotz 4GB).



http://abload.de/img/gtx96012si4.jpg (http://abload.de/image.php?img=gtx96012si4.jpg)

Gast
2015-03-01, 19:41:42
Wüsste nicht das eine GTX670 durch 2GB mehr Speicher jetzt um 30% beschleunigt wurde. Mehr kann die 960 auch nicht. (eher weniger, wenn eine breiteres SI hilfreich wäre)

Selbst eine 280x dürfte dem @alten Sack vollkommen reichen um von seiner 660 einen ordentlichen Sprung zu machen und die hat schon mal 3GB VRAM. (was für 180p alle male reicht, das wird doch hier zuweilen uberbewertet und gehypt).

Frag mich bloss was die 95% zufriedenen 970 Besitzer machen? haben ja nur 5% die Karte zurückgegeben.

Alter Sack
2015-03-01, 19:54:40
Wüsste nicht das eine GTX670 durch 2GB mehr Speicher jetzt um 30% beschleunigt wurde. Mehr kann die 960 auch nicht. (eher weniger, wenn eine breiteres SI hilfreich wäre)

Selbst eine 280x dürfte dem @alten Sack vollkommen reichen um von seiner 660 einen ordentlichen Sprung zu machen und die hat schon mal 3GB VRAM. (was für 180p alle male reicht, das wird doch hier zuweilen uberbewertet und gehypt).

Frag mich bloss was die 95% zufriedenen 970 Besitzer machen? haben ja nur 5% die Karte zurückgegeben.

Die meisten werden davon gar nichts mitbekommen haben.
Habe erst letzte Woche jemanden bei Alternate gesehen, der sich ne neue GTX970 abgeholt hat.
Den Leute wird´s sicherlich auch nicht sofort auffallen, aber wenn die Games später eigenartig "unrund" laufen, wird halt ne neue NVidia gekauft.

Gast
2015-03-01, 20:11:08
Wenn Nvidia grundsätzlich etwas anbietet das den letzten MC deaktiviert bzw. die Anbindung des letzten Chips und sie die Karte als reine 3,5GB vermarkten und dem Käufer bisher etwas wiedergeben. Spiel, Rückkaufswerte, Vorteile auf den Kauf einer anderen Karte, ist das alles halb so wild.

Hier schreit man wie irre, was ja auch zu erwarten ist. Irgend jemand muss ja darauf hinweisen. (und man sollte es auch tun) Den Normalo stört das Thema überhaupt nicht, bei dem ruckelt nichts! Wie auch?

Mehr Ram bedeuet einfach nur mehr verfügbare Highres-Texturen im Speicher, heisst die werden eben seltener verworfen. Zuweilen wird hier aber auch überbewertet. Natürlich liegen die Texturen auf der PC Spiele Plattform seit lämgerem in besserer Quali vor als auf Konsolen (war aber schon immer so). Wenn man das aber ordentlich optimiert, ist das alles kein Problem, auch nicht mit 2 oder 3GB VRAM. Das macht nur keine Sau mehr richtig.

Ich sags nochmal, für dich reicht eine 280x vollkommen oder eine 770 wenn du nicht 4K und all solch Zeugs spielen willst oder professionell Bilder bearbeitest. 4 GB Vram braucht der mit dem 22 Zoll Monitor doch gar nicht. Und das dürfte wohl die Hälfte aller Spieler sein. 1680x... oder 1920x... dafür reicht auch die 970 allemale. Immerhin schlägt sie zuweilen eine 290x in 1080p. Da hilft auch keine VRAM oder dickes SI.

Ich würde eine 960/970 nur in Erwägung ziehen wenn ich auf Windows 10 wechseln will, eine potente CPU habe und unbedingt DX12 oder vergleichbares genießen will. Bis das alles greift sind wir zwei GPU Generationen weiter! Heißt nimm eine (gebrauchte) 280x und gut.

Die 960 ist eine Karte die die Welt nicht braucht.

Gast
2015-03-01, 20:35:37
Habs mir gerade eben im Heaven Benchmark angesehen, Quali: Ultra; Tesselation: Extreme; 280x; da werden 1,3GB VRAM belegt und knapp 2GB Arbeitsspeicher gefüllt unter 1920x1080+Windows. Fps bei 50-55 mit leichtem OC + i5 2500k. Weiß jetzt nicht wo das Problem sein soll? Als wenn alle GPUs auf einmal 4K tauglich sind!

Da reicht in der Tat sogar die 960 mit 2GB VRAM. Zumal man dort mit Kompressionsverfahren noch etwas Bandbreite sparen kann.

Schrotti
2015-03-01, 21:20:33
Habs mir gerade eben im Heaven Benchmark angesehen, Quali: Ultra; Tesselation: Extreme; 280x; da werden 1,3GB VRAM belegt und knapp 2GB Arbeitsspeicher gefüllt unter 1920x1080+Windows. Fps bei 50-55 mit leichtem OC + i5 2500k. Weiß jetzt nicht wo das Problem sein soll? Als wenn alle GPUs auf einmal 4K tauglich sind!

Da reicht in der Tat sogar die 960 mit 2GB VRAM. Zumal man dort mit Kompressionsverfahren noch etwas Bandbreite sparen kann.

Mein reden. Aber erkläre das mal dem anderen Gast. Scheint ein richtiger Hater zu sein.

@Mirko
2015-03-01, 21:29:03
Passt zwar nicht in den NVidia Bereich aber wer hier nicht zuschlägt ist doch selbst Schuld?

http://www.mindfactory.de/product_info.php/4096MB-HIS-Radeon-R9-290X-iPower-IceQ-X2-Aktiv-PCIe-3-0-x16--Retail-_958004.html

Wer die nächsten Jahre kein Update auf volle spielerelevante 4K will, naja kommt damit noch lange aus. Stromverbrauch, egal...kann man auch drücken über PT.

@Schrotti
Die 3GB sind jedenfalls etwas zukunftssicherer (für 1080p). Ansonsten reichen auch 2GB Karten.

Die IceQ ist jedenfalls eine ordentliche Karte.

Razor
2015-03-02, 07:02:11
Dann wäre ja eine 960 mit 4GB, so die Karten denn kommen, genau das richtige für dich.
30% mehr Leistung bei vergleichbarer Verlustleistung.
Also in diesem Punkt bin ich doch sehr, sehr misstrauisch.
Selbstverständlich lasse ich mich gerne überraschen ;)

4GB mit nur 128Bit SI?
Würde mich doch sehr wundern, wenn das Sinn macht.

Razor

gnomi
2015-03-02, 11:31:57
Ich finde solche Nachstellungstests, die absichtlich die Spiele bei maximalen Details übers Limit laufen lassen und noch dazu keine spielbaren FPS Raten bringen, aber jetzt auch alles andere als fair.
Es würde mich wundern, falls Unity, Far Cry 4, Call of Duty oder Evolve beispielsweise den Texturspeicher in 1080P mit PP AA auf der 970 mit 3,5 GB bereits sprengen.
Und falls dem so wäre, erwarte ich von nvidia, dass die entsprechende GFE Einstellung ein Herabsetzen der Texturauflösung empfiehlt und das Problem dann auch Geschichte ist.
Scheinbar regeln viele Spiele jedoch auch selbst schon das Texturmanagment und zeigen verschiedene Detailstufen bei unterschiedlicher VRAM Bestückung an.
Teilweise nutzen Karten auch gleich den vollen VRAM wie Lords of the Fallen. Hier könnte also der Entwickler bei einer Karte wie der 970 Mist bauen.

So schlecht ist die Karte alles in allem nun auch wieder nicht.
3,5 GB Speicher sind schließlich voll nutzbar, also definitiv mehr als bei 780 normal oder 780TI. Für gewöhnlich werden also Spiele besser als auf diesen laufen und damit ist die Karte zukunftssicherer.
Ich glaube auch nicht, dass eine Neuauflage dieser Karte kommt.
Eher schon wird die 980 nach oben hin ergänzt werden und damit mit der Zeit günstiger.
Beispielsweise könnte man ein TI/Titan Modell bringen, was die Taktraten des Chips wie bei Custom Karten mehr ausreizt.
Falls AMD jetzt mehr aufbietet und erfolgreicher wird, werden auch die 8GB dann kommen.

SamLombardo
2015-03-02, 12:50:55
EIGENTLICH wäre es aber auch egal, ob ich mir jetzt oder in 6 Monaten eine GTX970 oder GTX980 holen, denn die nächsten 12 Monate wird wohl kaum was wirklich neues rauskommen, oder was meint Ihr?


Hä? Sollten denn nicht diesen Monat die neuen NV karten kommen? Oder hab ich was verpasst?

Alter Sack
2015-03-02, 13:07:05
Hä? Sollten denn nicht diesen Monat die neuen NV karten kommen? Oder hab ich was verpasst?

Wusste ich nicht. Welche Karten sollen in Kürze erscheinen?
Die GTX9x0er Serie ist jetzt ca. ein knappes halbes Jahr draußen.

Trotzdem stehe ich NVidia aktuell ehern skeptisch gegenüber.

Die GTX970 hat eigentlich durch den "3,5 GB bug/feature" nur verbrannte Erde hinterlassen. Auch wenn man sich kaum mit der Materie beschäftigt und sich wenig auskennt, rät einem doch jeder vom Kauf dieser Karte ab. Die GTX970 hat quasi einen echten Schönheitsmakel.
Wenn NVidia schlau ist, hauen die eine GTX975 (Quasi Version 2 der GTX970) als neues Produkt und vollen 4GB 256bit raus. Wg. mir aus sollte die GPU lieber weniger hoch takten, um die Speed zu limitieren. Das hätte wenigstens auch noch einen positiven Effekt auf den Stromverbrauch.

SamLombardo
2015-03-02, 13:14:23
Nun ja, der GM200 soll wohl um jetzt im März erscheinen. (http://hexus.net/tech/news/graphics/79874-nvidia-reveal-range-topping-gm200-gtc-march/). Sicher wird eine Titan 2 erstmal exorbitant teuer werden, aber vielleicht ist das ja doch nicht soo schlimm (soll ja ein reiner Gamer Chip ohne Profi Ambitionen sein) und außerdem wird sicher auch wieder ein Ti Ableger kommen.

Wie auch immer, mit einem 980 Kauf würde ich zum jetzigen Zeitpunkt lieber warten. Mit GM200 könnte sich am Preisgefüge durchaus was ändern.

Alter Sack
2015-03-02, 13:17:39
...
Teilweise nutzen Karten auch gleich den vollen VRAM wie Lords of the Fallen. Hier könnte also der Entwickler bei einer Karte wie der 970 Mist bauen.
....

Das Gefühl habe ich ja auch, so wie ich es im ersten Posting geschrieben habe. COD-AW & DyingLight belegen VRAM bis zum Anschlag (also bei meiner GTX660-2GB demnach 1,5 GB, weil meine GTX660 wohl auch die letzten 0,5 GB krum angebunden hat).
Speziell mal COD-AW: da sehe ich nicht, wo der ganze VRAM notwendig ist. Das Game sieht einfach nicht "high-end" aus. Wenn ich dagegen mal ein SplinterCell-Blacklist nehme, was nur 0,7 bis 0,8 GB VRAM nimmt, aber optisch im Vergleich einfach deutlich geiler aussieht, vermute ich, dass NExGen-Konsolenports tatäschlich die Angewohnheit haben, den VRAM komplett vollzuklatschen (gerade bei nur 2 GB VRAM.

Für mich als Laie sieht es so aus, als ob NVidia die für NexGen-Ports notwendigen VRAM-Anforderungen (gerade auch in Bezug auf 4K) komplett verpennt haben. Ich hätte jedenfalls ein komisches Gefühl dabei, mir für 360€ (970) oder ab 600€ (980) ne Grak zu holen, die was 4K angeht nicht wirklich zukunftstauglich ist. Dabei gehe ich davon aus, dass vor allme GTX980-Käufer echte High-End-Gamer sind und auf Grafik sehr viel Wert legen - genau diese Käufer werden über kurz oder lang auf 4K-Gaming umsteigen und hätten sich mit der GT970/980 keine zukunftssichere Graka (für schweineviel Geld) gekauft.

Um es kurz zu machen:
Bei AMD bekomme ich für 400€ eine R290X mit 8 GB. Da wurde seitens AMD wenigstens mitgedacht, wo NVidia die Zukunftstauglichkeit ihrer HighEdn-Karten beschneidet.

Alter Sack
2015-03-02, 13:20:07
Nun ja, der GM200 soll wohl um jetzt im März erscheinen. (http://hexus.net/tech/news/graphics/79874-nvidia-reveal-range-topping-gm200-gtc-march/). Sicher wird eine Titan 2 erstmal exorbitant teuer werden, aber vielleicht ist das ja doch nicht soo schlimm (soll ja ein reiner Gamer Chip ohne Profi Ambitionen sein) und außerdem wird sicher auch wieder ein Ti Ableger kommen.

Wie auch immer, mit einem 980 Kauf würde ich zum jetzigen Zeitpunkt lieber warten. Mit GM200 könnte sich am Preisgefüge durchaus was ändern.

GTX Titan ist einfach zu teuer. Ohne jetzt ein Fachman zu sein, würde mir eine GTX970 mit 6-8 GB in echten 256bit Anbindung ein wirklich sehr gutes Bauchgefühl was die Zukunftssicherheit angeht bescheren, wenn diese Karte max. 400€ kosten würde.

SamLombardo
2015-03-02, 13:22:45
Deswegen sag ich ja: Mal die drei Wochen noch warten was GM200 bringt:).

Btw@ zu Aussagen wie "4K Gaming wird erst in 2,5 Jahren relevant" kann ich nur sagen: Quatsch. Wenn man nicht gerade wettkampforientierter Multiplayerspieler ist, der am liebsten mit 100+ fps unterwegs ist, bietet 4k auch heute schon einen tollen Mehrwert. Ich spiele mauf meinem Philips BDM4065uc mit einer Single 780oc, und egal ob Far Cry 4 oder CoH2 oder DA Inquisition oder Arma3: Das ist alles echt gut spielbar. Natürlich nicht @60fps aber trotzdem. Das einzige Game was in 4K wirklich unspielbar langsam wird ist Unity. Insgesamt war ich positiv überrascht, da hätte ich echt mehr Probleme befürchtet. Und der BQ Gewinn ist wirklich:eek:. Aber das nur am Rande.

Gast
2015-03-02, 13:24:55
Was bringen dir die 8GB der 290X, wenn die Treiber deine Leistung einschränken?

Hier CoD:AW im Vergleich:
http://pclab.pl/art57717-6.html

Ja, da biste superduper zukunftstauglich mit deiner Radeon-Karte.

Wer weiß, wieviele Konsolenports noch kommen, deren Treiberlast auf AMD Karten zu deutlich schlechteren Frames führen. Auf einer GTX970 kann man wenigsten die Texturstufe um eine Verringerung.

aufkrawall
2015-03-02, 13:25:56
Wird man weit von den 400€ entfernt sein.
Viel VRAM gibts mit der 290X Tri-X New für besagten Preis mit einem vernünftigen Custom Design.
250W TDP ist jetzt auch kein Beinbruch.

Alter Sack
2015-03-02, 13:32:49
Deswegen sag ich ja: Mal die drei Wochen noch warten was GM200 bringt:).

Wg. des miesen Dollarkurses sind die Karten sowieso etwas zu teuer.
Aktuell hätte ich auch nur zwei Spiele (bin Shooterfan), die mich interessieren und für die mn theoretisch mehr VRAM braucht (Far Cry 4 und Dying Light)

FC4 habe ich noch nicht gezockt (warte auf Budget-Angebote).
Dying Light lässt sich mit Medium-Settings wunderbar flüssig in FullHD zocken (leider nur komplett ohne AA).

Solange das Angebot an neuen Grakas nicht stimmt (VRAM, Preis/Leistung und Verbrauch), wird die GTX660 auch weiterhin gute Dienste in meinem Rechner tun. Wäre die erste Karte, die 3 Jahre (im Sept.15) oder länger im Rechner bleibt.

Gleiches gilt für meine dieses Jahr 4 Jahre alt werdende CPU (i7-2600k). Da Intel dermaßen auf die Bremse getreten ist, macht es derzeit leistungstechnisch einfch keinen Sinn, auf einen i7-5xxx zu wechseln.

Vor 10-15 Jahren gab es alle zwei Jahre echte Gründe für ein Komplett-Upgrade - dieses Geld will NVidia/AMD/Intel sich nicht mehr regelmäßig bei mir abholen, schade eigentlich ;) .

Alter Sack
2015-03-02, 13:38:40
Wird man weit von den 400€ entfernt sein.
Viel VRAM gibts mit der 290X Tri-X New für besagten Preis mit einem vernünftigen Custom Design.
250W TDP ist jetzt auch kein Beinbruch.

Die Tri-X habe ich mir bereits angeschaut, mal abgesehen von der TDP scheint mir die Karte mit 8 GB VRAM echt zukunftsfähig zu sein. Ich bin jemand, der in Spielen gerne auf irgendwelche Shader-Effekte usw verzichtet und stattdessen viel mehr Wert auf sehr hoch aufgelöste Texture, AA & AF legt. Mein Grafik-Profil wäre demnach ehern VRAM-lastig, als GPU-lastig.

28 Zoll 4K TFTs (http://www.amazon.de/Asus-PB287Q-Monitor-Reaktionszeit-schwarz/dp/B00JEZTC3I/ref=sr_1_1?ie=UTF8&qid=1425299768&sr=8-1&keywords=4k+pc+monitor+27+zoll) gibts schon für 475€ und sind damit für Gaming-Enthusiasten sehr interessant (mein 27" 1080P TFT war vor 3 Jahren immerhin 279€ teuer).
Spätestens mit der Windows 10 Aufrüstwelle im Sommer/Herbst/Winter werden 4K-Bildschirme langsam salonfähig werden. Wenn sich bis dahin am Graka-Markt nichts tut, wird AMD wohl einen steigenden Marktanteil durch 8GB-Karten für sich verbuchen können ;) ... zu gönnen wäre es ihne jedenfalls.

aufkrawall
2015-03-02, 13:47:22
Ich fürchte, der Effizienz-Wahn wird das weiterhin verhindern.
Außer, Fiji kommt im Herbst auch mit 8GB. Ein starkes Zugpferd ist ja sehr wichtig, wie NVs gute Absatzzahlen im mittleren Leistungsbereich zeigen. Die Dinger sind nicht unbedingt besser als die AMDs, die 660 (Ti) mit Krüppelinterface etwa ist heutzutage nur noch lachhaft im Vergleich zu einer 7950 oder 7870.

Alter Sack
2015-03-02, 14:00:19
Ich fürchte, der Effizienz-Wahn wird das weiterhin verhindern.
Außer, Fiji kommt im Herbst auch mit 8GB. Ein starkes Zugpferd ist ja sehr wichtig, wie NVs gute Absatzzahlen im mittleren Leistungsbereich zeigen. Die Dinger sind nicht unbedingt besser als die AMDs, die 660 (Ti) mit Krüppelinterface etwa ist heutzutage nur noch lachhaft im Vergleich zu einer 7950 oder 7870.

Die GTX660 kostet vor 2,5 Jahren "nur" 220€. Dafür bekomme ich bei NVidia derzeit auch nichts, was ein Upgrade rechtfertigen würde. Meine Frau zockt seit letzten Sommer mit einer GTX750Ti, welche wg. 60 Watt TDP noch nicht mal einen zusätzichen Stromanschluss benötigt (immerhin war aber der verbaute Lüfter im Desktopbetrieb so laut, dass er ersetzt werden musste... so saublöde sind die bei der Entwicklung des Lüftungsdesigns... unfassbar). Ihre GTX750Ti ist beim spielen noch nichtmal spürbar langsamer (laut diversen Benchmarks nur ca. 15% langsamer als meine 140 Watt TDP GTX660).

Meine GTX660 mit 2GB, die mit voller Absicht auf 1,5 GB durch NVidia verkrüppelt wurde, ist das perfekte Beispiel dafür, was GTX970 Käufern zukünftig droht: VRAM Mangel!

Trotzdem konnte ich bis vor kurzem noch alles in annehmbrer Qualität zocken.
Sollten kurzfristig die kommenden Monate mehr für mich interessante Spiele erscheinen, bei denen meine GTX660 wg. VRAM-Mangel mies performt, wäre das Upgrade derzeit wohl eine GTX970 3,5GB R290X mit 8GB nebst neuem Lüftersatz für mein gedämmte CM-Silence 650 Case. Ich würde die Kröte des deutlich höheren Verbrauchs/Abwärme be AMD-Karten schlucken und ehern zu AM wechseln. Vorteil wäre, dass ich endlich mal wieder am PC rumbasteln könnte, was Lüftung usw. angeht ;) .

Aber vielleicht stellt ja NVidia im März neue Grakas vor, bei denen der VRAM nicht mehr ds Nadelöhr ist.

EDIT: bei Dying Light kann ich übrigens die Grafiksettings so einstellen, dass meine GTX660 mehr als 1,5 GB verbraucht. Dann werden auf einmal 1,7 GB und mehr verbraten... mit entsprechend schlagartig zusammenbrechender Leistung (Mickroruckler, etc., obwohl Fraps kontinuierlich hohe FPS-Werte anzeigt und man sich fragt, warum es trotzdem unspielbar ist). Wenn ich das mal mit Spielen von 15 Jahren vergleich: da konnte man Far Cr bereits mit 30 FPS sehr gut spielen, weil die Frametimes eben nicht so unterschiedlich waren, sondern das Nadelöhr ehern die schwachbrüstige GPU.

dargo
2015-03-02, 14:11:34
28 Zoll 4K TFTs (http://www.amazon.de/Asus-PB287Q-Monitor-Reaktionszeit-schwarz/dp/B00JEZTC3I/ref=sr_1_1?ie=UTF8&qid=1425299768&sr=8-1&keywords=4k+pc+monitor+27+zoll) gibts schon für 475€ und sind damit für Gaming-Enthusiasten sehr interessant (mein 27" 1080P TFT war vor 3 Jahren immerhin 279€ teuer).
Spätestens mit der Windows 10 Aufrüstwelle im Sommer/Herbst/Winter werden 4K-Bildschirme langsam salonfähig werden. Wenn sich bis dahin am Graka-Markt nichts tut, wird AMD wohl einen steigenden Marktanteil durch 8GB-Karten für sich verbuchen können ;) ... zu gönnen wäre es ihne jedenfalls.
Wenn du eh mindestens auf Hawaii gehst dann warte auf jeden Fall mit dem 4k Bildschirm auf Freesync.

gnomi
2015-03-02, 14:19:28
Klar gibt es mittlerweile weniger fürs Geld und hinzu kommt dann noch der Wertverlust von Geld an sich.
400 Euro muss man für eine High End GPU schon hinlegen.
Und bei nvidia eben auch mal 100 mehr, da sie mehr Leistung pro Watt bieten und besseres Marketing und vernetzteren Entwicklersupport plus proprietäre Technologien unterhalten.
Bei Intel sieht es auch nicht gerade anders aus, seitdem kaum mehr jemand ernsthaft mit AMD CPU's spielt.
Den 2600k besitze ich auch, aber so eine Langzeit Hammer CPU fürs Geld ist halt ein Glücksgriff und kommt nur bei neuen Architekturen plus überschätzter Konkurrenz.
Eine 290 8GB ist aber jetzt immerhin ein sehr gutes Angebot.
Ich würde da schon zuschlagen. 50 Watt mehr Verbrauch wären da für mich nicht so das Hindernis.

4k Gaming nativ halte ich für noch nicht so interessant.
Ich bin eher zufrieden, wenn ich in 1440P mit GSync angenehm hohe Bildraten und gleichmäßige Frametimes sehe und belasse es dann auch gerne dabei.
Call of Duty beispielsweise macht schon Bock mit dreistelligen Bildraten plus annehmbarem PPAA. Oder Toxikk Deathmatch mit glatten 144 fps. Oder Grey Goo mit schönen 60 fps.
Optional kann man natürlich mit DSR dann auch 4-5k fahren.
Aber es ist nicht ganz das selbe, als wenn man ein Spiel dann auf 30 Zoll und mehr in nativem 4k hätte.
So etwas schaffe ich mir aber ganz sicher vorerst nicht an, da selbst ein Unity nur um die 50 fps auf 1440P mit einer 980 ausspuckt.
Hohe Frames plus GSync sind ein echter Genuss. Da will man nicht mehr in den 30er Bereich zurück, selbst wenn das dann noch flüssig genug wirkt.
Außerdem habe ich den Monitor gerade gekauft und erst ein halbes Jahr. 3-5 Jahre muss ich den bei dem Anschaffungspreis behalten.
4k nativ ist also für mich leider vorerst Geschichte.
Dort wo die Performance super reicht, würde mich fast 3d mal reizen, denn das habe ich leider noch nicht ausprobieren können und ein entsprechendes Kit wäre jetzt nicht so teuer und notfalls wieder verkaufbar...

Gast
2015-03-02, 15:03:13
Mein reden. Aber erkläre das mal dem anderen Gast. Scheint ein richtiger Hater zu sein.
Beschimpf den Gast noch gleich als Troll, dann sind wir endlich wieder auf dem hier üblichen Niveau angelangt. :rolleyes:

Ich finde es interessant, wie manche versuchen krampfhaft ihr eigenes kleines Weltbild zu retten. "Alles nur halb so schlimm, hat quasi keine Auswirkungen, Null praxisrelevanz", etc. etc.
Es ist immer dasselbe, wenn man keine Alternative hat. Schon damals beim Pentium-Bug haben die Leute aus dem intel-Lager ganz ähnlich reagiert. Beschönigen und kleinreden als Ausrede dafür, daß man ein Produkt verkauft/empfohlen hat, daß im Prinzip die Erwartungen nicht erfüllen kann (was man zum jetzigen Zeitpunkt vielleicht noch nicht so deutlich sehen kann). Bei solchen Vorfällen zeigt sich, wer bereit ist aus eigenen Fehlern zu lernen. Bei Caseking hat man sofort dazu gestanden und den Leuten, die das wollten, Rückerstattung angeboten. Das wurde im Netz von einigen Wegduckern und Radfahrern dann auch prompt als 'Vorpreschen' gegeißelt.
Da kann man wirklich nur noch lachen. :D

Mich wundert es übrigens nicht, daß nur wenige ihre GTX970 zurückgegeben haben. Für viele stellt die Anschaffung einer neuen PC-Komponente puren Streß dar. Manche können sie noch nichtmals selbst einbauen und müssten für den Ausbau erneut die Hilfe von Bekannten in Anspruch nehmen (die ihnen das Teil am Ende sogar noch empfohlen und eingebaut haben). Dann sind sie heilfroh, wenn sie nach dem ersten Einschalten ein Bild haben und sie kein Montagsmodell erwischt haben und den ganzen Kram stundenlang wieder rückgängig machen müssen. Ist doch klar, daß die Bereitschaft bei den meisten glatt Null ist. Zumal überhaupt keine Alternative vorhanden ist und viele wohl verzweifelt hoffen, daß das Problem irgendwie über den Treiber gelöst werden kann.

Das ganze ist typisch deutsch. Und das meine ich nicht negativ (bevor jetzt wieder jemand meint einen Hater gefunden zu haben). Wie im Restaurant: Bestellt hat man ein Jägerschnitzel mit Waldpilzen und Krautsalat und auf dem Teller ist ein Wienerschnitzel mit Pommes und Ketchup. Die meisten geben es nicht zurück, schon allein weil sie nicht nochmal 45 Minuten auf ihr Essen warten wollen und der Anblick den ausgehungerten Gast dann in der Regel dann doch zu überzeugen weiß. Nicht typisch deutsch ist jedoch, daß es für so einen Fauxpas vom Restaurant-Tester dann auch gleich noch 5 Sterne und den goldenen Suppenlöffel obendrauf gibt. ;)

Ich glaube nicht, daß sich zukünftige Software groß darum scheren wird, an welcher Stelle im Speicher Texturen platziert werden. Nicht mal ihr selbst könnt wissen, ob eine Textur bei so einer Karte im langsamen Bereich (224 Bit) oder im ganz langsamen Bereich (32 Bit) gelandet ist.
Beworben wurde die Karte wie eine Karte mit vollwertigem 256Bit Speicherinterface. Eine kleinere Ausgabe der soliden GTX980, wollte man die Leute und die Presse glauben machen. Jetzt sind es auf einmal bestenfalls noch 224 Bit und manchmal sogar nur 32 Bit.

Ich kann verstehen, daß viele, die auf ihre GTX970 gewartet haben, nun nicht umsteuern wollen und es auch nicht tun. Dafür gibt es gute Gründe. Der Aufwand ist viel zu groß. Manche haben sich vielleicht sogar gleich ein neues Netzteil oder gar einen neuen PC angeschafft. Da kann man nicht einfach das ganze Konzept über den Haufen werfen und dann auch noch wochenlang auf eine Lösung für das Problem warten. Und kommt mir jetzt bitte keiner mit Grafikhardware von AMD. Damit hat man keine Lösung, sondern imo nur ein weiteres Problem. <- Meine Meinung.

Bevor man aus eigenen Fehlern klug wird, muß man sich diese erstmal eingestehen. Und davon scheinen einige (auch hier im Forum) noch weit entfernt zu sein.

Also:
Wer hatte den Kinderteller mit Schitzel, Pommes und Ketchup bestellt? Ah der verschnupfte Gast mit dem Hut ganz in der dunklen Ecke hinten links. Wie? Auf der Karte stand Jägerschnitzel mit Waldpilzen und Krautsalat für 399,-€? Sorry - aber das ist ein Druckfehler!
Nein nein - nicht der Preis. :devil:

Alter Sack
2015-03-02, 15:23:58
@Gast:
Zumindest den jetzigen Kauf einer GTX970 werden sich die Leute, die vom Problem wissen wohl sicherlich verkneifen und so wie ich wohl über den Tellerand schauen und evtl. eine AMD-Karte kaufen. Bei AMD hat man derzeit das Problem, dass die Karten anscheinend deutlich mehr Strom verbrauch, was man im Bereich des Gehäuses und der Belüftung mit einkalkulieren muss.

Im Ergbnis hat NVidia im Preisbereich um 300-400€ keine wirklich empfehlenswerte Karte im Angebot.
Leute wie ich, die von einer GTX660-2GB kommen und wg. der höheren VRAM-Anforderung neuerer Spiele jetzt upgraden wollen, finden im Preisbereich bis 400€ eben kein wirklich uneingeschränktes Produkt... weder bei NVidia wg. 3,5 GB Bug noch bei AMD, wo man potenziell mehr Abwärme aus dem Gehäuse wegkühlen muss.

Vor der GTX660 hatte ich eine übrigens eine GTX285 für damals 360€. Die GTX970 wäre also ein Preisbereich, den ich persöhnlich als "high-end" bezeichnen würde und auch für entsprechenden Gegenwert zahlen würde. 300-400€ würde ich nur für volle 4 GB oder besser 6 GB zahlen wollen.

Alter Sack
2015-03-02, 15:31:16
...
Den 2600k besitze ich auch, aber so eine Langzeit Hammer CPU fürs Geld ist halt ein Glücksgriff und kommt nur bei neuen Architekturen plus überschätzter Konkurrenz.


Das stimmt. Der i7-2600k ist tatsächlich ein Glücksgriff gewesen. Man kann für den sockel 1150 sogar heute noch recht aktuelle H97-Mainboards mit PCI-E 3.0 Steckplatz kaufen und könnte den i7-2600k sicherlich nochmal weitere 3 Jahre weiternutzen ;) .


Eine 290 8GB ist aber jetzt immerhin ein sehr gutes Angebot.
Ich würde da schon zuschlagen. 50 Watt mehr Verbrauch wären da für mich nicht so das Hindernis.


Kommt darauf an, was NVidia die nächsten Monate macht. Ich muss mich nochmal durch diverse Tests hangeln. Hatte glaube ich auf tomshardware einen Test, wo der Gesamtstromverbrauch des Systems aufgeführt war. Dort sah ich z.B. auch, dass die der PC mit einer GTX970 (TDP 145 Watt) ca. 100 Watt im Vergleich zur GTX660 (TDP 140 Watt) verbraucht hat. Wenn das so stimmt, muss ich meine Case-Belüftung sowieso umbauen und kann dabei ggf. gleich die 50-70 Watt, die eine R290X mehr verbraucht mit einplanen.

wg. 4K:
Ist für mich derzeit auch noch kein echtes Thema. Bin aber auch kein Enthusiast, der sich eine Graka für 500€ und mehr kaufen würde. Enthusiasten, die solch teure Grakas kaufen, werden aber sicher deutlich früher auf 4K-TFTs wechseln, als unser einer und da passt die GTX980 wg. "nur" 4 GB VRAM eben nicht so recht.

Gast
2015-03-02, 15:33:18
Selbst mit 3,5GB ist die GTX970 eine deutliche Steigerung von der GTX660.

Das sind immer noch mindesten 75% mehr Speicher und eine mehr um 2x fach so hohe Leistung. Siehe hier in Evolve: http://pclab.pl/art62050-4.html

Und was der ewige Verweis auf AMD soll. Die haben ganz andere Probleme, die sich kritisch auf das Spielgefühl auswirken können - siehe Dying Light, siehe CoD:AW, siehe pCars.

TobiWahnKenobi
2015-03-02, 16:09:03
der verweis auf AMD soll andeuten, dass das überdentellerrandschauen nicht soooo gut geklappt hat. sonst würde man neben den mankos, die man dort regelmäßig schlucken muss (etwa die kontinuierliche hoffnung auf den nächsten treiber oder das gern totgeschwiegene optionale anschaffen irgendwelcher DP-adapter) auch mal darauf hinweisen, dass man selbst am NV-ökosystem (obwohl beim kauf der NV-grafik ja mitbezahlt) total vorbeilebt.
gameworks braucht man nicht, CUDA und physX sind shice, SLi ist mir zu teuer, profile pflegen zu anstrengend und stereoskopisch kann AMD auch irgendwie. zwar nur, wenn man sich für 50€ eine optionale 3D-middleware kauft, aber da man das ja selbst nicht nutzt, wird es wohl vergleichbar mit NVidias proprietärem crap sein.. oder verzichtbar.. who cares.. intelligente vsync-spielchen sind mir zu kompliziert u. irgendwann gibt es ja eh freesync.. anyway, der teller war halt kein suppenteller.


(..)

mfg
tobi

Schrotti
2015-03-02, 16:39:16
Also in diesem Punkt bin ich doch sehr, sehr misstrauisch.
Selbstverständlich lasse ich mich gerne überraschen ;)

4GB mit nur 128Bit SI?
Würde mich doch sehr wundern, wenn das Sinn macht.

Razor

Ich glaube in der PCGH Zeitung war ein Bild zu sehen das noch Platz ist auf der Platine.

Jedenfalls habe ich mal dazu gegoogelt.

http://www.goldfries.com/images/hwreviews/2015/galaxgtx960oc/galax_07.jpg


Schau auch hier das Review. Es ist jeweils vorne und hinten noch Platz für je ein Speicherchip.

http://benchmarkreviews.com/24899/asus-geforce-gtx-960-strix-video-card-review/3/

Razor
2015-03-03, 07:11:00
Ich glaube in der PCGH Zeitung war ein Bild zu sehen das noch Platz ist auf der Platine.

Jedenfalls habe ich mal dazu gegoogelt.
http://www.goldfries.com/images/hwreviews/2015/galaxgtx960oc/galax_07.jpg

Schau auch hier das Review. Es ist jeweils vorne und hinten noch Platz für je ein Speicherchip.
http://benchmarkreviews.com/24899/asus-geforce-gtx-960-strix-video-card-review/3/
Hey Schrotti, ich danke Dir für die Referenzen!

Hatte so etwas allerdings schon mal gesehen und spricht ja eher für 3GB VAM vs. der jetzigen 2GB und das eben mit 192Bit SI.
Dies wiederum würde eher für eine GTX960Ti sprechen, was durchaus interessant werden könnte, wenn der Preispunkt stimmt.

Die 4GB würden aber ebenfalls mit 4 Chips (je 8 GBit) einher gehen... gleiche Bandbreite für die doppelte Menge an VRAM.
DAS ist es, was mich misstrauisch macht - wie auch der Umstand, dass eine solche Konfiguration recht teuer würde.

Razor

P.S.: meines Erachtens gibt es keine 6GBit-Chips, würde dann aber auch mit der Pin-Kompatibilität schwierig werden, denke ich.
3GB mit 192Bit SI zu einem GM206? Why not? :D

Razor
2015-03-03, 07:29:37
Um es kurz zu machen:
Bei AMD bekomme ich für 400€ eine R290X mit 8 GB. Da wurde seitens AMD wenigstens mitgedacht, wo NVidia die Zukunftstauglichkeit ihrer HighEdn-Karten beschneidet.
Hmmm...

GTX970 vs. AMD290X
------------------------
Idle: 13W > 20W
Games: 160W > 230-300W
BluRay: 17W > 75W
DualMon: 16W > 22W
------------------------
Idle: 0 vs 1,11 sone
Games: 3 vs 4-7,5 sone

Ist jetzt alles nicht sooo wild, spricht aber für eine deutliche Unausgewogenheit in Sachen Effizienz, oder?
Die krassen Unterschiede ergeben sich aus einem "Quiet" Bios vs. einem "Performance" Bios der AMD...
Das eine akzeptabel aber deutlich "kastriert", das andere vollkommen inakzeptabel und "volle Fahrt".

Das wäre in der Tat, den Teufel mit dem Bezelbub auszutreiben.
Und da wären dann ja noch die AMD/ATI "Treiber" ;D

Razor

sputnik1969
2015-03-03, 14:16:01
GTX970 vs. AMD290X
------------------------
Idle: 13W > 20W
Games: 160W > 230-300W
BluRay: 17W > 75W
DualMon: 16W > 22W

Mal davon abgesehen, dass du kleiner und größer vertauscht hast ;) muss ich mal sagen, das ist auch nur beim "normalen" unbedarften User genau so.
Ich habe zwar nur eine 7950 Boost, aber auch da gibt es ja 2 BIOS-Variationen, ohne Boost mit geringerer Spannung und Boost mit mehr.
Ich habs auf Boost und regle mit dem MSI Afterburner einfach im Idle / Videomodus die Spannung, Lüfter und die Taktraten runter und schwupps, sinken die auch damals schon so viel höheren AMD-Werte deutlich nach unten und liegen nur noch knapp über denen des NV-Pendants.
Und sooo schlecht sind die AMD-Treiber inzwischen auch nicht mehr. Ich würde mir an manchen Stellen doch mehr Offenheit und mehr Möglichkeiten wünschen, aber insgesamt hat sich die Situation seit seeligen Radeon 8500 Zeiten doch massiv verbessert.

TobiWahnKenobi
2015-03-03, 14:22:51
ich glaube, razor wollte mit dem ">" kein "größer/kleiner als" ausdrücken sondern vielmehr einfach die werte gegenüberstellen.

und was das manuelle anpassen irgendwelcher frequenzen angeht - das kann gutgehen, muss aber nicht. denn wie auch OC ist das im grunde pfusch, der selten bis nie von user 1 auf user 2 übertragbar ist. vllt. hat user 2 ne weniger gute karte, nutzt andere bildschirmmodi, mehr als einen bildschirm oder weniger als vier.. andere videocodecs, auflösungen, whatever. whatever es auch ist - händisches AMD-undervolting ist hier OT.


(..)

mfg
tobi

Schrotti
2015-03-03, 16:40:17
Hey Schrotti, ich danke Dir für die Referenzen!

Hatte so etwas allerdings schon mal gesehen und spricht ja eher für 3GB VAM vs. der jetzigen 2GB und das eben mit 192Bit SI.
Dies wiederum würde eher für eine GTX960Ti sprechen, was durchaus interessant werden könnte, wenn der Preispunkt stimmt.

Die 4GB würden aber ebenfalls mit 4 Chips (je 8 GBit) einher gehen... gleiche Bandbreite für die doppelte Menge an VRAM.
DAS ist es, was mich misstrauisch macht - wie auch der Umstand, dass eine solche Konfiguration recht teuer würde.

Razor

P.S.: meines Erachtens gibt es keine 6GBit-Chips, würde dann aber auch mit der Pin-Kompatibilität schwierig werden, denke ich.
3GB mit 192Bit SI zu einem GM206? Why not? :D



Schau mal hier Razor.

GeForce GTX 960 mit 4 GB Speicher ab 10. März (http://www.computerbase.de/2015-03/geforce-gtx-960-mit-4-gb-speicher-ab-10.-maerz/)

@Mirko
2015-03-03, 16:52:34
250 Euro, na mal sehen, ob das viel bringt. Mehr Texturspeicher kosten der CPU ja nix und daher wird man auch keine 30% Plus an Leistungzuwachs wahrnehmen, das läuft wohl etwas fluffiger.

Man kann für den sockel 1150 sogar heute noch recht aktuelle H97-Mainboards mit PCI-E 3.0 Steckplatz kaufen und könnte den i7-2600k sicherlich nochmal weitere 3 Jahre weiternutzen

Ähm, kann man beides machen, aber von einem "alten Sack" zum anderen, der I7-2600k hat einen 1155iger Sockel, der passt definitiv nicht auf H97 Boards. Ich versteh dich aber...bis zum z77 kannst du gerne gehen.;)

TobiWahnKenobi
2015-03-03, 17:07:47
ohne eine ivy bridge (oder neuer) CPU wird das mit PCIe 3.0 aber nix ;)


(..)

mfg
tobi

Thunder99
2015-03-03, 17:44:39
Hmmm...

GTX970 vs. AMD290X
------------------------
Idle: 13W > 20W
Games: 160W > 230-300W
BluRay: 17W > 75W
DualMon: 16W > 22W
------------------------
Idle: 0 vs 1,11 sone
Games: 3 vs 4-7,5 sone

Ist jetzt alles nicht sooo wild, spricht aber für eine deutliche Unausgewogenheit in Sachen Effizienz, oder?
Die krassen Unterschiede ergeben sich aus einem "Quiet" Bios vs. einem "Performance" Bios der AMD...
Das eine akzeptabel aber deutlich "kastriert", das andere vollkommen inakzeptabel und "volle Fahrt".

Das wäre in der Tat, den Teufel mit dem Bezelbub auszutreiben.
Und da wären dann ja noch die AMD/ATI "Treiber" ;D

Razor
Deine Angaben stimmen nicht ganz. Der Verbrauch der GTX970 bewegt sich zwischen 160-230W (fast jede Custom Grafikkarte verbraucht 180-230W) :wink:

Und der Treiber ist nach meiner jetztigen Erfahrung genau so problematisch bzw nicht wie bei nvidia :)

sputnik1969
2015-03-03, 19:38:05
ich glaube, razor wollte mit dem ">" kein "größer/kleiner als" ausdrücken sondern vielmehr einfach die werte gegenüberstellen.Dann trotzdem bitte nächstes mal richtig ;) Aber jeder wusste, was er damit meint. Damit lasse ich's auch bewenden.


und was das manuelle anpassen irgendwelcher frequenzen angeht - das kann gutgehen, muss aber nicht(..)


Erzählst du mir nix neues, habe 3 Monitore, unterschiedliche Auflösungen (2x1280x1024+1920x1200) und musste auch erst mal ein wenig probieren. Zu niedrig darf der Ramtakt nicht sein :)
Aber OT ist sowas meiner Ansicht nach nur in einem "Laienforum". Hier kann man durchaus davon ausgehen, dass eine nicht geringe Anzahl an Usern seine Karte OC hat oder UV ausprobiert um Strom zu sparen.
Will das trotzdem nicht so breittreten, aber finde eben, das ist glaube ich alles kein so überzeugendes Argument seinerseits, weil man es bei solchen usern wie hier eben relativieren kann.

Alter Sack
2015-03-03, 20:21:29
ohne eine ivy bridge (oder neuer) CPU wird das mit PCIe 3.0 aber nix ;)


(..)

mfg
tobi

und @ Gast von oben:

http://www.asrock.com/mb/Intel/Z77%20Extreme3/index.de.asp

Das 1055er Mobo hätte PCI-E 3.0.

Hatte ganz vergessen, dass ich ein So1055 habe ;) .

Schrotti
2015-03-03, 20:28:34
1155 meinst du wohl.

Alter Sack
2015-03-03, 20:35:19
1155 meinst du wohl.

Rischtisch :)

Gast
2015-03-03, 20:42:26
1155 meinst du wohl.
Jupps und die Hauptplatine hat nur 2xPCI Express Slots in der Konfig: Single x16 PCIE2; x8 PCIE3 oder Dual PCIE3 x8/x8 Mode, nix durcheinander bringen.;)

Also eigentlich alles PCIE3.0x8 oder PCIE2.0x16 was genauso schnell ist wie x8 3.0. Such dir eine die 1xPCIE3.0x16 hat, so wie die ASUS P8Z77-V LX.

deepmac
2015-03-03, 21:18:27
mit AMD gibt's halt leider kein 3dvision, und das möbelt ältere Spiele ala ME3 schon enorm auf!

@Mirko
2015-03-03, 21:34:27
Klar, aber da brauchst ja noch mehr dazu und billig ist das gerade auch nicht, daher wohl auch kein riesen Erfolg. Mir persönlich sind die (bezahlbaren) spielefähigen Bildschirme dazu etwas zu klein. Wers mag, sicher ein Argument.

Ich werde definitv warten was Freesync jetzt zu GSync kann und umgekehrt+Angebot, und werde dann ein paar Bigmamas kaufen. Mal sehen wer die Nase vorne hat.

Razor
2015-03-03, 23:38:38
Deine Angaben stimmen nicht ganz. Der Verbrauch der GTX970 bewegt sich zwischen 160-230W (fast jede Custom Grafikkarte verbraucht 180-230W)
Ach ja?
Ich kenne genau eine, die tatsächlich aus der Reihe schlägt... die 970 auf 980 Platine: MSI Gaming 4G.

Ansonsten...
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index43.php
Diagramm-Untertitel: Watt Watt Watt Watt Watt Watt Watt
Legende: Idle 3D-Spiele (PT Default) 3D-Spiele (PT Max,) Volllast (PT Default) Volllast (PT Max,) Blu-ray Wiedergabe Multi-Monitor Idle (3 Geräte)
MSI GTX 970 Gaming 4G 14 198 218 198 218 18 50
Palit GTX 970 Jetstream 12 180 189 180 189 14 44
ASUS GTX 970 Strix 13 159 162 162 195 16 46
Inno3D GeForce GTX 970 Herculez X2 13 160 170 157 170 15 44
NVIDIA GeForce GTX 970 160 170 157 170

ich glaube, razor wollte mit dem ">" kein "größer/kleiner als" ausdrücken sondern vielmehr einfach die werte gegenüberstellen.
Klaro, was sonst?
Dürfte eigentlich so ziemlich jeder korrekt wahr genommen haben... alles andere macht ja wohl auch kaum Sinn :)
Schau mal hier Razor.

GeForce GTX 960 mit 4 GB Speicher ab 10. März (http://www.computerbase.de/2015-03/geforce-gtx-960-mit-4-gb-speicher-ab-10.-maerz/)
Klasse, nochmals danke für die Info!
Aber wie schon geschrieben... kann mir kaum vorstellen, dass dies bei gleicher Bandbreite etwas bringt.
Noch immer würde ich mich natürlich gerne überraschen lassen :up:

Razor

Ex3cut3r
2015-03-04, 01:31:38
Warum kauft sich einen krüppel aka 960 mit 4GB? das ist doch nur ne GTX 680 mit 4GB, gabs 2012 schon zu kaufen....

TobiWahnKenobi
2015-03-04, 05:40:08
und @ Gast von oben:

http://www.asrock.com/mb/Intel/Z77%20Extreme3/index.de.asp

Das 1055er Mobo hätte PCI-E 3.0.

Hatte ganz vergessen, dass ich ein So1055 habe ;) .

kam so rüber als hättest du eine i7 2600K CPU.. das ist sandy bridge und die kann mit PCIe-3.0 nichts anfangen. egal auf welches board du sie packst -> damit ist nur 2.0 möglich. das steht für die technisch weniger versierten auch als note auf der verlinkten webseite zum z77.

Note:
To run the PCI Express 3.0 slots in Gen 3 speed, please must install the 22nm CPU which supports PCI Express 3.0. If you install the Sandy Bridge CPU, the PCI Express 3.0 slots will run only at Gen2 speed.


(..)

mfg
tobi

Schrotti
2015-03-04, 07:41:09
Warum kauft sich einen krüppel aka 960 mit 4GB? das ist doch nur ne GTX 680 mit 4GB, gabs 2012 schon zu kaufen....


Vielleicht aber manch ein User dem die 680 zu viel Strom schluckt? Oder der jetzt erst einen Computer kauft?

Schon mal über den Tellerrand geschaut?

Gast
2015-03-04, 20:16:31
960 mit 4GB? das ist doch nur ne GTX 680 mit 4GB
Und wovon träumst du nachts?

Die GTX680 ist einer GTX960 haushoch überlegen. Dazu einfach mal die Eckdaten prüfen:

Theoretically speaking, the Geforce GTX 680 will be 72% faster than the GeForce GTX 960 overall, because of its greater bandwidth.
(..)
The Geforce GTX 680 should be quite a bit (more or less 79%) more effective at anisotropic filtering than the GeForce GTX 960.

http://www.hwcompare.com/18438/geforce-gtx-960-vs-geforce-gtx-680/

Schau dir nur mal die Texelrate an. Damit ist alles gesagt.
Wenn ich für 1080p die Wahl hätte zwischen einer GTX680 mit 2GB und einer GTX960 mit 4GB, dann wäre das keine Wahl. ;)

Die GTX680 gehört imo selbst mit nur 2GB nach wie vor mit zu den brauchbaren Karten für 1080p. Und was nutzt einem der schönste FPS-Balken mit einer GTX970, wenn der Balken nur so schön bleibt bei Benches, die den Texturspeicher nicht voll nutzen?

Außerdem bin ich mir nicht sicher, ober der TS von seiner GTX660 auf eine GTX960 wechseln möchte:

In theory, the GeForce GTX 660 should perform a lot faster than the GeForce GTX 960 in general.
(..)
The GeForce GTX 660 is a little bit (more or less 9%) faster with regards to texture filtering than the GeForce GTX 960.

http://www.hwcompare.com/18432/geforce-gtx-660-vs-geforce-gtx-960/

It makes you think.... :uponder:

Naw - it does not. :D

Dafür verbraucht die GTX960 dann (angeblich!) 20 Watt weniger als seine GTX660. Statt 140 Watt nur 120 Watt. Na das ist doch mal 'ne Hausnummer. :freak:
Bei solchen Werten wird so mancher Kunde sicher sofort schwach.......
.......könnte natürlich auch ein Ohnmachtsanfall sein. :D :D :D

Humor ist, wenn man trotzdem lacht.

Alter Sack
2015-03-04, 20:54:02
kam so rüber als hättest du eine i7 2600K CPU.. das ist sandy bridge und die kann mit PCIe-3.0 nichts anfangen. egal auf welches board du sie packst -> damit ist nur 2.0 möglich. das steht für die technisch weniger versierten auch als note auf der verlinkten webseite zum z77.

Note:
To run the PCI Express 3.0 slots in Gen 3 speed, please must install the 22nm CPU which supports PCI Express 3.0. If you install the Sandy Bridge CPU, the PCI Express 3.0 slots will run only at Gen2 speed.


(..)

mfg
tobi

Oh shit, Danke für die Info!
Das wusste ich nicht.

Alter Sack
2015-03-04, 21:00:01
Und wovon träumst du nachts?

Die GTX680 ist einer GTX960 haushoch überlegen. Dazu einfach mal die Eckdaten prüfen:


http://www.hwcompare.com/18438/geforce-gtx-960-vs-geforce-gtx-680/

Schau dir nur mal die Texelrate an. Damit ist alles gesagt.
Wenn ich für 1080p die Wahl hätte zwischen einer GTX680 mit 2GB und einer GTX960 mit 4GB, dann wäre das keine Wahl. ;)

Die GTX680 gehört imo selbst mit nur 2GB nach wie vor mit zu den brauchbaren Karten für 1080p. Und was nutzt einem der schönste FPS-Balken mit einer GTX970, wenn der Balken nur so schön bleibt bei Benches, die den Texturspeicher nicht voll nutzen?

Außerdem bin ich mir nicht sicher, ober der TS von seiner GTX660 auf eine GTX960 wechseln möchte:


http://www.hwcompare.com/18432/geforce-gtx-660-vs-geforce-gtx-960/

It makes you think.... :uponder:

Naw - it does not. :D

Dafür verbraucht die GTX960 dann (angeblich!) 20 Watt weniger als seine GTX660. Statt 140 Watt nur 120 Watt. Na das ist doch mal 'ne Hausnummer. :freak:
Bei solchen Werten wird so mancher Kunde sicher sofort schwach.......
.......könnte natürlich auch ein Ohnmachtsanfall sein. :D :D :D

Humor ist, wenn man trotzdem lacht.

Die 960 sehe ich zur 660 auch ehern als SideGrade an. Selbst wenn meine 660 jetzt kaputt gehen würde, wäre die 960 keine Option, da für die gebotene Leistung einfach zu teuer.
Die 970 wäre wg der VRAM-Problematik für mich ebenfalls kein Thema und die 980 zu teuer.

Nvidia hat derzeit kein passendes Angebot im Programm. Leider.

Alter Sack
2015-03-05, 07:41:17
Ich fasse für mich nochmal zusammen:

Dass eigentliche Problem ist der in kurzer Zeit angestiegene VRAM-Bedarf, welcher in aktuellen Modellen kaum befriedigt wird (eigentlich nur mit der AMD R290X 8GB, welche im Vergleich zur Konkurrenz was VRAM angeht keine >1000 Dollar kostet, wenn man 8 GB haben möchte ;) ).

Wie kritisch das ist, sieht man ja bei der entbrannten Diskussion bei der ab 360€ (sehr) teuren GTX970. Hier ist man stinkesauer wg. der Reduzierung von 4 auf 3,5 GB.

Bis vor kurzem waren selbst bei HighEnd noch 2 GB der Standard.
2GB waren aber auch vor 6 Jahren fast schon Standard: meine GTX285 hatte genauso 2 Gb, wie meine GTX660 und wie eine GTX780Ti.

Bei NVidia waren quasi über 5 Generationen 2 GB der Standard und nun hat man trotz (!!) NexGen und trotz (!!) 4K-Gaming "nur" 4 GB eingebaut, wo 8 GB den der GPU-Leistung doch besser zu Gesicht gestanden hätten. Ich kann mir kaum vorstellen, dass die NVidia-Techniker sich nicht mal genau angeschaut haben, wie inflationär PS4/XOne den VRAM belegen können... hier wird meiner Meinung nach absichtlich nur 4 GB verbaut, um in 1-2 Jahren wieder ins Geschäft mit dann 8 GB Karten und einem DIE-Shrink auf 16nm zu kommen.

Vor allem in Anbetracht des pervers hohen Preises wirken 970/980-Karten auf mich nicht ausentwickelt (was VRAM angeht).
360€++ und 600€++ sind sehr viel Geld, wenn ich mir mal anschaue, was High-Performance Karten vor 3-5 Jahren gekostet haben.

Wie sich diese nur 4 GB zukünftig auswirken können, sehe ich aktuell bei meiner GTX660. Hier läuft in aktuellen Spielen regelmäßig der VRAM voll und die GPU schaukelt sich übertrieben ausgedrückt dabei die Eier.

Eine GTX970 wäre mir aus dem Bauch heraus ca. 200-250€ wert. Die GTX980 darf max. 350€ kosten, weil beide Karten mich in der Zukunftssicherheit durch die "nur" 4 GB VRAM massiv beschneiden.
Eine GTX970 mit 6-8 GB VRAM wäre mir z.B. gerne auch 400€ Wert gewesen.

Mehr als 400€ in eine Graka zu investieren, war in der Vergangenheit wenig sinnvoll, da man in den kommenden 2 Jahren die gleich Leistung oft schon für 200€ bekommen hat.
Aber vielleicht läufts ja mit den GPUs wg. der NVidia-Marktmacht genauso wie bei Intel und es kommt zum Quasi-Stillstand bei hohem Preisniveau. Dann werden zukünftig die Karten weniger wg. gestiegener GPU-Power, sondern mehr über die Features wie VRAM, Anschlüsse, DirectX12/13 usw. für teures Geld verkauft. Ich glaube in so einem Szenario werden dann wohl noch mehr eingeschworene PC-Gamer zu den Konsolen wechseln.


Die Zeiten, als PC-Gaming "in" war, würde man in der Zukunft dann auf die beiden Dekaden 1990er und 2000er beziehen. In einem offenen Brief an Intel/AMD/NVidia würde ich denen schreiben, dass es nicht so weit kommen muss, wenn sie nicht (so wie bei Intel seit Jahren zu sehen) sich auf dei faule Haut legen würden und technischen Stillstand feiern.

gnomi
2015-03-05, 10:21:34
VRAM ist äußerst kritisch!
Aber ich sage es gerne noch 10x.
Es gibt so was wie Texturqualität in den Einstellungen! :wink:

Zum Beispiel beim neuen Unreal Tournament:

1440P mit Epic Texturen=knapp 3 GB Verbrauch
1440P mit Medium Texturen= knapp 2 GB Verbrauch und auch noch hübsch!

Oder in 4K 3,8 GB verbrauch auf Epic, aber selbst auf GTX 980 OC noch etwas zu langsam.
In High würde die 970 mit 3,4 GB hingegen sauber performen und das Spiel läuft mit +60 fps.

Und zur Entwicklung beim VRAM. Hier mal meine letzten 4 Anschaffungen.

nvidia Geforce GTX 260 (896MB) Juni 2008
nvidia Geforce GTX 470 (1280MB) März 2010
nvidia Geforce GTX 680 (2GB) März 2012
nvidia Geforce GTX 980 (4GB) September 2014

Mehr als 4x so viel Speicher auf 6 Jahre. Und ich habe immer Performance oder High End gekauft. =)

Alter Sack
2015-03-05, 10:37:06
Bei mir:
GTX285 = 2 GB
Kauf im Sommer 2009 (release der Karte war Jan.2009)
Die Karte hat damals 360€ gekostet.

GTX660 = 2 GB (Sommer 2012)
Kartenpreis war 220€.

Wenn ich mir die GTX970 mit 3,5 GB anschaue. Die ist krasse 6 Jahre nach der GTX285 erschienen, kostet genausoviel wie die damalige GTX285 und bittet 6 Jahre (kann man nicht oft genug wiederholen... 6 JAHRE!) nur 1,5 GB mehr RAM, obwohl der VRAM-Bedarf für Karten der Preisklasse 300€++ ehern bei 6 GB VRAM liegt (wg. Zukunftssicherheit bei hohem Preis).

Eine GTX970 oder 980 mag zwar derzeit sehr gut performen, ist aber was Zukunftssicherheit angeht bei dem hohen Preis einfach nur lächerlich... hier werden wir uns in 2 Jahren wiedersprechen und ich krame diese Posting dann gerne nochmal raus, wenn die Leute über zuwenig VRAM klagen, weil sie mit ihren neuen (dann vermutlich) 200€ 4K-TFTs nur noch Stottering haben und zum Graka-Kauf gezwungen werden, weil deren GTX970/980 nur 3,5 bis 4 GB VRAM hat.

Noch vor 1-2 Jahren war es einfach so, dass man mit einer 180-250€ Karte "state-of-art" war und alles superflüssig in der zu dieser Zeit passenden Auflösung zocken konnte. Vor 4-5 Jahren war FullHD beispielsweise noch nicht überall standard (so wie derzeit 4K noch nicht standard ist) und trotzdem hatte die Performance-Karten (wie meine 360€ GTX285) bereits 2 GB und waren für die FullHD-Area gerüstet.

Heute bekommt man zum gleichen Preis eben keine Zukunftssicherheit mehr.
NVidia hat mit dem Thema VRAM etwas in der Hand, um Produkte künstlich schneller altern zu lassen.

gnomi
2015-03-05, 14:42:00
Hatte die 285 nicht üblicherweise 1GB Ram?
Standard waren vor 6 Jahren auch ganz sicher nicht 2GB.
Außerdem hast du zwei Karten aus völlig verschiedenem Marktsegment gekauft. Das passt dann auch schon schlecht.
Und die 970 ist wiederum nicht mit einer nachgeschobenen 285 zu vergleichen. Du wirst jetzt vermutlich auch nachgeschobene 980 TI Karten mit 8 GB sehen. Das wären dann 4x so viel Ram oder sogar 8x zur üblichen 285.
Die Leistung, die du willst, scheinst du außerdem eher schlecht bezahlen zu wollen.
Nvidia würde dir am liebsten wohl gar keine verkaufen, wenn man sich deren aktuelle Preise so ansieht. ;D

Schrotti
2015-03-05, 17:13:14
Die 960 sehe ich zur 660 auch ehern als SideGrade an.

Sidegrade?

Durchschnittlich 30% mehr Leistung als eine normale GTX 660 ist kein Sidegrade.

Alter Sack
2015-03-05, 18:11:40
Sidegrade?

Durchschnittlich 30% mehr Leistung als eine normale GTX 660 ist kein Sidegrade.

Ganz ehrlich, aber wer kauft sich 2,5 Jahre nach dem letzten Graka-Kauf ne neue Karte, die 20-30€ teurer ist (als der letzte Graka Kauf) und nur 30% mehr Leistung liefert?
Das ist für mich ein side-grade.
Upgrades sind 100% Mehrleistung.

Die GTX285 war >100% schneller als die vorherige 4850.
Dei GTX660 war deutlich stromsparender als die GTX285 und ich glaube um 80-100% schneller.

Alter Sack
2015-03-05, 18:30:44
Hatte die 285 nicht üblicherweise 1GB Ram?
Standard waren vor 6 Jahren auch ganz sicher nicht 2GB.
Außerdem hast du zwei Karten aus völlig verschiedenem Marktsegment gekauft. Das passt dann auch schon schlecht.
Und die 970 ist wiederum nicht mit einer nachgeschobenen 285 zu vergleichen. Du wirst jetzt vermutlich auch nachgeschobene 980 TI Karten mit 8 GB sehen. Das wären dann 4x so viel Ram oder sogar 8x zur üblichen 285.
Die Leistung, die du willst, scheinst du außerdem eher schlecht bezahlen zu wollen.
Nvidia würde dir am liebsten wohl gar keine verkaufen, wenn man sich deren aktuelle Preise so ansieht. ;D

Die GTX285-2GB war damals 360€ und HighEnd (also das, was man heute für 600€ als GTX980 bekommt).

Für die 360€ von vor 6 Jahren bekomme ich heute nichts vergleichbares (wie damals), sondern nur eine beschnittene GTX970 mit zu wenig VRAM für echte Zukunftstauglichkeit.
Ein Beispiel: dass meine GTX660-2GB für 220€ (mehr als 2,5 Jahre alt) heute nicht mehr zum Top-Modell gehört, ist mir bewusst. Das dasselbe Schicksal eine GTX970 für 360€ in 2,5 Jahren vor sich hat, ist inakzeptabel.
So wie es aussieht kann sich NVidia aufgrund der Marktdominanz das anscheinend leisten.
Beide Karten sind unter dem Gesichtspunkt der eigentlich notwendigen Zukunftssicherheit beim Preis mit zu wenig VRAM ausgestattet. Die GTX970 wäre mit echten 4 GB und vor allem komplett 256bit angebunden ein halbwegs akzeptables Angebot (wobei gefühlt ehern bei 300€ anzusiedeln).
Die GTX980 für ab 600€ hat einfach nur eine schlechte Zukunftssicherheit und wäre für mich ihr Geld nicht wert. Die gleiche Karte für 600€ und 8 GB VRAM hätte ich zum aktuellen Zeitpunkt übrigens eventuell sogar gekauft (!!). Es liegt als nicht unbedingt an der Höhe des Kaufpreises, sondern am Preis/Leistungsverhältnis, wenn man die Zukunftssicherheit in die Betrachtung mit einbezieht.

Razor
2015-03-05, 22:51:39
Och menno... nun jammere hier doch nicht die ganze Zeit rum!

Das Problem sind heute die aktuellen Konsolen XBO und PS4.
Mit ihren 8GB shared Memeory und den schlechten Konsolenports im PC-Sektor wirds dort halt eng.
Mal davon ab, dass bei den Dingern von "4k" und Co. rein gar nichts zu sehen ist, ja nicht einmal echtes HD.

Ergo:
- "4k" ist eine illusion... können wir drüber reden, wenn die heutigen GPUs auch 400% Leistung bringen - und eben mid. 12GB VRAM mitbringen
- "Zukunftssicherheit" ist eine Illusion... war es schon immer, auch wenn man mal von Zeit zu Zeit "Glück" gehabt hat.

Wenn alle Welt nVidia kauft (und die Konsolenleutz zwangsläufig AMD), sich dann beschweren, dass die einen nicht das haben, was die anderen tun (und umgekehrt)... tjo - Pech gehabt.

Kauf Dir 'ne Konsole und/oder finde Dich mit der Situation ab.
That's it.

Und wovon träumst du nachts?
Hmmm... "Theoretically" und "In theory" sagt ja wohl alles, oder?
Mann, mann, mann.

Razor

@Mirko
2015-03-06, 00:54:57
Och menno... nun jammere hier doch nicht die ganze Zeit rum!
Er hält ja die Diskussion so auch am Leben, ist ja Threadstarter und das nennt man Ausdauer für alte Säcke.;)

Die 970 dürfte immer noch eine verdammt schnelle Karte sein, Krüppelinterface hin oder her. 2mal so schnell wie die 660? Wenn es jetzt kein 4K werden soll. Wenn AMD jetzt wirklich nur mit Refresh+höherem GCN Featureset kommt wird in der reinen Mittelklasse kein Kraut gegen das Ding gewachsen sein.

Ich würde sie wegen ihrem Makel aber nicht kaufen und empfehle sie daher auch nicht. Da fehlt schon irgendwie etwas zwischen 960 und 970. Und AMD füllt das bisher eigentlich auch nicht auf. Man kann dann eigentlich nur die 280x empfehlen. Möglich auch eine 280 OC oder Tonga?
Da wäre aber die 960 4GB dann auch eine Wahl.

@Schrotti
Jetzt habe ich es auch kapiert 960 vs 660=30%, naja alter Sack.

Alter Sack
2015-03-06, 08:23:13
@Schrotti
Jetzt habe ich es auch kapiert 960 vs 660=30%, naja alter Sack.

Also Du würdest nach 2,5 Jahren mit der alten Graka ein SideGrade
mit 30% höherer Graka-Speed für 250€ machen? Ich jedenfalls nicht.

Ironie:
Einen Vorteil hätte der SideGrade-Kauf: Wenn man dann (gezwungenermaßen) in einem Jahr wieder eine neue Graka kauft, ist die Wahrscheinlichkeit groß, dass man zur GTX960 dann gleich 150-200% bekommt und damit ein echtes Upgrade hat.

Mittelfristig führt an 4K+144Hz kein Weg vorbei, auch wenn´s nochmal 1-2 Jahre dauert, bis das für 300€ und drunter zu haben ist.

Alter Sack
2015-03-06, 08:36:09
Och menno... nun jammere hier doch nicht die ganze Zeit rum!

Das Problem sind heute die aktuellen Konsolen XBO und PS4.
Mit ihren 8GB shared Memeory und den schlechten Konsolenports im PC-Sektor wirds dort halt eng.
Mal davon ab, dass bei den Dingern von "4k" und Co. rein gar nichts zu sehen ist, ja nicht einmal echtes HD.


Mir kommt das mit NVidia und dem VRAM so vor wie bei Apple und Iphone 6 Geräten: alle haben erwartet, dass endlich mal auf 2 GB RAM hochgerüstet wird, aber Pustekuchen: es bleibt bei 1 GB RAM (bei FullHD im 6+) und das führt zu regelmäßig nachladenenden Webseiten. Die Android Konkurrenz ist indess bereits bei 2-3 GB RAM.

Auf NVidia bezogen hätte man die GTX970 doch mit 4 GB und für 400€ mit 6GB oder 8GB anbieten können. Das würde sich nach einem guten Deal anfühlen. Stattdessen bekommt man 3,5 GB und als offizielles Statement die blanke Arroganz von Nvidia.

Was die Konsolen können oder nicht, spielt keine Rolle. Am PC sind 4K Bildschirme kurz davor, richtig "billig" zu werden und aktuell hat NVidia nichts bezahlbares im Programm, um einen (bezahlbaren) 4K zu betreiben.

Bevor jetzt wieder geklaskugelt wird, wie weit weg 4K doch ist... derzeit kostet ein Samsung 28 Zoll 4K TFT (http://www.amazon.de/Samsung-U28D590D-LCD-Monitor-Reaktionszeit-3840x2160/dp/B00IJS6PCC/ref=sr_1_1?ie=UTF8&qid=1425627467&sr=8-1&keywords=28+zoll+4k) nur noch 455€. Jede Wette das man in 2-3 Monaten locker unter 400€ liegt und spätestens zum Weihnachtsgeschäft zusammen mit Windows 10 der große 4K-Verkauf startet.
Die Frage ist, was 970/980-Käufer, die derzeit noch davon ausgehen, dass 4K weit in der Zukunft liegt mit ihrer sauteuer gekauften Graka machen? Weiter am FullHD zocken, wärend die Masse ihren Spass mit 4K hat?
Deshalb sind GTX970/GTX980 für mich auch zu teuer, da diese Karten keinerlei Zukunftssicherheit für den Preis mitbringen und bereits in wenigen Monaten beim Monitorwechsel das VRAM-Thema zur Katastrophe werden könnte.


Ergo:
- "4k" ist eine illusion... können wir drüber reden, wenn die heutigen GPUs auch 400% Leistung bringen - und eben mid. 12GB VRAM mitbringen
- "Zukunftssicherheit" ist eine Illusion... war es schon immer, auch wenn man mal von Zeit zu Zeit "Glück" gehabt hat.

Razor

Zurück zu Apple als Beispiel (diesmal im positiven Sinn):
Die haben Retina-TFTs bereits seit 2-3 Jahren in ihren MacbookPros drin. Der neue Mac hat 5K.
iPhones seit dem 4 (oder 4S) ein Retina Display.
Es geht um Bildschirme, bei denen man die Pixel nicht mehr erkennt und sowas haben die Leute mit ihren Smartphones jeden Tag in der Hand und wollen es sicherlich auch am PC haben.

Selbst auf vielen Ultrabooks hat man FullHD bei 13,3 Zoll Displaygröße, was letztendlich auch eine hohe DPI (im Vergleich zu meinem 27" TFT mit FullHD) bedeutet.

4K ist bei den massiv fallenden Bildschirmpreisen für mich keine Illusion (um Dein Wort zu benutzten), sondern derzeit werdende Realität in 2015/16.

Ihm
2015-03-06, 13:34:28
4K ist bei den massiv fallenden Bildschirmpreisen für mich keine Illusion (um Dein Wort zu benutzten), sondern derzeit werdende Realität in 2015/16.

Wer das als Illusion bezeichnet hat sowieso keine Ahnung.
Hersteller aller Branchen brauchen Verkaufsargumente.
Die Panel-/Displayhersteller treiben 4K voran und die Grafikkartenhersteller müssen und wollen die Leistung dafür in Spielen liefern. Der VR-Zug gibt dem ganzen letztendlich noch die letzte Würze.

Das Ziel ist absolut klar:
Die Leute sollen wieder ordentlich aufrüsten bzw. neue Systeme anschaffen.
Davon will und muss die ganze Branche profitieren, da sich in den letzten Jahren nicht mehr viel getan hat.

Es geht also um knallharte wirtschaftliche Interessen und nicht um Optionen.

Schrotti
2015-03-06, 14:13:17
Auf NVidia bezogen hätte man die GTX970 doch mit 4 GB und für 400€ mit 6GB oder 8GB anbieten können. Das würde sich nach einem guten Deal anfühlen. Stattdessen bekommt man 3,5 GB und als offizielles Statement die blanke Arroganz von Nvidia.

Was die Konsolen können oder nicht, spielt keine Rolle. Am PC sind 4K Bildschirme kurz davor, richtig "billig" zu werden und aktuell hat NVidia nichts bezahlbares im Programm, um einen (bezahlbaren) 4K zu betreiben.

Bevor jetzt wieder geklaskugelt wird, wie weit weg 4K doch ist... derzeit kostet ein Samsung 28 Zoll 4K TFT (http://www.amazon.de/Samsung-U28D590D-LCD-Monitor-Reaktionszeit-3840x2160/dp/B00IJS6PCC/ref=sr_1_1?ie=UTF8&qid=1425627467&sr=8-1&keywords=28+zoll+4k) nur noch 455€. Jede Wette das man in 2-3 Monaten locker unter 400€ liegt und spätestens zum Weihnachtsgeschäft zusammen mit Windows 10 der große 4K-Verkauf startet.
Die Frage ist, was 970/980-Käufer, die derzeit noch davon ausgehen, dass 4K weit in der Zukunft liegt mit ihrer sauteuer gekauften Graka machen? Weiter am FullHD zocken, wärend die Masse ihren Spass mit 4K hat?
Deshalb sind GTX970/GTX980 für mich auch zu teuer, da diese Karten keinerlei Zukunftssicherheit für den Preis mitbringen und bereits in wenigen Monaten beim Monitorwechsel das VRAM-Thema zur Katastrophe werden könnte.


Wozu denn?

Weder die 970 noch die 980 sind in der Lage ausreichend fps zu generieren um 4k effektiv zu nutzen (auch AMD schafft das nicht). Mit ausreichend meine ich dauerhaft über der 45fps Grenze.

Wozu dann also 6 oder gar 8GB VRAM? Wenn du schon mit 4k planst dann darfst du weit tiefer in die Tasche greifen als es dir lieb ist.

Alter Sack
2015-03-06, 14:29:00
Wozu denn?

Weder die 970 noch die 980 sind in der Lage ausreichend fps zu generieren um 4k effektiv zu nutzen (auch AMD schafft das nicht). Mit ausreichend meine ich dauerhaft über der 45fps Grenze.

Wozu dann also 6 oder gar 8GB VRAM? Wenn du schon mit 4k planst dann darfst du weit tiefer in die Tasche greifen als es dir lieb ist.

Die Frage ist dabei doch, ob die GPU-Power einer GTX970 ausreicht, um 4K zu zocken, bzw. steigt der GPU-Bedarf mit höherer Auflösung wirklich synchron mit dem VRAM-Bedarf an?

aufkrawall
2015-03-06, 14:36:27
Viele Spiele scheinen mittlerweile einen Pool zu adressieren, der mit sinkender Auflösung nicht unbedingt signifikant kleiner wird.
Bleibt die Grätchenfrage, ob diese Menge wirklich benötigt wird, um Frametime-Spikes zu vermeiden.
Imho sollte man der Kompetenz der Entwickler bei solchen Sachen eher kritisch gegenüber stehen. Zumindest mit einer API wie D3D11, wo der Treiber eh noch allerhand krude Eingriffe vornehmen kann, die schwer voraussehbar sind.
Mein Fazit ist daher, dass sich der Aufpreis für mehr VRAM durchaus auszahlen kann.
Wer jetzt wirklich eine GPU für die nächsten Jahre will, kommt um eine 290X 8GB nicht herum.
Ich persönlich würde eine GPU aber nie so lange behalten, man muss dann eh schon Kompromisse bei der Performance eingehen.

Palpatin
2015-03-06, 15:09:52
Wozu dann also 6 oder gar 8GB VRAM? Wenn du schon mit 4k planst dann darfst du weit tiefer in die Tasche greifen als es dir lieb ist.
2 970 mit 7GB in Kombi mit SLI und Gsync wären der perfekte DEAL für 4k.

aufkrawall
2015-03-06, 15:15:13
Würde im Vergleich zu einem GM200 absolut zum Kotzen sein. ;)

Palpatin
2015-03-06, 16:21:53
Würde im Vergleich zu einem GM200 absolut zum Kotzen sein. ;)
Kommt auf den Preis an ;). Aber hast scho recht, imo wäre es aber ein guter Deal den ein GM200 zu einem fairen Preis (~800€) ist nicht in Sicht. Rechne bei der Titan X mit ~1500€.

aufkrawall
2015-03-06, 16:29:52
Das ist das Problem. :frown:
Zu doof, dass es 8GB HBM noch nicht gibt.

Alter Sack
2015-03-06, 17:06:33
Weiß man mittlerweile ungefähr was NVidia & AMD dieses Jahr noch rausbringen werden?
Die GTX9xx-Serie ist ja mittlerweile auch schon wieder ein halbes Jahr auf dem Markt.
Leider gibts einen Shrink auf 16nm so wie man liest frühestens erst in 2016.

aufkrawall
2015-03-06, 17:27:27
Titan X wird 12GB haben und den typischen Preis.
Der teildeaktivierte Chip dann 6GB und immer noch ein stolzer Preis.
AMD kann mit Fiji vorerst wohl nur auf 4GB HBM setzen. Vielleicht später im Jahr noch 8.

Ich fürchte fast, man muss dieser Arschlochfirma wieder das Geld in den Rachen stopfen, wenn man mehr als 4GB will. Wobei man sich die abgespeckte Version des GM200 auf jeden Fall genauer hinsichtlich des VRAMs anschauen sollte. Kennt man ja.

Alter Sack
2015-03-06, 17:57:38
Titan X wird 12GB haben und den typischen Preis.
Der teildeaktivierte Chip dann 6GB und immer noch ein stolzer Preis.
AMD kann mit Fiji vorerst wohl nur auf 4GB HBM setzen. Vielleicht später im Jahr noch 8.

Ich fürchte fast, man muss dieser Arschlochfirma wieder das Geld in den Rachen stopfen, wenn man mehr als 4GB will. Wobei man sich die abgespeckte Version des GM200 auf jeden Fall genauer hinsichtlich des VRAMs anschauen sollte. Kennt man ja.

Release im Sommer?

Dicker Igel
2015-03-06, 19:30:43
Die GTX285 war >100% schneller als die vorherige 4850.
:|

512MB vs 2GB verglichen? Selbst die 1GB 4850 mit der 2GB 285 im möglichen Limit zu vergleichen ist unfair. Aber auch ab davon bringt die 285 in dem Vergleich nie und nimmer einen 100%igen Leistungsschub.

Gast
2015-03-06, 19:38:46
Du weisst doch noch gar nicht wie schnell eine 960 (2GB vs 4GB) unter DX12 ist, wie kannst du da sagen das wäre nur ein Sodegrade. Sogar AMDs legen unter DX12 zu. Deine 660 kann das nie. Finde du hast zuviel durcheinander. Man kann bei einer DX12 Karte jetzt nicht nur von DX9-11 Performance ausgehen. Zudem kannst du eine zweite dazu stecken, DX12 soll ja auch Multi-GPU Systeme sinnvoll beschleunigen.

Du hast einen i7 2600K im System, was denskt du kann der noch befeuern.

Gott was wollt ihr mit Titan X, 1000-1300 Euro für eine einzelne Spielegrafikkarte ohne DP Power, beileibe nicht dafür. NVidia hat sie nicht mehr alle, die drehen langsam durch. Hoffe solche Preisvorstellungen verbietet die EU bald.

Dicker Igel
2015-03-06, 19:45:36
Vor allem würde ich aktuelle "NextGen" Games nicht als Anhalt nehmen. Mit der Zeit wird sich das einpendeln und 4GB Karten werden es wohlmöglich auch tun.

Schrotti
2015-03-06, 20:12:27
Ich habe ja zwei 980er und kann super in 4k spielen (DSR).

Mit einer wird das schwierig wenn die fps entsprechend hoch sein sollen. Auch der "kleine" 4GB VRAM ist da nicht hinderlich.

aufkrawall
2015-03-06, 20:17:19
Vorsicht mit Pauschalaussagen.
Ich denke nicht, dass etwa bei AC: U 4GB für 4k immer ausreichend sind.
Nicht immer nur die eigenen Spiele sehen, die (oh Wunder) laufen...

Gast
2015-03-06, 20:34:37
GM206 bringt wohl auch das bessere Raster-Processing mit, da kann GK106 einpacken. Erst die ti war eine GK104.

Dicker Igel
2015-03-06, 21:23:21
Vorsicht mit Pauschalaussagen.
AC:U ist ein frühes Nextgen-Release, daran würde ich mich wie erwähnt nicht orientieren. Mehr als 4GB ist natürlich besser, dabei will man aber auch nicht gemolken werden. Den relativ kurzen Schritt von 2 auf 6/8GB finde ich dabei auch etwas mystisch und sehe da eher Probleme vorm PC.

Gast
2015-03-07, 14:50:25
Mehr als 4GB ist natürlich besser, dabei will man aber auch nicht gemolken werden. Den relativ kurzen Schritt von 2 auf 6/8GB finde ich dabei auch etwas mystisch und sehe da eher Probleme vorm PC.
Ja da hat sich NVidia mit der 970 drum gekümmert, dass jetzt alle wie verückt VRAM brauchen und komischerweise haben sie auch gleich eine TitanX mit 12 GB aufgelegt, mal für schlapp 1,5 mille um die miesen Absatzzahlen der TitanZ wieder weg zu machen+Preisverfall. Der Effizienz-Krüppel GTX980 ist das Geld schon nicht wert. Dieser Laden schmeckt mir immer mehr. Wenn hier jemand seinen Kunden und den ganzen Markt manipuliuert dann nur dieser Haufen.

NVidia ist no go...:ass2: Die ganzen Fanboys lefzen und schäumen schon das sie sich endlich 3 von diesen schwarzen Geldvernichtern in den PC hängen können.

Gott wer braucht heute zum Zocken mehr als 6GB VRAM - keine Sau, wenn es nicht Professionell genutz wird und das kann man bei dem DP Krüppel TitanX jedenfall vollständig ausschließen. Für solch einen Müll interessiert sich auch keine UNI. Studenten sollen nicht spielen, sondern studieren.

Das hat Nvidia mit dem SI und VRAM-Krüppel 970 gut hingekriegt. Alle brauchen jetzt VRAM ohne Ende, frag mich bloß wofür. Bei mir werdenn zuweilen nicht mal 2 GB voll. Vermurkste und kaputte Texturen bei GameWorks Schrottspielen inklusive, aber irgendwie muss man ja Geld verdienen mit aller Macht.

@alter Sack
Hol dir eine 780 oder 280x, die 3GB reichen für dich noch ewig. Du sprichst hier mit Leuten die sich alle Nase lang eine neue Graka holen egal was, jedes halbe Jahr wenns geht.

Was die empfehlen ist für den Normalo so wichtig als wenn in China ein Sack Reis umfällt.

4K bei 60fps, nein danke, da speile ich lebger noch 1080p mit 100-144fps. Und dann läuft das auch flüssig. da könne wir unsd 2020 noch mal drüber unterhalten. Jetzt sollte man gucken was man für sein Geld für Gegenwerte erhält. NVidia, nein danke.

Alter Sack
2015-03-07, 15:31:37
@alter Sack
Hol dir eine 780 oder 280x, die 3GB reichen für dich noch ewig. Du sprichst hier mit Leuten die sich alle Nase lang eine neue Graka holen egal was, jedes halbe Jahr wenns geht.

Was die empfehlen ist für den Normalo so wichtig als wenn in China ein Sack Reis umfällt.

4K bei 60fps, nein danke, da speile ich lebger noch 1080p mit 100-144fps. Und dann läuft das auch flüssig. da könne wir unsd 2020 noch mal drüber unterhalten. Jetzt sollte man gucken was man für sein Geld für Gegenwerte erhält. NVidia, nein danke.

Die 780 hat einen TDP von 250 Watt. Dann doch ehern R290 oder R290X.
Für mich bietet der Graka-Markt wenn es um´s Upgrade von meiner GTX660 geht derzeit nur faule Kompromisse, wenn man keinen AA/AF/UHD-Grafikfetisch hat. Entweder ist der Preis zu hoch (GTX980), oder man bekommt ein verbuggtes Produkt (GTX970), oder es passt eigentlich alles, aber der Stromverbrauch ist exorbitant (AMD R290X).
Ich werde derzeit abwarten und schauen was noch so kommt. Dying Light lässt sich wunderbar mit reduzierten Details zocken und Far Cry 4 sollte hoffentlich wenn ich es spiele (warte noch auf einen Steam-Sale unter 20€) auch noch halbwegs fluppen. Mal schauen, was in 6-9 Monaten Richtung Herbst/Winter so rauskommt.

ehemals PCGH-Fan
2015-03-07, 15:39:24
Das Schlimme ist doch das es durch die Presse und Medien geht und als Manifest Plubik gemacht wird, was sich dann in allen Köpfen festsetzt.

Mir ist gestern bald die PCGH-Illustrierte aus der Hand gefallen. Da wird die 970 als "besonders empfehlenswert" bezeichnet, weil sie doch bis 3,5GB so schön performt und man ja bald Grafikkarten mit 4GB Vramausattung für alles braucht. Wofür bloß? Mein 22 Zöller kommt ohne aus, hab eine 280 bei 1,15 Ghz overdrive't (IceQ R9-280), die läuft und schluckt alles. Als wenn es nichts anderes gäbe als zocken.

"Jungs von der PCGH", tut mir leid aber das waren die letzen 5,50 Euro die ihr von mir bekommen habt und man kann nicht behaupten, daß ich das Heft nicht zig Jahre lange gekauft habe. Ich mag die Pressfreiheit und auch andere Freiheitsgrade, aber sowas ist unfassbar. NVidia hat wahrscheinlich mittlerweile auch die Presse eingekauft und wissen schon gar nicht mehr wohin mit ihrer Kohle.

Und wisst ihr noch was, eurer Internetauftritt ist optisch mittlerweile so kaputt wie die ganzen Spieletexturenvramfresser. Könnt ihr da nicht nochmal in euch gehen, das sieht mittlerweile aus wie Wurstsalat. Wenn ich das mittels mobile-Explorer auf dem Tablet öffne eine Katastrophe: "wollen sie auf unsere mobile Seite wechseln, ja - nein.

Antippen, nein will ich nicht. (Gedanklich:Bitte meine gewählte Desktopansicht in den Explorereinstellungen berücksichtigen! Das Display ist groß genug, auf anderen Seiten geht es auch. Kann doch nicht so schwer sein!)

Nochmal, nein will nicht.
Nochmal, nein will nicht.
Nochmal, nein will nicht.

Nein, nein, nein...ach leckt mich doch, dann Wechsel ich eben rüber zu computerbase!

Tut mir leid für 3d-center, ist sicher offtopic, musste aber raus (hab gerade einen dicken Hals) und wo trifft man die Leute sonst an, wenn man sich nicht anmelden möchte. Danke das ich das hier so posten darf.
Hoffe ihr habt Verständnis dafür.

ehemals PCGH-Fan
2015-03-07, 16:01:57
Die 780 hat einen TDP von 250 Watt. Dann doch ehern R290 oder R290X.
Für mich bietet der Graka-Markt wenn es um´s Upgrade von meiner GTX660 geht derzeit nur faule Kompromisse, wenn man keinen AA/AF/UHD-Grafikfetisch hat. Entweder ist der Preis zu hoch (GTX980), oder man bekommt ein verbuggtes Produkt (GTX970), oder es passt eigentlich alles, aber der Stromverbrauch ist exorbitant (AMD R290X).
Ich werde derzeit abwarten und schauen was noch so kommt. Dying Light lässt sich wunderbar mit reduzierten Details zocken und Far Cry 4 sollte hoffentlich wenn ich es spiele (warte noch auf einen Steam-Sale unter 20€) auch noch halbwegs fluppen. Mal schauen, was in 6-9 Monaten Richtung Herbst/Winter so rauskommt.
Nein die 780 hat eine TDP von 195 Watt, je nach Spielelast läuft sie zuweilen mit 75-83% TDP, rechne nach was das dann ausmacht. Rund 170w-180 würde ich so sagen, was sie Volllast schluckt ist doch ein ganz anderes Thema. Eine 7970 sieht wohl ähnlich aus, die 7950 kann man auch auf 145-150w (-10PT) drücken. Bevor Feature wie DX12 oder so in Spielen greifen sind die derzeitigen Generationen sowieso überholt. Overheadreduktion soll auch auf älteren Generationen was bringen. Sieht man ja bei den AMD APUs doe profitieren und die haben auch keine neusten GCN-Generationen onboard. Die AMDs reichen dann bis DX FL 11.2.

Du musst dich besser informieren und nicht von OC-Grafikkarten ausgehen, braucht man nicht unbedingt bzw. schlummert diese Dreingabe auch in so manchem Referenzboard wenn man sich damit mal beschäftig, habe sogar 7950 gesehen die mit 1250 Stabil laufen und so fast an die 1GhzE kommen.

Hab hier vor kurzem einen kleinen HTPC zusammenstellen lassen, dessen 280 läuft mit sage und schreibe 1350Mhz stable. Da hat jemand wirklich sauber an einem Bios gefeilt, was ich aber nicht weitergeben dar. Das war der Deal weil man bei Umlauf Angst hatte das dann Leute ihre Karten schrotten. Ist natürlich mit Wasserkühlung, aber AiO kosten auch nicht mehr die Welt. Und was ich für das Teil bezahlt habe ist einfach Hammer, Danke nochmal!

@Mirko
2015-03-07, 16:45:09
ehemals PCGH-Fan
*räusper*
*hust*

Dicker Igel
2015-03-07, 16:48:48
Ja da hat sich NVidia mit der 970 drum gekümmert, dass jetzt alle wie verückt VRAM brauchen und komischerweise haben sie auch gleich eine TitanX mit 12 GB aufgelegt, mal für schlapp 1,5 mille um die miesen Absatzzahlen der TitanZ wieder weg zu machen+Preisverfall.
Naja, die Titan ist halt ein Produkt für Freaks. Ich leg meine Vinyls auch nur auf 'nen 1210er, obwohl es billigere Alternativen gibt. Das mit der 970 ist echt ärgerlich, sowie diese komische "SI-Politik" von NV. Zur Zeit habe ich zwar keinen Aufrüstbedarf, aber wenn es wieder mal soweit ist, wäre AMD auf jeden Fall mit auf dem Zettel.

ehemals PCGH-Fan
2015-03-07, 16:58:12
*räusper*
*hust*

:wave2:

@alter Sack
Guck doch mal ob man noch was aus der 660 rausquetschen kann (Bios'e im untereren Link bei GTX 660). Zum Thema 780, was man overclocken kann kann man auch undervolten, geht bei AMD dann auch über den Treiber. Doppelte Vrammenge und doppelt so schnell bleibt es trotzdem, mit 6GB Vram sicher noch etwas zukunftsträchtiger. Beispiel:
http://www.forum-3dcenter.org/vbulletin/archive/index.php/t-552635
http://www.hardwareluxx.de/community/f305/nvidia-geforce-gtx-700-600-serie-bios-files-932143.html

@Mirko
2015-03-07, 17:10:16
Naja, die Titan ist halt ein Produkt für Freaks.
1,3-1,5k ist zu fett. Für 50-80 Euro mehr Vram (6 vs 12 GB) und 30-40% über der 980 OC? nVidia übertreibt. Denke mal das ist wieder Strategie wie bei der 970, die geben die dann für 850-995 Euro in den Markt, den Salvage Part dann für 700-775 und die wird gekauft wie verrückt.Wenn dann noch eine 980ti kommt kann die bei 650 liegen. Hoffe AMD kann bei der XT unter 700 bleiben. Besser noch unter 600.

Gast333
2015-03-07, 22:08:50
170w-180
Da sieht man mal wie nVidia die Leute manipulieren kann, die 970 ist dabei manchmal kein bißchen sparsamer und auch nicht immer schneller plus Ruckelorgien-SI-Schrott.

die 7950 kann man auch auf 145-150w (-10PT) drücken.
Und da feiert man nVidia für ihr neues effizientes Maxwelldesign bei der 960, die 1 GB weniger VRam hat. Die Tahiti ist mittlerweile uralt und genauso schnell. Dann muss sie auch nicht sparsamer sein. Wobei sie unter Overcklocking gut zulegt. Nur den VRam sollte man in Ruhe lassen. Die 960 kannst auf 1,5 schieben aber viel kommt da nicht.

QUOTE=ehemals PCGH-Fan;10545762]Hab hier vor kurzem einen kleinen HTPC zusammenstellen lassen, dessen 280 läuft mit sage und schreibe 1350Mhz stable. [/QUOTE]
Ja, und dann geht die auch! Braucht dann aber auch 190-210w. H2O ist dann sicher das Beste. Nach oben raus bleibt weniger Spielraum was das Verhältnis Spannungserhöhung = stabile Taktrate = Leistungszugewinn angeht. Die Leckströme werden irgend wann zu hoch. Da hat dann einer alles rausgeholt. Dürfte nicht mit jeder GPU machbar. Aber trotzdem, AMD baut ja nur Schrott!

Gebraucht kriegt man die billig und neue 280 OC kosten 180 Euro mit 1GB mehr VRam. 1,15-1,2Ghz schaffen aber viele stabil unter Luft. Da verstehe die Welt wer will. DX12 ist jetzt ja so wichtig. Jahrelang hat nVidia die Entwicklung mehr als behindert und Ausflüchte erfunden. Braucht man eh nicht. Ja, klar. Mir reicht eine 7970 bisher vollkommen. Die 30-50w mehr, das hat sich beim Anschaffungspreis bezahlt gemacht. Da müsste ich die noch Jahre behalten. Nach 3 Jahren wechselt man heutzutage sowieso.

Selbst aus einer 660 kann man mit overclocking noch einiges rausholen. Dieser wir brauchen VRam-Hype ist doch Nonsens.

Gast333
2015-03-07, 22:12:51
Muss man mal überlegen, 800-850Mhz zu 1350Mhz, 500Mhz Taktzugewinn für lau und jeden. AMD diese Schrottfirma.:rolleyes:

Razor
2015-03-07, 22:21:02
@Mirko

Klar hält er damit die Diskussion am Leben... aber sie führt eben auch zu nichts.
Die 970 ist tot... zu viel für zu wenig.

Ja, die 960 mit 4GB könnte was werden - vielleicht.
Hier müsste sich zeigen, wie gut Maxwell tatsächlich "komprimieren" kann, um hier nicht über das schmale Band - die Bandbreite - zu fallen.

@AlterSack

Bildschirme, Fernseher & Co. sind kein Problem.

Auch wenn es bezahlbare 4k-Geräte gibt, weil sich die Industrie einen "Schub", wie bei den flachen HD's erhofft...
...heißt das noch lange nicht, dass man darauf etwas anderes als Filme schauen können wird.

Oder was meinst Du, warum es nur noch 16:9 Geräte gibt, obwohl gerade im PC-Sektor 16:10 DAS Verkaufsargument schlechthin ist?
Und... "scheiß auf Retina"! Hat bei den Apples lediglich zu einem "schönen Desktop" geführt, zu mehr nicht.
Wäre DAS Dein Ziel? Dann kannst Du auch Deine GTX660 behalten.

@Ihm

Der "VR-Zug" hat mit 4k nun rein gar nichts zu tun... hier heißt es schlicht "weniger ist mehr".
Oder wo soll hier noch mal der Zusammenhang zu finden sein?

@Schrotti

Du hast es glasklar erfasst... nicht nur die Menge an VRAM ist das Problem... die fehlende Rechenleistung ist es zudem.
Und ganz davon ab, macht das Ganze bei kleinen Displays (bis 40" ;-) ja nicht einmal Sinn.

@Palpatin

Zwei 970 im SLI mit nur einmal 3,5GB machen noch viel weniger Sinn, als eine 980 mit 4GB.
Hier würde ich dringend einmal die eine oder andere Lektüre empfehlen...

@Aufkravall

Die "Titan X" mit 12GB ist nichts anderes, als eine "billige" Quadro für den Consumer Markt.
Das ist so ähnlich, wie mit den derzeitigen Prozessoren im Z9x-Umfeld - auch hier werden Xeons an den Consumer gebracht... kleine Xeons.

@all

Sorry Leute, aber offenbar gibt es in diesem Umfeld keine neuen Argumente.

Vermutlich heißt es dieses Jahr einfach: Finger weg!
Dieses Jahr kommt halt nüscht, außer eben Windows10, welches hoffentlich dieses elendige Win8x Zeugs begraben wird.
Sehr viel mehr erwarte ich nicht...

Jetzt warte ich erst einmal auf die 960 mit 4GB, bzw. darauf, wie sie sich so schlagen wird.
220€ fürs Klo würde ich dafür glatt noch "investieren", auch wenn es nur ein lüttes "SideGrade" ist :)
Und wenn es dann noch Witcher 3 obendrauf gibt, wäre der Frühlingsdeal schlechthin "perfekt" ;D

Razor

@Mirko
2015-03-07, 23:17:44
@Mirko
Klar hält er damit die Diskussion am Leben... aber sie führt eben auch zu nichts. Die 970 ist tot... zu viel für zu wenig.
Ja, die 960 mit 4GB könnte was werden - vielleicht. Hier müsste sich zeigen, wie gut Maxwell tatsächlich "komprimieren" kann, um hier nicht über das schmale Band - die Bandbreite - zu fallen.

Gute Argumente.

Nvidia ist ja nicht generell der Vorantreiber dieser Karte. Sie war wohl geplant, aber so früh glaube ich persönlich nicht. Sondern die Partner brauchen sie wohl, weil denen die Kritk an der 2GB VRAM Ausstattung der Karte entgegenschlug. Die Komprimierungleistung und damit Bandbreitenersparnis kann dann nicht höher ausfallen als bei einer halben 980 bei halbem Speicherinterface. Ich vermute die 960 wird nicht unbedingt riesig von größeren VRAM Mengen profitieren, wobei die Effiziens etwas leidet. Das ist reines Marketinggebahren der Partner. Gegenüber einer 660 mit 1,5GB aber schon.

Von höheren Taktraten profitiert der GM206 anscheinend nicht sonderlich, ist dahingehend schon stark ausgereizt. Denke Nvidia ging es einfach um eine billige Variante die man auch gut OC kann. Die Frage wäre, was hätte ein kleinerer Fertigungsprozeß ermöglicht. Sicherlich eine Kostenersparnis bei Wafern mit weniger guter Yieldrate. Nvidia geht es in dabei wie AMD mit Tonga, ich glaube das dieser mehr Spaß machen würde wenn er im kleineren Fertigungsprozeß erscheinen hätte können. Bei diesem könnte die Taktrate (wie auch bei Tahiti Pro) deutlich bessere Leistungszugewinne ermöglichen. Die SP Leistung hat dabei ordentlich zugelegt. Zur Tahiti Pro fast verdoppelt. Der GPU Entwicklungsstand sowie das Leistungsvermögen hängt derzeit etwas vom Fertigungsprozeß ab und dem Fehlen kleinerer Technologie. Denke nicht das dies so geplant war.

Dafür steht auf der anderen Seite ein ausgereifter Prozeß mit hoher Ausbeute, was den IHVs ermöglicht erstmal etwas mitzunehmen. Auch AMD, was für kommende Entwicklungen gut wäre.

Trotzdem sind beide Ansätze eigentlich für Preisnachlässe prädistiniert. 150-175 Euro, mit neuen Treibern unter DX12 bleibt dann noch, sich einen kleines SLI oder CFX zusammezustellen. Das schafft 4K und verbraucht sowei kostet irgendwann IMO nicht übermäßig viel. Zwei 960 oder aufgebohrte Tomgas ala 370 könnten dann mit der 980 mithalten. Dazu sollte die einzelne Karte schon 3-4GB VRAM haben, zumal Nvidia dann wieder mit guter Effizienz kontern könnte. Warten wir mal ab was AMD mit einer "feinfühligeren" Stromversorgung auf den Platinen anstellen kann. Der ausgereifte Fertigungsprozeß ermöglicht zudem niedrige Spanungswerte bei den GPUs, was Ersparnis pur bedeuten kann.

Warten wir mal ab, ich denke wenn die Preis fallen und das wird mit Erscheinen AMDs neuer Generation passieren (oder für ältere GPUs kurz davor, denke ab April [dann sind auch die 280iger irgendwann abverkauft]), werden die 285 und dahingehend auch die 960 mit 2-4GB Alternativen werden und sein. Omega und Wundertreiber inbegriffen, die DSR, VRS, Freesync und GSync mitbringen. Zudem neue Ansätze für die Berechnung der Bilder mit gutem fps-Zuwachs was Multi-GPU Systeme angeht. Wartet doch ab, es kommt wenn es kommt.

Ich glaube aber der Früh-Sommer wird heiß. Dieses Jahr nicht? Doch!

Nvidia geht es jetzt wie AMD, die Vorgängergenerationen müssen abverkauft werden (GTX760-280/x). Dann werden auch die Preise fallen und die Angebote interessanter. War in den Frühjahrsmonaten aber noch nie anders, seit wann verkaufen sich im Februar GPUs wie geschnitten Brot?:cool:

Die 970 ist ein Thema für sich, da halte ich mich lieber raus. Was geht mich der Betrug-das Elend von Nvidia an und deren Beschissszenarien. Sollen die zusehn wie sie das gerade biegen. Natürlich tun mir die Betroffenen Leid, aber als Erstkäufer wird man immer verarscht. Hoffe die Leute lernen daraus.:freak:

Zur Zeit ist aber genug in Mache. Für mich persönlich stehen eher zwei 4K Bildschirme mit Freesync oder GSync an, und da warte ich ganz bestimmt wer mir das Beste bieten kann. Gamingpowerupdate Mitte des Jahres, geplant nicht mehr als 2k was die Kostenentwicklung betrifft. GPU-Power habe ich aber genug, nur aus Neugierde und da könnte AMD gewinnen. Maxwell-V2 ist "amazing" und "its a Feature" aber so langweilig.:biggrin:

Denke was ich bisher so gesehen hab, naja, könnte gut passen. Man kann sowieso nichts machen, Abwarten und Tee trinken oder Kaffee.:ucoffee:

Und jetzt geh ich pennen, langer Tag wie immer..;)

Gast
2015-03-07, 23:54:22
Ich würde so ein kleines Sli nehmen, wenn es a) nicht so rucklig wie die 970 ist und b) nicht viel mehr kostet aber schneller als eine 970 ist. Der Mehrverbrauch ist mir egal wenn die Leistung stimmt. Würde auch die 370 nehmen wenn die weniger vrrbraucht. Das wäre schon was.:-)

Gast
2015-03-08, 00:14:03
"scheiß auf Retina"! Hat bei den Apples lediglich zu einem "schönen Desktop" geführt, zu mehr nicht.
Mit der Meinung dürftest zu zeimlich alleine dastehen. Ich habe vor kurzem zum ersten mal einen iMac mit 5K-Retina gesehen. Das Bild von diesem Gerät hat mich beeindruckt. Nicht gamingtauglich? Die GPU ist ein mobile-Chip von ATi. Was hattest du erwartet? :freak:

Ich glaube, daß es in Zukunft zu Streaming-Diensten kommen könnte. Man wird dann vermutlich einen 5K-Stream direkt von einem Hochleistungsrechner geschickt bekommen. Die Leute, die sich ein 5K-Retina Display leisten, wird es vermutlich nicht groß Schmerzen, wenn dann im Monat noch eine 5K-Spiele-Flat dazu kommt.

Die meisten Spiele sind doch heute schon nicht mehr ohne permanente Verbindung ins Internet spielbar. Wieso soll man dann überhaupt noch stundenlang ein Spiel von Steam runterladen und auf dem heimischen PC installieren? Das könnte sich sogar rechnen, weil man dann im Prinzip weder leistungsstarke Gaming-Hardware noch jährliche Windowsversionen mit aktualisiertem DX nachkaufen müßte. Und gekauft werden müßten die Spiele auch nicht mehr, sondern es wird nur für das bezahlt, was wirklich gespielt wird.

Stell dir nur mal einen kurzen Moment ein Crysis 3 in 5K-Auflösung bei 120Hz auf einem 5K-Retina in 3D vor. Oder von mir aus auch auf einem 3 x 1,5 Meter curved UHD-TV.

Selbst wenn nVidia sowas ermöglichen wollte, würden sie es imo nicht hinbekommen. Dazu müßten sie wahrscheinlich nochmal bei Null anfangen. Mit dem, was sie jetzt haben, werden sie niemals dorthin kommen. Die werden sich noch genauso festfahren wie seinerzeit mal 3Dfx. Man wird aus purer Verzweiflung immer mehr Cores auf einen Chip packen. Und wenn das nicht geht, immer mehr Chips auf eine Grafikkarte und dann immer mehr Grafikkarten in einen PC.
Das wird zu keinem guten (bezahlbaren) Ende führen. Man darf also gespannt sein, wie nVidia seine Zukunft plant. Was mit 3Dfx passiert ist, als man den Erwartungen nicht mehr entsprechen konnte, wissen wir schon.

dargo
2015-03-08, 08:40:21
Ja, die 960 mit 4GB könnte was werden - vielleicht.
Hier müsste sich zeigen, wie gut Maxwell tatsächlich "komprimieren" kann, um hier nicht über das schmale Band - die Bandbreite - zu fallen.

Ich hatte das schon mal im anderen Thread erwähnt... die GTX960 ist ne halbe GTX980 von der Rohleistung her mit der halben Bandbreite. Wo siehst du also hier ein Problem? Oder findest du die Bandbreite der GTX980 auch zu gering?

weiterer Gast
2015-03-08, 08:45:17
Gast ja so sehe ich das auch. Die Preise die nVidia mittlerweile für Hardware aufruft die lokal und zu Hause 5K ausführen aufruft sind exorbitant. So wie Mirko schreibt sind zwar auch kleine SLI Systeme möglich nur kostet dieser Ansatz ja auch wieder mehr.

Ich denke das wir uns langsam von dem klassischen Home Spiele PC verabschieden können, weil für den Großteil der Leute bei steigender Auflösung unbezahlbr wird. 1500 Euro für eine sGPU, damals wurde geschimpft das eine TNT Ultra 1250 DM gekostet hat. Mittlerweile wären das 3000. NVidia steckt in ejner Sackgasse, weil sie professionelle GPUs einfach in den Consumergeschäft in abgespeckter Form entlassen. Den Abfall aus dem HPC Geschäft verwursten und sich dabei noch wie die Heilsbringer vorkommen. Ich bin schon auf die Berichte der Fachpresse gesannt wie toll eine TinanX doch performt und was für eine tolle Karte das ist.

Ja das 5K Retinadisplay ist der Hammer, aber auch viel zu teuer. Naja Appleaufschlag mal wieder.

Ich hoffe inständig AMD können mich überraschen. Ich wäre für die nächsten Jahre bereit gerne 600-700 Euro in eine Highendgrafikkarte zu investieren. Der HBM Ansatz hört sich für mich interessant an, jedoch sollte AMD auf die Leistungsaufnahme achten. Das gehört bei solchen Preisenregionen einfach dazu, da geht es auch um Ausgewogenheit die inen einem bestimmten Verhältnis stehen solllte. Kaif mit ja keinen Audi oder BMW Hightediesel wenn dieser 30 Liter verbraucht.

Gast
2015-03-08, 09:10:14
Wenn die 390x eine maximale TDP von 300w hat, unter Spielen 200-250w verbraucht und doppelt so schnell wie eine 290 ist, wäre das ein großer Schritt nach vorne für AMD. Das ginge für mich voll i.O..

Die 660 ist mittlerweile keine Alternative mehr, da würde ich definitiv auf 3 oder 4GB Vram setzen. Wie wurde hier schon beschrieben. Eine 7950 ist gebraucht preiswert und man kann eine zweite dazustecken. Den Verbrauch trimmt man sich mit Oberdrive hin. Da kauf ich sicher keine Vram oder SI Krüppel und auch keinen überteuerten HPC Schrott.

Alter Sack
2015-03-08, 09:11:03
Wäre beispielsweise sehr schwierig, eine R290X in einem gedämmten Silent-Case anständig und leise zu kühlen, wenn man LüKü einsetzt.
Mein kompletter PC (i7-2600k und GTX660) verbraucht beim zocken ca. 180-200 Watt max.
Mit R290x gehts so wie man liest schnell auch mal Richtung 400 Watt Gesamtverbrauch.

Gast
2015-03-08, 09:26:06
Die TDP der 290x kannst du mit Oerdrive drücken Bei moderatem Frameverlust kannst du die bei um 180w betreiben. Gab auch irgendwo mal Vergleiche 980 vs 290x. PCGH glaube ich. Die haben das mal durchgetestet. Die 980 verliert dabei weniger, ist aber auch deutlich teurer. Nimm ein gutes Kühlercustomdesign falls du dich fur die 290x und einen leisen getrimmten Betrieb interessierst. Ovedrive macht es einfach möglich.

3dcenter! Eure mobile Seite wird zuweilen mit einem Serverfehler quittiert. Könnt ihr mal gucken, ob bei euch alles i.O.?

Alter Sack
2015-03-08, 09:43:33
Die TDP der 290x kannst du mit Oerdrive drücken Bei moderatem Frameverlust kannst du die bei um 180w betreiben. Gab auch irgendwo mal Vergleiche 980 vs 290x. PCGH glaube ich. Die haben das mal durchgetestet. Die 980 verliert dabei weniger, ist aber auch deutlich teurer. Nimm ein gutes Kühlercustomdesign falls du dich fur die 290x und einen leisen getrimmten Betrieb interessierst. Ovedrive macht es einfach möglich.

3dcenter! Eure mobile Seite wird zuweilen mit einem Serverfehler quittiert. Könnt ihr mal gucken, ob bei euch alles i.O.?

Das Ding ist, dass die Abwärme aus dem Gehäuse muss und da müsste ich auf mein Ultra-Silent-Gehäuse wohl verzichten.
Als Umbau kähme in Fractal-R4 in Frage. Bei den Lüftern würde ich auch eine Steuerung verzichten und stattdessen alle Lüfter mit einem einzigen Schalter ausschaltbar machen (=Desktopbetrieb). Dann dürften die Lüfter auch beim zocken etwass lauter werden, denn beim Arbeiten ist ja totenstille ;) .
Aktuell bleibe ich aber bis auf weiteres wohl bei der GTX660 und verzichte notfalls auf hohe Settings in Spielen und AA/AF.
Wenn ich mir eine Karte selber herstellen könnte, wäre es eine GTX970, die nochmal ca. 20% langsamer ist, dafür aber 4-6GB (komplett 256bit) hat und eine TDP bietet, die nicht höher als bei meiner GTX660 liegt. Preislich dürfte diese Karte dann max. 250-270€ (bei derzeitigem Dollarkurs) liegen.
Durch den miesen Dollarkurs haben wir derzeit sowieso superbeschissene Preise. Wäre de rKurs noch wie vor einem Jahr, wäre der GTX970-Preis bei ca. 300€. Aktuell darf man ca. 360€ abdrücken. Das macht den Kauf von sowieso schon überteuerten NVidia-Karten noch schlechter.

@Mirko
2015-03-08, 11:17:28
Das Ding ist, dass die Abwärme aus dem Gehäuse muss und da müsste ich auf mein Ultra-Silent-Gehäuse wohl verzichten.
Als Umbau kähme in Fractal-R4 in Frage. Bei den Lüftern würde ich auch eine Steuerung verzichten und stattdessen alle Lüfter mit einem einzigen Schalter ausschaltbar machen (=Desktopbetrieb). Dann dürften die Lüfter auch beim zocken etwass lauter werden, denn beim Arbeiten ist ja totenstille ;) .
Aktuell bleibe ich aber bis auf weiteres wohl bei der GTX660 und verzichte notfalls auf hohe Settings in Spielen und AA/AF.
Wenn ich mir eine Karte selber herstellen könnte, wäre es eine GTX970, die nochmal ca. 20% langsamer ist, dafür aber 4-6GB (komplett 256bit) hat und eine TDP bietet, die nicht höher als bei meiner GTX660 liegt. Preislich dürfte diese Karte dann max. 250-270€ (bei derzeitigem Dollarkurs) liegen.
Durch den miesen Dollarkurs haben wir derzeit sowieso superbeschissene Preise. Wäre de rKurs noch wie vor einem Jahr, wäre der GTX970-Preis bei ca. 300€. Aktuell darf man ca. 360€ abdrücken. Das macht den Kauf von sowieso schon überteuerten NVidia-Karten noch schlechter.
Entschuldige, für mich hörst sich das alles nach Drumrumgerede oder Ausflüchte-Ausreden an. Eigentlich willst du gar nicht wechseln, eher motzen?

Im Bereich der Steuerung und Überwachung gibt es in Form von Nachrüstsets schon Schaltungen die dir ermöglichen was du wünscht. Entsprechede Noiseblocker- oder Supersilentlüfter gibt es zu kaufen. Nachrüstkühler die auch mit einer 290x zurechtkämen, fachliche Beratung hier im Forum und womöglich auch den einen oder anderen Rat wie man sich anstellen soll. Oder die Vorstellung deines Wunsches ohne Verbindlichkeiten an einen Fachmann, der auch dein Gehäuse erhalten kann, ohne das du was neues brauchst weil er einfach mal gegenrechnet was nach deinen Vorstellungen möglich ist.

Den Luftstrom in einem Gehäuse vollständig zum Erliegen zu bringen halte ich persönlich für kontraproduktiv. Selbst wenn die Peripherie idelt heißt das nicht das der Chipsatz vor sich hinköchelt weil du gerade 30GB an Dateien mittels USB-Transfer überträgst. Ein sanfter Luftsrom sollte im Gehäuse immer bestehen um sich bildende Wärmenester auszumerzen. Dabei bleibt der Gesamtperipherie eine zeitliches Temperaturfenster erhalten wenn du vom Idle-/ in den Volllast-oder Spielemodus springst, was dir die Komponeten auf längere Zeit mit fehlerlosem Betrieb danken werden. Das kann völlig unhörbar passieren, wenn man die richtigen Komponenten wählt.

Die vollständige Geräuschdammung ist eine Disziplin für sich. Ich habe festgestellt das man dies nur bei guten Aluminiumgehäusen tun sollte, insbesondere dann wenn wenige oder kein Lüfter laufen soll. Die Temperaturen steigen definitiv auch im Idlebetrieb an, weil der Wäremaustausch über die Gehäusestrukturen zuweilen je nach Material vollständig blockiert wird. Als kleiner Rat, man kann die Rückwand frei lassen, weil die Hauptplatine, deren Trägerelement und die Rückwand eigentlich die Geräuschentwicklung dreifach abschirmen. An der Rückwand aber ein Wärmeaustausch über das Gehäuse stattfinden kann und damit auch einen zusätzlichen Kühleffekt bewirkt. Der Luftstrom sollte dabei gezielt auf eine Wäremabfuhr aus dem Gehäuse ausgerichtet sein. Da gibt es Möglichkeiten die Bereiche CPU und GPU voneinander zu trennen.

Ich empfehle dir eine Hybridlösung, CPU mittels Luft, GPU mitttels Hybrid Luft-Wasserkühler, kostet nicht die Welt. Nur die Länge der GPU Platine (280/280x-780-290/290x etc.) und das Leistungsvermögen deines Netzteil könnte dabei hinderlich sein. Das müsste man sich angucken.

Du machst es dir insgesamt zu schwer. Ich hab hier 15-17 Jährige die den Dremel unter Anleitung selbst in die Hand nehmen und das hinkriegen, wenn man etwas acht gibt was sie tun.

Nur mal hier gucken: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560885

Wie alt sag ich jetzt lieber nicht, nicht das du vom Stuhl fällst. Das Teil kommt mit der 290x alle male zurecht. Flüsterleise bei 50-60°C. Mit einer 280x kommt das Ding locker klar und wenn man Hawaii oder Tahiti runterkühlt wirkt sich das sofort auf die lastbedingte Leistungsaufnahme aus. Da muss man nicht mal viel mit Powertune rumspielen.

Sei nicht so faul.:wink: Ja, alter Sack nur meckern!;)

Das die Preise für Hardware gestiegen sind, daran sind ja nicht die Hardwarehersteller Schuld sondern unsere zu Hauf versagende Politik. Da müssen wir aber alle durch.

tor'res-canada
2015-03-08, 11:50:39
@Mirko
Cool...:up:

@alter Sack
Er meint wohl sowas hier: http://www.amazon.de/NZXT-G10-GPU-Adapter-Kraken-Schwarz/dp/B00ITTFO8M + eine Grafikkarte und AiO Kühlung deiner Wahl.

https://www.youtube.com/watch?v=qqZhiQNH_Xc
http://www.tomshardware.de/r9-290-umbau-wasserkuhlung-review-tutorial,testberichte-241464-2.html

Geht einfach schnell und funktioniert gut. Da musst du an deinem Gehäuse nichts ändern, den Lüfter tauschst du gegen einen bequiet! oder anderen Noiseblocker mit genug Fördervolumen aus und setzt den Radiator da hin wo jetzt ein 120mm werkelt.

Gast
2015-03-08, 13:00:26
Das hier reicht doch vollkommen, nichts weiter als Getrolle gegen Nvidia, weil die die Leute veräppeln. Ist die leiseste Karte im Testfeld und hat genug Leistung für FHD.

http://www.mindfactory.de/product_info.php/3072MB-Sapphire-Radeon-R9-280-Dual-X-OC-Aktiv-PCIe-3-0-x16--Lite-Retail-_956461.html
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/30252-sapphire-radeon-r9-280-dual-x-im-test.html

Ich weiß echt nicht was alle immer mit Nvidia wollen? Wer deren Politik unterstützen will soll es kaufen. Was bringt die 760 denn mehr? Nix, die 960 auch nicht. Die 970 ist sparsam aber ansonsten kann man die vergessen.

Der Preis ist bereits bei 180 Euro angekommen und das kann man nur nehr als fair bezeichnen für das Stück Hardware. Da würde ich nicht mal mit der Wimper zucken. Den Rest einfach ausitzen bis 4K wirklich marktreif ist.

Sekbst die 960 4GB wird teurer sein, bestimmt für 250 Euro kommen und ist nicht schneller. Es gibt 960iger die unter speilen bis zu 177w fressen.

Das Einzige was für die 960 oder 970 spricht, Nvidia packt jetzt irgendwann Witcher 3 kostenlos dabei. Kann man auch anders sehen. Ich würde mich als Erstkäufer in den Arsch beißen. Die verkackeiern die Leute immer mehr!

290xler
2015-03-08, 13:31:00
Die TDP der 290x kannst du mit Oerdrive drücken Bei moderatem Frameverlust kannst du die bei um 180w betreiben. Gab auch irgendwo mal Vergleiche 980 vs 290x. PCGH glaube ich.
Nein auf ht4u=http://ht4u.net/reviews/2015/watt_vs_frames_amd_r9_290x_und_nvidia_gtx_980_im_effizienztest/index7.php

@alter Sack du erzählst Qutasch, am besten 1000w mit einer 290x und deinem i7 2600k. Immer schön seicht gegen AMD bashen und so tun als würde man mit nVidia ein Problem haben. Welcher Zweitaccount bist du? Und immer schön einen auf alt und gebrechlich machen. Mirko hat Recht du willst nur motzen.:P

Anno 2070 262
Assassin\'s Creed: Black Flag 235
Battlefield 4 236
BioShock: Infinite 251
Brink 198
CoD: Ghosts 232
Crysis 3 236
DiRT: Showdown 216
Far Cry 3 246
Hitman: Absolution 247
Max Payne 3 238
Metro: Last Light 252
SC: Blacklist 251
TES V: Skyrim 225
The Witcher 2 235
Thief (2014) 226
Tomb Raider 251
Wolfenstein: The New Order 174

Im Schnitt 210-220w beim Spielen. Mit einem besseren Customdesign oder Nachrüstkühler bei 195-205w mit OC bei 1050-1075Mhz oder -xx Powertune um 200w. Guck dir den Test bei ht4u an. Die messen dort ziemlich genau. Diese ganzen Märchen sind doch Mumpitz und das war eine 290x OC von MSI die nicht die Beste ist was die Kühlung angeht. Besonders die Spannungswandler werden dort viel zu warm.

Die IceQ 290x gabs vor kurzem für 316 Euro da muss man nichts mehr nachrüsten oder so und 4K geht da auch, jedenfalls besser als auf der 970/980.

Gast
2015-03-08, 14:02:34
Die 290x wird schon deutlich mehr verbrauchen, aber die 960 sieht unter 1440p die Sonne nicht mehr. Da helfen auch keine 4GB Speicher. Die 970 braucht dann genauso viel wie eine 780 unter Spielen. Um 180w. Mit AA Modi ist eine 290x bis 75% schneller als sie 960 http://ht4u.net/reviews/2015/nvidia_geforce_gtx_960_msi_gtx_960_gaming_2g_im_test/index40.php Auch MFAA hilft da wenig. Scheiß auf den Stromverbauch. Als wenn man 24/24 spielt. Die 290x kostet im Schnitt 50 Euro weniger als eine 970.

@Mirko
2015-03-08, 14:40:36
Nun kommt wieder runter! Bei bis zu 400-425w sind zuweilen schon realistisch und unter Peaks kurzzeitig auch mehr. Daher sollte man auch eine moderne PSU anschaffen.

Mein kompletter PC (i7-2600k und GTX660) verbraucht beim zocken ca. 180-200 Watt max.

Das glaub ich nicht. Die 660 hat eine max. TDP von 140w, in Spielen um 125w, denke nicht das deine CPU und der Rest mit 55-75w auskommen. Dann hängst du extrem im GPU Limit und es läuft überhaupt nichts mehr flüssig auf einem 27" FHD Display bei 1080p unter Spielen. Da machst du dir was vor, oder hast extrem auf Sparsamkeit getrimmt und verschenkst zu Hauf CPU Power. Da musst du schon alles auf mittlere Detail zurücknehmen und auf AA Modi größtenteils verzichten. Bis zu 250-260w unter Spielen sind schon realistischer, IMO, 95-100w im Idle. Der i7 2600k ist sparsam aber mit Luft funktioniert der nicht.

Gast
2015-03-08, 16:36:36
http://ht4u.net/review/2015/watt_vs_frames_amd_r9_290x_und_nvidia_gtx_980_im_effizienztest/index7.php

Danke für den Link, schön zu sehen das bei Spielen mit FPS-Limitationen selbst die 980 das gleiche verbaucht (225w zu 225w) aber überhaupt nicht schneller sein kann. Wenn sowas aus dem Konsolenbereich auch auf dem PC weiter Fuss fast braucht man sich solche GPUs nicht mehr kaufen. Da kannst du soviel Speicher und GPU Power haben wie du willst. Nur AA und AF kannst du dann zwanglos dazuschalten. Macht solche Karten wie die TitanX dann eigentlich völlig überflüssig. Der PC-Spieler ist für das was er für die Hardware berappen muss echt am Arsch.

Die 660 mag ja jetzt Speichertechnisch überholt sein, aber eine dicke Kiste macht auch keinen Sinn. Dann sind die Spiele auch noch bis gettno verbugt, wenn sie erscheinen.

Schrotti
2015-03-08, 19:12:56
Das hier reicht doch vollkommen, nichts weiter als Getrolle gegen Nvidia, weil die die Leute veräppeln. Ist die leiseste Karte im Testfeld und hat genug Leistung für FHD.

http://www.mindfactory.de/product_info.php/3072MB-Sapphire-Radeon-R9-280-Dual-X-OC-Aktiv-PCIe-3-0-x16--Lite-Retail-_956461.html
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/30252-sapphire-radeon-r9-280-dual-x-im-test.html

Kauf doch eine alte Umgelabelte HD 7970 von 2012. Ich werde es nicht tun denn 2012 hatte ich die GTX 680.

Razor
2015-03-08, 19:28:28
Denke was ich bisher so gesehen hab, naja, könnte gut passen. Man kann sowieso nichts machen, Abwarten und Tee trinken oder Kaffee.:ucoffee:
That's it!
Und sehr guter Post :up:

Stell dir nur mal einen kurzen Moment ein Crysis 3 in 5K-Auflösung bei 120Hz auf einem 5K-Retina in 3D vor. Oder von mir aus auch auf einem 3 x 1,5 Meter curved UHD-TV.
Ein schöner Traum... aber eben nur eine Illusion.
Mehr ist dazu nicht zu sagen.

Oder findest du die Bandbreite der GTX980 auch zu gering?
Jup... und zu wenig VRAM.
Vor allem für DEN Preis!

Wäre beispielsweise sehr schwierig, eine R290X in einem gedämmten Silent-Case anständig und leise zu kühlen, wenn man LüKü einsetzt.
Mein kompletter PC (i7-2600k und GTX660) verbraucht beim zocken ca. 180-200 Watt max.
Mit R290x gehts so wie man liest schnell auch mal Richtung 400 Watt Gesamtverbrauch.
Das Argument hätte glatt von mir sein können.
"Flüsterleise" ist eine Grundvoraussetzung für den PC im Arbeitszimmer...

Auf Fakten reduziert bleibt aber die brutale Ineffizienz der AMD-Schiene.
So etwas will ich mir einfach nicht antun... von den Treibern mal ganz ab :D

Razor

Gast
2015-03-08, 19:31:49
Kauf doch eine alte Umgelabelte HD 7970 von 2012. Ich werde es nicht tun denn 2012 hatte ich die GTX 680.
Und die 680 war natürlich bedeutet schneller. http://ht4u.net/reviews/2012/never_settle_amd_radeon-7000-serie_mit_neuen_spielen_und_treiber/index26.php Auch so eine logische Entscheidung wenn man die beste Performce wollte.

Dein anderes Avatarbild hat mir besser gefallen. Mutiert ihr neuerdings zum Scifi-Francise-Forum? :|

Den Spoiler soll sich mal ein Mod angucken.
Und auf Bilder aus dem Francise und Filmserien liegt ein Urheberrecht, die darf man, wenn dann nur mit Lizenz verwenden. http://de.memory-alpha.org/wiki/Memory_Alpha:Copyrights Mal drüber nachdenken. Ehrung und Trauer bzw. solche Sachen sind bestimmt berechtigt, gewähren aber nicht das uneingeschränkte Nutzungsrecht von geschützten Inhalten. Wenn gelesen und bewertet, bitte löschen.

:::---:::
2015-03-08, 20:53:11
Denke mal das ist wieder Strategie wie bei der 970, die geben die dann für 850-995 Euro in den Markt, den Salvage Part dann für 700-775 und die wird gekauft wie verrückt.Wenn dann noch eine 980ti kommt kann die bei 650 liegen. Hoffe AMD kann bei der XT unter 700 bleiben. Besser noch unter 600.
@Mirko...:tongue:


:whisper:
980Ti: Q 1???-2 2015 - 799$
Titan X: Q2 2015 - 999$ - ???? :P
R9 380X: Q2 2015 - 499$
R9 390X: Q2 2015 - 899$

congratulations on the new job ... :ubeer: you deserve it.:up:

:weg:

@Mirko
2015-03-08, 21:13:38
:::---:::
Thank You. Of the Oculus VR guys? Pretty expensive!

Gast
2015-03-08, 22:17:23
Bermuda dann für 900 Euro das wäre in der Tat ganz schön viel für AMD. Ist gar keine 390 dabei. Die könnte ja dann auf Höhe der 980ti liegen wenn das stimmen. Ganz schön heftig. Dann kommt wohl doch nur eine Karte mit HBM. Glaube denn kann auch eine GTX980 kaufen.

Wie viel schneller würde denn eine Salvagepart ohne HBM Speicher sein? Geht sowas überhaupt.

Die Preise für die Hardware explodieren ja förmlich.

@Mirko
2015-03-08, 22:54:02
Die Preise für die Hardware explodieren ja förmlich.
Das muss man nicht für bare Münze nehmen eher gerüchteweise denke ich mal. Da wird zuweilen auch gepokert. Aber wie es scheint wird es nicht billig. War aber auch zu erwarten, kann sich aber auch noch ändern. Wenn die Leistung stimmt, naja muss man dann sehen. Zur 980 kann ich nichts sagen, kommt drauf an für was du sie willst. Rein zum daddeln für die nächste Zeit reicht sie erstmal aus. Man kann sie auch noch overclocken. Test findest du zu Hauf im Netz.

Kann gut möglich sein das Bermunda der Salvagepart ist und der Rest woanders hin geht. Wer weiß, da muss t du bei den Guru's fragen. ;)

Gast
2015-03-08, 23:36:36
Das wäre aber verdammt teuer. Kann ich mir definitiv nicht leisten. Ich kauf ja AMD auch wegen den Preisen. Das ist echt bitter. Wo wird denn die 380 liegen? So bei 400 Euro? Ich mein klar die 390x wäre denn ja immer noch billiger als die TitanX. Ein Scheiß ist das alles wenn das stimmt. Legen die denn eine TitanX für 999 mit 6Gb, eine für 1299 mit 12Gb und eine 980ti mit 4Gb auf. NVidia treibt die Preise in Himmel. Gott.

Gasw
2015-03-09, 00:11:48
Amd kann auch nicht immer alles nur verschenken. Klar ist das bitter, aber die HBM Karte ist eher was für die Freaks. Wir liegen so bei der 970, wenn AMD da mit 512bit und 4-8GB VRAM bei 350-400 Euro kontern kann, warum nicht. Die 380 mit 4GB die 380x mit 8GB vielleicht. Das geht weg wie heiße Semmeln.

Razor
2015-03-09, 07:25:28
Nur mal hier gucken: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560885
Hmmm...
Eigentlich reicht auch so etwas vollkommen:
http://fs2.directupload.net/images/150309/rjzq2qpp.jpg

Aber das ist eben nicht der Punkt.
AlterSack wollte, dass die Luft "raus" geht, der "Alpenföhn" hilft hier nicht weiter.

Ich habe mir ein Antec P183 V3 gegönnt - davor ein P180, aber das ist samt Innenleben "gewichen":
http://www.tweakpc.de/hardware/tests/gehaeuse/antec_p183_v3/

Und selbstverständlich gibts einen Luftstrom, der druchs Gehäuse geht... genau genommen sogar zwei ;)
Allerdings sorgen dafür sehr langsam drehende 12'er, insofern nicht zu viel Hitze im Gehäuse entstehen darf... ein Argument gegen AMD, oder?

Ach ja... wo wir schon bei den Details meines Rechner sind.

In der oberen Zone vorne ein 12'er rein, aber nur um den Luftstrom zu "dirigieren", und oben/hinten zwei 12'er raus zum "absaugen".
Noctuas natürlich... auf der GraKa (GTX660OC) wurde einer der beiden Lüfter deaktiviert - reicht vollkommen.
Die CPU (i7-4770S) ist mit einem Mugen4 bestückt... natürlich passiv... reicht ebenfalls vollkommen aus.

Razor

Schrotti
2015-03-09, 07:43:27
Du hast dir echt eine S CPU gekauft?

Für ~15€ mehr hätte man einen 4770K kaufen und undervolten können.

Ach razor :rolleyes:

Gast
2015-03-09, 08:46:26
Erzählt doch hier keinen Schrott, jetzt ist Nvidia mal ein sparsames Design gelungen, und alle flippen aus. Und die Jahre vorher konnte man Eier auf den Zeugsbraten. Lachhaft ist das. Luft muss aus dem Gehäuse, ja und dann baut Lüfter ein. Highendhardware bei null Luftstrom, da sollte man auf eine Wasserkuhlung setzen. Der Sparwahn geht mir auf den Sack. Ich hab 4x290 im Rechner, für 1000 Euro, was interessiert mich Nvidia. Die Fanboys mutieren langsam zu Ökofreaks und kaufen überteuerten Müll um auf Öko zu machen. GTX660 was will man damit wenn es schon auf einer 970 oder 980 vor sich hinruckelt. Kindergarten.

Wenn der Alpenföhn mit einer OC GTX570 klar kommt schafft er auch eine 290x, die braucht weniger als die 570/580. Aber das haben wir in ein zwei Jahren vergessen, so wie wir uns die 970 schönreden. Klar geht ja um Nvidia!

@razor
Das Bild soll wohl ein Witz sein? Gensuso eine Krüppelkonstruktion wie die 970.

Alter Sack
2015-03-09, 09:23:04
Entschuldige, für mich hörst sich das alles nach Drumrumgerede oder Ausflüchte-Ausreden an. Eigentlich willst du gar nicht wechseln, eher motzen?


Ich will wechseln und zwar aus dem Bauch heraus eigentlich komplett, ABER:
CPU: da hat sich kaum was getan. Vielleicht bestenfalls 30% in den letzten 4 Jahren.
Graka: ja, eine (nicht verkrüppelte) GTX970 mit vollen 4GB wäre schon was, am besten noch für 250€, .. ja ich habe Apsrüche und bin preislich von all meinen früheren Grakas verwöhnt.
Wenn es sowas wie eine "Frames pro Euro Verbindung mit dem Kaufzeitpunkt" (also in Relation zu den damaligen Spielen) geben würde, wären meine früheren Grakas (Radeon 4850 --> GTX285-2GB --> GTX660) sicherlich sehr gut zu bewerten.
Zum Kaufzeitpunkt meiner GTX660 waren damals einfach alle Spiele in der damaligen HighEnd-Auflösung (FullHD) bombig gut spielbar... auch wenn mein 27 Zöller, welcher knapp 6 Monate später angeschafft wurde, nochmal mit 250€ (war das günstigste Modell) zu Buche schlug.
Die GTX970 bietet einen moderate Stromverbrauch, kostet ca. 150€ mehr als vor knapp 3 Jahren die GTX660, bietet dafür aber keinerlei Zukunftssicherheit, wenn ich in 6-9 Monaten auf 4K upgrade (und das wird definitiv mit Windows 10 kommen, wenn ein 28" 4K TFT unter 350€ zu haben sein wird.

Aktuelle GTx9xx-Karten sehe ich da einfach deutlich schlechter (preislich und 4K-mäßig) bewertet. Das Ganze noch gemischt mit der arroganten Aussage Nvidias zu 3,5GB und da weiß man, dass NVidia es derzeit icht nötig hat, Karten zu verkaufen und seine Kunden einfach mal eben als dumme Vollpfosten betrachtet.


Im Bereich der Steuerung und Überwachung gibt es in Form von Nachrüstsets schon Schaltungen die dir ermöglichen was du wünscht. Entsprechede Noiseblocker- oder Supersilentlüfter gibt es zu kaufen. Nachrüstkühler die auch mit einer 290x zurechtkämen, fachliche Beratung hier im Forum und womöglich auch den einen oder anderen Rat wie man sich anstellen soll. Oder die Vorstellung deines Wunsches ohne Verbindlichkeiten an einen Fachmann, der auch dein Gehäuse erhalten kann, ohne das du was neues brauchst weil er einfach mal gegenrechnet was nach deinen Vorstellungen möglich ist.

Ich empfehle dir eine Hybridlösung, CPU mittels Luft, GPU mitttels Hybrid Luft-Wasserkühler, kostet nicht die Welt. Nur die Länge der GPU Platine (280/280x-780-290/290x etc.) und das Leistungsvermögen deines Netzteil könnte dabei hinderlich sein. Das müsste man sich angucken.

Du machst es dir insgesamt zu schwer. Ich hab hier 15-17 Jährige die den Dremel unter Anleitung selbst in die Hand nehmen und das hinkriegen, wenn man etwas acht gibt was sie tun.

Nur mal hier gucken: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560885

Wie alt sag ich jetzt lieber nicht, nicht das du vom Stuhl fällst. Das Teil kommt mit der 290x alle male zurecht. Flüsterleise bei 50-60°C. Mit einer 280x kommt das Ding locker klar und wenn man Hawaii oder Tahiti runterkühlt wirkt sich das sofort auf die lastbedingte Leistungsaufnahme aus. Da muss man nicht mal viel mit Powertune rumspielen.

Sei nicht so faul.:wink: Ja, alter Sack nur meckern!;)

Das die Preise für Hardware gestiegen sind, daran sind ja nicht die Hardwarehersteller Schuld sondern unsere zu Hauf versagende Politik. Da müssen wir aber alle durch.

Wobei es im Vergleich zur jetzigen Hardware schon einen gewissen Aufwand darstellt, mind. 100 Watt Abwärme mehr ähnlich leise wegzukühlen. Auf der anderen Seite kann man ja für 360€ auch in den sauren Apfel beißen, sich das alles sparen und zu verhassten GTX970 greifen. Ich werde derzeit aber doch noch abwarten, da mir die GTX970 mit 3,5 GB einfach verbuggt vorkommt. Derzeit eine GTX970/980 zu kaufen, würde sich für mich so anfühlen, als ob es mir nichts ausmacht, mich von Nvidia verarschen zu lassen.
Sollten es in naher Zukunft (also bis Sommer) mehr Spiele werden, die mit meiner GTX660 nicht anständig performanen, würde ich wenn sich am Graka-Markt nichts tut den Großumbau durchführen, da ich Richtung Sommer auch beruflich mehr Zeit für sowas habe und dann der Großumbau sicherlich auch Bastelspass bringt ;) . Dann passt auch eine günstigere R290X-8GB wieder ins Gesamtbild.

Alter Sack
2015-03-09, 09:31:29
...
Das glaub ich nicht. Die 660 hat eine max. TDP von 140w, in Spielen um 125w, denke nicht das deine CPU und der Rest mit 55-75w auskommen. Dann hängst du extrem im GPU Limit und es läuft überhaupt nichts mehr flüssig auf einem 27" FHD Display bei 1080p unter Spielen. Da machst du dir was vor, oder hast extrem auf Sparsamkeit getrimmt und verschenkst zu Hauf CPU Power. Da musst du schon alles auf mittlere Detail zurücknehmen und auf AA Modi größtenteils verzichten. Bis zu 250-260w unter Spielen sind schon realistischer, IMO, 95-100w im Idle. Der i7 2600k ist sparsam aber mit Luft funktioniert der nicht.

Im Idle liegt mein Rechner beim um 70 Watt. Last bedeutet dann eben 120 Watt drauf. die 170-185 Watt hatte ich damals glaube ich bei Trine 2 gemessen. Selbst wenn Crysis 3 nochmal etwas mehr verbraucht, werden da keine 250 Watt drauß.
Werde das gerne nochmal nachmessen, notfalls für Dich ein Video drehen, wo ich vom Voltmeter den Schwenk zum Bildschirm mache, wo das Spiel läuft.

Gast
2015-03-09, 09:39:22
40-60w bei ruhendem Bildschirm! Mach mal Firefox auf und scrolle durch das geöffnete Fenster. 90-100w sind schon realistisch im Schnitt selbst mit nV. Und du rechnest einfach die GPU Leistung drauf? Was ist mit der CPU, dem Mainbord, der Festplatte, dem Ram, dem Laufwerk ggf, der Netzwerkkarte bei Steam etc.. Alter du hast echt keine Ahnung.

Alter Sack
2015-03-09, 09:42:36
40-60w bei ruhendem Bildschirm! Mach mal Firefox auf und scrolle durch das geöffnete Fenster. 90-100w sind schon realistisch im Schnitt selbst mit nV. Und du rechnest einfach die GPU Leistung drauf? Was ist mit der CPU, dem Mainbord, der Festplatte, dem Ram, dem Laufwerk ggf, der Netzwerkkarte bei Steam etc.. Alter du hast echt keine Ahnung.


Hab´s grad gemessen. Den PC (und nur den PC, also kein TFT, etc.) ans Voltmeter gehängt.
Upload des Videos läuft...

Alter Sack
2015-03-09, 10:05:15
So, Video fertig und hochgeladen: 176 Watt in Dying Light, komplettes System (http://youtu.be/9quH-KO_qZM)

System ist i7-2600k / 12 GB RAM / GTX660 / 250 GB SSD / 1,5GB HDD

Wie man sieht, ruckelt es auch nicht in FullHD. die dying-Light Settings würde ich als Medium bezeichnen.

Jetzt wird glaube ich auch verständlich, warum ich mich so schwer damit tue, mal eben 50-100 Watt als Mehrverbrauch hinzunehmen. Ich bin ultra-silent-verwöhnt und möchte das nicht für ein paar mehr frames/sec. aufgeben.

Gast
2015-03-09, 10:56:38
Das hatte der Mirko ja auch so geschrieben, mittlere Details, dein i7 auf Standard, lies nochmal genauer. Du verschenkst pure Leistung wegen deines Ökofreakwahns. Dein Strommessgerat reagiert nicht auf Peaks der Karte bis 140w und CPU bis 100w. Das sind alles nur im Labor der Hersteller gemittelte TDP Werte und wurde schon länger durch Tester oder auch @Leonidas kritisiert, die Hersteller lügen sich da was zurecht.

Aber du behauptest ein gleiches System mit 290x liegt dauerhaft bei 410w, dass ist totaler Blödsinn. Und wenn du eine 970 kaufst ist dir nicht mehr zu helfen, dann ist das hier nichts weiter als ein stupider Flamethread. Eine Sauerei ist sowas. Highendhardware in den Supersilentmodus zu versetzen geht nur mit entsprechenden Maßnahmen die Geld kosten, was aber nicht teuer sein muss. Da habe ich hier schon richtig gute Vorschläge, Beiträge und Test gelesen, extreme Varianten wie z.B. @robbitops Systemaufbau mit Wasserkühlung.

Du braucht keinen i7 2600k für dich reicht ein i5 2400 oder ein neuerer i3 4xxx. Mehr schreibe ich jetzt hier nicht, das ist nicht weiter als weitere sinnlose Lektüre wie toll eine 970 doch ist, Schwach! Ein Elend ist das mittlerweile was so auf 3dcenter wegen diesem NVidia-Betrug abgeht und was die Fanboys so unternehmen das Thema zu unterdrücken.

Alter Sack
2015-03-09, 11:02:48
Das hatte der Mirko ja auch so geschrieben, mittlere Details, dein i7 auf Standard, lies nochmal genauer. Du verschenkst pure Leistung wegen deines Ökofreakwahns. Dein Strommessgerat reagiert nicht auf Peaks der Karte bis 140w und CPU bis 100w. Das sind alles nur im Labor der Hersteller gemittelte TDP Werte und wurde schon länger durch Tester oder auch @Leonidas kritisiert, die Hersteller lügen sich da was zurecht.

Aber du behauptest ein gleiches System mit 290x liegt dauerhaft bei 410w, dass ist totaler Blödsinn. Und wenn du eine 970 kaufst ist dir nicht mehr zu helfen, dann ist das hier nichts weiter als ein stupider Flamethread. Eine Sauerei ist sowas. Highendhardware in den Supersilentmodus zu versetzen geht nur mit entsprechenden Maßnahmen die Geld kosten, was aber nicht teuer sein muss. Da habe ich hier schon richtig gute Vorschläge, Beiträge und Test gelesen, extreme Varianten wie z.B. @robbitops Systemaufbau mit Wasserkühlung.

Du braucht keinen i7 2600k für dich reicht ein i5 2400 oder ein neuerer i3 4xxx. Mehr schreibe ich jetzt hier nicht, das ist nicht weiter als weitere sinnlose Lektüre wie toll eine 970 doch ist, Schwach! Ein Elend ist das mittlerweile was so auf 3dcenter wegen diesem NVidia-Betrug abgeht und was die Fanboys so unternehmen das Thema zu unterdrücken.

Keine Angst. Dei GTX9xxer Serie wird von mir sicherlich zu den aktuellen Preisen gekauft (und damit noch indirekt die Lügereien und Machenschaften von Nvidia unterstützen).

Meine Frage wäre, was gemittelt bei einer Messung wie im Video zu sehen rauskommen würde, wenn ich die GTX660 gegen eine 290X-8GB reinsetzen würde. Auf wieviel Watt würde da der durchschnittliche Verbrauch beim zocken so ca. ansteigen?

Aktuell liegt der ja wenn man die Spitzen mal außen vor lässt bei ca. 180 Watt und dass ist auch das, was die Gehäuselüftung abtransportieren muss. Die kurzen Peaks auf z.B. 250 Watt spielen bei der Gehäuselüftung doch keine Rolle, oder?!

Gast
2015-03-09, 11:42:41
310-320w. Netzteil sollte min. 450w sein, gute Effizienz besitzen und mit Ripple und Noise umgehen können. Also Dark Power Pro Serie. Unter 2K 1440-1600p um 80% mehr Grafikpower mit aktiviertem AA-AF Ultradetails.

Wenn du eine 970 ksufen willst machs. Selbstbetrug inbegriffen.Die braucht bei gleicher Rendergeschwindigkeit ca. um 190w, kackt aber bei höheren Auflösungen ab.

Gast
2015-03-09, 11:46:56
Ein Rechner wirft ubrigens 317w für deinen System-Peak aus. 350w Netzteil bei mindestens 85% Effizienzgrad. Du redest dir gern was schön mit deinem Baumarktmessgerät?

290xler
2015-03-09, 12:45:07
Unter 2K 1440-1600p um 80% mehr Grafikpower mit aktiviertem AA-AF Ultradetails.
Geh ich zur 660 gerne mit! Eben Highend, wo soll der Zuwachs herkommen. Fast 980 Niveau ohne MFAA bei 200-225w. Leide bisher nichts DSR-ähnliches. Aber VSR müsste bei Ihm auch gehen. Da muss AMD noch mal drüber schaun. Wenn einem gesyncte fps-Raten reichen, dann fällt der Verbrauch nochmal um 15-20w. Die Karten sind extrem nur nach oben raus, über 1050Mhz und im Ubermodus. Das ist nichts für Weicheier, die keinen Dunst von der Materie haben. Wer Highend kauft sollte sich schon gut damit auskennen. Finde lustig wie viele Daus immer nach Highend schreien. Denen reicht ein Aldi-PC.

310-320w. Netzteil sollte min. 450w sein, gute Effizienz besitzen und mit Ripple und Noise umgehen können.
Genau, OC Varianten auch 350 gesamt mit Peaks bis 410w, würde ein Dark Power Pro, derzeitiges Lineup mindest 500w und fester Verkabelung nehmen. Am besten eine 290-290x mit zweimal PCIE8-Pin. Das hat nichts mehr mit Karten der ersten Generation gemein, der 28nm Prozess ist sehr fortgeschritten. Das wirkt sich auch indirekt auf die Leistungsaufnahme aus. Die Partner geben einfach mehr Feuer, muss man aber nicht. Man kann sich selber was zurechtvolten und powertunen.

Ein Rechner wirft ubrigens 317w für deinen System-Peak aus. 350w Netzteil bei mindestens 85% Effizienzgrad. Du redest dir gern was schön mit deinem Baumarktmessgerät?
Keine Ahnung, seh ich auch so. Der Mirko hat es ihm auch noch schön gerechnet. Hatte wohl Mitleid, oder die Lüfter und anderes unter Last rausgelassen.

Und wenn du eine 970 kaufst ist dir nicht mehr zu helfen, dann ist das hier nichts weiter als ein stupider Flamethread. Eine Sauerei ist sowas.
So siehts aus. Weil immer mehr 970-Besitzer zur 290x greifen. Immer schön nebenbei auf AMD draufhacken, unterschwellig und so das es nicht auffällt.

Keine Angst. Dei GTX9xxer Serie wird von mir sicherlich zu den aktuellen Preisen gekauft (und damit noch indirekt die Lügereien und Machenschaften von Nvidia unterstützen).
Wenn du jetzt noch eine 970 kaufst wie sie derzeit von nVidia vermarktet wird, dann bist du nicht nur alt sondern hast mittlerweile einen an der Waffel plus die letzten Tage und Wochen völlig verschlafen. Wer so ein Ökosystem unterstützt den sollte man fragen ob er noch ganz richtig im Kopf ist. Die 970 gehört vollständig boykottiert. nNVidia sollten alle Besitzern eine überarbeitet 970 mit 4GB VRAM und 256SI anbieten oder mindestens einen Kaufnachlass auf die GTX980 von 100 Euro.

Kauf dir eine GTX 960-4GB (morgen) und gib endlich Ruhe. Hättest mal die richtigen Fragen stellen sollen, dann hätte hier einer sicher auch darauf geantwortet. Wenn man basht und trollen will schreibt er nicht mehr.

Hier und nun gib endlich Ruhe: http://www.evga.de/articles/00914/EVGA-GeForce-GTX-960-4GB/

Alter Sack
2015-03-09, 12:50:58
Ein Rechner wirft ubrigens 317w für deinen System-Peak aus. 350w Netzteil bei mindestens 85% Effizienzgrad. Du redest dir gern was schön mit deinem Baumarktmessgerät?

Sicher nicht (bin gelernter Energieelektroniker, der seit 15 Jahren jedoch selbständiger IT-Dienstleister ist... etwas Fachwissen sollte also halbwegs vorhanden sein ;) ).
Tendeziell ist aber 180 Watt nicht 300 oder 400 Watt, egal wie minderwertig das Voltmeter misst. Auch beim Bau des PCs für meine Frau habe ich auf Verbrauch/Silence geachtet (i5-4xxxS nur 65 Watt TDP und die GTX750Ti, die ja bekanntich noch nicht mal einen PCI-E Stromschluss benötigt).

Alter Sack
2015-03-09, 13:04:51
Geh ich zur 660 gerne mit! Eben Highend, wo soll der Zuwachs herkommen. Fast 980 Niveau ohne MFAA bei 200-225w. Leide bisher nichts DSR-ähnliches. Aber VSR müsste bei Ihm auch gehen. Da muss AMD noch mal drüber schaun. Wenn einem gesyncte fps-Raten reichen, dann fällt der Verbrauch nochmal um 15-20w. Die Karten sind extrem nur nach oben raus, über 1050Mhz und im Ubermodus. Das ist nichts für Weicheier, die keinen Dunst von der Materie haben. Wer Highend kauft sollte sich schon gut damit auskennen. Finde lustig wie viele Daus immer nach Highend schreien. Denen reicht ein Aldi-PC.


Genau, OC Varianten auch 350 gesamt mit Peaks bis 410w, würde ein Dark Power Pro, derzeitiges Lineup mindest 500w und fester Verkabelung nehmen. Am besten eine 290-290x mit zweimal PCIE8-Pin. Das hat nichts mehr mit Karten der ersten Generation gemein, der 28nm Prozess ist sehr fortgeschritten. Das wirkt sich auch indirekt auf die Leistungsaufnahme aus. Die Partner geben einfach mehr Feuer, muss man aber nicht. Man kann sich selber was zurechtvolten und powertunen.


Keine Ahnung, seh ich auch so. Der Mirko hat es ihm auch noch schön gerechnet. Hatte wohl Mitleid, oder die Lüfter und anderes unter Last rausgelassen.


So siehts aus. Weil immer mehr 970-Besitzer zur 290x greifen. Immer schön nebenbei auf AMD draufhacken, unterschwellig und so das es nicht auffällt.


Wenn du jetzt noch eine 970 kaufst wie sie derzeit von nVidia vermarktet wird, dann bist du nicht nur alt sondern hast mittlerweile einen an der Waffel plus die letzten Tage und Wochen völlig verschlafen. Wer so ein Ökosystem unterstützt den sollte man fragen ob er noch ganz richtig im Kopf ist. Die 970 gehört vollständig boykottiert. nNVidia sollten alle Besitzern eine überarbeitet 970 mit 4GB VRAM und 256SI anbieten oder mindestens einen Kaufnachlass auf die GTX980 von 100 Euro.

Kauf dir eine GTX 960-4GB (morgen) und gib endlich Ruhe. Hättest mal die richtigen Fragen stellen sollen, dann hätte hier einer sicher auch darauf geantwortet. Wenn man basht und trollen will schreibt er nicht mehr.

Hier und nun gib endlich Ruhe: http://www.evga.de/articles/00914/EVGA-GeForce-GTX-960-4GB/

Ey, nicht so ruppig. Hier schreiben alle freiwillig ihren Senf und hier ist keiner auf der Arbeit. Ist also Hobby und da sollte man freundlich bleiben (das nur mal am Rande).
Ich entnehme diesem und anderen Forendiskussionen viele Fakten, die meine Meinung ändern. So hätte ich ohne dieses Forum sicherlich seit einem Monat bereits eine GTX970 im Rechner... (gottseidank ist es nicht so gekommen).
Zusätzlich macht es doch uch noch Spass, sich zu solchen interessanten Themen hier zu unterhalten und schließlich hat jeder eine andere Ansichtsweise und legt Wert auf andere Schwerpunkte.

Was die GTX970 angeht, teile ich deine Meinung absolut. Nvidia hat bei den Spezifikationen gelogen und den Käufern nachträglich noch arrogant mitgeteitl, dass sie doch "die Fresse" halten sollen. Sowas darf nicht unterstützt werden. Trotzdem werden die GTX970-Besitzer sagen, dass sie mit ihrer GTX970 sehr zufrieden sind.

Das Thema R290(x) vs. GTX9x0 ist anscheinend so wie man dieser Diskussion hier entnehmen kann dann doch vielschichtiger, als man glaubt. VRAM / echter Verbrauch vs. Leistungs / Zukunftssicherheit... alles Punkte, die in der Realität doch anders sein können, als man beim bloßen betrachten der Spezifikationen meinen könnte.

Ich schwanke je nachdem was hier geschrieben wird hin und her: Nvidia bietet auf den ersten Blick vermeintlich effizientere Karten während AMD-Karten (vermeintlich?!) zuviel Strom verbrauchen.
Mich würde es einereits schon sehr reizen, mal ein AMD-GPU System zusammenzubasteln und dabei ein perfekt gekühltes und super-silent-mäßiges System hinzubekommen. Andererseits schreibst Du ja selbst, dass aufgrund meiner (unzähligen) Aussagen mir aktuell wahrscheinlich eine GTX960-4GB ausreichen dürfte... aber irgendwie habe ich keine Lust, Nvidia wieder Kohle reinzuschieben, nachdem sie bei der GTX970 die Leute ja so dermaßen verarscht haben.

290xler
2015-03-09, 13:11:07
Ja und verbraucht unter Spieleszenarien 0-10w, die 660 hat je nach Modell und Kühlerkonstruktion Peaks bis 145w die 750ti über 100w. Es gibt Modelle die grundsätzlich auf Ersparnis getrimmt sind, was sich aber in der abrufbaren Leistung wiederspiegelt. Mit dem Rest kannst du dir gerne die Wände tapizieren, hab ein paar von den Zetteln. Das sagt nicht aus.

Was die Karten heuzutage verbrauchen ist nicht nur Treiberabhängig sondern zuweilen auch Enginegebunden. Eben was der Entwickler gerne an grafischer Power hätte und nutzen möchte, bis hin zu Featuresets-SDKs und deren vielfältige Ansätze.

Die Stromaufnahme ist dabei stark abhängig vom dem was die GPU gerade zu tun hat, daß kann sich im Wechsel einer Spielszene schlagartig ändern, von Engine zu Engine und die Serienstreuung sowie partnertechnische Ansätze spielen da auch noch eine Rolle (Qualität der Bauteile, Auslegung der Stromversorgung, Phasen, Speicheraustattung, Layout, Signalreinheit und und und), wenn es keine Referenz ist. (ich hab Dir geschrieben, stell die richten Fragen dann hättest du auch Antworten bekommen)

Eine professionelle Meßstation kostet bis zu 10.000 Euro.

Kauf dir eine 970 und werd glücklich mit dem Krüppelklumpen.

@Mirko
2015-03-09, 13:15:01
*ist gut jetzt*

@alter Sack
Morgen gehts wahrscheinlich los, da müssten dann die ersten 960 4GB kommen. Warte paar Tests ab und dann kannst du losschlagen, denke um 250 Euro. ;)

Gast
2015-03-09, 13:38:53
Das müsste doch genau passen mit der ASX, 60% Mehrleistung gegenüber eine 660. Denke bald die wird mehr als 250 kosten.Mann muss ja die 970 nicht kaufen, daß heißt ja nicht das die anderen Karten von nV auch alle Mist sind. Das wäre ja am Produkt vorbei.

Gast
2015-03-09, 14:01:10
Das müsste doch genau passen mit der ASX, 60% Mehrleistung gegenüber eine 660. Denke bald die wird mehr als 250 kosten.Mann muss ja die 970 nicht kaufen, daß heißt ja nicht das die anderen Karten von nV auch alle Mist sind. Das wäre ja am Produkt vorbei.
Hier:

PC13 antwortete Commander_Phalanx: "Jen-Hsun Huang hat bestimmt nichts zu verschenken, Nvidia ist doch kein Discounter!"
http://www.pcgameshardware.de/PCGH-Extreme-Forum-Brands-217997/News/GTX-Titan-X-mit-12-GiB-Aufarbeitung-der-GTX-970-Speicherproblematik-R9-390X-berechnet-Oculus-Rift-Demo-Heisse-Themen-im-Community-Wochenrueckblick-1152815/
Das ist alles nur noch ein Witz! Die PCGH geben sich jetzt auch wieder Mühe an dem Thema dran zu bleiben.

Die 970 ist das übelste und was dazu geäußert wird ist unter aller Sau seitens nVidia. Von denen kaufe ich keine Karte mehr!

@Mirko
2015-03-09, 16:39:22
Aktuell liegt der ja wenn man die Spitzen mal außen vor lässt bei ca. 180 Watt und dass ist auch das, was die Gehäuselüftung abtransportieren muss.

Hab schnell eine Sig aufgesetzt:
i7 2600K (Wakü-AiO CPU) default Clock
Gigabyte Z68
8GB DDR3 default Clock
GTX 660 [Zotac - 980 MHz (baseclock), 1059 MHz (boostclock) 1x6PIN-PCIE+PCIE= max. 150w TDP]
Samsung 849 128GB SSD
WD 1 GB Green HDD
2x120mm Lüfter

Idle: 45-70 ruhender Bildschirm
Idle: 65-95 Firefox, 2 Fenster öffnen...
Bluray hab ich nicht hier

Last, soweit möglich: 4xAA/16xAF - mittlere Details+
Battleword Khronos=157w
Risen 3 (@aufkrawall ini)=187w
Tomb Raider Benchmark TressFX=221w
Skyrim=219
Metro 2033=244w
Crysis3=247w
BF4=234w
Heaven Benchmark=243
Firestrike=227
Sky Diver=218

Summe 2197:10=219,7w im Schnitt.

Ich zieh dir gerne 5 Watt ab wenn du meinst die AiO braucht so viel merh wie der Lüfter des CPU Kühlers. Aber ich glaube die hält die CPU deutlich Kühler. Wobei ein 850w Platinum (BN203) die Sig versorgt hat, im offenem Aufbau. Ich weiß nicht welches Netzteil du benutzt.

Ich komm da nicht hin. Darf ich mal fragen welche 660 das ist? Die Zotac wird jetzt nicht 30-35w mehr verbraten?

Bei neueren Titeln muss du schon damit rechnen das die 660 an ihre Grenzen stöß und dann mehr Strom braucht.

Ich denke mittlerweile das eine 290-290x nichts für dich ist, da supersilent in diesem Bereich einigen Aufwand bedeutet. Ohne WaKü wird das dort nichts, wenn es leise und super-Kühl bleiben soll.

http://www.gamestar.de/spiele/pandora-first-contact/artikel/zotac_geforce_gtx_660,50379,3007717.html#testsystem
In Spielen benötigt unser Testsystem mit der Zotac Geforce GTX 660 rund 250 Watt und liegt damit etwas unterhalb einer Radon HD 7870.

Die hatten mit der gleichen Sig auch 8xAA und 16xAF gefahren. Die 660 liegt auf dem Rating GTX570-HD7870. Nur mit 1xAA und 1xAF ist sie eine Hauch schneller als die 570, aber langsamer als eine 7870-270. Dann wird sie sicher weniger verrbauchen.

Wie du auf 170-180 kommst dauerhaft, rästelhaft, oder du hast einen besonders guten i7+660 erwischt.

@Mirko
2015-03-09, 16:50:51
Ha, ich habs du hast dauerhaft VSync aktviert! und dümpelst mit 30fps rum und nimmst die Details zurück. Wie ich schon geschrieben habe? Na super.;)

Gast
2015-03-09, 17:33:39
bestimmt auch noch alle energiesparfeature der cpu only. bloß keinen strom verbauchen das könnt teuer werden. der übrige strom wird dann von den konzernen nach holland, dänemark und frankreich verkauft fur dumpingpreise, damit ja der preis pro kilowattstunde in d nicht gesenkt werden muss.

290 nee bestimmt nicht. das schlimme ist doch die 960 ist doch keine 50% schneller, was evga da wieder säuselt ist quark. mit der lautstarke das würde auch ein nachrüstkuhler schaffen, da hat raff jawohl schon genug zu geschrieben. auf ignor setzen und gut. amd ist doch sooooo scheiße. kauft sowieso nv.

die bei der pcgh im forum sehen es noch mit humor...aldi nee nv nie...wir verschenken nichts und sei es noch so murks...:-)

GTX9604GB
2015-03-09, 17:53:05
das schlimme ist doch die 960 ist doch keine 50% schneller
Wenns es stimmt was Mirko schreibt mit den VSync'en und Details würde das trotzdem was bringen. Eine ordentliche OC Karte nehmen mit 4GB RAM mit vernüftigem Kühler (schönen großen Block, denn wirds leiser). Die Lüfterkonstruktion einfach runter schmeißen und wie bei der 750ti einfach Supersilentlüfter verbauen im Nachgang. Die GPU liegt auf jedenfall bei besserem Detailgrad und Fetaure wie MFAA bei um 50-60fps in vielen Spielen und nimmt OC wohl nicht mehr als 150w (so wie die jetzige). Das würde für ihn schon fast 50% fps Zuwachs bedeuten, eben das was er auch zu sehen bekommt.

Dazu denn noch etwas CPU OC und was willst du mehr. Also ich würde es probieren und wenn das nix taugt zurück mit dem Krempel, online bestellen und 14tätiges Rückgaberecht bei Nichtgefallen, ist denn so. Man kann dann ja auch eine andere Graka im Rücktausch nehmen.

@Alter Sack probier es einfach aus. Kannst denn auch mal was dazu schreiben, denn wissen wir auch gleich Bescheid. Den ganzen Hardwaretestern traue ich erstmal nicht über den Weg. Hab meine 970 wieder zurückgeschickt und die 570 im Gehäuse das macht alles kein Spaß mehr mit nVidia.

Danke an die 3dCenter-Crew für weiterhin offenes Forum. 1a+ Jungs.

@Mirko
2015-03-09, 18:17:30
Eine ordentliche OC Karte nehmen mit 4GB RAM mit vernüftigem Kühler (schönen großen Block, denn wirds leiser). Die Lüfterkonstruktion einfach runter schmeißen und wie bei der 750ti einfach Supersilentlüfter verbauen im Nachgang.
Da hab ich auch schon dran gedacht, hier gab es einen schönen Thread dazu. Die 750ti Besitzer waren im allgemeinen mit der Lösung zufrieden und das kostet fast nichts. Da gabs auch Varianten mit einfachen Kabelbindern. Gute Idee @GTX9604GB. ;)

Wer mehr möchte und bastel will, bei caseking gibt es zum Beispiel das Alpenfön Nachrüstset als Lüfterschiene zu kaufen, kostet nicht viel knapp 14 Euro: https://www.caseking.de/shop/catalog/Alpenfoehn-PCI-Slot-Montagesystem-fuer-Luefter::17415.html

Da kann man sich Lüfter seiner Wahl seitlich und unterhalb der Grafikarte montieren, es ist ein riesen Auswahl-Set an Kühlkörpern dabei (leider mit Wärmeleitpaste zu befestigen), da muss man sich beiseitig selbstklebende Wärmeleitpads mitbestellen. Für die 960 dürften Noiseblocker reichen und die Konstruktion wird mit dem PCI-Slotaufbau am Gehäuse verschraubt und das ist auch ausreichend stabil.

Hier kann man sich angucken wie Susi das gelöst hat: http://abload.de/img/p1010148fhfpe.jpg

Nur auf die Länge sollte man achten! Wären dann die 960+Schienen Set+ Pads+2 Noiseblocker (das wird richtig leise), wenn man etwas wartet vielleicht für ca. 270 Euro mit OC Potential. Das würde schon was bringen. Die GTX570 auf dem Bild läuft jetzt mit 50°C. Bei der 960 könnte man die Lüfter im Idle abschalten. Womöglich auch gleich den mitgelieferten Lüfter-Poweradapter benutzen und die Lüfter gleich auf die Grafikkarte klemmen, muss man sich ansehen wie Nvidia die Lüftersteuerung ausgelegt hat.

dllfreak2001
2015-03-09, 18:21:40
Nützt doch alles nichts.

Am besten ist erst einmal abzuwarten was AMD demnächst bringt. Dann sollte es auch etwas mehr Bewegung im Markt geben.

30% Mehrleistung sind in meinen Augen auch zu wenig. Das Leistungsplus ist zwar spürbar aber meiner Meinung nach nicht das Geld wert.

@Mirko
2015-03-09, 18:38:10
Naja unter Tomb Raider 2013 sind es 50% unter 1080p wenn man ht4u Glauben schenken will http://ht4u.net/reviews/2015/nvidia_geforce_gtx_960_msi_gtx_960_gaming_2g_im_test/index37.php overclocking inbegriffen. Das hier ist die MSI mit 1,3 GHz das schaffen wohl alle 960 boostclock.

Aber natürlich ist klar, billger wäre besser, das stimmt! Die 970 wäre schon ein richtiges Upgrade aber wer soll die kaufen? Die 290 kann man so nicht ausreichend leise kühlen und in dem Bereich wird nicht soviel neues kommen, etwas weniger verbrauchen höchstens, aber das passz bei @Alter Sack nicht.

Ob die Preise irgendwann für GPU-Angebote fallen kann ich nicht sagen, persönlich denke ich - in nächster Zeit nicht.

dllfreak2001
2015-03-09, 18:49:47
Auch 50% bei einem Spiel machen die Sache nicht wirklich besser.
Ich habe auch mal so ein Upgrade gemacht, am Ende habe ich es dann bereut.
Es sollte eher um die 100% Mehrleistung gehen, finde ich.

Die 970 ist eine Krüppelkarte. Egal was man macht, die Karte ist viel zu abhängig vom Support. Sobald der ausläuft hat man Probleme.
Ich habe eine GTX670, für mich ist die GTX970 aber vollkommen uninteressant geworden seit dem Ramgate.

Deswegen lieber abwarten. Die GTX660 ist ja jetzt auch nicht komplett veraltet.

@Mirko
2015-03-09, 19:19:12
Naja dann muss man wohl bis Juni warten...leider. Erst mal Tests Revue passieren lassen. Dann kann man sich das ja mal überlegen. Ansonsten ja, zu teuer stimmt.

Razor
2015-03-09, 21:16:41
Du hast dir echt eine S CPU gekauft?
Für ~15€ mehr hätte man einen 4770K kaufen und undervolten können.
Der Preis war hier nicht ausschlaggebend, sondern neben der reduzierten TDP auch das hier:
4770S only - vPro, VT-d, TXT
4770K only - Multiplikator frei wählbar

Das Bild soll wohl ein Witz sein? Gensuso eine Krüppelkonstruktion wie die 970.
Wie schön, dass es hier Leutz gibt, die wirklich rein gar nichts raffen ;D
Im Idle liegt mein Rechner beim um 70 Watt.
Bei mir sind es knappe 50W (genau 49W) ohne Bildschirme - letztere bedürfen noch ein wenig "finetuning" ;)
Mit GTX660, 500GB SSD, 3TB HDD und 32GB RAM... auf Z87 mit i7-4770S und TV-Karte.

Und lass Dir nichts von irgendwelchen "Peaks" ins Hirn reden - wichtig ist einzig der durchschnittliche Verbrauch über einen gewissen Zeitraum.
Ist ja schließlich das, was an Abwärme kontinuierlich ins Gehäuse gebraten wird...

Razor

Alter Sack
2015-03-09, 21:52:07
Ha, ich habs du hast dauerhaft VSync aktviert! und dümpelst mit 30fps rum und nimmst die Details zurück. Wie ich schon geschrieben habe? Na super.;)

Erst mal vielen Da k für die Infos.
Yuppie, VSync habe ich immer aktiv, die schlieren stören mich. Im Dying Light (mein youtube Vid) ist alles auf Medium, damit es flüssig läuft.
Möbl ist ein (damals als besonders stromsparend durch PCGH getestetes) Asrock P67.
Die GTX660 ist von Asus ( nonOC).

Intel-Freak
2015-03-09, 22:39:42
Und lass Dir nichts von irgendwelchen "Peaks" ins Hirn reden - wichtig ist einzig der durchschnittliche Verbrauch über einen gewissen Zeitraum.
Ja genau und dafür nehmen wir dann auch genau das Netzteil das dazu passt und unsere Durchschnitts-Watt-Zahl abdeckt, weils so schön billig ist und wenig verbraucht. Wundern uns, daß es dann Bluescreen/Blackscreens unter Spielen gibt und jede dritte Anwendung die gestartet wird und mehr als einen oder zwei CPU-Kern anfordert abstürzt. Kann schon gleich beim Systemstart passieren wenn man unter Windows 7 per Hand in der config die Kerne "all" für den Start zuweist. Dann sind wieder die Hardwarehersteller Schuld und deren beschissener Treibersupport. Männers...mal überlegen ich @trolle ungern aber manchmal ist das hier echt mit den Spezi's nicht zum aushalten. Alles egal, Hauptsache schön sparsam.

Das eine Grafikkarte auch mal 145w braucht und die CPU mehr als 65w weil die TDP an Thermischen Größen festgemacht wird (auch maximale Verlustleistung in Abwärme gemittelt inklusive Faktor bestimmt wird=PCG 2013C i7 4770S zu PCG 2013D beim i7 4770k) und nichts mit der wirklichen Stromaufnahme in Watt unter bestimmten Bedingungen zu tun hat, ist uns völlig egal. Und der Poweridle liegt wie beim 4770k bei 34w mit HT, wenn du was vernüftiges kaufen willst dann den Core i7-4770T oder Core i7-4765T. Der S ist einfach eine CPU mit geringerem Basistakt sowie niedriger getakteter iGPU (siehe Graphics Max Dynamic Frequency) und 8mb Cache was ihm einen kleinen leistungstechnischen Vorteil gegenüber i5 Varianten ohne HT verschafft.

Einfacher ausgedrückt: dazu eine geringere VCore benötigt und die CPU taktet weniger schnell in den Turbo Boost und dies abhängig von der hinterlegten Max Turbo Frequency der T-Case von 71.35°C ist, wobei diese nicht allein von den CPU Kernen beeinflusst wird. Die reinen Kerne sind vollständig identisch und sparen unten rum kein bißchen mehr. Da kann man wie @Schrotti geschrieben hat auch einen 4770k undervolten, mehr macht Intel dann wirklich auch nicht. Der hätte jahrelang Reserven gehabt weil er einen freien Multi mitbringt. Puh...Gott Männe wie hälst Du das bloß aus. Der tägliche Wahnsinn.

Wahrscheinlich ahst du so wie bei deiner Grafikkarte einen Kühler mit Isolier-Tapeband festgeklebt. Hättest mal einen 4670K genommen und stark undervoltet! Aber was solls, ich hyperthreade lieber...:rolleyes:

@Mirko
2015-03-09, 22:59:23
VSync habe ich immer aktiv
Ja denn passt das, wie ich schon angenommen habe und auch selbst probiert habe, war ein Klick.

Du weißt aber schon, dass du damit paar Frames verschenkst? Kannst ja beim Vsyncen und Energieverwaltungsmodus "Adaptiv" wählen. Ich würde das ja auf volle Kanne stellen, aber was solls. Kannst es auch der Anwendung zuweisen und wenn es wirklich mal teart im Spiel einstellen.

Trotzdem neigt die 660 dann ab und an zum flimmern. Hart erkauft. Wenn du dich für eine Neuanschaffung entschieden hast, kannst den Thread ja nochmal vorkramen.;)

ich hyperthreade
Aber nicht so weit raus. Nicht das dir was passiert.:lol::biggrin:

Gast
2015-03-10, 00:50:29
Meine Güte... bei einigen hier liegen offenbar die Nerven blank. :D

@TS: Ich würde erstmal bei deiner GTX660 bleiben und abwarten, was dann eventuell bei der GTX960 mal wieder in die Hose gegangen ist. Wer sich am ersten Tag neue Hardware zulegt, sitzt immer auch gleich in der ersten Reihe, wenn plötzlich unerwartete 'Details' nachgereicht werden. :ulol:

Ich erinnere mich noch gut an Tests, wo Testsamples gute Ergebnisse eingefahren haben und wo die Redaktion hinterher dann kleinlaut zugeben mußte, daß bei der Version, die dann später für die Normalos zu kaufen war, nur noch minderwertige Plastik-Kühler und auf den Spawas gleich gar keine Kühlkörper mehr waren.

Die Testmuster der Geforce GTX 460 von Palit, einem der größten Grafikkarten-Hersteller, sollen nicht mit den Versionen im Handel identisch sein.
http://www.gamestar.de/hardware/news/grafikkarten/2316362/geforce_gtx_460.html
Skandal!!! :D

Hier im Forum gab es auch immer wieder Threads. Als Beispiel mal diesen hier lesen:

Ich habe heute eine Grafikkarte erhalten, die nicht solche ist, wie sie von vielen Fachzeitschriften und Webseiten getestet wurde. Es fehlt ein dicker Kühlkörper am Spannungswandler, die Grafikkarte wird heiss und unglaublich laut!
Nach einem Biosupdate wurde zwar die Lautstärke gesenkt, allerdings wurde auch die Leistung der Grafikkarte um über 18% gesenkt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=487512
:uclap: Learning is FUN. :ulol:
Ja was mußte der Pechvogel auch unbedingt ein Silent BIOS auf seine Karte flashen... Ach ich vergaß - das gepimpte Testsample war in den Reviews ja als außerordentlich leise und effizient beworben worden.

Auf keinen Fall solltest du dir direkt am ersten Tag eine neue Grafikkarte kaufen. Erst recht keine GTX aus der 60er Reihe. Das sind die Billigversionen. Sobald auch nur ein Hersteller Probleme damit an nVidia meldet, werden die ganz fix über ihren Treiber und das BIOS flächendeckend den Takt der Karten reduzieren. Darin hat man schon Übung. Damit haben sich dann alle Reviews/Benches zu diesen Karten von nVidia erledigt.

Wer zuerst heult, heult am längsten. ;)
Darum mein Tip: Laß erst andere in die saure Zitrone beißen. Und vertraue auf kein Review, wo eine bekannte Award-Fabrikatur von nVidia eine sonnengereifte und in Zuckersirup gebadete Marzipankartoffel in Zitronenform zur Verkostung vorgesetzt bekommen hat. - Die Käufer erwartet dann unter Umständen mal wieder alles andere als ein kulinarisches Highlight der Superlative.

Ich hatte damals auch eine GTX460, weil ich mir eine GTX480 nicht leisten konnte und wollte. Ich sag nur Latency-Bug und keine Kühlung auf den Spawas:

http://dexter.birdman.ch/screens/misc/dpc.png
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8187746&postcount=14

Ich bin schonmal gespannt, was sich nVidia diesmal hat alles einfallen lassen, um die Käufer der GTX960 abzustrafen.

-> Warte bis die Preise fallen und dann kauf dir eine GTX980 oder gar nichts.

Wenn du dich jetzt vollschwätzen läßt und dir eine GTX960 kaufst, dann kaufst du dir damit möglicherweise 2 Jahre, in denen du dich vermutlich jeden Tag zunehmend über diese Entscheidung ärgern wirst.

Die GTX460 war übrigens tatsächlich die erste Karte, die vor ihrer Zeit aus meinem PC wieder rausgeflogen ist. Die Karte war schon zum Zeitpunkt des Kaufs so veraltet und leistungsmäßig auf Kante genäht, daß ich das erste Spiel, was nach dem Kauf der Karte anstand, schon nichtmals mehr auf High-Settings spielen konnte. Und das wurde auch nicht besser. Sowas überhaupt reißerisch noch GTX zu nennen ist schon ziemlich irreführend.

Technik von heute mit der Leistung von gestern.

Kaufen!
Kaufen!
Kaufen!
Kaufen sie unbedingt noch heute!!!
Schon morgen ist alles billiger! :D :D :D

@Mirko
2015-03-10, 01:17:13
Zuviel Polemik aber guter Beitrag, wäre ohne das viele alleskackekommemorgenwieder sicherlich kürzer geworden, was einem viel Zeit erspart.:biggrin:

@Alter Sack, wie der Name schon suggriert ist ein schwieriger Fall, für ihn fallen wohl alle Karten raus die mehr als 160w verbrauchen könnten, selbst die Dinger surren-brummen-rauschn-zirpen vor sich hin, eben nicht supersilent.

Aber Recht hast du, jede Neuerscheinung von Nvidia sollte einem erstmal einen kalten Schauer über den Rücken treiben, imo.

Die 960 würde schon irgendwie passen, der Leistungszugewinn ist tatsächlich mau und der Preis viel zu hoch. Ich würde bei der 660 ansetzen die er hat. Alles noch auf "standard" und "jungfreulich", da geht noch was.:ulol:

Razor
2015-03-10, 07:36:30
Ja genau und dafür nehmen wir...
Was bitte meinst Du mit "wir"?
Kennen "wir" uns :confused:

Was soll denn bitte die Dimensionierung eines Netzteils mit der durchschnittlichen Leistungsaufnahme des Systems zu tun haben?
Wahrscheinlich gehörst Du dann auch zu den Leuten, die gleich mit den Stromverbrauch der Monitore ins Feld ziehen und das dann ins Quadrat zum Siririus setzen?

Tief durchatmen und hier nicht alle gleich für Blöd verkaufen - nur so ein Gedanke.

Razor

Alter Sack
2015-03-10, 08:14:33
Ja denn passt das, wie ich schon angenommen habe und auch selbst probiert habe, war ein Klick.

Du weißt aber schon, dass du damit paar Frames verschenkst? Kannst ja beim Vsyncen und Energieverwaltungsmodus "Adaptiv" wählen. Ich würde das ja auf volle Kanne stellen, aber was solls. Kannst es auch der Anwendung zuweisen und wenn es wirklich mal teart im Spiel einstellen.

Trotzdem neigt die 660 dann ab und an zum flimmern. Hart erkauft. Wenn du dich für eine Neuanschaffung entschieden hast, kannst den Thread ja nochmal vorkramen.;)


Aber nicht so weit raus. Nicht das dir was passiert.:lol::biggrin:

Bei Dying Light habe ich erstmalig nachträglich VSync ausgeschaltet, weil die Performance wie Du schon geschrieben hast spürbar schlechter war, bzw. ohne VSync auf Medium als flüssig spielbar zu bezeichnen ist (leider ohn AA :( ). Ansonsten ist VSync in allen anderen Spielen (auch COD-AW, Crysis 3, etc. immer aktiv.
Trotz VSync=off hat mein Messgerät gestern die 176 Watt in DyingLight rausgehauen. Muss mir mal bei Gelegenheit ein höherwertiges Messgerät in der Familie (alles Elektriker ;) ) pumpen und erneut messen. Vielleicht liegts auch am alten Voltmeter.

Als Shooter-Fan bin gibt´s neben Dying-Light (welches ich fast durch habe, ... in medium... hat mir jetzt deshalb auch nicht schlechter gefallen) nur noch Far Cry 4 (noch nicht gezockt), welches von einer schnelleren Graka provitieren könnte. Alle anderen "nexgen" Spiele wie AC-Unity, WatchDogs usw. sind für mich ehern unwichtig.
Hätte jetzt sehr gerne eun Graka-Upgrade gemacht, aber bei AMD muss ich wie schon geschrieben wurde auf auf ein ultra-silent-System verzichten (Wasser will ich nicht im Rechner) und bei NVidia wird man derzeit preislich und bei den Spezifikationen komplett verarscht.
Hinzu kommt noch das der Dollar schweineteuer geworden ist (ca. 25-30% in einem Jahr) und Hardware teurer wird.

Für einen baldigen Kauf spricht, dass die großen Änderungen wie 16nm erst in frühestens einem Jahr kommen und dieses Jahr nicht mehr viel zu kommen scheint.

Ich glaube mittlerweile, dass die endgültige Entscheidung für eine neue Graka spätestens mit dem Wechsel auf einen neuen Bildschirm fallen muss: 144hz und/oder 4K, zusammen mit Windows 10.
Damit hat man auch den frühesten Kaufzeitpunkt halbwegs eingegrenzt: Herbst 2015.

Interessant wird´s ab Herbst dann auch mit Intel-Skylake in 14nm. Selbst wenn man hier nur 20-30% Mehrleistung im Vergleich zum i7-2600k (32nm) rausspringen, dürfte der Verbrauch massiv fallen. Wenn die CPU beispielsweise 40 Watt weniger schluckt, könnte man diese "freigewordenen" 40 Watt dann als thermal-budget der Graka rüberschieben, die dann eine TDP von 180 Watt haben kann ohne das Gehäuse und die Lüftung gewechselt werden müssen.

Alter Sack
2015-03-10, 08:32:17
Meine Güte... bei einigen hier liegen offenbar die Nerven blank. :D

@TS: Ich würde erstmal bei deiner GTX660 bleiben und abwarten, was dann eventuell bei der GTX960 mal wieder in die Hose gegangen ist. Wer sich am ersten Tag neue Hardware zulegt, sitzt immer auch gleich in der ersten Reihe, wenn plötzlich unerwartete 'Details' nachgereicht werden. :ulol:

Ich erinnere mich noch gut an Tests, wo Testsamples gute Ergebnisse eingefahren haben und wo die Redaktion hinterher dann kleinlaut zugeben mußte, daß bei der Version, die dann später für die Normalos zu kaufen war, nur noch minderwertige Plastik-Kühler und auf den Spawas gleich gar keine Kühlkörper mehr waren.


http://www.gamestar.de/hardware/news/grafikkarten/2316362/geforce_gtx_460.html
Skandal!!! :D

Hier im Forum gab es auch immer wieder Threads. Als Beispiel mal diesen hier lesen:


http://www.forum-3dcenter.org/vbulletin/showthread.php?t=487512
:uclap: Learning is FUN. :ulol:
Ja was mußte der Pechvogel auch unbedingt ein Silent BIOS auf seine Karte flashen... Ach ich vergaß - das gepimpte Testsample war in den Reviews ja als außerordentlich leise und effizient beworben worden.

Auf keinen Fall solltest du dir direkt am ersten Tag eine neue Grafikkarte kaufen. Erst recht keine GTX aus der 60er Reihe. Das sind die Billigversionen. Sobald auch nur ein Hersteller Probleme damit an nVidia meldet, werden die ganz fix über ihren Treiber und das BIOS flächendeckend den Takt der Karten reduzieren. Darin hat man schon Übung. Damit haben sich dann alle Reviews/Benches zu diesen Karten von nVidia erledigt.

Wer zuerst heult, heult am längsten. ;)
Darum mein Tip: Laß erst andere in die saure Zitrone beißen. Und vertraue auf kein Review, wo eine bekannte Award-Fabrikatur von nVidia eine sonnengereifte und in Zuckersirup gebadete Marzipankartoffel in Zitronenform zur Verkostung vorgesetzt bekommen hat. - Die Käufer erwartet dann unter Umständen mal wieder alles andere als ein kulinarisches Highlight der Superlative.

Ich hatte damals auch eine GTX460, weil ich mir eine GTX480 nicht leisten konnte und wollte. Ich sag nur Latency-Bug und keine Kühlung auf den Spawas:

http://dexter.birdman.ch/screens/misc/dpc.png
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8187746&postcount=14

Ich bin schonmal gespannt, was sich nVidia diesmal hat alles einfallen lassen, um die Käufer der GTX960 abzustrafen.

-> Warte bis die Preise fallen und dann kauf dir eine GTX980 oder gar nichts.

Wenn du dich jetzt vollschwätzen läßt und dir eine GTX960 kaufst, dann kaufst du dir damit möglicherweise 2 Jahre, in denen du dich vermutlich jeden Tag zunehmend über diese Entscheidung ärgern wirst.

Die GTX460 war übrigens tatsächlich die erste Karte, die vor ihrer Zeit aus meinem PC wieder rausgeflogen ist. Die Karte war schon zum Zeitpunkt des Kaufs so veraltet und leistungsmäßig auf Kante genäht, daß ich das erste Spiel, was nach dem Kauf der Karte anstand, schon nichtmals mehr auf High-Settings spielen konnte. Und das wurde auch nicht besser. Sowas überhaupt reißerisch noch GTX zu nennen ist schon ziemlich irreführend.

Technik von heute mit der Leistung von gestern.

Kaufen!
Kaufen!
Kaufen!
Kaufen sie unbedingt noch heute!!!
Schon morgen ist alles billiger! :D :D :D

Habe mich bis gerade eben mit der GTX960 noch nicht beschäftigt, aber die Fachpresse jubelt schon: http://www.pcgameshardware.de/Geforce-GTX-960-Grafikkarte-259742/Specials/Test-Review-1148357/2/#a1

Anno2070:
GTX660 zu 960: 24fps vs 44fps

BF4:
GTX660 zu 960: 30fps vs 41fps

Crysis 3:
GTX660 zu 960: 26fps vs 30fps

...liest sich für mich, als ob es irgendwas zwischen sidegrade und upgrade wäre. Für den Preis der GTX750Ti wäre es OK, aber mit 4GB dann irgendwas um 260€ aufwärts abdrücken (für ca. 25-35% Mehrleistung) ist Knete verbrannt ;) .
Zumal: In Crysis 3 sieht man ja auch wunderbar, das die Karte was Rohleistung angeht ein sidegrade ist. 26 zu 30fps hole ich vermutlich zur Not durch hartes übertakten der GTX660 noch raus (wobei ich seit den seiligen Q6600 Zeiten nicht mehr übertakte, weil bisher immer ausreichend Power vorhanden war).

Das die GTX460 damals so eine Beschiss-Karte war, wusste ich nicht. Scheint wohl im Graka-Markt eine lange Tradition zu sein, die Leute zu verarschen und zu betrügen.

Edith:
Zitat aus PCGHW zur 960:
Das Leistungsplus von einer DX11-Karte der ersten beiden Generationen sowie von einer Karte der Leistungsklasse GTX 660/HD 7850 ist dagegen insbesondere dank des Boosts merklich. Allerdings sollten Interessenten bei Top-Titeln schon in Full-HD bereit sein, das ein oder andere Detail abzuschalten.

...und dafür dann 250€ oder mehr abdrücken? Geht´s noch?

Schrotti
2015-03-10, 08:49:14
Habe mich bis gerade eben mit der GTX960 noch nicht beschäftigt, aber die Fachpresse jubelt schon: http://www.pcgameshardware.de/Geforce-GTX-960-Grafikkarte-259742/Specials/Test-Review-1148357/2/#a1

Anno2070:
GTX660 zu 960: 24fps vs 44fps

BF4:
GTX660 zu 960: 30fps vs 41fps

Crysis 3:
GTX660 zu 960: 26fps vs 30fps

...liest sich für mich, als ob es irgendwas zwischen sidegrade und upgrade wäre. Für den Preis der GTX750Ti wäre es OK, aber mit 4GB dann irgendwas um 260€ aufwärts abdrücken (für ca. 25-35% Mehrleistung) ist Knete verbrannt ;) .
Zumal: In Crysis 3 sieht man ja auch wunderbar, das die Karte was Rohleistung angeht ein sidegrade ist. 26 zu 30fps hole ich vermutlich zur Not durch hartes übertakten der GTX660 noch raus (wobei ich seit den seiligen Q6600 Zeiten nicht mehr übertakte, weil bisher immer ausreichend Power vorhanden war).


Schade das PCGH nur die GPU und nicht den Speicher mit übertaktet haben (zumal Sie im Magazin davon geschrieben haben das es bei der GTX 960 ineffizient ist nur die GPU zu übertakten).



Edith:
Zitat aus PCGHW zur 960:

...und dafür dann 250€ oder mehr abdrücken? Geht´s noch?

Halt.

250€ mag die 4GB Version kosten, die normale 2GB Version gibt es schon ab 189,80€ (http://geizhals.de/?cat=gra16_512&xf=1439_GTX+960#xf_top).

Gast
2015-03-10, 08:59:49
Scheint wohl im Graka-Markt eine lange Tradition zu sein, die Leute zu verarschen und zu betrügen.


Korrektur :

Scheint wohl bei Nvidia eine lange Tradition zu sein, die Leute zu verarschen und zu betrügen.

Und auch diesmal kommen sie damit durch !

Schrotti
2015-03-10, 09:13:42
Korrektur :

Scheint wohl bei Nvidia eine lange Tradition zu sein, die Leute zu verarschen und zu betrügen.

Und auch diesmal kommen sie damit durch!

Ist ja nun auch mal gut.

Wir wissen das du nv nicht leiden kannst wer auch immer du bist.

TobiWahnKenobi
2015-03-10, 10:08:14
Ist ja nun auch mal gut.

Wir wissen das du nv nicht leiden kannst wer auch immer du bist.

Vllt hat er nie ne anständige NV gehabt oder fröhnt anderen Intentionen. Bei Gästen muss man ja leider mit allem möglichen rechnen.


(..)

mfg
tobi

Gast
2015-03-10, 10:09:31
Sind eher die Referenzdesigns die im Preis nachgeben, stimmt aber @Schrotti die Preise gegen etwas nach. Wird wohl bald die 4gb kommen. Bei 175-180 wird es interessant.

@Mirko
2015-03-10, 15:36:32
oder fröhnt anderen Intentionen. Bei Gästen muss man ja leider mit allem möglichen rechnen.
*räusper* Autsch! Unnötiger Seitenhieb. Ob das immer nur bei @gästen so ist? Hab hier schon andere Sachen gelesen!;D

Herbst 2015.
Entschuldige, für mich hörst sich das alles nach Drumrumgerede oder Ausflüchte-Ausreden an. Eigentlich willst du gar nicht wechseln, eher motzen? Sei nicht so faul.:wink: Ja, alter Sack nur meckern!
Wau :naughty:, jetzt legt aber einer los. Da hast du mich jetzt voll überrascht, die letzten Postings sind mal richtig gut. Hast dich jetzt richtig informiert, Hut ab.:wink:


Anno2070:
GTX660 zu 960: 24fps vs 44fps
BF4:
GTX660 zu 960: 30fps vs 41fps
Crysis 3:
GTX660 zu 960: 26fps vs 30fps

Dabei bedenken das die 960 auch filtertechnische Vorteile und DX 12 tauglich-fähig ist, mindestens DX12 wenn nicht sogar DX12.1 (siehe @leonidas News dazu!)

Bei Dying Light habe ich erstmalig nachträglich VSync ausgeschaltet, weil die Performance wie Du schon geschrieben hast spürbar schlechter war, bzw. ohne VSync auf Medium als flüssig spielbar zu bezeichnen ist (leider ohn AA :( ).
Dann kannst du immer noch bei der CPU und der Graka ansetzen, dass ist im Idle egal und wirkt sich dann nicht auf die Lautstärke aus. Unter Spielen wars die sozusagen egal (habs jedenfalls so verstanden). Also mit sanftem OC der CPU und 660 auseinandersetzen. Asus kann das ab! Und dabei den Supersilentanspruch im Auge behalten, ordentliches Finetuning eben!

Das mit dem Verbauch kann jetzt hinkommen (deafult 180w), Asus liefert dort immer ordentliches ab, ist dafür aber auch teurer.

Scheint wohl bei Nvidia eine lange Tradition zu sein, die Leute zu verarschen und zu betrügen.
Also auch wenn ich dazu was Sarkastisches verfasst habe. Man muss schon differenzieren und reell bleiben. Die 970 ist ein Thema für sich, jetzt alles in einen Topf zu werfen wäre unrealistisch. Wir können hier gerne einen Joke machen und witzeln, aber was der Gast hier schreibt...

Mann muss ja die 970 nicht kaufen, daß heißt ja nicht das die anderen Karten von nV auch alle Mist sind. Das wäre ja am Produkt vorbei.
...stimmt. AMD hat es für mich am Besten gelöst, kleines Video (Fixer3 mit dem Nvidia Aufschrei zum Schluss) und gut, das reicht. Nicht immer sinnlos draufpiken :uconf3:. Darum kümmern sich jetzt Anwälte. Was @aths und die Leute der PCGH oder von ht4u schreiben dazu ruhig mal lesen. Für UHD ist die Karte nicht geeignet und auch nicht für Ultratexturen. Das macht sie aber nicht langsamer. Der Preis müsste jetzt deutlich nach unten nagepasst werden, das wäre Nvidias Aufgabe und den Fans was einzuräumen die betroffen sind auch.

Die Fehler Nvidias die sie bei 970 gemacht haben auf ein gesamtes Lineup zu übertragen ist nicht der richtige Weg, dass macht die Presse unglaubhafter denn je. Ob sie dafür verantwortlich sind das die 970 so erfolgreich ist, wäre wieder ein anderes Thema. Ich denke mal sie haben daraus gelernt (sind somit nicht unfehlbar wie jeder andere) und werden ab jetzt (im Sinne der abschließenden Produktbewertung) genauer hinsehen.

Der Preis der 960 muss damit sicher auch runter, bedeutet aber nicht das die Karte völliger Schrott ist. Die liegt erstmal auf Leistungsniveau einer 680. (die 770 hat sie leider nicht geschafft, gut das kann man kritisieren). Ist sie dafür gedacht? Die Frage steht ja noch offen!

Ist ja nun auch mal gut.
Dito! Im Kopf behalten aber jetzt alles verteufeln, nein. Witzel erlaubt und auch Häme, klar. ;)

[QUOTE=Razor;10548080]Was soll denn bitte die Dimensionierung eines Netzteils mit der durchschnittlichen Leistungsaufnahme des Systems zu tun haben?[/QUOTE
Während Sys-Peaks, wovon redest du? :confused:

Sieh dir dazu mal eine Grahpen an!

Gast#187
2015-03-10, 19:02:41
Ist ja nun auch mal gut.

Wir wissen das du nv nicht leiden kannst wer auch immer du bist.
Hier ist Gast aus Post 187. Ich schätze mal dein Kommentar geht auch in meine Richtung - daher zur Klarstellung:

Was ich oben poste ist nicht dazu gedacht nVidia zu bashen oder zu demontieren. Das schafft nVidia zur Zeit ganz ohne fremde Hilfen. Das ist nur meine persönliche Meinung, die sich aufgrund meiner persönlichen Erfahrung gebildet hat.

Ich schrieb, daß der TS sein Geld in eine GTX980 investieren soll, sobald diese nicht mehr so überzogen teuer ist.

Damals standen wir selbst vor einer Entscheidung: GTX670 Phantom mit 4GB oder GTX680 EVGA mit lediglich 2GB. Wir haben uns wegen des Displays ('lediglich' 1080p) für mehr Rohleistung entschieden und sind damit bis jetzt gut gefahren. ;)
Vorher hatte ich einen Fehler gemacht, aus dem ich gelernt habe. Ich hatte mich für die GTX460 mit doppeltem Speicher (2GB) entschieden, weil ich hoffte, daß man damit die Zeit bis zu einer bezahlbaren 80'er GTX überbrücken könnte und weil ich bereits ein gebranntes Kind war (VRAM-Bug geForce8). Dies war deshalb ein Fehler, weil die GTX460 schon out-of-the-box nicht ausreichend Leistung für 1080p hatte. Die ganzen optimistischen Einschätzungen in den Reviews waren alle falsch. Da nutzte dann auch der viele Speicher nichts. Hinzu kommt, daß es nochmal eine ganz besondere Erfahrung ist, wenn man eine brandneue Karte einbaut und schon nach wenigen Wochen feststellen muß, daß das Ding schlicht zu lahm ist und selbst bei einfachsten Aufgaben auf dem Desktop rumbockt ohne Ende.
Bei der GTX480 gab es meines Wissens keinen Latency-Bug. Dort gab es afair auch keine nachträglichen Leistungsdowngrades über die Firmware, weil die Karten lauter waren, als die Polizei erlaubt. Bei den 80'er GTX scheint man bei nVidia tatsächlich hinzuschauen, was später bei den Kunden mal aus dem Karton purzelt.
Und ich kann nur sagen, daß ich mit der EVGA GTX680 bis jetzt wirklich zufrieden bin. Das ist überhaupt kein Vergleich zu der GTX460, die jetzt in einem weitestgehens ungenutzen Linux-Rechner steckt. ;)

@TS:
Ich würde besonderes Augenmerk auf den Crysis 3 Benchmark legen. Da Crysis 3 konstant sehr hohe Anforderungen stellt merkt man imo recht schnell, wenn der Boost-Takt nicht gehalten werden kann.
Auch wenn die Karte 'nur' 190,-€ kostet. Wer schon eine GTX660 hat, braucht ganz sicher keine GTX960. Das Geld wäre imo sinnlos verpulvert. Für eine Karte die einem inzwischen zu langsam geworden ist, bekommt man von nVidia mit der GTX960 eine Karte angeboten, die immernoch zu langsam ist aber dafür mit doppeltem Speicher, wenn man will. Wo soll da der Sinn sein?
Den doppelten Speicher kannst du imo vergessen, wenn die Karte schon ab Start nicht die erforderliche Leistung bringt. Ich stelle mir gerade vor, wie ich mich heute fühlen würde, wenn ich mir damals eine GTX460 mit 4GB GDDR5 gekauft hätte... :freak:
Wahrscheinlich nicht viel anders als jemand, der so dumm war sich eine 2GB Version gekauft zu haben und einsehen mußte, daß die Karte auch bereits mit 1GB ausreichend langsam gewesen wäre, um sie bei nächster Gelegenheit auszutauschen. :D

Hinterher weiß man immer mehr.

Schrotti
2015-03-11, 11:09:30
Hier ist Gast aus Post 187. Ich schätze mal dein Kommentar geht auch in meine Richtung - daher zur Klarstellung:

Was ich oben poste ist nicht dazu gedacht nVidia zu bashen oder zu demontieren. Das schafft nVidia zur Zeit ganz ohne fremde Hilfen. Das ist nur meine persönliche Meinung, die sich aufgrund meiner persönlichen Erfahrung gebildet hat.

Ich schrieb, daß der TS sein Geld in eine GTX980 investieren soll, sobald diese nicht mehr so überzogen teuer ist.

Damals standen wir selbst vor einer Entscheidung: GTX670 Phantom mit 4GB oder GTX680 EVGA mit lediglich 2GB. Wir haben uns wegen des Displays ('lediglich' 1080p) für mehr Rohleistung entschieden und sind damit bis jetzt gut gefahren. ;)
Vorher hatte ich einen Fehler gemacht, aus dem ich gelernt habe. Ich hatte mich für die GTX460 mit doppeltem Speicher (2GB) entschieden, weil ich hoffte, daß man damit die Zeit bis zu einer bezahlbaren 80'er GTX überbrücken könnte und weil ich bereits ein gebranntes Kind war (VRAM-Bug geForce8). Dies war deshalb ein Fehler, weil die GTX460 schon out-of-the-box nicht ausreichend Leistung für 1080p hatte. Die ganzen optimistischen Einschätzungen in den Reviews waren alle falsch. Da nutzte dann auch der viele Speicher nichts. Hinzu kommt, daß es nochmal eine ganz besondere Erfahrung ist, wenn man eine brandneue Karte einbaut und schon nach wenigen Wochen feststellen muß, daß das Ding schlicht zu lahm ist und selbst bei einfachsten Aufgaben auf dem Desktop rumbockt ohne Ende.
Bei der GTX480 gab es meines Wissens keinen Latency-Bug. Dort gab es afair auch keine nachträglichen Leistungsdowngrades über die Firmware, weil die Karten lauter waren, als die Polizei erlaubt. Bei den 80'er GTX scheint man bei nVidia tatsächlich hinzuschauen, was später bei den Kunden mal aus dem Karton purzelt.
Und ich kann nur sagen, daß ich mit der EVGA GTX680 bis jetzt wirklich zufrieden bin. Das ist überhaupt kein Vergleich zu der GTX460, die jetzt in einem weitestgehens ungenutzen Linux-Rechner steckt. ;)


So kann man das auch nachvollziehen.

Ich habe auch jeweils die größte Karte der Generation gekauft um länger Ruhe zu haben.

GTX 280, GTX 480, GTX 680, GTX 980 und jeweils eine Generation übersprungen.

Lowkey
2015-03-11, 11:31:16
Bei dem täglich fallenden Dollar-Euro Kurs wird die 4 Gbyte Version, da keine Lagerware, im Preis stabil sein bzw. weiter steigen.

Andersherum hätte man heute die 960 für den Preis der 750 Ti bekommen.

weiterer Gast
2015-03-11, 12:04:56
[QUOTE=Lowkey;1054943Andersherum hätte man heute die 960 für den Preis der 750 Ti bekommen.[/QUOTE]
Kaum NV ist doch kein Discounter!;)
Denke ich nicht das würde keinen Platz mehr für die 750 und 750ti lassen, also auch nicht für die 950. Und unter 100$, nV? Davon träumst du nur.

Alter Sack
2015-03-11, 12:25:02
So kann man das auch nachvollziehen.

Ich habe auch jeweils die größte Karte der Generation gekauft um länger Ruhe zu haben.

GTX 280, GTX 480, GTX 680, GTX 980 und jeweils eine Generation übersprungen.

Wow, dass finde ich trotzdem sehr regelmäßig, im Schnitt alle 2,5 Jahre!

Klar, wenn man jetzt zur GTX980 greift, hat man erstmal in FullHD für 2,5 Jahre Ruhe. Die kommende Monate haben wir jedoch die seltene Situation, dass die HighEnd-Karte GTX980 mit 4GB wg. UHD vielleicht nicht mehr reichen könnte. Das spricht ganz klar gegen eineGTX980, wenn man diese für 2-3 Jahre halten will (vorrausgesetzt, dass die 4 GB in UHD tatsächlich zu knapp bemessen sind).
Seitens NVidia gibt´s derzeit keine wirkliche Alternativ, die bezahlbar ist. Bei AMD wäre zumindest die R290X mit 8GB verfügbar.


Bei mir war´s so, dass ich von Mid-Range (4850) auf HighEnd (GTX285-2GB für 360€ bei Release!!!!) und wieder zurück auf untere MidRange (GTX660) gewechselt bin.
Jetzt, 2,5 Jahre später wäre ein Wechsel wieder angesagt, aber HighEnd kostet (bei NV) >600€, wobei die 970 eigentlich ebenfalls HighEnd ist, aber durch NV verkrüppelt wurde.
Der Ausweg wäre, wenn sowas wie eine 965Ti oder 970Ti mit der GPU-Power einer 970 und vollen 4 GB (besser natürlich gleich 6 GB) für 300€ noch dieses Jahr rauskommen würde.
Wenn man halbwegs was gescheites haben will, greift man derzeit anscheinend zu AMD für 300-400€ (4 oder 8 GB), oder legt nochmal 50% mehr Knete drauf für eine GTX980 (wäre mir zu teuer, obwohl ich das Geld sicherlich noch locker machen könnte... aber die Verhältnismäßigkeit ist für meine Zockerei nicht gegeben, dafür 600€ rauszupulvern).

Solange meine GTX660 für mich noch brauchbare Zockerei ermöglicht, kommen für mich derzeit keine aktuell am Markt angebotenen Grafikkarten in Frage. Abwarten, und schauen, was sich die kommenden Monate so tut.

Sollte mich 4K kurzfristig doch noch reizen, dann käme nur die AMD R290X-8GB in Frage. Aktuell sakt der Euro/Dollar-Kurs jedoch weiter ab und bald bekommt man für € genau einen $. Dadurch wird die Hardware kurz/mittelfristig ca. 30% teurer, als noch vor einem Jahr.... und meine Lust sinkt, wegen der Währungszockerei der Börsianer noch mehr Kohle rauszuhauen. Irgendwie alles scheiße momentan... leider!

EDIT:
Bei dem täglich fallenden Dollar-Euro Kurs wird die 4 Gbyte Version, da keine Lagerware, im Preis stabil sein bzw. weiter steigen.

Andersherum hätte man heute die 960 für den Preis der 750 Ti bekommen.

genau meine Gedanken :) .

Gast
2015-03-11, 23:30:45
Kann ich auch mal was fragen, als gast zur TitanX, hab ich einen Gedankenfehler oder nicht?

http://www.pcgameshardware.de/Geforce-GTX-Titan-Grafikkarte-256920/News/Geforce-GTX-Titan-X-1153247/

PCGH berichten hier die TitanX hätte :
Standardmäßig kommt die GTX Titan X mit je einem sechs- und achtpoligen Stromanschluss daher und könnte sich somit 250 Watt innerhalb der Spezifikationen genehmigen.

Aber ist das nicht so das 1x8=150w + 1x6=75w + 16xPCIe-Slot=75w in der Summe dann 300w TDP theoretisch ergeben würden. Wie kommen die jetzt wieder auf 250w? Gibt es da einen neuen Spezifikations-Standard? Die 295x2 konnte über 2x8 sogar 500w aufnehmen.

Der @gsync-user hat heute gechrieben http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10549638&postcount=2 es wären wohl maximal 300w. Das hat er vor dem Beitrag der PCGH veröffentlicht.

Was stimmt denn jetzt? Ich seh hier nicht mehr durch.
16xPCIe waren 75w
1x6 Pin waren 75w
1x8 Pin waren 150w??????

Ich Fall hier bald vom Glauben ab. Das ganze Durcheinander macht einen wirr. Was braucht den jetzt z.B. eine 970 mit 8xPin Anschluss für einen HTPC Theoretisch bis..., keine 150w + PCIe mehr wenn nötig?

Ich weiß das das alles nur theoretisch ist aber es gibt doch die Spezifikation? Wurde da was geändert.

Schrotti
2015-03-11, 23:56:21
Wow, dass finde ich trotzdem sehr regelmäßig, im Schnitt alle 2,5 Jahre!

Klar, wenn man jetzt zur GTX980 greift, hat man erstmal in FullHD für 2,5 Jahre Ruhe. Die kommende Monate haben wir jedoch die seltene Situation, dass die HighEnd-Karte GTX980 mit 4GB wg. UHD vielleicht nicht mehr reichen könnte. Das spricht ganz klar gegen eineGTX980, wenn man diese für 2-3 Jahre halten will (vorrausgesetzt, dass die 4 GB in UHD tatsächlich zu knapp bemessen sind).


Darum habe ich gleich zwei genommen. Langt für 4k (per DSR) super, auch was den VRAM angeht.


Solange meine GTX660 für mich noch brauchbare Zockerei ermöglicht, kommen für mich derzeit keine aktuell am Markt angebotenen Grafikkarten in Frage. Abwarten, und schauen, was sich die kommenden Monate so tut.


Ich habe auch noch eine GTX 660 im Zweitsys (zusammen mit einem Pentium G3258@4,5GHz und 8GB Ram).

Der Monitor kann nur maximal 1680x1050 und von daher mache ich mir da keine Sorgen das die Karte nicht reicht.

gpu-heini
2015-03-12, 00:17:36
Der @gsync-user hat heute gechrieben http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10549638&postcount=2 es wären wohl maximal 300w.

Was stimmt denn jetzt? Ich seh hier nicht mehr durch.
16xPCIe waren 75w
1x6 Pin waren 75w
1x8 Pin waren 150w??????

Und da hat er vollkommen Recht!

Die PCGHler stehen in der letzten Zeit neben sich, oder der Autor hat nur die beiden Stecker ansich gemeint. Das ist aber mehr als verwirrend, weil diese nur 225w liefern sollten, jedenfalls nach dem damals bestehenden Spezifikationsstandard 2.0 mit dem sie eingeführt wurden. (hat sich heute geändert in "bis zu" und dort sind die Belastbarkeiten derzeit höher definiert). Es gibt zu dem 1x6+1x6 oder 1x6+1x8 oder 1x8+1x8 noch die Möglichkeit einen weiteren 1x6 zu definieren. Dieser führt weitere 75w. Die Spezifikation 1x8+1x8 ist offiziell eigentlich nicht zulässig, so konnte die max. Board Power über 375 erhöht werden.

Zulässig sind nach Spezifikation nur 375w für eine einzelne Karte inklusive der Leistung PCIex16 von 75w.

Die Karte, TitanX hat so 300w TDP max.! Und nicht 250w. Weiß nicht was denen neuerdings fehlt, die schreiben sich was schön.

Deine 1x8 970 hat 225w max. TDP, verbraucht aber weniger. Gehe bei der Auswahl deines Netzteil nach der Amperezahl die eine Einzelne- oder Multirail liefern muss.

@Schrotti
dafür reicht die 660 vollkommen! Dieser ganze Speicherwahn ist Unsinn. Gilt nur für die Freaks.

Alter Sack
2015-03-12, 08:29:55
Ich habe auch noch eine GTX 660 im Zweitsys (zusammen mit einem Pentium G3258@4,5GHz und 8GB Ram).

Der Monitor kann nur maximal 1680x1050 und von daher mache ich mir da keine Sorgen das die Karte nicht reicht.

Ja klar, bei Sub-FullHD reicht die GTX660 auf alle Fälle.

Aktuell macht mir der Dollarkurs ehern sorgen. Der treibt die Preise für Hardware/Software künstlich nach oben. Wir sind bei knapp 30% Differenz zum Vorjahr angekommen und damit wird aus einer 200€ Graka eine 300€ Graka. Außerdem können die Preise aktueller Grakas ebenfalls nicht sinken... verrückte Welt. Verdammte EU-Politiker!

Gast
2015-03-12, 10:32:37
Die Karte, TitanX hat so 300w TDP max.! Und nicht 250w. Weiß nicht was denen neuerdings fehlt, die schreiben sich was schön.

@Volker aus dem CB-Forum hat 3D-Center offiziell als "Wünsch dir was Seite" bezeichnet und das zweimal hintereinander!

Du liest aber schon das Kleingedruckte oder? "Vermutlich, Wahrscheinlich, Geschätzt, Möglicherweise .." Das ist also zum großen Teil ausgedacht oder einfach auf das aktuelle was drauf gepackt. Und genau deshalb posten wir solche "News" nicht, [/B]denn das ist hier keine Wünsch-dir-was-Seite.[/B]
http://www.computerbase.de/forum/showthread.php?t=1456293&page=8&p=17134354#post17134354

Exakt. Es gibt Gerüchte wie die R9 370 von gestern, die ja nicht offiziell bestätigt sind und wo noch einige Sachen fehlen, oder die Benchmarks hier, die noch von anderen Seiten mit ähnlichen Werten untermauert werden. Und es gibt eben komplett ausgedachtes, was auf News-Seiten einfach nichts zu suchen hat. Denn da sollte eher Wunschvorstellung stehen - und wir sind hier nicht bei wünsch dir was.
http://www.computerbase.de/forum/showthread.php?t=1456293&page=8&p=17134478#post17134478

Nur weil ein User auf einen News-Link zu 3D-Center verweisen hat, in deren Verlauf der @Autor versucht hat die angenommene Rohleistung TitanX vs Fiji alias 390x erstmals zu bewerten und in einer Art Tabellenkalkulation dargestellt hat, visuell mit Balken hinterlegt.(wie immer auf 3D-Center;))

Dies aus der Diskussion heraus, daß die TitanX eben nicht die 50% Mehrleistung mitbringt die durch CB prognostiziert wurden. (woher haben sie die Info wohl?)

EINE SAUEREI ist das, als Leser von 3D-Center fühle ich mich persönlich angegriffen, die Beiträge sollten sofort aus dem Computerbase-Foren-Bereich entfernt werden!

@Leonidas hat sich gestern, heute oder über Nacht sogar die Mühe gemacht auf einen kleinen Hinweis zweier unbekannter Leser von 3D-Center zu reagieren, die im Newsbereich einige eigene Ansichten zur TitanX und deren vermutliche Skalierungsfähigkeit unter UHD mitgeteilt haben. @Leonidas hat dies sofort in einer News berücksichtig!

Zu den Benchmark-Werten zur GeForce GTX Titan X gab es dagegen die (zutreffende) Anmerkung, daß die GeForce GTX Titan X maximal vermessen unter der Aufösung von 2560x1440 natürlich nicht das an Performance zeigt, was deren potentielle Käufer interessiert – da geht es entweder um 4K oder aber um FullHD mit Downsampling auf das Niveau von 4K. Gerade weil nVidia nun beim GM200-Chip das gleiche Speicherinterface wie beim vorhergehenden GK110-Chip benutzt, AMD in dieser Frage derzeit schon vorn ist und mit dem Fiji-Chip und dessen HBM-Speicherinterface noch viel weiter vorangehen wird, interessiert der Punkt der 4K-Performance besonders. Man vermutet hier nicht zu Unrecht, daß der GM200-Chip hier erhebliche Nachteile gegenüber dem Fiji-Chip haben könnte, einfach weil ein Speicherbandbreiten-Unterschied von (je nach konkreter Taktrate) 50-80% zugunsten von Fiji irgendwo seine deutlichen Auswirkungen haben muß. Insofern kann es gut und gerne passieren, daß Fiji dem GM200 unter 4K eventuell sehr viel deutlicher davonzieht als dies durch die wenigen derzeit vorliegenden Benchmarks ausgedrückt wird.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=561920

An die Moderation: Bitte das auch der 3D-Center Crew mitteilen.

Wenn ich manchmal lese was zur Zeit auf PCGH und Computerbase veröffentlich wird, da können einem die Haare zu Berge stehen. Zuweilen werden dabei News die von Forenmitglieder auf 3D-Center gestreut werden als bare Münze veröffentlich oder in den eigenen Newsbereich eingepflegt.

Das kann doch alles nicht wahr sein!

PS: Ich komme anonym rein, weil ich Angst habe von gezieltem Gebashe und Geflame heimgesucht zu werden.

Gast
2015-03-12, 11:04:19
Ich habe es mir angesehen, dass kann nur in Bezug auf 3dc gesehen werden. Ja sowas ist eine Sauerei und öffentliche Blossstellung. Der sollte sich umgehend entschuldigen! Sonst lösche ich dort meinen Account.

@Mirko
2015-03-12, 12:46:29
@gast1
Bitte sag mir nicht das du eine 970 kaufen willst, damit unterstützt du ein krankes und bescheuertes proprietäres Ökosystem!

@gast2
Danke für den Hinweis, in der Tat ist dies sehr zynisch ausgedrückt und scheint auch eine Form von Resignation zu sein. Womöglich ist derjenige mit der Moderation in Berührung gekommen, wurde hier vielleicht ausgeschlossen oder auch mal eingebremst. Das kann schon passieren wenn man mal die gute Kinderstube vergisst.:) Weiß man alles nicht und geht uns auch nichts an. Trotzdem sollte vor allem die Redaktion und auch Moderation bzw. der Verantwortliche darauf reagieren.

Es ist sehr unschön in großen Foren so dargestellt zu werden. Das kann sich auch auf Hitzahlen und anderweitigem auswirken. Wiederum aber auch Zuwachs bedeuten wenn man neugierig draufklickt was gemeint ist. Alles Marketing, ob negativ oder positiv müssen die Betreiber selbst bewerten.

Aber ich will sicher nicht das meine Beiträge als "Wünsch dir was" hingestellt werden (egal ob sie jetzt nichts oder 1000 Euro Wert wären), dies auch dann nicht, wenn diese informativ in mit zugestimmten und inerhalb des vereinbarten Prozedere in den informativen Bereich von forum-3D-Center übergehen und ich das Forum im Gegenzug kostenlos benutzen darf. Ich bleibe wohl auch dann der Urheber. Sowas sollte man dann schon als sehr abwertend ansehen, es geht ja nicht nur ums lesen, Sauerei ist da noch höflich ausgedrückt.

Kann mir nicht vorstellen das @CB sowas in ihrem Forum dulden!

@gpu-heine
Da habe ich mich auch schon gewundert, "könnte sich 250w genehmigen", ja und 200, oder 300, oder 275. Da scheint jemand wenig Kenntnis zu haben und hat geschätzt? (wohl mal wieder auf @Leonidas Prognose und dem Artikel von ChipHell + Beanch hin! Glaube das Ding ist von Nvidia selbst und damit kann man sich getrost den Hintern wischen!, weil Boostlimit und andere Werte wie Temptarget, Boost Table, Booststates + Voltage oder TDP max. laut Power Table etc. nicht angegeben werden).

Das an den Anschlüssen fest zu machen ist irgendwie :freak:. Die sagen erstmal aus: "die Karte hat eine TDP von 300w".

Die VRM und deren Anschlüssen deuten definitiv auf 300w hin. Das wars dann wohl mit der Effizienz bei Maxwell, auch die 970 oder 980 reagieren nach oben heftigst mit erhöhtem Verbrauch wenn man an den Werten umherspielt, bieten aber wirklich wenig Leistungszuwachs was das verhältnis Aufwand und Zugewinn betrifft, zudem altert die Hardware schneller. Da hat Nvidia dann wohl rausgepresst was sinnvoll geht um nicht über 300w zu schießen und ausreichende Garantiebedingungen mit den Partner auszuhandeln, denen scheint der Arsch auf Grundeis zu gehen.;)

Und ich persönlich würde mir bei einer 1,5K Karte definitv überlegen ob diese 3-5 Jahre oder nur 1 Jahr hält!

Immerhin wird die 980 mit 30-35% in 1440p übertroffen (ja ich denke UDH wird es weniger sein, oder Nvidia findet da noch was treibermäßiges, zumal sie da wohl sowieso etwas Vorteile in Phetto haben), dazu braucht die Karte dann zwischen 250-300w und das sind schon mal Referenz fast bis zu 100w mehr (und da regt man sich über AMD auf :rolleyes:).

Und die Fanboys reden sich schon die 999$ in 1000 Euro schön, mitnichten, ich habe schon 1499! gesehen, was wieder so ein Joke von Nvidia sein wird: "eigentlich kostet die ja 1500, aber wir geben sie euch für 999 und für den Wertverfall eures Geldes können wir nichts".

Die Info von @:::---::: war eine Prognose vor dem Euroverfall, legt gut und gerne 300 drauf dann kommen wir bei 1299+ an.

AMD wird es nicht anders gehen.

@Alter Sack
Ja die Preise explodieren, ein Wahnsinn ist das und sie steigen weiter! Hast du nochmal bei der 660 angesetzt? Die kann doch etwas OC vertragen und wird noch 6 Monate aushalten, oder.;)

kruemelmonster
2015-03-12, 14:16:43
@gpu-heine
Da habe ich mich auch schon gewundert, "könnte sich 250w genehmigen", ja und 200, oder 300, oder 275.
...
Das an den Anschlüssen fest zu machen ist irgendwie :freak:. Die sagen erstmal aus: "die Karte hat eine TDP von 300w".


Die Platine ist für 300w ausgelegt ≠ das fertige Produkt hat 300w TDP.

Da auf die offizielle TDP noch Powertarget-Headroom und Luft zum Übertakten draufkommt sind 250w TDP +/- schon eine realistische Angabe.

Gast
2015-03-12, 14:55:45
@kruemelmonster
Ja und unter Furmark braucht sie je nach Umgebung und Lastzuständen 319w, supi = So amazing! Its Feature!

Was realistisch ist oder nicht sagt die Serienstreuung, daß was ich versuche darauf zum Laufen zu bringen und meine Meßstation die daneben steht. Dann kommen noch die Cutsomdesgins wenn NVidia diese zuläßt.

Dann behaupte ich einfach mal, mein Ford Mustang GT 4.0 könnte weil er so schön grün lackiert ist und dies so gut in die Umwelt passt 6l verbrauchen wenn er im Stand 1h läuft. Wäre ja möglich. Man könnte aber auch ein Brot backen oder Ei braten, könnte, muss aber nicht.

@Mirko und @Gäste
Was habt ihr gegen @Volkers Einwand solchen wirren Unsinn im Computerbase-Forum nicht zu veröffentlichen. Stimmt doch! Die schaffen sich hier selber ab! Nehmt sie ruhig noch in Schutz. Da werden Werte und Informationen geschätzt die nie in Erfüllung gehen, von irgendeinem Hobby- oder Lobbyisten in die Welt getragen.

Kann mich noch an den Bullshit erinnern wie gut eine 970 doch ist, die 980 wäre doch viel zu teuer und das wäre nicht gerechtfertig. Jetzt spamt dieser Troll schon wieder so einem Unsinn über die TitanX, alles mit bösem Erwachen im Nachhinein. Ihr redet Euch hier was schön und @Mirko ist nichts weiter als ein Pseudonym eines nutzlosen 3dcenter Fanboy und Schön-Spamer der diesen Mist auch noch in Schutz nimmt und damit die Hitzahlen steigert. Das dankt Dir hier sowieso keiner, da sei dir mal sicher. Die lachen nur über Dich.

Aus jedem Mist ein riesen Ding machen und sich dann selbst bejubeln wie gut man doch ist. Traurig ist, daß Du dich zu sowas hinreißen läßt.

OC, OCC, AMD das ich nicht lache!

Gast
2015-03-12, 16:07:55
@kruemelmonster
Ja und unter Furmark braucht sie je nach Umgebung und Lastzuständen 319w, supi = So amazing! Its Feature!

Was realistisch ist oder nicht sagt die Serienstreuung, daß was ich versuche darauf zum Laufen zu bringen und meine Meßstation die daneben steht. Dann kommen noch die Cutsomdesgins wenn NVidia diese zuläßt.

Dann behaupte ich einfach mal, mein Ford Mustang GT 4.0 könnte weil er so schön grün lackiert ist und dies so gut in die Umwelt passt 6l verbrauchen wenn er im Stand 1h läuft. Wäre ja möglich. Man könnte aber auch ein Brot backen oder Ei braten, könnte, muss aber nicht.

@Mirko und @Gäste
Was habt ihr gegen @Volkers Einwand solchen wirren Unsinn im Computerbase-Forum nicht zu veröffentlichen. Stimmt doch! Die schaffen sich hier selber ab! Nehmt sie ruhig noch in Schutz. Da werden Werte und Informationen geschätzt die nie in Erfüllung gehen, von irgendeinem Hobby- oder Lobbyisten in die Welt getragen.

Kann mich noch an den Bullshit erinnern wie gut eine 970 doch ist, die 980 wäre doch viel zu teuer und das wäre nicht gerechtfertig. Jetzt spamt dieser Troll schon wieder so einem Unsinn über die TitanX, alles mit bösem Erwachen im Nachhinein. Ihr redet Euch hier was schön und @Mirko ist nichts weiter als ein Pseudonym eines nutzlosen 3dcenter Fanboy und Schön-Spamer der diesen Mist auch noch in Schutz nimmt und damit die Hitzahlen steigert. Das dankt Dir hier sowieso keiner, da sei dir mal sicher. Die lachen nur über Dich.

Aus jedem Mist ein riesen Ding machen und sich dann selbst bejubeln wie gut man doch ist. Traurig ist, daß Du dich zu sowas hinreißen läßt.

OC, OCC, AMD das ich nicht lache!
Please delete this nonsense, because someone is sick.

weiterer Gast
2015-03-12, 16:50:04
Es gab mal so jemanden. Ob der hier war ist schwer zu sagen. Ist wohl nicht mehr aktiv: http://folding.extremeoverclocking.com/user_summary.php?s=&u=573572 Daher ist es sicher Blödsinn zu behaupten gab es nie oder nicht. Da kannst du noch so lachen. Warum sollte er was für 3dc machen der hat hier nicht mal einen Account.

Und was Volker von Computerbase schreibt kann einfach nicht sein der ist selbst Redakteur und dann kennt er die mit einer öffentlichen Meinung (weiß nicht ob Pressefreiheit zutrifft) verbundene Auslegungsfreiheit. Du spamst selbst.

aufkrawall
2015-03-12, 16:55:56
Was ne Freakshow.

Gast
2015-03-12, 18:07:40
Was ne Freakshow.
:comfort:
Bild "123456787paeo.jpg" anzeigen. (http://abload.de/image.php?img=123456787paeo.jpg)

Alter Sack
2015-03-12, 19:56:39
@Alter Sack
Ja die Preise explodieren, ein Wahnsinn ist das und sie steigen weiter! Hast du nochmal bei der 660 angesetzt? Die kann doch etwas OC vertragen und wird noch 6 Monate aushalten, oder.;)

Habe mir heute morgen den ASUS GPU-Tweak draufgemacht (siehe Anhang).

Hast Du grob ne Ahnung, welche Regler ich wohin schieben kann, ohne große Stabilitätsrisiken einzugehen?

Muss ganz ehrlich leider zugeben, dass ich zu "faul" bin, hier selber ausgiebig zu testen, was noch stabil läuft und was bereits instabil ist.
Für mich wäre daher eine Einstellung interessant, welche die Karte auf alle Fälle noch 99% stabil schafft.
Die Karte hat den Kühler mit zwei Lüftern. Etwas Reserven sollten kühltechnisch also vorhanden sein.

Danke vorab!

nutzloser Gast
2015-03-12, 20:14:12
Was ne Freakshow.
Leonidas so einen reinzuwürgen, denn nur der kann gemeint gewesen sein, wobei sich dann andere darüber echauffieren ist für dich also eine Freakshow. Gut zu wissen, was du von dem Forum hier hälst.

Von Dir kommt in letzter Zeit nur noch auf-krawall! :rolleyes:

@gast
Hübsch! Nehm ich.

@Mirko
OC bei der 660 von Asus kann nach hinten losgehen, statt mehr hat die dann weniger Feuer. Die ist absolut auf Sparsamkeit und leisen Betrieb getrimmt wie Du schon festgestellt hast. Die Zotac geht deutlich besser. Die Asus gab es auch mit 3GB da war der @Alte Sack einfach nur zu geizig oder hat keine bekommen.

Da muss man dann schon mit einem anderen Bios bei, was du sicher gemeint hast. Aber dann wird sie lauter.

@Alter Sack
Warum legst du nicht einen kurzen 3GB Zwischenstopp bei AMD ein. Die Angebote fallen doch im Sturzflug und legst dann in einem oder ein-einhalb Jahren ein dickes Update hin. Da werden auch die Skylakes oder was auch immer ausgereifter und preiswerter sein, dann kann dein Sandy-Bridge gleich mit entsorgt werden.

Ich habs erst mal so gemacht und derzeit erst mal Ruhe, hab eine Powercolor 280 im Abverkauf genommen (als leise zu bezeichnen) und die einfach per Overdrive aufgezirkelt. Die reicht eigentlich, ist dann eine Tick schneller als die 960 und hat 3GB Vram. Ausser Bluray und so da braucht die eben mehr. Die kann man auch auf leise modden. Haben aber auch schon ein paar geschrieben.

Razor
2015-03-12, 20:15:11
GTX 280, GTX 480, GTX 680, GTX 980 und jeweils eine Generation übersprungen.Bei mir war´s so, dass ich von Mid-Range (4850) auf HighEnd (GTX285-2GB für 360€ bei Release!!!!) und wieder zurück auf untere MidRange (GTX660) gewechselt bin.
Jetzt, 2,5 Jahre später wäre ein Wechsel wieder angesagt...
Tjo... bei mir:

- 2007/10 = GeForce 8800GT
- 2008/12 = Test: AMD 4850 & 9800GTX+ -> nope!
- 2009/04 = GeForce GTX260²
- 2010/09 = GeForce GTX460
- 2012/12 = GeForce GTX660

Vorher: viele, viele, viele... die teuerste war eine GeForce 3 für krasse 879 DM (also knappe 450€!)
(davor gabs 'ne GeForce 2 "ultra" für unglaubliche 1499 Tacken - 767€ und "heute" sind wir mit Titan & Co. wieder so weit ;-)

Das war der Zeitpunkt, wo ich mir sagte: nie wieder "HighEnd"!

Solange meine GTX660 für mich noch brauchbare Zockerei ermöglicht, kommen für mich derzeit keine aktuell am Markt angebotenen Grafikkarten in Frage. Abwarten, und schauen, was sich die kommenden Monate so tut.
Jo... und "4k" ist mir sowas von vollkommen wurscht ;D

Razor

nutzloser Gast
2015-03-12, 20:20:13
Habe mir heute morgen den ASUS GPU-Tweak draufgemacht (siehe Anhang).

Hast Du grob ne Ahnung, welche Regler ich wohin schieben kann, ohne große Stabilitätsrisiken einzugehen?

Muss ganz ehrlich leider zugeben, dass ich zu "faul" bin, hier selber ausgiebig zu testen, was noch stabil läuft und was bereits instabil ist.
Für mich wäre daher eine Einstellung interessant, welche die Karte auf alle Fälle noch 99% stabil schafft.
Die Karte hat den Kühler mit zwei Lüftern. Etwas Reserven sollten kühltechnisch also vorhanden sein.

Danke vorab!
@Alter Sack mal meinen Post beachten die kann dadurch langsamer werden. Welche ist es denn? Kannst du mal verlinken. Denn guck ich mir das Bios mal an. Oder du lädst es hier hoch.;)

gast
2015-03-12, 20:43:00
@Mirko verfasst hier keine Beiträge, irgendwann ist mal gut.

Denke dann sollte man sich im Einvernehmen trennen. Wenn man nicht erwünscht ist, oder nicht ins Konzept passt oder die angebotene Hilfestellung unnützt ist, man sogesehen nichts dazu beitragen kann macht es auch keinen Sinn.

Der Webmaster braucht daher auf die heute gestellte Anfrage nicht mehr zu antworten. Die E-Mail-Adresse wurde bereits gelöscht. Die Telecom sperrt diese für einen gewissen Zeitraum.

Den Offtopic Spam bitte ich zu entschuldigen. Ich wollte den Webmaster damit nicht belästigen. Ich bitte alle in dem Zusammenhang gesammelten Daten dann nach den geltenden Datenschutzregularien und entsprechenden Fristen zu löschen.

MfG beyfor

/e: der Beitrag kann gelöscht werden da er zum Thema nichts beiträgt.

Ich kann nur sagen ihr habt hier irgendein Problem mit gegenseitiger Akzeptanz. Diskussion schön und gut, oder anderer Meinung sein, aber alles andere geht zu weit.

Danke für Euer Verständnis.

Wir wissen das es nicht immer einfach ist, alles unter einen Hut zu bekommen.

nutzloser Gast
2015-03-12, 21:15:48
@beyfor
Ok, das ist Schade, aber seine freie Entscheidung. Frischer Wind tut jedem Forum aber auch jedem selbst gut, einfach mal tief Luft holen. Man kann sich immer einigen oder entsprechend sortieren. Sollte man bedenken. Und wenn man mal sacken lässt und später wieder vorbeischaut. Wäre nett wenn er dann wieder unter @Mirko postet, paar Beiträge waren doch schon gelungen oder interessant.:)

Der freie Hilfe Bereich steht jedem offen und da ist auch @Mirko immer willkommen wenn er helfen kann und Ideen hat etwas aus der Welt zu schaffen, auch als @Gastposter. Um den Rest kümmern sich dann schon die Mods wenn sie es als notwendig erachten.
Es gibt immer ein paar die mies drauf sind. Tagesformabhängig.

@Alter Sack
Habe gesehen es ist die 660 DC2? Kannst du mir die Bezeichnung der Biosversion posten?

Gast
2015-03-12, 22:17:43
Muss ganz ehrlich leider zugeben, dass ich zu "faul" bin, hier selber ausgiebig zu testen, was noch stabil läuft und was bereits instabil ist. Danke vorab!


@Alter Sack

Wie ich dir geschrieben hatte, zu faul also? ;) Ein anderes Bios brauchst du nicht!

GTX 660 DC2:
Stream Processors 960
Texture Units 80
ROPs 24
Core Clock 980MHz
Shader Clock N/A
Boost Clock 1033MHz
Memory Clock 6.008GHz GDDR5
Memory Bus Width 192-bit
VRAM 2GB
FP64 1/24 FP32
TDP 140W
GPU GK106
Manufacturing Process TSMC 28nm 28nm TSMC 28nm
Device ID: 10DE-11C0
Bios version: 80.06.10.00.0E

Tweaktool:
GPU Boost Clock 1150
GPU Voltage 1100
Memory Clock 6650
Fan Speed: lässt sich nicht anpassen
Power Target 110

Probier ob es dir nicht zu laut ist. 3DMark nimmt die Karte dann aber 25w mehr auch die Load Temp steigt um ca. 3°C an. Sie wird dann unter Last etwas lauter, was dich aber nicht stören sollte. Du kannst im Durchschnitt je nach Spiel 2-7fps hinzugewinnen. In BF3 1080p 4xAA/HBAO kann sie sogar 8fps zulegen.;)

Wenn du OC-Test suchst sieh dich auf www.overclockers.com um, die konnten mit dem Asus Tweaktool auch auf 1167mhz gehen was ich aber nicht für sinnvoll halte, da die Karte sich dann schneller aufheizt. Versuchs einfach etwas ab 1100mhz, sollten auch schon ausreichend sein. Beachten solltest du das Rambausteine immer gut gekühlt bleiben. Die VRM macht das locker mit.

Denn, von eine alten Sack zum anderen. Das wird.


MfG beyfor

Gast
2015-03-13, 00:08:46
@Mirko & anderen Gast/Gäste:
Reg dich/euch doch nicht darüber auf, was irgendjemand auf CB postet oder nicht postet. Meinungsvielfalt bedeutet, daß man auch andere Meinungen zulassen muß. Wenn dort jemand der Meinung ist, daß hier eher keine sinnvollen Beiträge zu finden sind, dann laß ihn doch.
Die größten Probleme findet man dort, wo Leute meinen ihren 'hart erarbeiteten' Ruf/Postcounter verteidigen zu müssen. Das ist in jeder Firma so, wo die Leute langsam alt werden und für sich den Respekt verlangen, den sie sich nicht selbst verschaffen können. ;)
Werdet nicht so wie diese Leute. Ob die Titan X eine tolle Karte wird oder nicht, interessiert in ein paar Wochen wirklich nur noch 0% der Weltbevölkerung. Diesen Schätzwert habe ich übrigens großzügig mehrfach nach oben aufgerundet. ;)
Das einzig Interessante an dieser Karte, ist die Diskussion über ebendiese Karte.

Was irgendein Volker aus Berlin gesagt hat oder nicht gesagt hat, spielt zudem doch für dieses Forum keine Rolle. Das hier ist das 3DCF-Universum und keine weitere Anlaufstelle für bereits bekannte Foren-Egomanen. Auch ich habe schon Hinweise bekommen, daß Beiträge von mir aus dem Zusammenhang und dem 3DCF herauskopiert wurden und dann im CB-Forum in der dortigen trauten 'Expertenrunde' zur allgemeinen Belustigung vorgeführt wurden. Sowas berührt/provoziert mich nicht im Geringsten. Im Gegenteil - es zeigt mir, daß man dort reges Interesse am 3DCF hat. Und letztlich ist es dann auch der Neid, weil man im CB eben doch vieles wegmoderieren muß, um die Stammkundschaft und Inserenten bei Laune zu halten.

Außerdem: Niemand läßt sich gerne kritisieren. Ganz besonders dann nicht, wenn die Kritik berechtigt ist.
Auch Leonidas liegt mit seinen Einschätzungen meiner Meinung nach manchmal weit daneben. Es gab da schonmal eine Diskussion in Bezug auf seinen 3DCF-Leistungsindex für Grafikkarten, wo ich ganz anderer Ansicht war. Das CB ist also gut beraten, wenn man dort nicht alles als News übernimmt, was hier oder in anderen Foren publiziert wird. Besonders, wenn es sich um reine Spekulationen handelt.
Was dieser Volker aus Berlin dort schreibt, richtet sich ja nicht gegen das 3DCF oder deren Leser. Da würde man zuviel reininterpretieren. Es geht ihm nur darum, daß man sich bei den Spekulationen nicht ohne Not auf einen Meinungsstreit einlassen möchte. Am Ende kommt es dann vielleicht sowieso ganz anders. Nur eines ist immer gleich: Jeder wird aus den -zig möglichen Benchmarks genau denjenigen herausfischen, der seine damalige Ansicht noch am ehesten bestätigt. :D

@empörter CB-Gast/Sarrazin-Versteher/Volkers heimliche Freundin? :
Hier schafft sich niemand ab.

Den Offtopic Spam bitte ich zu entschuldigen.
Wenn dir schon klar ist, daß dieser Post hier im Thread vom alten Sack völlig OT ist, warum setzt du ihn dann hier rein? Wen interessiert es hier, ob die Telekom irgendeine E-Mail Adresse sperrt? :rolleyes:

@Alter Sack:
Ich würde das mit dem OC bleiben lassen. Das bringt nicht wirklich was. Höchstens vielleicht, daß deine Karte schneller altert. Dann werden die Leckströme größer und die Verlustleistung steigt, so das der Chip für das Powertarget dann vielleicht irgendwann dafür sorgt, daß deine Karte unter Last nichtmal mehr den Referenztakt halten kann.

Du hast ja selbst erkannt, daß im Moment eher kein guter Zeitpunkt ist, eine neue Karte (egal welcher Hersteller) zu ordern. Da würde ich doch nichts unternehmen, was dich eventuell dazu zwingen könnte doch noch eine neue Karte kaufen zu müssen. ;)

Schrotti
2015-03-13, 00:19:32
Du kannst im Durchschnitt je nach Spiel 2-7fps hinzugewinnen. In BF3 1080p 4xAA/HBAO kann sie sogar 8fps zulegen.



Wegen der paar fps würde ich die Karte nicht quälen. Da macht es mehr Sinn die CPU hoch zu takten.

Gast
2015-03-13, 01:09:27
Wen interessiert es hier, ob die Telekom irgendeine E-Mail Adresse sperrt? :rolleyes:
Glaube das bezieht sich auf eine Frage an den Webmaster? Wohin sollte der die Antwort schicken wenn die E-Mail Adresse geloescht ist. Mal ueberlegen. Hat ja auch geschrieben man kann seinen Beitrag wieder loeschen und sollte man auch. Die geloeschten E-Mail Accounts werden bei der T-COM 90 Tage fuer eine Neuvergabe gesperrt.

@beyfor
Datenschutz vergiss es, das interessiert hier niemanden! Deren Server steht auf dem Mond dort gilt kein Datenschutz und auch keine Loeschfristen. Du stehst auf eigens angelegten Punkte und IP Spaming Verbannung Listen damit sie ihr 1000 Seiten langes Hausrecht durchsetzen koennen und wenn denen deine Beitraege nicht passen kannst du dir die Post an den Webmaster sparen. Wenn der ueberhaupt antwortet, Da war noch einer im guten Glauben das man mit denen reden kann vergiss es @beyfor es ist wie der @gast schreibt 3dcf Universium da gelten eigne Regeln auch wenn man FREIHEIT predigt bei jedem Anlass.

@...Sch....
Was denn jetzt, erst eine 960 empfehlen und jetzt nicht mal mehr GPU-OC obwohl das die Staerke vom GM206 ist? Das kann schon ausschlaggebend sein ob alter Sack die 30fps fuers VSync halten kann, 2fps koennen da schon was ausmachen.

Was @mirko vorschlaegt ist machbar, die Temps steigen von 65 auf 68, hoehere Leckstroeme, laecherlich, die Karte kann 1,2ghz verknusen, scheint als haetten sie das schon beruecksichtig. Ist dann ja wohl auch so das man sich mit dem taeglichen Wahnsinn auf 3dcf und solchen Heinis wie dem Sacharrinspinner um die eine oder andere Info beraubt, anstatt dann mal lieber den nutzlosen Spam zu entfernen. Scheint doch so als waere denen einer abgegangen das hier die @Gaeste kurzum beleidigt werden. Forenregeln scheißegal.

Aber nee, frueher wurde alles totmoderiert, heute wird dafuer nichts mehr moderiert. Naja mein Beitrag wird wohl gleich geloescht sein! Ja die schaffen sich ab, wer will sich denn hier noch ernsthaft anmelden, nicht mal mehr ehemalige Overclocker mit dem Hang endlos Texte zu verfassenweil man kein anderes Hobby mehr hat? Wenn das so ist, haben die hier echt ein Problem!

Schrotti
2015-03-13, 01:13:41
Eine GTX 960 reagiert da doch besser auf das Overclocking des Speichers als eine GTX 660.

Und 2-8fps sind messbar aber nicht fühlbar.

Alter Sack
2015-03-13, 08:31:40
@Mirko
OC bei der 660 von Asus kann nach hinten losgehen, statt mehr hat die dann weniger Feuer. Die ist absolut auf Sparsamkeit und leisen Betrieb getrimmt wie Du schon festgestellt hast. Die Zotac geht deutlich besser. Die Asus gab es auch mit 3GB da war der @Alte Sack einfach nur zu geizig oder hat keine bekommen.

Da muss man dann schon mit einem anderen Bios bei, was du sicher gemeint hast. Aber dann wird sie lauter.

@Alter Sack
Warum legst du nicht einen kurzen 3GB Zwischenstopp bei AMD ein. Die Angebote fallen doch im Sturzflug und legst dann in einem oder ein-einhalb Jahren ein dickes Update hin. Da werden auch die Skylakes oder was auch immer ausgereifter und preiswerter sein, dann kann dein Sandy-Bridge gleich mit entsorgt werden.

Ich habs erst mal so gemacht und derzeit erst mal Ruhe, hab eine Powercolor 280 im Abverkauf genommen (als leise zu bezeichnen) und die einfach per Overdrive aufgezirkelt. Die reicht eigentlich, ist dann eine Tick schneller als die 960 und hat 3GB Vram. Ausser Bluray und so da braucht die eben mehr. Die kann man auch auf leise modden. Haben aber auch schon ein paar geschrieben.

Habe jetzt erstmal die OC-Settings von @Mirko übernommen (siehe Screenshot). Ich werde das mal in Ruhe benchmarken (auf Stabilität und Leistungsgewinn), weil´s mich interessiert, wieviel das tatsächlich bringt. Früher war ich selbst der größter OC-Fan, aber den letzten 8-9 Jahre war es einfach nicht mehr notwendig, weil ne neue Graka oder CPU gleich oft um ein vielfaches mehr Dampf hatte und bezahlbar war.
Ein Upgrade auf die R280 bringt (in Crysis 3) noch nicht genug Mehrleistung. Da müsste es schon mindestens die R290(nonX) sein, die ja auch noch ein gutes Preis-Leistungsverhältnis bietet.
Ausschlaggebend sind definitiv die kommenden Spiele (Wolfenstein oder wenn es endlich mal unter 20 rutscht auch Far Cry 4).

Gast
2015-03-13, 09:27:37
Die 660 läuft mit den von @ Mirko geposteten Werten stabil und wird nicht lauter. Die DCU2 ist eines der besten Designs die Asus jemals entworfen hat.

@Alter Sack dafür findest du keinen Ersatz, da kommt nicht mal die MSI ran. Es ist die leiseste Karte am Markt. Schieb die Regler so weit wie es geht :-). Das macht der Karte nichts, das 6 Phasen Design gibt es her.

Was @Mirko betrifft, der hatte damals keinen guten Start im Forum, musste das Wort ergreifen weil man eine Bekannte von ihm abgestempelt hat. Ich fand dies emotional aber vollkommen richtig. Und das muss man auch sagen dürfen! So schreibt er zuweilen auch und etwas Stolz kommt noch hinzu, den man sich im fortgeschrittenen Alter verdient hat. Er scheint ja auch nicht blöd zu sein.

Letztes Jahr hatte er kurz einen Beitrag veröffentlicht den er wenig später wegen der Empörung des üblichen Mobs in diesem Forum wieder editiert hat. Ich hatte lange überlegt was er damit gemeint hat. Ihm war es gelungen eine 780 ohne Löterei-Mod auf über 1,4Ghz Boosttakt zu prügeln, obwohl das nicht so ohne weiteres geht. So kann sie, bis auf den Speicher mit einer Titan-OC mithalten und die legt sich noch mit der TitanX an. Wenn solche Leute hier nicht her gehören wer dann? Diese Spinnerfans von Computerbase?

Die Moderation im 3DF braucht ihren Sontin-Gollum und wenn sie keinen haben, finden sie jemanden oder züchten ihn selbst heran um ihren anschließenden Machtbeweis auszuleben. So was ist krank. Man sollte noch mal in sich gehen und sich fragen was soll aus 3DC werden. Eine Spielwiese für gelangweilte IT Redakteure, Ings und Möchtegern Informanten?

Irgendwo braucht man auch Publikum um das Ganze gegen zu finanzieren, daß bricht weg wenn man so weiter macht.

Unterforengast
2015-03-13, 12:53:43
@Mirko! jetzt aufgeben ist genau der falsche Weg. Genau das ist gewollt! Das wäre nicht nur dumm sondern auch feige :devil:, hier hat keiner was gegen Dich. Deine Beiträge sind alle noch da, sonst hätte @andill oder @tesseract schon was dazu zu bemerken gehabt oder jede andere Mod. Wenn du mehr willst dann sprech einfach mit dem Verantwortlichen, eine Anfrage wieder zurückziehen macht es nicht besser. Das lässt dich unglaubhaft erscheinen. @Lyka und @Lightning sind auch auf @Gäste positiv eingestellt. Such Dir einfach das Unterforum das zu Dir passt. Ich denke Du bist im Hilfebereich gut aufgehoben und alle die noch dazu gehören! Nationalität und Herkunft völlig egal, TOR anonymox inklusive Script-on!:)

Ich würde meine Anonymität dafür trotzdem nicht aufgeben. Dein Name definiert sich an deinen Beiträgen die auch F-3DC-Hilfe bereichern. Was willst Du da oben, Dich mit den Nerds zanken wer den Längsten hat und am meisten weiß? :rolleyes: Die haben doch sowieso immer recht, bleib hier bei den :freak:'s im freien Forenbereich unter @andill der macht das schon!

Es ist nicht selten so das das in anderen Foren sehr wohl wahrgenommen wird. Und dann stänkern die. Gib da einen drauf :ubigboy: 3DC und F-3DC ist über diese Foren hin bekannt.:P Und sogar @StefanV redet mit Dir und antwortet! :lol: Weiter machen wie bisher und nicht selbst resignieren? Man kann nur besser werden.;D

@gast = Sarrazinversteher-Zachariasspinner :ufinger:, lass uns in Ruhe.

OC i7 2600k auf z68ud4 https://www.youtube.com/watch?v=EtDXz2Jv3BE geht doch! @Alter Sack 4,5 sind locker unter Luft drin, auch unter uefi.

Mr.Magic
2015-03-13, 13:52:42
2-8fps sind messbar aber nicht fühlbar.

Mit Sync ist bei einigen Engines alles unter 60FPS deutlich ruckelnd. Da können 8FPS schon einen enormen Unterschied machen.

Gast
2015-03-13, 14:46:01
Mit Sync ist bei einigen Engines alles unter 60FPS deutlich ruckelnd. Da können 8FPS schon einen enormen Unterschied machen.
Und so wie es oben steht kann er auch mal mäßiges-minimales AA dazuschalten unter 1080p. Wenn er Vsync halten kann dann wird das Bild ruhiger, kann aber etwas flimmern. Muss man dann sehen. Auf einem 27" wird das schon was bringen, wenn er dicht davor sitzt. 2-7fps hören sich wenig an, sind es in dem Fall aber wirklich nicht wenn er jetzt bei 25-28fps steht. Da die Framerate grundsätzlich auf über 30fps springen kann und dort verweilt, die Hardware mit höherem Powertarget nicht ständigt ins Limit rennt (unter 30fps dropt) und dieses dann auch noch mit Tearlines bestätigt wenn die fps-Rate wieder hochschießt. Bei neueren Spielen wird es hier und da dann auch ohne mittlere Matschtexturen gehen wie in BF3 unter VeryHigh. Ja. Die CPU sollte auch einen kleinen Kick vertragen können.

Unter 1080p reicht zudem der durch Interleaving geprägte Speicherausbau der 660 an einem 192bitSI ala 2GB, wovon 1,5Gb an zwei MC a64bit, der restliche 512mb Chip an einem MC a64bit angebunden ist. Durch das leichte OC des VRAM dürfte zudem die Bandbreite etwas ansteigen, was wieder etwas Luft verschafft. Der Speicher füllt sich dabei sicher nur bis 1,2-1,4GB unter 1080p an. Ultratexturen Stufe 1 und 2 kann man vergessen. Selbst wenn der letzte Block angesprochen wird bricht die Karte nicht so stark ein. Man darf es nur nicht überteiben! Da sonst die Leistungsaufnahme über die der 660ti hinwegschießt und ich glaube das will @Alter Sack nicht.

Der Zuwachs dürfte sich schon ab 1113Mhz CPU und 3404Mhz VRAM Takt gut bemerkbar machen.

Das sehr agressiv (minimal) gewählte Powertarget bei der 660 seitens Nvidia ist unnötig und sollte die 660 wohl mehr von der 660ti abgrenzen. Die DCTII erreicht dabei die besten Werte, von fast allen 660igern ist @deafult eben nur auf Sparsamkeit getrimmt.

Alter Sack
2015-03-13, 17:10:11
OC i7 2600k auf z68ud4 https://www.youtube.com/watch?v=EtDXz2Jv3BE geht doch! @Alter Sack 4,5 sind locker unter Luft drin, auch unter uefi.

Wobei der i7-2600k mit 3,4 Ghz default kein Problem darstellt.
Hatte beim Kauf des i7-2600k bereits experimentiert. Viel mehr als 3,7 Ghz nimmt die Sau leider nicht, ohne es gleich mit massiver Spannungserhöhung zu übertreiben :( .

Alter Sack
2015-03-13, 17:17:27
Habe die 660 mal wie von @Mirko vorgeschlagen übertakten.

Von 39 auf 43 FPS ist jetzt nicht die Welt. Beim benchen hat sich sogar der NVidia-Treiber mit Fehlern gemeldet. So richtig lohnt sich das nicht. Habe wohl was OC angeht einfach Pech gehabt.

mit OC:
http://www.mg-oc.de/mgeee/oc.jpg

ohne OC:
http://www.mg-oc.de/mgeee/nonOC.jpg

290xler
2015-03-13, 19:41:00
In Ultra Quali und Extrem Tesselation auf einer 660?

Nimm das mal raus! Kein Wunder das die rumspinnt da reicht selbst das PT von 110% nicht und du knallst dir den Speicher voll.

API: DX11
Quality: High oder Medium
Tesselation: Normal oder Moderat
AA: 4x (8x wurde ich nicht wählen)
Resolution 1920x1080

Das ihr immer erstmal volles Rohr gebt anstatt euch ranzutasten, unverständlich. Vor 8-9 Jahren oc, da ist aber nüscht hängen geblieben.Warum 1200x800? Im Fenstermodus? Das kostet dich zusätzlich Leistung.

Warst du auf overclockers.com wie er es dir geschrieben hat? Ist zwar alles auf Englisch aber verständlich: http://www.overclockers.com/asus-gtx-660-directcu-ii-graphics-card-review/

Wenn du mehr als 1188 einstellst dann dropt die Karte immer auf diesen Wert runter. Also bleibt bei den Vorgeschlagenen 1150, das hat er schon richtig empfohlen. Ist nur der Boost, wenn die Karte den nicht halten kann steuert sie nach oder taktet runter. Hoffe das ict die Gleiche?

Macht es such doch nicht so schwer!

290xler
2015-03-13, 20:12:31
Letztes Jahr hatte er kurz einen Beitrag veröffentlicht den er wenig später wegen der Empörung des üblichen Mobs in diesem Forum wieder editiert hat. Ich hatte lange überlegt was er damit gemeint hat. Ihm war es gelungen eine 780 ohne Löterei-Mod auf über 1,4Ghz Boosttakt zu prügeln, obwohl das nicht so ohne weiteres geht. So kann sie, bis auf den Speicher mit einer Titan-OC mithalten und die legt sich noch mit der TitanX an. Wenn solche Leute hier nicht her gehören wer dann? .
Schaffen auch andere wie man sieht: http://extreme.pcgameshardware.de/attachments/794694d1419955062-ranking-unigine-heaven-4-0-a-heaven_benchmark_30.12.2014.png ;), wenn es so war reife Leistung und Hut ab, denn dann liegt er auf Niveau einer GTX980 mit 1,4Ghz Boostclock bei Heaven Benchmark 4.0. Wozu dann den teuren Schmarren kaufen. Bloss da muss du man dann mit bestimmt mit Kühleralternativen bei. Wird schon ein Vollcoverblock-Kupfer+H²O sein. Wenn er will kann er ja gerne ins PCGH-Forum rüberkommen und dort mit machen: http://extreme.pcgameshardware.de/benchmarks/260820-ranking-unigine-heaven-4-0-a.html, wäre sicher interessant.

Gast
2015-03-13, 21:10:14
.Von 39 auf 43 FPS ist jetzt nicht die Welt.
Im Heaven Benchmark schon, vor allem mit den Settings die Du eingestellt hast. Mach mal was anderes an. Versuch mal deinen Monitor auf eine alternative Auflösung (1680x1050) unter Spielen einzustellen, nicht 1920x1200. Oder wie kommst du auf 1200x800? dürfte dann ja ein 27" 16x10 sein.

Alter Sack
2015-03-13, 21:30:49
Im Heaven Benchmark schon, vor allem mit den Settings die Du eingestellt hast. Mach mal was anderes an. Versuch mal deinen Monitor auf eine alternative Auflösung (1680x1050) unter Spielen einzustellen, nicht 1920x1200. Oder wie kommst du auf 1200x800? dürfte dann ja ein 27" 16x10 sein.

Wollte Fenstermodus, um den ASUS-Monitor im Blick zu haben.

Gast
2015-03-13, 22:04:12
Glaube das bezieht sich auf eine Frage an den Webmaster? Wohin sollte der die Antwort schicken wenn die E-Mail Adresse geloescht ist.
Für solche Geschichten gibt es hier extra ein Unterforum. Dort befindet sich auch der Meldebutton-Gleichberechtigungsthread für Gäste.

vergiss es @beyfor es ist wie der @gast schreibt 3dcf Universium da gelten eigne Regeln auch wenn man FREIHEIT predigt bei jedem Anlass.
Tja - der eine lernt es früh im Sport-Verein sich zu benehmen, der andere eben etwas später in einem Forum. Freiheit ist eine Illusion, die dort endet, wo man seinem Gegenüber auf die Zehen tritt. Wenn man irgendwo zu Gast ist oder auch Mitglied in einem Verein ist, dann kann man gerne gegen den Vorstand oder andere Mitglieder sticheln. Wenn es wegen solcher Sticheleien zum Streit kommt, dürfte klar sein, wer den Kürzeren zieht. -> Verursacherprinzip.

Aber nee, frueher wurde alles totmoderiert, heute wird dafuer nichts mehr moderiert. Naja mein Beitrag wird wohl gleich geloescht sein! Ja die schaffen sich ab, wer will sich denn hier noch ernsthaft anmelden, nicht mal mehr ehemalige Overclocker mit dem Hang endlos Texte zu verfassenweil man kein anderes Hobby mehr hat? Wenn das so ist, haben die hier echt ein Problem!
Nö. Ein Problem haben nur die Leute, die sich meinen hier profilieren zu müssen. Wer sein eigenes Ego über das Anliegen dieses Forums stellt, der ist hier ganz einfach falsch. Imo sind es auch oft ganz bestimmte Persönlichkeitstypen, die in den Foren aneinander geraten. Es ist daher vielleicht nicht das schlechteste, wenn sich die Mods wieder etwas mehr zurückhalten, da sonst der Lerneffekt bei allen Beteiligten gleich Null ist und man dann immer wieder und dann auch stärker eingreifen muss. Das ist eine Spirale, die sich immer weiter hochschraubt und es erfordert viel Fingerspitzengefühl von einem Moderator, wenn man die Schraube zurückdrehen will.

Was @Mirko betrifft, der hatte damals keinen guten Start im Forum, musste das Wort ergreifen weil man eine Bekannte von ihm abgestempelt hat.
Du meinst DanyW, die hier im Forum mit der groben Kelle ausgeteilt hat, als gäbe es kein morgen? :D Erst die Gäste als Schizos hinstellen und sich dann auch noch mit StefanV anlegen? Und die dann, als kräftiger Gegenwind kam die 'harmloses kleines Mädchen allein unter Trollen'-Karte gespielt hat? In der Hoffnung, daß ein Moderator doof genug ist, sich auf solche Spielchen einzulassen? Und als dies wider erwarten nicht passierte, dann mit wehenden Fahnen und tief gekränkt das Forum gleich wieder verlassen hat?

Ja - ich erinnere mich.
Mirko war ziemlich sauer - und ich habe es ihm nicht übel genommen. Wenn man mit jemandem bekannt ist, fällt es halt doppelt schwer die richtigen Worte zu finden. :D

Die Moderation im 3DF braucht ihren Sontin-Gollum und wenn sie keinen haben, finden sie jemanden oder züchten ihn selbst heran um ihren anschließenden Machtbeweis auszuleben.
Zu glauben, daß es hier um Machtspielchen ginge, ist ein Fehler. Das hier ist gerade nicht das CB, wo es um Ehre und militärische Auszeichnungen geht. Hier geht es in erster Linie um die Technik und auch Erfahrungen die man mit anderen Leuten teilt. Daß es da zu Meinungsverschiedenheiten kommt, ist nur normal. Wer sich da persönlich angreifbar macht, der sollte eben ein dickes Fell mitbringen.
Gollum hatte ich mich damals übrigens im Scherz selbst genannt, weil ich dachte, daß DanyW einen Spaß machen wollte. Als dann jedoch klar wurde, daß die gute Dame keineswegs an der Technik interessiert war, sondern mich als Blitzableiter gegen StefanV ausspielen wollte, habe ich mich still lächelnd (in dem Bewußtsein, daß wo StefanV's Keule niedersaust so schnell kein Gras mehr wächst) aus dem Thread zurückgezogen.
Man muß halt wissen, ob man sich eher für technische Themen interessiert, oder ob man sich selbst etwas beweisen möchte. Wenn man ein Technik-Forum mit einer Art Rollenspiel verwechselt, wo es darum geht Reputation über einen Postcounter einzusammeln, dann geht der Schuß in diesem Forum afaik ziemlich nach hinten los.
Hier werden Probleme vorgetragen und dann wird nach einer Lösung gesucht. Für das Finden einer Lösung gibt es hier übrigens in den allerseltensten Fällen mal ein Dankeschön. Der Lohn für die Mühen ist nicht Ruhm und Anerkennung, sondern das Bewußtsein, daß man mit der Diskussion mit anderen seinen eigenen Kenntnisstand vielleicht erweitert hat.
Wer eigentlich eher nicht an Technik interessiert ist, der ist hier imho einfach falsch. Ebenfalls falsch ist hier, wer an offenen Diskussionen gar kein Interesse hat, weil er selbst schon alles zu wissen glaubt.
Mit am meisten lernt man aus Fehlern, die andere gemacht haben. Und es gibt nunmal imo keinen besseren Ort, als ein offenes Forum wie dieses, wo man auch als Gast posten kann und damit nicht öffentlich zugeben muß, daß man vielleicht sogar als Techniker riesengroßen Mist gebaut hat und nun mal Hilfe von anderen braucht.

BTT @alter Sack:
Der Unigine Heaven Benchmark ist imo nicht sauber programmiert. Wenn es dir wirklich um einen Leistungsvergleich geht, würde ich diesen Benchmark NICHT empfehlen. Ausnahmslos alle Karten von nVidia (die ich damit getestet habe) haben in diesem Tool Probleme mit stotternder Garfik und Rucklern. Diese fließen zwar nicht in die FPS-Messung mit ein, werfen aber kein gutes Licht auf die Engine.
Irgendetwas stimmt mit diesem Tool nicht.

Verwende sattdessen lieber den 3Dmark und nimm dort die CPU-Wertung raus. Oder noch besser: Schnapp dir ein halbwegs aktuelles Spiel, welches einen eigenen Performancetest eingebaut hat.

Unterforenuser
2015-03-13, 23:23:15
@Alter Sack Fenstermodus ist Mist, verfälscht dir die Werte.

@Gast
Glaubst Du den Mist, den du schreibst eigentlich selbst? Oder bist Du der Forengollum hier, der mit den zwei Geschichtern, dem späte Rache eigentlich Recht kommt? Hauptsache sie kommt. Vielleicht bist du ja der Schizophrene Typ der ihn da grundlos zur Sau macht gemacht hat? Wie wäre es damit!

Welcher Moderator sollte worauf reinfallen? Die wußte nicht mal wie sie ins Moderatenforum kommen konnte und wenn Mirko nichts gesagt hätte, wäre niemand darauf gekommen das sie weiblich war. Das hat sie dann zu verbergen gesucht, würde ich sagen, um sie nicht schwächlich und für dumm zu halten. Einen Blog als Threadstarter zum positiven zu beeinflussen ist auch nicht immer leicht wenn solche Beitragsschreiber wie Du dort erscheinen.

Wenn Du schon weißt das die anderen Beiträge in den Sozialbereich des Forums passen oder unter "wenn interessiert was Gäste bei uns für ein Problem haben""Antworten das Thema betreffend nicht erwünscht" du nennst es "Gleichberechtigungsthread", dann poste den Mist auch da. Dein wirres Geschreibsel ist aber eher was für den Papierkorb und dann lange drücken damit das Geschwafel auch gelöscht wird.

Über Stefan müssen wir uns hier gar nicht unterhalten, sein technisches Verständnis und Knowhow in alles Ehren, aber sonst geht es hier nur um Bequiet! Propaganda und einsilbige Sätze die kaum jemand nachvollziehen kann. Wenn da jemand ins offene Messer läuft ist das einfach nur traurig, dann noch bei jemandem mit mehr als 50000hits auf diesem Board. Da hatte Mirko einfach recht.

Da ist mir der lieber, der eher Hilfe geleistet hat ansatt sich über alles und jeden einen feixen. Was verstehst Du schon von einem Forum? Ja ich vermute Du steckst hinter diesem Mist, weil dir dabei einer abgeht.

Hier haben Hilferufe tagelang rumgelegen ohne das jemand darauf aufmerksam wurde, wir Freaks hier unten sind doch eh nur der billige Mist, dass dumme Publikum das man braucht um das Board am Leben zu erhalten. Mit 200 Forenuserhits pro Tag interessiert sich für dich keine Sau.

Wenn der die Hilferufe vorgemölt hat, sind auch andere gekommen und wollten helfen, nur soviel dazu. Mir kam es so vor als wenn er dies manchmal mit Absicht getan hat, ja und eine Lösung haben sie dann gemeinsam irgendwie gefunden, wenn auch nicht immer in Übereinstimmung.

Es kann und darf keine Verurteilung sein AMD Hardware zu mögen oder sich dafür einzusetzen und 3D-Center-Forums Mitglied zu sein! Lies dir mal durch was einige hier darüber abgelassen haben.

Und nun troll Dich oder helf dem Alten Sack anstatt dein Geläster los zu werden wie gut du doch zu dieser Welt bist und passt. Das haben wir alle schon tausendmal auf dem Board gelesen. Und wenn du einen Arsch in der Hose hättest und so großer Fan von 3D-Center-Forum bist, dann wärst Du festes Forenmitglied.

Guck Dir nur mal die heutigen Hit-Gastzahlen auf dem Board an, daß sagt alles, da fehlen dauerhaft zwischen 100-300 Leser die sonst mehr onboard waren. Scheint so als wäre das viel mehr als nur eine Person gewesen, aber sowas ist dir scheißegal, Hauptsache Du. Nicht wahr?

Was soll das hier für eine tolle heile Welt sein? Hier läuft seit geraumer Zeit etwas völlig schief und aus dem Ruder, da hilft es auch nicht bleidigenden Spam der gegen die Forenregeln verstößt nicht zu entfernen. Wozu gibt es diese Regelwut niedergeschrieben auf nutzlosem Webspace wenn jeder Mod wirlkürlich darüber entscheiden kann, ob er etwas entfernt oder nicht. Sowas ist Willkür pur und das ist Nahe an der Grenze dikatorischer Machenschaften um sich derer zu entledigen die einem nicht in den Kram passen.

Sollen sie es weiter so machen, die Disco wird irgendwann nicht mehr besucht werden, wenn man erst Leute ab einem Studium in Eletrotechnik rein lassen will. Forenuser und Interessierte sind mittlerweile genauso Mangelware wie Fachkräfte.

Ein Publikum das nicht applaudieren darf und nicht sagen was einem gefallen hat, nicht kritisieren kann oder sagen darf was abgeändert werden sollte, wird sich abwenden und sich anderes suchen. Eben wo es akzeptiert wird und nicht zum schweigen verdammt. Wir leben in einer freien Welt. Wenn man um 3D-Center-Forum eine hohe Mauer ziehen will, um jeden Andersdenkenden auszuschließen, dann soll man das tun. Aber man soll sich dann auch der Folgen bewußt sein. Gähnende Leere in den Logen. Was nützt ein Theaterstück das niemand sehen will?

Gast
2015-03-14, 04:35:36
bist Du der Forengollum hier
Die Ehre möchte ich nicht für mich allein beanspruchen. Da kommen einige in Frage.

Die wußte nicht mal wie sie ins Moderatenforum kommen konnte und wenn Mirko nichts gesagt hätte, wäre niemand darauf gekommen das sie weiblich war. Das hat sie dann zu verbergen gesucht, würde ich sagen
Ja - in der Tat. Es gibt hier zu wenig weibliche Moderatoren, die solchen Damen bei Zeiten mal den Marsch blasen könnten, ohne daß es aussieht, als ob man Frauen gegenüber kein Benehmen hätte. :ulol:
Wir wissen ja alle, was für liebreizende, zerbrechliche und charmante Wesen das sein können. Besonders, wenn sie sich persönlich angegriffen fühlen wollen.

du nennst es "Gleichberechtigungsthread", dann poste den Mist auch da. Dein wirres Geschreibsel ist aber eher was für den Papierkorb
Das Problem ist, daß gewisse Leute im Leben nicht zum Papierkorb finden würden. Die spammen munter einfach immer weiter... :ucatch:

wir Freaks hier unten sind doch eh nur der billige Mist, dass dumme Publikum das man braucht um das Board am Leben zu erhalten.
:facepalm:

Es kann und darf keine Verurteilung sein AMD Hardware zu mögen oder sich dafür einzusetzen und 3D-Center-Forums Mitglied zu sein! Lies dir mal durch was einige hier darüber abgelassen haben.
Wenn du dich von Leuten verurteilt fühlst, weil du AMD bevorzugst oder weil du dich bei CB als 3DCF-Leser geoutet hast, dann mußt du dich bei den Leuten auf CB beschweren. Hier interessiert das kaum jemanden. Und in diesem Thread schon gleich gar nicht.

Und nun troll Dich oder helf dem Alten Sack
Wobei? Beim OC? Das bringt doch fast nichts bei seiner Karte...

Und wenn du einen Arsch in der Hose hättest und so großer Fan von 3D-Center-Forum bist, dann wärst Du festes Forenmitglied.
http://www.craveonline.com/images/stories/2011/2012/October/Film/Myth%20of%20Macho/Full%20Metal%20Jacket/Full_Metal_Jacket_R_Lee_Ermey.jpg
http://www.craveonline.com/images/stories/2011/2012/October/Film/Myth%20of%20Macho/Full%20Metal%20Jacket/Full_Metal_Jacket_R_Lee_Ermey.jpg

Es gibt immer wieder Leute, die müssen erst Mitglied in einem Verein werden, um zu erkennen, daß sie dort beim Versuch sich krampfhaft selbst zu profilieren nicht glücklich werden. Statt einem Arsch in der Hose, haben manche eben ein Gehirn in ihrem Kopf.

Sollen sie es weiter so machen, die Disco wird irgendwann nicht mehr besucht werden, wenn man erst Leute ab einem Studium in Eletrotechnik rein lassen will.
Wenn es doch so einfach wäre.... ein abgeschlossenes Studium ist heute leider schon lange kein Garant mehr für gesittete Umgangsformen. Und falls du das 3DCF tatsächlich mit einer Disco verwechselt haben solltest, kann ich deine Überraschung sogar ein Stück weit nachempfinden.

Was nützt ein Theaterstück das niemand sehen will?
Das ist genau der Aspekt, unter dem du dein eigenes Posting nochmal genauer betrachten solltest. Du machst hier einen riesigen Aufstand und solltest dich fragen: Was bringt dir das?
Und vor allem: Gibt es überhaupt jemanden, der deine Story von den 'Freaks da unten' hier in diesem Thread lesen will? Es ist ja ok, wenn jemand eine destruktive Phase durchlebt. Aber dafür ist nunmal das Sozi-Unterforum da. Und die Tatsache, daß dir hier niemand außer mir antwortet, sollte dir ebenfalls zu denken geben.

Ob deine Aufregung berechtigt ist, kann ich nicht beurteilen. Jedenfalls ist sie hier nicht an der richtigen Stelle. ;)

Ich muss mir gerade Schrotti vorstellen, wie er mit verknoteten Fingern vor der Tastatur sitzt und sich dazu zwingt NICHTS zu schreiben. Das war ja nicht immer so. Jedenfalls werde ich mir jetzt an Schrotti ein Beispiel nehmen und auch nichts mehr weiter in deine/Mirkos Richtung hinzufügen. Das war ja schon damals unmöglich euch wieder einzubremsen. Da müßt ihr mal selber an euch arbeiten.


PS: Ich bin mal gespannt, ob/wie lange ich es durchhalte. Schrotti's Avatar wird mir sicher helfen...

Razor
2015-03-14, 08:36:04
@Gäste

Eigentlich bin ich auch ein Gegner der Reg-Pflicht... aber wenn ich mir das hier so ansehe?
Merkt Ihr eigentlich noch was?
:confused::confused::confused:

Habe wohl was OC angeht einfach Pech gehabt.
Damit hättest Du viel früher anfangen sollen.

Ist wie bei den Autos - werden die "richtig" eingefahren...
Nimmst Du aber einen Opi mit 15 Jahren und 15Tkm Laufleistung, nö...

Natürlich könntest Du jetzt mit einer recht aufwendigen "Restauration" beginnen... ohne Kenntnis, ob es wirklich etwas bringen wird.
Oder es natürlich einfach lassen.

Razor

Gast
2015-03-14, 08:50:15
Das Problem hier ist das ihr beide eine Vollmeise habt. Und nein in diesem Forum geht es schon lange nicht mehr um Technik, das hat schon der Thread um DanyW bewiesen. Hier geht es nur noch darum sein eigenes bescheuertes Weltbild nach außen zu tragen und wer der bessere Fan eines IHVs ist. NVIDIA vs AMD blah blah blah und in diesen Kuddelmuddel ist die DanyW oder Mirko oder wer auch immer reingeraten.

GastGollum
Du schreibst hier was von Selbstverwirklichung und Selbstdarstellung. War ja klar das du bei soeinem Diskussionsverlauf aus deinem Loch gekrochen kommst und einem zum Besten gibst was du doch alles so weißt. Frage mich gerade zu welchen festen Account oder anderem du gehörst und wann du dich das letzte mal im Spiegel angesehen hast. Guck dir das blöde Trolllgesicht ruhig an. Und deine Meinung über Frauen ist unter aller Sau!

Und nun gebt Ruhe. Da hat einer mitgeteilt das er das freie Angebot einem Form anzugehören nicht mehr nutzen möchte, dass ist sein gutes Recht wenn er mit der Hetze und Häme hier nicht mehr zurechtkommt. Er wird sich schon wieder melden wenn er meint für Runde zwei gerüstet zu sein und wenn nicht ist das sein Ding.

Das die Moderation diesen Blödsinn hier zulässt ist einfach daneben. Seit nunmehr 14 Jahren lese ich bei 3dc gegen, aber das wird immer bescheuerter und der Umgang wird immer persönlicher. Hier haben einige einen Koller. Ich empfehle schnellstmöglich einen Arzt aufzusuchen.

Mirko ja das war die beste Entscheidung und wenn möglich komm nicht wieder, dann lebst du deutlich ruhiger.

GastGast
2015-03-14, 11:38:30
@gast #242
Hart aber herzlich :), trotzdem das passt.:uclap:

@Gast-Gollum
Mal wieder :crazy:, der jeden Thread endgültig zum Absturz bringt und der Sache dann seinen Lauf läßt.:rolleyes:
Kann man die IP nicht sperren?:ulol:

@unterforenuser
Mir war auch nicht aufgefallen das man seine Beiträge nachmoderiert hat. Also gabs da auch kein Problem. Nachträgliche Rache? Das könnte gut sein wenn jemand denkt ihm wird sein Rang abgelaufen.:ulol:

Solche langen Beiträge sind auch für die Moderation eine riesen Aufgabe. Die müssen sich alles gegenlesen und dann auch noch reinversetzen. Das wird irgendwann mal zuviel. Das zeigt das Problem der gezielten Moderation dann auf wenn wieder mehr von den Pöblern, Sympatisanten oder Gegnern, oder sagar die Fanboys im Board unterwegs sind. Wo willst du da anfangen? das sie derzeit nicht löschen, kann daran liegen das sie das Thema grundsätzlich interessiert und man lebt auch von der Meinung seiner @Gäste um etwas zu anzupassen oder zu verändern.

Was machst Du dir Gedanken um Hitzahlen? Schreibe, lese, lebe nimm mit was du brauchst. Es gibt immer mal ein Loch wenn es nichts neues zu berichten gibt. Das ist für ein Forum belanglos. Da kümmert sich der Eigner drum und die Moderation. Deine Hilfe ist es solchen Leuten wie @Gast-Gollum aus dem Weg zu gehen, oder dafür zu sorgen das er erst gar nicht im Board erscheint. Du versorgst ihn gerade mit dem Input den er braucht. Dann sollst Du also nichts weiter als einfach frei und fröhlich teilnehmen. Wenns geht mit einem Haufen guter Laune im Bauch.:)

Den Beitrag den @Leonidas im Newsbereich dazu veröffentlicht hat, muß man nicht zum Anlass nehmen in Panik auszubrechen. F-3DC wird viele Jahre weiterexistieren, mit - ohne Dir oder M egal. Natürlich ist es Schade aber eine Forummemberzahl, aktive Benutzer, Beiträge, Inhalt ist keine feste Zahl sondern in Bewegung. Bleib einfach hier und sieh dich um was zu Dir passt. Es besteht kein Regzwang und Du kannst völlig anonym bleiben. Auch als Sympatisant oder Freund von bestimmten Membern. Das gehört dazu.


@Alter Sack
Warum jammerst DU?:D Hast du mal auf deine max. fps geguckt, ich sehe da 94,5 zu 109,9 im HB4.0.! Das OC, eingestellt wie vorgeschlagen bringt also nichts.:conf2: Das eine 660 bei Extrem-Settings dropt ist doch völlig normal. Die Karte ist zwei Generationen als. Meine 780 schafft 82fps im Schnitt unter 720p. Im OC Modus CPU und 780 auf 1058Mhz wirft mir der Beanch unter 1920x1080 1535Points aus bei 62 fps im Schnitt. Habe es gerade durchprobiert. Warum wäre dann eine 290 zu wenig Leistungszugewinn? Denkst Du man wird irgendwann eine Karte bekommen die diese Leistung biette flüsterleise ist und unter 200 Euro kostet? Denke nicht auf lange Zeit. Und dir wurde sogar der Alpenfön verlinkt der die Karte voll im Griff hat und 50 Euro kostet. Ich weiß nicht was dich abhält. Die 660 ist nicht schlecht aber alt und war eine Mittelklasseangebot, was verlangst du von der Karte noch?:uponder:

Kann man aus einem Golf einen Ferrari machen wenn man etwas an der Füllung für die Zylinder spielt? Dir wurde hier ein leichten Tuning abgeboten mehr nicht. Und scheib den I7 auf 4,4Ghz, dann passt das schon noch für die nächsten 3 Monate.

Alter Sack
2015-03-14, 18:03:36
@gast #242
Hart aber herzlich :), trotzdem das passt.:uclap:

@Gast-Gollum
Mal wieder :crazy:, der jeden Thread endgültig zum Absturz bringt und der Sache dann seinen Lauf läßt.:rolleyes:
Kann man die IP nicht sperren?:ulol:

@unterforenuser
Mir war auch nicht aufgefallen das man seine Beiträge nachmoderiert hat. Also gabs da auch kein Problem. Nachträgliche Rache? Das könnte gut sein wenn jemand denkt ihm wird sein Rang abgelaufen.:ulol:

Solche langen Beiträge sind auch für die Moderation eine riesen Aufgabe. Die müssen sich alles gegenlesen und dann auch noch reinversetzen. Das wird irgendwann mal zuviel. Das zeigt das Problem der gezielten Moderation dann auf wenn wieder mehr von den Pöblern, Sympatisanten oder Gegnern, oder sagar die Fanboys im Board unterwegs sind. Wo willst du da anfangen? das sie derzeit nicht löschen, kann daran liegen das sie das Thema grundsätzlich interessiert und man lebt auch von der Meinung seiner @Gäste um etwas zu anzupassen oder zu verändern.

Was machst Du dir Gedanken um Hitzahlen? Schreibe, lese, lebe nimm mit was du brauchst. Es gibt immer mal ein Loch wenn es nichts neues zu berichten gibt. Das ist für ein Forum belanglos. Da kümmert sich der Eigner drum und die Moderation. Deine Hilfe ist es solchen Leuten wie @Gast-Gollum aus dem Weg zu gehen, oder dafür zu sorgen das er erst gar nicht im Board erscheint. Du versorgst ihn gerade mit dem Input den er braucht. Dann sollst Du also nichts weiter als einfach frei und fröhlich teilnehmen. Wenns geht mit einem Haufen guter Laune im Bauch.:)

Den Beitrag den @Leonidas im Newsbereich dazu veröffentlicht hat, muß man nicht zum Anlass nehmen in Panik auszubrechen. F-3DC wird viele Jahre weiterexistieren, mit - ohne Dir oder M egal. Natürlich ist es Schade aber eine Forummemberzahl, aktive Benutzer, Beiträge, Inhalt ist keine feste Zahl sondern in Bewegung. Bleib einfach hier und sieh dich um was zu Dir passt. Es besteht kein Regzwang und Du kannst völlig anonym bleiben. Auch als Sympatisant oder Freund von bestimmten Membern. Das gehört dazu.


@Alter Sack
Warum jammerst DU?:D Hast du mal auf deine max. fps geguckt, ich sehe da 94,5 zu 109,9 im HB4.0.! Das OC, eingestellt wie vorgeschlagen bringt also nichts.:conf2: Das eine 660 bei Extrem-Settings dropt ist doch völlig normal. Die Karte ist zwei Generationen als. Meine 780 schafft 82fps im Schnitt unter 720p. Im OC Modus CPU und 780 auf 1058Mhz wirft mir der Beanch unter 1920x1080 1535Points aus bei 62 fps im Schnitt. Habe es gerade durchprobiert. Warum wäre dann eine 290 zu wenig Leistungszugewinn? Denkst Du man wird irgendwann eine Karte bekommen die diese Leistung biette flüsterleise ist und unter 200 Euro kostet? Denke nicht auf lange Zeit. Und dir wurde sogar der Alpenfön verlinkt der die Karte voll im Griff hat und 50 Euro kostet. Ich weiß nicht was dich abhält. Die 660 ist nicht schlecht aber alt und war eine Mittelklasseangebot, was verlangst du von der Karte noch?:uponder:

Kann man aus einem Golf einen Ferrari machen wenn man etwas an der Füllung für die Zylinder spielt? Dir wurde hier ein leichten Tuning abgeboten mehr nicht. Und scheib den I7 auf 4,4Ghz, dann passt das schon noch für die nächsten 3 Monate.

Die GTX660 war bei Release ein gutes Angebot: gute Leistung und vernünftiger Preis. Das finde ich aktuell, wenn man bedenkt, dass man von GTX660 upgraded, im Markt nicht vor.

Die R290 ist tatsächlich eine gute Karte und würde sich als Upgrade auch lohnen. Aktuell scheinnen die Preise da jedoch (Dollar-bedingt? Oder weil der Markt es hergibt?) deutlich teurer geworden zu sein. In der aktuellen PCGHW wird dei R290 für 240€ aufgeführt. Tatsächlich liegt der Preis über 300€. Damit ist die GTX970 (auch wenn ich mir dieses Beschiss-Karte nie kaufen würde) schon wieder preislich in der Nähe... hat mehr Leistung und deutlich weniger Verbrauch. Das Angebot ist Stand heute einfach suboptimal.
Die R290 für 240€ so wie in PCGHW aufgeführt als ASUS mit Silentkühlung wäre tatsächlich sehr interessant. Warten wir´s mal ab, wie sich die Situation die kommenden Monate weiterentwickelt.
Ginge meine GTX660 jetzt kaputt, wärs jedenfalls die am ehesten noch die R290.

Gast
2015-03-16, 22:52:27
Du meinst DanyW, die hier im Forum mit der groben Kelle ausgeteilt hat, als gäbe es kein morgen? :D Erst die Gäste als Schizos hinstellen und sich dann auch noch mit StefanV anlegen?
?
Wenn jemand meine ehrliche Meinung zu dem Thread hören, einfach nur peinlich für forum-3dcenter. Wenn Du der @Gast mit den überlangen Textpassagen warst die eigentlich alles oder nichts aussagen, brauchst Du dich nicht zu wundern das die @DanyW irgendwann wirre war. Eigentlich hatte sie 700-800 Euro über, stockte dann später auf bis zu 1000 Euro auf und wollte einen Systemaufbau um sich ihrem Lieblingsspiel Skyrim widmen. Ich habe den Thread gerade noch mal eingesehen, man sollte es nicht glauben äußerst interessant was sich einem hier für ein Unterhaltungswert bietet: http://www.forum-3dcenter.org/vbulletin/archive/index.php/t-552001.html

Die Frage, was sie eigentlich braucht und zu Ihrem Buget passt war schon im ersten Betrag von @Raff beantwortet: i54670k+R9290. Dann kam das danach. Und viele wirre Gestalten, so wie zum Beispiel @Countdoku, @Gast, @Gast52, @Gast (warst du diese Darsteller gleich alle zusammen?), wonach sie gar nicht mehr wusste was denn jetzt noch kaufen wollte oder sollte und sich eigentlich bloß noch wehren musste. Sie hatte die AMD Karte noch gar nicht, sollte sie aber verteidigen.

Als die Fangemeinde nVidia vs. AMD auf den Thread aufmerksam wurde und auf der Bildfläche erschien, war schon alles verloren, ging es eigentlich nicht mehr um ihr Anliegen und mit Ihr hat auch niemand mehr direkt geredet, sondern jeder hat einfach seine Sichtweise durchzusetzen versucht. Das bis der @TS 'in wohl der Kragen geplatzt war und sie zurückgeschossen hat. Dann wurde ihr massiv eingeredet wie schlecht AMD Grafikkarten doch sind, was dann dazu führte das sie sich kurzer Hand für eine 780 von MSI entschieden hatte, was ihr Berater @Mirko wohl letztendlich sowieso schon irgendwie vorgeschlagen hatte. Daraufhin wurde ihr unterstellt der ganze Thread wäre nichts weiter als reines Fläming und von ihr inzeniert. Da muss sie sich Seitenweise mit irgendwelchen fehlgeleiteten "Spacken" rumschlagen und dann das. Was sollte sie in dem Moment wohl von forum-3dcenter und dessen Forum halten?

Mal ein paar Kommentare im Vorfeld von @Countdoku dazu:
AMD Grafikkarten taugen nichts, abgebrannt (verlinkt), mit massiven (Stabilitäts-) Problemen, nichts wert, Stromfresser, Treiberprobleme.
Mal ehrlich, für was sollte sich @DanyW dann entscheiden. AMD R9-290? Der erste Eindruck ist der tiefgreifende und bleibt immer in den Köpfen hängen (das die Moderation diesen Blödsinn überhaupt zugelassen hat, schwer nachzuvollziehen).

Der erste miese Beitrag war wohl der von @Bjoern:
Laber mich doch nicht voll, meine Fresse. Glauben heißt ganz fest für war halten, aber nicht wissen. Immer diese Gast Spacken die meinen auf wichtig tun zu müssen. Mit dem Kaufberatungs-Forum geht's immer mehr begrab...
Und ja, dann ging es nicht nur in der Ausdrucksweise rapide bergab.

An dem Verlauf war damit aus rein außenstehender Sicht nicht die @TS 'in Schuld, sondern die die hätten zielsicher und technisch ausgefeilt, auf die grundlegende Frage hätte antworten können. Genau die haben sie mit dem Thema, der Frage, @Countdoku und Dir anfänglich allein gelassen! Und dann wie Du schon sagst zum Schluss mit dem Hammer draufgeschlagen, ja. Was für eine Animationsshow, nicht wahr?

Wer eigentlich eher nicht an Technik interessiert ist, der ist hier imho einfach falsch. Ebenfalls falsch ist hier, wer an offenen Diskussionen gar kein Interesse hat, weil er selbst schon alles zu wissen glaubt.
Dazu spamst Du hier bestimmt nicht:
[spoiler]
Das hier ist gerade nicht das CB, wo es um Ehre und militärische Auszeichnungen geht.
Woher willst Du das als @Gast wissen?

Als dann jedoch klar wurde, daß die gute Dame keineswegs an der Technik interessiert war, sondern mich als Blitzableiter gegen StefanV ausspielen wollte...
Was? @StefanV hat ganz höflich mit Ihr diskutiert was man an AMD Grafikkarten gut finden kann, Du hast dir nur vorher Mühe gegeben, dass Sie das nicht versteht.

(in dem Bewußtsein, daß wo StefanV's Keule niedersaust so schnell kein Gras mehr wächst) aus dem Thread zurückgezogen
Nein, Du hast persönlich solange daraufhin gearbeitet, dass dies auf jeden Fall passiert, mehr nicht. Und das ziemlich geschickt. Ich glaube ja Du benutzt unterschiedliche @Gast-Nicknamen oder doch noch mehr?

kann ich deine Überraschung sogar ein Stück weit nachempfinden.
Welche Überraschung?, wie viele Postings soll denn der Unterforenuser hier schon eingestellt haben? 2, 20, 100, 1000?

Wenn du dich von Leuten verurteilt fühlst, weil du AMD bevorzugst oder weil du dich bei CB als 3DCF-Leser geoutet hast, dann mußt du dich bei den Leuten auf CB beschweren. Hier interessiert das kaum jemanden. Und in diesem Thread schon gleich gar nicht.
Komisch? Woher kommen diese Informationen und Erkenntnisse nur?

Ja - in der Tat. Es gibt hier zu wenig weibliche Moderatoren, die solchen Damen bei Zeiten mal den Marsch blasen könnten...
Ach so darum geht es: Frauen den Marsch blasen? Mal ehrlich, ab wann hast Du mitbekommen das @DanyW eine Frau sein könnte? Sollte sie dann nicht am forum-3dcenter teilhaben. Als registriertes Mitglied?

Das war ja nicht immer so. Jedenfalls werde ich mir jetzt an Schrotti ein Beispiel nehmen und auch nichts mehr weiter in deine/Mirkos Richtung hinzufügen. Das war ja schon damals unmöglich euch wieder einzubremsen.
Du willst jemanden bremsen? Wie sollte das gehen? Als @Gast mit Postings die zwar geschickt und eloquent ausformuliert, aber im Kern eigentlich nichts weiter als fernab vom Thema und manchmal zutiefst beleidigend und provozierend sind?

Ich frag mich persönlich woher Du das alles nur so detailverliebt und intern zutreffend weist? Bist Du eine Art gescheiterter oder verbannter Super-Member oder vielleicht sogar Moderator, wobei Du dir das auch alles nur einbildest? Du schreibst hier zuweilen über 3D-Center interne Einzelheiten, die Du als aussenstehender @Gast nicht im Ansatz wissen kannst? Wie soll der Nickname eines Moderators hier im Forum aussagen können bzw. wie könnte man daran nachvollziehen, ob dieser in Realität männlich oder eher weiblich ist?

Du scheinst also mit AMD Hardware und Frauen ein Problem zu haben und übertünchst dies mit unsinnigen Texten, weil du glaubst das dies alle von Dir lesen wollen? [/spolier]

Der Lohn für die Mühen ist nicht Ruhm und Anerkennung, sondern das Bewußtsein, daß man mit der Diskussion mit anderen seinen eigenen Kenntnisstand vielleicht erweitert hat
Das trifft für Dich nur in sehr eingeschränkter Weise zu und mit Technik hat das bestimmt nichts zu tun, Du bist wegen ganz anderem hier aktiv.

Wir lassen es die anderen machen nicht wahr: https://www.youtube.com/watch?v=CJ07JyztEIU
Du weißt aber schon wie das endet Smergol? Du weißt das es Dich eines Tages erwischt?

Schrotti
2015-03-17, 05:09:34
Was soll denn dieser Mist hier noch?

Schreibt euch Mails wenn ihr das ausdiskutieren wollt.

Gast
2015-03-17, 07:19:19
Die GTX660 war bei Release ein gutes Angebot: gute Leistung und vernünftiger Preis. Das finde ich aktuell, wenn man bedenkt, dass man von GTX660 upgraded, im Markt nicht vor.
Vielleicht ist auch irgendwann mal das Ende der Fahnenstange erreicht. Es gibt afair nicht nur in den USA Ein- und Ausfuhrbeschränkungen für Technologien, welche eine bestimmte Rechengeschwindigkeit erreichen.
Ich frage mich, ob nVidia mit Maxwell vielleicht an so einer Grenze angelangt ist? Das würde vielleicht erklären, warum man dort immer mehr Wert auf Effizienz anstelle von Performance legt.

Kennt hier jemand zufällig die maximale CTP für Computersysteme 2015 betreffend USA?
Welche CTP/APP haben Systeme mit Maxwell?

The current APP limit is 0.75 WT.
http://en.wikipedia.org/wiki/Adjusted_Peak_Performance
Systeme/Chips, die diesen Wert erreichen, unterliegen (wenn ich es richtig deute) in den USA einem Exportverbot. Es wäre doch mal interessant zu wissen, wie nah man mittlerweile Dank Quad-SLI an dieser Grenze ist. Und ob mit diesem Limit echtes 4K-Computing im Consumerbereich überhaupt realisiert werden kann.

Zur Erinnerung:
Japan's Ministry of Trade has decided that you can't use Sony PlayStation 2s to build missile guidance systems
http://www.theregister.co.uk/2000/04/18/playstation_2_export_limit_lifted/

Sony's High-Tech Playstation2 Will Require Military Export License
http://articles.latimes.com/2000/apr/17/business/fi-20482

Das ist jetzt 5 Jahre her und da ging es nur um eine im Vergleich zu heute lahme Playstation 2.

----------------------------------

@Schrotti:

http://www.forum-3dcenter.org/vbulletin/customavatars/avatar5487_8.gif

:up:

Gast
2015-03-27, 14:03:05
Von Computerbase gibt es einen schönen Test Betreff des Themas 660 - 960. Immerhin plus ca. 30% im Schnitt. Mit OC dürfte das mehr werden. Also wäre die 960 4GB immer noch eine Option. Wie Du auf 175w mit der 660 kommst? Die Tester kommen auf 225w Gesamtsystem, mit der 960 auf 217w dafür aber eben schneller und wahrscheinlich leiser weil die Lüfter im Idlemodus stehen. Das passt doch zu deinem System, gedämmt bis supersilent etc.. Da kommt selbst die DCII nicht mit. In der Anschaffung ist die 960 sogar billiger als die 660. Also mit OC sind es wohl knapp 40% Mehrleistung und eine 4GB Version wird wohl so teuer wie eine 660 Stock, weiß nicht ob das nicht doch was für Dich ist. Wenn du eine 760 hättest würde ich nicht überlegen aber bei der 660 kann das schon wegem dem Speicher und spielbarer Frameraten Sinn machen. UHD ist doch noch zu weit weg. Da kämpft ja die X sogar mit.

Gast
2015-03-27, 14:03:46
Hier der Link: http://www.computerbase.de/2015-03/geforce-gtx-460-560-660-760-960-vergleich

Alter Sack
2015-03-27, 14:31:21
Von Computerbase gibt es einen schönen Test Betreff des Themas 660 - 960. Immerhin plus ca. 30% im Schnitt. Mit OC dürfte das mehr werden. Also wäre die 960 4GB immer noch eine Option. Wie Du auf 175w mit der 660 kommst? Die Tester kommen auf 225w Gesamtsystem, mit der 960 auf 217w dafür aber eben schneller und wahrscheinlich leiser weil die Lüfter im Idlemodus stehen. Das passt doch zu deinem System, gedämmt bis supersilent etc.. Da kommt selbst die DCII nicht mit. In der Anschaffung ist die 960 sogar billiger als die 660. Also mit OC sind es wohl knapp 40% Mehrleistung und eine 4GB Version wird wohl so teuer wie eine 660 Stock, weiß nicht ob das nicht doch was für Dich ist. Wenn du eine 760 hättest würde ich nicht überlegen aber bei der 660 kann das schon wegem dem Speicher und spielbarer Frameraten Sinn machen. UHD ist doch noch zu weit weg. Da kämpft ja die X sogar mit.

Als solches mag die GTX960-4GB sicherlich eine gute und sehr stromsparende Karte sein.
Das Problem ist, dass man 2,5 Jahre alte Karte damals günstiger war, als eine aktuelle GTX960-4GB und damals leistungstechnisch so stark war, wie heute eine GTX970 (Release-Spiele und FPS-Werte aus 2012 vs. 2015).

Ich meine das wie folgt:
2012 war Far Cry 3 glaube ich ein aktuelles Release.
Die GTX660 hat in Far Cry 3 so gut in highsettings performt, wie derzeit eine GTX970 im aktuellen FarCry 4 in highsettings (ist jetzt mal ne "aus dem Bauch heraus" Mutmaßung).
Wenn man es so betrachtet, ist die GTX960-4GB für ca. 280€ einfach kein gutes Angebot, wenn man bei früheren Grafikkartenkäufen, nach 3 Jahren für ähnliches Geld bei damaligen Release-Titeln deutlich mehr FPS in highsettings bekam.