PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Skylake gegen Sandy | I5 2500K@4,5Ghz gegen 6700K@4,5Ghz | Wie gross ist der Abstand?


dreas
2015-11-02, 16:21:12
grüsst euch,

mich interessiert, wie stark der 6700k bei taktgleichheit einen sandy überflügelt und ob sich das in spielen überhaupt lohnt.
finde leider nirgends vergleiche bei gleichem takt.

danke vorab!

4Fighting
2015-11-02, 16:28:01
schau mal hier

http://www.hardware.fr/articles/940-15/cpu-jeux-3d-crysis-3-arma-iii.html

http://www.overclock.net/t/1578480/i5-2500k-4-5ghz-vs-6700k-4-5ghz-in-games

Nightspider
2015-11-02, 16:28:58
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10803634&postcount=587

Achtung Cherrypicking! Zeigt aber Tendenzen für zukünftige Spiele.

Die paar Prozente kannst du ja notfalls selbst abziehen wenn du die IPC ausrechnen willst.

Tatsache ist das ein 6700K einen 2500K plattmachen kann aber nur wenn die GPU nicht limitiert und du CPU hungrige Spiele spielst.

dreas
2015-11-02, 16:34:49
der minframe-unterschied ist echt stark. wäre die frage wieviel man davon merkt. bei den maxframes ist es je nach limitierung nicht sooo unterschiedlich.

AnnoDADDY
2015-11-02, 16:39:11
Die min-frames merkt man am meisten, da man dann konstantere frametimes hat.

Nightspider
2015-11-02, 16:40:04
Schon wobei die Maxframes bei CPU Benchmarks auch nie interessieren weil diese eh vom GPU Limit verdeckt werden.
Man muss auch bedenken das zukünftige Games dank DX12 erstmal nicht sonderlich viel mehr CPU Power benötigen.
Die einzigen Games die es ganz sicher gebrauchen werden sind wohl Star Citizen und eventuell Battlefield 5 in einem Jahr aber bis dahin hättest du auch noch viel Zeit zum überlegen.

Falls du es also nicht eilig hast oder scharf auf die neue Plattform bist (m.2, PCIe3.0, mehr Lanes, USB3.1 o.ä.) dann kannst du noch etwas warten.

Mit Glück werden auf den aktuellen Skylake Mainboards auch die 10nm Cannonlakes in 1,5 Jahren laufen. Diese sollen mit bis zu 8 Kernen kommen in den Consumer-Bereich aber da ist man natürlich davon abhängig von die Mainboard Hersteller BIOS Updates für die dann ~2 Jahre alte Mainboards anbieten werden.

Nightspider
2015-11-02, 16:44:59
Achja: Falls du sparen willst: Der Broadwell i5 5675C liegt dank eDRAM sogar öfters vor dem 6700K.
Also falls du gar nicht so viel Kohle ausgeben willst und die neue Plattform nicht dringend brauchst (für SLI oder so) dann wäre Broadwell derzeit auch eine sehr gute Alternative.
Du kannst den RAM behalten, kriegst gute Mainboards mittlerweile sehr billig und der i5 kostet gerade einmal 220 Euro.

Bleibt nur der Nachteil das du damit nicht in Zukunft aufrüsten kannst wie von Skylake zu Kabylake und Cannonlake.

novl
2015-11-02, 19:11:07
Das gleiche Problem hab ich im Moment auch, das bittere wäre nur wenn man 600 EUR verkloppt und dann im Endeffekt keinen Mehrwert hat.
Zumal meine Graka aktuell auch nichtmehr Highend ist. (AMD 290)

Mortalvision
2015-11-02, 21:40:52
Spielst Du in FullHD? Wenn ja, ist die 290 von AMD noch mehr als ausreichend :)

Mit dem Upgrade vom Sandy würde ich noch warten. Läuft der stabil auf 4,5 GHz? Wenn ja, dann bleib noch ein Weilchen dabei :ugly:

novl
2015-11-02, 22:46:23
Spiele Full HD und der 2500k läuft auf 4,3 GHz.
Dennoch juckt es im Aufrüstfinger ;)

Hübie
2015-11-03, 00:46:25
Also teils sieht man da schon heftige Unterschiede. Jetzt interessiert mich auch mal ein SB-E @4.5 GHz vs. Skylake @4.5 GHz.

Mortalvision
2015-11-03, 06:32:02
Ich habe es in nem anderen thread geschrieben: die nächste Anschaffung sollte eine 2016/17 CPU mit edram sein. Vorher verbrennst du nur Geld :(

Matthias2304
2015-11-03, 10:09:15
Wo ist der Unterschied zu HBM bei eDRAM? Also warum auf eDRAM und nicht direkt auf HBM setzen. Das wäre eine SUPER Einnahmequelle. Den gleichen Prozessor mit unterschiedlicher RAM Bestückung.....Grusel ich komme

kleeBa
2015-11-03, 10:11:47
Spiele Full HD und der 2500k läuft auf 4,3 GHz.
Dennoch juckt es im Aufrüstfinger ;)
Geht mir auch so.

Allerdings schreckt das Kosten/Nutzen Verhältnis (5675C, 6600K 500€, bei den i7 entsprechend mehr) kommend vom 2500k@4.4Ghz doch etwas ab. :(

Palpatin
2015-11-03, 10:36:36
Geht mir auch so.

Allerdings schreckt das Kosten/Nutzen Verhältnis (5675C, 6600K 500€, bei den i7 entsprechend mehr) kommend vom 2500k@4.4Ghz doch etwas ab. :(
Wenn du neue CPU ohne OC nur minimal schneller ist als die alte mit OC, dann wäre ist mir das einfach zu wenig.
Beim 2500k wäre eine Aufrüstung auf einen 5775C, 6700K und 5820K eine Überlegung Wert. Auf 6600k aufzurüsten würde ich allerdings keinen Gedanken verschwenden.

kleeBa
2015-11-03, 10:52:34
Bei der Betrachtungsweise bliebe nur der 6700K in der engeren Wahl, vor allem wegen der neuen Plattform.
Die Entscheidung nimmt mir Intel aber im Moment ab, was es nicht zu kaufen gibt (oder zu irgendwelchen Mondpreisen) kann auch nicht verbaut werden.

Ri*g*g*er
2015-11-03, 13:51:12
Ich war auch am Hin- und Her überlegen mein Sandy 2500k läuft ohne Probleme auf 4,5Ghz hab 24 Gig Ram im Rechner verbaut und eine Nvidia GTX 670 zocke aber immer weniger, wenn dann nur DOTA 2 und das läuft auf 1920x1200 mehr als flüssig.

Mehr CPU Power wird höchstens für die Foto und Video Bearbeitung gebraucht, das steht aber alles nicht im Verhältnis zum Kostenaufwand außerdem würde ich jetzt einen i7 nehmen.
Also abwarten und Tee trinken, bis nächsten Herbst/Winter im Sommer rüste ich keinen Rechner auf.

robbitop
2015-11-07, 11:06:53
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10803634&postcount=587

Achtung Cherrypicking! Zeigt aber Tendenzen für zukünftige Spiele.

Die paar Prozente kannst du ja notfalls selbst abziehen wenn du die IPC ausrechnen willst.

Tatsache ist das ein 6700K einen 2500K plattmachen kann aber nur wenn die GPU nicht limitiert und du CPU hungrige Spiele spielst.

Ich muss sagen, dass die Ergebnisse dieses Tests (der ja schon mehrfach verlinkt wurde) mir ominös vorkommen. Einfach weil alle anderen Testberichte (nicht so extreme nämlich) auch bei den genannten Spielen auf völlig andere Ergebnisse kommen.

Alter Sack
2015-11-07, 11:12:08
Mein i7-2600k (ich übertakte nicht) ist mittlerweile 4,5 Jahre alt. Also wärs eigentlich als PC-Enthusiast höchster Zeit aufzurüsten.
Der i7-6700k hat eine TDP von 95 Watt... also identisch zu meinem i7-2600k. Wollte aber eigentlich ehern 65 Watt TDP im Gehäuse (die 30 Watt Mehrverbrauch kann ich als SIlent-Case Besitzer dann ehern ins Thermal-Budget der Grafikkarte einrechen ;) .

Die Frage wäre, inwiefern sich ein Upgrade von i7-2600k (kein OC) auf einen i7-6700 (nonK) rechnen würde. Habe jetzt im Netz auf die Schnelle nirgends einen Vergleichstest gefunden.

Aktuell stehe ich aber ehern auf dem Standpunkt noch abzuwarten. Wenn man überlegt, dass zwischen 2600k und 6700 4-5 Jahre liegen und man aktuell vielleicht nur max. 30-40% Mehrleistung bekommt (und diese ggf. beim zocken gar nicht wirklich braucht), kommt man schon ins Grübeln.

robbitop
2015-11-07, 11:21:38
Ja wesentlich mehr als 30 % sollten es nicht sein. Ein Upgrade ist für Sandybesitzer noch immer nicht sonderlich lohnenswert. Insbesondere wenn die CPUs auf >4 Ghz laufen.
Ausnahmeapplikationen bestätigen die Regel. ;)

Alter Sack
2015-11-07, 12:43:20
Was kommt in 2016 von Intel? Vielleicht lohnt es sich, auf i7-7700 zu warten...

BlacKi
2015-11-07, 12:59:53
vl kommen 2016 neue 4 kerner mit nochmal 5-10% mehr performance pro takt. mehr wirds definitiv nicht. erst wenn hohe taktraten mit edram vereint werden gibts wieder 20-30% mehr power.

vl stellen sich die programme auf multi threading ein dann bringt vl auch mal ein 6 oder 8 kerner mehr leistung, bisher eher nicht.

Alter Sack
2015-11-07, 13:08:44
vl kommen 2016 neue 4 kerner mit nochmal 5-10% mehr performance pro takt. mehr wirds definitiv nicht. erst wenn hohe taktraten mit edram vereint werden gibts wieder 20-30% mehr power.

vl stellen sich die programme auf multi threading ein dann bringt vl auch mal ein 6 oder 8 kerner mehr leistung, bisher eher nicht.

Was hat es mit diesem edram auf sich?

BlacKi
2015-11-07, 13:25:19
Die Besonderheit liegt beim Core i7-5775C und dem kleineren Bruder Core i5-5675C in der integrierten GT3e-Grafikeinheit, die als Iris Pro 6200 nicht nur 48 Execution Units sondern auch noch 128 MByte eDRAM bietet. Dieser fungiert als letzte Zwischenstufe zwischen Cache und Arbeitsspeicher, auf den sowohl der Prozessor- als auch der Grafikteil zugreifen können. Er wird deshalb oft auch als L4-Cache bezeichnet und so von Programmen erkannt und getestet.

dildo4u
2015-11-07, 13:30:17
Jup der Cache scheint wichtiger als die Skylake Verbesserungen PCGH hat den 5675C(3.1Ghz) vor dem 6600k(3.5Ghz) im CPU Index.Der 5675C ist bei Anno 2070,Crysis 3,BF4,F1 2013,Skyrim vorne,der Skylake nur bei Star Craft 2.

BlacKi
2015-11-07, 13:38:45
sieht aber nicht so aus als käme der l4 edram 2016 wieder zurück. von daher...

w0mbat
2015-11-08, 01:30:55
Ich könnte mir Kabylake ein bisschen wie "Devil's Canyon" vorstellen. Leicht optimierter Skylake mit besserer WLP (vielleicht sogar verlötet), etwas mehr Takt und eDRAM. Der Traum wäre dann noch ein 6-core i9 :D

Nightspider
2015-11-08, 01:45:37
Vielleicht bringt Kabylake ein neues Stepping und damit höhere Taktraten. eDRAM ist imo auch sehr wahrscheinlich.

Cannonlake kommt dann, wie schon bestätigt, mit 8 Kernen.

Alter Sack
2015-11-08, 09:30:20
...und wahrscheinlich wird sich Intel 6/8 Cores vergolden lassen.

Hübie
2015-11-08, 09:53:14
Dann wird hoffentlich AMD in die Bresche springen =) Ich erwarte erst mal viel von AMD. Mindestens Ivy-E Perf/Watt, 6-8 Kerne und günstiger alsvergleichbare Intel-CPUs. So würde man imo am Markt schnell Boden gut machen.

Alter Sack
2015-11-08, 10:09:26
Wenn bei AMD die Effizienz stimmt, wäre ich dabei. Immerhin: der i7-6700 hat eine TDP von 65 Watt. Bei gleicher Leistung würde ich AMD nicht kaufen, wenn die hierfür 100 Watt brauchen.

BlacKi
2015-11-08, 10:44:39
Wenn bei AMD die Effizienz stimmt, wäre ich dabei. Immerhin: der i7-6700 hat eine TDP von 65 Watt. Bei gleicher Leistung würde ich AMD nicht kaufen, wenn die hierfür 100 Watt brauchen.
die tdp angabe dient nicht dazu die leute zu informieren wieviel strom die cpu wirklich zieht. es ist eine grobe angabe dazu wieviel wärme maximal abgeführt werden muss. deswegen hat der 6600k ebenfalls eine tdp von 95w, obwohl die cpu eindeutitg weniger zieht als ein 6700k.

wenn du wissen willst wieviel eine cpu im vergleich zu den anderen zieht, solltest du tests lesen.

solltest du auf den verbrauch/effiezienz achten, dann steht broadwell an der spitze.

Hübie
2015-11-08, 11:00:06
Leider findet man nirgends Vergleiche Takt pro Takt von Skylake vs. Sandy Bridge E. Preislich liegen die ja (traurigerweise) nah bei einander. Der 6700k und die passenden Mainboards brechen echt Rekorde im Desktop :rolleyes:
Ich würde schon gerne wissen ob sich ein Umstieg lohnen würde. Alte Tests von SBE mit neuen vergleichen geht ja auch nicht, da sich die Spiele Engines und API doch stark geändert haben (siehe nVidia @D3D11).
Mich interessiert auch echt nur Zocken @Ultra. Wenn ich mir da Digital Foundry 's Vergleiche unter aktuellen Generationen Apples to Apples ansehe könnte ich mir vorstellen dass auch der Wechsel vom SBE lohnen würde.

bananenmann
2015-11-08, 11:03:52
Vielleicht bringt Kabylake ein neues Stepping und damit höhere Taktraten. eDRAM ist imo auch sehr wahrscheinlich.

Cannonlake kommt dann, wie schon bestätigt, mit 8 Kernen.


Da ist leider gar nix bestätigt. Es war ein Leak und in diesem war lediglich von einem SoC mit bis zu 8 Kernen die Rede, weswegen sogar eine Xeon-D Mini-Server CPU die wahrscheinlichste Interpretation ist.

Alter Sack
2015-11-08, 11:17:02
die tdp angabe dient nicht dazu die leute zu informieren wieviel strom die cpu wirklich zieht. es ist eine grobe angabe dazu wieviel wärme maximal abgeführt werden muss. deswegen hat der 6600k ebenfalls eine tdp von 95w, obwohl die cpu eindeutitg weniger zieht als ein 6700k.

wenn du wissen willst wieviel eine cpu im vergleich zu den anderen zieht, solltest du tests lesen.

solltest du auf den verbrauch/effiezienz achten, dann steht broadwell an der spitze.

Die Broadwell-Effizienz liegt noch vor Skylake?

Hübie
2015-11-08, 11:27:48
Gilt nur für den mit eDram.

BlacKi
2015-11-08, 11:29:49
Die Broadwell-Effizienz liegt noch vor Skylake?
ja, dank edram liegt broadwell in manchen spielen und programmen vorne aber es trifft leider nicht überall bei jedem programm und spiel zu.

Nightspider
2015-11-08, 12:02:25
...und wahrscheinlich wird sich Intel 6/8 Cores vergolden lassen.

Nein, unwahrscheinlich.

AMD wird dann schon länger echte 8 Kerner im Markt haben und bei Intel ging der Umstieg von 2 auf 4 Kerne damals auch schon recht schnell.

Zumal Intel schon lange Zeit 6-8 Kerner im Sortiment hatte, die sie sich vergolden lassen haben. 6 und 8 Kerne werden einfach der neue Standard.

Vergolden lassen werden sie sich die 10-12 Kerne in der größeren Plattform aka (Skylake-E) und Cannonlake-E.

Knuddelbearli
2015-11-08, 12:13:08
bei Intel ging der Umstieg von 2 auf 4 Kerne damals auch schon recht schnell.


Nicht wirklich, die Q waren ja nur 2 "zusammengeklebte" E Prozessoren. Solange die meisten Sachen nur 2 Kerne nutzen merkte man davon wenig ( da brauchte man dann aber auch keinen Q ) aber später merkte man die Nachteile davon doch recht deutlich.

Alter Sack
2015-11-08, 13:10:49
Nein, unwahrscheinlich.

AMD wird dann schon länger echte 8 Kerner im Markt haben und bei Intel ging der Umstieg von 2 auf 4 Kerne damals auch schon recht schnell.

Zumal Intel schon lange Zeit 6-8 Kerner im Sortiment hatte, die sie sich vergolden lassen haben. 6 und 8 Kerne werden einfach der neue Standard.

Vergolden lassen werden sie sich die 10-12 Kerne in der größeren Plattform aka (Skylake-E) und Cannonlake-E.
Das mit 2 zu 4 Kernen stimmt allerdings. Bin damals qasi innerhalb von 12 Monaten von AthlonXP auf Core2Duo auf Core2Quad 6600 umgestiegen und das ist mittlerweile 8 Jahre her!

Wäre tatsächlich mal Zeit für 6-8 echte Kerne für Desktopmarkt (von Intel).
Ich finde auch die Entwicklung zur integrierten GPU völlig irrelevant. Ist doch zu deutsch scheiß egal, ob die Skylake-GPU ein Crysis in ultra-low Settings mit 20 FPSA schafft oder nicht. Wer sich den i7 zum zocken holt, wird sicherlich nicht an einer Grafikkarte sparen. Den Platz auf dem Chip könnte man deutlich sinnvoller in weitere Kerne investieren.

So gesehen ist ein Upgrade von i7-2600k auf i7-6700 für Gamer wie mich ehern uninteressant, zumal bei kommenden CPUs ehern 6 oder mehr Kerne normal sein werden.

4Fighting
2015-11-08, 13:33:12
Leider findet man nirgends Vergleiche Takt pro Takt von Skylake vs. Sandy Bridge E. Preislich liegen die ja (traurigerweise) nah bei einander. Der 6700k und die passenden Mainboards brechen echt Rekorde im Desktop :rolleyes:
Ich würde schon gerne wissen ob sich ein Umstieg lohnen würde. Alte Tests von SBE mit neuen vergleichen geht ja auch nicht, da sich die Spiele Engines und API doch stark geändert haben (siehe nVidia @D3D11).
Mich interessiert auch echt nur Zocken @Ultra. Wenn ich mir da Digital Foundry 's Vergleiche unter aktuellen Generationen Apples to Apples ansehe könnte ich mir vorstellen dass auch der Wechsel vom SBE lohnen würde.

Kennst Du den Test schon?

http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/10

Ist leider nur SB,Ivy,Haswell, Broadwell dabei. Kein SB-E

gnomi
2015-11-08, 13:37:34
Es tut sich tatsächlich zu wenig. Wir sind schon ewig bei Quadcore und ähnlichen Taktraten.
Verbesserungen bei der Effizienz und der Leistung gibt es jetzt schon, aber zusammen mit dem Wechsel der Speicherarchitektur plus Board lohnt es sich ausgehend von Sandy immer noch nicht sonderlich.
Bald kommen noch 3 GPU Updates auf 1 CPU Update und Pascal läuft dann auch noch auf PCIE 2 und dem Uralt 2600k OC bei mir. Da passt doch was nicht. Ich will ja was Neues Kaufen, aber es ist selbst als Gamer zu sinnlos und verschwenderisch.

Alter Sack
2015-11-08, 14:15:16
Kennst Du den Test schon?

http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/10

Ist leider nur SB,Ivy,Haswell, Broadwell dabei. Kein SB-E

Also der Skylake vs i7-2600k:
Das lohn definitiv überhaupt nicht beim zocken: 175 FPS vs 180 FPS.....

robbitop
2015-11-08, 14:32:22
8 Core für LGA10xx im Zusammenhang ist alles andere als bestätigt. 8 Core kann auch wieder für die Enthusiastplattform sein. Cannonlake verzögert sich um 1 Jahr. Cannonlake-E wäre ohnehin 1 Jahr später gekommen - ggf. wird Cannonlake-E nicht verzögert, so dass beide Produkte zu einem ähnlichen Zeitfenster kommen.

Cannonlake ist allerdings nur ein Tick von Skylake - insofern sollte man da nicht all zu viel erwarten. Viel besser und kurzfristiger wäre eine Kabylake SKU mit freiem Multi + eDRAM.

kleeBa
2015-11-08, 14:53:10
[...] Wer sich den i7 zum zocken holt, wird sicherlich nicht an einer Grafikkarte sparen. [...]
Laut unbestätigten Gerüchten soll es dort draussen Menschen geben, die nicht der Sub-Spezies "Hardcore Gamer" angehören und bei der Wahl ihrer Grafiklösung nicht auf jedes zusätzliche Frame in irgendwelchen Super-Duper-Ultra Einstellungen in irgendwelchen sogenannten "Computerspielen" angewiesen sind.
Hab ich gehört. :eek:

The_Invisible
2015-11-08, 15:10:28
Naja, kommt halt auch immer auf den Einsatzzweck an. In der aktuellen PCGH in Starcraft 2 ist ein 6700k fast doppelt so schnell wie ein 2600k (alles ohne OC) und macht quasi zwischen unspielbar und spielbar aus (glaub so 21 vs 38fps).

Gegenüber meinen vorigen C2Q habe ich quasi 4fache Leistung, das war mal ein richtiges Upgrade ;D

Nightspider
2015-11-08, 15:12:42
Also der Skylake vs i7-2600k:
Das lohn definitiv überhaupt nicht beim zocken: 175 FPS vs 180 FPS.....

Und in anderen Situationen liegt Skylake 60% vor einem 2600K:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10803634&postcount=587

Pauschalaussagen sind hier fehl am Platz.

4Fighting
2015-11-08, 15:17:05
Und in anderen Situationen liegt Skylake 60% vor einem 2600K:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10803634&postcount=587

Pauschalaussagen sind hier fehl am Platz.

k.A. ob es schon gefragt wurde:

Gibt es eigentlich einen ähnlichen Test einer anderen Website? Selbst diese Cherry-Picking-Werte finde ich nicht wirklich woanders.

Nightspider
2015-11-08, 15:25:34
Leider nein. Für Extremwerte interessiert sich leider kein Schwein.
Selbst PCGH usw. sind imo nicht in der Lage dazu. Da werden nur eine Hand voll Games getestet und dann von Durchschnittswerten gesprochen bei Settings in denen oft noch kein CPU Limit vorherrscht.
Macht eben leider viel Arbeit und viele Games lassen sich nur ganz schwer halbwegs exakt benchmarken. Ohne freies Speichern und ohne rechenintensive ingame Benchmarks lässt sich sowas eben schwerlich reproduzieren.

Da muss man schon selbst sehr genau quer durch alle Tests lesen, Videos schauen, selbst testen, alte Tests zum Vergleich heranziehen und erst dann bekommt man einen Eindruck bzw. Werte an denen man sich orientieren kann.

Die meisten schauen nur auf avg fps und haben tbh keine Ahnung von der tatsächlichen Leistung aktueller Architekturen und lassen sich zu Pauschalreisen hinreißen.
Wobei ich es auch verstehen kann das es sie nicht interessiert wenn sie die Leistung nicht benötigen und im Durchschnitt hohe Sprünge haben wollen. Die Zeiten sind nur eben vorbei und einige glauben sowieso das wir wegen DX12 keine neuen CPUs auf absehbare Zeit mehr brauchen.

Für Karten wie Titan X oder SLI sollte man aber schon aktuelle CPUs haben, wenn man auf hohe fps steht.
Ist eben auch ein großer Unterschied ob man Hardcore Gamer ist und jedes fps benötigt oder sich auch mit 40fps zufrieden gibt.

tdon
2015-11-08, 15:28:21
Kennst Du den Test schon?

http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/10


Verschwendete Zeit ist das.


Und in anderen Situationen liegt Skylake 60% vor einem 2600K:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10803634&postcount=587

Pauschalaussagen sind hier fehl am Platz.


Pauschalaussagen für GPU limiterende Tests kann man schon bringen. Mehr ist das nicht, was Anandtech testet.


Leider nein. Für Extremwerte interessiert sich leider kein Schwein.
Selbst PCGH usw. sind imo nicht in der Lage dazu.


Zumal die lieber F1 2015 testen anstatt Spiele wie pcars. Aber dann heißt es immer schlecht programmiert oder sie werden ignoriert, weil AMD dort zu schwach wäre.

Alter Sack
2015-11-08, 15:28:52
Laut unbestätigten Gerüchten soll es dort draussen Menschen geben, die nicht der Sub-Spezies "Hardcore Gamer" angehören und bei der Wahl ihrer Grafiklösung nicht auf jedes zusätzliche Frame in irgendwelchen Super-Duper-Ultra Einstellungen in irgendwelchen sogenannten "Computerspielen" angewiesen sind.
Hab ich gehört. :eek:

Wobei vermutlich schon ein gewaltiger Unterschied zwischen einer 150€ Grafikkarte und der integrierte GPU besteht.
Ich würde jedenfalls keine 50€ in ein Vollpreisspiel investieren und dieses dann mit der Intel-GPU zocken. Das wäre vergleichbar mit dem Kauf eines Porsches zu Zwecken der Spritersparnis.

Alter Sack
2015-11-08, 15:30:18
Und in anderen Situationen liegt Skylake 60% vor einem 2600K:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10803634&postcount=587

Pauschalaussagen sind hier fehl am Platz.

Das habe ich auch schon gesehen. Aber wenn ich mir die Charts der vorhin verlinkten Webseite der Spiele anschaue, kommt bei echten Spielen anscheinend nicht wirklich was von der theoretischen Mehrleistung an.

Alter Sack
2015-11-08, 15:32:10
Naja, kommt halt auch immer auf den Einsatzzweck an. In der aktuellen PCGH in Starcraft 2 ist ein 6700k fast doppelt so schnell wie ein 2600k (alles ohne OC) und macht quasi zwischen unspielbar und spielbar aus (glaub so 21 vs 38fps).

Gegenüber meinen vorigen C2Q habe ich quasi 4fache Leistung, das war mal ein richtiges Upgrade ;D

Wegen Starcraft 3 und 21 fps: sind das die Werte der Intel-GPU?
Ist zwar schon etwas her, dass ich Starcraft 2 gespielt habe, aber es lief damals schon problemlos flüssig.

Alter Sack
2015-11-08, 15:33:40
Für Karten wie Titan X oder SLI sollte man aber schon aktuelle CPUs haben, wenn man auf hohe fps steht.
Ist eben auch ein großer Unterschied ob man Hardcore Gamer ist und jedes fps benötigt oder sich auch mit 40fps zufrieden gibt.

Wobei da allein schon wegen PCI-E 3.0 der i7-2600k ausscheidet (nur PCI-E 2.0).

The_Invisible
2015-11-08, 16:01:35
Wegen Starcraft 3 und 21 fps: sind das die Werte der Intel-GPU?
Ist zwar schon etwas her, dass ich Starcraft 2 gespielt habe, aber es lief damals schon problemlos flüssig.

Hab jetzt nochmal geschaut, ist StarCraft2 HotS irgendein WorstCase Scenario und nein, das wurde mit einer 780Ti gebencht.

Alter Sack
2015-11-08, 16:10:31
Hab jetzt nochmal geschaut, ist StarCraft2 HotS irgendein WorstCase Scenario und nein, das wurde mit einer 780Ti gebencht.

Ich seh grad, dass Du den i7-6700k hast. Welche CPU hast Du vorher drin gehabt und hat sich das Upgrade gelohnt?

The_Invisible
2015-11-08, 16:32:55
Ich seh grad, dass Du den i7-6700k hast. Welche CPU hast Du vorher drin gehabt und hat sich das Upgrade gelohnt?

Vorher hatte ich noch nen guten alten Q6700 drinnen :biggrin:

Der Zuwachs war enorm, in W3 in 1440p max Detail zb hatte ich in Novigrad über die doppelte Performance (von 20,x auf 44,x) und war plötzlich im GPU Limit, auch im Anwendungsbereich war das mehr als spürbar.

Ein 2600k ist natürlich eine andere Sache, da würde ich auch grübeln ob ich aufrüsten würde, da ich meinen Q6700 haber auch schon seit Release hatte wohl eher nicht.

Hübie
2015-11-08, 16:33:51
Kennst Du den Test schon?

http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/10

Ist leider nur SB,Ivy,Haswell, Broadwell dabei. Kein SB-E

Nein kenne ich nicht. Wo soll ich da einen Sechskerner bei 4 GHz einordnen? Das ist halt das Problem. Ich kann das nicht zuordnen. Deshalb wünsche ich mir so einen Test, sehnlichst. :frown:
Aktuelle Titel lasten meine CPU schon ziemlich gut aus und der Windows-Scheduler hat artig "gelernt" damit umzugehen. Daher bringen mir die alten Tests mit alten Spielen dann auch wenig (könnte man ja theoretisch hoch rechnen, aber obs stimmt...?!).

Alter Sack
2015-11-08, 16:44:00
Vorher hatte ich noch nen guten alten Q6700 drinnen :biggrin:

Der Zuwachs war enorm, in W3 in 1440p max Detail zb hatte ich in Novigrad über die doppelte Performance (von 20,x auf 44,x) und war plötzlich im GPU Limit, auch im Anwendungsbereich war das mehr als spürbar.

Ein 2600k ist natürlich eine andere Sache, da würde ich auch grübeln ob ich aufrüsten würde, da ich meinen Q6700 haber auch schon seit Release hatte wohl eher nicht.

Hmm, dann für mich leider nicht repräsentativ.
Hatt vor meinem 2600k den Q6600@3Ghz und da war der Leistungssprung auf 2600k im Alltag damals nicht so groß, aber mittlerweile Ende 2015 reicht der 2600k für mich immer noch aus. Habe quasi nie das Gefühl, dass CPU-Power fehlt.

grizu
2015-11-09, 18:19:50
Hmm, dann für mich leider nicht repräsentativ.
Hatt vor meinem 2600k den Q6600@3Ghz und da war der Leistungssprung auf 2600k im Alltag damals nicht so groß, aber mittlerweile Ende 2015 reicht der 2600k für mich immer noch aus. Habe quasi nie das Gefühl, dass CPU-Power fehlt.

Geht mir genauso ... der 2600k ist immer noch eine Eierlegende Wollmilchsau.

Habe immer noch nicht das Bedürfnis zu wechseln.

4Fighting
2015-11-09, 19:56:31
Nein kenne ich nicht. Wo soll ich da einen Sechskerner bei 4 GHz einordnen? Das ist halt das Problem. Ich kann das nicht zuordnen. Deshalb wünsche ich mir so einen Test, sehnlichst. :frown:
Aktuelle Titel lasten meine CPU schon ziemlich gut aus und der Windows-Scheduler hat artig "gelernt" damit umzugehen. Daher bringen mir die alten Tests mit alten Spielen dann auch wenig (könnte man ja theoretisch hoch rechnen, aber obs stimmt...?!).

Den einzigen Test, den ich finde, der auch SB-E beinhaltet ist der bei Lan-OC

http://lanoc.org/review/cpus/7108-intel-i7-6700k-skylake?showall=&start=2

Natürlich wieder nur mit AVG-FPS.

http://lanoc.org/images/reviews/2015/intel_i7_6700K_skylake/cpugraph8.png

http://lanoc.org/images/reviews/2015/intel_i7_6700K_skylake/cpugraph10.png

N0Thing
2015-11-10, 15:26:51
Gibt es eine Erklärung, warum beim Hitman Benchmark ein Intel Core i7-5960X sowohl hinter dem 6700K als auch seinen Vorgängern i7-4960X und i7-3970X liegt? Und warum ein AMD FX-8320E so weit vor allen anderen AMD CPUs liegt? Fehler in der Grafik?

Hübie
2015-11-10, 15:42:18
Da die Pfuscher, welche sich Redakteure schimpfen selten bis niemals den Dingen nachgehen, kann man nur rätseln. Ich lese mir den Test nachher mal durch, vielleicht wird es erwähnt. Man fixiert keinen Takt und man zeigt keine Auslastung. Auch versucht man nich HT on/off oder Kernzuweisung von 8 auf 6 zu begrenzen. Deshalb rege ich mich immer wieder über Tester auf. Alles immer out of the Box, weil man davon ausgeht dass der 08-15 Depp nix wissen kann oder will.
Aufklärungsarbeit gibt's offensichtlich nur bei Sexualberatungen und beim Militär. :rolleyes:

HOT
2015-11-10, 15:47:25
KabyLake wird sicherlich ein Rebrand sein, das für mehr Speichertakt spezifiziert ist, alles aktiviert, das jetzt noch nicht geht und ein paar MHz mehr mitbringt. Ich würd da weder mit eDRAM noch mit anderen Spielereien wie 6 Kernen rechnen. Ich glaube nicht, dass Intel auf AMD da reagiert hat. Das machte zu dem Zeitpunkt, an dem man entschieden hat, dass 10nm nix wird, einfach noch keinerlei Sinn da herumzuspekulieren. KabyLake ist nichts weiter als ein Ersatz für CannonLake, weil sich die 10nm so stark verzögert haben oder gar ganz ausfallen. Ich glaub auch nicht, dass Cannonlake noch kommt, die werden aus Broadwell gelernt haben. Das war ja sicher ein ziemliches Verlustgeschäft. Nicht die neuen Architekturen hinken hinterher sondern die Fertigung.
Und einen I7 7xxx werden wir in 2016 garantiert nicht sehen, eher Y und U-Varianten von KabyLake. Der Rest kommt sicherlich erst 2017 und selbst da könnten die CPUs immer noch ins 6er Schema passen, wie Haswell damals.

Mortalvision
2015-11-10, 16:11:33
Broadwell im mobile Markt war aber gut angekommen und hat über ein Jahr gute Dienste verrichtet!

Alter Sack
2015-11-10, 17:00:11
KabyLake wird sicherlich ein Rebrand sein, das für mehr Speichertakt spezifiziert ist, alles aktiviert, das jetzt noch nicht geht und ein paar MHz mehr mitbringt. Ich würd da weder mit eDRAM noch mit anderen Spielereien wie 6 Kernen rechnen. Ich glaube nicht, dass Intel auf AMD da reagiert hat. Das machte zu dem Zeitpunkt, an dem man entschieden hat, dass 10nm nix wird, einfach noch keinerlei Sinn da herumzuspekulieren. KabyLake ist nichts weiter als ein Ersatz für CannonLake, weil sich die 10nm so stark verzögert haben oder gar ganz ausfallen. Ich glaub auch nicht, dass Cannonlake noch kommt, die werden aus Broadwell gelernt haben. Das war ja sicher ein ziemliches Verlustgeschäft. Nicht die neuen Architekturen hinken hinterher sondern die Fertigung.
Und einen I7 7xxx werden wir in 2016 garantiert nicht sehen, eher Y und U-Varianten von KabyLake. Der Rest kommt sicherlich erst 2017 und selbst da könnten die CPUs immer noch ins 6er Schema passen, wie Haswell damals.

Na dann gute Nacht.
Mein 2600k wird wohl auch in 2017 noch seinen Dienst verrichten, wenn nicht vorher irgendwas im Rechner kaputt geht und ein neues System erfordert.

tdon
2015-11-10, 17:42:01
KabyLake wird sicherlich ein Rebrand sein, das für mehr Speichertakt spezifiziert ist, alles aktiviert, das jetzt noch nicht geht und ein paar MHz mehr mitbringt.


Das ist Skylake mit ein paar kleinen Verbesserungen. Da brauchst du auch nicht spekulieren, es ist nämlich bekannt.


Ich würd da weder mit eDRAM noch mit anderen Spielereien wie 6 Kernen rechnen.


Zuerst kommt ja noch Sylake GT4e mit edram für Desktop.




KabyLake ist nichts weiter als ein Ersatz für CannonLake, weil sich die 10nm so stark verzögert haben oder gar ganz ausfallen.


Ein Ersatz ist es nicht, sondern nur ein weiterer Lückenfüller bis Cannonlake.


Ich glaub auch nicht, dass Cannonlake noch kommt, die werden aus Broadwell gelernt haben. Das war ja sicher ein ziemliches Verlustgeschäft. Nicht die neuen Architekturen hinken hinterher sondern die Fertigung.


Natürlich kommt der. Und gelernt haben sie, deswegen wird es Cannonlake wieder für Desktop mit gleicher Priorität geben.


Und einen I7 7xxx werden wir in 2016 garantiert nicht sehen, eher Y und U-Varianten von KabyLake. Der Rest kommt sicherlich erst 2017 und selbst da könnten die CPUs immer noch ins 6er Schema passen, wie Haswell damals.


Das brauchst du nicht glauben, oder wozu gibt es Roadmaps. Allzu gut bist du nicht informiert.

HOT
2015-11-10, 18:05:07
Das ist Skylake mit ein paar kleinen Verbesserungen. Da brauchst du auch nicht spekulieren, es ist nämlich bekannt.

Diese Dinge werden im Skylake einfach noch nicht aktiv sein.

Zuerst kommt ja noch Sylake GT4e mit edram für Desktop.

Naaa ja, Desktop? Auf jeden Fall aber BGA. Für LGA hab ich Zweifel. Wieso sollte man das tun? Bei Broadwell gibts ja nur den GT3 als 4-Kerner, da war das einfach ein Aufrüst-Kompromiss. Diese Notwendigkeit gibts bei Skylake ja nicht. Und das ist ja auch Skylake, nicht KabyLake. Vielleicht gibts ja auch GT3 oder GT4 für LGA, dann sind die aber wieder teuer und niedrig getaktet und bedienen eine Nische.

Ein Ersatz ist es nicht, sondern nur ein weiterer Lückenfüller bis Cannonlake.

Natürlich kommt der. Und gelernt haben sie, deswegen wird es Cannonlake wieder für Desktop mit gleicher Priorität geben.

Nein, ich denke, dass Kaby Lake tatsächlich Ersatz ist. Und ich denke, dass die neue µArchitektur dann die nächste Stufe ist - ob in 14/10/7nm dann steht auf einem anderen Blatt. Cannonlake ist ziemlich sicher Geschichte.

Das brauchst du nicht glauben, oder wozu gibt es Roadmaps. Allzu gut bist du nicht informiert.
Roadmaps sind geduldig und oft auch politisch, das heißt gar nix, wenn die so weit in die Zukunft weisen.

Na dann gute Nacht.
Mein 2600k wird wohl auch in 2017 noch seinen Dienst verrichten, wenn nicht vorher irgendwas im Rechner kaputt geht und ein neues System erfordert.
Sei doch froh, dann kannst bessere GPUs kaufen ;).

tdon
2015-11-10, 18:52:51
Diese Dinge werden im Skylake einfach noch nicht aktiv sein.


Welche Dinge?


Naaa ja, Desktop? Auf jeden Fall aber BGA.


Für LGA. Du bist wahnsinnig schlecht informiert.



Nein, ich denke, dass Kaby Lake tatsächlich Ersatz ist. Und ich denke, dass die neue µArchitektur dann die nächste Stufe ist - ob in 14/10/7nm dann steht auf einem anderen Blatt. Cannonlake ist ziemlich sicher Geschichte.


Du denkst Blödsinn.

Matrix316
2015-11-10, 19:46:55
EDIT: Passt vlt. doch nicht zum Thema.

The_Invisible
2015-11-10, 19:47:02
Na dann gute Nacht.
Mein 2600k wird wohl auch in 2017 noch seinen Dienst verrichten, wenn nicht vorher irgendwas im Rechner kaputt geht und ein neues System erfordert.

Problem dürfte sonst wohl die veraltete Platform werden, war bei meinem P35 auch so.

Ansonsten haste recht, bis 8 Threads mal ordentlich ausgenutzt werden vergeht wohl noch einige Zeit.

Alter Sack
2015-11-10, 20:44:08
Problem dürfte sonst wohl die veraltete Platform werden, war bei meinem P35 auch so.

Ansonsten haste recht, bis 8 Threads mal ordentlich ausgenutzt werden vergeht wohl noch einige Zeit.

Echt ne Schande dieser technische Stillstand. Passt aber ansonsten leider in die heutige Zeit.

Ex3cut3r
2015-11-10, 20:55:25
Was ist euer Problem? Mit nem i7 hat man schon heute teilweise erhebliche mehr FPS. (BF4, GTAV, Crysis 3, Dead rising 3) Und in naher Zunkunft wird DX12 wohl auch mit mehr als 4 Threads besser umgehen können. Ihr macht so als wären wir im Jahre 2008.

robbitop
2015-11-11, 12:48:35
Wesentlich (für uns Enthusiasten) wäre, dass nicht nur GT4e für Desktop kommt, sondern dass dieser auch gleichzeitig einen offenen Multiplikator und kein TDP Hardlimit hat - man also mit gewohnten 4,5 GHz +eDRAM IPC Bonus hätte.
Ein feuchter Traum wäre das ganze dann kombiniert auf der E-Plattform (eDRAM + 6-8 Kerne). Aber das wird so schnell leider nicht kommen... :(

Mortalvision
2015-11-11, 13:40:18
Rate mal, wovon ich nachts so träume... So eine Plattform würde wieder 4-5 Jahre entwicklungsvorsprung für Intel bedeuten. Und obgleich ich dafür 1000-1200€ auf den Tisch legen würde, wäre es nicht gut für Intel, weil dann für ebensolange eine gewaltige Marktsättigung eintreten könnte, in der ich und andere Enthusiasten nichts mehr erneuern bräuchten außer ggf. GPU oder größere ssd

The_Invisible
2015-11-11, 16:12:26
Ein feuchter Traum wäre das ganze dann kombiniert auf der E-Plattform (eDRAM + 6-8 Kerne). Aber das wird so schnell leider nicht kommen... :(

Und ich habe schon von Broadwell-E + eDRAM geträumt, jetzt hast mich aber entäuscht ;D

Der HeinZ
2015-11-11, 20:43:52
Wenn die API´s noch Prozessor-effizienter werden, benötigt man demnächst nurnoch einen Q6600 für egal welche Grafikkarte. :)

Aber mich interessiert irgendwie dann doch wieder wie ein alter Phenom X4 oder ein Core2Quad sich bei DX12 schlägt.

Auf solch einen Test werde ich wohl ewig warten. :) Ist für mich aber spannender als Architekturen zu vergleichen, bei den sich bei Spielen nix großartiges tut.

svk
2015-11-21, 14:54:17
ich ömmel noch mit nem 6 jahre alten 1366er system rum,

mit 12Gb ram und nem xeon5660 reicht das für meine games noch völlig aus. das einzige aufrüsten was wirklich deutlich war in den letzten 3 jahren waren die SSD´s und ne aktuelle graka. Der xeon hat im vergleich zum ursprünglichen i7 920 D0 ne deutliche Temperaturverringerung und bessere Übertaktbarkeit gebracht. Hatte den 920er aber auch nicht geschliffen(denke er ist nicht plan). die 6 kerne machen sich in aktuellen multithreadspielen deutlich bemerkbar.
Ausgetestet wie weit der xeon geht habe ich aber nicht weil kein bedarf besteht. Einzige schwachstelle ist der speichertakt (pc2133 LV). 1600Mhz macht der problemlos dann wird er aber zickig :cool: (evtl. ne einstellungssache der speicher spannungen > aber stunden rumtesten wegen 0,5% mehrleistung lohnt nich) der alte 920er machte ohne murren 2000Mhz mit. sogar die 2133 nahm der an aber durch das FSB takten hatte ich da keinen sinnvollen teiler mehr. vom gefühl her sind schneller latenzen @1600 auch irgendwie flockiger als CL11 @ 2000MHz

in witcher3 hat der xeon@3,7Ghz (is noch gut luft nach oben) ne gesamtauslastung von 30%, witcher3 läuft hauptsächlich auf 6 threads(hauptkerne) und lastet die im schnitt mit 40-60% aus. einzelne spitzen gehen auf 70-80%.

das einzige wo es bissel hakt sind alte singelthread spiele wie ARMA2 Dayz Origins. Das rattert volle power nur auf einem Thread:freak:
allerdings kann es da auch noch an der serverlast usw. liegen

Als messgröße für singelpower(höhe der übertaktung) nutze ich seit ner weile WOT , nutzt fast nur einen Kern. mit den 3,7Ghz liegt die Last bei dem kern zwischen 75-85%mit Spitzen an die 90% aber nicht darüber.
Falls mit nem größeren Patch das mal steigen(ständige Last um 90% mit Spitzen an 100%) sollte wird die Übertaktung angepasst.

wollte ursprünglich dieses Jahr neues grundsystem bauen aber es lohnt einfach nicht weil die deutliche Mehrleistung fehlt zu meiner alten kiste:biggrin:

allerdings kann ich nicht auf DX12 aka win10 wechseln. theoretisch funzt es aber microsft gibt an X58 Chipsatz mit SSD auf win10 geht nicht.
Es gibt auch keine Treiber für win8.1. und kein Microsoft Mediacenter (brauch das für uralte TV-karte lol ) für win10.Also bleib ich bei win7:wink:

selbst mein neueres schleppi mit usb3.0 sata6 usw. von ende 2011 hatte anfangsprobs mit win10. da habe die win7 bzw. in win10 enthalten treiber nicht mit arbeite wolle. ich musste die win8.1 treiber installieren damit es richtig lief:eek:

Alter Sack
2016-02-27, 14:24:44
Habe jetzt doch (zwangsweise) aufdgerüstet.
Mein i7-2600k@16GB-RAM hatte die letzten Tage öfters mal einen bluescreen mit non_page_fault Meldungen.

Der neue ist ein i7-6700k @ 16 GB DDR4-3000. Rein vom Gefühl her zuckt es beim öffnen des Firefox deutlich weniger. Ansonsten konnte ich bisher beim zocken (BO3) noch keinerlei Vorteile sehen.

Nightspider
2016-02-27, 14:54:45
BO3 = CoD Black Ops 3? Das braucht auch kaum CPU Leistung. Das schafft ja sogar ein moderner DualCore mit Leichtigkeit.

Teste mal CPU intensive Spiele.

Hast du den 6700K schon übertaktet?

Alter Sack
2016-02-27, 20:34:03
BO3 = CoD Black Ops 3? Das braucht auch kaum CPU Leistung. Das schafft ja sogar ein moderner DualCore mit Leichtigkeit.

Teste mal CPU intensive Spiele.

Hast du den 6700K schon übertaktet?

Ne, OC habe ich noch nicht gemacht.
Meinen vorherigen 2600k hatte ich auch noch nie übertakten. Sowohl der 2600k, als auch der 6700k haben ja von Haus aus schon sehr viel Leistung.
Das letzte mal, dass sich OC lohnte, war beim Q6600, bei mir immer mit 3 Ghz lief (2,4Ghz war standard). Mir gehts beim 6700k auch nicht um Leistung oder Auslastung.
Mein oller 2600k hat mich knapp 5 Jahre begleitet und wäre da nicht das Speicherproblem gewesen, hätte ich den 2600k noch mind. 1 Jahr weiter genutzt.
Wenn die Entwicklung so (lahmarschig) weiter geht, werde ich den 6700k wohl auch mind. 5 Jahre nutzen, wenn da vorher nix kaputt geht.

labecula
2016-02-27, 21:45:12
Ich war auch am Hin- und Her überlegen mein Sandy 2500k läuft ohne Probleme auf 4,5Ghz hab 24 Gig Ram im Rechner verbaut und eine Nvidia GTX 670 zocke aber immer weniger, wenn dann nur DOTA 2 und das läuft auf 1920x1200 mehr als flüssig.

Mehr CPU Power wird höchstens für die Foto und Video Bearbeitung gebraucht, das steht aber alles nicht im Verhältnis zum Kostenaufwand außerdem würde ich jetzt einen i7 nehmen.
Also abwarten und Tee trinken, bis nächsten Herbst/Winter im Sommer rüste ich keinen Rechner auf.

Hmm, so langsam kribbelts bei mir auch. Aber auch hier ist der kosten/Nutzen noch eine Bremse, die mich abwarten lässt. Mein 2600K auf derzeit 4.2 hält tapfer durch, kommt in keinem Game ans Limit. Die 980 ohne Ti kratzt eh bei aktuellen Games an der Grenze ihrer Leistungsfähigkeit und ist letztlich immer der limitierende Faktor. 1-3% gehen unter gewissen Umständen auch noch auf PCIe 2.0 zurück, aber damit kann ich auch leben. Eine ebenbürtige Ivy für PCIe 3.0 ist ja preislich immer noch in Bereichen, dass sich das nie gelohnt hatte.

Zum einen käme nur ein aktueller i7er mit K in Frage was ja nicht wirklich billig wird, inkl. Mobo und RAM kommt schon was zusammen. Die 980 ist auch so eine Sache. Da ist dann ja in Bälde Pascal. Verdammte Axt, eine echte Zwickmühle...

Bin absolut unsicher wie ich vorgehen soll, zumal mein Budget die kommende Zeit etwas beschränkt ist. Achja und dann sehe ich ja noch kommende 8Kerner und habe etwas Angst, für einen aktuellen 4er dann letztlich im verhältnis zuviel ausgegeben zu haben.. Menno ;-)

labecula
2016-02-27, 21:49:00
Mein i7-2600k (ich übertakte nicht) ist mittlerweile 4,5 Jahre alt. Also wärs eigentlich als PC-Enthusiast höchster Zeit aufzurüsten.
Der i7-6700k hat eine TDP von 95 Watt... also identisch zu meinem i7-2600k. Wollte aber eigentlich ehern 65 Watt TDP im Gehäuse (die 30 Watt Mehrverbrauch kann ich als SIlent-Case Besitzer dann ehern ins Thermal-Budget der Grafikkarte einrechen ;) .

Die Frage wäre, inwiefern sich ein Upgrade von i7-2600k (kein OC) auf einen i7-6700 (nonK) rechnen würde. Habe jetzt im Netz auf die Schnelle nirgends einen Vergleichstest gefunden.

Aktuell stehe ich aber ehern auf dem Standpunkt noch abzuwarten. Wenn man überlegt, dass zwischen 2600k und 6700 4-5 Jahre liegen und man aktuell vielleicht nur max. 30-40% Mehrleistung bekommt (und diese ggf. beim zocken gar nicht wirklich braucht), kommt man schon ins Grübeln.

Deine Sig sagt ja nun, Du hast doch aufgerüstet. Dann erzähl mal ganz ehrlich, ob es sich sowohl in Sachen Leistung als auch kosten gelohnt hat oder auch nicht!

dildo4u
2016-02-27, 22:34:08
Is It Time To Upgrade Your Core i5 2500K ?

https://youtu.be/frNjT5R5XI4

Should You Upgrade From Core i5 2500K to i7 3770K?

https://youtu.be/2ZxZiksWtRQ

Schneller Ram und OC holt noch einiges raus.

woodsdog
2016-02-27, 22:55:50
Is It Time To Upgrade Your Core i5 2500K ?

https://youtu.be/frNjT5R5XI4

Should You Upgrade From Core i5 2500K to i7 3770K?

https://youtu.be/2ZxZiksWtRQ

Schneller Ram und OC holt noch einiges raus.

verglichen mit dem Fortschritt in den 2000er jahren sind das absolut lächerliche Vorteile 2xxxK vs 6xxxK. man man man... ;(

Knuddelbearli
2016-02-27, 23:01:55
Und vor allem auch wozu für 10% 600€+ ausgeben? Sofern man nicht gerade ein 120 fps display hat bringt eine bessere gpu bei geringeren kosten weit mehr.

Nightspider
2016-02-27, 23:22:46
Und vor allem auch wozu für 10% 600€+ ausgeben? Sofern man nicht gerade ein 120 fps display hat bringt eine bessere gpu bei geringeren kosten weit mehr.

Verallgemeinerung for its best. :rolleyes: Was willst du uns mit deinem überflüssigen Post mitteilen?

10% von wo? Einem 4790K? Manchmal vielleicht.

Von Sandy Bridge kriegst du deutlich mehr als 10% und wenn du auf die CPU Leistung nicht angewiesen bist brauchst du hier auch nicht wirklich mitreden.
Also manchmal... :rolleyes:

Zumal AMD GPU Besitzer einen noch deutlich größeren Unterschied bekommen. Digitalfoundry sollte lieber gleich alle CPU Tests mit AMD Grafikkarte machen weil man da viel schneller im CPU Limit ist als mit einer Titan X.

Knuddelbearli
2016-02-28, 00:06:13
Is It Time To Upgrade Your Core i5 2500K ?

https://youtu.be/frNjT5R5XI4

Should You Upgrade From Core i5 2500K to i7 3770K?

https://youtu.be/2ZxZiksWtRQ

Schneller Ram und OC holt noch einiges raus.


Ja und 4 Threads mehr toller Vergleich ...

@ Nightspider ich bezog mich auf den Post, also 2500K Basis, also verallgemeinere ich da gar nichts ...

Und mehr Singlethread und Multithread Leistung würde ich sofort mit Handkuss nehmen, bei den ganzen Indys und Simulationen die ich Spiele. Die paar Prozent sind mir aber nicht den Aufpreis wert.

Nightspider
2016-02-28, 00:12:53
Wenn du meinst ein 6700K bringt dir nur 10% von einem 2500K dann lebst du in einer anderen Welt oder schaust die andere Tests an als ich.

Und wenn du im GPU Limit bist bringt dir auch eine CPU nichts die 100% schneller ist.

Eines von beidem trifft auf dich zu. 10% gibts einfach nicht das ist Bullshit.

Hübie
2016-02-28, 02:13:20
Ganz so einfach ist das nicht. Im Mittel, bei ~4 GHz, sind es vielleicht ~15%. Schau dir mal das Video von DF an. Sagt eigentlich alles. Man kann jetzt Ausreißer benennen und das Label "bis zu" dran hängen. Aber das mindert weder die Kosten, noch ändert es knuddelbearli seine Aussage, die ja nicht ganz falsch ist.
Definierst du GPU-Limit anhand der Prozente im Graphen? Das sagt eigentlich nicht viel aus. Es kann also dennoch sein, dass eine GPU mit einer modernen CPU noch mal an Leistung gewinnt, obwohl die vorher schon auf 100% lief. Das habe ich aber nie untersucht und ist jetzt mal rein spekulativ.

aufkrawall
2016-02-28, 02:18:37
Ich würd auch nicht den Effekt besserer Engines außer Acht lassen. Dice, Ubisoft und Oxide haben in letzter Zeit schon ziemlich beeindruckende Arbeit geleistet, was die CPU-Ausnutzung anbelangt.

Hübie
2016-02-28, 02:20:49
Das stimmt. Sehe hier 12 Thread fleißig arbeiten. Muss auch mal die Chrome-Engine von Dying Light loben. Läuft extrem gleichmäßig und sieht sehr gut aus. :up:

Knuddelbearli
2016-02-28, 02:45:35
Wenn du meinst ein 6700K bringt dir nur 10% von einem 2500K dann lebst du in einer anderen Welt oder schaust die andere Tests an als ich.

Und wenn du im GPU Limit bist bringt dir auch eine CPU nichts die 100% schneller ist.

Eines von beidem trifft auf dich zu. 10% gibts einfach nicht das ist Bullshit.

Wer vergleicht hier einen 6700K mit einem 2500K .... Also echt lesen kannst du? Ich habe sogar geschrieben das ich mich auf dem Videovergleich mit dem 2500k vs 3770K bezog!

Und wenn du im GPU Limit bist bringt dir auch eine CPU nichts die 100% schneller ist.

Und die Aussage ist einfach Blödsinn zum Quadrat. Eine 100% Last gibt es eigentlich nie in Spielen, egal ob CPU oder GPU ( außer man zockt mit einem I7 auf der IGP einen modernen Shooter auf max, oder in 480p mit einem normalen System, und ganz wenige Spezialfälle wie Indy Simulationsspiele )

aufkrawall
2016-02-28, 02:50:04
Hö? Bin in WQHD fast immer vollständig GPU-limitiert, in vielen Spielen sogar zu 100%.

Knuddelbearli
2016-02-28, 02:54:59
wirklich 100% so das auch eine doppelt soschnelle CPU nichts bringt?

Aber ok könnte sein ging mir ja vor allem um CPU Limit habe es nur im edit dann doch auf beides ausgeweitet.

aufkrawall
2016-02-28, 03:05:20
wirklich 100% so das auch eine doppelt soschnelle CPU nichts bringt?

Ja, in The Division oder Battlefront bin ich sogar in 720p sehr häufig GPU-limitiert.
Die GPU-Anforderungen sind teilweise auch recht stark gestiegen.

Nightspider
2016-02-28, 03:38:19
Ganz so einfach ist das nicht. Im Mittel, bei ~4 GHz, sind es vielleicht ~15%. Schau dir mal das Video von DF an. Sagt eigentlich alles. Man kann jetzt Ausreißer benennen und das Label "bis zu" dran hängen. Aber das mindert weder die Kosten, noch ändert es knuddelbearli seine Aussage, die ja nicht ganz falsch ist.
Definierst du GPU-Limit anhand der Prozente im Graphen? Das sagt eigentlich nicht viel aus. Es kann also dennoch sein, dass eine GPU mit einer modernen CPU noch mal an Leistung gewinnt, obwohl die vorher schon auf 100% lief. Das habe ich aber nie untersucht und ist jetzt mal rein spekulativ.


Das die reine CPU Leistung schon um viel mehr als 15% gestiegen ist sieht man ja schon alleine daran das ein Skylake DualCore in diversen Games so schnell ist wie ein Sandy Bridge QuadCore.

Ich weiß auch nicht wie oft das Thema wiedergekaut werden muss aber es gibt genug Videos von DF welche Abstände irgendwo zwischen 30-40% bei BF4 sogar bis zu 60% zeigen zwischen Sasndy Bridge und Skylake - und das selbst in 1080p. Das hat auch nichts mit kurzen Peak-Szenarien zu tun denn selbst wenn du diese weglässt sieht man noch oft genug Vorteile irgendwo zwischen oben genannten 30-40%. In niedrigeren Auflösungen wären die Unterschiede noch größer.

Es ist einfach absurd nur von 15% zu sprechen wenn es um die Leistung von Skylake geht im Vergleich zu Sandy Bridge.
Klar bleiben die größten Abstände im Durchschnitt auf der Strecke aber das liegt vor allem daran weil nicht alle Szenen viel CPU Leistung benötigen und weil in manchen Szenarien doch die GPU limitiert.
Nur weil viele Spiele in vielen Szenen wenig CPU Last erzeugen bedeutet das nicht das Skylake kaum schneller ist als eine alte CPU.

Man muss einfach differenzieren können ob man selbst die Grafik bis auf Anschlag dreht und meist im GPU Limit ist oder die Grafik gern herunterschraubt um stabile 120-144fps zu erreichen.

Das Erstere viel seltener die Vorteile einer Skylake Architektur spüren werden ist logisch.
Nur weil ein 6700K nicht all sein Können ausspielen kann in aktuellen Games heißt das nicht das er nur deine angeblichen 15% schneller wäre.
Es hat sich in der Vergangenheit doch genauso immer wieder gezeigt das die Abstände zwischen den CPUs größer wurden, je schneller die Grafikkarten wurden.

Deswegen ist der einzig sinnvolle Weg CPUs zu testen, die Tests mit reduzierter Auflösung durchzuführen.

Wer eine GTX960 oder etwas in der Richtung hat braucht sich auch keinen Skylake Prozessor zu kaufen.

Wer vergleicht hier einen 6700K mit einem 2500K .... Also echt lesen kannst du? Ich habe sogar geschrieben das ich mich auf dem Videovergleich mit dem 2500k vs 3770K bezog!

Du hast geschrieben du nimmst den 2500K als Basis und hast einen Post zitiert in dem ein Video verlinkt war wo ein 2500K mit einem Skylake QuadCore verglichen wurde.

Dann zitiert entweder ordentlich oder stelle es wenigstens bei der Klarstellung richtig. :rolleyes:

Und wenn du im GPU Limit bist bringt dir auch eine CPU nichts die 100% schneller ist.
Und die Aussage ist einfach Blödsinn zum Quadrat. Eine 100% Last gibt es eigentlich nie in Spielen, egal ob CPU oder GPU ( außer man zockt mit einem I7 auf der IGP einen modernen Shooter auf max, oder in 480p mit einem normalen System, und ganz wenige Spezialfälle wie Indy Simulationsspiele )

Was soll daran Blödsinn sein? Wenn auch nur einige kurze Momente der Testaufnahme im GPU Limit sind wird der Durchschnitt der CPU-Abstände total verfälscht weil die Abstände sofort gegen Null gehen.
Deswegen sagen Durchschnittswerte bei Messungen in 1080p auch nur bedingt etwas aus, stark abhängig davon welche Grafikkarte verbaut ist.

Wenn du also ordentliche Tests machen willst sollten diese mit reduzierter Auflösung durchgeführt werden. Dazu muss du nicht mal so drastisch auf 480p heruntergehen. Da reicht meist schon 720p aus bei einer aktueller 980ti.

wirklich 100% so das auch eine doppelt soschnelle CPU nichts bringt?

Glaubst du Ernsthaft es würde einen großen Unterschied machen wenn die GPU nur zu 70% der Zeit auf 100% laufen würde?

Dann würden die 70% der Zeit, in welcher die GPU auf Anschlag läuft, den Vorteil der doppelt so schnellen CPU im Durchschnitt extrem nach unten drücken und im Durchschnitt wäre die doppelt so schnelle CPU nur noch 30% schneller.

Deswegen sind Durchschnittswerte eben nur bedingt aussagekräftig und teilweise einfach nur für die Tonne. Die meisten Websiten wissen doch gar nicht wie man sinnvoll CPUs testet und wie man die Ergebnisse ordentlich auswertet und mit vernünftigen Erklärungen zu Papier bringt.

Genauso wie das Gesamtrating bei Computerbase durch Spiele total zerissen wird, welche auf allen CPUs nahezu gleiche fps zahlen liefern und selbst in 720 noch extrem im GPU Limit sind weil entweder kaum CPU Last (CoD MW) oder zu hohe GPU Last (Witcher 3) erzeugt wird.

Aus diesem Grund sind Gesamtratings imo total für die Tonne. Man müsste für jedes Spiel extra Settings raussuchen um die Abstände abbilden zu können.
Traurig ist das dann wieder Pseudoexperten kommen und meinen das zu niedrige Auflösungen realitätsfern wären. Dann müsste man entsprechende Games eben komplett aus dem Parkour werfen oder akzeptieren das solche Gesamtratings / Gesamtdurchschnittswerte für die Tonne sind.
Es gibt nur einen Weg CPUs richtig zu vermessen: Indem man die Umgebung so anpasst bis sich die Unterschiede aufzeigen und die Ergebnisse dann sinnvoll in eine Kaufberatung einfließen lässt.

Nur weil eine CPU unter niedriger Auflösung viel schneller erscheint heißt dies ja nicht zwangsläufig das diese automatisch eine Kaufempfehlung darstellt. Man muss die Leistung eben korrekt im Kontext, abhängig von der Grafikkarte, den Grafiksettings und den gewünschten fps, einordnen.
Diese differenzierte und weniger oberflächliche Betrachtungsweise fehlt mir hier etwas im Forum.

Mich ärgert dann das in einem Hardwareforum wie dem 3DCenter viele immer von irgendwelchen Durchschnittswerten faseln, die Einzelheiten nicht kennen und dann alles verallgemeinerte Fakten hinstellen.

Was glaubt ihr wie oft hier damals im Forum geschrieben wurde das Haswell nur 5-10% bringen würde? Wenn du dir heute mit paar aktuellen Games und Grafikkarten CPUs Tests anschaust liegt ein 4770K öfter mal 20% vor einem 3770K.
Mich regen diese unqualifizierten Hobbyhater ohne Weitblick einfach nur noch auf.
Das Gleiche wird auch bei Skylake passieren mit neuen Games und schnelleren Grafikkarten: Der Abstand zu Haswell wird noch größer!

Knuddelbearli
2016-02-28, 05:32:41
Du hast geschrieben du nimmst den 2500K als Basis und hast einen Post zitiert in dem ein Video verlinkt war wo ein 2500K mit einem Skylake QuadCore verglichen wurde.

Dann zitiert entweder ordentlich oder stelle es wenigstens bei der Klarstellung richtig. :rolleyes:




Nur ist dort nirgends ein Skylake sondern nur ein 3770K Ivy

Edit: Ok sehe gerade im ersten Video ist auch von einem Skylake Quadcore die Rede wo es Anfang des Videos aber nur um den 2500K ging. Genau deshalb hasse ich solche Videotests ... Nichtmal in der Überschrift wird der erwähnt ...


Und ja Gesamt FPS bzw Durchschnittsfps sind Schrott reduzierte Auflösung und min FPS aber genauso ...
Das Sinnvollste ist ein Verlaufsdiagramm wie es zB Toms bzw Igor oft anbietet. Nur leider in viel zu kleinen Bildern ^^

Den toll wenn zB COD in geringer Auflösung die CPU +70% bringt wenn es dann in 1440p 0% sind und die CPU sogar runtertaktet. Oder zB Battlefield wo man 100 vs 120 fps hat aber 99,9% der User nur einen 60 Hz Monitor haben. Im Verlaufsdiagramm sieht man dann aber schön ob auch ein 60 hz Monitor profitiert da die FPS mal auch da drunter fallen, mit der schnelleren CPU aber nicht. Bei Test mit geringer Auflösung sieht man das nicht. Aber das verstehen manche Leute einfach nicht und loben die auch so schwachsinnigen Tests in geringer Auflösung ...

Ein Schwachsinn mit einem anderen Schwachsinn austreiben ist einfach Schwachsinn zum Quadrat ^^

Ebenso wie der Schwachsinn vor ein paar Jahren als alle min FPS hochgejubelt haben ..

Nightspider
2016-02-28, 06:08:35
Den toll wenn zB COD in geringer Auflösung die CPU +70% bringt wenn es dann in 1440p 0% sind und die CPU sogar runtertaktet.

Genau da liegt das Problem bei Leuten wie dir!
Die CPU wird in 1440p ja nicht langsamer, sie kann nur ihr Potential nicht zeigen und wird deswegen schlechtgeredet.

Wer in 1440p spielt und vllt nicht mal eine HighEnd Grafikkarte hat braucht auch keinen Skylake Prozessor.

Und nur weil solche Leute keinen Skylake Prozessor benötigen heißt das nicht das Skylake nicht viel von Sandy Bridge bringen würde.

Es spricht also nichts dagegen Spiele in niedrigen Auflösungen zu testen. Es muss dann nur eben bei der Auswertung bzw. Kaufberatung darauf hingewiesen werden das Skylake bzw. ein neuer Prozessor nicht viel bringt wenn die Grafikkarte meist auf 100% Auslastung läuft und man somit im GPU Limit ist.

Oder zB Battlefield wo man 100 vs 120 fps hat aber 99,9% der User nur einen 60 Hz Monitor haben. Im Verlaufsdiagramm sieht man dann aber schön ob auch ein 60 hz Monitor profitiert da die FPS mal auch da drunter fallen, mit der schnelleren CPU aber nicht. Bei Test mit geringer Auflösung sieht man das nicht. Aber das verstehen manche Leute einfach nicht und loben die auch so schwachsinnigen Tests in geringer Auflösung ...[/B]

Genauso ist es völlig Wurst ob ein Spieler einen 60Hz Monitor hat oder 120Hz Monitor und ob es 100 oder 120fps sind.
Deswegen wird die CPU nicht schlechter!

Und wieso sollte man in niedriger Auflösung nicht sehen ob die fps wegen einer zu schwachen CPU unter 60fps fallen? Das sieht man da genauso.
Oder meinst du das man nicht sieht ob die GPU zu langsam ist? Dann müsste man das in einem seperaten GPU Test herausfinden was wieder nichts mit der CPU Leistung an sich zu tun hätte!

Und bzgl Verlaufsdiagramme: Diese sind eine gern gesehene Ergänzung aber zeigen alleine auch oft nur ein buntes Chaos. Gerade wenn da 5 oder mehr Verläufe übereinandergelegt sind lässt sich nicht mehr viel erkennen, schon gar keine absoluten Abstände (wenn nicht zufällig das Diagramm hochauflösend ist und man mit der Lupe davorsitzt)

Aber genau für solche Fälle sind die Videos von DF doch sehr gut brauchbar. Man sieht wie tief die fps in bestimmten Situationen fallen, wie lange diese Tiefs andauern und wodurch diese verursacht wurden. Und man kann bei Bedarf jederzeit das Video stoppen und die exakten Werte vergleichen.

Ein Schwachsinn mit einem anderen Schwachsinn austreiben ist einfach Schwachsinn zum Quadrat ^^

Du hast meiner Meinung nach immer noch keinen stimmigen Grund genannt warum das CPU-Testen in niedrigen Auflösungen Schwachsinn ist.
Solange der Kontext bei der Auswertung klar erkennbar ist und dem geneigten Leser nicht versucht wird die CPU mit diesen Werten zu verkaufen ist das die sinnvollste Methode um die echten Differenzen zwischen den Architekturen zu ermitteln.
Das ist der einzig sinnvolle Weg. Ansonsten kannst du gleich alle CPU-Tests wegschmeißen und ein Schild um den Hals tragen das du sowieso immer (öfter) im GPU Limit bist. Dann hast du aber auch nichts in einer solchen CPU- Diskussion verloren meiner Meinung nach.
Alles andere sind (durch GPU Limits (temporär) verursachte) Verfälschungen von Tatsachen


Ebenso wie der Schwachsinn vor ein paar Jahren als alle min FPS hochgejubelt haben ..

So lange die min_fps Werte nicht absurd von den anderen Werten abweichen sind sie noch immer ein wichtiger Indikator für die Leistung und meist aussagekräftiger als die Durchschnitts-FPS.

Edit:

Es geht ja bei einem ordentlichen CPU Test alleine darum die Leistung der CPU zu ermitteln.

Ob diese Leistung dann durch die Umgebung (Grafiksettings / Grafikkarte usw) verändert wird ist doch für den echten CPU Test völlig egal und sollte deshalb auch niemals berücksichtigt werden. Deshalb: runter mit der Auflösung!

Oder willst du dem interessierten Testleser etwa vorschreiben in welcher Auflösung er zu spielen hat? Was ist wenn der Leser in einer niedrigeren Auflösung spielt und sich wundert das er nicht mehr fps bekommt trotz starker Grafikkarte obwohl du ihm als Tester verkauft hättest das seine CPU nicht zu langsam ist und ihn nicht ausbremst?
Natürlich sollte dem Leser bei einem Test mit reduzierter Auflösung auch klar gemacht werden das die Unterschiede so nicht eintreten werden solange die Grafikkarte ausbremst.

Und nur weil einige lernresistente Individuen Tests mit niedrigen Auflösungen nicht zu deuten verstehen muss sich doch die exakte Wissenschaft nicht der Unwissenheit beugen.

Knuddelbearli
2016-02-28, 07:10:44
Genau da liegt das Problem bei Leuten wie dir!
Die CPU wird in 1440p ja nicht langsamer, sie kann nur ihr Potential nicht zeigen und wird deswegen schlechtgeredet.

Wer in 1440p spielt und vllt nicht mal eine HighEnd Grafikkarte hat braucht auch keinen Skylake Prozessor.

Und nur weil solche Leute keinen Skylake Prozessor benötigen heißt das nicht das Skylake nicht viel von Sandy Bridge bringen würde.

Es spricht also nichts dagegen Spiele in niedrigen Auflösungen zu testen. Es muss dann nur eben bei der Auswertung bzw. Kaufberatung darauf hingewiesen werden das Skylake bzw. ein neuer Prozessor nicht viel bringt wenn die Grafikkarte meist auf 100% Auslastung läuft und man somit im GPU Limit ist.

COD habe ich genommen da dort bei normal zusammengestellten PCs man immer im GPU Limit ist da COD bei der CPU absolut Anspruchlos. Natürlich kann man mit niedriger Auflösung trotzdem Szenarien generieren wo CPU A 70% schneller ist. Nur werde ich davon niemals irgendwas merken.



Genauso ist es völlig Wurst ob ein Spieler einen 60Hz Monitor hat oder 120Hz Monitor und ob es 100 oder 120fps sind.
Deswegen wird die CPU nicht schlechter!

nein die CPU wird nicht schlechter aber ein CPU Upgrade bringt nichts da man nichts davon merkt. Aber guck mal nach worum es hier im Thread geht! Er heißt nicht "Ist Skylake schneller als Sandy Bridge". Sondern es geht darum ob ein Aufrüsten lohnt. Und da kann man nur das hier und jetzt bewerten da man nicht weiss wie sich die Zukunft entwickelt. Gerade mit DX12 vor der Tür.


Und bzgl Verlaufsdiagramme: Diese sind eine gern gesehene Ergänzung aber zeigen alleine auch oft nur ein buntes Chaos. Gerade wenn da 5 oder mehr Verläufe übereinandergelegt sind lässt sich nicht mehr viel erkennen, schon gar keine absoluten Abstände (wenn nicht zufällig das Diagramm hochauflösend ist und man mit der Lupe davorsitzt)


Das liegt aber nicht an der Verlaufsdiagrammen sondern an der Umsetzung der Seiten. Im Idealfall sind die interaktiv, man kann CPUs / GPus dazuwählen oder abwählen und reinzoomen.


Aber genau für solche Fälle sind die Videos von DF doch sehr gut brauchbar. Man sieht wie tief die fps in bestimmten Situationen fallen, wie lange diese Tiefs andauern und wodurch diese verursacht wurden. Und man kann bei Bedarf jederzeit das Video stoppen und die exakten Werte vergleichen.


ja so ein Video ist aber im Prinzip einfach ein Verlaufsdiagramm. Nur muss man da das ganze Video gucken damit man sieht wo die Stelle ist wo die FPS am meisten absinken bzw die neuere CPU schneller ist. Eventuell muss man es sogar mehrmals gucken. bei einem Verlaufsdiagramm siehste das auf einen Blick und analysierst dann sofort die Stelle weiter.


Du hast meiner Meinung nach immer noch keinen stimmigen Grund genannt warum das CPU-Testen in niedrigen Auflösungen Schwachsinn ist.
Solange der Kontext bei der Auswertung klar erkennbar ist und dem geneigten Leser nicht versucht wird die CPU mit diesen Werten zu verkaufen ist das die sinnvollste Methode um die echten Differenzen zwischen den Architekturen zu ermitteln.

genau das mit dem Kontext ignorierst du ( und auch viele andere ) durchgehend! Man kann immer nur die Leistung jetzt beurteilen, und man rüstet auf weill man jetzt mehr Leistung will und nicht irgendwann in paar Jahren wenn die Spiele entsprechend fordernder wurden. Solche Untersuchen sich nett als spezial oder als Architekturanalyse. helfen bei der Kaufentscheidung kaum weiter.
Das selbe auch bei Grafikkarten. Da hat man die letzten Generationen immer wieder gesehen das AMD Karten sich weit besser halten als gleich alte Nv Karten. Trotzdem kaufen jetzt nicht alle AMD oder man empfiehlt deshalb allen AMD. Den man will die Leistung jetzt, alles andere ist netter Bonus. Bei CPUs eventuell bisschen stärkerer Bonus da man sie Länger behält als GPUs aber trotzdem nur ein Bonus.


So lange die min_fps Werte nicht absurd von den anderen Werten abweichen sind sie noch immer ein wichtiger Indikator für die Leistung und meist aussagekräftiger als die Durchschnitts-FPS.
Tja nur sind die min FPS in vielen Spielen nicht reproduzierbar, außerdem kann da immer mal wieder eine anspringende Festplatte usw dazwischenfunken. Oder diese min FPS werden nur für einen Frame erreicht ( was abseits von Online ziemlich egal ist ). Oder zB eine CPU die immer wieder in die Richtung ausschlägt, die andere aber nur 1 einziges mal, sehen aber beide gleich aus bei den min FPS.



Und nur weil einige lernresistente Individuen Tests mit niedrigen Auflösungen nicht zu deuten verstehen muss sich doch die exakte Wissenschaft nicht der Unwissenheit beugen.

und deine durchgehenden Beleidigungen und Andeutungen sind einfach nur peinlich und zum fremd schämen ...

Alter Sack
2016-02-28, 10:07:41
Deine Sig sagt ja nun, Du hast doch aufgerüstet. Dann erzähl mal ganz ehrlich, ob es sich sowohl in Sachen Leistung als auch kosten gelohnt hat oder auch nicht!

Von der Mehrleistung ist bei mir bisher nichts spürbar angekommen, wobei ich nur BO3 und Doom 3 (2004!), sowie Alien Rage gezockt habe. Die Spiele sind jedoch wenig repräsentativ.
Leider ist der Grund meines aufrüstens (Kaltstart des PCs: non_page_error) wieder aufgetreten, so dass ich gar nicht aufrüsten hätte brauchen. Bin derzeit am neu installieren von Windows 10 und hoffe, dass es "nur" irgendein Treiberproblem war (habe ständig das Geräusch auswerfender USB-Geräte im Kopfhörer gehabt).
Könnte ich die Uhr nochmal zurückdrehen, hätte ich mit dem Upgrade auf alle Fälle noch gewartet (was aber nichts mit der Leistung des 2600k vs. 6700k zu tun hat, sondern einfach nur mit der Zeit, die mich das Ganze kostet).

Ob das Upgrade (unabhängig von meinem PC-Problem) lohnenswert ist, kann ich wohl erst in 2-4 Jahren sagen. Wenn Intel weiterhin die kommenden 4-5 Jahren nur 4-Kerner mit HT für den Mainstream-Markt, wäre der 6700k kein Fehlkauf gewesen, denn schneller DDR4-3000 RAM, PCIe3.0 und nativer USB3.0 Support machen sich dauerhaft dann doch positiv bemerkbar.

Das große Problem für uns Profizocker ist aber, dass 2/3 der Chipfläche für die integrierte Grafikeinheit auf dem Prozessor verblasen wird. Ich weiß jetzt nicht, wie hoch der Stromverbrauch im CPU-only-Betrieb ist, aber vielleicht wären 6-8 Kerne bei ebenfalls nur 91 Watt TDP drin gewesen (wobei es ja Haswell-E mit 6-8 Kernen ja eine deutlich höhere TDP von 140 Watt hat (die Haswell-E sind doch ohne GPU, oder?).
Traumhaft wäre eigentlich ein i7@14nm mit ca. 90 Watt TDP und 6 Kernen & HT bei ca. 3 bis 3,4 Ghz gewesen.

Alter Sack
2016-02-28, 10:33:34
Was meint ihr? Kommen die nächsten 2-3 Jahre Mainstream 6 Kerner von Intel?
Ich denke, dass die ihren 14nm Prozessor erstmal weiter mit 4 Core + HT ausreizen werden und hauptsächlich an der iGPU rumschrauben werden.

Mir geht´s nur darum, dass der Skylake keine Zwischenlösung ist und outdated ist, wenn 6-Kerner für den Mainstream kommen.

dildo4u
2016-02-28, 10:38:09
Die CPU Anforderungen werden nicht groß steigen so lange es keine neuen Konsolen gibt,eher werden sie sinken da sich DX12 langsam durchsetzen wird.

Lowkey
2016-02-28, 10:41:14
Ich rechne doch stark damit, dass der AMD Zen mit 8/16 auf den Markt kommt und in Konkurrenz zum i7 treten wird. Jetzt allerdings vermute ich eher eine neue Preisklasse oberhalb eines i7 und unterhalb eines 2011-3 Prozessors mit 8/16. AMD wird kaum einen 8/16 zum Preis des i7-6700k anbieten wollen. Letztlich ändern sich mit DX12 die Spielregeln für CPU und GPU.

dargo
2016-02-28, 10:51:51
Ich rechne doch stark damit, dass der AMD Zen mit 8/16 auf den Markt kommt und in Konkurrenz zum i7 treten wird. Jetzt allerdings vermute ich eher eine neue Preisklasse oberhalb eines i7 und unterhalb eines 2011-3 Prozessors mit 8/16. AMD wird kaum einen 8/16 zum Preis des i7-6700k anbieten wollen. Letztlich ändern sich mit DX12 die Spielregeln für CPU und GPU.
Wieso sollten sie wenn die CPU wesentlich schneller sein wird?

labecula
2016-02-28, 11:28:55
@AlterSack: Da gebe ich Dir recht, die iGPU ist die Pest. Warum es da keine Mainstream CPUs ohne diesen Rotz gibt, zugunsten von Kernen, Takt und/oder TDP... ich weiß es nicht... Keine Sau braucht den scheiß, besonders nicht wenn man einen i7 kauft.

Alter Sack
2016-02-28, 11:39:55
@AlterSack: Da gebe ich Dir recht, die iGPU ist die Pest. Warum es da keine Mainstream CPUs ohne diesen Rotz gibt, zugunsten von Kernen, Takt und/oder TDP... ich weiß es nicht... Keine Sau braucht den scheiß, besonders nicht wenn man einen i7 kauft.

Die Frage ist alt, ob die 4 Core + HT im i7 den TDP von 95 Watt wirklich brauchen, oder ob die reine CPU-Vollast für mehr Kerne ausgereicht hätte.
Deswegen ja die Frage wg. Haswell-E, welcher bei 6 Kernen ohne iGPU ja eine TDP von 140 Watt hat.

Mal ne andere Frage in die Runde:
Was meint ihr wie zukunftssicher der Z170-Chipsatz ist, bzw. ob es für diesen Chipsatz ein 6-Core CPUs geben wird?

dargo
2016-02-28, 11:42:51
Mal ne andere Frage in die Runde:
Was meint ihr wie zukunftssicher der Z170-Chipsatz ist, bzw. ob es für diesen Chipsatz ein 6-Core CPUs geben wird?
Vergiss das gleich schnell wieder. ;) Sowas wie Zukunfssicherheit gibt es bei Intel nicht, die wollen ja auch Chipsätze verkaufen.

tdon
2016-02-28, 12:01:26
@AlterSack: Da gebe ich Dir recht, die iGPU ist die Pest. Warum es da keine Mainstream CPUs ohne diesen Rotz gibt, zugunsten von Kernen, Takt und/oder TDP... ich weiß es nicht... Keine Sau braucht den scheiß, besonders nicht wenn man einen i7 kauft.


Schwachsinn. Es gibt viel mehr Leute, die den Scheiß brauchen als du glaubst, das ist schon ein großer Nachteil für AMD. Insbesondere wenn sie damit Preisbereiche unter 200€ abdecken wollen. Das gilt es mit zu berücksichtigen beim Preis.

dargo
2016-02-28, 12:12:24
Inwiefern ist das ein Nachteil für AMD? AMD bietet APUs schon länger an. Wo es AMD aktuell höchstens fehlt ist die Leistung vom CPU-Part. Mit Zen wird man ein großes Stück beirücken. Im GPU-Part ist AMD gegenüber Intel sehr gut aufgestellt. Man darf nicht vergessen, dass Intel aktuell zwei Fertigungsgenerationen vor AMD ist! Das wird sich mit Zen ändern.

iuno
2016-02-28, 13:54:48
Das ist ein Nachteil, weil RR wohl nochmal ein Jahr nach SR kommt.

Dass eine iGPU per se nicht gebraucht wird ist Unsinn. Tellerrand und so :rolleyes:

dargo
2016-02-28, 14:46:16
Das ist ein Nachteil, weil RR wohl nochmal ein Jahr nach SR kommt.

RR, SR? Ich kann mit den Abkürzungen nichts anfangen. :redface:

YfOrU
2016-02-28, 15:59:22
RR = Raven Ridge -> Zen 4C/8T SoC mit GPU
SR = Summit Ridge -> Zen 8C/16T SoC ohne GPU

Bis Raven Ridge gibt es bei AMD bezüglich CPUs mit integrierter GPU "nur" Bristol Ridge (Excavator 2M SoC mit GPU, 28nm). Also CPU Performance maximal auf Core i3 Niveau. Einen Vorsprung bei der GPU Performance (SKUs mit eDRAM ausgenommen) gibt es nur noch am klassischen Desktop mit entsprechender TDP. SFF und Mobile ist Skylake (HD 520) heute tendenziell flotter.


Deswegen ja die Frage wg. Haswell-E, welcher bei 6 Kernen ohne iGPU ja eine TDP von 140 Watt hat.

Die TDP Angabe von 140W ist für alle LGA 2011-3 Desktop CPUs gültig. Eine 6C/12T CPU wie der i7-5820K liegt natürlich deutlich darunter. Siehe: http://www.tomshardware.de/core-i7-5960x-haswell-e-cpu-prozessor-x99,testberichte-241630-8.html

Die 91W TDP bei LGA 1151 (Skylake) setzt Intel nur bei CPUs mit offenen Multiplikator an (wie i7-6700K). Ein kaum langsamerer i7-6700 hat dagegen 65W.

LGA 1151 CPUs mit mehr als 4C/8T wird es trotzdem nicht geben. Macht für Intel überhaupt keinen Sinn denn die hierfür produzierten Chips decken Mobile und Desktop ab. SKUs mit 6 oder 8C wären Desktop only und nicht mal ernsthaft für günstige/kompakte Server zu gebrauchen. Für den Bereich gibt es mit den Broadwell-DE SoCs bereits eine separate Produktlinie.

Alter Sack
2016-02-28, 16:35:57
Habe heute noch ein paar mehr Eindrücke sammeln können.

Was das benutzen des Systems angeht, läuft es ohne Microruckler, was ich speziell beim öffnen von z.B: Firefox oder Outlook 2016 merke und auch direkt nach dem Systemstart, wenn z.B. der Desktop bereits da ist, aber immer noch im Hintergrund geladen wird.

Beim BO3-zocken ist es so, dass hier ebenfalls die Microruckler deutlich seltener geworden sind und dann auch nicht so "heftig" ausfallen, wie noch zu 2600k-Zeiten.

Gefühlt würde ich das am ehesten auf DDR4-3000 und evtl. noch auf PCIe3.0 schieben, wobei natürlich auch die CPU 600 Mhz mehr Takt hat.

OB das Gründe für ein Upgrade von 2600k auf 6700k sind, muss jeder für sich selber entscheiden. Ich hätte wahrscheinlich nicht aufgerüstet, wenn nicht der Verdacht eines PC-Defekts im Raum gestanden hätte, wobei grob 30% mehr Rohleistung was die CPU angeht auch schon im spürbaren Bereich liegen dürfte.
Man ist halt was Fortschritt angeht noch von den letzten 25 Jahren v erwöhnt, wo man alle 5 Jahren mindestens 200-300% mehr Leistung bekommen hat.

Auf Skylake habe ich ja vorher schon gewartet, weil mich die 14nm Fertigung interessiert hat. Ich "hoffe" mal, dass mein 6700k noch sehr lange aktuell bleiben wird, was zwangsläufig bedeutet, dass Intel auch die kommenden Jahre weiterhin auf 4 Kerne + HT beim Desktop-Prozessor setzen wird.

dargo
2016-02-28, 16:48:55
@YfOrU

Richtige APUs wird es erst geben wenn man den Flaschenhals Bandbreite beseitigt. Diese ganzen eDRAM Lösungen von Intel sind nur Notlösungen. Für die Beseitigung des Flaschenhalses muss HBM (8-16GB) massentauglich sein. Das dauert noch ein wenig.

YfOrU
2016-02-28, 17:03:25
Die große Frage ist ob es dafür abseits von HPC überhaupt einen Markt gibt. Eine potente APU (->sehr flotte integrierte GPU) macht ansonsten nur bei Mobile und SFF Formaten wirklich Sinn.

Hier beträgt die TDP unter 45W bzw. heute im Regelfall sogar nur noch 15W. Eine richtig fette GPU ist da nicht integrierbar und ein paar MB eDRAM je nach SKU optional auf dem Package sind dann durchaus eine effiziente und kostengünstige Lösung.

Alter Sack
2016-02-28, 17:07:25
Die TDP Angabe von 140W ist für alle LGA 2011-3 Desktop CPUs gültig. Eine 6C/12T CPU wie der i7-5820K liegt natürlich deutlich darunter. Siehe: http://www.tomshardware.de/core-i7-5960x-haswell-e-cpu-prozessor-x99,testberichte-241630-8.html

Die 91W TDP bei LGA 1151 (Skylake) setzt Intel nur bei CPUs mit offenen Multiplikator an (wie i7-6700K). Ein kaum langsamerer i7-6700 hat dagegen 65W.

LGA 1151 CPUs mit mehr als 4C/8T wird es trotzdem nicht geben. Macht für Intel überhaupt keinen Sinn denn die hierfür produzierten Chips decken Mobile und Desktop ab. SKUs mit 6 oder 8C wären Desktop only und nicht mal ernsthaft für günstige/kompakte Server zu gebrauchen. Für den Bereich gibt es mit den Broadwell-DE SoCs bereits eine separate Produktlinie.

Die Frage wäre, ab wann 6C im Massenmarkt und vor allem auch beim zocken notwendig sein wird.

die 91 Watt TDP des 6700k beziehen sich vermutlich auch ein Stückchen weit auf dei schnellere iGPU (die ich als Zocker ja sowieso nicht nutze). Interessant wäre für mich, wie der tatsächliche Stromverbrauch (und dadurch die Wärmeentwicklung) im Vergleich zum 2600k dasteht.
Beide haben ja ähnliche TDP-Werte, aber der 6700k hat deutich kleinere Strukturen und die Chipfläche wird zu 2/3 für die iGPU genutzt. Der 6700k müsste demnach ja rein logisch gedacht deutlich weniger verbrauchen (also ohne Overclocking, was ich sowieso nicht mache), als der 2600k.

YfOrU
2016-02-28, 17:14:21
Siehe: (nur CPU Leistungsaufnahme, nicht Gesamtsystem)
http://www.tomshardware.de/skylake-intel-core-i7-6700k-core-i5-6600k-prozessoren,testberichte-241889-11.html

Der i7-6700K fällt hier komplett aus dem Rahmen aller 14nm CPUs und rauscht bei Vollast auch über die 100W Marke. Betrachtet man die anderen CPUs wie den i5-6600K oder den i7-5775C sind es gegenüber Ivy Bridge/Haswell gut 10W. Gegenüber SB entsprechend noch mehr. Hier muss man aber auch immer mit einkalkulieren das die Rechenleistung zugenommen hat. Würde man Skylake soweit zurückdrehen das am Ende die Leistung identisch ist wäre der Abstand ziemlich groß.

http://media.bestofmicro.com/5/3/515991/original/power_gaming.png

Nightspider
2016-02-28, 17:51:08
genau das mit dem Kontext ignorierst du ( und auch viele andere ) durchgehend! Man kann immer nur die Leistung jetzt beurteilen, und man rüstet auf weill man jetzt mehr Leistung will und nicht irgendwann in paar Jahren wenn die Spiele entsprechend fordernder wurden. Solche Untersuchen sich nett als spezial oder als Architekturanalyse. helfen bei der Kaufentscheidung kaum weiter.

Du schaffst es doch schon wieder nicht mal Kaufberatung und tatsächliche CPU Leistung auseinander zu halten.
Wenn du in deinen gewählten Spielen und Szenarien so gut wie gar nicht von einer neuen CPU profitierst wie "Alter Sack" mit Doom3 und CoD dann brauchst du doch sowieso keine neue CPU.

Und wenn du aufrüsten willst weil du einfach Lust drauf hast dann ist es ja wohl klüger zu schauen wie viel Leistung die neue CPU-Architektur schaffen kann, d.h. in Situationen wo sie wirklich ihre Leistung ausspielen kann.
Sonst könntest du ja gleich so dumm sein und dir einen 3770K kaufen weil die Benchmarks suggerieren das ein 6700k nicht schneller wäre.

Vor allem wenn man sieht das viele User ihre CPUs jetzt 4-8 Jahre haben ist es mehr als sinnvoll die Tests in niedrigen Auflösungen durchzuführen um daraus abzulesen wie groß die Abstände auch in Zukunft sein werden.
Damals haben sich alle über das 5-10% Leistungsplus von Haswell echauffiert und heute zeigen Benchmarks oft ein Plus von 20% oder mehr bei Haswell.
Wer damals nicht so dumm war und mehr Weitsicht hatte hat zu einem 4770K gegriffen anstatt zu einem günstigeren 3770K.

In meinem Freundeskreis haben damals auch Zwei einen 3770K gekauft als die ersten Tests zum 4770K erschienen sind weil die Versager von Gamestar und Co. zu blöd waren ordentliche CPU Tests zu machen.
Langfristig betrachtet haben sie also ~~20% Leistung verschenkt nur um 20-30 Euro zu sparen bei einem ~600 Euro Upgrade. :rolleyes:

Eine ordentliche Kaufberatung erstellt man aus exakten Fakten und Messungen der Hardware.
Wer die CPUs mit bescheuerten Settings testet, wo das System im GPU Limit ist, kann sich überhaupt keine exaktes Urteil erlauben, zumal eben Viele ihre CPUs eben nicht nur für das JETZT kaufen sondern für ++4 Jahre mit Tendenz zu 6-8 Jahren bei Einigen.

dargo
2016-02-28, 18:44:50
Die große Frage ist ob es dafür abseits von HPC überhaupt einen Markt gibt.
Ich sage ja. Langfristig werden dedizierte GPUs aussterben. Wenn du dir aktuell den Markt ansiehst wurde bereits der low-end Bereich bei dGPU komplett durch die APUs verdrängt. Der nächste Schritt ist das Performancesegment. Um das zu realisieren muss aber erstmal der Flaschenhals Bandbreite beseitigt werden. Dafür eignet sich HBM ideal, es muss nur günstiger werden.

Edit:
Skylake ist bereits afaik ca. 122mm² groß. Davon geht fast die Hälfe auf die iGPU. Jetzt stelle dir mal eine APU mit 250-300mm² vor was da so alles noch reinpasst.

aufkrawall
2016-02-28, 18:45:35
Langfristig werden dedizierte GPUs aussterben.
Das sieht selbst AMD anders...

Annator
2016-02-28, 19:39:17
Is It Time To Upgrade Your Core i5 2500K ?

https://youtu.be/frNjT5R5XI4

Should You Upgrade From Core i5 2500K to i7 3770K?

https://youtu.be/2ZxZiksWtRQ

Schneller Ram und OC holt noch einiges raus.

Mh das mit dem Speicher ist interessant. Bin bei 5 Ghz mit dem 2500k. Mein Speicher ist aber nur PC3-8500. Glaube ich rüste den nochmal hoch.

Botcruscher
2016-02-28, 21:33:36
Ich sage ja. Langfristig werden dedizierte GPUs aussterben.

Mit welcher APU-Technologie willst du denn GPUs am Temperatur, Technologie und Kostenlimit ersetzen?! APUs werden es nie über das billige Performance Segment schaffen. Dafür gibt es einfach keinen Markt.


Zum Video: Tomb raider hat da auf der 390 ganz andere Probleme als irgend ein angeblichen Treiberoverhead.

YfOrU
2016-02-28, 22:49:05
Skylake ist bereits afaik ca. 122mm² groß. Davon geht fast die Hälfe auf die iGPU. Jetzt stelle dir mal eine APU mit 250-300mm² vor was da so alles noch reinpasst.

Intels integrierte GPUs sind rein zufällig ziemlich exakt so groß das diese in die jeweiligen TDP Klassen von Mobile und SFF passen ohne das Einheiten deaktiviert oder die Taktfrequenzen drastisch reduziert werden müssen.

15W: 2C/4T mit 24 EUs
15 - 28W: 2C/4T mit 48 EUs + eDRAM
45W: 4C/8T mit 72 EUs + eDRAM

Im Umkehrschluss sind Intels integrierte GPUs bei den Desktop SKUs nicht viel schneller als deren mobile Gegenstücke. Ist aber schlussendlich auch egal denn wer hier eine deutlich flottere GPU braucht nimmt einfach eine dedizierte welche direkt um Faktoren schneller ist.

dargo
2016-02-29, 08:48:56
Intels integrierte GPUs sind rein zufällig ziemlich exakt so groß das diese in die jeweiligen TDP Klassen von Mobile und SFF passen ohne das Einheiten deaktiviert oder die Taktfrequenzen drastisch reduziert werden müssen.

15W: 2C/4T mit 24 EUs
15 - 28W: 2C/4T mit 48 EUs + eDRAM
45W: 4C/8T mit 72 EUs + eDRAM

Im Umkehrschluss sind Intels integrierte GPUs bei den Desktop SKUs nicht viel schneller als deren mobile Gegenstücke.
Das ist auch logisch. Wofür willst du mehr CUs investieren wenn diese die Leistung eh nicht auf die Straße bringen können? Das ist so als wenn du heute einen Trinidad mit ~40GB/s (wäre so die avg. Bandbreite mit DDR4 und Dualchannel, klar... mit dem eDRAM kompensierst du den Bandbreitennachteil etwas, damit kann man aber keine bsw. 200GB/s ersetzen) betreiben würdest, wäre auch alles andere als sinnvoll. Wie gesagt... wartet erstmal ab bis HBM massentauglich ist. Erst dann hat man die Voraussetzungen für schnellere APUs. Mit HBM der zweiten Generation kommst du bereits mit nur einem einzigen Stack für eine Performance-APU aus.
http://www.computerbase.de/2016-01/hbm2-spezifikationen-fuer-bis-zu-32-gb-grafikspeicher-veroeffentlicht/

Wenn ich mich gerade nicht vertue bedeutet das max. 8GB @256GB/s bei einem Stack. Eine andere Möglichkeit wäre dann zwei Stacks mit je 4GB @ insgesamt 512GB/s, falls man soviel Bandbreite braucht. Man muss sich nur mal vorstellen... AMD bietet bereits heute für 500€ eine fette ~600mm² GPU in 28nm mit 4GB HBM der ersten Generation an. So eine Performance-APU (darunter verstehe ich ca. 300-400€, damit deckst du die Kosten für CPU, Grafikkarte und Speicher) braucht wesentlich weniger Die Fläche, was wiederum einiges günstiger ist, erst recht mit ausgereiften 14/16nm. HBM "1" wird aktuell nur bei einem einzigen Chip, nämlich Fiji verwendet. 2017 werden schon zwei GPUs mit HBM "2" versorgt, nämlich High-End Pascal und das Gegenstück von AMD. Das sollte die Kosten von HBM weiterhin senken.

gnomi
2016-02-29, 10:05:57
In der neuen PCGH sind auch sehr gute CPU Tests, die schon den Sprung beim Wechsel auf Skylake zeigen. (30-50%)
Das Problem ist, dass die CPU Anforderungen durch die schwachen Konsolen, zukünftiges DX 12 und die sehr GPU intensiven Auflösungen und Grafiken zumeist nicht so fordernd sind.
Mit meinem I7 OC 4,4 plus 2133 Mhz CL 9 Ram komme ich noch gut aus, zumal die dort ja nur mit Standard Ram und ohne OC bei immer maximalen Details testen und die alte Plattform daher vergleichsweise schwach wegkommt. (paar Polygone bei den Objektdetails weniger plus GSync und die Framerate passt auch im CPU Limit vollkommen)
Die Pro Megaherz Leistung beeindruckt bei Skylake, aber lediglich 4 Kerne sind doof. (6, besser 8 müssen langsam mal her; siehe Crysis 3 Fields Test)
Jemandem mit einer 980 muss man ja auch nicht unbedingt eine 980TI empfehlen. So ähnlich verhält es sich hier auch.

Botcruscher
2016-02-29, 11:18:39
30 bis 50% wären für einen Nachfolger beeindruckend aber nicht für 5 Jahre, 3 Generationen und einem neuen Unterbau. Der 2600K kommt dank HT noch besser weg.

Lightning
2016-02-29, 11:52:08
30 bis 50% wären für einen Nachfolger beeindruckend aber nicht für 5 Jahre, 3 Generationen und einem neuen Unterbau. Der 2600K kommt dank HT noch besser weg.

Zumal bei gestiegenen Preisen. Einen 2500K konnte man vor ~5 Jahren für 170€ kaufen. Das heutige Äquivalent, der 6600K, kostet 230€..
Das ist wirklich eine enttäuschende Entwicklung. Andererseits brauchen nur sehr wenige Anwender so viel CPU-Leistung, was (neben AMDs Schwäche) sicher auch ein Grund ist, warum Intel hier geizen kann.

dargo
2016-02-29, 12:04:26
Mit welcher APU-Technologie willst du denn GPUs am Temperatur, Technologie und Kostenlimit ersetzen?! APUs werden es nie über das billige Performance Segment schaffen. Dafür gibt es einfach keinen Markt.

Zuerst wird das Performancesegment angegriffen. Dann sehen wir weiter. Irgendwann lohnt sich für einen IHV nicht mehr nur High-End GPUs zu entwickeln wenn es keinen Bedarf an dGPUs im Performancesegment gibt. Das ist ne einfache Kosten/Nutzen Rechnung. Weder AMD noch NV würden bloß mit einem Fiji/GM200 überleben. Es gibt einen guten Grund warum es bei neuen Konsolen nur noch SoCs gibt.

Edit:
Man sollte die Vorteile bei der Performance einer APU auch nicht vergessen. Mit HSA sind die Ergebnisse einfach nur noch vernichtend.
http://media.bestofmicro.com/K/M/446566/original/10-LibreOffice-HSA.png

http://www.tomshardware.com/reviews/amd-a10-7800-kaveri-apu-efficiency,3899-5.html

Klar... wird sicherlich Worst Case sein. Aber erstens ist das ein poppeliger A10. Und zweitens kann man die Vorteile vom gemeinsamen Speicher nicht wegdiskutieren. Man spart sich dadurch viele Kopiervorgänge. Was ich mich bei der ganzen Geschichte auch die ganze Zeit frage... nehmen wir mal an es kommt eine APU mit HBM. Kann man dann auf den großen L3 verzichten? Sicherlich nicht komplett, Stichwort absolute Latenzen. Leider ist dazu noch zu wenig bekannt imho. Dennoch wäre es sicherlich interessant zu erfahren ob der L3 dann nicht wesentlich kleiner ausfallen kann. Zb. nur noch 1-2MB bei einem i5. Das würde wiederum Die Fläche einsparen, die man zb. in mehr Grafikeinheiten investieren könnte.

Botcruscher
2016-03-01, 16:14:27
Zuerst wird das Performancesegment angegriffen. Dann sehen wir weiter. Irgendwann lohnt sich für einen IHV nicht mehr nur High-End GPUs zu entwickeln wenn es keinen Bedarf an dGPUs im Performancesegment gibt.

Na da bin ich ja gespannt. Performance ist mich das klassische 150 bis 200€ Segment. Da tummeln sich heute 960 oder 380. Mit der 16nm Fertigung sehen wir Faktor 2. Dafür wird selbst die olle 380 ein harter Knochen für die iGPU.

HSA ist nett aber für den normalen Alltag vollkommen bedeutungslos. Wenn sich das langsam ändern sollte ist es auch egal weil jeder von Intel eine APU aufgedrückt bekommen hat.

iuno
2016-03-01, 16:37:11
Intel hat keine APUs und erst recht sind deren CPUs nicht HSA konform. Das ist ja nicht mal bei anderen Mitgliedern der Stiftung der Fall (Samsung, ImgTec, Qualcomm, ARM, ..). AMD sind aktuell noch die einzigen, die eine vollstaendige Implementierung haben und das auch erst seit Kaveri.
Natuerlich steht es Intel frei, das zu aendern, das ist aber mittelfristig wohl eher unwahrscheinlich.
HSA ist mehr als nur nett. Dass es noch irrelevant ist ist voellig klar. Sowas etabliert sich ja nicht von heute auf morgen. Ueberleg mal wie lange es dauert, bis sich Befehlssatzerweiterungen oder eine 64-Bit Architektur durchgesetzt haben...

Eine Grafikeinheit vom Kaliber Tonga in einer klassische APU (also kein MCM) zu erwarten ist vorerst (14 nm) denke ich auch illusorisch. Es waere machbar, wirtschaftlich aber Unsinn.

YfOrU
2016-03-01, 16:48:24
Was ich mich bei der ganzen Geschichte auch die ganze Zeit frage... nehmen wir mal an es kommt eine APU mit HBM. Kann man dann auf den großen L3 verzichten? Sicherlich nicht komplett, Stichwort absolute Latenzen. Leider ist dazu noch zu wenig bekannt imho. Dennoch wäre es sicherlich interessant zu erfahren ob der L3 dann nicht wesentlich kleiner ausfallen kann. Zb. nur noch 1-2MB bei einem i5. Das würde wiederum Die Fläche einsparen, die man zb. in mehr Grafikeinheiten investieren könnte.

Dazu empfehle ich Seite 15 und 16 (Memory) zu Skylake und Gen 9 ;)
https://software.intel.com/sites/default/files/managed/c5/9a/The-Compute-Architecture-of-Intel-Processor-Graphics-Gen9-v1d0.pdf

Intel hat keine APUs und erst recht sind deren CPUs nicht HSA konform.

Siehe PDF. Ob das ganze jetzt HSA konform ist oder nicht spielt keine Rolle -> die gebräuchlichen APIs werden unterstützt. Das sind genauso APUs und wenn man ehrlich ist befinden die sich auf einer höheren Entwicklungsstufe als Kaveri und durchaus auf Augenhöhe mit Carrizo. Zusätzlich gibt es L3 (LLC) und eDRAM. Das ist insgesamt eher vor als hinter AMD.

iuno
2016-03-01, 16:57:21
Ob das ganze jetzt HSA konform ist oder nicht spielt keine Rolle -> die gebräuchlichen APIs werden unterstützt.
Darum ging es mir aber auch nicht sondern um die Begrifflichkeiten. Dass Intel auch in Richtung die heterogeneous computing geht ist ja voellig klar.
APU ist halt ein AMD term. Wir sagen ja auch nicht dass Zen Hyperthreading kann.

tdon
2016-03-01, 17:20:19
APU ist seit Llano ein Marketing Begriff von AMD und bedeutet nur CPU und GPU auf einem Die. Wenn du sagst Intel hat keine APUs klingt das seltsam. Sie benutzen natürlich nicht den Marketingnamen, der technische Hintergrund ist aber der gleiche. Den Namen sollte man erst gar nicht verwenden heutzutage. CPU und GPU auf dem gleichen Die ist seit vielen Jahren keine Besonderheit mehr.

HSA ist auch seit einigen Jahren im Gespräch, warum das gerade jetzt hochkommt weiß ich nicht. Eine Entwicklung nach vorne ist nicht erkennbar.

iuno
2016-03-01, 18:21:35
Naja irgendwie muss man es schon abgrenzen. Die "aktuellen" FX und alles > 4 Kerne sind ja noch reine CPUs und die wird es natuerlich auch weiterhin geben.

gcc wird in der naechsten major Version (6) hsa support haben. Das ist imho schon ein Meilenstein. Natuerlich ist das aber kein Garant, dass es auch genutzt wird. Ich denke aber das und auch die Hoffnung, AMD koenne mit Zen und der neuen Fertigung wieder konkurrenzfaehig werden, dazu der Linux stack mit amdkfd/amdgpu und gpuopen befeuern das imho schon etwas, auch unter Entwicklern.
Dass HSA vorher keine grosse Rolle gespielt hat, ist fuer mich auch nachvollziehber. Schliesslich geht es nur um Kaveri... und CZ/BR gibt es immer noch nicht fuer Desktop
Ist aber sehr ot jetzt :D

YfOrU
2016-03-01, 19:00:09
Der Begriff APU hat heute meiner Ansicht nach schon seine Daseinsberechtigung da es sonst kein geläufiges Synonym für das Paket aus CPU mit integrierter GPU gibt. Ist natürlich dem Marketing eines Herstellers entsprungen aber das ändert grundsätzlich nichts an der Allgemeingültigkeit.

SoC eignet sich zur Differenzierung beispielsweise nicht da hier die GPU je nach Einsatzgebiet zum einen optional ist (wie Xeon-D, Summit Ridge) und zum anderen eine integrierte SB dazu gehört.

tdon
2016-03-01, 20:08:36
Der Begriff APU hat heute meiner Ansicht nach schon seine Daseinsberechtigung da es sonst kein geläufiges Synonym für das Paket aus CPU mit integrierter GPU gibt. Ist natürlich dem Marketing eines Herstellers entsprungen aber das ändert grundsätzlich nichts an der Allgemeingültigkeit.



Ich habe grundsätzlich nichts gegen die Bezeichnung. Leider wird sie oft missverstanden, dem Marketing geschuldet. Das von weiter oben "Intel hat keine APUs" ist wieder so ein Beispiel. Das liest man öfter.

gbm31
2016-03-02, 09:16:55
Mh das mit dem Speicher ist interessant. Bin bei 5 Ghz mit dem 2500k. Mein Speicher ist aber nur PC3-8500. Glaube ich rüste den nochmal hoch.

Definitiv!

Ich habe mir grade neuen Speicher bestellt, weil ich von 2x4GB auf 2x8GB wollte.
Des Preises halber habe ich mich für 2400er GSkill entschieden, und wollte die mit 1600(800)MHz laufen lassen, weil innerhalb Jedec und 1.5V.
Meine 2 4GB Sticks laufen mit 1333(677)MHz.

Jetzt überlege ich, ob ich die neuen nicht mit 2133(1066)MHz laufen lassen soll. Aber dazu benötigen die vermutlich mehr als 1.5V.

War da nicht was mit Sandy Bridge und Speicherspannung? Mein Stand dazu ist von 2011, seitdem habe ich da nichts mehr gemacht... :tongue:

dargo
2016-03-02, 10:01:08
Afaik war alles über 1,65V bei SB bedenklich. Nicht unbedingt wegen dem Speicher sondern dem Speichercontroller.

gbm31
2016-03-02, 10:21:31
In meiner Erinnerung waren 1.65V schon "böse", dewegen hatte ich damals die 1.5v Module geholt, aber auf der anderen Seite hat Intel die XMP-Profile freigegeben:

http://www.intel.com/content/www/us/en/gaming/extreme-memory-profile-xmp.html

Dort findet sich eine Excel-Tabelle, in der verschiedene Speicher-Riegel mit XMP-Profilen für diverse Prozessoren getestet und freigegeben wurden. Da sind einige 1.65V Riegel in Verbindung mit Sandys enthalten. (siehe Anhang)

Also sollte das ok sein...?

Annator
2016-03-02, 10:29:50
Definitiv!

Ich habe mir grade neuen Speicher bestellt, weil ich von 2x4GB auf 2x8GB wollte.
Des Preises halber habe ich mich für 2400er GSkill entschieden, und wollte die mit 1600(800)MHz laufen lassen, weil innerhalb Jedec und 1.5V.
Meine 2 4GB Sticks laufen mit 1333(677)MHz.

Jetzt überlege ich, ob ich die neuen nicht mit 2133(1066)MHz laufen lassen soll. Aber dazu benötigen die vermutlich mehr als 1.5V.

War da nicht was mit Sandy Bridge und Speicherspannung? Mein Stand dazu ist von 2011, seitdem habe ich da nichts mehr gemacht... :tongue:

Habe mir G.SKILL 2 x 8 GB, F3-2133C11D-16GXL gekauft. Wegen Dual Ranked. Die laufen auf 1,5V. Die 2400 sind afaik die gleichen nur mit einer höheren Spannung. Könnte mit 1,5V funktionieren. Sandy ist afaik auf 1,55V spezifiziert von Intel.

http://extreme.pcgameshardware.de/mainboards-und-arbeitsspeicher/316914-ram-mythen-aufgeklaert-der-grosse-arbeitsspeicher-thread-inkl-langzeittest.html
"Für die Sandy-Bridge-Generation gab Intel bereits eine maximale RAM-Spannung von 1,55 Volt vor."

Hab mir zusätzlich noch einen 2700K bei Ebay geschossen. Suchte eh grad eine CPU für den Rechner meiner Freundin. Die bekommt dann den 2500K. Mal schauen ob der auch 5 Ghz schafft.

Lowkey
2016-03-02, 10:40:49
Zu Beginn einer neuen Technik ließt man die Specs und sagt das geht eben nicht. In dem Fall gibt es bei den CPUs ein Limit von 1.55v für den Speicher, aber der Markt ist randvoll mit 1.65v Speicher. Und dann findet man durch Zufall die Aussagen von ein paar Profis in den Foren, deren PCs schon ein paar hundert Kits gesehen haben. Und dann merkt man langsam, dass die 1.65v nichts zu bedeuten haben. Mir ist kein Fall bekannt wo der Speicher durchgebrannt ist. Weltweit gab es wohl wegen der Spannung keinen "Skandal". Es gab lediglich einen Berg an inkompatiblem Speicher.

Was am Ende übrig bleibt: das gute Gewissen will ein System mit sparsamem Stromverbrauch.

PS: mit Sandy Bridge sollte bei DDR3-2133 sowieso die Grenze erreicht sein. Mit guten Timings sollte das unter dem Strich vor DDR3-2400 liegen. Ich hätte nur gerade keine Lust die Timings im Einzelnen auszuloten.

gbm31
2016-03-02, 10:50:53
Ich habe was hier in meinem mobilen Archiv gefunden, meine Erinnerung war nicht ganz falsch: 1.5±0.075V

Also werd ich die Speicher manuell einstellen auf 2133 (mehr kann der Sandy eh nicht) und max. 1.575V, ich hoffe das klappt.

Das Problem ist ja nicht der Speicher, sondern der integrierte Memory-Controller.

Radeonfreak
2016-03-02, 11:10:17
Ich hab zwar keinen Sandy aber mein Speicher läuft seit 3 Jahren mit knapp 1.65 V ohne Probleme.

dargo
2016-03-02, 12:05:21
In meiner Erinnerung waren 1.65V schon "böse", dewegen hatte ich damals die 1.5v Module geholt, aber auf der anderen Seite hat Intel die XMP-Profile freigegeben:

http://www.intel.com/content/www/us/en/gaming/extreme-memory-profile-xmp.html

Dort findet sich eine Excel-Tabelle, in der verschiedene Speicher-Riegel mit XMP-Profilen für diverse Prozessoren getestet und freigegeben wurden. Da sind einige 1.65V Riegel in Verbindung mit Sandys enthalten. (siehe Anhang)

Also sollte das ok sein...?
Stöbere mal in den PDFs von Intel bezüglich Sandy Bridge. Da gibt es bestimmt Angaben zur max. Vcore für den Memorycontroller.

gbm31
2016-03-02, 13:16:00
Stöbere mal in den PDFs von Intel bezüglich Sandy Bridge. Da gibt es bestimmt Angaben zur max. Vcore für den Memorycontroller.

In Post #143 ist der entsprechende Ausschnitt aus dem Data Sheet für 2nd Generation Intel Core Processor Family Desktop, aka Sandy Bridge.

dargo
2016-03-02, 15:30:30
Falsche Seite. :wink:

tdon
2016-03-02, 16:28:29
Edit:
Skylake ist bereits afaik ca. 122mm² groß. Davon geht fast die Hälfe auf die iGPU.


Da liegst du recht weit daneben. Eine Skylake GT2 misst 42mm².

dargo
2016-03-02, 19:28:22
Nach einem Drittel sieht mir das aber nicht aus.
http://www.techpowerup.com/img/15-08-18/77a.jpg

Lightning
2016-03-02, 20:00:19
Nach dem Bild zu urteilen kommt das schon gut hin. Das, was als GPU markiert ist, hat ~ 409x670 Pixel, das ganze Bild 1060x726. Macht ~ 35% für die GPU.

dargo
2016-03-02, 20:47:29
Sachen wie Display-Controller musst du dabei aber auch in Betracht ziehen was den Platzbedarf angeht. Oder anders gesagt... wenn ich nur den GPU-Part ansich betrachte ist dieser genauso groß wenn nicht sogar größer wie der CPU-Part inkl. L3.

tdon
2016-03-02, 21:05:18
Nach einem Drittel sieht mir das aber nicht aus.
http://www.techpowerup.com/img/15-08-18/77a.jpg


34,88%...ziemlich genau 35%, mehr ist das nicht. Macht bei Gesamtgröße von ~120 mm² ca 42 mm². Die Frage ist doch eher, wie du da auf 50% kommst.


Sachen wie Display-Controller musst du dabei aber auch in Betracht ziehen was den Platzbedarf angeht.


Inwiefern in Betracht ziehen?

dargo
2016-03-02, 21:46:27
Im Vergleich zu einer CPU ohne IGPU.

Die Frage ist doch eher, wie du da auf 50% kommst.

Einfach Bild anschauen.

Langlay
2016-03-02, 21:51:01
Inwiefern in Betracht ziehen?

Im Systembereich ist u.a. Display-Controller angegeben. Der recht wenig Sinn machen dürfte ohne GPU.

Imo wenn man die Teile anteilig berechnet die die GPU mitnutzt ist der Weg nicht mehr weit von 35% zu knapp die Häfte.

Botcruscher
2016-03-02, 23:46:06
Am Ende ist es unbedeutend. Du bezahlst ja nicht Fläche sondern Intel Marktstrategie.

Knuddelbearli
2016-03-03, 04:36:36
So ich habe mir gestern mal den Spass gemacht und mir mal genau angeschaut ob sich anhand von Low Ress Benchmarks ( egal ob ich es Unsinnig finde aber mein Weltbild ist ja offen also mal gucken ) sich ein Upgrade lohnen würde.

Ausgangslage I7 2600K @ 4,8 GHz mit DDR3 1066

Test: http://www.computerbase.de/2015-08/intel-core-i5-6600k-i7-6700k-test-benchmark-skylake/7/#abschnitt_spiele_720p

Zu berücksichtigen gilt das dort der I7 2600K mit DDR3 1600 läuft. Mein I7 also nochmal paar wenige Prozent langsamer ist, und der 6700K mit 2133 läuft. 3000er Ram kostet aber inzwischen kaum mehr und bringt ebenso einige Prozent Leistung. ( Soll keiner Sagen das ich nicht fairerweise alles beachte! )
Quelle: http://www.computerbase.de/2015-10/speicher-fuer-skylake-ddr3-1333-ddr4-3000-vergleich/3/#diagramm-total-war-attila

Skylake im Schnitt 20% schneller. Schnitt wird aber runter gezogen von Spielen wo es gar nichts bringt also sagen wir 30%, mit dem Ausreißer Ryse wo es fast 40% sind.
Jetzt taktet der 6700K aber mit 4 GHz der Sandy aber nur mit 3,4 GHz das sind mal eben 17% mehr Takt! Mit OC herrscht aber Taktgleichstand, wenn nicht sogar Sandy leicht besser geht. Da bleiben am Ende dann gerade mal 13% mehr Leistung über. Mit dem RAM ist man dann bei Rund 15%, im Extremfall Ryse 25%. Und dafür CPU Mainboard und Speicher wechseln? ( Kostenpunkt 600€ minus verkauf 2600K kA was das bringt 200€ ? also 400€) Eher nicht.

Undertaker
2016-03-03, 08:40:42
Die Rechnung klappt so nicht ganz, da Skylake im verlinkten Test mehrfach stark im GPU-Limit hängt, auch in 720p.

Hübie
2016-03-03, 08:51:36
Ich frage mich wann auch der letzte mal bemerkt, dass die Taktraten nur noch ein "bis zu" sind, die selten gefahren werden bzw. dauerhaft generiert werden. Vor allem Skylake schaffts deutlich schneller die Lastwechsel anzupassen. :rolleyes:

x-force
2016-03-03, 09:39:48
Ich frage mich wann auch der letzte mal bemerkt, dass die Taktraten nur noch ein "bis zu" sind, die selten gefahren werden bzw. dauerhaft generiert werden. Vor allem Skylake schaffts deutlich schneller die Lastwechsel anzupassen. :rolleyes:

in wie fern wäre das relevant?

throttelt ein skylake out of the box?
sind die taktanpassungen zu langsam, so daß das abschalten sämtlicher stromsparmaßnahmen wirklich wieder performance bringt?

Knuddelbearli
2016-03-03, 10:01:21
Ich frage mich wann auch der letzte mal bemerkt, dass die Taktraten nur noch ein "bis zu" sind, die selten gefahren werden bzw. dauerhaft generiert werden. Vor allem Skylake schaffts deutlich schneller die Lastwechsel anzupassen. :rolleyes:

und das ändert was? Die Leistung kommt in den Benchmarks ja schon an. Da ist nichts mehr obend rauf zu rechnen wegen schnellerem Lastwechsel. selbes gilt für die Stromersparnis dadurch.

Wenn dann wird der 2600K noch schneller, wenn man alle Stromsparmechanismen abschaltet ( und er im Gegensatz zu Skylake auch einen 4 Kern Boost besitzt )

Knuddelbearli
2016-03-03, 10:03:59
Die Rechnung klappt so nicht ganz, da Skylake im verlinkten Test mehrfach stark im GPU-Limit hängt, auch in 720p.

Das mag ja sein aber wenn selbst noch in 720p ein GPU limit mit einer 980 TI vorliegt, wird das bei 1080 oder gar 1440p selbst mit 10nm Grafikkarten noch genauso vorliegen. Und es geht ja darum ob sich ein Aufrüsten lohnt.

Undertaker
2016-03-03, 10:11:16
Das mag ja sein aber wenn selbst noch in 720p ein GPU limit mit einer 980 TI vorliegt, wird das bei 1080 oder gar 1440p selbst mit 10nm Grafikkarten noch genauso vorliegen. Und es geht ja darum ob sich ein Aufrüsten lohnt.

Es ist ein Unterschied zu sagen, ob Skylake "nur" xx % schneller ist, oder ob GPU-bedingt nur diese xx % Mehrleistung ankommen (obwohl das Potential höher wäre). High-End-CPUs für Spiele waren schon immer eine Investition für Worst-Case-Szenarien, die leider kaum ein Review untersucht (bzw. untersuchen kann).

Annator
2016-03-03, 11:10:41
Auf welchen Turbotakt bekommt man einen 6600K ohne Spannungserhöhung?

Hübie
2016-03-03, 11:10:51
und das ändert was? Die Leistung kommt in den Benchmarks ja schon an. Da ist nichts mehr oben rauf zu rechnen wegen schnellerem Lastwechsel. selbes gilt für die Stromersparnis dadurch.

Wenn dann wird der 2600K noch schneller, wenn man alle Stromsparmechanismen abschaltet (und er im Gegensatz zu Skylake auch einen 4 Kern Boost besitzt )

Es ändert sich eben das Taktverhalten. Hier geht es ja um eine Wechselwirkung. GPU fordert Drawcalls von der CPU - mit sinkender Auflösung / weniger Details werden es sicher nicht mehr. Sind das wenige, taktet die CPU konservativ bzw. ist gar nicht richtig ausgelastet. Hängt u.a. auch von der verwendeten Engine ab (was wird gebatcht, wieviel batches..). Das Thema hatte ich schon mit Nightspider. Nachweislich konnte ich durch höhere Auflösung / Details bessere Auslastung fahren (ohne ins GPU-Limit zu kommen) und bessere / konsistentere Ergebnisse erzielen (Starcraft II +3% & World in Conflict +2% z.B.). Leider fehlt mir die Zeit um da mehr draus zu machen. Gibt ja aktuelle Titel wie Shadow of Mordor, Sleeping Dogs oder GTA V mit integrierten Benchmarks. Leider hab ich beide nicht mehr drauf und meine Leitung ist nicht die beste. Dazu kommt dass meine SSD ziemlich voll ist. :freak: Ich lasse euch gerne den Vortritt.

Nachteil ist halt dass es aufwändig ist und man Szenarien benötigt die sich reproduzieren lassen.

@Undertaker: Ein wahres Wort dass du sprichst. Man müsste als Reviewer Takt und Auslastung über Zeitachsen ausgeben. Analog dazu Framtimes und Framerate. :smile:

Edit: Ich hatte hier (https://drive.google.com/file/d/0B5G8JU676tLOUmxkUExBU2UwSmc/view?usp=sharing) mal eine *.xlsx angefangen zu basteln. Jedes Spiel sollte einen eigenen Frameverlauf bekommen und dann eine Zusammenfassung (Tabelle 2 unten anklicken). Es ist mir jedoch nicht gelungen ein Programm zu finden, was den realen CPU-Takt, nicht den vom PLL erzeugten, loggt (tmonitor frisst ne Menge CPU-Zeit unter Win10).

Knuddelbearli
2016-03-03, 11:15:50
Es ist ein Unterschied zu sagen, ob Skylake "nur" xx % schneller ist, oder ob GPU-bedingt nur diese xx % Mehrleistung ankommen (obwohl das Potential höher wäre). High-End-CPUs für Spiele waren schon immer eine Investition für Worst-Case-Szenarien, die leider kaum ein Review untersucht (bzw. untersuchen kann).


Deshalb bin ich aj für Graphen, aber da wurde dann ja gewettert das lowress ja so super sind, also habe ich mich dem mal bedient.
ich finde Low Ress ja selber Mist. Wurde dafür aber regelrecht angefeindet also wollte ich es mal selber einfach schauen wie es da aussieht.

Hübie
2016-03-03, 11:19:23
Ja es kapieren manche nun mal nicht wie das System funktioniert und wie eine CPU Takt generiert. ;) Ich musste auch schon ne Menge Anfeindungen einstecken, aber die Masse hat eben nicht immer Recht (VW, Bild, Adolf...). :D

Achill
2016-03-03, 12:46:13
Der Quad-Core Cpu Test von pcper.com (http://www.pcper.com/reviews/Systems/Quad-Core-Gaming-Hardware-Roundup/BioShock-Infinite-and-Civilization-Beyond-Earth) ist der einzig mir bekannte, der eine ganze Reihe Spiele auf mehreren Verschiedenen GPUs + CPUs testet.

Was man eigentlich ganz gut sieht, sobald ein Spiel GPU limitiert ist, ist der Einfluss auf Min. und Avg. FPS durch die vorhanden CPU aber bei weiten nicht so groß wie die theoretische Rechenleistung der jeweiligen (neueren) Architektur sein könnte.

Interessant sind dann noch Ausreißer wie "Metro Last Light", wo die min. FPS ehrer vom verfügbaren L3 Cache abhängen oder Werte mit Mantle, die man Ersatzweise für DX12 bei AMD/NV bzgl. CPU-Limitierung heranziehen könnte und dadurch ein X4 860k in ganz andere Leistungsbereiche auf schliest wenn vorher ein merkliches CPU-Limit vorlag.

Nightspider
2016-03-03, 15:39:52
Es ist ein Unterschied zu sagen, ob Skylake "nur" xx % schneller ist, oder ob GPU-bedingt nur diese xx % Mehrleistung ankommen (obwohl das Potential höher wäre). High-End-CPUs für Spiele waren schon immer eine Investition für Worst-Case-Szenarien, die leider kaum ein Review untersucht (bzw. untersuchen kann).

Endlich jemand der das auch nochmal anspricht. Ich dachte schon ich bin der Einzige hier der bei solchen Pauschalaussagen Reflexe bekommt.

Deshalb bin ich aj für Graphen, aber da wurde dann ja gewettert das lowress ja so super sind, also habe ich mich dem mal bedient.
ich finde Low Ress ja selber Mist. Wurde dafür aber regelrecht angefeindet also wollte ich es mal selber einfach schauen wie es da aussieht.

Was haben Graphen und lowres mit deiner falschen Pauschalaussage zu tun?

Gar nix. :rolleyes:

Einfach mal auf die Wortwahl achten.

Man kann einfach keine expliziten Prozentzahlen angeben weil das Teils von Spiel zu Spiel extrem schwankt und von Test zu Test. Richtiger wäre es zu sagen das Einzeltests bisher bis zu 60% Leistungsplus zeigen und die Mehrheit der (relevanten) Spiele 20-40% Mehrleistung zeigt.
Relevante Spiele sind dabei die Spiele, welche viel CPU Leistung brauchen und nicht irgendein CoD-Müll welcher selbst mit einem halben Core mit 200fps läuft. (übertrieben gesagt)
Man beachte alleine CoD wo ein 2500K vor dem 2600K und

Außerdem ist dein Vergleich auch für die Tonne bei der geringen Spiele-Auswahl. In anderen Tests lag Skylake auch schon mal 60% vor einem 2500K und Spiele, welche wenig CPU Leistung benötigen, müsste man komplett aus dem Parkour werfen.
Wie hast du solche Spiele überhaupt verrechnet? :|

mit dem Ausreißer Ryse wo es fast 40% sind.

Und was ist mit dem Ausreißer F1 2015 von 58%?
33% bei GTA5 und 27% bei Total War sehen mir auch eher wie realistische Werte aus. Das sind halbwegs aktuelle Spiele mit rel. hoher CPU Last. Assassins Creed zeigt 26%.
Die drei Games passen überhaupt nicht zu deinen 20%. Zudem sind 2 der 8 Games im Test und damit (25% der Teilergebnisse) total für die Tonne weil dort alle CPUs gleichauf liegen und damit das Ergebnis massiv verfälschen.
Nur zwei Games passen zu deiner Behauptung und davon ist eines Civ. bei dem Haswell vor Skylake liegt und welches die Skylake Architektur nicht zu mögen scheint. Da müsste man durch einen viel umfangreicheren Test erstmal herausfinden ob Civ. da eine Ausnahme sein könnte und wenn nein, wie viele Games Skylake nicht mögen.
Und hiermit erwähne ich auch nur mal ganz vorsichtig nebenbei das im Test von DF bei Battlefield 4 Skylake (6700K) in einer Situation 62% vor dem Sandy Bridge (2600K) lag.

Ganz objektiv und ohne unfreundlich zu sein würde ich feststellen: deine 20% sind für die Tonne wenn es um die explizite Leistung bzw. das Leistungsplus von Skylake geht. (Ich wiederhole nochmal: Kaufberatung ist etwas anderes - siehe Undertakers Aussage)

Ja es kapieren manche nun mal nicht wie das System funktioniert und wie eine CPU Takt generiert. ;) Ich musste auch schon ne Menge Anfeindungen einstecken, aber die Masse hat eben nicht immer Recht (VW, Bild, Adolf...). :D

Ach komm lass stecken. Wenn es nach deiner Meinung geht kann man doch gar keine vernünftigen CPU Tests erstellen weil laut deiner Meinung die CPUs viel zu wild herumtakten und vernünftiges Vergleichen nicht möglich sei. ;D

Bei Bedarf kann ich dir das Zitat gerne nochmal raussuchen. Du hast doch auch sowas gesabbelt das die Mainboardsettings usw alles viel zu sehr verfälschen würden und kamst mit Benchmarks von einem 8 Jahre alten World in Conflict an und dachtest sogar Skylake hätte Reverse-SMT. Und das alles weil du nicht akzeptieren wolltest das Skyake teilweise starke Performancessprünge von Sandy Bridge hinlegen kann und du deinen alten Sandy Bridge HexaCore schönreden wolltest (Cache macht ja auch so viel aus ;D). :rolleyes:

Und jetzt haust du Sprüche raus das manche einfach nicht kapieren wie ein System funktioniert. Herrlich. ;D

King Hübie himself!

Knuddelbearli
2016-03-03, 17:37:51
Und was ist mit dem Ausreißer F1 2015 von 58%?
33% bei GTA5 und 27% bei Total War sehen mir auch eher wie realistische Werte aus. Das sind halbwegs aktuelle Spiele mit rel. hoher CPU Last. Assassins Creed zeigt 26%.
Die drei Games passen überhaupt nicht zu deinen 20%. Zudem sind 2 der 8 Games im Test und damit (25% der Teilergebnisse) total für die Tonne weil dort alle CPUs gleichauf liegen und damit das Ergebnis massiv verfälschen.


Lesen 5 setzen!

ich nahm ja die 30% an da eben die 20% der Durchschnitt sind und durch Spiele wo sich gar nichts tut versaut werden. Die von dir bevorzugten 30% habe ich nämlich genommen. Wenn du die Posts von anderen gar nicht richtig liest bzw versteht wundert mich deine Argumentation inzwischen gar nimmer ...


Skylake im Schnitt 20% schneller. Schnitt wird aber runter gezogen von Spielen wo es gar nichts bringt also sagen wir 30%,

und 20% - 17% geringerer Takt des Sandys wären ja auch keine 15%. man sieht einfach wie sehr du den Text von anderen liest bzw versuchst nachzuvollziehen was der da rechnet. GAR NICHT

:freak:

Nightspider
2016-03-03, 17:59:48
Touche, der Punkt geht an dich. Da habe ich vorhin zu schnell in die Tasten gehauen.

Allerdings kann es verwirren wenn dein Fazit so beginnt:"Skylake im Schnitt 20% schneller." Ich dachte das wäre deine Aussage.

Wenn du die Posts von anderen gar nicht richtig liest bzw versteht wundert mich deine Argumentation inzwischen gar nimmer ...

Ach weil ich ein mal nicht genau gelesen habe ist meine ganze Argumentation wertlos oder was? :rolleyes:

Das ändert an meiner Aussage nichts, nur das ich dich fälschlich beschuldigt habe.

Zur Taktrate: Zwischen 6700K @ boost und 2600K @ boost liegen nur 10%. Welche Taktraten genau beim Test anlagen bleibt erstmal fraglich.

Am besten wäre es wenn mal wirklich eine Seite einen Test mit CPU @ 2Ghzs machen würde. Dann bräuchte man (wahrscheinlich) auch nicht die Auflösung senken.

x-force
2016-03-03, 18:02:07
Ach komm lass stecken. Wenn es nach deiner Meinung geht kann man doch gar keine vernünftigen CPU Tests erstellen weil laut deiner Meinung die CPUs viel zu wild herumtakten und vernünftiges Vergleichen nicht möglich sei. ;D

Bei Bedarf kann ich dir das Zitat gerne nochmal raussuchen. Du hast doch auch sowas gesabbelt das die Mainboardsettings usw alles viel zu sehr verfälschen würden und kamst mit Benchmarks von einem 8 Jahre alten World in Conflict an und dachtest sogar Skylake hätte Reverse-SMT. Und das alles weil du nicht akzeptieren wolltest das Skyake teilweise starke Performancessprünge von Sandy Bridge hinlegen kann und du deinen alten Sandy Bridge HexaCore schönreden wolltest (Cache macht ja auch so viel aus ;D). :rolleyes:

Und jetzt haust du Sprüche raus das manche einfach nicht kapieren wie ein System funktioniert. Herrlich. ;D

King Hübie himself!

und ich dachte schon, ich wäre der einzige, dem der mist auffällt :)

aufkrawall
2016-03-03, 18:11:04
Ich kann mich nicht erinnern, dass irgendjemand hier Hübie dahingehend zugestimmt hätte.

Hübie
2016-03-03, 18:40:57
Oh nein, Nightspider. Hast du es immer noch nicht verstanden? Die BIOS Settings bezogen sich doch darauf dass überhaupt niemand nachvollziehen kann was Reviewer da treiben. Man kann ja einen SB-E auf 4,5 GHz übertakten, nur wird der Takt nicht erreicht wenn man z.B. nicht auch die TDP Grenze erhöht oder den zulässigen Strom. Auch da gibt es Differenzen bei Auslieferungszuständen die dann mal 2-3% ausmachen. Dann kommt jemand wie du und schluckt jede Pille um mit wedelnden Fahnen in Foren zu behaupten CPU XY ist bis zu 80% (:D) schneller was natürlich in low-Res-Spielen Müll ist.
Ich wusste nicht dass du es immer noch nicht verstanden hast. Hättest einfach mal fragen können statt zu versuchen mich zu diskreditieren.

Zu reversed HT: Ich sagte es A) als Annahme aufgrund einer News, nicht als Tatsache und B) hat nicht jeder soviel Zeit sich mit allem so intensiv zu beschäftigen. Mea culpa.

Ich stelle dich ja auch nicht bloß weil du behauptet hattest du könntest den Takt einer CPU festnageln, was natürlich so nicht korrekt ist. Warst felsenfest davon überzeugt (vielleicht ja immer noch?).

World in Conflict mag 8 Jahre alt sein, aber benutzt moderne Techniken und war als Auftakt gedacht. Für Vorschläge bin ich weiterhin offen, aber von dir kam ja irgendwie überhaupt nichts außer Schmuddelheftchen ala PCGH, welche ich selbstverständlich nicht besitze.

aufkrawall
2016-03-03, 19:10:05
Ich stelle dich ja auch nicht bloß weil du behauptet hattest du könntest den Takt einer CPU festnageln, was natürlich so nicht korrekt ist. Warst felsenfest davon überzeugt (vielleicht ja immer noch?).

Ach komm. Der Stromverbrauch explodiert mit komplett deaktivierten Stromsparmodi, natürlich läuft die CPU dann intern stark Richtung vollem Takt.
Und trotz des intern viel höheren Takts ist überhaupt keine Auswirkung auf die Frametimes feststellbar, zumindest konnte ich nur das Gegenteil feststellen.
Sieh doch einfach mal ein, dass es überhaupt keine Rolle spielt. Entweder, eine Anwendung lastet die CPU entsprechend aus, oder eben nicht. Offenbar kein Unterschied zu GPUs. Dazwischen gibt es nichts, du hast dahingehend auch noch überhaupt keinen Beweis vorgebracht.

Hübie
2016-03-03, 19:55:17
Hast du die Tabelle oben angesehen? :| Und ich denke dass du nicht weißt was ich meine: der PLL hat den Takt, den du einstellst, aber es wird nicht ständig an den ALUs etc mit diesem Takt herum gefuhrwerkt. Das Anschwingen in solchen ASICs ist halt immer noch das größte Problem.

Edit: Ach und was bitte meinst du eigentlich mit internem Takt? :confused:

aufkrawall
2016-03-03, 20:12:55
Die Differenz vereinfacht zwischen in Tools angezeigtem Takt und dem tatsächlichen physikalischem Takt, da legst du ja immer so Wert drauf.
Ob die ALUs ständig mit dem Takt laufen, ist nicht die Frage. Die Frage ist, ob sie das tun, wenn sie es müssen. Dass das nicht so ist, hast du immer noch nicht bewiesen. Und deshalb ist die ganze Debatte völlig sinnbefreit.

Nightspider
2016-03-03, 20:15:06
Die BIOS Settings bezogen sich doch darauf dass überhaupt niemand nachvollziehen kann was Reviewer da treiben.

Ja aber da du keine eigenen Benchmarks erstellst müssen wir die Werte nehmen die wir kriegen.
Du schüttelst doch nur jedes Mal neue Gründe aus dem Ärmel um zu versuchen vorhandene Tests und Werte zu entkräften.
Nur weil du allen Testern unterstellst zu blöd zu sein die TDP einzustellen werden doch die Benchmarks nicht wertlos.

Oh nein, Nightspider. Hast du es immer noch nicht verstanden?
...
Ich wusste nicht dass du es immer noch nicht verstanden hast.

Ja das gesammte 3D-Center sollte Nachhilfe bei dir nehmen, um deinen Verstand zu ergründen. ;D

Dann kommt jemand wie du und schluckt jede Pille um mit wedelnden Fahnen in Foren zu behaupten CPU XY ist bis zu 80% (:D) schneller was natürlich in Spielen Müll ist.

Wie jetzt? Spiele Benchmarks sind in Spielen Müll? Hä? :|
Spiele Benchmarks == Pille?
Hübie logic == false! always
Ich habe nie synthetische Benchmarks herangezogen. Du hast nur nie die Berechnungsgrundlage verstanden.

Zu reversed HT: Ich sagte es als Annahme aufgrund einer News, nicht als Tatsache Mea culpa.

Ist nur ein Beispiel dafür das auch du nicht die Weisheit gefressen hast und über alles Bescheid weißt. Du sagst ja selbst das du dich gut mit Systemen (Hardware?) auskennst. Dann hätte dich Reverse SMT schon stutzig machen sollen was nach aktuellem Wissensstand nicht möglich ist und falls verbaut eine große Sensation gewesen wäre.

Ich stelle dich ja auch nicht bloß weil du behauptet hattest du könntest den Takt einer CPU festnageln, was natürlich so nicht korrekt ist. Warst felsenfest davon überzeugt (vielleicht ja immer noch?).

Dein Tool "TMonitor" hat zwar andere CPU Taktraten angezeigt als CPU-Z (selbst nachdem die Taktrate im BIOS festgenagelt wurde) aber da kamen mir folgende Frage auf:

1. Kann man dem Tool trauen? (CPU besteht aus zig vers. Baugruppen und Transistoren die alle unters. Takten)
2. Ist die abweichende Taktrate von CPU-Z zu TMonitor bei allen CPUs in etwa identisch?
und die entscheidene Frage:
3. Spielt das wirklich eine Rolle wenn ich unters. CPUs gegeneinander teste?

Die wichtigste Frage (3.) würde ich mit nein beantworten. Falls die CPU intern wirklich noch anders taktet kann man es eh nicht ändern und man muss die Benchmarks so hinnehmen wie sie (trotz festgenagelter Taktrate im BIOS) gemessen werden.

Aber 100% perfekte Vergleichsbedingungen gibt es eh nicht. Nimm es hin und nimm die Benchmarkwerte die uns von Testern gegeben werden.
Nur deswegen diverse Benchmarkwerte schlechtzureden oder als nicht praxisrelevant zu bezeichnen ist absurd solange du nicht das Gegenteil beweisen kannst.

World in Conflict mag 8 Jahre alt sein, aber benutzt moderne Techniken und war als Auftakt gedacht. Für Vorschläge bin ich weiterhin offen

Was für moderne Techniken? Du wolltest mit deinen Benchmarks eines 8 Jahre alten Spieles zeigen das die CPU in niedrigen Auflösungen weniger belastet wird weil die Grafikkarte angeblich weniger Berechnungen von der CPU verlangt und hast das damit beweisen wollen das deine CPU höher getaktet hat und du einen höheren Score hattest bei der höheren Auflösung.

Das Thema können wir hier gerne weiter ausführen weil ich das in der Tat auch interessant finde aber dennoch der Meinung bin das es völlig unwichtig ist wenn man CPUs benchmarken will. Wenn man alle CPUs mit der gleichen Auflösung testet ist die Vergleichbarkeit gegeben.
Das war schon damals mein Argument wieso nichts gegen eine niedrige Auflösung bei CPU Tests spricht und daraufhin kam nichts mehr von dir.


aber von dir kam ja irgendwie überhaupt nichts außer Schmuddelheftchen ala PCGH, welche ich selbstverständlich nicht besitze.

Und was meinst du damit das danach nichts mehr von mir kam? Ich habe angemerkt, dass das Ergebnis interessant aber als einziges Beispiel nicht aussagekräftig ist und zu fehleranfällig (altes Spiel, moderner HexaCore, Temperaturentwicklung, Umgebung usw usw alles undefiniert war)
Dein zweites Beispiel (Valley (http://abload.de/img/unigine_valleyw7r59.png)) mit einem Vorteil von 0,3% bei höherer Auflösung war mir dann auch zu blöd.
Aber sowas zählt bei dir ja schon als Argument.

PS: Weder lese ich die PCGH, noch habe ich dort in dem Zusammenhang irgendwelche PCGH Benchmarks angeführt. Als Schmuddelheftchen hast du die Literatur bezeichnet welche ich dir verlinkt habe nachdem du zu faul warst dich selbst schlau zu machen worum es sich bei dem Mainthread in der Spieleprogrammierung handelt. (Das war wieder ein Beispiel von "Ich, King Hübie, lehne Beispiele, Benchmarks und Quellen ab solange sie mir nicht gefallen")

Edit: Zwei vergessene Wörter nachgetragen, bin auch müde und geh jetzt pennen. Hatte/Habe diese Woche Frühschicht und bin chronisch übermüdet.

Hübie
2016-03-03, 20:51:06
Starcraft II hatte ich auch noch aufwändig gemessen. Siehe oben im Link zur Tabelle. Ich meinte übrigens low-res Spiele Benchmarks. Ich editiere es mal oben rein. Sorry.

Es gibt halt Szenarien wo Punkt 3 offenbar doch relevant ist. Bezieht man dass in typischen CPU-Tests nicht mit ein, dann verzerrt sich eben das Ergebnis und ggf. auch die Schlußfolgerung. Ich sage grundsätzlich nicht dass Tester zu blöd sind, aber es gibt zu wenig Informationen wenn man bedenkt wieviele Einflussfaktoren es in dem Zusammenhang gibt. Ich würde mich freuen wenn sich jemand mal z.B. hinsetzt und GTA V oder einen modernen Titel durch misst. Dann halt immer den Takt, die Auslastung und Frameausgabe im Auge haben. Wenn man jetzt so ein worst case sceanrio haben will muss man entweder jedes Spiel mühsam danach absuchen, oder eben durch CPU-belastende Einstellungen simulieren. Sichtweite z.B. belastet meinen Beobachtungen nach beides, also GPU und CPU, mehr.

TMonitor zeigt zwar die korrekten Taktraten an, aber frisst selber Leistung. Macht nicht viel Sinn. Unter Linux sieht die Welt da (ausnahmsweise) deutlich besser aus. Man kommt ohne Umwege an Register und kann mit anständigen Performance Counter eben auch feststellen wie die Auslastung im Detail ist. Mit CPU-Freq unter Archlinux habe ich gegengetestet und die Taktraten dort sind ziemlich exakt. Habe mich mit einem Intel-Dev und dem Dev des Tools intensiv ausgetauscht und unter Windows ist es wohl nicht so einfach möglich. Auf CPUID.com gibt es jedoch mittlerweile ein ganz gutes Tool. Vielleicht kann ich das verwenden. Habs mir noch nicht angesehen. Damals war es noch in Entwicklung und inoffiziell hat man mir das schon geflüstert dass da was kommt.

Edit: Muss nun weg, daher abrupt mal abgebrochen. :D

Edit: Schau mal bei Valley die Details an. ;) Low-low dürfte da noch mehr geben. Sind wie geschrieben alles Zwischenergebnisse ohne große Relevanz.

gbm31
2016-03-06, 13:41:42
Habe mir G.SKILL 2 x 8 GB, F3-2133C11D-16GXL gekauft. Wegen Dual Ranked. Die laufen auf 1,5V. Die 2400 sind afaik die gleichen nur mit einer höheren Spannung. Könnte mit 1,5V funktionieren. Sandy ist afaik auf 1,55V spezifiziert von Intel.

http://extreme.pcgameshardware.de/mainboards-und-arbeitsspeicher/316914-ram-mythen-aufgeklaert-der-grosse-arbeitsspeicher-thread-inkl-langzeittest.html
"Für die Sandy-Bridge-Generation gab Intel bereits eine maximale RAM-Spannung von 1,55 Volt vor."

Hab mir zusätzlich noch einen 2700K bei Ebay geschossen. Suchte eh grad eine CPU für den Rechner meiner Freundin. Die bekommt dann den 2500K. Mal schauen ob der auch 5 Ghz schafft.


Gestern hab ich endlich Zeit gefunden, die neuen Riegel einzubauen.

Natürlich endete diese typische nur-kurz-Aktion in einem Fiasko.

Riegel verbaut: kein Boot.
BIOS Reset: Boot, aber 1333MHz mit 1.65V

Natürlich waren alle OC-Einstellungen, die ich vor 5 Jahren(!) als SweetSpot für Leistung/Temperatur erarbeitet hatte, weg, und ich hatte sie natürlich nicht dokumentiert.

Für XMP war ein BIOS Update fällig, damit kamen noch ein paar mir nicht bekannte Power Limit und Current Limit Einstellungen dazu.

Also alles nochmal stundenlang nachgeschlagen und zusammengesucht im Netz, unzählige Neustarts und Resets bis alles mal ausgetestet war, und jetzt läuft er endlich wieder auf 4.3GHz, mit DDR2133 CL11 @ 1,575V.

Uff...

Ob es das wert war?

Gut dass ich zum Abregen gestern aufs 'Sick of it all' Konzert konnte!

Annator
2016-03-06, 13:56:12
Gestern hab ich endlich Zeit gefunden, die neuen Riegel einzubauen.

Natürlich endete diese typische nur-kurz-Aktion in einem Fiasko.

Riegel verbaut: kein Boot.
BIOS Reset: Boot, aber 1333MHz mit 1.65V

Natürlich waren alle OC-Einstellungen, die ich vor 5 Jahren(!) als SweetSpot für Leistung/Temperatur erarbeitet hatte, weg, und ich hatte sie natürlich nicht dokumentiert.

Für XMP war ein BIOS Update fällig, damit kamen noch ein paar mir nicht bekannte Power Limit und Current Limit Einstellungen dazu.

Also alles nochmal stundenlang nachgeschlagen und zusammengesucht im Netz, unzählige Neustarts und Resets bis alles mal ausgetestet war, und jetzt läuft er endlich wieder auf 4.3GHz, mit DDR2133 CL11 @ 1,575V.

Uff...

Ob es das wert war?

Gut dass ich zum Abregen gestern aufs 'Sick of it all' Konzert konnte!

Ich komme nicht mal über 1600. :frown: Was hast du genau eingestellt? Egal was ich bei über 1600 einstelle er bootet dann nicht.

Ich würde irgendwie bei dir noch versuchen 2T auf 1T zu bekommen. Auch wenn der Speicher dann mit weniger Mhz läuft.
Normalerweise sollte deine CPU sofort mit Turbomulti 45 ohne weitere einstellungen laufen. Hat bei mir bis jetzt jeder Sandy den ich hatte.

BlacKi
2016-03-06, 14:11:31
Der Quad-Core Cpu Test von pcper.com (http://www.pcper.com/reviews/Systems/Quad-Core-Gaming-Hardware-Roundup/BioShock-Infinite-and-Civilization-Beyond-Earth) ist der einzig mir bekannte, der eine ganze Reihe Spiele auf mehreren Verschiedenen GPUs + CPUs testet.
der test wirft mehr fragen auf als das er welche beantwortet. ich kann aus den werten keine schlüsse ziehen. in dem test ist wohl einiges schief gelaufen wenn bei derselben gpu ein langsamer i5 einen i7 überholt. naja vl liegts an HT aber in jedem fall verwirrend.

Lowkey
2016-03-06, 14:19:01
Die PCGH? hat irgendwo (wie immer gut versteckt) geschrieben, dass die Programmierung von Hyperthreading hin und wieder ein Problem ist. Und zwar können die Spiele manchmal nicht zwischem echtem und virtuellem Kern unterscheiden. Das ist dann ein Schlagloch auf der Datenautobahn. Mich wundert eher, dass der i3 nicht ähnliche Probleme wie der i7 hat.

gbm31
2016-03-06, 14:40:48
Ich komme nicht mal über 1600. :frown: Was hast du genau eingestellt? Egal was ich bei über 1600 einstelle er bootet dann nicht.

Ich würde irgendwie bei dir noch versuchen 2T auf 1T zu bekommen. Auch wenn der Speicher dann mit weniger Mhz läuft.
Normalerweise sollte deine CPU sofort mit Turbomulti 45 ohne weitere einstellungen laufen. Hat bei mir bis jetzt jeder Sandy den ich hatte.

Tja, meiner braucht dazu ordentlich Saft, da hab ich lieber 10° weniger und damit leiser...

1T probier ich noch.

Das von dir beschriebene Verhalten hatte ich vor dem BIOS Update, da konnte es das Board mit dem XMP Profil nicht wirklich was anfangen.

Die Einstellungen lichte ich dir kurz ab.

[edit] done

Mortalvision
2016-03-06, 14:58:59
Das ist dann ein Schlagloch auf der Datenautobahn. Mich wundert eher, dass der i3 nicht ähnliche Probleme wie der i7 hat. Ganz einfach: Bei einem echten Zweikerner merkst Du solche speziellen HT-Ruckler nicht. Der hakt schon von sich aus ganz normal ;D War bei meinem Haswell i3 so, und ist auch beim jetzigen 4790k so. Da hilft bei letzterem nur, das HT auszuschalten, war z.B. bei DA-Inquisition der Fall.

Annator
2016-03-06, 14:59:45
Tja, meiner braucht dazu ordentlich Saft, da hab ich lieber 10° weniger und damit leiser...

1T probier ich noch.

Das von dir beschriebene Verhalten hatte ich vor dem BIOS Update, da konnte es das Board mit dem XMP Profil nicht wirklich was anfangen.

Die Einstellungen lichte ich dir kurz ab.

[edit] done

VTT nicht mal erhöht. Verstehe das bei mir nicht. Ja das mit dem Bios muss ich mal testen. Laut anzeige hab ich ein neueres Bios (F9) installiert als es überhaupt gibt (F7). Gigabyte P67A-UD7-B3

gbm31
2016-03-06, 15:22:36
Ganz einfach: Bei einem echten Zweikerner merkst Du solche speziellen HT-Ruckler nicht. Der hakt schon von sich aus ganz normal ;D War bei meinem Haswell i3 so, und ist auch beim jetzigen 4790k so. Da hilft bei letzterem nur, das HT auszuschalten, war z.B. bei DA-Inquisition der Fall.

Quatsch. Ich bin sehr empfindlich bei sowas und habe definitiv keine bei meinem i3.

[edit]

CR 1T läuft grade im Test, scheint aber kein Problem darzustellen...

[edit2] nö, läuft nicht.

Mortalvision
2016-03-06, 20:10:14
Quatsch. Ich bin sehr empfindlich bei sowas und habe definitiv keine bei meinem i3.

Entschuldige! Es kommt natürlich stark aufs Spiel an! Bei DA-Inquisition hatte man die CPU bedingten Ruckler schon sehr stark gemerkt, z.B. wenn ich in die Burg ab Akt zwei gegangen bin. Oder wenn ein Bosskampf mit vielen Gegnern war => muss dazu anmerken, das war noch mit einer R9 280 3GB:freak:

gbm31
2016-03-07, 10:09:14
Ich habs zwar nicht bis zum Schluss durchgehalten und im zweiten Akt abgebrochen, aber mit meinem WOBZwerg und entsprechenden Einstellungen (40-60fps) keine speziefischen "HT-Ruckler" ausgemacht...

Sicher dass das keine AMD Problematik Auswirkung war? (DX11, Mantle)

Mortalvision
2016-03-07, 13:03:16
Will ich wirklich nicht ausschließen!

Dr.Doom
2016-03-07, 14:49:57
Load Line Calibration (siehe von oben geliehenes Bild unten ;) ).

Bei meinem Asrock-Board kann man zwischen "Auto" und den Leveln 1 bis 5 wählen.
Welches der Level ist denn das "aggressivere" Level, das potentiell für die CPU schädlich sein könnte? Ist das 1 oder 5?
Ich habe dafür noch keine Erläuterung finden können.

2. Bild in diesem Beitrag:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10963613&postcount=183

gbm31
2016-03-07, 15:28:34
Laut dem Schaubild, welches mein BIOS zur Erklärung der Einstellung einblendet, ist Level 1 voll aktiv, der Vdrop praktisch deaktiviert, ergo potentiell schädlich, und Level 5 aus. In etwa wie im Anhang dargestellt.

Da ich trotz OC gerne alle Stromspareinstellungen nutze und die CPU gerne bei 1.6GHz und niedriger Vcore rumdümpeln darf, habe ich die LLC natürlich aus.

Übertakter, die das System aus Vdrop, Vdroop, dem Wechsel der Lartzustände nicht im Griff haben, oder sich damit nicht herumärgern möchten, sollte die LLC auf maximum stellen. Und dann bitte auch alle Stromspareinstellungen...

Eine ganz gute gibts Erklärung hier: http://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/36445-skylake-im-overclocking-check.html?start=1

Annator
2016-03-07, 17:48:02
C3/C6 kannst du mit LLC ohne Probleme aktivieren. Er taktet dann runter nur die Spannung bleibt gleich. Spart ca. 10 Watt (von 20W im idle auf 10). Was sind schon 10W.

gbm31
2016-03-07, 18:25:36
Streng genommen eigentlich nicht, weil sich imho der Widerstand bei Lastwechseln ändert, und es dabei auch zu Überschwingern kommt.

Aber dazu bin ich zu wenig Elektroniker...

gbm31
2016-03-07, 18:40:23
Jetzt müsste ich der Vollständigkeit halber testen, ob und wie sich min Frames und Frametimes unterscheiden zwoschen 16gb @ 1333 CL9 und 2133 CL11...

Aber irgendwie kann ich mich grad nicht dazu motivieren. :-)

IceKillFX57
2016-03-07, 20:26:21
Nur so als Hinweis.
Wenn ihr am RAM spielt, macht damit keine Foto backups bzw kopieren.
Ich habe damit schon mal unwissend einige defekte bzw fehlerhafte Fotos raus bekommen.

Annator
2016-03-07, 21:07:45
Wie bei der CPU sollte man den Speicher schon mit Memtest checken ob er dann noch einwandfrei arbeitet.

gbm31
2016-03-08, 17:47:24
Noch was:

Beim Ram und IMC testen nicht memtest86+ 5.0.1 nehmen - im SMP Mode gibt es bei Test 7 einen reproduzierbaren Fehler!

Ich hab mich damit eine Stunde verrückt gemacht, bis ich im offiziellen Forum gelandet bin.

http://hcidesign.com/memtest/ 4 Cores = 4 Instanzen