Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Intel Skylake - (P)Review-Thread
Zergra
2016-07-06, 09:32:22
@Ph03n!X
Ich würde aktuell keine 4 Kern CPU´s mehr kaufen. Dafür wäre mit der Mehrwert zu gering.
Auch wenn es mit aktuell echt in den Fingern juckt, der 2500k wird bald 6 Jahre alt. Ich hätte gerne für die VM noch min 2 Kerne mehr. Deswegen kann ich den Release von Zen kaum erwarten. Hoffen wir mal das AMD dann jedenfalls in die nähe von Skylake kommt. 10% IPC weniger wäre auch nicht tragisch :D
Capt'N Coax
2016-07-06, 12:11:53
@Ph03n!X
Ich würde aktuell keine 4 Kern CPU´s mehr kaufen. Dafür wäre mit der Mehrwert zu gering.
Auch wenn es mit aktuell echt in den Fingern juckt, der 2500k wird bald 6 Jahre alt. Ich hätte gerne für die VM noch min 2 Kerne mehr. Deswegen kann ich den Release von Zen kaum erwarten. Hoffen wir mal das AMD dann jedenfalls in die nähe von Skylake kommt. 10% IPC weniger wäre auch nicht tragisch :D
Da mein neues System ja auch ansteht und ich EIGENTLICH zum 6700k tendierte, weil der momentan vom P/L für Games super passt inklusive günstiger 1151 Plattform, hatte ich mir auch mal die Intel Roadmap angeschaut, ob man evtl. in 1-2 Jahren dann einfach 'nen 6 Kerner Skylake einbaut.
Aber da scheint ja nix zu kommen, nur Refreshes. Oder evtl. dann wieder 'n sündhaft teures Zeusch, evtl. mit neuem Sockel. Also kann man IMO schon sagen, dass Sockel 1151 im Prinzip verbrannt ist (oder ich hab irgendwas falsch interpretiert) für 6+ Cores.
Wer Mehrkerner will, kann sich JETZT mit 2011 beschäftigen und hat die freie Wahl zwischen den Broadwells oder den Haswell-Es.
Da mit breiterer DX-12 Unterstützung dann jetzt auch so langsam die CPUs besser ausgelastet werden, ist das für einen Zeitraum von ca. 5 Jahren+ Lebensdauer glaube ich so wie du sagst: Die 4 Kerner sind nicht mehr die BESTE Alternative für die nahe Zukunft, aber IMMER noch ausreichend als P/L Kauf. Das Gesparte kütt dann halt in die Graka.
Zergra
2016-07-06, 13:04:53
Da mit breiterer DX-12 Unterstützung dann jetzt auch so langsam die CPUs besser ausgelastet werden, ist das für einen Zeitraum von ca. 5 Jahren+ Lebensdauer glaube ich so wie du sagst: Die 4 Kerner sind nicht mehr die BESTE Alternative für die nahe Zukunft, aber IMMER noch ausreichend als P/L Kauf. Das Gesparte kütt dann halt in die Graka.
Da hast du wohl recht, aber bei einem 4 Kerner ist mir der Sprung zu klein. Das System soll dann wieder 6-7 Jahre halten, ein 6-8 Kerner würde selbst dann noch relativ weit oben mitspielen. Ein 4 Kernen wäre dann doch etwas zu low und halt kein großer Unterschied zu einem 2500k.
Deinorius
2016-07-06, 16:21:57
Sollte man noch auf Kaby Lake warten? Im Q2 2017 steht bei mir ein komplettes Update des Rechners an.
Gibt es schon echte Mehrwerte für 6 & 8 & 10 Kern Prozessoren?
Oder auf den ZEN von AMD warten?
Der soll dieses Jahr noch erscheinen oder?
Wenn du erst im kommenden Frühling aufrüstest, brauchst du dir eh erst im neuen Jahr damit richtig beschäftigen. Dann sollte es sowohl von Kaby Lake als auch Zen genug Vergleichswerte geben.
The_Invisible
2016-07-06, 20:37:06
@Ph03n!X
Ich würde aktuell keine 4 Kern CPU´s mehr kaufen. Dafür wäre mit der Mehrwert zu gering.
Auch wenn es mit aktuell echt in den Fingern juckt, der 2500k wird bald 6 Jahre alt. Ich hätte gerne für die VM noch min 2 Kerne mehr. Deswegen kann ich den Release von Zen kaum erwarten. Hoffen wir mal das AMD dann jedenfalls in die nähe von Skylake kommt. 10% IPC weniger wäre auch nicht tragisch :D
Naja, die 6 Jahre Entwicklung sollte man nicht unterschätzen. Laut PCGH Test in SC2 zb. ist ein 6700k knapp doppelt so schnell wie ein 2600k (alles default). Ein User hier hat auch von 980x auf 6700k aufgerüstet und von einem großen Sprung gesprochen.
Kerne sind eben nicht alles aber nett zum haben. Würde mir auch keinen alten 6Kerner einbauen weil es nichts bringt (haben in der Firma genug Xeons herumliegen). Da braucht es beim Mining schon 20x alte Xeon Threads @2,4ghz um mit meinem 6700k mitzukommen.
Neues ZenBook von Asus vorgestellt:
http://www.anandtech.com/show/10479/asus-unveils-zenbook-flip-ux360ca-ultrathin-convertible-laptop-for-699
$699 für die 256 GB SSD Version ist ein vernünftiger Preis.
Xaver Koch
2016-07-08, 21:10:45
Meines Erachtens ist der Unterschied vom 2500K zum 6700K jederzeit nicht nur klar mess- sondern auch deutlich spürbar. Zudem hat Skylake weit weniger FPS-Drops und bessere min. FPS als die Generationen zuvor. Wer aktuell mehr Leistung braucht, kann jetzt bedenkenlos zuschlagen - als i7 hat er ja vier echte und vier virtuelle Kerne.
Ph03n!X
2016-07-10, 12:08:32
Ja werde bis Anfang kommenden Jahres warten und dann entscheiden. Im April wird mein Rechner 5 Jahre alt und Zeit für was neues.
Zergra
2016-07-10, 12:18:04
Naja, die 6 Jahre Entwicklung sollte man nicht unterschätzen. Laut PCGH Test in SC2 zb. ist ein 6700k knapp doppelt so schnell wie ein 2600k (alles default). Ein User hier hat auch von 980x auf 6700k aufgerüstet und von einem großen Sprung gesprochen.
Tja, auf default. Mit OC siehts halt komplett anders aus. Mein 2500k macht 4.8Ghz 24/7 seit mehr als 5 1/2 Jahren. Da wäre der Unterschied auf 4 Kernen gerade mal bei ca 25%. Dazu nochmal 20% Leistung durch SMT. Finde ich einfach zu wenig für 5 Jahre.
Ja werde bis Anfang kommenden Jahres warten und dann entscheiden. Im April wird mein Rechner 5 Jahre alt und Zeit für was neues.
Ja, wird bei mir dann ähnlich sein. Meiner wird dann schon 6 Jahre alt sein oO Dann sollte es auf dem Markt durch Zen etwas bessere Preise und Mehr Leistung geben.
Wieviel Völter kann man Skylake eigentlich 24/7 geben? Meiner hat eine denkbar ungünstige VID von 1.28V :freak:. Ich habe ihn allerdings geköpft und gebe ihm 1.344V bei nun max. 64°C in LinX 0.6.5 nach 60min (vor dem Köpfen waren es bis zu 95°C :redface:). 4.9 und 5G bekomme ich zwar bootstable, allerdings reichen für 4.9G 1.36V nicht mehr aus.
Bei Sandy und Ivy gab es doch mal die "inoffizielle" 1.4V-Schwelle, welche man tunlichst 24/7 nicht überschreiten sollte. Gibt es einen solchen Richtwert immer noch?
kruemelmonster
2016-08-22, 23:16:22
Bei Sandy und Ivy gab es doch mal die "inoffizielle" 1.4V-Schwelle, welche man tunlichst 24/7 nicht überschreiten sollte.
Bei Sandy war der Grenzwert fürs "ungefährliche" Overvolting bei 1.375v...klingt im ersten Moment vllt nicht nach viel Unterschied, aber wir sprechen hier vom Grenzwert für 24/7 OC über Jahre hinweg.
Bzgl Skylake mit ich mit einem 2600k @ 4.5 GHz und 32 GB @ 1866 auch noch sehr entspannt unterwegs und spüre höchstens plattformseitig ganz leichten Aufrüstdruck. In Kürze fliegt die GTX 670 für was neueres raus, und solange die CPU weiterhin gute fps produziert und das Board weiterlebt sehe ich keinen Grund die Plattform zu wechseln.
gnomi
2016-08-23, 10:30:13
Habe meinen 2600k auch seit Release.
Lief lange mit 4Ghz ohne Spannungserhöhung, aber mittlerweile mit 4,4 Ghz und 1,325V.
Auch beim Ram habe ich zwischenzeitlich getauscht. Erst auf schnellere 2133 Mhz, und jetzt auf 32GB. (musste hier leider auf 1,65V gehen, weil die alten Riegel mit 1,5V nicht mehr zu bekommen waren)
Man merkt dennoch, dass so langsam Schluss ist. :(
Mit einer 980 kombiniert ist es ein stimmiges System, aber die 1080 wurde schon ein bisschen ausgebremst. Zieht man den frechen 40% höheren Anschaffungspreis dazu, überlegt man eben, ob das noch so sein muss.
Skylake wäre mit so einer Karte wegen der höheren Pro Mgz Leistung und verbesserten Architektur tatsächlich interessant, aber mir geht es auch so, dass ich nach all den Jahren dann nicht die selbe Anzahl an Kernen will. (hinzu kommt der ganze Umbau)
Irgendwie ist es langsam wie bei anderen Gebrauchsgegenständen auch.
Es lohnt sich weniger oben raus, und die Produktzyklen kann man bequem etwas vergrößern, wenn man leichte Kompromisse erträgt und dem Gamer Marketing und abfeiernden Hardware Seiten verstärkt fernbleibt.
Der Enthusiast Markt ist imho einfach zur Abzocke verkommen. (nur ausschließlich auf Konsolen spielen will ich jetzt auch nicht- also eben eine Nummer tiefer)
Zergra
2016-08-23, 11:38:03
Bei Sandy und Ivy gab es doch mal die "inoffizielle" 1.4V-Schwelle, welche man tunlichst 24/7 nicht überschreiten sollte. Gibt es einen solchen Richtwert immer noch?
Bei einigen läuft das ding aber auch nach Jahren noch bei über 1.4V. Die Teile haben einen langen Lebenslauf. Denke auch nicht das die so schnell abrauchen. Vorher macht das Mainboard die Grätsche.
@gnomi.... ja die Preise haben vorallem sind wesentlich höher und wieder 4 Kerne würde ich mir auch nicht kaufen. Das ist ein Gefühl von Stillstand. Leider hat mein Mainboard keinen M.2 Slot. Adapter bringt mir auch nichts, da die Karte und Soundkarte schon fast alle belegt. :confused:
ashantus
2016-08-23, 22:27:10
Der nächste Prozessor auf Sockel 1151 ist Kabylake. Der bringt nur 200-300 MHz mehr ab Frühjahr. Für diese Plattform lohnt sich das Warten also nicht, da kann man gleich kaufen. An dieser Stelle lege ich euch nahe, die Cashback-Aktionen im Auge zu behalten. Die letzte lief vor einem Monat mit ordentlicher Ersparnis.
Da 1151 nicht zum warten lohnt, bleiben die Alternativen auf Zen zu warten oder auf 2011 zu gehen.
2011 wird in einem halben Jahr von Sockel 2066 abgelöst mit Skylake-X.
Mein Fazit ist: 1151 ist die billige Lösung für jetzt.
Wer dringend Mehrkerner braucht, wird ein halbes Jahr nicht warten können.
Der Vorteil von Sockel 2066 mit Skylake-X müsste so groß sein, daß sich 6 Monate warten lohnen.
Wer auf 2066 wartet wegen der 8Kerner mit HT, sollte daran denken, daß dies auch ordentlich Aufpreis kosten wird.
Neben dem Kostenaspekt steht halt auch der Nutzungseffekt. Einen 6700K hat man jetzt, und erfreut sich eine Weile daran. Der Wiederverkaufswert von den CPU s ist sehr hoch.
Meiner Meinung nach lohnt sich ein Upgrade von SandyBridge o.ä. schon jetzt.
Die Alternative Zen bleibt offen, bin aber skeptisch ob Kinderkrankheiten einer komplett neuere Architektur.
http://www.heise.de/newsticker/meldung/Intel-Geruechte-Neue-Roadmap-neue-Workstation-Technik-3225495.html.
MiamiNice
2016-09-23, 13:19:17
Bin gerade etwas verwirrt über den Release von Skylake X. Kommt der nun im Frühjahr oder eher im Herbst. Ich muss unbedingt meinem Devils Canyon los werden, mein System kränkelt an fehlenden PCI-E Lanes :( weiß im Nachhinein gar nicht was mich geritten hat ein schnödes Standard Desktop System zu kaufen -.-
dildo4u
2016-09-23, 13:27:06
Broadwell-E ist grad erst neu,im Januar kommt erstmal der 6700k Nachfloger.Die High End CPU's vermutlich im Sommer 2017.Wird Teuer wenn du nur für PCI Lanes aufrüsten willst und beim 4 Core bleibst,ich würde an deiner Stelle auf den 6 Core Skylake warten.
MiamiNice
2016-09-23, 13:34:09
Geplant ist ein 8 Core Skylake x mit 64 oder 128GB Ram und min. 2 PCI-E SSDs von Samsung (500GB für Windows, 1000GB für Games - die Sata 3 SSDs sind mir mittlerweile zu langsam und sollen nur noch als Datengräber dienen). Das ist auch aktuell mein Problem, meine aktuelle CPU (4790K) hat nur 16 PCI-E Lanes und wenn ich die PCI-E SSDs dazu stecke, sinkt die Anbindung der Grafikkarte auf 4 Lanes ab. Das geht halt gar nicht.
Also bis Sommer warten :(
Palpatin
2016-09-23, 16:03:24
Das ist auch aktuell mein Problem, meine aktuelle CPU (4790K) hat nur 16 PCI-E Lanes und wenn ich die PCI-E SSDs dazu stecke, sinkt die Anbindung der Grafikkarte auf 4 Lanes ab. Das geht halt gar nicht.
Also bis Sommer warten :(
Müsste doch 8 für die GPU und je 4 für die SSD gehen? oder übersehe ich da was?
Nightspider
2016-09-23, 17:05:01
Wenn dir sata 3 SSDs zu langsam sind sind dir auch NVMe SSDs zu langsam. :tongue:
MiamiNice
2016-09-23, 17:52:14
Müsste doch 8 für die GPU und je 4 für die SSD gehen? oder übersehe ich da was?
Du hast recht! Habe gerade das Handbuch konsultiert und es ist tatsächlich so: 16, 8/8 oder 8/4/4 je nachdem ob PCI-E Port 1, 1+2 oder 1+2+3 bestückt sind.
Dann muss ich jetzt wohl mal einen Bench suchen wie viel Leistung die 1080 verliert wenn sie nur mit 8 statt 16 Lanes angebunden ist.
€: Letztlich macht das keinen Unterschied ob eine 1080 mit 8 oder 16 Lanes angebunden ist. Knapp 1% Leistungsdifferenz. (http://www.gamersnexus.net/guides/2488-pci-e-3-x8-vs-x16-performance-impact-on-gpus) Also kommen die NVE SSDs schon jetzt in die Kiste und nicht erst im Sommer mit dem Skylake. :up: Danke!
Wenn dir sata 3 SSDs zu langsam sind sind dir auch NVMe SSDs zu langsam. :tongue:
Das glaube ich kaum. Das Skylake X System ist bei mir schon so lange in Planung wie Star Citizen existiert und es die ersten Hinweise zu Skylake gab.
Bei mir wird Star Citizen (und alles anderer von da an) komplett in einer Ram Disk laufen, die jedesmal weggeschrieben wird wenn der PC ausgemacht wird und wieder befüllt wird sobald Windows startet. Schreib mal 50 oder mehr GB aus einer Ram Disk auf eine Sata 3 SSD. Das macht keinen Spaß deswegen müssen die Teile mit 3GB/s in die Kiste.
Ich weiß -> Luxusprobleme. Aber ich mag es nicht nur über HW zu reden, ich besitze sie auch gerne :biggrin:
Nightspider
2016-09-23, 21:41:19
Naja wenn du meinst das Star Citizen in 128GB, abzüglich RAM Belegung durch Windows und andere Programme, passen wird dann viel Glück. :D
Mit 64GB kannste das gleich knicken aber wir werden hier Offtopic.
Bullz
2016-09-26, 21:24:55
Ich brauche mal den Rat von euch Übertaktungs Gurus .. bin ein neuer in der OC Szene und hab damals noch mit FSB übertaktet ;) also ein fast ganz alter Knochen ...
offener Aufbau ( Dan SFX bestellt )
Intel 6700K ( leider noch ungeköpft. Wird bald erledigt)
Cryorig C7 Kühler ( 5 cm Hoch und nicht sehr leistungsfähig )
Fatal1ty Z170 Gaming-ITX/ac ( neueste Bios, alles default )
EVGA 1070 SC
Ziel: 4x 4.3 Ghz bei Spielen .. Prime Realbench und co verwende ich nur für Stabilitätstest. Warum genau 4.3 Ghz .. warum genau 100 Mhz .. weil ein Kumpel nen 6700K hat ohne irgendein zutun im BIOS und ich will 100 Mhz mehr wie er ;) also ein ganz vernünftiger Grund... wenn die Kiste stabil ist dann werde ich ihn auch nicht weiter mehr mit Prime und co quälen.
Einstellungen:
BIOS CPU V-Core Fixwert 1.165V
BIOS LLC Stufe 2 von 5 ( wobei 1 dem max entspricht )
Hab den Screenshot mit den echten 180 min verhaut. Pc war 180 Min Realbench stabil. Weiters testen mit anderen Spielen mit Fleißig ALT-TAB in Windows und wieder zurück waren auch stabil. ( dort schmeißt es bei mir meistens den Rechner wenn das Oc nicht sauber ist )
http://www2.pic-upload.de/img/31777379/Realbench_4.3ghz_LLC2von5_1.165V_190min.jpg (http://www.pic-upload.de/view-31777379/Realbench_4.3ghz_LLC2von5_1.165V_190min.jpg.html)
Ist das " sauber " ... werde versuchen noch weniger VCore zu geben aber bin glaub ich schon an der Grenze.
Du solltest Vcore auf Standard stellen und nur mit dynamic Vcore Arbeiten. Warum? Ansonsten wenn dein CPU nix zu tun hat, bleibt dieser Wert ja konstant so wie du es aktuell machst.
FatBot
2016-11-15, 10:17:50
Mal eine vielleicht blöde Frage zum Untertakten: Kann ich bei einem 6700K auch kleinere Multiplikatoren als 40 festlegen oder geht Untertakten nur über den BLCK? Auf meinem ASUS Z170i kann ich bei Core-Ratio nur Werte >= 40 angeben. Wo liegt der Fehler bzw. welche zu ändernde Menüoption habe ich übersehen?
Deathcrush
2016-11-15, 10:44:32
Kann es sein das der 6700k ordentlich VCore benötigt bei 4500MHZ? Derzeit läuft er mit 1,24V bei 4200MHZ. Mit 4500MHZ benötige ich wohl mehr als 1,32V. Die Frage ist ob das überhaupt sinnvoll ist für Rund 10% Mehrleistung den Vcore so derart hoch zu schrauben.
The_Invisible
2016-11-15, 11:13:21
Naja, was heißt hoch? Meiner setzt bei Standardtakt und AVX2.0 Anwendungen schon so 1.29 an. Das Skylake nicht so das OC Wunder ist, ist eigentlich eh bekannt.
gnomi
2016-11-15, 11:15:25
Es gibt ja immer so eine Taktgrenze pro Exemplar/Serie, wo plötzlich langsam Schluss ist.
Erfahrungsgemäß lohnt sich moderates Overclocking weit mehr.
Die letzten Reserven kann man eventuell später rausholen, um eine neue CPU etwas hinauszuzögern.
Ich finde die Taktsteigerung allgemein etwas lasch.
Allerdings werden die 4/8 Thread Prozessoren ja auch schon mit 4 GHz ausgeliefert. (bei Sandy Bridge klingt das ausgehend von 3,3-3,5 GHz dann ganz anders, aber das war auch ein Sonderfall)
Ich bin gespannt, wann wir mit 6 und 8 Kernen solche Taktraten OOTB sehen. Der Prozess scheint beschränkt zu sein seit einiger Zeit...
dargo
2016-11-15, 11:22:27
Kann es sein das der 6700k ordentlich VCore benötigt bei 4500MHZ? Derzeit läuft er mit 1,24V bei 4200MHZ. Mit 4500MHZ benötige ich wohl mehr als 1,32V. Die Frage ist ob das überhaupt sinnvoll ist für Rund 10% Mehrleistung den Vcore so derart hoch zu schrauben.
Die letzten paar Mhz-chen haben sich noch nie gelohnt. Mal ganz ehrlich... das sind 7% Unterschied. Und da du höchstwahrscheinlich die Bandbreite gleich lässt schlagen im absoluten CPU-Limit eher 4-5% durch. Wen soll das jucken? :tongue:
Deathcrush
2016-11-15, 11:37:22
Naja, ich könnte auch noch auf DDR4 3000 hoch, war bisher nur zu faul :D Nur ob das dann wirtklich so viel ausmacht glaube ich nicht. Aber ich werde wohl bei 4200MHZ bleiben und den Vcore nach unten hin ausloten. Mit der CPU komme ich so schnell nicht ans limit, das Teil ist ein Monster ^^
Chrisch
2016-11-15, 19:59:31
1.24v für 4200MHz hört sich schon argh schlecht an, VCore & OC hängt aber auch stark vom Board ab muss man sagen.
Ich hatte 2 6700K hier und beide liefen 4800MHz mit 1.328v LinX stable, 4500MHz unter 1.20v.
Deathcrush
2016-11-15, 20:01:34
Weniger Vcore habe ich noch nicht getestet, das Board hatte von Haus aus schon für die normale Freq. 1,32Vcore eingestellt. Aber da mir die Leistung völlig ausreicht, werde ich erstmal nicht OC. Den Vcore werde ich noch nach unten hin ausloten.
Ich hatte 2 6700K hier und beide liefen 4800MHz mit 1.328v LinX stable, 4500MHz unter 1.20v.
Und was möchtest du uns damit sagen? Das nun jeder Skylake 4,8GHz schafft? Du hast einfach nur unglaublich viel Glück gehabt, mehr nicht.
Andere (meiner) eingeschlossen schaffen selbst bei 1,325V keine 4,5GHz Prime Stable (Prime 28.9, alte Version zählt für mich nicht)... Bei 4,4GHz ist schluss und da bin ich nicht der einzige.
@Deathcrush deine Werte kommen meiner Gurke relativ nah @Auto und 4,2GHz... ich denke mal wenn du auslotest wirst so bei ~1,2V rum rauskommen.
Ich bin Maximal mit 1,225V (einzelne Peaks auf Max. 1,25V) auf 4,4GHz gekommen.
Chrisch
2016-11-15, 22:52:37
Nein, aber so schlechte Werte sind eher ungewöhnlich. Aber wie schon gesagt, hängt das halt stark vom Mainboard ab und 95% 120-150€ Boards hängen den teureren einfach stark hinterher gerade hinsichtlich OC. Bin selbst aufgrund dessen vom ASUS Z170 Pro Gaming zum ASRock Z170 OC Formula gewechselt und die CPU die vorher 4.5GHz mit 1.28v schaffte läuft nun 4.8GHz mit 1.328v bzw 4.5GHz mit unter 1.2v.
Zu Prime, das nutze ich generell nicht (mehr) denn alle Werte die ich damit bisher erreicht habe waren nicht wirklich LinX (v0.6.9) stable. Für Prime kann ich von den Werten nochmal ca 30mV abziehen.
Das mag durchaus auch vom Mainboard abhängen, aber das billigste ist meins auch nicht gerade gewesen. (Asus Maximus VIII Hero)
Momentan habe ich allerdings @Stock laufen, weil ich irgendwie keinen spürbaren nutzen vom OC gemerkt habe.
Ich halte die 4,4 GHz übrigens nicht für sehr ungewöhnlich, in letzter Zeit habe ich sehr oft von leuten die sich gerade einen Skylake gekauft habe gelesen das diese keine 4,5GHz stable hinbekommen.
Lurtz
2016-11-16, 09:17:18
Im Mainboardbereich gibt es auch nur Schrott, oder? :mad:
Gigabyte und ASRock sind mir abgeraucht, also habe ich diesmal MSI versucht, genauer ein Z170-A PRO. Angeblich eine Standardempfehlung.
Nur Bugs das Board.
Keine Maus nach Standby. Kein Bild nach Ruhezustand. Und das schlimmste: Nach manchen Kaltstarts wird die SSD einfach nicht erkannt, nach einmal Ausschalten und Anschalten taucht sie dann wieder auf (ich weiß, das kann ein erstes Warnzeichen für einen Defekt sein, das halte ich hier aber für äußerst unwahrscheinlich).
So ein Mist, echt. Was bringt das schönste Bios, wenn solche Basics nicht funktionieren?
Vom Skylake an sich bin ich aber begeistert. Kühl und leistungsstark. Meine gesamte thermische Situation hat sich deutlich gebessert, im gedämmten Gehäuse ist der Rechner trotz R9 390 mit etwas Undervolting beider Komponenten praktisch lautlos, außer bei extrem fordernden Spielen. Anwendungs- und Spieleperformance ist merklich gestiegen.
The_Invisible
2016-11-16, 11:04:09
4,4 sind 10% mehr, das macht auch niemals zwischen spielbar und unspielbar aus. Darum kann man es eigentlich gleich sein lassen außer man zählt gerne Benchmarkpunkte.
Deathcrush
2016-11-16, 13:05:47
Bin jetzt bei 1,216 Vcore, Mobo hatte 1,3x eingestellt :D
Mr.Magic
2016-11-16, 14:18:53
4,4 sind 10% mehr, das macht auch niemals zwischen spielbar und unspielbar aus. Darum kann man es eigentlich gleich sein lassen außer man zählt gerne Benchmarkpunkte.
Im Grenzbereich können 10% durchaus was bringen. Immer dann, wenn 10% weniger auffallen würden. Rennspiele (mit vSync) z.B. sind unter 60 FPS oft unzumutbar.
dargo
2016-11-16, 14:52:13
Rennspiele (mit vSync) z.B. sind unter 60 FPS oft unzumutbar.
Bei Steinzeitmonitoren... ja. :cool:
Mr.Magic
2016-11-16, 15:03:28
Es gibt keine vernünftigen Monitore. Entweder man bekommt ein klares Bild mit BFI und ollem Vsync, oder verschmiertes Bild mit Free/G-Sync, oder man hat einen großen Monitor mit Steinzeittechnik.
dargo
2016-11-16, 15:06:45
Es gibt keine vernünftigen Monitore. Entweder man bekommt ein klares Bild mit BFI und ollem Vsync, oder verschmiertes Bild mit Free/G-Sync, oder man hat einen großen Monitor mit Steinzeittechnik.
Erzähl uns mehr. :eek:
Deathcrush
2016-11-16, 15:08:18
Das wüsste ich nun auch gerne. Auf jedenfall ist das Bild auf meinem 144HZ/Gsync sehr viel schärfer und klarer als auf meinem ollen 60hz TFT mit Vsync.
Mr.Magic
2016-11-16, 15:09:23
Was gibt es da groß zu erzählen? TFT ohne Black Frame Insertion haben Sample and Hold Schmierer.
http://www.tftcentral.co.uk/speccontent.htm#pursuit
dargo
2016-11-16, 15:23:37
Also ruckelst du dich lieber durch deine Spiele oder haust dir einen spürbaren Input-Lag mit Vsync On ein? Geiler Tausch. :uup:
Mr.Magic
2016-11-16, 15:28:25
Solange man 60FPS hält ruckelt nichts, und von Input Lag merkt man auch nichts während man einfach nur spielt. Natürlich sind die Spiele mit 120FPS noch eine Ecke flüssiger, merkt man idR aber nur im direkten Vergleich (BFI Monitore laufen mit 240Hz; 120 Spielebilder, 120 "Schwarzbilder").
aufkrawall
2016-11-16, 15:35:27
Input Lag merkst du nicht. Mich macht indirekte Mausübersetzung in den meisten Spielen komplett fertig, und Motion Blur hat man mit TAA sowieso.
Mr.Magic
2016-11-16, 15:53:48
Beim BFI-Monitor fällt mir, bei Spielen mit exzellenter Maussteuerung, nur ein minimaler Lag auf, und nur wenn ich mich darauf konzentriere. Zugegebenermaßen betrifft das hauptsächlich ältere Titel, da man bei aktuellem Zeugs das Motion Blur oft nicht ganz wegbekommt, und die Spiele sowieso controlleroptimiert sind (schlechte Maussteuerung und laaaaangsaaaaame Gegner, die man leicht wegsnipen kann).
Bei 2D Klassikern (gespielt mit Arcade Stick) merke ich gar nichts von einem Lag. Gerade die sind ohne Strobing bäh.
ps: Nicht vergessen, dass der Bildschirm mit 120Hz synchronisiert, und die 60FPS durch einen Limiter erzielt wurden...
aufkrawall
2016-11-16, 16:09:31
Wenn der fps-Limiter die Bildausgabe bestimmt und nicht mehr Vsync, hast du wahrscheinlich Judder (wobei mit 120Hz wohl nur sehr geringfügig).
Deathcrush
2016-11-16, 16:13:02
Solange man 60FPS hält ruckelt nichts
Dann hast du wohl noch nie auf einem 144hz TFT gespielt.
Mr.Magic
2016-11-16, 16:16:46
Jedenfalls nichts, dass störend auffällt solange man bei genau 60FPS bleibt*. Im Gegensatz zu FPS-Sprüngen (100FPS->60FPS->100FPS fühlt sich an wie durch Kaugummi gefahren), und den Problemen mit dummen Spielen, die 60FPS Sync erwarten (wie z.B. die Leitern in Mass Effect 3, oder alle Timer in Skyrim).
*Letzter Post von mir, da Kreis geschlossen, und zum Thema zurückgekehrt. :wink:
Bei 144Hz funktioniert BFI nicht. Du musst auf 120Hz runter um ULMB zu aktivieren.
aufkrawall
2016-11-16, 16:17:48
Dann hast du wohl noch nie auf einem 144hz TFT gespielt.
Das ist ein anderes Thema. Als ich das das letzte Mal hier ansprach, sind einige komplett ausgerastet. ^^
Nightspider
2016-11-16, 18:36:53
Es wäre in der Tat schön wenn mehr Gamer-Monitore BFI bekommen würden. Lieber 120Hz + BFI als ein 200Hz Monitor ohne BFI.
Die Hersteller sollen mal nicht so an hellen LEDs geizen. So teuer sind die nun auch nicht.
Dann hast du wohl noch nie auf einem 144hz TFT gespielt.
Ruckeln ist der falsche Begriff für 60Hz. Es fühlt sich vielmehr einfach langsamer an.
Richtiges Ruckeln gibts bei 60Hz noch nicht imo.
Edit: Huch mir fällt gerade auf das wir im Skylake Thread sind und nicht im Monitor-Thread. Hier seid ihr aber ganz schön vom Thema abgekommen.
The_Invisible
2016-11-16, 18:51:49
Im Grenzbereich können 10% durchaus was bringen. Immer dann, wenn 10% weniger auffallen würden. Rennspiele (mit vSync) z.B. sind unter 60 FPS oft unzumutbar.
Welches Rennspiel ist bitte so CPU limitiert das man mit einer aktuellen CPU keine 100fps schafft? Und dann müsste man genau im Bereich von 55 bis 60 fps sein damit die 10% OC was bringen. Alles recht unwahrscheinlich.
Deathcrush
2016-11-17, 08:54:34
Ich denke auch, aktuelle CPU´s zu übertakten lohnt einfach nicht mehr. Früher, als man noch Problemlos 20-25% übertakten konnte, sicherlich, aber heute ist es ja schon schwer nur 10% mehr zu erreichen. Ich müsste auf 4620 MHZ kommen um 10% mehr Takt zu erreichen. Das heisst, knappe 50W für 10% Mehrleistung. Bei 4700 MHZ sogar schon 70W mehr (laut Test) Lohnt also nicht wirklich ;) Und ein i7-6700 ist für aktuelle Spiele mehr als ausreichend schnell.
RoNsOn Xs
2016-11-17, 15:31:58
Darfst ja nicht vom Turbotakt ausgehen, denn dies ist ja eine automatische "ab Werk" Übertaktung.
Muss man schon den Based-Takt heranziehen.
Geächteter
2016-11-17, 18:50:55
Im Mainboardbereich gibt es auch nur Schrott, oder? :mad:
Seit ca. 2013 mit immer schlimmerer Tendenz zur Jetztzeit, definitiv ja. Biosse kann man ja schon ganz vergessen, graviernde Bugs, ewige lange Betas. Da herrscht wohl massiver Kostendruck bei nahezu Nullmarge. Denke, wenn es so weitergeht, wird bis 2020 der eine oder andere Hersteller aussteigen oder vom Markt getilgt.
Deathcrush
2016-11-18, 08:30:07
Darfst ja nicht vom Turbotakt ausgehen, denn dies ist ja eine automatische "ab Werk" Übertaktung.
Muss man schon den Based-Takt heranziehen.
Warum? Wenn sie von Werk aus 4200MHZ macht, dann rechne ich auch erst ab dort. Alles andere wäre kompletter unsinn. Und selbst wenn nicht, wären es gerade mal 15% Mehrleistung, die auch noch teuer erkauft werden müssen. Die Zeiten sind einfach vorbei, wo man Problemlos mit einer Lukü 1000MHZ mehr erreicht hat.
gnomi
2016-11-18, 10:46:20
Seit ca. 2013 mit immer schlimmerer Tendenz zur Jetztzeit, definitiv ja. Biosse kann man ja schon ganz vergessen, graviernde Bugs, ewige lange Betas. Da herrscht wohl massiver Kostendruck bei nahezu Nullmarge. Denke, wenn es so weitergeht, wird bis 2020 der eine oder andere Hersteller aussteigen oder vom Markt getilgt.
Ist die Qualität im teureren 2011-3 Bereich denn wenigstens besser als beim Sockel 1151. :confused:
RoNsOn Xs
2016-11-18, 11:12:49
Warum? Wenn sie von Werk aus 4200MHZ macht, dann rechne ich auch erst ab dort. Alles andere wäre kompletter unsinn. Und selbst wenn nicht, wären es gerade mal 15% Mehrleistung, die auch noch teuer erkauft werden müssen. Die Zeiten sind einfach vorbei, wo man Problemlos mit einer Lukü 1000MHZ mehr erreicht hat.
Ich sehe das anders.
Eine Custom GPU die übertaktet wurde und so in den Handel kommt, bei der zieht man schließlich diesen Wert auch nicht als Referenz heran.
Nicht ganz vergleichbar, aber sieht halt jeder anders.
Anders herum gedacht: Wozu überhaupt einen Grundtakt angeben? Könnte sich Intel dann auch sparen nach deiner Erklärung. Für mich ist der Turbo ein Feature ab Werk, was sonst der Anwender übernommen hätte.
6500k + 25% sind 4400mhz. Packen viele leicht. Sind nominell +900Mhz.
w.z.b.w.
Nightspider
2016-11-18, 12:24:52
Ich denke auch, aktuelle CPU´s zu übertakten lohnt einfach nicht mehr. Früher, als man noch Problemlos 20-25% übertakten konnte, sicherlich, aber heute ist es ja schon schwer nur 10% mehr zu erreichen. Ich müsste auf 4620 MHZ kommen um 10% mehr Takt zu erreichen. Das heisst, knappe 50W für 10% Mehrleistung. Bei 4700 MHZ sogar schon 70W mehr (laut Test) Lohnt also nicht wirklich ;) Und ein i7-6700 ist für aktuelle Spiele mehr als ausreichend schnell.
Übertakten lohnt immer.
Deathcrush
2016-11-18, 12:48:24
Finde ich nicht, schon gar nicht bei einem i7-6700. Da bremst eher meine Grafikkarte als die CPU, also warum 50W mehr Verlustleistung in kauf nehmen für gerade mal 10% mehr Takt, wobei in Spielen sicher nicht 10% mehr FPS dabei rüberkommen.
Nightspider
2016-11-18, 13:51:57
Die 50W werden aber auch nur bei 100% Dauerlast zusätzlich verbraucht.
Im Durchschnitt sollte der Unterschied deutlich geringer sein, selbst wenn man Surf-,Office- und Idlezeiten nicht mit berücksichtigt.
Wenn man die dazuzählt sind das Peanuts.
Deathcrush
2016-11-18, 15:22:25
Ich rede hier nur unter Last und wenn man div. Seiten glauben darf liegen ca. 20W Unterschied zu Prime und Gaming. Natürlich kommt es dann immer noch auf die CPU an und wiviel Vcore sie benötigt. Aber je mehr ich über dieses Thema lese (Skylake OC) wird mir klar, das sehr sehr viele schon über 1,3V gehen müssen um die 4500mhz zu erreichen, für 4600mhz sogar schon 1,35V und ich finde, das lohnt einfach nicht. Im Alltagsbetrieb oder Gaming wirst du davon nix merken. Ich habe bisher jede CPU übertaktet und der Skylake I7 ist echt der erste wo ich sagen muss, das lohnt einfach nicht.
Mr.Magic
2016-11-18, 18:47:10
20W wären dann bei 24/7 Gaming ~50€/Jahr. Geht man halt einmal weniger aus...
Screemer
2016-11-18, 19:18:34
bei 24/7 gaming gehst du gar nicht aus, also ist das argument nicht valide.
Mr.Magic
2016-11-18, 19:26:40
Wer genug Kohle hat nur zu spielen, und vor dem Computer schläft, sollte eh genug Geld übrig haben. :tongue:
Chrisch
2016-11-19, 01:36:06
Also bei mir sieht es wie folgt aus:
System:
Core i7 6700K
2x8GB DDR4-3200 CL15 (1.35v)
ASRock Z170 OC Formula
EVGA GTX 1080 SC (2 Monitore angeschlossen)
2x SSD
Laing D5 @ 2000-2600upm (je nach Last)
4x 120mm Lüfter @ 600-900upm (je nach Last)
Seasonic X-650W NT
Verbrauchswerte liegen bei
CPU @ default idle ~42W / load ~155W (CPU-Z 1.28v / VID 1.435v)
CPU @ 4.8GHz idle ~44W / load ~184W (CPU-Z 1.32v / VID 1.235v)
Last wurde mit LinX v0.6.9 und voller Speicherauslastung erzeugt, dabei drehen Lüfter & Pumpe dann auch ein wenig höher.
Beim BF1 zoggn liegt der Verbrauch des PCs bei ~280-300W je nach Situation.
StefanV
2016-11-19, 07:18:05
Übertakten lohnt immer.
Nur wenn wirklich ein nennenswerter Unterschied zwischen non OC und OC Modus vorhanden ist, was bei den meisten moderneren CPUs nunmal eher nicht der Fall ist, ohne deutlich höhere Verlustleistung in Kauf zu nehmen.
Leider gibts keinen aktuellen Testbericht davon. Aber bei dem mir bekannten (http://www.xbitlabs.com/articles/cpu/display/power-consumption-overclocking_11.html#sect0) konnte die Leistungsaufnahme von ~190W auf über 300W gesteigert werden. Auch die Bloomfeld waren recht heftig...
Das dürfte heute nicht anders sein. Siehe FX8350 vs. FX9590...
Mein 6700K läuft wieder @default. Denke mal meine 970GTX limitiert eh in den meisten Fällen.
Merkor
2016-11-19, 09:52:34
Nur wenn wirklich ein nennenswerter Unterschied zwischen non OC und OC Modus vorhanden ist, was bei den meisten moderneren CPUs nunmal eher nicht der Fall ist, ohne deutlich höhere Verlustleistung in Kauf zu nehmen.
Und genau deshalb lote ich seit Jahren bei CPU und GPU die niedrigste, erforderliche Spannung bei mildem OC aus, z.B. 3770k @ 4GHz @ 1.02v oder meine GTX 1070 mit 2050 MHz @ 0.993v. Das stellt für mich den wahren Königsweg da, denn das Mehr an Performance bei kompromisslosem OC steht in keinem Verhältnis zum Aufwand und den Kosten.
The_Invisible
2016-11-19, 10:03:57
Und genau deshalb lote ich seit Jahren bei CPU und GPU die niedrigste, erforderliche Spannung bei mildem OC aus, z.B. 3770k @ 4GHz @ 1.02v oder meine GTX 1070 mit 2050 MHz @ 0.993v. Das stellt für mich den wahren Königsweg da, denn das Mehr an Performance bei kompromisslosem OC steht in keinem Verhältnis zum Aufwand und den Kosten.
Wäre mir zuviel Aufwand um "wirklich" stabile Settings hinzubekommen. Da ich damit auch arbeite wäre ein Absturz mehr als ärgerlich. Auch meine Grafikkarte läuft standardmäßig schon mit 1950 und OC zahlt sich eigentlich nicht aus. Da die Einstellung aber recht schnell geht und nur Spiele abstürzen/hängen habe ich halt grob OC gemacht.
Man wird halt auch bequemer, früher zu Duron/TB Zeiten habe ich auch noch wie wild OCt, heute kaufe ich mir einfach was schnelleres wenns mir zu langsam erscheint.
Lowkey
2016-11-19, 10:22:45
Die Sache ist die, dass OC in der Regel nichts freischaltet. Mit 4 Ghz läuft das Spiel wie mit 4,5 Ghz. Selten ist eine Situation vorhanden, die von em OC profitiert. Der Nachbarsjunge mit seinem 0815 PC schießt dich über den Haufen. Zwar kannst du deinen PC um 20% Übertakten, aber von den 20% kommt effektiv nichts an. Die Gretchenfrage ist dann die, ob man nicht zuviel PC kauft? Nimmt man heute Highend für 5 Jahre oder den P/L Sieger auf 3 Jahre? Wer sagt, dass nicht jeder aktuelle PC unabhängig vom Preis in 5 Jahren an eine Mauer stößt? Gibt es vllt ein paar Retroauswertungen der letzten 10 Jahre? Ein 2500k reicht nach 5 1/2 Jahren schließlich immer noch aus, wenn es auch in Einzelfällen knapp wird.
Deathcrush
2016-11-19, 10:58:19
Ich sehe es so, früher konnte man problemlos 25% Übertakten, ohne großen Aufwand mit LuKü, da die Frequenzen noch sehr niedrig waren. Heute haben sie aber schon ein sehr hohes Niveau erreicht, gerade im High End Sektor. Wenn man früher bei 50FPS war hat man die 25% auch wirklich gemerkt. Heute lmitieren die CPU´s einfach nicht mehr so stark. Mit dem i7 6700 wüsste ich nicht, welches Spiel da unter 60FPS laufen sollte, die meissten rennen jetzt durchgehen mit mind. 90 FPS wobei jetzt auch die Graka limitieren könnte.
Lowkey
2016-11-19, 11:48:44
Das Hyperhreading reduziert hier und da die FPS, aber die paar Prozent sind nicht entscheidend. Der Witz ist der, dass die Käufer lieber mehr kaufen, aber das "mehr" gar nicht brauchen. Der 6700 verkauft sich besser als der 6600, aber wirklich brauchen tut man keinen der beiden CPUs zwingend. Ich sehe es gerade bei VR Anwendungen, dass HT von Nachteil sein kann, wenn man auf die stabilen FPS schaut.
Ich spiele mit dem Gedanken einen 7700k zu kaufen, aber notwendig ist die CPU nicht. Wenn man wie immer am ersten Tag kauft, dann dürfte die Chance auf eine 5 Ghz CPU recht hoch sein.
Ich spiele mit dem Gedanken einen 7700k zu kaufen, aber notwendig ist die CPU nicht. Wenn man wie immer am ersten Tag kauft, dann dürfte die Chance auf eine 5 Ghz CPU recht hoch sein. Warum hast du dir dein ein 6600K gekauft und nicht gleich ein 6700K? Der 6600K ist dann für dich wohl nicht was du dir erhofft hast?
Abwarten ob wirklich 5GHz einfach so easy peasy gehen...:wink:
Screemer
2016-11-19, 12:10:31
Ht performt doch mit aktuellen cpus nicht mehr schlechter als ohne, oder? Da würden mich mal halbwegs aktuellen zahlen interessieren.
Deathcrush
2016-11-19, 12:29:59
Der 6700 verkauft sich besser als der 6600, aber wirklich brauchen tut man keinen der beiden CPUs zwingend. Ich sehe es gerade bei VR Anwendungen, dass HT von Nachteil sein kann, wenn man auf die stabilen FPS schaut.
Bin von einem i5-6600 auf einen i7-6700 gewechselt und der Perfomacnezuwachs ist teils gigantisch! The Division und GoW4 profitieren davon enorm, auch ein BF1 weiss ein 6700 zu schätzen! Die min FPS sind bei allen Spielen spürbar gestiegen. Am meissten jedoch bei The Division, die ganzen störenden min FPS unter 60 sind wech :)
Lowkey
2016-11-19, 12:50:32
Warum hast du dir dein ein 6600K gekauft und nicht gleich ein 6700K? Der 6600K ist dann für dich wohl nicht was du dir erhofft hast?
Abwarten ob wirklich 5GHz einfach so easy peasy gehen...:wink:
Wie gesagt gibt es ein Leistungs-Musthave. Das wäre irgendwo ein schneller i3 oder kleiner i5. Also ein 6600k oder 6700k samt OC ist zu schnell für aktuelle Spiele. Die Leistung braucht man selten oder nicht zwingend. Deswegen spielt es keine Rolle was man am Ende kauft. Ich hätte auch bei meinem alten i5-2500k @ 4,5 Ghz bleiben können.
Bin von einem i5-6600 auf einen i7-6700 gewechselt und der Perfomacnezuwachs ist teils gigantisch! The Division und GoW4 profitieren davon enorm, auch ein BF1 weiss ein 6700 zu schätzen! Die min FPS sind bei allen Spielen spürbar gestiegen. Am meissten jedoch bei The Division, die ganzen störenden min FPS unter 60 sind wech :)
Da tut sich was. Nur finde ich den Hinweis noch nicht, ob die reinen FPS Zahlen auch stimmen. Die FPS steigen, aber die Microlags können zunehmen. Der neue VRMARK mag HT überhaupt nicht. Das wundert mich ein wenig.
Ht performt doch mit aktuellen cpus nicht mehr schlechter als ohne, oder? Da würden mich mal halbwegs aktuellen zahlen interessieren.
HT bei alten CPUs vor Skylake/Haswell performen schlechter. Warum auch immer: HT wurde verbessert. Zwischen 6600k und 6700k sind ca. 3% Unterschied in Spielen ohne speziellen Support. 3% für HT, mehr Cache und mehr Takt sind "nix". Jetzt kommen dieses Jahr mehrere Spiele auf den Markt und hier und da bringt HT einen Vorteil (siehe Post von Deathcrush) und bei anderen Spielen hört man nur von leichten Nachteilen. Laut dem Forum hier muss man die Spiele für HT anders anpassen als wie für echte Kerne. Das Spiel muss wissen, dass die CPU mit HT arbeitet.
The_Invisible
2016-11-19, 12:53:07
Die alten Spiele wo HT noch fps reduziert sind auch schon egal bei >100fps. Neuere profitieren davon allerdings bis zu 30%, vor allem bei min fps. Den Nerv hätte ich sowieso nicht je nach Spiel HT im BIOS an/auszuschalten.
Hugo40
2016-11-19, 12:54:49
Also ein 6600k oder 6700k samt OC ist zu schnell für aktuelle Spiele.
Für einen High-FPS-Spieler gibt es sowas wie "zu schnell" nicht.
Lowkey
2016-11-19, 12:58:34
Die alten Spiele wo HT noch fps reduziert sind auch schon egal bei >100fps. Neuere profitieren davon allerdings bis zu 30%, vor allem bei min fps. Den Nerv hätte ich sowieso nicht je nach Spiel HT im BIOS an/auszuschalten.
Der i7-6700k wird nicht gekauft, weil er dramatisch schneller ist, sondern weil die 100 Euro Aufpreis keine Rolle spielen und besonders weil man in 8 Kernen die Zukunft sieht.
Der 6700k ist aber nicht grundsätzlich in jedem Fall vor dem 6600k. Das ist mein Standpunkt. Was nützen 100 Fps, wenn es zu Microstottern kommt?
The_Invisible
2016-11-19, 13:11:27
Links bitte, hätte ich noch nie bemerkt, selbst bei uralt GOG-Spielen.
Bin von einem i5-6600 auf einen i7-6700 gewechselt und der Perfomacnezuwachs ist teils gigantisch! The Division und GoW4 profitieren davon enorm, auch ein BF1 weiss ein 6700 zu schätzen! Die min FPS sind bei allen Spielen spürbar gestiegen. Am meissten jedoch bei The Division, die ganzen störenden min FPS unter 60 sind wech :)
Bin gleich von 2500K auf 6700K gewechselt. HT performt bei den neuen Engines ja immer besser. Zum Beispiel Frostbite Engine ist ein sehr gutes Beispiel und da ja EA alle Ihre Spiele auf diesen Engine umstellt oder schon umgestellt hat, profitieren HT fähige CPUs immer mehr. Also meine Meinung nach war der 6600K letztes Jahr schon ein schlechter Kauf, es sei den man muss jeden Cent umdrehen. Denke mal hier ist keiner darunter...
Und falls mal HT zu ganz schlechten FPS führt einfach im Bios abstellen. War bei mir nie der Fall
Deathcrush
2016-11-19, 15:18:12
In welchen Spielen kommt es denn wegen HT zu Problemen, hatte nämlich bisher absolut keine.
Lowkey
2016-11-19, 15:36:04
PCGH-Tipp: Schalten Sie SMT für Lara ab, denn dann erhalten Sie nicht nur höhere Bildraten
Spontan gefunden...
Deathcrush
2016-11-19, 16:24:20
? Welchen Teil, Rise of the Tomb Raider?
Ja war bei Rise of the Tomb Raider.
Deathcrush
2016-11-19, 17:10:06
Hm konnte da bisher nix negatives feststellen, sprich die Frames sind so wie sie sein müssten und Microruckler sind mir auch nciht aufgefallen.
The_Invisible
2016-11-19, 17:19:27
Spontan gefunden...
Link hier: http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/
Aber auch hier hat man mit Haswell @ 3Ghz und 4C+HT schon min 65fps, mit einem 6700 @ 4ghz und höherer IPC hat man also wieder um so 100 herum.
Nightspider
2016-11-19, 17:35:06
Klingt nach einem Aluhut Fall.
Hugo40
2016-11-19, 17:36:21
Das ist der Nachteil von alten Tests der sich in die Köpfe einbrennt. Der Test der PCGH ist von Februar 2016. Bis heute sind einige Spielpatches erschienen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11197696&postcount=4421
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11197957&postcount=4425
Bei einem Haswell mit 2Ghz bringt HT 27% mehr Leistung.
Entropy
2016-11-19, 19:00:05
Und falls mal HT zu ganz schlechten FPS führt einfach im Bios abstellen. War bei mir nie der Fall
Ich hab kein HT (weil AMD), aber da es am HT an sich nicht liegen sollte, sondern nur wenn Threads ungünstig auf die Cores verteilt werden, wäre es vielleicht schon hilfreich wenn die Thread Affinity für das jeweilige Spiel so eingestellt wird, dass nur jeder zweite "Hyperthread" benutzt wird.
(Im Taskmanager mit rechts aufs Spiel klicken und bei affinity dann jedes zweite Kästchen wegmachen)
Das lässt sich zur Laufzeit testen. Bin gespannt auf eure Resultate :)
Ph0b0ss
2016-11-20, 11:37:58
Die alten Spiele wo HT noch fps reduziert sind auch schon egal bei >100fps. Neuere profitieren davon allerdings bis zu 30%, vor allem bei min fps. Den Nerv hätte ich sowieso nicht je nach Spiel HT im BIOS an/auszuschalten.
Hyper-Threading braucht man nie abschalten. Einfach im Taskmanager die Prozessorzugehörigkeit nur auf jede zweite CPU einstellen (oder sowas wie Process Lasso nutzen, dann muss man es nicht jedes Mal wieder selbst manuell einstellen). Das hat dann auch noch den Vorteil, dass für Hintergrundaufgaben noch Rechenleistung auf dem zweiten Thread jedes Kerns verfügbar ist.
Deathcrush
2016-11-20, 13:07:53
Ich finde das Video zeigt ganz gut das man den Corei7 nicht takten muss und es sich auch nicht wirklich lohnt.
https://www.youtube.com/watch?v=EhaB1dqYv_I
Beim i5 kann ich es noch ganz gut nachvollziehen, mit 3900MHZ (i5 @Turbotakt) hat man noch ein wenig spielraum nach oben hin, aber bei 4200MHZ (I7 @Turbotaktt) wird die Luft da schon dünner. Zu dem lässt sich der i5 auch viel einfacher kühlen als der i7. Das musste ich schmerzhaft merken, unter Last komme ich schon knapp an die 60C, beim i5 waren es knappe 50C.
Tesseract
2016-11-20, 15:05:29
Hyper-Threading braucht man nie abschalten. Einfach im Taskmanager die Prozessorzugehörigkeit nur auf jede zweite CPU einstellen
keine ahnung ob das inzwischen gefixt ist, aber früher war das definitiv nicht das gleiche. das spiel sieht dann trotzdem noch 8 virtual cores, macht den selben käse der das problem überhaupt erst verursacht hat und obendrauf kommt dann noch irgendein scheduler-voodoo, das die überschriebenen affinitäten irgendwie behandeln muss. im schlimmsten fall ist es dann noch schlimmer als vorher. ich glaube farcry 4 war so ein fall.
lösen könnte man das problem indem man das spiel in einem non-HT-modus starten würde, aber das geht soweit ich weiß unter windows nicht.
Dr.Doom
2016-11-20, 16:25:23
Beim i5 kann ich es noch ganz gut nachvollziehen, mit 3900MHZ (i5 @Turbotakt) hat man noch ein wenig spielraum nach oben hin, aber bei 4200MHZ (I7 @Turbotaktt) wird die Luft da schon dünner. Zu dem lässt sich der i5 auch viel einfacher kühlen als der i7. Das musste ich schmerzhaft merken, unter Last komme ich schon knapp an die 60C, beim i5 waren es knappe 50C.Was ist daran schmerzhaft, wenn ein i5/i7 60°C warm wird? :confused: Unter 80°C bekomm' ich nichtmal ein Jucken in der Hose.
Ph0b0ss
2016-11-20, 16:26:32
keine ahnung ob das inzwischen gefixt ist, aber früher war das definitiv nicht das gleiche. das spiel sieht dann trotzdem noch 8 virtual cores, macht den selben käse der das problem überhaupt erst verursacht hat und obendrauf kommt dann noch irgendein scheduler-voodoo, das die überschriebenen affinitäten irgendwie behandeln muss. im schlimmsten fall ist es dann noch schlimmer als vorher. ich glaube farcry 4 war so ein fall.
lösen könnte man das problem indem man das spiel in einem non-HT-modus starten würde, aber das geht soweit ich weiß unter windows nicht.
Also müsste man (HT im Bios angeschaltet) auch noch zwei Szenarien unterscheiden:
1. Spiel mit allen Kernen starten und dann auf einen Thread pro Kern begrenzen.
2. Mittels Process Lasso oder ähnlichem Programm gleich auf einen Thread pro Kern begrenzt starten.
Beim Szenario 2 müsste das Spiel dann auch nur die Hälfte aller virtuellen Kerne sehen, quasi wie HT-Off im Bios (es sei den Process Lasso lässt auch erst das Spiel starten und passt dann erst die Prozessorzugehörigkeit an).
Farcry 4 habe ich leider nicht. Wer das hat, kann ja mal alles vergleichen:
1. HT-Off
2. HT-On mit allen Threads unbegrenzt
3. HT-On Spiel starten und Threads begrenzen
4. HT-On Spiel per Process Lasso begrenzt starten
Edit:
Es könnte natürlich noch sein, dass ein Spiel die Hardware direkt abfragt und danach seine Threads anpasst, dann wär HT-Off per BIOS das einzig wirksame. Am Besten wäre wenn die Spieleentwickler selber in den empfohlenen Hardwareanforderungen angeben würden, ob HT-Off oder HT-On optimal ist, denn sie müssten ja wissen, wie ihre Software besser arbeitet.
Deathcrush
2016-11-20, 18:34:55
Was ist daran schmerzhaft, wenn ein i5/i7 60°C warm wird? :confused: Unter 80°C bekomm' ich nichtmal ein Jucken in der Hose.
Wenn er jetzt 60C hat, wird er im Sommer sicherlich 70C haben. Ich habe halt gerne ein kühles System. (und leise) Warme Komponenten beeinflussen sich halt Gegenseitig.
Nightspider
2016-11-20, 18:47:26
Die CPU beeinflusst thermisch wohl kaum andere Komponenten. Bei 60-70°C hast du höchstens nen Hitzestau unterm HS. Wenn du die CPU köpfen und Flüssigmetall-WLP verwenden würdest wäre sie um einen Schlag 20°C kühler.
Deathcrush
2016-11-20, 18:56:41
Köpfen? Dafür reichen meine Nerven nicht aus bei einer 340€ CPU ;D
Tesseract
2016-11-20, 19:03:26
Es könnte natürlich noch sein, dass ein Spiel die Hardware direkt abfragt und danach seine Threads anpasst, dann wär HT-Off per BIOS das einzig wirksame. Am Besten wäre wenn die Spieleentwickler selber in den empfohlenen Hardwareanforderungen angeben würden, ob HT-Off oder HT-On optimal ist, denn sie müssten ja wissen, wie ihre Software besser arbeitet.
entwickler sollen nicht angeben was besser ist sondern einfach keinen scheiß zusammencoden. wenn man threads einfach laufen lässt entscheidet der system-scheduler auf welchen cores die landen und da moderne scheduler HT-aware sind sollte HT-on nicht langsamer sein.
wenn das spiel aber selbstständig threads an irgendwelche cores pinnt und dabei z.B. die affinity von den konsolen mit 8 unabhängigen cores einfach übernimmt kann man probleme bekommen. weiß der teufel warum man sowas machen sollte, aber nach dem was ich bei schlechten ports schon alles gesehen habe wundert mich überhaupt nix mehr.
F4USt
2017-01-03, 20:35:24
gelöscht
Lowkey
2017-02-05, 11:42:43
Der Pentium mit ein paar Frametimes, Ideen und Fakten.
https://www.youtube.com/watch?v=H-aP0JqJkJ0
Interessant!
https://youtu.be/H-aP0JqJkJ0?t=342 <-- Witcher 3 vs i3, i5 und i7. Wenn die Grafikkarte nicht limitiert, steigen die FPS stark an. Frametimes auf dem Pentium sind unschön.
https://youtu.be/H-aP0JqJkJ0?t=454 <--- AMD Grafikkarte und Pentium ist wohl immer noch keine gute Wahl?
BlacKi
2017-02-05, 11:51:16
und er spricht es nochmals deutlich an https://youtu.be/H-aP0JqJkJ0?t=480
das ist eben der grund warum ich heute keine amd karte in den rechner drücke. das betrifft alle cpu´s und nicht nur die kleinen.
edit: habs korrigiert.
Lurtz
2017-02-05, 19:04:13
und er spricht es nochmals deutlich an https://youtu.be/HaP0JqJkJ0?t=418
das ist eben der grund warum ich heute keine amd karte in den rechner drücke. das betrifft alle cpu´s und nicht nur die kleinen.
Dieses Video existiert nicht?
Loeschzwerg
2017-02-05, 19:09:45
Bitteschön ;)
https://www.youtube.com/watch?v=H-aP0JqJkJ0&t=418
Lowkey
2017-02-06, 12:32:14
Wieviel doch der Speicher ausmacht: i5 Skylake vs i5 Kabylake
http://www.pcgameshardware.de/Core-i5-7400-CPU-264859/Tests/Vergleich-Core-i5-7500-i5-7400-und-i5-6500-Kaby-Lake-1219904/
y33H@
2017-02-06, 13:39:32
Der DDR4 reißt kaum was raus.
Nightspider
2017-02-06, 14:01:33
Der 7500 liegt im Test von der PCGH aber 6% vor dem 6600 in The Witcher 3 und das trotz 100 Mhz geringerem Takt. Bei Dragon Age Inq. sind es 7%.
Der Unterschied erscheint mir aber auch fast ein wenig zu hoch. :|
Das wären taktnormiert knapp 10% mehr Leistung nur von DDR4 2133 auf 2400. Oder anders ausgedrückt 12,5% mehr RAM Takt ergeben 10% mehr fps. Klingt irgendwie übertrieben.
Lowkey
2017-02-06, 14:23:14
Sherlock Nightspider hat es erfaßt. Irgendwas stimmt da nicht.
dildo4u
2017-02-06, 14:33:03
Der 6600k läuft nur mit 3.6Ghz Boost wenn 4 Cores belastet werden.Vermutlich hält der 7500 eine höhere Frequenz.
http://www.intel.com/content/www/us/en/support/processors/000005647.html
Lowkey
2017-02-08, 10:46:31
Dito
Ich suche gerade die Wahrscheinlichkeit für 5 Ghz:
Jeder i7-7700k erreicht die 5GHz, aber davon sind 25% noch kühlbar. Es gibt sparsame 5Ghz mit 1.2v, aber eben auch die 5Ghz mit fressenden 1.4v. Ein Köpfen ist fast immer Pflicht und Wasserkühlung sehr zu empfehlen. Ich schätze vorsichtig, dass einer von 100 Prozessoren mit Luftkühlung die 5 Ghz mitmacht. Die Ergebnisse in den Hardwareforen sind ebenfalls mit Vorsicht zu genießen. Wasserkühlung, Köpfen, Mainboardwahl und Betriebssystem sind fernab vom normalem Alltagsgebrauch.
dildo4u
2017-06-01, 17:32:42
Hatten wir das schon mal Intel Skylakes im Abverkauf?Normal laufen die doch einfach aus.
http://preisvergleich.pcgameshardware.de/intel-core-i5-6600k-bx80662i56600k-a1290376.html
Fragman
2017-06-14, 15:27:11
Wasserkühlung, Köpfen, Mainboardwahl und Betriebssystem sind fernab vom normalem Alltagsgebrauch.
gut das du das noch geschrieben hast. das muesste eigentlich an den anfang deines posts. ;)
wieviel bringt denn nur das koepfen mit einem normaleren custom kuehler?
aufkrawall
2017-06-18, 15:07:53
Weil mich AMDs Support für Ryzen, insbesondere für Linux, angekotzt hat, bin ich nun mit einem 6700k statt 1700 unterwegs.
Viele Spiele laufen schon massiv besser mit dem Skylake, kann man nicht anders sagen. Musste den RAM vor ein paar Wochen mit Ryzen mit 2400 betreiben, mit dem 6700k gehen halt mit XMP 2 ootb 3200 (aber 2N statt 1N).
Ein paar schnelle Werte 1700 3,8GHz vs 6700k 4,4GHz:
-Wolcen (Stadt-Startpunkt): ~82fps vs. 122fps
-BF4 MP Shanghai CQL 64 Spieler: ~90min-fps vs. ~140min-fps
-Hitman DX12 Paris-Startszene: ~70fps vs.~112fps
dildo4u
2017-06-18, 15:13:41
Was für ein Board hast du?
aufkrawall
2017-06-18, 15:20:16
Eins, das zurück gehen wird:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581691
AnnoDADDY
2017-06-18, 15:24:40
Also Werte in FPS Bereichen wo es komplett egal ist ob die eine oder andere CPU. Nagut dein Geschmack...
aufkrawall
2017-06-18, 15:28:07
Hast du einen Punkt, oder gehts nur um den Postcounter?
Kriton
2017-06-18, 15:42:44
Die Frage wäre für mich, inwieweit das am Speicher hängt. Heute hängt man ja wirklich nicht mehr an 2400 beim Ryzen (wenn man jetzt informiert kauft).
aufkrawall
2017-06-18, 16:12:54
Crysis 3 läuft in der anspruchsvollsten Fields-Szene etwas langsamer als mit dem Ryzen, ~93 vs 98fps. Hier hatte ich schon die RAM-Skalierung bei Ryzen getestet, viel langsamere Werte als 2400 hatten so gut wie nichts geändert. Auch beim Intel kostet 1800 statt 3200 nur vielleicht ~8%.
Es gibt aber Spiele, die stärker vom RAM-Takt profitieren. Habe gerade mit dem gleichen Takt-Unterschied mal HotS getestet, hier waren es ca. ~20% Unterschied.
Hitman DX12 läuft übrigens von den Frametimes her laut RTSS-Overlay genau so gut wie auf dem Ryzen. Das war mit meinem 2500k völlig kaputt. Crysis 3 hatte auf dem Ryzen bessere Frametimes im CPU-Limit (allerdings waren die Mikroruckler dann trotzdem noch spürbar).
Die BF4 MP min-fps sind btw. gegenüber dem 2500k OC mit dem 6700k OC in etwa verdoppelt. Ich müsste es mir aber sicherheitshalber erneut anschauen, mit eingestürztem Hochhaus. Origin ist gerade leider mega zickig.
Ex3cut3r
2017-06-18, 17:05:22
Nicht schlecht Herr Krawall, aber wieso noch ein 6700k? Und keinen aktuellen 7700k? Irgendwie günstig erhalten?
aufkrawall
2017-06-18, 17:12:29
7700k gibts nicht gebraucht zum annehmbaren Preis. ;)
Ob die CPU jetzt mit 4,4 oder 4,6 läuft, ist ja auch egal.
Lautstärke geht auch in Ordnung, ist bei 4,4 und 1,25V leiser als der 2500k 4,6 >1,3V.
Ist aber natürlich nicht so gut wie Ryzen, der ist bei Kühlbarkeit außer Konkurrenz.
Weil mich AMDs Support für Ryzen, insbesondere für Linux, angekotzt hat
Kannst du das evl. erläutern? Probleme mit pstates? Scheduler?
dildo4u
2017-06-18, 18:26:44
Kannst du das evl. erläutern? Probleme mit pstates? Scheduler?
http://phoronix.com/scan.php?page=news_item&px=Ryzen-Compiler-Issues
aufkrawall
2017-06-18, 20:44:24
Ja, das und kein abgestimmter Takt-Governor und keine Möglichkeit, überhaupt Takt oder Temperaturen auszulesen. Von dem kaputten Heruntertakten durch OC im Bios allgemein mal ganz abgesehen. Der Kram soll einfach funktionieren, und das tut er nicht so, wie es mein Anspruch vorsieht.
Rancor
2017-06-18, 21:56:25
Weil mich AMDs Support für Ryzen, insbesondere für Linux, angekotzt hat, bin ich nun mit einem 6700k statt 1700 unterwegs.
Viele Spiele laufen schon massiv besser mit dem Skylake, kann man nicht anders sagen. Musste den RAM vor ein paar Wochen mit Ryzen mit 2400 betreiben, mit dem 6700k gehen halt mit XMP 2 ootb 3200 (aber 2N statt 1N).
Ein paar schnelle Werte 1700 3,8GHz vs 6700k 4,4GHz:
-Wolcen (Stadt-Startpunkt): ~82fps vs. 122fps
-BF4 MP Shanghai CQL 64 Spieler: ~90min-fps vs. ~140min-fps
-Hitman DX12 Paris-Startszene: ~70fps vs.~112fps
Dann ist mit deinem Ryzen System aber auch was nicht in Ordnung gewesen. Weil das kann unmöglich stimmen. Das sind ja locker im Schnitt 60% mehr Leistung.
aufkrawall
2017-06-18, 21:59:02
Natürlich stimmt das, siehe Crysis 3-Ergebnis oben. Die Streuung ist so groß, manche Spiele laufen vergleichsweise lahm auf Ryzen. Rechnest du dann noch höheren CPU- und RAM-Takt für den Intel dazu, kommst du zu solchen Ergebnissen.
Rancor
2017-06-18, 22:03:56
Teste gerade BF4 mit meinem R5-1600 @ 3,8 Ghz und ich habe zu keinem Zeitpunkt weniger als 120 FPS auf der Map. Egal ob das Hochhaus eingstürzt ist oder nicht. DIe anderen Games hab ich leider nicht ^^
aufkrawall
2017-06-18, 22:09:27
Spawn Conquest Large bei B und schau möglichst dort in die Map, wo du meisten Spieler sind (also nach C/G/E). Dann lauf Richtung Brücke. Der fps-Counter sollte häufiger als ein Mal pro Sekunde refreshen, die fps fallen häufig für kürzer als eine Sekunde ab. Es müssen natürlich ca. 64 Spieler auf dem Server tatsächlich spielen und sich schon über die Map verteilt haben, also bereits etwas Zeit vergangen sein. Können wir gerne per ShadowPlay vergleichen.
Rancor
2017-06-19, 09:37:44
Spawn Conquest Large bei B und schau möglichst dort in die Map, wo du meisten Spieler sind (also nach C/G/E). Dann lauf Richtung Brücke. Der fps-Counter sollte häufiger als ein Mal pro Sekunde refreshen, die fps fallen häufig für kürzer als eine Sekunde ab. Es müssen natürlich ca. 64 Spieler auf dem Server tatsächlich spielen und sich schon über die Map verteilt haben, also bereits etwas Zeit vergangen sein. Können wir gerne per ShadowPlay vergleichen.
Ok ich werde mal versuchen nen Video zu erstellen. Aber trotzdem kommen mir deine ~60% Mehrleistung eines 6700k gegenüber einen 1700 @ 3,8Ghz viel zu viel vor. Bis auf Dx12 RotTR vor dem Ryzen Patch habe ich das noch nirgendswo gesehen.
aufkrawall
2017-06-19, 12:40:58
Lass mich besser das Video zuerst machen, damit wir auch wirklich das Gleiche testen.
aufkrawall
2017-06-19, 16:27:01
Man muss halt auch sehen, dass CPU-Tests häufig einfach Müll sind, weil im GPU-Limit getestet wird, was die Leistungsunterschiede der CPUs in Spielen verdeckt.
Für Hitman hatte ich extra SSAO ausgeschaltet und Schattenauflösung reduziert, weil es sonst mit dem 6700k selbst in 720p noch im GPU-Limit läuft:
https://abload.de/thumb/hitman_2017_06_19_16_ehu81.png (http://abload.de/image.php?img=hitman_2017_06_19_16_ehu81.png) https://abload.de/thumb/hitman_2017_06_19_16_a9u5q.png (http://abload.de/image.php?img=hitman_2017_06_19_16_a9u5q.png)
So etwas macht halt kaum jemand. Meist sind es Tests in 1080p und es wird fröhlich ignoriert, dass das OSD die meiste Zeit 99% GPU-Auslastung anzeigt.
Sardaukar.nsn
2017-06-19, 20:43:51
Aber genau diese "real-world" Bedingungen interessieren die Leute doch. Wer zockt den am PC mit 720p? Interessant sind im Jahr 2017 doch 1440p und 4k. Wenn dabei raus kommt das es (plus/minus 10%) total egal ist ob man einen Ryzen, i9 oder sechs Jahre alten Sandy Bridge mit der 1080 Ti koppelt dann sollte man das dem Leser klar so sagen.
Da PS4pro und Xbox Scorpio ja auch weiterhin mit den schwachen CPUs unterwegs sind, wir sich auch die nächsten Jahre nichts ernsthaft auf dem CPU Markt tun. Aus Spieler (!) Perspektive.
Rancor
2017-06-19, 22:34:32
Also ich habe das jetzt getestet. Das niedrigste was ich erzwigen konnte waren ~110 FPS @4ghz. DIe 90 haben ich niemals auch nur annähernd erreicht.
aufkrawall
2017-06-19, 22:47:39
Also ich habe das jetzt getestet. Das niedrigste was ich erzwigen konnte waren ~110 FPS @4ghz. DIe 90 haben ich niemals auch nur annähernd erreicht.
Ich will nicht mehr ausschließen, dass bei mir die vom Board gewählten Speichertimings schlecht waren:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11406459#post11406459
Das ist echt die Pest, ich hatte bei Blender definitiv die volle Performance und die ~90fps Minimum in BF4 hatte ich auch in mehreren Runs überprüft.
Aber genau diese "real-world" Bedingungen interessieren die Leute doch. Wer zockt den am PC mit 720p? Interessant sind im Jahr 2017 doch 1440p und 4k. Wenn dabei raus kommt das es (plus/minus 10%) total egal ist ob man einen Ryzen, i9 oder sechs Jahre alten Sandy Bridge mit der 1080 Ti koppelt dann sollte man das dem Leser klar so sagen.
Da PS4pro und Xbox Scorpio ja auch weiterhin mit den schwachen CPUs unterwegs sind, wir sich auch die nächsten Jahre nichts ernsthaft auf dem CPU Markt tun. Aus Spieler (!) Perspektive.
Es wird bei Ryzen wegen der Kerne ja gerne zurecht wegen der Zukunftstauglichkeit argumentiert. Das muss man aber auch bei Intels gelten lassen, wenn die ihr Potenzial in üblichen Benchmarks häufig gar nicht ausschöpfen können.
Edit: Der 6700k läuft mit 4,4GHz btw. gerade bei 1,23V. Damit fährt hier der Lüfter auch kaum hoch. =)
Rancor
2017-06-20, 08:08:59
Zumindest gegen i7 Prozessoren spricht nichts. Dank höherem Takt und mehr IPC haben die natürlich Ihre Berechtigung und taugen auch in Zukunft. Für I5 CPUs würde ich mich nicht mehr aussprechen.
Ryzen bietet halt mehr Bang for Bucks. Einen 6 Kerner mit SMT und einer IPC von ~Broadwell-E für 200€ ist halt ne Ansage. Das der I7-7700k in einigen Szenarien mehr FPS bietet ist klar ( besonders dort wo Single Core Performance gefragt ist )... alles andere wäre auch ein Desaster für Intel gewesen.
Dazu kommt natürlich noch das Ryzen nicht so hoch taktet. Könnte man die Chips auf 4,5Ghz und mehr prügeln sähe es schon jetzt für die Intel CPUs ziemlich mies aus. Zumindest für den Preis den Intel immer noch verlangt.
Wäre mein Board nicht so exorbitant kacke, wäre ich rundum zufrieden mit dem System.
aufkrawall
2017-06-21, 19:56:57
Hitman DX12 fps und Frametimes mit dem 6700k:
GD3siLJssOs
Edit: Neu hochgeladen mit weniger Rucklern durch Konvertierung.
aufkrawall
2017-06-22, 14:42:25
DX11 frametimes in 4k:
1rgRkovEJb8
Keine ominösen Einbrüchen durch nur vier Kerne + HTT erkennbar, seltsam. :freak:
Hübie
2017-06-22, 16:47:54
Vielleicht blöde Frage, aber wie bekommt man das OSD mit dem Graphen da aktiviert? Bei mir geht das OSD überhaupt nicht mehr und ich habe keine Ahnung wieso. :( Hat da einer einen Tipp? Sorry 4 OT! :D
@aufkrawall: Die Frametimes sehen doch sahne aus. Kann man nicht anders sagen. Hast du noch die 1070 oder wie?
aufkrawall
2017-06-22, 21:41:46
Vielleicht blöde Frage, aber wie bekommt man das OSD mit dem Graphen da aktiviert? Bei mir geht das OSD überhaupt nicht mehr und ich habe keine Ahnung wieso. :( Hat da einer einen Tipp? Sorry 4 OT! :D
@aufkrawall: Die Frametimes sehen doch sahne aus. Kann man nicht anders sagen. Hast du noch die 1070 oder wie?
Steht doch in der Beschreibung. Wer zu faul zum suchen ist:
http://office.guru3d.com/afterburner/MSIAfterburnerSetup440Beta10.rar
In der Beschreibung steht auch 1070 OC. ;)
Ist mir dem 6700k schon fast wieder zu langsam für WQHD.
robbitop
2017-06-25, 06:43:39
Bist du mit dem 6700K und den Frametimes in aktuellen Spielen zufrieden?
aufkrawall
2017-06-25, 14:15:03
Ich hab mir die Frametimes in Hitman, Mirror's Edge Catalyst und RotTR angeschaut, sind sehr gut bis perfekt. In BF1 MP gibts auch keine nennenswerte Varianz, abseits von einigen Spikes (die aber auch von Windows 10 Redstone 2 + Nvidia (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11408430&postcount=261) oder Server-Lags kommen können).
aufkrawall
2017-06-25, 22:15:06
Hat hier eigentlich mal jemand den VP9 Encoder von Kabylake ausprobiert?
Lurtz
2017-06-26, 09:40:04
Hat hier eigentlich mal jemand den VP9 Encoder von Kabylake ausprobiert?
Inwiefern genau? Hab ein Notebook mit Intel HD 620 hier, da laufen 4k/60 einwandfrei (ganz im Gegensatz zu Skylake).
Lowkey
2017-06-26, 10:10:19
Ich habe einen 7700k nun einfach in den Schraubstock schräg eingespannt und vorsichtig angezogen. Nach ein paar Sekunden macht es BloB und der Heatspreader ist ab. Einfacher geht es nicht. Da spart man sich das Delid Tool. Lediglich das zentrale Fixieren und Verkleben ist noch nicht so leicht machbar. Aber da findet sich bestimmt auch noch eine Lösung. Das Verkleben des HS ist sowieso nicht notwendig.
aufkrawall
2017-06-26, 16:49:16
Inwiefern genau? Hab ein Notebook mit Intel HD 620 hier, da laufen 4k/60 einwandfrei (ganz im Gegensatz zu Skylake).
Ich meine Encoden, nicht Decoden. :)
Mittels QuickSync müsste man mit Kabylake VP9 enkodieren können, unter Linux geht es neuerdings sogar auch mit VAAPI.
Bist du mit dem 6700K und den Frametimes in aktuellen Spielen zufrieden?
Hier mal noch Witcher 3:
fZ83EHCr9Kg
Edit: Aus dem Mirror's Edge Thread:
bQmThswXNtk
aufkrawall
2017-09-11, 07:42:40
Ich war ja immer Verfechter das Ausbalanciert-Energieprofils unter Windows. Jetzt hab ich allerdings einen zu 100% reproduzierbaren Fall gefunden, wo ausbalanciert versagt (Ruckler mit mpv WGL-Backend + hwdec-copy). Ich hatte unter Linux schon ähnliches festgestellt.
Mit Höchstleistung gibts keine Ruckler. Macht offenbar auch keinen Unterschied, ob minimaler Takt mit 5% oder 100% eingestellt ist (laut hwinfo schwankt der mit 5%). Kurioserweise ist es auch für den Verbrauch laut Software-Tools hier mit dem 6700k ziemlich egal. Allerdings liegt trotzdem keine hohe Spannung an, höchstens kurzzeitig (wie vermutlich physikalisch auch nur der hohe Takt). Wenn ich im Bios feste Spannung einstelle, ist der Verbrauch wesentlich höher.
aufkrawall
2017-09-28, 21:52:31
Mir ist aufgefallen, dass
1.) ausgelesene Taktraten, Spannungen und Verbräuche im Leerlauf völliger Blödsinn sind.
Laut Software verbraucht das Package im Idle 16W bei niedrigstem Takt und Spannung. Starte ich aber Videowiedergabe mit HW-Decoding auf der GPU, sinkt angeblich der CPU Package-Verbrauch auf 6W, was völlig widersinnig ist.
2.) C-States im Bios auf Enabled anstatt Auto stellen verhindert offenbar die CPU-interne Taktregelung ohne Einfluss des OS Takt-Governors.
Beispiel: Schalte ich alle P-States im Bios auf Enabled, zeigt mir das Wattmeter einen Verbrauchsunterschied zwischen den Energie-Profilen von Windows Ausbalanciert und Höchstleistung (die Software erkennt btw. keinen Verbrauchsunterschied...). Schalte ich sie auf Auto, gibt es laut Wattmeter keinen Unterschied mehr (für beide Profile den niedrigst möglichen Wert von ~38W Gesamtsystem).
Das gilt für Linux genau so. Sind die C-States im Bios auf Auto, braucht es keinen dynamischen OS Takt-Governor mehr für den Stromsparmodus, weil die CPU das selber regelt. Man braucht also nicht mehr den intel-pstate Treiber, sondern kann acpi-cpufreq performance für niedrigsten Verbrauch + beste Leistung nutzen, so wie unter Windows das Profil Höchstleistung. Andere Takt-Governors wie schedutil vom OS zusätzlich können aber weiterhin die Performance beinträchtigen, nachweisbar mit verzögerten Frames mit mpv. Die da auch keine zusätzliche Ersparnis bringen (zumindest nicht im absoluten Leerlauf), kann und sollte man von denen also getrost die Finger lassen.
Bei CPU-intern geregeltem Takt liest hwinfo64 btw. eine Vcore von 0,2V oder ähnlich absurde Werte aus. :freak:
Mit Energie-Profil Höchstleistung läuft die CPU angeblich durchweg mit Turbo-Takt, aber gleichzeitig mit dieser niedrigen Spannung. Wieder völliger Schwachsinn.
Das im oberen Post geschilderte Problem mit mpv unter Windows gibts mit der internen Taktregelung nicht.
-> was festzuhalten ist:
1.) C-States auf Auto lassen und Stromsparmodi des OS deaktivieren, die CPU kann den Takt offenbar am besten selbst regeln.
2.) Einstellungen mit Wattmeter überprüfen und sich nicht von schwachsinnigen Software-Messungen verarschen lassen.
For the record: Die Vcore muss im Bios natürlich auf Auto oder Offset stehen. Mit fixer Vcore ist der Verbrauch des Gesamtsystems mal eben locker 20W höher.
x-force
2017-10-11, 21:44:33
For the record: Die Vcore muss im Bios natürlich auf Auto oder Offset stehen.
kann mit avx ist auge gehen.
ich teste mal wie viel das bei mir ausmacht.
ich guck auch mal nach wie das mit den cstates aussieht, ich glaube da musste ich einige deaktivieren, damit die dpc latency so niedrig wie möglich ist.
aufkrawall
2017-10-11, 21:50:38
kann mit avx ist auge gehen.
Dann hat mans falsch gemacht, man muss mit OC/UV natürlich die tatsächliche Vcore unter starker Last ausloten.
ich guck auch mal nach wie das mit den cstates aussieht, ich glaube da musste ich einige deaktivieren, damit die dpc latency so niedrig wie möglich ist.
Ob die 40 oder 150µs im Idle ist, ist egal. Es sind hier im Schnitt ~85µs mit der CPU-internen Taktregulierung.
x-force
2017-10-11, 22:05:05
For the record: Die Vcore muss im Bios natürlich auf Auto oder Offset stehen.
der unterschied zwischen offset und fixed sind 5,5w im idle. mit der zusätzlichen gefahr durch avx zusatz spannung.
ich habe alle p-states bis auf c1e aus, dazu aspm deaktiviert und alle anderen stromsparer deaktiviert und die kiste zieht 50w im idle. damit kann ich leben und bin was alle möglichen performance einbußen durch taktscheduler angeht befreit.
@avx
was bringt es mir wenn ich feststelle, daß ich 1,45 volt für avx @4,5 ghz brauche, das aber nicht bei akzeptabler lautstärke kühlen kann.
ich will die cpu nur mit 1,35v betreiben, weil das für alles andere als prime reicht.
mit fixed produziert ein avx2 programm jetzt einfach nur fehler, mit offset würden die komponenten überhitzen.
wie gesagt, da nehm ich lieber 5w idle mehr in kauf.
edit:ich teste jetzt mal spaßeshalber was die ganzen stromsparer bringen könnten...
aufkrawall
2017-10-11, 22:16:39
der unterschied zwischen offset und fixed sind 5,5w im idle.
Erhöhst du die Spannung via Offset? Das verringert im Gegensatz zu UV natürlich die Differenz, weil dummerweise für alle P-States die Vcore angepasst wird (zumindest hier mit dem ASRock).
ich habe alle p-states bis auf c1e aus, dazu aspm deaktiviert und alle anderen stromsparer deaktiviert und die kiste zieht 50w im idle. damit kann ich leben und bin was alle möglichen performance einbußen durch taktscheduler angeht befreit.
Ich kann keine negativen Effekte durch die Stromsparmodi der CPU feststellen, so lange das OS nicht reinpfuscht.
@avx
was bringt es mir wenn ich feststelle, daß ich 1,45 volt für avx @4,5 ghz brauche, das aber nicht bei akzeptabler lautstärke kühlen kann.
ich will die cpu nur mit 1,35v betreiben, weil das für alles andere als prime reicht.
Ich würde ja niemals meine CPU so betrieben, wenn ich weiß, dass die eigentlich gar nicht stabil ist. So wenig Strom braucht x264 nun auch nicht im Vergleich zu P95.
mit fixed produziert ein avx2 programm jetzt einfach nur fehler, mit offset würden die komponenten überhitzen.
Kannst auch einfach den Stromverbrauch begrenzen.
Mein 6700k scheint btw. die letzte UV-Bitch zu sein. Selbst mit -20mV hatte ich schon einen Crash mit P95 Blend (und aggressivster LLC-Stufe).
x-force
2017-10-11, 22:23:01
wenn ich alle stromsparer anschalte komme ich auf ~42-44w idle runter.
ich hatte mal probleme mit einem vst audyssey plugin, das hat mit den ganzen c modi aussetzer mit foobar produziert. seit dem rennt das ding immer auf 4,5ghz durchgehend.
einfach alles außer c1e aus, das ist für mich der einfachste weg alle probleme grundsätzlich auszuschließen. die 1070 läuft daher auch immer auf max leistung in spielen.
hab auch schon nächte x264 encoded, das läuft...
was meinst du mit UV im zusammenhang mit offset? ich muss die spannung natürlich erhöhen, damit er auf 4,5ghz nicht instabil wird.
mein extreme 4 regelt auch über alle p-states, ich denke das versteht man auch unter einem offset.
die llc habe ich bei mir auf lvl 3, so hält er am ehesten die idle spannung.
http://extreme.pcgameshardware.de/overclocking-prozessoren/400253-guide-intel-skylake-overclocking-anleitung-6600k-6700k.html
falls du das noch nicht kennst... der8auer hat da auch schon werte ermittelt(ganz am ende des ersten posts)
w0mbat
2017-10-12, 01:03:28
Falscher thread...
Daredevil
2017-10-12, 19:58:21
Shadow of Mordor scheint Skylake wohl ziemlich zu schmecken:
https://www.computerbase.de/2017-10/middle-earth-shadow-of-war-benchmark/3/#diagramm-cpu-tests-in-schatten-des-krieges-auf-einer-gtx-1080-ti-strix-1920-1080
http://abload.de/img/unbenannt1zsmu.png
robbitop
2017-10-12, 20:05:14
Oder aber Ryzen nicht zu schmecken...
Daredevil
2017-10-12, 20:09:35
Dann müsste doch Broadwell-E nicht so abgeschlagen sein und die Performance passt auch zu Ryzen. Zumindest hat das CB dabei geschrieben.
dildo4u
2017-10-12, 20:10:51
Der Broadwell E sieht auch nicht gut aus,PCGH hat es getestet das Game nutzt nicht mal 4 Cores ordentlich. 21% von 2 zu 4 Cores.
http://www.pcgameshardware.de/Mittelerde-Schatten-des-Krieges-Spiel-60746/Specials/Mittelerde-Schatten-des-Krieges-Benchmarks-1240756/#a7
aufkrawall
2017-10-15, 15:19:29
Windows 10 scheint völlig unzuverlässig für RAM-Stresstests zu sein.
memtest64 bringt es, wie an anderer Stelle schon erwähnt, direkt völlig durcheinander und killt mit einer gewissen Menge genutztem Speicher sofort Browser-Prozesse mit Sandboxing (wtf?). Außerdem crasht Windows bei mir damit nach einer kurzen Zeit komplett.
Der klassische memtest (die x32 Bezahlsoftware mit dem alten UI) hat hier mit 8 Instanzen und ~14GB belegtem Speicher auch irgendwann Windows zufällig abstürzen lassen, hatte afair nebenbei gesurft. Das war alles ohne OC btw. mit XMP 2.0 Profil.
Jetzt lasse ich hier gerade wiederholt acht Instanzen von memtester unter Linux laufen, und damit crasht ohne OC gar nichts vom OS. Wenn ich ihm 1,8GB pro Instanz gebe, sind dann ca. 14,5GB gesamt belegt. Das ist für FF zu wenig und er friert "fast" ein oder crasht, aber das OS läuft völlig stabil weiter.
Mit 1,5GB/Instanz läuft alles völlig zuverlässig (wenn halt auch durch die komplett geklaute Bandbreite und CPU-Leistung ziemlich langsam).
Kann nur von RAM-Tests unter Windows abraten. Ich dachte schon, die Hardware liefe nicht richtig und hab wieder Stunden in Tests investiert. Dämliches Spielzeug-OS...
Memtester unter Linux hat btw. mir auch instabiles 3600 OC entlarvt, macht als offenbar auch nicht nur irgendein Placebo-Zeug.
Lehdro
2017-10-15, 15:44:31
Was spricht gegen das gute alte memtest86+ von einem Bootmedium? Es ist doch nun schon seit anbeginn der Zeiten so das RAMtests unter Windows scheiße sind.
Screemer
2017-10-15, 15:55:29
Was spricht denn gegen eine memtest86+ live CD/dvd? Ja ist alt aber die stresspattern sind bewährt und sollten doch auch moderner Hardware zuverlässige Ergebnisse liefern.
aufkrawall
2017-10-15, 18:09:42
Zunächst mal benötigt memtest86+ steinzeitliche legacy Bootoptionen. Kein Beinbruch, aber unschön.
Außerdem laufen trotz MT-Option längst nicht alle Tests mit MT. Zudem hatte mir die MT-Option mal eklige False Positives hervorgerufen, aufgrund derer ich umsonst jeden Riegel einzeln getestet hatte.
Mit memtester unter Linux hab ich durchgängig 100% Last auf CPUs mit SMT -> Findet Fehler sicherlich schneller, falls es ansonsten gleich gut funktioniert (hat hier immerhin schon funktioniert).
Man sollte aber eh im Ernstfall (also Verdacht auf kaputt) mehrere Tools nutzen, darunter auch auf jeden Fall memtest86+. Es ging mir nur darum, dass das geniale OS aus Redmond dafür offenbar nicht geeignet ist.
Oder zumindest nicht mehr, kann mich nicht an solche Probleme im Windows 8-Zeitalter mit 8GB erinnern.
Lehdro
2017-10-15, 19:24:40
Zunächst mal benötigt memtest86+ steinzeitliche legacy Bootoptionen. Kein Beinbruch, aber unschön.
Was, wo denn, was denn?
Du schmeisst das laut der Anleitung/Autoexe auf einen USB Stick. Wählst diesen beim booten als Bootmedium aus. Lässt es laufen. Ich benutze dafür immer noch denselben USB Stick mit derselben memtest86+ Version von vor 4 Jahren und hatte nirgendwo Probleme, weder mit Ryzen, Kaby Lake oder BDW-E.
Und was du beim RAM Test nun unbedingt mit MT/CPU Last willst kannst auch sicher nur du erklären... Dafür nutzt doch eigentlich jeder Prime95.
x-force
2017-10-15, 19:29:20
ich kann nur einmal mehr zu win8.1 raten, da kann man auch den speicher ordentlich testen ;)
aufkrawall
2017-10-15, 19:40:51
Was, wo denn, was denn?
Du schmeisst das laut der Anleitung/Autoexe auf einen USB Stick. Wählst diesen beim booten als Bootmedium aus. Lässt es laufen. Ich benutze dafür immer noch denselben USB Stick mit derselben memtest86+ Version von vor 4 Jahren und hatte nirgendwo Probleme, weder mit Ryzen, Kaby Lake oder BDW-E.
Empfehle gewisse Grundlektüre zu Uefi:
https://wiki.ubuntuusers.de/EFI_Grundlagen/#Compatibility-Support-Module
Und jetzt zeig mir mal bitte, wo es memtest86+ bootfähig für Uefi ohne CSM gibt. Du verwechselst ja wohl hoffentlich nicht memtest86+ mit memtest86.
Und was du beim RAM Test nun unbedingt mit MT/CPU Last willst kannst auch sicher nur du erklären... Dafür nutzt doch eigentlich jeder Prime95.
Es sollte dir ja irgendwie einleuchten, dass MT schneller ist als ST, oder?
Sobald du diese Denkleistung vollbracht hast, kannst du ja vielleicht auch auf die Ableitung daraus für die Testlaufzeit kommen.
Lehdro
2017-10-15, 23:41:07
Empfehle gewisse Grundlektüre zu Uefi:
https://wiki.ubuntuusers.de/EFI_Grundlagen/#Compatibility-Support-Module
Und jetzt zeig mir mal bitte, wo es memtest86+ bootfähig für Uefi ohne CSM gibt. Du verwechselst ja wohl hoffentlich nicht memtest86+ mit memtest86.
Ich rede schon von 86+
Dieses Problem ist mir noch nie begegnet. Ich stecke den USB-Stick ein und boote davon, bei keinem einzigen der dutzenden PCs war das jemals ein Problem. Benutze allerdings auch nur Consumerhardware und nichts beschnittenes. Welche Boards auf welcher Plattform unterstützen es denn ootb aktuell nicht? Oder ist das wieder nur so ein theoretisches Problem?
Es sollte dir ja irgendwie einleuchten, dass MT schneller ist als ST, oder?
Jo.
Sobald du diese Denkleistung vollbracht hast, kannst du ja vielleicht auch auf die Ableitung daraus für die Testlaufzeit kommen.
Schön und gut, aber ich vertraue bei Speichertests bestimmt keinen die unter einem OS laufen, egal welcher Art. Und da 86+ eh nur experimentelles MT anbietet fällt das eh raus (bugs).
Soooo lange dauert nen Run ja nun eh nicht und Subtimings etc testet man eh vorher mit den Subtests und macht wenn man dann fertig ist ein paar komplette Runs. Beim Prime95 nimmt man sich die Zeit ja auch...
aufkrawall
2017-10-16, 00:06:00
Mein Gott, lies richtig. Für mich eod.
aufkrawall
2017-11-11, 15:23:41
Mir ist aufgefallen, dass
1.) ausgelesene Taktraten, Spannungen und Verbräuche im Leerlauf völliger Blödsinn sind.
Laut Software verbraucht das Package im Idle 16W bei niedrigstem Takt und Spannung. Starte ich aber Videowiedergabe mit HW-Decoding auf der GPU, sinkt angeblich der CPU Package-Verbrauch auf 6W, was völlig widersinnig ist.
2.) C-States im Bios auf Enabled anstatt Auto stellen verhindert offenbar die CPU-interne Taktregelung ohne Einfluss des OS Takt-Governors.
Beispiel: Schalte ich alle P-States im Bios auf Enabled, zeigt mir das Wattmeter einen Verbrauchsunterschied zwischen den Energie-Profilen von Windows Ausbalanciert und Höchstleistung (die Software erkennt btw. keinen Verbrauchsunterschied...). Schalte ich sie auf Auto, gibt es laut Wattmeter keinen Unterschied mehr (für beide Profile den niedrigst möglichen Wert von ~38W Gesamtsystem).
Das gilt für Linux genau so. Sind die C-States im Bios auf Auto, braucht es keinen dynamischen OS Takt-Governor mehr für den Stromsparmodus, weil die CPU das selber regelt. Man braucht also nicht mehr den intel-pstate Treiber, sondern kann acpi-cpufreq performance für niedrigsten Verbrauch + beste Leistung nutzen, so wie unter Windows das Profil Höchstleistung. Andere Takt-Governors wie schedutil vom OS zusätzlich können aber weiterhin die Performance beinträchtigen, nachweisbar mit verzögerten Frames mit mpv. Die da auch keine zusätzliche Ersparnis bringen (zumindest nicht im absoluten Leerlauf), kann und sollte man von denen also getrost die Finger lassen.
Bei CPU-intern geregeltem Takt liest hwinfo64 btw. eine Vcore von 0,2V oder ähnlich absurde Werte aus. :freak:
Mit Energie-Profil Höchstleistung läuft die CPU angeblich durchweg mit Turbo-Takt, aber gleichzeitig mit dieser niedrigen Spannung. Wieder völliger Schwachsinn.
Das im oberen Post geschilderte Problem mit mpv unter Windows gibts mit der internen Taktregelung nicht.
-> was festzuhalten ist:
1.) C-States auf Auto lassen und Stromsparmodi des OS deaktivieren, die CPU kann den Takt offenbar am besten selbst regeln.
2.) Einstellungen mit Wattmeter überprüfen und sich nicht von schwachsinnigen Software-Messungen verarschen lassen.
For the record: Die Vcore muss im Bios natürlich auf Auto oder Offset stehen. Mit fixer Vcore ist der Verbrauch des Gesamtsystems mal eben locker 20W höher.
Kurze Ergänzung: C-State für Package muss auf Auto stehen, nicht Enabled oder Disabled. Die einzelnen C-States können auf Auto oder Enabled stehen, es darf nur keiner auf Disabled stehen.
Package C-State wird vom Bios immer durch Änderungen an OC- oder RAM-Werten auf Disabled zurückgesetzt, muss man etwas aufpassen.
Nochmal die komprimierte Kurzform: Alles, was C-States angeht, auf Auto stellen und unter Windows dann Höchstleistung.
Edit: Im Bios gibts halt noch gesonderte Optionen für PCIe-Einsparungen etc., den Kram würd ich natürlich aus lassen.
Rampage 2
2017-12-26, 21:53:45
Wurden in der Vergangenheit oder in den unmittelbaren Reviews nach dem Skylake-Launch schon Vergleiche zwischen Haswell und Skylake in Arma 3 gemacht - am besten taktnormiert. Und natürlich mit gleichem Speichertakt/-timings...
Ich schwanke immer noch beim Haswell zu bleiben und zum 4790k zu wechseln - aber wenn Skylake taktnormiert 15-20% schneller ist, dann macht ein 7700K sehr wohl Sinn (die IPC von SKL und KBL ist ja gleich).
R2
aufkrawall
2017-12-26, 23:33:18
Dass jemand ausgerechnet Arma 3 takt- und speichernormiert vergleicht, ist wohl so wahrscheinlich wie bei El Gordo zu gewinnen.
Die meisten Spiele profitieren jedenfalls bei Weitem nicht so von dem Architektur-Sprung wie die von dir erhoffte Größenordnung. Ausgerechnet auf einen 7700k upzugraden wär völliger Quatsch (da kann man doch auch selbst drauf kommen...).
IchoTolot
2017-12-26, 23:36:07
Ich schwanke immer noch beim Haswell zu bleiben und zum 4790k zu wechseln - aber wenn Skylake taktnormiert 15-20% schneller ist, dann macht ein 7700K sehr wohl Sinn (die IPC von SKL und KBL ist ja gleich).
Also ich könnte ArmA3 benchen. ;) Müsstest mir nur sagen welche Settings vom Takt und RAm und co..
Mr. Bandit
2017-12-26, 23:44:44
@Rampage 2
Hier (http://www.hardware.fr/articles/940-6/cpu-sandy-bridge-vs-ivy-bridge-vs-haswell-vs-skylake-4-g.html) und hier (https://www.purepc.pl/pamieci_ram/test_ddr3_vs_ddr4_jakie_pamieci_ram_wybrac_do_intel_skylake?page=0,15) gibt es Ergebnisse. Antwort: Kauf dir nen Broadwell ;). Wenn du ein Z97 Board hast ist es evtl. eine Überlegung wert, ansonsten ist jetzt natürlich CFL erste Wahl insofern man das Geld investieren möchte.
Rampage 2
2017-12-27, 00:26:31
@Rampage 2
Hier (http://www.hardware.fr/articles/940-6/cpu-sandy-bridge-vs-ivy-bridge-vs-haswell-vs-skylake-4-g.html) und hier (https://www.purepc.pl/pamieci_ram/test_ddr3_vs_ddr4_jakie_pamieci_ram_wybrac_do_intel_skylake?page=0,15) gibt es Ergebnisse. Antwort: Kauf dir nen Broadwell ;). Wenn du ein Z97 Board hast ist es evtl. eine Überlegung wert, ansonsten ist jetzt natürlich CFL erste Wahl insofern man das Geld investieren möchte.
Darüber hatte ich auch immer wieder mal nachgedacht - aber ARAIR funktioniert Broadwell nicht auf Z87-Chipsätzen:frown: (nur Z97) - oder doch?:|
R2
Edit: Nein, geht nicht, nur Z97:frown: - ich müsste also eh das MB austauschen; dann doch lieber KBL + DDR4...
Edit2: Danke für die Links:)
Rampage 2
2017-12-27, 00:52:04
Also ich könnte ArmA3 benchen. ;) Müsstest mir nur sagen welche Settings vom Takt und RAm und co..
Sofern der 4790K auch bis 4.8GHz geht, dann beide @ 4.8GHz
Und wichtig: Uncore (CPU Cache-Takt) bei beiden so hoch wie möglich - aber natürlich muss der Takt bei beiden gleich sein;) Angeblich soll es seit der Skylake-Architektur einen automatischen Offset geben, der den Uncore 300MHz niedriger takten lässt, als den aktuellen CPU-Takt (also CPU @ 4.8GHz -> Uncore 4.5GHz) - ist das wahr und hat sich das mit KBL wieder geändert?
4790K:
DDR3-2400: 10-12-12-31
6700K:
DDR4-2400: die gleichen Timings wie beim DDR3-Speicher, sofern der DDR4-Speicher es mitmacht...
Wie hoch geht/gehen denn dein(e) Speicher(n)? (Speichertakt)
R2
Rampage 2
2017-12-27, 01:08:29
Dass jemand ausgerechnet Arma 3 takt- und speichernormiert vergleicht, ist wohl so wahrscheinlich wie bei El Gordo zu gewinnen.
Die meisten Spiele profitieren jedenfalls bei Weitem nicht so von dem Architektur-Sprung wie die von dir erhoffte Größenordnung. Ausgerechnet auf einen 7700k upzugraden wär völliger Quatsch (da kann man doch auch selbst drauf kommen...).
1.) Wieso "ausgerechnet" ? Arma 3 ist extrem CPU- und stark ST-lastig - geradezu ein Paradebeispiel für CPU-Gaming-Benchmarks...
2.) Die meisten nicht - aber *weil* Arma 3 so CPU-lastig ist und hauptsächlich am ST hängt, ist es naheliegend Arma 3 für IPC-Untersuchungen zu verwenden...
3.) Wenn ein 7700K auf 4.8GHz taktet und auch noch 15-20% schneller pro Takt wäre als ein 4790K (in Arma 3;)), dann entspäche es einem 4790K @ 5,5GHz - meine aktuelle CPU taktet @ 3.7 GHz (CPU & Cache). Ein Unterschied von fast 50% - zusammen mit schnellem DDR4 (3200 oder mehr) könnte das durchaus 30% Performance-Gewinn bedeuten. Vielleicht sogar etwas mehr...
R2
IchoTolot
2017-12-27, 01:26:09
Sofern der 4790K auch bis 4.8GHz geht, dann beide @ 4.8GHz
Wie hoch geht/gehen denn dein(e) Speicher(n)? (Speichertakt)
R2
Ich hab ja nur den 7700K.. Dachte du hast einen 4790? Mein Speicher geht auf 3000 Mhz mit CL15.
Rampage 2
2017-12-27, 01:31:19
Ich hab ja nur den 7700K.. Dachte du hast einen 4790? Mein Speicher geht auf 3000 Mhz mit CL15.
Ich habe den 4771 (Haswell, non-K, nicht DC sondern 1. Generation) - Ich überlege mir, ob es der 4790K sein soll oder doch lieber der 7700K (Letzterer wegen evtl. höherer IPC + Support von schnellem DDR4-Speicher).
R2
Edit: kannst aber trotzdem testen;)
IchoTolot
2017-12-27, 01:38:59
Ich habe den 4771 (Haswell, non-K, nicht DC sondern 1. Generation)
Also dann würde ich wenn doch direkt auf den 7700K gehen? Oder gleich den 8600K?
Ich werde mal meinen in YaAB testen mit 3000 Mhz und 2133 Mhz in Splitscreen und eben 4.8 Ghz. UC läuft bei mir immer mit 4.5 Ghz, höher hab ich nicht weiter getestet weil keine Notwendigkeit bei "nur" 3000er RAM.
Poste das dann im ArmA Thread von mir.
aufkrawall
2018-02-07, 16:36:51
Laut Software verbraucht das Package im Idle 16W bei niedrigstem Takt und Spannung. Starte ich aber Videowiedergabe mit HW-Decoding auf der GPU, sinkt angeblich der CPU Package-Verbrauch auf 6W, was völlig widersinnig ist.
Ist mit der aktuellen Version von hwinfo64 offenbar gefixt, jetzt liest er hier sauber ~5W für CPU Package im Leerlauf aus (immer noch gleiche Einstellungen, also alle C-States inkl. Package C-State Support im Bios auf Auto sowie Höchstleistung-Profil unter Windows).
Bei Video mit HW-Decoding gehts dann entsprechend auf etwa ~8W-10W rauf.
aufkrawall
2018-02-10, 17:05:58
Bin gerade voll auf einem Öko-Trip und hab im Bios noch die ASPM-Optionen aktiviert und im Höchstleistungs-Profil den minimalen Takt auf 70% eingestellt.
Auf dem Desktop stellt sich eine weitere Ersparnis dadurch ein:
https://abload.de/thumb/6700kxlsok.png (http://abload.de/image.php?img=6700kxlsok.png)
Ob die Werte noch so genau stimmen, sei dahin gestellt. Allerdings konnte ich vorher nicht die 25°C erreichen, es ist also was dran (Wattmeter leider gerade nicht zur Hand).
Bisher keine Performance-Nachteile bemerkt. Allerdings muss ich auch nur den Browser geöffnet haben oder die Maus bewegen und schon geht der Verbrauch kurz hoch.
Edit: Laut Wattmeter im Schnitt ~23W fürs Gesamtsystem mit der RX 560, der Verbrauch an der Steckdose ist tatsächlich nochmal geringer als ohne ASPM-Features (und ohne Package C-State Auto).
aufkrawall
2018-06-09, 19:16:30
Da die Kiste seit dem Rauswurf der 1070 keine Stabilitätsprobleme mehr im laufenden Betrieb aufweist, hab ich nochmal das UV abgeklopft.
VID für 4,2GHz ist 1,24V, reale Vcore hab ich auf 1,184V gedrückt. Sind zumindest für ca. 2x 15min Prime95-stable. x264-Verbrauch liegt bei ca. 75W fürs Package.
aufkrawall
2020-05-11, 15:37:31
Wolf 2
2133 JEDEC: ~183fps
https://abload.de/thumb/newcolossus_x64vk_202fqkmw.png (https://abload.de/image.php?img=newcolossus_x64vk_202fqkmw.png)
3200 CL14 optimiert: ~244fps
https://abload.de/thumb/newcolossus_x64vk_202v0kbf.png (https://abload.de/image.php?img=newcolossus_x64vk_202v0kbf.png)
Entspricht einem Boost von ca. 33%.
aufkrawall
2020-10-30, 18:32:44
Aus dem AMD-Thread:
Laut B-Die Finder garantiert solcher, 2x16GB momentan günstig:
https://geizhals.de/g-skill-ripjaws-v-schwarz-dimm-kit-32gb-f4-3200c15d-32gvk-a1382551.html
Ist jetzt da: 32GB B-Die für 136€ + Versand und läuft mit den gleichen verschärften Timings wie vorher die 2x8GB 3200er CL14, musste gar nichts im Uefi ändern. :cool:
Handoptimiert 3200 CL14 ist mehr als 15% schneller als XMP 3200 CL15 in SotTR, dummerweise komme ich mit Polaris selbst in 720p 50% RS nicht aus dem GPU-Limit in der Worst Case-Testszene. ;D
So viel zu "Takt ist bei Intel wichtiger als Timings".
x-force
2020-10-30, 20:38:52
dann probier doch gleich mal 3400@cl14, oder macht dein imc nicht mehr als 3200?
die absoluten timings bringen am meisten. solange du nicht auf cl15 hoch musst, wird 3400@14 natürlich schneller als 3200@14 sein.
Lurtz
2020-12-25, 13:14:19
Mein 6700k läuft bisher mit Stock-Takt und etwas Undervolting, da er sonst doch etwas heiß und die Lüfter laut werden, Cyberpunk 2077 ist jetzt das erste Spiel, das ihn absolut übers Limit bringt. Da das aber vor allem an den nur vier Kernen liegt, und auch ein 8700k wie Grütze performet, wäre Overclocking hier wahrscheinlich nur ein Tropfen auf den heißen Stein?
aufkrawall
2020-12-25, 13:28:08
Da brauchts mit RT sicherlich gleich die doppelte Kernanzahl, läuft jedenfalls auch bei Bro mit R5 3600X und optimiertem 3200er RAM ohne RT ähnlich zappelig wie bei mir dem 6700k.
Würde mich allerdings auch mal interessieren, ob auch mit Threads en masse die Frametimes nicht trotzdem mit RT noch schlechter werden.
Und das, obwohl es nur ein Last Gen Spiel + RT ist. Da kann man ja fast kaum noch unter 12C neu kaufen. :freak:
w0mbat
2020-12-25, 13:33:53
Also mein 3600 läuft auch ohne RT und nichts ist "zappelig".
aufkrawall
2020-12-25, 13:41:15
Ich könnte jetzt sagen, dass ich auch ein Video inkls. RTSS-Graphen auf dem Ryzen-System aufnehmen könnte. Aber ich denke mal, Lurtz wird mir das auch so glauben und bei dir ist eh jede angestrebte Evidenz für die Katz...
hq-hq
2020-12-25, 14:21:40
Der 8700k läuft unauffällig in Cyberpunk, wie kommt man zu der Behauptung es würde wie Grütze performen?
Da ruckelt und zuckelt garnix :smile:
Selbst wenn der 8700k bei den avg fps mal hinter meinen 5800x fällt, bei den min fps kommt er bislang immer einen Tick besser weg.
aufkrawall
2020-12-25, 14:33:12
Selbst wenn der 8700k bei den avg fps mal hinter meinen 5800x fällt, bei den min fps kommt er bislang immer einen Tick besser weg.
Wie viele Spiele hast du denn getestet? Drei oder 30? Glaube kaum, dass das etwa in SotTR zutrifft.
Ich behaupte ja auch nicht, dass mein 6700k den 3600X ständig abzieht, nur weil Hitman 2 DX12 ca. 8% schneller läuft. ;)
(Ist aber schon ein Ding. :D )
hq-hq
2020-12-25, 15:10:49
ja nur drei Spiele und einige "synthetische" Benchmarks, das Bild war bis jetzt immer das Gleiche, mag der 5800x jetzt erstmal verstauben steckt natürlich das Zukunftspotential in ihm
ein gealterter Vierkerner kann dir heute schon das Genick brechen, OC und RAM OC helfen wahrscheinlich dann auch nicht mehr
nur weil die in den Magazinen immer mit Stock CPUs testen sind die alten Intels abgeschlagen, die alten Eisen können durchaus noch was reissen, sogar gegen die schnellen 5xxx AMDs
aufkrawall
2020-12-25, 15:27:47
ein gealterter Vierkerner kann dir heute schon das Genick brechen, OC und RAM OC helfen wahrscheinlich dann auch nicht mehr
Da bricht mit HTT ohne RT ziemlich wenig, im Sinne von "es läuft eklig vs. mehr Cores" (expl. API sei Dank).
Kannst auch einfach 2C abschalten und musst nicht raten. ;)
Mit Boliden wie 6800 XT und RTX 3080 gibts natürlich zunehmend ein CPU-Limit in 1440p, das ist klar.
Edit: Beispiel RDR2:
Wie läufts jetzt mit dem 5800X?
Genauso wie mit 6700K
Trifft auf CP ohne RT ähnlich zu. Und ja, wenn du mit dem 3600X auf einer RX 6800 in 4k schnell durch die Stadt fährst, gibts an vielen Stellen Einbrüche, Anhäufungen mittelmäßiger Frame Times und manchmal auch harte Spikes.
Fragman
2020-12-25, 19:02:36
Der 8700k läuft unauffällig in Cyberpunk, wie kommt man zu der Behauptung es würde wie Grütze performen?
Da ruckelt und zuckelt garnix :smile:
Selbst wenn der 8700k bei den avg fps mal hinter meinen 5800x fällt, bei den min fps kommt er bislang immer einen Tick besser weg.
Als Beispiel vielleicht mal.
Bei dem was ich aktuell spiele, limitiert eher meine 2080 als mein 8700k,
der mit 4,5 GHz läuft. Und selbst wenn, um wirkliche Vorteile zu haben
müßte ich auf eine neue Plattform wechseln.
Damit ich das für Spiele(!) mache, müsste das schon erkennbar an der CPU liegen und alles deutlich schlechter laufen als im Moment. :D
vinacis_vivids
2022-10-27, 21:03:07
Skylake: Intel’s Longest Serving Architecture
https://chipsandcheese.com/2022/10/14/skylake-intels-longest-serving-architecture/
AMD hat mit Zen1 bzw. Zen2 eine halbe Dekade gebraucht um Skylake uArch (2015-2021) abzulösen.
Sehr schöner Artikel zu Skylake und zu Intel`s Herrschaft über den PC&Server-Markt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.