PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 7./8. September 2019


Leonidas
2019-09-09, 13:23:33
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-78-september-2019


PS: Sorry, so spät, Zeit mit PC-Support verträumt.

JVC
2019-09-09, 14:15:34
"...das sich solcherart Speicher-Tuning eigentlich nur im HighEnd-Segment bei den Spitzen-Grafikkarten lohnt..."
Ein "normaler User" hat mit dem 3600er vorerst ausgesorgt ... (auch ohne Speichertuning)

"High End Systeme" beinhalten aber auch RAM-Tuning ... jedes % ist es wert geholt zu werden ;)
("ich hab ja nix zu verschenken")

M.f.G. JVC

Denniss
2019-09-09, 14:31:53
Im vergleich fehlen änhliche Karten von nvidia z.B. 1660 oder 2070S.
Da könnte man vermuten das die Softwareaufbereitung des nvidiatreibers von den Latenzen beeinflußt wird.

Mega-Zord
2019-09-09, 14:39:30
FHD ist ja auch eher eine Witzauflösung für einen 2080 Ti-User. Interessant wäre so ein Vergleich mal in 4k und nicht in so einer CPU-limitierten Testumgebung. Mir ist es herzlich egal, ob ich 200 oder 250 fps habe. 50 anstatt 40 fps in 4k wären aber schon eine Ansage... wird aber vermutlich einfach nicht so sein.

Aroas
2019-09-09, 17:09:53
Dir ist aber schon klar, dass es darum geht, den Einfluss des Speichers auf die CPU Leistung zu untersuchen?
In diesem Fall wäre es vollkommener Blödsinn, in 4K zu testen, weil dann sändig die GPU limitieren würde und dann zwischen den einzelnen Speicherkonfigurationen kaum ein Unterschied festzustellen wäre.

Man sieht es ja bestens bei den Werten der RX580. Da limitiert die GPU deutlich und somit kann der bessere Speicher keine deutlich besseren Ergebnisse mehr liefern.
Mit der 2080Ti hingegen ist kein GPU Limit gegeben und entsprechend sind die Leistungsunterschiede mit schnellerem RAM in dieser Konfiguration auch viel deutlicher.

morbidmorgis
2019-09-09, 17:21:37
Ich dachte alles über 3600er Riegeln würde nichts mehr bringen wegen Speicherteilerdingens. Wieso legt der 3800er selbst im Default noch so zu?

nairune
2019-09-09, 17:26:08
Wieso legt der 3800er selbst im Default noch so zu?
Weil man das übertakten kann und viele CPUs auch diesen Takt noch ohne Teilermalus mitmachen. Meine zum Beispiel :)
Bei mir wird die CPU mehrere Grafikkartengenerationen mitmachen und erst ersetzt, wenn sie nicht mehr langt. Dann wird also garantiert ein CPU-Limit vorliegen und dann werde ich auch die Vorteile des optimierten RAMs auskosten können.

morbidmorgis
2019-09-09, 17:30:11
Weil man das übertakten kann und viele CPUs auch diesen Takt noch ohne Teilermalus mitmachen.

Übertaktet kann ich das ja noch verstehen aber hier scheinen ja wohl Default Einstellungen vorzuliegen. Überall liest man, dass sich Riegel schneller als 3600 nicht lohnen (im Default) und nun also doch?

Ich bin gerade erst wach geworden, mein Gehirn arbeitet noch nicht ganz optimal. Hab ich irgendwo einen Denkfehler?

nairune
2019-09-09, 17:35:27
Was heißt default? Default sind 2400 MHz oder so. Du hast hier doch Benchmarks vorliegen, da sieht man dass 3800 nur 1-2% schneller ist als 3600. Erst die optimierten Timings bringen nochmal kräftig was, das hätte man aber natürlich auch mit 3600 machen können. Auf Computerbase gab es letztens einen Artikel aus der Community, da findest du weitere Benchmarks und diverse Kombinationen.

morbidmorgis
2019-09-09, 17:55:31
Was heißt default? Default sind 2400 MHz oder so. Du hast hier doch Benchmarks vorliegen, da sieht man dass 3800 nur 1-2% schneller ist als 3600. Erst die optimierten Timings bringen nochmal kräftig was, das hätte man aber natürlich auch mit 3600 machen können. Auf Computerbase gab es letztens einen Artikel aus der Community, da findest du weitere Benchmarks und diverse Kombinationen.

Irgendwas hab ich da noch nicht ganz kapiert, ich glaube ich muss mich da nochmal etwas genauer einlesen. Sobald ich etwas wacher bin :biggrin:.

Mega-Zord
2019-09-09, 18:44:40
Dir ist aber schon klar, dass es darum geht, den Einfluss des Speichers auf die CPU Leistung zu untersuchen?
In diesem Fall wäre es vollkommener Blödsinn, in 4K zu testen, weil dann sändig die GPU limitieren würde und dann zwischen den einzelnen Speicherkonfigurationen kaum ein Unterschied festzustellen wäre.

Man sieht es ja bestens bei den Werten der RX580. Da limitiert die GPU deutlich und somit kann der bessere Speicher keine deutlich besseren Ergebnisse mehr liefern.
Mit der 2080Ti hingegen ist kein GPU Limit gegeben und entsprechend sind die Leistungsunterschiede mit schnellerem RAM in dieser Konfiguration auch viel deutlicher.

Das heißt dann aber ja, dass man bei einer billigen GPU teuren Speicher kaufen sollte und sich das bei einer teureren Grafikkarte klemmen kann. Nächste Frage ist, ob n EUR in RAM investiert besser sind als n EUR in eine schnellere GPU. Sprich, wie teuer sind 25% Performancegewinn mit der Grafikkarte oder dem Speicher.

Ich halte teueren RAM oder extremes RAM-Tuning (über XMP-Profil hinaus) für ein echt spezielles Hobby... woran ich einfach keinen Spaß hätte.

nairune
2019-09-09, 19:04:48
Das heißt dann aber ja, dass man bei einer billigen GPU teuren Speicher kaufen sollte und sich das bei einer teureren Grafikkarte klemmen kann. Nächste Frage ist, ob n EUR in RAM investiert besser sind als n EUR in eine schnellere GPU. Sprich, wie teuer sind 25% Performancegewinn mit der Grafikkarte oder dem Speicher.

Bei der billigen GPU wurde fast kein Unterschied festgestellt, also willst du teuren Speicher kaufen? Hä? Umgekehrt wird ein Schuh draus.
Schneller Speicher tut nichts weiter, als in (einigen) Spielen das CPU-Limit zu erhöhen.
Wenn es dir aufs Geld ankommt, kaufst du Micron E-Dies und kannst praktisch ohne Aufpreis sehr viel der Optimierungsmöglichkeiten ausschöpfen. Das händische Tuning braucht natürlich einmalig etwas Zeit, zumindest um Presets auf Stabilität zu prüfen.

Mega-Zord
2019-09-09, 19:21:38
Bei der billigen GPU wurde fast kein Unterschied festgestellt, also willst du teuren Speicher kaufen? Hä? Umgekehrt wird ein Schuh draus.
Schneller Speicher tut nichts weiter, als in (einigen) Spielen das CPU-Limit zu erhöhen.
Wenn es dir aufs Geld ankommt, kaufst du Micron E-Dies und kannst praktisch ohne Aufpreis sehr viel der Optimierungsmöglichkeiten ausschöpfen. Das händische Tuning braucht natürlich einmalig etwas Zeit, zumindest um Presets auf Stabilität zu prüfen.

Das habe ich missverstanden.

Aber dann ist das doch völlig sinnlos. Wenn ich eine schnelle Grafikkarte habe, möchte ich ja nicht mehr in FHD spielen. WQHD oder 4k sind da angesagt. Aber da würden solche Tests ja nicht das gewünschte Ergenis zeigen ;D

Das "die GeForce RTX 2080 Ti wirklich kräftig profitieren konnte" ist doch in diesem Zusammenhang mehr als lächerlich. Ja, sachlich richtig. Aber wer spielt denn mit dieser bitte Karte in FHD?

Dann bleibe ich bei meiner ersten Forderung: Diesen Test mit 4k und WQHD zu wiederholen. Denn sich eine 2080 Ti kaufen und sich hart den Pimmel reiben, weil man mit irgendwelchen OC-Einstellungen in FHD mehr Performance hat, ist irgendwie... dumm?

morbidmorgis
2019-09-09, 21:18:06
Das habe ich missverstanden.

Aber dann ist das doch völlig sinnlos. Wenn ich eine schnelle Grafikkarte habe, möchte ich ja nicht mehr in FHD spielen. WQHD oder 4k sind da angesagt. Aber da würden solche Tests ja nicht das gewünschte Ergenis zeigen ;D

Das "die GeForce RTX 2080 Ti wirklich kräftig profitieren konnte" ist doch in diesem Zusammenhang mehr als lächerlich. Ja, sachlich richtig. Aber wer spielt denn mit dieser bitte Karte in FHD?

Dann bleibe ich bei meiner ersten Forderung: Diesen Test mit 4k und WQHD zu wiederholen. Denn sich eine 2080 Ti kaufen und sich hart den Pimmel reiben, weil man mit irgendwelchen OC-Einstellungen in FHD mehr Performance hat, ist irgendwie... dumm?

Es gibt durchaus auch Leute, die sagen, dass hohe FPS besser sind als hohe Auflösung. Für diese Leute sind z. B. diese Full HD Monitore mit 240 Hz.

Mega-Zord
2019-09-09, 23:15:34
Es gibt durchaus auch Leute, die sagen, dass hohe FPS besser sind als hohe Auflösung. Für diese Leute sind z. B. diese Full HD Monitore mit 240 Hz.

Ok, diese Spielart war mir bisher nicht bekannt. Dann nehme ich einen Teil meiner Skepzis gegenüber schnellem RAM zurück.

Aroas
2019-09-10, 00:04:32
Das heißt dann aber ja, dass man bei einer billigen GPU teuren Speicher kaufen sollte und sich das bei einer teureren Grafikkarte klemmen kann.

Nein, eben nicht!

Wenn man eine schnelle Grafikkarte besitzt, die nicht dauernd als limitierender Faktor wirkt, ist der schnelle RAM viel sinnvoller als bei nem System mit eher langsamer GPU.
Das trifft aber auch nur für solcherlei Spieleszenarien zu.
Es gibt im Übrigen viele "Pro" Gamer, denen es nicht wichtig ist, auf möglichst hohen Auflösungen oder mit Ultra Einstellungen zu spielen. Denen geht es um hohe FPS Zahlen. Insbesondere kompetitive Shooterspieler sind solche eine Klientel.

Ich persönlich stelle auch lieber mal die Details bzw. die Auflösung runter, statt mit nur eher wenigen FPS zu zocken. Mir bringt ja die tollste Grafik nichts, wenn das Spiel nicht ordentlich flüssig läuft.

In anderen Anwendungsszenarien kann der schnelle RAM natürlich auch vorteilhaft sein, selbst wenn die GPU vergleichsweise schwach ist.
Halt immer dann, wenn die CPU der limitierende Faktor ist, lohnt sich der schnellere RAM, weil er der CPU mehr Leistung entlockt.

Gast
2019-09-10, 14:56:34
Wer hat denn die Aussagen bzgl. Samsung als "exklusiv" interpretiert? Ich hätte behauptet 'niemand' - bis auf scheinbar Leonidas.


Derartige Steigerungen wurden in https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2526-juli-2019 nicht mal im Ansatz erreicht/erwähnt. Seltsam.

Die (ungewollte?) Sarkasmus-Krone geht an JVC.

Wer den Sinn hinter fps >60 nicht versteht, möge einfach an VR-Brillen denken.

morbidmorgis bezieht sich quasi auf https://lab501.ro/wp-content/uploads/2019/07/Mem2.jpg
3600 sind P/L- aber nicht Performance-Empfehlung.
Übertaktet war da nichts. 'manuelle Timings' bezieht sich aufs RAM.
Das passt zwar nur so halb (weil demnach der FCLK auch =<3800 nicht 1:1 ist), aber vielleicht ist eine der Infos falsch und wurde nie mit einem 'Sorry - hier die Korrektur' aktualisiert.

Leonidas
2019-09-11, 03:51:57
Wer hat denn die Aussagen bzgl. Samsung als "exklusiv" interpretiert? Ich hätte behauptet 'niemand' - bis auf scheinbar Leonidas.



Möglicherweise. Andererseits pflückt man eine Dual-Fertigung mal nicht so eben vom Baum. Sind immer erstmal Mehrkosten und will daher gut überlegt sein. War trotzdem so schnellschüssig - allerdings auf Basis der Aussage eines nVidia-Mitarbeiters. Jene war halt nur nicht vollständig.

Gast
2019-09-16, 00:51:47
Also für mich klingt das nach einer reinen Marketingaussage, nach dem Motto wir werden in der Zukunft sowohl TSMC als auch Samsung verwenden, so wie wir es auch in der Vergangenheit gemacht haben.

Das sagt jetzt aber überhaupt nichts über die 7nm-Generation aus.

Weil Next Gen ist ja im Prinzip alles was in Zukunft kommt, da könnte es durchaus sein, dass 7nm exklusiv von Samsung kommt, 5nm dann aber TSMC das technisch/wirtschaftlich bessere Angebot hat und zum Zug kommt.

Freilich könnte es auch sein, dass in der 7nm Generation einzelne GPUs bei TSMC und andere bei Samsung vom Band laufen, wie es auch schon früher der Fall war.

Leonidas
2019-09-16, 10:47:25
Das sagt jetzt aber überhaupt nichts über die 7nm-Generation aus.


Würde man denken. Aber in diesem Fall ging es explizit um die nächste nVidia-Generation - ergo die 7nm-Generation.

JVC
2019-09-16, 13:05:04
Die (ungewollte?) Sarkasmus-Krone geht an JVC.

Lieber "leider nur Default-Gast", es ist eher gewollt weil,
die wenigsten User(keine Tester) sich wirklich mit aggressiven Sub-Timings jenseits der 1,65v beschäftigen :wink:
(ist aber weniger Sarkasmus, sondern eher Fakt)

Z.B.:
https://abload.de/img/1632413312-111.95vtolrqrxw.jpg (DDR4-4133 12-11-11 1.95V)
https://abload.de/image.php?img=royals4800c142vspi32mokjxl.jpg (DDR4-4800 14-14-14 2.0V)

In diesen Regionen sind nur noch hartgesottene Profis mit robustem Samsung B-Die unterwegs.
(und es benötigt sehr viel Zeit und viele viele... Tests um dorthin zu kommen)

Einen Test mit DDR3800 CL 12.11-11... + sehr scharfen Sub-Timings, mit 1:1 würd ich gerne mal sehen ...
(bei mir dauert es noch, da ich auf den 3950X warte ;) und auf DDR4k 1:1 hoffe)

M.f.G. JVC