PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 23. März 2020


Leonidas
2020-03-24, 10:50:31
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-maerz-2020

HOT
2020-03-24, 13:07:18
Ein Fullnode-Sprung wären 100% mehr und 50% weniger, 5nm kommt da also durchaus in die Nähe. Nur von den Leistungsdaten wirds halt immer weniger. Während der Stromverbrauch noch gut sinkt (aber auch weniger als früher) ist der Leistungsgewinn sehr wenig von Node zu Node.

Aroas
2020-03-24, 13:42:01
Ok, AMD wird also mit Zen3 im Dekstop mit Intel den Boden aufwischen. Das mag zwar makaber klingen, aber da hat Intel ja direkt Glück, dass gerade Corona grassiert und die Arbeiten auch bei AMD sicherlich nur eingeschränkt laufen. Dadurch könnte sich der Start von Zen3 deutlich verzögern und Intel einen gewissen Zeitvorteil verschaffen.
Vorausgesetzt, die USA versinken nicht vollkommen unter diesem Virus.

JVC
2020-03-24, 13:59:08
"– welche man dann mittels DLSS bedeutsam abmildern kann."
Ich halte da VRS für wesentlich potenter!
Vielleicht wäre eine Kombination der Beiden denkbar?
Denn für unbrauchbar halte ich NVs Lösung auch nicht.(2.0 ist ja jetzt nicht mehr "direkt spielbezogen")
(wann ich wählen müsste, dann wäre VRS meilenweit vorne.)

"– was man ja bereits auf Basis früherer (inoffizieller) Intel-Roadmaps vermuten konnte."
Intels 10nm ... war sehr deutlich vorher zu sehen ... aber gut das es auch mal ausgesprochen wurde.
(NVs 10nm .... muss ich immer an Intel denken, aber das wird schon klappen?)

M.f.G. JVC

Leonidas
2020-03-24, 14:11:37
"– welche man dann mittels DLSS bedeutsam abmildern kann."
Ich halte da VRS für wesentlich potenter!
Vielleicht wäre eine Kombination der Beiden denkbar?
Denn für unbrauchbar halte ich NVs Lösung auch nicht.(2.0 ist ja jetzt nicht mehr "direkt spielbezogen")
(wann ich wählen müsste, dann wäre VRS meilenweit vorne.)


Logo. Wenn dicke RT-Titel auftreten sollten, dann wird wahrscheinlich alles an Tricks aus dem Hut gezogen werden müssen, was so geht.

Gast
2020-03-24, 15:27:31
Mir will ja nicht in den Sinn warum man zwanghaft Desktop und Mobil unbedingt trennen muss. Das was als Mobil-CPU verkloppt wird, würde mir auch im Desktop reichen. Wenn Intel (und AMD!, besonders die wegen fehlendem GPU-Teil) nicht wollen ... ich hätte ja nichts gegen über einen Adapter wie zu Pentium M Zeiten der einem den Sockel mechanscih und elektrisch passend macht. Wäre ja auch zu einfach einfach den Mobile Sockel mit allem drumm und drann als Desktop zu bringen. Das zweigleisig fahren ist doch Schwachsinn.

JVC
2020-03-24, 15:58:55
Logo. Wenn dicke RT-Titel auftreten sollten, dann wird wahrscheinlich alles an Tricks aus dem Hut gezogen werden müssen, was so geht.
Ich hoffe du hast Recht und NV zeigt sich als guter Teamplayer :up:

M.f.G. JVC

Gast
2020-03-24, 17:23:24
Mir will ja nicht in den Sinn warum man zwanghaft Desktop und Mobil unbedingt trennen muss. Das was als Mobil-CPU verkloppt wird, würde mir auch im Desktop reichen. Wenn Intel (und AMD!, besonders die wegen fehlendem GPU-Teil) nicht wollen ... ich hätte ja nichts gegen über einen Adapter wie zu Pentium M Zeiten der einem den Sockel mechanscih und elektrisch passend macht. Wäre ja auch zu einfach einfach den Mobile Sockel mit allem drumm und drann als Desktop zu bringen. Das zweigleisig fahren ist doch Schwachsinn.
Die meisten Mobiles sind verlötet, gesockelt ist nur noch selten. Daher hilft ein Adapter nicht wirklich weiter. Bei beiden Herstellern gibt es aber auch die Mobile Chips im Desktop, mit mehr Takt und Verbrauch natürlich. Das kann man meist aber auch wieder auf niedrigere Werte reduzieren (BIOS), in gewissem Rahmen, in dem es Sinn macht. Hilft ja nicht, die Kerne auf 2W zu drosseln, wenn das VRM des Boards dann extrem ineffizient wird.

Raff
2020-03-24, 18:29:45
Danke für das quasi-alleinige Erwähnen des PCGH-Artikels bezüglich DLSS, Leo! =)

Es geht direkt weiter: DLSS 2x im Eigenbau: So nutzen Sie DLSS mit DSR-Supersampling für fantastische Bildqualität (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Tuning-Tipps-DLSS-2x-aktivieren-1346292/)

MfG
Raff

Platos
2020-03-24, 19:38:50
Danke für das quasi-alleinige Erwähnen des PCGH-Artikels bezüglich DLSS, Leo! =)

Es geht direkt weiter: DLSS 2x im Eigenbau: So nutzen Sie DLSS mit DSR-Supersampling für fantastische Bildqualität (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Tuning-Tipps-DLSS-2x-aktivieren-1346292/)

MfG
Raff

Habe ich mir angesehen: Wie wollt ihr nun wissen, dass DSR + DLSS funktioniert? Ihr habt ja nur bestätigt, dass DSR + DLSS ein besseres Bild liefert, wie nativ + DLSS. Wer sagt nun also, dass DLSS funktioniert und die bessere Optik nicht allein durch DSR verursacht wird (FPS Vergleiche?) DSR bietet logischerweise ohne DLSS eine bessere Bildqualität. Kann also gut sein, dass hier DSR allein die Steigerung bringt und DLSS gar nicht funktioniert.

Ihr müsstet schon testen, wie DSR + DLSS vs DSR ohne DLSS vs nativ + DLSS (vs nativ ohne DLSS) ausfällt - mit selber DSR-Auflösung.

Ist die Framerate zwischen DSR + DLSS und DSR ohne DLSS gleich, dann wirds wohl nicht funktionieren.

BlacKi
2020-03-24, 21:11:10
die framerates würden mich auch interessieren, sonst kann man nicht bewerten ob das bessere bild es wert ist.

Raff
2020-03-24, 21:55:35
In der Bildergalerie unter dem Text sind alle Bilder zu finden: Drei Auflösungen à vier AA-Settings, also DLSS aus (= TAA), DLSS Performance, DLSS Balanced und DLSS Quality. Es fehlen die Zwischenstufen in den Klickvergleichen, da das sonst sehr unübersichtlich ist.

-> DLSS geht :)

Aber yep, da stehen noch Leistungstests aus, da könnte man noch sehr viel testen.

MfG
Raff

Platos
2020-03-24, 22:48:25
Wie war das nochmals mit den DSR Faktoren, auf was muss man da achten? Dass die Pixelanzahl in jeder Achse nur ganze Zahlen ergibt? Also Faktor 2.25 und 4, was einem Faktor 1.5 bzww 2 pro Achse ergibt (die anderen ergeben ja alle keine ganzen Zahlen)?

In der Bildergalerie unter dem Text sind alle Bilder zu finden: Drei Auflösungen à vier AA-Settings, also DLSS aus (= TAA), DLSS Performance, DLSS Balanced und DLSS Quality. Es fehlen die Zwischenstufen in den Klickvergleichen, da das sonst sehr unübersichtlich ist.

-> DLSS geht :)

Aber yep, da stehen noch Leistungstests aus, da könnte man noch sehr viel testen.

MfG
Raff

Ahh, da sind wirklich Vergleichstest von DSR ohne DLSS und DSR mit DLSS (aus meiner Sicht hätte man das auch noch oben einfügen können, aber ok, habe die Galerie nicht gesehen, sorry).

Alerdings trotzdem: Wie BlacKi nochmals sagte, wäre natürlich der Perfomancegewinn sehr interessant, also vor allem bei den Tests in dem DSR aktiviert war.

Da dürft ihr natürlich ruhig irgendwann noch einen 3. Teil bringen mit Perfomancevergleiche :)

Frage: bisher funktionierte ja DLSS "nur" bis 4k. Bei euch geht das aber nun "schon" mit 5k. Wie hoch geht das also nun? Ich z.B habe nen 4k-Monitor, würde das also evtl. auch mit nem 4k Monitor und DSR (vor allem Faktor 1.5 und 2) gehen?

Gast
2020-03-24, 22:57:13
Ich halte da VRS für wesentlich potenter!
Vielleicht wäre eine Kombination der Beiden denkbar?

Die Auswirkungen von DLSS sind da um Größenordnungen höher, die tatsächlich berechnete Auflösung verringert sich auf bis zu 1/4 im Performance-Modus, und dürfte selbst im Quality Modus noch in etwa bei der Hälfte liegen.

VRS kann da niemals nur annähernd so viel Performance bringen, und natürlich kann auch beides gemeinsam verwendet werden.

Platos
2020-03-24, 23:27:56
Die Auswirkungen von DLSS sind da um Größenordnungen höher, die tatsächlich berechnete Auflösung verringert sich auf bis zu 1/4 im Performance-Modus, und dürfte selbst im Quality Modus noch in etwa bei der Hälfte liegen.

VRS kann da niemals nur annähernd so viel Performance bringen, und natürlich kann auch beides gemeinsam verwendet werden.

Wo hast du denn die Zahlen her ?

Gast
2020-03-24, 23:52:31
Wo hast du denn die Zahlen her ?

Control zeigt dir beispielsweise die tatsächliche Renderauflösung an (und lässt diese sogar über Config Files anpassen), und im Modus mit höchster Performance wird in 4k 1920x1080 tatsächliche Auflösung.

Das mag sich in anderen Spielen unterscheiden, aber großartige Unterschiede sollte es da nicht geben.

JVC
2020-03-25, 10:28:40
VRS kann da niemals nur annähernd so viel Performance bringen...

Naja NV "schummelt" ja auch....
Man brauchte etwas nützliches für die Tensor Cores ;)
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf
"...called Deep Learning Super Sampling (DLSS) is powered by Tensor Cores."

Insofern hast du recht :)
VRS kann die DLSS Leistung theoretisch gar nicht erreichen.

Aber ich denke es ist besser die 2 in ein paar Jahren nochmal zu vergleichen ;)
Denn VRS hat einen entscheidenden Vorteil...
Es ist bereits in DirectX 12 Ultimate und Vulkan enthalten :wink:
( https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-24-maerz-2020 )

M.f.G. JVC

DragonFire
2020-03-25, 13:56:29
Intel also erst 2022 mit 10nm...hey Alder, das dauert ja... :facepalm:

Leonidas
2020-03-25, 14:25:05
Aus dieser Sicht keine clevere Namenswahl ;)

Platos
2020-03-25, 19:46:38
Control zeigt dir beispielsweise die tatsächliche Renderauflösung an (und lässt diese sogar über Config Files anpassen), und im Modus mit höchster Performance wird in 4k 1920x1080 tatsächliche Auflösung.

Das mag sich in anderen Spielen unterscheiden, aber großartige Unterschiede sollte es da nicht geben.

Ach so, wusste ich nicht, danke.

MiamiNice
2020-03-25, 20:04:57
Sicherlich dürften die CPU-Kerne von "Willow Cove" deutlich leistungsfähiger als die bisher Skylake-basierten CPU-Kerne von Intel sein, aber dennoch sieht es optisch nun einmal nach einem Rückschritt aus.

Sieht für Dich nur so aus. Im Desktop ist das ein klarer Fortschritt den hoffentlich AMD auch wieder geht (sie haben es ja jetzt nicht mehr nötig über Kerne zu blenden). Klasse (IPC + Takt) statt Masse (Kerne) sind auf dem Desktop, und dieser wird addresiert, gefragt.
Selbst bei den 8 Kernen kann man HT direkt ausknipsen und dafür das Teil lieber etwas höher takten.
Wer auf andere Ideen kommt, macht entweder exotische Dinge daheim am PC oder hat einfach keinen Plan. Sorry.

Über die Fertigung kann man lachen aber 8 Kerne sind :up:
Wenn die sich ü 5Ghz taken lassen mit der Willow Cove IPC - da muss sich AMD im Games wahrscheinlich weit strecken mit Zen3.
Waren es nicht um 20% IPC+? Die auf über 5Ghz - da geht die Luzi aber ziemlich steil im heimischen PC.

€:

Gerade noch mal nachgeschaut - es sind um 18% IPC+ die Willov Cove Kerne auf Skylake Kerne bringen.
Wenn das dank 14+++++++++++++++++ auf die selben Takte geht wie die letzten Gens sprechen wir also von 18% mehr Leistung pro Kern.
Wie viel mehr IPC und Takt bekommt Zen3? Sie müssten um 15% mehr IPC generieren und gute 600Mhz Takt drauf legen - das ist imo schon sehr ambitioniert.

€2:

Für Zen 3 wurden schon mehr als 15% IPC Anstieg angekündigt. Dazu kommen bestimmt 5% mehr Takt.

Das wird dann unter Umständen, wenn Intel das wirklich so liefern kann und es so kommt, eng bzw. je nach Takt = Gleichstand
Wenn Intel das Teil gen 5.5 takten kann, die letzten gingen schon ziemlich gut, sehe ich eine Situation wie heute voraus.
Bekommt AMD seine 15% hin, bekommt den Takt aber nicht nach oben wegen 7nm, und Intel bringt wirklich eine derartige CPU, hätte diese sogar Qulitäten Zen 3 außerhalb von Blender und Co. regelrecht zu deklassieren.