Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 16. August 2022


Leonidas
2022-08-17, 08:19:00
Link zur News:
https://www.3dcenter.org/news/news-des-16-august-2022

Geldmann3
2022-08-17, 08:53:53
Nach 10 Jahren bei 4-5Ghz scheint es jetzt doch recht schnell Richtung 6Ghz (and beyond 3nm, 2nm+) bei CPUs zu gehen.

Man könnte fast meinen, es gäbe Konkurrenz auf dem Markt.

Leonidas
2022-08-17, 08:58:08
Ich denke, selbst das geht nach dem Prinzip: Wie ist Mehrleistung am einfachsten zu erreichen? Zuerst war es rein Takt, dann waren es Mehrkerne, dann IPC - und nun ist wieder Takt dran, da Mehrkerne im Consumer-Feld nix bringen und mehr IPC richtig Entwicklerreserven verschlingt.

Geldmann3
2022-08-17, 09:07:09
Performancekerne könnte man bald speziell auf Takt konzipieren und dafür Platz und Transistoren opfern. (Für maximale ST Performance.)

MT-Performance bekommt man dann noch massiv mit Effizienz-Kernen gesteigert, die keinen Takt schaffen dafür aber maximale Performance pro Fläche erbringen.

Aroas
2022-08-17, 10:21:51
Tja, da kommen AMD und NVidia zu spät mit ihren Preissenkungen bei den GPUs. Jedenfalls für mich.
Hab mir jetzt günstig eine gebrauchte GTX 1080 geholt, die die RX 570 ablöst. Die Leistung reicht mir erstmal.

Und wenn die wirklich nur die High End Karten günstiger machen sollten, dann ist das Ganze eh total für die Tonne.
Die Preise für Einstieg und Mittelklasse müssen endlich runter, denn gerade die sind viel zu hoch.

Platos
2022-08-17, 10:24:45
Das wäre selbst mir zu alte Hardware. Mir wäre ne 1080 auch maximal noch ~ 80-100 Wert.

madshi
2022-08-17, 10:34:01
Ich hab von unterschiedlichen Leakern widersprüchliche Aussagen zum Release-Date von RDNA4 gehört. Zumindest einer sagte Ende 2023, andere Ende 2024. Keine Ahnung, was da nun stimmt. Kann mich leider nicht mehr erinnern, wer Ende 2023 gesagt hatte...

MLID sagt (neustes Video), daß es keineswegs sicher ist, daß 4080 und/oder 4070 ins nächste Jahr verschoben sind. Es besteht durchaus auch noch die realistische Option, daß 4080 und/oder 4070 noch dieses Jahr kommen, und auch nicht unbedingt lange nach der 4090. Aber ist wohl noch nicht endgültig entschieden. Mag vielleicht davon abhängen, wie gut Nvidia (& Partner) es schaffen, den Ampere-Oversupply zu lösen.

MiamiNice
2022-08-17, 10:43:48
Der ganze neue Kram muss endlich in die Läden kommen. Es juckt verdammt hart in den Fingern und meine Kiste ist mir deutlich zu langsam - gerade die CPU macht mir in diversen Games viel zu wenig Fps.

aceCrasher
2022-08-17, 10:47:48
Ich hab von unterschiedlichen Leakern widersprüchliche Aussagen zum Release-Date von RDNA4 gehört. Zumindest einer sagte Ende 2023, andere Ende 2024. Keine Ahnung, was da nun stimmt. Kann mich leider nicht mehr erinnern, wer Ende 2023 gesagt hatte...

MLID sagt (neustes Video), daß es keineswegs sicher ist, daß 4080 und/oder 4070 ins nächste Jahr verschoben sind. Es besteht durchaus auch noch die realistische Option, daß 4080 und/oder 4070 noch dieses Jahr kommen, und auch nicht unbedingt lange nach der 4090. Aber ist wohl noch nicht endgültig entschieden. Mag vielleicht davon abhängen, wie gut Nvidia (& Partner) es schaffen, den Ampere-Oversupply zu lösen.

Ich halte Ende 24 für realistischer.

Gast
2022-08-17, 11:28:55
Der ganze neue Kram muss endlich in die Läden kommen. Es juckt verdammt hart in den Fingern und meine Kiste ist mir deutlich zu langsam - gerade die CPU macht mir in diversen Games viel zu wenig Fps.
Wieviele FPS brauchst Du denn? Selbst mein X5660 ist ausreichend für mich. Eine schnellere CPU wird man in der Praxis bei denen meisten Games nicht merken.

Gast
2022-08-17, 11:31:29
Das wäre selbst mir zu alte Hardware. Mir wäre ne 1080 auch maximal noch ~ 80-100 Wert.
Von der Performance deutlich mehr wert aber technologisch ist das Ding verdammt alt. Kein HDMI 2.1, kein DLSS, keine Garantie mehr in der Regel. Würde ich mir jetzt beim Kauf auch nicht mehr antun aber das sieht jeder anders.

Leonidas
2022-08-17, 11:32:46
MLID sagt (neustes Video), daß es keineswegs sicher ist, daß 4080 und/oder 4070 ins nächste Jahr verschoben sind. Es besteht durchaus auch noch die realistische Option, daß 4080 und/oder 4070 noch dieses Jahr kommen, und auch nicht unbedingt lange nach der 4090. Aber ist wohl noch nicht endgültig entschieden. Mag vielleicht davon abhängen, wie gut Nvidia (& Partner) es schaffen, den Ampere-Oversupply zu lösen.

Denkbar. Im Oktober kann man das immer noch neu bewerten und entscheiden. Alle Vorbereitungsarbeit ist sowieso schon nahezu erledigt (zu diesem Zeitpunkt), dann könnte man den Release auch noch im Dezember hinbekommen.

The_Invisible
2022-08-17, 11:41:24
Wieviele FPS brauchst Du denn? Selbst mein X5660 ist ausreichend für mich. Eine schnellere CPU wird man in der Praxis bei denen meisten Games nicht merken.

Die Dinger wurden bei unseren Servern schon vor 5 Jahren oder so ausgemustert und waren damals schon lahm und stromhungrig. Bei Spielen wie Anno1800 und größeren Städten dürfte der wohl nur mehr mittlere einstellige fps liefern (mein 5950x schafft da noch fps im mittleren 20er Bereich) :D

@Zen4
Wenn der genauso aggressiv boostet wie mein 5950x dürfen die 170W TDP Dinger wohl permanent im Temp-Limit hängen wenn sie sich da nicht einen speziellen Kniff einfallen haben lassen. Bin gespannt...

forenhoernchen
2022-08-17, 11:45:41
Zum Thema "reprogramable custom block":

Das klingt sehr kräftig nach nem FPGA und das hat natürlich riesige Vorteile. In dem Fall würde aber nicht jedes Spiel seine eigene RCB Software haben, sondern bestenfalls die Treiber und/oder Wissenschaftliche-/Coinminingprojekte (stellt euch schonmal auf den nächsten Miningboom ein) beinhalten. FPGA "software" ist eher mit Firmware vergleichbar und daher nicht so beliebig austauschbar wie ein paar Dateien.

Für AMD selber könnte der RCB zb heißen: neue Hardware decoder/encoder für neue Videoformate, Natürlich extended Raytracing-Capability (besonders sowas verlangt Treiberhandling, nicht pure-Metal-like über das Spiel selbst), weitere Post-processing-Schmankerl...
Kurzum: es erlaubt noch Änderungen am Design der Architektur nach dem Tapeout zu liefern, um auf last-minute Zaubertricks der Konkurrenz reagieren zu können.

Interessante Technologie und von nVidia eigentlich schwer zu kontern, weil nur AMD (Xilinx) und Intel (Altera) top-of-the-notch FPGAs drauf haben.

Corpsi
2022-08-17, 11:53:26
Bin mal gespannt auf die endgültigen Preise bei den 7000ern.

Gast
2022-08-17, 12:05:51
Die Dinger wurden bei unseren Servern schon vor 5 Jahren oder so ausgemustert und waren damals schon lahm und stromhungrig. Bei Spielen wie Anno1800 und größeren Städten dürfte der wohl nur mehr mittlere einstellige fps liefern (mein 5950x schafft da noch fps im mittleren 20er Bereich) :D

@Zen4
Wenn der genauso aggressiv boostet wie mein 5950x dürfen die 170W TDP Dinger wohl permanent im Temp-Limit hängen wenn sie sich da nicht einen speziellen Kniff einfallen haben lassen. Bin gespannt...

Für Server gebe ich dir recht, dass es da sicher bessere Lösungen.
Anno1800 habe ich selbst nie gespielt. Die Minimum Requirements bzgl. CPU sehen nicht massiv aus, könnte aber dennoch sein, dass die CPU hier in die Knie geht. Ich bleibe dabei, die CPU ist selten das Problem sondern meist eher die GPU.
Nicht umsonst werden CPU Tests meist bei HD gemacht, weil bei 4K es kaum Unterschiede gibt. Das sagt schon alles...

Aroas
2022-08-17, 12:07:36
Der ganze neue Kram muss endlich in die Läden kommen. Es juckt verdammt hart in den Fingern und meine Kiste ist mir deutlich zu langsam - gerade die CPU macht mir in diversen Games viel zu wenig Fps.

Und du glaubst, dass du mit den neuen CPUs mal eben 50% mehr Leistung bekommst, oder was?
Unterhalb dieser Mehrleistung braucht man doch gar nicht kaufen, wenn man wirklich "viel zu wenig" FPS hat.

greeny
2022-08-17, 12:18:43
Jupitermonds Europa: Eis aus Schnee von unten [Bild der Wissenschaft]
Jupitermonds ;)

Platos
2022-08-17, 12:29:58
Und du glaubst, dass du mit den neuen CPUs mal eben 50% mehr Leistung bekommst, oder was?
Unterhalb dieser Mehrleistung braucht man doch gar nicht kaufen, wenn man wirklich "viel zu wenig" FPS hat.

Du kennst wohl den Nutzer nicht, sonst hättest du nicht gefragt.

Von der Performance deutlich mehr wert aber technologisch ist das Ding verdammt alt. Kein HDMI 2.1, kein DLSS, keine Garantie mehr in der Regel. Würde ich mir jetzt beim Kauf auch nicht mehr antun aber das sieht jeder anders.

Habe vor 2 Jahren für ne 1070Ti ~150 bezahlt, also ist sie jetzt 2 Jahre später maximal 80-100Euro für mich wert. Dazu kommt auch noch, dass wie gesagt technologisch jetzt aber langsam genug ist mit Pascal (als Neuanschaffung). Das drückt den Preis auch nochmal für mich (vor 2 Jahren als Übergangslösung ok, aber jetzt nicht mehr für mich).

Garantie ist bei Gebrauchtkauf sowieso oft mehr Schein als Sein. Ist bei vielen Shops nämlich ohne Garantieübertrag nur schwer möglich. Interessiert mich aber auch nicht, hatte nie Probleme mit Gebrauchthardware.

Exxtreme
2022-08-17, 12:45:51
Wieviele FPS brauchst Du denn? Selbst mein X5660 ist ausreichend für mich. Eine schnellere CPU wird man in der Praxis bei denen meisten Games nicht merken.
MMORPGs hängen nahezu ausschließlich an der CPU. Da merkt man das schon bzw. man muss irre hohe Auflösungen + AA-Modi fahren damit die Grafikkarte was zu tun bekommt.

Gast
2022-08-17, 13:07:36
Das klingt sehr kräftig nach nem FPGA und das hat natürlich riesige Vorteile.

Das hat zwar Vorteile in der Flexibilität, aber riesige Nachteile in der Effizienz.

Der Trend geht eher in die andere Richtung, wieder mehr Spezialhardware einzubauen, die zwar nicht so flexibel aber auf ihrem Gebiet besonders effizient ist.

Gast
2022-08-17, 13:08:30
Ich denke, selbst das geht nach dem Prinzip: Wie ist Mehrleistung am einfachsten zu erreichen? Zuerst war es rein Takt, dann waren es Mehrkerne, dann IPC - und nun ist wieder Takt dran, da Mehrkerne im Consumer-Feld nix bringen und mehr IPC richtig Entwicklerreserven verschlingt.

Mit höheren Kernzahlen ist es alles andere als leicht mehr Leistung zu erreichen, ganz im Gegenteil es ist besonders schwer.

Gast
2022-08-17, 13:20:26
MMORPGs hängen nahezu ausschließlich an der CPU. Da merkt man das schon bzw. man muss irre hohe Auflösungen + AA-Modi fahren damit die Grafikkarte was zu tun bekommt.
Das spiele ich auch eher weniger aber hast du ein paar Beispiele an Games?

Exxtreme
2022-08-17, 13:22:11
Das spiele ich auch eher weniger aber hast du ein paar Beispiele an Games?

Final Fantasy 14 Online, World of Warcraft, New World etc. Sobald da viele Spieler über den Bildschirm flitzen, geht das an die CPU.

Gast
2022-08-17, 13:23:49
meine Kiste ist mir deutlich zu langsam - gerade die CPU macht mir in diversen Games viel zu wenig Fps.Dann kauf' dir halt was. Jetzt.

Rabiata
2022-08-17, 13:58:57
Zum Thema FPGA:
Das hat zwar Vorteile in der Flexibilität, aber riesige Nachteile in der Effizienz.

Der Trend geht eher in die andere Richtung, wieder mehr Spezialhardware einzubauen, die zwar nicht so flexibel aber auf ihrem Gebiet besonders effizient ist.
Ein FGPA liegt da irgendwo zwischen externer Software und festverdrahteten Maschinenbefehlen. Eine Faustregel, die ich schon hier und da gelesen habe, ist

Nicht programmierbarer ASIC = 10x so schnell wie FGPA
FGPA = 10x so schnell wie Assemblercode auf einer Universal-GPU.

Die Flexibilität geht jeweils in die andere Richtung.
AMD müßte es schaffen, das Äquivalent von ganzen Low-Level Routinen aus dem Treiber auf dem "programmierbaren Funtionsblock" umzusetzen. Dann denke ich, daß es auch mit der Performance klappen könnte.
Aber Treiber und FGPA-Konfiguration wären eng miteinander verzahnt. Ich bezweifle, daß sich viele Firmen außerhalb AMDs darauf einlassen würden, da selbst daran herumzuprogrammieren.

Ein "normaler" Spielentwickler sicher nicht. Ein Entwickler von Grafikengines vielleicht.

Lehdro
2022-08-17, 14:00:23
Der ganze neue Kram muss endlich in die Läden kommen. Es juckt verdammt hart in den Fingern und meine Kiste ist mir deutlich zu langsam - gerade die CPU macht mir in diversen Games viel zu wenig Fps.
Das gerade du immer noch mit so einer Gammel CPU rumeierst entbehrt nicht einer gewissen Ironie.

Ex3cut3r
2022-08-17, 14:16:02
Das gerade du immer noch mit so einer Gammel CPU rumeierst entbehrt nicht einer gewissen Ironie.

Hätte man sich 2018 als der 9900k rauskam. Einen 2700X mit X470 geholt, hätte man sich jetzt einen 5800X3D holen können, der den 9900k alt aussehen lässt. Selbst schuld, es war klar das Z390 beim Kauf schon tot ist. AMD dagegen bot mehr für die Zukunft, aber so ist das halt. Man trifft eine Entscheidung und muss damit leben, das nachfolgende jammern interessiert doch eigentlich niemanden.

Ampere/RTX 3090 mit PCIe 3.0 zu betreiben fühlt sich auch ziemlich falsch an, auch wenn es in der Realität nur 5% max. kostet.

Exxtreme
2022-08-17, 14:25:38
Ampere/RTX 3090 mit PCIe 3.0 zu betreiben fühlt sich auch ziemlich falsch an, auch wenn es in der Realität nur 5% max. kostet.

Das kostet Bruchteile eines Prozents. Pcie4 bringt nur dann was wenn der Grafikkartenspeicher zu klein ist. Also eher bei günstigeren Comsumerkarten.

Lehdro
2022-08-17, 15:02:46
Hätte man sich 2018 als der 9900k rauskam. Einen 2700X mit X470 geholt, hätte man sich jetzt einen 5800X3D holen können, der den 9900k alt aussehen lässt. Selbst schuld, es war klar das Z390 beim Kauf schon tot ist. AMD dagegen bot mehr für die Zukunft, aber so ist das halt. Man trifft eine Entscheidung und muss damit leben, das nachfolgende jammern interessiert doch eigentlich niemanden.

Oder einfach bald 5800X3D (soll ja angeblich zum Ryzen 7000 Release im Preis gesenkt werden...) + B550 kaufen und den alten Speicher mitschleifen, anstatt mit RPL wieder in eine teure, aber sofort "tote Zukunftsplattform" zu investieren. Dann doch lieber in den Nachfolger MTL investieren oder gleich auf AM5 nach den Reviews abzielen, bzw. dessen X3D anvisieren. RPL mit seinem voraussichtlichen (sind ja schon Benches da...) inkrementellen Leistungszuwachs liest sich als genau derselbe Fehler wie einen 9900K zu kaufen -> Sackgasse mit minimalem Performanceschub gegenüber dem Vorgänger.

Aber soll ja jeder machen wie er mag :)
Das kostet Bruchteile eines Prozents. Pcie4 bringt nur dann was wenn der Grafikkartenspeicher zu klein ist. Also eher bei günstigeren Comsumerkarten.
Ein gewisser Leistungsfetischist sollte sich eigentlich auch daran stören ;)

Legendenkiller
2022-08-17, 15:03:26
Mit höheren Kernzahlen ist es alles andere als leicht mehr Leistung zu erreichen, ganz im Gegenteil es ist besonders schwer.


Nicht am anfang.

Est hate man 1 Kern und hat immer weiter IPC und Takt erhöht.
Beim P4 wurde klar das hier limits erreicht wurden.

Dann war eine weitere Steigerung über mehr Kerrne leichter.
MassEffekt 1 lieft auf eine Dual Core doppelt so schnell wie auf den gleich getakteten Singelcore.
Eine Verdopplung der Leistung in einer Generation mit IPC + Takt war zu diesen Zeitpunkt bereits seit 10 Jahren nicht mehr möglich.

Eine weiter Verdopplung auf 4 und dann nochmal auf 8 Kerne hat aber in immer weniger Anwendugen weitere Geschwindigkeitsgewinne gebraucht. Immerhin konnte man nun ohne Perfomanceverluste mehrere Anwendungen parallel betreiben.

Aktuell scheinen 8 bis 16 Kerne + HT das lokale Optimum zu Chipfläche und Kosten sein.

Also muss wieder verstärkt IPC + Takt erhöht werden. Und da die Technologiesprünge auch immer kleiner werden muss man dazu böse an der Leistungsaufname drehen um hier pro Transistor mehr rauszuquetschen.

Exxtreme
2022-08-17, 15:27:48
Also muss wieder verstärkt IPC + Takt erhöht werden. Und da die Technologiesprünge auch immer kleiner werden muss man dazu böse an der Leistungsaufname drehen um hier pro Transistor mehr rauszuquetschen.

Wobei es da womöglich auch noch andere Möglichkeiten gäbe die Leistung zu erhöhen. Da fällt mir die RAM-Bandbreite ein. Diese ist immer noch sehr schmal und deshalb bringen auch große Caches auch soviel. Die knapp 60 GB/s sind halt nicht so der Hit. Wären es 600 GB/s dann würde die Sache anders aussehen.

Lehdro
2022-08-17, 15:45:41
Wobei es da womöglich auch noch andere Möglichkeiten gäbe die Leistung zu erhöhen. Da fällt mir die RAM-Bandbreite ein. Diese ist immer noch sehr schmal und deshalb bringen auch große Caches auch soviel. Die knapp 60 GB/s sind halt nicht so der Hit. Wären es 600 GB/s dann würde die Sache anders aussehen.
Bisher hat triple/quad Channel für quasi 0 Leistungssprung in Games gesorgt. Siehe auch hier, 5995WX vs 5950X (https://www.techspot.com/review/2512-amd-ryzen-threadripper-pro-5995wx/). Da bringt das mehr an Cache wohl eher etwas.
Bei ADL gab es zwischen DDR4 und DDR5 im Schnitt auch einen Gleichstand (https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-gaming-benchmark-test/3/#abschnitt_speicheroc_mit_bis_zu_ddr56200). Mal war DDR4 besser, mal DDR5.

Exxtreme
2022-08-17, 16:47:38
Bisher hat triple/quad Channel für quasi 0 Leistungssprung in Games gesorgt. Siehe auch hier, 5995WX vs 5950X (https://www.techspot.com/review/2512-amd-ryzen-threadripper-pro-5995wx/). Da bringt das mehr an Cache wohl eher etwas.
Bei ADL gab es zwischen DDR4 und DDR5 im Schnitt auch einen Gleichstand (https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-gaming-benchmark-test/3/#abschnitt_speicheroc_mit_bis_zu_ddr56200). Mal war DDR4 besser, mal DDR5.

Ich meinte allgemein mehr Leistung, nicht nur in Spielen. Spiele sind wohl nicht darauf optimiert, dass sie von RAM-Bandbreite profitieren. Wobei ich es mir vorstellen kann, dass Final Fantasy 14 Online hier tatsächlich reagieren würde. Das Spiel reagiert ungewöhnlich stark auf schnellen RAM.

Gast Ritis
2022-08-17, 17:12:43
knapp 60 GB/s sind halt nicht so der Hit. Wären es 600 GB/s dann würde die Sache anders aussehen.
Das geht halt energetisch nicht auf.

Der X3D hat ja gerade gezeigt, dass beim Gaming nur die Latenz für Speichersegmente zählt, die bislang nicht im Cache Platz fanden. Die frühen Ryzen und TRs haben gezeigt dass die verteilten L3 auch schon zu viel Latenz hatten, erst Zen3 und dann der X3D haben da die Handbremse im L3 gelöst bzw den Turbo gezündet.

Der IPC und Taktvorteil ist aktuell und für alte Titel auch eher nur in Ausnahmen noch relevant wo ADL selten genug vorne liegt. Der hat aber auch vorallem den L2 verdoppelt.

Die Games brauchen vermutlich was um die 100 bis 200MB schnellsten Cache, der sich über L2 und L3 verteilt, eben was je Frame alles an Code und Assets von der CPU angefasst werden muss.
Die ganz grossen Assets liegen da längst schon im VRAM, in Zukunft ohne CPU SysRAM per DirectStorage gestreamt und entpackt.

Dort wo der Taktvorteil noch spielt könnte man genausogut an die Engine-Entwickler herantreten und fragen ob die überhaupt MultiCore optimiert haben. Sind auf jeden Fall keine spezifische Game-Typen, die in Reviews da noch Takt brauchen.

Die optimale Game-CPU scheint mir für die Zukunft eher ein 8C/16T mit möglichst rasantem Cache in mehreren hundert MB zu sein. Gerade auch wegen der aktuellen und künftig erwartbaren Konsolen-CPUs. Wo bei Konsolen im Zweifel optimiert wird hat die generische PC-Version grösseren API und Engine Overhead zu cachen.

Trotz allem werden mit den kommenden CPUs alle erst mal über die 5.x++ GHz schwadronieren und den grösseren L2 für die Bedeutung beim Gaming nicht verstanden haben.

Gast
2022-08-17, 17:18:05
Die knapp 60 GB/s sind halt nicht so der Hit. Wären es 600 GB/s dann würde die Sache anders aussehen.


RAM-Bandbreite bringt CPUs nicht viel, dafür sind die Latenzen viel zu schlecht.
Bei 50ns muss eine 5GHz CPU 250 Takte warten.

CPUs sind immer nur dann schnell, wenn sie viele Operationen auf den selben Daten durchführen die sie durch die Caches cyclen können.

Gast
2022-08-17, 17:39:42
Eine weiter Verdopplung auf 4 und dann nochmal auf 8 Kerne hat aber in immer weniger Anwendugen weitere Geschwindigkeitsgewinne gebraucht.Erschreckend sind der Umstand, wie weit Software bzgl. Multithreading vielfach auch nach unzähligen Jahren hinterher hängt. Und dass schon 8 Threads oft nichts mehr bringt bzw. SMT sogar bremst. Und dass 8 Kerne ja schon lange getopt wird. Inzwischen mal wieder so weit, dass nicht nur 9X% Software damit rein gar nicht anfangen können (im Gegenteil), sondern Windows selbst Probleme hat (ab 64 Threads). Ich gehöre, soweit ich das beurteilen kann, zu der Minderheit, die schon immer lieber weniger Kerne und dafür mehr Takt (+Cache +IPC ...) haben wollte. Leider macht AMD einen auf intel und kastriert die kleinen Desktop/Mobile-CPUs beim Takt, statt wie im Serversegment üblich "weniger Kerne = höherer Takt".

Platos
2022-08-17, 18:12:45
Das kostet Bruchteile eines Prozents. Pcie4 bringt nur dann was wenn der Grafikkartenspeicher zu klein ist. Also eher bei günstigeren Comsumerkarten.

Nein, das stimmt nicht. Auch mit einer 3090(Ti) hat man mit pcie 4.0 ~4-10% Mehrleistung (manchmal auch nichts, manchmal auch mehr). Das ist natürlich nicht gerade Weltbewegend, aber warum liegen lassen? Und vor allem bei einer 4080 oder 5080 wirds dann anders aussehen...

Einfach mal recherchieren. PCI-E 3.0 bzw. 4.0 x8 ist veraltet. Das kauft man sich nicht mehr als Neuanschaffung, was mehere Jahre halten soll (auch für eine Grafikkarte in 2-3 Generationen weiter vorne). Da ja viele Grafikkarten mittlerweile nur noch 8 oder manche Krüppel sogar nur 4 Lanes haben, sollte man sich vlt. auch PCI-E 5.0 für Zukunftssicherheit im Blick halten.

Aroas
2022-08-17, 18:46:17
... es war klar das Z390 beim Kauf schon tot ist.

Das kann man doch eigentlich von jeder Intel Plattform sagen.

Support gibts immer nur für zwei CPU Generationen. Und eine davon ist in der Regel nur ein Refresh bzw. geringe Weiterentwicklung der ersten Gen auf der Plattform.
Insofern sind alle Intel Plattformen quasi schon tot, wenn sie den Markt erreichen.

Lehdro
2022-08-17, 19:26:04
Wobei ich es mir vorstellen kann, dass Final Fantasy 14 Online hier tatsächlich reagieren würde. Das Spiel reagiert ungewöhnlich stark auf schnellen RAM.
Tun die meisten MMOs. Liegt aber nicht an der gestiegenen Bandbreite, sondern an der gesunkenen Latenz. Gerade mit dem OC von IF/Ringbus kann man das gut gegenchecken.

War auch damals zu Phenom II Zeiten schon so, man denke an den damaligen NB Takt, der teilweise 1:1 durchschlug, während CPU OC kaum skalierte.

Torg
2022-08-17, 19:47:56
Die Idee mit einem fpga hatte ich vor knapp einem Jahr auch schon, als klar war, dass AMD Xilinx kauft.
https://www.igorslab.de/community/threads/amds-neue-zen-4-cpus-f%C3%BCr-sockel-am5-%E2%80%93-temperatur-und-power-management-von-raphael-im-detail-erkl%C3%A4rt-exklusiv.5515/post-144213
Apples M1 Chips wird angegeben mit 11Tops für den NPU Teil. Ich glaube Adobe nutzt das für seine Software auch bereits.

Das wäre sicherlich was für AMD

Orko
2022-08-17, 21:26:04
"reprogramable custom block" aka FPGAs in GPUs - das hatten wir doch schon mal im "AMD kauft Xilinx" Thread andiskutiert:

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=602646&page=7


Vielleicht könnte ein FPGA in GPUs integriert werden, welches einige Teile der Arbeit übernimmt welche bisher per Graphikkarten-Treiber auf der CPU laufen. Insbesondere solche Teile die von hohen Bandbreiten und/oder niedrigen Latenzen zur GPU profitieren. Oder solche Teile bei denen eine deutliche Entlastung der CPU erreicht werden kann. Mit jedem Treiberupdate gibt es dann halt, soweit nötig, ein entsprechendes Update für den FPGA.

Üblicherweise enthalten die Graphikkarten-Treiber spezifische Optimierungen für verbreitete Spiele. Vielleicht kann hier ein GPU seitiger FPGA neue Möglichkeiten eröffnen. Bei jeden Spielstart würde der Treiber dann den FPGA mit spielespezifisch-optimierten Code beladen. Voraussetzung wäre ein FPGA der eine entsprechend hohe Anzahl an Reprogrammierungen unterstützt.

Ich sehe grad, basix hat das schon im Post #104 geschrieben:
"Bei Gaming GPUs könnte AMD pro Spiel "Befehlssatzprofile" im Treiber anlegen um Spiele zu beschleunigen..."


Der von RGT skizzierte Einsatzbereich
"This technology can be used for everything from ML (like Tensor instructions) to augmenting Ray Tracing cores and more."
dahingegen scheint näher an dem zu sein was NVidia mit ihren Tensorcores macht:
ML, RT bzw RT-Support, Denoising, DLSS, ...

spannendes Thema - finde ich

Gast
2022-08-17, 22:37:03
Der X3D hat ja gerade gezeigt, dass beim Gaming nur die Latenz für Speichersegmente zählt, die bislang nicht im Cache Platz fanden. Die frühen Ryzen und TRs haben gezeigt dass die verteilten L3 auch schon zu viel Latenz hatten, erst Zen3 und dann der X3D haben da die Handbremse im L3 gelöst bzw den Turbo gezündet.



Die Zen L3 Caches sind DIE exklusiv, bzw. sogar CCX exklusiv, jeder CCX kann nur auf seinen eigenen L3 zugreifen.

Gast
2022-08-17, 22:38:05
Erschreckend sind der Umstand, wie weit Software bzgl. Multithreading vielfach auch nach unzähligen Jahren hinterher hängt.


Software hinkt nicht hinterher, vieles lässt sich schlicht und ergreifend nicht ausreichend parallelisieren.

basix
2022-08-17, 22:48:29
Zum Thema "reprogramable custom block":

Das klingt sehr kräftig nach nem FPGA und das hat natürlich riesige Vorteile. In dem Fall würde aber nicht jedes Spiel seine eigene RCB Software haben, sondern bestenfalls die Treiber und/oder Wissenschaftliche-/Coinminingprojekte (stellt euch schonmal auf den nächsten Miningboom ein) beinhalten. FPGA "software" ist eher mit Firmware vergleichbar und daher nicht so beliebig austauschbar wie ein paar Dateien.

Ich sehe da auch folgende Dinge:
- Erkennen und anlernen von häufigen Tasks / Shader-Programmen, welche damit beschleunigt werden können
- Engine spezifische Beschleunigungen (z.B. UE5)
- FSR 2+, wo man den Algorithmus mehr oder minder in die GPU braten kann und somit faktisch gratis wird.

Leonidas
2022-08-18, 05:13:41
Jupitermonds ;)

Gefixt!

Torg
2022-08-18, 07:47:04
Was den 7600x bzw 7700x angeht, gehe ich eher von echter 85W TDP aus.
AMD wird aber mMn noch einen 7800x rausbringen mit höheren Takt; so im Bereich des 7950x (SC), der dann auch entsrechend bei 105W TDP liegt.

bbott
2022-08-18, 09:52:08
Und du glaubst, dass du mit den neuen CPUs mal eben 50% mehr Leistung bekommst, oder was?
Unterhalb dieser Mehrleistung braucht man doch gar nicht kaufen, wenn man wirklich "viel zu wenig" FPS hat.
Er lebt in einer Parallelwelt, mit eigenen Regeln und gesetzten, da können manchmal schon 1-5% (Performance) Welten bedeuten, den Unterschied zwischen super und unspielbar bedeuten oder aber 100% (Stromverbrauch) mehr gar nichts.

bbott
2022-08-18, 09:55:48
Hätte man sich 2018 als der 9900k rauskam. Einen 2700X mit X470 geholt, hätte man sich jetzt einen 5800X3D holen können, der den 9900k alt aussehen lässt. Selbst schuld, es war klar das Z390 beim Kauf schon tot ist. AMD dagegen bot mehr für die Zukunft, aber so ist das halt. Man trifft eine Entscheidung und muss damit leben, das nachfolgende jammern interessiert doch eigentlich niemanden.
Und mit AM5 wird sich das (sehr) Wahrscheinlich wiederholen. ;D

Platos
2022-08-18, 18:31:29
Hätte man sich 2018 als der 9900k rauskam. Einen 2700X mit X470 geholt, hätte man sich jetzt einen 5800X3D holen können, der den 9900k alt aussehen lässt. Selbst schuld, es war klar das Z390 beim Kauf schon tot ist. AMD dagegen bot mehr für die Zukunft, aber so ist das halt. Man trifft eine Entscheidung und muss damit leben, das nachfolgende jammern interessiert doch eigentlich niemanden.

Ampere/RTX 3090 mit PCIe 3.0 zu betreiben fühlt sich auch ziemlich falsch an, auch wenn es in der Realität nur 5% max. kostet.

Der 2700X ist ziemliche ne Krücke und kommt mit nem 9900k nicht mit beim Gaming. Erst Zen2 konnte mithalten und erst Zen 3 war schneller. Also für's Gaming AMD zu kaufen vor Zen 2 ist/war dann halt jeder selbst Schuld.

Ein 9900K zu kaufen, war aber genau so dämlich, weil schon ziemlich früh bekannt war, dass Intel mit dem quasi fast gleichen 10700k den Preis massiv "senkt". Der 9900k ist nun aber bei weitem keine Krüppel-CPU, nur eben eine Deppen-CPU, weils ein Jahr später das gleiche für massiv weniger Geld gab xD

Man sollte wohl eher sagen: Wer sich ne CPU kauft und 3 Jahre später schon ne neue braucht, hat wohl die falsche CPU gekauft.

Gast Ritis
2022-08-19, 00:11:26
Unterm Strich finde ich die Unterschiede der Performance der CPUs in hohen Auflösungen gar nicht so gravierend wie manchmal hier diskutiert wird. Gerade weil die teuerste schnellste GPU eben nicht genutzt wird die in Reviews sonst die Balken zaubert.
Von daher finde ich bei DIY den relativen Preis zur Leistung einer Plattform über die Jahre mit Upgrades viel entscheidender. Bei CPUs aus dem mittleren Preissegment verliere ich durch Verkauf und neue Upgrade CPU relativ wenig. Mit Board und allem meist mehr und es ist dann auch viel mehr Aufwand.

mercutio
2022-08-22, 11:58:50
Also das wird eine heiße Generation, schade eigentlich, dass TDPs >125 W anscheinend wieder Standard werden. Wenn man sich die MoBos so anschaut, wieviele SpaWas, Kühlkörper und Lüfter die bekommen... Ist die X86-CPU Architektur doch so langsam am Limit/Ende? Die Mobo-Preise der Topmodelle peilen auch die 1K € Marke an, denke ich.
Dann sollen noch die kommenden GraKas 400-700W ziehen..? Wie soll man das mit Luftkühlung leise kühlen können?
Zumindest braucht man im Winter keinen extra Heizlüfter mehr aufstellen, wenn der PC beim Gaming so seine gemütlichen 600-800W Abwärme erzeugt.

Bin mal gespannt, ob NVidia mit der Grace-Architektur auch Modelle bringt, die die "X86-Gaming"-Sparte angreifen kann. Apple's M1 zeigt ja, dass schneller auch effizienter sein kann.

Platos
2022-08-22, 12:09:46
Dann sollen noch die kommenden GraKas 400-700W ziehen..? Wie soll man das mit Luftkühlung leise kühlen können?


Das waren mal Gerüchte, mehr auch nicht. Die 4080 benötigt 320W, die 4070 285Watt.

Und du schaust dir womöglich die falschen Mobos an. Es gibt auch welche, die nicht so viel Bling-Bling haben. Einzig die Preise sind selbst bei den schlecht ausgestatetsten Mainboards bei Intel trotzdem teuer.