PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 [47] 48

Badesalz
2020-06-14, 18:55:01
(ist aber noch immer keine Spannung für DDR3, aber es hieß ja die CPU würde bei mehr als 1,5 sterben... ich warte immer noch ^^)Nö. Nicht bei mehr als 1.5V -> Intel sagt halt in den Sandy/Ivy Docs, haut nicht mehr als 1.575V drauf, weil der MC die Spannung mit abkriegt (als Vddq?) und das ist unsere Maxspannung dafür.

Mehr als die 1.568V hat es aber auch nie gebraucht ;)
Immerhin...
So etwas schafft nur B-Die :biggrin:
https://abload.de/img/1632413312-111.95vtolrqrxw.jpg (DDR 4133 CL12)
...macht(e) der 2500k/4.6 damit die 32M in zwar hohen, aber immerhin 7m22s. Das geht, fand ich.

Warum ich das überhaupt erwähnt habe: Weil schon damals paar HyperX mit unbedingt Samsung Chips gehyped wurden. Die bei mir wegen Bios wie der letzte Rotz liefen. Und vom Händler nach 2 Tagen anstandslos gegen die Elite getauscht wurden.
Die HyperX hat Asus 1.5 Monate später mit neuem Bios zwar doch noch beherrscht, aber da liefen bei mir die Elite schon wie Sonic.

SKYNET
2020-06-14, 19:24:56
die leute mit B-die müssen sich halt ihren kauf schönreden. :wink:

gebinnte B-die sind schon besser als alle anderen, aber die kosten auch mal eben das ~doppelte pro GB. preis/leistung macht das selten wirklich sinn wenn man nicht gerade in 720p spielt oder als hobby irgendwelche rekorde brechen will. das geld ist in einer dickeren GPU (oder für next gen mehr CPU cores) wahrscheinlich besser aufgehoben.


720p ist total unerheblich, aber die frametimes profitieren extrem davon.

und leistung kostet, korrekt... man kann sich halt 2x 8GB für 70 taler kaufen, oder wie ich für damals 250 taler :P

und mein -immernoch ungebrochener weltrekord- gibt der investition recht :tongue:

SKYNET
2020-06-14, 19:27:27
Für den RAM 1,65v am 3570K(der bekommt min 1,4v ;)) seit Anfang an ^^
(ist aber noch immer keine Spannung für DDR3, aber es hieß ja die CPU würde bei mehr als 1,5 sterben... ich warte immer noch ^^)

B-Die wird m.M.n. erst ab 1,6v interessant :wink:
So etwas schafft nur B-Die :biggrin:
https://abload.de/img/1632413312-111.95vtolrqrxw.jpg (DDR 4133 CL12)
https://abload.de/image.php?img=royals4800c142vspi32mokjxl.jpg (DDR 4800 CL14)

CL16... ? Nein Danke. :smile:

M.f.G. JVC

c16 ist ok, wenn die subtimings passen, aber das tun sie bei micron & hynix nicht :freak:

fahre ja auch c16 bei 3800(kann beim board ja nur max 1.5V), aber subtimings von denen das hynix/micron gerümpel selbst bei 3200 nur träumt ;D

aufkrawall
2020-06-14, 19:35:37
Wär ja irgendwie mal schön, gäbe es konkrete Performance-Werte. Ich hatte im anderen Thread schon mal gefragt und die Antworten waren leider eher so Allgemeinplätze, wie nun eben hier...

Linmoum
2020-06-14, 19:39:05
Dann zeig mal deine Latenz bei deinen 3800@CL16 superduper B-Dies. Wenn die nicht mindestens 20% unter dem meiner rumpeligen E-Dies liegen, dann schmeiß ich mich bei dem Theater, das du hier deswegen veranstaltest, auf jeden Fall vor Lachen auf den Boden. ;D

Reous (https://www.hardwareluxx.de/community/threads/ryzen-ram-oc-thread-m%C3%B6gliche-limitierungen.1216557/page-164#post-27538516) schafft mit 3800@CL14 (bei einem 3300X) ja gerade mal 57.5ns.

aufkrawall
2020-06-14, 19:48:31
Auch wenn niemand mehr nervt: dargo hat schon einen Punkt bez. der Sinnlosigkeit des Latenz-Benchmarks...

Langlay
2020-06-14, 20:14:06
Dann zeig mal deine Latenz bei deinen 3800@CL16 superduper B-Dies. Wenn die nicht mindestens 20% unter dem meiner rumpeligen E-Dies liegen, dann schmeiß ich mich bei dem Theater, das du hier deswegen veranstaltest, auf jeden Fall vor Lachen auf den Boden. ;D



Tut er nicht. So sieht das bei mir aus DDR3800@CL16 , ich hab allerdings 4x8GB und benutze relativ humane Spannung (1.45V) bischen Luft wäre also noch. Minimal mit 2x8GB und etwas nachschärfen hab ichs auf 63.5ns gebracht.

https://abload.de/img/cachemem8wk0u.png


Wie gesagt man kann Unterschiede messen, fühlen im direkten Vergleich bezweifel ich.

Slipknot79
2020-06-14, 20:25:07
Keine Ahnung warum B-dies immer noch so gelobt werden?

Man kann als Enduser keine Wunder von den Sticks erwarten, dafür haben die Hersteller schon gesorgt. Aus dem 3200er, 3600er usw Kits wird man nicht mehr viel mehr rausholen können. Das macht ja schon der Hersteller selbst und ballert dann x2 auf den Preis.
Die Einzelfälle mit CL19 am Sticker und CL12 im Benchmark ist das Übliche, 12 Blister gekauft, 11 Kackblister wieder zurück und mit CL12 kackt der AAA Titel alle 15min ab.

Langlay
2020-06-14, 20:34:09
Keine Ahnung warum B-dies immer noch so gelobt werden?

Man kann als Enduser keine Wunder von den Sticks erwarten, dafür haben die Hersteller schon gesorgt. Aus dem 3200er, 3600er usw Kits wird man nicht mehr viel mehr rausholen können. Das macht ja schon der Hersteller selbst und ballert dann x2 auf den Preis.
Die Einzelfälle mit CL19 am Sticker und CL12 im Benchmark ist das Übliche, 12 Blister gekauft, 11 Kackblister wieder zurück. :cool:

Äh nein. 1. DDR3200 14-14-14 und DDR3600 16-16-16 sind quasi gleich vom den Timings her. Es kommt also quasi auf die echten Timings an. Ein DDR3200 CL14 Kit wird halt in 95% der Fälle auch DDR3600 CL16 packen. Nach oben hin gibts dann jenseits der DDR4000 schon Begrenzungen. In dem Bereich in dem sich Zen2 aufhält (max. DDR3800) sollte mit durchschnittlichem oder besser B-Die, die nicht brechstangen Timings immer laufen. Mache Kits brauchen dann halt nur etwas mehr Spannung als andere.

Und CL12 macht kein Kit ootb. Für solche CL12 Späße werden halt ungesunde Spannung(1.8V+) draufgeballert die langfristig die Speicherchips auch schädigen.

Slipknot79
2020-06-14, 20:45:13
Kaum ein 3200er 14er Kit schafft 4000MHz+ in CL16, warum sollte das der Hersteller auch zulassen?
In der Regel gehen vielleicht 1-2 Taktstufen drüber bei gleicher CL und bereits zu steigender Voltage 24/7 AAA Titel tauglich, memtest-tauglich etc., das wars dann auch schon, alles darüber macht der Hersteller als teureres Produkt.
Und bevor mir wieder einer kommt, ja ich habe 4 B-dies. :wink:

Langlay
2020-06-14, 20:49:53
In der Regel gehen vielleicht 1-2 Taktstufen drüber bei gleicher CL und bereits zu steigender Voltage, das wars dann auch schon, alles darüber macht der Hersteller als teureres Produkt.

Wenn ich bei gleicher CL den Takt erhöhe verringere ich ja auch die Timings. Das macht kein Speicherkit lange mit. DDR 3200 CL14 jetzt vom Timing her ja auch langsamer als DDR3600 CL14. DDR3600 CL16 ist dann vom Timing her wieder genausoschnell wie DDR3200 CL14.

Die 3200 CL14 machten tatsächlich öfters mal DDR4000 CL16 mit, allerdings biste dort dann auch im Bereich 1.5V+. Ich hab sogar ein DDR3200CL14 Kit hier das DDR4000 CL16 Stabil mit 1.5V macht.

basix
2020-06-14, 22:12:09
Also gute B-Die sind schon was feines. Und was wollt ihr mit CL14? DDR3200 mit 12-11-11-31-1T und straffen Subs bei schnuckeligen 1.5V. Damit bekommt man sogar HSW-E auf <45ns :D https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12322752&postcount=38 Ach ja, ist ein 4000er CL19 Kit

Bei einem Ryzen 3600er System habe ich Micron E-Die verbaut. Waren Preis-Leistung damals unschlagbar und laufen ganz gut. B-Die ist aber eine andere Liga. Wenn ich die heutigen Preise von z.B. Patriot Viper Steel K2 anschaue, kann man ohne schlechtes P/L zu B-Die greifen.

Edit:
Wie gesagt man kann Unterschiede messen, fühlen im direkten Vergleich bezweifel ich.
Schneller RAM macht schon was bei der "Schwuppdizität" des Systems aus. Zwischen CL14 und CL15 merkt man es evtl. nicht, aber bei 2400 vs. 3200er bei ähnlichen Latenzen oder optimierten Subtimings sehr wohl (eigene Erfahrung)

Badesalz
2020-06-14, 22:41:52
Und CL12 macht kein Kit ootb. Für solche CL12 Späße werden halt ungesunde Spannung(1.8V+) draufgeballert die langfristig die Speicherchips auch schädigen.Da hab ich auch wieder nicht aufgepasst. DDR4 mit seinen 1.2V... Ab wieviel nochmal sagst du, ist die Spannung "ungesund"? Sind die 30nm der DDR4 Chips wegen den kleineren Strukturen mehrfach robuster als die 90nm der DDR3 Chips? :|

@basix
Schneller RAM macht schon was bei der "Schwuppdizität" des Systems aus. Zwischen CL14 und CL15 merkt man es evtl. nicht, aber bei 2400 vs. 3200er bei ähnlichen Latenzen oder optimierten Subtimings sehr wohl (eigene Erfahrung)Das klang nicht so, als wenn Langlay meinte, 800"Mhz" machen nichts aus ;)

Langlay
2020-06-14, 23:36:19
Schneller RAM macht schon was bei der "Schwuppdizität" des Systems aus. Zwischen CL14 und CL15 merkt man es evtl. nicht, aber bei 2400 vs. 3200er bei ähnlichen Latenzen oder optimierten Subtimings sehr wohl (eigene Erfahrung)

Es geht um optimierter E-Die vs. optimierter B-Die. Dort wie gesagt kann ich sicherlich Unterschiede messen, ich bezweifel das man die Unterschiede merkt beim zocken.

@Badesalz

B-Dies sind bis 1.5V spezifiziert. Soweit würde ich persönlich für 24/7 auch gehen. Ab wann es genau gefährlich wird ka.

SKYNET
2020-06-15, 00:14:57
Also gute B-Die sind schon was feines. Und was wollt ihr mit CL14? DDR3200 mit 12-11-11-31-1T und straffen Subs bei schnuckeligen 1.5V. Damit bekommt man sogar HSW-E auf <45ns :D https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12322752&postcount=38 Ach ja, ist ein 4000er CL19 Kit

Bei einem Ryzen 3600er System habe ich Micron E-Die verbaut. Waren Preis-Leistung damals unschlagbar und laufen ganz gut. B-Die ist aber eine andere Liga. Wenn ich die heutigen Preise von z.B. Patriot Viper Steel K2 anschaue, kann man ohne schlechtes P/L zu B-Die greifen.

Edit:

Schneller RAM macht schon was bei der "Schwuppdizität" des Systems aus. Zwischen CL14 und CL15 merkt man es evtl. nicht, aber bei 2400 vs. 3200er bei ähnlichen Latenzen oder optimierten Subtimings sehr wohl (eigene Erfahrung)


vorallendingen merkt mans durch gleichmässigere frametimes :)

Badesalz
2020-06-15, 11:59:04
@Badesalz

B-Dies sind bis 1.5V spezifiziert. Soweit würde ich persönlich für 24/7 auch gehen. Ab wann es genau gefährlich wird ka.Es gibt, glaub sogar von Jedec selbst, diese Spezifikationen. Bei jeder Generation. Die besagen z.B., daß DDR3 bis 1.8V und DDR4 bis 1.5V aushalten soll (nicht "zerstört" werden), wenn es mal soviel Spannung abkriegt. Das sind aber keine Maxwerte für die Betriebsspannungen.
Entsprechend ist die maximale Betriebsspannung für DDR3 also 1.575V und nicht 1.8V. Für DDR4 1.26V und nicht 1.5V.
Gleiches gilt für die Temperaturen. Die 81°C die kursieren, ist die Temperatur bis welcher sie nicht "zerstört" werden dürfen. Die Betriebstemperatur für garantiert stabilen Betrieb liegt bis ganz knapp über 50°C. Stabile Timings geben mit steigenden Temperaturen extrem nach.

Aber ok. Mehr will ich nicht gesagt haben. Der DDR4 24/7 Intel stability OC Thread auf overclock.net hat mal eben 1273 Seiten :biggrin: Außer offiziellen Specs will ich daher sonst nichts gesagt haben =)

Allgemein.
Frametimes merkt man nicht, solange es nicht die Ausreißer von 1%low sind. Dann stimmt das.
Das man sich auch mal bisschen Mühe bei den sekundären Subtimings machen sollte, das erzähl ich aber schon seit Sandy. Da bin ich ja auch bei dir. Auch wenn das alles (Abhängigkeiten zueinander) zu DDR3-Zeiten irgendwie noch viel einfacher zu begreifen war.

Daher ist z.B. der Ryzen DRAM Calc auch glasklar ein Segen. Das ist schon recht irre was da alles abgeht.

Zossel
2020-06-15, 12:37:09
Es gibt, glaub sogar von Jedec selbst, diese Spezifikationen. Bei jeder Generation. Die besagen z.B., daß DDR3 bis 1.8V und DDR4 bis 1.5V aushalten soll (nicht "zerstört" werden), wenn es mal soviel Spannung abkriegt. Das sind aber keine Maxwerte für die Betriebsspannungen.
Entsprechend ist die maximale Betriebsspannung für DDR3 also 1.575V und nicht 1.8V. Für DDR4 1.26V und nicht 1.5V.

Das ist eigentlich die Reserve für Überschwinger.

Badesalz
2020-06-15, 12:45:36
Sozusagen. Wenn NT/Board grad ganz kurz auf dem falschen Fuß erwischt wurden =) Daraus leite ich aber keine 24/7 ab.

Geschweige eben Timings, wo 90% der Akkrobaten nicht weiß wie man das wirklich auf Stabilität testet. Das sehe ich aber lockerer. Wenn man nichts findet was man real nutzt und womit es auch im Hochsommer Probs gibt, ist das auch ok. Was solls ;)

JVC
2020-06-15, 14:52:07
B-Dies sind bis 1.5V spezifiziert. Soweit würde ich persönlich für 24/7 auch gehen. Ab wann es genau gefährlich wird ka.
Jap, man kann sie auch mit 1,5v kaufen... (+10% Toleranz = 1,65v)
https://geizhals.at/g-skill-trident-z-neo-dimm-kit-16gb-f4-3800c14d-16gtzn-a2202051.html?hloc=at

Angaben ohne Gewehr :wink: aber man sagt ...
Bis zu 1,6v sind bei normaler bis schlechter Gehäusebelüftung sicher.
Ab 1,65v sollte man sowieso aktiv kühlen oder für ein gute Belüftung sorgen.

Bis zu 1,85v auf Dauer machen mir bei B-Die keine Sorgen ^^
Ab ~2,04v macht mein B-Die zu, mehr Spannung bringt nix mehr.

Ich muss mir meinen B-Die nicht schön reden ...
Nie war es leichter, das beste und schnellste Produkt so einfach zu finden :smile:
(für mich sind selektierte B-Die, abgesehen von den Kosten, ein echter No-Brainer)

M.f.G. JVC

Langlay
2020-06-15, 14:54:12
Es gibt, glaub sogar von Jedec selbst, diese Spezifikationen. Bei jeder Generation. Die besagen z.B., daß DDR3 bis 1.8V und DDR4 bis 1.5V aushalten soll (nicht "zerstört" werden), wenn es mal soviel Spannung abkriegt. Das sind aber keine Maxwerte für die Betriebsspannungen.
Entsprechend ist die maximale Betriebsspannung für DDR3 also 1.575V und nicht 1.8V. Für DDR4 1.26V und nicht 1.5V.

Ich rede von der Spec von den B-Dies nicht von der generellen Jedec DDR4 Spec.

https://www.samsung.com/semiconductor/global.semi/file/resource/2017/11/8G_B_DDR4_Samsung_Spec_Rev2_1_Feb_17-0.pdf

https://abload.de/img/b-die8tk1i.png

Zu Overshoot über 1.5V gibts halt noch einen Extraabsatz, ich halt mich halt an die 1.5V und gut ist. Das kann ja jeder für sich selber entscheiden.

unl34shed
2020-06-15, 15:15:45
Ich rede von der Spec von den B-Dies nicht von der generellen Jedec DDR4 Spec.

https://www.samsung.com/semiconductor/global.semi/file/resource/2017/11/8G_B_DDR4_Samsung_Spec_Rev2_1_Feb_17-0.pdf

https://abload.de/img/b-die8tk1i.png

Zu Overshoot über 1.5V gibts halt noch einen Extraabsatz, ich halt mich halt an die 1.5V und gut ist. Das kann ja jeder für sich selber entscheiden.

Wie sich dieser falsche misst nur immer noch halten kann...

Das sind die "Absolute Maximum Ratings" und eben nicht der normale Betriebspunkt.Das ist laut Spec das absolute Maximum, das der Chip verkraftet (Laut Spec ist er ab dem überschreiten dieses Punktes tendenziell kaputt). Normalerweise bleibt man davon soweit weg, wie die Clampingdioden spezifiziert sind um eben bei Schwankungen der Versorgungsspannung diese nicht zu überschreiten, sprich für den Samsung B Die sollte das bei 1,2V laufen (von den -0,3V der Diode zum GND Pin).

Der Betrieb von OC Kits mit 1,35V ist demnach schon eine Überschreitung des normalen Betriebspunktes.

Das das dennoch gut gehen kann ist eine andere Sache, mit den feinen Strukturen ist eine Spannungsüberschreitung aber tendenziell immer gefährlicher. Ich habe auch schon von 5V Mikrocontrollern gehört, die mit 12V liefen, zwar sehr heiß, aber es lief. Das war aber früher bei >180nm.

Langlay
2020-06-15, 15:21:46
Wie sich dieser falsche misst nur immer noch halten kann...

Das sind die "Absolute Maximum Ratings" und eben nicht der normale Betriebspunkt.Das ist laut Spec das absolute Maximum, das der Chip verkraftet (Laut Spec ist er ab dem überschreiten dieses Punktes tendenziell kaputt). Normalerweise bleibt man davon soweit weg, wie die Clampingdioden spezifiziert sind um eben bei Schwankungen der Versorgungsspannung diese nicht zu überschreiten, sprich für den Samsung B Die sollte das bei 1,2V laufen (von den -0,3V der Diode zum GND Pin).



Das ist mir schon klar dass das nicht der normale Betriebspunkt ist.


Der Betrieb von OC Kits mit 1,35V ist demnach schon eine Überschreitung des normalen Betriebspunktes.

Das das dennoch gut gehen kann ist eine andere Sache, mit den feinen Strukturen ist eine Spannungsüberschreitung aber tendenziell immer gefährlicher. Ich habe auch schon von 5V Mikrocontrollern gehört, die mit 12V liefen, zwar sehr heiß, aber es lief. Das war aber früher bei >180nm.


Es gibt halt auch B-Dies OC Kits die direkt 1.5V ab "Werk" bekommen mit Garantie und allem zip und zap.


https://geizhals.de/g-skill-ripjaws-v-schwarz-dimm-kit-16gb-f4-4000c15d-16gvk-a2303965.html?hloc=de

Badesalz
2020-06-15, 19:20:49
Wie sich dieser falsche misst nur immer noch halten kann...

Das sind die "Absolute Maximum Ratings" und eben nicht der normale Betriebspunkt.Was auch unter *1 ausreichend klar beschrieben ist, wenn man bisschen Englisch kann. Bei DDR3 war das so, daß man die Chips in s.g. dual-gate machen konnte, was sie robuster machte als die Jedec specs vorgeben. Aber DDR4 mit 1.5V ist schon geil :usweet:

Naja. Wenns läuft =) Aber sowas wie DDR4-4000 gibt es halt offiziell nicht. Daß man für sowas also 1.5V braucht kann also schon hinhauen...

Ich freu mich jetzt schon auf DDR5. Das macht sozusagen in house ECC ;) auf dem Modul. Die Tests laufen periodisch und unabhängig von z.B. der CPU :up: Da werden die 0815-OCer noch staunen, wenn sie was schärfer stellen und es auch ohne Abstürze langsamer wird :usweet:

Langlay
2020-06-15, 20:01:15
Naja. Wenns läuft =) Aber sowas wie DDR4-4000 gibt es halt offiziell nicht. Daß man für sowas also 1.5V braucht kann also schon hinhauen...


Brauchste halt für die Timings. Wenn man CL17 oder höher fährt kommste auch mit deutlich weniger Spannung aus.

Ob die Timings stabil sind oder nicht das geht ja immernoch, was bei AMD recht bescheiden ist. wenn der IF nicht stabil ist. Da kann der Memtest durchlaufen bis der Arzt kommt und du hast trotzdem Black/Bluescreens.

Badesalz
2020-06-16, 01:02:07
Da kann der Memtest durchlaufen bis der Arzt kommt und du hast trotzdem Black/Bluescreens.Soetwas ist allgemein. Passierte mir oft genug auch mit Sandy oder Ivy und lag nie am MC.

SKYNET
2020-06-16, 01:35:52
Da kann der Memtest durchlaufen bis der Arzt kommt und du hast trotzdem Black/Bluescreens.

memtest 12h laufen lassen --> keine fehler --> firestrike angeworfen, nach 3 sekunden reboot X-D

memtest is fürn :ass2: um den speicher zu testen, firestrike geht da deutlich derber zur sache, auch BFV ist super pingelig, und DE nehme ich neuerdings auch zum testen, das schmiert auch in den ersten 5 min. ab wenn was nicht passt beim speicher :freak:

Badesalz
2020-06-16, 02:14:24
Was ist DE? =)

memtest86, auch gerne memtest86+ wenns läuft :wink: ist dafür da, damit man das vom Stick mal abfeuert und wenn keine Fehler kommen, man sich dann so halbwegs sicher sein kann, daß man wenigstens zum Desktop kommt :tongue: um es mit was besserem zu testen.
Oder halt seinen "Anwendungen". Damit hat man aber so eine ~70% Wahrscheinlichkeit, daß nicht immer gleich das ganze System wegfliegt, sondern ggf. nur das Tool/Anwendung.

Für mehr taugt das nicht, aber ich hab das immer gerne so genutzt, weil das Wegfliegen des Desktops ist schon sehr nervig und nicht pauschal ungefährlich, wenns wegen Amok laufenden Speicher passiert.

Die Leute nutz(t)en z.B. memtest86+ nur falsch. Was sonst aber auch bisschen anstregend ist. "1" bis "4" nur 1x durch und dann "5" 3x nacheinander, "6" 3x nacheinander usw. Aufsteigend bis Ende und dann wieder nur ab "5" aufwärts. Das ganze auch 3x. Dann klappts mit dem Desktop.
Wenn schon zwischen "1" und "4" Fehler kommen, dann hat schon der Stick nur mit Glück gebootet. Wenn ab "5" aufwärts welche kommen, braucht man sich garnicht bis zum Desktop kämpfen.
Wen alles sauber durchläuft, gibts vom Desktop aus sinnvolleres
https://www.hardwareluxx.de/community/threads/speichertestprogramme-2019.1195136/

Wobei alle die da wirklich drin eintauchten, sagen, Goldmemory Pro und dann lange nichts. Sind aber halt 26€.

p.s.:
Memtest86+ wird aber seit diesjahr weiter entwickelt :freak: Die neuen Versionen sind aber noch Alpha.

p.s.2:
Joke: Hatte länger was am DDR3 getestet. Mit RefCycle und RefInterval. Beton. Betonstabil. Der Rechner machte anschliessend sogar produktiv einen Scriptjob 50min. am Stück. Fehlerfrei.
Nur am nächsten Tag wollte er plötzlich nicht starten, ging immer aus, vorm Bios schon.
4-5x, bis er mit booten anfing. Dann liefs auch wieder sauber. Wie ein Auto mit einer abgerockten Batterie :rolleyes: Die Zellen mussten sich wohl erstmal warmlaufen, bevor der Speicher mit so kurzen Zeiten funtze :usweet: Länger als ~30min. aus und es lief nicht mehr direkt hoch.

Wenn was eine echte Bitch beim OCen gibt, dann sind das ohne Frage die Speichertimings. Alles andere ist realtiv schnell halbwegs klar ersichtlich.

Langlay
2020-06-16, 02:34:20
memtest 12h laufen lassen --> keine fehler --> firestrike angeworfen, nach 3 sekunden reboot X-D

memtest is fürn :ass2: um den speicher zu testen, firestrike geht da deutlich derber zur sache, auch BFV ist super pingelig, und DE nehme ich neuerdings auch zum testen, das schmiert auch in den ersten 5 min. ab wenn was nicht passt beim speicher :freak:

Ich meinte mit Memtest ganz allgemein die gängigen Memtest Sachen, also Karthu, MemTestPro und Co.

Zossel
2020-06-16, 06:58:09
Ich freu mich jetzt schon auf DDR5. Das macht sozusagen in house ECC ;) auf dem Modul. Die Tests laufen periodisch und unabhängig von z.B. der CPU :up:

Die Übertragungsstrecke zur CPU ist nicht gesichert.

Badesalz
2020-06-16, 10:38:07
@Zossel
Das ist richtig. Und nu? Kontext? ;)

Zossel
2020-06-16, 11:43:36
@Zossel
Das ist richtig. Und nu? Kontext? ;)

Einfach noch mal explizit erwähnt um den Begriff "In-House-ECC" zu schärfen um Fehlinformationen und Fehlinterpretationen zu vermeiden.

Badesalz
2020-06-16, 12:09:44
Ah so. Ja. So ok ;)

Was das wirklich bedeuten könnte ist halt, daß man mit Testtools oder seinen Lieblingsanwendungen dafür - an der Schwelle zwischen bereits gut und noch bisschen zu optimistich - keine Fehler mehr entdecken kann, weil das "interne" ECC es noch hinzubiegen bekommt. In dem Fall aber wo es viel zu tun hat, der Speicher langsamer wird (?)

Das meinte ich damit. Aktuell sehe ich noch keine Infos, ob sich diese neue Eigenheit bei DDR5 so einfach abfangen/abfragen lässt wie bei manchen Grakas über "GPU memory errors" in HWinfo.

Zossel
2020-06-16, 13:41:26
Das meinte ich damit. Aktuell sehe ich noch keine Infos, ob sich diese neue Eigenheit bei DDR5 so einfach abfangen/abfragen lässt wie bei manchen Grakas über "GPU memory errors" in HWinfo.

Normalerweise sollten ECC-Fehler eine Machine Check Exception auslösen. Bei "Enterprise" Maschinen geht das auch über den Management Port (ILO o.ä.) raus.

Ravenhearth
2020-06-16, 15:21:44
https://www.anandtech.com/show/15854/amd-ryzen-3000-xt-cpus-zen-2-more-mhz
Today AMD is announcing three new processors into the Ryzen 3000 family, each with the XT name, offering higher frequencies and further filling out the their CPU product stack. Each of these processors will be available on shelves in primary regions on July 7th.

amdfanuwe
2020-06-16, 15:25:48
Und A520 Boards im August.
https://ir.amd.com/news-releases/news-release-details/amd-offers-enthusiasts-more-choice-ever-new-ryzentm-3000xt

dargo
2020-06-16, 15:26:31
Cool --> UVP und TDP steigt nicht. Uncool --> An den Frequenzen ändert sich kaum was.

y33H@
2020-06-16, 15:56:58
Das ist halt bissi Binning.

Berniyh
2020-06-16, 16:00:08
Damit kann man dann auch praktisch ausschließen, dass am IO Die was getan wurde, dürfte sich wirklich ausschließlich um Binning bzw. leicht bessere Prozessausbeute o.ä. handeln.

Adam D.
2020-06-16, 16:29:27
Die projezierten 4% mehr single threaded performance werden wahrscheinlich keine Kaufentscheidung sein. Den 3800X gibt es bei MF gerade für 310€...

prinz_valium_2
2020-06-16, 17:28:20
Bleibt wohl der Ryzen 5 1600 weiter drin

Odal
2020-06-16, 17:53:26
Damit kann man dann auch praktisch ausschließen, dass am IO Die was getan wurde, dürfte sich wirklich ausschließlich um Binning bzw. leicht bessere Prozessausbeute o.ä. handeln.


Warum? Der IO Die ist ja erstmal losgelöst vom Rest. Könnte ja trotzdem ein Zen3 IO sein der mal einen normalen idle Verbrauch zulässt.

HOT
2020-06-16, 18:31:42
Wie ich im anderen Thread schon schrieb, werden die XT vom Matisse-Initial-BIOS unterstützt, es gibt also definitiv 0 Änderungen.

Berniyh
2020-06-16, 19:45:31
Warum? Der IO Die ist ja erstmal losgelöst vom Rest. Könnte ja trotzdem ein Zen3 IO sein der mal einen normalen idle Verbrauch zulässt.
Ne, dazu sind die Specs zu identisch zu den bisherigen Prozessoren. Vor allem der Boost ist höher.
Das spricht dafür, dass man Chiplets, welche bislang für einen 3950X (oder Epyc) genutzt wurden nun auch für den 3900XT oder den 3800XT etc. verbaut.
Wenn es ein Trick mit dem IO Die wäre, dann gäbe es meiner Meinung nach einfach keinen Grund nicht auch einen 3950XT aufzusetzen.
Der bekam aber schon immer mindestens eins der sehr guten Chiplets, macht also keinen Sinn hier eine XT Version anzubieten.

Badesalz
2020-06-16, 19:58:50
Normalerweise sollten ECC-Fehler eine Machine Check Exception auslösen. Bei "Enterprise" Maschinen geht das auch über den Management Port (ILO o.ä.) raus.Das ist, wie du auch sagtest, eine Geschichte die sich rein IM Riegel abspielt. Das System kriegt das nicht mit, außer der Riegel responsed zum Zeitpunkt lahmer ;)

Vonwegen XT und Frequenzen sehe ich das anders Jungs. Da wird sich schon was an jenen tun da die XT anscheinend im Boost eben die Freqs erreichen werden, also: TATSÄCHLICH, die schon in den Datenblättern der Derivate stehen :wink:

Die neuen Ageas machen das schon =)

reaperrr
2020-06-16, 20:40:22
Warum? Der IO Die ist ja erstmal losgelöst vom Rest. Könnte ja trotzdem ein Zen3 IO sein der mal einen normalen idle Verbrauch zulässt.
Sorry, aber das ist reines Wunschdenken. Ein anderer IO-Die würde Änderungen am Package, Microcode, Bios, und eine eigene Assembly-Line benötigen. Viel zu viel Aufwand und damit auch zusätzliche Kosten für so ein Mini-Takt-Upgrade. Schlicht vollkommen unrealistisch.

BoMbY
2020-06-16, 20:51:33
Änderung am Package und andere Assembly Line sollten nicht nötig sein. Der Formfaktor dürfte gleich bleiben (wäre zumindest eine logische Entscheidung für Zen3 um Kosten zu sparen), und man wirft nur andere Chips vorne rein. Microcode und BIOS Support wurde wohl schon vor einiger Zeit ausgerollt, wenn ich das richtig verstanden habe. Und man könnte direkt im Feld Erfahrung sammeln für einen Start von Zen3. Das wäre keine so dumme Idee.

SKYNET
2020-06-16, 20:56:15
Was ist DE? =)



doom eternal

Zossel
2020-06-16, 21:20:06
Das ist, wie du auch sagtest, eine Geschichte die sich rein IM Riegel abspielt. Das System kriegt das nicht mit, außer der Riegel responsed zum Zeitpunkt lahmer ;)

Man will vorher mitkriegen wenn ein Riegel kaputtgeht, wenn erst Meldungen kommen wenn die Fehler nicht mehr korrigierbar sind hat man nichts gewonnen.

BTW: Sind die Timings nicht fix, so das ein Riegel immer in einer bestimmten Zeit antworten muß? ECC *in* der CPU hat dieses Problem nicht.

horn 12
2020-06-16, 22:35:09
Am Meisten profitiert der Stubenhocker 3800X, nun poliert auf 3800XT
vom Refresh, denn jener taktet nun 300 Mhz Mehr im Boost als der 3700X.

Nur sollte jener nicht mehr als etwa 350 Euro kosten nach einigen Wochen.

Denniss
2020-06-16, 22:51:24
zwei der eher ungeliebten wurden aufpoliert, der dritte etwas attraktiver gemacht. Alles durch bessere Selektion der CCDs durch leichte Verbesserungen in der Fertigung.
Mal schauen ob es die originalen 3 weiterhin gibt denn dort kann man die etwas schlechteren CCDs verwursten.

Mortalvision
2020-06-17, 00:09:26
Schade, dass der Base beim 3800XT nur 3,9 ist. Hatte sehr auf die 4,2 gehofft. Mal sehen, was der 7. Juli bringen wird...

Badesalz
2020-06-17, 01:01:18
Man will vorher mitkriegen wenn ein Riegel kaputtgeht, wenn erst Meldungen kommen wenn die Fehler nicht mehr korrigierbar sind hat man nichts gewonnen.Das ist nicht ECC, sondern on-Die-ECC auf dem Riegel.

BTW: Sind die Timings nicht fix, so das ein Riegel immer in einer bestimmten Zeit antworten muß?Ja. Es kann in der Zeit aber auch "warte mal" sagen...

Ok, ist was für Zen4. Erstmal Schwamm drüber.

Leonidas
2020-06-17, 01:52:53
Das eigentliche Problem des Matisse-Refreshs liegt bei den Preisen. Betrachtend rein die Straßenpreise, wird das Matisse-Original weiterhin einen Performance/Preis-Vorteil von ca. +20-25% aufbieten:
https://www.3dcenter.org/news/amd-stellt-den-matisse-refresh-fuer-eine-auslieferung-ab-dem-7-juli-vor

amdfanuwe
2020-06-17, 02:19:58
Wie sind denn die Straßenpreise der XT Modelle? Ich denke, die werden schnell runterkommen.
Betrachtet man die Preisangaben von AMD kosten die gleich.
Zudem spart sich AMD die Kühler beim 3800XT und 3900XT.
Letztendlich alles Geschäft und wenn die Leute es kaufen bleibt der Preis oben.
Ansonsten betrachte ich das eher als Marketing Aktion um im Gespräch zu bleiben.

Berniyh
2020-06-17, 07:09:35
Das eigentliche Problem des Matisse-Refreshs liegt bei den Preisen. Betrachtend rein die Straßenpreise, wird das Matisse-Original weiterhin einen Performance/Preis-Vorteil von ca. +20-25% aufbieten:
https://www.3dcenter.org/news/amd-stellt-den-matisse-refresh-fuer-eine-auslieferung-ab-dem-7-juli-vor
Momentan, aber in wenigen Wochen wird sich das ja dann angleichen.

Mark3Dfx
2020-06-17, 07:34:24
AMD lernt von Intel

die Die Ausbeute wird immer besser
man kann die zuletzt gefallen CPU Preise wieder hochsetzen
und spart sich noch die 10€ für den früher beigelegten Wraith Prism Kühler beim 3800/3900XT

= voll des Gewinns ($$$)

rentex
2020-06-17, 07:43:54
Eben. AMD muss Geld verdienen und hat nichts zu verschenken.

dildo4u
2020-06-17, 07:54:49
Das eigentliche Problem des Matisse-Refreshs liegt bei den Preisen. Betrachtend rein die Straßenpreise, wird das Matisse-Original weiterhin einen Performance/Preis-Vorteil von ca. +20-25% aufbieten:
https://www.3dcenter.org/news/amd-stellt-den-matisse-refresh-fuer-eine-auslieferung-ab-dem-7-juli-vor
Der Markt passt das eh an den 3800X hat keiner für 400 gekauft und gibt es jetzt für 310€.Ich vermute das das Modelle mit dem Launch der XT Version langsam verschwindet und der Preis sich später entsprechend anpasst.

https://www.mindfactory.de/product_info.php/AMD-Ryzen-7-3800X-8x-3-90GHz-So-AM4-BOX_1313646.html

Zossel
2020-06-17, 08:10:46
Das ist nicht ECC, sondern on-Die-ECC auf dem Riegel.

Wenn die Riegel das nicht melden ist das Schrott.

Blediator16
2020-06-17, 18:53:21
AMD lernt von Intel

die Die Ausbeute wird immer besser
man kann die zuletzt gefallen CPU Preise wieder hochsetzen
und spart sich noch die 10€ für den früher beigelegten Wraith Prism Kühler beim 3800/3900XT

= voll des Gewinns ($$$)

Fehlt nur noch der Plattform wechsel :freak:

Th3o
2020-06-17, 19:13:59
Ist echt frech von AMD, dass sie jetzt auch noch Gewinn machen wollen ;)

Blediator16
2020-06-17, 19:44:50
War von meiner Seite aus nur ein Scherz. Erst wenn sie wirklich einen Plattform wechsel für solch ein refresh voraussetzen, kann man denen ans Bein pissen.

LasterCluster
2020-06-20, 13:11:36
Hat Leonidas in News verlinkt:

Renoir auf DT vlt doch mit 16 Lanes für GPU:

https://www.techpowerup.com/268747/amd-renoir-die-annotation-raises-hopes-of-desktop-chips-featuring-x16-peg

Renoir Refresh Lucianne?

https://twitter.com/KOMACHI_ENSAKA/status/1274032949474676737

BTW LCN is short for Lucianne which is a Renoir kicker product like Picasso is to Raven

Vlt ist das die nächste APU mit Vega iGPU und nicht Cezanne...

Complicated
2020-06-20, 13:36:44
Gigabyte und Asrock scheinen 16x Lanes für Renoir schon zu bestätigen in den B550 Specs:
https://www.gigabyte.com/Motherboard/B550I-AORUS-PRO-AX-rev-10/sp#sp
1 x PCI Express x16 slot (PCIEX16), integrated in the CPU:

3rd Generation AMD Ryzen™ processors support PCIe 4.0 x16 mode
New Generation AMD Ryzen™ with Radeon™ Graphics processors support PCIe 3.0 x16 mode

Können die 8x PCIe 4.0 Lanes von Renoir Desktop in 16x PCIe 3.0 gesplittet werden (oder 16x 3.0 Lanes der GPU in Paaren an PCIe 4.0 8x der CPU)? Und bringt das überhaupt etwas? Picasso und Raven hatten ja nur 8x PCIe 3.0.

Ebenfalls
https://www.asrock.com/mb/AMD/B550M%20Steel%20Legend/index.asp#Specification
AMD Ryzen series CPUs (Matisse)
- 2 x PCI Express x16 Slots (PCIE1: Gen4x16 mode; PCIE3: Gen3 x4 mode)*
AMD Ryzen series APUs
- 2 x PCI Express x16 Slots (PCIE1: Gen3x16 mode; PCIE3: Gen3 x4 mode)*

Möglicherweise bekommt Desktop Renoir überhaupt kein PCIe 4.0 auf dem GPU-Slot, sondern nur in der Peripherie für SSD. Auf den M2.Slots der beiden Boards sind jedenfalls sowohl für CPU (Matisse) als auch APU PCIe Gen4 spezifiziert.

Windi
2020-06-20, 13:51:28
Können die 8x PCIe 4.0 Lanes von Renoir Desktop in 16x PCIe 3.0 gesplittet werden (oder 16x 3.0 Lanes der GPU in Paaren an PCIe 4.0 8x der CPU)? Und bringt das überhaupt etwas? Picasso und Raven hatten ja nur 8x PCIe 3.0.
Mit einem Extra Chip auf dem Board, kann man das sicher splitten. Würde den Herstellern aber Geld kosten. Und dafür müßte Renoir PCIe 4.0 unterstützen, was noch nirgends bestätigt wurde.
Da glaube ich eher, das Renoir bereits 24x PCIe 3.0 integriert hat und das das nur in der mobilen Variante deaktiviert war.

edit2:
Beim Asrock Board wird es PCIe 4.0 wohl nur mit Matisse geben.
- 1 x Hyper M.2 Socket (M2_1), supports M Key type 2280 M.2 PCI Express module up to Gen4x4 (64 Gb/s) (with Matisse) or Gen3x4 (32 Gb/s)**
Dies müssten die 4 weitern Lanes von der CPU sein.

Der zweite PCI Express x16 Slot (PCIE3) hängt anscheinend am Chipsatz und hat deshalb immer PCIe 3.0

Complicated
2020-06-20, 14:17:38
Das stimmt natürlich...Die Prämisse 4.0 ist nicht bestätigt und es sind wohl 20+4 PCIe-lanes auf Renoir verbaut, wie der Techpowerup-Link von LasterCluster mit dem Dieshot zeigt.

Locuza
2020-06-20, 14:31:28
Gigabyte und Asrock scheinen 16x Lanes für Renoir schon zu bestätigen in den B550 Specs:
https://www.gigabyte.com/Motherboard/B550I-AORUS-PRO-AX-rev-10/sp#sp

Können die 8x PCIe 4.0 Lanes von Renoir Desktop in 16x PCIe 3.0 gesplittet werden (oder 16x 3.0 Lanes der GPU in Paaren an PCIe 4.0 8x der CPU)? Und bringt das überhaupt etwas? Picasso und Raven hatten ja nur 8x PCIe 3.0.

Ebenfalls
https://www.asrock.com/mb/AMD/B550M%20Steel%20Legend/index.asp#Specification


Möglicherweise bekommt Desktop Renoir überhaupt kein PCIe 4.0 auf dem GPU-Slot, sondern nur in der Peripherie für SSD. Auf den M2.Slots der beiden Boards sind jedenfalls sowohl für CPU (Matisse) als auch APU PCIe Gen4 spezifiziert.
Das ist ein echt toller Fund, denn nicht immer ist ersichtlich wie genau die PHYs konfiguriert werden können und selbst wenn theoretisch Flexibilität herrschen würde, wenn der Hersteller gewisse Konfigurationen vorsieht bzw. verbietet, hat man Pech gehabt.
Bei Renoir hat AMD das nicht weiter erörtert, auf Folien gab es nur einen extra Block für NVMe/SATA gegenüber Raven Ridge:
https://fuse.wikichip.org/wp-content/uploads/2018/08/hc30-amd-rr-block.png
https://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/AMD-Ryzen-4000-Alle-Renoir-Modelle-geleakt-1350195/galerie/3376618/?fullsize


Das PHY-Design von Renoir stimmt optisch mit dem überein was Navi10/14 für die Display-Anschlüsse verwendet haben, aber es gibt kein PHY, welches den PCIe 4.0 PHYs für die Verbindung auf dem Mainboard gleicht.
Renoir hat also wirklich nur PCIe3.0-Support nach außen.
Und Lane-Bundling gibt es hierbei nicht, 16-Lanes bei einer GPU verwenden auch 16-Lanes bei der Gegenstelle, entsprechend dem kleinsten PCIe-Standard.

HOT
2020-06-20, 15:44:31
https://www.techpowerup.com/268747/amd-renoir-die-annotation-raises-hopes-of-desktop-chips-featuring-x16-peg

Der hat wie es aussieht nativ 24 Lanes, das ist wohl optimiert auf AM4. Alles PCIe3. Dafür aber voll USB3.2 gen2.

y33H@
2020-06-20, 15:59:13
20+4 Lanes ist doch keine neue Info.

Windi
2020-06-20, 16:12:01
20+4 Lanes ist doch keine neue Info.
War das vorher schon bestätigt?

Das waren doch bisher reine Spekulationen, oder?

Berniyh
2020-06-20, 17:39:00
hm, könnte man bei Renoir die 16x (oder 8x), die für die GPU vorgesehen sind auch für 1-2 SSDs nutzen? Also über die PCIe Slots?

evtl. bissle teuer (da die entsprechenden SSDs leider sehr teuer sind), aber würde es gehen?
(GPU kann man sich ja schenken)

LasterCluster
2020-06-20, 18:00:19
Noch mal ne Erwähnung von der Zen2 APU Lucienne:

https://overclockers.ru/hardnews/show/103782/amd-lucienne-esche-odin-processor-s-arhitekturoj-zen-2

Infos gibt es quasi keine, außer

00860F80h \ Zen2 \ Lucienne \ LN-A0 \ 7nm

Der Name bezieht sich wohl auf Renoirs Tocher Lucienne Bisson. Könnte wie Komachi erwähnt ein Refresh von Renoir sein (wie Picasso zu Raven) oder ne kleinere Variante als Dali/Pollock (Raven2)-Nachfolger.

Berniyh
2020-06-20, 18:08:09
Oder beides. ;)

Evtl. trägt AMD Renoir als Lucienne einfach in N6 weiter (sprich Refresh) und ersetzt damit dann mittelfristig Dali/Pollock.

Complicated
2020-06-20, 19:52:35
N6 ist aber nicht 7nm, wie gezeigt. Ich Tip auf die Tochter(kleiner Raven2-Nachfolger)-Variante.

Berniyh
2020-06-20, 19:58:18
Das ist halt die Frage, AMD will ja die Bezeichnungen in Zukunft sehr unspezifisch auslegen und da könnte N6 dann auch zu "7nm" gehören, weil gleiche Prozessfamilie und kompatibel.

Locuza
2020-06-20, 19:58:35
hm, könnte man bei Renoir die 16x (oder 8x), die für die GPU vorgesehen sind auch für 1-2 SSDs nutzen? Also über die PCIe Slots?

evtl. bissle teuer (da die entsprechenden SSDs leider sehr teuer sind), aber würde es gehen?
(GPU kann man sich ja schenken)
Sowie es AMD exemplarisch auf der Marketing-Folie draufstehen hat, sind es vermutlich 4x Lanes für den Chipsatz, 2x4 Lanes für zwei SSDs und 8x Lanes für eine dGPU.
Falls das Specsheet von Gigabyte korrekt ist, dann kann man zumindest 8x Lanes frei konfigurieren, entweder für zwei NVMe/SATA-Laufwerke oder als extra für die dGPU (16 Lanes dann insgesamt).
Falls alle in rot markierten PCIe3-Lanes (20) völlig frei konfiguriert werden können, dann könnte man auch ganze vier bis fünf (ohne Chipsatz) SSDs mit jeweils 4x PCIe3.0 Lanes anschließen:
https://twitter.com/GPUsAreMagic/status/1274024392469741569/photo/1

Deinorius
2020-06-20, 20:18:35
N6 ist aber nicht 7nm, wie gezeigt. Ich Tip auf die Tochter(kleiner Raven2-Nachfolger)-Variante.


Ist N6 nicht ein optimierter N7 Prozess? Oder meintest du das etwas anders?

Complicated
2020-06-20, 20:37:19
N6 hat EUV und ist der Nachfolger von 7nm+. Zudem kommt der erst nach 5nm.

davidzo
2020-06-20, 20:53:51
N6 hat EUV und ist der Nachfolger von 7nm+. Zudem kommt der erst nach 5nm.

Ja, kommt aber noch vor 5nm+, zudem gab es auch kürzlich Meldungen dass er früher dran ist als geplant.
5nm hat wohl auch nicht soviele Kunden gelockt wie man erwartet hat, daher konzentriert man sich darauf 5nm+ möglichst früh zu bringen und hofft dass da dann auch die aufspringen werden die bisher kein 5nm gebucht hatten (Aka AMD).
5nm ist einfach kein besonders großer Node. Die meisten Auftraggeber sehen das als einen teuren Testprozess mit hoher Lernkurve so wie 7nm EUV und nicht als einen Volume Prozess wie 7nmDUV oder 12nm.
N6 dagegen macht wirtschaftlich total sinn, da günstiger als 7nm EUV und ein Großteil der Masken von N7P rübergeschleppt werden können. Das verkürzt auch die Anlaufzeiten erheblich. Ich kann mir daher auch vorstellen dass N6 deshalb bei AMD noch in der 7nm-Familie läuft...

Deinorius
2020-06-20, 20:55:11
Ach ja, so herum war das.

Complicated
2020-06-20, 21:08:07
Es wird der ganz normale 7nm DUV sein, sofern es der kleine Dali-Nachfolger ist. Das werden die ganzen embedded APUs die günstig hergestellt werden. AMD wird sich die 7nm-Wafer beibehalten wollen wenn Zen auf EUV wechselt.

y33H@
2020-06-20, 22:32:39
War das vorher schon bestätigt? Das waren doch bisher reine Spekulationen, oder?Nein, steht schon im Tech Day Artikel von März 2020, dass es 20 (nutzbare) PCIe Gen3 Lanes sind.

https://www.golem.de/news/ryzen-mobile-4000-das-kann-amds-renoir-2003-146767.html
https://www.computerbase.de/2020-03/amd-renoir-cpu-gpu-apu-technik/#abschnitt_die_aktuellste_io_ohne_pcie_4_und_thunderbolt_3

Complicated
2020-06-20, 22:44:37
16. März 2020 ;) Ganz so vorausschauend ist auch Golem nicht.

Windi
2020-06-21, 08:05:42
Nein, steht schon im Tech Day Artikel von März 2020, dass es 20 (nutzbare) PCIe Gen3 Lanes sind.

https://www.golem.de/news/ryzen-mobile-4000-das-kann-amds-renoir-2003-146767.html
https://www.computerbase.de/2020-03/amd-renoir-cpu-gpu-apu-technik/#abschnitt_die_aktuellste_io_ohne_pcie_4_und_thunderbolt_3

Da steht immer nur etwas von 20 PCIe Lanes.
Und Ryzen hat halt 24 Lanes (20 frei nutzbar).
Picasso hat 16 Lanes (12 frei nutzbar). Und im Artikel steht, das Renoir 4 Lanes mehr als der Vorgänger hat.
Unterm Strich sind vor allem vier zusätzliche PCI-Express-Lanes, die vom Kunden beispielsweise für zusätzlichen Massenspeicherplatz frei genutzt werden können, zu nennen. Insgesamt verfügt Renoir über 20 PCIe-Lanes nach Gen-3-Standard.
Das wären halt immer noch 4 Lanes zu wenig.

Aber anscheinend hat Renoir für den Desktop 24.
Also Unterscheidet sich Renoir für Mobile und Desktop.
Oder es kam bei mir immer falsch an.

basix
2020-06-21, 10:35:32
Matisse hat ja sogar 32 Lanes auf dem Chip. Renoir kann als gut auch mehr Lanes haben. Bei Mobile bedeuten mehr Lanes mehr Stromverbrauch.

LasterCluster
2020-06-21, 11:52:54
Da steht immer nur etwas von 20 PCIe Lanes.
Und Ryzen hat halt 24 Lanes (20 frei nutzbar).
Picasso hat 16 Lanes (12 frei nutzbar). Und im Artikel steht, das Renoir 4 Lanes mehr als der Vorgänger hat.

Das wären halt immer noch 4 Lanes zu wenig.

Aber anscheinend hat Renoir für den Desktop 24.
Also Unterscheidet sich Renoir für Mobile und Desktop.
Oder es kam bei mir immer falsch an.

4 der 24 Lanes sind konfigurierbar. Auf dem Die Shot als die orangenen "2x PCIe/SATA 6b/10GigE"-Blöcke erkennbar. Vlt sind die erst etwas untergegangen.

LasterCluster
2020-06-21, 11:59:46
Es wird der ganz normale 7nm DUV sein, sofern es der kleine Dali-Nachfolger ist. Das werden die ganzen embedded APUs die günstig hergestellt werden. AMD wird sich die 7nm-Wafer beibehalten wollen wenn Zen auf EUV wechselt.

Vermute ich auch. N6 ist was für Zen3(+) APUs. Lucienne wird was für Entry-Level sein, während Cezanne dann Premium wird. Bin nur sehr gespannt ob als 4 oder 8 Kerner.

SKYNET
2020-06-21, 12:33:59
denke auch, das die bei der mobilevariante eher per hardware -lasercut- deaktiviert wurden

Nightspider
2020-06-21, 12:37:00
2 verschiedene Chips kann man sowieso ausschließen.

Ich glaub da ist nicht mal ein Lasercut nötig oder? Ist ja nicht so als wöllte sowas jemand in einem Laptop freischalten. :ugly:

Oder spart der Lasercut strom, wenn die Leiterbahnen physisch getrennt sind?

SKYNET
2020-06-21, 13:18:13
Oder spart der Lasercut strom, wenn die Leiterbahnen physisch getrennt sind?

denke genau das wird es sein, aber dafür müsste sich mal einer unser spezis hier dazu äussern um das zu bestätigen / widerlegen

mironicus
2020-06-21, 13:20:30
Lasercut bei einem 7 nm-Chip? Das gibt doch nur ein großes schwarzes Loch. :D

Die Freischaltung bzw. Sperrung von Features läßt sich auch außerhalb des Chips erledigen.

SKYNET
2020-06-21, 13:27:49
Lasercut bei einem 7 nm-Chip? Das gibt doch nur ein großes schwarzes Loch. :D

Die Freischaltung bzw. Sperrung von Features läßt sich auch außerhalb des Chips erledigen.

frisst dann aber potentiel saft :confused:

Gratzner
2020-06-21, 14:14:38
Oder spart der Lasercut strom, wenn die Leiterbahnen physisch getrennt sind?

Nö, CMOS brauch nur beim Schalten Strom. Brauch also Nichtmal irgendwie die Spannungsversorgung für die deaktivierte Bereiche entkoppeln oder dergleichen. Dadurch nicht benötigte I/O-Pins zieht man auf dem Mainboard fest auf GND oder Vcc und dann verbrauchen die Pins auch kein Strom.

Ich glaube Igor hatte mal erklärt, das die Teildeaktivierung eines Chips über unterschiedliche Widerstandsbestückung geht (Wenn man es nicht über Software macht)

Windi
2020-06-21, 14:21:55
https://www.3dcenter.org/dateien/abbildungen/AMD-Renoir-Die-Shot-mit-markierten-Einheiten.preview.jpg
OK, hier grün markiert sind insgesamt 20 PCIE Lanes.
Orange PCIE Lanes sehe ich hier aber nicht.
Unten rechts in der Ecke sieht es für mich so aus als wären dort noch einmal 4 weitere PCIE Lanes. Dann käme man auf die vollen 24.

Anscheinend hat man den mobilen Renoir etwas kastriert um Strom zu sparen.

Ein Lasercut scheint nicht notwendig zu sein. Hier im Forum wurde schon des öfteren gesagt, das man mit den richtigen Schaltungen Teile des Chips deaktivieren kann, ohne das dort dann noch irgendwelche Leckströme fließen.

Edit:
OK, Hier ist es komplett anders markiert.
Aber dafür hat man dann auch 24xPCIE.
https://pbs.twimg.com/media/Ea49yMHXkAMc-6W?format=jpg&name=4096x4096

Gipsel
2020-06-21, 14:24:07
Lasercut bei einem 7 nm-Chip? Das gibt doch nur ein großes schwarzes Loch. :D

Die Freischaltung bzw. Sperrung von Features läßt sich auch außerhalb des Chips erledigen.
eFuse to the rescue!
Die externen Limitierungen waren mal (die sind ja noch älter als Lasercuts). Die lassen sich im Zweifelsfall zu einfach manipulieren. Ein paar kleine Sicherungen on-Die, die praktisch ein PROM (programmable read only memory) bzw. OTPROM (one-time programmable read only memory) bilden, werden heutzutage meist für die Deaktivierung von Chipteilen (oder Features) benutzt. Jedes "Bit" darin kann ein einziges Mal geflippt werden (durch selektives Durchbrennen der entsprechenden eFuses bzw. auf CMOS-Chips meist "antifuses" [einmalig von Isolator auf Kurzschluß schaltbar] nach Test und Festlegung, als welches Produkt es verkauft werden soll). Das ist nicht reversibel und nur schwer oder gar nicht von außen zugänglich.

Tobalt
2020-06-24, 06:30:44
Dir zweite Markierung wirkt für mich plausibler, weil bei der ersten Variante einige Widersprüche drin sind.

Locuza
2020-06-24, 16:04:00
Das erste Bild von mir stimmt auch nicht.
Indem Aspekt habe ich nicht angenommen, dass AMD das selbe PHY-Design für fast jegliche Konnektivität nach außen verwendet.
Wenn man jede Lane einzeln zählt sind es 37 Lanes, dass kam mir zuerst zu krass vor und ich habe dann jede Dual-Lane als eine gezählt, allerdings auch Single-Lanes.
Bezüglich der Widersprüche und weiteren Details wollte ich auf ein höher aufgelöstes Bild warten.

Ob die Einteilung bei den PHYs von Nemez zu 100% stimmt kann ich nicht sagen, bei Raven Ridge hat er einige Elemente, als Display-PHY ausgegeben, während es bei Renoir USB-PHYs sein sollen:
https://twitter.com/GPUsAreMagic/status/1246081008522452992/photo/1

Ich weiß nicht, ob das so flexibel ist.

Complicated
2020-06-24, 17:23:56
Das ist USB mit DP über USB-C. 2x
In dem Floorplan ist dies auch so eingezeichnet als Mix USB/Display (grün+violett)
https://www.displayport.org/displayport-over-usb-c/

Tobalt
2020-06-24, 20:17:34
Hatte mich auch erst über 5 display Phy gewundert aber mit 2*USB, und 3 mal (HDMI/DP) ist das schon möglich.

dildo4u
2020-06-25, 06:16:34
Geekbench Werte je über 1400 im Single Core auf Intel Level.

3800XT
https://browser.geekbench.com/v5/cpu/2665016

3900XT
https://browser.geekbench.com/v5/cpu/2664749

10900K
https://browser.geekbench.com/processors/intel-core-i9-10900k

OgrEGT
2020-06-25, 18:24:27
Wann ist nochmal Release von Renoir APUs for Desktop?
07.07.
https://www.planet3dnow.de/cms/55976-amd-ryzen-4000g-ge-desktop-renoir-in-der-uebersicht-launch-am-07-juli/

reaperrr
2020-06-26, 00:43:16
Wann ist nochmal Release von Renoir APUs for Desktop?
07.07.
https://www.planet3dnow.de/cms/55976-amd-ryzen-4000g-ge-desktop-renoir-in-der-uebersicht-launch-am-07-juli/

Das letzte Datum, das ich gelesen habe, lautete 27.07. für die 4000er Desktop APUs (jedenfalls was den Hardlaunch angeht, und damit vermutlich auch die NDAs bzgl. Reviews).

Leonidas
2020-06-26, 05:21:24
Ja. Sieht nach 7.7. für Matisse-Refresh und 27.7. für Desktop-Renoir aus. Beiderseits bezogen auf die Launch-Reviews, in beiden Fällen aber gleichbedeutend mit dem Marktstart.

OgrEGT
2020-06-26, 07:06:20
Alles klar Danke!

mironicus
2020-06-26, 09:41:14
Kann die Vega-Grafik in Renoir eigentlich irgend etwas besonderes im Zusammenspiel mit einer diskreten NVidia-Grafik? Gibt es Anwendungen die beide GPUs im Zusammenspiel parallel nutzen können und die dann einen spürbaren produktiven Vorteil bieten gegenüber einen normalem System ohne Onboard-Grafik? Können Adobe-Programme wie Photoshop oder Premiere beide GPUs nutzen? Ich hoffe, das man diese Fragen in den kommenden Reviews klären kann.

Auch die Möglichkeit der Bildübertragung einer diskreten Grafik über den HDMI 2.1-Ausgang der Onboard-Grafik sollte getestet werden.

dildo4u
2020-06-26, 10:00:05
Geht zur Zeit nicht in Premiere Pro.

https://youtu.be/FQ1AGi9kXpM?t=743

Berniyh
2020-06-26, 11:36:13
War es nicht sogar so, dass Photoshop noch nicht mal mehrere CPU Cores nutzen kann? :D

Und du willst multiple GPUs …

dildo4u
2020-06-26, 12:01:26
Adobe muss diese Funktion für Mac Pro eh liefern damit sie eine Chance gegen Final Cut haben.
Mal sehen ob AMD mit RDNA2 neue encoding Hardware bringt bisher hinkt die deutlich gegenüber Nvidia zurück.

dildo4u
2020-06-29, 14:40:34
49ns Ram Latenz mit Renoir 2166MHz FCLK.

https://twitter.com/KOMACHI_ENSAKA/status/1277548646427357185/photo/1

robbitop
2020-06-29, 14:52:44
Das ist ja schon ein krasser Sprung. Insbesondere vergleichen mit den 8x ns, die man im Notebook sieht. (ja deutlich langsamere Timings und Speicher) - aber seltsam ist es schon irgendwie - macht mich erstmal skeptisch auf unabhängige Tests.

mironicus
2020-06-29, 15:19:56
Ob der einzige Nachteil von Renoir gegenüber Matisse, der geringere L3-Cache wohl besonders durchschlagen wird? Denn sonst => Lieber Renoir als Matisse kaufen.

Die Speichertimings in dem Bild: 14-14-13-24-38-1T, 4333 MHz Speicher. Wer stellt die wohl her?

dildo4u
2020-06-29, 15:22:59
Macht wenig Sinn wenn du kein nutzten für die IGP hast, der 3400G kostet z.b 40€ mehr als ein 3100.(Beide 4 Core+ SMT)

JVC
2020-06-29, 17:01:07
Die Speichertimings in dem Bild: 14-14-13-24-38-1T, 4333 MHz Speicher. Wer stellt die wohl her?
Ist selektierter B-Die von Samsung.
+OC natürlich.

M.f.G. JVC

Daredevil
2020-06-29, 20:03:36
Del

SKYNET
2020-06-29, 22:44:50
Ob der einzige Nachteil von Renoir gegenüber Matisse, der geringere L3-Cache wohl besonders durchschlagen wird? Denn sonst => Lieber Renoir als Matisse kaufen.

Die Speichertimings in dem Bild: 14-14-13-24-38-1T, 4333 MHz Speicher. Wer stellt die wohl her?


sicherlich jenseits der 2V auf den speicher bei den timings, aber endlich sub 50ns und wenn das ding echt ist, meinen weltrekord deutlich unterboten :eek:

basix
2020-06-30, 06:37:42
Lässt auf niedrige Latenzen bei Zen 3 hoffen :D

robbitop
2020-06-30, 09:00:42
Vermeer wird ja wieder einen IOD haben. Aber ggf. lässt sich die IF etwas höher takten. Entsprechend wird man da Federn lassen müssen.
Die 49 ns, sofern sie echt sind, sind sicherlich ein Extremwert, den man mit einem ähnlichen Extremwert bei Matisse vergleichen müsste. Sind aber sicherlich gute 15 ns schneller dank internem I/O und anscheinend sehr hohem IF Takt, den Matisse nicht hat.

Andererseits hat man 4x L3 Cache pro CCX bei Matisse. Cache Misses gehen also um Faktor 2 zurück [(sqr(2))^2]. Je nach Anwendung ist die Hitrate hoch - macht es wenig aus und die bessere Memorylatenz ist wichtiger - ist die Hitrate niedrig, ist Cache wichtiger.
Bei Zen 3 wird durch die Zusammenlegung von 2x CCX der L3 (den ein Kern ansprechen kann) ja nochmal verdoppelt.

Der_Korken
2020-06-30, 10:18:48
Für den 3300X wurden auch schon extrem gute Latenzen gezeigt, d.h. eventuell ist einfach der Overhead von zwei CCX auf einem Chiplet schon eine Bremse. Das IF bei Renoir scheint trotz des geringeren Taktes auch sehr gute Latenzen zu haben. Es kann natürlich sein, dass das alles in Wirklichkeit gar nichts ausmacht und wir durch die getrennten Dies wieder 60ns+ bei Zen 3 sehen trotz RAM-OC. Irgendwie weigere ich mich aber zu glauben, dass dieses kurze Stück off-chip direkt 10ns+ an Latenz reinhaut. Der RAM ist ja auch off-chip und müsste demnach bei jeder CPU einen großen Offset reinhauen, auch bei den hochgeprügelten Intels mit <40ns Gesamtlatenz.

HOT
2020-06-30, 10:51:48
Bessere Latenzen Bei Zen3 würde es mMn nur mit einem neuen I/O-Die geben. Mal sehen, womit wir da beglückt werden.

JVC
2020-06-30, 10:59:21
Etwas besser wird der I/O-Die von Zen3 sicherlich werden. (auf 2Ghz+ 1:1 hoff)
(vielleicht sogar in 5nm ? 5nm soll ja gerade in der Richtung wieder Vorteile bringen?...)

M.f.G. JVC

HOT
2020-06-30, 11:05:23
Also ich tipp mal darauf, dass der Chip erst mal derselbe ist und erst mit Warhol, der ja DDR5 bringen dürfte, einen neuen bekommt, der dann in 12LP+ gefertigt wird (GloFos 10nm). Da wird sich also eher wenig tun.

JVC
2020-06-30, 11:28:03
GloFo... vergesse ich immer. Ende 2021 muss AMD dann aber nix mehr kaufen ?

M.f.G. JVC

robbitop
2020-06-30, 11:35:47
Für den 3300X wurden auch schon extrem gute Latenzen gezeigt, d.h. eventuell ist einfach der Overhead von zwei CCX auf einem Chiplet schon eine Bremse.
Nichts verwechseln. Die Memorylatency war mWn gleich. Lediglich die Latenz zwischen den Kernen sinkt, da man nicht über die IF zwischen den CCX kommunizieren muss. Sobald man eine stark paralleliserte Anwendung hat, bei dere es auch viel Austausch zwischen >4 Kernen gibt, ist das bis dato ein Nachteil. Das wird Vermeer fixen.

Das IF bei Renoir scheint trotz des geringeren Taktes auch sehr gute Latenzen zu haben.
Es sieht so aus als liefe die IF bei Renoir auch mit vollem Takt. Auch bei >3733 MHz. Das bringt natürlich Latenz bei besonders hohem Speichertakt. Der Großteil kommt aber von der Kommunikation über den IOD. Zen+ ist in der Hinsicht ja auch schneller als Matisse bei gleichem RAM Takt und -Latenzen / - Timings.

Die Frage ist, wie groß der Vorteil des integrierten IODs bei Renoir ist. Dazu muss man RAM normiert mal vergleichen. Ich tippe aber darauf, dass es ähnlich zu Zen+ ist (normiert!).

Etwas besser wird der I/O-Die von Zen3 sicherlich werden. (auf 2Ghz+ 1:1 hoff)
(vielleicht sogar in 5nm ? 5nm soll ja gerade in der Richtung wieder Vorteile bringen?...)

M.f.G. JVC
Ich denke auch, dass man die IF 3.0 etwas höher takten können wird. Die Frage ist, ob Vermeer einen neuen IOD bekommt. Ein Großteil des IODs ist halt Kram, der durch shrinks kaum kleiner und sparsamer wird. Ideal hier etwas ältere Prozesse zu nutzen aus Kosten- und Verfügbarkeitssicht. Ggf. schwenkt man den auf GloFos 12nm+ um. 5 nm halte ich für unwahrscheinlich für den IOD mittelfristig. 7 nm mal schauen - aber IMO vor der Notwendigkeit eines neuen IODs nicht nötig (DDR5).

w0mbat
2020-06-30, 11:39:56
Man muss sich nur kurz überlegen wie schnell ein "Zen3" mit einem 8C-CCX, 2200MHz FCLK und 4,5GHz all-core clk wäre, also ganz ohne weitere IPC Verbesserungen. Und jetzt stellt euch das Gleiche mit 15% mehr IPC vor :ugly:

HOT
2020-06-30, 11:41:58
Man muss sich nur kurz überlegen wie schnell ein "Zen3" mit einem 8C-CCX, 2200MHz FCLK und 4,5GHz all-core clk wäre, also ganz ohne weitere IPC Verbesserungen. Und jetzt stellt euch das Gleiche mit 15% mehr IPC vor :ugly:
Jo da sind wir dann mir Warhol :D.
Erst mal gibts "nur" Zen3 mit konservativen IF-Takten. Wenn der IF-Takt zum mem-Controller synchron bleibt, dann wird bei DDR5 erheblich mehr IF-Takt anliegen ;).

Der_Korken
2020-06-30, 11:42:53
Nichts verwechseln. Die Memorylatency war mWn gleich. Lediglich die Latenz zwischen den Kernen sinkt, da man nicht über die IF zwischen den CCX kommunizieren muss.


Ich meinte tatsächlich die Speicherlatenz. Das finde ich wahrscheinlich nicht mehr wieder, aber jemand hatte in einem der vielen Ryzen-Threads einen Link gepostet, wo jemand mit einem 3300X irgenwas um die 55-57ns erreicht hat. Das wäre selbst für Zen+ ein absoluter Spitzenwert. Deswegen bin ich so skeptisch wie viel das bisschen offchip wirklich ausmacht. Renoir scheint beim IF so viel besser als Matisse zu sein, dass ich die verschlechterten Latenzen eher bei Matisse selbst und nicht beim Chiplet-Design suchen würde. Schade, dass Renoir erst so spät für den Desktop kommt, das werden technisch sehr interessante Vergleiche.


Es sieht so aus als liefe die IF bei Renoir auch mit vollem Takt. Auch bei >3733 MHz. Das bringt natürlich Latenz bei besonders hohem Speichertakt.

Ich dachte das IF von Renoir läuft dauerhaft mit 1/4 RAM-Takt statt 1/2 aber dafür mit doppelt so vielen Daten pro Takt.

robbitop
2020-06-30, 12:19:48
Müsste man mal RAM normiert testen. Eigentlich gibt es keinen Grund warum der 3300X schneller sein sollte als andere Matisse CPUs (z.B: 3950X) bzgl Memorylatency. Der Kommunikationsweg ist ja der gleiche, egal wie viele Compute Dies verbaut sind.

Renoir scheint die IF mit vollem Speichertakt zu takten. Zumindest lesen die Tools das so aus.

OgrEGT
2020-07-02, 07:45:18
Renoir-APUs für AM4-Desktops: Niedrige Latenz durch hohen Fabric- und Speichertakt
https://www.computerbase.de/2020-07/amd-ryzen-4000-renoir-desktop-apus/

Renoir Desktop scheint dynamische Clock Domains zu haben für mclk fclk und uclk.

dildo4u
2020-07-02, 08:41:40
Der letzte Satz sollte heißen das man im Desktop betrieb 1:1:1 gehen kann, also das Ding immer 2133 Fclock schaffen muss weil das Mobile Modell 4266 Ram unterstütz? Es wird nur zurück gefahren da man im Notebook in 45 Watt bleiben muss.
Natürlich aber eh eher akademisch, da der Ram über 4000 viel zu teuer wird.

basix
2020-07-02, 09:20:50
Natürlich aber eh eher akademisch, da der Ram über 4000 viel zu teuer wird.

Nicht unbedingt. Samsung B-Die 4000er für 120 Euro und 4400er für 140 Euro. Ist fair.
https://www.alternate.de/html/product/1528097
https://www.alternate.de/Patriot/DIMM-16-GB-DDR4-4400-Kit-Arbeitsspeicher/html/product/1527940

dildo4u
2020-07-02, 09:24:45
Dafür bekommt man 32 GB 3200.

Denniss
2020-07-02, 09:37:44
Der 4000er ist mit den Timings aber murks

Thunder99
2020-07-02, 10:14:11
Bei B-DIE kann aber gut optimiert werden wenn es nicht die B-Ware ist. Soll heißen für den Preis eine Option. Ansonsten wird es extrem teuer (wie auch bei guten 3600+ RAM)

basix
2020-07-02, 12:34:03
Dafür bekommt man 32 GB 3200.
Der 4000er ist mit den Timings aber murks

Ich bekomme die 4000er locker auf 3200-CL13 bei 1.45V. Mit knapp 1.50V auch auf 12-11-11-31-1T (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12322752#post12322752). Bei mindfactory sind ähnliche Dinger noch etwas günstiger. Das einzige was mich überrascht hat ist, dass es in DE 16GB 3600er CL17 für 70 Euro gibt. Das ist viel günstiger als in der Schweiz.

Aber klar, P/L Sieger sind sie sicher nicht. Aber die Preise für vergleichbare Kits waren schon mehr als doppelt so hoch. Deswegen einigermassen fair ;)

Denniss
2020-07-02, 17:42:33
da lege ich lieber einen 20er drauf für vernünftigen Ballistix 3600 CL16 denn da weis man was drin ist.

Ex3cut3r
2020-07-06, 14:20:43
Sollen die XT CPUs nicht Morgen kommen? :confused:

dildo4u
2020-07-06, 15:56:29
Ja NDA läuft erst dann ab die Ryzen 3000 Reviews waren auch am 7.7 um 15Uhr.

OgrEGT
2020-07-06, 20:21:27
Matisse XT bei Geizhals


3600XT - 289€
3800XT - 459€
3900XT - 579€

https://geizhals.de/?cat=cpuamdam4&xf=12099_Desktop+(Mainstream)~16686_Ryzen+3000~820_AM4&asuch=XT&bpmin=&bpmax=&v=e&hloc=at&hloc=de&filter=aktualisieren&plz=&dist=&mail=&sort=-r&bl1_id=30

Grendizer
2020-07-06, 20:34:12
heftig ... der 3900X war vor kurzen mal für 399 zu habe, der 3600x schonmal um die 170 Euro

Übrigens den 3950X gibt es gerade für 679 bei MF im Mindstar

y33H@
2020-07-06, 20:54:15
Die Preise sind viel zu hoch ...

dildo4u
2020-07-06, 21:07:21
Kommt drauf an wie viele sie haben 10900k liegt bei 550+ und ist ausverkauft.

Tarkin
2020-07-06, 21:31:02
Kommt drauf an wie viele sie haben 10900k liegt bei 550+ und ist ausverkauft.

Kunststück. Das Ding war nie richtig verfügbar bisher... Mindfactory hat seit dem Launch nur 100 Stk verkauft. Die CPU ist aktuell als "nicht verfügbar" gekennzeichnet.

Bei MF gehen aktuell PRO WOCHE 5x so viele 3900X über die virtuellen Ladentheke. Sogar 3950X werden fast 100 Stk pro Woche gekauft.

10900K war/ist ein astreiner Paper Launch!

Ex3cut3r
2020-07-06, 21:45:08
Die Preise sind viel zu hoch ...

Jo, schreckliche Preise, warum sollte man für 450€ einen 8-Kerner kaufen, wenn es für 409€ einen 12 Kerner gibt? Das gleiche beim 6-Kerner, für das Geld bekomme ich schon einen 3700X mit 8 Kernen. Wenn sich das nicht schnell richtig einsortiert. Ein richtiger Fail IMO.

Piefkee
2020-07-06, 21:49:43
Jo, schreckliche Preise, warum sollte man für 450€ einen 8-Kerner kaufen, wenn es für 409€ einen 12 Kerner gibt? Das gleiche beim 6-Kerner, für das Geld bekomme ich schon einen 3700X mit 8 Kernen. Wenn sich das nicht schnell richtig einsortiert. Ein richtiger Fail IMO.

Sorry aber Preise zu beurteilen von Produkten die noch nicht mal einen Launch hatten zu beurteilen...Ist doch jedes Mal das selbe...

OgrEGT
2020-07-06, 22:10:30
Haben die Matisse XT außer den höheren Boost Clocks (auf einem Kern?) noch andere Vorteile Features wie die normalen Matisse CPUs?

Berniyh
2020-07-06, 22:14:23
Nein.

basix
2020-07-06, 22:29:40
Doch. Secret Sauce :biggrin:

SKYNET
2020-07-06, 22:34:24
wenn der speicher bei denen ohne probleme mit 4000MHz sync rennt, werden die trotzdem gekauft werden wie warme semmeln :D

ich warte aber lieber auf die APU... habe da sonen gutes "bauchgefühl" ;)

Deinorius
2020-07-06, 23:12:28
ich warte aber lieber auf die APU... habe da sonen gutes "bauchgefühl" ;)


Die werden aber wohl kaum günstiger als im Matisse Vergleich. Oder möchtest du zwingend einen niedrigen Idle Stromverbrauch?

Daredevil
2020-07-06, 23:17:27
Ich bin auch eher auf die APU scharf als auf nen Zen2 refresh. :>
Erstens taktet die Kiste massiv hoch für ihre kleine TDP ( Der 8c Notebookchip ist gleichauf wie mein 3600@4.4Ghz@1.4v im SC.... im MC rennt er davon ) und zweitens hat man durch die Größe nicht so Probleme bei der Verlustleistung wie auf dem kleinen DIE des Chiplets.

SKYNET
2020-07-07, 01:44:07
Die werden aber wohl kaum günstiger als im Matisse Vergleich. Oder möchtest du zwingend einen niedrigen Idle Stromverbrauch?


hat hier wer was vom preis gesagt?

mir gehts um die performance, und da werden die APUs trotz kleinerem cache ihre non-APU kollegen outperformen... erstrecht wenn man dann die speicherschrauben andreht... das teil wird performancemässig zwischen zen2 und zen3 liegen :)

dildo4u
2020-07-07, 05:50:56
Jo, schreckliche Preise, warum sollte man für 450€ einen 8-Kerner kaufen, wenn es für 409€ einen 12 Kerner gibt? Das gleiche beim 6-Kerner, für das Geld bekomme ich schon einen 3700X mit 8 Kernen. Wenn sich das nicht schnell richtig einsortiert. Ein richtiger Fail IMO.

Gamer Nexus empfiehlt z.b den 10600k, obwohl der 3700x in dem Bereich liegt.
Kommt halt drauf an wie die Gameing Performance aussieht.

Thunder99
2020-07-07, 10:31:17
Die XT könnten im Gaming Bereich aufholen. Ansonsten bleibt die Stärke der Intel das Gaming. Hoher Boost schlägt Kerne bei den heutigen Spielen ab 6 Kerne

basix
2020-07-07, 11:12:07
Die XT könnten im Gaming Bereich aufholen. Ansonsten bleibt die Stärke der Intel das Gaming. Hoher Boost schlägt Kerne bei den heutigen Spielen ab 6 Kerne

Es ist ja nicht nur der hohe Boost, sondern auch die niedrige DRAM-Latenz und gleichmässig niedrige Core-to-Core Latenz über alle Cores. Ein 10600K ist im Prinzip ein 8700K, welche immer noch eine sehr gute CPU ist, vor allem für Spiele.

Bin aber gespannt, was die 4x00G und 3x00XT so liefern.

robbitop
2020-07-07, 11:18:08
Es ist ja nicht nur der hohe Boost, sondern auch die niedrige DRAM-Latenz und gleichmässig niedrige Core-to-Core Latenz über alle Cores. Ein 10600K ist im Prinzip ein 8700K, welche immer noch eine sehr gute CPU ist, vor allem für Spiele.

Bin aber gespannt, was die 4x00G und 3x00XT so liefern.
Allerdings scheint beim Ringbus von CML es Änderungen ggü seinen Vorgängern zu geben. Die Memorylatency ist etwas schlechter geworden bei gleichen Taktraten und Timings. Ggf. eine Konzession, die man eingehen musste um 10 Kerne anbinden zu können.

Zergra
2020-07-07, 11:28:07
Die APUs habe doch weniger PCIe Lanes ?

HOT
2020-07-07, 11:32:22
Picasso ja, Renoir nicht.

fondness
2020-07-07, 12:41:38
Allerdings scheint beim Ringbus von CML es Änderungen ggü seinen Vorgängern zu geben. Die Memorylatency ist etwas schlechter geworden bei gleichen Taktraten und Timings. Ggf. eine Konzession, die man eingehen musste um 10 Kerne anbinden zu können.

Ähm, ist doch logisch, dass mit steigender Teilnehmeranzahl bei einem Ringbus die Latenzen steigen?! Das war auch schon in der Vergangenheit so.

Ex3cut3r
2020-07-07, 13:06:47
Verstehe nicht wieso Intel keinen 6 ghz 4C/8T bringt mit 25ns Latenz. Durfte für Spiele ungeschlagen sein. :biggrin:

basix
2020-07-07, 13:09:41
Verstehe nicht wieso Intel keinen 6 ghz 4C/8T bringt mit 25ms Latenz. Durfte für Spiele ungeschlagen sein. :biggrin:

Bist du dir da sicher? :D

Der_Korken
2020-07-07, 13:14:17
Verstehe nicht wieso Intel keinen 6 ghz 4C/8T bringt mit 25ms Latenz. Durfte für Spiele ungeschlagen sein. :biggrin:

Der Markt für solche hochspezialisierten CPUs dürfte zu klein sein. Möglich ist sowas sicherlich, aber dieser Quadcore wird dann so viele Transistoren und Strom brauchen wie ein "normaler" 16-Kerner. Für Notebooks und Server wäre das Teil also eine Gurke, weil viel zu ineffizient. Und wenn dann doch ein paar Spiele auf 6 Kerne setzen, dann zieht ein lumpiger 3600 mit 4Ghz plötzlich gleich mit einem Bruchteil des Siliziums.

Ex3cut3r
2020-07-07, 13:15:09
Bist du dir da sicher? :D

Sry meinte ns. :biggrin:

Der Markt für solche hochspezialisierten CPUs dürfte zu klein sein. Möglich ist sowas sicherlich, aber dieser Quadcore wird dann so viele Transistoren und Strom brauchen wie ein "normaler" 16-Kerner. Für Notebooks und Server wäre das Teil also eine Gurke, weil viel zu ineffizient. Und wenn dann doch ein paar Spiele auf 6 Kerne setzen, dann zieht ein lumpiger 3600 mit 4Ghz plötzlich gleich mit einem Bruchteil des Siliziums.

Dann eben ein 6C/6T (eigentlich identisch mit 4C/8T) mit 5,7 ghz und 25ns Latenz. Ihr wisst worauf ich hinaus will. Man könnte es als die Gaming CPU schlechthin vermarkten. Und müsste dabei nicht mal teuer sein IMO. Das darauf weder AMD noch Intel bisher darauf kommen. :uponder:

Leonidas
2020-07-07, 13:19:08
Desktop-Renoir (Ryzen 7 4700G) sieht im Cinebench erstaunlich stark aus:
https://www.3dcenter.org/news/erste-benchmarks-zum-ryzen-7-4700g-desktop-renoir-zeigen-starke-cinebench-performance

Der_Korken
2020-07-07, 13:21:51
Dann eben ein 6C/6T mit 5,7 ghz und 25ns Latenz. Ihr wisst worauf ich hinaus will. Man könnte es als die Gaming CPU schlechthin vermarkten. Und müsste dabei nicht mal teuer sein IMO. Das darauf weder AMD noch Intel bisher darauf kommen. :uponder:

Dann kommen halt die 8C-Spiele ;). Ich verstehe was du willst, aber eine solche CPU ist wie gesagt hochspezialisiert und erfordert wahrscheinlich eine eigene Mikroarchitektur, die wiederum Jahre Entwicklungszeit und Milliarden an Geldern verschlingt. Das holt man mit so einem kleinen Markt wie Highend-Gaming ("Hochgeschwindigkeits-Gamer" ;D ) nicht wieder rein. AMD und Intel haben nicht umsonst nur eine "Hauptarchitektur", die dann in leichten Abwandlungen vom Laptop bis zum Server verwendet werden.

Zossel
2020-07-07, 13:27:38
Dann eben ein 6C/6T (eigentlich identisch mit 4C/8T) mit 5,7 ghz und 25ns Latenz. Ihr wisst worauf ich hinaus will. Man könnte es als die Gaming CPU schlechthin vermarkten. Und müsste dabei nicht mal teuer sein IMO. Das darauf weder AMD noch Intel bisher darauf kommen. :uponder:

Die Custom Design Abteilung von AMD baut dir das wenn du die Kohle dafür auf den Tisch legst.

Ex3cut3r
2020-07-07, 13:28:51
Das Gamer keinen Markt da stellen, halte ich für eine gewagte These, schau dir mal die Nvidia Quartalszahlen an, Gaming macht dort immer noch den meisten Umsatz. Aber klar, diese Gamer CPU kann man nicht wie eine RTX 2080 Ti bepreisen. Oder doch? :freak:
Einfach Huang einstellen, der verkauft dir auch ein Baguette für 1200€ ^^

dildo4u
2020-07-07, 13:33:44
Intel kann die Hoch Takt Modelle doch eh nicht in Mengen liefern siehe 9900KS und 10900K und die sind deutlich teurer als deine Fantasie CPU.
Der 4 Core müsste sogar mehr Goldene Kerne haben als der 10900k, dort gehen nur 2 auf 5.3Ghz.

Ex3cut3r
2020-07-07, 13:37:19
Intel kann die Hoch Takt Modelle doch eh nicht in Mengen liefern siehe 9900KS und 10900K und die sind deutlich teurer als deine Fantasie CPU.

Bei einem 8/16 Threader. Bei einem 4/8 Thread bestimmt doch und da geht auch noch mehr. Wenn es speziell entwickelt wurde.

Nie ausprobiert? Deaktiviere mal bei einem Sandy/Haswell/Skylake ein paar Kerne, und plötzlich kannst du 200-300mhz höher takten.

Der 3300X geht in diese Richtung einer Hochfrequenz Gaming CPU, leider ist der Takt - Ryzen bedingt zu gering.

dildo4u
2020-07-07, 13:39:53
Der Vorteil der wenigen Kerne würde verpuffen da du 4 statt 2 Goldene Kerne Brauchst, der 10900k kann bei 500€+ nur zwei Goldene Kerne selektieren und ist nicht lieferbar.

Turbo Boost Max 3.0: Fastest cores are identified during binning, then the Windows scheduler targets the fastest two active cores (favored cores) with lightly-threaded applications. Chip must be below power, current, and temperature specifications.

https://www.tomshardware.com/reviews/intel-core-i9-10900k-cpu-review

Ex3cut3r
2020-07-07, 13:49:07
Das Intel Liefer Probleme hat, sollte sich langsam rumgesprochen haben, der 9900K war auch immer mal wieder länger nicht verfügbar. Aber egal, was hat das mit der Idee einer speziell entwickelten Gaming CPU zu tun?

mironicus
2020-07-07, 14:15:42
Ryzen 4700G auf 4,765 GHz übertaktet, die CPU-Spannung von 1,425 Volt ist "normal". Wenn der regulär so hoch geht ohne das die TDP explodiert dann haben wir hier eine Spitzen-Gaming-CPU. Vielleicht ist die Übertaktung sogar noch im normalen 88 Watt-Bereich?

https://videocardz.com/newz/amd-ryzen-7-4700g-renoir-am4-apu-overlocked-to-4-765-ghz

robbitop
2020-07-07, 15:11:01
Ggf. schon ein Indikator für Zen 3/Vemeer?

mironicus
2020-07-07, 16:00:59
Ein Zen2-Kern in ein monolithisches Design zu stecken scheint immense Vorteile zu haben. Die APU ist größer und leichter kühlbar als ein Chiplet. Weniger Abwärme, geringere TDP und dadurch wohl auch generell eine höhere Taktbarkeit.

Thunder99
2020-07-07, 16:17:08
Erste Mal, dass die höhere Nummer einen Sinn hat. Auch mehr Performance ;D
Wie gut muss dann Zen 3 sein :wink:

WedgeAntilles
2020-07-07, 16:20:09
Dann kommen halt die 8C-Spiele ;). Ich verstehe was du willst, aber eine solche CPU ist wie gesagt hochspezialisiert und erfordert wahrscheinlich eine eigene Mikroarchitektur, die wiederum Jahre Entwicklungszeit und Milliarden an Geldern verschlingt. Das holt man mit so einem kleinen Markt wie Highend-Gaming ("Hochgeschwindigkeits-Gamer" ;D ) nicht wieder rein. AMD und Intel haben nicht umsonst nur eine "Hauptarchitektur", die dann in leichten Abwandlungen vom Laptop bis zum Server verwendet werden.

Glaube ich nicht.
Wieviele Leute nutzen denn tatsächlich Programme, die starke CPUs und zig Kerne brauchen?
In Deutschland gibt es über 100 Millionen Computer, auf wievielen wird da tatsächlich Videobearbeitung und Co gemacht?
Und jene, die einmal im Monat da ne Kleinigkeit machen kannst du ignorieren.

Da bleibt ganz ehrlich nicht sehr viel übrig.
Für die normalen User, Office, Windows, tut es sogar eine 10 Jahre alte CPU.

Ansonsten brauchen Gamer neue CPUs.
Und ich garantiere dir, dass die Gamerzahl um Welten größer ist als jene, die ernsthaft CPU Power für Nicht-Spiele-Anwendungen brauchen.


Das eigentliche Geheimnis ist, wie es Intel in den letzten 5 Jahren schafft so viele CPUs zu verkaufen.
Marketing ist wohl tatsächlich alles. So kann man den Leuten ja auch verkaufen, dass man jährlich ein neues Handy für 700 Euro aufwärts braucht. Weil das 1 Jahre alte Handy einfach Dreck ist und man ohne ein neues Handy nicht lebensfähig ist.
Meine 5 Jahre alte CPU reicht selbst zum Zocken für quasi alles aus...

HPVD
2020-07-07, 16:59:51
Ryzen 3000XT im Test: Schneller dank Xtra Transistoren
...
In den drei Ryzen 3000XT steckt mehr als nur höhere Frequenzen.
...
Am stärksten profitiert die Unreal Engine 4, wenn wir die Beleuchtung der Infiltrator-Demo vorberechnen, hier legen die XT-CPUs um rund zehn Prozent zu.

https://www.golem.de/news/ryzen-3000xt-im-test-schneller-dank-xtra-transistoren-2007-149309.html

][immy
2020-07-07, 17:19:44
https://www.golem.de/news/ryzen-3000xt-im-test-schneller-dank-xtra-transistoren-2007-149309.html

Jo, da schlägt wohl eine bessere Fertigung und ein angepasstes Taktverhalten zu. Dafür höherer energiebedarf. Single-thread Titel wie Anno 1800 schlagen darauf natürlich voll an.

Der_Korken
2020-07-07, 17:50:36
Das Gamer keinen Markt da stellen, halte ich für eine gewagte These, schau dir mal die Nvidia Quartalszahlen an, Gaming macht dort immer noch den meisten Umsatz.

Das ist der falsche Vergleich. Aktuelle CPU-Architekturen sind nicht auf Gaming-Szenarien allein optimiert, sondern sollen überall passabel laufen. Das, was man momentan bei Ryzen bekommt, ist quasi "kostenlos" in dem Sinne, dass dafür nichts neues entwickelt werden muss. Deine spezialisierte Gaming-Architektur müsste zusätzlich entwickelt werden und die gesamten Kosten müssten darüber reingeholt werden, weil es anderweitig dafür keine/kaum Verwendung gibt. Dazu kommen noch geringe Stückzahlen, weil die meisten Leute sich eh nur einen 3600 kaufen, denn der reicht für fast alles dicke aus. Das wäre quasi so, als würde Nvidia eine eigene Architektur samt GPU nur für ihr Titan-Modell entwickeln (also sowas wie Ampere extra nur für eine GPU), dieses dann für 3000€ verkaufen und es ausschließlich für Gaming verwendbar zu machen. Das ist nicht wirtschaftlich zu bekommen.

Deaktiviere mal bei einem Sandy/Haswell/Skylake ein paar Kerne, und plötzlich kannst du 200-300mhz höher takten.

Glaube ich nicht, es sei denn du bist irgendwie verbrauchs-/kühlungslimitiert. Ab einem gewissen Punkt geht eine CPU einfach nicht mehr höher, auch mit 1000W nicht. Das ist aber architekturabhängig.

Glaube ich nicht.
Wieviele Leute nutzen denn tatsächlich Programme, die starke CPUs und zig Kerne brauchen?
In Deutschland gibt es über 100 Millionen Computer, auf wievielen wird da tatsächlich Videobearbeitung und Co gemacht?
Und jene, die einmal im Monat da ne Kleinigkeit machen kannst du ignorieren.

Da bleibt ganz ehrlich nicht sehr viel übrig.
Für die normalen User, Office, Windows, tut es sogar eine 10 Jahre alte CPU.


Das verstehe ich nicht. Auf Servern wird natürlich gerechnet, z.B. wissenschaftliche Berechnungen auf Supercomputern und dergleichen. Für Office ist es herzlich egal, was drinsteckt, das stimmt. Für Mobile ist Effizienz einfach Trumpf. In 15W kriegst du maximal einen Kern von der Superduper-Gaming-Architektur und das wahrscheinlich nichtmal mit vollen Takt. Da nehme ich doch lieber eine effiziente CPU wie Renoir, die im selben Powerbudget 4 Kerne mit 80-90% der Leistung liefern.


Ansonsten brauchen Gamer neue CPUs.
Und ich garantiere dir, dass die Gamerzahl um Welten größer ist als jene, die ernsthaft CPU Power für Nicht-Spiele-Anwendungen brauchen.

"Brauchen" all diejenigen, die bereits einen Coffee Lake oder Zen2 haben eine CPU? Oder sind die bestehenden CPUs (die größtenteils im Hinblick auf Server und Mobile entwickelt wurden) nicht für den überwältigenden Teil der Gamer vollkommen ausreichend? Siehe auch meine Ausführungen oben.

Tobalt
2020-07-07, 21:25:38
Wedge Antilles:

Ausgehend von einer Normalo P/L CPU wie dem 3700X.

Ich denke die Top-Gameranzahl (die dann sowas wie wie 9900K kaufen und davon einen Mehrwert verspüren) ist extrem viel *kleiner* als Leute die durch einen 12/16 Kerner Vorteile haben.

Unterschätze mal nicht Profisoftware in vielen Ingenieur Jobs. Nicht die ganze Welt macht nur Office. In ET/IT sind sehr viele aufwendige Tools. Auch im Maschinenbau usw usw. Diese Tools nutzen oft gut Multicores. sobald es etwas richtung Wissenschaft geht, sowieso.

eccle
2020-07-07, 22:49:35
Verstehe nicht wieso Intel keinen 6 ghz 4C/8T bringt mit 25ns Latenz. Durfte für Spiele ungeschlagen sein. :biggrin:

Bei 6 GHz werden 6.000.000.000 Takte pro Sekunde ausgeführt. Die Lichtgeschwindigkeit ist etwas langsamer als im Vakuum, aber rechnen wir mit 300.000.000 m/s. Wir wollen ein Taktsignal in der Hälfte der Zeit aussenden, die es dauert, dieses vom weitest entfernten Bauelement zu empfangen. Welche Distanz können diese Elemente haben?

300.000.000 / (2 * 6.000.000.000) = 30 / 12 cm = 2,5cm

Selbst unter Optimalbedingungen bewegt man sich auf physikalische Grenzen zu.

SKYNET
2020-07-07, 23:48:44
Ryzen 4700G auf 4,765 GHz übertaktet, die CPU-Spannung von 1,425 Volt ist "normal". Wenn der regulär so hoch geht ohne das die TDP explodiert dann haben wir hier eine Spitzen-Gaming-CPU. Vielleicht ist die Übertaktung sogar noch im normalen 88 Watt-Bereich?

https://videocardz.com/newz/amd-ryzen-7-4700g-renoir-am4-apu-overlocked-to-4-765-ghz

sagte doch, die APU ist viel interessanter als die XT modelle... frage mich nur, ob mit steigendem takt die speicherlatenz sinkt, wie es noch bei Zen1/+ der fall war, dann könnte man das ding mit gutem speicher auf unter 40ns bringen.

Der_Korken
2020-07-08, 00:33:13
dann könnte man das ding mit gutem speicher auf unter 40ns bringen.

;D

Alles über 30ns wäre schon enttäuschend.

basix
2020-07-08, 11:23:28
Bei 6 GHz werden 6.000.000.000 Takte pro Sekunde ausgeführt. Die Lichtgeschwindigkeit ist etwas langsamer als im Vakuum, aber rechnen wir mit 300.000.000 m/s. Wir wollen ein Taktsignal in der Hälfte der Zeit aussenden, die es dauert, dieses vom weitest entfernten Bauelement zu empfangen. Welche Distanz können diese Elemente haben?

300.000.000 / (2 * 6.000.000.000) = 30 / 12 cm = 2,5cm

Selbst unter Optimalbedingungen bewegt man sich auf physikalische Grenzen zu.

Auf einem Chip gehen prinzipiell auch 50 GHz. Der Zeitversatz von Clock-Generierung und "Clock-Verbrauch" ist eigentlich egal. Wichtiger ist, wie hoch der Versatz von einem Ende des Chips zum anderen ist. In anderen Worten wie synchron der Takt über den Chip verteilt ist. Hier gibt es so Techniken wie ein H-Tree (https://de.wikipedia.org/wiki/H-Baum), bei welchem der Abstand zwischen der Wurzel und den Enden überall gleich gross ist.

Ausserdem wird man möglichst vermeiden, eine einzelne Struktur oder Leiterbahn mit einer Länge von >Lambda/8 zu haben (Faustregel bei HF-Design, bei 6GHz also 3mm). Sonst handelst du dir anderweitige HF-Effekte ein, welche das Design deutlich komplexer machen (nicht unmöglich). Das kann man aber via Repeater lösen. Diese HF-Effekte sind relativ zur Strukturgrösse zu sehen. Es gibt z.B. 5000km lange Hochspannungsleitungen in Kanada, wo 60 Hz der Netzspannung schon HF ist :biggrin:

Problematisch wird bei zunehmenden Frequenzen auch der Skin-Effekt (https://de.wikipedia.org/wiki/Skin-Effekt), welcher dir den effektiven Leiterquerschnitt verringert. Das verschlimmert nochmals die hohen Stromdichten und den Effekt der Elektromigration. Aber auch solche Sachen sind technisch lösbar.

Alles in allem sind deutlich höhere Frequenzen realisierbar. In der Praxis ist aber primär der kubische Anstieg der Leistungsaufnahme das Problem. Einen guten Teil der Leistungssteigerung der CPUs zwischen 1990 und 2005 wurde mit erhöhter Leistungsaufnahme realisiert. Ein i486DX mit 50Mhz benötigte nichtmal 5W, ein Pentium 2 schon 40W und ein Pentium 4 ging >100W. Das sind 20x Energieverbrauch bei ca. 100x mehr Performance aber auch 75x mehr Takt. Man wollte Moore's Law folgen und hat entsprechend den einfachsten Weg gewählt. Nur ist der Verbrauch heute aber am oberen Limit, da geht nichts mehr. Das ist einer der Hauptgründe, wieso man heute die Taktraten nicht mehr wirklich steigern kann. Weitere Gründe kommen nun mit <14nm dazu (z.B. stark erhöhter Leiterbahnwiderstand).

Hauwech
2020-07-08, 11:59:22
Hatte nicht IBM vor Jahren mal einen 10GHz?, 50GHz? oder sogar 100GHz? Transistordingsbumsirgendwas entwickelt/vorgestellt/präsentiert? :uponder:

eccle
2020-07-08, 13:12:14
Auf einem Chip gehen prinzipiell auch 50 GHz. Der Zeitversatz von Clock-Generierung und "Clock-Verbrauch" ist eigentlich egal. Wichtiger ist, wie hoch der Versatz von einem Ende des Chips zum anderen ist. In anderen Worten wie synchron der Takt über den Chip verteilt ist. Hier gibt es so Techniken wie ein H-Tree (https://de.wikipedia.org/wiki/H-Baum), bei welchem der Abstand zwischen der Wurzel und den Enden überall gleich gross ist.


Zeitversatz von Clock-Generierung und "Clock-Verbrauch" ist eigentlich egal. -> Das ist nicht der Punkt.

"Wichtiger ist, wie hoch der Versatz von einem Ende des Chips zum anderen ist."
-> Wende doch zum Spaß mal meine Rechnung oben auf einen H-Baum an und schau wo du bei einem 4-Kern-Intel-Chip rauskommst.

Brillus
2020-07-08, 13:21:28
Hatte nicht IBM vor Jahren mal einen 10GHz?, 50GHz? oder sogar 100GHz? Transistordingsbumsirgendwas entwickelt/vorgestellt/präsentiert? :uponder:

Wie schnell ein Transitor schaltet ist irrelevant. Bei Schaltungen sollten in den meisten Fälle mehrere nacheinander sein und die müssen alle in einem Takt schalten. Hinzukommt noch das der umso länger braucht je mehr andere Transistoren er Treiben muss.

Zossel
2020-07-08, 17:15:58
Wie schnell ein Transitor schaltet ist irrelevant. Bei Schaltungen sollten in den meisten Fälle mehrere nacheinander sein und die müssen alle in einem Takt schalten. Hinzukommt noch das der umso länger braucht je mehr andere Transistoren er Treiben muss.

Ganz klares Jein, den möglichen Versatz bei kombinatorischer Logik (z.b. (!A&B)|C) kompensiert man mit FFs an den Ausgängen die zur Taktflanke die Ergebnisse übernehmen, damit sind Jitter und Spikes zwischen den Taktflanken relativ latte.

Brillus
2020-07-08, 18:56:39
Ganz klares Jein, den möglichen Versatz bei kombinatorischer Logik (z.b. (!A&B)|C) kompensiert man mit FFs an den Ausgängen die zur Taktflanke die Ergebnisse übernehmen, damit sind Jitter und Spikes zwischen den Taktflanken relativ latte.

Wenn zwischen 2 FFs zu viele Transistoren liegen bringt dir das auch nichts. Die Daten müssen sicher zwischen 2 Taktflanken von den Ausgängen der einen zu den Eingängen der anderen FFs propagieren.

Alex1973
2020-07-08, 19:42:36
Mal eine Frage, was wird so ein *Renoir mit 8 Kernen denn kosten, ist da schon was bekannt?
Müsste ja billiger werden als der normale Zen 2 .

Brillus
2020-07-08, 19:45:46
Mal eine Frage, was wird so ein *Renoir mit 8 Kernen denn kosten, ist da schon was bekannt?
Müsste ja billiger werden als der normale Zen 2 .

Das hier ist das beste was wir nach meinem Wissen nach bisher in der Richtung haben:
https://www.3dcenter.org/news/erste-preislagen-zu-desktop-renoir-ryzen-4000g-serie-aufgetaucht

Zossel
2020-07-08, 19:52:04
Wenn zwischen 2 FFs zu viele Transistoren liegen bringt dir das auch nichts. Die Daten müssen sicher zwischen 2 Taktflanken von den Ausgängen der einen zu den Eingängen der anderen FFs propagieren.

Entweder spielt man das Spiel mit oder man spielt gar keins.

Alex1973
2020-07-08, 19:55:52
Das hier ist das beste was wir nach meinem Wissen nach bisher in der Richtung haben:
https://www.3dcenter.org/news/erste-preislagen-zu-desktop-renoir-ryzen-4000g-serie-aufgetaucht

So einen Ryzen 7 4700G für 200 Euro, das wäre was gutes.

Edgecrusher86
2020-07-08, 19:57:29
Am 14.7. soll angeblich der Threadripper PRO 3995WX erscheinen mit Octa-Channel-RAM-Support bis 2TB wie EYPC:

https://abload.de/img/amd-ryzen-threadrippeyejxc.jpg

https://videocardz.com/newz/amd-ryzen-threadripper-pro-3995wx-spotted-could-launch-next-week

Das wird dann für Prosumer wohl die einzige merkliche Limitierung der bisherigen TR3000 ausmerzen - maximal 256GB RAM zu verbauen.
Bandbreite wird dort ja auch gerne mitgenommen.

Intel wird sich nicht sehr freuen. ;)

Brillus
2020-07-08, 20:04:36
Am 14.7. soll angeblich der Threadripper PRO 3995WX erscheinen mit Octa-Channel-RAM-Support bis 2TB wie EYPC:

https://abload.de/img/amd-ryzen-threadrippeyejxc.jpg

https://videocardz.com/newz/amd-ryzen-threadripper-pro-3995wx-spotted-could-launch-next-week

Das wird dann für Prosumer wohl die einzige merkliche Limitierung der bisherigen TR3000 ausmerzen - maximal 256GB RAM zu verbauen.
Bandbreite wird dort ja auch gerne mitgenommen.

Intel wird sich nicht sehr freuen. ;)
Und auf welchem Sockel soll der drauf. Für einen einzigen SKU machen die wohl keine neue Mainboards.

Also einen Speeddump hätte ich geglaubt, aber keinen 8-Channel.

Voodoo6000
2020-07-08, 20:24:53
Und auf welchem Sockel soll der drauf. Für einen einzigen SKU machen die wohl keine neue Mainboards.

Zen3 Threadripper kommt ja auch noch, da könnte sich eine Entwicklung schon "lohnen". Für eine Handvoll Intel Xeon W-3175X gab es auch extra Mainboards.

reaperrr
2020-07-08, 21:17:20
Und auf welchem Sockel soll der drauf. Für einen einzigen SKU machen die wohl keine neue Mainboards.
Ich weiß nicht mehr wo, aber nachdem was ich gelesen habe, sollen insgesamt auch 3 Modelle kommen. Wahrscheinlich einfach WX-Versionen aller 3 aktuellen 3000er TR, evtl. auch ein 48c statt des 24c (Speku von mir, keine Info).

Piefkee
2020-07-08, 22:55:22
Ich weiß nicht mehr wo, aber nachdem was ich gelesen habe, sollen insgesamt auch 3 Modelle kommen. Wahrscheinlich einfach WX-Versionen aller 3 aktuellen 3000er TR, evtl. auch ein 48c statt des 24c (Speku von mir, keine Info).

Sehe ich auch so. Es wird wahrscheinlich alle 3 Threadripper auf dem neuen 8-Chanel Board geben. Die Gerüchte gab es ja schon lange ...

basix
2020-07-08, 23:06:52
Zeitversatz von Clock-Generierung und "Clock-Verbrauch" ist eigentlich egal. -> Das ist nicht der Punkt.

Dann klär mich bitte auf ;) Ist einfacher, als es zu erraten.

-> Wende doch zum Spaß mal meine Rechnung oben auf einen H-Baum an und schau wo du bei einem 4-Kern-Intel-Chip rauskommst.

Muss ich gar nicht. Wie gesagt, in einer Struktur von dieser Grösse hat es etliche Repeater drin. Da gibt es evtl. 1mm Stücke und dann wieder ein Repeater. Das ist ein Bruchteil dessen, was problematisch ist. Und sowas ist nur für den Clock sinnvoll, und nicht für Datensignale. Du sprachst aber explizit von Taktsignal.

Wenn dein Punkt 25ns Latenz bei Core to Core Kommunikation oder DRAM-Latenz ist: Auf dem Chip kein Problem, da liegt man heute bei <20ns bei 4 GHz. Bei DRAM wären es 25ns*3.3cm (in Kupfer ist die Ausbreitungsgeschwindigkeit etwa c * 2/3) und somit 83cm Strecke. Die Frequenz ist für die Latenz egal. Die Ausbreitung eines 6GHz Signals wird genau gleich lange dauern wie bei einem 1MHz Signal. Jetzt kannst du da noch je 10ns für DRAM-Latenz und Latenz bis zum Memory Controller abziehen und bei den übrigbleibenden 5ns landet man bei 17cm. Wenn man den DIMM-Riegel also 8cm vom entsprechenden CPU Pin platziert, passt das für hin und zurück. Jetzt kannst du mal Mainboards anschauen, da liegt allermeistens weniger als 8cm zwischen den DIMM-Slots und der Mitte des CPU-Sockels. Kurz: 25ns wären prinzipiell möglich, auch noch weniger. Bei der Komplexität der heutigen Designs wird das aber wohl nicht passiern. Der Stolperstein ist aber nicht die Ausbreitungsgeschwindigkeit eines Signals, ausser deine Leiterbahnen zum DRAM sind schlecht ausgeführt (hohes R*C) und führen so zu einer zeitlichen Verzögerung.

eccle
2020-07-09, 13:10:32
@basix

Du hast vollkommen recht. Danke, dass du dir die Zeit genommen hast einen Irrtum auf meiner Seite aufzuklären.

Tarkin
2020-07-09, 15:58:08
Ich schätze mal da kommt was entsprechendes von Lenovo ;)

Hätte jedenfalls Potential so eine Workstation... es wäre die erste mit Threadripper von einem großen OEM!

https://twitter.com/KenMitchellKen

Complicated
2020-07-09, 16:21:17
"We aren't going to just change the game. We plan to change the rules"
Der Marketingfritze hat das irgendwie nicht richtig überrissen. "Change the game" ist schon die Steigerung von "change the rules" - die steigern schon wieder zurück ;D

LasterCluster
2020-07-09, 22:51:49
"We aren't going to just change the game. We plan to change the rules"


Grandios! ;D

BoMbY
2020-07-10, 18:36:09
AMD Threadripper PRO:
�� lower clocks than consumer TR
�� up to 2TB U/R/LR/3DS DIMM ECC
�� 8x channel
�� AMD PRO technologies
�� 12/16/32/64-core configurations
�� 280W


https://twitter.com/VideoCardz/status/1281625384275116033

Edit: AMD Ryzen Threadripper PRO specifications leaked (https://videocardz.com/newz/amd-ryzen-threadripper-pro-3000-final-specifications-leaked)

Der_Korken
2020-07-10, 19:23:03
Wodurch grenzt sich Threadripper (Pro) eigentlich von Epyc ab, wenn man jetzt auch bei RAM-Menge und -Channels aufschließt?

BoMbY
2020-07-10, 19:34:12
Eigentlich durch nichts, außer Marketing und leicht geänderten Takt/TDP-Werten. Vor allem wird das dazu führen dass es halt andere Boards gibt die für Workstations sinnvoller sind, als irgendein Server-Board.

Felixxz2
2020-07-10, 22:12:48
Das ganze dürfte wschl auf Dinge wie Filmstudios abzielen

CompuJoe
2020-07-10, 22:27:03
Wodurch grenzt sich Threadripper (Pro) eigentlich von Epyc ab, wenn man jetzt auch bei RAM-Menge und -Channels aufschließt?
2TB ECC vs. 4TB reg. ECC Ram
72 vs. 128 PCIe
TDP ist bei TR höher

Eldoran
2020-07-11, 03:18:50
Bisher sind glaube ich die crypto Funktionen weitgehend EPYC exclusiv, beim Ryzen Pro gibt es glaube ich noch die einfache full memory encryption aber SEV nicht. Außerdem ist der Preis Threadripper - EPYC single socket nicht extrem verschieden. Wenn die neuen Modelle etwas teurer sind, können die durchaus etwa den gleichen Preis haben. Davon abgesehen, dass die dann quasi eine ganze Generation hinterhalb sind - die kommen erst kurz vor den Zen3 EPYCs...

Nightspider
2020-07-11, 04:23:57
Meint ihr Zen 3 Threadripper kommt recht spät?

Oder das diese Boards auch Zen 3 Threadripper Pro CPUs supporten werden?

Sonst würde dieser später Release von dieser Nischenvariante doch noch weniger Sinn ergeben oder?

dildo4u
2020-07-11, 06:08:12
Bei Zen 2 kam Threadripper erst Ende November, also ca 4 Monate nach den ersten Desktop Versionen.
Wenn Zen 3 Desktop erst im Oktober kommt könnte es März für Threadripper werden.

Leonidas
2020-07-13, 05:14:08
Sehr beachtenswert ist, wie lange die Zen-2-Generation läuft - und wie man trotzdem jetzt mit Refreshes, TR Pro und Desktop-APUs immer noch neue Produkte herausbringt, welche von der Konkurrenz nicht geschlagen sind. Das hat natürlich auch was mit der aktuellen Intel-Schwäche zu tun, aber generell zeigt das auf den hohen Ansatz von Zen 2, welcher eben auch nach einem Jahr immer noch Spitze ist.

dildo4u
2020-07-13, 10:54:49
Desktop Renoir vs 9900KF vs 3700X in CPU-Z.

https://www.chiphell.com/thread-2243126-1-1.html

][immy
2020-07-13, 11:02:40
Desktop Renoir vs 9900KF vs 3700X in CPU-Z.

https://www.chiphell.com/thread-2243126-1-1.html
Naja, CPU-z sagt nicht viel aus. Mit jedem Neustart des Tests bekomme ich da mehr Punkte.

Der_Korken
2020-07-13, 11:21:59
Desktop Renoir vs 9900KF vs 3700X in CPU-Z.

https://www.chiphell.com/thread-2243126-1-1.html

Sieht aus wie Allcore 4,625Ghz, wenn man sich den Vorsprung ST vs MT ansieht. Solange das nicht stabil lief (nur einmal CPU-Z und woanders kackt es ab) und mit normalen Mitteln machbar, eher uninteressant.

SKYNET
2020-07-13, 18:13:23
[immy;12363115']Naja, CPU-z sagt nicht viel aus. Mit jedem Neustart des Tests bekomme ich da mehr Punkte.


der erste run nach nem neustart hat immer die meisten punkte... aber IMMER +/- das gleiche ergebnis, egal ob erster run vs. erster run oder 2. vs. 2. usw.

SKYNET
2020-07-13, 18:18:10
Sieht aus wie Allcore 4,625Ghz, wenn man sich den Vorsprung ST vs MT ansieht. Solange das nicht stabil lief (nur einmal CPU-Z und woanders kackt es ab) und mit normalen Mitteln machbar, eher uninteressant.


naja, mit normalen mitteln war auch mein 2700X mit 4.5GHz zu betreiben... und die aktuellen 3800X(T) und aufwärts machen alle ihre 4.6GHz boost, somit denke ich nicht das es nur CPU-Z stabil war, sondern das teil richtig drückt :)

Der_Korken
2020-07-13, 18:28:39
naja, mit normalen mitteln war auch mein 2700X mit 4.5GHz zu betreiben... und die aktuellen 3800X(T) und aufwärts machen alle ihre 4.6GHz boost, somit denke ich nicht das es nur CPU-Z stabil war, sondern das teil richtig drückt :)

Dein 2700X != 2700X im Durchschnitt. Was irgendwelche selektierten Samples theoretisch erreichen können, ist halt wayne. Außerdem ist der Vergleich in dem Link unfair, weil der 4700G (?) OCed war, die anderen aber nicht. Ein Vergleich gegen nen 3700X@4,5Ghz wäre z.B. schon interessanter gewesen.

mironicus
2020-07-13, 19:12:30
Renoir hat im Vergleich zu Zen 2 einen deutlich schnelleren L1 und L2-Cache.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12363531&postcount=1279

Langlay
2020-07-13, 19:24:02
Renoir hat im Vergleich zu Zen 2 einen deutlich schnelleren L1 und L2-Cache.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12363531&postcount=1279

Der Renoir hat ja auch 33% mehr Kerne. Mit gleicher Kernzahl ist der L1 und L2 Cache dann auch nicht mehr schneller.

https://abload.de/img/e-dieddr37334yky6.jpg

Und mit mehr Kernen wirds dann noch schneller für Zen2 :


https://abload.de/img/cachememejjjw.png

nordic_pegasus
2020-07-13, 21:14:11
wird Threadripper Pro ein reines OEM Produkt? wurde zumindest im ComputerBase Forum von Sv3n so angedeutet. Wäre schade, wenn dafür keine Retail-Boards entwickelt würden. Ein 3955WX mit 16 Kernen, 8 Kanal Speicherinterface und 128 PCIe Lanes wäre mein Traum-System.

grobi
2020-07-14, 00:27:12
Der Renoir hat ja auch 33% mehr Kerne. Mit gleicher Kernzahl ist der L1 und L2 Cache dann auch nicht mehr schneller.

https://abload.de/img/e-dieddr37334yky6.jpg

Und mit mehr Kernen wirds dann noch schneller für Zen2 :


https://abload.de/img/cachememejjjw.png

Passt nicht. Der Speicher ist beim 12-Kerner anders eingestellt :freak:

SKYNET
2020-07-14, 00:48:53
Der Renoir hat ja auch 33% mehr Kerne. Mit gleicher Kernzahl ist der L1 und L2 Cache dann auch nicht mehr schneller.

https://abload.de/img/e-dieddr37334yky6.jpg

Und mit mehr Kernen wirds dann noch schneller für Zen2 :


https://abload.de/img/cachememejjjw.png


viel mehr interessieren mich die zugriffzeiten vom cache(L1-L3), wenn das da nochmals nen sprung gibt, kann das richtig performance bringen.

Der_Korken
2020-07-14, 01:19:39
Beim L1 und L2 wird sich garantiert nichts tun, weil dazu die relative Latenz (in cycles) sinken müsste und die ist mit 4 bzw. 12 am Optimum, was man für 32 und 512kB so rausholen kann. Intels 256kB L2 hat nach mittlerweile 9 Jahren auch nicht unter 12 Takte geschafft. Der L3 wird bei Renoir sicherlich etwas schneller sein, weil er einfach viel kleiner ist. Dafür ist er halt ... kleiner. Imho ist der interessanteste Punkt an Renoir die Speicherlatenz.

SKYNET
2020-07-14, 23:19:47
Beim L1 und L2 wird sich garantiert nichts tun, weil dazu die relative Latenz (in cycles) sinken müsste und die ist mit 4 bzw. 12 am Optimum, was man für 32 und 512kB so rausholen kann. Intels 256kB L2 hat nach mittlerweile 9 Jahren auch nicht unter 12 Takte geschafft. Der L3 wird bei Renoir sicherlich etwas schneller sein, weil er einfach viel kleiner ist. Dafür ist er halt ... kleiner. Imho ist der interessanteste Punkt an Renoir die Speicherlatenz.

das was am meisten performance ggü matisse bringen dürfte, ist die interkernkommunikation... 8 kerne die fullspeed untereinander daten tauschen können, wärend bei matisse 4 + 4 läuft...

Der_Korken
2020-07-14, 23:46:53
Renoir hat aber auch nur 4+4 Kerne.

amdfanuwe
2020-07-15, 03:20:07
Renoir hat aber auch nur 4+4 Kerne.
und ist schnell wegen monolithischem Chip.
Da wird das Warten auf Cezanne lang. 8 ZEN3 Kerne in monolithischem Chip.
Könnte AMDs wichtigster Chip werden, Top in Mobile und Top in Desktop Gaming.
Ich hoffe mal, dass AMD Cezanne frühzeitig auch in den Desktop bringt.
Offensichtlich hatte AMD für Renoir zu wenig Kapazitäten bestellt. Naja, sind auch keine Hellseher und hatten wohl mit mehr Konkurrenz gerechnet.

amdfanuwe
2020-07-19, 14:05:32
Wer sich für Verkaufzahlen und Channel Inventory interessiert, hier gibt es eine Menge Zahlen dazu:
https://seekingalpha.com/instablog/5030701-mike-bruzzone/5473888-amd-q2-2020-channel-inventory-report

Leonidas
2020-07-20, 05:10:49
Wer sich für Verkaufzahlen und Channel Inventory interessiert, hier gibt es eine Menge Zahlen dazu:
https://seekingalpha.com/instablog/5030701-mike-bruzzone/5473888-amd-q2-2020-channel-inventory-report


Sehr interessant. Leider kann ich schwer unterscheiden, wo die von Verkäufen reden (interessant) und wo von Lagerbestand (uninteressant).


PS:
Ryzen 4000G "Desktop-Renoir" mit Soft-Launch am 21. Juli um 15 Uhr
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1819-juli-2020

OgrEGT
2020-07-20, 16:14:18
@golem @pcg et al.
Werdet ihr morgen ein Review zu Renoir APUs veröffentlichen?

Ich wär gespannt :D
...
vor allem h2h Vergleiche

3700X und/oder 3800x(T) vs 4700G (8c16t)
3600 und/oder 3600X(T) vs 4400G (6c12t)

das_Apo
2020-07-20, 18:53:43
PS:
Ryzen 4000G "Desktop-Renoir" mit Soft-Launch am 21. Juli um 15 Uhr
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1819-juli-2020

Gibt es irgendwelche Infos oder gute Vermutungen, warum Renoir Mobile immer noch nicht gut verfügbar ist und Renoir Desktop nur einen Soft-Launch ohne breitflächige Verfügbarkeit erhält?

dildo4u
2020-07-20, 19:00:58
Es ist ein monolitischer 7nm Chip, deutlich größer als die Chiplets von Ryzen 3000.
Wobei die Notebooks jetzt gut verfügbar sind, die Yields scheinen nur für den 4800u zu schlecht.

Sind über 100 Modelle auf Lager.

https://geizhals.de/?cat=nb&xf=6763_Ryzen+4000&asuch=&bpmin=&bpmax=&v=l&hloc=de&plz=&dist=&mail=&bl1_id=30&sort=eintr#productlist

ianm
2020-07-20, 19:06:16
Ich glaube einer der Gründe wird sein, dass man eher konservativ bestellt hat und nun mit den verfügbaren Kapazitäten nicht hinterher kommt.

mboeller
2020-07-20, 20:03:37
angebliches Benchmark-Leak von einem übertaktetem 4700G:

https://www.notebookcheck.com/Benchmark-Leak-Die-Vega-8-iGPU-des-AMD-Ryzen-7-4700G-erreicht-fast-die-Leistung-einer-GeForce-GTX-1050.482401.0.html

CPU = 3700X
GPU = GTX1050, naja fast

Mal sehen wie es in Wirklichkeit aussieht.

Deinorius
2020-07-20, 21:28:00
Mit dem 3dmark... Und in echten Spielen ist der Abstand wieder größer. :rolleyes:

Akkarin
2020-07-20, 22:12:41
Glofo hat sich ja von bleeding edge Prozessen verabschieded und versucht neben der vermarktung von "älteren" Prozessen ja auch Sachen wie FDSoI usw. IIRC ziehlt das hauptsächlich auf IoT, embedded, automotive etc.pp. ab. Aber wie siehts da mit dem analog Kram aus ? Kann man erwarten das es deutliche Fortschritte beim IO die gibt ?

SKYNET
2020-07-20, 23:42:53
angebliches Benchmark-Leak von einem übertaktetem 4700G:

https://www.notebookcheck.com/Benchmark-Leak-Die-Vega-8-iGPU-des-AMD-Ryzen-7-4700G-erreicht-fast-die-Leistung-einer-GeForce-GTX-1050.482401.0.html

CPU = 3700X
GPU = GTX1050, naja fast

Mal sehen wie es in Wirklichkeit aussieht.

singlethread wie nen 3700X, multi wie nen 3800X... lässt auf ne deutlich bessere intercorekommunikation schliessen.

das teil mit finalen taktraten wird den 3800X komplett in boden stampfen, darum hat AMD auch den XT gebracht, weil der dann wieder minimal schneller sein wird.

Linmoum
2020-07-20, 23:52:54
das teil mit finalen taktraten wird den 3800X komplett in boden stampfen, darum hat AMD auch den XT gebracht, weil der dann wieder minimal schneller sein wird.:confused:

MR2
2020-07-21, 00:02:02
Dazwischen liegen doch nur Prozentchen...
Hoffentlich kommt da heute 15 Uhr was!

SKYNET
2020-07-21, 00:45:46
:confused:


singlethread...

mal sehen was das ding kann wenn man den EDC bug anwendet... gehe davon aus das teil geht dann bis 4.8GHz im single boost und um die 4.4-4.5 AC.... klar ist jedenfalls, weder matisse noch intel wird da was zu lachen haben.

Langlay
2020-07-21, 01:09:59
Ich überlege auch mir zum rumspielen so ein 4000G zu holen, wobei ich auf dem C8H mit der GPU nix anfangen kann, das Board hat keinen Videoausgang.

Zossel
2020-07-21, 08:06:53
Glofo hat sich ja von bleeding edge Prozessen verabschieded und versucht neben der vermarktung von "älteren" Prozessen ja auch Sachen wie FDSoI usw. IIRC ziehlt das hauptsächlich auf IoT, embedded, automotive etc.pp. ab. Aber wie siehts da mit dem analog Kram aus ? Kann man erwarten das es deutliche Fortschritte beim IO die gibt ?

Wahrscheinlich nichts bahnbrechendes bzgl. IO

robbitop
2020-07-21, 09:21:53
Der L3 wird bei Renoir sicherlich etwas schneller sein, weil er einfach viel kleiner ist. Dafür ist er halt ... kleiner. Imho ist der interessanteste Punkt an Renoir die Speicherlatenz.
Hätte er sein können - leider hat sich AMD die Mühe aber nicht gemacht. IIRC war die gemessene Latenz gleich.

mironicus
2020-07-21, 10:16:52
Laut Bios-Unterstützung dieses Motherboards

https://de.msi.com/Motherboard/support/MAG-B550M-MORTAR-WIFI.html#down-bios

werden nur die AMD Ryzen 7 PRO 4750G, Ryzen 5 PRO 4650G, und Ryzen 3 PRO 4350G unterstützt.

Keine Spur von den angeblichen 35 Watt-Versionen (GE).

Und noch leider kein Support für B450-Motherboards bei MSI.

HOT
2020-07-21, 10:22:16
Da braucht man sich keine Gedanken machen, ab AGESA Combo1 1006 und Combo2 1002 sind alle entsprechenden CPUs unterstützt. Was dann letztendlich an Produkten kommt, sehen wir dann.

Ich frag mich aber auch, wie man auf die schräge Idee kommt, dass Renoir besser sein könnte als Matisse, zumal der 4x mehr Cache hat. Das kann der Speichercontroller nicht aufwiegen.

dildo4u
2020-07-21, 12:03:35
Kommt doch komplett auf die Applikation an, Intel hat im Mobile Bereich mehr Cache gewinnt aber nur in wenigen Fällen.
Dort scheint der schnellere Ram Support Renoir zu helfen, wenn man im Desktop 20% mehr Bandbreite als mit dem 3700X fahren kann könnte es interessant werden.

MR2
2020-07-21, 15:03:14
Verdammt, Renoir nur für OEMs!

https://www.computerbase.de/forum/threads/ryzen-4000g-amd-bringt-renoir-apus-auf-den-desktop.1958998/

mboeller
2020-07-21, 15:05:13
https://www.notebookcheck.com/AMD-Ryzen-4000G-Die-bislang-schnellsten-Desktop-APUs-lassen-Intel-alt-aussehen.482500.0.html

https://www.notebookcheck.com/Die-AMD-Ryzen-Pro-4000G-Desktop-APUs-versprechen-bessere-Performance-und-Effizienz-fuer-Business-Kunden.482513.0.html

Pirx
2020-07-21, 15:07:29
ab sofort exklusiv für OEMs, später auch für Normalsterbliche(?)

M4xw0lf
2020-07-21, 15:07:45
Supermeeeeeeh :down:

r3ptil3
2020-07-21, 15:09:55
Mhm... enttäuschend.