Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
BoMbY
2019-10-07, 15:25:11
Weil man dann 100% von dem Anschluss ziehen kann, statt noch 35W über den PCIe-Slot zu saugen?
Linmoum
2019-10-07, 15:33:41
Schwache Kür von AMD: Selbst in den offiziellen Unterlagen kein Wort zu TDP, Preis & Termin:
https://www.computerbase.de/2019-10/amd-radeon-rx-5500-5500m/
TBP siehe Bomby, letzteres wird seinen Grund haben. Es gibt noch einen anderen Hersteller, der zeitnah eine aufgefrischte Super launcht. So lässt man sich nicht schon jetzt voll in die Karten gucken, AMD hat dazu gelernt. ;) Ich tippe mal auf einen Launch zum Ende des Monats bzw. Anfang November.
Unicous
2019-10-07, 15:37:01
Weil man dann 100% von dem Anschluss ziehen kann, statt noch 35W über den PCIe-Slot zu saugen?
Wie kommst du auf 35 Watt? Der Slot darf bis zu 75 Watt ziehen? Ein 8-Pin darf bis zu 150 Watt ziehen. Ein 6-Pin hätte vollkommen ausgereicht.
Brillus
2019-10-07, 15:50:25
Wie kommst du auf 35 Watt? Der Slot darf bis zu 75 Watt ziehen? Ein 8-Pin darf bis zu 150 Watt ziehen. Ein 6-Pin hätte vollkommen ausgereicht.
110-75=35 er schrieb doch alle Power über Stecker. Evtl. ist das von dem Layout einfacher.
Der_Korken
2019-10-07, 15:55:28
Hier gibt es ein paar Folien:
https://www.bug.hr/pc-komponente/radeoni-rx-5500-u-lovu-na-full-hd-igrace-11736
Auf dem schematischen Die-Shot sieht man 12 WGPs in 2x6er Gruppen. Ansonsten wurde das Frontend in der Mitte halbiert, d.h. das Ding sieht wie ein in der Mitte durchgeschnittener N10 aus, wo man den L1 und den Geometry-Kram für jedes Shader-Array an den Rand geschoben hat, damit eine sechste WGP reinpasst.
Unicous
2019-10-07, 16:02:08
110-75=35 er schrieb doch alle Power über Stecker. Evtl. ist das von dem Layout einfacher.
Habs falsch verstanden. Trotzdem ist es Quark. Man zieht immer etwas über den Slot, es ist also völlig egal. Es ist mMn unsinnig es nicht zu tun. Man kann mich gerne eines Besseren belehren, warum das eine gute Idee sein sollte.:uponder:
Locuza
2019-10-07, 16:05:13
https://pbs.twimg.com/media/EGR68qUW4AALhE1?format=jpg&name=large
Jep, aber anstatt schematische "die shots" anzuschauen, wären echte die-shots interessant.
Denniss
2019-10-07, 16:28:48
Mit dem 8pin ist man auf der sicheren Seite wenn Nutzer mal ein wenig am Takt spielen oder OEMs eine OC-Version rausbringen wollen ohne eine eigene Platine entwickeln zu müssen.
Wer erinnert sich nicht ans RX480gate wo die ein wenig zuviel aus dem PCIe-Sockel soff
BoMbY
2019-10-07, 16:38:40
Habs falsch verstanden. Trotzdem ist es Quark. Man zieht immer etwas über den Slot, es ist also völlig egal. Es ist mMn unsinnig es nicht zu tun. Man kann mich gerne eines Besseren belehren, warum das eine gute Idee sein sollte.:uponder:
Ich würde erwarten dass man standardmäßig primär die externe Versorgung auslastet, und die 12V über den Slot nur als sekundäre Quelle nutzt, weil dann IMHO weniger Störungen auf dem Bus zu erwarten sind.
Abgesehen davon könnte ich mir gut vorstellen dass irgendwelche billigen Boards mit billigen Netzteilen da Probleme bei der stabilen Spannungsversorgung über den Slot haben.
Natürlich geht immer ein wenig über den Slot, der liefert ja glaube ich auch 3,3 und/oder 5 Volt.
Unicous
2019-10-07, 16:42:40
Das kann doch nicht dein Ernst sein.:freak:
Seit 2003 gibt es x16er Slots und du willst mir erzählen, dass es Probleme "auf dem Bus" geben könnte?:rolleyes:
Der Slot ist dafür spezifiziert, hunderte Grafikkarten ziehen bis zu und manchmal über 75 Watt über den Slot und das seit ca. 16 Jahren. Auf einmal soll es dort Signalstörungen geben?:confused:
Come on, streng dich bitte mal ein wenig an.
BoMbY
2019-10-07, 16:53:13
Come on, streng dich bitte mal ein wenig an.
Standardmäßig werden bei AMD jedenfalls wohl weniger als 25 Watt über die 12V am Slot gezogen:
https://www.tomshardware.com/reviews/amd-radeon-vii-vega-20-7nm,5977-5.html
https://www.tomshardware.com/reviews/amd-radeon-rx_5700-rx_5700_xt,6216-4.html
Ich nehme an das werden die nicht ohne Grund tun.
Edit: Ahh, der Screenshot ist verwirrend. Bei der Radeon VII sind es auf jeden Fall <= 30W bei der RX 5700 tatsächlich fast 50W, was allerdings schon komisch im Vergleich wirkt
Setsul
2019-10-07, 16:56:10
Ich denke PCIe 1.0 ist minimal robuster in Sachen Störanfälligkeit als PCIe 4.0.
Bei der RX 480 wurde damals rumgeiert, also wieso das Risiko eingehen?
Über PEG dürfen nur 60W 12V gezogen werden, also 135W max. Das geht bei der Referenz noch, aber Factory-OC wirds langsam knapp. Spätestens bei 24 CU + OC müsste man dann entweder neuen PCB designen mit 8 pin oder die AIBs müssten es selbst machen, aber an AIB PCBs verdient AMD nichts.
Also wieso nicht gleich ein PCB den man die nächsten Jahre nicht mehr verändern muss? Da lohnt es sich dann kaum noch dumme Spielchen zu spielen und einen 6 pin Connector dort zu verlöten wo 8 Löcher sind, nur um zu zeigen wie effizient man ist.
dildo4u
2019-10-07, 16:59:42
Man bekommt NTs für um 30€ mit 8 Pin vermute mal das wird bei den meisten OEMs im Budget sein,schätze mal reine 6 Pin Modelle laufen langsam aus.
https://geizhals.de/silverstone-strider-essential-series-400w-atx-2-4-sst-st40f-es230-30286-a1484253.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=l
BoMbY
2019-10-07, 17:04:20
Und auch NVidia scheint nicht primär den Slot zu nutzen:
-> GTX 1660: 25W Slot, 100W Extern.
https://www.tomshardware.com/reviews/nvidia-geforce-gtx-1660-turing-tu116,6027-5.html
Unicous
2019-10-07, 17:27:30
Anekdotischer Beweis, bester Beweis.:rolleyes:
Je weniger die Karte insgesamt zieht desto weniger muss sie aus dem PEG ziehen. Warum das Mainboard unnötig belasten wenn es auch durch den Pin geht. Was denkst du passiert bei einer 75W Karte ohne Pin? Wird da auch maximal 25 Watt über den PEG gezogen?:facepalm:
Und btw:
https://www.tomshardware.com/reviews/geforce-gtx-1650-turing-gpu,6096-4.html
gravitationsfeld
2019-10-07, 17:47:33
Die Spannungsversorgung hat mit der Signalqualitate ueberhaupt nichts zu tun.
Hakim
2019-10-07, 17:47:49
~12% über 480 müsste in etwa RX590 Niveau haben, und die gibts schon für unter 200€. P/W dürfte so in dem Bereich GTX1060/1660 sein oder?
y33H@
2019-10-07, 17:51:16
Ich finde 110W erfreulich, hätte mehr erwartet.
Ich finde 110W erfreulich, hätte mehr erwartet.
Ernsthaft, fuer den P10 Nachfolger mit 7nm und halbiertem SI?
Naja, als Pessimist hat man's halt leicht...
basix
2019-10-07, 18:12:10
Das Ding wurde einfach für alle Fälle ausgelegt:
Selbstbau / OEM PC mit anständigem MoBo + 6-Pin PCIe Stecker
Selbstbau PC mit anständigem MoBo + 8-Pin PCIe Stecker --> OC / Custom Modelle
OEM PC mit schwachem / abgestripptem MoBo + 8-Pin PCIe Stecker --> geringere MoBo und / oder Netzteil Kosten
110W sind OK und liegen auf GTX 1660 (Ti) Level. Geschwindigkeit sollte etwa auf 1660 non-Ti Level liegen. Sieht doch gut aus, vor allem da die kleinen Turings ohne RTX kommen und nur 6GB Speicher mitbringen.
Eine noch kleinere GPU wird vermutlich nicht kommen. Eine RX 5300 oder so wird wohl mit Salvage Navi 14 bedient. 896-1024 CUs sind dort mehr als genug und lässt Raum für massive Resteverwertung (ist immerhin 7nm). Polaris 21 war ja 123mm2. Ich glaube irgendwie nicht an einen Polaris 12 / Lexa Ersatz, wenn die 7nm Designkosten so hoch sein sollen.
Loeschzwerg
2019-10-07, 18:20:50
Die Karte sitzt voraussichtlich zwischen den Stühlen (zwischen 1650 und 1660). Über Preis und mit 8GB kann man punkten.
BoMbY
2019-10-07, 18:27:52
Der Grund warum 25W über den Slot und 100W über einen 8-Pin zu bevorzugen sind ist vermutlich der, dass in der PCIe CEM 3.0 definiert ist, dass das genau dem Initial Power Draw entspricht:
https://i.imgur.com/9XEJIM4.png
Also eigentlich das garantierte Minimum. Alles andere ist Aushandlungssache, und zum Beispiel könnte das Mainboard mehr als 25W verweigern, weil das Power Budget ausgereizt ist, oder ähnliches.
dildo4u
2019-10-07, 18:28:36
110W sind OK und liegen auf GTX 1660 (Ti) Level. Geschwindigkeit sollte etwa auf 1660 non-Ti Level liegen. Sieht doch gut aus, vor allem da die kleinen Turings ohne RTX kommen und nur 6GB Speicher mitbringen.
Laut AMD Bench liegt sie nur 12% vor der 480,eine 1660 ist 30% schneller als eine 480.
basix
2019-10-07, 18:32:23
Laut AMD Bench liegt sie nur 12% vor der 480,eine 1660 ist 30% schneller als eine 480.
Ich weiss nicht von wo du die 30% hast, CB zeigt 22%. Sie wird ein wenig schneller sein ja, vielleicht 10%. Ist das jetzt falsch, wenn ich sage "in etwa"? Solche Leistungsdifferenzen wird man nämlich nicht bemerken. ;)
Der Grund warum 25W....
Also eigentlich das garantierte Minimum. Alles andere ist Aushandlungssache, und zum Beispiel könnte das Mainboard mehr als 25W verweigern, weil das Power Budget ausgereizt ist, oder ähnliches.
Bestätigt grundsätzlich meinen Post. OEM Bretter sind oftmals eine Katastrophe / voll kostenoptimiert designed.
deekey777
2019-10-07, 18:37:04
Will erster sein: Das ist bestimmt die Grafikkarte (5500M) des MacBook Pro! Potenziell. Eventuell.
dildo4u
2019-10-07, 18:41:17
RX570 zu 1660 über 30%.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-1920-1080
Dachte RX570 = 480 scheint aber nur im Timepsy der Fall zu sein.
https://www.guru3d.com/articles-pages/sapphire-radeon-rx-570-nitro-4gb-review,27.html
mczak
2019-10-07, 18:43:01
Typical Board Power (Desktop): 110 W
https://www.amd.com/en/products/graphics/amd-radeon-rx-5500
Wurde mittlerweile auf 150W geändert.
Da scheint es noch Unklarheiten zu geben (wird auch bei anandtech erwähnt).
Ehrlich gesagt würde ich 150W ziemlich traurig finden, 110W wären ok.
Loeschzwerg
2019-10-07, 18:46:10
@BoMbY: So ist das übliche Verhalten seit der 1.0er Spec. Hat sich auch nicht verändert.
A full-sized ×16 graphics card[15] may draw up to 5.5 A at +12 V (66 W) and 75 W combined after initialization and software configuration as a "high power device".
Mich stört es aber auch nicht wenn AMD hier mit einem 8 Pin kommt, das dürfte wenn dann die OEMs stören welche letztendlich andere Netzteile verbauen müssen.
Unicous
2019-10-07, 18:55:50
Der Grund warum 25W über den Slot und 100W über einen 8-Pin zu bevorzugen sind ist vermutlich der, dass in der PCIe CEM 3.0 definiert ist, dass das genau dem Initial Power Draw entspricht:
https://i.imgur.com/9XEJIM4.png
Also eigentlich das garantierte Minimum. Alles andere ist Aushandlungssache, und zum Beispiel könnte das Mainboard mehr als 25W verweigern, weil das Power Budget ausgereizt ist, oder ähnliches.
Bullshit. Das hat sich seit der 1.1 Spec nicht geändert. Alle Slots ob 1x, 4x, 8x, x16 haben festgelegte Modi für die Leistungsaufnahme. Ein x1 Slot ist bis zu 25W ausgelegt, standardmäßig aber auf 10W konfiguriert. x4/x8 sind auf 25W ausgelegt. x16 standardmäßig auf 25 Watt konfiguriert und kann auf 75 erweitert werden.
Sobald die GPU bei der Initialisierung 75 Watt anfordert stehen diese auch zur Verfügung. Nix Initial Power Draw.
Du hast treudoof "Initial Power Draw" gelesen, dabei aber überlesen was die Konditionen dafür sind: Sense0 und Sense1. Was sind Sense0 und Sense1? Die Pins bei 6-Pin und 8-Pin Steckern die der Grafikkarte sagen ob sie 75 Watt bzw. 150 Watt aus den Steckern ziehen dürfen.:rolleyes:
Und das hat rein gar nichts mit dem Slot zu tun.
Screemer
2019-10-07, 18:56:44
Gibt genug oem Kisten die nicht mehr als 25w über pcie-x16 bereitstellen. Scheiße egal ob die Karte im Slot mehr anfordert. Das ist doch überhaupt nicht diskussionswürdig.
Leonidas
2019-10-07, 18:57:13
~12% über 480 müsste in etwa RX590 Niveau haben, und die gibts schon für unter 200€. P/W dürfte so in dem Bereich GTX1060/1660 sein oder?
Ich würde die 3 Benchmarks gegenüber der RX480 besser nicht werten, die Ergebnisse sind etwas zu kurios. Die insgesamt 9 Benchmarks gegenüber GTX1650 ergeben einen solideren Schnitt. Prognose: +2-5% vor RX580.
Gibt genug oem Kisten die nicht mehr als 25w über pcie-x16 bereitstellen. Scheiße egal ob die Karte im Slot mehr anfordert. Das ist doch überhaupt nicht diskussionswürdig.
Hier liegt des Rätsels Lösung, warum 1x 8pin. Daneben kommen ja sowieso nur Customs - jeder der Hersteller kann an dem Punkt auch sparen.
Wurde mittlerweile auf 150W geändert.
Tatsächlich! Das wäre aber deutlich zuviel, wenn eine 5700 bei 180W steht.
Loeschzwerg
2019-10-07, 19:09:21
Gibt genug oem Kisten die nicht mehr als 25w über pcie-x16 bereitstellen. Scheiße egal ob die Karte im Slot mehr anfordert. Das ist doch überhaupt nicht diskussionswürdig.
Ja? Ich kenne spontan kein einziges, außer das Board bezieht "Saft" über einen Hohlstecker.
Letztendlich begrenzt hier bei normalen Consumer Mainboards das Netzteil. Das Mainboard stellt auch die Spannung nicht zur Verfügung, das geht 1:1 vom ATX (oder speziellen 12V Anschlüssen) weg, soweit mir bekannt.
dildo4u
2019-10-07, 19:12:33
Die 5700 boostet in Games nur bis 1.6Ghz die 5500 bis 1.7Ghz,da kommen die 150Watt schon hin und dann macht der 8 Pin auch deutlich mehr Sinn.
Berniyh
2019-10-07, 19:18:52
Wurde mittlerweile auf 150W geändert.
Da scheint es noch Unklarheiten zu geben (wird auch bei anandtech erwähnt).
Ehrlich gesagt würde ich 150W ziemlich traurig finden, 110W wären ok.
Nicht nur das, da steht auch "max. 4GB".
basix
2019-10-07, 19:21:43
Student am Werk. Salami-Verwirrungstaktik. Name it :D
150W kann ich mir nicht vorstellen. Bei der 5500 XT vielleicht schon, wenn man sich der 1660 Ti annähern will. Selbst die 5700XT hat nur 225W TBP.
Linmoum
2019-10-07, 19:23:07
Die 5700 boostet in Games nur bis 1.6Ghz die 5500 bis 1.7Ghz,da kommen die 150Watt schon hin und dann macht der 8 Pin auch deutlich mehr Sinn.Nein, sie kommen auch dann nicht hin. AMD selbst vergleicht auf einer Folie 5500 (4GB) und 480 (8GB) und spricht von einem 30% geringerem Verbrauch. Das passt zu den ursprünglich genannten 110 TBP wunderbar, wenn man die Referenz 480 mit ihren rund 160W als Grundlage nimmt.
Leonidas
2019-10-07, 19:26:01
Nicht nur das, da steht auch "max. 4GB".
.... und ein anderer "Game-Takt" als in der offiziellen Folie. Alles noch sehr durcheinander.
basix
2019-10-07, 19:26:47
Nein, sie kommen auch dann nicht hin. AMD selbst vergleicht auf einer Folie 5500 (4GB) und 480 (8GB) und spricht von einem 30% geringerem Verbrauch. Das passt zu den ursprünglich genannten 110 TBP wunderbar, wenn man die Referenz 480 mit ihren rund 160W als Grundlage nimmt.
RX 480 hat hochoffiziell 150W. Real etwas mehr ;)
BoMbY
2019-10-07, 19:30:07
Bullshit. Das hat sich seit der 1.1 Spec nicht geändert. Alle Slots ob 1x, 4x, 8x, x16 haben festgelegte Modi für die Leistungsaufnahme. Ein x1 Slot ist bis zu 25W ausgelegt, standardmäßig aber auf 10W konfiguriert. x4/x8 sind auf 25W ausgelegt. x16 standardmäßig auf 25 Watt konfiguriert und kann auf 75 erweitert werden.
Sobald die GPU bei der Initialisierung 75 Watt anfordert stehen diese auch zur Verfügung. Nix Initial Power Draw.
Du hast treudoof "Initial Power Draw" gelesen, dabei aber überlesen was die Konditionen dafür sind: Sense0 und Sense1. Was sind Sense0 und Sense1? Die Pins bei 6-Pin und 8-Pin Steckern die der Grafikkarte sagen ob sie 75 Watt bzw. 150 Watt aus den Steckern ziehen dürfen.:rolleyes:
Und das hat rein gar nichts mit dem Slot zu tun.
Hast Du die Specs überhaupt schonmal gesehen?
Aus der PCI Express® Card Electromechanical Specification Revision 3.0:
https://i.imgur.com/qSJ3Att.png
Und aus der PCI Express® Base Specification Revision 3.0:
https://i.imgur.com/3KMYYq2.png
Linmoum
2019-10-07, 19:32:31
RX 480 hat hochoffiziell 150W. Real etwas mehr ;)Deswegen ja auch meine 160W. :D
Aber ja, das ist gerade irgendwie verwirrend. Mit 30% geringerem Verbrauch ggü. einer 480 kann die 5500 schlicht keine 150W haben. Und dafür hätte AMD als Vergleich dann auch eine 480-Custom mit über 200W nehmen müssen, damit das überhaupt annähernd hinhauen würde. Auf den Folien steht zudem 1717MHz Game Clock, auf der Produktseite ist der Game Clock mit 1845MHz (max. Boost auf den Folien) angegeben. Der Boost hingegen mit deutlich niedrigeren 1670MHz, die nichtmals auf den Folien auftauchen. Dasselbe beim Speicher: Folien "up to 8GB", Produktseite "max. 4GB".
Man sollte der Putzfrau keinen Zugang zu solchen Dingen geben. ;)
Unicous
2019-10-07, 19:54:40
@BoMbY
Du zitierst es, aber weißt du auch was es bedeutet?:uponder:
Berniyh
2019-10-07, 20:46:55
.... und ein anderer "Game-Takt" als in der offiziellen Folie. Alles noch sehr durcheinander.
Also PR-technisch ist das mal wieder eine mittlere Katastrophe was AMD hier abliefert.
Da weiß offensichtlich mal wieder die eine Hand nicht was die andere tut und alle arbeiten aneinander vorbei.
Screemer
2019-10-07, 22:03:16
Ja? Ich kenne spontan kein einziges, außer das Board bezieht "Saft" über einen Hohlstecker.
Na dann schau Mal in die Handbücher von dell, Lenovo und Acer. Das Netz ist voll von Leuten die sich Karten suchen müssen die max. 25w aus dem pcie ziehen damit sie in ihrem oem-Krempel läuft: https://www.google.com/search?q=pcie+only+25w+gpu&oq=pcie+only+25w+gpu&aqs=chrome..69i57.9465j0j7&client=ms-android-google&sourceid=chrome-mobile&ie=UTF-8. Ob das jetzt am Board und seiner Power-Distribution oder am NT liegt kann ich dir nicht sagen. Hab da nach etwas Kopfschütteln nicht weiter recherchiert.
Die Diskussion gab's zur Veröffentlichung der 480 zur genüge.
Liegt unicous richtig, dann halten sich die OEMs schlicht nicht an die pcie spec und durften da ja reihenweise keine Zertifizierung bekommen.
BoMbY
2019-10-07, 22:11:52
Laut der CIMManifest.xml vom 19.10.1 Treiber ist die "Radeon RX 5500" gleich "Navi14 XT" (Revision ID: 0xC7) und die "Radeon RX 5500M" ist "Navi14 XTM" (Revision ID: 0xC1)
dildo4u
2019-10-07, 22:16:22
Anandtech wurden auch ausdrücklich 150 TDP gesagt.
Finally, while it’s not listed in AMD’s official tables, the company has told me that the TGP for these cards will be 150W. This surprised me a bit, and I’m curious to see if AMD is just being conservative here for OEMs, or if real-world power consumption really will be that high. To put things in perspective here, the Radeon 5700 (vanilla) is a 180W card, so a 150W TGP is only around 17% lower than the next card up in AMD’s stack, for a performance difference I expect to be greater than that. Or, looking at last-generation cards, this would give the RX 5500 series a TGP comparable to the Radeon RX 480 & 570. If these TGPs are accurate, then this may be another case of AMD favoring absolute performance over performance efficiency for their mainstream parts, which was also the case with the high-end Radeon RX 500 series cards in the previous generation.
https://www.anandtech.com/show/14949/amd-announces-radeon-rx-5500-series-for-desktop-and-mobile
Könnte es nicht auch sein das damit 8GB Versionen gemeint sind und die mit 4GB weniger nehmen?
480 8GB vs 5500 4GB würden dann vielleicht Sinn machen mit den 30% weniger Verbrauch.
BoMbY
2019-10-07, 22:17:22
@BoMbY
Du zitierst es, aber weißt du auch was es bedeutet?:uponder:
Scheinbar besser als Du. Vielleicht solltest Du nochmal ein bisschen Englisch Nachhilfe nehmen?
Keine PCIe-Karte darf mehr Strom ziehen als das Mainboard erlaubt, oder was als Startup-Power in der Spec steht. Offensichtlich scheint es da irgendwelche Verständnisprobleme bei Dir zu geben?
Unicous
2019-10-07, 22:31:21
@Screemer
Meine Güte, so schwer ist das doch nicht. Dann sind es keine x16 Slots sondern x8 Slots. Ganz einfach.:rolleyes:
Und ja, du hast vollkommen recht, wenn ein PEG-Slot als x16 angepriesen wird aber nur 25W liefert, dann ist der Slot nicht spec-konform.
Ich hab mir übrigens mal ein paar Einträge durchgelesen. Einige verstehen nicht, dass ein x16-Slot 75W liefern kann, andere wiederum wollen bei einem OEM-PC eine nicht konforme GPU installieren, die über der TDP des Systems liegt. WTF?:freak:
Sollte doch logisch sein, wenn da eine 40 Euro 25 Watt GPU drin steckt, dass man auf Probleme treffen kann wenn man versucht diese mit einer GPU mit der zigfachen TDP auszutauschen.
Mit Google-Ergebnissen umherwerfen kann ich auch. ;)
edit:
@BoMbY
Klar gib mir gerne Nachhilfe. Bitte übersetze und zeige mir wo steht, dass das MB die Vorgaben macht und nicht die Karte selbst. Denn in dem von dir zitierten steht nicht das was du gerade behauptest. ;)
mczak
2019-10-07, 22:36:06
Könnte es nicht auch sein das damit 8GB Versionen gemeint sind und die mit 4GB weniger nehmen?
4 vs 8 GB sollte fast nichts ausmachen. Wenn das 4 16 Gb statt 8 Gb Chips sind sollte der Unterschied wohl praktisch inexistent sein. Sind es stattdessen 8 8 Gb Chips (die 16 Gb Chips sind wohl noch teuer?) dürfte der Unterschied etwas grösser sein aber imho auch höchstens im einstelligen Wattbereich liegen.
Screemer
2019-10-07, 22:42:35
Du hast den korrekten Begriff ja schon genannt. Peg ist aber halt nicht pcie x16.
BoMbY
2019-10-08, 01:03:49
@BoMbY
Klar gib mir gerne Nachhilfe. Bitte übersetze und zeige mir wo steht, dass das MB die Vorgaben macht und nicht die Karte selbst. Denn in dem von dir zitierten steht nicht das was du gerade behauptest. ;)
"The Power Budget Capabilities register-set, as defined in the PCI Express Base Specification, Revision 3.0, shall be implemented for (1) cards capable of using more power than initially allowed at power-up (see Section 4.2), and (2) cards utilizing auxiliary power connections (150 W, 225 W, 300 W, etc.)."
"The power budget manager is responsible for allocating all PCI Express devices including system board devices that have the Power Budgeting Capability and have the System Allocated bit Clear. The power budget manager is responsible for determining if hot-plugged devices can be budgeted and enabled in the system."
"Power limits on the platform are typically controlled by the software (for example, platform firmware) that comprehends the specifics of the platform such as:
Partitioning of the platform, including slots for I/O expansion using adapters
Power delivery capabilities
Thermal capabilities
This software is responsible for correctly programming the Slot Power Limit Value and Scale fields of the Slot Capabilities registers of the Downstream Ports connected to slots."
reaperrr
2019-10-08, 02:47:11
Seltsame Karte. Kein Vollausbau obwohl es intern N14XT ist, kommt da irgendwann evtl. noch ein N14XTX der als 5500XT vermarktet wird? Ich glaube ehrlich gesagt nicht so recht dran, scheint wieder so ein Fall wie bei der RX 460 zu werden.
Normal hätte AMD mit dem Chip wenigstens auf 1660-non-Ti/S-Niveau landen müssen, Vollausbau hätte mehr ALUs und ggü. vanilla-1660 auch Bandbreite gehabt.
TDP auch ziemlich enttäuschend, selbst wenn der Realverbrauch nur ~110-120W sein sollte.
Eine mögliche Erklärung für das Ganze: Die inzwischen knappen 7nm-Kapazitäten zwingen AMD, die Nachfrage nach dem vermutlich unlukrativsten, unwichtigsten 7nm-Chip künstlich auf eher niedrigem Level zu halten, und sich erstmal nur auf OEMs zu konzentrieren, wo 2 CUs mehr oder weniger nicht so entscheidend sind wie der Preis und die Stückzahlen.
Loeschzwerg
2019-10-08, 07:06:55
Na dann schau Mal in die Handbücher von dell, Lenovo und Acer. Das Netz ist voll von Leuten die sich Karten suchen müssen die max. 25w aus dem pcie ziehen damit sie in ihrem oem-Krempel läuft: https://www.google.com/search?q=pcie+only+25w+gpu&oq=pcie+only+25w+gpu&aqs=chrome..69i57.9465j0j7&client=ms-android-google&sourceid=chrome-mobile&ie=UTF-8. Ob das jetzt am Board und seiner Power-Distribution oder am NT liegt kann ich dir nicht sagen. Hab da nach etwas Kopfschütteln nicht weiter recherchiert.
Schau, das sind doch überwiegend SFF PCs mit genau abgesteckten thermischen Limits und haargenau dimensionierten Netzteilen. Natürlich schreiben die OEMs das so da rein, da je nach verbauten Komponenten das Netzteil eben nicht ausreicht und/oder thermische Kollaps vorprogrammiert ist.
Im Falle der 5500 spielt es keine Rolle ob AMD nun 75W PCIe + 6 Pin verbaut hätte, auch diese fiktive Variante der 5500 würde die Specs des SFF PCs / OEM PCs reißen.
Wie gesagt, ich habe keinen Schmerz damit wenn AMD einen 8 Pin verbaut (mit den teilweise genannten 150W erklärt sich das auch von selbst), aber die Argumentation, von wegen es läge am PCIe Slot... sorry, aber das ist einfach nur Mist.
Ne 5600 wird Vollausbau sein. Dafür braucht man wahrscheinlich aber 16 oder 18GT GDDR6, was AMD wohl einfach nicht günstig bekommen hat momentan. Also verschiebt man das eben ein bisschen.
wird bald Raytracing-Support (erstmal ohne Hardwareeinheiten) auf Navi aktiviert? https://www.tweaktown.com/news/68087/amd-navi-gpus-rumored-ray-tracing-support-december/index.html
horn 12
2019-10-12, 07:41:03
Ausschliesslich Navi, obwohl es auf Vega/VII mit HBM sicherlich mehr bringen dürfte.
Architektur Bedingt sei mal dahingestellt.
Alles was Navi bekommen hat ist mit Vega in Einzug gebracht worden.
Und läuft dabei noch runder.
Brillus
2019-10-12, 10:17:21
Ausschliesslich Navi, obwohl es auf Vega/VII mit HBM sicherlich mehr bringen dürfte.
Architektur Bedingt sei mal dahingestellt.
Alles was Navi bekommen hat ist mit Vega in Einzug gebracht worden.
Und läuft dabei noch runder.
Genau, viel runder wie z.b. das neue Geometrie pipeline die in Bega nie aktiviert wurfe aber in Navi. Bleib doch bitte mal bei den Tatsachen.
dildo4u
2019-10-19, 06:42:47
5500M Benches gegen 1650 und 1660 Ti.
https://www.notebookcheck.net/MSI-Alpha-15-Welcome-to-the-era-of-7nm-laptop-gaming.437545.0.html
Leonidas
2019-10-19, 06:59:12
5500M Benches gegen 1650 und 1660 Ti.
https://www.notebookcheck.net/MSI-Alpha-15-Welcome-to-the-era-of-7nm-laptop-gaming.437545.0.html
... von MSI, nicht von Notebookcheck. MSI hatte ironischerweise keine rote Farbe für ihre Balkendiagramme, die haben überall grün benutzt.
reaperrr
2019-10-19, 12:56:04
... von MSI, nicht von Notebookcheck. MSI hatte ironischerweise keine rote Farbe für ihre Balkendiagramme, die haben überall grün benutzt.
Also die Asus-Balken sehen für mich eher grau aus...
Das Konkurrenzmodell von Asus mit der 1660 Ti hat übrigens nur die Max-Q Variante, was auch erklärt warum der Vorsprung zur mobilen 1650 so gering ist.
Also 5500M mit 85W TDP nur hauchdünn vor 1660Ti-MaxQ mit 60W TGP. Eher mau. Schade, aber zumindest für mehr Design-Wins als mit Polaris/Vega sollte es reichen (was natürlich keine Herausforderung ist...).
Also 5500M mit 85W TDP nur hauchdünn vor 1660Ti-MaxQ mit 60W TGP. Eher mau. Schade, aber zumindest für mehr Design-Wins als mit Polaris/Vega sollte es reichen (was natürlich keine Herausforderung ist...).
Für einen Fertigungsvorteil ist das nicht nur mau, das kann man ruhig als schwach und besorgniserregend bezeichnen. Da bräuchte Nvidia nur die TDP auf 85W hochziehen und wäre schneller trotz fullnode hinterher und "alter" Architektur.
robbitop
2019-10-19, 18:38:58
Wie so oft: Betriebspunkt. 22 CUs sind für eine 1660ti etwas zu wenig so dass man dann sicher den Takt hochprügeln muss. Jeder kennt die Spannungs/frequenzkurven. Das wird schnell nicht-proportional und damit ineffizient.
Sagt IMO nichts über die Navi uArch aus.
Gerade die MaxQs liegen ja oft auf Kosten von etwas Takt auf besonders guten Betriebspunkten.
So ein Fertigungsvorteil ist mit einem leicht ungünstigen Betriebspunkt ganz schnell mit dem Hintern eingerissen...
w0mbat
2019-10-19, 19:30:13
Für einen Fertigungsvorteil ist das nicht nur mau, das kann man ruhig als schwach und besorgniserregend bezeichnen. Da bräuchte Nvidia nur die TDP auf 85W hochziehen und wäre schneller trotz fullnode hinterher und "alter" Architektur.
Vor allem verbraucht die kleine Navi im Vergleich zu Navi10 auch extrem viel. Die Frage ist wieso?
reaperrr
2019-10-19, 20:48:50
Vor allem verbraucht die kleine Navi im Vergleich zu Navi10 auch extrem viel. Die Frage ist wieso?
Meine Vermutung: Aus Yieldgründen und weil der Perf-Vorteil die zusätzlichen Binning- und Marketingkosten nicht wert wäre, wird innerhalb der 5000er Serie der 22CU-N14 die einzige SKU bleiben, ähnlich wie P11 in der 400er Gen nur mit 14 CUs kam.
Dadurch hat man aber scheinbar das Problem, dass man die 5500 im Vergleich zur 5700XT, die ja auch schon nicht sparsam ist für einen Chip dieser Größe, nicht so aggressiv binnen kann was Takt/Voltage angeht, da möglichst jeder N14 die Taktraten der 5500 stabil schaffen können soll.
Ich würde tippen, dass die 5500 (Desktop) auf der Takt-/Spannungskurve der 5700 auch "nur" ~110W verbrauchen würde, was zum Verhältnis der (aktiven) CUs passen würde (61% der 5700).
Und so gesehen schafft die 5500M es ja auch, mit nur ~200 MHz geringerem Durchschnitts-Takt als eine 5700 den Verbrauch ggü. der Desktop-5500 um ~44% zu senken.
Nur war die Art von Perf/W bei NV schon weitgehend mit Pascal in 16nm möglich...
robbitop
2019-10-19, 21:00:31
Ich denke mit besserem Binning und günstigerem Betriebspunkt würde deutlich mehr Perf/W gehen.
Berniyh
2019-10-22, 20:31:26
pal hat ein Update bekommen und hier taucht zum (meines Wissens) ersten Mal eine Navi22 GPU auf:
https://github.com/GPUOpen-Drivers/pal/blob/dev/src/core/imported/addrlib/src/amdgpu_asic_addr.h#L111
#if ADDR_NAVI22_BUILD
#define AMDGPU_NAVI22_RANGE 0x32, 0x3C
#endif
#if ADDR_NAVI23_BUILD
#define AMDGPU_NAVI23_RANGE 0x3C, 0x46
#endif
Interessant ist auch, dass NAVI12 und NAVI21 an einer Stelle mit dem Zusatz _LITE versehen sind, z.B. hier:
https://github.com/GPUOpen-Drivers/pal/blob/dev/src/core/hw/gfxip/gfx9/chip/gfx10_merged_sdma_packets.h#L285
#if CHIP_HDR_NAVI12_LITE || CHIP_HDR_NAVI21_LITE || CHIP_HDR_NAVI_LITE
struct
{
unsigned int count : 22;
unsigned int : 10;
} gfx10Bard;
#endif // CHIP_HDR_NAVI12_LITE || CHIP_HDR_NAVI21_LITE || CHIP_HDR_NAVI_LITE
Ich hab keine Ahnung, wie das einzuordnen ist und hab auch keine Ahnung, was sich hinter "Navi Lite" versteckt.
Normalerweise würde man eine kleinere Variante erwarten, aber ohne Zuordnung zu einer bestehenden GPU?
Das Einzige (unabhängige, gibt schon diverse Artikel, die die originale Hinzufügung des LITE Codes referenzieren) was ich in dem Zusammenhang finden konnte war dieses Gerücht, welches mutmaßt, dass das in Zusammenhang zu den kommenden Konsolen stehen könnte:
https://hexus.net/tech/news/cpu/126623-amd-gonzalo-apu-spotted-zen-2-plus-navi-10-lite/
Wirklich weiter hilft das aber auch nicht.
Berniyh
2019-10-28, 17:59:47
Kann jemand etwas hiermit anfangen?
drm/amd/display: Update min dcfclk
[Why]
NV12 has lower min dcfclk
[How]
Add update in update_bounding_box
[...]
- else
- // Accounting for SOC/DCF relationship, we can go as high as
- // 506Mhz in Vmin. We need to code 507 since SMU will round down to 506.
- min_dcfclk = 507;
+ else {
+ if (ASICREV_IS_NAVI12_P(dc->ctx->asic_id.hw_internal_rev))
+ min_dcfclk = 310;
+ else
+ // Accounting for SOC/DCF relationship, we can go as high as
+ // 506Mhz in Vmin.
+ min_dcfclk = 506;
+ }
Mir ist hier nicht klar was DCF bedeutet.
Übrigens ist im Treibercode die Rede von Navi 10 "XL" (=5700?), "XT" (=5700XT?) und auch "XTX" (=5700XT 50th Ann. Ed.?).
Genauso Navi 14 XL, XLM, XT, XTM und XTX.
Bislang sind ja nur die XL (5500?) und XLM (5500M?) bekannt, XT und XTM werden erwartet.
Demnach würde aber auch noch eine "Spezialversion" (d.h. XTX o.ä.) kommen?
https://cgit.freedesktop.org/~agd5f/linux/tree/drivers/gpu/drm/amd/powerplay/navi10_ppt.c?h=amd-staging-drm-next#n1486
Fand ich ganz interessant. ;)
BoMbY
2019-10-28, 18:37:21
DC ist vermutlich Display Controller.
Berniyh
2019-10-28, 19:28:23
Möglich.
Könnte sich auch auf den Treiberstack beziehen, denn AMD bezeichnet den Display Teil als "DC" (=Display Core oder Display Code, wenn ich mich recht entsinne, ursprünglich DAL=Display Abstraction Layer).
Da sich SOC aber vermutlich auf System-on-Chip (wie üblich) bezieht vermute ich, dass es ein HW Teil der CPU ist und nicht ein Teil des Treibers.
Display Controller wäre da ein Kandidat, aber was dann das F bedeutet? Evtl. Frequency?
Aber "Display Controller Frequency Clock" klingt auch irgendwie wieder absurd?
Letztendlich kann man bzgl. Navi12 eh nicht viel raus ziehen, außer dass es wieder unterstreicht, dass Navi12 sich von Navi10/14 schon etwas mehr unterscheidet als die beiden untereinander.
BoMbY
2019-10-28, 20:55:36
AMD kennt da eine Menge verschiedene Clocks:
static struct smu_11_0_cmn2aisc_mapping navi10_clk_map[SMU_CLK_COUNT] = {
CLK_MAP(GFXCLK, PPCLK_GFXCLK),
CLK_MAP(SCLK, PPCLK_GFXCLK),
CLK_MAP(SOCCLK, PPCLK_SOCCLK),
CLK_MAP(FCLK, PPCLK_SOCCLK),
CLK_MAP(UCLK, PPCLK_UCLK),
CLK_MAP(MCLK, PPCLK_UCLK),
CLK_MAP(DCLK, PPCLK_DCLK),
CLK_MAP(VCLK, PPCLK_VCLK),
CLK_MAP(DCEFCLK, PPCLK_DCEFCLK),
CLK_MAP(DISPCLK, PPCLK_DISPCLK),
CLK_MAP(PIXCLK, PPCLK_PIXCLK),
CLK_MAP(PHYCLK, PPCLK_PHYCLK),
};
dildo4u
2019-11-01, 12:58:20
Erster RX5500m Test: https://www.notebookcheck.com/MSI-Alpha-15-Gaming-Laptop-im-Test-Ryzen-und-Navi-statt-Intel-und-Nvidia.440072.0.html
Ich rechne jetzt damit das es eine 150€ Desktop GPU wird,ist natürlich leicht die 1650 zu schlagen die Frage ist was passiert wenn das Super Modell erscheint.
Brillus
2019-11-01, 14:07:25
Erster RX5500m Test: https://www.notebookcheck.com/MSI-Alpha-15-Gaming-Laptop-im-Test-Ryzen-und-Navi-statt-Intel-und-Nvidia.440072.0.html
Ich rechne jetzt damit das es eine 150€ Desktop GPU wird,ist natürlich leicht die 1650 zu schlagen die Frage ist was passiert wenn das Super Modell erscheint.
Kann jemand das in den Vergleich zu einer Radeon 560m setzen wieviel % mehr Speed wära da ca zu erwarten?
MSABK
2019-11-01, 14:17:40
Erster RX5500m Test: https://www.notebookcheck.com/MSI-Alpha-15-Gaming-Laptop-im-Test-Ryzen-und-Navi-statt-Intel-und-Nvidia.440072.0.html
Ich rechne jetzt damit das es eine 150€ Desktop GPU wird,ist natürlich leicht die 1650 zu schlagen die Frage ist was passiert wenn das Super Modell erscheint.
Der Stromverbrauch scheint mir schon sehr hoch zu sein im Vergleich zur Nvidia Karte.
reaperrr
2019-11-01, 15:19:23
Ich rechne jetzt damit das es eine 150€ Desktop GPU wird,ist natürlich leicht die 1650 zu schlagen die Frage ist was passiert wenn das Super Modell erscheint.
Du kannst von der Mobile-Variante nicht auf die Desktop-Variante schließen, im Desktop kann man die schlechtere Effizienz durch ne höhere TDP kompensieren, im Notebook ist das schwieriger.
Die Desktop-5500 wird ca. auf dem Niveau der alten 1660 landen (vielleicht minimal langsamer), und damit IMO gleichauf mit oder hauchdünn vor der 1650 Super, die NV mMn nicht unter 179 € anbieten wird.
Also alles unter 180€ wäre IMO ne positive Überraschung, zum einen weil sowohl TU116 als auch N14 in der Herstellung viel teurer sind als TU117 und Polaris30, zum anderen weil das P/L-Verhältnis sonst "zu gut" im Vergleich zur 1660 Super wäre, die wird NV nicht kannibalisieren wollen und AMD braucht die Marge, wird NV also auch wenn, dann nur unwesentlich unterbieten.
Berniyh
2019-11-01, 17:22:54
u/_rogame hat auf Reddit einen Code Abschnitt aus dem SMU Treiber für Navi referenziert, welcher auf eine mögliche Dual GPU Konfiguration hindeuten könnte:
https://www.reddit.com/r/Amd/comments/dq3h3r/possible_navi_10_dual_gpu/
Link zum Code Abschnitt:
https://cgit.freedesktop.org/~agd5f/linux/tree/drivers/gpu/drm/amd/powerplay/inc/smu11_driver_if_navi10.h?h=amd-staging-drm-next#n64
Dabei sollte man bedenken, dass es sich nicht zwangsläufig um Dual Navi10 handeln muss, sondern vermutlich eher Navi1x, z.B. 2×Navi12 (davon ausgehend, dass das der High-End Chip ist).
Zumindest scheint Navi jedenfalls für eine derartige Konfiguration vorbereitet zu sein. Ob es das dann auch in ein Produkt schafft ist natürlich wieder eine andere Frage.
Edit: und es könnte auch sein, dass Navi12 genau das ist: Dual Navi10 mit 2048bit HBM2?
In dem Fall wäre ein relativ kurzer Zeitraum (6 Monate) zwischen Navi12 und Navi2x wieder realistischer.
robbitop
2019-11-01, 17:54:45
Für moderne Renderpipelines von Spielen wäre das relativ sinnfrei. Es gibt noch keine effektive und effiziente Möglichkeit mehrere GPUs transparent zur 3D Anwendung einzusetzen, so dass es weder Schwierigkeiten mit der Skalierung der Leistung noch Kompatibilität gibt.
Ich denke, dass beide IHVs daran forschen. NV hat ja mal ein Paper dazu veröffentlicht.
Die SW Lösungen hingegen kann man vergessen: Bedarf expliziter Unterstützung damit es gut läuft. Ist zu nischig, damit es entsprechende Unterstützung seitens der Entwickler in voller Breite gibt. Zufriedenstellend wäre es nur wenn es out of the box mit allen Anwendungen läuft.
Insofern: Für Gamingprodukte eher nein.
amdfanuwe
2019-11-01, 21:03:56
Würde eine dual GPU Lösung was in VR bringen?
robbitop
2019-11-01, 21:17:16
Nicht transparent zur Anwendung aber beide IHVs haben dafür mGPU Ansätze, den die Devs unterstützen können. Dort weniger komplex da zwei unabhänige Blickwinkel und somit eigene Geometrie.
Wie gut da der Support aktuell ist:kA
Berniyh
2019-11-01, 22:53:32
Es ist ja auch nicht gesagt, dass da wirklich ein (Gaming)Produkt daraus wird, nur weil da was im Treiber steht.
Vega12 wird da auch an vielen Stellen erwähnt (und auch immer wieder aktualisiert), obwohl es da nie ein Produkt gab (zumindest nicht für Enduser).
Abgesehen davon: könnte man nicht gerade für Raytracing auch an Dual GPU denken?
Also, dass man die zweite GPU hauptsächlich dafür nutzt um so den Performance Impact zu reduzieren?
robbitop
2019-11-02, 04:58:51
Gleiche Restriktionen gelten für RT.
Leonidas
2019-11-02, 05:42:54
Insofern: Für Gamingprodukte eher nein.
Eher denn: Ganz nein.
AMD hat sich aus dem Themenkomplex CrossFire doch komplett zurückgezogen - was sinnfrei wäre, wenn man es jetzt wiederbeleben wollte. Und alle HW-internen Lösungen sind noch nicht so weit.
Das stimmt doch gar nicht. AMD hat noch jede Generation eine Karte mit 2 GPUs gebracht. Es gab selbst Karten mit 2xP10. Zuletzt wieder 2xV20 (Apple). Klar, dass darauf nicht gespielt wird, aber offenbar wird es immer noch nachgefragt.
][immy
2019-11-02, 11:21:24
Das stimmt doch gar nicht. AMD hat noch jede Generation eine Karte mit 2 GPUs gebracht. Es gab selbst Karten mit 2xP10. Zuletzt wieder 2xV20 (Apple). Klar, dass darauf nicht gespielt wird, aber offenbar wird es immer noch nachgefragt.
Das hat aber nichts mit Crossfire zu tun. Berechnungen, ja die kann man auf x GPUs relativ Problemlos schicken. Aber keine Echtszeitberechnungen von einem Spiel. Crossfire war immer eine Spiele-Feature und nichts für den Professionellen Einsatz.
Im Serverbereich verwendet man ja auch x Grafikkarten von nvidia, nur man lässt sie halt nicht zusammen an einem Frame rechnen sondern jeder Kern führt seine eigenen Berechnungen durch und eventuell werden die Ergebnisse am Ende zusammengefasst oder nicht. Mit SLI hat das allerdings absolut nichts zu tun.
Die Multi-GPU Ansteuerung ist ja auch in DX12 vertreten, aber rate mal wie viele Studios sich den Aufwand aufgehalst haben, das zu integrieren. Sogar Physx über die GPU ist mehr oder minder tot und das ließ sich noch relativ Problemlos auf eine andere GPU auslagern. Macht aber einfach keinen Sinn mehr.
[immy;12132889']Das hat aber nichts mit Crossfire zu tun.
Kontext gelesen?
0. Dual-GPU?
1. Fuer gaming eher nein.
2. Ganz nein.
3. (ich): vielleicht doch
Olliver
2019-11-04, 10:18:06
Eventuell könnte man GPU´s so skalierbar machen, das Kerne als Chips auf der Karte addiert werden und ohne SLI oder Crossfire wie eine GPU zusammenarbeiten.
Olliver
2019-11-04, 10:22:51
"Die Multi-GPU Ansteuerung ist ja auch in DX12 vertreten, aber rate mal wie viele Studios sich den Aufwand aufgehalst haben, das zu integrieren.",
das war ja zu erwarten, man hätte Nvidia und AMD gleichzeitig benutzen können,
da könnten weder die grünen, noch die roten Männchen Nachts noch ruhig schlafen.
unl34shed
2019-11-04, 10:35:00
Hab es da neben ashes überhaupt eine zweite Implementierung?
Olliver
2019-11-04, 10:38:39
Hab es da neben ashes überhaupt eine zweite Implementierung?
Funktioniert das wirklich mit Ashes, also Multi GPU über directX 12, ohne SLI oder Crossfire?
pilzsammler2002
2019-11-04, 10:45:45
Funktioniert das wirklich mit Ashes, also Multi GPU über directX 12, ohne SLI oder Crossfire?
Ja :)
Gab sogar Tests dazu:
https://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/
Nakai
2019-11-04, 11:49:13
Das muss nix mit Multi-GPU fürs Gaming zu tun haben:
//Gemini Modes
#define PPSMC_GeminiModeNone 0 //Single GPU board
#define PPSMC_GeminiModeMaster 1 //Master GPU on a Gemini board
#define PPSMC_GeminiModeSlave 2 //Slave GPU on a Gemini board
Für GPGPU sind Multi-GPUs schon ganz normal. Ansonsten Slave GPU kann auch was mit Infinity Fabric zu tun haben. MCMs mit CPU, IO-Die und GPU+HBM.
Brillus
2019-11-04, 12:55:30
Hab es da neben ashes überhaupt eine zweite Implementierung?
Glaub noch irgend ein Civ kann es auch.
Berniyh
2019-11-04, 21:12:37
Das muss nix mit Multi-GPU fürs Gaming zu tun haben:
//Gemini Modes
#define PPSMC_GeminiModeNone 0 //Single GPU board
#define PPSMC_GeminiModeMaster 1 //Master GPU on a Gemini board
#define PPSMC_GeminiModeSlave 2 //Slave GPU on a Gemini board
Für GPGPU sind Multi-GPUs schon ganz normal. Ansonsten Slave GPU kann auch was mit Infinity Fabric zu tun haben. MCMs mit CPU, IO-Die und GPU+HBM.
Du meinst für APUs? Also CPU als Master, GPU als Slave?
Dagegen spräche, dass es bei (noch) Vega keine derartigen Einträge gibt.
BoMbY
2019-11-04, 21:47:19
Gibts auch bei Fiji zum Bleistift:
https://cgit.freedesktop.org/~agd5f/linux/tree/drivers/gpu/drm/amd/powerplay/inc/fiji_ppsmc.h?h=amd-staging-drm-next#n80
spotz
2019-11-05, 06:08:37
Für wie wahrscheinlich haltet ihr es das die RX 5300 als 75 Watt Version erscheint, also ohne zusätzliche Stromversorgung wie die GTX 1650 auskommt?
Ich denke, das ist recht wahrscheinlich. Auch wenn die meisten Karten glaube ich einen Stecker brauchten, gab es mit P11 (selbst als RX560) immer auch welche ohne.
Ich faende fuer Workstations immer noch eine guenstige sehr sparsame Karte mit >1DP interessant. Mal schauen, ob sich da was tut.
Leonidas
2019-11-05, 13:06:17
Das wird IMO sehr knapp (bis unmöglich). Dafür müsste AMD es hinbekommen, das die 5500XT bei 100W bleibt. Die wäre aber schon bei 120W gutklassig - und eigentlich ist die 5500 non-XT bei <150W angekündigt. Dies auf 75W runterzubringen, dürfte eher Aufgabe eines noch kleineren Chips sein.
Nach der Liste, die in der News steht, wird Navi > N10 sicherlich nicht mehr in der Navi1-Generation auftreten. N12 wird also was kleineres sein, sicherlich kleiner als N14. N2x ist sicherlich nicht vor 2. HJ 20 zu erwarten, das sollte jetzt sehr klar sein.
Außerdem, klar ist ne 5300 als 75W-Version möglich, was spräche dann dagegen? Ist halt nicht sonderlich schnell dann.
Dino-Fossil
2019-11-05, 16:45:51
Ich würde AMD eine 150W+ 5500 XT durchaus zutrauen, nur wäre es ein wenig enttäuschend.
Ausgehend von der zu erwartenden Performance und des Verbrauchs der 5700, sollte eine hypothetische 5500 XT eigentlich nicht groß über 120W kommen.
Ich vermute aber auch, dass eine 150W XT nur wenig Mehrperformance ggü. einer 120W XT hätte. Aber vielleicht setzt man sich halt wieder ein bestimmtes Performance-Ziel, das unbedingt gehalten werden muss (siehe Polaris, Vega, etc.).
Leonidas
2019-11-06, 03:21:58
N12 wird also was kleineres sein, sicherlich kleiner als N14.
Das Speicherinterface von Navi 12 ist gleich/ähnlich wie bei Navi 10 (und damit größer als bei Navi 14):
https://www.3dcenter.org/news/amds-navi-14-kommt-wohl-mit-128-bit-interface-navi-12-hingegen-mit-256-bit-interface
Berniyh
2019-11-06, 06:58:00
Nach der Liste, die in der News steht, wird Navi > N10 sicherlich nicht mehr in der Navi1-Generation auftreten. N12 wird also was kleineres sein, sicherlich kleiner als N14. N2x ist sicherlich nicht vor 2. HJ 20 zu erwarten, das sollte jetzt sehr klar sein.
Ich verstehe nicht mit welcher Logik du das aus der Tabelle raus lesen willst?
Weil da "RX 5000 Series" steht?
Zur "RX 5000 Series" zählen auch Navi10 und Navi14.
Er kennt vermutlich nur den genauen Produktnamen nicht.
danarcho
2019-11-06, 22:21:53
Weiß jemand wie voraussichtlich RT bei RDNA2 implementiert ist? Interessant ist ja schon mal, dass das instruction encoding offenbar (höchst wahrscheinlich) unverändert bleibt.
Berniyh
2019-11-07, 19:46:45
AMD hat jetzt sämtliche Erwähnungen von den LITE Versionen und Navi2x in pal entfernt. :D
Kommt dann vermutlich zu einem späteren Zeitpunkt wieder rein.
horn 12
2019-11-07, 20:05:57
Lite sollte die 5800 sein, Ohne RayTracing
und 5900 XT FULL Raytracing und das Enthusiast Modell...
Berniyh
2019-11-07, 20:11:01
Lite sollte die 5800 sein, Ohne RayTracing
und 5900 XT FULL Raytracing und das Enthusiast Modell...
Beides ist wohl eher unwahrscheinlich.
AffenJack
2019-11-08, 09:37:52
Sind mal wieder Dokumente zur 5500 erschienen, die endlich mal die richtige TDP zeigen sollten:
https://www.wepc.com/news/amd-radeon-rx-5500-how-to-sell-guide-leaked/
110W klingt schon deutlich eher nach dem erwarteten. Zusätzlich wird wie auf der Produktseite nochmal bestätigt, dass die 5500 mit 4GB RAM kommt und nicht wie manche glaube auch mit 8GB.
Linmoum
2019-11-08, 09:50:18
Wer glaubt das denn? Die 8GB sind für die 5500XT sobald sie kommt. AMD sprach ja nicht ohne Grund von 5500 Series. ;)
Leonidas
2019-11-08, 10:45:05
Navi 21 mit (angeblich) ~505mm²?
https://twitter.com/KOMACHI_ENSAKA/status/1192449845346177025
Das Speicherinterface von Navi 12 ist gleich/ähnlich wie bei Navi 10 (und damit größer als bei Navi 14):
https://www.3dcenter.org/news/amds-navi-14-kommt-wohl-mit-128-bit-interface-navi-12-hingegen-mit-256-bit-interface
Der wird denke ich einfach zwischen N14 und N12 landen. Man wird da einfach nur 12GT GDDR verbauen und wollte offenbar keine krumme Speicherbestückung hinnehmen, die durch 192Bit entstanden wäre.
Also
P32/N22? 5100-5300
N14 5300XT-5500/XT (<200€)
N12 5600/XT (200-300€)
N10 5700/XT (350-500€)
N21 5850/XT (12GB GDDR)
N23? 5950/XT (16GB HBM)
505 mm² wäre fast genau verdoppelt zu N10, das ist durchaus plausibel.
Beim 5800 dürfte 12GB @384Bit 14-16GT GDDR am plausibelsten sein.
Dann müsste aber der NV-Killer (N23?) die 600mm² lässig knacken, wir sind gespannt. Man kommt auf ne Idee, warum die den so nennen. Das ist wäre dann ein absolutes All-In-Produkt.
vinacis_vivids
2019-11-08, 11:09:12
Navi 21 mit (angeblich) ~505mm²?
https://twitter.com/KOMACHI_ENSAKA/status/1192449845346177025
Doppelt so groß wie Navi 10 :biggrin:
Bei einer leichten Verbesserung der Packdichte kommen ~21-22Mrd. Transistoren raus :eek:
Genug Platz für 80CUs und/oder RT-Spielchen? :D
dargo
2019-11-08, 11:13:57
Doppelt so groß wie Navi 10 :biggrin:
Ich frage mich ernsthaft wie man das in 300W unterbringen will? :uponder: Da müsste es eigentlich starke Veränderungen in der Architektur geben. Denn 7nm EUV wird alleine imho nicht reichen. Oder AMD wählt bei Navi 21 einen wesentlich besseren Betriebspunkt, sprich weniger Frequenz. Dann wird das Ding aber nicht doppelt so schnell wie Navi 10. Aber vielleicht gleichen kleinen Architekturverbesserungen diesen "Missstand" wieder etwas aus.
Neuer Prozess mit Architekturverbesserungen, da ist sicherlich noch was abzupflücken nach der ersten RDNA-Iteration. Aber 220-240W für die GPU muss man sicherlich rechnen. 80CUs glaub ich nicht. Das werden 64+Secret Sauce sein, also rund ein drittel mehr als N10, was auch zu einem 384Bit Interface passen würde.
Der NV-Killer wird sicherlich eher in Richtung 400W mit Wasserkühlung gehen, dafür wird sicherlich keine Luft mehr veranschlagt.
Ich dachte RDNA2 wäre komplett losgelöst von GCN. Mit diversen Verbesserungen - hm, 350W TDCP, allerdings massiv schneller als GP 102. Die Dinger gibt es wohl nur als AiO-Variante :biggrin:
Wird mMn auch kein RDNA2 sein. Das wird RDNA+ oder 1.1 oder 1.5 o.Ä. sein. RDNA2 werden wir sicherlich erst auf 5nm Pro sehen, nicht vorher.
dargo
2019-11-08, 11:50:20
80CUs glaub ich nicht. Das werden 64+Secret Sauce sein, also rund ein drittel mehr als N10, was auch zu einem 384Bit Interface passen würde.
Also nach meiner Rechnung sind 64 CUs 60% mehr. ;)
reaperrr
2019-11-08, 13:21:47
Der wird denke ich einfach zwischen N14 und N12 landen. Man wird da einfach nur 12GT GDDR verbauen und wollte offenbar keine krumme Speicherbestückung hinnehmen, die durch 192Bit entstanden wäre.
Sorry, aber das ergibt absolut null Sinn.
Was für Specs sollte der denn haben? Mit 28 CUs zu dicht an N14, mit 32 CUs + 256 bit SI von Größe und Specs zu nah an N10XL (5700), um den Entwicklungsaufwand eines zusätzlichen Chips zu rechtfertigen.
Egal wo genau N12 nun landet, eines ist IMO sicher: zwischen N14 und N10 wird es nicht sein.
Die Fix-Kosten für ein zusätzliches Chip-Design sind heutzutage viel zu hoch (v.a. für AMD), um so kleine Abstufungen vorzunehmen. Einen weiteren Salvage-N10 mit 32 aktiven CUs, 12Gbps G6 und niedrigerem Chiptakt rauszubringen wäre immer noch günstiger, als noch einen extra Chip aufzulegen.
Und nochmal als Hinweis, die SDP-Zahl passt nicht nur zu 256bit GDDR SI, sondern auch zu 2048bit HBM SI.
Vorteil eines 2048bit HBM-SI (mit HBM2e) wäre, dass man genug Fläche und Verbrauch gegenüber einem 384bit GDDR6-SI sparen würde, um einen Chip mit 60-64 CUs in unter 400mm² und innerhalb 300W TDP unterbringen zu können, ohne dafür erst auf 7nm+ und Architekturverbesserungen warten zu müssen. Und genau das wird N12 mMn sein.
Ich denke doch, das wird der Fall sein. N12 wird unter 200mm² rauskommen, 28CUs ist ziemlich wahrscheinlich (24 dann als salvage). N10 kommt ja 40 und 36, das passt also sehr gut dazwischen. Wenn man diese Chips bis 2022 plant einzusetzen, lohnt sich die extram Maske definitiv. Das ist immerhin das Butter und Brotgeschäft mit der höchsten Marge.
maximus_hertus
2019-11-08, 15:06:25
Ich frage mich ernsthaft wie man das in 300W unterbringen will? :uponder: Da müsste es eigentlich starke Veränderungen in der Architektur geben. Denn 7nm EUV wird alleine imho nicht reichen. Oder AMD wählt bei Navi 21 einen wesentlich besseren Betriebspunkt, sprich weniger Frequenz. Dann wird das Ding aber nicht doppelt so schnell wie Navi 10. Aber vielleicht gleichen kleinen Architekturverbesserungen diesen "Missstand" wieder etwas aus.
Das ist doch recht einfach: man sieht ja schon an den 5700er, dass ein kleines Taktminus schon ausreicht, um stark Richtung 150W zu landen.
Dazu bessere Fertigung und neue Chiprevision => et voila, grob doppelter Chip bei rund 300W.
Allerdings würde ich aktuell auch eher von 64 CUs ausgehen und nicht von einer Verdoppelung.
reaperrr
2019-11-08, 15:21:58
Ich denke doch, das wird der Fall sein. N12 wird unter 200mm² rauskommen, 28CUs ist ziemlich wahrscheinlich (24 dann als salvage).
Tut mir leid, aber das stimmt einfach nicht.
Allein schon durch ein zusätzliches 128bit GDDR PHY würde der Chip an den 200mm² kratzen, durch 4 zusätzliche CUs käme er dann endgültig drüber.
Und einen Chip entwickeln, dessen Salvage-Part gerade mal genauso viele CUs wie der Vollausbau des Chips darunter hat, der zudem deutlich kleiner und günstiger herzustellen ist?
Das wird nicht passieren. AMD hat seit ~10 Jahren jeden Chip mindestens 40% größer (von den SIMDs/CUs) als den nächstkleineren der gleichen Gen gemacht, eben weil bei geringeren Unterschieden bzw. mehr Chips der Kosten-/Nutzen-Faktor zu schlecht wäre. Und in 7nm mit fast verdoppelten Fixkosten für Design, Masken etc. gilt das noch mehr als in früheren Gens.
Wenn man diese Chips bis 2022 plant einzusetzen, lohnt sich die extram Maske definitiv. Das ist immerhin das Butter und Brotgeschäft mit der höchsten Marge.
Nein, lohnt sich wirklich nicht. N10 wird einfach in den <300$-Preisbereich rutschen. Wir reden hier von vielleicht 10$ Unterschied in den Produktionskosten pro Chip zwischen N10 und deinem 28Cu/256bit N12, die holt man locker dadurch rein, dass N10 selbst mit 32CUs noch ~10% schneller wäre.
Die Fixkosten für einen Chip in 7nm liegen bei über 100Mio $, ganz abgesehen davon, dass das Design-Team dann für nix anderes, profitableres eingesetzt werden kann.
danarcho
2019-11-08, 15:49:49
Ich dachte RDNA2 wäre komplett losgelöst von GCN.
Was meinst du mit losgelöst? RDNA ist schon ein deutlicher unterschied in den compute units, aber die ISA ist nahezu identisch. RDNA ist sozusagen eine neue Implementierung der GCN ISA (so ähnlich wie Ryzen anders ist als Bulldozer, aber beide die gleichen Befehle verstehen). RDNA2 wird vermutlich 100% kompatibel zu RDNA (zumindest wenn der Tweet von Komachi mehr ist als Wunschdenken).
BoMbY
2019-11-08, 16:14:59
Ich denke doch, das wird der Fall sein. N12 wird unter 200mm² rauskommen, 28CUs ist ziemlich wahrscheinlich (24 dann als salvage). N10 kommt ja 40 und 36, das passt also sehr gut dazwischen. Wenn man diese Chips bis 2022 plant einzusetzen, lohnt sich die extram Maske definitiv. Das ist immerhin das Butter und Brotgeschäft mit der höchsten Marge.
Lol. Natürlich. Ist total logisch einen Die mit 24 CU und einen mit 28 CU zu bauen.
AffenJack
2019-11-08, 16:20:42
Was meinst du mit losgelöst? RDNA ist schon ein deutlicher unterschied in den compute units, aber die ISA ist nahezu identisch. RDNA ist sozusagen eine neue Implementierung der GCN ISA (so ähnlich wie Ryzen anders ist als Bulldozer, aber beide die gleichen Befehle verstehen). RDNA2 wird vermutlich 100% kompatibel zu RDNA (zumindest wenn der Tweet von Komachi mehr ist als Wunschdenken).
Jupp, die Umbauten von RDNA2 dürften sogut wie nur mit Features zusammenhängen. Aber auch da hat man schon genug zutun. Von Raytracing, Variable Rate Shading über Mesh Shader bis zu Texture Space Shader gibt es schon verdammt viele DX12 Features die Turing unterstützt und die in RDNA2 auch landen sollten. Insofern könnte man sagen, RDNA2 wird in Sachen Features losgelöst von GCN, während RDNA da eher GCN entspricht.
Lol. Natürlich. Ist total logisch einen Die mit 24 CU und einen mit 28 CU zu bauen.
N14 hat 22 CUs.
22 - 28 - 40.
N21 hätte dann 60 oder 64, N23 80 oder 92.
N22 wird so 12 haben mMn.
Lineup komplett.
5100-5300 -> N22
5300XT-5500(XT) -> N14
5600(XT) -> N12
5700(XT) -> N10
5800(XT) -> N21
5900(XT) -> N23
reaperrr
2019-11-08, 18:26:11
N14 hat 22 CUs.
22 - 28 - 40.
N14 hat 24 CUs. Es wurde halt nur noch kein Modell mit Vollausbau vorgestellt, was aus Yieldgründen vielleicht auch nie - oder erst beim Refresh - passieren wird.
5100-5300 -> N22
5800(XT) -> N21
5900(XT) -> N23
Es wird keine N2x innerhalb der 5000er Serie geben. Die kommen erst nächstes Jahr und damit zu 99% innerhalb der 6000er Serie.
Beweise dafür. Igor sagt ja auch der hat nativ 22. Ich denke das mit dem 24 ist einfach ein Gerücht gewesen, was alle für bare Münze genommen haben.
Möp und natürlich wirds die geben :D. Da können wir stundenlang darüber streiten und werden zu keinem Ergebnis kommen.
BoMbY
2019-11-08, 18:50:35
https://i.imgur.com/eC8SP6z.jpg
Unicous
2019-11-08, 18:53:10
HOT, wann hörst du endlich auf FUD zu verbreiten?
Der von AMD veröffentliche "die shot" zeigt 12 RDNA CUs, ergo 24 CUs, dein FUD hat hier nichts zu suchen. Auch der Navi 12 Blödsinn den du hier seit Monaten verbreitest. Zuerst soll es ein kleinerer Chip sein als Navi 14. Jetzt Auf einmal soll er zwischen 14 und 10 liegen weil du nicht zählen kannst oder bewusst Dinge verdrängst um deine Spekulation die eher als selbsterfüllende Prophezeihung herüberkommt nicht ins Wanken zu bringen.:wink: Entscheide dich mal und bleib wenigstens konsistent mit deinen Nostradamus-Vorhersagungen.:facepalm:
reaperrr
2019-11-08, 19:01:57
Beweise dafür. Igor sagt ja auch der hat nativ 22. Ich denke das mit dem 24 ist einfach ein Gerücht gewesen, was alle für bare Münze genommen haben.
1. https://twitter.com/KOMACHI_ENSAKA/status/1166310860857307136?ref_src=twsrc%5Etfw
Das ist das, was die GPU-Firmware oder der Treiber selbst zurückgibt. Bei Navi10 wird 20 zurückgegeben (die GPU gibt die Zahl der WGPs zurück, nicht die der einzelnen CUs).
2. Zähl mal durch, was AMD auf seiner eigenen Präsentationsfolie zeigt:
https://community.amd.com/thread/244301
Zum Vergleich Navi10:
https://heise.cloudimg.io/width/610/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/2/7/6/0/4/2/0/AMD_Navi_10-d0c415e46e391a23.jpeg
Und ja, sind keine richtigen Dieshots bzw. von AMD übergephotoshoppt, aber gelogen, was die Zahl der physisch vorhandenen CUs angeht, haben in den letzten Jahren bei solchen Schaubildern weder AMD noch Nvidia, sehe nicht warum sie jetzt damit anfangen sollten.
3. Technischer Grund bzw. Layout: N14 hat 2 ShaderEngines. Durch den WGP-Ansatz kannst du je ShaderEngine nur noch gerade Zahlen an CUs verbauen. 11 einzelne CUs je SE geht nicht, nur 5 oder eben 6 WGPs. Ber den 5500 ist ein WGP in einer der beiden SEs deaktiviert, aber physisch muss er vorhanden sein, sonst wäre das Layout asymmetrisch und das hat es noch nie gegeben, wenn's denn technisch überhaupt möglich wäre.
Also nix mit Gerüchten.
Beweise dafür. Igor sagt ja auch der hat nativ 22.
Wenn er das wirklich sagt, liegt er diesmal halt falsch.
Leonidas
2019-11-09, 03:41:25
Der wird denke ich einfach zwischen N14 und N12 landen.
Zwischen 158mm² und 251mm² packt man normalerweise keine weitere Chips.
Gegenargument: Was wäre, wenn N12 die Mainstream-Version für die Radeon RX 6000 Serie ist? Sprich, nicht gleichzeitig mit Navi 14/10 im Markt, sondern als deren Ersatz? Allerdings wäre es dann natürlich auch günstiger, Navi 14/10 einfach weiterlaufen zu lassen.
Berniyh
2019-11-09, 08:00:46
Gegenargument: Was wäre, wenn N12 die Mainstream-Version für die Radeon RX 6000 Serie ist? Sprich, nicht gleichzeitig mit Navi 14/10 im Markt, sondern als deren Ersatz? Allerdings wäre es dann natürlich auch günstiger, Navi 14/10 einfach weiterlaufen zu lassen.
Dagegen spricht vor allem, dass es ja scheinbar ebenfalls 3 Navi 2x Chips geben soll (21/22/23).
Wird mMn auch kein RDNA2 sein. Das wird RDNA+ oder 1.1 oder 1.5 o.Ä. sein. RDNA2 werden wir sicherlich erst auf 5nm Pro sehen, nicht vorher.
Hast du irgendwelche Argumente oder Belege für diesen Blödsinn?
Oder zumindest irgendeinen Hinweis.
Sämtliche Hinweise/Gerüchte sprechen dafür, dass Navi 2x als RDNA2 bezeichnet werden wird.
Eine Erwähnung von RDNA+/1.1/1.5 fand bislang nirgends statt.
Und die Tatsache, dass AMD RDNA2 auf Folien eindeutig mit 7nm+ (was Mitte 2020 die Technologie der Wahl sein sollte) verknüpft hat spricht eine recht deutliche Sprache dafür, dass Navi 2x RDNA2 auf 7nm+ sein wird.
Dazu noch die Tatsache, dass AMD auf der eigenen Roadmap andeutet RDNA2 vor 2021 zu bringen … welcher Chip soll das denn deiner Meinung nach sein, wenn nicht Navi 2x?
Siehe:
https://www.3dcenter.org/abbildung/amd-grafikchip-architektur-roadmap-2017-2021
Du stellst hier deine eigenen Wünsche oder Ansichten, welche auf Null Fakten oder zumindest Hinweisen basieren als Tatsachen dar, aber das ist so einfach nicht haltbar.
Zwischen 158mm² und 251mm² packt man normalerweise keine weitere Chips.
Gegenargument: Was wäre, wenn N12 die Mainstream-Version für die Radeon RX 6000 Serie ist? Sprich, nicht gleichzeitig mit Navi 14/10 im Markt, sondern als deren Ersatz? Allerdings wäre es dann natürlich auch günstiger, Navi 14/10 einfach weiterlaufen zu lassen.
Du meinst, N12 ist sowas wie P20? Gar kein doofer Gedanke, das kann sein. Man könnte den dann sogar in 7nm Pro bringen. Ob das dann ne 6700 oder ne 5750 ist, ist dann noch offen. Immerhin macht die Konkurrenz ja diesen Renaming-Kram seit Jahren nicht mehr.
amdfanuwe
2019-11-09, 10:11:51
Also N10 sozusagen als Pipecleaner für Navi und N14, N12 optimierte Versionen?
Dann könnte N14 mit 24CU auch schneller sein als bisher gedacht?
Iscaran
2019-11-09, 10:46:26
Mit 505mm2 sehe ich einen Navi 23 (nennen wir den mal so) bei ca +60% CUs.
Also 64 CUs.
Denn da wir eigentlich quasi von ausgehen können daß AMD hier RT auch implementiert könnte ich mir vorstellen daß der Rest der zsätzlichen Die-Fläche in ebendie Implementierung von RT und RT-notwendigen Hardwareteilen erforderlich ist.
Außerdem gab es doch noch irgendwo ein Problem mit GCN und >64 CUs ?
Weiß nicht ob das für RDNA schon aufgehoben ist. Glaube fast nicht.
Inkl. Optimierung etc. glaube ich schon daß man hier Performancemäßig +60-80% auf Navi10 aufsetzen kann (+ RT !) bei maximal 250 W output. Gemäß 3D Center Index wäre da also so ~ 1600%-1800% FHD bzw. 260-290 % 4k-Index.
EDIT: Das wäre dann ca. RTX 2080 Ti Niveau oder leicht darüber - ich finde das wäre schon ganz passabel.
Man darf gespannt sein.
Navi14 = 5500 Series, Navi 12 könnte ggf. ein Respin der 5700er Serie werden ODER ein noch kleinerer Chip als die 5500er (5300er Series ?), quasi als Einstiegsmodelle bei ~ 100€.
Dann wäre das Lineup: EDIT noch die erwarteten bzw. tatächlichen 3DC-Index Zahlen (FHD-Index)
Navi 12 ~ 100 € ~ (500%) = 5300 Series
Navi 14 ~ 150-250 € (800%) = 5500 Series
Navi 10 ~ 250-350 € (1100%) = 5700 / 5700 XT Series
Navi 2x ~ >400 € (womöglich eher >500 €) ? (1600%) = 5800 Series ?
Berniyh
2019-11-09, 11:26:38
Navi14 = 5500 Series, Navi 12 könnte ggf. ein Respin der 5700er Serie werden ODER ein noch kleinerer Chip als die 5500er (5300er Series ?), quasi als Einstiegsmodelle bei ~ 100€.
Das haben wir doch praktisch schon ausgeschlossen auf Basis dessen, dass Navi12 ein größeres Speicherinterface als Navi14 bietet.
Zudem ist eigentlich die Navi14 Serie schon aufgeschlüsselt, inkl. der 5300.
Navi12 wird ziemlich sicher die 5900 sein (oder evtl. 5800, aber ungerade scheint bei AMD gerade in zu sein).
Navi2x wird dann die 6000er Serie.
Navi 2x ~ >400 € (womöglich eher >500 €) ? (1600%) = 5800 Series ?
Ich kapier ehrlich gesagt nicht, warum viele Navi2x unbedingt in die 5000er Serie reinquetschen wollen.
Zur Erinnerung: wir reden hier von 3(!) Chips (Navi21/22/23), welche vermutlich auf den Markt kommen.
Und zudem macht es AMD bei den CPUs ja genau so. Jedes Jahr eine "neue" Generation mit neuer Anfangsziffer.
Auf Basis dessen wäre doch alles außer Navi2x = Radeon 6x00 eine Überraschung.
Klar, bei den Grafikkarten war es bislang nicht so, das lag aber eher am Übergang GCN -> RDNA, bzw. dass RDNA noch Zeit brauchte.
Complicated
2019-11-09, 11:38:53
Wenn es ein Äquivalent zu P20 gibt, dann wohl eher eines der Navi 2x Modelle. N12 und N14 deuten eher auf die selbe Fertigung-/Architekturreihe hin.
P10->P20->P30
14nm LPP ->14nm LPP+ -> 12nm
RX 480 -> RX 580 -> RX 590
Irgenwie habe ich eher das Gefühl, dass AMD demnächst wieder die GPU-Bennenungen erneut völlig ändert um auch die Raytracing Modelle hervorzuheben. Also so wie Nvidia von GTX zu RTX.
Jetzt wirkt dieses RX als Präfix wie eine abgespeckte Version RTX Modelle des Konkurrenten, was recht clever gemacht ist von Nvidia.
Die Einführung von Raytracing und vielleicht auch eines GPU-Chiplet würden da als Reset-Punkt in Frage kommen. Raytracing sehe ich frühestens in Q3/2020 als sinnvollen Markstart für AMD um nicht zu weit entfernt von den Konsolen zu sein und möglicherweise auch Konsolen-Titel die Raytracing haben werden als Cross-Plattform fähig im Marketing mit zu nutzen. AMD kann da bei der derzeitigen Verbreitung von Raytracing in Ruhe abwarten, da es noch kaum ein primäres Kauf-Argument ist sondern eher ein "nice-to-have". Mit den Konsolen könnte sich die Gewichtung schnell verändern.
Ich denke mir die ganze Zeit, warum eigentlioch AMD die Konsolen nicht mit Dual-GPU bestückt für VR oder für Raytracing. 2 niedrig getaktete GPUs im VR-Modus und bei Nicht-VR das Powerbudget auf eine GPU verlagern. Oder um wieviel würde die Latenz zunehmen wenn die eine GPU 4K berechnet und die andere das Downsampling und die Bildausgabe macht. Gemeinsamer Speicherzugriff wäre ja möglich, so dass die Bilddaten nicht zusätzlich kopiert werden müssen. Da fragt man sich ob nicht sogar eine SFU anstatt einer zweiten GPU für Downsampling möglicherweise sinvoll werden würde, die auch Raytracing kann. Nur mal spekuliert, da immer weider Raytracing in Hardware von AMD erwartet wird in den Spekulationen. Zumindest haben eine Aussagen auf Features hingedeutet die aus Semi-Custom Synergien ergäben könnten für die kommeneden Navis (RDNA2) bei richtigem Timing.
Berniyh
2019-11-09, 11:48:26
Downsampling und Bildausgabe sind doch keine wirklich rechenintensiven Aufgaben?
Complicated
2019-11-09, 12:29:42
Nimm Raytraycing dazu. Die Frage war ob in diesen Einheiten dann gleich noch andere Features, wie die genannten einen Verbrauchs- und/oder Performancevorteil bringen können. Da machen auch 10% was aus, kombiniert mit anderen Optimierungen in Architektur oder Fertigung. Wie gesagt nur wild spekuliert..hab noch nicht mal was dazu gegoogelt bisher, ob das überhaupt zusammenpasst.
Iscaran
2019-11-09, 13:23:51
Das haben wir doch praktisch schon ausgeschlossen auf Basis dessen, dass Navi12 ein größeres Speicherinterface als Navi14 bietet.
Zudem ist eigentlich die Navi14 Serie schon aufgeschlüsselt, inkl. der 5300.
In der PCI ID Liste ist Navi 14 bislang EINDEUTIG der 5500 Serie zugeordnet und Navi 10 eindeutig der 5700er Serie
https://pci-ids.ucw.cz/read/PC/1002/7340
https://pci-ids.ucw.cz/read/PC/1002/731f
Die Navi 10 Chip-Architektur ist unter 7310 nochmal gesammelt:
https://pci-ids.ucw.cz/read/PC/1002/7310
Ich glaube daher NICHT daß Navi 12 bzw. die bislang kolportierte 5300er Serie unter Navi 14 laufen.
Das mit dem größeren Speicherinterface bei Navi 12 ist AFAIK bislang ein Gerücht oder ? (hab jetzt nicht die letzen 20 Seiten gelesen)...
Es könnte sich genauso gut auf die Navi 2x (21) z.B. beziehen.
Navi2x wird dann die 6000er Serie.
Ich kapier ehrlich gesagt nicht, warum viele Navi2x unbedingt in die 5000er Serie reinquetschen wollen.
Ja gut - das kann sein daß AMD hier auf eine Neue "Generation" geht vom Namen her.
Zur Erinnerung: wir reden hier von 3(!) Chips (Navi21/22/23), welche vermutlich auf den Markt kommen.
....
Auf Basis dessen wäre doch alles außer Navi2x = Radeon 6x00 eine Überraschung.
Da hast du womöglich Recht. Auch wenn RT dazu kommt wird man sicherlich versuchen das mit einer neuen "Namensgeneration" zu bringen.
reaperrr
2019-11-09, 13:33:16
Das mit dem größeren Speicherinterface bei Navi 12 ist AFAIK bislang ein Gerücht oder ? (hab jetzt nicht die letzen 20 Seiten gelesen)...
Es könnte sich genauso gut auf die Navi 2x (21) z.B. beziehen.
Navi12 hat genauso viele SDP interfaces wie N10 (16) und doppelt so viele wie N14 (8). Heißt, N12 muss entweder ein 256bit GDDR6 SI oder ein 2048bit HBM SI haben (Vega10 hatte auch 16 SDPs).
Von "größer" war nur im Vergleich zu N14 die Rede.
Iscaran
2019-11-09, 13:41:59
Wenn AMD in der Tat einen Namens-Reset vorhat dann würde es auch Sinn machen einen "Refresh" der Navi10 zu bringen => könnte Navi12 sein = 10 2nd Generation = 1-"2" = 12
Dann gäbe es eine leicht aufgebohrte 5700er Serie als dann "6000" (oder "insert whatever insane name here")
+ Navi 2x als Karten die > Navi 12 sind und nochmal + 50% draufsetzen.
Somit bliebe die 5000er Serie auf 5700er und 5500er beschränkt und man fängt jetzt mit dem Release von neuen Karten an.
Dagegen spricht aber, daß man ein RDNA2-Design eigentlich nicht vor Q2/2020 erwartet...(was zu RDNA + Raytracing = RDNA2 ja passen würde).
Ah: hier ist die News zum Speicherinterface Gerücht:
https://www.3dcenter.org/news/amds-navi-14-kommt-wohl-mit-128-bit-interface-navi-12-hingegen-mit-256-bit-interface
Das würde ja passen Navi12 = Refresh von Navi10. (selbes Speicherinterface)
Berniyh
2019-11-09, 14:40:58
In der PCI ID Liste ist Navi 14 bislang EINDEUTIG der 5500 Serie zugeordnet und Navi 10 eindeutig der 5700er Serie
https://pci-ids.ucw.cz/read/PC/1002/7340
https://pci-ids.ucw.cz/read/PC/1002/731f
Die Navi 10 Chip-Architektur ist unter 7310 nochmal gesammelt:
https://pci-ids.ucw.cz/read/PC/1002/7310
Ich hatte mir zuletzt auch schon überlegt, ob man aus den PCI IDs irgendwas rausziehen kann, da im Linux Kernel auch unterschiedliche Anzahlen für die verschiedenen Chips hinterlegt wurden.
(d.h. ob man die Anzahl der Modelle ablesen kann)
Letztendlich ist diese Information aber weitgehend untauglich, denn da werden gerne mal noch welche hinzugefügt, wenn es ein neues Modell gibt.
Abgesehen davon muss die oben genannte Angabe ja auch nicht vollständig sein. Solange man keine PCI IDs für die 5300 kennt kann man hier nicht sicher sein, dass sie nicht doch zu Navi14 gehört.
Dafür, dass die 5300 tatsächlich einen Navi14 Chip verwendet gibt es übrigens Hinweise, die in diesem Gerücht zusammengefasst wurden:
https://www.3dcenter.org/news/amds-navi-14-kommt-wohl-fuenf-varianten-von-radeon-rx-5300m-bis-radeon-rx-5500-xt
Nach diesem Gerücht kommen voraussichtlich 5 Varianten des Navi14 Chips, an Hand der Taktraten konnten diese auch gut zugeordnet werden.
Da die 5500/5500M die "mittleren" Taktraten belegen sollte das bedeuten, dass es eine niedriger getaktete Navi14 Variante gibt.
Was liegt also näher als dass das eben die 5300/5300M ist?
Und wenn das nicht die 5300 ist, was ist die 5300 dann?
Navi12 ist augenscheinlich größer als Navi14 und ein weiterer Chip ist nicht in Blickweite.
Was hältst du für wahrscheinlicher, ein Rebrand einer Polaris-Karte oder eine kleinere Navi14 Variante?
Also da würde ich mich eindeutig für letzteres entscheiden. ;)
reaperrr
2019-11-09, 14:49:31
Das würde ja passen Navi12 = Refresh von Navi10. (selbes Speicherinterface)
Äh... viel wahrscheinlicher ist ganz einfach, dass es sich um einen HighEnd-Chip oberhalb von Navi10 mit HBM2(e) handelt.
Wenn man sich den Verbrauch der 5700 XT ansieht ist klar, dass AMD mit RDNA1 in 7nm nur eine Chance hat einen Chip mit 50-60% mehr CUs und ~5700XT-Taktraten in 300W unterzubringen, wenn sie auf HBM2 statt eines breiteren GDDR6-SIs setzen.
Deshalb ist das die wahrscheinlichste Auflösung des N12-Rätsels.
Dass es sich bei ein oder zwei N2x um Refreshes von N1x Chips handelt will ich nicht ausschließen, aber N10 so schnell und innerhalb der N1x Reihe zu refreshen ergibt keinen Sinn.
amdfanuwe
2019-11-09, 15:30:34
aber N10 so schnell und innerhalb der N1x Reihe zu refreshen ergibt keinen Sinn.
Was heißt schnell? Ist ja auch schon 4 Monate im Verkauf. Wer weiß, welche Bugs und Optimierungsmöglichkeiten da schlummern, die erst nach Produktion der ersten N10 Chips aufgefallen sind? Der Chip war aber erstmal gut für den Verkauf, also raus damit.
Könnte mir auch Vorstellen, dass nächstes Jahr ein ordentlicher N12 mit 36 CU kommt und N2x mit 48CU weitermacht, somit N10 im 1H/20 ausläuft wohingegen N14 und N12 als Rebrand in der 6000er Serie verbleiben. Vielleicht gibt es N12/14 auch schon im optimiertem 7NP Prozess, wie ihn Apple verwendet haben soll, und daher die Verzögerung. Bringt nochmals Effizienz.
AffenJack
2019-11-09, 15:35:29
Könnte mir auch Vorstellen, dass nächstes Jahr ein ordentlicher N12 mit 36 CU kommt und N2x mit 48CU weitermacht, somit N10 im 1H/20 ausläuft wohingegen N14 und N12 als Rebrand in der 6000er Serie verbleiben. Vielleicht gibt es N12/14 auch schon im optimiertem 7NP Prozess, wie ihn Apple verwendet haben soll, und daher die Verzögerung. Bringt nochmals Effizienz.
N10 wird ganz bestimmt nicht schon H1/20 auslaufen. Von RDNA2 dürften wir nur in Q4/20 einen Chip sehen und der wird sicherlich oberhalb von N10 landen. Der Rest dürfte erst 2021 kommen.
amdfanuwe
2019-11-09, 15:59:28
Da wäre ich mir nicht so sicher. Radeon VII lief auch nur ein halbes Jahr. AMD hat jetzt auch mehr Mittel als früher zur Verfügung. Ist meiner Meinung nach mehr eine poltische Entscheidung, ob sie Gas geben und ordentlich mit Nvidia konkurrieren wollen oder ob GPU erst mal in der Priorität hinten steht und es mehr bei einem "Wir mischen auch noch mit" bleibt.
Brillus
2019-11-09, 16:20:58
Da wäre ich mir nicht so sicher. Radeon VII lief auch nur ein halbes Jahr. AMD hat jetzt auch mehr Mittel als früher zur Verfügung. Ist meiner Meinung nach mehr eine poltische Entscheidung, ob sie Gas geben und ordentlich mit Nvidia konkurrieren wollen oder ob GPU erst mal in der Priorität hinten steht und es mehr bei einem "Wir mischen auch noch mit" bleibt.
Der Chip läuft immernoch ist halt primär ein Computechip die VII ist nur Nebenverwertung.
Berniyh
2019-11-09, 17:06:55
Da wäre ich mir nicht so sicher. Radeon VII lief auch nur ein halbes Jahr.
Die Radeon VII war doch nur ein Lückenfüller, da man Navi noch nicht fertig hatte aber irgendwas zur CES präsentieren musste.
Äh... viel wahrscheinlicher ist ganz einfach, dass es sich um einen HighEnd-Chip oberhalb von Navi10 mit HBM2(e) handelt.
Wenn man sich den Verbrauch der 5700 XT ansieht ist klar, dass AMD mit RDNA1 in 7nm nur eine Chance hat einen Chip mit 50-60% mehr CUs und ~5700XT-Taktraten in 300W unterzubringen, wenn sie auf HBM2 statt eines breiteren GDDR6-SIs setzen.
Deshalb ist das die wahrscheinlichste Auflösung des N12-Rätsels.
Halte ich für Unfug. Es gibt keine sinnvolle Möglichkeit für 256Bit überhalb von 40 CUs, da brauchst auf jeden Fall 384Bit, denn das wär ja dann bestimmt ein Drittel mehr Leistung. Als Refresh in 7nm Pro könnte man noch etwas mehr Takt und 16GT GDDR6 einbauen, das wars dann aber auch. Es gibt ja jetzt schon einiges Scenarien, in denen die 5700XT die 2800 non-Super beinahe knackt, da ist einfach zu wenig Reserve insgesamt, man würde sich ohne Not zu weit einschränken.
Dass es sich bei ein oder zwei N2x um Refreshes von N1x Chips handelt will ich nicht ausschließen, aber N10 so schnell und innerhalb der N1x Reihe zu refreshen ergibt keinen Sinn.
Hat man bei Polaris auch gemacht. RX480 -> RX580 in 9 Monaten. Der käme ja jetzt eh nicht vor April, das passt also gut. Viel kosten wird der Refresh auch nicht, da ja die Maske gleich bleibt.
Die Refresh-Theorie ist für mich absolut die plausibelste. Größer macht absolut keinen Sinn mit 256Bit, kleiner wär die Lücke einfach zu klein.
Berniyh
2019-11-09, 19:11:22
2048 Bit mit HBM2e ist vollkommen ausreichend für einen Chip oberhalb von Navi10.
Und ist auch die wahrscheinlichste Lösung für Navi12.
384 Bit wird es jedenfalls nicht sein.
Locuza
2019-11-09, 19:32:00
Eine 2080 Super hat auch kein 384-Bit Interface, die Frage wäre nur, ob RDNA1 ähnlich gut mit einem 256-Bit GDDR6-Interface nach oben skalieren könnte?
Und Navi12 kann keinen Navi10 Refresh darstellen, unter dem Codenamen findet sich eine eigene GFX-ID 1011 (1010 für Navi10 und 1012 für Navi14) und es gibt zusätzliche Instruktionen für Deep Learning, die Navi10 fehlen.
robbitop
2019-11-09, 20:21:57
Navi und Turing hat gemessen an Pascal ziemlich viel Bandbreite pro Flop. Da kann man sicherlich etwas mehr machen. Auch gibt es schon GDDR6 Bausteine mit höherer Taktrate. 14->18 gbps. Beides kombiniert sollte schon problemlos für 5x CUs reichen. Oder 6x mit niedrigerem Takt (und somit besserem Betriebspunkt).
gravitationsfeld
2019-11-09, 20:30:15
Eine 2080 Super hat auch kein 384-Bit Interface
Und? Der Chip ist doch auch in der gleichen Liga.
robbitop
2019-11-09, 21:08:54
Naja die hat hat schon rund 30% mehr Leistung als die 5700XT.
Aber wie gesagt: da ist noch Raum. Man schaue mal wie viel GB/s zB die 1070ti pro FLOP hat. Und es gibt noch Steigerung in der Taktrate.
sulak
2019-11-10, 10:27:23
Eine 2080 Super hat auch kein 384-Bit Interface, die Frage wäre nur, ob RDNA1 ähnlich gut mit einem 256-Bit GDDR6-Interface nach oben skalieren könnte?
Und Navi12 kann keinen Navi10 Refresh darstellen, unter dem Codenamen findet sich eine eigene GFX-ID 1011 (1010 für Navi10 und 1012 für Navi14) und es gibt zusätzliche Instruktionen für Deep Learning, die Navi10 fehlen.
Bei der 2080Super hat man den Speichertakt angehoben, das war vorher nicht der Fall.
Quelle: https://www.computerbase.de/2019-07/nvidia-geforce-rtx-2080-super-bundle-wolfenstein/
https://abload.de/img/2q2khs.png
dildo4u
2019-11-13, 14:36:39
16 Zoll MacBook Pro mit RX 5300m und 5500m.
https://www.theverge.com/2019/11/13/20962380/apples-16-inch-macbook-pro-keyboard-screen-speakers-processor
29k Open CL Score mit 5500m.
https://browser.geekbench.com/v5/compute/240983
Vega 20 kommt auf 24k.
https://browser.geekbench.com/opencl-benchmarks
BoMbY
2019-11-13, 15:40:47
Radeon Pro 5500M mit 24 CU: https://www.overclock3d.net/news/gpu_displays/apple_s_16-inch_macbook_pro_will_utilise_radeon_5500m_pro_graphics_-_rdna_enters_the_apple_ecosystem/1
Edit: https://browser.geekbench.com/v4/compute/4631758
Edit2: https://browser.geekbench.com/v5/compute/240983
Unicous
2019-11-13, 16:30:01
Jetzt wissen wir auch, warum AMD bislang keinen vollen Navi 14 angekündigt hat.:wink:
Wie kann das eigentlich sein, HOT, dass Apple einen Chip mit 24 CUs hat, laut dir hat Navi 14 doch maximal nur 22 CUs?:uponder:
Hier übrigens noch offizieller:
https://www.amd.com/en/press-releases/2019-11-13-amd-radeon-pro-5000m-series-mobile-gpus-bring-high-performance-amd-rdna
BoMbY
2019-11-13, 17:00:33
Die Werte sind interessant: 24 CU mit max. 1300 MHz (~ 4 TFlop/s) bei 50W TGP.
dargo
2019-11-13, 17:14:01
Naja die hat hat schon rund 30% mehr Leistung als die 5700XT.
In RDR2 schon mal nicht.
https://www.computerbase.de/2019-11/red-dead-redemption-2-benchmark-test/2/#diagramm-red-dead-redemption-2-2560-1440
Jaja... Cherry Picking und so. :wink:
Die Werte sind interessant: 24 CU mit max. 1300 MHz (~ 4 TFlop/s) bei 50W TGP.
Was genau ist daran jetzt so interessant? :)
BoMbY
2019-11-13, 17:28:39
Was genau ist daran jetzt so interessant? :)
Das sieht nach mehr als 2x Performance/Watt aus, jedenfalls gegenüber den Polaris Karten?
Edit: Oder vielleicht ziemlich genau 2x verglichen mit einer Radeon Pro 460?
Jetzt wissen wir auch, warum AMD bislang keinen vollen Navi 14 angekündigt hat.:wink:
Wie kann das eigentlich sein, HOT, dass Apple einen Chip mit 24 CUs hat, laut dir hat Navi 14 doch maximal nur 22 CUs?:uponder:
Hier übrigens noch offizieller:
https://www.amd.com/en/press-releases/2019-11-13-amd-radeon-pro-5000m-series-mobile-gpus-bring-high-performance-amd-rdna
Viel zu spääääät das ist doch schon längst abgefrühstückt.
dargo
2019-11-13, 18:05:19
Das sieht nach mehr als 2x Performance/Watt aus, jedenfalls gegenüber den Polaris Karten?
Edit: Oder vielleicht ziemlich genau 2x verglichen mit einer Radeon Pro 460?
Achso... naja, bei so niedrigen Frequenzen ist das nicht verwunderlich. Auch ein Navi 10 ist mit nur max. 1,3Ghz deutlich effizienter als bei seinem üblichen Betriebspunkt. :) Da läuft das Ding schon unter 800mV. :tongue:
crux2005
2019-11-13, 18:13:41
In RDR2 schon mal nicht.
https://www.computerbase.de/2019-11/red-dead-redemption-2-benchmark-test/2/#diagramm-red-dead-redemption-2-2560-1440
Jaja... Cherry Picking und so. :wink:
Ist nicht vergleichbar weil die 2080 Ti wahrscheinlich mehr rendern muss.
Nicht wirklich... denn im Schnitt mehrerer Spiele ist eine RX 5700 auch schon 3-4% vor der V64 in 1080p-1440p.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-1920-1080
Und, dass Navi bei geringerer Pixellast sich etwas stärker von Vega absetzen kann ist schon lange bekannt. Wir werden hier aber verdammt OT. :)
3-4% oder das doppelte ist schon ein Unterschied. mMn. ist das ein deutlicher Unterschied für die Änderungen zwischen GCN vs. RDNA.
Daredevil
2019-11-13, 18:22:22
Vega und Navi kannste imho auch vergleichen wie einen 8c Zen+ und 6c Zen2.
Erstere Architektur schöpft seine Leistung aus Einheiten und skaliert bei schwerer Last gut ( Siehe Radeon VII ).
Zweitere schöpft seine Leistung aus einzelnen breiteren und schnelleren Kernen und profitiert hier bei Mittel—Hoher Last und macht in dem Vergleich unterm Schnitt mehr Sinn bzw. es ist einfach Effizenter und besser Skalierbar.
nairune
2019-11-13, 18:23:33
Ich hatte ja im Navi Thread entsprechende Benchmarks gepostet... 5700 XT auf 1410 MHz und 750mV ist 20% langsamer als stock (180W PT) und um die 80% effizienter.
Im Vergleich zu Polaris wird die Effizienz mehr als nur 2x sein.
dargo
2019-11-13, 18:33:38
Ist nicht vergleichbar weil die 2080 Ti wahrscheinlich mehr rendern muss.
What? :D
3-4% oder das doppelte ist schon ein Unterschied. mMn. ist das ein deutlicher Unterschied für die Änderungen zwischen GCN vs. RDNA.
Für mich nicht. Das was aktuell in RDR2 abgeht ist schon eine andere Hausnummer. Allerdings bin ich noch damit vorsichtig. So wie das Game released wurde bin ich mir noch nicht sicher ob die Verhältnisse so bleiben.
Daredevil
2019-11-13, 18:34:17
Das ist aber keine Besonderheit von Navi, das können andere Karten mit UV auch.
Wobei Navi beim UV eher schlechter skaliert als z.B. Vega, im sehr niedrigen Bereich ( 100w ) leidet die Effizienz sehr.
Aber alles ist in beiden Fällen natürlich besser als Polaris. :D
crux2005
2019-11-13, 18:48:30
What? :D
Siehe hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12143016&postcount=1215
nairune
2019-11-13, 18:55:56
Die 2070 ist mit maximierten Details trotzdem deutlich langsamer als die 5700 XT. Das wird auch die Super nicht rausholen. Selbst wenn was mit den presets nicht ganz koscher ist, wird das nicht viel ändern.
@UV/UC wollte ich nur darauf hinaus, mit welchem Betriebspunkt die laufen wird. Allerdings habe ich gerade nachgesehen, dass es bei Polaris ähnliche 25% weniger Takt als die Desktopversion gab. Könnte der Effizienzgewinn doch ähnlich sein, sodass sie bei 2x landet.
dargo
2019-11-13, 19:25:45
Siehe hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12143016&postcount=1215
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12143042&postcount=1218
sulak
2019-11-13, 20:32:09
:anonym:
Ändert aber nix an der Tatsache, das die Rockstar Preset ziemlich nichtssagen sind und sich im oberen Drittel nur marginal unterscheiden, und ungepacht sogar verbuggt sind (Tesselation war zum Release kabutt).
Und Anschlag ist nicht Anschlag, Tesselation, Fellquali und viele mehr ändern sich gar nicht durch die Presets, dafür ist Wasser auf MAX :freak: (zumindest auf meiner GTX1070 grade nachgeschaut, kann sein das bei der RX5700 die Wassereinstellungen in allen Presets vielleicht nicht auf MAX ist...)
Kann ich nicht ganz ernstnehmen den Artikel...
Suggeriert eher, das das Spiel wie Grütze läuft und unspielbar wäre auf alten Grafikkarten, welche gar nicht erst gebencht wurden. Dafür aber jede normale und Super nV Karte, dat hilft sicher...
Bei Nacht wäre der GPU Benchmark interessant, da Volumetrie in allen Settings auf MAX steht und die Karten da noch viel härter abkotzen.
Undertaker
2019-11-13, 20:51:28
In RDR2 schon mal nicht.
https://www.computerbase.de/2019-11/red-dead-redemption-2-benchmark-test/2/#diagramm-red-dead-redemption-2-2560-1440
Jaja... Cherry Picking und so. :wink:
Du hast schon gelesen was CB da explizit zu 1440p geschrieben hat? Aber auch generell spiegelt RDR2 kein allgemein gültiges Bild wieder.
Mit 30% ist er im Schnitt jedenfalls nicht so weit weg von einem realistischen Durchschnitt, hier sehe ich im Rating 26%:
https://www.computerbase.de/2019-07/geforce-rtx-2080-super-test/2/#diagramm-performancerating-3840-2160
dargo
2019-11-13, 21:17:47
Vergesst es... das mit CB und RDR2 wurde gerade im Game-Thread geklärt.
dildo4u
2019-11-16, 07:21:01
5300m Compute und Heaven Benchmarks.
https://youtu.be/gGLqcX3Iaes?t=357
horn 12
2019-11-16, 07:26:04
https://semiaccurate.com/2019/11/15/a-new-high-end-gpu-just-taped-out/
Navi 21 für 2080 und 3080 in Konkurrenz,-
Also 5800 und 5800 XT zumindest auch als Konkurrent für NV 7+nm
Berniyh
2019-11-16, 08:27:48
https://semiaccurate.com/2019/11/15/a-new-high-end-gpu-just-taped-out/
Navi 21 für 2080 und 3080 in Konkurrenz,-
Also 5800 und 5800 XT zumindest auch als Konkurrent für NV 7+nm
Nichts von dem was du da geschrieben hast steht in dem verlinkten Test.
Da steht noch nicht mal, dass es sich um eine neue AMD GPU handelt.
AffenJack
2019-11-16, 10:23:24
Nichts von dem was du da geschrieben hast steht in dem verlinkten Test.
Da steht noch nicht mal, dass es sich um eine neue AMD GPU handelt.
Davon abgesehen sind die Releasetimeframes von Charlie bewusst missverständlich formuliert. Tapeout jetzt heißt Release in etwa 9-12 Monaten, aber bestimmt nicht mehr in H1. Aber das weiß Charlie wohl selber und schreibt deshalb:
With the time frames from now to first silicon to production, 1H/20 should get pretty interesting.
Produktion in H1 2020 dürfte nämlich passen mit Q3 Release. Von Release in H1 schreibt er ja nicht.
An sich ist das aber der erwartete Zeitpunkt fürs RDNA 2 Tapeout. Im September hat AMD auf Folien schließlich noch nicht Design Complete gehabt, aber das Tapeout war dieses Jahr zu erwarten, damit man 2020 überhaupt noch launchen kann.
horn 12
2019-11-16, 10:43:11
Nun, Zeitgleich mit NV in etwa
Aber RDNA 1 sollte Update erhalten zum Weihnachtsgeschäft … oder Zumindest Neujahr.
Berniyh
2019-11-16, 12:00:48
Produktion in H1 2020 dürfte nämlich passen mit Q3 Release. Von Release in H1 schreibt er ja nicht.
An sich ist das aber der erwartete Zeitpunkt fürs RDNA 2 Tapeout. Im September hat AMD auf Folien schließlich noch nicht Design Complete gehabt, aber das Tapeout war dieses Jahr zu erwarten, damit man 2020 überhaupt noch launchen kann.
Ich denke damit wird auch auf potentielle Gerüchte angesprochen, denn die sollten dann ja im ersten Halbjahr vermehrt auftreten.
Dazu noch die neue Nvidia Generation und einem interessanten ersten Halbjahr steht nichts entgegen.
Was mich etwas irritiert an dem Artikel sind die Tags:
Tags: chiplet, EUV, GPU, new, Samsung 4nm, soon, tapeout
Samsung 4nm, chiplet?
Ich vermute mal, dass das nichts zu sagen hat und, dass die einfach irgendwie generiert werden.
Wenn es genauere Informationen mitzuteilen gäbe, dann hätte er das doch wohl im Text wiedergegeben.
Das Tag "Samsung 4nm" gibt es allerdings nur bei diesem Text.
AffenJack
2019-11-16, 12:12:48
Ich denke damit wird auch auf potentielle Gerüchte angesprochen, denn die sollten dann ja im ersten Halbjahr vermehrt auftreten.
Dazu noch die neue Nvidia Generation und einem interessanten ersten Halbjahr steht nichts entgegen.
Auch gut möglich, aber dadurch, dass er von H1 schreibt werden sich da gleich wieder alle drauf stürzen, obwohl das äußerst unwahrscheinlich ist.
Ich rechne da lieber konservativ und rechne mit Q4 20 für den Chip, wenn alles Top läuft wäre Q3 auch möglich. Z.B. Vega Tapeout August 16, Release August 17. Navi laut Fudzilla erste Chips im Labor Oktober 18, Tapeout 3 Monate davor, also Juli 18. Kaufbare GPUs Juli 19.
Jeweils 12 Monate. Zwar werden manche einwerfen 7nm EUV wäre kein neuer Prozess, aber die Design Rules etc sind trotzdem anders. 6nm wird der Prozess, der einen einfacheren Übergang haben soll. Dazu soll es ein großer Chip werden, was meist auch länger dauert.
Was mich etwas irritiert an dem Artikel sind die Tags:
Samsung 4nm, chiplet?
Ich vermute mal, dass das nichts zu sagen hat und, dass die einfach irgendwie generiert werden.
Wenn es genauere Informationen mitzuteilen gäbe, dann hätte er das doch wohl im Text wiedergegeben.
Das Tag "Samsung 4nm" gibt es allerdings nur bei diesem Text.
Tags haben bei Charlies Artikeln nix zu sagen. Nachdem Leute wie Wccftech angefangen haben aus seinen Tags News zu machen, hat er angefangen unsinnige Tags zu benutzen.
reaperrr
2019-11-16, 12:20:34
Tapeout jetzt heißt Release in etwa 9-12 Monaten, aber bestimmt nicht mehr in H1.
Er meint zu Ende Q2 (Computex im Juni) könnte es klappen. Release kann aber natürlich trotzdem erst Anfang Q3 sein.
Wobei zwischen Tape-Out und Release bei GPUs oft weniger Zeit vergeht als bei CPUs, solange sie keine Respins brauchen.
Berniyh
2019-11-16, 12:39:20
Auch gut möglich, aber dadurch, dass er von H1 schreibt werden sich da gleich wieder alle drauf stürzen, obwohl das äußerst unwahrscheinlich ist.
Ich rechne da lieber konservativ und rechne mit Q4 20 für den Chip, wenn alles Top läuft wäre Q3 auch möglich. Z.B. Vega Tapeout August 16, Release August 17. Navi laut Fudzilla erste Chips im Labor Oktober 18, Tapeout 3 Monate davor, also Juli 18. Kaufbare GPUs Juli 19.
Jeweils 12 Monate. Zwar werden manche einwerfen 7nm EUV wäre kein neuer Prozess, aber die Design Rules etc sind trotzdem anders. 6nm wird der Prozess, der einen einfacheren Übergang haben soll. Dazu soll es ein großer Chip werden, was meist auch länger dauert.
Da würde ich einwerfen, dass es bei Navi relativ klar Probleme gab die den Chip verzögert haben.
Hier und da war angeblich sogar von einem neuen Tapeout im Herbst/Winter die Rede.
Auch aus dem Grund gab es ja überhaupt die Radeon VII, welche ja augenscheinlich nie für den Endkundenmarkt geplant war.
Man kann recht sicher sein, dass man zur CES Navi Karten zeigen wollte, aber das war nicht möglich, also brauchte man so ein Marketingpferd.
Muss jetzt nicht bedeuten, dass es bei Navi2x schneller geht, aber ich denke Navi10 als Referenz zu nehmen ist auch nicht ganz richtig.
Aber alleine, dass zu Navi12 immer noch so gut wie nix bekannt ist, zeigt ja schon, dass Navi2x noch recht weit entfernt sein sollte.
Q2 wäre da sicherlich zu optimistisch.
Tags haben bei Charlies Artikeln nix zu sagen. Nachdem Leute wie Wccftech angefangen haben aus seinen Tags News zu machen, hat er angefangen unsinnige Tags zu benutzen.
Ja, sowas in der Art dachte ich mir schon.
AffenJack
2019-11-16, 12:45:45
Er meint zu Ende Q2 (Computex im Juni) könnte es klappen. Release kann aber natürlich trotzdem erst Anfang Q3 sein.
Wobei zwischen Tape-Out und Release bei GPUs oft weniger Zeit vergeht als bei CPUs, solange sie keine Respins brauchen.
Wie gesagt, hat es bei Vega, Navi, Polaris etc allen nicht, Nvidia kriegst es genausowenig schneller hin, aber jetzt bei einem Big Chip wird alles einfacher? Vergiss es. Vor Q3 ist da nix zu machen. Außer man launcht im Juni so, wie man die Desktop 5500 "gelauncht" hat. Also Monate bevor die GPUs zu kaufen sind.
Muss jetzt nicht bedeuten, dass es bei Navi2x schneller geht, aber ich denke Navi10 als Referenz zu nehmen ist auch nicht ganz richtig.
Aber alleine, dass zu Navi12 immer noch so gut wie nix bekannt ist, zeigt ja schon, dass Navi2x noch recht weit entfernt sein sollte.
Q2 wäre da sicherlich zu optimistisch.
War es bei Vega nun auch nicht anders und auch Polaris ging nicht so schnell. Polaris ~11 Monate, Vega 14 Monate, Navi ~12 Monate.Wenn es extrem gut läuft werden es 9 Monate und ein Release im August, das ist durchaus möglich, aber dann muss es eben deutlich besser als bei Polaris, Vega und Navi laufen. Aber unter 9 Monaten ist außer als Paperlaunch kaum möglich.
Tapeout bekommt man bei AMD nur hinterher mit, wenn der releast ist. N21 wird im Sommer Tapeout gehabt haben (genau wie Vermeer) und N23 vor 1-2 Monaten. AMD braucht eigentlich immer ein Jahr oder weniger für einen Grafikchip und 1 Jahr + 1 Q für eine CPU nach Tapeout wenn alles glatt läuft. N10 war wohl mutmaßlich 1 Jahr und ein paar Mon in Entwicklung, V20 nur 9 Monate ca.
Berniyh
2019-11-16, 14:39:38
N21 wird im Sommer Tapeout gehabt haben (genau wie Vermeer) und N23 vor 1-2 Monaten.
Es ist doch noch gar nicht bekannt, welcher Chip aus Navi21/22/23 welche Einordnung haben wird?
Berniyh
2019-11-16, 14:51:48
https://twitter.com/KOMACHI_ENSAKA/status/1195394941893038080
SPARKMAN is GFX10 APU. and "Support RayTracing & Variable Rate Shading" (?).
und
Van Gogh ≠ SparkMan
Sparkman wird also die erste(?) Navi-basierte APU.
Vermutlich wieder für ein Konsolen-Projekt?
Eine Endkunden-APU wird es ja eher nicht, zumindest suggeriert das der Codename.
Es ist doch noch gar nicht bekannt, welcher Chip aus Navi21/22/23 welche Einordnung haben wird?
Ist doch egal, wie man das Ding nennt. Einer ist jedenfalls High-End und einer der "NV-Killer", also Enthusiast.
spotz
2019-11-16, 22:44:06
Ist bei 7nm EUV nicht auch wieder eine kleine GPU im Einstiegsbereich fällig? Also in dem Segment wo RX 550, GT 1030, MX 150 und 250 aus der 14nm Fertigung derzeit sind. Könnte dafür nicht auch einer der Navi 2x gedacht sein.
reaperrr
2019-11-17, 00:00:47
Ist bei 7nm EUV nicht auch wieder eine kleine GPU im Einstiegsbereich fällig? Also in dem Segment wo RX 550, GT 1030, MX 150 und 250 aus der 14nm Fertigung derzeit sind. Könnte dafür nicht auch einer der Navi 2x gedacht sein.
Möglich ist es, aber ich bin mittlerweile skeptisch, ob sich das für AMD noch lohnt.
Navi14 Salvage kommt schon als 5300, und ein halber N14 oder so wäre nicht so gravierend schneller, als es Renoir und die Tiger Lake IGP sein werden.
Und die Fixkosten für 7nm-Chips sind verdammt hoch, da müsste man schon sehr hohe Stückzahlen verkaufen um das überhaupt wieder reinzuholen.
Und das in einem Markt, wo Gamer zukünftig wohl entweder Gebrauchtkarten oder etwas ab N14 aufwärts bzw. NV-Gegenparts kaufen werden, während dem Firmen-/Office-Bereich meist IGP oder ne ältere Alibi-Graka wie z.B. RX560/GTX 1050 reicht.
Leonidas
2019-11-17, 03:54:37
Stimmt. Vielleicht kann es sich nur NV leisten, noch extra LowCost-Chips aufzulegen. Die verkaufen so was dann Dutzend-Millionenfach als (gesponnen) "GeForce 1020" oder im Mobile-Bereich. AMD hat es in diesen Märkten schwer, kommt wohl nicht auf diese Stückzahlen - und legt daher dort keinen Chip auf.
Berniyh
2019-11-17, 08:21:02
Ist bei 7nm EUV nicht auch wieder eine kleine GPU im Einstiegsbereich fällig? Also in dem Segment wo RX 550, GT 1030, MX 150 und 250 aus der 14nm Fertigung derzeit sind. Könnte dafür nicht auch einer der Navi 2x gedacht sein.
Möglich ist das schon, wir wissen ja nicht genau wie viele Chips da geplant sind.
Bis vor kurzem wussten wir nur von Navi21 und 23, jetzt kam neuerdings noch Navi22 dazu.
Es scheinen also zumindest 3 Chips (laut Plan) zu werden.
Da könnte schon eine Einsteiger GPU dabei sein.
Wahrscheinlicher ist aber, dass die in irgendeiner Form eher Navi10, 14 und 12 beerben.
AffenJack
2019-11-17, 09:47:01
Tapeout bekommt man bei AMD nur hinterher mit, wenn der releast ist. N21 wird im Sommer Tapeout gehabt haben (genau wie Vermeer) und N23 vor 1-2 Monaten. AMD braucht eigentlich immer ein Jahr oder weniger für einen Grafikchip und 1 Jahr + 1 Q für eine CPU nach Tapeout wenn alles glatt läuft. N10 war wohl mutmaßlich 1 Jahr und ein paar Mon in Entwicklung, V20 nur 9 Monate ca.
Sicher, AMD hat ja nix besseres zu tun als in seinen Roadmaps anzugeben, dass der Chip noch im Design ist, obwohl das Tapeout schon war. Die Anleger mögen es sehr gerne belogen zu werden.:freak:
RDNA2 ist in Design, nicht N21. Ich schreib ja schon die ganze Zeit, dass das nicht RDNA2 ist. RDNA2 wird sicher nicht mehr Navi heißen.
horn 12
2019-11-17, 09:59:36
Exakt
Dies ist RDNA 1 die 2-te Stufe
Und diese Karten kommen bald, sehr bald.
CPU ist nun komplett durch und nun wird die Grafiksparte Neu generiert und man will oben und Enthusiast komplett mitmischen.
Der Dezember Update Treiber wird Klarheit schaffen.
Berniyh
2019-11-17, 10:27:44
RDNA2 ist in Design, nicht N21. Ich schreib ja schon die ganze Zeit, dass das nicht RDNA2 ist. RDNA2 wird sicher nicht mehr Navi heißen.
Ja, das schreibst du schon die ganze Zeit, aber hast du irgendeinen Beleg für deine Behauptung?
Ich kenne keine. Alles was bekannt ist (seitens AMD selbst, deren Roadmaps sowie diverse Gerüchte) widerspricht dir.
Complicated
2019-11-17, 10:43:25
Stimmt. Vielleicht kann es sich nur NV leisten, noch extra LowCost-Chips aufzulegen. Die verkaufen so was dann Dutzend-Millionenfach als (gesponnen) "GeForce 1020" oder im Mobile-Bereich. AMD hat es in diesen Märkten schwer, kommt wohl nicht auf diese Stückzahlen - und legt daher dort keinen Chip auf.
Eine seltsame Logik, nachdem AMD es sich leisten konnte für diesen Markt eine komplett neue Prozessorklasse zu etablieren mit den APUs und jährlich neue Produkte released und den Performance-Level konstant nach oben schiebt. Nvidia hat keine IGPs und muss daher dort etwas diskretes anbieten oder den Markt komplett abgeben.
Anstatt Low-End GPUs zu designen auf immer teureren Prozess-Nodes ersetzen das APUs mit ca. 1 Jahr Rückstand in der Technologie in diesem Markt - Die CPUs müsste man sowieso liefern. AMD produziert kein Lowend, weil Sie strategisch vor Jahren investiert haben um das nicht zu müssen und der wachsende Notebook Sektor wird diskrete mobile GPUs immer weniger brauchen, wie aktuelle Designs zeigen.
Unicous
2019-11-17, 11:30:47
Man, kann HOT getrost ignorieren. Wenn er spekuliert, kennzeichnet er es nicht. Und wenn er es nicht tut kann man es eh nicht unterscheiden.:rolleyes:
Seine Spekulationen sind so gut wie immer aus der Luft gegriffen und wenn man ihn darauf hinweist, was er für einen Quatsch er schreibt, ignoriert er es einfach.
Er liefert keinerlei Beweise oder gar grobe Anhaltspunkte für seine Behauptungen aber tut so als wäre das was er herausposaunt eine sich selbst erfüllende Prophezeiung. Und so sprach HOT: Es werde, dass Navi 14 nur 22 CUs hat und es ward, dass Navi 14 22 CUs hat.
Navi 12 ist kleiner als Navi 14. So soll es sein, so soll es geschehen.
Es ist einfach: Das ist ein Spekulationsforum. Ich habe das verstanden :D. Und das du gerne jeden beleidigst der dir nicht in den Kram passt, ist ja allgemein bekannt. Du bist mir einfach egal.
Berniyh
2019-11-17, 12:37:45
Auch für Spekulationen sollte es zumindest eine sinnvolle Basis geben, ansonsten ist das ziemlich sinnlos.
LasterCluster
2019-11-17, 12:43:56
Eine seltsame Logik, nachdem AMD es sich leisten konnte für diesen Markt eine komplett neue Prozessorklasse zu etablieren mit den APUs und jährlich neue Produkte released und den Performance-Level konstant nach oben schiebt. Nvidia hat keine IGPs und muss daher dort etwas diskretes anbieten oder den Markt komplett abgeben.
Anstatt Low-End GPUs zu designen auf immer teureren Prozess-Nodes ersetzen das APUs mit ca. 1 Jahr Rückstand in der Technologie in diesem Markt - Die CPUs müsste man sowieso liefern. AMD produziert kein Lowend, weil Sie strategisch vor Jahren investiert haben um das nicht zu müssen und der wachsende Notebook Sektor wird diskrete mobile GPUs immer weniger brauchen, wie aktuelle Designs zeigen.
Zwischen den APUs und N14 klafft aber schon noch ne Lücke. Vorrübergehend kann man die noch mit Polaris stopfen. In Zukunft gibt es vlt noch ein N24 als N14 Refresh.
P.S.: Hat AMD sich nicht die Rechte an einer 600 Serie gesichert? Vielleicht wird die 600er Serie die non-RT Serie begleitend zur 6000er wie eben GTX16 zu RTX20
Complicated
2019-11-17, 12:59:59
Zwischen den APUs und N14 klafft aber schon noch ne Lücke. Vorrübergehend kann man die noch mit Polaris stopfen. In Zukunft gibt es vlt noch ein N24 als N14 Refresh.
P.S.: Hat AMD sich nicht die Rechte an einer 600 Serie gesichert? Vielleicht wird die 600er Serie die non-RT Serie begleitend zur 6000er wie eben GTX16 zu RTX20
Ich bezog mich ja eindeutig darauf:
Die verkaufen so was dann Dutzend-Millionenfach als (gesponnen) "GeForce 1020" oder im Mobile-Bereich. und warum AMD da nicht unternehmen muss. Das liegt nicht an mangelndem Budget wie Leonidas das interpretiert.
Zwischen Ryzen 5 3400G und 5300m (65W TDP) und Ryzen 5 3550H (45W) ist zwar sicherlich noch eine Leistungslücke für die GPU, doch wen bedient man mit zusätzlichen Lowend-dGPUs hier?
Ravenhearth
2019-11-17, 13:05:33
P.S.: Hat AMD sich nicht die Rechte an einer 600 Serie gesichert? Vielleicht wird die 600er Serie die non-RT Serie begleitend zur 6000er wie eben GTX16 zu RTX20
Es gibt schon Polaris-basierte RX 600-Karten für OEMs. (https://www.computerbase.de/2019-08/amd-radeon-rx-600/)
LasterCluster
2019-11-17, 13:18:17
Ah, ok. Dann wird die 600er Reihe den jetzigen Low end-Markt abdecken, aber (erst mal?) nur für OEMs.
spotz
2019-11-17, 13:26:41
Möglich ist es, aber ich bin mittlerweile skeptisch, ob sich das für AMD noch lohnt.
Navi14 Salvage kommt schon als 5300, und ein halber N14 oder so wäre nicht so gravierend schneller, als es Renoir und die Tiger Lake IGP sein werden.
Und die Fixkosten für 7nm-Chips sind verdammt hoch, da müsste man schon sehr hohe Stückzahlen verkaufen um das überhaupt wieder reinzuholen.
Und das in einem Markt, wo Gamer zukünftig wohl entweder Gebrauchtkarten oder etwas ab N14 aufwärts bzw. NV-Gegenparts kaufen werden, während dem Firmen-/Office-Bereich meist IGP oder ne ältere Alibi-Graka wie z.B. RX560/GTX 1050 reicht.
Ja, da hast du wohl recht. Wenn man bedenkt das so ein halber N14 dann für drei, vier Jahre auf dem Markt bestehen müsste, wird es schwer werden da eine deutliche Abgrenzung zu den APUs zu schaffen.
Alles was bekannt ist (seitens AMD selbst, deren Roadmaps sowie diverse Gerüchte) widerspricht dir.
https://www.xboxdynasty.de/news/xbox-next/geruecht-scarlett-und-dante-dev-kit-spezifikationen-aufgedeckt/ (08.08.2019)
"Gerücht: Scarlett und Dante Def-Kit Spezifikation aufgedeckt"
"-Rev.1 Production in Oct 2019"
"-GPU: Custom Navi 21, Full 56 Compute Units @1623Mhz"
Ja, es ist nicht bestätigt.
Und ja, es ist nur das Spekulationsforum...
M.f.G. JVC
amdfanuwe
2019-11-17, 14:50:20
APUs sind noch durch die Bandbreite begrenzt.
AMD arbeitet aber auch an 3d Stacked Technologie. Könnte die (über)nächste APU schon RAM on Top haben?
Berniyh
2019-11-17, 14:50:39
https://www.xboxdynasty.de/news/xbox-next/geruecht-scarlett-und-dante-dev-kit-spezifikationen-aufgedeckt/ (08.08.2019)
"Gerücht: Scarlett und Dante Def-Kit Spezifikation aufgedeckt"
"-Rev.1 Production in Oct 2019"
"-GPU: Custom Navi 21, Full 56 Compute Units @1623Mhz"
Ja, es ist nicht bestätigt.
Und ja, es ist nur das Spekulationsforum...
Wenn du mir jetzt noch sagst in welchem Zusammenhang das zu HOTs Aussagen stehen soll?
Wenn du mir jetzt noch sagst in welchem Zusammenhang das zu HOTs Aussagen stehen soll?
Z.B. seine letzten beiden Posts.
N21 wird im Sommer Tapeout gehabt haben...
RDNA2 ist in Design, nicht N21...
Du meintest ja, das nichts dafür spricht oder darauf hin deutet...
Auch für Spekulationen sollte es zumindest eine sinnvolle Basis geben...
Deshalb dachte ich, es sei ein guter Gedanke eine Quelle zu verlinken,
laut Der "Navi 21" in Entwickler-Kits bereits ausgeliefert wird.
M.f.G. JVC
Berniyh
2019-11-17, 16:28:42
Das was in der Quelle steht widerspricht nicht zwangsläufig dem was in anderen Quellen zu lesen ist.
Aber das was er daraus gemacht hat (Navi21 = RDNA 1.5 != RDNA 2) widerspricht dem schon.
Dazu kommt: die Aussage war, dass eine neue High-End GPU den Tapeout hatte. Dabei muss es sich aber nicht zwangsläufig um Navi21 handeln.
ggf. ist Navi21 der Nachfolger von Navi10, d.h. oberer Mainstream. Die 56 CUs wären dafür recht viel, aber möglich wäre es.
Dazu würde auch der Zeitpunkt (Release grob 1 Jahr nach Navi10) halbwegs passen.
Navi23 könnte in Q3/Q4 der "Nvidia-Killer" oberhalb von Navi21 sein und wäre dann der Chip, über den gerade berichtet wurde. 56 CU klingt auch ehrlich gesagt nicht nach Nvidia-Killer, da müsste wohl eher was im Bereich 64-80 CU her.
Navi22 hingegen wäre dann wohl ein Nachfolger von Navi14 und wäre wohl eher gegen Ende 2020 zu erwarten.
In jedem Fall gilt aber: AMD zeigt auf eigenen Folien, dass man RDNA2 in 7nm+ vor 2021 sieht.
Da Navi2x die nächste Chipgeneration ist wird diese auch RDNA2 sein, denn da ist einfach kein Raum für irgendwas dazwischen.
Abgesehen davon hat man nirgends – außer in diesem Forum (und evtl. anderen, ähnlichen Foren) – jemals etwas von RDNA 1.5 oder RDNA 1+ o.ä. gelesen.
Da so kurz (ca. 1/2 Jahr) vor einem potentiellen Release davon auszugehen, dass es sowas gibt ist schon recht absurd.
Wenn etwas "RDNA 1.5" ist, dann vermutlich eher Navi14/12, aber ziemlich sicher nicht Navi21.
Die firmieren aber meines Wissens auch nicht unter der Bezeichnung.
Complicated
2019-11-17, 18:04:33
APUs sind noch durch die Bandbreite begrenzt.
AMD arbeitet aber auch an 3d Stacked Technologie. Könnte die (über)nächste APU schon RAM on Top haben?
Das entwickelt ja in den nächsten 2 Jahren Samsung mit AMDs GPU-IP. Ich denke da wird AMD auch das eine oder andere daraus mitnehmen, denn soweit ich verstanden habe wird AMD hier die Entwicklungsarbeit mit Samsung gemeinsam in der Semi-Custom Unit machen. Das ARM-CPU Team wurde ja aufgelöst von Samsung. (https://winfuture.de/news,112178.html) Die meisten haben das so interpretiert, dass Samsung nun Vanilla-ARM Kerne verwenden wird. Mal sehen ob da nicht in 2 Jahren Galaxy Tablets und später sogar Telefone mit Zen5 anstatt ARM und 3D stacking bis in die APU-Modelle für Notebooks kommt. Mit dem Chiplet-Design ist da schnell ein mobiler I/O designed in 2 Jahren.
y33H@
2019-11-17, 18:06:11
Und dann Android auf x86, so wie es Intel (erfolglos) versucht hat? wobei das Razer i gar nicht übel war ...
reaperrr
2019-11-17, 18:10:21
Mal sehen ob da nicht in 2 Jahren Galaxy Tablets und später sogar Telefone mit Zen5 anstatt ARM und 3D stacking bis in die APU-Modelle für Notebooks kommt. Mit dem Chiplet-Design ist da schnell ein mobiler I/O designed in 2 Jahren.
Extrem unwahrscheinlich, zumindest für Phones. Fehlende Android-App-Kompatibilität mit x86 ist ein Showstopper, und aktuell sehe ich nicht, dass sich da in den nächsten Jahren irgendwas entscheidendes dran tun wird.
Abgesehen davon, dass das ganze auch mit ARM-Chiplets ginge.
Complicated
2019-11-17, 23:13:29
Ich denke hier werden vor allem Tablets und TVs den Konsolen Konkurenz machen wollen mit dem Spielestreaming. Sony und MS würden sicher nichts dagegen haben, sie müssen Streaming ja anbieten um den Markt nicht Google zu überlassen. Konsolen könnten zu optionalen externen GPU-Beschleunigern+Speicher mutieren wenn die Grundfunktionalität in TVs zum streamen schon vorhanden wäre.
reaperrr
2019-11-18, 15:17:47
https://wccftech.com/amd-2nd-gen-rdna-navi-gpu-radeon-rx-graphics-card-ces-2020-rumor/
Infos kommen aus Quelle, die u.a. bei Launchzeitpunkt und Specs der RX 590 und VII recht hatte.
Zu N2x:
- Preview zu Navi2x/RDNA2 soll auf CES erfolgen
- Navi2x soll neben 7nm+ und Hardware-RT auch effizienter sein (hoffentlich unabhängig vom Prozess gemeint...)
- wird sowohl Modelle mit GDDR6 als auch HBM2(E?) geben (war abzusehen, aber so als halbe Bestätigung aufgrund der bisher zuverlässigen Quelle)
Zu N1x:
- Es soll relativ bald noch eine N10-basierte Graka unter der 5700 rauskommen, Preisbereich 250-300$/€ (eigene Speku: 32 CUs, 12Gbps GDDR6, kein Referenzmodell, Name 5600XT oder 5650)
- war abzusehen, aber: 5500-24CU bleibt Apple-exklusiv, also auch die 5500XT wird nur 22 aktive CUs haben
Leonidas
2019-11-18, 15:27:01
Zu N1x:
- Es soll relativ bald noch eine N10-basierte Graka unter der 5700 rauskommen, Preisbereich 250-300$/€ (eigene Speku: 32 CUs, 12Gbps GDDR6, kein Referenzmodell, Name 5600XT oder 5650)
Ich wette eine Luftblase, das WCCF hier nur aufmerksam die Foren-Spekus geleasen haben und das nun einfach in die Welt als "Nachricht" setzen - wenn es kommt, hat man es als erster geschrieben, wenn nicht, erinnert sich keiner daran.
Update: Nehme die Aussage zurück, die Meldung kommt von Wjm47196.
"Gerücht: Scarlett und Dante Def-Kit Spezifikation aufgedeckt"
"-GPU: Custom Navi 21, Full 56 Compute Units @1623Mhz"[/I]
Bisher hatte keiner der Konsolen-SoCs von AMD irgendeinen extra Codenamen nur für die GPU. Macht auch kaum Sinn, weil das ganze existiert ja nur als ein großer Chip, zusammen mit der CPU.
"Bisher" bedeutet natürlich nicht, das es zukünftig nicht doch anders sein könnte. Ich wollte nur auf die Chancen-Verteilung hinweisen.
mboeller
2019-11-18, 16:01:39
Zu N2x:
- Preview zu Navi2x/RDNA2 soll auf CES erfolgen
Zu N1x:
- Es soll relativ bald noch eine N10-basierte Graka unter der 5700 rauskommen, Preisbereich 250-300$/€
- war abzusehen, aber: 5500-24CU bleibt Apple-exklusiv, ...
nur diese Aussagen konnte ich dem Leaker zuordnen... und die stehen gleich im ersten Posting auf der Seite.
Berniyh
2019-11-18, 17:14:54
- war abzusehen, aber: 5500-24CU bleibt Apple-exklusiv, also auch die 5500XT wird nur 22 aktive CUs haben
Das bezweifle ich. So toll kann der Deal mit Apple eigentlich gar nicht sein, als dass man sich dafür so dermaßen ins eigene Fleisch schneiden würde.
evtl. ist die mobile 24CU Variante Apple-exklusiv, aber auf dem Desktop wird es doch sicherlich den Vollausbau geben.
Oder aber die Ausbeute ist so schlecht …
Dino-Fossil
2019-11-18, 17:22:34
Tonga war doch auch ne Weile Apple-exklusiv und kam später doch noch.
Ähnlich könnte es mit dem Vollausbau sein. Wobei das den Braten auch nicht fett macht.
Ravenhearth
2019-11-18, 18:15:55
Wenn man schon auf der CES RDNA 2.0 previewt, frage ich mich was mit Navi 12 ist. Bringt man wirklich noch einen Oberklasse-Navi/"RX 5900" wenn wahrscheinlich im gleichen Jahr schon neue Karten mit RT usw. erscheinen? Der wäre dann recht kurzlebig... Vielleicht ist Navi12 ja doch nicht über Navi10 angesiedelt?
LasterCluster
2019-11-18, 18:25:23
Wenn man schon auf der CES RDNA 2.0 previewt, frage ich mich was mit Navi 12 ist. Bringt man wirklich noch einen Oberklasse-Navi/"RX 5900" wenn wahrscheinlich im gleichen Jahr schon neue Karten mit RT usw. erscheinen? Der wäre dann recht kurzlebig... Vielleicht ist Navi12 ja doch nicht über Navi10 angesiedelt?
Oder N12 ist eher für den Profimarkt und darum kann man sich erlauben nur begrenzte Zeit wie bei Radeon VII eine Consumervariante zu bringen
Ravenhearth
2019-11-18, 18:30:26
Da passt die Info, dass Navi12 entweder ein 256bit GDDR6- oder ein 2048 bit HBM-Interface hat, aber nicht so richtig zu, oder? Selbst letzteres wäre ja nur die Hälfte von Vega20.
Berniyh
2019-11-18, 19:15:59
http://sa2019.conference-program.com/presentation/?id=ext_131&sess=sess288
AMD will discuss distributed cloud rendering on a blockchain based ecosystem leveraging AMD’s Open standard render ProRender and demonstrate how Morgenrot’s Render Pool application is optimized for rendering performance with new Navi based RNDA 16GB GPUs.
evtl. ist das Navi12?
Wie passt das mit den mutmaßlichen 16 SDP Interfaces zusammen?
Ravenhearth
2019-11-18, 19:25:55
Passt. 16GB ließen sich gut mit 2 Stacks HBM 2 (also 2048 bit) realisieren, siehe Vega10. Könnten aber auch Radeons mit Navi10 und 16GB GDDR6 sein, oder? Aber für Server? Hmm...
Iscaran
2019-11-18, 20:02:37
Changelog des neuen GPU-Z 2.27:
v2.27.0 (November 18th, 2019)
Added support for AMD Radeon Pro Vega 48, FirePro A300
....
Was ist Vega 48 ???
deekey777
2019-11-18, 20:19:30
Aus dem Mac Pro, oder?
Quatsch, aus dem iMac: https://www.apple.com/de/imac/specs/
Berniyh
2019-11-18, 20:26:43
Passt. 16GB ließen sich gut mit 2 Stacks HBM 2 (also 2048 bit) realisieren, siehe Vega10. Könnten aber auch Radeons mit Navi10 und 16GB GDDR6 sein, oder? Aber für Server? Hmm...
Hätte bei 16 GB HBM2 jetzt eher eine VII Config erwartet, d.h. 4096 bit HMB2.
BoMbY
2019-11-18, 20:30:58
Ne, wenn es Navi12 ist macht es schon Sinn mit 2 Stacks, das soll ja vermutlich eigentlich hauptsächlich als Gamer-Karte verkauft werden. Arcturus dürfte wohl vier Stacks haben.
Berniyh
2019-11-18, 20:34:52
Es geht aber nicht um eine Gamer Karte.
BoMbY
2019-11-18, 20:38:30
Es geht um die Pro-Version eines für Gaming-Karten gebauten Dies. "Navi based RNDA". Es könnte auch einfach Navi10 mit doppeltem Speicher sein.
Ravenhearth
2019-11-18, 20:40:01
Hätte bei 16 GB HBM2 jetzt eher eine VII Config erwartet, d.h. 4096 bit HMB2.
Die Profi-Karten haben i.d.R. die doppelte Menge durch doppelt so "hohe" Stacks, siehe Radeon Instinct MI60 mit 32GB.
Berniyh
2019-11-18, 20:40:51
Es geht um die Pro-Version eines für Gaming-Karten gebauten Dies. "Navi based RNDA". Es könnte auch einfach Navi10 mit doppeltem Speicher sein.
Klar, das wäre auch möglich.
Irgendwie erscheint mir Navi12 aber wahrscheinlicher, denn wenn das ein Chip vorwiegend für Pro Karten wäre, dann würde das den ggf. kurzen Abstand zwischen Navi12 und Navi2x erklären.
BoMbY
2019-11-18, 20:42:17
Btw. baut z.B. Samsung jetzt auch K4ZAF325BM-HC14 GDDR6 mit 16 Gb (https://www.samsung.com/semiconductor/dram/gddr6/K4ZAF325BM-HC14/). Also ist Navi10 mit doppeltem Speicher sogar wahrscheinlich.
Berniyh
2019-11-18, 20:48:03
hm ok. Dann bin ich mal gespannt, was da noch so kommt. ;)
BoMbY
2019-11-18, 20:57:17
Radeon Pro W5700: Navi 10 / 16GB GDDR6 256-bit (https://videocardz.com/newz/amd-to-announce-radeon-pro-w5700-nvidia-to-announce-magnum-io)
Ravenhearth
2019-11-18, 21:05:05
Also wieder auf Anfang ;D
Wenn Navi12 wirklich eine "RX 5900" ist, dann wird dem kein langes Leben bevorstehen, oder aber RDNA 2.0 kommt nicht vor Ende 2020.
Berniyh
2019-11-18, 21:14:33
oder aber RDNA 2.0 kommt nicht vor Ende 2020.
oder man hat – wie bei Navi1x – einen gestaffelten Releaseplan.
Danach würde zumindest der Low-End und der High-End Chip frühestens in einem Jahr kommen.
Prinzipiell wäre doch eine Taktung wie bei den CPUs (d.h. etwa eine Generation pro Jahr) denkbar, oder?
Der Navi10 Nachfolger würde dann im (Spät-)Sommer anstehen.
horn 12
2019-11-18, 21:15:20
Igor sagte doch Testet diese Karte gerade, oder kommt zumindest bald
Naher Zukunft gut möglcih:
Navi 1x plus 25% mit 16 GB DDR6 und man wäre auf RTX 2080 Super Super Level in etwa.
Mit Custom Modellen gar knapp hinter RTX 2080 TI FE
y33H@
2019-11-18, 22:27:01
Verlinke ihn doch ...
horn 12
2019-11-19, 00:16:25
https://www.igorslab.media/community/threads/ab-november-verfügbar-amd-ryzen-9-3950x-und-threadripper-3000-kommen-später-als-erwartet.1722/page-13
Zitat :
Da hat man von den Ryzen 7 deutlich mehr. Ich weiß eh nicht, wie ich das alles schaffen soll. Radeon Pro W5700, die Leistungsaufnahmegeschichte, 1650 Super. Das Wochenende bestand aus zwei 16+-Stunden-Tagen
Nightspider
2019-11-19, 00:44:05
Wieso sollte AMD einen Chip mit popeligen +25% auflegen?
Als Salvage vielleicht 25% aber der komplette Chip muss mehr können um gerechtfertigt zu sein.
Linmoum
2019-11-19, 01:02:40
Als Salvage vielleicht 25% aber der komplette Chip muss mehr können um gerechtfertigt zu sein.Weil der Abstand zwischen TU104 und TU106 auch so riesig ist, oder warum? ;)
Leonidas
2019-11-19, 05:27:24
Prozentual nicht, aber es sind wenigstens 100mm². Das dürfte der entscheidende Punkt gewesen sein, extra einen TU106 aufzulegen.
Entweder ist N12 kleiner (32 CUs) oder ein Refresh der 40 CUs. Alles darüber macht einfach 0 Sinn. Für nen Refresh würd man auch 16GT GDDR verwenden.
Dino-Fossil
2019-11-19, 12:30:19
Jetzt schon einen 40CU refresh macht wohl genauso wenig Sinn.
Aber ein 32CU Chip erscheint auch unglaubwürdig.
Also entweder richtig klein (dagegen spricht das Speicher-Interface), größer (dagegen spricht wohl v.a. Zeit bis RDNA2) oder was ganz anderes. Oder auch gecancelt.
Klar ergibt das Sinn. Das kann mehrer Gründe haben:
- keine Zusatzkosten da gleiche PCBs und gleiche Maske auf besserem Prozess (das würde sogar sobald wie möglich Sinn ergeben)
- der alte Chip war massiv verspätet und man möchte den Zeitplan nicht gefährden (gab es aber nur selten)
und was mir jetzt nicht einfällt.
Also: Refresh oder 32CUs. 14-16GT reicht einfach nicht für einen größeren Chip und mehr gibts derzeit einfach nicht für 256Bit. Ein größerer scheidet also rein technisch definitiv aus. Also muss es ja kleiner oder gleich sein, geht ja wohl nicht anders.
Was anderes wäre es, die 256Bit in Zweifel zu ziehen, dann sind wir aber bei N12 eher unter N14. Wie dem auch sei, wir werden bei der CES keinen großen Chip sehen, allerhöchstens Refreshes, also ne 6700 evtl. N14 scheint ja auch generell verschoben zu sein im Retail. Es gibt 5500er für OEMs, 5500XT Desktop rein für Apple und beide für Mobile, das wars. Und einige Hersteller legen grad RX580 neu auf - das spricht eigentlich für ne Refreshgeneration nächstes Jahr, dann auch mit N14.
BoMbY
2019-11-19, 13:45:33
Ohh wei. Mit HBM2e reicht es locker, abgesehen davon sind das uralte Werte die vielleicht einfach falsch waren.
Dino-Fossil
2019-11-19, 15:46:32
Klar ergibt das Sinn. Das kann mehrer Gründe haben:
- keine Zusatzkosten da gleiche PCBs und gleiche Maske auf besserem Prozess (das würde sogar sobald wie möglich Sinn ergeben)
Welcher Prozess wäre das denn? Bisher habe ich eher gelesen, dass 7nm+ sich teils deutlich unterscheidet, damit wären keine alten Masken mehr möglich.
Außerdem tauchte N12 nicht so viel nach N10 auf, kommt mir für einen Refresh ebenfalls sehr zeitig vor.
7nm Pro, + ist nicht kompatibel.
amdfanuwe
2019-11-19, 16:38:04
N14 scheint ja auch generell verschoben zu sein im Retail. Es gibt 5500er für OEMs, 5500XT Desktop rein für Apple und beide für Mobile, das wars. Und einige Hersteller legen grad RX580 neu auf - das spricht eigentlich für ne Refreshgeneration nächstes Jahr, dann auch mit N14.
Werden die Fertigungskapazitäten wohl für ROME brauchen. Gut möglich, dass sich dadurch einige Pläne für Navi 1x geändert haben.
N7P gibt nochmals weitere Möglichkeiten durch etwas mehr Performance. Damit käme ein N10 ja schon auf 2070 Super Performance.
Mal sehen, womit und AMD noch überrascht.
horn 12
2019-11-19, 19:21:00
https://twitter.com/0x22h/status/1196692774059302913
PS:
Was davon zu halten ?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.