Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
dargo
2019-05-28, 22:14:34
Vega hat bis zu 1,7Ghz... Sind dann eher 10-15% mehr Takt.
In deinen Träumen vielleicht. Selbst eine V10 LCE erreicht keine 1,7Ghz bei dann schon ~350W mit der Default PP-Table.
reaperrr
2019-05-28, 23:16:25
In deinen Träumen vielleicht. Selbst eine V10 LCE erreicht keine 1,7Ghz bei dann schon ~350W mit der Default PP-Table.
Er meinte sicher Vega20.
reaperrr
2019-05-28, 23:38:36
Ich gehe also von >2.0 GHz Takt aus. Dann sehen die 1.5x Performance/Watt schon wieder ein wenig besser aus.
Die werden den Navi-Chip wahrscheinlich mit einem Vega10 mit nur 40 aktiven CUs verglichen haben. Die Perf/Mhz skaliert bei GCN aber gerade bei mehr als 10 CUs je SE alles andere als linear, soll heißen ein Vega10 mit 40 CUs hätte bei gleichem Takt nicht nur die theoretischen 62,5% der V64-Leistung, sondern eher schätzungsweise bei ~75-80%, weil die Leistung von allem anderen - Frontend, ROPs, L2 usw. - eben gleich bleibt, und die SEs 10 CUs wesentlich leichter optimal auslasten können als 16 CUs.
Ich schätze, dass die Leistung pro MHz des vollen 40CU-Navi in den meisten Spielen im Bereich der V56 liegen wird, in manchen Titeln etwas drüber.
Oder anders ausgedrückt, ca. das IPC-Niveau der GTX 1080, bei höherem Takt.
Also dann quasi Gleichstand mit Pascal bei IPC je ALU (in DX11, in DX12/Vulkan sicher höher) und leichte Vorteile bei Effizienz und Takt, hauptsächlich dank 7nm.
Edit: Sorry für den Doppelpost:redface:
nonharderware
2019-05-29, 07:08:22
Hallo!
Kann man mir vielleicht bei folgenden Dingen weiterhelfen: Was ist denn nun mit Navi und Raytracing?
Die PS5 bekommt RT.
https://www.pcgames.de/Playstation-5-Konsolen-265878/News/Sony-mit-weiteren-Details-zu-ihrer-Next-Gen-Konsole-1282711/
Wie wird man dies umsetzen?
Kommt da ein extra angepasster PS5-Navi-Chip mit dezidierter RT-Hardware oder bleibt man bei dem Design?
Achim_Anders
2019-05-29, 07:39:29
AMD wird den Vergleich nehmen, der am besten aussieht... Sonst wäre die Vergleichsgröße klsr benannt worden. Ergo würde ich vom worst case ausgehen...
Das ist sicherlich richtig. Aber AMD wird sicherlich das Produkt eh wieder bis zur Kotzgrenze getaktet haben, was genauso wie bei Vega die eigentliche Energieeffizienz verdecken wird, einfach weil die TDP hoch angesetzt wird und die Spannung in den oberen Bereichen sehr hoch ist.
Könnt mir schon vorstellen, dass die Hersteller Customdesigns bauen, die bis 300W verbraten werden.
irgendwann wirds schwierig mit der Wärmeabfuhr und überhaupt diese Energie durch die sehr feinen Strukturen zu leiten
https://www.computerbase.de/2019-05/amd-navi-custom-rx-5700-august/
AMD Navi: Custom-Lösungen der Radeon RX 5700 kommen im August
Hakim
2019-05-29, 11:14:45
Alle 3 Ausführungen mit tripple Lüfter, das gibt einem schon wieder bezüglich verbrauch und Wärme entwicklung zu denken
dildo4u
2019-05-29, 11:35:37
Ist wie bei der Radeon 7 die wurden alle gegen die Pascal Modelle ausgerichtet,2070 ist ca 10% schneller als die 1080 daher müssen die jetzt am Limit laufen.
https://www.computerbase.de/2019-05/grafikkarten-test-benchmarks-2019/#abschnitt_grafikkartenbenchmarks_in_3840__2160
Birdman
2019-05-29, 11:47:39
Na ja, 180/225W sind durchaus genug viel, um eine tripple Lüfter Konstruktion zu rechtfertigen.
Gibt ja auch viele xx70 und xx80er nVidia Karten mit solchen Kühllösungen und diese operieren in einem ähnlichen TDP Bereich.
In Bezug auf Lautstärke es jedenfalls immer zu begrüssen, wenn bei sowas geklotzt und nicht gekleckert wird.
Gibts schon Infos über mobile Varianten, wann sollen denn diese kommen?
Ich würde mir sehr gerne einen AMD only Laptop mit Navi kaufen.
Leonidas
2019-05-29, 12:04:09
dort steht auch :"The AMD Radeon RX 5700 was 10% faster in the demo shown by AMD so for the same amount of TDP"
Leider hat AMD nicht gesagt ob es dieselbe TDP war und sie haben den Benchmark mit "Radeon RX 5000" und nicht "Radeon RX 5700" untertitelt. WCCF Tech vermischt wie üblich zu stark echte Infos mit eigenen Annahmen bzw. Gerüchten.
Die Karte ist deutlich schneller als eine Vega64 und verbraucht knapp 8% weniger bei doppeltem Speicher ( Der saugt viel Saft! ).
Speicher selber saugt wenig. Speicherinterfaces saugen. Aber da ist Vega mit HBM ja besser als alle GDDR-Typen aufgestellt. An dieser Stelle würde ich also keinen großen Unterschied zwischen RX Vega und R7 erwarten.
bitte bitte lasse es ne VII sein die als custom kommt...
Hat doch Sapphire kürzlich gesagt, das hierzu noch nichts in Aussicht ist.
Gibts schon Infos über mobile Varianten, wann sollen denn diese kommen?
Bis dato nicht. AMD dürfte froh sein, erst einmal Desktop abhandeln zu können. Mobile dürfte man dann angehen, wenn die kleineren Navi-Chips da sind und man den Notebook-Herstellern ein komplettes Portfolio bieten kann. Vorher dürften die nicht bereit sein, den extra Aufwand für AMD zu betreiben.
nordic_pegasus
2019-05-29, 12:34:20
Die LG OLEDs mit HDMI 2.1/ VRR/ ALLM sind jetzt auf dem Markt. Da würde mich HDMI 2.1 Support bei Navi sehr freuen. Wie seht Ihr die Chancen?
BoMbY
2019-05-29, 12:59:49
Hallo!
Kann man mir vielleicht bei folgenden Dingen weiterhelfen: Was ist denn nun mit Navi und Raytracing?
AMD wird dazu mehr auf der E3 sagen, wurde mehrfach bei Computex-Interviews gesagt.
Edit: AMD “Next Horizon Gaming” from E3 (http://ir.amd.com/events/event-details/amd-next-horizon-gaming-e3), am 10.06. aka Pfingstmontag.
BlacKi
2019-05-29, 13:05:01
Wie viel macht das denn wirklich aus? Zum Vergleich, die RX480 hatte 110W ASIC-Power und 150W Board-Power (40W Unterschied). Die Vega 64 kommt auf 220W bzw. 295W, also 75W Unterschied, die Vega 56 auf 165W bzw. 220W, also 55W Unterschied. Laut CB gehört der HBM nicht zur ASIC-Power. Ein Teil des Unterschieds geht iirc auch für die Spannungswandler drauf, aber so sparsam scheint der HBM trotzdem nicht zu sein.
bei der diskussion haben wir den wichtigsten teil eigentlich weggelassen. das speicherinterface. nicht die speichermodule selbst , sondern zusammen mit dem SI wird ordentlich strom eingespart. d.h. schon allein die tatsache das Gddr6 verbaut wird kostet etwas effizienz gegenüber hbm. das zieht die effizienz auf die ganze karte gesehen ca. 10% nach unten. deshalb kann man erst recht nichts von den 1,5x effizienz ableiten. IMO ist alles möglich zwischen 200-300w. wer amd aber kennt weiß was wahrscheinlich ist.
M4xw0lf
2019-05-29, 13:05:28
Die LG OLEDs mit HDMI 2.1/ VRR/ ALLM sind jetzt auf dem Markt. Da würde mich HDMI 2.1 Support bei Navi sehr freuen. Wie seht Ihr die Chancen?
AMD hat VRR@HDMI schon ohne 2.1 ermöglicht. Ich vermute, dass es also auf jeden Fall gehen wird, egal ob mit oder ohne offiziellem HDMI 2.1-Support.
robbitop
2019-05-29, 13:07:48
Ich würde annehmen, dass Navi HMDI 2.1 mitbringt. Schließlich ist es schon in den ersten TVs verbaut und AMD ist einer der Treiber dieser Entwicklung.
X-Bow
2019-05-29, 14:42:52
bitte bitte lasse es ne VII sein die als custom kommt... wobei, dann würde ich evtl. auf ne aorus warten, die haben meistens den fettesten kühler.... ok, seit turing ja auch nicht mehr :frown:
Spätestens jetzt: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Asrock-zeigt-auf-der-Computex-womoeglich-die-ersten-Custom-Designs-1282955/ sollte man davon ausgehen das es Navi-Karten sind. :wink:
Die LG OLEDs mit HDMI 2.1/ VRR/ ALLM sind jetzt auf dem Markt. Da würde mich HDMI 2.1 Support bei Navi sehr freuen. Wie seht Ihr die Chancen?
Alle AMD Karten unterstützen das VRR von HDMI 2.1 :smile:
(sogar meine alte 390X kann das ^^)
Man muss sich hald mit 120Hz bei WQHD und "nur 60Hz" bei 4K begnügen.
(4K 144Hz und 8K 60Hz gibt's hald nur mit vollem HDMI 2.1 Support)
Hallo!
Was ist denn nun mit Navi und Raytracing?
Hoffentlich nichts ^^
Gibt ja noch zu wenig Spiele dafür und es ist nicht gerade viel(nichts?) angekündigt.
(selbst NV hofft nur auf neue RT-Titel https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Jen-Hsun-Huang-ueber-7-nm-und-und-die-Zukunft-von-Raytracing-1282249/ )
(NV hat keinen Standard geschaffen, sondern nutzt mit seiner "extrawurst-Hardware" nur den "offenen DRX Standard" von Microsoft)
m.f.g. JVC
SKYNET
2019-05-29, 16:45:07
In deinen Träumen vielleicht. Selbst eine V10 LCE erreicht keine 1,7Ghz bei dann schon ~350W mit der Default PP-Table.
bitte was? geh mal in luxx schauen, da sind einige V64 die durchweg mit 1700MHz laufen, und das mit UV = weniger leistungsaufnahme als @ stock.
Blediator16
2019-05-29, 16:45:25
Alle 3 Ausführungen mit tripple Lüfter, das gibt einem schon wieder bezüglich verbrauch und Wärme entwicklung zu denken
Selbst meine ehemalige 1060oc hatte 3 von den Dingern :biggrin:
N0Thing
2019-05-29, 18:14:26
Alle AMD Karten unterstützen das VRR von HDMI 2.1 :smile:
(sogar meine alte 390X kann das ^^)
Man muss sich hald mit 120Hz bei WQHD und "nur 60Hz" bei 4K begnügen.
(4K 144Hz und 8K 60Hz gibt's hald nur mit vollem HDMI 2.1 Support)
Keine Karte von AMD unterstützt bisher HDMI 2.1 und damit folglich auch kein VRR über HDMI 2.1.
Dass alle AMD-Karten seit Sea Islands VRR unterstützen, bringt nordic_pegasus ja nichts, wenn die von ihm genannten Fernseher für VRR HDMI 2.1 voraussetzen.
Daredevil
2019-05-29, 19:04:39
bitte was? geh mal in luxx schauen, da sind einige V64 die durchweg mit 1700MHz laufen, und das mit UV = weniger leistungsaufnahme als @ stock.
In Rocket League, oder was? :D
@Blediator16
Ne Asus 1060?
Beste Karte wo gibt, welche unter Last selbst ab und an im Idle Mode läuft. :D
aufkrawall
2019-05-29, 19:06:07
In Rocket League, oder was? :D
Jedenfalls nicht bei folding@home.
SKYNET
2019-05-29, 19:47:38
Jedenfalls nicht bei folding@home.
es heisst ja auch GRAFIKkarte und nicht FOLDING@HOMEkarte :tongue:
Blediator16
2019-05-29, 20:03:11
In Rocket League, oder was? :D
@Blediator16
Ne Asus 1060?
Beste Karte wo gibt, welche unter Last selbst ab und an im Idle Mode läuft. :D
Genau. Wurde ich im Februar noch für 200€ los ;D
Hasenpfote
2019-05-29, 22:30:41
@Blediator16
Ne Asus 1060?
Beste Karte wo gibt, welche unter Last selbst ab und an im Idle Mode läuft. :DDas macht meine Vega mit dem 19.5.1 und .2 Treiber auch.
Einfach mitten on Wolfenstein New Colossus auf 500Mhz runter takten.
Da ruckeln sogar die Zwischensequenzen, weil die Karte meint, 163Mhz GPU-Takt sind dafür vollkommen ausreichend. :freak:
Dafür meint der 19.4.x Treiber, dass man Multimontior nach Booten mit 500 - 700Mhz Mem-Takt befeuern muss. Erst n Wechseln zu Single-Betrieb und dann zurück zu Dual-Betrieb erinnert ihn daran, dass 167Mhz auch reichen. Das wurde im 19.5er Treiber gefixt (und vorher schon mal, aber doppelt fixen ist halt geiler :D )
basix
2019-05-30, 01:40:59
bitte was? geh mal in luxx schauen, da sind einige V64 die durchweg mit 1700MHz laufen, und das mit UV = weniger leistungsaufnahme als @ stock.
Stock vs. Stock. Alle anderen Vergleiche machen keinen Sinn.
Keine Karte von AMD unterstützt bisher HDMI 2.1 und damit folglich auch kein VRR über HDMI 2.1.
Falsch.
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/HDMI-21-Game-Mode-VRR-Freesync-TV-1217953/ (vom 11.01.2017)
"HDMI 2.1: Game Mode VRR als Freesync-Option am Fernseher"
https://www.pcgameshardware.de/Fernseher-Hardware-134500/News/Samsung-Smart-TV-VRR-Freesync-1253928/ (vom 08.04.2018)
"Die ersten Fernseher mit Freesync und VRR"
"Die Displays lassen sich über eine Radeon-GPU mit bis zu 120 Hertz synchronisieren."
https://www.4kfilme.de/halbiert-input-lag-lg-oled-nanocell-fernseher-vrr/
"LGs OLED & Nanocell Fernseher unterstützen VRR"
"Dank HDMI 2.1 unterstützen ausgewählte Modelle nun Variable Refresh Rate (VRR) was bislang Samsung QLED TVs vorbehalten war."
Und was hat das mit HDMI 2.1 zu tun?
D.h.: Alle AMD Karten unterstützen das VRR von HDMI 2.1 :smile:
(sogar meine alte 390X kann das ^^) .....
Man muss sich hald mit 120Hz bei WQHD und "nur 60Hz" bei 4K begnügen.
(4K 144Hz und 8K 60Hz gibt's hald nur mit vollem HDMI 2.1 Support)
m.f.g. JVC
deekey777
2019-05-30, 08:53:38
Und was hat das mit HDMI 2.1 zu tun?
nordic_pegasus
2019-05-30, 09:12:25
D.h.: Alle AMD Karten unterstützen das VRR von HDMI 2.1 :smile:
meine Frage bzgl. HDMI 2.1 und Navi bezog sich tatsächlich auf HDMI 2.1 und nicht auf VRR (das wird NAVI können).
Ich möchte einen LG OLED mit HDMI 2.1 und 120Hz@UHD nutzen können.
meine Frage bzgl. HDMI 2.1 und Navi bezog sich tatsächlich auf HDMI 2.1 und nicht auf VRR (das wird NAVI können).
Ich möchte einen LG OLED mit HDMI 2.1 und 120Hz@UHD nutzen können.
4K 120Hz benötigt Bandbreitebedingt HDMI 2.1.
Das VRR funktioniert aber eben jetzt, auch schon ohne bei AMD :up:
(nur das wollte ich klar stellen)
Klar für nen 8K Fernseher (120Hz bei 4K) benötigt man vollwertiges HDMI 2.1
(bei nem nur 4K, würden mir auch 60Fps + LFC = 120Hz auch reichen,
aber bei nem 8K braucht man die Bandbreite um 60Fps erreichen zu können)
m.f.g. JVC
N0Thing
2019-05-30, 12:03:53
Falsch.
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/HDMI-21-Game-Mode-VRR-Freesync-TV-1217953/ (vom 11.01.2017)
"HDMI 2.1: Game Mode VRR als Freesync-Option am Fernseher"
https://www.pcgameshardware.de/Fernseher-Hardware-134500/News/Samsung-Smart-TV-VRR-Freesync-1253928/ (vom 08.04.2018)
"Die ersten Fernseher mit Freesync und VRR"
"Die Displays lassen sich über eine Radeon-GPU mit bis zu 120 Hertz synchronisieren."
https://www.4kfilme.de/halbiert-input-lag-lg-oled-nanocell-fernseher-vrr/
"LGs OLED & Nanocell Fernseher unterstützen VRR"
"Dank HDMI 2.1 unterstützen ausgewählte Modelle nun Variable Refresh Rate (VRR) was bislang Samsung QLED TVs vorbehalten war."
D.h.: Alle AMD Karten unterstützen das VRR von HDMI 2.1
Nein. Wie du deinem eigenen Link entnehmen kannst, hat Samsung einfach FreeSync über HDMI implementiert, was es schon seit einiger Zeit am PC vorhanden ist und auch schon zuvor für die Xbox implementiert wurde.
https://www.pcgameshardware.de/Xbox-One-X-Konsolen-264559/News/Freesync-2-Insider-Alpha-Ring-1252163/
Für VRR über HDMI 2.1 muss auch die Grafikkarte HDMI 2.1 anbieten.
Abgesehen davon, ist "das VRR von HDMI 2.1" das gleiche VRR mittels Anpassen des vBlank timings des Displays, wie es g-sync und adaptive-sync schon immer machen. Aber b2t, für FreeSync haben wir einen eigenen Thread und die Frage von nordic_pegasus wurde ja geklärt.
Linmoum
2019-05-30, 13:18:59
Apisak kommt auf ~255mm² für Navi.
https://twitter.com/TUM_APISAK/status/1134048033098698752
https://i.gyazo.com/841ca3aab95d829f694c8fdc754acc36.jpg
Deckt sich dann mit dem, was Unicous (@#2903) verlinkt hatte. Dort waren es dann 252 mm².
w0mbat
2019-05-30, 15:38:38
Und passt auch in etwa zu den Angaben, dass man sich im Bereich von P30 (232mm²) befindet. Wird wohl auf um die 250mm² hinauslaufen. TU106 liegt bei 445mm² (TSMC 12nm FFN).
Dural
2019-05-30, 17:59:09
Etwas gross für 2500sp in 7nm ohne tensor/rt cores.
robbitop
2019-05-30, 18:02:36
Wäre interessant ob 40 CUs den Vollausbau darstellen.
Daredevil
2019-05-30, 18:04:43
Etwas gross für 2500sp in 7nm ohne tensor/rt cores.
Großer Chip, niedrigerer Takt > Full of Effizienz
horn 12
2019-05-30, 18:06:48
Wie schnell schätzt Du Navi 5500 und 5700 ein
Sprich die Kleine und die größere Karte
w0mbat
2019-05-30, 18:21:08
Etwas gross für 2500sp in 7nm ohne tensor/rt cores.
Die neuen RDNA shader sind sehr wahrscheinlich größer als die alten GCN shader, macht ja auch Sinn.
Ist RDNA jetzt eigentlich schon Super-SIMD?
Unicous
2019-05-30, 21:22:22
Wie schnell schätzt Du Navi 5500 und 5700 ein
Sprich die Kleine und die größere Karte
Schneller als die 5850 5870 auf jeden Fall.(y)
Ravenhearth
2019-05-31, 01:49:54
Laut Sweclockers ist Navi ein Hybrid mit Elementen von GCN, "reine" RDNA erst 2020 (https://www.sweclockers.com/nyhet/27618-amd-radeon-rx-5000-ar-hybrid-med-inslag-av-gcn-renodlad-rdna-forst-ar-2020?fbclid=IwAR1AN4G_kmdeTu0_ykvtkz-DHXeg0ixumgtZ9Gaus9myLD1sviJ9_sogZhM)
horn 12
2019-05-31, 06:27:14
Dies würde auch für die Mehranzahl an Shadern sprechen für Navi 20
Da kommt wohl endlich RTX mit ins Boot,- und auch die Performance dürfte halbwegs passen würde ich mal stark annehmen.
gravitationsfeld
2019-05-31, 06:54:12
Die neuen RDNA shader sind sehr wahrscheinlich größer als die alten GCN shader, macht ja auch Sinn.
Ist RDNA jetzt eigentlich schon Super-SIMD?
Was bitte ist "Super-SIMD"?
Gipsel
2019-05-31, 07:00:34
Was bitte ist "Super-SIMD"?
Co-issue mehrerer unabhängiger vALU-Befehle für eine Wavefront in einem Takt (äquivalent zu superskalar, nur halt für Vektorbefehle)? Ein paar nV-GPUs machen das ja schon seit einer Weile. Ist jetzt nichts, was ich besonders hoch hängen würde.
Oder es gibt mal wieder eine Umdeutung der Begrifflichkeiten in irgendeiner komischen Weise, die an mir vorbei gegangen ist.
Rancor
2019-05-31, 11:09:57
Dies würde auch für die Mehranzahl an Shadern sprechen für Navi 20
Da kommt wohl endlich RTX mit ins Boot,- und auch die Performance dürfte halbwegs passen würde ich mal stark annehmen.
Ich dachte RTX ist kacke und total nutzlos. Warum sprichst du dann von endlich :rolleyes:
Linmoum
2019-05-31, 11:49:29
RTX wird's bei AMD sowieso nicht geben. ;)
Laut Sweclockers ist Navi ein Hybrid mit Elementen von GCN, "reine" RDNA erst 2020 (https://www.sweclockers.com/nyhet/27618-amd-radeon-rx-5000-ar-hybrid-med-inslag-av-gcn-renodlad-rdna-forst-ar-2020?fbclid=IwAR1AN4G_kmdeTu0_ykvtkz-DHXeg0ixumgtZ9Gaus9myLD1sviJ9_sogZhM)
Also das ist enttäuschend. Ich dachte wirklich, mit Navi sieht man endgültig, was AMD so gemacht hat die letzten Jahre, aber nein jetzt kommt wieder etwas halbgares. Ich bin wirklich enttäuscht. Die Frage ist jetzt auch, was mit Renoir kommt, vielleicht sogar noch mit einem Vega Abklatsch.
Ich dachte RTX ist kacke und total nutzlos. Warum sprichst du dann von endlich :rolleyes:
Es ist solange nutzlos, bis es AMD auch hat.
robbitop
2019-05-31, 12:35:22
Das ist doch noch völlig unbestätigt (sweclockers), oder? Solange man keinerlei bestätigtes Wissen über die uArch und die Performance und den Preis hat, ist jegliche Wertung substanzlos.
Linmoum
2019-05-31, 13:09:14
Es gibt auch nichts offizielles. Aber für gmb reicht es natürlich trotzdem, um ein abschließendes Fazit zu ziehen.
robbitop
2019-05-31, 13:15:00
Vermutlich wird man die Erwartungen managen müssen. AMD muss mit wesentlich weniger Personal und Budget auskommen und beides auch noch auf recht viele Produktsorten aufteilen (Konsolen, custom soc, Server custom silicon etc).
Ich würde vermuten, dass man den Abstand verkürzt aber keinen Leapfrog. So eine Entwicklung ist vermutlich nur sukzessive möglich.
Blediator16
2019-05-31, 14:59:41
Ich dachte RTX ist kacke und total nutzlos. Warum sprichst du dann von endlich :rolleyes:
Muss das sein? Er ist offensichtlich kognitiv nicht ganz fit :rolleyes:
Dino-Fossil
2019-05-31, 15:12:27
Ob NAVI jetzt GCN, komplett neue RDNA oder eine Mischung aus beiden ist, ist doch relativ Wurst. Entscheidend ist was hinten raus kommt.
Und das wissen wir ja noch nicht wirklich.
Aber klar, wenn man es darauf anlegt immer ein Haar in der Suppe zu finden... :wink:
reaperrr
2019-05-31, 15:13:29
Also das ist enttäuschend. Ich dachte wirklich, mit Navi sieht man endgültig, was AMD so gemacht hat die letzten Jahre, aber nein jetzt kommt wieder etwas halbgares. Ich bin wirklich enttäuscht. Die Frage ist jetzt auch, was mit Renoir kommt, vielleicht sogar noch mit einem Vega Abklatsch.
Solche Reaktionen zeigen einfach nur, dass viele Leute wenig Ahnung davon haben (oder die Details nicht lesen oder anschließend wieder vergessen), wie GPU-Entwicklung funktioniert.
Die letzten komplett von Grund auf neu entwickelten Architekturen beider Hersteller waren G80 und R600 (und R600 auch nur bezogen auf Desktop-Grakas, weil die für Xbox360 verwendete R500 auch schon Unified Shader ALUs hatte und R600 wohl eher eine Weiterentwicklung davon war).
ALLE (!!!) späteren Architekturen haben immer nur Teile (meist die SM/SIMD/CU-Einheiten) komplett umgebaut/ersetzt, und am Rest nur moderate, teilweise so gut wir gar keine Änderungen vorgenommen (auch bei NV).
Die Architekturen sind mittlerweile einfach zu komplex um noch kosteneffizient und risikoarm auf eine Schlag alles von Grund auf neu aus dem Boden stampfen zu können. Macht auch NV trotz vielfachem R&D-Budget nicht. Du musst zur R&D-Finanzierung immer mal wieder den aktuellen Entwicklungsstand in verkaufbare Produkte ummünzen, selbst wenn du in diesen Produkten dann z.B. noch die ROPs der vorherigen Gen nehmen musst, weil die neuen noch nicht fertig sind und daher erst in der nächsten Gen eingesetzt werden können.
NV:
G80
G9x -> Anzahl Textur-Filter-Units verdoppelt (vorher nur halb so viele wie TMUs), sonst keine nennenswerten Verbesserungen abgesehen vom Prozess
Tesla (GT200) -> 50% mehr ALUs je Shader-Array
Tesla 1.1/2.0? (gecancelt) -> DX 10.1, 40nm
Fermi (GF100/110) -> Weiterentwicklung von Frontend und Shader-Arrays zu GPC/SM, Polymorph-Engines, nochmal 33% mehr ALUs je SM, jetzt fest doppelter ALU-Takt ggü. dem Rest, DX11, GDDR5
Consumer-Fermi (GF104/6/7) -> TMUs je SM verdoppelt, ALUs +50% (SMs dadurch jetzt superskalar statt skalar), vmtl. Delta-Color-Compression 1.0
Kepler - Superskalaren SM-Aufbau der Consumer-Fermis behalten, aber je 1 Hochtakt-ALU durch 4 kleine Normaltakt-ALUs ersetzt, dadurch ca. verdoppelte Shaderleistung je mm², vmtl. DCC 2.0 (nie von NV beworben), überarbeiteter Turbo
Maxwell 1.0 - 1/3 der ALUs und Hälfte der TMUs je SM entfernt (qasi Rückkehr zum grundsätzlichen SM-Aufbau von GF100, hätten sie IMO gleich bei bleiben sollen), verbesserte Taktbarkeit/Effizienz, deutlich vergrößerter L2$
Maxwell 2.0 - DX12.1, DCC 3.0
Pascal - Viele Transistoren in mehr Taktbarkeit/Effizienz je MHz gesteckt, DCC 4.0, Polymorph-Engine-Durchsatz erhöht, Compute- u. DX12-Perf verbessert
Volta - Stark verbesserte Compute-Perf, u.a. durch TensorCores
Turing - RT-Cores, getrennte Int-ALUs (oder gab's die auch schon bei Volta?), dadurch verbesserte pro-SM-Leistung und pro-mm²-Effizienz, DCC 5.0, aber Rückschritt bei Perf/mm² trotz 12FFN
ATi/AMD:
R600
RV670 -> ein paar Bugfixes, DX10.1-Support
R700/Terascale 1 -> verdoppelte Z/Stencil-Ops je ROP (4 statt 2), entschlackte Textur-Einheiten, verkleinerte ALUs, dadurch kleinere und effizientere SIMDs (was erlaubte, mehr davon zu verbauen), GDDR5
R800/Terascale 2 -> verdoppeltes Frontend, DX11, Textur-Sampling jetzt über ALUs, verbesserte Tesselator-Einheit wg. DX11
Terascale 2.1 (RV910-940) -> Verbesserter Tesselator und verbesserte AF-Performance, UVD 3.0
Terascale 3 (Cayman, Gen2-APUs) -> VLIW4-SIMDs, verbesserte Tesselation, Support für verbrauchsgesteuerten, dynamischen Takt
GCN 1.0 (Tahiti etc.) - CUs statt VLIW4, deutliche Compute-Verbesserung (ACUs), DX11.1, verbesserte Tesselation-Perf; MemoryController, ROPs und Großteil des Frontends noch weitgehend von Cayman übernommen
GCN 2.0 (Bonaire, Hawaii) - Frontend überarbeitet, bessere Tesselation-Perf (aber erst ab 300er Refresh/Treiber-Update), bessere Compute-Perf (mehr und verbesserte ACUs), DX 12.0, TrueAudio
GCN 3.0 - verbesserte Tesselation-Perf, HBM-Support (Fiji), erste AMD-Generation DCC
GCN 4.0 (Polaris) - verbesserte Tesselation (größerer Perimeter-Cache), verbesserte DCC, Takt-optimierter MemController
GCN 5.0 (Vega) - DX 12.1, verbesserte Tesselation, taktfreudigere Pipeline, Umbau des Backends (ROPs jetzt Klienten des L2, wie bei NV)
RDNA 1.0 (Navi1x) - vermutlich: stark überarbeitete CUs (sowohl mehr IPC als auch noch taktfreudiger), Support für bis zu 8 ShaderEngines, Überarbeitung Cache-System, GDDR6
RDNA 2.0 (Navi2x? Arcturus?) - Spekulativ: Optimierung der neuen CUs auf mehr Effizienz, evtl. neue ROPs (verdoppelte Z/Stencil-Ops, wenn die noch nicht mit RDNA 1.0 kommen), evtl. RT-Hardware, HBM3-Support (zumindest für HighEnd-Chip)
Im Grunde fallen bei AMD auch "nur" GCN 2.0-4.0 wirklich negativ auf, da es dort so gut wie keine Verbesserungen an Spiele-IPC (abgesehen von Tesselation), Effizienz und Taktbarkeit gab (abgesehen durch Shrinks), und das über einen Zeitraum von ~5 Jahren (zwischen GCN1 in 2012 und Vega in 2017). Das ist es, was AMD diesen großen Rückstand eingebrockt hat.
Davor und wenn Navi erstmal da ist auch danach waren die Fortschritte nicht großartig schlechter/langsamer als bei NV.
Man stelle sich mal vor, die R&D für K12 (:rolleyes:) und SkyBridge wäre in GCN (und eine frühere Zen1-Fertigstellung) gesteckt worden...
pixeljetstream
2019-05-31, 17:00:29
Mach Mal linebreaks bei den Generationen rein. Imo ist Fermi schon bedeutend anders als G80. Das Grundgerüst ist seit dem ähnlich. Komponenten aber durchaus sehr anders. Kepler brachte auch compile-time instruction scheduling.
Ansonsten stimme ich zu, ist einfach alles zu sehr Baukasten, Marketing Namen sind überbewertet.
Mr.Scott
2019-05-31, 17:02:28
"Insofern ist es aus jetziger Sicht etwas vermessen anzunehmen, die 225-Watt-Ausführung wäre nochmals schneller und könnte sich somit gleich mit einer GeForce RTX 2080 anlegen."
Mal angenommen die große Navi Karte kommt wirklich mit 225Watt @ 7nm, warum sollte sie eine RTX 2080 mit 225Watt @ 12nm nicht schlagen können?
Wäre ein Armutszeugnis von AMD mMn.
Nvidias 7nm Karten würden AMD zerstören...
dildo4u
2019-05-31, 17:21:43
Es ist total normal Nvidia und Intel haben ein massiv größeres Entwicklungs Budget,Zen 2 ist auch erst auf Level mit Intel was Single Core Leistung angeht Trotz 7nm vs 14nm++.
BlacKi
2019-05-31, 17:22:03
"Insofern ist es aus jetziger Sicht etwas vermessen anzunehmen, die 225-Watt-Ausführung wäre nochmals schneller und könnte sich somit gleich mit einer GeForce RTX 2080 anlegen."
Mal angenommen die große Navi Karte kommt wirklich mit 225Watt @ 7nm, warum sollte sie eine RTX 2080 mit 225Watt @ 12nm nicht schlagen können?
Wäre ein Armutszeugnis von AMD mMn.
Nvidias 7nm Karten würden AMD zerstören...
hast du die strange brigade demo nicht gesehen? das ist gerade so rtx2070 performance. falls die karte in der demo viel taktspielraum hätte, dann könnte man mit OC vl 2080 performance erreichen. aber die referenz karte ohne OC wird das nicht schaffen.
Dino-Fossil
2019-05-31, 17:28:10
Wäre ein Armutszeugnis von AMD mMn.
Nvidias 7nm Karten würden AMD zerstören...
Nö, lediglich den Status Quo wieder herstellen.
Leonidas
2019-05-31, 17:30:32
"Insofern ist es aus jetziger Sicht etwas vermessen anzunehmen, die 225-Watt-Ausführung wäre nochmals schneller und könnte sich somit gleich mit einer GeForce RTX 2080 anlegen."
Mal angenommen die große Navi Karte kommt wirklich mit 225Watt @ 7nm, warum sollte sie eine RTX 2080 mit 225Watt @ 12nm nicht schlagen können?
... weil es unwahrscheinlich ist, das AMD nicht seine beste Lösung durchs Demo schickt. Die Ausgangsbasis der RTX2080-Annahme ist ja, das die Computex-Demo nur die zweitbeste RX5000-Lösung sein soll. Diese Ausgangslage stelle ich in Zweifel.
PS: Ich sehe die SweClockers-Meldung hochspannend. Warum? Weil was von Zwang zum Übergang geredet wird - und so etwas gibt es nur bei großen Architektur-Brüchen. Was fällt mir hierzu ein? Das der PS5-SoC schon RT können soll - und Navi 20 als "Full RDNA" im selben Jahr herauskommt. Schlußfolgendere These? AMD könnte Navi 20 und den PS5-SoC drastisch auf RT umgebaut haben:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-3031-mai-2019
Gipsel
2019-05-31, 17:40:24
... weil es unwahrscheinlich ist, das AMD nicht seine beste Lösung durchs Demo schickt. Die Ausgangsbasis der RTX2080-Annahme ist ja, das die Computex-Demo nur die zweitbeste RX5000-Lösung sein soll. Diese Ausgangslage stelle ich in Zweifel.Das ist völlig nachzuvollziehen, aber mal als potentielles Gegenargument:
Bei den CPUs haben sie ja bei Cinebench auch erstmal nur den 3700X (65W-Modell) gegen den 9900K ins Rennen geschickt und nicht den 3800X mit mehr Takt und TDP und auch nicht den (preisähnlichen, knapp 500$) 12Kerner 3900X ;). Letzteren hat man mit intels zweieinhalb mal so teuren i9-9920X verglichen.
AMD will sich offenbar noch nicht wirklich in die Karten schauen lassen. Im Prinzip gibt es zwei Möglichkeiten: AMD stapelt tief (bei GPUs momentan zugegebenermaßen eher unwahrscheinlich) oder Deine Version.
SavageX
2019-05-31, 17:43:32
Mal angenommen die große Navi Karte kommt wirklich mit 225Watt @ 7nm, warum sollte sie eine RTX 2080 mit 225Watt @ 12nm nicht schlagen können?
Du kannst Leistung grob über Breite ("großer Chip") erreichen und auch über Takt.
Der Energiebedarf geht etwa linear mit der Breite (doppelt großer Chip wäre ca. doppelt so durstig), aber etwa quadratisch mit dem Takt, da man bei deftiger Takterhöhung auch an der Spannungsschraube drehen muss.
Wenn AMD für Navi erstmal mit nur einem mittgelgroßen Chip startet, dann müssten die das über den Takt wieder reinholen -> "Kotzgrenze". Das bedeutet nicht, dass derselbe Chip mit anderen Betriebsparametern (Takt, Spannung) nicht auch sehr effizient sein kann.
BlacKi
2019-05-31, 18:30:30
Das ist völlig nachzuvollziehen, aber mal als potentielles Gegenargument:
Bei den CPUs haben sie ja bei Cinebench auch erstmal nur den 3700X (65W-Modell) gegen den 9900K ins Rennen geschickt und nicht den 3800X mit mehr Takt und TDP und auch nicht den (preisähnlichen, knapp 500$) 12Kerner 3900X ;). Letzteren hat man mit intels zweieinhalb mal so teuren i9-9920X verglichen.
AMD will sich offenbar noch nicht wirklich in die Karten schauen lassen. Im Prinzip gibt es zwei Möglichkeiten: AMD stapelt tief (bei GPUs momentan zugegebenermaßen eher unwahrscheinlich) oder Deine Version.
amd hat bei der vega gegen die 1080ti gebencht in doom, ist dann leider nur 1080 performance geworden. und was damals alles spekuliert wurde... das die lüfter im blower style schuld ist, dass das gehäuse komplett zugeklebt war, das die treiber nicht ausgereift waren, das die finalen taktraten noch nicht drinn sind. letztendlich hat man das bekommen was man gesehen hat. wird mit navi genauso sein.
Du kannst Leistung grob über Breite ("großer Chip") erreichen und auch über Takt.
Der Energiebedarf geht etwa linear mit der Breite (doppelt großer Chip wäre ca. doppelt so durstig), aber etwa quadratisch mit dem Takt, da man bei deftiger Takterhöhung auch an der Spannungsschraube drehen muss.
Wenn AMD für Navi erstmal mit nur einem mittgelgroßen Chip startet, dann müssten die das über den Takt wieder reinholen -> "Kotzgrenze". Das bedeutet nicht, dass derselbe Chip mit anderen Betriebsparametern (Takt, Spannung) nicht auch sehr effizient sein kann.
ich glaube amd wird die 2ghz knacken, und damit werbung machen. "worlds first 2ghz gpu". genau wie bei pitcairn.
Gipsel
2019-05-31, 19:10:41
@SavageX:
Die Skalierung funktioniert noch etwas komplizierter. Im Grunde geht es so für den dynamischen Verbrauch (also durch Schalten der Transistoren, ohne Leckströme):
P=C*U²*f
P ist die Leistung, U, die Spannung und f die Frequenz (C ein designabhängiger Parameter [im Prinzip eine Kapazität]). Es ist also quadratisch mit der Spannung und linear mit der Frequenz.
Im Bereich ganz niedriger Frequenzen kann man die Spannung praktisch konstant halten (knapp über der nötigen Spannung, daß die Transistoren überhaupt schalten) und die Verlustleistung geht beinahe nur linear mit dem Takt. Aber irgendwann muß man dann auch die Spannung anfangen anzuheben und es wird etwas steiler. Oft gibt es dann irgendwo ein mehr oder weniger lineares Regime (Spannung muß annähernd proportional zur Frequenz mitangehoben werden), dann geht die Verlustleistung aber schon mit der dritten Potenz der Frequenz hoch (U~f => P~f³). Als Sweetspot für schon relativ hohe Performance aber noch akzeptabler Effizienz wird oft der untere Bereich dieses Regimes betrachtet. Und ganz oben, bringen selbst große Spannungsänderungen kaum noch Frequenzsteigerungen (Taktmauer), die Spannung muß schneller als linear mit der Frequenz angehoben werden (oft exponentiell), wodurch der Verbrauch regelrecht explodiert, ohne daß das noch zu irgendeiner wesentlichen Mehrleistung führen würde (die SingleCore-Boosts bei CPUs sind oft knapp davor).
Je nach Auslegung des Designs erreicht man den für den Betrieb im Werkszustand maximal akzeptablen Verbrauch (z.B. 250W oder bei kleinen Chips auch die Grenzen der Kühlbarkeit) an verschiedenen Punkten so einer Kurve. Hängt man schon ganz tief im ineffizienten Bereich, ist so ein Chip kaum noch zu übertakten, ansonsten hat man noch Reserven, falls man einen höheren Stromverbrauch akzeptieren will.
=================
@BlacKi: Du hast den Sinn meines Postes offenbar mißverstanden.
Ob NAVI jetzt GCN, komplett neue RDNA oder eine Mischung aus beiden ist, ist doch relativ Wurst. Entscheidend ist was hinten raus kommt.
Und das wissen wir ja noch nicht wirklich.
Aber klar, wenn man es darauf anlegt immer ein Haar in der Suppe zu finden... :wink:
also entscheidend ist eher was in den nächsten Konsolen steckt...
Und falls dann dort ein "voll"-RDNA stecken würde (der dann auch HW support für Raytracing hat wie ja schonmal spekuliert wurde) ist das natürlich nicht so gut für den "hybrid"-GCN-RDNA
dildo4u
2019-05-31, 20:16:28
PC Karten kann man doch ständig neu Kaufen,es ist deutlich wichtiger das die Konsolen das volle Feature Set bekommen,damit es irgendwann Games gibt die die Komplette Optik auf garantiertes beschleunigtes RT ausrichten können.
Richtig ärgern würde ich mich nur als Radeon 7 Kunde 700€ sind schon deftig wenn man die relativ schnell austauschen "muss."
der große Navi wird dann evtl. auch das volle Featureset bekommen...d.h. man steht dann mit dem Performance Segment Navi schnell Abseits.
Außerdem gehts auch nicht nur um das Featureset sondern wie gut der Kram dann auf dem PC optimiert laufen wird...
Mr.Scott
2019-05-31, 21:00:15
Vielleicht stimmt das mit den 225Watt garnicht und Navi kommt zu start mit 150Watt und 180Watt raus.
dildo4u
2019-05-31, 21:08:47
Was soll nicht stimmen AMD sagt selber das Performance per Watt 50 aber nicht 100% besser ist.Also +10% zu Vega 64 für 220 Watt,klingt plausibel.
200Watt wäre halt genau Vega 64 Level.
robbitop
2019-05-31, 21:12:22
also entscheidend ist eher was in den nächsten Konsolen steckt...
Und falls dann dort ein "voll"-RDNA stecken würde (der dann auch HW support für Raytracing hat wie ja schonmal spekuliert wurde) ist das natürlich nicht so gut für den "hybrid"-GCN-RDNA
Da schreibt „Sweclockers“ irgendetwas Unverifiziertes und schon geht man davon aus, dass das stimmt?
Immerhin hat AMDs CEO in der Öffentlichkeit gesagt, dass die uArch neu ist (und uArch =! Instructionset).
Jeder IHV iteriert und es sind eher Evolutionen als Revolutionen.
Ich vermute mal, dass GCN als Name der ISA mit der konkreten Implementierung der jeweilen uArch verbrannt war.
Jetzt hat man endlich mal (wurde auch Zeit) die uArch wesentlich verändert. Die ISA selbst basiert wahrscheinlich noch auf GCN. Aber die ISA selbst war nie das Problem.
Man sollte die Erwartungen an Navi vor dem Hintergrund der relativ eingeschränkten Möglichkeiten von AMD (relativ zu NV) betrachten.
Wenn die 5700 mit ihrer Performance zum Preis und relativ zum Wettbewerbsprodukt passt, ist doch alles gut. So wie Polaris zu GP106. Gutes Produkt zum Preispunkt und relativ ordentliche Verkaufszahlen. „Leapfrogging“ halte ich für relativ ausgeschlossen.
aufkrawall
2019-05-31, 21:15:19
Die ISA selbst basiert wahrscheinlich noch auf GCN..
Siehe auch: https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1103202-amd-is-aiming-for-radeon-rx-5700-navi-support-in-linux-5-3-mesa-19-2?p=1103266#post1103266
=Floi=
2019-06-01, 03:41:39
Zen 2 ist auch erst auf Level mit Intel was Single Core Leistung angeht Trotz 7nm vs 14nm++.
naja, eigentlich ist es 14nm+(+) vs 10nm (sind wir schon bei 14++? )
intel kann hier trotzdem nicht aufholen, weil es bei ~5ghz bleiben wird und man keine neue architektur im petto hat. Die sicherheitspatches fressen den rest an steigerung auf. Kerne gibt es auch keine zum "nulltarif" von intel. Die watt sind im desktop zweitrangig.
Intel bräuchte eine neue architektur. Core/Core 2 hat ihnen damals den arsch getrettet und amd so weit abgeschalagen. Die gute taktbarkeit von sandy bridge hat den abstand dann nochmal richtig groß gemacht.
fondness
2019-06-01, 08:39:09
Laut Sweclockers ist Navi ein Hybrid mit Elementen von GCN, "reine" RDNA erst 2020 (https://www.sweclockers.com/nyhet/27618-amd-radeon-rx-5000-ar-hybrid-med-inslag-av-gcn-renodlad-rdna-forst-ar-2020?fbclid=IwAR1AN4G_kmdeTu0_ykvtkz-DHXeg0ixumgtZ9Gaus9myLD1sviJ9_sogZhM)
Nachdem erst die nächste Generation next gen heißt, und bereits in einem Jahr kommen soll, wäre das durchaus naheliegend. Navi ist wohl der abfall aus der Konsolen Entwicklung. Er hat also idealerweise alles wichtige drinnen, dass für die Spiele Performance von Relevanz ist.
Hatte ich ja offenbar recht nach meiner Vermutung, dass Navi ein Hybrid ist - Frontend eher GCN und Backend eher RDNA, aber in simpel gehalten.
Klar sollte man sich von dem Hybrid keine perfekte Energieeffizienz erwarten. Wenn man Turing auch nur halbwegs erreicht hat man schon einen echt guten Job gemacht.
robbitop
2019-06-01, 10:01:17
Zu Navi als Hybrid:
Zunächst einmal müsste diese Information erstmal verifiziert werden.
Die Logik, dass eine Entwicklung einer uArch für eine reine Spieleplattform, wo Perf/W und Perf/mm2 absolut wichtig sind, für die GPU Sparte nur Abfall sein soll, muss mal bitte jemand erklären.
Außerdem würde das bedeuten, dass Lisa Su öffentlich gelogen hätte. Sie sprach von einer brandneuen uArch (nicht isa! Nochmal:die isa ist egal und bei nv gibt es auch nicht ständig neue isa). Sogar „from scratch“.
Und „sweclockers“ ist glaubwürdiger?
Nachdem erst die nächste Generation next gen heißt, und bereits in einem Jahr kommen soll, wäre das durchaus naheliegend. Navi ist wohl der abfall aus der Konsolen Entwicklung. Er hat also idealerweise alles wichtige drinnen, dass für die Spiele Performance von Relevanz ist.
Heißt sie wirklich so? Iirc war die Roadmap auf der Nextgen stand halt so alt, dass es ggf damals einfach für die Öffentlichkeit noch keinen Codenamen gab. Macht NV ja ähnlich.
—————-
Ob Intel eine völlig neue uArch helfen wird ist IMO fraglich. Es wird nunmal immer schwieriger Taktraten zu steigern und mehr ILP aus einem Thread zu extrahieren. Jedes % kostet richtig Transistoren. Die uArch von Intel und AMD hat jeweils ein Niveau erreicht, wo weitere Steigerungen nunmal sehr sehr teuer werden. Schwer vorstellbar, dass eine völ neue uArch hier viel bringen soll. Echte Schwächen sind eigentlich nichtmehr vorhanden. Jetzt macht man halt das Übliche. Frontend und Backend breiter. Schnellere größere Caches. Branch prediction, rob buffer, etc pp größer. Das bringt auch immer noch was. Kostet halt.
Screemer
2019-06-01, 10:35:08
Lest die verlinkten Kommentare von birdmanbridgman. Da wird einfach Mal nach Gutdünken Isa und Architektur in einen Topf geschmissen und dann wird daraus ne News gebastelt.
Linmoum
2019-06-01, 10:36:50
Der Gute heißt bridgman. ;)
Aber der Link von aufkrawall scheint hier bei der Diskussion ein wenig unterzugehen.
robbitop
2019-06-01, 10:36:51
Das denke ich nämlich auch. Schlimm, dass so viele den Unterschied nicht kennen.
Screemer
2019-06-01, 11:30:09
Der Gute heißt bridgman. ;)
Aber der Link von aufkrawall scheint hier bei der Diskussion ein wenig unterzugehen.
Schöne Autokorrektur meines mobilen Nichtsnutz :facepalm:
Slipknot79
2019-06-01, 11:38:20
Das denke ich nämlich auch. Schlimm, dass so viele den Unterschied nicht kennen.
ISA hatte ich schon in den 90ern am Mobo :redface:
horn 12
2019-06-01, 14:24:54
Zwecks Navi, Meine persönliche! These:
Diesesmal Dreht AMD komplettt alles um und macht vieles Richtig:
Navi Referenz Modelle zu 150 und 180 Watt und mit dem DHE Referenz Kühler am idealsten Kühlbar bis zu dieser noch vertretbar Leistungsaufnahme.
Somit Leise und noch "akzeptabel kühl"
Erst die Custom Modelle werden Navi 10 voll ausfahren
und man hat LEISE und rel. Kühle Karten, kommt aber Perforamcnemässig nicht so hoch hinaus.
Aber in den Köpfen bleibt ja meistens das andere davon hängen...
Navi Referenz ca. 2070 Plus / minus 5%
und Custommodelle, je nach maximal OC Modell knapp langsamer als RTX 2080
robbitop
2019-06-01, 14:53:00
Wenig Verbrauch reicht nicht. Leise sollte es für gute Reviews auch sein. Und zu langsam darf es auch nicht sein.
horn 12
2019-06-01, 15:00:29
Die gezeigt Karte war AMD´Refeernz Modell
und Customs sollten gute 10% drauflegen können, wenn gar nicht 15%
Aber der Stromverbrauch wohl auch um die 250 Watt.
Dino-Fossil
2019-06-01, 16:22:25
Das denke ich nämlich auch. Schlimm, dass so viele den Unterschied nicht kennen.
Also im Prinzip weiterhin GCN-ISA, aber neue Implementation in Hardware?
Also so wie x86_64 als Bulldozer oder Zen umgesetzt werden kann.
robbitop
2019-06-01, 17:57:27
So in etwa.
BoMbY
2019-06-01, 22:21:54
Das ISA definiert eigentlich nur die unterste Softwareschicht. Es definiert welche Instruktionen mit welchen Parametern möglich sind. Also quasi Assembler bis das was dort am anderen Ende ausgespuckt wird: Der Maschinencode.
Wie diese Maschinensprache ausgeführt wird kann ganz unterschiedlich sein. Die verschiedenen x86-Implementierungen über die Jahre sind ein gutes Beispiel, und so unterschiedlich die auch im Detail sind, können die doch alle den gleichen Code ausführen.
gravitationsfeld
2019-06-01, 23:28:26
Bei GPUs sind ISA und das Design eng gekoppelt weil die Instructions auch Abhaenigkeiten beschreiben.
Nur weil die Instructions in Disassembly ungefaehr gleich aussehen ist das noch lange nicht die selbe ISA.
pixeljetstream
2019-06-02, 01:17:49
Ja das mit x86 zu vergleichen ist hier nicht so ganz zutreffend. CPUs interpretieren eher, während GPUs schon direkter noch "dumm" ausführen.
BoMbY
2019-06-02, 10:34:24
RDNA is GCN ISA but not what you think of as GCN architecture.
R3xx-R5xx was separate PS/VS with vector+scalar instructions, R6xx was unified shader VLIW SIMD, GCN is unified shader SIMD+scalar.
Yep, although I think the analogy still holds... our GPU ISA has evolved over the years as well but you can still see common elements.
The point I was trying to make though was that even the changes from x86 to AMD64 were small in comparison to the massive changes in micro-architecture that have provided ongoing performance improvements. It's not a perfect analogy because GPUs are SIMD/SIMT behind the scenes while CPUs are superscalar, but it's close.
AFAICS most GPU vendor ISAs have largely converged already, and most of the changes now are in the underlying implementations rather than the programming models themselves.
The main difference in programming model IIRC is that we include scalar instructions/registers alongside vector (SIMD/SIMT) instructions/registers while some other vendors do not. Anything past that gets down into what you might call extensions (operations, addressing modes etc..), and they change regularly between generations.
Alles von Bridgmen aus dem Thread bei Phoronix (https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1103202-amd-is-aiming-for-radeon-rx-5700-navi-support-in-linux-5-3-mesa-19-2).
danarcho
2019-06-02, 19:07:26
Bei GPUs sind ISA und das Design eng gekoppelt weil die Instructions auch Abhaenigkeiten beschreiben.
Nur weil die Instructions in Disassembly ungefaehr gleich aussehen ist das noch lange nicht die selbe ISA.
Jetzt ist es aber nahezu die selbe ISA...
Und das würde doch im Umkehrschluss bedeuten, dass sich die Änderungen an der Architektur in engen Grenzen halten. Die Instructions sehen nicht nur in der Disassembly gleich aus, sondern haben auch das selbe Encoding. Wenn man jetzt die Marketing-Begriffe unbedingt verwenden möchte, dann könnte man vielleicht sagen, dass RDNA eine Implementierung der nächsten GCN Iteration ist, in etwa wie Zen eine Implementierung von x86 ist. Aber diese Unterscheidung ist für GPUs zumindest etwas neues.
TheGood
2019-06-02, 21:08:42
ISt doch alles wurscht, am Ende kommt es drauf an was Performance auf den Boden kommt und ob das halbwegs energieffizient von statten geht und sich mit dem was aktuell da ist messen kann. Im nächsten Jahr geht dann weiter...
N0Thing
2019-06-03, 10:30:00
Gerade die technischen Hintergründe sind doch das Spannende. Nur für Balken und Tabellen treibe ich mich zumindest nicht in diesem Forum rum. ;)
=Floi=
2019-06-03, 13:39:01
Die technik dahinter gibt es nach dem release. Hauptsache die gehen mal das frontend an. Wie man bei NV sieht war da anfangs noch richtig viel zu holen.
robbitop
2019-06-03, 13:42:32
Frontend ist seit Polaris unproblematisch. Sieht man daran, dass die 1080p Performance im Vergleich zum Wettbewerb nicht schlechter ist als höhere Auflösungen. Bedeutet, Front End limitiert nicht mehr.
Problematisch war u.A. die Auslastung der Ausführungseinheiten und die Bandbreiteneffizienz. Für letzteres hat die Cache-Topologie sicherlich auch keinen kleinen Einfluss.
basix
2019-06-03, 16:43:34
Heftig:
"RDNA-Grafik: AMD und Samsung bringen Radeon ins Smartphone"
https://www.computerbase.de/2019-06/samsung-chip-amd-rdna-grafik-lizenz/
Ravenhearth
2019-06-03, 16:55:57
Huch, dann muss RDNA ja ordentlich reinhauen
Complicated
2019-06-03, 17:02:43
Wenn das immer noch GCN ist, dann war es die beste Architektur ever in der GPU Historie....
Na ja, die erfolgreichste ist sie jetzt schon.
Locuza
2019-06-03, 17:08:44
Bomba. :eek:
Soweit ich das grob mitbekommen habe, arbeitet(e) Samsung seit Äonen an einer eigenen Grafik-IP.
Zu Beginn hat man scheinbar eine Menge Geld verheizt und das Projekt abgebrochen.
Irgendwann später bzw. in den letzten Jahren soll Samsung erneut an einer eigenen Grafik, S-GPU von den Gerüchten genannt, gearbeitet haben.
Vielleicht hat Samsung erneut die Ziele bezüglich einer eigenen GPU begraben oder S-GPU war von Anfang an ein Projekt mit AMD und ist eine Custom-GPU based on RDNA?
Jedenfalls ein fetter Deal für AMD.
aufkrawall
2019-06-03, 17:10:54
Heh, erst der Qualcomm MS-Deal und jetzt das. Das könnte noch die völlige Zerstörung Intels in ULP werden. :freak:
Windi
2019-06-03, 17:24:30
Ich dachte immer, das so eine Architektur nicht unbegrenzt skaliert.
Und RDNA soll auch auf Grafikkarten mit 250 Watt kommen. Wenn das ganze jetzt sogar bis ins Smartphone herunter skaliert, dann ist das wirklich eine extreme Leistung.
Die Grafikeinheit muss ja auch besser als die von PowerVR, ARM oder Samsungs eigenen Versuchen sein, sonst hätte man sie nicht genommen.
Ein kleines Wunder was AMD dort geschafft hat, vor allem da man in diesem Bereich schon länger nicht mehr aktiv war.
Bei Computerbase sagte jemand das es zwischen Qualcom und AMD einen zehnjährigen "No Compete" Vertrag gegeben hat und das dieser nun abgelaufen ist. Dann könnten wir in Zukunft vielleicht noch weitere solcher Deals sehen.
Ravenhearth
2019-06-03, 17:40:13
Heh, erst der Qualcomm MS-Deal und jetzt das. Das könnte noch die völlige Zerstörung Intels in ULP werden. :freak:
Das könnte aber auch die völlige Zerstörung von ARMs eigener Grafik-IP werden. Samsung nimmt nun RDNA, und Huawei darf nix mehr von ARM lizensieren. Wer verbaut dann noch aktuelle Mali? Mediatek?
Windi
2019-06-03, 17:50:22
Huawei darf gar nichts mehr kaufen oder lizenzieren :freak:
robbitop
2019-06-03, 17:55:18
Ich dachte immer, das so eine Architektur nicht unbegrenzt skaliert.
Und RDNA soll auch auf Grafikkarten mit 250 Watt kommen. Wenn das ganze jetzt sogar bis ins Smartphone herunter skaliert, dann ist das wirklich eine extreme Leistung.
Die Grafikeinheit muss ja auch besser als die von PowerVR, ARM oder Samsungs eigenen Versuchen sein, sonst hätte man sie nicht genommen.
Ein kleines Wunder was AMD dort geschafft hat, vor allem da man in diesem Bereich schon länger nicht mehr aktiv war.
Bei Computerbase sagte jemand das es zwischen Qualcom und AMD einen zehnjährigen "No Compete" Vertrag gegeben hat und das dieser nun abgelaufen ist. Dann könnten wir in Zukunft vielleicht noch weitere solcher Deals sehen.
Architekturen sind auch nicht beliebig skalierbar. Allerdings ist das bei GPUs etwas leichter als bei CPUs, da man beim Vollausbau der jeweiligen GPU eine vergleichbar hohe Anzahl an modularen Ausführungseinheiten hat.
Bei Maxwell wird zwischen 2 und 24 SMs skaliert (Tegra X1 und Titan X-M). Zusätzlich dazu kann noch der Takt skaliert werden. Sind schonmal 2x Einflussgrößen.
Wie man sieht rangiert man dann irgendwo zwischen 5 W und 250 W.
dildo4u
2019-06-03, 18:05:53
Ich dachte immer, das so eine Architektur nicht unbegrenzt skaliert.
Und RDNA soll auch auf Grafikkarten mit 250 Watt kommen. Wenn das ganze jetzt sogar bis ins Smartphone herunter skaliert, dann ist das wirklich eine extreme Leistung.
Die Grafikeinheit muss ja auch besser als die von PowerVR, ARM oder Samsungs eigenen Versuchen sein, sonst hätte man sie nicht genommen.
Ein kleines Wunder was AMD dort geschafft hat, vor allem da man in diesem Bereich schon länger nicht mehr aktiv war.
Bei Computerbase sagte jemand das es zwischen Qualcom und AMD einen zehnjährigen "No Compete" Vertrag gegeben hat und das dieser nun abgelaufen ist. Dann könnten wir in Zukunft vielleicht noch weitere solcher Deals sehen.
Switch nutzt doch Maxwell,und geht bis zu einer Titan GPU.
Windi
2019-06-03, 18:09:39
Architekturen sind auch nicht beliebig skalierbar. Allerdings ist das bei GPUs etwas leichter als bei CPUs, da man beim Vollausbau der jeweiligen GPU eine vergleichbar hohe Anzahl an modularen Ausführungseinheiten hat.
Bei Maxwell wird zwischen 2 und 24 SMs skaliert (Tegra X1 und Titan X-M). Zusätzlich dazu kann noch der Takt skaliert werden. Sind schonmal 2x Einflussgrößen.
Wie man sieht rangiert man dann irgendwo zwischen 5 W und 250 W.
Samsung will die Architektur sehr wahrscheinlich in allen Smartphones einsetzen und nicht nur im Spitzenmodell. Da muss man auch noch deutlich unter 5W gehen können.
Ich finde es einfach beeindruckend wie gut das anscheinend skaliert.
Edit:
Noch einer.
OK, ihr habt mich überzeugt.
Nvidia hat das ja wirklich auch schon geschafft. Die wollen ihre Architektur nur nicht lizenzieren.
robbitop
2019-06-03, 18:17:24
Das war nur ein Beispiel. Man hätte auch 1x SM nehmen können und weniger Takt. Zumal Maxwell ja schon etwas angestaubt ist. :)
@Lizensierung
IIRC hatte NV vor einigen Jahren das auch mal angeboten - ich habe auch nichts Gegenteiliges mehr gelesen/gehört. Aber offenbar kam es bis dato noch zu keiner Lizenz.
NV ist halt nicht günstig. Das könnte bei Devices bei denen die Gewinnspannen z.T. eh gering sind, ein Problem sein.
dargo
2019-06-03, 18:17:51
Huch, dann muss RDNA ja ordentlich reinhauen
Definiere ordentlich. Auch Vega kann effizient wenn man sie nicht an der oberen Grenze betreibt. Bestes Beispiel Vega @IGP. ;)
Ravenhearth
2019-06-03, 18:22:35
Aber auch effizient genug für Smartphones? ;)
aufkrawall
2019-06-03, 18:24:33
Bestes Beispiel Vega @IGP. ;)
Gegen den Intel-Schrott sieht halt alles effizient aus. An den Relationen zu Pascal dürfte sich wenig ändern, wenn man diesem Extra-Verbräuche durch PCIe, VRAM sowie PCB-Elektronik wegnimmt.
dargo
2019-06-03, 18:32:48
Aber auch effizient genug für Smartphones? ;)
Wenn die Skalierung weiter runter machbar ist warum nicht? Vega 3 hat 3 CUs und passt samt CPU in 35W.
https://www.amd.com/de/products/apu/amd-athlon-200ge
Das ganze mit einer CU und eventuell weniger Takt, schon bist du wesentlich sparsamer. Nicht vergessen... das ist noch 14nm.
robbitop
2019-06-03, 18:35:36
Jetzt mal Betriebspunkte ausgeklammert:
Ein guter Teil von Maxwells / Pascals und Turings Energieeffizienz kommt von der höheren Datenlokalität. Jeder Speicherzugriff kostet Energie. Je öfter Daten lokal vorliegen, desto weniger Energie verbrät man.
Hier soll RDNA Gerüchten zu folge besser geworden sein.
dargo
2019-06-03, 18:41:48
Das ist wieder so eine nicht greifbare Formulierung. Natürlich sollte eine neue Architektur in Teilbereichen besser werden. Alles andere würde ja keinen Sinn machen. Die Frage ist wieviel ist die Neue in dem Teilbereich wovon du gerade gesprochen hast besser?
robbitop
2019-06-03, 19:13:01
Das werden wir erst wissen, wenn die Karte rauskommt und entsprechend vermessen wird.
Was erwartest du denn unter den jetzigen Umständen? ;)
dargo
2019-06-03, 19:18:25
Weniger Hype. ;)
Zossel
2019-06-03, 19:50:27
IIRC hatte NV vor einigen Jahren das auch mal angeboten - ich habe auch nichts Gegenteiliges mehr gelesen/gehört. Aber offenbar kam es bis dato noch zu keiner Lizenz.
NV ist halt nicht günstig. Das könnte bei Devices bei denen die Gewinnspannen z.T. eh gering sind, ein Problem sein.
Ich denke eher das sich NV nicht in die Karten schauen lassen will, und daher für Dritte einfach nicht attraktiv ist. Mit einer offenen Treiberbasis (Mesa & Co) fühlt man sich als Lizenznehmer einfach viel wohler. Qualcomm und Mediatek sind bzgl. Support auch eher seltsam.
Nur ein totes BLOB ist ein gutes BLOB!
mboeller
2019-06-03, 20:17:19
Wenn die Skalierung weiter runter machbar ist warum nicht? Vega 3 hat 3 CUs und passt samt CPU in 35W.
https://www.amd.com/de/products/apu/amd-athlon-200ge
Das ganze mit einer CU und eventuell weniger Takt, schon bist du wesentlich sparsamer. Nicht vergessen... das ist noch 14nm.
Es gehen auch 10 CUs in 12-25W
https://www.amd.com/de/products/apu/amd-ryzen-7-pro-2700u
dargo
2019-06-03, 20:21:45
Stimmt... Mobile komplett vergessen.
Frontend ist seit Polaris unproblematisch. Sieht man daran, dass die 1080p Performance im Vergleich zum Wettbewerb nicht schlechter ist als höhere Auflösungen. Bedeutet, Front End limitiert nicht mehr.
Was ist denn bei dir alles das Frontend?
---
Hat AMD eigentlich schon gesagt wofuer RDNA stehen soll?
Ich dachte immer, das so eine Architektur nicht unbegrenzt skaliert.
Was heisst "unbegrenzt"? Man sollte nicht vergessen, dass Smartphone SoCs bald (peak) Leistung der current-gen Konsolen (vor den refreshes) erreichen werden, da wird an der "Architektur" gar nicht so extrem viel skaliert werden muessen. Ich nehme auch mal an, der Samsung SoC mit RDNA ist dann vielleicht fuer 6 oder 5nm ein Thema, und da sind dann auch mal 3-4 full nodes dazwischen.
Die Grafikeinheit muss ja auch besser als die von PowerVR, ARM oder Samsungs eigenen Versuchen sein, sonst hätte man sie nicht genommen.
Muss sie nicht, kann auch einfach billiger sein oder andere Gruende haben. PowerVR ist am Ende und womoeglich moechte man die Abhaengigkeit von ARM etwas loesen. So ein riesen Konzern macht sich immer ungern so abhaengig und am Ende alles selbst bauen zu wollen kann sich nur Apple leisten.
Was mich besonders interessiert ist, ob Samsung das Ding mit HBM ausstatten wird. Die hatten ja schonmal HBM mit 512 Bit ins Spiel gebracht. Keine Ahnung wie das gegen LPDDR da stehen wuerde. 512 Bit bei sparsamen 1 Gbps wuerden 64 GiB/s ergeben, was schon etwa der Xbox One entspraeche.
€: OK, ein Aktueller SD hat gerade mal um die 8/16 GiB/s (SC/DC), wird also im Smartphone wohl kein Thema sein.
Linmoum
2019-06-03, 20:42:00
Hat AMD eigentlich schon gesagt wofuer RDNA stehen soll?
Vom Namen her? Radeon-DNA = RDNA.
basix
2019-06-03, 21:05:36
Was mich besonders interessiert ist, ob Samsung das Ding mit HBM ausstatten wird. Die hatten ja schonmal HBM mit 512 Bit ins Spiel gebracht. Keine Ahnung wie das gegen LPDDR da stehen wuerde. 512 Bit bei sparsamen 1 Gbps wuerden 64 GiB/s ergeben, was schon etwa der Xbox One entspraeche.
€: OK, ein Aktueller SD hat gerade mal um die 8/16 GiB/s (SC/DC), wird also im Smartphone wohl kein Thema sein.
Ein Samsung S10+ hat Dual-Channel LPDDR4X mit 2133 MT/s und somit 34 GiB/s Peak. Für die nächste Generation könnte es also schon 64 GiB/s werden ;) Wird momentan nicht PoP benutzt? Weiss nicht ob das mit HBM funktioniert.
Edit: Gibt viele verschiedene Packaging Varianten von Samsung ;)
http://itersnews.com/?p=96570
gravitationsfeld
2019-06-03, 21:16:41
Jetzt ist es aber nahezu die selbe ISA...
Das ist so eine Erbsenzaehlerei. Die Instructions sind die selben, aber z.B. s_waitcnt instructions werden definitiv anders sein. Auch wuerde mich sehr ueberraschen, wenn das Instruction-Encoding nicht geaendert wurde. Selbst in GCN 1-5 gab es da einmal eine deutlich Aenderung.
dr.denton
2019-06-03, 21:21:22
Weil so viel über GCN geflennt wurde: RDNA = Reddit Neckbeards Approve.
Leonidas
2019-06-04, 04:43:23
Vom Namen her? Radeon-DNA = RDNA.
Hatte mal nicht einer behauptet, es wäre eher "Raja-DNA" ?! ;)
robbitop
2019-06-04, 08:21:17
Was ist denn bei dir alles das Frontend?
Klassischerweise der Rasterizer und Transformation.
pixeljetstream
2019-06-04, 09:31:56
FrontEnd nimmt eher die Befehle vom Treiber entgegen und hilft die Arbeit zu verteilen. Siehe Slide 14
http://on-demand.gputechconf.com/gtc/2016/presentation/s6138-christoph-kubisch-pierre-boudier-gpu-driven-rendering.pdf
MadPenguin
2019-06-04, 10:07:41
Hatte mal nicht einer behauptet, es wäre eher "Raja-DNA" ?! ;)
Dann wäre Navi Scheisse. Das will keiner von uns :D
robbitop
2019-06-04, 10:30:00
Auch wenn es sicher nicht ernst gemeint war: Ich halte es für unsinnig, das Auskommen von Produkten an Einzelpersonen festzumachen.
Raja hat sicherlich als Leiter der RTG nicht selbst mit am Design mitgewirkt. Designs sind so komplex, dass da sicherlich Teams aus >100ern von Engineers daran arbeiten.
Das Management sorgt für die Randbedingungen (Budget, Zeitplan und Einhaltung dieses und Mitarbeiterführung).
Zu Rajas Zeiten war AMDs GPU Gruppe eben noch ziemlich ausgedörrt vom Personalabbau und Sparkurs der vorgehenden Jahren. Und sie musste auf vielen Hochzeiten gleichzeitig tanzen.
GPUs, APUs, Xbox, Playstation, Custom Cores, Vega für Apple, Polaris für Intel etcpp.
NV hat vermutlich eine ganz andere Größenordnung an Ressourcen.
Ich tippe mal darauf, dass sich sämtliche RnD Departments von AMD sukzessive erholen werden und entsprechend immer näher an den Wettbewerb kommen.
Wie gesagt: Einzelpersonen sind bei so großen Projekten ganz selten der Schlüssel des Erfolgs oder der Grund des Misserfolgs. Bei grobem Missmanagement ggf. Aber ich halte das für unwahrscheinlich, dass das auf Raja zutrifft.
Gipsel
2019-06-04, 10:46:53
FrontEnd nimmt eher die Befehle vom Treiber entgegen und hilft die Arbeit zu verteilen. Siehe Slide 14
http://on-demand.gputechconf.com/gtc/2016/presentation/s6138-christoph-kubisch-pierre-boudier-gpu-driven-rendering.pdf
Nun, ich denke das ist auch Definitionsfrage. Im Prinzip kann man auch "primitive distribution" und "rasterization distribution" als "work distribution" zusammenfassen und zum Frontend zählen. Ganz klassischerweise hat das Frontend ja praktisch mal mit dem Rasterizer angefangen (als es außer Triangle Setup vorher noch nicht wirklich was gab). Und sowohl "primitive distribution" als auch "rasterization distribution" stehen ablauftechnisch vor dem Shaderarray und Beides verteilt letztendlich Warps/Wavefronts (mitsamt Management der zugehörigen Daten) an Selbiges (wobei man das beim Rasterizer als eine zweistufige Verteilung betrachten kann: zuerst werden die Primitives anhand der Screenspace-Koordinaten [nennt ihr bestimmt nicht coarse raster, oder?] in Screentiles gebinnt, die dann jeweils mit einem bestimmten Rasterizer mitsamt angeschlossenen Shadereinheiten verknüpft sind). Insofern, wenn man das Shaderarray und dann letztendlich die ROPs (oder anderweitiges Schreiben des Ergebnisses in den Speicher) als Backend betrachtet, kann man das schon zum Frontend (für das Shaderarray) zählen. Ist letztendlich eine Frage der Perspektive (Frontend einer modernen GPU an sich oder Frontend für das Shaderarray).
mboeller
2019-06-04, 11:30:29
PowerVR ist am Ende
Am Ende ist hoffentlich ein wenig übertrieben. Der Brain-Drain ist aber schon massiv:
2015: 1700+ Mitarbeiter
2017: 1273 Mitarbeiter
2019: 900+ Mitarbeiter
* basierend auf den Infos auf der Homepage und den annual Reports von 2015 und 2017
Die Chinesen holen sich das Knowhow und Patente eh nach China. Dafür hat man das ja gekauft denke ich mal. Vielleicht nutzt man nicht mal die Marke weiter, dann geht PowerVR unter.
https://www.amd.com/en/graphics/workstations-radeon-pro-vega-ii
Footnotes
1. AMD APUs and GPUs based on the Graphics Core Next and RDNA architectures contain GPU Cores comprised of compute units, which are defined as 64 shaders (or stream processors) working together. GD-142
Gipsel
2019-06-04, 15:45:23
Steht bei mir unter dem Link nicht in den Fußnoten. :confused:
Und ist das letzte Gerücht nicht zwei vALUs mit 32 Lanes und eine sALU pro CU statt wie bisher 4 vALUs zu je 16 Lanes mit einer sALU? Dann würde sich ja an den "64 shaders (or stream processors)" pro CU nichts ändern.
Infinity Fabric Link Bandwidth with 2 bi-directional x16 links at up to 21Gbps = 2 x 16 x 21Gbps / 8 = up to 84GB/s bandwidth per direction
Gen 3.0 PCI Express x16 slot capable of 16 GB/s of bandwidth per direction and Radeon Pro Vega II with Infinity Fabric Link capable of 84GB/s bandwidth per direction.
84 / 16 = 5.25X faster than Gen 3.0 PCI Express x16.
Edit:
Aber lustig, daß da jetzt mit einem Mal 21 GT/s für die Infinity Fabric Links stehen (42GB/s für einen x16 Link). Bei der Präsentation der Instinct MI60 waren es noch 25GT/s (und damit 50GB/s pro x16 Link). Jeweils pro Richtung.
ich hab firefox und du ?
https://i.ibb.co/j8nQv2f/Unbenannt.png
Gipsel
2019-06-04, 16:23:56
ich hab firefox und du ?
https://i.ibb.co/j8nQv2f/Unbenannt.pngChrome und offenbar eine (gecachte) frühere Version der Webseite (nach Reload steht bei mir jetzt auch das von Dir Zitierte).
Der Rest mit dem Gerücht von zwei vALUs mit je 32 Lanes (statt 4x16) bleibt davon aber unbenommen.
Edit:
Und warum erwähnen die da überhaupt RDNA? Ist doch für Vega20 irrelevant. Spielt da irgendwer ein wenig zu viel mit Copy&Paste rum?
danarcho
2019-06-04, 16:50:11
Und warum erwähnen die da überhaupt RDNA? Ist doch für Vega20 irrelevant. Spielt da irgendwer ein wenig zu viel mit Copy&Paste rum?
Wenn ich raten müsste, würde ich sagen, dass AMD aus der Vergangenheit gelernt hat, dass man schnell verklagt wird, wenn man die Kerne anders zählt als die Konkurrenz. Also lieber überall ne Fußnote ranpappen, dann kann keiner hinterher heulen, dass die APU doch nur 2/4 Cores hatte und nicht 12 (Llano, Kaveri, etc).
Gipsel
2019-06-04, 16:57:24
Wenn ich raten müsste, würde ich sagen, dass AMD aus der Vergangenheit gelernt hat, dass man schnell verklagt wird, wenn man die Kerne anders zählt als die Konkurrenz. Also lieber überall ne Fußnote ranpappen, dann kann keiner hinterher heulen, dass die APU doch nur 2/4 Cores hatte und nicht 12 (Llano, Kaveri, etc).Aber die dort präsentierte Lösung hat gar nichts mit RDNA zu tun. Das war mein Punkt.
ja das ist gerade sehr verwirrend, und das in manchen AMD Patenten von VLIW2 und SIMD4 geschrieben wird macht es nicht besser.
Und Super-SIMD hab ich auch gelesen.
Complicated
2019-06-04, 17:44:42
Nun ich denke man will darauf hinweisen, dass GCN und RDNA nicht das selbe ist. Aber beide haben eben 64 Shader-CUs, was vermutlich für die ganze GCN-basierende OpenGPU Software sehr wichtig ist.
Gipsel
2019-06-04, 17:51:48
Nun ich denke man will darauf hinweisen, dass GCN und RDNA nicht das selbe ist.Aber warum sollte man darauf auf einer Produktwebseite für eine GCN-Karte (RDNA gibt es ja noch nicht zu erwerben) hinweisen?
Klassischerweise der Rasterizer und Transformation.
OK. An der Definitionsdiskussion beteilige ich mich mal nicht, aber ich beziehe mich gerne nochmal hierauf:
Frontend ist seit Polaris unproblematisch. Sieht man daran, dass die 1080p Performance im Vergleich zum Wettbewerb nicht schlechter ist als höhere Auflösungen. Bedeutet, Front End limitiert nicht mehr.
Polaris 10 "braucht" irgendwie 40% mehr theoretische Raster-Leistung als ein GP106. Ich erkenne daher nicht, was sich da mit Polaris besonders verbessert haben soll. Dass amd bisher nur max. 4 rasterizer verbauen konnte macht die Sache nicht besser. Den Schritt den Nvidia mit Maxwell gemacht hat hat AMD bisher nicht, und ganz sicher nicht mit Polaris, aufgeholt.
Ravenhearth
2019-06-04, 18:07:42
Aber warum sollte man darauf auf einer Produktwebseite für eine GCN-Karte (RDNA gibt es ja noch nicht zu erwerben) hinweisen?
Die Fußnote scheint von hier (https://www.amd.com/en/press-releases/2019-05-26-amd-announces-next-generation-leadership-products-computex-2019-keynote) gecopy-pasted zu sein (Nummer 10).
pixeljetstream
2019-06-04, 23:59:32
Nun, ich denke das ist auch Definitionsfrage. Im Prinzip kann man auch "primitive distribution" und "rasterization distribution" als "work distribution" zusammenfassen und zum Frontend zählen.
Klingt gut, ist aber halt auch mehr als das was robbitop angab, wobei er vermutlich das gleiche meinte ;)
Linmoum
2019-06-05, 22:24:45
상호 ATI TECHNOLOGIES ULC
기기명칭 VIDEO CARD
모델명 D18206
파생모델명 D18205,D18208,D18202,D18207
인증번호 R-R-ATI-102-D18206
제조자 ATI TECHNOLOGIES ULC
제조국가 중국
인증연월일 2019-06-05
https://rra.go.kr/ko/license/A_b_popup.do?app_no=201917210000142014
Kann hier irgendjemand koreanisch? :D Laut Übersetzer hätte ich D18206 als "Chip" gedeutet (also z.B. N10) und die vier anderen als SKUs davon.
Langlay
2019-06-05, 22:28:55
https://rra.go.kr/ko/license/A_b_popup.do?app_no=201917210000142014
Kann hier irgendjemand koreanisch? :D Laut Übersetzer hätte ich D18206 als "Chip" gedeutet (also z.B. N10) und die vier anderen als SKUs davon.
Das sagt Google Translate :
ATI TECHNOLOGIES ULC
Name des Geräts VIDEO CARD
Modell D18206
Abgeleitete Modellnamen D18205, D18208, D18202, D18207
Zertifizierungsnummer R-R-ATI-102-D18206
Hersteller ATI TECHNOLOGIES ULC
Herstellungsland China
Zertifizierungsdatum 2019-06-05
Leonidas
2019-06-06, 04:10:25
Warum denn "ATI TECHNOLOGIES ULC" ???
... erklärt sich nach Google-Suche: Gehört AMD India und hat immer noch den früheren Namen.
robbitop
2019-06-06, 11:11:43
Polaris 10 "braucht" irgendwie 40% mehr theoretische Raster-Leistung als ein GP106. Ich erkenne daher nicht, was sich da mit Polaris besonders verbessert haben soll. Dass amd bisher nur max. 4 rasterizer verbauen konnte macht die Sache nicht besser. Den Schritt den Nvidia mit Maxwell gemacht hat hat AMD bisher nicht, und ganz sicher nicht mit Polaris, aufgeholt.
Es ist zumindest in sofern besser geworden, dass Polaris mit zunehmender Auflösung den Abstand zum Wettbewerbsprodukt nicht mehr erhöht. (im GPU Limit)
Bis vor Polaris war die 1080p Performance relativ zum Wettbewerb schlechter and man brauchte höhere Auflösungen, um den Abstand zu verkürzen.
Möglich wurde das dank:
1.) Dem verbesserten Primitive Discard Accelerator
2.) Einem Index Cache für Geometrie
3.) Und 4x Rasterizer auf nur 2304 ALUs.
Aber ja, Pascal ist in Bezug auf Skalierbarkeit und Geometrie noch besser. In der Praxis war meines Erachtens das aber praktisch nie ein Flaschenhals für Polaris.
Hier würde ich eher die Auslastung der ALUs (Registerknappheit, Granularität der wavefronts, Kontrolllogik) und den relativ hohen Bandbreitenhunger (P10 kann zwar DCC und Vega hat sogar einen DSBR aber das Thema Datenlokalität ist noch stark verbesserungswürdig und IMO die fehlende Komponente - denn alle 3 Dinge haben IIRC starke Wechselwirkung) und den vergleichsweise niedrigen Takt (gemessen an Pascal zumindest).
RDNA soll all diese Baustellen ja angegangen sein.
amdfanuwe
2019-06-07, 02:13:52
Ruhe vor dem Sturm?
Kommt AMD jetzt mit 2 Chips?
Ich würd ja lachen, wenn AMD nahezu das komplette Portfolio mit nur einem Navi 10 bedient.
2 Karten OC an der Kotzgrenze jeweils ca. 25% schneller als die 2 Karten im Sweet Spot und eine Karte mit "schlechten" Chips.
Also in etwa so:
1660 < Navi Ausschuss $199
1660Ti < Navi effizient salvage $249
2060 < Navi effizient $299
2070 < Navi salvage OC $399
2070Ti/1080Ti < Navi OC $499
Ravenhearth
2019-06-07, 17:37:26
AMD says “we need to start to talk about our ray tracing strategy” (https://www.pcgamesn.com/amd/ray-tracing-hardware-software-ecosystem-graphics)
Auf der E3 kommt von AMD auch was zu Raytracing
BoMbY
2019-06-07, 18:37:10
AMD says “we need to start to talk about our ray tracing strategy” (https://www.pcgamesn.com/amd/ray-tracing-hardware-software-ecosystem-graphics)
Auf der E3 kommt von AMD auch was zu Raytracing
Also exakt genauso wie es letzte Woche bereits X-fach gesagt wurde?
Ruhe vor dem Sturm?
Kommt AMD jetzt mit 2 Chips?
Ich würd ja lachen, wenn AMD nahezu das komplette Portfolio mit nur einem Navi 10 bedient.
2 Karten OC an der Kotzgrenze jeweils ca. 25% schneller als die 2 Karten im Sweet Spot und eine Karte mit "schlechten" Chips.
Also in etwa so:
1660 < Navi Ausschuss $199
1660Ti < Navi effizient salvage $249
2060 < Navi effizient $299
2070 < Navi salvage OC $399
2070Ti/1080Ti < Navi OC $499
Sind vllt. Mobilvarianten bei. Auch ne Radeon Pro kann dabei sein. Ich würd mal von 2 RX Varianten im Desktop ausgehen.
horn 12
2019-06-07, 20:26:05
Note:
IMhO it will be 5750,5780 and then 5800 follow it's path (similar to HD4xxx & HD5xxx/6xxx)
Some of the AdoredTV Leaks are true (i have my own source).
We can hope for Vega64 performance at affordable price points.
Polaris is at End -> Long live the Navi....
Link:
https://forums.guru3d.com/threads/new-upcoming-ati-amd-gpus-thread-leaks-hopes-aftermarket-gpus-part-2.423192/page-25
N0Thing
2019-06-07, 20:40:45
Gewöhne dir doch bitte an, eine Quellenangabe zu deinen Copy & Paste Beiträgen hinzuzufügen.
E:\ Danke!
Linmoum
2019-06-08, 01:40:40
Heftig:
https://www.computerbase.de/2019-06/samsung-chip-amd-rdna-grafik-lizenz/
Um nochmal darauf kurz zurückzukommen: Laut Anandtech handelt es sich hierbei nicht um Navi, sondern erst dessen Nachfolger.
As such, for the 2022 product time frame, it means that Navi would already be four to five years old by the time Samsung’s first SoC ships. So, while our sources have confirmed that Samsung is using a GPU architecture on AMD’s public roadmap, it’s apparently not Navi.https://www.anandtech.com/show/14492/samsung-amds-gpu-licensing-an-interesting-collaboration
Auch bei Samsung ist das nicht Navi. Navi ist mMn RDNA 0.5. Auch was nächstes Jahr für Gaming kommt wird kein Navi mehr sein.
N20 wird höchstens noch für Profimarkt geben, alles weitere ist ne RDNA-Stufe weiter.
robbitop
2019-06-08, 10:32:38
Wie oft willst du diesen Unsinn noch wiederholen? Die Gerüchte, dass Navi keine neue mArch hat kamen doch daher, dass die Mongos, die die Gerüchte in den Umlauf gebracht haben nicht zwischen ISA und mArch unterscheiden können.
Soetwas wie einen Hybriden zu entwickeln ergibt gar keinen Sinn. Zumal Lisa Su selbst von einer neuen mArch sprach. Und du hälst diese Mongos für glaubwürdiger als den CEO?
Das werden wir ja sehen. MMn ist das ganz einfach eine Evolutionsstufe früher als das, was für die Konsolen kommt.
SKYNET
2019-06-08, 11:30:17
Wie oft willst du diesen Unsinn noch wiederholen? Die Gerüchte, dass Navi keine neue mArch hat kamen doch daher, dass die Mongos, die die Gerüchte in den Umlauf gebracht haben nicht zwischen ISA und mArch unterscheiden können.
Soetwas wie einen Hybriden zu entwickeln ergibt gar keinen Sinn. Zumal Lisa Su selbst von einer neuen mArch sprach. Und du hälst diese Mongos für glaubwürdiger als den CEO?
warum gehst du da überhaupt noch drauf ein? :confused:
dildo4u
2019-06-08, 11:34:37
Euer übertriebenes Gehype ist schuld wo ist das enttäuschend wenn ein so kleiner Chip mit Nvidias 400mm² Version mithält,das Ding kann man wie Polaris in 2 bis 3 Jahren für unter 200€ verkaufen.
Linmoum
2019-06-08, 11:48:02
Von welchem Gehype redest du?
Es geht hier seit längerem Primär um die Architektur und nicht irgendwelche Produkte. Dass Navi kein High-End ist, ist hinlänglich bekannt.
dildo4u
2019-06-08, 11:54:06
Das die erste Version nicht volle Version von RDNA ist,weil eigentlich müsste AMD Nvidia ja zerstören da sie 7nm nutzen.So läuft das nicht das sollte langsam mal klar sein,selbst bei den CPUs sind sie grad mal auf Level mit Intel was IPC angeht,man setzt sich dort immer noch mit HT (3700X vs 9700k)und mehr Cores(9900k vs 3900X) gegenüber Intel ab.
aufkrawall
2019-06-08, 13:24:51
"volle RDNA" :freak:
Schätze eher, es wird für größere GPUs, die später kommen, vielleicht zusätzliche Transistoren für RT geben. Also so wie bei Volta -> Turing, inkls. ein paar weiterer Detailverbesserungen.
Wenn die kolportierte Leistung & Verbrauch stimmen, wär man vs. Turing jedenfalls deutlich besser aufgestellt als damals gegen Pascal, wo 2x Polaris gegen eine 1080 in Ashes antreten durften. :freak:
Sunrise
2019-06-08, 14:40:56
Zumindest für den Anfang, ja, damit verkauft man dann wieder einiges. Wenn NV 2020 in 7nm EUV kommt wird AMD aber auch erstmal kein Land sehen, aber AMD positioniert die Produkte eben anders, fraglich wie es nach Navi weitergeht.
dargo
2019-06-08, 14:53:08
Wenn NV 2020 in 7nm EUV kommt wird AMD aber auch erstmal kein Land sehen...
Beim Preis bestimmt. :tongue: Ich erwarte die nächste, schnellste Gaming TI von NV bei mindestens 1500$. Zumindest wenn man sich etwas von der aktuellen Gen absetzen will.
Linmoum
2019-06-08, 14:58:40
Zumindest für den Anfang, ja, damit verkauft man dann wieder einiges. Wenn NV 2020 in 7nm EUV kommt wird AMD aber auch erstmal kein Land sehen, aber AMD positioniert die Produkte eben anders, fraglich wie es nach Navi weitergeht.
Wenn Nvidia 2020 mit 7nm EUV kommt wird AMD dasselbe tun. Zudem ist nächstes Jahr nicht Mittelklasse/Performance bei AMD dran, sondern High-Ende.
Keine Ahnung, warum man also kein Land sehen sollte. Es ist immer noch nichts genaues über RDNA bekannt und dasselbe gilt für Ampere.
aufkrawall
2019-06-08, 15:14:29
Wenn Nvidia 2020 mit 7nm EUV kommt wird AMD dasselbe tun.
Ich weiß auch nicht, warum man das für AMD unhinterfragt ausschließt, wenn schon die R7 7nm war.
Unicous
2019-06-08, 15:16:51
Warum überhaupt diesen FUD verbreiten. AMD hat klipp und klar gesagt, dass 2020 "Next-Gen" in 7nm+ gefertigt wird?:confused:
MadPenguin
2019-06-08, 15:39:06
Warum überhaupt diesen FUD verbreiten. AMD hat klipp und klar gesagt, dass 2020 "Next-Gen" in 7nm+ gefertigt wird?:confused:
Lass sie doch, bitte! Zuerst der Schlag ins Gesicht für Intel Fans, dann bei denselben ein Tritt in die Nüsse. Nun sind Nvidia Anhänger dran. Auch wenn ich bis zur Veröffentlichung von Navi noch relativ vorsichtig bin. Klingt alles super, vielleicht wird es ein Ryzen Teil 2 :)
Linmoum
2019-06-08, 15:43:13
Mit dem Unterschied, dass Nvidia keine Probleme mit der Fertigung haben wird und dann etliche Jahre zurückhängt. ;) Einfach abwarten, was 2020 bei beiden bringt. Startschuss wird Montag/Dienstag die E3 mit mehr Infos zu RDNA.
MadPenguin
2019-06-08, 15:46:33
Mit dem Unterschied, dass Nvidia keine Probleme mit der Fertigung haben wird und dann etliche Jahre zurückhängt. ;) Einfach abwarten, was 2020 bei beiden bringt. Startschuss wird Montag/Dienstag die E3 mit mehr Infos zu RDNA.
Genau! Nvidia hat tolle Produkte, ob sie einem gefallen oder nicht. Ich erwarte von AMD jedoch Konkurrenzfäigkeit durch die ihre neuen Produkte. Die Frage ist, ob AMD durch die Partnerschaft mit Samsung Vorteile bei deren Fertigungsanlagen haben wird...
Beziehe mich auf soetwas z.B.
https://www.google.com/amp/s/www.computerbase.de/2019-04/euv-fertigung-samsung-5-nm/%3famp=1
Unicous
2019-06-08, 15:52:07
@MadPenguin
Du interpretierst gerade mehr in das Geschriebene hinein. Es ging lediglich um den Fakt, dass AMD 2020 7nm EUV nutzen wird.
Ob Navi ein großer Wurf wird, wie AMD das erreicht haben könnte und ob"Next-Gen" darauf aufzubauen weiß steht noch in den Sternen. AMD hat so gut wie alle Löcher gestopft so scheint es. Es sind nur noch wenige Tage vor der Präsentation und wir wissen weiterhin so gut wie nichts.:uponder:
edit:
Da gerade das Gerücht im Umlauf ist, dass Nvidia Ampere? bei Samsung fertigen lassen will, wäre der Vorteil schon wieder dahin. Und bei der IP Lizensierung geht es um genau das... auch wenn es danach aussieht, als ob AMD und Samsung deutlich enger zusammenarbeiten bzw. sogar u.U. an Designs gemeinsam kollaborieren und es dadurch einen gewissen Ideenaustausch geben wird der AMD z.B. bei der Energieeffizienz helfen könnte.
Samsungs Foundry steht für alle offen, es könnte auch sein, dass AMD zweigleisig fährt, wenn es das Marktgefüge zulässt. Aber das ist bislang Kaffeesatzlesen. Es würde aber sicherlich dem Wettbewerb gut tun, wenn TSMC mal wieder um Kunden buhlen müsste anstatt de facto Alleinherrscher im Foundry-Business zu sein.
SKYNET
2019-06-08, 16:44:04
Beim Preis bestimmt. :tongue: Ich erwarte die nächste, schnellste Gaming TI von NV bei mindestens 1500$. Zumindest wenn man sich etwas von der aktuellen Gen absetzen will.
gehe auch von aus, das der preis nochmals ordentlich anziehen wird, da sie deutlich in die breite gehen müssen, wird der chip selbst mit 7nm ein monster sein, gehe davon aus das die RT einheiten verdreift werden, alleine das dürfte massiv platz kosten.
robbitop
2019-06-08, 20:49:05
Das werden wir ja sehen. MMn ist das ganz einfach eine Evolutionsstufe früher als das, was für die Konsolen kommt.
Und auf was basierst du deine Meinung? Jedenfalls nicht auf den Aussagen des CEOs. Etwas Solideres als das gibt es eigentlich kaum.
Sunrise
2019-06-08, 21:20:56
Wenn Nvidia 2020 mit 7nm EUV kommt wird AMD dasselbe tun. Zudem ist nächstes Jahr nicht Mittelklasse/Performance bei AMD dran, sondern High-Ende.
Keine Ahnung, warum man also kein Land sehen sollte. Es ist immer noch nichts genaues über RDNA bekannt und dasselbe gilt für Ampere.
NV hat den großen Fertigungssprung noch vor sich, AMDs bisherige Daten zu den kommenden RDNA-GPU sehen nicht so aus, als ob man hier gegen NV eine Chance hätte. 7nm+ wird da bei AMD nicht wirklich etwas daran ändern, ich erwarte von NV jedenfalls wieder einen Effizienzsprung der min. wie bei AMD auch aus der Architektur kommt und da wird es sicherlich Überraschungen geben. NV hat viel mehr Geld für R&D und es ist fast ausgeschlossen dass AMD das kontern kann, auch wenn die Abstände kleiner werden, aber gerade dann wird NV wieder Gas geben. Grundsätzlich bin ich seit Jahrzehnten stark AMD zugeneigt, NV ist einfach viel zu teuer, aber man sollte realistisch bleiben.
Ich freue mich jedenfalls auf die E3-Vorstellung von AMD, wenn Navi mal etwas näher beleuchtet wird.
Linmoum
2019-06-08, 21:46:51
NV hat viel mehr Geld für R&D und es ist fast ausgeschlossen dass AMD das kontern kann
Wie hat man dann Intel kontern können? :confused: Die haben ja noch viel mehr zur Verfügung als Nvidia.
Den großen Fertigungsvorsprung hat AMD jetzt mit Navi samt neuer mArch auch erst vor sich. ;) Es gibt doch bisher kaum Daten zu RDNA, zumal es im nächsten Jahr dann auch schon "RDNA 2.0" (samt 7nm EUV auch bei AMD) gibt. Die Zeit steht eben nicht still.
Einfach mal abwarten, bevor man schon wieder irgendwelche Schlussfolgerungen ziehen will, die schlicht und ergreifend noch gar nicht möglich sind.
Bucklew
2019-06-08, 21:54:55
Wie hat man dann Intel kontern können?
a) Intel hat die Entwicklung der Kernprodukte schleifen lassen und alle mögliche andere entwickelt. Der Desktopprozessor wurde eher stiefmütterlich weiter entwickelt
b) Intel hat ein Problem mit dem neuen Fertigungsverfahren bekommen
Beide Punkte treffen auf NVIDIA nicht zu.
Den großen Fertigungsvorsprung hat AMD jetzt mit Navi samt neuer mArch auch erst vor sich. ;) Es gibt doch bisher kaum Daten zu RDNA
Leider ja, selbst die von AMD sicherlich sehr positiven Angaben für Perf/Watt waren ziemlich "mäh".
Unicous
2019-06-08, 22:12:14
@Sunrise
Das ergibt eben null Sinn was du schreibst. Wenn Nvidia nächstes Jahr auf 7nm EUV geht ist auch AMD mit ihrem EUV-Design am Start, du tust so als hätte Nvidia automatisch den besseren Prozess, nur weil sie Nvidia sind.:confused:
Sowohl AMD als auch Nvidia backen ihre Chips auch nur mit Silizium. AMD hat mit Ryzen gezeigt, was sie mit ihrem geringen Budget schaffen können, wenn sie es schaffen mit Navi an Turing heranzurobben und mit "Next Gen" dann GCN neu interpretieren ist es durchaus möglich wieder mit Nvidia gleichzuziehen.
Von VegaII auf irgendetwas zu schließen und R&D Budgets gegeneinander aufzuwiegen, wenn man sieht wie der kleine Zwerg AMD sich gerade gegen Intel behauptet, ist mehr als merkwürdig. Intels R&D übersteigt AMDs R&D um mindestens das Zehnfache (auch wenn ca. die Hälfte der Ausgaben wohl für die Fabs genutzt werden) und trotzdem haben sie es geschafft ein konkurrenzfähiges Produkt auf die Beine zu stellen und so wie es aussieht gleichzuziehen bzw. sogar Intel sogar zu überflügeln.
Und das hat auch mit dem Prozess"vorteil" zu tun aber vor allem liegt es am Design.
Warum auf GPU-Seite so viel Pessimismus herrscht kann ich daher überhaupt nicht nachvollziehen, zumal Samsung bereit ist AMD GPU IP in ihren zukünfitgen Designs zu nutzen, während Nvidia es nicht geschafft hat im Lizenzgeschäft Fuß zu fassen.
Die erste GCN-Iteration war mehr als konkurrenzfähig und hat eher am Grafikkartendesign und schlechtem Management gekrankt. Da gleichzeitig AMDs Kerngeschäft weggebrochen ist, dürfte klar sein, dass es schwierig ist bei einem verordneten Sparkurs den Anschluss zu halten.
Diese Doom&Gloom Einstellung wäre vor 3 Jahren noch legitim gewesen, aber Lisa Su hat bewiesen, dass sie wichtige und richtige Entscheidungen treffen kann und ihre Teams motivieren kann so viel Performance aus dem Design zu holen wie möglich und dabei nicht davor zurückscheut neue Wege zu beschreiten und Risiken einzugehen (sieh Chiplet-Technologie).
Sunrise
2019-06-08, 23:06:29
...AMD hat mit Ryzen gezeigt, was sie mit ihrem geringen Budget schaffen können, wenn sie es schaffen mit Navi an Turing heranzurobben und mit "Next Gen" dann GCN neu interpretieren ist es durchaus möglich wieder mit Nvidia gleichzuziehen.
Wenn...dann...durchaus möglich...
Du siehst das richtig, wenn AMD urplötzlich mit NV gleichzieht (was auf absehbare Zeit nicht passieren wird), dann gäbe es hier in etwa Gleichstand. Nur wird NV nicht auf dem aktuellen Stand verbleiben. Bei NV steht eine ebenso verbesserte Architektur an und ebenso ein großer Fertigungssprung.
Es geht nicht nur um einen Prozessvorteil, steht doch oben. NV hat hier deutlich mehr R&D zur Verfügung und weiterhin einen nicht wegdiskutierbaren Effizienzvorteil, fertigt noch auf 12nm und Ampere bringt ebenso wie RDNA Neuerungen, die NV-typisch sicher nicht in geringerem Maße als bei AMD Auswirkungen haben werden.
AMD holt auf, aber mir sind hier einige etwas zu sehr am Feiern, wahrscheinlich erklärbar durch die Euphorie aufgrund Zen. Nur hat A nicht wirklich etwas mit B zu tun. Da sollte man realistisch bleiben.
Auch Lisa kann keine Wunder vollbringen, auch wenn man sieht, dass es mit ihr super läuft, tun einige gerade so, als wäre NV nichtmehr existent.
Da müsste NV wirklich ordentlich pennen, was gerade in der aktuellen Situation schwer vorstellbar ist, da die Konkurrenzsituation wieder härter für sie wird und das weiß Jensen nicht erst seit gestern.
Ich zitiere mal einen weisen Mann:
Einfach mal abwarten, bevor man schon wieder irgendwelche Schlussfolgerungen ziehen will, die schlicht und ergreifend noch gar nicht möglich sind.
Edit: Spekulations-Thread hin oder her, aber ein bißchen was zu RDNA sollte denn doch schon wenigstens bekannt sein, denke ich.
In zwei Tagen bist Du dann also wieder am Zug, Sunrise - eventuell.
Unicous
2019-06-08, 23:57:27
@Sunrise
Das sind reine Hypothesen deinerseits. Genauso gut kann Nvidia auch verkacken und ins Hintertreffen geraten, solange ist Thermi ja nun auch nicht her.
In deinen Augen kann Nvidia gar keinen Fehler machen, gleichzeitig gestehst du AMD nicht ein mit Nvidia gleichziehen zu können, wegen... Gründen.
Ich sage nicht, dass AMD auf einmal Wunder vollbringt und Nvidia überflügelt aber diese Grundskepsis bzw. eher Fatalismus, AMD wird niemals mehr mit Nvidia konkurrieren können weil... Nvidia ist nicht nur eine schwache Argumentation deinerseits sondern eine sehr verquere Ansicht des Halbleitersektors.
Selbst Intel steigt jetzt mit voller Fahrt in das GPU-Geschäft ein mit dem Ziel AMD und Nvidia anzugreifen. Das wird bei der ersten Generation sicherlich noch nicht reichen aber wenn Intel der Ehrgeiz gepackt hat können sie durchaus langen Atem zeigen.
Zudem haben sich die Architekturen über die Jahre deutlich angenähert und Die Erwartungshaltung bei jeder Generation riesige Performancesprünge zu erwarten sollte man auch langsam ad acta legen. Nvidia benötigt mittlerweile deutlich mehr Fläche um Performance aus ihren Chips zu holen und lässt sich das auch entsprechend bezahlen, AMD muss also nicht das Halo-Produkt Titan RTX angreifen um Nvidia Anteile abzujagen sondern um den Mainstream kämpfen.
Wenn AMD hier ein gutes Produkt abliefert (in Form von Navi) kann auf lange Sicht auch das Risiko gewagt werden deutlich größerere Chips zu designen oder gar andere Wege zu bestreiten.
Nvidia ist nicht unbesiegbar. Das zeigt auch der Automobilmarkt: Tesla hat einen Chip entwickelt der konkurrenzfähig ist und das obwohl Nvidia ordentlich Vorsprung hatte.
Ich sehe hier auch niemanden "feiern", ich glaube eher du jazzt das hoch um deine eigenen extrem pessimistischen Aussagen zu relativieren.
So gut wie niemand geht hier davon aus, dass AMD Nvidia überflügelt und man muss natürlich mit einberechnen, dass AMD momentan einen Prozessvorteil ausspielt den Nvidia bewusst auslässt (Begründung ist mehr als schwammig, eigentlich nicht existent). Dennoch kann man nicht automatisch davon ausgehen, dass bei Nvidia immer alles glatt läuft und wie ein gut geöltes Uhrwerk die Maschine immer weiter neue und bessere Produkte auf den Markt bringt. Dazu ist der Semiconductor-Bereich viel zu unberechenbar - wer hätte vor sagen wir 4 Jahren gedacht, dass Intel so abkackt und ins Hintertreffen gerät. Exakt: Niemand.:wink:
Sunrise
2019-06-09, 00:36:48
Sunrise...Das sind reine Hypothesen
...
Dennoch kann man nicht automatisch davon ausgehen, dass bei Nvidia immer alles glatt läuft und wie ein gut geöltes Uhrwerk die Maschine immer weiter neue und bessere Produkte auf den Markt bringt. Dazu ist der Semiconductor-Bereich viel zu unberechenbar - wer hätte vor sagen wir 4 Jahren gedacht, dass Intel so abkackt und ins Hintertreffen gerät. Exakt: Niemand.:wink:
Ich gehe aber nunmal davon aus, dass NV hier weiter ordentlich (und pünktlich 2020) liefern wird. Mit Intel nicht im Ansatz zu vergleichen, Intel hat ganz andere Zyklen und ist deutlich größer als NV.
Bei NV gab es nur wenige richtige Fehlschläge die jetzt nicht kriegsentscheidend waren. Bei AMD gab es da doch die ein oder andere Unsicherheit und auch Enttäuschung, insofern blicke ich mit spekulativem Blick auf die Zukunft, also genau hier auch goldrichtig. ;)
Ich werde meine Meinung dazu jedenfalls erst dann ändern, wenn AMD hier weltbewegend Neues präsentiert oder aber NV ungeplante Schwierigkeiten bekommt. Beides ist relativ unwahrscheinlich, auch wenn ich gerne überrascht werde.
Ich erwarte bei Ampere weiter mehr Architektur-Effizienz als bei AMD mit RDNA, aus gutem Grund (einige bereits genannt).
Unicous
2019-06-09, 01:26:53
Du liegst mit spekulativem Blick goldrichtig? Bin ich im Oxymoron-Land gefangen?:confused:
Und ich habe keine auch Ahnung warum man einen Halbleiter-Hersteller nicht mit einem anderen vergleichen kann, aber das wird wohl dein Geheimnis bleiben.:rolleyes: Du sprichst vage von irgendwelchen "Zyklen" und der Größe von Intel als ob das irgendeine Relevanz hätte oder gar ein gutes Argument wäre.
Ich finde außerdem toll wie du hier mit "Wahrscheinlichkeiten" um dich wirfst aber keinerlei Begründungen außer AMD=schlecht, Nvidia=gut daher AMD=schlecht, Nvidia=gut lieferst. Denn darauf läuft es in deiner Argumentation hinaus. Es kann nicht sein, was nicht sein darf.
Aber immerhin versuchst du gar nicht zu verschleiern, dass du nicht objektiv an die Sache herangehst und kategorisch ausschließt, dass Nvidia einen Fehler machen könnte von dem AMD (und auch zukünftig Intel) profitiert. Oder AMD wieder aufschließen kann obwohl Nvidia ihr Design weiter verbessert.
Aber es ist eh eine absurde Diskussion, der Thread und seine Teilnehmer gehen relativ nüchtern an die Sache heran aber nein es fehlte noch der aufklärerische Messias der uns die ungeschönte "Wahrheit", ob man will oder nicht, vor Augen hält.:freak:
amdfanuwe
2019-06-09, 02:35:32
Ich erwarte bei Ampere weiter mehr Architektur-Effizienz als bei AMD mit RDNA, aus gutem Grund (einige bereits genannt).
Spielt nur keine Rolle.
Im Desktop bietet AMD dann wie gehabt ein etwas besseres Preis/Leistungs Verhältnis und verkauft auch bei schlechterer Effizienz.
Nvidia bekommt ganz andere Probleme: Konsolen und Game Streaming (Google Stadia) laufen mit AMD GPU. Die Games werden zunehmend auf AMD Hardware optimiert.
Im HPC Segment ist Intel die nächsten Jahre keine Konkurrenz. AMDs Kopplung von ROME und GPU über Infinity Fabrik sowie Semicustom Designs bietet Vorteile gegenüber eine Nvidia GPU Lösung im HPC.
Nvidias Gewinne resultieren aus hohen Margen im Desktop und HPC Geschäft. AMD kann mit weniger Gewinn leben und hat noch das CPU und Semicustom Geschäft.
Wenn AMD da nun mit starker Konkurrenz kommt, brechen Nvida die Gewinne weg und es ist vorbei mit hohem R&D Budget.
DrFreaK666
2019-06-09, 03:22:41
Dass Software für AMD-Hardware optimiert wird, halte ich für Wunschdenken. Auch ich habe das mal gehofft.
Schon die Xbox 360 hatte AMD-Hardware (GPU) und was hat es gebracht?
Die PS4 und die Xbox One sind jetzt fast sechs Jahre auf dem Markt und von einer Optimierung für AMD-Hardware merkt man auch nichts. Außer die Spiele sind wirklich optimiert und würden ohne schlechter laufen.
PS4 und Xbox One kamen Ende 2013 auf den Markt, die Entwickler hatten davor aber schon Dev-Kits mit AMD-Hardware um ihre Engines darauf anzupassen
Leonidas
2019-06-09, 05:08:08
Der große Effekt von dieser Vormacht im Konsolen-Business fehlt mir auch noch. Wird es wahrscheinlich nie geben.
amdfanuwe
2019-06-09, 05:46:50
Der große Effekt von dieser Vormacht im Konsolen-Business fehlt mir auch noch. Wird es wahrscheinlich nie geben.
Wäre halt interessant zu wissen, wieviele Games mehr Nvidia Unterstützung hätten ohne AMDs Konsolen.
Durch Stadia wird jedenfalls demnächst Vulkan gepuscht. Ich bin mal gespannt, ob dadurch auch Linux als Gamingplatform profitiert.
Ein Stadia-Linux für PC wäre nicht schlecht, wenn es die eh für Stadia angepassten Games dann auch zum Download zu kaufen gäbe.
Am besten über Google Stadia, so dass man wahlweise streamt oder local spielen kann. Oder eine Stadia Konsole.
Mal sehen, was Google da noch einfällt. Ich denke aber mal, dass Google schon darauf achtet, dass die Games nicht durch irgendwelche Nvidia Features ausgebremst werden.
mironicus
2019-06-09, 09:49:43
Der große Effekt von dieser Vormacht im Konsolen-Business fehlt mir auch noch. Wird es wahrscheinlich nie geben.
Es ist schleichender Prozess, den man nicht so schnell wahrnimmt. AMD wird langsam zur Krake und irgendwann haben sie die Welt umschlungen und keiner kann sich mehr aus dem Griff befreien. :freak:
Der große Effekt von dieser Vormacht im Konsolen-Business fehlt mir auch noch.
Es ist schleichender Prozess, den man nicht so schnell wahrnimmt. AMD wird langsam zur Krake und irgendwann haben sie die Welt umschlungen und keiner kann sich mehr aus dem Griff befreien. :freak:
Und dann, wird AMD die Weltherrschaft an sich reißen! :ulol5:
(den Smiley wollte ich schon immer mal benutzen ^^ orang=AMD. gelb=Apple, Samsung, Konsolen ...)
MfG . JVC
Sunrise
2019-06-09, 10:27:55
Spielt nur keine Rolle.
Da wäre ich vorsichtig, auch wenn Konsolen (insbesondere die PS5) und Navi ordentlich Auswirkungen zeigen werden, ist das hier trotz Jahren der "Vormachtstellung" weiterhin der aktuelle Stand bei diskreten GPUs:
AMD's Q4 Discrete GPU Market Share Falls below 20% - Market Realist
https://marketrealist.com/2019/03/amds-q4-discrete-gpu-market-share-falls-below-20/
AMD's Graphics Market Share Nears Decade Low
https://www.fool.com/amp/investing/2019/03/11/amds-graphics-market-share-nears-decade-low.aspx
NV: >= 80%
AMD: <= 20%
Dass NV ordentlich Konkurrenzdruck bekommt hatte ich ja geschrieben, insgesamt sieht es bei AMD auch sehr gut aus, Lisa macht augenscheinlich einen exzellenten Job, wohl auch durch ihre gute Vernetzung in der Industrie. Dennoch werde ich deshalb nicht NV außer Acht lassen, die leider oft Effizienz- und Leistungsvorreiter waren und pünktlich lieferten, während AMD immer nur mitgelaufen ist und mich bisher nicht gänzlich überzeugt. Wohlgemerkt bei GPUs, was ja immer NVs Vision und Ziel war, hier führend zu sein.
Da sehe ich aktuell noch keine Änderung, auch wenn es aufgrund Intel und AMD schwieriger werden wird, diesen Marktanteil zu halten.
AffenJack
2019-06-09, 10:36:28
Der große Effekt von dieser Vormacht im Konsolen-Business fehlt mir auch noch. Wird es wahrscheinlich nie geben.
Den gabs doch schon. Wieso ist wohl Kepler so abgekackt nach dem Konsolenlaunch? Weil sich der Workload in Richtung GCN entwickelt hat dank der Konsolen.
Aber es ist eh eine absurde Diskussion, der Thread und seine Teilnehmer gehen relativ nüchtern an die Sache heran aber nein es fehlte noch der aufklärerische Messias der uns die ungeschönte "Wahrheit", ob man will oder nicht, vor Augen hält.:freak:
Sicher, siehe Horn, skynet, JVC...
Es gibt genug Leute hier die von sonstwas träumen.
robbitop
2019-06-09, 10:43:38
NV biegt vieles durch ihr mächtiges Treiberteam wieder gerade. Da sind Hundertschaften. AMD ist sicher froh über die Effekte aus der Konsole und hätten ohne das sicher mehr Schwierigkeiten im PC.
Achill
2019-06-09, 12:24:13
Dass Software für AMD-Hardware optimiert wird, halte ich für Wunschdenken. Auch ich habe das mal gehofft.
Schon die Xbox 360 hatte AMD-Hardware (GPU) und was hat es gebracht?
Die PS4 und die Xbox One sind jetzt fast sechs Jahre auf dem Markt und von einer Optimierung für AMD-Hardware merkt man auch nichts. Außer die Spiele sind wirklich optimiert und würden ohne schlechter laufen.
PS4 und Xbox One kamen Ende 2013 auf den Markt, die Entwickler hatten davor aber schon Dev-Kits mit AMD-Hardware um ihre Engines darauf anzupassen
Der große Effekt von dieser Vormacht im Konsolen-Business fehlt mir auch noch. Wird es wahrscheinlich nie geben.
NV biegt vieles durch ihr mächtiges Treiberteam wieder gerade. Da sind Hundertschaften. AMD ist sicher froh über die Effekte aus der Konsole und hätten ohne das sicher mehr Schwierigkeiten im PC.
Soweit ich mich recht an Aussagen von ein paar anderen Usern hier im Forum richtig erinnere (die in der Gaming-Industrie als SWE unterwegs sind), dann ist die API bei den Konsolen, und am stärksten bei der PS4 (im Vergleich), doch schon deutlich anderes als DX11/DX12/Vulkan.
Da sicherlich die IDEs/Profiler/Tools zum Entwickeln auch entsprechend unterschiedlich sein werden, tippe ich darauf, dass es unterschiedliche Teams gibt mit Spezialisierung auf das Game selbst und dann welche für die Umsetzung auf die jeweilige Plattformen bzw. Bereitstellung der Haus-Engine. Eine Optimierung von Shader-Code für z.B. die PS4 kann mit Sicherheit nicht 1:1 auf den PC übernommen werden, besonders wenn man einen umfassenderen Zugriff auf die HW-Architektur hat und mehr Features nutzen kann.
Ich glaube da kommt nicht so viel beim PC an als man manchmal erwartet ...
--
Edit: Und btw, man wird beim PC nicht verstärkt auf den kleineren HW-Markt optimieren sondern wenn es gut läuft (für AMD), dann läuft es einfach auf AMD und NV ausgeglichen, sprich "überspitzt" man hat sich beim Entwickeln auch ein paar Eigenarten von AMD angeschaut und dort optimiert.
Unicous
2019-06-09, 13:16:24
Sicher, siehe Horn, skynet, JVC...
Es gibt genug Leute hier die von sonstwas träumen.
Ist das wirklich dein Ernst?:confused:
Wegen den paar notorischen Spinnern und Spammern diskreditierst du den Rest der Thread-Teilnehmer. :facepalm:
Beschwere dich im Übrigen bitte bei den mods, ich habe horn schon zig mal gemeldet, das interessiert niemanden, seine Nonsens-Posts werden hier einfach toleriert.
edit:
Um mal zum Thema zurückzukehren...
Alright, got some info about Navi, don't ask about the source, but it's reliable as hell, and I trust it implicitly.
The highest SKU launching will be named RX 5700 XT, 40CU, 9.5TFLOPS, 1900MHz max clocks, with 1750MHz being the typical gaming clock. Power delivery is through 2X 6pin connectors.
https://forum.beyond3d.com/posts/2072062/
It's legit. It appears Navi indeed sacrificed compute to gain more pixel pushing power, just like Digital Foundry predicted/anticipated. A Vega 64 is 12.5 TFLOPS, yet an RX 5700 is 8.5 TFLOPS at typical gaming clocks, and it's faster than a Vega 64.
https://forum.beyond3d.com/posts/2072069/
Ich würde die Aussagen dennoch mit einem Löffelchen voll Salz zu mir nehmen, der Herr ist nicht gerade dafür bekannt AMD wohlgesonnen zu sein und verdreht gerne mal Fakten.
MadPenguin
2019-06-09, 13:40:57
Da wäre ich vorsichtig, auch wenn Konsolen (insbesondere die PS5) und Navi ordentlich Auswirkungen zeigen werden, ist das hier trotz Jahren der "Vormachtstellung" weiterhin der aktuelle Stand bei diskreten GPUs:
AMD's Q4 Discrete GPU Market Share Falls below 20% - Market Realist
https://marketrealist.com/2019/03/amds-q4-discrete-gpu-market-share-falls-below-20/
AMD's Graphics Market Share Nears Decade Low
https://www.fool.com/amp/investing/2019/03/11/amds-graphics-market-share-nears-decade-low.aspx
NV: >= 80%
AMD: <= 20%
Dass NV ordentlich Konkurrenzdruck bekommt hatte ich ja geschrieben, insgesamt sieht es bei AMD auch sehr gut aus, Lisa macht augenscheinlich einen exzellenten Job, wohl auch durch ihre gute Vernetzung in der Industrie. Dennoch werde ich deshalb nicht NV außer Acht lassen, die leider oft Effizienz- und Leistungsvorreiter waren und pünktlich lieferten, während AMD immer nur mitgelaufen ist und mich bisher nicht gänzlich überzeugt. Wohlgemerkt bei GPUs, was ja immer NVs Vision und Ziel war, hier führend zu sein.
Da sehe ich aktuell noch keine Änderung, auch wenn es aufgrund Intel und AMD schwieriger werden wird, diesen Marktanteil zu halten.
Du bist mit Q42018 schon ein wenig hinten.
Hier Q12019
https://www.google.com/amp/s/www.techquila.co.in/amd-gpu-market-share/%3famp
https://www.google.com/amp/s/wccftech.com/jpr-market-share-report-amd-discrete-gpu-shipments-increased-by-21-as-pc-market-declined-by-10-7-in-q1-2019/amp/
Ausserdem wird Q22019 noch besser für AMD sein. Ab Q3 bin ich sicher, dass durch Navi (zumindest was man aktuell weiss) ein grosser Ruck in die richtige Richtung passieren wird.
horn 12
2019-06-09, 14:04:22
Nun, dann wäre RX 5700 diese Karte auf der Messe gewesen und eine RX 5700XT wäre somit knapp auf Vega VII Performance oder maximal um die 10% leicht darunter.
Linmoum
2019-06-09, 15:06:43
https://cdn.videocardz.com/1/2019/06/AMD-Radeon-RX-5700XT-Navi-Specifications-1000x469.jpg
Eine Vega64 hat zum Vergleich (up to) 12.6 TFLOPS und wird wohl langsamer sein.
horn 12
2019-06-09, 15:13:54
https://videocardz.com/80966/amd-radeon-rx-5700-xt-picture-and-specs-leaked
Toll, sieht vielversprechend aus
Nvidia hat Grund zur Sorge.
w0mbat
2019-06-09, 15:15:15
Ich würde die Aussagen dennoch mit einem Löffelchen voll Salz zu mir nehmen, der Herr ist nicht gerade dafür bekannt AMD wohlgesonnen zu sein und verdreht gerne mal Fakten.
Er schein richtig zu liegen :smile:
Radeon RX 5700 XT, mein neues Baby? :D
Blediator16
2019-06-09, 15:24:16
Immer wieder geil diese im "Traum" aufgenommenen ominösen leak Bilder :freak:
mboeller
2019-06-09, 15:27:30
https://videocardz.com/80966/amd-radeon-rx-5700-xt-picture-and-specs-leaked
Toll, sieht vielversprechend aus
Nvidia hat Grund zur Sorge.
kommt die 5700-Serie in 14/12nm???
Ein Polaris 10/20/30 hat 36 CU's und 232mm².
Navi soll ja ca. 250mm² haben und 40CU's
Wo liegt da der Vorteil von 7nm? Passt IMHO irgendwie nicht zusammen.
1905MHz <-> 1545MHz alleine kann es ja nicht sein. Das schafft Nvidia ja auch schon.
Linmoum
2019-06-09, 15:28:38
Ich bin gespannt, ob sie tatsächlich mit einem $499-Preisschild gehen, das Customs dann sicherlich noch einmal ordentlich übertreffen würden.
$299/$399 und man hätte da markttechnisch ein richtig heißes Eisen im Feuer.
Unicous
2019-06-09, 15:35:56
Er schein richtig zu liegen :smile:
Und das machst du woran fest?:confused:
Dass VCZ ein blurry Foto gepostet hat?:wink:
Es könnte auch genau dieselbe Quelle sein und versuchen Kredibilität herzustellen indem zwei verschiedene "Quellen" dasselbe sagen.
Ich frage mich immer wieder warum diese Leaker immer nur Kartoffelkameras haben oder die "Druck"-Taste auf dem Keyboard nicht finden.:freak:
Es gab leider in der Vergangenheit zu viele von solche "leaks", daher sollte man wie immer skeptisch bleiben.
BoMbY
2019-06-09, 15:38:47
Das Bild sieht aus wie von einer Leinwand abfotografiert - könnte also von einer Probeveranstaltung sein.
w0mbat
2019-06-09, 15:39:21
Klar, vielleicht hat er vorher gepostet und dann ein fake pic an VCZ geschickt, gut möglich. Aber wenn nicht, dann scheinen sich seine Aussagen zu bestätigen.
Und Bilder sehen eben so aus wenn man sie versteckt kurz mit nen Handy in nem großen Raum von einer Leinwand macht.
Grendizer
2019-06-09, 15:41:50
Denke auch, das es nicht erlaubt ist bei diesen Präsentation Foto zu machen. Deshalb ist die Qualität eben oft nicht berauschend.
MSABK
2019-06-09, 15:48:59
Wann genau ist die Veranstaltung von AMD auf der E3?
w0mbat
2019-06-09, 15:49:43
Morgen Abend in den USA, also ca. 0 Uhr bei uns iirc.
AffenJack
2019-06-09, 15:50:32
Ich bin gespannt, ob sie tatsächlich mit einem $499-Preisschild gehen, das Customs dann sicherlich noch einmal ordentlich übertreffen würden.
$299/$399 und man hätte da markttechnisch ein richtig heißes Eisen im Feuer.
Ich glaube nicht, dass wir 499$ sehen werden. Dürften mal wieder Fakes sein und nix anderes. Wie es scheint, dürfte man so 5% vor der 2070 rauskommen und dann halte ich deine genannten 399$ für den realistischten Preis. AMD weiß selber, dass 499$ schlecht ankommt, da von einer Reaktion von Nvidia auszugehen ist. Das Ding nach 2 Wochen im Preis zu senken wäre wohl das schlimmste, was passieren könnte.
Unicous
2019-06-09, 15:53:37
Also weil es nicht erlaubt ist Fotos zu machen ist die Qualität beschissen. Makes perfect sense.:freak:
Es ist nicht mehr 2000. Die einzige Ausrede für die beschissene Qualität die ich akzeptiere wäre das hier:
https://images-na.ssl-images-amazon.com/images/I/61isRKEuOsL._SX569_.jpg
oder das hier:
https://i.ytimg.com/vi/eHkpWF-J38s/maxresdefault.jpg
horn 12
2019-06-09, 16:03:31
Man geht von 329 und 439 Euro bei Navi Referenz aus
RX 5700 knapp RTX 2070 und 5700XT dann um die 15% drüber.
horn 12
2019-06-09, 16:04:39
Man geht von 329 und 439 Euro bei Navi Referenz aus
RX 5700 knapp RTX 2070 und 5700XT dann um die 15% drüber.
Customs dann knapp an der Radeon Seven scheitern.
Dafür aber auch 500+ Dollar kosten
MadPenguin
2019-06-09, 16:10:36
Heute Abend 22 Uhr, Microsoft Stream mit News zur neuen Xbox. :)
Wird sicherlich ein Naviderivat haben. Oder?
https://www.xbox.com/de-DE/e3
crux2005
2019-06-09, 16:13:55
Wann genau ist die Veranstaltung von AMD auf der E3?
https://www.amd.com/en/events/e3
Join the Live Webcast
June 10, 2019
3PM PDT
Also wie w0mbat schreibt, ab 00:00.
unl34shed
2019-06-09, 16:20:28
Also zur Klarstellung Dienstag 11. Juni 0:00 bei uns.
BlacKi
2019-06-09, 16:20:35
Man geht von 329 und 439 Euro bei Navi Referenz aus
die 499$ galten ja auch für die toxic version, wenn ich das richtig in erinnerung hatte. daher gehe ich auch von 450ish$ für die referenz XT aus.
man macht daraus dann ein typische amd trara daraus, das man die konkurenz deutlich schlägt zum günstigeren preis. eben fanservice. dabei ist die karte im vorteilhaften 7nm prozess, ohne rt beschleuniger, bei leicht höherem verbrauch.
well done. steilvorlage für NV.
Linmoum
2019-06-09, 16:22:54
Steilvorlage für Nvidia? What? Ich glaube, du verstehst da was nicht richtig.
MadPenguin
2019-06-09, 16:24:06
Hab auch nicht ganz verstanden, was er meint?!
Unicous
2019-06-09, 16:26:39
Was ist erschreckender? Dass der gute Blacki auf horns Gebrabbel eingeht oder die völlig aus der Luft gegriffenen Konklusionen die er daraus zieht?:freak:
aufkrawall
2019-06-09, 16:49:29
Eine Wccftech-News aus beidem zusammen wäre jedenfalls das Ende der Zivilisation, wie sie bisher existierte. :freak:
BlacKi
2019-06-09, 16:59:31
Steilvorlage für Nvidia? What? Ich glaube, du verstehst da was nicht richtig.
hast du ne ahnung was ich falsch verstanden haben könnte?
fondness
2019-06-09, 17:18:49
Den gabs doch schon. Wieso ist wohl Kepler so abgekackt nach dem Konsolenlaunch? Weil sich der Workload in Richtung GCN entwickelt hat dank der Konsolen.
Kepler wäre auch so abgekackt.
Ravenhearth
2019-06-09, 17:23:58
Bei 2x6 Pin gehe ich aber nicht von 225W aus, das wäre arg auf Kante genäht und damit hat man bekanntermaßen schlechte Erfahrungen gemacht (siehe RX 480). Andererseits gabs auch 590-Customs mit 1x8 Pin :uponder:
Linmoum
2019-06-09, 17:26:53
hast du ne ahnung was ich falsch verstanden haben könnte?
Wie du siehst war ich ja nicht alleine damit, dass dein Beitrag etwas... konfus anmutet. ;)
Die Frage ist daher, auf welcher Grundlage zu deiner Schlussfolgerung kommst. Denn vernünftig zu erklären ist das irgendwie nicht wirklich.
BlacKi
2019-06-09, 17:49:24
den sprung auf 7nm hat nv noch vor sich. RT beschleunigung fehlt bei navi wohl ebenso, das hat amd noch vor sich. das navi wieder in die nähe des nv portfolio rankommt, ist nur von kurzer dauer.
crux2005
2019-06-09, 18:00:41
https://videocardz.com/80966/amd-radeon-rx-5700-xt-picture-and-specs-leaked
Toll, sieht vielversprechend aus
Nvidia hat Grund zur Sorge.
Toll, fast übersehen. :rolleyes:
https://i.imgur.com/BmN1Oty.jpg
Die Bilder werden aufgehellt damit sie evtl. Wasserzeichen entlarven.
Game Clock? Die Rückkehr der Taktdomänen? Okay, gibt's ja schon seit Vega, allerdings nicht so bezeichnet. Mit 1,75 GHz hat das Ding nur rund 9 TFLOPS. Die müssen dann aber voll durchschlagen, wenn man eine RTX 2070 erreichen will.
MfG,
Raff
Linmoum
2019-06-09, 22:53:36
AMD hat die 5700 ja auf der Computex schon gegen die 2070 laufen lassen, also im Endeffekt wahrscheinlich irgendwo zwischen einer Vega64 und 2070. Es ist halt nicht mehr good ol' GCN. ;)
Hasenpfote
2019-06-10, 00:15:59
Ich frage mich immer wieder warum diese Leaker immer nur Kartoffelkameras haben oder die "Druck"-Taste auf dem Keyboard nicht finden.:freak:Vielleicht deswegen, weil sie keinen Bock haben, wegen Wassermarken im Dokument ihren Job zu verlieren? Stichwort Reality Winner.
Unicous
2019-06-10, 00:20:07
Völlig blödsinniger Vergleich, zumal es wahrscheinlich nur bei einer PK abfotografiert wurde.:rolleyes:
][immy
2019-06-10, 01:18:59
den sprung auf 7nm hat nv noch vor sich. RT beschleunigung fehlt bei navi wohl ebenso, das hat amd noch vor sich. das navi wieder in die nähe des nv portfolio rankommt, ist nur von kurzer dauer.
also, wenn ich jetzt die e3 Pressekonferenz von MS als Quelle (custom design auf navi-basis) nutze, müsste Navi eigentlich bereits über Hardware RT verfügen, da MS hier wirklich von Hardware in Kooperation mit AMD gesprochen hat. kann natürlich auch einfach noch deaktiviert sein, aber ich glaube nicht das AMD da was entwickelt, was sie dann noch nicht mit ausliefern. So groß ist AMD nicht, das sie sich so viele Designs erlauben könnten.
Ich kann mir derzeit aber nicht vorstellen, was die neue xbox kosten würde, mit all dem was angekündigt wurde.
robbitop
2019-06-10, 08:07:51
Naja Scarlet kommt ja erst Weihnachten 2020. Und wie wir wissen, haben Konsolen GPUs sogar manchmal Grafik IP, die im PC erst später kommt (siehe PS4PRO mit rapid packed math in 2016).
Kann gut sein, dass erst eine spätere AMD GPU entsprechend (volle) RT HW Beschleunigung (gem DXR) bekommt.
Navi 10 kommt immerhin rund 1,5 Jahre vor Scarlet auf den Markt.
nordic_pegasus
2019-06-10, 09:45:26
https://www.youtube.com/watch?v=rOOoMqdfZaQ&t=0s
Igor bestätigt die Folie aus dem Videocardz Leak.
BlacKi
2019-06-10, 10:18:29
Naja Scarlet kommt ja erst Weihnachten 2020. Und wie wir wissen, haben Konsolen GPUs sogar manchmal Grafik IP, die im PC erst später kommt (siehe PS4PRO mit rapid packed math in 2016).
Kann gut sein, dass erst eine spätere AMD GPU entsprechend (volle) RT HW Beschleunigung (gem DXR) bekommt.
Navi 10 kommt immerhin rund 1,5 Jahre vor Scarlet auf den Markt.
mich macht die fomulierung "we need to talk about Raytracing" stutzig. als würde man RT neu erfinden oder anders gestalten. auf jeden fall anders als bisher umsetzen, als wir es kennen.
Leonidas
2019-06-10, 10:18:56
Naja Scarlet kommt ja erst Weihnachten 2020. Und wie wir wissen, haben Konsolen GPUs sogar manchmal Grafik IP, die im PC erst später kommt (siehe PS4PRO mit rapid packed math in 2016).
Kann gut sein, dass erst eine spätere AMD GPU entsprechend (volle) RT HW Beschleunigung (gem DXR) bekommt.
Navi 10 kommt immerhin rund 1,5 Jahre vor Scarlet auf den Markt.
... was dann auch zu anderen Gerüchten über RDNA 1.0 (Navi 10) und RDNA 2.0 (Navi 20) passen würde.
mironicus
2019-06-10, 10:24:48
Wie hoch ist die Wahrscheinlichkeit, dass AMD heute Nacht mehr als 2 Navi-basierte Grafikkarten vorstellt (RX 5700, RX 5700X)?
Wenn NVidia jetzt schon damit reagiert die RTX 2060 bis RTX 2080 zu refreshen, dann könnte AMD auch noch mit einer Karte über RTX 2080-Geschwindigkeit nachlegen.
Adam D.
2019-06-10, 10:39:07
Wie hoch ist die Wahrscheinlichkeit, dass AMD heute Nacht mehr als 2 Navi-basierte Grafikkarten vorstellt (RX 5700, RX 5700X)?
Wenn NVidia jetzt schon damit reagiert die RTX 2060 bis RTX 2080 zu refreshen, dann könnte AMD auch noch mit einer Karte über RTX 2080-Geschwindigkeit nachlegen.
Es werden bisher ausschließlich 5700 und 5700 XT gehandelt, mehr wird da nicht kommen. Wenn man Igor folgt, dann ist bisher ausschließlich der Preis das große Fragezeichen. Hoffen wir das Beste.
Linmoum
2019-06-10, 10:41:08
https://www.youtube.com/watch?v=rOOoMqdfZaQ&t=0s
Igor bestätigt die Folie aus dem Videocardz Leak.
Entweder wird's ein "the new GPU king under $500" 2.0 oder sie fahren die Ryzen-Schiene. Ich tippe auf letzteres.
Daredevil
2019-06-10, 10:42:42
Ich bin mir nicht sicher ob der Preis wirklich das große Fragezeichen ist, denn schließlich muss Navi auch in Konsolen verbaut werden und Konsolen haben einen ganz bestimmten Preis.. Ich tippe also so in etwa auf 200€ für die 5700 und 300 € für die 5700XT, mal schauen was dabei rauskommt.
Customs bekommen nochmal nen Fuffi Aufschlag und gut ist.
Käsetoast
2019-06-10, 10:43:50
Wenn AMD klar war, dass zuerst die kleineren Navi Chips erscheinen sollen und es technologisch möglich ist würde es schon Sinn machen die 5700er ohne Raytracing zu bringen und erst die größeren Chips später dann mit RT. An der RTX 2060 sieht man ja ganz gut, dass sich RT erst ab einem gewissen leistungsniveau sinnvoll einsetzen lässt. Wenn AMD die Ressourcen hat den kleinen Navi in einer rasterizing-only Variante anzubieten macht das sicher Sinn. Bin gespannt was da heute gesagt wird...
BlacKi
2019-06-10, 10:47:05
welche uhrzeit sollte man sich freihalten?
mironicus
2019-06-10, 10:47:53
Ja, aber der 16 Kerner Zen 2 wurde bis jetzt auch verheimlicht.
Und wie realisiert AMD denn nun in Zukunft Raytracing? Mit einem eigenen Chip neben der GPU?
Linmoum
2019-06-10, 10:48:06
Ab Mitternacht.
OgrEGT
2019-06-10, 11:38:04
Und wie realisiert AMD denn nun in Zukunft Raytracing? Mit einem eigenen Chip neben der GPU?
Ein RT Chiplet? Ginge das denn, also könnte die Anbindung an die GPU schnell genug dafür sein?
AffenJack
2019-06-10, 11:59:47
Ein RT Chiplet? Ginge das denn, also könnte die Anbindung an die GPU schnell genug dafür sein?
Nein. RT über Zusatzchips ist Quatsch.
Adam D.
2019-06-10, 12:01:10
Ich bin mir nicht sicher ob der Preis wirklich das große Fragezeichen ist, denn schließlich muss Navi auch in Konsolen verbaut werden und Konsolen haben einen ganz bestimmten Preis.. Ich tippe also so in etwa auf 200€ für die 5700 und 300 € für die 5700XT, mal schauen was dabei rauskommt.
Customs bekommen nochmal nen Fuffi Aufschlag und gut ist.
Hat AMD was zu verschenken? :confused:
dildo4u
2019-06-10, 12:06:47
300 und 400€ natürlich nicht billiger,die Erwartungen für die absurden Preise kamen von Adore TV.Laut ihm sollte es 100€ 7nm 6Core geben.
BoMbY
2019-06-10, 12:07:57
AMD Powers Microsoft Project Scarlett (https://community.amd.com/community/gaming/blog/2019/06/09/amd-powers-microsoft-project-scarlett):
This processor builds upon the significant innovation of the AMD Ryzen™ "Zen 2" CPU core and a "Navi" GPU based on next-generation Radeon™ RDNA gaming architecture including hardware-accelerated raytracing.
Daredevil
2019-06-10, 12:14:01
Hat AMD was zu verschenken? :confused:
Die Specs sind 50% Compute Units kleiner als ne Radeon VII mit halb soviel billigerem Speicher.
AMD muss nichts verschenken, um sich gut zu positionieren gegenüber Nvidia.
300€ ist viel Geld für Polaris Käufer, zwischen der Radeon VII und der aktuell größten Navi ist ja auch noch Platz für ne XTX, bis dahin kannibalischen man sich aber besser nicht die RVII weg.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.