Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [32] 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

mironicus
2020-05-27, 09:48:29
Welches Speicherinterface kostet denn mehr Platz? 512 bit GDDR6 oder HBM2?

Brillus
2020-05-27, 09:53:51
Welches Speicherinterface kostet denn mehr Platz? 512 bit GDDR6 oder HBM2?

GDDR6.

Denniss
2020-05-27, 10:24:19
Vor allem braucht es mehr Strom und viel mehr Platz auf dem PCB für die Speicherbausteine, vermutlich beidseitige Bestückung erforderlich und dann wohl auch Probleme mit Signallaufzeiten und EMV/Störstrahlung

Berniyh
2020-05-27, 10:27:35
Den Teil bzgl. des Speicherinterfaces halte ich auch für sehr unwahrscheinlich, aber da stimmen wir hier glaube ich fast alle überein. 512 Bit wird es wohl kaum geben.
Das ist halt einer der Punkte wo man sieht, dass er zwar über manche Dinge schon vernünftig nachdenkt, über andere (hier das Speicherinterface) aber nicht.

Ne, die Wahrscheinlichkeit, dass Big Navi entweder mit 384 Bit GDDR6 kommt oder HBM2 dürfte bei über 90% liegen.
512 Bit wäre eigentlich nur dann denkbar, wenn man dadurch massiv Kosten bei der Maskenherstellung sparen könnte (da evtl. mehr Dinge zwischen den drei Chips übertragbar sind). Das mag ich aber irgendwie nicht so richtig glauben.
Ansonsten ist HBM2 gegenüber 512 Bit einfach die viel bessere Wahl (da noch Strom sparender).

Daredevil
2020-05-27, 10:29:53
Und Asus sollte es sogar hinbekommen, HBM kühlen zu können :D

mironicus
2020-05-27, 10:35:17
384 Bit GDDR6 könnte wohl eher der mittlere Navi23 haben, wenn der 60 CU hat.

Der große Navi hat für 80 CU sehr viel Diefläche, der könnte teildeaktiviert sein. Also kann AMD vielleicht danach noch eine Version mit mehr CU mit dem gleichen Chip nachschieben und haben Spielraum um auf NVidia zu reagieren.

amdfanuwe
2020-05-27, 10:37:31
AMD hat ja auch X3D Stacking angekündigt. Wer weiß, wie weit sie da sind.
Da könnte der ganze Chip mit Bridge Chips und HBM vergossen und praktisch kein Interposer nötig sein. Dazu wesentlich kleinere Kontakte, kleinere PHYs etc.
Wie in diesem Patent von AMD beschrieben: http://www.freepatentsonline.com/10510721.pdf

Wäre auch ein Kandidat für Chipletanbindung bei den Server CPUs.

mironicus
2020-05-27, 10:40:50
Wie teuer ist HBM2 denn im Vergleich zu GDDR6? HBM2 sollte doch gut verfügbar und nicht mehr so teuer sein wir früher.
Kann AMD wohl schon HBM2E-Speicher verwenden?

Daredevil
2020-05-27, 11:47:27
AMD "verschenkt" quasi auch aktuell ihre 7nm Prozessoren obwohl die sicherlich nicht günstig herzustellen sind und die Lücke zu Intel deutlich kleiner gemacht werden könnte.
Der 3700X kostet ja schon fast die hälfte eines 9900k, AMD müsste sowas nicht tun, die haben aber anscheinend stark Bock auf Marktanteile.

Was ähnliches könnte auch in der Highend GPU Sparte geschehen, wenn sie wirklich Druck auf Nvidia machen wollen.
HBM muss nicht zwangsweise teuer (600€+ ) verkauft werden, wurde es bei AMD so oder so noch nie ( Fanservice VII ) und trotz dessen hat es nicht für die Weltherrschaft gereicht.

Badesalz
2020-05-27, 11:54:33
300W >600€ Grakas entscheiden nicht über die "Weltherrschaft". Auch eine 2080Ti entscheidet sowas nicht.

Es ist das kleinere Vieh was wesentlich mehr Mist macht.

Daredevil
2020-05-27, 12:04:14
AMD mangelt es aber nicht an guter Hardware, sondern am Image.
Ansonsten musst du mir nochmal erklären, wieso sich mehr Menschen für eine 2070S entscheiden und nicht für die eigentlich bessere Wahl, die 5700XT. :)

So ein "RTX" "SUPER" oder "Titan" in den Köpfen der Menschen macht verdammt viel, auch wenn es nicht Millionenfach verkauft wird.
Nvidia verkauft nicht Grafikkarten, sie verkaufen ein Gefühl dabei und darauf steht der Käufer.
BMW kaufen viele auch nicht wegen der Hardware, sondern wegen der "Freude am Fahren".

Und solange AMD = Premium bei der GPU Sparte nicht im Kopf ist, verkauft sich das auch eher schleppend.
Bei der CPU Sparte ist das schon der Fall, "Ryzen" und "Threadripper" kennt jeder, letzteres hat aber vermutlich nicht mal 1% der Gamer in der Kiste, aber die wissen, dass das geile scheiße ist.
Aber auch da kämpfen sie mit Intel, weil Intel bietet seit Jahren die "Beste Gaming CPU an" und das klingelt ebenso, selbst bei 14nm.

Und deswegen entscheidet auch eine 2080ti für Nvidia sehr viel, weil es Kompetenz, HighEnd und "Gaming" ausstrahlt. Das schöne auf der Gaming Torte ist die Kirsche. :D
Wenn AMD also Geld in die Hand nimmt und die 2080ti mit Wucht vom Thron stürzt, macht das viel für ihr Image. Wenn sie aber 2080ti Leistung für 700€ anbieten, sind sie halt das Sparbrötchen.

Badesalz
2020-05-27, 12:23:35
Das ist wirklich schwierig da was vernünftig einzuschätzen. Es gelang mit Zen1 Fuß in die Tür zu bekommen und mit Zen2 sie aufzureissen, weil die Blauen ihre 10nm versemmelt haben.

Irgendwas "mit Wucht" wird es auf dem Grakamarkt für AMD daher und imho nicht geben. Diese Tür wird nur nach und nach aufgehen. Das oberste Ziel sollten erstmal ruhigere Gewässer für die Finanzen der GPU-Sparte sein.

Sobald das gehalten werden kann kommen auch immer konkurrenzfähigere Produkte. Ich erwarte soweit also noch keine Paukenschläge mit RDNA2.
Trotzdem ist der Ruf imho jetzt schon ein gutes Stück besser als am Anfang von GCN.

nordic_pegasus
2020-05-27, 12:31:38
Wenn AMD also Geld in die Hand nimmt und die 2080ti mit Wucht vom Thron stürzt, macht das viel für ihr Image. Wenn sie aber 2080ti Leistung für 700€ anbieten, sind sie halt das Sparbrötchen.

Ich gebe Dir Recht, dass der Image-Gewinn durch den Platz an der Sonne in den Benchmark-Charts positiv auf das gesamte Line-Up bis ins Mainstream und Einstiegs-Segment abfärbt. Darum bin ich der Meinung, das AMD mit BigNavi zumindest das Ziel haben sollte, beim Release die schnellste Karte zu sein.

Mir persönlich ist es egal, welcher Hersteller in meiner Karte werkelt. Ich benötige für mein 120Hz@UHD Display die größte Leistung, die ich am Markt kaufen kann. Wenn AMD einen Preisbrecher liefert, wäre mir das Recht. Wenn Nvidia mit der 3080Ti/TitanA schneller ist, geht mein Geld dahin. Fanboy-ismus macht meine Spiele nicht flüssiger.

amdfanuwe
2020-05-27, 12:54:39
Ansonsten musst du mir nochmal erklären, wieso sich mehr Menschen für eine 2070S entscheiden und nicht für die eigentlich bessere Wahl, die 5700XT. :)

Weil die 2070S noch 10% schneller ist und AMD nichts in der 500€ Preisklasse hat außer VEGA VII die da nicht mithalten kann.
Erklär lieber warum sich die 5700XT wesentlich besser als eine 2060S in der gleichen Preisklasse verkauft, wenn AMD so ein Image Problem hat.

Edit:
Big Navi muss nicht die schnellste Karte werden. Ein interessantes Angebot im 500€ Bereich ist wichtig. Die 2080S verkauft sich schon schlechter als die 2070S.
Letztendlich schauen die meisten darauf, was der Geldbeutel her gibt und wer dann das passendere Angebot hat.

BlacKi
2020-05-27, 13:16:49
Wenn AMD also Geld in die Hand nimmt und die 2080ti mit Wucht vom Thron stürzt, macht das viel für ihr Image.
merkst du eigentlich noch was? die 2080ti ist schon fast alteisen. falls nv mit der 3080ti vorherkommt, was ich glaube, dann ist es eine verlorene schlacht, nur die 2080ti zu kassieren.

was ihnen also so oder so übrig bleibt, ist ein besseres perf/$ verhältnis zu erreichen. den thron hätten sie nur, wenn die 3080ti sich verspätet und selbst dann nur kurz. soll jetzt kein bashing sein, aber was für ein image wird da denn transportiert, wenn man 2 jahre braucht um die konkurenz endlich zu schlagen?

amd schafft es gut seine produkte zwischen nv zu platzieren, das wars aber auch schon. was mit dem aufkommen von dlss zunehmend schwieriger wird.

mboeller
2020-05-27, 14:06:53
Das ist wirklich schwierig da was vernünftig einzuschätzen. Es gelang mit Zen1 Fuß in die Tür zu bekommen und mit Zen2 sie aufzureissen, weil die Blauen ihre 10nm versemmelt haben.


naja, Nvidia soll ja auf Samsungs 8nm Prozess setzen. Der ist von der Gate-Pitch und vom Fin-Pitch eher mit dem 10nm Prozess von TSMC vergleichbar, wenn das stimmt was ich gelesen habe. Damit hätte AMD den besseren Prozess zur Verfügung. Mal sehen ob ihnen das hilft.

https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/

https://fuse.wikichip.org/news/2408/tsmc-7nm-hd-and-hp-cells-2nd-gen-7nm-and-the-snapdragon-855-dtco/

Daredevil
2020-05-27, 14:16:45
merkst du eigentlich noch was? die 2080ti ist schon fast alteisen. falls nv mit der 3080ti vorherkommt, was ich glaube, dann ist es eine verlorene schlacht, nur die 2080ti zu kassieren.

Natürlich soll AMD keine Nvidia Leistung für den Nvidia Preis anbieten, wichtig ist gleiche/bessere Leistung mit weniger Kosten. Das Sparbrötchen kann es ja trotzdem bleiben, das ist ja nichts negatives.

Das mit dem Alteisen verstehe ich zwar, aber der Markt selbst sagt aktuell was anderes.
Ein Zen2 als Beispiel kann im Gaming Sektor nicht zu 100% Überzeugen und ist nicht "DIE GAMING CPU", trotzdem ist AMD sehr beliebt.
Warum? Fast gleiche Leistung bei den meisten Spielen für einen erheblich besseren Preis, zudem haben sie aber noch Prestige Schlachtschiffe wie den 3900X ( Den sich unnötiger weise hier welche gekauft haben fürs Gaming ), den noch unnötigeren 3950X als "Speerspitze" im Gaming und Threadripper.

aber was für ein image wird da denn transportiert, wenn man 2 jahre braucht um die konkurenz endlich zu schlagen?
Dafür das jeder über Intels 14++++++++++++++ Fertigung lacht, lacht halt niemand über AMD, die das mit 7nm nicht mal gebacken bekommen zu übertreffen. Wie viel Jahre hängt AMD da jetzt dran?
Zudem schafft AMD es nicht, mit 7nm die 12nm Fertigung von Nvidia zu stürzen, auch das ist ist eher negativ zu betrachten.
Aber es verkauft sich blendend, das ist also nicht das Problem.

Wenn AMD die 2080ti erreicht, ist das ein weiterer Schritt nach oben und das ist ja das, was AMD möchte. "Step by Step"
Vor Navi hatte AMD nur 1080 Leistung, jetzt haben sie mit der 5700XT 1080ti Leistung. Der nächste Schritt wäre die 2080ti und nicht die neue Speerspitze von Nvidia, was auch immer sie leisten könnte.
Aber gegen ein Big-Big-Navi habe ich natürlich auch nichts, wäre schön, wenn AMD auch hier eine effiziente Skalierung mit Cores o.ä hin bekommt, damit sie kein großes Risiko eingehen und trotzdem den Pimmel aufn Tisch schlagen. :D

Die beste Mischung aufm Markt ist "Premium" ansehen zum "Günstigen Preis".
Darauf steht der Kunde, deswegen gibt es ja auch in jedem Discounter zu Weihnachten ja auch eine "Deluxe" Reihe an Lebensmitteln.
Marmelade 0,69€, Zentis Marmelade 1.99€, Deluxe Discounter Marmelade 1,39€.
Das beste aus allen Welten. Günstiger Preis, Maximale Qualität ( Fürs Gefühl :D )
Sowas wäre dann z.B. der "Markus" Bürostuhl bei Ikea bzw. Ikeas Image.

WedgeAntilles
2020-05-27, 15:00:25
AMD mangelt es aber nicht an guter Hardware, sondern am Image.
Ansonsten musst du mir nochmal erklären, wieso sich mehr Menschen für eine 2070S entscheiden und nicht für die eigentlich bessere Wahl, die 5700XT. :)


Spontan 3 Punkte die mir als Laie negativ aufgefallen sind im letzten halben Jahr:
- Treiberprobleme
https://www.youtube.com/watch?v=1uynVO4ZXl0
(die hatten ursprünglich die 5700XT empfohlen, es ist also keine Anti-AMD Seite)
Siehe auch Umfragen (z.B. auf dieser Seite) - da haben nun mal mehr Leute mit AMD ein Problem als mit Nvidia
- Hohe Anforderungen an das Netzteil
Auch hier wieder dieses Forum als Quelle. Häufig wurde gesagt, dass die 5700XT sehr hohe Anforderungen an das Netzteil stellen würde.
Je höher aber die Anforderungen sind, die ein Teil an den Rest stellt, desto größer ist die Gefahr, dass etwas nicht funktioniert.
Wenn das Netzteil bei 99,9% Performen muss und bei Nvidia halt nur bei 97% (fiktive Zahlen), ist die Wkeit, dass mein Netzteil Probleme macht bei Nvidia kleiner.
Bzw. wenn ich noch ein älteres Netzteil habe kann ich das bei Nvidia vielleicht eher behalten. Spart nen hunderter. Und macht die AMD Karte dadurch indirekt 100 Euro teurer.
- Bios-Update - war jetzt bei irgend ner anderen Karte von AMD und ich bekomme die Details nicht mehr zusammen.
Es blieb, dass ich ein Bios-Update machen muss, wenn ich mir die AMD Karte kaufe.

Das sind alles 3 Punkte, die mich als Laien abschrecken.

Und die dafür sorgen, dass die große Mehrheit Nvidia einen gewissen Mehrpreis zugesteht.
Wenn ich mit einer GraKa für 400 Euro von Hersteller A mit höherer Wkeit Probleme habe als bei Hersteller B, bin ich halt bei Hersteller B bereit auch 450 Euro zu bezahlen. Vielleicht auch 500.
Dieser Mehrpreis - vor allem bei einem kompletten neuen PC für 1200 - 1500 Euro - ist vielen die Sicherheit halt wert.

Klar ist aber auch: Der Mehrpreis ist nicht unbegrenzt. Wenn Nvidia 600 verlangt, AMD 400 nehme ich die AMD Karte.
Meine gefühlsmäßige Prognose ist, dass Nvidia 10% Aufpreis ohne große Verluste durch bekommt. Bei 20% werden schon einige auf AMD wechseln. Und über 30% Aufpreis ist kaum durchsetzbar.
Die Verkaufszahlen von Mindfactory deuten zumindest darauf hin, dass dieses Gefühl von mir nicht ganz falsch sein könnte.


Image ist aber das falsche Wort - denn die 3 oben genannten Punkte sind Fakten, die allesamt hier im Forum mehrfach so thematisiert wurden.
Wie gravierend man das einschätzt ist natürlich subjektiv.
Eine Fehlerwahrscheinlichkeit von 10% ist das doppelte von 5% (wieder fiktive Zahlen) - trotzdem haben aber 90% bzw. 95% keine Probleme, also die ganz große Mehrheit.


In meinen Augen ist das von AMD teils einfach inkompetent. Vor allem so Zeug wie Bios-Update. Das muss doch echt nicht sein, oder? Da erzeugt man ja fast mit Gewalt das Gefühl "AMD = Aufwand" (womit man jetzt doch wieder beim Image ist^^)
Darauf haben halt viele keinen Bock.

Da drängt sich bei mir fast der Eindruck auf, dass AMD gar nicht von Idioten wie mir gekauft werden WILL. Sondern sich halt an die "Elite" wendet.
Also im GraKa Bereich.

Finde ich schade, mir wäre es lieber ich "müsste" nicht die 500 Euro GraKa von Nvidia nehmen, wenn es eine technisch ähnliche von AMD für 400 gibt.

So wie im CPU Bereich auch. Intel will 50 Euro mehr für die gleiche Leistung? Nö danke, ich nehme den Ryzen.

Hoffen wir mal, dass AMD nicht nur bei der Hardware aufholt (was sie ja ohne jeden Zweifel mit der 5700/5700XT getan haben) sondern auch noch das drumerhum besser in den Griff bekommen.

Daredevil
2020-05-27, 15:06:53
Du sollst das Sparbrötchen ja auch essen und nicht schauen, wie es gebacken wurde. :D
Mit "bessere Wahl" meinte ich btw. die Preis/Leistung, deine Punkte sind in der Hinsicht natürlich sehr valide, die halt so ein Gschmäckle hinterlassen.

"Kauf dir Vega/VII, aber undervolte auf jeden Fall" ist in dem Fall auch alles andere als convenient.
Aber es ist so ein Bestandteil der AMD GPU Sparte, dass "AutoUV" im Treiber zementiert wurde.
Immer noch besser als per Hand, aber trotzdem irgendwie eine "Berichtigung" des gekauften Produkts.

Dural
2020-05-27, 15:24:14
Das UV Thema bei AMD ist auch so ein Märchen. :rolleyes:

Fakt ist das die AMD Karten seit Jahren durch die Bank oft deutlich mehr brauchen als das NV Gegenstück. Oder aktuell wo die 7nm Produkte nicht mal ganz an die "alten" 12nm Produkte kommen. Die Fertigung ist Hochhaus überlegen, man sieht es aber nicht einmal. Da ist es Natur gegeben dass das Produkt mit UV mehr einsparen kann als das andere effizientere Modell, obwohl da UV auch etwas bringt.

Fakt ist auch das AMD jede GPU so verkaufen muss das sie immer und zu jederzeit über zig 10000 Grafikkarten verteilt stabil laufen muss. Genau so muss es auch NV machen.

Keine Firma würde einfach so für nichts mehr Spannung auf die Chips geben wenn es nicht nötig wäre. Denn umso mehr Verbrauch man hat, umso teurer wird die Grafikkarte in der Herstellung.

Daredevil
2020-05-27, 15:33:22
Google Trends zeigt ja ganz gut, wonach der User sucht und was ihn bewegt.
"Zu" teure 2080ti vs. Mainstream 5700xt ist in etwa gleich.
Undervolting kennt man bei Nvidia im Grunde nicht. ^^ ( Gut, dabei könnten auch CPUs das Ergebnis verfälschen )
https://abload.de/img/unbenanntsuksu.png

Und hier mal mit "RTX", so als Ergebnis vom Marketing und als Beweis für Image.
Hätte ehrlich gesagt nicht gedacht, dass so viele danach suchen. o0
https://abload.de/img/unbenanntgqkj1.png

Ex3cut3r
2020-05-27, 15:34:24
Alles valide Punkte die hier genannt wurden sind. Eine Sache stört mich auch grade wieder, wieso dauert es soo verdammt lange seit der 5700XT den "Big Chip" hinterher zu schieben? Um endlich mal 2080Ti Leistung zu erreichen oder sogar etwas schneller zu sein? Es dauert (mir) einfach zu lange.

Nvidia kommt mit Ampere um die Ecke vermutlich Herbst/Winter, AMD wohl auch mit Big Navi....nur die Frage ist eigentlich schon wieder...wann kommt von AMD dann der Ampere Konkurrent? Wieder in 1-2 Jahren?

Ich verstehe, dass es für AMD schwer ist an zwei Fronten mitzuspielen (CPU, GPU) Aber die GPU Sparte wird schon teilweise etwas vernachlässigt, bzw. haben Sie da schon aufgegeben? Und sich damit abgefunden Nvidias Top Dog immer für ein bis zwei Jahre hinterher zu rennen? So sieht das jedenfalls für mich aus.

Blediator16
2020-05-27, 15:51:38
Dafür das jeder über Intels 14++++++++++++++ Fertigung lacht, lacht halt niemand über AMD, die das mit 7nm nicht mal gebacken bekommen zu übertreffen. Wie viel Jahre hängt AMD da jetzt dran?



Falscher Thread, aber du liegst so falsch oder ist bei CPUs Gaming über allem?

Der_Korken
2020-05-27, 15:54:04
Alles valide Punkte die hier genannt wurden sind. Eine Sache stört mich auch grade wieder, wieso dauert es soo verdammt lange seit der 5700XT den "Big Chip" hinterher zu schieben? Um endlich mal 2080Ti Leistung zu erreichen oder sogar etwas schneller zu sein? Es dauert (mir) einfach zu lange.

Der Big Chip gehört ganz einfach nicht zur 5700XT, sondern ist eine neue Gen. Das wäre ungefähr so, als hättest du nach Release des 2700X gefragt, wann denn endlich der dicke 12-Kerner als 2900X kommt. Gar nicht, der dicke 12-Kerner heißt 3900X und kommt erst 1,5 Jahre später als Zen2. AMD muss das GPU-Geschäft erst wieder langsam von unten aufbauen, so wie nach dem R600-Debakel: Erst mit kleinen Chips (RV670) und dann immer größeren (RV770, RV870), bis man wieder ein echtes Highend-Produkt (Tahiti, Hawaii) bringen kann.

WedgeAntilles
2020-05-27, 17:08:26
Falscher Thread, aber du liegst so falsch oder ist bei CPUs Gaming über allem?
Ich schätze mindestens 90% der User brauchen eine stärkere CPU entweder zum Gaming oder aber sie brauchen überhaupt keine stärkere CPU und kämen mit einem 10 Jahre alten Modell gut hin.

Die Anzahl jener, die Anwendungen tatsächlich nutzt, die viele Kerne oder CPU Leistung brauchen dürfte äußerst überschaubar sein.

(Und wenn jemand einmal im Monat durch mehr Kerne 2 Minuten einspart nicht dazu rechnet - dann ist man vermutlich eher bei über 95%)

Selbst in einem Forum wie die 3DC ist die Leute die mehr CPU Leistung nicht wegen Spielen braucht ja eher überschaubar.
Und dabei ist diese Usergruppe in einem solchen Forum irre überrepräsentiert.
Auf alle Computernutzer generell gerechnet ist das Verhältnis zig mal kleiner.

Daher: Ja.
Im CPU Bereich ist Gaming eigentlich tatsächlich alles.

Complicated
2020-05-27, 17:09:39
Mann darf bei all der Diskussion nicht ausser acht lassen, dass AMD seine 7nm-Wafer für CPUs/APUs benötigt und nicht nur GPUs baut. Das zugewinnen von Marktanteilen bei OEMs gelingt nicht wenn man dann den steigenden Bedarf nicht liefern kann. Das bedeutet Sparsamkeit bei der Fläche für GPU-Produkte bis die EUV-Kapazitäten/Yields auch für große Chips wieder genügend GPUs liefern um überhaupt von einem Performance-Leader für Enthusiasten zu profitieren und steigende Nachfrage auch bei GPUs bedienen zu können. Ich denke daher hat RDNA keinen großen Chip bekommen und RDN2 wird hier mehr Spielraum haben.

Edit: Also all die Leute, welche Videos konvertieren und schneiden sind keine Zielgruppe? Ich halte den Anteil an Anwendungen für um einiges größer alleine anhand der verkauften Videokameras (Mittlerweile nutzen viele auch ihr Handy mit 4K-Videos), Youtube Video-Kanäle die verfügbar sind. Jeder von denen profitiert enorm von schnellen CPUs mit vielen Kernen, wenn er regelmäßig diese Dinge nutzt. Wenn ich alleine in der Tauchercommunity schaue, wie viele Ihre Unterwasseraufnahmen bearbeiten und tausende von Euro in Kamera und Unterwassergehäuse stecken (nur um mal einen Specialcase zu nennen) oder Freizeitsport (Amateur-Vereine nehmen ihre Matches fast schon Standardmäßig auf oder streamen diese)

Berniyh
2020-05-27, 17:38:08
Alles valide Punkte die hier genannt wurden sind. Eine Sache stört mich auch grade wieder, wieso dauert es soo verdammt lange seit der 5700XT den "Big Chip" hinterher zu schieben? Um endlich mal 2080Ti Leistung zu erreichen oder sogar etwas schneller zu sein? Es dauert (mir) einfach zu lange.

Nvidia kommt mit Ampere um die Ecke vermutlich Herbst/Winter, AMD wohl auch mit Big Navi....nur die Frage ist eigentlich schon wieder...wann kommt von AMD dann der Ampere Konkurrent? Wieder in 1-2 Jahren?

Ich verstehe, dass es für AMD schwer ist an zwei Fronten mitzuspielen (CPU, GPU) Aber die GPU Sparte wird schon teilweise etwas vernachlässigt, bzw. haben Sie da schon aufgegeben? Und sich damit abgefunden Nvidias Top Dog immer für ein bis zwei Jahre hinterher zu rennen? So sieht das jedenfalls für mich aus.
Aufgegeben evtl. nicht, aber große GPUs sind halt einfach teure Projekte (Entwicklung, Chipherstellung, Yield), wenn man das macht muss es sitzen, sonst hat man schnell ein Millionengrab geschaffen.
Daher ist es schon verständlich, dass man damit erst in der zweiten Iteration einer neuen Architektur startet.
Dazu kommt noch, dass zwar bei großen Chips die Marge hoch ist, aber es werden generell wenig davon verkauft, der meiste Umsatz wird eher mit den Chips im Midrange oder lower Midrange gemacht, daher macht es schon Sinn hier zu starten und erst weiter nach oben zu gehen wenn alles gefestigt ist.

WedgeAntilles
2020-05-27, 17:40:57
Edit: Also all die Leute, welche Videos konvertieren und schneiden sind keine Zielgruppe? Ich halte den Anteil an Anwendungen für um einiges größer alleine anhand der verkauften Videokameras (Mittlerweile nutzen viele auch ihr Handy mit 4K-Videos), Youtube Video-Kanäle die verfügbar sind. Jeder von denen profitiert enorm von schnellen CPUs mit vielen Kernen, wenn er regelmäßig diese Dinge nutzt. Wenn ich alleine in der Tauchercommunity schaue, wie viele Ihre Unterwasseraufnahmen bearbeiten und tausende von Euro in Kamera und Unterwassergehäuse stecken (nur um mal einen Specialcase zu nennen) oder Freizeitsport (Amateur-Vereine nehmen ihre Matches fast schon Standardmäßig auf oder streamen diese)

Wieviele Computer gibt es in Deutschland?
Alleine in Haushalten ca. 40 Millionen.
Dann noch Büro PCs und so weiter.

Könnten also ca. 100 Millionen sein, vielleicht auch nur 80 Millionen.

Was schätzt du, auf wieviele Prozent davon ein Youtube Kanal bearbeitet wird, getaucht wird, 4K Videos regelmäßig geschnitten und bearbeitet werden?
Oder kurz, aufwändige Programme laufen, die von vielen Kernen signifikant profitieren?
Glaubst du ernsthaft, das sind erheblich mehr als 10 Millionen Computer??
NUR IN DEUTSCHLAND?

Berniyh
2020-05-27, 18:18:29
Abgesehen davon: Blackmagic Design (einer der bekanntesten Anbieter für Schnittprogramme und -hardware) verkauft ja eine Thunderbird eGPU und die hat ne Vega integriert.
Also selbst da ist AMD ein Stück weit vertreten. ;)

Mangel76
2020-05-27, 20:03:14
Daher: Ja.
Im CPU Bereich ist Gaming eigentlich tatsächlich alles.

Das heißt im Umkehrschluss aber nicht, dass jeder ne teure Intel-CPU braucht, weil die die schnellste Gaming-CPU bauen. Ich hätte von einer neuen GPU wesentlich mehr als von ner neuen CPU in 1440p.

Complicated
2020-05-27, 20:05:31
Oder kurz, aufwändige Programme laufen, die von vielen Kernen signifikant profitieren?
Glaubst du ernsthaft, das sind erheblich mehr als 10 Millionen Computer??
NUR IN DEUTSCHLAND?
Da es alleine 11 Mio. Videokamera/Camcorder Besitzer 2019 in Deutschland gab, würde ich das einiges höher einschätzen als 10 Mio. PCs die signifikant profitieren. Jeder von denen profitiert von mehr Kernen wenn er sich die Videos auf die Festplatte überspielt und aufbereitet/schneidet.

Jetzt rechnen wir noch dazu CPUs die über 16-Kerne haben, wie HEDT TR4(X), denn das sind keine Gamingmaschinen, sondern 99% Anwendungsmonster. Bei Mindfactory waren das ca. 3% der verkauften AMD-CPUs.

Ja also ich denke, dass du weit daneben liegst mit deiner Einschätzung wenn ich alleine Software von Autodesk, Adobe, CyberLink, Corel, Apple, Avid, TechSmith, Magix, ArcSoft, Wondershare in Betracht ziehe, die sich fast einen Milliardenmarkt teilen - da ist Handbreak und andere noch gar nicht als kostenlose Software berücksichtigt. Und da ist ja noch nicht mal Ende. Von Dopplenutzung Spielen auf seinem Desktop den man primär für Arbeit nutzt mal ganz abgesehen.
Das halte ich für sehr übertrieben, da eine 10 Jahre alte CPU auch für Office schon nicht mehr taugt.

Ich schätze mindestens 90% der User brauchen eine stärkere CPU entweder zum Gaming oder aber sie brauchen überhaupt keine stärkere CPU und kämen mit einem 10 Jahre alten Modell gut hin.

Birdman
2020-05-27, 21:08:34
Das halte ich für sehr übertrieben, da eine 10 Jahre alte CPU auch für Office schon nicht mehr taugt.
:freak: Du hast leider keinen Plan....aber allenfalls gilt deine Aussage ja für AMD Prozessoren?

Badesalz
2020-05-27, 21:52:19
Edit: Also all die Leute, welche Videos konvertieren und schneiden sind keine Zielgruppe?Hat sich denn da soviel getan in der letzten Zeit? Ich meine, tauchen diese Leute mittlerweile schon im Promillenbereich auf oder sind sie doch uind wie immer noch 2 weitere Stellen hinter dem Koma platziert?

Ich halte den Anteil an Anwendungen für um einiges größerDas kann gut sein. Das muss aber leider nicht unbedingt etwas mit der Realität zu tun haben.

(Amateur-Vereine nehmen ihre Matches fast schon Standardmäßig auf oder streamen diese)Da ist was dran. Grad im Amateursport ist ein Threadreapper ein Dauerthema...

Videos schneiden und konvertieren, ist seit ~15 Jahren die Mutter aller Killerargumente bezüglich breiterer Mehrkerner. Das hilft glaub ich nicht mehr sie nun das 16te Jahr, so wie ausgetrocknet die Leiche bereits ist, mal wieder offen auf der Bare durchs Dorf zu tragen.

Monsta
2020-05-27, 22:10:31
Natürlich gitbt es viele Leute die sich Leistungsfähige Hardware kaufen die keine Videospiele spielen.

Musiker, Grafiker, Video editing, Programmierer, Technik begeisterte, Gentoo nutzer usw. Die Welt dreht sich nicht nur um Videospiele.

Complicated
2020-05-27, 22:23:02
Was machen die denn mit den Aufnahmen...
Da es alleine 11 Mio. Videokamera/Camcorder Besitzer 2019 in Deutschland gab,
Jeder der Software kompiliert kommt dazu. Neuestes prominentes Beispiel Linus ;)
Wieviel dieser PCs werden wohl dafür eingesetzt wenn 80% Unternehmensrechner sind. Was denn für ein Killerargument? Es gibt nun mal einfach deutlich mehr Anwendungen die mit 10 Jahre alter Hardware nicht mehr performant laufen - das war die Aussage der ich widerspreche.

Wer will denn ernsthaft behaupten 10 Jahre alte Hardware sei ausreichend für "Ich schätze mindestens 90% der User.." - ist doch Humbug.

Badesalz
2020-05-27, 22:23:11
@Monsta
Ja das ist schon irre wieviel ein cpu-flag innerhalb des x86 Biotops beim C-compiler manchmal bringt... :ulol:

@Complicated
Die sind froh, wenn sie das endlich nicht anfassen müssen. Also sowas, wie eine D750 haben und in Jpeg knipsen... Schneiden läuft in etwa, wenn denn wirklich überhaupt mal, wie mit MP3cut. Und selbst da wird schon gestöhnt.

Wer will denn ernsthaft behaupten 10 Jahre alte Hardware sei ausreichend für "Ich schätze mindestens 90% der User.." - ist doch Humbug.Ich. Ein 4.6 2500k oder gar ein ~4.47 3770k, wenn man den Speicher vernünftig einstellt und auch nah 2000 kommt, laufen von SSDs flankiert, auch heute noch wie irre mit der allermeisten Soft die man sich so saugen kann oder die man grad noch bereit ist fürs Daheim zu bezahlen.

Selbstverständlich bis auf Videomaterial schneiden und konvertieren :uup:

Ok zwar doch nicht so flink wie die sinnhaftesten HomePC CPUs der letzten Jahre, der 3100 und vor allem der 3300X, aber immerhin und weiterhin meist mehr als schnell genug.

EDIT:
Das ist hier ein GPU-Thread, richtig?

Complicated
2020-05-27, 22:59:49
Von platten Sprüchen wird das nicht realer was in deinem Kopf fest sitzt. Aber zurück zu GPUs anstatt unsinnige Behauptungen ohne Fakten zu diskutieren.

Badesalz
2020-05-27, 23:18:43
Ja mein ich doch. Bleib bei deinem Leisten. Weiter im Programm:

Wisst ihr was mich bei diesem Zeug SO WIRKLICH nervt? 80 CUs, 40CUs, 36 CUs... Teraflops an 32bit genauer FP Rechenleistung, Hunderte Gflops an feinster FP64 Rechenleistung (Mindestens)...
... und der Mist taugt daheim quasi nur zum Zocken. Um zig über zig bunte 3D Bildchen pro Sekunde zu berechnen.

Sonst will das oder kann (ggf. eben im Rahmen seiner Möglichkeiten) keiner so wirklich nutzen. Ausser den Minern, quantitativ gesehen.

Früher hat mich das noch genervt. Heute kotzt mich das fast schon an.

Bis moin.

gedi
2020-05-27, 23:20:35
Och AMD - bitte kein Vbios-Update! Lasst das Ding rennen wie es kann - alles andere verfälscht Aussagen und hat salzigen Beigeschmack. Es sollte klar sein, dass RDNA2 unter RT nicht ganz die Performance @ 308ßTi erreichen wird. Mit dem tollen Upscaler schon 2x nicht - in 3DC und PCGH spielen die NV-
Fanboys doch lieber in gewähler Resolution/2. Wobei die Lotte bei PCGH erst mit ner Intel CPU zu tauglichen FPS in der Lage ist. Peinlich anzusehen :P

LasterCluster
2020-05-28, 15:39:45
Bernstein 36th Annual Strategic Decisions Conference. Lisa Su: Big Navi is a halo product. Und keine Überraschung: Navi2x hat die gleiche RT- Implementierung wie die Konsolen

Berniyh
2020-05-29, 07:57:48
Bernstein 36th Annual Strategic Decisions Conference. Lisa Su: Big Navi is a halo product. Und keine Überraschung: Navi2x hat die gleiche RT- Implementierung wie die Konsolen
Ich bin ja eigentlich dafür, dass man solche Aussagen nicht überinterpretiert, aber wenn Lisa Su sagt, dass Big Navi ein "halo product" ist, dann kann ich mir ehrlich gesagt nicht so recht vorstellen, dass der mit 384 Bit Speicherinterface kommt, also einem Speicherinterface dass die Performance ggf. limitiert (oder sehr nahe dran ist).

Aber wie gesagt, sollte es nicht überinterpretieren. ;)

mironicus
2020-05-29, 08:49:02
Lisa Su kennt all unsere Sehnsüchte und wird sie erfüllen. Der Preis ist gering. Du musst nur ihre Füße küssen und ewige Gefolgschaft schwören. :D

dargo
2020-05-29, 09:02:03
Sofern AMD bei Big Navi in etwa die doppelte Performance von Navi 10 anpeilt sollte ein 384Bit SI mit 16Gbps GDDR6 reichen. Das ergibt 768GB/s Bandbreite. Eine 2080TI hat "nur" 37,5% mehr Bandbreite als die 2060S und ist trotzdem 60% schneller.

Berniyh
2020-05-29, 09:27:11
Sofern AMD bei Big Navi in etwa die doppelte Performance von Navi 10 anpeilt sollte ein 384Bit SI mit 16Gbps GDDR6 reichen. Das ergibt 768GB/s Bandbreite. Eine 2080TI hat "nur" 37,5% mehr Bandbreite als die 2060S und ist trotzdem 60% schneller.
Nvidia hat halt auch eine wesentlich bessere Bandbreiteneffizienz.
(da müsste AMD dann zumindest aufholen)

Badesalz
2020-05-29, 09:30:22
Nvidia hat halt auch eine wesentlich bessere Bandbreiteneffizienz.Ist die nicht innerhalb einer Chipfamilie gleich? ;)

HOT
2020-05-29, 09:56:08
Also Navi und Turing tun sich da jedenfalls nicht sonderlich viel, was das angeht. Nur beim Verbrauch des Controllers wird NV immernoch dick vorn sein, das wird sich bei AMD jedoch nicht ändern. Deshalb denke ich, dass AMD keinen state-of-the-Art-GDDR6 verwendet, haben die echt selten gemacht - langsame GDDR5 bei Tahiti und Hawaii, kein GDDR5X bei Polaris (nicht mal Support dafür). Die gehen sehr sicher wieder auf HBM mit dem großen Design vor allem aufgrund des Verbrauchs und die kleineren werden nach wie vor 14GT/s GDDR6 bekommen und fertig.

dargo
2020-05-29, 10:29:50
Nvidia hat halt auch eine wesentlich bessere Bandbreiteneffizienz.
(da müsste AMD dann zumindest aufholen)
Hat Navi auch und bei RDNA 2 wird diese kaum schlechter ausfallen als beim Vorgänger. :rolleyes:

Also Navi und Turing tun sich da jedenfalls nicht sonderlich viel, was das angeht. Nur beim Verbrauch des Controllers wird NV immernoch dick vorn sein, das wird sich bei AMD jedoch nicht ändern. Deshalb denke ich, dass AMD keinen state-of-the-Art-GDDR6 verwendet, haben die echt selten gemacht - langsame GDDR5 bei Tahiti und Hawaii, kein GDDR5X bei Polaris (nicht mal Support dafür).
Quark... Grenada hatte wieder schnelleren GDDR5. Wenn der Speichercontroller keine höhen Frequenzen verträgt nimmt man halt einen langsameren oder untertaktet diesen. GDDR5X war exklusiv für Nvidia.

Badesalz
2020-05-29, 10:30:02
Wie sind die Preise von HBM mittlerweile? GDDR5X, was eigentlich auch viel besser und gar einfacher, GQDR5 hätte heißen müssen, war 2016 billiger als HBM2 und und hing in der Leistung in etwa nur wie 9 zu 10 hinterher.

JVC
2020-05-29, 10:31:38
Die gehen sehr sicher wieder auf HBM mit dem großen Design ...

Das traue ich mich auch fast wetten ;)
(16Gb GDDR6... halte ich für unwahrscheinlich.
weniger als 16Gb beim Topp-Dog kann ich mir auch nicht vorstellen.)

M.f.G. JVC

robbitop
2020-05-29, 11:54:02
Aus Neugier: gib/gab es Skalierungstests, die mal die Skalierung der Bandbreite bei Navi 10 und TU106 untersucht haben?
Ich frage weil bereits Pascal mit deutlich weniger Bandbreite pro TFLOP klar kam und Turing sicherlich eher besser geworden ist und die zusätzliche Bandbreite pro TFLOP für Raytracing (was ja bandbreitenhungrig ist) dazu kam.
Entsprechend vermute ich bei reinen Rasterizing basierten Spielen, dass Turing da etwas Reserven hat.

Außerdem gab es doch so eine B3D Test Suite, welche die Kompression bei verschiedenen Patterns getestet hat (wo Vega relativ schlecht da stand und Maxwell und Pascal extrem gut da stand). Wurde das mal mit Turing und Navi getestet?

BlacKi
2020-05-29, 12:17:19
Sofern AMD bei Big Navi in etwa die doppelte Performance von Navi 10 anpeilt sollte ein 384Bit SI mit 16Gbps GDDR6 reichen. Das ergibt 768GB/s Bandbreite. Eine 2080TI hat "nur" 37,5% mehr Bandbreite als die 2060S und ist trotzdem 60% schneller.
Edit: OK, 3dc index sagt 57%.

niemand sagt, das man mit mehr rechenpower nicht auch mehr leistung raus bekommt. aber die leistung skaliert dann eben nichtmehr gleichmäßig. das ist auch der grund warum man nicht einfach n10 mal 2 in der performance nehmen kann wenn, man die leistung bestimmen will.

eine 2080ti hat 87% mehr Tflops um auf lächerliche 57% gaming performance zu kommen. du nutzt hier gerade eine speicherlimitierte karte, um zu argumentieren, das die speicherlimitierung kein problem ist.

dildo4u
2020-05-29, 12:26:21
Ich glaube nicht das RDNA 2 sonderlich viel Effektiver ist als 1,ansonsten würde MS nicht extra schnellen GDDR6 für die GPU verbauen.
Alle unter 1TB ist imo so wenig wenn Sony für 36 CU mit 450 GB/Sec verbaut, entweder ist Big Navi nicht so Big oder die Karte ist Hart Bandbreiten limitiert.
Vielleicht ist beim 505mm Die auch Einiges nicht aktiv man sieht ja wie viel Nvidia bei Ampere abschalten muss um ordentliche Yields zu erzeugen.

][immy
2020-05-29, 13:09:27
Edit: OK, 3dc index sagt 57%.

niemand sagt, das man mit mehr rechenpower nicht auch mehr leistung raus bekommt. aber die leistung skaliert dann eben nichtmehr gleichmäßig. das ist auch der grund warum man nicht einfach n10 mal 2 in der performance nehmen kann wenn, man die leistung bestimmen will.

eine 2080ti hat 87% mehr Tflops um auf lächerliche 57% gaming performance zu kommen. du nutzt hier gerade eine speicherlimitierte karte, um zu argumentieren, das die speicherlimitierung kein problem ist.
Sie hat aber eben nicht 87% mehr Speicher oder Speicherbandbreite. Die Karte ist nicht gleichmäßig "skalierend" aufgebaut. Es gibt sicherlich auch Aufgaben wo sie annähernd 87% schneller ist, aber irgendwas limitiert halt immer wenn nicht alles "mitgezogen" wird.

Ich glaube nicht das RDNA 2 sonderlich viel Effektiver ist als 1,ansonsten würde MS nicht extra schnellen GDDR6 für die GPU verbauen.
Alle unter 1TB ist imo so wenig wenn Sony für 36 CU mit 450 GB/Sec verbaut, entweder ist Big Navi nicht so Big oder die Karte ist Hart Bandbreiten limitiert.
Vielleicht ist beim 505mm Die auch Einiges nicht aktiv man sieht ja wie viel Nvidia bei Ampere abschalten muss um ordentliche Yields zu erzeugen.
AMD hat ja auch angekündigt wieder 2-Gleisig zu fahren. D.h. ein Chip für den Professionellen Bereich und RDNA2 für die Persönlichen (also Spiele). Da ist inzwischen so viel mit an Bord der Chips gewesen, das sich das zu lohnen scheint es wieder zu trennen. Vor einigen Jahren hat man das ja anders gesehen. Da ging die Entwicklung aber auch wesentlich flotter voran, wo es jährlich wahnsinnige Fortschritte sowohl in der Technik als auch in der Wartung gab. Da dies nun alles deutlich gemächlicher vonstatten geht lohnt es sich auch hier wieder langfristiger zu planen.
Also würde ich hier auch nicht mehr große Sprünge in der Effizienz erhoffen. Die PS5 scheint ja eher darauf hinzudeuten, das man hier eher in die Taktfreudigkeit investiert hat was der Effizienz meist zuwider ist.

dargo
2020-05-29, 13:20:46
eine 2080ti hat 87% mehr Tflops um auf lächerliche 57% gaming performance zu kommen. du nutzt hier gerade eine speicherlimitierte karte, um zu argumentieren, das die speicherlimitierung kein problem ist.
Als ob die 2080 TI bandbreitenlimitiert wäre. :rolleyes:

4rYIpEEabDk

RTX Titan = 17,42 TFLOPs und 672GB/s Bandbreite
2080TI = 16,62 TFLOPs und 616GB/s Bandbreite

Am stärksten profitiert hier Metro Exodus mit 7,4%, was auch RTX On zu verdanken sein dürfte wo Bandbreite eine etwas stärkere Rolle spielt. Dennoch sehe ich nirgendwo, dass die 2080 TI ein Bandbreitenproblem hätte. Die gebotene Bandbreite ist völlig ausgewogen. Ok.. Witcher 3 profitiert mit 9,2% noch etwas mehr. Ändert nichts an der Grundaussage. Es gibt nicht nur die TFLOPs und Bandbreite. Bei einem GPU-Design muss alles mitskalieren wie Caches etc. um das Maximum rauszuholen.

Daredevil
2020-05-29, 13:38:38
Hier ist nen Bandbreitenvergleich zwischen Gaming X und Z Trio.
https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/MSI-Gaming-Z-Trio-Benchmarks-Review-1348817/2/#a3

Sind so 0-4%, wobei man dabei noch anmerken muss, dass die Z mit weniger Takt läuft, weil der Speicher halt mehr Saft will. Sinds vielleicht 5% in der Spitze bei nem Spiel.
Ist etwas, aber sicherlich nicht die Welt.

BlacKi
2020-05-29, 13:43:52
[immy;12322898']Sie hat aber eben nicht 87% mehr Speicher oder Speicherbandbreite. Die Karte ist nicht gleichmäßig "skalierend" aufgebaut. Es gibt sicherlich auch Aufgaben wo sie annähernd 87% schneller ist, aber irgendwas limitiert halt immer wenn nicht alles "mitgezogen" wird.


du hast nicht verstanden worauf ich hinauswollte.
2080ti
87% mehr TF und 37% mehr bandwith ergeben 57% mehr performance.

big navi
100% mehr TF und 65% mehr bandwith ergeben ca 85% mehr performance

ergo ca. 26% über einer 2080ti.

jetzt sagt ihr, aber du vergisst die secret sauce. ja, aber ich glaub auch kaum, das navi die game clock so hoch halten können wird wie bei n10, denn das muss zu den max 300w passen.

dargo
2020-05-29, 13:53:23
big navi
100% mehr TF und 65% mehr bandwith ergeben ca 85% mehr performance

ergo ca. 26% über einer 2080ti.

Dieser Vergleich ist doch schon komplett sinnlos da RDNA 2 nicht RDNA 1 ist.

mironicus
2020-05-29, 14:06:19
Ein Vorteil von AMD ist das RNDA besser skaliert. 40 CU vs 80 CU inkl. IPC-Steigerung sollte mindestens 100% ermöglichen. Dazu noch Bandbreitenerhöhung und eventuell ein höherer Takt und schon liegt Big Navi in Reichweite einer 3080 Ti. :D :D

reaperrr
2020-05-29, 14:09:33
Sofern AMD bei Big Navi in etwa die doppelte Performance von Navi 10 anpeilt sollte ein 384Bit SI mit 16Gbps GDDR6 reichen. Das ergibt 768GB/s Bandbreite. Eine 2080TI hat "nur" 37,5% mehr Bandbreite als die 2060S und ist trotzdem 60% schneller.
Man sollte auch erwähnen, dass

- ein Teil des starken Flächenanstiegs auf einen verdoppelten, oder gar mehr als verdoppelten L2 je ROP/SI (also bei 384bit mind. Verdreifachung ggü. N10) zurückzuführen sein könnte
- es Nvidia bisher auch geschafft hat, die DCC jede Generation weiter zu verbessern

Wenn sie durch solche Maßnahmen die benötigte Bandbreite je FLOP um ~10-15% reduzieren könnten, würde das bereits fast für eine effektive Verdoppelung reichen.

Der_Korken
2020-05-29, 14:12:19
Die 2080Ti ist bei der Rechenleistung schon so ziemlich eine doppelte 2060S: 6GPCs vs 3GPCs, 4352 vs 2176 Shader. Der Grund warum die 2080Ti trotzdem nicht knapp doppelt so schnell ist, könnte (neben der Bandbreite) vielleicht einfach die allgemeine Skalierung sein. Irgendwas ist in der GPU eben nicht doppelt vorhanden oder die Architektur skaliert nicht so gut mit so vielen Shadern. Nvidia war in der Disziplin zwar deutlich besser als AMD mit GCN, aber am Ende kochen die auch nur mit Wasser. Solche Dinge machen es extrem schwer die Leistung neuer Architekturen einzuschätzen. Bei Navi weiß auch noch keiner, wie gut es mit mehr Shadern skaliert.

BlacKi
2020-05-29, 14:21:17
Irgendwas ist in der GPU eben nicht doppelt vorhanden oder die Architektur skaliert nicht so gut mit so vielen Shadern.
und boostclock ist eben niedriger und das scaling ist eben nicht bei 100%. das wird auch bei navi nicht bei 100% liegen. adored meinte dass das scaling etwa bei 85% liegt, 5700xt vs 5500xt.

Dieser Vergleich ist doch schon komplett sinnlos da RDNA 2 nicht RDNA 1 ist.
tolles totschlagargument XD

Der_Korken
2020-05-29, 14:22:00
adored meinte dass das scaling etwa bei 85% liegt.

Bei RDNA2 oder bei Turing?

BlacKi
2020-05-29, 14:24:10
Bei RDNA2 oder bei Turing?
weder noch, ich habs editiert.

dildo4u
2020-05-29, 14:25:43
Die 2080Ti ist bei der Rechenleistung schon so ziemlich eine doppelte 2060S: 6GPCs vs 3GPCs, 4352 vs 2176 Shader. Der Grund warum die 2080Ti trotzdem nicht knapp doppelt so schnell ist, könnte (neben der Bandbreite) vielleicht einfach die allgemeine Skalierung sein. Irgendwas ist in der GPU eben nicht doppelt vorhanden oder die Architektur skaliert nicht so gut mit so vielen Shadern. Nvidia war in der Disziplin zwar deutlich besser als AMD mit GCN, aber am Ende kochen die auch nur mit Wasser. Solche Dinge machen es extrem schwer die Leistung neuer Architekturen einzuschätzen. Bei Navi weiß auch noch keiner, wie gut es mit mehr Shadern skaliert.
Da sind noch zu viele Dx11 Games im mix,Red Dead 2 skaliert z.b massiv besser als andere Open World Games.
Vulkan scheint sogar noch mal deutlich besser als DX12.
Das muss man nicht alles der GPU anhängen.

Daredevil
2020-05-29, 15:11:16
Irgendwas ist in der GPU eben nicht doppelt vorhanden
Das Power Limit ist niedriger und die Temperatur höher.
Beides hat Einfluss auf den Takt, also die Leistung. :)


eine 2080ti hat 87% mehr Tflops um auf lächerliche 57% gaming performance zu kommen.
Eine 2080ti verbraucht 42% mehr, leistet dafür aber 57% mehr.
Das ist ein typisches Verhalten davon, das man deutlich mehr Einheiten in eine GPU steckt, sie dafür aber niedriger taktet.
Erstmal sprengt man damit dann nicht das Power Limit und zweitens kann man sie halt noch gescheit kühlen.

AMD kann das ganze ja auch nicht neu erfinden.
Wenn sie 225w mit 40CUs haben bei 1755-1905MHz, muss bei einer 80CU GPU mit RDNA1 der Takt sinken ( Man schafft nicht doppelte Leistung ) , oder es werden deutlich mehr als 80CU mit niedrigem Takt. ( Der Chip wird fett, aber Effizienter und halt doppelt so schnell )

Da hier aber noch Secret Sauce RDNA2 reinspielt, muss man mal schauen, ob das ganze nun stark Effizient wird, oder man mehr Platz hat, um massiv Einheiten da reinzuballern. Oder am besten beides. :D

Daredevil
2020-05-29, 15:19:38
del

mironicus
2020-05-29, 15:25:18
Die Raytracing-optimierten Spiele für NVidia werden auf RDNA2 dann aber nicht gleich laufen, oder?

BlacKi
2020-05-29, 15:37:09
Eine 2080ti verbraucht 42% mehr, leistet dafür aber 57% mehr.
Das ist ein typisches Verhalten davon, das man deutlich mehr Einheiten in eine GPU steckt, sie dafür aber niedriger taktet.
Erstmal sprengt man damit dann nicht das Power Limit und zweitens kann man sie halt noch gescheit kühlen.

AMD kann das ganze ja auch nicht neu erfinden.
Wenn sie 225w mit 40CUs haben bei 1755-1905MHz, muss bei einer 80CU GPU mit RDNA1 der Takt sinken ( Man schafft nicht doppelte Leistung ) , oder es werden deutlich mehr als 80CU mit niedrigem Takt. ( Der Chip wird fett, aber Effizienter und halt doppelt so schnell )

Da hier aber noch Secret Sauce RDNA2 reinspielt, muss man mal schauen, ob das ganze nun stark Effizient wird, oder man mehr Platz hat, um massiv Einheiten da reinzuballern. Oder am besten beides. :D

genau so sehe ich das ebenfalls. ein netter nebeneffekt wäre das reichlich OC potential übrig bleibt, wenn man keine angst vor den 450w hat.

dildo4u
2020-05-29, 15:47:03
Die Raytracing-optimierten Spiele für NVidia werden auf RDNA2 dann aber nicht gleich laufen, oder?
Klar läuft es DXR ist ein Standard, nur die idtech Games sind fragwürdig da sie Vulkan Extensions nutzen.

BlacKi
2020-05-29, 17:01:24
Klar läuft es DXR ist ein Standard, nur die idtech Games sind fragwürdig da sie Vulkan Extensions nutzen.
was aber nicht ausschließt das es performance unterschiede geben wird und man nv irgendwelche vorwürfe machen wird.

Daredevil
2020-05-29, 17:16:07
Die Raytracing-optimierten Spiele für NVidia werden auf RDNA2 dann aber nicht gleich laufen, oder?
Keine Glaskugel und auch kein Hate, aber die Tendenz liegt bei AMD sicherlich nicht bei "Day1, everything works just fine". ^^
Wobei gut...... wird ja auch auf den Konsolen hin stark optimiert sein, vielleicht haben wir ja Glück. :)

Blediator16
2020-05-29, 17:25:57
Keine Glaskugel und auch kein Hate, aber die Tendenz liegt bei AMD sicherlich nicht bei "Day1, everything works just fine". ^^
Wobei gut...... wird ja auch auf den Konsolen hin stark optimiert sein, vielleicht haben wir ja Glück. :)

DLSS 1.0 lässt grüßen. Lief ja wie am Schnürchen ;D

dargo
2020-05-29, 18:30:58
tolles totschlagargument XD
Ich weiß gerade nicht was dein Problem ist, aber in der Regel ist eine neuere GPU-Generation pro Flop schneller als der Vorgänger. Zumindest sollte dies das Ziel sein.

dildo4u
2020-05-29, 18:42:42
was aber nicht ausschließt das es performance unterschiede geben wird und man nv irgendwelche vorwürfe machen wird.
Ich glaube nicht das es schlechter als mit Turing läuft das wird die Basis sein, ich vermute aber das Ampere massiv drauf legt, vergleichbar mit dem was sie mit den Tensor Cores beim Server Chip gemacht haben.

BlacKi
2020-05-29, 20:37:04
Ich weiß gerade nicht was dein Problem ist, aber in der Regel ist eine neuere GPU-Generation pro Flop schneller als der Vorgänger. Zumindest sollte dies das Ziel sein.
ich hab das gemeint, was damit in verbindung steht. nämlich wieviel, und wie soll man das bewerten?

wir haben keine infos darüber. 50% werden es nicht sein. 5%? 0,5%?

da ist dann die diskussion eben gleich tot.

Ich glaube nicht das es schlechter als mit Turing läuft das wird die Basis sein, ich vermute aber das Ampere massiv drauf legt, vergleichbar mit dem was sie mit den Tensor Cores beim Server Chip gemacht haben.
mag sein.

dargo
2020-05-29, 20:42:36
ich hab das gemeint, was damit in verbindung steht. nämlich wieviel, und wie soll man das bewerten?

Wer soll das denn wissen? :crazy: Da muss man einfach abwarten, mehr kann man eh nicht tun.

BlacKi
2020-05-29, 20:44:12
deshalb nannte ich es totschlagargument.

DK999
2020-05-29, 22:15:01
das navi die game clock so hoch halten können wird wie bei n10, denn das muss zu den max 300w passen.
Wieso nicht, die neue XBox hat mit 1,825GHz als SoC schon eine recht hohe Leistung und darf die aufgrund der Wärme und der Energie nicht mal höher schrauben. Die PS5 boostet sogar auf fast 2,2GHz und auch die schluckt weitaus weniger als eine HighEnd Grafikkarte. Dabei sind die Taktraten wahrscheinlich auch eher konservativ um den Ausschuss so gering wie möglich zu halten.
Kann mir durchaus vorstellen, dass sich auch was am Takt getan hat und eine verbesserte 7nm Produktion kommt doch sicher auch zum Einsatz?

Daredevil
2020-05-29, 22:24:02
Wenn da so ein Renoir ähnliches Ding drin ist und "Gameshift" hier auch irgendwie benutzt wird, geht der Strom eh zum Großteil in die GPU. CPU Takt braucht man doch kaum für 60fps, höchstens für 120fps muss das Ding aufdrehen.
( Selbst mein uralt Intel X5650 hat bei 3Ghz noch 60fps bei FF XV geschafft )

BlacKi
2020-05-29, 22:59:09
Wieso nicht, die neue XBox hat mit 1,825GHz als SoC schon eine recht hohe Leistung und darf die aufgrund der Wärme und der Energie nicht mal höher schrauben. Die PS5 boostet sogar auf fast 2,2GHz und auch die schluckt weitaus weniger als eine HighEnd Grafikkarte. Dabei sind die Taktraten wahrscheinlich auch eher konservativ um den Ausschuss so gering wie möglich zu halten.
Kann mir durchaus vorstellen, dass sich auch was am Takt getan hat und eine verbesserte 7nm Produktion kommt doch sicher auch zum Einsatz?

die haben nen deutlich kleineren chip mit einem 256bit SI. und trotzdem liegt der verbrauch deutlich über einer ps4 pro.

die ps5 hat 36cu, das ist nochmals kleiner als n10 und braucht alleine schon irgendwas um die 140w, wenn man den vram mit rein nimmt.

horn 12
2020-06-01, 17:12:43
RDNA 2
im Smartphone im 5nm TSMC Verfahren!

Denke da kommt Gewaltiges auf uns zu die Nächsten Monate!


https://www.techpowerup.com/267935/amd-ryzen-c7-smartphone-soc-specifications-listed

tEd
2020-06-01, 20:39:48
Da scheint ein neuer chip name im Treiber aufgetaucht zu sein. Sienna_cichlid:

@@ -7154,6 +7154,7 @@ static int gfx_v10_0_set_clockgating_state(void *handle,
case CHIP_NAVI10:
case CHIP_NAVI14:
case CHIP_NAVI12:
+ case CHIP_SIENNA_CICHLID:
gfx_v10_0_update_gfx_clock_gating(adev,
state == AMD_CG_STATE_GATE);
break;

iuno
2020-06-01, 20:56:49
Hat offenbar eine neue Displayengine (DCN3) und damit vielleicht HDMI 2.1.

robbitop
2020-06-01, 21:45:41
Es wird auch langsam mal Zeit. :D

JVC
2020-06-02, 12:38:21
https://www.youtube.com/watch?v=6LPnsp1ZGjg
"wird AMDs Big Navi jetzt fischig? Neue Informationen und Name aufgetaucht"

Noch am schauen... Edit: Kann man sich sparen.

Edit:
Die gleiche News nochmal.
https://www.gamestar.de/artikel/amd-radeon-rx-big-navi-linux,3358372.html
"AMD Radeon RX Big Navi gesichtet? Mysteriöse GPU in Linux-Treiber"

https://www.computerbase.de/2020-06/navi-21-sienna-cichlid/
"Big Navi: Navi 21 wird in Linux zu Sienna Cichlid"
"Neue Display-Engine vermutlich für HDMI 2.1"

M.f.G. JVC

BoMbY
2020-06-02, 19:59:58
hmm:

https://pbs.twimg.com/media/EZdco6VXQAESZ_o?format=jpg&name=large

https://twitter.com/Locuza_/status/1267583876865699846

BlacKi
2020-06-02, 20:02:20
aha, gddr6. wer hätts gedacht:freak:

[MK2]Mythos
2020-06-02, 20:24:33
Ach kommt Leute, die Folie ist sowas von fake. ;D

unl34shed
2020-06-02, 20:28:10
zumindest fishy :freak:

BlacKi
2020-06-02, 20:29:44
Mythos;12326307']Ach kommt Leute, die Folie ist sowas von fake. ;D
https://twitter.com/Locuza_/status/1267742071173058561

Linmoum
2020-06-02, 20:35:40
Verstehe den Sinn des Links in Bezug auf das Zitat einfach Null.

Fake hin oder her, es ist keine offizielle Folie, sondern eine, die @Locuza anhand bisheriger "Informationen" erstellt hat. Nicht mehr und nicht weniger.

Locuza
2020-06-02, 20:45:12
Mythos;12326307']Ach kommt Leute, die Folie ist sowas von fake. ;D
Die Folie ist eigentlich nur als visuelle Kurzzusammfassung von AMDs offiziellen Treiberpatches gedacht, Sie soll kein legitimes AMD-Material vorgaukeln, insofern ist das meine Folie und 100% echt. :tongue:
Das Logo in der Ecke mit dem Fisch hat sich einfach grafisch schick gemacht.
Aber ehrlich gesagt dachte ich am Ende schon, ob ich links-unten nicht doch "confidential-NDA required" hinpappen sollte. ;D

Eine falsche Angabe gibt es aber schon, Navi21 hat 4 SDMA-Engines.
Ich habe gestern beim Durchflug nicht so sehr darauf geachtet und mir sind dann nur Einträge aufgefallen, wo 2 genannt worden sind, je nach Patchversion stehen auch mal veraltete Sachen drin.
Aktuelle Patchnotes haben zum Beispiel die zweite GFX-Pipe deaktiviert (zeitweise, warum auch immer), insofern wird gerade nur Eine wie bei anderen Navis zurückgegeben.

BlacKi
2020-06-02, 20:48:12
wie kann etwas fake sein, wenn es nie den anspruch hatte eine amd folie zu sein. die folie basiert aus den beobachtungen aus offiziellen treibern. die inhalte sind deshalb vermutlich zutreffend.

mein link dazu sollte dazu dienen den wink auf die treiber zu lenken aus dem die informationen stammen.

Edit: to late...

Unicous
2020-06-02, 21:14:20
@Locuza

Ich finde es unverantwortlich von dir, dass du diese "Folie" erstellt hast.

Was wolltest du damit erreichen? Warum shoppst du da ein AMD Logo rein bzw. warum versuchst du es wie eine offizielle Folie aussehen zu lassen?

Als ich die Folie ohne weitere Erklärung deinerseits entdeckt habe, dachte ich mir sofort, dass du die entweder selbst erstellt hast oder auf einen Fake hereingefallen bist. Warum hast du nicht sofort klargestellt, dass das von dir stammt? Warum hast du immer noch nicht gesagt, dass das von dir stammt und nicht etwa AMD.

Brauchst du Aufmerksamkeit, ist dir langweilig?

Badesalz
2020-06-02, 21:19:53
@Locuza

Ich finde es unverantwortlich von dir, dass du diese "Folie" erstellt hast.Jein :) Aber das AMD Logo dadrin ist schon bischen blöd...

@Unicous
Warum hast du nicht sofort klargestellt, dass das von dir stammt? Warum hast du immer noch nicht gesagt, dass das von dir stammt und nicht etwa AMD.

Brauchst du Aufmerksamkeit, ist dir langweilig?Das ist andererseits aber auch bisschen blöd. Wenn man dir nach viel zulange unerkannt geblieben ist, kann es nicht auf Aufmerksamkeit gehen ;)

Grendizer
2020-06-02, 21:27:15
Ich würde auch vermuten, das die Nutzung des Logos eine Markenverletzung darstellt.

Unicous
2020-06-02, 21:32:27
Keine Ahnung warum du den Blödsinn den Locuza verzapft relativieren musst, ich habe hier schon mal ein Beispiel gefunden, dass seine "Komposition" in einem Artikel verwendet.

https://overclockers.ru/hardnews/show/103655/sienna-cichlid-oboznachenie-amd-big-navi-s-arhitekturoj-rdna-2-pokazalos-v-kode-linux

Dieser RedGaming-Stümper hat es auch schon verwurstet, auch wenn er interessanterweise die Echtheit anzweifelt:

https://www.youtube.com/watch?v=ish4AjKeavc

Man darf gespannt sein, wer in den nächsten Stunden und Tagen noch darauf hereinfällt.:rolleyes:


@Grendizer

Das kommt noch hinzu. Wobei natürlich auch künstlerische Freiheit gegeben ist. Da Locuza aber bewusst in die Irre führen wollte, würde ich mal behaupten zieht das vor Gericht nicht.

Badesalz
2020-06-02, 22:42:56
Man darf gespannt sein, wer in den nächsten Stunden und Tagen noch darauf hereinfällt.:rolleyes:Sehe das Positive und überlege wie andere dich verarschen, ohne daß du wie bei Locuza, dabei warst.
Das Netz ist voll von diesem Müll und 3DC bespricht gefühlt jede dritte solche Kreation.
Da muss doch spätestens jetzt auch mal Klick machen?

Oder ist sowas nur ärgerlich, wenn es vor der eigenen Haustür passiert und man auch zeitnah aufgeklärt wird?

Bis denne.

Unicous
2020-06-02, 22:57:06
Locuza ist Mitglied dieses Forums und ist sicherlich auch kein Fan von Fakes.
Dass er ganz freimütig zugibt, die Folie so gestaltet zu haben um den Anschein einer legitimen Präsentation zu erwecken ist schlicht und einfach unverantwortlich.

Dein apologetisches Verhalten gegenüber Locuza und dein dämlicher "Da muss doch spätestens jetzt auch mal Klick machen?" Kommentar ist ebenso fahrässig. Du tust so als wäre ich ein naives Dummerchen und müsste über menschliches Verhalten aufgeklärt werden.:rolleyes:

In einer Zeit in der mit bewussten Falschmeldungen und Fälschungen Meinungsbildung und Politik gemacht wird sollte man eben gerade nicht so freimütig die Wahrheit erodieren und das auch noch mit "Das Netz ist voll von diesem Müll" entschuldigen.

btw. Was willst du mit diesem Satz
Sehe das Positive und überlege wie andere dich verarschen, ohne daß du wie bei Locuza, dabei warst.

aussagen?:confused:

gedi
2020-06-02, 22:58:01
Die Folie ist eigentlich nur als visuelle Kurzzusammfassung von AMDs offiziellen Treiberpatches gedacht, Sie soll kein legitimes AMD-Material vorgaukeln, insofern ist das meine Folie und 100% echt. :tongue:
Das Logo in der Ecke mit dem Fisch hat sich einfach grafisch schick gemacht.
Aber ehrlich gesagt dachte ich am Ende schon, ob ich links-unten nicht doch "confidential-NDA required" hinpappen sollte. ;D

Eine falsche Angabe gibt es aber schon, Navi21 hat 4 SDMA-Engines.
Ich habe gestern beim Durchflug nicht so sehr darauf geachtet und mir sind dann nur Einträge aufgefallen, wo 2 genannt worden sind, je nach Patchversion stehen auch mal veraltete Sachen drin.
Aktuelle Patchnotes haben zum Beispiel die zweite GFX-Pipe deaktiviert (zeitweise, warum auch immer), insofern wird gerade nur Eine wie bei anderen Navis zurückgegeben.

Wenn, dann hätte ich BN wenigstens fett aufgebohrt: 96CUs, up to 32GB HBM2, expected Performance 2080Ti+60% + noch irgendetwas was DLSS ziemlich schlecht aussehen lässt. So ist deine Folie Crap und den Fisch hätte ich wenigstens durch Ruby ersetzt.

Badesalz
2020-06-02, 23:04:39
Dein apologetisches Verhalten gegenüber Locuza und dein dämlicher "Da muss doch spätestens jetzt auch mal Klick machen?" Kommentar ist ebenso fahrässig. Du tust so als wäre ich ein naives Dummerchen und müsste über menschliches Verhalten aufgeklärt werden.:rolleyes:Vorab zur Aufklärung bezüglich "naives Dümmerchen":
Die Zeiten in welchen DU bestimmst was hier "dämlich" ist und was nicht, die sind hier noch nicht angebrochen. Grad du, musst dich wohl noch 10-15 Jahre gedulden bis es soweit ist. Selbst wenns erst im Altenheim Klick macht.

Bis moin.

SKYNET
2020-06-02, 23:08:42
Ich glaube nicht das es schlechter als mit Turing läuft das wird die Basis sein, ich vermute aber das Ampere massiv drauf legt, vergleichbar mit dem was sie mit den Tensor Cores beim Server Chip gemacht haben.

auch wenn ich mich wiederhole: der sprung bei der rohleistung wird turing --> ampere kleiner sein als pascal --> turing, dafür wird aber alles an extras aufgeblasen werden und bei nutzung dessen(DLSS, RT) mehr als das doppelte bei rausspringen.

Locuza
2020-06-02, 23:26:51
@Locuza

Ich finde es unverantwortlich von dir, dass du diese "Folie" erstellt hast.

Was wolltest du damit erreichen? Warum shoppst du da ein AMD Logo rein bzw. warum versuchst du es wie eine offizielle Folie aussehen zu lassen?

Als ich die Folie ohne weitere Erklärung deinerseits entdeckt habe, dachte ich mir sofort, dass du die entweder selbst erstellt hast oder auf einen Fake hereingefallen bist. Warum hast du nicht sofort klargestellt, dass das von dir stammt? Warum hast du immer noch nicht gesagt, dass das von dir stammt und nicht etwa AMD.

Brauchst du Aufmerksamkeit, ist dir langweilig?
In gewisser weise ist die Veröffentlichungsform "zufällig" entstanden bzw. aus einer nicht konkreten Laune heraus.

Es ging mir im Prinzip nur darum, eine bildliche Kurzzusammenfassung der Treiber-Patches zu erstellen.
Ich fand damals die Patches für Vega10, Navi und Arcturus sehr interessant, aber reihenweise Patchnotes mit Abkürzungen zu lesen und zu verstehen dauert zumindest für mich seine Zeit und ist an vielen Stellen auch nicht so spaßig.
Entsprechend lag der Aufwand höher, gegenüber dem persönlichem Interesse und ich habe nur wenig hineingeschaut.
Aber nach einiger Zeit habe ich dann doch die Patches zu Arcturus überflogen und war verwundert, wie viel Informationen AMD offiziell vor Monaten preisgegeben hat.
Ich wollte bei Sienna Cichlid, weil es auch schon spät war, nicht viel Zeit investieren und habe die Patches erneut nur überflogen, dennoch wollte ich das zusammenfassen was mir dabei aufgefallen ist und einfach mit der Welt teilen, sodass schon mal "jeder" weiß, welche Kernänderungen praktisch schon bestätigt sind.

Beim Design habe ich mir die Präsentationsfolien von Raven Ridge als Vorlage genommen, weil Sie mir optisch gefallen haben.
Ein Fisch war dann sofort dabei, in Bezug auf den Codenamen und das AMD-Logo hat einfach gepasst bzw. es abgerundet, dann sah es insgesamt stimmig und nicht so leer aus.
Dabei dachte ich mir auch, ja so in der Richtung würde wohl eine offizielle AMD-Folie aussehen.
Mir ging auch durch den Kopf in die linke Ecke noch "confidential-NDA required" zu schreiben, allerdings nicht, um das als echte Folie zu verkaufen, sondern um es deutlicher zu machen, dass es fabriziert ist bzw. nicht offiziell von AMD kommt, ein offensichtlicher Gag.
Dabei kann man sich streiten, wem das sofort klar gewesen wäre und wem nicht?
Zusätzlich ging mir auch eine Art Experiment durch den Kopf, ob die Leute eine etwas echter anmutende Folie mit NDA, Seitenzahl etc., als offizielles Material annehmen würden, aber ich erinnere mich schwammig an ein Fake-Experiment, wo geshoppte Bilder erstellt worden sind (ich meine auch in Bezug zu AMD, Bulldozer Zeit?), einfach um zu zeigen, wie leichtgläubig Menschen reagieren oder wie unsicher sie mit der Bewertung von Dingen sind, nur weil bildlich mal was erstellt wurde, ich selber bin in der Vergangenheit in Bezug auf Zen1 teilweise darauf reingefallen.
Allerdings sind solche Experimente ja nichts Neues bzw. ich habe den Gedanken, dass Ganze offizieller aussehen lassen zu wollen, nicht weiterverfolgt.

Am Ende stand ein Bild mit Präsentationselementen und nur dem Logo von AMD da.
Beim Tweeten stellte sich mir auch die Frage, ob ich noch kurz die wichtigsten Infos als Text dazupacken sollte und extra darauf hinweisen, dass es ein Bild auf Basis der aktuellen Treiberpatches ist, mich aber aus einer Laune heraus dagegen entschieden.
So wie Gott (;D) das Bild schuf, wollte ich es ganz alleine für sich stehen lassen und die Reaktionen einfach kommen lassen.
Dabei bin ich an vielen Orten präsent und man kann mich alles fragen, wo auch meistens eine Antwort zurück kommt.

Eine Marktverletzung durch die unsachgemäße Verwendung, die Grendizer ansprach, könnte ein Richter bestimmen.
Da bin ich von der Herangehensweise und vom juristischem Wissen einfach laienhaft vorgegangen bzw. ich dachte mir nicht soviel dabei.
AMD kann natürlich eine Anforderung stellen, sodass ich den Tweet lösche bzw. es klar gestellt wird, das es nichts Offizielles ist.
Oder besser mich noch vor Gericht bringen, wo es um eine Geld- und Freiheitsstrafe gehen sollte.
Fall es soweit kommen sollte, poste ich dann täglich ein Bild von mir aus der Zelle, sodass auch jeder sieht wie juristische Gerechtigkeit vollzogen wird und die Erziehungsmaßnahme auf mich wirkt.

Aber mal ernsthaft, AMD wird höchstens darauf bestehen, dass ich den Tweet entferne.
Die Daten basieren allerdings auf öffentlichen Informationen, es gibt insofern keine schädigende Fehlleitung, die den Marktwert und Ruf von AMD in nennenswerter Art und Weise verletzen würde.

maximus_hertus
2020-06-03, 00:12:58
Ernsthaft? Hier wird sich aufgrund einer selbstgemachten Folie aufgeregt?

Ich sehe schon, wir brauchen dringend offizielle Infos, damit einige wieder für ein paar Wochen beschäftigt sind.


Ich sehe in der Folie eher moderne Kunst ;) und Zeitvertreib ;)

[MK2]Mythos
2020-06-03, 00:46:43
aha, gddr6. wer hätts gedacht:freak:
wie kann etwas fake sein, wenn es nie den anspruch hatte eine amd folie zu sein. die folie basiert aus den beobachtungen aus offiziellen treibern. die inhalte sind deshalb vermutlich zutreffend.

mein link dazu sollte dazu dienen den wink auf die treiber zu lenken aus dem die informationen stammen.

Edit: to late...
Dass ausgerechnet du dich jetzt hinstellst und das in der Form kommentierst...:freak: Du bist doch direkt drauf reingefallen weil es deine "Prognose" bestätigt. Die nächste Folie die erstellt wird und RDNA2 eine bessere Energieeffizienz ausschließlich durch den "besseren Betriebspunkt" bescheinigt, wird von dir doch auch direkt für bare Münze genommen. Moment, ich shoppe mal schnell...
Zur Folie selber: Ich habe kein Verständnis dafür wieso man so eine Folie baut die für gutgläubige und entsprechende clickbait Seiten nach einer offiziellen AMD Folie aussieht. Insbesondere für die Verwendung des AMD Markenlogos könnte und *sollte* es eigentlich Ärger geben.

BlacKi
2020-06-03, 01:07:04
auf was bin ich denn reingefallen? ich hab dir doch verlinkt, das es aus dem treiberpatch hervorgeht. ganz unabhängig davon, was die folie zeigt bzw. wer sie erstellt hat.

Locuza
2020-06-03, 01:08:04
@ [MK2] Mythos

1.) Das Bild zeigt keine frei erfundenen Informationen, sondern basiert auf AMDs eigenen Treiber-Patches.
Es ist in dem Aspekt zumindest "kein reinfallen".

2.) Welchen Ärger würdest du für mich vorsehen?

BlacKi
2020-06-03, 01:10:39
https://instagramnycs.club/images/tod-durch-snusnu-rcm485x210.jpg

Elite_Warrior
2020-06-03, 01:13:07
Du Lümmel :D

unl34shed
2020-06-03, 12:03:39
Ist es denn überhaupt sicher, dass es sich um Navi21 handelt?

Hab von Treibern keine Ahnung, aber laut hardware.de Guru3D (klick (https://www.guru3d.com/news-story/amd-sienna-cichlid-spotted-in-linux-kernel-patchesbig-navi.html)) scheint das Ding nur ein 128 Bit GDDR6 Interface zu haben.

E: ok scheint nur irgendein Fallback mode zu sein...

Locuza
2020-06-03, 12:58:38
Ist es denn überhaupt sicher, dass es sich um Navi21 handelt?

Hab von Treibern keine Ahnung, aber laut hardware.de Guru3D (klick (https://www.guru3d.com/news-story/amd-sienna-cichlid-spotted-in-linux-kernel-patchesbig-navi.html)) scheint das Ding nur ein 128 Bit GDDR6 Interface zu haben.

E: ok scheint nur irgendein Fallback mode zu sein...
Wenn Sienna Chichlid und AMDGPU Emu Mode = 1 dann GDDR6 mit 1x 128.
Ansonsten lies aus der Firmware etc.

Der Grund wieso man von Navi21 ausgeht ist das bei Sienna Chichlid die gleiche Bezeichnung wie bei Navi21 steht:
NV_NAVI10_P_A0 = 1,
NV_NAVI12_P_A0 = 10,
NV_NAVI14_M_A0 = 20,
+ NV_SIENNA_CICHLID_P_A0 = 40,
https://lists.freedesktop.org/archives/amd-gfx/2020-June/050143.html

Navi10/12/14/21:
https://twitter.com/KOMACHI_ENSAKA/status/1267537045318033409

Ausgehend von vorherigen GPUs kann man sich sicher sein, dass die Buchstaben grob das Leistungsniveau widerspiegeln.
V = Value, M = Mainstream, P = Performance.

robbitop
2020-06-03, 17:26:08
Kann man die Breite des SIs schon daraus ableiten oder die VRAM Menge? :)

Locuza
2020-06-03, 18:00:33
Nein, soweit ich mitbekommen habe, hat AMD nach Vega10 aufgehört klare Werte für viele GPU-Parameter direkt hinzuschreiben.
Stattdessen werden kryptische Formeln verwendet oder aus irgendeiner nicht öffentlichen Tabelle die Daten gelesen.

Damals wusste man vor dem Launch von Vega10, dass es 4096 Compute Units werden, mit 4 Shader Engines, etc.
Das gefiel AMD scheinbar nicht so, dennoch möchte man natürlich das Software-Bring-Up so früh wie möglich gestalten, also werden viele "interessante" Kennzahlen abstrahiert.

Dennoch gibt es ein paar Neuigkeiten, einfache Bestätigungen wie neue VCN oder DCN-Version, ein GFX Command Processor der zwei GFX-Queues unterstützt und das GDDR6 verwendet wird.
Es ging glaube ich in der Gerüchteküche umher, dass wieder HBM2 beim Topdog verwendet werden soll, zumindest für Navi21 scheint das nicht zuzutreffen.

Da AMD von einem Halo-Product redet und den Enthusiasten "das Beste" geben möchte, werden es vermutlich 384-Bit sein.

BlacKi
2020-06-03, 18:23:43
Da AMD von einem Halo-Product redet und den Enthusiasten "das Beste" geben möchte, werden es vermutlich 384-Bit sein.
384bit und amd halo produkt, mhh. connection lost...

Locuza
2020-06-03, 18:58:13
Die Frage bezüglich des Interfaces ist schon sehr interessant.
384-Bit wäre gerade noch "günstig".
Mehr bzw. 512-Bit mit hohem G6-Speed kann ich mir nicht vorstellen.
Ich denke beide Hersteller werden versuchen die Bandbreitenfrage mit mehr Cache und weiteren Verbesserungen bei der internen Bandbreiteneffizienz zu lösen.

Bei Vega hieß es auch, eine High-End-Architektur für High-End-Gamer.
Ich halte die Erwartungen an Big Navi persönlich gemäßigt.

Berniyh
2020-06-03, 19:46:49
Nein, soweit ich mitbekommen habe, hat AMD nach Vega10 aufgehört klare Werte für viele GPU-Parameter direkt hinzuschreiben.
Stattdessen werden kryptische Formeln verwendet oder aus irgendeiner nicht öffentlichen Tabelle die Daten gelesen.
Die meisten Daten kommen wohl aus der Firmware.

Hin und wieder gibt es dennoch interessante Daten im Code, z.B. für Workarounds o.ä.

Hier dürfte es sich aber wohl kaum um Big Navi handeln, wäre neu und seltsam, wenn AMD hierfür plötzlich spezielle Codenamen verwenden würde, das macht man ja im restlichen Code auch nicht.
Wahrscheinlicher ist, dass es sich um irgendeine APU oder ein Custom Design o.ä. handelt.

Generell ist es ein bisschen absurd wie die Leute teilweise auf Big Navi anspringen. Fehlt nur noch, dass irgendeiner im amdgpu Code irgendwo das Wort "big" findet und dann "Big Navi!" schreit.

Achill
2020-06-03, 19:56:36
Die meisten Daten kommen wohl aus der Firmware.

Hin und wieder gibt es dennoch interessante Daten im Code, z.B. für Workarounds o.ä.

Hier dürfte es sich aber wohl kaum um Big Navi handeln, wäre neu und seltsam, wenn AMD hierfür plötzlich spezielle Codenamen verwenden würde, das macht man ja im restlichen Code auch nicht.
Wahrscheinlicher ist, dass es sich um irgendeine APU oder ein Custom Design o.ä. handelt.

Generell ist es ein bisschen absurd wie die Leute teilweise auf Big Navi anspringen. Fehlt nur noch, dass irgendeiner im amdgpu Code irgendwo das Wort "big" findet und dann "Big Navi!" schreit.

Es wurde vor einiger Zeit im Phoronix Forum von AMDs Kernentwicklern gesagt, dass zukünftig andere Namen als die offiz. Produkt-Namen verwendet werden.

Quelle: https://www.phoronix.com/scan.php?page=news_item&px=AMD-Radeon-Arcturus

LasterCluster
2020-06-03, 20:19:16
Es wurde vor einiger Zeit im Phoronix Forum von AMDs Kernentwicklern gesagt, dass zukünftig andere Namen als die offiz. Produkt-Namen verwendet werden.

Quelle: https://www.phoronix.com/scan.php?page=news_item&px=AMD-Radeon-Arcturus

wenn man aber sofort Navi21=Sienna_CICHLID sagen kann, ist der Plan übelst schief gegangen. Darum wäre ich vorsichtig. Vielleicht ist das ein erster Platzhalter für mehrere Varianten, so wie Raven2 auch noch ausdifferenziert wurde (Dali,Pollock).

dildo4u
2020-06-03, 20:53:23
AMD sagt Big Navi kommt vor den neuen Konsolen.
Es gibt aber noch keine festen Monate für die XBox oder PS5.

https://www.pcgamer.com/uk/amd-big-navi-first-rdna-product/

basix
2020-06-03, 21:36:36
Die Frage bezüglich des Interfaces ist schon sehr interessant.
384-Bit wäre gerade noch "günstig".
Mehr bzw. 512-Bit mit hohem G6-Speed kann ich mir nicht vorstellen.
Ich denke beide Hersteller werden versuchen die Bandbreitenfrage mit mehr Cache und weiteren Verbesserungen bei der internen Bandbreiteneffizienz zu lösen.

Bei Vega hieß es auch, eine High-End-Architektur für High-End-Gamer.
Ich halte die Erwartungen an Big Navi persönlich gemäßigt.

Die XBSX hat 320bit bei 14 GT/s. Bei reiner Betrachtung der GPU kann man vermutlich 64bit gleich abziehen wegen der integrierten CPU und der etwas krummen Interface-Gestaltung. Bleiben also effektiv 448 GB/s für 52 aktivierte CUs. Wenn Big Navi mit 80 CUs kommt (oder teildeaktiviert mit 76 CUs), dann sollte 384bit bei 16 GT/s doch reichen. 768 / 448 = 1.71 und (2100 MHz * 76 CU) / (1825 MHz * 52 CU) = 1.68. Die Zahlen sind einfach mal dahingewürfelt aber man sieht, dass es im selben Ballpark wäre.

Achill
2020-06-03, 21:50:27
wenn man aber sofort Navi21=Sienna_CICHLID sagen kann, ist der Plan übelst schief gegangen. Darum wäre ich vorsichtig. Vielleicht ist das ein erster Platzhalter für mehrere Varianten, so wie Raven2 auch noch ausdifferenziert wurde (Dali,Pollock).

Ich habe nur kurz rausgesucht, dass AMD jetzt andere Codenamen im Treiber-Code vom Kernel nutzt aber ich habe keine Ahnung was jetzt Sienna ist und könnte nur spekulieren ... ;)

BlacKi
2020-06-03, 21:59:32
Die XBSX hat 320bit bei 14 GT/s. Bei reiner Betrachtung der GPU kann man vermutlich 64bit gleich abziehen wegen der integrierten CPU und der etwas krummen Interface-Gestaltung. Bleiben also effektiv 448 GB/s für 52 aktivierte CUs. Wenn Big Navi mit 80 CUs kommt (oder teildeaktiviert mit 76 CUs), dann sollte 384bit bei 16 GT/s doch reichen. 768 / 448 = 1.71 und (2100 MHz * 76 CU) / (1825 MHz * 52 CU) = 1.68. Die Zahlen sind einfach mal dahingewürfelt aber man sieht, dass es im selben Ballpark wäre.

um die 2080ti aus 2018 zu cashen? ja. halo produkt wäre aber mindestens schneller als alles was nv mit kommender gen rausdrückt. sonst ist das kein halo. ich sehe das nicht kommen, aber hey, ich lasse mich gerne überraschen.

w0mbat
2020-06-03, 22:19:45
Dass AMD schnelle GPUs bringen kann wissen wir, die Frage ist, ob sie es vielleicht doch verlernt haben?

Und "halo product" kann auch im AMD Kontext gemeint sein, aktuell ist die 2070S schon schneller als alles, was AMD hat. Wenn "big Navi" jetzt eine "3080" schlägt wäre das für mich, im Bezug auf AMD, schon "halo". Zuma die 3080Ti sicherlich drölftausend Euro kostet.

BlacKi
2020-06-03, 22:26:22
im Bezug auf AMD, schon "halo".
halo, ausführungen sind imho nicht auf amd alleine zu beziehen. halo bedeutet für mich ein produkt das alle anderen produkte aufwertet, gegenüb er dem konkurenten, durch eine vormachtsposition. so wie die titan früher, auch wenn es heute eher die 2080ti ist. halo produkte waren schon immer das gegenteil von einem preisleistungssieger.

w0mbat
2020-06-03, 22:37:05
Du hast nicht unrecht, aber nach "poor Volta" bin ich einfach etwas vorsichtiger :ugly:

Aber wenn Lisa das sagt, halte ich es schon für möglich. Wäre auf jeden Fall geil wenn wir, wie im CPU Bereich, wieder gute Konkurrenz bei den GPUs bekommen. Dann gibt es eine 3080Ti vielleicht für <1k€ und wir sehen mehr VRAM.

Ich persönlich bin einfach der Meinung, dass es für AMD sehr schwer sein wird Nvidia so schnell wieder anzugreifen, Nvidia hat einfach deutlich mehr R&D hinter ihren Produkten.

gedi
2020-06-03, 23:09:56
Das stimmt doch nicht. Würde die SSD dauernd mit 4GB/s Daten in den VRAM speichern, müssten jede Sekunde 1/3 ausgetauscht werden. Wir absurd ist das denn bitte?

Wie sollen so Spiele entwickelt werden? Das wäre das Ende von Interaktion jeglicher Art, da die Engine immer im Voraus wissen muss, was der Spieler macht.

sehr guter Ansatz - aber bleiben in einem Spiel+Varianz so viele Möglichkeiten :confused:

Berniyh
2020-06-03, 23:34:03
Es wurde vor einiger Zeit im Phoronix Forum von AMDs Kernentwicklern gesagt, dass zukünftig andere Namen als die offiz. Produkt-Namen verwendet werden.

Quelle: https://www.phoronix.com/scan.php?page=news_item&px=AMD-Radeon-Arcturus
Das mag ja sein, aber das macht einfach keinen Sinn für Chips die schon offensichtlich als Navi2x im Code referenziert werden.

basix
2020-06-04, 00:15:14
um die 2080ti aus 2018 zu cashen? ja. halo produkt wäre aber mindestens schneller als alles was nv mit kommender gen rausdrückt. sonst ist das kein halo. ich sehe das nicht kommen, aber hey, ich lasse mich gerne überraschen.

76 CU und 1.9 GHz Takt wären bereits doppelt so schnell wie eine 5700 XT. Das reicht schon für +30% auf eine 2080 Ti. Und wer weiss wie hoch die angekündigten IPC Steigerungen ausfallen. 10%, 20% oder gar 30%? Dazu vielleicht auch > 2 GHz (siehe PS5) und man ist schon >50% überhalb einer 2080 Ti. Ob 768 GB/s für 2.5x 5700XT reichen würden? Vielleicht.

Ich will hier den Hype Train nicht anheizen, aber Big Navi könnte deutlich schneller als eine 2080 Ti und auch gegenüber Ampere gut aussehen. Es gibt aber noch zu viele Variablen für die Bestimmung von Top oder Flop. Vielleicht ist RDNA2 wirklich sehr stark und AMD glaubt an den Sieg aber Ampere stärker als gedacht. Wäre mir auch recht ;)

Langlay
2020-06-04, 00:24:35
30-35% vor der 2080ti halte für realistisch. Ich glaube aber das die 3080ti leicht schneller wird.

Die Frage die das Raytracing wird, finde ich noch ganz spannend. Ich denke 2x Leistung der 2080ti sollte am Ende schon rauskommen, sonst sieht es blöd aus gegen Nvidias 3000er Serie.

SKYNET
2020-06-04, 00:53:50
30-35% vor der 2080ti halte für realistisch. Ich glaube aber das die 3080ti leicht schneller wird.

Die Frage die das Raytracing wird, finde ich noch ganz spannend. Ich denke 2x Leistung der 2080ti sollte am Ende schon rauskommen, sonst sieht es blöd aus gegen Nvidias 3000er Serie.


alles was <10% ist, ist "gleichstand"... denke sowas werden wir auch sehen bei den kommenden topendkarten von NV und AMD... wird wie damals 1080 vs. V64 hinnauslaufen(mal die eine, mal die andere schneller)...

und mal sehen, evtl. haut AMD ja mal wieder dual-gpu raus... wäre natürlich der knaller :D

BlacKi
2020-06-04, 01:01:10
76 CU und 1.9 GHz Takt wären bereits doppelt so schnell wie eine 5700 XT. Das reicht schon für +30% auf eine 2080 Ti. Und wer weiss wie hoch die angekündigten IPC Steigerungen ausfallen. 10%, 20% oder gar 30%? Dazu vielleicht auch > 2 GHz (siehe PS5) und man ist schon >50% überhalb einer 2080 Ti. Ob 768 GB/s für 2.5x 5700XT reichen würden? Vielleicht.

Ich will hier den Hype Train nicht anheizen, aber Big Navi könnte deutlich schneller als eine 2080 Ti und auch gegenüber Ampere gut aussehen. Es gibt aber noch zu viele Variablen für die Bestimmung von Top oder Flop. Vielleicht ist RDNA2 wirklich sehr stark und AMD glaubt an den Sieg aber Ampere stärker als gedacht. Wäre mir auch recht ;)
du streichst aber vieles raus aus deiner vermutung.

zb. sind die 1.9ghz gameclock nicht mit weniger als 300w zu machen. und dann kommt noch vermutlich nur 16gbps an 384bit angerichtet rein. das alleine reicht dann nichtmal für 1,80x navi 10, weil die CU nichtm it 100% skalieren. mit den verbesserten ipc kommt man dann vl +- 85% über navi10.

alles was <10% ist, ist "gleichstand"... denke sowas werden wir auch sehen bei den kommenden topendkarten von NV und AMD... wird wie damals 1080 vs. V64 hinnauslaufen(mal die eine, mal die andere schneller)
aber von einem halo produkt wird man dann trotzdem nicht sprechen können.

Langlay
2020-06-04, 01:22:53
du streichst aber vieles raus aus deiner vermutung.

zb. sind die 1.9ghz gameclock nicht mit weniger als 300w zu machen. und dann kommt noch vermutlich nur 16gbps an 384bit angerichtet rein. das alleine reicht dann nichtmal für 1,80x navi 10, weil die CU nichtm it 100% skalieren. mit den verbesserten ipc kommt man dann vl +- 85% über navi10.



85% über Navi10 ist 38% schneller als die 2080TI.

https://www.techpowerup.com/gpu-specs/radeon-rx-5700-xt.c3339

BlacKi
2020-06-04, 01:24:43
85% über Navi10 ist 38% schneller als die 2080TI.

https://www.techpowerup.com/gpu-specs/radeon-rx-5700-xt.c3339
fhd

85% auf die 5700xt im 3dc index 4k sind 26% über 2080ti.

das hatten wird doch alles schon vor 5 seiten oder so. warum muss ich das ständig wiederholen?

Korvaun
2020-06-04, 08:17:47
Wenn AMD zeitnah ein vollständig auf RDNA2 basierendes, konkurrenzfähiges Portfolio bis hinauf zur "3080TI" anbieten kann wäre das schon sehr gut nach den letzten Jahren. Wenn dann der Preis stimmt und es keine negativen Ausreisser bzgl. Lautsärke, RAM, Verfügbarkeit, etc. gibt sollte es auch ein Verkaufserfolg werden.

Wäre natürlich schön wenn AMD um die Krone kämpfen könnte, aber selbst wenn das nicht klappt wäre eine gute Karte zwischen "3080" und "3080TI" ja auch nicht verkehrt.

HOT
2020-06-04, 08:20:53
Wenn das Ding 80CUs hat und 2GHz Takt, ist der mehr als doppelt so schnell als Navi10. Das mag nicht für FHD zutreffen, aber für 4k in jedem Fall. Da ist nix mit 85%, das sind über 100%.

maximus_hertus
2020-06-04, 08:23:19
fhd

85% auf die 5700xt im 3dc index 4k sind 26% über 2080ti.

das hatten wird doch alles schon vor 5 seiten oder so. warum muss ich das ständig wiederholen?

Nur zur Info: LEo hat immer wieder beton, dass der 3DC KEIN exakter Performance-Index ist, sondern eine grobe Übersicht.

Wir wissen doch nur zu gut, dass die Spieleauswahl entscheidend ist, ob es x oder y % sind.

mironicus
2020-06-04, 08:36:58
Wenn das Ding 80CUs hat und 2GHz Takt, ist der mehr als doppelt so schnell als Navi10. Das mag nicht für FHD zutreffen, aber für 4k in jedem Fall. Da ist nix mit 85%, das sind über 100%.

Ja, und mit Wasserkühlung dann bestimmt 2,5+ GHz. :)

Vergesst nicht, die PS5 soll schon über 2.2 GHz packen. Da steckt viel Potential in RDNA2.

basix
2020-06-04, 08:39:52
du streichst aber vieles raus aus deiner vermutung.

zb. sind die 1.9ghz gameclock nicht mit weniger als 300w zu machen. und dann kommt noch vermutlich nur 16gbps an 384bit angerichtet rein. das alleine reicht dann nichtmal für 1,80x navi 10, weil die CU nichtm it 100% skalieren. mit den verbesserten ipc kommt man dann vl +- 85% über navi10.


aber von einem halo produkt wird man dann trotzdem nicht sprechen können.

Deine Angaben sind aber auch nur Vermutungen ;)

Wer sagt, dass 1.9 GHz 300W benötigen, dass 80CU nicht so toll skalieren, dass 384bit @ 16 GT/s nicht genug sind und dass die IPC Steigerung nur +3% beträgt? RDNA skaliert momentan laut einigen Angaben perfekt linear. Und klar, AMD hat 1.5x Effizienzsteigerung angekündigt und man kommt auf 300W bei 2.0x Performance. RDNA1 war aber auch eher +70% effizienter als Vega 64 und das bei höheren Taktraten und GDDR6 anstatt HBM ;)

Wie du siehst haben wir mit ein paar "geringen" Anpassungen der Parameter eine Bandbreite von 1.8-2.5 Leistungssteigerung. Irgendendetwas in dem Rahmen wird es wohl sein. Was es genau sein wird, kann hier momentan niemand beantworten.

amdfanuwe
2020-06-04, 08:45:11
Selbst wenn Big Navi nur 3080 Niveau erreicht, ist das schon ein Erfolg für AMD.
Prozentual den meisten Umsatz dürfte Nvidia aktuell mit der 2070S im 500€ Bereich machen.
Das wird Nvidia richtig weh tun, wenn AMD sich dort Marktanteile holt und Nvidia die Gewinne und Margen wegbrechen. Gaming ist für Nvidia immer noch die Haupteinnahmequelle.
Es reicht da ja, wenn Big Navi ein gutes Produkt wird und mit einem etwas besserem Preis/Leistungsverhältnis angeboten wird.

Dino-Fossil
2020-06-04, 10:07:03
Frage ist da noch, inwieweit sich AMD und nVidia auf einen Preiskampf einlassen.
In der aktuellen Generation haben beide eigentlich versucht, die Preise eher hoch zu halten.

mironicus
2020-06-04, 10:19:37
Wenn Big Navi maximal 799 Euro kostet (also vielleicht doppelter Preis zur Navi 10), und die Leistung bringt die wir erwarten, dann wird eine RTX 2080 Ti auf dem Gebrauchtmarkt nur noch 450 Euro bringen. Glück für NVidia-Käufer, dann werden sie keinen vierstelligen Betrag mehr für ein Ti-Ampere ausgeben müssen.

amdfanuwe
2020-06-04, 10:22:47
Nvidia ist bestimmt nicht scharf drauf.
Bei AMD kommt es darauf an, wieweit sie Marktanteiel wollen.
Nvidia kann eigentlich nur verlieren durch einen Preiskampf und AMD nur gewinnen, da sie vorher über 400€ eh nichts hatten.
In der aktuellen Generation hatte AMD noch kein überzeugendes Portfolio, zudem Lagerkapazitäten an Polaris und genügend um die Ohren mit besser als erwartetem PC/Server Geschäft und knappen Produktionskapazitäten.
Also mal abwarten, wenn die Lager nun leer sind, die Kapazitäten ausreichend geplant sind und das RDNA2 Produktportfolio überzeugt, ob da AMD in den Kampfmodus geht.

maximus_hertus
2020-06-04, 12:07:09
Selbst wenn Big Navi nur 3080 Niveau erreicht, ist das schon ein Erfolg für AMD.
Prozentual den meisten Umsatz dürfte Nvidia aktuell mit der 2070S im 500€ Bereich machen.
Das wird Nvidia richtig weh tun, wenn AMD sich dort Marktanteile holt und Nvidia die Gewinne und Margen wegbrechen. Gaming ist für Nvidia immer noch die Haupteinnahmequelle.
Es reicht da ja, wenn Big Navi ein gutes Produkt wird und mit einem etwas besserem Preis/Leistungsverhältnis angeboten wird.

NEIN ;)

Für viele potentielle Käufer ist es komplett(!) egal, was AMD macht. RTX 3070 ist langsamer als eine Navi-Gegner und sogar teurer? Die wird sich trotzdem wie geschnitten Brot verkaufen.

Natürlich würde nV minimal an Umsatz und Gewinn verlieren, da es schon einige wenige Käufer geben wird, die dann das Navi Produkt kaufen. Aber in der Masse macht das fast keinen Unterschied. Dazu die ganzen OEM Deals + Notebooks...

Lasst uns doch nV aus der Gleichung nehmen und erstmal gucken, was AMD liefern wird. Bisher sind es "nur" Ankündigungen. Erst wenn man Benchmarks auf oder über 2080 Ti Niveau hat, können wir über Marktpositionierung sinnvoll quatschen (imo).

BlacKi
2020-06-04, 12:18:59
Deine Angaben sind aber auch nur Vermutungen ;)

Wer sagt, dass 1.9 GHz 300W benötigen, dass 80CU nicht so toll skalieren, dass 384bit @ 16 GT/s nicht genug sind und dass die IPC Steigerung nur +3% beträgt? RDNA skaliert momentan laut einigen Angaben perfekt linear. Und klar, AMD hat 1.5x Effizienzsteigerung angekündigt und man kommt auf 300W bei 2.0x Performance. RDNA1 war aber auch eher +70% effizienter als Vega 64 und das bei höheren Taktraten und GDDR6 anstatt HBM ;)

Wie du siehst haben wir mit ein paar "geringen" Anpassungen der Parameter eine Bandbreite von 1.8-2.5 Leistungssteigerung. Irgendendetwas in dem Rahmen wird es wohl sein. Was es genau sein wird, kann hier momentan niemand beantworten.
rdna skaliert mit 85% von 20 auf 40cu mit verdoppelter SI und bandwith, siehe 5500xt vs 5700xt. da aber eine reduzierung um fast die hälfte der bandbreite durchz 16gbps/384bit auf nur noch 65% der bandbreite keinen einfluss auf die performance hat? träum weiter...

von vega auf navi10 war ein architektur wechsel, mit der abkehr von HPC elementen hin zu gaming und ein fertigungsprozess upgrade von nöten um diese 50%perf/w zu erreichen. das alles fehlt rdna2, um sich von rdna abzuheben. dann fehlt es rdna2 in form von navi21 ein 512bit SI und damit bandbreite.

das hier rdna2 das alles mit nur architekturverbesserungen 2x navi10 performance hinbekommen soll, ist praktisch ausgeschlossen.

WedgeAntilles
2020-06-04, 12:29:39
NEIN ;)
Für viele potentielle Käufer ist es komplett(!) egal, was AMD macht. RTX 3070 ist langsamer als eine Navi-Gegner und sogar teurer? Die wird sich trotzdem wie geschnitten Brot verkaufen.


Hast du irgendwelche Zahlen die das bestätigen?

Alle bekannten Zahlen von Mindfactory belegen das genaue Gegenteil.
Nämlich dass AMD mit einem guten Produkt signifikant Marktanteile gewinnt.

Dieses "Nvidia Käufer sind ja so doof und kaufen immer Nvidia völlig egal wie es auf dem Markt aussieht" wird ja gerne und laut verbreitet.
Empirisch ist das zwar meines Wissens nirgends belegbar (im Gegenteil, es gibt empirische Zahlen die das Gegenteil beweisen), aber wen interessiert das?

robbitop
2020-06-04, 12:31:27
@Blacki
Naja. Das Potenzial ist da. Man schaue sich an, wie Turing und Navi10 sich verhalten. Turing ist z.T. sogar energieeffizienter als Navi10 und das bei einem uralten Node. Warum soll dieses Potenzial für AMD nicht holbar sein?
AMD hatte IIRC schon gesagt, dass zu RDNA2 einiges an Optimierung bezüglich Energieeffizienz passiert ist.
Die XSX und PS5 geben ja schon kleinere Hints dazu. 2,23 GHz in der PS5 in einem Produkt, was in sehr hohen Mengen hergestellt wird und auch überall so laufen muss.
56 CUs und 8 CPU Cores in einem so kleinen SoCs und einem überschaubaren thermal envelope.

Vieles ist möglich. AMD scheint in den letzten Jahren viel überraschendes geschafft zu haben und machte einen Turnaround. Erst fokussierte man sich auf CPUs und nun eben auf GPUs.
Dank Zen hat man auch mehr Budget.

Ich kann mir gut vorstellen, dass RDNA2 einiges an Energieeffizienz und ein bisschen was in Bezug auf Takt und Bandbreiteneffizienz tun kann.

Andererseits ist NV nicht Intel. Ampere wird sicherlich wieder nachlegen. Aber wenn das mit 8nm stimmt, könnte das für AMD die Chance sein, den Abstand zu verkürzen.

Die Bandbreite der Möglichkeiten ist sehr groß. Wir werden sehen - aber ausgeschlossen ist es IMO nicht, dass AMD mit RDNA2 auch ein hervorragendes Produkt im GPU Markt bringt.

Berniyh
2020-06-04, 12:31:50
Frage ist da noch, inwieweit sich AMD und nVidia auf einen Preiskampf einlassen.
In der aktuellen Generation haben beide eigentlich versucht, die Preise eher hoch zu halten.
So viele kann AMD vermutlich von den Chips gar nicht prozessieren, dass man sich da groß auf einen Preiskampf einlassen kann.
Sieht man ja auch bei den Navi 1x Chips, die sind auch noch recht hoch im Preis angesiedelt.

Der_Korken
2020-06-04, 12:32:18
rdna skaliert mit 85% von 20 auf 40cu mit verdoppelter SI und bandwith, siehe 5500xt vs 5700xt. da aber eine reduzierung um fast die hälfte der bandbreite durchz 16gbps/384bit auf nur noch 65% der bandbreite keinen einfluss auf die performance hat? träum weiter...

von vega auf navi10 war ein architektur wechsel, mit der abkehr von HPC elementen hin zu gaming und ein fertigungsprozess upgrade von nöten um diese 50%perf/w zu erreichen. das alles fehlt rdna2, um sich von rdna abzuheben. dann fehlt es rdna2 in form von navi21 ein 512bit SI und damit bandbreite.

das hier rdna2 das alles mit nur architekturverbesserungen 2x navi10 performance hinbekommen soll, ist praktisch ausgeschlossen.

Eine 5500XT hat 22 statt 20CUs. Somit also "nur" 81% mehr CUs.

Ich habe mir mal den Spaß gemacht:

von fermi auf kepler war ein architektur wechsel, mit der abkehr von HPC elementen hin zu gaming und ein fertigungsprozess upgrade von nöten [...]. das alles fehlt maxwell, um sich von kepler abzuheben. dann fehlt es maxwell in form von gm200 ein 512bit SI und damit bandbreite.

das hier gm200 das alles mit nur architekturverbesserungen 2x gk104 performance hinbekommen soll, ist praktisch ausgeschlossen.

An Träumereien von >2x N10 Performance glaube ich zwar auch nicht, aber das Optimierungspotenzial ist enorm. Ich kann nur immer wieder an die Packdichte erinnern. Der Sprung von N10 zu Renoir war so groß wie der von V10 zu N10. Man sollte imho auch bei der Architektur nicht den Fehler machen einfach die CU-Zahlen und GB/s zu nehmen und dann linear hochzuskalieren. Ich erwarte, dass sich die CUs von RDNA2 anders verhalten, so wie Turing nicht einfach ein aufgeblasener Pascal mit drangeflanschten RT-Cores war und so wie auch Ampere nicht einfach ein aufgeblasener Turing sein wird. Für mich ist RDNA1 einfach ein "Abfallprodukt" der eigentlich Architektur-Entwicklung. So wie man das im Nachhinein auch von Zen1 und den zugehörigen TR und Epyc-Modellen mit ihren non-uniformen Speicher sagen kann. Im Vergleich zu Zen2 natürlich.

[MK2]Mythos
2020-06-04, 12:48:52
(...)
Deine Glaskugel möchte ich echt mal haben, du hast keine Ahnung wie gut RDNA2 geworden ist und haust hier mit Zahlen mit so absoluter Sicherheit raus. Du weißt nicht wieviel effizienter RDNA2 ggü RDNA geworden ist, du weißt nicht wie hoch RDNA2 taktet, du weißt nicht wieviele CUs Navi21 bekommt und du weißt nicht wie die Speicherbandbreite ausfallen wird. Dass du deine Argumentation komplett auf deinem Gefühl aufbaust, ist dir schon bewusst, oder?
Du ignorierst völlig was AMD im Bezug auf RDNA2 angekündigt hat und wie schnell RDNA2 GPUs in den neuen Konsolen getaktet sind. Dabei sind genau dies die Anhaltspunkte um eine Prognose abgeben zu können, die deiner Tief(st)stapelei deutlich widersprechen. Aber man kennt es ja. Hier so und drüben so. ;)

mironicus
2020-06-04, 12:55:33
RDNA zu RDNA2 wird wohl vergleichbar sein wie Zen 1 zu Zen 2. Und NVidia guckt dumm aus der Wäsche, weil sie die Effizienzkrone verlieren. Geht mal davon aus das RDNA2 bei ähnlichen Stromverbrauch mit Ampere gleichzieht, oder sogar ein wenig besser sein wird. :D :D

BlacKi
2020-06-04, 13:09:10
Die XSX und PS5 geben ja schon kleinere Hints dazu. 2,23 GHz in der PS5 in einem Produkt, was in sehr hohen Mengen hergestellt wird und auch überall so laufen muss.
56 CUs und 8 CPU Cores in einem so kleinen SoCs und einem überschaubaren thermal envelope.
die ps5 hat 32 CU.

ich muss dazu nur an die angaben für rdna2 denken (advanced clock and voltage control), und aber auch an das taktverhalten von zen2. wenn ich da richtig liege sind die 2,23ghz recht schnell und einfach erklärt. siehe reales boostverhalten von dem 3950x und der angabe von 4,7ghz. demnach könnte n21 kurzzeitig 2,23 boosten und aber eine dauerhafte gameclock von 1,8ghz und darunter haben.

ich würde mich da von amd nicht verarschen lassen.




Vieles ist möglich. AMD scheint in den letzten Jahren viel überraschendes geschafft zu haben und machte einen Turnaround. Erst fokussierte man sich auf CPUs und nun eben auf GPUs.
Dank Zen hat man auch mehr Budget.
wenn jemand sagt, es besteht die möglichkeit das amd mit rdna2 einen schalter gefunden hätte mit dem nun gleichzeitig man an bandbreite sparen könnte und pro CU weniger strom verbraucht, dann wiederspreche ich ihm da nicht. theoretisch möglich. wahrscheinlich nein. ich brauche doch eine vernünftige basis um hochrechnungen zu machen, ich kann doch nicht mit luftschlössern als basis anfangen zu rechnen.

RDNA zu RDNA2 wird wohl vergleichbar sein wie Zen 1 zu Zen 2. Und NVidia guckt dumm aus der Wäsche, weil sie die Effizienzkrone verlieren. Geht mal davon aus das RDNA2 bei ähnlichen Stromverbrauch mit Ampere gleichzieht, oder sogar ein wenig besser sein wird. :D :D
eben nicht. zen1 zu zen2 war 14nm glofo vs 7nm tsmc. das findet mit rdna1 vs 2 nicht statt.

Mythos;12327506']Deine Glaskugel möchte ich echt mal haben, du hast keine Ahnung wie gut RDNA2 geworden ist und haust hier mit Zahlen mit so absoluter Sicherheit raus. Du weißt nicht wieviel effizienter RDNA2 ggü RDNA geworden ist, du weißt nicht wie hoch RDNA2 taktet, du weißt nicht wieviele CUs Navi21 bekommt und du weißt nicht wie die Speicherbandbreite ausfallen wird.
nö, nicht absoluter sicherheit, wird hier aber scheinbar so aufgefasst. wir rechnen hier wahrscheinlichkeiten anhand von vorgaben aus und argumentieren darüber. dann kommt ein fremder in die diskussion (du) und gehst auf den los, der "tiefstapelt". auf diejenigen die auch keine ahnung haben was am ende wirklich raus kommt, dem sagst du natürlich nichts XD aha


An Träumereien von >2x N10 Performance glaube ich zwar auch nicht, aber das Optimierungspotenzial ist enorm. Ich kann nur immer wieder an die Packdichte erinnern. Der Sprung von N10 zu Renoir war so groß wie der von V10 zu N10. Man sollte imho auch bei der Architektur nicht den Fehler machen einfach die CU-Zahlen und GB/s zu nehmen und dann linear hochzuskalieren. Ich erwarte, dass sich die CUs von RDNA2 anders verhalten, so wie Turing nicht einfach ein aufgeblasener Pascal mit drangeflanschten RT-Cores war und so wie auch Ampere nicht einfach ein aufgeblasener Turing sein wird. Für mich ist RDNA1 einfach ein "Abfallprodukt" der eigentlich Architektur-Entwicklung. So wie man das im Nachhinein auch von Zen1 und den zugehörigen TR und Epyc-Modellen mit ihren non-uniformen Speicher sagen kann. Im Vergleich zu Zen2 natürlich.
ich sehe leider keine anzeichen meiner performance prognose widersprechen. ich sehe es als realistisch an, aber vl zieht amd ja was aus ihrem hut von dem keiner was weiß. aber ich kann mit so einer vermutung doch nicht hausieren gehen. so baut man nur später de railende hypetrains auf.

es gibt erklärungen für die hohen takte der ps5, es gibt erklärungen wie man rdna1 auf 50%perf/w bringen kann, ohne das rdna2 massive verbesserungen erfährt. warum traumschlösser bauen obwohl es keine basis dafür gibt.

Dino-Fossil
2020-06-04, 13:23:09
So viele kann AMD vermutlich von den Chips gar nicht prozessieren, dass man sich da groß auf einen Preiskampf einlassen kann.
Sieht man ja auch bei den Navi 1x Chips, die sind auch noch recht hoch im Preis angesiedelt.

AMD scheint aktuell bei TSMC ein guter Kunde zu sein, der Prozess ist auch nicht mehr brandneu & grundlegende Qualiätsprobleme sind nicht bekannt (eher im Gegenteil).
Ich denke daher, die Volumenproduktion sollte daher kein zu großes Problem sein.
Dass die Navi1x Karten nicht viel günstiger geworden sind, dürfte andere Gründe haben - nicht zuletzt, dass man wohl momentan ganz froh ist, dass das Preisgefüge etwas höher ist und man höhere Margen hat.

robbitop
2020-06-04, 13:25:20
die ps5 hat 32 CU.
Die PS5 hat 36 CUs. Die 56 CUs (bzw 52 aktive) sind für die XSX gemeint.

ich muss dazu nur an die angaben für rdna2 denken (advanced clock and voltage control), und aber auch an das taktverhalten von zen2. wenn ich da richtig liege sind die 2,23ghz recht schnell und einfach erklärt. siehe reales boostverhalten von dem 3950x und der angabe von 4,7ghz. demnach könnte n21 kurzzeitig 2,23 boosten und aber eine dauerhafte gameclock von 1,8ghz und darunter haben.

ich würde mich da von amd nicht verarschen lassen.

Abwarten. So kann der Boost auf HW nicht funktionieren, bei der die Performance immer reproduzierbar sein soll. Außerdem sind CPUs keine GPUs.



wenn jemand sagt, es besteht die möglichkeit das amd mit rdna2 einen schalter gefunden hätte mit dem nun gleichzeitig man an bandbreite sparen könnte und pro CU weniger strom verbraucht, dann wiederspreche ich ihm da nicht. theoretisch möglich. wahrscheinlich nein. ich brauche doch eine vernünftige basis um hochrechnungen zu machen, ich kann doch nicht mit luftschlössern als basis anfangen zu rechnen.
Deshalb ist die Bandbreite von ...bis... sehr hoch. Aber ein Schalter ist das natürlich nicht. Dafür muss man die uArch schon mächtig umarbeiten. Die Bandbreiteneffizienz und "IPC" war bei N10 schon nicht so schlecht. Auch die Taktraten nicht. In der Hauptsache wird IMO etwas in Bezug auf Energieeffizienz etwas passieren. Und das geht insbesondere in Bezug auf Datenlokalität. Datentransfers und -zugriffe machen bei modernen GPUs einen Großteil der Leistungsaufnahme aus. Da kann man mit Caches schon einiges machen. Und auch auf Transistorebene die Charakteristik der Schaltvorgänge optimieren. Und genau letzteres wurde ja auch schon mehrfach beschrieben von AMD. Und immerhin hat man sich zu +50% Energieeffizienz committed.

Ganz abwegig finde ich das nicht. 52 aktive CUs in einem relativ überschaubaren Powerenvelope bei der XSX sind zumindest ein gutes Indiz. Zumal bei Konsolen die Betriebspunkte in der Regel miserabel sind, weil möglichst jedes Stück Silizium ohne Binning in jeder Konsole überall auf der Welt laufen muss.

unl34shed
2020-06-04, 13:27:46
ich muss dazu nur an die angaben für rdna2 denken (advanced clock and voltage control), und aber auch an das taktverhalten von zen2. wenn ich da richtig liege sind die 2,23ghz recht schnell und einfach erklärt. siehe reales boostverhalten von dem 3950x und der angabe von 4,7ghz. demnach könnte n21 kurzzeitig 2,23 boosten und aber eine dauerhafte gameclock von 1,8ghz und darunter haben.


Die PS5 hat bei 36CUs 2.23GHz, die angabe sollte sich aus der Erklärung mit der GameClock vergleichen lassen.

Die XSX hat bei 52CUs 1.8GHz was vergleichbar mit der BaseClock sein sollte.

Einen richtigen Boost wie in GPUs gibt es nicht, da es sich um eine Konsole handelt.

Wenn man von diesen Zahlen ausgeht, hat man verlgichen mit RDNA1 (5700XT) 1605MHz -> 1800MHz (+12%) BaseClock bzw. 1755MHz -> 2230MHz (+27%) GameClock. Selbst wenn man die 2,23GHz als Boost ansieht ist das noch immer 17% mehr als bei der RDNA1.

Auf Grund der 80CUs kann der Takt von N21 niedriger ausfallen, da gehe ich mit, aber wie man auf die Idee kommt, das Taktverhalten einer CPU mit einer GPU zu vergleichen erschließt sich mir nicht.

Nightspider
2020-06-04, 13:39:29
Zumal die Konsolen, wie robbitop schon sagte, nicht am Limit fahren dürfen.

Die müssen schließlich auch stabil im heißen Sommer laufen.

amdfanuwe
2020-06-04, 13:46:34
Die müssen schließlich auch stabil im heißen Sommer laufen.
GPUs nicht?

BlacKi
2020-06-04, 13:48:00
Einen richtigen Boost wie in GPUs gibt es nicht, da es sich um eine Konsole handelt.
kannst du mir erklären, warum das nicht von nutzen sein soll? wird doch in notebooks doch auch schon gemacht. damit kann man in powerlimitierten umgebungen extra power rausholen. dort teilen sich auch cpu und gpu ein powertarget, IMHO wird das auch in den konsolen kommen.

unl34shed
2020-06-04, 13:49:01
Doch, die GPUs takten sich dann aber runter und müssen nicht einen gewissen Takt in jeder Lebenslage garantieren. Die Konsolen müssen einen reproduzierbaren Takt haben.

E:
@Blacki: Du vergleichst Äpfel mit Birnen, wie oben geschrieben, Konsolen müssen eine reproduzierbaren Performance liefern und das geht mit einem klassischen Boost, der kurzzeitig die TDP überschreitet und Clocks die sich nach der Temperatur richten einfach nicht.

fondness
2020-06-04, 13:51:01
Sind es noch sogar 2,27Ghz? Wenn das eine Konsole schafft, wo man hohe Yields braucht, es kein Modell gibt wo man die schwachen Chips Restverwerte kann, etc. dann sollten die Desktop-GPUs da allemal darüber liegen. Da scheint Suzanne Plummer und ihr Team ganze Arbeit geleistet zu haben.

Der_Korken
2020-06-04, 13:52:37
RDNA zu RDNA2 wird wohl vergleichbar sein wie Zen 1 zu Zen 2. Und NVidia guckt dumm aus der Wäsche, weil sie die Effizienzkrone verlieren. Geht mal davon aus das RDNA2 bei ähnlichen Stromverbrauch mit Ampere gleichzieht, oder sogar ein wenig besser sein wird. :D :D

Nur wenn Ampere wirklich im 8nm Sparprozess kommt. Bei Waffengleichheit ist der Rückstand zu Nvidia imho zu groß, um ihn in einer Gen aufzuholen. Zen2 hatte ja, wie BlacKi schon sagte noch den Vorteil vom Gammel-Glofo-14nm auf TSMC 7nm zu wechseln. Zwar sehe ich auch auf Fertigungsebene noch viel Luft nach oben, dadurch dass AMD mehr Erfahrung gesammelt hat und diesmal genug Zeit hatte gut auf 7nm zu optimieren, aber so viel Luft dann auch wieder nicht.

siehe reales boostverhalten von dem 3950x und der angabe von 4,7ghz. demnach könnte n21 kurzzeitig 2,23 boosten und aber eine dauerhafte gameclock von 1,8ghz und darunter haben.

[...]

es gibt erklärungen für die hohen takte der ps5, es gibt erklärungen wie man rdna1 auf 50%perf/w bringen kann, ohne das rdna2 massive verbesserungen erfährt. warum traumschlösser bauen obwohl es keine basis dafür gibt.

Solche Takteinbrüche wird es auf einer Konsole nicht geben dürfen, weil das die fps komplett killt. Die Entwickler müssten also bei einem 60fps-Game eigentlich auf 75fps optimieren, wenn der GPU-Takt jederzeit mal um satte 20% einbrechen dürfte. Dann kann man die GPU aber gleich niedrig takten und die Hitze sparen.

Deshalb ist die Bandbreite von ...bis... sehr hoch. Aber ein Schalter ist das natürlich nicht. Dafür muss man die uArch schon mächtig umarbeiten.

Ich denke auch, dass da was kommen wird. Mit jedem neuen Fertigungsnode wird das Problem der externen Bandbreite schlimmer, weil die Interfaces groß und stromhungrig bleiben. Das wird AMD sicher nicht erst gestern erkannt haben. Ich tippe auf eine massive Aufstockung des Caches. Mit RDNA1 hat man eine weitere Cache-Stufe eingeführt, die sich jeweils 10 CUs teilen. Statt wie bei Nvidia auf 96 oder 128kB L1 Cache in den CUs zu setzen, könnte dieser gesharte L2 (der bei AMD komischerweise trotzdem L1 heißt) z.B. auf 512 oder 1024kB aufgestockt werden, um viele Daten lokal zu halten. Der L3 könnte auf 16MB wachsen, damit er 2x bzw. 4x so groß wie alle L2s zusammen ist. Nvidia hat den LLC bei GA100 gegenüber GV100 sicher nicht zum Spaß mal eben versiebenfacht.

BlacKi
2020-06-04, 13:53:43
Doch, die takten sich dann aber runter und müssen nicht einen gewissen Takt in jeder Lebenslage garantieren. Die Konsolen müssen einen reproduzierbaren Takt haben.
ich bezweifle nicht das n21 nicht 2,2ghz packt, ich glaube nur nicht, das der takt durch das PT gehalten werden kann.

Konsolen müssen eine reproduzierbaren Performance liefern und das geht mit einem klassischen Boost, der kurzzeitig die TDP überschreitet und Clocks die sich nach der Temperatur richten einfach nicht.
einen gpu boost wie im notebook schließt das aber nicht aus.

@Locuza

hast du informantionen die du teilen kannst, bzgl. der angabe "Advanced Clock & Voltage Control" für RDNA2 auf deiner folie?

amdfanuwe
2020-06-04, 13:55:44
Ich denke daher, die Volumenproduktion sollte daher kein zu großes Problem sein.

Das Problem ist eher die richtigen Mengen zu bestellen.
Wenn der Bedarf unterschätzt wird, dauert es halt 3 - 6 Monate bis TSMC weitere Wafer zur Verfügung stellt.
Von daher kann ich mir schon vorstellen, dass AMD mit Konsolen, ZEN3 Server, APUs und GPUs auf N6 geht. Dann können sie bei Bedarf zwischen den Produkten switchen.

unl34shed
2020-06-04, 14:12:08
einen gpu boost wie im notebook schließt das aber nicht aus.


Meinst du damit Smartshift? Vielleicht solltest du dir die PS5 Präsentation noch mal anschauen :wink:

Unter einem Boost versteht man aber eher das kurzzeitige überschreiten der TDP, solange es die Kühlung/Temperatur zulässt. Und das wird es in den Konsolen wie gesagt nicht geben, da nicht reproduzierbar.

Aktuell unterscheiden sich die Konsolen, dass die PS5 mit einem Auslastungslimitierten Takt von bis zu 2,23GHz läuft und die XSX mit einem fixen Takt von 1.8GHz.

rentex
2020-06-04, 14:58:34
Nun, eine Reaktion von NV auf Big Navi wird nicht ausbleiben...kann natürlich auch ein flapsiger Twitter Post von Jensen sein ;-)

mironicus
2020-06-04, 15:05:20
Nun, eine Reaktion von NV auf Big Navi wird nicht ausbleiben...kann natürlich auch ein flapsiger Twitter Post von Jensen sein ;-)

Er gratuliert seiner Nichte Lisa Su zum hervorragenden Zen 3 und Big Navi-Start. Für NVidia ist AMD demnächst die erste Wahl als CPU-Hersteller, da sie als einzige auch PCIe 4.0 unterstützen. :freak:

Berniyh
2020-06-04, 15:15:44
AMD scheint aktuell bei TSMC ein guter Kunde zu sein, der Prozess ist auch nicht mehr brandneu & grundlegende Qualiätsprobleme sind nicht bekannt (eher im Gegenteil).
Ich denke daher, die Volumenproduktion sollte daher kein zu großes Problem sein.
Dass die Navi1x Karten nicht viel günstiger geworden sind, dürfte andere Gründe haben - nicht zuletzt, dass man wohl momentan ganz froh ist, dass das Preisgefüge etwas höher ist und man höhere Margen hat.
Gerade Big Navi wird aber ordentlich Wafer fressen bei 505 mm² (so denn die Angabe stimmt).
Insofern gehe ich schon davon aus, dass man eine gewisse Limitierung bei der Anzahl Chips hat die man fertigen kann.

In jedem Fall sehe ich (zusammen mit dem zweiten Punkt den du angemerkt hast) nicht wirklich einen Preiskrieg zwischen Nvidia und AMD aufkommen.
Damit könnte AMD zwar durchaus Marktanteil gewinnen, aber man schadet sich letztendlich eher selbst, da man die geringere Marge an anderer Stelle wieder raus holen muss (und beim Produktionsvolumen kann man definitiv nicht beliebig hoch gehen).

w0mbat
2020-06-04, 15:29:29
Ich freu mich auf jeden Fall schon, wobei die Frage natürlich ist ob ich bei 2560x1080 mehr als eine 5700 XT wirklich brauche.

JVC
2020-06-04, 15:29:40
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Big-Navi-Neue-Radeons-mit-RDNA-2-kommen-vor-den-Konsolen-1351508/ (04.06.2020)
"AMDs CFO hat bestätigt, dass die neuen Radeons auf Basis von RDNA 2
noch vor den neuen Konsolen kommen werden."

M.f.G. JVC

Locuza
2020-06-04, 16:04:06
wenn man aber sofort Navi21=Sienna_CICHLID sagen kann, ist der Plan übelst schief gegangen. Darum wäre ich vorsichtig. Vielleicht ist das ein erster Platzhalter für mehrere Varianten, so wie Raven2 auch noch ausdifferenziert wurde (Dali,Pollock).
[...]
Hier dürfte es sich aber wohl kaum um Big Navi handeln, wäre neu und seltsam, wenn AMD hierfür plötzlich spezielle Codenamen verwenden würde, das macht man ja im restlichen Code auch nicht.
Wahrscheinlicher ist, dass es sich um irgendeine APU oder ein Custom Design o.ä. handelt.
[...]
Das mag ja sein, aber das macht einfach keinen Sinn für Chips die schon offensichtlich als Navi2x im Code referenziert werden.
Mehrere Navi ID ASICs wurden letztes Jahr bei einem Patch zu DCN2 inkludiert:
https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg34565.html

Ansonsten gibt es aber keine Chip Definitionen für Navi10 Lite, Navi21, etc. im Treiber aktuellem Code.
Sienna Cichlid dagegen hat jetzt eine ganze Patchreihe bekommen, damit die Hardware läuft.
Erneut gab es die ASIC ID bei einem Display Patch zu sehen, die eben die gleiche ist wie bei Navi21 zuvor:
https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-sienna_cichlid&id=78bf51a14ba1c1f4ffd8e04b31f3898720ab078b

Es steht AMD frei die Chips im Code zu differenzieren wie sie wollen, z.B. gab es anfangs auch Picasso als ASIC type den man aber entfernt hat:
https://lists.freedesktop.org/archives/amd-gfx/2018-September/026759.html

AMD scheint auf der Linux-Seite allerdings eher weniger gesonderte ASIC bzw. GFX IDs zu verwenden.
So teilt sich sich Raven Ridge mit FireFlight the gleiche GFX ID 902 oder Raven2 und Renoir die selbe mit GFX909.
http://komachizaregoto.blogspot.com/2019/08/amd-gfx-id-which-generation-is-chip.html

Ich denke man hat bei Sienna Cichlid nicht leckfrei gearbeitet bzw. man darf ja keine Hinweise über viele Monate bis Jahre streuen.
ASICs types mit ihrem Kennzeichen letztes Jahr einzufügen war vermutlich ein Fehler.
An sich sprechen viele Dinge für Big Navi bzw. Navi21 unter dem Codenamen Sienna Cichlid.
Selbe ASIC ID und GFX Core IP 10.3 wird im Treiber ausgewiesen, dass passt auch zur GFX-ID 1030 [Major.Minor] und der Chip unterstützt GDDR6 und vier SDMA-Engines.
GDDR6 macht eher deutlich, dass es keine APU ist, außer es ist ein Custom-Design und welches Custom-Design könnte anstehen, wo der Kunde jetzt bring-up patches für Linux-Support haben möchte?
Und naja, Alex Deucher von AMD hat die Commits so eingeführt:
Sienna Cichlid is a GPU from AMD. This patch set adds support for it
including power management, display, kfd, interrupts, gfx, multi-media,
etc. [...]
Mit vier SDMA-Engines scheint man viele Daten von und zu der GPU schieben zu wollen, ich denke das wäre nur bei einer sehr breiten GPU nötig bzw. von Vorteil.
Am Horizont steht aktuell nur Big Navi an, für den würden sich jetzt bring-up Patches anbieten.

Es wurde vor einiger Zeit im Phoronix Forum von AMDs Kernentwicklern gesagt, dass zukünftig andere Namen als die offiz. Produkt-Namen verwendet werden.

Quelle: https://www.phoronix.com/scan.php?page=news_item&px=AMD-Radeon-Arcturus
Hinzufügend hat Bridgman von AMD das gesagt:
We are picking randomly within a category (bright stars) so that the name doesn't convey too much information about the product.

Before Polaris/Vega the internal code names were unrelated to the eventual marketing names - we're trying to get back to that for open source driver code to make pre-launch upstreaming easier.
https://www.phoronix.com/forums/forum/linux-graphics-x-org-drivers/open-source-amd-linux/1050217-amd-arcturus-might-be-the-codename-succeeding-navi?p=1050253#post1050253

Bei Sienna Cichlid hat scheinbar einfach ein script für den Namen zufällig herausgespuckt:
We used a script.
https://www.phoronix.com/forums/forum/linux-graphics-x-org-drivers/open-source-amd-linux/1183496-amd-radeon-linux-driver-sees-patches-for-new-sienna-cichlid-gpu?p=1183551#post1183551

[...]
@Locuza

hast du informantionen die du teilen kannst, bzgl. der angabe "Advanced Clock % Voltage Control" für RDNA2 auf deiner folie?
https://abload.de/img/sienna-minisekpo.jpg

Nicht wirklich mehr, als ich auf der Folie notiert habe.
Anstatt 36 AVFS Module, wie bei Navi10, gibt es 67.
Ein Excavator Modul hatte z.B. 10.
Sagen wir vereinfacht jeder WGP hat ein AVFS Modul, dann hätte man bei einer doppelt so breiten GPU schon alleine deswegen deutlich mehr AVFS-Module, welche die Frequenz und Spannung beobachten und steuern.
Man könnte auch eine schmale GPU mit mehr AVFS zukleistern, ich denke aber das ist hauptsächlich ein Fingerzeig Richtung größere GPU.
GPO bzw. Graphics Power Optimizer scheint neu zu sein, ich habe keine GPO bits bei den Navi10-Einträgen gefunden.
Ebenso habe ich keine on/off bits zu dynamic power managanement beim Fabric Clock bei Navi10 gefunden, aber bei Vega20 und Arcturus
Ehrlich gesagt bin ich da aber auch nicht sehr präzise voran gegangen bzw. das ist ja ein Irrgarten für einen Laien.
Bei xGMI-Support bin ich mir auch nicht völlig sicher, aber es gab beim PowerPlay-Table Einträge dazu, die bei Navi10 gefehlt haben, aber bei Vega20 auch zu finden sind.
Aber setXGMI gibt es nur bei Vega20 und Arcturus.

Korvaun
2020-06-04, 16:30:27
Gerade Big Navi wird aber ordentlich Wafer fressen bei 505 mm² (so denn die Angabe stimmt).
Insofern gehe ich schon davon aus, dass man eine gewisse Limitierung bei der Anzahl Chips hat die man fertigen kann.


Sicher, aber BigNavi ist auch kein absolutes Massenprodukt wie die Konsolenchips, ZEN Chiplets o.ä.

So viele werden sie davon nicht verkaufen, da sollten doch genug Wafer bei TSMC für "übrig" sein...

pilzsammler2002
2020-06-04, 17:01:24
Bezüglich der Boost-Rate der PS5 und Xbox...
Das könnte von AMD doch recht "einfach" über Smart-shift gelöst werden.

Complicated
2020-06-04, 17:15:36
Die Frage ist nicht wieviele Big-Navi Dies benötigt werden, sondern viel mehr, wieviele Zen-Chiplets aus dem selben Wafer hätten hergestellt werden können. AMD kann derzeit die Nachfrage bei Servern nicht vollständig bedienen, wie bei der Analysten Präsentation kürzlich gesagt wurde von Devinder Kumar.

sChRaNzA
2020-06-04, 17:28:44
..wobei die Frage natürlich ist ob ich bei 2560x1080 mehr als eine 5700 XT wirklich brauche...

An diesem Punkt würde ich gern mal eine Frage stellen.

Ich höre ständig, dass eine 2080Ti für FullHD viel zu übertrieben wäre.

Aber:

Ist eine 2080Ti nicht auch für FullHD als recht ''zukunftssicher'' zu betrachten, da die Karte für Spiele in dieser Auflösung viel Puffer hat? Oder hab ich da irgendwo einen Denkfehler, bzw warum wird so eine Karte dafür nicht empfohlen?

w0mbat
2020-06-04, 17:38:45
Klar, aber zu dem Zeitpunkt wo sie dann in der Auflösung Sinn macht gibt es deutlich bessere Optionen.

maximus_hertus
2020-06-04, 17:54:35
An diesem Punkt würde ich gern mal eine Frage stellen.

Ich höre ständig, dass eine 2080Ti für FullHD viel zu übertrieben wäre.

Aber:

Ist eine 2080Ti nicht auch für FullHD als recht ''zukunftssicher'' zu betrachten, da die Karte für Spiele in dieser Auflösung viel Puffer hat? Oder hab ich da irgendwo einen Denkfehler, bzw warum wird so eine Karte dafür nicht empfohlen?

2080 Ti aktuell ca. 1200 Euro.

5700XT / 2060 Super - ca. 350 - 400 Euro


Sobald eine 5700 XT / 2060 Super für FHD nicht mehr reichen, gibt es NAchfolgerkarten für 300-400 Euro (also komplett 650-800 Euro, immer noch deutlich günstiger als die 2080 Ti). ODer eine KArte im Bereich von 500 Euro, die in allen Belangen schneller / besser als die 2080 Ti sein wird.


Der einzige Vorteil der 2080 Ti: man muss den Rechner nicht aufschrauben.


Wobei jeder das kaufen soll, was er meint zu brauchen :) Aber eine 2080 Ti für FHD ist irgendwie "falsch" ;)

dargo
2020-06-04, 18:08:52
Aber eine 2080 Ti für FHD ist irgendwie "falsch" ;)
Och... mit RTX ON sicherlich nicht. ;)

sChRaNzA
2020-06-04, 18:15:11
2080 Ti aktuell ca. 1200 Euro.

5700XT / 2060 Super - ca. 350 - 400 Euro


Sobald eine 5700 XT / 2060 Super für FHD nicht mehr reichen, gibt es NAchfolgerkarten für 300-400 Euro (also komplett 650-800 Euro, immer noch deutlich günstiger als die 2080 Ti). ODer eine KArte im Bereich von 500 Euro, die in allen Belangen schneller / besser als die 2080 Ti sein wird.


Der einzige Vorteil der 2080 Ti: man muss den Rechner nicht aufschrauben.


Wobei jeder das kaufen soll, was er meint zu brauchen :) Aber eine 2080 Ti für FHD ist irgendwie "falsch" ;)

Ok, soweit alles klar und ''es mag ja sein''.

Aber auch hier ein:


Der einzige Vorteil der 2080 Ti: man muss den Rechner nicht aufschrauben.


Die Speicherkapazität?

Ich kann auch ohne 4k-Monitor den Speicher brauchen.


Sorry, mir ist klar das es hier grad bissl Off-Topic ist. Passte nur gerade rein die Frage.

Och... mit RTX ON sicherlich nicht. ;)

Das kommt ja noch dazu, ja.

maximus_hertus
2020-06-04, 18:19:52
Die Speicherkapazität?

Ich kann auch ohne 4k-Monitor den Speicher brauchen.


Gehen wir mal etwas zurück:

GTX 980 Ti 6 GB = damals schnellste Karte
GTX 970 4GB (lassen wir das mit der Aufteilung beiseite) = Vernunftskarte für FHD

Später konnte man sich eine 1070 8GB kaufen (970 = ca. 300 Euro, 1070 ca 400 Euro, 980 Ti lag bei über 700 Euro). Die 1070 hatte mehr VRAM, mehr Bumms, eine deutlich bessere Effizienz, viel weniger Hitze, mehr Features. (+ 970 verkaufen, man kam also billiger raus und hatte deutlich mehr drin)

Ich kann mir noch nicht so richtig vorstellen, dass wir auch in 2021 quasi nur mit 8GB Karten rein gehen.

Gerade bei Big Navi hoffe ich auf 12 oder 16GB, damit dann auch nV nachziehen muss.

dargo
2020-06-04, 18:25:26
Das kommt ja noch dazu, ja.
Ich meinte damit nur, dass die Karte dann nicht mehr "zu schnell" für 1080p ist. :wink: Mit RTX off ist es reine Geldverschwendung. Außer vielleicht jemand möchte nie unter 144fps kommen oder demjenigen Geld für Ware X eh sche... egal ist.


Die Speicherkapazität?

Ich kann auch ohne 4k-Monitor den Speicher brauchen.

Dann muss ich wohl wieder die falschen Games spielen. Denn ich brauche nirgendwo mehr als 8GB Speicher und ich spiele in 1440p. Aber gut... es soll Gamer geben die meinen sie brauchen 32GB Arbeitsspeicher. :freak:

btw.
Für Vram-Geile gibts das noch hier. :tongue:
https://geizhals.de/xfx-radeon-vii-rx-vegma3fd6-a1975592.html?hloc=at&hloc=de

Dagegen sieht die 2080TI richtig arm aus.

Complicated
2020-06-04, 18:29:08
Ich glaube einfach man muss sich von den Vergleichen befreien. Es sind wesentlich mehr neue Technologien vorhanden heute (Streaming), welche das kompensieren sollen. Die Hersteller wollen den VRAM-Anstieg schließlich eher nicht wenn es technisch anders gelöst werden kann. Und wenn eine Technologie wie HBCC+PCIe4 in Spielen das nachladen schnell genug macht, damit der VRAM nicht wachsen muss, dann hat dieser Hersteller auch einen gravierenden Kostenvorteil. Nur wird das wohl nur funktionieren, wenn in Tests ohne wenn und aber mit mehr VRAM mitgehalten werden kann (Also 8GB+HBCC=12/16GB). Es ist unklar ob AMD das schon so weit bieten kann/will. Doch das Ziel der Entwicklung geht schon in die Richtung dieses VRAM-race zu beenden, zumindest im Consumer-Segment.

Klar, wie das Marketing das alte Denken (mehr VRAM ist immer besser) reduzieren kann, werden wohl die Konsolen zeigen. Ob dort schon klar sichtbar RAM eingespart werden konnte, wird sich zeigen.

sChRaNzA
2020-06-04, 18:31:13
Gehen wir mal etwas zurück:

GTX 980 Ti 6 GB = damals schnellste Karte
GTX 970 4GB (lassen wir das mit der Aufteilung beiseite) = Vernunftskarte für FHD

Später konnte man sich eine 1070 8GB kaufen (970 = ca. 300 Euro, 1070 ca 400 Euro, 980 Ti lag bei über 700 Euro). Die 1070 hatte mehr VRAM, mehr Bumms, eine deutlich bessere Effizienz, viel weniger Hitze, mehr Features. (+ 970 verkaufen, man kam also billiger raus und hatte deutlich mehr drin)

Ich kann mir noch nicht so richtig vorstellen, dass wir auch in 2021 quasi nur mit 8GB Karten rein gehen.

Gerade bei Big Navi hoffe ich auf 12 oder 16GB, damit dann auch nV nachziehen muss.

Ja ok, das macht Sinn. Leider war Pascal schon recht gut, Turing (im Vergleich - trotz RT) leider nicht wirklich. Nicht umsonst haben viele 1080Ti Besitzer damals Einiges richtig gemacht.

Danke schon mal an alle für den Versuch meinen Knoten im Kopf zu entwirren. ;)

Dann muss ich wohl wieder die falschen Games spielen. Denn ich brauche nirgendwo mehr als 8GB Speicher und ich spiele in 1440p. Aber gut... es soll Gamer geben die meinen sie brauchen 32GB Arbeitsspeicher. :freak:

Vielleicht nicht die Frage der Spiele, sondern der Mods.

basix
2020-06-04, 23:29:14
Bei xGMI-Support bin ich mir auch nicht völlig sicher, aber es gab beim PowerPlay-Table Einträge dazu, die bei Navi10 gefehlt haben, aber bei Vega20 auch zu finden sind.
Aber setXGMI gibt es nur bei Vega20 und Arcturus.

Dual GFX Pipe, Dual VCN und xGMI? Dual-Chip! ;D

Wieso hat das Ding 2x VCN? Macht das irgendeinen Sinn?

aufkrawall
2020-06-04, 23:41:59
Für Consumer sicherlich nicht.

Locuza
2020-06-05, 00:55:51
Dual GFX Pipe, Dual VCN und xGMI? Dual-Chip! ;D

Wieso hat das Ding 2x VCN? Macht das irgendeinen Sinn?
Die Dual GFX Pipe ist aber wirklich nur ein Hardwareblock bzw. der Graphics Command Processor unterstützt jetzt zwei 3D Pipes, statt einer.
Bzw. es ist noch etwas verzwickter.
Seit GCN2 hat der Graphics Command Processor eigentlich zwei Pipes.
Die eine beherrscht klassisch Draw (3D) und Dispatch (Compute) Befehle, die andere ist Draw (3D) only.

Bei Navi gibt es z.B. folgende Kommentare:
* Navi10 has two graphic rings to share each graphic pipe.
* 1. Primary ring
* 2. Async ring
currently, amdgpu will owns the first gfx queue of each pipe
they are:
me:0 pipe:0 queue:0
me:0 pipe:1 queue:0
Navi10 has 2 gfx pipe and need to enable gfx eop interrupt
per pipe, instead of enable eop int for all gfx pipes at one
time.

Aber an anderer Stelle wird bei Navi10,12 und 14 klar geschrieben, dass es eine ME (Micro Engine) mit einer Queue gibt:
case CHIP_NAVI10:
case CHIP_NAVI14:
case CHIP_NAVI12:
adev->gfx.me.num_me = 1;
adev->gfx.me.num_pipe_per_me = 1;
adev->gfx.me.num_queue_per_pipe = 1;
adev->gfx.mec.num_mec = 2;
adev->gfx.mec.num_pipe_per_mec = 4;
adev->gfx.mec.num_queue_per_pipe = 8;
break;

Während bei Sienna Cichlid folgendes steht:
The number of queue per pipe for mec on sienna_cichlid should be 4

+ case CHIP_SIENNA_CICHLID:
+ adev->gfx.me.num_me = 1;
+ adev->gfx.me.num_pipe_per_me = 2;
+ adev->gfx.me.num_queue_per_pipe = 1;
+ adev->gfx.mec.num_mec = 2;
+ adev->gfx.mec.num_pipe_per_mec = 4;
+ adev->gfx.mec.num_queue_per_pipe = 4;

An anderer Stelle stand auch für Navi1X wird nur eine 3D Queue unterstützt und Sienna Cichlid zwei.
Bzw. die aktuellsten Patches haben die zweite 3D queue vorerst deaktiviert und es steht wie bei den restlichen Navis nur eine 3D-Queue.

Ich interpretiere das Ganze jetzt einfach so, dass Sienna Cichlid zwei gleichwertige 3D Pipes hat.


Bezüglich den VCN-Instanzen.
Carrizo hatte zwei mal die selbe VCE-Hardware (Encoder).
Sienna Cichlid hat zwei asymmetrische Instanzen, wo nicht spezifiziert wurde, welche Formate, neben JPEG decode, fehlen.
Aktuell wird Decoding auch nur auf der ersten Instanz ausgeführt und Encoding auf der zweiten.
Soweit ist noch nicht ganz klar, wieso die HW zwei VCN-Blöcke besitzt.

Rampage 2
2020-06-05, 01:47:31
Wenn Big Navi mit 80 CUs kommt (oder teildeaktiviert mit 76 CUs), dann sollte 384bit bei 16 GT/s doch reichen. 768 / 448 = 1.71 und (2100 MHz * 76 CU) / (1825 MHz * 52 CU) = 1.68. Die Zahlen sind einfach mal dahingewürfelt aber man sieht, dass es im selben Ballpark wäre.


Simple Milchmädchenrechnung:

80 CUs = 2x N10 = 2x 448GB/sek. = 896GB/sek.

384Bit @ 16GT/sek. = 768GB/sek.

896/768 = 1,1666

AMD müsste also die Bandbreiteneffizienz um 16,6% erhöhen, um auch mit nur 16GT @ 384Bit die doppelte Menge an CUs füttern zu können.

Die Frage an dieser Stelle ist: Ist die BB-Effizienz von Navi10 genauso gut wie bei Turing?

R2

BlacKi
2020-06-05, 02:06:37
kommt mal von dem wort "reichen" etwas weg. wer sagt das man 80cu nicht mager an 384bit laufen lassen kann? natürlich geht das, nur darf man nicht den fehler machen aus 40cu 80cu ableiten zukönnen. es fehlen eben eine gewisse menge an prozent.

das hat mit dargo schon mit seiner antwort gereicht, als er geschrieben hat, ob ich glaube das die 2080ti im banbreiten limit läuft. ja, sie läuft mager, aber nicht limitiert. das ist eine schwimmende grenze. macht aber auch einige prozente gut bei der perf/watt. genauso sehe ich das bei n21. imho war das auch nv stärke bei maxwell vs hawaii. wenig speicherbandbreite an viel rechenleistung. das kostet halt ein paar mm² auf kosten der chipfläche, das kann man machen wenn man sich das leisten kann.

Berniyh
2020-06-05, 07:20:22
bzgl. VCN: Leider scheint auch Sienne Cichlid kein AV1 zu unterstützen. Hatte gehofft, dass sich das mit der nächsten Generation ändern würde. :(

Palpatin
2020-06-05, 09:51:44
Ja ok, das macht Sinn. Leider war Pascal schon recht gut, Turing (im Vergleich - trotz RT) leider nicht wirklich. Nicht umsonst haben viele 1080Ti Besitzer damals Einiges richtig gemacht.


Jetzt überleg mal woran es gelegen haben könnte. Kleiner Tipp nm. ;)
Auch für 1440p würde ich imo nix über einer 2070 kaufen.

Berniyh
2020-06-05, 11:05:16
Edit: war Unsinn, vergesst es. ;)

Lehdro
2020-06-05, 15:39:29
AMD müsste also die Bandbreiteneffizienz um 16,6% erhöhen, um auch mit nur 16GT @ 384Bit die doppelte Menge an CUs füttern zu können.

Oder einfach schneller getakteten VRAM nehmen für die Topmodelle. Micron hat schon 2018 von 20 Gbps (https://www.computerbase.de/2018-06/micron-gddr6-20-gbps/) gesprochen, Samsung im selben Jahr hatte schon 18 Gbps im Angebot (https://www.overclock3d.net/news/gpu_displays/samsung_reveals_their_gddr6_memory_portfolio/1). Da kannst du das wohl mittlerweile durchaus rausholen, sind ja selbst bei 18 Gbps schon 12,5% mehr Durchsatz.

Berniyh
2020-06-05, 15:52:23
Ja, wird schon irgendwie gehen.

Dennoch finde ich es schade, dass man nicht auf HBM2 setzt. So verschenkt man dann halt doch noch die letzten paar Prozente an Performance (weil weniger Spielraum für die CUs übrig bleibt).

Daredevil
2020-06-05, 15:54:00
Nochmal was zu den "unrealitischen" 50% mehr Perf/Watt.
Die VII hatte schon alleine 42% mehr Perf/Watt, was sich laut CB durch eben ~30% mehr Performance und ~10% weniger Verbrauch nieder geschlagen hat.
RDNA hingegen hat zwar nicht viel mehr Performance gehabt, dafür aber nochmals wiederum deutlich weniger Verbrauch.
RDNA2 selbst kann also auch z.B. ~20% schneller sein, ~180w TDP haben und die Kiste ist gelutscht, die 50% wären erreicht.

Klingt also erstmal nicht so sehr abwegig, auch wenn 50% natürlich sehr groß klingt. Das tut es aber halt nicht mehr, wenn der Verbrauch sinkt. ( Wer will das schon ^^ )

Nightspider
2020-06-05, 15:55:55
VII hat aber auch einen riesigen Sprung beim Fertigungsprozess hingelegt.

Falls Big Navi nicht in 7nm+ kommt, bleibt es beim gleichen Fertigungsprozess.

Äpfel und Birnen

AMD hat aber schon gesagt das RDNA 50% mehr Leistung pro Watt bieten wird, also worüber wird hier eigentlich diskutiert?

Daredevil
2020-06-05, 16:01:14
Soweit ich weiß, stand das hier mal zur Diskussion bzw. 50% wären viel zu viel.
Ich habe mir gestern nochmal einen VII Test angeschaut und da ist mir halt aufgefallen, dass die Marke hier auch schon quasi erreicht wurde, deswegen mein Post. ^^

RDNA hat ja auch schon im Vergleich zu Vega2 ordentlich zugelegt beim Perf/Watt, es ist ja nicht alles nur Fertigung.

dargo
2020-06-05, 16:02:55
RDNA hingegen hat zwar nicht viel mehr Performance gehabt, dafür aber nochmals wiederum deutlich weniger Verbrauch.
RDNA2 selbst kann also auch z.B. ~20% schneller sein, ~180w TDP haben und die Kiste ist gelutscht, die 50% wären erreicht.

Du meinst also AMD legt einen doppelt so großen Chip auf als Navi 10 für lächerliche +20% Performance? :uconf2:

mironicus
2020-06-05, 16:05:15
Ich zweifele nicht an den Aussagen von AMD in diesem Fall. Sie haben es schon mit Renoir bewiesen. Höhere Packdichte, hohe GPU-Frequenz und total niedriger Verbrauch.

Oder denkt einfach an den Xbox Series X-Chip. 52 CU und 8 Kern-CPU in einem Die und nur 350 mm². Die Grafikeinheit übertrifft die 5700XT mit Abstand und selbst wenn die CPU-Einheit vielleicht maximal 35 Watt braucht sollte das noch insgesamt unter 200 Watt liegen.

AMD wird Navi21 sicherlich nicht am Limit ausfahren müssen, da wird imho noch OC-Potential für die Enthusiasten übrig bleiben.

Langlay
2020-06-05, 16:18:48
VII hat aber auch einen riesigen Sprung beim Fertigungsprozess hingelegt.

Falls Big Navi nicht in 7nm+ kommt, bleibt es beim gleichen Fertigungsprozess.


Nein. Vega20 kam in N7FF, Big Navi kommt zumindest in N7P.

BlacKi
2020-06-05, 16:24:54
Soweit ich weiß, stand das hier mal zur Diskussion bzw. 50% wären viel zu viel.
Ich habe mir gestern nochmal einen VII Test angeschaut und da ist mir halt aufgefallen, dass die Marke hier auch schon quasi erreicht wurde, deswegen mein Post. ^^

RDNA hat ja auch schon im Vergleich zu Vega2 ordentlich zugelegt beim Perf/Watt, es ist ja nicht alles nur Fertigung.
die frage war nicht ob die vorgaben von 50% perf/w eingehalten werden können, sondern wie und mit welchen mitteln.

da ganz klar der fertigungsprozessvorteil wegfällt, bis auf ein paar optimierungen seit letztem jahr, bin ich eben der meinung das man ca. 30% der 50%p/w dem niedrigeren aber effzienteren game clock boost zuschreiben wird. der vorteil rein auf die architektur bezogen wird IMHO geringer ausfallen als 10%. der rest sind kleinere optimieren des prozesses und zb. die magere bandbreite im verhältnis zu den recheneinheiten.

das steht eben konträr zu der allgemeinen meinung hier im fred.

Lehdro
2020-06-05, 16:47:52
die frage war nicht ob die vorgaben von 50% perf/w eingehalten werden können, sondern wie und mit welchen mitteln.

da ganz klar der fertigungsprozessvorteil wegfällt, bis auf ein paar optimierungen seit letztem jahr, bin ich eben der meinung das man ca. 30% der 50%p/w dem niedrigeren aber effzienteren game clock boost zuschreiben wird. der vorteil rein auf die architektur bezogen wird IMHO geringer ausfallen als 10%. der rest sind kleinere optimieren des prozesses und zb. die magere bandbreite im verhältnis zu den recheneinheiten.

das steht eben konträr zu der allgemeinen meinung hier im fred.
Ich bin mal dreist und zitiere:
Wer sagt denn sonst, dass +50% Perf/Watt ausschließlich architekturbedingt sind? Richtig, niemand.

BlacKi
2020-06-05, 18:15:25
hab ich das denn behauptet? nein

Lehdro
2020-06-05, 19:11:16
hab ich das denn behauptet? nein
Ja hast du:
bin ich eben der meinung das man ca. 30% der 50%p/w dem niedrigeren aber effzienteren game clock boost zuschreiben wird. der vorteil rein auf die architektur bezogen wird IMHO geringer ausfallen als 10%. der rest sind kleinere optimieren des prozesses und zb. die magere bandbreite im verhältnis zu den recheneinheiten.

das steht eben konträr zu der allgemeinen meinung hier im fred.
Steht da ganz fett. Du argumentierst hier seit Jahren gegen einen von dir selbstgebastelten Strohmann. Von daher: Gut gemacht :freak:

LasterCluster
2020-06-05, 19:32:23
Sicher wird Big Navi als Haloprodukt in einem optimalen Betriebspunkt laufen (und dies fließt in die 50% mit ein). Der dürfte aber bei RDNA2 - siehe Konsolen - deutlich höher liegen. Sprich: Der Takt könnte auf ähnlichem Niveau oder sogar leicht höher liegen als bei N10.

BlacKi
2020-06-05, 19:51:49
Ja hast du:

Steht da ganz fett. Du argumentierst hier seit Jahren gegen einen von dir selbstgebastelten Strohmann. Von daher: Gut gemacht :freak:
du willst damit sagen, das es konsens ist, das der hauptteil der p/w steigerung durch die anpassungs des niedrigeren aber effzienteren game clock boost zuschreiben ist?

wenn das stimmt, dann hab das hier tatsächlich falsch wahrgenommen.

Linmoum
2020-06-05, 20:03:23
Warum genau muss der Game Clock eigentlich niedriger als bei einer 5700XT sein, damit RDNA2 "effizienter" ist?

Es ist bekannt, dass die PS5 mit bis zu 2.23GHz boostet. AMD sprach von höherem Takt für RDNA2. Es kann genauso sein, dass durch den generell höheren Takt auch 1.9/2GHz in einem Bereich liegen, in dem RDNA2 (noch) effizient genug ist.

BlacKi
2020-06-05, 20:10:26
here we go again. ein viertes mal fang ich die diskussion nicht mehr an.

basix
2020-06-05, 20:55:03
Man kann da lustigerweise Bezug auf Nvidia nehmen. Maxwell und Pascal haben das Kunststück geschafft, verglichen zum direkten Vorgänger deutlich effizienter zu sein und gleichzeitig die Taktraten erheblich zu steigern. Im Falle von Maxwell sogar im gleichen Prozess.

Kann RDNA2 das auch? Wir werden sehen ;)

Lehdro
2020-06-05, 21:20:10
du willst damit sagen, das es konsens ist, das der hauptteil der p/w steigerung durch die anpassungs des niedrigeren aber effzienteren game clock boost zuschreiben ist?

wenn das stimmt, dann hab das hier tatsächlich falsch wahrgenommen.
Der "Konsens" ist folgender: RDNA 2 wird, um die Effizienzsteigerungen erreichen zu können, definitiv auf einem besseren Betriebspunkt laufen als die veröffentlichten RDNA 1 Karten. Sprich, da wird wohl mehr Luft nach oben sein.

Ob das sich nun in niedrigeren Taktraten als bei der 5700XT oder Taktraten im Bereich der beiden Konsolen handelt wissen wir schlichtweg nicht. Sicher ist nur eins: RDNA 2 wird nach oben heraus deutlich mehr Luft haben, insofern können die Taktraten durchaus höher ausfallen und trotzdem effizienter sein. Alles deutet darauf hin: Renoir, XBOX und die PS5....

|MatMan|
2020-06-05, 21:31:13
IMO ist es ganz einfach:
Eine Halo SKU, in alter AMD Tradition geprügelt bis zum Ende, um möglichst weit vor der 2080 Ti herauszukommen.
Dazu eine weitere SKU auf Effizienz getrimmt, welche dann die versprochenen 50% Perf/W erreicht, analog zu Fury...

So kann jeder zufrieden sein.

gedi
2020-06-06, 00:08:22
IMO ist es ganz einfach:
Eine Halo SKU, in alter AMD Tradition geprügelt bis zum Ende, um möglichst weit vor der 2080 Ti herauszukommen.
Dazu eine weitere SKU auf Effizienz getrimmt, welche dann die versprochenen 50% Perf/W erreicht, analog zu Fury...

So kann jeder zufrieden sein.

Nö - das Highend Halo Produkt kommt mit min. 16GB HBM2 und 96CUs! Ich möchte nochmals auf den VR-Bench verweisen: Ne 2080Ti wird um annähernd 30% zersägt in einem Bench der bis dato keiner AMD-Karte gelegen hat. Finale Taktraten gab es zu dem Zeitpunkt sicher auch nicht :)

Zudem - wann hat sich NV das letzte mal genötigt gefühlt eine xx90 zu releasen :freak:

Genau - es kommt ein R300 und ein Rohrkrepierer seitens NV

|MatMan|
2020-06-06, 00:21:10
Du hast vergessen zu erwähnen, dass der Vorsprung des Halo Produkts zu nVidia bestimmt so komfortabel ist, dass noch 20-30% OC drin sind.

Stell dir schonmal Bier / Sekt kalt!

gedi
2020-06-06, 00:23:15
Bier reicht - und gibbet es hier in Mengen. Sekt gibts für die NV-Jünger ;D

horn 12
2020-06-06, 09:21:52
Nö - das Highend Halo Produkt kommt mit min. 16GB HBM2 und 96CUs! Ich möchte nochmals auf den VR-Bench verweisen: Ne 2080Ti wird um annähernd 30% zersägt in einem Bench der bis dato keiner AMD-Karte gelegen hat. Finale Taktraten gab es zu dem Zeitpunkt sicher auch nicht :)

Zudem - wann hat sich NV das letzte mal genötigt gefühlt eine xx90 zu releasen :freak:

Genau - es kommt ein R300 und ein Rohrkrepierer seitens NV


Rechne auch damit, dass das Halo Produkt Teuer und wirklich verdammt schnell wird und der Salvage die RTX 2080TI auch gut in Schach hält, mit ca. guten 10% Mehrperformance und 12 GB GDDR6 zu 599 Euro
Halo wohl 849 Euro!
RDNA 2 ist für DDR6 und HBM² konzipiert.

Nvidia wird nicht den Hauch einer Chance gelassen mit Ampere!

rentex
2020-06-06, 09:35:13
Feuchte Träume in 7nm...es wird teuer und damit bietet man NV, wieder eine Angriffsfläche.

Daredevil
2020-06-06, 09:45:28
Es wird teurer und die "ich find Turing scheiße" Loite bleiben immer noch bei Polaris, bis Intel mal einen richtigen Kampfpreis anzettelt? :D

HOT
2020-06-06, 09:45:39
Also ne 12GB Karte kauf ich nicht. Die kann noch so gut sein, egal welche Marke.

dargo
2020-06-06, 10:47:33
Also ne 12GB Karte kauf ich nicht.
Ich schon wenn P/L im Vergleich zu Navi 10 passt und ansonsten die Kühler leise sind.

OgrEGT
2020-06-06, 11:18:16
Ich schon wenn P/L im Vergleich zu Navi 10 passt und ansonsten die Kühler leise sind.

Ich würd auch nicht nein sagen... wäre ne Versechsfachung meines derzeitigen VRAM :D

Grendizer
2020-06-06, 12:28:54
12 Gb wären für mich auch ok.Bis 16 Gb relevant werden, gibt es dann eine entsprechende neue Karte. Ich rechne gar nicht damit Karten länger als 2 Jahre zu nutzen. Das die 1080 so lange im Rechner geblieben ist, liegt ja nur an den kranken Preisen, wenn ich eine entsprechende Mehrleistung haben will.

unl34shed
2020-06-06, 12:32:12
Bitte nutz ein großes B, weil mit 1,5-2GB kann man nichts anfangen :biggrin:

Hasenpfote
2020-06-06, 18:46:45
Nvidia wird nicht den Hauch einer Chance gelassen mit Ampere!;D ;D ;D
Horn, Du bist zu geil!
AMD schafft es nicht mal mit einem Fertigungsverfahren Vorsprung bei Nvidias 2 Jahre alten Karten mitzuhalten und soll das plötzlich hinkriegen?
AMD ist berühmt dafür, mit nem 500PS Motor, der Superplus säuft auf 125er Reifen, wovon nur einer angetrieben wird, an nem Auto-Rennen teilzunehmen. Und diese Tradition werden sich ganz sicher nicht ändern! :P

SKYNET
2020-06-06, 19:56:02
;D ;D ;D
Horn, Du bist zu geil!
AMD schafft es nicht mal mit einem Fertigungsverfahren Vorsprung bei Nvidias 2 Jahre alten Karten mitzuhalten und soll das plötzlich hinkriegen?
AMD ist berühmt dafür, mit nem 500PS Motor, der Superplus säuft auf 125er Reifen, wovon nur einer angetrieben wird, an nem Auto-Rennen teilzunehmen. Und diese Tradition werden sich ganz sicher nicht ändern! :P

mhhh... also die 5700 und 5700XT mach(t)en ihre sache ziemlich gut, gut genug das NV die super GPUs nachschieben musste, damit sie vorne bleiben in dem bereich wo die navis angesiedelt sind.

bei der neuen gen wirds dann deutlich schwieriger für NV, AMD hat zusammen mit MS & sony hat sicherlich ordentlich kohle in die nextgen gestopft, da wird was dickes bei rauskommen, und was sehr effizientes, weil sonst wäre es garnicht für die konsolen geeignet. :smile:

Grendizer
2020-06-06, 20:11:20
Das ist doch Wunschdenken, keine Ahnung was ihr da fantasiert. nVidia holt diese Performance bisher aus einem uralten Prozess. Warum denken auf einmal alle, das AMD ein Meister im GPU Design ist ? Navi ist so gut, weil TSMC dem 7nm Prozess verdammt gut unter Kontrolle hat, aber doch nicht, weil AMD auf einmal die Erleuchtung im GPU Design hatte.

Hat nVidia die Leute rausgeschmissen, die aus 12 nm die bisher recht anständige Leistung rausgeholt haben, so das wir uns deshalb sorgen machen müssen, das im neuen Prozess nur AMD Niveau rauskommen soll ?

pixeljetstream
2020-06-06, 20:51:56
@Grendizer, hast du schon Mal eine GPU entwickelt, oder weißt Du um die Komplexität des Designs? Wenn nicht, wie kommst du dazu die Leistung der Menschen zu beurteilen die das tun (egal für welche Firma)? Dass es überhaupt nur zwei /drei Mitspieler gibt, sollte Hinweis genug sein, dass die, die noch übrig sind, so schlecht nicht sein werden, wenn der gesamten restlichen Industrie nach deiner Aussage die Erleuchtung fehlt hier mit zu mischen.

r3ptil3
2020-06-06, 20:52:18
Erfahrungsgenäss kann man davon ausgehen, dass Nvidia einige Monate vor dem Release der AMD GPUs ziemlich gut Bescheid weiss inwiefern die eigene Produktpalette konkurriert wird.

Wenn die Gerüchte mit 3080 3090 und Titan stimmen, wird AMD zumindest so konkurrenzfähig sein, dass die Marke RTX angekratzt wird auf ihrem Thron.

Trotzdem wäre mir eine effiziente/sparsame Karte (bsp. Hd 3870 oder die spitzenmässige R9 Nano) und sehr gute Treiber um einiges wichtiger.

TheGood
2020-06-06, 21:04:53
Das ist doch Wunschdenken, keine Ahnung was ihr da fantasiert. nVidia holt diese Performance bisher aus einem uralten Prozess. Warum denken auf einmal alle, das AMD ein Meister im GPU Design ist ? Navi ist so gut, weil TSMC dem 7nm Prozess verdammt gut unter Kontrolle hat, aber doch nicht, weil AMD auf einmal die Erleuchtung im GPU Design hatte.

Hat nVidia die Leute rausgeschmissen, die aus 12 nm die bisher recht anständige Leistung rausgeholt haben, so das wir uns deshalb sorgen machen müssen, das im neuen Prozess nur AMD Niveau rauskommen soll ?
drum gibts in zwei aufeinanderfolgenden Jahren nur minimalen Fortschrit von um die 35% ?? Ja super duper Entwickler ;)

Piefkee
2020-06-06, 21:24:13
Das ist doch Wunschdenken, keine Ahnung was ihr da fantasiert. nVidia holt diese Performance bisher aus einem uralten Prozess. Warum denken auf einmal alle, das AMD ein Meister im GPU Design ist ? Navi ist so gut, weil TSMC dem 7nm Prozess verdammt gut unter Kontrolle hat, aber doch nicht, weil AMD auf einmal die Erleuchtung im GPU Design hatte.

Hat nVidia die Leute rausgeschmissen, die aus 12 nm die bisher recht anständige Leistung rausgeholt haben, so das wir uns deshalb sorgen machen müssen, das im neuen Prozess nur AMD Niveau rauskommen soll ?


Ganz einfach weil alle Gaming Karten von ampere von Samsung in 10nm gefertigt werden und dieser Prozess dem 7nm TSMC unterlegen ist. Trotzdem wird NV vorne sein aber nicht so deutlich wie damals. Wird ein interessantes 2. Halbjahr

Brillus
2020-06-06, 21:25:26
Ich erwarte was im Bereich der 3080. Von Leitung und auch Preis.

Ich erwarte aber auch das die 3080TI/3090 klar größer ist als die kolportierten 505mm² der Navi21.

Complicated
2020-06-06, 21:34:10
Es ist traditionell so, dass AMD mehr aus einem Fertiungsprozess auf Transistoreben rausholt..Sie haben mehr IP und Erfahrung durch frühere eigene Fertigung. Nvidia hat mit dem Architekturdesign und Treiberoptimierung darauf mehr Vorteile. AMD entwickelt bei einem optimierten N5P mit TSMC mit und hat mit der Semicustom Abteilung tieferen Zugang (mehr Personal). Hinzu kommen die Erfahrungen aus der CPU Abteilung.

Das gleicht sich ungefähr aus.

Piefkee
2020-06-06, 21:37:52
Ich erwarte was im Bereich der 3080. Von Leitung und auch Preis.

Ich erwarte aber auch das die 3080TI/3090 klar größer ist als die kolportierten 505mm² der Navi21.

GA102 (3080Ti) wird denke ich 700mm^2 haben. Wenn nun alle so wie Kopite7kimi es behauptet stimmt kommt der Die von Samsung in 8nm.

8nm Samsung -> 61,2MTr/mm^2
7nm TSMC (N7+) -> 95MTr/mm^2

„milchmärchen rechnung“
Navi 505mm^2 —> skaliert auf 8nm SA (1,5x) = 752mm^2 auf Samsung 8nm... könnte also ziemlich identisch von der Leistung sein (könnte)

Hasenpfote
2020-06-06, 23:26:02
Navi 505mm^2 —> skaliert auf 8nm SA (1,5x) = 752mm^2 auf Samsung 8nm... könnte also ziemlich identisch von der Leistung sein (könnte)Und dann überlegen wir nochmal, wieviel Teraflop AMD in FPS umwandeln kann und wieviel FPS Nvidia rausholt (kleiner Hinweis: AMD war beim letzting Mining-Boom nicht ohne Grund überteuert und trotzdem monatelang ausverkauft).

AMD hat schon immer klasse Hardware gebaut, die von mäßig kompetenten Treiberentwicklern eingebremst wurde.

Linmoum
2020-06-06, 23:42:00
Und dann überlegen wir nochmal, wieviel Teraflop AMD in FPS umwandeln kann und wieviel FPS Nvidia rausholt Gerne.


https://i.gyazo.com/81d165d86d803128a905bc8595de229d.png
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/#abschnitt_navi_vs_vega_vs_turing_vs_pascal

Daredevil
2020-06-06, 23:52:42
Ne 2070 hat schon Stock weniger Tflop und so oder so weniger Takt, das weißt du, oder? ^^

Linmoum
2020-06-07, 00:03:25
Bereits eine 2070 Turbo von Asus hat einen höheren Takt in Spielen als eine 5700, die FE liegt dementsprechend noch mal höher und hat default in der Realität also mehr TFLOPs als eine 5700. Papierangaben sind irrelevant, da gerade bei NV der Boost diese in der Realität deutlich überschreitet.

Davon ab spielt das für obigen Vergleich auch gar keine Rolle, der exakte Vergleichbarkeit darstellt, da Takt, Shader, SI und Bandbreite identisch sind. Besser geht's nicht.

Daredevil
2020-06-07, 00:06:41
Oh schorry, hab hinter der 5700 ein XT gelesen, was gar nicht da ist. :)

basix
2020-06-07, 11:04:20
Gerne.


https://i.gyazo.com/81d165d86d803128a905bc8595de229d.png
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/#abschnitt_navi_vs_vega_vs_turing_vs_pascal

Japp, Navi hat da wirklich das fast undenkbare geschafft. Aber bei Vega und Polaris war das eben ganz anders ;)

Daredevil
2020-06-07, 11:47:02
Dafür ist Vega halt nen Compute Monster. ^^

SKYNET
2020-06-07, 11:49:39
Japp, Navi hat da wirklich das fast undenkbare geschafft. Aber bei Vega und Polaris war das eben ganz anders ;)

naja, vega wurde halt einfach ans limit geknüppelt was der fertigungsprozess hergab, damit man mit pascal -zumindest leistungstechnisch- mithalten konnte... dabei wäre es sooo einfach gewesen, es hätten einfach die reinen gaming karten mit 0.1V weniger ausgeliefert werden müssen, dann hätte das auch mit der leistungsaufnahme hingehauen... aber um da jede GPU zu testen mit den spannungswerten, fehlte AMD damals das nötige kleingeld.

und polaris war einfach jede karte eine stufe zu hoch angesiedelt... hätte man die 480 auf 470 level belassen, 470 auf 460 usw. und statt der 480 ne vega 40 gebracht, wäre die effektivitätskurve voll aufgegangen, und dank 0.1V weniger, wäre vega64 sogar vom start weg schneller als die 1080 gewesen und sparsamer zugleich....

kurz: polaris und vega waren sehr gute karten, leider haben bei AMD aber ein paar köpfe zur umsetzung des lineups und der "endfertigung" gefehlt.

Linmoum
2020-06-07, 12:11:07
Wohin Vega geknüppelt wurde ist aber auch völlig irrelevant, da das für die Performance in Bezug auf "TFLOPS pro fps" (um die es ging) gar keine Rolle spielt(e). Vega zaubert keine höhere IPC her, nur weil man die Spannung senkt.

Das war einfach in der Hinsicht ein Krüppel. Die 1080 FE taktete laut CB mit 1667MHz im Schnitt, was etwas über 8.5TFLOPS entspricht. Laut CB taktete die Referenz V64 immer mit mindestens 1401MHz, das sind fast 11.5TFLOPS - idR war der Takt aber höher, also lag man eher bei >12TFLOPS.

Und selbst mit auf dem Papier >=40% mehr TFLOPS aka Rohleistung war/ist Vega sogar oftmals langsamer als eine 1080. Absolut kein Vergleich mit Navi, nicht einmal ansatzweise. Polaris war ähnlich mies in der Hinsicht.

Dino-Fossil
2020-06-07, 12:30:35
Vega sollte ja damals laut Ankündigungen dank diverser grundlegender Verbesserungen in der Architektur deutlich effektiver mit den TFLOPs umgehen. Stichwort primitive shaders, Draw stream binning rasterizer, NGG fastpath.
Hat dann aber offenbar entweder alles nicht so gut wie gewünscht, nur unter bestimmten Voraussetzungen, oder gar nicht funktioniert und man konnte sich von vorherigen GCN Iterationen nicht wirklich absetzen.
Polaris war im Vergleich dazu ja relativ harmlos angesetzt, mit eher evolutionären Verbesserungen.
Das man die fehlende Leistung durch einen ungünstigen Betriebspunkt (@stock) ausgleichen musste hat natürlich auch nicht geholfen.

Navi scheint da dann endlich einen Fortschritt gebracht zu haben. Den wird man hoffentlich mit RDNA2 weiter ausbauen.

SKYNET
2020-06-07, 13:53:11
Wohin Vega geknüppelt wurde ist aber auch völlig irrelevant, da das für die Performance in Bezug auf "TFLOPS pro fps" (um die es ging) gar keine Rolle spielt(e). Vega zaubert keine höhere IPC her, nur weil man die Spannung senkt.

Das war einfach in der Hinsicht ein Krüppel. Die 1080 FE taktete laut CB mit 1667MHz im Schnitt, was etwas über 8.5TFLOPS entspricht. Laut CB taktete die Referenz V64 immer mit mindestens 1401MHz, das sind fast 11.5TFLOPS - idR war der Takt aber höher, also lag man eher bei >12TFLOPS.

Und selbst mit auf dem Papier >=40% mehr TFLOPS aka Rohleistung war/ist Vega sogar oftmals langsamer als eine 1080. Absolut kein Vergleich mit Navi, nicht einmal ansatzweise. Polaris war ähnlich mies in der Hinsicht.


warum, in compute sachen, hat vega doch die volle leistung gebracht, siehe blender, wo ne vega64 selbst ner 1080Ti davongerannt ist bzw. immernoch macht.

aufkrawall
2020-06-07, 15:07:28
warum, in compute sachen, hat vega doch die volle leistung gebracht, siehe blender, wo ne vega64 selbst ner 1080Ti davongerannt ist bzw. immernoch macht.
Google erster Link, Vega 64 in einem der Tests nur auf 1660 Ti-Niveau:
https://techgage.com/article/blender-2-80-viewport-rendering-performance/
Naa ja..
Immerhin in jedem Fall ein massiver Sprung gegenüber Polaris, das Teil ist bei Blender langsamer und gefräßiger als mein 6700k. :freak:

Dino-Fossil
2020-06-07, 15:54:45
Blender mit seiner mittelprächtigen Implementation von OpenCL für AMD ist aber auch nicht unbedingt das beste Beispiel um die Compute-Fähigkeiten von Vega zu zeigen.

aufkrawall
2020-06-07, 16:02:03
Ist nur die Frage, ob man dafür Blender verantwortlich machen kann, oder nicht AMD direkt. Immerhin hatten sie Cycles OCL gesponsert, nun aber letztes Jahr auf Vulkan umgeschwenkt, wovon noch nichts in stable-Reichweite zu sein scheint.
Nvidia hingegen zieht seit Jahren "eiskalt" CUDA durch. Mittlerweile mit Optix RTX, und it seems to "just work"...

Dino-Fossil
2020-06-07, 16:05:34
Ist aber eine andere Frage.
Für diejenigen Compute-Anwendungen, bei denen Vega die rohen TFLOPS ausspielen kann, ist die hohe Compute-Leistung von Vorteil.
Im Gaming-Bereich (oder generell dann, wenn es eben nicht effizient angesprochen wird) sieht es eben ein wenig anders aus.

aufkrawall
2020-06-07, 16:09:41
Ist aber eine andere Frage.

Aber eine interessante. ;)
Wenn man sich die Integration von AMF vs. NVENC in obs-studio anschaut, lassen sich frappierende Parallelen zu Blender feststellen. :freak:

SKYNET
2020-06-07, 16:24:19
Google erster Link, Vega 64 in einem der Tests nur auf 1660 Ti-Niveau:
https://techgage.com/article/blender-2-80-viewport-rendering-performance/
Naa ja..
Immerhin in jedem Fall ein massiver Sprung gegenüber Polaris, das Teil ist bei Blender langsamer und gefräßiger als mein 6700k. :freak:


ehm, keine ahnung was du gesucht/gefunden hast, aber wir haben sogar den passenden faden:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=589918&highlight=blender

Mangel76
2020-06-08, 08:44:40
https://community.amd.com/community/gaming/blog/2020/05/06/game-beyond-4gb?

Wenn AMD der Meinung ist, dass 8GB im Entry-Level notwendig sind, dann sollte Big Navi wohl deutlich mehr bekommen :biggrin:

HOT
2020-06-08, 09:05:13
N21: 24 GB
N22: 16 GB
N23: 8-12 GB
Genau wie bei NV mMn GDDR6X.

RT baucht Kapazität.

JVC
2020-06-08, 09:14:31
NV scheint ja auf 350 Watt zu gehen (durch den "riesen" Chip vermutlich gut kühl bar).

Wie AMD wohl darauf reagiert (der "mini" Chip ist ja nicht grad leicht zu kühlen)

M.f.G. JVC

Mangel76
2020-06-08, 09:47:14
N21: 24 GB
N22: 16 GB
N23: 8-12 GB
Genau wie bei NV mMn GDDR6X.

RT baucht Kapazität.

Im Moment schwirrt aber eher die RTX 3080 mit 10GB durch die Foren. Zudem soll sie auf dem 102 basieren mit deutlicher Beschneidung. Spricht für mich nach Angst vor Big Navi oder man braucht das größere Speicherinterface, da man keine 16GB bieten will oder kann. An eine Überraschung mit 20GB glaube ich nicht so recht.

Den Vogel bei den Spekus schießt aber mal wieder WTF-Tec (https://wccftech.com/nividias-rtx-3080-getting-spec-upgrade-might-ship-with-ga-102-200-and-4352-cuda-cores/) ab:
This also means that the RTX 3080 Ti flagship is shaping up to be a massive 18TFLOPs+ behemoth just based on these specifications alone - one which will ship with 21 Gbps GDDR6X memory. Couple this with a super-fast PCIe Gen4 SSD and you have a next-gen console slaying combination.

Ein ~2000€ teures Gespann, für dass man dann ja zusätzlich zwingend einen AMD-Unterbau braucht (+weitere ~500-1000€), als "Konsolen-Schlächter" zu bezeichnen, ist schon ziemlich dämlich ;D Für den fünffachen Preis sollte das eine Selbstverständlichkeit sein :confused: