PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Vermutliche Hardware-Daten zu AMDs "Navy Flounder" samt weiterer ...


Leonidas
2020-09-25, 07:24:22
Link zur News:
https://www.3dcenter.org/news/vermutliche-hardware-daten-zu-amds-navy-flounder-samt-weiterer-geruechte-zur-rdna2-generation-a

AMD-Flo
2020-09-25, 08:25:19
8-16 Bit Speicher :-)

Berniyh
2020-09-25, 08:27:07
Die Fragezeichen bei der Chipzuordnung kannst du streichen. Dimgrey Cavefish = Navi 23 und Navy Flounder = Navi 22.

bzgl. Vorstellung würde ich von keinem so großen Abstand zwischen Sienna Cichlid und Navy Flounder ausgehen.
Der Support im Treiber zu Navy Flounder ist jetzt schon fast vollständig und hat nur ca. 1-2 Monate nach Sienna Cichlid angefangen.
Also warum sollte dann bei der Vorstellung plötzlich 4-5 Monate dazwischen sein?

Zumal das der Butter und Brot Chip von RDNA2 sein wird, entsprechend hat AMD ein Interesse den so schnell wie möglich zu launchen (am Besten noch vor Weihnachten).

hardtech
2020-09-25, 08:34:22
leonidas bezieht sich auf die quelle, was release zeitraum angeht. frühling u mitte nächsten jahres finde ich spät. bis dahin hat nvidia ihre karte schon lange im verkauf.

wollen wir hoffen, dass navi21 gut lieferbar vor weihnachten ist. mit 16gb der attraktivere chip als 3080, sofern leistung in der nähe.

Knuddelbearli
2020-09-25, 08:39:11
eine augenscheinlich Navi-21-basierte Karte sich grob mit der GeForce RTX 3080 messen können, Navi 21 hingegen die Radeon RX 5700 XT um ~25-30% schlagen können sowie dabei zwischen GeForce RTX 2070 Super und 2080 Super herauskommen und letztlich Navi 23 irgendwo zwischen GeForce GTX 1660 Ti und GeForce RTX 2060 herauskommen.

Das zweite soll wohl eher Navi 22 heißen

Gast Ritis
2020-09-25, 08:39:52
Navi 21 hingegen die Radeon RX 5700 XT um ~25-30% schlagen k
Hier muss es Navi 22 sein.

Das mit den Fischnamen nervt und ist völlig unnötig wenn man sonst an den Navi Bezeichnungen festhält. Da hat wohl irgend jemand Probleme mit Koduris Erbe, der die Sterne vom Himmel holen wollte. Durchgewürfelte Doppelnamen von Fischen statt Sterne je Gen mit Grössen-Nummer sind bei zunehmender Menge nicht mehr übersichtlich.

Hoffen wir mal dass AMD schneller die Produkte in den Markt bringt. Wenn man wirklich das bessere Watt/FPS Verhältnis schafft können sie doch die kleinen Karten viel früher bringen, am besten wäre je Monat die nächst kleinere Klasse.

Hasenpfote
2020-09-25, 08:49:57
In der Tabelle steht bei Speichermenge "bit".
Ich denke das sollte korrigiert werden, denn falls es stimmt, wird es bissel eng mit Cyberpunk 2077 auf den Karten.

Gast
2020-09-25, 08:58:05
"hingegen die Radeon RX 5700 XT um ~25-30% schlagen können sowie dabei zwischen GeForce RTX 2070 Super und 2080 Super herauskommen"
Hm, die Zahlen passen aber nicht so toll, oder? +25% wäre laut Performance Index in FHD ja schon über der 2080 Super (~1360). Lediglich bei UHD passt es gerade noch so, wobei eigentlich "im Bereich einer 2080 Super" dann passender wäre. Insofern bin ich da noch etwas skeptisch, da die Daten nicht wirklich gut passen...

Complicated
2020-09-25, 09:29:06
One RDNA2 card trades with 3080, less $ & may be bit better (~ +5%).
That card pulls 280W @ load.
Das würde 2 Sache erklären:
1. Dass Nvidia die RTX 3090 so hoch prügelt für so wenig Performancegewinn
2. Dass Nvidia keine Titan Benennung für so wenig Vorsprung nutzen möchte. Dies wird wohl einem Refresh vorbehalten sein der dann besser performt.

Spannend wird die Auflösung zu den SI werden. Sollte AMD hier etwas gut funktionierendes haben, wird das in kommenden Generationen einen großen Vorteil bei den Kosten ergeben, wegen der gesparten Chipfläche.

BigKid
2020-09-25, 09:30:47
Ich frag mich immernoch wieso manche so überrascht sind dass AMD was schlagkräftiges bringen könnte... Man muss sich doch nur anschauen was NVidia abzieht:
Glaubt irgendwer NVidia würde freiwillig den höheren Chip in die niedrigere Liga nehmen ? Glaubt irgendwer NVidia senkt die Preise ohne Grund aus reiner Herzensgüte ? Glaubt irgendwer NVidia prügelt den Chip einfach so schon ab Werk so nah an die Kotzgrenze anstatt sich das für eventuelle TIs oder Supers oder für nach dem AMD Launch aufzuheben ? Hält es irgendwer für unvorstellbar dass die GTX3090 der Versuch ist die Krone zu behalten aber der man hat sich nicht getraut es Titan zu nennen weil der Abstand zur 3080 so wie man sie jetzt bringt zu klein ist ?

Wer hier überall sagt Unvorstellbar der sollte prüfen ob er an der Fanboyitis erkrankt ist. Und das sage ich als jemand der neben 3dfx (und nem kurzen Ausflug zu Matrox Mystique) quasi nur NVidia länger im Rechner hatte bisher...

Für mich sind das Indizien das zumindest NVidia erwartet, dass AMD ihnen ziemlich nah auf der Pelle sitzt!

EDIT: Und wie schon wo anders geschrieben - ich halte es durchaus für Möglich dass der Move zu Samsung und dem (gegenüber TMSC 7nm) unterlegenen Fertigungsprozess in der Hybris enstand der Abstand zu AMD sei in dieser Gen unaufholbar und man könnte so seine Marge noch etwas erhöhen... Tja und dann sickerten die ersten Infos zu/von AMD durch...

tm0975
2020-09-25, 10:25:29
was ich ehrlich gesagt nicht verstehe ist die Lob-huddelei zu den neuen 3080/90. klar sind es sehr schnelle karten, aber stört sich denn wirklich niemand an den krassen verbrauchswerten und das alles auf anschlag ist? es wäre mit sichherheit eine tolle karte geworden, wenn man die maximalen verbrauchswerte auf 250 oder 200 watt begrenzt hätte. ich hoffe sehr, amd bringt da auch eine etwas vernünftigere lösung.

etp_inxession
2020-09-25, 10:26:33
Wäre dem Markt einfach nur zu wünschen.

Irgendwas stimmt auf jeden Fall nicht, bei nV.

So übers Knie brechen hätte man nicht müssen.

Sicher wäre keiner enttäuscht gewesen wenn die 3080 bei diesen 50W weniger Verbrauch nur etwas langsamer gekommen wäre. Der Abstand zum Vorgänger wäre trotzdem noch groß und die 3090 hätte sich etwas weiter absetzen können.

Man muss im Hause nVidia hoffen das Samsung den Prozess schnell optimieren kann, damit sich die Super Generation nächstes Jahr, überhaupt noch absetzen kann.

Ich schätze die 3080 mit 20GB kommt einfach nur als Konter auf Sienna Chichlid mit 16 GB.
Bis dahin wird mit der 3080 - 10 GB gemolken. Oder eben gleich mit 24GB.

RDNA2 wird auf jeden Fall immer spannender.
Ich hoffe ja immer noch auf HBM2 anstatt dieser 256 Bit Anbindung.
Aber lassen wir uns überraschen.

Es ist leider noch zu still ... evtl wird ja bei der Vermeer Vorstellung auch über RDNA2 gemunkelt.

BigKid
2020-09-25, 10:29:49
Wäre dem Markt einfach nur zu wünschen.

Irgendwas stimmt auf jeden Fall nicht, bei nV.

So übers Knie brechen hätte man nicht müssen.

Man muss im Hause nVidia hoffen das Samsung den Prozess schnell optimieren kann, damit sich die Super Generation nächstes Jahr, überhaupt noch absetzen kann.
Ich glaub eher man will/wollte/würde gerne lieber schon bald (entweder geplant oder aus Angst) auf TMSC wechseln ... Vielleicht schon für den Refresh oder die TIs...
Ich halte das für ein nicht unwahrscheinliches Szenario... Man hat gedacht man kann mit 8nm Samsung mehr Marge machen (und TMSC unter Druck setzen) - hat dann gemerkt dass das schief gehen könnte und dann war es tatsächlich zu spät um auf 7nm TMSC zu gehen - seis weil keine Kapa mehr frei war oder man nicht soweit war...
Wenn der Plan aufgegangen wäre hätte man jetzt mit Samsung 8nm patte gemacht und dann mit dem Refresh oder vielleicht sogar der "nächsten" Generation wäre man nur auf die bessere Fertigung von TMSC und hätte nicht viel machen müssen...

Ich bin höchst gespannt was AMD bringt... Nicht weil ich jetzt unbedingt zu AMD wechseln würde sondern einfach aus Interesse und weil ich vermute jeder NVidia Käufer sollte AMD jetzt schon dankbar sein... Freiwillig hat NVidia seine Preispolitik nicht angepasst... Never ever ... Glaub ich nicht... Aber wir werden sehen...

RLZ
2020-09-25, 10:41:58
was ich ehrlich gesagt nicht verstehe ist die Lob-huddelei zu den neuen 3080/90. klar sind es sehr schnelle karten, aber stört sich denn wirklich niemand an den krassen verbrauchswerten und das alles auf anschlag ist?
Die Mehrheit offensichtlich nein. Mir ist der Verbrauch auch erstmal egal, solange die Karte leise bleibt. Ob da jetzt was am Anschlag ist, wie große der Chip ist oder sonstwas... Ist mir beim Kauf erstmal alles egal.

Complicated
2020-09-25, 10:45:39
Na wenn PSUs aussteigen ist es nicht mehr so ganz egal.

WedgeAntilles
2020-09-25, 10:53:19
aber stört sich denn wirklich niemand an den krassen verbrauchswerten und das alles auf anschlag ist?

Keine Ahnung wer dein "niemand" ist, aber in den Tests wird der sehr hohe Verbrauch doch quasi immer als negativer Punkt gebracht. :confused:

Gast
2020-09-25, 11:07:55
Performance Segemntierung dieses Leaks macht Sinn? LoL. Eine Karte die 2060/3060 gegenübersteht, eine auf 2080, eine auf 2080ti/3070 und eben 3080 Niveau, das würde tatsächlich sinn machen. Würde diesen Leaks genauso viel Vertrauen schenken wie denen die Ampere die 3 - 4 fache RT Leistung nachsagten.

Troyan
2020-09-25, 11:13:39
Ich frag mich immernoch wieso manche so überrascht sind dass AMD was schlagkräftiges bringen könnte... Man muss sich doch nur anschauen was NVidia abzieht:
Glaubt irgendwer NVidia würde freiwillig den höheren Chip in die niedrigere Liga nehmen ? Glaubt irgendwer NVidia senkt die Preise ohne Grund aus reiner Herzensgüte ? Glaubt irgendwer NVidia prügelt den Chip einfach so schon ab Werk so nah an die Kotzgrenze anstatt sich das für eventuelle TIs oder Supers oder für nach dem AMD Launch aufzuheben ? Hält es irgendwer für unvorstellbar dass die GTX3090 der Versuch ist die Krone zu behalten aber der man hat sich nicht getraut es Titan zu nennen weil der Abstand zur 3080 so wie man sie jetzt bringt zu klein ist ?

Wer hier überall sagt Unvorstellbar der sollte prüfen ob er an der Fanboyitis erkrankt ist. Und das sage ich als jemand der neben 3dfx (und nem kurzen Ausflug zu Matrox Mystique) quasi nur NVidia länger im Rechner hatte bisher...

Für mich sind das Indizien das zumindest NVidia erwartet, dass AMD ihnen ziemlich nah auf der Pelle sitzt!

EDIT: Und wie schon wo anders geschrieben - ich halte es durchaus für Möglich dass der Move zu Samsung und dem (gegenüber TMSC 7nm) unterlegenen Fertigungsprozess in der Hybris enstand der Abstand zu AMD sei in dieser Gen unaufholbar und man könnte so seine Marge noch etwas erhöhen... Tja und dann sickerten die ersten Infos zu/von AMD durch...

Wie oft noch: GDDR6X benötigt ebenfalls mehr Strom als GDDR6. Eine 3070 mit 220W wird 50% schneller als eine 5700XT sein und dabei ähnlich viel Strom benötigen. Ohne GDDR6X gäbe es jedoch nicht mehr als 760GB/s an 384bit.
Eine 3080 mir 280W ist ca. 25% schneller als die 3070 mir 220W.

AMD wird exakt die selben Probleme haben ihre Chips nach oben zu skalieren. Der Unterschied zu nVidia ist, dass Ampere mal so eben 80% mehr Rechenleistung liefert.

BigKid
2020-09-25, 11:18:25
Wie oft noch: GDDR6X benötigt ebenfalls mehr Strom als GDDR6. Eine 3070 mit 220W wird 50% schneller als eine 5700XT sein und dabei ähnlich viel Strom benötigen. Ohne GDDR6X gäbe es jedoch nicht mehr als 760GB/s an 384bit.
Eine 3080 mir 280W ist ca. 25% schneller als die 3070 mir 220W.

AMD wird exakt die selben Probleme haben ihre Chips nach oben zu skalieren. Der Unterschied zu nVidia ist, dass Ampere mal so eben 80% mehr Rechenleistung liefert.

Ich spekuliere nur auf Basis von Tatsachen...

NVidia hat wieder den High End Chip genommen für die 3080 ...
NVidia hat jetzt schon bis zur Kotzgrenze optimiert...
Nvidia hat mit der 3090 einen sehr seltsamen PR Stunt / Kandidaten gebracht...
NVidia hat die Preise wieder auf ein "normaleres" Niveau runter geschraubt...

Und meine einzige Spekulation ist: Das war nicht freiwillig... Niemals...

Und: AMD hat mit Zen ein beeindruckendes Comeback gefeiert... Es wäre also auch nicht ganz beispiellos wenn sie nun bei den GPUs was ähnliches hinbekämen...
Gewisse paralelen zu den CPUs mit Intel sind übrigens sogar da: Intel war lange so weit vorn... Dann hat man sich drauf aufgeruht, dann kamen Probleme mit dem Fertigungsprozess...

WedgeAntilles
2020-09-25, 11:30:55
Ich spekuliere nur auf Basis von Tatsachen...

NVidia hat den High End Chip genommen ...
NVidia hat jetzt schon bis zur Kotzgrenze optimiert...
Nvidia hat mit der 3090 einen sehr seltsamen PR Stunt / Kandidaten gebracht...
NVidia hat die Preise wieder auf ein "normaleres" Niveau runter geschraubt...

Und meine einzige Spekulation ist: Das war nicht freiwillig... Niemals...

Und: AMD hat mit Zen ein beeindruckendes Comeback gefeiert... Es wäre also auch nicht ganz beispiellos wenn sie nun bei den GPUs was ähnlich hinbekämen...

Schon mal dran gedacht, dass eine starke 3080 gegenüber einer 3070 dazu führt, dass mehr Leute die 3080 kaufen statt die 3070?

Klar müsste man die genauen Marge der Karten kennen - aber generell ist es für einen Anbieter attraktiv, wenn die Käufer ins höhere Regal kaufen.
Also die stärkere Karte kaufen.
Da teurere Produkte normalerweise eine höhere Marge haben.

Und wie schafft man das? Jedenfalls nicht, in dem die 2080 ein sehr deutlich schlechteres Preis-Leistungs-Verhältnis hat wie die 2070.

Da kann es betriebswirtschaftlich sehr sinnvoll sein, die 3080 so attraktiv zu gestalten.

Was ich hingegen nicht kapiere sind die 320W - warum nicht auf 270W gehen mit ein paar Prozent Leistungsverlust?
Das wäre - ich wiederhole mich - in jedem Szeario sinnvoll.
Völlig unabhängig, was BigNavi bringt. 15% mehr Stromverbrauch für 5% mehr Leistung ist einfach ein katastrophaler Trade-Off.
Und die Kühlung muss dadurch auch noch viel aufwändiger sein, d.h. es kostet sogar noch Geld. (Was man entweder in höhere Marge oder in leicht höhere Marge UND gleichzeitig niedrigerem Verkaufspreis umwandeln könnte.)

Igor sagt, der Kühler würde ca. 150 Dollar kosten.
Keine Ahnung wie viel günstiger Kühler bei 270W wäre.
Aber der Aufwand zur Kühlung steigt ja dann ja massiv an - 320W zu kühlen ist weit aufwändiger als 270W.
Wieviel kann man da bei 270W sparen? 40 Dollar? Keine Ahnung.

Falls wir die 40 Dollar nehmen und teilen, könnte Nvidia 20 Dollar mehr Gewinn haben UND die Karte 20 Dollar günstiger machen.

Eine 3080 mit
270W
-20 Euro Verkaufspreis (also 679 statt 699)
- 5% Leistung
+ 20 Euro zusätzlicher Marge für Nvidia

In welchem Szenario soll das bitte SCHLECHTER sein?
Das Ding wäre weit besser und attraktiver.

Und in jedem Test kommt der hohe Verbrauch zur Sprache.
Dieser Kritikpunkt würde quasi komplett entfallen und jeder wäre begesistert, wieviel Mehrperformance zur 2080 da wäre - bei kaum höherem Stromverbrauch.

Mega-Zord
2020-09-25, 12:04:41
Ich hoffe, die Performance reicht auch an eine 3080 mit aktiviertem DLSS ran. Ansonsten muss man in Zukunft genau schauen, welche Spiele kommen, die man spielen will und ob die das Feature unterstützen.

Raytraycing wird auch die nächsten Jahre Spielerei bleiben, auch wenn NV das sicher nicht gerne hört. Aber DLSS 2.0 ist vermutlich das absolute Killer-Feature für 4k-Gaming.

Das würde 2 Sache erklären:
1. Dass Nvidia die RTX 3090 so hoch prügelt für so wenig Performancegewinn
2. Dass Nvidia keine Titan Benennung für so wenig Vorsprung nutzen möchte. Dies wird wohl einem Refresh vorbehalten sein der dann besser performt.

Spannend wird die Auflösung zu den SI werden. Sollte AMD hier etwas gut funktionierendes haben, wird das in kommenden Generationen einen großen Vorteil bei den Kosten ergeben, wegen der gesparten Chipfläche.

Der Abstand zwischen RTX 2080 Ti und Titan RTX war deutlich geringen. Das hat sie auch nicht davon abgehalten. Bei den den GeForce-700 war damals auch eine 780 Ti schneller als die vorher veröffentlichte Titan der Serie.

Gast
2020-09-25, 12:09:20
Was ich hingegen nicht kapiere sind die 320W - warum nicht auf 270W gehen mit ein paar Prozent Leistungsverlust?
Das wäre - ich wiederhole mich - in jedem Szeario sinnvoll.
Völlig unabhängig, was BigNavi bringt. 15% mehr Stromverbrauch für 5% mehr Leistung ist einfach ein katastrophaler Trade-Off.
Und die Kühlung muss dadurch auch noch viel aufwändiger sein, d.h. es kostet sogar noch Geld. (Was man entweder in höhere Marge oder in leicht höhere Marge UND gleichzeitig niedrigerem Verkaufspreis umwandeln könnte.)

Igor sagt, der Kühler würde ca. 150 Dollar kosten.
Keine Ahnung wie viel günstiger Kühler bei 270W wäre.
Aber der Aufwand zur Kühlung steigt ja dann ja massiv an - 320W zu kühlen ist weit aufwändiger als 270W.
Wieviel kann man da bei 270W sparen? 40 Dollar? Keine Ahnung.

Falls wir die 40 Dollar nehmen und teilen, könnte Nvidia 20 Dollar mehr Gewinn haben UND die Karte 20 Dollar günstiger machen.

Eine 3080 mit
270W
-20 Euro Verkaufspreis (also 679 statt 699)
- 5% Leistung
+ 20 Euro zusätzlicher Marge für Nvidia

In welchem Szenario soll das bitte SCHLECHTER sein?
Das Ding wäre weit besser und attraktiver.

Und in jedem Test kommt der hohe Verbrauch zur Sprache.
Dieser Kritikpunkt würde quasi komplett entfallen und jeder wäre begesistert, wieviel Mehrperformance zur 2080 da wäre - bei kaum höherem Stromverbrauch.

Meine Vermutung: Eine RTX 3080 20GB kommt mit den gleichen 320W und benötigt dieses dann eben auch um nicht mit dem Takt runterzugehen, sprich die 10GB Version wäre auch mit 270W gelaufen aber die 20GB hätte möglicherweise zu wenig Reserven gehabt. Ob diese Vermutung stimmt werden wir wohl dann erst sehen.

Gast
2020-09-25, 12:09:28
Ich bin mal gespannt wie viel Navi21 kosten wird und wie die Verfuegbarkeit ist (+ die der Wasserkuehler). Ich will meinen neuen Rechner moeglichst im November fertig stellen und habe wenig Lust auf eine Uebergangsloesung. Wenn die Abloesung der 5700(XT) erst naechstes Jahr kommt, dann werden die Preise auch noch nicht fallen. Dang!

Complicated
2020-09-25, 12:11:25
AMD wird exakt die selben Probleme haben ihre Chips nach oben zu skalieren.
Dann hat man sich drauf aufgeruht, dann kamen Probleme mit dem Fertigungsprozess...
7nm TSMC und Samsung 8nm werden wohl eher nicht die selben Probleme haben. Und AMD beherrscht die TSMC 7nm nachweislich.

Hier ist wohl Nvidia in das selbe Problem gelaufen mit 8nm Samsung wie Intel mit seiner Fertigung. AMD hat deutlich mehr Erfahrung auf 7nm um da bessere Verbrauchswerte erzielen zu können.

Der Abstand zwischen RTX 2080 Ti und Titan RTX war deutlich geringen. Das hat sie auch nicht davon abgehalten. Bei den den GeForce-700 war damals auch eine 780 Ti schneller als die vorher veröffentlichte Titan der Serie.
Hier gibt es aber keine Ti - wäre der Abstand zur RTX 2080 lediglich 15% für die Titan RTX gewesen ist das selbe Szenario.

Dino-Fossil
2020-09-25, 12:22:18
Das mit den Fischnamen nervt und ist völlig unnötig wenn man sonst an den Navi Bezeichnungen festhält. Da hat wohl irgend jemand Probleme mit Koduris Erbe, der die Sterne vom Himmel holen wollte. Durchgewürfelte Doppelnamen von Fischen statt Sterne je Gen mit Grössen-Nummer sind bei zunehmender Menge nicht mehr übersichtlich.

Ich glaube die Fische sind vor allem der Unterscheidung der Chips im Linux-Treiber geschuldet und haben ansonsten keine übermäßige Bedeutung.
Man will den Linux-Entwicklern vermutlich klare Codenamen bieten (entsprechende Aussagen gab es zu Arcturus), und/oder nicht zu viel Info nach außen dringen lassen, trotz nunmal nötiger Veröffentlichung des Codes.

BigKid
2020-09-25, 12:24:52
7nm TSMC und Samsung 8nm werden wohl eher nicht die selben Probleme haben. Und AMD beherrscht die TSMC 7nm nachweislich.

Hier ist wohl Nvidia in das selbe Problem gelaufen mit 8nm Samsung wie Intel mit seiner Fertigung. AMD hat deutlich mehr Erfahrung auf 7nm um da bessere Verbrauchswerte erzielen zu können.

GENAU das habe ich doch auch geschrieben... na zu mindest gemeint... Wie kann man das falsch verstehen ???

Digidi
2020-09-25, 12:53:55
@Leonidas sind es nicht 4 Shader engines und 8 Rasterizer???

AMD doublet ja alles vielleicht müsste man das 256 Bit speicherinterface als zweifach ansehen.

JVC
2020-09-25, 12:56:35
-One RDNA2 card trades with 3080, less $ & may be bit better (~ +5%).
-That card pulls 280W @ load.

Das passt mir ganz gut :)
Unter 300Watt - Check
Min 16Gb - Check
HDMI 2.1 - Check
Unter 699.- ? - passt prima
Etwas schneller wie die 3080 ? - reicht mir

3090 24Gb ist geil aber mir zu teuer.
3080 10Gb etwas zu wenig RAM.
3080 20Gb vermutlich mir zu teuer. (halte eigentlich auch nix von dem heißen GDDR6X)
3070 16Gb ? Ne, lass stecken... da ist bestimmt N22 besser... ;)

M.f.G. JVC

Pascal Parvex
2020-09-25, 13:02:55
1 Byte Videospeicher!?! Yeah, 16K Auflösung, ich komme!

Troyan
2020-09-25, 13:27:41
7nm TSMC und Samsung 8nm werden wohl eher nicht die selben Probleme haben. Und AMD beherrscht die TSMC 7nm nachweislich.

Hier ist wohl Nvidia in das selbe Problem gelaufen mit 8nm Samsung wie Intel mit seiner Fertigung. AMD hat deutlich mehr Erfahrung auf 7nm um da bessere Verbrauchswerte erzielen zu können..

Erkläre mir das mal.
Die 3090 ist 40% effizienter als die 5700XT in Spielen und fast 100% effizienter in allen anderen Anwendungen. Inwieweit beherrscht AMD also den 7nm Prozess nun nachweislich besser als nVidia den 8nm Prozess von Samsung?

Es gibt ansonsten keine anderen 7nm Produkte von AMD auf dem Markt.

Mega-Zord
2020-09-25, 13:42:08
Hier gibt es aber keine Ti - wäre der Abstand zur RTX 2080 lediglich 15% für die Titan RTX gewesen ist das selbe Szenario.

Die Karte kostet ja auch nicht über 2.000 EUR. Fakt ist, dass die 3090 eher ein Titan-Nachfolger ist und dass die eigentlich 3080 "zu gut" ist. die 2080 war seiner Zeit der 1080 Ti nicht deutlich überlegen.

Wenn eine 3080 Ti/Super mit 20 GB kommen sollte würde die ja schätzungsweise 1.000 EUR kosten und noch mal dichter an die 3090 ran kommen. Vielleicht gibt es dann ja doch noch eine Titan mit voll beschaltetem Chip und 48 GB... dann aber sicher für 2.500 bis 3.000 EUR... einfach weil es geht.

Ja, das Gefüge hat sich etwas verändert. Ich wollte damit aber eigentlich nur sagen, dass die 3090 gemessen an der Titan RTX kein so schlechter Deal ist

Complicated
2020-09-25, 14:41:33
GENAU das habe ich doch auch geschrieben... na zu mindest gemeint... Wie kann man das falsch verstehen ???
Habe ich dir widersprochen? Ich hatte das nur thematisch zusammengefasst für Troyan.
Erkläre mir das mal.
Die 3090 ist 40% effizienter als die 5700XT in Spielen und fast 100% effizienter in allen anderen Anwendungen. Inwieweit beherrscht AMD also den 7nm Prozess nun nachweislich besser als nVidia den 8nm Prozess von Samsung?
Weil AMD den 7nm seit 4 Jahren nutzt. Der Samsung Prozess ist neu und noch nicht ausgereifft keiner kennt die Yields. Navi10 ist schon einiges älter und für Navi2x sollten diese Erfahrungen eine Rolle spielen.

Die Erfahrungen von Zen auf 7nm wurden eingebracht durch das CPU-Team.

Das muss man dir erklären?

Complicated
2020-09-25, 14:43:23
Die Karte kostet ja auch nicht über 2.000 EUR. Fakt ist, dass die 3090 eher ein Titan-Nachfolger ist und dass die eigentlich 3080 "zu gut" ist. die 2080 war seiner Zeit der 1080 Ti nicht deutlich überlegen.
Achso...das ist natürlich auch eine Interpretation - zu gut :freak:

hardtech
2020-09-25, 14:48:53
die 3080 ist zu gut.
sehr schön ;D

die lässt nur die netzteile defekt gehen und verbRaucht 320w. zu gut.

Gast
2020-09-25, 15:20:58
Wenn man bei der 3080 das Powerlimit auf 270W begrenzt und den >100°C Hotspot beim Speicher durch ein Pad besser kühlt, könnte man (zumindest teilweise) die ~4% Performanceverlust durch höheren Speichertakt wieder ausgleichen. Nvidias Entscheidung, lieber den Speichertakt deutlich unterhalb der Spezifikation von 21Gbps zu senken, ist erklärungsbedürftig. :|

zockerX
2020-09-25, 15:27:11
Ich frag mich immernoch wieso manche so überrascht sind dass AMD was schlagkräftiges bringen könnte... Man muss sich doch nur anschauen was NVidia abzieht:
Glaubt irgendwer NVidia würde freiwillig den höheren Chip in die niedrigere Liga nehmen ? Glaubt irgendwer NVidia senkt die Preise ohne Grund aus reiner Herzensgüte ? Glaubt irgendwer NVidia prügelt den Chip einfach so schon ab Werk so nah an die Kotzgrenze anstatt sich das für eventuelle TIs oder Supers oder für nach dem AMD Launch aufzuheben ? Hält es irgendwer für unvorstellbar dass die GTX3090 der Versuch ist die Krone zu behalten aber der man hat sich nicht getraut es Titan zu nennen weil der Abstand zur 3080 so wie man sie jetzt bringt zu klein ist ?

Wer hier überall sagt Unvorstellbar der sollte prüfen ob er an der Fanboyitis erkrankt ist. Und das sage ich als jemand der neben 3dfx (und nem kurzen Ausflug zu Matrox Mystique) quasi nur NVidia länger im Rechner hatte bisher...

Für mich sind das Indizien das zumindest NVidia erwartet, dass AMD ihnen ziemlich nah auf der Pelle sitzt!

Der Gegner sind die neuen Konsolen. Ob AMD ein Gegener werden wird, wird sich zeigen. In der Vergangenheit war das trotz großspuriger Ankündigungen von AMD nicht der Fall. Daher eher unwahrscheinlich dass es diesmal der Fall ist.

Lehdro
2020-09-25, 15:27:18
Performance Segemntierung dieses Leaks macht Sinn? LoL. Eine Karte die 2060/3060 gegenübersteht, eine auf 2080, eine auf 2080ti/3070 und eben 3080 Niveau, das würde tatsächlich sinn machen. Würde diesen Leaks genauso viel Vertrauen schenken wie denen die Ampere die 3 - 4 fache RT Leistung nachsagten.
Von Salvage schon einmal was gehört? Wenn du überall ein Produkt mit angenommenen -20% Shadern hinpackst, hast du ein volles Lineup was so ziemlich jedes Segment abdeckt. Ist doch schon immer so gewesen, auch bei NV. Du kannst also durchaus aus "nur" 3 unterschiedlichen Chips ein ganzes Portfolio gestalten. Nur fürs lowend fehlt noch was, aber dafür könnte ja dann N24 herhalten.

Gast
2020-09-25, 15:28:15
was ich ehrlich gesagt nicht verstehe ist die Lob-huddelei zu den neuen 3080/90. klar sind es sehr schnelle karten, aber stört sich denn wirklich niemand an den krassen verbrauchswerten und das alles auf anschlag ist? es wäre mit sichherheit eine tolle karte geworden, wenn man die maximalen verbrauchswerte auf 250 oder 200 watt begrenzt hätte. ich hoffe sehr, amd bringt da auch eine etwas vernünftigere lösung.

Der absolute Verbrauch ist nur ein Aspekt, wichtig ist die Effizienz und da liegt Ampere momentan an der Spitze.
Auch AMD wird hier nicht zaubern können hat aber nominell den Fertigungsvorteil der sie etwas besser darstehen lassen könnte, was aber noch zu beweisen ist.

Begrenzen kann jeder User selbst da braucht es mM keine Bevormundung der von NV mit 250W.

Gast
2020-09-25, 15:30:00
Ich frag mich immernoch wieso manche so überrascht sind dass AMD was schlagkräftiges bringen könnte... Man muss sich doch nur anschauen was NVidia abzieht:
Glaubt irgendwer NVidia würde freiwillig den höheren Chip in die niedrigere Liga nehmen ? Glaubt irgendwer NVidia senkt die Preise ohne Grund aus reiner Herzensgüte ? Glaubt irgendwer NVidia prügelt den Chip einfach so schon ab Werk so nah an die Kotzgrenze anstatt sich das für eventuelle TIs oder Supers oder für nach dem AMD Launch aufzuheben ? Hält es irgendwer für unvorstellbar dass die GTX3090 der Versuch ist die Krone zu behalten aber der man hat sich nicht getraut es Titan zu nennen weil der Abstand zur 3080 so wie man sie jetzt bringt zu klein ist ?

Wer hier überall sagt Unvorstellbar der sollte prüfen ob er an der Fanboyitis erkrankt ist. Und das sage ich als jemand der neben 3dfx (und nem kurzen Ausflug zu Matrox Mystique) quasi nur NVidia länger im Rechner hatte bisher...

Für mich sind das Indizien das zumindest NVidia erwartet, dass AMD ihnen ziemlich nah auf der Pelle sitzt!

EDIT: Und wie schon wo anders geschrieben - ich halte es durchaus für Möglich dass der Move zu Samsung und dem (gegenüber TMSC 7nm) unterlegenen Fertigungsprozess in der Hybris enstand der Abstand zu AMD sei in dieser Gen unaufholbar und man könnte so seine Marge noch etwas erhöhen... Tja und dann sickerten die ersten Infos zu/von AMD durch...

Slebst AMD hat bei TSMC Kontingent Probleme und das obwohl Huawaii weggefallen ist.

3 mal darfst du raten warum NVIDIA 2 gleisig fährt.

Gast
2020-09-25, 15:31:55
Na wenn PSUs aussteigen ist es nicht mehr so ganz egal.
Für sowas gibt es Systemvoraussetzungen die man einzuhalten hat wie bei jeder anderen Komponente auch.

Rabiata
2020-09-25, 15:37:10
Hier gibt es aber keine Ti - wäre der Abstand zur RTX 2080 lediglich 15% für die Titan RTX gewesen ist das selbe Szenario.
Von Preislage und Speicherbestückung setzt sich die 3090 ins selbe Segment wie die Titan RTX. Die 090 im Namen ändert nichts daran daß es sich hier um das absolute Topmodell für das Consumersegment handelt, wie seinerzeit die Titan RTX.

Die High End Profikarte zur Titan RTX ist übrigens die Quadro RTX 6000, selber Chip, selbe Speichermenge. Auch wenn Nvidia mittlerweile die Titan RTX als professionelle GPU einstuft.

Gast
2020-09-25, 15:38:10
Ich bin mal gespannt wie viel Navi21 kosten wird und wie die Verfuegbarkeit ist (+ die der Wasserkuehler). Ich will meinen neuen Rechner moeglichst im November fertig stellen und habe wenig Lust auf eine Uebergangsloesung. Wenn die Abloesung der 5700(XT) erst naechstes Jahr kommt, dann werden die Preise auch noch nicht fallen. Dang!

Laut Igor siehts sogar noch beschissener als bei NV aus, die Partner haben noch nichtmal ne BoM , sprich dieses Jahr eher nur Ref. ( wobei die Kühlerbilder hier auf was Brauchbares im gegensatz zu Navi hoffen lassen ) ,

Verfügbarkeit hängt an TSMC Kontingenten und den fehlenden Kapazitäten , merkt man z.B. daran das es bei den neuen mobile Ryzens mit den Liefermengen klemmt etc.
Sieht Alles in allem nach dem selben Leiferchaos aus wie momentan bei Ampere was schlecht für die Preise ist.

Gast
2020-09-25, 15:45:18
Habe ich dir widersprochen? Ich hatte das nur thematisch zusammengefasst für Troyan.

Weil AMD den 7nm seit 4 Jahren nutzt. Der Samsung Prozess ist neu und noch nicht ausgereifft keiner kennt die Yields. Navi10 ist schon einiges älter und für Navi2x sollten diese Erfahrungen eine Rolle spielen.

Die Erfahrungen von Zen auf 7nm wurden eingebracht durch das CPU-Team.

Das muss man dir erklären?

Der Samsung Prozess wurde 2018 validiert und ging 2019 in Masse das Ding ist bock alt und von den Yields sogar besser als Samsungs 10nm und das war stand 2019!

Schau dir GA100 in TSMC 7nm an das Ding hat eine höhre Dichte und für das verbaute Transistorkontingent eine gerade zu lächerliche Verlustleistung trotz AMDs 4 Jahren Vorsprung in der nutzung des Prozesses, es sind auch nicht AMDs Erfahrungen sondern eher die von TSMC den sie geben Designrules etc. vor.

Lehdro
2020-09-25, 16:01:07
Für sowas gibt es Systemvoraussetzungen die man einzuhalten hat wie bei jeder anderen Komponente auch.
Deswegen sind bei PCGH und LTT jeweils 750W und 850W Netzteile ausgestiegen. Und nein, das waren keine Chinaböller.

Complicated
2020-09-25, 16:05:41
Für sowas gibt es Systemvoraussetzungen die man einzuhalten hat wie bei jeder anderen Komponente auch.
Das wird ja offensichtlich nicht getan, wie Tests zeigen. 77W über den PCIe-Slot ist halt deutlich über den spezifizierten 66W.

Tigerfox
2020-09-25, 16:18:25
Wie man es dreht und wendet, Nvidia hat an absoluter Performance viel zu wenig zugelegt, setzt alles preislich und vom Namen her dafür aber ein Segment niedriger an.
Die 3080 ist nur deshalb ein so guter Deal, weil sie im Prinzip einer optimierten 2080Ti für den alten Preis einer 2080S entspricht. Von den Ausführungseinheiten her entspricht sie fast exakt dem TU102 auf der 2080Ti, mit ein bischen mehr Takt und den Optimierungen von Ampere, aber mit einem Speichercontroller und 1GB VRAM weniger. Da sind ~30% Mehrleistung zu Ti schon ok, aber trotz Shrink (oder weil Samsung 8nm nicht so ein großer Fortschritt ist?) eben mit Energiehunger erkauft und schon jetzt das Maximum rausgeholt.

Ebenso wird die 3070 einer 2080 mit Ampere-Optimierung entsprechen, für den Preis einer 2060S/2070, die 3070Ti einer 2080S für den Preis einer 2070S. Der Taktunterschied wird kleiner sein, die Speicherbandbreite bleibt bei der normalen 3070 sogar gleich, dafür gibt es wohl 50% mehr ROPs, was mal viel, mal wenig bringen kann.

Man kann Gift drauf nehmen, dass NV damit weit weniger Gewinn pro Karte macht als bei den letzten Generationen. Man verkauft gerade den großen Chip für den Preis des zweitgrößten. Deshalb halte ich es auch für wahrscheinlich, dass tatsächlich noch ein GA103 mit 6 statt 7 GPC bzw. 72 statt 84 SM und nur 320 Bit SI kommt, um die Kosten für die 3080(S) zu senken.

Wenn man bei der 3080 das Powerlimit auf 270W begrenzt und den >100°C Hotspot beim Speicher durch ein Pad besser kühlt, könnte man (zumindest teilweise) die ~4% Performanceverlust durch höheren Speichertakt wieder ausgleichen. Nvidias Entscheidung, lieber den Speichertakt deutlich unterhalb der Spezifikation von 21Gbps zu senken, ist erklärungsbedürftig. :|

Das ist ein falsches Gerücht. GDDR6X gibt es mit 19 und 21Gbps. Der Speicher auf der 3080 ist für 19Gbps spezifiziert. Dass er sich auf 21Gbps OCen lässt, hat damit nichts zu tun, mal abgesehen davon, dass ich stark bezweifle, dass der berüchtigte >100°C-Baustein das lange mitmacht. Ich weiss nun nicht, welcher Speicher auf der 3090 verbaut ist, mit 19,5Gbps kann es ja eigentlich nur der schnellere sein, aber NV betreibt auf der 3080 den Speicher nicht unterhalb der Spezifikationen, sondern hat sich bewusst für die langsamere Variante entschieden, sicher aufgrund des Preises, vielleicht auch aufgrund der Kühlanforderungen.
Mit dem OC des Speichers der Founder-Edition um 10% auf 21,1Gbps hat man bei TPU 3,9% rausgeholt. Ob man damit aber auch den Verlust an Chiptakt durch ein Absenken des PT von 320W auf 270W ausgleichen könnte, müsste man testen. Mehr Speicherbandbreite bringt manchmal auch garnichts.

Von Salvage schon einmal was gehört? Wenn du überall ein Produkt mit angenommenen -20% Shadern hinpackst, hast du ein volles Lineup was so ziemlich jedes Segment abdeckt. Ist doch schon immer so gewesen, auch bei NV. Du kannst also durchaus aus "nur" 3 unterschiedlichen Chips ein ganzes Portfolio gestalten. Nur fürs lowend fehlt noch was, aber dafür könnte ja dann N24 herhalten.
Es hat sich bei den letzten 2-3 Generationen gezeigt, dass auch relativ große Unterschiede bei der Anzahl der Shader erstaunlich wenig Performance kosten, weshalb eigentlich nicht mehr so viele Modelle auf Basis eines Chips entstehen können. Wir sehen jetzt beo 3080 und 3090, dass 23,5% mehr Shader und 26,5% mehr Speicherbandbreite bei etwa gleichem Takt, aber nur 9,375% mehr PT in nur in 10-15% mehr Performance münden.

Deshalb frage ich mich, wie das mit der 3070S/Ti und eventuell 3080S/Ti und 3090S/Ti werden soll. Bei allen Modellen sind, wenn man von einem GA103 mit 72SM ausgeht, nur 2-4 SM zusätzlich möglich. Bei der 3070Ti wäre noch deutlich schnellerer Speicher möglich, dann braucht es aber für 16GB auch 16 Chips, die heißer werden, bei der 3080Ti ist nur etwas Speichertakt möglich. Chiptakt und PT geht bei allen kaum noch höher.
Wenn es die 3070 nur mit 8GB und die Ti mit 16GB geben wird, dann kann ich mir das vorstellen, da es aber eine 3080 20GB geben wird, kann ich mir keine 3080S/Ti 20GB mit 72 statt 68 SM und nur minimal höherem Speichertakt vorstellen. Das liefe auf wenigee % Mehrleistung hinaus.

Berniyh
2020-09-25, 16:19:01
Der Gegner sind die neuen Konsolen. Ob AMD ein Gegener werden wird, wird sich zeigen. In der Vergangenheit war das trotz großspuriger Ankündigungen von AMD nicht der Fall. Daher eher unwahrscheinlich dass es diesmal der Fall ist.
Wer vergleicht denn wirklich die Konsolen mit PCs und kauft danach dann eine Konsole oder eine Grafikkarte? Das ist doch auch wieder nur eine extrem kleine Gruppe von Menschen.

Bei der Entscheidung ob Konsole oder PC und wenn Konsole, welche, da sind doch ganz andere Kriterien (z.B. Spieleauswahl) ausschlaggebend als die relative Grafikleistung.

Troyan
2020-09-25, 17:10:52
Habe ich dir widersprochen? Ich hatte das nur thematisch zusammengefasst für Troyan.

Weil AMD den 7nm seit 4 Jahren nutzt. Der Samsung Prozess ist neu und noch nicht ausgereifft keiner kennt die Yields. Navi10 ist schon einiges älter und für Navi2x sollten diese Erfahrungen eine Rolle spielen.

Die Erfahrungen von Zen auf 7nm wurden eingebracht durch das CPU-Team.

Das muss man dir erklären?

Da der 7nm Prozess von TSMC erst seit Frühling 2018 in Massenfertigung ist, finde ich es fazinierend, dass AMD nicht nur zwei früher schon 7nm verwendet hätte, die haben auch mit Navi trotz 3 Jahren Erfahrung massiv gefailt.

Das einzig nachweisbare hier sind deine vollkommen falschen Aussagen. Achja, der 8nm Prozess existiert schon seit zwei Jahren. :rolleyes:

Complicated
2020-09-25, 18:10:43
Sorry bin da mit dem Datum verrutscht.
Aber die 2 Jahre reichen auch seit Radeon VII, mit Navi und Zen2...das sind schon reichlich Erfahrung mit reichlich 7nm Wafer die gelaufen sind inkls. Optimierungen für APUs und Konsolen.

Wie viele 8nm Erfahrungen hat Nvidia gemacht?
Was ist denn massiv gefailt? Was zum essen?

Rabiata
2020-09-25, 18:45:03
Wer vergleicht denn wirklich die Konsolen mit PCs und kauft danach dann eine Konsole oder eine Grafikkarte? Das ist doch auch wieder nur eine extrem kleine Gruppe von Menschen.

Diejenigen Gamer, die schon einen recht leistungsfähigen PC haben und jetzt zwischen einer neuen GraKa und einer Konsole schwanken. Applikationen sind damit abgedeckt, daß man den PC so oder so behalten kann. Bleibt die Frage womit sich besser zocken läßt.

Ich denke die Gruppe ist groß genug um relevant zu sein.

Gast Ritis
2020-09-25, 21:17:14
Da der 7nm Prozess von TSMC erst seit Frühling 2018 in Massenfertigung ist, finde ich es fazinierend, dass AMD nicht nur zwei früher schon 7nm verwendet hätte, die haben auch mit Navi trotz 3 Jahren Erfahrung massiv gefailt.

Das einzig nachweisbare hier sind deine vollkommen falschen Aussagen. Achja, der 8nm Prozess existiert schon seit zwei Jahren. :rolleyes:

Die Aussage von AMD zum "Durchbruch bei Effizienz" bei GPU kam erst mit bzw. nach dem Renoir. Lisa Su sagte in einer Präsentation, dass man das allen GPUs zugute kommen lässt, aber es war im APU-Kontext gesagt.

Sämtliche AMD dGPUs, die heute auf dem Markt sind unterliegen noch einem "Designmanko", das man angeblich behoben haben will.

Die Konsolen lassen zumindest hoffen dass das auch auf grössere Anzahl Shader möglich ist aber bislang weiss man nur von Renoir und NextGen Konsolen dass man sehr wenig Watt pro FPS benötigt verglichen mit den bisherigen AMD Lösungen.
Sofern man wie bei Zen in Perf/Watt postiv überrascht ist und die alten Prognosen der RDNA Roadmap überholt wird man (ohne DLSS on) mit Nvidia gleichziehen oder vorbei ziehen. Aber ist ja nur noch ein Monat bis zum Release... da kann man einfach mal abwarten. Es gibt dann immer noch genug Details was der eine Anbieter besser kann als der Andere.

Gast
2020-09-25, 21:30:54
Das wird ja offensichtlich nicht getan, wie Tests zeigen. 77W über den PCIe-Slot ist halt deutlich über den spezifizierten 66W.

https://www.igorslab.de/nvidia-geforce-rtx-3090-founders-edition-review-zwischen-mehrwert-und-vermeintlicher-dekadenz-wenn-der-preis-nicht-alles-ist/16/

Die 5,5A werden perfekt eingehalten, zwar am oberen Ende der Spec, aber eben noch innerhalb der Spec.

Und nein OC zählt nicht, wer eh schon die Karte überhalb der Spec betreibt, den wird das minimale überschreiten der PCIe Spec auch nicht stören.

Gast
2020-09-25, 21:32:39
Da sind ~30% Mehrleistung zu Ti schon ok, aber trotz Shrink (oder weil Samsung 8nm nicht so ein großer Fortschritt ist?) eben mit Energiehunger erkauft und schon jetzt das Maximum rausgeholt.

Nvidia hat im vielgescholtenen 8nm von Samsung immerhin die Transistordichte von AMD im ach so tollen 7nm von TSMC.

Gut energetisch scheint der Prozess wirklich nicht das gelbe vom Ei zu sein.

Rabiata
2020-09-25, 22:58:37
Wie oft noch: GDDR6X benötigt ebenfalls mehr Strom als GDDR6. Eine 3070 mit 220W wird 50% schneller als eine 5700XT sein und dabei ähnlich viel Strom benötigen. Ohne GDDR6X gäbe es jedoch nicht mehr als 760GB/s an 384bit.
Eine 3080 mir 280W ist ca. 25% schneller als die 3070 mir 220W.

AMD wird exakt die selben Probleme haben ihre Chips nach oben zu skalieren. Der Unterschied zu nVidia ist, dass Ampere mal so eben 80% mehr Rechenleistung liefert.
Der angebliche Sprung von AMD auf 3080-Niveau mit nur einem 256 Bit Speicherinterface kommt mir auch verdächtig vor. Davon bin ich erst überzeugt, wenn das auch so released wird.
Ein 512 bit Speicherinterface hatte AMD schon mal im Jahr 2013 mit Hawaii auf der Radeon R9 290. Ich denke, das könnten sie auch wieder.

Gast
2020-09-26, 00:24:32
Also wenn AMD wirklich mit so wenig Speicherbandbreite auskommte, sind sie entweder sehr viel langsamer als erwartet oder sehr viel effizienter als erwartet.

Wobei ehrlicherweise rein gar nichts darauf hindeutet, dass das wirklich stimmen kann, vermutlich kann AMD ja auch nicht auf GDDR6X zugreifen sondern muss mit GDDR6 vorlieb nehmen, also müssten sie eher ein breiteres, aber sicher kein schmaleres Interface brauchen.

Wenn wir mal die XBOX Series X anschauen hat man hier 320bit für 56 CUs.

Und selbst wenn wir sagen, dass davon vielleicht 64bit für die CPU effektiv verwendet werden, sind es immer noch 256bit für die CPU.

Wie man da mit gerade mal 256bit die mehr oder weniger gleiche Architektur mit 80CUs versorgen kann muss mal jemand erklären.

Und was diesen ominösen Cache angeht, gibt auch die XBOX recht gute antworten. Bis zur Xbox One X hat Microsoft so lange sie AMD GPUs verwendet haben immer etwas vergleichbares verwendet, um eben mit relativ wenig Bandbreite auszukommen, mit teils eher mäßigem Erfolg.

Glaubt jemand wirklich ernsthaft, falls so ein Cache in Entwicklung wäre und auch noch die geforderte Performance liefern kann, dass MS diesen bei der Series X nicht verwendet hätte?

Digidi
2020-09-26, 01:37:39
Link zur News:
https://www.3dcenter.org/news/vermutliche-hardware-daten-zu-amds-navy-flounder-samt-weiterer-geruechte-zur-rdna2-generation-a
@Leonidas Es sind 4 Shaderengines und 8 Rasterizer nicht 4 Rasteregnines ;)

256 bit Speicherinterfache könnte Stimmen. Wenn Navi 21 ein Tile design ist (halt noch auf einem Die) dan könnten wir vielleicht 2x256 bit Speicherinterfache sehen.

Gast
2020-09-26, 01:44:31
Die Aussage von AMD zum "Durchbruch bei Effizienz" bei GPU kam erst mit bzw. nach dem Renoir. Lisa Su sagte in einer Präsentation, dass man das allen GPUs zugute kommen lässt, aber es war im APU-Kontext gesagt.

Sämtliche AMD dGPUs, die heute auf dem Markt sind unterliegen noch einem "Designmanko", das man angeblich behoben haben will.

Die Konsolen lassen zumindest hoffen dass das auch auf grössere Anzahl Shader möglich ist aber bislang weiss man nur von Renoir und NextGen Konsolen dass man sehr wenig Watt pro FPS benötigt verglichen mit den bisherigen AMD Lösungen.
Sofern man wie bei Zen in Perf/Watt postiv überrascht ist und die alten Prognosen der RDNA Roadmap überholt wird man (ohne DLSS on) mit Nvidia gleichziehen oder vorbei ziehen. Aber ist ja nur noch ein Monat bis zum Release... da kann man einfach mal abwarten. Es gibt dann immer noch genug Details was der eine Anbieter besser kann als der Andere.

Die Xbox x hat nicht umsonst ein 315w NT , rechnet man CPU und sicherheit und Klimbim raus ist man immernoch bei ca. 200w für den gpu Part .

Gast
2020-09-26, 01:48:52
@Leonidas Es sind 4 Shaderengines und 8 Rasterizer nicht 4 Rasteregnines ;)

256 bit Speicherinterfache könnte Stimmen. Wenn Navi 21 ein Tile design ist (halt noch auf einem Die) dan könnten wir vielleicht 2x256 bit Speicherinterfache sehen.

Warum sollte man sich das antun wenn’s eh auf einem die isst ???

Leonidas
2020-09-26, 04:11:38
Das zweite soll wohl eher Navi 22 heißen


Natürlich. Gefixt.





bzgl. Vorstellung würde ich von keinem so großen Abstand zwischen Sienna Cichlid und Navy Flounder ausgehen. Der Support im Treiber zu Navy Flounder ist jetzt schon fast vollständig und hat nur ca. 1-2 Monate nach Sienna Cichlid angefangen.


Nehme ich als Hinweis dankend entgegen und werde es zukünftig mit beachten.





8-16 Bit Speicher :-)


Gefixt. Sorry, war gestern Abend nicht mehr da. PC-Notrettungs-Einsatz.





@Leonidas Es sind 4 Shaderengines und 8 Rasterizer nicht 4 Rasteregnines ;)



Die Rasterizer sind der relevante Part, die "Shader-Engines" nur eine Verwaltungs-Zuordnung. Deswegen erwähne ich nur die Raster-Engines. Aus Tradition nenne ich jene beim alten Namen, auch wenn AMD das nicht mehr so handhabt. Erleichtert aber den Vergleich zu früher und zu NV.

Digidi
2020-09-26, 04:22:04
Die Rasterizer sind der relevante Part, die "Shader-Engines" nur eine Verwaltungs-Zuordnung. Deswegen erwähne ich nur die Raster-Engines. Aus Tradition nenne ich jene beim alten Namen, auch wenn AMD das nicht mehr so handhabt. Erleichtert aber den Vergleich zu früher und zu NV.

Ja die Rasterizer sind der relevante Part und davon hat Navi21 8 und nicht 4 weil jede Shader engine nun 2 Rasterizer enthält laut den leaks ;)

Gast
2020-09-26, 08:18:39
7nm TSMC und Samsung 8nm werden wohl eher nicht die selben Probleme haben. Und AMD beherrscht die TSMC 7nm nachweislich.

Hier ist wohl Nvidia in das selbe Problem gelaufen mit 8nm Samsung wie Intel mit seiner Fertigung. AMD hat deutlich mehr Erfahrung auf 7nm um da bessere Verbrauchswerte erzielen zu können.

https://www.pcgamesn.com/amd-rdna-2-gpu-zen

Back in 2018 it was reported that AMD’s Suzanne Plummer had assembled a team to shift over to the Radeon Technologies Group with the specific goal of improving the efficiency of its graphics architectures with a view to boosting the overall clock speed of its chips. Plummer had been a key architect on the initial Zen CPU design, and the ‘Project Zen’ optimisation team was then to inject a little of that same magic into upcoming AMD GPU designs.

https://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/Ryzen-5-Radeon-Technologies-Group-RTG-1254102/

Suzanne Plummer war bis zum Jahreswechsel als Senior Director mit an den Zen-Designs beteiligt und ist schließlich zur Radeon Technologies Group gewechselt. Als Corporate Vice President stellt sie ein hohes Tier dar. Die Erfahrungen in der CPU-Entwicklung sollen in die Grafikchips übertragen werden. Konkret werden mögliche Erhöhungen der Taktraten beim gleichzeitigen Ausbalancieren der Leistungsaufnahme genannt - Chipdesigns lassen sich auf Kosten der benötigten Fläche grundsätzlich auf höhere Frequenzen auslegen.

Gast
2020-09-26, 08:25:06
Slebst AMD hat bei TSMC Kontingent Probleme und das obwohl Huawaii weggefallen ist.

3 mal darfst du raten warum NVIDIA 2 gleisig fährt.

Diskrete GPUs und dieses Profizeug macht einfach keine interessanten Stückzahlen.

Gast
2020-09-26, 08:27:17
Schau dir GA100 in TSMC 7nm an das Ding hat eine höhre Dichte und für das verbaute Transistorkontingent eine gerade zu lächerliche Verlustleistung

Und zu welchen Preis?

nagus
2020-09-26, 08:46:16
Navi 22: "angeblich +25-30% auf Radeon RX 5700 XT, zwischen GeForce RTX 2070 Super & 2080 Super" ... das wäre aber ÜBER der 2080 SUPER, nicht "zwischen 2070 und 2080 SUPER" ;)

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440

Leonidas
2020-09-26, 09:46:04
Ja die Rasterizer sind der relevante Part und davon hat Navi21 8 und nicht 4 weil jede Shader engine nun 2 Rasterizer enthält laut den leaks ;)



Mein Fehler, ich meine natürlich 8/4. Hab ich mich nun selber von AMDs verwirrenden Angaben verwirren lassen ;)




Navi 22: "angeblich +25-30% auf Radeon RX 5700 XT, zwischen GeForce RTX 2070 Super & 2080 Super" ... das wäre aber ÜBER der 2080 SUPER, nicht "zwischen 2070 und 2080 SUPER" ;)
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440


Erscheint mir auch generell über-optimistisch. Mit derselben Anzahl an CU holt man nicht gleich +25-30% heraus.

Gast
2020-09-26, 10:51:36
Und zu welchen Preis?

Der ist doch in dem diskutierten Sachverhalt völlig egal gewesen, es ging hier um die Behauptungen zu den technischen Aspekte wie dichte und Energieeffizienz .

Mr.Smith
2020-09-28, 11:42:54
In England geht das mit Fish&Chips schneller.