PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 19. Juli 2021


Leonidas
2021-07-20, 10:02:57
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-19-juli-2021

GerryB
2021-07-20, 10:24:17
Nur gut, das Jensen die User schonmal auf 350W eingenordet hat.
Da hat AMD dann in 5nm noch etwas Luft, um das Performanceplus zu schaffen.
(wg. der 2x8pin wirds dann wohl nur noch ne Option von PL+10 im Treiber geben)

NV hätte wohl nur bei TSMC ne Chance auf halbwegs sinnvolle W/fps, außer man
kommt auch mit nem IF Cache als Sparmöglichkeit.

Gast
2021-07-20, 11:52:13
NV hätte wohl nur bei TSMC ne Chance auf halbwegs sinnvolle W/fps, außer man
kommt auch mit nem IF Cache als Sparmöglichkeit.
Woher wissen wir denn, dass Ampere wegen Samsungs 8nm so säuft? Vielleicht liegt's ja auch an der Architektur und Samsungs Fertigung ist nicht so weit weg von TSMC?

Cyberfries
2021-07-20, 12:05:00
Inwiefern ist die Auflistung ein Beleg für 8se bei N31? Wenn, dann deutet das eher auf 4se hin, wenn überhaupt auf irgendetwas.
Man kann es auch mit der Interpretation übertreiben.

Ich bin mir ohnehin nicht sicher, ob wir diesem Nutzer vetrauen sollten. Er hat sein Unwissen bereits bei Speicherinterface
und Inf Cache unter Beweis gestellt. Und ob seine "Zweifel" an 160CUs berechtigt sind....

Seine Aussage zu 5nm ist auch nichts neues...

Gast
2021-07-20, 12:08:28
Bezüglich dem Verbrauch und der Performance: So pauschal kann man da nicht sagen, dass der Verbrauch steigen wird. Es kommt halt auch immer auf den Betriebspunkt an, den der Hersteller wählt.
Oder anders ausgedrückt: Wenn ich eine aktuelle Karte von 350W auf 300W reduziere, dann fällt die Leistung nur um ein paar Prozente, aber der Verbrauch schon deutlich.
Das könnte man bei den neuen Karten ja auch machen: Einfach bei 300W den Riegel vorschieben. Damit verliert die Karte dann etwas Leistung, spart aber deutlich beim Verbrauch.
Das wird man nur als Hersteller nicht machen, weil man ja immer die schnellste Karte haben will, aber das hat dann nichts mit dem Fertigungsprozess zu tun, sondern einfach mit dem Betriebspunkt, den der Hersteller wählt. Ist halt alles eine Frage des Herstellers und welchen Verbrauch dieser als noch vernünftig ansieht.

Leonidas
2021-07-20, 12:13:56
Das mit den 160 CU sehe ich eher als Hinweis darauf, das "CU" als Einheit von AMD beerdigt wird und es nur noch WGP gibt.

PS: Ist möglicherweise schon in RDAN2 Realität (oder ähnlich), aber man nennt es noch nicht so.

Gast
2021-07-20, 12:36:21
Woher wissen wir denn, dass Ampere wegen Samsungs 8nm so säuft? Vielleicht liegt's ja auch an der Architektur und Samsungs Fertigung ist nicht so weit weg von TSMC?

1. ist "8N" ein 10nm Prozess, und selbst Samsung würde nicht auf die Idee kommen dass dieser vergleichbar mit TSMCs 7nm ist.

2. wissen wird dank diverser Qualcomm Designs die in ähnlicher Form sowohl bei Samsung als auch TSMC gefertigt werden, dass TSMC ganz eindeutig besser ist, und vor allem auch dass der Unterschied immer größer wird.
In der 14/16nm Generation war Samsung sogar noch leicht besser, die 10nm Generation war in etwa gleich auf, in der 7er Generation ist TSMC erstmals klar vorne und bei 5nm kann Samsung gerade mal mit TSMCs 7nm mithalten, was mittlerweile sogar die offiziellen Zahlen wiedergeben.

Samsung setzt alles darauf als erster GAA in Masse fertigen zu können und erhofft sich daraus einen ähnlichen Sprung wie die FINFET Transistoren gegenüber planaren gebracht haben und verwendet auch einen Großteil der F&E-Ressourcen dafür ein. FINFET ist bei Samsung "ausgelutscht" und wird nur mehr minimal weiterentwickelt, was man vor allem am 5nm Prozess sieht, der gegenüber dem eigenen 7nm Prozess eigentlich eher ein half node sprung ist.

iamthebear
2021-07-20, 13:02:39
Woher wissen wir denn, dass Ampere wegen Samsungs 8nm so säuft? Vielleicht liegt's ja auch an der Architektur und Samsungs Fertigung ist nicht so weit weg von TSMC?

Ampere säuft nur deshalb so sehr, weil Nvidia die Karten mit sehr aggressiven Taktraten ausliefert. Beispiel hier die 3080: 270W statt 320W TDP (-15%) bedeuten -4% Performance in 4K.

ChaosTM
2021-07-20, 13:10:09
Hat jemand eine 3090er mal mit 250 Watt laufen lassen? Würde mich interessieren in Bezug auf meine derzeitige Karte und was da noch an Vorsprung über bleibt.
Die mobile "3080" schafft 1080ti Leistung + RT mit 90-100 Watt. Das finde ich recht beachtlich.

Gast
2021-07-20, 14:40:32
Ampere säuft nur deshalb so sehr, weil Nvidia die Karten mit sehr aggressiven Taktraten ausliefert. Beispiel hier die 3080: 270W statt 320W TDP (-15%) bedeuten -4% Performance in 4K.
Also weil NVidia den Betriebspunkt entsprechend gewählt hat. Dann ist aber nicht Samsung schuld, sondern NVidia. Die wollten Samsung als Fertiger und haben den Betriebspunkt zu hoch angesetzt.

Gast
2021-07-20, 14:51:41
Die mobile "3080" schafft 1080ti Leistung + RT mit 90-100 Watt. Das finde ich recht beachtlich.
Hast du da mal einen Link? Bei NBC ist sie grob 10% vor einer 1080TI, allerdings auch auf ca.140W konfiguriert. Meist ist sie grob im Bereich einer 2080 Mobile, die scheinbar überraschend gut mithalten kann.

Gast
2021-07-20, 15:08:30
Microns 176-Schichten Speicher wird 2 TB auf 2230er SSDs ermöglichen.
Bei Samsung und SK Hynix dann auch.
Produkte 2022 erwartet.

Gast
2021-07-20, 15:17:09
Ampere säuft nur deshalb so sehr, weil Nvidia die Karten mit sehr aggressiven Taktraten ausliefert. Beispiel hier die 3080: 270W statt 320W TDP (-15%) bedeuten -4% Performance in 4K.
Du erwähnst nur die durchschnittliche Bildrate. Compterbase hinkt hier so hinterher ...
Hardwareuxx und andere seriöse Tester zeigen die minimale Bildrate bei 0,1 oder 1 %, und hier geht es bei RTX 3080/3090 bei 250 - 300 W gehörig runter (teils 10 - 20 % in den meisten Spielen).
300 W immer noch nahe 10 %.

Igorslab test dies auch exemplarisch vorbildlich bei RX 6xxx Undervolting und empfiehlt auch hier z.B. bei RX 6800 nicht weniger als 930 mV für die GPU. 900 mV gibt es mini-Ruckler.
40 - 50 W weniger sollten es z.B. bei RX 6800XT/6900XT nicht werden.
RX 6xxx schneidet diesbezüglich besser ab als RTX 3xxx.

Leonidas
2021-07-20, 15:44:11
Microns 176-Schichten Speicher wird 2 TB auf 2230er SSDs ermöglichen.
Bei Samsung und SK Hynix dann auch.
Produkte 2022 erwartet.

Exzellent. Füge ich an.

Mr.Smith
2021-07-20, 15:52:55
bei welcher es um das Verhältnis von Performance zum Stromverbrauch unter den 5nm-Chips handelt

irgendwas passt da grammatikalisch nicht.

Leonidas
2021-07-20, 15:57:51
Stimmt. Gefixt.

Gast
2021-07-20, 16:34:28
Du erwähnst nur die durchschnittliche Bildrate. Compterbase hinkt hier so hinterher ...
CB hat doch auch Perzentil Werte in ihren Tests. Und in dem von dir zitierten Text steht auch nirgendwo, dass die Werte von CB stammen.

Lehdro
2021-07-20, 16:42:42
Die m.2 Steckplatzgrafik ist ja mal putzig. Es wäre auch zu einfach für die Amis die Maße anhand der Namen abzuleiten.

2230 = 22mm breit, 30mm lang
2242 = 22mm breit, 42mm lang
etc

Nein die müssen wieder alles auf ihre Snowflakeeinheiten umrechnen, die natürlich völlig krumm sind :D

iamthebear
2021-07-20, 21:34:26
Du erwähnst nur die durchschnittliche Bildrate. Compterbase hinkt hier so hinterher ...
Hardwareuxx und andere seriöse Tester zeigen die minimale Bildrate bei 0,1 oder 1 %, und hier geht es bei RTX 3080/3090 bei 250 - 300 W gehörig runter (teils 10 - 20 % in den meisten Spielen).
300 W immer noch nahe 10 %.

Igorslab test dies auch exemplarisch vorbildlich bei RX 6xxx Undervolting und empfiehlt auch hier z.B. bei RX 6800 nicht weniger als 930 mV für die GPU. 900 mV gibt es mini-Ruckler.
40 - 50 W weniger sollten es z.B. bei RX 6800XT/6900XT nicht werden.
RX 6xxx schneidet diesbezüglich besser ab als RTX 3xxx.

Ich halte ehrlich gesagt nicht viel davon sich nur auf die schlechtesten 1% zu fixieren. Wenn es stark einbricht ja dann ist es ein Problem aber solange man sich bei den Lows im gesunden 50fps+ Bereich bewegt ist das relativ egal. Hier spürt man die average fps beim Input Lag aber ob nun einzelne Frames z.B. 1/100 oder 1/120 Sekunde brauchen ist relativ egal. Hier reden wir von +/- 2ms, haben aber auf der anderen Seite beim Monitor bei 120Hz sowieso +/- 8.3ms Streuung.

Als Komplementärtest hat das ja alles seine Berechtigung genauso wie die Frametime Diagramme beim Vergleich von 2 Herstellern aber primär geht es doch um fps und Input Lag.

Wenn die 1% Lows reproduzierbar beim Absenken der TDP stärker einbrechen, dann hat das Wahrscheinlich eher damit zu tun. dass die initiale Taktrate nicht mehr wirklich zu der TDP passt und es deshalb zu stärkeren Taktsprüngen kommt. Ich bezweifle, dass dies ein systematisches von Nvidia nicht lösbares Problem ist.

CB hat doch auch Perzentil Werte in ihren Tests. Und in dem von dir zitierten Text steht auch nirgendwo, dass die Werte von CB stammen.

Doch er hat Recht. Die Werte sind von Computerbase und der eine Test mit der Verringerung der TDP hat keine 1% Lows dabei. Trotzdem hat das jetzt eigentlich mit dem Thema wenig zu tun. Die Kernaussage lautet: Ampere wird in einem Taktbereich ausgeliefert, wo sehr kleine Taktgewinne durch unverhältnismäßig hohe TDP Erhöhungen erkauft wurden.

iamthebear
2021-07-20, 21:56:49
1. ist "8N" ein 10nm Prozess, und selbst Samsung würde nicht auf die Idee kommen dass dieser vergleichbar mit TSMCs 7nm ist.

2. wissen wird dank diverser Qualcomm Designs die in ähnlicher Form sowohl bei Samsung als auch TSMC gefertigt werden, dass TSMC ganz eindeutig besser ist, und vor allem auch dass der Unterschied immer größer wird.

Wenn es um die Diskussion 8nm Samsung vs. 7nm TSMC geht, so musst du hier gar nicht so weit gehen. GA100 wird in 7nm TSMC gefertigt. GA100 hat 65 Mio. Transistoren/mm². GA102 und niedriger haben ca. 45 Mio.

In der 14/16nm Generation war Samsung sogar noch leicht besser, die 10nm Generation war in etwa gleich auf, in der 7er Generation ist TSMC erstmals klar vorne und bei 5nm kann Samsung gerade mal mit TSMCs 7nm mithalten, was mittlerweile sogar die offiziellen Zahlen wiedergeben.

Samsung setzt alles darauf als erster GAA in Masse fertigen zu können und erhofft sich daraus einen ähnlichen Sprung wie die FINFET Transistoren gegenüber planaren gebracht haben und verwendet auch einen Großteil der F&E-Ressourcen dafür ein. FINFET ist bei Samsung "ausgelutscht" und wird nur mehr minimal weiterentwickelt, was man vor allem am 5nm Prozess sieht, der gegenüber dem eigenen 7nm Prozess eigentlich eher ein half node sprung ist.

Seit bei 28nm die Gate Länge als Basis für die Bezeichnung abgeschafft wurde haben sich die Angaben generell zu Fantasiewerten der Hersteller entwickelt. Im Prinzip ist kein Hersteller mehr ehrlich. Manche Firmen wie Samsung dehnen die Wahrheit nur etwas weiter als andere wie Intel.

TSMCs Sprung von 7nm auf 5nm ist ca. ein Half Node Step. Samsungs 5nm sind bestenfalls ein Viertel Node Step und da muss man schon ein Auge zu drücken.

Was man bei der Ganzen Sache jedoch nicht außer Acht lassen darf sind die Fertigungskosten. Diese sind bei TSMC deutlich höher. Eine RTX 3080 lässt sich deutlich günstiger produzieren als eine 6800 XT. Es kommt zwar nichts davon beim Kunden an, das Nvidia unabhängig von der aktuellen Marktsituation deutlich mehr Deckungsbeitrag als AMD haben will. Unter 40% sind die ja nicht zufrieden. Würde Nvidia bei TSMC fertigen, so würden die Karten gleich um eine ordentliche Ecke mehr kosten.

Gast
2021-07-20, 22:05:25
Seit bei 28nm die Gate Länge als Basis für die Bezeichnung abgeschafft wurde haben sich die Angaben generell zu Fantasiewerten der Hersteller entwickelt.


Ich weiß, wobei zumindest bei Intel die Transistordichte einigermaßen mit dem Marketingwert übereinstimmt.

Richtig böse wurde es mit dem 14/16nm Node von Samsung/TSMC, der im Prinzip nichts anderes als ein 20nm fixed war, weil der ursprüngliche 20nm unbrauchbar war.

Damit ist alles außer Intel schon mal einen ganzen Node daneben, und das wird natürlich noch schlimmer, da die Sprünge danach nie wirklich ein ganzer Fullnode waren, während bei Intel die Sprünge von 22 auf 14 und dann von 14 auf 10 sogar mehr als ein Fullnode waren (gut sie haben dafür auch gefühlte 10 Jahre gebraucht)



TSMCs Sprung von 7nm auf 5nm ist ca. ein Half Node Step.


-45% Fläche bei TSMC von 7 auf 5 ist schon deutlich mehr als ein Half Node und kommt dem Fullnode schon recht nahe. Die -30% von Samsung sind freilich weit davon entfernt.

iamthebear
2021-07-21, 01:17:56
Diese -45% kann man nicht so pauschal sagen. Es gibt Teile die besser skalierenden, andere skalieren schlechter. Und nun rate einmal auf was sich eine Herstelleraussage von -45% bzw. 1.8x bezieht...

In der Praxis sieht es mit der Skalierung ca. so aus
.) Logik 1.8x
.) SRAM 1.3x
.) IO 1.2x
.) Energieeffizienz bei gleicher Performance: 1.25x (nur zum Vergleich, hat nichts mit dem Shrink zu tun)

Also wenn du mich fragst fehlt da gerade wenn man die Unmengen an Cache bedenkt, die AMD so verbaut noch einiges.


Ich vergleiche am Liebsten die Größen der SRAM Zellen über mehrere Generationen. Da haben die Hersteller wenig Möglichkeit etwas schön zu rechnen.

TSMC 28nm: 0.127μm
TSMC 5nm: 0.021μm

Also war die Skalierung bei SRAM Zellen über 5 angebliche Full Mode Shrinks bei 6x. Sein sollte es rechnerisch 32x.
Oder umgekehrt: TSMC 5nm entspricht ca. 11.4 echter nm
Samsung 5nm entspricht 12.7 echter nm (wenn man TSMC 28nm als Basis hernimmt, bei Samsung habe ich keine passenden Vergleichsdaten)

Sehen wir uns an wie ehrlich Intel war:
32nm: 0.148μm
10nm: 0.031μm

Skalierung soll: 10.24x (oder 8x wenn man es als 3 Full Node Steps sieht)
Skalierung ist: 4.74

Oder anders ausgedrückt: 14.7 echte nm

Gast
2021-07-21, 08:07:15
TSMC 28nm: 0.127μm
TSMC 5nm: 0.021μm
[...]
Intel
32nm: 0.148μm
10nm: 0.031μm
Dann ist doch TSMCs 7nm wohl ziemlich gleich mit Intels 10nm, das ist ja auch überall zu lesen, oder? Wenn man das weiß und berücksichtigt, dann passt's ja wieder.
Das Problem ist ja auch eher, dass Intel grob 8 Jahre gebraucht hat, 10nm wirklich massentauglich zu bekommen, während es bei TSMC bisher ziemlich gut mit den nächsten Nodes geklappt hat. Man muss ja auch schauen, wo Intel her kommt: Die waren mal mit weitem Abstand führend in der Fertigung, hatten 2 Full Nodes Vorsprung vor AMD (14nm gegen 32nm, oder anders ausgedrückt: 1/4 Verbrauch alleine durch die Fertigung!) und der Vorsprung ist jetzt mehr als weg. Die Architekturen sind ja nach wie vor sehr gut, aber durch einen Gleichstand bei der Fertigung (zumindest im Mobile, Desktop ist man aktuell ja noch hinterher) ist man halt auch nicht besser als die Konkurrenz.

Gast
2021-07-21, 09:46:21
(14nm gegen 32nm, oder anders ausgedrückt: 1/4 Verbrauch alleine durch die Fertigung!)

1/4 Fläche, nicht 1/4 Verbrauch. Der Verbrauch skaliert wesentlich weniger als die Fläche, teilweise sogar fast überhaupt nicht mehr.