PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 25. Mai 2020


Leonidas
2020-05-26, 09:55:13
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-25-mai-2020

amdfanuwe
2020-05-26, 11:35:44
Nur 12 und 16 Core ZEN3 CPUs fürs erste könnte schon darauf hindeuten, dass das kein Chiplet Design wie bei Matisse wird. Sonst könnte man ja einfach nur mit einem Chiplet bestücken.
Ich tippe weiter auf monolithische 16 Kern CPU für Desktop und zur CES eine ZEN3 APU die dann 8 und 6 Core abdeckt.

Bucklew
2020-05-26, 11:54:42
würde die erste Milchmädchenrechnung grob den doppelten Stromverbrauch der Radeon RX 5700 XT (ergo ~440W) ergeben. Bei einer nominell 50%ig besseren Energieeffizienz kann man dann bei grob 250-300 Watt Stromverbrauch herauskommen
Wie kommt man denn bitte bei 440W / 1,5 auf 250-300W? Das Ergebnis lautet 293W.

Die Frage ist, ob diesmal AMD bei den Angaben ihrer P/W nicht wieder lügt wie bei Polaris zum Beispiel :ugly:

https://www.3dcenter.org/news/der-real-erreichte-energieeffizienz-gewinn-bei-amds-polaris

Birdman
2020-05-26, 12:31:47
Nur 12 und 16 Core ZEN3 CPUs fürs erste könnte schon darauf hindeuten, dass das kein Chiplet Design wie bei Matisse wird. Sonst könnte man ja einfach nur mit einem Chiplet bestücken.
16er CCD mit 8er CCX und einem I/O Chiplet wäre auch eine Möglichkeit.

Gast
2020-05-26, 12:51:00
AMD hat bis heute nix geliefert was eine 2017er 1080Ti bei 250W einholt trotz RDNA,7nm,GDDR6.

Man hat eine 5700XT gebracht die 225W verheizt trotz all dieser Bonie und dabei noch deutlich langsamer zu Werke geht und weniger Vram trägt.

Wer für Big Navi jetzt 2080Ti +25% inkl. RT implementierung bei 250W als realistisch ansieht der hat echt einen unerschütterlichen Glauben

Mega-Zord
2020-05-26, 12:51:12
Ich bin gespannt. Ich könnte mir zum ersten mal seit über 10 Jahren vorstellen, einen AMD zu kaufen. Ich würde ggf. meinen 9900k in Frührente schicken. Wenn der 4900X in Spielen mit dem kommenden Intel Top-Modell mithalten kann, ist die Sache eigentlich geritzt. Der Zen-2-Refresh mit den angehobenen Frequenzen stimmt mich auf jeden Fall positiv.

Beim Recherchieren von möglichen Boards habe ich auch erfahren, dass LAN- und WLAN-Chips vernüftiger Weise trotzdem von Intel kommen :D

Gast
2020-05-26, 12:53:10
In welcher Phantasiewelt muss man denn leben, dass man von 50% mehr Effizienz ausgeht?

Oberst
2020-05-26, 13:44:30
Ich tippe weiter auf monolithische 16 Kern CPU für Desktop und zur CES eine ZEN3 APU die dann 8 und 6 Core abdeckt.
Was würde man dann im Server Segment machen? Das ist der für AMD viel wichtigere Markt. Daher glaube ich da eher nicht dran.

Dino-Fossil
2020-05-26, 14:47:50
Könnte der kolportierte Refresh vielleicht auch das Ziel haben, auch auf älteren Boards, die kein Update auf Zen3 mehr bekommen werden, noch ein paar neue CPUs bieten zu können?

Gast Ritis
2020-05-26, 15:22:42
Wie gut oder schlecht Navi und Ampere wirklich werden ist noch alles im Kaffeesatz.

Bei RDNA2 wird AMD vermutlich den nächsten Schritt mit Caches machen. Je weniger auf L2 oder gar auf das SI zugegriffen wird desto weniger Watt wird das benötigen. Der Takt steht dann auch noch völlig in den Sternen und da kann es schnell hoch oder runter gehen. Vega auf Glofo war v.a. zu wenig Takt bei zu viel Watt im Vergleich zu Pascal.

Nvidia will ja mächtig mehr Cache verwenden und ob das AMD Raytracing BVH Intersection in den Shaderunits mehr oder weniger Watt als die "RT-Cores" von Nvidia braucht ist auch noch unklar.

Von da her lohnt sich gar nicht darüber zu spekulieren, zu viele Unbekannte.

Lehdro
2020-05-26, 15:51:45
In welcher Phantasiewelt muss man denn leben, dass man von 50% mehr Effizienz ausgeht?
In AMDs Welt anscheinend:

https://www.pcgameshardware.de/screenshots/original/2020/03/GPU-Folie-7-pcgh.jpg

Gast
2020-05-26, 15:55:55
Damit sollte das projektierte Performance-Potential von Navi 21 ausreichend sein, um die GeForce RTX 2080 Ti beachtbar mit einer Mehrperformance von +15-25% zu schlagen. Dieser hohe Ansatz ergibt aber auch, das hierfür eine passend hohe Speicherbandbreite notwendig sein wird, um die vorhandene Rohpower auch äquadat auf die Schiene zu bringen bzw. sich nicht noch mehr Skalierungsverluste einzuhandeln. Ob dies mit einem 384 Bit breiten GDDR6-Interface gelingen kann, ist eher zu bezweifeln – gerade da AMD nicht dafür bekannt ist, Speicherbandbreite derart effektiv ausnutzen zu können wie nVidia.

Ein großer Teil des Energieaufwandes innerhalb von Grafikchips ist der Transport von Daten von A nach B.

Wenn die +50% Effizienz tatsächlich realistisch sind, sind diese realistisch gesehen nur erreichbar, wenn man deutlich effizienter mit der Bandbreite wie bisher umgeht.

Wenn die +50% stimmen, braucht man also nicht unbedingt extrem viel mehr an roher Bandbreite, außer natürlich man würde es mit HBM machen und den Energieaufwand pro übertragenen byte damit senken. Aber Vega hat gezeigt dass selbst damit nie und nimmer +50% drinnen sind.

Gast
2020-05-26, 16:07:20
In AMDs Welt anscheinend:

https://www.pcgameshardware.de/screenshots/original/2020/03/GPU-Folie-7-pcgh.jpg

Auf der selben Folie steht auch "driving perfromance Leadership in Desktop and Laptop" , die Realität sieht aber komplett anders aus.

Bucklew
2020-05-26, 16:10:56
In AMDs Welt anscheinend:
Die ja auch bei Polaris schon so die Wahrheit gesagt haben ;D

Wie man da auf der Folie auch noch von "Leadership" lügen kann :rolleyes:

Gast
2020-05-26, 19:43:06
Zwischen GCN und RDNA liegen bestenfalls 20% mehr Effizienz, und schon dort hat AMD uns 50% versprochen ... also liegen zwischen RDNA und RDNA2 wohl die selben 20% ... was dann ja auch realistisch wäre!

In welcher Welt glaubt man der 50% Lüge, wenn auf der selben Folie bereits eine 50% Lüge deutlich entlarvt wurde?

Narolf
2020-05-26, 21:46:19
[...], um die vorhandene Rohpower auch äquadat auf die Schiene zu bringen bzw. sich nicht noch mehr Skalierungsverluste einzuhandeln.
adäquat

Birdman
2020-05-26, 22:16:44
dass LAN- und WLAN-Chips vernüftiger Weise trotzdem von Intel kommen :D
WLAN OK, aber bei den LAN Chipsets hat Intel massiv abgebaut und aktueller King of The Hill ist hier nun eher nVidia.

MiamiNice
2020-05-26, 22:27:22
Es ist eine Perf / Watt Folie, kein Plan ob Leadership so stimmt, nicht mein Thema, allerdings kann das schon gut sein. Interessiert nur niemanden außer AMD Fans und Leute die eh keine 300Watt Pixelschubser verbauen. Wenn solche Balken, statt interessante Balken freigegeben werden, habe ich schon Sorgen.
Hoffen wir mal das AMD eine derartige GPU bauen kann, den dann müssen wir nicht die abfuck Karte kaufen die uns NV wahrscheinlich zum Schnapper von 1400€ präsentieren wird.
Dann hätten wir wenigstens die Option zum Boykott.

Gast
2020-05-26, 23:09:23
Es ist eine Perf / Watt Folie, kein Plan ob Leadership so stimmt, nicht mein Thema, allerdings kann das schon gut sein. Interessiert nur niemanden außer AMD Fans und Leute die eh keine 300Watt Pixelschubser verbauen. Wenn solche Balken, statt interessante Balken freigegeben werden, habe ich schon Sorgen.
Hoffen wir mal das AMD eine derartige GPU bauen kann, den dann müssen wir nicht die abfuck Karte kaufen die uns NV wahrscheinlich zum Schnapper von 1400€ präsentieren wird.
Dann hätten wir wenigstens die Option zum Boykott.

Selbst in Perf per Watt sind die 7 nm Navis nicht top notch, geschweige den GCN da wird eine 225 W 5700XT von einer 215W RTX2080 in 12 nm und mit RT und Tensorcore Ballast deutlich abgehängt. Selbes spiel mit einer 180W RX5700 und 175W RTX2070.

Aber klar wenn man schon von GCN zu Navi inkl. 7nm Sprung keine 50% hinbekommen hat schafft man das jetzt ganz sicher beim arch wechsel auf RDNA 2.0 bei gleichen Node...

Kannst schonmal die großen Scheine rausholen ab Perfomance class gibts wahrscheinlichkeit wie dei letzen Jahre keine Konkurenz.

Bucklew
2020-05-26, 23:34:13
Hoffen wir mal das AMD eine derartige GPU bauen kann, den dann müssen wir nicht die abfuck Karte kaufen die uns NV wahrscheinlich zum Schnapper von 1400€ präsentieren wird.
Kauf eben die kleinere Version für 800 oder 600 oder 500€. Wo ist das Problem?

MiamiNice
2020-05-26, 23:53:26
Ich würde gerne die 7nm Version kaufen mit 70%+ auf die 2080TI. Kann dann auch mehr als die letzte kosten. NV meinte scheinbar aber Gamer Karte wären nicht so wichtig und man könnte mit TSMC feilschen. Verzoggt und jetzt kommen wahrscheinlich Gamer Ampere Karte die nicht das ausschöpfen was möglich wäre. Wenn das so kommt hätte ich gerne eine Alternative. Noch eine Gen aussetzen mache ich nicht mit und mit einen mieseren Produkt als möglich wäre, möchte ich mich auch nicht abspeisen lassen.

Linmoum
2020-05-27, 00:05:15
Zwischen GCN und RDNA liegen bestenfalls 20% mehr EffizienzZwischen beiden Salvages (VII und 5700) liegen bereits +36% Perf/Watt zugunsten von letzterer. Selbst mit der 5700XT sind es +26%. Nachweislich durch Reviews Dritter. "Bestenfalls 20%". I lul'd, wenn sich Gäste mal wieder blamieren. Aber wegen sowas bleibt man halt Gast ohne Account. Weiß ja keiner, von wem der Schmarn kommt.

und schon dort hat AMD uns 50% versprochen ...CB hat entsprechende Perf/Watt-Diagramme, die sich jeder anschauen kann. Schon dort sind es statt der von AMD auf entsprechenden Folien versprochenen +50% sogar +63% zwischen GCN (V64) und RDNA (5700XT).

AMD hat also nicht nur irgendetwas versprochen, sondern in der Realität auch mehr als das geliefert. Nachweislich durch Reviews von Dritten. Aber hatte ich ja bereits oben schon erwähnt.

In welcher Welt glaubt man der 50% Lüge, wenn auf der selben Folie bereits eine 50% Lüge deutlich entlarvt wurde?
In welcher Welt glaubt man random Gästen, wenn bereits der erste Satz als Lüge entlarvt wurde?

Leonidas
2020-05-27, 03:42:14
Wie kommt man denn bitte bei 440W / 1,5 auf 250-300W? Das Ergebnis lautet 293W.


Da ich nicht weiss, auf welchem Betriebspunkt diese Aussage erfolgt, läßt sich die gar nicht praktisch so einfach umrechnen. Außerdem sind die 440W natürlich auch übelst milchmädchenartig, weil eine solche Karte nicht das Doppelte verbrauchen würde. Irgendwas zwischen 250-300W kommt in der Realität heraus, wahrscheinlich näher der 250W anstatt der 300W.




adäquat


Gefixt. Peinlich meinerseits.

Gast
2020-05-27, 07:58:44
Zwischen beiden Salvages (VII und 5700) liegen bereits +36% Perf/Watt zugunsten von letzterer. Selbst mit der 5700XT sind es +26%. Nachweislich durch Reviews Dritter. "Bestenfalls 20%". I lul'd, wenn sich Gäste mal wieder blamieren. Aber wegen sowas bleibt man halt Gast ohne Account. Weiß ja keiner, von wem der Schmarn kommt.

CB hat entsprechende Perf/Watt-Diagramme, die sich jeder anschauen kann. Schon dort sind es statt der von AMD auf entsprechenden Folien versprochenen +50% sogar +63% zwischen GCN (V64) und RDNA (5700XT).

AMD hat also nicht nur irgendetwas versprochen, sondern in der Realität auch mehr als das geliefert. Nachweislich durch Reviews von Dritten. Aber hatte ich ja bereits oben schon erwähnt.


In welcher Welt glaubt man random Gästen, wenn bereits der erste Satz als Lüge entlarvt wurde?

Das ist ja lustig, weil ich meine Zahlen tatsächlich von Computerbase habe ... und Computerbase ist hier eindeutig nicht deiner Meinung.

https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#diagramm-performance-pro-watt-3840-2160

Denniss
2020-05-27, 08:59:59
Lieber Gast, bitte mal die 100% auf die V64 anlegen für die richtigen Verhältnisse untereinander

gbm31
2020-05-27, 09:24:40
Das ist ja lustig, weil ich meine Zahlen tatsächlich von Computerbase habe ... und Computerbase ist hier eindeutig nicht deiner Meinung.

https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#diagramm-performance-pro-watt-3840-2160


Gab zu meiner Schulzeit einen schönen Hanuta-Aufkleber mit zwei Affen - Lieber heimlich klug als unheimlich blöd.

Gast
2020-05-27, 09:34:51
Gab zu meiner Schulzeit einen schönen Hanuta-Aufkleber mit zwei Affen - Lieber heimlich klug als unheimlich blöd.
Radeon VII ist GCN ... Nix Vega64 oder so. Die 5700XT hat 15% mehr Effizienz als die Radeon VII.

Willst du den Spruch vielleicht zurückziehen oder gilt der jetzt auch für dich?

WedgeAntilles
2020-05-27, 10:21:08
Gab zu meiner Schulzeit einen schönen Hanuta-Aufkleber mit zwei Affen - Lieber heimlich klug als unheimlich blöd.

Ich bin zwar nicht Gast, aber ich muss gestehen, dass ich es nicht kapiere.
Wenn ich mir den Link anschaue sehe ich zwischen der Radeon VII und der 5700 einen Effizienzvorteil der 5700 von +15%.

Allerdings hängt das von der gewählten Auflösung ab.

https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#diagramm-performance-pro-watt-1920-1080
Bei 1920x1080 ist der Unterschied zwischen der Radeon VII und der 5700 35%.


Was da jetzt die "bessere" Messung - ob 1920x1080 oder 3840x2160 - ist, keine Ahnung.

Allerdings hat "Gast" explizit auf die 3840er Auflösung verlinkt.

Wenn man dann die große Intelligenz-Keule herausholt und so tut als sei der andere zu dämlich und man selber sooo viel schlauer - dann ist es doch ziemlich peinlich, wenn man selber völlig falsch liegt.

Und falls die 3840er Auflösung nicht sinnvoll ist (kann ja durchaus sein), dann muss man DAS sagen.
Und nicht sagen, er wäre zu doof eine Tabelle zu lesen.

unl34shed
2020-05-27, 12:48:54
AMD bezog sich bei den Slide mit 50% GCN zu RDNA halt auf ein 14nm Vega64 mit 40CUs enabled und eben nicht auf VII.
Ja, das muss man nicht wissen, allerdings kann man es einsehen, wenn man von mehreren darauf hingewiesen wird.

Von diesem Slide kommen die 50% GCN zu RDNA1, und hier wird eben ein Teil durch 7nm erziehlt -> es kann nicht VII sein.
Im Kleingedruckten kann man dann lesen, dass es eine Vega64@40CUs ist.
https://www.techpowerup.com/img/W7nV1uDd5ByT3AD1.jpg
https://www.techpowerup.com/img/9hzKjvtwj7ivNaJ7.jpg

Gast
2020-05-27, 13:22:06
Dann handelt es sich nicht um eine 50% Effizienzsteigerung von Architektur zu Architektur, sondern um 50% Effizienzsteigerung durch ZWEI Prozessogrößen und die Architektur! Wobei die Architektur in diesem Fall weniger Effizienz bringt als EINE Prozessgröße.

Wie soll denn die Optimierung der Architektur alleine so viel Effizienz bringen wie eine neue Architektur UND ZWEI Prozesssprünge? Es ist und bleibt eine Lügenfolie. Sowohl was den ersten Sprung angeht und erst recht was den zweiten angeht ...

Gast
2020-05-27, 13:23:15
Zwischen GCN und RDNA liegen bestenfalls 20% mehr Effizienz, und schon dort hat AMD uns 50% versprochen
Das ist ja lustig, weil ich meine Zahlen tatsächlich von Computerbase habe ... und Computerbase ist hier eindeutig nicht deiner Meinung.
Radeon VII ist GCN ... Nix Vega64 oder so. Die 5700XT hat 15% mehr Effizienz als die Radeon VII.
Dann zutiere ich noch mal Computerbase:
https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt
Hier ist RDNA1 sogar fast 50% vor der VII... Man kann über die 5600XT gerne als Speicher-Krüppel lästern, aber sie ist überraschend effizient. Es kommt halt immer auf den Betriebspunkt an. Wenn der stimmt, kann RDNA sogar effizienter als so manche Turing sein...

Mr.Smith
2020-05-27, 13:33:34
5% refresh von ryzen 3000 und verzögerung von ryzen 4000 wäre uncool :/

Lehdro
2020-05-27, 14:23:59
Ich bin zwar nicht Gast, aber ich muss gestehen, dass ich es nicht kapiere.
Es wurde doch nun mehrmals erwähnt von den anderen Postern das AMD dort Vega (und nicht Vega 20) gegen Navi 10 mit selbem CU Ausbau gestellt hat. Siehe auch die Folien die unl34shed netterweise verlinkt hat. Das kann man zwar ignorieren, allerdings macht man sich damit dann halt schon irgendwie lächerlich. AMD hat halt den Vergleich so gebracht, Ihnen jetzt zu unterstellen sie würden lügen, weil man selber die Radeon VII gegen die 5700XT vergleicht und dann auch noch Cherrypicking betreibt, anderen aber genau dasselbe vorwirft wenn sie tatsächlich real existierende Produkte vergleichen (Vega 64 vs 5700XT) ist schon eine sehr lächerliche Strohmann Argumentation.

Also kurz zusammengefasst:
AMD: Vega mit 40 CU vs Navi 10 mit 40 CU = 50% mehr Performance/Watt
CB: Vega 64 vs 5700XT = 63% mehr Performance/Watt
CB: Radeon VII vs 5700XT = 15-26% mehr Performance/Watt (Was sich übrigens auch mit der Folie deckt, da die Anteile grob aufgeschlüsselt werden)

Und dann machen sich hier die Gäste lächerlich in dem sie nur eine Radeon VII gegen eine 5700XT stellen, was AMD nie so getan hat, aber sich sklavisch an den 50% und "GCN" aufhängen. :redface:
So etwas würde man aber wissen wenn man wirklich an einer Diskussion interessiert ist und nicht nur stänkern und trollen will. Daher auch die ganzen Einwürfe von den Gast Accounts - die wissen genau warum sie anonym bleiben wollen :wink:

WedgeAntilles
2020-05-27, 14:37:44
Ich habe mir nur den verlinkten Link angeschaut.

Danke für die Erläuterung!

Mir persönlich ist es stand jetzt noch ziemlich wurscht - ich will einfach Ende des Jahres ne neue, gute GraKa kaufen können. (Von wem auch immer.)
Spekulationen im Vorfeld sind da zwar prinzipiell interessant, allerdings fehlt mir da die Energie mich engagiert zu beteiligen :)

Gast
2020-05-27, 14:42:59
In welcher Welt glaubt man random Gästen, wenn bereits der erste Satz als Lüge entlarvt wurde?

Und sich einen Nick geben inkl Profilbild und dann mit verzehrenden Aussagen um sich schmeißen ist ist natürlich besser. Da ist man schon von Amtswegen eine Autorität?

Klar kann ich die +50% erreichen wenn ich eine geprügelte Vega 64 gegen eine Navi vergleiche ist aber schöne Augenwischerei .

Ich zitiere mal aus dem von dir erwähntem Test der mal ganz unter uns diverse Schwächen aufweist.


"In WQHD ist die Radeon RX 5700 XT 40 Prozent effizienter als die Radeon RX Vega 56 und gar 63 Prozent effizienter als die Radeon RX Vega 64..."

"Darüber hinaus zeigt sich, dass AMD – anders als bei Vega – die Grafikkarten nicht außerhalb des „Sweet-Spots“ aus Performance und Leistungsaufnahme betreibt."


Warum zietierst du nicht das PCGH Video wo eine RX590 gegen Navi verglichen am sweetspot verglichen wurde , die Ergbnisse waren nicht wirklich berauschend.

Es bleibt dabei der Effiziensprung durch die Arch ist einfach in normal erwartbaren Bereichen wie ein Vergleich mit der Vega 7 zeigt welche im übrigen auch geprügelt konfiguriert wurde.

"Die Verbesserung kommt dabei nicht alleine durch die Fertigung zu Stande, was die ebenso im 7-nm-Prozess gefertigte Radeon VII zeigt: Die Radeon RX 5700 XT liefert noch einmal 15 (UHD) bis 21 Prozent (WQHD) mehr Bilder in der Sekunde pro Watt als AMDs Vega-Flaggschiff."

Was das für die Glaubwürdigkeit von +50% ohne Nodebonus mit Durstigerem größerem SI und der Integration von RT bedeutet kann sich jederselber schön rechnen

Aber hey ich bin nur einer der Gäst , quasi Poster zweiter Klasse ohne Nick das muss Schwachsin sein ..

Gast
2020-05-27, 15:01:50
... Daher auch die ganzen Einwürfe von den Gast Accounts - die wissen genau warum sie anonym bleiben wollen :wink:

Aus dem ganz einfachem Grund um nicht in Schuldladen gesteckt zu werden anhand von einem Forensynonym.

Manche machen hier gerade zu einen auf Klaus Hipp... dafür werbe ich mit meinem Namen.... und meinen ihrem Geschreibsel würde mehr Gewicht verliehen durch ihr Synonym .

gbm31
2020-05-27, 15:14:56
Ich sag ja, unheimlich.

:-D

Wär mal interessant neben den Nicks die IPs zu zeigen...

maximus_hertus
2020-05-27, 15:26:27
Auf der selben Folie steht auch "driving perfromance Leadership in Desktop and Laptop" , die Realität sieht aber komplett anders aus.

Ist das so? Warum wird AMD deswegen nicht verklagt? Sollte doch easy money sein?

Um es abzukürzen: performance Leadership kann alles und nichts sein. Das ist ja das schöne am Marketing, man muss nicht die Wahrheit sagen, so lange man nicht lügt ;)

Macht jeder :)

Man kann sagen: wir haben nicht gewonnen (negativer Unterton) oder man hat nicht verlroen (eher Positiv).

Abgesehen davon: who cares? Mir ist es komplett egal, was in Folien steht.

Es zählt nur eines: fps in meinem rechner. Alles andere interessiert mich nicht ^^

Gast
2020-05-27, 16:43:57
Es zählt nur eines: fps in meinem rechner. Alles andere interessiert mich nicht ^^

Was machst du dann hier , wraum versuchst du eine Lanze für den Marketing Bullshit zu brechen?
wenn dich alles bis auf die FPS in deinem Rechner das kalt lassen. ?

Gast
2020-05-27, 16:50:53
Lerne: Neue Architektur ≡ Neue Architektur + 2 Shrinks!

Ich wusste allerdings noch nicht, dass RDNA2 in 3nm kommt!

Hätte ich das mit 3nm gewusst, hätte ich nie die 50% in Frage gestellt.

Darf ich euch alle zitieren und wie ihr euch hier zum Affen macht, wenn die 50% wie erwartet NICHT ANNÄHERND erreicht werden? Das wird bestimmt voll lustig!

Gast
2020-05-27, 18:29:39
Allgemein möchte ich mal an den guten Umgang hier appellieren ... Ernsthaft? DOXING androhen, nur weil euch eine Meinung nicht passt? Ist ja nicht zu fassen was hier los ist ...

Gast
2020-05-27, 20:30:57
Es kommt halt immer auf den Betriebspunkt an. Wenn der stimmt, kann RDNA sogar effizienter als so manche Turing sein...

Klar wenn man Äpfel mit Birnen vergleicht geht dat, wenn schon Cherry picking dann bitte beidseitig .

Hier mal TU 104 @ 125W

https://www.igorslab.de/nvidia-quadro-rtx-4000-im-test-guenstiger-profi-ableger-mit-ueberraschender-leistung-igorslab/

Gast
2020-05-27, 20:42:54
Ist das so? Warum wird AMD deswegen nicht verklagt? Sollte doch easy money sein?
...

Gute Idee. Macht das ruhig. Gegen die Grünen oder Blauen gibt es noch was zu holen, wenn die Gelegenheit kommt. Gegen AMD sorgt nur dafür das wir jeweils ein Monopol erschaffen.

unl34shed
2020-05-27, 22:00:23
Wie soll denn die Optimierung der Architektur alleine so viel Effizienz bringen wie eine neue Architektur UND ZWEI Prozesssprünge? Es ist und bleibt eine Lügenfolie. Sowohl was den ersten Sprung angeht und erst recht was den zweiten angeht ...

Im Falle von RDNA1 hat sie ca. 75% der 50% ausgemacht. Ein Großteil durch IPC Steigerung, etwas durch Designverbesserungen.

Der Node Sprung brachte nur 25% der 50% -> 12,5% :confused:

Klar kann ich die +50% erreichen wenn ich eine geprügelte Vega 64 gegen eine Navi vergleiche ist aber schöne Augenwischerei .

Die Vega64 lief nur mit 40CUs, das dürfte ihr einen deutlichen Perf/W Vorteil geben, außerdem hat sie HBM der auch weniger verbraucht.

Was das für die Glaubwürdigkeit von +50% ohne Nodebonus mit Durstigerem größerem SI und der Integration von RT bedeutet kann sich jederselber schön rechnen

1. Schon mal was von Maxwell gehört?
2. Sagst du selbst, das Vega und auch Navi10 wohl Ineffizient sind, also ist da doch noch viel zu holen.


Echt erstaunlich, dass ein Balken, der in mehreren Farben angemalt ist, so schwer zu begreifen ist....

Gast
2020-05-28, 06:54:44
Wie kommt man denn bitte bei 440W / 1,5 auf 250-300W? Das Ergebnis lautet 293W.

Die Frage ist, ob diesmal AMD bei den Angaben ihrer P/W nicht wieder lügt wie bei Polaris zum Beispiel :ugly:

https://www.3dcenter.org/news/der-real-erreichte-energieeffizienz-gewinn-bei-amds-polaris

Welche Aussagen gibt es den von AMD zu dem Thema?

Leonidas
2020-05-28, 07:17:27
Welche Aussagen gibt es den von AMD zu dem Thema?


Ich verstehe es momentan nicht. Was meinst Du?

Gast
2020-05-28, 08:55:23
Im Falle von RDNA1 hat sie ca. 75% der 50% ausgemacht. Ein Großteil durch IPC Steigerung, etwas durch Designverbesserungen.

Der Node Sprung brachte nur 25% der 50% -> 12,5% :confused:



Die Vega64 lief nur mit 40CUs, das dürfte ihr einen deutlichen Perf/W Vorteil geben, außerdem hat sie HBM der auch weniger verbraucht.



1. Schon mal was von Maxwell gehört?
2. Sagst du selbst, das Vega und auch Navi10 wohl Ineffizient sind, also ist da doch noch viel zu holen.


Echt erstaunlich, dass ein Balken, der in mehreren Farben angemalt ist, so schwer zu begreifen ist....

Vegas HBM2 vs. 256bit GDDR6 , ich kenne hier leider keine soliden Zahlen , Wenn du welche hast gern her damit.

Das was Maxwell so effizient macht hat man laut trst hier im 3DC schon bei Vega implementiert .

unl34shed
2020-05-28, 16:07:46
bgzl. HBM Power: Ab Minute 10
J66R3GlzMZY

Gast
2020-05-28, 17:19:51
bgzl. HBM Power: Ab Minute 10
https://youtu.be/J66R3GlzMZY


Also Faktor 3,5-4,5 beim Stromverbrauch laut der Quelle, wenn mir jetzt noch jemand sagen kann was der Phy bei 256Bit und 14GPS typischerweise frist dann versteh ich auch obs eher 10W oder 50W sind die eine so geartete GDDR 6 Lsg mehr frist..