PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 29. Juli 2019


Leonidas
2019-07-29, 21:23:01
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-29-juli-2019

Gast
2019-07-29, 21:59:12
Bei der Zuordnung der möglichen Navi Modelle ist ein Patzer drin:
nicht Mainstream ersetzt Vega und Midrange ersetzt Polaris, sondern umgekehrt wird ein Schuh daraus.

:D

Mr.Smith
2019-07-29, 22:09:51
Skalieren klingt ja gut für eine 5800(x), aber was ist mit dem Verbrauch?
60% mehr Ausführungseinheiten als 5700, alleine 180W für den 5700xt Chip..

Wird auf jeden Fall kein Energiesparwunder.

Rabiata
2019-07-29, 23:38:04
Skalieren klingt ja gut für eine 5800(x), aber was ist mit dem Verbrauch?
60% mehr Ausführungseinheiten als 5700, alleine 180W für den 5700xt Chip..

Wird auf jeden Fall kein Energiesparwunder.
Wäre nicht überrascht, wenn es wieder Richtung 300W geht. Aber dafür könnte ich mir auch vorstellen, daß die Performance das Niveau der RTX 2080 Ti erreicht. Welche laut Wikipedia auch schon 250W TDP hat, so weit ist von 300W ist das nicht mehr entfernt.

Denniss
2019-07-30, 00:38:53
Wenn der große Navi auf HBM setzt dann fallen sowohl beim Speichercontroller als auch beim Speicher einige Watt weg die dann für die GPU genutzt werden können.

Gast
2019-07-30, 07:17:36
Wenn der große Navi auf HBM setzt dann fallen sowohl beim Speichercontroller als auch beim Speicher einige Watt weg die dann für die GPU genutzt werden können.

Na dann rechne mal vor wieviel die HBM Lösung bei verschiedenen denkbaren Speicherbandbreiten gegenüber einer bestehend aus GDDR 6 spart.

Das Argument fällt immer wieder in Diskussionen ohne mal mit Substanz untermauert zu werden .

morbidmorgis
2019-07-30, 08:38:52
Gangbare Alternativen hierzu sind ein 384 Bit GDDR6-Speicherinterface (ergäbe Speicherbestückungen von 12 GB) oder ein HBM2-Interface, damit ist dann faktisch alles an Interface-Breite und Speichermengen realisierbar.

Was spricht denn (außer kostentechnisch natürlich) gegen ein 512 Bit GDDR6-Speicherinterface mit damit dann 16 GB? Wenn Navi 12 die Radeon VII ersetzen soll, die ja schon 16 GB hat, wären 12 GB wohl verkaufspsychologisch eher semischlau.

Denniss
2019-07-30, 08:42:10
Speichercontroller würde recht groß werden und Strom saufen + der Platz für Speichermodule auf dem PCB.

Gast
2019-07-30, 13:37:30
ich denk Navi 12 wird eher 400mm² bis 450mm²

Eldoran
2019-07-30, 14:17:25
Weiteres Problem: ein 512 Bit Interface braucht auch entsprechend mehr Kontakte am Die - das könnte in 7nm vom Platz der eng werden

Platos
2019-07-30, 15:22:52
Also wenn man die Leistung (ja ich weiss, Milchmädchenrechnung) von der 5700xt 251mm^2 auf 350mm^2 hochrechnet (mit 4K Perfomance Index), dann kommt man auf 217% (2080ti hat 228 bzw 236%). Und die grösseren Chips takten eher niedriger als höher.

Wenn man beabsichtigt wirklich die 2080Ti zu erreichen, dann müsste der Chip ja eher so 400mm^2 sein.

Woher kommt eigentlich die automatische Schlussfolgerung, dass das ein 2080TI Konter ist? Es könnte auch ein 2080s Konter sein. Und ich weiss ja nicht, ob AMD wirklich einen so grossen Chip ohne EUV auflegt (das bräuchte schon mehr Stück als es bei ner Vega7 der Fall war).

KrisNeme
2019-07-30, 15:58:18
Bin ja überrascht über die angegebenen Releasedaten. Dachte dieses Jahr passiert nix mehr, sonst hätte ich vllt. die Vega 64 behalten und wäre gleich auf eine 5800 (XT).

Gast
2019-07-30, 17:43:56
Skalieren klingt ja gut für eine 5800(x), aber was ist mit dem Verbrauch?
60% mehr Ausführungseinheiten als 5700, alleine 180W für den 5700xt Chip..

Wird auf jeden Fall kein Energiesparwunder.

Das nicht, aber zumindest bis Nvidia 7nm hat könnte das durchaus einigermaßen kompetitiv sein.

Nur mal zum Vergleich, eine 2080 Super hat 250W Powerlimit, das gleiche wie eine "Standard" 2080Ti trotzdem ist letzere deutlich schneller (gut kaum eine 2080Ti am Markt hat nur 250W Powerlimit).

Oder anders Ausgedrückt, ein TU102 ist praktisch ein doppelter TU106 (nur + 50% Speicherinterface), die RTX 2070 Normal hat 175W Boardpower, eine 2080Ti 250/260W.

Ausgehend von den 180W einer Radeon 5700 mit 180W Boardpower wäre eine vergleichbare Skalierung durchaus denkbar.

Die 2080Ti wird vermutlich nicht erreicht, wenn man unter 300W bleiben will, aber zumindest die 2080Super sollte geschlagen werden, und den Rest macht der Preis.

Wäre insgesamt auf jeden Fall ein kluger Schachzug, wenn man die Konkurrenz in Sicherheit wiegt und dann plötzlich doch angreift, weil heuer kann Nvidia sicher nicht mehr mit 7nm antworten.

Gast
2019-07-30, 17:55:25
Speichercontroller würde recht groß werden und Strom saufen + der Platz für Speichermodule auf dem PCB.

512bit würde wahrscheinlich weniger Strom saufen, da man damit die Taktraten entsprechend niedriger halten kann.

anddill
2019-07-30, 18:01:17
Breiter statt Takt spart Strom, ja. Aber ob man bei heutigen Taktraten und deren Anforderungen an Leitungslängen noch 16 Speicherchips um die GPU gruppiert bekommt? Unwahrscheinlich. Und 8 x 64 Bit wären totale Sonderlocken mit eigenem Pinout und Package, das wird nicht lohnen.

cat
2019-07-30, 20:17:33
Ich trinke ja keinen Alkohol außer an Silvester, aber falls AMD uns dieses Jahr eine GPU mit mehr als 4 Primitive-Units zeigt trinke ich mir einen dass ich Silvester verpenne.

Denniss
2019-07-30, 20:46:12
Ich trinke ja keinen Alkohol außer an Silvester, aber falls AMD uns dieses Jahr eine GPU mit mehr als 4 Primitive-Units zeigt trinke ich mir einen dass ich Silvester verpenne.Na dann Prost! .....

Gast
2019-07-30, 21:17:47
Breiter statt Takt spart Strom, ja. Aber ob man bei heutigen Taktraten und deren Anforderungen an Leitungslängen noch 16 Speicherchips um die GPU gruppiert bekommt?

Man kann ja die Speicherchips beidseitig montieren, dann sollte das kein Problem sein.

Gast
2019-07-31, 08:20:21
Also wieso der 10er midrange, 12er highend und 14er dann lowend ist muß ich net verstehen oder? :). Also die technischen Daten sind ja klar sichtbar. Aber die logik der Namesgebung ... nöp, zu hoch für mich *g*.

AMD GPUs werden eh erst interesant, wenn endlich eine benutzerfreundliche Treiberoberfläche kommt.

Gast
2019-07-31, 20:07:19
Also wieso der 10er midrange, 12er highend und 14er dann lowend ist muß ich net verstehen oder? :). Also die technischen Daten sind ja klar sichtbar. Aber die logik der Namesgebung ... nöp, zu hoch für mich *g*.

1. Chip in der Entwicklung 10
2. Chip in der Entwicklung 12
3. Chip in der Entwicklung 14.

Wobei das nicht zwangsweise die Reihenfolge der Veröffentlichung sein muss, kann gut sein, dass der 14er vor dem 12er fertig wird.

Summerbreeze
2019-08-01, 01:38:07
Also wieso der 10er midrange, 12er highend und 14er dann lowend ist muß ich net verstehen oder? :). Also die technischen Daten sind ja klar sichtbar. Aber die logik der Namesgebung ... nöp, zu hoch für mich *g*.

Ablenkung! :tongue:

AMD GPUs werden eh erst interesant, wenn endlich eine benutzerfreundliche Treiberoberfläche kommt.
Was ist denn daran so schlimm?


Wäre ja echt der Renner, wenn es denn wirklich so kommen sollte. Dann hätten sie alle ordentlich aufs Glatteis geführt.
Ich will das jetzt noch nicht glauben. Dann bin ich wenigstens nicht enttäuscht.

Linmoum
2019-08-01, 02:03:32
AMD GPUs werden eh erst interesant, wenn endlich eine benutzerfreundliche Treiberoberfläche kommt.
Welche GPU hast du denn verbaut, wenn AMD erst dann interessant ist? :confused: Nvidia kann's ja nicht sein, deren Treiberoberfläche ist ein völlig veraltetes und arschlahmes Desaster von 1830, um das sich bei Nvidia scheinbar niemand schert. Fange jedes Mal fast an zu heulen, wenn ich in den Treiber muss und daran denke, wie schön übersichtlich und modern das bei AMD seit Jahren gestaltet ist und ich in dieser Vollkatastrophe von CP bei Nvidia rumpimmeln muss. Keine Ahnung, warum das nicht mal überarbeitet wird. Wahrscheinlich war da in der Firma seit 5 Jahren niemand mehr drin und die wissen deshalb nicht, wie schrecklich das ist.

gbm31
2019-08-01, 08:44:36
AMD GPUs werden eh erst interesant, wenn endlich eine benutzerfreundliche Treiberoberfläche kommt.


Zeigt dass du null AHnung hast und seit 2005 keine AMD (ATI) hattest. Seit CCC ist die AMD GUI Lichtjahre vor der von NV.

Also sorry - auch wenn ich selbst erst letztes JAhr wieder auf AMD gewechselt bin, so einen Müll kann man nur als verblendeter Fanboy posten.

Leonidas
2019-08-06, 06:06:04
Bei der Zuordnung der möglichen Navi Modelle ist ein Patzer drin:
nicht Mainstream ersetzt Vega und Midrange ersetzt Polaris, sondern umgekehrt wird ein Schuh daraus.


Dummer Fehler, passiert durch ständige Umstellungen dieser Tabelle. Gefixt.





Wäre nicht überrascht, wenn es wieder Richtung 300W geht. Aber dafür könnte ich mir auch vorstellen, daß die Performance das Niveau der RTX 2080 Ti erreicht. Welche laut Wikipedia auch schon 250W TDP hat, so weit ist von 300W ist das nicht mehr entfernt.


... und in der FE-Ausführung eher denn 271W verbraucht.





Also wenn man die Leistung (ja ich weiss, Milchmädchenrechnung) von der 5700xt 251mm^2 auf 350mm^2 hochrechnet (mit 4K Perfomance Index), dann kommt man auf 217% (2080ti hat 228 bzw 236%).


Zu Milchmädchenhaft. Du bekommst von 251 auf 350mm² ja von 40 auf 64 CU hinein. Wenn Du rein nur CUs zugeben würdest, keine größeren Interfaces oder mehr Drumherum, bekommst Du von 40 auf 80 CU sogar in ~380mm² rein.





1. Chip in der Entwicklung 10
2. Chip in der Entwicklung 12
3. Chip in der Entwicklung 14.

Wobei das nicht zwangsweise die Reihenfolge der Veröffentlichung sein muss, kann gut sein, dass der 14er vor dem 12er fertig wird.


Korrekt. AMD vergibt einfach nur noch Nummern so wie das Projekt angefangen wurde. Die Nummern sagen aber nichts mehr aus. Nur die anfängliche "2" hätte eine Bedeutung, wie bei Navi 20/21. Sie zeigt auf eine technologische Weiterentwicklung hin (und sei es nur bei der Chipfertigung).