PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 24. Juni 2020


Leonidas
2020-06-25, 09:12:27
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-24-juni-2020

JVC
2020-06-25, 14:02:05
"Navi 21
514 mm2
80CU @ 2760 MHz
512 bit bus
16GB @ 20 Gbps (unspecified type)
400W TDP
...es ist aber eher unwahrscheinlich, dass man so etwas tatsächlich baut."

Ich würde es kaufen :freak: 512Bit!!1!1... muahaha:usweet:
(auf die 390 8Gb schiel (512Bit bis"400Watt" für~300.-) die noch immer FHD stemmt :tongue:)
Wäre mir glatt 1K, oder gar ein Paar zerquetsche mehr, wert :wink:
(tippe aber eher auf ~2,4Ghz Max Boost und ≤18Gbps)

Warum erwähnt man nirgendwo HDMI 2.1 ?
Oder ist das nur Mir so wichtig :confused:
(ich vertraue meiner Quelle, die bei Big Navi HDMI 2.1 verspricht)

M.f.G. JVC

Gast
2020-06-25, 14:29:57
"dann sind angesichts des Sprungs von der 12nm-Fertigung auf 7nm TSMC oder 8nm Samsung nicht gerade hochgehende Stromverbrauchswerte zu erwarten – sondern eher denn ein geringerer Stromverbrauch als bei der Turing-Generation."
Bei geringerem Verbrauch wäre dann aber auch entsprechend die Leistung wohl kaum höher. Bei ein wenig mehr Shadern und Speicherbandbreite und sinkendem Verbrauch, würde also die Mehrperformance fehlen und für die Kunden keinBedarf für einen Wechsel bestehen. Außer man geht von einer erheblich gesteigerten Effizienz der Architektur aus, was aber eher unrealistisch ist.

Bezüglich der 5600M wäre noch zu erwähnen, dass der Verbrauch scheinbar ziemlich gut ist (avg. load ca. 84W). Damit ist das Ding sparsamer als alle zum Vergleich herangezogenen RTX2060, was schon etwas erstaunlich ist.

Gast
2020-06-25, 14:47:23
"Navi 21
514 mm2
80CU @ 2760 MHz
512 bit bus
16GB @ 20 Gbps (unspecified type)
400W TDP
...es ist aber eher unwahrscheinlich, dass man so etwas tatsächlich baut."

Ich würde es kaufen :freak: 512Bit!!1!1... muahaha:usweet:
(auf die 390 8Gb schiel (512Bit bis"400Watt" für~300.-) die noch immer FHD stemmt :tongue:)
Wäre mir glatt 1K, oder gar ein Paar zerquetsche mehr, wert :wink:
(tippe aber eher auf ~2,4Ghz Max Boost und ≤18Gbps)

Warum erwähnt man nirgendwo HDMI 2.1 ?
Oder ist das nur Mir so wichtig :confused:
(ich vertraue meiner Quelle, die bei Big Navi HDMI 2.1 verspricht)

M.f.G. JVC

sprich 390, dann doch lieber die 290 und auf 290x freigeschaltet, das Teil war aber fuer mich viel zu heiss und laut...

Berniyh
2020-06-25, 14:48:31
Weil man Monitore vernünftigerweise eh mit DisplayPort anbindet.

Kulasko
2020-06-25, 14:48:46
Ein bischen frage ich mich schon, warum jetzt der Leak aus dem Video aufbereitet wird, welches privat geschaltet wurde, weil sich der Leak als falsch rausgestellt hat, was er selbst gesagt hat? Damit man danach wieder auf ihm rumhacken kann, so wie das hier öfter der Fall ist?

Gast
2020-06-25, 16:28:12
Bezüglich der 5600M wäre noch zu erwähnen, dass der Verbrauch scheinbar ziemlich gut ist (avg. load ca. 84W). Damit ist das Ding sparsamer als alle zum Vergleich herangezogenen RTX2060, was schon etwas erstaunlich ist.

Der Verbrauch ist im Vergleich zu einer RTX2060 Max Q welche zwischen 80-90W je nach Model verbraucht geradezu grotten schlecht.
Man erreicht gleiche Performance obwohl 7nm statt 12nm , HBM Bonus und feature defizit bei gleichem Verbrauch?

Find ich jetzt nüchtern betrachtet nicht so prickelnd.

Gast
2020-06-25, 19:35:43
Der Verbrauch ist im Vergleich zu einer RTX2060 Max Q welche zwischen 80-90W je nach Model verbraucht geradezu grotten schlecht.
Man erreicht gleiche Performance obwohl 7nm statt 12nm , HBM Bonus und feature defizit bei gleichem Verbrauch?

Find ich jetzt nüchtern betrachtet nicht so prickelnd.
Die RTX2060 Modelle brauchen da auch mal über 130W (also über 50% mehr). Und welcher HBM Bonus??? Erst mal informieren, bevor man so einen Kram schreibt!!! Es geht hier um die RX 5600M, die hat GDDR6. Navi12 mit HBM gibt's nur bei Apple, die braucht dann auch nur 40W.

Eldoran
2020-06-25, 22:23:57
Der Verbrauch ist im Vergleich zu einer RTX2060 Max Q welche zwischen 80-90W je nach Model verbraucht geradezu grotten schlecht.
Man erreicht gleiche Performance obwohl 7nm statt 12nm , HBM Bonus und feature defizit bei gleichem Verbrauch?

Find ich jetzt nüchtern betrachtet nicht so prickelnd.
Die Namenswahl von AMD ist in dem Bereich etwas verwirrend, aber in dem Fall geht es um eine Radeon RX 5600M, das ist die Mobilversion der Desktopkarten und nutzt GDDR6. Es gibt derzeit exklusiv bei Apple eine Radeon Pro 5600M, die ein anderes Die HBM nutzt. Es ist allerdings so, dass AMD trotz 7nm statt 12nm zumindest aktuell in diesen Benchmarks ein minimal schlechteres Ergebnis liefert.
Allerdings sind die Differenzen zwischen den verschiedenen Laptops grösser.

Gastronom
2020-06-25, 23:02:58
Find ich jetzt nüchtern betrachtet nicht so prickelnd.

Und ich glaube nicht, dass du bei der Betrachtung nüchtern warst :D

Gast
2020-06-26, 00:35:04
Die RTX2060 Modelle brauchen da auch mal über 130W (also über 50% mehr). Und welcher HBM Bonus??? Erst mal informieren, bevor man so einen Kram schreibt!!! Es geht hier um die RX 5600M, die hat GDDR6. Navi12 mit HBM gibt's nur bei Apple, die braucht dann auch nur 40W.

Mit peakwerten argumentieren und avg vergleichen von der Bildzeitung gelernt?

Leonidas
2020-06-26, 05:05:18
Warum erwähnt man nirgendwo HDMI 2.1 ?


Um speziell Dich zu ärgern? Ich weiss es nicht. Ich gehe davon aus, das es standardmäßig bei jeder neuen Gfx dabei ist.




Ein bischen frage ich mich schon, warum jetzt der Leak aus dem Video aufbereitet wird, welches privat geschaltet wurde, weil sich der Leak als falsch rausgestellt hat, was er selbst gesagt hat? Damit man danach wieder auf ihm rumhacken kann, so wie das hier öfter der Fall ist?


Nein. Ich hab mich einfach nur zu spät damit beschäftigt. Und herumgehackt habe ich auf AdoredTV auch nicht. Die haben ja eben Pluspunkte geholt wegen der Intel Marketing-Präsentation.

Gast
2020-06-26, 10:23:16
Mit peakwerten argumentieren und avg vergleichen von der Bildzeitung gelernt?
Daher steht ja auch "bis zu". Aber vielleicht sollte da mal jemand in den Spiegel schauen, denn HBM nicht von GDDR6 unterscheden zu können, ist schon echt peinlich und noch unter Bild Niveau...

Gast
2020-06-26, 12:24:21
Daher steht ja auch "bis zu". Aber vielleicht sollte da mal jemand in den Spiegel schauen, denn HBM nicht von GDDR6 unterscheden zu können, ist schon echt peinlich und noch unter Bild Niveau...

Was hat der Irrtum ( ja ich kann zu geben das ich mich geirrt habe ist ganz leicht tut auch nicht weh) mit dem Apfel und Birnen Vergleich zutun ?
Fakt ist eine max q Frist 80-90w avg sieht Messungen Notebook Check ,die zietierte 7nm 5700 immernoch 84w avg . Hat kein Perf plus und den Feature Nachteil und kommt deutlich später.

Find ich einfach nicht berauschend , Da muss mehr gehen gerade bei dem genutzten Prozess Um sich aktrsktiv zu machen .

Narolf
2020-06-26, 18:44:05
Weil mich die HDMI-Thematik gerade wieder daran erinnert hat: Wie sieht es eigentlich mit AV1 Hardwaredecoding aus? Gibt es da irgendwelche Meldung ob Ampere oder Navi 2x das unterstützen?

MiamiNice
2020-06-26, 21:19:44
Ich frage mich gerade warum man überhaupt noch einen HMDI an einer GPU haben will?!? Display Port heißt das Zauberwort und den bitte in der 2.0 Ausführung. HMDI ist was für das TV Rack und für HiFi :freak: ;D

https://abload.de/img/unbenannt45kgd.png

An nen DP 2.0 hängt man 3x 4K 144Hz Displays.
Da will uns einer mit HMDI trollen :)

Gast
2020-06-27, 01:21:28
Ich frage mich gerade warum man überhaupt noch einen HMDI an einer GPU haben will?!? Display Port heißt das Zauberwort und den bitte in der 2.0 Ausführung. HMDI ist was für das TV Rack und für HiFi :freak: ;D
Vielleicht weil manche ihre Grafikkarte an einen TV anschließen möchten?

JVC
2020-06-27, 09:45:19
@MiamiNice Du kannst auch gerne so etwas kaufen...
https://www.gamestar.de/artikel/bfg-display-von-hp-65-zoll-monitor-mit-120-hertz-fuer-4000-euro-erscheint-im-maerz,3339049.html
"65-Zoll-Monitor mit 144 Hertz, Nvidia BFG"

Mir genügen aber 4K120Hz und 8K60Hz +VRR ;)
Nachteil ist, das man HDMI 2.1 benötigt. (Adapter mit VRR wird es vermutlich nie geben)
(ich würde mich nicht wundern, wenn NV lieber darauf verzichtet. "braucht ja eh keiner"...)

M.f.G. JVC