PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

Blediator16
2019-06-11, 01:45:00
Frage mich wieso es keinen Aufschrei wegen der beschissenen Preise gibt. Das ist das, was man erahnt hat. Erhöht der eine wird der andere nicht weit weg sein. Man hat Polaris genommen und den Preis fast verdoppelt.

Ravenhearth
2019-06-11, 01:45:20
ob das bei den konsolen auch so ist? gibts dann nur raytracing wenn man online ist?:biggrin:
Also du meinst, nicht das ganze Spiel wird in der Cloud berechnet, sondern nur die Beleuchtung oder so? Geht sowas von der Latenz her? :freak:

horn 12
2019-06-11, 01:47:17
RDNA 2 besitzt Neue bessere 7nm Fertigung (7nm+)
RayTracing in Hardware und wird zudem Allem Anschein zum Trotz deutlich Teurer werden und nicht vor Sommer 2020 / Herbst 2020 erscheinen.

PS:
Da hat die Radeon VII mehr hergemacht als die Navis
Da limitiert zumindest nix.

dildo4u
2019-06-11, 01:47:24
Frage mich wieso es keinen Aufschrei wegen der beschissenen Preise gibt. Das ist das, was man erahnt hat. Erhöht der eine wird der andere nicht weit weg sein. Man hat Polaris genommen und den Preis fast verdoppelt.
Nicht ganz fair Polaris hat uralten Vram genutzt,AMD kann nix für GDDR6 Preise.

Ravenhearth
2019-06-11, 01:49:03
7nm ist auch deutlich teurer. Fühlt sich trotzdem irgendwie enttäuschend an :frown:

SKYNET
2019-06-11, 01:49:08
Gibt Leute, die bei 10% mehr Leistung schon Freudensprünge machen und mehrere hundert Euro für eine neue Karte ausgeben.

oder deppen die von ner 1080Ti auf ne 2080 umgestiegen sind... :ulol:

Achim_Anders
2019-06-11, 01:49:41
Frage mich wieso es keinen Aufschrei wegen der beschissenen Preise gibt. Das ist das, was man erahnt hat. Erhöht der eine wird der andere nicht weit weg sein. Man hat Polaris genommen und den Preis fast verdoppelt.
Ich stimme dir da zu! Mein Aufschrei kam nicht, weil ich bei der vega56 pulee für 245€ zugeschlagen habe vor ein paar Monaten und nun nen guten deal meine gemacht zu haben...

Navi ist vom p/l anscheinend genau so beschissen wie turing, nur minimal besser, dafür kein RT. Bin gespannt, wo es sich einpendeln wird
8gb p10 custom war auch ewig im 300-350€ Bereich angesiedelt (vor der miningblase!)

Ravenhearth
2019-06-11, 01:51:09
Bin auch froh, noch ne Vega 56 Pulse billig abgestaubt zu haben :D

Denniss
2019-06-11, 01:52:57
Frage mich wieso es keinen Aufschrei wegen der beschissenen Preise gibt. Das ist das, was man erahnt hat. Erhöht der eine wird der andere nicht weit weg sein. Man hat Polaris genommen und den Preis fast verdoppelt.Die Leistung dürfte auch beim doppelten liegen. Im Lineup fehlt jetzt nur noch eine Gruppe kleiner Navis als Polaris-Ersatz.

SKYNET
2019-06-11, 01:56:11
Die Leistung dürfte auch beim doppelten liegen. Im Lineup fehlt jetzt nur noch eine Gruppe kleiner Navis als Polaris-Ersatz.

kommt später, wenn sie genug abfall gesammelt haben... ;)

Daredevil
2019-06-11, 01:57:41
Hab gerade mal in meiner schlauen Liste geschaut, Vega56 + 30% Leistung = RX5700XT erreicht ne Radeon VII bei 115w ASIC bei 1200rpm.

Mit UV müsste ne RX5700XT also knapp 37% weniger verbrauchen bei gleicher Leistung, wenn sie ne RVII in Sachen Effizienz schlagen will.
Der Vergleich ist zwar unfair, aber wenn auf Navi Gaming optimized steht, sollte das auch drin sein. Aber schlecht ist der Wert für 50% weniger Computer Units natürlich auch nicht.

w0mbat
2019-06-11, 01:58:51
Frage mich wieso es keinen Aufschrei wegen der beschissenen Preise gibt. Das ist das, was man erahnt hat. Erhöht der eine wird der andere nicht weit weg sein. Man hat Polaris genommen und den Preis fast verdoppelt.
Hier! Ich schreie :biggrin:

Laut den AMD Folien ist die 5700 XT ca. 30% schneller als ne Vega56 und die bekommt man als gute Sapphire Pulse aktuell für ca. 250€. D.h. um das gleiche P/L-Verhältnis zu behalten müsste eine 5700 XT 325€ kosten. OK, UVP gegen Marktpreis und so weiter, aber $399 wäre einfach passender gewesen. Das sind dann hier in DE ca. 400€ und nach ein paar Wochen pendelt man sich etwas über 350€ ein, das würde passen.

Mal schauen wie die Preise hier in DE so werden und was Nvidia macht. Oder ich hol mir doch ne Vega :smile:

Ravenhearth
2019-06-11, 02:00:52
Der Chip ist übrigens Navi10 und nicht Navi12, wie von einigen "Leaks" behauptet. Dann dürfen wir jetzt raten; was ist Navi12? Müsste theoretisch Mainsteam (<$300) sein, wenn Navi20 High-End wird

horn 12
2019-06-11, 02:02:53
Somit wird nun endlich die VII bei Amazon freigegeben zum Versand
Mit 4K sollte Navi 5700XT weiter federn lassen und öfters unter RTX 2070 fallen.

Wäre der Preis 299 und 379 Dollar wären die Navi weitaus besser angekommen.
Zudem der Fade Beigeschmack der nur 8GB GDDR6 mit 448 Speicherbandbreite.

Unicous
2019-06-11, 02:04:27
Der Preis ist weder Fisch noch Fleisch. Eigentlich zu teuer, aber nicht zu teuer, als dass man die Fackeln schwingen könnte.

Für 400 Euro wäre es ein Knaller, so ist es nur meh. Nvidia wird darauf entsprechend reagieren und dann wird AMD die Preise angleichen.

Wir werden sehen wie AMD damit fährt.

Ravenhearth
2019-06-11, 02:05:25
Somit wird nun endlich die VII bei Amazon freigegeben zum Versand
Mit 4K sollte Navi 5700XT weiter federn lassen und öfters unter RTX 2070 fallen.
Gibt es dafür einen konkreten Anhaltspunkt?

horn 12
2019-06-11, 02:08:13
Nein, aber die Test werden es zeigen am 07.07.
dass für 4K die Vega´s besser geeeignet sind als die 1-te RDNA Navi Generation.

Vega 64 wurde damals mit den zu diesem Zeitpunkt erhältlichen Games als 4K Gaming Karte beworben,-
und nun kommt Navi, man ist schneller als Vega 64 und man spricht nur mehr von 1440P Gaming Performance.
Zumal immer mehr auf Vulkan aufgebaute Games kommen und AMD um die Performance dieser Schnittstelle mit Vega weiss
und dass Vulkan Spiele unter 4K im 50 bis 60fps Bereich anzutreffen sind.

Somit hat ausschließlich die Radeon VII für AMD die Berechtigung als 4K Gamingkarte mit! diversen kleineren/ und bis oder auch größeren Abstrichen.

Ravenhearth
2019-06-11, 02:13:14
Ja aber gegen die 2070?

maximus_hertus
2019-06-11, 02:14:21
Der Preis ist weder Fisch noch Fleisch. Eigentlich zu teuer, aber nicht zu teuer, als dass man die Fackeln schwingen könnte.

Für 400 Euro wäre es ein Knaller, so ist es nur meh. Nvidia wird darauf entsprechend reagieren und dann wird AMD die Preise angleichen.

Wir werden sehen wie AMD damit fährt.


Genau das. 450 sind irgendwie „meh“. Und die 380 sind viel zu nah an der XT dran, vom reinen Preispunkt aus gesehen.

BlacKi
2019-06-11, 02:15:12
4k? wen interessierts? 1440p ist wohl im ersten jahr noch drinn, danach tendieren beide karten richtung 1080p.

reaperrr
2019-06-11, 02:17:20
Nein, aber die Test werden es zeigen am 07.07.
dass für 4K die Vega´s besser geeeignet sind als die 1-te RDNA Navi Generation.
Nö, bzw. nur die viel teurere VII.

V64 hat kaum mehr Bandbreite, dafür weniger Chip-Takt (weniger Frontend- und ROP-Leistung) und schwächere DCC.
V56 ist bei Bandbreite und Takt noch schwächer.

Ich tippe, dass die 5700XT in 4K weniger Federn lässt als V64 und die 5700 weniger als die V56.

Ravenhearth
2019-06-11, 02:19:44
Genau das. 450 sind irgendwie „meh“. Und die 380 sind viel zu nah an der XT dran, vom reinen Preispunkt aus gesehen.
Aber gut möglich, dass die XT nur 10-15% schneller wird. Das würde den geringen Abstand erklären.

Mit +10% zur RTX 2060 dürfte die 5700 sogar etwa auf dem Niveau von Vega 64/GTX 1080 liegen, die XT dann halt 10-15% drüber.

Blediator16
2019-06-11, 02:29:10
Aber gut möglich, dass die XT nur 10-15% schneller wird. Das würde den geringen Abstand erklären.

Mit +10% zur RTX 2060 dürfte die 5700 sogar etwa auf dem Niveau von Vega 64/GTX 1080 liegen, die XT dann halt 10-15% drüber.

Man sollte am besten natürlich die Tests erst abwarten und die echten Strassenpreise. Danach kann man die Gabeln wieder rausholen :cool:

Stretcher
2019-06-11, 02:35:46
Ich fande es sowieso wenig Tech-Talk für eine komplett neue Architektur.

Weil es keine neue Architektur ist, war nur Marketing.
Enttäuschend und zu teuer, kein RT, kaum Tech Infos.

Linmoum
2019-06-11, 02:38:34
Kaum Tech Infos also. Aha. Vielleicht mal auf den bekannten Seiten lesen statt falsche Behauptungen in die Welt zu setzen. Auch hinsichtlich der Architektur.

Tech-Talk direkt auf der Bühne hätte vor E3-Publikum und twitch-gamern zuhause sehr viel Sinn ergeben.

Sam Pau
2019-06-11, 02:48:52
Sind jetzt diese neuen Features wie z.B. dieses Low Input Lag und Super Sharpening Navi exklusiv?
Oder habe ich richtig gehört und es soll allgemein in den Treiber eingebaut werden?

Geisterte vor Jahren nicht mal rum, dass Radeons allgemein einen niedrigeren Input Lag als Nivida Karten haben? (Meine das irgendwann in Zusammenhang mit CS:GO gelesen zu haben)

Vielleicht werben die jetzt damit nur öffentlich und es ist nichts neues dabei.

Stretcher
2019-06-11, 02:53:01
Kaum Tech Infos also. Aha.

Na zur Leistungsaufnahme und RT hätte man vielleicht schon was sagen können.


Vielleicht mal auf den bekannten Seiten lesen statt falsche Behauptungen in die Welt zu setzen. Auch hinsichtlich der Architektur.

Ich meinte die Präsentation.

Linmoum
2019-06-11, 03:03:44
Siehe den zweiten Absatz. Das war die Gaming-Messe E3 und keine Tech-Veranstaltung. Entsprechende Infos gibt's jetzt für alle interessierten zum lesen.

Wake
2019-06-11, 03:59:22
Immerhin erklärt sich nun, warum die Grünen in dem neuen Preview-Treiber pre-rendered frames limit+threaded optimization zu einem setting namens latency zusammengefasst haben^^.

Semmel
2019-06-11, 06:01:25
Was soll man sagen, "ganz nett". Entscheidend ist am Ende der Preis.
Derzeit werden Vega 56er für etwas über 200€ verschleudert, da muss die 5700er schon ähnlich billig sein, ansonsten ist die Vega in P/L besser.

dargo
2019-06-11, 06:09:44
5700 XT $449
5700 $379
Perfekt, wobei 50$ weniger wären mir lieber gewesen. :)

Ich nehme an 5700 non XT = ~RX V64?

Frage mich wieso es keinen Aufschrei wegen der beschissenen Preise gibt. Das ist das, was man erahnt hat. Erhöht der eine wird der andere nicht weit weg sein. Man hat Polaris genommen und den Preis fast verdoppelt.
Was für einen Aufschrei willst du da hören? Schon mit Turing gab es einen Preisanstieg und das wird natürlich auch bei AMD nicht besser. Kleinere Fertigungen werden immer teurer und der neue Speicher wird auch nicht billiger. So langsam sollte man sich damit abfinden, dass die Zyklen immer länger werden bis man doppelte Leistung für den gleichen Preis bekommt.

kommt später, wenn sie genug abfall gesammelt haben... ;)
So ein Quatsch. Polarisersatz kommt sicherlich nicht mit Navi10. Das wäre Flächenverschwendung vom feinsten. Wenn schon dann mit einer weiteren GPU @Navi12 oder was auch immer.

y33H@
2019-06-11, 06:45:12
Wo sind übrigens die ganzen Schreier, dass AMD wie Nvidia ja kein HDMI 2.1 unterstützt? ^^

Timbaloo
2019-06-11, 06:50:23
Wo sind übrigens die ganzen Schreier, dass AMD wie Nvidia ja kein HDMI 2.1 unterstützt? ^^
Das habe ich mich auch gefragt ;D

dargo
2019-06-11, 06:51:41
Wo sind übrigens die ganzen Schreier, dass AMD wie Nvidia ja kein HDMI 2.1 unterstützt? ^^
JVC schläft noch. ;D

Grendizer
2019-06-11, 06:57:41
JVC schläft noch. ;D

Man bekommt jetzt also etwas mehr Leistung als eine 1080 für vermutlich 419-449 Euro für Custom Designs ?

dargo
2019-06-11, 06:59:08
Man bekommt jetzt etwas mehr Leistung als eine RTX 2070. Keine Ahnung was Pascal da noch sucht.

Grendizer
2019-06-11, 07:00:28
Man bekommt jetzt etwas mehr Leistung als eine RTX 2070. Keine Ahnung was Pascal da noch sucht.

Leistungsaufnahme die gleiche un der Preis war Anfang 2017 für günstige Karten bei 499 Euro.

dargo
2019-06-11, 07:02:18
Und weiter? Wen interessiert das?

Grendizer
2019-06-11, 07:04:54
Und weiter? Wen interessiert das?

Es ist doch Wahnsinn, das sich seit 2.5 Jahren gerade mal eine Erdpsrnid von 30% für die Leistung ergibt und das alles ok finden.

Zergra
2019-06-11, 07:08:02
Das wird die nächsten Jahre auch so weiter gehen, keine Ahnung was hier erwartet wird.


Außerdem sollte man mal schauen wie lange die UVP bei AMD gehalten wird, die Karte wird es relativ schnell für unter 400€ geben. Die kleine für 300€.

dargo
2019-06-11, 07:10:48
Es ist doch Wahnsinn, das sich seit 2.5 Jahren gerade mal eine Erdpsrnid von 30% für die Leistung ergibt und das alles ok finden.
Hoffentlich bekommst du keinen Herzinfarkt in den nächsten Jahren bei der GPU-Entwicklung.

Complicated
2019-06-11, 07:37:20
Anti Lag = Enhanced Sync
https://www.amd.com/de/technologies/radeon-software-enhancedsync

Alle Spiele. DX9, 11 und 12 und Vulkan. Für alle GCN Aufwärts.

Loeschzwerg
2019-06-11, 07:39:07
Außerdem sollte man mal schauen wie lange die UVP bei AMD gehalten wird, die Karte wird es relativ schnell für unter 400€ geben. Die kleine für 300€.

Denke ich auch und dann passt das Paket vermutlich recht gut. Der Ersteindruck muss bei den kommenden Tests einfach stimmen.

Big Lebowsky
2019-06-11, 07:58:53
Außerdem sollte man mal schauen wie lange die UVP bei AMD gehalten wird, die Karte wird es relativ schnell für unter 400€ geben. Die kleine für 300€.

Das ist doch immer so, dass erstmal die Süchtigen mit maximalen Preisen abgemolken werden. In zwei Monaten hat sich das dann normalisiert.

Screemer
2019-06-11, 08:05:50
Kein HDMI 2.1? :facepalm:

w0mbat
2019-06-11, 08:15:20
Was kann HDMI 2.1 denn? Und wieso hat das noch keiner?

dildo4u
2019-06-11, 08:17:41
Für 4k120 Hz am TV,die neuen LG OLED können das.

Linmoum
2019-06-11, 08:20:11
Zu HDMI 2.1:

Beim HDMI-Standard bleibt es allerdings bei der Version 2.0b. Laut AMD war Navi für eine Integrierung von HDMI 2.1 schon zu weit in der Entwicklung fortgeschritten, als die finalen Spezifikationen bekannt gegeben worden sind.
https://www.computerbase.de/2019-06/navi-radeon-rx-5700-xt/

Loeschzwerg
2019-06-11, 08:21:30
4k @120Hz und VRR. Wer hier mit einem passenden TV Setup liebäugelt schaut natürlich etwas in die Röhre.

Ich denke der nächste Navi Vertreter bringt HDMI 2.1 dann mit.

Daredevil
2019-06-11, 08:28:58
4K @ 120hz ist so oder so ein Szenario, wo erst eine Leidtungsklasse der 2080ti was verloren hat.
Ich hätte damit aber auch gerechnet als „Next Gen Gaming Architekture“.

Da würde man vielleicht auch gar nicht so doll drauf rumreiten, wenn die es nicht so angepriesen hätten.

Screemer
2019-06-11, 08:39:07
4K @ 120hz ist so oder so ein Szenario, wo erst eine Leidtungsklasse der 2080ti was verloren hat.
Ich hätte damit aber auch gerechnet als „Next Gen Gaming Architekture“.

Da würde man vielleicht auch gar nicht so doll drauf rumreiten, wenn die es nicht so angepriesen hätten.du hast noch nie mit vrr gespielt, oder?

Fragman
2019-06-11, 08:41:10
AMD macht es hier genau wie nv. Beiden war/ist klar, das deren aktuelle GPU's nur Zwischenlösungen werden und man bald mit neuer Hardware kommen wird.
Bei nv halt kein Ramupdate oder hdmi2.1, dafür eben RT. Bei Navi gibt es nichts von alledem, weil man im nächsten Jahr dann wohl richtig zuschlägt. Dafür hat man hier und da ein paar Verbesserungen drin.

Für 7nm ist die Leistung und Effizienz wohl nicht so gut, oder?
Bzw scheint mir die neue arch plus 7nm nicht soviel aus zu machen, wie man vielleicht erhofft hat. Der Preis tut dann sein übriges.

deekey777
2019-06-11, 08:52:38
Die kann jetzt bei 32 oder 64 liegen.
Es hieß ja damals (tm), dass die 64er Wavegröße Effizienz kostet, die durch die Anzahl der Recheneinheiten ausgeglichen wird.

Wie wird das jetzt ablaufen? 2*16 oder 4*8?

.
Das ist ja noch besser:
Starting with the architecture itself, one of the biggest changes for RDNA is the width of a wavefront, the fundamental group of work. GCN in all of its iterations was 64 threads wide, meaning 64 threads were bundled together into a single wavefront for execution. RDNA drops this to a native 32 threads wide. At the same time, AMD has expanded the width of their SIMDs from 16 slots to 32 (aka SIMD32), meaning the size of a wavefront now matches the SIMD size. This is one of AMD’s key architectural efficiency changes, as it helps them keep their SIMD slots occupied more often. It also means that a wavefront can be passed through the SIMDs in a single cycle, instead of over 4 cycles on GCN parts.

dr.denton
2019-06-11, 08:57:52
Irgendwie komisch, wie anscheinend jeder AMDs Maxwell-Moment erwartet hat auf der Basis von haargenau gar nichts. Ich sehe in Navi ein bisschen die Wiederholung von RV670, der in der Mittelklasse alles gerichtet hat, was mit R600 im Highend verbockt wurde.
Weiss jemand was über die ungefähren Kosten/Wafer bei 7nm gegenüber 12nm? Ausbeute dürfte inzwischen ja auch bei 7nm ok sein, zumal bei so einem kleinen Chip?

Daredevil
2019-06-11, 09:00:24
du hast noch nie mit vrr gespielt, oder?
Du hast noch nie in 4K mit ner 2080ti gespielt, oder?
Dann wüsstest du, das selbst die für 4K maxed out gerne mal um die 60fps kämpft.
Wieso eine 2070 Leistungsklasse dann 4K 120fps Supporten soll über HDMI, musst du mir mal erklären, wenn am Ende Division mit 40fps vor sich hin krebst.

Daredevil
2019-06-11, 09:06:58
Für 7nm ist die Leistung und Effizienz wohl nicht so gut, oder?
Bzw scheint mir die neue arch plus 7nm nicht soviel aus zu machen, wie man vielleicht erhofft hat. Der Preis tut dann sein übriges.
Navi ist ca. 20% schneller als ne 64.
Navi ist 50% kleiner als ne 64.
Navi verbraucht bei 225w 20% weniger als ne 64.
Navi hat 37.5% weniger Compute Units als ne 64.
Navi hat nen Boost Takt von fast 2Ghz.
Navi erreicht das alles mit billigerem, langsameren und stromhungrigen GDDR6.
Navi ist 10% günstiger beim Launch als ne 64.

Das in Kombination ist schon ein großer Schritt, nicht unbedingt als Gamer, aber für AMDs Marge. :D

Und das ist aber leider zu leicht zu kontern durch NVIDIA. Mal sehen, wie die beiden sich hoffentlich runterdrücken.

deekey777
2019-06-11, 09:16:17
Irgendwie komisch, wie anscheinend jeder AMDs Maxwell-Moment erwartet hat auf der Basis von haargenau gar nichts. Ich sehe in Navi ein bisschen die Wiederholung von RV670, der in der Mittelklasse alles gerichtet hat, was mit R600 im Highend verbockt wurde.
Weiss jemand was über die ungefähren Kosten/Wafer bei 7nm gegenüber 12nm? Ausbeute dürfte inzwischen ja auch bei 7nm ok sein, zumal bei so einem kleinen Chip?
So viel hat der RV670 nicht gerichtet, er war "nur" kleiner (und damit deutlich günstiger), hatte Videodekodierung in HW und paar Fixes (und DX 10.1 natürlich). Der eigentliche Sprung war der RV770, hatte aber deutlich mehr CUs und andere Anordnung der Einheiten. Navi 10 ist wie Polaris 10 und RV770.

Warum ist Navi 10 eigentlich so groß? Doch keine 64 CUs, kein GPGPU-Zeug und trotzdem "nur" 40 CUs, wobei es ja nicht heißt, dass alle CUs aktiv sind.

Leonidas
2019-06-11, 09:32:40
was will man mit einer weiteren WQHD Karte ? Für die Auflösung reicht doch eine Vega 56 locker


Sehe ich nicht so. GTX1070 & Vega56 sind die neuen FullHD-Beschleuniger. Sicherlich mit Reserven, die derzeit auch noch für WQHD reichen. Aber lange hält das nicht mehr.




Aha.
Laut Igor zieht die 2070 übrigens ~190W.


Ganz so schlimm isses nicht. Die Referenztaktung liegt im Schnitt der Messungen bei ca. 174 Watt, die FE hingegen bei ca. 191 Watt.




In der videocardz Tabelle steht bei der 590 auch 225w Boardpower. Die hat ne TDP von 175w, oder?


Nein. Die Radeon RX 590 hat eine TBP von 225 Watt. Dies ist einer TDP-Angabe gleichzusetzen. Die reine ASIC-Power spielt hierbei keine Rolle.





2. Die 225W sind TBP, nicht TDP. Den Unterschied sollte man schon kennen.


Welche wäre das, abgesehen vom Namen? Funktionell dreht es sich um das gleiche = Power der kompletten Grafikkarte. Und auch eine TDP (Thermal Design Power) muß sich am Peak ausrichten.




2. AMD TBP = Nvidia TDP


Krümmelkackerei: AMD TBP = nVidia GCP. Den Begriff "TDP" verwendet NV eigentlich nicht mehr.





Letztlich sind diese Hersteller-Angaben einfach unzuverlässiger Müll und es zählen nur Testwerte.


Trifft heutzutage nicht mehr zu. Bei NV stimmen die Angaben nahezu perfekt, bei AMD bis auf ein paar Ausrutscher auch halbwegs bis nahezu perfekt. Die Erhebung von realen Testwerten hat sicherlich dazu beigetragen, das sich die Hersteller in dieser Frage keine Fake-Angaben mehr leisten können.




Meine Aussage bezieht sich auf die Differenz von AMDs TDP und TBP. Wenn der Kühler nur für die TDP der GPU ausgelegt ist, klingt das nicht gut.


Eine TDP-Angabe nur für den Grafikchip macht keinen Sinn, wenn man den nicht einzeln kaufen kann. Es handelte sich hierbei immer um die ASIC-Power - und dann hat jemand von WCCF & Co. das einfach falsch als "TDP" bezeichnet ... und alle Welt hat es falsch abgeschrieben. Die Ausgangslage war aber nie, das AMD eine TDP-Angabe zu RX5700/XT machen wollte. Die haben TBP und ASIC-Power angegeben, mehr nicht.




Gegen einen "echte" 7nm+ chip von nv sieht das ding doch kein land, also alles beim alten.


Gegenargument: Gegen einen echten 10nm-Chip von Intel sieht auch Zen 2 kein Land. Also abwarten auf Desktop-Prozessoren unter der 10nm-Fertigung von Intel?! Wir sprechen uns 2022 wieder ...





Der Chip ist übrigens Navi10 und nicht Navi12, wie von einigen "Leaks" behauptet. Dann dürfen wir jetzt raten; was ist Navi12? Müsste theoretisch Mainsteam (<$300) sein, wenn Navi20 High-End wird


Noch ist "Navi 12" eine reine These. Als Codezeile gefunden wurde bisher nur "Navi 14" (neben "Navi 10").





Und das ist aber leider zu leicht zu kontern durch NVIDIA. Mal sehen, wie die beiden sich hoffentlich runterdrücken.


Wozu muß man das kontern? Man hat RTX, man hat die eigenen Markennamen. Jeder Konter schwächt die eigenen Margen - und beinhaltet das Risiko, das AMD nachzieht. Die Kunst besteht darin, die eigenen Produkte so zu legen, das es für den Kontrahenten nicht lohnt, einen Konter zu fahren, weil der Nutzen den Aufwand übersteigt.

Bucklew
2019-06-11, 09:40:56
Ich frage mich ja gerade, welchen Pluspunkt die RX5700 hat. Also außer man will unbedingt AMD, ist die 2070 doch einfach das bessere/rundere Produkt. DXR bekomme ich quasi gratis oben drauf. Leistungsaufnahme ist auch noch niedriger.

Ich sehe keinen Pluspunkt für die 5700. Oder übersehe ich was?

Grendizer
2019-06-11, 09:42:55
Ich frage mich ja gerade, welchen Pluspunkt die RX5700 hat. Also außer man will unbedingt AMD, ist die 2070 doch einfach das bessere/rundere Produkt. DXR bekomme ich quasi gratis oben drauf. Leistungsaufnahme ist auch noch niedriger.

Ich sehe keinen Pluspunkt für die 5700. Oder übersehe ich was?


Bisher der Preis.

Screemer
2019-06-11, 09:46:35
Du hast noch nie in 4K mit ner 2080ti gespielt, oder?
Dann wüsstest du, das selbst die für 4K maxed out gerne mal um die 60fps kämpft.
Wieso eine 2070 Leistungsklasse dann 4K 120fps Supporten soll über HDMI, musst du mir mal erklären, wenn am Ende Division mit 40fps vor sich hin krebst.
Doch habe ich allerdings hast den Punkt nicht verstanden. Mit deinen kolportierten 40fps hättest du mit vrr eben 120hz Ausgabefrequenz für den Display. Das kannst du mit 2.0a eben nicht. Da hast du tearing mit 40fps und da ist es dann auch scheiß egal ob dein zerissenes Bild 4k ist. Vrr reißt für mich mehr als evtl. 20-30% mehr FPS mit tearing.

dargo
2019-06-11, 09:51:36
Warum ist Navi 10 eigentlich so groß?
Womöglich sind die CUs etwas fetter geworden um aus den TFLOPs mehr rauszuholen. Eventuell hat man für die hohen Taktraten auch etwas mehr Transistoren geopfert.

iuno
2019-06-11, 10:04:18
Ich find's enttaeuschend. Der Effizienzsprung ist viel zu gering. Tatsaechlich muesste man mal schauen, ob RDNA nicht effektiv ein Effizienz-Rueckschritt ist, wenn man den 7nm Vorteil mal rausnimmt. Und das ohne grossartige neue Features.
Nvidia koennte man mit Turing zwar auch unterstellen, dass sie Effizienz verloren haben, aber da gab es auch keinen fullnode Sprung und die haben waehrenddessen Features wie HW-RT und VR Zeug wie variable rate shading oder multi view rendering gebracht.
Dass man vorsichtshalber auf den ganzen Produktbildern erstmal 2x8-Pin "verbaut" hat, schiesst den Vogel noch ab.

AMD bekommt IMHO viel zu wenig aus der neuen Fertigung raus. Schon bei 28->14/16 und jetzt befuerchte ich es wieder. Da kann man echt froh sein, dass Nvidia nicht kurzfristig mit 7nm Karten um die Ecke kommt.


Kann jemand einschaetzen, was das single cycle issuing bringt? GCN konte die Latenz ja relativ gut "verstecken", sofern es genug zu tun gibt. Passiert das so oft, dass man "zu wenig" wavefronts hat? Ich stelle mir vor, dass man hier relativ viel Aufwand betrieben hat. Wenn es trivial waere, haette man es ja nicht jahrelang bei den vier Takten Latenz belassen muessen.

Daredevil
2019-06-11, 10:04:54
Doch habe ich allerdings hast den Punkt nicht verstanden. Mit deinen kolportierten 40fps hättest du mit vrr eben 120hz Ausgabefrequenz für den Display. Das kannst du mit 2.0a eben nicht. Da hast du tearing mit 40fps und da ist es dann auch scheiß egal ob dein zerissenes Bild 4k ist. Vrr reißt für mich mehr als evtl. 20-30% mehr FPS mit tearing.

Was hat denn VRR mit der hz Zahl zutun? Du kannst auch 60hz mit vrr haben, dazu brauchst du keine 120hz.

Leonidas
2019-06-11, 10:05:56
Ich frage mich ja gerade, welchen Pluspunkt die RX5700 hat. Also außer man will unbedingt AMD, ist die 2070 doch einfach das bessere/rundere Produkt. DXR bekomme ich quasi gratis oben drauf. Leistungsaufnahme ist auch noch niedriger.

Ich sehe keinen Pluspunkt für die 5700. Oder übersehe ich was?


Minimal mehr Performance, etwas besserer Preispunkt (bezogen auf die 5700XT). Gegenüber den 2070 mit Werks-OC noch der etwas bessere Preispunkt, aber Werks-OC dürfte es bei AMD genauso geben. Der Stromverbrauch ist konkurrenzfähig, hier geht es nur darum, das keine übergroßen Differenzen existieren. Was sollte ich da mit einer RTX2070, wenn ich eine 5700XT haben kann? Runde Produkte sind sie beide.

Screemer
2019-06-11, 10:07:34
Was hat denn VRR mit der hz Zahl zutun? Du kannst auch 60hz mit vrr haben, dazu brauchst du keine 120hz.
Ich sag ja, dass du noch kein 60hz vs 120hz Display mit vrr gesehen hast. Die höhere refresh rate hat auch bei weniger FPS vorteile. Ist hier aber OT.

robbitop
2019-06-11, 10:11:38
Irgendwie komisch, wie anscheinend jeder AMDs Maxwell-Moment erwartet hat auf der Basis von haargenau gar nichts. Ich sehe in Navi ein bisschen die Wiederholung von RV670, der in der Mittelklasse alles gerichtet hat, was mit R600 im Highend verbockt wurde.
Weiss jemand was über die ungefähren Kosten/Wafer bei 7nm gegenüber 12nm? Ausbeute dürfte inzwischen ja auch bei 7nm ok sein, zumal bei so einem kleinen Chip?
Naja anscheinend leisten die ALUs jetzt ähnlich viel wie die von Turing pro Flop. Das ist schon ein nennenswerter Sprung. Auch scheint die Bandbreiteneffizienz deutlich nach oben gegangen zu sein. Das ist gemessen an den vorherigen Produkten ein deutlicher Sprung.

Wer erwartet hat, dass AMD mit einem Bruchteil der Ressourcen NV überholt in Punkto Perf/mm2 oder Perf/W, der hatte einfach unrealistische Erwartungen.

Man fragt sich, warum man mit so wenigen CUs so viele Transistoren braucht.
Man schaue sich mal an, wie der Größenbedarf von Kepler über Maxwell über Pascal zu Turing war pro ALU.

Takt kostet nunmal Transistoren. Skalierbarkeit und IPC (pro ALU) ebenso. Man investiert nun deutlich mehr Kontrolllogik, Register, Caches etc.

Und das ist auch gut so - denn wie man sah, war die Skalierung in den letzten GPU Gens bei AMD eben recht begrenzt. Wenn ich das richtig erkenne, hat man hier in diesem Bezug (es skaliert nun vieles pro Shader Engine) verbessert. Ähnlich dem skalierbaren Aufbau den NV seit Fermi nutzt (GPCs).

iuno
2019-06-11, 10:13:08
Was sollte ich da mit einer RTX2070, wenn ich eine 5700XT haben kann? Runde Produkte sind sie beide.
Eine 2070 erzeugt weniger als die Haelfte an Waerme pro Flaeche (175W bei 445mm² vs. 225W bei 251mm²). Mal davon abgesehen, dass es bei AMD oft genug sowieso nur Schrott von Boardpartnern gibt, ist das viel einfacher und leiser zu kuehlen.

Und OEMs interessiert die 5700 einen Scheiss. Wenn beides gleich viel kostet, werden es IMHO tatsaechlich nur ein paar AMD Fans kaufen.

Käsetoast
2019-06-11, 10:15:23
Muss gestehen ein wenig enttäuscht bin ich schon. Ich hatte mir einen Polaris Nachfolger mit Vega Leistung gewünscht. Ich finde auch in dem Preissegment hätte man Nvidia ganz gut angreifen können, denn gerade die Speicherbestückung der 1600er Serie bei Nvidia ist nicht so bombig bzw. generell fand ich einige Karten nur wenig überzeugend. Von daher stören mich die Navi Preise ein wenig - da hatte ich mit rund 100 Euro weniger gerechnet, aber gut - dann geht AMD diesmal mehr auf Marge als auf Verkauf was ja vielleicht auch nicht ganz verkehrt ist. Für jemanden wie mich der eine Custom Karte mit leisem Kühler für maximal ca. 300 Euro will ist Navi damit bis auf Weiteres eher uninteressant...

Leonidas
2019-06-11, 10:17:53
Eine 2070 erzeugt weniger als die Haelfte an Waerme pro Flaeche (175W bei 445mm² vs. 225W bei 251mm²).


Kann ich das essen?

Sprich: Spielt keine Rolle. Der höhere Verbrauch von 185 Watt (2070FE) zu 225 Watt (5700XT) macht das Kraut nicht fett.




Und OEMs interessiert die 5700 einen Scheiss. Wenn beides gleich viel kostet, werden es IMHO tatsaechlich nur ein paar AMD Fans kaufen.


Korrekt. Deswegen sollte AMD im OEM-Segment echte Kampfpreise machen. Doch macht man die im Consumer-Segment, kommt zwingend eine Reaktion von NV und am Ende verkauft keiner mehr, verdienen aber beide weniger. Bei nur 2 Marktteilnehmer kann man das Mittel des Preiskampfs praktisch nicht bringen - das klappt nur bei einem breiten Markt, weil da jeder der Kontrahenten glaubt, das er selber nicht ganz so viel abgeben wird. Bei nur 2 Marktteilnehmern ist der Marktanteilsgewinn des einen 1:1 der Marktanteilsverlust des anderen - was unakzeptabel für den Betroffenen ist.

chiller
2019-06-11, 10:21:57
Sieht erstmal nach einer Testkarte aus, um zu sehen was bei RDNA 2.0 verbessert werden muss.

Tigershark
2019-06-11, 10:22:15
Kann ich das essen?

Sprich: Spielt keine Rolle. Der höhere Verbrauch von 185 Watt (2070FE) zu 225 Watt (5700XT) macht das Kraut nicht fett.

Hi Leo,

zum Teil muss ich ihm recht geben - der absolute Verbrauch ist marginal unterschiedlich, aber die Abwärme/mm² ist doch bei nV deutlich geringen, was eben dann leisere (und/oder günstigere weil einfacher aufgebaute) Kühlkonstruktionen ermöglicht.

Dennoch finde ich die Leistung bei Navi respektabel. Ich überlege, meine 1070 "einzutauschen", der 1600X wird dann gegen einen 3800X getauscht, Board (X370) bleibt und der RAM wird ggf. auch getauscht. Nettes kleines Upgrade.

Allerdings - auch wenn Navi gerade in Anbetracht der AMD zur Verfügung stehenden Ressourcen (bzw. dem, was ihnen vor 3-5 Jahren zur Verfügung stand) schon beeindruckend ist, der Markt hätte das Produkt SO sicherlich _vor_ der VII erwartet/erhofft, dann wäre die gefühlte Empörung/Enttäuschung sicherlich verschwunden...

dildo4u
2019-06-11, 10:24:44
Kann ich das essen?

Sprich: Spielt keine Rolle. Der höhere Verbrauch von 185 Watt (2070FE) zu 225 Watt (5700XT) macht das Kraut nicht fett.

Denke auch das das ziemlich latte ist,die meisten OEM werden keine FE verbauen selbst die Low End 2070 haben 8 + 6Pin.

https://geizhals.de/msi-geforce-rtx-2070-armor-8g-v373-014r-a1908115.html

Ich erwarte das Systembauer ordentliche Rabatte bekommen wenn sie reine 7nm AMD Systeme bauen.Der Retail Preis wird sich genau wie bei Radeon 7 in ein paar Monaten anpassen wenn genug produziert wurde.

iuno
2019-06-11, 10:28:07
Man fragt sich, warum man mit so wenigen CUs so viele Transistoren braucht.
Das hatte ich noch gar nicht gesehen, uebel. Es ist fast die doppelte Transistorenzahl von Polaris 10.

Wenn ich das richtig erkenne, hat man hier in diesem Bezug (es skaliert nun vieles pro Shader Engine) verbessert. Ähnlich dem skalierbaren Aufbau den NV seit Fermi nutzt (GPCs).
Was genau meinst du? Ich sehe davon nichts. Es gibt weiterhin n CUs, 1 rasterizer und 4 render backends pro SE.
Tatsaechlich wurde der geometry processor zentralisiert, statt 4 (1 pro SE) zu verwenden. Dafuer gibt's jetzt pro SE halt ein "prim unit".

Kann ich das essen?
Iss was du willst. Ich habe hinreichend ausgefuehrt, warum es eine Rolle spielt.

dargo
2019-06-11, 10:28:30
Auch scheint die Bandbreiteneffizienz deutlich nach oben gegangen zu sein.
Woran erkennst du das?

Achim_Anders
2019-06-11, 10:30:05
Aus Perspektive der Käufer kann ich die Enttäuschung verstehen und nachvollziehen. Imo ist eine vega 56 im Abverkauf für unter 300€ da ein besserer Deal...

Aus Perspektive von AMD erscheint mir Navi aber doch sehr gelungen. man ist zwar teurer in der fertigung wegem 7nm aber hat dafür einen viel kleineren Chip als Nvidia und verdient wahrscheinlich pro verkaufter Einheit ähnlich viel oder gar mehr. (vor allem über die Zeit wird 7nm günstiger und die Karten werden auch günstiger bei gleicher oder ähnlicher marge. Für AMD könnte das eine echt gute Produktreihe werden.

Es ist leider nicht die Preisrevolution auf die prä mining ära.

dargo
2019-06-11, 10:33:11
Sprich: Spielt keine Rolle. Der höhere Verbrauch von 185 Watt (2070FE) zu 225 Watt (5700XT) macht das Kraut nicht fett.

Hier würde ich allerdings erstmal abwarten. Viele Customs werden garantiert über 225W liegen wenn die Referenz schon dort liegt. Den Partnern ist in der Regel nur die Balkenlänge wichtig. Ich bin mir ziemlich sicher, dass wir viele 5700XT mit ~250W sehen werden, stets unter der Annahme Referenz = 225W. Allerdings sollte dann so eine Karte schon näher an die RTX 2080 ran kommen.

robbitop
2019-06-11, 10:34:50
Woran erkennst du das?
Aus der Architekturbeschreibung. Das sind genau die Dinge, die fehlten und die in Kombination Maxwell damals so bandbreiteneffizient gemacht haben. Das muss natürlich in Praxistests untermauert werden.

Das hatte ich noch gar nicht gesehen, uebel. Es ist fast die doppelte Transistorenzahl von Polaris 10.


Was genau meinst du? Ich sehe davon nichts. Es gibt weiterhin n CUs, 1 rasterizer und 4 render backends pro SE.
Tatsaechlich wurde der geometry processor zentralisiert, statt 4 (1 pro SE) zu verwenden. Dafuer gibt's jetzt pro SE halt ein "prim unit".

Ja man braucht mehr Transistoren. Aber man schaue sich an, wie viel mehr Transistoren bei NVs Evolutionen pro ALU anfielen. Takt und IPC pro ALU und Skalierbarkeit kosten nunmal.
Aber auf NVs Niveau ist man hier noch nicht, weil TU106 zusätzlich noch RT Cores und Tensor Cores mitbringt.

Ich meine die Prim Unit, die nun in den Shaderengines gelandet ist.

w0mbat
2019-06-11, 10:36:47
Tatsaechlich muesste man mal schauen, ob RDNA nicht effektiv ein Effizienz-Rueckschritt ist, wenn man den 7nm Vorteil mal rausnimmt.
Sorry, aber das ist doch wirklich nur noch getrolle :rolleyes:

Abesehen davon finde ich Navi auch überhaupt nicht berauschend. Mir ist gerade auch bewusst geworden, dass man bei der 2070 ein 445mm² die bekommt, während Navi nur 251mm² groß ist. Klar, 7nm kostet mehr als 12nm, aber wirklich fast doppelt so teuer? Und sollte nun wirklich noch eine 2070 Super mit nem TU104 kommen, wären das ganze 545mm²!

Ich denke für eine abschließende Einschätzung müssen wir noch auf die Benchmarks warten. Wenn die 5700 XT 10% vor einer 2070 liegt, ca. 200W verbraucht und dann nach ein paar Wochen ca. 400€ kostet sieht es ganz anders aus wie wenn man auf Augenhöhe mit der 2070 liegt, 230W verbraucht und >450€ kostet.

Trotzdem, während Ryzen extrem überzeugt kann selbst ich, als bezahlter AMD shill, das nicht von Navi sagen. Dabei weint meine R9 290 doch schon ziemlich weil sie endlich in Rente will. Vielleicht wird es wirklich eine "Super" Nvidia Karte. Meine letzte war ne RIVA TNT 2 :biggrin:

dargo
2019-06-11, 10:37:17
Aus der Architekturbeschreibung. Das sind genau die Dinge, die fehlten und die in Kombination Maxwell damals so bandbreiteneffizient gemacht haben. Das muss natürlich in Praxistests untermauert werden.

Also ich sehe da erstmal ca. 80% mehr Leistung als P20 bei 75% mehr Bandbreite.

iuno
2019-06-11, 10:38:42
Ich meine die Prim Unit, die nun in den Shaderengines gelandet ist.
Die ist aber nicht zusaetzlich da, vorher gab es geometry processors in jeder SE.

Tatsaechlich wurde der geometry processor zentralisiert, statt 4 (1 pro SE) zu verwenden. Dafuer gibt's jetzt pro SE halt ein "prim unit".

Inwiefern soll das Skalierbarkeit verbessern? Intuitiv wuerde man das Gegenteil annehmen. Neben dem GCP muss man jetzt auch jedesmal den GP anfassen, wenn man mehr oder weniger SEs haben will. Oder man hat einen einzigen GP, der alles abdeckt (auch >4 SE?) aber damit halt fuer die meisten Produkte "zu gross" ist.

robbitop
2019-06-11, 10:38:49
Aus Perspektive der Käufer kann ich die Enttäuschung verstehen und nachvollziehen. Imo ist eine vega 56 im Abverkauf für unter 300€ da ein besserer Deal...
Das ist ein ungünstiger Vergleich, der nur eine Momentaufnahme ist. EOL HW wird oft nochmal kurzzeitig für sehr geringe Preise rausgegeben um die Lager zu leeren. Nichts neues. Wird bald aber keine Option mehr sein. Zumal die Straßenpreise (UVP ist ja nicht der Preis den man zahlt) sich sicher so einstellen werden, dass es passt.

Stretcher
2019-06-11, 10:44:33
Was für einen Aufschrei willst du da hören? Schon mit Turing gab es einen Preisanstieg und das wird natürlich auch bei AMD nicht besser.

Also ich hätte damit gerechnet, dass du deinen Argumenten zum Turing Launch im RTX 2070 Releasethread treu bleibst, stattdessen schaffst du es deinen Hals um 180 Grad zu wenden, das bekommt nicht jeder hin. Bravo.

robbitop
2019-06-11, 10:44:43
Also ich sehe da erstmal ca. 80% mehr Leistung als P20 bei 75% mehr Bandbreite.
Wobei das nicht immer ein 100%iges Indiz sein muss. Vega 7 hat 1 TB/s Bandbreite. Die 1060 hat die meiste Bandbreite pro Flop und die 1070ti die wenigste. Und sie alle funktionieren.
Turing hat generell wesentlich mehr Bandbreite pro Flop als Pascal (die 1060 ggf ausgenommen). Und das obwohl die Bandbreiteneffizienz besser geworden ist (wohl aber wg RT).

Ggf. war Polaris 10 bandbreitenlimitierter als Navi 10 es war? Ich erinnere mich bei der RX480, dass sie im Vergleich zu 470 häufig nicht linear mehr Leistung herausgeholt hatte (im gleichen Maß wie sie mehr Rohleistung hatte).

Bandbreite kann man eigentlich nie zu viel haben. Es hilft ab einem gewissen Punkt zwar kaum noch, aber jedes % ist willkommen. Und wie immer gibt es das eine Limit nicht. Für bestimmte Teile des Frames mag Kriterium X der Flaschenhals sein, für andere dann Kriterium Y oder Z. Bandbreite könnte dann zumindest Teilabschnitten des Frames noch helfen.

fondness
2019-06-11, 10:49:33
Transistoren spielen ohnehin keine Rolle. Entscheidend ist, wie groß der Chip ist. Hier finde ich 251mm²@7nm bei >=2070 Performance so schlecht nicht. TU104 liegt bei 545mm²@12nm, ein Shrink davon mit Sicherheit >300mm². Problematischer ist natürlich die Perf/Watt. Hier muss man aber erstmal genaue Tests abwarten, durch den Fertigungsvorteil hätte ich aber natürlich auch zumindest auf Gleichstand gehofft. Dass AMD hier mit einem Chip den Rückstand wegmacht war aber ohnehin unrealistisch. Man hat jetzt nach langer Zeit des Stillstandes zum ersten mal wieder Ressourcen um den Rückstand sukzessive zu verkleinern.

SKYNET
2019-06-11, 10:50:11
So ein Quatsch. Polarisersatz kommt sicherlich nicht mit Navi10. Das wäre Flächenverschwendung vom feinsten. Wenn schon dann mit einer weiteren GPU @Navi12 oder was auch immer.


was ist quatsch? das sie teildefekte GPUs sammeln und diese später als 5600 und 5500 anbieten werden? denke nicht... ;)

5600 - 30CUs
5500 - 20CUs

viele haben das RDNA auch immernoch nicht verstanden... es heisst RYZEN DNA --> der chip ist beliebig erweiterbar bzw. beschneidbar, so wie nen 1500X/2500X nen 8 kerner ist, wo 4 kerne einfach abgeschaltet wurden bzw. defekt sind...

dildo4u
2019-06-11, 10:52:43
Transistoren spielen ohnehin keine Rolle. Entscheidend ist, wie groß der Chip ist. Hier finde ich 251mm²@7nm bei >=2070 Performance so schlecht nicht. TU104 liegt bei 545mm²@12nm, ein Shrink davon mit Sicherheit >300mm². Problematischer ist natürlich die Perf/Watt. Hier muss man aber erstmal genaue Tests abwarten, durch den Fertigungsvorteil hätte ich aber natürlich auch zumindest auf Gleichstand gehofft. Dass AMD hier mit einem Chip den Rückstand wegmacht war aber ohnehin unrealistisch. Man hat jetzt nach langer Zeit des Stillstandes zum ersten mal wieder Ressourcen um den Rückstand sukzessive zu verkleinern.
RDNA2 sollte mit Hardware RT größer werden die kommen am Ende vermutlich relativ gleich groß raus.

Grendizer
2019-06-11, 10:56:52
Interessant finde ich übrigens aus dem "Wir werden über Raytracing bei Navi reden" dann doch ein ... gibt es erst in der nächsten Version geworden ist.

Locuza
2019-06-11, 10:57:29
Das ist ja noch besser:
Da ist mein Beitrag davor etwas untergegangen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12018080#post12018080

[...]
Warum ist Navi 10 eigentlich so groß? Doch keine 64 CUs, kein GPGPU-Zeug und trotzdem "nur" 40 CUs, wobei es ja nicht heißt, dass alle CUs aktiv sind.
- 64 ROPs wie bei Vega10 und damit doppelt soviel wie bei Polaris10 mit 32.

- GPUGPU-Zeug = ???
Das muss müsste mal jemand genauer spezifizieren, AMD hat es jedenfalls (noch?) nicht getan, aber die Infos die AMD preisgegeben haben, zeigen mehr Fleisch auf dem Knochen, als GCN es noch hatte.

Z.B. die Load-Bandbreite beim L0$ zu den Recheneinheiten (bei GCN als L1$ bezeichnet) wurde von 64 Bytes per clock auf 128 Bytes verdoppelt.

Ansonsten bleibt das Register-File mit 256KB gleich groß und laut Compiler-Patches bleibt auch der Local Data Share 64KB groß.

- Es gibt einen neuen L1$, welcher 128KB pro Shader-Engine ist bzw. bei Navi 10 kommen insgesamt 512KB dazu.

- Der L2$ ist 4MB groß, genauso wie bei Vega10 und wie bei den ROPs damit doppelt so groß im Vergleich zu Polaris 10.

- Die Compute Units haben mehr Ressourcen.
2x Scalar Units pro CU anstatt 1.
2x Scheduler and Issue Logic.
Das die Compute Units zwei Wavefronts-Modes haben und es noch zusätzlich ein Workgroup Processor Mode gibt, wo alle CUs an einer Workgroup arbeiten können, hat die Sachen sicherlich auch ein wenig komplexer gemacht.

- 32KB I$ und 16KB K$ werden nun per 128 ALUs (4xSIMD32) geteilt.
Bei GCN1-4 wurde das noch von bis zu 256 ALUs geteilt (4x4xSIMD16), bei GCN5 maximal 192 ALUs (3x4xSIMD16).
Polaris 10 war aber schon mit nur 3 Compute Units für die gesharten Ressourcen konfiguriert.
Also insgesamt 48KB pro 3 Compute Units.
36/3 => 12 x 48KB => 576 KB dafür.

Vega10:
Etwas komplizierter hier, Vega hat zwei mal für 3 Compute Units geshared und dann einmal für 2 Compute Units.
Insgesamt waren es 1152KB (24x I$ und K$).

Navi 10:
40/2 => 20 x 48KB => 960KB.


- Wie immer das Sonstige.
GDDR6 mit 14Gbps wird von der Fläche her mehr benötigen, als HBM2 Speicher oder 8Gbps GDDR5 (Prozessnormiert).
Die Media-Engine wurde aufgebohrt, verbraucht auch Platz und Transistoren.

40 CUs sind laut Diagramm der Vollausbau.
AMD hat nichts zur Registerbandbreite gesagt oder HBCC, dass sind vielleicht Sachen, wo es Einschnitte gab?
Ersteres interessiert aber in der Praxis nicht, wenn die effektive Leistung davon wenig beeinflusst wird bzw. durch die anderen Verbesserungen deutlich ausgeglichen.

dildo4u
2019-06-11, 10:59:16
Interessant finde ich übrigens aus dem "Wir werden über Raytracing bei Navi reden" dann doch ein ... gibt es erst in der nächsten Version geworden ist.
Aus AMD Sicht spielt RT erst 2021 eine Rolle,ohne RDNA2 Konsolen gibt es keine große Hardware Basis für die meisten Entwickler.

dargo
2019-06-11, 11:01:17
was ist quatsch? das sie teildefekte GPUs sammeln und diese später als 5600 und 5500 anbieten werden? denke nicht... ;)

5600 - 30CUs
5500 - 20CUs

Die 5700 non X ist schon Salvage. Alles drunter wird garantiert kein Navi 10. Niemand ist so dämlich und verkauft einen zur Hälfte deaktivierten Grafikchip.

Grendizer
2019-06-11, 11:02:35
Aus AMD Sicht spielt RT erst 2021 eine Rolle,ohne RDNA2 Konsolen gibt es keine große Hardware Basis für die meisten Entwickler.

Ja ich empfinde RT momentan auch leider noch als interessante und notwendige Technologie für die Zukunft, aber bedeutungslos, da viel zu langsam in aktueller Generation.

Aber gerade Horn12 usw. haben auf Grund des Satzes schon RT für Navi bestätigt gesehen ... was ja auch irgendwie stimmt, aber anders wie von den Kollegen erwartet

dargo
2019-06-11, 11:04:43
Also ich hätte damit gerechnet, dass du deinen Argumenten zum Turing Launch im RTX 2070 Releasethread treu bleibst, stattdessen schaffst du es deinen Hals um 180 Grad zu wenden, das bekommt nicht jeder hin. Bravo.
Ich bin halt in der Lage die höheren Kosten zu verstehen, im Gegensatz zu anderen hier. Wem das nicht gefällt braucht Karte X auch nicht kaufen, so einfach ist das. Ist ja nicht gerade so, dass es keine günstigen Alternativen gibt. Ein Beispiel war hier V56 im Abverkauf. Eine Sapphire Nitro+ RX Vega 64 für aktuell 368€ ist auch sehr attraktiv. Wobei... wenn 5700 non X wirklich die gleiche Performance wie V64 liefert und sich irgendwo bei 380-400€ einpendelt (Customs) würde ich eher auf die warten.

Wobei das nicht immer ein 100%iges Indiz sein muss. Vega 7 hat 1 TB/s Bandbreite.
Ganz schlechter Vergleich und das weißt du auch. :wink: V10 hat weniger als die Hälfte bei ~20% weniger fps und verhungert nicht mal an Bandbreite.


Aber gerade Horn12 usw. haben auf Grund des Satzes schon RT für Navi bestätigt gesehen ...
Gehört Horn neuerdings zu den zuverlässigen Leakern? :ulol:

BoMbY
2019-06-11, 11:11:46
CB hat da im Artikel alle Folien (https://www.computerbase.de/2019-06/navi-radeon-rx-5700-xt/#bilder) versteckt:

https://i.imgur.com/1NTRRX3h.png

https://i.imgur.com/unfFRgth.png

https://i.imgur.com/VmaMT2sh.png

https://i.imgur.com/NVfar6Rh.png

deekey777
2019-06-11, 11:14:27
Transistoren spielen ohnehin keine Rolle. Entscheidend ist, wie groß der Chip ist. Hier finde ich 251mm²@7nm bei >=2070 Performance so schlecht nicht. TU104 liegt bei 545mm²@12nm, ein Shrink davon mit Sicherheit >300mm². Problematischer ist natürlich die Perf/Watt. Hier muss man aber erstmal genaue Tests abwarten, durch den Fertigungsvorteil hätte ich aber natürlich auch zumindest auf Gleichstand gehofft. Dass AMD hier mit einem Chip den Rückstand wegmacht war aber ohnehin unrealistisch. Man hat jetzt nach langer Zeit des Stillstandes zum ersten mal wieder Ressourcen um den Rückstand sukzessive zu verkleinern.
Nicht ausschlaggebend, aber die 2070 basiert auf dem TU106 und ist ~440 mm² groß.

Screemer
2019-06-11, 11:16:09
viele haben das RDNA auch immernoch nicht verstanden... es heisst RYZEN DNA --> der chip ist beliebig erweiterbar bzw. beschneidbar, so wie nen 1500X/2500X nen 8 kerner ist, wo 4 kerne einfach abgeschaltet wurden bzw. defekt sind...
Alter. RyzenDNA? :facepalm:

Die 5700 non X ist schon Salvage. Alles drunter wird garantiert kein Navi 10. Niemand ist so dämlich und verkauft einen zur Hälfte deaktivierten Grafikchip.2060 super :lol:

robbitop
2019-06-11, 11:21:27
Ganz schlechter Vergleich und das weißt du auch. :wink: V10 hat weniger als die Hälfte bei ~20% weniger fps und verhungert nicht mal an Bandbreite.

Diente nur als Beispiel zusätzlich zu Pascal und Turing. Und am Ende wird Vega 7 die erhöhte Bandbreite auch ein bisschen was gebracht haben.

mboeller
2019-06-11, 11:21:34
Ich find's enttaeuschend. Der Effizienzsprung ist viel zu gering. Tatsaechlich muesste man mal schauen, ob RDNA nicht effektiv ein Effizienz-Rueckschritt ist, wenn man den 7nm Vorteil mal rausnimmt.

AMD sieht es so:

https://www.tomshw.de/wp-content/uploads/2019/06/gains.jpg

nur ein kleiner Teil geht auf 7nm zurück.

Uzundiz
2019-06-11, 11:22:08
Wann wollte nochmal nvdia nochmal seine super grakas vorstellen? Ich warte auf den pricedrop 😁

Leonidas
2019-06-11, 11:23:47
Das hatte ich noch gar nicht gesehen, uebel. Es ist fast die doppelte Transistorenzahl von Polaris 10.



Ich kann doppelte Transistorenanzahlen niemals als "übel" ansehen. Mehr Transistoren bedeutet mehr Logik, mehr Gehirnschmalz. Immer her damit!

Konkret: AMD hat hier nur das gleiche wie NV getan und Transen dafür geopfert, das man mehr Arbeit per Takt und per Clock macht. Genau der richtige Weg. Es kostet Transen, aber die bekommt man ja mittels 7nm hintergeworfen. Taktrate bekommt man dagegen nicht hinterhergeworfen, die muß man sich verdienen.





2060 super :lol:


Unbestätigt. Und wäre zudem weniger teildeaktiviert als die reguläre 2060 (83%).

dildo4u
2019-06-11, 11:27:53
Die 2060 mit 8GB wäre das beste am Navi Launch.

w0mbat
2019-06-11, 11:38:14
Jetzt noch fast vier Wochen auf die Tests zu warten ist schon etwas übel. Ich hätte es viel besser gefunden wenn die Tests direkt nach der Vorstellungen, also zB heute, gekommen wären.

BoMbY
2019-06-11, 11:41:15
Ich find's enttaeuschend. Der Effizienzsprung ist viel zu gering.

Ja, +50% Peformance/Watt sind total Kacke ... es hätten mindestens 2000% wie bei jeder NVidia-Generation gewesen sein müssen ... :rolleyes:

Ravenhearth
2019-06-11, 11:49:27
was ist quatsch? das sie teildefekte GPUs sammeln und diese später als 5600 und 5500 anbieten werden? denke nicht... ;)

5600 - 30CUs
5500 - 20CUs

viele haben das RDNA auch immernoch nicht verstanden... es heisst RYZEN DNA --> der chip ist beliebig erweiterbar bzw. beschneidbar, so wie nen 1500X/2500X nen 8 kerner ist, wo 4 kerne einfach abgeschaltet wurden bzw. defekt sind...
Die Hälfte des Chips zu deaktivieren ist nicht erst seit Navi möglich. Es wird nur nicht gemacht, weil es keinen Sinn ergibt. Maximal eine Version mit 32 CUs könnte ich mir vorstellen.

https://pics.computerbase.de/8/8/1/1/7/32-1080.0626db47.jpg

Diese Folie finde ich echt interessant. 7nm scheint nur sehr wenig Perf/W zu bringen, wohl weil man alles in Takt investiert und dort sind die Gewinne viel geringer. Auf Vega-ähnlichen Taktraten könnten die Karten aber extrem effizient sein, das wird man testen müssen.

dargo
2019-06-11, 11:53:09
Und am Ende wird Vega 7 die erhöhte Bandbreite auch ein bisschen was gebracht haben.
Im Verhältnis zu den erhöhten Kosten lächerlich.

robbitop
2019-06-11, 11:54:44
Ich finde es interessant. Pro ALU und pro Takt liegt man anscheinend (man muss noch Tests abwarten) auf Turing Level. Auch scheint man nun vergleichbare Taktbarkeit zu haben. Das ist angesichts der vorherigen Produkte ein Sprung, den ich so nicht erwartet habe.
Man benötigt etwas mehr Transistoren als NV - ja - aber NV hat halt auch wesentlich mehr Ressourcen.

Und Perf/W der uArch kann man out of the box eh nicht vergleichen da unterschiedliche Betriebspunkte.
Der 7 nm Vorteil ist schnell verbraucht, wenn man etwas mehr Frequenz will (Frequenz steigt ab einem gewissen Punkt zur 3. Potenz mit der TDP).

Im Verhältnis zu den erhöhten Kosten lächerlich.
Sehe ich genauso. Man hatte die Karte halt aus dem Profimarkt und wollte Anfang 2019 etwas launchen. Angeblich wollte man da bereits Navi launchen aber es gab Verzögerungen. Was soll's. Uns Konsumenten tut es nicht weh.

robbitop
2019-06-11, 11:57:02
https://pics.computerbase.de/8/8/1/1/7/32-1080.0626db47.jpg

Auf der Folie spricht man von +50% mehr Performance pro Takt und ALU? Waren es nicht auf den anderen Folien +25%?

sChRaNzA
2019-06-11, 11:57:59
Gibt es zu den "aktuellen" AMD-Karten eigentlich auch irgendwo eine Art Line-Up / Überblick was genau was ist?

Irgendwie hab ich zwischen Vega7, Vega10, Vega20, Vega56, Vega64, Radeon RX, Radeon 7 etc leicht den Überblick verloren.

Ravenhearth
2019-06-11, 12:02:28
Auf der Folie spricht man von +50% mehr Performance pro Takt und ALU? Waren es nicht auf den anderen Folien +25%?
Die 100% rechts beziehen sich wohl auf die +50% links

Locuza
2019-06-11, 12:06:22
Ja, +50% Peformance/Watt sind total Kacke ... es hätten mindestens 2000% wie bei jeder NVidia-Generation gewesen sein müssen ... :rolleyes:
Laut AMD bekommt man mit der 5700XT (Wird nur Navi genannt) eine 50% bessere Perf/Watt hin, als mit Vega 64.
14% schneller, bei 23% weniger Verbrauch.

Nun hier kann man Navi zu Gute halten, dass Vega10 HBM2 verwendet und nicht GDDR6, welcher mehr verbraucht, aber schauen wir mal uns das im Vergleich zu Nvidia an, welche auch mit GDDR6 daher kommen:
https://abload.de/img/upslyjmd.jpg
https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/4/#abschnitt_performance_pro_watt

Über 80% (!) bessere Perf/Watt auf Turings Seite und ohne 7nm.
Wenn es nach AMDs Unterteilung geht, dann ist das Navi-Design selber ungefähr 30-35% effizienter, als GCN5, der Rest kommt von den 7nm.

Natürlich muss man echte Verbrauchswerte bei entsprechenden Taktraten abwarten, aber gemeinhin wünscht man sich natürlich das AMD mit Nvidia gleichzieht, bei 1/10 der Entwicklungsressourcen und davon scheint selbst nach RDNA AMD noch weit entfernt zu sein.

dargo
2019-06-11, 12:06:56
Sehe ich genauso. Man hatte die Karte halt aus dem Profimarkt und wollte Anfang 2019 etwas launchen.
Eben... V20 war noch nicht mal für den Gamingsektor geplant. Später hat sich Lisa Su anders entschieden.

@Locuza
Dir ist aber schon klar, dass diese lustigen Perf/Watt Vergleiche nicht nur alleine aus der Hardware resultieren? Als weiteres mal an die von robbitop genannten Betriebspunkte denken. Das siehst du schon alleine am Vergleich V64 vs. GTX1080 und V56 vs. GTX1070. Im ersten Fall ist die Perf/Watt bei CB 69% besser bei NV, im zweiten Fall 39%.

Achim_Anders
2019-06-11, 12:14:26
Gibt es zu den "aktuellen" AMD-Karten eigentlich auch irgendwo eine Art Line-Up / Überblick was genau was ist?

Irgendwie hab ich zwischen Vega7, Vega10, Vega20, Vega56, Vega64, Radeon RX, Radeon 7 etc leicht den Überblick verloren.
Du wirfst die Namen vom Chip und Produktnamen in einen Haufen.
Chronologisch: Chip - Produkte
Polaris10 - Radeon RX 480 und RX 470
Polaris20 - Radeon RX590, Rx580 und RX570 Das ist hier etwas ungenau, reicht für deine Frage aber aus!
Vega10 - Vega64 und Vega56
Vega20 - VII oder auch Vega 7 genannt

Relevant zur Kaufentscheidungen sind nur die Produktnamen :)

sChRaNzA
2019-06-11, 12:23:05
Du wirfst die Namen vom Chip und Produktnamen in einen Haufen.
Chronologisch: Chip - Produkte
Polaris10 - Radeon RX 480 und RX 470
Polaris20 - Radeon RX590, Rx580 und RX570 Das ist hier etwas ungenau, reicht für deine Frage aber aus!
Vega10 - Vega64 und Vega56
Vega20 - VII oder auch Vega 7 genannt

Relevant zur Kaufentscheidungen sind nur die Produktnamen :)


Das mit dem Durcheinanderwerfen war natürlich der Übertreibung geschuldet.

Dennoch empfinde ich die Namensgebung von AMD im Moment als sehr verwirrend. :redface:

fdk
2019-06-11, 12:25:38
Mal so Interessehalber, da ich noch mit einer Karte unterwegs bin bei der das Thema ist (7950).

Wie ist das Idle-Verhalten bezüglich Verbrauch/P-States aktueller AMD-GPUs wenn >1 Monitore angeschlossen sind? Meine Karte gönnt sich dabei nämlich ~ 30w extra. Leider wird das mittlerweile auch äußerst selten mitgetestet.

w0mbat
2019-06-11, 12:26:42
Ist sie auch. Wir haben RX 570, 580 und 590, dann RX Vega 56 und 64, dann Radeon VII und jetzt RX 5700 (XT) :D

amdfanuwe
2019-06-11, 12:27:15
Nu isse da.
Während Nvidia mit einem komplettem Lineup kommt, bringt AMD nur wieder einen Chip. Jetzt können sich die Compilerbauer auf die neue Architektur einschießen und nächstes Jahr, mit 7nm+ oder 6nm, wird es wieder spannend.
Zudem kann AMD erstmal in Ruhe die Polaris und Vega Restbestände abverkaufen.

Sieht das Kartenangebot erst mal so aus:

1650
570
580
590
1660
1660Ti
V56
2060
5700
5700XT 2070
Radeon VII
2080
2080Ti


Was sie vielen Transistoren betrifft: Man weiß ja nicht, was AMD an deaktivierten Features verbaut hat. Gibt es dann erst in der nächsten Generation, wenn es funktioniert.

][immy
2019-06-11, 12:32:20
Ist sie auch. Wir haben RX 570, 580 und 590, dann RX Vega 56 und 64, dann Radeon VII und jetzt RX 5700 (XT) :D

naja, die Namensgebung lässt darauf schließen, das man ein neue Gen von RX570 Karten raus bringt (daher RX5700). Dann hat man noch platz für RX5800 und RX5900
Und Vega & VII haben den High-End markt aus AMD-Sicht abgedeckt. Die Namensgebung steht also noch offen.
So verwirrend ist die Bezeichnung daher nicht. Allerdings das man wieder das XT-Kürzel eingeführt hat …
Aber vielleicht will sich AMD einfach nur nach oben hin die Zahlen offen halten. immer wieder lustig diese Zahlenspielerein, so lange man nicht später bei der FX 5700 landet ist alles ok. Abgesehen davon das diese Bezeichnungen wieder so alt sind, das man das auch wieder nicht verwechseln kann.

Complicated
2019-06-11, 12:39:48
Doch habe ich allerdings hast den Punkt nicht verstanden. Mit deinen kolportierten 40fps hättest du mit vrr eben 120hz Ausgabefrequenz für den Display. Das kannst du mit 2.0a eben nicht. Da hast du tearing mit 40fps und da ist es dann auch scheiß egal ob dein zerissenes Bild 4k ist. Vrr reißt für mich mehr als evtl. 20-30% mehr FPS mit tearing.
Schau dir den Link zu Enhanced Sync weiter oben an. Der behebt das Problem, da nur der letzte vollständige Frame ausgegeben wird an den Monitor. Es müssen also keine identischen Bilder übertragen werden um 120 Hz zu matchen. Daher reichen HDMI 2.0 ebenfalls in deinem Szenario von der Bandbreite.

aufkrawall
2019-06-11, 12:41:52
Wie ist das Idle-Verhalten bezüglich Verbrauch/P-States aktueller AMD-GPUs wenn >1 Monitore angeschlossen sind? Meine Karte gönnt sich dabei nämlich ~ 30w extra. Leider wird das mittlerweile auch äußerst selten mitgetestet.
Ist mit Polaris auch noch hoch, wenn es nicht 2x gleiche Auflösung/Refreshrate ist. Mit Vega ist es egal. Wird man sehen müssen, wie das bei Navi ohne HBM ist.

Locuza
2019-06-11, 12:43:06
@Locuza
Dir ist aber schon klar, dass diese lustigen Perf/Watt Vergleiche nicht nur alleine aus der Hardware resultieren? Als weiteres mal an die von robbitop genannten Betriebspunkte denken. Das siehst du schon alleine am Vergleich V64 vs. GTX1080 und V56 vs. GTX1070. Im ersten Fall ist die Perf/Watt bei CB 69% besser bei NV, im zweiten Fall 39%.
TU106:
10,8 Mrd. Transistoren mit Raytracing und Tensor-Cores.
256-Bit GDDR6-Interface mit 14Gbps.
64 ROPs
2304 ALUs
4MB L2$.

2070 (FE) Clocks
Basis-Takt 1.410 MHz
Boost-Takt 1.620 MHz (1.710 MHz)
7,5 TFLOPS (7,9 TFLOPS)

Navi 10:
10,3 Mrd. Transistoren.
256-Bit GDDR6-Interface mit 14Gbps.
64 ROPs
2560 ALUs
4MB L2$

Base Clock 1605MHz
Game Clock 1755MHz
Boost Clock 1905MHz

8,9 TFLOPs (Game) / 9,75 (Boost)

Das jetzt natürlich nur krude, aber beide Chips sind so ähnlich ausgestattet, wie schon lange nicht mehr.

Laut AMD schlägt die 5700XT die 2070 in 10 Spielen im Schnitt bei 6%:
https://pics.computerbase.de/8/8/1/1/7/11-1080.cc9b5721.jpg

Und AMD hat eben selber die Vega 64 für die 50% bessere Perf/Watt genommen, im Vergleich zu einer Vega56 wäre es natürlich geringer gewesen.

Jetzt kann man sich auch effizientere Taktpunkte für die Navi GPU aussuchen, aber wenn das Ding dann unter die Performance einer 2070 fällt, obwohl AMD bei den groben Eckpunkten ähnlich ausgestattet ist, dann steht AMD eben an einer anderen Stelle schwächer gegenüber Nvidia dar.

Dural
2019-06-11, 12:43:21
Ich habe es ja schon gestern gesagt, es bleibt alles beim alten.

Ich finde es schade wenn man bedenkt was alles möglich wäre (nv) auch in sachen konsolen... aber man nimmt lieber hardware die günstiger ist. :(

iuno
2019-06-11, 12:53:43
Ich kann doppelte Transistorenanzahlen niemals als "übel" ansehen. Mehr Transistoren bedeutet mehr Logik, mehr Gehirnschmalz. Immer her damit!
Uebel war sicher das falsche Wort. Das sollte eher ein Ausdruck des Erstaunens sein ;)

Ich finde es interessant. Pro ALU und pro Takt liegt man anscheinend (man muss noch Tests abwarten) auf Turing Level. Auch scheint man nun vergleichbare Taktbarkeit zu haben. Das ist angesichts der vorherigen Produkte ein Sprung, den ich so nicht erwartet habe.
Die Frage ist, ob das derart erstrebenswert war, dass man es sich so teuer erkaufen muss.
IMHO ergibt das nur Sinn, wenn man weiterhin eine obere Schranke hat, was die Skalierbarkeit anbelangt. Ansonsten haette man auch einfach wieder breiter bauen koennen, wie man das jahrelang gemacht hat, um die fehlende Effizienz zu kaschieren.

Aus Vega und VII laesst sich schliessen, dass eine niedriger taktende GPU mit mehr CUs genauso schnell und wohl mindestens auch genauso effizient gewesen waere. Von der Transistorenanzahl wuerde es sich auch nicht viel schenken. Wie es bei Compute aussieht, muss sich noch zeigen, aber der Effizienzsprung bei Gaming ist fuer den Aufwand (Transistoren + 7nm) eigentlich ein Witz.

MSABK
2019-06-11, 12:59:33
Naja, die Preise der 2070 bewegen sich ja auch mehr in Richtung 500€ als 450€. Die AMD Karten pendeln sich doch meist immer deutlich unterhalb der UVP ein. Ich gehe da von 399€ aus einige Wochen nach Veröffentlichung.

Dural
2019-06-11, 13:01:31
@iuno

Man kopiert halt einfach nv ;)


Ich finde es den richtigen weg, übrigens sehen die turing karten plötzlich nicht mehr so fett aus. Minus 7nm, RT und tensor dürfte turing sogar kleiner sein.

dargo
2019-06-11, 13:09:43
Jetzt kann man sich auch effizientere Taktpunkte für die Navi GPU aussuchen, aber wenn das Ding dann unter die Performance einer 2070 fällt, obwohl AMD bei den groben Eckpunkten ähnlich ausgestattet ist, dann steht AMD eben an einer anderen Stelle schwächer gegenüber Nvidia dar.
Das wird der Knackpunkt sein. AMD wollte unbedingt schneller als die 2070 sein. Wäre die 5700XT gleich oder gar minimal langsamer als die 2070 wäre die Perf/Watt einiges besser.

Edit:
Mal paar fiktive Zahlen in den Raum geworfen die es besser darstellen.

5700XT @225W = +6% auf RTX 2070
5700XT @200W = RTX 2070
5700XT @180W = -3% auf RTX 2070

Pirx
2019-06-11, 13:10:25
Das wird der Knackpunkt sein. AMD wollte unbedingt schneller als die 2070 sein. Wäre die 5700XT gleich oder gar minimal langsamer als die 2070 wäre die Perf/Watt einiges besser.
nicht schon wieder:rolleyes:

edit: Tests abwarten

BlacKi
2019-06-11, 13:11:37
Das wird der Knackpunkt sein. AMD wollte unbedingt schneller als die 2070 sein. Wäre die 5700XT gleich oder gar minimal langsamer als die 2070 wäre die Perf/Watt einiges besser.
wann verkauft amd wieder karten ohne werks oc? ich meine die marge ist doch da?

dargo
2019-06-11, 13:19:23
wann verkauft amd wieder karten ohne werks oc? ich meine die marge ist doch da?
Von OC war keine Rede. Heutige GPUs sind dank vielseitigen Powerlimits sehr flexibel.

BlacKi
2019-06-11, 13:21:47
Von OC war keine Rede. Heutige GPUs sind dank vielseitigen Powerlimits sehr flexibel.
ist nur schade, das sie keinen navi mit -15% powertarget auch zu -10% vom preis verkaufen. denn da gehört die karte, wenn man mal das "werks OC" abzieht, eigentlich hin.

Screemer
2019-06-11, 13:31:10
finale leistungswerte und leistungsaufnahme sind bekannt? immer her damit.

Brillus
2019-06-11, 13:34:37
4k @120Hz und VRR. Wer hier mit einem passenden TV Setup liebäugelt schaut natürlich etwas in die Röhre.

Ich denke der nächste Navi Vertreter bringt HDMI 2.1 dann mit.
VRR kann AMD via HDMI auch ohne 2.1 und auch mein Monitor.

Ravenhearth
2019-06-11, 13:42:40
Das wird der Knackpunkt sein. AMD wollte unbedingt schneller als die 2070 sein. Wäre die 5700XT gleich oder gar minimal langsamer als die 2070 wäre die Perf/Watt einiges besser.

Edit:
Mal paar fiktive Zahlen in den Raum geworfen die es besser darstellen.

5700XT @225W = +6% auf RTX 2070
5700XT @200W = RTX 2070
5700XT @180W = -3% auf RTX 2070
Sowas ähnliches kriegen wir anscheinend mit der normalen 5700. Wenn man sich an AMDs Zahlen orientiert (https://www.3dcenter.org/news/amd-stellt-die-navi-grafikkarten-radeon-rx-5700-radeon-rx-5700-xt-vor), wird die 5700 nur etwa 10% langsamer als die XT und damit nur 5% langsamer als die RTX 2070, bei etwa der gleichen TDP.

maguumo
2019-06-11, 13:44:26
VRR kann AMD via HDMI auch ohne 2.1 und auch mein Monitor.
Aber nicht mit >60Hz bei 4K.

BoMbY
2019-06-11, 13:46:13
Abgesehen davon bleibt 4k mit deutlich mehr als 60Hz bei 99% der Titel auch weiterhin Träumerei. Braucht man eigentlich auch kaum - 1080p reichen bei normalem/empfohlenen Abstand zum TV eigentlich auch immer aus. Außer vielleicht man hat eine > 72" Glotze.

fondness
2019-06-11, 13:46:36
Aus Vega und VII laesst sich schliessen, dass eine niedriger taktende GPU mit mehr CUs genauso schnell und wohl mindestens auch genauso effizient gewesen waere. Von der Transistorenanzahl wuerde es sich auch nicht viel schenken. Wie es bei Compute aussieht, muss sich noch zeigen, aber der Effizienzsprung bei Gaming ist fuer den Aufwand (Transistoren + 7nm) eigentlich ein Witz.

Den Schluss würde ich doch gerne sehen.
VII: 331mm²@7nm@300W und ~10% schneller als 5700XT. Dazu noch den HBM-Vorteil bei Verbrauch/Die-Size.
V64: 495mm²@14nm@300W und ~10% langsamer als 5700XT. Dazu wieder HBM-Vorteil bei Verbrauch/Die-Size.
N10XT: 251mm²@7nm@225W mit GDDR6. -> Klar, das ganze ist kein Quantensprung, aber ggü. VII gab es eindeutig Perf/mm² und Perf/W Verbesserungen bei gleichem Fertigungsprozess und das trotz HBM vs. GDDR6.

dargo
2019-06-11, 13:48:00
Sowas ähnliches kriegen wir anscheinend mit der normalen 5700. Wenn man sich an AMDs Zahlen orientiert (https://www.3dcenter.org/news/amd-stellt-die-navi-grafikkarten-radeon-rx-5700-radeon-rx-5700-xt-vor), wird die 5700 nur etwa 10% langsamer als die XT und damit nur 5% langsamer als die RTX 2070, bei etwa der gleichen TDP.
Ja natürlich. Nur hat der Salvage weniger Takt und weniger Shader. Mit vollen Shadern ist man noch etwas effizienter da man dort Frequenz und somit wieder X-Spannung "opfern" kann.

Stretcher
2019-06-11, 13:52:04
Ich bin halt in der Lage die höheren Kosten zu verstehen, im Gegensatz zu anderen hier.


Achso verstehe und bei Turing inkl RT hast du das damals nicht verstanden, obwohl der Chip fast doppelt so groß war, das ist ja interessant.


Wem das nicht gefällt braucht Karte X auch nicht kaufen, so einfach ist das.


Warum vergleichst du die Karte für knapp 500 Euro nicht mit einer UV Vega 56 für 219 Euro, wie du es im RTX Thread getan hast? ~ 15% mehr Bums für den doppelten Preis. Trolololo.

w0mbat
2019-06-11, 13:53:53
Wenn man sich es genau anschaut ist Navi Pi mal Daumen auf dem Niveau von Turing. Mit ca. gleich viel Einheiten und ähnlichem Takt erreicht man eine vergleichbare Leistung bei ähnlichem Verbrauch. Nur benötigt das ganze dank 7nm deutlich weniger Fläche.

Blöd nur, dass AMD denkt sie können dafür auch einen ähnlichen Preis verlangen :D

Grendizer
2019-06-11, 13:57:08
Wenn man sich es genau anschaut ist Navi Pi mal Daumen auf dem Niveau von Turing. Mit ca. gleich viel Einheiten und ähnlichem Takt erreicht man eine vergleichbare Leistung bei ähnlichem Verbrauch. Nur benötigt das ganze dank 7nm deutlich weniger Fläche.

Blöd nur, dass AMD denkt sie können dafür auch einen ähnlichen Preis verlangen :D


Das Problem ist das trotz ähnlichem Preis dann wieder eher zum nVidia Produkt gegriffen wird. Das wird AMD dann aber auch schnell merken.

Das ja evtl die Super RTX kommen macht die Sache für AMD nicht leichter. Wenn dann aufeinmal beim Preispunkt der Navi keine 2070 Leistung, sondern fast heutige 2080 erreicht werden muss. Eine 2060 mit 8 Gb auf dem Performanceniveu heutiger 2070 wird der 5700 das leben richtig vermiesen.

w0mbat
2019-06-11, 14:00:47
Genau deshalb verstehe ich den Preis auch nicht wirklich. Für 399€ würde ich zugreifen, bei 449€ für nen Blower wohl nicht.

crux2005
2019-06-11, 14:00:53
Ernüchternde Show von AMD. Einzig die Radeon 5700 ist gut weil sie nVidia zwingt mit der 2060 was zu tun.

Genau, deshalb verstehe ich den Preis auch nicht wirklich. Für 399€ würde ich zugreifen, bei 449€ für nen Blower wohl nicht.

Wegen 50€? LOL

MikePayne
2019-06-11, 14:01:34
Der Preis ist meh den AMD aufgerufen hat. Vielleicht will man etwas Kohle mitnehmen, aber die Preise werden sich nicht lange halten (wie bei Vega) und relativ schnell sinken (schätze ich).

Die Karte ist ok, aber haut mich auch nicht vom Hocker bei dem Preis.

w0mbat
2019-06-11, 14:07:55
Wegen 50€? LOL
Wieso "LOL"? Von einer theoretischen $399 UVP auf die tatsächlichen $449 sind es über 10% mehr, was ist daran "LOL"?

Eine UVP von $449 wird hier Preise von ca. 450€ bedeuten. Eine RTX 2070 bekomme ich aktuell ab ca. 460€. Jetzt ist die RX 5700 XT laut AMD ca. 6% schneller, es steht aber auch 175W vs. 225W. Da gibt es für mich keinen Grund eine Navi zu kaufen. Gleicher Preis, ähnliche Leistung, mehr Verbrauch und keine "Extras". Ich denke zwar nicht, dass man das 1st gen RTX wirklich nutzen wird, aber wenn es quasi "umsosnt" ist, warum nicht?

AMD bietet quasi gleiche Leistung zum gleichen Preis an. Und dort sind sie mMn einfach noch nicht. Ganz abgesehen von einer eventuellen 2070 "Super". Ich hab mich schon über die unverschämten Turing-Preise aufgeregt und jetzt kommt AMD mit nem 250mm² Chip und legt nach? Das ist "LOL"!

crux2005
2019-06-11, 14:14:15
Eine UVP von $449 wird hier Preise von ca. 450€ bedeuten. Eine RTX 2070 bekomme ich aktuell ab ca. 460€. Jetzt ist die RX 5700 XT laut AMD ca. 6% schneller, es steht aber auch 175W vs. 225W. Da gibt es für mich keinen Grund eine Navi zu kaufen. Gleicher Preis, ähnliche Leistung, mehr Verbrauch und keine "Extras". Ich denke zwar nicht, dass man das 1st gen RTX wirklich nutzen wird, aber wenn es quasi "umsosnt" ist, warum nicht?

Billiger und mehr Leistung. Dachte das ist was die meisten von AMD wollen. :)
Vielleicht gibt AMD noch ein Spiele Bundle dazu.

Und 50€ empfinde ich als "LOL" wenn ich lange warte und endlich aufrüsten will. Kann aber deine Meinung verstehen.

Grendizer
2019-06-11, 14:16:37
Billiger und mehr Leistung. Dachte das ist was die meisten von AMD wollen. :)
Vielleicht gibt AMD noch ein Spiele Bundle dazu.

Und 50€ empfinde ich als "LOL" wenn ich lange warte und endlich aufrüsten will. Kann aber deine Meinung verstehen.


Naja 3 Monate Gamepass ist doch das Bundle, oder ?

Monsta
2019-06-11, 14:17:01
Ich finde den Preis für eine 251mm2 Gpu die Watt/Fläche wohl voll am Limit läuft auch etwas zu teuer.
Warum Amd immer Karten bringt die an der Kotzgrenze laufen müssen ist mir ein Rätsel.

Man kann sich auch eine Klasse niedriger orientieren und dadurch ein runderes Produkt verkaufen. Ich denke sie würden mit der Strategie mehr Gpus verkaufen.

w0mbat
2019-06-11, 14:17:21
Es geht mir nicht ums Geld, sondern ums Prinzip :P

6% mehr Leistung in den AMD Benchmarks wird wohl auf ca. Gleichstand hinauslaufen und der Preis wird erstmal ähnlich sein. Klar kann man nochmal länger warten bis sich der Preis etwas einpendelt, aber das ist ja auch doof.

Und in meinem ITX Gehäuse sind 175W doch interessanter als 225W, meine R9 290 geht bis 94C hoch :ugly:

crux2005
2019-06-11, 14:17:42
Naja 3 Monate Gamepass ist doch das Bundle, oder ?

Ja da war was. Da war ich kurz AFK.

w0mbat
2019-06-11, 14:18:23
Was man auch so für 3x1€ bekommt. Geiler Deal...

BlacKi
2019-06-11, 14:18:50
AMD bietet quasi gleiche Leistung zum gleichen Preis an. Und dort sind sie mMn einfach noch nicht. Ganz abgesehen von einer eventuellen 2070 "Super". Ich hab mich schon über die unverschämten Turing-Preise aufgeregt und jetzt kommt AMD mit nem 250mm² Chip und legt nach? Das ist "LOL"!
ja, aber welche ausrede hat amd? bei turing ist die ausrede, das RT beschleunigung die chips unötig teuer gemacht hat. und bei amd? sogar der verbrauch liegt über der 2070. da herrscht halt leere.
Ich finde den Preis für eine 251mm2 Gpu die Watt/Fläche wohl voll am Limit läuft auch etwas zu teuer.
Warum Amd immer Karten bringt die an der Kotzgrenze laufen müssen ist mir ein Rätsel.

Man kann sich auch eine Klasse niedriger orientieren und dadurch ein runderes Produkt verkaufen. Ich denke sie würden mit der Strategie mehr Gpus verkaufen.
das kostet halt marge. auf kurz oder lang werden die preise wohl eh sinken, man nimmt am anfang aber noch die fanboys und early adopter mit.

Dino-Fossil
2019-06-11, 14:19:54
Teurere Fertigung, und vor allem kein Preisdruck von nVidia - bei denen darfst du dich bedanken.

MikePayne
2019-06-11, 14:21:31
Teurere Fertigung, und vor allem kein Preisdruck von nVidia - bei denen darfst du dich bedanken.

So siehts aus!

Das nvidia sich mit der "Super" Serie erstmalig bewegt ist doch schon mal gut, selbst die (neue) 2060 kommt jetzt mit 8 GB (traurig für die, die vorher zugegriffen haben).
Hoffe mit Navi 20 kann AMD dann mehr Druck aufbauen.

crux2005
2019-06-11, 14:21:52
Was man auch so für 3x1€ bekommt. Geiler Deal...

Nur der erste Monat soll 1€ sein. Danach für begrenzte Zeit 3,99€/Mo. Also 9€ Wert Aktuell.

Immer noch besser als nichts. Ich kann den XGP nur für 3,99€/Mo. kaufen und der Ultimate ist gar nicht verfügbar. MS at it's best. We care about PC Gamer. :freak:

Grendizer
2019-06-11, 14:21:55
Was man auch so für 3x1€ bekommt. Geiler Deal...


Wenn man weiss wie ... sonst sind es ja immerhin 3x9,90 Euro ... also auch nicht der Burner

Grendizer
2019-06-11, 14:22:41
Nur der erste Monat soll 1€ sein. Danach für begrenzte Zeit 3,99€/Mo. Also 9€ Wert Aktuell.

Immer noch besser als nichts. Ich kann den XGP nur für 3,99€/Mo. kaufen und der Ultimate ist gar nicht verfügbar. MS at it's best. We care about PC Gamer. :freak:


Wenn man entsprechend schon eine Laufzeit hat kann man bis zu 36 Monate für 1 Euro erreichen.

Screemer
2019-06-11, 14:23:33
Was man auch so für 3x1€ bekommt. Geiler Deal...
+ mind 3 monate gold => ~20€. immer noch nicht der hit aber vielleicht kommt ja noch was.

crux2005
2019-06-11, 14:23:53
Wenn man entsprechend schon eine Laufzeit hat kann man bis zu 36 Monate für 1 Euro erreichen.

Habe ich nicht und kann auch nicht kaufen. :frown:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12018206#post12018206

Ist aber schon OT.

BlacKi
2019-06-11, 14:24:24
Teurere Fertigung, und vor allem kein Preisdruck von nVidia - bei denen darfst du dich bedanken.
das war doch mal amds part? dreht man nun weil man frustriert ist den spieß jetzt um?
Naja 3 Monate Gamepass ist doch das Bundle, oder ?
war da nicht was mit Gears5?

BlacKi
2019-06-11, 14:26:04
sry doppelpost

Screemer
2019-06-11, 14:27:11
war da nicht was mit Gears5?
das ist ab herbst im gamepass.

Dino-Fossil
2019-06-11, 14:27:27
Wieso? Es ist nunmal so, dass nVidia seit einer ganzen Weile schön den Preis für ihre Karten hochdreht, weil sie es eben können und die fetten Margen gerne mitnehmen.
Die Leute kaufen es ja trotzdem.
Jetzt hat AMD was im Angebot, das in etwa mithalten kann und nimmt die Vorlage dankenswert auf.

dargo
2019-06-11, 14:32:20
Achso verstehe und bei Turing inkl RT hast du das damals nicht verstanden, obwohl der Chip fast doppelt so groß war, das ist ja interessant.

Hättest du bei Turing auch alles gelesen wäre dir aufgefallen, dass ich auch dort gleiches geschrieben habe. Aber danke für deinen Trollversuch.

dildo4u
2019-06-11, 14:37:07
Genau deshalb verstehe ich den Preis auch nicht wirklich. Für 399€ würde ich zugreifen, bei 449€ für nen Blower wohl nicht.
Man sollte erstmal sowie so nicht zugreifen,der Blower wird wieder saugen.
Dass kann man sich bis 150 Watt antun nicht da drüber.

dargo
2019-06-11, 14:42:23
Warum vergleichst du die Karte für knapp 500 Euro nicht mit einer UV Vega 56 für 219 Euro, wie du es im RTX Thread getan hast? ~ 15% mehr Bums für den doppelten Preis. Trolololo.
Aja... der nächste Trollversuch. :uclap:

1. Es gibt keine 219€ V56 die ich für den "Normalo" empfehlen würde. Diese fängt aktuell im Abverkauf bei 259€ an, besser bei 268€.
2. Wo du deine 15% her hast wirst du wohl alleine wissen. Bis jetzt gibt es nur eine AMD-Folie mit +31% im Schnitt der getesteten Games.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12018381&postcount=3492

3. Dass das Preis-Leistungsverhältnis von Navi schlechter als bei einer V56 im Abverkauf ist weiß nun jedes Kind welches mit dem Taschenrechner umgehen kann.

ist nur schade, das sie keinen navi mit -15% powertarget auch zu -10% vom preis verkaufen. denn da gehört die karte, wenn man mal das "werks OC" abzieht, eigentlich hin.
Gibt es doch. :confused: Nennt sich RX 5700.

Timbaloo
2019-06-11, 14:48:51
Aber schon interessant wie sich AMDs Launchstrategie entwickelt hat. Bisher hat man den Hypetrain bis zum finalen Release frei fahren lassen, jetzt hat man ihn vor Release abgebremst. Vielleicht hofft man dass sich damit das Fazit des ein oder anderen Reviews positiver darstellt.

Marketing ist halt auch ihre einzige Möglichkeit das Produkt zu pushen wenn man nicht über den Preis kommen will. Auf technischer Seite haben sie halt einfach keine Argumente. Mehr als einen kompletten Full-Node Rückstand zur Konkurrenz hinsichtlich Effizienz, keine neuen Features, keine Leistungskrone, nicht mehr Speicher, ...

dargo
2019-06-11, 14:51:36
Wieso "LOL"? Von einer theoretischen $399 UVP auf die tatsächlichen $449 sind es über 10% mehr, was ist daran "LOL"?

Eine UVP von $449 wird hier Preise von ca. 450€ bedeuten. Eine RTX 2070 bekomme ich aktuell ab ca. 460€. Jetzt ist die RX 5700 XT laut AMD ca. 6% schneller, es steht aber auch 175W vs. 225W. Da gibt es für mich keinen Grund eine Navi zu kaufen. Gleicher Preis, ähnliche Leistung, mehr Verbrauch und keine "Extras".
Mein Gott... dann kauf dir die RTX 2070! Was soll dieses ganze Rumgeier wieder? Glaubst du AMD geht Bankrott weil du eine Nvidia Grafikkarte kaufst? Unglaublich was man hier wieder lesen muss.

ja, aber welche ausrede hat amd? bei turing ist die ausrede, das RT beschleunigung die chips unötig teuer gemacht hat.
Es ist nicht nur RT, wurde doch schon öfter von pixel bestätigt. Turing ist beim Rasterizer deutlich fetter geworden. TU116 hat kein RT und ist trotzdem 284mm² groß. Das sind 42% mehr Fläche vs. GP106 obwohl ersteres 12nm verwendet.

w0mbat
2019-06-11, 14:54:46
Ich kann mir kaufen was ich will, hätte aber gerne wieder eine ATI im Rechner. Und für $399 UVP wäre das ein Argument. Etwas schneller bzw. gleich schnell wie ne 2070, dafür aber auch etwas mehr Verbrauch. Aber vor allem günstiger.

Wenn die erstmal das gleiche Kosten wird es mit der Überzeugung eben schwer.

SKYNET
2019-06-11, 14:59:05
Ich kann mir kaufen was ich will, hätte aber gerne wieder eine ATI im Rechner. Und für $399 UVP wäre das ein Argument. Etwas schneller bzw. gleich schnell wie ne 2070, dafür aber auch etwas mehr Verbrauch. Aber vor allem günstiger.

Wenn die erstmal das gleiche Kosten wird es mit der Überzeugung eben schwer.


meine güte, wenn sich das ding dafür auf 2GHz takten lässt und damit ner 2080 die rosette entwachst(für die brust langts wohl nicht), ist der preis nen schnapper, also, abwarten, aufhören zu jammern und tee trinken ;)

aufkrawall
2019-06-11, 14:59:17
Wenn die erstmal das gleiche Kosten wird es mit der Überzeugung eben schwer.
"Aus Überzeugung kaufen. Aber nur, wenn es besser ist." :freak:

dargo
2019-06-11, 14:59:28
Ich kann mir kaufen was ich will, hätte aber gerne wieder eine ATI im Rechner.
Ich kann das Geheule immer noch nicht nachvollziehen. Willst du eine AMD und im Bereich von 175W bleiben hol dir eine RX 5700. :rolleyes: Oder halt die RX5700XT und undervolte etwas.

Man sollte erstmal sowie so nicht zugreifen,der Blower wird wieder saugen.
Dass kann man sich bis 150 Watt antun nicht da drüber.
Eben... die Referenz wird eh für die meisten uninteressant sein da zu laut. Weiß man schon wann die Customs kommen?

w0mbat
2019-06-11, 15:01:58
"Aus Überzeugung kaufen. Aber nur, wenn es besser ist." :freak:
Ich kauf das bessere Produkt, bzw. jenes, das für mich am meisten Sinn macht. Ich hätte gerne ne ATI, aber das muss nicht sein.

@dargo: Ich heule nich, ich whine. Und wenn AMD jetzt gleiche Leistung zum gleichen Preis macht darf ich das auch :P

Blediator16
2019-06-11, 15:06:18
Ich habe es ja schon gestern gesagt, es bleibt alles beim alten.

Ich finde es schade wenn man bedenkt was alles möglich wäre (nv) auch in sachen konsolen... aber man nimmt lieber hardware die günstiger ist. :(

Du musst verstehen, dass keiner mehr Lust hat auf Tablet CPUs.

VooDoo7mx
2019-06-11, 15:08:23
Teurere Fertigung, und vor allem kein Preisdruck von nVidia - bei denen darfst du dich bedanken.

Ja natürlich ist immer das böse nVidia Schuld.
Man könnte es auch umdrehen und nVidia danken das sie nicht die Preisschlacht mitgehen und alles verramschen.

So können beide gutes Geld verdienen. Sowohl AMD und auch nVidia
AMD muss sich finanziell in Zukunft aufstellen. Das geht einfach nicht wenn sie Hardware zu Fertigungskosten verramschen.

Freut euch doch mal das AMD ein konkurrenzfähiges Produkt hat womit sie auch mal Geld machen können. Mit einen 495mm² + 8GiB HBM2 Vega10 der für 250€ verramscht wird machen sie es sicher nicht.

Stretcher
2019-06-11, 15:11:26
Mein Gott... dann kauf dir die RTX 2070! Was soll dieses ganze Rumgeier wieder?

Wie kann man nur so peinlich wie du sein und bei Turing den Preis kritisieren und mit UV Vega 56 ankommen und bei ähnlichen Leistungsabständen dann den Preis fast 1 Jahr nach Turing gut finden.

Ein größerer Wendehals existiert im Internet nicht,ich hab zumindest noch nie einen solchen identifiziert.

Dural
2019-06-11, 15:15:26
Ich habe euch ja schon letztes Jahr gesagt das 7nm garantiert nicht billig wird.

es war mal wieder so offensichtlich!

Das einzige wo überrascht ist das 7nm doch relativ "schlecht" ist, oder es liegt an AMD.

@Blediator16
GPU - CPU sind zwei paar Schuhe.

w0mbat
2019-06-11, 15:16:28
Liegt ganz sicher an AMD :( :( :(

Dural weiß es mal wieder :( :( :(

Ich meine Bulldozer und Fury X, du weißt doch dass AMD nichts kann ;)

JVC
2019-06-11, 15:16:42
Wo sind übrigens die ganzen Schreier, dass AMD wie Nvidia ja kein HDMI 2.1 unterstützt? ^^
Hab dich und deine spannenden Kommentare, fast schon vermisst :ulove4:
... aber eben nur fast.
JVC schläft noch. ;D
"guten Morgen" ^^
Es gibt tatsächlich, auch bei mir, Tage wo ich nicht vor dem Rechner sitze ;)

Warum sollte ich schreien ?
Man wusste ja schon, das diese Karten noch kein HDMI 2.1 können ...
(bei "Navi20", hoffe ich auf HDMI 2.1 :wink:)

Vrr reißt für mich mehr als evtl. 20-30% mehr FPS mit tearing.
Sehe ich genau so :smile:
Und durch die Nutzung eines Fernsehers, bin ich auf HDMI 2.1 angewiesen.
(4K Monitore im 55"+ Bereich sind viel zu teuer, b.z.w. nicht existent
und wann es große 8K Monitore geben soll, weis man noch gar nicht ...)


Ich finde die 57xxXx als Alternative OK.
Wenn der Preis noch ~50 oder gar ~100 sinken sollte,
wären sie mir eine echte Empfehlung wert.

Persönlich bin ich gespannt darauf, wie viel OC Raum die Karten noch haben...

M.f.G. JVC

Dural
2019-06-11, 15:17:39
@w0mbat

???

Wir werden es mit der neuen Generation von NV sehen an was es lag.

Die sig. ist schon länger nicht mehr aktuell, in der regel habe ich immer etwas aktuelles von Intel, amd und nv. Nur so als Info ;)

Dino-Fossil
2019-06-11, 15:24:53
Dann aber auch erst mit der nächsten Generation von AMD, denn nVidia kommt direkt in der nächsten 7nm-Ausbaustufe. Die aktuell von AMD genutzte Fertigung wird nVidia der aktuellen News-Lage nach wohl auslassen.

Blediator16
2019-06-11, 15:27:27
Ich habe euch ja schon letztes Jahr gesagt das 7nm garantiert nicht billig wird.

es war mal wieder so offensichtlich!

Das einzige wo überrascht ist das 7nm doch relativ "schlecht" ist, oder es liegt an AMD.

@Blediator16
GPU - CPU sind zwei paar Schuhe.

Genau. AMD ist der einzige Player mit der potentesten Hardwarebasis. Niemand auf der Welt hat diese Technik.

Achill
2019-06-11, 15:28:22
Ich verstehe die Aufregung um den Preis nicht, ja er ist nicht Bombe aber der Marktführer hat vor einiger Zeit vorgelegt und AMD hat einen leicht besseren Preis bei evtl. gleicher oder besserer Performance (bei den wenigen bisher bekannten Daten).

Wäre es clever jetzt schon ein Kampf-Preis zu bringen und dann kein Spielraum zu haben falls die NV Whatever Super kommt?

Und was hätte AMD damit erreicht? Weiter Underdog-Image? Billig-Image? Wie funktioniert denn Produkt-Platzierung und -Marketing? Sind die TIs, Titanen und Apple-Produkte wirklich ihr Geld "wert" ... evtl. ist es ja bei AMD angekommen, dass (viel) günstiger nicht immer gut ist.

dildo4u
2019-06-11, 15:33:44
Nvidia spielt zumindest mit und bringt neue Karten Navi hat sein Job damit erledigt,Intel bewegt sich gar nicht Preise sind immer noch fürn Arsch.

dargo
2019-06-11, 15:35:51
"guten Morgen" ^^
Es gibt tatsächlich, auch bei mir, Tage wo ich nicht vor dem Rechner sitze ;)

Warum sollte ich schreien ?
Man wusste ja schon, das diese Karten noch kein HDMI 2.1 können ...
(bei "Navi20", hoffe ich auf HDMI 2.1 :wink:)

War nur ein kleiner Scherz. Du bist mir halt als einziger in Erinnerung geblieben der HDMI 2.1 wollte.

SKYNET
2019-06-11, 15:37:06
ist eigentlich mal jemanden aufgefallen, das nen 64CU navi ner 2080Ti verdächtig nahe kommen würde? bei runabout 300W verbrauch O_o

dildo4u
2019-06-11, 15:39:02
Bin übrigens mal gespannt wie viele RMAs es wegen der Delle im Kühler geben wird,gibt vermutlich Einige die nicht mitbekommen werden das das gewollt ist.

Grendizer
2019-06-11, 15:39:57
ist eigentlich mal jemanden aufgefallen, das nen 64CU navi ner 2080Ti verdächtig nahe kommen würde? bei runabout 300W verbrauch O_o

Wenn es so einfach wäre, würde es die Karte doch geben. Vermutlich steht dem dann andere Gründe entgegen.

dargo
2019-06-11, 15:43:14
ist eigentlich mal jemanden aufgefallen, das nen 64CU navi ner 2080Ti verdächtig nahe kommen würde? bei runabout 300W verbrauch O_o
Klar... sieht jeder der rechnen kann. ;) Da es aber aktuell nichts größeres von AMD gibt... Die ~300W kommen aber nicht hin. Da müsste 7nm+ schon ordentlich effizienter sein.

Edit:
Mit HBM hätte man bei der Power allerdings wieder etwas mehr Luft.

w0mbat
2019-06-11, 15:43:18
Die kommt bestimmt, nur hat AMD nicht unendlich R&D. Ich tippe sogar auf eine 80CU Navi Karte in 7nm+.

Linmoum
2019-06-11, 15:43:51
Navi 20 kommt nächstes Jahr.

Birdman
2019-06-11, 15:44:05
Bin übrigens mal gespannt wie viele RMAs es wegen der Delle im Kühler geben wird,gibt vermutlich Einige die nicht mitbekommen werden das das gewollt ist.
Die Delle sieht imho auch bescheiden aus, aber dem Designer wurde hierfür sicher auch noch auf die Schultern geklopft....

JVC
2019-06-11, 15:48:37
War nur ein kleiner Scherz. Du bist mir halt als einziger in Erinnerung geblieben der HDMI 2.1 wollte.
Auch Negativ Werbung, ist Werbung :tongue:

Keine sorge, ich kann nicht nur Austeilen :wink:

M.f.G. "HDMI 2.1 :freak:"

Brillus
2019-06-11, 16:02:41
Hier stand Müll.

Brillus
2019-06-11, 16:22:55
Ich habe es ja schon gestern gesagt, es bleibt alles beim alten.

Ich finde es schade wenn man bedenkt was alles möglich wäre (nv) auch in sachen konsolen... aber man nimmt lieber hardware die günstiger ist. :(

Ich denke eher liegt dran das a) NV nicht liefern kann was gefragt ist Stichwort SoC und b) zu restriktiv mit ihrer IP sind.

Mandalore
2019-06-11, 16:41:10
Ich denke eher liegt dran das a) NV nicht liefern kann was gefragt ist Stichwort SoC und b) zu restriktiv mit ihrer IP sind.

Was wäre denn mit Nvidia besser? Das sage ich als Geforce Besitzer der letzten 13 Jahre?!


Nichts, AMD/ATI hat mit Ryzen und RDNA (was laut CB knapp Turing IPC) aufgeholt und durch die massive Zusammenarbeit mit fast allen Software Herstellern wird es in Zukunft sogar die Chance haben Nvidia zu übertrumpfen.


RDNA bietet wie Turing die gleiche Bildqualität, nun auch fast die gleichen Features fast die gleiche bzw bessere Leistung, was wollt ihr meht?

Runter mit der Fanboybrille, weil Digitalschaltungen sehen bei AMD Und Nvidia gleich aus, da gibts keinen besonderen Zauber :-)

Brillus
2019-06-11, 16:47:51
Was wäre denn mit Nvidia besser? Das sage ich als Geforce Besitzer der letzten 13 Jahre?!


Nichts, AMD/ATI hat mit Ryzen und RDNA (was laut CB knapp Turing IPC) aufgeholt und durch die massive Zusammenarbeit mit fast allen Software Herstellern wird es in Zukunft sogar die Chance haben Nvidia zu übertrumpfen.


RDNA bietet wie Turing die gleiche Bildqualität, nun auch fast die gleichen Features fast die gleiche bzw bessere Leistung, was wollt ihr meht?

Runter mit der Fanboybrille, weil Digitalschaltungen sehen bei AMD Und Nvidia gleich aus, da gibts keinen besonderen Zauber :-)

Solltest du Dural sagen nicht mir er meinte Konsolen mit NV wären total besser nur ms und sony zu geizig.

iuno
2019-06-11, 16:50:47
Den Schluss würde ich doch gerne sehen.
VII: 331mm²@7nm@300W und ~10% schneller als 5700XT. Dazu noch den HBM-Vorteil bei Verbrauch/Die-Size.
V64: 495mm²@14nm@300W und ~10% langsamer als 5700XT. Dazu wieder HBM-Vorteil bei Verbrauch/Die-Size.
N10XT: 251mm²@7nm@225W mit GDDR6. -> Klar, das ganze ist kein Quantensprung, aber ggü. VII gab es eindeutig Perf/mm² und Perf/W Verbesserungen bei gleichem Fertigungsprozess und das trotz HBM vs. GDDR6.
Die VII ist halt keine Gaming GPU. Die hat neben half rate FP64 mehr als doppelt so viel Bandbreite und uebrigens auch die doppelte Speichermenge. Da hast du im direkten Vergleich keinen Vorteil mehr durch HBM, sondern es wird eher das Gegenteil der Fall sein.

Ich halte mich mal an deine Form:

V64@235W und nur ~20% langsamer als 5700XT. Dazu noch 14nm-Nachteil.

Ich bleibe dabei. V64 verliert quasi nichts (4% (https://www.computerbase.de/2017-09/radeon-rx-vega-bios-power-test/2/#abschnitt_leistungsaufnahme)), wenn sie mit 235 statt 300 Watt laeuft. Ein paar CUs weniger, dafuer naturgemaess mehr Takt in 7nm sollte den GDDR6 Nachteil, sofern es ueberhaupt einen gibt, auffangen koennen.
Dass AMD hier so viel Aufwand betreibt, die Leistung pro Shader zu erhoehen, liegt imho daran, dass man immer noch Probleme mit der Skalierung hat.

w0mbat
2019-06-11, 16:53:57
@Mandalore: Naja, AMD sagt die 5700 XT sei im Schnitt ca. 6% schneller als eine 2070 und das bei 50W mehr TDP, ohne "Extras" wie Tensor-Cores oder RTX. Dazu fast gleicher Preis bei einem halb so großen die. Da wäre schon mehr gegangen, schon "nur" ne UVP von $399/$329 für die Karten hätte mMn gereicht und sie zur besseren Wahl zu machen.

aufkrawall
2019-06-11, 16:54:13
Wieso sollte man bei Navi prozentual nicht ähnlich viel einsparen können, wenn man selber den Sweetspot aus Takt und Spannung auslotet? Der relative Abstand zwischen Vega und Navi bleibt dann ähnlich wie @stock.
Man sieht ja schon anhand der geringen Chip-Größe in Relation zum Verbrauch, dass das Teil völlig hochgeprügelt sein dürfte.

mironicus
2019-06-11, 16:58:28
Wir müssen Navi erst mal selbst kennenlernen, aber die Karte lässt sich AMD-typisch sicherlich auch glänzend untervolten. Die kriegen wir schon gebändigt. Mir schwebt da so ein Verbrauch von knapp über 100 Watt vor, bei vielleicht 3-5% Leistungsverzicht gegenüber der Stock-Karte.

aufkrawall
2019-06-11, 17:06:05
Was, Reduktion der TBP auf weniger als die Hälfte, bei nicht spürbarem Leistungsverlust? Das ist völlig illusorisch, sofern die TBP von AMD nicht extrem großzügig angesetzt wurde (was für Powervirus-Spiele eigentlich nie der Fall war).

mironicus
2019-06-11, 17:13:21
In den Händen von 3DCenter-Usern werden AMD-Karten erst richtig gut und effizient, das war schon immer so.

MSABK
2019-06-11, 17:14:00
In den Händen von 3DCenter-Usern werden AMD-Karten erst richtig gut und effizient, das war schon immer so.

Eigentlich könnte AMD hier im Forum gut Personal rekrutieren.:D

aufkrawall
2019-06-11, 17:17:52
In den Händen von 3DCenter-Usern werden AMD-Karten erst richtig gut und effizient, das war schon immer so.
Einige 3DC-User erzählen auch gerne, dass sie magisch den Verbrauch diverser Karten über die PT-Regler massiv drosseln könnten. Komisch, dass ich das all die Jahre wegen Nebenwirkungen wie Einbrüchen nicht genutzt habe. ;)

Mangel76
2019-06-11, 17:50:15
Einige 3DC-User erzählen auch gerne, dass sie magisch den Verbrauch diverser Karten über die PT-Regler massiv drosseln könnten. Komisch, dass ich das all die Jahre wegen Nebenwirkungen wie Einbrüchen nicht genutzt habe. ;)

Meine V64 habe ich auf -20 gestellt und mit UV läuft die ziemlich konstant mit 1500Hz. Welche Einbrüche die meinst, ist mir schleierhaft.

dildo4u
2019-06-11, 17:52:39
In den Händen von 3DCenter-Usern werden AMD-Karten erst richtig gut und effizient, das war schon immer so.
Das ist nicht positiv man kann nur hoffen das Navi von Games besser ausgelastet wird damit sollte der UV Spielraum kleiner werden.

r3ptil3
2019-06-11, 17:56:58
Ich habe gerade die publizierten Werte der 5700 XT genauer angeschaut und verglichen.

DIe 5700 XT wäre ja teilweise fast auf RTX 2080/1080 TI Niveau?? Irgendwie überrascht mich das jetzt doch.

AffenJack
2019-06-11, 18:03:29
Ich habe gerade die publizierten Werte der 5700 XT genauer angeschaut und verglichen.

DIe 5700 XT wäre ja teilweise fast auf RTX 2080/1080 TI Niveau?? Irgendwie überrascht mich das jetzt doch.

Mir wäre neu, dass eine 2080 nur 5% schneller ist als eine 2070.
In BFV und Metro siehts ganz gut aus, aber das man nicht mehr Beispiele zeigt in denen man sogut da steht, lässt eher ausreißer vermuten.

Desweiteren ist die ganz große Frage gegen welche 2070 man verglichen hat. Gibt schon Fußnoten zu den Benchmarkwerten? Gegen ne FE wäre ganz nett, gegen ne langsamere 2070 eher uncool, weil man dann wohl hinter ner FE und den Custommodellen rauskommen würde.

Tigershark
2019-06-11, 18:42:47
Ich meine irgendwo gelesen zu haben, dass es NICHT 2070FE- sondern 2070-Referenz war.

dargo
2019-06-11, 18:53:26
FE ist doch Referenz. :freak:

JVC
2019-06-11, 18:57:54
Vielleicht ist die 5700 XT ja auch "Overclockers-Dream" ...
(und das "niedrige" Watt-Korsett soll nur die Jammerer ruhig stellen)
und vielleicht kommt ja wirklich noch ne 5700 XTX mit 300+Watt ?
(diese "GPU" würde es dann nicht für Laptops geben = "5 neue Grakas"...)

Wie sie das dann aus dem Chip pressen ist mir persönlich egal.
(ob die Die dann 120° oder sonst was hat, wen interessierts ...)
Hauptsache sie hält es aus und lötet sich nicht selbst bei ~260°c aus ^^
(die 7nm CPUs bekommen ja auch mehr Volt, würd die GPU daher vermutlich auch verkraften...)

M.f.G. JVC

aufkrawall
2019-06-11, 18:59:03
Meine V64 habe ich auf -20 gestellt und mit UV läuft die ziemlich konstant mit 1500Hz. Welche Einbrüche die meinst, ist mir schleierhaft.
Ich meinte nicht "-20% + UV", sondern irgendwas wie -50% ohne UV. Wenn die Karte "ziemlich konstant mit 1500MHz" läuft, ist die PT-Einstellung ohnehin nicht besonders ausschlaggebend.

arcanum
2019-06-11, 19:19:47
da hat man sich preislich einfach nur nvidia angepasst. schwache vorstellung und zudem kein hdmi 2.1.

basix
2019-06-11, 19:58:15
Ich meinte nicht "-20% + UV", sondern irgendwas wie -50% ohne UV. Wenn die Karte "ziemlich konstant mit 1500MHz" läuft, ist die PT-Einstellung ohnehin nicht besonders ausschlaggebend.

-40% @ UV liegen schon drin ;) Und das auf der roten wie auch grünen Seite. Kommt aber auch auf die Silicon Lottery und das Basis-Design drauf an.

Und deine angesprochenen Einbrüche kommen vor, wenn man es übertreibt. Mit genug (und damit meine ich viel) Feintuning bekommt man es auch mit sehr wenigen "Einbrüchen" hin. Mit mehr Power bei sonst identischen Einstellungen ist es aber immer ruhiger im Frametime-Diagramm. Mit einem VRR Bildschirm merkt man das meiner Meinung nach nicht oder nur wenn man sehr empfindlich darauf ist. Typischerweise kommen die fühlbaren Ruckler von der CPU / Nachladen / etc. und nicht von der GPU.

dildo4u
2019-06-11, 20:03:11
Ich habe gerade die publizierten Werte der 5700 XT genauer angeschaut und verglichen.

DIe 5700 XT wäre ja teilweise fast auf RTX 2080/1080 TI Niveau?? Irgendwie überrascht mich das jetzt doch.
Metro scheint der 2080 extrem gut zu liegen (+37% zur 2070),die 5700XT wäre dazwischen.(+15% laut AMD)

https://www.computerbase.de/2019-05/grafikkarten-test-benchmarks-2019/#diagramm-metro-exodus-2560-1440

BF5 scheint das einzige Game zu sein wo AMD massive Vorteile hat.

Tigershark
2019-06-11, 20:08:07
FE ist doch Referenz. :freak:

Ne, seit Turing doch nicht mehr. Referenz = die niedrigeren Taktraten für die güntigen (non-OC) customs.

Mangel76
2019-06-11, 20:34:58
Ich meinte nicht "-20% + UV", sondern irgendwas wie -50% ohne UV. Wenn die Karte "ziemlich konstant mit 1500MHz" läuft, ist die PT-Einstellung ohnehin nicht besonders ausschlaggebend.
Hä? Mit meinen Einstellungen läuft die halt in den gespielten Spielen mit 1500 +/- 20 Hz. Das Powerbudget von ca 175W ASIC wird dabei meist ausgenutzt. Nur bei Diablo 3 brauch ich deutlich weniger. In anderen Spielen kann es natürlich noch wieder anders aussehen.

Bucklew
2019-06-11, 22:51:00
Vielleicht ist die 5700 XT ja auch "Overclockers-Dream" ...
Nach Fury und Radeon VII wird bestimmt diese Karte der erhoffte "Overclocker's Dream", genau :facepalm:

Digidi
2019-06-12, 00:20:20
Hier gehts schon wieder nur um Takt und Power, wir sind endlich auf CB Niveau angekommen!

Wo sind die Diskussionen über Cache, Textur Units, Primitive Shaders, Backend, Frontend, Workloaddistributer, Rops.

Einfach nur noch zum Kotzen hier. Als ob eine GPU nur ihre Leistung und Verbrauch aus Takt hohlt....

iuno
2019-06-12, 00:23:11
Wo sind die Diskussionen über Cache, Textur Units, Primitive Shaders, Backend, Frontend, Workloaddistributer, Rops.
Dann fang doch an :rolleyes:

Digidi
2019-06-12, 00:28:00
Ich hab vor Seiten angefangen mit dem Frontend. Warum es z.B nur noch einen Geometrie Prozessor gibt und Vega vorher 4 hatte, wurde total niedergetrampelt von der Powerfraktion.

Auch interessant es wird viel über Frontend und Shader gesprochen, aber was ist mit den Textureinheiten oder Rops, da findet man außer der Anzahl nichts in der Presi..

reaperrr
2019-06-12, 00:46:18
Ich hab vor Seiten angefangen mit dem Frontend. Warum es z.B nur noch einen Geometrie Prozessor gibt und Vega vorher 4 hatte, wurde total niedergetrampelt von der Powerfraktion.

Auch interessant es wird viel über Frontend und Shader gesprochen, aber was ist mit den Textureinheiten oder Rops, da findet man außer der Anzahl nichts in der Presi..
Weil die E3 ein Gaming Event ist und man das Publikum nicht mit genaueren technischen Details langweilen wollte, die den meisten Spielern eh nix sagen.

Aber zur Beruhigung: Es gab wohl schon ein technisches Briefing für die Presse, Ryan Smith von Anandtech hat jedenfalls bereits einen Artikel angekündigt, der ähnlich ins Detail gehen soll wie deren aktueller Artikel zu Zen2.

Digidi
2019-06-12, 00:56:41
Es wurde genug gezeigt worum man diskutieren kann. Z.b. Das primitive shaders jetzt per Compiler aktiviert wird.

iuno
2019-06-12, 01:26:53
Wo soll es sonst "aktiviert" werden?

Ich kann mich natuerlich taeuschen, aber es sieht fuer mich auch etwas nach Rueckbau aus. Was offenbar urspr. im primitive shader gedacht war, naemlich Teile der fixed function pipeline zu ersetzen, wird jetzt vermutlich in den "Prim Units" gemacht. Dass stages zusammengefasst werden, hat man schon bei Vega gesehen und das war jetzt in der Auswirkung nicht besonders spannend.
Ich vermute mal, dass der Geometry Processor wegen des cullings zentralisiert worden ist. Er soll ja jetzt bis zu 8 primitives Eingabe verarbeiten koennen. Also so, dass man vor dem Setup und der Verteilung auf die SEs ggf. noch tris verwerfen kann. Ich denke mal, primitive assembly usw. zw. vertex/TCS shader und rasterizer wird weiterhin in der SE, jetzt aber in den "Prim Units" gemacht.

Eine Funktion, die sich viele sich unter "primitive shader" vorgestellt haben wurde vor einiger Zeit im Linux OpenGL Treiber implementiert, wenn auch in der Umsetzung natuerlich etwas anders als man es beim primitive shader erwarten wuerde. Dort wird per compute shader zusaetzliches cluster culling gemacht. Bringt riesige Gewinne in "professioneller" Software, die irgendwie ueberhaupt kein Culling macht oder so, aber rein gar nichts in normalen Spielen.

AMD hat halt nichts dazu gesagt. Bzw. nicht oeffentlich. In den Slides vom Tech Day ist ein bisschen was drin, aber da ohne weitere Infos viel zu interpretieren habe ich zu wenig Ahnung. Ich nehme mal an, dass es bald ein paar Artikel geben wird.

Opprobrium
2019-06-12, 01:36:22
Hatte nicht vor ein paar Tagen irgendein AMD Typ sowas in die Richtung "Wir müssen mal über Raytracing reden" gesagt? Kam da was auf der E3, oder war das nur für die Journalisten?

iuno
2019-06-12, 01:43:20
Es wurde was gesagt, und zwar, dass es kurzfristig kein Thema ist.

https://pics.computerbase.de/8/8/1/1/7/3-1080.8a2c9622.jpg

Opprobrium
2019-06-12, 01:56:10
Es wurde was gesagt, und zwar, dass es kurzfristig kein Thema ist.
Danke :smile:

Wirkt ja nicht so optimistisch wie nVidia wenn sie sagen Raytracing im großen Stil = Cloud ;) Bin sehr gespannt wie sich das bis, sagen wir mal, 2030 alles entwickelt haben wird...

SKYNET
2019-06-12, 02:15:23
FE ist doch Referenz. :freak:

nö...

https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2070/

HOT
2019-06-12, 03:32:20
Danke :smile:

Wirkt ja nicht so optimistisch wie nVidia wenn sie sagen Raytracing im großen Stil = Cloud ;) Bin sehr gespannt wie sich das bis, sagen wir mal, 2030 alles entwickelt haben wird...

Das wird gern falsch interpretiert. Die Cloud übernimmt nur das Full scene RT, will heißen, man beschränkt sich in Hardware auf DXR. Volles RT ist für Spiele total uninteressant und eh kein Thema.

pixeljetstream
2019-06-12, 06:51:25
Das wird gern falsch interpretiert. Die Cloud übernimmt nur das Full scene RT, will heißen, man beschränkt sich in Hardware auf DXR. Volles RT ist für Spiele total uninteressant und eh kein Thema.

Lass den Nebensatz mit DXR und HW weg, und es ergibt imo mehr Sinn.

Im Prinzip interpretiere ich das auch so, Film & Vfx Qualitätseinsatz primär über cloud (path tracing komplexer Szenen) wenn höhere FPS gefragt sind. Es ist imo leicht unglücklich formuliert weil man jetzt ja schon volles RT ala Minecraft und quake2rtx sieht, wenn auch einfachere Szenarien, aber imo hätte man den Satz unter Cloud anders schreiben können. L

Denn mit Sicherheit reicht irgendwann die HW Power einer Karte für derartige globale Beleuchtungseffekt in mehr Titeln (nicht mit den heutigen apis aber Evolution). Aber vielleicht ist es so zu interpretieren, dass sie glauben dass sich cloud gaming bis dahin durchgesetzt hat und man daher einzelne Karten nie so ganz weit bringen wird/muß.

HOT
2019-06-12, 09:14:25
Ich glaube eher dass das bedeutet, dass man die nötige Rechenleistung einer echten RT-Scene nur über Cloud realisieren kann auf absehbare Zeit. Quake 2 beweist genau das. Beleuchtung kann man sich über Hardware leisten, echtes full-scene-RT eben nicht. Wir schaffen jetzt mit RT-Hardware grad mal Software von 2000. Ein echte Spiel von heute braucht die x-fache Rechenleistung. Das kann man über ne Cloud streamen, aber das kann die heimische Grafikkarte nicht, mehr steht auf der Folie nicht.

Natürlich wird AMDs DXR-Implementation auch Quake2 abspielen können, aber es bleibt eben bei Quake 2. Ernsthafte volle Spieleimplementationen können bei RT die, sagen wir, nächsten 10 Jahre nur über Cloud realisieren, nicht über dedizierte Grafikhardware. Ich weiss dass du was anderes denkst, aber AMD scheint sich eben diesen Fahrplan zurechtgelegt zu haben und ehrlich gesagt halte ich das auch für realistischer.

robbitop
2019-06-12, 09:31:40
Die Frage ist, ob das derart erstrebenswert war, dass man es sich so teuer erkaufen muss.
IMHO ergibt das nur Sinn, wenn man weiterhin eine obere Schranke hat, was die Skalierbarkeit anbelangt. Ansonsten haette man auch einfach wieder breiter bauen koennen, wie man das jahrelang gemacht hat, um die fehlende Effizienz zu kaschieren.

Aus Vega und VII laesst sich schliessen, dass eine niedriger taktende GPU mit mehr CUs genauso schnell und wohl mindestens auch genauso effizient gewesen waere. Von der Transistorenanzahl wuerde es sich auch nicht viel schenken. Wie es bei Compute aussieht, muss sich noch zeigen, aber der Effizienzsprung bei Gaming ist fuer den Aufwand (Transistoren + 7nm) eigentlich ein Witz.
Jap vermutlich ein Fundament um in Zukunft breiter werden zu können und dennoch sinnvoll die Performance zu skalieren. Man sah ja bei Fijii und Vega wie schlecht diese z.T. ggü Polaris skalierten. Und 64CUs waren anscheinend dann auch das Maximum.

Wenn man mal auf Maxwell und dessen Nachfolger schaut, entdeckt man gleiches Vorgehen. Perf/Transistor ist bei Maxwell sicherlich über dessen Nachfolger. Pascal und Turings Ausführungseinheiten kosten wesentlich mehr Transistoren als jeder Vorgänger ohne linear mehr an Leistung zu gewinnen. Ich nehme an, dass man auch dort asymptotische Effekte bei der Skalierbarkeit vorausgesehen haben wird. Aber nur eine Vermutung.

Leonidas
2019-06-12, 09:33:31
Gibt es zu den "aktuellen" AMD-Karten eigentlich auch irgendwo eine Art Line-Up / Überblick was genau was ist?


Läßt sich teilweise hierfür verwenden:
https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-april-2019




Ich hab vor Seiten angefangen mit dem Frontend. Warum es z.B nur noch einen Geometrie Prozessor gibt und Vega vorher 4 hatte, wurde total niedergetrampelt von der Powerfraktion.

Auch interessant es wird viel über Frontend und Shader gesprochen, aber was ist mit den Textureinheiten oder Rops, da findet man außer der Anzahl nichts in der Presi..


Bin da voll bei Dir. Eigentlich wollte ich hier genauere Erörterungen über Navi-Innereinen lesen. Die ganzen Folien sind ja nun verfügbar:
https://gpureport.cz/info/Graphics_Architecture_06102019.pdf

Digidi
2019-06-12, 09:42:32
Wo soll es sonst "aktiviert" werden?

. Er soll ja jetzt bis zu 8 primitives Eingabe verarbeiten koennen. Also so, dass man vor dem Setup und der Verteilung auf die SEs ggf. noch tris verwerfen kann. Ich denke mal, primitive assembly usw. zw. vertex/TCS shader und rasterizer wird weiterhin in der SE, jetzt aber in den "Prim Units" gemacht.

.

Vega konnte laut Folien 11 Polygonen bearbeiten mit Primitive Shader. 8 wäre ein Rückschritt. Die Prim Units sitzen nahe an den Cus, dacht das das Culling über die cus läuft, dann hätte man aber nicht das harte Limit mit 8 in.

Der Rasterizer ist kein Einheit der Prim Units siehe Diagramm.

iuno
2019-06-12, 10:06:58
Das ist kein Rückschritt. Du kannst das immer noch per Compute shader machen wenn du unbedingt willst und dann eine beliebige Zahl nennen. Die ist auch völlig irrelevant solange es nicht implizit gemacht wird und gezeigt wird, wie die Messung zustande kam. Also vielleicht für immer. Die "8 in" sind offenbar weiterhin fixed function, also implizit möglich und damit relevant.
Rasterizer gehört selbstverständlich nicht zur Prim unit, das wurde falsch editiert

pixeljetstream
2019-06-12, 10:20:24
Ich glaube eher dass das bedeutet, dass man die nötige Rechenleistung einer echten RT-Scene nur über Cloud realisieren kann auf absehbare Zeit. Quake 2 beweist genau das. Beleuchtung kann man sich über Hardware leisten, echtes full-scene-RT eben nicht. Wir schaffen jetzt mit RT-Hardware grad mal Software von 2000. Ein echte Spiel von heute braucht die x-fache Rechenleistung. Das kann man über ne Cloud streamen, aber das kann die heimische Grafikkarte nicht, mehr steht auf der Folie nicht.

Natürlich wird AMDs DXR-Implementation auch Quake2 abspielen können, aber es bleibt eben bei Quake 2. Ernsthafte volle Spieleimplementationen können bei RT die, sagen wir, nächsten 10 Jahre nur über Cloud realisieren, nicht über dedizierte Grafikhardware. Ich weiss dass du was anderes denkst, aber AMD scheint sich eben diesen Fahrplan zurechtgelegt zu haben und ehrlich gesagt halte ich das auch für realistischer.

Es handelt sich beim "jetzt" um die erste Generation HW die ein paar Units dafür bekommen hat. Und q2rtx verfolgt einen brute Force Ansatz der nicht das Maß aller Dinge sein soll wie man das Ziel erreichen kann.

Mit Formulierungen wie ernsthaft und echt, hab ich mein Problem, weil Technik immer sehr flexibel angepasst ist. Die Film Raytracer dieser Welt haben alle sehr unterschiedliche Implementierungen, welcher Ansatz ist da echter. Genauso wie wir bisher in gaming verschiedene Ansätze für die Beleuchtung haben. Die Grenzen sind da fließend. Da AMD ja selbst mit dem Nachfolger explizite HW ankündigt sehen sie das ja auch als wichtigen Baustein der Zukunft und machen ein ernsthaftes Investment (so wie die Konsolenhersteller ja auch).

mboeller
2019-06-12, 11:07:16
Bin da voll bei Dir. Eigentlich wollte ich hier genauere Erörterungen über Navi-Innereinen lesen. Die ganzen Folien sind ja nun verfügbar:
https://gpureport.cz/info/Graphics_Architecture_06102019.pdf


die haben die CU's ja massiv umgebaut. Zumindest meine Layman Ansicht.
IMHO definitiv kein GCN mehr.

edit:
was ich mich frage ist, warum?
GCN war ja bei der Einführung sehr fortschrittlich und gegenüber VLIW massiv effizienter.

Haben sich die Workloads in den letzten 5-10 Jahren so stark verändert, dass GCN jetzt so schlecht dasteht?
Oder hat AMD einen Ryzen hingelegt und eben wie bei ZEN die GPU Architektur an Nvidia angepasst, damit Nvidia die AMD GPUs mit ihrer Unterstützung der Spielehersteller nicht mehr so schlecht aussehen lassen können? Behaupten ja immer die AMD Fans. :)

Edit2: Seite 17 in der Präsentation deutet ja IMHO sowas an. "more tolerant to divergent Codes"

Digidi
2019-06-12, 11:19:32
Interessanter Kommentar von Ryan Smith von ANANDTECH zu den Prim Shaders:

Vega's prim shader wasn't reliably faster than the normal geo engines in practice. Navi improves this by being able to do geo reuse outside of the shader, which makes it faster and more consistent.

https://twitter.com/RyanSmithAT/status/1138561780244869121

Dino-Fossil
2019-06-12, 11:30:35
Haben sich die Workloads in den letzten 5-10 Jahren so stark verändert, dass GCN jetzt so schlecht dasteht?
Oder hat AMD einen Ryzen hingelegt und eben wie bei ZEN die GPU Architektur an Nvidia angepasst, damit Nvidia die AMD GPUs mit ihrer Unterstützung der Spielehersteller nicht mehr so schlecht aussehen lassen können? Behaupten ja immer die AMD Fans. :)

Ich sehe eher so, dass das bisherige GCN einige Baustellen hatte, die über die Jahre immer offensichtlicher wurden. Dazu gehören die effiziente Auslastung der Chips (anscheinend sind GCN-Karten da etwas fordernder für die Entwickler, als nVidia-Karten, oder nVidia steckt mehr magic-juice in ihre Treiber). Teilweise damit Zusammenhängend die Performance/Flop und "Bandbreiteneffizienz". nVidia holte da seit Maxwell jeweils mehr aus ihren Karten heraus. Ein weiteres Problem von GCN war wohl die Skalierbarkeit.

In der Summe genug Gründe, mal einige größere Umbauten vorzunehmen. Und zu guter letzt wirft RDNA das GCN-Konzept ja nicht völlig aus dem Fenster - es wird eher anders implementiert.
Auch nVidia wurde ja laut einigen hier in den letzten Jahren immer GCN-ähnlicher.

robbitop
2019-06-12, 11:36:32
Es wird immer klarer warum AMD die ISA umbenannt hat. (wie groß auch immer die Änderungen an der ISA selbst sein mögen...)

Gipsel
2019-06-12, 12:03:12
die haben die CU's ja massiv umgebaut. Zumindest meine Layman Ansicht.
IMHO definitiv kein GCN mehr.

edit:
was ich mich frage ist, warum?
GCN war ja bei der Einführung sehr fortschrittlich und gegenüber VLIW massiv effizienter.Na die GCN-ISA mit Vektor- plus Skalar-Instruktionen ist ja prinzipiell noch die gleiche (und immer noch fortschrittliche/moderne) Makroarchitektur. Man hat halt dem Ganzen einen neuen Unterbau in Form einer neuen Mikroarchitektur-Implementation (die man jetzt RDNA nennt) spendiert.
Haben sich die Workloads in den letzten 5-10 Jahren so stark verändert, dass GCN jetzt so schlecht dasteht?Wie gesagt ist der Vektor+Skalar-Ansatz von GCN immer noch recht überzeugend. Aber die Zeit bleibt eben nicht stehen und bestimmte Dinge haben sich seit der ersten Version in 28nm entsprechend verschärft. Dies betrifft nicht nur neue Features oder allgemeiner die Workloads, mit denen eine GPU klarkommen muß, sondern auch bestimmte Entwicklungen bei der Prozeß-Skalierung. Mit schrumpfenden Prozessen werden allgemein Datenbewegungen relativ gesehen etwas bedeutender als die eigentlichen Rechenoperationen (das Optimierungsziel für die µArchitektur verschiebt sich also etwas). Ja, das war abzusehen (gibt etliche Jahre alte Präsentationen dazu), aber irgendwann muß man die Dinge dann eben auch umsetzen.
Und die Frage, ob GCN/Vega oder Ähnliches "jetzt so schlecht dasteht", ist irgendwie auch nicht zielführend. Entsprechende Änderungen würden so oder so kommen, auch wenn z.B. Vega King of the Hill gewesen wäre. NV baut ihre GPU-µArchitektur ja auch ständig um (sogar häufiger, wenn auch vielleicht in etwas kleineren Schritten). ;)
Oder hat AMD einen Ryzen hingelegt und eben wie bei ZEN die GPU Architektur an Nvidia angepasst, damit Nvidia die AMD GPUs mit ihrer Unterstützung der Spielehersteller nicht mehr so schlecht aussehen lassen können? Behaupten ja immer die AMD Fans. :)Eine Konkurrenzsituation treibt die Beteiligten immer dazu an, möglichst gute Lösungen zu finden. Manchmal führt das zu völlig unterschiedlichen Lösungen, aber oft gibt es für Details auch eine beinahe konvergente Entwicklung, weil eben jedes Entwicklungsteam am Ende mit ähnlichen Lösungen zu den sich den Teams stellenden Problemen um die Ecke kommt.
Und wenn man sich mal die Entwicklung von Fermi (Scoreboard-Scheduling mit ewig langen Latenzen [20 Takte oder so]) über Maxwell zu Kepler und jetzt auch Turing ansieht, da kann man in einigen Punkten schon eine gewisse Konvergenz der Entwicklung sehen (erstmal in Richtung zu GCN ;)). Nur hat nV eben nicht einfach GCN kopiert oder so, sondern man hat selber mal nachgedacht und ist mit Lösungen dahergekommen, die aus Ihrer Sicht die besten für die heutige Zeit darstellen und eben schon viel wichtige Dinge auch deutlich anders machen. Und genau so hat man auch bei AMD nachgedacht und kommt jetzt mit RDNA, die zwar den GCN-Ansatz (Vektor+Skalar-ISA) beibehält, aber intern jetzt einige Sachen schon etwas mehr so macht wie nV (Dual-Issue inklusive möglicher ILP-Nutzung [bisher nur TLP], verdoppelte Bandbreite zum L1 [jetzt L0 genannt, mitsamt aufgebohrten Filtereinheiten, war ja eine beinahe ewig bekannte Schwäche der AMD-TMUs], breitere SIMDs/wahlweise schmalere Wavefronts und knapperer Registerbandbreite [bei bisherigen GCNs wohl ein ziemlicher Stromfresser] mit aufgebohrter Result-Forwarding/Operand-Gathering/Registerfile-Cache-Logik zur Kompensation, und vermutlich noch mehr [zum Geometrie-Krams kann ich noch nicht so viel sagen]).
Edit2: Seite 17 in der Präsentation deutet ja IMHO sowas an. "more tolerant to divergent Codes"Das sind vermutlich schlicht die schmaleren Wavefronts. Muß ich mal komplett durchsehen.

robbitop
2019-06-12, 12:33:04
Zur Density wurde IIRC noch nichts gesagt:
P10: 24,56 Mio Tr/mm²
N10: 41,03 Mio Tr/mm²
V7: 39,96 Mio Tr/mm²

Man bekommt also nur 67 % mehr Density. Und N10 hat kaum eine andere Density als V7 - da wurde ja aufgrund von I/O etc hier schon eine deutlich andere Density vermutet (und man lag hier offenbar daneben).

fondness
2019-06-12, 12:50:20
Zur Density wurde IIRC noch nichts gesagt:
P10: 24,56 Mio Tr/mm²
N10: 41,03 Mio Tr/mm²
V7: 39,96 Mio Tr/mm²

Man bekommt also nur 67 % mehr Density. Und N10 hat kaum eine andere Density als V7 - da wurde ja aufgrund von I/O etc hier schon eine deutlich andere Density vermutet (und man lag hier offenbar daneben).

Ergo wäre ein TU106@7nm wohl deutlich größer als N10.

Troyan
2019-06-12, 12:54:51
Ergo wäre ein TU106@7nm wohl deutlich größer als N10.

TU106 ist auch weitaus moderner als Navi. Konkurrent-Chip ist TU116 und der wäre deutlich kleiner, stromsparender und kaum langsamer.

robbitop
2019-06-12, 12:56:54
Ergo wäre ein TU106@7nm wohl deutlich größer als N10.

Bei gleicher Density um den Quotient der Transistoren zu N10.
Also 10,8 Mrd / 10,3 Mrd. Also knappe 5%.
Ob das den Begriff "deutlich" verdient, ist Auslegungssache. Aber man muss konstatieren, dass NV mehr Integerausführungsressourcen hat und TC und RT Cores hat.

Letzteres wurde mit ~20% des Transistorbudgets eingeschätzt nachdem TU116 herauskam.

Wenn man es entsprechend normiert, scheint NV etwas mehr Performance pro Transistor zu liefern. War bei GP106 zu P10 ja ähnlich.

TU106 ist auch weitaus moderner als Navi. Konkurrent-Chip ist TU116 und der wäre deutlich kleiner, stromsparender und kaum langsamer.
Nun wollen wir mal die Kirche im Dorf lassen. TU106 hat 50% mehr Recheneinheiten als TU116. Ohne Bandbreiten und CPU Limit würde das bei gleichem Takt auch in 50% mehr Leistung münden. N10 ist ähnlich schnell wie TU106 laut AMDs Projektionen (bzw leicht schneller).

Gipsel
2019-06-12, 13:14:12
Zur Density wurde IIRC noch nichts gesagt:
P10: 24,56 Mio Tr/mm²
N10: 41,03 Mio Tr/mm²
V7: 39,96 Mio Tr/mm²

Man bekommt also nur 67 % mehr Density. Und N10 hat kaum eine andere Density als V7 - da wurde ja aufgrund von I/O etc hier schon eine deutlich andere Density vermutet (und man lag hier offenbar daneben).Nun, relativ gesehen werden Navi10 und Vega20 wohl grob ähnliche Flächen für (schlecht bis gar nicht skalierendes) IO aufwenden. Und mal ein ganz wilder Tipp: Vermutlich belegt bei Navi die (gut schrumpfende) Logik auch näher an 67% als 100% der Fläche, womit sich die auf's gesamte Die gerechnete Transistordichte ganz gut erklärt. ;)

robbitop
2019-06-12, 13:16:17
Das wird dann aber auch für so ziemlich alle anderen GPUs gelten.
Zumal Navi sicherlich weniger IF links haben wird als reguläre Gaming GPU im Vergleich zur V20. Der Einfluss scheint nicht all zu hoch gewesen zu sein.

fondness
2019-06-12, 13:16:27
Bei gleicher Density um den Quotient der Transistoren zu N10.

Gleiche Density bei unterschiedlichen Designs wird es nur nicht spielen. Wenn dann musst du vom bestehendem Design ausgehen, also 445mm²@12nm. Aber natürlich spielen da auch die RT-Fähigkeiten und die deutlich bessere Perf/Watt von TU106 mit rein keine Frage.

robbitop
2019-06-12, 13:20:23
Naja die Density war bei der Vorgängergeneration zwischen NV und AMD annähernd gleich. Trotz unterschiedlicher Foundries.
Es ist nicht weit hergeholt, dass NV mit 7 nm auf eine sehr ähnliche Density käme.

Gipsel
2019-06-12, 14:08:56
Zu der hier verlinkten RDNA-Präsentation noch ein paar kleine Anmerkungen:

Falls man der Darstellung da trauen kann, beträgt die Latenz einer arithmetischen vALU-Instruktion jetzt 5 Takte (statt vorher 4). Dies bedeutet, daß man sogar mit zwei 64er-Wavefronts pro SIMD (4 pro CU) immer noch Pipeline-Bubbles haben kann (man benötigt also entweder unabhängige Instruktionen für die Wavefronts oder drei 64er pro SIMD). Das könnte also in ein paar Fällen ein durchaus zweischneidiges Schwert sein (bisher reicht GCN eine Wavefront pro SIMD, um das zu verhindern [praktisch meist aber nicht übermäßig relevant, weil es auch Speicherzugriffe und z.B. den Startoverhead gibt]).
Insgesamt sollte RDNA allerdings die Ausführung beschleunigen können, wenn entweder sehr wenig Arbeit vorliegt (mehr kleinere Wavefronts), oder sehr komplexe Shader abgearbeitet werden, die sehr viele Register belegen (jeder vALU stehen jetzt 128kB vRegs zur Verfügung statt 64kB; auch wenn die vALUs doppelt so breit sind, ist das selbst bei 64er-Wavefronts immer noch ein Netto-Gewinn, bei 32ern sowieso). Schade, daß in der Präsentation nicht darauf eingegangen wird, wie genau ILP extrahiert wird (GCN konnte das gar nicht, wäre also interessant zu wissen, welche Grenzen da mit RDNA existieren). Und es wäre auch interessant zu erfahren, ob bei RDNA immer noch Mehrfach-Issue aus verschiedenen Wavefronts in einem SIMD möglich ist (bisherige GCN konnten z.B. vALU-, sALU-, LDS- und vMem-Instruktionen parallel absetzen [+"interne" Ops wie waitcounts], solange sie zu verschiedenen Waves gehörten) oder ob das mehr oder weniger entfällt (nur Skalar+Vektor Dual-Issue).
Schlußendlich dürfte sich aber in Fällen, bei denen man genug Arbeit für das komplette Shaderarray hat und auch die Shaderkernel nicht übermäßig viele Ressourcen belegen (also in Fällen mit hoher Occupancy) nicht so viel bei der Performance pro Takt tun (solange nicht die verdoppelte L1/L0-Cache-Bandbreite reinhaut). Da sagt die Präsentation ja auch, daß 64er-Wavefronts die (energie-)effizientere Variante darstellen. Aber diese Fälle hatten offenbar nur eine geringe Priorität beim Design (eine CU faßt jetzt auch nur noch maximal 20 statt 40 Wavefronts, weiterhin maximal 10 pro [jetzt aber doppelt so großem] SIMD).

Ein anderes Fragezeichen wäre noch, wie diese Zusammenfassung der zwei gepaarten CUs in dem "workgroup processor" genau funktioniert. Kooperation zwischen den 2 CUs erfordert vermutlich, daß sich diese zwei CUs den LDS teilen (1x128kB statt 2x64kB?). Allerdings würde ich da gerne noch mehr drüber erfahren.

Mr.Scott
2019-06-12, 14:30:55
Wird es noch eine Preissenkung bei der RX580/RX590/Vega56 bzw. bei der RTX2060/2070 vor dem Navi Release geben oder erst nach dem Release?

Was denkt ihr?