PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 [67] 68 69 70 71 72 73 74 75 76 77 78 79 80 81

dargo
2020-10-28, 21:24:19
Ich behaupte: kann sein, muss es aber nicht. Solange es nicht reproduzierbar ist mit anderen 8 GB Karten auf anderen Systemen, solange behaupte ich, liegt es an einem Buggy Spiel mit bspw. verbuggten Texture streaming
Aha... und, dass es nicht reproduzierbar mit anderen Grafikkarten ist hast du dir aus welcher Nase gezogen? Dass 11GB einer 2080TI für ultra Texturen ebenfalls nicht reichen hast du überlesen?

Linmoum
2020-10-28, 21:25:08
Laut dargo würde ich ein Gesicht ziehen. Laut dem Video seh ich keine Probleme, weder bei AVG noch Min FPS. Laut Dargos eigenen Videos soll wohl das Ultra-Setting zum Stottern führen, er diagnostiziert dass der VRAM seiner 5700 XT wohl nicht ausreichend ist und es daher kommen muss.

Ich behaupte: kann sein, muss es aber nicht. Solange es nicht reproduzierbar ist mit anderen 8 GB Karten auf anderen Systemen, solange behaupte ich, liegt es an einem Buggy Spiel mit bspw. verbuggten Texture streamingUnd du hast auch von dargo beide Links brav angeklickt und damit gesehen, dass es jemand mit einer 11GiB 2080Ti ebenfalls getestet hat und schon mit der Probleme durch zu wenig Speicher und Ultra Texturen vorhanden waren?

sapito
2020-10-28, 21:27:45
Laut dargo würde ich ein Gesicht ziehen. Laut dem Video seh ich keine Probleme, weder bei AVG noch Min FPS. Laut Dargos eigenen Videos soll wohl das Ultra-Setting zum Stottern führen, er diagnostiziert dass der VRAM seiner 5700 XT wohl nicht ausreichend ist und es daher kommen muss.

Ich behaupte: kann sein, muss es aber nicht. Solange es nicht reproduzierbar ist mit anderen 8 GB Karten auf anderen Systemen, solange behaupte ich, liegt es an einem Buggy Spiel mit bspw. verbuggten Texture streaming


sorry ich bin der mit ner 11GiB 2080ti wo es extreme nachladeruckler in 1440p + ultra texturen kommt.

das btw bei +- 100FPS

ist als ob du ne hdd hast und immer mal stehen bleibst und schluck auf bekommst (läuft auf ne nvme)

Locuza
2020-10-28, 21:29:35
Komisch ist das es beim Rasterizer den breiteren Rechteckigen Block nun 4 mal gibt im gegensatz zu Navi 10. Der Schmale Rechteckige block aber gleich geblieben ist, nämlich auch 4 mal.

Heißt das das es jetzt nur Rasterizer gibt dafür jeder Rasterizer nun 2 Prime Units hat?
Laut den Firmware-Einträgen haben Navi21/22 und 23 nur einen Rasterizer pro Shader Engine, allerdings mit 4 Packers gegenüber 2.
Als Beispiel sollte Navi23 so aussehen:
https://pbs.twimg.com/media/ElbTX8_XUAAOTIF?format=png&name=large

Hier findet man alle Einträge von stblr auf reddit:
https://www.reddit.com/r/Amd/comments/j7bpzs/an_update_on_navi_2x_firmware/

num_se: 4
num_wgp0_per_sa: 5
num_wgp1_per_sa: 0
num_rb_per_se: 4
num_gl2c: 16
num_gprs: 1024
num_max_gs_thds: 32
gs_table_depth: 32
gsprim_buff_depth: 1792
parameter_cache_depth: 1024
double_offchip_lds_buffer: 1
wave_size: 32
max_waves_per_simd: 16
max_scratch_slots_per_cu: 32
lds_size: 64
num_sc_per_se: 1
num_sa_per_se: 2
num_packer_per_sc: 4
num_gl2a: 4

Cubitus
2020-10-28, 21:29:36
Ich muss gerade über einige Posts hier echt schmunzeln von wegen AMD muss noch am Marketing arbeiten. ;D Als echter Enthusiast muss man jetzt praktisch Zen3 sowie ein 500-er Brett kaufen und Navi21 um maximale Performance zu bekommen. Am besten noch auf Wakü umbauen und los gehts. Also wenn das kein gutes Marketing ist dann weiß ich auch nicht mehr. ;)


Zen3 steht auch außer Frage, die Tests in einschlägigen Foren sprechen für sich. Dennoch hat es AMD bisher noch nicht geschafft die zahlungskräftigen Business Kunden zu erreichen, da ist wiederum Intel gut vernetzt, noch..
Aber eine CPU ist nicht direkt mit einer GPU vergleichbar... Du hast bei einer GPU viel mehr Spielraum fernab des OCs ...

Und ich sage es nochmal, Nvidia ist nicht Intel.. Insofern Nvidia schnell reagieren und Produkte nachschieben kann..

Es ist gut wenn AMD nun leistungstechnisch ebenbürtig ist, jetzt werden wir sehen wie die Tests ausfallen..

Dann sehen wir auch FPS über den Konkurrenzbalken stehen ;)

Ex3cut3r
2020-10-28, 21:31:05
Es ist mir immer wieder ein Rätsel wie in einem akademischen IT Forum, ein offensichtlicher auf Kante genähter VRAM so verteidigt wird.10 GB sind lächerlich. Wieso ist das so schwer zu kapieren?

Lawmachine79
2020-10-28, 21:32:44
sorry ich bin der mit ner 11GiB 2080ti wo es extreme nachladeruckler in 1440p + ultra texturen kommt.

das btw bei +- 100FPS

ist als ob du ne hdd hast und immer mal stehen bleibst und schluck auf bekommst (läuft auf ne nvme)
Wer sagt eigentlich, dass das mit einem 16GB VRAM-Krüppel nicht passiert?

Linmoum
2020-10-28, 21:32:44
Und ich sage es nochmal, Nvidia ist nicht Intel.. Insofern Nvidia schnell reagieren und Produkte nachschieben kann..
Gibt's die ehemals für Intel behauptete Schublade jetzt also schon bei Nvidia? Bei Intel war und ist sie nicht mehr als ein Luftschloss, bei Nvidia genauso. Der Ampere-Nachfolger kommt irgendwann 2022, dasselbe bei AMD mit RDNA3. Bis dahin kann Nvidia nicht mal eben schnell was (spürbar) schnelleres raushauen. Wie auch? Die 3090 ist fast schon Full-GA102.

[MK2]Mythos
2020-10-28, 21:33:39
Ich muss mich mal selber zitieren, weil ich diesen leak gerade nochmal mit der Präsentation heute verlglichen habe. Die Vorhersage stimmte zu 100%. Da scheint RGT also wirklich eine gute Quelle direkt bei AMD zu haben.

Mythos;12471991']Aus dem eben erschienenen redgamingtech Video:
https://www.youtube.com/watch?v=HJcxKTX65F4
AMD zeigt auf dem Event angeblich 10 Spiele unter 4K und 1440p

In 4K gewinnt die 6800xt in 5 Spielen gegen die RTX3080, Gleichstand zweimal und dreimal gewinnt die RTX3080.

In 1440p gewinnt die 6800xt in 8 Spielen und verliert in 2 Spielen gegen die RTX3080.

AMD hat etwas DLSS-ähnliches, das im Dezember/Januar nachgereicht wird.

Preise stehen angeblich noch nicht fest.

dargo
2020-10-28, 21:34:51
Und ich sage es nochmal, Nvidia ist nicht Intel.. Insofern Nvidia schnell reagieren und Produkte nachschieben kann..

Nvidia kann aktuell nicht mal GA102 zu vernünftigen Preisen liefern (6 Wochen nach Launch!).
https://www.csv-direct.de/artinfo.php?artnr=A0642484&KATEGORIE=064&pva=geizhals2

Und du träumst schon vom schnellen Nachlegen neuer Produkte? Wer soll die produzieren? TSMC ist voll und Samsung hat erhebliche Probleme.

Cubitus
2020-10-28, 21:35:17
Gibt's die ehemals für Intel behauptete Schublade jetzt also schon bei Nvidia? Bei Intel war und ist sie nicht mehr als ein Luftschloss, bei Nvidia genauso. Der Ampere-Nachfolger kommt irgendwann 2022, dasselbe bei AMD mit RDNA3. Bis dahin kann Nvidia nicht mal eben schnell was (spürbar) schnelleres raushauen. Wie auch? Die 3090 ist fast schon Full-GA102.

Nun ja Sie könnten ne GTX3070 mit mehr Vram bringen...
Sie können eine 3060 TI bringen..

Eine Nvidia Karte muss jetzt nicht schneller sein, aber man ist in der Lage das Portfolio noch zu strechten..

Falls mal etwas mehr Verfügbarkeit herrschen sollte.... :freak:


Nvidia kann aktuell nicht mal GA102 zu vernünftigen Preisen liefern (8 Wochen nach Launch!).
https://www.csv-direct.de/artinfo.php?artnr=A0642484&KATEGORIE=064&pva=geizhals2

Und du träumst schon vom schnellen Nachlegen neuer Produkte? Wer soll die produzieren? TSMC ist voll und Samsung hat erhebliche Probleme.

Ich rede auch nicht von einer neuen Gen!

DrFreaK666
2020-10-28, 21:35:30
Gibt's die ehemals für Intel behauptete Schublade jetzt also schon bei Nvidia? Bei Intel war und ist sie nicht mehr als ein Luftschloss, bei Nvidia genauso. Der Ampere-Nachfolger kommt irgendwann 2022, dasselbe bei AMD mit RDNA3. Bis dahin kann Nvidia nicht mal eben schnell was (spürbar) schnelleres raushauen. Wie auch? Die 3090 ist fast schon Full-GA102.

RTX3000 Super Karten mit mehr RAM und GHz Dank TSMC-Fertigung.
Denke vor Sommer 2021 wird das aber nichts

sapito
2020-10-28, 21:35:34
Wer sagt eigentlich, dass das mit einem 16GB VRAM-Krüppel nicht passiert?

das ist eine gute frage XD

da die engine hier sich alles krallt was geht ...

Jupiter
2020-10-28, 21:35:52
Raytracing ist noch immer nicht von starker Relevanz.

Bis das soweit ist gibts schon wieder 1-2 neue Generationen.


Und solange in der Playstation 5 und Xbox SX eben genau diese Architetur drin steckt wird es eben auch "angemessene" Raytracing Effekte geben.

So einfach ist das.

Da die Konsolen auch nur ein paar GB an schnellen RAM haben hat dieser auch nur eine geringe Relevanz. So einfach ist das.

Die Raytracing-Qualität kann leicht gesteigert und ausgebaut werden. Ohne Raytracing bekommt man in der Zukunft bei den RAM-Mengen der Konsolen nur Last Gen-Grafik. Hätten AMD-Karte und die Konsolen 32 GB VRAM, sähe es auch anders aus. Dann könnten in den Spielen extrem viele neuartige Effekte implementiert werden.

sapito
2020-10-28, 21:37:04
Und ich sage es nochmal, Nvidia ist nicht Intel.. Insofern Nvidia schnell reagieren und Produkte nachschieben kann..



stimmt, für die ti variante werden dann 2x 12er stecker + 1000W PSU benötigt XD

BTW. was passiert wenn die EU den verkauf, nutzung und bewerbung von PSUs > 300w verbietet? haben wir den die nvidia krise?

Lawmachine79
2020-10-28, 21:37:29
das ist eine gute frage XD

da die engine hier sich alles krallt was geht ...
Ich bin sicher, wenn man das Szenario künstlich genug gestaltet, ist auch eine 3090 ein VRAM-Krüppel.

Linmoum
2020-10-28, 21:37:55
Da die Konsolen auch nur ein paar GB haben hat der RAM eben auch nur eine geringe Relevanz. So einfach ist das.Ja, aktuelles Beispiel Watch Dogs. Siehe Thread dort und Phils Beiträge. Hat nur geringe Relevanz, klar.

Widdewiddewitt und Drei macht Neune.

Jupiter
2020-10-28, 21:38:36
Ja, aktuelles Beispiel Watch Dogs. Siehe Thread dort und Phils Beiträge. Hat nur geringe Relevanz, klar.

Widdewiddewitt und Drei macht Neune.

Dann testen wir mal Watch Dogs 3 mit Raytracing zwischen AMD und Nvidia. Bei beiden wird es nicht optimal laufen.

Selbst die GTX 970 lief noch lange gut und die hatte anstelle der 5 bis 6GB der Konsolen nur 3,5 GB. Die wurde in den ersten 3 Jahren eher durch ihre Rechen-Geschwindigkeit als durch den VRAM gebremst. Nach drei Jahren wird eh wieder eine neue Grafikkarte gekauft.

Brillus
2020-10-28, 21:39:36
Check mal bitte nochmal deinen Post. :tongue:
Finde nichts.

dargo
2020-10-28, 21:39:59
Ich rede auch nicht von einer neuen Gen!
Dann erzähl uns was Nvidia in dieser Gen noch rausbringen wird was RDNA2 gefährlich werden kann. Ich bin gespannt.

Finde nichts.
Suche mal nach der "5". ;)

Tesseract
2020-10-28, 21:40:40
Das ist eben die Frage ob in den Konsolen das Feature auch genutzt wird. Dann wärs eindeutig.

so wie ich das verstanden habe hebelt das feature eine PCIe/windows-limitierung für vram mapping aus, hat mit den konsolen also nix zu tun.

Digidi
2020-10-28, 21:40:42
Laut den Firmware-Einträgen haben Navi21/22 und 23 nur einen Rasterizer pro Shader Engine, allerdings mit 4 Packers gegenüber 2.
Als Beispiel sollte Navi23 so aussehen:
https://pbs.twimg.com/media/ElbTX8_XUAAOTIF?format=png&name=large

Hier findet man alle Einträge von stblr auf reddit:
https://www.reddit.com/r/Amd/comments/j7bpzs/an_update_on_navi_2x_firmware/

Ja aber das ist verwirrend denn Navi 10 hat auch nur 2 Shaderengines aber 4 Rasterizer. Laut Reddit hat man auch nur 10 shader pro Shaderengine, zudem haben sich ja auch die RBs pro Shader Engins halbiert. Das deutet alles darauf hin das wir 8 Shaderengines haben und jeder Shaderengine hat normalerweise Ihren eigenen Rasterizer.


https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/

Sunrise
2020-10-28, 21:41:55
Was NV jetzt machen wird:

1) Die Spec der 3090 etwas entschärfen (näher an die 300W, weniger SMs als 3090) und den Preis aggressiver machen. Das SI verkleinern = weniger RAM verbauen, dennoch möglichst mehr als bei AMD.

2) Die Marketing-Abteilung hat schon die Order bekommen, möglichst jeden Vergleich und neue Folien immer inkl. RT herzunehmen.

3) Dreimal pro Tag aufs Klo gehen.

dargo
2020-10-28, 21:44:29
Wer sagt eigentlich, dass das mit einem 16GB VRAM-Krüppel nicht passiert?
Stimmt... man braucht den RTX A6000 mit 48GB Vram weil der 24GB Speicherkrüppel @RTX 3090 auch zu wenig Vram für dieses Spiel hat.

Linmoum
2020-10-28, 21:44:45
Was NV jetzt machen wird:

1) Die Spec der 3090 etwas entschärfen (näher an die 300W, weniger SMs als 3090) und den Preis aggressiver machen. Das SI verkleinern = weniger RAM verbauen, dennoch möglichst mehr als bei AMD.

2) Die Marketing-Abteilung hat schon die Order bekommen, möglichst jeden Vergleich und neue Folien immer inkl. RT herzunehmen.

3) Dreimal pro Tag aufs Klo gehen.
Da fehlen noch ein paar Einbauküchen, damit Jensen mehr Ampere ausm Ofen holen kann.

dargo
2020-10-28, 21:47:25
1) Die Spec der 3090 etwas entschärfen (näher an die 300W, weniger SMs als 3090) und den Preis aggressiver machen. Das SI verkleinern = weniger RAM verbauen, dennoch möglichst mehr als bei AMD.

RTX 3080 20GB... ;D
w4aLThuU008

BoMbY
2020-10-28, 21:48:48
Ja aber das ist verwirrend denn Navi 10 hat auch nur 2 Shaderengines aber 4 Rasterizer. Laut Reddit hat man auch nur 10 shader pro Shaderengine, zudem haben sich ja auch die RBs pro Shader Engins halbiert. Das deutet alles darauf hin das wir 8 Shaderengines haben und jeder Shaderengine hat normalerweise Ihren eigenen Rasterizer.


https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/

Navi 10: num_rb_per_se 8 * num_se 2 = 16
Navi 21: num_rb_per_se 4 * num_se 4 = 16

rb == Raster-Backends

?

Edit: Und sh != se (shader engine): num_se * num_sh_per_se * num_cu_per_sh ?

Cubitus
2020-10-28, 21:49:17
Dann erzähl uns was Nvidia in dieser Gen noch rausbringen wird was RDNA2 gefährlich werden kann. Ich bin gespannt.

Suche mal nach der "5". ;)

Haben se doch schon, 3070 für 499 Euro als Massenkarte :confused:
Welche sogar an die RTX3080 rankommt..

Darunter ist auch noch platz...

eine 3070ti wäre auch noch möglich.. mit vielleicht mehr Vram wer weiß

Speicher ist zwar ein Thema, aber das interessiert den preisbewussten Käufer erstmal nicht..

Nightspider
2020-10-28, 21:51:04
Da die Konsolen auch nur ein paar GB an schnellen RAM haben hat dieser auch nur eine geringe Relevanz. So einfach ist das.

Die Raytracing-Qualität kann leicht gesteigert und ausgebaut werden. Ohne Raytracing bekommt man in der Zukunft bei den RAM-Mengen der Konsolen nur Last Gen-Grafik. Hätten AMD-Karte und die Konsolen 32 GB VRAM, sähe es auch anders aus. Dann könnten in den Spielen extrem viele neuartige Effekte implementiert werden.


Die neuen Konsolen haben effektiv 20 - 30 GB VRAM, dank den SSDs.

dargo
2020-10-28, 21:52:43
Haben se doch schon, 3070 für 499 Euro als Massenkarte :confused:

Massenkarte für 499€ und dann noch mit 8GB. ;D Sorry... mehr muss ich nicht wissen. :D

Lawmachine79
2020-10-28, 21:53:25
Dann erzähl uns was Nvidia in dieser Gen noch rausbringen wird was RDNA2 gefährlich werden kann. Ich bin gespannt.

NVidia muss gar nichts rausbringen.

1) NV bleibt der Top Dog (gut, die Benchmarks müssen wir abwarten; aber wenn die 6900XT schon in AMD-Benches ohne RT nur Gleichstand erreicht, werden neutrale Benchmarks nicht besser ausfallen)

2) NV hat ein überlegenes Featureset. Moderne Spiele laufen dadurch mit AMD-Karten entweder langsamer (RT an) oder sehen schlechter aus als auf NV-Karten (RT aus).

Also "rausbringen" muss NV nix. NV muss einfach an der Preisschraube drehen. Die AMD-Karten sind attraktiv, weil sie günstiger als ihre NV-Pendants sind.

Digidi
2020-10-28, 21:53:35
Navi 10: num_rb_per_se 8 * num_se 2 = 16
Navi 21: num_rb_per_se 4 * num_se 4 = 16

rb == Raster-Backends

?

Edit: Und sh != se (shader engine): num_se * num_sh_per_se * num_cu_per_sh ?

Ja Bomby das ist ja das lustige. Schaut du dir aber die Rops an hat sich trotz des gleichstande zwichen Navi 10 und Navi21 die ROP anzahl verdoppelt :confused:

sapito
2020-10-28, 21:54:27
Da fehlen noch ein paar Einbauküchen, damit Jensen mehr Ampere ausm Ofen holen kann.

ich würde Einbauküchen durch Atomkraftwerke ersetzen :freak::freak::freak:

Dalai-lamer
2020-10-28, 21:54:31
Ich bin echt in der Zwickmühle... habe einen GSync Monitor... aber eine 3080 mit 10 GB für 150-200€ mehr als die AMD Karte mit 10GB? Ryzen 3 auf der Wunschliste 😜

Linmoum
2020-10-28, 21:56:15
NVidia muss gar nichts rausbringen.

1) NV bleibt der Top Dog (gut, die Benchmarks müssen wir abwarten; aber wenn die 6900XT schon in AMD-Benches ohne RT nur Gleichstand erreicht, werden neutrale Benchmarks nicht besser ausfallen)

2) NV hat ein überlegenes Featureset

Also "rausbringen" muss NV nix. NV muss einfach an der Preisschraube drehen. Die AMD-Karten sind attraktiv, weil sie günstiger als ihre NV-Pendants sind.Wenn man beide übertaktet weiß ich schon, was bei 1. danach nicht mehr haltbar ist. ;D

Naja, ist ja kein Beinbruch, dass Ampere danach hinten dran ist. Passiert halt.

Locuza
2020-10-28, 21:56:44
Ja aber das ist verwirrend denn Navi 10 hat auch nur 2 Shaderengines aber 4 Rasterizer. Laut Reddit hat man auch nur 10 shader pro Shaderengine, zudem haben sich ja auch die RBs pro Shader Engins halbiert. Das deutet alles darauf hin das wir 8 Shaderengines haben und jeder Shaderengine hat normalerweise Ihren eigenen Rasterizer.


https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/
Navi10 hat 2 Rasterizer mit zwei Packern pro Shader Engine.
Navi2x hat 1 Rasterizer mit vier Packern pro Shader Engine und ja, es müsste bedeuten das der Rasterizer jetzt muss als ein Dreieck geliefert bekommt, da bin ich auch gespannt auf die Architekturdetails und wie es wirklich aussieht im Detail.
Das Render-Backend besitzt bei Navi21,22, 23 und der Xbox One X nun 8 ROPs, anstatt wie früher 4 ROPs.

sapito
2020-10-28, 21:56:54
Ich bin echt in der Zwickmühle... habe einen GSync Monitor... aber eine 3080 mit 10 GB für 150-200€ mehr als die AMD Karte mit 10GB? Ryzen 3 auf der Wunschliste 😜

dito ABER 1500€ für team grün vs 1000€ team rot + freesync monitor ...

ich spreche für enthusiasten und keine VRAM krüppel :freak::freak::freak:

dargo
2020-10-28, 21:56:57
NVidia muss gar nichts rausbringen.

1) NV bleibt der Top Dog (gut, die Benchmarks müssen wir abwarten; aber wenn die 6900XT schon in AMD-Benches ohne RT nur Gleichstand erreicht, werden neutrale Benchmarks nicht besser ausfallen)

2) NV hat ein überlegenes Featureset

Also "rausbringen" muss NV nix. NV muss einfach an der Preisschraube drehen. Die AMD-Karten sind attraktiv, weil sie günstiger als ihre NV-Pendants sind.
Genau... deswegen kommt noch ein weiterer Salvage vom GA102 mit 58SM und eine 3080TI mit mehr Shadern als die 3080. Weil Nvidia nichts unternehmen muss. Bist du auch schon in deinem eigenen Universum?

Jupiter
2020-10-28, 21:57:27
Die neuen Konsolen haben effektiv 20 - 30 GB VRAM, dank den SSDs.

Dann würden auch die 16 GB der RX 6900 XT nichts mehr retten. Höchstens die RTX 3090 könnte mitziehen.

DrFreaK666
2020-10-28, 21:57:46
...
Also "rausbringen" muss NV nix. NV muss einfach an der Preisschraube drehen. Die AMD-Karten sind attraktiv, weil sie günstiger als ihre NV-Pendants sind.

Niedrige Preise ersetzen kein VRAM

Berniyh
2020-10-28, 21:57:54
Als Beispiel sollte Navi23 so aussehen:
https://pbs.twimg.com/media/ElbTX8_XUAAOTIF?format=png&name=large
Wobei ja noch nicht klar ist, ob der Infinity Cache bei allen Produkten zum Einsatz kommt oder nur bei Navi 21.

Lawmachine79
2020-10-28, 21:58:20
Wenn man beide übertaktet weiß ich schon, was bei 1. danach nicht mehr haltbar ist. ;D

Nicht jeder will Bastelprodukte. Ich will Out-of-the-Box ein gutes Produkt. Und übertakten wird nicht reichen, um RT praxistauglich ans Laufen zu bekommen (das ist natürlich Spekulation aber das ist Deine Übertaktungsbehauptung ja auch).

Niedrige Preise ersetzen kein VRAM
Klar, sie ersetzen auch ein schlechtes Featureset :). Bei AMD haben niedrige Preise jahrelang unterirdische und nicht konkurrenzfähige Performance ersetzt.

Was ich aber in der Tat nicht verstehe: warum NV die 16/20GB gecancelt hat. Da hätte AMD dann wieder gar nichts mehr in der Hand (außer "hihihi unser PCB ist größer aber unser Kühler kleiner").

Digidi
2020-10-28, 21:58:48
Navi10 hat 2 Rasterizer mit zwei Packern pro Shader Engine.
Navi2x hat 1 Rasterizer mit zwei Packern pro Shader Engine und ja, es müsste bedeuten das der Rasterizer jetzt muss als ein Dreieck geliefert bekommt, da bin ich auch gespannt auf die Architekturdetails und wie es wirklich aussieht im Detail.
Das Render-Backend besitzt bei Navi21,22, 23 und der Xbox One X nun 8 ROPs, anstatt wie früher 4 ROPs.

Ja aber du hast 4 Packer pro Shader engine? oder was heißt das sc bei packer? Was machen die Packer überhaupt?

https://tpucdn.com/gpu-specs/images/g/861-block-diagram.jpg

Daredevil
2020-10-28, 21:59:20
Dann erzähl uns was Nvidia in dieser Gen noch rausbringen wird was RDNA2 gefährlich werden kann. Ich bin gespannt.

Hmm ich glaube Nvidia kann dieses Jahr gar nichts mehr machen, die Hardware und die Versprechen sind konkurrenzlos von AMD. ( Gut, wer mehr Speicher braucht... aber den braucht wohl kaum jemand )
Das einzige, was AMD dieses Jahr noch gefährlich werden kann, ist AMD selbst. Sprich deren Umsetzung von den vielen vielen Features, die angekündigt worden sind. Hardware und Software sind der Schlüssel zum Erfolg, mit Hardware alleine gewinnste nichts.

DrFreaK666
2020-10-28, 22:01:22
Hmm ich glaube Nvidia kann dieses Jahr gar nichts mehr machen, die Hardware und die Versprechen sind konkurrenzlos von AMD. ( Gut, wer mehr Speicher braucht... aber den braucht wohl kaum jemand )
Das einzige, was AMD dieses Jahr noch gefährlich werden kann, ist AMD selbst. Sprich deren Umsetzung von den vielen vielen Features, die angekündigt worden sind. Hardware und Software sind der Schlüssel zum Erfolg, mit Hardware alleine gewinnste nichts.

Da AMD mit MS an super resolution arbeitet, denke ich dass das was Gutes wird

Linmoum
2020-10-28, 22:01:27
Nicht jeder will Bastelprodukte. Ich will Out-of-the-Box ein gutes Produkt. Und übertakten wird nicht reichen, um RT praxistauglich ans Laufen zu bekommen (das ist natürlich Spekulation aber das ist Deine Übertaktungsbehauptung ja auch).Was du willst ist aber objektiv in der Form dann genauso irrelevant für deine Behauptung zu 1. Gerade bei Enthusiasten, die das maximal mögliche aus ihrer GPU/CPU oder auch RAM-OC holen wollen.

Wir wissen schon von entsprechenden vBIOS mit deutlich höherem Takt als die rund 2GHz, die die Referenz fahren wird. Also nein, Spekulation ist das daher weniger.

Aber ich find's schön, dass man bei OC jetzt argumentiert, dass das ja doofes basteln und nicht entscheidend ist. Naja, wie es einem halt in die eigene Argumentation passt, nech.

Nightspider
2020-10-28, 22:03:49
Dann würden auch die 16 GB der RX 6900 XT nichts mehr retten. Höchstens die RTX 3090 könnte mitziehen.

DirectStorage (DirectX). Schon mal gehört?

Lawmachine79
2020-10-28, 22:04:39
Was du willst ist aber objektiv in der Form dann genauso irrelevant für deine Behauptung zu 1. Gerade bei Enthusiasten, die das maximal mögliche aus ihrer GPU/CPU oder auch RAM-OC holen wollen.
Enthusiasten wollen 24GB Ram statt 16GB. Und mal ernsthaft, welcher Enthusiast will ohne (flüssiges) RT spielen?!



Aber ich find's schön, dass man bei OC jetzt argumentiert, dass das ja doofes basteln und nicht entscheidend ist. Naja, wie es einem halt in die eigene Argumentation passt, nech.
Ditto, siehe 24GB VRAM, RT, DLSS.

Dann würden auch die 16 GB der RX 6900 XT nichts mehr retten. Höchstens die RTX 3090 könnte mitziehen.
Top Dog/Strix/Thiago oder nix :D.

SKYNET
2020-10-28, 22:05:01
Dann erzähl uns was Nvidia in dieser Gen noch rausbringen wird was RDNA2 gefährlich werden kann. Ich bin gespannt.


Suche mal nach der "5". ;)


frag ich mich auch, wenn die customs von navi schon bis 2500 gehen beim takt, das sind nochmals 10% mehr als die FE... und wenn der 6900XT schon die 3090 knackt, wird das auch ne titan nicht mehr richten können gegen die customs ;D

dargo
2020-10-28, 22:05:17
Nicht jeder will Bastelprodukte.
Wird dir das langsam nicht albern? Also ich kann dich bald echt nicht mehr ernst nehmen. Ich frage mich nur noch ob ich schon wetten soll wer von uns beiden schneller ein Grafikkarten-Upgrade im Rechner hat. :ulol:

Matrix316
2020-10-28, 22:05:28
dito ABER 1500€ für team grün vs 1000€ team rot + freesync monitor ...

ich spreche für enthusiasten und keine VRAM krüppel :freak::freak::freak:
Ich hab garnicht dran gedacht, dass mein 4K Monitor ja Freesync hat... :freak: Big Navi wir kommen! :D

Sunrise
2020-10-28, 22:06:42
Sind AIB-Karten mit +10-15% out-of-the-box jetzt eigentlich auch Bastelprodukte?

Fragen über Fragen...

dargo
2020-10-28, 22:08:27
Enthusiasten wollen 24GB Ram statt 16GB. Und mal ernsthaft, welcher Enthusiast will ohne (flüssiges) RT spielen?!

Du meinst dieses flüssige RT in Watch Dogs Legion? ;D Oder vielleicht das flüssige RT in Horizon Zero Dawn? :uponder: Du bist doch sowieso kein Enthusiast. Also was sollen immer diese lächerlichen Posts von dir?

Ex3cut3r
2020-10-28, 22:09:11
Lawmachine79 ist natürlich der ueber Enthusasist. Mit einem 7700k 4 Kern CPU und seinen gewaltigen 16GB DDR4 3000mhz RAM und eine 3090 die er auf Papier gezeichnet hat und bald in sein Gehäuse einsetzen wird. Hut ab! Da kann ein zukünftiger Zen 3 User mit 32GB DDR4 3800mhz CL14 + 6900XT nur von träumen.

lowkres
2020-10-28, 22:09:19
Der Grund wieso die 6800 beim UVP nicht weit weg ist von einer 6800XT könnte darin liegen, dass die 6800 mehr OC Spielraum besitzt und nah an eine XT rankommen könnte.

Mal schauen wann erste Tests kommen werden.

Linmoum
2020-10-28, 22:10:16
Sind AIB-Karten mit +10-15% out-of-the-box jetzt eigentlich auch Bastelprodukte?

Fragen über Fragen...Dass man OC jetzt schon negativ als basteln auslegt, hab ich wirklich noch nie erlebt.

Aber naja, dass AMD nach ganzen sieben Jahren wieder im absoluten High-End Konkurrenz für Team Grün ist, müssen manche wohl erst einmal verdauen. Sind ja damit scheinbar nicht mehr aufgewachsen. ;D

w0mbat
2020-10-28, 22:10:50
Echte Enthusiasten würden DLSS auslachen, die wollen native Auflösung und nicht upsampling. RT @native 4K oder gar nicht.

16GB VRAM sind das Optimum, vor allem mit SAM. Da kann Nvidia einfach nicht mithalten, da sie sowas extem wichtiges wie SAM nicht anbieten können. Die Zukunft basiert auf DirectStorage und SAM. Jetzt noch ne GPU ohne SAM kaufen? Würde ich nicht machen, das ist quasi last gen. Nvidia hinkt von der Technologie einfach zu weit hinterher.

dargo
2020-10-28, 22:12:46
Aber naja, dass AMD nach ganzen sieben Jahren wieder im absoluten High-End Konkurrenz für Team Grün ist, müssen manche wohl erst einmal verdauen. Sind ja damit scheinbar nicht mehr aufgewachsen. ;D
you made my day ;D ;D ;D

Brillus
2020-10-28, 22:14:16
Da die Konsolen "nur" Zen 2 CPUs haben, gehe ich davon nicht aus
Konsolen konnten schon letzter Gen die CPU auf den GPU Speicher drauf. (Die neuern APUs auserdem auch).

Zergra
2020-10-28, 22:14:20
Die 3090 dürfte schon etwas vor der 6900 bleiben, die hatte ja SMA und Auto OC aktiviert.

DrFreaK666
2020-10-28, 22:15:16
Echte Enthusiasten würden DLSS auslachen, die wollen native Auflösung und nicht upsampling. RT @native 4K oder gar nicht.

16GB VRAM sind das Optimum, vor allem mit SAM. Da kann Nvidia einfach nicht mithalten, da sie sowas extem wichtiges wie SAM nicht anbieten können. Die Zukunft basiert auf DirectStorage und SAM. Jetzt noch ne GPU ohne SAM kaufen? Würde ich nicht machen, das ist quasi last gen. Nvidia hinkt von der Technologie einfach zu weit hinterher.

LOL?

dargo
2020-10-28, 22:15:38
Die 3090 dürfte schon etwas vor der 6900 bleiben, die hatte ja SMA und Auto OC aktiviert.
Tja... leider kann Nvidia bei den Features nicht mehr mithalten.

DrFreaK666
2020-10-28, 22:16:12
Konsolen konnten schon letzter Gen die CPU auf den GPU Speicher drauf. (Die neuern APUs auserdem auch).

Stimmt. Total vergessen dass Konsolen einheitlichen RAM haben. Mein Fehler

Lawmachine79
2020-10-28, 22:16:57
Lawmachine79 ist natürlich der ueber Enthusasist. Mit einem 7700k 4 Kern CPU und seinen gewaltigen 16GB DDR4 3000mhz RAM und eine 3090 die er auf Papier gezeichnet hat und bald in sein Gehäuse einsetzen wird. Hut ab! Da kann ein zukünftiger Zen 3 User mit 32GB DDR4 3800mhz CL14 + 6900XT nur von träumen.
Lol, dass ich nicht alle 2 Monate upgrade sondern lieber alle 3 Jahre richtig zulange macht mich natürlich zum Casual User. Davon ab habe ich das auch nicht von mir behauptet - aber wenn ich schon eine 3090 will, will ein Enthusiast sie erst Recht.

Du meinst dieses flüssige RT in Watch Dogs Legion? ;D Oder vielleicht das flüssige RT in Horizon Zero Dawn? :uponder: Du bist doch sowieso kein Enthusiast. Also was sollen immer diese lächerlichen Posts von dir?
Ich hoffe, Du behauptest von Dir nicht, Enthusiast zu sein. Du kaufst ja seit Jahren Midrangekarten.

Linmoum
2020-10-28, 22:17:40
Die 3090 dürfte schon etwas vor der 6900 bleiben, die hatte ja SMA und Auto OC aktiviert.Rage bringt laut AMD nur 1-2% und SAM gibt's for free mit Zen3 und 5xx-Chipset. Wenn NV das nicht bietet, dann ist das nicht AMDs Schuld. Features und so.

Ex3cut3r
2020-10-28, 22:19:02
Lol, dass ich nicht alle 2 Monate upgrade sondern lieber alle 3 Jahre richtig zulange macht mich natürlich zum Casual User.

Nein, deine große Klappe passt aber irgendwie mit deiner HW nicht zusammen. Ganz ehrlich ne 3090 wird von deine 4C CPU ausgebremst werden, wurde dir eher max ne 2080S empfehlen. Das bringt nix. Ich wurde komplett aufrüsten + 3090 dann. Natürlich auf Zen 3, denn alles andere ist jetzt Last Gen.

dargo
2020-10-28, 22:20:54
Ich hoffe, Du behauptest von Dir nicht, Enthusiast zu sein. Du kaufst ja seit Jahren Midrangekarten.
Ich habe mich nie als Enthusiasten gesehen, eher achte ich stärker auf gutes P/L. Ich brauche keine virtuelle Penisverlängerung. ;)

Lawmachine79
2020-10-28, 22:20:57
Nein, deine große Klappe passt aber irgendwie mit deiner HW nicht zusammen. Ganz ehrlich ne 3090 wird von deine 4C CPU ausgebremst werden, wurde dir eher max ne 2080S empfehlen. Das bringt nix. Ich wurde komplett aufrüsten + 3090 dann.
Meine 4C CPU passt hervorragend zu meiner alten 1080TI. Mein Zen3-Ryzen 9 (den ich leider noch nicht habe, weil - wie Eure AMD-Karten - leider noch nicht verfügbar) passt hervorragend zu meiner neuen RTX 3090. Ich überspringe Quasi-Sidegrades wie 2080TI und 10700K.

Ich brauche keine virtuelle Penisverlängerung. ;)
Nein? Welche denn ;)?

Kartenlehrling
2020-10-28, 22:21:06
Was ist das für ein Freischaltung-Code den er auf dem T-Shirt stehen hat?
Rauf, Rauf, Runter, Runter, Rechts, Links, Rechts, Links, B, A, Start


https://twitter.com/Radeon/status/1321519082957606913

kleeBa
2020-10-28, 22:21:45
Ich bin echt in der Zwickmühle... habe einen GSync Monitor... aber eine 3080 mit 10 GB für 150-200€ mehr als die AMD Karte mit 10GB? Ryzen 3 auf der Wunschliste ��
Holla, geht mir ähnlich.
X570 Mobo liegt schon hier, warte nur noch auf den Zen3 Launch um meinen Intel abzulösen.
3080 war fest eingeplant, aber Verfügbarkeit und die damit zusammenhängende Preissituation plus die VRAM-Diskussion lassen mich ziemlich wanken. Die heutige Präsentation der neuen AMD Generation könnte mich endgültig umwerfen. :freak:
Ich selbst kann mir den neuen Monitor sogar schönreden. Wollte eh von 1440p auf 2160p aufrüsten.

Ach was soll's, nach 13 Jahren wieder was Rotes im Rechner. Und dann sogar noch alles. ;D

Ex3cut3r
2020-10-28, 22:21:48
Meine 4C CPU passt hervorragend zu meiner alten 1080TI. Mein Zen3-Ryzen (den ich leider noch nicht habe, weil - wie Eure AMD-Karten - leider noch nicht verfügbar) passt hervorragend zu meiner neuen RTX 3090.

Du und ein AMD Produkt im Rechner? Lass das mal lieber, hol dir nen 10900k ist besser. ;) ;D

Jupiter
2020-10-28, 22:21:52
DirectStorage (DirectX). Schon mal gehört?

Na dann haben die PCs ja mehr als genug Speicher und da würden nach deiner Argumentation auch 4 GB VRAM reichen.

Top Dog/Strix/Thiago oder nix :D.

Bei Preisen von 1800 Euro ist mir die Grafikkarten-Technik zu schnell veraltet. In den Ton investiere ich für ein optimales Hörerlebnis in Videospielen dagegen lieber 15 000 Euro. Lautsprecher bleiben ein bisschen länger aktuell. Aber wer hat, der hat.

Nightspider
2020-10-28, 22:23:35
Ob der GDDR6 bei SAM immer noch schneller ist als hochgezüchteter DDR4 RAM?

Wäre interessant ob es noch Vorteile gibt wenn man RAM OC mit Timing Tuning betreibt.

Wenn ich mich richtig erinnere waren die Latenzen von GDDR6 ja nicht mal so heftig weil die Chips auf Bandbreite optimiert sind? Oder verwechsel ich jetzt was?

Denn Bandbreite selbst bringt bei der CPU in Spielen ja meist nicht viel. (Siehe Dual Channel vs Quad Channel RAM)

Vor allem wundert es mich das es in 4K noch so viel bringt bei Spielen wie Borderlands.

Lawmachine79
2020-10-28, 22:24:33
Bei Preisen von 1800 Euro ist mir die Grafikkarten-Technik zu schnell veraltet. In den Ton investiere ich für ein optimales Hörerlebnis in Videospielen dagegen lieber 15 000 Euro. Lautsprecher bleiben ein bisschen länger aktuell. Aber wer hat, der hat.
Ja, habe schon freudiger auf "Kaufen" geklickt. Aber ich behalte Hardware immer 2-3 Jahre und rechne es auf die Nutzungszeit, von daher...


Du und ein AMD Produkt im Rechner? Lass das mal lieber, hol dir nen 10900k ist besser. ;) ;D
Ich hatte jahrelang fast nur AMD-Produkte im Rechner. Bin halt Leistungs-Fanboy ;). Bis Bulldozer hatte ich sogar nur AMD-CPUs, aber danach war eben jahrelange Unbrauchbarkeit angesagt. Zen 2 war wieder gut, aber nicht gut genug zum Wechseln. Wenn was Gutes kommt, wechsle ich die Marke, egal ob CPU/GPU. Mit "was Gutes" meine ich dann aber schon auch einen deutlichen Leistungs- und/oder Featurevorsprung, der Wechsel kostet eine Art "Wechselbonus".

Nightspider
2020-10-28, 22:25:15
Ach was soll's, nach 13 Jahren wieder was Rotes im Rechner. Und dann sogar noch alles. ;D

Etwa auch mit roter SSD? :D

https://techreport.com/r.x/radeon-r7ssd/box.jpg

Linmoum
2020-10-28, 22:31:09
Was ist das für ein Freischaltung-Code den er auf dem T-Shirt stehen hat?
Rauf, Rauf, Runter, Runter, Rechts, Links, Rechts, Links, B, A, Start


https://twitter.com/Radeon/status/1321519082957606913
https://en.wikipedia.org/wiki/Konami_Code

DrFreaK666
2020-10-28, 22:32:15
https://en.wikipedia.org/wiki/Konami_Code

Kauft AMD Konami? :ugly:

kleeBa
2020-10-28, 22:33:08
Etwa auch mit roter SSD? :D
Ach....
Lassen wir SSD, RAM und den ganze Kleinkram mal lieber weg Spider. :tongue:

Brillus
2020-10-28, 22:34:09
Was ist das für ein Freischaltung-Code den er auf dem T-Shirt stehen hat?
Rauf, Rauf, Runter, Runter, Rechts, Links, Rechts, Links, B, A, Start


https://twitter.com/Radeon/status/1321519082957606913
https://en.wikipedia.org/wiki/Konami_Code

Edit: Zu spät

Ravenhearth
2020-10-28, 22:35:09
Also anhand der Bilder komme ich auf ~521mm² Die Size (bei 45mm Kantenlänge des Package). Da die Herstellerangabe immer etwas kleiner ausfällt als Messungen von außen, könnten die 505mm² hinkommen.

Zossel
2020-10-28, 22:35:16
Für keinen Cache der Welt brauchst du einen Treiber. Der buffert einfach die zuletzte verwendeten Daten, dadurch muss nur einmalig vom Bus gelesen werden und nicht dauernd. Und sie erreichen dadurch laut eigene Aussagen eine 58%iger Hitrate, also spart man sich mehr als die Hälfte der Speicherzugriffe und mehr als verdoppelt damit effektiv die Bandbreite.

Klares Jein:

IMHO hat AVX Instruktionen oder Präfixe oder Adressierungsarten um am Cache vorbei zu arbeiten um in bestimmten Situationen Cache-Trashing zu vermeiden, z.b. um große Mengen an Resultaten raus zuschreiben usw..

OpenCL hat spezielle Instruktionen oder Präfixe oder Adressierungsarten oder mallocs um Speicher so zu taggen das weniger Kohärenztraffic entsteht.

dargo
2020-10-28, 22:37:50
Also anhand der Bilder komme ich auf ~521mm² Die Size (bei 45mm Kantenlänge des Package). Da die Herstellerangabe immer etwas kleiner ausfällt als Messungen von außen, könnten die 505mm² hinkommen.
Lol... die 505mm² wurden von Anfang an spekuliert. :freak:

[MK2]Mythos
2020-10-28, 22:43:20
Warum ist das Ding denn jetzt so groß? Verzeihung falls ich das zwischen den ganzen Fanboywar-Postings überlesen habe.

M4xw0lf
2020-10-28, 22:44:39
Vong hocher niceigkeit. Iirc gab es doch kürzlich auch einen Leak, der RT auf Turing-Niveau besagte. Sowas in der Art wird es wohl sein, bei gleichwertiger Leistung wäre es wohl heute gezeigt worden.
Preise sind leider in beiden Lagern scheiße.

rentex
2020-10-28, 22:44:49
Kommt mal bisserl runter...Lisa spricht und ihr dreht euch im Kreis. Reviews und Real Life Feedback abwarten, dann könnt ihr den Schampus köpfen.

w0mbat
2020-10-28, 22:45:12
Measured by AMD engineering labs 8/17/2020 on an AMD RDNA 2 based graphics card, using the Procedural Geometry sample application from Microsoft’s DXR SDK, the AMD RDNA 2 based graphics card gets up to 13.8x speedup (471 FPS) using HW based raytracing vs using the Software DXR fallback layer (34 FPS) at the same clocks. Performance may vary. RX-571
https://www.amd.com/en/technologies/rdna-2
Ne 2080 Ti schafft hier ca. 400 FPS, ne 3080 über 600 FPS. Nur so als Einschätzung der RT Leistung.

Hakim
2020-10-28, 22:46:29
Ich meine die Idee mit SAM exklusiv auf zen3 und 500er mobos ist natürlich geil für AMD um die Leute auf neues Sys zu bewegen, aber wäre dennoch cool gewesen wenn es die aktuelle gen auch schon unterstützen würde. Das Ding ist das anderseits Leute mit Intel Sys dann immer im Kopf hätten das man nicht die max mögliche Performance raus holt, auch wenn die Diff nicht die Welt ist (wobei ein Beispiel war >10%).

M4xw0lf
2020-10-28, 22:48:43
Ne 2080 Ti schafft hier ca. 400 FPS, ne 3080 über 600 FPS. Nur so als Einschätzung der RT Leistung.

Passt zu dem Gerücht das ich im Kopf hatte.

DrFreaK666
2020-10-28, 22:50:35
Passt zu dem Gerücht das ich im Kopf hatte.

meinst du das?
https://www.igorslab.de/wp-content/uploads/2020/10/01-Percent.png

SKYNET
2020-10-28, 22:52:21
Vong hocher niceigkeit. Iirc gab es doch kürzlich auch einen Leak, der RT auf Turing-Niveau besagte. Sowas in der Art wird es wohl sein, bei gleichwertiger Leistung wäre es wohl heute gezeigt worden.
Preise sind leider in beiden Lagern scheiße.


naja, AMD hat auch generell nix zu rdna2 gezeigt vorher... von daher könnte es auch sein, das mit aktivierten RT navi dann ampere so richtig ans bein pisst ;D

bbott
2020-10-28, 22:54:05
Ne 2080 Ti schafft hier ca. 400 FPS, ne 3080 über 600 FPS. Nur so als Einschätzung der RT Leistung.

Wenn das stimmt wäre das fast genau zwischen 2080 Ti und 3080. Evtl. könnten neuere Treiber noch ein paar Prozente bringen?! Damit wäre dies AMD kaum als minus Punkt anzukreiden, bei der derzeitigen geringen Bedeutung von RT mMn nicht wirklich gerechtfertigt.

Was mich erschreckt ist das zwischen RX470 und 3080/6800XT nur etwa Faktor 4x liegen soll, bei 110W vs. 300/320W :mad:
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-3080-vs-AMD-RX-470/4080vs3640

M4xw0lf
2020-10-28, 22:55:31
meinst du das?
https://www.igorslab.de/wp-content/uploads/2020/10/01-Percent.png
Mag der gleiche Inhalt sein, aber wer da von wem abgeschrieben hatte, weiß ich nicht mehr. ;)

han_solo
2020-10-28, 22:55:42
meine Fresse, wieviele hier wohl kleine Schwänze haben müssen, wenn sie sich darüber definieren, ob sie eine grosse Karte kaufen oder jemand anders niedermachen, weil er eine midrange-Karte hat. Alter Leute, ihr seid noch beschissener geworden seit meinem letzten Account-.-
Wo sind nur so Leute wie Thowe geblieben?

Zossel
2020-10-28, 22:59:35
Aber was genau ist jetzt das besondere an dem Smart Memory Access? Die CPU kann nun den ganzen VRAM adressieren statt nur 256MB. OK. Warum bringt das so "viel" Performance? Und warum ist das Ryzen 5000 exklusiv? Ist das nicht eine Treibersache oder braucht man dafür CPU-seitige HW-Unterstützung? Und falls ja, ist das ein offener Standard, den Intel oder Nvidia auch implementieren können?

Ich habe mich auch schon gewundert warum nur 256MB bei mir eingeblendet werden:

$ lspci -vvvv -s 0b:00.0
0b:00.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] Baffin [Radeon RX 550 640SP / RX 560/560X] (rev ff) (prog-if 00 [VGA controller])
Subsystem: Sapphire Technology Limited Radeon RX 550 640SP
Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort+ >SERR- <PERR- INTx-
Latency: 0, Cache Line Size: 64 bytes
Interrupt: pin A routed to IRQ 307
Region 0: Memory at e0000000 (64-bit, prefetchable) [size=256M]
Region 2: Memory at f0000000 (64-bit, prefetchable) [size=2M]
Region 4: I/O ports at f000 [size=256]
Region 5: Memory at fe900000 (32-bit, non-prefetchable) [size=256K]
Expansion ROM at 000c0000 [disabled] [size=128K]
Capabilities: <access denied>
Kernel driver in use: amdgpu
Kernel modules: amdgpu

$

Wer weiß da mehr?

Screemer
2020-10-28, 23:00:03
Ne 2080 Ti schafft hier ca. 400 FPS, ne 3080 über 600 FPS. Nur so als Einschätzung der RT Leistung.
wo liegt eine 3070?

sunshine
2020-10-28, 23:00:36
Gut, warte ich halt weiter. Erst die 1080 Ti verkauft, gerade den 9700k+Z390 abgegeben. Wird es also Ende des Jahres oder Anfang naechsten Jahres ein Ryzen 5800 und eine Radeon 6800 XT. Da werde ich glatt ein wenig nostalgisch :-) Wartezeit kein Problem, mein Kind ist gerade 3 Wochen alt und fordert viel Aufmerksamkeit.

Zossel
2020-10-28, 23:01:14
wie sieht es eigentlich mit der taktbarkeit bei gpus bezüglich des caches aus?
ist das so wie bei cpus wo sich cpus mit weniger cache besser takten lassen? siehe i7 3960x vs i7 3930k

Für beides gilt die selbe Physik.

Unicous
2020-10-28, 23:02:24
Finde es interessant, wie einige Experten wieder einmal den Launch kritisieren, weil nicht alle Details in der knapp 25 minütigen Präsentation offengelegt wurden und darüber total pikiert sind.

Das war ein Launch-Event für die Massen und unter 30 Minuten für solch einen Launch sind genau richtig, das Video wurde mittlerweile schon über 500K mal geklickt. (Eben waren es noch 550K, jetzt sind es schon 570K edit: jetzt 612K)

Der Rest folgt in ein paar Wochen wie es üblich ist.


Generell betrachtet ein sehr gutes Produkt. Die Preisgestaltung der 6800 und 6800XT sehe ich etwas kritisch, könnte mir aber vorstellen, dass AMD Raum zum "jebaiten", falls Nvidia reagiert. Ich denke die Preisgestaltung bei der 6900XT geht in Ordnung wenn man sie in Verhältnis zur 3090 setzt. Dennoch ist der Trend natürlich negativ zu sehen, aber auch den hohen Preisen für die bleeding edge Prozesse und den VRAM geschuldet.

Dass AMD es geschafft hat diese Effizienzsteigerungen diesmal nicht völlig zunichte zu machen in dem sie ihre Referenzkarten an die Kotzgrenze takten ist auch eine besondere Erwähnung wert, der Seitenhieb für Nvidia und seinen Monsterkarten sorgt auch für einen gewissen Schmunzler.

Der fette Infinity Cache sorgt zwar nicht mehr für große Überraschung weil es sich in den letzten Tag dann doch angedeutet hat, dass das Gerücht sich bewahrheitet, aber dennoch finde ich es spannend, dass AMD so viel Die-Fläche dafür opfert. Sie sparen dadurch natürlich Fläche für ein größeres SI ein und da sie eh keinen Zugriff auf GDDR6X RAM haben ist der Schritt unvermeidlich gewesen. Stellt sich die Frage ob auch die anderen Chips einen Cache bekommen. Es würde sich ja anbieten diesen für Navi 22 zu halbieren.

Die Synergieeffekte durch die neue Ryzen-Plattform sind meiner Meinung nach ein großer Marketing-Coup und dürfte dazu führen, dass AMD deutlich mehr Komplettsysteme verkaufen wird. AMD kann also auch Intels letzte Bastion angreifen, bis auf Weiteres dürfte es keine große Gegenwehr geben.

Screemer
2020-10-28, 23:02:27
Gut, warte ich halt weiter. Erst die 1080 Ti verkauft, gerade den 9700k+Z390 abgegeben. Wird es also Ende des Jahres oder Anfang naechsten Jahres ein Ryzen 5800 und eine Radeon 6800 XT. Da werde ich glatt ein wenig nostalgisch :-) Wartezeit kein Problem, mein Kind ist gerade 3 Wochen alt und fordert viel Aufmerksamkeit.
nachträglich noch alles gute und das warten wird sich lohnen und damit mein ich nicht deine neue hw ;)

HOT
2020-10-28, 23:07:30
So viel Die-Fläche geht für den Cache mMn gar nicht drauf, weil er gut platziert ist. Man verwendet sicherlich viel Raum der sowieso nicht optimal hätte bestückt werden können, macht es mir den Eindruck, man macht das Die "voll". Klar sind das ein paar mm² mehr als vorher, aber ganz so dramatsich scheint das nicht zu sein. Mehr Speichercontroller hätten das die ebenfalls etwas voller gemacht und offenbar auch mehr Strom verbraucht als der Cache. Von daher ist die Wahl so verständlich.

Zudem konnte man ja offenbar noch gar nicht alles präsentieren, weil viel Softwarekram offenbar schlichtweg nicht fertig ist und noch etwas Zeit braucht. Nur um die Kritik an der Präsi noch mal zu erwähnen. Und in einer Werbeveranstaltung wie dieser ist es auch nicht ratsam RT-Benches zu zeigen, wenn das nicht die Stärke des Produktes ist.

sunshine
2020-10-28, 23:09:41
nachträglich noch alles gute und das warten wird sich lohnen und damit mein ich nicht deine neue hw ;)
Danke :-) Hier kehrt so langsam mehr Normalitaet ein und ich bekomm mal mehr als 3 Stunden Schlaf. Daher ist auch wieder Kapazitaet im Kopf fuer Hardware Tagtraeume.

BTT: Urspruenglich wollte ich die 3080, aber die 10gb passen mir nach den 11gb der 1080 Ti einfach nicht in den Kram. Hoffentlich sehen die Tests der 6800 XT gescheit aus, dann steige ich komplett auf Team Rot um. Mein Office PC ist es ja schon.

bbott
2020-10-28, 23:12:15
So viel Die-Fläche geht für den Cache mMn gar nicht drauf, weil er gut platziert ist. Man verwendet sicherlich viel Raum der sowieso nicht optimal hätte bestückt werden können, macht es mir den Eindruck, man macht das Die "voll". Klar sind das ein paar mm² mehr als vorher, aber ganz so dramatsich scheint das nicht zu sein. Mehr Speichercontroller hätten das die ebenfalls etwas voller gemacht und offenbar auch mehr Strom verbraucht als der Cache. Von daher ist die Wahl so verständlich.

Zudem konnte man ja offenbar noch gar nicht alles präsentieren, weil viel Softwarekram offenbar schlichtweg nicht fertig ist und noch etwas Zeit braucht. Nur um die Kritik an der Präsi noch mal zu erwähnen. Und in einer Werbeveranstaltung wie dieser ist es auch nicht ratsam RT-Benches zu zeigen, wenn das nicht die Stärke des Produktes ist.

Nicht zu vergessen, das man 128bit Speicher interface einspart.

sapito
2020-10-28, 23:13:11
Ich habe mich auch schon gewundert warum nur 256MB bei mir eingeblendet werden:

Wer weiß da mehr?

ich versuche es mal:

PCIe standanrt > junks (blöcke) a 256 MiB werden angesprochen > verbrauchst du 1 BIT mehr = 256 MiB mehr VRAM
das kann sich summieren und zu "zu wenig VRAM" führen >> hallo dargo XD

momentan haben wir teils drastische Unterschiede zw allocated VRAM und "real" verbrauchtem VRAM

hier können sich IMHO die Zahlen angleichen > overhead wird es immer geben IMHO
ABER er wird unter umständen nicht mehr 2GiB ausmachen sondern 200MiB
(das ist anschaulich gemeint)

hier gewinnt team rot vs team grün generell

DLSS und andere Bild verschlimmbessungs dinge helfen team grün hier leider nicht.

basix
2020-10-28, 23:15:36
Mythos;12477672']Warum ist das Ding denn jetzt so groß? Verzeihung falls ich das zwischen den ganzen Fanboywar-Postings überlesen habe.

N21 trägt 128 MByte "Infinity Cache", wohl so eine Art L3-Cache. Das braucht Platz.

Für mich ist der Infinity Cache und die grossen L3 Caches bei Zen ein Indiz, das man bald mal den L3 3D-Stacken wird.

aufkrawall
2020-10-28, 23:18:50
DLSS und andere Bild verschlimmbessungs dinge helfen team grün hier leider nicht.
Laut Ex3cut3r sieht btw. auch DLSS 2.0 immer noch unsauber auf Monitoren <4k aus.

basix
2020-10-28, 23:20:20
Sie haben den L3$ von Zen als Basis genommen, deswegen L3$. Aber er wird wohl effektiv auch ein L3$ sein. Zudem wohl auch ein Victim Cache, welcher parallel zum GDDR6 Interface läuft:

16*64B*2.0 GHz = 2.0 TB/s
0.58x Hit Rate * 2.0 TB/s = 1152 GB/s
1152 GB/s + 512 GB/s = 1664 GB/s


1.5 (256b vs. 384b) * 2.17 = 3.26
3.26 * 512 GB/s = 1666 GB/s --> Passt :D


AMD betreibt den IF$ wirklich parallel zum GDDR6 Interface, sie geben nämlich genau die 1664 GB/s an welche ich oben ausgerechnet habe.
https://www.amd.com/en/technologies/rdna-2

=============================================================================
Ich habe immer noch folgende Fragen zu RDNA2:

Da der IF$ >2.0 TB/s Bandbreite bietet: Compute und RT Leistung massiv beschleunigt?
Super Resolution: Nur mit RT?

w0mbat
2020-10-28, 23:20:51
wo liegt eine 3070?
kA, gibt noch nicht so viele benches mit der.

Rolsch
2020-10-28, 23:23:03
Der Infinity Cache soll genauso aufgebaut sein wie der Zen3 L3 Cache. Das dürfte auch die Grundvorraussetzung für Smart Access Memory sein, ein schneller GPU-Cache wo die CPU die Daten hinstreamen kann ohne sich mit den Speicherchips rumschlagen zu müssen.

basix
2020-10-28, 23:23:59
Der Infinity Cache soll genauso aufgebaut sein wie der Zen3 L3 Cache. Das dürfte auch die Grundvorraussetzung für Smart Access Memory sein, ein schneller GPU-Cache wo die CPU die Daten hinstreamen kann ohne sich mit den Speicherchips rumschlagen zu müssen.

Sozusagen ein Remote L3$ via PCIe 4? Interessanter Gedanke. Aber SAM soll doch den gesamten Speicherbereich der GPU adressieren können?!

sapito
2020-10-28, 23:24:38
Laut Ex3cut3r sieht btw. auch DLSS 2.0 immer noch unsauber auf Monitoren <4k aus.
++

hier 2080ti

avangers @1440p > dlls 2@quality = 960p 10-15 FPS mehr (als ohne) ABER 0 NULL kbit weniger VRAM allocated/ real > habe sogar das feeling das es unrunder (hakeliger) läuft als ohne (native 1440p) :freak::freak::freak:

Zossel
2020-10-28, 23:32:55
Sind AIB-Karten mit +10-15% out-of-the-box jetzt eigentlich auch Bastelprodukte?

Klares JA! Wie man an dem Kondensatoren Debakel gesehen haben die AIBs schlicht keine Kompetenz die über das OC-Gefrickel von ambitionierten Bastlern heraus geht!

Cubitus
2020-10-28, 23:40:00
Massenkarte für 499€ und dann noch mit 8GB. ;D Sorry... mehr muss ich nicht wissen. :D

Und bei AMD muss die CPU gleich noch dazugekauft werden..
Und die Masse spielt immer noch mit 1080p bzw. etwas 1440p schau mal im Steam Survey..

Vielleicht klebt Sue auch gleich ne Zen3 mit auf die Verpackung und verkauft die großen Karten im Vorteilspack :freak:

w0mbat
2020-10-28, 23:43:36
Wäre ziemlich genial. Wer Zen3 + RDNA2 zusammen kauft, bekommt zB 10% Rabatt.

Iscaran
2020-10-28, 23:44:56
Wie groß ist denn 1 MB cache so in mm^2 ?

Für 80 CUs basierend auf Navi10 Layout etc. hatten wir früher ja eine Chipgröße von ~389 mm^2 kalkuliert.

Bei 505 mm^2 Chipgröße wären das immer noch ca 116 mm^2 für den Cache.

Kommt man denn mit 1MB = 1mm^2 ungefähr hin ?

Zum DLSS-Konter:

DirectML: https://docs.microsoft.com/en-us/windows/win32/direct3d12/dml-intro
Das kann denoisen und upscalen inkl. Neuronles Netz.
Na DLSS for DX anyone ?

Dazu von OC3d:
https://www.overclock3d.net/news/software/microsoft_s_directml_is_the_next-generation_game-changer_that_nobody_s_talking_about/1
https://www.overclock3d.net/news/software/amd_plans_to_show_how_rdna_2_enables_a_new_level_of_fidelity_in_these_5_games/1

In der XBox wird DirectML ja auch genutzt. Klar dass Microsoft also ein Interesse hat hier ein DLSS-"Like" Feature zu implementieren das auch mit den AMD-Chips in ihren Konsolen läuft.

Achso und dann gabs da ja noch diese Twittermeldungen: https://twitter.com/tomwarren/status/1321489315428519936


Aber das ist alles noch eine Wundertüte. Ich vermute mal Ende November/ 8.12 wissen wir da mehr.

Benutzername
2020-10-28, 23:52:08
Bei der Slide mit "wir haben die Karte kleiner gebaut, damit sie Standardgrße hat" musste ich ein wenig lachen, weil das so klingt wie "Die Konkurrenz hat einen unerwartet großen und wertigen Kühler gebracht, der besser ist als unserer, aber dafür ist unser halt kleiner". Aber wenn das mit den 37dB stimmt, ist das ja schonmal ganz gut. Das heißt, eine Nitro unterbietet das bei gleicher Leistung :D.

Im Vergleich zu den früheren Düsenfliegern ist 37 dB ja flüsterleise.


Aber was genau ist jetzt das besondere an dem Smart Memory Access? Die CPU kann nun den ganzen VRAM adressieren statt nur 256MB. OK. Warum bringt das so "viel" Performance? Und warum ist das Ryzen 5000 exklusiv? Ist das nicht eine Treibersache oder braucht man dafür CPU-seitige HW-Unterstützung? Und falls ja, ist das ein offener Standard, den Intel oder Nvidia auch implementieren können?






Tja, ob das wirklich Hardware erfordert und nur mit Ryzen5000 läuft oder ob das einfach eine Aussperrung der älteren Hardware ist? Und 500er Mobos sollten da eigentlich egal sein. Okay, PCIe3.0 ist halt entsprechend langsamer Aber ansonsten sollte das auch funktionieren?


Intel wird wohl über das Patentaustauchabkommen auch auf SAM zugreifen können. Aber intel präsentiert ja bald seine eigenen Grakas, da bezweifele Ich daß sie AMD einen Vorteil gewähren werden weil das Patentaustasuchabkommen sich wohl nciht auf Grafikchips bezieht. ABER da kann Ich natürlich falsch liegen.

Locuza
2020-10-28, 23:54:27
Wobei ja noch nicht klar ist, ob der Infinity Cache bei allen Produkten zum Einsatz kommt oder nur bei Navi 21.
Laut KittyYYuko* soll Navi24 nur über ein 64-Bit Interface verfügen und 24 Compute Units beherbergen.
Ein Infinity Cache soll auch dort mit dabei sein:
https://twitter.com/KittyYYuko/status/1318116657470996482

Wenn man sich Navi22 anschaut, hat der genauso viele Compute Units wie Navi10, aber nur ein 192-Bit Interface, gegenüber den 256-Bit bei Navi10.
Navi23 hat 32 Compute Units, zwei Shader Engines und 64 ROPs und ist auch nur mit 128-Bit GDDR6 bestückt.
Es scheint so, als ob AMD den Infinity Cache für die ganze GPU-Reihe verwenden wird, denn ansonsten wäre es schwer überhaupt irgendeine GPU von denen, mit dem relativ schmalen Interface, zu füttern.
Navi21 hat 128MB, spekulativ könnte Navi22 und Navi23 64MB haben und Navi24 nur 32MB?

*KittyYYuko war iirc die Person, die Monate vor der Ampere-Präsentation von Nvidia 128 FP-ALUs pro SM verlautet hat.

Ja aber du hast 4 Packer pro Shader engine? oder was heißt das sc bei packer? Was machen die Packer überhaupt?

https://tpucdn.com/gpu-specs/images/g/861-block-diagram.jpg
Ja, sorry, mein Gehirn war schon im Autopilot-Modus mit fehlerhaften Copy&Paste-Mechanismen.
Bei Navi21/22/23 hat jeder Rasterizer (SC = Scan Converter) nun 4 Packer, anstatt 2.
Ich vermute die Packer sind am Ende des Rasterizers dafür zuständig, die Pixel-Quads (2x2 Pixel) an den Shader Processor Input (SPI) zu liefern, der dann Pixel-Shader Wavefronts startet.
Das neue Rasterizer-Design sollte dann ebenso viele Pixel-Quads liefern können, wie zwei ältere Rasterizer-Designs davor.

Rolsch
2020-10-28, 23:56:28
Sozusagen ein Remote L3$ via PCIe 4? Interessanter Gedanke. Aber SAM soll doch den gesamten Speicherbereich der GPU adressieren können?!
Ja so eine Art Blitter. Man reserviert einen kleinen Teil des L3 Caches und nutzt den für blitzschnelle Kopieraktionen in den InfinityCache der GPU. Würde erklären warum man SAM im Bios freischalten muss und das die Spieleentwickler das explizit benutzen müssen. Würde aber natürlich auch den L3-Cache verkleinern.

Hakim
2020-10-29, 00:02:47
Aber das ist alles noch eine Wundertüte. Ich vermute mal Ende November/ 8.12 wissen wir da mehr.

Ja beim Cache will ich unbedingt Tests abwarten, nicht das es wie bei SSDs Controllern ist, zu 95% wird man keine Probleme haben mit, Solange der Cache es mitmacht oder so :)

Nightspider
2020-10-29, 00:02:48
Wenn der Infinity Cache so effizient ist wird er zukünftig wohl bei allen RDNA2+ Chips Verwendung finden.
Gerade im mobilen Bereich (Rembrandt?) wird das ja viel bringen, wenn man eine viel höhere Bandbreite bekommt und gleichzeitig Strom spart.

Könnte man damit eventuell bei kleineren Laptop GPUs (oder größeren APUs) auf GDDR verzichten und mit DDR5 auskommen?
Das könnte ein fließender Übergang werden.

Auf der anderen Seite würden mobile Prozessoren durch SAM auch vom schnellen GDDR6 profitieren, wenn vorhanden.
Da könnte der Unterschied von SAM in Laptops gar noch größer ausfallen, weil der Hauptspeicher ja oft längst nicht so hohe Taktraten hat wie in vielen Desktop PCs.

bbott
2020-10-29, 00:20:07
Was würde dagegen sprechen Boardpartnern eine 6900XT mit 32GB zu erlauben? Damit würde ein weiteres Argument für die 3090 wegfallen *g*

Daredevil
2020-10-29, 00:23:23
Wenn Apple dieses Jahr echt noch Updates für ihre Macs plant, wird da bestimmt ne BigNavi drin stecken. Bislang gabs als Update ja auch die VII, die 5700Xt, why not more und 32GB?
Die Mac User haben Bock auf 32GB. ^^

][immy
2020-10-29, 00:35:04
Wenn Apple dieses Jahr echt noch Updates für ihre Macs plant, wird da bestimmt ne BigNavi drin stecken. Bislang gabs als Update ja auch die VII, die 5700Xt, why not more und 32GB?
Die Mac User haben Bock auf 32GB. ^^
Seit wann verbaut Apple die neuste Tech in ihren Mac Produkten?
Aber abgesehen davon, RDNA 1/2 ist für die Spiele Sparte, für den professionellen Gebrauch sollen diesmal ja richtig neue Chips kommen, die wohl mehr mit GCN als RDNA zu tun haben.

MikePayne
2020-10-29, 01:05:05
Dass man OC jetzt schon negativ als basteln auslegt, hab ich wirklich noch nie erlebt.

Aber naja, dass AMD nach ganzen sieben Jahren wieder im absoluten High-End Konkurrenz für Team Grün ist, müssen manche wohl erst einmal verdauen. Sind ja damit scheinbar nicht mehr aufgewachsen. ;D

Hatte ich vor paar Tagen auch schon feststellen müssen. Lawmachine gibt wieder Gas :ugly: Dafür ist Dural abgetaucht.

Holla, geht mir ähnlich.
X570 Mobo liegt schon hier, warte nur noch auf den Zen3 Launch um meinen Intel abzulösen.
3080 war fest eingeplant, aber Verfügbarkeit und die damit zusammenhängende Preissituation plus die VRAM-Diskussion lassen mich ziemlich wanken. Die heutige Präsentation der neuen AMD Generation könnte mich endgültig umwerfen. :freak:
Ich selbst kann mir den neuen Monitor sogar schönreden. Wollte eh von 1440p auf 2160p aufrüsten.

Ach was soll's, nach 13 Jahren wieder was Rotes im Rechner. Und dann sogar noch alles. ;D

Läuft bei Dir :up:

r3ptil3
2020-10-29, 01:22:18
Wieso hat eigentlich AMD bei den Folien der 6800 XT unten nicht angegeben "mit Smart Access Memory"?

https://pics.computerbase.de/9/5/6/0/7-e189520be9973099/13-1080.433f38a4.png

Bei der 6800 und 6900 wurde es beide Male erwähnt.

DrFreaK666
2020-10-29, 01:36:27
Wieso hat eigentlich AMD bei den Folien der 6800 XT unten nicht angegeben "mit Smart Access Memory"?

https://pics.computerbase.de/9/5/6/0/7-e189520be9973099/13-1080.433f38a4.png

Bei der 6800 und 6900 wurde es beide Male erwähnt.

Vielleicht haben sie es vergessen einzutragen oder es wurde ohne dieses Feature gebencht. Ich denke hier wird das keine so genau wissen

Lawmachine79
2020-10-29, 01:58:47
Lawmachine gibt wieder Gas :ugly:
Nachdem "Team Rot" wochenlang seine Notdurft in diversen Amperethreads verrichtet hat, möchte ich hier jetzt nicht fehlen ;).

CompuJoe
2020-10-29, 02:07:30
Wieso hat eigentlich AMD bei den Folien der 6800 XT unten nicht angegeben "mit Smart Access Memory"?

https://pics.computerbase.de/9/5/6/0/7-e189520be9973099/13-1080.433f38a4.png

Bei der 6800 und 6900 wurde es beide Male erwähnt.

Wenn ich das so richtig im Stream verstanden habe, kommt das mit SAM und Rage noch dazu (Additional Performance) also waren die Benchmarks ohne.

Bin gerade etwas Happy das mein 3080 bei Amazon storniert wurde ^^

Isen
2020-10-29, 02:28:41
Wieso hat eigentlich AMD bei den Folien der 6800 XT unten nicht angegeben "mit Smart Access Memory"?

https://pics.computerbase.de/9/5/6/0/7-e189520be9973099/13-1080.433f38a4.png

Bei der 6800 und 6900 wurde es beide Male erwähnt.

Die Ergebnisse, siehe Fußnoten, sind alle ohne. Nur bei dem gezeigten Beispiel zum Feature selbst wurde es genutzt, Rest nicht.

r3ptil3
2020-10-29, 02:34:46
Ich hatte jahrelang fast nur AMD-Produkte im Rechner. Bin halt Leistungs-Fanboy ;). Bis Bulldozer hatte ich sogar nur AMD-CPUs, aber danach war eben jahrelange Unbrauchbarkeit angesagt. Zen 2 war wieder gut, aber nicht gut genug zum Wechseln. Wenn was Gutes kommt, wechsle ich die Marke, egal ob CPU/GPU. Mit "was Gutes" meine ich dann aber schon auch einen deutlichen Leistungs- und/oder Featurevorsprung, der Wechsel kostet eine Art "Wechselbonus".

Hahaha, lass es lieber, denn so haben sie mich auch fast gekriegt.

Vom unparteiischen Verfolger, wurde ich plötzlich fast in die Ecke des Intel und Nvidia-Fanboys befördert.
Oder auch gut: "jetzt bereut er den Kauf der 3080 und trollt im AMD Thread rum". :D

Die 3080 habe ich seit über einer Woche schon wegegeben (nein nicht wegen BN).
Sowohl im CPU als auch im GPU Bereich ein derart stark umkämpfte Lage, was will man mehr. Sowas hätte man sich vor ein paar Jahren nur erträumen können.

Ich vermute aber, dass die Erwartungshaltung nach den Reviews etwas Enttäuschung bringen wird, ähnlich, aber vielleicht auch nicht ganz so extrem wie bei der 3080/3090.
Die Reviews werden auch ohne SAM durchgeführt und dann ändert sich das Bild wieder. Raytraycing gibts ja auch noch. Wird irgendwo auch seine Gründe haben wieso eine Grafikkarte mit 60% mehr Speicher, trotzdem günstiger ist als die Konkurrenz.

Bevor ein AMDler sich jetzt beleidigt fühlt, NEIN, es ist mir gänzlich egal wer besser ist. Ich kaufe einfach das bessere Produkt.

crux2005
2020-10-29, 02:34:51
Brauche ich für SAM ein X570 MB? oder ist es auch B550 kompatibel?

r3ptil3
2020-10-29, 02:39:43
Habe übrigens kurz nach der AMD Vorstellung die Mails erhalten:

https://i.ibb.co/G7Z9Bbz/6800.png

Hatten die ursprünglich den 11. geplant?
Wurde natürlich später gleich in einer 2. Mail korrigiert.

CompuJoe
2020-10-29, 03:09:40
Wie alle in meinem Bekanntenkreis deren 3080 storniert wurden gerade am feiern sind, bin da echt nen bissel Happy das es bei mir auch so war.
Das fühlt sich gerade an wie damals zur Athlon XP und Radeon 9700 (mod) Zeiten.

Blediator16
2020-10-29, 03:20:56
Schlägt AMD nun die 3070 oder wenigstens die 2080ti endlich mal nach 8 Jahren? Frage nur für meinen Bruder.

SentinelBorg
2020-10-29, 03:24:31
Brauche ich für SAM ein X570 MB? oder ist es auch B550 kompatibel?
B550 geht auch, wobei das ja ansich vollkommen Wurst sein sollte, da die Grafikkarte ja eh direkt an der CPU hängt. Hängt wohl mehr am BIOS.

Ich bin gespannt was dieses SAM letztendlich wirklich ist. Klingt für mich wie eine entweder properitäre Erweiterung des PCIe Standards oder die besseren Ausnutzung dessen was möglich sein sollte. Und dann stellt sich die Frage ob das Nvidia nicht genauso implementieren könnte und ob es da überhaupt spezielle Hardware auf Seiten der Graka benötigt. An eine Verbindung mit dem Cache glaube ich nicht.

Irgendwer hat hier was von 256 MB Transfers gesprochen. Das ist so nicht ganz richtig, wenn auch ein dadurch mit entstehendes Problem, aber eher sekundär.
Wahr ist, dass obwohl im 64 Bit UEFI Zeitalter eigentlich nicht mehr nötig, GPUs dennoch meist nur ein 256 MB großes Aperture-Fenster in den Systemspeicherraum einblenden. Über den Treiber wird dieses Fenster dann mit der GPU MMU verschoben. Gearbeitet selbst kann dann mit 4 KB oder 64 KB Pages. Dieses "Schieben" des Fenster kostet natürlich ein bissel Leistung.

Aber eigentlich könnten heutzutage rein theoretisch auch die ganzen 16 GB direkt eingeblendet werden. Z.B. bei Xeon Phi wird das auch so gemacht, hat aber entsprechenden Support vom Board/UEFI usw. benötigt. Vielleicht ist genau das, was AMD jetzt auch im Normalo-Bereich etablieren möchte. Und genau das sollte dann ansich auch für Nvidia machbar sein. Eventuell nur mit Treiber und Graka UEFI Bios Update.

Letztendlich aber alles nur Vermutung von mir nach ein wenig Recherche. Ich entwickle zwar Software, aber keine Games und muss mich mit Speicherbereichen eher selten rumschlagen. Wobei ich es auch schon geschafft haben gute zweistellige GB Werte zu verballern. :D

horn 12
2020-10-29, 03:38:16
Habe übrigens kurz nach der AMD Vorstellung die Mails erhalten:

https://i.ibb.co/G7Z9Bbz/6800.png

Hatten die ursprünglich den 11. geplant?
Wurde natürlich später gleich in einer 2. Mail korrigiert.


Ja, vor den Konsolen sollte Release sein.
Durch den NV Shitstorm will man aber massig liefern und hat dies um eine Woche nach hinte(r)n verlegt.
Die ersten Chargen gehen wohl um den 10-ten weg nach Europa.

Stretcher
2020-10-29, 04:51:01
Nach 20 Minuten Thread überfliegen, kommt man zu folgendem Fazits.

AMD Fanboys: Geil 16GB Speicher, RT und DLSS egal, AMD Benchmarks für voll nehmen.

Nvidia Fanboys: V-ram nicht wichtig, Featureset viel besser bei Nvidia, unabhängige Benches abwarten.

Wenn man das Fangeschwurbel mal ausblendet, dann haben wir eine perfekte Situation und man kann sich je nach Geschmack die Karte kaufen, die man für besser hält.

Wer jetzt meint Nvidia wäre geschlagen. Nunja. Nvidia muss nur mehr V-ram auf die Karten klatschen und schon ist Nvidia wieder die bessere Wahl, vorher ist es es offensichtlich eine ausgeglichene Geschichte.

Eine 3090 dürfte nicht geschlagen werden,auch wenn die Folien das suggerieren, dafür reichen 11% mehr CUs und mehr Takt einfach nicht und die Raytracingleistung muss ein kompletter Reinfall sein, wenn man nicht ein Wort in der Präsentation darüber verliert, das ist ja fast schon Werbung für den Konkurrenten.

Hakim
2020-10-29, 05:19:54
Wow du bist ja mutig, legst dich gleich mit beiden Seiten an :)

crux2005
2020-10-29, 05:23:09
Wow du bist ja mutig, legst dich gleich mit beiden Seiten an :)

Oder... ah, lassen wir es. NV könnte noch Preise anpassen. Mehr VRAM wird es dieses Jahr wohl nicht mehr.

Bin gespannt ob eine 12 GB 3080 für $699 vorgestellt wird. :freak:

OCmylife
2020-10-29, 06:06:08
++

hier 2080ti

avangers @1440p > dlls 2@quality = 960p 10-15 FPS mehr (als ohne) ABER 0 NULL kbit weniger VRAM allocated/ real > habe sogar das feeling das es unrunder (hakeliger) läuft als ohne (native 1440p) :freak::freak::freak:

Ich bin von DLSS auch nicht gerade begeistert mit der 2070. Für mich definitiv kein Grund bei NV zu bleiben.
Die Performance ist spürbar besser, aber die Qualität auf dem Fernseher ist auch bei weitem nicht so knackig scharf wie nativ. Und ich hatte Artefakte bei Control(bei 1440P + DLSS 2.0(für 4K reichte auch da die Leistung nicht)), aber Igor meint, dass die nur in Bewegung auftreten.

Edit: Ich möchte damit auch gerade Digital Foundry oder Igor nicht ihre Kompetenz anzweifeln, aber ein heiliger Gral, wie DLSS 2.0 manchmal angeprangert wird, ist DLSS einfach nicht, aus meiner Sicht. Lieber etwas die Details reduzieren, als mit der Auflösung runter zu gehen.

Was die Vorstellung von gestern angeht, habe ich mich gefühlt wie als Kind zu Weihnachten. 6800XT(mit vielleicht mehr OC-Spielraum) ist in den gezeigten Titeln schneller als die 3080 und die 6900XT kann es wie von manchen prognostiziert sogar mit der 3090 aufnehmen. Allerdings bin ich gespannt, wie stark die AMD Smart und Rage Features da wirklich mit rein spielen, wenn man sie auf einer Intel Plattform nicht nutzen kann.

Sardaukar.nsn
2020-10-29, 06:37:52
Meine 4-wöchige Jagt nach einer RTX 3080 hat jetzt auch ein Ende. > Storno!

Die 6800XT bringt vergleichbare Leistung für 50$ weniger, 20 Watt weniger Verbrauch und 6GB mehr VRam. #nobrainer

nordic_pegasus
2020-10-29, 06:43:14
Nach 20 Minuten Thread überfliegen, kommt man zu folgendem Fazits.

AMD Fanboys: Geil 16GB Speicher, RT und DLSS egal, AMD Benchmarks für voll nehmen.

Nvidia Fanboys: V-ram nicht wichtig, Featureset viel besser bei Nvidia, unabhängige Benches abwarten.

Wenn man das Fangeschwurbel mal ausblendet, dann haben wir eine perfekte Situation und man kann sich je nach Geschmack die Karte kaufen, die man für besser hält.

Wer jetzt meint Nvidia wäre geschlagen. Nunja. Nvidia muss nur mehr V-ram auf die Karten klatschen und schon ist Nvidia wieder die bessere Wahl, vorher ist es es offensichtlich eine ausgeglichene Geschichte.

Eine 3090 dürfte nicht geschlagen werden,auch wenn die Folien das suggerieren, dafür reichen 11% mehr CUs und mehr Takt einfach nicht und die Raytracingleistung muss ein kompletter Reinfall sein, wenn man nicht ein Wort in der Präsentation darüber verliert, das ist ja fast schon Werbung für den Konkurrenten.

- die 3090 kostet zumindest UVP 500€ mehr als die RX6900XT, darum ist es den meisten ziemlich latte, ob welche Karte nun wieiviele einstellige Prozente vorne liegt
- Nvidia hat wieder bewusst die Obsoleszenz-Bombe in seine High-End Karte 3080 eingebaut, nämlich den kleinen V-RAM
- AMD kommt nach vielen Jahren ohne High-End mit einem Sprung wieder in Schlagweite. Selbst mit Zen hat es mehrere Generationen gebraucht bis zum Gleichstand. Und im Vergleich ist Intel die Jahre stehen geblieben, Nvidia aber stetig weitergelaufen. Darum finde ich BigNavi einfach nur beeindruckend.
- RT ist immernoch ein Gimmick in einer Hand voll Spielen. Wenn Du dass so hoch bewertest, dann bezahl halt den Nvidia Tax. Der Rest hat endlich mal wieder eine Alternative
- Kommentare wie Deine suggerieren, dass ein Monopol an der Spitze irgendwie positiv wäre. Freue Dich doch einfach über den Wettbewerb, vielleicht passt ja sogar Nvidia seine Preise an. Dann haben auch die Nvidia Fanboys gewonnen ohne AMD zu kaufen.
- Nvidia hat sich mit dem Wechsel zu Samsung selbst in Bein geschossen. Ferner ist die RT-Implementierung mit RT- und Tensor-Cores nicht so flexibel wie der AMD-Ansatz. AMD hat eine echte Gaming-Architektur entwickelt für Konsolen und PC. Nvidia verkauft uns speziell mit den Tensor-Cores Technik aus anderen Anwendungsbereichen umgelabelt für Gaming. Ich finde den AMD-Weg besser.

dargo
2020-10-29, 06:50:37
Schlägt AMD nun die 3070 oder wenigstens die 2080ti endlich mal nach 8 Jahren? Frage nur für meinen Bruder.
https://youtu.be/oHpgu-cTjyM?t=1172

Ist inkl. SAM.

genervt
2020-10-29, 06:53:46
Gut, warte ich halt weiter. Erst die 1080 Ti verkauft, gerade den 9700k+Z390 abgegeben. Wird es also Ende des Jahres oder Anfang naechsten Jahres ein Ryzen 5800 und eine Radeon 6800 XT. Da werde ich glatt ein wenig nostalgisch :-) Wartezeit kein Problem, mein Kind ist gerade 3 Wochen alt und fordert viel Aufmerksamkeit.
Dann würde ich eher mit weiteren 6 Monaten Wartezeit planen. Meine Erfahrung. Glückwunsch!

dargo
2020-10-29, 06:58:10
Nunja. Nvidia muss nur mehr V-ram auf die Karten klatschen und schon ist Nvidia wieder die bessere Wahl, vorher ist es es offensichtlich eine ausgeglichene Geschichte.

Stimmt... 8GB/10GB vs. 16GB ist ausgeglichen. :facepalm: Und der erste Satz mit "nur" ist der geilste überhaupt nachdem Nvidia die Versionen mit doppelten Speicher vor kurzem gecancelt hat. :ulol: Nvidia hat ganz anderes Problem... die können selbst die Krüppelkarten nicht liefern.

Colin MacLaren
2020-10-29, 07:01:30
Mich haut die Präsi nicht um. Dort, wo sie angeblich performancegleich sind (mit Übertaktung und Zen 3) ist bis zur 6800XT die Preisgestaltung die gleiche. Was ist denn das bitte für ein Vergleich? Ja mit Zen3 und Übertaktung ist unsere GPU zum gleichen Preis so schnell wie eine gleich bepreiste NVIDIA ohne Übertaktung?

Die 6900XT wäre evt. ganz interessant. Ob die aber auf einem Intel-System bei neuen Titeln (die sicherlich oft Raytracing einsetzen werden oder von DLSS profitieren) dann wirklich schneller als nur eine übertaktete 3080 ist, will ich erst in Benchmarks sehen. Zudem wird deren Verfügbarkeit wohl auch eher weniger gut ausfallen, die Straßenpreise sich also eher in Richtung 1.500 bewegen.


Schließlich durfte ich mit meinem Notebook nach langer Zeit mal wieder AMD-Treiber kosten und weiß schon, warum ich Team Grün bin (Ich kann am Notebook mit angeschlossenem Fernseher nur über Umwege die Auflösung ändern, HDR geht nur in 4:2:0 und sieht farblich völlig daneben aus, vor allem in 1080p, und Dolby Atmos über HMDI wird auch in 2020 noch nicht unterstützt, so dass ich meine Soundbar nur in Stereo ansteuern kann - bei NVIDIA ist das alles Plug and Play) .

dargo
2020-10-29, 07:06:09
SAM ist keine Übertaktung. :rolleyes: Und Rage bringt lächerliche 1-2%. Rage wurde bei der RX6800 nicht verwendet. Bei der RX6800XT weiß ich es nicht. SAM + Rage dann bei der RX6900XT.

Edit:
In den Endnotes steht bei RX-550 für die RX 6800XT nichts zu SAM und Rage.
https://pics.computerbase.de/9/5/6/0/7-e189520be9973099/12-1080.f2fe896b.png
https://pics.computerbase.de/9/5/6/0/7-e189520be9973099/28-1080.96914353.png

pixeljetstream
2020-10-29, 07:09:29
-
- Kommentare wie Deine suggerieren, dass ein Monopol an der Spitze irgendwie positiv wäre. ....
- Nvidia hat sich mit dem Wechsel zu Samsung selbst in Bein geschossen.

Das ist eine leicht widersprüchliche Aussage. Wenn alle tsmc nutzen bist du bei der Situation, die du im Satz vorher bemängelst.


AMD hat eine echte Gaming-Architektur entwickelt für Konsolen und PC.
Der unterschiedliche Hardware Ansatz bei RT ist aber nur durch proprietäre APIs auf den Konsolen direkt nutzbar, am PC müssen ja alle durch die gleiche Abstraktion. Wenn die Bündelung von CPU/GPU neue Features im PC nun auch exklusiver werden, ist das auch ein proprietäre Entwicklung auf Grund eines Monopols bei high end gaming Konsolen.

Die Wertung, Vor- und Nachteile darüber sind jedem selbst überlassen. Man sollte diese Zusammenhänge aber nicht selektiv ausblenden. Ich will damit nicht die Leistung schmälern die Firmen offensichtlich erbracht haben um sich in diese Position zu bringen.

dildo4u
2020-10-29, 07:16:14
Mich haut die Präsi nicht um. Dort, wo sie angeblich performancegleich sind (mit Übertaktung und Zen 3) ist bis zur 6800XT die Preisgestaltung die gleiche. Was ist denn das bitte für ein Vergleich? Ja mit Zen3 und Übertaktung ist unsere GPU zum gleichen Preis so schnell wie eine gleich bepreiste NVIDIA ohne Übertaktung?

Die 6900XT wäre evt. ganz interessant. Ob die aber auf einem Intel-System bei neuen Titeln (die sicherlich oft Raytracing einsetzen werden oder von DLSS profitieren) dann wirklich schneller als nur eine übertaktete 3080 ist, will ich erst in Benchmarks sehen. Zudem wird deren Verfügbarkeit wohl auch eher weniger gut ausfallen, die Straßenpreise sich also eher in Richtung 1.500 bewegen.


Schließlich durfte ich mit meinem Notebook nach langer Zeit mal wieder AMD-Treiber kosten und weiß schon, warum ich Team Grün bin (Ich kann am Notebook mit angeschlossenem Fernseher nur über Umwege die Auflösung ändern, HDR geht nur in 4:2:0 und sieht farblich völlig daneben aus, vor allem in 1080p, und Dolby Atmos über HMDI wird auch in 2020 noch nicht unterstützt, so dass ich meine Soundbar nur in Stereo ansteuern kann - bei NVIDIA ist das alles Plug and Play) .
AMD kann die miese RTX Performance nicht fixen aber NV kann mehr Vram verbauen.
Ziemlich offensichtliche Lage keine der 2020 Karten unter 1000€ ist Zukunftsicher.

dargo
2020-10-29, 07:19:47
AMD kann die miese RTX Performance nicht fixen aber NV kann mehr Vram verbauen.

Erzähl uns mehr. ;D Und wen RT nicht interessiert geht das eh am Ars... vorbei.


Ziemlich offensichtliche Lage keine der 2020 Karten unter 1000€ ist Zukunftsicher.
So gesehen ist selbst die RTX 3090 nicht zukunftssicher da mit RT viel zu lahm, siehe Watch Dogs Legion. :rolleyes:

Loeschzwerg
2020-10-29, 07:22:41
Und wenn mir Avengers am Arsch vorbei geht, dann auch das Speicherplus :freak: Sorry Dargo, aber du bist echt lächerlich. Lass doch die geneigten Käufer nach deren Use-Case entscheiden.

Linmoum
2020-10-29, 07:25:02
Wieso Avengers? Aktuelles Beispiel ist Watch Dogs und das fängt vor UHD an.

dargo
2020-10-29, 07:25:23
Deine Spielewahl wird in 2021 dann wohl recht dünn ausfallen. ;D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12477608&postcount=143

Reiht sich gleich neben Horizon Zero Dawn und Avengers ein.

MAX|HASS
2020-10-29, 07:29:08
Erzähl uns mehr. ;D Und wen RT nicht interessiert geht das eh am Ars... vorbei.

Ich wäre dafür so ein Kandidat, mir geht RT komplett am Arsch vorbei. Solange es halt eine Technologie im Übergangszustand ist. Ich rechne einfach damit, das man vollwertiges RT auf allen machbaren Ebenen mit vernünftiger Performance in der übernächsten Serie sehen kann und damit kann ich total falsch liegen, weil auch die kommenden Spiele wahrscheinlich optisch wieder einen größeren Sprung machen.

Mir gefallen die neuen amd-Karten und würde ich jetzt eine brauchen (was ich nicht tue trotz "alter" 1070 bei 1080p), würde ich mir vielleicht sogar das erste Mal eine kaufen in 25 Jahre PC-Daddelei. Vielleicht, weil die 3070 ebenso etwas für mich wäre und ich die Auswirkungen vom kleineren Speicher wahrscheinlich nicht merken würde, aber neu mit 8gb, das schmeckt mir trotzdem nicht und möchte das nicht auch noch mit einem Kauf als hinnehmbar honorieren im Jahre 2020.

MadPenguin
2020-10-29, 07:33:54
Wenn man die Diskussionen hier mitverfolgt, dann ist es genauso wie mit dem Zen1 launch XD . Das Lager gegenüber versucht das neue Produkt zu relativieren, AMD Fans wie mich freuen sich bis zum geht nicht mehr.
Mit einem Schlag ist AMD wieder in Spiel und ist besser aufgestellt als zum Zen1 launch, was Leistung des Produkts betrifft. So wie die Treiber bei AMD laufen, können wir uns auf zukünftige kostenlose Mehrleistung freuen. Auch der Satz "sobald die Spieleentwickler an RDNA2 anpassen werden", der während der Präsentation gesagt worden ist, lässt noch mehr Leistung erhoffen. Es wird noch lustig!!

dildo4u
2020-10-29, 07:36:21
Wenn man die Diskussionen hier mitverfolgt, dann ist es genauso wie mit dem Zen1 launch XD . Das Lager gegenüber versucht das neue Produkt zu relativieren, AMD Fans wie mich freuen sich bis zum geht nicht mehr.
Mit einem Schlag ist AMD wieder in Spiel und ist bessernaufgestellt als zum Zen1 launch, was Leistunh des Produkts betrifft. So wie sie Treiber bei AMD kaufen, können wir una sua zukünftihe kostenlose Mehrleistung freuen. Auch der Satz "sobald die Spieleengwickler an RDNA2 anpassen werden", der während der Präsentation gesagt worden ist, lässt noch mehr Leistung erhoffen. Es wird noch lustig!!
Richtig das hier ist Zen 2 aber nicht Zen 3, mal sehen was RDNA3 bringt.

sven2.0
2020-10-29, 07:37:15
Wie man sich wieder über ungelegte Eier freut. Bei jeder Ankündigung das Gleiche und wenn dann die Karten im Rechner stecken (oder auch nicht, Ampere *hust*) gibts den Reality Check..

Linmoum
2020-10-29, 07:39:32
Wie man sich wieder über ungelegte Eier freut. Bei jeder Ankündigung das Gleiche und wenn dann die Karten im Rechner stecken (oder auch nicht, Ampere *hust*) gibts den Reality Check..Den Reality Check, dass die Dinger OC-Biester werden? Jop, in der Tat. Customs nachher werden das beim Takt bereits zeigen.

nordic_pegasus
2020-10-29, 07:43:54
Das ist eine leicht widersprüchliche Aussage. Wenn alle tsmc nutzen bist du bei der Situation, die du im Satz vorher bemängelst.


natürlich wäre es schön, wenn neben TSMC und Samsung noch weitere Foundries die aktuellen Topp-Prozesse anbieten würden/könnten. Nachdem Global Foundries aufgegeben hat, ist mir der Markt deutlich zu klein geworden. Aber ich glaube nicht, dass Nvidia wegen einer Stärkung der Konkurrenz zu Samsung gegangen ist. Hier sollte nur die Marge optimiert werden. Dafür wurde ein suboptimaler Prozess in Kauf genommen, welcher in sehr hoher Verbrauchsleistung resultiert. Ferner scheint das Yield so "gut" zu sein, dass der normale Endkunde weder den xx102 noch xx104 Vollausbau kaufen darf. Das gab es vorher noch nie. Und ist auch ein Grund, warum ich mit Ampere aktuell gar nichts anfangen kann.


Der unterschiedliche Hardware Ansatz bei RT ist aber nur durch proprietäre APIs auf den Konsolen direkt nutzbar, am PC müssen ja alle durch die gleiche Abstraktion. Wenn die Bündelung von CPU/GPU neue Features im PC nun auch exklusiver werden, ist das auch ein proprietäre Entwicklung auf Grund eines Monopols bei high end gaming Konsolen.


AMD ist noch sehr weit davon weg, im PC-Markt ein Monopol aufzubauen. Nur weil Ryzen im CPU DIY Markt mittlerweile vor Intel liegt, sieht es speziell bei System-Buildern/OEMs noch ganz anders aus. Gleiches gilt für die Radeon Group. Selbst Rx5700 konnte nicht die Marktanteile holen, die die Karte im Mainstream aufgrund des P/L-Verhältnis eigentlich verdient hätte.

Sofern AMD tatsächlich in den nächsten 5-10 Jahren so eine Dominanz liefern sollte, dass wird auf ein rotes CPU/GPU-Monopol hinsteuern, wäre dies natürlich nicht wünschenswert. Aber das Intel und Nvidia jetzt beide die nächsten 5 Generationen verka**en, wird selbst der härteste AMD Fanboy nicht glauben. Ich sehe uns vielmehr auf dem Weg zu einem gesunden Duopol. Das ist besser als jeweils ein Monopol von Nvidia / Intel, am Besten wären natürlich noch weitere Mitbewerber. Außer dass Nvidia mit ARM in den CPU-Markt einsteigt und Intel mit Xe ins diskrete Grafikgeschäft, wird aber nicht viel passieren. Also maximal ein Triopol.

Und dass beide Konsolen mit AMD bestückt sind... wenn man nur 2 Konsolen und 2 Chiphersteller hat, dann kommt beim Würfeln halt recht häufig zweimal rot oder zweimal grün. Das Nvidia seit der Ur-XBox keine High-End Konsole mehr befeuert, könnte wohl auch an der Preisstruktur von Nvidia liegen. Vielleicht sollte Nvidia mal weniger auf Marge und mehr auf konstanten Umsatz gehen.

dargo
2020-10-29, 07:44:23
Wie man sich wieder über ungelegte Eier freut. Bei jeder Ankündigung das Gleiche und wenn dann die Karten im Rechner stecken (oder auch nicht, Ampere *hust*) gibts den Reality Check..
Deine ungelegten Eier existieren offenbar nur in deiner Welt. Reality Check gibt es schon länger bei AMD, alles steht in den Endnotes drin.

btw.
Etwas witzig finde ich die aktuelle Gen @Ampere + RDNA2 schon. Nvidia hat die effizienteste Karte beim GA104 aktuell mit der RTX 3070. AMD bei N21 mit der RX6900XT. :tongue:

MadPenguin
2020-10-29, 07:45:39
Was ich als Aktionär so genial finde und was scheinbar untergeht: AMD fördert eine einheitliche Hardwarestruktur nur mit AMD Komponenten. Willst di noch mehr Leistung? Nur zusammen mit Ryzen5000 und dem neuen Chipsatz :) Als Konsument vielleicht nun ja, aber definitiv umsatzfördernd!

@nordic_pegasus
Das sehe ich anders. Gerade OEMs werden auf das neue System aus GPU+CPU+Board umsteigen. Ein tolleres Verkaufsargument hat es schon längers nicht mehr gegeben. Die Konsolen? Sind das Beste, das AMD jemals passieren hätte können!

Berniyh
2020-10-29, 07:53:56
Laut KittyYYuko* soll Navi24 nur über ein 64-Bit Interface verfügen und 24 Compute Units beherbergen.
Ein Infinity Cache soll auch dort mit dabei sein:
https://twitter.com/KittyYYuko/status/1318116657470996482
Kenn ich, halte ich aber ehrlich gesagt für ausgedacht auf der Basis was man für einen noch kleineren Chip in etwa erwarten könnte.
Wenn man sich Navi22 anschaut, hat der genauso viele Compute Units wie Navi10, aber nur ein 192-Bit Interface, gegenüber den 256-Bit bei Navi10.
Navi23 hat 32 Compute Units, zwei Shader Engines und 64 ROPs und ist auch nur mit 128-Bit GDDR6 bestückt.
Es scheint so, als ob AMD den Infinity Cache für die ganze GPU-Reihe verwenden wird, denn ansonsten wäre es schwer überhaupt irgendeine GPU von denen, mit dem relativ schmalen Interface, zu füttern.
Navi21 hat 128MB, spekulativ könnte Navi22 und Navi23 64MB haben und Navi24 nur 32MB?
Ja, das wäre auf jeden Fall denkbar. Aktuell wissen wir halt von dem Last Level Cache den AMD im Display Code referenziert und der mit dem Infinity Cache in Verbindung gebracht wurde.
Derzeit gibt es diesen Link aber nur für Navi 21, wobei natürlich nicht ausgeschlossen ist, dass das für die anderen Chips nicht auch kommt.

Ich wollte nur darauf hinweisen, dass es derzeit halt noch unklar ist, ob Infinity Cache durch die komplette Bandbreite eingebaut wird oder nicht.

Als gegeben würde ich das jedenfalls nicht erachten. In meinen Augen dient es vor allem dazu große, energiefressende Speicherinterfaces zu vermeiden auf Kosten von mehr Chipfläche.
Gerade im Low-End und Midrange könnte es aber wieder günstiger sein dann doch (relativ betrachtet) größere Speicherinterfaces zu verbauen und dafür die Chipfläche zu reduzieren.

Du dürftest aber damit Recht haben, dass der IC mit der Anzahl der CUs bzw. der Größe des Speicherinterfaces skaliert wird. Wobei ich fast sogar letzteres vermuten würde, was bei Navi 22 dann evtl. 48 oder 96 MB bedeuten würde und nicht 64 MB und über 12 IFs angebunden statt über 16 wie bei Navi 21.
*KittyYYuko war iirc die Person, die Monate vor der Ampere-Präsentation von Nvidia 128 FP-ALUs pro SM verlautet hat.
Ja, aber jemand der gut bei Nvidia informiert ist muss ja nicht zwangsläufig auch gute Kontakte bei AMD haben. ;)

Mir fällt es einfach schwer zu glauben, dass AMD die Daten von Navi 21-23 so lange vor den Leakern zurückhalten konnte und nun plötzlich ein einziger Leaker fast ein Jahr vor Release die Daten zu Navi 24 (der ja bisher nicht in den Treibern enthalten ist) weiß?
Findest du das nicht auch etwas seltsam?

Rolsch
2020-10-29, 07:54:05
Was ich als Aktionär so genial finde und was scheinbar untergeht: AMD fördert eine einheitliche Hardwarestruktur nur mit AMD Komponenten. Willst di noch mehr Leistung? Nur zusammen mit Ryzen5000 und dem neuen Chipsatz :) Als Konsument vielleicht nun ha, aber definitiv umsatzfördernd!
SAM und Rage sind vermutlich aus dem Konsolendesign entstanden. Natürlich verständlich dass man solche Goodies auch in den PC drücken will, aber irgendwie gefällt mir das als Konsument nicht.

Dschounz
2020-10-29, 07:55:35
AMD kann die miese RTX Performance nicht fixen aber NV kann mehr Vram verbauen.
Ziemlich offensichtliche Lage keine der 2020 Karten unter 1000€ ist Zukunftsicher.

Zur RT-Performance von Navi21 "kennen" wir nur den PortRoyal-Bench z.B von Igor https://www.igorslab.de/3dmark-in-ultra-hd-benchmarks-der-rx-6800xt-ohne-und-mit-raytracing-aufgetaucht/, der ja garnicht so schlecht aussah...ich denke, die Implementierung in einzelnen RT-Games wird jetzt erst anfangen bzw. aktiver betrieben.

Vielleicht kann/will man in den nächsten 3 Wochen bis zum Release auch noch durch Treiberarbeit die Sache verbessern.

Das könnte der Grund für die fehlenden RT-Balken sein....die Hoffnung stirbt zuletzt :biggrin:

nordic_pegasus
2020-10-29, 07:58:49
@nordic_pegasus
Das sehe ich anders. Gerade OEMs werden auf das neue System aus GPU+CPU+Board umsteigen. Ein tolleres Verkaufsargument hat es schon längers nicht mehr gegeben. Die Konsolen? Sind das Beste, das AMD jemals passieren hätte können!

widerspreche ich kein bisschen. Nur ist aktuell AMD im OEM-Markt noch eine kleine Nummer. Darum sehe ich hier noch keinerlei Anlass vor der Gefahr eines AMD Monopols zu warnen. Erstmal müsste der Anteil von AMD in Augenhöhe zu Intel kommen, davon sind wir noch weit entfernt.

Und zu Konsolen... auch hier bin ich bei Dir. Das AMD sich hier eingekauft hat, sicherlich mit schlechter Marge, war der richtige Schritt. Und die Früchte sehen wir aktuell mit BigNavi. Auf einer PS5-Präsentation wurde ja betont, dass Sony mit AMD zusammen vieles entwickelt hat, was in RDNA2 gelandet ist. Es ist die freie Entscheidung von Nvidia gewesen, sich in diesem Markt nicht zu platzieren. Aber auch hier warnt pixeljetstream vor einem Monopol. Ist es aktuell tatsächlich, aber daran hat Nvidia Schuld, wenn die nicht mitspielen wollen.

Grendizer
2020-10-29, 07:59:24
Ich bin eigentlich eher nVidia biased, aber für mich ist die 6800XT definitv das überzeugendere Produkt und ich werde mir auch am 18.11. eine kaufen.

Ich wollte eigentlich schon bei der 3080 zuschlagen, da meine 1080 leider bei 4K nicht mehr hinterherkommt.

Da mein aktuelle rHauptbildschirm nur 60 fps in 4K darstellen kann, ist die 6800XT vermutlich sogar überdimensioniert und der 1700x wird auch viel zu limitierend sein. Ob der Zugewinn mit Smart Access Memory einen Wechsel auf 5900x + B550/X570 Board wert ist, muss sich dann in echten Benches zeigen. Ich habe eigentlich auf einen "günstigen" 3900X gehofft, wenn Zen 3 auf den Markt kommt. Den kann ich auch noch im Normalzustand auf dem Asus Prime B350 laufen lassen.

Alles in allen sind das sehr interessante Zeiten. Ich hoffe allerdings wirklich, das AMD auch was in Richtung DLSS zeigen wird. Aktuell braucht man es bei der Leistung nicht, aber perspektivisch wäre es doch gar nicht verkehrt, wenn man es einschalten kann, wenn die Karte dann vieleicht doch an die Grenze kommt.

Das allle 3 Monitore Freesync haben macht die Entscheidung natürlich auch einfach :biggrin:

Zergra
2020-10-29, 08:01:32
Rage bringt laut AMD nur 1-2% und SAM gibt's for free mit Zen3 und 5xx-Chipset. Wenn NV das nicht bietet, dann ist das nicht AMDs Schuld. Features und so.

AMD hat nix der Performance son SMA gesagt:
AMD nennt zwar keine separaten Leistungsvorteile für Smart Access Memory und Rage, aber einen kombinierten: Sind beide Features aktiv, soll die Spiele-Leistung je nach Titel auf einer Radeon RX 6800 XT in Ultra HD zwischen zwei und dreizehn Prozent ansteigen, im Schnitt sind es in AMDs Benchmarks sechs Prozent. Welchen Anteil daran Smart Access Memory und welchen Rage hat, wird erst ein Test zeigen können.
von CB.

Die 6900 wurde mit beiden Features getestet, wieso wohl ? Weil Sie ohne nicht über der 3090 landet. Finde die Leistung der RX6000 echt Top, aber hier von Plattmachen zu reden....

dildo4u
2020-10-29, 08:01:36
Zur RT-Performance von Navi21 "kennen" wir nur den PortRoyal-Bench z.B von Igor https://www.igorslab.de/3dmark-in-ultra-hd-benchmarks-der-rx-6800xt-ohne-und-mit-raytracing-aufgetaucht/, der ja garnicht so schlecht aussah...ich denke, die Implementierung in einzelnen RT-Games wird jetzt erst anfangen bzw. aktiver betrieben.

Es gab wohl ein Wert direkt von AMD.

Measured by AMD engineering labs 8/17/2020 on an AMD RDNA 2 based graphics card, using the Procedural Geometry sample application from Microsoft’s DXR SDK, the AMD RDNA 2 based graphics card gets up to 13.8x speedup (471 FPS) using HW based raytracing vs using the Software DXR fallback layer (34 FPS) at the same clocks. Performance may vary. RX-571


https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-slower-than-nvidia-rt-core-in-this-dxr-ray-tracing-benchmark

nordic_pegasus
2020-10-29, 08:01:37
Yes

https://i.postimg.cc/cLMM4vTT/1.png

Da haben sie diesmal wirklich an alles gedacht. 08.12. wars?!

wo ist eigentlich dieses Bild her?

Berniyh
2020-10-29, 08:04:33
Nvidia muss nur mehr V-ram auf die Karten klatschen und schon ist Nvidia wieder die bessere Wahl, vorher ist es es offensichtlich eine ausgeglichene Geschichte.
Naja, ganz so einfach kann es nicht sein, denn sonst würde Nvidia das ja machen.
Stattdessen haben sie diese ursprünglich wohl geplanten Versionen nun wohl aufgegeben.

Dschounz
2020-10-29, 08:04:53
widerspreche ich kein bisschen. Nur ist aktuell AMD im OEM-Markt noch eine kleine Nummer. Darum sehe ich hier noch keinerlei Anlass vor der Gefahr eines AMD Monopols zu warnen. Erstmal müsste der Anteil von AMD in Augenhöhe zu Intel kommen, davon sind wir noch weit entfernt.

Und zu Konsolen... auch hier bin ich bei Dir. Das AMD sich hier eingekauft hat, sicherlich mit schlechter Marge, war der richtige Schritt. Und die Früchte sehen wir aktuell mit BigNavi. Auf einer PS5-Präsentation wurde ja betont, dass Sony mit AMD zusammen vieles entwickelt hat, was in RDNA2 gelandet ist. Es ist die freie Entscheidung von Nvidia gewesen, sich in diesem Markt nicht zu platzieren. Aber auch hier warnt pixeljetstream vor einem Monopol. Ist es aktuell tatsächlich, aber daran hat Nvidia Schuld, wenn die nicht mitspielen wollen.

Bisher hat das nVidia aber, wenn man sich die Geschäftszahlen ansieht, finanziell nicht geschadet, bis jetzt.

Technologisch wurde ja seit Jahren erwartet, dass die Spiele, die aus der AMD-Konsolenwelt portiert werden, auch besser auf AMD-Karten laufen. Auch das ist bisher nicht/kaum eingetreten.

Aber:
Jetzt sehe ich eine echte Chance, dass AMD die Früchte aus dieser Synergie ernten kann; sicher ist dies aber nicht.


@nordic_pegasus: Es gab noch ein weiteres YT-Video von AMD https://www.youtube.com/watch?v=8KAnebwCAaA, wo die Karten und weitere Details erklärt wurden, zB Lautstärke; da war auch die Folie mit dem WK-block drin.

dargo
2020-10-29, 08:07:33
wo ist eigentlich dieses Bild her?
Aus dem Video von gestern.

Linmoum
2020-10-29, 08:09:02
AMD hat nix der Performance son SMA gesagtDoch, in dem zweiten Video mit Frank Azor. Fünf Spiele, Zuwachs durch SMA allein 5-11%.

dildo4u
2020-10-29, 08:09:31
wo ist eigentlich dieses Bild her?
https://youtu.be/8KAnebwCAaA?t=796

Freestaler
2020-10-29, 08:09:31
Ist SMA Amd exclusiv oder kann das Intel auch implementieren? Oder noch zu früh für die Frage? Kacke, wenns dann probretär bleiben wird.

BurnedOut_Student
2020-10-29, 08:10:28
wo ist eigentlich dieses Bild her?

Aus der zweiten Präsentation wo sie auch die Lautstärke und einige Features näher erklären.

https://youtu.be/8KAnebwCAaA?t=802

dargo
2020-10-29, 08:13:59
Ist SMA Amd exclusiv oder kann das Intel auch implementieren? Oder noch zu früh für die Frage? Kacke, wenns dann probretär bleiben wird.
Exklusiv mit Zen3 + 500-er Bretter.

Freestaler
2020-10-29, 08:21:39
Exklusiv mit Zen3 + 500-er Bretter.
Das ist ja im moment. Und das ist bekannt. Kann ja auch nicht abschliessend gemeint sein, da sonst Zen4 und weitere das nicht mehr supporten. Meine Frage zielt auf die zukunft. Da weiss du in dem Fall auch noch nicht mehr, ob da bestrebungen gibt das Features zu öffnen.

ChaosTM
2020-10-29, 08:23:32
Ich könnte mir Vorstellen, dass dieses Feature später auch auf älteren AM4 Brettern laufen wird.
Kommt drauf an, wie Komplex die Implementierung ist.

dildo4u
2020-10-29, 08:23:48
Sie könnten es auf Intel selbst wenn sie wollten nicht validieren wenn PCI-E 4.0 Voraussetzung ist.

Advanced
2020-10-29, 08:26:26
ENDLICH wieder eine konkurenzfähige High-End Grafikkarte von AMD, die meine R9 290 ablösen kann und wird.
Wenn unabhängige Benches nach Release nicht krass von der Präsentation gestern abweichen wird die 6800XT mein :D

dargo
2020-10-29, 08:27:08
Das ist ja im moment. Und das ist bekannt. Kann ja auch nicht abschliessend gemeint sein, da sonst Zen4 und weitere das nicht mehr supporten. Meine Frage zielt auf die zukunft. Da weiss du in dem Fall auch noch nicht mehr, ob da bestrebungen gibt das Features zu öffnen.
Wenn es sich lohnt wird man das Feature wohl kaum bei Zen4 aufgeben. Aber sowas erfährst du natürlich erst 2022.

Zergra
2020-10-29, 08:28:10
Doch, in dem zweiten Video mit Frank Azor. Fünf Spiele, Zuwachs durch SMA allein 5-11%.

Ach da,

Trotzdem interessant.

Auf der Folie der 6800XT sind es in Wolfenstein 4% mit SMA und Rage
Im zweiten Video bringt SMA 5% allein in Wolfenstein.


Sie könnten es auf Intel selbst wenn sie wollten nicht validieren wenn PCI-E 4.0 Voraussetzung ist.

Dann könnte es aber auch auf Zen2 laufen.

Ich denke ich sollte mir schon mal ein X570 Board bestellen, ab dem 5.11 dürften die teurer werden.
Dürfte am 18.11 schwer sein eine Karte zu UVP zu bekommen, denke die Nachfrage dürfte ganz groß werden.

Freestaler
2020-10-29, 08:28:33
Nutzt SMA zwigend teile von der PCIe4.0? Gibts es evtl das Features dann in der nächsten PCIe spez? Ich hoffe pers. das nichts probretäres drauss wird für lange Zeit.

ChaosTM
2020-10-29, 08:31:20
Das ging aus der Präsi nicht hervor. Aber ich denke PCI 4.0 ist nicht Voraussetzung dafür. Es geht nur schneller, aber was weiß ich schon .. ;)

Cyberfries
2020-10-29, 08:46:17
Was würde dagegen sprechen Boardpartnern eine 6900XT mit 32GB zu erlauben?

Die Notwendigkeit zu beidseitiger Bestückung. Ist momentan auch nicht sinnvoll.

Selbst mit Zen hat es mehrere Generationen gebraucht bis zum Gleichstand. Und im Vergleich ist Intel die Jahre stehen geblieben, Nvidia aber stetig weitergelaufen.

Der Vergleich passt so nicht ganz. Im Duell gegen Intel ist man auf Architekturseite gescheitert.
Gegen nVidia war man schon letztes Jahr in Schlagdistanz, es hat nur der Wille zum Flaggschiff gefehlt.
Und sowohl Zen 2 als auch RDNA2 ist jeweils die zweite Generation.

Es scheint so, als ob AMD den Infinity Cache für die ganze GPU-Reihe verwenden wird, denn ansonsten wäre es schwer überhaupt irgendeine GPU von denen, mit dem relativ schmalen Interface, zu füttern.

Schön dich wieder hier zu sehen. Trotz Infinity Cache passen die spekulierten SIs nicht ganz zusammen.
Von N21 zu N22 CUs*0,5 und SI*0,75, von N22 zu N24 CUs*0,6 und SI*0,33.
Und dann noch dieser merkwürdige N23.... mal sehen was sich AMD da gedacht hat.

In meinen Augen dient es vor allem dazu große, energiefressende Speicherinterfaces zu vermeiden auf Kosten von mehr Chipfläche.

Wenn AMDs Effizienz-Angaben annähernd passen, ersetzt das ein 512bit SI, ist also fast schon Notwendigkeit.
Insofern stimme ich dir zu, muss nicht sein dass auch bei kleineren Karten der IF vorhanden ist.
Und falls vorhanden, wie groß?
Siehe obiges Rechenbeispiele, bei N22 tendenziell kleiner, bei N24 tendenziell größer.

Pumpi74
2020-10-29, 08:48:00
Am ehesten sollte die weitere Freischaltung von SAM für 3000er CPU's auf 500er Brettern möglich sein.

Edgecrusher86
2020-10-29, 08:48:07
Was meint ihr eigentlich zum Aufpreis von 350 USD?

Also ich für meinen Teil denke, dass dieser - augenscheinlich gibt's ja dafür quasi "nur" acht zusätzliche CUs nicht so gerechtfertigt ist. Wir sprechen immerhin von 54% der 6800XT Preisempfehlung!

Ich für meinen Teil hätte Folgendes für den Top-Dog erwartet:

- 50W mehr PT
- einen dickeren Lüfter / eine 240/280/360mm AiO
- evtl. 18 Gbps G6 Samsung
- evtl. 32GB G6 (weil man es kann ^^)

Also zumindest mehr PT und ein dickerer Kühler hätte es schon sein müssen in meinen Augen. Man merkt hier schon ein Gewinn orientiertes Vorgehen. Wenn man jetzt bedenkt, dass der Rage-Mode und direct access memory grob +2-10%(+) Mehrleistung der 6800XT bringt, so ist ziemlich klar, warum AMD diese per Default nutzt, um gegen die 3090 zu benchen. Ich vermute, man hätte sonst zum Teil nur einen minimalen Vorsprung auf die 6800XT, denn 6900XT (+ 2 Boost Modi!) zu 6800XT ist über die meisten Games im Mittel 8-16% vorne, selten 18-22%!

NV ist zwar über doppelt so teuer - vor der 3080 Ti zumindest (749-799-849-899-..999 USD) - 3090 auf 3080 - bietet für den, wenn auch extrem saftigen Aufpreis aber:

-30W mehr PT
- einen massiven Kühler
- 14GB mehr VRAM (ja... eigentlich wären max. 12GB OK gewesen.. also 12GB @ 3080)
- 23% mehr Bandbreite

AMD hat wohl nur die CUs. Das 100% PT ist auch identisch.. vermutlich sind's auch je 345W max PT.

Also wenn auch das maximierte PT identisch sein sollte zur 6800XT, so wäre in meinen Augen eine MSRP von maximal 749 USD angemessen gewesen für die RX 6900XT, eher 699 USD, wenn man die RX 6800 und RX 6800XT als Maßstab her nimmt. Dort hat man auch noch einen größeren Kühler, mehr CUs und PT bei 70 USD Differenz!

Just my 2 Cents.

Opprobrium
2020-10-29, 08:49:07
Hatte die GPU Situation mangels Bedarf gar nicht mehr so verfolgt die letzten Jahre.

Das nenne ich mal eine positive Überraschung :up: Vor allem da es im Dezember auch seit langem mal wieder ein Spiel geben wird das mich interessiert

Loeschzwerg
2020-10-29, 08:49:11
Die Notwendigkeit zu beidseitiger Bestückung. Ist momentan auch nicht sinnvoll.


Könnte mir vorstellen dass man sich das zunächst für die Profikarten aufhebt.

pixeljetstream
2020-10-29, 08:54:31
Aber auch hier warnt pixeljetstream vor einem Monopol.
Es geht mir weniger um die Gefahr eines Monopols an sich (gibt ja noch Intel die CPU & GPU haben und NV kann mit ARM CPUs auch was basteln und tut dies mit der Switch ja auch). Eher um eine Argumentation die halt imo nicht gleich angewendet wird. Die Synergie AMDs der proprietären Sony / MS Konsolen als positiv, die Erfahrung NVs aus proprietären AI / Switch / Prografik als negativ. Dein Argumentation die technische Lösung für RT ist besser weil sie in den high end Gaming Konsolen steckt, ist ja quasi "gesetzt" weil es dort keinen Wettbewerb der Ansätze gibt. Es klingt daher für mich als würdest du die Lösung als besser bewerten wegen der Marktsituation mit den Konsolen, nicht unabhängig. Führst aber an das eine dominante Marktsituation schlecht für Fortschritt ist. Weil die Märkte sind wie sie sind, gibt es aber nicht wirklich diesen bias freien Vergleich und daran beteiligen sich alle gemeinsam ;)

Aus meiner persönlichen Sicht ist das RT Modell von AMD das, was mehr auf den Entwickler setzt, passend zu optimieren, was auf der Konsole passt. Die NV Lösung nimmt einiges an Komplexität ab, weil es in einem Markt entstand wo man keine feste Bindung an hw hat und so für die schwierigen Fälle (secondary rays) vorsorgt. Beide Lösungen sind vom Markt beeinflusst.

Aber vielleicht habe ich Dich da falsch verstanden und deswegen wirkt es mit zweierlei Maß für mich.

Dorn
2020-10-29, 08:54:55
Glückwunsch an AMD hätte ich kein Gsync Monitor würde neben einem Ryzen 5800X, B550 Board auch eine 6800XT in mein neues System wandern. Somit warte ich auf mehr Speicher bei Nvidia Karten xD

basix
2020-10-29, 08:56:15
SAM und Rage sind vermutlich aus dem Konsolendesign entstanden. Natürlich verständlich dass man solche Goodies auch in den PC drücken will, aber irgendwie gefällt mir das als Konsument nicht.

Naja, Rage ist ein Auto-OC Feature des Treibers. Das könnte Nvidia ebenso bieten oder man nimmt den Afterburner usw. das ist also egal. Wenn das Nvidia nicht selbst bietet sind sie selbst schuld oder der Kunde nimmt ein 3rd Party Tool.

SAM scheint wirklich proprietär zu sein. Die ca. +5% Performance sind jetzt aber kein Weltuntergang und machen den Braten nicht fett. Ist eher die Frage, ob das auf Seiten CPU auf AMD Exklusivität behält. Wenn ja, AMD Verkaufsargument für die CPU und suboptimal für den Kunden. Wenn nein, +/- für AMD (Verkaufsargument für CPU fällt weg, dafür läuft es auch mit Intel CPUs besser somit pro AMD GPU) und für den Kunden top. Wenn Nividia das nicht bietet und es nicht zwingend HW in der CPU benötigt: Selbst schuld, können sowas ja selber implementieren.

Glückwunsch an AMD hätte ich kein Gsync Monitor würde neben einem Ryzen 5800X, B550 Board auch eine 6800XT in mein neues System wandern. Somit warte ich auf mehr Speicher bei Nvidia Karten xD
G-Sync als Vendor Lock hat zugeschlagen ;)

ChaosTM
2020-10-29, 08:58:00
Schade dass G-Sync Monitore nicht mit "normalem" VRR umgehen können. Da rächt sich die proprietäre sch***** wieder mal. Deshalb mag ich diese Firma nicht besonders.

Zergra
2020-10-29, 08:58:26
Die 6900 zeigt doch nur das die Fertigung nicht so super toll ist und bei dem großen Chip immer noch genug Ausschuss produziert. Der Performanceunterschied zwischen der 6800XT und der 6900 dürfte auch eher gering sein, alleine durch die Shader etwa 5%. Und mit Glück noch etwas bessere Samples.

AMD bietet die Karten denen an, die das beste wollen. Für die Masse dürfte die Kapazität nicht ausreichen, aber das spielt auch keine Rolle.
Die 6800XT dürfte die interessantere Karte sein, mit etwas OC und einem guten Sample dürfte der Unterschied marginal sein.

dildo4u
2020-10-29, 08:58:44
Die gewinne mit SAM sind ohne Anpassungen der Entwickler ich würde dort wesentlich mehr erwarten vorallem wenn es Next-Gen only Ports sind.

ChaosTM
2020-10-29, 09:00:57
Die große macht wirklich wenig Sinn. Außer AIB´s schieben doch, trotz aller Widrigkeiten, eine 32GB Version mit marginal schnellerem Speicher nach.

MartinRiggs
2020-10-29, 09:01:41
G-Sync als Vendor Lock hat zugeschlagen ;)

Das hält aber auch nicht lange, ich habe im Keller noch einen G-Sync 27er rumstehen und hab aktuell einen 34er mit Freesync Premium.

Da sich Nvidia voll verzockt hat wird es bei mir eine 6800XT sofern AMD Karten liefern kann und das Ding kein völliger Föhn ist.
Raytracing juckt mich nicht wirklich, die Hersteller sollten sich mal dran machen das man in Spielen eine gute Physik geboten bekommt.

dargo
2020-10-29, 09:01:56
Was meint ihr eigentlich zum Aufpreis von 350 USD?

Also ich für meinen Teil denke, dass dieser - augenscheinlich gibt's ja dafür quasi "nur" acht zusätzliche CUs nicht so gerechtfertigt ist. Wir sprechen immerhin von 54% der 6800XT Preisempfehlung!

Da die TDP gleich bleibt lässt man sich das Golden Sample entsprechend vergüten. Ich denke mal den Preis hat AMD auch bewusst gewählt damit es keinen Ansturm auf einen 80CU N21 gibt. Später in 2021 wenn erstmal die große "Masse" mit Karten abgedeckt ist kann AMD den Preis immer noch senken. Ich vermute der Preis wird gesenkt wenn die 6900XT für die AIBs freigegeben wird.

Schade dass G-Sync Monitore nicht mit "normalem" VRR umgehen können. Da rächt sich die proprietäre sch***** wieder mal. Deshalb mag ich diese Firma nicht besonders.
Tja... es war nur eine Frage der Zeit bis sich diese scheiß IHV-Bindung bei gewissen Monitoren bemerkbar macht.

Die 6900 zeigt doch nur das die Fertigung nicht so super toll ist und bei dem großen Chip immer noch genug Ausschuss produziert.
Es gibt keine Anzeichen für deine These. In dem Fall wäre der Preisabstand zwischen RX 6800 und RX 6800XT wesentlich größer. Für mich sieht es eher danach aus, dass AMD auf keinen Fall die 300W sprengen wollte, was ich absolut gut finde denn von dem Schlucker-Image muss AMD weg und dank Ampere ist es der beste Zeitpunkt aktuell.

dargo
2020-10-29, 09:06:07
dp

Berniyh
2020-10-29, 09:08:40
Was meint ihr eigentlich zum Aufpreis von 350 USD?
Die 6900 ist ziemlich überteuert, ich denke da sind sich praktisch alle einig.

Positiv dabei ist eigentlich nur, dass es nicht ganz so übel ist wie bei der 3090.

Redneck
2020-10-29, 09:10:59
Die 3090 dürfte schon etwas vor der 6900 bleiben, die hatte ja SMA und Auto OC aktiviert.
Weil die 3090 auch so gut übertaktbar ist... (genauso wie die 3080)...
wir wissen noch nicht, wie's mit den 6800/6900 abgeht, aber zumindest über 3080/3090 kann man schon urteilen, das sie keine OC Champs sind

Berniyh
2020-10-29, 09:13:03
wir wissen noch nicht, wie's mit den 6800/6900 abgeht
Also wenn man sich den BuschAIB-Funk anhört, dann lassen die sich ganz ordentlich übertakten.

Sardaukar.nsn
2020-10-29, 09:14:45
Die 6900 ist ziemlich überteuert, ich denke da sind sich praktisch alle einig.

Positiv dabei ist eigentlich nur, dass es nicht ganz so übel ist wie bei der 3090.

Sehe ich ähnlich, die 6900 ist einfach nur binning. Nicht wirklich mehr Substanz wie beim 3080, 3090 Vergleich. Auch die 6800 (non-XT) scheint nicht wirklich interessant zu sein. Bleibt eigentlich nur eine interessante Karte übrig.

Ich denke man kann getrost zur 6800XT greifen, den Aufpreis zur 6900 eher in ein gutes Custom Design und/oder einen Wasserblock investieren. Ich bin gespannt was Asus mit der Strix heute noch zeigt.

Zergra
2020-10-29, 09:15:08
Weil die 3090 auch so gut übertaktbar ist... (genauso wie die 3080)...
wir wissen noch nicht, wie's mit den 6800/6900 abgeht, aber zumindest über 3080/3090 kann man schon urteilen, das sie keine OC Champs sind

Normal werden die Vergleiche bei gleichen Bedingungen genutzt. AMD nutzt aber eben bei der 6800, 6800XT oder 6900 mal SMA oder Rage oder mal eben nicht. Das macht die Perf. Differenz untereinander noch schwerer.

Die 6900 dürfte unter gleichen bedingen näher an der 6800XT sein, als man auf den ersten Blick vermuten würde.

dargo
2020-10-29, 09:15:09
wir wissen noch nicht, wie's mit den 6800/6900 abgeht, aber zumindest über 3080/3090 kann man schon urteilen, das sie keine OC Champs sind
Eigentlich schon dank Patrick und dem 289W TGP Bios. :wink:

btw.
Man sieht auch gut wie igor sich bei seinen Verbrauchsprognosen verrannt hat. Die 300W der ganzen Karte passen wunderbar zu den 255W TGP.

Dorn
2020-10-29, 09:15:28
Schade dass G-Sync Monitore nicht mit "normalem" VRR umgehen können. Da rächt sich die proprietäre sch***** wieder mal. Deshalb mag ich diese Firma nicht besonders.
Ja das nervt mich auch. Davor hatte ich sogar einen tollen Freesync Monitor für nur 6 Monate aber denn habe ich wieder verkauft weil ich mir doch keine Fury gekauft hatte.
Eigentlich müsste ich mir jetzt einen Gsync Compatible kaufen...aber ne bin gerade so zu frieden mit dem Monitor und kaufe gerade genug neue Hardware...

basix
2020-10-29, 09:15:44
...die Hersteller sollten sich mal dran machen das man in Spielen eine gute Physik geboten bekommt.

Dazu kann ich folgende drei sehr aktuelle Videos von Two Minute Papers empfehlen, die haben mich ziemlich geflashed:
https://www.youtube.com/watch?v=F0QwAhUnpr4
https://www.youtube.com/watch?v=zzy6u1z_l9A (Nvidia)
https://www.youtube.com/watch?v=DxW_kk5LWYQ
https://www.youtube.com/watch?v=5ePD83StI6A
Die Papers dazu und Details sind jeweils unter dem Video verlinkt.

Die Qualität der gezeigten Physikeffekte (Rigid Body und Object Deformation, Fluid Dynamics) ist wirklich krass gut. Dort sieht Wasser wirklich mal nach Wasser aus (nicht so zähflüssig), Objektdeformationen und Zerstörung ist deutlich realistischer als sonst und physikalisch fast korrektes Verhalten von Festkörpern. Die ersten zwei Videos handeln vom selben Thema und ist zudem von Nvidia veröffentlicht worden ;)

Vor allem bei den Partikel- und Fluidsimulationen muss die Performance oder Optimierung um >1000x stattfinden, damit das in Realtime läuft ;D

Die 6900 ist ziemlich überteuert, ich denke da sind sich praktisch alle einig.

Positiv dabei ist eigentlich nur, dass es nicht ganz so übel ist wie bei der 3090.
Ja, bei 849$ für die 6900XT hätte vermutlich fast niemand was gesagt. Entweder die Marge wird damit möglichst hoch gehalten oder AMD kann einfach nicht viele Chips in dieser Güte liefern. Ist immerhin der Vollausbau mit maximalster Energieeffizienz. Vermutlich etwas von beidem.

Redneck
2020-10-29, 09:18:34
Die 6900 ist ziemlich überteuert, ich denke da sind sich praktisch alle einig.

Positiv dabei ist eigentlich nur, dass es nicht ganz so übel ist wie bei der 3090.

wenn man die reine Hardware Vergleicht, dann ja.. ist sie überteuert.
Rein Leistungstechnisch ist sie aber wohl eher ein Schnäppchen.

Ich vermute mal, das die 6900er eigentlich die 6800XT hätte werden sollen.
Wäre die 3090 stärker ausgefallen, hätte man die 80CU womöglich gegen die 3080 gestellt und versucht über besseres binning die 3090 zu attackieren.
So reicht es aber für einen kastrierten chip gegen 3080 und vollausbau gegen 3090 ohne beim takt in die vollen gehen zu müssen.

Flusher
2020-10-29, 09:21:31
Wie sich hier schon einige über SAM den Ast abfreuen und es als Killer-Feature anpreisen, obwohl NULL bekannt ist wie es funktioniert, welche Wirkung es genau hat und ob die Performancezuwächse durchgängig in allen Games zu sehen sind.

AMD hat leider keinen guten "Track-Record" was neue Technologien, die Pflege, und ihre Performance Zuwächse angeht. Siehe HBCC auf Vega

Redneck
2020-10-29, 09:22:09
Eigentlich schon dank Patrick und dem 289W TGP Bios. :wink:

btw.
Man sieht auch gut wie igor sich bei seinen Verbrauchsprognosen verrannt hat. Die 300Wder ganzen Karte passen wunderbar zu den 255W TGP.
das ist "Paper" Dargo.. und Papier ist Geduldig (die Wahrscheinlichkeit ist da, ja aber ich denke an die Zeit vor Einführung von dem 7nm Ryzen zurück , als viele von uns auch dachten, das die OC champs werden würden... war dann aber nicht so.)

Iscaran
2020-10-29, 09:23:06
Wenn man sich Navi22 anschaut, hat der genauso viele Compute Units wie Navi10, aber nur ein 192-Bit Interface, gegenüber den 256-Bit bei Navi10.
Navi23 hat 32 Compute Units, zwei Shader Engines und 64 ROPs und ist auch nur mit 128-Bit GDDR6 bestückt.
Es scheint so, als ob AMD den Infinity Cache für die ganze GPU-Reihe verwenden wird, denn ansonsten wäre es schwer überhaupt irgendeine GPU von denen, mit dem relativ schmalen Interface, zu füttern.
Navi21 hat 128MB, spekulativ könnte Navi22 und Navi23 64MB haben und Navi24 nur 32MB?

Ja das wäre eigentlich fast nur logisch, wenn AMD dies so umsetzt. Denn ohne Infinity Cache sind ja die schmalen SIs nicht ausreichend - selbst für die kleinen Chips könnte es da ja schon eng werden.

Zu SAM (Smart Memory Access)

Gibt es witzigerweise schon Whitepapers von Intel zu einer Technologie die "fast genauso" heisst (Smart Memory Access SMA) und ähnliches macht ?

https://www.all-electronics.de/wp-content/uploads/migrated/document/196371/413ei0507-intel-sma.pdf

Vielleicht ist das gar nicht so AMD "proprietär", vielleicht bringt man hier nur mal wieder Server Tech auf den Desktop.

Auch dieses Intel "Smart Cache" Ding - Infinity Cache @Intel anyone ?
https://en.wikichip.org/w/images/7/7f/20060308_Pawlowski.pdf

Und dazu noch die Vorarbeiten aus den 90ern von Aaron Lipman:
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.49.3925
https://www.researchgate.net/scientific-contributions/2163238697-Aaron-Lipman

Vielleicht ist SAM eine eher "offene" Technologie - also so ähnlich vielleicht wie DirectX, wo man eine Spezifikation hat und jeder der diese "erfüllt" kann diese Feature dann eben nutzen.

AMD ist dann eben nur ERSTE der es umsetzt.

basix
2020-10-29, 09:23:09
del

Berniyh
2020-10-29, 09:25:26
Wie sich hier schon einige über SAM den Ast abfreuen und es als Killer-Feature anpreisen, obwohl NULL bekannt ist wie es funktioniert, welche Wirkung es genau hat und ob die Performancezuwächse durchgängig in allen Games zu sehen sind.
Das stimmt doch gar nicht? Schau dir mal das Video hier an …
https://www.youtube.com/watch?v=8KAnebwCAaA

Redneck
2020-10-29, 09:25:26
Wie sich hier schon einige über SAM den Ast abfreuen und es als Killer-Feature anpreisen, obwohl NULL bekannt ist wie es funktioniert, welche Wirkung es genau hat und ob die Performancezuwächse durchgängig in allen Games zu sehen sind.

AMD hat leider keinen guten "Track-Record" was neue Technologien, die Pflege, und ihre Performance Zuwächse angeht. Siehe HBCC auf Vega

Äh..
Mantle -> Vulkan.. DX12
Freesync
gibt bestimmt noch mehr

dargo
2020-10-29, 09:27:02
das ist "Paper" Dargo.. und Papier ist Geduldig (die Wahrscheinlichkeit ist da, ja aber ich denke an die Zeit vor Einführung von dem 7nm Ryzen zurück , als viele von uns auch dachten, das die OC champs werden würden... war dann aber nicht so.)
Was für Paper? Patrick hat doch auch die Frequenzen mitgeliefert. :confused:

Iscaran
2020-10-29, 09:27:10
Nutzt SMA zwigend teile von der PCIe4.0? Gibts es evtl das Features dann in der nächsten PCIe spez? Ich hoffe pers. das nichts probretäres drauss wird für lange Zeit.


Hmmm, interessanter Punkt.

In der Kurzübersicht der PCIe 4.0 Specs: https://pcisig.com/sites/default/files/newsroom_attachments/PCIe%204.0%20Blog.pdf
Taucht nur der Punkt auf:
Improved I/O virtualization and platform integration

Das KÖNNTE aber natürlich unter SAM fallen...I/O virtualisierung

Redneck
2020-10-29, 09:28:59
Was für Paper? Patrick hat doch auch die Frequenzen mitgeliefert. :confused:
schätzelein.. das war im übertragenen Sinn gemeint.
Hast du schon eine Karte gesehen oder Benchmarks, die mit diesen Frequenzen gelaufen sind ?
Ich sag ja.. die Wahrscheinlichkeit ist da. Ich möchte das aber "in Echt" sehen.

Thunder99
2020-10-29, 09:29:03
Schade, dass AMD auf bis zu 300W gehen musste..., Nvidia hat es wohlmöglich einfacherer gemacht.

Wollten wohl unbedingt auf Augenhöhe sein und nicht immer x % darunter.

dargo
2020-10-29, 09:30:24
schätzelein.. das war im übertragenen Sinn gemeint.
Hast du schon eine Karte gesehen oder Benchmarks, die mit diesen Frequenzen gelaufen sind ?

Ja... bei Patrick. :tongue:

prinz_valium_2
2020-10-29, 09:31:37
Da es der SepkuTopic ist, lasst uns mal über die 6700er Serie reden.

Jetzt wo alle 6800er 16GB an einem 256bit Interface bekommen haben, sehen wir dort wohl wirklich 192bit mit 12GB
Nach den Preisen bisher ist dies wohl das worst case Preisszenario

RX 6700XT $449
RX 6700 $399

Wobei mir $50 weniger deutlich lieber wären. Aber nach der RX6800 sehe ich das nicht.
Leistung bekommen wir aber deutlich über der RX5800. Vllt sogar knapp unter der RX2070, falls die kleinen Chips gut takten.

basix
2020-10-29, 09:32:08
Schade, dass AMD auf bis zu 300W gehen musste..., Nvidia hat es wohlmöglich einfacherer gemacht.

Wollten wohl unbedingt auf Augenhöhe sein und nicht immer x % darunter.

Naja, das ist logisch. Gleiche Performance = Gleich hohe oder nur knapp tiefere Preise. Da sind +20-30W mehr verkfraftbar, sonst hätte man Marge opfern müssen.

300W ist wirklich viel und mMn für GPUs allgemein zu viel. 250W als Maximum war für mich noch einigermassen OK.

RX 6700XT $449
RX 6700 $399

Wobei mir $50 weniger deutlich lieber wären. Aber nach der RX6800 sehe ich das nicht.
Leistung bekommen wir aber deutlich über der RX5800. Vllt sogar knapp unter der RX2070, falls die kleinen Chips gut takten.

Die Preise sind vermutlich realistisch. Kommt auf den Abstand 6700XT -> 6800 drauf an. Es sind immerhin 40 vs. 60 CU. Mit +15-20% Takt bei der 6700XT wärst du etwa 20% langsamer. Da wären die 449$ OK.

Linmoum
2020-10-29, 09:32:20
Schade, dass AMD auf bis zu 300W gehen musste..., Nvidia hat es wohlmöglich einfacherer gemacht.

Wollten wohl unbedingt auf Augenhöhe sein und nicht immer x % darunter.300W bei AMD sind doch oben schon länger Standard? Finde ich für High-End mit entsprechender Leistung auch passend ootb. Den Rest sollte man dann entsprechend den AiB überlassen.

Badesalz
2020-10-29, 09:32:47
Sind das wieder nur die Gegenfanboys oder hat das irgendeine Grundlage, daß jetzt schon an der RT-Leistung rumgemosert wird?

Sardaukar.nsn
2020-10-29, 09:33:29
Ich vermute mal, das die 6900er eigentlich die 6800XT hätte werden sollen...

Vielleicht lässt sich die 6800XT ja auf eine 6900 flashen. :freak:

Da gabs doch mal was...
https://www.computerbase.de/2010-12/radeon-hd-6950-zu-radeon-hd-6970-freigeschaltet/

Flusher
2020-10-29, 09:34:01
Äh..
Mantle -> Vulkan.. DX12
Freesync
gibt bestimmt noch mehr

TrueAudio
VRR
LiquidVR

gibt bestimmt noch mehr

Zergra
2020-10-29, 09:34:45
Sind das wieder nur die Gegenfanboys oder hat das irgendeine Grundlage, daß jetzt schon an der RT-Leistung rumgemosert wird?

Ja das AMD keine Benchmarks gezeigt hat, zeigt das man den vergleich derzeit Scheut. Ggf. ändert sich das ja noch.

prinz_valium_2
2020-10-29, 09:36:47
Vielleicht lässt sich die 6800XT ja auf eine 6900 flashen. :freak:

Da gabs doch mal was...
https://www.computerbase.de/2010-12/radeon-hd-6950-zu-radeon-hd-6970-freigeschaltet/

Gab es mal, wird es diesmal aber nicht.
Sehe keine Chance, dass es genug 80/80CU chips gibt um die in der 6800XT zu verbauen.

basix
2020-10-29, 09:37:47
Ja das AMD keine Benchmarks gezeigt hat, zeigt das man den vergleich derzeit Scheut. Ggf. ändert sich das ja noch.

Die Narrative der Präsentation war ja: "Gleich auf oder gar knapp darüber". Diese hätte man sich bei schlechterer RT Leistung verhagelt und es wurde eh schon viel in diese 25min gepackt.

Und AMD bekommt damit nochmals 2-3 Wochen Zeit, um die RT-Performance zu optimieren. Allenfalls überrascht AMD uns da. Dito beim Super Resolution Feature. Wieso ich das für möglich halte? AMD stapelt seit Zen 1 / RDNA1 eher tief. Und der IF$ sollte durch die tiefe Latenz und hohe Bandbreite extrem gut für Raytracing geeignet sein. Man wird Nvidia nicht in den Boden stampfen, sonst hätten sie das wohl schon gesagt. Aber gleich auf wäre schon eine positive Überraschung.

dargo
2020-10-29, 09:38:11
Schade, dass AMD auf bis zu 300W gehen musste..., Nvidia hat es wohlmöglich einfacherer gemacht.

Wollten wohl unbedingt auf Augenhöhe sein und nicht immer x % darunter.
Ja... ich vermute die 6800XT war ursprünglich als 275W Karte geplant. Dann wäre es aber wohl zu knapp bei der Performance gegen die RTX 3080 gewesen.

dildo4u
2020-10-29, 09:39:10
Ja das AMD keine Benchmarks gezeigt hat, zeigt das man den vergleich derzeit Scheut. Ggf. ändert sich das ja noch.

3070 Level laut dem DXR Sample.

https://wccftech.com/amd-radeon-rx-6000-rdna-2-big-navi-graphics-cards-ray-tracing-performance-detailed/

Hott3X
2020-10-29, 09:39:19
300W ist wirklich viel und mMn für GPUs allgemein zu viel. 250W als Maximum war für mich noch einigermassen OK.



Sehe ich auch so. Nur ist der Unterschied zwischen 6800 und 6800XT mit 70€ zu gering. Bin mal gespannt wie schnell die 6800XT mit einem PL von 240W läuft.

basix
2020-10-29, 09:44:29
Nur ist der Unterschied zwischen 6800 und 6800XT mit 70€ zu gering. Bin mal gespannt wie schnell die 6800XT mit einem PL von 240W läuft.

Das ist "aus der Not" geboren. Die 6800XT wollten sie etwas unter der 3080 ansiedeln (Perf/$ King Image, Marktanteile gewinnen) - Nvidia hat hier mit der 3080er AMDs Preispunkt limitiert, Danke ;) - und noch weiter runter bei der 6800 hätte bezüglich Marge weh getan (grosser Chip, 16 GByte, N22 und darunter hätte man auch mit tieferen Preisen an den Markt bringen müssen). Ausserdem verlockt das die Leute, zur XT zu greifen, wo AMD mehr Marge hat ;)

RitterRost
2020-10-29, 09:44:31
SAM scheint nichts besonderes zu sein - unter Linux :-)

agd5f ist Linux Entwickler bei AMD.

https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1215570-linux-support-expectations-for-the-amd-radeon-rx-6000-series/page4#post1215694

https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1215570-linux-support-expectations-for-the-amd-radeon-rx-6000-series/page4#post1215694

Smart Access Technology works just fine on Linux. It is resizeable BAR support which Linux has supported for years (AMD actually added support for this), but which is relatively new on windows. You just need a platform with enough MMIO space. On older systems this is enabled via sbios options with names like ">4GB MMIO".

"I don't know what windows does exactly, but on Linux at least, it will work on any platform with enough MMIO space. I suspect windows would behave the same way (although I think windows has stricter requirements about BAR resizing compared to Linux so you may need a sbios update for your platform to make windows happy). "

Complicated
2020-10-29, 09:46:09
Vielleicht ist SAM eine eher "offene" Technologie - also so ähnlich vielleicht wie DirectX, wo man eine Spezifikation hat und jeder der diese "erfüllt" kann diese Feature dann eben nutzen.

AMD ist dann eben nur ERSTE der es umsetzt.
Also das ganze ist doch in AMDs APUs zu finden unter "Onion" und "Garlic" aka später FCL (Fusion Control Link) und RMB (Radeon Memory Bus).
Frei verfügbar als HSA.
Das ganz nun über PCIe 4.0 gamapped wie es HBCC mit HBM schon vorgemacht hat. Hier ist der Cache an Stelle des HBM getreten.
Hier eine alte Zusammenfassung aus 2013:
https://www.electronicdesign.com/technologies/microcontrollers/article/21796296/unified-cpugpu-memory-architecture-raises-the-performance-bar

Darauf haben wir doch jahrelang gewartet, dass diese Technologie Einzug hält in diskrete GPUs und etwas im Gaming bewirken kann und nicht nur bei Compute Workloads. ;)

Wenn AMD nun eine Dual-GPU launched in 2021, die dank diesem Infinity Cache das Skalierungsproblem mit Blick auf Chiplets löst, könnte das noch ein As im Ärmel sein für AMD ( Ja ich habe mir mal erlaubt jetzt AMD eine Schublade zuzuschreiben. Denn da war anscheinend der Infinity Cache gelegen :D )

basix
2020-10-29, 09:50:22
Der IF$ ist eine Key-Technologie, welche Chiplets im GPU-Bereich erst sinnvoll ermöglicht! Damit reduzierst du die MCD <-> GCD Bandbreite auf ein Minimum. AMD erwähnt 58% Cache Hit Rate. Das bedeutet im Umkehrschluss, dass die 512 GB/s VRAM Bandbreite nur für die restlichen 42% benötigt werden. Somit etwa 2.4x Bandbreite gespart. Kann AMD die Hit Rate auf z.B. 67-75% steigern, hat man schon einen Multiplikator von 3-4x

robbitop
2020-10-29, 09:56:24
Zum DLSS-Konter:

DirectML: https://docs.microsoft.com/en-us/windows/win32/direct3d12/dml-intro
Das kann denoisen und upscalen inkl. Neuronles Netz.
Na DLSS for DX anyone ?

DirectML ist eine Schnittstelle für maschinelles Lernen. DLSS ist eine spezifische Anwendung mit trainiertem Neuronalem Netzwerk. Das sind zwei paar Schuhe.

Linmoum
2020-10-29, 09:57:36
Through close collaboration and partnership between Xbox and AMD, not only have we delivered on this promise, we have gone even further introducing additional next-generation innovation such as hardware accelerated Machine Learning capabilities for better NPC intelligence, more lifelike animation, and improved visual quality via techniques such as ML powered super resolution.
https://news.xbox.com/en-us/2020/10/28/a-closer-look-at-how-xbox-series-xs-integrates-full-amd-rdna-2-architecture/

RitterRost
2020-10-29, 09:59:29
Zum DLSS-Konter:
"As things currently stand super Resolution is still under development, so it won’t be available to game developers (or gamers) at the time of the RX 6000 series launch. But once it is, like AMD’s other FidelityFX graphics libraries, it will be released as an open source project on GPUOpen, and AMD is explicitly noting that it’s being designed as a cross-platform solution."

https://www.anandtech.com/show/16202/amd-reveals-the-radeon-rx-6000-series-rdna2-starts-at-the-highend-coming-november-18th/2

Super Resolution wird also offen + cross-platform

ChaosTM
2020-10-29, 10:03:19
Nachdem AMDs "Schärfetool" schon letztes Jahr bessere Ergebnisse erzielt hat als DLSS(1) bin ich guten Mutes, dass man bald was zumindest gleichwertiges hat.

RitterRost
2020-10-29, 10:08:14
Ich habe gerade den beschrifteten Navi21 die-shot von Locuza gesehen.

Hat Navi21 echt nur 8 PCIe4 Lanes?
Dann könnte man die anderen 8 PCIe4 Lanes vom Ryzen schön noch für SSDs nutzen... wenn das Mainboard die Aufteilung zulässt.

Loeschzwerg
2020-10-29, 10:11:19
SAM scheint nichts besonderes zu sein - unter Linux :-)

agd5f ist Linux Entwickler bei AMD.

https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1215570-linux-support-expectations-for-the-amd-radeon-rx-6000-series/page4#post1215694

https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1215570-linux-support-expectations-for-the-amd-radeon-rx-6000-series/page4#post1215694

Smart Access Technology works just fine on Linux. It is resizeable BAR support which Linux has supported for years (AMD actually added support for this), but which is relatively new on windows. You just need a platform with enough MMIO space. On older systems this is enabled via sbios options with names like ">4GB MMIO".

"I don't know what windows does exactly, but on Linux at least, it will work on any platform with enough MMIO space. I suspect windows would behave the same way (although I think windows has stricter requirements about BAR resizing compared to Linux so you may need a sbios update for your platform to make windows happy). "

Danke für die Info. Bedeutet ja eigentlich dass es auch auf alten Ryzen Systemen (und auch Intel) funktionieren sollte.

Iscaran
2020-10-29, 10:19:47
Zum Infinity Cache spekuliert Coealacanth dass dieser an das SI mehr oder weniger direkt gekoppelt ist:
https://translate.google.com/translate?client=firefox-b-e&client=tw-ob&um=1&ie=UTF-8&hl=de&sl=ja&tl=de&u=https%3A%2F%2Fwww.coelacanth-dream.com%2Flastmod%2F
....aber mit der RDNA 2-Architektur wurden Infinity Cache / L3-Cache und 8 MB pro Speicherkanal neu hinzugefügt.

Außerdem entspricht 16ch der Anzahl der Kanäle von GDDR6 mit 256 Bit (GDDR6 verfügt über 16-Bit-Speicherkanäle pro Chip), und für andere RDNA 2- GPUs wird die Kapazität des Infinity-Cache ebenfalls entsprechend der Speicherbusbreite geändert . Es scheint getan zu sein.

Wären also 8 MB InfCache pro Speicherkanal.
Demnach würde ich für den N22 12*8=96 MB Cache und für die 128Bit der N23 dann 64 MB erwarten und falls N24 wirklich nur 64bit hat eben 32 MB cache.



Das ganz nun über PCIe 4.0 gamapped wie es HBCC mit HBM schon vorgemacht hat. Hier ist der Cache an Stelle des HBM getreten.
Hier eine alte Zusammenfassung aus 2013:
https://www.electronicdesign.com/tec...erformance-bar

Darauf haben wir doch jahrelang gewartet, dass diese Technologie Einzug hält in diskrete GPUs und etwas im Gaming bewirken kann und nicht nur bei Compute Workloads.


Das bestätigt dann ja wohl nur, daß "SAM" kein AMD only feature ist - wie von Leonidas schon befürchtet wurde. Sondern man hat eben durch Cleverness ein Feature als erster umgesetzt das prinzipiell aber alle machen können, wenn Sie wollen.
Dazu braucht es wohl nur Treiber/Firmwar-Support (seitens GPU only ? oder auch CPU ?)

ChaosTM
2020-10-29, 10:23:19
Gut so. Geschlossene Systeme haben wir schon genug.

][immy
2020-10-29, 10:25:08
Der IF$ ist eine Key-Technologie, welche Chiplets im GPU-Bereich erst sinnvoll ermöglicht! Damit reduzierst du die MCD <-> GCD Bandbreite auf ein Minimum. AMD erwähnt 58% Cache Hit Rate. Das bedeutet im Umkehrschluss, dass die 512 GB/s VRAM Bandbreite nur für die restlichen 42% benötigt werden. Somit etwa 2.4x Bandbreite gespart. Kann AMD die Hit Rate auf z.B. 67-75% steigern, hat man schon einen Multiplikator von 3-4x
Klingt fast wie der esram in der xbox one APU, außer das dieser nicht als Cache eingesetzt wurde, sondern extra angesprochen werden musste.

Ich vermute nach wie vor das der SRAM (Cache) daher zustande kam, das man mehr Chipfläche brauchte um die Wärme in 7nm besser abzuführen und damit mehr Taktrate zu ermöglichen.
SRAM ist da relativ praktisch. Verursacht wenig Hitze, zieht recht wenig, ist nicht Fehleranfällig in der Fertigung (kann auch einfach redundant aufgebaut werden, womit Fehler im SRAM einfach ausgeschlossen werden können), vergrößert aber gleichzeitig die Die Fläche womit mehr Kontakt zur Kühllösung besteht. Positiver Nebeneffekt, es beschleunigt quasi alles. 128 MB sind echt nicht wenig SRAM.

Ist aber eine teure Lösung, aber das gleichen dann die deutlich höheren Preise wohl auch wieder aus.


Das bestätigt dann ja wohl nur, daß "SAM" kein AMD only feature ist - wie von Leonidas schon befürchtet wurde. Sondern man hat eben durch Cleverness ein Feature als erster umgesetzt das prinzipiell aber alle machen können, wenn Sie wollen.
Dazu braucht es wohl nur Treiber/Firmwar-Support (seitens GPU only ? oder auch CPU ?)
Das würde aber auch bedeuten, das nvidia hier schnell und einfach nachziehen könnte, sobald Zen3 verfügbar ist. Und wenn man sich den Performance-Gewinn den AMD dadurch erzielt anschaut (muss natürlich noch alles von unabhängigen Quellen bestätigt werden) würde nvidia dann mit relativer Leichtigkeit wieder an AMD vorbei ziehen.

Btw, das gibt Zen3 definitiv die Möglichkeit zur schnellsten Gaming CPU zu werden, selbst wenn man bei der IPC noch zurückliegen würde.

Aber auch das es nur für die RX6x00 Gen zur Verfügung steht, bedeutet eigentlich, das es da wohl etwas in Hardware geben muss, sonst hätten sie es wohl auch für RDNA 1 und GCN/Vega gebracht.

Zergra
2020-10-29, 10:25:48
Dazu braucht es wohl nur Treiber/Firmwar-Support (seitens GPU only ? oder auch CPU ?)
Das Mainboard braucht wohl auch ein Update dafür. AMD setzt jedenfalls eine Gewisse Bios Version voraus, und das ist nicht die erste für Zen3.

https://www.amd.com/de/technologies/smart-access-memory

iuno
2020-10-29, 10:33:55
Das bestätigt dann ja wohl nur, daß "SAM" kein AMD only feature ist - wie von Leonidas schon befürchtet wurde. Sondern man hat eben durch Cleverness ein Feature als erster umgesetzt das prinzipiell aber alle machen können, wenn Sie wollen.
Dazu braucht es wohl nur Treiber/Firmwar-Support (seitens GPU only ? oder auch CPU ?)
AMD hat das seit Jahren, ich meine, Nvidia hat es inzwischen auch - auch wenn ich keine Quelle zur Hand habe. Knackpunkt (und "neu") ist, statt des aufgrund 32-Bit Altkrams auf 256 MiB begrenzten Speicherbereichs den ganzen VRAM so nutzen zu koennen. Dazu gibt's die Spec bei der PCI SIG (worauf ich keinen Zugriff habe) und zumindest die Info von MS: https://docs.microsoft.com/en-us/windows-hardware/drivers/display/resizable-bar-support

Nichts daran ist also proprietaere AMD tech.

Der_Korken
2020-10-29, 10:39:24
Wären also 8 MB InfCache pro Speicherkanal.
Demnach würde ich für den N22 12*8=96 MB Cache und für die 128Bit der N23 dann 64 MB erwarten und falls N24 wirklich nur 64bit hat eben 32 MB cache.

Für mich sieht das nach ziemlich viel Diespace aus, die dabei draufgeht. Beim großen Chip ist das nicht so schlimm, weil man den eh teuer genug verkaufen kann. Da ist eher die 300W-Grenze das Problem, weil man die ohne den Cache komplett gerissen hätte (oder durch weniger Takt Leistung verloren hätte). Bei N22 sehe ich das Problem nicht so. Ein exakt halber N21, also 40CUs+128bit+64MB I$ würde rechnerisch ca. 150W verbrauchen. Jetzt hat AMD aber 192bit verbaut, obwohl 128bit locker reichen müssten. Ein Grund wird sicherlich der dadurch möglich Speicherausbau von 12GB sein, aber eventuell sinkt auch die anteilige Größe des Caches (z.B. 48 statt 96MB) -> weniger Fläche für mehr Verbrauch -> kann man sich bei 150W locker leisten. Für N23 wird der I$ dagegen wieder interessant, weil der Verbrauch in Notebooks plötzlich wieder relevant ist.

Iscaran
2020-10-29, 10:41:49
Dazu gibt's die Spec bei der PCI SIG (worauf ich keinen Zugriff habe) und zumindest die Info von MS: https://docs.microsoft.com/en-us/windows-hardware/drivers/display/resizable-bar-support

Nichts daran ist also proprietaere AMD tech.


Sag das mal Leonidas bei seiner wilden AMD-Verteufelungsjagd :-):
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-28-oktober-2020
"Daneben ist generell die Frage aufzuwerfen, ob AMDs "Smart Access Memory" nicht einen Schritt in die falsche Richtung darstellt. Die exakte Wirkungsweise des Features ist zwar noch etwas unklar, aber in jedem Fall soll hierbei das Zusammenspiel von Zen-3-Prozessor, 500er Mainboard und RDNA2-Grafikkarte ausgenutzt werden – sprich es handelt sich um ein Feature, welches allein nur bei 100%iger AMD-Technik funktioniert. Käme so etwas von Intel oder nVidia, wäre da sicherlich der Teufel los – bei AMD geht dies nun in aller Euphorie unter, gibt aber dennoch den Beweis dafür ab, dass die Marktkonstruktion eines Anbieters von PC-Prozessoren und PC-Grafikkarten zusammen aus Wettbewerbs- und Fairness-Sicht eben doch suboptimal ist."

Legendenkiller
2020-10-29, 10:43:02
Vielleicht lässt sich die 6800XT ja auf eine 6900 flashen. :freak:

Da gabs doch mal was...
https://www.computerbase.de/2010-12/radeon-hd-6950-zu-radeon-hd-6970-freigeschaltet/


Die 6900 wird es nur von AMD geben. Das sind also "handverlesene" Chips.

Die 6800 könnte also durchaus bereits in Hardware gesperrt sein.
Aber selbst so dürften für längere Zeit alle Vollausbauships auf der 6900 landen und die 6800 immer den Rest bekommen.
In 1 Jahr vieleicht wenn die Ausbeute so gut ist das sie auch 100% chips auf die 6800 löten.

Aber hoffen kann man ja mal ^^

Complicated
2020-10-29, 10:43:45
[immy;12478171']

Das würde aber auch bedeuten, das nvidia hier schnell und einfach nachziehen könnte, sobald Zen3 verfügbar ist. Und wenn man sich den Performance-Gewinn den AMD dadurch erzielt anschaut (muss natürlich noch alles von unabhängigen Quellen bestätigt werden) würde nvidia dann mit relativer Leichtigkeit wieder an AMD vorbei ziehen.
Na das hoffe ich doch :) Das erhöht den Druck auf CPU-Hersteller Intel und auf Software-Entwickler. Nur so bekommen wir als Endkunden bessere Technologie.