Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 [68] 69 70 71 72 73 74 75 76 77 78 79 80 81

ChaosTM
2020-10-29, 10:45:43
Vielleicht lässt sich die 6800XT ja auf eine 6900 flashen. :freak:

Da gabs doch mal was...
https://www.computerbase.de/2010-12/radeon-hd-6950-zu-radeon-hd-6970-freigeschaltet/


Erinnert mich an die gute alte 9800SE - mit etwas Glück + 100% Leistung mit den Omega Treibern. Meine Lieblingskarte bisher.

Complicated
2020-10-29, 10:46:23
"Daneben ist generell die Frage aufzuwerfen, ob AMDs "Smart Access Memory" nicht einen Schritt in die falsche Richtung darstellt. Die exakte Wirkungsweise des Features ist zwar noch etwas unklar, aber in jedem Fall soll hierbei das Zusammenspiel von Zen-3-Prozessor, 500er Mainboard und RDNA2-Grafikkarte ausgenutzt werden – sprich es handelt sich um ein Feature, welches allein nur bei 100%iger AMD-Technik funktioniert. Käme so etwas von Intel oder nVidia, wäre da sicherlich der Teufel los – bei AMD geht dies nun in aller Euphorie unter, gibt aber dennoch den Beweis dafür ab, dass die Marktkonstruktion eines Anbieters von PC-Prozessoren und PC-Grafikkarten zusammen aus Wettbewerbs- und Fairness-Sicht eben doch suboptimal ist."
Ich bin sicher das schreibt er dann auch bei dem Wechsel von PCIe4->PCIE5 ebenso oder bei DDR5 :rolleyes:. Da wird AMD ein Verhalten von Intel und Nvidia unterstellt, während HSA-Systeme schon lang für jeden möglich sind. Stichwort "hUMA" sollte man wieder ausgraben.

Iscaran
2020-10-29, 10:48:29
Für mich sieht das nach ziemlich viel Diespace aus, die dabei draufgeht.

Naja also, WENN es stimmt dass N21 505 mm^2 hat und WENN die 80 CUs und der ganze Rest ca ~390 mm^2 groß sind dann braucht es ca 1mm^2 pro MB InfCache. (bzw. etwas weniger) (115mm^2 für 128 MB). Hab einfach mal angenommen, der "Rest" der zu 505 mm^2 fehlt wäre der Cache.
Und dabei wissen wir nicht ob nicht noch extra Die-Size für andere Elemente gebraucht wurde.

Vielleicht könnte mal jemand aus dem Pixelbild die Größe des Infinity Cache areals ausmessen ?

Bei einem 96 MB N22 cache sind das dann ca 90 mm^2 ?
Bei 64 dann vielleicht noch 55 mm^2 ?


Für N22 waren ja 350 mm^2 kolportiert. Mit selbiger CU-Rechnung für 40CUs bleiben auch da ca 108 mm^2 über.

Das dürfte für die 96 MB ja eigentlich noch reichen.

Für N23 waren 240mm im Gespräch, der hat aber wohl nur 32 CUs...bleiben ca 30 mm^2 über. Das wäre wohl etwas knapp für 64 MB.

ChaosTM
2020-10-29, 10:49:38
AMD ist noch nicht "mächtig" genug, um proprietäres Zeugs durchdrücken zu können. ;)

Savay
2020-10-29, 10:51:17
Verstehe ich das richtig?
Das ist am Ende quasi nur eine kleine Änderung an der eh schon seit einer Ewigkeit vorhandenen IOMMU um die neueste PCIe Spec einfach nur als Erster voll ausnutzen zu können?

HarryHirsch
2020-10-29, 10:52:01
um welche uhrzeit werden die custom modelle denn vorgestellt?

Iscaran
2020-10-29, 10:54:57
SAM for everyone !

AMD hat wenigstens eine coole Marketingbezeichnung dafür :-).

Der_Korken
2020-10-29, 10:55:00
Bei einem 96 MB N22 cache sind das dann ca 90 mm^2 ?
Bei 64 dann vielleicht noch 55 mm^2 ?


Für N22 waren ja 350 mm^2 kolportiert. Mit selbiger CU-Rechnung für 40CUs bleiben auch da ca 108 mm^2 über.

Das dürfte für die 96 MB ja eigentlich noch reichen.

Für N23 waren 240mm im Gespräch, der hat aber wohl nur 32 CUs...bleiben ca 30 mm^2 über. Das wäre wohl etwas knapp für 64 MB.

"Reichen" kann vieles, aber wenn man einen N22 statt 350mm² z.B. auch 315mm² groß bekommt bei 20W mehr Verbrauch, dann scheint mir das deutlich wirtschaftlicher zu sein. Die 20W merken die Kunden nicht so sehr, aber den 10% kleineren Die merkt AMD sehr schnell im Geldbeutel und bei den Waferkapazitäten.

Dural
2020-10-29, 10:55:08
OK ca. 10% mehr Leistung (Reine FPS) als gedacht, Cache ist interessant, aber sonst bleibt nicht viel übrig. Takt wie erwartet, Stromverbrauch OK, da werden die 256Bit in Verbindung mit dem Cache sicher gut sparen. Interessante Technik und Umsetzung ist es allemal. AMD Typisch hat man halt wieder viel Leistung technisch so billig wie möglich erschaffen, abseits von den FPS bekommt man nicht viel geboten.

RT wie befürchtet schlecht, und der grösste Witz, die Karten fallen in 4K zurück wobei alle davon reden wie wichtig 16GB jetzt sind... Das Cache System kann die Bandbreite offensichtlich doch nicht so gut kompensieren wie das AMD gerne hätte.

999.- für die 6900XT ist richtig Frech, ist es doch nur eine 256Bit Karte. Die Verfügbarkeit der Karte wird aber ziemlich sicher so wie so sehr schlecht sein.

Die AMD Eigenen Benchmarks können gar nicht stimmen, sagen sie doch das Navi2 rund 100-120% schneller als die 5700XT ist, die 3090 ist im Durchschnitt aber 125% schneller als die 5700XT. Für die 3090 wird es nicht reichen, in 4K mit RT erst recht nicht.

Ich zünde für alle AMD Boys eine Kerze an, können sie sich doch nicht mehr die Top Hardware von AMD Leisten... ;) Jetzt haben wir also auch bei AMD rund 2000.- für je GPU und CPU Topmodell. Die Schnäppchen Zeiten mit unterlegener Hardware sind Vorbei.

Rolsch
2020-10-29, 10:55:11
Verstehe ich das richtig?
Das ist am Ende quasi nur eine kleine Änderung an der eh schon seit Ewigkeit vorhandenen IOMMU um die neuesten PCIe Spec einfach nur als Erster voll ausnutzen zu können?
Ist noch alles unbekannt. Die Tatsache das man AMD-CPU,AMD-MB und GPU mit Infinity-Cache braucht deutet darauf hin dass es doch etwas mehr sein könnte als IO Mapped Memory+.

chetigol
2020-10-29, 10:55:30
Ich würde SAM eher so interpretieren, dass es auf anderen Systemen ebenfalls lauffähig ist, aber bestimmte Vorraussetzungen/Anforderungen an die Hardware gestellt werden, um eine Performancesteigerung zu erzielen. Diese Anforderungen werden derzeit nur von einem Zen3+MB erfüllt.

Wozu ein Zen1/2/Intel System zeigen, welches zwar auch funktioniert aber sich nicht in längeren Balken niederschlägt.

Iscaran
2020-10-29, 10:56:28
Wobei ich glaube, daß dieser markante PerformanceVorteil von SAM sich erst im Zusammenspiel mit der ganzen Infinity Cache Logik Re-Organisation ergibt.

Alleine die Änderung der Memory Access Größe wird nicht soviel bringen.

Rolsch
2020-10-29, 10:59:19
Wobei ich glaube, daß dieser markante PerformanceVorteil von SAM sich erst im Zusammenspiel mit der ganzen Infinity Cache Logik Re-Organisation ergibt.

Alleine die Änderung der Memory Access Größe wird nicht soviel bringen.
Denke auch dass der Infinity Cache der Schlüssel zu SAM ist.

dargo
2020-10-29, 11:00:23
Dural ist mit seinen Ergüssen wieder da. ;D Ich frage mich wo der war als Nvidia mit einen Mainstream-Chip @GP104 für teures Geld kam? :uup:

why_me
2020-10-29, 11:05:18
RT wie befürchtet schlecht, und der grösste Witz, die Karten fallen in 4K zurück wobei alle davon reden wie wichtig 16GB jetzt sind...

Du glaubst also schon wieder mehr als alle anderen zu wissen und dann liegst du am Ende doch wieder daneben? :eek:
Wurde etwas zu RT und 4k gezeigt? Habe ich etwas verpasst?

PS: Hattest du nicht um deinen Account gewettet? :confused::P

Berniyh
2020-10-29, 11:06:18
999.- für die 6900XT ist richtig Frech, ist es doch nur eine 256Bit Karte.
hm, 999/256*384 ist 1499. Also ist der Preis der 3090 deiner Meinung nach auch eine Frechheit? :tongue::biggrin:

w0mbat
2020-10-29, 11:08:58
OK ca. 10% mehr Leistung (Reine FPS) als gedacht, Cache ist interessant, aber sonst bleibt nicht viel übrig. Takt wie erwartet, Stromverbrauch OK, da werden die 256Bit in Verbindung mit dem Cache sicher gut sparen. Interessante Technik und Umsetzung ist es allemal. AMD Typisch hat man halt wieder viel Leistung technisch so billig wie möglich erschaffen, abseits von den FPS bekommt man nicht viel geboten.
Technisch effizient und genial wird für Dural bei AMD zu "billig" ;D
Und dass Nvidia jetzt technisch hinterher hinkt (kein SAM und FidelityFX) ignoriert er auch.


RT wie befürchtet schlecht, und der grösste Witz, die Karten fallen in 4K zurück wobei alle davon reden wie wichtig 16GB jetzt sind... Das Cache System kann die Bandbreite offensichtlich doch nicht so gut kompensieren wie das AMD gerne hätte.
Es gab bisher keine RT benchmarks, die einzigen Zahlen die wir haben zeigen eine bessere RT Leistung als 2080 Ti und 3070. D.h., für Dural sind ab jetzt nur noch 3080 und 3090 für RT gut, alles andere ist schlecht :D
Und dass Navi in 4K ne 3080 schlägt und dann in 1440p noch schneller wird dreht Dural gleich um in "sie werden in 4K langsamer" ;D


999.- für die 6900XT ist richtig Frech, ist es doch nur eine 256Bit Karte. Die Verfügbarkeit der Karte wird aber ziemlich sicher so wie so sehr schlecht sein.
Die 1500€ für die 3090 sind frecher.


Die AMD Eigenen Benchmarks können gar nicht stimmen, sagen sie doch das Navi2 rund 100-120% schneller als die 5700XT ist, die 3090 ist im Durchschnitt aber 125% schneller als die 5700XT. Für die 3090 wird es nicht reichen, in 4K mit RT erst recht nicht.
Laut den Benchmarks schlägt man die 3090 sogar zT. Und klar stimmen die, die müssen sogar stimmen, da AMD sonst verklagt werden kann.
Einfach mal tief ein- und ausatmen mein Lieber. Die Lederjacke bekommt Konkurrenz.


Ich zünde für alle AMD Boys eine Kerze an, können sie sich doch nicht mehr die Top Hardware von AMD Leisten... ;) Jetzt haben wir also auch bei AMD rund 2000.- für je GPU und CPU Topmodell. Die Schnäppchen Zeiten mit unterlegener Hardware sind Vorbei.
1000€ bzw. 850€ werden auf einmal 2000€. Wenigsten erkennst du an, dass AMD jetzt vorne liegt.


Ich weiß, dont feed the troll und so, aber war zu witzig Durals Versuch, AMDs absolute Dominanz in seine Blase rein zu lassen :biggrin:

Hasenpfote
2020-10-29, 11:09:08
Smart Access Technology works just fine on Linux. It is resizeable BAR support which Linux has supported for years (AMD actually added support for this), but which is relatively new on windows. You just need a platform with enough MMIO space. On older systems this is enabled via sbios options with names like ">4GB MMIO".

Ich würde SAM eher so interpretieren, dass es auf anderen Systemen ebenfalls lauffähig istZumindest unter Linux ist es so:
I don't know what windows does exactly, but on Linux at least, it will work on any platform with enough MMIO space. I suspect windows would behave the same way (although I think windows has stricter requirements about BAR resizing compared to Linux so you may need a sbios update for your platform to make windows happy).

Microsoft unterstützt das erst seit 2017, siehe https://docs.microsoft.com/en-us/windows-hardware/drivers/display/resizable-bar-support
Interessant wäre, warum AMD das auf eigene Hardware irgendwie begrenzt. Vielleicht, weil sie nur bei den 500er Boards fordern, dass die PCI Root Bridge umprogrammierbar sein muss (siehe https://patchwork.kernel.org/project/linux-pci/patch/5662C61F.50303@amd.com/ ist von 2008) oder bestimmte BIOS-Einstellungen gesetzt sein müssen.

ChaosTM
2020-10-29, 11:10:15
die 90er Karten sind beide nicht sehr klug was P/L betritt aber der Bragging Faktor ist enorm.
Ich hoffe die AIBs bringen was mit 32GB.. 16 fühlt sich irgendwie "knapp" an. ^^

Brillus
2020-10-29, 11:11:16
999.- für die 6900XT ist richtig Frech, ist es doch nur eine 256Bit Karte. Die Verfügbarkeit der Karte wird aber ziemlich sicher so wie so sehr schlecht sein.

6900xt Preis als frech bezeichen aber 3090 soll gut sein. :facepalm:

Achso und wie kann man nur so ein Krüppel von 384 oder gar nur 320 bit interface haben. VII hat ein 4096 Bit memory interface. Wenn das der Massstab ist müsdte die ja alles um Welten platt machen.

Cyberfries
2020-10-29, 11:12:46
Dural war ganz offensichtlich unzufrieden mit Ampere, schließlich kam von ihm vorgestern noch:

Ich habe heute morgen die 3090 STORNIERT

Ich glaub ich war noch nie so froh das eine Grafikkarte so schlecht lieferbar war :freak::freak::freak:

Für mich unverständlich wie so NV den vollen GA104 mit 16GB storniert hat, wäre eine ziemlich brauchbare Karte geworden... :rolleyes:

Häme braucht es nicht, es gibt nicht nur schlechte Verlierer, sondern auch schlechte Gewinner.

Zu den Preisen: Stimmt doch, die 6900xt ist viel zu teuer. Die 6800 ist preislich auch unattraktiv.
Die 6800xt dagegen trifft überall die richtigen Knöpfe.
Und zu SAM: Sofern das AMD-exklusiv wäre, würde ich Leonidas Kritik voll Recht geben.
Fanboy-Brille abnehmen.

ChaosTM
2020-10-29, 11:14:27
Die 6800er sehe ich sehr bald unter 500 fallen, falls halbwegs verfügbar.

Brillus
2020-10-29, 11:17:27
Die 6800er sehe ich sehr bald unter 500 fallen, falls halbwegs verfügbar.

Wäre ich mir nicht so sicher die Preisgestaltung sieht mir eher so aus als wollte man Leute da vom kauf abhalten und zur XT drängen. Würde mich nichtmal wundern die mit N22 leise aus dem Katalog fällt.

Zossel
2020-10-29, 11:17:33
Hmmm, interessanter Punkt.

In der Kurzübersicht der PCIe 4.0 Specs: https://pcisig.com/sites/default/files/newsroom_attachments/PCIe%204.0%20Blog.pdf
Taucht nur der Punkt auf:
Improved I/O virtualization and platform integration

Das KÖNNTE aber natürlich unter SAM fallen...I/O virtualisierung

Oder es wird IF statt PCIe genutzt, sind ja die gleichen PHYs.

nordic_pegasus
2020-10-29, 11:18:59
OK ca. 10% mehr Leistung (Reine FPS) als gedacht, Cache ist interessant, aber sonst bleibt nicht viel übrig. Takt wie erwartet, Stromverbrauch OK, da werden die 256Bit in Verbindung mit dem Cache sicher gut sparen. Interessante Technik und Umsetzung ist es allemal. AMD Typisch hat man halt wieder viel Leistung technisch so billig wie möglich erschaffen, abseits von den FPS bekommt man nicht viel geboten.

und was außer mehr FPS soll eine neue Grafikkarte primär liefern? AMD hat nach Jahren endlich wieder etwas im High-End Segment und ist auf Schlagweite mit Nvidia. Wie das erreicht wird, ist den meisten Nutzern egal.


RT wie befürchtet schlecht, und der grösste Witz, die Karten fallen in 4K zurück wobei alle davon reden wie wichtig 16GB jetzt sind... Das Cache System kann die Bandbreite offensichtlich doch nicht so gut kompensieren wie das AMD gerne hätte.

und wo sind die ganzen RT Spiele? Meine Spiele-Bibliothek ist rand voll mit Titeln ohne RT. Genau das hatte Jensen eingestanden, dass Turing nicht genug Leistungsplus in Rasterizing hatte. AMD bringt lieber erstmal einen Performance-Sprung und erfüllt das Häkchen bei Raytracing. Bis sich RT wirklich im Markt durchgesetzt hat, sind die meisten User hier im Forum sowieso schon mit der nächsten Karte unterwegs.

Zu 4K/Cache: also ich habe in der Präsentation hauptsächlich Balken in 4K gesehen. Wo ist AMD da zurückgefallen?


999.- für die 6900XT ist richtig Frech, ist es doch nur eine 256Bit Karte. Die Verfügbarkeit der Karte wird aber ziemlich sicher so wie so sehr schlecht sein.

weil die 3090 ein 384bit SI hat, sind also 1500€ UVP (!= Straßenpreis) gerechtfertigt?

Wenn jetzt AMD die Verfügbarkeit zum Launch verka**en sollte, ist das böse? Hat es Nvidia besser gemacht?

Asaraki
2020-10-29, 11:24:11
Vielleicht lässt sich die 6800XT ja auf eine 6900 flashen. :freak:

Da gabs doch mal was...
https://www.computerbase.de/2010-12/radeon-hd-6950-zu-radeon-hd-6970-freigeschaltet/

Als Besitzer von zwei 6950, äh, 6970ern - damals im Crossfire o_______o - wäre das ein Grund sich nur schon zum Spass eine zu kaufen.

Gibt doch nix geileres und gleichzeitig irrelevanteres als "Gratis Shader" :D
Mann was hab ich gezittert beim Flashen der Karte ohne Dualbios :D

Ontopic : Bin sehr gespannt und kann mir vorstellen meiner Freundin eine Nxx zu kaufen, einfach damit mal wieder eine AMD GPU hier werkelt. Wird aber vermutlich aufgrund des zestörten Resell-Values der Turing Super Obsolete Edition nicht passieren, solange ich die nicht irgendwo schlau einsetzen kann.

dargo
2020-10-29, 11:27:01
Die 6800 ist preislich auch unattraktiv.

Ich bin mir da noch nicht sicher. Erstmal die Straßenpreise abwarten, natürlich nach der Deppenaufschlag-Phase. Ich gehe auch davon aus, dass viele AIBs die RX 6800 nicht nur bei 203W TGP lassen, höchstens die Karten mit den günstigeren Kühlern. Warum sollten sie auch? Das Ding hat einen sehr niedrigen Gameclock, da ist noch einiges an Luft nach oben. Mit 230W TGP wird der Performanceabstand zur RX 6800XT non OC mickrig. Und die OC-Modelle der RX 6800XT gehen locker auf 340W (289W TGP) hoch + Ziegelsteine, nicht so prickelnd. Jedenfalls ist mir persönlich das zu viel. Schön leise wird da nichts mehr mit Luft. Mit Wakü wäre mir das egal, bin aber kein Wakü-Fan.

Savay
2020-10-29, 11:28:43
gehen locker auf 3400W hoch, nicht so prickelnd.

Ich hoffe doch nicht.
Meine arme Hausinstallation. :tongue:

dargo
2020-10-29, 11:31:17
Tastatur klemmt. :D

Asaraki
2020-10-29, 11:32:43
Ich hoffe doch nicht.
Meine arme Hausinstallation. :tongue:

Er hat schon Recht, sich nur um 10 Generationen vertan.

RTX 10090 comes with a small nuclear power plant. Powerlimit redefined.

"Ist dein Atomkraftwerk luftgekühlt oder hast du da eine AiO drauf?"

Achill
2020-10-29, 11:36:33
Dural ist mit seinen Ergüssen wieder da. ;D Ich frage mich wo der war als Nvidia mit einen Mainstream-Chip @GP104 für teures Geld kam? :uup:

Auf einer Emergency-Schulung zu neuen NV-Fakts und AMD-Fails ... einfach nicht Füttern das Chat-Bot-Netz.

ChaosTM
2020-10-29, 11:40:40
Er hat schon Recht, sich nur um 10 Generationen vertan.

RTX 10090 comes with a small nuclear power plant. Powerlimit redefined.

"Ist dein Atomkraftwerk luftgekühlt oder hast du da eine AiO drauf?"


Sowas könnte wirklich kommen. In Diamanten eingeschlossener Atommüll betreibt Herzschrittmacher etc. bis zu 25k Jahre lang.
Beta Strahlung machts möglich - für Grakas haben die aber zu wenig Strom - noch.. :)

dargo
2020-10-29, 11:40:45
Auf einer Emergency-Schulung zu neuen NV-Fakts und AMD-Fails ... einfach nicht Füttern das Chat-Bot-Netz.
Das erklärt Einiges. :D

Das mit dem Füttern ist mir klar. Aber manchmal kann ich einfach nicht anders weil ich mich hier fast bepisse vor Lachen. ;D

gbm31
2020-10-29, 11:41:30
Quotet den doch bitte nicht. Sonst ist meine Ignore nutzlos...

Asaraki
2020-10-29, 11:44:13
Quotet den doch bitte nicht. Sonst ist meine Ignore nutzlos...

Die nächste Version vom BB hat dann Cascaded Ignores :D ;-)

dildo4u
2020-10-29, 11:53:11
Jetzt wo es finales Werte gibt Schätze mal Igor hatte bei seinen TDP Einschätzungen höhere Clocks im Sinn?

bloodflash
2020-10-29, 11:54:19
Und zu SAM: Sofern das AMD-exklusiv wäre, würde ich Leonidas Kritik voll Recht geben.

Naja, PCIe4 war auch eine ganze Zeit AMD exklusiv :D


Und so wie sich AMD bisher beim Öffnen seiner Features und Unterstützung von OSS angestellt hat, glaube ich auch nicht, dass sich das mittelfristig ändern wird.

iuno
2020-10-29, 11:55:32
Alleine die Änderung der Memory Access Größe wird nicht soviel bringen.
In Vulkan kann man die unterschiedlichen Speicherpools abfragen. Je nachdem, was man tun will, setzt man unterschiedliche Prioritaeten. Das macht die Anwendungslogik. Wenn man fuer x einen Pool will, auf den die CPU Zugriff hat, er aber ohne "SMA" ausscheidet, weil er zu klein ist, bringt das schon was, ohne dass man irgendwo sonst was aendern muss.

Andron
2020-10-29, 11:56:46
Dural ist mit seinen Ergüssen wieder da. ;D Ich frage mich wo der war als Nvidia mit einen Mainstream-Chip @GP104 für teures Geld kam? :uup:

Jetzt mal langsam. Big Navi lag laut Durals Prognose auf GA 104 Niveau, jetzt wo er in der größten Ausbaustufe quasi mit der 3090 gleichzieht, ist er in seinem Universum etwa 10% schneller als gedacht:freak:.
Somit ist die 3090 ebenfalls nur ca. 10 Dural-% schneller als die 3070. 499€ sind damit ein wahnsinnig gutes Angebot:D.

edit: gerade gemerkt, dass ich GA104 statt GP104 gelesen habe. Die Rechnung passt aber trotzdem:D.

nairune
2020-10-29, 11:57:52
Jetzt wo es finales Werte gibt Schätze mal Igor hatte bei seinen TDP Einschätzungen höhere Clocks im Sinn?

Nein, er hatte ja die Powerlimits. Also einfach nur Quatsch erzählt, war ja abzusehen dass das nicht hinhaut.

dildo4u
2020-10-29, 11:59:13
Nein, er hatte ja die Powerlimits. Also einfach nur Quatsch erzählt, war ja abzusehen dass das nicht hinhaut.
Können immer noch Werte von einem AIB Modell sein.

dargo
2020-10-29, 12:01:28
Dildo checkt mal wieder nichts. :freak:

Hier nochmal das Video für dich, vielleicht fallen dir dann die Fehler auf.
https://www.youtube.com/watch?v=CLOVUQVpBGM&feature=emb_logo


edit: gerade gemerkt, dass ich GA104 statt GP104 gelesen habe. Die Rechnung passt aber trotzdem:D.
GP104 kam damals für 699$ bei lächerlichen 314mm², 8GB und 256Bit SI.

davidzo
2020-10-29, 12:04:52
999.- für die 6900XT ist richtig Frech, ist es doch nur eine 256Bit Karte. Die Verfügbarkeit der Karte wird aber ziemlich sicher so wie so sehr schlecht sein.


:upicard: Dann war die GTX1080 wohl auch richtig frech, die hatte auch nur 256bit während AMD sogar eine Stufe drunter schon 512bit im Angebot hatte (390x).
Es ist was hinten rauskommt was zählt, du Scherzemacher :wink:

BigBangBacket
2020-10-29, 12:05:25
Jetzt mal langsam. Big Navi lag laut Durals Prognose auf GA 104 Niveau, jetzt wo er in der größten Ausbaustufe quasi mit der 3090 gleichzieht, ist er in seinem Universum etwa 10% schneller als gedacht:freak:.
Somit ist die 3090 ebenfalls nur ca. 10 Dural-% schneller als die 3070. 499€ sind damit ein wahnsinnig gutes Angebot:D.

edit: gerade gemerkt, dass ich GA104 statt GP104 gelesen habe. Die Rechnung passt aber trotzdem:D.

Wieviel Dural Prozente sind das denn in Gedi HBMe Speicher oder Horn 12 Takt?! 🤭

Bei den 6800xt Benches war kein Rage oder Access Mode aktiviert oder? Bei den 6900er konnte man aber sehen das beides aktiviert war.
Also wird wohl der Unterschied real etwas kleiner sein.
Was soll ich nur machen....auf 6900xt warten oder auf eine gute 6800xt Custim setzen

dildo4u
2020-10-29, 12:07:12
6900 ist wohl selektiert ich glaube das gab es noch nie das der Volle Chip nicht mehr braucht als das Modell da drunter.
Nvidia kompensiert ja meist damit das die größeren Chips weniger Takt haben.

MikePayne
2020-10-29, 12:08:45
...

Ein Trigger Posting und dann wieder wie ein Atom U-Boot unter dem Packeis versteckt?
Die Argumentation wurde schon zu Genüge auseinandergenommen :ugly:


Die 6800XT ist eine schöne Karte, aber die 6800 kann man bestimmt besser im Verbrauch drücken (die 220W der Vega 56 haben die Wohnung schon gut aufgeheizt^^ [das ist mit der 5700 besser] + spiele eh max in 2K).
Die 6900XT ist halt wie die 3090: Kauft man nur wenn man die Kohle dafür hat und man einfach nur das schnellste Modell haben will, ist doch legit. Kp warum sich hier einige echauffieren.

mein Preistipp:

6800: 599€
6800 XT: 699€-749€
6900 XT(X): 999€

AMD hat nichts zu verschenken.
Vor allem wenn die Performance gleichwertig ist.

Das war ne realistische Einschätzung^^ (6800: 579 / 6800XT: 749)

why_me
2020-10-29, 12:11:50
Gibt es schon irgendwo Infos zu Rage mode?
Wird da dann nur das PT erhöht oder handelt es sich eher um Auto-UV um mehr Leistung aus gleichem PT zu bekommen?

gedi
2020-10-29, 12:21:40
Wieviel Dural Prozente sind das denn in Gedi HBMe Speicher oder Horn 12 Takt?! 🤭

Bei den 6800xt Benches war kein Rage oder Access Mode aktiviert oder? Bei den 6900er konnte man aber sehen das beides aktiviert war.
Also wird wohl der Unterschied real etwas kleiner sein.
Was soll ich nur machen....auf 6900xt warten oder auf eine gute 6800xt Custim setzen

Ausgenommen der Geschichte mit dem HBM, war ich der Einzige welcher in etwa richtig lag, z.B mit den veröffentlichen Werten bei der Vorstellung von Zen3, dass es sich nur um N21le handeln kann.

Wenn jemand in Zukunft Zen3+6800XT besitzt, dann liegt er wahrscheinlich relativ bequem vor einer 3080.
Die Performance von RT lässt sich außerdem nicht eindeutig abschätzen, da RT erst seit dem letzten Bata-Treiber funktioniert. Also nicht wundern, wenn es in der NV Paradedisziplin erneut eine auf den Deckel gibt.

ChaosTM
2020-10-29, 12:24:50
NV muss mit einer fixen Anzahl an RT Cores auskommen. AMDs Lösung könnte sich mit der Zeit als die flexiblere und schnellere erweisen. Oder auch nicht.. abwarten

SentinelBorg
2020-10-29, 12:25:49
SAM scheint nichts besonderes zu sein - unter Linux :-)

agd5f ist Linux Entwickler bei AMD.

https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1215570-linux-support-expectations-for-the-amd-radeon-rx-6000-series/page4#post1215694

https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1215570-linux-support-expectations-for-the-amd-radeon-rx-6000-series/page4#post1215694

Smart Access Technology works just fine on Linux. It is resizeable BAR support which Linux has supported for years (AMD actually added support for this), but which is relatively new on windows. You just need a platform with enough MMIO space. On older systems this is enabled via sbios options with names like ">4GB MMIO".

"I don't know what windows does exactly, but on Linux at least, it will work on any platform with enough MMIO space. I suspect windows would behave the same way (although I think windows has stricter requirements about BAR resizing compared to Linux so you may need a sbios update for your platform to make windows happy). "
Ahja, das würde genau bestätigen was ich geschrieben habe!

BAR = Base Address Register is Address space which can be accessed by PCIe IP

Also geht es wirklich nur darum, den ganzen VMEM auf einmal in den Systemadressraum einzublenden, statt in kleineren 256 MB Happen.

Ist halt so eine "hätte man schon länger machen können" Optimierung wie z.B. 4K statt 512 Byte Blöcke beim Storage. Irgendwer muss es dann halt mal mit ordentlich Marketing durchdrücken.

robbitop
2020-10-29, 12:38:49
Zur Skalierung der Auflösung:

Es ist eine Frage der Relation. GA102 scheint hohe Auflösungen zu benötigen, um besonders hohe Auslastung zu erzielen. Das sah man auch schon relativ zu Turing. Immerhin wurden die GPCs kaum mit skaliert und pro SM hat man nun doppelt so viel FP32 Ressources.
Je höher die Auflösung desto kleiner werden Probleme mit Granularität und Auslastung.

Es kann natürlich gleichzeitig so sein, dass auch der Cache dort Nachteile aufgrund seiner Größe hat - die Hitrate also sinkt. Das müsste man relativ zur 2080Ti oder zur 5700XT mal anschauen, wenn Tests draußen sind.

Zum Cache als Öffner zu Multi Chip GPUs:

IMO ist er das nicht. Er scheint an den IMC angeschlossen zu sein und entlastet entsprechend VRAM Zugriffe.
Ein wesentliches Hindernis ist ja die Kommunikation zwischen SMs/CUs und zwischen der darüberliegenden Kontrolllogik - zwischen sämtlichen Funktionseinheiten innerhalb eines Chips.
Multi GPU was transparent zur Anwendung funktionieren soll, muss dies abbilden.
Um den Bandbreitenbedarf für diesen Anteil käme man nicht herum. Um den Bandbreitenanteil zum VRAM sicherlich schon zum Teil.

Allerdings muss man dann in jedem Chiplet einen großen Cache haben, damit die Hitrate für den VRAM groß genug bleibt. Senkt man die Größe, fällt die Hitrate. Jede Cache Verdopplung senkt die Missrate um ~1,41 (srq(2)).

Cyberfries
2020-10-29, 12:39:55
Ausgenommen der Geschichte mit dem HBM, war ich der Einzige welcher in etwa richtig lag, z.B mit den veröffentlichen Werten bei der Vorstellung von Zen3, dass es sich nur um N21le handeln kann.

Der Einzige?
Zum einen ist der Faden hier nach Zen3 überflutet worden mit der Behauptung,
das sei nur die 6800, da bin eher ich der Einzige der (unnötigerweise) zur Vorsicht gemahnt hat.


Und zu deinen Leistungseinschätzungen, da warst du weit daneben:

Ich habe da noch so ne Idee zur Namensgebung:

6800XE: 56-64CUs = 3080-10%
6800XT: 64-72CUs = 3080+10%
6900AiO: 80CUs = 3080+30% (vielleicht HBM2)
6700XT: 40CUs = 2080Ti
6700XE: 32CUs = 2080Ti-20%

edit: Und nochmal zu N22:
Selbst mit Mehrtakt glaube ich nicht an einen 2080Ti-Konkurrenten.
Ausgehend von 55% (0,5*CU-Zahl +10% Takt) der 6900xt/3090,
läge man immer noch hinter der 2080Super. Was reicht, ist ne gute Leistung,
das lässt auch auf einen ordentlichen Preisunterschied zur 3070 hoffen.

prinz_valium_2
2020-10-29, 13:05:59
Die 6700 ohne XT wird 36CUs haben.

Screemer
2020-10-29, 13:12:04
[...] und das die Spieleentwickler das explizit benutzen müssen.
das hatte ich in der präsentation nicht so verstanden. gibt's da schon hardfacts?

Complicated
2020-10-29, 13:16:35
Multi GPU was transparent zur Anwendung funktionieren soll, muss dies abbilden.
Die 2,4x Bandbreite könnte möglicherweise sogar eine Dual-GPU mit 16GB Cachekohärent halten für beide GPUs. Es sollte möglich sein sozusagen 3 Prozessoren (mit CPU) oder mehr darauf zugreifen zu lassen. Hier eröffnen sich auf jeden Fall neue Konzepte und Möglichkeiten.

Linmoum
2020-10-29, 13:18:38
SAM braucht keinen expliziten Spielesupport. Devs können aber natürlich entsprechend optimieren und die Performancezugewinne noch weiter steigern.

NC
2020-10-29, 13:21:44
Ich würde ja gerne "I told you so" schreiben, aber leider hat AMD meine Erwartung/Vorhersage übertroffen.
Mit 1.5x Effizienz und 300w hab ich gerechnet, aber dann bei ca 2080Ti Spieleleistung. Nun ist es 3090 Niveau, respekt!
Ich fand es interessant, dass Lisa so betont hat, dass sie ein Produkt rein fürs gaming gemacht haben. Das erklärt wohl auch wie die 20TFlops mit NVidias 30TFlops mithalten können.

Bei den veröffentlichten Benchmarks stand "best API", weiss jemand was das bedeuten soll? Ist es die API wo AMD am besten abschneidet? Oder pro Karte jeweils die beste API? Oder die Konfiguration wo AMD gegen NVidia am besten ausschaut? Gab es da Kleingedrucktes dazu?

_therookie
2020-10-29, 13:23:55
Ist die IPC eigentlich gesunken? Bei doppelter Anzahl an Einheiten und +30% Takt landet man bei "nur" doppelter Performance.

Lawmachine79
2020-10-29, 13:24:44
Wäre ich mir nicht so sicher die Preisgestaltung sieht mir eher so aus als wollte man Leute da vom kauf abhalten und zur XT drängen. Würde mich nichtmal wundern die mit N22 leise aus dem Katalog fällt.
AMD hat auch nichts zu verschenken. Da funktioniert die Preisbildung nach den gleichen wirtschaftlichen Regeln wie bei Intel und NVidia.

Ist die IPC eigentlich gesunken? Bei doppelter Anzahl an Einheiten und +30% Takt landet man bei "nur" doppelter Performance.
Das kannst Du nicht einfach aufaddieren. Wenn Du die doppelte Gesamtperformance willst, musst Du den Leistungsbeitrag jedes einzelnen potentiellen Flaschenhalses erhöhen. Wo bei BN der erste Flaschenhals (und wo z.B. OC dann am meisten hilft) sitzt, wird ggf. PCGH mal herausfinden. Educated guess: Speicherbandbreite.

Asaraki
2020-10-29, 13:25:35
AMD hat auch nichts zu verschenken. Da funktioniert die Preisbildung nach den gleichen wirtschaftlichen Regeln wie bei Intel und NVidia.

Und alles fing an mit dem Maxi Menü bei McDurchfall ^^

Screemer
2020-10-29, 13:26:54
Nein, er hatte ja die Powerlimits. Also einfach nur Quatsch erzählt, war ja abzusehen dass das nicht hinhaut.
das waren werte von custom-modellen. könnte auch sein, dass da noch die ein oder andere träne verdrückt werden muss.

nordic_pegasus
2020-10-29, 13:27:29
Ist die IPC eigentlich gesunken? Bei doppelter Anzahl an Einheiten und +30% Takt landet man bei "nur" doppelter Performance.

welche Architektur skaliert in Realität wirklich 1:1 mit Takt/Shadern? Zumal das Speicherinterface nicht 1:1 nach oben ging. Wie auch immer der Infinity Cache genau funktioniert, es wird kein 100% Ersatz für ein 512bit SI sein, welches ja eigentlich Navi10 mal 2 wäre.

robbitop
2020-10-29, 13:28:17
Die 2,4x Bandbreite könnte möglicherweise sogar eine Dual-GPU mit 16GB Cachekohärent halten für beide GPUs. Es sollte möglich sein sozusagen 3 Prozessoren (mit CPU) oder mehr darauf zugreifen zu lassen. Hier eröffnen sich auf jeden Fall neue Konzepte und Möglichkeiten.
Wie gesagt - der Infinity Cache in seiner jetzigen Implementierung - hilft nur für klassischen Offchip Traffic. Aber nicht den On Chip Traffic.
Kann mir für letzteren vorstellen, dass das Level an reuse auch ein ganz anderes ist.

Ich sehe MCM erst in Kombination mit Stacking und Microbumps als sinnvoll an. Signale müssen, damit sie wenig Energie kosten einfach eine kurze Distanz haben. Die Z-Achse hilft da einfach.

Das ist bereits möglich - aber dann gibt es mit mehreren Computelayern schnell ein thermisches Problem.

Klassisches MCM wird unter Energieproblemen leiden und darunter, dass eine ganze Menge analoger I/O Kram in jedem Chip vorhanden sein muss.

Mal schauen, wann man soweit ist, dass man es thermisch hinbekommt, mehrere compute layer zu stacken.

Ravenhearth
2020-10-29, 13:31:27
AMD gibt für die 6900 XT ja 65% mehr Perf/W als bei der RX 5700 XT an. Gemessen wurde die Performance in einer ganzen Reihe von Spielen. Sie sagen aber leider nicht, ob man den realen Verbrauch für die Rechnung heranzieht oder die TDP. Geht man jedenfalls von der TDP aus, die bei der 6900 XT ein Drittel höher ist, kommt man zusammen mit der höheren Perf/W auf exakt die 2,2-fache Leistung der 5700 XT. Die 6800 XT mit +54% Perf/W liegt bei ~2,05x. Dann läge der Vorsprung der 6900 XT ohne SAM/Rage Mode bei ~7%.

NC
2020-10-29, 13:33:42
Aber nicht den On Chip Traffic.Könntest du das erklären? Was genau wäre On Chip Traffic? Sowas wie Tesselierung?

robbitop
2020-10-29, 13:34:16
Ein IPC Vergleich wird sicher interessant werden. GCN -> RDNA 1 -> RDNA 2. Wird DF sicherlich machen.

Es ist allerdings normal, dass die Performance in der Regel nicht linear mit der Anzahl der Einheiten steigt. Das hat einfach damit zu tun, dass es mit zunehmender Einheitenanzahl in 3D Grafik immer schwieriger wird diese vollständig auszulasten.

Das ist der Grund warum beide IHVs seit Jahren enorm Zeit und Geld und Transistoren darin investiert haben, den Takt und die IPC zu erhöhen. Bloßes Skalieren der Einheiten wäre einfacher gewesen. Aber das Auslastungsproblem wird irgendwann so groß, dass es nicht sinnvoll ist.
Bei Compute Aufgaben ist das hingegen fast nie ein Problem - da die Aufgabe kohärenter und größer ist.

robbitop
2020-10-29, 13:35:21
Könntest du das erklären? Was genau wäre On Chip Traffic? Sowas wie Tesselierung?
Sämtliche Kommunikation sämtlicher Funktionseinheiten in einem Chip untereinander. Es gibt eine riesige Menge an Abhängigkeiten. Aus dem Grund sind diese on chip ja mit riesiger Bandbreite aneinander angebunden.

NC
2020-10-29, 13:49:55
Sämtliche Kommunikation sämtlicher Funktionseinheiten in einem Chip untereinander. Es gibt eine riesige Menge an Abhängigkeiten. Aus dem Grund sind diese on chip ja mit riesiger Bandbreite aneinander angebunden.ich könnte mir vorstellen, dass so ein riesiger Cache schon Einfluss auf den inneren Traffic hat, aus Designsicht, denn vieles in GPUs wurde so entwickelt, dass die langen Ram-Latenzen versteckt werden konnten, mit dem Cache brauchst du das nicht und könntest vielleicht weniger Waves/Register, kleineren Caches, usw. Erstellen weil du mit mehr Random-Access zu m InfiniCache klar kommst.

robbitop
2020-10-29, 13:53:20
Aber wie gesagt nicht so wie er jetzt umgesetzt ist.
Und mein Bauchgefühl sagt, dass Reuse für den Onchip Traffic ein anderer ist. Nicht alles ist gut um von Caches zu profitieren.

Wenn es nur einen Cache bräuchte, um gutes MCM zu bauen, dann hätte das schon jemand gemacht. Das Thema ist sicherlich hoch komplex und vielschichtig und es ist schwierig ein Resultat zu erreichen, was in jeder Hinsicht genausogut oder besser ist als eine monolithische GPU.

dargo
2020-10-29, 13:56:20
das waren werte von custom-modellen. könnte auch sein, dass da noch die ein oder andere träne verdrückt werden muss.
Nein... waren sie nicht. Video schauen!
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12478330&postcount=16798

Nur bei der N21XT geht er zusätzlich auf eine Custom ein.

NC
2020-10-29, 14:04:43
So ein riesiger Cache ist auf jeden Fall nett fürs Raytracing, mit den random Zugriffen durch das Traversal. Auch wenn AMDs Implementierung weniger peak Perf hat, könnte es durch den Cache weniger stark einbrechen bei echten Spielszenen.

Nightspider
2020-10-29, 14:05:51
Ich überlege schon auf fallende Kurse bei NV zu setzen. Die sind gerade 2,6x so hoch bewertet wie vor genau einem Jahr.

Dabei schwächelt der Automobilmarkt und im Gaming Sektor ist die Marge viel kleiner als noch bei Turing. Selbst wenn sie denen die paar 3080er Karten aus den Händen reißen (bis BigNavi kommt), wird da weniger Gewinn erzielt.
Mach das unbedingt!

Die Nvidia Aktie ist seit dem schon 10% im Wert gefallen. :D

robbitop
2020-10-29, 14:10:50
So ein riesiger Cache ist auf jeden Fall nett fürs Raytracing, mit den random Zugriffen durch das Traversal. Auch wenn AMDs Implementierung weniger peak Perf hat, könnte es durch den Cache weniger stark einbrechen bei echten Spielszenen.

Soweit ich das verstehe ist der Lesezugriff bei Raytracing, wie du sagst, relativ schwer vorauszusagen. Reuse ist wahrscheinlich auch nicht so hoch. Entsprechend ist anzunehmen, dass die Hitrate nicht so toll ist.
Raytracing klingt eher danach, dass man (zumindest zum heutigen Stand der Implementierung) eher bruteforce braucht. Viel Bandbreite für viel Speicher. Der Cache hilft aber grundsätzlich viele andere Dinge gut abzufangen und Bandbreite freizumachen.

Am Ende ist es immer eine Dimensionierungsfrage und eine Konstellation von einer Vielzahl an Flaschenhälsen.
Bei RDNA3 erwarte ich zunächst, dass mehr Anteile für RT auch in Fixed Function HW abgebildet werden. Dazu mehr Bandbreite und mehr General Computeleistung.

Ich bin gespannt, wie wichtig Tensorleistung sein wird für Denoising und für ML Upsampling. Ggf. findet AMD andere Wege oder aber man verbaut auch hier mittelfristig solche Spezialeinheiten. Oft gibt es ja verschiedene Wege zum Ziel.

Birdman
2020-10-29, 14:11:07
Gibt es schon irgendwo Infos zu Rage mode?
Wird da dann nur das PT erhöht oder handelt es sich eher um Auto-UV um mehr Leistung aus gleichem PT zu bekommen?
Habe bisher auch keine weiteren Infos dazu gefunden.
Gemäss den verfügbaren AMD Slides bringt das Feature allerdings eh nur 1-2% Performance, bzw. scheint es sogar Fälle zu geben wo es fps kostet.

Und da es so wenig bewirkt, gehe ich nicht von einer grossartigen Erhöhung des PT aus. (welches ja mehr bringen sollte, wenn man sich die Stimmen der Experten/Fans hier so anhört)

aufkrawall
2020-10-29, 14:25:10
Auto-UV gabs schon vorher. Imho wird sich dieses Rage-Ding als genau so überflüssiger PR-BS wie Boost oder Chill entpuppen.

ChaosTM
2020-10-29, 14:26:41
RAGE - Threadripper, Crossfire - AMD und ihre Namen ^

Linmoum
2020-10-29, 14:29:08
Rage gab's doch schon bei ATi

ChaosTM
2020-10-29, 14:29:58
Ja - ist wahrscheinlich eine Hommage an die alten Zeiten.

basix
2020-10-29, 14:30:42
Wie gesagt - der Infinity Cache in seiner jetzigen Implementierung - hilft nur für klassischen Offchip Traffic. Aber nicht den On Chip Traffic.
Kann mir für letzteren vorstellen, dass das Level an reuse auch ein ganz anderes ist.

Ich sehe MCM erst in Kombination mit Stacking und Microbumps als sinnvoll an. Signale müssen, damit sie wenig Energie kosten einfach eine kurze Distanz haben. Die Z-Achse hilft da einfach.

Das ist bereits möglich - aber dann gibt es mit mehreren Computelayern schnell ein thermisches Problem.

Klassisches MCM wird unter Energieproblemen leiden und darunter, dass eine ganze Menge analoger I/O Kram in jedem Chip vorhanden sein muss.

Mal schauen, wann man soweit ist, dass man es thermisch hinbekommt, mehrere compute layer zu stacken.

Reduzierter Offchip Traffic ist genau eines der letzten Elemente, was für MCM und Chiplets noch fehlte ;)

Ich mache hier mal ein Beispiel anhand von N21:

MCD = Speicherinterface + Display Controller / Multimedia + GPU Common Core / "Command Processor Global"
GCD = 2 SE (40 CUs, ROPs, TMUs etc.) + L2$ + 64 MB IF$ + "Command Processor Light"
GPU = 1x MCD + 2x GCD


Anhand des Bus Planning von N10 (siehe Bild im Anhang) wird die meiste Bandbreite innerhalb der Shader Engines und dann noch zum L2 benötigt. Was übrig bleibt sind zwei breite Busse zum Command Processor und etwas Kleinkram. Verlegt man hier die ACEs und was viel Bandbreite benötigt auch aufs GCD ("Command Processor Light") bleibt nicht mehr viel übrig ausser die Speicherbandbreite zum VRAM. Die GCDs untereinander müssen eigentlich nicht miteinander kommunizieren oder nur sehr begrenzt, das müsste dann der Treiber und HW-Scheduler lösen. Ich glaube nämlich nicht, dass allzu viele Daten von links der Chipseite auf die rechte Seite rübergeschoben werden. Das widerspricht dem Gebot der kurzen Datenpfade und Datenlokalität (was AMD bei RDNA1/2 explizit als wichtige Designkriterien beschrieben hat). Und wenn man dennoch ausnahmsweise Datenaustausch benötigt, könnte man in den IF$ prefetchen kurz bevor man es braucht.

Im Prinzip ist das GCD eine "komplette" GPU und das MCD reicht mehr oder minder nur die Daten durch. Das MCD wird aber wohl dennoch etwas Orchestrierungsaufwand leisten müssen ("Command Processor Global" und evtl. ein paar Cache Tags ähnlich zum Zen IOD).

Von aussen sieht das wie eine einzelne GPU aus und auch intern sieht es nicht viel anders aus als eine heutige GPU. Das Problem bis anhin war aber, dass du bei Chiplets die Off-Chip Bandbreite automatisch verdoppeln oder noch mehr vervielfachen würdest (1x vom VRAM zum MCD, dann vom MCD zum GCD nochmals). Das wäre nachträglich bei Energieffizienz. Ohne Die Stacking oder Interposer wäre das wirklich problematisch. Mit dem Infinity Cache halbierst du aber dann die Off-Chip Bandbreite, somit steht Netto eine ~Null auf dem Papier bezüglich Energieverbrauch (ist vereinfacht und oberflächlich ausgedrückt, aber ihr versteht was ich damit meine).

Jetzt kommt oben drauf noch AMDs shared L1$, welcher zusätzlich die Bandbreitenanforderungen senkt und voilà, wir sind nicht sehr weit von MCM a là Zen 2/3 entfernt. Zumindest ist das meine Speku hier ;)

HOT
2020-10-29, 14:30:51
So ein riesiger Cache ist auf jeden Fall nett fürs Raytracing, mit den random Zugriffen durch das Traversal. Auch wenn AMDs Implementierung weniger peak Perf hat, könnte es durch den Cache weniger stark einbrechen bei echten Spielszenen.
Für die Peak-Performance hat Ampere erheblich mehr Rechenleistung zu Verfügung in den SMs. Ich bin auch sehr gespannt, wie das letztendlich zusammen performt. In Pathtracing-Sachen wie Minecraft oder QuakeII ist Navi doch sicherlich erheblich im Nachteil.

Asaraki
2020-10-29, 14:31:48
RAGE - Threadripper, Crossfire - AMD und ihre Namen ^

"MACH 64".... Ati/AMD waren schon immer Trolle oder so Mittvierziger mit übergrossen Lederjacken und gestickten Emblemen drauf. Zum ersten Mal in ihrem Leben.

Ravenhearth
2020-10-29, 14:32:21
Gibt es schon irgendwo Infos zu Rage mode?
Wird da dann nur das PT erhöht oder handelt es sich eher um Auto-UV um mehr Leistung aus gleichem PT zu bekommen?
Ja, laut Gamers Nexus wird einfach das PT erhöht.

Screemer
2020-10-29, 14:32:49
RAGE - Threadripper, Crossfire - AMD und ihre Namen ^
rage hat wenigstens tradition bei A(md)ti: https://en.wikipedia.org/wiki/ATI_Rage_series

Nein... waren sie nicht. Video schauen!
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12478330&postcount=16798

Nur bei der N21XT geht er zusätzlich auf eine Custom ein.
ich dachte es ginge um patrick und er hat mehrfach selbst darauf verwießen, dass es sich bei den ihm vorliegenden werten um customs handelt.

Screemer
2020-10-29, 14:35:15
dp

MasterElwood
2020-10-29, 14:35:35
SAM braucht keinen expliziten Spielesupport. Devs können aber natürlich entsprechend optimieren und die Performancezugewinne noch weiter steigern.

Hab ich heute aber definitiv wo gelesen :|

robbitop
2020-10-29, 14:36:57
Namen sind völlig zweitrangig. Marken und Markenwerte kommen nicht aus dem Namen. Der Wert einer Marke hängt davon ab wie gut sie vom Markt wahrgenommen wird. Wie gut ist das Produkt und wie gut wird es vermarktet.

Gutes Beispiel: Apple. Ein völlig arbiträrer Name für ein Unternehmen, bei dem das Kerngeschäft überhaupt nicht vom Namen repräsentiert wird. Und dennoch hat die Marke einen enormen Wert. Namen sind nahezu irrelevant, solange sie nicht unbedingt abstoßend sind.

why_me
2020-10-29, 14:39:49
Ich mache hier mal ein Beispiel anhand von N21:

MCD = Speicherinterface + Display Controller / Multimedia + GPU Common Core / "Command Processor Global"
GCD = 2 SE (40 CUs, ROPs, TMUs etc.) + L2$ + 64 MB IF$ + "Command Processor Light"
GPU = 1x MCD + 2x GCD


Anhand des Bus Planning von N10 (siehe Bild im Anhang) ...

Hast du einen link zu dem Bild, gibts da auch noch mehr von dem slide?

Ja, laut Gamers Nexus wird einfach das PT erhöht.

Sicher oder nur Vermutung von Gemers Nexus? Wenn nur 1-2% bringt, dann können das doch nur maximal 5% mehr PT sein, oder?

Linmoum
2020-10-29, 14:41:29
Hab ich heute aber definitiv wo gelesen :|Meanwhile, Smart Access Memory will have a degree of automatic support to it. As things stand, many AAA games can use it today automatically and get some degree of a performance gain. But to get the best results, developers will still want to program games with the technology in mind.

https://www.anandtech.com/show/16202/amd-reveals-the-radeon-rx-6000-series-rdna2-starts-at-the-highend-coming-november-18th/2

MasterElwood
2020-10-29, 14:43:48
Meanwhile, Smart Access Memory will have a degree of automatic support to it. As things stand, many AAA games can use it today automatically and get some degree of a performance gain. But to get the best results, developers will still want to program games with the technology in mind.

https://www.anandtech.com/show/16202/amd-reveals-the-radeon-rx-6000-series-rdna2-starts-at-the-highend-coming-november-18th/2

Ok - dann hat irgendwer Quatsch geschrieben heute. Hab mich noch gewundert...

basix
2020-10-29, 14:45:19
Hast du einen link zu dem Bild, gibts da auch noch mehr von dem slide?

Ja, gibt es: https://fuse.wikichip.org/news/3331/radeon-rx-5700-navi-and-the-rdna-architecture/

Ist von der ISSCC 2020

MasterElwood
2020-10-29, 14:48:10
Was anderes: Ist der Abstand 6800XT und 6900XT nicht zu gering?

Wenn man sich die FPS der Präsentation ansieht, sind da bei machen Games gerade mal +8% oder +12% - und das obwohl die 6900 mit RAGE & SAM gebencht wurde und die 6800 nicht. :confused:

Da würde ja die 6800XT schon hinkommen mit SAM & RAGE aktiviert (noch dazu wenn man bedenkt dass bei der 6800XT mehr OC drinnen sein sollte da die 6900 sicher ans Limit geprügelt ist)

Schnoesel
2020-10-29, 14:51:01
Rage ist wenigstens von der Garantie abgedeckt, das ist doch in Ordnung für "Auto-OC". Ich kann mir auch vorstellen, dass die Kühllösung limitiert bei 6800XT vs. 6900XT. Mal sehen wie viel man mit ner Wakü da noch rausquetschen kann.

Was aber richtig geil ist. Sapphire bringt wieder ne Toxic laut Patrick. :heart:

dargo
2020-10-29, 14:51:18
ich dachte es ginge um patrick und er hat mehrfach selbst darauf verwießen, dass es sich bei den ihm vorliegenden werten um customs handelt.
Nein... es ging um die Hochrechnung von igor.

Was anderes: Ist der Abstand 6800XT und 6900XT nicht zu gering?

Wenn man sich die FPS der Präsentation ansieht, sind da bei machen Games gerade mal +8% oder +12% - und das obwohl die 6900 mit RAGE & SAM gebencht wurde und die 6800 nicht. :confused:

CUs alleine skalieren nie 1:1 mit, +8-12% wäre sogar richtig gut. Es sind bloß 11% mehr CUs.

dargo
2020-10-29, 14:53:43
dp

Hakim
2020-10-29, 14:53:54
Also kann man doch mehr rausholen wenn man Richtung SAM optimiert, ganz ehrlich gut für alle zen3 Käufer, aber etwas doof für alle Intel Inhaber die Interesse haben. Gegen 1-2% wie bei PCIe gen hätte ich nix, aber zu wissen das es Teils 13% langsamer läuft. Ich kann aber schon verstehen, man will viele zu zen3 + BN locken, wer würde das aus Betriebswirtlicher Sicht nicht machen? Aber vergrault leicht nicht zen3 Besitzer.

Relic
2020-10-29, 14:54:00
Was anderes: Ist der Abstand 6800XT und 6900XT nicht zu gering?

Wenn man sich die FPS der Präsentation ansieht, sind da bei machen Games gerade mal +8% oder +12% - und das obwohl die 6900 mit RAGE & SAM gebencht wurde und die 6800 nicht. :confused:

Da würde ja die 6800XT schon hinkommen mit SAM & RAGE aktiviert (noch dazu wenn man bedenkt dass bei der 6800XT mehr OC drinnen sein sollte da die 6900 sicher ans Limit geprügelt ist)

Was willst du erwarten bei 10% mehr Recheneinheiten, der selben Bandbreite und dem selben Verbrauch.
Das sind einfach die 1% am besten selektierten Chips, die mit einem schönen Aufpreis an Leute mit zu viel Geld verkauft werden.

WedgeAntilles
2020-10-29, 15:01:14
Aber vergrault leicht nicht zen3 Besitzer.
Sehe ich eigetnlich nicht so - es ist ja nicht so, dass die Karten ohne das unattraktiv wären. Es sind ein paar Prozentpunkte - die sehe ich als schönen, kostenlosen Bonus für Zen 3 Besitzer.
Das ist toll für Zen 3 Besitzer, aber nix, was einen nicht-Zen-3-Besitzer von der Karte abschreckt.
Icing on the cake quasi.

Was es sicherlich ebenfalls bringt ist eine Attraktivität von Zen 3 gegenüber Intel / Zen 2 bei Neuanschaffungen.

Ich stehe da ja davor - Zen 3 fand ich leistungstechnisch super, Preis-Leistungstechnisch aber weniger.
Wenn man jetzt bei der GraKa aber noch mal ein paar Prozentpunkte Leistung "geschenkt" bekommt, vereinfacht es einem doch ziemlich die Wahl, ob man nicht vielleicht lieber doch nur Zen 2 kauft. (Die CPU Leistung genügt ja eigentlich) Oder halt Intel nimmt.

Da steigt die Bereitschaft den Mehrpreis von Zen 3 auf Zen 2 zu bezahlen IMO deutlich.

IMO alles richtig von AMD gemacht. Und dass sich ein Intel User (oder jemand der die CPU halt nicht upgraden will) deswegen "angepisst" fühlt könnte ich überhaupt nicht verstehen.
Wäre ja lächerlicher Neid. Zen 3 User bekommen halt was "geschenkt" - da stehe ich als Zen 2 oder Intel User deswegen aber nicht schlechter da.

Wobei gut, es gab ja auch manche die sich aufgeregt haben, als "ihr" PS4-Exklusives Spiel auf dem PC veröffentlich wurde.
Solche Idioten gibt es ja immer.
Nur: Das ist doch sicherlich eine ganz kleine Minderheit.

MasterElwood
2020-10-29, 15:01:28
Nein... es ging um die Hochrechnung von igor.


CUs alleine skalieren nie 1:1 mit, +8-12% wäre sogar richtig gut. Es sind bloß 11% mehr CUs.

Aber es sind ja keine ECHTEN +8-12% da die 6900 MIT SAM&RAGE gebencht wurde - und die 6800XT OHNE!

Wenn ich bei der 6800XT jetzt S&R dazurechne - was bleibt dann über?

kmf
2020-10-29, 15:05:55
Was willst du erwarten bei 10% mehr Recheneinheiten, der selben Bandbreite und dem selben Verbrauch.
Das sind einfach die 1% am besten selektierten Chips, die mit einem schönen Aufpreis an Leute mit zu viel Geld verkauft werden.Es sind quasi nicht die gleichen Chips - bzw. doch, nur ist bei denen nix kaputt. Unterschied ist z.B. bei den Units: 80 jeweils bei 6900XT und jeweils nur 72 bei 6800XT.

Hakim
2020-10-29, 15:06:38
Na bei mir ist es nicht Neid, aber ich hasse das Gefühl das etwas was bei mir verbaut ist langsamer läuft als es theoretisch könnte, selbst bei pcie gen3 zu 4 werde ich das haben und da ist praktisch kein Unterschied. Hatte ich damals bei gen 2 zu 3.

why_me
2020-10-29, 15:07:48
Beide karten haben 300W TDP. Für die zusätzlichen 11% CUs muss der Takt fallen, da man sonst ins PT rennt -> real dürften es ca. 5% Mehrleistung sein. Ein anheben des PT wird dann erst mehr bringen.

@basix: danke

dargo
2020-10-29, 15:10:14
Aber es sind ja keine ECHTEN +8-12% da die 6900 MIT SAM&RAGE gebencht wurde - und die 6800XT OHNE!

Du bestätigst mich doch gerade. :confused: Am Ende landet man irgendwo bei +~5%.

Ravenhearth
2020-10-29, 15:12:15
Wie gesagt, wenn man die +65% Perf/W der 6900 XT und die +54% Perf/W der 6800 XT verrechnet (beide haben die gleiche TDP), kommt man auf +7% Mehrleistung.

danarcho
2020-10-29, 15:14:44
Meanwhile, Smart Access Memory will have a degree of automatic support to it. As things stand, many AAA games can use it today automatically and get some degree of a performance gain. But to get the best results, developers will still want to program games with the technology in mind.

https://www.anandtech.com/show/16202/amd-reveals-the-radeon-rx-6000-series-rdna2-starts-at-the-highend-coming-november-18th/2
Also wenn euch interessiert, was SAM ist:
Soweit ich verstanden habe, geht es einfach nur um das PCIe BAR (base address register), das dafür da ist, device memory (also VRAM) in den main address space to mappen. Die meisten (bisherigen) Prozessoren erlauben maximal 4GB gleichzeitig zu mappen. Einige neuere Chipsätze haben jedoch den BAR schon auf 64bit erweitert, wodurch der gesamte VRAM gemapt werden kann. Das ganze wurde natürlich hübsch in Marketing-blabla verpackt, hat aber eigentlich nichts mit der RDNA2 GPU zu tun. Wir haben das selbst schon mit Threadripper unter Linux getestet und es funktioniert (mit praktisch jeder GPU), sobald man die Option im BIOS auswählt. Es kann natürlich sein, dass das unter Windows noch anderen Einschränkungen unterliegt (wüsste aber nicht welche). Vermutlich hat AMD bei Zen3 die Mainboard-Hersteller dazu gebracht, standadtmäßig 64bit BARs zu verwenden, um das ganze dann Feature nennen zu können.

Edit: Sorry, wurde schon gesagt, habs nur übersehen:
Ahja, das würde genau bestätigen was ich geschrieben habe!

BAR = Base Address Register is Address space which can be accessed by PCIe IP

Also geht es wirklich nur darum, den ganzen VMEM auf einmal in den Systemadressraum einzublenden, statt in kleineren 256 MB Happen.

dargo
2020-10-29, 15:16:59
Wie gesagt, wenn man die +65% Perf/W der 6900 XT und die +54% Perf/W der 6800 XT verrechnet (beide haben die gleiche TDP), kommt man auf +7% Mehrleistung.
Ich wollte jetzt eigentlich keine Korinthenkackerei lostreten. Von mir aus gerne auch 7%. :tongue:

kmf
2020-10-29, 15:18:38
Ich wollte jetzt eigentlich keine Korinthenkackerei lostreten. Von mir aus gerne auch 7%. :tongue:Jedes % zählt ;D

Dalai-lamer
2020-10-29, 15:20:46
Wenn die 6800 XT ohne SAM und Rage gegen die 3800 gleichziehen konnte, wie sieht es dann erst mit aus?
Dazu noch 60% mehr Ram und niedrigerer Verbrauch bei niedrigerem Preis?

Ich versteh das nicht, da muss RT und Super Resolution schon sehr Kaufentscheident sein, um eine 3080 zu gerechtfertigten. Oder verstehe ich da etwas falsch? :/

dildo4u
2020-10-29, 15:27:12
Wenn die 6800 XT ohne SAM und Rage gegen die 3800 gleichziehen konnte, wie sieht es dann erst mit aus?
Dazu noch 60% mehr Ram und niedrigerer Verbrauch bei niedrigerem Preis?

Ich versteh das nicht, da muss RT und Super Resolution schon sehr Kaufentscheident sein, um eine 3080 zu gerechtfertigten. Oder verstehe ich da etwas falsch? :/
Das kommt darauf an ob du an die Features von Nvidia glaubst DLSS senkt den Vram verbrauch, die Karte steht und fällt damit wie dort die Verbreitung aussieht.


https://youtu.be/vIKEOY10zZ0?t=63

basix
2020-10-29, 15:35:20
Mit AMD Technologien wird man aber etwas schönes zusammenbasteln können: SSSR, Super Resolution und mehr (Link (https://gpuopen.com/effects/)). Alles Open Source und somit auch mit Nvidia verwendbar oder besser gesagt auf Nvidia optimierbar. Super Resolution noch mit Radeon Boost und Anti Lag verknüpft und man hat hohe Auflösung/Bildqualität mit dynamischem DLSS inkl. Low Latency Gaming. SAM ist noch das Tüpfelchen auf dem i, welches vom Prinzip her auch von Intel und Nvidia genutzt werden kann, wenn sie es implementieren.

AMD baut hier wirklich ein schönes Ökosystem auf, welches auf Multiplattform ausgelegt ist (NextGen Consoles + PC) aber im Gegensatz zu Nvidias Gameworks nicht Closed Source ist.

Iscaran
2020-10-29, 15:37:03
Big Navi lag laut Durals Prognose auf GA 104 Niveau, jetzt wo er in der größten Ausbaustufe quasi mit der 3090 gleichzieht, ist er in seinem Universum etwa 10% schneller als gedacht:freak:.
Somit ist die 3090 ebenfalls nur ca. 10 Dural-% schneller als die 3070. 499€ sind damit ein wahnsinnig gutes Angebot:D.
.

1 Dural - wird die neue Einheit hier bei 3DC zum Vergleichen von Grafikkarten.

1 Dural ist dann per Definition maximale Leistung und ISTGLEICH Beste nVidia GPU.

Das tolle daran ist, dass die Einheit Dural "dynamisch" definiert wird. Taucht "AMD" als Hersteller-Bezeichnung auf, wird die Einheit Dural automatisch umskaliert mit einem willkürlich zu definierenden Faktor (*1/(aktueller Dural-Wert+Differenz von aktueller Wert zu echtem Dural) so daß am Ende 1 Dural wieder = Beste nVidia GPU ist.

Also Beispiel:

RTX 3090 = 1 Dural
AMD 6900XT, wäre zwar 1.1 Dural, aber wegen der dynamischen Umskalierung da AMD =1.1*1/(1.1+ aktuellen Differenz-Dural also 1.1-1=+0.1)
Also 1.1*1/1.2 = 0.916666

Wie zu erwarten ist die 6900 XT also bei 0.916 Dural...klar geschlagen und damit <1Dural.

Iscaran
2020-10-29, 15:39:17
Interessant wäre, warum AMD das auf eigene Hardware irgendwie begrenzt. Vielleicht, weil sie nur bei den 500er Boards fordern, dass die PCI Root Bridge umprogrammierbar sein muss (siehe https://patchwork.kernel.org/project/linux-pci/patch/5662C61F.50303@amd.com/ ist von 2008) oder bestimmte BIOS-Einstellungen gesetzt sein müssen.

Vielleicht "fordert" AMD das nicht sondern ergibt sich daraus, dass sie es eben nur bei "eigener" Hardware bisher gestestet haben, da die Treiber, MB-BIOS usw. eben dies auch korrekt supporten.

Bei anderen Hersteller KANN das auch so sein, muss aber AMD ja nicht "wissen" bzw. testen.

Intel kann das ja ggf. testen und dann verlauten lassen: "HEY unsere CPUs können auch SAM @ AMD-GPUs"

Noch weiss man aber zu wenig fürchte ich um hier klar zu sagen wie das ist.

Iscaran
2020-10-29, 15:56:30
Ich fand es interessant, dass Lisa so betont hat, dass sie ein Produkt rein fürs gaming gemacht haben. Das erklärt wohl auch wie die 20TFlops mit NVidias 30TFlops mithalten können.


Oh Mann. Die 3090 hat praktisch keine 30 TFlops.

Diese Zahl erhält man auschliesslich wenn man mit MAXIMALEM Boosttakt rechnet UND dabei annimmt die GPU kann zu 100% im "Double-Float" Modus auf ALLEN SMs fahren.

Das KANN und WIRD in der Realittät NIE eintreten. Genauso das "Märchen" dass die 3090 die doppelte Zahl an Shadern hätte...NOPE.
Es ist die HÄLFTE, die allerdings unter bestimmten Bedingungen UNTER NUTZUNG der sowieso mitverbauten ALUs in einen besonderen MODUS schalten welcher DANN 2xFP (statt 1xFP) erlaubt. Aber eben NUR dann, und zwar NUR DANN für den Teil der Arbeit der nicht mit INT-OPs rechnen muss.

nVidia hat diese Menge zawr mit ca 30-40% angegeben, demnach "könnte" man also ca 60% der Zeit mit "Double-Float" arbeiten.

Das scheint aber nicht hinzukommen (zumindest für Games) - denn rechne ich die 3DC-Index Punkte / TFlops der Architekturen und berücksichtige diese INT-Only Anteil in den TFlops dann ergibt sich eher daß die Shader nur ca 30% der Zeit im Double-Float modus arbeiten.

ODER aber die IPC ist ca 30% schlechter /pro Flops geworden als eine 2080 Ti. Und das wieder glaube ich nicht.

Ergo ist die einzig logische Schlussfolgerung. Im Normalfall arbeiten double-Float Shader ca. zu 30% der Zeit und 70% der Zeit ist man im "normalen" Modus.

Entsprechend hat man auch nur ca +15% Zusatz FP32 und nicht deren +50%...

D.H. die 3090 hat NICHT 10752 Shader, sondern nur 5376. Also ca 25% mehr als die 4352 der 2080 Ti.
Dazu mehr Takt und etwas mehr FP32 output wegen der Double-Float geschicht.

Eh voila. Rechnen wir mal nach:
2080 Ti, 4352*1545*2 = 13.4 TFlops
3090, 5376*1695*2 +0.3*5376*1695*2 (Anteil der Double-Floatoperationen)
= 18.2 Tflops + 5.5 Tflops "Double Float" Zeit.
= 23.7 TFlops.

Performanceprognose 23.7/13.4 = 156% (wenn die 2080 Ti = 100%)

Und jetzt schau mal im 4k-3DC-Index nach welche Wert da bei der 3090 steht.

Redneck
2020-10-29, 15:57:43
Wenn die 6800 XT ohne SAM und Rage gegen die 3800 gleichziehen konnte, wie sieht es dann erst mit aus?
Dazu noch 60% mehr Ram und niedrigerer Verbrauch bei niedrigerem Preis?

Ich versteh das nicht, da muss RT und Super Resolution schon sehr Kaufentscheident sein, um eine 3080 zu gerechtfertigten. Oder verstehe ich da etwas falsch? :/

Erst einmal muß man die Wahl haben. Wenn keine 3080 verfügbar , nimmt man evtl. auch was anderes

Complicated
2020-10-29, 15:59:59
Das erste auftauchen von virtuellen FLOPS :)
Besonders ergiebig mit Gsync, was du in deine Dural-Berechnung nicht hast einfließen lassen ;)

blaidd
2020-10-29, 16:15:05
Die Nvidia Aktie ist seit dem schon 10% im Wert gefallen. :D

Die ganze Börse ging Gestern runter. 900 Punkte in den USA, und heute sieht's auch eher wackelig aus (trotz tendenziell "guter" Zahlen aus den USA). Nvidia ist aber schon wieder 3 % hoch (stärker als die AMD-Aktie).

Hat eher damit zu tun, denke ich. Viele Anleger dürften mit der eigentlichen Situation gar nicht so vertraut sein, die setzten einfach auf Aktien, die (zumeist) starken Wachstum zeigen (wie z.B. Nvidia, Tesla oder Apple). Die sind wegen Corona und neuen Lockdowns zappelig...

mksn7
2020-10-29, 16:15:44
Reduzierter Offchip Traffic ist genau eines der letzten Elemente, was für MCM und Chiplets noch fehlte ;)


Ja, das klingt schon etwas plausibler so, der Chipletansatz.

Nur ein kleiner Nitpick an deiner Argumentation:


Jetzt kommt oben drauf noch AMDs shared L1$, welcher zusätzlich die Bandbreitenanforderungen senkt und voilà, wir sind nicht sehr weit von MCM a là Zen 2/3 entfernt. Zumindest ist das meine Speku hier ;)

Dieser shared L1 würde die Bandbreitenanforderungen nicht senken. Der wäre ja nicht größer als der L2 jetzt schon oder gar der Infinity Cache. Der würde also nichts cachen, was die anderen beiden nicht jetzt auch schon können.

Tesseract
2020-10-29, 16:23:15
Das scheint aber nicht hinzukommen (zumindest für Games) - denn rechne ich die 3DC-Index Punkte / TFlops der Architekturen und berücksichtige diese INT-Only Anteil in den TFlops dann ergibt sich eher daß die Shader nur ca 30% der Zeit im Double-Float modus arbeiten.

vergiss aktuelle spiele was das betrifft, keines davon wurde mit so viel arithmetikleistung im hinterkopf entwickelt. die situation wird in 1-2 jahren (besonders durch die next gen konsolen und damit neuen algorithmen und paradigmen) eine völlig andere sein.

HOT
2020-10-29, 16:40:34
Asus Strix und TUF. Scheinen ihre Küherlpendants der 3080 geerbt zu haben:
https://www.techpowerup.com/273983/asus-rog-strix-lc-radeon-rx-6800-xt-pictured

Und für die AMDs gibts ne LCE :D

Hott3X
2020-10-29, 16:42:49
Asus Strix und TUF. Scheinen ihre Küherlpendants der 3080 geerbt zu haben:
https://www.techpowerup.com/273983/asus-rog-strix-lc-radeon-rx-6800-xt-pictured

Und für die AMDs gibts ne LCE :D

Oh nice. :eek:

BigBangBacket
2020-10-29, 16:50:24
Oh Gott....die 6900 bitte als Asus LC 🤤

dargo
2020-10-29, 16:54:59
Ich habe da mal eine Überlegung bezüglich Rage und SAM. Mich hat schon die ganze Zeit gewundert warum gerade Forza Horizon 4 bei den beiden Features mit +13% so stark profitiert.
https://youtu.be/oHpgu-cTjyM?t=767

Kann es sein, dass AMD hier einfach nur intelligent das Powerlimit der Grafikkarte ausnutzt? Ich vermute der Löwenanteil in diesen 13% kommt nicht durch SAM zustande sondern durch Rage. Ich weiß nämlich, dass FH4 bei mir immer eine gute Portion unter dem Powerlimit der eigentlich vorgegeben war lag. Beispiel... ich setze 150W als Powerlimit fest, das Game liegt im Schnitt aber unter 140W. Ein Doom Eternal legt wiederum nur magere 2% zu weil das Game die GPU schon gut auslastet. Hier könnten die mickrigen 2% tatsächlich nur noch von SAM kommen.

SentinelBorg
2020-10-29, 16:59:18
Also wenn euch interessiert, was SAM ist:
Soweit ich verstanden habe, geht es einfach nur um das PCIe BAR (base address register), das dafür da ist, device memory (also VRAM) in den main address space to mappen. Die meisten (bisherigen) Prozessoren erlauben maximal 4GB gleichzeitig zu mappen. Einige neuere Chipsätze haben jedoch den BAR schon auf 64bit erweitert, wodurch der gesamte VRAM gemapt werden kann. Das ganze wurde natürlich hübsch in Marketing-blabla verpackt, hat aber eigentlich nichts mit der RDNA2 GPU zu tun. Wir haben das selbst schon mit Threadripper unter Linux getestet und es funktioniert (mit praktisch jeder GPU), sobald man die Option im BIOS auswählt. Es kann natürlich sein, dass das unter Windows noch anderen Einschränkungen unterliegt (wüsste aber nicht welche). Vermutlich hat AMD bei Zen3 die Mainboard-Hersteller dazu gebracht, standadtmäßig 64bit BARs zu verwenden, um das ganze dann Feature nennen zu können.

Edit: Sorry, wurde schon gesagt, habs nur übersehen:
Korrekt, und so wie ich das sehe, kann Nvidia das auch schon länger im Server Bereich: https://docs.nvidia.com/cuda/gpudirect-rdma/index.html#bar-sizes

"On some Tesla-class GPUs a large BAR feature is enabled, e.g. BAR1 size is set to 16GB or larger."

Und auch Intel CPUs können das im Server Bereich und die haben auch nicht wirklich einen anderen PCIe Controller eingebaut. Einfach gesagt, was AMD jetzt als SAM verkauft, ist einfach eine Umsetzung um Home Bereich womit sie jetzt Marketing für Ryzen und RDNA2 in Kombo nutzen. Wenn da nicht noch irgendeine andere Secret Sauce dabei ist, wird da auch Implementierung von Intel und Nvidia schnell folgen.

Wie gesagt, das ist etwas was schon länger ginge, aber auf Grund der potentiellen Kompatibilitätsprobleme nicht gemacht wurde. Mittlerweile lohnt sich aber wohl der Performance Gain um das Risiko einzugehen.

dildo4u
2020-10-29, 17:01:11
Gamerneuxs sagt es kommen nur 1-2% durch Rage.



https://youtu.be/haAPtu06eYI?t=732

dargo
2020-10-29, 17:05:02
Bei Games die die GPU schon gut auslasten. Was ist aber mit Games wie FH4? Mal angenommen dieses Rage macht tatsächlich minimales UV. Dadurch steigt etwas der Takt. Bei Games wie eben FH4 kommt man dann recht schnell nicht ins Powerlimit sondern Taktlimit womit die Karte weniger verbraucht als sie sollte. Vielleicht setzt in diesen Fällen die Software intelligent den Takt weiter hoch um das Powerlimit auszuschöpfen? Ach was sollts, bald wird das bestimmt aufgebröselt.

Asus Strix und TUF. Scheinen ihre Küherlpendants der 3080 geerbt zu haben:
https://www.techpowerup.com/273983/asus-rog-strix-lc-radeon-rx-6800-xt-pictured

Und für die AMDs gibts ne LCE :D
Juhu... auch so schöne Ziegelsteine. :cool: Naja... bei der Verlustleistung war nichts anders zu erwarten.

PS: bei der LCE rieche ich 350+W. :upara:

Korvaun
2020-10-29, 17:13:41
ASUS 6800XT LC... das wird teuer :)

DrFreaK666
2020-10-29, 17:14:16
Hmm. ASUS scheint ja mehr oder weniger die gleichen Kühler für RTX3k und 6800er Karten zu verwenden, egal ob Strix oder TUF.

Wieso das Rad neu erfinden?

dargo
2020-10-29, 17:14:50
Ist doch eigentlich gut sofern die Position vom Package gut passt. Afaik sind das die besten Kühler bei GA102.

Hakim
2020-10-29, 17:17:43
Die Asus LC sieht schon sehr geil aus. Würde bei mir sogar gut passen da ich die komplette decke für Radis noch frei hab :)

Bambuslooter
2020-10-29, 17:20:34
AMD Boost kann man aber nicht wirklich toll finden?
Senkt doch einfach die Auflösung runter für die ms an Latenz?
Da find ich Nvidias Variante mit Reflex technisch besser.
Antilag von AMD funzt ja gut soweit ich mitbekommen habe.

Nach der R9 Nano wird die 6800 XT meine zweite AMD Graka, die ich selbst gekauft habe.
Bei Navi kann sich eine Wasserkühlung vielleicht lohnen.
Bis dato sind kaum Customs als News ersichtlich.
Mal sehen was das WE bringt.

dargo
2020-10-29, 17:21:07
Ich finde den LCE Ansatz ansich ganz gut. Das Blöde dabei ist immer nur, dass du so ne Karte in 2-3 Jahren schwer los wirst. Es sei denn du hast Glück und die Pumpe macht innerhalb der Garantie Geräusche so wie bei meiner V64 LCE damals. Immerhin gabs dann noch Restwert. :D

Hakim
2020-10-29, 17:33:52
Die meisten die Wasser nutzen wollen nehmen halt block und integrieren ins Wakü Sys. Und bei Leute wie mir mit AiO, würde sowas zwar passen, aber hätte dann auch 2 Pumpen. Nach dem ganzen Stress mit meiner Silent loop, wäre ich nicht so geil drauf :)

Edit: bei mir was es ja wieder ruhe nachdem ich Entlüftet und nachgefüllt hab, kann man das überhaupt bei solchen geschlossen Lösungen später auf der Graka machen? Denke mal nicht.

Wuge
2020-10-29, 17:39:39
Weshalb gibts dann eigentlich keine Karten mit gutem Waterblock und 1/4 Anschlüssen? Würde ich sofort kaufen und müsste dank entfall der inzwischen recht aufwändigen / großen Luftkühler ja auch günstiger als die Selbstumbauvariante sein.

2080 TI ist verkauft. Hoffentlich wars kein Fehler.

Voodoo6000
2020-10-29, 17:47:41
Vielleicht kommt ja eine von PowerColor. Bei der 5700 gab es jedenfalls eine Karte mit Wasserkühler.(günstig war die aber nicht)

PowerColor Liquid Devil Radeon™ RX 5700 XT (https://www.powercolor.com/product?id=1573110646)

Der_Korken
2020-10-29, 17:50:21
Der Nitro-Kühler der 5700XT passte auf den Millimeter genau in mein Gehäuse. Bei meinem Glück machen die den jetzt einen cm länger. Im Nachhinein war der subjektiv doch ne Ecke besser als der MSI-Kühler, d.h. bei gleicher Lautstärke mehr PPT abgeführt und das PCB war nur 3/4 so lang wie der Kühler, sodass immerhin der hintere Lüfter seine Abwärme wirklich nach oben abgegeben hat. Und weniger breit, sodass auch an der Seite die Luft besser nach oben kam. Warum kann man bei den Triple-Fan-Designs nicht wenigstens den vorderen Lüfter zur Slotblende rauspusten lassen? Mit schrägt verlaufenden Lamellen wie bei der 3080/3090FE sollte das doch machbar sein.

Sardaukar.nsn
2020-10-29, 18:13:10
Schon interessant das ASUS für die 6800XT so eine aufwändige LC Lösung raus haut, aber bei der RTX 3080/3090 nichts dergleichen.
Positiv finde ich das alle bei dem 2x8pin Stromversorgung bleiben, welche ja immerhin auch gut ist für max. 375 Watt. Zudem könnte das AMD Reference Design PCB ähnlich wie das vieler Customs sein. Was natürlich gut wäre für einen WaKü-Umbau. Also einfach Reference, oder halt ne einfache PowerColor oder Sapphire, Block drauf und fertig ist die Laube.

dargo
2020-10-29, 18:16:02
Edit: bei mir was es ja wieder ruhe nachdem ich Entlüftet und nachgefüllt hab, kann man das überhaupt bei solchen geschlossen Lösungen später auf der Graka machen? Denke mal nicht.
Bei der V64 LCE konnte man jedenfalls nichts machen.

Schon interessant das ASUS für die 6800XT so eine aufwändige LC Lösung raus haut, aber bei der RTX 3080/3090 nichts dergleichen.

Bei den Stückzahlen @GA102 die ASUS von NV bekommt lohnt der Aufwand offenbar nicht. :freak:

Linmoum
2020-10-29, 18:20:01
Ich glaube das hat weniger mit Stückzahlen zu tun, sondern in diesem Fall halt für den Nutzungszweck von Wasser. Dass man da eventuell der Meinung ist, dass das aus Gründen bei Ampere überflüssig ist.

fondness
2020-10-29, 18:27:41
Schon interessant das ASUS für die 6800XT so eine aufwändige LC Lösung raus haut, aber bei der RTX 3080/3090 nichts dergleichen.

Die Lösung kommt von AMD, deshalb nur für die AMD karte.

Lyka
2020-10-29, 18:30:17
hybsch hybsch, Sapphire hat auch die 6800er Serie nun im Angebot
https://www.sapphiretech.com/de-de/consumer/21304-01-20g-radeon-rx-6800-xt-16g-gddr6
https://www.sapphiretech.com/de-de/consumer/21305-01-20g-radeon-rx-6800-16g-gddr6

aber die Ausgänge? Ist das neuerdings normal, ist HDMI "out" und DP wirklich "cooler"?
1x HDMI
2x DisplayPort
1x USB-C

Voodoo6000
2020-10-29, 18:31:21
Radeon RX 6800 XT: MSI zeigt erstmals die Gaming X Trio (https://www.computerbase.de/2020-10/msi-radeon-rx-6800-xt-gaming-x-trio/)

Bei der MSI Radeon RX 6800 XT Gaming X Trio 16G handelt es sich um ein Custom-Design mit einem angepassten 2,7 Slots hohen Tri-Frozr-2-Kühler mit drei Torx-Fans in der Version 4.0, wie er auch auf der MSI GeForce RTX 3080 Gaming X Trio (Test) zum Einsatz kommt.

horn 12
2020-10-29, 18:31:49
2 Slot für 6800 und 2,5 Slot für 6800XT
Sieht man perfekt an den Kühlrippen

250 zu 300 Watt!

nairune
2020-10-29, 18:38:47
Die Infos (Slots, TDP) sind doch nicht neu... Beides Referenz bei Sapphire.

dargo
2020-10-29, 18:39:38
hybsch hybsch, Sapphire hat auch die 6800er Serie nun im Angebot
https://www.sapphiretech.com/de-de/consumer/21304-01-20g-radeon-rx-6800-xt-16g-gddr6
https://www.sapphiretech.com/de-de/consumer/21305-01-20g-radeon-rx-6800-16g-gddr6

Löl... das ist ja Referenz. :freak: Ich hätte jetzt was Kreativeres erwartet. :tongue: Aber immerhin kommt die Referenz bei der Lautstärke in den Tests gut weg. Zumindest einiges besser als bei den alten Referenzkarten.

r3ptil3
2020-10-29, 18:43:30
hybsch hybsch, Sapphire hat auch die 6800er Serie nun im Angebot
https://www.sapphiretech.com/de-de/consumer/21304-01-20g-radeon-rx-6800-xt-16g-gddr6
https://www.sapphiretech.com/de-de/consumer/21305-01-20g-radeon-rx-6800-16g-gddr6

aber die Ausgänge? Ist das neuerdings normal, ist HDMI "out" und DP wirklich "cooler"?
1x HDMI
2x DisplayPort
1x USB-C

Wo bleiben die Customs von Sapphire? Auf die bin ich mal richtig gespannt!

Sardaukar.nsn
2020-10-29, 18:44:46
Die Lösung kommt von AMD, deshalb nur für die AMD karte.

Für Ampere hatte EVGA so eine Hybrid (240er Radi) Lösung und als Kingpin (360er Radiator) angekündigt.

https://videocardz.net/evga-geforce-rtx-3080-10gb-hybrid

https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/News/Kingpin-wird-ein-Hybrid-Bilder-des-Flaggschiffs-1359040/

@bardh: Ich finds gut, die sollen mal alle schön bei ihrem Reference PCB bleiben, dann gibt es wenigstens auch genügend Auswahl bei den Wakü-Blöcken.

Lyka
2020-10-29, 18:46:54
Wo bleiben die Customs von Sapphire? Auf die bin ich mal richtig gespannt!


ja, ne Nitro etc. wäre schon was, bin seit wenigstens 10 Jahren der Marke Sapphire treu (seit der 9800 Pro)

dargo
2020-10-29, 18:52:43
@bardh: Ich finds gut, die sollen mal alle schön bei ihrem Reference PCB bleiben, dann gibt es wenigstens auch genügend Auswahl bei den Wakü-Blöcken.
:uban:

Ich brauche Pulses und Nitros. :D

Grendizer
2020-10-29, 18:53:05
Löl... das ist ja Referenz. :freak: Ich hätte jetzt was Kreativeres erwartet. :tongue: Aber immerhin kommt die Referenz bei der Lautstärke in den Tests gut weg. Zumindest einiges besser als bei den alten Referenzkarten.

Kannst du mal einen Link dazu posten ?

dargo
2020-10-29, 18:54:10
Darf ich noch nicht.

Grendizer
2020-10-29, 18:55:18
Darf ich noch nicht.

Wie akzeptabel auf deiner Skala ?

ianm
2020-10-29, 18:56:56
Darf ich noch nicht.

*hust* giev

Oder meinst du das zweite AMD Video?

kleeBa
2020-10-29, 18:57:29
hybsch hybsch, Sapphire hat auch die 6800er Serie nun im Angebot
https://www.sapphiretech.com/de-de/consumer/21304-01-20g-radeon-rx-6800-xt-16g-gddr6
https://www.sapphiretech.com/de-de/consumer/21305-01-20g-radeon-rx-6800-16g-gddr6

aber die Ausgänge? Ist das neuerdings normal, ist HDMI "out" und DP wirklich "cooler"?
1x HDMI
2x DisplayPort
1x USB-C
Uff, ich hoffe da kommen noch Custom Karten mit einem DP mehr an Bord.

Unicous
2020-10-29, 18:59:06
:uban:

Ich brauche Pulses und Nitros. :D

Was ist mit Toxic?:confused:

Pulse, Nitro and Toxic 🧐
https://twitter.com/patrickschur_/status/1321597146991333376

dargo
2020-10-29, 19:01:35
Was ist mit Toxic?:confused:

Für mich eher weniger interessant. Toxic verbinde ich mit hohem Powerlimit. Nitro+ eigentlich auch aber dort hat man noch die Chance auf gewisse Zurückhaltung im Quiet-Bios. :tongue:

ianm
2020-10-29, 19:02:49
Die Toxic war früher super, aber wenn die Pulse gut wird wie bei der 5700XT, reicht die auch.

dargo
2020-10-29, 19:06:00
Bei 250+W wird Sapphire die Pulse auf jeden Fall länger machen müssen. Die 254mm von Navi10 werden für eine leise Kühlung imo nicht reichen. Würde mich jedenfalls sehr überraschen. Aber so bis 280mm kann Sapphire von mir aus locker gehen.

dildo4u
2020-10-29, 19:49:37
Hier gibt es schon Specs für die Hybrid Asus 2160 mhz Gameclock.


https://www.techpowerup.com/gpu-specs/asus-rog-strix-lc-rx-6800-xt-gaming-oc.b8216

Linmoum
2020-10-29, 19:52:59
Das sind Platzhalter, es gab noch keine offiziellen Specs.

Erkennt man ansonsten auch daran, dass TPU für die Customs die sie in der Datenbank gelistet haben überall 300W stehen haben, was natürlich Quatsch ist.

JVC
2020-10-29, 19:57:31
Wird bestimmt auch ein OC Modell mit 3x8Pin kommen ;)

M.f.G. JVC

M4xw0lf
2020-10-29, 20:06:38
Habt ihr alle vergessen, dass Sapphire noch ein god-tier Suffix namens "Atomic" hatte? Das wär doch mal wieder was :D

Complicated
2020-10-29, 20:08:08
Löl... das ist ja Referenz. :freak: Ich hätte jetzt was Kreativeres erwartet. :tongue: Aber immerhin kommt die Referenz bei der Lautstärke in den Tests gut weg. Zumindest einiges besser als bei den alten Referenzkarten.IIRC ist doch Sapphire der Haus- und Hofhersteller von AMDs Referenzkarten. Hat sich das geändert?

Zossel
2020-10-29, 20:12:51
TrueAudio
VRR
LiquidVR

gibt bestimmt noch mehr

Open Source Upstream Treiber für Linux.

BoMbY
2020-10-29, 20:13:21
Und wir wissen immer noch nicht wofür die Klappen auf der Rückseite jetzt eigentlich sind:

https://i.imgur.com/tLuq5AHh.jpg (https://i.imgur.com/tLuq5AH.jpg)

CompuJoe
2020-10-29, 20:14:03
Hat schon jemand eine Karte mit 3 x DP, 1 x HDMI vorgestellt?

Complicated
2020-10-29, 20:20:05
Also ich habe eben verwundert diesen Heise-Artikel gelesen:
KI-Upscaling: AMD arbeitet mit Microsoft an Alternative zu Nvidias DLSS (https://www.heise.de/news/KI-Upscaling-AMD-arbeitet-mit-Microsoft-an-Alternative-zu-Nvidias-DLSS-4942900.html)
Als ich den Links gefolgt bin, hat keiner dieser Links diese behaupteten Inhalte enthalten.
z.B.: "Gegenüber Medien wie Anandtech erklärte AMD (https://www.anandtech.com/show/16202/amd-reveals-the-radeon-rx-6000-series-rdna2-starts-at-the-highend-coming-november-18th/2), dass Super Resolution im Rahmen des GPUOpen-Projekts quelloffen sein und plattformübergreifend funktionieren soll.
Bei Anandtech konnte ich nichts dergleichen finden im verlinkten Artikel.

Auch zu dieser Aussage konnte ich nichts im Link zu Microsoft finden:
In einem Blog-Beitrag erklärt Microsoft, (https://news.xbox.com/en-us/2020/10/28/a-closer-look-at-how-xbox-series-xs-integrates-full-amd-rdna-2-architecture/) dass die Kombiprozessoren der Spielekonsolen Xbox Series X und Xbox Series S bereits Hardware-Kerne zur Beschleunigung von DirectML-Algorithmen aufweisen und damit über die Fähigkeiten von AMDs "Big Navi"-GPUs hinausgehen.

MR2
2020-10-29, 20:20:27
Ne Vapor-X oder Tri-X wäre schön. Ich warte auf ne sehr leise RX6800 von Sapphire. Von Powercolor bin ich geheilt.

blaidd
2020-10-29, 20:43:26
Also ich habe eben verwundert diesen Heise-Artikel gelesen:
KI-Upscaling: AMD arbeitet mit Microsoft an Alternative zu Nvidias DLSS (https://www.heise.de/news/KI-Upscaling-AMD-arbeitet-mit-Microsoft-an-Alternative-zu-Nvidias-DLSS-4942900.html)
Als ich den Links gefolgt bin, hat keiner dieser Links diese behaupteten Inhalte enthalten.
z.B.:
Bei Anandtech konnte ich nichts dergleichen finden im verlinkten Artikel.

Auch zu dieser Aussage konnte ich nichts im Link zu Microsoft finden:

Hab mal kurz recherchiert... Steht schon so ungefähr da drin (Anandtech (https://www.anandtech.com/show/16202/amd-reveals-the-radeon-rx-6000-series-rdna2-starts-at-the-highend-coming-november-18th/2)). Wobei die das offenbar von Videocardz (https://videocardz.com/newz/amd-is-working-on-ai-powered-supersampling-nvidia-dlss-alternative)/The Verge (http://www.smartredirect.de/redir/clickGate.php?u=lnwCExJb&m=1&p=3d26AYJ0k7&t=p09f7K1v&st=&s=&url=https%3A%2F%2Fwww.theverge.com%2F2020%2F10%2F28%2F21538010%2Famd-radeon-rx-6800-xt-specs-release-date-price-big-navi-gpu-graphics&r=https%3A%2F%2Fwww.forum-3dcenter.org%2Fvbulletin%2Fshowthread.php%3Fp%3D12479176%26posted%3D1%23post1247 9176) haben (erstere verweisen in ihrem Artikel auf letztere und die angeblich "weiterführenden Informationen", die The Verge erhalten hat.) Die Überschriften von allen Artikeln sind quasi die gleichen.

Intended to be AMD’s answer to NVIDIA’s DLSS technology, Super Resolution is a similar intelligent upscaling technique that is designed to upscale lower resolution images to higher resolutions while retaining much of their sharpness and clarity. Like DLSS, don’t expect the resulting faux-detailed images to completely match the quality of a native, full-resolution image. However as DLSS has proven, a good upscaling solution can provide a reasonable middle ground in terms of performance and image quality.

As things currently stand super Resolution is still under development, so it won’t be available to game developers (or gamers) at the time of the RX 6000 series launch. But once it is, like AMD’s other FidelityFX graphics libraries, it will be released as an open source project on GPUOpen, and AMD is explicitly noting that it’s being designed as a cross-platform solution. Game devs will also be happy to hear that AMD is aiming to make it easier to implement across games than DLSS, which would make the tech more accessible and able to be implemented into a larger number of games.

Tom Warren from The Verge received more information on this super-resolution technology:

While AMD is promising to go head to head with Nvidia in 4K gaming and more, the one big missing piece of this battle is a lack of an equivalent to Nvidia’s DLSS. Nvidia’s AI-powered super sampling technology has been transformative for the games that support it, bringing great image quality and higher frame rates by simply toggling a game setting.

AMD tells me it has a new super sampling feature in testing, which is designed to increase performance during ray tracing. The company is promising its super sampling technology will be open and cross-platform, which means it could come to next-gen consoles like the Xbox Series X and PS5. AMD is working with a number of partners on this technology, and it’s expecting strong industry support. Unfortunately, this won’t be ready for the launch of these three new Radeon RX 6000 Series cards.


Die betreffende Stelle in der Microsoft-Präsentation hat der gewisse Mark Mantel auch angegeben (https://www.youtube.com/watch?v=QjQm_wNrvVw&feature=youtu.be&t=1429).


Die Quellen sind also da. Aber in gewisser Weise ist das schon alles ein bisschen voneinander abgeschrieben - so läuft das eben mit Online-News. Einer hat eine Info, die anderen übernehmen sie.

Complicated
2020-10-29, 20:56:29
Danke dir. Ich habe mit deinen Hinweisen etwas konkreteres finden können :)
https://www.overclock3d.net/news/software/microsoft_s_directml_is_the_next-generation_game-changer_that_nobody_s_talking_about/1
This technique has also been showcased during one of Microsoft's SIGGRAPH 2018 tech talks. This talk, which is entitled "Deep Learning for Real-Time Rendering: Accelerating GPU Inferencing with DirectML and DirectX 12" showcases Nvidia hardware upscaling Playground Games' Forza Horizon 3 from 1080p to 4K using DirectML in real-time. DirectML has the potential to improve the graphical fidelity of future console and PC games.
Lustig - da wissen wir dann auch wodurch DLSS dann ersetzt werden wird bald. Erinnert mich an GSync, das schnell noch vor der Verabschiedung der VESA-Spezifikationen für DP für ASync kommen musste.

SKYNET
2020-10-29, 21:03:10
Bei der V64 LCE konnte man jedenfalls nichts machen.


Bei den Stückzahlen @GA102 die ASUS von NV bekommt lohnt der Aufwand offenbar nicht. :freak:

lag wohl eher dran das die ampere GPUs sich nicht takten lassen... wärend RDNA2 wohl sehr gut zu takten geht... mal sehen ob einer der bisherigen NV exklusivpartner nun AMD reinnimmt... :redface:

Blediator16
2020-10-29, 21:04:33
DLSS war quasi immer Monate später und teils in beschissener Qualität vorhanden. War klar, dass DLSS in dieser Form sterben wird.

Zossel
2020-10-29, 21:21:52
Die meisten (bisherigen) Prozessoren erlauben maximal 4GB gleichzeitig zu mappen. Einige neuere Chipsätze haben jedoch den BAR schon auf 64bit erweitert, wodurch der gesamte VRAM gemapt werden kann. Das ganze wurde natürlich hübsch in Marketing-blabla verpackt, hat aber eigentlich nichts mit der RDNA2 GPU zu tun. Wir haben das selbst schon mit Threadripper unter Linux getestet und es funktioniert (mit praktisch jeder GPU), sobald man die Option im BIOS auswählt.

Zeigt doch mal das sudo lspci -vvvv von dem Device.

horn 12
2020-10-29, 21:36:00
Und wir wissen immer noch nicht wofür die Klappen auf der Rückseite jetzt eigentlich sind:

https://i.imgur.com/tLuq5AHh.jpg (https://i.imgur.com/tLuq5AH.jpg)


Wohl als Luftaustritt
Die Slotbelnde hat das Radeon, oder auch Sapphire Logo verbaut
und laut dem Video von AMD ging die erwärmte Luft nach oben hin weg, Richtung CPU Lüfter bzw. Hecklüfter.
Kann mich aber auch irren,- aber denke da kommt die Tage Häppchenweise immer mehr um den Hype nicht abflachen zu lassen.

Nope, die Rückseite ist verschlossen, da sitzt die Platine davor. (sieht man gut in der Explosions zeichnung im Video!
Weiss nicht was der Schraube soll, aber sind gesamt wohl 3 Punkte Halterung für die Backplate.

Langlay
2020-10-29, 21:49:38
Hast du dir die Benchmarks angeschaut?

https://pbs.twimg.com/media/ElbfRbQXIAINpn7?format=jpg&name=large

Selbst ohne Rage liegen beide Karten schon genau auf dem gleichen Niveau und die Customs scheinen teils 10% mehr Takt zu haben als das Referenz-Model.

10%! Das ist der Unterschied zwischen 3080 und 3090.

Und da kann man per Hand vielleicht auch nochmal das eine oder andere Prozent herausholen.
Mit Wasserkühlung sowieso.

https://twitter.com/patrickschur_/status/1321522404800299009

Von daher....geht AMD auf jeden Fall in Führung bei Übertaktern.

Ja, hab ich gesehen, ich weiss auch was mit na 3090 geht. Ich bleibe bei meiner Aussage.

Iscaran
2020-10-29, 22:08:37
Und wir wissen immer noch nicht wofür die Klappen auf der Rückseite jetzt eigentlich sind:

https://i.imgur.com/tLuq5AHh.jpg (https://i.imgur.com/tLuq5AH.jpg)

Das sind die Anschlüsse für den Durchlauf-Kaffee-Vollautomaten. :-)

BigNavi kann nämlich auch "office" ^^

Grendizer
2020-10-29, 22:14:27
Die 3070 war ja wieder schneller weg, wie man schauen konnte. Ich bin mal gespannt, wie das bei Mindfactory / Alternate bei den 6800 XT laufen wird.

Nakai
2020-10-29, 22:16:54
Das sind die Anschlüsse für den Durchlauf-Kaffee-Vollautomaten. :-)

BigNavi kann nämlich auch "office" ^^

Ok ist gekauft.

So ein Kaffeekühler ist schon was.

Marodeur
2020-10-29, 22:20:07
Nochmal nachgehakt. Muss man davon ausgehen das alles an Custommodellen bzw. welche die auf der Referenz basieren teurer sind als die 579, etc. oder wirds auch günstigere Modelle geben?

Unicous
2020-10-29, 22:25:55
Das ist hier nicht der Nostradamus-Thread.:rolleyes:

davidzo
2020-10-29, 22:26:04
Und wir wissen immer noch nicht wofür die Klappen auf der Rückseite jetzt eigentlich sind:

https://i.imgur.com/tLuq5AHh.jpg (https://i.imgur.com/tLuq5AH.jpg)

Und nochmal, das sind keine Klappen. Dazu müsste da eine sichtbare Fuge sein, ist aber keine. Selbst eine extrem präsise gefräste macbook unibody bodenplatte hat eine sichtbare Fuge. Das hier ist nur druckguss oder geprägtes Blech, lange nicht so präzise.
Das sind bloß eingeprägte Zierleisten, die Schrauben links und rechts sind einfach zusätzliche Kühleranpresschrauben.

Hakim
2020-10-29, 22:27:44
Wie das so halt immer ist, normal geht der Preis der Drittanbieter nach einer Weile unter die UVP, aber wenn die Nachfrage groß und das Angebot gering ist, drüber. Siehe RTX3k reihe

Langlay
2020-10-29, 22:29:45
lag wohl eher dran das die ampere GPUs sich nicht takten lassen...

GA102 lässt sich schon gut takten, nur der Stromverbrauch explodiert, daher sind die 390W 3090 Karten auf <2GHz limitiert.

igg
2020-10-29, 22:41:10
Die RX 6800 dürfte sich vor allem an Spieler richten, die mit Full-HD, hohen Frameraten und hohen Grafikeinstellungen spielen wollen. Damit wäre die RX 6800 in etwa eine Konkurrenz zur RTX 3070 oder zur noch nicht bestätigten RTX 3060, sie sitzt da irgendwie dazwischen. Wir würden hier auf die erste Benchmarks warten, die sollten um den 18. November zum Marktstart der Karten auftauchen.

AMD rät, dass man mindestens ein Netzteil mit 650 Watt im System haben sollte. Quelle: https://www.techstage.de/ratgeber/AMD-RX-6800-RX-6800-XT-RX-6900-XT-Infos-Tests-Preise-4942857.html

Das ist nicht deren Ernst, oder? Und für die 6800 XT sind gar 750 Watt empfohlen.

horn 12
2020-10-29, 22:43:53
https://www.gigabyte.com/Graphics-Card/GV-R68XT-16GC-B#kf

Hier sieht man es am Besten
Aber hinten kommt keine Luft raus, da komplett verschlossen!
Frage: wo wird die Luft abgegeben
Nur über die Kühlrippen nach oben hin?

TheAntitheist
2020-10-29, 23:07:48
6900 für nen 1000er ist doch gut.. verglichen mit NV

wann soll die 6800XT verfügbar sein ?
8GB weniger und dann der billigere RAM, 2/3 der Bandbreite und keine RT oder Tensor cores, ohne CUDA nicht zum Arbeiten zu gebrauchen? schlechter Deal für alle Content Creator

SKYNET
2020-10-29, 23:14:44
GA102 lässt sich schon gut takten, nur der Stromverbrauch explodiert, daher sind die 390W 3090 Karten auf <2GHz limitiert.


ehm, wo? die dinger machen bei deutlich unter 2100MHz dicht, und das sind <5%... gut takten = meine 1080Ti --> +20%(=2170MHz dauerhaft wenn ich lüfter und PL auf max stelle)...

denke wir haben da evtl. unterschiedliche ansichten was "gut takten" bedeutet... aber alles unter 15% ist scheisse, sorry :freak:

Langlay
2020-10-29, 23:25:06
ehm, wo? die dinger machen bei deutlich unter 2100MHz dicht, und das sind <5%... gut takten = meine 1080Ti --> +20%(=2170MHz dauerhaft wenn ich lüfter und PL auf max stelle)...

denke wir haben da evtl. unterschiedliche ansichten was "gut takten" bedeutet... aber alles unter 15% ist scheisse, sorry :freak:

Welche 3090 taktet 2GHz stock? 1800MHz Stock sind realistischer. 2100/1800 macht 16,6%.

Danke fürs Gespräch.

basix
2020-10-29, 23:26:26
Und nochmal, das sind keine Klappen. Dazu müsste da eine sichtbare Fuge sein, ist aber keine. Selbst eine extrem präsise gefräste macbook unibody bodenplatte hat eine sichtbare Fuge. Das hier ist nur druckguss oder geprägtes Blech, lange nicht so präzise.
Das sind bloß eingeprägte Zierleisten, die Schrauben links und rechts sind einfach zusätzliche Kühleranpresschrauben.

whut? Ich dachte dort drunter verbirgt sich der Co-Prozessor und eine 2 TB SSD ;D

Slipknot79
2020-10-29, 23:27:36
Wir können davon ausgehen, dass auch AMD nix liefern wird können und die Preise erst mal so steigen werdne wie bei NV aktuell, das ist schon ziemlich absehbar. :redface:

basix
2020-10-29, 23:31:10
Quelle: https://www.techstage.de/ratgeber/AMD-RX-6800-RX-6800-XT-RX-6900-XT-Infos-Tests-Preise-4942857.html

Das ist nicht deren Ernst, oder? Und für die 6800 XT sind gar 750 Watt empfohlen.

WTF? Falscher gehts ja nimmer. AMD zeigt nur 1440p und 4K Benches und die schreiben was von 1080p? Schneller als eine 2080 TI und 3070 ist sowas von 1080p Land. Und längere Balken vs. 3070 werden aufgrund von Dural-% zu kürzeren Balken und somit langsamer als die 3070? ...und doppelter Speicher wäre auch noch vorhanden :freak:

Was ist das für eine Pfeife, dieser Moritz?

Edit:
Der Artikel ist herrlich :D
Zur 6800XT: "Spannend wird sein, wie sich der Aufpreis zur RX 6800 gestaltet." :facepalm:

SKYNET
2020-10-29, 23:51:12
Welche 3090 taktet 2GHz stock? 1800MHz Stock sind realistischer. 2100/1800 macht 16,6%.

Danke fürs Gespräch.


die 3090 macht nur bei den meisten schon bei 1900MHz dicht... lustig, eh?

macht 1800 --> 1900 = satte 5.55% :freak:

boah, muss man ja fast aufpassen das die nicht die grenze zu raum und zeit verbiegt bei der enormen übertaktung... ;D

und in sachen OC musst du glaube ich MIR nix erzählen... ich habe weltrekorde gebrochen, und wenn ich will, könnte ich das jederzeit wieder. :P

Nazar
2020-10-29, 23:58:32
Die 6800xt dagegen trifft überall die richtigen Knöpfe.
Und zu SAM: Sofern das AMD-exklusiv wäre, würde ich Leonidas Kritik voll Recht geben.
Fanboy-Brille abnehmen.

Wenn Leonidas genauso auch bei nVidia berichten würde, dann hättest du meine Stimme.
Das Problem bei Leonidas ist aber, dass was bei AMD schlecht ist, wird bei nVidia als Innovation gefeiert und für Verständnis für deren proprietären Weg geworben.
Neutral geht zumindest komplett anders.
Ich kann jedem nur empfehlen seine Artikel zu DLSS, G-Sync -und wenn man richtig tief graben möchte- PhysX zu lesen.
Und wenn man dann danach den Artikel zu SAM liest, wird einem eventuell bewusst wovon ich rede.
AMD = böse
nVidia = innovativ
Das passt eben nicht.... :rolleyes:

Langlay
2020-10-30, 00:14:09
und in sachen OC musst du glaube ich MIR nix erzählen... ich habe weltrekorde gebrochen, und wenn ich will, könnte ich das jederzeit wieder. :P

Trotzdem sprichst du über die 3090 wie ein Blinder von der Farbe.

Wenn du bei 1900MHz nimmer weiterkommst probiert mal mehr als 0.85V draufzugeben.

SKYNET
2020-10-30, 00:36:19
Trotzdem sprichst du über die 3090 wie ein Blinder von der Farbe.

Wenn du bei 1900MHz nimmer weiterkommst probiert mal mehr als 0.85V draufzugeben.


sry, selbst die hyper 470W PT versionen schaffen nicht dauerhaft über 2000MHz zu halten... was willst mehr? ampere sind OC krüppel... die letzten gut taktbaren NV karten war die pascal gen, turing so lala und ampere ist schrott was das angeht... obs an der architektur oder am fertigungsprozess liegt ist offen, sehen wir dann wenn NV wirklich auf TSMC umstellt mit dem refresh.

SKYNET
2020-10-30, 00:40:18
und die Raytracingleistung muss ein kompletter Reinfall sein, wenn man nicht ein Wort in der Präsentation darüber verliert, das ist ja fast schon Werbung für den Konkurrenten.


wieviel hatte AMD nochmals zu RDNA2 generell durchsickern lassen bis zur präsi? mhhh... ahh, stimmt... NIX...

von daher würde ich da noch nicht all zu hämisch lachen, würd mich nicht wundern wenn AMD da ordentlich auspackt und NV um den faktor 1.5x schlägt. :wink:

Neurosphere
2020-10-30, 00:46:13
Was ich bei der ganzen RT Geschichte nicht ganz verstehe:

AMD gibt in den Footnotes (RX 571) an 437 Fps im DX SDK zu RT erreicht zu haben und in Software (DXR Fallback Layer?) 37 Fps.

Da ich grad nicht die Möglichkeit habe hat ein Kumpel mal mit dem Tool auf seiner 1080 geprüft, die keine RT-EInheiten hat, was dabei so rauskommt. Er kommt im Standard, also start und Fenstermodus, auf 135 Fps. Macht er Vollbild auf 4k schrumpft die Framerate auf 22 Fps.

Die 37 Fps erscheinen im Standard auf Software, also da wo eine 3080 in HW über 600 Fps erreichen soll und eine 1080 schon 135 Fps, viel zu wenig.

Entweder AMD hat in einer anderen Auflösung getestet was einen Vergleich mit der 3080 unmöglich macht, oder der DXR Fallback Layer ist etwas sehr merkwürdiges.


Wer mal selber testen will, gerne auch User mit einer 5700 XT als vergleich, hier der Downloadlink. (http://s000.tinyupload.com/download.php?file_id=75266639847527851391&t=7526663984752785139139376)

Ist bereits kompiliert und stammt von Reddit, falls das auch noch Einfluss haben sollte.

Screemer
2020-10-30, 00:49:56
Wer mal selber testen will, gerne auch User mit einer 5700 XT als vergleich, hier der Downloadlink. (http://s000.tinyupload.com/download.php?file_id=75266639847527851391&t=7526663984752785139139376)

Ist bereits kompiliert und stammt von Reddit, falls das auch noch Einfluss haben sollte.
bringt nichts, da es keine öffentlichen dxr treiber für navi 1 gibt.

Neurosphere
2020-10-30, 00:56:59
bringt nichts, da es keine öffentlichen dxr treiber für navi 1 gibt.

Ach verdammt. Verstehen tue ich es trotzdem nicht, außer AMD hat in einer anderen Auflösung getestet.

Langlay
2020-10-30, 01:15:34
sry, selbst die hyper 470W PT versionen schaffen nicht dauerhaft über 2000MHz zu halten... was willst mehr?


GA102 lässt sich schon gut takten, nur der Stromverbrauch explodiert, daher sind die 390W 3090 Karten auf <2GHz limitiert.

Ist ja schön das du im 3. Anlauf dann doch noch meiner Meinung bist.

480W und Wakü reicht für >=2 GHz auf der 3090. Für mehr Speed braucht man halt grösseres PT oder Shuntmod.

SKYNET
2020-10-30, 01:34:31
Ist ja schön das du im 3. Anlauf dann doch noch meiner Meinung bist.

480W und Wakü reicht für >=2 GHz auf der 3090. Für mehr Speed braucht man halt grösseres PT oder Shuntmod.

genau, darum sind die amperekarten auch reihenweise bei >2GHz abgekackt, weil der chip da noch nicht am limit ist :freak:

da kannste shunten was du willst, da passiert nix mehr ohne extreme kühlmassnahmen...

woohooouuu, 2580MHz mit LN2:
https://www.tweaktown.com/news/75352/evga-geforce-rtx-3090-kingpin-overclocked-to-2-58ghz-on-ln2-cooling/index.html

die 1080Ti war irgendwo bei >2800MHz mit LN2 benchstable... ohne bench warens 3GHz:
https://www.eteknix.com/nvidia-geforce-gtx-1080-ti-breaks-3ghz-barrier-overclocked-ln2/

horn 12
2020-10-30, 03:35:34
https://twitter.com/patrickschur_/status/1321597146991333376
Sapphire Pulse - Nitro und Toxic

Hier sieht man schön die Explosionszeichnung von Big Navi Referenz Karte:
https://www.gigabyte.com/Graphics-Card/GV-R68XT-16GC-B#kf


Slotblende komplett! geschlossen :-((
und somit die Ganze! Abwärme im Gehäuse, Kühlrippen Abstand ist auch breiter als bei Vega VII oder ähnlichen Karten.

Ob es dies wirklich ausmacht?

Effe
2020-10-30, 05:20:32
Wer mal selber testen will, gerne auch User mit einer 5700 XT als vergleich, hier der Downloadlink. (http://s000.tinyupload.com/download.php?file_id=75266639847527851391&t=7526663984752785139139376)
13FPS mit einer 5700XT auf FHD.

Treiber ist 20.7.2

Digidi
2020-10-30, 05:53:06
@Locuza

Kannst du mal sagen wo du anhand der Daten vermutest das es nur 4 anstelle von 8 Rasterizern ist? In dem Bild finde ich nichts wo das darauf hindeutet? Die Shader Arrays bleiben zu Navi 10 gleich.....

BeetleatWar1977
2020-10-30, 06:21:28
Was ich bei der ganzen RT Geschichte nicht ganz verstehe:

AMD gibt in den Footnotes (RX 571) an 437 Fps im DX SDK zu RT erreicht zu haben und in Software (DXR Fallback Layer?) 37 Fps.

Da ich grad nicht die Möglichkeit habe hat ein Kumpel mal mit dem Tool auf seiner 1080 geprüft, die keine RT-EInheiten hat, was dabei so rauskommt. Er kommt im Standard, also start und Fenstermodus, auf 135 Fps. Macht er Vollbild auf 4k schrumpft die Framerate auf 22 Fps.

Die 37 Fps erscheinen im Standard auf Software, also da wo eine 3080 in HW über 600 Fps erreichen soll und eine 1080 schon 135 Fps, viel zu wenig.

Entweder AMD hat in einer anderen Auflösung getestet was einen Vergleich mit der 3080 unmöglich macht, oder der DXR Fallback Layer ist etwas sehr merkwürdiges.


Wer mal selber testen will, gerne auch User mit einer 5700 XT als vergleich, hier der Downloadlink. (http://s000.tinyupload.com/download.php?file_id=75266639847527851391&t=7526663984752785139139376)

Ist bereits kompiliert und stammt von Reddit, falls das auch noch Einfluss haben sollte.
bringt nichts, da es keine öffentlichen dxr treiber für navi 1 gibt.

Fallback geht auf Navi 1x - auf Vega übrigens auch.....

hier mal meine 5700XT im Fenstermodus....

https://abload.de/img/d3d12raytracingproced19kjx.jpg

dargo
2020-10-30, 06:33:49
IIRC ist doch Sapphire der Haus- und Hofhersteller von AMDs Referenzkarten. Hat sich das geändert?
Keine Ahnung... wenn das bei der Radeon VII auch der Fall war dann hatte Sapphire versagt.

dildo4u
2020-10-30, 06:35:02
Fallback geht auf Navi 1x - auf Vega übrigens auch.....

hier mal meine 5700XT im Fenstermodus....

https://abload.de/img/d3d12raytracingproced19kjx.jpg
Ist der Treiber kaputt?

https://live.staticflickr.com/65535/50546523477_413cd0fa59_b.jpg (https://flic.kr/p/2k1C9q6)driver (https://flic.kr/p/2k1C9q6) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

tEd
2020-10-30, 07:16:05
Ist der Treiber kaputt?

https://live.staticflickr.com/65535/50546523477_413cd0fa59_b.jpg (https://flic.kr/p/2k1C9q6)driver (https://flic.kr/p/2k1C9q6) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

1070 läuft auch nicht im Fallback Modus da Pascal DXR Support im Treiber hat.

Meine 2080ti @2.1GHZ macht 480-490fps

Stretcher
2020-10-30, 07:23:18
Erzähl uns mehr. ;D Und wen RT nicht interessiert geht das eh am Ars... vorbei.

Ja, den AMD Fans geht das am Arsch vorbei und den Nvidia Fans geht das andere am Arsch vorbei. :P

Berniyh
2020-10-30, 07:44:49
@Locuza: es scheint ja so zu sein, dass der Infinity Cache genau zwischen den Speichercontrollern und der GPU liegt.
Damit müsste dieser Cache eigentlich den TCC komplett ersetzen, oder?
bzw. ist letztendlich ein aufgebohrter TCC?
Und die num_tccs gibt dann bei Navi 21 eigentlich die Anzahl dann IFs zum Cache an.

Damit wäre dann bei Navi 22 – wie schon neulich von mir vermutet – wirklich 48 oder 96 MB Infinity Cache zu erwarten, so dieser denn auch mit dem Chip kommt.
Auf Grund der Verhältnisse CUs zu Größe Speicherinterface würde ich hier aber fast eher 48 MB erwarten. Mal sehen.

Mr.Scott
2020-10-30, 07:47:52
Weiß jeman wieviel (%) Fläche der Infinity Cache belegt?

mironicus
2020-10-30, 08:15:22
Direkt von AMD.

GsoFcGMawCw

Bin ich der einzige der keinen Unterschied merkt zwischen Raytracing off/on....?

Zergra
2020-10-30, 08:17:50
Ne da sieht man keinen Unterschied, auch in den Demos in der Präsentation war da quasi nix vorhanden.

ChaosTM
2020-10-30, 08:23:25
So wie bei 90% aller RT Demos.

Marodeur
2020-10-30, 08:25:28
Beim Schatten sieht man doch einen Unterschied?!?

ChaosTM
2020-10-30, 08:28:11
Reingezoomed - in Bewegung ist der Unterschied = 0

Brillus
2020-10-30, 08:34:05
Das einzige wo man es gut sah und auch besser aussah war das mit dem Feuerelementar fand ich. Zumindest das einzige das mir nach einem Tag noch in erinnerung blieb.

dargo
2020-10-30, 08:36:35
Direkt von AMD.

https://youtu.be/GsoFcGMawCw

Bin ich der einzige der keinen Unterschied merkt zwischen Raytracing off/on....?
Ging mir auch so zuerst. :tongue:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12478783&postcount=68

#44
2020-10-30, 08:42:39
Reingezoomed - in Bewegung ist der Unterschied = 0
Die Schatten sind schärfer und satter.
Für Gesamtbild macht das schon einen Unterschied - auch wenn es in der Detailbetrachtung nicht nach viel aussieht.

mboeller
2020-10-30, 08:47:20
Weiß jeman wieviel (%) Fläche der Infinity Cache belegt?


anhand der vorhandenen "Bilder" schwer zu sagen. So 19% von 505mm² wären 95mm²

ChaosTM
2020-10-30, 08:56:35
Gesetz vom abnehmendem Grenzertrag. Die nächsten paar Jahre werden wir mit den Kompromissen leben müssen. 50% weniger FPS für etwas mehr bling-bling.

Für ein vollständig lichtverfolgtes Rendering fehlt uns noch mindestens eine Größenordnung an Rechenleistung. Eher noch mehr..


add.: oder ein gscheiter Co-Prozessor ^^

anorakker
2020-10-30, 08:59:57
Direkt von AMD.

https://youtu.be/GsoFcGMawCw

Bin ich der einzige der keinen Unterschied merkt zwischen Raytracing off/on....?

Sind jetzt 15fps Gameplay Videos der neue Standard? Sieht ja gruselig aus, wer haut so einen Schrott raus?

ChaosTM
2020-10-30, 09:05:19
Ja, das ruckelt wie Sau - oder ist sehr stümperhaft ge-captured

basix
2020-10-30, 09:15:33
Damit wäre dann bei Navi 22 – wie schon neulich von mir vermutet – wirklich 48 oder 96 MB Infinity Cache zu erwarten, so dieser denn auch mit dem Chip kommt.
Auf Grund der Verhältnisse CUs zu Größe Speicherinterface würde ich hier aber fast eher 48 MB erwarten. Mal sehen.

Würde auch auf 48MB tippen.

Bin gespannt auf die technischen Infos zur Funktionsweise. Bis vor dem N21 Reveal haben ja einige gesagt, dass so ein Cache nicht viel bringt um die Off-Chip Bandbreite zu reduzieren, weil hat verglichen zur Datenmenge relativ klein. Irgendwie scheint es aber doch zu funktionieren (auch wenn 58% Hit Rate noch weit weg von perfekt ist).

Iscaran
2020-10-30, 09:33:01
@Locuza

Kannst du mal sagen wo du anhand der Daten vermutest das es nur 4 anstelle von 8 Rasterizern ist? In dem Bild finde ich nichts wo das darauf hindeutet? Die Shader Arrays bleiben zu Navi 10 gleich.....

So wie ich das sehe:
Navi10: 2 SE zu je 2 Shader Arrays (SH) die Rasterbackends sind pro SE definiert und mit 8 Angegeben
Die Packer widerum sind pro SC (Shader-Cluster ?) angegeben und es gibt 1SC pro Array SH (also 2x2x1*2=8 Packer pro ShaderEngine)

Damit hat Navi10 8 RBs und 8 Packer ?

Navi21: 4 SE zu je 2 SH
Die RBs sind aber nun mit 4 pro SE angegeben, wären 4x4 =16
Die Packer lese ich als 4x2x1x4 = 32

Demnach wäre die Packerzahl verdoppelt relativ zu den RBs und die RBs verdoppelt relativ zu N10 und Packer damit 4x relativ zu N10.

Screemer
2020-10-30, 09:36:58
Fallback geht auf Navi 1x - auf Vega übrigens auch.....

hier mal meine 5700XT im Fenstermodus....

https://abload.de/img/d3d12raytracingproced19kjx.jpg
Das ist aber dann wirklich rein CPU im fallback.

Zergra
2020-10-30, 10:10:38
Ich hoffe man kann am 18.11 ein 6800XT Ref. Design für 649€ ergattern, dann würde ich auch zuschlagen. Ggf. noch ein paar Euro mehr, aber nicht für über 700€. Hoffe da auch MF. Da hatte ich mit Vega gute Erfahrungen gemacht, die waren danach auch ewig ausverkauft.

Hakim
2020-10-30, 10:20:00
Kannst ja schon mal den F5 Finger trainieren :). Eigentlich müsste der Containerschiff noch unterwegs sein und die Stückzahlen vom Lufttransport kommen, zumindest ausgehend von den infos vorher

Andron
2020-10-30, 10:21:58
Sind jetzt 15fps Gameplay Videos der neue Standard? Sieht ja gruselig aus, wer haut so einen Schrott raus?
Ja, das ruckelt wie Sau - oder ist sehr stümperhaft ge-captured

Ist wieder mal ein "cinematisches" 24p Video, kann man sich bei youtube ja anzeigen lassen. Wie man in einem Technikvideo rund um ein PC-Spiel auf diese Idee kommen kann...

Und da die Framerate des Spiels bei der Aufnahme wahrscheinlich nicht auf 24 FPS oder ein vielfaches begrenzt wurde, kommt der 15 FPS-Eindruck bei den Spielszenen wohl durchaus hin.

Edit: Das Video wurde in 60 FPS neu hochgeladen, die Spielszenen scheinen aber nicht flüssiger auszusehen.

Zergra
2020-10-30, 10:23:47
Kannst ja schon mal den F5 Finger trainieren :). Eigentlich müsste der Containerschiff noch unterwegs sein und die Stückzahlen vom Lufttransport kommen, zumindest ausgehend von den infos vorher

Bei der 3080 wäre ein kauf kein Problem gewesen, ebenso wie bei der 3090. Preise waren aber viel zu hoch...

WedgeAntilles
2020-10-30, 10:24:13
Quelle: https://www.techstage.de/ratgeber/AMD-RX-6800-RX-6800-XT-RX-6900-XT-Infos-Tests-Preise-4942857.html

Das ist nicht deren Ernst, oder? Und für die 6800 XT sind gar 750 Watt empfohlen.

Da sollte man nicht zu viel rein interpretieren.
Natürlich gibt der Hersteller im Zweifelsfall ein deutlich höheres Netzteil an, als wirlich erforderlich.
Da sind dann auch qualitativ schlechtere Netzteile abgedeckt.
Und man geht halt auf Nummer sicher.

Wenn AMD jetzt sagt: 550W reichen - dann wird das vermutlich fast immer stimmen.
Nur: Die 2 Leute bei denen es nicht reicht sorgen halt für den Shitstorm.


Das gilt ja für quasi alles. Wenn du bei Wäsche schaust, bei wieviel grad das gewaschen werden darf - da ist auch fast immer ein "Sicherheitsbereich" drin. 50 Grad? Dann hält das fast garantiert auch 60 Grad aus. Wären es wirklich nur 50 Grad würde der Hersteller nämlich 40 Grad drauf schreiben.

gedi
2020-10-30, 10:27:29
Zwecks RT: Realistisch betrachtet sollte man von 80% Leistung der 6870XT im Vergleich zu einer 3080 ausgehen. Ordentlich geprügelt, annähernd gleich. Der Upsampler wird imo ähnlich (gut) aussehen wie DLSS. Für 1440p kann man sich die RT-Geschichte vielleicht noch je nach Game nativ antun, ansonsten sehe ich da ziemlich schwarz, außer man benutzt nen Upscaler, was für mich allerdings keine Option darstellt, da man Ingame auf jeden Fall den Unterschied zur nativen Auflösung sieht - auch mit DLSS2.0.

MR2
2020-10-30, 10:28:03
Hab mir vorsichtshalber erstmal ein 850w DARK Power Pro für 6800xl und zen3 bestellt, Klopapier und Netzteile sind so langsam ausverkauft.:freak:

HOT
2020-10-30, 10:33:13
AMD verhandelt mit Partnern über die Custom-Designs der 6900XT.
https://www.techpowerup.com/274026/amd-in-talks-with-partners-about-custom-radeon-rx-6900-xt-designs

Soviel zum AMD-Only. hätte mich auch gewundert, denn AMD nimmt die Referenzboards für gewöhnlich ja relativ schnell wieder außer Produktion.

Zergra
2020-10-30, 10:33:15
Ah ja ne ist klar, wir wissen noch quasi noch gar nichts über die RT Leistung. Und auf die fiktiven 80% willst du noch ca. 30% durch OC drauflegen um die 3080 zu erreichen ? Mal aufhören zu träumen.

Über den Upsampler wissen wir noch gar nichts. Kann auch sein das es nicht mal im Ansatz an DLSS herankommt.


RT stört mich net so , da wird viel Leistung verbraten für einen sehr geringen Effekt.

HOT
2020-10-30, 10:36:58
Stimmt nicht, wir wissen, dass RT im Pathtraycing-Apps etwa auf 3070-Niveau liegt. Da das aber nur die Peak-RT-Leistung darstellt, ist das jedoch kein hinreichendes Indiz dafür, wie RT in Rasterizer-Spielen performt. RDNA2 ist ja auch nicht als RT-Karte konzipiert worden, sondern um Spiele mit RT möglichst schnell darstellen zu können. Mal sehen, wie RDNA2 sich so in Raffs RT-Parcours schlägt.

Flusher
2020-10-30, 10:51:13
Direkt von AMD.

https://youtu.be/GsoFcGMawCw

Bin ich der einzige der keinen Unterschied merkt zwischen Raytracing off/on....?

;D

Was ist das denn für ne Demo - man sieht nur bei genauerem Hinschauen, dass ohne RT die Schatten etwas weicher wirken. :freak:

WedgeAntilles
2020-10-30, 10:53:31
Ich finde dieses RT Video für Dirt übrigens super.
Ich hatte gedacht, dass RT im Laufe der Zeit besser und damit wichtiger wird.
Wenn das Video aber exemplarisch für die meisten RT Effekte in Spielen sind - dann kann ich da gerne drauf verzichten. :D

Und da RT vielleicht eine Disziplin ist, in der BigNavi schwächer sein könnte. Nun, wenn man in einer Disziplin schlechter ist, bei der man sowieso keinen Unterschied bemerkt - so what?

Wäre RT jetzt eine optische Augenweide wäre eine RT Schwäche schlimmer.
Aber so?

Klar, Dirt ist jetzt nicht alles, aber von einem "oh, das sieht wirklich geil mit RT aus, darauf zu verzichten würde verdammt schwer fallen" scheinen wir doch wirklich recht weit weg zu sein.

Ich bin mal auf Vergleichsvideos bei Cyberpunk gespannt.

ChaosTM
2020-10-30, 11:01:31
Stabile 4K/60 bei RDR2 @ Max sind mir persönlich wichtiger. Das sollte drin sein..

Cyberpunks RT müsste schon herausragend besser ausschauen und laufen um kauf entscheidend zu werden.. abwarten

Dampf
2020-10-30, 11:03:29
Raytracing ist eine optische Augenweide und macht signifikante Unterschiede. Watch Dogs Legion sieht ohne RTX noch deutlich schlechter aus. Control und Metro profitieren enorm von den RT Effekten.

Ein paar Schatten sind halt ein leichter Effekt, sodass die Framerate nicht zu sehr einbricht, mit VRS kann man das dann ausgleichen. Das ist wohl AMDs Strategie.

Bevor deren DLSS Äquivalent nicht ready ist, wird man eher solch leichte Raytracing Kost sehen.

dildo4u
2020-10-30, 11:04:07
Dirt 5 wird für 60 oder gar 120fps für die neue XBox ausgelegt da kann man nicht mit Heavy RTX kommen, die Basis für RayTracing sind keine 600€ Karten sondern einige Stufe da drunter vermutlich Modelle für 300€ in 2021.
Es kommt also massiv aufs Game an wenn das Game sich nur langsam bewegt mach es natürlich deutlich mehr Sinn mehr Effekte einzubauen, Cyberpunk wird vermutlich ein Modus auf der Konsole haben der mit 30fps läuft.

dargo
2020-10-30, 11:09:23
Ich hoffe man kann am 18.11 ein 6800XT Ref. Design für 649€ ergattern, dann würde ich auch zuschlagen. Ggf. noch ein paar Euro mehr, aber nicht für über 700€.
Schwierig... "Deppenaufschlag" für Ungeduldige. ;)

AMD verhandelt mit Partnern über die Custom-Designs der 6900XT.
https://www.techpowerup.com/274026/amd-in-talks-with-partners-about-custom-radeon-rx-6900-xt-designs

Soviel zum AMD-Only. hätte mich auch gewundert, denn AMD nimmt die Referenzboards für gewöhnlich ja relativ schnell wieder außer Produktion.
Es hieß von Anfang an AMD zeitexklusiv. :rolleyes:

Stimmt nicht, wir wissen, dass RT im Pathtraycing-Apps etwa auf 3070-Niveau liegt. Da das aber nur die Peak-RT-Leistung darstellt, ist das jedoch kein hinreichendes Indiz dafür, wie RT in Rasterizer-Spielen performt.
Das ist das was ich von Anfang an kritisiert habe, interessiert hier nur keine Sau. Lieber hängt man sich am synthetischen Benchmark fest, also ob alle Spiele die gleiche RT-Last hätten. :rolleyes:

Screemer
2020-10-30, 11:34:01
Schwierig... "Deppenaufschlag" für Ungeduldige. ;)


Es hieß von Anfang an AMD zeitexklusiv. :rolleyes:


Das ist das was ich von Anfang an kritisiert habe, interessiert hier nur keine Sau. Lieber hängt man sich am synthetischen Benchmark fest, also ob alle Spiele die gleiche RT-Last hätten. :rolleyes:
das war die letzten generationen eher genau anders rum. die die gleich gekauft haben haben zumindest den uvp bekommen. monate danach war da nichts für zu holen. wird diesmal nicht anders laufen und die nicht lieferbarkeit von ampere verschärft die situation noch.

Savay
2020-10-30, 11:46:50
Das ist das was ich von Anfang an kritisiert habe, interessiert hier nur keine Sau. Lieber hängt man sich am synthetischen Benchmark fest, also ob alle Spiele die gleiche RT-Last hätten. :rolleyes:

Ich sags euch...das wird für die nächsten 2-3 Jahre die Tessellation Diskussion Reloaded werden!
Manchmal glaub ich alle 10 Jahre wiederholt sich hier einfach ein auf alle Zeit wiederkehrendes Muster. Das fühlt sich alles schon wieder an wie RV870 vs. Thermi. :uup:
Vielleicht hängt das ja auch mit dem 11 jahrigen Sonnenzyklus zusammen?! Zufall? Ich denke nicht! :tongue:

Anyway. Auch wenn die wirklichen Unterschiede nur bei quasi unnützer Vergeudung der Rohleistung und vollkommen hirnverbrannter "In-your-Face" Implementation spürbar werden dürften. (*hust* Crysis 2 *hust*)
Dann kommt wieder ein vom User setzbares Treiberoverride o.ä. und wir haben die nächste "Treibercheat" Grabenschlacht.
Wirklich praktisch relevant wird das Feature dann am Ende aber sowieso erst wenn solche Lappalien hier im Forum keinen mehr jucken...oder wann hat zuletzt mal wer die Tessellation Performance ausgemessen? :wink:

HarryHirsch
2020-10-30, 11:50:58
Ich sags euch...das wird für die nächsten 2-3 Jahre die Tessellation Diskussion Reloaded werden! :freak:
Manchmal glaub ich alle 10 Jahre wiederholt sich hier einfach ein Muster. Das fühlt sich alles schon wieder an wie RV870 vs. Thermi.

Auch wenn die wirklichen Unterschiede nur bei unnützer Vergeudung der Rohleistung und vollkommen hirnverbrannter implementation spürbar werden dürfte. (*hust* Crysis 2 *hust*)
Dann kommt wieder ein vom User setzbares Treiberoverride o.ä. und wir haben die nächste "Treibercheat" Grabenschlacht.

Wirklich praktisch relevant wird das Feature dann am Ende aber sowieso erst wenn solche Lappalien hier im Forum keinen mehr jucken...oder wann hat zuletzt mal wer die Tessellation Performance ausgemessen? :wink:
das wollte ich auch schon schreiben.
genau die gleiche leier wie damals...

gbm31
2020-10-30, 12:00:57
Schwierig... "Deppenaufschlag" für Ungeduldige. ;)

das war die letzten generationen eher genau anders rum. die die gleich gekauft haben haben zumindest den uvp bekommen. monate danach war da nichts für zu holen. wird diesmal nicht anders laufen und die nicht lieferbarkeit von ampere verschärft die situation noch.


Mein Problem ist eher: Will-sofort-haben (=Referenz) vs. Sapphire Nitro+ (oder wie auch immer, also leise & potent) - immerhin geb ich mich nach ein bisschen Runterkommen mit einer 6800XT zufrieden. :-D

Beim 5900X ist das viel einfacher...

Berniyh
2020-10-30, 12:10:10
Mein Problem ist eher: Will-sofort-haben (=Referenz) vs. Sapphire Nitro+ (oder wie auch immer, also leise & potent) - immerhin geb ich mich nach ein bisschen Runterkommen mit einer 6800XT zufrieden. :-D

Beim 5900X ist das viel einfacher...
Ich hoffe eher Sapphire bietet eine Lösung mit WaKü Kühlkörper an.

Eigentlich wäre es ja auch mal ziemlich cool ne Karte einfach ohne Kühlkörper anzubieten für Custom WaKü.
Aber das ist dann wohl zu sehr Nische …

Redneck
2020-10-30, 12:11:44
Schwierig... "Deppenaufschlag" für Ungeduldige. ;)

:

Mag sein.. aber
1) kennen wir die UVP für Europa nicht (ich habe zumindest nichts dazu gesehen)
2) noch haben wir einen verminderten MWsT Satz..

könnte dazu führen , das wir tatsächlich 649 sehen, sofern gut verfügbar

gedi
2020-10-30, 12:13:39
Mein Problem ist eher: Will-sofort-haben (=Referenz) vs. Sapphire Nitro+ (oder wie auch immer, also leise & potent) - immerhin geb ich mich nach ein bisschen Runterkommen mit einer 6800XT zufrieden. :-D

Beim 5900X ist das viel einfacher...

Wenn SAM wirklich nur mit Zen3 funktioniert, dann fände ich das echt sch.... ! Kommend von nem 3950x wüßte ich nicht, warum ich Zen 3 kaufen sollte

Zergra
2020-10-30, 12:13:41
Naja wenn man den Spaß unter Wasser setzen möchte bleibt die Referenz wohl die beste Alternative.

Ich denke auch das der 18.11 dieses Jahr der beste Zeitpunkt für einen günstigen kauf wird, danach gehen die Preise mangels Verfügbarkeit erstmal hoch.

gbm31
2020-10-30, 12:24:16
Naja, für Miner erwarte ich die 6000er als nicht so wirklich performant...

Und die eingefleischten Fanboys warten hoffentlich bis die Lederjacke genug gebacken bekommt!

Gibt's schon irgendwelche Aussagen zur Performance in VR?

Das ist für mich der eigentliche Treiber, sowohl was CPU als auch was GPU angeht. CPU weil viele SIMs da eher an wenig Kernen hängen und GPU weil die VII da irgendwie nicht ganz optimal ausgelastet wird und nicht mal hochtaktet obwohl benötigt für durchgehend >90fps.

why_me
2020-10-30, 12:33:47
Naja, für Miner erwarte ich die 6000er als nicht so wirklich performant...

Sicher? Ich dachte die brauchen nur Bandbreite, Speichermenge und TFLOPs sind da doch eher Zweitrangig und da könnte N21 mit dem Cache stark profitieren.