PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD stellt Radeon RX 6800, Radeon RX 6800 XT & Radeon RX 6900 XT ...


Leonidas
2020-10-28, 20:23:07
Link zur News:
https://www.3dcenter.org/news/amd-stellt-radeon-rx-6800-radeon-rx-6800-xt-radeon-rx-6900-xt-offiziell-vor


Update 28.10. 20:41:
Habe noch den Rage-Mode bei den Benchmarks zur 6900XT eingearbeitet.

Silent3sniper
2020-10-28, 20:27:42
Gerade die RTX 3070 erscheint nun etwas deplatziert, insbesondere der sehr knapp bemessene GDDR6 Speicher.

Loeschzwerg
2020-10-28, 20:33:36
Jup und wenn die 6800 jetzt noch im Preis weiter zu den 500USD rutscht (der Abstand zur XT ist so einfach zu gering), dann drückt NV den Preis der 3070 hoffentlich auch nach unten. Das wäre doch mal was anständiges für den Markt :)

Nazar
2020-10-28, 20:45:26
Ich glaube nV ist mit den Preisen, für diesen Chipsatz, schon längst unter die eigene Schmerzgrenze gegangen und auch AMD würde gerne mehr verlangen. Da wird sich sehr wahrscheinlich nicht mehr viel tun.
nV hat AMD einen mit den niedrigen Preisen reingewürgt und AMD wird versuchen das Spiel nicht zu forcieren.
Ich bin davon überzeugt, dass -sollte nV in Kürze kontern können- die Preise deutlich steigen werden. Es war nie vorgesehen, dass eine 3080 oder 3070 so "günstig" verscherbelt werden.
Wer jetzt kaufen will oder muss, der sollte es jetzt tun. So "günstig" werden die Spieler nie wieder an diese Leistung kommen. ;)

Gethvel
2020-10-28, 20:48:19
Wer jetzt kaufen will oder muss, der sollte es jetzt tun. So "günstig" werden die Spieler nie wieder an diese Leistung kommen. ;)

Ich würde noch ein paar Wochen/Monate warten bis die RX6000 verkauft werden und die RTX3000 verfügbar sind. Momentan bekommt man höchstens eine RTX3090 für 2000€ oder so.


Vermutlich werden die neuen RX6000 Grafikkarten aber kaum eine Chance gegen Turing mit DLSS haben, so wie es gerade aussieht.
Turing auf 720p mit DLSS sieht sicherlich besser aus als RX6000 auf 4k oder 8k und dürfte mehr FPS bringen. Da kann AMD noch so an der Performance schrauben, ohne DLSS keine Chance.

ChaosTM
2020-10-28, 20:50:37
Ich warte auf jeden Fall noch bis entweder die G2 oder CP77 erscheint. Eine 20GB TSCM based 3080er könnte interessant werden.

Leonidas
2020-10-28, 21:03:12
Eine 20GB TSCM based 3080er könnte interessant werden.


Wird sie in jedem Fall. Aber das ist auch kaum vor Mitte 2021 zu erwarten.

Gast
2020-10-28, 21:03:14
Ich habe da noch ein paar Fragezeichen die nur die Reviews spaeter aufloesen koennen. Vor allem eine: Es waren allen Benches mit Rage Mode on, hat das auch einen Einfluss auf den Stromverbrauch? Und wie performen die Karten mit Production Software (DaVinci, Hitfilm, After Effects, Photoshop etc.) im Vergleich zur Radeon VII und RX 5700XT.

Der Preis begeistert mich auch wenig. Klar NV hat die Preise vorgelegt, entsprechend hoch fallen sie auch bei AMD aus. Die waeren bloede einen Preiskampf anzufangen. Trotzdem haette ich da einen Tick mehr erwartet und aergere mich schon fast das die Karten scheinbar so gut performen. ^^ Angebracht halte ich eigentlich:

RX 6800 => 549€
RX 6800XT => 599€
RX 6900XT => 699€

Vor allem bei der 6900XT sieht man das NV da den Preis ordentlich nach oben zieht. Wenigstens waere es AMD dann doch zu peinlich gewesen ueber 1000$ zu gehen. Immerhin waeren dann auch 1299$ und mehr drinn gewesen, denn das spielt in der Sphaere dann auch keine Rolle mehr. Ausser Menschen die irgend etwas kompensieren muessen kauft das doch keiner. ^^

Ich befuerchte bei den Preisen das die RX 6700(XT) dann bei ueber 449$ rauskommen wird. Die wuerde ich definitiv lieber bei 399$ sehen.

Jedenfalls werde ich meine anstehende Neuanschaffungen irgendwann aufs naechste Jahr verlegen. Die Preise sind mir einfach zu hoch. Zwar habe ich das Geld, das ist es mir aber schlicht nicht Wert. Vielleicht hole ich mir dann auch einfach ne gebrauchte 1080TI, Radeon VII oder RX5700XT. Am besten schon mit Wasserkuehler drauf, denn den muss ich zu den Preisen einer neuen Karte ja auch noch dazu rechnen.

Gast
2020-10-28, 21:16:39
Ich würde noch ein paar Wochen/Monate warten bis die RX6000 verkauft werden und die RTX3000 verfügbar sind. Momentan bekommt man höchstens eine RTX3090 für 2000€ oder so.


Vermutlich werden die neuen RX6000 Grafikkarten aber kaum eine Chance gegen Turing mit DLSS haben, so wie es gerade aussieht.
Turing auf 720p mit DLSS sieht sicherlich besser aus als RX6000 auf 4k oder 8k und dürfte mehr FPS bringen. Da kann AMD noch so an der Performance schrauben, ohne DLSS keine Chance.

hmmm nur welche Spiel unterstüzen DLSS ? du redest so alls würde das überall funzen ;)

FarCry
2020-10-28, 21:18:50
... ich prophezeite ja bereits vor einigen Wochen, dass BigNavi wie eine Bombe einschlagen wird (ein Gast weniger, btw). Auch wenn man das sicherlich nette Schmankerl "Smart Access Memory" mal bei den Berechnung außenvorlässt, kann man gut verstehen, warum NV *richtig* kalte Füße bekommen hat. Mit der 3080 und 3090 gleichgezogen, echte Innovation gezeigt, satt Speicher on Board und deutlich billiger. Wie geil ist das denn bitte.

Tatsächlich stören mich etwas die 300W bei der 6900XT, aber ok, die wird es dann wohl werden. Take my money, Lisa. :biggrin:

aufkrawall
2020-10-28, 21:24:58
Tja, und wenn die Entwicklung von RDNA jetzt wie bei Zen voran schreitet...
Imho wirds auch diesmal ernst bez. expl. API und Konsolen-Optimierungen für PC-RDNA2. Schon die letzten Far Crys und Battlefields liefen rasend schnell auf Radeons, imho wird das eher noch ärger (Komparativ von arg :D ).

Mega-Zord
2020-10-28, 21:26:16
AMD löst NVs Lieferprobleme ;D

Naja, erst mal abwarten.

Gast
2020-10-28, 21:45:36
Erstmal: Glückwunsch an AMD.
Ich hätte das so nicht erwartet.

Fallback
2020-10-28, 22:00:11
Nice, die 6800 XT auf Augenhöhe mit der 3080. So wie geplant. :D

Jetzt wird auch klar, warum NV den Preis der 3080 so niedrig angesetzt hat, die wussten was da kommt.

Ich bin echt gespannt wie die Liefersituation aussehen wird. Wenn AMD das besser hinbekommt (und auch lieferbar bleibt), dann wird's da ne ganz schöne Delle in NVs Geschäftszahlen geben.

GG AMD :up:

Gethvel
2020-10-28, 22:09:16
hmmm nur welche Spiel unterstüzen DLSS ? du redest so alls würde das überall funzen ;)

Momentan zocke ich Control und Death Stranding, nächsten Monat Cyberpunk 2077. Wüsste nicht warum ich mir DLSS-freien ruckeligen Pixelbrei antun sollte. Kommt mir nicht mehr auf den Tisch.:rolleyes:

Iscaran
2020-10-28, 22:18:00
Jetzt ist auch klar warum nVidia mal lieber fast keine RTX 3080 und 3090 produziert hat :-).

6900 XT mit 300 W in einer Liga mit 3090 mit 350 W.

Gut preislich hat AMD die 1500€ Vorlage von nVidia "dankend" angenommen. Und bietet nun 1000€. nVidia kann ja mal die Preise senken und sehen ob Sie über Preiskampf gehen wollen :-).

Ich fürchte aber AMD hat auch da die Trümpfe aktuell in der Hand mit den kleineren Dies (505 mm^2 vs 628 mm^2).

Daredevil
2020-10-28, 22:22:07
hmmm nur welche Spiel unterstüzen DLSS ? du redest so alls würde das überall funzen ;)
Ich hab mal letztens Death Stranding angespielt in 5K Max Settings + DLSS, fixen 120fps auf meinem 55" OLED mit richtig feinem HDR.
Mir ist völlig egal, ob ich dafür DLSS brauche oder Secret Sauce, 4K@120 ist ein Träumchen. ( Und ohne DLSS bekommt man das eher selten hin, wa. )

Deswegen ist es zumindest für Cyberpunk ein Game Changer, wenn man in Max. Quali spielen will bei hohen FPS.
Wenn AMD natürlich auch sowas kann, immer her damit.
Scheiß egal von wem, give me FPS.

aufkrawall
2020-10-28, 23:00:53
Nicht mal mit DLSS reichen für 4k die 10GB wirklich. Glaubt der den Blödsinn eigentlich selber, den der hier ständig auftischt...

Daredevil
2020-10-28, 23:44:25
Also ich rede nicht von der 3080, jemand anders hier?

aufkrawall
2020-10-28, 23:55:27
Genau, schieß dich ruhig vollends ins Clown-Abseits...

5CH4CHT3L
2020-10-29, 00:10:42
Bitte alle mal auf dem Boden der Tatsachen bleiben... (Nvidia und AMD Freunde) das klingt ja alles schön und gut, wir haben aber auch noch keine unabhängigen Benchmarks, also kann die Leitung noch bis zu 10% schwächer ausfallen.

Auch sehe ich nicht wie mit dem Angebot AMD oder Nvidia den anderen komplett platt machen kann. AMD hat halt mehr Speicher und den etwas besseren Preis, Nvidia hat Features wie DLSS und bewährtes RayTracing. Was man persönlich davon hält ist da erstmal egal, die Masse entscheidet. Dementsprechend ist dann auch AMD oder Nvidia je nach Anwendung zu empfehlen.

Am Anfang werden eh erstmal die Liefermängel das relevanteste sein, ich denke da werden einige einfach zu dem greifen was gerade verfügbar ist. Wir hatten jetzt seit der 1080ti in 2016 keinen großen P/L-Sprung im High-End und wegen Corona und Cyperpunk wollen jetzt noch mehr aufrüsten, da wird es kaum möglich sein die Nachfrage zu decken. Der der die meisten Wafer gekauft hat wird jetzt am Anfang auch das meiste verdienen

Daredevil
2020-10-29, 00:12:50
Nicht mal mit DLSS reichen für 4k die 10GB wirklich. Glaubt der den Blödsinn eigentlich selber, den der hier ständig auftischt...
Genau, schieß dich ruhig vollends ins Clown-Abseits...

Findest du es nicht peinlich, dich im Forum in deinem Alter profilieren zu müssen und einen auf starken zu machen?
Wenn ich von Death Stranding rede in 4k@120hz, dann meine ich das so.
Siehst du hier ein Speicherproblem bei meinem System?
Ich seh keins, das ist mal wieder super lappig. Ein wenig benehmen wär echt angemessen.

https://abload.de/img/unbenanntx6jag.png

Wie gesagt. Mir ist völlig egal, wo die Leistung herkommt, ich persönlich hätte gerne 4K@120.
Ob das nun herbeigezaubert wird, oder die Leistung ausreicht ( Tut sie selten, egal bei welchem Hersteller ), mir völlig egal.
Daher würde ich auch begrüßen, dass AMD auch in so eine Technik investiert, gerne auch in die XBOX.

aufkrawall
2020-10-29, 00:26:41
Ach, was solls. Nicht mehr von dieser Welt, del plz...

Geldmann3
2020-10-29, 00:38:47
Ich würde noch ein paar Wochen/Monate warten bis die RX6000 verkauft werden und die RTX3000 verfügbar sind. Momentan bekommt man höchstens eine RTX3090 für 2000€ oder so.


Vermutlich werden die neuen RX6000 Grafikkarten aber kaum eine Chance gegen Turing mit DLSS haben, so wie es gerade aussieht.
Turing auf 720p mit DLSS sieht sicherlich besser aus als RX6000 auf 4k oder 8k und dürfte mehr FPS bringen. Da kann AMD noch so an der Performance schrauben, ohne DLSS keine Chance.

Hast Du da gerade wirklich geschrieben, dass Du meinst, internes 720p könne mit nativen 4k+TAA oder sogar 8k+TAA mithalten, nein, es würde sogar besser aussehen?

Ich bin ja schon ein Verfechter von DLSS, aber sorry, never!
Im besten Fall kann 1080p DLSS mit 4k+TAA mithalten und von nativen 8k sind wir da noch ganz weit weg.
Und das im besten Fall.

Blutmaul
2020-10-29, 01:48:43
Die 6900XT und 6800XT sind gute Lösungen.

Aber ich weiß nicht, was AMD sich mit der 6800 denkt.
Erstens wurde die Karte mit SAM (Smart Access Memory) gebencht, was die Leistung um ca. 8% höher als Kundenüblich aussehen läßt (kein SAM da CPU und oder Board nicht passen und Intel ganz aussen vor ist).

Dann wird NV einfach die ganzen Tests und Benches mit DLSS und RT locker gewinnen mit ihrer 3070!
AMD hat dagegen eine unerprobte, unoptimierte und in Teilen von den Softwareentwicklerm abhängige Softare-Suite.

Ich seh nicht, wie die 6800 hier Kunden catchen soll, ausser das NV die Karten nicht liefert und selbst dann ist der Preisabstand zur 6800XT so gering, das man in dem Preisbereich gleich zur XT greift und die non XT ignoriert.

Ich denke mit der 6800 hat AMD sich verkalkuliert (sofern diese auch wirklich in Mengen verkauft werden soll)!

Nazar
2020-10-29, 01:58:42
Ich hab mal letztens Death Stranding angespielt in 5K Max Settings + DLSS, fixen 120fps auf meinem 55" OLED mit richtig feinem HDR.
Mir ist völlig egal, ob ich dafür DLSS brauche oder Secret Sauce, 4K@120 ist ein Träumchen. ( Und ohne DLSS bekommt man das eher selten hin, wa. )

Deswegen ist es zumindest für Cyberpunk ein Game Changer, wenn man in Max. Quali Settings spielen will bei hohen FPS.
Wenn AMD natürlich auch sowas kann, immer her damit.
Scheiß egal von wem, give me FPS.

Ich habe das mal kurz für dich korrigiert.
DLSS ist leider, wie schon oft geschrieben, nicht in jedem Spiel und dann auch nicht immer ohne RT möglich. Das sind nun einmal Fakten.
Dass DLSS durchweg maximal Qualität auf Augenhöhe des Originals bietet, halte ich weiterhin für ein Gerücht und hätte nichts dagegen, wenn das jemand widerlegen könnte.
Zumal mir aufgefallen ist, dass es ein extremes DLSS Ruckeln -zumindest auf der Performance Stufe- trotz sehr hoher FPS gibt aber eventuell bin ich da auch nur hyperempfindlich.
Ich wüsste auch gerne, weshalb nV DLSS nicht gleich für jedes Spiel anbietet, wenn es so unfassbar gute Qualität abliefert?
Meine These dazu ist, dass DLSS eben nicht alles optimieren kann. Je nach Einsatz, bzw. Optimierung der Shader, ist es vermutlich fast unmöglich DLSS in einer Qualität anzubieten, dass es überhaupt noch gut aussieht.
Mit dem Einsatz von RT ist dieses Problem natürlich obsolet, weshalb DLSS in manche Spielen wohl dann auch nur mit RT angeboten wird?
Das wäre zumindest ein nachvollziehbare Begründung aufgrund einer logischen Kette von Schlüssen.
DLSS mag sich in der Zukunft stärker verbreiten aber mit Sicherheit nicht so schnell wie gewünscht.
Das wirklich Lustige an der Sache aber ist, dass sich nV mal wieder selber ins Knie geschossen hat, weil sie wieder einmal einen "Members only" Weg gegangen sind.
DLSS ist im Kern nicht schlecht, nV ist es, die DLSS Knüppel zwischen die Beine werfen.
Was ist so schwer daran gemeinsam mit den Anderen etwas zu entwickeln... für die Spieler?
Nein, bevor nV den Spielern was Gutes tut, manipulieren sie lieber die Renderpfade der nV gesponserten Spiele oder schalten die Funktionen der gekauften Grafikarten gleich ganz ab, sobald noch eine fremde GPU im System gefunden wird.

Gab es jemals einen Alleingang von nV der nicht früher oder später in der Versenkung verschwunden ist oder erst wieder durch eine Öffnen für die Allgemeinheit wieder zum Leben erweckt wurde?
PhysX.... lol
G-Sync... ohne Freesync wäre das Monster fast in Vergessenheit geraten
Und nun haben wir DLSS, welches immer trainiert werden muss, bevor es zünden kann und dann auch nur nV GPU Nutzern zur Verfügung steht.
Erinnert mich irgendwie an PhysX. Der Vorteil, man kann es dieses Mal wirklich an den FPS sehen aber das war es dann auch schon.
Wie man solche poprietären Entwicklungen auch nur im Ansatz unterstützen kann, werde ich als Nutzer nie verstehen. :freak:

Geldmann3
2020-10-29, 02:16:11
@Nazar
Ein DLSS Ruckeln konnte ich mit meiner 2080 Ti in keinster Weise feststellen und auch die gemessenen Frametimes liefern keine Hinweise darauf.

In der Tat bietet DLSS 2.1 nicht durchgehend die Qualität der nativen Auflösung+TAA. An einigen Stellen übertrifft es diese und an manchen Stellen eben nicht.

Nvidia bietet DLSS nicht gleich für jedes Spiel an, weil es von den Spieleentwicklern implementiert werden muss. Dafür gibt es gute und unumgängliche Gründe. Und ja, je nach Usecase ist es wirklich unmöglich DLSS in einer Qualität anzubieten, dass es überhaupt noch gut aussieht. Das ist aber eher die Ausnahme zur Regel.

Warum ist das Problem mit dem Einsatz von RT obsolet?

Ja, es ist schade, dass DLSS nicht ,,offen" ist und es ist in der Tat schade, dass Nvidia die eigenen Grafikkarten gerne mal in Hard- und Software verkrüppelt damit neu gekauft werden muss.

DLSS muss nicht für jedes einzelne Spiel trainiert werden. Das war nur zu Anfangszeiten so.

-----------------------------------
Den Radeon 6000er Launch von AMD fand ich sehr gelungen.
Auf die Ryzen und Radeon Launches habe ich dieses Jahr ähnlich hingefiebert wie andere auf große Boxmatches. Es braucht einfach starke Konkurrenz... Sonst bekommen wir Karten mit 10GB Vram und Quadcores. :wink:

Platos
2020-10-29, 02:23:05
Bin dann doch sehr positiv überrascht. Die 6800XT sieht äusserst rund aus. Preis ist akzeptabel, fast doppelter Speicher und etwa 3080 Perfomance.

Genau so habe ich mir eig. die 3080 vorgestellt. Sieht gut aus.

Jetzt müssen das unabhängige Tests noch bestätigen.

(Und brauchbare Partnerkarten Zeitnah gut verfügbar sein... aber das ist ja bei AMD immer so gut gelaufen in der Vergangenheit... ;) )

Wäre meine CPU nicht langsam veraltet, und ich nicht noch warten wollen würde mit upgraden, würde ich die Karte (wenn sie in unabhängigen Tests auch so abschneidet), glatt direkt kaufen (und es auch bald brauchbare [=Leise] Partnerkarten gibt).

Ich gönne es zwar jedem, aber ich hoffe mal für alle, es wird nicht wieder AMD-üblich Ewigkeiten dauern, bis die Partnerkarten (mit Verfügbarkeit) kommen (weil AMDs eigenes Referenzdesign wie immer Müll ist).

morbidmorgis
2020-10-29, 02:28:36
SAM haut ja teilweise richtig gut rein. Bei Forza Horizon 4 übertrumpft die 6800 in WQHD damit die 6800 XT leicht und auch in Gears of War 5 kommt man gefährlich nahe dran. Ich denke mit weiteren Treiberupdates und Optimierungen seitens der Spieleentwickler kann hier auch noch einiges rausgeholt werden. Das würde Ryzen 5000 + Radeon 6000 + X500 auf lange Sicht zu der optimalen Spieleplattform werden lassen. Und dabei ist es auch schon fast egal für welche Produkte man sich genau entscheidet, auch die künftigen kleineren CPU und GPU könnten davon sehr stark profitieren (auch dank Infinity Cache). AMD hat hier einfach alles richtig gemacht.

Mit SAM und RM kommt die 6800 XT in 4K übrigens auf folgende FPS (laut AMD):

Battlefield V: 120 (statt 113 ohne SAM/RM) # ca. +22,2% zur 6800 mit SAM (statt +15,3% ohne SAM/RM) # -1,8% (zur 6900 XT)
Doom Eternal: 141 ( 138) # ca. +19,3% (+17,0%) # -6,2%
Forza Horizon 4: 156 (138) # ca. +16,4% (+3,0%) # 7,73%
Gears of War 5: 84 (78) # ca. +20,3% (+11,4%) # -8,4%
Resident Evil 3: 122 (117) # ca. +19,3% (+14,7%) # -5,6%
Wolfenstein: Yound Blood: 148 (142) # ca. +20,1% (+15,5%) # -7,7%

Eldoran
2020-10-29, 02:36:51
Theoretisch hat AMD mit RDNA2 alle wichtigen Checkbox Features von nvidia erfüllt. Es gibt Raytracing und es gibt eine upscaler der so etwas wie bei DLSS bieten soll. Allerdings sollte beides noch von unabhängigen Tests abgeklopft werden.
Wobei bei DLSS noch zu sagen wäre, dass diese Technik einen Haufen KI-Technobabble enthält. Es ist nicht wirklich klar, wie das ganze wirklich funktioniert, bzw. wie sich das im Vergleich zu traditionellen Techniken zum hoch skalieren von Video verhält. Vor allem in wie weit es diese übertrifft. Und DLSS1 und DLSS2 sind eigentlich ziemlich verschiedene Techniken.

Geldmann3
2020-10-29, 02:44:15
Theoretisch hat AMD mit RDNA2 alle wichtigen Checkbox Features von nvidia erfüllt. Es gibt Raytracing und es gibt eine upscaler der so etwas wie bei DLSS bieten soll. Allerdings sollte beides noch von unabhängigen Tests abgeklopft werden.
Wobei bei DLSS noch zu sagen wäre, dass diese Technik einen Haufen KI-Technobabble enthält. Es ist nicht wirklich klar, wie das ganze wirklich funktioniert, bzw. wie sich das im Vergleich zu traditionellen Techniken zum hoch skalieren von Video verhält. Vor allem in wie weit es diese übertrifft. Und DLSS1 und DLSS2 sind eigentlich ziemlich verschiedene Techniken.

DLSS 2.0+ hat mit Videoupscaling nicht mehr viel zu tun. Da es kein Upscaling sondern temporales Supersampling ist.

Zwirbelheinz
2020-10-29, 04:33:56
...(ein Gast weniger, btw)...

Dann erstmal herzlich willkommen hier als offizielles Mitglied. :)

Ich selbst bin überrascht, was AMD da auf die Beine stellt. Damit hatte ich nicht gerechnet. Wenn später alle Reviews diesen Eindruck bestätigen, dann beide Daumen hoch. Kann für uns alle nur gut sein. :)

Ätznatron
2020-10-29, 07:06:40
Theoretisch hat AMD mit RDNA2 alle wichtigen Checkbox Features von nvidia erfüllt. Es gibt Raytracing und es gibt eine upscaler der so etwas wie bei DLSS bieten soll. Allerdings sollte beides noch von unabhängigen Tests abgeklopft werden.
Wobei bei DLSS noch zu sagen wäre, dass diese Technik einen Haufen KI-Technobabble enthält. Es ist nicht wirklich klar, wie das ganze wirklich funktioniert, bzw. wie sich das im Vergleich zu traditionellen Techniken zum hoch skalieren von Video verhält. Vor allem in wie weit es diese übertrifft. Und DLSS1 und DLSS2 sind eigentlich ziemlich verschiedene Techniken.

Eine kleine Verständnisfrage von mir:

Könnte man Grafiken nicht von vornherein so konzipieren, dass auf das segensreiche DLSS verzichtet werden kann?

etp_inxession
2020-10-29, 07:46:44
DLSS .... der letzte Strohhalm der grünen Fraktion.

@Daredevil ... benehmen fängt eigentlich schon damit an, ein AMD Thema nicht mit nV + DLSS zu zu spammen.

Oberst
2020-10-29, 07:50:29
Ich finde die Vorstellung bisher gut gelungen. Jetzt müssen unabhängige Tests noch die Benchmarks bestätigen, dann hat AMD wirklich gut geliefert.
Das Einzige, was ich etwas komisch finde, ist die 6800. Mit 250W braucht sie mehr als die NV Konkurrenz. Sie ist dabei zwar merklich schneller und hat mehr Speicher, aber Preis und Verbrauch passen da nicht so schön wie bei der 6800XT. Die scheint grob auf 3080 Niveau zu liegen und dabei weniger als NV zu verbrauchen.

Kearvaig
2020-10-29, 07:52:25
Well played Team Red, well played.

Habe ich so wirklich nicht erwartet. Noch weniger habe ich damit gerechnet, das die 3090, im Nachhinein betrachtet, wohl eine Panikreaktion von Nvidia war.

Falls das alles unabhängig bestätigt wird ist es auch schön zu sehen das AMD mal Understatement kann. Ich hoffe das RT vielleicht auch noch überrascht - auch wenn das eigentlich schon zuviel verlangt ist.

Legendenkiller
2020-10-29, 07:59:39
Naja bei RT wird Nvidia schon noch schneller sein... das hat AMD gestern komplett ausgeblendet.
Ich hab auch keine Aussage gefunden ob nun alle 3 6xxx RT können... auch wenn esirgendwie unlogisch wäre wenn nicht.

Aber schön zu sehen das AMD bei der reinen Renderleistung gute Argeit geleistet hat, auch wenn Nvidia das mit seinen Stunts der letzen Wochen defakto schon bestätigt hatte.


Die 6900XT erzeugt bei mir schon an argen Kaufreflex trotz der 300W TPD oder ebend auch wieder gedade deswegen weil sie damit das effizienteste ist was aktuell zu haben ist. Dazu noch passende 16 Gbyte und 1000€für ein Vollausbau runden das Bild ab.
Da noch ein 5900X dazu ... mal sehn was bis Weinachten lieferbar ist ^_^

Loeschzwerg
2020-10-29, 08:20:59
Ich hab auch keine Aussage gefunden ob nun alle 3 6xxx RT können... auch wenn esirgendwie unlogisch wäre wenn nicht.


Nachdem alle Karten DX12 Ultimate konform sind, müssen auch alle RT können :) Bei den kleineren Karten mit Navi 22, 23... ist es noch offen.

Wenn die RT Leistung durchgehend auf Turing Niveau liegt, wäre das eigentlich schon sehr gut.

#44
2020-10-29, 08:21:25
Eine kleine Verständnisfrage von mir:

Könnte man Grafiken nicht von vornherein so konzipieren, dass auf das segensreiche DLSS verzichtet werden kann?
Klar. Stell deine Highend-Karte auf 1080p und du wirst nie Performanceprobleme haben.

Wenn du aber 4k willst und die Performance doch mal kritisch wird (was auch immer da die persönliche Grenze ist) - dann kannst du DLSS nutzen statt Auflösung zu reduzieren.

Aber ich glaube eher nicht, das ein Verzicht auf hohe Auflösungen (oder Framerates) hier als Lösung akzeptiert wird ;)

Leonidas
2020-10-29, 08:47:43
Das Einzige, was ich etwas komisch finde, ist die 6800. Mit 250W braucht sie mehr als die NV Konkurrenz.


Das ist halt die Differenz zwischen RTX3070 mit extra Chip und 6800 nur als Salvage-Version des großen Chips. Das ist nie ganz so effizient wie der kleinere Chip.

Ätznatron
2020-10-29, 09:34:42
Klar. Stell deine Highend-Karte auf 1080p und du wirst nie Performanceprobleme haben.

Wenn du aber 4k willst und die Performance doch mal kritisch wird (was auch immer da die persönliche Grenze ist) - dann kannst du DLSS nutzen statt Auflösung zu reduzieren.

Aber ich glaube eher nicht, das ein Verzicht auf hohe Auflösungen (oder Framerates) hier als Lösung akzeptiert wird ;)

Das ist doch keine Antwort auf meine Frage.

Der Künstler meint das:

https://abload.de/thumb/1ekkch.jpg (https://abload.de/image.php?img=1ekkch.jpg)

und DLSS macht das daraus:

https://abload.de/thumb/23xyjaq.jpg (https://abload.de/image.php?img=23xyjaq.jpg)

Performance hin oder her, das ist schon ein Unterschied.

JVC
2020-10-29, 09:36:17
Läuft :up:

6800 = günstigste 16Gb Karte (ne 8/10Gb Karte ist da keine Konkurrenz)
6800XT = da passen m.M.n. Speichermenge und Leistung/Preis am besten :smile:
6900XT = 999.-!!!1!11... noch immer "nur" 300Watt :eek: nice, da will ich 2,5Ghz+ OC sehen^^

Mal OC und UV Ergebnisse abwarten...
Aber die 6900XT würde mich schon jucken :usweet:

Ich für Mich, sehe keinen Grund mehr auf irgendeine "10nm" 3K Karte
mit doppeltem Speicher zu warten...

M.f.G. JVC

@Ätznatron Geiler Bildervergleich ;D :up:
Ich bleibe skeptisch, was das bleiben der Tensor-Kerne anbelangt....
Auf AMDs Lösung bin ich schon gespannt, kann nur "besser" werden ;)

MasterElwood
2020-10-29, 09:52:55
... ich prophezeite ja bereits vor einigen Wochen, dass BigNavi wie eine Bombe einschlagen wird (ein Gast weniger, btw). Auch wenn man das sicherlich nette Schmankerl "Smart Access Memory" mal bei den Berechnung außenvorlässt, kann man gut verstehen, warum NV *richtig* kalte Füße bekommen hat. Mit der 3080 und 3090 gleichgezogen, echte Innovation gezeigt, satt Speicher on Board und deutlich billiger. Wie geil ist das denn bitte.

Tatsächlich stören mich etwas die 300W bei der 6900XT, aber ok, die wird es dann wohl werden. Take my money, Lisa. :biggrin:

Also ich finde sie haben den Launch versemmelt. Alles OK - aber kein Killer dabei.

6800XT: "nur" gleichschnell wie 3080 - Dafür kein DLSS und RT (offensichtlich) deutlich langsamer.

6900XT: haben sie NOCH mehr versemmelt. Der Aufhänger für die 3090 ist 8K Gaming - dafür brauchts DLSS. Und Content Creator werden sowieso ohne CUDA ausgebremst. PLUS schlechtere RT Leistung. Da helfen auch die 999$ nix.

ChaosTM
2020-10-29, 09:58:40
Unter versemmelt stell ich mir was anderes vor. Zb. 8/10 GB Karten im High End Sektor ;)

MasterElwood
2020-10-29, 10:02:58
Theoretisch hat AMD mit RDNA2 alle wichtigen Checkbox Features von nvidia erfüllt. Es gibt Raytracing und es gibt eine upscaler der so etwas wie bei DLSS bieten soll.

Es gibt Raytracing von denen sie sich keine Benches zeigen trauen weil die Performance anscheinend Kacke ist - und für AMD-DLSS gibts einen NAMEN. Mehr nicht. Keine Infos, keine Videos, keine Bilder - nix. Keine weis ob das überhaupt in den nächsten 2 Jahren kommt - oder ob das Ding überhaupt was taugt.

Ätznatron
2020-10-29, 10:07:32
Es gibt Raytracing von denen sie sich keine Benches zeigen trauen weil die Performance anscheinend Kacke ist - und für AMD-DLSS gibts einen NAMEN. Mehr nicht. Keine Infos, keine Videos, keine Bilder - nix. Keine weis ob das überhaupt in den nächsten 2 Jahren kommt - oder ob das Ding überhaupt was taugt.

Offensichtlich kannst du genug kritisieren.


Ist das ohne Faktenwissen nicht schön?

MasterElwood
2020-10-29, 10:07:33
DLSS .... der letzte Strohhalm der grünen Fraktion.


Und der letzte Strohhalm der roten Fraktion ist Lisa die auf der Bühne die sagt: "Bitte DLSS nicht beachten! Schauts - wir bekommen auch so etwas! Wir sagen nicht wann, oder wie gut es wird, oder wie schnell es wird, aber guckt mal - wir haben schon einen Namen!" ;D

ChaosTM
2020-10-29, 10:07:46
Wir wissen ca. wie Spidermans RT auf der PS5 ausschaut.

@ AMDs DLSS - ihr Tool hat letztes Jahr DLSS1 ziemlich klar geschlagen. Die kriegen das schon hin..

Knuddelbearli
2020-10-29, 10:12:03
Dann wird NV einfach die ganzen Tests und Benches mit DLSS und RT locker gewinnen mit ihrer 3070!
AMD hat dagegen eine unerprobte, unoptimierte und in Teilen von den Softwareentwicklerm abhängige Softare-Suite.


Finde den Fehler :wink::biggrin:

MartinRiggs
2020-10-29, 10:12:58
Also lieber auf Raytracing verzichten was eh imho vollkommen überhypt wird anstatt das man eine Grafikkarte mit zu wenig Speicher hat.
3070 und 3080 sind einfach vollkommen Banane im aktuellen Zustand, am besten ist das Video der PCGH wo die 3070 mit Watch Dogs Legion schon in Full-HD kämpft.:biggrin:

MasterElwood
2020-10-29, 10:14:17
Offensichtlich kannst du genug kritisieren.

Ist das ohne Faktenwissen nicht schön?

Hmmmm.... lez see.

1. Wir haben die Leaks die das sagen.
2. Wir haben Igor der seine Leaks durch nachstellen quasi bestätigt hat. Und
3. Haufen Tests von XB & PS5 zeigen grottige RT Performance. Und
4. Kein EINZIGES Wort Gestern zur Performance von RT.

Ich denke die 4 Sachen erlauben schon eine grobe Einschätzung.

Ätznatron
2020-10-29, 10:18:21
Hmmmm.... lez see.

1. Wir haben die Leaks die das sagen.
2. Wir haben Igor der seine Leaks durch nachstellen quasi bestätigt hat. Und
3. Haufen Tests von XB & PS5 zeigen grottige RT Performance. Und
4. Kein EINZIGES Wort Gestern zur Performance von RT.

Ich denke die 4 Sachen erlauben schon eine grobe Einschätzung.

Klar.

Möglich ist auch, grob daneben zu liegen.

Knuddelbearli
2020-10-29, 10:18:36
Klar. Stell deine Highend-Karte auf 1080p und du wirst nie Performanceprobleme haben.

Wenn du aber 4k willst und die Performance doch mal kritisch wird (was auch immer da die persönliche Grenze ist) - dann kannst du DLSS nutzen statt Auflösung zu reduzieren.

Aber ich glaube eher nicht, das ein Verzicht auf hohe Auflösungen (oder Framerates) hier als Lösung akzeptiert wird ;)


Wenn das spiel auch DLSS unterstützt, vergesse das hin und wieder würde dann wol auf jdenfall NV kaufen, dann erinnere ich mich wieder das das Spiel das könenn muss und ärgere mich ^^

Bisher interessiert mich kein Spiel das DLSS oder RT unterstützt, da ich kein Shooter Spieler bin, einzig Cyberpunk könnte interessant werden, wobei ich da inzwischen sehr skeptisch bin....

Loeschzwerg
2020-10-29, 10:21:37
Unabhängig davon dass ich die 8/10GB auch arg auf Kante finde, läuft WatchDogs anscheinend allgemein nicht ganz rund, oder täusche ich mich da?

Gethvel
2020-10-29, 10:21:52
Das ist doch keine Antwort auf meine Frage.

Der Künstler meint das:

https://abload.de/thumb/1ekkch.jpg (https://abload.de/image.php?img=1ekkch.jpg)

und DLSS macht das daraus:

https://abload.de/thumb/23xyjaq.jpg (https://abload.de/image.php?img=23xyjaq.jpg)

Performance hin oder her, das ist schon ein Unterschied.

Sind das deine Fakten? Ein 720p Bild sieht mit DLSS besser aus als 4k/8k. Gibt genügend Tests dazu. AMD muss in 4k rechnen, um mit Nvidia in 720p mit DLSS gleichzuziehen.

MasterElwood
2020-10-29, 10:22:24
Ich versuch mal was positives zu sagen:

Wenn die 6800XT Benches wirklich ohne SAM sind, dann ist doch die 6800XT auf R3 um rund 7% schneller als angegeben.

Und nachdem die 3080 ja so eine OC Krücke ist: wenn die bei der 6800XT anständig was drinnen wäre mit OC - dann KÖNNTE man in Summe doch so +20% vs. 3080 rauskommen.

DAS wär doch was!

Ätznatron
2020-10-29, 10:25:54
Sind das deine Fakten? Ein 720p Bild sieht mit DLSS besser aus als 4k/8k. Gibt genügend Tests dazu. AMD muss in 4k rechnen, um mit Nvidia in 720p mit DLSS gleichzuziehen.

Besser als das Original?

Die Fakten sind für jeden sichtbar.

#44
2020-10-29, 10:31:25
Das ist doch keine Antwort auf meine Frage.
Deine Frage lässt halt viel Interpretationsspielraum.

Am Ende ist DLSS effektiv Skalierung + TAA.

Kann man Computergrafik ohne Skalierung und TAA machen? Ja kann man. Hat dann niedrigere Auflösung oder weniger Performance.

Ich verstehe ehrlich gesagt die Kritik an DLSS nicht. Nutzt man dann auch kein AA/AF und will nur direkt gerasterte Bilder sehen?
Keine Shader, weil nur echte Geometrie das Wahre ist?
Ist Rasterisierung schon zu fake und alles was nicht 100% RT ist kommt gar nicht in die Tüte?
Oder ist jegliche pixelbasierte Grafik zu viel Augenwischerei?

Die Realität ist halt, dass in CG soooo viel getrickst wird um hübsche Bilder zu machen - da hebt sich DLSS eigentlich nur wenig ab.

Denn die Antwort auf "Kann man eigentlich Grafik erstellen, die die Hardware nicht mehr in Echtzeit rendern kann" wird immer "Ja" sein. Und so lange wird man tricksen müssen.

Wenn das spiel auch DLSS unterstützt, vergesse das hin und wieder würde dann wol auf jdenfall NV kaufen, dann erinnere ich mich wieder das das Spiel das könenn muss und ärgere mich ^^
Jaa. Das muss man natürlich auch berücksichtigen ^^

ChaosTM
2020-10-29, 10:41:25
Für die neuen 10000ppi ( kein Schreibfehler) OLED Screens wird es reichen, 1080p oder 1440p auf ~32k hochzurechnen ;)

Gast
2020-10-29, 10:50:42
5-10% mehr oder weniger spielt einfach keine Rolle ausser im Schwanzmark. Auch ein Grund warum ich schon lange nichts mehr uebertakte. Wenn also Smart Access nicht bei optimierten Spielen und Anwendungen mit mindestens 20% reinhaut spielt es keine grosse Rolle. Ich hoffe aber das AMD diese Technik spaeter auch offen macht, denn das wuerde allen Seiten helfen. Wenn es ein CPU Feature ist, hat dann Intel nicht sowieso Zugriff da drauf durch deren Abkommen? Schade ist das sie es an die 500er Chipsaetze binden. Da die CPU direkt mit der Grafikkarte und dem Speicher kommuniziert ist dies sicherlich nicht vom Chipsatz abhaengig und eine reine Marketing Entscheidung. Waere schoen wenn AMD nicht weiter macht die Fehler von Intel und NV zu wiederholen, sonst muss ich am ende noch auf ne Risc-V CPU und Power VR GPU warten weil ich langsam aber sicher immer bockiger werde. ;) Habe immer noch Gen1 i7 und ne GTX570... ^^

Mega-Zord
2020-10-29, 10:54:03
Mir ist die Raytracing-Performance vermutlich noch ein paar Generationen lang schnuppe. Das ist imo nur eine Checkbox bei aktuellen und demnächst kommenden Spielen. Ja, der eine oder andere Effekt sieht ganz hübsch aus, aber geschenkt.

DLSS 2.0 ist ein ziemlicher Brocken, auf den AMD unbedingt eine Antwort braucht. Ich gehe aber mal davon aus, dass das Thema auf den Konsolen viel akuter, da dort die Leistung noch viel begrenzter ist. Bei den ganzen Cross-Platform-Titeln kann man also nur hoffen, dass Super Resolution auch was bringt.

JVC
2020-10-29, 10:55:32
Und der letzte Strohhalm der roten Fraktion ist Lisa die auf der Bühne die sagt: "Bitte DLSS nicht beachten! Schauts - wir bekommen auch so etwas! Wir sagen nicht wann, oder wie gut es wird, oder wie schnell es wird, aber guckt mal - wir haben schon einen Namen!" ;D
Hauptsache es benötigt keine speziellen extra "Profi-Kerne" und wird mal zum offenen Standard.

DLSS wurde m.M.n. gemacht, um den Tensor-Kernen fürs Gaming einen sinn zu geben.
Der Leistungsgewinn ist nur das nicht brach liegen des normal unnötigen "Profizeugs".
Und proprietär ist es aufgrund der speziellen Hardwarebindung leider auch noch.
Ich bin nicht davon überzeugt, das DLSS gekommen ist um zu bleiben...

M.f.G. JVC

Unter versemmelt stell ich mir was anderes vor. Zb. 8/10 GB Karten im High End Sektor ;)
+1 :up:

MasterElwood
2020-10-29, 11:03:09
Ich bin nicht davon überzeugt, das DLSS gekommen ist um zu bleiben...


Am wichtigsten ist es ja auch JETZT wo RT Performance generell noch grottig ist.

Wobei: Wird es nicht sowieso Zeit, dass all die verschiedenen und uralten AA Varianten durch einen modernen Nachfolger abgelöst werden? :smile:

Asaraki
2020-10-29, 12:03:49
Hauptsache es benötigt keine speziellen extra "Profi-Kerne" und wird mal zum offenen Standard.

DLSS wurde m.M.n. gemacht, um den Tensor-Kernen fürs Gaming einen sinn zu geben.
Der Leistungsgewinn ist nur das nicht brach liegen des normal unnötigen "Profizeugs".
Und proprietär ist es aufgrund der speziellen Hardwarebindung leider auch noch.
Ich bin nicht davon überzeugt, das DLSS gekommen ist um zu bleiben...

M.f.G. JVC


+1 :up:

Ob "DLSS" bleibt, wer weiss. Aber "ein DLSS" wird es von hier an immer geben, da bin ich überzeugt. Einfach mal 4k DLSS downsampled auf einem 1440p Monitor sehen und merken "Das ist das AA, das ich von hier an immer will".

Rein vom Performancehit vs Qualität ein Hit. Und es ist nur eine Frage der Zeit bis DLSS&Co so gut sind, dass man es nicht mehr negativ wahrnimmt.

Edit : Ich bin überzeugt DLSS wurde gemacht, weil es geht und es einfach gut ist. Da stehen Idee&Entscheidung nicht im Zusammenhang mit den Tensorcores, höchstens der Zeitpunkt.

ChaosTM
2020-10-29, 12:14:15
Wir nähern uns immer mehr der Wand an, ab der mit Silikon einfach nix mehr weitergeht. Daher werden solche Tools immer wichtiger.
Ob wir für volles, fotorealistisches Ray/Path etc Tracing jemals genug Rechenpower haben werden, steht noch nicht fest.
Bin aber zuversichtlich, dass man sich was wird einfallen lassen..

Mr.Smith
2020-10-29, 12:14:50
uvp von 6800 auf 6800xt ist geringer als die Mehrpeformance .. sehr dubios ..

aber nice, alle 3 mit 16gb speicher.

Mr.Smith
2020-10-29, 12:24:31
6800 = günstigste 16Gb Karte
6800XT = da passen m.M.n. Speichermenge und Leistung/Preis am besten :smile:
6900XT = 999.-!!!1!11... noch immer "nur" 300Watt :eek: nice, da will ich 2,5Ghz+ OC sehen^^

Mal OC und UV Ergebnisse abwarten...
Aber die 6900XT würde mich schon jucken :usweet:


für 10% mehr Ausführungseinheiten und restliche Hardware gleich würd ich keine 999€ (350€ Aufpreis) zahlen wollen.. die Mehrperformance dürfte da unter 10% liegen.
6800 ist hingegen nicht günstig genug vs 6800xt, was da alles fehlt an Takt, Ausührungseinheiten etc.. für grad mal 70€ weniger..
479€ oder 449€ wäre da deutlich passender für 6800.

Auch ein großes Fragezeichen ist aktuell noch der Treiber sowie ob die Karte stabiler läuft als noch 5700/5700xt

Und natürlich die Anzahl der verfügbaren Karten ^^

Auch interessant dürfte sein, wie schnell nVidia bei TSMC ein Refresh bringt^^ Kann mir einfach nicht vorstellen, dass nVidia das akzeptieren wird so.

Lowkey
2020-10-29, 12:41:28
Bestimmt ist die 6900XT stark gebinnt und wenig verfügbar. Eventuell dient die Existenz auch nur dem stärkeren Verkauf der anderen Serien.

Knuddelbearli
2020-10-29, 12:41:40
Eventuell kann bzw sogar darf ja auch AMD deshalb nix zu AMDs DLSS sagen da sie es erst Vorstellen können bzw dürfen wenn auch die Konsolen draussen sind.

Ravenhearth
2020-10-29, 12:58:36
Also lieber auf Raytracing verzichten was eh imho vollkommen überhypt wird anstatt das man eine Grafikkarte mit zu wenig Speicher hat.
3070 und 3080 sind einfach vollkommen Banane im aktuellen Zustand, am besten ist das Video der PCGH wo die 3070 mit Watch Dogs Legion schon in Full-HD kämpft.:biggrin:
Und das war noch ohne RT. :freak: Das ist doch ein Nvidia-Titel. Verstehe nicht, wieso man das "zugelassen" hat. Dadurch lässt man seine neuesten Karten doch nur schlecht dastehen.

Gast
2020-10-29, 12:59:39
Bravo AMD endlich mal eine echte Alternative im Highend.

Einziges "Problem" für AMD, Nvidia hat DLSS, und das ist einfach viel zu gut um es zu ignorieren, das Feature aus den letzten 10 Jahren was die Performance:Quality-Ratio mit Abstand am meisten erhöht hat.

Und der Vergleich 6900 vs 3090 ist ja mal wirklich schäbig. Da wird einerseits eine OC-Karte gegen eine @Stock gestellt, hat es sowas schon mal gegeben?

Auch auffällig die 6900 und 6800 sind viel zu weit auseinander. Mit 10% mehr an Hardware, gleichem Powerlimit und nominell gleichen Taktraten kann niemals mehr als 10% Mehrperformance herauskommen.

aufkrawall
2020-10-29, 13:01:19
Dabei scheinen die "HD-Texturen" schon komplett kacke auszusehen vs. solche in FC New Dawn.

Asaraki
2020-10-29, 13:01:48
Eventuell kann bzw sogar darf ja auch AMD deshalb nix zu AMDs DLSS sagen da sie es erst Vorstellen können bzw dürfen wenn auch die Konsolen draussen sind.

Ja klar :D Das dürfte dann Wunschdenken sein. Es ist auch praktisch unmöglich, dass ihr DLSS auch nur annähernd gleichwertig sein wird. Gibt schon einen Grund warum wir DLSS 1.0 noch eher belächelt haben und so... das kann kein Mensch auf dieser Welt in dieser Zeit.

Also da hätten sie das Geheimnis SEHR gut gehütet und wären in Wirklichkeit schon lange dran und hätten es bei der 5xxx Generation nur nicht gebracht, weil es noooch nicht so gut war wie DLSS 2.0 mindestens?

Da kommt vorher die 3070 mit 24GB...

Knuddelbearli
2020-10-29, 13:13:53
Ich sage ja nicht das das so kommen wird, nur eine Möglichkeit die bisher nicht erwähnt wurde.
Und zumindest gegenüber DLSS 1 war AMDs Ansatz ja sogar leicht besser.

aufkrawall
2020-10-29, 13:22:28
Und zumindest gegenüber DLSS 1 war AMDs Ansatz ja sogar leicht besser.
Nicht wirklich, die Hauptarbeit hatte schon das spielinterne TAA gemacht. Ohne brauchbars TAA kannst du Upscaling mit RIS komplett vergessen.
Wirklich nichts weltbewegendes vs. Resolution Scaling in Doom 2016 mit TSSAA und etwas reingedrehtem Sharpen.

Asaraki
2020-10-29, 13:23:15
Ich sage ja nicht das das so kommen wird, nur eine Möglichkeit die bisher nicht erwähnt wurde.
Und zumindest gegenüber DLSS 1 war AMDs Ansatz ja sogar leicht besser.

Klar, unmöglich ist nichts bei Toyota. Aber es ist enooooorm unrealistisch, das wollte ich sagen. Ain't gonna happen.

Blutmaul
2020-10-29, 15:01:58
Finde den Fehler :wink::biggrin:

Das Nvidia bei wichtigen Titeln derzeit den Fuß in der Tür der Entwickler hat mit ihrem "Toykram" und AMD nicht und das NV ein ziemlich reifes Angebot hat und AMD nicht?

Ausserdem fehlt da ein W...aber das kann die Biocompi-Autokorrektur otf korreguirten... :)

Knuddelbearli
2020-10-29, 15:40:11
Das Nvidia bei wichtigen Titeln derzeit den Fuß in der Tür der Entwickler hat mit ihrem "Toykram" und AMD nicht und das NV ein ziemlich reifes Angebot hat und AMD nicht?

Ausserdem fehlt da ein W...aber das kann die Biocompi-Autokorrektur otf korreguirten... :)

und bei AMD ist man in PS5 und XBox drin wegen RT und DLSS, was dürfte sich wohl eher auswirken? und bei SAM weis man noch nichtmal wie sehr das entwicklerabhängig ist...

Also ich bleibe dabei die Aussage ist einfach quatsch.

Gast
2020-10-29, 16:04:44
Was mich uebrigens noch etwas sehr wundert ist, das AMD auch bei der RX6800 (None-XT) auf 16 Gbps Speicher setzt. Ich haette da eher 14 Gbps Speicher erwartet. Hat jemand eine Idee warum AMD das so gemacht hat? Der langsamere Speicher sollte ja eigentlich preiswerter sein, wenn auch nicht unbedingt viel, und ebenso ausreichen. Man haette dann auf jeden Fall auch den Listenpreis etwas attraktiver gestalten koennen.

Lehdro
2020-10-29, 16:10:36
Momentan zocke ich Control und Death Stranding, nächsten Monat Cyberpunk 2077.
Wenn du Glück hast, zockst du noch 2020 CP 2077, aber sicher nicht nächsten Monat.

Blutmaul
2020-10-29, 17:02:02
und bei AMD ist man in PS5 und XBox drin wegen RT und DLSS, was dürfte sich wohl eher auswirken? und bei SAM weis man noch nichtmal wie sehr das entwicklerabhängig ist...

Also ich bleibe dabei die Aussage ist einfach quatsch.

Was sich erst in Jahren praktsich niederschlagen wird, so ca. wenn AMD die 7000er Serie auflegt!

SAM ist Hardwaregebunden und eine absolute Minderheit wird SAM zum jetzigen Zeitpunkt nutzen können, vielleicht 1% der Käufer...

Mr.Smith
2020-10-29, 18:39:39
..

Und der Vergleich 6900 vs 3090 ist ja mal wirklich schäbig. Da wird einerseits eine OC-Karte gegen eine @Stock gestellt, hat es sowas schon mal gegeben?

Auch auffällig die 6900 und 6800 sind viel zu weit auseinander. Mit 10% mehr an Hardware, gleichem Powerlimit und nominell gleichen Taktraten kann niemals mehr als 10% Mehrperformance herauskommen.

1. Ist Rage ein Feature, das man aktivieren kann, so wie DLSS bei nVidia z.B., das wohl leicht das Powertarget erhöht..
Es gibt noch einen Auto-OC Button, der blieb dabei aber unangetastet.. Sprich, da ist noch mehr drin per OC.
2. Ist der Verbrauch trotzdem deutlich geringer.
3. Ist das ein stark gebinnter Chip -> niedrigere Spannung .. 3950x braucht doch auch kaum mehr Energie als ein 3900x, trotz 33% mehr Kernen..
4. Danke. Ende.

Blutmaul
2020-10-29, 18:50:47
Was ich mir vorstellen kann ist, das es custom 6800xt mit WerksOC gibt, da ganz ganz nah and die 6900xt FE herankommen.

Bin ich mal gespannt...

Gast
2020-10-29, 19:11:10
1. Ist Rage ein Feature, das man aktivieren kann, so wie DLSS bei nVidia z.B., das wohl leicht das Powertarget erhöht..


DLSS erhöht das Powertarget? Das wäre mir neu. Rage ist ein Auto-OC feature, genauso wie der Auto-OC Button bei Nvidia, hat man den bei der 3090 auch benutzt? Wohl kaum.


2. Ist der Verbrauch trotzdem deutlich geringer.

Möglich, die Frau Lisa hat es jedenfalls so Präsentiert als würde eine 300W 6900 gegen eine 350W 3090 antreten. Ob dem so ist werden muss leider erst geprüft werden.


3. Ist das ein stark gebinnter Chip -> niedrigere Spannung .. 3950x braucht doch auch kaum mehr Energie als ein 3900x, trotz 33% mehr Kernen..


Der 3950X muss dafür auch einiges an Takt liegen lassen.

Nazar
2020-10-29, 23:24:21
1. Ist Rage ein Feature, das man aktivieren kann, so wie DLSS bei nVidia z.B., das wohl leicht das Powertarget erhöht..
Es gibt noch einen Auto-OC Button, der blieb dabei aber unangetastet.. Sprich, da ist noch mehr drin per OC.
2. Ist der Verbrauch trotzdem deutlich geringer.
3. Ist das ein stark gebinnter Chip -> niedrigere Spannung .. 3950x braucht doch auch kaum mehr Energie als ein 3900x, trotz 33% mehr Kernen..
4. Danke. Ende.

1. nein. DLSS und Rage haben nicht mal im Ansatz etwas gemein. DLSS = nur nutzbar bei Spielen die das unterstützen, bzw. das Algo für die Engine trainiert wurde. Nutzen und Qualität können stark variieren.
1. Rage muss von keinem Spiel explizit unterstützt werden. Es ist abhängig von der CPU - GPU Kommunikation, ob es einen Vorteil bring. Es macht es auf jeden fall !!nicht!! schlechter und muss auch nicht trainiert werden.
2. ist nicht bekannt. Falls doch, bitte Link einfügen.
3. siehe 2.

Screemer
2020-10-30, 00:43:10
hier verwechseln einige rage und sam.

Leonidas
2020-10-30, 05:58:53
Der Künstler meint das:

https://abload.de/thumb/1ekkch.jpg (https://abload.de/image.php?img=1ekkch.jpg)

und DLSS macht das daraus:

https://abload.de/thumb/23xyjaq.jpg (https://abload.de/image.php?img=23xyjaq.jpg)


Meme-Version FTW!

PS: Man kann über das Thema sogar anderer Ansicht sein (wie ich), und trotzdem den Gag wertschätzen.

Gast
2020-10-30, 07:13:14
Momentan zocke ich Control und Death Stranding, nächsten Monat Cyberpunk 2077. Wüsste nicht warum ich mir DLSS-freien ruckeligen Pixelbrei antun sollte. Kommt mir nicht mehr auf den Tisch.:rolleyes:
Gratuliere. Aber vergisst du dabei nicht ein Detail? Lass es 12 Spiele sein, die DLSS können. Wie viele können es nicht? 99.99%...
Sorry aber dieses Key Feature ist wie GSync ein schlechter Witz.

Ferenzo
2020-10-30, 07:15:16
@ Leo: ich sehe da keinen Unterschied :D

@ News: Respekt ans AMD Team! Obwohl der Abstand in der letzten Gen. zu Spitze beachtlich war und Nvidia auch nochmal da oben drauf gelegt hat (~ 35-40% auf Turing) seid ihr trotzdem vorne mit dabei. Ob das nun 5% hin oder her sind (ja ich weiß, das sehen sicher viele anders) sei mal dahin gestellt, aber Hut ab! :up:

Daredevil
2020-10-30, 09:13:08
Gratuliere. Aber vergisst du dabei nicht ein Detail? Lass es 12 Spiele sein, die DLSS können. Wie viele können es nicht? 99.99%...
Sorry aber dieses Key Feature ist wie GSync ein schlechter Witz.
Genau die gleiche Argumentation kannst du btw. bringen bei "zu wenig Speicher". Heute sind die Einschränkungen der Speichers ( oder der DLSS Support ) irrelevant gemessen an der Masse der Spiele, es wird aber gleichermaßen eine glorreiche Zukunft für Spiele, die 16GB nutzen gemalt, wie die Unterstützung von DLSS.
Also ist DLSS genauso irrelevant zahlenmäßig wie das verbauen von "*zu viel" Arbeitsspeicher.

*Mit "zu viel" meine ich die Leute, die denken, sie bräuchten 16GB für WQHD, weil 5 Spiele von 10000+ Probleme bereiten.

WedgeAntilles
2020-10-30, 09:23:28
Gratuliere. Aber vergisst du dabei nicht ein Detail? Lass es 12 Spiele sein, die DLSS können. Wie viele können es nicht? 99.99%...
Sorry aber dieses Key Feature ist wie GSync ein schlechter Witz.

Gleiches gilt halt auch für die Vram-Menge.
Da brauchen 99,99% auch nicht mehr als 8GB.

Nur: Will ich bei ner GraKa die ich mehrere Jahre habe nur 8GB haben?
Nein, will ich nicht.

Es ist ermüdend, wenn die beiden Lager eigene Positionen mit Argumenten verteidigen, die komischerweise beim feindlichen Lager ins genaue Gegenteil umgekehrt werden.
Das gilt sowohl für Nvidia-Leute als auch bei AMD Leuten.
Da sind wenige Spiele heute ein Beweis dafür was die Zukunft bringt.
Und beim Feature der Gegenseitige sind wenige Spiele ein Beweis, dass man es nicht braucht, denn "es gibt ja nur so wenige Spiele".

Stand heute braucht man weder DLSS noch RT. Und auch nicht massig VRam.
Was die Zukunft genau bringt weiß keiner.
Die Chance, dass alle 3 Dinge wichtig werden ist da.
Zugegebenermaßen ist da Vram sicherlich das "klarste" Feature, was wichtig wird - vor allem bei 4K. Bei WQHD? Da sieht es schon wieder etwas anders aus. Ob DLSS und RT so wichtig werden? Ist unsicherer, keine Frage. Persönlcih halte ich die Chance für DLSS aber für sehr groß. RT? Muss man sehen.
Aber siehe oben, ich will daher auch keine 8GB Vram Karte - ist einfach zu wenig.


Meme-Version FTW!

PS: Man kann über das Thema sogar anderer Ansicht sein (wie ich), und trotzdem den Gag wertschätzen.
Wurden die Bilder runtergenommen? 404 Not Found kommt bei mir bei beiden.
Falls die noch einer hat würde ich mich über einen schönen Gag am morgen freuen :)

Gast
2020-10-30, 09:28:57
Für alle die DLSS brauchen. Heise hat da erste Informationen:

https://www.heise.de/news/KI-Upscaling-AMD-arbeitet-mit-Microsoft-an-Alternative-zu-Nvidias-DLSS-4942900.html

Mr.Smith
2020-10-30, 12:00:54
..
Vermutlich werden die neuen RX6000 Grafikkarten aber kaum eine Chance gegen Turing mit DLSS haben, so wie es gerade aussieht.
Turing auf 720p mit DLSS sieht sicherlich besser aus als RX6000 auf 4k oder 8k und dürfte mehr FPS bringen. Da kann AMD noch so an der Performance schrauben, ohne DLSS keine Chance.

1.lol, was? kannst du das mal genauer ausführen??

2. das DLSS Feature bei AMD ist ja noch in der Entwicklung, aber wird kommen, daher sieht es gerade so aus, als würde AMD da näher kommen, ne?

aufkrawall
2020-10-30, 12:04:42
Heute sind die Einschränkungen der Speichers ( oder der DLSS Support ) irrelevant gemessen an der Masse der Spiele

Lügen mit Statistik. Wenn man nur die neusten/anspruchsvollsten Spiele heranzieht (wie unverfroren für teure Highend-Grafikkarten...), sieht das natürlich ganz anders aus.


wie die Unterstützung von DLSS.

Dann sollte man sich vielleicht mal erden, wirds wahrscheinlich in fast keinem AMD-sponsored Titel geben (diese gemeinen Roten!!).

MasterElwood
2020-10-30, 12:23:40
Für alle die DLSS brauchen. Heise hat da erste Informationen:

https://www.heise.de/news/KI-Upscaling-AMD-arbeitet-mit-Microsoft-an-Alternative-zu-Nvidias-DLSS-4942900.html

Klingt eher nach DLSS 1.0 als 2.0...

Screemer
2020-10-30, 12:27:51
Klingt eher nach DLSS 1.0 als 2.0...
aha. woraus leitest du das ab? keyfeature von dlss 1 waren profile für einzelne spiele. da les ich kein wort davon.

JVC
2020-10-30, 12:29:07
Klingt eher nach DLSS 1.0 als 2.0...
Aber es ist "Quelloffen und plattformübergreifend" :up:
(somit sollte es im Vergleich zu DLSS, eine Zukunft haben)

M.f.G. JVC

ChaosTM
2020-10-30, 12:31:09
Klingt eher nach DLSS 1.0 als 2.0...


DLSS 1 hat man schon vor über einem Jahr geschlagen mit ihre simplen Tool.

Die haben sicher nicht geschlafen die letzten 16 Monate.

aufkrawall
2020-10-30, 12:33:37
Aus dem Link:
In einem Blog-Beitrag erklärt Microsoft, dass die Kombiprozessoren der Spielekonsolen Xbox Series X und Xbox Series S bereits Hardware-Kerne zur Beschleunigung von DirectML-Algorithmen aufweisen und damit über die Fähigkeiten von AMDs "Big Navi"-GPUs hinausgehen.
Woher entnimmt der Autor diese Information? Ich sehe das in dem Microsoft-Artikel nicht. Dazu gedichtet?

MasterElwood
2020-10-30, 12:44:58
aha. woraus leitest du das ab? keyfeature von dlss 1 waren profile für einzelne spiele. da les ich kein wort davon.

DLSS 2.0 IST ja eigentlich gar kein KI upscaling mehr. Es ist ja technisch gesehen mehr eine andere Art von temporalen AA - welches AUCH DL verwendet - aber eben genauso andere Sachen wie Motion Vectoren und vorherige Frames. Das KI upscaling ist nur mehr ein Teil vom Ganzen.

DLSS 1 und 2 haben technisch gesehen viel weniger gemeinsam als der Name es vermuten lässt.

MasterElwood
2020-10-30, 12:46:26
DLSS 1 hat man schon vor über einem Jahr geschlagen mit ihre simplen Tool.

Die haben sicher nicht geschlafen die letzten 16 Monate.

Ich spreche nicht von der Qualität - nur von der Methode der Berechnungen.

MasterElwood
2020-10-30, 12:49:31
Aber es ist "Quelloffen und plattformübergreifend" :up:
(somit sollte es im Vergleich zu DLSS, eine Zukunft haben)

M.f.G. JVC

Ich hab immer noch den Traum, dass eine Variante kommt, die ich per Treiber in JEDEM Game erzwingen kann. Wenn AMD DAS liefert, sind Sie King!

ChaosTM
2020-10-30, 12:51:25
Wenn es auf allen Plattformen Systemen läuft und gleichwertig ist, bin ich zufrieden. Wird da wohl mehrere Ansätze geben, die zum selben/gleichen Ergebnis führen.

Leonidas
2020-10-30, 13:10:24
Woher entnimmt der Autor diese Information? Ich sehe das in dem Microsoft-Artikel nicht. Dazu gedichtet?


Hat mich auch gewundert. Aber womöglich nachträglich aus dem MS-Artikel gestrichen. Oder einfach falsch.

Screemer
2020-10-30, 13:23:47
DLSS 1 und 2 haben technisch gesehen viel weniger gemeinsam als der Name es vermuten lässt.
TAA ist eine Form von Rekonstruktion.

Die Grundprinzipien von TAA und DLSS unterscheiden sich kaum.

Der einzige, und wirklich große, Unterschied ist, dass sich TAA auf Heuristiken verlässt wann es temporale Informationen verwerfen muss, weil diese Artefakte erzeugen würden. Und da Artefakte wesentlich störender als Unschärfe sind, muss es dabei sehr konservativ vorgehen und im Zweifelsfall besser Informationen verwerfen.
DLSS ersetzt die Heuristiken durch das neuronale Netzwerk, was offensichtlich zu wesentlich besseren Ergebnissen führt, da es damit viel feingranularer und effektiv viel mehr vorhandene Informationen auch verwenden kann.

TAA ist schon eine Form der Rekonstruktion. Normalerweise braucht es für AA mehrere Samples pro Pixel und Frame. TAA reduziert das bereits auf 1 Sample pro Pixel und Frame.

Bei DLSS ist das neuronale Netzwerk den Heuristiken aber dermaßen überlegen, dass man selbst mit wesentlich weniger als 1 Sample pro Pixel und Frame auskommt und immer noch ein sehr gutes, ja sogar ein besseres Ergebnis erzielt.
mmh. was lässt dich also zu dem schluss kommen, dass super resolution das anders machen würde? glaubst du seit der ersten demo davon 2019 auf nvidia hw hätte sich da nichts getan?

Gast
2020-10-30, 17:50:42
mmh. was lässt dich also zu dem schluss kommen, dass super resolution das anders machen würde? glaubst du seit der ersten demo davon 2019 auf nvidia hw hätte sich da nichts getan?


Wer sagt, dass es Super Resolution anders macht?

Alles was man weiß, ist dass AMD Super Resolution zum start nicht bereit haben wird, und dass AMD nicht mal eine Demo zeigen konnte.

Damit ist AMD zeitlich noch hinter dem Stand an dem Nvidia zum Turing-Launch war.

AMD Super Resolution wird also frühestens in 1 Jahr, eher in 2 brauchbare Ergebnisse liefern.

Mr.Smith
2020-10-31, 11:36:05
DLSS erhöht das Powertarget? Das wäre mir neu. Rage ist ein Auto-OC feature, genauso wie der Auto-OC Button bei Nvidia, hat man den bei der 3090 auch benutzt? Wohl kaum.


Möglich, die Frau Lisa hat es jedenfalls so Präsentiert als würde eine 300W 6900 gegen eine 350W 3090 antreten. Ob dem so ist werden muss leider erst geprüft werden.



Der 3950X muss dafür auch einiges an Takt liegen lassen.

Nein! Nochmal! Rage ist einfach ein Feature, das man aktivieren kann, so wie man das Feature DLSS aktivieren kann. sofern es das Spiel erlaubt. Man muss es aber nicht. Und Rage erhöht einfach leicht das Powertarget, man könnte das wie ein zweites Bios der GPU sehen mit mehr maximalem Watt (obwohl da meist auch mit mehr Takt, hmm, aber gibt auch welche die mehr Powertarget erlauben).. Da wird kein Takt angehoben oder dergleichen.. Daher auch kein OC..!!!

Nein! Nochmal!! Rage ist kein Auto-OC Button, diesen Auto-OC-Button gibt es aber auch, der wird aber auch nicht beworben.. da OC..

Mr.Smith
2020-10-31, 11:44:00
1. nein. DLSS und Rage haben nicht mal im Ansatz etwas gemein. DLSS = nur nutzbar bei Spielen die das unterstützen, bzw. das Algo für die Engine trainiert wurde. Nutzen und Qualität können stark variieren.
1. Rage muss von keinem Spiel explizit unterstützt werden. Es ist abhängig von der CPU - GPU Kommunikation, ob es einen Vorteil bring. Es macht es auf jeden fall !!nicht!! schlechter und muss auch nicht trainiert werden.
2. ist nicht bekannt. Falls doch, bitte Link einfügen.
3. siehe 2.

Rage ist ein Feature und DLSS ist ein Feature, mehr habe ich nicht behauptet!! Nur du Falsch gelesen! Man kann es aktivieren, ok, DLSS nicht in allen Spielen aktuell.. oder es lassen..

Rage Mode ist kein OC!! AMD sagt dazu selbst:
Rage Mode does not exceed the factory parameters of the GPU clocks or voltages. Instead, it works more like a power slider option to deliver a little more juice at the cost of power efficiency, fan noise, and temperatures

Es gibt extra einen Auto-OC Button in der Treibersoftware.. Wenn man easy OC will, dann nimmt man den..

und nein!! Rage ist nicht abhängig von der CPU.. SMA ist abhängig von chipsatz, cpu, gpu.. Setzen 6.

https://www.anandtech.com/show/16202/amd-reveals-the-radeon-rx-6000-series-rdna2-starts-at-the-highend-coming-november-18th
Des Weiteren
Since it's based on a fully-enabled (and undoubtedly heavily binned) Navi 21
Aber ja, das kann uns nur AMD mitteilen!! Da es aber schon immer so war in naher Vergangenheit nicht abwegig.. Alles andere würde wenig Sinn machen, ne?
und bei 3950x konnte man es ja schon sehen..

Gast
2020-11-01, 11:29:45
Rage Mode ist kein OC!! AMD sagt dazu selbst:


Es gibt extra einen Auto-OC Button in der Treibersoftware.. Wenn man easy OC will, dann nimmt man den..



Noch schlimmer, dann war Lisas Präsentation eine glatte Lüge:

https://youtu.be/oHpgu-cTjyM?t=1319

"We deliver all of this with a total Board Power of 300W...."

Nur um nach ein bischen Schwärmerei über die Effizienz der Architektur gleich darauf den Benchmark-Slide zu zeigen.

https://youtu.be/oHpgu-cTjyM?t=1351

Wenn es also tatsächlich stimmt, dass Rage das Powerlimit erhöht war die Ganze AMD-Präsentation mit dem Vergleich gegen die 3090 eine glatte Lüge.

Wäre es "nur" Auto-OC, das effektiv unter gleichem Powerlimit die Spannungen senkt und damit etwas mehr Performance erreicht wäre es zwar immer noch ein sehr zweifelhafter Vergleich, aber immerhin nicht gelogen.