PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Radeon RX 6800 /XT: Die Testresultate zur UltraHD/4K-Performance ...


Leonidas
2020-11-18, 20:27:16
Link zur News:
https://www.3dcenter.org/news/radeon-rx-6800-xt-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick

Liszca
2020-11-18, 21:15:50
Wäre es nicht schön auch die Dies-Size in der Tabelle zu haben?

3070 - 392 mm²
https://www.techpowerup.com/gpu-specs/geforce-rtx-3070.c3674

2080Ti - 754 mm²
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305

6800 - 520 mm²
https://www.techpowerup.com/gpu-specs/radeon-rx-6800.c3713

6800 XT - 520 mm²
https://www.techpowerup.com/gpu-specs/radeon-rx-6800-xt.c3694

6900 XT - 520 mm²
https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481

3080 - 628 mm²
https://www.techpowerup.com/gpu-specs/geforce-rtx-3080.c3621

3090 - 628 mm²
https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622

Leonidas
2020-11-18, 21:21:19
Ist dann Teil der Launch-Analyse. In die Performance-Tabellen passt das wohl weniger rein.

5CH4CHT3L
2020-11-18, 22:34:34
Auch wenn AMD jetzt von der reinen Leistung gegenüber der 3080 zurückliegt ist man auf einem guten Weg. Die Karten sind an sich recht effizient und die Performance über ein 256-bit Speicherinterface zu erreichen ist extrem gut.

Technisch wäre bestimmt sogar ein "1,5x Big Navi" mit 120 CUs und 384-bit mit 24GB GDDR6 und ~400W möglich, aber da fehlt vielleicht die Nachfrage und AMD die Ressourcen das zu entwickeln. Schade eigentlich, weil damit könnte man Nvidia sicherlich überholen

iamthebear
2020-11-18, 22:52:49
Die Ergebnisse sind ca. das, was ich erwartet hatte.

Ich muss sagen alle Achtung an AMD, dass sie ihr Speicherbandbreitenproblem so gut in den Griff bekommen haben. Ich muss zugeben das habe ich nicht für möglich erachtet, dass der Infinity Cache so gut funktionieren würde.

Nun hängt alles daran, was sie mit Microsoft bezüglich Upscaling zusammen bringen. Dies wird ohne Tensor Cores aber fürchte ich nicht einfach.

Gast
2020-11-18, 22:54:49
Gegenüber AMDs eigenen Benchmarks, welche selbst ohne SAM-Feature die Radeon RX 6800 XT minimal (um +1,7%) vor der GeForce RTX 3080 gesehen haben, ist dies doch eine erstaunlich große Diskrepanz.

Das liegt offenbar daran, dass die AMD Benchmarks für die 6800XT großteils in 1440p waren und nicht 4k. Die 4k Benchmarks waren mit der 6900 und da hat man mit SAM + Rage Mode nachgeholfen.

Offenbar wird die hitrate im Infinity Cache mit höherer Auflösung immer schlechter, wodurch die geringe Bandbreite eine größere Rolle spielt.

Es gibt da sogar eine schöne Folie von AMD selbst.
https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Tests/Benchmark-Release-Review-vs-RTX-3080-1361423/galerie/3457096/?fullsize

Unter FullHD erreicht man noch fast 80% hitrate im Infinity Cache, unter 4k sind es nur mehr 58%.

Dementsprechend wird Ampere in 4k relativ schneller, bzw. Navi bricht stärker ein.

Und an den wenigen Reviews die auch SAM getestet haben sieht man wie sich AMD mit der Exklusivität ins eigene Bein schießt.

Angesichts der Zen3 Verfügbarkeit hätte man diesen zusätzlichen Push wohl kaum gebraucht, und SAM auf den Testplattformen aktiv wäre, was ja durchaus legitim wäre, wenn es kein exklusives Feature wäre, hätte man den Rückstand zur 3080 praktisch aufgeholt.

Gaston
2020-11-18, 23:10:53
Sacht mal... was ist eigentlich aus der PCGH geworden? Ich dachte das wäre ein Heft... aber zu den letzten Grafikkarten haben die so viel Zeug auf der Website rausgehaun dass die ganzen anderen Testseiten irgendwie alt aussehen. Is nur mir das aufgefallen? Grad schon wieder, Wall of Text zur Technik etc un Benchmarks en Masse... und alles schön einzeln. Das sind wohl alle zu RDNA2:

https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Tests/Benchmark-Release-Review-vs-RTX-3080-1361423/
https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Specials/RX-6000-Raytracing-Kompatibilitaet-Test-1362034/
https://www.pcgameshardware.de/Radeon-RX-6800-Grafikkarte-276952/Specials/Smart-Access-Memory-Benchmarks-1361997/

Gruss

Geldmann3
2020-11-18, 23:15:49
Ich werde bei Big Navi wahrscheinlich irgendwann zuschlagen. In meinem Zweitrechner landet wohl eine RX 6800XT oder eine RX 6900XT, je nach Mehrperformance, die da noch herauskommt.

Von der Performance bin ich ehrlich doch ein wenig enttäuscht. Ich hätte von der RX 6800XT erwartet, dass sie die 3080 wenigstens in Rasterizing, im Schnitt, leicht schlägt. Auch die 6900XT wird im Mittel kein Land gegen die RTX 3090 sehen. Sie wird gerade mal die RTX 3080 schlagen. Die Raytracing Performance ist ebenfalls etwas enttäuschend. Ich hätte erwartet, dass wenigstens die 2080 Ti deutlich geschlagen wird, in vielen Fällen fällt man jedoch sogar eindeutig hinter diese zurück. Versteht mich nicht falsch, ich habe kein Raytracing Wunder erwartet, wie es die 3D Mark Werte bereits angekündigt haben, doch definitv mehr Performance und Konsistenz als das was wir hier bekomme haben. Je mehr Raytracing ein Game verwendet, desto mehr tendiert die Performance der 6800XT deutlich unter 2080 Ti Performance.

Von meinem Gefühl her, muss AMD früher oder später sogar mit den Preisen runter. Genau wie allerdings auch Nvidia.
Jetzt drehen sowieso erstmal alle wegen Corona am Rad und kaufen entsprechend alles an Hardware weg, was nicht niet- und nagelfest ist.

Sacht mal... was ist eigentlich aus der PCGH geworden? Ich dachte das wäre ein Heft... aber zu den letzten Grafikkarten haben die so viel Zeug auf der Website rausgehaun dass die ganzen anderen Testseiten irgendwie alt aussehen. Is nur mir das aufgefallen? Grad schon wieder, Wall of Text zur Technik etc un Benchmarks en Masse... und alles schön einzeln. Das sind wohl alle zu RDNA2:

https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Tests/Benchmark-Release-Review-vs-RTX-3080-1361423/
https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Specials/RX-6000-Raytracing-Kompatibilitaet-Test-1362034/
https://www.pcgameshardware.de/Radeon-RX-6800-Grafikkarte-276952/Specials/Smart-Access-Memory-Benchmarks-1361997/

Gruss

Ja, das ist mir aufgefallen. Finde ich wirklich sehr lobenswert von PCGH. In puncto CPU-Gaming Performance sind sie mittlerweile meine eindeutige Referenz.

N0Thing
2020-11-19, 00:05:12
Sacht mal... was ist eigentlich aus der PCGH geworden? Ich dachte das wäre ein Heft... aber zu den letzten Grafikkarten haben die so viel Zeug auf der Website rausgehaun dass die ganzen anderen Testseiten irgendwie alt aussehen. Is nur mir das aufgefallen? Grad schon wieder, Wall of Text zur Technik etc un Benchmarks en Masse... und alles schön einzeln. Das sind wohl alle zu RDNA2:

https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Tests/Benchmark-Release-Review-vs-RTX-3080-1361423/
https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Specials/RX-6000-Raytracing-Kompatibilitaet-Test-1362034/
https://www.pcgameshardware.de/Radeon-RX-6800-Grafikkarte-276952/Specials/Smart-Access-Memory-Benchmarks-1361997/

Gruss

Ja, richtig ausführlich, was PCGH da abliefert. Vermutlich ist der Einbruch bei den Heftverkäufen durch COVID durchaus bemerkbar für den Verlag. Wer kauft sich schon jetzt noch am Bahnhof ein Magazin für die Fahrt, oder geht für ein Heft extra zum Kiosk.
Bei den unterschiedlichen Artikeln ist aber auch etwas copy&paste dabei.

Mit Computerbase eines der besten Reviews, dazu sind die Details zur Lüfterkurve, Stromverbrauch und der Bestückung der Platine bei Igor ebenfalls lesenswert.

basix
2020-11-19, 01:00:20
@Leo:
Wenn du dein Launch Review schreibst, kannst du bitte folgenden Punkt von CB aufnehmen: Die neuen / moderneren Spiele scheinen im Schnitt deutlich besser wegzukommen und die 6800 XT liegt oft vor einer 3080 https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_zusatz_sieben_topaktuelle_spiele_im_benchmark

Wäre interessant zu wissen, ob dies generell so ist. Allenfalls ist es ein Anhaltspunkt für den Optimierungsgrad auf Seiten des Treibers (z.B. auch bezüglich Infinity Cache Verwendung). Die neueren Spiele könnten aktuell besser optimiert worden sein. Die Frage ist von Seiten AMD oder von Seiten der Spielehersteller.

Leonidas
2020-11-19, 04:34:34
Das liegt offenbar daran, dass die AMD Benchmarks für die 6800XT großteils in 1440p waren und nicht 4k. .


Nein. Man folge dem Link - die zum Vergleich herangezogenen Benchmarks waren durchgehend 4K.




@Leo:
Wenn du dein Launch Review schreibst, kannst du bitte folgenden Punkt von CB aufnehmen: Die neuen / moderneren Spiele scheinen im Schnitt deutlich besser wegzukommen und die 6800 XT liegt oft vor einer 3080


Thx 4 Hinweis.

Kickstart
2020-11-19, 08:55:32
Ich hab da mal ne Frage: Ab wann ist mit neuen Karten (Sowohl von nVidia als auch AMD.) zu rechnen die im Preisbereich von unter 300€ liegen werden?

Screemer
2020-11-19, 09:00:30
Mit Ampere oder rdna2? Irgendwann ab q3 2021. Vorher würde ich nicht damit rechnen.

dildo4u
2020-11-19, 09:09:49
Ich hab da mal ne Frage: Ab wann ist mit neuen Karten (Sowohl von nVidia als auch AMD.) zu rechnen die im Preisbereich von unter 300€ liegen werden?

3060 soll im Januar kommen aber kein Plan ob für 300 oder 350€, 3060 Ti ist 400.

https://videocardz.com/newz/nvidia-geforce-rtx-3060-rumored-with-up-to-12gb-memory-to-launch-in-january

Screemer
2020-11-19, 09:16:48
Dildos kleine Wunschstunde? Was kommt denn in die Lücke?

dildo4u
2020-11-19, 09:24:53
Ich glaube nicht an 12GB für die 3060 daher erwarte ich 300€.

#44
2020-11-19, 09:25:35
Die Wahl zwischen 3070 und 6800 wird (zumindest mit den UHD-Werten) nicht leichter.

PL und Perf/W entscheidet die 3070 für sich. Aber dann ist da halt der VRam :-/

WedgeAntilles
2020-11-19, 09:37:26
@Leo:
Wenn du dein Launch Review schreibst, kannst du bitte folgenden Punkt von CB aufnehmen: Die neuen / moderneren Spiele scheinen im Schnitt deutlich besser wegzukommen und die 6800 XT liegt oft vor einer 3080 https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_zusatz_sieben_topaktuelle_spiele_im_benchmark


Um genau zu sein, liegt die 6800XT in diesen Benchmarks im Schnitt 3% über der 3080.
Wohlgemerkt ohne RT.

Da RT in zukünftigen Spielen tendenziell eher wichtiger wird - da die 3080 aber deutlich besser ist - ist es fraglich, ob die 6800XT pauschal für neue Spiele "besser" ist.
(Und Igor hat angemerkt, dass er das Gefühl hat, dass das RT bei BigNavi schlechter aussieht als bei Ampere. Bei MetroExodus vor allem würden Lichtquellen fehlen. Allerdings hatte er nicht genug Zeit für einen vollständigen Test. Sollte man aber ebenfalls im Kopf behalten und vor allem auch bei Tests von neuen Spielen prüfen.)

Gleichzeitig limitiert bei der 3080 natürlich der Ram. Dieses Problem ist aktuell kaum relevant, wird aber tendenziell immer größer.

Schade, dass Nvidia nicht 1,5GB Chips verbaut.
Die 3070 mit 12GB und die 3080 mit 15GB wären die perfekten Karten gewesen.

So sind alle Karten gut und kein Fehlkauf, aber keine Karte ist die perfekte Lösung.
(ok, wenn Geld keinerlei Rolle spielt wäre die 3090 so eine Karte, aber da Geld halt fast immer eine Rolle spielt bleibt Preis-Leistung nunmal elementar wichtig.)


Ich neige dazu, meinem fast 6 Jahre alten Rechner einfach noch mal etwas Zeit zu gönnen.
Verfügbar ist ja eh nix.
Mal schauen wie es in 3-4 Monaten mit den Straßenpreisen aussieht.
Da steht mit Rocketlake ja von Intel ein 8-Kerner an, mal schauen was der kann - und vor allem was er kostet.
Und von Nvidia erwarte ich bis dahin GraKas mit mehr Ram.
8GB für ne 3070 ist mir einfach etwas zu wenig.

Irgendwie ist seit inzwischen über einem halben Jahr immer ein schlechter Zeitpunkt den PC aufzurüsten. :confused:

Invitado
2020-11-19, 09:48:11
Coole Übersicht, danke! Am besten finde ich die Entwicklung zwischen den 6800er bis zur RTX 3090 in Prozent Anscheinend kann nur PCGH die Karten auslasten, der Abstand ist am größten. Das müsste immer so skalieren oder?

mfg

Loeschzwerg
2020-11-19, 10:16:22
Ja, richtig ausführlich, was PCGH da abliefert.

Jup. Wenn jetzt noch die Website ein besseres Design hätte und weit weniger vollgestopft wäre, das wäre schön.

Leonidas
2020-11-19, 11:31:56
Ich hab da mal ne Frage: Ab wann ist mit neuen Karten (Sowohl von nVidia als auch AMD.) zu rechnen die im Preisbereich von unter 300€ liegen werden?

Mit Ampere oder rdna2? Irgendwann ab q3 2021. Vorher würde ich nicht damit rechnen.


Nein. GeForce RTX 3050 & 3050 Ti in jedem Fall Q1/2021, womöglich schon Januar.





Anscheinend kann nur PCGH die Karten auslasten, der Abstand ist am größten. Das müsste immer so skalieren oder?


PCGH sind eine der wenigen, die sich da wirklich Gedanken machen. Eigentlich müsste ich die Auswertung noch mehr in deren Richtung gewichten. Aber es soll ja eine Übersicht sein, was die HW-Tester im allgemeinen sagen.

Gast
2020-11-19, 12:25:10
Sacht mal... was ist eigentlich aus der PCGH geworden? Ich dachte das wäre ein Heft... aber zu den letzten Grafikkarten haben die so viel Zeug auf der Website rausgehaun dass die ganzen anderen Testseiten irgendwie alt aussehen. Is nur mir das aufgefallen? Grad schon wieder, Wall of Text zur Technik etc un Benchmarks en Masse... und alles schön einzeln. Das sind wohl alle zu RDNA2:

https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Tests/Benchmark-Release-Review-vs-RTX-3080-1361423/
https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Specials/RX-6000-Raytracing-Kompatibilitaet-Test-1362034/
https://www.pcgameshardware.de/Radeon-RX-6800-Grafikkarte-276952/Specials/Smart-Access-Memory-Benchmarks-1361997/

Gruss

PCGH war schon immer eine der besten Seiten für Hardwarereviews.

Leider ist die Seite ohne Addblocker komplett unbrauchbar. Ich verstehe ja, dass sich die Seiten irgendwie finanzieren müssen und hab auch grundsätzlich nichts gegen Werbung, aber am Notebook teilweise fast die doppelte Akkulaufzeit wenn man die Seite mit Addblocker besucht geht gar nicht.

Ansonsten ist Igorslab immer einen Besuch Wert. Die Benchmarkauswahl ist zwar oft etwas kleiner, dafür gibt es dort Messungen und Auswertungen die ansonsten niemand macht.
Vor allem ist Igorslab die einzige Seite die vernünftige Effizienzmessungen macht, vor allem bei CPUs

Gast
2020-11-19, 13:43:14
Gratuliere AMD, ich glaube das sind die ersten brauchbaren Grafikkarten die unter der Marke erscheinen, die letzten brauchbaren Grafikkarten der roten Fraktion dürften noch unter dem Namen ATI gelaufen sein.

JVC
2020-11-19, 13:55:48
Die Partnermodelle werden die Paar % die dir fehlen schon noch reinbringen ;)

Für ~800.- ein gutes 6800X "OC" Model würde mir schon gefallen.
(irgendwie habe ich jetzt schon öfter was von 2,5Ghz+ Spieletakt auch mit Luft gehört... bin gespannt)

M.f.G. JVC

Gast Ritis
2020-11-19, 20:54:09
Das liegt offenbar daran, dass die AMD Benchmarks für die 6800XT großteils in 1440p waren und nicht 4k. Die 4k Benchmarks waren mit der 6900 und da hat man mit SAM + Rage Mode nachgeholfen.

Offenbar wird die hitrate im Infinity Cache mit höherer Auflösung immer schlechter, wodurch die geringe Bandbreite eine größere Rolle spielt.

Es gibt da sogar eine schöne Folie von AMD selbst.
https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Tests/Benchmark-Release-Review-vs-RTX-3080-1361423/galerie/3457096/?fullsize

Unter FullHD erreicht man noch fast 80% hitrate im Infinity Cache, unter 4k sind es nur mehr 58%.

Dementsprechend wird Ampere in 4k relativ schneller, bzw. Navi bricht stärker ein.

Und an den wenigen Reviews die auch SAM getestet haben sieht man wie sich AMD mit der Exklusivität ins eigene Bein schießt.

Angesichts der Zen3 Verfügbarkeit hätte man diesen zusätzlichen Push wohl kaum gebraucht, und SAM auf den Testplattformen aktiv wäre, was ja durchaus legitim wäre, wenn es kein exklusives Feature wäre, hätte man den Rückstand zur 3080 praktisch aufgeholt.

fast genau so ist es. Nur hat AMD je 4k und 1440p Benchbalken gezeigt, aber mit (UP TO) Angabe. Was auch immer das in dem Kontext bedeuten soll.

Klar ist aber, dass selbst die 6800XT am Ende meistens ein 1440p Monitor bedienen wird und nicht einen für 4k. Der Markt ist da extrem zäh. Die meisten Gamer werden erst die kommenden Monate upgraden, am ehesten erst wenn der alte Moni es nicht mehr tut.

Von daher wäre die 1440p Gegenüberstellung schon die wichtigere.

Was den Infinity Cache betrifft, der ist auf den Mainstream ausgelegt. Für RDNA3 und 4k mit Raytracing werden die den auf 192MB oder 256MB aufblasen (müssen). Dafür hat die RTX für 4k entweder zu wenig VRAM oder ist zu teuer. Wenns irgend geht verkneift man sich das 4k Thema nochmal bis zur nächsten GPU-Gen. Dauert bestimmt keine 2 vollen Jahre, eher nur 12 Monate. Dann wird man auch sehen was mit RT wirklich gefordert wird.

Sobald die BigNavi und Amperes irgendwann mal gut verfügbar sein werden gibts sicher schon Leaks für die nächste Gen... ;)

downforze
2020-11-19, 21:27:15
Das Gelaber um Raytracing verkennt, dass die Performance bei beiden Herstellern massiv einbricht. Das ist garantiert nicht, was viele aktivieren.

Iscaran
2020-11-19, 21:54:20
Naja 60 FPS @fullHD in RT reicht mir...das ist in den MEISTEN Fällen mittlerweile schaffbar.

Allerdings warte ich noch auf eine GPU im Bereich 300-400€ die das schafft...600-700€ sind mir persönlich da zuviel, und deshalb habe ich auch noch Zeit bis ich RT "brauche" :-).

Gast
2020-11-20, 07:54:14
Das Gelaber um Raytracing verkennt, dass die Performance bei beiden Herstellern massiv einbricht. Das ist garantiert nicht, was viele aktivieren.

Also ich aktiviere Raytracing in allen spielen die es unterstützen, in 1440p sind 60fps meistens locker drinnen.

Und zusätzlich aktiviere ich in den meisten Spielen noch DLSS, die Performance in der Regel immer auf das Niveau ohne Raytracing hebt und ab der Version 2.0 dabei in den meisten Fällen sogar besser als TAA aussieht.

y33H@
2020-11-20, 11:16:47
Die Partnermodelle werden die Paar % die dir fehlen schon noch reinbringen. Und Nvidias AIBs haben auch OC-Modelle, so what? Immer diese Unfug-Posts :freak:
Das liegt offenbar daran, dass die AMD Benchmarks für die 6800XT großteils in 1440p waren und nicht 4k. Nope, alles 1440p und 4K: https://www.amd.com/de/gaming/graphics-gaming-benchmarks#gpuBenchmarks

Offenbar wird die hitrate im Infinity Cache mit höherer Auflösung immer schlechter, wodurch die geringe Bandbreite eine größere Rolle spielt. Unter FullHD erreicht man noch fast 80% hitrate im Infinity Cache, unter 4k sind es nur mehr 58%.Die Hitrate sinkt, aber auch der Bedarf an Bandbreite - gleicht sich laut AMD somit aus.

Gast
2020-11-20, 11:49:02
Die Hitrate sinkt, aber auch der Bedarf an Bandbreite - gleicht sich laut AMD somit aus.

Die Benchmarks sprechen allerdings eine andere Sprache, und auch wenn der Bandbreitenbedarf pro Pixel mit höherer Auflösung sinkt, steigt der gesamte Bandbreitenbedarf natürlich trotzdem mit der Auflösung.

Man sieht es zwar nicht überall, aber es gibt doch eine ordentliche Zahl an Benchmarks, in denen man in 1080p und 1440p mit der 3080 gleich auf oder sogar leicht vorne ist, in 4k dann aber zurückfällt.

Und wenn man genauer darüber nachdenkt, kann sich das auch nicht ausgehen. Wenn die Hitrate von 80% auf 60% sinkt, sind das zwar "nur" um 20% weniger, das bedeutet aber gleichzeitig, dass sich der Bedarf an externer Bandbreite verdoppelt.

Wobei, wenn man den Graph ansieht, und davon ausgeht dass die Punkte um die Kurve die Schwankungsbreite angeben, ist diese offensichtlich auch in 4k am höchsten.

Der beste Fall in 4k ist da gar nicht so weit vom schlechtesten Fall in 1440p entfernt.

Es dürfte also durchaus recht stark auch an der Software liegen, wie gut der Infinity Cache wirkt und wie gut er die eher geringe externe Bandbreite ausgleichen kann.

Wenn man die großen Unterschiede in der Hitrate im Infinity Cache in Abhängigkeit zur Auflösung sieht, und die externe Bandbreite ja konstant ist, muss es auch so sein, dass in niedrigen Auflösungen Bandbreite im Überfluss vorhanden ist, und irgendwo dann der Punkt erreicht wird, an dem die externe Bandbreite zu limitieren beginnt.

4k dürfte wohl der sweet spot sein, an dem die externe Bandbreite gerade noch ausreicht.

Limit
2020-11-20, 12:07:29
Von der Performance bin ich ehrlich doch ein wenig enttäuscht. Ich hätte von der RX 6800XT erwartet, dass sie die 3080 wenigstens in Rasterizing, im Schnitt, leicht schlägt. Auch die 6900XT wird im Mittel kein Land gegen die RTX 3090 sehen. Sie wird gerade mal die RTX 3080 schlagen.
Ich denke, dass die Performance sich mittelfristig noch ein bisschen angleichen wird, allein durch Bugfixes und Treiberoptimierung, da es in einigen Spielen durchaus noch zu Anomalien bei der Performance kommt (z.B. Control).

Die Raytracing Performance ist ebenfalls etwas enttäuschend. Ich hätte erwartet, dass wenigstens die 2080 Ti deutlich geschlagen wird, in vielen Fällen fällt man jedoch sogar eindeutig hinter diese zurück. Versteht mich nicht falsch, ich habe kein Raytracing Wunder erwartet, wie es die 3D Mark Werte bereits angekündigt haben, doch definitv mehr Performance und Konsistenz als das was wir hier bekomme haben.
Auch hier erwarte ich noch Verbesserungen. Bisher sind alle Spiele, die RT nutzen mehr oder weniger nvidia optimiert, da die letzte AMD Generation ja noch keine vergleichbare Funktionalität besaß. Vor allem inkonsistente Leistung spricht häufig für mangelnde Optimierung. Dank der neuen Konsolen dürfte sich das bei zukünftigen Spielen verbessern.

Von meinem Gefühl her, muss AMD früher oder später sogar mit den Preisen runter. Genau wie allerdings auch Nvidia.
Ich werde definitiv noch warten, einerseits wegen der Preise, andererseits um die Karten und deren Treiber noch ein wenig reifen zu lassen.


Und Nvidias AIBs haben auch OC-Modelle, so what? Immer diese Unfug-Posts :freak:
Naja, getestet wurde hier Referenz-Design vs. Founder's Edition. Historisch waren die Referenzdesign meistens schlechter als die AIBs, während die Founder's Edition eher gleichauf oder besser als AIBs waren. Speziell bei der Ampere-Generation hat nvidia ja bei der Kühlung eine Menge Aufwand betrieben.

MasterElwood
2020-11-20, 13:26:52
Das Gelaber um Raytracing verkennt, dass die Performance bei beiden Herstellern massiv einbricht. Das ist garantiert nicht, was viele aktivieren.

Dafür gibts eben bei vielen Games DLSS als Ausgleich.

downforze
2020-11-20, 13:51:42
Dafür gibts eben bei vielen Games DLSS als Ausgleich.
Und erkauft es sich mit einem deutlichen Qualitätsverlust. Dann kann ich die Texturen auch gleich auf mittel stellen:
https://www.hardwareluxx.de/images/cdn01/282ADECB0587450E9561B8DED828932E/img/BB01DEAC97C7413194FDAE5339C36550/Anthem-Screenshot-03-DLSS-Off_BB01DEAC97C7413194FDAE5339C36550.jpg

https://www.hardwareluxx.de/images/cdn01/282ADECB0587450E9561B8DED828932E/img/4E0AA13C3DB64668BDEAC5479741B0AC/Anthem-Screenshot-03-DLSS-On_4E0AA13C3DB64668BDEAC5479741B0AC.jpg

y33H@
2020-11-20, 14:48:46
Ich würde eher sagen da zieht gerade Nebel auf ...

Lowkey
2020-11-20, 14:55:41
hahaha der ist gut :up:

Gast
2020-11-20, 15:09:21
Und erkauft es sich mit einem deutlichen Qualitätsverlust. Dann kann ich die Texturen auch gleich auf mittel stellen:
https://www.hardwareluxx.de/images/cdn01/282ADECB0587450E9561B8DED828932E/img/BB01DEAC97C7413194FDAE5339C36550/Anthem-Screenshot-03-DLSS-Off_BB01DEAC97C7413194FDAE5339C36550.jpg

https://www.hardwareluxx.de/images/cdn01/282ADECB0587450E9561B8DED828932E/img/4E0AA13C3DB64668BDEAC5479741B0AC/Anthem-Screenshot-03-DLSS-On_4E0AA13C3DB64668BDEAC5479741B0AC.jpg

Ja wenn Nebel im weg ist sieht man schlechter, durfte ich die letzten 3 Wochen auch in der Realität erwahren.

y33H@
2020-11-20, 17:40:17
[...]Und warum soll das ausgerechnet auf die Bandbreite des Infinity Cache zurückzuführen sein? Kann sonst was sein bei AMD oder Nvidia ...

Platos
2020-11-20, 22:52:56
Ich würde eher sagen, dass die 3080 in 1080p und 1440p eine Schwäche hat. Das hat man ja gut gesehen in den Tests. Die 3080 hatte in 4k deutlich mehr Mehr-Perfomance im Vergleich zur 2080Ti wie in 1440p. Die 6800XT hat das nicht.

Lowkey
2020-11-20, 23:02:13
Korrekt, dass wurde bereits mehrfach betont, dass 4k stärker ausfällt.

Na sicher ist nur die Antwort auf die Frage, warum Nvidia wegen den letzten paar Prozent das PL angehoben hat und AMD auf dem 3080 Level herauskommt. Nvidia hat es zu spät erfahren und AMD wußte die ganze Zeit was Nvidia so treibt.

y33H@
2020-11-20, 23:14:21
Oder umgekehrt, meine Güte ... immer dieses "der jeweils andere wusste es besser, ätsch".

Lowkey
2020-11-20, 23:26:01
Nicht besser, vorher. Diesmal wurde Nvidia wohl überrascht.

Ferenzo
2020-11-21, 08:03:38
Das sieht doch "gut" aus, AMD ist wieder oben dabei, man muss nicht zur Midrange greifen, wenn man eine Auswahl haben möchte. Und irgendwie hat das ja auch was, RAM different, Preis different, Geschwindigkeit different. So kann man sich gefühlt was raussuchen was passt, bzw. mal auf ein Angebot hoffen. Hätte es einfach nur Copy und Paste AMD-Nvidia Klone gegeben, wäre ja auch lahm gewesen. So nun hopp hopp, Preise runter :cool:

JVC
2020-11-21, 09:14:16
Und Nvidias AIBs haben auch OC-Modelle, so what? Immer diese Unfug-Posts :freak:
Du weist aber schon, das AMD merklich mehr OC Spielraum hat ;)
(aber Hauptsache stänkern...)

M.f.G. JVC

Edit.
... würde sich die RTX 3070 nämlich besser takten lassen, käme kein Einwand von dir.
Tut sie aber nicht. (und bei nur 8Gb... weil man die ja so gut auf 12Gb übertakten kann :rolleyes:. Aktuell benutze ich Intel+NV)
Dein "Einwand" mit "...Unfug-Posts..." war natürlich total nett, super gut informativ und neutral... nicht.

y33H@
2020-11-21, 09:19:27
Mir geht dieses ständige Bias einiger Leute auf die Nerven, das zerstört jede Diskussion ... würde sich die RTX 3070 nämlich besser takten lassen, käme kein Einwand von dir.

Gast
2020-11-22, 11:07:45
Offenbar wird die hitrate im Infinity Cache mit höherer Auflösung immer schlechter, wodurch die geringe Bandbreite eine größere Rolle spielt.[...]
Dementsprechend wird Ampere in 4k relativ schneller, bzw. Navi bricht stärker ein.
Das hat Computerbase schon aufgezeigt, dass diese Aussage schlicht falsch ist. Mit Speicher OC müsste man bei limitierendem IC ordentlich Mehrperformance bekommen, das ist aber überhaupt nicht der Fall. Es ist schlicht anders herum: Ampere kann in Auflösungen unter 4k die Shader nicht auslasten und performt daher schlechter als erwartet.
Von der Performance bin ich ehrlich doch ein wenig enttäuscht. Ich hätte von der RX 6800XT erwartet, dass sie die 3080 wenigstens in Rasterizing, im Schnitt, leicht schlägt. Auch die 6900XT wird im Mittel kein Land gegen die RTX 3090 sehen. Sie wird gerade mal die RTX 3080 schlagen. Die Raytracing Performance ist ebenfalls etwas enttäuschend. Ich hätte erwartet, dass wenigstens die 2080 Ti deutlich geschlagen wird, in vielen Fällen fällt man jedoch sogar eindeutig hinter diese zurück.
Da RT in zukünftigen Spielen tendenziell eher wichtiger wird - da die 3080 aber deutlich besser ist - ist es fraglich, ob die 6800XT pauschal für neue Spiele "besser" ist.
Die Performance schwankt von Spiel zu Spiel natürlich. AMD hat sicherlich nicht so breite Optimierungen für BN als NVidia für Ampere, schließlich ist man ja schon länger auf dem Markt. Und bezüglich RT Leistung gilt natürlich auch, dass alle bisherigen Spiele einzig auf NVidias Umsetzung optimiert wurden. Das muss aber nicht bedeuten, dass das immer so sein wird. Das sieht man in Watch Dogs Legion bei CB, da ist in RT die 6800XT schneller als eine 3080. Ich denke, da kommt es auch viel auf die Optimierungen an.
Da spielt sicher auch das von Igor genannte Problem mit hinein, dass es manchmal auf AMD anders aussieht als auf NVidia. Da gibt es sicher noch bei älteren Spielen Optimierungsbedarf und Treiberarbeit. Aber bei kommenden Titeln von den Konsolen dürfte AMDs Umsetzung vermutlich grob ähnlich heraus kommen als NVidias, da man die Optimierung schon bei den Konsolen braucht und man vermutlich weniger auf NV optimiert.

y33H@
2020-11-22, 14:21:03
Vermutlich zeigen die Benchmarks in Watch Dogs: Legion keine plötzliche RT-Stärke von AMD, sondern vielmehr das Nvidia-Grafikkarten in der genutzten, fordernden Testsequenz offenbar große Schwierigkeiten haben.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_benchmarks_mit_raytracing_in_full_hd_wqhd_und_ultra_hd

Gast
2020-11-23, 00:17:47
Und warum soll das ausgerechnet auf die Bandbreite des Infinity Cache zurückzuführen sein? Kann sonst was sein bei AMD oder Nvidia ...

Es hat nichts mit der Bandbreite des Infinity Caches zu tun, sondern mit der mageren externen Bandbreite.

In 4k kann der Cache in doppelt so vielen Fällen die Anfrage nicht beantworten und diese müssen aus dem VRAM geladen werden.

Dass das einen Unterschied machen muss ist klar, und es ist auch klar, dass die Hitrate im Cache mit steigender Auflösung immer schlechter wird. Je nach grundsätzlichen Bandbreitenbedarf des Spiels ist eben irgendwann der Punkt erreicht, an dem die externe Bandbreite limitiert.
Und zumindest in einigen Spielen scheint dieser punkt in 4k erreicht zu werden.

Gast
2020-11-23, 00:21:25
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_benchmarks_mit_raytracing_in_full_hd_wqhd_und_ultra_hd


Ist nicht Watchdogs eines der Spiele die mit RT auf der Radeon Grafikfehler in den Spiegelungen haben?

Würde mich nicht wundern wenn dieser Fehler auch zu "zu viel" Performance führt

downforze
2020-11-23, 08:18:33
Ja wenn Nebel im weg ist sieht man schlechter, durfte ich die letzten 3 Wochen auch in der Realität erwahren.
Der Nebel kommt durch DLSS. Das ist logischerweise die selbe Szene.

y33H@
2020-11-23, 08:51:26
Der Nebel kommt durch DLSS.Äh nein.

Gast
2020-11-23, 09:59:08
Der Nebel kommt durch DLSS. Das ist logischerweise die selbe Szene.

Ähm nein, es ist ganz offensichtlich in beiden Bildern Nebel vorhanden der dynamisch durchs Bild wandert.

Auf DLSS seite liegt er eben über dem Großteil des Bildes, und auf dem Bild ohne DLSS ist er hauptsächlich auf die Mitte unten konzentriert.

Birdman
2020-11-23, 15:32:33
Der Nebel kommt durch DLSS. Das ist logischerweise die selbe Szene.
und HDR rendering verursacht Hautkrebs

DragonFire
2020-11-25, 12:46:05
Auch wenn AMD jetzt von der reinen Leistung gegenüber der 3080 zurückliegt ist man auf einem guten Weg. Die Karten sind an sich recht effizient und die Performance über ein 256-bit Speicherinterface zu erreichen ist extrem gut.

Es kommt ja noch eine RX6900XT, welche am 8.Dezember vorgestellt wird.


Technisch wäre bestimmt sogar ein "1,5x Big Navi" mit 120 CUs und 384-bit mit 24GB GDDR6 und ~400W möglich, aber da fehlt vielleicht die Nachfrage und AMD die Ressourcen das zu entwickeln. Schade eigentlich, weil damit könnte man Nvidia sicherlich überholen

Wie gesagt. Mit der kommenden RX6900XT wird sich AMD mit der RTX3090 herumschlagen. Und Custom-Modelle könnten die RTX3090 mit höherem TDP und Taktraten gar schlagen.

Gast
2020-11-25, 14:08:37
Es kommt ja noch eine RX6900XT, welche am 8.Dezember vorgestellt wird.


Die rein von den Hardwaredaten deutlich näher an der 6800XT liegen wird, wie die 3090 an der 3080.



Wie gesagt. Mit der kommenden RX6900XT wird sich AMD mit der RTX3090 herumschlagen.


Niemals. Die 6800XT kann nicht ganz mit der 3080 mithalten.

Die 6900XT hat 10% mehr Hardware bei gleichem Powerlimit, wird also realistischerweise maximal 5-8% vor der 6800XT liegen.

Das reicht gerade mal um mit der 3080 gleichzuziehen, vielleicht minimal vorne zu liegen, die 3090 ist da deutlich außer Reichweite.

DragonFire
2020-11-25, 23:38:06
Niemals. Die 6800XT kann nicht ganz mit der 3080 mithalten.

Die 6900XT hat 10% mehr Hardware bei gleichem Powerlimit, wird also realistischerweise maximal 5-8% vor der 6800XT liegen.

Das reicht gerade mal um mit der 3080 gleichzuziehen, vielleicht minimal vorne zu liegen, die 3090 ist da deutlich außer Reichweite.

Die Customkarten boosten aber bis 2,7Ghz. Da legt eine vermeintliche RX6900XT nochmals 10-15% drauf und wird eine RTX3090 hinter sich lassen.

JVC
2020-11-26, 11:00:16
https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/2/#abschnitt_overclocking_nitro_mit_fast_27_ghz
"Nitro+ mit fast 2,7 GHz"

Das nenn ich mal OC :smile:

M.f.G. JVC

Gast
2020-11-26, 14:49:41
https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/2/#abschnitt_overclocking_nitro_mit_fast_27_ghz
"Nitro+ mit fast 2,7 GHz"


Interessante wäre halt eher der durchschnittliche Takt, und nicht die kurzen Spitzen.

Meine 2080Ti taktet in Spielen auch an die 2GHz, und das sogar ohne übertakten, ganz einfach weil sie dank Wasser kaum mehr als 40° warm wird.