PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6900 XT Review-Thread


Seiten : [1] 2 3

Leonidas
2020-12-08, 14:39:00
Modell|Technik|Listenpreis|Release
Radeon RX 6900 XT|Navi 21 XTX, 80 CU @ 256 Bit, 16 GB GDDR6|$999|8. Dezember 2020
Radeon RX 6800 XT|Navi 21 XT, 72 CU @ 256 Bit, 16 GB GDDR6|$649|18. November 2020
Radeon RX 6800|Navi 21 XL, 60 CU @ 256 Bit, 16 GB GDDR6|$579|18. November 2020


Liste der Launchreviews bei 3DCenter (https://www.3dcenter.org/news/launch-der-radeon-rx-6900-xt-die-launchreviews-gehen-online) & Videocardz (https://videocardz.com/newz/amd-radeon-rx-6900-xt-review-roundup).

-> Radeon RX 6900 XT Launchreviews: Die Testresultate zur UltraHD/4K-Performance im Überblick (https://www.3dcenter.org/news/radeon-rx-6900-xt-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick)

horn 12
2020-12-08, 14:55:36
Bald ist es soweit :-)

Raff
2020-12-08, 15:01:37
AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090 (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Tests/RX-6900-XT-oder-RTX-3090-Grafikkarten-Vergleich-1362845/)

Inkl. SAM on/off und so. :naughty:

MfG
Raff

fondness
2020-12-08, 15:02:21
Computerbase: https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/

Flusher
2020-12-08, 15:17:05
Hmm scheint ja eher "underwhelming" zu sein. Klar mit dem gleichbleibenden Powerlimit wird es auch schwierig aus dem selben Chip mehr Performance rauszuholen

fondness
2020-12-08, 15:18:14
Naja, bei 11% mehr CUs 9% mehr Performance und das bei der selben TDP finde ich nicht übel. Für mehr hätte AMD mehr TDP zulassen müssen.

Raff
2020-12-08, 15:22:22
Naja, bei 11% mehr CUs 9% mehr Performance und das bei der selben TDP finde ich nicht übel. Für mehr hätte AMD mehr TDP zulassen müssen.

Bis zu. Das schwankt zwischen 5 und 10 Prozent - je nach GPU-Lotterie-Verhältnis.

MfG
Raff

r3ptil3
2020-12-08, 15:26:27
Sogar noch etwas mehr Abstand zur 6800 XT, als ich gedacht habe.

Was die Karte aber interessant macht: Es ist der hochwertigste Chip der 6800 Serie. Gleicher Verbrauch wie die 6800 XT und mehr Leistung, nicht schlecht.

Wäre schon was schönes sowas im Rechner zu haben...

dildo4u
2020-12-08, 15:27:06
Er kann hier 2.7Ghz einstellen aber der reale Takt liegt um 2.5 Gewinne sind Mager.

nxQ0-QtAtxA

Schnoesel
2020-12-08, 15:28:50
Alles beim gleichen Verbrauch finde ich persönlich beeindruckend. Mal sehen was die Boardpartner daraus machen.

TwoBeers
2020-12-08, 15:31:25
Hmm, Computerbase schreibt in ihrem Effizienzvergleich

Um das herauszufinden, hat die Redaktion GeForce RTX 2080 Ti, GeForce RTX 3080, GeForce RTX 3090, Radeon RX 6800 XT und nun auch Radeon RX 6900 XT mit 270 Watt betrieben. Auf AMDs neuem Flaggschiff wird das erreicht, wenn das Power-Limit im Treiber um die maximal möglichen 10 Prozent reduziert wird.


Also ich kann im Wattman maximal -6% einstellen?! :confused:

HOT
2020-12-08, 15:34:10
In nem Jahr ist die 6800XT bei 550€ und die 6900XT bei 700-750€. Bin ich mir ziemlich sicher, dass sich die Preise so einpendeln werden mittelfristig. Wer jetzt kauft hat einfach einen an der Waffel aus meiner Sicht.

Was gut ist, ist, dass die 6900XT die mehr-CUs 1:1 in RT-Leistung ummünzen kann.

Linmoum
2020-12-08, 15:35:36
Du hast aber keine 6900XT. ;)

Ansonsten schönes Teil. So schon sehr nah an der 3090 und unter Wasser wird da nochmal einiges mehr möglich sein. Wer hätte es nach den letzten Jahren gedacht, dass AMD mal (wieder) die zweitschnellste erhältliche GPU haben würde.

Flusher
2020-12-08, 15:37:01
Naja, bei 11% mehr CUs 9% mehr Performance und das bei der selben TDP finde ich nicht übel. Für mehr hätte AMD mehr TDP zulassen müssen.

Das stimmt, aber es ist schon irgendwie schade, dass eine Karte die rund 50 % mehr kostet in etwa gleich gut performt wie die nächst bessere Variante mit einem auf +7% eingestellten PL.

Jaja, ich weiss das PL kann man auch bei der 6900XT erhöhen, nur bleibt die Preis/Leistung immer noch bescheiden. Erst recht wenn man berücksichtigt, dass PCB (bis auf eine Phase) und Kühler identisch sind.

Der Aufschlag von 3080 zu 3090 ist zwar auch frech, aber da bekommt man wenigstenst einen fetteren Kühler und mehr als doppelt soviel Speicher oben drauf.

Armaq
2020-12-08, 15:45:06
3090 vs 6900XT unter Wasser, alles andere ist nicht wichtig. :)

Schöner Test @Raff, bei euch kommt die Granularität viel besser raus zwischen den Karten. Da hobeln andere zu grob drüber.

TwoBeers
2020-12-08, 15:48:50
Du hast aber keine 6900XT. ;)


Meinst du mich? Weil die haben die 6800 XT auch um "10%" auf 270W gezogen. ;)

w0mbat
2020-12-08, 15:58:12
Laut CB schneller als ne 3090 in "neuen Spielen" @4K. Was für eine Hammer Leistung von AMD, niemand hätte gedacht, dass man Nvidia so schnell einholt!

Lowkey
2020-12-08, 16:09:25
Und Nvidia hatte doch gesagt, dass deren BAR Treiber im Dezember nach der 6900XT kommt. Ich bin gespannt...

Lawmachine79
2020-12-08, 16:18:19
AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090 (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Tests/RX-6900-XT-oder-RTX-3090-Grafikkarten-Vergleich-1362845/)

Inkl. SAM on/off und so. :naughty:

MfG
Raff
Yeah - pwned! Da ist die Freude natürlich groß, wenn man im September richtig "gewettet" hat und trotz anderslautender Gerüchte die 3090 gekauft hat.


Und doch fehlt etwas: der Sieg. Die Radeon RX 6900 XT ist nicht der große Triumphator geworden, den sich viele erhofft hatten, der Lorbeerkranz verweilt auf dem Kühler Geforce RTX 3090.

Ist wahrscheinlich der Frust , das seine 3090 demnächst nicht mehr die schnellste Karte in 4K sein wird und NV sich nur noch mit RT und DLSS retten kann.


Wer zur 3090 gegriffen hat, hat
- früher
- die schnellere Karte
- mit besserem Featureset [RT]
- einem "Notfeuerknopf", falls mal doch ein Spiel in 2-3 Jahren schwierig wird [DLSS]
- auf dem aktuelle VR-Hardware läuft

Aber immerhin ist AMD wieder in Reichweite, NVidia muss jetzt wieder an die Leistungsgrenze im Bereich Innovation und Performance. Sowas dauert aber, den nächsten Schlagabtausch wird AMD für sich entscheiden, Angriffsschwung haben sie schon aufgenommen, aber eben einige Unwägbarkeiten drin, die offenbar nicht zu Ende gedacht wurden; aber besser, als wieder 1-2 Jahre verstreichen zu lassen, ehe man reagiert.

M4xw0lf
2020-12-08, 16:26:46
Nice Karte, würde ich nehmen für 250€ :uup:

maximus_hertus
2020-12-08, 16:33:10
Nette Karte, tolles Paket. Leider dafür etwas zu teuer (799 bis 849 wären imo passender) und halt die Liefersituation.

Vielleicht schaffen es nVidia UND AMD, dass bis Ostern alle Karten zu UVP Preisen (oder sogar leicht drunter) breit Verfügbar sind.

nonharderware
2020-12-08, 16:45:25
https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/2/#abschnitt_benchmarks_in_3840__2160
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_benchmarks_in_3840__2160

Mir fehlt die 6800 XT OC in der neue Tabelle - die 6900 XT dürfte ca. 3 (stock) bis 7 (OC) Prozent sein - für ~53% mehr Preis.

Die 6800 XT ist in meinen Augen der Preis-/Leistungssieger der 6000er Serie, oder täusche ich mich?

aufkrawall
2020-12-08, 16:52:04
Wer unvernünftig viel Geld für eine Grafikkarte ausgeben will, kauft besser eine 3090. Imho überflüssiges Produkt, in Anbetracht der soliden 6800 XT.

JVC
2020-12-08, 17:11:50
AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090 (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Tests/RX-6900-XT-oder-RTX-3090-Grafikkarten-Vergleich-1362845/)

Inkl. SAM on/off und so. :naughty:

MfG
Raff
Super, Danke :up:

Irre ich mich, oder gab es früher mehr bezüglich OC ?

M.f.G. JVC

GerryB
2020-12-08, 17:16:22
Mir fehlt die 6800 XT OC in der neue Tabelle - die 6900 XT dürfte ca. 3 (stock) bis 7 (OC) Prozent sein - für ~53% mehr Preis.

Die 6800 XT ist in meinen Augen der Preis-/Leistungssieger der 6000er Serie, oder täusche ich mich?

Wen der Preis net stört kann die 6900 ungefähr so einstellen wie die Kleine. Da kannste ja mal Gegentesten.
UVen mit 1050mV im Paneel: PortRoyal wahrscheinlich ohne SAM bei GN

edit: mal noch 2 interessante Werte für ME und MS20

etp_inxession
2020-12-08, 17:21:52
Wer zur 3090 gegriffen hat, hat
- Zu viel Geld
- früher
- die schnellere Karte
- mit besserem Featureset [RT]
- einem "Notfeuerknopf", falls mal doch ein Spiel in 2-3 Jahren schwierig wird [DLSS]
- auf dem aktuelle VR-Hardware läuft
- 24 GB Speicher
- kann damit angeben
- hat für durchschnittlich 5 fps mehr, 500 €uro mehr (UVP) bezahlt



So ist es dann korrekt.

Im High End Bereich bleibt ..
- 3080 bei Fokus auf RT
- ansonsten 6800 XT

darunter werden dann vermutlich im Januar erst die Karten neu gemischt.

Der Butter und Brot Bereich ist jetzt durch die 3060ti zumindest UVP seitig angegangen worden.
Die Straßenpreise sind absurd und erzeugen kein Volumen über was man sich als Händler oder Hersteller freuen könnte.

TwoBeers
2020-12-08, 17:31:38
Also mir fehlt bei den Reviews auch noch ein wenig was denn UV + OC bei der 6900 XT bringen könnte.
Immerhin ist die 6800 XT mit UV + OC ja sogar leicht schneller als eine 6900 XT, beide bei @stock PL.

Lawmachine79
2020-12-08, 17:35:31
Wer unvernünftig viel Geld für eine Grafikkarte ausgeben will, kauft besser eine 3090. Imho überflüssiges Produkt, in Anbetracht der soliden 6800 XT.
Welcher Preis vernünftig ist, bestimmt der Markt.

GerryB
2020-12-08, 17:42:47
Also mir fehlt bei den Reviews auch noch ein wenig was denn UV + OC bei der 6900 XT bringen könnte.
Immerhin ist die 6800 XT mit UV + OC ja sogar leicht schneller als eine 6900 XT, beide bei @stock PL.

Der PR-Test bei GN ist schon vernünftig. = 9% für die Ref. (siehe#25)
Mit 370..390W per MPT@h2o ist ne andere Frage.(falls man denn so hoch käme)

Bis jetzt sind Es ja nur Spekus, das man ne Custom6900-LC auf >>2800 MHz bekommt.
(weils mit der Strixx 6800xt LC so einfach war bis 2750)

Gebrechlichkeit
2020-12-08, 17:47:57
6900XT vs 6800XT
PERF: +10%
VRAM: +0%
VALUE:-42%
WORKSTATION: Zzzzz
FAZIT: terrible value vs perf.
6900XT vs RTX3090
PERF: +10% to -15% (4K native), to -50% or more (with dlss)
VRAM: -50%
VALUE: +50%
WORKSTATION: CUDA > opencl, .. Pro Render taugt nicht (Linus) -100%
RT PERF: -100%
FAZIT: Besser als die nvidia, wer aber zus. eine workstation braucht, vram, DLSS, RT .. dann sind die +50% extra kosten der 3090 gerechtfertigt

Hardware Unboxing : "per definition, the most pointless card eva!"

Legendenkiller
2020-12-08, 17:55:10
ich finde den computerbase.de 5k Test schön ...

wo dann bei Nvidia GeForce RTX 3080 und selbst bei der Nvidia GeForce RTX 2080 Ti als Bemerkung steht:
*Texturen laden sichtbar nach ;-)


PS: frag mich warum AMD die 6900XT nicht mir 350WTPD und ~2,7Ghz Takt gebracht hat... da wäre die 3090 eigentich geschagen.
Natürlich gerne mit einem optionalen 270W Silent Bios.

Aber das dürfen dann wohl die Customs machen ...

GerryB
2020-12-08, 18:07:55
Hier mal etwas OCing bei Coreteks+Luxx+HOT:
https://www.youtube.com/watch?v=xHo_U8slp_M&feature=youtu.be
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54839-big-navi-wird-noch-etwas-groesser-amd-radeon-rx-6900-xt-im-test.html?start=22
https://hothardware.com/reviews/amd-radeon-rx-6900-xt-big-navi-review?page=4

dildo4u
2020-12-08, 18:08:16
Er hat hier schon SAM mit Intel gebencht.

@14 Minuten.

OnjqUTiNtjw

Voodoo6000
2020-12-08, 18:11:16
Nette Karte aber viel zu teurer. Wenn man die Liefersituation ignoriert würde ich mir folgende Preise wünschen, damit AMD Marktanteile zurückgewinnt.

RX 6900 XT: 699 €
RX 6800 XT: 599 €
RX 6800: 499 €

Achill
2020-12-08, 18:17:59
Die 6900 XT Überzeugt nicht, imho ist diese zu teuer für das mehr an Performance.

Matrix316
2020-12-08, 18:19:30
Nette Karte aber viel zu teurer. Wenn man die Liefersituation ignoriert würde ich mir folgende Preise wünschen, damit AMD Marktanteile zurückgewinnt.

RX 6900 XT: 699 €
RX 6800 XT: 599 €
RX 6800: 499 €

Wer würde das nicht wollen?

Dazu 3070 - 350 €, 3080 599 €, 3080TI 750 € 3090 900 €. ;)

Und den Ryzen 5600X für 250, den 5800X für 350, den 5900X für 450 und den 5950X für 599. ;)

Träuemen können wir alle. :D

Legendenkiller
2020-12-08, 18:23:56
Die 6900 XT Überzeugt nicht, imho ist diese zu teuer für das mehr an Performance.

eine 3090 kostet UVP über das doppelte der 3080, also 800€ mehr und ist auch nur 15% schneller.

Die sind die 999€ doch eigentlich noch moderat.

Ist normal das die schnellste Karte überproportional teurer ist.

rentex
2020-12-08, 18:32:31
@Legendenkiller Da haste Recht. Das Gejammer hier, ist wie immer hirnlos...3DC Level halt :rolleyes:

GerryB
2020-12-08, 18:32:37
Man könnte auch sagen für WQHD reicht ne 6800xt und für UWQHD wäre ne 6900xt zu bevorzugen.
(mal gemessen an nextGen-Games, die ein bisschen mehr erfordern)
https://wccftech.com/review/amd-radeon-rx-6900xt-graphics-card-review-the-cherry-on-top/11/

In UHD gibts eigentlich nur die 3090 über alle Games ohne Einbrüche.

Gebrechlichkeit
2020-12-08, 18:44:51
eine 3090 kostet UVP über das doppelte der 3080, also 800€ mehr und ist auch nur 15% schneller.

Die sind die 999€ doch eigentlich noch moderat.

Ist normal das die schnellste Karte überproportional teurer ist.

3090 vs 3080
+14GB vram
+200% workstation powa (CGI Filme, big projects)
+10 - 20% mehr gaming powa

Fuer €800 mehr, bekommt man die "billigste quadro gaming" Karte der Welt .. die noch spieletauglich ist und 2.4x mal soviel Speicher hat.

6900XT vs 6800XT
+0GB vram
+15% mehr gaming powa
+ 8 extra CUs

Fuer €300 mehr, bekommt man 8 extra CUs. The End.

Zergra
2020-12-08, 18:46:26
eine 3090 kostet UVP über das doppelte der 3080, also 800€ mehr und ist auch nur 15% schneller.

Die sind die 999€ doch eigentlich noch moderat.

Ist normal das die schnellste Karte überproportional teurer ist.
Es ist aber nicht die schnellste Karte.
Dazu hat sie 3090 eben noch mehr als doppelt soviel Vram, im Vergleich zur 3080.

Die 3090 steht am Ende besser da als die 6900XT.

Langlay
2020-12-08, 18:56:01
Die 3090 steht am Ende besser da als die 6900XT.

Ist ja auch 50% teurer und als Spielkind ungefähr so spannend wie Gras beim wachsen zuzuschauen.

qu3x^
2020-12-08, 19:33:42
Wie üblich spannend dass man AMD bei der Bewertung gerne beschönigt dass die Karte nur eine reiner Spiele GPU um 1000 EUR ohne wesentlichen Mehrwert ist. Die APIs wenig brauchbar bzw. customize-able und gefühlt 5 Jahre hinter der Konkurrenz. Freilich ist der Nvida Markup keine 500 EURO wert wenn man die Balkenlänge vergleicht, aber was AMD da an Software liefert ist grauslich rudimentär.


Bleibt fraglich wie auch schon vor Jahren mit den R9 Karen wie lange AMD diesmal brauchen wird bis der Softwarestack dort ist wo Nvidia zur Zeit ist?
CUDA kann man nicht mehr weg ignorieren. Wer für OBS nicht die CPU lahmen möchte kann bei jeder Mid range Nvidiakarte brauchbare NVEC für OBS zuschalten. Den Radeongarbage hingegen kann man ja keinem in 720p zumuten. RTX Voice ist auch ein absolut geniales Feature.

Das scheint einfach eine verloren Aufholjagd zu sein. Da reden wir noch nicht mal von DLSS welches in "absehbarer Zeit" gegen einen AMD Pendant antreten soll. Wer die letzten Jahre über die Preisentwicklungen von Highend Nvidia her gelästert hat vergisst dass die Karten in dieser Preisklasse auch deutliche Vorteile für Content Creation hatten.

SKYNET
2020-12-08, 19:40:57
nun ne custom wo man min +30% PL einstellen kann und ich kaufe...

Lurtz
2020-12-08, 19:55:52
Wie üblich spannend dass man AMD bei der Bewertung gerne beschönigt dass die Karte nur eine reiner Spiele GPU um 1000 EUR ohne wesentlichen Mehrwert ist. Die APIs wenig brauchbar bzw. customize-able und gefühlt 5 Jahre hinter der Konkurrenz. Freilich ist der Nvida Markup keine 500 EURO wert wenn man die Balkenlänge vergleicht, aber was AMD da an Software liefert ist grauslich rudimentär.


Bleibt fraglich wie auch schon vor Jahren mit den R9 Karen wie lange AMD diesmal brauchen wird bis der Softwarestack dort ist wo Nvidia zur Zeit ist?
CUDA kann man nicht mehr weg ignorieren. Wer für OBS nicht die CPU lahmen möchte kann bei jeder Mid range Nvidiakarte brauchbare NVEC für OBS zuschalten. Den Radeongarbage hingegen kann man ja keinem in 720p zumuten. RTX Voice ist auch ein absolut geniales Feature.

Das scheint einfach eine verloren Aufholjagd zu sein. Da reden wir noch nicht mal von DLSS welches in "absehbarer Zeit" gegen einen AMD Pendant antreten soll. Wer die letzten Jahre über die Preisentwicklungen von Highend Nvidia her gelästert hat vergisst dass die Karten in dieser Preisklasse auch deutliche Vorteile für Content Creation hatten.
Radeon bleibt halt die Marke für Peasants, die einfach nur spielen wollen. Für die coolen Rich Kids, die Streamerkarrieren anstreben, bleibt nur nVidia.

GerryB
2020-12-08, 20:02:26
nun ne custom wo man min +30% PL einstellen kann und ich kaufe...
https://www.techpowerup.com/275710/asrock-announces-the-radeon-rx-6900-xt-phantom-gaming-d-16g-oc-graphics-card

3x 8pin bei AsRock

Fehlt nur der Waterblock.

SKYNET
2020-12-08, 20:08:28
https://www.techpowerup.com/275710/asrock-announces-the-radeon-rx-6900-xt-phantom-gaming-d-16g-oc-graphics-card

3x 8pin bei AsRock

Fehlt nur der Waterblock.

mal tests abwarten von dem ding... das PCB überzeugt mich optisch nicht so wirklich... bin auf die nitro gespannt... :uponder:

Matrix316
2020-12-08, 20:08:36
Wenn man bedenkt, dass die Performance in 4K ungefähr auf 3080 Level liegt, sind die 999$ MSRP für beide eigentlich plausibel. ;);) Die 3090 ist selbst mit "nur" 1500$ eigentlich zu langsam (ohne RTX).

Also ich würde eine 6900XT für 1000 € kaufen - wenn ich nicht schon eine 3080 hier hätte. ;)

Deswegen finde ich die P/L Rechnung aktuell etwas unfair, weil man keine der Karten zum UVP bekommt - außer durch Zufall mal wenn NBB 2-3 30er FEs bekommt...

Linmoum
2020-12-08, 20:11:31
P/L-Diskussionen sind bei den absoluten High-End-Karten sowieso immer reichlich überflüssig. Da ist man ein oder zwei Regale weiter tiefer besser aufgehoben.

Für Leute mit Wakü oder generell Freunde des Übertaktens ist die Karte auf jeden Fall toll. Ich warte ja nur noch darauf, bis das künstliche 3000MHz-Limit irgendwann ausgehebelt wird. Das wird sicherlich nich nicht das Ende der Fahnenstange sein.

Matrix316
2020-12-08, 20:37:42
Faszinierend ist, dass die 68/900 in bestimmten AMD Titeln abgehen wie Schmitz Katze und in anderen eher langsam sind. Ist wieder typisch AMD.

GerryB
2020-12-08, 20:41:23
mal tests abwarten von dem ding... das PCB überzeugt mich optisch nicht so wirklich... bin auf die nitro gespannt...

Die Beleuchtung lässt sich per Schalter deaktivieren, ohne Software.

Faszinierend ist, dass die 68/900 in bestimmten AMD Titeln abgehen wie Schmitz Katze und in anderen eher langsam sind. Ist wieder typisch AMD.

"andere" ist halt "dunkelgrün" optimiert
Über gaaaanz alten DX11-Kram wollen wir gar net mehr nachdenken.

bei nextGen:
Du wirst jetzt immer mal bei adv.PhysX und Ultra RT ne Situation haben, wo nur Ampere profitiert, selbst Turing wird geopfert.(x)
Aber zum Glück gibts Regler. (meist läuft High schon deutlich besser)

(x) In ColdWar läuft die 3070 deutlich besser als die 2080Ti.
N21 ist ähnlich Turing. Was auf Turing läuft geht auch bei ...
und
nextGen-Konsolen-Games sollten eigentlich für INT+FP16 optimiert sein! (Was bei Ampere mehr kostet)
und
HDR sollte in Zukunft intelligent per FP16@LPM berechnet werden:

Linmoum
2020-12-08, 20:49:31
Faszinierend ist, dass die 68/900 in bestimmten AMD Titeln abgehen wie Schmitz Katze und in anderen eher langsam sind. Ist wieder typisch AMD.Naja, bei CB liegt der größte Vorsprung der 3090 ggü. der 6900XT bei 15% - und da reden wir dann sogar wohlgemerkt von Control.

Wolcen ist offensichtlich irgendein Fuckup in niedrigeren Auflösungen, denn in UHD liegt die Performance dann wiederum auf 3090-Niveau. Ansonsten nimmt sich das alles beim Rasterizing nur wenig. Ok, wenn man wiederum noch irgendwelchen DX9-Quatsch benchen tut, dann vielleicht nicht mehr. Aber hey, wir sind im Jahr 2020 und nicht 2003 (okay, überspitzt).

aufkrawall
2020-12-08, 20:53:45
Wolcen ist offensichtlich irgendein Fuckup in niedrigeren Auflösungen, denn in UHD liegt die Performance dann wiederum auf 3090-Niveau.
CPU-Limit, die alte Cryengine ist bitterlich auf die Nvidia DX11 Secret Treiber-Sauce angewiesen.

dargo
2020-12-08, 21:01:08
Faszinierend ist, dass die 68/900 in bestimmten AMD Titeln abgehen wie Schmitz Katze und in anderen eher langsam sind. Ist wieder typisch AMD.
Faszinierend ist höchstens deine grüne Brille. Denn das gleiche Argument muss dann zwangsläufig auch für Nvidia gelten. ;D

Ex3cut3r
2020-12-08, 21:04:13
Also ich wurde die 6900XT mit Kusshand aufnehmen als 2080 Ersatz für 3440x1440. Aber ist doch eh nix verfügbar, kann ich vergessen. Was solls müssen es eben optimierte Settings und/oder DLSS richten. Ich schau mal in Q2 2021 rein, was möglich ist. Eins ist klar, wir haben so eine geile Konkurrenz Situation wie schon richtig lange nicht mehr, sobald die ungeduldigen CP77 Freaks eingedeckt sind. Corona geimpfte im Umlauf und alles wieder einen langsam normalen Weg einschreitet. Muss es GPUs doch zum guten Preis geben. Ich hoffe auf 6900XT für 700 und eine 3080 Ti mit 20GB für 799€.

basix
2020-12-08, 21:05:26
Er hat hier schon SAM mit Intel gebencht.

@14 Minuten.

https://youtu.be/OnjqUTiNtjw

Ist mir schon während dem 6800 XT Review aufgefallen und jetzt nochmals: Die Frametime Graphs bei den Radeons sieht fast immer besser aus als die der GeForces. Auch besser als bei der 5700 XT. Weniger Fluktuationen usw. -> Evtl. ein Ergebnis der massiven Cache Bandbreite und niedrigen Latenz?

Langlay
2020-12-08, 21:08:11
Ist mir schon während dem 6800 XT Review aufgefallen und jetzt nochmals: Die Frametime Graphs bei den Radeons sieht fast immer besser aus als die der GeForces. Auch besser als bei der 5700 XT. Weniger Fluktuationen usw. -> Evtl. ein Ergebnis der massiven Cache Bandbreite und niedrigen Latenz?


Ist mir auch bei meinem Wechsel von der Radeon VII auf die 3090 aufgefallen. Aber die reine Bandbreite ist dort ähnlich.

aufkrawall
2020-12-08, 21:19:05
Wo soll das zu sehen sein?

Raff
2020-12-08, 21:49:25
Ist mir schon während dem 6800 XT Review aufgefallen und jetzt nochmals: Die Frametime Graphs bei den Radeons sieht fast immer besser aus als die der GeForces. Auch besser als bei der 5700 XT. Weniger Fluktuationen usw. -> Evtl. ein Ergebnis der massiven Cache Bandbreite und niedrigen Latenz?

Vermutlich. Das kann man schlecht isoliert messen. ;) SAM reduziert die Fluktuation übrigens weiter -> extrem geiles Feature für CPU-"anlimitierte" Grenzbereiche IMHO, für Hi-Res-Spieler aber recht egal.

MfG
Raff

Daredevil
2020-12-08, 21:54:14
Ist mir schon während dem 6800 XT Review aufgefallen und jetzt nochmals: Die Frametime Graphs bei den Radeons sieht fast immer besser aus als die der GeForces. Auch besser als bei der 5700 XT. Weniger Fluktuationen usw. -> Evtl. ein Ergebnis der massiven Cache Bandbreite und niedrigen Latenz?
Was bedeutet denn für dich "sehen besser aus"?

basix
2020-12-08, 22:00:26
Vermutlich. Das kann man schlecht isoliert messen. ;) SAM reduziert die Fluktuation übrigens weiter -> extrem geiles Feature für CPU-"anlimitierte" Grenzbereiche IMHO, für Hi-Res-Spieler aber recht egal.

MfG
Raff

Japp, habe ich auch bemerkt. Das messen wird schwierig ja, man müsste GPU-Takt, IF$-Takt und Speichertakt unabhägig voneinander verändern können. Und selbst dann wird es nicht perfekt gehen, da der Takt gleichzeitig die Latenz und die Bandbreite ändert.

Bei SAM wird immer High Res mit "es bringt fast nichts" in Verbindung gebracht. Ist da nicht eher die Framerate entscheidend? Es gibt auch viele Spiele, die laufen auf den Karten in 4K mit 120fps.


Wo soll das zu sehen sein?
Digital Foundry blendet doch immer die Frametime Graphen rechts unten im Bild ein ;)

Was bedeutet denn für dich "sehen besser aus"?
Habe ich doch geschrieben: Weniger Fluktuationen der Frametimes (rein subjektiv betrachtet, keine objektive Messung). Wenn man einige Reviews querliest sind die 0.1% Percentiles oft recht gut / nahe an der average Framerate. Würde diese These stützen.

aufkrawall
2020-12-08, 22:03:35
Digital Foundry blendet doch immer die Frametime Graphen rechts unten im Bild ein ;)

Ja, da fällt mir das aber nicht auf. Ich find die Glättung auch unglücklich.

basix
2020-12-08, 22:07:28
Ja, da fällt mir das aber nicht auf. Ich find die Glättung auch unglücklich.

TPU hat sehr gute Frametime Analysen inkl. Histogramm: Dort sieht man das angesprochene Verhalten sehr gut. Es ist nicht in jedem Spiel der Fall. Aber RDNA2 ist eigentlich immer sehr gut und Ampere hat je nach Spiel etwas Probleme.
https://www.techpowerup.com/review/amd-radeon-rx-6900-xt/39.html

Ex3cut3r
2020-12-08, 22:10:15
Hmm nach deinen Link ist eigentlich fast immer das gleiche. Wenn es ein Spiel spikt, spiken beide sogar an der gleichen Stelle. Außer Tomb Raider ganz unten sehe ich keine großen Vorteil.

basix
2020-12-08, 22:16:10
Es geht nicht unbedingt um die Spikes, die kommen primär von der CPU oder der Engine. Es geht um die Varianz. Sieh dir Metro Exodus oder Battlefield 5 an und sag mir nicht, dass du hier keinen Unterschied siehst ;) Beim Histogram ist jeweils sogar der IQR angegeben (interquartile range). Wenn dieser im Verhältnis zu Average Framerate kleiner ist = Geringere Fluktuationen der Frametimes. Und dort ist RDNA2 eigentlich nirgends schlechter als Ampere und in den zwei oben genannten Spielen sogar massiv besser.

Taigatrommel
2020-12-08, 22:18:15
Das scheint einfach eine verloren Aufholjagd zu sein. Da reden wir noch nicht mal von DLSS welches in "absehbarer Zeit" gegen einen AMD Pendant antreten soll. Wer die letzten Jahre über die Preisentwicklungen von Highend Nvidia her gelästert hat vergisst dass die Karten in dieser Preisklasse auch deutliche Vorteile für Content Creation hatten.
Was soll AMD sonst machen? Man kann natürlich auch die Radeon-Sparte einfach einstampfen bzw. so stark kastrieren, dass nur noch ein bestimmter Markt bedient wird. Effektiv sieht es so aus, dass AMD über die letzten Jahre der einzige Konkurrent war, welcher nVidia zumindest etwas irgendwo in Schach halten konnte. Für die gesamte Käuferschaft war das positiv, Dinge wie endlich mal 8GB Grafikspeicher in die 300-400 Euro Klasse zu bringen gab es bei nVidia ja offenbar auch nur durch den Druck von AMD. Die "gepimpten" Ampere Varianten mit mehr Speicher wird es auch nur aufgrund des Drucks geben, der nun tatsächlich durch RDNA2 entsteht. Nicht zuletzt gehe ich nach wie vor ganz stark davon aus, dass das attraktive P/L-Verhältnis von Ampere vor allem ebenfalls dem möglichen Druck durch die neuen Radeon Karten entstanden ist. Wäre nVidia hier konkurrenzlos, so hätten die Preise deutlich anders ausgesehen, bzw. ich hätte mich auch nicht über eine 6GB 3060 gewundert.

Das Preise und Verfügbarkeit nun aktuell komplett anders aussehen, steht auf einem anderen Blatt. Klar, die Raytracingperformance ist nicht gerade toll, effektiv liegt man hier auf dem Niveau der Vorgängergeneration, andererseits ist Raytracing ohnehin effektiv nur mit DLSS möglich, da hat AMD natürlich noch gar keinen Gegenpart, das schlägt IMHO eigentlich noch gravierender zu. Dann gibt es noch Leute wie mich, die an DLSS quasi gar kein Interesse haben und lieber auf Raytracing verzichten, für diese Sparte bietet RDNA2 meiner Meinung nach ein durchweg stimmiges Gesamtpaket.

Ex3cut3r
2020-12-09, 00:32:43
Es geht nicht unbedingt um die Spikes, die kommen primär von der CPU oder der Engine. Es geht um die Varianz. Sieh dir Metro Exodus oder Battlefield 5 an und sag mir nicht, dass du hier keinen Unterschied siehst ;) Beim Histogram ist jeweils sogar der IQR angegeben (interquartile range). Wenn dieser im Verhältnis zu Average Framerate kleiner ist = Geringere Fluktuationen der Frametimes. Und dort ist RDNA2 eigentlich nirgends schlechter als Ampere und in den zwei oben genannten Spielen sogar massiv besser.

Hmm ok, das stimmt. Allerdings zocke ich selber BF5 mit einer Turing GPU, und das läuft mit DX11 absolut sauber. Der DX12 Pfad war schon immer fehlerhaft, von daher Wayne.

BlacKi
2020-12-09, 00:41:45
Faszinierend ist, dass die 68/900 in bestimmten AMD Titeln abgehen wie Schmitz Katze und in anderen eher langsam sind. Ist wieder typisch AMD.wenn man die behauptung rumdreht ist sie genauso richtig:biggrin:

Robot
2020-12-09, 00:43:11
Ich würde gerne mal einen Blindtest sehen zwischen der 3090 ud 3900, ich wette da merkt keiner groß den Unterschied! Die sind viel zu dicht zusammen. Hat das mal irgendwo irgendwer gemacht? Verstehe gar nicht wieso die Marketing Abteilung von AMD das nicht mal macht.

Finde die 3900 ist ne super karte (auch wenn der Preis hoch ist), die 3090 ist völlig überteuert für die Leistung, daher untinterssant.


wenn man die behauptung rumdreht ist sie genauso richtig:biggrin:

100%, früher viel das nur nicht so auf weil fast alles auf Nvidia optimiert war. Jetzt wird es immer mehr AMD.

BlacKi
2020-12-09, 00:49:03
der punkt der für die 3090 spricht ist eben, das die 6900xt 2022 im preis gut droppen wird und die 3090 nv typisch kaum. erst mit der next gen bzw. vorstellung der neuen karten.

ich tippe das die 3090 vor dem erscheinen der next gen nur genauso oder gar weniger an wert verliert als die amd karten.

daher ist das P/L entweder gleich gut oder gar besser. just saying. imho.

Robot
2020-12-09, 02:05:07
ich tippe das die 3090 vor dem erscheinen der next gen nur genauso oder gar weniger an wert verliert als die amd karten.


Ich denke nicht das das dieses mal passieren wird, denn das war früher nur so weil die Abstände zu AMD so groß waren.

Wenn die 3900 sagen wir auf 700€ fallen sollte, dann ist die 3090 auch dementsprechend weniger wert. auf dauer wird da keiner 1500€ hin legen, die Enthusiasten, die das machen sind irgendwann weg. und der normalo zahlt nicht das doppelt für ein paar % mehr Leistung.

BlacKi
2020-12-09, 02:28:04
Ich denke nicht das das dieses mal passieren wird, denn das war früher nur so weil die Abstände zu AMD so groß waren.

Wenn die 3900 sagen wir auf 700€ fallen sollte, dann ist die 3090 auch dementsprechend weniger wert. auf dauer wird da keiner 1500€ hin legen, die Enthusiasten, die das machen sind irgendwann weg. und der normalo zahlt nicht das doppelt für ein paar % mehr Leistung. zeige mir ein beispiel in der vergangenheit? die 5700xt konnte mit wasserkühler und OC oft mit einer 2080 mithalten die das grob doppelte kostete. die 2080 ist kaum billiger geworden, stattdessen kam eine günstigere 2070s. der preis der 2080 blieb erhalten. das galt und gilt trotzdem oder gar erst recht für das topmodel der 3000er serie. da ändert amd nichts dran, erst recht nicht mit kleinerem speicher und langsamerer hardware.

GerryB
2020-12-09, 03:48:46
Der größte Vorteil von RDNA2 ist Perf/W.

Man kann zugunsten der 3080 das Ganze mit 270W anschauen wie bei CB (x) oder man kann auch einfach die 6900 mit PL+10% laufen lassen.

(x) bei 270W ist die 3080 eher am Sweetspot
D2 ist seit Patch XYZ sehr dunkelgrün, daher mal net mit ausgewählt. Control dito
Wieso CB so einen Quark wie Trackmania im Parcour hat, who knows.
Mit mehr nextGen-Games sieht das Ganze sicher noch Anders aus.

Wie N21 mit den W skaliert wird man erst bei Usern sehen, die auch mal den Takt anpassen.
In der Hinsicht ist der PortRoyal-Test von GN schon besser mit veränderter Kurve V/Takt.(bringt 9% für RT)
Ob die Skalierung für Raster besser ist muss man abwarten.


Der analoge Vgl. zur 3090@370W wird erst möglich sein mit den 6900-Customs. Wobei ich denke, das >390W (AsRock) die 6900 kaum noch profitieren wird. So ein 500W-Monster wie die 3090 ist der Chip net.
Die 3090 skaliert halt auch noch >400W.(für Enthusiasten ideal)
(mal ein paar W@V-Werte aus dem LUXX-Thread; Faustregel 125mV mehr= 20x6,25mV bringt 20x15=300MHz Taktgewinn)

Dural
2020-12-09, 10:02:29
RDNA2 hat gar keine Perf/W Vorteile, Ampere und RDNA2 liegen so ziemlich gleich auf, Ampere liegt sogar leicht darüber und das mit 7nm vs 8nm (10nm) und die 3090 hat dazu noch 24GB GDDR6X Speicher wo man genau weiss das der ziemlich viel zieht.

Bei gleichem Verbrauch liefert die GeForce RTX 3090 mit hauchdünnem FPS-Vorsprung am meisten FPS pro Watt und liegt dann geringe 2 Prozent vor der Radeon RX 6900 XT

https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/4/

Aktuell dürfte der GA104 Chip sogar der effizienteste auf dem Markt sein.

dargo
2020-12-09, 10:15:32
Schön, dass du immer noch nicht kapiert hast wovon die Perf/W abhängig ist.
https://youtu.be/nxQ0-QtAtxA?t=713

bnoob
2020-12-09, 10:58:49
edit: falscher Thread

davidzo
2020-12-09, 11:05:24
RDNA2 hat gar keine Perf/W Vorteile, Ampere und RDNA2 liegen so ziemlich gleich auf, Ampere liegt sogar leicht darüber und das mit 7nm vs 8nm (10nm) und die 3090 hat dazu noch 24GB GDDR6X Speicher wo man genau weiss das der ziemlich viel zieht.



https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/4/

Aktuell dürfte der GA104 Chip sogar der effizienteste auf dem Markt sein.

Nvidia hat AMD da in letzter Minute noch ein Schnippchen geschlagen.
AMD hat damit gerechnet dass Nvidia Ampere auf 2080TI Level bringt, also 270Watt und genau da ist auch der Sweetspot von Navi21 und Ampere.

Wenn die Karten so heraus gekommen wären hätte AMD vermutlich knapp bei Leistung und Effizienz gewonnen.

Nvidia hat den braten aber gerochen (im wahrsten Sinne des Wortes als man jensen am backofen gesehen hat) und wie Lars Weinand von Nvidia schon dargelegt hat, spezielle Anpassungen für GA102 am Prozess zusammen mit Samsung vorgenommen, um die Skalierbarkeit zu verbessern. GA102 kann auch mit höheren Voltages betrieben werden und setzt diese auch noch einigermaßen in Takt um.
Das verschlechtert die Energieeffizienz von GA102 zwar drastisch, aber das Leistungsniveau ist eben auch gute 10% höher. Wenn man die boards dann auch per default schon an der Kotzgrenze betreibt hängt man AMD so knapp aber messbar ab.
An GA104 sieht man eher wie Ampere wohl eigentlich geplant war.

AMD hat diese Prozessänderung nicht gemacht oder machen können, weil man es nicht wollte, aus zeitlichen gründen oder weil der TSMC Prozess sowas einfach nicht her gibt. Daher hat AMD als Reaktion auf Ampere lediglich die Boardpower um 10% angehoben. Und das Skaliert eben viel schlecher bei Navi21. Auf 270W ist die 6900xt nur 3% langsamer, die 6800xt sogar nur 1%.

Für AMD wäre es also besser gewesen die Karten bei 270Watt TDP zu launchen, dann hätte man die klare Effizienzführung übernommen. Allerdings wäre dann die 6900xt kaum vor der 3080 und die 6800xt klar unterhalb dieser herausgekommen. Nvidia hatte einfach noch zuviel Vorlauf mit GA102 und gute Intuition bzw. Maulwürfe und hat dann alles richtig gemacht um AMD den Launch einer auf dem Papier überlegenen Rasterizer-Architektur zu vermiesen.
AMD hat nvidias Spiel wohl oder übel mitspielen müssen, zum Nachteil der Umwelt und der Kunden...



Bei Navi22 kann ich mir übrigens vorstellen dass die Strategien genau umgedreht werden. Bei nvidia ist traditionell der Performance chip (=GA104) der effizienteste. AMD hat eher die Tradition die Performanceklasse auf möglichst viele Features bei geringen Kosten zu optimieren, mit Power draw egal.
Das kann man gut bei der rx480 sehen, wo man einfache aber nicht besonders effiziente VRMs nimmt um einen relativ großen chip mit mehr RAM zum Preis einer effizienteren GTX1060 gebracht hat. Die 5500xt ist anders auf Kosten optimiert, hat aber auch den höchsten baseclock der RDNA1 Serie...
Ich kann mir gut vorstellen dass AMD Navi22 einfach pur auf Taktbarkeit und Leistung pro Fläche ausgelegt hat und die Energieeffinzienz dabei etwas verloren geht. Also ein reiner Desktopchip für die Masse an Gamern, die Cashcow für AMD in diesem Lineup. Die DIEgröße ist ja auch mit 40CUs schon gar nicht so gering, noch größer bzw, mehr CUs wäre für die Masse zu teuer gewesen. Wenn man aber mit so einem Chip bei hohem Takt sowohl mit GA104 als auch als salvage GA106 konkurrieren kann, dann hat sich das gelohnt.

soLofox
2020-12-09, 11:36:14
Falls hier jemand eine 6900 XT ergattern konnte, könnte er bitte das BIOS hochladen und teilen? :)

Danke.

Raff
2020-12-09, 13:52:43
Radeon RX 6900 XT vs. Geforce RTX 3090: 10 neue Spiele in WQHD, Ultra HD und 5K getestet (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Specials/RX-6900-XT-oder-RX-6800-XT-OC-Vergleich-mit-RTX-3090-1363216/)

Aktuell, anspruchsvoll, anheizend - einfach Triple-A! :biggrin:

MfG
Raff

Langlay
2020-12-09, 13:56:19
Radeon RX 6900 XT vs. Geforce RTX 3090: 10 neue Spiele in WQHD, Ultra HD und 5K getestet (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Specials/RX-6900-XT-oder-RX-6800-XT-OC-Vergleich-mit-RTX-3090-1363216/)

Aktuell, anspruchsvoll, anheizend - einfach Triple-A! :biggrin:

MfG
Raff


Um die Funktion zu nutzen, ist ein Ryzen-5000-Prozessor mit X570- oder B550-Hub notwendig. Alle anderen Plattformen sind (derzeit) nicht kompatibel.

https://www.heise.de/news/CPU-Zugriff-auf-Grafikspeicher-Asus-schaltet-AMDs-SAM-fuer-Intel-frei-4976837.html

Guten Morgen.

aufkrawall
2020-12-09, 13:58:13
Mensch, in SS4 hat die 3090 wohl eine 4k-Schwäche? :ulol:

Raff
2020-12-09, 13:59:34
https://www.heise.de/news/CPU-Zugriff-auf-Grafikspeicher-Asus-schaltet-AMDs-SAM-fuer-Intel-frei-4976837.html

Guten Morgen.

Das läuft solange unter der Bezeichnung "Hack", bis das offiziell von Intel freigegeben wird. AMD betonte erneut, dass es mit den UEFI-Settings nicht getan ist, sondern es auch Treiber-Liebe braucht. Ob Letztere 1:1 bei Intel-Plattformen ankommt, müsste man sich mal ansehen. Freiwillige vor! ;)

MfG
Raff

Ex3cut3r
2020-12-09, 14:01:14
Das ist krass. :D

https://abload.de/img/unbenanntchkqy.png

Lurtz
2020-12-09, 14:26:53
Das müssen diese Performance-Probleme in einzelnen Spielen sein, von denen man bei AMD immer hört :ulol:

JVC
2020-12-09, 14:28:51
Radeon RX 6900 XT vs. Geforce RTX 3090: 10 neue Spiele in WQHD, Ultra HD und 5K getestet (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Specials/RX-6900-XT-oder-RX-6800-XT-OC-Vergleich-mit-RTX-3090-1363216/)

Aktuell, anspruchsvoll, anheizend - einfach Triple-A! :biggrin:

MfG
Raff
:up:

Fehlt nur noch ein UV/OC Test ;)

M.f.G. JVC

GerryB
2020-12-09, 15:35:24
Wer stellt in 4k bitteschön 8xMSAA ein?
(oder hat RDNA2 da ein Bottleneck)

Zeitgemäß wäre MSAA=off und dafür 150...200% Resolution-->Downsampling.

dargo
2020-12-09, 16:34:24
Das ist krass. :D

https://abload.de/img/unbenanntchkqy.png
Ich finde das noch viel krasser.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12529002&postcount=819

btw.
Welche kranke Stelle im Spiel soll das hier genau sein?
72798

Mich wundern die niedrigen Frames beider Karten in 1440p sehr denn diese Frameraten habe ich eher mit meiner RX 5700XT mit fast max. Settings. Gibt es irgendwo ein Video der Testszene? :)

Ex3cut3r
2020-12-09, 16:48:11
Hier kannst du die jedenfalls das Savegame für den Bench laden.

https://download.pcgameshardware.de/asset/binaries/2020/08/Horizon_Zero_Dawn_PCGH_Benchmark_Savegames.zip

Bzw hier: https://www.pcgameshardware.de/Horizon-Zero-Dawn-Spiel-55719/Tests/Horizon-Zero-Dawn-PC-Test-Review-Benchmarks-1355296/2/

Du darfst nicht vergessen, wir zocken doch mit DF Settings. PCGH bencht mit Max.

basix
2020-12-09, 17:47:16
RDNA2 hat gar keine Perf/W Vorteile, Ampere und RDNA2 liegen so ziemlich gleich auf, Ampere liegt sogar leicht darüber und das mit 7nm vs 8nm (10nm) und die 3090 hat dazu noch 24GB GDDR6X Speicher wo man genau weiss das der ziemlich viel zieht.



https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/4/

Aktuell dürfte der GA104 Chip sogar der effizienteste auf dem Markt sein.

Jop, manchmal ist eher RDNA2 oder Ampere vorn. Bei CBs Spezialtest mit "neuesten" Spielen ist aber RDNA eindeutig vorn. Unter RT ist Nvidia wieder vorn. Unterm Strich ist wohl Gleichstand am treffendsten.

Aber:
Dem Anwender ist egal ob TSMC 7nm oder Samsung 8nm. Perf/W ist entscheidend. Speichertyp ist auch egal, die 3070 dreht keine Kreise um RDNA2 bezüglich Effizienz. DLSS und noch nicht vorhandenes FidelityFX Super Resolution mal aussen vor, da letzteres ja kommen wird. All diese Daten interessieren primär nur AMD und Nvidia um ihre Konkurrenzfähigkeit für die Zukunft abschätzen zu können sowie uns Geeks hier, weil wir uns dafür interessieren ;)

dargo
2020-12-09, 18:00:40
@Ex3cut3r

Die DF-Settings nutze ich schon länger nicht. ;) Seit paar Patches ist einiges günstiger geworden. Bei mir sind nur noch Schatten @high und SSR @medium. Rest max. ohne MB. Ein Video der Benchszene wäre trotzdem ganz hilfreich. Savegame brauche ich nicht, kann überall hinreisen.

[MK2]Mythos
2020-12-09, 18:04:01
RX 6900XT unter Wasser @2,7 Ghz.

_XT5_--fy14

Birdman
2020-12-09, 19:17:04
Wer stellt in 4k bitteschön 8xMSAA ein?
In WoW auf jedenfall, kostet kaum Leistung.

Jupiter
2020-12-09, 21:00:16
https://youtu.be/OnjqUTiNtjw

Der Unterschied bei Control ist groß. Bei Last Gen-Grafik, d. h. ohne Raytracing, schneidet die RX 6900 XT gut ab. Bei der aktuellen Grafik, also mit Raytracing, ist sie dagegen nicht mehr so überzeugend. Richard Leadbetter klang nicht beeindruckt.

SKYNET
2020-12-09, 21:26:51
Die Beleuchtung lässt sich per Schalter deaktivieren, ohne Software.


ich sprach nicht von dem design der ganzen karte, das ist mir ziemlich wumpe, sondern vom PCB layout, das sieht mir ein wenig hilflos aus, da will ich genaue tests sehen, ob die 3x 8-pin halten was sie versprechen, wenn das PCB und deren bestückung grütze ist, kommt am ende weniger bei raus, als nen gutes layout mit nur 2x 8-pin ;)

SKYNET
2020-12-09, 21:29:30
Faszinierend ist höchstens deine grüne Brille. Denn das gleiche Argument muss dann zwangsläufig auch für Nvidia gelten. ;D

freu mich wenn CB nächstes frühjahr die speile im benchpacours wieder aktualisiert... dann dürfte AMD -wenn RT nicht gefixt wird- ausser in RT überall selbst mit der 6800XT vor der 3090 liegen... bittere pille für NV, ne 700€ karte plättet ne 1500€ karte ;D kommt mir so vertraut vor... aus der vergangenheit... :cool:

GerryB
2020-12-10, 14:16:16
Wer 1800p oder TrixxBoost@85% nutzt sollte gut klarkommen in CP: ist ne 6800xt OCed
https://www.youtube.com/watch?v=FsaezueVjvc

oder CAS nutzen für 4k

Mit SAM in 1440p siehts auch net schlecht aus:
(btw. RT frisst CPU-Leistung ohne Ende; nur gut das N21 net mit RT geht)

Robot
2020-12-11, 00:42:40
freu mich wenn CB nächstes frühjahr die speile im benchpacours wieder aktualisiert... dann dürfte AMD -wenn RT nicht gefixt wird- ausser in RT überall selbst mit der 6800XT vor der 3090 liegen... bittere pille für NV, ne 700€ karte plättet ne 1500€ karte ;D kommt mir so vertraut vor... aus der vergangenheit... :cool:

Eigene Medizin schlucken nennt man das... bin auch gespannt wie sie dagegen arbeiten werden. Früher hat man nur ständig Geforce in der Intro gehabt, jetzt nur noch Radeon und Ryzen.

Aber man sollte Nvidia da auch nicht unterschätzen, denke mal Nvidia wird dann wieder ein neues "Partner Programm" auflegen für die Game Developer mit viel Moneten ...

dildo4u
2020-12-11, 09:27:06
Red Devil 6900XT bietet 3x8 Pin Stromversorgung.

https://www.powercolor.com/new?id=1607589679

GerryB
2020-12-11, 10:38:54
Wer Keinen Custom-Loop hat: die 6900 kommt auch als Strixx-LC
https://www.techpowerup.com/275815/asus-rog-strix-lc-radeon-rx-6900-xt-unveiled

Die GB kommt auch mit 3x 8pin.
https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/News/Gigabyte-Gaming-OC-Custom-Modell-gesichtet-1363436/

Mal schauen, wie so die Preise der einzelnen Modelle ausfallen, und ob sich >370W überhaupt lohnt.

Robot
2020-12-11, 15:24:04
freu mich wenn CB nächstes frühjahr die speile im benchpacours wieder aktualisiert... dann dürfte AMD -wenn RT nicht gefixt wird- ausser in RT überall selbst mit der 6800XT vor der 3090 liegen... bittere pille für NV, ne 700€ karte plättet ne 1500€ karte ;D kommt mir so vertraut vor... aus der vergangenheit... :cool:

Als Nachtrag, hier ist deine Antwort darauf:

https://mobile.twitter.com/HardwareUnboxed/status/1337248420671545344

Wer nicht die richtigen Benchmarks nimmt, fliegt einfach raus.

Sehr sehr lustig, ich amüsiere mich da schön drüber weil Sie das in der Art bei mir vor Jahren schon gemacht hatten, weil ich zu viele "alte" Benchmarks in meinem Parcours hatte und nicht die neuen hoch optimierten Nvidia Teile genommen hatte, waren plötzlich nie Samples verfügbar. Das sie das jetzt sogar offen kommunizieren, zeigt nur wie dreist die geworden sind.

Man kann den Laden dann übrigens dicht machen, weil Nvidia alle Samples zum Launch auch von den Partnern kontrolliert. Der Aufwand da noch am Ball zu bleiben steigt ins unermessliche. Partnerkarten kann man nicht mehr zeigen, selbst wenn man sie bekommen sollte, weil der Partner dann Ärger bekommt. Und weil man sie nicht zeigen kann, bringt es dem Partner ja auch nichts.

r3ptil3
2020-12-11, 15:34:13
Von den SAM Benchmarks würde ich mich noch nicht zu sehr "täuschen" lassen.
Definitiv ein Vorteil für AMD, keine Frage, aber interessant wird ein Vergleich, wenn Nvidia dies ebenfalls bald anbieten kann.

Gerade im CPU-Limit wird man wohl mit einer/m 3090/Ryzen 59xx ein erhebliches Leistungsplus einfahren können.

dargo
2020-12-11, 16:11:45
Red Devil 6900XT bietet 3x8 Pin Stromversorgung.

https://www.powercolor.com/new?id=1607589679
Falsche Bilder oder falscher Text?

SKYNET
2020-12-12, 02:31:32
Als Nachtrag, hier ist deine Antwort darauf:

https://mobile.twitter.com/HardwareUnboxed/status/1337248420671545344

Wer nicht die richtigen Benchmarks nimmt, fliegt einfach raus.

Sehr sehr lustig, ich amüsiere mich da schön drüber weil Sie das in der Art bei mir vor Jahren schon gemacht hatten, weil ich zu viele "alte" Benchmarks in meinem Parcours hatte und nicht die neuen hoch optimierten Nvidia Teile genommen hatte, waren plötzlich nie Samples verfügbar. Das sie das jetzt sogar offen kommunizieren, zeigt nur wie dreist die geworden sind.

Man kann den Laden dann übrigens dicht machen, weil Nvidia alle Samples zum Launch auch von den Partnern kontrolliert. Der Aufwand da noch am Ball zu bleiben steigt ins unermessliche. Partnerkarten kann man nicht mehr zeigen, selbst wenn man sie bekommen sollte, weil der Partner dann Ärger bekommt. Und weil man sie nicht zeigen kann, bringt es dem Partner ja auch nichts.

hatte es schon gesehen... NV ist mehr als armseelig inzwischen, nur noch nen peinlicher verein :mad:

hq-hq
2020-12-12, 02:43:34
ha, ja wie Intel... mein Gott unsere Shareholder! Schnell holt den Knüppel aus dem Sack!
Seid ihnen nicht zu böse, es geht schließlich ums Geld und eine offene Kommunikation ist besser als eine (geheime) schwarze Liste :biggrin:

dargo
2020-12-12, 10:04:16
hatte es schon gesehen... NV ist mehr als armseelig inzwischen, nur noch nen peinlicher verein :mad:
Typisch Nvidia halt, gleich nach Intel. Wenn die Konkurrenz zu stark wird werden manche Reviewer unbequem.

Tarkin
2020-12-12, 10:09:47
nVidia ist schon immer so gewesen. GPU Mafia.

Darum haben die seit 20 Jahren keine Kohle mehr von mir bekommen.

Ditto Intel.

dargo
2020-12-12, 10:12:50
Hehe... könnte von mir kommen. :tongue: Bei mir sind es aber keine 20 Jahre. Hatte etwas länger gebraucht bis ich die Machenschaften bei der Unternehmenspolitik von Nvidia/Intel verstanden habe. :redface:

SKYNET
2020-12-12, 10:45:06
nVidia ist schon immer so gewesen. GPU Mafia.

Darum haben die seit 20 Jahren keine Kohle mehr von mir bekommen.

Ditto Intel.

zu pascal zeiten gabs leider keine alternative... zum glück war turing zu schwach als das ich hätte umsatteln müssen/wollen(2080Ti +/- 20% auf meine getaktete 1080Ti), und jetzt hat man endlich wieder ne alternative... rechner wird also wieder dunkelrot werden demnächst :cool:

Wiseman
2020-12-12, 11:23:59
nVidia ist schon immer so gewesen. GPU Mafia.

Darum haben die seit 20 Jahren keine Kohle mehr von mir bekommen.

Ditto Intel.

+1

Darum kaufe ich aus Prinzip keine Grafikkarten von nVidia.

[MK2]Mythos
2020-12-12, 13:22:34
Ich gucke LTT selten, aber das habe ich mir heute Nacht noch reingezogen, er trifft den Nagel IMO zu 1000% auf den Kopf und hated hart gegen nvidia. Ziemlich sehenswert.

iXn9O-Rzb_M

horn 12
2020-12-12, 13:23:40
Seid eh und Je, In Wirklichkeit nun nicht ganz zwar, Aber eingefleischter AMD Verfechter
und seit 4850 hatte ich so Jede Generation im Rechner, Top Modell oder auch die Kleine Schwester!

Linmoum
2020-12-12, 13:31:03
Irgendjemand schon 'nen Waküblock bestellt und wenn ja welchen?

Will ja eigentlich unbedingt auf WC bzw. AC warten, aber wer weiß, wie lange die (wieder) brauchen.

Edit: Jetzt wollte ich übergangsweise einen EK holen und trotz sofortiger Verfügbarkeit ist das Lieferdatum mit Ende Dezember angegeben. :rolleyes: Kann ich auch gleich auf Watercool warten.

Robot
2020-12-13, 01:09:12
Ich hab eine 6900XT ergattert und bin jetzt nen 1000er ärmer. YES ;)
Ich glaub ich mach aus Spaß einen lustigen Review dazu.

Titel: AMD 6900 XT vs. GeForce 3080 - OHNE RTX und DLSS ;D

SKYNET
2020-12-13, 01:12:26
Ich hab eine 6900XT ergattert und bin jetzt nen 1000er ärmer. YES ;)
Ich glaub ich mach aus Spaß einen lustigen Review dazu.

Titel: AMD 6900 XT vs. GeForce 3080 - OHNE RTX und DLSS ;D


am besten nur titel die den AMD karten liegen, und die 3080 in 4k gnadenlos gebügelt wird... ;D

Langlay
2020-12-13, 01:19:38
Irgendjemand schon 'nen Waküblock bestellt und wenn ja welchen?

Will ja eigentlich unbedingt auf WC bzw. AC warten, aber wer weiß, wie lange die (wieder) brauchen.

Edit: Jetzt wollte ich übergangsweise einen EK holen und trotz sofortiger Verfügbarkeit ist das Lieferdatum mit Ende Dezember angegeben. :rolleyes: Kann ich auch gleich auf Watercool warten.

Ich krieg am Freitag ne 6900XT, ich wollte eigentlich den Alphacool Block oder der Aquacomputerblock. Aber ich werd die 6900XT wohl erstmal mit Luftkühler einbauen und dann warten bis es einen Block von Aquacomputer gibt.

Die 3090 mit dem Alphacoolblock zieht dann auch nimmer wiedersehen aus, hab wohl auch schon einen Käufer dafür.

Robot
2020-12-13, 01:25:17
am besten nur titel die den AMD karten liegen, und die 3080 in 4k gnadenlos gebügelt wird... ;D

Hat einer ne Liste? ;D

JVC
2020-12-13, 09:14:56
Ich hab eine 6900XT ergattert und bin jetzt nen 1000er ärmer. YES ;)
Ich glaub ich mach aus Spaß einen lustigen Review dazu.

Titel: AMD 6900 XT vs. GeForce 3080 - OHNE RTX und DLSS ;D
Grz :up:

Wenn ich ne 6900XT unter 1K erwische, gönn ich das AMD und Mir ;)
Sonnst wird es irgendeine 6800XT Extrem OC irgendwas...
(gekauft wird voraussichtlich eh erst im Februar)

Eine 3080Ti 20Gb wäre vielleicht auch noch im Rennen... als Notlösung ^^

M.f.G. JVC

Linmoum
2020-12-13, 10:01:51
Ich krieg am Freitag ne 6900XT, ich wollte eigentlich den Alphacool Block oder der Aquacomputerblock. Aber ich werd die 6900XT wohl erstmal mit Luftkühler einbauen und dann warten bis es einen Block von Aquacomputer gibt.

Die 3090 mit dem Alphacoolblock zieht dann auch nimmer wiedersehen aus, hab wohl auch schon einen Käufer dafür.Luftkühler bei dem bekannten Tempo von Watercool und Aqua Computer halt ich aber nicht monatelang aus, zumal sich meine beiden Mo-Ra dann langweilen. :D

Ich hab jetzt den EK übergangsweise genommen, allerdings "nackt" ohne Backplate. Wenn der Heatkiller dann irgendwann im Februar mal verfügbar ist, wird noch mal umgebaut und dann ist Ruhe.

SKYNET
2020-12-13, 11:07:21
Grz :up:

Wenn ich ne 6900XT unter 1K erwische, gönn ich das AMD und Mir ;)
Sonnst wird es irgendeine 6800XT Extrem OC irgendwas...
(gekauft wird voraussichtlich eh erst im Februar)

Eine 3080Ti 20Gb wäre vielleicht auch noch im Rennen... als Notlösung ^^

M.f.G. JVC

bis februar dürfte sich die lage entspannen, jetzt kommen vorallendingen noch die ganzen xmas käufe dazu... rechne bei mir auch nicht vor ende januar/februar mit nem major upgrade :frown:

Raff
2020-12-13, 11:12:59
Hat einer ne Liste? ;D

In 4K steht die Radeon generell schlechter da. Wenn du "verbügeln" willst, dann Full- und WQHD in diesen Spielen (u. a.), am besten mit SAM:

Assassin's Creed Valhalla
Battlefield 5
Star Wars Squadrons

... da hört's aber fast schon auf.

MfG
Raff

dargo
2020-12-13, 11:18:31
Hat einer ne Liste? ;D
Kannst dich bei HU orientieren. ;)

In 4K steht die Radeon generell schlechter da. Wenn du "verbügeln" willst, dann Full- und WQHD in diesen Spielen (u. a.), am besten mit SAM:

Assassin's Creed Valhalla
Battlefield 5
Star Wars Squadrons

... da hört's aber fast schon auf.

MfG
Raff
Was? ;D

nxQ0-QtAtxA ZtxrrrkkTjc

Death Stranding, Watch Dogs, Doom Ethernal, Godfall, Gears 5, F1 2020 etc. bestimmt noch einige vergessen. Und am besten @1440p.

dargo
2020-12-13, 11:26:08
dp

Langlay
2020-12-13, 15:59:29
Luftkühler bei dem bekannten Tempo von Watercool und Aqua Computer halt ich aber nicht monatelang aus, zumal sich meine beiden Mo-Ra dann langweilen. :D

Ich hab jetzt den EK übergangsweise genommen, allerdings "nackt" ohne Backplate. Wenn der Heatkiller dann irgendwann im Februar mal verfügbar ist, wird noch mal umgebaut und dann ist Ruhe.

Ja, ich versteh das Problem. Aber der Alphacool soll auch erst wieder in 3 Wochen verfügbar sein. Und naja in EK hab ich einen Feindbild, die sind für mich alles nur kein qualitativer Hersteller. Erstmal ist die Kupferplatte meist nur halb so dick, wie bei allen anderen. Und die CNC-Fräsungen sehen auch manchmal aus wie aus Russland 1943. Also die Fräswerkzeuge sind dann schon ordentlich verschließen und hat hast halt richtig grobe Werkzeugspuren.

Und dafür dann noch das meiste Geld ausgeben. Ne Danke da warte ich lieber.

Raff
2020-12-13, 16:33:26
Kannst dich bei HU orientieren. ;)

Was? ;D

https://youtu.be/nxQ0-QtAtxA https://youtu.be/ZtxrrrkkTjc

Death Stranding, Watch Dogs, Doom Ethernal, Godfall, Gears 5, F1 2020 etc. bestimmt noch einige vergessen. Und am besten @1440p.

Das ist kein Bügeln, sondern ein "Gewinn, aber keine Vernichtung". ;)

MfG
Raff

dargo
2020-12-13, 16:35:25
Oh... wenn du wüsstet. Im 3DC-Forum heißt es oftmals schon bei +/-3% "The Killer". ;D ;D ;D

Raff
2020-12-13, 16:38:15
Sad but true. ;)

MfG
Raff

Robot
2020-12-14, 03:52:32
Ich könnte auch auf jede Menge alte Titel zurückgreifen ^^ Das mag Mr. Green besonders gern ;)
Sonst nehme ich halt die 3070 und nicht die 3080. Gerade festgestellt, das mein Konto auch leer ist, und ich nur noch die 3070 da hab und die 3080 verkaufen musste ;) 1440p sowieso, 4K ist wie RTX, hat einfach keine Verbreitung daher nicht wichtig.

Der neue Titel wird also:

Titel: AMD 6900 XT vs. GeForce 3070 - OHNE RTX und DLSS

Fazit: AMD 6900 XT die mit Abstand schnellste Karte, SEO KEYWORD, SEO KEYWORD ....
die wir uns leisten können ;D

Und ganz abgesehen davon die 3080 muss auch 10% schneller sein als die 6900XT, weil die wird - gerade ebay geschaut - für 1099 € verkauft, also 100€ mehr. ;) LOL, ist das alles absurd gerade mit den Preisen.

Langlay
2020-12-14, 19:47:55
So meine 6900XT ist heute angekommen, die 3090 ist ausgezogen und wird morgen an den neuen Besitzer verschickt.

Ick freu mich, bin zurück in TeamRed.

Bin aktuell noch mit dem Luftkühler unterwegs, bis ein Wasserkühler verfügbar ist der nicht von EK statt. Muss ich jetzt erstmal in UV/OC einlesen, funzt doch scheinbar etwas anders als bei der Radeon VII.

aufkrawall
2020-12-14, 20:02:06
Hm, wie meinen? Takt und Spannung einstellen -> läuft. :uconf2:
Ich seh da zumindest beim 6800 Referenzdesign nichts, was man sonst irgendwie beachten müsste.

Langlay
2020-12-14, 20:12:29
Hm, wie meinen? Takt und Spannung einstellen -> läuft. :uconf2:
Ich seh da zumindest beim 6800 Referenzdesign nichts, was man sonst irgendwie beachten müsste.

Funzt aber trotzdem irgendwie komisch. Ich hatte nur die Spannung geändern und ich hab trotzdem teilweise grössere Spannungen gesehen als eingestellt :confused:

aufkrawall
2020-12-14, 20:17:50
Aber nimmt denn der Verbrauch nicht ganz wie zu erwarten ab, wenn du die Spannung reduzierst?

Langlay
2020-12-14, 20:24:50
Aber nimmt denn der Verbrauch nicht ganz wie zu erwarten ab, wenn du die Spannung reduzierst?

War immer Power limitiert, allerdings hat der Takt zugenommen.

gbm31
2020-12-14, 20:26:11
Nein, weil du mit dem Slider im Wattman bei den 6000ern nicht die Maximalspannung, sondern den Punkt in der Mitte der Kurve, die es bei der VII gab, änderst.

Die Maximalspannung kannst du nur via MPT begrenzen.

Begrenzen lässt sich die Karte sonst nur über den PT - die 6900XT hängt eigentlich immer im Limit. Und wenn es genug PT ist, dann begrenzt der Strom. Meine kommt da schon ins Throttlen deswegen laut HWInfo.

Ich lass sie vorerst so laufen, tut den Ohren nicht weh, und brennt nicht ab.

aufkrawall
2020-12-14, 20:28:08
Die Maximalspannung kannst du nur via MPT begrenzen.

Warum säuft dann das 6800 Ref. bei ungedrosseltem Takt massiv weniger, wenn man ganz normal über die im Wattman einstellbare Spannung UVtet?

Langlay
2020-12-14, 20:30:16
Nein, weil du mit dem Slider im Wattman bei den 6000ern nicht die Maximalspannung, sondern den Punkt in der Mitte der Kurve, die es bei der VII gab, änderst.

Die Maximalspannung kannst du nur via MPT begrenzen.

Begrenzen lässt sich die Karte sonst nur über den PT.

Meine läuft vorerst so, tut den Ohren nicht weh, und brennt nicht ab.


Ah, okay das würde einiges erklären. Naja ich werde trotzdem mein Windows mal neu einspielen. Irgendwie läuft bei mir der 3DMark immernoch nicht rund.

gbm31
2020-12-14, 20:31:56
Warum säuft dann das 6800 Ref. bei ungedrosseltem Takt massiv weniger, wenn man ganz normal über die im Wattman einstellbare Spannung UVtet?

Meine Nitro hat egal wie ihr PT genutzt. Bei weniger Spannung halt über höheren Takt.

Die 6900XT jetzt genauso. Die hängt sobald sie sich bewegt im PT.

Erst unter einer bestimmten Schwelle wurde auch die max. Voltage gesenkt. Aber das war bei mir dann schon im Bereich wo ich den Takt zurücknehmen musste um nicht instabil zu werden. Und dann waren es halt 231 statt 243W bei der Nitro...

aufkrawall
2020-12-14, 20:39:53
Bro hats schnell noch mal in Valley mit der 6800 getestet: In Wattman eingestellt:
2,3GHz 1015mV: 210W
2,3GHz 900mV: 176W
Powertune Limit-Drosselung gäbe es ab 233W, GPU läuft hier also konstant im Maximaltakt.
Ist der gemessene Stromverbrauch auf den Sapphire-Karten irgendwie unbrauchbar? Kommt mir seltsam hoch vor.

Edit: Ich verwechsle immer 1015 mit 1025mV...

Langlay
2020-12-14, 20:50:32
Ich lass sie vorerst so laufen, tut den Ohren nicht weh, und brennt nicht ab.

Ich hab die Settings mal übernommen.

gedi
2020-12-14, 20:54:46
Funzt aber trotzdem irgendwie komisch. Ich hatte nur die Spannung geändern und ich hab trotzdem teilweise grössere Spannungen gesehen als eingestellt :confused:

Dann hast du es nicht verstanden







Aber nimmt denn der Verbrauch nicht ganz wie zu erwarten ab, wenn du die Spannung reduzierst?

Doch - im Schnitt um ca. 10W, was auch so sein soll. Imo hat AMD den OC-DAUs den Stecker in Bezug auf Blackscreen-Problematik gezogen.

gedi
2020-12-14, 20:58:13
Nein, weil du mit dem Slider im Wattman bei den 6000ern nicht die Maximalspannung, sondern den Punkt in der Mitte der Kurve, die es bei der VII gab, änderst.

Die Maximalspannung kannst du nur via MPT begrenzen.

Begrenzen lässt sich die Karte sonst nur über den PT - die 6900XT hängt eigentlich immer im Limit. Und wenn es genug PT ist, dann begrenzt der Strom. Meine kommt da schon ins Throttlen deswegen laut HWInfo.

Ich lass sie vorerst so laufen, tut den Ohren nicht weh, und brennt nicht ab.

Du wärst nicht mal so frei, dein VBios bei TPU hochzuladen :)?

aufkrawall
2020-12-14, 21:15:17
Doch - im Schnitt um ca. 10W, was auch so sein soll. Imo hat AMD den OC-DAUs den Stecker in Bezug auf Blackscreen-Problematik gezogen.
Ich seh da oben mehr als 10W, und bei Anwendungen näher an den 233W wären es noch mehr.

Ich seh jetzt immer noch nicht, was grundlegend anders vs. Polaris wäre (wie sollte es auch, it's physics). Außer, dass die Karten mit mehr Shadern evtl. stärker powerlimitiert sind.

Langlay
2020-12-14, 21:19:00
Dann hast du es nicht verstanden


Das ist ja das was ich geschrieben hab. Das es anders ist als bei der VII. Da haste die Spannung für die Zielfrequenz geändert und fertig war das UV.

Daher hab ich ja geschrieben muss ich mich noch einlesen...

gedi
2020-12-14, 21:24:00
Ich seh da oben mehr als 10W, und bei Anwendungen näher an den 233W wären es noch mehr.

Ich seh jetzt immer noch nicht, was grundlegend anders vs. Polaris wäre (wie sollte es auch, it's physics). Außer, dass die Karten mit mehr Shadern evtl. stärker powerlimitiert sind.

Wenn die Settings identisch sind, nur die Vcore geändert wird, dann tut sich beim Verbrauch wenig. RDNA2 funktioniert hier nicht wie Vega, Polaris, Hawaii oder ein NV-Derivat.

aufkrawall
2020-12-14, 21:28:21
Muss ich erst die Screenshots posten? :facepalm:

gedi
2020-12-14, 21:36:00
Muss ich erst die Screenshots posten? :facepalm:

Mach mal

Screemer
2020-12-14, 21:36:43
bitte. mich nerven die sinnlos diskussionen. ohne handfestes kann keiner was damit anfangen. wenn die faktenlage anders ist als bisher dargestellt, dann um so besser.

aufkrawall
2020-12-14, 21:39:51
Ach so, was ich sage ist nicht handfest. Tja, dann wären Screenshots vermutlich auch zu wenig ohne notarielle Beglaubigung. :ufinger:

-=Popeye=-
2020-12-14, 22:00:00
Ich steige hier auch nicht ganz durch.
Die einen ziehen nur die Min-Frequenz mit hoch und senken die Spannung und andere senken die Spannung und ziehen nur die Max-Frequenz hoch.
Und wieder andere spielen an allen Einstellungen herum.

What:confused:

Screemer
2020-12-14, 22:11:00
Ach so, was ich sage ist nicht handfest. Tja, dann wären Screenshots vermutlich auch zu wenig ohne notarielle Beglaubigung. :ufinger:
ach komm. das sollte ein unterstützender beitrag sein und du maulst mich an. danke.

aufkrawall
2020-12-14, 22:31:16
Dann spare ich mir mal weitere Anmerkungen zur Semantik:
https://abload.de/thumb/mituvdij1s.png (https://abload.de/image.php?img=mituvdij1s.png) https://abload.de/thumb/stockl6kyx.png (https://abload.de/image.php?img=stockl6kyx.png)

It's a mystery, reduzierte Spannung senkt den Verbrauch! :freak:
Und ich sags nochmal: Die GPU läuft auch in 4k mit eingestellten 2400MHz 1015mV in vielen Spielen häufig gar nicht in die 233W Limit und in anderen oft auch nur leicht. Es lassen sich imho viel zu viele Leute von der wackeligen Takt-Anzeige bei Navi verwirren...

vinacis_vivids
2020-12-14, 22:42:26
Die läuft auch nicht ins Power-Limit weil deine genutzten Spiele in 4K die GPU eben nicht mehr mehr ausreizen kann.
Ist eben auch ein gutes Zeichen, weil Sie noch stillgelegte Reserven hat.

gbm31
2020-12-15, 00:26:38
Dann spare ich mir mal weitere Anmerkungen zur Semantik:
https://abload.de/thumb/mituvdij1s.png (https://abload.de/image.php?img=mituvdij1s.png) https://abload.de/thumb/stockl6kyx.png (https://abload.de/image.php?img=stockl6kyx.png)

It's a mystery, reduzierte Spannung senkt den Verbrauch! :freak:
Und ich sags nochmal: Die GPU läuft auch in 4k mit eingestellten 2400MHz 1015mV in vielen Spielen häufig gar nicht in die 233W Limit und in anderen oft auch nur leicht. Es lassen sich imho viel zu viele Leute von der wackeligen Takt-Anzeige bei Navi verwirren...

Wenn du nicht so sehr von dir überzeugt wärst und auch Mal lesen würdest was andere Schreiben wär's deutlich einfacher!

Dein Bruder fährt da Pillepalletakt - das hatte ich bereits geschrieben.

Und Langlay redet von einer 6900XT, die praktisch sofort im PT Limit hängt.

aufkrawall
2020-12-15, 00:35:47
Ja, eben. Er hat aber auch gesagt, dass der Takt mit UV steigt.
Was meinst du überhaupt mit Maximalspannung?
Nein, weil du mit dem Slider im Wattman bei den 6000ern nicht die Maximalspannung, sondern den Punkt in der Mitte der Kurve, die es bei der VII gab, änderst.

Wie soll das sein können, wenn der Verbrauch ohne Drosselung eindeutig sinkt? Das muss logischerweise das Ende der Kurve sein.

Edit: Ich würde eher sagen, dass das Problem ist, dass mit RDNA2-Karten bislang die UV-Möglichkeit für den mittleren Pstate fehlt und deswegen in der Drosselung zwischen diesem und dem höchsten Pstate unnötig hohe Spannungen interpoliert werden.

bnoob
2020-12-15, 01:48:25
Du wärst nicht mal so frei, dein VBios bei TPU hochzuladen :)?
Hab gerade mal geschaut, die haben schon alles BIOSe. Oder übersehe ich da was, was wir brauchen könnten? (Hab eine mit MSI-Karton, Subvendor ist wie bei jeder Release-Ref natürlich AMD)

MikePayne
2020-12-15, 03:34:10
Ach so, was ich sage ist nicht handfest. Tja, dann wären Screenshots vermutlich auch zu wenig ohne notarielle Beglaubigung. :ufinger:

Da haste aber hart daneben gegriffen.

[MK2]Mythos
2020-12-15, 05:32:09
Ich habe mit der 6800xt ne umfangreiche Versuchsreihe gemacht und Auswirkung mit Timespy Werten ermittelt und per Screenshots dokumentiert. Ich mache das selbe noch mit der 6900xt und mach dann hier nen eigenen Thread für das Thema auf, falls es noch keinen gibt. Vorab kann ich schon sagen, dass uv+oc am besten funktioniert, plus PT erhöhen natürlich. Das dürfte keine Überraschung sein. Die Karte 6800xt hängt eigentlich sofort im Powerlimit. Mag sein dass das mit der non xt anders ist, weil die einfach mehr Powerbudget pro Takt hat.

dargo
2020-12-15, 10:59:14
Ich steige hier auch nicht ganz durch.
Die einen ziehen nur die Min-Frequenz mit hoch und senken die Spannung und andere senken die Spannung und ziehen nur die Max-Frequenz hoch.
Und wieder andere spielen an allen Einstellungen herum.

What:confused:
Die min. Frequenz hochzuziehen ist bullshit³. Zumindest wenn N21 sich genauso bei der Spannungskurve (die bei N21 nicht visuell dargestellt ist) verhält wie N10. Ganz genau kann ich dir das auch nicht sagen da ich noch keinen N21 habe.

Dann spare ich mir mal weitere Anmerkungen zur Semantik:
https://abload.de/thumb/mituvdij1s.png (https://abload.de/image.php?img=mituvdij1s.png) https://abload.de/thumb/stockl6kyx.png (https://abload.de/image.php?img=stockl6kyx.png)

It's a mystery, reduzierte Spannung senkt den Verbrauch! :freak:
Und ich sags nochmal: Die GPU läuft auch in 4k mit eingestellten 2400MHz 1015mV in vielen Spielen häufig gar nicht in die 233W Limit und in anderen oft auch nur leicht. Es lassen sich imho viel zu viele Leute von der wackeligen Takt-Anzeige bei Navi verwirren...
Endlich mal einer der Ahnung hat. :freak: Dieses Rumgeeier inkl. Halbwissen nervt einfach nur bei vielen (wieso kriegen immer nur die "Ahnungslosen" die ersten Karten? :freak:). Hast du jetzt einen N21 oder dein Bro? Sorry... ich werde alt. :D Ok... ich sehe jetzt dein Bro.

btw.
Also nichts anderes wie N10. 33W TGP weniger bei gleicher Performance sieht schon mal sehr nett aus. Praktisch wie mein N10. :)

gbm31
2020-12-15, 12:26:55
Genau. Von weitem drüberschauen und Ahnung haben. Und vor allem nur lesen was einem in den Kram passt.

Die 6800 ist weit von PT-Limitiert. Spannung runter, Takt-Wunsch runter, Verbrauch runter. Das habt ihr kapiert.

Spannung runter, Takt-Wunsch nicht runter, eff. Takt geht hoch, Verbrauch unverändert - reichts dafür noch? Steht schon lang da.

Und nein, der Slider im Wattman verstellt definitiv nicht die Spannung des letzten Powerstates.

Wer hier wen nervt ist wirklich die Frage.

gbm31
2020-12-15, 12:35:33
Ich hab die Settings mal übernommen.

2h Ghost Recon Breakpoint - holla Hotspot! :eek:

Ich glaub ich motte die Wakü der VII wieder aus...

aufkrawall
2020-12-15, 12:58:53
reichts dafür noch?
Der hat Probleme. :freak:
Guck nochmal nach, wer arrogant an seiner Meinung festhält und offenbar gar nicht an einer faktenbasierten Diskussion interessiert ist.


btw.
Also nichts anderes wie N10. 33W TGP weniger bei gleicher Performance sieht schon mal sehr nett aus. Praktisch wie mein N10. :)
War allerdings nur ein kurzer Test. Ob die 2,3GHz 0,9V wirklich stabil sind, kann ich nicht sagen. Möglich wärs aber. Hab auch nicht getestet, inwieweit UV sich auf die fps in der PT-Limit-Drosselung auswirkt. Aber gbm31 ja offenbar auch nicht...

dargo
2020-12-15, 13:05:48
War allerdings nur ein kurzer Test. Ob die 2,3GHz 0,9V wirklich stabil sind, kann ich nicht sagen. Möglich wärs aber. Hab auch nicht getestet, inwieweit UV sich auf die fps in der PT-Limit-Drosselung auswirkt. Aber gbm31 ja offenbar auch nicht...
Das war mir auch nicht wichtig, ist immer noch Chiplotterie ob es nachher -33W oder halt -25W heißt. Mir gings erstmal nur um das Verhalten. Und bei deinem Beispiel sehe ich exakt das was ich wissen will. Gleiche Taktraten = gleiche Performance bei X weniger Power dank UV.

misterh
2020-12-15, 13:37:14
Die min. Frequenz hochzuziehen ist bullshit³

wenn ich mit XFX 6800XT 500 - 2665 einstelle, hab ich paar Grafikfehler.
Mit 2565 - 2665 hab ich den Grafikfehler nimmer.

und auf beiden Einstellung taktet zb in Hoirzon Zero Dawm 4K Max 2620/2100 (975mv+15%PL)

aufkrawall
2020-12-15, 13:41:10
Wenn du Grafikfehler hast, bist du imho noch deutlich zu weit von einer rockstable Config entfernt. 2620MHz 975mv klingt auch absurd gut, auch wenn es die 6900 XT ist.

misterh
2020-12-15, 13:48:39
Wenn du Grafikfehler hast, bist du imho noch deutlich zu weit von einer rockstable Config entfernt. 2620MHz 975mv klingt auch absurd gut, auch wenn es die 6900 XT ist.

???
hab doch geschrieben das 2565-2665 keinen Grafikfehler mehr gibt und ist genauso stabil. Egal wo. nur nicht mit 500-2665 Einstellung.

P.S.: Ist 6800XT. Hab nur informiert was bei mir den Unterschied ausmachte. Solange TDP Limit nicht erreicht.

dargo
2020-12-15, 14:31:57
wenn ich mit XFX 6800XT 500 - 2665 einstelle, hab ich paar Grafikfehler.
Mit 2565 - 2665 hab ich den Grafikfehler nimmer.

und auf beiden Einstellung taktet zb in Hoirzon Zero Dawm 4K Max 2620/2100 (975mv+15%PL)
Toll... und bei Teillast säuft das Ding dann unnötig. Wenn dir das egal ist ...

hq-hq
2020-12-15, 14:35:23
erscheint doch plausibel, bei den CPUs hat man das ja auch so gemacht, hoher Allcore Takt der immer anliegt läuft, aber mit runter und hochtakten und Powerstates gibt es Probleme. Polaris mit fester Spannung bei fixem Takt konnte man mehr rausholen als die Kurve zu editieren...

Linmoum
2020-12-15, 14:46:27
Laut EK soll mein Block am 23.12. kommen, der ging heute früh in den Versand. Mal schauen, wie schnell das jetzt mit DHL Express geht.

Halbe Stunde später kam dann schon die 6900XT. Warten und umbauen oder gleich rein damit? ;D

bnoob
2020-12-15, 15:11:37
Rein damit, sind ja nur 4 Schrauben und 2 Stecker und einmal DDU

pixeljetstream
2020-12-15, 15:14:33
wer q2rtx ausprobieren mag sollte das nun auch mit AMD koennen
https://steamcommunity.com/games/1089130/announcements/detail/2903097291402265207

Linmoum
2020-12-15, 15:23:04
Rein damit, sind ja nur 4 Schrauben und 2 Stecker und einmal DDUNaja, ich müsste übergangsweise kurz den Loop anders legen. :D

gbm31
2020-12-15, 15:29:28
Der hat Probleme. :freak:
Guck nochmal nach, wer arrogant an seiner Meinung festhält und offenbar gar nicht an einer faktenbasierten Diskussion interessiert ist.

ROFLMAO

Ich hab ne 6800 Nitro+ und ne 6900 XT hoch und runter getestet, und zwar um damit stabil zu zocken, sparsam oder volle Pulle - und du? Faktenbasiert... :rolleyes:

Raff
2020-12-15, 15:35:37
wer q2rtx ausprobieren mag sollte das nun auch mit AMD koennen
https://steamcommunity.com/games/1089130/announcements/detail/2903097291402265207

:up:

https://www.nvidia.com/de-de/geforce/campaigns/quake-II-rtx/ ("Demo" herunterladen)

MfG
Raff

bnoob
2020-12-15, 16:00:39
Kann ich da mit originalen Q2 Gamefiles eine Vollversion draus machen?

[MK2]Mythos
2020-12-15, 16:13:37
Hier meine UV/OC Ergebnisse mit 6800XT und 6900XT. Beide Karten sind klar powerlimitiert.

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603860

/Locutus oB
2020-12-15, 16:15:49
wer q2rtx ausprobieren mag sollte das nun auch mit AMD koennen
https://steamcommunity.com/games/1089130/announcements/detail/2903097291402265207

muss ich jetzt danke Nvidia sagen? unglaublich...

aufkrawall
2020-12-15, 16:16:54
ROFLMAO

Ich hab ne 6800 Nitro+ und ne 6900 XT hoch und runter getestet, und zwar um damit stabil zu zocken, sparsam oder volle Pulle - und du? Faktenbasiert... :rolleyes:
Du bleibst die Erklärung schuldig, warum du meinst, die Wattman-Einstellung würde nicht für das Ende der Kurve gelten. Es widerspricht meinen Screenshots, weshalb ich den berechtigten Verdacht hege, dass du Blödsinn erzählst. Warum sollte AMD auch so einen Schwachfug machen? :freak:
Vader konnte im 6800er-Thread btw. genau meine Erfahrungen bestätigen...

Langlay
2020-12-15, 16:36:57
2h Ghost Recon Breakpoint - holla Hotspot! :eek:

Ich glaub ich motte die Wakü der VII wieder aus...


Ich komme auf genau 100°C Hotspot mit den Settings. Aber Wasserkühler ist bei mir eh schon in gesetzt, müssen nur noch kaufbar sein.


Du bleibst die Erklärung schuldig, warum du meinst, die Wattman-Einstellung würde nicht für das Ende der Kurve gelten. Es widerspricht meinen Screenshots, weshalb ich den berechtigten Verdacht hege, dass du Blödsinn erzählst. Warum sollte AMD auch so einen Schwachfug machen? :freak:
Vader konnte im 6800er-Thread btw. genau meine Erfahrungen bestätigen...


Wie erklärst du dann das teilweise höhere Spannung anliegen als eingestellt ?

aufkrawall
2020-12-15, 16:39:55
Wie erklärst du dann das teilweise höhere Spannung anliegen als eingestellt ?
Wer sagt denn, dass dieser Sensor-Wert stimmt? Bzw. wie soll der stimmen können, wenn in der Drosselung bei gleichem Verbrauch dann mehr Takt anliegt?
Edit: Wobei der natürlich auch Murks sein kann. Letztlich sind nur fps und W die entscheidenden Metriken.

Langlay
2020-12-15, 16:57:03
Wer sagt denn, dass dieser Sensor-Wert stimmt? Bzw. wie soll der stimmen können, wenn in der Drosselung bei gleichem Verbrauch dann mehr Takt anliegt?
Edit: Wobei der natürlich auch Murks sein kann. Letztlich sind nur fps und W die entscheidenden Metriken.




https://abload.de/img/6900xtiyk12.png

Also wenn der Treiber die Spannung falsch ausliest, würde ich mich auch nicht drauf verlassen der Stromverbrauch stimmt, P=U*I und so.

aufkrawall
2020-12-15, 17:08:42
Sollte sich inerhalb einer Minute durch eintretende oder ausbleibende Auswirkungen durch das Verändern des Powertune-Limits auf rpm/Temps überprüfen lassen.
Aber da ja offenbar noch niemand festgestellt hat, dass dahingehend etwas nicht richtig funktionieren würde...
Die Sensoren für Spannung und Verbrauch können auch genau so gut völlig unabhängig voneinander sein.

Edit: Ich sags nochmal: Ich hab den Sachverhalt durch die Drosselung noch nicht selbst getestet. Es kann aber nicht der Punkt in der Mitte sein, wenn der Verbrauch ohne Drosselung, also im Maximaltakt, sinkt. Das schließt sich einfach logisch aus. Ich sage nicht, dass es nicht durch irgendetwas anderes kommen könnte, falls dem wirklich so ist, dass in der Drosselung unsinnige hohe Spannungen anliegen...

bnoob
2020-12-15, 17:51:35
Kann ich da mit originalen Q2 Gamefiles eine Vollversion draus machen?
Ja, der Steam-Installer bietet es von selbst an und erkennt sogar den GoG-Pfad

gbm31
2020-12-15, 19:07:56
in den OC Thread verschoben.

Linmoum
2020-12-15, 20:43:18
https://i.gyazo.com/acd6efd5b893ddf2df604bfa6ca7b806.jpg

So, endlich wieder 'ne Radeon im Rechner. Das Teil ist auf jeden Fall schwerer, als man es auf den ersten Blick vermutet. Eigentlich schade um den Kühler, dass er der Macht des Wassers weichen muss. :D

Raff
2020-12-15, 20:48:58
wer q2rtx ausprobieren mag sollte das nun auch mit AMD koennen
https://steamcommunity.com/games/1089130/announcements/detail/2903097291402265207

-> Quake 2 RTX: Port für offizielles Vulkan-Raytracing und somit RDNA-2-Support, erste Benchmarks (https://www.pcgameshardware.de/Raytracing-Hardware-255905/News/Quake-2-RTX-mit-Radeon-Vulkan-Raytracing-1363692/)

RTX 3080 OC ist fast doppelt so schnell wie RX 6800 XT OC. Kein Worstcase, aber nach Minecraft das zweitgemeinste RT(X)-Spiel.

MfG
Raff

gedi
2020-12-15, 21:09:21
-> Quake 2 RTX: Port für offizielles Vulkan-Raytracing und somit RDNA-2-Support, erste Benchmarks (https://www.pcgameshardware.de/Raytracing-Hardware-255905/News/Quake-2-RTX-mit-Radeon-Vulkan-Raytracing-1363692/)

RTX 3080 OC ist fast doppelt so schnell wie RX 6800 XT OC. Kein Worstcase, aber nach Minecraft das zweitgemeinste RT(X)-Spiel.

MfG
Raff

Hmm - mag ja sein, aber wo sind deine Benchmarks in 3dk_FS wo selbst ne 570€-Karte ne > als 2000 Mhz und Teuro zerlegt. Und wer bitte spielt noch Q3 :freak:?

Und nur der Verständnis wegen: Wenn du jetzt (hoffentlich zum letzten mal) mit dem DLSS-Krempel anfängst - man schalte DLSS-Performance und erhalte so gar kein befriedigendes Ergebnis, oder man schalte AMD optimpized Rendertarget. Beides Upscaling-Schrott (nativ ist NV klar schneller und trotzdem viel zu langsam), trotzdem beachte bitte was am Monitor ankommt. Mach mal mein Freund - am besten mit nem Pixelzähler :D

Raff
2020-12-15, 21:14:34
Was genau hat DLSS bei mit nativer Auflösung durchgeführten Benchmarks zu suchen? :confused:

MfG
Raff

gedi
2020-12-15, 21:16:32
Hab ich doch gesagt :)

[MK2]Mythos
2020-12-15, 21:28:12
https://i.gyazo.com/acd6efd5b893ddf2df604bfa6ca7b806.jpg

So, endlich wieder 'ne Radeon im Rechner. Das Teil ist auf jeden Fall schwerer, als man es auf den ersten Blick vermutet. Eigentlich schade um den Kühler, dass er der Macht des Wassers weichen muss. :D
Sauber! Ich bin gespannt auf deine Ergebnisse, bitte mit in https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603860 eintragen. :biggrin:

-=Popeye=-
2020-12-15, 21:34:24
Meine kam heute auch... hab aber den Postboten verpasst und kann sie erst morgen abholen. Soll mir recht sein da der Block auch erst am Donnerstag kommt.

Linmoum
2020-12-15, 22:15:21
Mal schauen, wie schnell ich dazu komme. Der EK kommt morgen, ich hatte am WE aber auch noch bei AC/WC bestellt, weil ich das alles auf einmal dann abwickeln wollte. Leider sind die mal wieder nicht die schnellsten.

hq-hq
2020-12-16, 00:55:16
Mag jemand Metro Exodus mit einer 6x00XT in 1440p / 2160p testen mit dem Benchtool?
Mir ist schon klar das es nicht die Ingame_Last darstellt. Die 3090 macht da einen nervösen Eindruck VS die alte 2080Ti, würd mich interessieren
wie eine 2600MHz 6x00XT auf "RTX" mit Ultra sich da aufstellt -> mir scheint die 3090 kommt da ins Straucheln.

https://abload.de/img/metroszjuv.png

fondness
2020-12-16, 08:25:37
-> Quake 2 RTX: Port für offizielles Vulkan-Raytracing und somit RDNA-2-Support, erste Benchmarks (https://www.pcgameshardware.de/Raytracing-Hardware-255905/News/Quake-2-RTX-mit-Radeon-Vulkan-Raytracing-1363692/)

RTX 3080 OC ist fast doppelt so schnell wie RX 6800 XT OC. Kein Worstcase, aber nach Minecraft das zweitgemeinste RT(X)-Spiel.

MfG
Raff

Quake RTX ist von Nvidia entwickelt. Da kann man auch eine AMD Tech-Demo benchen und sagen wie mies Nvidia nicht ist.

Raff
2020-12-16, 08:36:47
*seufz*

Das ist kein Affront gegen AMD, sondern eine weitere Testmöglichkeit eines zweifellos spielbaren Spiels. Dass die ganze Kiste von Nvidia kommt, bestreitet niemand. Anstatt dass man sich über die Portierung dieses coolen Projekts freut, wird von denselben Leuten wie immer herumgemotzt. Dabei ist der Nutzen von Pathtracing in diesem Fall, wie bei Minecraft, zu keiner Zeit debattierbar, sondern zweifellos vorhanden. :) Pascal kann das Ding übrigens auch darstellen, allerdings eher mit Bildern pro Minute - diesen Fallback wünsche ich mir für RDNA 2 auch.

MfG
Raff

pixeljetstream
2020-12-16, 09:27:54
Quake RTX ist von Nvidia entwickelt. Da kann man auch eine AMD Tech-Demo benchen und sagen wie mies Nvidia nicht ist.

Es ist Open-source, https://github.com/NVIDIA/Q2RTX

Du kannst also analysieren und dann sagen wo du einen starken bias in der Implementierung vermutest. Der Ursprung des Projektes war auch ausserhalb von NVIDIA.

dargo
2020-12-16, 09:31:45
Jetzt mal ehrlich... wen interessiert so ein Uraltschinken wie Quake 2 mit Raytracing? :freak: Was kommt als nächstes? Tetris mit RT?

Raff
2020-12-16, 09:42:45
Jetzt mal ehrlich: Interessiert oder begeistert sich hier überhaupt noch irgendjemand für Technik? ;)

Ich glaube, es wird mal wieder Zeit für eine Auszeit hier.

MfG
Raff

x5
2020-12-16, 09:53:45
Weil hier viele die Hardware nicht zum spielen nutzen sondern um damit rumzualbern.

Sonyfreak
2020-12-16, 09:53:48
Jetzt mal ehrlich: Interessiert oder begeistert sich hier überhaupt noch irgendjemand für Technik? ;)Natürlich gibt es hier viele Leute, die Interesse an der Technik haben. Leider gibt es halt mehr Benutzer, die sich gegenseitig alles schlecht machen müssen und die immer und überall ein Haar in der Suppe finden. Ich kann aber gut nachvollziehen, dass einen das zermürbt. Auf diese Weise haben wir hier schon etliche Technikkoryphäen verloren. Traurig. :(

mfg.

Sonyfreak

gbm31
2020-12-16, 09:53:56
Es ist Open-source, https://github.com/NVIDIA/Q2RTX

Du kannst also analysieren und dann sagen wo du einen starken bias in der Implementierung vermutest. Der Ursprung des Projektes war auch ausserhalb von NVIDIA.

Ich finds cool - muss mal nach meinen Originaldisketten suchen... Krieg ich daraus überhaupt noch die erforderlichen Dateien zusammen?

Wenns über reines Path Tracing geht, zeigt es halt den aktuellen Stand.

Was dann als gemeinsamer Nenner mit Konsolen und Co. in die SPiele kommt die nächsten Jahre wird sich ja zeigen.

Lawmachine79
2020-12-16, 09:59:01
Jetzt mal ehrlich: Interessiert oder begeistert sich hier überhaupt noch irgendjemand für Technik? ;)

Ich glaube, es wird mal wieder Zeit für eine Auszeit hier.

MfG
Raff
Ganz in der Nähe ist ein Thread, wo Begeisterung für Technik wertgeschätzt wird ;).

sChRaNzA
2020-12-16, 10:04:24
Nur annähernd so viel Zeit zum Spielen hätte ich mal gerne, wie hier Leute Zeit dazu haben in Threads rum zu trollen.

Zergra
2020-12-16, 10:23:58
Das Problem ist halt das schwächen der einen Seite mit: Wer braucht den scheiß den klein geredet werden. Am Ende wird sich das halt alles schön geredet. In den meisten Threads werden dann nur noch Grabenkämpfe ausgetragen.

JVC
2020-12-16, 10:27:18
*seufz*
... wird von denselben Leuten wie immer herumgemotzt.
MfG
Raff
Jetzt mal ehrlich: Interessiert oder begeistert sich hier überhaupt noch irgendjemand für Technik? ;)

MfG
Raff
Du bist für RT oder DLSS auch im komplett falschen Thread ;)
DLSS Thread: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=600122
RT Thread: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=590214

Und bei Tests, sollte beides etwas zusätzliches sein und separat bewertet werden.

An sonnst, alles gut :smile: Ich mag Deine Artikel.

M.f.G. JVC

bnoob
2020-12-16, 10:44:11
Um hier mal was beizutragen: Gestern mal Q2RTX auf der 6900XT ausprobiert, die FPS waren mehr oder weniger fix auf 21 bei Voreinstellungen in 4K. Das ist schon... herausfordernd :D

Kommt aber wohl dem zeitgenössischen Erlebnis erstaunlich nahe :D Und das Wasser ist halt BRUTAL. War jetzt aber auch das erste Mal, dass ich RT ingame irgendwo live gesehen habe.

RT ist der absolute future shit, das ist klar, aber abseits von Techdemos wirds mit der existierenden Hardware schnell schwierig. Es fasziniert mich trotzdem :)

pixeljetstream
2020-12-16, 10:46:40
Ich finds cool - muss mal nach meinen Originaldisketten suchen... Krieg ich daraus überhaupt noch die erforderlichen Dateien zusammen?

Wenns über reines Path Tracing geht, zeigt es halt den aktuellen Stand.

Was dann als gemeinsamer Nenner mit Konsolen und Co. in die SPiele kommt die nächsten Jahre wird sich ja zeigen.
Ja müsste mit den original Pak Dateien gehen.

Genau ist halt eine besondere Fallstudie für RT Einsatz.

Es war auch nicht als trolling gedacht das hier zu bringen, daa Projekt hatte zum Start ja ähnliche Performance bei NV. Aber wie JVC hinweist besser weiter im RT thread.

r3ptil3
2020-12-16, 11:10:51
Jetzt wird auch Raff durch die AMD Jünger vergrault.... :freak:

Es ist momentan wirklich unheimlich schwierig sich zwischen AMD und Nvidia zu entscheiden. Tendenziell habe ich aber das Gefühl, dass bei AMD grobe Ausreisser nach unten, gerade in exotischen Titeln, eher auftreten, als bei Nvidia.

Titel wie
-Truck Simulator
-Gothic-Serie (Elex...)
-Green Hell
...

würden mich auch mal interessieren, da vermute ich, dass Nvidia deutlich vorne ist.

Raff
2020-12-16, 11:19:24
Elex lief als Shader-lastiges Spiel gut auf zeitgenössischen Radeons (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/3/#a5) (Teil des PCGH-Leistungsindex zwischen 2018 und 2019). Green Hell dürfte als grafiklastiges Unity-Spiel auch gut laufen, aber das ist geraten. Truck Simulator: Braucht man dafür eine Grafikkarte? :biggrin:

MfG
Raff

bnoob
2020-12-16, 11:49:20
Euro Truck Simulator 2 / American Truck Simulator (selbes Spiel, andere Maps) laufen seit dem Engine Update auf DX11 letztes Jahr *deutlich* besser, davor war das DX9, was AMD halt überhaupt nicht schmeckt.

Ich konnte mit der 6800 auf 5120x2880 via VSR und alles auf Max noch 200% Renderauflösung fahren und habe trotzdem stabile 60 FPS erreicht, das wird bei der 6900XT nicht schlechter sein :D Mit ProMods auf ETS2 ist das dank deutlich besserer Modelle etwas anders, aber 4K + VSR ist immer noch drin. Ist halt ein "je glatter desto besser"-Spiel.

Für Gothic 3 hilft es mit der höchstmöglichen Auflösung mit der brutalstmöglichen .ini zu spielen und im Wattman einen hohen Mindesttakt zu forcen. Klingt kontraproduktiv, ich weiß, aber sonst taktet die Karte ständig runter und die Engine sauft ab.

Für Gothic 1 + 2 den DX10-Renderer benutzen, problemlos.

Gothic benchen macht aber schon seit Jahren keinen Sinn, weil das alles so BROKEN ist. Den höchsten Performanceschub bringt die Auslagerung der Texturen auf eine RAM-Disk...

Elex lief, wie Raff schon sagte, schon immer gut auf Radeons.

r3ptil3
2020-12-16, 12:00:05
Das mit dem DX11 Update im Truck Simulator habe ich verpasst.

Kann mich aber noch erinnern, dass ich meine damalige FuryX nur schon mit treiberseitigen AA-Methoden zum erliegen bringen konnte, deutlich unter 30FPS (sah sensationell aus).

Und wie Bnoob beschreibt, bringt man auch eine RX 6800 auf 60Fps in Truck Simulator, was für mich schon nicht mehr spielbar ist.

dargo
2020-12-16, 12:11:37
Jetzt mal ehrlich: Interessiert oder begeistert sich hier überhaupt noch irgendjemand für Technik? ;)

Klar... aber mit Currentgen oder besser Nextgen Assets und nicht so einem Quatsch wie Quake 2.

bnoob
2020-12-16, 12:17:50
Probier mal die neue Engine aus, die hat bei mir in manchen Situationen mit der VII die FPS VERDOPPELT.

Weil ich gerade aber eh Mittag habe hab ich mal schnell mein ATS Save geladen und auf 3840x2160 gestellt und die Renderauflösung auf 100% gestellt (SMAA auf Ultra gelassen), stabil über 100 FPS bei Nacht in der Stadt mit anderen Fahrzeugen im Sichtfeld.

Da wird dann aber irgendwann die Auslastung der 6900XT Müll, die ist bei mehr Kantenglättung/mehr Renderauflösung besser.

Klar... aber mit Currentgen oder besser Nextgen Assets und nicht so einem Quatsch wie Quake 2.
Der Trick an Q2RTX ist der aktuell größtmögliche Einsatz von path-based rendering, und mit diesem Ansatz lässt sich aktuell eben nicht mehr als das vernünftig in Realtime darstellen. Insofern ist es imho eine SEHR spannende Techdemo, weil es eben auch zeigt, welchen Weg wir noch vor uns haben.

aufkrawall
2020-12-16, 12:50:48
Ist halt trotzdem Quatsch, daraus allgemeingültige Ableitungen ziehen zu wollen. Siehe das CPU-Limit Nvidias in WoW, nur durch ein paar popelige Schatten. :freak:

dargo
2020-12-16, 12:52:09
Der Trick an Q2RTX ist der aktuell größtmögliche Einsatz von path-based rendering, und mit diesem Ansatz lässt sich aktuell eben nicht mehr als das vernünftig in Realtime darstellen. Insofern ist es imho eine SEHR spannende Techdemo, weil es eben auch zeigt, welchen Weg wir noch vor uns haben.
Dann weckt mich in 5+ Jahren wenn das dann in aktuellen Games Einzug findet. :rolleyes: Der Quake 2 RT-Quatsch ist genau so spannend wie jeder 3DMark-Furz... nämlich Null.

fondness
2020-12-16, 14:16:17
*seufz*

Das ist kein Affront gegen AMD, sondern eine weitere Testmöglichkeit eines zweifellos spielbaren Spiels. Dass die ganze Kiste von Nvidia kommt, bestreitet niemand. Anstatt dass man sich über die Portierung dieses coolen Projekts freut, wird von denselben Leuten wie immer herumgemotzt. Dabei ist der Nutzen von Pathtracing in diesem Fall, wie bei Minecraft, zu keiner Zeit debattierbar, sondern zweifellos vorhanden. :) Pascal kann das Ding übrigens auch darstellen, allerdings eher mit Bildern pro Minute - diesen Fallback wünsche ich mir für RDNA 2 auch.

MfG
Raff

Man muss auch nicht alles persönlich nehmen. Der Hinweis, dass es von NV kommt darf ja hoffentlich erwähnt werden (wenn du es schon nicht machst).

Raff
2020-12-16, 15:00:52
Man muss auch nicht alles persönlich nehmen. Der Hinweis, dass es von NV kommt darf ja hoffentlich erwähnt werden (wenn du es schon nicht machst).

Genau, ich habe nur einen Artikel geschrieben und verlinkt, wo das alles haarklein erläutert wird. :ugly:

MfG
Raff

gbm31
2020-12-16, 15:01:49
Ja müsste mit den original Pak Dateien gehen.

Thx! Dann such ich mal die Tage...

fondness
2020-12-16, 16:14:45
Genau, ich habe nur einen Artikel geschrieben und verlinkt, wo das alles haarklein erläutert wird. :ugly:

MfG
Raff

Aus deinem Beitrag ging es jedenfalls nicht hervor und irgendwas mit "games" im Namen kann ich in der Arbeit nicht öffnen. Aber offensichtlich geht es ja nicht ohne maximale Empörung.

Schnoesel
2020-12-16, 16:45:44
Na wenn RTX on nur mit der derzeit teuersten Karte einigermaßen läuft im neusten Game muss man halt in uralten Kamellen zeigen wie geil RTX doch ist. Ich kann damit nix anfangen.

Sieht für mich mit und ohne RT scheiße aus. Sorry meine Meinung.

aufkrawall
2020-12-16, 17:01:09
Ich finds schon etwas faszinierend mit den korrekten Schatten durch Lichtquellen und den Reflexionen. Wie gesagt, ist auch das temporale Upscaling super und man kann es auch auf RDNA2 flüssig spielen. Da geht durch Upscaling herzlich wenig an Details verloren.
Trotzdem sähe es natürlich mit Raster + RT-Effekten sehr häufig fast genau so aus. Es ist eine nette Randbetrachtung, aber mehr nicht. Ist man hier schon ein Hater, wenn man das so sieht? Hier scheint es echt mental in CDU-Regionen abzudriften, muss am zunehmenden Alter der Postenden liegen. :freak:

JVC
2020-12-16, 17:53:24
Es ist eine nette Randbetrachtung, aber mehr nicht.
+1 :up: Auch in meinen Augen perfekt formuliert.

Außer bei Spiegeln ist für mich die Spiegelung maximal ab und an ne Randbetrachtung.
Oder gafft ihr stundenlang in Pfützen?

Ich im realen Leben jedenfalls nur als Kleinkind, als ich "RT" grad neu entdeckt habe...

Für Raumklang und Licht/Schatten Atmosphäre(echte Spiegel) ja Gerne,
aber ich brauche diesen "glänzigen scheiss" nicht auf jeder Oberfläche.

Das kommt für ein paar Spiele vielleicht gut an, aber ist für mich weit weck von realistisch.
Maximal realistisch nervig, wie ungewünschte Blendeffeckte.

Ähm... ok das war etwas rannt ^^ ... RT ist trotzdem die Zukunft...

M.f.G. JVC

aufkrawall
2020-12-16, 18:06:25
Es ging um das komplette Path Tracing in Q2 RTX, nicht um RT generell. Gerade RT-Spiegelungen finde ich von den bisherigen RT-Umsetzungen am überzeugendsten, auch wenn da noch mehr ginge.

Robot
2020-12-16, 20:35:17
Gerade meine 6900 XT bekommen und direkt eingebaut.

Habt ihr da auch deutlich heftigeres Spulenfiepen als bei der 6800 (XT)?
Ab 150 fps so geht's richtig rund.

Oder irgendeiner da irgendwo was zu gelesen, außerhalb von Reviews ( Die haben sowieso alle Golden Samples ...)

bnoob
2020-12-16, 20:55:40
Ja, die 6800 war bei geschlossenem Gehäuse nur hörbar wenn viele Frames anlagen, die 6900XT SÄGT dann und zirpt sogar leise beim scrollen im Browser

Aber das bin ich seit der Vega 64 gewohnt und es wird mit der Zeit weniger, also yolo

Raff
2020-12-16, 21:16:32
Gerade meine 6900 XT bekommen und direkt eingebaut.

Habt ihr da auch deutlich heftigeres Spulenfiepen als bei der 6800 (XT)?
Ab 150 fps so geht's richtig rund.

Yep, 6900 XT und 6800 XT rattern recht heftig. Nicht so heftig wie RTX 3080 FE und RTX 3090 FE, aber stark genug, um aufzufallen. Die 6800 ist diesbezüglich deutlich leiser.

Oder irgendeiner da irgendwo was zu gelesen, außerhalb von Reviews ( Die haben sowieso alle Golden Samples ...)

Unwahrscheinlich.

MfG
Raff

HarryHirsch
2020-12-16, 21:39:28
Gerade meine 6900 XT bekommen und direkt eingebaut.

Habt ihr da auch deutlich heftigeres Spulenfiepen als bei der 6800 (XT)?
Ab 150 fps so geht's richtig rund.

Oder irgendeiner da irgendwo was zu gelesen, außerhalb von Reviews ( Die haben sowieso alle Golden Samples ...)

wenn ich das richtig in erinnerung habe hängt das auch stark vom verwendeten netzteil ab

-=Popeye=-
2020-12-16, 21:40:09
So erstes posting mit einer Radeon Karte nach 20 Jahren nVidia only im Haupt-Rechner.

Heute abgeholt, eingebaut und schwer beeindruckt... Ok, komme von einer GTX 1080 Ti, da sollte auch ordentlich was bei rumkommen. :D

Wo ich noch nicht ganz durchsteige ist der Treiber aber die Optik gefällt mir schonmal ganz gut.

HarryHirsch
2020-12-16, 21:47:50
[...]
Wo ich noch nicht ganz durchsteige ist der Treiber aber die Optik gefällt mir schonmal ganz gut.
ist ziemlich gewöhnungsbedürftig, mit der zeit kommt man aber gut klar

Robot
2020-12-16, 21:55:23
Yep, 6900 XT und 6800 XT rattern recht heftig. Nicht so heftig wie RTX 3080 FE und RTX 3090 FE, aber stark genug, um aufzufallen. Die 6800 ist diesbezüglich deutlich leiser.

Unwahrscheinlich.

MfG
Raff

Danke Raff, das hilft ja schon mal weiter, wenn selbst du das auch hattest wird's wohl normal sein.
Mein Modell ist übrigens von ASRock, aber ich denke mal die sind alle identisch egal welcher Hersteller.

CB schreibt dazu:
Die Radeon RX 6900 XT hat nicht mit Spulenfiepen zu kämpfen, das gibt es bei der neuen Grafikkarten-Generation kaum noch. Ein anderes ist dagegen deutlich schlimmer geworden: Die Radeon RX 6900 XT leidet wie jede andere aktuelle High-End-Karte unter einer guten Portion Spulenrasseln, das unabhängig von den FPS unter Volllast zu hören ist.
selten so gelacht! Müssen wir jetzt immer zwischen rasseln und fiepen unterscheiden ;) Ich frag mich gerade wie sich da das Geräusch unterscheiden soll ? ^^
Bei mir ist das definitiv von den FPS abhängig und wenn ich über 500 FPS gehe pfeift das ding hölle. In vielen Game Menüs ganz schlimm.


wenn ich das richtig in erinnerung habe hängt das auch stark vom verwendeten netzteil ab

Ne, dass ist es leider nicht, schön wärs, aber völlig egal welches NT dran ist.
Ich hab endlos Netzteile im Keller liegen :freak: , fast jedes aktuelle Modell das es gibt, macht quasi keinen Unterschied.

horn 12
2020-12-16, 22:21:41
Das Dark Power Pro 11 650 / 750 Watt sollte klappen!
KEIN Rasseln oder vielleicht geringst

Langlay
2020-12-16, 22:26:23
Meine 6900XT ist auch unauffällig, ausm geschlossenen Gehäuse hör ich jedenfalls nix.

SKYNET
2020-12-16, 22:31:34
So erstes posting mit einer Radeon Karte nach 20 Jahren nVidia only im Haupt-Rechner.

Heute abgeholt, eingebaut und schwer beeindruckt... Ok, komme von einer GTX 1080 Ti, da sollte auch ordentlich was bei rumkommen. :D

Wo ich noch nicht ganz durchsteige ist der Treiber aber die Optik gefällt mir schonmal ganz gut.

hehe, 1:0 für mich, bis von der RX580 gewohnt... darum wird der umstieg von der 1080Ti auf die 6900XT nix neues sein für mich, ausser das mehr an frames :ulol:

bnoob
2020-12-16, 23:30:13
Meine 6900XT, selbst mit stock settings, be like

https://i.imgflip.com/4qndk4.jpg

RIP mein Seasonic Focus Plus Gold 650W-Netzteil das schon die Radeon VII und die Vega 64 mit Bravur gemeistert hat, hoffe ein stärkeres aus der GX-Serie ist wieder bei zumutbaren Preisen angelangt, mag eigentlich nicht neu verkabeln...

Oder was sagst du, @Robot, wenn du schonmal hier bist? :D

€dit: Läuft dann wohl aufs Enermax Revolution D.F. 750W raus, alles andere ist nicht verfügbar oder exorbitant teuer, und das scheint ganz gut mit Spitzen zu können. Oder das NZXT C850, scheint ja im Grunde ein Focus Plus Gold / GX mit anderem Case zu sein.

Nazar
2020-12-17, 00:11:15
Jetzt mal ehrlich: Interessiert oder begeistert sich hier überhaupt noch irgendjemand für Technik? ;)

Ich glaube, es wird mal wieder Zeit für eine Auszeit hier.

MfG
Raff

Technikbegeisterung und unsinnige Technikspielereien schließen sich ja nicht aus.
Aber ich habe einen Gegenfrage. Warum muss auf Teufel komm raus eine Technik in den Vordergrund geschoben werden, bei der die Nachteile !!alle!! Vorteile torpedieren? :confused:
Die Technik ist geil aber schon an dem alten Quake Schinken kann man doch deutlich sehen, wie weit diese Technik noch von einem Ersatz des RZ ist oder etwa nicht?
Ich bin auch begeistert davon was alles mit RT möglich !!wäre!!.... in 5-10 Jahren, aber momentan ist RT weder optisch ein sofort sichtbarer Vorteil -ganz besonders nicht, wenn es um die Abbildung von natürlichen Gegebenheiten geht-, noch bringt es die Entwicklung der Spiele weiter.
Das !!Gegenteil!! ist der Fall.
Um RT wirklich gut umsetzen zu können, muss man entweder die Details in der Ferne reduzieren oder die BQ und Auflösung runterschrauben.
Optisch ist es auf den ersten Blick nur zu erkennen, wenn Pfützen oder Schwimmbad ähnliche Spiegelungen übertrieben eingesetzt werden. Verzichtet man auf diese Übertreibung werden 99% der Spieler keinen Unterschied zum RZ feststellen können, zumindest nicht ohne Vergleichsbilder.

Zusammenfassung:
Wird ein Spiel optisch so aufgewertet, dass es einen Leistungsverlust von mehr als 50% rechtfertigt?
Nein!
Wird es überhaupt optisch so aufgewertet, dass man sofort einen Vorteil gegenüber der massiv günstigeren RZ Technik sehen kann?
Nein!
Ist RT sofort/unmittelbar und ohne Vergleichsbilder in einem Spiel als großer optischer Vorteil wahrnehmbar?
Nein!
Vergleicht man AA + AF mit RT, dann verliert RT überall. Technisch umsetzbarer Ansatz, Sichtbarkeit der BQ Verbesserung und selbst RZ schlägt RT vollkommen im Bereich Preis/Leistung und teilweise sogar im Bereich BQ!
Es wird also eine Technik "angebetet" deren Vorteil nicht unmittelbar erkennbar ist und die vollkommen "unnötig" -da nicht unmittelbar erkennbar- extrem viel Leistung verbrät. Wie kann man so was nur gut finden? :confused:
Die Technik ist geil... nur nicht jetzt.. jetzt ist sie einfach nur Blödsinn hoch 10... ein dämlicher Schildbürgerstreich, der "mir" als angeblicher technischer Fortschritt verkauft werden soll. :freak:
So lange ich mich nicht mit dem Hammer pudere, so lange werde ich RT als das ansehen was !!derzeit!! ist... extrem teurer und vollkommen unnötiger Technik Blödsinn.

soLofox
2020-12-17, 00:20:17
Sign.

Robot
2020-12-17, 00:31:17
Das Dark Power Pro 11 650 / 750 Watt sollte klappen!
KEIN Rasseln oder vielleicht geringst

Am Netzteil liegt es bei mir leider nicht :(

Meine 6900XT ist auch unauffällig, ausm geschlossenen Gehäuse hör ich jedenfalls nix.

und wenns offen ist und hohe fps? Menus usw ? Wie siehts denn da aus, auch nix. Also ich höre meine schon mehr als deutlich und ich bin jetzt nicht so empfindlich.

Langlay
2020-12-17, 00:34:42
Am Netzteil liegt es bei mir leider nicht :(



und wenns offen ist und hohe fps? Menus usw ? Wie siehts denn da aus, auch nix. Also ich höre meine schon mehr als deutlich und ich bin jetzt nicht so empfindlich.

Bei ein paar hundert FPS summt sie schon etwas, aber das tat quasi jede Karte die ich in meinem Leben hatte.

SKYNET
2020-12-17, 00:37:14
Meine 6900XT, selbst mit stock settings, be like

https://i.imgflip.com/4qndk4.jpg

RIP mein Seasonic Focus Plus Gold 650W-Netzteil das schon die Radeon VII und die Vega 64 mit Bravur gemeistert hat, hoffe ein stärkeres aus der GX-Serie ist wieder bei zumutbaren Preisen angelangt, mag eigentlich nicht neu verkabeln...

Oder was sagst du, @Robot, wenn du schonmal hier bist? :D

€dit: Läuft dann wohl aufs Enermax Revolution D.F. 750W raus, alles andere ist nicht verfügbar oder exorbitant teuer, und das scheint ganz gut mit Spitzen zu können. Oder das NZXT C850, scheint ja im Grunde ein Focus Plus Gold / GX mit anderem Case zu sein.

bitfenix whisper 850W.... da hat die graka 12V rails ganz alleine für sich...

Linmoum
2020-12-17, 00:43:20
So, kann dann losgehen. :D

https://i.gyazo.com/fcb1e4ae20994cec45fc4f0d02879de7.jpg

Robot
2020-12-17, 00:48:23
Meine 6900XT, selbst mit stock settings, be like

Oder was sagst du, @Robot, wenn du schonmal hier bist? :D

€dit: Läuft dann wohl aufs Enermax Revolution D.F. 750W raus, alles andere ist nicht verfügbar oder exorbitant teuer, und das scheint ganz gut mit Spitzen zu können. Oder das NZXT C850, scheint ja im Grunde ein Focus Plus Gold / GX mit anderem Case zu sein.

NZXT ist Seasonic ja, genauso wie ASUS gerade.

Revolution D.F. hatte ich nur das 650 getestet ging so bis 820 Watt, nicht so viel. 750 sollte gehen, es ist aber Multirail, Rail 3 und 4 gehen aber ziemlich hoch bis über 40A. Wenn du die beiden nimmst sollte also klappen.

Problem am D.F ist das die Spannung bei Überlast derbe runter geht, aber wenn du nicht in den Bereich kommst ist das auch wieder egal ^^
https://www.tweakpc.de/hardware/tests/netzteile/enermax_revolution_df/i/ocp12mr3.png

Ich war auch ein wenig überrascht als mein schönes Seasonic Prime Titanium 650 mal eben nach 5 Minuten mit der RTX 3080 AUS gemacht hat. Ging natürlich sofort wieder an, aber schon krass. Zumal das eine OCP bei etwa 900 Watt hat :freak: Jetzt ist ein 1000er drin und Ruhe ist ;)

Es ist auch was anderes ob ein Netzteil konstant mit 100% Watt läuft oder ständig von 20 auf 100 % rumzappelt. Die Lastwechsel bringen es dann schneller zum Abschalten als die konstante Last.

Du kannst also 650er Netzteile haben die das locker mitmachen, und andere die gehen aus weil vielleicht die Schutzschaltungen empfindlicher sind, das hat nicht mal was mit der "Qualität" zu tun. Sehr schwer das vorherzusagen.

bitfenix whisper 850W.... da hat die graka 12V rails ganz alleine für sich...

Das auch gut, kannst auch das MSI MPG A850GF 850W, ist ne neuere Version vom Whisper.
Wenn man denn irgendwas davon bekommt ^^

Langlay
2020-12-17, 00:49:12
So, kann dann losgehen. :D

https://i.gyazo.com/fcb1e4ae20994cec45fc4f0d02879de7.jpg

Nice, ich muss mich wohl noch gedulden, ausser EK nix verfügbar -.-

Linmoum
2020-12-17, 00:58:51
Deswegen hab ich den übergangsweise genommen, bis Watercool und/oder Aqua Computer mal feddich sind. Immer noch besser als wochen-/monatelang mit Luft auszuharren. :D

SKYNET
2020-12-17, 00:59:22
Das auch gut, kannst auch das MSI MPG A850GF 850W, ist ne neuere Version vom Whisper.
Wenn man denn irgendwas davon bekommt ^^

ich bleibe beim formula gold 750W(unterschied zum whisper sind ja fixe kabel), das dürfte für ne getaktete 6900 XT und nen 5950X ohne handfesseln auch noch langen... :freak:

und ja, netzteile >650W sind aktuell irgendwie mangelware... frag mich warum :uponder:

SKYNET
2020-12-17, 01:01:41
Deswegen hab ich den übergangsweise genommen, bis Watercool und/oder Aqua Computer mal feddich sind. Immer noch besser als wochen-/monatelang mit Luft auszuharren. :D


dachte ich mir damals auch bei der aorus xtreme... aber der kühler ist so gut, das ich das vorhaben dann verworfen habe :rolleyes:

*anmerkung der redaktion, mir gehts vorranging nicht um leise, sondern kühl, und das packt der kühler selbst noch gut wenn die karte ihre vollen 420W auspackt :redface:

Robot
2020-12-17, 01:12:03
ich bleibe beim formula gold 750W(unterschied zum whisper sind ja fixe kabel), das dürfte für ne getaktete 6900 XT und nen 5950X ohne handfesseln auch noch langen... :freak:

und ja, netzteile >650W sind aktuell irgendwie mangelware... frag mich warum :uponder:

Formula war auch gut, leider macht Bitfenix auch gerade nix neues, schade eigentlich. Schönes Whisper 2 mit 850 Watt wäre jetzt genau das richtige.

>650W Ja komisch, ham doch alle Youtuber gesagt über 650 Watt braucht kein Mensch mehr ;) Genauso wie das man 2080 ti schnell für 500 € verkloppen sollte ;D

Aber zurück zum Thema 6900XT, bin abseits des Fiepens echt angetan von der Karte. Ganz schöner Klopper das Teil :)

bnoob
2020-12-17, 10:55:32
Danke für die fachkundige Netzteilberatung, hab mir jetzt das NZXT C850 geholt, da sollte der Tausch am wenigsten nerven. Scheinen gerade irgendwie im Abverkauf zu sein, anders kann ich mir das aktuelle Preisgefüge vs. GX850 nicht erklären.

Wenn das in meiner Kombi immer noch ständig abschaltet habe ich halt Pech gehabt :D

dildo4u
2020-12-17, 17:42:48
AMD gibt hier Faktor 2.1 zur Radeon VII für die 6900XT mit RT Beschleunigung an.

sOzYTYJit0U

Robot
2020-12-17, 23:39:22
Danke für die fachkundige Netzteilberatung, hab mir jetzt das NZXT C850 geholt, da sollte der Tausch am wenigsten nerven. Scheinen gerade irgendwie im Abverkauf zu sein, anders kann ich mir das aktuelle Preisgefüge vs. GX850 nicht erklären.

Wenn das in meiner Kombi immer noch ständig abschaltet habe ich halt Pech gehabt :D

Das wird schon klappen, bisher waren alle 850er bei mir safe :)
Hatte bisher aber nur das E850, war auch ganz gut.

Fragen zu NTs immer gerne, interessieren sich leider nicht so viele für wie für VGAs.

JVC
2020-12-18, 08:51:04
AMD gibt hier Faktor 2.1 zur Radeon VII für die 6900XT mit RT Beschleunigung an.

https://youtu.be/sOzYTYJit0U
Vulkan-Path-Traced :up:

M.f.G. JVC

sChRaNzA
2020-12-18, 09:22:59
Die Threads sind alle so geteilt, keine Ahnung wo das am besten hinein passt.

„ASUS and MSI demonstrate Resizeable BAR (AMD Smart Access Memory) working on Zen and Zen2 CPUs“

https://videocardz.com/newz/asus-and-msi-demonstrate-resizeable-bar-amd-smart-access-memory-working-on-zen-and-zen2-cpus

Raspo
2020-12-18, 17:49:50
Das wird schon klappen, bisher waren alle 850er bei mir safe :)
Hatte bisher aber nur das E850, war auch ganz gut.

Fragen zu NTs immer gerne, interessieren sich leider nicht so viele für wie für VGAs.
Ich habe nen Seasonic Platinum 660W.
Wie würde es da aussehen?