PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 30. November 2020


Leonidas
2020-12-01, 09:18:56
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-30-november-2020

etp_inxession
2020-12-01, 10:09:27
@leo ... gleich in der Einleitung ist ein "t" zu viel.

zweier Bios, nicht zweiter

@y33H@ schöner kleiner Test zur RT Umsetzung bei AMD.

Das zeigt ja eigentlich das AMDs Ansatz gar nicht mal so schlecht ist, wenn ordentlich umgesetzt. Cyberpunk wird hier sehr wahrscheinlich eine gute Referenz zum Vergleich der beiden RT Implementierungen, sobald die AMD Variante nachgereicht wird.

Allerdings gibt es jetzt schon eine RTX 3080 Cyberpunk Edition zu gewinnen ... nicht gerade "unparteiisch".
Hoffentlich geben Sie sich bei der AMD Inkludierung trotzdem Mühe.

Sollte AMD auch dort "mithalten" können, dann wird es schwer für RTX.
Wird dann ähnlich wie PhysX und G-Sync als Nische weiter mitgeführt.

ich finde es interessant. Hieß es doch, das beide den Direct X Standard DXR ausnutzen.
Wenn aber jetzt die Spieleschmieden doch wieder auf den jeweiligen Hersteller Ansatz hin optimieren müssen, ist es doch kein Standard?!

Lowkey
2020-12-01, 11:12:14
Es sieht ganz danach aus, dass sich die Ergebnisse noch verschieben, denn wie man auf Techpowerup lesen kann, schaltet Asus das APEX z490 für BAR frei. Und wenn dann noch bei Nvidia der BAR Treiber kommt, sind wieder alle Ergebnisse von heute obsolet.

@Leo: wann wird der 3Dc FullHD & UltraHD Performance-Überblick aktualisiert?

WedgeAntilles
2020-12-01, 11:23:00
Das zeigt ja eigentlich das AMDs Ansatz gar nicht mal so schlecht ist, wenn ordentlich umgesetzt. Cyberpunk wird hier sehr wahrscheinlich eine gute Referenz zum Vergleich der beiden RT Implementierungen, sobald die AMD Variante nachgereicht wird.



Das Problem ist: Bei CP scheint man - jedenfalls laut Gamestar - DLSS für gute Frameraten zu benötigen.
Auch bei ner 3090.

Falls RT Max ohne DLSS auf einer Nvidia-Karte nicht perfekt läuft, ist es völlig egal was das AMD RT gegenüber Nvidia gewinnt oder verliert.
Es gibt kein DLSS und bietet damit nicht genug Leistung, jedenfalls für Cyberpunk RT Max auf WQHD.
Möglich natürlich, dass die finale Performance von CP unter RT sich noch erheblich ändert, oder dass die Gamestar-Angaben da nicht ganz genau sind.
(Die hatten ja einen Rechner von CDPR gestellt bekommen, da kommen Missverständnisse ja schnell mal vor.)

In gut 2 Wochen wissen wir mehr.

Gast
2020-12-01, 11:53:39
Die sich hieraus ergebende Fragestellung ist, ob man nicht in Zukunft mehr von jenen RayTracing-Titeln sehen wird, welche unter Berücksichtigung von AMDs RDNA2-Architektur entwickelt wurden – wenn nicht explizit zugunsten der entsprechenden AMD-Grafikkarten, dann wenigstens zugunsten der NextGen-Konsolen mit RDNA2-Technik.

Großartiges "optimieren" bleibt da den Spieleherstellern nicht, diese kommunizieren mit DXR, dieses mit dem Grafiktreiber, und dieser wiederum mit der Hardware.

Die Anpassung auf die Hardware muss daher großteils im Grafiktreiber passieren, wobei natürlich hier auch bei AMD noch einiges an Potential vorhanden sein kann.

"Optimieren" bedeutet in der Regel für den Softwareentwickler immer weniger zu machen, was also passieren kann und leider nicht unrealisitisch ist, dass die Spielehersteller ganz einfach viel weniger Raytracing einsetzen werden, weil es auf dem kleinsten gemeinsamen Nenner, sprich den Konsolen lauffähig sein muss.

Der PC-Spieler ist dann wieder mal der leidtragende, wegen der mangelnden Performance der Konsolen.

Insofern ist es nicht unrealistisch, dass AMD relativ zu Nvidia näher rankommt beim Raytracing, aber nicht weil die AMD hardware plötzlich schneller ist, sondern einfach weil die Entwickler Raytracing wieder so weit zurückschrauben, dass Nvidia den Vorteil nicht ausspielen kann.

Grundsätzlich kann man ja beim Raytracing die Performance recht gut über die Anzahl der verschossenen Rays skalieren. Damit besteht zwar das Potential, auch auf dem PC die Hardware in die Knie zu zwingen. Allerdings nur mit geringen optischen Vorteilen, weil mit gutem Denoising kommt man schon mit sehr wenig Rays aus und erzielt ein optisch ansprechendes Ergebnis.

Schöner wäre es wenn die Spieleentwickler stattdessen in Zukunft mehrere Effekte mit Raytracing umsetzen würden, anstatt bei den vorhandenen mehr Rays zu verwenden, die meisten der bisherigen RT-Implementierungen beschränken sich ja auf wenige Effekte pro Spiel. Leider wird das wohl nur in den seltensten Fällen passieren, weil nur Ampere wirklich dafür leistungsfähig genug ist, Turing ist es nicht, und RDNA2 ist beim Raytracing grob auf Turing-Niveau.

Man müsste diese zusätzlichen Effekte also nur für die Ampere-Besitzer implementieren, was wohl leider kaum wer machen wird.

etp_inxession
2020-12-01, 12:15:36
Wenn Raytracing selbst auf einer 3090 bei Cyberpunk nur mit DLSS einigermaßen funktioniert. Dann brauchen Sie es vermutlich gar nicht erst aktivieren.

Wie viele Leute haben prozentual eine 3090? ...

Die RT Lösung muss schon gangbar sein, auf allen Modellen. Ansonsten ist der Werbeeffekt schlicht kontraproduktiv. Das weiß auch nVidia.

Möglich das es zu Anfang als Art Werbung für DLSS genutzt wird von und mit nVidia. Aber die Community Stimmen werden da schnell ein gegensteuern bewirken.

Gerade zur heutigen Zeit, hagelt es Shitstorms wegen jeder Kleinigkeit.

WedgeAntilles
2020-12-01, 12:44:07
Wenn Raytracing selbst auf einer 3090 bei Cyberpunk nur mit DLSS einigermaßen funktioniert. Dann brauchen Sie es vermutlich gar nicht erst aktivieren.

Wie viele Leute haben prozentual eine 3090? ...

Die RT Lösung muss schon gangbar sein, auf allen Modellen. Ansonsten ist der Werbeeffekt schlicht kontraproduktiv. Das weiß auch nVidia.

Möglich das es zu Anfang als Art Werbung für DLSS genutzt wird von und mit nVidia. Aber die Community Stimmen werden da schnell ein gegensteuern bewirken.

Gerade zur heutigen Zeit, hagelt es Shitstorms wegen jeder Kleinigkeit.

Du kannst doch DLSS aktivieren, was spricht dagegen?
Dann läuft es auch mit ner 3080.
Und bei ner 3070 läuft es auf FullHD fluffig. Auf WQHD mit RT Max evt. schon etwas eng, muss man sehen.

Nur OHNE DLSS wird es wohl halt eng - selbst bei ner 3090.

Turing-Nutzer müssen RT auf Low oder vielleicht Medium stellen.
Ist doch nicht ungewöhnlich, dass man mit älterer Hardware nicht alles auf Max stellen kann.
Um genau zu sein erwarte ich das von Spielen die gewisse Maßstäbe setzen sogar.
Wenn ich mit ner 2 Jahre alten GraKa alles auf Max setzen kann - wo ist der Fortschritt?

Und AMD Nutzer müssen RT ebenfalls auf Low oder so stellen.
Ist ja jetzt kein Weltuntergang. Und wer das absolut nicht ertragen kann muss sich halt ne Nvidia kaufen.


Aber noch mal, das war ja jetzt nur das, was von der Gamestar berichtet wurde - wie genau die Performance aussieht wird man sehen.

Crazy_Borg
2020-12-01, 13:14:50
Es sollte wohl hoffentlich von den Spielefirmen in Zukunft mehr auf AMD raytracing optimiert werden, allein schon deshalb, weil die aktuellen Konsolen ja AMD Hardwarebasiert sind.

Gast
2020-12-01, 13:27:24
AMD ist seit der letzten Gen in beiden leistungsstarken Konsolen. Für den PC hatte das kaum Auswirkungen.

Gast
2020-12-01, 14:47:12
Großartiges "optimieren" bleibt da den Spieleherstellern nicht, diese kommunizieren mit DXR, dieses mit dem Grafiktreiber, und dieser wiederum mit der Hardware.
Achso, dann gibt es also auch keine Spiele Engine, die besser auf NVidia oder auf AMD Hardware optimiert ist? Schließlich läuft da ja auch alles über DX9/10/11/12...
Natürlich kann man da noch was optimieren. Nur, weil es eine API gibt, heißt das doch nicht, dass ich als Entwickler keinen Einfluss mehr auf die Leistung des Spiels habe...

WedgeAntilles
2020-12-01, 14:59:00
Es sollte wohl hoffentlich von den Spielefirmen in Zukunft mehr auf AMD raytracing optimiert werden, allein schon deshalb, weil die aktuellen Konsolen ja AMD Hardwarebasiert sind.
Das spielt keine Rolle, falls RT so viel Leistung frisst, dass DLSS notwendig ist.
Ob ohne DLSS Nvidias RT 10% vor AMD liegt oder ob Gleichstand ist oder ob AMD 10% vorne liegt - völlig egal. Falls du den Performanceboost von DLSS brauchst, reicht weder das "reine" RT von Nvidia noch das von AMD aus.
Bei Nvidia ist es egal, da gibt es ja DLSS - dann aktiviert man halt das.
(Falls es das Spiel unterstützt.)

RT ist ein bisschen das, was Schatten vor zig Jahren mal waren.
Ein Feature, das sehr viel Leistung zieht - und die Rohleistung ist noch nicht hoch genug, um dieses Feature "zu finanzieren"
Wenn RT mich die Hälfte an Performance kostet schalte ich RT bei 80 Frames nicht unbedingt ein. 40 Frames ist einem vielleicht zu wenig.
Reicht meine Rohleistung aber für 160 Frames? Dann kann ich RT locker einschalten. Kostet zwar immer noch 50%, aber ob ich jetzt 160 Frames oder 80 Frames habe - who cares?

Und DLSS könnte halt bei vielen Spielen das Feature sein, wodurch die RT aktivieren und dennoch genug Frames haben wirst.

In ein paar Jahren könnte es wie bei Schatten sein - die hat heute jedes Spiel.
Kosten aber immer noch Leistung. Viel sogar. Aber die Rohleistung reicht halt, um die Schatten zu finanzieren.
Galt ja eigentlich für alle optischen Verschönerungen. Kantenglättungen und so weiter. Hat am Anfang alles so viel Leistung gebraucht, dass du teilweise in einen Bereich kamst wo du gesagt hast: Nö, lohnt nicht, deaktiviere ich.
Aber je mehr die leistung der GraKas stieg, desto selbstverständlicher wurden die Effekte.
Gut möglich, dass das bei RT genau so läuft.

Lehdro
2020-12-01, 15:37:52
AMD ist seit der letzten Gen in beiden leistungsstarken Konsolen. Für den PC hatte das kaum Auswirkungen.
Wissen wir nicht, da wir die Situation ohne GCN Konsolen nicht kennen.

WedgeAntilles
2020-12-01, 16:57:55
Wissen wir nicht, da wir die Situation ohne GCN Konsolen nicht kennen.
Ist zwar richtig, aber "wertlos" da es keinerlei Erkenntnisgewinn bringt.
Und nicht bringen kann.
Du kannst damit alles belegen oder halt nicht belegen.

Salz über die Schulter werfen wendet Unheil ab.
Kannst du das Gegenteil beweisen? Ohne es gemacht zu haben hätte man ja vielleicht mehr Unglück gehabt.

Wenn wir ne Jungfrau opfern hilft das gegen Corona.
Könnte man ja mal machen.
Wenn es nicht besser wird sagen wir einfach: Vielleicht wäre es ohne Opfer noch viel schlimmer geworden.

Deine Aussage ist dadurch natürlich immer richtig (man kann nie bewesen was gewesen wäre, wenn etwas anders gemacht worden wäre).
Aber eine Aussage die nicht falsifiziert werden kann ist per Definition wertlos.

Fakt ist: Es gibt empirisch keinerlei Hinweise, dass es AMD auf dem PC Vorteile bringt, in den Konsolen verbaut zu sein.
Das ist kein Beweis, dass es nicht so ist (wie du sagst, es könnte ja noch schlechter sein), aber wenn man eine These aufstellt ist man zunächst mal in der Bringschuld. Muss also Belege für die These liefern.

etp_inxession
2020-12-01, 17:31:38
Dein einzigen Vorteil bei RT hat nV durch den Vorsprung einer Generation.

Und wie viele Spiele gibts es bisher? 12?

Es werden an mit den Konsolen natürlich mehr Spiele die RT beinhalten.
Und welcher Hersteller darin steckt, ist hinlänglich bekannt.

Ich bin gespannt wo wir in 3 Jahren sind.

Ich gehe schwer davon aus das Cyberpunk das letzte, offensiv als "RTX On" beworbene Spiel sein wird.

Es sei denn nVidia nimmt wieder Geld in die Hand um die Spieleschmieden zu unterstützen.

Wie schon erwähnt.
Klassisch gesehen steht es (ab guter Verfügbarkeit) 3:1 pro AMD.
Das kann man mit den GCN Konsolen nicht vergleichen.

Aber lassen wir uns überraschen.

Und mit dem Support von Microsoft wird FFXSR mit Sicherheit recht schnell die "Leistung" von DLSS 2.0 erreichen können.
Interessant ob MS dieses Feature auf die Xbox beschränken will.

Lehdro
2020-12-01, 19:17:08
Das ist kein Beweis, dass es nicht so ist (wie du sagst, es könnte ja noch schlechter sein), aber wenn man eine These aufstellt ist man zunächst mal in der Bringschuld. Muss also Belege für die These liefern.
Moment: Die These war, dass es eben nichts gebracht hat. Beweise?

Aha, dachte ich mir.

Gast
2020-12-02, 10:04:02
Achso, dann gibt es also auch keine Spiele Engine, die besser auf NVidia oder auf AMD Hardware optimiert ist?

Eine Spieleengine läuft nicht unbedingt auf Hardware X besser, weil sie darauf "optimiert" ist.

Optimieren heißt zum selben Ergebnis in weniger Zeit zu kommen.
Dafür gibt es nur 2 Möglichkeiten. Entweder meine ursprüngliche Implementierung beinhaltet unnötige Arbeitsschritte und ich kann auch mit weniger auskommen und zum selben Ergebnis kommen.
Eine derartige Optimierung hilft aber immer jeder Hardware.
Zweite Möglichkeit ist, mehr Arbeitsschritte in der selben Zeit zu machen. Das ist aber nur möglich wenn die Hardware mit der Ursprungsimplementierung nicht ausgelastet ist.
Hier kann es im begrenzten Maße Optimierungen für einzelne Hardware geben. Die Frage ist aber nicht nur was ich hier in Software machen kann, sondern auch was überhaupt sinnvoll ist.
Wenn beispielsweise eine bestimmte Befehlsreihenfolge bei Hardware X zu Stalls führt, eine andere die zum selben Ergebnis kommt nicht, ist es nicht sinnvoll das in Software zu optimieren. Hier sollte gefälligst der Treiber die Befehle so umsortieren, dass die Hardware am besten damit klarkommt. Das hat mehrere Vorteile. Einerseits ist Hardware nicht statisch, und eine Optimierung die ich an dieser stelle für aktuelle Hardware mache könnte in der nächsten Generation kontraproduktiv sein. Wenn hier immer der Treiber den optimalen Befehlsstrom erzeugt ist garantiert dass es auf jeder Hardware optimal läuft. Andererseits gibt es nur sehr wenige Hardwarehersteller, aber sehr viele Softwarehersteller. Die Optimierung auf die Softwareseite zu verlagern würde heißen, dass jeder Softwarehersteller die machen müsste. Es ist ein viel effizienterer Einsatz der vorhandenen Ressourcen, diese nur 1x im jeweiligen Hardwaretreiber zu machen. Zusätzlich bedeutete es auch, dass ein Softwarehersteller nicht eventuell unterschiedliche Renderpfade abhängig von der Hardware implementieren muss.

Weitere mögliche Optimierungen sind nicht zeitkritische Dinge beispielsweise auf Async Compute Queues auszulagern. Aber AMD profitiert ja viel mehr davon, also ist das ja schon eine Optimierung auf AMD sagst du?
Ist es aber nicht, AMD profitiert viel mehr davon, weil die Voraussetzung dafür, dass wir überhaupt an dieser Stelle optimieren können viel stärker gegeben sind. AMD Hardware, vor allem GCN Hardware ist mit einer Renderqueue einfach viel schlechter ausgelastet als Nvidia Hardware, oder auch RDNA Hardware von AMD, wie man auch daran sieht, dass RDNA schon deutlich weniger von Async Compute profitiert.

Und das dritte was man machen kann, ist einfach weniger Arbeitsschritte an die GPU zu senden, nur ist das keine Optimierung mehr, wenn ich dadurch nicht das selbe Ergebnis erreiche.
Und das ist es was meistens gemacht wird. Wenn ein geplantes Feature auf der Lead-Plattform schlecht läuft wird es einfach nicht eingebaut sondern stattdessen ein alternatives, das vielleicht ähnlich gut aussieht aber weniger Performance kostet.

Wenn ich für meine Raytracing-Implementierung ein gewisses Budget an Rays habe, und ich dieses einschränken muss, weil es auf AMD Hardware dann nicht mehr zufriedenstellend läuft, ist das keine Optimierung für AMD, auch wenn AMD Hardware damit relativ näher an Nvidia Hardware rückt.

Crazy_Borg
2020-12-02, 10:51:54
Das spielt keine Rolle, falls RT so viel Leistung frisst, dass DLSS notwendig ist.


Von DLSS redet keiner, hier ging es um Raytracing.
Die neuen Konsolen werben damit, dass sie Raytracing beherrschen. Ob das sinnvoll ist oder nicht sei mal dahingestellt.
Die Spielehersteller werden es nutzen, einfach um es als Featuren auf die Store Seite zu pflanzen. Und da die RT Leistung der Konsolen wohl eher durchschnittlich ist werden die das Optimieren wie nur geht, um einen sichtbaren Effekt bei noch spielbarer Leistung zu haben.
Insofern wird RT aufgrund der Multiplattformtitel verstärkt auf AMD optimiert, es sei denn nVidia buttert den Spieleentwicklern weiter golden den Hintern.

Leonidas
2020-12-02, 12:29:43
@leo ... gleich in der Einleitung ist ein "t" zu viel.


Gefixt.




@Leo: wann wird der 3Dc FullHD & UltraHD Performance-Überblick aktualisiert?


Baldigst.

WedgeAntilles
2020-12-02, 13:10:11
Moment: Die These war, dass es eben nichts gebracht hat. Beweise?

Aha, dachte ich mir.

Entschuldigung?

Die erste Aussage zu diesem Thema ist das hier:
Es sollte wohl hoffentlich von den Spielefirmen in Zukunft mehr auf AMD raytracing optimiert werden, allein schon deshalb, weil die aktuellen Konsolen ja AMD Hardwarebasiert sind.

Also ist die These, dass es für AMD auf dem PC einen Vorteil bringt, dass in den Konsolen AMD verbaut ist.

Beweise?
Aha, dachte ich mir.


Von DLSS redet keiner, hier ging es um Raytracing.
Die neuen Konsolen werben damit, dass sie Raytracing beherrschen. Ob das sinnvoll ist oder nicht sei mal dahingestellt.
Die Spielehersteller werden es nutzen, einfach um es als Featuren auf die Store Seite zu pflanzen. Und da die RT Leistung der Konsolen wohl eher durchschnittlich ist werden die das Optimieren wie nur geht, um einen sichtbaren Effekt bei noch spielbarer Leistung zu haben.
Insofern wird RT aufgrund der Multiplattformtitel verstärkt auf AMD optimiert, es sei denn nVidia buttert den Spieleentwicklern weiter golden den Hintern.
Aber was, wenn optisch attraktives RT nur in Kombination mit DLSS performant genug ist?
Genau das ist es doch, worauf CP hindeutet.

Klar, man kann RT natürlich auch nur so minimal einsetzen, dass es keine großen Effekte auf die Framerate hat. Ob man es dann überhaupt einsetzen muss oder ob der Effekt kaum wahrnehmbar ist sei dahingestellt.

Bei den meisten RT Effekten sehe ich bisher eh fast keinen Unterschied - daher sehe ich CP als Indikator an, wohin die Reise bei RT geht.
Ist auch bei CP optisch quasi kein Unterschied zwischen RT Off und RT Max zu erkennen, kann man es wohl noch mindestens 1-2 Jahre komplett ignorieren.

Ist der optische Effekt aber sehr deutlich wird die Performance interessant sein.

Crazy_Borg
2020-12-02, 14:32:31
Nochmal, was hat jetzt DLSS mit Raytracing zu tun?
Das der nvidia-user eher die auflösung runterdreht um DLSS + RT zu nutzen dürfte klar sein, ist aber für die Gesamtsumme uninteressant.
Nur ein Viertel der Spieler kann DLSS nutzen.
PC-ler mit nvidia: ja
PC-ler mit AMD: nein
Xbox-ler: nein
PS5-ler: nein
(Switch user lasse ich mal aussen vor)

Kernaussage war:
AMD Raytracing taugt nix. Das war der Chorus seit 6800er Launch bis dato.
Die ersten Benchmarks aus den News zeigen zumindest eine angenäherte Performance im RT bei GLEICHEN Rahmenbedingungen.

Da nun aber die AMD-RT basierte Userbase 3-1 nvidia-RT dominiert (Systemweise gezählt, nicht nach verkaufter Hardware) tippe ich eher eine Verschiebung der Optimierung zugunsten von AMD.

Da du im Umkehrschluss mit der DLSS Keule kommst kann ich auch behaupten, dass nvidia sein RT gar nicht weiterentwickeln muss, weil das eh durch DLSS-Einsatz kaschiert werden wird. :freak:

Gast
2020-12-02, 15:16:33
Nochmal, was hat jetzt DLSS mit Raytracing zu tun?

DLSS ermöglicht es einem deutlich mehr Raytracing bei brauchbarer Performance einzusetzen.

Leonidas
2020-12-02, 15:35:04
@Leo: wann wird der 3Dc FullHD & UltraHD Performance-Überblick aktualisiert?


Erledigt!

Thunder99
2020-12-02, 19:06:25
Wird die 6800XT und 6900XT nicht hier schlechter dargestellt als sie ist? Ich setzte da mit meiner Kritik mit dem Test bei CB (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_zusatz_sieben_topaktuelle_spiele_im_benchmark) an. Je nach Parcour oder Spiel unterliegt die 6800XT der 3080 oder ist schneller. Daher hat die 6900XT das Potential die 3090 zu schlagen, aber sicherlich nicht überall wie die Verteilung bei der 6800XT zu 3080.

Daher finde ich es nicht ganz fair der 4K Index da er nicht die ganze Wahrheit sagt.

Gast
2020-12-02, 21:37:47
Daher hat die 6900XT das Potential die 3090 zu schlagen, aber sicherlich nicht überall wie die Verteilung bei der 6800XT zu 3080.


Hat sie nicht, die 6900XT muss weniger als 10% vor der 6800XT liegen, die 3090 liegt mehr als 10% vor der 3080.

Daraus folgt, die 6900XT muss hinter der 3090 liegen, so lang man nicht mit irgendwelchen Tricks alá Rage mode + SAM nachhilft.

Gast
2020-12-02, 21:38:37
Daher finde ich es nicht ganz fair der 4K Index da er nicht die ganze Wahrheit sagt.

Doch, die niedrigeren Auflösungen sagen nicht die ganze Wahrheit, je höher die Auflösung desto näher kommen wir der Wahrheit.

Leonidas
2020-12-03, 05:41:34
Er meinte eher damit, dass neuere Spiele andere Tendenzen zeigen.

In der Frage wird sich sicherlich eine Entwicklung ergeben. Aber jene braucht Zeit. Auch muß man klar sagen, dass der ältere Index bei der CB maßgeblich durch ein einziges Spiel (Wolcen) heruntergezogen wird. Nimmt man das heraus, sieht auch der ältere Index bei der CB schon besser aus.

Letztlich orientiert sich der 3DC-Index aber daran, was die HWtester in ihrer Gesamtheit aktuell testen. Was also für ein Performance-Bild in der Fachpresse dargestellt wird. Nicht was für ein Performance-Bild real existiert. Dass es da kleine Differenzen geben wird, sollte klar sein. Aber für letzteres wäre eine eigene, umfangreiche Testerarbeit notwendig - für ersteres "nur" das Auswerten der Tests der Fachpresse.

Thunder99
2020-12-04, 09:53:13
Stimmt. Danke für deinen Beitrag.

Aber du hast ja immer in der Vergangenheit den Index angepasst wenn es notwendig war. So sollte es dann doch passen :).

JVC
2020-12-04, 12:48:16
Daher hat die 6900XT das Potential die 3090 zu schlagen, aber sicherlich nicht überall wie die Verteilung bei der 6800XT zu 3080.

https://www.youtube.com/watch?v=UO170MOgukc
"Diese RX 6800 XT Red Devil schlägt meine RTX 3090 😱"

M.f.G. JVC

Gast
2020-12-04, 13:52:32
https://www.youtube.com/watch?v=UO170MOgukc
"Diese RX 6800 XT Red Devil schlägt meine RTX 3090 😱"

M.f.G. JVC

Ja toll eine bis zum Anschlag übertaktete 6800XT schlägt eine stock 3090 in 3dmark, einem Benchmark in dem die Radeon schon von haus aus sehr gut liegt, und liegt in den realen Benches immer noch hinter der 3080

nonharderware
2020-12-04, 15:37:13
Chip Base/Game/Boost max. Takt (@OC) TGP TBP Realverbr.
Radeon RX 6800 XT Navi 21 XT 1825/2015/2250 MHz 2577 MHz (2800 MHz) 255W 300W Ø 296W



Darf ich fragen wie der "max. Takt" zustande kommt bzw. woher diese Daten sind?

Den meine 6800XT - welche ich für im stehende Durchschnitt erachte - macht schon Core-Takt 2581 MHz bei einer durchschnittlichen Taktfrequenz von 2452 MHz.
Siehe https://www.3dmark.com/3dm/54131391? - ergo ist da bei anderen eventuell noch mehr drinnen.

Leonidas
2020-12-04, 16:46:35
Der Max-Takt steht im BIOS als eigentlich fester maximaler Takt (ohne OC) drin, bezogen auf eine Referenz-Karte.

Hast Du eine Karte mit Referenz-Taktung und ist jene eventuell übertaktet?

nonharderware
2020-12-04, 17:30:53
Der Max-Takt steht im BIOS als eigentlich fester maximaler Takt (ohne OC) drin, bezogen auf eine Referenz-Karte.

Hast Du eine Karte mit Referenz-Taktung und ist jene eventuell übertaktet?

Referenzkarte direkt von AMD - bei dem Durchlauf mit UV und OC.

Liegt es daran?
Falls ja: Pardon!

Leonidas
2020-12-05, 04:23:16
Richtig. Dann greift das andere Limit - 2800 MHz. Aber stark, dass Deine Karte tatsächlich zu so hohen Taktraten in der Lage ist.

nonharderware
2020-12-05, 12:39:58
Richtig. Dann greift das andere Limit - 2800 MHz. Aber stark, dass Deine Karte tatsächlich zu so hohen Taktraten in der Lage ist.

Sollten dich die aktuell besten Benchmark-Ergebnisse interessieren, ich habe sie hier https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12523749#post12523749 gepostet. Diese sind ziemlich stabil - etliche Durchläufe schwanken nur im Rahmen der Messungenauigkeit.

Ich denke dennoch, dass meine Karte eher im Mittel liegt und keine Besonderheit ist.
Also nicht, dass ich nicht total begeistert wäre ;) aber ich bin einfach der Meinung AMD hat hier exzellente Karten im Referenzportfolio.

Die kommenden Tage kommt eine weitere 6800 XT bei einem Kollegen an und dann werden wir ja sehen wo er landet.

Leonidas
2020-12-05, 12:56:33
Jo, das kommt mir auch so vor, als wären diesesmal die Referenzdesigns gut gelungen. Ganz abgesehen von den taktfreudigen Chips.