PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Radeon RX 6700 XT angeblich auf Performance-Höhe der RTX 3060 Ti


Leonidas
2021-02-20, 17:22:08
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-radeon-rx-6700-xt-angeblich-auf-performance-hoehe-der-geforce-rtx-3060-ti

Lyka
2021-02-20, 17:35:41
6GB für die NonXT ist schon wenig, 8 wäre cooler, aber naja. Der Rest ist "Mal sehen, wann die GPU für nen vernüftigen Preis beim Händler landet" :(

Tyrann
2021-02-20, 18:24:52
die mit 6GB würd ich nicht mehr kaufen

Lyka
2021-02-20, 18:29:10
insbesondere, da die 5700 bereits 8 GB hatte. Augenscheinlich ist RAM zu teuer?

Tyrann
2021-02-20, 18:32:17
möglich, oder die 6700 ohne XT bekommt nur die wenigen Salvagechips und ist daher dann nur schwer zu bekommen

Gast
2021-02-20, 18:35:10
"Mal sehen, wann die GPU für nen vernüftigen Preis beim Händler landet"
Das würde mich auch interessieren...
Auf Geizhals ist die 3090 inzwischen erst ab 2500€, die 3080 ab 2000€ und die 3070 ab 1300€ zu haben... Krank...

dargo
2021-02-20, 18:42:09
WTF AMD? 6GB bei non XT N22? :| Kann ich mir nicht wirklich vorstellen. 10GB mit kleinerem SI würden da viel besser ins Portfolio passen.

RitterRost
2021-02-20, 19:27:36
Auf jeden Fall ein schönes Störfeuer von AMD kurz vor dem 3060 Termin.
Wenn doch die Karten nur lieferbar wären...
Eine 6700XT würde ich zum Listenpreis kaufen.

dargo
2021-02-20, 20:04:53
Träumt weiter... schaut euch doch den Markt aktuell an. Ich erwarte Customs RX 6700XTs für 600+€ (womöglich sogar bei 700+€ wenn man sieht wo aktuell eine Custom 6800 non XT liegt) als Straßenpreis. Wenn die bis zu 230W ASIC gekeult werden dann sind Ziegelsteine wieder vorprogrammiert.

vinacis_vivids
2021-02-20, 20:05:01
6800/6800XT ~ 62 MH/s
prediction ~ 75% Leistung
6700/6700XT ~ 46,5 MH/s

Miner reiben sich auf jeden Fall schon mal die Hände bei 349-449$ pro Stück. Das sind alles Goldschaufeln.

Lyka
2021-02-20, 20:07:45
jepp, sehe ich auch so. Bis 2022 gibts keine vernünftigen Grafikkarten zum Spiele-Wert.

dargo
2021-02-20, 20:10:42
Miner reiben sich auf jeden Fall schon mal die Hände bei 349-449$ pro Stück.
Der nächste Träumer. :tongue:

jepp, sehe ich auch so. Bis 2022 gibts keine vernünftigen Grafikkarten zum Spiele-Wert.
Da bist du noch sehr optimistisch eingestellt. Ich erwarte jedenfalls nicht so schnell die alte Normalität. Corona und der ganze Mist der damit zusammenhängt wird uns imo länger beschäftigen.

Lyka
2021-02-20, 20:36:09
mich hat noch nie jemand optimistisch genannt, aber dein Eindruck stimmt. Wird sicher länger dauern.

Aroas
2021-02-20, 20:50:07
insbesondere, da die 5700 bereits 8 GB hatte. Augenscheinlich ist RAM zu teuer?

Ach, den Blödsinn hat NVidia doch auch bereits bei der RTX 2060 6GB abgezogen. Den leistungsmäßigen Vorgänger GTX 1070 gabs auch bereits mit 8GB Speicher und da war noch nichts von Corona oder sonstigen Faktoren, die Speicher besonders teuer machen, zu sehen.

Und AMD hat den Quark auch schon bei der 5600XT abgezogen, die deutlich teurer war als eine RX 580 8GB.

Ich find diese Speicherausstattung bei dem Preis, der für diese Karte aufgerufen werden wird, eine absolute Frechheit. Grafikkartentests zeigen ja bereits jetzt, dass einige Spiele mit 6GB bereits Probleme bereiten. Und das nicht erst in WQHD oder gar 4K.
So ein 6GB Modell könnten sie von mir aus noch für 200€ anbieten. Aber die RX 6700 wird wohl eher bei 300€+ ihren Listenpreis haben. Von den tatsächlichen Marktpreisen wollen wir mal gar nicht erst sprechen.

Lyka
2021-02-20, 20:52:32
jepp, bei der 5600 war ich wirklich sauer, das war die Graka, die ich 2020 kaufen wollte, aber nicht bei so wenig RAM

Lehdro
2021-02-20, 21:38:15
Mit 6 GiB ist die 6700 non XT quasi DOA. Aber Miner können sich freuen :)

Linmoum
2021-02-20, 22:23:16
Woher kommt das mit den 6GiB? Soweit ich weiß ist die einzige Grundlage dafür aktuell, dass ASRock (ergo einzig ein Boardpartner) bei der EEC Modelle mit entsprechender Bezeichnung registriert hat. Wenn es danach geht, hätte es aber auch sowas wie eine 5800X oder 5850X gegen, die Sapphire z.B. auch damals hat registrieren lassen.

6700XT und 6600XT mit 12GiB, die 6700 in der Mitte aber nur mit 6GiB ergibt keinen Sinn. Bei N10 war es wenn dann umgekehrt, was auch logischer wäre. Was die Boardpartner für Varianten anbieten, ist dann natürlich deren Sache. Offiziell wird man den Speicher bei einer 6700 aber sicher nicht halbieren.

vinacis_vivids
2021-02-20, 22:53:17
Die Halbierung des Speichers durch Boardpartner gabs schon zu Zeiten von Polaris und ist nichts neues.

Vermutlich wird diese Varianten geben:
6700XT 2560SP 12GB - 192bit (Referenz)
6700 2304SP 12GB - 192bit (Referenz)
6700 2304SP 6GB - 192bit (Partneroption)
6600XT 2048SP 12GB - 192bit (Referenz)
6600XT 2048SP 6GB - 192bit (Partneroption)
6600 1792SP 8GB - 128bit (Referenz)
6600 1792SP 4GB - 128bit (Partneroption)

Den Vollausbau N22 aka 6700XT gib`s sicherlich nur mit 12GB, die salvage Chips werden dann wechselnd bestückt. Speicher ist ja auch immer eine Frage des Geldbeutels beim Käufer. SAM wirkt ja zudem abmildernd auf die physische Speicherhalbierung.

Leonidas
2021-02-21, 03:28:36
Ich find diese Speicherausstattung bei dem Preis, der für diese Karte aufgerufen werden wird, eine absolute Frechheit.


Noch hat keinen einen Preis für eine 6700 non-XT genannt.




Woher kommt das mit den 6GiB? Soweit ich weiß ist die einzige Grundlage dafür aktuell, dass ASRock (ergo einzig ein Boardpartner) bei der EEC Modelle mit entsprechender Bezeichnung registriert hat.


+ PowerColor mit gleicher Registrierung
+ Coreteks-Video

dargo
2021-02-21, 08:08:03
Noch hat keinen einen Preis für eine 6700 non-XT genannt.

Dann nenne ich dir einen... 379$ UVP sofern der volle 40CUs N22 für 449$ kommen sollte. Oder welche Überraschungen erwartest du? Ich rede jetzt von UVPs, nicht von Straßenpreisen.

ashantus
2021-02-21, 11:19:36
Es wäre interessant, ob die Performance ohne SAM (resizable bar) angegeben ist.
Das geringe Leistungsplus zur 5700XT ist kurios.
Sollte SAM dazu kommen wird es eine gute Karte.

Leonidas
2021-02-21, 12:39:06
Sofern die Angabe von AMD stammt, sicherlich nicht.

dargo
2021-02-21, 12:55:34
Das geringe Leistungsplus zur 5700XT ist kurios.

Inwiefern? Das Ding soll mit 2,5-2,6Ghz laufen, ergo + ~38% Takt. Und da dieser nie 1:1 mitskaliert kommt es imo in etwa hin. Afaik hat RDNA2 vs. RDNA1 keine IPC-Verbesserungen abbekommen. Die Mehrleistung kommt hauptsächlich durch das Hochtakt-Design. Leider geht dadurch dann aber auch die Effizienz flöten wenn AMD die 40CUs mit so hohen Frequenzen laufen lassen muss/will. Bei den hochgeprügelten Custom Karten mit bis zu 230W ASIC erwarte ich eher ~2,7+Ghz wenn die 2,5-2,6Ghz bei 189W stimmen.

ashantus
2021-02-22, 13:48:42
ich finde die 6700XT kurios, weil sie in Sachen Speicherbandbreite einen Rückschritt zur 5700XT darstellt.
die 5700XT hat 14 Gbit*256bit = 448 (3548bit) GByte/s Speicherbandbreite

die 6700XT hat 16 Gbit*192bit = 384 GByte/s Speicherbandbreite

Im Gesamtvergleich kann man die Anzahl der Shadereinheiten außen vor lassen, weil diese über die gleiche Anzahl verfügen. Einziger weiterer Technologieunterschied wird eben RDNA2.

Deswegen komme ich bei der 6700XT zum Schluss:
um die 12 GB Vram am 192 bit interface zu ermöglichen, nimmt man den Malus einer Reduzierung der Speicherbandbreite in Kauf.
Damit insgesamt jedoch Mehrleistung entsteht wird als Bonus die GPU enorm im Takt beschleunigt.
Dies mag durch eine bessere Fertigungstechnologie als auch durch Einführung von RDNA 2 möglich sein.

Ergo hat die 6700XT ein Bonus und ein Malus ggü. der 5700XT, wobei der Bonus überwiegt.

Leonidas
2021-02-22, 13:57:59
Ich finde es ausgewogen. Mit 256-Bit-Interface hätte man nur 8/16 GB Speicher bieten können, was für diese Preisklasse entweder zu wenig oder zu viel ist. Dass die Speicherbandbreite mit jeder Generation bezogen auf die Rechenleistung sinkt, ist dagegen normal. Man denke an frühere Boliden mit 512er Interface.

Zudem hat die 6700XT ja einen Infinity Cache. Wenn der 50% abfängt, hat die Karte sinnbildlich eine doppelte Speicherbandbreite - und damit wieder klar mehr als die 5700XT.

Ravenhearth
2021-02-22, 14:35:36
Ja, die RX 6700 XT scheint ausreichend Bandbreite zu haben. Man hat etwas mehr als die Hälfte der Rechenleistung der RX 6900 XT bei 3/4 der Bandbreite (und 3/4 des Infinity Cache?).

ashantus
2021-02-22, 14:39:05
Ich finde es ausgewogen. Mit 256-Bit-Interface hätte man nur 8/16 GB Speicher bieten können, was für diese Preisklasse entweder zu wenig oder zu viel ist. Dass die Speicherbandbreite mit jeder Generation bezogen auf die Rechenleistung sinkt, ist dagegen normal. Man denke an frühere Boliden mit 512er Interface.

Zudem hat die 6700XT ja einen Infinity Cache. Wenn der 50% abfängt, hat die Karte sinnbildlich eine doppelte Speicherbandbreite - und damit wieder klar mehr als die 5700XT.

Aso, ich dachte die 5700XT hat bereits den Infinity Cache. Wieviel dieser ausmacht, ist mir noch nicht bekannt. Bin eben nicht ganz so tief in der Materie wie ihr. Es war eben der Ersteindruck, daß weniger Speicherbandbreite da wäre.

Was wäre denn die Formel um die Performance des Infinty Cache zu berechnen? :wink:
Einfach mal zwei nehmen? Weil Du sagtest, "doppelt"

vinacis_vivids
2021-02-22, 14:51:39
Den uArch Vergleich zwischen Navi 1.0 und Navi 2.0 hat noch keiner gemacht.
Gründe:
Erstens: Es gibt noch keine RX6700 XT auf dem Markt.
Zweitens: Es erzeugt zu wenig clickbaits für die sensationsgeilen Kids, die wenig Ahnung von der Materie haben.
Drittens: So ein Vergleich kostet Geld, Wissen, Zeit und Arbeit, die sich kaum einer antut.

ashantus
2021-02-22, 15:08:59
Ich habe mir gerade die Beschreibung des Infinity Cache auf der 6800Xt durchgelesen. Und komme somit auf folgende Werte:
Die 6800XT hat klassisch gerechnet 16GBit/s*256bit = 512GByte/s (ohne den Infinity Cache.)
Mit Infinity Cache 128 Mb gibt es die offizielle Angabe von AMD, daß 1664 GByte/s erreicht werden, also die 3,25 fache Geschwindigkeit.

Somit wäre die 6700XT mit 384GByte/s mit Infinity cache Multiplikator 3,25 bei einer Speicherbandbreite von 1248 GByte/s
https://i.redd.it/xt0wfz1povv51.jpg

Andererseits gibt es die Stellungnahme von AMD, daß Infinity Cache die Leistung um den Faktor 2,17 anhebt. Dies sorgt nun für Verwirrung, ehrlich gesagt.
Abbildung Nr. 5 "Revolutionary Infinity Cache"
https://www.techarp.com/computer/amd-infinity-cache-explained/

Muß man für die 6700XT nun die 2,17 oder die 3,25 als Multiplikator nehmen?

Leonidas
2021-02-22, 16:21:21
Differenz zwischen Markting-Maximum, passabel ehrlicher Ingenieurs-Aussage ... und unabhängig gemessener Realität. Letztere fehlt noch.

GerryB
2021-02-22, 16:28:11
Ich finde es ausgewogen. ...

Zudem hat die 6700XT ja einen Infinity Cache. Wenn der 50% abfängt, hat die Karte sinnbildlich eine doppelte Speicherbandbreite - und damit wieder klar mehr als die 5700XT.

Wobei die 50%(58% bei der 6800) auf 4k bezogen sind, Was net die reale Auflösung für die Kleine sein sollte. Daher wird die Verkleinerung des Caches ggü. der 6800 wahrscheinlich auch noch problemlos in 1440p ohne große CacheMisses funzen.
Die CacheMisses steigen ja erst mit der Auflösung an.
Und
In FHD ist wahrscheinlich die 6700nonXT recht gut dabei.

btw.
Nach m.E. sind die CacheMisses in 4k übrigens gar net so bei den minFps zu merken, eher bei den Max. (zeigt der neue CB-Parcour)
Die grottigen Engines habe ich mal ausgeblendet, weil dort net klar ist, wo die Unterschiede AMD/NV herkommen.(muss net am Cache liegen)

Den uArch Vergleich zwischen Navi 1.0 und Navi 2.0 hat noch keiner gemacht.

Was willst Du Da groß vgl.? (Bei gleichem Prozess sinds sicher net nur die neuen Bibliotheken, sondern auch die Verdopplung von XYZ etc.)
https://www.heise.de/hintergrund/Big-Navi-der-Grafikchip-hinter-AMDs-Radeon-RX-6800-6900-4964536.html
(siehe theor. Benchmarkexp. II am Schluss des Artikels)
Der große Sprung in der Eff. 6800 vs. 5700XT vs. Vega64-10% vs. RX580+10%=RX590 ist doch offensichtlich bei annähernd gleichem Verbrauch. (wurde in den Reviews eigentlich auch gezeigt...Liegt u.A. am neuen Cache)
Ansonsten hängt die Eff. eigentlich hauptsächlich von der Software ab! Nur neue Featuresets ala VRS+MS+SAM zeigen dann
den Unterschied. Zusätzlich könnte man Sup4k heranziehen, um mal nach den ROP`s zu schauen, wo AMD immer noch <NV dimensioniert ist (ist halt ne ökonomische Entscheidung ob soviel Lichtquellen/deferred Lighting in Games zu erwarten sind).
als Bsp. mal die besten Engines: SW:S für Frostbite@DX11 mit Shaderinsintrincs vs. Dirt5@VRS und zusätzlich mal noch DE(mit VRS?) vs Godfall(x).VariableRateShading kann natürlich nur ein paar Prozent bringen, Was es auch tut. Mesh-Shader braucht man mit <RDNA2 net testen, der Zuwachs ist offensichtlich.
H3 vs Sup zeigt sich auch "ähnlich", anscheinend reichen die ROP´s erstmal für die meisten Games.

(x) Wieso CB das olle Gears5+B3 im "neuen" 2021-Parcour hat, aber Godfall net, finde ich erstaunlich. Wenn schon.. dann die neueste Fassung der jeweiligen Engine.(So ein Quark wie Deathstranding gehört überhaupt net in den Parcour... war wohl ein Kompromiss wg. DLSS. Dito wozu braucht man Mafia, wenn das Genre bereits durch WDL+CP abgebildet wird.
Und das olle Control zieht seine alleinige Daseinsberechtigung aus dem Zusatz-RT-Test, nach m.E. kein 2021-Game. Da kann ich nur sagen, manchmal wären weniger Games mit mehr Bedacht ausgewählt sinnvoller.
Mit der gesparten Zeit könnte CB dann ganz easy auch mal UWQHD in den Parcour aufnehmen. Ein Zusatztest High statt Ultra bietet sich genauso an bzw. ist eigentlich für UWQHD sinnvoller. Falls die 6700XT die Auflösung@High noch innerhalb der FreesyncRange>48Fps stemmen kann wärs doch aus Monitorsicht sehr interessant. Das wäre dann aufgrund der derzeitigen Preise sinnvoller als der Kauf der großen Chips.
.. Eigentlich sind die Hardware-Reviews viel zu sehr auf 4k-Ultra-Maxed@Enthusiast zugeschnitten, damit überhaupt net im Interesse von 98% der User.
.. Stattdessen gibts bei einigen Reviewern komische Parcours, gerade bei Raff gelesen, das WDL+D5+Godfall+SW:S net dabei ist. Da hätte Er sich sein Geschwurbel vom gewissenhaften Reviewer auch schenken können.
--> Kein Wunder, das dann in der Summierung solche Abweichungen zw. den Reviewern entstehen, wenn die Gameauswahl net automatisch die neuen Titel beinhaltet.)

GerryB
2021-02-24, 06:46:49
Weil ich gestern nebenbei das merkwürdige Verhalten einiger Reviewer angesprochen hatte. Aus gegebenem Anlass.. TPU hat seine Verbrauchsmessung verschlimmbessert!?
(hatte wohl NV net gefallen, das im LC-Review die 3080 soviel W mehr gezogen hat als beworben)

Ursprünglich hatte man mal anscheinend 12V+3V gemessen ala Igor.
Beim Trio-Review hat sich dann auf wundersame Weise der Verbrauch der 3080 reduziert. (aus dem Grund kann man wirklich nur bei Igor nachschauen bzgl. Eff.-Messungen)

Leonidas
2021-02-24, 07:39:57
Oder anderer Bewertungsmaßstab? Anderes Spiel, andere Szene, andere Auflösung. Müsste man alles nachprüfen, wird leider selten gut dokumentiert.

GerryB
2021-02-24, 09:20:32
Kann sein, war letztes Jahr wohl in ME gemessen.(da war bei TPU das der avg.GamingWert)

Z.Vgl. ergänze ich mal Oben noch die Verbrauchsmessung von guru3d, die eher den hohen Wert bei der 3080 bestätigt.
(im 6900LC-Review)

ganz nebenbei
Man hat jetzt also bei Interesse einen Vgl. wie eine 6900 vs 3080FE @335..338W abschneidet:

SAM on bei Igor
https://www.igorslab.de/sapphire-rx-6900xt-toxic-im-test-ist-amds-kampfbolide-mit-all-in-one-wasserkuehlung-besser-als-die-nitro/
SAM off bei guru3d
https://www.guru3d.com/articles_pages/asus_radeon_rx_6900_xt_strix_oc_lc_review,5.html

Um mal wieder auf den Artikel zurückzukommen:
Eigentlich verrückt, das die halb so große 6700XT als Custom u.U. generöse 270W@PL+15 ziehen darf!
(genausoviel wie ne 6800ref@PL+15)
Aber eine Entwarnung gibts dennoch hinsichtlich der NT´s. Bei Igor reichen dafür 500W.(wenn Das von AMD so geplant ist, dann 1+)
https://www.igorslab.de/reichen-500-watt-amd-radeon-rx-6800-und-nvidia-geforce-rtx-3070-gegen-ein-be-quit-pure-power-11-500-w/

Raff hat mittlerweile seinen 2021-Parcour online. (Wie bereits gedacht, funzt SAM bis in UWQHD ganz gut bei entspr. Engines)
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikkarten-Leistung-2021-1366846/
Dankenswerterweise hat Er nochmal die Grafik zum Wirkungsgrad des IF-Caches mit im Artikel: ergänzt somit ganz gut meinen Post#31
(hatte die Grafik schon gesucht, wohl nur im Reviewerguide enthalten)
Kurz mal reingeschaut, DE-AG ist doch etwas Anders als DE, gerade die Pascals haben hier deutlich nachgelassen: (ist ein Game für SAM off)
(Der 5700XT fehlen hier z.Bsp. 23% auf die 3060Ti, Was u.U.die 6700XT gerade so schaffen könnte...Es wird spannend!)
Auf den zweiten Blick ist der Parcour als Gesamtkunstwerk (FPS-Score Overall über 4 Auflösungen) net glücklich gewählt,
die neuen extra Scores für 6900>3090 und 3090>6900 sind etwas besser aber net perfekt für einen Overall,
weil die 2x Ausreisser W3+D3 nach m.E. too much sind. Alle anderen Games nehmen sich in 4k net allzuviel +17 AMD vs +25 NV.
(da könnte z.Bsp. bei gleichen 340W die 6900 weiter aufschliessen und die 3090 würde etwas nachlassen...ähnliche Effizienz der EnthusiastChips)

Gast
2021-02-24, 15:57:50
ganz nebenbei
Man hat jetzt also bei Interesse einen Vgl. wie eine 6900 vs 3080FE @335..338W abschneidet:

SAM on bei Igor
https://www.igorslab.de/sapphire-rx-6900xt-toxic-im-test-ist-amds-kampfbolide-mit-all-in-one-wasserkuehlung-besser-als-die-nitro/
SAM off bei guru3d
https://www.guru3d.com/articles_pages/asus_radeon_rx_6900_xt_strix_oc_lc_review,5.html


Das ist schwer vergleichbar, durch die Wasserkühlung und die damit niedrigen Temperaturen erhöht sich die Effizienz erheblich.

Man müsste also schon auch eine Wassergekühlte 3080 dagegen stellen.

Gast
2021-02-24, 16:01:44
Differenz zwischen Markting-Maximum, passabel ehrlicher Ingenieurs-Aussage ... und unabhängig gemessener Realität. Letztere fehlt noch.

Eine ehrliche Antwort wäre gar nichts davon.

Physikalisch vorhandene Bandbreite ist immer das Maximum, und die effektive Bandbreite liegt immer darunter, niemals darüber.

Alle "effektive Bandbreite" Angaben die weit über der physikalischen Bandbreite liegen sind reine Marketinghirngespinnste.

GerryB
2021-02-24, 18:40:18
Das ist schwer vergleichbar, durch die Wasserkühlung und die damit niedrigen Temperaturen erhöht sich die Effizienz erheblich.

Man müsste also schon auch eine Wassergekühlte 3080 dagegen stellen.
Jein,
grundsätzlich ist sicher die Chiptemp. günstig bei diesen Hybridlösungen, aber die Spawas sind net so gut wie bei Fullcover gekühlt,
hinzu kommt, das AMD net so Temp. abhängig taktet wie NV.(und die Strix mit 240erAiO und die Toxic mit 7-BlattLü. sind auch net so prall)
Man müsste also ne ähnliche Ampere-Hybrid hernehmen, wie die XC3,Waterforce oder Seahawk und auf die selben W bringen.
Ob die 3080FE solange aufgeheizt und in nem schlecht belüfteten Case war, das ein Perf.abfall auftritt ist bei den Reviewern leider net angeführt.
alternativ
Kann man natürlich die Custom-Reviews für die 6900 abwarten. (derzeit ist nur die GB OC mit 330W spezifiziert und mild getaktet)
Ein Bsp. für Air-Custom bei TPU aber mit rel. altem Parcour...differiert sichtlich zu Computerbase2021, dort leider nur die Ref.@Stock.
https://www.techpowerup.com/review/gigabyte-radeon-rx-6900-xt-gaming-oc/29.html
https://www.computerbase.de/2021-02/amd-radeon-nvidia-geforce-benchmark-test-2021/3/#abschnitt_benchmarks_in_3840__2160
Subjektiv würde ich die MERC kaufen statt der GB, weil der Kühler nen besseren Eindruck macht. Die GB ist nur aufgrund der Länge für kleine Cases interessant.
https://www.youtube.com/watch?v=BSSRi4RHpnY&feature=emb_logo


btw.
Für die kleineren 6800XT kann man den Vgl. zur 3080FE genauso mit Air-Customs machen: hier ist die 3080 dann net schneller bei 330W
https://www.igorslab.de/xfx-rx-6800-xt-merc-319-16-gb-im-test-schwerer-brocken-fuer-harte-aufgaben/
https://www.igorslab.de/msi-rx-6800xt-gaming-x-trio-16-gb-im-test-vernunft-auf-leisen-sohlen-mit-ordentlich-reserven-fuer-uebermuetige/

Leonidas
2021-02-25, 03:17:26
Alle "effektive Bandbreite" Angaben die weit über der physikalischen Bandbreite liegen sind reine Marketinghirngespinnste.


Selbstverständlich.

Aber im gegenteiligen Fall müsste man den Leuten erstmal beibringen, dass alle früheren Marketing-Angaben über Bandbreiten Nonsens waren. Da friert den Marketing-Leuten allein beim Gedanken daran was ab.

Gast
2021-02-25, 09:21:14
Jein,
grundsätzlich ist sicher die Chiptemp. günstig bei diesen Hybridlösungen, aber die Spawas sind net so gut wie bei Fullcover gekühlt,


Das sollte egal sein, so lange die Temperatur der SpaWas so hoch ist, dass das ganze Throttelt, insbesondere bei AMD, deren Turbosteuerung ja von der abgegebenen Leistung nach den Spannungswandlern abhängt und nicht wie bei AMD von der aufgenommenen Leistung der gesamten Karte.

Nur mal als Beispiel meine 2080Ti, die taktet mit Standardkühler zwischen 1,7 und 1,8 GHz und ist dabei praktisch immer am Powerlimit.

Seit sie mit Wasser gekühlt ist taktet sie ohne zusätzliche Maßnahmen mit ~2GHz, und ist je nach Spiel sogar noch ein Stück vom Powerlimit entfernt.

Im Endeffekt erreiche ich also im Schnitt ~15% höhere Taktraten, bei ~5% weniger Verbrauch, rein durch die niedrigeren Temperaturen.


btw.
Für die kleineren 6800XT kann man den Vgl. zur 3080FE genauso mit Air-Customs machen: hier ist die 3080 dann net schneller bei 330W
https://www.igorslab.de/xfx-rx-6800-xt-merc-319-16-gb-im-test-schwerer-brocken-fuer-harte-aufgaben/
https://www.igorslab.de/msi-rx-6800xt-gaming-x-trio-16-gb-im-test-vernunft-auf-leisen-sohlen-mit-ordentlich-reserven-fuer-uebermuetige/

Im Endeffekt geben sich die beiden nicht viel, am interessantesten finde ich noch den Test von Computerbase in dem sie alle Karten auf das selbe Powerlimit setzen.

Man kann sagen, die Effizienz von von RDNA2 und Ampere ist quasi identisch, je nach konkreter Umsetzung der einzelnen Produkte kann es natürlich leicht in die eine oder andere Richtung variieren.

GerryB
2021-02-25, 10:10:48
Jo,
man müsste eigentlich das Diagramm über die Trefferquote in 4k zugrunde legen und dann werden aus 1664 dann ca. 512+ evtl.(1664-512)*0,58 = nur noch 512..1180.
(praktisch muss sicher net der volle Content über die langsamen 512 nachgeladen werden sondern nur ein Teil)

Das reicht anscheinend auch in normal 4k noch für gute minFps (siehe Post#31).

Das natürlich windige Reviewer dann BF5 in 4k@150% Renderscale für nen Parcour verwenden,
um die Trefferquote weiter zu drücken, ist sicher "unabsichtlich".(bei Raff)
Der praktische Nutzen dieser Auflösung in nem schnellen Shooter erschließt sich mir net!
(ist wohl nur Was für den gelangweilten Photoshopper)
So ähnlich schauts auch noch in anderen Games aus, wo das gewählte Setting unter 60Fps fällt, wozu?
(die Studios optimieren Ihre Games nur auf 4k und net auf 150%-Scale, damit ist der ganze Quark net aussagekräftig
dito baut AMD keine Hardware für 4k@150%, ist auch net für 8k beworben wie die 3090)

vinacis_vivids
2021-02-25, 14:50:55
PCGH hat viel Arbeit in schlechten und gleichzeitig sauren veralteten Quark investiert.
150% resolution scale und 8XMSAA sind (nahezu) völlig unnützige leistungsfressende post-processing-Effekte fernab der Realität. Da kommt der verschlossene Bandbreitenkompressionsalgorythmus von Nvidia besonders zum scheinen bei ruckelnden 10-20fps. Das wird dann gefeiert als technischer Fortschritt und absolutes GPU-Limt um Zukunftssicherheit vorzugaukeln.

Dann sind mittlerweile die Marketingfolien von AMD schon ne Stufe ehrlicher und der Wahrheit näher.

Gast
2021-02-26, 09:52:08
Jo,

Der praktische Nutzen dieser Auflösung in nem schnellen Shooter erschließt sich mir net!


Gerade bei den relativ hohen Sichtweiten in Battlefield profitiert man durchaus von hohen Auflösungen, ganz einfach weil man Dinge sehen kann, die ansonsten im Pixelmatsch untergehen würden.