PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: 6900XT Launchreviews: Die Testresultate zur UltraHD/4K-Performance ...


Leonidas
2020-12-08, 18:38:07
Link zur News:
https://www.3dcenter.org/news/radeon-rx-6900-xt-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick

Platos
2020-12-08, 18:56:04
Das ist schon arg lächerlich. Die 6800 ist schon nur mit einem zugekniffenem Auge ein guter Deal. Schlechteres P/L, weniger RT Leistung und kein DLSS, dafür doppelter Speicher.

Die 6900XT ist hingegen immens teurer und bietet nicht mal wirklich viel mehr Leistung, wie die 3080 (wie es die 6800 im Vergleich zur 3070 tut). Eig. erreicht sie 3080 Perfomance. Also das P/L ist schon lächerlich.

Aber anscheinend geht man davon aus, dass nvidia eine 3080Ti mit 20GB Speicher bringt. Wenn diese 999 kostet, dann wäre aber selbst dann die 6900XT ein schlechter(er) Deal. Und vermutlich bringt die 3080Ti auch noch mal ein paar Prozent mehr Leistung oben drauf, was dann die 6900XT entgültig schlecht dahstehen lässt.

Ist ja schön, dass AMD wieder wenigstens einen vollwertigen 3080 Konter hat (mal abgesehen von DLSS und RT), aber sie müssen auf jeden Fall einen DLSS konter bringen, der dann auch von der Qualitätsseite her überzeugt.

y33H@
2020-12-08, 19:09:05
Golem hat auch noch sechs neuen Spiele zusätzlich, ähnlich wie Computerbase:
Assassin's Creed Valhalla (Anvil Next 2.0)
Call of Duty Black Ops Cold War (IW Engine)
Crysis Remastered (Cryengine)
Dirt 5 (Onrush Engine)
Serious Sam 4 (Serious Engine)
Watch Dogs Legion (Disrupt Engine)

https://www.golem.de/news/radeon-rx-6900-xt-im-test-amds-rasterization-renner-2012-152566-3.html

Leonidas
2020-12-08, 19:15:37
Natürlich übersehen ... sorry. Aber ich hätte jene vermutlich sowieso nicht mit reinbringen können, weil nur 3 Gfx zu wenig sind.

In jedem Fall brauchen wir für 2021 neue Benchmark-Parcours.

hq-hq
2020-12-08, 20:54:25
Golem hat auch noch sechs neuen Spiele zusätzlich, ähnlich wie Computerbase:


https://www.golem.de/news/radeon-rx-6900-xt-im-test-amds-rasterization-renner-2012-152566-3.html

Da steht die 6900xt läge in allen sechs Spielen vor der rtx 3090, die Grafiken zeigen aber das es nicht mal bei der RTX 3080 zutrifft.

seba86
2020-12-09, 00:03:13
In jedem Fall brauchen wir für 2021 neue Benchmark-Parcours.


:cool:

Nightspider
2020-12-09, 00:04:54
Das ist schon arg lächerlich...

Die 6900XT ist hingegen immens teurer und bietet nicht mal wirklich viel mehr Leistung

Ist ja schön, dass AMD wieder wenigstens einen vollwertigen 3080 Konter hat

Glaub dir ist nicht klar wie eng die 3080 und 3090 beieinander liegen und die 6900 sich deutlich besser übertakten lässt.
Eine gute Custom ist locker auf 3090 Niveau übertaktbar und das für 350-500 Euro weniger.

Dazu kommt das die neueren Spiele dank den neuen Konsolen auch öfter auf RDNA2 optimiert werden dürften und sich in Zukunft
wahrscheinlich das Verhältnis zugunsten AMD verschiebt.

Warum du dich überhaupt bei den Pestige-Karten über die Preise aufregst..

Und der Markt wird bei der 6800 schon den Preis regeln.

Lowkey
2020-12-09, 00:11:47
Es läuft alles auf eine 3080Ti 20gb hinaus. Das wird die Wohlfühlkarte. Und die hält dann wie die 1080Ti 3-4 Jahre durch.

Denniss
2020-12-09, 00:16:43
Träumen kann man immer. Selbst wen die kommt wird die Verfügbarkeit wohl genauso gut sein wie bei den bisherigen großen Amperes.

Platos
2020-12-09, 01:24:05
Glaub dir ist nicht klar wie eng die 3080 und 3090 beieinander liegen und die 6900 sich deutlich besser übertakten lässt.
Eine gute Custom ist locker auf 3090 Niveau übertaktbar und das für 350-500 Euro weniger.

Dazu kommt das die neueren Spiele dank den neuen Konsolen auch öfter auf RDNA2 optimiert werden dürften und sich in Zukunft
wahrscheinlich das Verhältnis zugunsten AMD verschiebt.

Warum du dich überhaupt bei den Pestige-Karten über die Preise aufregst..

Und der Markt wird bei der 6800 schon den Preis regeln.

Du meinst weil fine wine :D

Die paar Prozentchen mit übertakten machen den Braten nicht fett. Deine selbst erstellten Zukunftsprognosen kannst du gerne jemand anderem erzählen.

Platos
2020-12-09, 01:25:56
Es läuft alles auf eine 3080Ti 20gb hinaus. Das wird die Wohlfühlkarte. Und die hält dann wie die 1080Ti 3-4 Jahre durch.

Naja, sehen wir dann, wie der Preis aussieht. 999 Listenpreis heisst 1150 für gute Custommodelle. Also fast RTX2080Ti Preise.

Vor 2 Jahren nannte man das mal noch überteuert. Jetzt ist es die Wohlfühlzone ;) ?

Aufgrund des niedrigen Speichers wird nvidia vermutlich nächste Generation (hoffentlich) mehr Speicher bringen müssen (ewig können sie das auch nicht tun). Und dann sieht die überteuerte 3080Ti dann auf einmal ziemlich schlecht aus.

Linmoum
2020-12-09, 01:56:34
Die paar Prozentchen mit übertakten machen den Braten nicht fett.Aha. Ich sehe da Taktreserven von >20% ggü. Stock-Settings. Wenn man eine 6900XT unter Wasser setzt, dann geht da einiges.

Platos
2020-12-09, 02:13:14
Man braucht also noch +100 für einen Wasserblock inklusive Custom Wasserkühlung?

Aha... Na dann.

Edit: Und sind wohl eher 5-10%, wenn man mal im hardwareluxx und bei CB nachschaut. Das Powerlimit greift da recht früh.

iamthebear
2020-12-09, 02:44:21
Also was die normale Rasterizing Performamce angeht ist die 6900 XT schon sehr überzeugend. Taktet man die 6900 und die 3090 auf die selbe Verlustleistung hoch bzw. runter dann nehmen die sich nicht viel. Bei neueren Spielen ist die 6900 sogar eine Spur vorne.

Allerdings fehlt AMD eben DLSS und ohne DLSS sind die vorhandenen RT Einheiten auch nutzlos.

matty2580
2020-12-09, 03:07:32
Das ist schon heftig wie AMD mit den eigenen Folien vor Release von Big Navi den Vergleich zwischen der 6900 und 3090 geschönt hat, wenn die 3090 gemittelt über 14 Tests über 10% schneller ist.

Jetzt ist die 6900 gerade einmal 1,4% schneller als die 3080, und deutlich langsamer als die 3090.
Dazu kommt der deutlich bessere Preis der 3080, DLSS, und schnelleres Raytracing.

Nvidia ist günstiger als AMD bei diesem Vergleich, verrückte Welt......

Ätznatron
2020-12-09, 07:05:44
Das ist schon heftig wie AMD mit den eigenen Folien vor Release von Big Navi den Vergleich zwischen der 6900 und 3090 geschönt hat, wenn die 3090 gemittelt über 14 Tests über 10% schneller ist.

Jetzt ist die 6900 gerade einmal 1,4% schneller als die 3080, und deutlich langsamer als die 3090.
Dazu kommt der deutlich bessere Preis der 3080, DLSS, und schnelleres Raytracing.

Nvidia ist günstiger als AMD bei diesem Vergleich, verrückte Welt......

Die 3080 ist mit ihrem Mickerspeicher keine ernsthafte Alternative.

Solange (nicht nur) diese nVidia-Karte zudem noch DLSS braucht, um trotz der dadurch erfolgenden BQ-Verschlechterung dann immer noch keine vernünftige Leistung mit RT on liefern zu können, macht sie eindeutig nur zur 2.Wahl.

matty2580
2020-12-09, 07:39:57
Ich würde für 6GB VRAM mehr niemals 300€ Aufpreis für die 6900 zahlen.
Und was Raytracing betrifft ist selbst eine 3080 deutlich schneller als eine 6900.

Benchmarks mit Raytracing
Mit Raytracing arbeiten Nvidias Ampere-Grafikkarten in aktuellen Spielen teils deutlich schneller als AMDs RDNA-2-Modelle, woran auch die Radeon RX 6900 XT nichts ändert. Sie ist in 2.560 × 1.440 zwar 8 Prozent flotter als die Radeon RX 6800 XT, womit sich AMDs Flaggschiff auch um 8 Prozent an der GeForce RTX 3070 vorbeiquetscht, sich aber noch immer um ordentliche 18 Prozent der GeForce RTX 3080 geschlagen geben muss. Die GeForce RTX 3090 ist um 24 Prozent voraus. Die Radeon RX 6900 XT verliert durch Raytracing im Durchschnitt 44 Prozent ihrer Performance und damit genauso viel wie die Radeon RX 6800 XT.
https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/2/

Interessanter ist da eher die 6800 XT.
Die ist aber auch schwächer als die 3080.

Gast
2020-12-09, 07:46:21
In jedem Fall brauchen wir für 2021 neue Benchmark-Parcours.
Ja, das sehe ich auch so... Vielleicht mal welche ohne veraltetem DX11 und schon gar ohne DX9 aus dem Jahr 2002(!!!). Gerade PCGH weicht ja massiv von allen anderen ab, das könnte (oder müsste?) man ja schon fast als Ausreißer aus der Wertung nehmen...

Gast
2020-12-09, 08:10:52
Das ist schon heftig wie AMD mit den eigenen Folien vor Release von Big Navi den Vergleich zwischen der 6900 und 3090 geschönt hat, wenn die 3090 gemittelt über 14 Tests über 10% schneller ist.
Sind es denn wirklich 14 Tests? Hat jeder Test grundsätzlich andere Spiele als der Andere, oder gibt es da Überschneidungen? Denn dann wäre der Test teilweise redundant. Dann wird's natürlich interessant, ob die ermittelten Werte auch zusammenpassen, oder ob sich da schon Abweichungen ergeben. Und dann kommt es natürlich auch auf die ausgewählten Spiele an, da gibt's ja auch massive Schwankungen (in Black Mesa ist die 3090 29%/25% vor der 6900XT, in Dirt5 hingegen die 6900XT 13%/15% vor der 3090, bei Desperados 3 ist sogar die 3080 deutlich vor der 6900XT).
Aber das ist ja nichts neues, früher gab's ja auch schon Titel, die besser auf NVidia oder ATI/AMD liefen.

Ätznatron
2020-12-09, 08:11:13
Es gibt im Moment mit der RTX 3090 nur ein einziges Modell, bei dem man mit etwas Augenzudrücken von einer halbwegs passablen RT-Leistung sprechen kann.

Alles andere, ob mit oder ohne DLSS, ist Murks.

Und da nimmt dann doch lieber die 6 GB mehr VRAM plus sehr hohe Rasterizer-Leistung mit.

4medic
2020-12-09, 08:26:55
Hallo,

wichtiger wäre ohnehin die WQHD Performance, die neben FHD wohl immernoch die Mehrheit der Spieler stellt.
RT in 4K und allen Extras (Ultra, Badass, whatever) wird ohnehin etwas für Hopper oder RDNA3.

Gruß

Gast
2020-12-09, 09:17:29
Glaub dir ist nicht klar wie eng die 3080 und 3090 beieinander liegen und die 6900 sich deutlich besser übertakten lässt.


Nur bietet eine 3090 immerhin dafür immerhin 2,4x mehr an VRAM und selbst gegenüber den Radeons 1,5x mehr.

Ob man das jetzt braucht sei mal dahingestellt, fürs Gaming wohl eher weniger, aber die Karte hat zumindest ein Alleinstellungsmerkmal.

Die Radeon 6900X hat gegenüber der 6800X einfach nix. Nicht mehr Speicher, keinen besseren Kühler, kein besseres PCB, einfach nur eine verschwindend geringe Mehrleistung

Lowkey
2020-12-09, 09:30:18
Naja, sehen wir dann, wie der Preis aussieht. 999 Listenpreis heisst 1150 für gute Custommodelle. Also fast RTX2080Ti Preise.

Vor 2 Jahren nannte man das mal noch überteuert. Jetzt ist es die Wohlfühlzone ;) ?

Aufgrund des niedrigen Speichers wird nvidia vermutlich nächste Generation (hoffentlich) mehr Speicher bringen müssen (ewig können sie das auch nicht tun). Und dann sieht die überteuerte 3080Ti dann auf einmal ziemlich schlecht aus.


Technische Wohlfühlzone!

Man muss die Karten wieder im richtigen Moment verkaufen und dann eine 3080Ti im richtigen Moment im Angebot mitnehmen.

Nicht jede 6800(xt) ist gut übertaktber. Da gibt es wie bei Nvidia schon heute eine größere Serienstreuung.

Iscaran
2020-12-09, 09:31:18
Beim Vergleich 6900 XT vs RTX 3090 unterschlagen sehr viele einen Punkt:

Die 6900 XT lief in allen Tests mit 300 W und wie CB schön zeigt ist die Karte ABSOLUT IMMER im Power Limit.

Die RTX 3090 hingegen lief mit 350 W und wie wir schon wissen ist die Karte praktisch schon an der Kotzgrenze im Taktlimit at stock.

Was glaubt ihr wohl was 6900 XT in Custom Version erlauben werden ?

Richtig Power Limit auf 350 W @ stock...

Und was glaubt ihr wo eine 6900 XT dann landet ?

+- 3090 oder darüber.

bschicht86
2020-12-09, 09:51:09
Die Betrachtung vom Verbrauch darf auch gern mit einbezogen werden. Die 3090 braucht 17% mehr Saft, um 10% vorne zu liegen. Und wenn man die wenigen Tests anschaut, wo beide Karten auf 270W betrieben werden, dann kann es die 6900XT durchaus mit der 3090 aufnehmen.

Gast
2020-12-09, 11:14:15
Da steht die 6900xt läge in allen sechs Spielen vor der rtx 3090, die Grafiken zeigen aber das es nicht mal bei der RTX 3080 zutrifft.

der übliche y33h@-bias. man könnte meinen die artikel werden von amd gesponsert.

Gast
2020-12-09, 11:31:15
Beim Vergleich 6900 XT vs RTX 3090 unterschlagen sehr viele einen Punkt:

Die 6900 XT lief in allen Tests mit 300 W und wie CB schön zeigt ist die Karte ABSOLUT IMMER im Power Limit.

Die RTX 3090 hingegen lief mit 350 W und wie wir schon wissen ist die Karte praktisch schon an der Kotzgrenze im Taktlimit at stock.


Und wie computerbase auch schön zeigt tut sich da nicht allzu viel:
https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/4/

Die Effizienz von Ampere und BigNavi ist praktisch gleich, die Karten werden nur @Stock auf unterschiedlichen Betriebspunkten verkauft.

AMD erlaubt ja auch das Powerlimit um 15% zu erhöhen, und damit landet man auf 345W also ziemlich genau auf der 3090, und bei den Tests die das gemacht haben landet man großteils immer noch etwas unter der 3090.

Die Radeons takten zwar mit höherem Powerlimit merklich höher, allzuviel Mehrleistung schaut damit aber nicht mehr raus. Wobei man natürlich auch bedenken muss, bei den hohen Taktraten der Radeon sind selbst 200Mhz mehr keine 10% mehr.

Im Endeffekt sind beide auf gleichem Powerlimit praktisch gleich auf, was für AMD ja ein sehr schönes Ergebnis ist (ich kann mich überhaupt nicht erinnern, dass das jemals mit einer AMD Karte der Fall war, ich glaub das letzte mal als AMD mithalten konnte liefen die Karten noch unter ATI).

NV hat aber auf jeden Fall noch den Vorteil der besseren Raytracing Performance, und zumindest aktuell DLSS.

Das Problem von AMD ist, aktuell ist RT kaum nutzbar. Es ist zwar nicht schlecht, aber eben nur in etwa auf Turing Niveau, und bei Turing war RT nur dank DLSS gut nutzbar.

hq-hq
2020-12-09, 12:58:05
Solange (nicht nur) diese nVidia-Karte zudem noch DLSS braucht, um trotz der dadurch erfolgenden BQ-Verschlechterung dann immer noch keine vernünftige Leistung mit RT on liefern zu können, macht sie eindeutig nur zur 2.Wahl.

DLSS 2.0 verschlechtert die BQ in z.B. Mechwarrior nicht, sieht wie gutes Antialiasing aus

Gethvel
2020-12-09, 13:00:09
DLSS 2.0 verschlechtert die BQ in z.B. Mechwarrior nicht, sieht wie gutes Antialiasing aus

DLSS2.0 sieht in aktuellen Implementationen viel besser aus als nativ, was ja auch Sinn macht.

Und der DLSS Performance mode verdoppelt einfach mal die FPS in Cyberpunk 2077. :eek:

Legendenkiller
2020-12-09, 13:01:27
wenn ich das bei der8auer richtig verstanden habe...
https://www.youtube.com/watch?v=_1wqWKwWiL0

Hat er eine gutlaufende Custom die bereits so mit 2,7Ghz+ läuft.
Da das Bios bei 2,8Ghz limitiert hat er die geplante Stickstoff Übertacktung abgesagt.


Die 6900XT darf nun 3 Ghz und es ist nicht unrealistisch das man die mit OC erreichen kann.
Aber evtl dürfen da Customs in 2021 mehr als die 15%.

Legendenkiller
2020-12-09, 13:03:17
Sorry Doppelpost, bitte löschen...

Leonidas
2020-12-09, 13:03:37
man könnte meinen die artikel werden von amd gesponsert.


Die letzten Jahre war ja Intel besser dran mit Koks & Nutten - nur deswegen wurde das jährliche Skylake-Update überhaupt erträglich geschrieben. Aber nun hat sich AMD nicht lumpen lassen und zugunsten günstiger Artikel schlicht alle Lieferungen an Zen 3 und RX6000 zu den Hardwarereviewern umgeleitet, womit wie zu sehen das Endkundengeschäft leer ausgegangen ist.

Geldmann3
2020-12-09, 13:40:34
Sobald die 6800XT wieder verfügbar ist, werde ich sie mir anstelle der Radeon VII in den Zweitrechner stecken. Die Mehrperformance der 6900XT genügt mir leider nicht ganz, um zu dieser zu greifen. Lieber übertakte ich die 6800XT.

In meinem Hauptrechner habe ich bereits eine RTX 3090 Gaming X Trio.

Wäre ich allerdings ein User, der sich für EINE Grafikkarte entscheiden müsste, würde ich mich aufgrund der besseren RT-Performance und DLSS eher für Nvidia entscheiden. Über RT würde ich hinwegsehen, wenn AMD wenigstens im Rasterizing deutlich schneller wäre, was sie aber nicht sind. Und bezüglich DLSS müssen wir sehen, wie die Alternative ausschaut.

Iscaran
2020-12-09, 13:47:40
Und wie computerbase auch schön zeigt tut sich da nicht allzu viel:
https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/4/


Ja die Karten wurden beide auf 270W eingebremst und dort liegen sie gleichauf.

Denkst du aber die 6900 XT liegt @350W nicht auch mind. gleichauf mit der RTX 3090 auf 350 W (welche sogar eher 400W sind siehe Verbrauchsmessung bei CB) ?


AMD erlaubt ja auch das Powerlimit um 15% zu erhöhen, und damit landet man auf 345W also ziemlich genau auf der 3090, und bei den Tests die das gemacht haben landet man großteils immer noch etwas unter der 3090.


Das wurde aber leider z.B. gerade bei CB nicht gemacht, hast du andere Seiten die das getestet haben als Link ?

Nachtrag: P/W in 4k ist die stock 6900 XT ca 10% besser als die stock RTX 3090 ! Glaubst du das wird deutlich schlechter wenn AMD die 6900 XT auf 350 W hebt ?
Nach allem was wir bislang dazu wissen eher nicht. Denn im Unterschied zur RTX 3090 ist die 6900 XT eben noch NICHT annähernd an ihrem Taktlimit ("alias Kotzgrenze").

Raff
2020-12-09, 13:48:46
Moar Futter für die fesche Auswertung, heiß und fettig:

Radeon RX 6900 XT vs. Geforce RTX 3090: 10 neue Spiele in WQHD, Ultra HD und 5K getestet (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Specials/RX-6900-XT-oder-RX-6800-XT-OC-Vergleich-mit-RTX-3090-1363216/)

:biggrin: :up:

MfG
Raff

Iscaran
2020-12-09, 13:58:30
Könnt ihr denn mal auf dem 5950 auch SAM mal abschalten um das mal mit dem 3900 zu vergleichen ?

Damit man mal sieht wieviel von der "CPU" kommt und wieviel hier SAM alleine bringt.

Raff
2020-12-09, 14:01:20
Die getesteten Settings sind nicht CPU-limitiert, da bringt der 5950X nix ggü. dem aufgebrezelten 3900X. Wirklich nicht. :) Das wäre in Full HD oder noch geringeren Auflösungen anders.

MfG
Raff

Iscaran
2020-12-09, 14:03:06
Dann wäre es NICE wenn man den 6900@5950@SAM Balken und den 6900@3900@No SAM Balken in einem Graphen haben könnte.

Iscaran
2020-12-09, 14:04:58
Die getesteten Settings sind nicht CPU-limitiert, da bringt der 5950X nix ggü. dem aufgebrezelten 3900X. Wirklich nicht. :) Das wäre in Full HD oder noch geringeren Auflösungen anders.


Allerdings wäre ich mir da nicht so sicher, da der neue Zen ja auch nochmal einen ordentlichen Sprung in der IPC hinlegt...also selbst wenn man vermeintlich "nicht" im CPU-Limit ist könnte es sein, daß die Game-Engines/APIs hier doch effekte zeigen.

Das Wort "CPU"-Limit ist einfach so irreführend oft.

Lehdro
2020-12-09, 14:41:59
Die letzten Jahre war ja Intel besser dran mit Koks & Nutten - nur deswegen wurde das jährliche Skylake-Update überhaupt erträglich geschrieben. Aber nun hat sich AMD nicht lumpen lassen und zugunsten günstiger Artikel schlicht alle Lieferungen an Zen 3 und RX6000 zu den Hardwarereviewern umgeleitet, womit wie zu sehen das Endkundengeschäft leer ausgegangen ist.
Genial :)

Manchmal ist diese BIAS Unterstellung echt nur noch lächerlich - wir haben sooo viele Testberichte mit sogar bemerkenswerter Streuung in der Breite und Art der Tests. Wenn da trotzdem überall in den vergleichbaren Szenarien ähnliche Testresultate rauskommen, kann die ganze Medienlandschaft ja nicht so inkompetent und geschmiert sein. Es sei denn man schmiert direkt alle :freak: Aber da steigt dann auch die Gefahr das wieder einer auspackt :rolleyes:

Platos
2020-12-09, 15:25:11
Technische Wohlfühlzone!

Man muss die Karten wieder im richtigen Moment verkaufen und dann eine 3080Ti im richtigen Moment im Angebot mitnehmen.

Nicht jede 6800(xt) ist gut übertaktber. Da gibt es wie bei Nvidia schon heute eine größere Serienstreuung.

Ok, das könnte sein. Ich habe nur so die Befürchtung, dass mit Hopper eine 3080Ti viel an Wert verliert, da selbst bei nvidia der Speicher irgendwann mal hochgehen muss. Damit ist dann einfach der Wiederverkaufswert möglicherweise nicht mehr so gut.

Die 1080Ti kostete nunmal "nur" ~ 850 für gute Modelle. Somit ist der Preisverfall nicht so hoch. Vor allem hatte man "das Glück", dass Turing in der hinsicht so schlecht war (2080 war gerade mal gleich gut mit aber weniger Speicher und gleich teuer). Eine hypothetische 4080 sehe ich aber deutlich unter dem Preis einer 3080Ti, der Speicher sehe ich da bei 16GB (etwas weniger) und die Leistung darüber.

Ich kann mich natürlich auch täuschen, aber ich sehe die Situation aus P/L Sicht eher schlechter, wie bei der 1080Ti.

Aber wenn man das möglichst beste haben will, kommt man wohl nicht an einer 3080Ti vorbei. Man könnte sie immer noch genüg früh verkaufen und dann auf eine hypothetische 4080 umsteigen. Ist halt leider nur so, dass sie (fast) in Preisregionen ist, wo die 2080Ti eig. gewesen ist bzw. laut nvidida ist der Preis der 2080Ti ja 999 Dollar gewesen :D

Aber: Man könnte sagen, eine hypothetische 4080 mit 16GB hätte zu wenig Speicher für zumindest ganz hohe Auflösungen (8k). Da sieht man ja oft Spiele, die so um die ~20GB nutzen, also 16GB sogar zu wenig wären.

Gast
2020-12-09, 16:32:47
Denkst du aber die 6900 XT liegt @350W nicht auch mind. gleichauf mit der RTX 3090 auf 350 W (welche sogar eher 400W sind siehe Verbrauchsmessung bei CB) ?



Vermutlich annähernd gleich auf. Auf 350W sollte es für die 6900XT über ein breites Benchmarkfeld den Schlagabtausch mit der 3090 geben den uns AMD mit ihren Cherry-Picked Benchmarks @Stock versprochen hat.


Nachtrag: P/W in 4k ist die stock 6900 XT ca 10% besser als die stock RTX 3090 ! Glaubst du das wird deutlich schlechter wenn AMD die 6900 XT auf 350 W hebt ?


Ja, sowohl Nvidia als auch AMD sind in den Stock-Settings schon im Bereich wo die Leistungsaufnahme exponentiell zur Leistung zunimmt.

Von den +10% wird vermutlich nichts mehr übrig bleiben, ich würde mal raten +/-3% wobei man je nach Chipgüte mal eine minimal effizientere 3090, mal eine minimal effizientere 6900XT bekommt.


Nach allem was wir bislang dazu wissen eher nicht. Denn im Unterschied zur RTX 3090 ist die 6900 XT eben noch NICHT annähernd an ihrem Taktlimit ("alias Kotzgrenze").

Sie braucht aber schon exponentiell mehr Energie für den Mehrtakt.
Zwischen 350W und 300W liegen gerade mal mickrige 17%.
In dem Bereich ist damit realistischerweise nicht viel mehr als die Hälfte der Energieaufnahme an Mehrtakt zu erwarten, also auf jeden Fall unter 10%, wovon normalerweise auch nicht alles in FPS ankommt.

Nachdem die 3090 10,8% vorne liegt, sollte es also rein rechnerisch beim gleichen Benchmarkparcours für eine 6900XT@350W so gerade nicht reichen, wobei man natürlich praktisch von 2 gleich schnellen Karten sprechen kann.

Außer vom Preis sehe ich aber trotzdem keinen Vorteil für AMD.
Rasterizing gleich schnell.
Beim Energieverbrauch geben sich die beiden nicht wirklich was nennenswertes, 50W unterschied klingen zwar erstmal viel, sind in diesen höhen aber wie gesagt nur 16%, und das höhere Stock Limit von Nvidia hat sogar den Vorteil, dass ich freier entscheiden kann wo ich die Karte wirklich betreiben will, weil nach unten kann ich das Powerlimit ja bis auf -50% verschieben, nach oben sind die +15% bei AMD schon überraschenderweise stark einschränkend. Ich hätte ehrlich gesagt, dass man zumindest diesen Vorteil der 6900XT mitgibt, und anstatt den +15% der 6800XT +25% oder so zulässt.
Weniger Verbrauch ist also defakto kein Vorteil, weil ich kann die 3090 immer noch auf 300W PL setzen und dürfte damit quasi gleich schnell sein.
Dazu kommt dann dass die RT Performance bei Nvidia unbestritten deutlich höher ist, und man dank DLSS es auch wirklich gut nutzen kann.

FarCry
2020-12-09, 17:23:57
Neun Modelle, wo früher drei gereicht haben. Und nichts davon ist lieferbar. Völlig gaga mittlerweile. Wirklich.

Flusher
2020-12-09, 18:06:19
Das ist schon arg lächerlich. Die 6800 ist schon nur mit einem zugekniffenem Auge ein guter Deal. Schlechteres P/L, weniger RT Leistung und kein DLSS, dafür doppelter Speicher.

Die 6900XT ist hingegen immens teurer und bietet nicht mal wirklich viel mehr Leistung, wie die 3080 (wie es die 6800 im Vergleich zur 3070 tut). Eig. erreicht sie 3080 Perfomance. Also das P/L ist schon lächerlich.

Aber anscheinend geht man davon aus, dass nvidia eine 3080Ti mit 20GB Speicher bringt. Wenn diese 999 kostet, dann wäre aber selbst dann die 6900XT ein schlechter(er) Deal. Und vermutlich bringt die 3080Ti auch noch mal ein paar Prozent mehr Leistung oben drauf, was dann die 6900XT entgültig schlecht dahstehen lässt.

Ist ja schön, dass AMD wieder wenigstens einen vollwertigen 3080 Konter hat (mal abgesehen von DLSS und RT), aber sie müssen auf jeden Fall einen DLSS konter bringen, der dann auch von der Qualitätsseite her überzeugt.

Ja aber moment, denk doch mal an die Next-Gen Konsolen, da wird AMD sicher was reissen, so wie wir es schon bei der aktuellen Generation sehen!

Und dann noch SAM! Das wird einschlagen wie eine Bombe, da wird sich NVIDIA warm anziehen müssen, genauso wie es bei HBCC und VRR war!

Und ich bitte dich, die 3080 ist doch der totale Speicherkrüppel, mit dem man eigentlich gar nicht gamen kann. Spätestens nächste Woche ist der Speicherverbrauch von Games schon beim dreifachen von dem was wir heute sehen!

Und RTX interessiert doch keine Sau...Raytracing bringt doch kaum optischen Zugewinn und alles was heute existiert ist doch eh nur auf NVIDIA optimiert.

Ah und geh mir weg mit diesem minderwertigen DLSS Rrunterskalier-Zeug. Ich bevorzuge Bildqualität! Das Ruckeln ist ein Zeichen von AMDs Stolz!. Da kannst du Frame für Frame die Grafikpracht bewundern.

Platos
2020-12-09, 19:22:58
Die goldige Zukunftsoptimierung (Stichwort fine wine) ist tatsächlich oftmals ein sehr gewichtiges Argument bei so manch einem bezüglich AMD;)

Beim Speicher bin ich aber gerne etwas besser bestückt, da ich meine GPUs oft dann auch 4 Jahre+ behalte. Deshalb würde ich keine momentan auf dem Markt befindliche RTX Karte empfehlen. Ich bin aber auch ein High-Resolution-Fan. Für 2 Jahre Nutzungszeit bei 1440p abwärts ist das wieder was ganz anderes. Da wird man vermutlich nicht viel Abstriche machen müssen und von DLSS wesentlich mehr profitieren, wie von mehr Speicher. Auch wenn ich noch so der Speicherfan bin.

Ätznatron
2020-12-09, 20:08:42
Deshalb würde ich keine momentan auf dem Markt befindliche RTX Karte empfehlen.

Sicher richtig.

Würdest du mir aber zustimmen, die RTX 3090 dabei auszunehmen?

FarCry
2020-12-09, 20:51:16
Ja aber moment, denk doch mal an die Next-Gen Konsolen, da wird AMD sicher was reissen, so wie wir es schon bei der aktuellen Generation sehen!

Und dann noch SAM! Das wird einschlagen wie eine Bombe, da wird sich NVIDIA warm anziehen müssen, genauso wie es bei HBCC und VRR war!

Und ich bitte dich, die 3080 ist doch der totale Speicherkrüppel, mit dem man eigentlich gar nicht gamen kann. Spätestens nächste Woche ist der Speicherverbrauch von Games schon beim dreifachen von dem was wir heute sehen!

Und RTX interessiert doch keine Sau...Raytracing bringt doch kaum optischen Zugewinn und alles was heute existiert ist doch eh nur auf NVIDIA optimiert.

Ah und geh mir weg mit diesem minderwertigen DLSS Rrunterskalier-Zeug. Ich bevorzuge Bildqualität! Das Ruckeln ist ein Zeichen von AMDs Stolz!. Da kannst du Frame für Frame die Grafikpracht bewundern.

Da hast du fast mit allem recht. Außer mit dem Ruckeln natürlich.
Und: Kauf dir ruhig ne Karte mit 10 GB. Aber nicht meckern, wenn du sie in 2 Jahren verkaufen musst, weil die Hälfte der neuen Spiele dann schon mehr haben will. ;)

Platos
2020-12-09, 21:34:46
Sicher richtig.

Würdest du mir aber zustimmen, die RTX 3090 dabei auszunehmen?

Die habe ich bewusst nicht rausgenommen;) Empfehlen würde ich nie eine (überteuerte) 1500 Euro Karte (für's Gaming). Technisch wäre sie schon brauchbar.

Edit: Im Neukauf. Die 2080Ti würde ich vermutlich gebraucht empfehlen. Gerade jetzt, wo die 3060Ti den Preis nochmals drücken sollte.

matty2580
2020-12-09, 22:00:35
Huang selbst hat die 3090 für Gaming empfohlen in seiner Präsentation für Ampere, holte sie aus einem Suppentopf in seiner Küche, und meinte die 3090 ist ein Biest. ^^

4medic
2020-12-09, 22:14:55
https://www.igorslab.de/greift-amd-nach-der-krone-radeon-rx-6900-xt-16-gb-im-test-mit-benchmarks-und-einer-technikanalyse/

Grüße

schreiber
2020-12-09, 22:26:58
Da hast du fast mit allem recht. Außer mit dem Ruckeln natürlich.
Und: Kauf dir ruhig ne Karte mit 10 GB. Aber nicht meckern, wenn du sie in 2 Jahren verkaufen musst, weil die Hälfte der neuen Spiele dann schon mehr haben will. ;)
Nuja, ob man die Karte verkaufen muss, weil sie zu wenig Speicher hat oder zu wenig Speicherbandbreite, ist ja nun irgendwie egal.

matty2580
2020-12-09, 22:47:37
Raytracing wird immer mehr unterstützt, auch DLSS.
Erst gestern gab es wieder eine News bei CB dazu mit neuen Games.
Die Liste wird also immer größer......
Und damit kann man das nicht einfach ignorieren, weg wischen, und als irrelevant abtuen.....

Wer behauptet, dass RT oder DLSS keinen Mehrwert darstellt, hat den Mehrwert dahinter nie erkannt, und will den auch gar nicht erkennen.....

Aber zum Glück hat man bei AMD selbst das erkannt, entwickelt ein eigenes DLSS, und ist auch endlich bei RT dabei.
Und selbst Sony und MS wollen für ihre neuen Konsolen ein eigenes DLSS entwickeln, und arbeiten dafür so gar zusammen. ^^

Platos
2020-12-09, 23:23:27
Ach ja? Kannst du eine Quelle liefern bezüglich zusammenarbeit von Sony und Microsoft?

matty2580
2020-12-09, 23:25:47
Einfach googeln, denn dazu gab es genug News in den letzten Monaten......

Aber wie geschrieben, selbst bei AMD hat man dass Potential hinter RT und DLSS erkannt, und setzt das jetzt selbst um.
AMD macht das also aus Spass, weil diese Technologien für sie Spielereien sind.....?

bardh
2020-12-09, 23:26:00
Ist Igorslab die einzige Techseite die mit einem Ryzen 5000 testet?

Bei Guru3d haben sie tatsächlich einen Teil der Benchmark-Ergebnisse vom alten 9900k übernommen und die 6900 XT mit dem 5950X getestet.

Gibt da AMD nichts vor? Das wäre das erste was ich vorschreiben würde, ansonsten als nichtig erklären.

Raff
2020-12-09, 23:27:17
Ryzen 5000 brauchst du nur, wenn du SAM testen willst. Ausgelastet bekommst du die Dickschiffe auch mit älteren CPUs, sofern keine Tetris-Auflösungen zum Einsatz kommen und die Spiele und Szenen ordentlich gewählt sind.

MfG
Raff

bardh
2020-12-09, 23:48:49
In WQHD hat man immerhin noch zwischen 5-15% Differenz zwischen Ryzen 3000 und Ryzen 5000 auf Basis einer 2080 Ti.

Ein Alleinstellungsmerkmal wäre, wenn eine Techseite es hinkriegt bspw. mit 3600er RAM und extrem tiefen Latenzen (14 oder tiefer) durchgehend alle Plattformen damit zu testen.

Die Benchmarks von PCGH in Flug Simulator mit 3800er RAM und CL14 Latenzen, waren schon mal auf dem richtigen weg. Würde wohl auch, je nach Game, selbst in 4k zu einigen deutlichen Unterschieden führen. Gerade bei Grafikkarten wie der 6900 XT oder RTX 3090 wäre sowas mehr als wünschenswert.

Raff
2020-12-09, 23:56:16
PCGH testet übergangsweise mit 3900XTX und 5950X:

Haupttest (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Tests/RX-6900-XT-oder-RTX-3090-Grafikkarten-Vergleich-1362845/)
Bonustests (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Specials/RX-6900-XT-oder-RX-6800-XT-OC-Vergleich-mit-RTX-3090-1363216/)

Bei dem unmenschlichen Aufwand, der teilweise betrieben wird, ist es fast unmöglich, für jede Grafikkarte und jeden IHV eine personalisierte Extrawurst zu braten.

MfG
Raff

matty2580
2020-12-10, 00:01:05
PCGH gehört zu den wenigen Tests, immerhin 4, wo die 6900 langsamer ist als die 3080.
Und die Jungs von PCGH sind sehr kompetent, und wissen genau was sie tuen.....

Ich sehe auch kein Fine Wine Prinzip mehr von AMD seit Vega.
Der IPC Test von CB dazu ist recht eindeutig, und schon seit Vega gibt es da kein Fine Wine mehr......

Abgesehen davon das eine GPU kein guter Wein oder Brandy ist, der erst einmal im Fass reifen muss.
So ein Vergleich im Bereich der Hochtechnologie ist doch einfach nur noch lächerlich......

Linmoum
2020-12-10, 00:03:11
Einfach googeln, denn dazu gab es genug News in den letzten Monaten......

Aber wie geschrieben, selbst bei AMD hat man dass Potential hinter RT und DLSS erkannt, und setzt das jetzt selbst um.
AMD macht das also aus Spass, weil diese Technologien für sie Spielereien sind.....?Man hat das Potential bei RT nicht mal eben erkannt. Wie auch, RDNA2 war schon lange in der Entwicklung, bevor NV erstmals öffentlich mit Turing den Vorhang hat fallen lassen.

Von 2008 ganz zu schweigen, als es von AMD Ruby 2.0 mit Einsatz von Raytracing gab. Vor 12 Jahren. Das Thema ist uralt und jeder weiß seit Dekaden, was möglich ist. Es bringt aber erst dann was, wenn es halbwegs performant ist.

Von AMD selbst wird es davon ab kein DLSS-Pendant geben. Auch das hättest du mit Googlen herausgefunden. ;) AMD arbeitet laut Herkelmann mit verschiedenen Entwicklern und beiden Konsolenherstellern an einer solchen Lösung. Oder anders gesagt: das ist nix proprietäres und AMD-only wie DLSS, sondern wird dann ein Industriestandard. Bleibt abzuwarten, wie lange sich DLSS dann überhaupt noch halten kann.

matty2580
2020-12-10, 00:09:09
Also sind alle News zu einem DLSS Gegenstück von AMD zu Nvidia deiner Meinung nach Fake? ^^

Screemer
2020-12-10, 00:53:31
Also sind alle News zu einem DLSS Gegenstück von AMD zu Nvidia deiner Meinung nach Fake? ^^
du kannst sie scheinbar nur nicht einordnen. das ist alles.

matty2580
2020-12-10, 01:13:18
Also bitte, mein Deutschleistungskurs im Abitur ist 7 Jahre her, und ich habe habe 12 Punkte abschließend bekommen. Und das bestimmt nicht weil mein Textverständnis mangelhaft ist......

Ich selbst habe ja den Vergleich gemacht, basierend auf Leos Analyse.
Wenn hier jemand etwas falsch einordnet, dann bestimmt nicht ich......

Und wenn du mit Leos Analyse nicht einverstanden bist, dann bist du bei mir auch an der falschen Adresse.

Weil dann solltest du dich eher mit Leo fetzen.....

Leonidas
2020-12-10, 03:40:51
Ist Igorslab die einzige Techseite die mit einem Ryzen 5000 testet?


Tweakers:
https://tweakers.net/reviews/8444/amd-radeon-rx-6900-xt-is-navi-21-snel-genoeg.html

SAM anscheinend aktiv, ohne das der Test ein Wort darüber verliert (Hinweise dazu im früheren Test von 6800/XT)




PS zu DLSS:

AMD wird eine DLSS-Alternative in Zusammenarbeit wohl mit MS als augenscheinlich offenen Standard bringen. Theoretisch könnte auch Sony u.a. drauf einsteigen. Wie sich das entwickelt, bleibt abzuwarten. Der Punkt ist, das hier im Gegensatz zu G-Sync und FreeSync keine unterschiedliche HW notwendig ist, aus Sicht der Konsumenten ist das beides nur Software. Ergo ist auch möglich, das DLSS weiter bestehen bleibt, selbst wenn AMDs Lösung irgendwann Industriestandard wird. NV ist bekannt dafür, auf ihrem Eigenweg zu bestehen - und in diesem Fall hat jener keine Nachteile, nur etwas Aufwand für NV.

downforze
2020-12-10, 08:06:20
Für die mickrigen Performanceschübe bei 6900XT und 3090 lohnt es sich eigentlich nur bis zur 6800XT/3080 zu gehen. Das Geplapper um den Speicher bei der 3080 ist auch nicht nachvollziehbar. Offensichtlich führt es ja nicht zu Performanceeinbrüchen, weil dieser wohl doch ausreicht. RT würde ich niemals aktivieren, weil es die FPS bei allen Karten darmaßen in den Keller zieht. Bleibt also noch DLSS vs SAM mit Vorteilen für DLSS. Aber auch das ist nicht kriegsentscheidend, da die AMD-Karten sich wesentlich besser übertakten (und wohl auch untertakten) lassen.
Ich kaufe in einem Jahr das, was billiger ist. Problem gelöst.

Leonidas
2020-12-10, 08:38:23
Radeon RX 6900 XT vs. Geforce RTX 3090: 10 neue Spiele in WQHD, Ultra HD und 5K getestet (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Specials/RX-6900-XT-oder-RX-6800-XT-OC-Vergleich-mit-RTX-3090-1363216/)


Weil die anderen Gfx fehlen, kann ich das schwerlich in die normale 4K-Auswertung mit unterbringen ... aber ich denke über eine extra 5K-Sektion nach.

Linmoum
2020-12-10, 09:57:18
Also sind alle News zu einem DLSS Gegenstück von AMD zu Nvidia deiner Meinung nach Fake? ^^Nicht meine Schuld, wenn die Journalisten zu doof (sorry) sind, um sich entsprechende Äußerungen von Herkelman auch mal anzuhören zu dem Thema. Die hat er zum Launch der 6800(XT) getätigt, als es einen Livestream mit Frank Azor und ihm bei HotHardware gab.

JVC
2020-12-10, 10:10:17
Aber wie geschrieben, selbst bei AMD hat man dass Potential hinter RT und DLSS erkannt, und setzt das jetzt selbst um.

Das größte Potential von RT, liegt im Moment "beim leistungsvernichten"...
(ich sehe für mich noch zu wenig Vorteile in RT, kostet noch zu viel m.M.n.)

DLSS... Proprietär + Tensor-Kerne abhängig (die man eigentlich nur im Profibereich braucht...)
= eine absichtliche Totgeburt in meinen Augen, die nur zum Kundenfang dient.
(alle 2 Gen. ein Feature das der Mensch "braucht"... so schafft man Kaufanreize)

Es gibt einen eigenen DLSS-Thread, nutzt den auch Bitte ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=600122&page=47

M.f.G. JVC

Flusher
2020-12-10, 11:08:28
DLSS... Proprietär + Tensor-Kerne abhängig (die man eigentlich nur im Profibereich braucht...)
= eine absichtliche Totgeburt in meinen Augen, die nur zum Kundenfang dient.
(alle 2 Gen. ein Feature das der Mensch "braucht"... so schafft man Kaufanreize)



*hust* MANTLE *hust hust*

DLSS funktioniert nunmal erstaunlich gut und der Support von Games wächst immer weiter. Nahezu jeder aktuelle Blockbuster unterstützt bereits DLSS.

Ätznatron
2020-12-10, 11:44:58
Aus Mantle wurde Vulkan. So von wegen Totgeburt.

Zu DLSS: Dient nur dem Zweck, über Hardwareschwächen hinweg zu täuschen.

Das einzig Gute daran: Man kann's auch abschalten.

bardh
2020-12-10, 11:47:16
PCGH testet übergangsweise mit 3900XTX und 5950X:

Bonustests (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Specials/RX-6900-XT-oder-RX-6800-XT-OC-Vergleich-mit-RTX-3090-1363216/)

Das ist mal top, wirklich gut. (y)

Was bedeutet eigentlich PBO +500Mhz bzw. welcher Takt liegt dann an?
500Mhz über dem Basetakt?

Gast
2020-12-10, 12:09:27
Aus Mantle wurde Vulkan. So von wegen Totgeburt.

Und andere sagen aus Mantle wurde DX12.

Stimmen tut weder das eine noch das andere. Mantle hat nur den Anstoß zur Entwicklung von DX12/Vulkan gegeben, klar werden einige Ideen davon bei beiden weiterverwendet.

Genauso wie DLSS jetzt den Anstoß gibt, dass auch AMD in Richtung Superresolution Entwicklungen macht.

Und von Totgeburten, erinnert sich noch wer an N-Patches?
Oder SM1.4?

Lehdro
2020-12-10, 14:06:20
Und andere sagen aus Mantle wurde DX12.

Stimmen tut weder das eine noch das andere. Mantle hat nur den Anstoß zur Entwicklung von DX12/Vulkan gegeben, klar werden einige Ideen davon bei beiden weiterverwendet.
Mehr als nur Ideen. Sind für dich aber bestimmt nur fake News:
Im Vorfeld zur GDC-Präsentation über Mantle hatte AMD einen Blog-Eintrag publiziert, in dem man recht kryptisch über die Zukunft der hauseigenen API sprach. Das ursprünglich versprochene SDK wurde gestrichen, dennoch habe man das Versprechen der "Offenheit" nicht vergessen – "die Defintion von 'offen'" müsse sogar noch "erweitert" werden, so AMD. Offenbar um die Verwirrung zu lindern, hat AMD nun einen weiteren Blog veröffentlicht, der "eine von Mantles Zukünften" erläutert.
Demnach stelle die Vulkan-API ein Derivat von Mantle dar, wie es vielerorts schon vermutet worden ist. Die Khronos Group habe sich die "besten und intelligentesten Teile" herausgepickt und darum seine neue Schnittstelle entwickelt. Damit hat AMD nicht mehr die alleinige Kontrolle über die API, womit der Begriff "offen" gewissermaßen tatsächlich geweitet wird. [...]

Die englischsprachige Webseite pcper.com hat auf der GDC derweil ein Zitat von Khronos-President Neil Trevett (der im Übrigen gleichzeitig als ein Vice-President bei Nvidia fungiert) aufgegabelt. Der bedankt sich bei AMD, Mantle für die Vulkan-API beigesteuert zu haben. Das als Basis habe geholfen, Vulkan so schnell ins Rollen zu bringen.

Quelle (https://www.pcgameshardware.de/OpenGL-Software-141680/News/GLNext-Vulkan-AMD-Mantle-1152538/)

Screemer
2020-12-10, 14:40:41
Also bitte, mein Deutschleistungskurs im Abitur ist 7 Jahre her, und ich habe habe 12 Punkte abschließend bekommen. Und das bestimmt nicht weil mein Textverständnis mangelhaft ist......

Ich selbst habe ja den Vergleich gemacht, basierend auf Leos Analyse.
Wenn hier jemand etwas falsch einordnet, dann bestimmt nicht ich......

Und wenn du mit Leos Analyse nicht einverstanden bist, dann bist du bei mir auch an der falschen Adresse.

Weil dann solltest du dich eher mit Leo fetzen.....
scheinbar verstehst du es trotzt deiner schulischen leistung nicht. Linmoum hat es ja schon angedeutet, dass du mit dem verständnisproblem nicht alleine da stehst.

es wird keine proprietäres dlss pendant von amd geben. es ist eine kooperative entwicklung mit der industrie (z.b. sony und ms) die als offener standard und vendor agnostisch etabliert werden soll. kein "treiberfeature" sondern eine lösung die spieledevs einbauen. noch dazu in fidalityfx für alle verfügbar sein wird. siehst du das problem deiner einordung?

Gast
2020-12-11, 09:56:00
Mehr als nur Ideen. Sind für dich aber bestimmt nur fake News:

Nein das sind keine Fake News, das kenn ich, und genau das hab ich auch gesagt.

Da steht, Mantle ist als Basis für Vulkan eingeflossen nicht mehr und nicht weniger.

hq-hq
2020-12-12, 04:27:06
Aus Mantle wurde Vulkan. So von wegen Totgeburt.

Zu DLSS: Dient nur dem Zweck, über Hardwareschwächen hinweg zu täuschen.

Das einzig Gute daran: Man kann's auch abschalten.

DLSS2.0 ist klasse, besser ist u.U. sharpening

wie kommts zu deinem Stuss, hast es schon mal gesehen?

Gast
2020-12-12, 17:19:27
Zu DLSS: Dient nur dem Zweck, über Hardwareschwächen hinweg zu täuschen.



Nein es dient dazu das Verhältnis erreichbarer Bildqualität zu erreichbarer Performance zu verbessern, und es macht das besser als jedes andere Feature das jemals in der Geschichte der 3D-Hardware erreicht hat.

Das einzige was dem vielleicht nahe kommt war der Sprung von reinem Software-Rendering auf 3D-Beschleunigte Hardware. Aber innerhalb der 3D-Beschleuniger hat es niemals eine derartige Verbesserung durch ein einzelnes Feature gegeben.

y33H@
2020-12-12, 20:17:21
Da steht die 6900xt läge in allen sechs Spielen vor der rtx 3090, die Grafiken zeigen aber das es nicht mal bei der RTX 3080 zutrifft.Das steht da nicht, da steht:

"Über alle sechs Titel hinweg liegt die AMD-Karte ungeachtet dessen vor der Geforce RTX 3090."

Sprich im Durchschnitt ...