PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 19. Februar 2021


Leonidas
2021-02-20, 08:21:03
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-19-februar-2021

00-Schneider
2021-02-20, 10:13:49
Jetzt bräuchten AMD-Karten nur noch ein DLSS-Äquivalent und vernünftige RT-Performance und man könnte einen Kauf glatt in Erwägung ziehen.

amdfanuwe
2021-02-20, 10:16:25
Denn interessanterweise erzielt der neue ComputerBase-Testparcour ohne rBAR/SAM gerechnet keine wirklich abweichenden Testergebnisse gegenüber dem alten Testparcour (+ Zusätzen):

Das beißt sich mit CBs Aussage:
Werden alle neuen Titel im Rating deaktiviert, fallen die Abstände zwischen den einzelnen Karten quasi wie zuvor aus. Werden die Neuzugänge dagegen mit ins Rating genommen, gibt es plötzlich eine Verschiebung zu Gunsten von AMD, die sich über das gesamte Produktportfolio zieht.

Iscaran
2021-02-20, 11:25:52
Fine Wine @work mal wieder :-)

7% nur durch Hinzunahme der relevanten neuen Titel und Wegfall der Alten, wo es in der Regel aufs letzte % eh nicht mehr ankommt.

Leonidas
2021-02-20, 12:10:11
Das beißt sich mit CBs Aussage:


Sie haben gegenüber den 17 alten Titeln verglichen. Ich hab gegenüber dem Launch-Review verglichen, wo sie die 17 alte Titel + 7 neue drin hatten. Da liegt die Differenz.

iamthebear
2021-02-20, 13:02:02
Fine Wine @work mal wieder :-)

7% nur durch Hinzunahme der relevanten neuen Titel und Wegfall der Alten, wo es in der Regel aufs letzte % eh nicht mehr ankommt.

Es wurden nicht nur die Titel getauscht. Es gab auch ein neues Testsystem mit AMD 5950X statt Intel 10900K und es wurde anscheined generell die Testprozedur geändert weil die Frameraten passen überhaupt nicht zu den alten. Bei Dirt 5 war beim ersten Review die 6800 XT 20% schneller als die 3080, jetzt sind sie gleich.

Ich denke es ist noch zu früh um zu sagen, ob sich hier eine allgemeine Tendenz abzeichnet.
Was man jedoch sieht ist dass bei Auflösungen über 4K die 6800 stark einbricht, da der Infinity Cache deutlich weniger greift, was teilweise bei 4K schon sichtbar ist. Sollten die Speicheranforderungen bei neuen Spielen steigen so könnte dies speziell bei 4K sehr schnell zu einem echten Problem werden noch lange bevor der 3080 der VRAM ausgeht.

Raff
2021-02-20, 13:08:26
[...] "diese Arbeit muß man als ernstzunehmender Hardwaretester einfach von Zeit zu Zeit auf sich nehmen." [...]

Da musste ich kurz schlucken. Der Aufwand hinter modernen, aufwendig gewonnenen Indizes ist aufgrund der "Software as a service"-Seuche ein dauerhafter Kampf gegen die Zeit. Ich käme da mit normalen Arbeitstagen/-stunden seit Herbst nicht ansatzweise auf einen grünen Zweig. Wolfgang hat vermutlich, wie ich seit den Feiertagen, dauerhaft getestet, um zu dieser Datenflut zu kommen. Aber natürlich hast du recht mit der Grundaussage, Leo - es geht nur nicht "mal eben", sondern erfordert zur Abwechslung mal etwas Luft zwischen 17 GPU-Launches. ;)

PCGH geht mit dem neuen Index-Gerümpel (CPU und GPU) übrigens in der kommenden Woche live, nach und nach. Das ist so viel Material, dass es mehrere Artikel, verteilt auf mehrere Tage, gibt. Dann kannst du vergleichen, Leo. :)

Es wurden nicht nur die Titel getauscht. Es gab auch ein neues Testsystem mit AMD 5950X statt Intel 10900K [...]

5950X statt 3900XT bei CB
5950X maxed statt 3900X maxed bei PCGH

So sieht das aus. :)

Bei Dirt 5 war beim ersten Review die 6800 XT 20% schneller als die 3080, jetzt sind sie gleich.

Das liegt nur daran, dass das Spiel zwischenzeitlich mehrfach gepatcht wurde und ab dem 2. oder 3. Patch die Nvidia-Handbremse gelöst wurde. Das läuft mittlerweile wie ein neues Spiel auf Ampere (war vorher definitiv "kaputt"). Etwas Ähnliches steht noch in Assassin's Creed Valhalla aus.

MfG
Raff

Leonidas
2021-02-20, 13:39:01
[...] "diese Arbeit muß man als ernstzunehmender Hardwaretester einfach von Zeit zu Zeit auf sich nehmen." [...]

Da musste ich kurz schlucken. Der Aufwand hinter modernen, aufwendig gewonnenen Indizes ist aufgrund der "Software as a service"-Seuche ein dauerhafter Kampf gegen die Zeit.


Ich hoffe, ihr habt das nicht auf euch bezogen. Da meinte ich ganz andere, die immer noch mit den alten 5 Spielen testen.

Raff
2021-02-20, 13:48:35
Nicht direkt. :D Da aber vielen Mitlesern nicht klar ist, was für ein abartiger Aufwand hinter einem aktuell gehaltenen, ordentlichen Leistungsindex steht (das glaubt man erst, wenn man's macht - fragt man unsere neuen Kollegen), sprudeln die erklärenden Worte dazu neuerdings aus mir heraus. Ja, ich habe ein Problem damit, dass irgendwelche schön aussehenden Youtube-Videos als gleichwertig oder gar besser angesehen werden. ;)

MfG
Raff

Gethvel
2021-02-20, 14:12:40
Und immer noch wird nicht Nvidia + RT + DLSS mit AMD + RT verglichen. Obwohl genau dies das entscheidende Szenario ist. Ich spiele flache Spiele am Monitor nur noch mit RT und DLSS, wie viele andere mittlerweile sicherlich auch. Warum wird das nicht verglichen? AMD sieht dann natürlich ganz alt aus, aber das ist die Realität.

Lehdro
2021-02-20, 14:35:11
Und immer noch wird nicht Nvidia + RT + DLSS mit AMD + RT verglichen. Obwohl genau dies das entscheidende Szenario ist. Ich spiele flache Spiele am Monitor nur noch mit RT und DLSS, wie viele andere mittlerweile sicherlich auch. Warum wird das nicht verglichen? AMD sieht dann natürlich ganz alt aus, aber das ist die Realität.
Solange die Spiele Unterschiede zwischen AMD und NV bei RT machen (CP2077) und DLSS 2.0 je nach Auflösung mal besser, mal schlechter aussieht, kann man keine Vergleichbarkeit (siehe frühere AA/AF Vergleiche, wo auch je nach Hersteller unterschiedliche Settings verglichen wurden, die aber quasi dasselbe Level an Bildqualität erreichten) unterstellen. Zudem würdest du mit deiner Idee einen Indexwert anhand des Großteils der vorhandenen DLSS 2.0 Titel bilden, während Spiele die DLSS 2.0 nicht unterstützen massivst unterrepräsentiert wären. Aus einem "GPU A ist 20% schneller als GPU B im Testparcour" wird aber schnell ein "GPU A ist generell 20% schneller als GPU B", womit dann die Realität eben nicht mehr abgebildet wird, wenn das betreffende Spiel eben kein DLSS 2.0 unterstützt. Das wäre eine ganz miese Sache für einen Test der einen generell größeren Betrachtungshorizont (quasi stellvertretend für die meisten Spieletitel) widerspiegeln soll.

Von daher: DLSS kann oder sollte sogar zwingend mit rein wo es Sinn ergibt, allerdings nicht für den Hauptindex als solches herhalten, gerne aber als Asterisk. Denn der Hauptindex soll alles repräsentieren und nicht nur die "best cases". Das betrifft übrigens solcherart Technologien auf beiden Seiten, sofern sie eben nicht global einsetzbar sind.

Gethvel
2021-02-20, 14:58:07
Solange die Spiele Unterschiede zwischen AMD und NV bei RT machen (CP2077) und DLSS 2.0 je nach Auflösung mal besser, mal schlechter aussieht, kann man keine Vergleichbarkeit (siehe frühere AA/AF Vergleiche, wo auch je nach Hersteller unterschiedliche Settings verglichen wurden, die aber quasi dasselbe Level an Bildqualität erreichten) unterstellen. Zudem würdest du mit deiner Idee einen Indexwert anhand des Großteils der vorhandenen DLSS 2.0 Titel bilden, während Spiele die DLSS 2.0 nicht unterstützen massivst unterrepräsentiert wären. Aus einem "GPU A ist 20% schneller als GPU B im Testparcour" wird aber schnell ein "GPU A ist generell 20% schneller als GPU B", womit dann die Realität eben nicht mehr abgebildet wird, wenn das betreffende Spiel eben kein DLSS 2.0 unterstützt. Das wäre eine ganz miese Sache für einen Test der einen generell größeren Betrachtungshorizont (quasi stellvertretend für die meisten Spieletitel) widerspiegeln soll.
Nein, der Test kann so bleiben, aber zusätzlich möchte ich einen Vergleich Nvidia + RT +DLSS vs AMD + RT

Dabei ist es mir auch wirklich egal ob DLSS manchmal 0.5% schlechter aussieht und zu 90% 50% besser.:rolleyes:

Leonidas
2021-02-20, 17:24:17
Da aber vielen Mitlesern nicht klar ist, was für ein abartiger Aufwand hinter einem aktuell gehaltenen, ordentlichen Leistungsindex steht
...
sprudeln die erklärenden Worte dazu neuerdings aus mir heraus.


2x Zustimmung bzw. Verständnis.

Gast
2021-02-20, 18:09:22
Was man jedoch sieht ist dass bei Auflösungen über 4K die 6800 stark einbricht, da der Infinity Cache deutlich weniger greift, was teilweise bei 4K schon sichtbar ist. Sollten die Speicheranforderungen bei neuen Spielen steigen so könnte dies speziell bei 4K sehr schnell zu einem echten Problem werden noch lange bevor der 3080 der VRAM ausgeht.
Der Test geht doch nur bis 4k, oder habe ich da was übersehen. Und der Test erklärt auch, warum RDNA2 bei höheren Auflösungen im Vergleich zu Ampere verliert. Das hat allerdings nichts mit dem Infinity Cache zu tun, sondern liegt in erster Linie daran, dass Ampere Probleme hat, die Shader bei FullHD und WQHD auszulasten. Das sieht man, wenn man auch Turing zum Vergleich heran zieht. Denn der Abstand zwischen Turing und RDNA2 bleibt bei FullHD, WQHD und UHD grob gleich während Ampere auch im Vergleich zu Turing bei Auflösungen unter UHD Federn lassen muss. RDNA2 hat also keine Schwäche bei hohen Auflösungen, sondern Ampere bei niedrigen Auflösungen.

Gast
2021-02-20, 18:12:50
Nein, der Test kann so bleiben, aber zusätzlich möchte ich einen Vergleich Nvidia + RT +DLSS vs AMD + RT

Dabei ist es mir auch wirklich egal ob DLSS manchmal 0.5% schlechter aussieht und zu 90% 50% besser.:rolleyes:
Es gibt doch einige DLSS Tests, Computerbase hat das sogar auch mit drin. Und das mit den zu 90% 50% besser ist scheinbar subjektiv, denn die Zahlen würde ich so nicht sehen...

Leonidas
2021-02-21, 03:30:43
@ Raff: Wichtiger wäre mir seitens PCGH ein Nachtrag mit den exakten TGP-Werten der Mobile-GPUs. Am besten auch wirklich nachgeprüft.

Raff
2021-02-21, 10:41:36
Moin!

Ich setze den federführenden Kollegen gleich drauf an. :)

MfG
Raff

Gast
2021-02-21, 13:37:02
Werden eigentlich die aktuellen Konsolen zum Mine(r?)n benutzt?

Leonidas
2021-02-21, 16:10:16
Der Gedanke kam mir auch. Aber auf XBox dürfte das wohl gar nicht gehen und bei der PS5 muß man erstmal ein freies Linux laufenlassen können. Das wird nicht so schnell bereitstehen.

Gast
2021-02-22, 10:47:56
Der Test geht doch nur bis 4k, oder habe ich da was übersehen. Und der Test erklärt auch, warum RDNA2 bei höheren Auflösungen im Vergleich zu Ampere verliert. Das hat allerdings nichts mit dem Infinity Cache zu tun, sondern liegt in erster Linie daran, dass Ampere Probleme hat, die Shader bei FullHD und WQHD auszulasten.

Das liegt durchaus hauptsächlich am Infinity Cache, und es gibt sogar eine sehr schöne AMD Folie vom Launch die zeigt, dass dieser in 4k deutlich an Effizienz einbüßt.

Ampere hat keine wesentlichen Probleme in niedriger Auflösung ausgelastet zu werden, diesen Eindruck haben nur einige weil sie die Falschen Karten vergleichen.

Dass sich schnellere Karten von langsameren in höheren Auflösungen stärker absetzen ist nichts neues, wenn man die Auflösungsskalierung zwischen Ampere und Turing vergleichen will, muss man also gleich schnelle Karten nehmen. Da bieten sich 3070 und 2080Ti an, und hier sieht man in den verschiedenen Auflösungen keinen wesentlichen Unterschied, je nach Spiel ist manchmal sogar die 2080Ti in 4k etwas besser als in geringeren Auflösungen.

3080 und 3090 sind einfach für die niedrigeren Auflösungen zu schnell und können sich damit nicht von Turing absetzen, das hat aber nichts mit der Architektur zu tun, ein hochskalierter Turing hätte die gleichen Probleme.

Leonidas
2021-02-22, 12:58:27
Sehe ich ähnlich. Schlicht Skalierungs-Probleme und CPU-Limits, welche unter niedrigenen Auflösungen stärker auffallen als unter 4K. Ist inzwischen vollkommen normal, die Performance-Skalierung ist schon seit mehreren Gfx-Generationen zwischen FHD und 4K beachtbar abweichend.

Raff
2021-02-22, 13:18:12
Besonders stark betroffen ist davon die RTX 3090. Wenn man also nur 5-10 Prozent Differenz in Benchmarks sieht, herrschen da andere Limits als die Grafikkarte -> diese "Grafiktests" testen nicht die Grafikkarte und sollten überarbeitet werden. Man könnte das auch als "praxisnah" abtun, aber dennoch führt das die Idee, in einem GPU-Test wirklich die GPU-Leistung zu zeigen, ad absurdum. ;)

MfG
Raff

Leonidas
2021-02-22, 13:56:20
Ja, die RTX3090 ist ein schwerer Sonderfall. Ich vermute, dass werden wir erst mit der Nachfolge-Generation herausbekommen, was da bremst.

Bambuslooter
2021-02-22, 15:38:58
Das würde bedeuten, Computerbase Fazit ist dann "falsch".
Hier wird nämlich Ampere eine Schwäche wie der R9 290 attestiert.
Unter 4K gut ausgelastet, darunter eher so naja.

Am Ende haben beide Hersteller Glück.
Bis 4K massentauglich wird, vergehen noch 1-2 Generationen.
Schaue ich bei meinen Freunden rum, die keine "Nerds" sind ist FHD Standard und 144Hz verbreitet sich eher.
Ich bin letztens auch erst auf WQHD mit 165Hz umgestiegen.
Macht für mich mehr Sinn und da brillieren die 6900XT und die 3090 gleichermaßen.

Denniss
2021-02-22, 15:49:24
erinnert so ein wenig an GCN, wenn den Karten nicht der Speicher ausging verloren die in höheren Auflösungen vergleichsweise weniger als Karten der Konkurrenz.