PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 27./28. März 2021


Leonidas
2021-03-29, 07:58:34
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2728-maerz-2021

GerryB
2021-03-29, 09:29:27
Wieso gibt Es das rBar net für Z390?
(falsche Aussage im Artikel)

Natürlich gibt Es mittlerweile rBar auch für ältere Intel.
Es muss nur eingesetzt werden!

Leonidas
2021-03-29, 09:33:30
Mein Fehler, hab auf offizielle Aussagen von Intel geschaut. Ich korrigiere.

Nicht der eine Gast
2021-03-29, 09:40:34
Ich finde es immer wieder erstaunlich, wie eine Aspekt relativiert und pauschlisiert wird, wenn bei Nvidia oder Intel negativer Aspekt entdeckt wird.
Man könnte auch einfach die Aussage, daß eine Nvidia Grafikkarte bei Auslastung der CPU mehr CPU Leistung braucht (auf Grund einer Designentscheidung Nvidias), einfach stehen lassen. Daraus leitet sich auch eine Empfehlung dann eine CPU mit mehr "ipc", Takt und Kernen zu kaufen ab.
Das ganze ist auch ein Versagen der sogenannten Tech Presse. Diesen Umstand könnte man schon vor einiger Zeit sehen. Als ich mir die Radeon RX 5500 XT gekauft habe, konnte man diese in Vergleichsvideos mit einer GeForce 1660 schon erkennen.
Auch zeigt sich, dass die aktuellen Test Methoden nicht immer geeignet sind, die behaupte Allgemeingültigkeit zu zeigen. Im Grunde gelte die gemessenen Grafikbalken nur für das Testsystem und sonst nichts.

GerryB
2021-03-29, 11:11:32
Danke!

Vllt. könnte man auch mal recherchieren/auflisten welche Hersteller von Z390 inzw. schon Betabios mit rBar haben.

Mich persönlich ärgert momentan, das die Rebublic of Gamers noch NIX hat.(da ist der Name Programm)
Bitte Alle in den gängigen Threads mit Druck machen!

Evtl. kommt ja Morgen die große Wende... schau mer mal.
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/News/VBIOS-Updates-1369380/

Normalerweise hätte ab Markteinführung der 3060 von den Boardherstellern der Support kommen sollen/müssen.
(auch bei grünen Board-OEMs)

Wäre noch die Frage, auf welchen Boards der NV-Bios-Updater/Trainer funzt:
https://www.computerbase.de/forum/threads/resizable-bar-erste-partner-verteilen-bios-updates-fuer-geforce-rtx-3000.2014000/#post-25468344
HiSN hat seine 3090 schonmal getestet mit dem Galax.
https://www.computerbase.de/forum/threads/resizable-bar-erste-partner-verteilen-bios-updates-fuer-geforce-rtx-3000.2014000/page-4#post-25468799
In Valhalla+B3 eigentlich kein rel. Gewinn.(vermutlich in 4k)

Hoffentlich schauen die Reviewer auch CP2077 mit genauer an.
Die bisherige Eff. von NV ohne rBar ist ja total grottig:
https://www.techpowerup.com/review/amd-radeon-rx-6700-xt/36.html

Leonidas
2021-03-29, 12:21:51
Ich finde es immer wieder erstaunlich, wie eine Aspekt relativiert und pauschlisiert wird, wenn bei Nvidia oder Intel negativer Aspekt entdeckt wird.

Ich finde es hingegen erstaunlich, wie in einer Bewertung immer wieder ein Pro/Contra zugunsten irgendwelcher Hersteller hineininterpretiert wird. Ich meine, ich habe nix davon, Pro/Contra irgendwas oder irgendwem zu sein. Ich bekomme von den Herstellern nichts, nichtmal einen Klapps auf die Schulter. Irgendwelche Favoriten zu puschen, ist auch weit von meiner persönlichen Einstellung zu den Dingen entfernt (eher betrachte ich Favoriten besonders kritisch).

Mit dieser ganzen "Interpretation" über die Gedankengänge des Schreiberlings, welche am Ende nichts anderes als reines Raten ins Blaue hinein sind, kommt die Betrachtung der reinen Fakten regelmäßig zu kurz. Und Fakt ist, dass es kaum Nutzer dieses BQ-Settings auf den genannten Grafikkarten gibt. Selbst Nutzer von GTX 1060 & RX580 werden "High" fahren - womit der Effekt weg ist. Wo irgendjemand praktisch was verliert, wurde immer noch nicht nachgewiesen - es deutet sich aber immer mehr an, dass das eine ganz schmale Zahl von Nutzern wird.

Tigerfox
2021-03-29, 12:29:26
Diese Erkenntnis hätte ich gebrauchen können, bevor ich mich vor einem Jahr entschieden habe, mein 4790K-System mit einer 2070 statt einer 5700(XT) aufzurüsten.
Ok, damals war glaube ich auch mitentscheidend, dass irgendein Spiel, für welche das Upgrade überhaupt vorgenommen wurde, deutlich besser auf Nvidia lief.

Interessant wäre nun ein (sicherlich sehr aufwändiger) Test, der herausfindet, ab welcher CPU-Leistung Nvidia wieder eindeutig schneller ist, v.a. ob das eher mit der Zahl der Kerne oder der singlecore-Leistung zusammenhängt, ob z.B. das Upgrade von einem 9400F zu einem 9600K schon hilft oder ob es ein 9700K/9900K sein muss bzw. von einem 1600X/2600X zu einem 3600X/5600X oder besser 3700X/5800X.

Es ist natürlich klar, wie das so lange unentdeckt bleiben konnte, da neue GPUs ja immer mit der schnellsten Spiele-CPU getestet werden, aber in Zukunft sollte man vielleicht einen Test mit gängigen älteren CPUs nachreichen.

Selbst Nutzer von GTX 1060 & RX580 werden "High" fahren - womit der Effekt weg ist. Wo irgendjemand praktisch was verliert, wurde immer noch nicht nachgewiesen - es deutet sich aber immer mehr an, dass das eine ganz schmale Zahl von Nutzern wird.
Mit so einer Argumentation fürst Du CPU-Benchmarks im Allgemeinen ad absurdum, denn man kann jeden Effekt der CPU-Leistung durch ausreichend GPU-lastige Einstellungen negieren. Spätestens in UHD, oft schon in WQHD sieht man kaum noch einen Unterschied zwischen den GPUs.
Sollen wir uns dann alle die billigste CPU kaufen und auf UHD zocken? Bei CPU-Tests wird für Benchmarks in 720p oder maximal 1080p immer argumentiert, dass man nur so sähe, wie die CPU das Potential der GPU freilegt.

Zude, betrifft das ja sicher nicht nur die 3080. Selbst auf einer 2060 ist der Effekt vorhanden, wenn auch kleiner, weil die in 1080p@Medium schon näher am Limit ist. Mit einer 2070S/2080S oder 3060Ti/3070 wird der Effekt auch nennenswert sein und hier kann ich mir sehr gut vorstellen, dass jemand mit begrenztem Budget bei CPU und Speicher spart und vielleicht nur die P/L-Empfehlungen der letzten Jahre, 9400F und 10400F bzw. R5 1600 (12nm)/3600 wählt, um dafür mehr Grafikleistung zu haben.

davidzo
2021-03-29, 12:32:36
Das ist ein verdammt interessantes Phänomen, was das komplette Kaufverhaltne im midrange ändern könnte. Ich habe ungefähr dasselbe problem wie mein vorredner Tigerfox.

Ich habe unter anderem einen Xeon 1231 v3, also praktisch einen Haswell 4770-nonK (bzw. vom Takt 4670 + HT). Also eine relativ schwache CPU. Als GPUs habe ich die Auswahl zwischen einer 1060, eine 290 Vapor X und eine GTX980 gehabt. Ich besitze letztere beide, die erste habe ich gerade abgegeben.
Bisher dachte ich dass die 980 und 1060 in etwa gleich schnell sind und dann 10-20% dahinter die R9 290.
Könnte sich das mit der recht schwachen CPU nun anders herum verhalten?

Leonidas
2021-03-29, 12:46:15
Spielt Ihr denn in FHD/Medium?

Und wenn es FHD/High ist - wollten wir dann nicht besser Benchmarks hierzu abwarten? Das wenige, was derzeit dazu vorliegt, deutet an, dass diese Differenz wirklich schnell verschwindet, wenn es ins GPU-Limit geht.

Und gerade für Nutzer von schwachen CPUs ist es doch sinnvoll, alle Grafik-Optionen auszufahren. Oder nicht?

Crazy_Borg
2021-03-29, 13:07:32
Naja, die erste Regel in Spielguides online, wenn das Spiel nicht so toll läuft, ist immer "Grafik auf Medium herunterzuschalten".
Pauschal würde ich auch sagen, viele welche solche Guides lesen, gehören eher zur Gattung der Spieler, welche NICHT die schnellste CPU ihr eigen nennen. Die haben vielleicht noch einen i7-4770K und sich vor kurzem eine neue (oder gebrauchte) nvidia Karte gekauft, um ihr neues tolles DX12 game zu zocken. Minimalanforderung sagt: "Intel 4 Kern, 3.5 GHz". Das können durchaus CPUs von vor 9 Jahren noch erfüllen.
Also, so unrealistisch ist das Szenario "alte CPU, neuere Graka, Medium details" weiss Gott nicht. Viele Spiele drehen auch bei Selbsterkennung nicht alle Details auf Anschlag, wie ich gerade bei Watch Dogs Legion am Free Weekend erkennen durfte. Und wenn die Performance eh nicht toll ist, werden die wenigsten die Details hochschrauben um die gleiche mäßige Performance mit höherer Grafikpracht zu bewundern.
Nur weil wir hier im Forum als durchaus "GPU Elite" alles auf Anschlag drehen, sollten wir uns bewusst werden, das nicht alle dies tun. Ich kenne viele, die sich einen Fertig-PC kauften und mit der Konsolenspielermentalität nach der Installation des Spiels direkt zu zocken anfangen ohne in die Optionen zu gucken.

P.S.:
Ich hörte wie damals fast alle (auch die Reviews) riefen, dass die Vega 56/64 die schlechtesten Karten wären die AMD je produziert hat. Ungebliebt, da zu lahm, zu heiss, zu Stromhungrig, und man doch so schnell wie möglich auf was besseres warten sollte oder gleich 'ne nvidia nehmen sollte. ;D

Midnight-3DC
2021-03-29, 13:19:12
Für mich an der Stelle wäre auch noch relevant, von welchen fps Absolutwerten wir dabei reden und ob die Effizienz fps pro Watt auch davon betroffen ist. Solange mit meiner 3070 unter FullHD bei medium Einstellungen noch bequem 60+ fps herauskommen und die Energieeffizienz nicht dramatisch schlechter wäre, wäre es mir persönlich jedenfalls ziemlich egal ob die maximal mögliche Performance mit einer AMD Karte um 20% besser wäre.

Anders ausgedrückt: Praxisrelevant wäre das für mich eigentlich nur dann, wenn ich FullHD/Medium auswählen muss um konstante 60 fps erreichen zu können.

Ich bin mir allerdings durchaus auch dessen bewusst, dass nicht jeder seine Grenze bei 60 fps zieht und möglicherweise andere Prioritäten setzt.

Lehdro
2021-03-29, 13:36:05
Das ganze ist auch ein Versagen der sogenannten Tech Presse.
[...]
Auch zeigt sich, dass die aktuellen Test Methoden nicht immer geeignet sind, die behaupte Allgemeingültigkeit zu zeigen. Im Grunde gelte die gemessenen Grafikbalken nur für das Testsystem und sonst nichts.
Was ein Quatsch, da versagt wohl eher deine Medienkompetenz GPU Tests richtig zu interpretieren.

Gemessen wurden die GPUs unter der Prämisse das CPU Limit so gut es eben geht auszuschließen. Es ist schließlich ein GPUTest. Das was du haben willst ein Kombi- oder gar Systemtest. Dafür gibt es extra Artikel oder spezialisierte Seiten (GameGPU (https://gamegpu.com/) z.B.) die so etwas anbieten. In einem reinem GPU Test sollte aber die GPU an sich vermessen werden, so wie in einem CPU Test möglichst kein GPU Limit vorliegen sollte. Eigentlich logisch. Zumal das Thema eben deutlich komplexer ist als "NV bad" und "AMD good". Da spielen Treiber, API, Betriebssystem, CPU, Speicher und zu guter Letzt noch das betroffene Spiel mit rein. Das ist schon ziemlich aufwendig so etwas dauernd zu prüfen und verifizieren - für im Extremfall dutzende Leistungsklassen und Kombinationen. Gerade hier im Forum wird zudem das Problem, oder besser gesagt, die Problematik auch gerne klein geredet, weil der Nutzerkreis so etwas eher ausschließt, als es als übliches Problem anzusehen. Wie immer gilt aber, was auch in der Fachpresse oft zu lesen ist: PCs sinnvoll zusammenstellen und keine Bottlenecks dabei erschaffen. Dazu gehört eben auch die CPU entsprechend "groß" auszuwählen - bei NV spätestens seit jetzt eben lieber eine Nummer größer oder halt beim Aufrüsten dann eher AMD den Vorzug geben, wenn es denn Sinn ergibt.

Iscaran
2021-03-29, 14:39:20
@Leonidas:

Somit wäre dann allerdings darüber nachzudenken, ob in diesem Fall auch wirklich eine Praxisrelevanz existiert: Denn nVidia ist hierbei (nach bisherigem Wissen) allein schlechter unter Settings, wo wegen eines bestimmenden CPU-Limits sowieso nur noch sehr abgeschwächte Performance-Unterschiede zwischen den Grafikkarten existieren und sich somit nirgendwo wirklich schnelle Grafikkarten lohnen. Anstatt an dieser Stelle die Grafikkarte zu wechseln, wäre in einer solchen Situation viel eher ein CPU-Upgrade zu empfehlen, dies würde gravierend mehr bringen. Dies gilt natürlich nur insofern, als dass jemand tatsächlich FullHD mit (durchgehender) "Medium"-Bildqualität auf einem schwächeren Prozessor mit einer Grafikkarte á Radeon RX 580 oder GeForce GTX 1060 oder stärker benutzt. Jene Grafikkarten sind auch heutzutage zumeist zu einer "High"-Bildqualität unter FullHD in der Lage – was die Problematik in einer Grafikkarten-Limitierung verschwinden läßt und wie gesagt die Frage nach der Praxisrelevanz dieses Falls aufstellt.


Das kann man so nicht sagen. Generell braucht man halt 1, 2 CPU Stufen mehr mit nVidia als mit AMD-GPUs. Das ist schon ziemlich signifikant. Nur als grobes Beispiel...reicht dir der 3600X bei AMD, muss es bei nVidia hingegen schon der 5600X sein.
Reicht dir der 1600X bei AMD, muss es bei nVidia schon mindestens ein 1800X oder eben der 3600X sein...usw.

Die schnellen AMD-Karten "schwächeln" in den Benchmarks hier nur, weil man absichtlich sehr bewusst CPU-Limits erzeugt hat um den Effekt zu zeigen.
Mit etwas Feintuning in der CPU Auswahl liessen sich aber immer CPUs wählen wo eine 6800XT nicht mehr gebremst wird die 3080 XT hingegen schon.

Das ganz ist natürlich unabhängig vom "Setting" (FHD medium/High)...einzige relevanz ist wieviel FPS bringen mich ins GPU-Limit und welche CPU benötige ich dafür.

Und ja ich spiele in FHD auf Max.

Knuddelbearli
2021-03-29, 15:55:58
Somit wäre dann allerdings darüber nachzudenken, ob in diesem Fall auch wirklich eine Praxisrelevanz existiert:
Ähm ja? gibt genug Spiele wo man prinzipiel vor allem im CPU Limit liegt zB fast alle Strategietitel aber auch so manches RPG und viele Rennspiele mit vielen/guten KIs.

Das immer alles nur so Shooter zentriert ist ist einfach lächerlich und jetzt machst sogar du Leonidas da mit ...
Und selbst bei Shootern dürfte das bei 120+ FPS Spieler durchaus relevant sein.

Ravenhearth
2021-03-29, 15:58:42
Spielt Ihr denn in FHD/Medium?

Und wenn es FHD/High ist - wollten wir dann nicht besser Benchmarks hierzu abwarten? Das wenige, was derzeit dazu vorliegt, deutet an, dass diese Differenz wirklich schnell verschwindet, wenn es ins GPU-Limit geht.

Und gerade für Nutzer von schwachen CPUs ist es doch sinnvoll, alle Grafik-Optionen auszufahren. Oder nicht?
Im ursprünglichen Video von Hardware Unboxed war auch ein Test von HZD in 1080p Ultra, bei dem das Verhalten teilweise auch zu beobachten war. Auf einem Ryzen 5 1600X war eine RX 5700XT schneller als eine RTX 3070, und mit dem 2600X waren sie gleich schnell. Für Leute die mit solchen Karten in 1080p mit hohen Frameraten spielen wollen, kann das also auch bei höheren Einstellungen ein Problem sein, wenn man nicht den neuesten Unterbau hat.

y33H@
2021-03-29, 17:28:35
Das ganze ist auch ein Versagen der sogenannten Tech Presse. Diesen Umstand könnte man schon vor einiger Zeit sehen.Hat man doch - mit D3D11 braucht man bei Radeons eine schnellere CPU ;D
Auch zeigt sich, dass die aktuellen Test Methoden nicht immer geeignet sind, die behaupte Allgemeingültigkeit zu zeigen. Im Grunde gelte die gemessenen Grafikbalken nur für das Testsystem und sonst nichts.Niemand geht von Allgemeingültigkeit aus, weil jedem klar ist, dass Tests immer nur eine Momentaufnahme sind :P

Platos
2021-03-29, 18:07:20
Umfangreichere Tests wären dann wohl interessant. Der Umfang wäre natürlich enorm, aber interessant wäre es auf jeden Fall.

Also Tests mit 4, 6 und 8 Kernen und vlt. jeweils 2-3 verschiedenen Taktstufen (Takt einstellen/andere Modelle simulieren). Und das dann mit mehreren Grafikkarten in mehreren Spielen in mehreren Settings (Mittel, High, Ultra) und mehreren Auflösungen( 1080p, 1440p, 2160p)...;D:freak:

Wie gesagt, enorm aufwändig... aber interessant:biggrin:

Aber: Ist denn die CPU Auslastung auch merkbar höher mit nvidia GPUs, wenn man sich in einem solchen Testszenario befindet, wie im Artikel hier (also "leichtes" CPU Limit) ? Denn dann könnte man auch schlussfolgern, dass man mit einer nvidia GPU früher ins CPU Limit kommt bzw. mit einer AMD GPU eben länger nicht und man somit eine weniger starke CPU bräuchte und das Geld dann in eine bessere GPU stecken könnte ?

Das Problem: Um zu sagen, ab wann das gilt bzw. wann nicht (oder ob es überhaupt gilt), bräuchte es sehr, sehr umfangreiche Tests (wie oben beschrieben).

Midnight-3DC
2021-03-29, 18:37:28
Aber: Ist denn die CPU Auslastung auch merkbar höher mit nvidia GPUs, wenn man sich in einem solchen Testszenario befindet, wie im Artikel hier (also "leichtes" CPU Limit) ? Denn dann könnte man auch schlussfolgern, dass man mit einer nvidia GPU früher ins CPU Limit kommt bzw. mit einer AMD GPU eben länger nicht und man somit eine weniger starke CPU bräuchte und das Geld dann in eine bessere GPU stecken könnte ?

Das Problem: Um zu sagen, ab wann das gilt bzw. wann nicht (oder ob es überhaupt gilt), bräuchte es sehr, sehr umfangreiche Tests (wie oben beschrieben).
Die Frage fände ich auch eher interessant. Es wird ja üblicherweise nur der Verbrauch der Grafikkarte selbst getestet. Wie sieht es denn mit dem Gesamtverbrauch das Systems bei nVidia und AMD aus? Bzw. zumindest mit dem Verbrauch von GPU und CPU?
Mit der aktuellen Generation ist AMD mit dem Invinity Cache ja grob auf demselben Niveau wie nVidia angekommen, wenn dann aber die CPU für vergleichbare fps 30% mehr verbrauchen würde, dann hätte nVidia ja faktisch einen klaren Nachteil, der dann auch so benannt werden sollte. Vor allem wenn dieser auch dann auftritt, wenn die CPU nicht der Flaschenhals ist.
Letzten Endes ist das nämlich auch thermische Energie, die ich über Lüfter aus meinem Gehäuse befördern muss und die im Sommer möglicherweise mehr als nur die Stromrechnung belastet.

GerryB
2021-03-29, 19:43:31
Bei nur 10m² Homeoffice gebe ich den Vorrednern Recht, das ich nur einen 300W-Gesamt-PC nutzen möchte.(aus verständlichen Gründen)
Und den Tausch NV gg. größere AMD mit kleinerer CPU haben wohl auch Viele gemacht.(bei selbem Stromverbrauch gesamt)

btw.
Normalerweise läuft ja Vulkan auch in kleineren Auflösungen ganz gut auf NV, aber in AG2 scheint noch Etwas zu klemmen:
(falls man mal nach den minFps schaut... mir persönlich würden Frametimes in 1440p beim CPU-Test reichen,
bin in >=1800p dann safe. Eher müsste man ala Igor für den CPU-test dann net mehr die 3090 sondern die 6900 nehmen.)

Gast Ritis
2021-03-29, 22:53:41
Ist natürlich klar dass man bei so einer News erst mal sein Weltbild und seine Entscheidung verteidigt und den Testergebnissen Relevanz abspricht.

Wichtig ist erst mal dass hier leistungsfähigere GPUs unter Umständen insgesamt ein System langsamer machen können als erwartet, d.h wenn man billiger gekauft hätte. Das ist schon extrem abnormal für PC Upgrades.
Ob das realistisch Kunden gibt ist ne offene Frage, gemäss der Normalverteilung gibts aber immer einige Betroffene in extremis.

Klar muss man eine GPU im Vergleich vom CPU Limit befreien und dann mit der schnellsten und mit RAM hochgezüchteten Kombi testen.
Aber man verzerrt dann auch die tatsächlichen Performanceunterschiede, die sich mit modernsten CPU Setups den grössten Stückzahlen im Mainstream bewegen.
Mir scheint auch dass viel weniger 4K Monitore im Vergleich zur Anzahl GPUs im HighEnd abgesetzt werden. Könnten die sich dann nur mit Raytracing trösten den GPU Preis zu rechtfertigen.

Aber die Reviewer sollten doch für den Durschnittskäufer Empfehlungen geben, ob 1, 2, 3, oder 6 Hundert Euro mehr in bestimmter durschnittlicher Kombination auch spürbar sind. Ohne 4K und fragwürdige Max Settings geht die Rechnung für viele Käufer aber wahrscheinlich nicht mehr so auf, wenn dann zunächst erst mal Mainboard und CPU im Worst Case auch RAM überdurchschnittlich aufgerüstet werden müssten.

Von daher ja, das Problem haben inkompetente Reviewer bei Fazit und Empfehlung.

Ravenhearth
2021-03-30, 00:02:11
Aber: Ist denn die CPU Auslastung auch merkbar höher mit nvidia GPUs, wenn man sich in einem solchen Testszenario befindet, wie im Artikel hier (also "leichtes" CPU Limit) ?
Ja, das hat HWU bereits gezeigt.

Nicht der eine Gast
2021-03-30, 01:46:13
Mit dieser ganzen "Interpretation" über die Gedankengänge des Schreiberlings, welche am Ende nichts anderes als reines Raten ins Blaue hinein sind, kommt die Betrachtung der reinen Fakten regelmäßig zu kurz. Und Fakt ist, dass es kaum Nutzer dieses BQ-Settings auf den genannten Grafikkarten gibt. Selbst Nutzer von GTX 1060 & RX580 werden "High" fahren - womit der Effekt weg ist. Wo irgendjemand praktisch was verliert, wurde immer noch nicht nachgewiesen - es deutet sich aber immer mehr an, dass das eine ganz schmale Zahl von Nutzern wird.

Über welche reinen Fakten reden wir eigentlich. Das die meisten User immer gleich High einstellen, würde ich bezweifeln. Da hätte ich wirklich mal gerne einen "Beweis" für.
Hier auf 3D Center sind midrange Grafikkarten eher unbeliebt. Aber in anderen Foren (CB, direkte Spieleforen) gibt es genug Benutzer dieser Karten (oder noch langsamere). Da sind dann auch viele die mehr am Spiel als an den Grafikeinstellungen interessiert sind. Oftmals werden diese nur aufgesucht um das Spiel zu beschleunigen, da zu ruckelig. Oder es wird dann neue Hardware angeschafft.

Bei mir ist das anderes. Ich habe nur eine RX 5500 XT, weil ich viele Grafikoption gerne ausschalte und Medium bei grafisch forderne Spielen vollkommen ausreicht. Besonders Schatten und refextionen stehen bei mir ganz oben auf der Streichliste. Oftmals gefällt mir das Bild bei low Detail besser als ultra High Details. Ich will auch keine realistische Grafik haben. Da fallen mir die ganzen Ungereimtheiten auf und das stört mich mehr als die vermeintlich schlechte Grafik.

Beim lesen deiner und anderen Post werde ich das Gefühl nicht los, dass viele zu sehr in der eigenen Gedankenwelt verwurzelt sind. Gut das geht teilweise auch mir so.

Das ich mir keine Test bis zum Ende durchlese liegt auch daran, dass bei den Test Bedingungen meist diese so gewählt werden, dass ein bestimmtes Ergebnis herauskommt. Und das tut es dann auch. Das ich auch nicht an den neusten Shooter und Ultra Details interessiert bin, kommt noch hinzu. Im Grunde entscheide ich nach Youtube Videos, bei denen man die Framerate und Auslastung bei den unterschiedlichen Spielszenen gezeigt werden. Wobei diese nur als grobe Orientierung dienen.

Zum Thema selber. Das der Nvidia Treiber sich so verhält wie er sich verhält, finde ich nicht schlimm. Zumal dieses bei ausreichend CPU Power seine Vorteile hat. Ich will nur diesen Umstand und die grobe Korrekturaufwand vorher wissen.

Leonidas
2021-03-30, 06:27:50
Im ursprünglichen Video von Hardware Unboxed war auch ein Test von HZD in 1080p Ultra, bei dem das Verhalten teilweise auch zu beobachten war.

Korrekt. Aber: Auch das sollte nun mittels einer Handvoll Benchmarks nachgewiesen werden. Ein einzelner Benchmarks ist immer nur ein Hinweis, kein Be-weis.

Ich wollte mit meiner Rede im übrigen nicht sagen, dass ich das Thema mangels Praxisrelevanz erledigt. Genau das Gegenteil ist der Fall: Mehr Benchmarks sind vonnöten, um genauer zu erfahren, wie weit das ganze geht.

hmmm
2021-04-02, 08:28:02
Hat man doch - mit D3D11 braucht man bei Radeons eine schnellere CPU ;D

Stimmt so pauschal seit RDNA nicht mehr.

Spielt Ihr denn in FHD/Medium?

FHD und Low-Medium Settings sind nun wirklich keine seltenheit, schau mal auf twitch vorbei. Bei fast allen Shooter findest du da Low-Medium Settings, traurigerweise mit CPUs @3600 und Nvidia Karten. ;)
Und die FHD 240/360Hz Monitore gibt es nur damit man sie nicht kauft.
Sorry, aber für viele ist GPU Qualität nicht nur Bildqualität sondern eben auch maxFPS. Leider scheinen hier einige keinen zugang dazu zu haben.
Persönlich geht mir mehr FPS/niedrigere Latenz VOR Bildqualiät.
Glaubt ihr COD @FHD/Low-Medium Settings ist so ungewöhnlich?
Oder Valarent, oder Warzone, oder Fortnite, oder ...