Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 28. November 2022
Leonidas
2022-11-29, 10:00:47
Link zur News:
https://www.3dcenter.org/news/news-des-28-november-2022
mironicus
2022-11-29, 10:36:52
Ist das wirklich so, daß selbst in den USA die RTX 4090 so viel teurer im Retail verkauft wird? Da sind die Preisaufschläge bei uns ja noch human.
Melbourne, FL
2022-11-29, 10:46:39
Also ich finde die Preis/Leistungs-Zahlen total verwirrend. Für mich bedeutet Preis/Leistung eine Zahl bei der kleinere Werte besser sind, eben Preis pro Leistung (Preis steht im Quotienten über dem Bruchstrich und Leistung darunter; d.h. ein kleiner Preis bzw. eine hohe Leistung führen zu einem kleineren P/L-Verhältnis). Bei Dir in der Tabelle ist es aber umgekehrt.
Alexander
Eine 6950XT günstiger als ne 3080 in De und trotzdem haste die ganzen Plebs die unbedingt die NV kaufen müssen, für etwas bessere RT performance. Kek
Legendenkiller
2022-11-29, 12:10:53
Seit wann gibs ne 3080 12g ? also non TI. Die iss irgendwie komplett an mir vorbei gegangen. Die kostet hier in Euroland 200€ mehr als eine 3080 10g.
Meine Favoriten, wenn ich jetzt eine neue Karte bräuchte, wären aktuell
bis 400€ eine 3060
bis 600€ eine 6800
über 600€ muhahaah... nix
4k RT ist der einzig halbwegs ernstzunehmende Wert, bei allem anderen werden die Performancewerte viel zu stark von der CPU beeinflusst um auch nur im entferntesten relevant zu sein.
"Und zweitens nähern sich die Preis/Leistungs-Verhältnisse zwischen AMD- und nVidia-Karten bei der RayTracing-Performance deutlich stärker aneinander an, während bei der Raster-Performance zumeist klare Unterschiede vorherschen. Dies ist am deutlichsten bei den kleineren Karten zu sehen, wo nicht der Haloprodukt-Effekt wie bei Radeon RX 6900 XT & 6950 XT oder bei den größeren nVidia-Karten existiert. Dies soll nicht sagen, dass die Preis/Leistungs-Verhältnisse unter RayTracing tatsächlich gleich sind, aber die Unterschiede sind halt deutlich kleiner als unter Raster-Rendering. Letztlich sagt dies aus, dass sich die Straßenpreise inzwischen primär anhand der RayTracing-Performance herausbilden."
Das lässt sich IMO aus der Tabelle nur sehr begrenzt herauslesen.
Im Gegenteil, die Tabelle widerlegt deine Interpretation:
Jedenfalls wenn man die preislich ähnlichen Karten vergleicht.
6950XT vs 3080 12GB: Der Preisvorteil im Raster ist etwas kleiner, als der Preisnachteil bei RT. (22% besserer Preis RT bei der 3080 12GB. Während die 6950XT nur 13% besseres Verhältnis bei Raster hat)
6900XT vs 3080 10GB: Sehr ähnlich, aber der Preisvorteil bei RT ist leicht größer, als der Preisvorteil der 6900XT bei Raster
3070 vs 6800: Der Preisvorteil Raster ist fast identisch zum Preisvorteil RT.
Nur die 6800XT ist positiv vs die 3070. 20% Preisvorteil Raster, während die 3070 nur 10% Preisvorteil RT hat.
Die 3070TI ist generell unattraktiv, die 3070 ist weit besser.
Für 4 Vergleiche (jeweils Karten die im Preis ähnlich sind) gilt also für 3 deine Aussage: "Und zweitens nähern sich die Preis/Leistungs-Verhältnisse zwischen AMD- und nVidia-Karten bei der RayTracing-Performance deutlich stärker aneinander an, während bei der Raster-Performance zumeist klare Unterschiede vorherschen."
nicht.
Und falls man die 3070TI vs 6800XT mit einbezieht hast du in 2 von 5 Fällen recht.
Bei 4K sieht es sogar noch schlechter aus. Die 6950XT Preis-Leistung ist da gerade 8% besser im Raster. Während die 3080 12GB satte 22% besseres Preis-Leistungs-Verhältnis hat wie die 6950XT.
Im Vergleich zur 6900XT sind es 12% vs 25%.
Wie du auf deine Pauschalaussage kommst entzieht sich mir, die Werte der Tabelle geben deine Interpretation nicht her.
Bezieht man die 3070TI und 4k mit ein stimmt deine Aussage in 2 von 7 Fällen.
D.h. in 5 von 7 stimmt sie nicht.
Damit widerlegt die Tabelle deine Interpretation.
Exxtreme
2022-11-29, 12:32:22
4k RT ist der einzig halbwegs ernstzunehmende Wert, bei allem anderen werden die Performancewerte viel zu stark von der CPU beeinflusst um auch nur im entferntesten relevant zu sein.
Raytracing zerrt stark an der CPU. Mit einer lahmen CPU lahmt auch Raytracing. Von daher sind alle Auflösungen wichtig.
Linmoum
2022-11-29, 12:33:08
Dieses ~ähnliches P/L bei RT-Kartenhaus wird sowieso in sich zusammenfallen. Kann man auch nicht ernst nehmen, da es Spiele geben wird, wo die 4080 immer noch >50% schneller sein wird. Und das nicht nur bei irgendeiner einzelnen Rosine.
Raytracing zerrt stark an der CPU. Mit einer lahmen CPU lahmt auch Raytracing.
Grundsätzlich ja, in den meisten Fällen sinkt allerdings die Bildrate stark, wodurch sich die Auslastung stärker in Richtung GPU verstärkt.
Von daher sind alle Auflösungen wichtig.
Wenn man das Preis/Leistungsverhältnis einer Grafikkarte beurteilen will muss man erstmal die Leistung dieser ermitteln. Und um die Leistung einer Grafikkarte zu ermitteln muss diese nun mal das Leistungslimit darstellen, und das ist bei Karten über einer 3090 eben auch in 4k oft nicht der Fall.
Optimal ist sicher auch der 4kRT Wert nicht, aber er ist der einzige der auch nur ansatzweise die Leistungsfähigkeit der neuen Karten abbilden kann.
Besser wäre natürlich gleich in noch höheren Auflösungen zu testen, insbesondere ohne RT, um auch die Leistungsfähigkeit der neuen Karten genau genug erfassen zu können.
Meine Favoriten, wenn ich jetzt eine neue Karte bräuchte, wären aktuell
bis 400€ eine 3060
bis 600€ eine 6800
über 600€ muhahaah... nix
Die 3060 aber unbedingt mit 12GB, die 8GB Modelle haben einfach 1/3 Speicherbandbreite weg operiert bekommen...
Aktuell warte ich eher auf die 6700XT/6750XT, dass die unter 400€ geht. Die ist in RT ähnlich der 3060, in Raster dafür merklich schneller. Wäre ein nettes Upgrade von meiner R9 Nano.
00-Schneider
2022-11-29, 13:53:36
Könntest du bitte noch das P/L Raster für die 4080 hinzufügen?
Lehdro
2022-11-29, 14:18:58
Interessant ist wie bei uns die 3080 10 GiB und 12 GiB preislich massiv auseinanderdriften, während das in den US of A einfach mal unter 10% Differenz bleibt. Bei uns würde die 3080 12 GiB deutlich schlechteres P/L haben, realistisch geht es da ab einem Tausender los. Ebenso ist die 6800XT bei uns wesentlich teurer im Vergleich zur 6900XT, als sie es über den Teich ist.
Was ist da bei uns los das bei so kleinen technischen Unterschieden plötzlich so krasse Preisunterschiede bestehen?
Iscaran
2022-11-29, 14:40:24
@Leonidas: Warum normierst du das ganze P/L Rating gedönse nicht einfach immer auf die "beste" Karte.
Statt irgendeine Karte zu wählne und dann mit Abweichungen nach oben oder unten?
Wenn IMMER auf P/L beste Karte normiert, wäre auch auffällig, dass AMD diesen Platz seit der Übernahme von ATI praktisch IMMER inne hatte.
Vielleicht hätte man durch eine derartige konsequente Berichterstattung auch weniger das "90/10" Marktanteilsphänomen generiert, das zu einem nicht ungewichtigen Teil auch durch die stark verzerrende Berichterstattung der "Hardware-Medien" kommt. (Meiner Meinung nach).
Ich kaufe selbst seit 25 Jahren immer den P/L Sieger - und bin damit gut gefahren.
@Leonidas: Warum normierst du das ganze P/L Rating gedönse nicht einfach immer auf die "beste" Karte.
Statt irgendeine Karte zu wählne und dann mit Abweichungen nach oben oder unten?
Wenn IMMER auf P/L beste Karte normiert, wäre auch auffällig, dass AMD diesen Platz seit der Übernahme von ATI praktisch IMMER inne hatte.
Vielleicht hätte man durch eine derartige konsequente Berichterstattung auch weniger das "90/10" Marktanteilsphänomen generiert, das zu einem nicht ungewichtigen Teil auch durch die stark verzerrende Berichterstattung der "Hardware-Medien" kommt. (Meiner Meinung nach).
Ich kaufe selbst seit 25 Jahren immer den P/L Sieger - und bin damit gut gefahren.
Ist nen gutes Argument... Entweder die schlechteste als Baseline oder die beste...
Wenn es in beide Richtungen Skaliert ist es immer etwas "verwirrend"...
Das AMD seit ATI immer das beste P/L hatte kann ich zu 95% bestätigen :)
hardtech
2022-11-29, 15:11:20
@LEONIDAS
ich hatte dir vor geraumer zeit zum thema plv eine excel tabelle gesendet mit preise aus nv shops, umrechnungen in euro und ableiten von empfehlungen.
diese würde hier auch gut reinpassen, da man die preispolitik von nvidia ganz gut nachvollziehen kann (korrelation 3dc index zur upe)
Wenn IMMER auf P/L beste Karte normiert, wäre auch auffällig, dass AMD diesen Platz seit der Übernahme von ATI praktisch IMMER inne hatte.
Kommt auf die persönlcihen Präferenzen an, oder nicht?
Spätestens seit RT und DLSS gibt es nicht mehr DIE Karte mit bestem P/L.
Welche soll das sein? Die Karte die bei Raster am besten performt?
Oder jene die bei RT am besten performt?
Oder jene dei bei RT + DLSS vorne ist?
Einer interessiert sich nur für Raster.
Der nächste mag DLSS gar nicht, interessiert sich aber für RT und sagt: Bei anderen GAmes habe ich eh genug Frames, mich interessiert primär RT Preis-Leistung.
Und der dritte sagt: Die RT Spiele unterstützen ja DLSS, also kann man das gleich mit aktivieren.
Und ein vierter betrachtet noch wieviel Ram und welchen Stromverbrauch die Karte hat.
Ein fünfter preist noch eine Wasserkühlung mit ein.
5 Leute, die komplett andere Definitionen vom besten P/L Verhältnis haben.
Irgendwie schwierig da jetzt die eine Karte als "beste" Karte zu bezeichnen, oder?
Es sei denn natürlich, nur deine Definition ist richtig...
davidzo
2022-11-29, 17:41:08
Btw, was war eigentlich gestern Vormitag mit dem Forum los?
War irgendwie offline für mich, nen halben tag lang - habe aber weder von Wartungsarbeiten noch Ausfall hier was gelesen.
War das nur für mich (dns issue?) oder hat das noch jemand anders bemerkt?
Btw, was war eigentlich gestern Vormitag mit dem Forum los?
War irgendwie offline für mich, nen halben tag lang - habe aber weder von Wartungsarbeiten noch Ausfall hier was gelesen.
War das nur für mich (dns issue?) oder hat das noch jemand anders bemerkt?
Steht unter der News:
PS in eigener Sache:
Das 3DCenter-Forum lief gestern leider Vormittags/Nachmittags nicht, am frühen Abend konnte der ursächliche Fehler dann behoben werden. Wir bitten um Entschuldigung für diesen ungeplanten Ausfall.
Schnitzl
2022-11-29, 19:28:47
Bei mir wars auch weg. 3DC Hauptseite ging und alles andere auch.
Hat mich auch gewundert dass es keinen Kommentar dazu gibt.
TwoBeers
2022-11-29, 20:18:37
Steht in den News vom 27. und 28. unten:
PS in eigener Sache:
Seit Montag morgen streikt leider das 3DCenter-Forum (welches auf einem eigenen Server liegt). Was da das Problem ist, ist dato noch nicht ganz klar und wird derzeit untersucht. Wir bitten um Entschuldigung und Geduld.
PS2: Das Forum läuft wieder!
Aber die News bzw. der Kommentar kam erst sehr spät, da war das Forum quasi schon wieder online.
Schnitzl
2022-11-29, 22:09:52
Steht in den News vom 27. und 28. unten:
Aber die News bzw. der Kommentar kam erst sehr spät, da war das Forum quasi schon wieder online.
jupp, als ich geschaute habe war noch nix, jetzt ists da :)
@ Leo: die Ausfälle hier sind so selten - in der Firma hab ich in einem Monat mehr Probleme als hier seit ich registriert bin, also von dem her ... :up:
Ätznatron
2022-11-29, 22:14:08
Bei mir wars auch weg. 3DC Hauptseite ging und alles andere auch.
Hat mich auch gewundert dass es keinen Kommentar dazu gibt.
Naja, immerhin Du hast es bemerkt.
Speznaz
2022-11-29, 23:43:10
Ich warte ja immer noch auf eine Karte, welche die doppelte Leistung meiner GTX1080 bei gleichem Verbrauch (180W) hat (und mindestens 1,5-fachem Speicher). Das war weder bei RDNA2, noch bei Ampere möglich. Wenn ich dazu noch in etwa den gleichen Preis wie damals für die 1080 zahlen muss, dann bin ich richtig zufrieden. Aber primär geht es mir um Leistung/Verbrauch.
Raster/RT ist mir da ehrlich gesagt egal... ich nutze kein RT. Und sehe derzeit keinen Vorteil, welcher den Leistungsbedarf rechtfertigt.
Leonidas
2022-11-30, 02:34:43
Könntest du bitte noch das P/L Raster für die 4080 hinzufügen?
Ich habe es bewußt weggelassen, weil Tom's da einen komplett anderen Wert als ich selber ermittelt haben. Meines Erachtens nach hat die 4080 kein wesentlich zur 4090 abweichendes P/L, aber bei Tom's waren es +50% mehr.
Wenn IMMER auf P/L beste Karte normiert, wäre auch auffällig, dass AMD diesen Platz seit der Übernahme von ATI praktisch IMMER inne hatte.
Ich dachte, es fällt eher auf, wenn die AMD-Karten bei ~140% liegen - das ist klar besser als 100%, zudem kann man somit den exakten Vorteil sofort erkennen.
ich hatte dir vor geraumer zeit zum thema plv eine excel tabelle gesendet mit preise aus nv shops, umrechnungen in euro und ableiten von empfehlungen.
diese würde hier auch gut reinpassen, da man die preispolitik von nvidia ganz gut nachvollziehen kann (korrelation 3dc index zur upe)
Hatte ich glaube ich auch hier ins Forum verlinkt seinerzeit.
Ich warte ja immer noch auf eine Karte, welche die doppelte Leistung meiner GTX1080 bei gleichem Verbrauch (180W) hat (und mindestens 1,5-fachem Speicher). Das war weder bei RDNA2, noch bei Ampere möglich. Wenn ich dazu noch in etwa den gleichen Preis wie damals für die 1080 zahlen muss, dann bin ich richtig zufrieden. Aber primär geht es mir um Leistung/Verbrauch.
Raster/RT ist mir da ehrlich gesagt egal... ich nutze kein RT. Und sehe derzeit keinen Vorteil, welcher den Leistungsbedarf rechtfertigt.
RX 6800 (non xt)?
Mehr als Doppelt so schnell aber auch minimal mehr Verbrauch...
Auf 180w begrenzen und dann haste alles was du wolltest :)
Mega-Zord
2022-11-30, 10:02:50
Eine 6950XT günstiger als ne 3080 in De und trotzdem haste die ganzen Plebs die unbedingt die NV kaufen müssen, für etwas bessere RT performance. Kek
Auch ohne RT macht eine NV durchaus Sinn, immer dann, wenn Spiele DLSS unterstützen. Dann fährt meine 3080 12G in 4k nämlich Kreise um eine 6950XT.
RT ist imo nach wie vor nicht das eigentliche Verkaufsargument von NV, DLSS hingegen schon.
Seit wann gibs ne 3080 12g ? also non TI. Die iss irgendwie komplett an mir vorbei gegangen. Die kostet hier in Euroland 200€ mehr als eine 3080 10g.
Gibt es glaube seit Anfang 2022. Die hat aber nicht nur 2 GB mehr sondern auch mehr Shader-Einheiten, TMUs und ROPs und mit 350 W mehr TBP. Damit liegt sie vermutlich irgendwo zwischen 3080 Vanilla und 3080 Ti.
3080 12G: 8960/280/112
3080 10G: 8704/272/96
Berniyh
2022-11-30, 12:12:06
4k RT ist der einzig halbwegs ernstzunehmende Wert, bei allem anderen werden die Performancewerte viel zu stark von der CPU beeinflusst um auch nur im entferntesten relevant zu sein.
So ein Unsinn.
Relevant ist das was ich als Nutzer dann auch einsetze.
Wenn ich 4k zocke, dann eben in 4k, wenn ich aber in 1440p oder 1080p zocke, dann das.
Was hab ich denn als 1080p Nutzer davon, wenn eine GPU in 4k schneller ist, aber bei 1080p dann nicht (ob jetzt durch die CPU limitiert oder aus einem anderen Grund ist an der Stelle ja erstmal egal)?
Platos
2022-11-30, 12:29:46
Man testet halt damit Setups, nicht GPUs. CPUs nehmen jetzt aber auch nicht so schnell in Spieleperfomance zu. Also wenn heute ne 4090 in 1080p hoffnungslos CPU Limitiert ist, wird sie das auch noch in 5 Jahren sehr oft sein. Und man will ja nicht jetzt etwas kaufen, dass erst in x Jahren sein Potential entfalten kann.
Von daher kauft man lieber was kleineres und in 5 Jahren wieder was kleineres.
Zumal ja die Preise eh lächerlich sind und sich die Frage somit sowieso erübrigt.
Relevant ist das was ich als Nutzer dann auch einsetze.
Für die Beurteilung der Spielbarkeit eines speziellen Falles ja.
Für die Beurteilung der Leistungsfähigkeit einer Karte nein.
Man macht auch keine CPU-Gaming-Tests in 4k, weil das ja die zum spielen eingesetzte Auflösung ist.
Was hab ich denn als 1080p Nutzer davon, wenn eine GPU in 4k schneller ist, aber bei 1080p dann nicht (ob jetzt durch die CPU limitiert oder aus einem anderen Grund ist an der Stelle ja erstmal egal)?
Die benötigte Leistung pro Pixel ist seit jeher ständig im Steigen. Das Performanceprofil heute in 4k kann schon in 1-2 Jahren das Performanceprofil in 1440p sein und irgendwann wird es das Performanceprofil in 1080p sein.
Es geht darum die Performance/Preis einer Karte allgemein zu beurteilen und dazu muss man erstmal die reale Performance einer Karte kennen und die lässt sich bei einer 4080/4090 eben in Auflösungen <4k in heutigen Spielen nicht im geringsten ermitteln.
Außerdem lässt sich überschüssige Performance der GPU immer sinnvoll einsetzen, auch mit einem niedrig aufgelösten Monitor lässt sich die Qualität mit Supersampling immer noch steigern.
Für die Beurteilung der Spielbarkeit eines speziellen Falles ja.
Für die Beurteilung der Leistungsfähigkeit einer Karte nein.
Man macht auch keine CPU-Gaming-Tests in 4k, weil das ja die zum spielen eingesetzte Auflösung ist.
Naja, dann vernachlässigt man aber, dass das Threading bei 4k ganz anders sein kann als bei 720p. Somit kann sich auch die Reihenfolge der CPUs verschieben. Ist zwar nicht immer so, aber kann eben passieren.
Kleines Beispiel: Bei Computerbase im Vergleich 13900K gegen 7950X ist in der Regel Intel klar schneller. Auch in Dying Light 2 und F1 2022. Unter 720p ist Intel bei den Perzentil Werten um 17% vorne, in 4k ist der AMD dann aber haarscharf vor dem Intel. Bei F1 ist Intel 31% schneller in den avg. fps. in 4k liegt AMD wieder haarscharf vorne. Laut deiner Logik müsste AMD immer hinter Intel sein, das trifft aber nicht zu. Daher machen CPU Tests in höheren Auflösungen eben doch durchaus Sinn, weil man solche Fälle sonst nicht finden würde.
Berniyh
2022-11-30, 19:54:31
Für die Beurteilung der Spielbarkeit eines speziellen Falles ja.
Für die Beurteilung der Leistungsfähigkeit einer Karte nein.
Für die Beurteilung der Leistungsfähigkeit einer Karte ist ein Szenario relevant, welches den persönlichen Bedürfnissen am nächsten kommt.
Daher ist es auch sehr schwer so etwas auf einen einzelnen Wert zu kondensieren.
Schließlich kann die Skalierung mit der Auflösung bei unterschiedlichen GPUs auch deutlich unterschiedlich sein.
Daher ist es auch durchaus sinnvoll zumindest für FullHD und 4k separate Performance Indizes zu erstellen, ggf. auch für Raytracing in FullHD und 4k.
Man macht auch keine CPU-Gaming-Tests in 4k, weil das ja die zum spielen eingesetzte Auflösung ist.
Ja, ich kenne diese gängige Praxis, CPU Tests in 4k die Relevanz abzusprechen und nur 720p Tests zuzulassen.
Es ist natürlich prinzipiell nix verkehrt daran in 720p zu spielen, wenn das eben dem eigenen Profil entspricht, aber auf High-End Rechnern die Performance in 720p zu untersuchen um sich daran aufzugeilen, dass das eine System 345 fps schafft, das andere aber nur 338 fps ist schlicht und einfach nur sinnloses Benchmarkgewichse und hat in der realen Welt keinerlei Relevanz.
Ok, meinetwegen abgesehen von einem gewissen Anteil an e-sports Profis, aber diese Gruppe ist so klein, dass ich es nicht einsehe nur für diese irgendwelchen sinnlosen Benchmarks eine Relevanz zuzusprechen.
In der realen Welt wird in 1080p, 1440p oder 2160p gespielt, zumindest wenn es sich um System handelt, wie sie in den Benchmarks dann auch untersucht werden.
Wenn dann am Ende rauskommt, dass man kaum Unterschiede sieht, dann sollte man das doch eher begrüßen, denn dann hat man ja eine Sorge weniger (bzw. kann sich die CPU/Plattform nach anderen Kriterien aussuchen).
Und nicht irgendwelche sinnlosen Benchmarks raussuchen um auf deren Basis eine Entscheidung zu treffen die für das eigene Profil keine Aussagekraft hat.
Die benötigte Leistung pro Pixel ist seit jeher ständig im Steigen. Das Performanceprofil heute in 4k kann schon in 1-2 Jahren das Performanceprofil in 1440p sein und irgendwann wird es das Performanceprofil in 1080p sein.
Das stimmt natürlich. Aber ist das denn auch übertragbar? Wenn man also die Situation hat, dass:
1080p: GPU_A ≈ GPU_B
4k: GPU_A >> GPU_B
Gilt dann zwangsläufig, dass in 3-4 Jahren, mit gestiegenen Anforderungen auch gilt?
1080p: GPU_A >> GPU_B
Ich denke nicht, dass man das so verallgemeinern kann. Kommt ja letztendlich auch daran, welche Effekte in den Szenarien limitieren.
Es geht darum die Performance/Preis einer Karte allgemein zu beurteilen und dazu muss man erstmal die reale Performance einer Karte kennen und die lässt sich bei einer 4080/4090 eben in Auflösungen <4k in heutigen Spielen nicht im geringsten ermitteln.
Da muss ich entschieden dagegen halten. Die reale Performance ist das was du bekommst, wenn du dir die Karte in den PC baust und zockst.
Und wenn eine 4090 nun unter 1080p unter den Erwartungen performt, dann ist das nicht der Fehler des Tests, sondern der Fehler der Karte (oder Treiber o.ä.).
Sonst hätte man mit dem Argument ja auch eine Vega entschuldigen können, denn diese bot ja auch eine recht hohe theoretische Leistung und zeigt auch heute noch respektable Leistungen in manchen Compute Benchmarks. Aber in der (Gaming) Realität sieht das halt anders aus.
Außerdem lässt sich überschüssige Performance der GPU immer sinnvoll einsetzen, auch mit einem niedrig aufgelösten Monitor lässt sich die Qualität mit Supersampling immer noch steigern.
Natürlich, ist aber nicht Thema. ;)
Auch ohne RT macht eine NV durchaus Sinn, immer dann, wenn Spiele DLSS unterstützen. Dann fährt meine 3080 12G in 4k nämlich Kreise um eine 6950XT.
RT ist imo nach wie vor nicht das eigentliche Verkaufsargument von NV, DLSS hingegen schon.
Es gibt auch FSR 2 und das ist leichter zu implementieren als DLSS. Ich denke DLSS wird sich so entwicklen wie Gsync. Technologischer Vorreiter der durch sein geschlossenes und überteuertes Ökosystem langfristig immer mehr an bedeutung verliert. Man kann fast alle Spiele mit DLSS per plug in auch auf RND 2 spielen.
Für die Beurteilung der Leistungsfähigkeit einer Karte ist ein Szenario relevant, welches den persönlichen Bedürfnissen am nächsten kommt.
Für die Beurteilung der Leistungsfähigkeit einer Karte sind einzig Situationen relevant in denen diese Karte das Performancelimit darstellt.
Die persönlichen Bedürfnisse haben in einer Objektiven Leistungsbeurteilung nichts zu suchen.
Die persönlichen Bedürfnisse nehmen natürlich Einfluss auf die persönliche Kaufentscheidung. Und je nach persönlichen Bedürfnissen kann man natürlich zu dem Schluss kommen, dass ein Produkt für einen Overkill ist und von einer Kaufentscheidung absehen.
Das ändert aber nichts daran dass eine Karte die in 4k 2x schneller, in 1080p nur 20% schneller ist eine (mindestens) 2x schnellere Karte ist, sofern bei 4k bereits der Sättigungspunkt erreicht ist.
Wenn man eh nur 1080p spielt und plant die Karte nur 1 Jahr zu verwenden macht ein Kauf natürlich wenig Sinn, das ändert aber nichts daran, dass die Karte mindestens 2x schneller ist.
Daher ist es auch sehr schwer so etwas auf einen einzelnen Wert zu kondensieren.
Ich bin grundsätzlich gegen eine Vereinfachung einer komplexen Sache auf einen Wert, aber wenn man dem schon nicht widerstehen kann muss man wenigstens darauf achten dass die Quellwerte so gut wie möglich sind, und das sind sie eben nur wenn das zu betrachtende Objekt auch das performancelimitierende ist.
Ein mit heutigen spielen ermittelter Indexwert für eine 4080/4090 (und eigentlich auch schon mit einer 3080Ti) in 1080p wird in ein paar Jahren komplett daneben sein, man muss kein Hellseher sein um das vorherzusehen.
Darum ist es gerade bei so langlebigen Indexwerten wichtig diese nicht mit falschen Werten zu ermitteln.
Schließlich kann die Skalierung mit der Auflösung bei unterschiedlichen GPUs auch deutlich unterschiedlich sein.
Diese unterschiedliche Skalierung kommt hauptsächlich dadurch zustande, dass schnelle GPUs bei niedrigen Auflösungen eben nicht vollständig limitieren und damit nicht die Leistungsfähigkeit jener GPU wiedergeben.
Das war schon immer so, nur noch nie so krass wie mit Lovelace.
Bisher konnte man sich zumindest einigermaßen darauf verlassen, dass 4k einigermaßen vollständig GPU limitiert ist. Das ist zumindest bei einer 4090 schon überdeutlich nicht mehr der Fall.
Es ist natürlich prinzipiell nix verkehrt daran in 720p zu spielen, wenn das eben dem eigenen Profil entspricht, aber auf High-End Rechnern die Performance in 720p zu untersuchen um sich daran aufzugeilen, dass das eine System 345 fps schafft, das andere aber nur 338 fps ist schlicht und einfach nur sinnloses Benchmarkgewichse und hat in der realen Welt keinerlei Relevanz.
Wenn man einen 360Hz Monitor sein Eigen nennt hat das durchaus reale Relevanz. Und zumindest 240Hz Monitore sind gar nicht mehr wirklich selten.
Das stimmt natürlich. Aber ist das denn auch übertragbar? Wenn man also die Situation hat, dass:
1080p: GPU_A ≈ GPU_B
4k: GPU_A >> GPU_B
Gilt dann zwangsläufig, dass in 3-4 Jahren, mit gestiegenen Anforderungen auch gilt?
1080p: GPU_A >> GPU_B
Das Verhältnis wird sich nicht unbedingt 1:1 übertragen lassen, die generelle Tendenz schon.
Da muss ich entschieden dagegen halten. Die reale Performance ist das was du bekommst, wenn du dir die Karte in den PC baust und zockst.
Das ist die reale Performance in deiner speziellen Situation. Das ist nicht die reale Performance der Leistungsfähigkeit einer Karte. Für eine Objektive Beurteilung ist nur das letztere relevant.
Die persönliche Situation ist es dagegen die die für die persönliche Kaufentscheidung relevant ist.
Kein vernünftiger Mensch wird sich eine 4090 kaufen wenn er nur einen 1080p 60Hz Monitor zuhause hat, aber nicht weil die Karte nicht mehr als 20% schneller als die vorhandene ist, sondern weil man persönlich die reale Mehrperformance der Karte nicht nutzen kann.
Und wenn eine 4090 nun unter 1080p unter den Erwartungen performt, dann ist das nicht der Fehler des Tests, sondern der Fehler der Karte (oder Treiber o.ä.).
Weder noch, es it der "Fehler" der mangelhaften CPU-Performance, nur werden CPUs eben auch schneller und je nach persönlichem Upgradeplan mag es mehr oder weniger sinnvoll sein sich eine so schnelle Karte zu kaufen.
Aber hier sind wir wieder im persönlichen Umfeld, und nicht bei einer objektiven Beurteilung der Leistungsfähigkeit.
Es gibt auch FSR 2 und das ist leichter zu implementieren als DLSS.
Aktuell dreht DLSS immer noch Kreise (qualitativ) um FSR2 sobald es um upsampling-raten unter Quality geht. Ob FSR jemals qualitativ mithalten kann steht noch in den Sternen.
Und aktuell ist die Verbreitung auch noch immer deutlich höher, obwohl es FSR mittlerweile doch schon einige Zeit gibt.
Und zuguter letzt ist FSR2 nunmal nichts was gegen Nvidia spricht, es kann schließlich mit Nvidia genauuso verwendet werden.
Exxtreme
2022-12-01, 18:14:44
Aktuell dreht DLSS immer noch Kreise (qualitativ) um FSR2 sobald es um upsampling-raten unter Quality geht. Ob FSR jemals qualitativ mithalten kann steht noch in den Sternen.
Und aktuell ist die Verbreitung auch noch immer deutlich höher, obwohl es FSR mittlerweile doch schon einige Zeit gibt.
Und zuguter letzt ist FSR2 nunmal nichts was gegen Nvidia spricht, es kann schließlich mit Nvidia genauuso verwendet werden.
AFAIK ist das andersrum. Bei Quality sind beide Verfahren ziemlich äquivalent, unter Performance ist DLSS um einiges besser.
AFAIK ist das andersrum. Bei Quality sind beide Verfahren ziemlich äquivalent, unter Performance ist DLSS um einiges besser.
Genau das was ich geschrieben habe.
Berniyh
2022-12-02, 12:46:31
Die persönlichen Bedürfnisse haben in einer Objektiven Leistungsbeurteilung nichts zu suchen.
So war das auch nicht gemeint.
Auch ein Test einer CPU bei 1080p und darüber ist eine objektive Beurteilung.
Das persönliche Bedürfnis kommt dann dazu, wenn man die Relevanz der Beurteilung bewertet.
Wenn man einen 360Hz Monitor sein Eigen nennt hat das durchaus reale Relevanz. Und zumindest 240Hz Monitore sind gar nicht mehr wirklich selten.
Gut, worin jetzt der Sinn eines 240 Hz oder 360 Hz Monitors liegt, darüber könnte man jetzt sicher streiten.
Ja, bei <100 Hz kann man in bestimmten Situationen störende Effekte wahrnehmen, aber ab 120 Hz sollte das keine Rolle mehr spielen.
Ich könnte wetten, dass bei einem Blindvergleich (ok, schlechter Begriff in dem Zusammenhang, aber ich hoffe es ist trotzdem klar was gemeint ist) 99.99% der Menschen einen 120 Hz Monitor, der auch mit 120 fps (ohne Framedrops) beliefert wird nicht von einem 240 Hz oder 360 Hz Monitor unterscheiden können.
Ganz sicher aber nicht einen 360 Hz Monitor von einem 240 Hz Monitor.
Weder noch, es it der "Fehler" der mangelhaften CPU-Performance, nur werden CPUs eben auch schneller und je nach persönlichem Upgradeplan mag es mehr oder weniger sinnvoll sein sich eine so schnelle Karte zu kaufen.
Das ist mir zu billig. Wenn AMD bei vergleichbarer 4k Performance eine bessere 1080p Performance erzielt, dann deutet das schon darauf hin, dass der Fehler bei Nvidia liegt und nicht bei der CPU.
Lehdro
2022-12-02, 13:53:57
Ich könnte wetten, dass bei einem Blindvergleich (ok, schlechter Begriff in dem Zusammenhang, aber ich hoffe es ist trotzdem klar was gemeint ist) 99.99% der Menschen einen 120 Hz Monitor, der auch mit 120 fps (ohne Framedrops) beliefert wird nicht von einem 240 Hz oder 360 Hz Monitor unterscheiden können..
Blöd nur dass die Zielgruppe für diese Systeme den Großteil deiner 00,01% umfasst: Von denen können es wesentlich mehr und ebenfalls sind sie die einzig relevante Zielgruppe für einen solchen Vergleich. Die wenigsten Menschen haben überhaupt die Möglichkeit zu solch einem Vergleich, weil ihnen einfach das Erlebnis dieser Möglichkeiten verwehrt ist. Bei "Gamern" hingegen ist das halt einfach deutlich leichter und auch verbreiteter. Und für wen Benchmarked man, wenn nicht für genau diese Zielgruppe?
Du testest doch auch keine Hypercars und sagst dann alles über 200 km/h ist irrelevant, nutzt eh keiner im Alltag. :freak:
Berniyh
2022-12-02, 16:38:47
Blöd nur dass die Zielgruppe für diese Systeme den Großteil deiner 00,01% umfasst: Von denen können es wesentlich mehr und ebenfalls sind sie die einzig relevante Zielgruppe für einen solchen Vergleich. Die wenigsten Menschen haben überhaupt die Möglichkeit zu solch einem Vergleich, weil ihnen einfach das Erlebnis dieser Möglichkeiten verwehrt ist. Bei "Gamern" hingegen ist das halt einfach deutlich leichter und auch verbreiteter.
Ich wäre erstaunt, wenn sich nur ein einziger Mensch findet, der zwischen 240 und 360 Hz unterscheiden kann.
Aber es gibt ja auch Menschen die behaupten Unterschiede bei Lautsprechern zu hören die bis 40 kHz statt 30 kHz gehen. Sure …
Deshalb: Blindvergleich machen. Ohne halte ich es für Geplapper.
Und für wen Benchmarked man, wenn nicht für genau diese Zielgruppe?
Sicher kann man jeden Benchmark machen, die Relevanz bleibt aber dann – je nach Benchmark – fraglich.
Du testest doch auch keine Hypercars und sagst dann alles über 200 km/h ist irrelevant, nutzt eh keiner im Alltag. :freak:
Hypercars werden auch nicht dafür gebaut 200 km/h zu fahren, sondern nur für den Showroom. Generell kann man die Sinnhaftigkeit dieser Autos auch generell sehr stark hinterfragen, denn als Autos werden sie eben nicht verwendet.
Ok, hier und da mag es mal einen geben, der so ein Auto auch mal fährt, aber die meisten stehen doch nur in der Garage rum.
Um aber auf den Vergleich dennoch einzugehen: bei einem Hypercar würde ich nie behaupten, dass man – wenn man es denn fährt – die Möglichkeiten, Beschleunigung etc. nicht erfahren könnte.
Bei Bildwiederholfrequenzen weit über 100 Hz gibt es aber halt auch physische Gründe, warum das nix werden wird, selbst für jüngere Menschen, die hohe Wiederholfrequenzen ggf. noch etwas besser auflösen können.
Der einzige Grund, den ich für sehr hohe Frequenzen bei Monitoren sehe ist, dass man auch ohne Techniken wie Freesync ein quasi tearing-freies Bild ohne Output-Lag bekommen kann.
Dafür ist es aber die Rate in der das Bild von der GPU gerendet wird eher unwichtig. Und mit Techniken wie Freesync lässt sich das ja auch bei niedrigeren Bildwiederholfrequenzen erreichen.
So war das auch nicht gemeint.
Auch ein Test einer CPU bei 1080p und darüber ist eine objektive Beurteilung.
Es ist eine Objektive Beurteilung der Spielbarkeit ein bestimmtes Spieles unter vorgegebenen Settings.
Es ist keine objektive Beurteilung der Leistungsfähigkeit einer GPU die in diesen Settings nicht am Limit ist.
Um jetzt mal wieder eine blöde Auto-Analogie aufzugreifen, dass ist das selbe als wenn du einen Test von einem VW Golf und einen Bugatti Veyron testest, mit beiden nur mit 50 durchs Ortsgebiet fahrst und dann zum Ergebnis kommst, Golf und Veyron sind gleich schnell.
Gut, worin jetzt der Sinn eines 240 Hz oder 360 Hz Monitors liegt, darüber könnte man jetzt sicher streiten.
Blurrbusters haben mit Prototypen gezeigt, dass man selbst größer 500Hz/FPS noch eine bessere Bewegtbildschärfe wahrnehmen kann.
Ob diese Unterschiede den enormen technischen und auch finanziellen Aufwand wert sind muss natürlich jeder selbst für sich entscheiden.
Aber die Aussage sieht eh keiner stimmt schlicht nicht, und ist auf dem selben Niveau wie 24fps ist eh genug weil das Kino hat auch nicht mehr.
Letzteres stört mich persönlich übrigens enorm, seit ich das erste Mal vor einem 144Hz Monitor , sehe ich in jedem Kinofilm nur noch ruckeln, und seit dem Versuch mit Hobbit wenigstens auf 48fps zu gehen hat sich überhaupt nichts mehr getan.
Es ist sogar richtig tragisch, wie bessere Bewegtbildschärfe oft genug als "soap opera effect" negativ bewertet wird.
Ja, bei <100 Hz kann man in bestimmten Situationen störende Effekte wahrnehmen, aber ab 120 Hz sollte das keine Rolle mehr spielen.
Ich persönlich würde dir ja insofern Zustimmen, dass bei schnellem Content für mich alles unter 100FPS einfach zu wenig ist, und ich ab 120 zufrieden bin und nicht mehr bereit bin großartig in noch mehr Hz/FPS zu investieren.
Das heißt aber nicht, dass ich noch mehr Hz/FPS nicht danken annehmen würde, wenn sich der Aufwand in Grenzen hält.
Und ja ich kann das auch deutlich wahrnehmen, das wichtigste, der Output-Lag verbessert sich zwar nicht mehr deutlich wahrnehmbar die Bewegtbildschärfe nimmt immer noch deutlich zu, und hier sind wir offensichtlich noch weit entfernt von einem Wahrnehmungslimit.
Wobei Hz/FPS auch nicht alles sind, 120Hz auf einem OLED sind besser als 240Hz auf einem LCD, und wenns noch höher gehen soll ist OLED eigentlich Pflicht.
Berniyh
2022-12-04, 15:47:15
Es ist eine Objektive Beurteilung der Spielbarkeit ein bestimmtes Spieles unter vorgegebenen Settings.
Es ist keine objektive Beurteilung der Leistungsfähigkeit einer GPU die in diesen Settings nicht am Limit ist.
Um jetzt mal wieder eine blöde Auto-Analogie aufzugreifen, dass ist das selbe als wenn du einen Test von einem VW Golf und einen Bugatti Veyron testest, mit beiden nur mit 50 durchs Ortsgebiet fahrst und dann zum Ergebnis kommst, Golf und Veyron sind gleich schnell.
Damit hast du sicherlich recht, aber da würde ich auch nicht widersprechen.
Es ist ja völlig ok, den Gold und Veyron noch auf eine Rennstrecke zu testen (oder was man sich halt sonst noch an Tests überlegen könnte).
Der Fehler liegt dann darin, dass man – und darauf habe ich ja reagiert – sagt, dass nur der Test auf der Rennstrecke richtig ist, weil nur da der Veyron seine Geschwindigkeit ausspielen kann und das stimmt so halt nicht.
Daher habe ich auch überhaupt kein Problem damit, dass man CPU Tests (auch) bei 720p macht und auch versucht eine GPU möglichst ans Limit zu bringen.
Ein Problem habe ich nur dann, wenn man die Behauptung aufstellt, dass das die einzig wahren Tests wären.
Aber die Aussage sieht eh keiner stimmt schlicht nicht, und ist auf dem selben Niveau wie 24fps ist eh genug weil das Kino hat auch nicht mehr.
Letzteres stört mich persönlich übrigens enorm, seit ich das erste Mal vor einem 144Hz Monitor , sehe ich in jedem Kinofilm nur noch ruckeln, und seit dem Versuch mit Hobbit wenigstens auf 48fps zu gehen hat sich überhaupt nichts mehr getan.
Du kannst das Kino, bzw. allgemeiner Filme, nicht mit Computerspielen vergleichen, da hier verschiedene Techniken zum Einsatz kommen.
Bei Filmen spielt der Belichtungswinkel eine wesentliche Rolle. Typischerweise wird da – gerade bei geringen Bildwiederholraten – 180° Belichtungswinkel verwendet, d.h. ein Frame wird über die Hälfte der Framedauer belichtet. Dadurch entsteht schon eine gewisse Bewegungsunschärfe und diese sorgt dafür, dass man es auch als "echte" Bewegung wahrnimmt, bzw. die Bewegungen nicht abgehakt wirken.
Computerspiele aber rendern – im Normalfall – exakte Einzelbilder und entsprechend braucht man dann auch eine höhere Wiederholrate, damit es flüssig wirkt.
Dennoch, die Grenze dessen was ein Mensch wahrnehmen kann liegt irgendwo bei knapp unter 100 Hz.
Evtl. gibt es dann wieder den einen oder anderen Menschen, der über dem Durchschnitt liegt und der auch 100 Hz auflösen kann. Dann packt man halt noch etwas Sicherheitsreserve drauf, landet bei ca. 120-150 Hz und dann sollte es wirklich für alle "ok" sein.
Was es nun mit dem Test von Blurr Busters auf sich hat kann ich so nicht sagen.
Evtl. handelt es sich ja auch um Eigenheiten der Monitore, dass die Pixel nicht schnell genug schalten o.ä.
evtl. verändert sich ja auch die Ansteuerung der Pixel mit der Bildwiederholrate.
(Tradeoff Genauigkeit/Qualität vs. Geschwindigkeit o.ä.)
Daher habe ich auch überhaupt kein Problem damit, dass man CPU Tests (auch) bei 720p macht und auch versucht eine GPU möglichst ans Limit zu bringen.
Ein Problem habe ich nur dann, wenn man die Behauptung aufstellt, dass das die einzig wahren Tests wären.
Es sind nicht die einzig wahren Tests überhaupt, natürlich ist es auch interessant zu wissen, wie gewisse Spiele in realistischen Settings performen, und es ist auch interessant zu wissen welche Vorteile man in den selbst genutzten Settings durch unterschiedliche Hardware erreichen kann.
Es sind allerdings die einzig wahren Tests zur Beurteilung der CPU-Performance.
Bei Filmen spielt der Belichtungswinkel eine wesentliche Rolle. Typischerweise wird da – gerade bei geringen Bildwiederholraten – 180° Belichtungswinkel verwendet, d.h. ein Frame wird über die Hälfte der Framedauer belichtet.
Was zu wenig ist, korrekterweise müsste die Belichtungszeit der Kehrwert der FPS sein für eine flüssige Darstellung. Blöderweise würde das mit 24FPS aber ein einziges Blurfest, schon bei geringen Bewegungen.
Die üblicherweise verwendete Belichtungszeit von 1/(FPS*2) ist einfach der best practice Kompromiss für akzeptable Bewegtbildschärfe gepaart mit akzeptabler Flüssigkeit.
Wobei bei 24FPS meiner Meinung beides nicht gegeben ist, die Bewegtbildschärfe ist einfach grausam und wirklich flüssig ist es auch nicht.
Es ist eben der beste Kompromiss bei dieser limitierten Bildrate.
Computerspiele aber rendern – im Normalfall – exakte Einzelbilder und entsprechend braucht man dann auch eine höhere Wiederholrate, damit es flüssig wirkt.
Spiele Rendern perfekte Einzelbilder mit theoretisch unendlich kurzer Belichtungszeit (wenn auch manchmal mit künstlichem Motion Blur). Der Betrachter sieht die Bilder allerdings mit einer Belichtungszeit von 1/Hz, wodurch beim Betrachten blur entsteht. Dazu kommt noch der Blur durch die ungenügenden LCD Schaltzeiten.
Dennoch, die Grenze dessen was ein Mensch wahrnehmen kann liegt irgendwo bei knapp unter 100 Hz.
Diese Zahl ist nicht weniger willkürlich als die 24 Kino-FPS.
Es gibt keine festen FPS die Menschen wahrnehmen können und darüber nicht mehr, Menschen sehen keine fixen FPS sondern kontinuierlich.
Wieviel "FPS" man wahrnehmen kann hängt von verschiedensten Faktoren ab, unter anderem davon wieviel Bewegung.
Fakt ist dass Menschen Lichtblitze von 1/1000s wahrnehmen können, die max sinnvollen FPS liegen in jedem Fall deutlich über 100.
Das Problem bei >100FPS ist nicht mehr dass das Bild nicht flüssig wäre. Es ist die fehlende Bildschärfe
Evtl. gibt es dann wieder den einen oder anderen Menschen, der über dem Durchschnitt liegt und der auch 100 Hz auflösen kann. Dann packt man halt noch etwas Sicherheitsreserve drauf, landet bei ca. 120-150 Hz und dann sollte es wirklich für alle "ok" sein.
Wie gesagt, Menschen sehen keine festen Frames, und für einen flüssigen und scharfen Eindruck reichen 100FPS bei weitem nicht.
Man kann theoretisch mit Strobing ein scharfes Bild erzeugen. Strobing macht im Prinzip nichts anderes als die fiktive Belichtungszeit auf der Netzhaut zu verringern und damit die Bildschärfe zu erhöhen. Je kürzer die "On" Zeit für jedes Frame ist, desto schärfer wird es, umgekehrt dafür aber auch wieder ruckliger, und das Flimmern wird stärker wahrnehmbar. Das ist also weiterhin nur ein Kompromiss weil wir keine 1000Hz Monitore und Hardware die 1000FPS erzeugen kann haben.
Ohne Strobing entspricht die fiktive Belichtungszeit auf der Netzheut 1/Hz, und das ist mit 100Hz immer noch viel zu wenig.
Das kannst du auch ganz einfach ausprobieren, indem du eine Kamera auf 1/100s Belichtungszeit stellst und einfach mal was in Bewegung fotografierst. Das schnellste Objekt was du damit noch scharf Fotografieren kannst ist auch die max Objektgeschwindigkeit die mit 100FPS/Hz scharf abbildbar ist.
Und wenn du das ausprobierst wirst du schon bei eher gemächlichen Bewegungen merken dass diese nicht mehr scharf werden.
Was es nun mit dem Test von Blurr Busters auf sich hat kann ich so nicht sagen.
Evtl. handelt es sich ja auch um Eigenheiten der Monitore, dass die Pixel nicht schnell genug schalten o.ä.
Das erzeugt mehr Blur, dafür aber einen flüssigeren Bildeindruck.
Aber klar, einfach die Hz zu erhöhen nützt nichts wenn der Monitor nicht schnell genug schalten kann.
Und dabei nützt es auch nichts wenn der Monitor eine Schaltzeit von 1/Hz s erreicht. In dem Fall ist jedes Pixel ständig am Umschalten und zeigt niemals den korrekten Farbwert an.
Um zumindest 50% der Zeit den korrekten Farbwert anzuzeigen muss die Schaltzeit kleiner 1/2*Hz s sein.
Was es nun mit dem Test von Blurr Busters auf sich hat kann ich so nicht sagen.
https://blurbusters.com/blur-busters-law-amazing-journey-to-future-1000hz-displays-with-blurfree-sample-and-hold/
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.