PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 26. März 2024


Leonidas
2024-03-27, 09:32:28
Link zur News:
https://www.3dcenter.org/news/news-des-26-maerz-2024

Raff
2024-03-27, 10:33:05
Yep, die Tage von 8 GiByte VRAM sind gezählt - diese Kapazität gehört in die absolute Einsteigerklasse (https://www.pcgameshardware.de/Radeon-RX-6500-XT-8GB-Grafikkarte-280279/Tests/4GB-vs-8GB-GPU-VRAM-Review-Test-Benchmarks-1443103/). Passend dazu diverse spannende Duelle aus Horizon Forbidden West (RTX 2060 6GB vs. 12GB, A770 8GB vs. 16GB, RTX 4060 Ti 8GB vs. 16GB etc):

https://www.pcgameshardware.de/Horizon-Forbidden-West-Spiel-72799/Specials/Ersteindruck-Hands-On-Prozessor-Benchmarks-1443380/2/

-> PCIe-Lanes "mattern" auch.

MfG
Raff

Gast
2024-03-27, 12:27:28
Yep, die Tage von 8 GiByte VRAM sind gezählt - diese Kapazität gehört in die absolute Einsteigerklasse (https://www.pcgameshardware.de/Radeon-RX-6500-XT-8GB-Grafikkarte-280279/Tests/4GB-vs-8GB-GPU-VRAM-Review-Test-Benchmarks-1443103/). Passend dazu diverse spannende Duelle aus Horizon Forbidden West (RTX 2060 6GB vs. 12GB, A770 8GB vs. 16GB, RTX 4060 Ti 8GB vs. 16GB etc):

https://www.pcgameshardware.de/Horizon-Forbidden-West-Spiel-72799/Specials/Ersteindruck-Hands-On-Prozessor-Benchmarks-1443380/2/

-> PCIe-Lanes "mattern" auch.

MfG
Raff

Zitat TP:
Our VRAM testing shows that Forbidden West is quite reasonable with its memory requirements. 8 GB is enough even for 4K at highest settings, which is also confirmed by our RTX 4060 Ti 8 GB vs 16 GB results—there's no performance difference between both cards, even when maxed out.

Wenn ich PCGH und TP vergleiche, finde ich die TP Tests aussagekräftiger und nicht so "populistisch".

Gast
2024-03-27, 12:32:17
In dieser Differenz ist natürlich auch ein Anteil enthalten, welcher in den anderen Hardware-Spezifikationen der GeForce RTX 3070 Ti begründet liegt, so etwas mehr freigeschaltete Shader-Cluster sowie höherer Chiptakt.

Der Chiptakt der RTX 3070 Ti war von Nvidia höher angegeben, in realität aber nicht höher, siehe Test.

Zitat CB: "Der Vergleich mit den Taktraten der GeForce RTX 3070 Founders Edition endet in einer Überraschung: Die Ti taktet durchweg niedriger. Das fängt beim maximalen Takt von 2.025 MHz (vs. 1.920 MHz) an und zieht sich durch alle 17 Testspiele unter Last. Im Schnitt liegt die Frequenz der Non-Ti mit 1.920 MHz 42 MHz höher als bei der neuen Ti-Version – Nvidia wiederum stellt 45 MHz mehr für die Ti in Aussicht."

https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/2/#abschnitt_die_tatsaechlichen_durchschnittlichen_taktraten_unter_last

Eigentlich müsste die Grafikkarte dank niedriegerem Takt effizienter sein, ist sie aber nicht, wegen GDDR6X

Hjalmar
2024-03-27, 12:55:40
Zu: "Denn damit spart man sich den GDDR6X-Speicher mit aufwendigem PAM4-Signalverfahren, welches die Speicherinterfaces in den Grafikchips selber beachtbar mehr Strom verbrauchen läßt."

Kann man noch erwähnen, dass GDDR7 allerdings schon PAM3 verwendet - Der Unterschied im Energieverbrauch dürfte sich zumindest in diesem Punkt eher in Grenzen halten.
GDDR6 war noch NRZ.

Raff
2024-03-27, 13:23:02
Zitat TP:
Our VRAM testing shows that Forbidden West is quite reasonable with its memory requirements. 8 GB is enough even for 4K at highest settings, which is also confirmed by our RTX 4060 Ti 8 GB vs 16 GB results—there's no performance difference between both cards, even when maxed out.

Wenn ich PCGH und TP vergleiche, finde ich die TP Tests aussagekräftiger und nicht so "populistisch".

Du kannst das gerne glauben, es ist aber nachgewiesen falsch. Das wird dir jeder mit einer 8-GiByte-Grafikkarte bestätigen - etwa hier. (https://extreme.pcgameshardware.de/threads/horizon-forbidden-west-im-ersteindruck-braucht-es-einen-ryzen-7-5800x3d.647310/page-6#post-11574095) Diese Schönrederei von schlechter Hardware anhand von Schönwetterszenen geht mir langsam gehörig auf den Zeiger. ->

sBIvqovn3jg

MfG
Raff

MiamiNice
2024-03-27, 13:30:37
Ich bin immer wieder erstaunt wie ähnlich wir uns sehen :biggrin:

Leonidas
2024-03-27, 17:06:18
Kann man noch erwähnen, dass GDDR7 allerdings schon PAM3 verwendet.

Es wurde erwähnt, dass GDDR7 PAM3 nutzt. Wieviel dies konkret einspart, kann man derzeit nur raten. Gemäß des Grundsatzes, dass die größten Früchte niedriger hängen, könnte es aber sein, dass es kaum mehr als NRZ ist.

Hjalmar
2024-03-27, 18:15:22
Mea Culpa, habe es wohl offenbar übersehen.
Ja, das ist dann die Frage. Persönlich denke ich, dass es durchaus einen gewissen Energieeinspar-Effekt/Potential dort gibt, aber bezweifle, dass das bei sonst gleichen Rahmenbedingungen 30-40W ausmacht.

Vielleicht liege ich da aber auch falsch - immerhin kann es natürlich sein, dass die Komplexität zur Umsetzung weiterer Spannungslevel (d.h. Mehr Aufwand zur Behebung von Störungen auf der Signalstrecke) nicht linear, sondern exponentiell steigt. In dem Fall wäre dann natürlich PAM3 bzgl. Energieverbrauch usw. näher an NRZ als an PAM4.

Hjalmar
2024-03-27, 18:26:58
Was den Unterschied zwischen 3070TI und 3070 angeht bzw. den Energieverbrauch von GDDR6X (PAM4) vs GDDR6 (NRZ):
Das könnte schlichteweg an einer schlechten TDP Konfig liegen (dass Nvidia die Karte hat mehr ziehen lassen, damit sie mehr Spielraum hat, um sich von der 3070 abzusetzen - mit dem TradeOff der Effizienz).

Denn bezüglich des Speichers hat doch Raff einen schönen Test zur RTX 3060TI GDDR6X gemacht:
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Specials/RTX-3060-Ti-GDDR6X-Test-RTX-3060-Ti-vs-RTX-3070-vs-RX-6700-XT-1416123/2/
Der Unterschied lag für die 8GB bei 25W (196W vs 221W).
(Speicher der RTX 3060TI GDDR6X und 3070TI ist gleich schnell)

Gast
2024-03-27, 18:46:25
Es wurde erwähnt, dass GDDR7 PAM3 nutzt. Wieviel dies konkret einspart, kann man derzeit nur raten.


PAM4 kostet weniger Energie im PHY, dass ist ja gerade der Grund warum man es verwendet.

Leonidas
2024-03-27, 19:00:55
Kann ich mir kaum vorstellen. Komplexeres Verfahren + Praxis-Benchmarks sprechen eindeutig dagegen.

PAM4 benötigt weniger Realtakt für gleiche Bandbreite, das ist korrekt. Auf Speicherseite eine gute Rechnung. Aber nicht auf seiten des Interfaces im Grafikchip.

Gast
2024-03-27, 21:32:04
Du kannst das gerne glauben, es ist aber nachgewiesen falsch. Das wird dir jeder mit einer 8-GiByte-Grafikkarte bestätigen - etwa hier. (https://extreme.pcgameshardware.de/threads/horizon-forbidden-west-im-ersteindruck-braucht-es-einen-ryzen-7-5800x3d.647310/page-6#post-11574095) Diese Schönrederei von schlechter Hardware anhand von Schönwetterszenen geht mir langsam gehörig auf den Zeiger. ->

https://youtu.be/sBIvqovn3jg

MfG
Raff

Sorry, ihr verwechselt anspruchsvoll mit repräsentativ. Sich einzelne Szenen rauspicken, die extra anspruchsvoll sind, ist nicht repräsentativ.

Wenn ich mein Gehalt mit dem von Vorstandsvorsitzenden vergleiche, bin ich auch arm. Das ist aber eben nicht repräsentativ, sondern ich muss mich mit dem Durchschnitt bzw. Median vergleichen und da sieht die Sache, Gott sei Dank, ganz anders aus.

Bei Computerbase, TP und Tomshardware sind die FPS Zahlen durchweg höher und das Fazit auch nicht so kritisch.
Am Ende des Tages sind auch nicht die FPS entscheidend sondern das Spielgefühl. Normalerweise sollte man das Game einfach starten und schauen wie es Spass macht oder nicht. So fahre ich bis jetzt sehr gut beim Hardwarekauf.

Weiterhin ist auch die Frage: Müssen es immer die maximalen Details sein oder wie fühlt sich das Game an mit weniger Details oder FPS, inklusive Gefallen an der Optik?
Ansonsten kommt man mit 8GB weiter als viele denken.

Leonidas
2024-03-28, 04:50:36
Weiterhin ist auch die Frage: Müssen es immer die maximalen Details sein oder wie fühlt sich das Game an mit weniger Details oder FPS, inklusive Gefallen an der Optik?

Hier stimme ich zu. Es wird inzwischen zu selten getestet, wie man mit der zweitbesten BQ zurechtkommt. Allerdings gilt zur Ehrenrettung der HW-Tester: Relevant darf dies nur bei wirklich günstigen Grafikkarten sein, unter 200€. Teurer zu kaufen und dann nicht mal beste BQ unter FHD zu haben, geht gar nicht.

Gast
2024-03-28, 06:25:29
Yep, die Tage von 8 GiByte VRAM sind gezählt - diese Kapazität gehört in die absolute Einsteigerklasse (https://www.pcgameshardware.de/Radeon-RX-6500-XT-8GB-Grafikkarte-280279/Tests/4GB-vs-8GB-GPU-VRAM-Review-Test-Benchmarks-1443103/). Passend dazu diverse spannende Duelle aus Horizon Forbidden West (RTX 2060 6GB vs. 12GB, A770 8GB vs. 16GB, RTX 4060 Ti 8GB vs. 16GB etc):

https://www.pcgameshardware.de/Horizon-Forbidden-West-Spiel-72799/Specials/Ersteindruck-Hands-On-Prozessor-Benchmarks-1443380/2/

-> PCIe-Lanes "mattern" auch.

MfG
Raff

Andererseits scheinen 10 und 12gb noch völlig ausreichend zu sein, sogar bei 4k (3080 10gb und 4070 12gb)

Lehdro
2024-03-28, 15:44:11
Sorry, ihr verwechselt anspruchsvoll mit repräsentativ. Sich einzelne Szenen rauspicken, die extra anspruchsvoll sind, ist nicht repräsentativ.
Doch ist es. Wenn ich ein Spiel durchspiele und es an sich rund läuft, aber ab und an hakelt, stören genau die hakelnden Stellen am meisten, weil nur die auffällig sind. Dass sind die Stellen die dich aus der Immersion reißen - übrigens genauso wie fehlende oder niedrig aufgelöste Texturen. Das ist dass, was sich bei dir einbrennt als negatives Erlebnis. Durchaus repräsentativ für das gesamte Gameerlebnis, eben weil es negativ auffällt. Denn gute Performance sollte niemals "positiv" auffallen, sondern der angestrebte Zustand sein!

lilgefo~
2024-03-28, 17:37:11
Du kannst das gerne glauben, es ist aber nachgewiesen falsch. Das wird dir jeder mit einer 8-GiByte-Grafikkarte bestätigen - etwa hier. (https://extreme.pcgameshardware.de/threads/horizon-forbidden-west-im-ersteindruck-braucht-es-einen-ryzen-7-5800x3d.647310/page-6#post-11574095) Diese Schönrederei von schlechter Hardware anhand von Schönwetterszenen geht mir langsam gehörig auf den Zeiger. ->

https://youtu.be/sBIvqovn3jg

MfG
Raff

Amen dazu. Einen Worst- oder Badcase rauszusuchen ist Stufe 1 und für viele Tester schon zu viel. Dann noch zu prüfen, ob wegen Mangel an VRAM trotz der eingestellten Details die Texturqualität reudziert wird oder das Nachploppen immer eklatanter wird ist dann schon Stufe 2. Ob das ganze erst nach 30 od. 60min auftritt ist Stufe 2,5. Und wenn man dann noch Frametimecharts erstellen und lesen kann dann ist man schon bei lvl3.
Leute die nicht benchen können und der Meinung sind alles läuft überall immer super gibts schon genug und sind wohl die gleichen Leute die bei Kleinanzeigen einen 2,8 GHz Conroe mit einer 1050TI reinstellen und behaupten damit würde alles auf max. laufen. Ist auch eines der Forte von PCGH Benchmarks schon seit Langem, dass nicht einfach die erstbeste Szene gebencht wird, sondern was Stressiges. Ist ja nach wie vor nicht so verbreitet. Am Liebsten werden ja immer lange oder hohe Balken gezeigt.

Aber Raff, apropro Benchexpertise: die GN Videos zu Presentmon, GPU Busy & Click2Photon habt ihr bestimmt auch schon gesehen. Gibts da schon Pläne oder Ideen die überholten Mechaniken (inbs. avg fps) hinter sich zu lassen oder zumindest durch GPU Busy etc. zu ergänzen?

Achso, und thx fürs Benchmarks. Hab schon auf die PCGH Benches zu HFW gewartet. Kann mir vorstellen, dass es leicht stressig war. Hoffe gibt mit der Zeit noch ein paar mehr Benches mit mehr CPUs undso.

Lehdro
2024-03-28, 22:37:35
Gibts da schon Pläne oder Ideen die überholten Mechaniken (inbs. avg fps) hinter sich zu lassen oder zumindest durch GPU Busy etc. zu ergänzen?
Es wurde doch auch bei GN explizit darauf hingewiesen das avg FPS als Metrik weiterhin durchaus angemessen ist und man GPU Busy und die tiefergehenden Analysen nur dann braucht, wenn es eben nicht wie erwartet läuft und Auffälligkeiten zu sehen sind. Genau da setzt doch PCGH (zumindest im Heft) schon seit langem auf Frametimegraphen und tiefergehende Analysen (gerade bei CPU/Treiberlimits). Man muss verstehen dass diese neuen Metriken eher der Fehlersuche dienen, als der Information des Endverbrauchers. Ein CPU Limit, Treiberlimit oder gar Architekturlimit konnte man schon vorher nachweisen, nun geht es jetzt halt wesentlich einfacher (keine vergleichende Hardware mehr nötig, kann also jetzt jeder zu Hause selber) und grafisch deutlich besser darstellbar. Aber etwas vollkommen neues außerhalb der deutlich besseren Präsentation und Erreichbarkeit der Erkenntnis sehe ich dort auch nicht - zumindest nicht für den geneigten Reviewleser. Viele der Sachen die bei GN von Intel präsentiert wurden, sind auch explizit zur Behebung der Arc Schwächen entwickelt worden, eben weil da derzeit noch so viel klemmt. Wo genau es in der Treiberschicht klemmt kann dir doch als Enduser egal sein, weil du es eh nicht beeinflussen kannst, denn das kann nur AMD/Intel/NV.