Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 12. Juni 2024
Leonidas
2024-06-13, 11:11:17
Link zur News:
https://www.3dcenter.org/news/news-des-12-juni-2024-0
Gast Ritis
2024-06-13, 12:11:12
Der CB Artikel und Test ist völlig daneben. Als ob sich irgendetwas von vor 3 Jahren heute anders herauskristallisieren würde was nicht damals schon klar getestet werden konnte.
Dann heute irgendwas mit sub 30FPS rummessen zu wollen braucht doch niemand.
Bei Fine Wine ging es auch nie um den Wert völlig veralteter Karten sondern um die 3-4 Jahre danach in der GPUs noch üblicherweise genutzt werden.
Eine Vega64 ist heute im Einsteigersegment schon in der Leistung überholt. Der Preisunterschied zur Ti war gigantisch. Auch wenn Radeon VII zu spät kam war die gegen die 1080Ti positioniert. Nur dass der nich der RAM heute zu früh ausgeht. Die 16GB waren damals das Argument überhaupt wo genügend Reviews nur darauf aus waren dass man das nicht bräuchte….
Wenn man schon die 2 uralt GPUs im Gaming austesten will dann doch bitte auch mit 1080 und R-VII dabei und dann unter Settings und mit Skalierung FSR wie das heute bei Upgradeverweigeren noch genutzt werden würde und wahrscheinlich auch wird.
Ich nutze die Vega56 noch heute - Ende 2018 für 249€ im Angebot gekauft. Die reicht (mir) für FullHD völlig. Starkes UV mit gleichzeitigem OC lassen das Ding etwa 20% über stock laufen bei etwa 150-200W - sehr viel Glück im Chiplotto.
Sie wird vmtl. dann irgendwann von einer 8800 XT abgelöst, so die einigermaßen perfomant ist, und geht dann in den verdienten Ruhestand.
Ich finde auch das Fazit aus dem Vega Test fragwürdig.
AMD war damals angeblich innovativer? Weil sie nur eine GPU Schiene hatten, mit der Compute und Gaming abgedeckt werden musste und man somit relativ viel Rechenleistung hatte (die man nicht in FPS umsetzen konnte)?
Das soll innovativ sein? Würde ich eher nicht sagen... Und HBM war da auch nicht mehr innovativ, weil das schon im Vorgänger verbaut war. Dem gegenüber war Vega (zumindest mit allem, was tatsächlich funktioniert hatte) ein Refresh mit Shrink. Taktnormiert war man ja kaum besser als Fiji. Wo genau war da die Innovation?
RDNA und vor allem RDNA2 mit seiner Cache-Lösung finde ich da viel innovativer und passender für das Marktsegment.
Der CB Artikel und Test ist völlig daneben.[QUOTE]
Sehe ich nicht so.
[QUOTE=Gast Ritis;13559986]Als ob sich irgendetwas von vor 3 Jahren heute anders herauskristallisieren würde was nicht damals schon klar getestet werden konnte.
Es hat sich aber etwas herauskristallisiert: Die Hypothese von AMDs Fein-Wein ist nicht haltbar.
Die Vega 64 wurde mit der 1080 Ti verglichen, beide Erscheinungsjahr 2017.
Die Vega 64 lag im Jahre 2017 31,1 % vor der 1080 TI, im Jahre 2024 nur noch 23,5 %.
Also das Gegenteil von einem angeblichen Fein-Wein.
Bei Fine Wine ging es auch nie um den Wert völlig veralteter Karten sondern um die 3-4 Jahre danach in der GPUs noch üblicherweise genutzt werden.
Sehe ich nicht so. Warum hat der Fein-Wein plötzlich ein Ablaufdatum?
Der Computerbase-Test hat auch Doom Eternal, Anno 1800 und Diablo II: Resurrected aus den Jahren 2019-2021, und die zeigen auch keine anderen Ergebnisse.
Und würde man in Richtung Linux schauen, würde das ganze noch skurriler werden, da man zum Spielen auf Linux in der Regel den RADV-Treiber nimmt, und der wird hauptsächlich von Valve-Kontraktoren (neben den Mesa-Leuten) geschrieben, nicht von AMD. Wie soll es da jemals zum Fein-Wein kommen?
Ich denke, damit kann man die Fein-Wein-Hypothese von AMD getrost ad acta legen.
Leonidas
2024-06-13, 13:30:28
Die Vega 64 wurde mit der 1080 Ti verglichen, beide Erscheinungsjahr 2017.
Die Vega 64 lag im Jahre 2017 31,1 % vor der 1080 TI, im Jahre 2024 nur noch 23,5 %.
Umgedreht. Die 1080Ti war früher um +31% vorn, heuer nur um +23%. AMD ist also näher herangekommen, FineWine bestätigt. Der Punkt der CB war, das AMD heuer keine solchen Designs mehr baut. Wer erwartet FineWine von RDNA - mit diesen mageren RT-Fähigkeiten?
Sweepi
2024-06-13, 13:42:58
Mein Fazit (https://www.computerbase.de/forum/threads/gtx-1080-ti-vs-rx-vega-64-2024-wie-steht-es-um-fine-wine-im-duell-pascal-gegen-vega.2199077/page-12#post-29493849) aus dem Vergleich CB 2024 (https://www.computerbase.de/2024-06/high-end-gtx-1080-ti-spielen-vega/) mit den Werten von 2019 aus diesem Artikel ('https://www.computerbase.de/2019-07/geforce-rtx-2080-super-test/#abschnitt_benchmarks_in_2560__1440').
(habe Ratched & Clank rausgenommen wegen VRAM mangel)
||1080|Vega 64|1080 Ti |2080 Ti|Vorsprung 1080 Ti|Vorsprung 2080 Ti
1440p AVG|2019|97|100|125|168|25% (Baseline)|68% (Baseline)
|2024|??|100|118|188|-5.9%|+10.6%
1440p Perzentile|2019|96|100|119|155|19% (Baseline)|55% (Baseline)
|2024|??|100|114|185|-4.4%|+16.2%
||1080|Vega 64|1080 Ti |2080 Ti|Vorsprung 1080 Ti|Vorsprung Veränderung|Vorsprung 2080 Ti|Vorsprung Veränderung
1440p AVG|2019|97|100|125|168|25||68|
|2024|??|100|118|188|18|-28.0%|88|+29.4%
1440p Perzentile|2019|96|100|119|155|19||55|
|2024|??|100|114|185|14|-26.3%|85|+54.5%
Fazit:
Vega 64 kann den Rückstand gegenüber der 1080 Ti deutlich messbar, aber vermutlich wenig fühlbar verringern (um 4-6%[absolut] bzw 26-28% [relativ]). Nimmt man den einen Titel dieses Test (Ratched & Clank) dazu, wo die 11 GiB vs 8 GiB zum tragen kommt, ist die Verbesserung fast komplett zerronnen.
Die Attraktivität von Vega wird erst richtig spannend, wenn man die Preisentwicklung hinzu nimmt.
Ohne harte Fakten gesammelt zu haben, erinnert sich der Autor an Zeiten, wo Vega 56/ 64 deutlicher im Preis gefallen waren als die Nvidia Pendants. Umgekehrt gab es von Ethereummining beeinflusste Zeitabschnitte, in denen Vega Besitzer sich über hohe Gebrauchtpreise freuen konnten, ein Kauf sich aus Spielersicht jedoch nicht lohnte.
Der wahre "fine Wine" in diesem Test ist jedoch die 2080 Ti:
||1080 Ti |2080 Ti|2080 Ti auf 1080 Ti nomiert|Änderung|Vorsprung Turing|Vorsprung Veränderung
1440p AVG|2019|125|168|134%|34% (Baseline)|34.4%|
|2024|118|188|159%|+15.6%|59.3%|+72.4%
1440p Perzentile|2019|119|155|130%|30% (Baseline)|30.3%|
|2024|114|185|162%|+19.7%|62.3%|+105.9%
Bei gleichem VRAM kann die 2080 Ti ihren Vorsprung gegenüber Pascal um knapp 15/20%(absolut, relativ: 70/105%) ausbauen.
Gegenüber Vega kann Turing den (relativen) Vorsprung "nur" um 30% (avg) bzw. 55% (Perzentile) steigern.
Shink
2024-06-13, 14:08:22
Der Punkt der CB war, das AMD heuer keine solchen Designs mehr baut.
Schon, aber halt nicht für GPUs.
Ich denke nicht, dass Gamer heute zufriedener wären, wenn RDNA und CDNA nach Vega weiterhin ein gemeinsames Design hätten.
Ich weiß auch nicht, wie schlimm für AMD der geringe Marktanteil an PC-GPUs ist. Natürlich muss man für APUs und Konsolen am Ball bleiben aber ob man dafür unbedingt einen 4090-Killer braucht?
Platos
2024-06-13, 14:17:49
Umgedreht. Die 1080Ti war früher um +31% vorn, heuer nur um +23%. AMD ist also näher herangekommen, FineWine bestätigt. Der Punkt der CB war, das AMD heuer keine solchen Designs mehr baut. Wer erwartet FineWine von RDNA - mit diesen mageren RT-Fähigkeiten?
Naja, oder anders betrachted: Bei AMD bekommt man anfangs unfertige Produkte, die dann beim Kunden erst richtig "ausreifen" sollen.
Was daran gut sein soll...
MiamiNice
2024-06-13, 14:19:28
Leo, 2017 hat angeklopft und will seine News zurück ...
Umgedreht. Die 1080Ti war früher um +31% vorn, heuer nur um +23%. AMD ist also näher herangekommen, FineWine bestätigt.
Da hast du Recht, habe die Tabelle tatsächlich falsch gelesen. Danke für die Korrektur.
Jedoch sehe ich die aktuelle Linux-Situation von AMD bzgl. RADV vs. AMDVLK weiterhin kritisch, als dass man den Eindruck hat, dass da schlicht und ergreifend zu wenige Entwickler dransitzen. AMD scheint sich hauptsächlich nur noch um die Kernelmodus-Komponenten/Firmware zu kümmern (ohne die gar nichts läuft), aber die Optimierung würde in den Benutzermodus-Komponenten von Mesa stattfinden. Da wird das Feld einfach RADV überlassen.
Überhaupt war es erstaunlich, dass RADV so schnell zu AMDVLK aufgeschlossen hat (und seit letztem Jahr in vielen Fälln vorbeigezogen ist). Mittlerweile bahnt sich das gleiche mit RADV+Zink vs. AMDGPU an.
Lehdro
2024-06-13, 14:25:47
. Wer erwartet FineWine von RDNA - mit diesen mageren RT-Fähigkeiten?
Ich. Bei allem was kein heavy RT hat, wird sich VRAM langfristig durchsetzen, es sei denn man spielt mit Klötzchentexturen. Siehe 3070/Ti vs RX6800 als extrem prominentes Beispiel durch den massiven VRAM Unterschied.
Überall da wo der Speicherausbau ausreichend ist (oder die Settings angepasst werden), spielt das natürlich keinerlei Rolle und es sieht eher anders herum aus. Aber FineWine bei AMD bedingt sich durch NVs Speichersparfetisch bei manchen Konstellationen halt automatisch. Ähnliches blüht auch bei dem "Duell" 4060 vs 3060, ist dann die 3060 FineWine, oder einfach nur die 4060 vergorener Essig? :rolleyes:
Naja, oder anders betrachted: Bei AMD bekommt man anfangs unfertige Produkte, die dann beim Kunden erst richtig "ausreifen" sollen.
Was daran gut sein soll...
Naja, wenn du zum Release das bezahlst was du just in dem Moment bekommst, kriegst du quasi mehr Leistung gratis dazu. Wenn du allerdings damals mehr bezahlt hast, weil du auf FineWine hoffst, ergibt das auch wieder keinen Sinn. Ist damals aber nicht so gewesen, Vega wurde eigentlich ziemlich schnell verramscht (Mining exkludiert).
Leonidas
2024-06-13, 14:41:31
Aber FineWine bei AMD bedingt sich durch NVs Speichersparfetisch bei manchen Konstellationen halt automatisch.
Stimmt genauso.
Grafikspachtel
2024-06-13, 15:17:14
Der CB-Test passt hinten und vorne nicht.
Der korrekte Gegenpart zu Vega64 ist die 1080:
https://www.computerbase.de/forum/attachments/thepriceisright-png.1493425/
Dino-Fossil
2024-06-13, 15:29:00
Vega war ne etwas seltsame Architektur, auch weil Dinge, die angelegt und groß angekündigt waren (wie die im Test angesprochenen primitive Shaders), nie richtig funktioniert haben. Warum auch immer.
Wobei - gab es mal Untersuchungen, inwieweit die späteren mobile-Iterationen von Vega evtl. nochmal angepasst wurden?
Duran05
2024-06-13, 15:39:56
Viel interessanter im Rückblick finde ich, das es mit HBM kommen konnte, so ein dickes Interface hatte und trotzdem nicht so übel teuer wurde wie heutzutage.
Woran das liegt?
Liebe Entwickler, her mit HBM2 und mindestens 16 GB Kapazität.
Es hat wieder Jahre gedauert bis die großen Vorteile zum tragen kommen, da läuft bereits die Garantie der Karten ab. ;)
Last doch endlich die vor Release überhypte ,nach Release entäuschende Vega in Ruhe sterben.
AMD hatte wahrlich bessere Würfe die nicht gnadenlos ineffizient beim zocken waren ( und bevor hier einer mit abbbberrrrrrr UV !!!! kommt eine 1080 kann man auch bei 0,8V @ 1800Mhz oder 0,95-1V @ 2000Mhz betreiben und die fressen dann zwischen 140-160W für die gesamte Karte ). Selbst Die Radeon IIV mit starkem Fertigungsvorteil in 7nm und doppelter Speicherbandbreite war nicht wirklich Konkurenzfähig.
Ich glaube nicht, dass irgendjemand auf absehbare Zeit irgendwas aus der Dunstsphäre "Advanced Packaging" an Consumer verkauft. Weder Nvidia noch AMD werden hingehen und auch nur eine Fertigungseinheit von den Data-Center-SKUs an der Stelle abziehen. Die wären doch bescheuert, wenn sie das machen würden. Problemlos eine Größenordnung Abgabepreisunterschied.
Nicht der eine Gast
2024-06-13, 16:44:38
Ich finde den Artikel auch misslungen.
Da hier so oft Fine Wine verwendet wird. Was ist das eigentlich. Wie lautet deren Definition und wie sollte diese laut Autorin sein?
G3cko
2024-06-13, 16:50:07
Viel interessanter im Rückblick finde ich, das es mit HBM kommen konnte, so ein dickes Interface hatte und trotzdem nicht so übel teuer wurde wie heutzutage.
Woran das liegt?
Ich denke HBM hatte man damals schon fest geplant aber die Gesamt-Leistung und somit der Verkaufspreis blieb hinter den Erwartungen.
Was ich an AMDs HBM Projekten nie verstanden habe war die zaghafte Implementierung. Klar die Kosten waren höher aber man war von der speicherbestückung so sparsam, dass man sich von der Bandbreite nie groß von GDDRx abgesetzt hat. Für Nvidia hat man damit schön Vorarbeit geleistet ohne selbst groß zu profitieren.
GCN insbesondere 7970/290x sind deshalb so gut gealtert, da die Konsolen zeitgleich mit dieser Architektur auf den Markt kamen und Spieleentwickler und Treiber einiges rausholten. Zudem hatten die Grafikkarten gegenüber der Nvidia Konkurrenz ordentlich VRAM hatten. Vega hingegen war zu Release die letzte GCN Karte und die Architektur somit tot. Auch VRAM hatte sie nicht mehr.
Sie ist zwar etwas besser gealtert als die GTX1080 aber eben nicht spürbar. So wie es bei 290 vs 780 der Fall war.
Habe im übrigen noch eine Vega64 im Einsatz und sehe mich nicht als Aufrüstverweigerer auch wenn die Karte beim nächsten größeren Architektursprung von AMD ersetzt wird. Dank Konsolen kann man mit ein paar Reglern praktisch alles flüssig spielen.
Gast Ritis
2024-06-13, 18:59:33
Bei Fine Wine ging es darum dass AMD die Treiber erst Monate nach Release in der Breite auf Wave32 getunte Spiele optimieren konnte.
Also hat man die wegen ersten Reviews zu billigen GCN Karten im Hinblick darauf kaufen können.
Mit RDNA ist das bereits Geschichte und GCN ist heute im Legacy Support von AMD.
Pascal doch auch wenn nicht sogar absichtlich vernachlässigt.
Die Story ist 3 Jahre zu spät.
Wer RDNA keine Innovation zubilligt hat die HW und APIs nicht verstanden.
Das lustige ist, dass es manche gibt die "fine wine" gut finden.
Fine wine heißt nichts anderes, als dass das Produkt zu früh veröffentlicht wurde bevor es eigentlich ready war.
Und dass tendenziell AMD öfter in Richtung "fine wine" tendiert ist nicht verwunderlich, wenn man sieht wie weit die Software oft zu release hinterherhinkt.
Gast Vivids
2024-06-14, 00:45:47
https://youtu.be/krLDpIA2vFE?si=rNBqEkFkgwR8d9d7
Exxtreme
2024-06-14, 08:21:44
Fine wine heißt nichts anderes, als dass das Produkt zu früh veröffentlicht wurde bevor es eigentlich ready war.
Nicht unbedingt. Fine wine bedeutet auch, dass ein Produkt Features enthält, die zum Zeitpunkt der Veröffentlichung kaum von Spielen genutzt werden, später aber doch. Mehr VRAM ist z.B. so ein Feature oder PCIe 4-Unterstützung oder mesh shader etc.
Shink
2024-06-14, 09:06:59
Man könnte das auch Anti-NV umdeuten als "Fine Wine bedeutet, den Softwaresupport nicht einzustellen". Das trifft aber zugegeben nur Linux. Ein Vergleich der Linux-Performance mit den selben Spielen wäre übrigens viel spannender. Würde mich nicht wundern, wenn Vega dort sogar inzwischen schneller als unter Windows ist.
Ansonsten: GCN wurde tatsächlich immer sehr "unoptimiert" released - es gibt einen Grund, warum die Karten mit Undervolting dann plötzlich viel besser waren.
Mit RDNA war damit Schluss - schon die erste RDNA Karte kam so "optimiert" heraus, wie man es eher von NVidia gewohnt war.
Gast Ritis
2024-06-14, 17:03:52
https://youtu.be/krLDpIA2vFE?si=rNBqEkFkgwR8d9d7
Mächtig übertaktet. Vega64 war zwar mit 1.7 GHz geplant, kam dann aber doch in der Breite afaik nur mit <1.5 GHz Gametakt.
Das Manko wurde erst mit Vega2 aka Radeon VII auf 7nm behoben. Die Vegas in iGPUs waren dann sogar noch viel besser/effizienter als erwartet. Nach dem Umstieg auf TSMC hat man die Architektur in den Griff bekommen.
Die eigene Fertigung bzw. Glofo war für AMD lange ein Klotz am Bein bei GPU und v.a. auch CPU.
Ich halte FSR 1-2-3 für wesentlich wichtigere Innovationen wie DLSS, XeSS. Einfach weil es mit vorhandener herkömmlicher HW nutzbar ist und nicht zum Neukauf zwingt. Die Innovation von GCN auf RDNA mit überwiegend Rückwärtskompatibilität ist auch nicht zu unterschätzen.
Für die Umwelt und den Globus sicherlich besser als Innovationen die zu neuer HW zwingen. Wir brauchen ohnehin erst mal bessere Software, die vorhandene HW noch besser nutzt. Ich kenne noch kein Game das Sampler Feedback Streaming wirklich konsequent nutzt. Microsoft als Gamestudio-Sammler gibt da peinliche Beispiele, sogar MS Flight Sim kam erst mal nur in DX11. Auch RT wurde nur selten bewusst reduziert eingeführt, bei korrekten Schatten oder GlobalIllumination... statt dessen alberne Spiegeleien....
Dabei hat Nvidia schon Jahre lang vorgemacht, das wichtigste ist die HW in Software glänzen zu lassen und die ganzen Künster dabei zu "unterstützen"
G3cko
2024-06-15, 14:09:09
Das lustige ist, dass es manche gibt die "fine wine" gut finden.
Fine wine heißt nichts anderes, als dass das Produkt zu früh veröffentlicht wurde bevor es eigentlich ready war.
Und dass tendenziell AMD öfter in Richtung "fine wine" tendiert ist nicht verwunderlich, wenn man sieht wie weit die Software oft zu release hinterherhinkt.
Fine wine ist immer gut für den Kunden. Denn den Preis den der Hersteller am Markt abrufen kann wird bei Release entschieden. Besonders mit Blick auf die Konkurrenz Produkte um Wettbewerbsfähig zu sein.
Wenn eine Grafikkarte bei Release massiv Leistung liegen lässt durch Software/Treiber
dann bekommt der Kunde letztendlich zu einem Preispunkt die Hardware für die diese nie so vorgesehen war. Nur der DAU und Fanboy kaufte eine GTX680 und keine 7970. Letztere hatte mehr Rechenleistung, ein breiteres SI dazu 50% mehr VRAM. Und das bei einer damals komplett neuen Architektur die in allen Konsolen steckte und auf denen alle Entwickler die nächsten Jahre Software optimierten. Jeder mit nur etwas Ahnung wusste welches Produkt langlebiger ist.
Fine wine wäre nur dann für den Verbraucher von Nachteil wenn der Preispunkt zur Release nicht passt.
Fine wine ist immer gut für den Kunden.
Bis auf wenige Ausnahmen, beispielsweise wenn GPU-Features zum Releasezeitpunkt kaum verwendet werden und später für einen Boost sorgen, ist fine wine nichts anderes als Jahrelange verlorene Leistung.
Lehdro
2024-06-17, 15:02:37
ist fine wine nichts anderes als Jahrelange verlorene Leistung.
Für AMD mag das stimmen, weil sie es nicht einpreisen können. Aber wenn AMD die Karte zum Release mit der damaligen Performance zum Release bepreist, ist Fine Wine ein Gewinn für den Käufer, weil er nur das bezahlt was er just in dem Moment bekommt.
Beispiel: (https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/19/)
GTX 680 = 100% Leistung und 100% Basispreis
HD7970 = 90% Leistung und 90% Basispreis
1,5 Jahre später: (https://www.computerbase.de/2013-10/amd-radeon-r7-260x-r9-270x-und-280x-test/6/#abschnitt_leistungsratings_spiele)
GTX 680/GTX 770 = 100% Leistung und 100% Basispreis
HD7970/R9 280X = 100% Leistung und 90% Basispreis
Anmerkung: GTX 770 und R9 280X legen beide ca. 5% auf die non Refreshes drauf.
Später wurde es dann richtig wild: (https://www.computerbase.de/2016-07/geforce-gtx-1060-test/#abschnitt_benchmarks_in_1920__1080_und_2560__1440)
GTX 680/GTX 770 = 100% Leistung und 100% Basispreis
HD7970/R9 280X = 115% Leistung und 90% Basispreis
Und das sind alles noch Beispiele wo der Speichermangel nicht wirklich reinhaut, also eher die Rohleistung mehr zum tragen kommt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.