PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 15. August 2023


Leonidas
2023-08-16, 09:11:23
Link zur News:
https://www.3dcenter.org/news/news-des-15-august-2023

Kleebl00d
2023-08-16, 09:22:44
Ohje, dass die prognostizierte 7800XT die 6800XT sowohl bei Preis als auch Performance ablöst liest sich wie ein schlechter Scherz. Ja, überall ist Kram teurer geworden, ja, die Zeiten mit selbstverständlich 30% und mehr Performance-Sprung zwischen zwei Generationen sind augenscheinlich vorbei.
Aber so macht der Bumms hier doch echt keinen Spaß mehr.

Exxtreme
2023-08-16, 09:25:21
Im Ratchet&Clanck-Teil des Artikels führt der Link, der eigentlich zur PCGH führen sollte, zur 3DCenter-Startseite. :)

Leonidas
2023-08-16, 09:29:30
Gefixt.

Gast
2023-08-16, 10:32:06
Die 4080 12GiB von AMD, vermutlich komplett unkommentiert durch die Gamer schaft, weil AMD das darf. Bei Nv hat man ein riesen Fass aufgemacht.

Wooh Leistung der 6800xt als 7800xt, nice.

Jetzt fehlt nur noch eine 4080ti mit 16 oder 20GIB Vram und RTG kann diese Gen zu machen.

Dank Chipletmurksdesign-blahblah. Die haben aus Vega nichts gelernt. Das eignet sich nun mal nicht für Consumer weils dem HPC Regal entstammt, ein Chip für alles ist eben nicht die Lösung. Dieser ganze Chipletunsinn bei Consumer-GPUs ist nichts weiter als ein riesen Bottleneck. Viel zu komplex. Und man hatte RDNA2 am Start, was bereinigt ja genug Leistung und Effizienz bot. Ich verstehe AMD schon lange nicht mehr. Wer trifft dort diese unsinnigen Designentscheidungen im Bereich GPUs?

Wir brauchen kein dediziertes RT, wir brauchen kein dediziertes AI. Ja sieht man ja nun was dabei rauskommt. Trend verpasst, keine Kohle mehr, streichen. Leute weiter melken...mit Hardware die eine ganze Gen gegenüber der Konkurrenz zurück hängt und nur auf Level der eigenen Vorgängern herauskommt, verbuggt und ineffizient.

Wer diesen Quatsch noch kauft ist selbst Schuld. Die 4070 und 4070ti drehen vermutlich Kreise um die 7800xt, mit DLSS3 sowieso. Und da man nun annimmt AMD veröffenlicht mit dem Launch der 7800 Serie auch FSR3, kann man davon locker ausgehen. Optische Matschleistung garantiert.

Poor RDNA3...7800xt, lol. Das hat der Name Radeon nicht verdient!

Leonidas
2023-08-16, 11:06:14
Die sich aus dem Gast-Rant ergebenden Fragen sind:

1) Hat AMD diese Performance tatsächlich so gewollt - oder stand konzeptionell nicht höheres im Sinn?

2) Wurde NV zu diesen Performance-Klassen und Preislagen durch schwache Technik gezwungen - oder hat man es eigenverantwortlich so entschieden, nicht mehr liefern zu wollen?

The_Invisible
2023-08-16, 12:40:43
Die 4080 12GiB von AMD, vermutlich komplett unkommentiert durch die Gamer schaft, weil AMD das darf. Bei Nv hat man ein riesen Fass aufgemacht.

Wooh Leistung der 6800xt als 7800xt, nice.


Verstehe auch nicht warum man da bei AMD ganz ruhig bleibt...

Von demher wäre ja sogar die damalige 4080 12GB würdiger für diesen Namen gewesen da man damit zumindest ein gutes Stück vor der 3080 liegt.

Legendenkiller
2023-08-16, 12:53:58
wer sagt den ndas die Leute das AMD durchgehen lassen.

Die Karten kommen zu spät, zu teuer, zu langsam. Sie werden selbst hier im Forum miserable Bewertungen bekommen. Und im Markt wie Blei in den Regalen liegen und nur über Preissenkungen überhaupt verkauft werden.

Die Ruhe ist eher dadurch zu erklären das die Leute sich bereits mit was anderen eingedeckt haben oder die Generation komplett beerdigt haben. Es interessiert halt kaum noch ein überhaupt.

Exxtreme
2023-08-16, 12:54:59
Jetzt fehlt nur noch eine 4080ti mit 16 oder 20GIB Vram und RTG kann diese Gen zu machen.


Sehr unwahrscheinlich, dass man eine RTX 4080 Ti mit 20GB bringt. Denn da bräuchte man einen neuen Chip.


Dank Chipletmurksdesign-blahblah.


Das liegt nicht am Chiplet-Design.


Wir brauchen kein dediziertes RT, wir brauchen kein dediziertes AI. Ja sieht man ja nun was dabei rauskommt. Trend verpasst, keine Kohle mehr, streichen. Leute weiter melken...mit Hardware die eine ganze Gen gegenüber der Konkurrenz zurück hängt und nur auf Level der eigenen Vorgängern herauskommt, verbuggt und ineffizient.


Das RT und AI ist schon dediziert. Aber nicht so stark wie bei Nvidia. AMD macht ziemlich exakt das Gleiche wie damals bei 3DNow. 3DNow hatte keine zusätzlichen Register sondern AMD hat die FPUs so erweitert, dass sie auch für SIMD zu gebrauchen waren. Und man konnte die normalen FPU-Register dafür benutzen. Das hatte den Vorteil, dass man kein Betriebssystem-Upgrade brauchte um das nutzen zu können. Der Nachteil war wiederum, dass man entweder FPU- oder 3DNow-Funktionalität nutzen konnte. Aber nicht beides gleichzeitig. Und da hatte Intels SSE Vorteile weil beides parallel funktionierte.

Das Gleiche macht AMD jetzt auch bei RT. Sie haben die TMUs so erweitert, dass man mit ihnen auch RT-Berechnungen durchführen kann. Deshalb ist die Hardware schon dediziert. Nur gehen entweder RT-Berechnungen oder Texturfilterung. Beides parallel funktioniert nicht. Und hier ist Nvidia im Vorteil weil sie das parallelisieren können.


Wer diesen Quatsch noch kauft ist selbst Schuld. Die 4070 und 4070ti drehen vermutlich Kreise um die 7800xt, mit DLSS3 sowieso. Und da man nun annimmt AMD veröffenlicht mit dem Launch der 7800 Serie auch FSR3, kann man davon locker ausgehen. Optische Matschleistung garantiert.

Poor RDNA3...7800xt, lol. Das hat der Name Radeon nicht verdient!

Mal schauen wie die Grafikkarten so werden.

Gast
2023-08-16, 14:16:02
Poor RDNA3...
complete overhyped gen - mehr kann man dazu eigentlich nicht sagen. imo ist rdna3 eine failed gen, was am eignen hype liegt den amd darum veranstaltete, oder deren marketing. die steigerungen liegen real bei 20%, was allein 17% dem höherem shadertakt geschuldet ist und das wars. der rest kommt nicht an inklusive vieler treiberprobleme.

Das Gleiche macht AMD jetzt auch bei RT.
nein. siehe late culling vs early subtree culling. was stimmt ist das man die rt cores als neu bewirbt, sie es aber garnicht sind sondern der gleiche mist wie bei rdna2. die wirken wie zusätzlich hinzugefügt wobei rdna3 vorteile bei der effizienz der bvh durchquerung und spezielle boxsortierungsalgorithmen hat (was aber amd intern ausgeführt werden muss, light rt sage ich da nur). das bounding ist in bestimmten fällen effizienter und die VGPRs wurden erweitert (1 zu 1,5)

ich habe rdna3 at acta gelegt. klappe zu - die nächste bitte. mir ist die 7800xt daher völlig egal. von der 7900 serie gefällt mir die nitro+ am besten (leider mit den gleichen makeln behaftet wie alle rdna3 karten). sapphire sollte sich endlich mal überlegen nv karten zu bauen.

chiplet ist nur für amd besser, bisher nicht für den anwender. weder bei den anschaffungskosten noch leistungtechnisch sind für diesen vorteile erkennbar. +5-20% im schnitt ist einfach keine neue gen, das ist ein sidegrade.

https://www.youtube.com/watch?v=3sZT7mEfekE

nvidia raucht das ding nun mal monolitisch in der pfeife und selbst amds alte rdna gen reicht stellenweise dafür. wenn nicht viel schneller eben effizienter oder kostengünstiger.

Gortha
2023-08-16, 14:33:43
Sehe ich absolut nicht so. Ihr dürft euch - einige von euch - nicht so sehr an Modellnamen aufhängen.

Ne 7900XTX gab es letzte Gen z.B. nicht.
Im Endeffekt sind die Nachfolger so zu Ordnen:
7900XTX = 6900XT/6950XT
7900XT = 6800XT
7800XT = 6800
7700XT = 6700XT

Dann sieht es, wenn die wahrscheinlich doch gute Leistung einer 7800XT&7700XT zu einem guten Preis - der NVIdia bei 4060ern und 4070er non-Ti unterbietet - kommt, sehr gut für diese beiden Modelle aus. Diese könnten NVIdia viele Kunden im Mitteleren Performance-Segment streitig machen.

PS: Und die Dödel die weiterhin 2019/2020er Preise für Grakas mit denen von heute vergleichen: Inflation im Dollar und Euro, gerade bei Ressourcenpreisen.

Linmoum
2023-08-16, 15:18:35
Nach der Logik: Wenn die 7900XT der 6800XT gleichzusetzen ist, gibt es hier also mal eben eine Preiserhöhung von $250 durch AMD. Die 6800XT startete nämlich nur für $649.

Und aus genau dem Grund vermarktet AMD das Ding auch als x9 und nicht x8. Nvidia ist es sowieso egal, die ziehen ihr Ding durch und haben eh keine Konkurrenz (die vermeintliche "Konkurrenz" will auch gar nicht konkurrieren und Druck machen bei den Preisen, sondern selbst mit abkassieren und freut sich, dass sie Nvidias Weg mitgehen kann).

Lehdro
2023-08-16, 15:46:33
Verstehe auch nicht warum man da bei AMD ganz ruhig bleibt...

Von demher wäre ja sogar die damalige 4080 12GB würdiger für diesen Namen gewesen da man damit zumindest ein gutes Stück vor der 3080 liegt.
Der Vergleich passt aber nicht, da man bei NV kritisiert hat dass hier zwei unterschiedliche Karten mit massiv unterschiedlichen Performancepunkten quasi denselben Namen tragen, aber nur der Speicherunterschied verdeutlicht wird. Ähnlich bei der 1060 3 GB und 6 GB, wo die reine Rechenleistung auch abwich, mal ganz ab vom Speicherausbau. Es wird mit "4080 12 GB" einfach suggeriert das es eine 4080 mit weniger Speicher ist, was aber absolut nicht stimmt. Das hatten wir damals aber zur Genüge durchgekaut - die Leistungsfähigkeit der "4080 12 GB" stand nicht im Vergleich zu ihrem Vorgänger in der Kritik, sondern im Vergleich zum Namensvetter!

Alternativ wäre deine Kritik berechtigt, wenn AMD die 7900 GRE einfach "7900XT 16 GB" genannt hätte. Haben sie aber nicht und damit ist es absolut nicht vergleichbar. Was nicht heißen soll dass die Karte, oder deren Namensgebung, nicht kritikwürdig wäre, aber bitte dann doch auf einer anderen argumentativen Grundlage.

Raff
2023-08-16, 15:50:51
Wer diesen Quatsch noch kauft ist selbst Schuld. Die 4070 und 4070ti drehen vermutlich Kreise um die 7800xt, mit DLSS3 sowieso. Und da man nun annimmt AMD veröffenlicht mit dem Launch der 7800 Serie auch FSR3, kann man davon locker ausgehen. Optische Matschleistung garantiert.

Poor RDNA3...7800xt, lol. Das hat der Name Radeon nicht verdient!

Die RTX 4070 wird beim Rasterizing ziemlich sicher von der 7800 XT geschlagen. Beim Raytracing und der Energie-Effizienz dreht der Wind, aber solange AMD es nicht beim Preis übertreibt, passt der Lack.

MfG
Raff

Gast
2023-08-16, 17:01:05
Die RTX 4070 wird beim Rasterizing ziemlich sicher von der 7800 XT geschlagen.
Ziemlich sicher? Also die RX6800XT schafft es nicht ziemlich sicher in WQHD. Die 7800XT müsste schon ziemlich sicher schneller als die 6800XT sein um ziemlich sicher die RTX4070 beim Rasterizing zu schlagen...

Aber wer weiß, vielleicht kommt die RX 7800XT doch mit schnellerem Speicher als die GRE. Vielleicht ist das ihr Trumpf, zusammen mit auch noch höherem Power-Limit. 275W statt 260W wie bei GRE. Vielleicht ist die GRE einfach zu sehr auf OEM-Bedürfnisse angepasst. Die Reduzierung der Speichergeschwindigkeit, bei schon reduziertem Speicherinterface im Vergleich zur 7900XT würde bei einer Retailkarte nicht viel Sinn ergeben. Für OEM-Geschäft, wo es um jeden Cent geht, dann eher schon...

Linmoum
2023-08-16, 17:21:26
Wobei der Unterscheid beim Raster vermutlich auch nur irgendwo im einstelligen Prozentbereich liegen wird. Soviel Platz ist da auch nicht mehr, wenn die GRE schon nur auf bzw. knapp unter der 6950XT liegt. Man wird die 7800XT bestimmt prügeln und auf Effizienz nichts geben, aber dass man damit die GRE einholt, ist dann doch unwahrscheinlich. Außer AMD hat die grandiose Idee, "prügeln" beim Vebrauch wortwörtlich zu nehmen und sie über die 260W der GRE zu buchsieren. Aber das traue ich selbst denen nicht zu. ;D

Bei RT dürfte das dann aber ziemlich sicher schon Richtung >30% gehen, die die 4070 vorne liegt. 16GiB vs. 12GiB sind ein Vorteil, aber kein solcher wie noch vor bald drei Jahren ggü. der 3080. Eigentlich müsste man die 7800XT für $499 auf den Markt werfen, aber das ist vermutlich utopisch. Ich tippe auf irgendwas zwischen $549 und $599, nüchtern betrachtet wäre das allerdings (zu) viel. Da sieht man einzig gegen eine 4060Ti 16GiB gut aus, aber das kann ja nicht nur das Ziel sein.

The_Invisible
2023-08-16, 17:24:32
Sehr unwahrscheinlich, dass man eine RTX 4080 Ti mit 20GB bringt. Denn da bräuchte man einen neuen Chip.


Einfach AD102 weiter abspecken.

Braucht man aber gar nicht da der Workload immer mehr Richtung RT geht und somit die 4080 öfter vor der 7900XTX liegen wird. Da steckt man die Chips lieber in RTX5000 Ada Profikarten die mehr abwerfen...

Gast
2023-08-16, 19:31:51
Die RTX 4070 wird beim Rasterizing ziemlich sicher von der 7800 XT geschlagen.
Mögest Du Recht behalten. Ähm...naja. Bitte nicht zu sehr enttäuscht sein. N32 ist echt eine Gurke. Wieder nur mehr VRAM. Scheint AMDs Verkaufargument die nächsten Jahre zu sein. Braucht irgendwer die 16GB seiner 6800xt, außer beim Kirschen pflücken? Keiner?

AMD hat sich nicht umsonst so viel Zeit gelassen. Interessiert doch eh keinen mehr was die noch bringen. Die Aktionäre wird's freuen. Dem Rest ist es wohl egal. ;)

Gast
2023-08-16, 19:35:58
Die 4080ti wird kommen...AD102 20gb, 320bit, 400w.

BlacKi
2023-08-16, 20:51:49
Wooh Leistung der 6800xt als 7800xt, nice. die vermeidung des vergleichs könnte teil des nda sein, zum glück gibts HWUB. und vermutlich wirds deshalb diesbezüglich auch keines geben.

GerryB
2023-08-16, 21:56:27
Braucht irgendwer die 16GB seiner 6800xt, außer beim Kirschen pflücken? Keiner?

Die 6800xt wurde als 3080 Alternative gebracht, ... 16GB werden mit Sicherheit länger reichen

Nach m.E. wird AMD net so viel 7000er verkaufen, weil die 6000er noch reichen, um mal ne Gen auszulassen.
(das die grünen Fanboys öfter die Schlüpper wechseln, Wers braucht!?
... würde mich net wundern wenn die 3080 mit neueren Games genauso durchgereicht wird wie die 3070
... ähnliche Effekte werden sicher bei den 12GB-4000ern auch mit der Zeit eher auftreten als bei 16-20GB-7000ern)

Ob ne 4080-16GB-256bit bei den Frametimes mit der Zeit eher altert, who knows, ist auch ziemlich knapp bemessen vom
gierigen Küchenchef.(da klingt 24GB-384bit schon haltbarer, auch wenns jetzt am Anfang ein paar W mehr kostet)

Raff
2023-08-16, 23:02:53
die vermeidung des vergleichs könnte teil des nda sein, zum glück gibts HWUB. und vermutlich wirds deshalb diesbezüglich auch keines geben.

Was hat HWUB damit zu tun? An NDAs hält sich jeder seriöse Tester. Weil es fair ist. Und zu Navi 32 gibt es kein NDA. Noch. ;)

MfG
Raff

Gast
2023-08-17, 00:23:52
Powercolor hat doch schon alles geleakt, NDA's braucht es da nicht mehr. Die Daten stammten von einer Red Devil und damit Custom OC Karte. 60CUs, 18gbps VRAM bei 256bit, Gameclock 2,2 - Game Boost 2,5 GHz. 4K liegt sie schätzungsweise bei 320% und das nur in ausgesuchten AMD Benchmark bei Raster, damit 10% unterhalb der 6800xt Marke in 4K (und das ganze beruhte auf der Red Devil OC Variante nicht AMD MBA). Das "Ding" liegt zwischen 6800xt und 6800 und diesen Namen - 7800xt hat sie nie verdient. Wahrscheinlich wird FRS3 dann RDNA3 exklusiv und nur so kann sie etwas reißen gegen die 6800xt.

Ich mein die 7900grc liegt zwischen 6900xt und 6950xt, dann soll die 7800xt mit 20 CUs weniger, die 6800xt schlagen wo Customs und OC Varianten fast genauso schnell wie eine 6900xt sind?

Quatsch!, die Karte wird ein kompletter Flopp und prügelt sich vermutlich in RT unter DLSS/FSR mit der 4060ti umher. Die 4070 schlägt unter RT auch eine 6900xt in bestimmten Spielen und im Raster ist sie über mehrere Spiele gesehen = 3 % schneller als eine 6800xt. RDNA3 ist nichts weiter als eine komplette Enttäuschung. AMD kann für diese Karte nicht mehr als 500 Euro verlangen. Die 16GiB an dieser Karte sind völliger Mumpitz und jubeln einfach nur den Verbrauch hoch. Das ist nicht mehr als eine 7700xt da hätten 12GiB vollkommen gereicht.

The_Invisible
2023-08-17, 08:43:02
Die 6800xt wurde als 3080 Alternative gebracht, ... 16GB werden mit Sicherheit länger reichen

Nach m.E. wird AMD net so viel 7000er verkaufen, weil die 6000er noch reichen, um mal ne Gen auszulassen.
(das die grünen Fanboys öfter die Schlüpper wechseln, Wers braucht!?
... würde mich net wundern wenn die 3080 mit neueren Games genauso durchgereicht wird wie die 3070
... ähnliche Effekte werden sicher bei den 12GB-4000ern auch mit der Zeit eher auftreten als bei 16-20GB-7000ern)

Ob ne 4080-16GB-256bit bei den Frametimes mit der Zeit eher altert, who knows, ist auch ziemlich knapp bemessen vom
gierigen Küchenchef.(da klingt 24GB-384bit schon haltbarer, auch wenns jetzt am Anfang ein paar W mehr kostet)

Dafür ist die RT-Leistung von AMD sehr knapp bemessen, wird auch nicht lange halten laut deinen Worten... die alten BigAmperes sind da schon oft schneller als RDNA3, alles eine Frage was einem wichtig ist...

Gortha
2023-08-17, 10:48:17
Die 6800xt wurde als 3080 Alternative gebracht, ... 16GB werden mit Sicherheit länger reichen

Nach m.E. wird AMD net so viel 7000er verkaufen, weil die 6000er noch reichen, um mal ne Gen auszulassen.
(das die grünen Fanboys öfter die Schlüpper wechseln, Wers braucht!?
... würde mich net wundern wenn die 3080 mit neueren Games genauso durchgereicht wird wie die 3070
... ähnliche Effekte werden sicher bei den 12GB-4000ern auch mit der Zeit eher auftreten als bei 16-20GB-7000ern)

Ob ne 4080-16GB-256bit bei den Frametimes mit der Zeit eher altert, who knows, ist auch ziemlich knapp bemessen vom
gierigen Küchenchef.(da klingt 24GB-384bit schon haltbarer, auch wenns jetzt am Anfang ein paar W mehr kostet)

Na da ist ja einer ein richtig kleiner Kirschenpflücker...
Mit noch mehr RAM-Hunger unter maximiertem RT sieht es - ohh Wunder - so aus:



.... und die 12 GB "Nvidia" (Raff©®™ 8GB NVidia=~8,5GB AMD=~9GB Intel) VRam der 4070er sind für WQHD und leich darüber mehr als ausreichend, eine längere Zeit. Vorher sind neue Grakas in den Kisten der Leuten verbaut.
Für QHD sind die 4070er nicht gedacht.

Gortha
2023-08-17, 11:03:42
...
Quatsch!, die Karte wird ein kompletter Flopp und prügelt sich vermutlich in RT unter DLSS/FSR mit der 4060ti umher. Die 4070 schlägt unter RT auch eine 6900xt in bestimmten Spielen und im Raster ist sie über mehrere Spiele gesehen = 3 % schneller als eine 6800xt. RDNA3 ist nichts weiter als eine komplette Enttäuschung. AMD kann für diese Karte nicht mehr als 500 Euro verlangen. ...

Es muss über den Preis gehen, wenn AMD im Mittleren Segment NVidia Marktanteiele streitig machen will.
Das kann sowieso NUR so laufen, dass die 7800&7700XT gegen 4060Ti8&16GB gematched werden. Diese müssen vom Preis unterboten bzw. der Preis/Leistung überboten werden.
Dann werden 4060Tis Ladenhüter und die 7800&7700XTs werden das Rennen machen.
Gegen eine 4070 sind beide AMDs nicht wirklich aufgestellt. Es sei denn die 7800XT taktet hoch genug - Dann kann sie der 4070 non-Ti hier und da mal nahe kommen.

Gast
2023-08-17, 13:25:37
Die 4080 12GiB von AMD, vermutlich komplett unkommentiert durch die Gamer schaft, weil AMD das darf. Bei Nv hat man ein riesen Fass aufgemacht.
Von demher wäre ja sogar die damalige 4080 12GB würdiger für diesen Namen gewesen da man damit zumindest ein gutes Stück vor der 3080 liegt.
Ihr habt offensichtlich nicht verstanden, warum sich die User bei der 4080 12GB beschwert haben. Nicht, weil die Karte zu langsam ist, sondern weil die Karte deutlich langsamer als die gleich benannte 4080 16GB ist. Mit dem Namen wird suggeriert, beide Karten sind gleich schnell, in Wirklichkeit sind da aber 20% Unterschied in der Leistung.

Dafür ist die RT-Leistung von AMD sehr knapp bemessen, wird auch nicht lange halten laut deinen Worten... die alten BigAmperes sind da schon oft schneller als RDNA3, alles eine Frage was einem wichtig ist...
Naja, der 3080 gehen jetzt schon in RT die 10GB aus. Dann ist sie in RT auch nicht mehr schneller als die 6800XT, weil sie auf den PCIe warten muss. NVidia hätte die gleich mit 12GB bringen sollen, dann hätte es viel weniger Kritik gegeben.