PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 31. August 2023


Leonidas
2023-09-01, 08:10:18
Link zur News:
https://www.3dcenter.org/news/news-des-31-august-2023

GerryB
2023-09-01, 10:03:30
Die vorhandene Diskrepanz ist eventuell aber auch über die Eigenheiten von TimeSpy zu erklären

nach m.E. passt die starke Orientierung auf AC der RDNA3-Architektur sehr gut, dito Ada und bei ARC soundso
(da bremst Double Issue net)

Ich würde gern mal wissen was Intel in dem speziellen Fall so anders macht ggü. Games.
(dann könnte man diese Optimierung vllt. mal per Hack auch woanders nutzen)

Gast
2023-09-01, 10:06:59
Sieht eher nach starker Treiberoptimierung seitens AMD aus, um dann noch Argumente zu haben. Üblich und kennen wir schon, Cherry Picking um dabei die alte Gen gekonnt zu vernachlässigen. Aber selbst solche Ergebnisse erlauben nicht die 7700xt so zu nennen. Da erwartet man das sie zwischen 6800xt und 6900xt liegt. Da liegt aber die 7900gre die eigentlich eine 7700xt ist. Eine 4070 kann sich bis auf den Speicher Ausbau mit einer 3090 anlegen, wo ja bekannterweise die 6900xt lag. Gleichzeitig dürfte die UHD Performance von RDNA3 etwas höher liegen, +5-10% im Bestcase was unter FHD oder WQHD nicht ankommt, weil dort RDNA2 deutlich stärker ist. RDNA2 hatte eine UHD Schwäche. Für die 6800 spricht dann der Speicherausbau, +4GiB bei gleichen Preisen, sie dürfte genauso effizient zu betreiben sein wie die 7700xt, hat aber den größeren Chip der alten Gen. Ein V8 mit größeren Oel Kühler macht in den Fall mehr Sinn als ein aufgeblasener 4 Zylinder mit zwei Turbos, der an seiner Kotzgrenze rennt.

Alles in allem bleibt N32 eine Enttäuschung, ob AMD noch mit der IP umher spielt oder nicht ist eigentlich völlig egal. Ein wirkliches Upgrade wird es damit immer noch nicht und nie werden. Wurde ja durch die Insider schon früh angekündigt das N32 eine Gurke wird. AMD versucht nun irgendwie dort Geld rauszuquetschen.

Da FSR3 wohl eher eine Wundertute wird wie alles was mit RDNA3 um Zusammenspiel gelauncht wurde, würde ich in jedem Fall eine 4070 nehmen. DLSS3 und mehr RT Power. DLSS3.5 sieht wirklich gut aus, denke nicht das AMD da wird mithalten können, selbst auf älteren RTX Gens nicht. Wenn man FSR auf Nv aktivieren kann, sieht man sofort wie matschig dieses Bild wird und überschärfen hilft an matschigen Texturen wenig.

Alles in allem bleibt RDNA3 was es ist und wird dem Hype im Vorfeld nirgendwo gerecht. Es ist in vielen Stellen nicht mal ein Sidegrade sondern eher ein Refresh im MCM Design, wobei AMD aus meiner Sicht die Namen komplett falsch verteilt, weil man auf das Design einprügelt, um dann höhere Preise aufrufen zu können. MCM dürfte beim gleicher Leistung deutlich teurer herzustellen sein als RDNA2 Monolith.

Die 4080 12g Generation von AMD. Nvidia reicht ein Superrefresh um AMD in den Boden zu stampfen. Selbst die unbeliebte 4080 verkauft sich nun wie geschnitten Brot. Dank AMD darf Huang sich wieder über fette Gewinne freuen.

Dem Anwender bleibt derzeit nur übrig, schnell und überteuert mit weniger Speicher oder lahm und überteuert mit mehr Speicher zu kaufen. Ist natürlich klar in welchen sauren Apfel er dann beisst.

Wer lahm und überteuert kauft ist selbst Schuld. Wenn Nvidia den Speicherausbau auf AMD Niveau anpassen würde, kann AMD diese Gen einpacken. Dazu bräuchten sie nur einen Ausschuss AD102 den sie als 4080 verwursten, oder einen Ausschuss ADA103 den sie als 4070ti verkaufen. Effizient genug sind beide, wenn man das PL deutlicher beschränkt. Den Rest sortiert man durch.

Zum Glück haben sie den wegen des AI Booms derzeit nicht, und AMD hat noch Strohhalme. Es wird über kurz oder lang so kommen, ist nur eine Frage der Zeit.

Denke daher nicht das AMD noch gross in RDNA3 investiert. Launchen und vergessen.

Leonidas
2023-09-01, 10:27:45
Denke daher nicht das AMD noch gross in RDNA3 investiert. Launchen und vergessen.

Denke ich auch nicht. Aber eine neue Grafikkarte auf Basis eines vorhandenen Chips ist eben keine große Investition. So was wird man sich je nach Bedarf sehr wohl noch gönnen. Benötigt werden könnte es:

1. wenn 6600 ausläuft, wird eine Abrundung nach unten hin benötigt
2. wenn 6700 Serie ausläuft, wird was zwischen 7600 und 7700xt benötigt

Lehdro
2023-09-01, 13:28:37
Eine 4070 kann sich bis auf den Speicher Ausbau mit einer 3090 anlegen, wo ja bekannterweise die 6900xt lag.
Wo hast du das denn her? Eine 4070 eiert im Bereich einer 3080 rum. (https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_3840__2160) Für die Performance einer 3090 benötigst du schon eher eine 4070 Ti.

Gortha
2023-09-01, 13:43:52
Selten soviel Mumpitz wie von diesem "Gast" gelesen.... Träumer³

Complicated
2023-09-01, 14:36:20
Selten soviel Mumpitz wie von diesem "Gast" gelesen.... Träumer³
+1

Denniss
2023-09-01, 17:05:04
Manche Gäste sind schon ein wenig schräg unterwegs, besonders die mit der fetten grünen Brille.
Es gibt aber auch andere Gäste mit denen man sogar richtig diskutieren kann.

Gast
2023-09-01, 18:14:30
Manche Gäste sind schon ein wenig schräg unterwegs, besonders die mit der fetten grünen Brille. Es gibt aber auch andere Gäste mit denen man sogar richtig diskutieren kann.
Manche Forenmitglieder haben aber auch eine dicke rote Hornbrille auf. Gibt aber auch welche, mit den man sich ganz normal unterhalten kann.

https://www.youtube.com/watch?v=FLxWz7sVFZo

Upps...legt sich doch die lahme 4070 in einigen Spielen mit einer 3090 an und braucht 100-130w weniger Energie, wobei dei Framerate dabei manchmal deutlich höher ist aufgrund der Spielereien mit DLSS3. Schon komisch. In den neuerdings AMD optimierten sicherlich nicht, weil die haben sowas ja nicht. Liegt natürlich nur an den Konsolen wenn man die Playstation auschließt...wie jüngst.:freak:

Gaston
2023-09-01, 19:42:00
Manche Forenmitglieder haben aber auch eine dicke rote Hornbrille auf. Gibt aber auch welche, mit den man sich ganz normal unterhalten kann.

https://www.youtube.com/watch?v=FLxWz7sVFZo

Upps...legt sich doch die lahme 4070 in einigen Spielen mit einer 3090 an und braucht 100-130w weniger Energie, wobei dei Framerate dabei manchmal deutlich höher ist aufgrund der Spielereien mit DLSS3. Schon komisch. In den neuerdings AMD optimierten sicherlich nicht, weil die haben sowas ja nicht. Liegt natürlich nur an den Konsolen wenn man die Playstation auschließt...wie jüngst.:freak:


Ich befürchte zwar, dass ich hier den Troll füttere, aber sowas zu lesen verursacht schon fast körperliche Schmerzen....

Also, dein "Beleg" ist ein einziger "Test" und natürlich auch noch von einem Youtuber. Wäre eine größere Datenmenge nicht belastbarer? Schauen wir doch mal in den 3dCenter-Performance Index:

Full-HD
3090 2280%
3080Ti 2240%
3080-12GB ~2160%
4070 2140%
3080-10GB 2070%


Ultra-HD
3090 392%
3080Ti 382%
3080-12GB ~362%
3080-10GB 342%
(6800XT 330%)
4070 324%


Berücksichtigen wir mal nicht die Auslastungsprobleme der 3090 unter Full-HD, lassen die Vorteile der 4070 durch FG in Kombination mit DLSS3 gegenüber der 3090 mal außen vor und vergessen, dass FG ja auch gar keine Latenz-Nachteile oder Grafikfehler verursacht......dann könnte man vielleicht davon sprechen, dass die 4070 sich mit einer 3090 anlegt. Also, zumindest, wenn man bei Nvidia im Marketing arbeitet, oder gern auf ebendieses reinfällt.
Aber ja, sie verbraucht deutlich weniger Energie und die Techniken DLSS3 und FG könnten in Zukunft noch einmal einen Unterschied machen.

Was einem dieses gebashe gegen irgendwelche Firmen bringen soll, während man offensichtlich ein Produkt des Mitbewerbers besitzt.....ich verstehe es nicht. Macht es das eigene, bereits erworbene Produkt besser?

Gast
2023-09-01, 21:14:16
Ja, vergessen alles was die neue Gen mitbringt damit du Recht hast, wer hier gerade wen als Troll füttert ist noch fraglich. Nun kommt ja selbst bei Henkelmann die Erkenntnis auf, dass AMD besser werden muss. Er rudert mal wieder zurück und räumt ein das AMD doch nicht so toll ist. Lies mal auf der PCGH.

Dafür das eine 4070 170w einsparen kann und nur 599 im Verhältnis zum Preis der 3090 kostet (waren es nicht über 2000 was diese Karte kostete, ich hatte sogar eine die für 3,1k über den Tisch ging) ist das Teil eigentlich recht gut und leistet auch genug. Falls es dich interessiert, die 4070ti dreht um eine 7900xt Kreise wenn man DLSS3+FG+RT einschaltet. Ausser AMD behindert gezielt die Entwicklung von Spielen, dann wird es nichts.

Betreiben wir das übliche Cherry Picking der AMD Fanboys und ignorieren wir den Rest einfach. Dann klappt es schon mit der eigenen Meinung.

Denniss
2023-09-01, 21:33:20
Super Testrun auf YT, natürlich mit FG und die Spiele dann wohl auf der HDD da die 120er A400 zu klein ist. Dazu die mickrigen 16GB RAM.
Wer sowas als Testsystem nutzt kann keine wirklich glaubwürdigen Ergebnisse liefern.
Nettes Cherrypicking BTW

Gast
2023-09-01, 21:47:30
Also wenn man mal die Timespy-Werte (von Guru3D) einer 7900XTX mit einer 6950XT und deren 3D-Center FHD Index in Relation setzt, dann bekommt RDNA3 etwa 5,6% zu viel Punkte in Timespy.

Wenn sich die 7700XT gleich verhalten sollte (idealisierte Annahme), dann würde das nicht ganz einer RX 6800 im 3D-Center FHD Index entsprechen. Wäre alles optimal, müsste sie ca. 284% erreichen. Könnte also tatsächlich knapp werden, aber die 6800er sollte trotzdem vorne liegen. Ist die 7700XT nicht so ideal, dann liegt sie wohl in deiner Schätzung, halte ich nicht für unrealistisch.
Bedenkt man die Verbrauchswerte, dann ist die 7700XT im Vergleich zur 6800 tatsächlich in der Technik schlechter. Gut, RT und Video sind besser, aber Effizienz in Raster ist da echt schlechter, Ram natürlich auch. Preis muss man dann schauen, wenn die Karte mal im Markt ist und sich stabilisiert hat. Aber gerade die sehr effiziente 6800er lässt den Nachfolger echt unschön aussehen und zwingt dann hoffentlich den Preis nach unten.

Raff
2023-09-02, 01:36:20
Tatsächlich ist der 3DMark ein ziemlich guter Indikator der zu erwartenden Gaming-Leistung. Am besten, man nimmt sowohl den (auf schnellen GPUs recht CPU-abhängigen) Time Spy und den (vollständig GPU-limitierten) Time Spy Extreme, um die Leistung zu berechnen.

MfG
Raff

Leonidas
2023-09-02, 04:39:32
Ein ziemlich guter Indikator ist TimeSpy immer noch. Nur nicht mehr so perfekt wie bei Ampere, wo die Ergebnisse selbst in der Skalierung fast perfekt zu realen Spiele-Benchmarks passten. War natürlich Zufall, der TimeSpy ist jahrealt.

Gast
2023-09-02, 12:56:19
Ja, vergessen alles was die neue Gen mitbringt damit du Recht hast,

Ok, scheinbar konntest Du meiner Argumentation nicht ganz folgen, aber ich habe doch alles vergessen, damit Du Recht hast.....


Betreiben wir das übliche Cherry Picking der AMD Fanboys und ignorieren wir den Rest einfach. Dann klappt es schon mit der eigenen Meinung.

Ich nutze aktuell eine Intel/Nvidia-Kombi, habe sogar selbst eine 4070 drin. Damit bin ich also ein AMD Fanboy? Ahja....das lässt eindeutig Fragen offen.


BTT:
Das einzige Positive, dass ich derzeit den beiden AMD-Karten 7800XT und 7700XT abgewinnen kann: sie scheinen einen positiven Effekt auf das Preisgefüge auf dem Grafikkarten Markt zu entwickeln.

Ansonsten ist die 7000er-Serie weiterhin eine Enttäuschung. Die Ada-Generation mit ihrem recht krassen Upselling (4060 als 4070 verkaufen, etc.) allerdings auch. Technologisch gesehen, finde ich sie nicht schlecht.