PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 25. August 2023


Leonidas
2023-08-26, 09:24:45
Link zur News:
https://www.3dcenter.org/news/news-des-25-august-2023

VfBFan
2023-08-26, 09:35:20
Mit 100 Watt weniger TDP wären die Karten ein Fortschritt, aber so ...

Leonidas
2023-08-26, 09:52:02
... sind sie es nicht. Keine Frage, das ist mager. Ein Ersatz, aber kein echter Fortschritt. Und ironischerweise trotzdem besser als dass, was NV derzeit in diesem Segment bietet.

DerFahnder
2023-08-26, 10:00:18
Die Generation ist komplett für den Arsch

Gast
2023-08-26, 10:06:22
Das Gleiche wie bei der 7900 Serie. Preislich minimaler Unterschied und nur auf Vorgängerleistungsniveau der Konkurrenz, und gar nur genauso schnell wie die eigene Vorgängergen mit gleichem Namen 6800xt vs 7800xt vs 408012gb. Was soll das AMD? Besser passen 7700xt und non 7700.

Also wer das noch kauft ist selbst Schuld und um Vorteile zu vergleichen holt man jetzt alte Schinken wie die 2070s und 5700xt hervor. Keine Konkurrenz zur 4070ti. Hatte erwartet das das eine 7800xt übernimmt.

Riesige Löcher in der Leistung und beim Preis zwischen den Serien 7900 vs 7800 vs 7600. Warum hier immer die 7900GRE mitgezählt wird keine Ahnung, die kann ich hier gar nicht frei kaufen. RDNA3 ist eine komplette Enttäuschung. AMD setzt die Karten wohl gezielt zwischen Nvidias Portfolio damit man überhaupt was verdienen kann. Dabei ist die Effizienz gegenüber der Konkurrenz mehr als fragwürdig.

Brauch ich nicht und kann dann nun Nvidia kaufen. AMD hat sein Pulver verschossen. Wenn das die nächsten 2 bis 3 Jahre alles sein soll, dann haut mal rein. Chiplet ist für mich kein Feature, letztlich zählt die Leistung und nicht irgendein Aufbau der gegenüber der Konkurrenz meilenweit zurückhängt. Einzig beim Speicher versucht man zu Punkten preist es aber zu 125% ein, wobei man mir den billigen Krempel ala non x GDDR6 verbaut.

Was für eine Enttäuschung. Die stehen sich selbst im Weg. Das mache ich nach dieser Vega Odyssee nicht schon wieder mit. Bin kein Versuchsobjekt. Hier endet es jetzt. FSR3 ganze 1 bis 1,5 Jahre später als Nvidia. Man hatte also zum Launch von DLSS3 nichts Vergleichbares und rudert jetzt hektisch im Hintergrund umher.

Jetzt weiss man auch, warum man DLSS3 unter Starfield bisher ignorieren lässt. Bethesda/Zenimax diese Nichtskönner passen gut dazu. Das wird seitens Nvidia einen weiteren Technologieboykott und Krieg auslösen, den AMD nur verlieren kann. Leidtragende die Spieler.

Bye bye RTG. Was kann man nun besser als Koduri seinerzeit? Nichts...

Platos
2023-08-26, 10:11:38
Also bezüglich Framegeneration: Ich finde ja immer noch das interessanteste daran, ob man das auch für Videos nutzen könnte. Gerade bei AMD könnte das nochmals einfacher umzusetzen sein, wenn man es so easy per Treiber erzwingen lassen können soll.

Das erzwingen per Treiber an sich finde ich aber auch eines der interessantesten Feature am ganzen. Wichtig ist da einfach, dass es von der Latenz wenigstens gleich gut wie nvidia ist. Lieber nur halb so grosse FPS Gewinne bei gleicher Latenz (FPS normiert), als gleicher FPS Gewinn bei schlechterer Latenz. Ebenfalls muss natürlich die Bildqualität stimmen. (Edit: Laut Digital Foundry soll der Ersteindruck live ja ebenbürdig gewesen sein, wie mit nvidia's framegen. Also zumindest von der Bildqualität scheint es (auf den ersten Blick) brauchbar zu sein.)

Aber wenn sich das einfach per Treiber zuschalten liesse, wäre das schon sehr krass.

Denn die Interpolation von nvidia ist von der Bildqualität her gesehen deutlich besser, wie das, was man bisher von RIFE kennt. Könnte man das für Videobearbeitung nutzen, wäre das Genial. Oder eben gleich als Echtzeitrenderer beim schauen von Filmen/Videos.

FSR 2.x per Treiber erzwingen wäre jetzt noch nice.

Bezüglich den Grafikkarten: Also die 7800XT finde ich jetzt nicht mal so schlecht ehrlich gesagt (wenn man alle AMD Schwächen mal ausblendet:D). 500$ bei ~30% mehr Rasterperfomance als die ebenfalls damals 500$ teure RTX 3070 mit aber 16GB. Eigentlich ganz ok finde ich. Das übliche KO-Kriterium bei AMD gibts halt trotzdem. RT Perfomance kacke, AMDs Framegeneration pendant "FMF" ist halt (wie AMD üblich) wieder mal nicht zum Launch der Hardware verfügbar. Also eine Wundertüte wieder mal (genau so wie bei FSR). FSR2 ist halt immer noch oft schlechter wie DLSS und bei FMF muss man leider von selbem ausgehen. FSR 3 gibts ja auch wieder erst als Wundertüte irgendwann einmal. Und der Stromverbrauch ist hoch. Das macht natürlich durchaus ~50 Euro nach paar Jahren Nutzung aus und muss auf den Kaufpreis drauf gerechnet werden (je nach Nutzungsszenario mehr oder weniger). Für mich, der auch mal Video-encoding betreibt, ist das z.B ein relevanter Faktor.

Die 7700XT ist natürlich ein Witz.

Zur Reduzierung des Input-Lags sollte man AMDs "AntiLag"-Feature hinzuschalten, wovon AMD eine verbesserte "+"-Version auflegt und FMF eigentlich erst ab Frameraten von 60 fps aufwärts zu nutzen sein soll (beides äquivalent zu nVidias DLSS3).

Stimmt doch nicht. Bei nvidia hat man mit Framegen @ 60FPS gleich hoher (bzw. niedriger) inputlag wie mit nativ ohne Reflex.

Also eben gleicher inputlag wie 60FPS nativ. Wüsste nicht, wieso das "nicht zu nutzen sein soll".

Wenn AMD das aber explizit nicht empfiehlt, hört sich das für mich nicht danach an, als ob sie ebenfalls den gleichen Inputlag bei selber Framerate wie nativ hinkriegen.

Gast Ritis
2023-08-26, 10:17:36
Das Geschreibsel der Kommentare kann man doch nicht ernst nehmen.
Unterm Strich geht das alles nur als Pseudoargumente durch um sich den zu teuren Kauf von Nvidia GPUs schön zu reden.

Reichlich dämlich sind die Kommentare zum Preis. In dem Leistungssegment sind so viele Alternativen verfügbar, dass der Strassenpreis sich unweigerlich an die in Reviews gemessene Leistung anpassen wird mit Aufschlag für längeren Support und bissl mehr Features. Ausschliesslich Launchangebote werden zum MSRP auch mal mit P/L Vorteil ergattert werden können.
Wenn man was aus der anvisierten Preislage herausinterpretrieren möchte dann nur, dass AMD nicht gewillt ist in der Leistungsklasse einen deutlichen Rutsch nach unten auf Kosten der eigenen Marge durchzudrücken. Offensichtlich ist man also mit dem Preisniveau der anderen Radeon-Modelle heute zufrieden. Die eigenen Fertigungskosten erlauben keine Wunderpreise.

Was die 7700XT anbelangt kann ich die Kritik zu diesem Zeitpunkt überhaupt nicht nachvollziehen. Das Ding hat nur 10% weniger CUs als die 7800XT und sogar höheren Takt.
Am Ende war Vega56 im RL auch der Liebling und die Vega64 wurde kritisiert der Mehrpreis wäre nicht gerechtfertigt. Jetzt wird hier vor ordentlichen Reviews schon wieder völlig inkompetent runtergeledert statt mal die technischen Daten zu würdigen. Eine Bewertung vor dem Testing abzugeben ist mal komplett bone-headed. ;D

Kritisch bei der AMD Präsentation sehe ich vorallem die 1440p High-FPS Fokussierung und die 12GB VRAM während eigentlich die Konsolen schon lange bei 4k sind mit Ziel 60FPS. Nur die XSS zielt auf geringere Auflösung ab und bekommt auch kräftig Kritik statt Anerkennung für die Positionierung.
Ob AMD mit GPUs, die eigentlich leistungsfähiger wie eine XSX wären, damit gut weg kommt bleibt abzuwarten. Wenn am Ende magere 5% mehr FPS mit Drops beim Nachladen rauskommen weil in UE5 die CPU die Meshes auch nicht schneller vorbereiten kann gibts Katerstimmunng und wieder jede Menge Foristen die dann meinen man hätte halt die neuste teuerste CPU kaufen müssen....

IMHO:
Wer auf mehr als FullHD schielt und nicht genau weiss was er nächstes Jahr spielen will sollte tunlichst die Finger weg lassen von den GPUs <16GB. Das Risiko die faule Banane wieder loszuwerden ist den gesparten Euro nicht wert. :|

Hoffen wir mal dass AMD die Altbestände rasch bereinigen kann und nur noch die neue Gen anbietet sobald die Modellpalette komplett ist. Bei AMD und Nvidia ist das Zeug schon viel zu lange auf dem Markt. Das war schon zur letzten Konsolengen eine Mainstreambremse im Gamedevelopment.

Starfield als Dreingabe werden wohl die Hälfte Gamer ohnehin früher oder später spielen wollen. Das ist ein guter Deal, denn die Bethesda Games brauchen immer so 2-3 Jahre für deutliche Rabatte wenn überhaupt.

Gast
2023-08-26, 10:36:17
... sind sie es nicht. Keine Frage, das ist mager. Ein Ersatz, aber kein echter Fortschritt. Und ironischerweise trotzdem besser als dass, was NV derzeit in diesem Segment bietet.
Wo sind die Dinger denn besser? Sry nirgends. Man rennt im Schatten von Nv hinterher um die gleichen Preise verlangen zu können. Effizienz technisch ist man 2 Gens zurück, leistungstechnisch und vom Featureset 1 Gen.

Das müsste man deutlich niedirger einpreisen, macht man aber nicht. Für mich ist das reinste Abzocke. Ich vermute man wird weiter Marktanteile verlieren. Nv macht einfach weiter wie bisher.

AMD tut nichts für den Gamer oder ist besonders preiswert, im Gegenteil. Sie arbeiten immer weiter daran die Hardware stetig zu verteuern, was ihnen aber kaum noch einer abnimmt.

CPU Anteil 20 vs 80%
dGPU Anteil 12 vs 88%

Bedeutungslos wenn mich einer fragt. Um sich einen Vorteil zu erarbeiten, müsste man deutlich mehr Marktanteile zurückgewinnen und konkurrenzfähige Hardware dabei preislich attraktiv in den Markt entlassen. Hat man nicht und tut man nicht.

Ich sehe ehrlich schwarz für RTG. Sollen die sich auf iGPUs fokussieren, alles andere werden sie über kurz oder lang, wenn man so weitermacht nicht mehr los. Su sollte bei RTG über einen Führungswechsel nachdenken.

Ich vermute mal weil AMD nicht kann, hat Nv noch nicht mal das volle Potential verschossen. Eine komplette Fehlentwicklung seitens RTG und die Streichung von N41 und N42 im Bereich dGPU bedeutet nichts Gutes.

Gast
2023-08-26, 10:53:53
...denn die Bethesda Games brauchen immer so 2-3 Jahre für deutliche Rabatte wenn überhaupt.
Die brauchen 2 bis 3 Jahre das sie überhaupt bugfrei laufen...auf AMD Hardware sowieso. Sollte es Onlinezwang geben, was anzunehmen ist wird es noch viel schlimmer.

Du scheinst keine Ahnung von Bethesda Games zu haben. Die Server sind die reinsten Schmutzserver. Instabil, hohe Wartungsintensität, alle Nase lang Lag und oftmals nicht erreichbar. Der ganze Schrott wird dabei über DDos Akamai geroutet, die im Amiland stehen.

Bethesda ist also nie ein guter Deal. Unfähige Entwickler die den Grossteil der Probleme einfach ignorieren, eingeschlossen. Passt gut zu AMD in letzter Zeit.

Aroas
2023-08-26, 10:58:29
Bei 399€ bzw. 499€ Preispunkt, wären das attraktive Karten gewesen. Auch wenn die im Vergleich zu den Vorgängern kaum Verbesserungen bieten.
Der Preis ist letztlich entscheidend.

Aber da auch AMD mittlerweile einfach nur noch gierig ist und sich unbedingt an den Preispunkten von NVidia orientieren will, bringt man solch unattraktive Angebote in den Markt.

Nee, lasst mal stecken. Kann man niemandem empfehlen das Zeug.

Leonidas
2023-08-26, 11:30:21
Wo sind die Dinger denn besser? Sry nirgends. Man rennt im Schatten von Nv hinterher um die gleichen Preise verlangen zu können. Effizienz technisch ist man 2 Gens zurück, leistungstechnisch und vom Featureset 1 Gen.

7800XT vs 4070 ist AMD leicht schneller, etwas preisgünstiger, hat mehr VRAM. Ist der Unterschied groß? Nein. Aber ist NV gleichwertig? Nada.

7700XT ist natürlich außerhalb dessen, keiner Rede wert.

Aroas
2023-08-26, 11:52:27
7800XT vs 4070 ist AMD leicht schneller, etwas preisgünstiger, hat mehr VRAM. Ist der Unterschied groß? Nein. Aber ist NV gleichwertig? Nada.


Das "leicht schneller" gilt hier aber auch nur für Rasterizing. Sobald RT ins Spiel kommt, sieht AMD kein Land mehr.

Dazu kommt noch, dass NV mit DLSS3 ein durchaus schlagkräftiges Argument hat, welches AMD bisher noch nicht kontern kann.
Wenn FSR3 dann endlich mal draußen ist, muss sich das auch erstmal beweisen.

Ich sehe da als einzigen wirklich größeren Pluspunkt für die 7800XT die 16GB Speicher.
Müsste ich mich jetzt zwischen diesen beiden Karten entscheiden, würde mir das äußerst schwer fallen.
Hätte AMD die 7800XT hingegen bei 499€ eingepreist, wäre das ein No Brainer und sie könnten damit durchaus mal wieder etwas Marktanteil gewinnen.

Aber nein, auch bei denen hat die Gier über das Hirn gesiegt.

Platos
2023-08-26, 12:05:27
Ja, ist halt mit Steuern und Kursumrechnung ziemlich genau 550 Euro.

Da hat der Euroraum halt wieder mal Pech gehabt.

Stimmt aber trotzdem. Hätte AMD was reissen wollen, müsste sie 499 Euro kosten. 499 vs 549 ist halt psychologisch nicht das gleiche wie 449 vs 499.

Gast
2023-08-26, 12:27:27
...gehen wir mal von -15 bis -20% Preisnachlass aus. Siehe 7900xt, 1049 derzeit niedrigster Preis auf 780. Dann würde es mit 399 bis 429 und 449 bis 479 wieder stimmen. man darf nur nicht gleich kaufen, lasst das so in den Regalen liegen! Grenzwertig ist die Effizienz. +30 bis 50% ist echt ne Bank. 263 versus 160-220w naja. Die RT Performance ist dann das Problem.

Hätte eine 7700xt, 7700 non xt und die 7900gre als 7800xt sein sollen. Dann wären auch 12gib Vram für n32 genug. Mehr kann der Chip eh nicht, AMD selbst testet bis 1440p. Das Portfolio hätte so viel runder aussehen können. Sinnlose Preistreiberei wobei man von der Entwicklung bei der 7900 Serie nichts gelernt hat.

Mit DLSS ist die 4070 für AMD unerreichbar.

Dorn
2023-08-26, 12:37:45
7800XT vs 4070 ist AMD leicht schneller, etwas preisgünstiger, hat mehr VRAM. Ist der Unterschied groß? Nein. Aber ist NV gleichwertig? Nada.An sich toll wäre es auch nur 200 Watt.
Aber AMD bekommt bei Ihren Grafikkarten, die Effizienz einfach nie hin (TSMC VS TSMC Fertigung). Einfach Schade...

Gast
2023-08-26, 12:41:08
Stimmt doch nicht. Bei nvidia hat man mit Framegen @ 60FPS gleich hoher (bzw. niedriger) inputlag wie mit nativ ohne Reflex.

Also eben gleicher inputlag wie 60FPS nativ. Wüsste nicht, wieso das "nicht zu nutzen sein soll".



Quatsch, du hast scheinbar die Technik nicht verstanden. Mann kann mit Frame Generation nie den selben Input-Lag wie ohne haben, es sei denn du bist in der Lage physikalische Gesetze außer Kraft zu setzen .. Mit Reflex nähert man sich dem ursprünglichen Wert an, mehr aber auch nicht.

Gast
2023-08-26, 15:45:54
Meh, ich habe es schon einige Male geschrieben, diese gen lohnt lediglich die 4090, der Rest bei nv hat zu wenig Speicher und hat kaum besseres p/l als die 4090 und bei AMD ist alles irgendwie gleich wie vor 2 Jahren... Die 7900xtx ist ja noch ne Überlegung wert für die 949 im mindstar, schkuzsendlich 50% billiger als die billigste 4090 und bei Raster oft gleich schnell. Der Verbrauch ist aber trotz des beworbenen von AMD, sehr in der Nähe der 4090.

Gast
2023-08-26, 16:00:46
Hm, habe meine 6800xt in 2020 gekauft. Nach 2,5 Jahren kommt AMD unter gleichem Namenkürzel x800xt mit fast gleicher Leistung um die Ecke? Irgendwas stimmt da nicht. Also wenn ich wechseln würde sicher nicht mehr zu AMD. Wäre viel zu wenig für ein Upgrade.

Gast
2023-08-26, 16:36:54
Die Karten werden viel zu gnädig bewertet - weil Nvidia noch schlimmer ist.

Platos
2023-08-26, 17:12:50
Quatsch, du hast scheinbar die Technik nicht verstanden. Mann kann mit Frame Generation nie den selben Input-Lag wie ohne haben, es sei denn du bist in der Lage physikalische Gesetze außer Kraft zu setzen .. Mit Reflex nähert man sich dem ursprünglichen Wert an, mehr aber auch nicht.

Es geht um Framegen vs Nativ ohne Reflex.

Aroas
2023-08-26, 17:25:48
Also wenn ich wechseln würde sicher nicht mehr zu AMD. Wäre viel zu wenig für ein Upgrade.

1. Schau dir mal an, was du in dem Preisbereich derzeit bei NVidia bekommst. Eine RTX 4070 mit 12GB. Nicht wirklich besser.

2. Es macht grundsätzlich keinen Sinn, von einer auf die nächste GPU Generation einen Wechsel zu vollziehen. Jedenfalls nicht im gleichen Preisbereich.
Da müsste man grundsätzlich in deutlich höheren Preisregionen kaufen, damit sich das lohnt.

Lehdro
2023-08-26, 19:40:12
Es geht um Framegen vs Nativ ohne Reflex.
Was halt der falsche Vergleich ist, wenn es Nativ auch mit Reflex gibt. Es ergibt einfach keinerlei Sinn Reflex zu deaktivieren, egal ob man FG an hat oder nicht. Daher gibt es den Vergleich so auch nicht, er ist rein konstruiert.

GerryB
2023-08-26, 20:22:13
Der zweite Kitikpunkt ergeht zum fehlenden Generations-Fortschritt bei der Radeon RX 7800 XT, deren Performance bestenfalls minimal oberhalb der Radeon RX 6800 XT herauskommen wird

Der Fortschritt ist in der Siliziumgröße zu sehen.
N32-GCD 200mm² ist ca. nur 50% von N21 abzgl. L3

Wer hat Da ein anderes Ergebnis erwartet!?

Platos
2023-08-26, 20:29:28
Was halt der falsche Vergleich ist, wenn es Nativ auch mit Reflex gibt. Es ergibt einfach keinerlei Sinn Reflex zu deaktivieren, egal ob man FG an hat oder nicht. Daher gibt es den Vergleich so auch nicht, er ist rein konstruiert.

Nein, es ist eben nicht der falsche Vergleich. Es ist das, was Leute Jahrzehnte gespielt haben, 60FPS ohne Reflex. Die meisten Leute spielen auch jetzt noch ohne Reflex, einfach weil es nicht in allen Spielen vorkommt. manche hier tun so, als wäre alles ohne Reflex total unspielbar (die Leute behaupten dann gleichzeitig auch, 60FPS ohne Reflex wäre unspielbar). Dabei wurde Reflex gerade mal vor 3 Jahren vorgestellt.

Und genau diesen Input-Lag (mit denen sich offensichtlicherweise die meisten zufrieden geben) kann man mit Framegen und Reflex erreichen.

Genau das habe ich und wollte ich damit aussagen.

Ich sage also, mit Framegen kann man den Input-Lag haben, den man in Spielen ohne Reflex mit 60FPS hat. Das ist ganz normal und absolut nicht unspielbar. Ein absolut normaler 60FPS Input-Lag.

Gast
2023-08-26, 21:47:13
Stimmt doch nicht. Bei nvidia hat man mit Framegen @ 60FPS gleich hoher (bzw. niedriger) inputlag wie mit nativ ohne Reflex.

Also eben gleicher inputlag wie 60FPS nativ. Wüsste nicht, wieso das "nicht zu nutzen sein soll".

Wenn AMD das aber explizit nicht empfiehlt, hört sich das für mich nicht danach an, als ob sie ebenfalls den gleichen Inputlag bei selber Framerate wie nativ hinkriegen.
Dir ist vermutlich nicht bewusst, dass NVidia für DLSS3 ebenfalls empfiehlt, die Auflösung/Einstellung so zu wählen, dass man mindestens 60Hz@Native hat.

Daher würde ich da erst mal die Tests abwarten. BQ vermute ich mal höchstens minimal besser als FSR2. In bewegten Bildern sehe ich da aber dann aber keinen Unterschied zu DLSS2, da bin ich mit anderem beschäftigt...
Insofern wird interessant, wie das dann mit den zusätzlichen Frames so klappt. So gut wie DLSS3 wird es meiner Vermutung nach auch nicht werden, dafür dann aber durch die Treiber-Forcierung etwas flexibler.

Gast
2023-08-26, 21:52:39
Wo sind die Dinger denn besser? Sry nirgends. Man rennt im Schatten von Nv hinterher um die gleichen Preise verlangen zu können. Effizienz technisch ist man 2 Gens zurück, leistungstechnisch und vom Featureset 1 Gen.
Interessante Wahrnehmung...
Also eine 7900XTX ist in RT laut Igor in UHD schneller als eine 3090TI, braucht dabei grob 100W weniger. Wow, schon 2 deiner Behauptungen widerlegt. Und die UVP der 7800XT ist 100€ unter der NVidia Konkurrenz, die noch dazu weniger Ram hat.
Letztendlich bin ich dann auch gespannt, wann Ampere DLSS3 bekommt, um dein "featuretechnisch 1 Gen." zu schaffen.

Es gibt so viel Ansätze zur Kritik an AMDs aktueller Generation. Aber statt vernünftig zu Argumentieren, übertreibt man lieber maßlos und fantasiert sich was zusammen...

Gast
2023-08-26, 21:57:04
Hätte AMD die 7800XT hingegen bei 499€ eingepreist, wäre das ein No Brainer und sie könnten damit durchaus mal wieder etwas Marktanteil gewinnen.

Aber nein, auch bei denen hat die Gier über das Hirn gesiegt.
Achso, du kaufst Karten immer grundsätzlich zum UVP und nicht zum Straßenpreis? Interessant.
AMD Karten fallen im Straßenpreis immer mehr als NVidia Karten und der UVP ist meist nicht so relevant. Würde mich nicht wundern, wenn die Karte 1-2Monate nach dem Launch da ist, wo du sie gerne hättest. Kaufst du sie dann? Dann ist vielleicht auch FSR3 da und man kann das begutachten.

Gast
2023-08-26, 22:16:46
Der Fortschritt ist in der Siliziumgröße zu sehen.
N32-GCD 200mm² ist ca. nur 50% von N21 abzgl. L3


Dann sollte man das aber auch am Geldbeutel sehen.


Wer hat Da ein anderes Ergebnis erwartet!?

Niemand mit klarem Verstand.

Platos
2023-08-26, 23:09:31
Dir ist vermutlich nicht bewusst, dass NVidia für DLSS3 ebenfalls empfiehlt, die Auflösung/Einstellung so zu wählen, dass man mindestens 60Hz@Native hat.



Ändert nichts an der Tatsache, dass der Inputlag wie nativ ohne Reflex ist.

Aroas
2023-08-27, 01:16:07
Würde mich nicht wundern, wenn die Karte 1-2Monate nach dem Launch da ist, wo du sie gerne hättest. Kaufst du sie dann?

Nö. Ich hab ne 6700XT und die reicht mir. Die 7800XT bietet da schlicht zu wenig Mehrleistung.

OpenVMSwartoll
2023-08-27, 01:35:58
Ändert nichts an der Tatsache, dass der Inputlag wie nativ ohne Reflex ist.

Ändert nichts daran, dass Du Kirschen pflückst. Der Einwand ist nicht von der Hand zu weisen.

Bin gespannt, wie das neue AntiLag+ implementiert ist.

Gast
2023-08-27, 03:24:35
Its weird it seems like whatever were the best cards in the previous generation, the next-gen cards are TERRIBLE. For example, the 3060 Ti imho was probably the best price/performance card of the 3000-series, but the 4060 Ti is TERRIBLE. The 6800 was definitely the most efficient & powerful card (best fps/$) of the 6000-series, but the 7800 is - relatively speaking - TERRIBLE so they have pre-cut the prices to reflect reality!

I am amazed at the 7000-series price gaps. Nothing between $270(7600) and $450(7700 xt). Nothing between $500(7800 xt) and $750(7900 xt). I doubt these price gaps will persist. AMD needs to "fill in the gaps". Possibly they will cust prices on the 7700 xt by $50 very very soon?

Leonidas
2023-08-27, 06:07:42
Einmal mehr werden Listenpreis gemacht, die dann mit der Realität auf der Straße wenig zu tun haben. AMD wird die 7700XT mittelfristig auf unter $400 Dollar drücken, genauso die 7900XT auf unter $700.

GerryB
2023-08-27, 07:44:28
Dann sollte man das aber auch am Geldbeutel sehen.

Warum soll Lisa nen anderen Preis machen als Jensen?
(mit der 16GB-4060Ti gibts da quasi ne Steilvorlage für Alle)

Platos
2023-08-27, 08:45:40
Ändert nichts daran, dass Du Kirschen pflückst. Der Einwand ist nicht von der Hand zu weisen.

Bin gespannt, wie das neue AntiLag+ implementiert ist.

Nö, sind keine Kirschen. Ist normal so. Nativ ohne Reflex hat etwa selben Input Lag wie Framegen. Das ergibt einen ganz normalen 60FPS Input Lag und genau das ergibt Framegen.

Die Behauptung war, Framegen's Input Lag würde ein Spiel unspielbar machen. Ist nicht so. Der Input Lag ist etwa gleich, wie in Spielen ohne Reflex. Also ganz normal.

Vita Brevis ars Longa
2023-08-27, 09:51:20
Wie immer die üblichen Grabenkämpfe, AMD Fans argumentieren gegen Intel,- und/oder Nvidia Fans.

Ihr vergesst bei eurer Betrachtung aber, dass die Gaming Sparte für Nvidia immer unwichtiger wird, und Intel Marktanteile gewonnen hat, obwohl Intel und AMD sehr unter dem schrumpfenden PC Markt leiden.

AMD ist auch nicht der strahlend weiße Ritter in glänzender Rüstung, der gegen dass Böse Intel oder Nvidia kämpft. Im Gegenteil, trotz weltweiter Inflation versucht AMD mit Hochpreisprodukten zu punkten, völlig irrational gegen den Markt.

Wenn Intel und Nvidia die oft preislich besseren Produkte haben, AMD immer unattraktiver wird, gibt es euer S/W-Denken nicht mehr, sondern nur noch gierige Konzerne, die ohne Rücksicht auf Verluste so gar ihre Märkte beschädigen.

Bisher gewinnt da nur eine Kraft, Nvidia mit ihren KI Chips, die sich dass leisten können......

Das hier ist auch noch interessant:
https://www.pcgameshardware.de/Spiele-Thema-239104/News/Gaming-PC-verliert-in-Deutschland-an-Bedeutung-1424735/

Der Anteil der Konsolenspieler ist deutlich angestiegen, und der Anteil der PC Spieler deutlich gesunken in Deutschland.
AMD verkauft zwar viele Konsolenchips, aber mit niedrigen Margen.
So niedrigen Margen, dass Nvidia da gar nicht mithalten will, bis auf eine Ausnahme, Nintendo mit dem Tegra.
Und selbst am Tegra verdient sich Nvidia dumm und dämlich für die Switch, und hat auch den Nachfolger schon in der Tasche.

Koduri wollte einst den HPC Bereich bei AMD fördern, später bei Intel, und macht jetzt KI Software, der Wachstumsmarkt schlechthin.
Der lacht sich tot über die schrumpfenden PC User, und über seine alten Arbeitgeber AMD und Intel.

Gast
2023-08-27, 10:59:53
Nach diesem Launch wird es keine weiteres RDNA3 Modell geben. Hat AMD auf der Gamescon so mitgeteilt. Das Portfolio sei voll.

Zeigt einfach nur das MCM in dieser Form bei RDNA3 gescheitert ist und man auch keine Ressourcen mehr verschwendet es noch zu optimieren. Da n41 und n42 im MCM Design ebenfalls gestrichen wurden, braucht man die nächsten zwei Jahre nicht auf irgendwas besonderes bei AMD warten.

Entweder man kauft eine überteuerte lahme Karte mit viel Speicher oder eine Heizung. Poor RDNA3...

NVidia reicht jetzt ein einfacher Superrefresh um AMD mit einem Arschtritt ins GPU Nirvana zu befördern. Wer diesen Mist bei AMD verbockt hat, sollte seinen Hut nehmen. Sie werden weiter Anteile verlieren bis in die Bedeutungslosigkeit. Schade RDNA2 war so gut. Man hätte einfach nur 30% drauflegen müssen und die 4K+RT etwas verbessern, und alles wäre gut gewesen. Aber man musste ja wieder mit diesem Chipletmüll kommen. Niemand hätte dann was gesagt.

So hat man sich über Jahre selbst ins Aus gestellt und verkauft Hardware unter dubiosen Namen für viel Geld, auf Leistungsniveau der eigenen Vorgängergen oder der Konkurrenz ohne wirklichen Fortschritt. NVidia ist in jedem Bereich vorne und liefert jeweils das schnellste Produkt. Was man bei den CPU richtig macht, macht man im Bereich GPU komplett falsch.

Bye bye RTG.

OpenVMSwartoll
2023-08-27, 12:56:50
Nö, sind keine Kirschen. Ist normal so. Nativ ohne Reflex hat etwa selben Input Lag wie Framegen. Das ergibt einen ganz normalen 60FPS Input Lag und genau das ergibt Framegen.

Die Behauptung war, Framegen's Input Lag würde ein Spiel unspielbar machen. Ist nicht so. Der Input Lag ist etwa gleich, wie in Spielen ohne Reflex. Also ganz normal.

Mühselig... FG erhöht die Latenz. Nativ mit Reflex ist responsiver.

Gast
2023-08-27, 14:16:42
Schade RDNA2 war so gut. Man hätte einfach nur 30% drauflegen müssen und die 4K+RT etwas verbessern, und alles wäre gut gewesen.

Was man bei den CPU richtig macht, macht man im Bereich GPU komplett falsch.

Macht man ja sogar mehr, nur wie man die GPUs bezeichnet ist das Problem. AMD hätte alles um ein rundes Portfolie abzuliefern, und das versteht wirklich niemand.

7900xtx vs 4080
7900xt vs 4070ti

Und dann geht es los:
7900GRE wozu? Das ding ist eine 7800xt
7800xt meh ist eine 7700xt
7700xt meh ist eine 7700

7600 hätte ich komplett ins Notebooksegment verbannt und dafür N22 belassen. 6750 und 6700 mit 12 GiB VRAM und ENDE. Vielleicht sogar auf 6nm shrinken.

Das Portfolie würde also als Beispiel so aussehen:
7900xtx (1000-1149) (350w)
7900xt (779-929) (300w)
7800xt (jetzige 7900GRE) (599-679) (275w)
7700xt (jetzige 7800xt) (429-479) (240w)
7700 (jetzige 7700xt) (379-399) (210w)
7600xt (jetzige 6750) (329-349) (190w)
7600 (jetzige 6700) (269 -299) (170w)
7600mobile (jetzige 7600)

Alles ab 12GiB ausser mobile mit 8GiB, damit hätte man Nvidia richtig unter Druck gesetzt und ein absolut rundes Portfolie. Hätte effizient mit dem Powerlimit umherspielen können und die Preise etwas nach unten und sogar oben korrigiert. Alles wäre gut...die Jünger würden Purzelbäume schlagen und unten herum gäbe es bei Nachrüstern nicht das PCIE4 Lanes Problem.

Wäre sogar eine 7500 auf Basis der 6600xt oder 6650xt denkbar.

Ich verstehe das ehrlich gesagt auch nicht. Man hat alles da...jetzt wirkt wie hingerotzt, als wenn man nicht kann.

Platos
2023-08-27, 14:17:11
Ich habe nie was anderes behauptet. Lesen muss man halt können.

Ich habe gesagt, Framegen hat etwa die gleiche Latenz wie nativ ohne Reflex (was sehr gut spielbar ist).

Gast
2023-08-27, 15:29:44
Ändert nichts an der Tatsache, dass der Inputlag wie nativ ohne Reflex ist.

Das kann man nicht generell sagen, es gibt Engines die schon selbst eine gute Latenz aufweisen, so dass Reflex nur mehr wenig bringt, und es gibt Engines die überhaupt keinen Wert auf Latenz legen und enorm von Reflex profitieren.

Und man kann auch Reflex ohne FG verwenden, was immer eine bessere Latenz hat.

Gast
2023-08-27, 15:31:35
Warum soll Lisa nen anderen Preis machen als Jensen?




Vielleicht weil sie nicht für alle Zeiten bei 10-20% Marktanteil versauern will?

Wenn Intel die nächste Generation nicht komplett verhaut muss sich AMD ja sogar sorgen machen mittelfristig von denen im GPU-Bereich überholt zu werden.

Gast
2023-08-27, 17:16:23
Nach diesem Launch wird es keine weiteres RDNA3 Modell geben. Hat AMD auf der Gamescon so mitgeteilt. Das Portfolio sei voll.

Zeigt einfach nur das MCM in dieser Form bei RDNA3 gescheitert ist und man auch keine Ressourcen mehr verschwendet es noch zu optimieren. Da n41 und n42 im MCM Design ebenfalls gestrichen wurden, braucht man die nächsten zwei Jahre nicht auf irgendwas besonderes bei AMD warten.

Entweder man kauft eine überteuerte lahme Karte mit viel Speicher oder eine Heizung. Poor RDNA3...

NVidia reicht jetzt ein einfacher Superrefresh um AMD mit einem Arschtritt ins GPU Nirvana zu befördern. Wer diesen Mist bei AMD verbockt hat, sollte seinen Hut nehmen. Sie werden weiter Anteile verlieren bis in die Bedeutungslosigkeit. Schade RDNA2 war so gut. Man hätte einfach nur 30% drauflegen müssen und die 4K+RT etwas verbessern, und alles wäre gut gewesen. Aber man musste ja wieder mit diesem Chipletmüll kommen. Niemand hätte dann was gesagt.

So hat man sich über Jahre selbst ins Aus gestellt und verkauft Hardware unter dubiosen Namen für viel Geld, auf Leistungsniveau der eigenen Vorgängergen oder der Konkurrenz ohne wirklichen Fortschritt. NVidia ist in jedem Bereich vorne und liefert jeweils das schnellste Produkt. Was man bei den CPU richtig macht, macht man im Bereich GPU komplett falsch.

Bye bye RTG.


Du scheinst auch nicht zwischen Technik und Marketing unterscheiden zu können. MCM ist sehr interessant und spannend, leider in seiner ersten Iteration aber nicht in der Lage mit dem besten der Konkurrenz mitzuziehen. Bug im Deisgn hin oder her, RDNA3 ist im vergleich zu RDNA2 schwach/oder war RDNA2 einfach zu stark?! :)

Das ändert nichts an dem Fakt, das auch NV schon einem Chiplet Design arbeitet, weil es spätestens mit der Übernächsten Gen nichts mehr zu holen gibt wenn man weiter auf monolithisch setzt. Zen1 war Spieletechnisch auch eher eine Gurke und nur in außnahemfällen Gleichwertig oder besser als Intel. Jedoch machten sich die 8 Kerne im Anwendungsbereich von Anfang an sehr gut und vorallem durch den Preispunkt konnte AMD damals Marketshare gewinnen.

Und das ist die perfekte Überleitung zum eignetlich Problem bei AMD, bzw. der Radeon Group momentan. Nicht die Mittelmäßigen Produkte, sondern falsche Namen und komplett absurde Preispunkte. Weil man sich an NVs falscher Namensgebung und lächerlichen Preispunkten orientiert.

Hätte AMD die 7900XTX als 7800XT auf den Markt gebracht, für 800€ (nach Steuern) und die schwächeren Karten entsprechend darunter platziert und korrekt bepreist, dann hätte man nun eine 7600XT und 7700 für 250 und 300€. Jede Review würde AMD das beste Preisleistungsverhältniss bescheinigen. Keine Sau würde schlechtere RT Performance und Effizienz bemängeln, wenn das restliche Produkt rund ist (Preis/Leistung). Ja AMD würde ihre eigenen RDNA2 Gen Kanabalisieren, aber das ist ein kleiner Preis im vergleich zu höherem Marketshare und damit Mindshare.

Da sitzt gerade das Problem bei AMD, beim Marketing und der Promo. Nicht in der Technikabteilung. RDNA3 ist ein guter Anfang. Nur sind die Karten leider völlig falsch segmentiert und bepreist.

Gast
2023-08-27, 19:09:15
Ich habe gesagt, Framegen hat etwa die gleiche Latenz wie nativ ohne Reflex (was sehr gut spielbar ist).

Das hängt stark vom Spiel ab.
Cyberpunk war beispielsweise ohne Reflex nie gut spielbar und braucht mit Reflex + FG ca. 70 Base-FPS um gut spielbar zu sein.

Konträr dazu ist z.B. das viel gescholtene Jedi-Survivor selbst ohne Reflex unter 60FPS sehr gut spielbar.

Lehdro
2023-08-28, 15:02:54
Nein, es ist eben nicht der falsche Vergleich. Es ist das, was Leute Jahrzehnte gespielt haben, 60FPS ohne Reflex. Die meisten Leute spielen auch jetzt noch ohne Reflex, einfach weil es nicht in allen Spielen vorkommt. manche hier tun so, als wäre alles ohne Reflex total unspielbar (die Leute behaupten dann gleichzeitig auch, 60FPS ohne Reflex wäre unspielbar). Dabei wurde Reflex gerade mal vor 3 Jahren vorgestellt.

Was ist das denn für eine krude Argumentation? Vergleichen wir jetzt Games ohne Reflexoption mit Games mit Reflex + FG? Also nicht einmal mehr dasselbe Game? Ignorieren wir dann auch einfach mal komplett den Fakt das es auch so einige Spiele mit Reflex aber ohne FG gibt? Oder das es Spiele ohne Reflex gibt, die besseren Inputlag haben als wiederum andere Spiele mit Reflex? Weil technisch ist das kein Ding, man schaue sich einfach mal ältere Spiele an, die auf Geschwindigkeit im Gameplay setzten (explizit schnelle Arenashooter als Beispiel). Sollen wir dann diesen Vergleich ziehen, weil er auch real vorkommen kann? Ich halte das für abstrus, weil es der typische Apfel - Birnen Vergleich ist, wenn nicht einmal mehr das Spiel oder gar Spielgenre identisch ist, sondern nur "gefühlte" Werte in die Argumentation einfließen: Ja, Reflex gibt es erst seit einigen Jahren. Schwammige Spiele gibt es schon viel länger. Ebenso aber Spiele die "knackig" beim Input sind. Das KANN kein Argument gegen die Nutzung von Reflex als Nativvergleich sein, weil solch ein Vergleich ähnliche Rahmenbedingungen fordert - im selben Game stattzufinden, ist eine davon.

Wenn ich FG mit etwas ohne FG vergleichen will, so hat der Vergleichspartner zwangsweise Reflex als Option, da die Basis, also das Spiel, dasselbe ist. Das Auszuschalten um den Vergleich durchzuführen halte ich für massiv verzerrend. Es entspricht halt nicht der Realität. Jemand der FG einschalten kann, kann auch Reflex einschalten. Ist jetzt kein Hexenwerk und Enthusiastenfeatures sind es beide sowieso, das kann also auch kein Argument sein. Genauso wie Spiele ohne Reflex kein Vergleich sein können - denn die können dann auch sowieso kein FG. Da gibt es also nichts zu vergleichen.

gastello
2023-08-29, 22:56:11
Jetzt weiss man auch, warum man DLSS3 unter Starfield bisher ignorieren lässt. Bethesda/Zenimax diese Nichtskönner passen gut dazu. Das wird seitens Nvidia einen weiteren Technologieboykott und Krieg auslösen, den AMD nur verlieren kann. Leidtragende die Spieler.
Damit hat AMD nichts zu tun. Es gibt nichts Vertragliches das Bethesda daran hindert DLSS in Starfield zu implementieren. Bethesda hat sich vorerst auf FSR fokussiert, weil es die Mehrzahl wenn nicht sogar alle IP's erreicht, einschließlich der Konsole. Wenn Bethesda DLSS implementieren möchte, können sie es machen, was sicher zu einem späteren Zeitpunkt auch passieren wird. Eher ist es so, das Bethesda vorerst nicht in der Liste der FSR3 Anwender steht. Sie sind in diesem Fall vorerst keinerlei Verträge mit AMD eingegangen.

DLSS wird sicher zu einem späteren Zeitpunkt kommen, also beruhige dich wieder. Bethesda ist da nirgendwo AMD verpflichtet es nicht machen zu dürfen und kann jederzeit mit nVidia zusammen arbeiten, um es noch zu tun. Gehe daher davon aus, dass es später noch kommen wird und bis dahin kannst Du gerne FSR auf nVidia Karten benutzen, falls du es brauchst. Bethesda ging es auch um Bugfreiheit und die Entwicklung von Starfield begann vor 8 Jahren, da gab es weder DLSS noch FSR in dieser Form. Man lässt sich die Zeit alles sinnvoll zu implementieren. FSR hatte da lediglich auf Wunsch der Auftragsgebers Vorrang, weil es mit deren Konsole kompatibel ist.

Freut euch/dich einfach auf den 06.09. und seht nicht alles so negativ. AMD hat keinerlei Interesse daran, etwas in dieser Form zu boykottieren. Eher lernen sie selbst dazu.

Gast
2023-08-30, 07:35:02
Bethesda ist da nirgendwo AMD verpflichtet es nicht machen zu dürfen und kann jederzeit mit nVidia zusammen arbeiten, um es noch zu tun.

Genau das wurde nirgends gesagt, und ich würde auch eher vermuten, dass da der Haken liegt, nämlich dass AMD zwar nicht irgendwelche Technologien vertraglich unterbindet, aber dass AMD eine aktive Zusammenarbeit mit einem Konkurrenten unterbindet.

Das würde nämlich auch war wir aktuell sehen erklären, in dem wir ja doch einige AMD-Sponsored Titel mit DLSS sehen, was bei einem kompletten Ausschluss ja nicht möglich wäre, aber eben eine auffällig geringe Anzahl, weil es offenbar doch einige Entwickler gibt die ohne aktiven Support von Nvidia sich nicht auf eine DLSS Implementation einlassen wollen.

Gast
2023-08-30, 12:17:20
Genau das wurde nirgends gesagt, und ich würde auch eher vermuten, dass da der Haken liegt, nämlich dass AMD zwar nicht irgendwelche Technologien vertraglich unterbindet, aber dass AMD eine aktive Zusammenarbeit mit einem Konkurrenten unterbindet.
Es gibt öffentliche Kommentare dazu. Er hat vollkommen Recht. Es gibt keine Verpflichtung seitens Bethesda DLSS nicht supporten zu dürfen. Das findet man in ein paar sec, wenn man die Google Suche bedient.

Bethesda kann jeder Zeit DLSS hinzufügen wenn sie wollen. Ich würde auch meinen das es kommen wird aber noch keine Priorität hat. Seiner Zeit hat Zenimax zuerst DLSS hinzugefügt, später dann FSR. Nun ist eben mal andersherum.

Bethesda dürfte eh auf NVidia entwickeln. So war es zumindest in der Vergangenheit. Warum sollte sich was geändert haben und wer FSR supportet kann auch DLSS supporten. Ist doch nur noch wenig Mehraufwand. Das FSR auf allen Karten läuft reichte nun wohl um zuerst berücksichtigt zu werden.

Gast
2023-09-01, 10:38:38
Das Thema mag niemand beantworten egal wen du fragst. Ich halte die dedizierte Optimierung auf FSR für falsch. So wie es aussieht wird Starfield nicht der vermeintliche AAA Burner des Jahres 2023. Bethesda hat sich da hinter ausgesuchtem Pressematerial versteckt. Man kann schon bald von Manipulation sprechen, um den Hype anheizen zu können.

Der Ausschluss eines Hardwareherstellers in Dimensionen von Nvidia, bedeudet dabei auch den möglichen Verlust einer grossen Basis die das Spiel dann bei Launch kaufen. Es scheint aber so von Bethesda umgesetzt worden zu sein und wie man nun an den Hardwarebedingungen erkennt, ist es massiv darauf optimiert, dass AMD mehr Hardware absetzen kann.

Optimierungen für schwächere Systeme gibt es allem Anschein nach nicht, die eigenen Angaben bei den Hardware Anforderungen bzw. was man braucht oder nicht stimmen hinten und vorne nicht, sind dabei viel zu niedrig angesetzt und man muß dann schon eine potenten CPU alias 8C/16c im System haben - der dann auch noch zu 85% ausgelastet wird. Ich denke Starfield wird so schnell in der Versenkung verschwinden, wobei Arts des Gamedesigns im Vorfeld wohl als Pressematerail selektiert wurden, um einen Hype darum veranstalten zu können. Hoffen wir mal es wird kein Flop wie Redfall. Bewertungen zwischen 7 von 10 und um 80% derzeit, bedeuten nichts Gutes und weisen nicht unbedingt auf das Spiel des 2023 hin. Denke mit BG3 kann man sich nirgends anlegen.

Wenn AMD und Bethesda das so durchziehen wollen sollen wie machen, ich vermute der Hypetrain ist längst gegen die Wand gerauscht. Mal sehen wie M$ darauf reagiert, das dürfte denen gar nicht gefallen. Zudem fehlen den Spiel wirklich visuelle Neuerungen der letzten Jahre, wobei man gerade das Graikmenu stark einschränkt. AMD Ligth Version? Für mich sieht das in der Entwicklung stark nach DX11 Stack aus, denn man hier und da mit FL 11x anhob. Nichts besonderes, oder optisch herausragend...das es dafür so lahm ist, ist schon besonders.

MiamiNice
2023-09-01, 13:24:28
Es gibt kein Statement seitens AMD welches dementiert, dass sie DLSS nicht verbieten auf irgendeine Art. Diese gibt es nur von NV. Von AMD gibt es nur drum herum Gerede aber keine klare Aussage (und ja das Gamecom Statement kenne ich) . Was das heißt, weiß jeder selbst.

Gast
2023-09-01, 14:35:25
Der Ausschluss eines Hardwareherstellers in Dimensionen von Nvidia, bedeudet dabei auch den möglichen Verlust einer grossen Basis die das Spiel dann bei Launch kaufen.
Scheint keinerlei Optimierungen auf Nvidia Hardware zu geben, um AMD RDNA3 besser in Szene zu setzen. Die rennen durch die Bank 15-30 fps schneller. Sieht man daran, dass bisher jede Nvidia GPU viel mehr VRAM verbraucht als AMD. Schon komisch, wenn das so sein sollte. Man will Nvidia also über die VRAM Schiene angreifen, dass wird das Aus für AMD werden wenn Nvidia diese Kanone lädt und abfeuert. Die sollen mal aufpassen das die von denen nicht bald gekauft werden, aber was soll Nvidia mit dieser Bude.

Das ist also komplett AMD optimiert und ich vermute nicht nur der Hype im Vorfeld und was nun wirklich kommt, wird einen riesen Shitstorm auslösen. Das wird ein fettes Bombing geben.

FSR 2.0 wurde durch Modder schon mal gleich durch DLSS 2.0 ersetzt. Hoffentlich kommt Nvidia noch mit einem angepassten Treiber vor Launch.

AMD verkommt mir immer mehr zur Witznummer des Jahres 2023. Wenn wir es mit der Hardware nicht schaffen, dann eben mit Geld was wir den Gamer aus der Tasche ziehen. Sich aber über andere Firmen beschweren, gerne hämsich sein und Witze reißen (sowas müsste in diesen Kreisen eigentlich tabu sein, wenn man bedenbkt das Nvidia schon sehr oft AMD zu Erfolgen offiziell gratulierte). Hoffe die bekommen auch mal eine Wettbewerbsstrafe dafür aufgebrummt. Inklusive käufliche Devs bei Bethesda (von diesem Haufen habe ich ehrlich gesagt nichts anderes erwartet = money money money press money for Microsoft crap consols). Ich werde das Spiel nicht nur aus diesem Grund boykottieren. Ist in meinen Augen is es keine 62+ Euro wert. Wieder mal ein riesen Hype im Vorfeld um nichts, um damit den Markt und die Community zu spalten, traurig aber wahr. AMD ist einfach grottig...zuletzt wird sie das wieder mehr kosten als sie glauben und überhauot nicht positiv aufgenommen.

Gast
2023-09-01, 22:27:20
Zumindest die Zen CPUs laufen viel schlechter als die Intel Pendants, ein 78000x3d fällt hinter den 13600k zurück. Wahrscheinlich werden die durch den 3D Cache massiv behindert bei Verlust der Taktrate und durch Wärme, die Last geht bis 90% auf allen Kernen hoch, mit fetten Rucklern. Die 7900xtx gar so schnell wie eine 4090, weil die CPUs dann einbrechen?

Ich habe keine Ahnung wer das wirklich spielen soll, kein DLLS3, kein FG, was sich hier wohl definitiv anbieten würde im absoluiten CPU Limit. Da in vielen Kisten noch 6 Kerner laufen, wird das ein Massaker. Bekannterweise ist die Geometrie nicht von Texturen und Auflösung abhängig, von modernem draw call instancing hat Bethesda noch nichts gehört. Altbackene Engine halt wobeo die CPU zum Bottleneck wird. Darunter leidet Nv wohl massiv und selbst AMDs 3dc reissen nichts.

Lehdro
2023-09-02, 18:42:45
Altbackene Engine halt wobeo die CPU zum Bottleneck wird. Darunter leidet Nv wohl massiv und selbst AMDs 3dc reissen nichts.
Ist doch fair, Bethesdas Creation Engine benachteiligt alle Hersteller gleichermaßen. Quasi enlightend Centrism als Engine :freak:

Gast
2023-09-02, 21:28:35
Genau das wurde nirgends gesagt, und ich würde auch eher vermuten, dass da der Haken liegt, nämlich dass AMD zwar nicht irgendwelche Technologien vertraglich unterbindet, aber dass AMD eine aktive Zusammenarbeit mit einem Konkurrenten unterbindet.

Nachdem es weder von Nvidia noch von Intel einen 0Day Treiber geht, kann man das mit an Sicherheit grenzender Wahrscheinlichkeit annehmen.