Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 3. November 2022


Leonidas
2022-11-04, 07:13:14
Link zur News:
https://www.3dcenter.org/news/news-des-3-november-2022

Skizzo
2022-11-04, 07:56:17
Da die RT-Performance ja zwischen den Herstellern (auch wenn man ARC betrachtet) stark unterschiedlich ausfällt musste ich mich eben viele Jahre zurückerinnern und an die unterschiedlichen AF-Implementationen denken, die damals eingesetzt wurden, um Performance zu gewinnen... da ich hier noch mit der Vor-vor-vor-Generation rumkrebse und leider keine Ahnung hab: ist die RT-Qualität "normiert"? gibt es da Qualitätschecks, so wie damals euer AF-Tool?
Mich irritiert es schon leicht, dass es AMD nicht hinbekommen soll, hier die Lücke zu verkleinern.

Cubitus
2022-11-04, 08:28:09
Das habe ich gestern im Thread gemeint.
Der Preis ist das entscheidende.

Nicht jeder will und kann sich eine 2K Karte gönnen.
AMD kann bei Rasterizing punkten und zwar mit dem Preis:
Natürlich kann sich oben Nvidia austoben.

In Anbetracht der kommenden 4080 GTX oder der einkassierten 4080, aka 4070er wirds im High End Mittelfeld heiß her gehen.

Jetzt kommt es drauf an, eine 7900XT(X) kann bei Raster schon 4K,
in den Gefilden mit 1440p ist die AMD sehr gut geeignet um auch RT Effekte zu nutzen.

Die 4080, und vor allem die kommende 4070er wird es bei dem Preispunkt von AMD schwer haben. Wieso soll ich mir für ~1600 Euro bzw. für eventuell 1000 Euro eine 4070 holen wenn AMD mehr Speicher und bessere Leistung im mittleren Highend bietet.
Natürlich sind viele User jetzt enttäuscht von der Leistung, aber unterm Strich muss ich sagen, obwohl meine Präferenz bei Nvidia liegt, ist die AMD-Karte fürs Spielen sehr gut geeignet.

Ich bin echt mal auf der Rasterizing Benches gespannt und ob die 4080 z.b und sogar die 4090 dort nicht stellenweise in die Bredouille kommen werden.

Gast
2022-11-04, 08:40:15
Ich bin echt mal auf der Rasterizing Benches gespannt und ob die 4080 z.b und sogar die 4090 dort nicht stellenweise in die Bredouille kommen werden.
Wenn sie in der Nähe der 4090 wären hätte man das doch leicht als Slide nach dem Preis zeigen können. Weil dann die Message von perf/$ noch eindeutiger gewesen wäre. Mal sehen.

Legendenkiller
2022-11-04, 09:01:55
Hat jemand schon mal irgendwo gesehen was N4 zu N5 pro Fläche, pro Transistor kostet?

Ravenhearth
2022-11-04, 09:39:41
Dass die verdoppelte Rohleistung nur zum Teil ankommt, war vorher klar und ist mMn auch nicht der Grund für die enttäuschende Leistung, sondern dass die im Vorfeld von mehreren Leakern berichteten hohen Taktfrequenzen nicht zustande gekommen sind. Würde RDNA 3 um >20% höher takten, sähe die Welt ganz anders aus, denn die XTX könnte in Raster mit der 4090 mithalten, wie im Vorfeld erwartet worden war. Wobei RT im besonderen auch weniger verbessert wurde als erhofft.

madshi
2022-11-04, 09:48:06
Wenn die Raytracing Prognose so stimmt, ist das natürlich sehr ernüchternd. Da hatte ich mir deutlich mehr von AMD erhofft. Mist, das heißt, Nvidia wird dann vielleicht sogar die Preise der 4080 und 4070 halbwegs halten können, das wäre eine Katastrophe. Ich hoffe stark, daß RDNA3 dann doch besseres Raytracing hat als es im Moment scheint... Zumindest hoffe ich, daß Nvidia die 4080 auf $999 senken muß. Aber ich hatte eher auf $849 oder $899 gehofft.

MLID hat vor Monaten schon gesagt, daß bei RDNA3 der Augenmerk *nicht* auf Raytracing lag, und daß das erst bei RDNA4 deutlich verbessert werden soll. Aber trotzdem hatte MLID glaube ich eine gewissen Verbesserung von Raytracing bei RDNA3 erwartet (also mehr als durch die einfache Steigerung der SMs erklärt wird).

Mega-Zord
2022-11-04, 09:50:01
RT interessiert mich eigentlich überhaupt nicht. Aber auf einem 4k Monitor mit 144 Hz ist für mich als User DLSS bzw. eine ALternative dazu höchst interessant. DLSS ist das Feature weswegen ich NV kaufe. Abgesehen davon ist leider immer noch der Treiber- und Entwickler-Support bei NV um Welten besser. Hier müsste AMD mal Geld in die Hand nehmen und die Spieleentwickler mit mit eigenen Software-Ingineuren unterstützen, damit die Hardware besser ausgenutzt wird. So eine theoretische Raster-Leistung bringt einem am Ende immer recht wenig, wenn das Lieblings-Spiel mit der "schlechteren" Karte von NV besser läuft.

Gast
2022-11-04, 10:11:37
Begreife ich den Witz nicht oder sind das jetzt tatsächlich die neuen "High-End" Karten von AMD?
Die Dinger, die bei MLID und hier im Forum seit Monaten gehypt werden?
Dafür habe ich jetzt mti dem Kauf gewartet???

Wenn mich RT nicht interessiert kann man sich auch ne 6800XT kaufen.
Die bringt für WQHD (werbei RT keinen Unterschied sieht, sieht auch zwischen 4K und WQHD keinen) mehr als genug Leistung. Super Preis für die Leistung.

Wenn mich RT interessiert sind die Dinger von High-End ewig weit entfernt.
Wenn ich aber 1000 Dollar für ne GraKa zahle will ich High-End.
Dann lieber gleich 1650 Dollar für eine 4090.

Wer soll die Dinger kaufen?
High-End kauft 4090.
Wer Abstriche machen kann ist mit einer halb so teuren 6800XT super bedient.

Und ja, das gilt für eine 4080 16GB natürlich genauso - die ist ebenfalls Mist.


Ich ärgere mich über mich selber, warum warte ich Schwachkopf mit dem Kauf der 4090? Hatte nach den ganzen Hypes auf den Release warten wollen und mir dann zwischen der 4090 und der AMD Karte zu entscheiden.
Dann noch ein 7800X3D wenn der nächstes Jahr kommt und ich wäre die nächsten 4 Jahre gut aufgestellt.

Habe mir jetzt eine 4090 mit nem 12600K bestellt, 300, 400 Euro teurer als wenn ich gleich zu Release gekauft hätte.
Kein Weltuntergang, aber ärgerlich.
Lehrgeld. Wenn von Nvidia was gutes kommt das einem gefällt -> kaufen.
Auf AMD zu warten ist das dümmste was man mahcen kann, da kommt eh nix sinnvolles.

Gast Ritis
2022-11-04, 10:12:05
Dass die verdoppelte Rohleistung nur zum Teil ankommt, war vorher klar und ist mMn auch nicht der Grund für die enttäuschende Leistung, sondern dass die im Vorfeld von mehreren Leakern berichteten hohen Taktfrequenzen nicht zustande gekommen sind. Würde RDNA 3 um >20% höher takten, sähe die Welt ganz anders aus, denn die XTX könnte in Raster mit der 4090 mithalten, wie im Vorfeld erwartet worden war. Wobei RT im besonderen auch weniger verbessert wurde als erhofft.

Genauso ist es. AMD hat nen deutlich kleineren Die aber die Peak-GHz sind bei beiden mit 2.5GHz angegeben.

Hatten da diverse Leaker nicht von bis zu 3GHz gesprochen? Ich denke weil AMD den Chip nicht auf 3.25GHz prügeln konnte um der 4090 Paroli zu bieten hat man tunlichst den Takt und Watt im halbwegs vernünftigem Rahmen gehalten.
Sobald die genügen sehr gute GCDs haben und die 4080 draussen ist kommt vermutlich noch eine 7950XTX nach. Aber nur moderat schneller, eher 10% als 30%. Ein paar OEMs werden wohl sehr teure OC-Modelle bringen, bin gespannt wo da der Headroom liegt.

Beim Raytracing müsen erst die Games von den Entwicklern gepatched werden. Die Features der neuen RT-Cores müssen erst im Shader-Code genutzt werden. Wenn nicht ist dass das beim alten Raster/RT Verhälntis bleibt, AMD kann da in den Treibern nichts patchen.

Denke aber generell, wenn AMD erst Mitte Dezember startet, dann hat das was mit Softwaresupport und Treibern zu tun. Bestimmt nicht mit Herstellung, Ausverkauf der 6000er vermutlich auch nicht.

1 Monat nach der 4080 im Handel werden viele schon wieder das Weihnachtsgeld ausgegeben haben. Das ist nicht clever was AMD da jedes mal macht.

Raff
2022-11-04, 10:27:53
Hehe, Timing. Hier gibt's eine Benchmark-Projektion anhand anspruchsvoller PCGH-Szenen - und Navi 31 konkurriert mit GA102: AMD Radeon RX 7900 XT(X): Alle bekannten Details zur Hardware und Performance-Prognose (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/)

MfG
Raff

Gast
2022-11-04, 10:37:11
jetzt wird wieder so getan als wenn sich jeder eine 4090 oder 4080 kauft. vergleicht die karten vor allem im gleichen preissegemnt, da dürfte amd mehr liefern als nvidia.

rt ist doch immer noch klar zu unbedeutend, solange man auf hybridabsätze rasterisation versus raytracing setzt. amd macht es in der zum teil negativ makroökonomischen lage im markt genau richtig. wer sollte denen ein haloprodukt wie die 4090 zu ihrem preis in ihren dimensionen abkaufen? niemand würde das. im anteile zu steigern muss man vor allem verkaufen.

nvidia hat ein massives preisproblem. zudem stimmt es nicht das die 4090 eine tdp von 450w hat, sie hat eine tp von 600w wenn alle 4 adapteranschlüsse genutzt werdenx selbst nvidia schreibt das so und inwieweit man die rx7000 serie noch undervolten kann weis noch niemand. bei der rx6000 serie ging das wunderbar.

also schon heute zu schreien die 4090 wäre der effizienzsieger ist weit hergeholt, zudem weis niemad wie gut die ki und neuen rt cores bei amd funktionieren. es soll deutliche steigerungen bei der berechnung von traversen und raymengen geben.

einzig der niedrige takt scheint hier ein fragezeichen zu hinterlassen. entweder liegt es am mcm oder amd stapelt sehr tief, hatte eigentlich eine karte mit viel höherer tdp im phetto hat das aber wieder verworfen weil es dafur derzeit keinen markt gibt. dann könnte in rdna3 sogar noch oc potential schlummern.

sie bringen beim speicher genau das was viele wollen, 20gib vram und nvidia aus "geiz ist geil fur viel geld" nie gebracht hat. das speicherdilemma geht also weiter. nun schon in die vierte gen.

kauft euch von mir aus karten fur 2,5 und 1,8k, es bestatigt nvidia nur das die verarsche weitergehen kann. fur alle anderen scheinen die 7900xt und xtx ein gutes angebot zu sein wenn nicbt bis ins letzte nü rt eine rolle spielt. das ist für den grossteil immer noch kein must have oder gamechanger.

vor sllem amd wird wissen was die nachste konsolengen wird leisteny und diese bestimmt zu 100% was am gamingmarkt passiert. da konzentriert sich niemand auf nvidia. zumal man sieht, was deren alleingänge mittlerweile kosten und was sie deshalb für ihre produkte als refinanzierung verlangen müssen um nicbt draufzuzahlen. huang hat auch schon angekündigt das es kein zuruck mehr gibt und es keine fallenden preise mehr gibt. na dann...hau rein nvidia. amd hat dir gerade richtig den stinkefinger gezeigt.

was die 4090 ansich angeht, welche verfügbare gaming cpu schafft es denn derzeit die leistung zu 100% abzurufen? es gibt schlichtweg keine die das könnte. man kauft also ein teures produkt deren leistung man nicht zu 100% abrufen kann. man hängt doch alle nase lang im cpu limit.

Gast
2022-11-04, 11:09:52
Hehe, Timing. Hier gibt's eine Benchmark-Projektion anhand anspruchsvoller PCGH-Szenen - und Navi 31 konkurriert mit GA102: AMD Radeon RX 7900 XT(X): Alle bekannten Details zur Hardware und Performance-Prognose (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/)

MfG
Raff

Danke!
Bei der UVP hättet ihr aber bei der 4090 auch die USD angeben sollen.
So ist es nicht vergleichbar.

Bei RT Prognose ist die 7900XTX sogar noch hinter der 3080TI...

Die Preise der 7900XT und 7900XTX sind somit nicht günstig, sie spiegeln einfach das wieder was die Karten leisten.

Das eine Karte die nur halb so schnell ist nur die Hälfte kostet kann nur von Fanboys gefeiert werden.
Normalerweise kosten die letzten 10,20% Leistung eigentlich sogar überdurchschnitlich viel.
Die 4090 bringt aber sogar (deutlich) mehr fürs Geld (jedenfalls unter RT.)
Das ist für AMD ziemlich nahe am Offenbarungseid.

MiamiNice
2022-11-04, 11:25:26
Eine Projektion ;D
Mit anderen Worten habt ihr irgendwelche Werte genommen und mit dem % Versprechen seitens AMD multipliziert?

Steht bei euch das Wasser schon derart hoch?

Gast
2022-11-04, 11:35:19
Das traurige ist, beim Raytracing erzielt wahrscheinlich Nvidia mit den Mondpreisen sogar noch das bessere Preis-Leistungsverhältnis.

Und die Zeit in der Raytracing eine Nischenanwendung ist ist auch schon lange vorbei, das geht Ende 2022 einfach überhaupt nicht.

Gast
2022-11-04, 11:38:10
Hehe, Timing. Hier gibt's eine Benchmark-Projektion anhand anspruchsvoller PCGH-Szenen - und Navi 31 konkurriert mit GA102.

MfG
Raff
Weil jetzt alle RT in 4K spielen? Wenn interessiert eigentlich 4K? Dieser BS³ der jetzt wieder von den bekannten Redaktionen kommt, oh man. 4K spielt im Gamingmarkt bisher komplett null eine Rolle.

AMD scheint die riesige Menge an GA102 GPUs, die sich noch im Markt befinden und Nv noch verkaufen muss komplett anzugreifen, was auch Sinn macht wenn Nv diese noch ein Jahr lang abverkaufen muss. Sie hätten dort nämlich das größte Potential für Preisanpassungen. Da liefert AMD aus meiner Sicht deutlich mehr zum niedrigeren Preis. Eine 3090ti liegt UVP immer noch auf über 2000 Euro!

Was die Rasterizierungsleistung angeht, ist AMD deutlich schneller als GA102, bietet deutlich mehr Vram als eine 3080/3080ti und niemand weiß was FSR3 bringt. Zudem sind die 7900xt und xtx deutlich effizienter als eine 3090ti.

Eigentlich ist das ziemlich clever, wenn es darum geht in diesen Regionen verkaufen zu können und worauf ein Großteil der Käuferschaft noch wartet. Nvidia muss jetzt die Preise von GA102 deutlich senken, ein Tritt seitens AMD voll in die Mitte? Ich denke schon, GA102 wird für Nvidia zum Dilemma und die Preise bei den Produkten offiziell senken, bedeutet sie abzuwerten, das wird also nicht passieren. Nvidia hat ein riesen Problem! Das wird reichlich kosten...

Ich vermute sogar das sich RDNA3 im Gegensatz zum GA102 oder ADA102 deutlich günstiger fertigen lässt, höhere Yield inbegriffen. RDNA3 ist also ein Produkt aus Wirtschaftlichkeit für die Partner, gesehen am Aufwand der vermutlich auch genügend Potential für den Absatz suggeriert. Der dürfte bei AMDs Partner deutlich niedriger sein und höhere Gewinne versprechen.

Unter CP2077 irgendwelche Benchmarks als Zugewinn zu verkaufen ist auch so ein Ding, jeder weiß das Nvidia sich da zu 100% eingekauft hat und wen bitte interessiert eigentlich noch CP2077. Das Ding ist doch ein Flop! Nur die PCGH berichtet wen möglich täglich über dieser Spiel seit 2 Jahren lang, kein anderer. Ich habe diesen Schrott weder gekauft noch installiert und werde es auch nie.

Sry Raff, aber in letzter Zeit kommt von dir auch nur noch Blödsinn. Änder das wieder! Bis dann...

Raff
2022-11-04, 11:45:34
Eine Projektion ;D
Mit anderen Worten habt ihr irgendwelche Werte genommen und mit dem % Versprechen seitens AMD multipliziert?

Steht bei euch das Wasser schon derart hoch?

Dude, wenn du schon stänkerst, könntest du das doch wenigstens vorher mal durchlesen.

MfG
Raff

Exxtreme
2022-11-04, 12:05:09
Das traurige ist, beim Raytracing erzielt wahrscheinlich Nvidia mit den Mondpreisen sogar noch das bessere Preis-Leistungsverhältnis.

Und die Zeit in der Raytracing eine Nischenanwendung ist ist auch schon lange vorbei, das geht Ende 2022 einfach überhaupt nicht.

Wobei man wiederum sagen muss, in der Masse der Spiele spielt Raytracing jetzt keine Rolle.

https://steamcharts.com/top

Cyberpunk 77, das Spiel mit einer sehr anspruchsvollen RT-Implementierung ist auf Platz 19. X-D Zudem ist das so, die Radeons kacken nur bei RT-Spiegelungen so richtig ab. Nur lassen sich Spiegelungen sehr gut faken. Wenn es um Beleuchtung geht dann sind die Radeons relativ gut.

Gast
2022-11-04, 12:31:56
Wobei man wiederum sagen muss, in der Masse der Spiele spielt Raytracing jetzt keine Rolle.

https://steamcharts.com/top

Cyberpunk 77, das Spiel mit einer sehr anspruchsvollen RT-Implementierung ist auf Platz 19. X-D Zudem ist das so, die Radeons kacken nur bei RT-Spiegelungen so richtig ab. Nur lassen sich Spiegelungen sehr gut faken. Wenn es um Beleuchtung geht dann sind die Radeons relativ gut.

Und für die Spiele die in den Steamcharts oben sind braucht man ne 4090 oder ne 7900XTX?

Für die Masse der Spiele (die laut Steam ja auch in FullHD, maximal WQHD gespielt werden) reicht auch ne 5700XT oder ne 2070 locker aus.
Die häufigste Karte ist eine 1060 laut Steam.

Sorry, aber was für ein Argument soll das sein?
Wir reden hier über HighEnd GPUs für 1000 Dollar bzw. bei Nvidia 1650 Dollar.

Da muss einfach auch bei RT mehr kommen als 3080 Leistung, das ist doch erbärmlich.

Und wenn AMD das nicht schafft sollen sie halt Karten bringen die 400-500 Dollar kosten.
Da kann man dann auch auf RT verzichten.

Aber was sind diese neuen Karten?
High-End? Mit RT auf 3080 Niveau? Haha.
Low-End / Midrange? Dafür ist Rasteriszing zu gut - und damit eben auch der Preis viel zu hoch.

Die Karten sind völlig unbrauchbar.
Hätten sie sich das "High-End" Modell gesteckt und nur ne 7800 gebracht, die 30, 40% mehr Leistung hat und 500 Dollar kostet und es wäre gut gewesen. Das wäre eine interessante Karte gewesen, in diesem Segment könnte man RT noch ignorieren.
Aber so?

Schon bei Zen 4 war außer dem 7950X alles "waste of sand" (zum zocken war der 5800X3D weit besser. Gleiche Leistung für den halben Preis. Für Anwendungen war alles außer dem 7950X Schrott. Und wem der 7950X zu teuer war wurde mit RaptorLake besser bedient.)
Und bei den GPUs geht es mit den nutzlosen Produkten gerade weiter.
Wenn ihr High-End nicht schafft bringt günstige GPUs für 500 Dollar.
Es muss ja nicht High-End sein, scheiß auf High-End.
Oder bringt echtes High-End.
Aber diese 1000 Dollar möchte gern High-End Dinger sind doch einfach Mist.

gastello
2022-11-04, 12:45:08
Dude, wenn du schon stänkerst, könntest du das doch wenigstens vorher mal durchlesen.
Richtig Raff, nur braucht AMD deutlich weniger Strom in Form elektrischer Leistung. Bei Zen2 und 3 habt ihr das noch gelobt, obwohl beide Gens langsamer als Intel waren. 100-150W sind leistungstechnisch eine Mittelklasse GPU und dessen war sich jeder bewusst. Weniger ist vielleicht doch mehr, wobei es nicht nur bei der reinen Leistungsaufnahme bleibt, sondern eben auch Abwärme mit ihren Folgekosten usw.. RDNA3 ist vor allen ein Vernunftsprodukt, für das AMD auch immer wieder mal steht und seine Partner fordern.

Was hält AMD ab in einem Jahr ein MCM mit zwei GPU Dies auf den Markt zu bringen? Die Skalierung wäre klar möglich. Nur derzeit verkauft man soetwas kaum. Für extremste Leistung ist preislich derzeit keinerlei Spielraum auf dem gesamten Markt, ausser vielleicht im HPC China und das man Nvidia das Wasser reichen wollte, hat wer behauptet? Der Hypemob vermutlich, mit Prognosen die kein Hersteller je so bestätigt hat.

Warum jetzt 4K RT und Benchmarks der neue Fokus sind? AMD's Stärken liegen ja eher bei FHD/WQHD, was bei RDNA2 schon so war. Man versucht also den Großteil anzusprechen.

gastello
2022-11-04, 12:57:00
Aber diese 1000 Dollar möchte gern High-End Dinger sind doch einfach Mist.

Man schlägt Nvidia in einigen Belangen und bringt nutzlose Produkte, weil man kein Haloprodukt ala 4090 oder mit endloser Raytracingleistung am Start hat oder auf den Markt bringt, und soll dann alles doch für 500$ verkaufen, ja klar. Das hättest du wohl gerne.:)

Die 1000$ Möchtegerndinger sind preislich weit unter Nvidia, und "vermutlich" (mein Schuß ins Blaue aus meiner Glaskugel) schlagen sie in Razerisation eine 4080-12g locker und dürften sich mit der 4080-16G umherpügeln, für die Nvidia immerhin 1500 Euro verlangt. Erste Hochrechnungen gehen derzeit wohl von 1800 Euro im Markt aus. Nicht zu vergessen darf sich letztere 516 Watt genehmigen. Na dann, viel Spaß damit.

AMD hat gerade dafür gesorgt, dass du "relativ" günstig eine 4070 kaufen kannst. Schreib doch mal "Danke". Immerhin wollte Nvidia dafür 1060 Euro haben.

Gast
2022-11-04, 13:00:35
Richtig Raff, nur braucht AMD deutlich weniger Strom in Form elektrischer Leistung. Bei Zen2 und 3 habt ihr das noch gelobt, obwohl beide Gens langsamer als Intel waren. 100-150W sind leistungstechnisch eine Mittelklasse GPU und dessen war sich jeder bewusst. Weniger ist vielleicht doch mehr, wobei es nicht nur bei der reinen Leistungsaufnahme bleibt, sondern eben auch Abwärme mit ihren Folgekosten usw.. RDNA3 ist vor allen ein Vernunftsprodukt, für das AMD auch immer wieder mal steht und seine Partner fordern.

Was hält AMD ab in einem Jahr ein MCM mit zwei GPU Dies auf den Markt zu bringen? Die Skalierung wäre klar möglich. Nur derzeit verkauft man soetwas kaum. Für extremste Leistung ist preislich derzeit keinerlei Spielraum auf dem gesamten Markt, ausser vielleicht im HPC China und das man Nvidia das Wasser reichen wollte, hat wer behauptet? Der Hypemob vermutlich, mit Prognosen die kein Hersteller je so bestätigt hat.

Warum jetzt 4K RT und Benchmarks der neue Fokus sind? AMD's Stärken liegen ja eher bei FHD/WQHD, was bei RDNA2 schon so war. Man versucht also den Großteil anzusprechen.

Weniger STrom?
Wie kommt man denn auf sowas?
Die 4090 zieht meist 350W.
Was die 7900XTX ziehen wird weiß man noch nicht.

Aber ja, die 4090 wird stock wohl 10, 20% mehr ziehen - bei wieviel mehr Frames? 50%, 100%?
Lovelace ist weit effizienter als RNDA3.

Und "Fokus auf FHD/WQHD": Dafür soll man sich ne 1000 Dollar Karte kaufen???


RDNA3 fällt bei RT noch stärker hinter Lovelace zurück als bei der vorherigen Generation.
Beim absoluten Stromverbrauch ist man nur etwas besser als Nvidia (wobei ich nicht kapiere warum man die 4090 nicht mit 350W gebracht hat - hätte AMD immer noch meilenweit hinter sich gelassen und die plumpen: "Ich schaue auf eine fiktive Zahl" Vergleiche wäre besser gewesen)
Umgerechnet in Frames ist Nvidia ewig weit vorne.


Es muss tief drinnen schon verdammt weh tun als AMD Fanboy diese Karten noch schönreden zu müssen.
Evt. bietet RDNA3 bei den LowEnd Modellen bis 300 Dollar, evt. auch im Bereich bis 500 Dollar irgendwann was attraktives. FullHD, scheiß auf RT, aber dafür sollte es eben auch nur 300, 400 Dollar kosten. Das wäre ne interessante Karte.
Gut möglich, das AMD da was bieten wird, irgendwann 2023. (bei nvidias preisgestaltung wird ja wohl auch eine 4050 500 Dollar kosten - viel zu teuer und die RT Stärke ist in diesem Segment irrelevant.)
Aber die Produkte im Bereich 1000 Dollar sind unbrauchbarer Mist für diesen Preis.

Raff
2022-11-04, 13:07:09
Sry Raff, aber in letzter Zeit kommt von dir auch nur noch Blödsinn. Änder das wieder! Bis dann...

Nein, es kommt einfach mehr, auf allen Kanälen. Schlaf wird überbewertet. ;)

MfG
Raff

hardtech
2022-11-04, 13:07:29
ach diese ganzen high end produkte... langweilig.

wann gibt es die bessere effizienz bei karten unter 200w? so eine schöne 150w karte mit aktuellem herstellungsprozess würde ich gerne kaufen.

Gast
2022-11-04, 13:08:52
.Warum jetzt 4K RT und Benchmarks der neue Fokus sind? AMD's Stärken liegen ja eher bei FHD/WQHD, was bei RDNA2 schon so war. Man versucht also den Großteil anzusprechen.
Man sieht ja an seiner eigenen Estimation, dass die 7900xtx die 4090 in Rasterization und ausgewählten Titeln schlagen wird. In CP2077 performt AMD immer noch schlechter. Das wären 6fps in 4k unter CP2077. Denke das wird in anderen Titeln klar passieren.

Immerhin ist die 7900xtx UVP 950 $ günstiger und braucht 100w weniger. Zudem sind die Karten auch noch günstiger als eine 4080-16GiB, die wird deutlich Federn lassen müssen. This!;)

Nvidia braucht schnellstens eine 4080ti!

In Rasterization ist gegen RDNA kein Kraut gewachsen. Verstehe das Geheule daher nicht. Nvidia wird schon wissen, warum sie sich auf RT fokussieren.

Exxtreme
2022-11-04, 13:15:07
Und für die Spiele die in den Steamcharts oben sind braucht man ne 4090 oder ne 7900XTX?

Für die Masse der Spiele (die laut Steam ja auch in FullHD, maximal WQHD gespielt werden) reicht auch ne 5700XT oder ne 2070 locker aus.
Die häufigste Karte ist eine 1060 laut Steam.

Sorry, aber was für ein Argument soll das sein?
Wir reden hier über HighEnd GPUs für 1000 Dollar bzw. bei Nvidia 1650 Dollar.

Da muss einfach auch bei RT mehr kommen als 3080 Leistung, das ist doch erbärmlich.

Und wenn AMD das nicht schafft sollen sie halt Karten bringen die 400-500 Dollar kosten.
Da kann man dann auch auf RT verzichten.

Aber was sind diese neuen Karten?
High-End? Mit RT auf 3080 Niveau? Haha.
Low-End / Midrange? Dafür ist Rasteriszing zu gut - und damit eben auch der Preis viel zu hoch.


Ja, das ist richtig. Und diese Daten zeigen sehr schön in was für einer Echokammer einige Foristen so drinne sind. ;D


Die Karten sind völlig unbrauchbar.
Hätten sie sich das "High-End" Modell gesteckt und nur ne 7800 gebracht, die 30, 40% mehr Leistung hat und 500 Dollar kostet und es wäre gut gewesen. Das wäre eine interessante Karte gewesen, in diesem Segment könnte man RT noch ignorieren.
Aber so?

Schon bei Zen 4 war außer dem 7950X alles "waste of sand" (zum zocken war der 5800X3D weit besser. Gleiche Leistung für den halben Preis. Für Anwendungen war alles außer dem 7950X Schrott. Und wem der 7950X zu teuer war wurde mit RaptorLake besser bedient.)
Und bei den GPUs geht es mit den nutzlosen Produkten gerade weiter.
Wenn ihr High-End nicht schafft bringt günstige GPUs für 500 Dollar.
Es muss ja nicht High-End sein, scheiß auf High-End.
Oder bringt echtes High-End.
Aber diese 1000 Dollar möchte gern High-End Dinger sind doch einfach Mist.

Ach, völlig unbrauchbar weil sie in einem (!) nicht einmal supertoll programmierten Spiel spürbar langsamer sein werden? ;D

Gast
2022-11-04, 13:27:13
Ach, völlig unbrauchbar weil sie in einem (!) nicht einmal supertoll programmierten Spiel spürbar langsamer sein werden? ;D

Eins? Alle von AMD angegebenen RT Benchmarks waren katastrophal.

Sorry, für ne 1000 Dollar Karte ist das halt Mist.
Unbrauchbar bezieht sich natürlich auf "was bekomme ich für mein Geld"

Wäre das eine 400, 500 Dollar Karte - meinetwegen, aber für 1000 Dollar ist RT auf Ampere Niveau ein NoGo.
Daher: Unbrauchbar.
Wenn einem RT so unwichtig ist kauft man sich ne 6800XT und hat damit eine gute Karte mit super Preis-Leistung.

crnkoj
2022-11-04, 13:31:10
Was für ein EU Preis ist für diese Karten den vorgesehen?

Exxtreme
2022-11-04, 13:40:40
Eins? Alle von AMD angegebenen RT Benchmarks waren katastrophal.

Sorry, für ne 1000 Dollar Karte ist das halt Mist.
Unbrauchbar bezieht sich natürlich auf "was bekomme ich für mein Geld"

Wäre das eine 400, 500 Dollar Karte - meinetwegen, aber für 1000 Dollar ist RT auf Ampere Niveau ein NoGo.
Daher: Unbrauchbar.
Wenn einem RT so unwichtig ist kauft man sich ne 6800XT und hat damit eine gute Karte mit super Preis-Leistung.

Wie die echte Leistung ist weiss doch erstmal niemand. Das waren FSR-Benchmarks, die da angegeben wurden. Ach ja, das waren auch noch Benchmarks in 4K. Und 4K-Auflösungen benutzen nichteinmal 5% der Spieler. Von daher ja, wer RT-Benchmarks in 4K+ laufen lässt, der kann sich ja eine RTX 4090 holen. :)

Mega-Zord
2022-11-04, 13:59:51
Was für ein EU Preis ist für diese Karten den vorgesehen?

Bei aktuellem Kurs würde ich einfach mal von 1.200 EUR inkl. Steuern ausgehen.

Lehdro
2022-11-04, 14:05:43
Eins? Alle von AMD angegebenen RT Benchmarks waren katastrophal.

Sorry, für ne 1000 Dollar Karte ist das halt Mist.
Unbrauchbar bezieht sich natürlich auf "was bekomme ich für mein Geld"

Laut der Extrapolation von Leo wäre das exakt dasselbe P/L was NV anbietet. In RT leicht schlechter, in Raster deutlich besser.

Kann mir da schon andere Konstellationen vorstellen die man als das was du das betitelst bezeichnen könnte.

Gast
2022-11-04, 14:12:16
Aber die Produkte im Bereich 1000 Dollar sind unbrauchbarer Mist für diesen Preis.
Weil Nvidia dafür 1,5k bis 2,5k verlangt, daher sind sie Mist...genau. Oh man...

Die 4090 spart nur weil sie unter DLSS 3 mit FG laufend im CPU hängt, wenn nicht säuft sie ohne Ende. Die ADA waren nur schnell in DLSS3 und nVidia selbst hat sie unter Performancemode gemessen. lol.

Zudem ist der Abstand zwischen 4090 und 4080 riesig. Die 4080 ist RT non DLSS nach Nvidia eignen Benchmark im Schnitt nur 10% schneller als eine 3090/ti. Dieser Framegenrationsmist ala DLSS3 ich ruckel mir einen hin, soll bei AMD auch noch kommen.

Hier guck dir das an: DLSS off ist die 4080 eine komplette Enttäuschung! Vermutlich AMD genausso schnell. Wer macht denn diesen DLSS Perfomance Matsch an nur um dann RT auf Ultra zu prügeln, so ein Schwachsinn. Matschiges Bild aber dafür bessere Schatten, eins passt nicht zum anderen.

https://techrush.de/neue-benchmarks-riesiger-abstand-zwischen-rtx-4090-und-rtx-4080/

Dabei saufen die Dinger voll ausgelastet eine halbe Kilowattstunde aus der Dose.

https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/39.html

AMD hat die TBP max angegeben, nicht was der reguläre Spielverbrauch im Schnitt ist. Max Details RT on in CP2077 säuft die 4090FE=477 Watt! Nur mit DLSS sinkt der Verbrauch auf 355 Watt. Das liegt daran das man dann unter Framegeneration im CPU Limit hängt!!!!!!!!!

Hat techpowerup wunderbar dargestellt!!!!!!! Vielleicht nimmst auch du das mal zur Kenntnis. Und wir reden da von der FE nicht von Customsdesigns, die hart über die Corevoltage beschnitten wird. Schreibe hier doch nicht ständig so einen Mi*t!

Legendenkiller
2022-11-04, 14:43:56
Ich verstehe das gemecker über die RT Leistung nicht.
Das AMD da besser als Nvidia wird wured wirklich von jeden immer ausgeschlossen.
Bestenfalls das sie etwas aufhohlen.

Für alle die maximale RT Leistung haben wollen gibt es bereits eine Grafikkarte die heißt 4090.
Die Einzige Karte die scneller wird ist die 4090ti und dann die 5090 und dann die 5090ti.
Nvidia wird alles tun um damit das schnellst RT zu haben und wenn die Karten 10000€kosten müssen um die schnellste zu haben.

PS: sorry ich versteh dieses sinnlose Diskutieren über AMDs RT Leistung nicht.
AMD hat genau das geliefert was zu erwaren war. Bestenfalls das sie insgesammt noch etwas schneller sein sollte. Aber die 7950XTX mit 3D Cache kommt ja noch. Die dann auch 2000€ Kostet und evtl. 450W hat. Aber auch diese wird die 4090 in RT nicht schlagen.

Gastler
2022-11-04, 14:50:05
Genauso ist es. AMD hat nen deutlich kleineren Die aber die Peak-GHz sind bei beiden mit 2.5GHz angegeben.

Hatten da diverse Leaker nicht von bis zu 3GHz gesprochen? Ich denke weil AMD den Chip nicht auf 3.25GHz prügeln konnte

Kann ja noch kommen mit den Custom-Modellen!
An Nvidia sieht man doch schön wie sieh mit ihrer Gehobenen Referenzkarte absolut jedem Dritthersteller ans Bein pissen und sie verärgern oder zum kompletten hinschmeißen zwingen.
AMD könnte seine Referenzkarte auch tief angesetzt haben als kleiner Einstieg um den Partnern mehr Luft nach oben zu geben.

Gastler
2022-11-04, 14:56:06
Mich schockiert an der Karte eigentlich nur das man nicht mit PCIe5 kommt.
Damit sabotiert man sich doch erst mal die neuen Mutterbretter bei Zen4 komplett
Gibt doch jetzt absolut keinen Grund mehr auf einen "E" Chipsatz zu setzen.
Da stimmt das ganze Ökosystem doch nicht obwohl es aus dem gleichen Haus kommt!

Exxtreme
2022-11-04, 15:00:49
Mich schockiert an der Karte eigentlich nur das man nicht mit PCIe5 kommt.
Damit sabotiert man sich doch erst mal die neuen Mutterbretter bei Zen4 komplett
Gibt doch jetzt absolut keinen Grund mehr auf einen "E" Chipsatz zu setzen.
Da stimmt das ganze Ökosystem doch nicht obwohl es aus dem gleichen Haus kommt!

Naja, eventuell haben sie nachgemessen und gemerkt, dass Pcie5 absolut null bringt. Es gibt ja jetzt schon kaum Performanceunterschiede zwischen Pcie3 und Pcie4. Ich glaube, die Spiele müssten so programmiert sein damit sie von der gesteigerten Bandbreite was haben. Und nein, die E-Chipsätze braucht man eher nicht. Die kosten auch echt viel Geld.

Gast
2022-11-04, 15:44:42
Hehe, Timing. Hier gibt's eine Benchmark-Projektion anhand anspruchsvoller PCGH-Szenen - und Navi 31 konkurriert mit GA102:

Das ist ja das traurige. Und mittlerweile sollte man Raytracing-Benchmmarks auch die höchste Priorität einräumen, und die normalen Rasterizing Benchmarks, der extra Zusatz sein, nicht umgekehrt wie in den letzten Jahren.

Beim Rasterizing gibt es eh mit all diesen Karten genügend Performance, die großen Unterschiede, sowohl Qualitativ als auch bei der Performance, gibt es beim Raytracing, und da kann RDNA3 froh sein überhaupt vor einer 3090 zu landen.

GastFast
2022-11-04, 16:11:54
Ok Leo hat die ja schon Hochgerechnet dann hätte ich ja gestern auch meine FPS Vergleiche zu den von AMD gezeigten Bench mit ein Aktuellen 4090 System posten können xD

Ich bin kein AMD Käufer und hab es auch nicht vor.
Naja wie auch immer, auch wenn AMD Karten für mich nicht interessant sind
muss ich doch sagen das ich zufrieden mit dem bin was AMD Präsentiert hat.

An die enttäuschten hier.
Bin ca. 15 Jahre teilweise mehrmals am Tag hier im Forum aktiv gewesen
und viele von euch sind auch schon lange aktiv,
ich meine wenn ihr doch eins gelernt haben müsstet dann das AMD Hype
immer schon völlig fernab jeglicher Realität gewesen ist :D

Die Karte ist aber wie gesagt scheinbar gut geworden.

ChristianTHB
2022-11-04, 16:15:44
Irgendwie hinterlässt einen das Ganze mit gemischten Gefühlen.
Auf der einen Seite wird von Performancegewinnen mit diversen Multiplikatoren inkl. technischer Erklärung geworben...andererseits kommt das übliche Marketing Blabla zum Einsatz.

Zumindest ist man bei AMD gut aufgestellt was P/L betrifft. Die Raytracing Performance lässt halt wieder ein wenig zu wünschen übrig...war aber irgendwie zu erwarten.

Ich warte jetzt Mal auf den "8k" Ultrawide Monitor von Samsung, der ja in 2023 auf den Markt kommen soll. (wurde auch in der Präsi erwähnt)
Mal sehen wie es dann auf dem GPU Markt aussieht, bis dahin tuts auch noch die 6900XT...

maximus_hertus
2022-11-04, 16:16:02
1 Monat nach der 4080 im Handel werden viele schon wieder das Weihnachtsgeld ausgegeben haben.

Yup, aber nicht für die 4080, sondern für Strom, Gas, etc.

Bei den 1000+ USD Karten geht es weniger um Stückzahlen, als um das Prestige. Die RTX 4000 werden wahrscheinlich weniger als 20%, wahrscheinlich sogar weniger als 10% der Geforce Gaming Verkäufe im November / Dezember ausmachen.

GastFast
2022-11-04, 16:21:22
Das ist ja das traurige. Und mittlerweile sollte man Raytracing-Benchmmarks auch die höchste Priorität einräumen, und die normalen Rasterizing Benchmarks, der extra Zusatz sein, nicht umgekehrt wie in den letzten Jahren.

Beim Rasterizing gibt es eh mit all diesen Karten genügend Performance, die großen Unterschiede, sowohl Qualitativ als auch bei der Performance, gibt es beim Raytracing, und da kann RDNA3 froh sein überhaupt vor einer 3090 zu landen.
Du musst mit RT Bench und gleiches Gewicht so lange warten bis AMD dort aufgeschlossen hat ansonsten ist es doch unfair gegenüber AMD wenn Nvidia da teilweise so viel schneller ist in Max Details Ultra Benchmarkts 🙊🙂

Gast
2022-11-04, 16:48:51
Das ist ja das traurige. Und mittlerweile sollte man Raytracing-Benchmmarks auch die höchste Priorität einräumen, und die normalen Rasterizing Benchmarks, der extra Zusatz sein, nicht umgekehrt wie in den letzten Jahren.

Beim Rasterizing gibt es eh mit all diesen Karten genügend Performance, die großen Unterschiede, sowohl Qualitativ als auch bei der Performance, gibt es beim Raytracing, und da kann RDNA3 froh sein überhaupt vor einer 3090 zu landen.
Die ewige Leier das AMD keine Titan bringt, wer soll ihnen sowas abkaufen. Feinstes Cherrypicking um sich seinen Lieblingshersteller schön zu reden, um deren Preise dann irgendwann doch zu schlucken.

Sag mal bist du noch ganz bei Trost? Raytracing unter DXR/RTX (Montecarlo-Methode) baut komplett auf Rasterization auf, ohne Rasterization derzeit kein Raytracing und um so höher die Rasterizationsleistung ausfällt, um so mehr Zeit bleibt bei fixen Frameraten (60/100/120/144 FPS) RT zu berechnen. Ich glaube du hast das ganze Prinzip an DXR kaum verstanden und trollst hier einfach nur rum, weil du dir eine 3090/ti gekauft hast, die jetzt in Rasterization komplett alt aussieht, schluckt wie ein Sprecht, aber genauso viel kostet wie AMDs neue Gen.

PCIe 5 bringt etwas für Storage (auch da waren sich alle im Vorfeld schon einig) , aber kaum was für GPUs. Da reicht PCIe 3.0 vollkommen.

Nvidia hat sich mit ihren Preisen einen richtig fetten Bock geschossen und nun wird klar warum die 4070 alias 4080-12G in der Versenke verschwunden ist, das Ding haut AMD Nvidia als 4080 komplett um die Ohren. RT lag sie sogar unter der 3080/3090. Diese wunderschöne Karte, Nvidia ist so verlogen!

Leonidas
2022-11-04, 17:19:57
Nein, es kommt einfach mehr, auf allen Kanälen. Schlaf wird überbewertet. ;)

Gääääähnnnnau ;)



Was für ein EU Preis ist für diese Karten den vorgesehen?

US-Preis *1,21 +/- ein paar Rundungen. AMD macht eigentlich immer den exakten Umrechnungskurs + MwSt.

FarCry
2022-11-04, 17:46:06
Das traurige ist, beim Raytracing erzielt wahrscheinlich Nvidia mit den Mondpreisen sogar noch das bessere Preis-Leistungsverhältnis.

Und die Zeit in der Raytracing eine Nischenanwendung ist ist auch schon lange vorbei, das geht Ende 2022 einfach überhaupt nicht.

Wieviel von allen verfügbaren Spielen nutzen denn RT und wieviele davon transformieren den Unterschied in einen "Wow!"-Effekt?
Bin gespannt.

FarCry
2022-11-04, 17:54:12
Mich schockiert an der Karte eigentlich nur das man nicht mit PCIe5 kommt.
Damit sabotiert man sich doch erst mal die neuen Mutterbretter bei Zen4 komplett
Gibt doch jetzt absolut keinen Grund mehr auf einen "E" Chipsatz zu setzen.
Da stimmt das ganze Ökosystem doch nicht obwohl es aus dem gleichen Haus kommt!

PCIe3 wird nur von wenigen Spielen richtig ausgereizt, da wird PCIe4 noch Jahre "halten".
Warum man unbedingt PCIe5 bringen musste... keine Ahnung.

Sabotiert wird hier jedoch gar nichts. Du kannst jetzt PCIe4-Karten kaufen und dann in 2 Jahren mit RDNA4 auf PCIe5 upgraden.
Wenn du es dann unbedingt für nötig hältst. Was ich bezweifeln würde.

Gast
2022-11-04, 17:56:17
Ich versteh das ganze Geheule wegen der Raytracing Leistung überhaupt nicht.

Die Tabelle zeigt doch eindeutig dass AMD bei Raytracing preisnormiert 90% der Leistung von Nvidia bringt und bei Rasterizing ca. 40% oberhalb von Nvidia liegt. Ist doch ein super Angebot für Käufer in diesem Preisbereich, oder kapier ich was nicht ??

Leonidas
2022-11-04, 18:11:23
Das traurige ist, beim Raytracing erzielt wahrscheinlich Nvidia mit den Mondpreisen sogar noch das bessere Preis-Leistungsverhältnis.

Nein, eigentlich nicht - wie genau mit dieser News "nachgewiesen".

Troyan
2022-11-04, 18:42:27
Ich versteh das ganze Geheule wegen der Raytracing Leistung überhaupt nicht.

Die Tabelle zeigt doch eindeutig dass AMD bei Raytracing preisnormiert 90% der Leistung von Nvidia bringt und bei Rasterizing ca. 40% oberhalb von Nvidia liegt. Ist doch ein super Angebot für Käufer in diesem Preisbereich, oder kapier ich was nicht ??

Wenn du noch in 1080p zockst, ja. Ob man dafür 1200€ ausgeben will, kein Plan.

Abgekartetes Duopol
2022-11-04, 18:43:30
Dämmlich teuer. Scheiß Duopol. Rx 7800xt in 7900xt umbenannt (10 % unter dem Vollausbau ist die rx 6800xt auch).
Preis angehoben von 670 Schekel auf 900 Schekel.
"Günstig".
AMDs Führung möchte genau wie Nshitias die rdna 2 Lager abverkaufen, deshalb ist die rx 7900xt aka rx 7800xt mit 900 Schekel diesmal so teuer.

Da ist nichts günstiger als bei Nshitia. Abgekartetes Duopol bei dem Nvidia jedesmal dämmlich überteuerte Preise vorgibt und AMDs Führung sich dann günstiger gibt da man diese dämmlich überteuerten Preise 10 - 20 % unterbietet.
Dafür liefert Amds Führung auch weniger Leistung und Eigenschaften.
Bei nvidia hat man bereits dlss 3 und besseres DLSS 2.
Auch die rtx 4090 bleibt unter 400 Watt in Spielen.

100 % Vermutung das Amds Produktmarge auch auf 60 % geklettert ist. Mit kleinen 5 nm Chiplets liegt
https://www.youtube.com/watch?v=oMcsW-myRCU

Einfach 4/8 GB Vram obenrauf. Welcher rx 7900xt Käufer der spielt benötigt 20/24 GB Vram, selbst unter 4K UHD bei aktuellen Titeln?
Für 8K zu langsam.
Nvidias rtx 4000 ist gleichzeitig ein Quadro Lineup mit Spielegrafiktreibern.
Die Raytracing-Leistung der rtx 4090 (nur ray-path-tracing, kein Mix), liegt > 100 % der rtx 3090 ti. Falls man ein echte ray-path-tracing benchmark verwendet wird sieht man das.
Und bei AMD? Wieder nur 50 - 60 % obendrauf.

Da kann ich als potentieller Kunde wieder nur mit der Brieftasche abstimmen und nicht kaufen, solange bis die Preise stark fallen.

Gast
2022-11-04, 18:44:23
Die Karten sind schon ok, auf dem Papier gleicher Preis, gleicher Verbrauch als die alte gen und über 50% schneller in rasterizing. Hätte auch mehr beim rt erwartet, insbesondere mit den Änderungen der Shader Cluster. Aber tatsächlich gleicher Sprung wie bei rasterizing.
DP 2.1 ist nett, es gibt aber keine (erschwinglichen) Monitore damit und die Karte hat garnicht die Leistung dafür. Die neue Video engine finde ich gut. Die verschiedene Frequenzdomänen finde ich etwas komplizierend - dann hätten die doch gleich weniger shader verpalnen können und alles mit dem gleichen takt betreiben, Fläche sparen.
Und insgesamt war die ganze Vorstellung ein unglaublicher Marketing act...
Bei kolportieren 1200 Euro und der fehlenden Konkurrenz ist die xtx wohl ein ordentliches Produkt. Die XT finde ich aber zu teuer.
Hoffen wir, dass Nvidia dadurch gezwungen wird die 4080 und 4070 im Preis zu reduzieren und eine 4080 Ti auf ad102 gering oberhalb (Preis und Leistung) der xtx zu releasen.

OpenVMSwartoll
2022-11-04, 19:06:51
Wenn du noch in 1080p zockst, ja. Ob man dafür 1200€ ausgeben will, kein Plan.

Oh, die 3090 von Nvidia kann man nur unter FHD benutzen?

FarCry
2022-11-04, 19:06:55
Da kann ich als potentieller Kunde wieder nur mit der Brieftasche abstimmen und nicht kaufen, solange bis die Preise stark fallen.

Kannste machen.
Hast dann aber solange keine vernünftige GK.

Gast
2022-11-04, 19:23:34
Nein, eigentlich nicht - wie genau mit dieser News "nachgewiesen".
PCGH kalkuliert mit weniger als der Hälfte bei RT. Dann hätte die 4090 ein weit attraktiveres Preis-Leistungsverhältnis.

Was stimmt wird man im Dezember sehen.

Ob jemand gerne ca. 1200 Euro für eine GraKa ausgibt um dann bei RT auf dem Ampere-Niveau zu sein (nur fehlt halt auch noch DLSS, was bei Ampere bei 4k manchmal noch notwendig war) muss jeder selber wissen.

Bei so viel Kohle sollte man nicht solche Kompromisse machen müssen finde ich.
Dann lieber ne günstige 6800XT für die Hälfte, der deutlich bessere Deal.
Ohne RT und mit WQHD reicht die auch dicke. (Und wer bei RT keinen Unterschied sieht, sieht auch zwischen 4K und WQHD keinen.)

Gast
2022-11-04, 19:44:10
Wenn du noch in 1080p zockst, ja. Ob man dafür 1200€ ausgeben will, kein Plan.

Für das Geld gibt es bei NV nichts besseres sonders aktuell schlechteres bzw. aktuell sogar gar nichts..

Linmoum
2022-11-04, 19:48:31
Nein, eigentlich nicht - wie genau mit dieser News "nachgewiesen".
AMD wirbt mit "up to" (ganz wichtig!) 1.6x bei RT. Also lassen wir es im Mittel eher +50% sein. Damit knackt man im Mittel keine 3090Ti, in vielen Titeln verliert man mit sowas auch gegen eine 3080.

Laut CB ist die 4090 rund +70% vor der 3090Ti. Wer 1:1 zusammenzählen kann bei der 7900XTX, die langsamer als die 3090Ti bei AMDs eigenen Benchmarks ist, und die UVP-Differenz berücksichtigt (+60% der 4090), sieht, dass die 4090 hier mehr fps/$ bietet.

Im Mittel wohlgemerkt anhand von AMDs Benchmarks. Real vielleicht sogar etwas weniger und in diversen Titeln dann auch wieder deutlich >2x Rückstand wie schon jetzt mit RDNA2...

Gast
2022-11-04, 19:53:25
Vielleicht sollte AMD mal die Kollegen der Konkurrenz (https://www.youtube.com/watch?v=_A8OxhTNE_I) fragen, wie man Echtzeitraytracing in HW (https://www.youtube.com/watch?v=uxE2SYDHFtQ) beschleunigen kann. Chiplets wären ideal für Raytracing geeignet, da es viel besser skaliert als Rasterizing. AMD könnte das Package mit Chiplets vollpacken bis z.B. 1000 Rays pro Pixel @4K60hz erreicht sind. Die Performance beim Rasterizing wäre dann nicht mehr so wichtig.

Troyan
2022-11-04, 20:19:27
Für das Geld gibt es bei NV nichts besseres sonders aktuell schlechteres bzw. aktuell sogar gar nichts..

Who cares? Dank dem heutigen Euro hättest du vor zwei Jahren die Leistung zum selben Preis haben können. Oder hättest dich vor ein paar Wochen mit einer 3090 für 1000€ bis 1100€ eingedeckt.

Du bekommst hier zwei Jahre nach der 3090 bissl mehr Rasterizing-Leistung und die selbe Raytracing-Leistung beim selben Verbrauch für vielleicht 300€ weniger.

TwoBeers
2022-11-04, 20:32:53
Wieviel von allen verfügbaren Spielen nutzen denn RT und wieviele davon transformieren den Unterschied in einen "Wow!"-Effekt?
Bin gespannt.

Das sehe ich auch so.

NVidia hat das clever gemacht. Die haben vor ein paar Jahren erkannt, dass RT kommen wird und enorm Leistung fressen wird. Also haben sie extra HW Einheiten dafür in die Gaming Chips gebaut (bzw. kann man die Tensor Cores auch noch für andere Aufgaben verwenden).
Und gleichzeitig sind sie zu den Game Studios gegangen und haben dort den SW Entwicklern die Tools und Bibliotheken für ihre Umsetzung in die Hand gegeben.

AMD hinkt da einfach gewaltig hinterher, die bauen zwar tolle HW, vergessen aber gerne die Entwicklungsstudios.
Zumindest in der RNDA3 Show hatten sie ja jetzt einige Entwickler mit an Bord. Vielleicht findet da langsam ein Umdenken statt. Trotzdem haben sie keine extra RT Recheneinheiten.
Vielleicht braucht man ja auch gar keine extra Einheiten dafür, wenn man es richtig in SW umsetzt. Aber das muss sich erst noch zeigen.
Solange wird nVidia noch vor AMD liegen, bei der RT Leistung. Wahrscheinlich auch bei der nächsten Generation.

Und das wird nVidia weiterhin ausnutzen. Also AAA Titel bekommen extra RT Effekte, die zwar kaum besser aussehen, aber AMD hat da keine Chance.

Ich habe momentan ca. 30 Spiele installiert, von denen benutzen drei (SotTR, Metro Exodus, WoW) RT. Es sieht nicht besser aus, auf Screenshots vielleicht, im Spiel für mich nicht wahrnehmbar. Kostet aber Unmengen an fps und treibt die Leistungsaufnahme nach oben.
Der Rest ist sowas wie UBOAT, Raft, Zomboid, MS Flight Simulator, RDR2, Foxhole, No Man's Sky, Satisfactory. Die findet man in Benchmarks kaum und die benötigen nur Rasterizer Leistung.

Und da hat AMD eindeutig das bessere Performance/$ und Performance/W Verhältnis, mal wieder.
Trotzdem kann man mit einer 6900XT diese Generation wohl gut auslassen und auf den Kampf Geforce 50x vs. Radeon 89x schauen. :)

P.S. Ich würde gerne mehr RT sehen, aber dann halt auch richtig, Entweder hat man im Moment überzogene Effekte wo alles (Pfützen, Lack, Glasscheiben) aussehen wie ein Spiegel oder man sieht halt den Unterschied zu Rasterizer nicht.

FarCry
2022-11-04, 20:50:40
Und da hat AMD eindeutig das bessere Performance/$ und Performance/W Verhältnis, mal wieder.
Trotzdem kann man mit einer 6900XT diese Generation wohl gut auslassen und auf den Kampf Geforce 50x vs. Radeon 89x schauen. :)


This.

Wer die letzten Prozentpunkte benötigt, damit er aktuell den längsten hat, der greift zu ner 4090 und damit sehr tief in die Geldbörse.
Gut, er kann Control dann in 220 statt 180 fps zocken... wers braucht.


P.S. Ich würde gerne mehr RT sehen, aber dann halt auch richtig, Entweder hat man im Moment überzogene Effekte wo alles (Pfützen, Lack, Glasscheiben) aussehen wie ein Spiegel oder man sieht halt den Unterschied zu Rasterizer nicht.

Exakt das war auch mein Gedanke.
Wenn RT mal wirklich "echt" aussehen würde, und wenn wirklich viele Spiele (>500) das vernünftig nutzen würden... ja, dann könnte man mal darüber nachdenken, RT als Kriterium für einen GK-Kauf hinzuzunehmen.

Bis dahin kann ich auf Spiegelpfützen und blankpolierte Glasscheiben verzichten.

FarCry
2022-11-04, 20:53:07
Vielleicht sollte AMD mal die Kollegen der Konkurrenz (https://www.youtube.com/watch?v=_A8OxhTNE_I) fragen, wie man Echtzeitraytracing in HW (https://www.youtube.com/watch?v=uxE2SYDHFtQ) beschleunigen kann.

Wozu?
Solange RT aussieht, als wäre ne 10-Liter-Flasche Meister Proper durchs Spiel gesuppt, kann man locker drauf verzichten.

Linmoum
2022-11-04, 20:58:01
Wenn RT mal wirklich "echt" aussehen würde

Bis dahin kann ich auf Spiegelpfützen und blankpolierte Glasscheiben verzichten.

Solange RT aussieht, als wäre ne 10-Liter-Flasche Meister Proper durchs Spiel gesuppt

Ich weiß ja nicht, was du bisher gespielt hast, aber diese an den Haaren herbeigezogene und schlicht falsche Pauschalität entwertet deine ganzen Posts und hat ein ordentliches Geschmäckle, wenn du "argumentierst". ;)

Troyan
2022-11-04, 21:16:17
This.

Wer die letzten Prozentpunkte benötigt, damit er aktuell den längsten hat, der greift zu ner 4090 und damit sehr tief in die Geldbörse.
Gut, er kann Control dann in 220 statt 180 fps zocken... wers braucht.


Nö, er kann Control mit Raytracing mit mehr als 60 FPS in 4K zocken: https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/34.html

Gast Ritis
2022-11-04, 22:04:28
Macht doch mal Pause wegen dem Raytracing.

Das lohnt doch noch garnicht sich darüber in die Haare zu kriegen. Denn die neuen Features von RDNA3 müssen ja erst mal in die Games gepatcht werden bevor dort der Vergleich mit Ampere möglich ist. Bei Lovelace siehts genauso aus.

Dort wo AMD die Entwickler zum Nachbessern bringt wird man sicher mit den +80% der XTX die letze Nvidia-Gen überholen. Sollen dann alle Entwickler was zusammenbasteln das nur noch auf Lovlace Micromeshes läuft und auf ner 3090ti nicht mehr?
Wird nicht passieren. Lovelace Mehrleistung wird nur in besonderen Fällen zu bestaunen sein. Deshalb hat Nvidia doch den RC-Flitzer programmieren lassen und CP2077 wird noch angepasst. MetroExodus wäre dann der nächste Kandidat, mal sehen was von Nvidia für die Lovelace-Käufer noch kommt. Wie zuletzt auch, das braucht viele Monate wenn nicht Jahre Zeit.

Raytracing Mainstream wird Ampere nicht ignorieren können. Dafür wird RDNA3 allemal gut genug sein. Mit FSR3 dann sowieso, ganz nach Nvidias Vorbild.

FarCry
2022-11-04, 22:17:00
Ich weiß ja nicht, was du bisher gespielt hast, aber diese an den Haaren herbeigezogene und schlicht falsche Pauschalität entwertet deine ganzen Posts und hat ein ordentliches Geschmäckle, wenn du "argumentierst". ;)

Ganz wie du meinst. ;)

Ich will auch keinem davon abraten, sich die entsprechende GK zu kaufen und RT reinzuziehen. Wer drauf steht... ist doch Ok.

Jedoch eine Technologie in den Kinderschuhen als "bahnbrechend" hinzustellen oder sogar als ausschlaggebendes Kriterium für einen Test/Kauf zu fordern nur weil es in 0,05% aller Spiele implementiert ist, finde ich schon recht dreist.

crux2005
2022-11-04, 22:32:31
Und für die Spiele die in den Steamcharts oben sind braucht man ne 4090 oder ne 7900XTX?

Für die Masse der Spiele (die laut Steam ja auch in FullHD, maximal WQHD gespielt werden) reicht auch ne 5700XT oder ne 2070 locker aus.
Die häufigste Karte ist eine 1060 laut Steam.

Sorry, aber was für ein Argument soll das sein?
Wir reden hier über HighEnd GPUs für 1000 Dollar bzw. bei Nvidia 1650 Dollar.

Da muss einfach auch bei RT mehr kommen als 3080 Leistung, das ist doch erbärmlich.

Und wenn AMD das nicht schafft sollen sie halt Karten bringen die 400-500 Dollar kosten.
Da kann man dann auch auf RT verzichten.

Aber was sind diese neuen Karten?
High-End? Mit RT auf 3080 Niveau? Haha.
Low-End / Midrange? Dafür ist Rasteriszing zu gut - und damit eben auch der Preis viel zu hoch.

Die Karten sind völlig unbrauchbar.
Hätten sie sich das "High-End" Modell gesteckt und nur ne 7800 gebracht, die 30, 40% mehr Leistung hat und 500 Dollar kostet und es wäre gut gewesen. Das wäre eine interessante Karte gewesen, in diesem Segment könnte man RT noch ignorieren.
Aber so?

Schon bei Zen 4 war außer dem 7950X alles "waste of sand" (zum zocken war der 5800X3D weit besser. Gleiche Leistung für den halben Preis. Für Anwendungen war alles außer dem 7950X Schrott. Und wem der 7950X zu teuer war wurde mit RaptorLake besser bedient.)
Und bei den GPUs geht es mit den nutzlosen Produkten gerade weiter.
Wenn ihr High-End nicht schafft bringt günstige GPUs für 500 Dollar.
Es muss ja nicht High-End sein, scheiß auf High-End.
Oder bringt echtes High-End.
Aber diese 1000 Dollar möchte gern High-End Dinger sind doch einfach Mist.

Sehe das wie der Gast. Habe mich schon gestern gewundert wer die Zeilgruppe für 7900XT(X) sein soll. Wird IMHO nicht viele geben.

Die 7900 XT wäre für 749 USD (150 billiger) eine attraktive upgrade Karte.

Abgesehen davon finde ich die Namen schecht gewählt. Die XTX sollte einfach 7900 XT sein und die XT sollte eine 7800 XT sein.

Calypso
2022-11-04, 22:37:42
Die Leaker sind nunmehr trotz sicherlich korrekt vorhergesagter technischer Daten zum zweiten Mal bei der Performance-Prognose um ein gutes Stück daneben (zu optimistisch) gelegen – inzwischen sollte man wohl überlegen, deren Angaben mit einem "Leaker-Offset" zu betrachten.


Vielleicht sind die Leaker auch von nvidia "bezahlt" - für nvidia wird vorher immer zu gering geschätzt und alle "Boah", "geil", "yeah" und bei AMD wird vorher ein Hypetrain ohne Ende gefahren, den AMD jedesmal verliert, weil die Erwartungen durch die Leaker zu hoch gesteckt worden...

Gast
2022-11-04, 22:45:47
Für totale Raytracing reflections überall in nem Nichtschlauchspiel gut, konsequent und glaubwürdig sind die CPUs und der Ram zu lahm und werden es immer bleiben und für Pathtracing werden die GPUs immer zu lahm bleiben. Also wird man es immer als Gimmick anflanschen oder bei paar ausgewählten Schlauchspielen und Tech-Arenen anwenden. Vom jetzigen Fertigungsstand lässt sich vielleicht bis 2030 noch mal wohlwollend betrachtet die Effizienz verdoppeln und bei der TDP ist heute schon nicht mehr viel Luft nach oben. Kann man sich ausrechnen, wie weit man mit 2,5-3-facher, oder machen wir ganz optimistisch Vierfache draus, Leistung einer RTX 4090 kommt und sich damit dann die feuchten Raytracing-Ergüsse endlich ohne Kompromisse in die Realität umsetzen lassen oder es nur ein weiteres verwaistes Geldvehikel von nvidia wird, was in Erinnerung bleiben wird, schwer die Framerate zu malträtieren. Physx ist so ein Fall gewesen, ein Mahnmal, mit wohl das letzte Mal in Batman Arkham Knight implementiert und sich dort als "krönenden" Abschluss manifestierend. Gerade der interagierende Rauch setzt heute noch der Bildrate mächtig zu, auch mit aktuellen Nvidia-Beschleunigern, bei recht überschaubarem Zugewinn. Oder die komplett verbuggte und stellenweise heftigst verruckelte Umsetzung in Mafia 2.

TwoBeers
2022-11-04, 23:05:38
Vielleicht sind die Leaker auch von nvidia "bezahlt" - für nvidia wird vorher immer zu gering geschätzt und alle "Boah", "geil", "yeah" und bei AMD wird vorher ein Hypetrain ohne Ende gefahren, den AMD jedesmal verliert, weil die Erwartungen durch die Leaker zu hoch gesteckt worden...

Hey, interessante Theorie. Ganz so abwegig ist das nicht.
Wenn ich ein Marktführer wäre und weiß, dass mein Mitbewerber nicht an mich herranreicht, dann hype ich den vorher hoch, um dann noch besser dazustehen.
Es würde mich nicht wundern, wenn einige der "Leaker" dann doch Informationen von der anderen Seite bekommen (gilt für AMD wie für nVidia).
Nur denke ich, dass nVidia wahrscheinlich das größere Budget für solche Aktionen hat und damit einfach mehr Reichweite.
Würde erklären warum AMD immer gerne viel zu hoch gehypt wird und sie es dann nicht halten können (oder siehe Vega, Raja hat sich ja gefreut und ist dann auf die Nase gefallen, und jetzt bei Intel noch ein Mal).

Schekel-Huang ist clever
2022-11-04, 23:21:02
Das sehe ich auch so.

NVidia hat das clever gemacht. Die haben vor ein paar Jahren erkannt, dass RT kommen wird und enorm Leistung fressen wird. Also haben sie extra HW Einheiten dafür in die Gaming Chips gebaut (bzw. kann man die Tensor Cores auch noch für andere Aufgaben verwenden).
Und gleichzeitig sind sie zu den Game Studios gegangen und haben dort den SW Entwicklern die Tools und Bibliotheken für ihre Umsetzung in die Hand gegeben.

...
Nvidia macht das hauptsächtlich aus einem ganz anderem Grund:
Die Käufer von Nvidias rtx Grafikkarten queerfinanzieren nämlich seit Beginn des RTX 2000 lineups die Quadro Karten gleich mit.

@Leonidas
Ist das niemandem aufgefallen?
Deren jährliche Finanzberichte zeigen dass die Quadro-Sparte seit Jahren zurückgeht.
Was hat Nvidias Führung gemacht? Die rtx 3090 mit dickem 24 GB Vram ist nicht anderes als eine RTX-Quadro Karte mit Spielegrafiktreibern.
RTX 4090 umso mehr.
Anders ausgedrückt hat man aus dem RTX-Spielelineup eine RTX-Quadro Lineup gemacht.
500 Millionen Entwicklungskosten bei Nvidia für Hardware und Software bezüglich Raytracing? Kein Ding, die Käufer von Spielegrafikkarten (ob desktop, laptop, mobile) finanzieren das seit rtx 2000 alle mit, obwohl es jährlich vllt. 10 - 20 Spiele mit Raytracing gibt.



Mit rtx 4090 gibt es satte + 150 % mehr an Transistoren und +30 - 40 % merh Clocktack und viele ander Dinge, aber nur jämmerliche 70 % mehr Rasterleistung?
Das Argument "skaliert nicht linear" ist ausgelutscht. So schlecht skalieren kann keine Architektur und total dumm sind die Angestellten auch nicht.
Wohin gehen die ganzen Transistoren?
Richtig. In Raytracing und Tensorcores und Technik wie Dlss 3.
Genau diese Raytracing- und Tensoreinheiten nutzen die Entwickler und Programme.

Geschätzt sind doch 1/3 der rtx 4090 transistoren nur für raytracing und tensor cores da. Mit rtx 3080, 3070, 4080, 4070 etc. ist es auch so.
Die haben einfach nur weniger VRAM und sind deswegen für amateur-semiprofesionalle Entwicklung nicht relevant.
Queerfinanzieren tun es aber alle Spielekäufer, selbst wenn diese eine rtx 2060 kaufen.
Verwendet es der Spielekäufer? Nöö.
Scheiß egal, die vielen Millionen Entwicklungskosten bezahlt er einfach mit,.

Das ist perfide: Jeder RTX Spielekäufer, ob es möchte oder nicht, queerfinanziert die Quadro-Entwicklung, Raytracing Entwicklung und deren profesionelles Umfeld.
Das alte Argument dass man bei Nvidias rtx-GPUs für nicht verwendete Transistoren dennoch mitbezahlt, aber in Wirklchkeit geht es um jährliche hunderte Millionen an Entwicklungskosten in Hardware und Software, Quadro-Lineup und dem semi-professionellem Umfeld.

Scheiße clever hat es Lederjacke und Führung gemacht.


Ob AMDs rx 7000 Lineup weiterhin 50 - 100 % hinter dem rtx 4000 Lineup in Sachen Raytracing bleiben wird, ist doch scheiß egal. Bei < 0.1 % jährlich Spielen ist das sowas von irrelevant.
Das erkenne ich auch spätetens daran, da raytracing, egal wie sehr Nvidias Führung die Marketingtrommel rausholt und Entwicklern Geld & Tools gibt, weiterhin eine Nische bleiben wird.
Und diese wird sie solange bleiben bis die nächste Konsolengeneration 2027+ herauskommt.
Perfides Spiel was Nvidia da treibt. Da kaufe ich lieber AMD. Queerfinanzieren tue ich da nichts.

Ich könnte auch sagen die rtx Spielekäufer sind alle etwas dämmlich.
Finanzieren etwas mit was irrelevant ist und es noch für Jahre bleiben wird,. obendrein eine andere Unternehmenssparte.
AMD macht es clever und schiebt eine ruhige Kugel bezüglich Raytracing, und bietet da mehr Leistung wo momentan benötigtwird, nämlich Rasterleistung.

Gast
2022-11-05, 00:26:14
Wozu?
Solange RT aussieht, als wäre ne 10-Liter-Flasche Meister Proper durchs Spiel gesuppt, kann man locker drauf verzichten.

Je mehr Rays pro Sekunde zur Verfügung stehen, desto realistischer kann gerendert werden. Das hängt aber auch von den Assets und der verwendeten Engine ab.
https://www.youtube.com/watch?v=xKEWWYBAJPo&t=340

Gast
2022-11-05, 02:36:18
Wie die echte Leistung ist weiss doch erstmal niemand.


AMD wird sie wohl kaum schlechter als in der Realität angeben.


Das waren FSR-Benchmarks, die da angegeben wurden.


Es waren nicht nur FSR benchmarks, in den FSR-Benchmarks ist auch die Leistung ohne FSR mit angegeben, wenn auch gut versteckt, und die Skalierungsbenchmarks sind laut AMD ohne FSR.

Warum ist auch klar, FSR schmälert ja logischerweise die Skalierung, nur blöderweise kommt man ohne FSR immer noch nicht auf spielbare Frameraten, und wenn man eine Steigerung von 10 auf 17FPS angibt sieht es halt immer noch ziemlich blöd aus, auch wenn es mehr als von 40 auf 60FPS sind.

FSR2 büßt auch unter Quality im Gegensatz zu DLSS deutlich an Qualität ein, und, und die gezeigten Benchmarks die gerade mal im angenehm spielbaren Bereich liegen wurden mit FSR Performance erzeugt.

Gast
2022-11-05, 02:37:41
Laut der Extrapolation von Leo wäre das exakt dasselbe P/L was NV anbietet.

Das ist ja das schlimme, da ist eine Karte um 60% teurer und bietet mit RT immer noch das (leicht) bessere P&L-Verhältnis.

Genau das zeigt ja wie dermaßen lahm die Karte mit RT ist.

Gast
2022-11-05, 02:43:51
Nein, eigentlich nicht - wie genau mit dieser News "nachgewiesen".

Von nachgewiesen würde ich ohne unabhängige Benchmarkzahlen noch nicht reden, Geschätzt wäre eher angebracht.

Und diese Schätzung zeigt, dass AMD beim P&L-Verhältnis mit Raytracing um ca. 5-10 Prozentpunkte zurückliegt.

Gast
2022-11-05, 02:44:45
Wieviel von allen verfügbaren Spielen nutzen denn RT und wieviele davon transformieren den Unterschied in einen "Wow!"-Effekt?
Bin gespannt.

Zu viele um sie zu zählen, dürfte bestimmt schon eine dreistellige Zahl sein.

Gast
2022-11-05, 02:56:35
Jedoch eine Technologie in den Kinderschuhen


Die Technologie gibt es schon seit dem vorherigen Jahrtausend, den Kinderschuhen ist die schon lange entwachsen.

Raytracing ist auch alles andere als eine bahnbrechende Technologie, die ist wie gesagt schon lange bekannt, inklusive deren Vorteile und dem enormen Leistungshunger.
Bahnbrechend sind die modernen Upscalingalgorithmen welche den enormen Leistungshunger von Raytracing erst bändigen können.
Im Gegensatz zu Raytracing, was schon vor den ersten 3D-Beschleunigern verwendet wurde und es immer nur eine Frage der Zeit war, wann dieses schnell genug für Echtzeit wird, hat wohl vor 10 Jahren noch kaum jemand gedacht, dass wir jemals derartig hochwertige Upscalingalgorithmen haben werden.


als "bahnbrechend" hinzustellen oder sogar als ausschlaggebendes Kriterium für einen Test/Kauf zu fordern nur weil es in 0,05% aller Spiele implementiert ist, finde ich schon recht dreist.

Wieviele Spiele wollen wir da mitzählen? Die Prozentzahl ist komplett irrelevant, beinahe alle AAA Spiele verwenden mittlerweile Raytracing, und sogar eine gar nicht so geringe Anzahl an "Indie"-Spielen, wobei man letzteres vor allem Nvidias großartigen Entwicklersupport verdanken.

Gast
2022-11-05, 03:00:36
Geschätzt sind doch 1/3 der rtx 4090 transistoren nur für raytracing und tensor cores da.

Bei Turing waren es <10% des SM, und <5% des gesamten Grafikchips.

Der Anteil ist mit Ampere und Lovelace sicher gewachsen, aber garantiert nicht auf 1/3 des Grafikchips.

Es würde mich wundern wenn sich der Anteil mehr als verdoppelt hätte, und das wären immer noch keine 10% der GPU.

Leonidas
2022-11-05, 04:55:46
Macht doch mal Pause wegen dem Raytracing.

Dafür :up:

Es ist gut, die ganzen verschiedenen Meinungen zu lesen - aber man muß sich dafür nicht in die Haare kriegen.




@Leonidas
Ist das niemandem aufgefallen?

Interessanter Gedanke. Ist Echtzeit-RT bei Quadros so wichtig? Die haben doch in aller Regel andere Anforderungen bezüglich Qualität, dafür aber auch mehr Zeit zum Rendern (eben kein Echtzeit).





Und diese Schätzung zeigt, dass AMD beim P&L-Verhältnis mit Raytracing um ca. 5-10 Prozentpunkte zurückliegt.

Korrekt. Aber das ist dann keineswegs mehr ein "großer" Unterschied.

Gast
2022-11-05, 05:24:14
Die arme RT-Sau ist ja schon ganz grün und blau geprügelt von den NVidia-Fans...

Was mich betrifft, das einzige noch zu zockende RT-fähige Spiel bei mir ist derzeit CP2077. Dafür mehrere Hundert Euro zusätzlich aus dem Fenster zu werfen wäre schlichtweg kompletter Schwachsinn.

Control hatte ich auch noch schon vor längerem ganz gut ohne RT überlebt. Aber dort gefällt mir der wuselige, dauerhafte, superreflexierende Ameisenhaufen sowohl bei RT als auch ScreeSpace auf dem Bildschirm einfach generell nicht.
Ich schalte in dieser Beziehung auch immer wenn möglich den ganzen Filmgrain-Quark ab.

RT ist immer noch in den Showcase-Babyschuhen, wie seinerzeit Tesselation mit ATis TruForm (kaum genutzt) oder T&L bei NVidias GeForce 256 (Die Kyro 2 bsw. war auch ohne T&L konkurrenzfähig) und mir immer noch sowas von völlig egal. Das ganze hat schlichtweg auch immer noch keine spielerische Relevanz, obwohl die Technik gewisse Möglichkeiten eröffnen würde, ausser alles nutzlos übertrieben zu verspiegeln. Wer das will, meinetwegen, soll er.

Für mich aber ist die Entscheidung sehr leicht gefallen, zugunsten der Radeon 7900 XTX, da für mich nun mal in 99.9% der Spiele Rasterpower und viel Grafikspeicher bei gleichzeitig hoher Effizienz entscheidend ist. Und obendrauf stehen die Chancen ganz gut, dass der Treiberoverhead bei Radeon weiterhin kleiner ist, was die GPU in CPU-limitierten Szenen vielleicht etwas besser auslastet. Und diese wird es auch auf der Radeon oft geben.
Hier stellte AMD derzeit nun mal ein konkurrenzlos gutes Paket ab, da sie preislich ein wesentlich interessanteres Angebot machen als die Konkurrenz.

FarCry
2022-11-05, 06:34:50
Die Technologie gibt es schon seit dem vorherigen Jahrtausend, den Kinderschuhen ist die schon lange entwachsen.


Das ist mir bewusst.

Für mich steckt es jedoch immer noch in den Kinderschuhen, weil man dem Ziel, ein Spiel echter aussehen zu lassen, nur marginal nähergekommen ist:
https://www.youtube.com/watch?v=F4HkXEzzcRw&t=359s

Raytracing ist auch alles andere als eine bahnbrechende Technologie, die ist wie gesagt schon lange bekannt, inklusive deren Vorteile und dem enormen Leistungshunger.


Welche Vorteile sollen das denn sein? Für DEN Leistungshunger hätte ich auf der anderen Seite gerne einen bunten Strauss von Vorteilen ggü Rasterization. Ich bin ganz Ohr.


Wieviele Spiele wollen wir da mitzählen? Die Prozentzahl ist komplett irrelevant, beinahe alle AAA Spiele verwenden mittlerweile Raytracing, und sogar eine gar nicht so geringe Anzahl an "Indie"-Spielen, wobei man letzteres vor allem Nvidias großartigen Entwicklersupport verdanken.

Weder ist die absolute noch die Prozentzahl irrelevant. Lass es 100 sein, die RT unterstützen: es ist immer noch ein Nischenprodukt, weil es locker über 10.000 Spiele auf dem Markt gibt.

Und ich hätte gerne immer noch ein Spiel genannt, wo es diesen "Wow!"-Effekt gibt. Wo man einen superkrassen Unterschied sieht, wo es sich also trotz des Leistungshungers echt lohnt RT einzuschalten, wo RT das Spiel um mind. eine Dimension "echter" aussehen lässt und wo nicht alles aussieht wie abgeleckt und blankgeputzt.

Dafür :up:

Es ist gut, die ganzen verschiedenen Meinungen zu lesen - aber man muß sich dafür nicht in die Haare kriegen.

Tun wir nicht. Wir diskutieren.
Wer nicht mitlesen möchte, muss das nicht. ;)

TheGood
2022-11-05, 08:43:08
Sinnvolle Anwendungsszenarios für RT sind vor allem Global Illumination und das läuft komischerweise ganz gut auf RDNA2 und Schatten (läuft glaub auch noch ganz OK) und dann kommen noch die ganzen korrekten Spiegelungen (läuft auf RDNA2, eher schlecht als recht.)

Das Problem von RT ist, dass alle diese Anwendungen bereits hervorragend funktionierende FAKE Lösungen hat. Die Konseqeuenz daraus ist, dass es für die User keinen WOW Effekt gab und es von daher RT bis heute nicht in den massenmarkt geschafft hat.
Einfahc mal damals die Vergleichsvideos ansehen mit den RT ON und RT Off und staune dass man am anfang nicht viel unterschied sah. Lag auch daran, dass man sich am Anfang maximal auf die Spiegelungen konzentriert hat.
Gott sei Dank hat das ein Ende gefunden.

Inwzsichen ist der Fokus klar auf GI und Schatten gefallen, was ja auch durchaus Sinn macht. Warum, weil das dem Entwickler viel Arbeit erspart und zu einer besseren overall Qualität führen würde. Hat aber immer noch das Problem dass der Großteil der User es nicht merkt... aber es ist und bleibt der nächste logische Schritt.

Zusätzlich ist die Verbreitung von RT im massenmarkt minimal, d.h. für die Entwickler doppelte Arbeit (RT und Fake implementierung) damit verlangsamt sich die Fortentwicklung natürlich maximal.

Ich vermute sobald die ersten PS5 und XBOX S/X native spiele entwickelt werden, gibt es mal als minimum requirement RT ein. Und ab dann geht es erst richtig los.


Einfach mal den WOW Effekt vergleichen als man das erste UE5 Demo gesehen hat und die ersten RT Demos. Dann ist doch alles geschwätzt....

Hammer des Thor
2022-11-05, 09:57:19
Weil jetzt alle RT in 4K spielen? Wenn interessiert eigentlich 4K? Dieser BS³ der jetzt wieder von den bekannten Redaktionen kommt, oh man. 4K spielt im Gamingmarkt bisher komplett null eine Rolle.


Als vor gut 10 Jahres das Crowdfunding für Star Citizen und Squadron 42 begann sagte Chris Roberts, dass das auf 4K optimiert würde! Vor 10 Jahren war das angekündigt und spielt immer noch im Gaming Markt keine Rolle? Ich bin Backer von SC und möchte dass eine Graka da in 4K anständig performt, will mir auch 4K Moni zulegen.

Gast
2022-11-05, 10:31:52
also wenn man den estimatebalken der pcgh traut, wird die rasterleistung einer xtx weit über der 4080 liegen, in schlagdistanz zur 4090. rt plus 50% in amd eigenem vergleich, wird wohl eher auf 3090ti niveau liegen oder auch mal leicht drüber. rt als feature bleibt bisher ein gimmick und die werden schon anhand der gesammelten metadaten wissen, wer das überhaupt einschaltet. der grossteil tut es wahrscheinlich nicht.

wenn man sich den absatz der rt fähigen hardware auf nvidia seite anschaut, sitzt dort der grossteil auf alten gens, zumeist ab pascal. ampere hat sich an gamer doch kaum verkauft. genau die profitieren nicht von der rt leistung und dlss3 feature neuerer gens. dort wird fsr3 und xess einschlagen. eigentlich ein armutszeugnis für nvidia was man auch an den letzten geschäftszahlen sah.

weniger verkaufen bei höheren preisen und höherem gewinn, bedeudet letztlich kaum eine basis im markt/marktdurchdringung zu haben die neuere feature ausführen kann, jedenfalls so das es auch spielbar ist. wurde vor langer zeit hier schon geschrieben nennt sich innovationsstau beim Anwender der nicht gewillt ist, für solche gimmicks riesige summen für die hardware zu bezahlen die das ausführen kann.

die rt basis im markt ist also vor allem auf basis der rtx2000 serie vorhanden und die schlägt amd schon mit rdna2.

die 4090 soll auch wieder darüber hinwegtünchen das zwischen der 4090 und 4080 eine riesige lücke klafft, in genau die sich jetzt amd mit der rx7000 serie positioniert, mit wahrscheinlich besserem p/l bei 10% weniger rt leisting aber deutlich besserer rasterleitung. machst du nämlich rt aus wird es sparssmer und schneller weil der impact durch rt sofort egalisiert wird.

nvidia ist selbst schuld und das liegt einfach nur daran das dieser laden masslos gierig geworden ist.

fur die 7900xtx wird es eine 4080ti brauchen, auf basis des ada102. ansonten werden die eher die xtx kaufen. da wette ich drauf, einfach nur weil sie billiger ist. man hat dann höhere rasterleitung und kann dann auf die 10% weniger rt gut verzichten.

wer eine 3090/3090 gekauft hat braucht wiederrum nicht wechseln, oder legt das doppelte auf den tisch. ansonten lohnt sich das kaum. bis dlss3 richtig funktiniert und entwickler das extra eingepflegt haben, ist die nächste gen da.

der gpu markt ist komplett festgefahren, es gibt kaum angebote die must have sind, und nur mal so sind 900 und 1000€ immer noch nicht wenig geld. zumal noch vor steuern.

ehrlich, ich kaufe keine karte für ab 900 und 1000 euro nur im ein gimmick wie rt ausführen zu können. in minecraft...lol. in den meisten spielen fällt es doch bisher kaum auf was da eingeschaltet ist. da macht nur rt ultra gewisse unterschiede und das läuft selbst auf ada nicht flüssig. bei dem aufwand den nvidia da betreibt und den kosten die damit einhergehen, dass nächste armutszeugnis. man bekommt es nur mit schr[ummelfeature wie ruckelframegeneration oder dlss matschframes hin.

man sollte sich langsam mal hinsetzen und prüfen ob die methode überhaupt die richtige ist. dort ist nämlich kaum fortschritt sichtbar, alle blasen nur künstlich die hardware auf und vermarkten sie zu mondpreisen.

Torg
2022-11-05, 14:48:50
Wie kommt man darauf dass die 7900XT nur 10% langsamer sein soll als die XTX?

https://www.3dcenter.org/news/amd-stellt-radeon-rx-7900-xt-xtx-auf-basis-der-rdna3-architektur-fuer-einen-launch-am-13-dezemb

IF$ -20%
Takt. -13%
CUs -12.5 %
>Rohleistung -20%

Die XT ist damit wohl eher eine eine 7800XT und damit zu teuer.
Oder macht man es doch wie bei NVidia, dass die 7800er Serie demnächst mit N32 Grundlage rauskommt. Bleibt noch Platz für eine 7900XL

AMD überlässt es den AIBs nach langer Zeit mal wieder ein Overclocking Modell anzubieten, das sich auch deutlich vom Referenzmodell abheben kann, ohne sich den Makel des hohen Verbrauchs anzuheften. Ich denke, dass die Leaks bezüglich hoher Taktraten nicht geirrt haben. Die Preise dabei entsprechend steigen und auch 20-25% drüber sein werden.

Ob jetzt 7900XT oder 7800XT. Der Name ist letztendlich egal. Der Preis muss zur Leistung passen. Auch wenn P/L in Dollar passen, werden wir hier in DE kein besseres P/L sehen wie in der letzten Generation, aufgrund der Abwertung des €.
Deshalb jetzt noch zuschlagen und eine AMD 6xx0 oder NVidia 3x00 Serie kaufen.

Gruß
Torg

Gast
2022-11-05, 15:09:11
Welche Vorteile sollen das denn sein?


Dass is die Lichtausbreitung physikalisch korrekt in einer Szene berechnen kann.
Rasterizing kennt die Szene nicht, das kennt immer nur das 1 Dreieck an dem gearbeitet wird, alles in dem unterschiedliche Dreiecke das aussehen gegenseitig beeinflussen funktioniert mit Rasterizing nicht wirklich.
Was glaubst du warum die Filmindustrie schon seit Ewigkeiten auf Raytracing setzt? Rechenzeit ist auch für die nicht gratis, und dass die Künstler welche die Szene erstellen sich Jahrelang kein wirkliches Bild machen konnten wie die Szene final aussieht, bevor sie Wochen oder gar Monate später zurückkommt ist sicher auch kein Vorteil.
Wenn Rasterizing für "eh fast alles" gut genug wäre, würde man es auch hier einsetzen, bzw. hätte frühestens in den letzten Jahren auf Raytracing only gesetzt, da es ja dank Hardware Raytracing mittlerweile durchaus möglich ist in Quasi Echtzeit ein Bild das nahe genug am finalen Ergebnis liegt zu erhalten, umm damit wirklich arbeiten zu können.


Weder ist die absolute noch die Prozentzahl irrelevant. Lass es 100 sein, die RT unterstützen: es ist immer noch ein Nischenprodukt, weil es locker über 10.000 Spiele auf dem Markt gibt.


Ich spiel aber keine Spiele von vor 10 Jahren mehr, und von den aktuellen unterstützt mittlerweile ein erheblicher Teil Raytracing.


Und ich hätte gerne immer noch ein Spiel genannt, wo es diesen "Wow!"-Effekt gibt.


Wow-Effekte kommen nicht unbedingt von der Technik, sondern in erster Linie vom Künstler der die Szene erstellt. Und in der Regel erzeugt eine realistische Darstellung nicht unbedingt ein großes WOW, eher im Gegenteil.


Wo man einen superkrassen Unterschied sieht, wo es sich also trotz des Leistungshungers echt lohnt RT einzuschalten, wo RT das Spiel um mind. eine Dimension "echter" aussehen lässt und wo nicht alles aussieht wie abgeleckt und blankgeputzt.


In Cyberpunk sind alleine die Plastikvorhänge das Raytracing wert, die sehen ohne dermaßen Beschissen aus.
Control ist ein anderes Beispiel mit massiven Vorteilen, SSR funktionieren eben bei Spiegelungen auf Wänden überhaupt nicht, und Glaswände gibt es dort massig.
Sehr subtil aber auch ein enormer Vorteil ist das GI, bei dem Rasterizing extrem struggelt, Fake GI funktioniert zwar bei statischer Geometrie gut, aber alles dynamische wirkt dann out of place.
Perfekt zeigt das Metro Exodus EE, das sogar Raytracing voraussetzt.

Ob alles "blankgeputzt" aussieht ist eine künstlerische Entscheidung und hat 0 mit der Technik zu tun, und diese Unterscheidet sich in der Regel nicht ob RT oder nicht verwendet wird. Die Leveldesigner lassen die entsprechenden Oberflächen mit und ohne RT gleich reflektiv aussehen. Der unterschied ist nur, ohne RT sind die Spiegelungen falsch.



Tun wir nicht. Wir diskutieren.
Wer nicht mitlesen möchte, muss das nicht. ;)[/QUOTE]

TheGood
2022-11-05, 20:36:17
Dass is die Lichtausbreitung physikalisch korrekt in einer Szene berechnen kann.
Rasterizing kennt die Szene nicht, das kennt immer nur das 1 Dreieck an dem gearbeitet wird, alles in dem unterschiedliche Dreiecke das aussehen gegenseitig beeinflussen funktioniert mit Rasterizing nicht wirklich.
Was glaubst du warum die Filmindustrie schon seit Ewigkeiten auf Raytracing setzt? Rechenzeit ist auch für die nicht gratis, und dass die Künstler welche die Szene erstellen sich Jahrelang kein wirkliches Bild machen konnten wie die Szene final aussieht, bevor sie Wochen oder gar Monate später zurückkommt ist sicher auch kein Vorteil.
Wenn Rasterizing für "eh fast alles" gut genug wäre, würde man es auch hier einsetzen, bzw. hätte frühestens in den letzten Jahren auf Raytracing only gesetzt, da es ja dank Hardware Raytracing mittlerweile durchaus möglich ist in Quasi Echtzeit ein Bild das nahe genug am finalen Ergebnis liegt zu erhalten, umm damit wirklich arbeiten zu können.



Ich spiel aber keine Spiele von vor 10 Jahren mehr, und von den aktuellen unterstützt mittlerweile ein erheblicher Teil Raytracing.



Wow-Effekte kommen nicht unbedingt von der Technik, sondern in erster Linie vom Künstler der die Szene erstellt. Und in der Regel erzeugt eine realistische Darstellung nicht unbedingt ein großes WOW, eher im Gegenteil.



In Cyberpunk sind alleine die Plastikvorhänge das Raytracing wert, die sehen ohne dermaßen Beschissen aus.
Control ist ein anderes Beispiel mit massiven Vorteilen, SSR funktionieren eben bei Spiegelungen auf Wänden überhaupt nicht, und Glaswände gibt es dort massig.
Sehr subtil aber auch ein enormer Vorteil ist das GI, bei dem Rasterizing extrem struggelt, Fake GI funktioniert zwar bei statischer Geometrie gut, aber alles dynamische wirkt dann out of place.
Perfekt zeigt das Metro Exodus EE, das sogar Raytracing voraussetzt.

Ob alles "blankgeputzt" aussieht ist eine künstlerische Entscheidung und hat 0 mit der Technik zu tun, und diese Unterscheidet sich in der Regel nicht ob RT oder nicht verwendet wird. Die Leveldesigner lassen die entsprechenden Oberflächen mit und ohne RT gleich reflektiv aussehen. Der unterschied ist nur, ohne RT sind die Spiegelungen falsch.



Tun wir nicht. Wir diskutieren.
Wer nicht mitlesen möchte, muss das nicht. ;)[/QUOTE]

Ich sage nur UE5 Engine Demo direktes WOW ohne groß zu überlegen und das widerlegt so ziemlich alles was du da oben geschrieben hast :)
Aber da wurd emit Lumen auch etwas eingesetzt was RT nutzt (Entwickelt mit einer Software RT Lösung, hardwareunterstützung gibts jetzt aber auch) Was von beidem bei der Demo zum Einsatz kam ist leider nicht bekannt. Da es aber auf PS5 lief, hatte der RDNA2 Chip offensichtlich null Probleme damit...

Nochmals es geht nicht drum RT den Sinn abzusprechen. Es geht darum ob der aktuell gelieferte RT nun ein alleinstellungsmerkmal ist oder nicht. Genau das find eich Stand heute nicht. Dazu kommt ja dass vor allem bei Global Illumination und Shadows RDNA 2 ganz gut mitkommt und der Rückstand nicht so dramatisch ist...

Gast
2022-11-05, 21:14:04
Ich sage nur UE5 Engine Demo direktes WOW ohne groß zu überlegen und das widerlegt so ziemlich alles was du da oben geschrieben hast :)[/QUOTE]

UE5 nutzt Raytracing. Die Non-RT-Version von Lumen sieht ziemlich bescheiden aus.

Gast
2022-11-05, 22:33:46
Vollkommen falsche Prioritäten gesetzt; sehe jedenfalls ich so.
Wer als Videospielspieler, vor allem als PC-Spieler, mehr Grafikqualität möchte,
kauft sich nicht alle zwei Jahre eine neue Grafikkarte für 1000 Schekel, sondern ersetzt den LCD-Moniturd mit schrecklichem AG-coating (matt), durch einen 1000 Schekel Oled-TV mit besserem AR-coating, und behält diesen 4, 5, 6+ Jahre.

Es ist nicht nur selbstleuchtende Oled oder direct view LED-Display an sich welche das Bild x-mal besser aussehen lassen, sonder das Coating!
AG (matt) ist der letzt Rotz, vor allem was im Monitormarkt verbaut wird ist anno 2015.
Gescheites Coating gibt es nur bei den High-end 1000+ TVs von LG, Samsung, Sony, Panasonic, Philips und co.

Und Oled/QD-Oled am PC-Monitormarkt macht es kaum besser, denn LG, Samsung, Dell und co. verwenden auch hier den AG Rotz, oder eine semi-AG-AR-Mix, welcher auch weit von dem entfernt ist was bei den TVs verwendet wird.

Wer Bildqualität möchte kommt an TVs nicht vorbei. Habe selber einen LG 48 C1 am PC angeschlossen.
Das kann man einfach mit LCD Rotz nicht vergleichen.
Rtx 3060 + Oled-TV bietet ein x-mal besseres Bild als rtx 4090 am LCD-Rotz.

Platos
2022-11-05, 22:36:27
Die damalige UE5 Demo (die auch auf der PS5 leif), die hatte RT? Hast du dafür auch ne Quelle ?

Ist schon lange her, mag mich nicht mehr erinnern.

Exxtreme
2022-11-05, 22:45:43
Wer Bildqualität möchte kommt an TVs nicht vorbei.

Nachteil ist, TVs sind nicht wirklich latenzoptimiert. Für Spieler eventuell auch nicht so der Hit. Und Oled-TVs können auch leicht einbrennen. Man hat am PC oft den Fall, dass sich Teile des Bildes stundenlang nicht ändern.

Falsche Prioritäten
2022-11-05, 23:12:38
Nachteil ist, TVs sind nicht wirklich latenzoptimiert. Für Spieler eventuell auch nicht so der Hit. Und Oled-TVs können auch leicht einbrennen. Man hat am PC oft den Fall, dass sich Teile des Bildes stundenlang nicht ändern.

Öhm. Argument anno 2016?
LG 48 C1 hat unter 120 Hz mit "Spieleoptimierer" an eine Gesamtlatenz (Input/Output + Pixelreaktionszeit) von 4,5 - 5 ms.
Fokus auf "Gesamt"! 0.1 ms Pixelreaktionszeit sei Dank; braucht kein Overdrive, sieht stark gut aus, und hat auch black-frame insertion.

Die schnellsten IPS-LCD-Monitorgurken zurzeit mit 240 Hz schwanken mit erträglichem Overdrive (ohne viel ghosting, blur wie auch immer es heißt) zwischen 3 - 6 ms, obendrauf noch 2 ms Input/Output-Latenz.

Und, wer ist schneller? :D
Und ich spiele UT, Quake, Diabotical auf dem LG 48 C1 - mir braucht man nichts zu erzählen. Das Teil ist absolut wettbewerbs-Arena-Shooter-tauglich.

Das Ausbrennen-Agument (Einbrennen) ist sowas von 2016. Möchte ich eig. gar nicht mehr darauf antworten.
3000 Stunden und vor dem großen 2000 Std. Refresh kein einziges Anzeichen vom Ausbrennen.
Und selbst wenn mal was ausbrennt - dafür ist der große Refresh da!
Und meiner hat noch das alte 2019/2020 Panel.
Die neueren LGD 2022 Panel sind nochmal stark effizienter.

Wissen die meisten eig. was der kleine/große Refresh macht? Der hebt die Pixelspannung der 8,7 Millionen Pixel an.
https://www.computerbase.de/forum/threads/lg-oled-2020er-modell-leuchtkraft-verlieren.1985733/#post-24964303

Warum kann er das? Weil es einen Buffer gibt. Laut Kommentaren waren es 2017 bereits 40k Stunden bevor die Pixel in die Halbwertzeit erreichten.
Anders ausgedrückt konnte der Refresh die Pixelspannung 20k Stunden lang anheben, ohne dass die Pixel an Helligkeit verlieren.
Deshalb bleibt die Helligkeit auch nach jedem Refresh konstant.

2016 war die Angabe bereits 100k Stunden.
Und heute ist 2022. Die W-Oled sind +50 % und mehr effizienter geworden.
Bis mal die Halbwertszeit und der 50 % Helligkeitsverlust eintrifft, haben 99,8 % der Käufer den TV längst ausgetauscht.
Das Ausbrenn Argument ist so ein altes Lied was immer wieder gesungen wird. Oh Mann.

Und 2023/2024 ist Samsung Display mit deren QD-Oled und dem blauen Emitter endlich dran! Dann gibt es 2000 cd/m² Leuchtkraft bei 10 % Fenster.
https://pubs.acs.org/doi/10.1021/acsami.1c09189

"Für Spieler nicht so der Hit". Ja was brauchen denn Spieler?
Miese Bildqualität?
Nichts für Ungut, wer aber ein Oled-Smartphone hat, einen Oled-TV im Wohnzimmer und pro LCD-Gurken am PC-Desktop argumentiert, dessen Logik verstehe ich überhaupt nicht mehr.

Am W-Oled sieht selbst Gotic 2 (mit bisschen Mods) sehr gut aus.
Die Konsolenspieler genießen seit Jahren, trotz deutlich schwächerer Hardware, das subjektiv deutlich bessere Bild, weil sie an TVs mit besserem AR-coating spielen, während die PC-Spielerschaft jedesmal 1000 Schekel Grafikkarten kauft aber der Output bleibt an der LCD-Gurke-AG-coating der gleiche Mist.


Macht es wie ich und viele andere und kauft euch ein Oled-TV für den PC und packt diesen hinter den Tisch oder an die Wand.
Danke sagen später.

Leonidas
2022-11-06, 04:52:16
Wie kommt man darauf dass die 7900XT nur 10% langsamer sein soll als die XTX?
https://www.3dcenter.org/news/amd-stellt-radeon-rx-7900-xt-xtx-auf-basis-der-rdna3-architektur-fuer-einen-launch-am-13-dezemb
>Rohleistung -20%


Womöglich habe ich hier die 7900XT zu gut angesetzt. Allerdings kann es sein, dass der Taktraten-Unterschied in der Praxis null ist, so dass nur der HW-Unterschied bleibt. Der ist klein genug, dass es bei AMD für weniger als –10% Differenz reicht. Generell ist der hohe Preis ein Hinweis darauf, dass die XT der XTX sehr nahe kommen dürfte. Aber ich kann mich irren - eine breiter angelegte Performance-Prognose zur XT wäre besser gewesen.

TheGood
2022-11-06, 08:14:20
Ich sage nur UE5 Engine Demo direktes WOW ohne groß zu überlegen und das widerlegt so ziemlich alles was du da oben geschrieben hast :)

UE5 nutzt Raytracing. Die Non-RT-Version von Lumen sieht ziemlich bescheiden aus.[/QUOTE]
Ich bin hier für infos dankbar :)

Und wenn es hardware RT nutzt, dann hat es auf der PS5 mit RDNA2 ja auch mehr als problemlos funktioniert ;) Weil GI auf AMD relativ gut performt.

Gast
2022-11-06, 09:16:01
Das habe ich gestern im Thread gemeint.
Der Preis ist das entscheidende.[...]

Natürlich sind viele User jetzt enttäuscht von der Leistung, aber unterm Strich muss ich sagen, obwohl meine Präferenz bei Nvidia liegt, ist die AMD-Karte fürs Spielen sehr gut geeignet.

Enttäuschung hat sich lediglich unter Nviidas Influencern und ihren Fanbois breitgemacht.

Aber diese Klientel ist immer enttäuscht, und zwar weil AMD immer noch keine Geforce produziert...

Obwohl wahrscheinlich auch einige hardcore AMD lover ihre "eigene Marke" hassen weil ihr heiliger Gral kein Produkt auf Augenhöhe entwickelt hat :-P

Platos
2022-11-06, 10:33:52
Ja, so viel RT Leistung hat ne PS5 nicht. Die Demo, die auf ner PS5 lief, sah aber bombastisch aus. Ok, es war nur 30 FPS und "nur" 1440p.

Aber es braucht nicht die Bling-Bling-Spiegelungen. Die UE5 Demo lief offensichtlich was RT Rechenlast anbelangt deutlich effizienter. Also das Nutzen/Kosten verhält is ist deutlich grösser.

Klar, für 4k120p brauchts natürlich dann etwas mehr. Ist aber ein absolutes Enthisasten-Setting.

Torg
2022-11-06, 11:02:07
Womöglich habe ich hier die 7900XT zu gut angesetzt. Allerdings kann es sein, dass der Taktraten-Unterschied in der Praxis null ist, so dass nur der HW-Unterschied bleibt. Der ist klein genug, dass es bei AMD für weniger als –10% Differenz reicht. Generell ist der hohe Preis ein Hinweis darauf, dass die XT der XTX sehr nahe kommen dürfte. Aber ich kann mich irren - eine breiter angelegte Performance-Prognose zur XT wäre besser gewesen.

Wenn man jetzt davon ausgeht, dass Nvidia und AMD mit der Verdoppelung von FP32, die gleiche "Technik" benutzen, wüde ich ca -15% veranschlagen.
Die 4090 hat 70% mehr Rohleistung als die 4080 und soll ca 35% schneller sein.
Da müsste AMD fast 100 TFlops aufbieten um mit der 4090 gleichzuziehen.
Für mich ist dass nicht mit einem vernüftigen Powerbudget nicht machbar bzw.der GDC wäre dann auch >500mm².
Rechne ich nun mit -10% wären schon 120 TFlops nötig. Ziemlich ineffiziente Architektur

Gruß Torg

TheGood
2022-11-06, 17:57:26
Ja, so viel RT Leistung hat ne PS5 nicht. Die Demo, die auf ner PS5 lief, sah aber bombastisch aus. Ok, es war nur 30 FPS und "nur" 1440p.

Aber es braucht nicht die Bling-Bling-Spiegelungen. Die UE5 Demo lief offensichtlich was RT Rechenlast anbelangt deutlich effizienter. Also das Nutzen/Kosten verhält is ist deutlich grösser.

Klar, für 4k120p brauchts natürlich dann etwas mehr. Ist aber ein absolutes Enthisasten-Setting.

Die Realität ist doch dass über 50% immer noch in FullHD spielen. Von daher wären Tests bei den ganzen Magazinen von FullHD mit RT viel viel sinnvoller als immer die max. out 4K 5K was weiss ich tests... Die bringen für die normalen Spieler schlichtweg rein gar nichts..

Witzig ist ja, dass die 30 FPS bei der Demo auch nicht wirklcih negativ aufgefallen sind. Vermutlich weil es ein Video war. Wenn man es am REchenr ansieht mag das anders aussehen.

Gast
2022-11-06, 19:25:05
Die Realität ist doch dass über 50% immer noch in FullHD spielen. Von daher wären Tests bei den ganzen Magazinen von FullHD mit RT viel viel sinnvoller als immer die max. out 4K 5K was weiss ich tests... Die bringen für die normalen Spieler schlichtweg rein gar nichts...
Da rennt die 4090 in ein CPU Limit und ruckelt vor sich hin, daher ist jetzt UHD das neue FHD, sonst können sich die Fanbois, sich ihre Mehrleistung nicht schönreden.

Das auf diesem Dumfug keiner RT auf Ultrapreset stellt weiß auch jeder. Das muss jetzt so sein, damit Nvidia egal wie ja vorne bleibt. Das haben sie gleich beim NDA mit unterschrieben. Negativpresse unerwünscht, sonst werden die Testsample kostenpflichtig.

TheGood
2022-11-06, 19:42:38
Da rennt die 4090 in ein CPU Limit und ruckelt vor sich hin, daher ist jetzt UHD das neue FHD, sonst können sich die Fanbois, sich ihre Mehrleistung nicht schönreden.

Das auf diesem Dumfug keiner RT auf Ultrapreset stellt weiß auch jeder. Das muss jetzt so sein, damit Nvidia egal wie ja vorne bleibt. Das haben sie gleich beim NDA mit unterschrieben. Negativpresse unerwünscht, sonst werden die Testsample kostenpflichtig.
Das ist auch ein echter Fremdschämbeitrag...

Platos
2022-11-06, 20:16:56
Die Realität ist doch dass über 50% immer noch in FullHD spielen. Von daher wären Tests bei den ganzen Magazinen von FullHD mit RT viel viel sinnvoller als immer die max. out 4K 5K was weiss ich tests... Die bringen für die normalen Spieler schlichtweg rein gar nichts..

Witzig ist ja, dass die 30 FPS bei der Demo auch nicht wirklcih negativ aufgefallen sind. Vermutlich weil es ein Video war. Wenn man es am REchenr ansieht mag das anders aussehen.

Gibt ja genug Seiten, die Grafikkarten (auch die 4090) in 1080p,1440p und 2160p testen (auch in RT). Weiss also nicht, was du hast.

PCGH z.B

Und mir ist die Auflösung bei 1440p am 27" Monitor schon aufgefallen. Hat ziemlich stark gebröselt. Bin halt kein 1080p Spieler, mir fällt sowas auf :D

Das ist wie mit der Framerate. Fällt halt nicht auf, wenn man es sich nicht gewöhnt ist, auf dem "Besseren" zu spielen, schon gar nicht als Video.

TheGood
2022-11-06, 20:54:53
Dann mus sich da mal wohl mehr Augenmerk bei den RT Test drauf werfen.

mit 4K Monitor biste halt immer noch die Ausnahme...
Wollte mir vor 2 Jahren auch einen 4K kaufen, hab mir dann die Preise angesehen und mir gedacht, wen wollen die da für blöd verkaufen ? Sorry soviel Geld zahle ich nicht für einen guten Monitor hab mir dann einen 1440 mit 144Hz geholt und bin mega zufrieden. Hat auch den Vorteil dass man keine Top notch Graka braucht... und die Spiele sehen trotzdem toll aus :D

Gast
2022-11-06, 21:20:08
Die Realität ist doch dass über 50% immer noch in FullHD spielen. Von daher wären Tests bei den ganzen Magazinen von FullHD mit RT viel viel sinnvoller als immer die max. out 4K 5K was weiss ich tests... Die bringen für die normalen Spieler schlichtweg rein gar nichts..


Das stimmt natürlich, aber es hat auch kaum einer eine Grafikkarte für 1000 Euro aufwärts drin.
Die Mehrheit hat irgendeine alte GraKa die mal für 200 Euro gekauft wurde.

Exxtreme
2022-11-06, 21:38:02
Dann mus sich da mal wohl mehr Augenmerk bei den RT Test drauf werfen.

mit 4K Monitor biste halt immer noch die Ausnahme...
Wollte mir vor 2 Jahren auch einen 4K kaufen, hab mir dann die Preise angesehen und mir gedacht, wen wollen die da für blöd verkaufen ? Sorry soviel Geld zahle ich nicht für einen guten Monitor hab mir dann einen 1440 mit 144Hz geholt und bin mega zufrieden. Hat auch den Vorteil dass man keine Top notch Graka braucht... und die Spiele sehen trotzdem toll aus :D

Nächstes Jahr sollten 4K-Monitore billiger werden. Da überlege ich mir auch so einen zu holen. :)

Platos
2022-11-07, 01:06:39
Dann mus sich da mal wohl mehr Augenmerk bei den RT Test drauf werfen.

mit 4K Monitor biste halt immer noch die Ausnahme...
Wollte mir vor 2 Jahren auch einen 4K kaufen, hab mir dann die Preise angesehen und mir gedacht, wen wollen die da für blöd verkaufen ? Sorry soviel Geld zahle ich nicht für einen guten Monitor hab mir dann einen 1440 mit 144Hz geholt und bin mega zufrieden. Hat auch den Vorteil dass man keine Top notch Graka braucht... und die Spiele sehen trotzdem toll aus :D

Gut, ich spiele halt in 4k60. Mit 120/144Hz sind die Monitore schon teuer und GPU braucht man da eig. mindestens ne RTX 3090 (mit DLSS), besser 4090.

Ich bin eher auf Auflösung empfindlich, weniger auf Framerate. Liegt aber sicher auch daran, dass ich eher keine schnellen Spiele (Shooter) Spiele und nie einen Monitor über 60Hz selber in Gebrauch hatte.

60Hz kommt aber auch billiger, egal welche Auflösung. Da kann man sich ein 6-Kerner für 200 nehmen plus günstigen RAM und ein günstigeres Board und das wird Ewigkeiten halten. Bei 144Hz muss idealerweise gleich teuren RAM, teure CPU und auch gute Grafikkarte her. Zumindest, wenn man wirklich überall die 144Hz erreichen will. Dazu muss man öfters wieder upgraden. Bei 60Hz halt eben nicht.

Mit 1440p @ 144Hz bist du wahrscheinlich aber vermutlich nicht mal so weit weg von der Grafikkartenanforderung von 4k60.

Und man darf auch nicht vergessen, der Vorteil, vom nicht immer das beste haben müssen, ist auch, dass man ohne Abstriche gebraucht günstig den Vorgänger kaufen kann. "Muss" man immer das beste haben, ist gerade seit Zen3 immer wieder schnell ne neue CPU "nötig" :D

TheGood
2022-11-07, 20:22:56
Gut, ich spiele halt in 4k60. Mit 120/144Hz sind die Monitore schon teuer und GPU braucht man da eig. mindestens ne RTX 3090 (mit DLSS), besser 4090.

Ich bin eher auf Auflösung empfindlich, weniger auf Framerate. Liegt aber sicher auch daran, dass ich eher keine schnellen Spiele (Shooter) Spiele und nie einen Monitor über 60Hz selber in Gebrauch hatte.

60Hz kommt aber auch billiger, egal welche Auflösung. Da kann man sich ein 6-Kerner für 200 nehmen plus günstigen RAM und ein günstigeres Board und das wird Ewigkeiten halten. Bei 144Hz muss idealerweise gleich teuren RAM, teure CPU und auch gute Grafikkarte her. Zumindest, wenn man wirklich überall die 144Hz erreichen will. Dazu muss man öfters wieder upgraden. Bei 60Hz halt eben nicht.

Mit 1440p @ 144Hz bist du wahrscheinlich aber vermutlich nicht mal so weit weg von der Grafikkartenanforderung von 4k60.

Und man darf auch nicht vergessen, der Vorteil, vom nicht immer das beste haben müssen, ist auch, dass man ohne Abstriche gebraucht günstig den Vorgänger kaufen kann. "Muss" man immer das beste haben, ist gerade seit Zen3 immer wieder schnell ne neue CPU "nötig" :D

Ich muss ja nicht immer mit 144 Hz spielen, dank Freesync geht das ja auch weiter runter. Und um das richtig zu nutzen muss ich erstmal CPu und Graka aufrüsten. Werde ich dann ggf. nächstes Jahrim Frühjahr machen wenn ZEN4 mal zu sinnvollen Preisen erhältlich ist. Bzw. das gesamtprodutkt.

bad_sign
2022-11-08, 11:53:10
@Leonidas
Dein Text unter der Tabelle redet von 4080, es ist aber bestimmt die 4090 gemeint^^

Performance-Angaben außerhalb der GeForce RTX 4080: Allesamt spekulative Hochrechnungen! Darauf basierende Preis/Leistungs-Rechnungen sind demzufolge mit einiger Fehlerquote zu verstehen, sollen nur die grobe Richtung anzeigen.

Leonidas
2022-11-09, 02:43:19
In der Tat! Gefixt.