Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse nVidia GeForce RTX 4080


Leonidas
2022-11-22, 16:38:05
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4080

Link zur entsprechenden Ersteindrucks-Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4080

Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4080

Gast
2022-11-22, 16:45:42
Bin noch nicht komplett durch, aber generell kann man wohl sagen:

Technisch ein wirklcih klasse Produkt, rundum stimmig.
+50% Performance, bei RT sogar mehr, dazu -10% Stromverbrauch ist vielleicht nicht ein Weltwunder, aber gut.

Dazu leise, kühl und mit 16GB genau richtig bestückt.

Nur ist der Preis eben absurd.
Für 800-900 Euro wäre es ein Traum.
Für 1000 Euro ein faires Angebot.

Aber für 1450 Euro? Da wird auch eine technisch super Karte völlig unattraktiv.

Gast Ritis
2022-11-22, 17:31:20
Manoman, bei der P/L Tabelle nicht mal mehr einen Vertreter unter 600€ heranziehen zu können zeigt wie absurd das Ganze geworden ist.

MD_Enigma
2022-11-22, 17:34:05
Ich hab das mal in eine andere Tabelle zusammengefasst und "meine" Basis-Grafikkarte die 6800 XT genommen.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81594&stc=1&d=1669209922

madshi
2022-11-22, 18:36:53
Vielmehr scheint die GeForce RTX 4080 zu diesen Preislagen den Versuch nVidias darzustellen, den "Haloprodukt"-Preisaufschlag weiter nach unten ins Produkt-Portfolio auszudehnen.
Wie interpretierst Du diese Daten?

https://www.macrotrends.net/stocks/charts/NVDA/nvidia/inventory


22-10 4.454
22-07 3.889
22-04 3.163
22-01 2.605
21-10 2.233
21-07 2.114
21-04 1.992
21-01 1.826

Gast
2022-11-22, 19:57:08
Wie interpretierst Du diese Daten?

https://www.macrotrends.net/stocks/charts/NVDA/nvidia/inventory

Der Großteil liegt schlicht an den erhöhten Preisen.
Wenn Grafikkarten im Schnitt nicht mehr 200 Euro kosten wie mal vor einigen Jahren sondern 800 erhöht sich der Wert deines Lagerbestandes natürlich entsprechend.

Denniss
2022-11-22, 21:05:39
Kurzfassung:
Schnell und gemessen an der Leistung recht sparsam. Preis um minimum 500€ zu hoch angesetzt.

Blase
2022-11-22, 22:40:04
Vielmehr scheint die GeForce RTX 4080 zu diesen Preislagen den Versuch nVidias darzustellen, den "Haloprodukt"-Preisaufschlag weiter nach unten ins Produkt-Portfolio auszudehnen.

Ist das so? Ich dachte, dass letztlich der einzige Grund für diese maßlose Preisansetzung der 4080 dem Umstand geschuldet ist, dass die alten 30er Karten noch irgendwie an den Mann gebracht werden müssen. Und wenn die 4080 dann irgendwas um 900 - 1000 Euro kostet, dann sind mit einem Schlag sämtliche 30er Karten ab 3080 10G aufwärts obsolet.

Das rechtfertigt zwar keineswegs den lächerlichen Preispunkt der 4080, aber es ist eine nachvollziehbare Erklärung, warum nVidia das macht. Ob man das nun gut findet oder nicht...

MfG Blase

Leonidas
2022-11-23, 02:54:03
Ich denke die These von den zu vielen 30er Karten ist übertrieben - und dies zeigt sich gerade. Denn die 3090 & 3090 Ti gehen gerade im Preis wieder hoch, die Angebotsmenge jedoch runter = Auslaufstatus erreicht, somit Lagerbestand abgebaut.

Aber natürlich kann man sich irren. Wenn dann nach dem EOL der 3080-10GB die 4080 plötzlich auf unter 1000 Steine runtersackt, dann hat NV tatsächlich bewußt den Preis hochgehalten. Derzeit denke ich eher: Übertriebene Gewinnerwartungen.

Iscaran
2022-11-23, 08:22:19
Wie interpretierst Du diese Daten?

https://www.macrotrends.net/stocks/charts/NVDA/nvidia/inventory
Inventory ist halt nicht nur GPUs "auf Halde". Das ist ALLES das das Unternehmen an Wertgegenständen lagert bzw. zwischenlagert.

https://www.netsuite.com/portal/resource/articles/inventory-management/inventory.shtml

Insofern ist die Tabelle wenig verwertbar im Bezug auf GPUs oder ähnliches. Kann schlicht bedeuten, nVidia hat in den letzten Jahren einfach höhere Kosten an Rohmaterial, welches zwischengelagert wird und daher als "Inventory" aufschlägt. Das kann aber auch bei gleicher Stückzahl z.B. einfach an einem gestiegenen Preis von etwas liegen.

Btw. hier der Chart für AMD und nVidia zusammen:
https://www.macrotrends.net/stocks/stock-comparison?s=inventory&axis=single&comp=NVDA:AMD

Auffällig BEIDE haben seit einiger Zeit einen Extremen Anstieg in "Inventory Assets"

Crazy_Borg
2022-11-23, 08:59:19
Manoman, bei der P/L Tabelle nicht mal mehr einen Vertreter unter 600€ heranziehen zu können zeigt wie absurd das Ganze geworden ist.
:up:
Exakt mein Gedanke.

Top CPUs für den Spieleeinsatz kosten ~300€ (Ryzen 5800X3D), bei den GPUs fängt da derzeit nichtmal die Mittelklasse an.

Wird noch Absurder wenn ihr mal in die News vom 19./20. schaut.
Da kostete 2007 eine Top Mittelklasse GPU (AMD HD3850) 135€.
Und kommt mir nicht mit Inflation, dann sind es berechnet nämlich immer noch nur 175€.
:mad:

bad_sign
2022-11-23, 09:37:22
Ich hab das mal in eine andere Tabelle zusammengefasst und "meine" Basis-Grafikkarte die 6800 XT genommen.

Deine 4090 hat 350W Verbrauch, nicht die 420W aus der Analyse, oder 450W nominelle TDP

Platos
2022-11-23, 09:41:27
Gute Analyse. War zwar schon vorher klar, aber die 4080 ist einfach ein Witz. Wer die kauft, ist einfach ein Egoist, denn er erhöht die Preise dadurch für alle anderen Marktteilnehmer auch. Eben ein Egoist.

Kleebl00d
2022-11-23, 09:56:21
Gute Analyse. War zwar schon vorher klar, aber die 4080 ist einfach ein Witz. Wer die kauft, ist einfach ein Egoist, denn er erhöht die Preise dadurch für alle anderen Marktteilnehmer auch. Eben ein Egoist.
Wenn es denn wenigstens ein irgendwie cleverer Move wäre, so wie die Scalper sich den Arsch golden verdient haben.
Aber Hardware auf Basis eines Mittelklassechips für einen Preis zu kaufen wo andere (gebrauchte) Autos für kaufen ist halt nicht nur aus den von dir genannten Gründen egoistisch, sondern auch einfach nicht clever mit einer starken Tendenz zu dumm.

Gast
2022-11-23, 10:09:19
Na dumm ist ja immer relativ.
Vor zwei Jahren hieß es: Grafikkarten sind wegen Mining viel zu teuer, wer da kauft ist dumm, einfach mal warten, notfalls eine Generation überspringen.
(Turing sollte man btw ja auch schon überspringen, da der Sprung von Pascal zu Turing nicht so groß war...)

Jetzt das gleiche wieder.
Aber ist es nicht dümmer mit einer alten Grafikkarte zu spielen und dadurch beim Hobby Einbußen zu haben, nur um 500 Euro zu sparen?
Wenn man das Geld nicht hat, klar.
Aber wenn man das Geld hat? Da wäre man doch dämlich sich jahrelang das Hobby "kaputt" zu machen, wegen 1 Euro am Tag den es vielleicht mehr kostet.
Dumm ist aslo relativ.

Allerdings würde ich auch eher zur 4090 raten statt zur 4080.
Der Aufpreis zur 4090 ist gut angelegt. Leistung steigt quasi linear und man bekommt noch 8GB Ram kostenlos oben drauf.
Wer bereit ist 1500 Euro für eine Grafikkarte zu bezahlen will ja meistens auch das Beste - und lieber zahle ich 2000 Euro für das mit Abstand Beste, als 1500 Euro für etwas merklich schlechteres.

Blase
2022-11-23, 10:49:50
Ich denke die These von den zu vielen 30er Karten ist übertrieben - und dies zeigt sich gerade. Denn die 3090 & 3090 Ti gehen gerade im Preis wieder hoch, die Angebotsmenge jedoch runter = Auslaufstatus erreicht, somit Lagerbestand abgebaut.

Aber natürlich kann man sich irren. Wenn dann nach dem EOL der 3080-10GB die 4080 plötzlich auf unter 1000 Steine runtersackt, dann hat NV tatsächlich bewußt den Preis hochgehalten. Derzeit denke ich eher: Übertriebene Gewinnerwartungen.

Dass nVidia die Preise der 4080 so stark absacken lässt, kann ich mir wiederum kaum vorstellen. Ich hätte dann eher angenommen, dass die das durch eine zweite Revision der Karte oder so ähnlich "gelöst" hätten.

Wir sind uns wahrscheinlich eh alle einig: egal warum die Preise der 4080 aktuell so sind - hoffentlich bleiben sie wie Blei in den Regalen liegen :P

MfG Blase

Gast
2022-11-23, 11:56:30
Derzeit denke ich eher: Übertriebene Gewinnerwartungen.
Wenn man Gier und Dummheit als Erklärung für eine Handlungsweise verwendet (völlig egal von wem, besonders aber Firmen + Politiker) liegt man fast immer richtig.

Gaston
2022-11-23, 12:22:01
Warum fehlen denn die Ray-Tracing Werte der Pcgh im Vergleich? Die haben viele Karten und anspruchsvolle Spiele im Test.

mfg

Leonidas
2022-11-23, 12:23:44
Warum fehlen denn die Ray-Tracing Werte der Pcgh im Vergleich? Die haben viele Karten und anspruchsvolle Spiele im Test.

Hätte ich gern verwendet. Aber höchstwahrscheinlich noch nicht mit neuem RTX30-Treiber aufgenommen - im Gegensatz zu den Raster-Benchmarks.

Gaston
2022-11-23, 12:45:45
Im Testvideo sagt er was von Nachtests und das das Mischen von Werten nicht gemacht wird. Daher denke ich, das passt.

mfg

Gast
2022-11-23, 13:07:50
Deine 4090 hat 350W Verbrauch, nicht die 420W aus der Analyse, oder 450W nominelle TDP
Sagt wer? Also bei Techpowerup hat sie in 4k Cyberpunk 2077 ohne RT 404W, mit RT 477W verbraucht. Bei Tomshardware in Metro Exodus 436W, bei Computerbase in Doom eternal 432W.
Daher wirken die 350W auf mich eher so, als wäre die GPU da falsch gemessen oder im CPU Limit.

Gast
2022-11-23, 13:39:52
https://www.computerbase.de/2022-11/jon-peddie-research-gpu-absatz-bricht-massiv-ein-bei-amd-um-fast-die-haelfte/

MD_Enigma
2022-11-23, 14:26:07
Deine 4090 hat 350W Verbrauch, nicht die 420W aus der Analyse, oder 450W nominelle TDP
Sollte die TDP im Datenblatt sein. Korrigiert.

Gast
2022-11-23, 19:11:07
Was mir jetzt erst aufgefallen ist.
Der vergleichsweise großer l2 Cache von 4080 zu der 4090, auch die höhere compute Performance relativ gesehen zu der Speicherbandbreite.
Vielleicht verliert die 4090 auch dort etwas im Vergleich zur 4080

ChaosTM
2022-11-23, 21:03:47
Hab jetzt 3 Stunden farcry 6 gespielt @ 4k alles max mit RT. Immer knapp an die 120 Fps und man hört nichts! Das lauteste im sys ist die externe HDD. Stromverbrauch 230-270 Watt lt. GPU-Z.
Das Spiel ist aber auch nicht besonders fordernd.

FS2020 dümpelt bei 160-210 Watt herum @ 4k Ultra DLSS Quality (5090X). Eine 58003d würde/wird den CPU Flaschenhals etwas entschärfen. Bei dem Spiel ist die CPU ang. auf 13900er Level.

Das Produkt selbst ist grandios, der Preis natürlich nicht. So ungern ich das auch mache, das Ding muss wieder zurück.. :(
Den groben Unfug seitens NV sollt/darf man nicht unterstützen.

Gast
2022-11-23, 21:37:22
Hab jetzt 3 Stunden farcry 6 gespielt @ 4k alles max mit RT. Immer knapp an die 120 Fps und man hört nichts! Das lauteste im sys ist die externe HDD. Stromverbrauch 230-270 Watt lt. GPU-Z.
Das Spiel ist aber auch nicht besonders fordernd.

FS2020 dümpelt bei 160-210 Watt herum @ 4k Ultra DLSS Quality (5090X). Eine 58003d würde/wird den CPU Flaschenhals etwas entschärfen. Bei dem Spiel ist die CPU ang. auf 13900er Level.

Das Produkt selbst ist grandios, der Preis natürlich nicht. So ungern ich das auch mache, das Ding muss wieder zurück.. :(
Den groben Unfug seitens NV sollt/darf man nicht unterstützen.

Sehe ich auch so. Bei dem Preis aber dann gleich zur 4090 greifen... Wenn unbedingt nötig. Oder hoffentlich in einem halben Jahr für 800-900e

Gast
2022-11-23, 22:30:15
Für alles über einer 3090Ti sollten eigentlich Tests die keinen 13900K verwenden ausgeschlossen werden.

Und selbst dieser ist eigentlich für eine echte Performancebeurteilung zu wenig wenn man bei "nur" 4k Auflösung bleibt.

Leonidas
2022-11-24, 03:57:17
Im Testvideo sagt er was von Nachtests und das das Mischen von Werten nicht gemacht wird. Daher denke ich, das passt.

Na dann denke ich, dass das mit den Nachtests dann erledigt wird bzw. beim RX7900 Launch dann alles auf einheitlichem Stand ist.



Für alles über einer 3090Ti sollten eigentlich Tests die keinen 13900K verwenden ausgeschlossen werden.

Dann würden noch noch 2 Tests übrig bleiben ....

ChaosTM
2022-11-24, 04:29:23
https://www.3dmark.com/3dm/83705442

fast unoptimiert .. mir war fad nach 7 Stunden Farcry 6

#44
2022-11-24, 07:43:50
Ich hab das mal in eine andere Tabelle zusammengefasst und "meine" Basis-Grafikkarte die 6800 XT genommen.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81594&stc=1&d=1669209922
Spalte C mutet etwas seltsam an.

Beispiel:

300W TDP sind 100%
125W TDP sind 240%

Ich hätte da den Kehrwert erwartet - 42%.

Gast
2022-11-24, 08:45:33
Dann würden noch noch 2 Tests übrig bleiben ....

Dann ist es eben so, einen Index zu erstellen aufgrund von Daten welche die reale Performance der getesteten Hardware gar nicht abbilden können ist jedenfalls komplett umsonst.

Leonidas
2022-11-24, 10:21:40
Mit nur 2 Testreihen stellt man keinen Index auf. Die Varianz dieser wenigen Ergebnisse ist mit guter Chance größer als der Fehler durch den alten Treiber.

Gast
2022-11-24, 10:37:59
Mit nur 2 Testreihen stellt man keinen Index auf.

Dann verzichtet man eben darauf.
Bei einem CPU Spieleindex rechnet man ja auch nicht den Durchschnitt aus 720p-4k Auflösung sondern fokussiert sich nur auf die niedrigen Auflösungen.

Gast
2022-11-24, 10:45:29
Die 4090 hängen alle Nase lang in CPU Limit, daher erreichen sie die TDP Angaben unter Umständen nicht. Gut zu sehen Dan. DLSS, einschalten und das CPU Bottleneck schlägt erbarmungslos zu, wobei die Karte um bis 100w weniger verbraucht.

Ein eindeutiges Indiz für ein CPU Bottleneck. GEnau deshalb kommt Nv ja mit Framegeneration.

Gaston
2022-11-24, 11:00:30
Für alles über einer 3090Ti sollten eigentlich Tests die keinen 13900K verwenden ausgeschlossen werden.

Quatsch, ein übertakteter 12900k ala Pcgh ist genauso schnell. 1080p ist generell kein Szenario für diese Karten.

mfg

Gast
2022-11-24, 11:42:21
Quatsch, ein übertakteter 12900k ala Pcgh ist genauso schnell. 1080p ist generell kein Szenario für diese Karten.



Einen 13900K kann man um einiges weiter übertakten.

Gast
2022-11-25, 21:55:07
Fazit in zwei Worten: Nicht kaufen

Wer jetzt für die Arbeit zwingend Nvidia haben _muss_ und sich 4090 nicht leisten kann, stellt die Ausnahme da.

Platos
2022-11-26, 10:44:29
Genau. Nicht kaufen!

Das muss in den Lagern verstauben.

Gaston
2022-11-27, 10:57:40
Einen 13900K kann man um einiges weiter übertakten.

~10% von einem 12900k ausgehend bringt halt nichts, ist immer noch CPU limitiert. ^_^ Ein Vergleich 12900k OC gegen 13900k: https://www.pcgameshardware.de/Spider-Man-Miles-Morales-Spiel-72802/Specials/PC-Benchmark-Technik-Review-1407865/3/#a2

mfg

Leonidas
2022-11-28, 04:17:26
Überraschend für mich, das so viele für "auch andere Gründe" stimmen.

Prinzenrolle
2022-11-28, 18:58:35
Das zeigt wieder mal wie viel AMD Trolle es hier gibt. 30% der User. Die Karte ist top. Auch der Vram langt. Preis ist hoch.

Gast
2022-11-28, 22:30:54
Das zeigt wieder mal wie viel AMD Trolle es hier gibt. 30% der User. Die Karte ist top. Auch der Vram langt. Preis ist hoch.

Technisch ist die Karte spitze.
Preis inakzeptabel.

Die Umfrage ist ein gutes Beispiel, warum dieses Forum in anderen Foren einen so schlechten Ruf hat.

Lehdro
2022-11-28, 23:14:13
[x] Negativer Ersteindruck, die Preislage versaut alles, aber es gibt auch noch andere Gründe.

NVs propertiärer Scheiß geht mir zusätzlich auf den Sack. Oder darf man das als Grund nicht nennen @ die beiden über mir?

Ben Carter
2022-11-28, 23:33:32
Ich hätte nicht gedacht, dass nVidia es schafft, den Zweiteindruck der 970 (https://www.3dcenter.org/umfrage/wie-ist-der-zweiteindruck-zur-geforce-gtx-970) noch zu unterbieten. Aber mit dem Preis war es wohl unvermeidlich.

Wirklich schade. Top Produkt, definitiv falscher Preis.

Legendenkiller
2022-11-29, 09:25:28
hab für Durchschnittlich , aber Preis veraut es gestimmt.
Negativ kann ich für eine GRafikkarte die technisch fast alles richtig macht, nicht stimmen.

Beim 12V Stecker hätte man evtl 50cent mehr ausgeben sollen und welche nehmen die passgenauer sind und eine saubers "Klick Einrastfeedback" geben ;-)

ChaosTM
2022-11-29, 09:40:20
Bis auf den üblichen, unvermeidlichen proprietären Stuff macht die Karte nichts falsch.
Die 16GB könnten langfristig eventuell zum Flaschenhals werden, aber da keine neue Konsolengeneration an- und Direct Storage ins Haus steht, wird das wohl reichen die nächste 4-5 Jahre.

Hängt also eigentlich nur am Preis..

Aja, mein Stecker klickt (ganz leise) :)