PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse nVidia GeForce RTX 4070 Ti


Leonidas
2023-01-09, 18:44:33
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4070-ti

Link zur entsprechenden Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4070-ti

Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4070-ti

blackbox
2023-01-09, 19:28:50
Auf einem rein hypothetischen, aber noch nicht einmal wirklich billigen Listenpreis von 599 Dollar (~670 Euro) wäre dies ein echtes Angebot mit einem sofort sichtbaren Generations-Vorteil.
Was willst du uns damit sagen?

Exxtreme
2023-01-09, 19:42:16
Was willst du uns damit sagen?

Dass das Ding zu teuer ist. :)

blackbox
2023-01-09, 20:10:29
Als Fazit ein Wunschgedanke ist irgendwie nicht passend. Die Karte ist nun mal zu teuer. Dann muss man das auch so sagen.

Gast
2023-01-09, 21:02:12
Als Fazit ein Wunschgedanke ist irgendwie nicht passend. Die Karte ist nun mal zu teuer. Dann muss man das auch so sagen.
Wer definiert eigentlich, was "zu teuer" ist?
Zu teuer im Vergleich zu was? Grafikkarten von vor 5 Jahren? Dann ja, sicherlich.
Im Vergleich zur Konkurrenz? Sicherlich nicht, da hat Nvidia sogar das bessere Angebot.

Ich finde die 4070TI eine super WQHD Karte.
Gute Leistung, sehr gute Effizienz, klasse Featureset.
Ram dürfte etwas mehr sein, für WQHD sind die 12GB aber auf Sicht der nächsten Jahre in Ordnung.

Ob einem die Karte 900 Euro wert ist? Das muss jeder selber entscheiden.
Für WQHD ist es zumindest die attraktivste Karte auf dem Markt, bezogen auf die neuen Generationen.
Wem das zu viel Geld ist der muss eben eine älter (und langsamere) Karte nehmen - aber das galt ja schon immer. Wem die schnelle Hardware zu teuer ist, muss die langsamere kaufen.

Das Gejammer "so teuer" nervt einfach nur noch - ja, es ist teuer.
Aber das sind Grafikkarten seit inzwischen über 2 Jahren, allmählich weiß es jeder.
Akzeptiert es einfach. Und kauft sie oder kauft sie nicht.
Und der Witz: Wir reden hier von wieviel? 300? Euro, die die Karte "zu teuer" ist? Bei einer Karte die man 4 Jahre oder länger hat.
Wegen den paar Euro so ein Aufstand?

Jammert ihr eigentlich auch jedes mal wenn ihr vor einer Eisdiele steht, dass die Kugel nicht mehr 10 Pfennige kostet?
Auch Eis ist teuer geworden - aber es wird nicht besser wenn man deswegen seitenlang aufregt.
Es wird keiner gezwungen die Karten zu kaufen.
Aber wir wissen inzwischen, dass euch die Karten "zu teuer" sind.
Das hat garantiert jeder schon hundert mal geschrieben.
Wenn man es noch hundertmal schreibt wird es nicht besser.

Gastronom
2023-01-09, 21:37:10
Sehr schöne Zusammenfassung, vielen Dank dafür!

Technisch betrachtet tolle Zeiten, aus Konsumentensicht eher ziemlich mau.
Preis Leistung stimmt derzeit gar nicht, weder bei boards noch Ram, Grafikkarten gar nicht mit zusätzlichen Fauxpas an allen Fronten. Nahezu alles wird mit LEDs und Displays zugeschiessen was ich nicht will oder brauche.

Hab darüber nachgedacht mir was mit 5800X3D oder 12700K mit ner 6800 zusammen zu basteln, aber irgendwie ist das halt auch wieder alles EOL Zeugs :/

Gast
2023-01-09, 21:45:49
Bei 16k $ pro Wafer kostet der AD104-Chip etwa 100$. Die Preiserhöhung der 4070 Ti auf 799$ gegenüber der 3070 Ti (599$), deren Chip ein Drittel größer ist, beträgt das Doppelte davon. Wenn Jensen("A 12-inch wafer is a lot more expensive today.") also behauptet, die Preiserhöhungen (bei der 4080 sogar +500$ bzw. +58%) hätten mit der teureren Fertigung zu tun, muss TSMC in der Vergangenheit Geld an NV für die Abnahme von Chips überwiesen haben.

GerryB
2023-01-09, 21:59:35
3070Ti =620€ +50€ für 4GB more Vram wäre 670€ =4070Ti, falls so gedacht.

Mal abgesehen von allen Reviews, die eh nur Stock zeigen, erwartet man eigentlich noch ein paar OCing-Reserven.
(man will schließlich preiswert kaufen und nahe an die nächstgrößere Graka@stock rankommen)

Beim 8auer brachte Vram-OCen der Ti net allzuviel!?
(da hatte man sich für die 192bit evtl. ne bessere Skalierung gewünscht)

Das Problem ist in der Praxis, das ausgerechnet der leicht teurere Kontrahent ein hervorragender OCer ist und damit der Abstand noch größer wird.
(ne Nitro 7900XT schafft 30k im TS-Grafikscore, die beste 4070Ti 25k)

MD_Enigma
2023-01-10, 00:53:29
Wer definiert eigentlich, was "zu teuer" ist?
Folgender Denkansatz: Mit jeder neuen Hardware-Generation seit 1970 hast du ein besseres Preis/Leistungsverhältnis bekommen. Im Hardware-Bereich hattest du bisher immer gewisse Segmente, in denen sich die Nachfolge-Generation einsortiert hat. Einsteiger-GPU's waren unter 200 Euro, Mainstream zwischen 200-450 und Performance bei 450-800 Euro. Inflations- und Wechselkurs-bedingt, ändert sich das etwas im Laufe der Zeit.

Wenn das nicht so wäre, wären die Preise linear gewachsen. Dann hätte ein Intel 486 DX 66 MHz mit fiktivem Preis von 500 Euro heute immer noch den gleichen Wert und ein AMD Zen4 mit 5,3 GHz würde über 80 mal so viel Kosten (>40 TEUR).

Die Taktik von NVidia das "neue" Mainstream-Segment linear auf hochzustufen ist einfach frech. Das gibt weder der Wechselkurs - noch die Inflation - noch die Technologie her. Sprich NVidia will dir ohne echte Gegenleistung mehr aus der Tasche ziehen.

Ob einem die Karte 900 Euro wert ist? Das muss jeder selber entscheiden. Das Gejammer "so teuer" nervt einfach nur noch.


Apple hat es im Mobiltelefon-Segment geschafft aus einem 250 Euro Produkt ein 750 Euro Produkt zu machen. Mal schauen, ob es hier auch klappt. Lass mich in Ruhe weiter meckern. Mein Geld bekommt man nur durch eine Gegenleistung. Deutsche Tugend ;)

Geh und huldige solange mit deinem Kunsum-Geldbeutel für die geniale Hardware. Ich warte ganz in Ruhe ab, ob es genug von deiner Sorte gibt und die Preise mittelfristig haltbar sind.

Leonidas
2023-01-10, 04:39:50
Was willst du uns damit sagen?

Nach den vielen Worten á "zu teuer" wollte ich es einfach mal plastisch machen - in Form der Nennung eines konkreten Preispunkts, der zur Karte passen würde.




Mal abgesehen von allen Reviews, die eh nur Stock zeigen, erwartet man eigentlich noch ein paar OCing-Reserven.
(man will schließlich preiswert kaufen und nahe an die nächstgrößere Graka@stock rankommen)

Lies mal genau durch, wurde thematisiert. Die 4070Ti kommt leider unter OC nicht vom Fleck.

Gast
2023-01-10, 07:09:47
Bei 16k $ pro Wafer kostet der AD104-Chip etwa 100$. Die Preiserhöhung der 4070 Ti auf 799$ gegenüber der 3070 Ti (599$), deren Chip ein Drittel größer ist, beträgt das Doppelte davon.

So funktioniert das aber nicht.

Gewinnmargen werden prozentual berechnet, du kannst nicht 1:1 die gestiegenen Kosten auf den Verkaufspreis raufrechnen.

Zumal das Silizium nicht das einzige ist was teurer wurde F&E, die PCBs, all die unzähligen Bauteile auf der Platine, mehr RAM usw. Alles wurde teurer.

Für die 4070Ti ist es sogar ziemlich realistisch, dass die Margen am Ende zur 3070Ti sehr ähnlich sind.

Gast
2023-01-10, 07:23:30
Folgender Denkansatz: Mit jeder neuen Hardware-Generation seit 1970 hast du ein besseres Preis/Leistungsverhältnis bekommen.

Stimmt nicht. Schon mit Turing gab es quasi kein besseres Preis/Leistungsverhältnis.

Die Nachfolgegeneration hätte das zwar auf dem Papier geboten, war in der Praxis aber noch viel weiter davon entfernt.
Schwer zu sagen wie es ohne Mining ausgesehen hätte, aber es gab damals ja schon vor dem großen Boom Stimmen die bezweifelten, dass die ausgerufenen UVPs überhaupt realisierbar waren.
Und dass die meisten Karten am Ende ihrer Lebensspanne nach dem Miningcrash, gerade so mal ihre UVP erreichten, wenn man eigentlich im Zuge der Lagerräumung für die nächste Generation speziell nach dem Crash Preise weit unter UVP erwarten durfte ist zumindest ein Hinweis, dass die ursprünglich ausgerufenen UVPs tatsächlich kaum realistisch waren.

Ja die letzten 20 Jahre waren anders. Die ganze Hardwareentwicklung wurde davon getrieben, dass der Preis/Transistor mit jeder Generation deutlich gesunken ist.

Und genau dieses Moores law, dieses sagt nämlich nicht wie fälschlicherweise oft angenommen die technische Machbarkeit aus, sondern dass sich die Kosten pro Bauteil regelmäßig halbieren, ist mittlerweile mausetot.

Und mit nur mehr sehr gering sinkenden Kosten/Transistor kann es nur 2 Möglichkeiten geben. Entweder wesentlich geringere Leistungsfortschritte, oder die Preise müssen steigen.

Gast
2023-01-10, 07:24:50
Apple hat es im Mobiltelefon-Segment geschafft aus einem 250 Euro Produkt ein 750 Euro Produkt zu machen.

Man hat in der Zeit sich allerdings auch von einem Ipod mit Telefonfunktion zu einem Notebook das in die Hosentasche passt weiterentwickelt.

Gastprofessor
2023-01-10, 07:31:46
Das Problem der Karte ist doch auch der zu kleine VRAM. Dafür ist die einfach viel zu teuer. Weniger RAM als die langsameren Konsolen geht über kurz oder lag nicht gut. Nach 1 1/2 Jahren muss man da wahrscheinlich schon wieder neukaufen.

Henroldus
2023-01-10, 08:39:41
in der erste Tabelle ist noch ein Fehler in der Anzahl der FP32 Einheiten der 4070 Ti:
FP32-Einheiten 760 anstatt 7680
und danke für die Mühe wie immer! :)

Prinzenrolle
2023-01-10, 09:01:15
Ich find löblich, dass Nvidia etwas mehr Performance zum günstigeren Preis bietet.
Man schlägt die 7900XT um etwa overall 5%, kostet aber 100 Dollar weniger.
Wer die 12GB verschmerzen kann und eh nicht in 4K spielt, bekommt ne 10% schnellere Karte für 100 Euro weniger. Nice.
AMD wird damit kaum ihre Karte absetzen können.

Blase
2023-01-10, 09:12:47
Geh und huldige solange mit deinem Kunsum-Geldbeutel für die geniale Hardware. Ich warte ganz in Ruhe ab, ob es genug von deiner Sorte gibt und die Preise mittelfristig haltbar sind.

Deine Sig und Hardware Informationen sind aktuell? Du spielst mit ner GTX 780? Also legst du hier keinen großen Wert (mehr?) auf aktuelle Spiele? Bist in FHD mit niedrigeren Details und eher bei älteren Titeln unterwegs? Egal?

Mir gehts hier um deine Perspektive. Du kannst dich dann auch unverändert entspannt zurück lehnen und - völlig zurecht - die abgehobenen Preise kritisieren. Aber jemand, der vielleicht auch nicht viel mehr bezüglich GPU in der Kiste stecken hat und eigentlich seit Jahren nur den Markt beobachtet, weil die Preise irgendwie nicht passen (Turing zu teuer und zu wenig Leistungsplus, Ampere nur auf dem Papier gute UVPs und über Ada müssen wir hier nicht reden...) der schiebt sein Hobby bereits seit Jahren vor sich hin und geht Kompromisse hinsichtlich Titel Auswahl und/oder Auflösung und Grafikdetails ein. Es schmälert also den Spielspaß seines Hobbys. Ist doch verständlich, dass viele dann einfach sagen "drauf geschissen". Es ist ein Hobby. Also etwas, was mir ein breites Grinsen ins Gesicht zaubern sollte. Und Hobbys kosten, in aller Regel, Geld. Ob es einem das also wert ist, wegen 200, 300 Euro "Mehrpreis" weiterhin sich in seinem Hobby einzuschränken, entscheidet jeder für sich. Ist halt auch - trotz zu hoher Preise - ebenfalls verständlich...

MfG Blase

Kleebl00d
2023-01-10, 09:29:13
Eine sehr gute Zusammenfassung, in gewohnt übersichtlicher Struktur. Wunderbar, vielen Dank dafür!

Auf Seite 3 hat sich Anfang des zweiten Absatzes ein Fehler eingeschlichen: Der Vergleich ist bestimmt zur 3080 10Gb, und nicht zur 4080 10Gb.

Gast
2023-01-10, 09:33:22
Ich kann nicht verstehen, wie diese Karte als WQHD abgestempelt wird. Bei einigen Berichten liest man, dass 12 GB VRAM genug sind für 4K. Bei Techpowerup schafft die Karte 99 FPS im Schnitt bei 4K. Das Ding kann zu 99,999% aller Games für 4K problemlos verwendet werden, auch mit RT. Ich zocke mit meiner RTX 2060 in der Regel auf 4K.
Ich denke der Autor lässt sich hier zu sehr von Nvidia Marketing blenden. Hier werden auch ständig neue CPUs bzgl. Performance hoch gelobt, die praktisch kaum einen Nutzen bringen. Ich zocke noch mit dem X5660 - ohne Probleme.

Wenn jeder einfach mal nur das kauft was Mehrwert liefert, würden nicht so viele über die Preise weinen. Ich kaufe dann erst eine neue GPU oder CPU, wenn es ruckelt und nicht wenn ich 200 anstatt 100 FPS rausholen kann. Ich habe dann auch nicht geweint, als ich über 2K für meinen 75 Zoll Samsung TV gezahlt habe. Das musste sein. ;-)

Scheidenspreitzer
2023-01-10, 09:40:04
Ob es einem das also wert ist, wegen 200, 300 Euro "Mehrpreis" weiterhin sich in seinem Hobby einzuschränken, entscheidet jeder für sich. Ist halt auch - trotz zu hoher Preise - ebenfalls verständlich...

Also ich lebe nur einmal, daher hab ich in den sauren Apfel gebissen und mir eine RTX 4090 für 1900 gegönnt.
Allerdings wird die Karte wie die RTX 2080Ti wieder 4 bis 5 Jahre halten.

Leonidas
2023-01-10, 09:44:18
in der erste Tabelle ist noch ein Fehler in der Anzahl der FP32 Einheiten der 470Ti:
FP32-Einheiten 760 anstatt 7680

Auf Seite 3 hat sich Anfang des zweiten Absatzes ein Fehler eingeschlichen: Der Vergleich ist bestimmt zur 3080 10Gb, und nicht zur 4080 10Gb.

Gefixt! Danke für die Hinweise.



Ich kann nicht verstehen, wie diese Karte als WQHD abgestempelt wird. Bei einigen Berichten liest man, dass 12 GB VRAM genug sind für 4K.

Nicht wegen dem Speicher, sondern wegen dem Leistungs-Profil. Sie hat ihren größten Mehrwert unter WQHD (und FullHD).

Midnight-3DC
2023-01-10, 09:47:41
Wer definiert eigentlich, was "zu teuer" ist?
Zu teuer im Vergleich zu was? Grafikkarten von vor 5 Jahren? Dann ja, sicherlich.
Im Vergleich zur Konkurrenz? Sicherlich nicht, da hat Nvidia sogar das bessere Angebot.

Ich finde die 4070TI eine super WQHD Karte.
Gute Leistung, sehr gute Effizienz, klasse Featureset.
Ram dürfte etwas mehr sein, für WQHD sind die 12GB aber auf Sicht der nächsten Jahre in Ordnung.

Ob einem die Karte 900 Euro wert ist? Das muss jeder selber entscheiden.
Für WQHD ist es zumindest die attraktivste Karte auf dem Markt, bezogen auf die neuen Generationen.
Wem das zu viel Geld ist der muss eben eine älter (und langsamere) Karte nehmen - aber das galt ja schon immer. Wem die schnelle Hardware zu teuer ist, muss die langsamere kaufen.

Das Gejammer "so teuer" nervt einfach nur noch - ja, es ist teuer.
Aber das sind Grafikkarten seit inzwischen über 2 Jahren, allmählich weiß es jeder.
Akzeptiert es einfach. Und kauft sie oder kauft sie nicht.
Und der Witz: Wir reden hier von wieviel? 300? Euro, die die Karte "zu teuer" ist? Bei einer Karte die man 4 Jahre oder länger hat.
Wegen den paar Euro so ein Aufstand?

Jammert ihr eigentlich auch jedes mal wenn ihr vor einer Eisdiele steht, dass die Kugel nicht mehr 10 Pfennige kostet?
Auch Eis ist teuer geworden - aber es wird nicht besser wenn man deswegen seitenlang aufregt.
Es wird keiner gezwungen die Karten zu kaufen.
Aber wir wissen inzwischen, dass euch die Karten "zu teuer" sind.
Das hat garantiert jeder schon hundert mal geschrieben.
Wenn man es noch hundertmal schreibt wird es nicht besser.
Gebe dir zwar im Prinzip schon Recht aber das Beispiel mit der Eiskugel finde ich unpassend, weil dort vermutlich der Haupttreiber für die Teuerung die Inflation ist. Oder anders ausgedrückt, die für die 10 Pfennig hast du damals vielleicht das Gleiche bekommen wie jetzt für einen Euro.

Der Vorwurf bei den Grafikkarten lautet aber gerade, dass die Teuerung nicht durch die Inflation kommt. AMD und nVidia behaupten, dass die Herstellung einfach soviel teurer geworden ist. Die Fachpresse scheint das allerdings soweit ich das überblicke eher anzuzweifeln. Ich finde es in dieser Situation durchaus legitim die Preise sachlich zu kritisieren.
Das ist für mich eher damit vergleichbar, das man im Herbst und Winter die Spritpreise genau unter die Lupe genommen hatte. Der Fall liegt bei den Grafikkarten natürlich etwas anders, weil diese mehr Luxusgut sind und auch nicht extra steuerlich subventioniert wurden aber dennoch muss eine kritische Beleuchtung der Sachlage erlaubt sein. Leider haben wir es bei den Grafikkartenherstellern inzwischen (zumindest auf diesem Niveau) mit einem Duopol zu tun und die Corona und Cryptocoin verursachte Verknappung der letzten Jahre legen die Vermutung nahe, dass hier vielleicht Begehrlichkeiten geweckt worden sind.

In letzter Konsequenz muss das natürlich trotzdem jeder für sich selbst entscheiden aber diese Entscheidung kann ich informierter treffen, wenn ich Artikel wie diesen im 3DCenter lese, die mich auf die veränderten, relativen Preisverhältnisse hinweisen. Dafür wie immer ein großse Lob und Danke an Leo. :up:

Gast
2023-01-10, 10:00:32
Nicht wegen dem Speicher, sondern wegen dem Leistungs-Profil. Sie hat ihren größten Mehrwert unter WQHD (und FullHD).

Das Problem an dem Artikel und dieser Aussage ist, dass sie nur auf relative Vergleiche basieren. Karte X ist 30% schneller als Karte Y. Karte X verliert bei 4K 10% Leistung mehr als bei FHD im Vergleich zu Karte Y.

Der Fehler dabei ist, m.E., dass nicht die messbaren Unterschiede relevant sind sondern die für einen Spieler erfahrbaren/merkbaren Unterschiede.

Die RTX 4070 TI kann problemlos Games in 4K darstellen, auch flüssig. Auch wenn sie etwas mehr einbricht, sind die Frames einfach zu hoch, um sie hierfür schlecht zu reden.
Wie ich sagte...Nvidia Marketing oder sonstige Fehleinschätzung. Praktisch ist das einfach nicht nachvollziehbar.

Gast
2023-01-10, 10:17:58
Ich lege sogar noch eins drauf: Streng genommen, sagt der Artikel überhaupt nicht aus, welche Karte überhaupt für welche Auflösung sinnvoll nutzbar ist. Das sind sauber ausgearbeitete Zahlen, praktisch sagen sie aber nur relative Vergleiche aus. Das einzige was ich daraus schließen kann, ist, dass die RTX 4090 die schnellste Graka ist und die RTX 4070 TI sowie RTX 3070 die besten Karten sind im Bereich P/L.
Mehr kann ich als Käufer nicht sinnvoll für mich schließen. Abgesehen vielleicht von Netzteilanforderungen.

Blase
2023-01-10, 10:20:50
Also ich lebe nur einmal, daher hab ich in den sauren Apfel gebissen und mir eine RTX 4090 für 1900 gegönnt.
Allerdings wird die Karte wie die RTX 2080Ti wieder 4 bis 5 Jahre halten.

Ich finde die 4090 nicht einmal wirklich "überteuert" :freak: - davon ausgehend, dass das Spitzenprodukt einer Linie im Preis natürlich nicht linear steigt. Aber als einzige Karte, die gegenüber dem direkten Vorgänger ein sattes Leistungsplus hatte, bei gleichzeitig nur minimalster Preiserhöhung (1499$ => 1599$ - für den Schwachen Euro/Dollar Kurs kann nVidia nix), musste ich auch nicht lange bezüglich der 4090 nachdenken ;)

Aber genau das meine ich: "Man lebt nur einmal" trifft es dann ganz gut. Davon ausgehend, dass weder nVidia noch AMD diese Generation hier wirklich signifikant bezüglich Preis/Leistung noch mal einen raushauen werden - will man also auch diese Generation überspringen und dann auf die nächste hoffen? Weitere 2 Jahre kein Upgrade? Wie lange dann schon in Summe gewartet? Seit Turing womöglich? Dann also bald 6 Jahre warten? Für ein paar hundert Euro....?! Also ich finde die Antwort auf diese Frage einfach...

MfF Blase

Exxtreme
2023-01-10, 10:24:33
Ich lege sogar noch eins drauf: Streng genommen, sagt der Artikel überhaupt nicht aus, welche Karte überhaupt für welche Auflösung sinnvoll nutzbar ist.

Weil das vom Spiel abhängt. Wenn ein Spiel meint 13 GB an Texturen nutzen zu müssen dann werden Karten mit weniger RAM langsamer werden. Oder man muss die Detailstufe der Texturen senken um Speicherplatz zu sparen.

Gast
2023-01-10, 10:30:57
Weil das vom Spiel abhängt. Wenn ein Spiel meint 13 GB an Texturen nutzen zu müssen dann werden Karten mit weniger RAM langsamer werden. Oder man muss die Detailstufe der Texturen senken um Speicherplatz zu sparen.

Dann kann man das aber auch so darstellen, und sagen, dass von 20 Titeln X Spiele nicht flüssig laufen aufgrund von zu wenig VRAM (und der Autor hat weiter oben noch gesagt, dass VRAM nicht das Problem sei sondern das Leistungsprofil).
Da sehe ich aber nicht im Artikel. Abgesehen davon möchte ich das Beispiel sehen, wo die Karte wirklich einbricht aufgrund von VRAM. Bitte jetzt nicht sagen, Spiel X belegt bei mir 13 GB....das sagt noch nichts aus wie es mit Karten mit weniger VRAM läuft.

MD_Enigma
2023-01-10, 10:38:36
Ich finde die 4090 nicht einmal wirklich "überteuert" :freak: - davon ausgehend, dass das Spitzenprodukt einer Linie

MfF Blase

Was wäre dann überteuert? Ich zitiere dich in 2 Jahren ;) Merk dir dein Gehalt und wir reden nochmal über Inflation und Kaufkraft.

Blase
2023-01-10, 10:53:36
Was wäre dann überteuert? Ich zitiere dich in 2 Jahren ;) Merk dir dein Gehalt und wir reden nochmal über Inflation und Kaufkraft.

Überteuert ist ganz sicher das, was eine 4090Ti kosten wird (oder die 3090Ti gekostet hat). Maximaler Preisaufschlag bei minimaler Mehrperformance gegenüber der jeweiligen 90er Karte der selben Generation. Aber eine XX90Ti sehe ich ohnehin "kritischer" - anderes Thema ;)

Mal davon ab, dass ich solche Produkte hinsichtlich Preis/Leistung nicht anhand von Inflation bewerte. Das wird - bei mir - bestenfalls im Hinterkopf mit in eine große Rechnung mit einbezogen. Um Ende entscheidet eh ein Misch aus "Will-Haben" Bauchgefühl und "Notwendigkeit" und "Leidensdruck" ;)

Aber mir ist klar, dass meine ganz persönliche Sicht auf diese Dinge nicht Allgemeingültigkeit hat. Und ich habe an inzwischen diversen Stellen ausdrücklich betont, dass Ada in Summe hoffnungslos überteuert ist. Ich verstehe aber jeden, der mit der Schulter zuckt und trotzdem kauft...

MfG Blase

readonly
2023-01-10, 10:57:02
Gibt es denn ein Spiel ohne Mods, ootb das bei 4k mit der 4070ti massiv einbricht auf Grund des VRams? Heavy Texture Mods sind ne andere Geschichte, aber für den Normalfall sollten die 12gb erstmal reichen. Zur Not, halt an den Details ne Kleinigkeit schrauben. Bedeutet ja nicht gleich Augenkrebs sondern in 99% der Fälle merkt man das kaum beim zocken. Und darum geht es doch? Manchmal meine ich, einige kaufen ihre Karten nur für Benchmarks

Leonidas
2023-01-10, 11:36:14
Die RTX 4070 TI kann problemlos Games in 4K darstellen, auch flüssig.

An dieser Stelle haben wir uns wohl mißverstanden. Denn ich will Deine Aussage überhaupt nicht in Abrede stellen. Meine Aussage bezog sich auf etwas anderes: Relativ gesehen ist die Karte unter WQHD am effektivsten. Sprich: Die schnelleren Karten lohnen dort viel weniger als unter 4K.




Ich lege sogar noch eins drauf: Streng genommen, sagt der Artikel überhaupt nicht aus, welche Karte überhaupt für welche Auflösung sinnvoll nutzbar ist.

Korrekt. Das würde nur mit absoluten Frameraten gehen, was aber nicht die Zielsetzung dieser Ausarbeitung ist. Dafür sind die vielen Hardware-Tests zur 4070Ti da.

Gast
2023-01-10, 12:05:59
Das Problem der Karte ist doch auch der zu kleine VRAM.

Das viel größere Problem ist das kleine Interface.

Die Karte hat im Prinzip das selbe Problem wie RDNA2 mit der zurückgehenden Cache Hitrate in höheren Auflösungen, nur nochmal eine Stufe stärker, da das Interface nochmal 1/3 kleiner ist, und der "große" Cache gar nicht mal so groß ist.

Und das bei einer Grundperformance die eigentlich locker für 4k ausreichen würde. Der GPU Kern kann offensichtlich locker mit einer 3090Ti mithalten, wenn er denn nicht in höheren Auflösungen verhungern würde.

Hier sieht man auch deutlich wie viel die großen Caches an Effizienz bringen, bzw. genauer gesagt wieviel der deutlich kleinere Cache der 4070Ti an Effizienz gegenüber der 4080 kostet, die regelmäßig deutlich effizienter ist.

Exxtreme
2023-01-10, 12:27:52
Gibt es denn ein Spiel ohne Mods, ootb das bei 4k mit der 4070ti massiv einbricht auf Grund des VRams? Heavy Texture Mods sind ne andere Geschichte, aber für den Normalfall sollten die 12gb erstmal reichen. Zur Not, halt an den Details ne Kleinigkeit schrauben. Bedeutet ja nicht gleich Augenkrebs sondern in 99% der Fälle merkt man das kaum beim zocken. Und darum geht es doch? Manchmal meine ich, einige kaufen ihre Karten nur für Benchmarks

Massiv einbrechen in 4K wegen zu wenig RAM ist sehr unwahrscheinlich. Es ist so, 4K kostet insgesamt ca. 95 MB RAM. Und das sind nichteinmal 1% der 12 GB. Das Einbrechen in 4K wird eher wegen der 192 Bit-Speicheranbindung passieren und nicht wegen VRAM-Mangel. :) VRAM-Mangel werden speicherfressende Texturen und viel RT auslösen.

Gast
2023-01-10, 12:31:03
An dieser Stelle haben wir uns wohl mißverstanden. Denn ich will Deine Aussage überhaupt nicht in Abrede stellen. Meine Aussage bezog sich auf etwas anderes: Relativ gesehen ist die Karte unter WQHD am effektivsten. Sprich: Die schnelleren Karten lohnen dort viel weniger als unter 4K.

Korrekt. Das würde nur mit absoluten Frameraten gehen, was aber nicht die Zielsetzung dieser Ausarbeitung ist. Dafür sind die vielen Hardware-Tests zur 4070Ti da.

Warum wird aber im Artikel gesagt, dass WQHD die Zielsetzung der Karte ist? Sorry, das m.E. nicht belegbar. Auch nicht durch die Hardware Tests. Da läuft die Karte gut in 4K. Ich könnte umgekehrt sagen: Die anderen Karten lohnen nicht für 4K, die noch teurer sind, wenn Du selbst sagt, dass die Karte gut für 4K läuft.

Ich finde es schade, dass VR nicht einbezogen wird. Das nutzen nicht viele...aber auch nicht viele kaufen sich 1000€ Grafikkarten. Wenn man schon eine Grafikkarte für Enthusiasten bewertet, dann lieber vollständig.

dildo4u
2023-01-10, 12:31:39
Gibt es denn ein Spiel ohne Mods, ootb das bei 4k mit der 4070ti massiv einbricht auf Grund des VRams? Heavy Texture Mods sind ne andere Geschichte, aber für den Normalfall sollten die 12gb erstmal reichen. Zur Not, halt an den Details ne Kleinigkeit schrauben. Bedeutet ja nicht gleich Augenkrebs sondern in 99% der Fälle merkt man das kaum beim zocken. Und darum geht es doch? Manchmal meine ich, einige kaufen ihre Karten nur für Benchmarks

Framegeneration scheint aktuell zusätzlich Vram zu brauchen bissel zu viel für Cyberpunk mit RT.

https://youtu.be/j5udAzvKQXk?t=570

Gast
2023-01-10, 12:40:56
Gibt es denn ein Spiel ohne Mods, ootb das bei 4k mit der 4070ti massiv einbricht auf Grund des VRams? Heavy Texture Mods sind ne andere Geschichte, aber für den Normalfall sollten die 12gb erstmal reichen. Zur Not, halt an den Details ne Kleinigkeit schrauben. Bedeutet ja nicht gleich Augenkrebs sondern in 99% der Fälle merkt man das kaum beim zocken. Und darum geht es doch? Manchmal meine ich, einige kaufen ihre Karten nur für Benchmarks

Ich denke hier im Forum kaufen die meisten nach Benchmarks...und meckern dann, dass die Preise zu hoch sind, für Hardware, die sie nicht brauchen....
Der Artikel selbst sagt auch nur, wie viel schneller eine Graka ist aber nicht wie der praktische Mehrwert ist. Das ist m.E. das Problem an den Hardware Tests. Zahlen werden ohne praktische Bedeutung verglichen.

Gast
2023-01-10, 12:46:40
Mir gehts hier um deine Perspektive. Du kannst dich dann auch unverändert entspannt zurück lehnen und - völlig zurecht - die abgehobenen Preise kritisieren. Aber jemand, der vielleicht auch nicht viel mehr bezüglich GPU in der Kiste stecken hat und eigentlich seit Jahren nur den Markt beobachtet, weil die Preise irgendwie nicht passen (Turing zu teuer und zu wenig Leistungsplus, Ampere nur auf dem Papier gute UVPs und über Ada müssen wir hier nicht reden...) der schiebt sein Hobby bereits seit Jahren vor sich hin und geht Kompromisse hinsichtlich Titel Auswahl und/oder Auflösung und Grafikdetails ein. Es schmälert also den Spielspaß seines Hobbys. Ist doch verständlich, dass viele dann einfach sagen "drauf geschissen". Es ist ein Hobby. Also etwas, was mir ein breites Grinsen ins Gesicht zaubern sollte. Und Hobbys kosten, in aller Regel, Geld. Ob es einem das also wert ist, wegen 200, 300 Euro "Mehrpreis" weiterhin sich in seinem Hobby einzuschränken, entscheidet jeder für sich. Ist halt auch - trotz zu hoher Preise - ebenfalls verständlich...

MfG Blase
+1
Die 2xxx Generation habe ich übersprungen, lohnte nicht.
Ampere war mir dann zu teuer wegen Miningboom und Co.
Jetzt auch noch Lovelace überspringen?
Wie lange soll ich denn warten bis es "in Ordnung" ist zu kaufen?
8 Jahre? 10 Jahre?
Mit einer neuen Karte habe ich dann wieder 6 Jahre Ruhe, es interessiert mich inzwischen tatsächlcih nicht mehr ob die 300 Euro "zu viel" kostet.

Seit Corona mache ich eh nix mehr, gehe nie mehr weg, nie mehr ins Kino, treffe kaum noch jemanden, habe keine Lust mehr auf Urlaub, eigentlich lebe ich nur noch fürs Geschäft und die restliche Zeit gammel ich daheim vor dem Computer oder Fernseher rum. Das muss ich wenigstens nicht mit einer 6 Jahre alten Karte machen. Oh ja, wie dekadent von mir. Mein Konsum ist wirklich irre hoch.
Ins Grab kann ich das Geld aber auch nicht mitnehmen und ich habe auch keinen dem ich irgendwas vererben sollte.

readonly
2023-01-10, 12:56:28
Ins Grab kann ich das Geld aber auch nicht mitnehmen und ich habe auch keinen dem ich irgendwas vererben sollte.

Ihr trefft eine total heisse Braut auf der Strasse, alles läuft, du gehst mit ihr Essen, mal in den Club. Alles einkalkulierte Kosten. Doch dann kommt "Hey, damit wir zusammenkommen, musst Du 300€ bezahlen." Gehen oder den Spaß mitnehmen? ;D

https://abload.de/img/faceapp_1673351942304owf17.jpg

MD_Enigma
2023-01-10, 13:12:46
Überteuert ist ganz sicher das, was eine 4090Ti kosten wird (oder die 3090Ti gekostet hat). Maximaler Preisaufschlag bei minimaler Mehrperformance gegenüber der jeweiligen 90er Karte der selben Generation.
Für mich zum Mitschreiben:

Wenn eine 4090 100% relative Performance hat und 2000 EUR kostet und die 4090 Ti 115% hat und 2500 EUR kostet ist diese überteuert?

Ergo auch: Eine 4070 die 50% relative Performance hat und 900 Euro kostet ist nicht überteuert?

Ergo auch: Eine 5090 die 200% relative Performance hat und 4000 Euro kostet ist nicht überteuert?

Ergo auch: Eine 6090 die 400% relative Performance hat und 8000 Euro kostet ist nicht überteuert?

Und ich habe an inzwischen diversen Stellen ausdrücklich betont, dass Ada in Summe hoffnungslos überteuert ist.
MfG Blase
Ich finde die 4090 nicht einmal wirklich "überteuert"

Was ist jetzt überteuert? Ist nur die 4090 "überteuert"? Nix verstehn in Athen.

Edit: PS: Du merkst worauf ich raus will. Deine Perspektive ist verschoben, weil du dich auf die 4090 versteifst. Die lebt nunmal in einem Ökosystem in einem Markt und dort passt sie gerade nicht rein. Ich verstehe völlig, dass NVidia die Markt-Chance durch künstliche Verknappung nutzt. Hätte ich als Unternehmer genau so gemacht ;) Nur muss man sich eingestehen, dass man ein Konsumdepp ist wenn man das mitgeht. Jetzt schaut man wie der Markt reagiert. NVidia hat mit den Titans bisher ausgelotet wie viel Potential vorhanden ist auch 1000 Euro für eine Grafikkarte zu holen. Jeder der jetzt kauft muss sich bewusst sein, dass es zu teuer ist und auf eine Kauf-Aktion auch eine Rekation des Marktes stattfindet.

Leonidas
2023-01-10, 13:37:48
Warum wird aber im Artikel gesagt, dass WQHD die Zielsetzung der Karte ist? Sorry, das m.E. nicht belegbar. Auch nicht durch die Hardware Tests. Da läuft die Karte gut in 4K. Ich könnte umgekehrt sagen: Die anderen Karten lohnen nicht für 4K, die noch teurer sind, wenn Du selbst sagt, dass die Karte gut für 4K läuft.

Du hast Recht. Das mit der Zielsetzung "WQHD" ist eine Annahme meinerseits - eben weil die Karte da am effektivsten ist. Was NV wirklich bezweckt, kann aber jeder außerhalb von NV nur raten.




Ich finde es schade, dass VR nicht einbezogen wird. Das nutzen nicht viele...aber auch nicht viele kaufen sich 1000€ Grafikkarten. Wenn man schon eine Grafikkarte für Enthusiasten bewertet, dann lieber vollständig.

Leider viel zu wenige Tests, um das sinnvoll auswerten zu können.




Ihr trefft eine total heisse Braut auf der Strasse, alles läuft, du gehst mit ihr Essen, mal in den Club. Alles einkalkulierte Kosten. Doch dann kommt "Hey, damit wir zusammenkommen, musst Du 300€ bezahlen." Gehen oder den Spaß mitnehmen? ;D

Man könnte an dieser Stelle tatsächlich tiefgehende philosophische Betrachtungen anschließen. Aber mit DEM angehängten Bild fällt das alles ins Wasser ;)

Blase
2023-01-10, 13:45:19
Was ist jetzt überteuert? Ist nur die 4090 "überteuert"? Nix verstehn in Athen.

Na komm - du musst hier schon mit machen ;)

Die Ada Generation als Ganzes halte ich für überteuert. Davon ausgehend, dass sehr wahrscheinlich auch alles unterhalb der 4070Ti ebenfalls hunderte von Euro mehr kostet als das jeweilige direkte Vorgängermodell. Der einzige Lichtblick ist die 4090.


Sie ist das Flaggschiff ihrer Generation. Damit einher geht natürlich ein überproportional steigender Preis. Das ist ok weil ist so ;)
Sie ist aber auch grob 66 Prozent schneller als ihr direkter Vorgänger (unter RT noch mehr) und hat damit mit Abstand das größte Leistungsplus gegenüber dem direkten Vorgänger.
Gleichzeitig ist die Preiserhöhung gegenüber dem direkten Vorgänger absolut und relativ (mit Abstand) am geringsten gegenüber den weiteren Modellen der Ada Generation


Wenn du also mit diesen Überlegungen deine Rechnungen noch einmal überarbeiten magst, kommst du der Sache sicherlich näher... ;)

Und zu deinem Edit...

Es wissen so ziemlich alle, dass das zu teuer ist, aber wir reden hier von einer Einmal Investition von ein paar hundert Euro ("mehr") - die in nicht wenigen Fällen wieder 2, 4 oder gar mehr Jahre laufen wird. Das sind über die Laufzeit gerechnet doch Peanuts. Deswegen schränkt sich doch niemand ernsthaft auf Dauer in seinem Hobby ein (oder sollte es imho zumindest nicht). Scheiße, es gibt Hobbys, da verballerst du 300€ jeden Monat - Monat für Monat. Und hier sollen sich bitte alle auf Jahre zurück nehmen, weil die Hersteller sich die Taschen etwas voller machen? Naiv!
Gleichzeitig ebenso naiv ist die Annahme, dass nVidia und AMD nun - da sie es ja offensichtlich können - beliebig weiter die Preise anheben werden. Vielleicht versuchen sie es sogar - aber nur weil eine gewisse Preissteigerung über den Markt hinweg ("zähneknirschend") akzeptiert wird, heißt das ja nicht, dass das Spielchen beliebig weiter zu treiben ist. Ist es nicht...

MfG Blase

Gast
2023-01-10, 13:50:14
Viel zu teuer das Ding, für 599 bzw. 649 wird nun die non ti kommen, mit 10 GiB GDDR6 non X. Also genauso teuer wie die 3080.

Nur weil man im Cryptowahn nicht genug bekommen konnte, noch riesige Berge Ampere rumoxidieren (RDNA2 vermutlich genauso), muss es nun der Gamer ausbaden. Fahrt zur Hölle...

Was ich mich frage ist, welche Idioten das überteuerte Zeug trotzdem kaufen.

Gast
2023-01-10, 13:59:13
Du hast Recht. Das mit der Zielsetzung "WQHD" ist eine Annahme meinerseits - eben weil die Karte da am effektivsten ist. Was NV wirklich bezweckt, kann aber jeder außerhalb von NV nur raten.


Nvidia bewirbt und bewertet die Karte explizit als perfekte Karte für WQHD Spieler.

Das du das in deinem Artikel aufgreifst ist IMO richtig.
Das man mit der Karte auch 4K nutzen kann - logisch.

Der WQHD Fokus macht denke ich aber schon Sinn.
Für WQHD ist eine 4080 Overkill, da genügt eine 4070TI auch.
900 Euro vs 1300 Euro ist ein Unterschied, wenn man nur WQHD nutzt muss man da denke ich nicht unbedingt zur 4080 greifen.

Bei 4k ist es noch mal etwas anderes, da lohnt sich die 4080 schon deutlich eher.
Das Leistungsplus ist größer, der Ram wichtiger. Als anspruchsvoller 4K Nutzer macht es Sinn die 4080 zu wählen.

Natürlich sind pauschale Aushängeschilder nie genau, aber als grobe Hausnummer:
WQHD = 4070TI
4K = 4080
macht das schon Sinn.

Nicht jeder User möchte zig Seiten lesen oder Videos schauen um dann herauszufinden welche Grafikkarte jetzt für ihn passt.
Da hilft diese grobe Einordnung wie sie Nvidia trifft sehr.

Gast
2023-01-10, 14:05:10
Nur muss man sich eingestehen, dass man ein Konsumdepp ist wenn man das mitgeht. Jetzt schaut man wie der Markt reagiert. NVidia hat mit den Titans bisher ausgelotet wie viel Potential vorhanden ist auch 1000 Euro für eine Grafikkarte zu holen. Jeder der jetzt kauft muss sich bewusst sein, dass es zu teuer ist und auf eine Kauf-Aktion auch eine Rekation des Marktes stattfindet.

Ein Depp ist man eher, wenn man jahrelang sein Hobby in schlechter betreibt und sich den Spass versagt.
Um auf Sicht von 4 Jahren 300 Euro zu sparen.
Sich das Hobby kaputt zu machen um im Jahr 75!!!! Euro zu sparen. Das nennst du sinnvoll und intelligent?

Wenn du im Monat 2 Stunden spielst - ok, dann kann man sagen: Scheiß drauf, lasse ich es halt bleiben. Das macht Sinn.

Aber wenn du regelmäßig zockst ist das doch kein Geld um sich das Hobby kaputt zu machen.
Bewertest du deine Lebenszeit derartig niedrig?

Ich halte mein Leben ja schon für ziemlich wertlos, aber 70 Euro im Jahr ist es mir dann doch noch wert. :D

Legendenkiller
2023-01-10, 14:22:00
Durchschnittlicher Ersteindruck, primär fehlt ein überzeugender Performance/Preis-Vorteil.
Die Karte ansich ist ja ein gutes Produkt, deswegen nicht negativ.


PS: weil die Frage kam , was ist zu teuer.

Wenn es mehr/schneller im Preis steigt als meine Einkommen ist es für micht teurer geworden.
Mein Einkommen ist um 5% gestiegen, Lebensmittel sind um 40% gestigen = unschön teurer, Strom/Gas um 100% = extrem teu(r)er.

Meine aktuelle Grafikkarte der 70ziger Serie mit 8Gbyte Ram hat 379€ gekostet. Ja ok die 4070ti ist 3x schneller aber ebendauch 3x teurer und hat nach 6 Jahre nur 50% mehr Ram und eine kleineres Speicherinterface das eher in die 60ziger Liga gehört.


Grafikkarten steigen schon seit 10 Jahren überproportional zum Einkommen, zumindest in Deutschland wo es ja in der breiten Masse reale Kaufkraftverluste gibt. Im umkehrschluss heißt das ja, das der Rest der Welt größere Lohnzuwächse hatte/hat.

#44
2023-01-10, 14:32:28
Es wissen so ziemlich alle, dass das zu teuer ist, aber wir reden hier von einer Einmal Investition von ein paar hundert Euro ("mehr") - die in nicht wenigen Fällen wieder 2, 4 oder gar mehr Jahre laufen wird. Das sind über die Laufzeit gerechnet doch Peanuts. Deswegen schränkt sich doch niemand ernsthaft auf Dauer in seinem Hobby ein (oder sollte es imho zumindest nicht). Scheiße, es gibt Hobbys, da verballerst du 300€ jeden Monat - Monat für Monat. Und hier sollen sich bitte alle auf Jahre zurück nehmen, weil die Hersteller sich die Taschen etwas voller machen? Naiv!
Videospiele waren die letzten ~18 Jahre ein recht erschwingliches Hobby. Die teuren Hobbies an die du denkst (wenn es nicht gerade KFZ sind) werden auch nicht selten von deutlich weniger Leuten betrieben.
Manch einer hat 350€ GPUs für die von dir genannten Zeiträume genutzt. Das hat wenig mit sollen zu tun. Die Einstiegsschwelle in das Hobby steigt einfach recht drastisch.

Asaraki
2023-01-10, 14:45:17
Videospiele waren die letzten ~18 Jahre ein recht erschwingliches Hobby. Die teuren Hobbies an die du denkst (wenn es nicht gerade KFZ sind) werden auch nicht selten von deutlich weniger Leuten betrieben.
Manch einer hat 350€ GPUs für die von dir genannten Zeiträume genutzt. Das hat wenig mit sollen zu tun. Die Einstiegsschwelle in das Hobby steigt einfach recht drastisch.

Musik ist ein sehr verbreitetes Hobby, Sport auch. Beide kosten deutlich mehr, wenn man sie nur schon halbwegs ernsthaft betreibt.

Klettern kostet mich locker eine GPU pro Jahr, Musik 2-5 GPUs, Kochen als Hobby auch circa eine GPU. Von Skifahren reden wir gar nicht, da kostet ein Wochenende schon eine Teil-GPU :D Eine Katze kostet auch circa eine GPU pro Jahr.
Weitere Hobbies die teurer sind als Gaming : Holzarbeit, Garten, Fischen je nachdem, Golf, Reisen, Fahrrad, Kulinarik.
(Eine GPU = ~1000 Taler)

Irgendwie bleibt da nur noch Lesen ohne neue Bücher zu kaufen und Yoga oder so :D

Mir scheint es als hätten sehr viele Leute bisher eigentlich nicht vorhandenes Geld ausgegeben für den PC, weil es halt nicht "so viel" war. Das tut mir zwar leid, ist aber ein echtes Luxusproblem.

P.S: Der erste der jetzt kommt und sagt, dass man diese Hobbies auch günstig betreiben kann, dem schiebe ich meine alte RX380 in den Po :D Das ist nämlich genau der Punkt, der bei PC Gaming genau so gilt. Herrje man kann für 300 Euro einen alten PC kaufen und damit eine Million Spiele zocken.

Aroas
2023-01-10, 14:53:17
Nicht so wirklich dolle das Ding.
Ich finde sowohl den Speicher etwas zu gering bemessen, als auch den Preis deutlich zu hoch.

Blase
2023-01-10, 15:24:28
Videospiele waren die letzten ~18 Jahre ein recht erschwingliches Hobby. Die teuren Hobbies an die du denkst (wenn es nicht gerade KFZ sind) werden auch nicht selten von deutlich weniger Leuten betrieben.
Manch einer hat 350€ GPUs für die von dir genannten Zeiträume genutzt. Das hat wenig mit sollen zu tun. Die Einstiegsschwelle in das Hobby steigt einfach recht drastisch.

Naja recht erschwinglich ist relativ. Eine komplette Ausstattung inkl. Monitor und allem Drum und Dran kann auch vor 18 Jahren 1000€ aufwärts gekostet haben. Und 1000€ waren vor 18 Jahren sehr viel mehr Geld als heute.
Und wie Asaraki richtigerweise anmerkt, kannst du auch heute für verhältnismäßig kleines Geld dir unverändert ein Gaming Setup hinstellen. Das hat sich doch nicht geändert. Erst recht wenn auch gebraucht in Frage kommt...
Es muss niemand eine 4070 Ti kaufen - wenn das finanziell einfach nicht drin ist. Es muss auch niemand Cyberpunk in 4K mit allen RT Reglern rechts spielen. Will man aber, klar, aber ich will auch mal zum Mond ;)

Was Hobbys angeht... ich spiele Squash auf einem guten Niveau.

Vereinsbeitrag und Platzmiete belaufen sich zusammen auf etwa 150€ im Monat. Ich verschleiße im Jahr etwa zwei Paar Hallenschuhe á 100€. Dazu kommen im Schnitt zwei neue Squash Schläger im Jahr á 120€. Dazu sonstiges wie Griffbänder, Bälle und weiteres Equipment. Vielleicht noch einmal 200€ im Jahr. Zusammen also... etwas über 200€ monatlich an laufenden Kosten für meinen Sport. Da bin ich die einfache Strecke von 30 KM aber noch nicht für hin gefahren... ;)

Wenn ich Squash, was in der Tat leider inzwischen weniger verbreitet ist, nun durch Tennis ersetze, was wiederum eher verbreitet ist, dann kannst du auf alle hier genannten Kosten nochmals einiges drauf setzen. Und Tennis ist nun wirklich kein Exot als Hobby ;) Aber die 300€ an monatlichen laufenden Kosten dürften dann für einen ambitionierten Vereinsspieler locker hinkommen...

... ich finde die Diskussion in Summe recht spannend. Aber wir sind hier hart im OT ;) Ich habe nie bestritten, dass die Preise "seit Corona" (und eben allem, was um diesen Zeitraum herum so passiert ist) ordentlich angezogen haben. Dafür muss man nur mal vor die Tür - und nicht zwingend PC Hardware suchen. Und ich verstehe den oftmals daraus resultierenden Frust total. Aber grade auch in diesen Zeiten (Corona, Krieg, Preise,...) sollten wir uns die wenigen Freuden im Leben nicht unnötig weiter erschweren, indem wir uns dieser Dinge verwehren, die uns eben Freude machen. Ein paar hundert € über ein paar Jahre hinweg nicht auszugeben, sind keine Ersparnis, wenn wir im Umkehrschluss dafür weniger Spaß bei einem unserer Lieblingshobbys haben. Meine Meinung...

MfG Blase

Leonidas
2023-01-10, 15:38:04
Aber grade auch in diesen Zeiten (Corona, Krieg, Preise,...) sollten wir uns die wenigen Freuden im Leben nicht unnötig weiter erschweren, indem wir uns dieser Dinge verwehren, die uns eben Freude machen.

Korrekt. Deswegen ist Bashing gegenüber Leuten, die das einfach bezahlen, auch grundsätzlich zu vermeiden. Jeder darf gern, wie er mag. Und vor allem: Man mache den Leuten niemals ihren Spaß madig! Es ist einfach gut, wenn überhaupt noch Spaß gefunden werden kann.

Aroas
2023-01-10, 15:42:51
Korrekt. Deswegen ist Bashing gegenüber Leuten, die das einfach bezahlen, auch grundsätzlich zu vermeiden. Jeder darf gern, wie er mag.

Wenn sich dadurch Preise zementieren, die ein Großteil der Spieler nicht mehr zahlen kann, dann sehe ich das gänzlich anders.

Sorry.

Platos
2023-01-10, 15:49:11
Bezüglich Launchanalyse: Gute Analyse, danke Leonidas. Mir hat aber nicht so gefallen, dass du das P/L nach Strassenpreisen gerichtet hast (bei Ampere), die mittlerweile wieder höher sind. Der Abverkauf ist vorbei und produziert werden die Karten natürlich schon lange nicht mehr (glaube ich). Da kann man m.M.n natürlich nicht mehr die Strassenpreise von Produkten nehmen, die nicht mehr produziert werden und der Abverkauf vorbei ist.

Bezüglich Umfrage: Negativer Eindruck wegen fehlendem Fortschritt im P/L (jenachdem sogar leicht rückläufig).

Im Gegensatz zur Launchanalyse, habe ich hierzu Listenpreise genommen. Strassenpreise sind m.M.n bei Ampere nicht mehr zu beachten, da der Abverkauf vorbei ist. Die Preise sind jetzt wieder höher, man kann jetzt nicht mehr Strassenpreise bei Ampere nehmen. Die sind (spätestens) ab jetzt, nicht mehr ein fairer Vergleich.

Aber verglichen mit dem Listenpreis, schneidet die 4070Ti minimalst besser (2-3%) wie die 3080 und 370Ti ab und sogar minimal schlechter, wie die 3070 (3-4%). Sie hat zwar 12GB anstatt 10 bzw. 8, aber das ist natürlich nicht ausreichend für eine neue Generation.

Realistisch betrachtet müsste die 4070Ti mit Abverkaufspreisen konkurrieren, die normalerweise ~20% unterhalb des Listenpreises sind. So oder so muss eine neue Generation (nach 2! Jahren) sicherlich mindestens 20% drauf legen (und zwar nicht gegen absurde Vergleiche mit einer 3090(Ti) oder 3080Ti/12GB etc.). Und auch nicht verglichen mit teuren Strassenpreisen nach dem Abverkauf oder mit übertriebenen UVPs, die zu Mining-Zeiten enstanden sind oder mit sonstigen Miningpreisen. Eher mit Preisen unterhalb des Listenpreises (sofern er denn überhaupt realistisch ist, wie z.B bei einer 3070 und 3080).

Fazit: Die 4070Ti ist zwar die erste Karte der neuen Gen, die +/- nicht weniger FPS/$ liefert, aber das macht die Karte natürlich nicht gut, sondern schlecht. Die anderen beiden sind nur noch schlechter. Im Grunde gabs das aber schonmal, und zwar die RTX 2080. Die war sogar noch so schlecht, dass sie 3GB weniger Speicher geboten hat bei gleichem Preis und Leistung.

Naja, am Schluss ist die Karte einfach 200$ zu teuer bzw. 300Euro. Für 599 wäre die Karte ein fairer Deal. Keine Bahnbrechenden Fortschritte, aber das zu erwarten, wäre auch unfair. Für 599 Strassenpreis wäre die Karte ein fairer Deal, den man m.M.n mit gutem Gewissen hätte empfehlen können.

Aber so kommt halt ein negativer Eindruck!

Ich warte auf unschlagbare 3090/3080Ti Angebote (~500), was vermutlich nicht so schnell kommen wird. Und somit warte ich realistischerweise vermutlich erneut 2 Jahre und kaufe mir eine 4080/4090 gebraucht dann bzw. vlt. dann das, was dann neu kommt. AMD kommt mir mit RDNA 3 wieder nicht infrage. Wird sich vermutlich bis RDNA4 auch nicht ändern, mit RDNA3 haben sie ja bewiesen, dass sie nicht aufschliessen können. Abgesehen davon dass man nvidia bei Videobearbeitung sowieso (leider) vorziehen "muss".

Wenn sich dadurch Preise zementieren, die ein Großteil der Spieler nicht mehr zahlen kann, dann sehe ich das gänzlich anders.

Sorry.

Genau, sehe ich auch anders. Wenn andere zu solchen Preisen kaufen, und somit auch mir die Preise vermiesen, dann habe ich sehr wohl Grund dazu, diese Personen zu kritisieren.

Kaufen dürfen die das natürlich trotzdem und sollen sie auch dürfen. D.h aber nicht, dass ich sie nicht kritisieren darf und sich diese Leute eben dann mit der Kritik abfinden müssen. Egoistisches verhalten (man vermiest damit die Preise für alle), wird nunmal kritisiert und das ist m.M.n auch gut so.

Abgesehen davon hat man m.M.n einfach kein Rückgrat, wenn man Unternehmen wie AMD und nvidia solche Preise auffahren lässt und das auch noch mit macht (vorausgesetzt einem ist nicht gerade die Karte abgekratzt oder braucht das wirklich beruflich und ist somit am kürzeren Hebel).

Blase
2023-01-10, 16:01:42
Wenn sich dadurch Preise zementieren, die ein Großteil der Spieler nicht mehr zahlen kann, dann sehe ich das gänzlich anders.

Sorry.

Deine Annahme oder Hoffnung wäre also welche? Zig Millionen von Spielern kaufen über Jahre hinweg keine Grafikkarten mehr (oder auch CPUs, sind ja auch alle deutlich teurer als die vorherigen Generationen)... und dann? Haben nVidia und AMD also ein Einsehen (als ob sie alleinig für die hohen Preise verantwortlich wären) und wir haben dann bei der nächsten Generation wieder welche Preise? Darf dann eine 5080 699€ kosten (Ampere UVP)? Oder wie weit möchtest du zurück? 599€ (Pascal)? Versteh mich richtig, würde ich auch cool finden - aber ist das, in der heutigen Zeit, realistisch? Ist ja als würdest du den Liter Super für 1.20€ haben wollen ;) Überspitzt formuliert (!) forderst du von den Autofahrern grade, dass doch bitte alle das Auto mal einen Monat nicht nutzen sollen - weil dann die Hersteller ja schon sehen werden, dass sie diese Mondpreise nicht nehmen können... :tongue:

Wenn man den Zahlen und Gerüchten glauben darf, dann verkauften sich sowohl nVidia als auch AMD aktuell eher schlecht. Also passiert ja durchaus das, was du möchtest. Wir werden ja sehen, wie das Spielchen weiter geht. Wir sind doch alle eh nur Zuschauer in diesem Spiel :cool:

MfG Blase

MD_Enigma
2023-01-10, 16:02:31
Ich glaub so langsam sind war an meinem Punkt und ich hab dir Uneingeschränkt recht @blase.

Ich hatte kein Problem für einen 5775C unverhältnismäßig mehr Geld auszugeben, weil es ein Outstanding-Produkt war. Ich hätte auch kein Problem mein Geld für eine 4090 ausgeben.

Womit ich ein Problem habe (Achtung: Übertreibung): Angenommen dein Platz erhöht die Miete um 200% und begründet das mit gestiegenen Heizkosten. Da fehlt mir die Verhältnismäßigkeit.

Genau das passiert hier bei Ada (4xxx). Ein 70er Chip für 900-1000 Euro. Wow. Das waren bisher 400 Euro UVP mit Luft nach unten. Die 10er-Generation war schon extrem teuer mit 500 UVP für ne 1070 - sonst hätte ich in dieser Generation gekauft. Seit dem arrangiere ich mich mit der 780 und hab echt Lust auf ein paar neuere Games. Bis BF5 gings eigentlich alles ganz OK. PS4 sei dank. Aber Doom Ethernal kannste knicken.

Platos
2023-01-10, 16:07:11
Deine Annahme oder Hoffnung wäre also welche? Zig Millionen von Spielern kaufen über Jahre hinweg keine Grafikkarten mehr (oder auch CPUs, sind ja auch alle deutlich teurer als die vorherigen Generationen)... und dann? Haben nVidia und AMD also ein Einsehen (als ob sie alleinig für die hohen Preise verantwortlich wären) und wir haben dann bei der nächsten Generation wieder welche Preise? Darf dann eine 5080 699€ kosten (Ampere UVP)? Oder wie weit möchtest du zurück? 599€ (Pascal)? Versteh mich richtig, würde ich auch cool finden - aber ist das, in der heutigen Zeit, realistisch? Ist ja als würdest du den Liter Super für 1.20€ haben wollen ;) Überspitzt formuliert (!) forderst du von den Autofahrern grade, dass doch bitte alle das Auto mal einen Monat nicht nutzen sollen - weil dann die Hersteller ja schon sehen werden, dass sie diese Mondpreise nicht nehmen können... :tongue:

Wenn man den Zahlen und Gerüchten glauben darf, dann verkauften sich sowohl nVidia als auch AMD aktuell eher schlecht. Also passiert ja durchaus das, was du möchtest. Wir werden ja sehen, wie das Spielchen weiter geht. Wir sind doch alle eh nur Zuschauer in diesem Spiel :cool:

MfG Blase


Über Jahre :D ?

Da würden 3-4 Monate reichen. Wenn der Absatz einbricht, wird sofort ein Refresh gebracht, der ein deutlich besseres P/L hätte (denn selbst dann würde man vermutlich keine Preissenkungen eingestehen).

Wenn niemand kaufen würde, würde bei nvidia und AMD die Bude beben.

Und abgesehen davon: vlt. hier in diesem Forum kaufen alle ständig neue Hardware, aber "über Jahre hinweg" keine Grafikkarte kaufen ist nichts weiter als ganz normal. Tue also nicht so, als wäre das ein unheimlicher Verlust von Lebensqualität, wenn man jetzt 2 Jahre keine neue Grafikkarte kauft.

Und wer noch auf einer Maxwell-Karte rumgurkt oder irgendwie ne 1050/1060, "darf" m.M.n auch ohne schlechtes Gewissen so eine 4070Ti kaufen. Denn man kann auch eine überteuerte Karte kaufen und trotzdem diese Preise nicht unterstützen. Kauft man für den doppelten Preis einfach nur halb so oft Grafikkarten, ist das genau das selbe, wie wenn man eben zu fairen Preisen "normal oft" kauft.

Es geht darum, dass man das nicht einfach mitspielt. Man muss nicht "ewigs" nichts mehr kaufen. Aber sicherlich sollte man nicht kaufen, wenn man noch ne Turingkarte oder höher im Kasten hat.

Blase
2023-01-10, 16:19:11
Und abgesehen davon: vlt. hier in diesem Forum kaufen alle ständig neue Hardware, aber "über Jahre hinweg" keine Grafikkarte kaufen ist nichts weiter als ganz normal. Tue also nicht so, als wäre das ein unheimlicher Verlust von Lebensqualität, wenn man jetzt 2 Jahre keine neue Grafikkarte kauft.

Da hast du mich falsch verstanden. Ich spreche von den Leuten, die Pascal oder älter in der Kiste haben - und seit Turing mit dem Kauf gehadert haben, eben weil Preis/Leistung seit dem aus dem Ruder gelaufen ist. Diese Leute haben schon seit Jahren nix neues mehr im PC.

Und wer noch auf einer Maxwell-Karte rumgurkt oder irgendwie ne 1050/1060, "darf" m.M.n auch ohne schlechtes Gewissen so eine 4070Ti kaufen. Denn man kann auch eine überteuerte Karte kaufen und trotzdem diese Preise nicht unterstützen. Kauft man für den doppelten Preis einfach nur halb so oft Grafikkarten, ist das genau das selbe, wie wenn man eben zu fairen Preisen "normal oft" kauft.

Ich finde diese Argumentation jetzt nicht sehr logisch :freak:

EDIT:

Genau das passiert hier bei Ada (4xxx). Ein 70er Chip für 900-1000 Euro. Wow. Das waren bisher 400 Euro UVP mit Luft nach unten. Die 10er-Generation war schon extrem teuer mit 500 UVP für ne 1070 - sonst hätte ich in dieser Generation gekauft. Seit dem arrangiere ich mich mit der 780 und hab echt Lust auf ein paar neuere Games. Bis BF5 gings eigentlich alles ganz OK. PS4 sei dank. Aber Doom Ethernal kannste knicken.

Dann sind wir uns eigentlich einig. Mit der Ausnahme, dass ich eigentlich jemanden wie dich tatsächlich dazu ermutigen würde, in den sauren Apfel zu beißen und trotzdem eine Ada Karte (in deinem Fall bringt die vorherige Gen aber auch ein riesen Leistungszuwachs) zu kaufen. Denn du solltest dich mit deinem Hobby nicht arrangieren, sondern einfach voller Freude die aktuellsten Titel zocken ;)

MfG Blase

readonly
2023-01-10, 16:20:46
Mit meiner 3060ti hab ich über 1000€ Mining Erlöse, die Karte selbst zum UVP gekauft, Mwst bekomme ich wieder. 4070ti for free.

Ich glaube der ein oder andere hat zumindest während des Mining Booms seine Karte auch für den Nachfolger "ackern" lassen.

Raff
2023-01-10, 16:22:00
[...] Seit dem arrangiere ich mich mit der 780 und hab echt Lust auf ein paar neuere Games. Bis BF5 gings eigentlich alles ganz OK. PS4 sei dank. Aber Doom Ethernal kannste knicken.

Kepler ist heutzutage einfach Schrott - wegen mangelnder Features und mangelnder Treiberliebe. Das bringt dich aber in die geile Lage, das fast jede Grafikkarte am Markt ein gigantisches Upgrade wäre. Investier ~350 Euro in eine Radeon RX 6700 und hab Spaß!

MfG
Raff

Gast
2023-01-10, 16:29:38
Natürlich sind pauschale Aushängeschilder nie genau, aber als grobe Hausnummer:
WQHD = 4070TI
4K = 4080
macht das schon Sinn.

Nicht jeder User möchte zig Seiten lesen oder Videos schauen um dann herauszufinden welche Grafikkarte jetzt für ihn passt.
Da hilft diese grobe Einordnung wie sie Nvidia trifft sehr.

Du hast aber schon verstanden, warum Nvidia das macht? Damit Leute mit einem grossen 4K TV, so wie ich, gleich die 4090 bestellen. Bei einem sachlichen Review und einer Bewertung würde ich erwarten, dass man hinterfragt, ob das wirklich so ist. Bei Techpowerup hat die RTX 4070 TI im Schnitt 99 FPS bei 4K bei allen Games. Könnte schlimmer sein....

Platos
2023-01-10, 18:01:59
Ich finde diese Argumentation jetzt nicht sehr logisch :freak:

EDIT:



Dann sind wir uns eigentlich einig. Mit der Ausnahme, dass ich eigentlich jemanden wie dich tatsächlich dazu ermutigen würde, in den sauren Apfel zu beißen und trotzdem eine Ada Karte (in deinem Fall bringt die vorherige Gen aber auch ein riesen Leistungszuwachs) zu kaufen. Denn du solltest dich mit deinem Hobby nicht arrangieren, sondern einfach voller Freude die aktuellsten Titel zocken ;)

MfG Blase


Also wenn du halb so oft ne Grafikkarte kaufst, aber für den doppelten Preis, macht das Unternehmen genau gleich viel Gewinn (also nicht mehr, wie wenn man im selben Upgradezyklus doppelt so teuer kauft). Deshalb bewirkt das trotzdem was. Die, die ich meine, sind ja eben die, die dann mit Turing oder Ampere trotzdem upgraden. Es geht also um Geld pro Zeit. Das bliebe gleich dann.

Und ja, habe auch kurz nachgedacht, ob ich eine 4070Ti kaufen soll. Ich habe aber eine PS5, zocke alle AAA Titel seit dem nur noch da und auf dem PC hauptsächlich ältere Spiele, sonst drehe ich halt mal runter. Und die PS5 liefert 60FPS mit relativ guter Grafik. Ne neue GPU könnte ich z.B für Videobearbeitung gebrauchen (auch wegen dem Strompreis und der Effizienz). Aber habe alles genau ausgerechnet. Es lohnt sich nicht wirklich für mich. Zu mal ich es nicht über's Herz bringe, weniger FPS pro Geld zu kriegen für Rasterperfomance. Bei Videobearbeitung kann ich kein DLSS nutzen :D (habe damals 170 für meine 1070Ti bezahlt. Ne 3090/4070Ti dürfte also eig. maximal ~550 kosten).

Aus diesen Gründen bleibe ich vorerst weiterhin auf meiner alten Grafikkarte und warte ab, bis sich was gebrauchtes ergibt zu besserem P/L (bzw. mindestens gleichgut bei Rasterperfomance) oder warte auf die nächste Gen.

Aber von Kepler aus, wie z.B MD_Enigma, würde ich sicherlich auf eine 4070Ti upgraden für unter 850.

Mega-Zord
2023-01-10, 18:06:56
Hier gibt es anscheinend viele, die glauben, dass es in Absehbarer Zeit wieder Mittelklasse/Performance für 300 EUR gibt.

Der typische 3DCler, der seit über 4 Jahren was davon faselt, dass er nicht mehr als 250 EUR für eine Grafikkarte ausgibt. ;D

Aroas
2023-01-10, 19:25:56
Hier gibt es anscheinend viele, die glauben, dass es in Absehbarer Zeit wieder Mittelklasse/Performance für 300 EUR gibt.

Der typische 3DCler, der seit über 4 Jahren was davon faselt, dass er nicht mehr als 250 EUR für eine Grafikkarte ausgibt. ;D

Glauben tue ich daran nicht.

Aber dennoch gebe ich nicht mehr als 250-300€ für eine GPU aus. Wenn das bedeutet, dass ich länger mit meiner aktuellen Karte auskommen und später was gebrauchtes kaufen muss, dann ist das halt so.

Ich kann mit Einstellungsreglern umgehen und brauche nicht zwingend 4K in jedem neuen Titel.
Außerdem kaufe ich Spiele eh meist viel später in irgendeinem Sale.
Daher komme ich auch mit einer Karte von vor 3-4 Jahren gut aus.

Mega-Zord
2023-01-10, 20:44:43
Ich finde ja auch, dass GeForce Experience einen ganz guten Job erledigt, wenn es darum geht, die Optimalen Settings für ein Spiel zu finden. Leider braucht man heute für alles einen Account.

Gibt es von AMD auch so ein Optimierungs-Tool?

#44
2023-01-10, 21:10:55
Und Tennis ist nun wirklich kein Exot als Hobby ;)
Selbst Fußball schafft es nur auf 8% der Bevölkerung.

Aber grade auch in diesen Zeiten (Corona, Krieg, Preise,...) sollten wir uns die wenigen Freuden im Leben nicht unnötig weiter erschweren, indem wir uns dieser Dinge verwehren, die uns eben Freude machen. Ein paar hundert € über ein paar Jahre hinweg nicht auszugeben, sind keine Ersparnis, wenn wir im Umkehrschluss dafür weniger Spaß bei einem unserer Lieblingshobbys haben. Meine Meinung...
Da man den selben Euro nicht 2x ausgeben kann ein Scheinargument. Auf irgendwas muss man am Ende nämlich verzichten. Aber mit vollen Hosen ist natürlich gut stinken.
Ansonsten wie du schon schriebst: Es passiert. Ob es was bringt?

Aroas
2023-01-10, 21:26:41
Ich finde ja auch, dass GeForce Experience einen ganz guten Job erledigt, wenn es darum geht, die Optimalen Settings für ein Spiel zu finden. Leider braucht man heute für alles einen Account.

Gibt es von AMD auch so ein Optimierungs-Tool?

1. Da suche ich mir meine optimalen Settings weiterhin lieber selbst aus. Da kann ich nämlich selbst festlegen, welche Details mir wichtig sind.

2. Dass man für Experience einen Account braucht, ist eine Farce.

3. Afaik hat AMD sowas bisher nicht.

Blase
2023-01-10, 22:26:34
Also wenn du halb so oft ne Grafikkarte kaufst, aber für den doppelten Preis, macht das Unternehmen genau gleich viel Gewinn (also nicht mehr, wie wenn man im selben Upgradezyklus doppelt so teuer kauft). Deshalb bewirkt das trotzdem was. Die, die ich meine, sind ja eben die, die dann mit Turing oder Ampere trotzdem upgraden. Es geht also um Geld pro Zeit. Das bliebe gleich dann.

Naja inhaltlich habe ich dich schon verstanden - ich finde nur deine Denke nicht konsequent :tongue:

Einerseits sagst du, dass die Karte viel zu teuer ist (was ich unterschreibe). Und du sagst ebenfalls, dass jede verkaufte Einheit ein Signal in Richtung nVidia ist, dass deren gesetzter Preispunkt aber trotz hoher Preise wohl seitens des Konsumenten ok geht (unterschreibe ich letztlich auch). Und abschließend sagst du, dass alle diese Käufer dir die Preise vermiesen und du sie zu recht diesbezüglich kritisieren kannst...

... aber gleichzeitig sagst du dann, dass aber Käufer, die von älteren Generationen kommen, aber durchaus ohne schlechtes Gewissen kaufen können - und nur weil sie seltener kaufen nVidia damit nicht bezüglich der hohen Preise unterstützen.

Das finde ich schwierig :freak:

Zum einen für dich, weil du dann ja gar nicht genau weißt, wen du nun kritisieren kannst - und wen nicht (kommt einer von Turing oder gar Ampere zu Ada ist es ein Depp - kommt er aber von älteren Karten geht das in Ordnung?!)...
... und dann würde ich meinen, dass es aus nVidia Sicht total egal ist. Rein fiktiv: Wenn sich 1 Mio 4070Ti verkaufen, sind das 1 Mio verkaufte Einheiten. Ist das viel, dann ist das Signal an nVidia, dass die 4070Ti zum Preis von 899€ gerechtfertigt ist. Und dann sehen wir definitiv keine fallenden Preise bei der 5070Ti. Wären die 1 Mio Einheiten aber wenig, könnte es für zukünftige Preise besser aussehen. Aber so oder so - es spielt in dieser Betrachtung überhaupt keine Rolle, ob die Käufer nun von Ampere, Turing oder Pascal kommen...

Selbst Fußball schafft es nur auf 8% der Bevölkerung.

Du, keine Ahnung. Mag sicherlich so sein, dass die Hobbys in Summe, die monatlich 300€ und mehr kosten, in der Breite der Bevölkerung in der Minderheit sind. Aber wir reden hier auch nicht von den oberen zehntausend. Ich gehöre jedenfalls definitiv nicht in diese illustre Runde - und mich kostet mein Hobby "Sport" über 300€ im Monat, wenn ich alles relevante zusammen zähle. Und auch mit ner 4090 im Rechner komme ich summiert in meinem zweiten Lieblingshobby "PC Gaming" nicht auf einen durchschnittlichen Jahresumsatz von 3.600€. Nicht mal in der Nähe davon...

Da man den selben Euro nicht 2x ausgeben kann ein Scheinargument. Auf irgendwas muss man am Ende nämlich verzichten. Aber mit vollen Hosen ist natürlich gut stinken.

"Volle Hosen"... "verzichten"... ich weiß nicht. Reden wir hier immer noch von den 300€ Aufpreis, den die 4070Ti zu viel kostet? So wie du das sagst, klingt es eher so, als müsste da noch ne null dran - mindestens ;)

Oder reden wir jetzt von Leuten, die wirklich knapp bei Kasse sind? Ehrlicherweise würde ich bei denen annehmen, dass ne 4070Ti ohnehin nicht Gegenstand ihrer Überlegungen ist - egal ob diese nun 899€ oder 599€ kostet. Wobei die Erfahrung gelehrt hat, dass auch (und vielleicht gerade) diese Leute oftmals die neuesten Handys und sonstigen Elektronik Schnick Schnack haben - aber das ist ein anderes Thema...

EDIT: Bezüglich der Umfrage - ich halte die 4070 Ti für ne gute und ausgewogene Karte - nur der Preis ist viel zu hoch. Deswegen mittelmäßige Gesamtbewertung bei mir...

MfG Blase

Mega-Zord
2023-01-10, 22:32:06
1. Da suche ich mir meine optimalen Settings weiterhin lieber selbst aus. Da kann ich nämlich selbst festlegen, welche Details mir wichtig sind.

2. Dass man für Experience einen Account braucht, ist eine Farce.

3. Afaik hat AMD sowas bisher nicht.

1. Habe ich früher auch gemacht, aber heute ist mir die Zeit dafür zu schade und das Ergebnis von Experience zu gut. Ich benutze aber auch DLSS, was für einige hier ja die Hölle sein muss.

2. Da stimme ich zu. Leider macht das Steelseries bei der Software auch so und die nötig, damit ich den einen Regler verwenden kann, weil der nur Software ist. :(

3. AMD ist ja bei der Software leider deutlich hinter NV. Die haben halt gut Ingeneure und echt gute Chips, aber keine Entwickler, die sie in die Stuidios schicken können, damit Spiele das letzte Quäntchien aus der Hardware holen. Im Profi-Bereich ist es ja eigentlich noch schlimmer, da benutzt doch niemand mehr Radeon Pro Karten.

Schnitzl
2023-01-10, 23:48:24
Musik ist ein sehr verbreitetes Hobby, Sport auch. Beide kosten deutlich mehr, wenn man sie nur schon halbwegs ernsthaft betreibt.

Klettern kostet mich locker eine GPU pro Jahr, Musik 2-5 GPUs, Kochen als Hobby auch circa eine GPU. Von Skifahren reden wir gar nicht, da kostet ein Wochenende schon eine Teil-GPU :D Eine Katze kostet auch circa eine GPU pro Jahr.
Weitere Hobbies die teurer sind als Gaming : Holzarbeit, Garten, Fischen je nachdem, Golf, Reisen, Fahrrad, Kulinarik.
(Eine GPU = ~1000 Taler)

Irgendwie bleibt da nur noch Lesen ohne neue Bücher zu kaufen und Yoga oder so :D

Mir scheint es als hätten sehr viele Leute bisher eigentlich nicht vorhandenes Geld ausgegeben für den PC, weil es halt nicht "so viel" war. Das tut mir zwar leid, ist aber ein echtes Luxusproblem.

P.S: Der erste der jetzt kommt und sagt, dass man diese Hobbies auch günstig betreiben kann, dem schiebe ich meine alte RX380 in den Po :D Das ist nämlich genau der Punkt, der bei PC Gaming genau so gilt. Herrje man kann für 300 Euro einen alten PC kaufen und damit eine Million Spiele zocken.
jain.

Ich denke es gibt 2 Punkte die das gegenwärtige Problem verursachen.

Punkt 1:
Inflation, selbst im Supermarkt ist alles teurer geworden. Dazu noch massiv gestiegen Heiz- und Stromkosten.
und noch mehr.

Punkt 2:
bis mindestens Turing hat Gaming zwar gekostet, aber es war händelbar, auch mit "nicht dem höchsten Gehalt". Das hat sich nun radikal geändert, und zwar trotz dass der Mining Boom eigentlich vorbei ist.

Nun kommt zu Punkt 1 hinzu, dass die GPU Preise teilweise bis zu doppelt so hoch sind wie vorher. Will sagen, man hat sowieso schon weniger und gleichzeitig gehen die GPU Preise durch die Decke.

Die Gelddmenge ist nun mal endlich, egal wieviel man davon hat. Und wenns z.B. 2.000 netto pro Monat sind (Beispiel, nicht mein Gehalt) dann wird eben eng...

Gast
2023-01-10, 23:57:40
So funktioniert das aber nicht.

Gewinnmargen werden prozentual berechnet, du kannst nicht 1:1 die gestiegenen Kosten auf den Verkaufspreis raufrechnen.


Das habe ich nicht. Du ignorierst den nachfolgenden Satz, den du nicht zitiert hast. Jensen höchstpersönlich versucht, die extremen Preiserhöhungen auf gestiegene Fertigungskosten zu schieben. Was aber offensichtlich nur eine dreiste Ausrede ist, wie jeder selbst nachrechnen kann. NV geht es bei den extremen Preiserhöhungen um Profitmaximierung. Schließlich handelt es sich um eine Aktiengesellschaften.

NV achtet sehr genau darauf, dass die Kosten so niedrig wie möglich sind(siehe aktuelles Beispiel aus den 3DC-News des 9. Januar 2023). Selbst beim Adapter hat NV offensichtlich noch einen möglichst billigen gewählt.


Zumal das Silizium nicht das einzige ist was teurer wurde F&E, die PCBs, all die unzähligen Bauteile auf der Platine, mehr RAM usw. Alles wurde teurer.

Die Preise vorallem für RAM sind gegenüber der Vorgängergeneration durch den Miningcrash und das Ende des billionenteuren Lockdownregimes deutlich gesunken. Die preistreibenden Engpässe sind vorbei. Außerdem sind die Chipgröße, das Speicherinterface und die Speicherbandbreite kleiner als beim Vorgängermodell. Die 4070Ti ist durch die stark beschnittene Hardware eher eine 4060 und vom Preis eher eine 4080.

Selbst um eine Milliarde höhere Entwicklungskosten gegenüber der vorherigen Generation wären keine Erklärung für die extremen Preiserhöhungen. Bei ~80 Mio. verkaufter GPUs würden diese über 2 Jahre nur ~12,50 $ Mehrkosten pro GPU bzw. 25 $ über 1 Jahr(d.h. bei späteren und unwahrscheinlichen Preissenkungen) bedeuten.


Für die 4070Ti ist es sogar ziemlich realistisch, dass die Margen am Ende zur 3070Ti sehr ähnlich sind.

Für die 4090 mag das gegenüber dem Vorgängermodell zutreffen, da dieses bereits einen Halo-Preisaufschlag hatte, aber nicht bei 4070Ti (+33%) und 4080 (+58%).

Selbst msiUSA scherzt auf twitter über die schlechten Preise:
"Like a towering pillar, the @NVIDIAGeForce 4070 Ti is now on sale at our MSI store! Experience the POWER of the Ada Lovelace architecture, at a cost of “not as bad as a 4080”!"

Leonidas
2023-01-11, 04:14:28
Wenn sich dadurch Preise zementieren, die ein Großteil der Spieler nicht mehr zahlen kann, dann sehe ich das gänzlich anders.

Ok, ich meinte ja aber auch nicht, das ich mit Kritik sparen will. Ich richte jene nur an die Firmen, nicht an die Leute. Jemanden den Spaß an seiner Hardware-Erwerbung madig zu machen, ist nicht fein.

#44
2023-01-11, 07:15:07
Du, keine Ahnung. Mag sicherlich so sein, dass die Hobbys in Summe, die monatlich 300€ und mehr kosten, in der Breite der Bevölkerung in der Minderheit sind. Aber wir reden hier auch nicht von den oberen zehntausend. Ich gehöre jedenfalls definitiv nicht in diese illustre Runde - und mich kostet mein Hobby "Sport" über 300€ im Monat, wenn ich alles relevante zusammen zähle. Und auch mit ner 4090 im Rechner komme ich summiert in meinem zweiten Lieblingshobby "PC Gaming" nicht auf einen durchschnittlichen Jahresumsatz von 3.600€. Nicht mal in der Nähe davon...
Und trotzdem ist das eine "Obere 10%"-Perspektive. Wenn's Richtung Durchschnittseinkommen geht würde ich 300€ eher in der Nähe des gesamten monatlichen Freizeitbudgets sehen. Mit Kindern auch weniger. Und dann sind da noch die aktuellen Strom und Gaspreise.

"Volle Hosen"... "verzichten"... ich weiß nicht. Reden wir hier immer noch von den 300€ Aufpreis, den die 4070Ti zu viel kostet? So wie du das sagst, klingt es eher so, als müsste da noch ne null dran - mindestens ;)
Im Vergleich zu den Preisen vor der UVP-Verzerrung durch den Mining-Boom sind es 400€ Differenz. UVP von 1070 TI und 2070 TI lagen bei ca. 500€. Das ist nicht weit weg von einer Verdopplung über die letzten 3 Jahren.
Und es ist ja auch nicht so, dass es nur die 4070 TI betreffen würde. Die naheliegende Vermutung für lower Midrange sind jedenfalls nicht 500€ Preissprung zum upper Midrange...

Oder reden wir jetzt von Leuten, die wirklich knapp bei Kasse sind?
Wir reden davon, das bei einer Preiserhöhung klar jenseits der Inflation deutlich mehr Leute über die "Kann ich mir Leisten"-Grenze rutschen, als irgendwer vor 2 Jahren gedacht hätte.

Blase
2023-01-11, 09:19:16
Und trotzdem ist das eine "Obere 10%"-Perspektive. Wenn's Richtung Durchschnittseinkommen geht würde ich 300€ eher in der Nähe des gesamten monatlichen Freizeitbudgets sehen. Mit Kindern auch weniger. Und dann sind da noch die aktuellen Strom und Gaspreise.

[...]

Wir reden davon, das bei einer Preiserhöhung klar jenseits der Inflation deutlich mehr Leute über die "Kann ich mir Leisten"-Grenze rutschen, als irgendwer vor 2 Jahren gedacht hätte.

Du, schwieriges Thema. Ich will hier diesbezüglich niemanden auf die Füße treten. Grundsätzlich ja, ich spreche aus der Perspektive desjenigen, der sich diese Dinge leisten kann. Und ich maße mir nicht an, die Lebensumstände anderer Personen zu kennen - oder zu kritisieren.

Aber wenn das Geld wirklich knapp ist, dann ist weder ne Investition von 599$ (was allgemein als "fairer" Preis für die 4070Ti gelten würde), noch von 899$ drin. Das stünde doch in keinem Verhältnis zu den von dir veranschlagten 300€ (oder weniger) für das monatliche Gesamtbudget für die gesamte Familie. Da wäre ein Blick auf den Gebrauchtmarkt oder zumindest in die vorherige Generation doch sehr viel zielführender imho...

MfG Blase

Gast
2023-01-11, 11:08:14
Ok, ich meinte ja aber auch nicht, das ich mit Kritik sparen will. Ich richte jene nur an die Firmen, nicht an die Leute. Jemanden den Spaß an seiner Hardware-Erwerbung madig zu machen, ist nicht fein.

Wenns so weiter geht, wird die Erwerbung auch weitgehend Selbstzweck und Benchmarktool bleiben. Die Softwareseite wird massiv in Zukunft unter den hohen Hardwarepreisen leiden, weil der Umsatz und die Gewinne einbrechen werden. Dafür sind Nvidia und teilweise AMD fett und schwimmen wie die Fettaugen oben in der PC-Suppe. Die Gamingindustrie hingegen von Schließungen und "Restrukturierungen" geplagt sein.

Blase
2023-01-11, 11:22:38
Die Softwareseite wird massiv in Zukunft unter den hohen Hardwarepreisen leiden, weil der Umsatz und die Gewinne einbrechen werden. Dafür sind Nvidia und teilweise AMD fett und schwimmen wie die Fettaugen oben in der PC-Suppe. Die Gamingindustrie hingegen von Schließungen und "Restrukturierungen" geplagt sein.

Ich kann dir nicht wirklich folgen. Weil Hardware aktuell deutlich teurer geworden ist, wird die Gamingindustrie leiden? Warum soll das so sein? Weil sich die Gamer weniger Spiele leisten können? Weil die Spiele auf den "alten" PCs, die aufgrund überteuerter Hardware nicht aktualisiert werden, nicht mehr laufen werden? Sehe ich beides nicht.

Mal davon ab, dass die "Gamingindustrie" überwiegend für die Consolen arbeitet (für Mobile mal außen vor) und der PC oftmals nur ein Nebenprodukt darstellt. "PC-Exclusive" ist quasi Nische bis nicht existent.

Du müsstest dich mal bitte erklären...

MfG Blase

Exxtreme
2023-01-11, 11:26:49
Wenns so weiter geht, wird die Erwerbung auch weitgehend Selbstzweck und Benchmarktool bleiben. Die Softwareseite wird massiv in Zukunft unter den hohen Hardwarepreisen leiden, weil der Umsatz und die Gewinne einbrechen werden. Dafür sind Nvidia und teilweise AMD fett und schwimmen wie die Fettaugen oben in der PC-Suppe. Die Gamingindustrie hingegen von Schließungen und "Restrukturierungen" geplagt sein.

Die Preise für Hardware sind nur dann hoch wenn man das Neueste und Beste will. Man wird aber nirgendwo gezwungen das zu kaufen. Billige RDNA2- und Ampere-Grafikkarten gibt es weiterhin zu kaufen wenn man sich RDNA3- und Lovelace nicht leisten kann/will.

Und ich bin mir sicher, die Spieleentwickler verfolgen die Steam-Charts ganz genau und sehen was die Masse an Spielern so nutzt.

Leonidas
2023-01-11, 11:33:25
Also das Risiko ist durchaus vorhanden. Wenn die Spiele-Entwickler sehen, das nur noch halb so viele Spieler auf NextGen-Wechseln, rechnen die sich aus, wie lange die Alt-Alt-Alt-Gen demzufolge mit unterstützt werden muß. Dann geht der technische Fortschritt in den Spielen zurück - und das bedeutet wiederum, dass die Next-Next-Gen mit dem Problem zu kämpfen hat, keine technologische Notwendigkeit darzustellen.

Teilweise gibt es das Problem schon jetzt. Eine 4080 hat bis in 4K in 90% der Fälle tief dreistellige Frameraten. Die Karte wird in der Praxis nur in seltenen Fällen wirklich gefordert. Und ändert sich das über die Jahre nicht, besteht kein Grund, eine 4080 irgendwann zu ersetzen.

Timbaloo
2023-01-11, 11:37:36
Mal davon ab, dass die "Gamingindustrie" überwiegend für die Consolen arbeitet (für Mobile mal außen vor) und der PC oftmals nur ein Nebenprodukt darstellt. "PC-Exclusive" ist quasi Nische bis nicht existent.
Wenn man nur Konsolenports spielt, dann kommt man zu genau diesem Schluss.

Und logischerweise kann man dann PC-Preise nicht mehr nachvollziehen, weil man irgendwann merkt, dass man einfach nur extrem viel Geld für eine etwas bessere Konsole zahlt.

Aber das ist halt das Problem wenn man in der "AAA"-Blase (scnr) steckt.

Gast
2023-01-11, 11:43:41
Aber wenn das Geld wirklich knapp ist, dann ist weder ne Investition von 599$ (was allgemein als "fairer" Preis für die 4070Ti gelten würde), noch von 899$ drin. Das stünde doch in keinem Verhältnis zu den von dir veranschlagten 300€ (oder weniger) für das monatliche Gesamtbudget für die gesamte Familie. Da wäre ein Blick auf den Gebrauchtmarkt oder zumindest in die vorherige Generation doch sehr viel zielführender imho...

MfG Blase
Völlig richtig.
Wenn 300 Euro auf 4 Jahre (und man kann auch zwei Generationen übersprungen, dann sind es sogar 6 Jahre) "zu viel" Geld kostet und man sich das nicht leisten kann, dann kann man sich auch keine 500 Euro für eine Grafikkarte leisten.
Dann muss man das Geld definitiv anders ausgeben.

Natürlich hat sich der Preis der Grafikkarten fast verdoppelt, aber auf den Monat umgerechnet ist das eben fast gar nichts.
Jetzt so zu tun als gäbe es massig Leute, die wegen 5-10 Euro mehr oder weniger im Monat plötzlich nicht mehr spielen können ist doch absurd.
Natürlich gibt es diese Leute - sogar viele. Aber die können sich weder eine 4070 für 900 Euro noch eine 4070 für 500 Euro leisten.


Glaubt eigentlich jemand, dass Nvidia hier mitliest und die ganzen Beschweren liest und sich sagt: Oh, das 3DC ist sauer und verärgert, ändern wir doch mal den Preis?
Falls nein, wo genau ist der Mehrwert bei jeder neuen Grafikkarte von Nvidia primär über die hohen Preise gejammert wird?
Komischerweise nur bei Nvidia - bei AMD gibt es kaum Beschwerden. Da ist alles tutti. Alleine das zeigt doch, dass es den meisten hier genau 0 um den Preis geht.
Es ist doch vielmehr so, dass die Nvidia Karten viel zu gut geworden sind. Über was soll man da herziehen? Die super Leistung? Tolle Effizienz?
Ne, geht nicht.
Also sucht man sich eben den einen Kritikpunkt raus den es gibt. Den Preis.
Der Preis ist euch doch scheiß egal, siehe AMD, wo es kaum Beschwerden gibt.

Blase
2023-01-11, 11:51:17
[...]Und ändert sich das über die Jahre nicht, besteht kein Grund, eine 4080 irgendwann zu ersetzen.

Vielleicht habe ich die Aussage auch schlicht falsch verstanden... aber selbst wenn es keinen Grund gibt, die 4080 auf längere Sicht zu ersetzen - was hat das mit den vermeidlichen Schließungen (wie vom Gast prophezeit) der Gamingindustrie zu tun?

Wenn man nur Konsolenports spielt, dann kommt man zu genau diesem Schluss.

Und logischerweise kann man dann PC-Preise nicht mehr nachvollziehen, weil man irgendwann merkt, dass man einfach nur extrem viel Geld für eine etwas bessere Konsole zahlt.

Aber das ist halt das Problem wenn man in der "AAA"-Blase (scnr) steckt.

Also auf mich trifft keine deiner Aussagen zu ;)

MfG Blase

Platos
2023-01-11, 13:24:49
Also das Risiko ist durchaus vorhanden. Wenn die Spiele-Entwickler sehen, das nur noch halb so viele Spieler auf NextGen-Wechseln, rechnen die sich aus, wie lange die Alt-Alt-Alt-Gen demzufolge mit unterstützt werden muß. Dann geht der technische Fortschritt in den Spielen zurück - und das bedeutet wiederum, dass die Next-Next-Gen mit dem Problem zu kämpfen hat, keine technologische Notwendigkeit darzustellen.

Teilweise gibt es das Problem schon jetzt. Eine 4080 hat bis in 4K in 90% der Fälle tief dreistellige Frameraten. Die Karte wird in der Praxis nur in seltenen Fällen wirklich gefordert. Und ändert sich das über die Jahre nicht, besteht kein Grund, eine 4080 irgendwann zu ersetzen.

Ich finde das gar nicht so schlecht, dass dann ein PC auch lange durchhält. Klar, die Grafik nimmt weniger stark zu, aber mittlerweile ist die doch recht gut und vor allem gilt doch: Sollen die Spieleentwickler sich mal lieber um gute Storys und Gameplay kümmern und nicht nur immer dem nächsten Grafikblender hinterherrennen.

Gast
2023-01-11, 20:38:59
Teilweise gibt es das Problem schon jetzt. Eine 4080 hat bis in 4K in 90% der Fälle tief dreistellige Frameraten. Die Karte wird in der Praxis nur in seltenen Fällen wirklich gefordert.

Das ist endlich mal eine konkrete Aussage und praktische Empfehlung. Die bringt mehr als 1000 Tabellen in denen steht: Karte X ist 10% schneller als Karte Y. Chapeau!

Leonidas
2023-01-12, 03:50:43
Vielleicht habe ich die Aussage auch schlicht falsch verstanden... aber selbst wenn es keinen Grund gibt, die 4080 auf längere Sicht zu ersetzen - was hat das mit den vermeidlichen Schließungen (wie vom Gast prophezeit) der Gamingindustrie zu tun?

Nix. Das war eine rein HW-bezogene Aussage.

Legendenkiller
2023-01-12, 10:34:24
Ohne schneller Grafikakrten gibt es blad keine Gamingindustrie mehr ist halt echt lustig....
Wie konnte die Gamingindustrie entstehen oder die schnellen Grafikkarten die es ja nocht nicht gab.

Gute Spiele brauchen ansich keine schnellen GRafikkarten.
z.b. Tetris, Factorio , Civilisation,
Oder anders, wie konnte ein Deus Ex 1 auf einer GF3 als Spiel besser sein als das aktuelle auf einer 2080S ?

Aber selbst heute laufen 95% aller Spiele auf einer IGPU, weil sie aus verschiedenen Gründen keine realistische Grafik nutzen.
Im Gegenteil blender super dupper Grafik braucht man eigentlich nur wenn ein kein gutes Spiel mehr einfällt.


Macht eine aktuell NFS mehr spas als eins vor 10 oder 20 Jahren ?
Macht ein aktuelles Tombraider mehr spas als eins vor 10 oder 20 Jahren ?
Macht ein aktuelles Battle field mehr spas als eins vor 10 oder 20 Jahren ?...
Macht ein aktuelles Farcray mehr spas als eins vor 10 oder 20 Jahren ? ... usw usw.


Wenn überhaupt sterben ein paar der AAA Spiele, weil sie oft mehr einen Grafikdemo als eine gutes Spiel sind.
IMO hätte es sogar positive Auswirkungen auf das PC Gaming, wenn man Speile wieder über gute Spielmechaniken verkaufen muss statt über Grafiktechdemos mit Marketing butzzword Begriffen.

Gut dafür scheint es auch ein Markt zu geben , aber der kann ja auch bei Apple oder so kaufen gehen, wo man beliebig viel Geld für Wohlfühlsachen ausgeben kann.

Platos
2023-01-13, 02:58:42
Die letzten 25 Jahre war Gaming eher auf Konsolen/Gameboy und PC war der nerdige Hinterhof.

Legendenkiller
2023-01-13, 13:48:18
nope.

https://www.hardwareluxx.de/images/cdn01/427BE2830541485EBA2BC64C5CA3F3D7/img/8A624B86D849468E8D1BCC931B8DBFDC/newzoo_games_market_2018-01_8A624B86D849468E8D1BCC931B8DBFDC.jpg

https://www.pcgameshardware.de/screenshots/1280x1024/2015/09/Unbenannt-pcgh.PNG

Gast
2023-01-13, 13:55:48
Die letzten 25 Jahre war Gaming eher auf Konsolen/Gameboy und PC war der nerdige Hinterhof.
Sicher?
https://www.statista.com/statistics/1060235/game-developers-platform-interest/
Laut dieser Umfrage unter Spieleentwicklern stimmt das nicht.

Blase
2023-01-13, 14:19:45
nope.

https://www.hardwareluxx.de/images/cdn01/427BE2830541485EBA2BC64C5CA3F3D7/img/8A624B86D849468E8D1BCC931B8DBFDC/newzoo_games_market_2018-01_8A624B86D849468E8D1BCC931B8DBFDC.jpg

https://www.pcgameshardware.de/screenshots/1280x1024/2015/09/Unbenannt-pcgh.PNG

Die beiden Bilder zusammen genommen heißt übersetzt also, dass es zwar eine stetig wachsende Anzahl an Plattformen im PC Gaming Bereich gibt (sogar bedeutend mehr als Konsole), aber insgesamt schon immer und unverändert mit der Konsole mehr Geld generiert wird - wenn auch beide Plattformen diesbezüglich stetig kleiner werden und mobile Gaming das ist, womit das größte Geld zu machen ist. Gute Aussichten für uns :freak:

MfG Blase

Gast
2023-01-13, 14:30:31
Die beiden Bilder zusammen genommen heißt übersetzt also, dass es zwar eine stetig wachsende Anzahl an Plattformen im PC Gaming Bereich gibt (sogar bedeutend mehr als Konsole), aber insgesamt schon immer und unverändert mit der Konsole mehr Geld generiert wird - wenn auch beide Plattformen diesbezüglich stetig kleiner werden und mobile Gaming das ist, womit das größte Geld zu machen ist. Gute Aussichten für uns :freak:

MfG Blase
Wenn die Leute wegen überbordender Arbeit/Schule/Uni und lahmer Verkehrsmittel kaum noch daheim sind, greift man halt zum Strohhalm smartphone gaming. Konsolen inkl. Spiele und Onlinegebühren werden zudem auch immer mehr wie spieltaugliche PCs zum Luxusgut, da dort ebenso die Preise steigen, bei den meisten Menschen hingegen schon seit paar Jahren das frei verfügbare Einkommen für Entertainment stetig schrumpft. Das wird eine Zerreißprobe.

Exxtreme
2023-01-13, 14:38:35
werden zudem auch immer mehr wie spieltaugliche PCs zum Luxusgut,

Nur wenn man das neueste und beste haben will. Ja, das ist beträchtlich teurer geworden als noch vor 3 Jahren. Aber spieletaugliche PCs kann man immer noch billiger haben als eine Konsole. Und man spart auch noch Geld weil die Spiele meist erheblich billiger sind.

Gast
2023-01-13, 15:19:53
Wenn die Leute wegen überbordender Arbeit/Schule/Uni und lahmer Verkehrsmittel kaum noch daheim sind, greift man halt zum Strohhalm smartphone gaming. Konsolen inkl. Spiele und Onlinegebühren werden zudem auch immer mehr wie spieltaugliche PCs zum Luxusgut, da dort ebenso die Preise steigen, bei den meisten Menschen hingegen schon seit paar Jahren das frei verfügbare Einkommen für Entertainment stetig schrumpft. Das wird eine Zerreißprobe.
Statistisch nicht haltbar.
Selbst wenn du unterstellst, dass du zwingend eine 7900XT oder 4070TI zum spielen brauchst.
Dann kostet der PC eben 500 Euro mehr als früher.
Bei einer Lebensdauer von 4-6 Jahren bei diesem Aufpreis niemals zu einem Luxusgut.
Entweder war er schon immer Luxusgut oder er ist es auch für 500 Euro mehr nicht.

Wegen 10 Euro mehr oder weniger im Monat ändert sich der Prozentsatz an Menschen, die sich es sich leisten können, quasi nicht.
Wer 10 Euro mehr im Monat nicht ausgeben kann weil die Grafikkarte jetzt 1000 Euro statt 500 kostet, konnte auch schon keine 500 Euro Karte bezahlen.

Richtig ist, das es bestimmt eine Gruppe geben wird, die einfach keine Lust hat den Preis zu bezahlen. Die eh kaum spielt und die dann sagt: Nö, lasse ich es halt. Und sich verstärkt anderen Hobbys widmet und dort sein Geld ausgibt.
Das hat aber nichts mit "nicht leisten können" oder "Luxusgut" zu tun.

Gast
2023-03-12, 13:24:47
Willkommen bei AMD Center!

Gast Ritis
2023-03-13, 03:02:20
Nur rund 14% der Teilnehmer bemängeln den zu kleinen VRAM im Verhältnis zur Leistung der Karte in Raster und Raytracing. Dabei sind wir noch weit davon entfernt, dass DirectStorage ein Erfolg wäre oder 85% dieser Gamer FHD > 144 Hz benötigt
.
Das ist deprimierend.

Leonidas
2023-03-13, 04:37:50
Willkommen bei AMD Center!

Wird die 4070Ti tatsächlich von dieser Umfrage unfair bewertet?

Blase
2023-03-13, 08:07:02
Nur rund 14% der Teilnehmer bemängeln den zu kleinen VRAM im Verhältnis zur Leistung der Karte in Raster und Raytracing...

Naja, der primäre Negativpunkt ist ja ein anderer und der wurde zu Recht, da man ja nur eine einzige Auswahl treffen kann, mit großem Abstand gewählt. Wäre die Karte bei 599€ UVP wäre deine Option sicherlich weitaus öfters gefallen.

MfG Blase

Exxtreme
2023-03-13, 08:41:14
Nur rund 14% der Teilnehmer bemängeln den zu kleinen VRAM im Verhältnis zur Leistung der Karte in Raster und Raytracing. Dabei sind wir noch weit davon entfernt, dass DirectStorage ein Erfolg wäre oder 85% dieser Gamer FHD > 144 Hz benötigt
.
Das ist deprimierend.

Directstorage hilft nicht gegen RAM-Mangel auf der Grafikkarte. :) DS soll die Ladezeiten der Programme verkürzen.

GerryB
2023-03-13, 08:50:16
vllt. wirds ja mit SamplerFeedback besser
(ds ist ja nur der erste kleine Schritt = CPU-Entlastung, während SF der große Step für die GPU-Entlastung bzgl. Bandbreite ist)

theoretisch müsste man auch schon mit VRS=on/off Unterschiede merken können
oder
Viel älter bei GR Breakpoint gabs die Möglichkeit Vordergrund und Hintergrund mit unterschiedlichen Refreshraten 60/30Hz zu fahren.

im Anhang das übliche Demo-Bsp. zu SF:

Legendenkiller
2023-03-13, 09:16:08
Hier gibt es anscheinend viele, die glauben, dass es in Absehbarer Zeit wieder Mittelklasse/Performance für 300 EUR gibt.

Der typische 3DCler, der seit über 4 Jahren was davon faselt, dass er nicht mehr als 250 EUR für eine Grafikkarte ausgibt. ;D


Meine teuerste GRafikkarte der letzen 10 jahre hat 275€ gekostet.
Klar war n super Preis, den ich nie wieder bekomme, aber 900€ ist halt der 3fache Preis.


Und im Moment überleg ich halt, wenn eine neue GRafikkarte, dann die 4080 oder gleich 4090.
Der absolute Preis ist mir total buggy, ich rechne in Gegenwert / €.

Hab mir aber erstmal eine Solar PV + Akku + Klimaanlage für 25k€ gekauft. Das war mir wichtiger.
Ab jetzt ist mir der Verbrauch des PCs egal :-)

Platos
2023-03-13, 10:42:56
Wenn du in Gegenwerr/Euro rechnest, dann kanns ja sicher keine 4080 oder 4090 werden. Dann müsste es eig. definitiv eine 4070Ti werden, wenn du bei nvidia kaufst.

Am besten mal gebraucht nach 4070ti schauen.

Gast
2023-03-13, 11:26:04
Ich find löblich, dass Nvidia etwas mehr Performance zum günstigeren Preis bietet.
Man schlägt die 7900XT um etwa overall 5%, kostet aber 100 Dollar weniger.
Wer die 12GB verschmerzen kann und eh nicht in 4K spielt, bekommt ne 10% schnellere Karte für 100 Euro weniger. Nice.
AMD wird damit kaum ihre Karte absetzen können.
Was jetzt? 5% oder 10% schneller? Und so ganz nebenbei: Aktuell kostet die 7900XT ab 840€, die 4070TI ab 880€. Von 100$ günstiger sehe ich da nichts.
Betrachtet man die Performance in QHD und 4K, sieht man auch ganz klar, dass die 12GB für 4K aktuell schon ein Problem sind, in QHD mit RT teilweise auch schon (siehe FC6 bei TPU, da fällt die 4070TI fast auf RX6900XT Niveau).

Exxtreme
2023-03-13, 11:34:35
Betrachtet man die Performance in QHD und 4K, sieht man auch ganz klar, dass die 12GB für 4K aktuell schon ein Problem sind, in QHD mit RT teilweise auch schon (siehe FC6 bei TPU, da fällt die 4070TI fast auf RX6900XT Niveau).

Der Sprung von QHD auf 4K kostet rund 54 MB mehr RAM auf der Grafikkarte. Sprich, wenn die RTX 4070Ti Probleme in 4K-Auflösung hat dann hat das andere Gründe.

Gast
2023-03-14, 07:26:16
Der Sprung von QHD auf 4K kostet rund 54 MB mehr RAM auf der Grafikkarte. Sprich, wenn die RTX 4070Ti Probleme in 4K-Auflösung hat dann hat das andere Gründe.

Woher willst du das so genau wissen?

Und 54MB sind garantiert zu wenig, in der Realität hängt das stark vom Spiel ab, aber mit nur 54MB Mehrverbrauch kommt garantiert keines aus.

Exxtreme
2023-03-14, 08:38:03
Woher willst du das so genau wissen?

Und 54MB sind garantiert zu wenig, in der Realität hängt das stark vom Spiel ab, aber mit nur 54MB Mehrverbrauch kommt garantiert keines aus.

Das kannst du ausrechnen. Die Formel ist: X * Y * 12. Die 4K-Auflösung braucht also ~99 MB RAM auf der Grafikkarte. Und nein, mehr lädt ein Spiel darüberhinaus nicht in den RAM nur weil die Auflösung höher ist. Deshalb ist RAM-Mangel aufgrund der Auflösung ein Märchen. RAM-Mangel kann durch RT und/oder sehr hoch aufgelöste Texturen etc. entstehen.

Leonidas
2023-03-14, 09:27:29
Ich glaube ihre redet da aneinander vorbei. Rein technisch sind diese wenigen MB korrekt, denn die höhere Anforderung liegt bei höheren Anforderungen nominell nur im größeren Videospeicher - und sind halt nur wenige MB.

Die Praxis sagt aber nach wie vor aus, dass auf gleichen Settings zwischen 1-2 GB mehr Speicherbelegung zwischen zwei Auflösungen existiert. Egal ob die Speicherbelegung kein ganz zuverlässiger Indikator sein mag - es entspricht auch der gefühlten Praxis, dass es nicht nur um ein paar MB geht. Wie auch immer der Mehrverbrauch zustandekommen mag.

Gleichfalls gilt: Es sind keine großen Sprünge. 4K verbraucht nicht auf wundersame Weise das Doppelte an VRAM wie 1080p. Es geht zumeist wie gesagt nur um den Betrag von wenigen GB mehr.

Gast
2023-03-14, 09:29:54
Das kannst du ausrechnen. Die Formel ist: X * Y * 12. Die 4K-Auflösung braucht also ~99 MB RAM auf der Grafikkarte.


Die Rechnung hätte vielleicht vor 15 Jahren gestimmt.

Aber selbst mit klassischen Renderern kommt das nicht hin.

4k sind ca. 8MP
Macht also auf jeden Fall

32MB Backbuffer
32MB Frontbuffer
Optional weitere 32MB für Tripple-Buffering
32MB Z-Buffer
64MB Renderbuffer FP16

Damit hast du aber noch nichts was eine moderne Engine ausmacht.
Keinerlei G-Buffers, Shadow Buffers, Ligthing Buffers, AO-Buffer, evtl. weitere Buffer für Postprocessing.

Je nach Engine und Szenenkomplexität kannst du den "Basiswert" den wir uns oben ausgerechnet haben locker mit einem Faktor von 5-10 multiplizieren.


Und nein, mehr lädt ein Spiel darüberhinaus nicht in den RAM nur weil die Auflösung höher ist.


Auch darüber hinaus, eine höhere Auflösung bedeutet auch dass die Mip0 öfter/länger auf dem Bildschirm zu sehen ist, und damit mehr Texturen in maximaler Auflösung im VRAM liegen müssen.


Deshalb ist RAM-Mangel aufgrund der Auflösung ein Märchen. RAM-Mangel kann durch RT und/oder sehr hoch aufgelöste Texturen etc. entstehen.

RAM Mangel aufgrund der Auflösung ist kein Märchen. Er wird vielleicht von manchen deutlich übertrieben wahrgenommen, eine 4-Fache Auflösung bedeutet keinesfalls 4-Fachen VRAM-Bedarf, zu vernachlässigen ist der aber keineswegs.

Er wurde auch schon oft genug empirisch bewiesen, wenn Grafikkarten mit niedriger VRAM-Ausstattung beim Auflösungswechsel deutlich stärker einbrechen als es eigentlich aufgrund der Pixellast sein sollte.

Exxtreme
2023-03-17, 09:28:18
Die Rechnung hätte vielleicht vor 15 Jahren gestimmt.

Aber selbst mit klassischen Renderern kommt das nicht hin.

.
.
.



Die Rechnung stimmt immer noch. Das kannst du hier sehen:
https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Specials/A770-8GB-vs-16GB-Benchmark-Test-1414980/2/

Selbst in 4K ist die 8 GB-Version nur marginalst langsamer, manchmal sogar schneller. Und nur bei Assasins Creed Valhalla gibt es einen größeren Vorsprung für die 16 GB-Variante.

Das dreht sich erst wenn RT dazukommt. Hier ist die 16 GB-Variante zum Teil viel schneller wenn auch nicht überall. Von daher bleibe ich dabei: RAM-Mangel können bisher nur RT und/oder sehr hoch aufgelöste Texturen verursachen. Die Auflösung an sich spielt da praktisch keine Rolle was RAM-Verbrauch angeht.

dildo4u
2023-03-17, 09:35:59
ARC scheint noch andere Probleme zu haben Doom mit RT ist ein Speicherfresser in 1080p liegt die 16GB weiter vorne als in 4k.

Gast
2023-03-17, 10:18:52
Selbst in 4K ist die 8 GB-Version nur marginalst langsamer, manchmal sogar schneller. Und nur bei Assasins Creed Valhalla gibt es einen größeren Vorsprung für die 16 GB-Variante.



Nur weil 8GB heute in 4k noch meistens ausreichen heißt das nicht, dass der VRAM-Bedarf mit der Auflösung nicht steigt.
Zumal heutige Engines teilweise den Buffer beim Texturstreaming runterschrauben, was zwar die Performance rettet, aber die höhere Auflösung ad absurdum führt, da man teilweise eine geringere Texturauflösung zu Gesicht bekommt.


Das dreht sich erst wenn RT dazukommt. Hier ist die 16 GB-Variante zum Teil viel schneller wenn auch nicht überall.

Und überall, dort wo es Unterschiede gibt werden diese mit steigender Auflösung größer, mit Ausnahme der Doom Eternal Anomalie, wobei ich hier davon ausgehe dass Id-Tech typisch Texturen ausgelassen werden um das Ergebnis zu erreichen.

Platos
2023-03-17, 10:30:39
Wenn wenig Grafikspeicher da ist, wird einfach die Engine die Texturedetails runter schrauben usw.
Man kann nicht einfach nur die FPS anschauen. Solltest du doch wissen??

Dass man nur Hundert MB mehr braucht in Spielen, ist doch auch der grösste Blödsinn seit langem hier. Das ist weit weg von der Praxis.

ps. In dem Test siehst du gar nichts. Grafikspeichertests sollte man Grundsätzlich mit Grafikspeicherbelegung angeben. Also von beiden Grafikkarten. Ansonsten völlig Sinnfrei. Sowohl zugewiesener als auch wirklich genutzter Speicher.

Exxtreme
2023-03-17, 10:46:41
Nur weil 8GB heute in 4k noch meistens ausreichen heißt das nicht, dass der VRAM-Bedarf mit der Auflösung nicht steigt.
Zumal heutige Engines teilweise den Buffer beim Texturstreaming runterschrauben, was zwar die Performance rettet, aber die höhere Auflösung ad absurdum führt, da man teilweise eine geringere Texturauflösung zu Gesicht bekommt.


Natürlich steigt der RAM-Bedarf mit der Auflösung, aber eben nur marginal. Da gibt es weit größere RAM-Fresser als zusätzlicher RAM-Bedarf durch Auflösung.

Wenn wenig Grafikspeicher da ist, wird einfach die Engine die Texturedetails runter schrauben usw.
Man kann nicht einfach nur die FPS anschauen. Solltest du doch wissen??


Das muss die Engine gar nicht. Und ich glaube, die allerwenigsten Spiele machen das. Es ist so, wenn der VRAM auf der Grafikkarte ausgeht dann kann man Teile des normalen Arbeitsspeichers als VRAM benutzen. Kostet zwar Performance aber möglich ist das. Das ging schon mit dem AGP-Port, Stichwort "AGP texturing".

Gast
2023-03-21, 08:40:59
Natürlich steigt der RAM-Bedarf mit der Auflösung, aber eben nur marginal.


Das hängt wie gesagt stark von der Engine ab.
Skalieren Shadowmaps mit der Auflösung? Wie viele Schattenwerfende Lichtquellen gibt es? Welche G-Buffer werden alles verwendet, und werden diese durchgehend in Renderauflösung erstellt oder gibt es hier "Optimierungen" in denen teile der G-Buffer mit reduzierter Auflösung gespeichert werden? Letzteres evtl. auch erst bei höheren Renderauflösungen, was natürlich den Mehrbedarf an VRAM senkt.

Es gibt einfach gesagt viele Variablen die den VRAM-Verbrauch bestimmen.
Aber die generelle Aussage, dass die Steigerung des VRAM Bedarfs mit der Auflösung immer vernachlässigbar gering ist, ist schlicht und ergreifend Falsch.


Da gibt es weit größere RAM-Fresser als zusätzlicher RAM-Bedarf durch Auflösung.


Nur weil andere Teile als Auflösungsabhängige Buffer in der Regel deutlich mehr VRAM verwenden als eben jene auflösungsabhängige Buffer heißt das nicht dass der Bedarf letzterer zu vernachlässigen ist.


Das muss die Engine gar nicht.


Machen heutzutage sehr viele, insbesondere alles was im weitesten Sinne Openworld ist und mit Streaming arbeitet anstatt komplette Levels zu laden.


Und ich glaube, die allerwenigsten Spiele machen das.


Sehr viele machen das, und sogar im von dir verlinkten Artikel sind ein paar Beispielsscreenshots, in denen mit 8GB, sowohl Textur- als auch Geometriedetails mit wenig VRAM deutlich sichtbar verringert werden (leider ohne genaue Angabe in welchen Situationen)


Es ist so, wenn der VRAM auf der Grafikkarte ausgeht dann kann man Teile des normalen Arbeitsspeichers als VRAM benutzen. Kostet zwar Performance aber möglich ist das.


Den Performancehit will man aber nicht, da nimmt man meistens lieber die geringeren Details in Kauf. Oft fällt das auch kaum auf wenn es gut gemacht ist, und alles vor der Nase immer noch schön scharf und nur in der Entfernung was fehlt.


Das ging schon mit dem AGP-Port, Stichwort "AGP texturing".

Ja es ging, wurde aber nie praktisch großflächig verwendet, der Unterschied zwischen VRAM und System-RAM ist einfach viel zu groß, dass dies praktikabel wäre.

Heute sogar noch viel weniger als damals zur AGP-Zeit, da sich die Schere VRAM-System-Ram deutlich vergrößert hat.