PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 4060 Ti mit extra 16-GB-Ausführung in diesem Juli


Leonidas
2023-05-09, 13:15:36
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4060-ti-mit-extra-16-gb-ausfuehrung-diesem-juli

Aroas
2023-05-09, 13:25:43
In your Face RTX 4070(Ti) Käufer!
NVidia verarscht die Kunden genauso wie bei der RTX 3070 schon wieder.

Lehdro
2023-05-09, 13:30:02
Als RTX 4070 (Ti) Käufer hat man es nicht leicht :D

AMD dann bitte RX 7600 (XT) analog zur RX 470/480 (4/8 GiB) handhaben: 8 GiB / 16 GiB als Wahlmöglichkeit.

Raff
2023-05-09, 14:28:51
Also das gleiche Spiel wie bei RTX 3060 12GB vs. RTX 3060 Ti -> RTX 4060 Ti 16GB vs. RTX 4070.

Hoffen wir, dass das wirklich Einsicht seitens Nvidia ist. Mit 16 GiByte könnte die RTX 4060 Ti sowas wie die ideale Mittelklasse-Grafikkarte für die nächsten Jahre werden. Dieses Potenzial hatte die RTX 3070 vor 2,5 Jahren ebenfalls (https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/2/#a2), aber es wurde nicht ausgespielt:

"Jedoch schwebt ein Damoklesschwert über der Geforce RTX 3070 8GB, wie es das bereits bei zahlreichen anderen Grafikkarten mit grenzwertiger Speicherkapazität tat. Mit 16 GiByte wäre die RTX 3070 hingegen die perfekte Grafikkarte und ein mehr als würdiger GTX-1070-Thronfolger [...]"

Es wäre gut, wenn dann alle Interessenten mit dem Geldbeutel wählen und das DOA-8-GiByte-Modell meiden wie der Teufel das Weihwasser. ;)

MfG
Raff

Gast
2023-05-09, 14:42:31
NV f**** Mid Range käufer (4070ti/4070) gleich doppelt.
Zuerst 50% Aufpreis verlangen, und dann beim Speicher sparen. Nur um dann eine Schwache 60ti rauszubringen, die tatsächlich nicht viel von 16 Gb (wohl aber mit 12Gb richtig bestückt wäre) profitieren kann. Und das beste, die NV Käufer kaufen trotzdem diese Karten.

GerryB
2023-05-09, 15:03:11
Im Bundle mit D4 machen die 16GB schon was her. (lt. PCGH sind 32GB Ram aber trotzdem noch sinnvoll)
(quasi ne nette Minimalaustattung von der Rohpower + keine Sorgen mit dem Vram)

hoffentlich gibts das Bundle dann auch so noch im Juli

bad_sign
2023-05-09, 15:03:17
Nice, endlich weitere gute Hardware, neben der 4090, mal sehen was der Preis sagt (550$?)

Buddy Casino
2023-05-09, 15:12:19
Mal gucken wir weit man das Teil mit FG und DLSS prügeln kann - könnte interessant werden, auch wenn die Rohleistung vielleicht nicht ganz den 16gb entspricht.

GerryB
2023-05-09, 15:23:54
dass nVidia mit dieser GeForce RTX 4060 Ti 16GB zum Teil auch "nur" auf ähnliche Aktivitäten bei AMD reagiert. Das zuletzt vermeldete Navi-33-Portfolio läßt jedenfalls augenfällig eine "Radeon RX 7600 XT" vermissen

Die beiden Modelle kann man von der Rechenpower+P/L her net vgl., ... eher mal ne 7700xt vs 4060Ti
dito die 7800xt vs. die 4070nonTi

Die 7600xt sollte vom Preis her ne 4050Ti matchen, ggf. als nonXT, falls die Perf. reicht

Blase
2023-05-09, 15:27:33
Ach herrlich, wie sich die 4070/Ti Käufer völlig zurecht verarscht vorkommen werden - schon wieder :freak:

Ich würde aber meinen, dass man dann endlich im 50XX Portfolio eine durchgehend "passende" Speichermenge innerhalb der korrekten Reihenfolge der Karten wieder findet. Wobei... vielleicht traue ich nVidia hier auch zu viel zu :redface:

MfG Blase

Exxtreme
2023-05-09, 15:33:04
Mal gucken wir weit man das Teil mit FG und DLSS prügeln kann - könnte interessant werden, auch wenn die Rohleistung vielleicht nicht ganz den 16gb entspricht.

Prügeln würde ich das mit FG nicht. Es ist nämlich so, bist du im GPU-Limit und aktivierst FG dann gibt es Monster-Inputlag obendrauf. FG ist dann toll wenn man im CPU-Limit rumkrebst.

Raff
2023-05-09, 15:40:24
Ach herrlich, wie sich die 4070/Ti Käufer völlig zurecht verarscht vorkommen werden - schon wieder :freak:

Die Käufer einer RTX 4070 (Ti) haben immer noch exakt das, für was sie sich entschieden haben: eine starke, effiziente Grafikkarte mit allen modernen Features. Die RTX 4060 Ti wird ein ganzes Eck langsamer und ist laut den Gerüchten außerdem noch einige Zeit entfernt. Insofern alles okay. Hier wird so getan, als hätten die 70er nur 8 GiByte (was E-Schrott wäre) ... :ugly:

Das just bestätigte Diablo-4-Bundle wertet die Karten schlagartig auf. The Last of Us Part I für Radeons läuft hingegen diese Woche aus, was schade ist.

Prügeln würde ich das mit FG nicht. Es ist nämlich so, bist du im GPU-Limit und aktivierst FG dann gibt es Monster-Inputlag obendrauf. FG ist dann toll wenn man im CPU-Limit rumkrebst.

Frame Generation fühlt sich in vielen Spielen quasi genauso an wie "alles aus" (also das, was Arc und Radeon erzeugen), Reflex macht einen guten Job. Mit 16 GiByte muss man dann auch keine Sorgen haben, dass der VRAM durch FG überläuft.

MfG
Raff

Aroas
2023-05-09, 15:47:38
Das just bestätigte Diablo-4-Bundle wertet die Karten schlagartig auf.


An den Karten ändert das Bundle nichts und wertet diese daher auch nicht auf.

Das Gesamtangebot ist dadurch zwar etwas attraktiver, aber eben auch nur für jene Kunden, die mit dem Spiel was anfangen können.

Exxtreme
2023-05-09, 15:52:28
An den Karten ändert das Bundle nichts und wertet diese daher auch nicht auf.

Das Gesamtangebot ist dadurch zwar etwas attraktiver, aber eben auch nur für jene Kunden, die mit dem Spiel was anfangen können.

Ich denke, das werden recht viele Leute sein, die damit was anfangen können. Und mehhh ... ich werde irgendwie auch schwach. ;(

Raff
2023-05-09, 15:52:54
Aroas, das Schönrechnen musst du noch üben. :biggrin: Wenn eine RTX 4070 durch den Key-Verkauf effektiv Richtung 550 Euro wandert, ist das kein schlechter Deal.

MfG
Raff

Exxtreme
2023-05-09, 16:00:27
Aroas, das Schönrechnen musst du noch üben. :biggrin: Wenn eine RTX 4070 durch den Key-Verkauf effektiv Richtung 550 Euro wandert, ist das kein schlechter Deal.

MfG
Raff

Sind so eher 530 EUR. Diablo 4 für den PC kostet derzeit 69 EUR. Ja, ist teurer als für die PS5. :freak:

Raff
2023-05-09, 16:02:17
Du beherrschst das Schönrechnen hingegen meisterhaft! :biggrin:

MfG
Raff

MiamiNice
2023-05-09, 16:03:22
Ihr seht das imo falsch. Das Game ist eine kostenlose Beilage. Die Karte kostet trotzdem, was sie eben kostet. Man könnte gar argumentieren, das die Karte teurer wird - weil D4 viel Lebenszeit und weiteres Geld kosten wird. Ergo ist das keine einfache Dreingabe, es ist mehr eine teuflische Dreingabe mit Popo - Nagel Gedanken.

Exxtreme
2023-05-09, 16:07:22
Du beherrschst das Schönrechnen hingegen meisterhaft! :biggrin:

MfG
Raff
Noooo! I must resist! ;(
Ihr seht das imo falsch. Das Game ist eine kostenlose Beilage. Die Karte kostet trotzdem, was sie eben kostet. Man könnte gar argumentieren, das die Karte teurer wird - weil D4 viel Lebenszeit und weiteres Geld kosten wird. Ergo ist das keine einfache Dreingabe, es ist mehr eine teuflische Dreingabe mit Popo - Nagel Gedanken.
Japp. D4 als Dreingabe wird auch noch Strom kosten wenn man es spielt. Und Speicherplatz auf dem SSD. Und Bandbreite im Internet wenn man es herunterlädt und anschließend spielt. Und ja, das macht Diablo einfach teuflisch! Aber es ist so, wenn man D4 liebäugelt dann ist die Ersparnis je nach Grafikkarte nicht ohne, auch prozentual nicht.

MiamiNice
2023-05-09, 16:14:51
Du ziehst es in lächerliche, ich meine das durchaus ernst. Blizzard wird nichts unversucht lassen weitere Einnahmen mit D4 zu generieren. Nicht umsonst verschenkt Blizzard quasi die Keys.

Einen monetären Mehrwert hat man nur, wenn man das Bundle kauft und den Gamekey wieder veräußert.

GerryB
2023-05-09, 16:25:06
Den Mehrwert wirste schon merken, wenn Du mal D4 auf der 8GB vs. der 16GB spielst.
(da finanzieren sich die 8GB Vram mehr von ganz Alleine)

Exxtreme
2023-05-09, 16:33:51
Du ziehst es in lächerliche, ich meine das durchaus ernst. Blizzard wird nichts unversucht lassen weitere Einnahmen mit D4 zu generieren. Nicht umsonst verschenkt Blizzard quasi die Keys.

Einen monetären Mehrwert hat man nur, wenn man das Bundle kauft und den Gamekey wieder veräußert.

Die Frage ist wiederum ob der Key so ohne Weiteres veräusserbar ist. Man muss das Ding nämlich über GF Experience freischalten. Nicht dass GF Experience jetzt die HW Daten an das BNet überträgt um sicherzustellen, dass der Key auch von dem Rechner eingegeben wird von dem er bezogen wurde. Also Activision traue ich das zu, dass die sowas machen. Da reicht nur ein REST-Call mit einer Quersumme der HW-Daten.

Mordekai2009
2023-05-09, 16:54:35
16GB VRAM?! Jetzt wird es interessant.

ChaosTM
2023-05-09, 16:58:02
Ich glaube man hat aus den eher verhaltenen 70er Verkäufen doch was gelernt.
Schade - etwas zu spät..

Aroas
2023-05-09, 18:22:42
Aroas, das Schönrechnen musst du noch üben. :biggrin: Wenn eine RTX 4070 durch den Key-Verkauf effektiv Richtung 550 Euro wandert, ist das kein schlechter Deal.


Das macht aber weiterhin die Grafikkarte kein Stück besser.

Midnight-3DC
2023-05-09, 19:03:14
Du ziehst es in lächerliche, ich meine das durchaus ernst. Blizzard wird nichts unversucht lassen weitere Einnahmen mit D4 zu generieren. Nicht umsonst verschenkt Blizzard quasi die Keys.
Echt? Wo gibt es game keys verschenkt? Ich habe jetzt nicht wirklich gesucht, würde mich aber wundern wenn es die zum Release irgendwo geben würder aber - hey - ich lass mich gerne vom Gegenteil überzeugen. Nur her mit den Links!
Und ob bzw. wie Blizzard das Spiel über Microtransactions monetarisieren wird bleibt abzuwarten. Bislang habe ich eher den Eindruck man ist bemüht verlorenes Vertrauen wieder aufzubauen. Vielleicht liege ich falsch, vielleicht nicht. Werde es mir sicher nicht pre-ordern sondern die Tests abwarten. Aber sofern nicht auf den letzten Metern noch grober Mist gebaut wird sieht es mit einem Kauf eigentlich gut aus.

Das macht aber weiterhin die Grafikkarte kein Stück besser.
Nein, die Spezifikationen und Leistung ändern sich dadurch natürlich nicht, das Preis-/Leistungsverhältnis aber sehr wohl. Natürlich nur unter der Voraussetzung, dass man sich das gebundelte Game auch ohne die Grafikkarte gekauft hätte.

Von daher sehe ich die Bundles generell auch eher kritisch, da diese in gefühlten 90% der Fälle nur meinen Pile-of-Shame vergrößern. In diesem konkreten Fall könnte es die Karte für mich aber durchaus attraktiver machen.

Die Entscheidung muss natürlich jeder für sich treffen und eine pauschale Reduzierung des Preises wäre logischerweise für die meisten besser.

hardtech
2023-05-09, 19:03:47
also hier tun einige so, als ob die 12gb der 70er karten schlagartig zu knapp sind.
wir können und wollen schließlich nicht alle 1769 euro für eine übergroße karte namens 4090 ausgeben, die dazu noch bei last ordentlich saft zieht.
meine 4070 ti tuf tut es doch noch. jedi survivor läuft zwar etwas schleppend in 4k, aber so ist das nunmal, wenn man nur 900 euro investiert. da darf man die regler nicht alle nach rechts schieben.

und noch was:
nv will den gewinn maximieren. tut doch nicht immer so, als ob ihr gemolken werdet. das werdet ihr auch an der zapfsäule (shell macht rekordgewinne!) und beim bäcker.
kauft nvidia aktien und freut euch anstatt immer nur zu meckern. nv weiss, was es tut und macht einen guten job. ähnlich apple. da wird auch über preise gemeckert und das neueste iphone gekauft. get used to it. so ist nunmal marktwirtschaft. zwingt keiner zu kaufen. das ist das schöne.

LukeS
2023-05-09, 20:05:11
Interessant, dass die Diskussion zum VRAM Mangel jetzt erst so richtig aufkocht. Aus der aktuellen nVidia-Generation hat die 4070 am meisten VRAM pro Rasterleistung (gemessen am 3dc 4k-Index). Auch wenn der Preis niedriger sein sollte ist die Karte sonst ganz gut und die VRAM-Menge in meinen Augen noch gerade so grenzwertig ok.

Diese Karten haben alle ein schlechteres Verhältnis aus VRAM / Rasterleistung als die 4070:
4070Ti, 4080, 4090,
3060Ti, 3070, 3070Ti, 3080 10GB, 3080 12GB, 3080Ti,
2080Ti

Gast
2023-05-09, 20:10:53
Gibt's schon Preise? Die 4060Ti 16Gb kostet dann soviel wie eine 4070 mit 8Gb?

Rampage 2
2023-05-09, 20:44:07
In your Face RTX 4070(Ti) Käufer!
NVidia verarscht die Kunden genauso wie bei der RTX 3070 schon wieder.

Also diesmal muss man doch ggü. Nvidia fair bleiben: die RTX 4070/Ti hat immerhin ganze 12GB VRAM - soviel, wie meine 3080 Ti hat! Wir reden hier nicht über 8GB, auch nicht über 10GB, sogar nicht über 11GB, sondern 12GB - das Maximum, was an einem 192Bit-Interface möglich ist (24GB sind Overkill). Diese Karten sind NICHT für 4K gedacht, sondern für 1440p - und da sollten doch 12GB Grafikspeicher noch eine ganze Weile reichen, oder nicht? :|

Just my 2 cents...

R2

Tigerfox
2023-05-09, 20:53:19
Diese Karten sind NICHT für 4K gedacht, sondern für 1440p - und da sollten doch 12GB Grafikspeicher noch eine ganze Weile reichen, oder nicht? :|

Eine Karte für ~900€ sollte nicht nur für 1440p gedacht sein. Aktuell ist die 4070Ti in UHD meist sogar allen Ampere Karten überlegen, auch wenn sie ggü. 1440p meist etwas mehr nachlässt als diese. Die 4070 dagen schliesst in UHD mit RTX meist näher auf die 3080 10GB auf, ist sogar in Cyberpunk deutlich schneller, alledings in beiden Fällen mit unspielbaren Frameraten.

Exxtreme
2023-05-09, 21:25:56
Diese Karten sind NICHT für 4K gedacht, sondern für 1440p - und da sollten doch 12GB Grafikspeicher noch eine ganze Weile reichen, oder nicht? :|

Just my 2 cents...

R2

Wie bitte? Für WQHD reichen 400 EUR-Grafikarten. :)

Midnight-3DC
2023-05-09, 21:33:07
also hier tun einige so, als ob die 12gb der 70er karten schlagartig zu knapp sind.
Ich gehöre (wie man an den Kommentaren oben unschwer erkennen kann) sicher nicht zu den größten Kritikern der 4070 aber leider beschleicht mich schon etwas das Gefühl, dass die 12GB der 4070 in etwa das sind, was die 8GB bei der 3070 zu release waren. D.h. derzeit noch vollkommen ausreichend aber gut möglich, dass es zum Flaschenhals wird bevor die reine Performance für Spiele nicht mehr ausreicht.
Mit 16GB VRAM wäre es IMHO einfach das insgesamt rundere Produkt gewesen. Aber - na ja - wie du ja selbst schreibst: nVidia (wie alle AGs) versuchen in erster Linie ihren Gewinn zu maximieren. Kundenzufriedenheit ist dabei nur Mittel zum Zweck und sie werden selbstverständlich keinen GB mehr drauf packen wie unbedingt nötig um die Karten zu verkaufen. Umgekehrt zwingt mich ja auch keiner die Karte zu kaufen, wenn mir der VRAM zu klein ist.

Rampage 2
2023-05-09, 22:12:32
Eine Karte für ~900€ sollte nicht nur für 1440p gedacht sein.

Da gebe ich dir vollkommen Recht - das Ding ist völlig überteuert! ;) (bitte die UVP um 200$ senken, Nvidia... ach, als ob die das einen Scheiß interessiert:redface:)


Aktuell ist die 4070Ti in UHD meist sogar allen Ampere Karten überlegen, auch wenn sie ggü. 1440p meist etwas mehr nachlässt als diese.

Genau das: GA104 ist sowohl von der Speicherbandbreite (~ 500GB/sek.) als auch vom L2-Cache (48MB) aus gesehen unzureichend* für 4K und wurde von Nvidia auch schlicht und ergreifend nicht für diese Auflösung konzipiert. Die 4070 Ti ist schon fast perfekt als 1440p-Karte. Dementsprechend sollten 12GB VRAM kurz- und mittelfristig in (fast?) allen Fällen ausreichen. Spätestens mit der RTX 4080 mit ihren 16GB ist definitiv genug VRAM für 1440p vorhanden (auch für die nächsten Jahre!), aber die kostet auch deutlich mehr, hat ein schlechteres P/L-Verhältnis und kann sicherlich auch als 4K-tauglich betrachtet werden (Bandbreite, Cache & Grafikspeicher).

* = die Ampere-Spitzenmodelle (GA102) überholen die 4070 Ti in manchen Spielen in 4K, weil dessen L2-Cache überläuft und diese dann auf ihre mickrigen 504GB/sek. reguläre Bandbreite angewiesen ist - bei einigen Spielen sogar meine 3080 Ti mit ebenfalls 12GB VRAM, aber über 900GB/sek. BB!

Wie bitte? Für WQHD reichen 400 EUR-Grafikarten. :)

Also ich finde die 4070 Ti auch leistungsmäßig nicht wirklich geeignet für 4K-Gaming (siehe Text oben) - ganz unabhängig von ihrer Speicherbestückung;)

R2

hardtech
2023-05-09, 22:27:02
Also ich finde die 4070 Ti auch leistungsmäßig nicht wirklich geeignet für 4K-Gaming (siehe Text oben) - ganz unabhängig von ihrer Speicherbestückung;)

R2

gestern noch eine 3090ti (4k 420%)
heute eine 4070 ti (4k 392% also in etwa gleich).

aber für 4k völlig ungeeignet, laut deiner aussage.
du schreibst ja sachen. da verdreht sich einem der magen. :freak:

hardtech
2023-05-09, 22:35:31
...


siehst du richtig.
um mal den viel gescholtenen vergleich zur autobranche zu ziehen:
irgendwo steckt man als hersteller die eigene produktpalette ab. da geht es viel und diversifikation. sowohl in die breite als auch in die tiefe.

nv möchte das so.
mercedes baut den gleichen motor eines amg e63 in die s version ein und gibt ihm 7% mehr leistung (612 zu 571ps), nur um dann 20.000 eurß mehr abzukassieren.
es gibt leute, die nehmen nur das beste oder nichts. diese leute dürfen dann aber auch zahlen.

alles normale marketing raffinessen. nichts besonderes. die gamer hier regen sich zum teil arg auf. wohl keine berührung mit bwl gehabt?!

Altehardware
2023-05-09, 22:56:25
Wenn das so eintrifft wird dass meine nächste gpu ich hoffe abe rauf 20gbps vram
Dann wärs perfekt.

Rampage 2
2023-05-09, 23:04:14
gestern noch eine 3090ti (4k 420%)
heute eine 4070 ti (4k 392% also in etwa gleich).

aber für 4k völlig ungeeignet, laut deiner aussage.
du schreibst ja sachen. da verdreht sich einem der magen. :freak:

Die 3090 Ti kaufte man sich im Frühling und Sommer des vergangenen Jahres für 4K-Gaming in 2022 & 2023, *vielleicht* auch 2024. Also 1 Jahr verstrichen seitdem. Die Spiele, die Mitte/Ende 2023 und erst recht ab 2024 rauskommen, werden doch sicherlich deutlich mehr Leistung für maximale Settings brauchen, als die die vor 1-2 Jahren rauskamen. Da kauft man sich doch keine 4070 Ti, sondern mindestens (!) eine 4080; eher was noch Stärkeres.

Und 4K braucht Leistung ohne Ende, d.h. du brauchst entweder immer eine Top-GPU oder aber musst eine Performance/HighEnd-GPU häufiger wechseln; vorausgesetzt du willst wirklich ALLE Spiele mit maximalen Settings in dieser Auflösung spielen - mitunter ein Grund warum ich mich für 1440p statt 4K entschieden hatte. So kann man die gekaufte Grafikkarte länger nutzen, bzw. für eine längere Zeit auch neue/zukünftige Spiele @ maximalen Settings spielen und braucht dafür auch weniger VRAM:) (1-2GB weniger als bei 4K)

R2

hardtech
2023-05-09, 23:14:37
mag sein, dass die ansprüche von 4k-gamern durchaus unterschiedlich sind.
ich lege z.b. wert auf hohe effizienz und geringe lautstärke.
habe jetzt ein dutzend cpus getestet (ungelogen) und ram mit 16 bis 64gb genutzt. bin letztlich bei einem 12500t i5 und 16gb "hängen" geblieben. dazu einen schicken dell u2723 mit 4k.
zocke mit vsync, also 60 fps limit. cpu und gpu sind undervoltet und nehme je nach game 15-30w für cpu und 80-200w bei games. ein 560w netzteil befeuert das ganze. alle regler sind nach rechts. es reicht mir.

wer 4k mit 300fps zocken will, der kann keine karte kaufen, da es diese nicht gibt. aber schon mal 2000 euro für eine 4090 loswerden.

zu deinem punkt: vram.
8gb haben seit 2016 im grunde gereicht.
jetzt entwickeln sich neue technologien with rt und dlss etc.
auch das budget bei triple-a spielen werden immer kostspieliger. da bleibt keine zeit, das game zu entwickeln. wir werden mit beta versionen überflutet, die zudem schlecht optimiert sind auf pc-hardware, weil das spiel von der konsole portiert ist oder aus finanziellen gründen.
pcgh hat rausgefunden, dass für spiele selbst ein 13900k zu langsam ist und man mit rt ruckler bei jedi survivor hat. es gibt also keine kaufbare hardware, die ruckelfrei läuft.

als informierter leser stellst du dann paar regler runter und hofft auf patch, dass ruckler vermeidet.

Rampage 2
2023-05-09, 23:38:41
mag sein, dass die ansprüche von 4k-gamern durchaus unterschiedlich sind.

This!

Und für *meine Ansprüche* (max. Settings & möglichst auch 120Hz/fps) ist die 4070 Ti als 4K-Karte ungeeignet bzw. nur für den Moment, also JETZT, geeignet. Du kaufst dir doch keine Karte nur für die nächsten 6-12 Monate, oder?


wer 4k mit 300fps zocken will, der kann keine karte kaufen, da es diese nicht gibt. aber schon mal 2000 euro für eine 4090 loswerden.

Doch nicht 300fps, aber 60fps mindestens (außer einzelnen langsameren/Singleplayer-only Spielen; da reichen vielleicht auch 30-45fps mit G-Sync) - und wirklich ausnahmslos mit allen Reglern rechts + RT. Und möglichst viele Spiele mit 120Hz/fps (wieder ausnahmslos alle Regler rechts + RT). 60Hz/fps ist sowas von pre-2010:freak:

Deswegen habe ich mich bewusst für 1440p-Gaming (mit entsprechendem Monitor) entschieden;)

Nochmal: Wenn du dir zum *jetzigen Zeitpunkt* (Mitte 2023) eine neue GPU nur für JETZT, also für die nächsten 6-12 Monate kaufst... *dann* Ja, dann hat eine 4070 Ti genug Leistung aber zuwenig VRAM für 4K-Gaming unter den oben genannten Bedingungen. Und eine 3090 Ti hat für diesen Einsatzzweck auch (noch) genug Leistung und mehr als genug VRAM;)

Egal, wie du es drehst oder wendest, *für mich* ergibt die 4070 Ti als 4K-Karte wenig Sinn und ich betrachte sie primär als 1440p-Karte - und genau für dieses Segment ist sie nahezu perfekt mit ihrer Leistung und ihren 12GB VRAM. 16GB wären absolut zufriedenstellend/zukunftsicher gewesen;)

Nur dessen absurde Preissetzung vermasselt das ganze Bild... (sonst Nichts!)

R2

hardtech
2023-05-10, 00:12:32
stimme ich dir zu.
ich kaufe mir aber in der tat hardware für hier und jetzt.
jegliche zukunftsgedanken, was hardwareinvestment angeht, kannst du in die tonne kloppen. keiner weiss, was morgen los ist. dinge ändern sich ständig.
gestern eine 4tb ssd gekauft für 300 euro, weil ich meine in zulunft genug speicher zu haben.
zack, kommt eine dji drohne mit 4k aufnahme. nun bin ich bei 16tb ssd. das gute: heute kosten sie deutlich weniger.
also nie in zukunft investieren, sondern hier und jetzt.

btw: schrauben ist ein hobby und regelmässiger austausch von hardware wirkt beruhigend. ist wie bei anderen malen oder tennis spielen oder schach. :-)

Rampage 2
2023-05-10, 01:58:11
stimme ich dir zu.
ich kaufe mir aber in der tat hardware für hier und jetzt.

Viele andere Käufer (darunter auch ich) aber eben nicht - insbesondere wenn man die Kaufkraft, Inflation und den Stress von ständigem HW-Wechsel (bei mir; siehe letztes Zitat) berücksichtigt;)


jegliche zukunftsgedanken, was hardwareinvestment angeht, kannst du in die tonne kloppen. keiner weiss, was morgen los ist. dinge ändern sich ständig.

Das stimmt, aber das primäre Kriterium ist nicht, ob die Annahmen für zukünftige HW-Anforderungen *im Nachhinein* zutreffend gewesen sind, sondern wie passend die Entscheidung zum Zeitpunkt der HW-Anschaffung in Relation zum beabsichtigten Einsatzszenario war:

Zum Zeitpunkt des Kaufs war es mein Ziel, mir eine Karte zuzulegen, mit der ich möglichst lange kompromisslos (max. Settings + RT, 120Hz) in möglichst vielen aktuellen & zukünftigen Games zocken kann. Für dieses Ziel musste ich zuerst die Auflösung auf 1440p beschränken, um die benötigte Rechenleistung & Grafikspeicher zu verringern. Daher bewusst nur für einen 1440p-Monitor entschieden und schließlich gekauft. Dann kaufte ich mir eine entsprechend schnelle GPU mit Zukunftsreserven beim Grafikspeicher für 1440p. Zum Zeitpunkt des Kaufs meiner 3080 Ti schienen mir 12GB VRAM knapp genug für die nächsten 2-3 Jahre zu sein und die Leistung war sogar ein bisschen Overkill für 1440p. Generell will ich eine gekaufte GPU 2-4 Jahre behalten können.

Es gab für mich zum Zeitpunkt des Kaufs einfach keine besseren Alternativen bzw. sie waren einfach zu teuer (3090 Ti). 24GB VRAM hätten sämtliche Grafikspeicher-Sorgen für die nächsten 5+ Jahre spielend beiseite gefegt, gerade bei 1440p - aber wie gesagt, viel zu teuer gewesen zum Zeitpunkt der Kaufentscheidung.

Jetzt mache ich mir schon ein bisschen Sorgen, ob die 12GB VRAM meiner 3080 Ti für die nächsten 12-24 Monate reichen werden auch für nur 1440p. Sie könnten reichen oder auch nicht - wie du schon angemerkt hast, man weiß es schlicht nicht. Aber zum Zeitpunkt des Kaufs hätte es bei meiner damaligen Kaufkraft nichts Besseres werden können als eine 3080 Ti. Selbst das war eigentlich schon deutlich oberhalb meiner absoluten Schmerzgrenze und ein absoluter Wucherpreis für das Gebotene (FY, Nvidia...:mad:), aber ich war halt unter Dauerzwang wegen meinem zuvor gekauften 1440p-Monitor...


btw: schrauben ist ein hobby und regelmässiger austausch von hardware wirkt beruhigend. ist wie bei anderen malen oder tennis spielen oder schach. :-)

So hardgesotten und gewöhnt bin ich leider (noch) nicht, obwohl ich es weiterhin sein will:wink: Aber unabhängig davon ist mir häufiger HW-Wechsel mittlerweile zu einem nicht mehr akzeptablen Stressfaktor geworden:

Der Stress, ständig auf Preissenkungen warten oder auf Angebote Ausschau halten zu MÜSSEN (bei den Wucherpreisen der letzten Jahre). Der Stress, ständig Kosten/Amortisierungs-Überlegungen anstellen zu MÜSSEN ("für wieviel kriege ich die alte HW maximal noch verscherbelt?" -> "wieviel müsste ich dann für die neue HW draufzahlen?", "kriege ich die alte HW *überhaupt* noch verscherbelt?"). Zumal seit einigen Jahren der Kauf IMMER zuerst geschehen muss (da Angebote & Schnäppchen ja nur für einen kurzen Moment gelten); also noch BEVOR man die alte HW erfolgreich los wird. Dann der Stress von gründlichen Stabilitäts- und Funktionstests (bin da sehr penibel), bevor ich die alte HW verkaufe.

Und dann noch der Stress vom ständigen Ein- und Ausbauen von neuer und alter HW - wie gesagt, ich bin da zwar schon ordentlich geübt, aber immer noch nicht geübt (und hartgesotten) genug, dass das schnell, reibungslos und mit wenig Stress abläuft wie bei den absoluten Profis hier im 3DC und anderen HW-Foren. Wenn ich es eine längere Weile nicht mehr gemacht habe, dann vergesse ich die eine oder andere Regel beim Hantieren, was dann desöfteren nervig wird...

Daher fürs Erste erstmal auf HW sitzen, mit der man "etwas" länger seine Ruhe hat... diese Haltung kann man später ja immer noch ändern;)

R2

Hikaru
2023-05-10, 05:31:53
Hab da was wohl was falsch berechnet deswegen post delete...

Legendenkiller
2023-05-10, 08:00:26
hm 128 bit Bus mit 16 Gbyte ist aber auch wieder gewollt aber nicht gekonnt.

Quasie als "Beweis" das 16 Gbyte ja wirklich nix bringen.
Dauert dann wieder 3 Jahre bis sich rumsrpircht das man für Ram auch die passende Speicherbandbreite benötigt.

Naja wenigsten kann man dann Konsolen Ports mit max. Texturen in 30 FPS zocken ohne Nachladelags.

Blase
2023-05-10, 08:38:14
Die Käufer einer RTX 4070 (Ti) haben immer noch exakt das, für was sie sich entschieden haben: eine starke, effiziente Grafikkarte mit allen modernen Features. Die RTX 4060 Ti wird ein ganzes Eck langsamer und ist laut den Gerüchten außerdem noch einige Zeit entfernt. Insofern alles okay. Hier wird so getan, als hätten die 70er nur 8 GiByte (was E-Schrott wäre) ... :ugly:

Ist grundsätzlich richtig. Ebenso richtig ist aber auch, dass - wieder einmal - eine kleinere Karte eine zukunftssicherere Speicherbestückung erhält, als ein eigentlich deutlich größeres Modell. Und hier würde ich mich, als 4070 (Ti) Besitzer, schon etwas veräppelt vorkommen. Aber andere mögen das anders sehen und bewerten...

MfG Blase

Crazy_Borg
2023-05-10, 08:49:46
Als nvidia Käufer darfst du dich generell veräppelt vorkommen.
:freak:

Bin mal auf den Preispunkt gespannt.
Wenn halbwegs günstig gelegt hätte die 4060 ti 16GB dann das Zeug wieder mal als eine "Langzeitkarte" wie die 460 und 1060 zu gelten.
Aber "günstig" und "nvidia" ist sowas von last decade...

Gast
2023-05-10, 09:28:31
Quasie als "Beweis" das 16 Gbyte ja wirklich nix bringen.
Dauert dann wieder 3 Jahre bis sich rumsrpircht das man für Ram auch die passende Speicherbandbreite benötigt.

Höher aufgelöste/vielfältigere Texturen brauchen nicht mehr an Speicherbandbreite, sondern nur an Speicher.

Die benötigte Speicherbandbreite wird von der Rechenleistung bestimmt, nicht von der VRAM-Menge.

Exxtreme
2023-05-10, 09:31:41
Höher aufgelöste/vielfältigere Texturen brauchen nicht mehr an Speicherbandbreite, sondern nur an Speicher.


Natürlich brauchen höher aufgelöste Texturen mehr Bandbreite. Denn je höher die Auflösung desto größer die Datenmenge.

DozerDave
2023-05-10, 09:54:41
Ich finde die 4600 TI mit 16GB spannend. Dann zeigen die Benchmarks eindeutig ob 8GB VRAM bereits heute für 1080p zu gering sind.

Gast
2023-05-10, 11:06:07
..meine 4070 ti tuf tut es doch noch. jedi survivor läuft zwar etwas schleppend in 4k, aber so ist das nunmal, wenn man nur 900 euro investiert. da darf man die regler nicht alle nach rechts schieben.



Eine GPU die gerade mal 4 Monate alt ist tut es noch, schon mal ne geile Aussage die von viel Selbstvertrauen für die Karte spricht. "Nur" 900€ investiert. Du bist genau die Art von Kunde die sich NV wünscht und der wir die derzeitige Marktsituation zu verdanken haben. GG WP

Gast
2023-05-10, 11:40:02
Natürlich brauchen höher aufgelöste Texturen mehr Bandbreite. Denn je höher die Auflösung desto größer die Datenmenge.

Nicht wirklich, es werden ja immer nur die Mips gelesen die benötigt werden, also mit einem Texel:Pixel-Verhältnis von nahezu 1:1.

Lediglich im Magnification-Bereich, also bei einem Verhältnis >1 wird etwas weniger Bandbreite benötigt. Durch Texturcaches aber nur unwesentlich.

Wenn die Bandbreite nicht so kalkuliert ist, dass die GPU bei einem Verhältnis von 1 verhungert, und wenn sie das wäre hätte die GPU ganz andere Probleme, ist der Performanceeinfluss der Texturauflösung vernachlässigbar.

Exxtreme
2023-05-10, 12:15:40
Nicht wirklich, es werden ja immer nur die Mips gelesen die benötigt werden, also mit einem Texel:Pixel-Verhältnis von nahezu 1:1.


Nein, werden sie nicht. Die Texturen werden immer komplett geladen und zwar in allen Mip-Varianten. Denn nicht nur die Auflösung entscheidet welche Mip zum Zuge kommt sondern auch noch so Dinge wie die Entfernung von Kamera zur Textur etc. Das wäre VIEL zu langsam sowas exakt nach Bedarf zu streamen. Es ist bereits jetzt schon oft viel zu langsam das System-RAM als zusätzlichen Texturspeicher zu nutzen obwohl da der Verwaltungsoverhead viel niedriger ist als das Ermitteln der passenden Mip und das anschliessende Nachladen.

Wo ich aber zustimme, ist dass die Speicheranbindung zu breit für einen Grafikchip sein kann und die Grafikkarte das nicht ausnutzen kann weil der Flaschenhals eventuell in der Rechenleistung des Grafikchips liegt.

Troyan
2023-05-10, 12:37:05
hm 128 bit Bus mit 16 Gbyte ist aber auch wieder gewollt aber nicht gekonnt.

Quasie als "Beweis" das 16 Gbyte ja wirklich nix bringen.
Dauert dann wieder 3 Jahre bis sich rumsrpircht das man für Ram auch die passende Speicherbandbreite benötigt.

Naja wenigsten kann man dann Konsolen Ports mit max. Texturen in 30 FPS zocken ohne Nachladelags.

Die 16GB bringen schon was gegenüber 8GB. Aber die 4060 hat nur 288GB/s. Die verhungert doch schon in 1440p an der Bandbreite gegenüber einer 3070.

Raff
2023-05-10, 12:40:55
Letztere hat nur 4 MiByte L2-Cache. Also wer verhungert wirklich an was? Die Antwort: Wir wissen es nicht. Die Wahrheit liegt irgendwo in der Mitte und ist fließend. ;)

MfG
Raff

Gast
2023-05-10, 14:48:10
Nein, werden sie nicht. Die Texturen werden immer komplett geladen und zwar in allen Mip-Varianten.

Ich rede vom VRAM in die GPU, nur darum geht es bei der VRAM-Bandbreite. Im VRAM liegen freilich noch andere und größere Texturen, aber dies belastet eben nur den VRAM-Bedarf und nicht die Bandbreite.

Und in die GPU wird immer nur die passende Texturstufe für ein Pixel-Texel-Verhältnis von 1 geladen, und jede vernünftig dimensionierte Grafikkarte sollte ausreichend Bandbreite dafür besitzen.

Legendenkiller
2023-05-11, 08:48:45
Höher aufgelöste/vielfältigere Texturen brauchen nicht mehr an Speicherbandbreite, sondern nur an Speicher.

Die benötigte Speicherbandbreite wird von der Rechenleistung bestimmt, nicht von der VRAM-Menge.

du lädst aber höherauflösende Texturen in den VRam weil du sie auch benutzen willst und dabei brauchen die entsprechend mehr Bandbreite.
Nimm dir bitte mal eine 1/2h und goggel dir mal wie eine Grafikarte funzt.

Deine nötige Speicherbandbreite steigt mit zunehmender FPS und mit der Größe der verwendeten Texturen.
Ist die Speicherbandbreite zu langsam , muss die GPU auf Daten warten und rendert weniger FPS als sie könnte.


Aber ja, genug langsamer Ram ist besser als zu wenig schneller Ram.
mit 128 bit wird sie aber oft an den Punkt kommen wo sie den mehr Ram nicht mehr sinnvoll nutzen kann . Betenfalls kompensiert er dann mies programierte Spiele etwas besser.

Die 4070 mit ihren 192bit ist doch schon in bestimmten Einstellungen Speicherbandbreitenlimitiert.

Exxtreme
2023-05-11, 09:41:26
Ich rede vom VRAM in die GPU, nur darum geht es bei der VRAM-Bandbreite. Im VRAM liegen freilich noch andere und größere Texturen, aber dies belastet eben nur den VRAM-Bedarf und nicht die Bandbreite.

Und in die GPU wird immer nur die passende Texturstufe für ein Pixel-Texel-Verhältnis von 1 geladen, und jede vernünftig dimensionierte Grafikkarte sollte ausreichend Bandbreite dafür besitzen.

Trotzdem muss die Textur in die GPU. Und hier kann die Speicheranbindung sehr wohl limitieren wenn sie zu schmal ist.

Leonidas
2023-05-11, 10:22:27
Das ist so eine Frage: Mit was wird VRAM-Bandbreite primär belastet? Texturen einladen? Zwischen-Rechenergebnisse? Andere Ideen?

Troyan
2023-05-11, 11:47:57
Garnicht, da aus dem VRAM immer Bit-weise überalle Kanäle gelesen werden muss. Spielt also keine Rolle, ob da nun 4GB, 10GB oder 16GB drin liegen.

Exxtreme
2023-05-11, 12:00:25
Das ist so eine Frage: Mit was wird VRAM-Bandbreite primär belastet? Texturen einladen? Zwischen-Rechenergebnisse? Andere Ideen?

Lässt sich pauschal nicht beantworten. Das hängt von der Engine und vom Content ab. Ältere und primitivere Engines sind eher texturbandbreitelastig als neuere, die mehr Content berechnen.

Gast
2023-05-11, 15:34:36
Trotzdem muss die Textur in die GPU. Und hier kann die Speicheranbindung sehr wohl limitieren wenn sie zu schmal ist.

Ja 1x für tausende Frames die daraus berechnet werden. Die Bandbreite für das Laden von Texturen ist komplett vernachlässigbar gegenüber der benötigten Bandbreite fürs Rendering.

Das ist alleine schon daran erkennbar, dass die maximale Bandbreite die das Laden von Texturen brauchen könnte die vom PCIe-Slot ist, bzw. die vom Hauptspeicher je nachdem was kleiner ist. Und dieser stellt gerade mal einen Bruchteil der VRAM-Bandbreite zur Verfügung. Und wenn diese ausgenützt werden würde, müsste eine Beschneidung der PCIe-Bandbreite einen enormen Einbruch der Framerate zur Folge haben, während Tests immer wieder zeigen dass man sogar mehrere Generationen beim PCIE-Interface zurückgehen kann ohne nennenswert Performance einzubüßen.

Gast
2023-05-11, 15:40:53
Das ist so eine Frage: Mit was wird VRAM-Bandbreite primär belastet?

Rendertargets, G-Buffer etc.

Gast
2023-05-16, 14:25:10
hm 128 bit Bus mit 16 Gbyte ist aber auch wieder gewollt aber nicht gekonnt.

Quasie als "Beweis" das 16 Gbyte ja wirklich nix bringen.
Dauert dann wieder 3 Jahre bis sich rumsrpircht das man für Ram auch die passende Speicherbandbreite benötigt.
Naja, früher gab's ja auch 8GB an 128Bit bei deutlich langsamerem Speicher. Klar, der Speicher ist jetzt nicht doppelt so schnell im Vergleich zu früher, aber der wird ja auch regelmäßig schneller, um eben mit kleinerem SI klar zu kommen. Insofern würde ich sagen: Klar, optimal ist das nicht, aber besser als gar nichts. Die Alternative wäre, die Texturen über PCIe zu laden, weil der Speicher ausgegangen ist. Da ist die Bandbreite noch mal viel niedriger, ist daher besser als gar nichts.