PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Upgrade von 3070 auf GPU mit ausreichend VRAM


Lurtz
2023-03-30, 15:08:34
Ich möchte gerne ein GPU-Upgrade von meiner RTX 3070 auf eine Karte mit ausreichend viel VRAM vornehmen, da die jetzt startenden Current-Gen-Exklusivtitel deutlich zeigen, dass die Karte wie erwartet nicht genügend VRAM besitzt.

Ich spiele aktuell in 1440p und würde das wahrscheinlich vorerst weiterhin tun. Irgendwann ziehe ich ein Upgrade, wahrscheinlich auf einen OLED, in Betracht, aber dazu müssen wahrscheinlich erst noch ein paar Kinderkrankheiten verschwinden und selbst dann würde ich evtl. bei 1440p bleiben statt zwingend 2160p zu nehmen.
CPU ist ein i5 12500 mit 32 GB DDR4 3466. Seasonic Focus GX 850 W.

Da ich ungern deutlich mehr als 800€ ausgeben wollen würde, bleiben ja eigentlich nur zwei relevante Marktteilnehmer übrig, die 4070 Ti und die 7900 XT.

Da ich sehr überzeugt von DLSS 2/Super Resolution bin, und das in fast jedem unterstützten Spiel benutze, würde ich natürlich gerne bei nVidia bleiben, allerdings hat die 4070 Ti natürlich erneut den deutlichen Pferdefuß der höchstens jetzt gerade ausreichenden VRAM-Ausstattung, aber keinerlei Puffer für Mehrbedarf.

Zu Beginn war ich gegenüber der 7900 XT sehr negativ eingestellt, aber durch den Preisrutsch und diverse Treiberverbesserungen erscheint sie mir mittlerweile doch als ganz gute Option - bis eben auf DLSS Super Resolution (und Frame Generation).

Raytracing empfinde ich teils schon als deutlichen Mehrwert, aber abgesehen von Extremszenarien wie Witcher 3 Next Gen ließe sich das ja auch ganz brauchbar mit der 7900 XT nutzen. Und VRAM hätte die Karte tatsächlich satt.
Reflex hat keine Alternative, die kommt vermutlich mit FSR3, dafür funktioniert AntiLag bei AMD auch unter DX12. Externer Framelimiter wäre mit RTSS realisierbar. Vergesse ich sonst noch ein nVidia-Feature?

Kann man bei der 7900 XT die Referenz nehmen, oder wäre ein Custom Design zu empfehlen?

Wie ist denn der Video Decoder von AMD mittlerweile, laufen die gängigen Codecs wie h264, VP9 und AV1 mittlerweile problemlos im Browser? Mit meiner R9 390 war das noch eine Katastrophe.

Ach ja, der DX12-Treiber von AMD ist teils deutlich effizienter als der von nVidia, was meine Mittelklasse-CPU entlasten würde. DX11 im CPU-Limit hat AMD ja mittlerweile größtenteils gefixt, wenn auch deutlich zu spät.

Vergesse ich sonst noch etwas in meinen Überlegungen?

aufkrawall
2023-03-30, 15:34:58
Kann man bei der 7900 XT die Referenz nehmen, oder wäre ein Custom Design zu empfehlen?

Würde Referenzdesigns komplett ignorieren. Sind diesmal nicht besonders leise, PCB nicht besonders toll, Kühlung/€-Verhältnis ist quasi immer schlechter als bei günstigen Customs, und außerdem hat AMD diesmal gehörigen Schrott ausgeliefert. Wer weiß, was da noch im Argen sein könnte.


Wie ist denn der Video Decoder von AMD mittlerweile, laufen die gängigen Codecs wie h264, VP9 und AV1 mittlerweile problemlos im Browser? Mit meiner R9 390 war das noch eine Katastrophe.

Zumindest VP9 in Chrome ging schon kurz nach RDNA2-Launch afair problemlos.


Ach ja, der DX12-Treiber von AMD ist teils deutlich effizienter als der von nVidia, was meine Mittelklasse-CPU entlasten würde.

Kommt auch etwas aufs Spiel an, Control oder Deathloop laufen auf Nvidia sauberer. Kann aber sein, dass der AMD-Treiber da nichts machen kann, weil sich das mit VKD3D-Proton genau so darstellt.
Aber ja, Fortnite, also UE 5.1, hat abartige Einbrüche exklusiv auf Nvidia, zumindest in dieser Ausgeprägtheit.

Du würdest ja nicht fragen, wärst du wirklich von der 4070 Ti (oder 4070, dürfte eher dem Preisrahmen entsprechen) überzeugt. Weil es halt eine Unverschämtheit für 900€ ist. Andere Idee: Ich würd ich die Augen nach einem 6800 XT-Angebot offen halten. Und wenn sie dir nicht zusagt, muss sie halt zurück. Würd das als Notwehr betrachten, bei diesem kranken Markt...

dildo4u
2023-03-30, 15:40:02
RT erhöht oft den Vram Bedarf daher ist das nicht immer ideal für die 4070 TI obwohl sie besser laufen könnte.
Das Wichtiges für die Zukunft ist wohl das RDNA3 ok mit der UE 5.1 Plus RT läuft, ich denke Pathtracing wie es für Cyperpunk geplant ist ein bissel zu viel für diese Klasse.

https://youtu.be/lSy9Qy7sw0U?t=330

Lurtz
2023-03-30, 18:04:43
Mit 16 GB wäre die 4070 Ti nicht mal eine Diskussion wert. Aber so... Unverschämtheit trifft es schon gut, ja.

Die 6800 XT fühlt sich gerade ohne DLSS halt wie ein reines VRAM-Upgrade an, und das eigentlich jetzt auch zu spät :usad: Wollte ja damals eine 6800 non XT, hab dann aber nur die 3070 zum UVP bekommen.

So richtig super fühlt sich die 7900 XT aber auch nicht an für den Preis. Vielleicht doch eine Generation noch durchhalten und schlimmstenfalls Texturen reduzieren...

smoke81
2023-03-30, 21:27:13
Von der 3070 ausgehend würde ich mindestens auf 4080 16GB oder alternativ 7900 XTX 24GB gehen.

Letztere gibt es im Angebot für 999€.

Ich orientiere mich bei einem Upgrade praktisch immer am 4K 3dcenter Performance Index und da sollte es schon Faktor 2x sein, wenn es kein Sidegrade sein soll.
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2023

Spannenderweise ist die 4080 genau doppelt so stark bei doppelt so viel RAM wie die 3070. Also eine Garantie gibt es aus meiner Sicht nicht, dass da nicht auch irgendwann der VRAM aus dem letzten Loch pfeift. Aber vielleicht bin ich ja eher AMD zugeneigt ;-)

EDIT:
Ich bin mit einer 6800 non-XT 16GB seit einiger Zeit sehr zufrieden bei einem WQHD Monitor und habe mir diese Woche eine 6700 non-XT 10GB für das 2. Setup unter Full HD bestellt.

Lurtz
2023-03-30, 21:35:48
Gut, dann wäre die Konsequenz eher noch eine Generation zu warten, denn so viel Geld werde ich nicht ausgeben. Schon die 3070 war über 100€ teurer als ich zuvor jemals für eine GPU gezahlt habe :ugly:

Oder doch ein Sidegrade auf 6800 (XT), sollte es mit dem VRAM zu unerträglich werden.

Verkauft Dargo seine 6800 XT? :naughty:

Leonidas
2023-03-31, 04:51:17
Es sieht einfach leider so aus, als wollten die Hersteller in dieser Gen nichts für diese Anforderung zum Midrange-Preis liefern. Alles passende ist in der oberen Preisklasse angesiedelt. Vielleicht kommt die 7800XT eines Tages nochmal dahin, dass es passt - aber das bedeutet noch einige Monate abwarten.

Lurtz
2023-03-31, 08:27:42
In Relation zum Preis dürfte die 7800 XT wahrscheinlich auch nicht sonderlich attraktiv sein, falls sie überhaupt so viel an Mehrleistung drauflegt.

IceKillFX57
2023-03-31, 08:28:16
Du hast nicht zufällig eine richtige Wasserkühlung?

Dann würde ich meine 6900XT anbieten...😅

Lurtz
2023-03-31, 08:32:27
Nein, alles nur Luft :)

bestMAN
2023-03-31, 09:58:09
Eine 4070 non-ti mit 12 GB ist demnach bei 700€ für dich keine Option?
Dürfte in der Performance im Bereich 3080/3080ti liegen ist ist kurz vor Marktstart.

Ich meine, eine AMD mit 12 GB fühlt sich im VRAM-Verbrauch so an wie eine Geforce 8 GB.
Ist es nicht so, dass nvidia etwas besser mit dem VRAM umgeht?

gnomi
2023-03-31, 10:42:11
Vermutlich wäre es am vernünftigsten, die Karte zwei weitere Jahre zu behalten. Keine Tests & Benchmarks lesen.
Weniger 3D Center und einfach spielen.
Aber wer schafft das schon? :freak:

Palpatin
2023-03-31, 10:56:32
Bin auch von der 3070 auf die 4070ti gewechselt, ein Grund war weil auch dank DLSS die 8GB Vram der 3070 immer gereicht haben.
Es sieht aber aktuell tatsächlich so aus das 12GB leider nicht reichen.
Ist wirklich schwierig da eine Empfehlung zu geben:
4070ti zu wenig Vram - keine Empfehlung
7900XT(7900XTX) vs 4800: Ist dir RT und die sehr gute Out of the Box Effizienz der 4800 den Aufpreis wert? Musst selbst wissen. Zu DLSS vs FSR eher noch ein zusätzlicher kleiner Vorteil für NV.

YeahBuoy!
2023-03-31, 13:38:11
Kann deine Kaufzurückhaltung hier gut verstehen, hätte ich keine RX6800 abbekommen wäre ich jetzt in der gleichen Situation. Derzeit fehlt es mir an nichts da ich aktuell (mit Ausnahme von Hogwarts Legacy) nichts allzu forderndes zocke und auf absehbare Zeit auch nicht wesentlich mehr Zeit zum Spielen habe.

Wäre allerdings der Umbautrieb stark genug würde ich, Stand heute, wahrscheinlich die hier kaufen: https://geizhals.de/xfx-speedster-merc-310-radeon-rx-7900-xt-rx-79tmercu9-a2863948.html. Kaum teurer als die MBA Karten, besserer Kühler, kann aber mit Spulenfiepen einhergehen.

Lurtz
2023-03-31, 14:06:04
Ich meine, eine AMD mit 12 GB fühlt sich im VRAM-Verbrauch so an wie eine Geforce 8 GB.
Ist es nicht so, dass nvidia etwas besser mit dem VRAM umgeht?
Macht das nicht höchstens etwa 1 GB Unterschied aus? In Extremfällen vielleicht mal 2, aber sicher keine 4.

Annator
2023-03-31, 14:34:43
Eine gebrauchte 3090 kommt nicht in betracht? Die gibt es für 700-800€.

Raff
2023-03-31, 14:47:28
Macht das nicht höchstens etwa 1 GB Unterschied aus? In Extremfällen vielleicht mal 2, aber sicher keine 4.

Jo.

Eine gebrauchte 3090 kommt nicht in betracht? Die gibt es für 700-800€.

Eine neue Radeon RX 7900 XT ist für die meisten Szenarien die bessere Wahl (schneller und effizienter) und als Neuware verfügbar. Das wäre auch mein Tipp, bis Nvidia zur Besinnung kommt.

Hmmm, ich muss meine Ti wohl echt verkaufen, solange sie noch was wert ist.

MfG
Raff

Lurtz
2023-03-31, 14:54:13
Eine neue Radeon RX 7900 XT ist für die meisten Szenarien die bessere Wahl (schneller und effizienter) und als Neuware verfügbar. Das wäre auch mein Tipp, bis Nvidia zur Besinnung kommt.

Hmmm, ich muss meine Ti wohl echt verkaufen, solange sie noch was wert ist.
Und in welchem Preisrahmen verdient sie deine Empfehlung? ~850€?

TLOU würde ich sowieso kaufen, wären so gesehen also minus 40€.

Auf Gebrauchtkauf habe ich in dem Preissegment eigentlich wenig Lust.

Exxtreme
2023-03-31, 15:22:58
Und in welchem Preisrahmen verdient sie deine Empfehlung? ~850€?

TLOU würde ich sowieso kaufen, wären so gesehen also minus 40€.

Auf Gebrauchtkauf habe ich in dem Preissegment eigentlich wenig Lust.

Die billigsten sind für 839 EUR zu haben.

https://geizhals.de/?cat=gra16_512&xf=9809_05+14+-+RX+7900+XT

Lurtz
2023-03-31, 16:03:50
Das sind aber Referenzdesigns, oder? Mndestens die erste "Custom Ausbaustufe", also zB Pulse bei Sapphire, sollte es wohl schon sein.

Wenn ich aber sehe wie schlecht FSR2 meist noch performet gegenüber DLSS2 vergeht mir eigentlich auch die Lust auf Radeons...

DrFreaK666
2023-03-31, 16:05:51
Dann bleibt nur warten, denn die Karte, die du willst, gibt es (noch) nicht

KriNemeth
2023-03-31, 16:07:16
Die XFX Speedster ist kein Referenzdesign, welche auch 839€ kostet.
Wobei die XT Ref von den Problemen der XTX wohl nicht betroffen war.

IceKillFX57
2023-03-31, 17:28:31
Wenn ich aber sehe wie schlecht FSR2 meist noch performet gegenüber DLSS2 vergeht mir eigentlich auch die Lust auf Radeons...

Wie kommst du darauf? Es performt doch gut und stellenweise besser. Aber andersherum genauso.

Unabhängig davon, du bist zu sehr voreingenommen. Du wirst mit einer AMD Karte niemals zufrieden sein. Du wirst dir evtl. eine zulegen aber dann doch wieder umrüsten, um dieses negative Gefühlt los zu sein. Das soll kein Denkanstoß sein, sondern ein Rat. Lass es mit AMD (auch wenn ich AMD Anhänger bin).

The_Invisible
2023-03-31, 18:27:13
Gut, dann wäre die Konsequenz eher noch eine Generation zu warten, denn so viel Geld werde ich nicht ausgeben. Schon die 3070 war über 100€ teurer als ich zuvor jemals für eine GPU gezahlt habe :ugly:

Oder doch ein Sidegrade auf 6800 (XT), sollte es mit dem VRAM zu unerträglich werden.

Verkauft Dargo seine 6800 XT? :naughty:

Ist aber auch nur ein etwas besseres Sidegrade bzw. in RT wenn der VRAM nicht limitiert bist dann sogar langsamer, ärgerst dich sicher wieder wennst das nvidia "ökosystem" gewohnt bist.

Nvidia machts da einem aber auch nicht leicht, in deiner Preisklasse wohl dann die 4070 12GB die beste Wahl, wobei die halt performancetechnisch auch nicht so der Sprung ist. Einzige sinnvolle wäre da wohl die 4080, da musst halt geldtechnisch in den sauren Apfel beißen...

DrFreaK666
2023-03-31, 18:37:37
Haben manche damals nicht gesagt, dass viel VRAM nicht nötig ist, weil bald Direct Storage kommt? :ugly:
Vielleicht stimmt es ja diesmal

Lurtz
2023-03-31, 19:49:21
Wie kommst du darauf? Es performt doch gut und stellenweise besser. Aber andersherum genauso.

Unabhängig davon, du bist zu sehr voreingenommen. Du wirst mit einer AMD Karte niemals zufrieden sein. Du wirst dir evtl. eine zulegen aber dann doch wieder umrüsten, um dieses negative Gefühlt los zu sein. Das soll kein Denkanstoß sein, sondern ein Rat. Lass es mit AMD (auch wenn ich AMD Anhänger bin).
Ich hatte vor der 3070 fast 20 Jahre lang durchgehend Radeons :ugly: Und auch letztes Mal wollte ich die 6800, aber als ich die 3070 zur UVP ergattern konnte, konnte ich natürlich nicht Nein sagen.

Ansonsten finde ich den Startpost schon recht ausgewogen bzw. habe ja um Korrekturen gebeten.
Dass DLSS2 qualitätsmäßig vor FSR2 liegt, ist breiter Konsens, selbst Hardware Unboxed sehen das so, denen man ja nun nicht gerade einen nVidia-Bias attestieren kann.

Wo performet FSR2 denn besser oder nur annähernd gleich gut? Bis auf Deathloop fällt mir da spontan kaum was ein.

Haben manche damals nicht gesagt, dass viel VRAM nicht nötig ist, weil bald Direct Storage kommt? :ugly:
Vielleicht stimmt es ja diesmal
Bis sich das durchsetzt dauert es noch Jahre und allein wegen dem fehlenden unified Memory glaube ich nicht, dass das entscheidend was am RAM/VRAM-Bedarf verringern wird.

aufkrawall
2023-03-31, 20:04:55
Wo performet FSR2 denn besser oder nur annähernd gleich gut? Bis auf Deathloop fällt mir da spontan kaum was ein.

In Witcher 3 find ichs trotz einiger Schwächen besser. Schlicht, weil es 0 Geometrie-Smearing gibt. Sobald es um schlechtere Implementierungen geht oder FSR sonst wie stärker failt, sieht es natürlich anders aus. Wird aber sicherlich noch weitere Titel geben, in denen TAA so schlecht sein wird, dass FSR 2 mitunter deutlich besser ist. War etwa in Wonderlands auch so, nachdem das Ghosting gefixt wurde.

Lurtz
2023-04-01, 13:06:27
Hab mal bisschen Kundenrezensionen quergelesen, sehr viele beschweren sich über extremes Spulenrasseln bei der 7900 XT. Bei einigen verschwindet es, wenn man unter etwa 150 fps bleibt, scheint aber auch nicht sicher zu sein.

Ansonsten gibts durchaus auch die Meinung, dass die Customs den Aufpreis nicht wirklich wert sind. Zumal die Custommodelle wohl öfter mal den Idle-Verbrauch deutlich erhöhen? :uponder:

Lurtz
2023-04-07, 13:56:23
Bin immer noch nicht weiter :ugly:

Die 4070 Ti ist des VRAMs wegen eigentlich unkaufbar (ist sonst aber eigentlich in allen Belangen das rundere Produkt), die Radeon ist wegen fehlendem DLSS(2) eigentlich unkaufbar ;D

Es sei denn ich würde noch einen 4k-Monitor kaufen, in 4k Quality wäre FSR2 wahrscheinlich ganz ok, aber da würde Quality wahrscheinlich nicht immer reichen und in Balanced oder Performance ist DLSS2 dann wieder massiv überlegen.

Ex3cut3r
2023-04-07, 14:08:36
Leg noch ein paar Scheine oben drauf, und hol dir eine 4080er. Eine Radeon für viel Geld, wurde ich mir auch nicht holen, bietet einfach zu wenig.

Mit der 4080, hast du genug VRAM, DLSS 2, FG, RT Leistung etc.

Lurtz
2023-04-07, 23:21:03
Die 4080 hat ein mieses P/L-Verhältnis und wenn ich noch ein paar Scheine drauflege, kriege ich sogar eine 4090. Da erscheint mir selbst eine 6950 XT für 600€ attraktiver.

Naja, die 4070 Ti ist eigentlich unkaufbar mit ihrer lächerlichen VRAM-Ausstattung, eigentlich bleibt eh nur die 7900 XT übrig... Das TLOU-Bundle gibts noch bei Kauf bis 15. April, richtig?

Ex3cut3r
2023-04-07, 23:59:41
Du scheinst, ja alles abzulehnen, und wirst mit Alternativen nur so um dich. Was hindert dich jetzt doch am Kauf einer 6900XT?

Wenn man auf einen RT Krüppel abfährt, sicherlich ne tolle Karte.

Ansonsten weiß ich nicht, was an GeForce 12GB jetzt ein VRAM Krüppel sein soll? Wegen einem Spiel? TLOU Part 1? Das läuft mit 12GB @ 3080 Ti mit Ultra Texturen ohne Probleme. KA, was du dir da zusammenreimst.

Exxtreme
2023-04-08, 00:12:55
Du scheinst, ja alles abzulehnen, und wirst mit Alternativen nur so um dich. Was hindert dich jetzt doch am Kauf einer 6900XT?

Wenn man auf einen RT Krüppel abfährt, sicherlich ne tolle Karte.

Ansonsten weiß ich nicht, was an GeForce 12GB jetzt ein VRAM Krüppel sein soll? Wegen einem Spiel? TLOU Part 1? Das läuft mit 12GB @ 3080 Ti mit Ultra Texturen ohne Probleme. KA, was du dir da zusammenreimst.

Mal ernsthaft, bis auf die RTX 4090 ist alle bisherigen Karten "RT-Krüppel" wenn man es genau nimmt. ;) Und wenn man keine 1700 EUR ausgeben will oder kann, nimmt man halt das mit dem besten P/L-Verhältnis.

aufkrawall
2023-04-08, 00:13:34
Und was spielt man dann alles mit super dollem RT auf einer 4080? Ziemlich viel gebundenes Kapital für ziemliche maue Spieleaussichten in diesem Jahr.

Ex3cut3r
2023-04-08, 00:31:50
Mal ernsthaft, bis auf die RTX 4090 ist alle bisherigen Karten "RT-Krüppel" wenn man es genau nimmt. ;) Und wenn man keine 1700 EUR ausgeben will oder kann, nimmt man halt das mit dem besten P/L-Verhältnis.

Falsch. AMD hat es jetzt geschafft, die RT Leistung in Heavy RT Titeln an Ampere anzupassen. Ada wiederum ist wieder eine bis zwei Gen im RT voraus. AMD läuft in jedem Bereich immer 1 Gen mindestens hinterher. Wenn Sie wenigstens erheblich billiger wären, als die Ada Karten, sind Sie aber nicht.

Und was spielt man dann alles mit super dollem RT auf einer 4080? Ziemlich viel gebundenes Kapital für ziemliche maue Spieleaussichten in diesem Jahr.

Fortnite, CP77, Dead Space Remake mit RT AO, Callisto Protocol, Miles Morales mit RT Schatten und Spiegelungen. Und natürlich kommende Spiele.....KA was so eine Dau Frage soll. :freak:

Wenn man 1000€ ausgibt, dann bitte ne RTX 4080. Bei noch mehr Geld, gleich die 4090. Alles andere ist einfach zu Fehlerhaft bestückt, bei AMD bekommt man RT Leistung von Ampere, und nur FSR bei Nvidia gibt unter 4080 zu wenig VRAM.

aufkrawall
2023-04-08, 00:42:11
KA was so eine Dau Frage soll. :freak:

RT in Deadspace? Läuft auch auf Radeon schnell.
Schrott-RT in Callisto Protocol? Klar, dafür kauft man Hardware. :freak:
RT in Fortnite? Schafft selbst eine 4090 nicht in nativen 1080p dauerhaft >120fps.

Einfach nur völlig weltfremdes RT-Hype-Gelaber ala Lederjacke...

just4FunTA
2023-04-08, 01:34:39
Wenn man 1000€ ausgibt, dann bitte ne RTX 4080. Bei noch mehr Geld, gleich die 4090. Alles andere ist einfach zu Fehlerhaft bestückt, bei AMD bekommt man RT Leistung von Ampere, und nur FSR bei Nvidia gibt unter 4080 zu wenig VRAM.

für 1000€ kriegst du keine Rtx4080 die billigste ist aktuell bei ~1250€, die 7900xt gibt es für 825€. Das sind über 400€ unterschied. ;)

Exxtreme
2023-04-08, 12:50:41
Falsch. AMD hat es jetzt geschafft, die RT Leistung in Heavy RT Titeln an Ampere anzupassen. Ada wiederum ist wieder eine bis zwei Gen im RT voraus. AMD läuft in jedem Bereich immer 1 Gen mindestens hinterher. Wenn Sie wenigstens erheblich billiger wären, als die Ada Karten, sind Sie aber nicht.


Mir sind Generationen völlig egal. Ich schaue ausschliesslich auf das was hinten rauskommt. "Heavy RT"-Titel gibt es nur eine Handvoll und die muss man erstmal haben. Zweitens, die meisten Spieler geben kaum mehr als 400 EUR für die Grafikkarte aus. Und damit reden wird über eine RTX 3060-Klasse an Grafikkarten. Die Spiele werden darauf angepasst und nicht auf 1250 EUR-Grafikkarten. Und drittens, für 1000 EUR bietet sich bald die 7900 XTX an. Die ist in "RT heavy"-Titeln rund 25% langsamer als eine RTX 4080. 25% klingen erstmal nach viel, sind in der Praxis aber nicht so wirklich ein Brocken. Wir reden hier von 25fps vs. 20 fps. Oder von 75 fps vs. 60 fps etc. Läuft das Spiel dadurch schneller? Ja, definitiv. Läuft das Spiel so viel schneller, dass das Spielerlebnis dadurch sehr viel besser wird? Das auf keinen Fall.

Sprich, will man ein spürbar besseres Spielerlebnis in "Heavy RT"-Titeln dann braucht man eine RTX 4090. Denn die ist wirklich entscheidend schneller.

Lurtz
2023-04-08, 13:53:51
Du scheinst, ja alles abzulehnen, und wirst mit Alternativen nur so um dich. Was hindert dich jetzt doch am Kauf einer 6900XT?

Wenn man auf einen RT Krüppel abfährt, sicherlich ne tolle Karte.

Ansonsten weiß ich nicht, was an GeForce 12GB jetzt ein VRAM Krüppel sein soll? Wegen einem Spiel? TLOU Part 1? Das läuft mit 12GB @ 3080 Ti mit Ultra Texturen ohne Probleme. KA, was du dir da zusammenreimst.
Weil bei der 3070 genau die gleichen Sprüche kamen und die jetzt nach 2 1/2 Jahren praktisch am Ende ist. Ist auch egal ob es jetzt an Unoptimiertheit oder der Hardware liegt, wenn man in jedem zweiten Spiel die Leistungsfähigkeit, erst recht mit DLSS, nicht mehr ausfahren kann weil der VRAM permanent überläuft.

RT ist nett, wenn es Sinn macht, für mich aber noch nicht kaufentscheidend. Zumal 3090 RT-Performance mit genug VRAM (!) nicht schlecht ist. Bedeutend besser als bei einer 3070 jedenfalls, die angeblich so toll für RT wäre, der in der Praxis mit RT schon im ersten Lebensjahr mit RT ständig der VRAM übergelaufen ist.

Die Abwesenheit von DLSS schmerzt bei einer Radeon schon deutlich mehr.
für 1000€ kriegst du keine Rtx4080 die billigste ist aktuell bei ~1250€, die 7900xt gibt es für 825€. Das sind über 400€ unterschied. ;)
Ist schon krass was die letzten Jahre angerichtet haben. Früher hätten die meisten nicht mehr als 400€ für eine GPU ausgegeben, heute beschreibt man mit 400€ mehr den Unterschied zwischen einem Mittelklasse- und Highend-Modell :ugly:

Ex3cut3r
2023-04-08, 14:05:36
So ist das (leider) ob ich nun 1100€ für ne Radeon 7900XTX oder 1200€ für eine 4080 zahle, wäre mir nun auch egal, und ich wurde bei solchen Preisen immer zur GeForce greifen, das Sie für mich das bessere Gesamtpaket bietet. RT Leistung, DLSS 2, DLSS 3 (FG) genug VRAM.

Aber das muss jeder selber wissen.

Lurtz
2023-04-08, 14:08:09
So ist das (leider) ob ich nun 1100€ für ne Radeon 7900XTX oder 1200€ für eine 4080 zahle, wäre mir nun auch egal, und ich wurde bei solchen Preisen immer zur GeForce greifen, das Sie für mich das bessere Gesamtpaket bietet. RT Leistung, DLSS 2, DLSS 3 (FG) genug VRAM.

Aber das muss jeder selber wissen.
Ich will ja aber nicht so viel zahlen, sondern eher um 800€ und da ist der Unterschied zur nächstmöglichen Geforce eben noch gewaltig.

Wie gesagt, mit 16 GB wäre die 4070 Ti vorzuziehen, aber so...

Ex3cut3r
2023-04-08, 14:15:18
Ja, dann die Radeon.

Virtuo
2023-04-08, 14:32:24
Bleib doch einfach bei deiner GPU. Die ist doch nicht schlecht! Ich spiel hier auf 'ner RX580. Da läuft auch alles. Wo sind nur die Zeiten als ein gutes Spiel noch an einer guten Spielmechanik, guter Atmosphäre oder einer guten Story festgemacht wurde und nicht daran ob in einer Pfütze irgendwo das Wasser physikalisch korrekt spiegelt. Allein schon die Diskussion über DLSS und FSR 2.0; als ob das während des Spielens irgendjemandem auffallen würde.

Lurtz
2023-04-08, 14:36:27
Wenn es danach ginge würde ich einfach eine Konsole kaufen und hätte fünf Jahre oder länger Ruhe. Aber ich sehe solche Sachen halt leider. Sicher nicht so wie die Experten hier, aber genug als dass es mir auffällt.

vinacis_vivids
2023-04-08, 14:38:02
7900XTX 24GB

robbitop
2023-04-08, 16:19:40
IMO ein schwieriges Upgrade, da die 3070 eine recht gute Basis ist und man damit auch DLSS 2 gewöhnt ist. Die 4070 ti wäre IMO das Minimum. Immerhin +50% VRAM und +60-70% Performance. Aber eben auch 880 €. Für eine Kategorie, die sonst eher ~500 € war.

Die 4080 ist vom P/L wirklich unschön (1230 € die billigste Karte aktuell) - wäre aber wie viele vorher gesagt haben schon ein ordentlicher Sprung oben drauf.
Wenn beides zu teuer hilft nur warten auf die nächste Generation und hoffen, dass es eine bezahlbare 5070 geben wird.

Die Radeons sind vom P/L sicherlich interessant. Aber eben auch mit unter deutlich langsamer in RT (je nach Spiel - aber haben mit der Unterstützung von Ada's SER wahrscheinlich zukünftig eher noch mehr das Nachsehen). Dazu DLSS 2 momentan besser als FSR 2 und breiter unterstützt und dazu noch DLSS 3 FG.
So sehr ich Ada zu teuer finde - IMO sind obige Empfehlungen (4070 ti oder nicht aufrüsten) die einzigen brauchbaren Optionen.

Willkommen in der Welt überteuerter GPUs.

Virtuo
2023-04-08, 16:28:24
Wenn es danach ginge würde ich einfach eine Konsole kaufen und hätte fünf Jahre oder länger Ruhe. Aber ich sehe solche Sachen halt leider. Sicher nicht so wie die Experten hier, aber genug als dass es mir auffällt.


Hmm! Also wenn mir da eine Gamingseite, die ihr Geld damit verdient und vielleicht noch gesponsort ist, mir ein Vergleichsbild einer prägnanten Stelle mit eingebautem Slider vor die Nase hält, dann sehe ich das auch. Aber so im Spiel... ohne direkten Vergleich..., während ich mit Spielen beschäftigt bin...? Wahrscheinlich sieht der Shader der dich stört auf einer 4090 genauso mies aus, weil er einfach nur schlecht programmiert ist. Mir wäre das viel zu viel Geld für viel zu wenig Nutzen.

The_Invisible
2023-04-08, 17:00:33
Die 4080 ist vom P/L wirklich unschön (1230 € die billigste Karte aktuell) - wäre aber wie viele vorher gesagt haben schon ein ordentlicher Sprung oben drauf.
Wenn beides zu teuer hilft nur warten auf die nächste Generation und hoffen, dass es eine bezahlbare 5070 geben wird.


Dieses Argument höre ich wieder und immer wieder schon seit der GTX 1000er Serie wo die Preise erstmals angezogen haben. Klar kannst einfach länger warten bis das performanceplus und VRAM einen ordentlichen Sprung machen, da neue GPUs aber nur alle 2 Jahre kommen gurkt man in der Zwischenzeit halt umher. Zudem glaube ich kaum das es wirklich billiger wird in der gleichen Serie.

Ist derzeit eher eine Friss oder Stirb Methode, ansonsten einfach eine 7900xt kaufen und mit der langsamen RT leistung bzw den schlechteren Softwarefeatures leben...

The_Invisible
2023-04-08, 17:06:56
Mir sind Generationen völlig egal. Ich schaue ausschliesslich auf das was hinten rauskommt. "Heavy RT"-Titel gibt es nur eine Handvoll und die muss man erstmal haben. Zweitens, die meisten Spieler geben kaum mehr als 400 EUR für die Grafikkarte aus. Und damit reden wird über eine RTX 3060-Klasse an Grafikkarten. Die Spiele werden darauf angepasst und nicht auf 1250 EUR-Grafikkarten. Und drittens, für 1000 EUR bietet sich bald die 7900 XTX an. Die ist in "RT heavy"-Titeln rund 25% langsamer als eine RTX 4080. 25% klingen erstmal nach viel, sind in der Praxis aber nicht so wirklich ein Brocken. Wir reden hier von 25fps vs. 20 fps. Oder von 75 fps vs. 60 fps etc. Läuft das Spiel dadurch schneller? Ja, definitiv. Läuft das Spiel so viel schneller, dass das Spielerlebnis dadurch sehr viel besser wird? Das auf keinen Fall.

Sprich, will man ein spürbar besseres Spielerlebnis in "Heavy RT"-Titeln dann braucht man eine RTX 4090. Denn die ist wirklich entscheidend schneller.

Also hier ist eine 4080 auch mal bis zu 70% schneller in RT, je mehr RT heavy desto größer der Abstand und da ist SER noch gar nicht mitgerechnet: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/

Exxtreme
2023-04-08, 20:23:46
Also hier ist eine 4080 auch mal bis zu 70% schneller in RT, je mehr RT heavy desto größer der Abstand und da ist SER noch gar nicht mitgerechnet: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/

Ja, in Nvidias RT-Techdemos ala Cyberpunk 2077. :) Im Schnitt bleiben aber trotzdem rund 25%. Und die machen den Kohl nicht fett.

Ex3cut3r
2023-04-08, 21:53:49
Ja, in Nvidias RT-Techdemos ala Cyberpunk 2077. :) Im Schnitt bleiben aber trotzdem rund 25%. Und die machen den Kohl nicht fett.

Ähmm nein. Dying Light 2 satte 101% schneller!!!!

Und Ghostwire Tokyo sowie Guardians of the Galaxy etc. sehen ähnlich aus. +50-70%

Einfach nur schmarrn, was viele AMDler verbreiten wollen. Bei Ampere war es aber die selbe "Soße" kennt man alles.

Wenn man DLSS und/oder FG noch dazuschaltet wächst der Abstand nochmal, sind dann IMHO 2-3 Generationen Unterschied, sry aber AMD ist einfach technologisch total abgehängt, der Witz ist eigentlich nur, dass die für eine 7900XTX auch Schweinegeld haben wollen.

https://abload.de/img/neuesprojekt2lfcl.png

ChaosTM
2023-04-08, 22:04:05
12GBG und bei niedrigen Auflösungen sind auch 8GB sind in 2023 noch ausreichend, aber wie lange noch?

NV`s low VRAM Politik hat nur einen Hintergrund.: Geplante Obsoleszenz ..

@ Neukauf.:
1080p - 12gb
1440p - 16gb
alles drüber 20+Gb wenn die Dinger länger als 2 Jahre halten sollen

aufkrawall
2023-04-08, 22:05:51
Edit: Ok, ist die XTX. Trotzdem ne Nebelkerze, wenn die XT deutlich weniger kostet...

Lurtz
2023-04-08, 22:21:19
Hmm! Also wenn mir da eine Gamingseite, die ihr Geld damit verdient und vielleicht noch gesponsort ist, mir ein Vergleichsbild einer prägnanten Stelle mit eingebautem Slider vor die Nase hält, dann sehe ich das auch. Aber so im Spiel... ohne direkten Vergleich..., während ich mit Spielen beschäftigt bin...? Wahrscheinlich sieht der Shader der dich stört auf einer 4090 genauso mies aus, weil er einfach nur schlecht programmiert ist. Mir wäre das viel zu viel Geld für viel zu wenig Nutzen.
DLSS vernichtet meist jeden Anflug von Flimmern komplett, das finde ich angesichts der sogar steigenden Performance einfach sensationell. Gegen das Ghosting/Smearing scheine ich außer in Extrembeispielen ziemlich resistent zu sein.

FSR2 dagegen verstärkt Flimmern oft eher, das macht es für mich einfach deutlich sichtbar unterlegen.

Lurtz
2023-04-08, 22:24:00
Ähmm nein. Dying Light 2 satte 101% schneller!!!!

Und Ghostwire Tokyo sowie Guardians of the Galaxy etc. sehen ähnlich aus. +50-70%

Einfach nur schmarrn, was viele AMDler verbreiten wollen. Bei Ampere war es aber die selbe "Soße" kennt man alles.

Wenn man DLSS und/oder FG noch dazuschaltet wächst der Abstand nochmal, sind dann IMHO 2-3 Generationen Unterschied, sry aber AMD ist einfach technologisch total abgehängt, der Witz ist eigentlich nur, dass die für eine 7900XTX auch Schweinegeld haben wollen.

https://abload.de/img/neuesprojekt2lfcl.png
Wenn du jetzt noch die Preise zu der Tabelle dazu schreiben würdest, wäre das in Perf/Euro alles gleich deutlich weniger beeindruckend...

https://www.computerbase.de/forum/attachments/1680269230902-png.1341903/

Leistung gibts halt nur noch gegen direkten Aufpreis, nicht mehr durch technische Weiterentwicklung :rolleyes:

Ex3cut3r
2023-04-08, 22:51:41
:confused:

Die RTX 4080 ist das rundere Paket. Bei 1100€ (7900 XTX) vs 4080 (1200€ aktuell)

Für mich ein Witz Diagramm (sry)

Bei 4070 Ti vs 7900 XT. Wurde ich wohl eher zur Radeon greifen. Oder aber wie gesagt, die paar € mehr obendrauf packen, und mir eine 4080 holen und endlich Ruhe haben. Aber man kann sich auch noch 2 Jahre weiter im Kreis drehen. Oder mit der 3070 ausharren, mir ehrlich gesagt Wumpe.

ChaosTM
2023-04-08, 22:55:47
Meine 80er kostet damals noch 1450.
@ 1200 kann man sie fast schon empfehlen.

Die 16GB sind halt langfristig ein (kleines) Risiko für High End Anwender @ 4k und dem (FS2020) ;)

add.: die Effizienz ist grandios - nochmals deutlich über der 90er..

Lurtz
2023-04-08, 23:11:12
:confused:

Die RTX 4080 ist das rundere Paket. Bei 1100€ (7900 XTX) vs 4080 (1200€ aktuell)

Für mich ein Witz Diagramm (sry)

Bei 4070 Ti vs 7900 XT. Wurde ich wohl eher zur Radeon greifen. Oder aber wie gesagt, die paar € mehr obendrauf packen, und mir eine 4080 holen und endlich Ruhe haben. Aber man kann sich auch noch 2 Jahre weiter im Kreis drehen. Oder mit der 3070 ausharren, mir ehrlich gesagt Wumpe.
Ruhe? In zwei Jahren läutet Nvidia die nächste Raytracing und/oder DLSS Stufe, dann ist die 4080 auch wieder Alteisen.

In dem Witzdiagramm liegt die 4080 in RT doch deutlich vor der XTX. Ändert nur nichts dran, dass ich keine 1.200€ oder 1.100€ für eine GPU zahle. Wobei man die XTX teils ja schon für dreistellig bekommen hat.

sapito
2023-04-08, 23:18:14
Ruhe? In zwei Jahren läutet Nvidia die nächste Raytracing und/oder DLSS Stufe, dann ist die 4080 auch wieder Alteisen.

In dem Witzdiagramm liegt die 4080 in RT doch deutlich vor der XTX. Ändert nur nichts dran, dass ich keine 1.200€ oder 1.100€ für eine GPU zahle. Wobei man die XTX teils ja schon für dreistellig bekommen hat.


kauf dir ne Konsole und lass es sein....

Lurtz
2023-04-08, 23:23:02
kauf dir ne Konsole und lass es sein....
Ist der Beitrag Trolling oder einfach nur überflüssig?

ChaosTM
2023-04-08, 23:27:18
Konsolen sind sehr einfach zu optimieren, da alle praktisch die selbe Hardware haben.
PC`s sind da um Welten komplexer.

Und raytracing ist immer noch nicht wirklich relevant genug, um eine 4090er in 3-4 Jahren völlig Obsolet zu machen, außer Jensen denkt sich was neues aus, das 100% Mehr Leistung bei 3% mehr Bildqualität benötigt.. ;)

Ex3cut3r
2023-04-08, 23:33:10
Ist der Beitrag Trolling oder einfach nur überflüssig?

Und was ist dann deine RTX 3070? Ein Briefbeschwerer? Ich weiß echt nicht was der Thread soll. Jegliche Empfehlung passt dir nicht, egal ob GeForce oder Radeon? Ja, was willst du denn eigentlich? Ich glaube, weißt das selber nicht, beiß in den sauren Apfel und lege ein paar Scheine mehr obendrauf, und hol dir etwas, wo du endlich Ruhe hast, 4080 oder 4090. Von mir auch aus auch eine 7900 XT für so ca. 850€.

Von DLSS 2, FG auch RT wird man sich dann aber verabschieden müssen, dafür hast du genug VRAM, der in 95% der Spiele eh nicht genutzt werden wird. ^^

Lurtz
2023-04-08, 23:37:58
Meinst du eine 3080 wird in Cyberpunk mit Pathtracing adäquat performen?
Wenn einem RT egal ist haben auch Radeons genug Leistung.

Naja, ich denke hier wurde mittlerweile alles gesagt. Die 4070 Ti wird die 7900 XT in 90% der Fälle outperformen, teils sogar deutlich, bis ihr halt wieder der VRAM ausgeht. Dann wird sie hart crashen.
Wie schnell das passiert hängt davon ab ob TLOU und Co jetzt wirklich nur schlecht optimiert sind oder ob man über kurz oder lang 16 GB VRAM für Current Gen Exclusives (+RT +DLSS3) brauchen wird.

Ex3cut3r
2023-04-08, 23:43:10
Eine 3080 (Ti) hat Dezember 21 so performt @ 1440p mit DLSS Q und RT @ Ultra, sowie mit RT Refelctions. Hat mir damals gereicht.

SYMUFAD_UQ0

Jetzt kommt der Path Tracing Patch sowie das Add-On. Mittlerweile habe ich einen 32" TFT mit 4K Auflösung anstatt den 27" mit 1440p.

Einstellungen @ 4:18 Min.

Nein, wurde mir heute ohne DLSS 3 (FG) und mindestens eine RTX 4080 keinen Spaß mehr machen.

Lurtz
2023-04-08, 23:43:16
Und was ist dann deine RTX 3070? Ein Briefbeschwerer? Ich weiß echt nicht was der Thread soll. Jegliche Empfehlung passt dir nicht, egal ob GeForce oder Radeon? Ja, was willst du denn eigentlich? Ich glaube, weißt das selber nicht, beiß in den sauren Apfel und lege ein paar Scheine mehr obendrauf, und hol dir etwas, wo du endlich Ruhe hast, 4080 oder 4090. Von mir auch aus auch eine 7900 XT für so ca. 850€.

Von DLSS 2, FG auch RT wird man sich dann aber verabschieden müssen, dafür hast du genug VRAM, der in 95% der Spiele eh nicht genutzt werden wird. ^^
Ein Kaufberatungsthread ist ja kein Quiz, das nach einer Seite beendet sein muss. Die Frage ist innerhalb des Budgets einfach nicht befriedigend zu beantworten. Da muss man aber auch nicht mit Unsinn wie Kauf dir eine Konsole wenn du nicht 1.200€ für eine GPU ausgeben willst ums Eck kommen.

Ob 20 GB genutzt werden ist die weit weniger spannende Frage als ob 12 GB zu wenig sein werden ;) Zumal gerade die Technologien, weswegen man eine 4070 haben will, wie RT und FG den VRAM Bedarf erhöhen.

ChaosTM
2023-04-08, 23:52:33
Eine 3080 (Ti) hat Dezember 21 so performt @ 1440p mit DLSS Q und RT @ Ultra, sowie mit RT Refelctions. Hat mir damals gereicht.

https://youtu.be/SYMUFAD_UQ0

Jetzt kommt der Path Tracing Patch sowie das Add-On. Mittlerweile habe ich einen 32" TFT mit 4K Auflösung anstatt den 27" mit 1440p.

Einstellungen @ 4:18 Min.

Nein, wurde mir heute ohne DLSS 3 (FG) und mindestens eine RTX 4080 keinen Spaß mehr machen.


Schaut auf den ersten Blick umwerfend aus bis man bemerkt, dass die hellen Szenen völlig "overblown" sind, wie in einem schlechten Film.
Das müssten alles 500+Watt Natrium Dampflampen sein..


Ich und meine 4090er mögen es, aber es ist pure bullshit!

sapito
2023-04-09, 00:00:10
Ist der Beitrag Trolling oder einfach nur überflüssig?

Nope, dein Eingangspost inkl. Rest ist pures Trolling...

mimimi ich habe nur xxx Geld will aber was für xxxx Geld, die Welt ist phöse und ungerecht


Fakt Check:

Du hat 800 euronen > was kannst Du dafür kaufen?

der Rest ist halt: WÜNSCH DIR WAS


ich hatte

1080ti > 2080ti > upgrade
2080ti > 3080ti > side grade da VRAM mit 12GB Grenzwertig und zB in Howards nicht mehr ausreichend in 1440p (mit RT ON) > dann nach xx Zeit 15-20 FPS wegen zu wenig VRAM
3080ti > 4080 > upgrade

3080ti / 4070(ti) > 12 GB VRAM > für Benchmarks Ok > für Games zu wenig

schon die 3080ti war "schnell", hatte aber zu wenig Hubraum > bei der 4070(ti) wird es nur schlimmer

wenn Du, warum auch Immer, Nur 800 euronen ausgeben willst, kannst > Deal with it > Konsole > das ist nichts schlimmes und du bist dann auch nicht weniger wert...

Alles unter 16GB VRAM ist schlicht nicht zu gebrauchen im Jahre 2023 (außer 1024x768...)

Die Performance Anzeige in TLOU1 zeigt schon sehr Gut wo die grenze liegt. und Das ist HEUTE , will nicht wissen was Morgen ist.

Bei mir ist der Limitierende Faktor der 5080X3D :freak: seid dem upgrade...

robbitop
2023-04-09, 08:13:42
IMO kann man auch mal ein paar slider im Menü bedienen. Das hilft auch bei zu wenig VRAM. Ansonsten bringen 1-2 Stufen weniger in den Settings generell enorm viel Performance meist ohne viel BQ zu kosten. Dank DLSS kann man auch nochmal Performance sparen. IMO kommt man auch mit einer 3070 noch gut zurecht. Und das gilt natürlich für jede verfügbare Ada.

Wer immer alles auf Ultra haben will braucht halt immer die teuerste GPU. Mit optimierten Settings (und ggf etwas runter gedrehtem RT) hat man IMO genauso viel Spaß.

Und IMO müssen auch Effekte sich in BQ pro fps (also Preis/Leistung) bewerten lassen. Ich hatte in W3 ohne RT den Spaß meines Lebens. Jetzt kann man in der DX12 Version mit voller RT Keule seine Performance halbieren und dritteln.
CP77 Path Tracing sieht eher nach Performance vierteln aus.
Ich hab den Trailer gesehen - toll aber aus meiner persönlichen Ansicht zu teuer für das Gebotene. Das Spiel CP77 kann man auch eine Menge Spaß mit einem Bruchteil der Leistung haben mit optimierten Settings. Klar wer gern Techdemos spielt braucht wine 1600€ Karte.

Ein paar Generationen warten und jede Wald und Wiesenkarte hat die Performance für RT und es ist zum Standard geworden. Dann blickt man auf die Pionierzeit von heute zurück und wundert sich wie viel Geld manche für etwas verballert haben dass dann normal sein wird.

Je nach Einstellung kann man mit obigem sein Budget festlegen. Vom Bleiben der 3070 über alle verfügbaren Ada Karten.

ChaosTM
2023-04-09, 08:24:02
IMO kann man auch mal ein paar slider im Menü bedienen. Das hilft auch bei zu wenig VRAM. Ansonsten bringen 1-2 Stufen weniger in den Settings generell enorm viel Performance meist ohne viel BQ zu kosten. Dank DLSS kann man auch nochmal Performance sparen. IMO kommt man auch mit einer 3070 noch gut zurecht. Und das gilt natürlich für jede verfügbare Ada.

Wer immer alles auf Ultra haben will braucht halt immer die teuerste GPU. Mit optimierten Settings (und ggf etwas runter gedrehtem RT) hat man IMO genauso viel Spaß.

Und IMO müssen auch Effekte sich in BQ pro fps (also Preis/Leistung) bewerten lassen. Ich hatte in W3 ohne RT den Spaß meines Lebens. Jetzt kann man in der DX12 Version mit voller RT Keule seine Performance halbieren und dritteln.
CP77 Path Tracing sieht eher nach Performance vierteln aus.
Ich hab den Trailer gesehen - toll aber aus meiner persönlichen Ansicht zu teuer für das Gebotene. Das Spiel CP77 kann man auch eine Menge Spaß mit einem Bruchteil der Leistung haben mit optimierten Settings. Klar wer gern Techdemos spielt braucht wine 1600€ Karte.

Ein paar Generationen warten und jede Wald und Wiesenkarte hat die Performance für RT und es ist zum Standard geworden. Dann blickt man auf die Pionierzeit von heute zurück und wundert sich wie viel Geld manche für etwas verballert haben dass dann normal sein wird.

Je nach Einstellung kann man mit obigem sein Budget festlegen. Vom Bleiben der 3070 über alle verfügbaren Ada Karten.

Natürlich kann man den "Grafik Qualität" slider nach links bewegen,
Aber wer, der gerader 800€+ agegeben hat will so was tun ?
Honestly..

add.: NV`s Karten sind Grafikkrüppel
Den Blödsinn kann man einfach nicht schönreden.

robbitop
2023-04-09, 09:00:46
Der TS hat aber eine 3070 und entsprechend ging der Tipp an ihn.

The_Invisible
2023-04-09, 09:12:17
Die einzige kompromisslose Graka diese Gen ist bis jetzt halt die 4090, alle Features, genug VRAM und dazupassende (RT) Leistung.

Wer ohne(oder weniger) RT/DLSS3 leben kann greift halt zu AMD, ist eigentlich ja einfach.

Oder sonst halt eine 4070, manchmal Regler bedienen (ist ja nicht so das es bei jeden Spiel ist sondern eher die Ausnahme) und dann bei der 5070 erneut upgraden.

Hamster
2023-04-09, 09:55:53
Was spricht denn dagegen die aktuelle Generation auszulassen oder zumindest zu warten bis die Preise ordentlich fallen?

Ich habe eine RX6800 und würde ebenfalls gerne upgrade.
Allerdings müsste ich mind. zu einer RTX4080 greifen.
Allerdings zocke ich dann doch zu wenig als dass sich der hohe Preis rechtfertigen ließe.

Und Hand aufs Herz: weder meine 6800 noch deine 3070 ist so mies, dass sie nicht noch eine Weile reichen würde.

robbitop
2023-04-09, 11:09:50
Also ich habe bis vor kurzem mit einer 1080 ti gezockt. Seit 2016. War kein Problem mit etwas Optimieren der Settings und hin und wieder etwas Upsampling. Spaß hatte ich trotzdem beim Zocken. Gab halt aus P/L Sicht lange nichts Sinnvolles. Die 3080 wollte ich 2020 haben für die angepriesenen 699€. Gab es zu dem Preis aber praktisch nie. Dann habe ich halt Ende 2022 ne gebrauchte 3080 für 600€ gekauft.
Geht es schneller? Klar. Aber wenn man P/L optimiert kauft, spart man eine Menge Geld und am Spaß beim Zocken hindert es IMO nicht.

Es ergeben sich immer mal Gelegenheiten für brauchbare P/Ls. Man muss halt warten können.
Von einer 3070 oder auch rx6800 kommt man ja bereits von einer ganz soliden Basis (wenn man nicht jeglichen Bezug zur Realität verloren hat). Da sind dann upgrades in dieser neuen Welt der überteuerten GPUs leider furchtbar teuer.

Hoffentlich bringt Intel mit Battlemage und Celestial etwas mehr Preiskampf zumindest in die Mainstream SKUs.

Mein jetziger Plan: eine 5070 in 2024/25 zu einem sinnvollen Preis kaufen. Ausgehend von einer 3080 sollte das ein sinnvolles Upgrade sein. Die 4070 ist immerhin halbwegs bezahlbar (auch wenn es gemessen an der verbauten Anzahl an SMs eher eine überteuerte 4060 ist). Die 4070 ti geht auch noch gerade so. Alles darüber ist preislich nur noch absurd. Vierstellig für eine GPU.

DrFreaK666
2023-04-09, 11:11:26
Konsole ist doch Schwachsinn. Das wäre ja eher ein Downgrade.
Wenn es aktuell keine gute Grafikkarten für 800€ gibt, dann musst halt warten.
Vielleicht kommt ja noch eine 4070 Super mit mehr VRAM.
Das Gute am PC-Gaming ist doch, dass man dank Regler die Grafik an die Hardware anpassen kann.
Oder du kaufst die 4070 Ti.
Schon damals hieß es, dass die 8GB der 3070 ein Witz sind, besonders im Vergleich zu den Radeons. Damals war dir das auch egal

ChaosTM
2023-04-09, 11:13:21
Ich hatte auch für 5 Jahre eine 1080ti..

Bezahlbare Udgrades gabs bisher leider NICHT - da ich ein Alter Sack bin, der seine letze Graka gekauft hat -> 4090er..

DrFreaK666
2023-04-09, 11:24:23
Nicht jeder ist ein alter Sack :D
Und wenn jemand max 800€ ausgeben kann, dann kann er max. 800€ ausgeben

HisN
2023-04-09, 12:20:28
Nope, dein Eingangspost inkl. Rest ist pures Trolling...

mimimi ich habe nur xxx Geld will aber was für xxxx Geld, die Welt ist phöse und ungerecht


Fakt Check:

Du hat 800 euronen > was kannst Du dafür kaufen?

der Rest ist halt: WÜNSCH DIR WAS

..

Deshalb ist der gleiche Thread im CB schon geschlossen.

sapito
2023-04-09, 12:24:38
Deshalb ist der gleiche Thread im CB schon geschlossen.

:freak: Danke für die Bestätigung :freak:

Lurtz
2023-04-09, 12:35:39
Schon damals hieß es, dass die 8GB der 3070 ein Witz sind, besonders im Vergleich zu den Radeons. Damals war dir das auch egal
Hättest du den Thread gelesen, wüsstest du dass ich eine 6800 kaufen wollte, aber eben nur eine 3070 zur UVP bekommen habe. Finds lustig wie mir Trolling vorgeworfen wird, aber gewisse Leute hier so von einem Hardware Thread getriggert werden, dass sie nicht ohne persönliche Angriffe können ;D

Deshalb ist der gleiche Thread im CB schon geschlossen.
Bullshit. Ich habe den Thread selbst schließen lassen, weil ein paar Trolle meinten daraus die xte off Topic Diskussion machen zu müssen, ob die 3070 genug VRAM hat oder nicht, und das trotz mehrmaliger Bitte nicht unterlassen haben.

HisN
2023-04-09, 12:59:53
Hier gibt es doch die gleiche Diskussion.
Oder sehe ich das falsch?
Das gehört doch dazu, wenn man über eine Grafikkarten mit "genug" VRAM diskutiert.

DrFreaK666
2023-04-09, 13:13:31
Das Thema ist jetzt durch oder soll es so weiter gehen bis die 4080 nur 800€ kostet?
Deine Wunsch-Graka gibt es aktuell nicht: zahle mehr oder warte.

Thunder99
2023-04-09, 13:33:24
Hättest du den Thread gelesen, wüsstest du dass ich eine 6800 kaufen wollte, aber eben nur eine 3070 zur UVP bekommen habe. Finds lustig wie mir Trolling vorgeworfen wird, aber gewisse Leute hier so von einem Hardware Thread getriggert werden, dass sie nicht ohne persönliche Angriffe können ;D


Bullshit. Ich habe den Thread selbst schließen lassen, weil ein paar Trolle meinten daraus die xte off Topic Diskussion machen zu müssen, ob die 3070 genug VRAM hat oder nicht, und das trotz mehrmaliger Bitte nicht unterlassen haben.
Ist eine 7900XT keine Option mehr? Kommt am nächsten ran was du suchst und wäre kein downgrade in Sachen RT. Bald könnte der Preis bei 800 Talern sein

DrFreaK666
2023-04-09, 16:36:29
Das hat halt kein DLSS und FSR sieht scheiße aus, oder so ähnlich

ChaosTM
2023-04-09, 17:05:21
Oder du spielst einfach nativ und RT ist dir wurscht und/oder du kannst mit Medium leben ..? ;)

Thunder99
2023-04-09, 19:15:47
So schlecht ist FSR 2.x auch nicht

DrFreaK666
2023-04-09, 20:55:37
So schlecht ist FSR 2.x auch nicht

Das war ja nicht meine Meinung, sondern die des Thread-Starters.
Die RTX4080 ist ihm zu teuer, die 4070 Ti hat zu wenig Speicher und Radeon kann nur FSR. Die eierlegende Wollmilchsau gibt es nicht, wenn man nicht bereit ist viel Geld auszugeben.
Entweder er geht Kompromisse ein oder er wartet

Lurtz
2023-04-09, 22:58:42
Nach erneutem Konsum einiger "begeisterter" Reviews und generationsübergreifender Vergleiche, eigenem Vergleich zwischen FSR2 und DLSS2 in diversen Titeln und der Tatsache, dass die günstigste Custom-7900 XT, die XFX MERC 310 trotz ihrer monströsen Ausmaße einen lauteren Kühler als meine 3070 FE haben soll, werde ich wohl... bei der 3070 bleiben :ugly:

Einfach nur eine absurd miese Generation. Selbst Richard Leadbetter ist über die miesen Rasterization-Ergebnisse der 4070 Ti so erschrocken, dass er erstmal fünf Minuten lang im Fazit erklären muss wieso die Preise von nVidia trotzdem absolut gerechtfertigt sind so wie sie sind ;D

Vielleicht geschieht ja noch ein Wunder und die 7900 XT fällt noch Richtung 700€ oder so. Hoffe nur meine 3070 FE löst sich nicht auf, das wäre ziemlich ärgerlich :uup: Muss ich mich dann wohl durch TLOU durchruckeln, wenn es Patches in ein paar Monaten nicht gebracht haben...

Ex3cut3r
2023-04-10, 01:10:31
Selbst Richard Leadbetter ist über die miesen Rasterization-Ergebnisse der 4070 Ti so erschrocken, dass er erstmal fünf Minuten lang im Fazit erklären muss wieso die Preise von nVidia trotzdem absolut gerechtfertigt sind so wie sie sind ;D

Kann ich nicht wirklich nachvollziehen.

Eine 4070 Ti ist schon satte 72% schneller im Raster. Beim RT ist der Unterschied noch größer, dazu mit 12GB runder Speicher.

The Last of Us läuft mit 12GB absoult sauber, schau auf meinem YouTube Channel, läuft spitze mit Ultra Textures. @ 4K mit DLSS Q (3.1.11 DLL mit Preset F)

https://abload.de/img/screenshot2023-04-100byife.png

Hamster
2023-04-11, 09:17:34
https://twitter.com/Kepler_L2/status/1645414736622755840
https://pbs.twimg.com/media/FtWv5QqWAAEE1k1.png

:usad:

bestMAN
2023-04-12, 12:21:29
ist eine RX 6950 XT für 650€ eine Alternative?
https://www.mindfactory.de/product_info.php/16GB-XFX-Radeon-RX-6950-XT-Speedster-MERC-BLACK-GAMING-DDR6-Tri-retail_1459523.html

Lurtz
2023-04-12, 12:37:34
Tja, gute Frage. Da ich damals UVP für die 3070 gezahlt habe, und jetzt noch ~350€ bekommen würde, ist das ja ein relativ überschaubarer Wertverlust. Sind aber auch noch 300€ für eine im Grunde 2 1/2 Jahre alte Architektur und der Lüfter des Modells soll auch mies sein...

7900 XT sind dann halt gleich nochmal 200€ mehr.

dildo4u
2023-04-12, 15:39:18
Direkt Vergleich 3070/4070 mit Vram Fresser Resident Evil 4/Last of Us.

VP_aCwPzIfk

bestMAN
2023-04-12, 15:48:38
ich würde jetzt die 4070ti nehmen und glücklich sein.
Und in 1-2 Jahren kannst du die Regler Ingame sicher bedienen und nach rechts schieben, damit es passt.

nvidia ist teuer.
AMD NEU (7800XT) noch nicht da.
AMD alt gefällt nicht.
8 GB zu wenig.

Da gibt es nicht die eine Antwort und du hast viele bekommen.
Bauchgefühl sollte entscheiden.

aufkrawall
2023-04-12, 15:49:24
Vram Fresser Resident Evil 4/Last of Us.

Nur, weil 8GB-Karten komplette VRAM-Krüppel sind, sind diese Spiele nicht automatisch VRAM-Fresser. Laufen problemlos mit maximalen Details auf zwei Jahre alten 3060 und 6700 XT...

Lurtz
2023-04-12, 15:55:14
Da gibt es nicht die eine Antwort und du hast viele bekommen.
Bauchgefühl sollte entscheiden.
Bauchgefühl kann sich halt nicht zwischen 7900 XT und 4070 Ti entscheiden :D

Fühlt sich falsch an, eine der beiden zu kaufen, fühlt sich aber auch sinnlos an, die 3070 zu behalten. Da RT eh nicht mehr wirklich gangbar ist, wäre ein Sidegrade auf eine 6700 XT vielleicht doch nicht verkehrt (Haters gonna hate) ;D

bestMAN
2023-04-12, 16:02:30
dann lieber eine gute 6800 non xt, MSI Gaming X Trio oder z.B. https://geizhals.de/sapphire-pulse-radeon-rx-6800-11305-02-20g-a2441914.html?hloc=at&hloc=de
16 GB, lässt sich gechillt undervolten und in der Leistung beschränken bei wenig Stromverbrauch.
Treiber AMD finde ich sind TOP (wenn sie denn mal installiert sind ;) ) und du brauchst gar keine zusätzliche Software

Lurtz
2023-04-12, 16:06:55
Die AMD-Treiber kenne ich ja noch von der 390, da habe ich keine Probleme mit.

Raff
2023-04-12, 16:22:23
Bauchgefühl kann sich halt nicht zwischen 7900 XT und 4070 Ti entscheiden :D

Da du gerade nebenan die RTX 4070 uncool findest: erst recht 7900 XT. Ich habe die Karte erst vor wenigen Tagen mit dem brandneuen Treiber genutzt - fühlt sich geil an, alles fluffig. Ist ein starkes Stück Technik, gerade für einen von Nvidia Gebrandmarkten (VRAM). :D Die Raytracing-Leistung ist auch vollständig brauchbar, wenn du nicht gerade einen "UHD, nur nativ!!!"-Fetisch hast.

MfG
Raff

bestMAN
2023-04-12, 16:38:21
@Raff
hab grade das yt-video vom PCGH gesehen, danke dafür.
ich denke, dass: 192 : 12 : 659 viele abschrecken wird.
Obwohl: wer nvidia mag wird auch die 4070 kaufen, wenn man vorher eine 3070 hatte, die ja weitverbreitet scheint.

Lurtz
2023-04-12, 16:46:28
Passt der Stromverbrauch an einem (1440p 144 Hz) Monitor mittlerweile, oder liegt der immer noch so absurd hoch?

KriNemeth
2023-04-12, 16:49:18
Ja, sicher aber es gibt auch durchaus kritische Stimmen der ehemaligen 3060TI und 3070 Käufer, die es gar nicht gerne sehen, dass in einigen Spielen sich die Karten nicht von der 3060 12GB absetzen können.
Glaube das kann NV so nicht mehr ewig abziehen, da gibt es auch unter den Käufern Kritiker.

aufkrawall
2023-04-12, 16:52:34
Vermutlich ist die Chance ganz gut, dass es bei 1x 1440p 144Hz ähnlich gut oder schlecht klappt wie mit RDNA2, abhängig von der EDID bzw. dem vertikalen Blanking-Timing dieser.
Scheint Forenberichten nach aber schon noch das ein oder andere exklusive RDNA3 Treiber-Problem zu geben (wenn auch vermutlich eher nicht schwerwiegend), RDNA2 wäre imho schon dahingehend "sicherer". Aber die Treiber werden generell wohl besser. Kann natürlich sein, dass FG mit RDNA3 viel besser funktionieren wird als mit RDNA2, wer weiß...

Lurtz
2023-04-12, 21:47:57
Die andere Frage ist natürlich, ob eine GPU mit HighRefresh-Monitor überhaupt noch wirklich gut länger als zwei, drei Jahre hält, ich habe ja erst seit der 3070 einen. Bisher habe ich dann halt einfach mit 30-40 fps VSync gespielt, aber das ist jetzt natürlich undenkbar ;D
Dann wäre die 4070 Ti wegen zu 99% höherem Wiederverkaufswert und dann nicht so ins Gewicht fallenden kleinem VRAM evtl. doch die bessere Option.

Andererseits ist zumindest RDNA2 jetzt auch nicht schlecht gealtert was Wertverlust angeht und mit genügend VRAM würde die 3070 mit DLSS wahrscheinlich auch ihre vier Jahre halten.

Thunder99
2023-04-13, 22:24:57
7900XT wird immer besser, da der Treiber immer weiter reift.

Ansonsten bleibt dir nichts anderes übrig als die 3070 zu behalten und die 8GB Unsicherheit ob es langt oder net mit leben müssen.

Ich erwarte aber nicht, dass die 12GB schneller wieder zu wenig sind als die 8GB. Die haben sich echt lange gehalten.

Lurtz
2023-05-07, 14:59:29
Ich glaube das wird nichts mit der 7900 XT und mir :ugly: 300 Watt und 800€ sind mir einfach zu viel für eine Grafikkarte.

In Jedi Survivor läuft die 3070 auch wieder viel zu gut, um sie auszutauschen. Vielleicht stelle ich sie mal bei Kleinanzeigen rein und schaue, ob mir jemand noch 400€ dafür gibt, und hole dann eine 4070 als Übergangskarte - für ~600€ ist da ja immer was lieferbar :ugly:²

DrFreaK666
2023-05-07, 18:58:11
400€ wenns die Karten neu ab 450€ gibt?
Aber gut: Jeden Tag wacht ein dummer auf

Mortalvision
2023-05-07, 19:11:31
Die 7900xt ist auf dem besten Weg unter die 800 zu kommen. Gibt ja noch ein Spiel oben drauf. Dagegen ist die 4600 absolut… meh

Lurtz
2023-05-07, 22:05:48
Die 4600 kenne ich gar nicht :usad:

Ich frage mich angesichts der zuletzt heftigen CPU-Anforderungen ob 4070 Ti und 7900 XT-Klasse gerade mit Upsampling nicht eh schon wieder ziemlich CPU-limitiert wären vom i5 12500.

HisN
2023-05-07, 22:18:59
Dafür gibt es Regler, ein CPU Limit ist immer selbst gemacht.
Du musst Dir halt im Klaren darüber sein, ob Dir die FPS, die die CPU bringt, ausreichen oder nicht.
Sollte Leistung oberhalb der Marke übrig sein, steckt man sie in Bildqualität.
Wer sich über ein CPU Limit beschwert, hat vergessen wie man Regler benutzt.

Beispiel: Ohoh, ich bin so böse im CPU-Limit, mein 13900k ist ja vieeeeeeeeel zu lahm für eine 4090
https://abload.de/img/cyberpunk2077_2023_01rmcfg.png (https://abload.de/image.php?img=cyberpunk2077_2023_01rmcfg.png)

Oder war ich vielleich doch einfach nur zu blöd die Regler zu bedienen? Ich meine, ist nur FHD. Und es gibt ja keine CPU die in FHD schnell genug für eine 4090 ist, wenn ich so in den Foren schaue und den Tenor aus den Benchmarks lese.
https://abload.de/img/cyberpunk2077_2023_01svdmc.png (https://abload.de/image.php?img=cyberpunk2077_2023_01svdmc.png)
Aber dass das immer "standard"-Benchmarks sind, um sie vergleichbar zu halten, und da natürlich die Regler nicht bedient werden... das vergessen die Leute.

Eine Graka bekommt man immer klein. IMMER. Im Notfall mit DSR oder DL-DSR. Aber die Leute schrein lieber laut irgendwas von CPU-Limit. Weil ihre Reglerstellung ja die einzig wahre ist.
Sorry. Ich kann das echt nicht mehr sehen. Jeden Tag aufs neue mehrfach in den Foren, das böse böse (selbstgemachte) CPU-Limit.


Die CPU ist ausreichend schnell für Dich in Deiner Software, oder sie ist es nicht. Da hat die Graka mal gar nix mit zu tun.

Sorry, das triggert mich^^

Lurtz
2023-05-07, 22:45:06
Wer sich über ein CPU Limit beschwert, hat vergessen wie man Regler benutzt.
Ich kenne deine Ansichten dazu zur Genüge, sie sind in der Kaufberatung nur absolut nicht hilfreich.

Ich denke die Frage ist schon ziemlich klar, außer man will damit zum xten Mal irgendwelche Szenarien konstruieren, in denen man mit unnötig teurem Downsampling ein CPU-Limit wieder in ein GPU-Limit verwandelt.

Leider werden bei Spiele-Benchmarks meist nur GPUs mit ein oder zwei Highend-CPUs gebencht und es ist gar nicht so einfach herauszufinden, wie eine ältere CPU Jahre später gerade noch abschneidet.


Sorry, das triggert mich^^
Das merkt man, hilfreicher macht es deine Beiträge in der Kaufberatung aber auch nicht. Zumal du eh immer mit der schnellsten verfügbarsten CPU und GPU unterwegs bist, 150 fps in 120 fps zu verwandeln ist eine völlig andere Frage als wenn man 30 fps im CPU-Limit in ein 25 fps GPU-Limit verwandelt und dann noch was von Regler bedienen erzählt.

HisN
2023-05-07, 22:59:19
Aber warum kaufst Du Dir dann ne Graka und eierst wegen der CPU rum, wenn Du Dir sicher bist, dass Deine CPU zu lahm für Deine Ansprüche ist?

First Things first?
Die CPU bereitet die FPS vor, die Graka rendert sie.
Wenn die CPU nicht vorbereitet kann die Graka nicht rendern.

Ich meine ... das ist kein Henne-Ei-Problem. Ihr macht da aber eins draus.

Ich glaube das ist die grundsätzliche Herangehensweise.
Die einen wollen so viel FPS wie möglich, und konstruieren sich dann ihr CPU-Limit selbst (das was Du mir vorwirfst, machst Du ganz bewusst doch selbst).
Die Anderen wissen wie viel FPS ihre CPU leistet, und entscheiden dann für sich: Das reicht für mich und meine Software oder es reicht nicht.

Und dieses: Aber in vielen Jahren.
Weiß ich was Du Dir in vielen Jahren für Software kaufen wirst oder nicht? Das sind Gedanken um ungelegte Eier. Dann kauf halt viele Jahre keine neue Software, und Deine aktuelle CPU wird auf ewig ihren Dienst tun^^

Ihr macht es auch selbst schwer.
Wirklich.
Nicht bös gemeint.

Vielleicht das "Problem" mal von einer anderen Seite angehen, das Pferd nicht von hinten aufzäumen.
DAS kann man aus meinen Beiträgen lernen.

Muss man natürlich nicht. Ich versuche blos Deine/die Sicht auf die Dinge etwas zu ändern.
Hilfreich ist das, was man daraus macht. Du machst Dir nix draus. Schade eigentlich. Dann wirst Du nämlich weiter um Dein "Problem" kreisen und zu keiner Lösung kommen. Denn Du wirst GARANTIERT über irgend eine Software stolpern, in der Du im CPU-Limit hängst, wenn Du die Regler nicht bedienen möchtest. Und das völlig unabhängig davon was für ein Name Deine CPU hat. Und wenn Du Dir die schnellste CPU kaufst, die es gerade am Markt gibt. Das wird Dein "Problem" nicht im geringsten ändern. Da stehen sich die User leider selbst im Weg.
Noch mal sorry, wenn nicht hilfreich. Nur meine Gedanken.

Ab wann ist Dir denn das CPU-Limit egal? Das wäre doch ein Punkt, an dem man ansetzen kann. 100 FPS? 200 FPS? Damit kann man arbeiten. Dafür gibts die 720p-Tests. Und dann muss man nicht mehr rumeiern. Darauf will ich doch hinaus.

Lurtz
2023-05-07, 23:17:52
Weil ich klassischer Singleplayer bin, meist AAA, aber keinen absoluten Marktüberblick habe. Wenn ich jetzt eine 7900 XT kaufe, um in Hogwarts Legacy voll aufzudrehen, dann aber merke dass ich an entscheidenden Stellen kaum über 60 Fps komme, ist das ziemlich dumm. Nicht so schwer nachzuvollziehen, oder?

Insofern ist meine Frage genau die, aber auf die scheinst du ja auch keine Antwort außer Regler bedienen zu haben:

Die Anderen wissen wie viel FPS ihre CPU leistet, und entscheiden dann für sich: Das reicht für mich und meine Software oder es reicht nicht.

80-90 fps sollten es in den meisten Titeln schon sein, aber um die zu erreichen kann man sich aktuell eigentlich gleich einen 7800X3D hinstellen. Nur ist das Budget der meisten überschaubar und wird tendenziell dann eher in die GPU gesteckt, auch wegen so Pauschalaussagen wie dass in 4k eh alles GPU limitiert wäre. Daher ist die Frage nach dem Bottleneck eben auch so häufig anzutreffen, auch wenn sie natürlich immer relativ ist...

HisN
2023-05-07, 23:23:21
Is ja auch kein Problem.
Tick-Tock.
Jetzt die Graka, wenn sie der Flaschenhals ist, dann beim nächsten Update die CPU wenn sie dann der Flaschenhals ist.
So hangel ich mich schon über viele Jahre. Immer eins nach dem andreren. Irgenwo ist doch immer der Flaschenhals. Beseitigst Du einen, tut sich ein anderer auf.
Ein "aufeinander abgestimmtes" System gibt es nicht.
Das ist wieder "was ihr draus macht".

Wenn Deine CPU jetzt in Hogwarts schon zu lahm für Deine Ansprüche ist, und Du kein Budget dafür hast, dann kaufst Du extra ein "kleinere" Graka, damit in EINEM Game (Hogwarts) die Graka nicht über 50 FPS kommt, weil Du sonst im CPU-Limit bist? Ist das der Weg? Wirklich? So hört sich das nämlich gerade für mich an. Deshalb kaufen die Leute auch keine e-Autos, weil sie 1x im Jahr mit dem Auto in den Urlaub fahren wollen oder sowas. Ich verzichte auf 99% Vorteile, weil mir 1% Nachteil die ganze Suppe versaltzt.
Ich würde trotzdem die fetteste Graka kaufen, die ich mir leisten kann. Was soll ich denn sonst machen? Das wäre doch voll umsonst, wenn ich mir dann eine "kleinere" Graka kaufen würde.
Ich investiere die übrige Leistung in Bildqualität, solange bis ich mir ne neue CPU leisten kann.

BTW .. gibt es überhaupt eine CPU die in Hogwarts 90 FPS liefert? Oder ist das auch Wunschdenken? Ich bin da nicht auf dem Stand. Ist nicht mein Spiel. Aber ich glaube selbst ein 13900k ist da bei 60 FPS verhungert.

Lurtz
2023-05-12, 20:45:41
Die 3070 scheint jetzt massiv im Preis gefallen zu sein, hab den besten Zeitpunkt wohl lange verpasst mittlerweile :ugly:

Bei eBay ging gerade eine 3070 FE für 300€ weg. Die letzten zwei Stunden kam nicht mal mehr ein Gebot :ugly: 300€, was ist das abzüglich Gebühren, vielleicht 270€?

Da kann ich gleich in einem Forum für 250€ verkaufen und muss dann nicht befürchten dass so ein Depp am Ende mit Käuferschutz oder so einem Scheiß ankommt...

Aber die ist jetzt so schnell im Preis gefallen, da habe ich eigentlich gar keine Lust mehr zu verkaufen. Wobei 250€ für 2 1/2 Jahre ja jetzt soo schlecht auch nicht sind. 8,50€ pro Monat, dafür kann man sich bald nicht mal mehr einen Döner kaufen ;D

Hatstick
2023-05-12, 21:01:48
3070 in ansich auch weiter eine schöne Karte, wären da die 8GB nicht.
Durch die "neuen" Games wirst jetzt wohl ähnlich wie bei der 10GB RTX 3080 einen ordentlichen Preisverfall gebraucht haben.
Halbes Jahr vorher hättest schon noch spürbar mehr bekommen, dann lieber wirklich gleich im Forum verkaufen, wenn es selbst bei ebay "nur" noch 300€ gibt.