PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News der Osterfeiertage 2023


Leonidas
2023-04-11, 09:52:31
Link zur News:
https://www.3dcenter.org/news/news-der-osterfeiertage-2023

Gast Ritis
2023-04-11, 10:32:37
Die 4070 hat für die erwartete Leistung einfach zu wenig VRAM. Da bringt auch der Vergleich mit alten Karten nix, um es den Käufern schmackhafter zu machen.

Man sollte sich diese Karte verkneifen und eher nach einer 4080er mit 16GB strecken, oder wenn die Kohle nicht genügt lieber ne 3090, oder Radeon 7900er oder sogar 6800er+. Wenn schon jetzt die Kohle nicht reicht wirds ja in nem Jahr auch nicht besser sein, wenn die 12GB nicht mehr helfen Framedrops zu verhindern und man dann Settings runter regeln muss.

16GB sind Pflicht für ne GPU, die bei 4k auch nächstes Jahr noch Spass machen soll.

GerryB
2023-04-11, 10:38:10
Die Leaks sind schon komisch.
Da soll FG bei der 4070 ggü. der 3080 nur 40% bringen!? (x)
(normal sollte doch FG die Frames verdoppeln)

Inputlag wird dann bestimmt hochinteressant!

(x) leider wurde das Bild gerade bei der 1,4x ein bisschen verunstaltet, kanns net genau erkennen

hardtech
2023-04-11, 12:33:30
@gast ritis
sehe ich anders. komme mit der 4070 ti und 12gb vram gut zurecht. ich undervolte die karte mit msi afterburner. zocke mit 4k und 60fps vsync bei max details. die 12gb reichen. mods nutze ich nicht. die 12gb werden auch nächstes jahr reichen.
dein aufpreis von 450 euro zur 4080 habe ich bewusst gescheut, da die 26% mehrleistung (496% zu 392%) mit 50% aufpreis zu bezahlen wären ich die features gleich sind.
ausserdem ist man auf dem 3090 ti level leistungstechnisch unterwegs.
wenn ich deiner argumentation folge, sollte man sich die 4090 kaufen.
habe ich nicht gemacht, da die tdp mich abschreckt und die größe der karte einfach nicht in mein system rein soll (auch wenn die karte passt).

maximus_hertus
2023-04-11, 13:15:46
Gegenargumentativ könnte man allerdings anmerken, dass dies im Jahr 2014 zu einer Zeit passierte, als Intel absolut fest im Sattel saß und von AMD keinerlei substantielle Gegenwehr mehr kam – Intel sich diese eher seltsame Zwischen-Generation seinerzeit also durchaus leisten konnte.[/url]

Genau diese Gen war doch der Anlass für Intel bzw. die Konsequenz, ab dann jedes Jahr mindestens eine neue Gen zu bringen, da die Verkaufzahlen wohl nicht so waren, wie sie hätten sein sollen und vor allem die OEMs Druck gemacht haben.


Imo, klar nur Speku, könnte es darauf hinauslaufen:

Im Herbst gibt es den Berginn der Core i-14000 Gen ->

i9 und i7 sind schlicht weiter ausgequetschte Raptorlakes
i5 und i3 kommen dann in Q1 2024 dazu und basieren auf Meteorlake.


Herbst 2024 kommen dann i9k, i7k und i5k Arrowlake (Core i-15000) und ab Anfang 2025 dann die restlichen Arrowlake (also der übliche Intellaunch der letzten Generationen).


Das gilt nur für den Desktop. Notebook / Ultramobile wird es sicher anders laufen.


Intel braucht ja beim 13900K nicht so viel, um den 7950X3D zu schlagen. Ich halte das für möglich, das zu schaffen (rein auf Performance bezogen). Stromverbrauch interessiert meistens fast niemanden, mittlerweile wird es öfters erwähnt, aber ob das wirklich kaufentscheidend ist?

14900K, Stromverbrauch aus der Hölle, minimal schneller als der 7950X3D, 799 USD (da wohl keine so große Stückzahlen, nur die besten Dies)

14700K, Stromverbrauch auch aus der Hölle, knapp langsamer als der 7950X3D, grob auf Augenhöhe mit dem 7800X3D, 499 USD

14600K, könnte ein "umgelabelter" 13700K sein, für dann aber 399 USD

Und schon würde es gar nicht mehr so schlecht für Intel aussehen (Weihnachtsgeschäft).

Den 13600K senkt man dann auf 299 USD.

Dann ist man im Bereich von 300 - 1000 USD überall sehr kompetetiv bzw. argumentativ sogar teilweise stärker / besser.


Jedoch sollte jedem klar sein, dass es diesen Herbst nicht wirklich spannend sein wird (Performance Plus), erst in 2024 mit Zen 5 und MTL bzw. ARL gibt es wieder "echte" Sprünge.

Gast
2023-04-11, 13:21:25
Unabhängig von der Namensgebung bekommt man also für den gleichen Preis die selbe Leistung wie vor 2,5 Jahren (4070 = 3080 10GB). Nur eben mit DLSS FG, dafür 2 GB weniger Speicher. Ziemlich unterwältigend. Die NV-Karten sind bis auf die 4090 eine Nummer zu hoch eingestuft. Die 4070 ist eher eine 4060.

MiamiNice
2023-04-11, 13:32:00
@gast ritis
sehe ich anders. komme mit der 4070 ti und 12gb vram gut zurecht. ich undervolte die karte mit msi afterburner. zocke mit 4k und 60fps vsync bei max details. die 12gb reichen. mods nutze ich nicht. die 12gb werden auch nächstes jahr reichen.


Würde mich interessieren wie das geht? Mit 12 GB VRAM hätte ich aber in der letzten Zeit echt Probleme gehabt mit meinem 4K. Würde ich auch nicht kaufen.

GerryB
2023-04-11, 13:32:14
4070=12GB, die dann vermutlich mit FG hilfreich sind ggü. ner 3080-10GB.
Da wirds schon Unterschiede geben.

Exxtreme
2023-04-11, 13:34:42
4070=12GB, die dann vermutlich mit FG hilfreich sind ggü. ner 3080-10GB.
Da wirds schon Unterschiede geben.

Das Problem ist, FG verbraucht auch sehr viel VRAM. Das verschärft die VRAM-Problematik auf der RTX 4070-Serie noch zusätzlich.

MiamiNice
2023-04-11, 13:52:42
Eben. Und dann bitte noch RTX on :wink:
Da ist noch keine Textur im VRAM und er säuft schon ab. So bissel überspitzt.

IchoTolot
2023-04-11, 14:23:02
Nvidia Produkt mit eingebautem künstlichem Ablaufdatum in bester nvidia Tradition. 12 GB sind jetzt schon gerade genug ohne FG. Wenn dann noch FG kommt, is direkt schicht im Schacht. Hardware unboxed hat das ja deutlich gezeigt. Siehste in seinem letzten Video wie mit raytracing schon bei titeln wie Plague tale und allem anderen neuen 12 GB VRAm geknackt werden. ^^

Und wir reden hier hier von 1080p und 1440p max. 12 GB sind die neuen 10 GB wie damals bei der 3080. ^^

Exxtreme
2023-04-11, 14:30:09
Ich habe langsam den Eindruck, die 12 GB sind nur dazu da um die Verkäufe der RTX 4080 und 4090 zu pushen. Keiner ernsthafter Spieler gibt 850 EUR aus für ein Produkt, dessen Haltbarkeitsdatum bereits abgelaufen ist. :freak: Also nimmt man was Fetteres. Die RTX 4070-Serie ist nur für sehr kompromissbereite Stromspar-Freaks interessant.

Wobei AMD davon womöglich auch profitiert. Mit 20 GB VRAM für ~800 EUR kommt schon sehr weit.

Leonidas
2023-04-11, 14:35:45
i9 und i7 sind schlicht weiter ausgequetschte Raptorlakes
i5 und i3 kommen dann in Q1 2024 dazu und basieren auf Meteorlake.

Ich würde eher sagen: i3/i5 sind dann volle RTL-Dies - denn jetzt wird ja oft Cache deaktiviert, damit man noch alte ADL-Dies verwenden kann. Der RTL-Refresh wird dann im kompletten Portfolio RTL bringen, ohne Kompromisse zugunsten von ADL.

Gast
2023-04-11, 14:47:39
Würde mich interessieren wie das geht? Mit 12 GB VRAM hätte ich aber in der letzten Zeit echt Probleme gehabt mit meinem 4K. Würde ich auch nicht kaufen.

Kann ich nicht nachvollziehen, ich habe jetzt zwar kürzlich meine 2080Ti auf eine 4090 upgegraded, die 11GB VRAM waren aber zu keiner Zeit ein Problem, eher die nicht mehr vorhandene Rohleistung.

Einzige Ausnahme war die Diablo IV beta, die mit höchsten Texturdetails nur auf der 4090 wirklich spielbar war, und mit nur 11GB VRAM ständig Ruckler produzierte. Auf der zweithöchsten Einstellung waren auch die 11GB vollkommen ausreichend, und da das Spiel wie heute üblich damit nicht wirklich die Texturauflösung verstellt, sondern den Texturbuffer im VRAM gab es auch keine sichtbaren Unterschiede. Zumal die Ursache dafür höchstwahrscheinlich Memory-Leaks waren, der Ingame Tooltip empfahl selbst für die höchste Stufe 8GB VRAM. Insofern gehe ich davon aus dass man beim Launch selbst mit 8GB keine Probleme hat und erst recht nicht mit 12.

Lehdro
2023-04-11, 16:26:12
Kann ich nicht nachvollziehen, ich habe jetzt zwar kürzlich meine 2080Ti auf eine 4090 upgegraded, die 11GB VRAM waren aber zu keiner Zeit ein Problem, eher die nicht mehr vorhandene Rohleistung.

Ich bin 2020(!) von meiner 12 GiB Titan X (Pascal) runter weil mir der VRAM zu knapp wurde - so verschieden können die Erfahrungen sein. Liegt wahrscheinlich an krass unterschiedlichen Nutzungsweisen.

maximus_hertus
2023-04-11, 16:31:56
Würde mich interessieren wie das geht?

Indem die Spiele, die man spielt, eben nicht VRAM-Fresser (ob zurecht oder nicht spielt dabei überhaupt keine Rolle) sind und mit 12GB super laufen.

Klingt komisch, ist aber so.


Dann die Möglichkeit, quasi ohne Optikverlust, statt Ultra "nur" auf hoch zu spielen. Ist eine reine Kopfsache und hat nichts mit Optik zu tun.

hardtech
2023-04-11, 17:06:42
@maximus
danke, besser hätte ich es auch nicht ausdrücken können.

ich spiele nur world of tanks.
da reicht selbst eine 3070. diese produziert aber gute 40w mehr bei gleichen fps und einstellungen.
daher habe ich die kleinste 4000 ada getestet und für gut befunden.
i5-12500t produziert im game 10-19w und die 4070 ti um die 85w je nach map. bin soweit zufrieden.

die 13xxx cpus waren alle stromhungriger. das spielt nutzt die e-cores gar nicht. eine cpu mit sehr hoher leistung bei 1-2 cores wäre klasse. gibst nur leider nicht, weil man auf kernanzahl setzt. nur leider bringt das nichts in der praxis.

die 4070ti ist das kleinste übel.
so viel leistung wie eine 3090ti mit den neuen features. ja vram ist zu wenig und 20gb stünden der karte gut. aber wie im leben kann man nicht alles haben.
ich will auch keine karte mit 350w und mehr tdp (egal ob sie das verbraucht oder nicht). da amd probleme mit idle-stromverbrauch hat und nv in effizienz führend ist, greife ich eben 1 regal tiefer und lebe mit den nachteilen (vram zu wenig). kein beinbruch. wird die karte bei der nachfolgegeneration ersetzt. voraussetzung ist: die neue karte ist effizienter! einzug das zählt bei mir.

Dovregubben
2023-04-11, 17:56:17
Wer mehr als 12 GB bei den 70ern Karten erwartet hat, hatte wirklich unrealistische Erwartungen. Vermutlich wird das auch bei der 5070 nicht mehr.

Für die 4k@Max Spieler gibt es ja auch noch ein paar Modelle obendrüber.

//differentRob
2023-04-11, 18:34:00
Ich habe langsam den Eindruck, die 12 GB sind nur dazu da um die Verkäufe der RTX 4080 und 4090 zu pushen. Keiner ernsthafter Spieler gibt 850 EUR aus für ein Produkt, dessen Haltbarkeitsdatum bereits abgelaufen ist. :freak: Also nimmt man was Fetteres. Die RTX 4070-Serie ist nur für sehr kompromissbereite Stromspar-Freaks interessant.



Ihr versteht einfach nicht wie nVidia den Markt aufteilt :biggrin:

4k+ native: '90er (vermutlich dann mal 5k-8k)
4k native: '80er [Ergänzung: Sinnlos uber hyper 1080p Spieler / hi FPS 1440p Spieler]
1440p native: '70er [Ergänzung: Hi FPS 1080p Spieler]
1080p native: '60er

nvidia liefert zu den RTX 3000/4000 Karten selbst auf der eigenen Website jeweils nur Benchmarks in den jeweiligen Auflösungen ;)

Das ganze dann noch mit DLSS gepaart, ergibt dann für nVidia dieses "sinnvolle" Segmentieren :freak:


Interessant werden Benchmarks zwischen der 3080 12GB und der 4070 bei nativer 4k Auflösung werden! Gerade bei einem Speicherfresser wie TLOU :freak: Da könnte die 3080 plötzlich positiv überraschen :cool:

hardtech
2023-04-11, 20:15:57
https://videocardz.com/newz/nvidia-geforce-rtx-4070-matches-geforce-rtx-3080-in-leaked-tests

der erste test zeigt die 4070 exakt auf 3080 niveau!

Gast Ritis
2023-04-11, 20:28:49
eben.

Sobald einzelne AAA-Games in 4k im Mainstream entsprechend ausgelegt werden gibt es mit weniger VRAM als 16GB Probleme. Das wird meiner Meinung und Erfahrung nach die nächsten Monate passieren, und nicht nur in einzelnen Ausnahmefällen.
Die aktuelle Konsolen-Gen ist bald mit 3-4 Jahren in der Phase, indem die grösseren Entwicklerprojekte in den Markt kommen, die auf diese Gen ausgelegt sind, die alte Gen nicht mehr supporten.

Das war nach meiner Erinnerung die letzen Generationen doch immer so. Dann verlieren bestimmte GPUs, die das eine oder andere nicht packen, an Wert und es wird über schlechte Ports gemeckert. Die neue GPU-Gen zieht nach und die Monate/Jahre danach fängt das Gemecker an, dass PCs nicht ausgelastet werden mit der Grafik, die durch Konsolen gebremst werden.

Der Hoffnungsschimmer für kleinen VRAM Ausbau ist die zu geringe Menge für XbSS, die höhere Auflösung mit diversem übertriebenem upscaling bedienen wird, nur dass die 4070er etwa 7x mehr GPU-Leistung bringt und eigentlich andere Lösungen sucht. Was dann auf der XbSS mit Optimierungen zum Speichersubsystem mit VRS und Sampler Feedback gefixt wird muss man bei der 4070 auf DirectStorage und vollem Shading hoffen, das dann wenigstens die zu hohe GPU-Leistung fürs Entpacken von permanent nachgeladenen Assets hernimmt. Da ist man auf die "hervorradgende Portierung" und die individuelle Treiberoptimierung von Nvidia angewiesen, bis die wieder ne neue Gen verkaufen wollen.

GerryB
2023-04-12, 07:40:28
https://videocardz.com/newz/nvidia-geforce-rtx-4070-matches-geforce-rtx-3080-in-leaked-tests

der erste test zeigt die 4070 exakt auf 3080 niveau!

Wieso steht bei TS eigentlich 1080p ?
(default sollte 1440p sein)

btw.
Ist natürlich ne lustige Sache mal die eigene Graka mit nem Sparsetting in FHD laufen zu lassen: