PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse nVidia GeForce RTX 4070


Leonidas
2023-04-16, 18:41:04
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4070

Link zur entsprechenden Ersteindrucks-Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4070

Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4070

maximus_hertus
2023-04-16, 20:15:06
Danke für die Analyse! Wie schon im Review Thread rauf und runter diskutiert, die 4070 ist an sich eine gute Karte, hat aber den falschen Namen und wahrscheinlich dadurch auch den falschen Preis.

Schade, dass man die Karte trotzdem empfehlen kann bzw. fast muss. Ich hoffe AMD kommt eher früher als später mit N32 und N32 steht dann hoffentlich besser da (relativ) als N31.

hardtech
2023-04-16, 21:02:23
danke für die tolle analyse!

mich würde es nicht wundern, wenn amd und nvidia preisabsprachen im hintergrund laufen haben. die preise sind so nicht zu erklären.
ist ja wie bei der tankstellen: regulierungsbehörde ist machtlos.
oder die bafin: wirecard kann die leute betrügen. kein schutz der anleger.

die marktmechanismen sind ausser kraft gesetzt spätestens seit corona und diesem mining-wahnsinn. erzeugt kein mehrwert. konzerne machen rekordgewinne. siehe mineralölindustrie.

da hilft nur eins. weitere aktien dieser unternehmen kaufen!

blackbox
2023-04-16, 22:01:47
Das P/L-Verhältnis hat sich leider gar nicht verändert. Man bekommt zwar mehr Leistung, muss jedoch prozentual gesehen genau so viel mehr bezahlen. Dabei war die Vorgängerkarte 3070 schon überteuert. Das hat sich jetzt leider fortgesetzt.

Platos
2023-04-17, 00:20:45
Danke für die Analyse. Wie immer das Wichtigste unter den Testseiten.

Die 4070 bleibt weiterhin überteuert. Die 4090 bot zwar ein besseres P/L als der Vorgänger, ist aber auch so oder so überteuert. Die 4080 bot ein sogar schlechteres, die 4070Ti irgendwo (je nach Vergleich) gerade so gleich oder leicht schlechter.

Die 4070 bietet da "immerhin" als erstes mal ein besseres P/L. Allerdings ist dieses weiterhin zu klein für eine neue Chipgeneration.

Aus meiner Sicht aber die erste Karte von nvidia, die ich nicht jedem abraten würde, der nicht spezielle Sonderszenarien hat.

Sie hat 12GB, was ok ist. Sie hat "immerhin" ein besseres P/L und die Effizienz ist gut. Naja, ich sagte ja nicht, dass ich die Karte empfehle, aber es ist die erste Karte, von der ich zumindest nicht direkt abrate.

Ich würde sie mit nem durchschnitt bewerten. Und das muss schon was heissen in dieser Generation. Die anderen habe ich glaube ich alle mit negativ bewertet.

Ps: Habe alles auf Dollar Listenpreise bezogen.

Das P/L-Verhältnis hat sich leider gar nicht verändert. Man bekommt zwar mehr Leistung, muss jedoch prozentual gesehen genau so viel mehr bezahlen. Dabei war die Vorgängerkarte 3070 schon überteuert. Das hat sich jetzt leider fortgesetzt.

Mehr bezahlen im Vergleich zu welcher Karte ? Und Strassenpreis (DE?) oder Listenpreis (DE?)?

Rabiata
2023-04-17, 02:16:55
Danke für die Analyse! Wie schon im Review Thread rauf und runter diskutiert, die 4070 ist an sich eine gute Karte, hat aber den falschen Namen und wahrscheinlich dadurch auch den falschen Preis.

Schade, dass man die Karte trotzdem empfehlen kann bzw. fast muss. Ich hoffe AMD kommt eher früher als später mit N32 und N32 steht dann hoffentlich besser da (relativ) als N31.
In der Gesamtwertung sehe ich die 4070 vor der 3080. Ein paar Prozent langsamer, aber der größere RAM und geringere Verbrauch wiegen schwerer.
Dennoch ist der Fortschritt nicht berauschend. Der geringere Preis und die anderen Verbesserungen machen zusammen vielleicht eine 25% Verbesserung in P/L gegenüber der 3080 aus. Aber insgesamt scheint mir die 6800 XT das bessere Angebot.

OpenVMSwartoll
2023-04-17, 05:19:51
Erst mal wieder ne tolle Analyse.

Gegen die 6950 XT sieht es selbst unter RT nicht so beeindruckend aus. 16 % mehr Performance (ja, jetzt kann wieder jemand seine Kirschensammlung auspacken) beeindrucken nicht so sehr.

Was bleibt, ist ein eklatanter Verbrauchsunterschied. Und weniger VRAM.

Die Karte als 4060 (Ti) zu 499,- € und ich wäre voll des Lobes.

Leonidas
2023-04-17, 05:50:03
Sehe ich nicht unähnlich. Die +16% unter RT sind nicht die Welt, das kann man verkraften (angesichts des Plus' unter Raster). Der Verbrauchs-Unterschied ist es hingegen, der von einer vollen Empfehlung zugunsten der 6950XT abhält.

Gast
2023-04-17, 07:05:56
Ich finde, dass eigentlich die gesamte Breite der Nutzung gezeigt werden sollte. Da geht es dann auch um VR und hier ist AMD generell nicht brauchbar, da gibt es genügend Tests dazu. Ich finde die Karte nicht super toll aber besser als eine RTX 3080 und somit zumindest ein kleiner Fortschritt.

OpenVMSwartoll
2023-04-17, 07:39:47
Ich finde, dass eigentlich die gesamte Breite der Nutzung gezeigt werden sollte. Da geht es dann auch um VR und hier ist AMD generell nicht brauchbar, da gibt es genügend Tests dazu. Ich finde die Karte nicht super toll aber besser als eine RTX 3080 und somit zumindest ein kleiner Fortschritt.

Wie hoch ist die Verbreitung abseits der Konsolen?

Nischentests muss man explizit suchen. Für die Gesamtbetrachtung ist dies nicht sonderlich relevant.

Nachtrag: Explizite Benchmarks lassen sich schwerlich in der Breite finden, somit wird es mit der Datenbasis eng.

Leonidas
2023-04-17, 08:15:14
Richtig. Für so ein Meta-Review kann man nur das verwenden, was auch wirklich breit getestet wird. Es gibt viele interessante Einzeltests, die nur 1-2 Reviews angestellt haben, das läßt sich im Rahmen eines solchen Artikels schwerlich verwenden. Dafür sind halt diese Einzeltests da.

Kleebl00d
2023-04-17, 09:21:27
Danke für die tolle Zusammenfassung! :)

Auf Seite 1, in der zweiten Tabelle, ist das Feature-Set von Ampere und nicht von Ada rübergerutscht.

OpenVMSwartoll
2023-04-17, 09:39:33
Interessehalber habe ich folgende Seite mit VR Tests erspäht:

https://amp.hothardware.com/reviews/nvidia-geforce-rtx-4070-review?page=3

Underwhelming.

Leonidas
2023-04-17, 10:09:30
Auf Seite 1, in der zweiten Tabelle, ist das Feature-Set von Ampere und nicht von Ada rübergerutscht.

Gefixt.

Gastronom
2023-04-17, 10:14:45
Danke für die schöne Analyse und das Fazit finde ich sehr gut!

Grösster Kritikpunkt wäre für mich der VRAM. Hier knausert nVidia einfach zu sehr. Im Grunde geht die Vorgängergeneration mit 8GB schon in Richtung Obsoleszenz. Die 3080-10GB erschien bei release auch als ausreichend, bieten aber mittlerweile auch nicht wirklich Sicherheit für die Zukunft. Nur mal so nebenbei, Meine aktuelle 1080ti hatte ich damals für etwas über 700 Euro geschossen und die hatte damals schon 11GB!

16 GB hätten der Karte gut gestanden. Die Grafikkarten sind einfach zu teuer geworden als dass man sich bei jeder Generation ne neue Karte holt.

Gast
2023-04-17, 11:33:04
@Leonidas

Danke für den tollen Artikel!

Jedoch möchte ich darauf hinweisen, dass deine Conclusio gerade in Fragen Preispunkt, damit auch Preis-Leistung im Vergleich zu Vorgängern einfach hinkt.

Die zentralen Westwährungen $ und € hatten in der Zeit von Ampere zu Ada Lovelake ~20% (kann auch etwas mehr oder weniger sein)"Inflation" zu erleiden, bzw. die Nationen die diese Währungen für ihre Wirtschaftsprozesse nutzen.

Für uns alle stellst sich diese Mixtur aus Währungsinflation, klassischer Inflation und Preissteigerungen bei Primärrohstoffen und den damit ableitenden weiteren Folgen als ein dicker Kaufkraftverlust dar.

Das sieht man im Supermarkt, Tankstelle, sonst überall UND natürlich auch bei Grafikarten.

MfG
Gortha

Leonidas
2023-04-17, 11:51:25
Ja, das mit der Inflation ist ein Punkt. Ich denke aber, damit wird einfach viel zu viel übertüncht, was nicht an der Inflation hängt.

Der Gedankengang ist hier folgender: Läßt man die Erklärung durchgehen, heizt man die Inflation erst recht an - weil man hat ja die Begründung der Preissteigerung bereits als "okay" klassifiziert. Deswegen bin ich an dieser Stelle lieber vorsichtiger und setze nicht so schnell auf das Pferd "Inflation".

MD_Enigma
2023-04-17, 11:54:55
Ich sehe leider meine Kaufkraft im Vordergrund und das bringt mich zum gleichen Fazit wie Leonidas. Wäre schön wenn sich das irgendwann wieder zum besseren wendet. Sonst eigentlich solide Grafikkarte, wie auch schon die 4080 und 4090.

Rabiata
2023-04-17, 12:26:38
Vielleicht ist es (wieder mal) an der Zeit, eine oder zwei Generationen zu überspringen.

Ich bin da persönlich noch etwas extremer und wechsle erst, wenn ich bei meinen Spielen deutliche Einbußen habe. Das war zuletzt vor drei Jahren der Fall, aber dann kam der Miningboom dazwischen und die Wucherpreise wollte ich nicht zahlen.
Damit mußte meine Radeon HD 7850 noch bis letzten Sommer durchhalten. Die neue RX 6600 hält hoffentlich wieder 10 Jahre durch,

OpenVMSwartoll
2023-04-17, 13:46:36
Ich sehe leider meine Kaufkraft im Vordergrund und das bringt mich zum gleichen Fazit wie Leonidas. Wäre schön wenn sich das irgendwann wieder zum besseren wendet. Sonst eigentlich solide Grafikkarte, wie auch schon die 4080 und 4090.

Ja, das ist der Aspekt, den man schwerlich negieren kann.

Gast
2023-04-17, 18:35:54
Sehe ich nicht unähnlich. Die +16% unter RT sind nicht die Welt, das kann man verkraften (angesichts des Plus' unter Raster)..

"Nicht die Welt" ist keine qualitative Aussage. Warum fehlt im Artikel das P/L-Verhältniss unter Raytracing? Wer auf Raytracing Wert legt, braucht keine Aussagen wie "ist nicht die Welt", sondern harte Fakten, also P/L unter Raytracing. Bitte noch hinzufügen.

Der Verbrauchs-Unterschied ist es hingegen, der von einer vollen Empfehlung zugunsten der 6950XT abhält.

Der Verbrauchtsunterschied kommt da noch hinzu. Wie sagen immer alle: "Unter Rasterizer sind die aktuellen Karten schnell genug. Die sollen lieber die nächste Generation bringen, die weniger verbraucht." Jetzt tut Nvidia das und alle beschweren sich über den Preis. AMD ist hier mit dem N31 viel schlimmer, die gehen mit dem Preis mit, obwohl die bei der Effizienz und Raytracing nicht mithalten können.Wie wäre es mit einem Effizienz/Preis-Graph? Damit jeder, der immer tönt, dass Effizienz wichtig ist, auch sieht, was für ein Sprung bei Effizienz/Preis die neue Generation gemacht hat, oder im Falle von AMD eben nicht gemacht hat.

G4st
2023-04-17, 21:25:52
In den Ländern in denen die GPUs hergestellt werden, ist die Inflation mit ~2% viel geringer, da diese im Gegensatz zur BRD ihre Wirtschaft nicht durch illegale Sanktionen und Nerobefehle gegen die Wand fahren. Dort ist Energie nach wie vor viel billiger. Dort wird die Halbleiterindustrie subventioniert und nicht wie hierzulande durch Merit-Order-Regime die Energiekonzerne (88 Mrd. € Zusatzprofit allein 2022).

Gastanjette
2023-04-17, 23:52:01
In die Zukunft geblickt ist das für 4k einfach zu wenig VRAM, auch für DLSS und RT wenn dann noch irgendwie 4k erreicht werden sollen.

Das muss man dem unbedarften Käufer einfach mal ins Buch schreiben. Das sind über 600 Euro für künftig reduzierte Settings in 4k um FPS Einbrüchen aus dem Weg zu gehen.

Exxtreme
2023-04-18, 00:05:40
4K verbraucht nur unwesentlich mehr VRAM als eine niedrigere Auflösung. Den VRAM-Verbrauch ermittelt man mit X * Y * 12. Was in Zukunft viel mehr reinhauen wird ist FG und höher aufgelöste Texturen etc.

Leonidas
2023-04-18, 04:26:14
Warum fehlt im Artikel das P/L-Verhältniss unter Raytracing?

Es ist der vergleichsweise viel kleinere Effekt - im Gegensatz zum P/L unter Raster (von der Bedeutung her). Zudem müsste man eigentlich bei RT das mit Raster vermischen, denn es gibt ja keine Situation, wo man zu 100% RT nutzen kann. Ein P/L rein unter RT wäre also eher irreführend, man müsste RT grob zu 40% in das Raster-P/L einmischen.

Nichtsdestotrotz wäre dies für die Zukunft eine interessante Frage, wie man das besser darstellt als bisher.

Gast
2023-04-18, 10:24:19
Zudem müsste man eigentlich bei RT das mit Raster vermischen, denn es gibt ja keine Situation, wo man zu 100% RT nutzen kann. Ein P/L rein unter RT wäre also eher irreführend, man müsste RT grob zu 40% in das Raster-P/L einmischen.

Du hast doch selber "ein gemittelte RayTracing-Perf." für die 4070 in der Tabelle dargestellt. Laut dieser Tabelle erreicht die RX 6950XT 86 Prozent der RTX 4070.

Wo genau ist den jetzt die Schwierigkeit diese "gemittelte RayTracing-Perf", die du schon berechnet hast auf den Preis zu beziehen?

Klar ist. Es ist nicht die reine RayTracing-Performance. Korrekter wäre: "Gemittelte Performance bei Spielen mit Raytracing aktiviert". Und daraus kann man genau so ein P/L unter "Spielen mit Raytracing" berechnen und in der Tabelle anzeigen.

Wenn mich Spiele mit Raytracing interessieren, schaue ich mir diese Tabelle an. Wenn nicht, schaue ich mir die bekannte Tabelle der Rasterisierung an. Und wenn mich die Effizienz interessiert, schaue ich mir die Tabelle FPS/Watt/Euro an, wenn es den so eine gibt.

Gast
2023-04-18, 10:31:06
In den Ländern in denen die GPUs hergestellt werden, ist die Inflation mit ~2% viel geringer, da diese im Gegensatz zur BRD ihre Wirtschaft nicht durch illegale Sanktionen und Nerobefehle gegen die Wand fahren. Dort ist Energie nach wie vor viel billiger. Dort wird die Halbleiterindustrie subventioniert und nicht wie hierzulande durch Merit-Order-Regime die Energiekonzerne (88 Mrd. € Zusatzprofit allein 2022).

Das stimmt eben nur zum Teil.

Ein Dollar oder Euro mit weniger Kaufkraft macht auch deren Einkäufe an Matarialien teurer. Ganz einfach. Guck an wie Rohstoffe oder Gold/Bitcoin zu €/$ stehen...
Das macht einfach die Hestellung,Vertrieb, etc. teurer.

Deswegen sind Aussagen von MD_Enigma oder OpenVMSwartoll Wunschdenken.
Wir leben aber nicht in einer Wunschwelt sondern in der Realität und in der ist in unserer Währungen alles teurer geworden. In erster Linie aufgrund des maßlosen Gelddruckens der Zentralbanken und Banken und erschwerend kommt die von dir angesprochende masochistische Energiepolitik und Sanktionspolitik dazu, die Energie und Ressourcen aufgrund anderer Hemmnisse künstlich verteuert.

MfG
Gortha

Leonidas
2023-04-18, 10:37:48
Wo genau ist den jetzt die Schwierigkeit diese "gemittelte RayTracing-Perf", die du schon berechnet hast auf den Preis zu beziehen?

Gar keine. Aber nutzt Du die Grafikkarte zu 100% nur unter RayTracing?

Aber dennoch hast Du Recht: Ich muss zukünftig wohl RT in diese P/L-Betrachtungen einbeziehen. Vielleicht nicht bei den folgenden Mainstream-Modellen, aber generell.

bestMAN
2023-04-18, 11:08:34
Weil im Augenblick so wahnsinnig viel über VRAM auf den Grafikkarten diskutiert wird: gibt es Tests oder Aussagen darüber, wie sich die Grafikkarten von AMD und nvidia mit gleich viel Speicher im Spiel verhalten?

In der jüngeren Vergangenheit gab es doch mehr Speicher bei AMD (6700/6700XT/6800) im Vergleich zu nvidia Produkten (3060ti/3070/3080/4070/4070ti).

Ich meine also zum Vergleich eine RX 6700 XT vs. 4070/4070 ti, beide 12 GB?
Oder 6800 vs. 4080 mit 16 GB?

Ich weiß, diese Karten sind nicht in der gleichen Performanceklasse, haben nur die gleiche Speichergröße.
Der eigentliche Konkurrent zur 6700XT wäre wohl die 3070, die aber nur 8 GB hat.
Gehen AMD und nvidia also anders mit dem Speicher um?

Gast
2023-04-18, 13:40:22
Gar keine. Aber nutzt Du die Grafikkarte zu 100% nur unter RayTracing?

Dann sollte die gesamte Performance sich aber kombiniert auf Spiele mit und ohne Raytracing beziehen.

Wenn man die Performance extra auswertet sollte das auch mit P&L geschehen.

Lehdro
2023-04-18, 13:58:19
Gehen AMD und nvidia also anders mit dem Speicher um?
Ja, schon immer. NV hat derzeit das beste Verwaltungsmanagement was VRAM angeht, Intel das schlechteste, AMD ist irgendwo dazwischen. Die Unterschiede sind aber nicht besonders groß, nur ist es halt blöd wenn es gerade den Grenzbereich um die 8 GiB angeht.
Faustregel laut PCGH: Was bei Intel 8 GiB VRAM ist, wäre bei AMD 8.5 GiB und bei NV 9 GiB nutzbarer Speicher.

Gast
2023-04-18, 17:50:57
Das angebliche bessere Speichermanagement ist die Reduktion in Texturqualität wo man es nicht sieht oder auch mal Augenkrebs bekommt, wie der Vergleich von HWUB zwischen RTX3070 und RX6800 eindrucksvoll zeigt.
Direktvergleiche bei VRAM gibt es sonst nur bei gleicher GPU oder gleicher Preisklasse.

Raff
2023-04-18, 21:49:55
Das angebliche bessere Speichermanagement ist die Reduktion in Texturqualität wo man es nicht sieht oder auch mal Augenkrebs bekommt, wie der Vergleich von HWUB zwischen RTX3070 und RX6800 eindrucksvoll zeigt.
Direktvergleiche bei VRAM gibt es sonst nur bei gleicher GPU oder gleicher Preisklasse.

Natürlich ist mehr Speicher besser als weniger. Reicht der VRAM aus, gibt es keinen Brei. Was gemeint ist: Nvidia ist pro MiByte besser, sprich: Eine Geforce mit 8 GiByte zeigt seltener/milder die typischen Probleme rund um Nachladen (Ruckler und Brei) als eine gleich kapazitive Radeon oder Arc. Daher ja die oben genannte Faustformel - die übrigens immer noch nicht auf die Goldwaage gehört, aber so ungefähr. :)

MfG
Raff

Gast
2023-04-19, 00:17:19
Gar keine. Aber nutzt Du die Grafikkarte zu 100% nur unter RayTracing?
Nein. Nutzt du die Grafikkarte zu 100% ohne Raytracing?
Wenn ich zwei P/L-Verhältnisse habe, mit und ohne Raytracing, kann ich das für mich dann selbst gewichten. Die Alternative wäre, du machst diese Gewichtung, in dem du einen Prozentwert festlegst, das ist aber dann recht willkürlich und man müsste mit der Zeit die Gewichtung ändern, weil mehr Raytracing-Spiele dazu kommen, was die ganzen alten P/L-Verhältnisse nicht mehr Vergleichbar macht.

Aber dennoch hast Du Recht: Ich muss zukünftig wohl RT in diese P/L-Betrachtungen einbeziehen. Vielleicht nicht bei den folgenden Mainstream-Modellen, aber generell.
Zukünftig?
D.h. du willst bis Sommer warten, bis AMD endlich mit RX7800 aus dem Quark kommt? Was spricht den dagegen, das ganze als Update für diesen RTX 4070 Artikel zu bringen. Hat doch früher auch immer mit einem Update geklappt.

Leonidas
2023-04-19, 04:41:59
Nein. Nutzt du die Grafikkarte zu 100% ohne Raytracing?

Im Gegensatz zum umgekehrten Fall gibt es dafür tatsächlich Anwendungs-Fälle. Das ist ja der Punkt: RT ist Zusatz, nicht der Normalfall. Und im schlimmsten Fall wird RT nur dort eingeschaltet, wo es kaum Performance-wirksam ist. Sprich normalerweise müsste man diese Fälle aus dem RT-Index nehmen, wo die fps unterirdisch sind oder der Perf-Hit zu hoch.

Noch läßt sich RT nicht auf selben Niveau mit non-RT vergleichen. Es bleibt ein optionaler Zusatz.

MAX|HASS
2023-04-19, 08:43:39
Ist das, was hier als Hotspot beschrieben wird, der gleiche heißeste Punkt, den dieser Igor der (vermutlich) MSI 3X angekreidet hat? Weil demnach nehmen sich die Karten ja alle nichts.

MAX|HASS
2023-04-19, 17:13:29
Hallo? :confused:

Gast
2023-04-19, 20:58:28
Im Gegensatz zum umgekehrten Fall gibt es dafür tatsächlich Anwendungs-Fälle.
Dann gewichtet der jenige für sich eben das P/L von Rasterizerspielen mit 100 Prozent und schaut sich den Raytracing-P/L-Index gar nicht an. Das ist ja das tolle an zwei P/L-Indexes. Da kann sich jeder das ganze nach seinem Gutdünken gewichten.

Du kannst natürlich zusätzlich zu den zwei P/L-Indexes noch ein Misch-P/L-Index bilden, mit einem klar komunizierten Prozentansatz. Dann ist das ganze transparent und für jeden nachvollziehbar. Wer das ganze anders gewichten möchte, kann aus den einzelnen P/L-Indizies es sich dann wieder selbst so gewichten wie er/sie möchte und du kannst mit dem Misch-P/L-Index für die "Mehrheit" sprechen.

Sprich normalerweise müsste man diese Fälle aus dem RT-Index nehmen, wo die fps unterirdisch sind oder der Perf-Hit zu hoch.
Aha, wenn wir schon so anfangen, dann nehmen wir am besten auch die Spiele aus dem Index, wo die Min FPS über 144 FPS liegen, oder Deckeln den Wert auf 144 FPS für alle "zu schnellen" Grafikkarten, die das übersteigen. Den ob ich 200 oder 250 Min-PFS habe, ist mir ja auch egal. D.h. ob ich eine RTX4090/7900XTX oder eine RTX4070 auf 144 mit dem PFS-Limmiter beschränke, ist ja egal, damit lohnt sich die RTX4090/RX7900XTX für einige reinen Rasterizier-Spiele gar nicht.

Noch läßt sich RT nicht auf selben Niveau mit non-RT vergleichen. Es bleibt ein optionaler Zusatz.
Es hat doch auch keiner gefordert RT auf das Non-RT Niveau zu heben und mit irgendetwas zu vergleichen. Es wurde doch nur gewünscht, _zusätzlich_ ein RT-P/L-Index einzuführen.

Warum das nicht als Update kommen kann, sondern erst irgendwann in unbekannter Zukunft, hast du leider auch nicht geschrieben.

G4st
2023-04-19, 21:27:05
Das stimmt eben nur zum Teil.

Ein Dollar oder Euro mit weniger Kaufkraft macht auch deren Einkäufe an Matarialien teurer. Ganz einfach. Guck an wie Rohstoffe oder Gold/Bitcoin zu €/$ stehen...
Das macht einfach die Hestellung,Vertrieb, etc. teurer.


Wenn dem so wäre, wäre deren Inflation aber nicht ~2% sondern sehr viel höher.
Es macht einen Unterschied, ob man die Halbleiterindustrie hegt und pflegt oder wie hierzulande zu Lasten der Gesamtwirtschaft die Energiekonzerne(insbesondere US-amerikanische) subventioniert.

"Taiwan rolls out tax credits for chipmakers to keep R&D local"
https://www.theregister.com/2023/01/09/taiwan_chip_tax_credits/


Deswegen sind Aussagen von MD_Enigma oder OpenVMSwartoll Wunschdenken.
Wir leben aber nicht in einer Wunschwelt sondern in der Realität und in der ist in unserer Währungen alles teurer geworden. In erster Linie aufgrund des maßlosen Gelddruckens der Zentralbanken und Banken und erschwerend kommt die von dir angesprochende masochistische Energiepolitik und Sanktionspolitik dazu, die Energie und Ressourcen aufgrund anderer Hemmnisse künstlich verteuert.

Und genau davon sind eben Länder, die sich nicht an dieser Schocktherapie(O-Ton G30: "creative destruction") beteiligen, nicht betroffen und weigern sich mehrheitlich, trotz US/EU-Sanktionsdrohungen bei diesem Wahnsinn mitzumachen.

Leonidas
2023-04-20, 04:44:44
Ist das, was hier als Hotspot beschrieben wird, der gleiche heißeste Punkt, den dieser Igor der (vermutlich) MSI 3X angekreidet hat?

Das kann ich leider nicht genau sagen, da es ja unterschiedliche Tester waren.



Warum das nicht als Update kommen kann, sondern erst irgendwann in unbekannter Zukunft, hast du leider auch nicht geschrieben.

Kommt wenn dann erst in "unbekannter Zukunft". Ich muß mir dazu erst mal klar machen, wie ich das rechtfertigen kann. Ist aus den von mir genannten Gründen nicht einfach.

Lehdro
2023-04-20, 14:33:13
Wenn dem so wäre, wäre deren Inflation aber nicht ~2% sondern sehr viel höher.
Es macht einen Unterschied, ob man die Halbleiterindustrie hegt und pflegt oder wie hierzulande zu Lasten der Gesamtwirtschaft die Energiekonzerne(insbesondere US-amerikanische) subventioniert.

"Taiwan rolls out tax credits for chipmakers to keep R&D local"
https://www.theregister.com/2023/01/09/taiwan_chip_tax_credits/

Stichwort Silicon Shield (https://en.wikipedia.org/wiki/Semiconductor_industry_in_Taiwan). Das ist doch kein Selbstzweck des Staates der Industrie gegenüber, sondern reine Überlebensstrategie. Ohne TSMC & Co. würde West Taiwan ganz anders auftreten können gegenüber Taiwan. Du könntest Taiwans Vorgehen in dem Maße vielleicht mit der Autoindustrie in Deutschland vergleichen, da ergäben sich etliche Parallelen. Auch im Bezug auf Subventionen und "hegen und pflegen".

G4st
2023-04-20, 21:51:05
Das ist doch kein Selbstzweck des Staates der Industrie gegenüber, sondern reine Überlebensstrategie.


Die sind vom US-Militär wieder als Kanonenfutter beim "setting the theatre" vorgesehen, um "the level of success we’ve achieved in Ukraine"(US-Militär laut Financial Times) auch in Taiwan zu erzielen. Taiwan wird übrigens selbst von den USA offiziell als Teil Chinas anerkannt.


Du könntest Taiwans Vorgehen in dem Maße vielleicht mit der Autoindustrie in Deutschland vergleichen, da ergäben sich etliche Parallelen.

...inzwischen offensichtlich nicht mehr. Gehegt und gepflegt werden hierzulande stattdessen jetzt US-amerikanische Energie- und Rüstungskonzerne.

Taiwans Subventionen für die Halbleiterindustrie sind mit denen Südkoreas und der USA vergleichbar bzw. eine Reaktion darauf. Das wird sogar im verlinkten Artikel erwähnt.

Leonidas
2023-04-21, 04:42:39
Ich glaube, da sind wir jetzt ganz schön vom Diskussions-Gegenstand abgekommen ...

Lehdro
2023-04-21, 14:33:58
Würde nicht passieren wenn nicht immer wieder politische Entgleisungen in den Threads zugelassen würden, wo diese nicht hingehören. Gelöscht werden sie nicht, aber Fakenews unkommentiert stehen zu lassen ist auch keine Option. What do?

Gast
2023-04-21, 16:52:29
Würde nicht passieren wenn nicht immer wieder politische Entgleisungen in den Threads zugelassen würden, wo diese nicht hingehören. Gelöscht werden sie nicht, aber Fakenews unkommentiert stehen zu lassen ist auch keine Option. What do?

Du löschst deine politischen Entgleisungen und Fake News einfach selbst und vermeidest diese zukünftig. Von einem "West Taiwan" spricht nicht einmal die "strategische Kommunikation" der NATO.:facepalm:

Aroas
2023-04-23, 14:08:59
Durchschnittlich

An sich ist die RTX 4070 eine gute Karte. Die Leistung stimmt, der Speicherausbau passt auch noch und die Effizienz ist sehr gut.
Aber der Preispunkt passt einfach hinten und vorne nicht.

Platos
2023-04-23, 14:09:06
Ich bin dann bei durchschnitt (knapp), aber der Preis stimmt einfach nicht.

Hätte tiefer liegen müssen. Bezogen auf Dollarlistenpreis.

Der Speicher ist ok, die Effizienz gut, Preis schlecht.

Also gerade so Durchschnitt mit Tendenz eher Richtung negativ. Leider ist das die vom P/L attraktivste Lovelace-Karte.

Blase
2023-04-23, 14:48:45
Durchschnittlich

An sich ist die RTX 4070 eine gute Karte. Die Leistung stimmt, der Speicherausbau passt auch noch und die Effizienz ist sehr gut.
Aber der Preispunkt passt einfach hinten und vorne nicht.

Ich bin dann bei durchschnitt (knapp), aber der Preis stimmt einfach nicht.

Hätte tiefer liegen müssen. Bezogen auf Dollarlistenpreis.

Der Speicher ist ok, die Effizienz gut, Preis schlecht.

Also gerade so Durchschnitt mit Tendenz eher Richtung negativ. Leider ist das die vom P/L attraktivste Lovelace-Karte.

Wir sind uns einig ;)

MfG Blase

bad_sign
2023-04-23, 15:13:37
Wäre ein guter 4060 für 400€

Rush
2023-04-23, 16:22:37
Positiver Ersteindruck, aber preislich außerhalb meiner Interessenlage.

VRAM, Leistung, Features, Verbrauch = Sehr rundes Paket, leider 200 Flocken zu teuer.

AMD Center
2023-04-23, 18:52:54
Negativer Ersteeindruck: weil von Nvidia.

MD_Enigma
2023-04-23, 20:13:03
Negativer Ersteeindruck: weil von Nvidia.

Danke Anke. Wir geben zurück an lück.

Prinzenrolle
2023-04-23, 22:45:27
Negativer Ersteeindruck: weil von Nvidia.

Ne, weil einfach 100 Euro zu teuer.
Man erwartet sich von einer neuen Generation eben ein besseres PLV als 10 bis 20%.

Geile Features wie FG zählen nicht, weil die der DAU nicht versteht und es als böses Voodoo beschimpft.

Wäre DLSS3 in jedem Titel verfügbar, wäre es ein Knallerpreis.

Legendenkiller
2023-04-24, 09:00:45
Für mich passen halt die 12 Gbyte und der Preis nicht.
Ja aktuell reichen 12 GB für alles was man realistisch mit einer 4070 macht, aber reicht es auch noch in 2-3 Jahren ?
Dieser knappe Speicher ist für mich schon ein bischen geplante Haltbarkeitsbeschränkung.

Geht ja garnicht das man eine Midrange GRafikkarten (1070) mit dem selben Speicher wie eine Highendkarte (1080) anbietete, die man dann 6 Jahre benutzen kann.
Den Fehler macht Nvidia halt nicht nochmal, lieber wird das dauer Genöle ertragen. Die müssen ja eh bei uns kaufen.

PS: mir wäre ein 4070 mit 16GB für 700€ lieber als eine 12GB für 600€.
Mangels Alternative werde ich mir aber in den nächten Wochen eine 4070 kaufen und damit die 6 Jahre alte 1070 ersetzen.
Das wird meine erste Grafikkarte seit über 30 Jahren wo sich der Ram nicht verdoppelt hat.
Und wiegesagt ich hab praktisch bis zu 1070 immer alle 2-3 Jahre gekauft und nun bekomm ich selbst nach 6 Jahre nur 50% mehr Ram.
Hab auch lange überlegt gleich die 4080 zu kaufen, aber die gibs nicht mit normalen 8p. Steckern. Bei 300W möchte ich kein Adapter, erstrecht nicht wenn der empfindlicher ist als ein rohes Ei.

sun-man
2023-04-24, 09:47:59
Naja, ich weiß nicht. Wer glaubt denn, der über 20 ist, ernsthaft das er mit einer Grafikkarte in 2-3 Jahre noch alle Spiele auf Max-Ultra Settings in 4k, oder auch 1440p, spielen kann?

Welche Karte der letzten Jahre kann das denn wirklich von sich behaupten? Das wir durch Mining, Corona oder auch Scalper gerade ne fiese Zeit hinter uns haben sollte auch etwas Beachtung finden. In der Regel finden sich eh immer wieder Menschen die auch nen Hunnie weniger kritisieren würden und noch nen Hunderter runter gehen würden.

Exxtreme
2023-04-24, 10:56:27
Naja, ich weiß nicht. Wer glaubt denn, der über 20 ist, ernsthaft das er mit einer Grafikkarte in 2-3 Jahre noch alle Spiele auf Max-Ultra Settings in 4k, oder auch 1440p, spielen kann?


Alle Spiele gehen nichteinmal mit einer 1700 EUR Grafikkarte. ;) Aber früher gingen die allermeisten Spiele mit einer 500 EUR Grafikkarte ziemlich problemlos mit maximalen Einstellungen. Jetzt musst du 1700 EUR dafür ausgeben. Das ist mehr als eine Verdreifachung des Preises innerhalb von drei Jahren.

Für 500 EUR bekommst du etwas was kaum schneller ist als etwas, was vor drei Jahren ebenfalls 500 EUR kostete.

bestMAN
2023-04-24, 11:12:26
Das liegt aber eindeutig an der uneingeschränkt hohen Leistung einer 4090.
Diese Leistung ist einfach bislang unerreicht und lässt die kleineren Karten natürlich im Preis ebenfalls steigen.
Bestes P/L ist weiterhin eine 6800/6800XT. Wer es jetzt braucht, und für ihn RT nicht wichtig ist, langt dort nochmals zu und erfreut sich an den 16 GB VRAM mit ordentlicher Leistung, lässt sich doch auch gut optimieren.

sun-man
2023-04-24, 11:48:46
Das liegt aber eindeutig an der uneingeschränkt hohen Leistung einer 4090.
Diese Leistung ist einfach bislang unerreicht und lässt die kleineren Karten natürlich im Preis ebenfalls steigen.
Bestes P/L ist weiterhin eine 6800/6800XT. Wer es jetzt braucht, und für ihn RT nicht wichtig ist, langt dort nochmals zu und erfreut sich an den 16 GB VRAM mit ordentlicher Leistung, lässt sich doch auch gut optimieren.
Ich sehe das anders. Laut Mindefactory kosten die 6800/6800XT halt 50-80€ weniger. Ein 6800 würde ich, also Laie, mir nicht mehr ans Bein binden wollen. Ich bin sicher kein NV Fanboy und auch der Preis ist sicherlich zu hoch....aber so wirkliche Alternativen sind mit vielen Worten erkauft?

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13289580&postcount=619

In RDR2 (17:50min) ist die 6950XT über 20% schneller usw..
Aber ich bin nur ein Unwissender der irgendwann mal seine uralt e3060TI (vor Corona gekauft) in WQHD loswerden will. Ich hab gar keine Probleme damit Details runterzustellen. Ob der Shatten nun UHD oder nur Mid steht? Ich sehe es eh nicht mehr.

bestMAN
2023-04-24, 11:59:08
bin auch kein Fanboy von irgendwas, habe nvidia und AMD zuhause nebeneinander laufen.
Ich meine aber, dass das Diagramm schon einiges aussagt.
83666

sun-man
2023-04-24, 12:03:01
Möglich und sicher auch irgendwo wahr. Ein VW imn Lambooutfit hat vermutlich auch ne miese Dollar/Performancewertung :D ...und die 3060TI, welche ich habe...mag auch drüber sein. Dennoch tut sie sich mittlerweile ab und an schwer und ich muss mehr Details runter schrauben als mir lieb ist. Dummerweise mag udn brauche ich RT, wenn es da ist schalte ich es (mit DLSS/Q) ein.

bestMAN
2023-04-24, 12:10:17
da mir RT ziemlich egal ist tendiere ich zur 6800 non-xt
Preis und VRAM sind einfach zu verlockend, dazu die FPS in WQHD - würd ich noch 2 Jahre vergnüglich spielen können.

Prinzenrolle
2023-04-24, 19:03:53
Jetzt musst du 1700 EUR dafür ausgeben. Das ist mehr als eine Verdreifachung des Preises innerhalb von drei Jahren.

Was ist das wieder für eine schwachsinnige Rechnung?
Vor 3 Jahren hast du für 500 Euro gerade mal so eine 2070 Super oder 5700XT bekommen, heute bekommt man fast eine 6800XT oder RTX 4070.

Das AMD Center hat wieder abgestimmt. Also entweder stimmt hier jemand absichtlich negativ für Nvidia ab oder die meisten sind biased.

sun-man
2023-04-25, 07:38:10
h9T42eWxIDA

Spannend.

MiamiNice
2023-04-25, 09:28:54
Also entweder stimmt hier jemand absichtlich negativ für Nvidia ab oder die meisten sind biased.

Nix "oder". Beides geht im 3DC Hand in Hand und ist unter den Usern weit verbreitet. Abstimmungen im 3DC kannst total vergessen, die haben außerhalb dieser Webseite, keinen Anspruch auf Gültigkeit.

Dovregubben
2023-04-25, 10:27:15
Alle Spiele gehen nichteinmal mit einer 1700 EUR Grafikkarte. ;) Aber früher gingen die allermeisten Spiele mit einer 500 EUR Grafikkarte ziemlich problemlos mit maximalen Einstellungen.
Das Argument hinkt. Im Endeffekt bestimmen ja die Spielehersteller, welche Karten noch mit max Settings laufen und nicht die GPU Hersteller. Aktuell ist es dank Raytracing ziemlich einfach jede Karte zu vernichten.

Preis-/Leistungsentwicklung ist trotzdem fürn Arsch.

sun-man
2023-04-25, 16:29:49
https://youtu.be/h9T42eWxIDA

Spannend.
Apropos, warum nimmt RDR2 in Vulkan auf einer AMD >12GB RAM und auf der 4070 nur die Hälfte?
WPE_CvvqJpY

So bei 25:20 in 1440p. Die 6800 ist zwar 7% schneller, aber den VRAM verstehe ich nicht ganz

MiamiNice
2023-04-25, 16:36:44
War es nicht so, dass NV einen besseren Kompressionsalgo für die Texturen nutzt?

sun-man
2023-04-26, 06:56:30
War es nicht so, dass NV einen besseren Kompressionsalgo für die Texturen nutzt?
Das würde ja zu dem Video von PCGH passen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13290307&postcount=63

Ich meine, wenn der Algo in Vulkan derart effizient ist ohne merklich langsamer zu sein brauche ich, zumindest unter Vulkan, keine Grafikkarte mit 20GB Vram.

basix
2023-05-21, 14:13:50
@Leo:
Mach bitte mal eine Analyse zum Ersteindruck (positiv, durchschnittlich, schlecht) über die Releasedaten der Grafikkarten. Ich habe den Eindruck, dass die Bewertungen immer schlechter werden, wenn man einen Fit durch die entstehenden Diagramme zeichnen würde. Ergo es einen Trend gibt, dass Neueerscheinungen immer weniger positiv aufgenommen werden. Und allenfalls kann man die selbe Auswertung noch gruppieren: AMD vs. Nvidia, Generation vs. Generation bei der selben Klasse (z.B. 60er)

Leonidas
2023-05-21, 14:20:53
So was wäre zu überlegen. Ich weiss nur noch nicht, was das ganze letztlich aussagt. Werden die Nutzer einfach anspruchsvoller? Oder wird AMD einfach per se besser bewertet?

Manchmal sind es auch Einzelentscheidungen, die eine ansonsten gute HW herunterziehen. Beispiel 3070: Sehr mies bewertet (zu wenig VRAM), trotz dass es eine gute Karte ist.

basix
2023-05-21, 15:12:55
Das Bestimmen der Gründe ist sicher schwierig:
- Anspruch
- Preis (MSRP)
- VRAM Menge
- ...

Und hängt oft auch von anderen Quereinflüssen ab:
- Wie gut waren die Vorgänger? Fortschritt?
- Verfügbarkeit (Paperlaunch? Mining?)
- Marktpreise (Mining?)

Deswegen sind Trendkurven eigentlich ganz gut: Sie spiegeln die Summe der Faktoren wieder.

Bei AMD ist der selbe Trend auch zu erkennen, bei Nvidia ist er deutlich stärker ausgeprägt:
Alles seit Turing trifft fast nie auf einen positiven Ersteindruck. Die stark erhöhten Preise waren hier sicher ein Hauptgrund. Dann das VRAM-Dilemma, welches ebenfalls bei Turing angefangen hat (2080). Naja, Nvidias Profite sprechen eine andere Sprache

basix
2023-05-21, 15:53:44
War es nicht so, dass NV einen besseren Kompressionsalgo für die Texturen nutzt?
Die Texturen werden in einem Standardformat komprimiert. Im VRAM sind die bei AMD und Nvidia genau gleich gross. Nvidia "kann" einen besseren Delta Color Compression Algorithmus haben (spart Bandbreite, aber keine Speichermenge) oder einfach ein besseres Speichermanagement.

Leonidas
2023-05-22, 05:10:40
Deswegen sind Trendkurven eigentlich ganz gut: Sie spiegeln die Summe der Faktoren wieder.

:up:
Exzellent gemacht, ich Danke Dir. Jetzt kann man wirklich etwas sehen, worüber es sich zu reden lohnt.

Gast
2023-05-22, 08:36:10
War es nicht so, dass NV einen besseren Kompressionsalgo für die Texturen nutzt?

Nein, die Texturen werden von der jeweiligen Anwendung vorgegeben.

Legendenkiller
2023-05-22, 11:10:37
...
Deswegen sind Trendkurven eigentlich ganz gut: Sie spiegeln die Summe der Faktoren wieder.
...


Manchmal sagt ein Bild mehr als tausend Worte. Danke für die GRafiken.

Gründe: Profimaximierung? , gut dazu sind sie verpflichtet.
Gamer nicht mehr als Hauptzielgruppe, sondern nur noch als Resteverwerter ?
PS: das hat Nvidia mal selber so gesagt , sinngemäß "Gaming GPUs sind nur noch die Resteverwertung der GPUs die wir für Wachstumsmärkte entwickeln."

Gast
2023-05-23, 13:58:13
Gamer nicht mehr als Hauptzielgruppe, sondern nur noch als Resteverwerter ?



Bin ich gerne, dann hätte ich bitte aber auch Preise die zur Verwertung von Resten passen.