PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 15./16. April 2023


Leonidas
2023-04-17, 11:47:08
Link zur News:
https://www.3dcenter.org/news/news-des-1516-april-2023

Exxtreme
2023-04-17, 12:14:32
Kleiner Fehler im letzten Satz:

Leider fehlt im Grafikkarten-Markt im erheblichen Maßstab dass, was Sachen vorantreibt, Verkrustungen aufbricht und Fortschritt generiert – simpler kapitalistischer Wettbewerb.

Da ist ein 's' zuviel. :)

Leonidas
2023-04-17, 12:43:53
In der Tat. Gefixt.

Crazy_Borg
2023-04-17, 12:44:09
Eher zu vermuten ist, dass nVidia hier bewußt Stückzahlen gegen Marge tauscht – lieber also weniger Karten verkauft, dafür (satt) mehr Gewinn pro Karte macht.

Was ist eigentlich mit den OEM PC Bauern los?
Eigentlich waren die doch immer die treibende Kraft, dass Entrylevel und low mainstream Karten der neuesten Generation eher zügig am Markt waren.
Auch wenn es nur der Name war, der da am Fertig PC die aktuelle Grafikkartengeneration prophezeite, aber nur alter Wein in neuen Schläuchen war?
Ich erinnere z.B. an so Blüten wie die GeForce GT300 Serie.

Die 3050/3060 sind nun auch schon 2,5 Jahre alt, wo kommt der Druck von denen?
Oder sind Dell & Co schon so weit in die Bedeutungslosigkeit abgerutscht?

---EDIT---
Ah Sorry, die 3050 ist nur 1 Jahr alt.
WTF, wann fing das an?

konkretor
2023-04-17, 13:10:54
Keine Sorge, auch die 8 GB Teile von Nvdia werden Käufer finden.
Alternativlos und so.


Statt bei AMD oder bei Intel ins Regal zu greifen, wird halt weiterhin Nvidia gekauft. :freak:

Korvaun
2023-04-17, 13:18:55
Entry und Low-Mainstream ist ja heute schon fast komplett mit APUs abgedeckt. Dazu kommt ein sehr schwacher PC Markt im allgemeinen. Im unteren Segment braucht es eigentlich diese Gen überhaupt keine neuen Karten, vor allem wenn man die Preise mit einbezieht...

Exxtreme
2023-04-17, 13:28:32
Entry und Low-Mainstream ist ja heute schon fast komplett mit APUs abgedeckt. Dazu kommt ein sehr schwacher PC Markt im allgemeinen. Im unteren Segment braucht es eigentlich diese Gen überhaupt keine neuen Karten, vor allem wenn man die Preise mit einbezieht...

Naja, die neuen Karten werden womöglich viel weniger Strom fressen. Und da kann man dann auch an der Platine, an den SpaWas und an Kühlern sparen. Der Marge wird das schon helfen.

Aroas
2023-04-17, 13:35:14
Da die 4060Ti mit Sicherheit nicht unter 400$ kosten wird, fällt auch diese Karte direkt durch.
8GB kann man auch im Jahr 2023 noch anbieten. Aber dann muss der Preis stimmen.

Eine RX 6650XT für knapp unter 300€ oder eine RX 6600 für mittlerweile ab 230€ sind ok mit dieser Speichermenge. Ja, sie dürften gern noch günstiger sein, aber das sind halt auch von der Leistung her Karten, bei denen die 8GB stimmig sind.

Bei der 4060Ti wird das aber deutlich anders aussehen und man bekommt somit einmal mehr einen Speicherkrüppel von NVidia angeboten.

cypeak
2023-04-17, 14:17:11
Die Fachmedien könnten "helfen" indem sie wenigstens klar davon abraten Karten mit "zuwenig" Speicher zu kaufen.
Oder wenigstens sehr deutlich die Preisleistung und die Zukunftsaussichten solcher Karten herausarbeiten....

(Man kann ja Hoffnung haben...)

Exxtreme
2023-04-17, 14:24:49
Die Fachmedien könnten "helfen" indem sie wenigstens klar davon abraten Karten mit "zuwenig" Speicher zu kaufen.
Oder wenigstens sehr deutlich die Preisleistung und die Zukunftsaussichten solcher Karten herausarbeiten....

(Man kann ja Hoffnung haben...)

Das Problem ist, "zuwenig Speicher" ist auch wiederum ziemlich relativ da das von den Ansprüchen abhängt, die man so hat. Wenn man 30 fps als flüssig empfindet dann ist das egal ob der Grafikkarte der VRAM ausgeht oder nicht. Eine pauschale Empfehlung wäre auch nicht wirklich angebracht. Man sollte nicht davon ausgehen, dass wenn jemand eine 300 EUR-Grafikkarte kauft, dass er ähnliche Ansprüche hat wie ein 3DC-Besucher.

IchoTolot
2023-04-17, 14:42:25
Das Problem ist, "zuwenig Speicher" ist auch wiederum ziemlich relativ da das von den Ansprüchen abhängt, die man so hat. Wenn man 30 fps als flüssig empfindet dann ist das egal ob der Grafikkarte der VRAM ausgeht oder nicht.

Ist es nicht. Als ich Horizon zero Dawn auf meiner damaligen 6600XT gespielt hab in 1440p und max details hat teilweise geometrie nicht geladen und die Texturen waren immer entweder gar nicht oder verzögert am laden. Das Spiel selber lief aber flüssig.

Zu wenig VRAM is einfach nie tolerierbar, besonders nicht bei ner neuen Grafikkarte.

Pumpi74
2023-04-17, 15:03:07
Im Fall der GeForce RTX 4070 beinhaltet dies den Vergleich mit dem Vollausbau des AD102-Chips

Das Problem an dem Vergleich mit dem Vollausbau von AD102 ist das der beschnittene Part davon in der 4090 seine enorme Rohpower schon gar nicht auf die Straße kriegt, bzw in Spielen nicht voll in Fps umgemünzt bekommt. Die 4090Ti bräuchte meiner Einschätzung nach einen Respin mit dringend viel mehr Cache und am besten gleich noch ein bisschen schnelleren Vram. Anders sind die ganzen Einheiten beim Zocken gar nicht zu gebrauchen. Möglicherweise bleibt der AD102 somit im Vollausbau eine reine DataCenter GPU. Der beschnittene AD102 läuft ja jetzt schon mit wenig Takt beim Streaming Dienst von nVidia.

Der Vergleich mit den großen Vollausbauten, gemessen an den Hardwareeinheiten, ist also nur dann sinnvoll wenn sie auch richtig funktionieren. Würde man an den tatsächlichen Leistungszuwächsen in Spielen fest machen in welche Kategorie der Nachfolgende Grafikkartentross fällt, dann würde die Lage etwas anders aussehen.

Aroas
2023-04-17, 15:04:50
Das Problem ist, "zuwenig Speicher" ist auch wiederum ziemlich relativ da das von den Ansprüchen abhängt, die man so hat. Wenn man 30 fps als flüssig empfindet dann ist das egal ob der Grafikkarte der VRAM ausgeht oder nicht.

Man kann aber dennoch allein anhand der Preisklasse durchaus eine "Warnung" aussprechen.
Jemand, der sich eine Grafikarte für um die 500€ kauft (und in dem Bereich wird die 4060Ti liegen), gibt sich mit Sicherheit nicht mit 30 FPS zufrieden.
Da sind schon rein aus finanziellen Gründen höhere Ansprüche zu erwarten.

Insofern kann man dann dennoch deutlich sagen, dass 8GB für Kunden in dieser Preisregion wohl schnell zu wenig werden.
Das ist einfach keine Einsteigerklasse, wo anspruchslose Gelegenheitsspieler zugreifen.

Außerdem haben die FPS nichts mit dem Speicher zutun. Du kannst problemlos flüssige FPS Raten haben und dennoch Probleme mit Stuttering oder eben verspätet oder gar nicht ladenden Texturen haben, wenn der Speicher zu gering ausfällt.
Ich merke das bei meinem Notebook mit GTX 1650Ti mobile 4GB bei Witcher 3 in aktuellster Version. In FullHD sind mit dieser GPU problemlos spielbare Bildraten möglich. Aber es werden immer wieder Texturen erst verspätet oder gar nicht geladen. Insbesondere in den Zwischensequenzen bei Gesprächen mit NPCs fällt das teils extrem auf.
Das war vor dem "Next Gen" Update nicht so, weil die Texturen da noch wesentlich weniger Speicher benötigten.
Auf dem Desktop mit der RTX 2070 Super mit 8GB Speicher ist das absolut nicht der Fall. Da geht sogar problemlos 1440p mit höchsten Details.

Das ist dann extrem ärgerlich, wenn die Grafikkarte eigentlich genügend Leistung hat um ein Spiel flüssig darstellen zu können und man dennoch aufgrund von Speichermangel die Optik zurückdrehen muss.

Pumpi74
2023-04-17, 15:18:38
Zu wenig VRAM is einfach nie tolerierbar, besonders nicht bei ner neuen Grafikkarte.

Das stimmt schon, nur was ist zu wenig Vram ?

Wenn die Hardwareredaktionen die neuen 8GB Karten durch den normalen Testparcour laufen lassen dann wird man feststellen für welche Spiele die Karte geeignet ist und für welche nicht. Onlineshooter werden laufen, CP2077 mit max Texturen eher nicht. So lange dem Käufer klar und deutlich vermittelt wird das es sich um Grafikkarten handelt die für die neuesten Games eher nicht geeignet sind, oder nur mit deutlichen abstrichen in der Optik, sehe ich da kein Problem. Es gibt Leute die Spielen seit 10 Jahren nur WoW, wozu müssen diese Leute Karten mit 16GB vRam kaufen ? Wichtig ist das die Redaktionen das OK haben die Problematik klar anzusprechen. Wenn nVidia da Druck ausübt wäre das natürlich ein NoGo.

Legendenkiller
2023-04-17, 15:36:54
Das stimmt schon, nur was ist zu wenig Vram ?
...

Ram kann man immer nur zu wenig haben, niemals zu viel.

Und 8Ggbyte reichen wohl noch ein paar Jahre als minimale Anforderung.
Aktuell kommen die 4Gbyte Modelle an den Punkt das sie die minimale Anforderung nicht mehr erfüllen.

Minimale Anforderung im Sinne von "das Spiel startet überhautnoch und läuft auf minimal Settings"

Buddy Casino
2023-04-17, 16:00:46
Sicherlich spielt hierbei auch noch die Lagerbereinigung von Ampere-Lösungen mit hinein – allein, jene läuft nun schon seit Monaten und hätte bei konsequentem Produktionsstop der Ampere-Grafikchips auch schon beendet sein können.

Hast du da Insider Infos?

Exxtreme
2023-04-17, 16:13:46
Ist es nicht. Als ich Horizon zero Dawn auf meiner damaligen 6600XT gespielt hab in 1440p und max details hat teilweise geometrie nicht geladen und die Texturen waren immer entweder gar nicht oder verzögert am laden. Das Spiel selber lief aber flüssig.

Zu wenig VRAM is einfach nie tolerierbar, besonders nicht bei ner neuen Grafikkarte.

Ja, aber du hast schon gehobene Ansprüche. ;) Die Masse an Spielern hat solche Ansprüche halt nicht. Wenn da eine Textur mal unscharf ist oder das Spiel mit 30 fps vor sich hin ruckelt dann stört das nur bissl.

Ich glaube, den meisten Leuten ist gar nicht klar auf was für alten Kisten viele Spieler immer noch spielen. Ich kann mich noch erinnern wieviele Threads es gab, dass FF14 Endwalker massive Soundaussetzer hatte. Irgendwannmal kam heraus, dass das fast ausschließlich AMD Bulldozer-CPUs betraf. Ja, auf solchen Kisten spielen die Leute immer noch aktuelle Spiele.

Und ja, eine Infobox, dass eine 500 EUR Grafikkarte nicht so toll ist wenn sie nur 8 GB RAM hat ist sicherlich gut. Und dann kann man evtl. auf Intel verweisen in solchen Fällen.

Leonidas
2023-04-17, 16:20:11
Hast du da Insider Infos?

Nein. Aber man kann es ja kalkulieren: Wie lange dauert es von der Grafikchip-Bestellung bis zum Ladenprodukt? Nicht länger als ein 3/4 Jahr, eher nur ein halbes Jahr. Sprich: Wenn man die Ampere-Nachbestellungen vor einem 3/4 Jahr runterfährt, wäre jetzt 0,nix am Markt.

Ätznatron
2023-04-17, 16:42:27
Ja, aber du hast schon gehobene Ansprüche. ;) Die Masse an Spielern hat solche Ansprüche halt nicht. Wenn da eine Textur mal unscharf ist oder das Spiel mit 30 fps vor sich hin ruckelt dann stört das nur bissl.


Dumm nur, wenn aus diesen Rucklern massive Framedrops werden, die sich über etliche Frames fortsetzen können.

Und das ist sehr häufig der Fall bei Speichermangel.

So anspruchslos kann man gar nicht sein, darüber hinweggucken zu können.

Buddy Casino
2023-04-17, 17:39:45
Wenn man die Ampere-Nachbestellungen vor einem 3/4 Jahr runterfährt, wäre jetzt 0,nix am Markt.
Wieviel davon produziert wurde, wie schnell es abverkauft wird und welche Abnahme-Verpflichtungen Nvidia mit TSMC eingegangen ist wären auch noch ein Faktor, nicht nur "wie lange ist die Pipeline".

Aroas
2023-04-17, 19:01:08
Ja, aber du hast schon gehobene Ansprüche. ;) Die Masse an Spielern hat solche Ansprüche halt nicht. Wenn da eine Textur mal unscharf ist oder das Spiel mit 30 fps vor sich hin ruckelt dann stört das nur bissl.


Also ich glaube nicht, dass jemand, der 500€ für eine Grafikkarte zahlt, sich nur "bissl" an einer 30 FPS Diashow oder hässlichen Matschtexturen bzw. gar nicht geladenen Texturen stört.

Das mag vielleicht bei der Low Budget Riege der Fall sein, aber doch nicht bei Nutzern, die für ihren PC so viel Geld locker machen.

Calypso
2023-04-17, 22:08:00
Eher zu vermuten ist, dass nVidia hier bewußt Stückzahlen gegen Marge tauscht – lieber also weniger Karten verkauft, dafür (satt) mehr Gewinn pro Karte macht.

normalerweise sollte sich nvidia langfristig damit ja keinen Gefallen tun. Ich spinne jetzt einfach mal so rum:
Werden weniger von den neuen Grafikkarten verkauft, damit nvidia die Marge hält, heißt das doch, dass die bisherigen Gamer ihre Grafikkarten länger nutzen. Werden diese länger genutzt, und die Spieleentwickler wollen auch genügend Spiele verkaufen, müssten diese darauf achten, die Grafik nicht zu hoch auszureizen, damit nicht potentielle Käufer, die sich keine hochpreisige Grafikkarte leisten können, das Hobby aufgeben und damit auch keine Spiele mehr kaufen. Wenn aber die Spielentwickler die Garfik nicht mehr so stark ausreizen, wozu sich dann noch überteuerte Grafikkarten kaufen? Die Schere zwischen Mainstream und Highend wird auf jeden Fall weiter auseinander gehen.

Aber ok, einfach nur mal so gesponnen - leider wird es nicht so kommen und nvidia den Ar**** voll Geld gestopft kriegen, so dass sich an der Preissituation gar nichts mehr ändern wird. Meine 560 GTX hatte ich knapp 8 Jahre, meine 1070 wirds wohl änger machen (müssen).

Raff
2023-04-17, 23:14:34
[...] Aber ok, einfach nur mal so gesponnen - leider wird es nicht so kommen und nvidia den Ar**** voll Geld gestopft kriegen, so dass sich an der Preissituation gar nichts mehr ändern wird. Meine 560 GTX hatte ich knapp 8 Jahre, meine 1070 wirds wohl änger machen (müssen).

Nimm's mir nicht übel, aber das ist für mich wieder die Kategorie "Ich mache mir das Leben ganz bewusst schwer, weil ich an Prinzipien festhalte". Man kann das für ehrenwert halten, aber am Ende leidest du unnötig. Ausgehend von einer GTX 1070 gibt es längst attraktive Aufrüstoptionen - von AMD. Eine Radeon RX 6700 XT für 400 Euro ist mehr als doppelt so schnell, eine Radeon RX 6800 XT für 570 Euro ist sogar dreimal so schnell (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/) - mit Ausreißern, die deutlich darüber gehen. Beide haben genug Speicher.

Da sind wir wieder beim Kernproblem: Es kaufen trotzdem alle Nvidia - aber warum eigentlich, wenn alle paar Meter zu lesen ist, dass proprietäre Technologie doof ist? Die meisten PC-Spieler brauchen keine Geforce, die werden einfach von den falschen Leuten oder "Schwingungen" beeinflusst.

MfG
Raff

IchoTolot
2023-04-17, 23:22:03
Da sind wir wieder beim Kernproblem: Es kaufen trotzdem alle Nvidia - aber warum eigentlich, wenn alle paar Meter zu lesen ist, dass proprietäre Technologie doof ist? Die meisten PC-Spieler brauchen keine Geforce, die werden einfach von den falschen Leuten oder "Schwingungen" beeinflusst.


Genau das is das Problem. War auf nem Discord wo jemand auch ne 4070 gekauft hat. Warum? Weil es nvidia ist und von 2 Leuten gehört hat, dass die nur Probleme hatten mit AMD. :rolleyes:

Da kannste mit argumenten kommen wie du willst und zeigen dass ne 6950 deutlich schneller is, mehr Speicher hat und so.. Interessiert alles nicht. :freak:

Ich hab sogar von meiner 1070 in der Miningkrise für 500 euro auf ne 6600 XT aufgerüstet und konnte endlich Metro Exodus flüssig spielen. War schon nen gewaltiger Sprung. Und jetzt bei den Preisen die du für ne 6000er zahlst, lohnt sich jede 6000 er dicke.

Die ganze Nvidia Preisthematik ist hausgemacht von den Gamern weil man sich nicht informieren will und neuem gegenüber ablehnend ist.

Gast
2023-04-17, 23:29:49
Die Betrachtungsweise mit den Abständen zueinander (33% usw) finde ich sehr spannend. Zusätzlich interessant ist neben dem genannten Preis auch immer die relative Leistung
Damit könnte man die seit Jahren herumgeisternde "Meinung", dass Nvidia inzwischen die Karten nicht mehr so nennt, wie sie genannt werden sollten, mit Zahlen belegen, auch wenn es sich natürlich weiterhin um ein Gefühl/eine Zuordnung handelt.
Interessant ist aber in diesem Fall bei der 40xx Gen, dass selbst die 4080 mit nur knapp über 50% des Vollausbaus auch eigentlich schon eher eine 4060Ti bis 4070 wäre, wenn man das mit der 3xxx Generation vergleicht.

Die Rechnungen stimmen, aber in diesem Fall muss man betonen, dass noch nie so ein großer Unterschied zwischen der xx80er und 90er (oder Titan) Gen geherrscht hat, also Nvidia mit der 4090 wirklich den großen "Hammer" rausgeholt hat. Vermutlich aus Angst vor dem Großangriff von AMD. Wäre die 4090 nur 30% mehr bestückt, würde das Verhältnis wieder wesentlich besser passen. Der Preis aber natürlich immer noch nicht.

Interessant ist aber vielleicht auch, dass die 4070 hier immerhin einen knapp 300mm² Chip hat, also die Hälfte des Großen, bei nur einem Drittel der aktivierten Shader und Co.
Zu zeiten von Pascal waren ca 300mm (die 1080 hatte AFAIR 330mm², der Vollausbau knapp unter 500) noch recht groß.

IchoTolot
2023-04-17, 23:48:21
Ich bin schon sehr positiv überrascht, dass die Leute die 4070 nicht kaufen weil sie einfach zu teuer ist für was sie ist.

Aroas
2023-04-17, 23:57:43
Ich bin schon sehr positiv überrascht, dass die Leute die 4070 nicht kaufen weil sie einfach zu teuer ist für was sie ist.

Da sagen aber bspw. die aktuellen Mindfactory Verkaufszahlen was anderes.
Da ist die RTX 4070 ganz oben bei den Verkäufen mit über 500 Stück in Kalenderwoche 15.

Allerdings folgen auf Platz 2 und 3 AMDs RX 6600 und RX 6700XT, welche mittlerweile ein ausgezeichnetes P/L Verhältnis haben. Also so ganz bekloppt ist die Kundschaft noch nicht geworden.

Exxtreme
2023-04-18, 00:08:21
Da sagen aber bspw. die aktuellen Mindfactory Verkaufszahlen was anderes.
Da ist die RTX 4070 ganz oben bei den Verkäufen mit über 500 Stück in Kalenderwoche 15.

Allerdings folgen auf Platz 2 und 3 AMDs RX 6600 und RX 6700XT, welche mittlerweile ein ausgezeichnetes P/L Verhältnis haben. Also so ganz bekloppt ist die Kundschaft noch nicht geworden.

Mal schauen wie sich das die nächsten Wochen entwickelt. Ich kann mir gut vorstellen, dass die Verkäufe nachlassen werden. Diejenigen, die von vorneherein eine RTX 4070 wollten, haben sich jetzt eingedeckt. Am Anfang hat man immer einen größeren Schub. War bei der RTX 4090 nicht anders. Oder beim Ryzen 7800X3D.

hardtech
2023-04-18, 00:14:49
Hier mein Senf zu der Thematik:

Nvidia hat die Preise passend zu den Karten gebracht.
Schließlich arbeiten dort Profis, die wissen, was der Kunde bereit ist zu bezahlen. Würden die Karten nicht gekauft, hätte NV die Preise gesenkt. Jedoch verzichtet NV lieber auf Absatz und setzt auf höhere Marge.


Meine weitere Vermutung ist eine Absprache der Preise zwischen AMD und NV. Kann ich nicht belegen meine Theorie, aber bin mir recht sicher.


Zur Leistungs-Chipfläche-Preis-Betrachtung:
Gemessen am 4K Index ist die 4070 Ti (61,3% Leistung zu 50% Preis) und 4070 (49,1% Leistung zu 37,5% Preis) sogar noch als günstig einzustufen i.Vgl. zur 4080 und 4090.

betrachtet man die Chipgröße mit den FP32 Einheiten, so ist überdeutlich, dass der 4070 Chip der Abfallchip ist, denn dieser hat 35,9% Einheiten zu 48,4% Chipfläche. Bei den anderen Karten skaliert die Fläche mit Einheiten recht gleichmäßig. Jetzt wird auch klar, warum die 4070 so viel später als die 4070 Ti rauskam (über 4 Monate später, obwohl gleicher Chip!!): Nvidia musste erstmal genügend Mill-Chips ansammeln, um diese auf für die 4070 zu verwenden.

Man muss auch das Gute sehen:
Jeder Spieler hat die Möglichkeit, frei nach seinem Geldbeutel die Karten auszusuchen, die dann recht passend die Leistung abbilden.
Die Community und Techies verlaufen sich mit Ihrer Argumentation, die Karten hätten z.B. zu wenig VRAM (8GB) oder dieser sei zu schlecht angebunden (GTX970 4GB). Die 3070 8GB ist bspw. eine super Karte, die lange gehalten hat. Die Karten erfüllen ihren Zweck! Die 4070/Ti wird mit 12GB genau in die gleiche Kerbe einschlagen. 12GB ist das neue 8GB!
Alle anderen Texturen-Modder sollen laut NV im Regal eine Karte höher wählen. Das ist Verkaufsstrategie. (Upselling-Prinzip)

Calypso
2023-04-18, 00:20:55
Nimm's mir nicht übel, aber das ist für mich wieder die Kategorie "Ich mache mir das Leben ganz bewusst schwer, weil ich an Prinzipien festhalte". Man kann das für ehrenwert halten, aber am Ende leidest du unnötig. Ausgehend von einer GTX 1070 gibt es längst attraktive Aufrüstoptionen - von AMD. Eine Radeon RX 6700 XT für 400 Euro ist mehr als doppelt so schnell, eine Radeon RX 6800 XT für 570 Euro ist sogar dreimal so schnell (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/) - mit Ausreißern, die deutlich darüber gehen. Beide haben genug Speicher.

Da sind wir wieder beim Kernproblem: Es kaufen trotzdem alle Nvidia - aber warum eigentlich, wenn alle paar Meter zu lesen ist, dass proprietäre Technologie doof ist? Die meisten PC-Spieler brauchen keine Geforce, die werden einfach von den falschen Leuten oder "Schwingungen" beeinflusst.

MfG
Raff

ich hab zwar nirgends geschrieben, dass ich mit wieder eine nvidia hole, aber seis drum. Mir gehts darum, dass ich Grafikkarten für ca. 200 Euro gekauft habe und dafür auch was an Leistung bekommen habe. Dafür müsste ich heute nun >600 Euro hinlegen? Ich wusste gar nicht, dass mein Gehalt um 300% gestiegen ist. Ach halt, ist es ja gar nicht. Ergo werde ich die Grafikkarte länger nutzen. Und wirklich preiswert ist AMD ja nun auch nicht - vielleicht ein bissel besser, aber definitiv kein Preisbrecher. Macht aber nix, Geld kann man auch gut in Kinder investieren, macht meist sogar mehr Spaß :tongue:

Schakar
2023-04-18, 02:53:21
Die 3070 8GB ist bspw. eine super Karte, die lange gehalten hat.
Wenn du ne 3070 jetzt schon ersetzt (ersetzen mußt) ... dann hat die nicht lange gehalten :D.

Bin von GF2 auf 460gtx auf 970gtx auf Arc A770 gesprungen. Die haben jeweils lange gehalten!

Wobei die nicht ausgetauscht wurden, weil sie defekt waren. Nur weil ihre Leistung nicht mehr ausreichte (970 wegen dem Speicher Problem). Die Karten liegen immer noch bei mir im Schrank für was auch immer. Aber sind ja nicht kaputt. Also mal aufheben für Notfälle.

Und die A770 weil es die einzige Karte für unter 400,-€ mit 16gb ist. Mehr wie 400,- bezahl ich nicht! Hab ich nie, werd ich nie! Verweiger ich schlicht. Selbst die einzige Alternative (6800(xt)) ist nicht unter 540,- bzw 570,- zu bekommen. Bei NVidia ist die "preiswerteste" *LOOOOL* ne 3080 für 1210,-.

Kein RT der Welt ist diesen irrsinnigen Aufpreis wert!!

Allgemein sollten Tests in der gleichen Preisklasse statfinden. Aka 400,- vs 400,- Karten. Wenn NVidia da nix hat ... ist Nvidia halt der Loser!
Und nicht hingehen mit "aber da ist doch diese doppelt so teure Karte, die besser ist".

Sprich gegen 1660 6gb, 2060 6gb oder 3060 6/12gb Testen.
Und dass dann auch entsprechend mit ner A770 als oberste darstellen. Nicht verfremden in dem man doch wieder ne 4070ti, 4080 rein packt, damit auch garantiert ne grüner Balken ganz oben steht!

Leonidas
2023-04-18, 04:25:09
Wieviel davon produziert wurde, wie schnell es abverkauft wird und welche Abnahme-Verpflichtungen Nvidia mit TSMC eingegangen ist wären auch noch ein Faktor, nicht nur "wie lange ist die Pipeline".

Stimmt, hab ich nicht eingerechnet. Wenn Sie für 3-4 Monate zu viel Lagerware hatten, kommt das oben drauf.

Trotzdem kommen wir nun langsam aber sicher in die Richtung: Hätten AMD/NV alles umgehend gestoppt, wäre RDNA2/Ampere nun leer. Aber man hat nur partiell gestoppt - und dies IMO bewußt denn man wollte einen fliessenden Übergang. Die jetzige Marktsituation ist IMO mehr gewollt als denn wirklich nur auf Basis von Überbeständen entstanden.

GerryB
2023-04-18, 06:58:31
https://www.techpowerup.com/307412/nvidia-to-target-usd-450-price-point-with-geforce-rtx-4060-ti

450$, may be knapp über 500€ in Dtl. (ist schon etwas mehr als damals 399€ für die 3060Ti)


btw.
Jensen spricht sich nur vorm Spiegel mit sich selber ab!
(Einstiegs-Graka am besten teuerer als die Konsolen, ... hatte Er mal als Ziel herausgegeben)

Gast
2023-04-18, 07:58:48
Nimm's mir nicht übel, aber das ist für mich wieder die Kategorie "Ich mache mir das Leben ganz bewusst schwer, weil ich an Prinzipien festhalte". Man kann das für ehrenwert halten, aber am Ende leidest du unnötig. Ausgehend von einer GTX 1070 gibt es längst attraktive Aufrüstoptionen - von AMD. Eine Radeon RX 6700 XT für 400 Euro ist mehr als doppelt so schnell, eine Radeon RX 6800 XT für 570 Euro ist sogar dreimal so schnell (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/) - mit Ausreißern, die deutlich darüber gehen. Beide haben genug Speicher.

Da sind wir wieder beim Kernproblem: Es kaufen trotzdem alle Nvidia - aber warum eigentlich, wenn alle paar Meter zu lesen ist, dass proprietäre Technologie doof ist? Die meisten PC-Spieler brauchen keine Geforce, die werden einfach von den falschen Leuten oder "Schwingungen" beeinflusst.
ki
MfG
Raff

Weil man gut aufgestellt sein will und bei RT und VR ist AMD einfach nix. Zumal RT ich nur einmal ausprobiert habe in der Quake 2 Demo - war ganz nett aber hat das Spiel selbst nicht besser gemacht. Ohne RT kann ich leben aber VR nicht.

Ich würde mich als wahren Enthusiasten bezeichnen. Ich zocke an einem Wohnort auf einem 75 Zoll 4K TV und am anderen Wohnort am 50 Zoll 4K TV. Da sitze ich aber näher dran :D

Zusätzlich habe ich noch eine Quest 2 und Rift CV1. Bei VR scheidet AMD allgemein aus, steht auch in genügend Reviews, dass es da Probleme gibt.
Am Monitor zocken, wie es 90% der Gamer machen, ist für mich keine Option. Das kann man zu Schulzeiten machen aber nicht als Erwachsener. :D

Meine guten TVs machen auch ein Super Upscaling. Meine Gäste können zwischen WQHD und 4K kaum unterscheiden auf dem TV. Selbst FHD sieht nicht viel schlechter aus. Guter TV ist wichtiger als jede Graka. Wird leider nur nirgends erwähnt.
Selbst zwischen FSR1 und Nativ sehe ich kaum einen Unterschied bei den TVs.

Trotzdem zocke sogar noch mit einer RTX 2060 / GTX 1070. Meine CPU ist sogar ein X5660 bzw. Ryzen 1600x.
Das liegt daran, dass ich erstmal eine gute Pile of shame abarbeite und mir ist ein gutes Spielgefühl/Story wichtiger ist als neueste bunti-bunti Grafik. Da sortiere ich knallhart aus. CPU bei 4K ist sowieso fast egal....

Im Gegensatz zu Grafikkarten, werden ständig neue Games aufgelegt, die auf alter Hardware laufen und einfach Spass machen. Ich habe noch fast 30 Games auf der Liste, die mit der Hardware laufen werden.

Wenn man natürlich sofort neue Games in 4K, RT und 100 FPS haben möchte, muss man eben investieren. Punkt. Weinen über Preise bringt nichts. Dann kann man statt 99,9998 auch 100% aller Games auf höchsten Details zocken. Zumal auch die Games mit weniger Settings laufen, dass in der Praxis kaum schlechter aussieht.

Meine nächste Investition wird sein die RTX 2060 zu ersetzen, wenn ich wieder mehr auf der Quest 2 zocken werde. Mal sehen was sich da ergibt...

Buddy Casino
2023-04-18, 08:47:52
Es kaufen trotzdem alle Nvidia - aber warum eigentlich, wenn alle paar Meter zu lesen ist, dass proprietäre Technologie doof ist?
Oder die Leute bewerten sinnigerweise Frame Generation > 0. Oder sie brauchen einen anständigen video encoder. Oder sie haben keine Lust auf verkrüppeltes RT. Oder sie wollen AI drauf laufen lassen. Oder sie wollen gute Energieeffizienz, weil von der Greta gebissen, oder weil sie ein ITX Gehäuse haben.

Ist FSR 3.0 schon draussen? Nein? AMD kopiert nur die Features die NVidia erfindet und ist null innovativ, natürlich wirkt sich das auf das Image aus.

Das Schema läuft doch immer so ab:
1. Nividia erfindet was, macht es natürlich proprietär um den Wettbewerbsvorteil zu erhalten (GSync, RT, Upsampling, Tensor Cores, FG, ...)
2. AMD kopiert es, aber jetzt natürlich als Offener Standard™, denn sie sind ja die Guten. Der eigentliche Grund ist natürlich sie hätten keinen Vorteil es proprietär zu machen, weil kein Alleinstellungsmerkmal, NVidia hats ja schon erfunden.

Glanz und Gloria gibts immer nur für den Vorreiter, die S-Klasse. Die Nachzügler sind vielleicht die Vernunftwahl, aber selbst dafür scheint es bei AMD nicht zu reichen, sonst sähen die Zahlen anders aus. Das Massenmodel ist ja normalerweise der VW Golf, nicht der Benz. Und trotzdem sind die Marktverhältnisse umgekehrt. Hä? Das sollte zu denken geben.

Wenn die einzige Erklärung die immer kommt "lol NPC Sheep" ist, sollte man kurz mal innehalten.

Gast
2023-04-18, 09:09:19
Wenn du ne 3070 jetzt schon ersetzt (ersetzen mußt) ... dann hat die nicht lange gehalten :D.

Alles was über 2 Jahre ist, ist lange.

Gast
2023-04-18, 09:31:40
Meine weitere Vermutung ist eine Absprache der Preise zwischen AMD und NV. Kann ich nicht belegen meine Theorie, aber bin mir recht sicher.




Da braucht es keine Absprache. Es ist ziemlich offensichtlich, dass AMD den Standalone Grafikkartenmarkt weitestgehend aufgegeben hat.

Die entwickeln GPUs nur mehr für den Semicustom bzw. APU Bereich, alles was da an Grafikkarten entstehen sind quasi "Abfallprodukte" dieser Entwicklung.
AMD will nicht mit Nvidia konkurrieren, und nimmt die hohen Preise gerne mit, weil man damit selbst mit niedrigen Stückzahlen ordentliche Margen einfahren kann.

Blase
2023-04-18, 09:57:14
Alles was über 2 Jahre ist, ist lange.

Äh, nein! :freak:

Also nach deiner Definition vielleicht, ok. Aber im Allgemeinen dürften das die meisten Leute anders sehen - und eine Karte schon länger "halten", als bis zum Erscheinen der unmittelbar nächsten Generation.

Ein Enthusiast mag sich jede Generation eine neue Karte kaufen, weil er einfach immer nach Möglichkeit gerne alle Regler rechts hätte. Im Bereich Mittelklasse dürfte das aber ganz anders aussehen...

MfG Blase

DozerDave
2023-04-18, 10:04:05
Ich habe auch eine andere Vorstellung von „lange“.
Mal sehen wie lange meine RX 580 noch durchhalten muss.

Exxtreme
2023-04-18, 10:04:07
Meine weitere Vermutung ist eine Absprache der Preise zwischen AMD und NV. Kann ich nicht belegen meine Theorie, aber bin mir recht sicher.


Halte ich in der Tat für sehr wahrscheinlich. Es wird eventuell keine direkte Preisabsprache sein. Denn wenn die Kartellbehörden dahinter kommen dann wird es richtig eklig, speziell in den USA. Man wird sich aber in der jetzigen Situation wohl nicht richtig wehtun und eher friedlich nebeneinander leben.

Alles was über 2 Jahre ist, ist lange.

Also meine RX 5700XT hat 4 Jahre lang gehalten. Ja, sie ist gut gealtert dank fine wine technology. Aber sie ist jetzt alt. Vor allem Antialiasing haut so richtig übel rein. Fehlt halt die Rohleistung.

Gast
2023-04-18, 10:54:54
Also nach deiner Definition vielleicht, ok. Aber im Allgemeinen dürften das die meisten Leute anders sehen - und eine Karte schon länger "halten", als bis zum Erscheinen der unmittelbar nächsten Generation.


Richtig, das hat aber nichts damit zu tun, dass eine Zeitspanne über 2 Jahre lange ist.

Jede 2. Generation zuzuschlagen ist denke ich ein recht vernünftiges Mittelmaß. Dass eine Generation mittlerweile eher über 2 Jahre "dauert" ändert nichts daran, dass 2 Jahre lange sind, und falls man sich weiterhin an alle 2 Generationen hält und damit eher 4 Jahre Abstand hat, dass dies ein extrem langer Zeitraum ist.

Pumpi74
2023-04-18, 11:37:07
Meine weitere Vermutung ist eine Absprache der ...

Das nVidia AMD bewusst das mehrspeicher Feature zu erschwinglichen Preisen lässt und im Einsteigerbereich nicht mehr so stark präsent ist kann auch einfach strategische Gründe haben. Zum einen braucht nVidia AMD als Konkurrenten, zum anderen kann es auch nicht schaden wenn ein potentes AMD gegen Intel auf CPU Seite richtig Druck ausüben kann. Intel war ja in den 10er Jahren so stark bei den CPU's das es einer Lizenz zum Gelddrucken gleich kam. Erstes Ziel von nVidia dürfte sein solch enorme Geldflüsse von Intel in die Entwicklung von GPU's zu verhindern.

Exxtreme
2023-04-18, 11:45:12
Richtig, das hat aber nichts damit zu tun, dass eine Zeitspanne über 2 Jahre lange ist.


Kommt drauf an. Wenn man gut kauft dann kommt man auch 4 Jahre lang sehr weit und überspringt drei Generationen. :) Und gut kaufen bedeutet in allererster Linie erstmal viel Rohleistung. Denn Rohleistung ist sehr universell und praktisch überall einsetzbar bzw. umwandelbar in zusätzliche Bildqualität.

Gast
2023-04-18, 12:06:53
Kommt drauf an. Wenn man gut kauft dann kommt man auch 4 Jahre lang sehr weit und überspringt drei Generationen. :)

Ändert aber weiterhin nichts daran, dass 2 Jahre schon lange, und 4 Jahre sehr lange sind.

Schakar
2023-04-18, 14:09:45
Ändert aber weiterhin nichts daran, dass 2 Jahre schon lange, und 4 Jahre sehr lange sind.
Als ich mit Computern anfing empfand ich das auch so :). 2 Jahre waren eine Ewigkeit.

Nu bin ich 50++ und 2 Jahre sind mal garnix mehr :(. Die vergehen soooo schnell.
"bin doch gestern erst mit den Kids am See gewesen. Wo kommt der Freund plötzlich her?"
"hey Alter, das war vor 3 Jahren!!!"
:D:D

Es gibt Technologien, die altern schneller als andere.
Ne 5700XT und A770 sind solche. First Gen. Es kommt grade raus und man weiß quasi schon: die sind Experimental und bald überholt. Geb ich dir recht. Man muß sich klar sein, auf was man sich einläßt.

Andere werden bewußt so gebaut, dass sie schnell altern.
GraKas mit 8GB heute. Die sind bewußt auf "bald nutzlos" getrimmt. Die Preise für VRAM spielen da wirklich erst unter 200,-€ ne Rolle. Ein 16gbit Modul kann man für ca 30,-€ Kaufen. Wenn NV/AMD den Preis zahlen würd mich das stark wundern :).
Micron MT61K512M32KPA-24-U-TR z.b.

GraKas für 500+++ Euros mit nur 12GB gehören eigentlich verboten da geplante Obsoleszenz! Selbst dem letzten sollte heute klar sein, dass 16 GB VRAM absolutes Minimum in der Preisklasse sind.

Leonidas
2023-04-18, 14:25:26
Ich denke, Absprachen sind gar nicht notwendig. Beide Planungs-Teams dürften generell daran interessiert sein, der Konkurrenz nicht zu weh zu tun. Tut man es doch, zwingt man die Konkurrenz zu reagieren - und landet wieder bei der Ausgangsposition, hat dabei nix gewonnen (aber beide haben verloren).

Das würde sich nur ändern, wenn eines von beiden eintritt:
- AMD hätte mal den klar besseren Chip, womit das Holen von Marktanteilen obligatorisch wird
- AMD beschliesst strategisch (viel) mehr in die GPU-Abteilung zu investieren

Crazy_Borg
2023-04-20, 13:51:02
...
Es gibt Technologien, die altern schneller als andere.
Ne 5700XT und A770 sind solche. First Gen. Es kommt grade raus und man weiß quasi schon: die sind Experimental und bald überholt. Geb ich dir recht. Man muß sich klar sein, auf was man sich einläßt.
...

A770, bald überholt?
Inwiefern?

Die macht in ihrem Preisegment besonders als 16GB modell eine ordentliche Figur, und ihr fehlt jetzt auch kein Feature was der "Normaluser" (wir reden hier nicht von der nvidia-only >1000€ Fraktion!) vermissen würde.
Die AMD 5600/5700 Serie war ne Totgeburt ohne RTX zu den überzogenen Preisen damals, da stimme ich zu.

Raff
2023-04-20, 13:54:19
Die A770 16GB wird voraussichtlich sehr lange leben und vor allem durch neue Treiber zulegen, also reifen. FineWine, reloaded. Vielleicht lässt Intel die erste Generation auch schnell fallen, aber wir hoffen einfach mal auf das Gegenteil. Technisch ist ja alles da, inklusive "hochstufigem" Raytracing. RDNA 1 war hingegen schon zum Release im Sommer 2019 veraltet.

MfG
Raff