PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 21./22. Oktober 2023


Leonidas
2023-10-23, 09:43:06
Link zur News:
https://www.3dcenter.org/news/news-des-2122-oktober-2023

Denniss
2023-10-23, 12:31:10
Bleibt die Frage ob die 4070S ein 4070 oder eine 4070TI mit mehr speicher wird.
Wäre ja nicht das erste mal das Nvidias KArte mit mehr Speicher eher Augenwischerei sind siehe 3060 oder 4060 16GB

Raff
2023-10-23, 12:54:32
Bleibt die Frage ob die 4070S ein 4070 oder eine 4070TI mit mehr speicher wird.
Wäre ja nicht das erste mal das Nvidias KArte mit mehr Speicher eher Augenwischerei sind siehe 3060 oder 4060 16GB

Beides tolle Karten, die gerade perspektivisch immer besser wurden bzw. werden. Das Bashing dieser Modelle ergibt keinen Sinn - wenn, dann muss Nvidias Speichergeiz konsequent hart angegangen werden, denn aus Konsumentensicht ergibt der null Sinn.

MfG
Raff

NOFX
2023-10-23, 13:19:10
Es fehlt beim Speicher das sinnvolle Zwischending. Die 1,5 GB-Speicherchips wären da ein Segen.

Die 4060 mit 12 GB wäre super, ebenso die 4070 Ti mit 18 GB.

Gast
2023-10-23, 13:29:12
Es fehlt beim Speicher das sinnvolle Zwischending. Die 1,5 GB-Speicherchips wären da ein Segen.
Die Dinger wären aber im Einkauf vermutlich teurer als 2GB Chips wären. In der Herstellung ist der (im Vergleich zu 2GB) geringere Speicherbedarf zu wenig, um tatsächlich relevant Kosten zu sparten. Dafür hat der Hersteller aber deutlich mehr Aufwand durch mehr Produkte. Die höheren Kosten müsste der Ram Hersteller dann den Kunden (Grafikkarten-Herstellern) auf's Auge drücken, die das dann einfach weiter geben. Aktuell ist der Gain bei den 1,5GB Chips einfach recht gering, daher bietet das niemand an.
Mit den immer geringer werdenden Fertigungsverbesserungen wird das natürlich in Zukunft interessanter, aber aktuell ist das noch uninteressant.

dman
2023-10-23, 13:48:41
Eine 4080 Super mit 20GB für ~1200€ wäre ein Traum,wenn die Karte mit AD102 dann noch 4090 Leistung hat bin ich gewillt zu wechseln.

Lehdro
2023-10-23, 14:04:23
Die Dinger wären aber im Einkauf vermutlich teurer als 2GB Chips wären. In der Herstellung ist der (im Vergleich zu 2GB) geringere Speicherbedarf zu wenig, um tatsächlich relevant Kosten zu sparten. Dafür hat der Hersteller aber deutlich mehr Aufwand durch mehr Produkte. Die höheren Kosten müsste der Ram Hersteller dann den Kunden (Grafikkarten-Herstellern) auf's Auge drücken, die das dann einfach weiter geben. Aktuell ist der Gain bei den 1,5GB Chips einfach recht gering, daher bietet das niemand an.
Mit den immer geringer werdenden Fertigungsverbesserungen wird das natürlich in Zukunft interessanter, aber aktuell ist das noch uninteressant.
Dasselbe Argument gab es auch bei RAM, aber wie man aktuell sieht, war das völlig hanebüchen. Das billigste (Preis pro GiB) RAM Kit mit 5600+ ist übrigens derzeit ein 48 GiB Kit (https://geizhals.de/?cat=ramddr3&sort=r&xf=15903_DDR5%7E15903_keinSO%7E254_5600) - also nein, der Kostenfaktor ist es definitiv nicht. Selbst bei schnellerem Speicherstandard ist oft der "ungerade" RAM vorne, preislich teilweise sogar deutlich pro GiB.

NV lässt zudem immerhin exklusiv die X Varianten (GDDR5X, GDDR6X) beim Grafikspeicher fertigen und das scheint rein kalkulatorisch auch aufzugehen. Wieso dann nicht 1.5 GiB Module, die sogar andere nutzen könnten und nicht nur NV? Der Anwendungsbereich wird doch noch viel gigantischer, muss man nur mal auf die Konsolen, Laptops usw. schielen.

Platos
2023-10-23, 14:14:23
Beides tolle Karten, die gerade perspektivisch immer besser wurden bzw. werden. Das Bashing dieser Modelle ergibt keinen Sinn - wenn, dann muss Nvidias Speichergeiz konsequent hart angegangen werden, denn aus Konsumentensicht ergibt der null Sinn.

MfG
Raff

Bei der 4060Ti macht das "Bashing" sehr wohl sinn und zwar wegen dem Preis. Am Ende zählt immer P/L, vor allem in dieser Perfomanceklasse.

crnkoj
2023-10-23, 14:23:42
Bei der 4060Ti macht das "Bashing" sehr wohl sinn und zwar wegen dem Preis. Am Ende zählt immer P/L, vor allem in dieser Perfomanceklasse.

Wegen des Preises

Leonidas
2023-10-23, 14:42:59
Dasselbe Argument gab es auch bei RAM, aber wie man aktuell sieht, war das völlig hanebüchen. Das billigste (Preis pro GiB) RAM Kit mit 5600+ ist übrigens derzeit ein 48 GiB Kit (https://geizhals.de/?cat=ramddr3&sort=r&xf=15903_DDR5%7E15903_keinSO%7E254_5600) - also nein, der Kostenfaktor ist es definitiv nicht. Selbst bei schnellerem Speicherstandard ist oft der "ungerade" RAM vorne, preislich teilweise sogar deutlich pro GiB.

Ich glaube nicht, dass das gut vergleichbar ist. DDR5 wird überall benötigt, von Consumer bis Server. GDDR6 & GDDR6X nehmen faktisch nur drei Hersteller ab (AMD, NV, Intel) und es existiert daneben keinerlei "Markt". Die Herstellungs-Menge für 1,5-GByte-Chips ist unkalkulierbar, wenn nicht AMD, NV, Intel von vorn herein sagen "brauche ich". Daher werden 1,5-GByte-Chips von GDDR6 auch gar nicht erst hergestellt. Ohne Angebot wiederum ist es für die Grafikchip-Entwickler eine unkalkulierbare Größe.

Raff
2023-10-23, 15:14:01
Bei der 4060Ti macht das "Bashing" sehr wohl sinn und zwar wegen dem Preis. Am Ende zählt immer P/L, vor allem in dieser Perfomanceklasse.

Müßige Diskussion, die das Produkt nicht schlechter macht. Die RTX 4060 Ti 16GB ist nun unter 500 Euro gefallen und es gibt bereits Grenzfälle, wo eine RTX 4070 platt geht, die Ti-16G nicht. Nuff said. Mehr Produkte mit mehr Speicher sind gut, auch wenn Nvidia die traditionell nicht verschenkt.

MfG
Raff

Exxtreme
2023-10-23, 15:20:44
Bei der 4060Ti macht das "Bashing" sehr wohl sinn und zwar wegen dem Preis. Am Ende zählt immer P/L, vor allem in dieser Perfomanceklasse.

P/L-Verhältnis ist ein Faktor unter vielen. Kann gut sein, dass man diesen Faktor schlicht weniger gewichtet um sich Ruhe zu erkaufen.

Lehdro
2023-10-23, 15:55:06
Ich glaube nicht, dass das gut vergleichbar ist. DDR5 wird überall benötigt, von Consumer bis Server. GDDR6 & GDDR6X nehmen faktisch nur drei Hersteller ab (AMD, NV, Intel) und es existiert daneben keinerlei "Markt".
Konsolen hast du vergessen, das ist ein Riesenmarkt. Gut für die aktuelle Gen ist das gelaufen, aber für die nächste Gen sicherlich wieder interessant.

Die Herstellungs-Menge für 1,5-GByte-Chips ist unkalkulierbar, wenn nicht AMD, NV, Intel von vorn herein sagen "brauche ich". Daher werden 1,5-GByte-Chips von GDDR6 auch gar nicht erst hergestellt.
Ohne Angebot wiederum ist es für die Grafikchip-Entwickler eine unkalkulierbare Größe.
Aber es ist kalkulierbar, siehe die exklusiven X-Varianten des Grafikspeichers. NV (oder auch AMD) könnten locker eine Mindestabnahme garantieren und das damit anschieben. Dann bliebe ihnen eine Peinlichkeit wie die 4060 Ti 16 GiB in Zukunft erspart.

Denniss
2023-10-23, 18:12:17
sowas meinte ich ja oben mit 3060/4060 16GB
größere Modell mit weniger VRAM kommen in Probleme weil der VRAM ausgeht, die kleinen mit mehr VRAM halten zwar länger durch aber auf niedrigerem Leistungsniveau da die einfach nicht genug Dampf haben.
Das ist bei AMD schon länger deutlich besser ausbalanciert, die haben dafür andere Probleme.

Platos
2023-10-24, 01:26:46
Müßige Diskussion, die das Produkt nicht schlechter macht. Die RTX 4060 Ti 16GB ist nun unter 500 Euro gefallen und es gibt bereits Grenzfälle, wo eine RTX 4070 platt geht, die Ti-16G nicht. Nuff said. Mehr Produkte mit mehr Speicher sind gut, auch wenn Nvidia die traditionell nicht verschenkt.

MfG
Raff

Doch, natürlich macht ein hoher Preis das Produkt schlecht...Die Produktleistung ergibt sich immer aus dem, was man kriegt und dem, was man dafür hergeben muss.

Das von einem Redakteur zu lesen, der Hardware bewertet, ist schon äusserst fragwürdig. Mit der Einstellung wird man ja bei dir nicht gerade viel Kritik erwarten können bei Preiserhöhungen bzw. schlechten Preisen. Oder wie muss man das verstehen?

Leonidas
2023-10-24, 04:56:55
Aber es ist kalkulierbar, siehe die exklusiven X-Varianten des Grafikspeichers. NV (oder auch AMD) könnten locker eine Mindestabnahme garantieren und das damit anschieben. Dann bliebe ihnen eine Peinlichkeit wie die 4060 Ti 16 GiB in Zukunft erspart.

Ich halte es einfach für schwieriger, 1,5-Gybte-Chips auf einer Grafikkarte das erste Mal zu verwenden anstatt GDDR6X auf 3-4 Grafikkarten. Zumal letztere in den HighEnd-Bereich gehen und der Mehrpreis auf den Endkunden umgeschlagen wird.

Die Frage hier ist: Wieviel günstiger kommt den der 1,5-Gbyte-Chip, wenn man nur eine Grafikkarte damit ausstattet? Und ist die Preisdifferenz zum 2-GByte-Chip nicht vielleicht ein totaler Abtörner für den nVidia-Einkäufer? Gut möglich, dass man für eine maximal mittelgroße Serie am Anfang keinerlei Preisnachlass bekommt.

Raff
2023-10-24, 09:09:54
Doch, natürlich macht ein hoher Preis das Produkt schlecht...Die Produktleistung ergibt sich immer aus dem, was man kriegt und dem, was man dafür hergeben muss.

Das von einem Redakteur zu lesen, der Hardware bewertet, ist schon äusserst fragwürdig. Mit der Einstellung wird man ja bei dir nicht gerade viel Kritik erwarten können bei Preiserhöhungen bzw. schlechten Preisen. Oder wie muss man das verstehen?

Du verstehst meine Postings generell, wie du möchtest: irgendwie negativ. ;)

MfG
Raff

Platos
2023-10-24, 10:20:56
Ja wie muss ich es denn verstehen? Habe ich doch gefragt am schluss?

Hört sich für mich auf jeden Fall so an, als wäre der Preis für dich kein so wichtiges Argument bzw. nicht der ausschlaggebende Punkt bei einer Grafikkarte.

NOFX
2023-10-24, 10:25:15
Ich halte es einfach für schwieriger, 1,5-Gybte-Chips auf einer Grafikkarte das erste Mal zu verwenden anstatt GDDR6X auf 3-4 Grafikkarten. Zumal letztere in den HighEnd-Bereich gehen und der Mehrpreis auf den Endkunden umgeschlagen wird.

Die Frage hier ist: Wieviel günstiger kommt den der 1,5-Gbyte-Chip, wenn man nur eine Grafikkarte damit ausstattet? Und ist die Preisdifferenz zum 2-GByte-Chip nicht vielleicht ein totaler Abtörner für den nVidia-Einkäufer? Gut möglich, dass man für eine maximal mittelgroße Serie am Anfang keinerlei Preisnachlass bekommt.
Ich denke, dass es für den Hersteller garnicht mal günstiger sein muss. Es würden ja sogar kastrierte Chips auf 1,5 GB ausreichen, um einen deutlich sinnvollere 4060 Ti 12 GB zu bringen.

Die darf ja auch mehr kosten, sollte halt nur nicht (wie Raff schon schreibt, dass es ja schon passiert) die nächstgrößere Karten manchmal in den Schatten stellen. Dann wird nämlich ein unverhältnismäßig hoher Aufschlag gefordert.

Eine 4060 Ti mit 12 GB von Anfang für 50€ Aufpreis wäre doch super, jetzt kostet die mit 16 GB nach Monaten immer noch 70€ mehr (ist ja bei > 100€ Mehrpreis gestartet) und der Sprung von 12 GB auf 16 GB bei der Karte bringt halt dem Benutzer sehr selten noch einen Mehrwert.

sirwuffi
2023-10-24, 10:29:07
Ja wie muss ich es denn verstehen? Habe ich doch gefragt am schluss?

Hört sich für mich auf jeden Fall so an, als wäre der Preis für dich kein so wichtiges Argument bzw. nicht der ausschlaggebende Punkt bei einer Grafikkarte.
ist er letztendlich auch nicht. ein schlechtes produkt wird durch einen guten preis nicht besser. ein auto mit super motor aber miesem fahrwerk wird nicht besser wenns billig ist. es sich fährt immer noch schlecht. ähnlich eine grafikarte, die ihre rechenleistung nicht nutzen kann, weil ihr der vram fehlt, wird nur bedingt besser wenn sie billiger ist.

Exxtreme
2023-10-24, 10:32:08
Und Grafikkarten-RAM ist jetzt auch nicht so teuer. GDDR6X kostet glaub so um die 5 - 10 USD pro 8 GB. Dass Nvidia dafür 70 EUR mehr nimmt, sie tun es weil sie es können. An RAM sparen macht nur dann Sinn wenn man riesige Stückzahlen absetzen will. Und das ist bei >300 EUR-Grafikkarten schon nicht der Fall, dass man hier riesige Stückzahlen los wird.

Platos
2023-10-24, 13:01:05
ist er letztendlich auch nicht. ein schlechtes produkt wird durch einen guten preis nicht besser. ein auto mit super motor aber miesem fahrwerk wird nicht besser wenns billig ist. es sich fährt immer noch schlecht. ähnlich eine grafikarte, die ihre rechenleistung nicht nutzen kann, weil ihr der vram fehlt, wird nur bedingt besser wenn sie billiger ist.

Doch, wenn die Grafikkarte (4060 8gb) 150euro kosten würde, würde man über die 8GB hinwegsehen und einfach die Texturstufe runter stellen. Der Preis ist immer entscheidend.

Allerdings habe ich gar nie behauptet, dass ein Speicherkrüppel durch einen (leicht) niedrigeren Preis attraktiver wird. Ich weiss nicht, wie du darauf kommst. Ich sage, dass eine Karte, die technisch zwar gut abgestimmt ist (4060 16gb), deswegen noch lange kein gutes Produkt ist, wenn der Preis eben nicht stimmt.

Raff's Aussage war, dass er das Bashing nicht verstehen kann, weil die Karte ja technisch einwandfrei ist. Und ich sage: Guck mal auf den Preis, dann weisst du es!

Mehr muss ich dazu eig. nicht sagen.

Ich habe allerdings Raff gefragt, warum er das so sieht bzw. warum er so eine Aussage macht bzw. Inwiefern dass mit seiner journalistischen Tätigkeit als kritischen Tester zusammenpasst.

Das würde mich weiterhin interessern, Raff.

Tigerfox
2023-10-24, 19:48:12
Warum redet Ihr denn alle über 1.5GB VRAM-Chips, wir sind doch schon längst bei 2GB, sonst wären 12GB an 192Bit nur mit zwei Chips pro 32Bit-MC möglich, wie bei der 3090/Ti. Wir müssten jetzt eher auf 3GB-Chips hoffen, denn 4GB sind AFAIK noch nicht in Sicht. Angekündigt hat aber niemand was, zuletzt haben wir von ungeraden Speicherchips mit 1.5GB gehört, die aber AFAIK nie zur Marktreife gelangt sind.

Nützlich wäre es allemal. Was Nvidia mit dieser Generation teilweise gemacht hat, das Speicherinterface zu verkleinern, um nicht die Speichergröße verdoppeln zu müssen, sondern nur um 50% zu erhöhen (3070(Ti) 8GB -> 4070(Ti) 12GB, 3080(Ti) 10/12GB -> 4080 16GB), wäre so nicht nötig gewesen.
Ich bin mir aber nicht sicher, ob es nicht eher an der eingesparten Chipfläche liegt. Aber gerade in dem Fall wären 3GB-Chips ein Segen, wenn sie früher und mit weniger großem Aufpreis als 4GB-Chips kämen.

So oder so, Nvidia muss spätestens in der nächsten Generation wieder mehr Speicher bieten, sonst kauft das keiner mehr.

Zum Gerücht: Bisher für mich alles unbestätigtes Wunschdenken und ohne konkreten Termin, aber sicher nicht mehr dieses Jahr.

DozerDave
2023-10-24, 20:12:20
Ja klar „sonst kauft das keiner mehr“. Alle jammern aber haben trotzdem ne 40er im PC.
Komisch wie NVIDIA nur zu dem Marktanteil kommt…

NOFX
2023-10-25, 08:14:11
Warum redet Ihr denn alle über 1.5GB VRAM-Chips, wir sind doch schon längst bei 2GB, sonst wären 12GB an 192Bit nur mit zwei Chips pro 32Bit-MC möglich, wie bei der 3090/Ti. Wir müssten jetzt eher auf 3GB-Chips hoffen, denn 4GB sind AFAIK noch nicht in Sicht. Angekündigt hat aber niemand was, zuletzt haben wir von ungeraden Speicherchips mit 1.5GB gehört, die aber AFAIK nie zur Marktreife gelangt sind.
Stimmt :)

Also sagen wir einfach 1,5x2^x GB Chips. ;)

Nützlich wäre es allemal. Was Nvidia mit dieser Generation teilweise gemacht hat, das Speicherinterface zu verkleinern, um nicht die Speichergröße verdoppeln zu müssen, sondern nur um 50% zu erhöhen (3070(Ti) 8GB -> 4070(Ti) 12GB, 3080(Ti) 10/12GB -> 4080 16GB), wäre so nicht nötig gewesen.
Ich bin mir aber nicht sicher, ob es nicht eher an der eingesparten Chipfläche liegt. Aber gerade in dem Fall wären 3GB-Chips ein Segen, wenn sie früher und mit weniger großem Aufpreis als 4GB-Chips kämen.

So oder so, Nvidia muss spätestens in der nächsten Generation wieder mehr Speicher bieten, sonst kauft das keiner mehr.

Zum Gerücht: Bisher für mich alles unbestätigtes Wunschdenken und ohne konkreten Termin, aber sicher nicht mehr dieses Jahr.Ja, genau. Eigentlich muss man jede zweite Generation das Interface mittels Cache virtuell vergrößeren, so wie jetzt, um größere Speicherchips zu verbauen und dann wieder das Interface verbreitern und den Cache reduzieren.

Das hat AMD ja recht erfolgreich mit der 6000er Generation gehandhabt, da passte die Speichermenge eigentlich recht gut. Jetzt ist es auch wieder passend, weil der IF$ etwas beschnitten wurde und das Interface wieder verbreitert.

nVidia hat jetzt teilweise recht unpassende Speichermengen, die 4060 Ti hat mit 8 GB zu wenig für die Leistung bzw. den Preis, mit 16 GB dann wiederum zuviel. Mit weniger Cache und jeweils 4 GB mehr wegen eines breiten Speicherinterfaces oder 1,5 mal mehr wegen größerer Chips würden alle Karten unterhalb der 4090 deutlich runder aussehen.