PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 13./14. Oktober 2022


Leonidas
2022-10-14, 20:05:55
Link zur News:
https://www.3dcenter.org/news/news-des-1314-oktober-2022

Gast
2022-10-14, 20:18:04
Beim Kühlerdesign der 4090 wurden NV und Co. offenbar von dem Typen hier (https://www.youtube.com/watch?v=0frNP0qzxQc) beraten. ;D

Leonidas
2022-10-14, 20:20:38
Eigentlich hat er die stilechtere 4090 kreiiert.

hardtech
2022-10-14, 20:53:15
also echt jetzt. einen "unlauch" gibt es nun auch? nvidia ist immer für eine überraschung gut.

wie schlecht müssen die marketing leute bezahlt werden, um das vorab nicht zu wissen?!

mir kommt es so vor wie ein aprilscherz, diese meldung über die 4080 12gb. ich komme bei all dem geeiere gar nicht mehr aus dem staunen im negativen sinne heraus.

madshi
2022-10-14, 20:53:20
Good call, Nvidia. Jetzt noch die 4080 16GB auf max 899 USD senken, bitte.

Gast
2022-10-14, 21:00:09
Eine weiterer Fail ist die Entscheidung von NV, bei der 4090 schlechteren Speicher (21.2 Gbps) als bei der 4080 (23 Gbps) zu verwenden und stattdessen für nur 3% mehr Performance den Verbrauch um 100W zu steigern. Mit besserem Speicher hätte die 4090 die gleiche Performance bei 350W und deutlich kompaktere und günstigere Kühler & Stromversorgung. Auch der neue 16-Pin-Anschluss ist eigentlich überflüssig. Für diese komische Designentscheidung waren wohl die gleichen Leute verantwortlich wie für die "4080 12GB". :motz:

Platos
2022-10-14, 21:05:37
Du meinst wohl 699$ ?

iamthebear
2022-10-14, 21:16:03
Am Anfang dachte ich an Satire aber der Link führt wirklich zu Nvidia.
Ich habe schon wirklich viel erlebt aber das schlägt wirklich alles ;D

Ich kann nur mal hoffen, dass Nvidia auch versteht warum der Shitstorm so groß war: Es ist nicht der Name sondern der Preis für eine Karte, die so weit dem Topmodell liegt.

MiamiNice
2022-10-14, 21:27:10
Lols.
Ich weiß gar nicht was ich sagen soll.
Besser ist das XD

madshi
2022-10-14, 21:34:44
Du meinst wohl 699$ ?
In allen Ehren, das kannst Du wirklich nicht verlangen. Die 2080 hat bei Release 799$ gekostet (außer der FE), und das ist über 4 Jahre her. Die 3080 12GB hat bei Release ebenfalls 799$ gekostet. Ok, die 3080 10GB hatte nur 699$ gekostet, aber soweit ich mich erinnere, waren die 30xx Preise bei Release generell eine Überraschung, weil zu dem Zeitpunkt eine etwas höhere Preislage erwartet worden war.

Ich denke niemand hat ernsthaft die 4080 für 699$ erwartet. Ich hätte mich über 799$ gefreut. 899$ tut weh, wäre aber auch erklärbar: Seit Corona gab es einen Halbleitermangel und nun haben wir eine starke Inflation. Da können die Preise unmöglich stabil bleiben.

Mehr als 899$ ist dagegen aus meiner Sicht zu hoch für die 4080. Und ich denke, Nvidia wird den Preis auch entsprechend senken müssen. Aber ich vermute, die werden damit warten, so lange sie nur können, damit sie zwischendurch noch möglichst viele 30xx GPUs verkaufen können, um die riesigen 30xx Lagerbestände abzubauen...

konkretor
2022-10-14, 21:57:35
Ich bin überrascht wie schlecht die Intel Karten verfügbar sind.

Hab da auch mehr Angebot seitens Intel gehofft, hier gleich ein paar zehntausend Stück parat liegen zu haben.

Interesse ist ja wohl da

Gast
2022-10-14, 22:11:13
Ich denke niemand hat ernsthaft die 4080 für 699$ erwartet. Ich hätte mich über 799$ gefreut. 899$ tut weh, wäre aber auch erklärbar: Seit Corona gab es einen Halbleitermangel und nun haben wir eine starke Inflation. Da können die Preise unmöglich stabil bleiben.

Ursächlich dafür sind die extrem hohen Gewinnmargen von ~50%.
https://www.computerbase.de/2022-10/quartalszahlen-tsmc-schwimmt-nach-sommer-quartal-im-geld/
https://www.heise.de/news/Gewinnexplosion-bei-Nvidia-Siebtes-Rekordquartal-infolge-6488925.html

Die verdienen sich dumm und dusselig - so wie die Energiekonzerne(88 Mrd. € Zusatzprofit allein in DE).

Lehdro
2022-10-14, 22:21:24
Da habe ich doch direkt mein Getränk über den Monitor verteilt als ich das von NV gelesen habe. Holy Shit. Ich meine, gut für sie dass sie die Eier haben das durchzuziehen, aber eigentlich ist das die ultimative Offenbarung. Jensen ist kein Gott! You heard it here first!

Thomas Gräf
2022-10-14, 22:34:16
Naja nachdem die 4090 ja weggeht wie warme Semmeln könn'se sich nun wenigstens ein bissl Anstand leisten.

greeny
2022-10-14, 23:15:55
be quiet! präsentiert Adapterkabel für den 12VHPWR-Anschluss [TweakPC]

AOC Agon AGM600: Schnelle Gaming-Maus mit 16000 dpi, Kailh-Schaltern und nVidia Reflex [Notebookcheck]
Beelink GTR6 packt einen AMD Ryzen 9 6900HX samt Radeon 680M und viermal HDMI 2.1 in einen Mini-PC [Notebookcheck]
Leerzeile

BlacKi
2022-10-15, 00:45:53
den namen direkt zum launch 2x zu bringen war schon fail...

ob der unlaunch nun gut ist, würde ich mal trotzdem bezweifeln. die karte fehlt nun erstmal auf unbestimmte zeit im portfolio. also ist das kein vorteil.

was ist jetzt gut daran? nichts, die schlimme situation wurde durch das fehlen einer solchen karte verschlimmert. keine verbesserung zu erkennen.

Gast
2022-10-15, 00:53:50
Genau, die 4080 clown edition ist so amazing, das ihr sie gleich wieder streicht. Einfach nur lächerlich NV.

https://i.redd.it/ri2bcdsv4kt91.jpg

madshi
2022-10-15, 01:10:04
was ist jetzt gut daran? nichts, die schlimme situation wurde durch das fehlen einer solchen karte verschlimmert. keine verbesserung zu erkennen.
Es ist aus meiner Sicht aus 2 Gründen gut:

1) Höchstwahrscheinlich wird Nvidia irgendwann die gleiche (oder vielleicht eine um 2 SMs beschnittene Karte oder so) als 4070 oder 4070 Ti releasen, aber dann auch mit einem entsprechend niedrigeren Preis. Wenn sie die gleiche Karte als 4070 mit dem gleichen Preis releasen, wird der Shitstorm noch größer als er jetzt schon war, und das wissen sie diesmal auch. Ich denke aber, das ganze wird wahrscheinlich erst 2023 stattfinden, oder wann auch immer AMD es nötig macht.

2) Der Grund warum die 4080 12GB so teuer war, ist einzig und allein, daß sie die 30xx Karten gut aussehen lassen wollen, damit die sich noch so lange wie möglich gut verkaufen. Wenn es nun aber beide 4080 Modelle weiter gegeben hätte, wäre eine signifikante Preissenkung kaum möglich gewesen, sonst hätte die 4080 12GB die 30xx Karten unattraktiv gemacht. Da aber nun die 4080 12GB nicht mehr existiert, wird dadurch mehr Luft geschaffen, die 4080 16GB im Preis zu senken. Luft, die nicht da gewesen wäre, wenn es die 4080 12GB noch gegeben hätte. Daher denke ich, die es gut ist, daß die 4080 12GB nun fehlt, weil ich davon ausgehe, daß Nvidia früher oder später die 4080 16GB im Preis senken wird, und nun dazu mehr Luft hat, ohne den 30xx Karten zu stark in die Quere zu kommen.

BlacKi
2022-10-15, 01:18:07
sry, aber lieber hab ich die wahl, als nicht die wahlt zu haben. die 4080 12gb kann ich nächsten monat nicht kaufen. d.h. ich kann keine sub 300w kaufen mit dlss 3.0 und niedrigerem stromverbrauch als die 3090(ti).

das ist für mich kein vorteil. in keinster weise, sondern nur ein nachteil. irgendwann wird nv natürlich eine 4070 super oder ti mit ähnlicher bis gleicher performance anbieten. aber das passiert nicht jetzt, und wann ist unbekannt.

der unlaunch hat aus kundensicht nur nachteile. bisher hat mir keiner einen vorteil einer nun fehlenden karte nennen können. bitte wo? ist da ein vorteil.

GG sag ich da nur, well played community.

Lyka
2022-10-15, 01:19:26
bitte sowas im Club posten. Ich weiß, gewisse Threads sind mehr offtopic, aber es gibt keine Spielwiese :) (y)

Gast
2022-10-15, 02:31:12
Wenn es nur daran liegen würde das man z.B. Angst vor Klagen hätte weil zwei Karten mit unterschiedlicher Performance und GPUs "4080" heißen dann hätte die 12 GByte Karte nachträglich auch 4080 Gamers Edition oder sonst was nennen und im Preis senken und das Ganze dann als positive Nachricht - von wegen man denkt an seine Kunden - verkaufen können. Gefertigt wurden die Karten scheinbar wohl noch nicht, sonst hätte man die nicht streichen können.

Wenn man sich jedoch die Blöße gibt etwas von Lederjeckel ankündigen zu lassen und dann zu streichen dann muss man komplett umdisponieren. Vermutlich weil der Mitbewerb wohlmöglich eine 4090 nicht in der Raytracing Performance schlagen kann, aber dafür eine überteuerte 4070 zum Frühstück vernascht.

Leonidas
2022-10-15, 04:47:52
Leerzeile

Gefixt. Danke 4 Hinweis!

Orko
2022-10-15, 07:56:36
NV: "So, we’re pressing the "unlaunch" button on the 4080 12GB."

Ich persönlich finde das eine gute punktuelle Entscheidung seitens NV. Es erzeugt zumindest den Eindruck dass Kritik aus Kundenkreisen durchaus wahrgenommen wird.

Etwas weitwinklinger betrachtet habe ich irgendwie den Eindruck eines "Try & React" Ansatzes:

1) OK, wir kündigen drei RX4 Karten an mit unerwartetet hohen Preispunkten. Das wird sicher medial-relevante Proteste hervorrufen. Also brauchen wir weitere Punkte um den Aufmerksamkeits-Fokus etwas zu brechen.

2) DLSS 3.0 ist sowieso mit im Paket. Wenn wir bei den Redaktionen und Testern vorab etwas Druck aufbauen, dann haben wir schon mal einen zweiten Blitzableiter.

3) Dann lass uns zusätzlich noch die 4070 in 4080-12GB umbenennen. Das wird sicher Aufmerksamkeit auf sich ziehen (also von den anderen Themen abziehen). Mit der doppelten 4080 haben wir dann auch schon das perfekte Baueropfer, wenn nötig.

4) Dann 4090 launchen und genau aufpassen wie sich die Karte real verkauft. Wenn sich genug Käufer für den aufgerufenen Preis finden, ist alles OK, sonst müssten wir eher kurzfristig reagieren.

5) Dann ggf noch die Ankündigungsshow des Konkurrenten abwarten, was der so bietet (weitgehend bekannt) und vor allem zu welchen Preisen (vorab leider unbekannt).

6) Falls nötig dann reagieren. Wir haben alle Optionen:

Wenn wir wirklich die Preise senken müssen, dann nach der Konkurrenten-Ankündigungs Show. Back-Jebaitet ganz cooler move und so.

Wenn sich 4090 gut verkauft dann unlaunchen wir einfach die 4080-12GB. Mit 4090 und 4080-16GB können wir dann erst mal im Early-Adopter Bereich viel gutes Geld verdienen. Eine preisgünstigere 4080-12GB würde da dann aktuell nur stören. Wir bringen die dann als 4070 (ggf mit nachoptimierten Preispunkt, nachdem das Wettbewerber Portfolio bekannt ist) etwas später. Halt genau dann wenn aus den 4090 und 4080-16GB Verkäufen etwas die Luft raus ist. Das gibt uns auch mehr Zeit die RX3 Lagerware weiter abzubauen.


Aus Sicht NV kann ich in dem aktuellen 4080 12GB Unlaunch nur Vorteile erkennen.

Blase
2022-10-15, 08:40:29
sry, aber lieber hab ich die wahl, als nicht die wahlt zu haben. die 4080 12gb kann ich nächsten monat nicht kaufen. d.h. ich kann keine sub 300w kaufen mit dlss 3.0 und niedrigerem stromverbrauch als die 3090(ti).

das ist für mich kein vorteil. in keinster weise, sondern nur ein nachteil. irgendwann wird nv natürlich eine 4070 super oder ti mit ähnlicher bis gleicher performance anbieten. aber das passiert nicht jetzt, und wann ist unbekannt.

der unlaunch hat aus kundensicht nur nachteile. bisher hat mir keiner einen vorteil einer nun fehlenden karte nennen können. bitte wo? ist da ein vorteil.

GG sag ich da nur, well played community.

Ich kann deiner Argumentation folgen... aber ich sehe auch und grade für die community nur Vorteile hinsichtlich des jetzigen Rückzugs nVidias. Denn wenn der Shitstorm und damit der Druck jetzt vorab schon so groß war, dass sie sich zu solch einer Entscheidung genötigt fühlen (die ja wiederum medial und auch in der community für entsprechende Reaktionen führen werden), dann hat also die Gamer community eine Message in Richtung nVidia geschickt, die hoffentlich bei zukünftigen Entscheidungen noch nachhallen wird. So zumindest meine naive Hoffnung :freak: Der Vorteil liegt also hoffentlich in der Zukunft bei kommenden Produktreleases...

MfG Blase

madshi
2022-10-15, 08:56:13
Interessanterweise sagt MLID im neusten Video, daß der AD103 Chip Anfang des Jahres eigentlich noch für die 4070 geplant gewesen war. Soll heißen, die 4080 16GB (oder vielleicht eine etwas abgespeckte Version davon) sollte eigentlich die 4070 werden. MLID sagt nun, daß Nvidia die 4080 16GB auf 799$ senken sollte. Ich halte das im Moment für unwahrscheinlich, aber ich könnte mir vorstellen, daß Nvidia früher oder später auf 899$ gehen könnte.

madshi
2022-10-15, 09:21:02
der unlaunch hat aus kundensicht nur nachteile. bisher hat mir keiner einen vorteil einer nun fehlenden karte nennen können. bitte wo? ist da ein vorteil.
Praktisch gesehen sagt "Gamers Nexus" (YT) daß die AIB Partner erwarten, daß die 4080 12GB nun in 4070 oder 4070 Ti umbenannt wird, und dann zur CES (Anfang Januar) zu einem niedrigeren Preis released werden wird. Ob mit oder ohne Abspeckung ist noch nicht klar.

Heißt, Nachteil der ganzen Sache sind 1,5 - 2 Monate Verzögerung, dafür der Vorteil einer (hoffentlich deutlichen) Preissenkung, und vielleicht auch die Hoffnung auf eine Preissenkung der 4080 16GB.

MD_Enigma
2022-10-15, 09:38:39
Überraschende vertriebliche Wendung im Level once in a lifetime. Da muss wohl jemand anders als Linus Towalds oder EVGA das "Fuck You NVidia" Argument gebracht haben und hat ein umdenken provoziert. Unterm Strich gute und richtige Entscheidung. Die Person bitte mit Veto-Recht in die Marketing-Abteilung setzen.

Wisst ihr wovon ich heute nacht geträumt hab: Ich bin mit Lisa Sue und den RX Entwicklern zusammen im Büro und es wurde über die Verschiebung von RX7000 gesprochen. Danach ging ich mit den Entwicklern Billiard spielen und sie haben von "huhe problems" gesprochen. So sehr scheint mich das Thema gerade umzutreiben. Früher hatte man Sexträume ... heute so einen scheiss.

Frühstücksvideo:
as-aVVm9JZI

Fragman
2022-10-15, 10:37:06
Naja nachdem die 4090 ja weggeht wie warme Semmeln könn'se sich nun wenigstens ein bissl Anstand leisten.

Die werden jetzt eher die Chips von den Karten kratzen, neu selektieren und später als "echte" 4080 deutlich teurer verkaufen, genau wegen dem 4090 Ansturm.
Mal schauen wann die ersten Bilder von Chips auftauchen, bei denen aus der 4 im Codenamen mit Filsstift eine 3 gemacht wurde. :biggrin:

Gast
2022-10-15, 11:17:18
Mir tun die ganze Boardpartner von Nvidia leid.
Die RTX 4080 12GB wahr ja wohl eine reine Partnerkarte. Und die werden schon seit Wochen planen und vermutlich auch produzieren. Jetzt können die ihre Produktion stoppen, alle Karten aus der Lieferkette zurückrufen, einlagern und abwarten, was Nvidia neues plant.
Wenn die Glück haben, dürfen sie "nur" neue Kartons produzieren und alle Karten neu verpacken. Wenn sie Pech haben, ändert Nvidia die technischen Daten und die Karten müssen verschrottet werden oder die Kostenkalkulation stimmt nicht mehr...
Wer erinnert sich noch an den Abgang von EVGA ?

MiamiNice
2022-10-15, 11:45:56
der unlaunch hat aus kundensicht nur nachteile. bisher hat mir keiner einen vorteil einer nun fehlenden karte nennen können. bitte wo? ist da ein vorteil.

GG sag ich da nur, well played community.

Der Vorteil für die Kunden ist, dass sie nicht mehr verarscht werden. Interessenten, die diesen Krampf tatsächlich kaufen wollten, werden vor sich selbst beschützt. Das sieht man vielleicht nicht als Betroffener, die Erkenntnis wird aber irgendwann kommen.

gbm31
2022-10-15, 11:53:41
Naja nachdem die 4090 ja weggeht wie warme Semmeln könn'se sich nun wenigstens ein bissl Anstand leisten.

Seh ich auch so. Und muss lachen, hier schimpfen und woanders fleissig eigene 4090 Benches posten.

Platos
2022-10-15, 11:55:00
Naja nachdem die 4090 ja weggeht wie warme Semmeln könn'se sich nun wenigstens ein bissl Anstand leisten.

Anstand ist hald teuer ;D

Platos
2022-10-15, 11:56:38
Der Vorteil für die Kunden ist, dass sie nicht mehr verarscht werden. Interessenten, die diesen Krampf tatsächlich kaufen wollten, werden vor sich selbst beschützt. Das sieht man vielleicht nicht als Betroffener, die Erkenntnis wird aber irgendwann kommen.

Das würde ich auch sagen.

Im Sinne der Masse: Besser kein Produkt als ein Produkt, das pure verarsche ist.

Fairerweise gilt das aber auch für die 4080 16GB.

Die 4090 kann man noch gelten lassen, weil die hald das dicke-hose-modell ist.

In allen Ehren, das kannst Du wirklich nicht verlangen. Die 2080 hat bei Release 799$ gekostet (außer der FE), und das ist über 4 Jahre her. Die 3080 12GB hat bei Release ebenfalls 799$ gekostet. Ok, die 3080 10GB hatte nur 699$ gekostet, aber soweit ich mich erinnere, waren die 30xx Preise bei Release generell eine Überraschung, weil zu dem Zeitpunkt eine etwas höhere Preislage erwartet worden war.

Ich denke niemand hat ernsthaft die 4080 für 699$ erwartet. Ich hätte mich über 799$ gefreut. 899$ tut weh, wäre aber auch erklärbar: Seit Corona gab es einen Halbleitermangel und nun haben wir eine starke Inflation. Da können die Preise unmöglich stabil bleiben.

Mehr als 899$ ist dagegen aus meiner Sicht zu hoch für die 4080. Und ich denke, Nvidia wird den Preis auch entsprechend senken müssen. Aber ich vermute, die werden damit warten, so lange sie nur können, damit sie zwischendurch noch möglichst viele 30xx GPUs verkaufen können, um die riesigen 30xx Lagerbestände abzubauen...

Doch schon, ich verlange das eigentlich. Lieber nehme ich das selbe P/L bei gleichem Preis und gleichem Namen.

Ja, Namen sind nur Schall und Rauch, aber! wenn man anfängt bei gleichem Namen die Preise zu erhöhen, kriegt man nicht auf einmal auch mehr Leistung. D.h langfristig gesehen ist eine Preiserhöhung schlechter, selbst wenn man dafür das selbe P/L kriegt. Warum? Das sieht man perfekt bei Ada....

Ich weiss zwar, was du meinst, aber die 3080 12GB ist doch nicht der passende Vergleich. Die 10GB Version war die "normale" 3080 und von der aus gehts auch. Dass die 2080 teurer war, ist ja gerade der Witz. Bei Turing gabs schliesslich ne massive Preiserhöhung, ergo ist 699 nur gerecht gewesen und nicht etwa hinterhergeworfen.

Dass nvidia massiv Gewinn macht, hat ja schon ein anderer geschrieben.

madshi
2022-10-15, 12:30:20
@Platos, alles schön und gut, aber Du kannst nicht einfach ignorieren, daß es eine Inflation gibt, und daß seit Corona gerade im Halbleiter-Bereich vieles teurer geworden ist. Z.B. hat TSMC die Preise im Jahr 2022 um 15-20% angehoben.

Wenn Du nun Deine gewünschten 699$ vom 3080-Launch nimmst, und dann einfach nur die aktuellen TSMC-Preiserhöhungen drauf rechnest, dann landen wir schon im Bereich von etwa 800$ - 840$.

Von daher ist ein Preis von 699$ für die 4080 aus meiner Sicht vollkommen unrealistisch.

Ich verstehe ja, daß Leute es gerne hätten, wenn die Firmen alle "sozial" wären und was gutes für die Menschheit machen würden. Klar könnte Nvidia die Margen senken. Aber das würdest Du wahrscheinlich anders sehen, wenn Du Dein erspartes Geld in Nvidia Aktien investiert hättest.

Gast
2022-10-15, 12:32:30
sry, aber lieber hab ich die wahl, als nicht die wahlt zu haben. die 4080 12gb kann ich nächsten monat nicht kaufen. d.h. ich kann keine sub 300w kaufen mit dlss 3.0 und niedrigerem stromverbrauch als die 3090(ti).

das ist für mich kein vorteil. in keinster weise, sondern nur ein nachteil. irgendwann wird nv natürlich eine 4070 super oder ti mit ähnlicher bis gleicher performance anbieten. aber das passiert nicht jetzt, und wann ist unbekannt.

der unlaunch hat aus kundensicht nur nachteile. bisher hat mir keiner einen vorteil einer nun fehlenden karte nennen können. bitte wo? ist da ein vorteil.

GG sag ich da nur, well played community.


Du bist also enttäuscht darüber das du keine 4080 clown edition für schlappe 1400 kaufen darfst. Und eine 3090ti kannst du locker per powertarget auf 300 watt drosseln ohne großß performacne zu verlieren, 15% wenns hoch kommt, kommst du also immer noch über der 4060 raus. Und sparst direkt 300 Kröten. Und DLSS 3 ist kein Argument, da dafür native 80-100fps nötig sind, die dann per DLSS 2 auf 120 gepusht werden und mit FG verdoppelt. Das video von HWUB dazu ist sehr hilfreich. Dazu reicht die 4060 bei modernen spielen ohnehin nicht.

iamthebear
2022-10-15, 13:12:05
In allen Ehren, das kannst Du wirklich nicht verlangen. Die 2080 hat bei Release 799$ gekostet (außer der FE), und das ist über 4 Jahre her. Die 3080 12GB hat bei Release ebenfalls 799$ gekostet. Ok, die 3080 10GB hatte nur 699$ gekostet, aber soweit ich mich erinnere, waren die 30xx Preise bei Release generell eine Überraschung, weil zu dem Zeitpunkt eine etwas höhere Preislage erwartet worden war.

Man sollte vielleicht einmal damit anfangen, dass die "4080 16GB" ein < 400mm² Die ist und in etwa einer 3070 entspricht.

Ich denke niemand hat ernsthaft die 4080 für 699$ erwartet. Ich hätte mich über 799$ gefreut. 899$ tut weh, wäre aber auch erklärbar: Seit Corona gab es einen Halbleitermangel und nun haben wir eine starke Inflation. Da können die Preise unmöglich stabil bleiben.

Den Halbleitermangel gab es im GPU Bereich 2020 und 2021. Wenn man vom Automobil/Industriebereich absieht ist dieser gelöst und 2023 gibt es eine riesige Überproduktion.
Inflation mag sein aber die 5nm N5 Wafer kosten laut den Quartalsreports von TSMC im Schnitt immer noch um die 10K genauso wie die 7nm Wafer Anfang 2020.

An sich wären 899$ für eine 4080 je OK. Für eine AD102 4080 mit der Performance einer 4090.
Das was Nvidia hier als "4080 12GB" verkauft ist bestenfalls eine 4060 Ti und selbst da muss man schon ein Auge zu drücken.

Nvidia fährt hier dieselbe Strategie wie nach dem letzten Miningcrash: Man versucht fallende Umsatzzahlen durch noch höhere Preise aufzufangen.

Mehr als 899$ ist dagegen aus meiner Sicht zu hoch für die 4080. Und ich denke, Nvidia wird den Preis auch entsprechend senken müssen. Aber ich vermute, die werden damit warten, so lange sie nur können, damit sie zwischendurch noch möglichst viele 30xx GPUs verkaufen können, um die riesigen 30xx Lagerbestände abzubauen...

Im Moment brauchen sie glaube ich gar keine AD104 Karte launchen bis das ganze Ampere Zeugs weg ist. Ich frage mich nur was sie mit den 10 Mio. Wafern dann machen, die sie bereits bezahlt haben ;D

Troyan
2022-10-15, 13:17:15
Man sollte vielleicht einmal damit anfangen, dass die "4080 16GB" ein < 400mm² Die ist und in etwa einer 3070 entspricht.


Geile Logik. 500g Nudeln sind auch 500g. Wieso kosten die eigentlich aktuell 89cent und nicht 49cent wie vor zwei Jahren?

madshi
2022-10-15, 13:56:07
Man sollte vielleicht einmal damit anfangen, dass die "4080 16GB" ein < 400mm² Die ist und in etwa einer 3070 entspricht.
Das deckt sich mit der Aussage von MLID, daß der AD103 Anfang des Jahres noch für die 4070 geplant gewesen war.

Inflation mag sein aber die 5nm N5 Wafer kosten laut den Quartalsreports von TSMC im Schnitt immer noch um die 10K genauso wie die 7nm Wafer Anfang 2020.
Echt? Das hat die Presse irgendwie anders berichtet.

Aber selbst wenn das so stimmt, kannst Du doch TSMC 4-5nm Preise nicht mit Samsung 8nm Preisen vergleichen, oder?

Im Moment brauchen sie glaube ich gar keine AD104 Karte launchen bis das ganze Ampere Zeugs weg ist. Ich frage mich nur was sie mit den 10 Mio. Wafern dann machen, die sie bereits bezahlt haben ;D
Wahrscheinlich werden sie die Chips einfach auf Lager legen und dafür dann zukünftige Chip-Aufträge bei TSMC reduzieren? Zumindest wäre das für mich das einleuchtenste. Die große Frage ist, für wie lange im voraus Nvidia Wafter reserviert/beauftragt hat.

MD_Enigma
2022-10-15, 15:06:33
An sich wären 899$ für eine 4080 je OK.

Sorry, aber 899$ zzgl. MwSt bzw. 1100 Euro inkl. MwSt ist echt ne heftige Summe für so ein vergängliches Stück zweiter Klasse Hardware, das 30-40% von der Leistungsspitze entfernt ist, bzw. 50% wenn der Vollbaubau des Chips kommt. Das war mir bisher deutlich weniger wert. An der Einstellung ändet sich auch nichts. Das ist kein Haus, das man mit günstigen Zinsen über einen längeren Zeitraum verteilt. Das Ding ist nach ca. 6 Jahren zu langsam (Obsolenz-Faktor RAM) bzw. defekt (hab die letzten 2 Grafikkarten nach 4 Jahren backen müssen). 1200 Euro war früher mein Budget ohne Monitor. Und das hat damals sogar noch für eine 140 Euro Soundblaster gereicht. Das sollten heute Inflationsbereinigt 1600 Euro sein. Dafür bekomm ich heute nicht einmal die Grafikkarte in der alten Leistungsklasse.

Mag sein, dass ich in der Vergangenheit feststecke - aber bisher hat diese Vernunft nachhaltig zur Lebenszufriedenheit beigetragen. Werde ich nicht mehr ändern.

Dass eine 4080 eine 4090 ist, ist reines Wunschdenken.

Gast
2022-10-15, 17:11:22
Lol Nvidia, wieder mal versucht, wieder gescheitert. Nun klafft zwischen der 4090 und 4080 trotzdem noch eine riesige Lücke die man schnell mit einer 4080 ti schließen sollte, alias ADA102 in irgendeiner abgespeckten Variante. Sonst nimmt AMD diesen Bereich mit sicher gleich 2 oder 3 Karten auseinander.

Die 4080-12g war klare Konkurrenz zum GA102 in Form der 3080 10G, den man dann wohl kaum abverkauft bekommt und die Lager bis zur Decke vorliegen. Also ganz ohne Hintergedanken wars wohl nicht und vermutlich wird AMDs Karte zu dem Preispunkt schneller sein und auch mehr Speicher bieten.

Die 4080-12g war 'ne klare Fehlgeburt, auch die 4080 sieht nicht immens besser aus. Diese wird AMD vermutlich schlagen und weniger verlangen.

Gast
2022-10-15, 17:47:54
Geile Logik. 500g Nudeln sind auch 500g. Wieso kosten die eigentlich aktuell 89cent und nicht 49cent wie vor zwei Jahren?

Ebenfalls wegen der extrem hohen Gewinnmargen.
"Shell, der größte Ölkonzern Europas, verzeichnete im zweiten Quartal 2022 ganze 17,6 Mrd. Euro Gewinn – und damit fünfmal so viel wie im zweiten Quartal 2021. Zum Vergleich: Von April bis Juni 2021 waren es 3,3 Mrd. Euro. Dieser Ansprung lag vor allem an höheren Preisen und Raffineriemargen. Auch bessere Ergebnisse im Gas- und Stromhandel trugen ihren Teil zu dem Ergebnis bei."
https://www.capital.de/geld-versicherungen/energiekrise--so-viel-gewinn-haben-die-oelkonzerne-bisher-gemacht-32598808.html

CD-LABS
2022-10-15, 18:44:04
CB-Crossposting:
Das löst jetzt natürlich das absolute NoGo, dass zwei vollkommen unterschiedliche Karten den gleichen Namen trugen. Allerdings lösen sich dadurch die anderen Probleme des Benennungsschemas noch lange nicht. Vergleiche dazu diese News von vorgestern:
https://www.computerbase.de/2022-10...nd-zwischen-rtx-4080-und-rtx-4090-ist-riesig/
→ auch die 4080 16GiB trägt keinen sinnvollen Namen.

Abseits dessen ist das Posting von Nvidia schon sehr dreist geschrieben. Klar, etwas Selbstbewusstsein sollte in so einer wie mans macht, man macht es falsch-Situation schon gezeigt werden.

Ein Vorschlag für eine immer noch selbstbewusste Variante:
Der Launch unserer Produkte sollte nicht von Namensdiskussionen überschattet werden. Daher räumen wir alle Benennungsprobleme im Vorfeld aus. Wir haben die Situation erkannt und beheben alle Ursachen für Verwirrungen.
Also 4080 16GiB wird 4070, 4080 12GiB wird 4060.

(...) bisher hat mir keiner einen vorteil einer nun fehlenden karte nennen können. bitte wo? ist da ein vorteil.(...)
Das hat noch wirklich niemand geschafft? Krass. Ich habe gleich drei Vorschläge:

Der Launch der 4080 16GiB wird nicht von der 4080 12GiB überschattet. Entsprechend aufgeräumter lesen sich die Reviews und Kommentarsektionen.
Die 4080 12GiB wird nicht in die Hände von unbedarften Kunden gelangen, die bloß eine 4080 mit einem Viertel weniger Speicher (aber gleicher Geschwindigkeit) kaufen wollten.
Es besteht die Chance, dass der Chip danach in ausreichender Anzahl angeboten und direkt halbwegs richtig platziert werden wird.

N0Thing
2022-10-15, 23:16:12
Ich bin überrascht, dass Nvidia so einen Rückzieher macht. Eigentlich hätten die 4080 16GB und 12GB auch als 4070 und 4060 Ti vermarktet werden können, wenn man die verwendeten Chips und deren Abstand zur 4090 heran zieht. Aber dann hätte man nicht die angekündigten Preise verlangen können, ohne noch mehr auf die Mütze zu bekommen.

Das Argument, die Kunden wären sonst verwirrt, hat Nvidia bei der 3080 auch nicht gestört.

MiamiNice
2022-10-16, 09:34:42
Mich überrascht es auch, der Aufschrei war zu groß.
Aber der eigentliche Skandal ist DLSS3. Hier schreit aber kaum einer.

Troyan
2022-10-16, 09:36:28
Die 3080 12GB kam zur Mininzeit und war die einzige 3080, die man zeitlich kaufen konnte. Auch wurde die 10GB vorher eingeführt und jeder würde denken, dass die 3080 12GB nur mehr Speicher hätte. Auch sind die Unterschiede nicht so krass wie bei den beiden 4080 Karten.

Gast
2022-10-16, 10:06:18
Mich überrascht es auch, der Aufschrei war zu groß.
Aber der eigentliche Skandal ist DLSS3. Hier schreit aber kaum einer.

Bei Igorslab gibt es ja ein ziemlich detaillierten Artikel dazu. Dort sieht man die vor und Nachteile. So ganz schlecht scheint es nicht zu sein. Aber tatsächlich scheint die Option dlss 2.3 mit game reflex die bessere Option für die 4090 mit der hohen performance zu sein. Genügend fps und zu gleich sehr gute Latenzen. Und das in cp2077. Bei anderen spielen sollte es noch mehr Vorteile haben. Für die Zukunft wird aber FG wahrscheinlich sehr gut sein, da wirst du Spiele, die sonst nicht spielbar wären, problemlos, zumindest im Single Player oder nicht fps Spiele, noch problemlos spielen können, wo man sonst längst eine neue Karte kaufen müsste. Sprich die 4090 sollte für zumindest 4 Jahre, aber eher noch mehr für die neuesten Spiele alltagstauglich sein.
Lediglich in competitiven fps spielen scheint das FG suboptimal zu sein.
Das ist jetzt kein fanboyismus, oder Entschuldigung für nvidia, sondern das aktuelle Bild. Ich bin auch über die Preise empört. Wollte die 4090 kaufen, aber der Preis ist einfach massiv überproportional hoch bei uns/in der eu, geschweige die 4080 16/12. Für 1599 hätte ich sie gekauft.

Gast
2022-10-16, 10:25:49
Zu vermuten ist eher das die 4080 als 12g massive Konkurrenz durch AMD bekommt, weil man hier eben den Ada104 verwendet. AMD wird schneller sein und mehr Speicher bieten, wohl zum niedrigeren Preis. Damit passt die 4080 nicht mehr, wenn bspw eine 6750XT oder 7800 non XT der 4080 um die Ohren haut. Warum der Name nun nicht mehr passen sollte müsste Nv mal erklären, von der 3080 gibt es auch eine 12g Variante die in den meisten Fällen kaum Vorteile bietet und der 3080ti Konkurrenz macht, aber auch von der 6900xt geschlagen wird. Genau die Dinger liegen doch zu Hauf in den Lagern von Nv und bei den Partnern. Genau dort hat AMD auch die Preisschrauben im Preiskampf angesetzt und Nv einen Tritt verpasst.


Schwachsinns Ausrede, die 4080 12G wird wohl klar zu langsam sein. Kommt davon wenn man so im Portfolie querbeet und rigeros abspeckt, aber dafür viel Geld haben will. Lederjacke wieder...:rolleyes:.

Das AMD ein Haloprodukt wie eine 4090 bringt ist kaum vorstellbar, sie werden die 4080 Serie angreifen und dort sicher auch ein Wörtchen mitreden. Da passt der Ada104 kaum zum N31. Selbst der Ada103 wird es schwer haben. Genau da drückt Nv der Schuh.

Complicated
2022-10-16, 10:42:45
Man muss auch in der Lage sein eine 4070 bei attraktiven Preise liefern zu können - Nvidia hat sich hier die Zeit erkauft Stocks aufzubauen und entlastet auch die Abnahme bei den AIB-OEMs, die nach wie vor Unterstützung brauchen die Lager leer zu machen. Die waren vermutlich nicht glücklich fertige Designs wieder offline zu nehmen, doch diese werden ja nur geschoben und womöglich einfach neu bezeichnet. Aktuell sind alle Entscheidungen auf reduzieren der Lager ausgerichtet. Siehe auch Mining-Freigabe im Treiber für die 3xxx-Generstion.

Aroas
2022-10-16, 12:09:31
Aktuell sind alle Entscheidungen auf reduzieren der Lager ausgerichtet. Siehe auch Mining-Freigabe im Treiber für die 3xxx-Generstion.

Dumm nur, dass das GPU Mining so gut wie tot ist und das jetzt einfach mal gar nichts mehr bringt.

Wenn sie die Lager wirklich leeren wollen, dann müssen die Preise einfach mal deutlich runter. Insbesondere im unteren Leistungsbereich.
Aber da bewegt sich einfach mal gar nichts. Eine RTX 3050 kostet nach wie vor 300€ und mehr, obwohl das schon zu Release zuviel war.

Da bringt es nichts, die arschteuren 3090(Ti) günstiger zu machen. Wer sich bis heute keine solche Karte für über 1000€ gekauft hat, wird es auch jetzt nicht mehr tun.

Wenn man ein Produkt "abverkaufen" will, dann geht das einfach nur über Preissenkungen, ansonsten gibts doch für die potenzielle Kundschaft gar keinen Anreiz zum Kauf.

Complicated
2022-10-16, 12:52:49
Hier geht es nicht um abverkaufen, sondern zu verhindern, dass noch mehr in den Gebrauchtmarkt kommt. Die 4070 Leistungsklasse der 3er-Generation ist nochmal größer im Volumen. Bei den Neupreisen und fehlendem Angebot in der gewünschten Leistungsklasse behält jeder erst einmal die verbaute ältere 1xx/2xx/3xx. AMD könnte das versuchen auszunutzen. Möglicherweise wurde bekannt, dass AMD das Portfolio nach unten ebenfalls erst später bestückt.

raumfahrer
2022-10-16, 13:23:20
[...] Für die Zukunft wird aber FG wahrscheinlich sehr gut sein, da wirst du Spiele, die sonst nicht spielbar wären, problemlos, zumindest im Single Player oder nicht fps Spiele, noch problemlos spielen können, wo man sonst längst eine neue Karte kaufen müsste. [...]

FG gleich Zwischenbildberechnung denke ich? Soweit ich die Messungen von Hardware Unboxed (https://www.youtube.com/watch?v=GkUAGMYg5Lw) richtig interpretiere ist genau das ja nicht der Fall. Zwar wird es visuell "smoother", aber alles was Input/Lag angeht bleibt es bei dem was die Kiste eben kann. Und wenn die Engine kein gutes low FPS handling hat, bekommt man dann eher so einen Unreal Engine 3(?)-Effekt (hat evtl. nicht alle Spiele betroffen): zwischen 60 und 80-90 FPS war es zwar "smooth", aber die Steuerung war schrecklich.

HU machen auch die sehr wichtige Anmerkung, dass man DLSS3 "Performance" (in Anführungszeichen) _niemals_ in das selbe Balkendiagramm packen sollte wie Messungen ohne Zwischenbildberechnung.

madshi
2022-10-16, 13:48:06
Weiß jemand, ob sich bei DLSS3 noch etwas anderes verbessert hat außer der Zwischenbildberechnung? Wenn ich die Zwischenbildberechnung ausschalte, kriege ich dann 100% das gleiche was DLSS2 macht? Oder hat DLSS3 vielleicht die DLSS2 Algos auch noch ein bißchen verbessert?

Gast
2022-10-16, 13:56:34
HU machen auch die sehr wichtige Anmerkung, dass man DLSS3 "Performance" (in Anführungszeichen) _niemals_ in das selbe Balkendiagramm packen sollte wie Messungen ohne Zwischenbildberechnung.
Aber dann wäre der Zugewinn für den Preis viel zu wenig. Das interessiert schon wieder niemanden mehr, um sich schön reden zu können die 4090 ist doch so toll.

Genau an die Geschichte in UE dachte ich auch, war schrecklich, du hast 90 oder 100 Bilder und klebst am Inputlag, da bringen dir die Bilder einfach nichts. Und sein wir mal ehrlich, Nvidias Absicht ist doch damit zu glänzen, um mehr geht es denen nicht. Sie wissen also schon in Vorfeld das der Leistungszugewinn einfach enttäuschend ist. Drei Nodes und so ein Kramp, 7nm -> 5nm -> 4nm und im Schlimmsten Fall +30% unter bestimmten Games, einfach lachhaft ist das. Ja das gab es wirklich noch nie, so schlecht!

Das ist den ganzen Testern auch völlig egal, da liest man brachjal schneller oder das schnellste das je gelauncht wurde, ja nun - wenn einen neue Gen langsamer als die Alte ist, sollte man sie nicht launchen! Was ein beschissenes Marketing von manchen Redakteuren dessen Arbeitgeber am Verkauf der Nvidia Karten mitverdienen, wie bspw. Computec. Von daher braucht man von denen nicht erwarten, dass sie im Rahmen solcher Kooperationsverträge auch nur einen Hauch an Kritik oder Logik in ihre Artikel einfließen lassen. Dann dreht ihnen Nvidia nämlich den Hahn zu!

Leonidas
2022-10-16, 13:57:20
Bislang keine Info hierzu, ergo gehe ich von keinerlei Verbesserung an DLSS2 aus.

Gast
2022-10-16, 13:59:55
FG gleich Zwischenbildberechnung denke ich? Soweit ich die Messungen von Hardware Unboxed (https://www.youtube.com/watch?v=GkUAGMYg5Lw) richtig interpretiere ist genau das ja nicht der Fall. Zwar wird es visuell "smoother", aber alles was Input/Lag angeht bleibt es bei dem was die Kiste eben kann. Und wenn die Engine kein gutes low FPS handling hat, bekommt man dann eher so einen Unreal Engine 3(?)-Effekt (hat evtl. nicht alle Spiele betroffen): zwischen 60 und 80-90 FPS war es zwar "smooth", aber die Steuerung war schrecklich.

HU machen auch die sehr wichtige Anmerkung, dass man DLSS3 "Performance" (in Anführungszeichen) _niemals_ in das selbe Balkendiagramm packen sollte wie Messungen ohne Zwischenbildberechnung.
Weiß jemand, ob sich bei DLSS3 noch etwas anderes verbessert hat außer der Zwischenbildberechnung? Wenn ich die Zwischenbildberechnung ausschalte, kriege ich dann 100% das gleiche was DLSS2 macht? Oder hat DLSS3 vielleicht die DLSS2 Algos auch noch ein bißchen verbessert?
Echt leute, kuckt euch den Beitrag bei Igroslab an. dort wird das alles erklärt.
Und die Latezn bleibt nicht gleich, sondern wird um 10ms höher dabei.
aber wie gesagt, ausser der wirklich hardcore (multiplayer) fps shootern, sollte das aber nicht so sehr das Problem sein.

https://www.igorslab.de/nvidia-geforce-rtx-4090-fe-im-dxr-dlss-reflex-und-frame-generation-test/

madshi
2022-10-16, 14:00:07
Schade, aber danke für die Info. Etwas merkwürdig, daß das scheinbar noch keiner richtig getestet hat.

raumfahrer
2022-10-16, 15:09:20
Echt leute, kuckt euch den Beitrag bei Igroslab an. dort wird das alles erklärt.
Und die Latezn bleibt nicht gleich, sondern wird um 10ms höher dabei.
aber wie gesagt, ausser der wirklich hardcore (multiplayer) fps shootern, sollte das aber nicht so sehr das Problem sein.

https://www.igorslab.de/nvidia-geforce-rtx-4090-fe-im-dxr-dlss-reflex-und-frame-generation-test/

Ich weiß wie DLSS3 (im Sinne von fancy Upscaling plus Zwischenbildberechnung) prinzipiell funktioniert, HU haben das ebenfalls erklärt. Mir ging es zunächst nur um die Klarstellung, was ich hinter der Abkürzung "FG" aus dem Kontext erwartet habe.

Dass die Latenz teils sogar höher wird habe ich zugegeben unterschlagen, wird im HU-Video aber auch erwähnt. Insgesamt ändert das aber nichts (bzw. stärkt ihn nur) an dem Punkt, dass die höheren FPS außer "smoothness" wenig bis keine Verbesserungen beim Lag bringen, ihn im schlimmsten Fall wie du schreibst sogar verschlechtern. Jenes mag je nach Umstand nicht so problematisch sein, aber die Zwischenbildberechnung wird in 5 Jahren aus "30FPS feels like crap" keine "solid 60FPS playable" machen.

NOFX
2022-10-16, 18:14:17
Das die Chips jetzt ein schmaleres Speicherinterface haben, sehe ich nicht als Problem. Bei AMD ist man seit im Infinity Cache auch bei 256 Bit maximal und dessen Äquivalent hat nVidia jetzt ja auch integriert.

Des weiteren waren Samsungs 8nm eher groß in Vergleich zu TSMC und den Einsatz üblichen Schritten. Das Flächenargument sehr ich daher auch nicht passend für die 4080 16 GB.

Die 4080 12 GB jetzt als 4070 zum vermarkten passt imho sehr gut.

Nazar
2022-10-16, 23:12:19
Mir tun die ganze Boardpartner von Nvidia leid.
Die RTX 4080 12GB wahr ja wohl eine reine Partnerkarte. Und die werden schon seit Wochen planen und vermutlich auch produzieren. Jetzt können die ihre Produktion stoppen, alle Karten aus der Lieferkette zurückrufen, einlagern und abwarten, was Nvidia neues plant.
Wenn die Glück haben, dürfen sie "nur" neue Kartons produzieren und alle Karten neu verpacken. Wenn sie Pech haben, ändert Nvidia die technischen Daten und die Karten müssen verschrottet werden oder die Kostenkalkulation stimmt nicht mehr...
Wer erinnert sich noch an den Abgang von EVGA ?


Keine Ahnung, weshalb nVidia hier sofort wieder als der Heilsbringer hingestellt wird. Lauf Produktwächter wäre gegen nVidia aufgrund der 4080 12 GB Version sofort ein Verfahren eingeleitet wurden, wegen irreführende Produktbezeichnung. Und ich kann mir gut vorstellen, dass das in den USA genauso gelaufen wäre, nur um ein vielfaches teurer.
Es hat also überhaupt nicht mit einer Selbsterkenntnis zum Wohle der Kunden zu tun, sondern ganz alleine damit, dass man neben negativen Feedback (Betrug) auch noch den Klagen aus dem Weg gehen wollte.
Das ist die ganze Wahrheit, weshalb das hier wieder so positiv verkauft wird, steht auf einem anderen, aber bekannten Blatt. :wink:

Legendenkiller
2022-10-17, 14:54:37
Naja die Karten "4080 12G" können sie ja weiter verwenden , sie müssen nur neue Verpackungen drucken auf den 4070 steht.


Muss wohl ganzschön gegenwind gegeben haben das sie da zurückrudern...
Gut der Fehler war es die als 4080 rauszubringen. Immerhin können sie den Fehler engestehen und es ändern.