PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 25. Januar 2023


Leonidas
2023-01-26, 10:05:18
Link zur News:
https://www.3dcenter.org/news/news-des-25-januar-2023

bloodflash
2023-01-26, 11:00:11
Zum Xeon:
Die Tabelle von Geekbench sieht eher nach einer 28c/56t-CPU aus, oder vertue ich mich da?

Leonidas
2023-01-26, 11:20:11
Geekbench hat es als 56C ausgelesen:
https://browser.geekbench.com/v5/cpu/20093542

Aber Du hast Recht. Nur 28x L1-Cache. Was lief da falsch?

Altbackener Gast
2023-01-26, 11:23:18
Bis zur Pascal-Generation schlagen die neuen 60er Modelle in der Tat die alten 80er Modelle, oder erreichen zumindest nahezu deren Performance-Level. Danach kann diese alte Regel allerdings nicht mehr eingehalten werden. Mit den Generations-Sprüngen zu Turing & Ampere werden die jeweils neuen 60er Modelle zunehmend schwächer, bei der aktuell laufenden Ada-Lovelace-Generation dürfte sich dies dann in einem großen Unterschied zwischen neuem 60er Modell gegenüber altem 80er Modell manifestieren: Grob dürfte die GeForce RTX 4060 nur noch zwei Drittel der Performance der GeForce RTX 3080 10GB bieten, liegt also weit ab von derem Performance-Feld.
Jo. Passt perfekt ins Bild. Und wenn man neben dem generationellen Performancegewinn noch die anderen mehr oder weniger konstanten Größen pro Generation (z.B. Die-Fläche, Speicherinterface und Preis) vergleicht, findet man:

RTX 4080 = technisch eine xx70 über dem alten Preispunkt einer 90/Titan
RTX 4070 Ti = technisch eine xx60 (Ti) über dem Preispunkt einer 80
RTX 4060 Ti = technisch eine xx50 (Ti) über dem Preispunkt einer 70 (laut Speku)

Alles natürlich anhand der "guten alten Zeiten", als ein 300-400mm² Die mit 256-bit SI noch eine "70" und für unter 500€ zu haben war. Aber diese Zeit ist gar nicht so lange her. Eigentlich nur 2 Jahre.
Der Gedanke, dass die Leute für eine Mid-Performance-Karte (nach bisherigen Maßstäben) wie die 4070 Ti jetzt wirklich scharenweise 1000€ auf den Tisch legen ist für mich immer noch absurd.

Und ja, klar sind die Waferkosten deutlich gestiegen. Aber wisst ihr, was auch gestiegen ist? Nvidias Gewinnmarge. :ulol:

Legendenkiller
2023-01-26, 11:34:37
...
Alles natürlich anhand der "guten alten Zeiten", als ein 300-400mm² Die mit 256-bit SI noch eine "70" und für unter 500€ zu haben war. Aber diese Zeit ist gar nicht so lange her. Eigentlich nur 2 Jahre...


Größtenteils zustimm... aber wenn die mit 70ziger vor 2 Jahren die 3070 meinst...

UVPs sind nur Schall und Rauch. Sie gab und gibt es zu keinen Zeitpunkt* unter 500€.
Im Gegenteil der durchschnittlicher Verkaufspreis über alle verkauften 3070 liegt wohl eher bei 900€, da sie 1 Jahr lang in sehr großen Stückzahlen für über 1000€ ver und gekauft wurde.


*außer ein, nur in minimalsten Menge, und damit in der Praxis nicht relevantes Werbeangebot namens Referanzkarte.

Altbackener Gast
2023-01-26, 12:15:36
Größtenteils zustimm... aber wenn die mit 70ziger vor 2 Jahren die 3070 meinst...

UVPs sind nur Schall und Rauch. Sie gab und gibt es zu keinen Zeitpunkt* unter 500€.
Im Gegenteil der durchschnittlicher Verkaufspreis über alle verkauften 3070 liegt wohl eher bei 900€, da sie 1 Jahr lang in sehr großen Stückzahlen für über 1000€ ver und gekauft wurde.


*außer ein, nur in minimalsten Menge, und damit in der Praxis nicht relevantes Werbeangebot namens Referanzkarte.
Ich meine den gesamten Zeitraum von Fermi (~2010, Beginn des aktuellen Namensschemas - vorher kann man ja nicht von "70"er Karten reden) bis zum Launchtag von Ampere 2020. Auch bei der RTX 3070 hatte Nvidia noch die Intention, ein Produkt mit gutem P/L-Verhältnis auf den Markt zu bringen, das komplett auf einer Linie mit den bisherigen Generationen war.

Was danach passiert ist, wissen wir alle.

Gast
2023-01-26, 12:17:11
Dass sich alte 60er Karten viel leichter mit den 80er Karten der Vorgänger anlegen konnten liegt aber zu großem Teil auch an der Chipbasis.

Seit der 680 basieren die 80er Karten auf der x04 GPU der Serie und die 60er auf dem x06 GPU der Serie.

Bei Ampere ist es dann plötzlich ein (stark beschnittener) 102, bzw. jetzt bei Lovelace mit 103 ein neues Zwischending zwischen 104 und 102.

Dass sich eine x06 GPU mit der x04 der Vorgängergeneration anlegen kann ist jetzt eher zu erwarten als mit einer x03 oder gar x02 GPU.

Es sind also nicht unbedingt die xx60 Karten langsamer als erwartet, vielmehr sind die xx80 Karten schneller als man langjährig erwarten durfte.

Iscaran
2023-01-26, 13:48:44
Hmm interessanter Vergleiche der xx80 mit xx60 Modellen.

Vorschlag zur Verbesserung: Ich würde die Performance-Indices jeweils auf eine der Karten (z.B. = xx60) "normen", so daß man die tatsächliche Differenz zwischen x80 und x60 sieht und nicht die Absolutwerte.

Denn auch wenn 960% zu 930% beim 1080 vs 2060 vergleich wie ein deutlicher Unterschied aussehen, ist es am Ende VIEL weniger Differenz reale Performance Differenz, nämlich 960/930 = +3% mehr für die 1080 was ich als "im Rahmen der Messgenauigkeit" als Gleichstand sehen würde.

Deswegen fände ich eine zusätzliche Spalte mit den Absolut Performance Differenze der jeweiligen Paare wesentlich Aussagekräftiger!

Ansonsten: vielen Dank Leo für das aufgreifen der Idee und die Analyse und Zusammenstellung der Daten!

Matthias80
2023-01-26, 15:11:12
Interessant!

Verarscht nvidia ja doppelt!
weniger Leistung als "normal" UND auch deutlich teurer!

Schade das in der Presse das viel zu wenig Thematisiert wird.

Mfg

Gast
2023-01-26, 15:17:19
Man muss aber bei den GPUs auch mit bedenken, dass früher die Fertigung deutlich größere Schritte gemacht hat. Dadurch konnten die Chips auch deutlich größere Sprünge machen. Inzwischen bringen neue Nodes eher Trippelschritte, entsprechend muss man da auch Kompromisse machen.
Generell aber schon krass, wie viel früher ging und wie wenig heute von Gen zu Gen geht.
Da sind dann Entwicklungen wie DLSS und Co natürlich wichtig, um überhaupt vom Fleck zu kommen.

Exxtreme
2023-01-26, 15:23:11
Interessant!

Verarscht nvidia ja doppelt!
weniger Leistung als "normal" UND auch deutlich teurer!

Schade das in der Presse das viel zu wenig Thematisiert wird.

Mfg

Verarscht ist das nicht wirklich. Es ist so: sobald eine Ware auf dem Markt ist, kann man die Preise für diese Ware kaum noch regeln. Sprich, für die hohen Preise kann Nvidia nicht wirklich was und sie können auch kaum was dagegen machen. Die einzigen, die nennenswert was machen können sind die Kunden.

Gast
2023-01-26, 16:25:31
Interessant!

Verarscht nvidia ja doppelt!
weniger Leistung als "normal" UND auch deutlich teurer!

Schade das in der Presse das viel zu wenig Thematisiert wird.

Mfg
Was sagst du denn dazu, dass die "weniger Leistung als normal" immer noch locker ausreicht deutlich vor AMD zu sein?

Verarscht wird übrigens keiner, Nvidia macht dir ein Angebot für eine bestimmte Leistung zu einem bestimmten Preis.
Kannst du kaufen oder nicht.

Die lineare Fortschreibung von Fortschritt ist auch immer niedlich.
Wenn du mit ein Training deine 100m Zeit von 14 Sekunden auf 12 Sekunden reduzierst, reduzierst du mit dem doppelten Training deine Zeit auf 10 Sekunden, gell?

Nein, je besser du bist desto langsamer und schwieriger ist es noch besser zu werden.

Gast
2023-01-26, 16:39:28
Verarscht ist das nicht wirklich. Es ist so: sobald eine Ware auf dem Markt ist, kann man die Preise für diese Ware kaum noch regeln. Sprich, für die hohen Preise kann Nvidia nicht wirklich was und sie können auch kaum was dagegen machen. Die einzigen, die nennenswert was machen können sind die Kunden.

Referenzkarten im eigenen Shop könnten sie anbieten und nur 1-2 Stück pro Kunde verkaufen

Platos
2023-01-26, 16:47:00
Ich meine den gesamten Zeitraum von Fermi (~2010, Beginn des aktuellen Namensschemas - vorher kann man ja nicht von "70"er Karten reden) bis zum Launchtag von Ampere 2020. Auch bei der RTX 3070 hatte Nvidia noch die Intention, ein Produkt mit gutem P/L-Verhältnis auf den Markt zu bringen, das komplett auf einer Linie mit den bisherigen Generationen war.

Was danach passiert ist, wissen wir alle.

Ach ja? Die 2080 lieferte damals die selbe Perfomance wie die 1080Ti, hatte 3GB weniger speicher und kostet gleich viel wie die 1080Ti (war also teurer wie die 1080).

Sogar die 4070Ti ist da (im Dollarland) besser. P/L gleich wie 3080 (10GB), hat aber immerhin 2GB mehr und noch DLSS3.0

Ja, die 4070Ti ist ein Witz im Preis und im P/L. Ich verteidige also keines Wegs diese Preise. Aber zu sagen, nvidia hat erst jetzt angefangen ist falsch. Turing im Allgemeinen hatte einige Karten, die eig. richtig beschissen waren. Ampere war da auch nur bei der 3080-3060 besser (aber vom Speicher nur bei der 3060). Der Rest ist ebenfalls überteuerter Mist. Es fällt nur nicht so auf, weil die absoluten Preise einer 3050 nicht 1000 Dollar sind und sich allgemein niemand für eine 3050 interessiert (in diesem Forum).

Exxtreme
2023-01-26, 16:55:33
Referenzkarten im eigenen Shop könnten sie anbieten und nur 1-2 Stück pro Kunde verkaufen

Das werden die Scalper wegkaufen und dann viel teurer anbieten.

Gast
2023-01-26, 17:33:00
Verarscht ist das nicht wirklich. Es ist so: sobald eine Ware auf dem Markt ist, kann man die Preise für diese Ware kaum noch regeln. Sprich, für die hohen Preise kann Nvidia nicht wirklich was und sie können auch kaum was dagegen machen. Die einzigen, die nennenswert was machen können sind die Kunden.
Das nenne ich mal eine freundliche Interpretation der Lage.
Ja, der Markt hat die Preise hochgetrieben - letzte Generation. Während es durch Mining ökonomisch war, Grafikkarten zu praktisch egal welchem Preis zu kaufen.
Aber der Mining-Boom ist längst vorbei, die Nachfrage ist eingebrochen - und dafür, dass die Preise jetzt noch so hoch sind, kann Nvidia definitiv was. Die Preise hätten sich ganz bestimmt nicht ohne bis an die Kotzgrenze hochgezogene UVPs auf so einem hohen Level eingependelt. Die Karten verstauben ja teilweise in den Regalen.

Matthias80
2023-01-26, 17:38:33
Verarscht ist das nicht wirklich. Es ist so: sobald eine Ware auf dem Markt ist, kann man die Preise für diese Ware kaum noch regeln. Sprich, für die hohen Preise kann Nvidia nicht wirklich was und sie können auch kaum was dagegen machen. Die einzigen, die nennenswert was machen können sind die Kunden.

ah schon mal was von der UVP gehört?

Matthias80
2023-01-26, 17:39:38
Was sagst du denn dazu, dass die "weniger Leistung als normal" immer noch locker ausreicht deutlich vor AMD zu sein?

Verarscht wird übrigens keiner, Nvidia macht dir ein Angebot für eine bestimmte Leistung zu einem bestimmten Preis.
Kannst du kaufen oder nicht.

Die lineare Fortschreibung von Fortschritt ist auch immer niedlich.
Wenn du mit ein Training deine 100m Zeit von 14 Sekunden auf 12 Sekunden reduzierst, reduzierst du mit dem doppelten Training deine Zeit auf 10 Sekunden, gell?

Nein, je besser du bist desto langsamer und schwieriger ist es noch besser zu werden.

wie das so ist mit den vergleichen... aber der ist echt mieeeeees!!

Altbackener Gast
2023-01-26, 17:47:55
Ach ja? Die 2080 lieferte damals die selbe Perfomance wie die 1080Ti, hatte 3GB weniger speicher und kostet gleich viel wie die 1080Ti (war also teurer wie die 1080).

Sogar die 4070Ti ist da (im Dollarland) besser. P/L gleich wie 3080 (10GB), hat aber immerhin 2GB mehr und noch DLSS3.0

Ja, die 4070Ti ist ein Witz im Preis und im P/L. Ich verteidige also keines Wegs diese Preise. Aber zu sagen, nvidia hat erst jetzt angefangen ist falsch. Turing im Allgemeinen hatte einige Karten, die eig. richtig beschissen waren. Ampere war da auch nur bei der 3080-3060 besser (aber vom Speicher nur bei der 3060). Der Rest ist ebenfalls überteuerter Mist. Es fällt nur nicht so auf, weil die absoluten Preise einer 3050 nicht 1000 Dollar sind und sich allgemein niemand für eine 3050 interessiert (in diesem Forum).
Turing war irgendwie ein Sonderfall, weil das die erste RT-Generation war und praktisch sämtlicher Fortschritt in der Fertigungstechnik für Tensor- und RT-Cores draufging. "Technisch" hat man da schon viel bekommen fürs Geld (sogar TU106 war ein fetter Brocken mit 445mm²), nur ist trotzdem die Raster-Performance auf der Strecke geblieben.

FarCry
2023-01-26, 19:09:32
initalen -> initialen

4K-Gelegenheitsspieler
2023-01-26, 19:58:45
Hallo zusammen!

Vielen Dank an Leonidas für die interessante Aufstellung (Alt-Gen 80er Modell zu Neu-Gen 60er Modell) die zeigt, dass es früher bei den kleineren Modellen (60er) noch ordentliche Leistungszuwächse beim Grafikchip-Generationen-Wechsel gab und diese sogar die vorherigen 80er Highend-Modelle schlagen konnten bzw. zumindest eine ähnliche Leistung boten.

Mich hat es im September 2013 damals richtig gefreut, dass meine Geforce 760 GTX (die zweite 28nm Generation) die Geforce 580 (die zweite 40nm Generation) mit 310 % zu 280 % (FHD-3DCenter Indexwerte) schlagen konnte und ich oben drauf auch noch etwas mehr Speicher mit 2 GB vs. 1,5 GB (bei der Geforce 580) bekam.
Und dann hat diese tolle und extrem leise Karte (MSI N760 TwinFrozr 2GD5/OC, 2GB DDR5) nur 239,89 EUR gekostet (gerade nochmal in der Bestellbestätigung nachgesehen).

@Leonidas
Ich bin schon seit ewigen Zeiten stiller und treuer Leser von 3DCenter und mit diesem ersten Posting, möchte ich einfach mal Danke sagen, dass es das 3DCenter gibt und ich so jahrelang immer alle wichtigen Informationen zu CPUs und GPUs wie auf einem Silbertablett dargeboten „konsumieren“ darf und davon profitieren darf und das auch noch dazu kostenlos und mir der 3DCenter Index und die Lauchanalysen immer bei meinen Kaufentscheidungen sehr geholfen haben.
Vielen herzlichen Dank!

@Alle
Warum ich aber gerade heute poste, ist diesem Artikel „geschuldet“, der die Problematik anspricht, dass die kleineren Lösungen der Ada-Lovelace-Modelle zu den vorherigen Ampere-Modellen bzgl. des Leistungszuwachses im Gegensatz zum derzeitigen Top-Chip nVidia Geforce 4090 / AD102-300 der aktuellen Generation deutlich geringer ausfällt / ausfallen wird.
Natürlich ist die technische Ansetzung daran schuld, wie Leonidas schreibt.

Teilweise konnte ich früher in manchen Forenkommentaren vernehmen (bezogen auf Karten der aktuellen RTX 40X0 Generation unterhalb der 4090) wie die 4080 und 4070 Ti, dass diese neuen Ada-Lovelace Karten eigentlich anders heißen müssten.

Gut, jetzt kann man und viele Käufer dieser Karten werden auch sicherlich so argumentieren, dass es doch völlig egal ist, was da an Hardware verbaut ist oder wie die Modellbezeichnung lautet, wichtig ist doch nur, wie hoch die Spieleleistung ist und wenn die passt, ist es doch egal, wie viel SMs / Bandbreite die Karte hat.
Es ist wirklich beeindruckend, wie effizient bzgl. des Stromverbrauches bezogen auf die gebotene Leistung, die neue Technologie leistet.
Und vom 4K-3DCenter Index Wert ist es auch beeindruckend, was eine 4080 und 4070 Ti bezogen auf die average FPS leistet - gerade bezogen auf die doch deutlich schwächere Hardwareansetzung der beiden Modelle zum derzeitigen Spitzenmodell.
Die 4070 Ti ist schließlich was Bandbreite (504 GB/sec vs. 1008 GB/sec) und Speicher (12 GB vs. 24 GB) anbelangt nur exakt die Hälfte / 50 % und beim L2 Cache allerdings mit (48 MB vs. 72 MB) zwei Drittel (66,67 %) und bei den Shader-Cluster (60 vs. 128) nicht mal die Hälfte (46,875 %) der derzeitigen Toplösung 4090 - dafür gibt es aber immerhin satte 392 % vs.
655 %, also 59,85 % der Leistung zum ca. halben Preis.
Oder andersgesagt man bekommt beim Topmodell 67 % mehr Leistung zum ca. doppelten Preis, aber das Beste darf natürlich auch immer einen gewissen Halo-Preisaufschlag haben.

Man könnte also jetzt sagen, alles super, wenn die Preislage generell günstiger wäre. Gerade diese hohe Preislage führt ja bei vielen Konsumenten verständlicherweise immer wieder zu Unmut. Und manche Leute wollen sich ihr Hobby nicht vermiesen lassen und beißen in den sauren Apfel hinein.

Zurück zum Absatz vorher:
Es ist also beeindruckend wie die deutlich schwächere Hardwareansetzung der 4080 und 4070 Ti (hier nur letztere im Detail thematisiert) zu solch erstaunlichen Ergebnissen führt – zumindest was die durchschnittlichen FPS anbelangt, der üppige L2 Cache helfen dieser Generation, insbesondere die Modelle unter der 4090, scheinbar enorm weiter.
Aber 192 Bit Speicherinterface oder und nur 60 SM bei 4070 Ti bzw. 76 SM bei der 4080 (mit 256 Bit) bleiben halt 192 Bit / 60 SM bzw. 256 Bit / 76 SM und sind keine 384 Bit / 128 SM und das sieht man dann bei dem einen oder anderen Benchmark dann doch deutlich.
In Erinnerung sind mir z. B. gut unter 3840x2160 Auflösung die 74 FPS (avg.) / 44 FPS (min.) bei der 4070 Ti zu 99 / 63 FPS bei 4080 zu den 132,8 / 98 FPS bei der 4090, was bei weniger Belastung unter WQHD deutlich erfreulicher für die kleineren Modelle ausfällt.
Die Werte habe ich vom 4070Ti Launch der PCGH entnommen.
Das ist zugegeben der krasseste Fall, der mir aufgefallen ist, wo man aber auch sieht, was eine doppelt so starke Hardware im Stande ist zu leisten.
4090: 128 SM / 60 SM = 2,133
4070 Ti: 98 FPS (min.) / 44 FPS = 2,227
Möglicherweise wirkt hier (da es ja kein CPU Limit ist) die halbierte Bandbreite zusätzlich bremsend.

Das soll jetzt keine Laudatio auf die 4090 sein (ich besitze keine und bin nicht befangen – sie ist jedoch für mich ein beeindruckendes Stück Technik zum zugegebenermaßen hohen Preis – aber man bekommt wenigstens auch eine enorme Hardware-Gegenleistung an verbauten SMs, Bandbreite und üppigen Speicher), aber soll aufzeigen, dass eine deutlich geringere Hardwareansetzung in besonders anspruchsvollen Situationen auch zu entsprechend deutlich geringeren Leistungen führen kann.
Gut, nVidia propagiert ja selbst die 4070 Ti als eine WQHD Karte – teils wird diese allerdings als Highend (wie ich als Headline bei einer deutschsprachigen Seite gelesen habe) propagiert und von einigen Leuten, da sie die Durchschnitts-Leistung (außerhalb von Extrembelastungen, wo Bandbreite eben enorm wichtig ist) zwischen 3090 und 3090 Ti (mehr zur ersteren tendierend) hat.

Ist die im Großen und Ganzen halbe Hardware (vom üppigen L2 Cache) der 4070 Ti (verglichen mit dem jetzigen Top Chip 4090, wo weit mehr Reserven für ein noch schnelleres Modell bestehen, als es bei der 3090 damals der Fall war) denn wirklich „Highend“ oder eher eine flotte Performance Karte (von der Hardware gesehen – bezogen auf das technisch machbare der aktuellen Generation) zum Highend-Preis?

Diese Frage darf und soll sich jeder selber beantworten.

Leonidas interessante Aufstellung (Alt-Gen 80er Modell zu Neu-Gen 60er Modell) zeigt aber sehr schön, wie viel Hardware man früher für die noch kleineren Modelle bekommen hat - im Gegensatz zur letzten Zeit und gerade in der aktuellen Generation wird es aller Voraussicht wohl noch schlimmer werden als wahrscheinlich je zuvor.
Man bekommt also immer weniger Hardware für eine von nVidia propagierte Namensgebung.

Mir ist das gerade bei der 30X0 Generation zu den veröffentlichten und nach den Gerüchten wohl ausfallenden (kleineren Modelle) der 40X0 Generation irgendwie aufgefallen und ich war da ja nicht der Einzige, der sich gesagt hat, dass das was drauf steht als Modell Bezeichnung nicht mehr drin ist und die Karte eigentlich eine kleinere Bezeichnung tragen sollte.
Aber klar, nur so kann man die Karten zu noch höheren Preisen verkaufen – ein m. E. cleverer Schachzug und die enorm effiziente Generation lädt aus Unternehmenssicht ja gerade dazu ein, da der üppige L2 Cache gerade auch bei den kleineren Karten scheinbar enorm hilft, Shader-Cluster massiv zu sparen.

Ich habe mir kürzlich gefragt, was bekommt man in der aktuellen Ada-Lovelace 40X0 Generation von nVidia bei den kleineren Modellen an Hardware wirklich relativ gesehen zur maximalen Hardwareansetzung des Spitzenchips und wie war es bei Ampere, der Vorgängergeneration 30X0.

Hierzu habe ich mich damit ausgiebig beschäftigt und ein Excel File ausgearbeitet.

Als 100 % Basis diente die 3090 Ti (Vollausbau der letzten Generation mit 84 SM @ 384 Bit GDDR6-Interface, 6 MB L2 und 21 Gbps Speicher) und der erwartete Vollausbau dieser Generation (ich habe mal 2 deaktivierte SMs angenommen, also 142 SM @ 384 Bit-GDDR6-Interface, 96 MB L2 und 24 GB mit gleich schnellem Speicher wie bei der 4080 von 22,4 Gbps – die 4090 hat ja mit 21 Gbps – hier hat sich also nVidia etwas Reserven gelassen fürs Topmodell und wollte der 4080 etwas mehr Bandbreite geben, weil sie ja nur 256 Bit hat).

Es haben sich dann wirklich interessante „Pärchen“ generationenübergreifend „gebildet“, was die Hardwareansetzung an Shader-Cluster anbelangt und jetzt habe ich ein klareres Bild, wie wenig Hardware man fürs jeweilige Modell unterhalb der 4090 bekommt.

Die noch nicht veröffentlichten Modelle unterliegen natürlich noch Ungewissheiten – aber ich hege keine allzu großen Zweifel, dass (wenn man die Hardwareansetzung der 4080 und 4070 Ti so sieht), bei den kleineren Modellen ebenfalls die Hardwareansetzung an Shader-Cluster sehr enttäuschend ausfallen wird (Stichwort – Generationenzuwachs 3090 zu 4090) und die hier angesprochenen Leaks (die ich hier auch für die kleineren Modelle herangezogen habe) wohl m. E. im Großen und Ganzen so zutreffen werden.
Es wäre allerdings sehr wünschenswert, wenn gerade der Leak zur 4060 Ti nicht zutreffen würde, diese also nicht 4 SM weniger (das wäre das einzige Modell mit weniger SM zum Vörgängermodell) als die 3060 Ti hat, noch dazu ein nur 128 Bit statt 256 Bit Speicherinterface.
Wenn sie 18 Gbps Speicher haben sollte (wie im Leak zu entnehmen), wären es 288 GB/sec zur ursprünglichen 3060 Ti mit 14 Gbps und 448 GB/sec – das kürzliche Update hat ja 608 Gbps durch GDDR6X und 19 Gbps und damit mehr als die 4070 Ti).
Für die 4060 habe ich 15 Gbps und für die 4050 14 Gbps angenommen.
Von allen noch nicht veröffentlichten 40X0 Karten (also einschl. bis zur 4070) sollte übrigens bezogen auf die bisher bekannten Leaks die 4050 m. E. den größten Generationensprung machen, ich rechne mit einem relativen Sprung zwischen dem was 3080 zu 4080 und 3070 Ti zu 4070 Ti erreicht haben.
Es ist m. E. sehr realistisch, dass die 4050 in etwa auf Höhe der ursprünglichen 3060 12 GB Leistung herauskommen kann.

Die große Enttäuschung der 40X0 Generation wird m. E. aller Voraussicht nach mit Abstand die 4060 Ti mit dem kleinsten Leistungssprung (3060 Ti zu 4060 Ti) sein.
Ich kann nur nochmal betonen und hoffe, dass die 4 weniger SMs und dieses sehr geringe Bandbreite (128 Bit) und 8 GB vom Leak nicht behaupten.

„Runder“ wäre die Sache, wenn sie etwas mehr SMs, 160 Bit Speicherinterface und 10 GB Speicher bekommen würde.

Nun ja zu den anderen Ergebnissen meiner Generationen-Gegenüberstellung, wie viel Hardware im jeweiligen Modell noch drin ist, haben sich folgende „Pärchen“ gebildet (mit Basis, was ich oben beschrieben hatte):
Orientierungsgröße für die „Pärchen“ waren hier die verbauten Shader-Cluster.

GeForce RTX 4080 (veröffentlicht)
53,52 % SM @ 66,67 % Speicherbandbreite, 66,66 % L2, 66,67 % Speicher

GeForce RTX 3070
54,76 % SM @ 44,44 % Speicherbandbreite, 66,66 % L2, 33,33 % Speicher


GeForce RTX 4070 Ti (veröffentlicht)
42,25 % SM @ 46,88 % Speicherbandbreite, 50 % L2, 50 % Speicher

GeForce RTX 3060 Ti
45,24 % SM @ 44,44 % Speicherbandbreite, 66,66 % L2, 33,33 % Speicher


GeForce RTX 4070 (Gerücht)
32,39 % SM @ 46,88 % Speicherbandbreite, 37,50 % L2, 50 % Speicher

GeForce RTX 3060 12 GB
33,33 % SM @ 35,71 % Speicherbandbreite, 37,50 % L2, 50 % Speicher


GeForce RTX 4060 Ti (Gerücht)
23,94 % SM @ 26,79 % Speicherbandbreite, 33,33 % L2, 33,33 % Speicher

GeForce RTX 3050
23,81 % SM @ 22,22 % Speicherbandbreite, 25 % L2, 33,33 % Speicher


Zum Vergleich noch:
GeForce RTX 3080 10 GB
80,95 % SM @ 75,40 % Speicherbandbreite, 83,33 % L2, 41,67 % Speicher


Ergebnis, wie viel Hardware wir noch in der aktuellen Generation bekommen:

Um die Daten richtig zu interpretieren, bitte nochmals das obige in Erinnerung rufen – die relativen Werte beziehen sich zur Maximal-Lösung der Generation wie oben beschrieben also relativ zur 3090 Ti und dem Vollausbau der 40X0 Generation (mit von mir angenommenen deaktivieren 2 SMs und einem Speicher von 22,4 Gbps).

Die beiden großen „Pärchen“ 4080 und 3070 unterscheiden sich durch den doppelten Speicher bei der 4080 (16 GB zu 8 GB) und die höhere Bandbreite (die 3070 Ti hat übrigens 57,14 % SM und 60,32 % Bandbreite).
Wenn man die 3070 also von der Hardware relativ zum Topmodell als Performanceklasse zuordnen möchte, ist die 4080 mit ihren 76 SM eine Performancekarte wie die 3070 (die relativ gesehen noch mehr Shader-Cluster hat) mit doppeltem Speicher und etwas mehr relativer Bandbreite als die 3070 Ti hat.

Die 4070 Ti wäre also sogesehen (von den 4 GB mehr Speicher abgesehen) der Nachfolger der 3060 Ti.
Die 3060 Ti hat sogar relativ gesehen zum „Platzhirsch“ der Generation minimal mehr Shader-Cluster als die 4070 Ti, die jedoch mit einer minimal besseren Bandbreite punkten kann – beim L2 Cache kann die 3060 Ti relativ zum „Platzhirsch“ wieder punkten. Die 3060 Ti hat mit 4 MB 66,66 % der 3090 Ti mit 6 Mb und die 4070 Ti hat 48 MB, also 50 % vom zum erwartenden Vollausbau mit 96 MB.

Die 4070 wäre also bzgl. der zugestandenen Shader-Cluster der Nachfolger der 3060. Bzgl. der Speicherbandbreite ist die 4070 jedoch relativ zum Topmodell besser – L2 und Speicher sind (wieder relativ zum jeweiligen Topmodell) identisch.

Und wenn die 4060 Ti wirklich so schwach raus kommt, dann wird sie so ziemlich der geistige Nachfolger der 3050 bzgl. verbauter Shader-Cluster, jedoch mit etwas besserer Speicherbandbreite und relativ gesehen mehr L2 Cache zur Spitzenlösung.

So, jetzt geht mein langer Kommentar fast zu Ende.

@Leonidas, wenn Du das hier lesen solltest:
Gerne bin ich bereit, Dir meine Arbeit vom Excel-File (das mir einige Stunden Arbeit gemacht hat – auch optisch ist es denke ich sehr übersichtlich geworden), bei Interesse zukommen zu lassen – einfach eine kurze Nachricht an meine Dir bekannte E-Mail-Adresse senden. Gerne kann man hier dann auch mehr Daten daraus veröffentlichen.

Mir war es in diesem Zusammenhang dieser News und meiner Erkenntnisse aus meiner Arbeit mit dem Excel-File wichtig, dies hier zu veröffentlichen, weil es so gut zum Thema gepasst hat, dass man bei den kleineren Karten immer noch weniger Hardware (relative zur Top-Lösung) bekommt und das gerade im Hinblick bei der aktuellen Ada-Lovelace Generation überdeutlich wird.

Ich will mit dem Posting hier keinen Käufer / oder potentiellen Käufer der Modelle unterhalb der 4090 verärgern (die 4080 und 4070 Ti sind für so wenig verbaute Shader-Einheiten ohne Zweifel sehr schnell), will damit nur aufzeigen und mit Zahlen veranschaulichen (natürlich unterliegen die Leaks Unsicherheiten – aber die noch nicht veröffentlichten Karten werden sicherlich keine Konsumentenoffenbarung, wie stark die Hardwareansetzung dann wirklich ist – da sind wir uns denke ich so ziemlich alle einig und ich hoffe immer noch gerade für die 4060 Ti (der Vorgänger war ja sehr beliebt, dass dann mehr Hardware fürs Geld geboten wird)), sondern nur aufzeigen, dass bei der 4080 und 4070 Ti deutlich weniger verbaute Hardware an Shader-Cluster drin sind, als es normalerweise im Vergleich zur vorherigen Generation (jeweils relativ gesehen zur Maximal-Lösung) sein sollte und es sehr ernüchternd ist, wenn man sich die Zahlen so ansieht, zu welchen Karten (welcher Modellbezeichnung) die aktuellen und zu erwartenden Karten der 40X0 Generation m. E. eigentlich die Nachfolger sind / wohl sein werden und wie wenig Hardware (wie immer hier betont relativ gesehen zur Maximallösung) man bei allen kleineren Karten noch bekommt.

Da kann dann gerne jeder selber abschätzen, wie lange es wohl dauern wird (wenn nVidia nicht wieder das für die kleinen Karten technisch bietet, wie es vor vielen Jahren der Fall war), bis die Leistung einer zukünftigen 60er Karte das maximal gebotene der aktuellen Generation erreicht oder sogar schlägt.

Es bleibt zu hoffen, dass AMD und Intel in neuen Generationen wirklich starke Angebote gerade im Bereich der meist verkauften Mainstream und Midrange-Grafikkarten bieten werden, so dass auch nVidia hier wieder mehr bieten muss – so profitieren alle Konsumenten, unabhängig davon, ob bzw. welcher Marke diese mehr zugetan sind.
Ich habe schon seit jeher nach Leistung, Stromverbrauch, Preis und Treibern entschieden und AMD-CPUs / AMD-Grafikkarten, Intel CPUs und nVidia Grafikkarten gekauft, je nach dem was für mich das bessere Angebot zum jeweiligen Zeitpunkt dargestellt hat (oder habe mich auch mit Käufen zurückgehalten, wenn ich mir irgendwie veräppelt vorgekommen bin). Wichtig war mir immer, dass das Angebot, für das ich mich entscheide „eine runde Sache ist“, ich also einen m. E. fairen Gegenwert an gebotener Hardware und Leistung für mein Geld bekommen habe.

MfG
4K-Gelegenheitsspieler

Platos
2023-01-26, 23:02:40
Turing war irgendwie ein Sonderfall, weil das die erste RT-Generation war und praktisch sämtlicher Fortschritt in der Fertigungstechnik für Tensor- und RT-Cores draufging. "Technisch" hat man da schon viel bekommen fürs Geld (sogar TU106 war ein fetter Brocken mit 445mm²), nur ist trotzdem die Raster-Performance auf der Strecke geblieben.

Was interessiert mich, was ich technisch kriege :D ?

Mit Turing gabs keine Einzige Grafikkarte, die wirklich genug RT Perfomance liefern konnte und DLSS 1.x war auch scheisse und allgemein war RT so oder so damals völlig unbedeutend.

Übrig bleibt die nicht vorhandene Steigerung des P/L.

Was die Gründe davon sind, sind mir/Kunden egal. Geliefert wurde nunmal Mist.

Ampere war dann wieder gut, war auch Energieeffizienter und hatte dann aber leider bei vielen Grafikkarten kein guter Speicher.

Exxtreme
2023-01-26, 23:45:23
ah schon mal was von der UVP gehört?

An UVP hält sich doch niemand und sanktioniert wird das auch nicht wenn sich jemand nicht dran hält. :)

Rabiata
2023-01-27, 01:10:47
Was mich ein wenig skeptisch macht, ist daß von der 4060 Ti abwärts nur 8 GB RAM geplant sind.
4GB vs. 8GB war schon bei der AMD RX 5500 ein Thema.
Bei der 4060 Ti würde ich mich als Käufer fragen ob mir da nicht ein Effekt wie bei der 1060 3GB ins Haus steht. Nur auf höherem Niveau.

Orko
2023-01-27, 01:28:25
"... dass zu früheren Generations-Wechseln bei nVidia die jeweiligen 60er Modelle des Neu-Portfolios die 80er-Modelle des Alt-Portfolios zu schlagen vermochten ..."

Schöne Übersicht. Vielen Dank!

Ja, jahrelang hatte sich NV an dieses Schema gehalten und es wurde daher von den Kunden (soweit ich das aus meinem Umfeld beurteilen kann) daher auch so erwartet:

Alle 2 Jahre gibts mit der neuen Chipgeneration in etwa die (Raster)Leistung der xx80 in Form der yy60 mit einem geringfügigen Preisaufschlag im Vergleich zur xx60.

Seit gefühlt Turing wurde aber mit diesem Schema gebrochen, entweder auf der Preisseite, oder auf der Leistungsseite, oder auf beiden.

Mit Preisen ist das natürlich immer so eine Sache: Listenpreise vs Marktpreislage, Preisentwicklung über die Lebenszeit einer Grafikkarte hinweg, Mining-Preisübertreibungen, Wettbewebssituation, Gebrauchtmarktpreise einer xx80 vor und (!) nach dem Launch einer yy60, und natürlich auch die Inflation bei Betrachtungen über einen längeren Zeitraum hinweg. Am Besten würde sich meiner Meining nach die Listenpreise zum Lauchzeitpunkt für einen langfristigen Vergleich eignen.

Meine Anregung daher:
In die Tabelle auch die Listenpreise zum Lauchzeitpunkt mit aufzunehmen, und eine Spalte hinzufügen die jeweils das Preis-Leistungs-Verhältnis einer yy60 mit der der vorhergehenden xx80 vergleicht.

Mein Bauchgefühl würde vermuten, dass sich der Bruch des langjährigen Schemas seit Turing damit noch deutlicher herauskristallisiert.

In zeitlicher Korrelation dazu steht die Einführung von Raytracing und Tensorcores (seit Turing), und Entwicklungen wie DLSS. Es ist offensichtlich, das NV sei Turing den Fokus nicht mehr exklusiv auf die Maximierung der Rasterleistung legt, und daher ist ein Bruch mit dem historischen Schema naheliegend und erwartbar.

Die rein hypothetische (und ich schätze wohl nicht beantwortbare Frage ist):
Hätte NV auf Raytracing, Tensorcores, etc komplett verzichtet und bei Turing, Ampere, Lovelace weiterhin rein die Rasterleistung maximiert, hätte dann das Schema gehalten (bzw gehalten werden können), oder wäre es wegen zunehmend kostensteigender Chiptechnologie trotzdem gebrochen worden?

Hikaru
2023-01-27, 06:12:55
Verarscht ist das nicht wirklich. Es ist so: sobald eine Ware auf dem Markt ist, kann man die Preise für diese Ware kaum noch regeln. Sprich, für die hohen Preise kann Nvidia nicht wirklich was und sie können auch kaum was dagegen machen. Die einzigen, die nennenswert was machen können sind die Kunden.

Natürlich können AMD/NV was gegen Händler-Scalper-Preise machen wenn sie (AMD/NV) GPUs tatsächlich zu normalen Preisen anbieten würden.

Ganz einfach, diese Händler auf die schwarze Liste setzen. Alles kein Problem. Aber dann wären die Margen natürlich geringer. Das ist der wahre Grund und nicht "die Händler werden eh aufschlagen".

Einfach eine verbindliche/max Preisempfehlung aussprechen und gut ist. Wer nicht spurt bekommt halt nix. Und privaten Scalpern wird gleichzeitig das Leben schwer gemacht weil das Risiko "alles" aufzukaufen um dann zu verticken viel zu hoch ist. Sieht man ja wie die auf diversen Karten sitzengeblieben sind.

Leonidas
2023-01-27, 07:34:46
Vorschlag zur Verbesserung: Ich würde die Performance-Indices jeweils auf eine der Karten (z.B. = xx60) "normen", so daß man die tatsächliche Differenz zwischen x80 und x60 sieht und nicht die Absolutwerte.

Das wird dann aber bei den anderen Karten auch wieder nur indirekt. Besser wäre es wohl, die exakte Performance-Differenz zwischen 80-alt und 60-neu anzugeben.

Leonidas
2023-01-27, 07:42:24
initalen -> initialen

Gefixt.




@Leonidas
Ich bin schon seit ewigen Zeiten stiller und treuer Leser von 3DCenter und mit diesem ersten Posting, möchte ich einfach mal Danke sagen, dass es das 3DCenter gibt und ich so jahrelang immer alle wichtigen Informationen zu CPUs und GPUs wie auf einem Silbertablett dargeboten „konsumieren“ darf und davon profitieren darf und das auch noch dazu kostenlos und mir der 3DCenter Index und die Lauchanalysen immer bei meinen Kaufentscheidungen sehr geholfen haben.
Vielen herzlichen Dank!

Danke für Deine Worte. Gern geschehen!




@Leonidas, wenn Du das hier lesen solltest:
Gerne bin ich bereit, Dir meine Arbeit vom Excel-File (das mir einige Stunden Arbeit gemacht hat – auch optisch ist es denke ich sehr übersichtlich geworden), bei Interesse zukommen zu lassen – einfach eine kurze Nachricht an meine Dir bekannte E-Mail-Adresse senden. Gerne kann man hier dann auch mehr Daten daraus veröffentlichen.

Solche kompletten Betrachtungen sollte ich als Seitenbetreiber erst machen, wenn die Daten sicher sind, nicht bereits schon im Gerüchtestatus. Das kann man als Foren-Mitglied machen, aber ich sollte es eben nicht tun.

Kleebl00d
2023-01-27, 10:22:00
Das werden die Scalper wegkaufen und dann viel teurer anbieten.
Was nur funktioniert, wenn man zu wenig anbietet oder anbieten kann.
Wenn die Scalper 100 Stück kaufen und bei Ebay für einen überzogenen Preis reinstellen, es aber zeitgleich noch was auf der Herstellerwebsite gibt, wird sich das Scalper-Problem schnell lösen. Die werden dann wenig oder gar nichts verkaufen. Nur wenn der Nachschub nicht gewährleistet ist, haben Scalper überhaupt eine Chance, das System gegen den normalen Kunden auszuspielen.
Genau die gleiche Argumentation sehe ich bei hochgezogenen Preisen bei Händlern, wo laut Meinung mancher hier der Hersteller dann machtlos daneben steht.
Gibt es direkt vom Hersteller ausreichend gute Karten zur UVP zu kaufen kann er damit eingreifen, wenn nicht sogar die UVP auch bei anderen Händlern forcieren.

Exxtreme
2023-01-27, 10:42:55
Was nur funktioniert, wenn man zu wenig anbietet oder anbieten kann.
Wenn die Scalper 100 Stück kaufen und bei Ebay für einen überzogenen Preis reinstellen, es aber zeitgleich noch was auf der Herstellerwebsite gibt, wird sich das Scalper-Problem schnell lösen. Die werden dann wenig oder gar nichts verkaufen. Nur wenn der Nachschub nicht gewährleistet ist, haben Scalper überhaupt eine Chance, das System gegen den normalen Kunden auszuspielen.
Genau die gleiche Argumentation sehe ich bei hochgezogenen Preisen bei Händlern, wo laut Meinung mancher hier der Hersteller dann machtlos daneben steht.
Gibt es direkt vom Hersteller ausreichend gute Karten zur UVP zu kaufen kann er damit eingreifen, wenn nicht sogar die UVP auch bei anderen Händlern forcieren.

Das ist ja nicht nur ein Scalper sondern tausende. Und zu den Scalpern gehören auch reguläre Händler. Und die kaufen nicht hundert Grafikkarten sondern gleich sehr viel mehr. Sprich, einen Hersteller-Shop leer kaufen geht durchaus. Und hunderttausende Grafikkarten anbieten können die auch nicht. Das packen die logistisch nicht. Nvidia hatte das Problem während der Mining-Boom-Phase. Im Shop was angeboten und instant weg war's. Weil die Kaufbots sehr viel schneller sind als Menschen.

Zudem ist das auch so, dass man den anderen Herstellern auch nicht als Konkurrenz treten will. Deshalb bietet Nvidia die FE-Editionen nur sehr limitiert an um die Anfangsnachfrage zu stillen. Deshalb bleibe ich dabei, man kann nicht dafür sorgen, dass ein Produkt zu billig angeboten wird. Denn es wird irgendjemanden geben, der die Preise hochheben wird. Man hat nur die Wahl ob man den Gewinn selbst einstreicht oder jemand anders.

Kleebl00d
2023-01-27, 13:56:00
Das ist ja nicht nur ein Scalper sondern tausende. Und zu den Scalpern gehören auch reguläre Händler. Und die kaufen nicht hundert Grafikkarten sondern gleich sehr viel mehr. Sprich, einen Hersteller-Shop leer kaufen geht durchaus.
Wie ich sagte: Scalper sind nur dann ein Problem, wenn man nicht genug liefern kann. Sie also die Möglichkeit zum Market-Cornering haben, in dem sie mit ihren (begrenzten, aber ausreichenden) Mitteln den Markt leerfegen und dann den Preis hochtreiben.
Bietet man als Hersteller genug an entzieht man Scalpern/Händlern die Handhabe zur Preismanipulation, da da ja niemand mehr bei den teuren Anbietern kauft.
Zusätzlich dazu gibt es ja noch Maßnahmen wie vernünftige Captchas, eine Zeithürde bei der Bestellung, Höchstmengen pro Bestellung, usw.
Muss man allerdings als Hersteller auch wollen. Alternativ lässt man sich nach ein paar Minuten leerkaufen, bietet dann den regulären Händlern Karten zu einem deutlich höheren Preispunkt zum Weiterverkauf an und kann dann nach außen hin sagen "Schaut her, guter Wille war da, wir haben doch günstig angeboten".
Aber wie es genau ist weiß ich natürlich genau so wenig wie (vermutlich?) alle anderen hier.

Gast
2023-02-01, 07:37:06
Wie ich sagte: Scalper sind nur dann ein Problem, wenn man nicht genug liefern kann.

Die Scalper sind immer ein Problem, wenn man genug liefern kann.
Sie sind nur dann kein Problem wenn man im Überfluss liefert, der Nachschub die Nachfrage also deutlich übersteigt.

Da man sich damit aber die eigenen Geschäftszahlen ruiniert verzichtet man verständlicherweise darauf.