PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias NextGen kommt später als erwartet, Ampere muß wohl bis ...


Leonidas
2021-04-29, 11:06:42
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-nvidias-nextgen-kommt-spaeter-als-erwartet-ampere-muss-wohl-bis-ende-2022-durch

GerryB
2021-04-29, 11:09:27
Dann hoffentlich nextGen mit nem HardwareScheduler, sonst...DriverOverhead in WOW:
https://www.youtube.com/watch?v=l37QyX2ST7M

Aroas
2021-04-29, 11:23:52
Ist jetz auch nicht weiter schlimm. Solange die Verfügbarkeit der Karten so mies bleibt, bekommen viele Spieler ja eh keine ab.
Da kann sich der Lebenszyklus dieser Generation auch sicher gern ein Jahr länger erstrecken.

Platos
2021-04-29, 11:25:28
Also hat jemand erwartet, dass die nächste Gen nicht 2 Jahre benötigt? Für mich war das klar. War ja bei Turing und Ampere genau gleich.

Leonidas
2021-04-29, 11:32:51
Für mich auch. Aber andere gingen durchaus von Terminen zwischen Ende 2021 bis Mitte 2022 aus. Jahreswechsel 2022/23 ist sicherlich das äußere Ende der bisher angenommenen Terminspanne.

Radeonfreak
2021-04-29, 11:48:42
Dann muss die 2080 Ti wohl noch länger halten als ich dachte.

Nightspider
2021-04-29, 11:53:09
Ob TSMC überhaupt die 5nm Kapazitäten für Nvidias Gaming Serie hätte?

TSMC ist ja schon bei 7nm ohne Nvidias Gaming Serie komplett ausgelastet und AMD bestellt von Jahr zu Jahr größere Wafer-Kapazitäten und Intel kommt ja auch schon noch dazu mit ihren GPUs.

Leonidas
2021-04-29, 11:57:26
Wenn es nicht vorgebucht wurde, dann nicht. Und wenn man es vorbucht, sieht man ja, was man da angeboten bekommt - und ob das ausreichend ist.

Denkbar ist natürlich immer noch Samsung. Das 5nm ist dort nicht so gut wie von TSMC, aber gegenüber Ampere auf 8nm ist es trotzdem ein Fullnode-Sprung.

Grafikspachtel
2021-04-29, 12:07:41
Schaut nach Brute-Force-Entwicklung aus.
Man klatscht 71% mehr Transistoren drauf für ¿35%? mehr Real World Performance.
Klar, die Teraflops verdoppeln sich, aber wieviel davon kam beim letzten Mal (Turding->Ampere) tatsächlich an?

Mit in der Spitzen +71% mehr Recheneinheiten gegenüber der Ampere-Generation wäre ein heftiger Performance-Sprung drin, deutlich größer als von Pascal zu Turing sowie Turing zu Ampere.
Bitte was?
Turing -> Ampere
4.608 -> 10.752
= +133%

Platos
2021-04-29, 12:08:45
7nm ist aber vor allem wegen den Konsolen so ausgelastet. 5nm wird aber dadurch nicht betroffen, ausser Sony/Microsoft bringt dann schon ne Slim Version (was 2 Jahre danach vlt. durchaus möglich ist). Allerdings würde ivh trotzdem weiterhin auf Samsung setzten. Nvidia kann ja schliesslich mit einem 10nm Abkömmling von Samsung gegen AMD mit einem 7nm TSMC mithalten, da dürften sie mit 5nm Samsung (der jetzt schon genutzt wird für Snapdragon SoCs) sicherlich keine Probleme haben gegen 5nm TSMC bei AMD.

Ich frag mich aber gerade, wo eine zukünftige Switch Pro produziert wird. Ich denke bei 7nm Samsung.

https://www.gamepro.de/artikel/nintendo-switch-pro-release-preis-specs-infos,3366391.html

Hier steht was davon, dass nvidia die Produktion vom Switch-SoC Ende des Jahres einstellen soll. Das deutet auf einen Nachfolger hin, was nach Switch Pro schreit.

Sicherlich wird das nicht in 5nm Produziert, also bleiben eig. nur noch 2 Möglichkeiten. Entweder der Nachfolge SoC der Switch wird bei TSMC 7nm gefertigt, oder aber sie gehen auch dafür zu (7nm) Samsung.

Gerade ersteres ist trotz gutem Prozess m.M.n eine ziemlich ausgeschlossene Möglichkeit. Wenn die Produktion des Tegra X1 Ende Jahres gestoppt wird, dann müsste auch spätestens dieses Jahr die Produktion eines Nachfolger anlaufen und 7nm wird sicher keine freien Kapazitäten haben.

Also wird das aus meiner Sicht 7nm Samsung (8nm ist nichts weiteres als 10nm und dürfte für eine Switch Pro nicht ausreichen??)

Also ich denke 8nm (10nm) Samsung wird zu wenig bringen, also wird es 7nm Samsung. Der SoC ist ja auch eher klein und 7nm Samsung ist nun auch schon in Snapdragon SoCs zu finden (wenn auch relativ neu, aber die Produktion des Tegra X1 Nachfolgers wird vlt. auch erst Ende des Jahres gestartet)

Nightspider
2021-04-29, 12:13:10
Allerdings ist der 7nm Prozess auch schon 2 Jahre alt.

Die 5nm Kapazitäten müssen ja erstmal über dieses Niveau angehoben werden.

Denn Apple steigt immer mehr von Intel auf eigene M-Series Chips um. Das sind riesige Kapazitäten die Apple da für sich selber benötigt.

Aber wahrscheinlich kann man da von außen nur raten.

Mich würde es jedenfalls wundern wenn Nvidia bei der Gaming Serie nach nur einer Generation wieder von Samsung auf TSMC wechselt.

Nvidia und auch Qualcomm versuchen etwas dem TSMC Monopol entgegenzuwirken. Schließlich verlangt TSMC auch immer höhere Preise.

Gast
2021-04-29, 12:13:53
Ob TSMC überhaupt die 5nm Kapazitäten für Nvidias Gaming Serie hätte?

Es gab ja schon letztes Jahr das Gerücht, dass Nvidia größere Mengen an 5nm Kapazitäten reserviert hat.

Platos
2021-04-29, 12:15:42
Apple nutzt dann schon 3nm Ende 2022. Die dann noch aktuellen (nicht aktualisierten) 5nm Geräte werden vlt. noch weiterhin produziert, aber auch das wird dann 4nm sein oder sowas in der Art und nicht 5nm.

Edit: Sehe ich auch so @Nightspider. Nvidia wird bei Samsung bleiben, genauso wie qualcomm mittlerweile auf Samsung setzt.

Das neue Flagship wird bei Samsung gefertigt und alle aus der 700-er Serie eig. auch.

Nightspider
2021-04-29, 12:24:19
Gut, die Smartphones bekommen wahrscheinlich ein 3nm SoC aber Apples M2 Chip wird garantiert noch in 5nm gefertigt.

Denn die 3nm Kapazitäten wären dafür nächstes Jahr gar nicht groß genug imo.

Gast
2021-04-29, 12:46:38
Bitte was?
Turing -> Ampere
4.608 -> 10.752
= +133%
Da schlägt das Karma des unglücklichen Marketings zu. Der SM Count hat sich sehr, sehr moderat von Turing zu Ampere erhöht.

mac_skull
2021-04-29, 13:00:46
Hm...wenn das noch mehr als 1,5 Jahre dauert, halte ich es mehr denn je für gut möglich, dass Nvidia einen Refresh oder Zusatzkarten mit doppeltem Speicher bringt. Das wäre in meinen Augen doch relativ leicht und schnell umzusetzen und gut zu vermarkten, oder nicht?

Gast
2021-04-29, 13:06:41
Denn Apple steigt immer mehr von Intel auf eigene M-Series Chips um. Das sind riesige Kapazitäten die Apple da für sich selber benötigt.


Macs sind eine Nische, riesige Kapazitäten braucht Apple für Iphone/IPad, das ist aber nichts neues.

Die Macs sind dagegen Peanuts.

Leonidas
2021-04-29, 13:41:47
Bitte was?
Turing -> Ampere
4.608 -> 10.752
= +133%


Das war Performance-bezogen gemeint, nicht bezogen auf die Rohleistung. Ist aber im Text nicht eindeutig genug, ich verbessere die Passage.

Gast
2021-04-29, 14:17:24
NVidia wäre dumm, wenn sie die derzeitige Lage nicht voll ausnutzen würden.

Warum ein Produkt ersetzen, dass nachgefragt wird, wie die Luft zum atmen?
Warum ein Produkt ersetzen, an dem man ein VIELFACHES verdient wie eigendlich erwartet?
Warum ein Produkt ersetzen, von dem man (sobald die Umstände es erlauben) noch Massen verkaufen kann ohne neue Kosten zu haben?

Nur weil bisher die Zyklen kürzer waren? Oder weger uralten Vorhersage (Moors Law)?

Oder weil einige neureiche Blagen schrein "Meine 3090 founders gold ist sooo alt, ich will neu"?

Gast Ritis
2021-04-29, 14:24:22
Seltsam, ich war fest davon ausgegangen, dass Nvidia wieder 2 Jahre für die Nachfolgearch nimmt. Höchstens ein Refresh von Ampere könnte noch kommen und wird auch sicherlich kommen. Hat doch letztes mal ganz "super" geklappt ;D

Nur bei AMD gehe ich nach wie vor von einer RDNA3 Vorstellung in diesem Jahr aus. Auch wenn dann im Handel 2022 werden könnte. Voraussetzung ist, dass man weiterhin onTrack bleibt. Für einen Nvidia Refresh wird man bestimmt etwas vorbereitet haben, entweder ein Shrink mit mehr Takt und mehr Cache oder echte neue Gen.

Falls Nvidia tatsächlich ein Refresh ausfallen lassen würde weil das alte Zeug noch gekauft wird könnte AMD auf 1.5 Jahre Zyklus ausdehnen...

Platos
2021-04-29, 14:27:49
Gut, die Smartphones bekommen wahrscheinlich ein 3nm SoC aber Apples M2 Chip wird garantiert noch in 5nm gefertigt.

Denn die 3nm Kapazitäten wären dafür nächstes Jahr gar nicht groß genug imo.

Die Laptops mit dem M1 sind auch in 5nm. Das wird dann folglich nächstes Jahr auch nicht anders sein. Bei Macs erlaube ich mir kein Urteil. Ich kann mir auch kaum vorstellen, dass solche (zwangsläufig) grossen Chips mit 3nm gefertigt werden.

Aber die Laptops auf jeden Fall (War ja jetzt wie gesagt auch der Fall). Kommt aber auf das Launchfenster der Laptops und der Handys an.

rentex
2021-04-29, 14:48:04
Eine Verschiebung des Ampere Nachfolgers, war aufgrund der aktuellen Lage absehbar.

Korvaun
2021-04-29, 15:08:33
Ich dachte bisher die Nextgen kommt so ca. Frühsommer 2022, so wie es bisher oft war. Aber gut, Ende 2022 wäre auch nicht der Weltuntergang. Ich glaube da werde ich diese Gen. wohl komplett aussetzen und meine 2080ti bis dahin "durchschleppen", reicht ja locker für alles (ohne RTX) aktuell. Ganz zu schweigen das man eh nix zu normalen Preisen kaufen kann (bis nächstes Jahr?).

Fragt sich nur wann AMD mit RNDA3 um die Ecke kommt und was nV dann macht wenn das z.b. schon im Frühjahr 2022 der Fall wäre...

Nightspider
2021-04-29, 15:18:20
Eine Verschiebung des Ampere Nachfolgers, war aufgrund der aktuellen Lage absehbar.

Der Ampere Nachfolger wurde nicht verschoben der wird ~2 Jahre nach Ampere kommen, so wie es wahrscheinlich schon immer geplant war.

Als ob die aktuelle Situation etwas damit zu tun hätte.

Macs sind eine Nische, riesige Kapazitäten braucht Apple für Iphone/IPad, das ist aber nichts neues.

Die Macs sind dagegen Peanuts.

Okay, da hast du wahrscheinlich auch wieder Recht. Hab ehrlich gesagt keine Ahnung wie hoch die Stückzahlen genau sind.

Prinzenrolle
2021-04-29, 17:33:09
Nvidia hat sich ja noch ein paar SM zum aktivieren übriggelassen, dazu kommt wohl schnellerer GDDR6x und ein Hauch mehr Takt durch einen ausgereifteren Prozess.
8nm müsste schön günstig sein.

iamthebear
2021-04-29, 17:56:26
1.) Dass die Nachfolgegeneration nicht vor Ende 2022 kommt sollte eigentlich jedem klar gewesen sein. In der Roadmap ist Ampere 2020 und Ampere Next 2022 eingezeichnet. Ampere Next Next kommt dann 2024. Das deutet nach einer exakten Beibehaltung des bisherigen Zyklus hin.
Ob nun nach 1 Jahr (also Ende 2021) ein Refresh ähnlich der Super Karten 2019 gebracht wird muss man sehen. Derzeit halte ich es für unwahrscheinlich, dass Nvidia neue Karten mit einem besseren P/L Verhältnis als der aktuelle UVP gebracht werden solange ja selbst dieser bei Weitem nicht erreicht wird.

2.) Bei den Vergleichen mit Pascal, Turing und Ampere sollte man eines nicht vergessen:
Bei Turing kann jeder Shader parallel noch INT Operationen berechnen. Bei Pascal und Ampere werden INT Berechnungen mit den FP Einheiten gelöst (also statt einer FP Operation).
Eigene INT Einheiten sind zwar effizienter, da ein INT Kern weniger Transistoren braucht alo ein FP Kern, dafür aber brach liegt wenn keine INT Kalkulationen zu tun sind (was oft der Fall ist, weil die meisten Berechnungen FP sind).

Dies bedeutet in der Praxis ca.
.) Die Performance eines Turing CUDA Cores ist je nach Spiel höher also die von Pascal oder Ampere.
.) Dafür braucht ein Turing CUDA Core aber auch mehr Transistoren.

Die Frage ist also was besser ist:
.) Auf derselben Fläche mehr CUDA Cores aber INT Berechnungen mit den FP Einheiten machen
.) Oder auf derselben Fläche weniger CUDA Cores, die jedoch INT Berechnungen parallel machen können

Am Besten kann man hier folgende Chips vergleichen, da diese in etwa dieselbe Leistung haben (3060 etwas schwächer auf Grund der Speicherbandbreite):
.) 1080 Ti: 3584 CUDA Cores mit 11,2 Mrd. Transistoren
.) 2070 Super: 2560 CUDA Cores mit 11,3 Mrd. Transistoren
.) 3060: 3584 CUDA Cores mit 13,25 Mrd. Transistoren

Bei allen Transistorangaben wurden die nicht genutzten SM anteilsmäßig rausgerechnet.

Es sieht so aus als ob die INT Einhzeiten von Turing grundsätzlich der bessere Ansatz waren:
.) Gegenüber Pascal hat man die gesamten RT und Tensor Cores unterbringen können ohne die Transistoranzahl zu erhöhen.
.) Bei Ampere ist man wieder zurück auf den Ansatz von Pascal gegangen, was gegenüber von Turing um 2 Mrd. Transistoren mehr gekostet hat.

Sehen wir uns die nächste gleich schnelle Kombination an:
.) 2080 Ti: 4352 CUDA Cores mit 17,5 Mrd. Transistoren
.) 3070: 5888 CUDA Cores mit 16,8 Mrd. Transistoren

Hier ist der gegenteilige Effekt erkennbar. Allerdings wird dies denke ich durch die Fertigungstechnologie verzerrt, da die 2080 Ti auf Grund der Verlustleistung mit geringeren Taktraten betrieben wird. Rechnet man diesen Effekt raus, ist hier auch Turing wieder im Vorteil.

Mr.Smith
2021-04-29, 18:04:39
Samsung 5nm EUV ist genauso möglich, würd ich noch nicht komplett auschließen. Vor nem Jahr wurde das noch so gemunkelt als Ampere Nachfolger.

Gast
2021-04-29, 18:05:41
1.) Dass die Nachfolgegeneration nicht vor Ende 2022 kommt sollte eigentlich jedem klar gewesen sein. In der Roadmap ist Ampere 2020 und Ampere Next 2022 eingezeichnet. Ampere Next Next kommt dann 2024. Das deutet nach einer exakten Beibehaltung des bisherigen Zyklus hin.
Ob nun nach 1 Jahr (also Ende 2021) ein Refresh ähnlich der Super Karten 2019 gebracht wird muss man sehen. Derzeit halte ich es für unwahrscheinlich, dass Nvidia neue Karten mit einem besseren P/L Verhältnis als der aktuelle UVP gebracht werden solange ja selbst dieser bei Weitem nicht erreicht wird.

2.) Bei den Vergleichen mit Pascal, Turing und Ampere sollte man eines nicht vergessen:
Bei Turing kann jeder Shader parallel noch INT Operationen berechnen. Bei Pascal und Ampere werden INT Berechnungen mit den FP Einheiten gelöst (also statt einer FP Operation).
Eigene INT Einheiten sind zwar effizienter, da ein INT Kern weniger Transistoren braucht alo ein FP Kern, dafür aber brach liegt wenn keine INT Kalkulationen zu tun sind (was oft der Fall ist, weil die meisten Berechnungen FP sind).

Dies bedeutet in der Praxis ca.
.) Die Performance eines Turing CUDA Cores ist je nach Spiel höher also die von Pascal oder Ampere.
.) Dafür braucht ein Turing CUDA Core aber auch mehr Transistoren.

Die Frage ist also was besser ist:
.) Auf derselben Fläche mehr CUDA Cores aber INT Berechnungen mit den FP Einheiten machen
.) Oder auf derselben Fläche weniger CUDA Cores, die jedoch INT Berechnungen parallel machen können

Am Besten kann man hier folgende Chips vergleichen, da diese in etwa dieselbe Leistung haben (3060 etwas schwächer auf Grund der Speicherbandbreite):
.) 1080 Ti: 3584 CUDA Cores mit 11,2 Mrd. Transistoren
.) 2070 Super: 2560 CUDA Cores mit 11,3 Mrd. Transistoren
.) 3060: 3584 CUDA Cores mit 13,25 Mrd. Transistoren

Bei allen Transistorangaben wurden die nicht genutzten SM anteilsmäßig rausgerechnet.

Es sieht so aus als ob die INT Einhzeiten von Turing grundsätzlich der bessere Ansatz waren:
.) Gegenüber Pascal hat man die gesamten RT und Tensor Cores unterbringen können ohne die Transistoranzahl zu erhöhen.
.) Bei Ampere ist man wieder zurück auf den Ansatz von Pascal gegangen, was gegenüber von Turing um 2 Mrd. Transistoren mehr gekostet hat.

Sehen wir uns die nächste gleich schnelle Kombination an:
.) 2080 Ti: 4352 CUDA Cores mit 17,5 Mrd. Transistoren
.) 3070: 3584 CUDA Cores mit 16,8 Mrd. Transistoren

Hier ist der gegenteilige Effekt erkennbar. Allerdings wird dies denke ich durch die Fertigungstechnologie verzerrt, da die 2080 Ti auf Grund der Verlustleistung mit geringeren Taktraten betrieben wird. Rechnet man diesen Effekt raus, ist hier auch Turing wieder im Vorteil.

3070 hat 5888 cores

Mr.Smith
2021-04-29, 18:11:02
Hm...wenn das noch mehr als 1,5 Jahre dauert, halte ich es mehr denn je für gut möglich, dass Nvidia einen Refresh oder Zusatzkarten mit doppeltem Speicher bringt. Das wäre in meinen Augen doch relativ leicht und schnell umzusetzen und gut zu vermarkten, oder nicht?

die ti sollen doch auch im mai/juni kommen?!
zumindest 3080ti mit verdoppeltem Speicher (20GB), 3080ti könnte aber auch mit 12GB kommen, wäre typischer für nVidia

Mr.Smith
2021-04-29, 18:13:16
NVidia wäre dumm, wenn sie die derzeitige Lage nicht voll ausnutzen würden.

Warum ein Produkt ersetzen, dass nachgefragt wird, wie die Luft zum atmen?
Warum ein Produkt ersetzen, an dem man ein VIELFACHES verdient wie eigendlich erwartet?
Warum ein Produkt ersetzen, von dem man (sobald die Umstände es erlauben) noch Massen verkaufen kann ohne neue Kosten zu haben?

Nur weil bisher die Zyklen kürzer waren? Oder weger uralten Vorhersage (Moors Law)?

Oder weil einige neureiche Blagen schrein "Meine 3090 founders gold ist sooo alt, ich will neu"?


nVidia verdient nicht ein vielfaches, das sind die Reseller oder evtl. auch Grafikkartenhersteller.
Die Chippreise sind ähnlich wie zuvor ausgemacht.. die haben ihren UVP.. evtl. sinkt der nicht wie normalerweise, aber das war es dann auch schon.

Mr.Smith
2021-04-29, 18:19:38
Seltsam, ich war fest davon ausgegangen, dass Nvidia wieder 2 Jahre für die Nachfolgearch nimmt. Höchstens ein Refresh von Ampere könnte noch kommen und wird auch sicherlich kommen. Hat doch letztes mal ganz "super" geklappt ;D

Nur bei AMD gehe ich nach wie vor von einer RDNA3 Vorstellung in diesem Jahr aus. Auch wenn dann im Handel 2022 werden könnte. Voraussetzung ist, dass man weiterhin onTrack bleibt. Für einen Nvidia Refresh wird man bestimmt etwas vorbereitet haben, entweder ein Shrink mit mehr Takt und mehr Cache oder echte neue Gen.

Falls Nvidia tatsächlich ein Refresh ausfallen lassen würde weil das alte Zeug noch gekauft wird könnte AMD auf 1.5 Jahre Zyklus ausdehnen...

die roadmaps sahen bisher alle so aus, dass rdna3 zusammen mit zen4 kommen wird.
wahrscheinlich direkt mit pci-e 5.0 bei rdna3 Grafikkarten?! Und dann direkt super schnelle SSDs und den Ram besser mit ausnutzen.

Wobei nur GPUs dieses Jahr schon auf 5nm umstellen ein schlauer move wäre, nVidia ist schwierigerer Konkurrent, CPUs hat es noch nicht nötig, da würde 6nm zen3+ schon mehr als ausreichen. Damit würde man auch Produktionskapazitäten nicht zu sehr streßen.
Andererseits wird Apple komplett in 5nm produzieren dieses Jahr und viel Kapazität brauchen..

Gast
2021-04-29, 20:29:54
die roadmaps sahen bisher alle so aus, dass rdna3 zusammen mit zen4 kommen wird.
wahrscheinlich direkt mit pci-e 5.0 bei rdna3 Grafikkarten?! Und dann direkt super schnelle SSDs und den Ram besser mit ausnutzen.

Wobei nur GPUs dieses Jahr schon auf 5nm umstellen ein schlauer move wäre, nVidia ist schwierigerer Konkurrent, CPUs hat es noch nicht nötig, da würde 6nm zen3+ schon mehr als ausreichen. Damit würde man auch Produktionskapazitäten nicht zu sehr streßen.
Andererseits wird Apple komplett in 5nm produzieren dieses Jahr und viel Kapazität brauchen..

Das mit rdna3 auf 5nm dieses jahr macht gar keinen sinn, wenn doch noch nicht mal apple Seine chips auf 5nm produziert. Die arm chips kommen janikmer zumindest ein halbes jahr oder gar ein jahr vor den grosen x86 und gpus.

matty2580
2021-04-29, 20:47:57
Der übliche 2 Jahreszyklus von Nvidia wäre im September 2022 herum gewesen.
D.h. Q1 2023 wäre dann ungefähr ein halbes Jahr Verschiebung, wenn man bei Nvidia 2 Jahre für den Nachfolger eingeplant hat.

Damit bietet sich für Nividia eine Refresh Gen an, die es zuletzt über dass ganze Angebot bei Kepler gab.

Der_Korken
2021-04-29, 21:28:20
Bei allen Transistorangaben wurden die nicht genutzten SM anteilsmäßig rausgerechnet.


Das verzerrt die Berechnungen natürlich etwas, weil die SMs nicht 100% der Fläche ausmachen. Die 2070S kann z.B. gegenüber der 2080S auf das volle Speicherinterface, die vollen ROPs und den vollen L2-Cache zurückgreifen kann. Dadurch steht sie in deiner Berechnung etwas besser da, weil du trotzdem 1/6 der Transistoren abziehst.


Allerdings wird dies denke ich durch die Fertigungstechnologie verzerrt, da die 2080 Ti auf Grund der Verlustleistung mit geringeren Taktraten betrieben wird. Rechnet man diesen Effekt raus, ist hier auch Turing wieder im Vorteil.

Ja, Takt muss man immer rausrechnen, sonst hauen die Vergleiche nicht hin. Die 2080Ti taktet aufgrund ihrer Größe nicht schlechter als die kleineren Turing-Chips, aber der absolute Verbrauch wird irgendwann zum Problem. Ein extrem breiter, niedrig getakteter Chip ist effizienter als ein mittelbreiter, hoch taktender Chip. Deswegen hatten die 102er Chips von Nvidia oft so übermäßig viele SMs: Man wollte aus einem gegebenen Powerbudget (z.B. 250W) so viel Leistung rausholen wie möglich, auch wenn der Chip dadurch teuer wird.

MasterElwood
2021-04-30, 05:18:51
Das war Performance-bezogen gemeint, nicht bezogen auf die Rohleistung. Ist aber im Text nicht eindeutig genug, ich verbessere die Passage.

Ich verstehe trotzdem nicht wo deine "Turing zu Ampere (+49%)" Zahlen herkommen.

3DC 4k Index
2080: 192
3080: 328

Also kommen doch HIER schon genau 71% mehr Performance an :confused:

Booby
2021-04-30, 07:53:37
Das mit rdna3 auf 5nm dieses jahr macht gar keinen sinn, wenn doch noch nicht mal apple Seine chips auf 5nm produziert.
Apple fertigt den A14 und den M1 seit letztem Jahr in 5nm.

Badesalz
2021-04-30, 08:16:19
Ist jetz auch nicht weiter schlimm. Solange die Verfügbarkeit der Karten so mies bleibt, bekommen viele Spieler ja eh keine ab.
Da kann sich der Lebenszyklus dieser Generation auch sicher gern ein Jahr länger erstrecken.Wollte ich grad exakt gleiches schreiben. Es werden aber knapp ZWEI Jahre.

Insofern vielleicht auch sehr interessant, weil die ganzen code-bungler vielleicht auch mal lernen effizient zu programmieren.

Gast Ritis
2021-04-30, 08:30:43
die roadmaps sahen bisher alle so aus, dass rdna3 zusammen mit zen4 kommen wird.
wahrscheinlich direkt mit pci-e 5.0 bei rdna3 Grafikkarten?! Und dann direkt super schnelle SSDs und den Ram besser mit ausnutzen.

Glaube nicht dass eine GPU-Gen auf bestimmte PCIe-Gen getrimmt wird, die muss auch noch auf älteren Mainboards laufen. Beim Speicherinterface schon. Da hat sich AMD scheinbar mit IF-Cache relativ unabhängig gemacht. Ob son HW-Dekomprimierer wie bei den Konsolen dann in der CPU oder GPU landet oder beides, muss man abwarten.
Sampler Feedback Streaming ala Xbox Velocity Arch wäre allerdings extrem krass was die Reduktion an Bandbreitenbedarf anbelangt. Allein damit hätte man viel "Luft" gegenüber älteren GPU-Arch gewonnen.
Aber dass AMD CPU+GPU in gemeinsmamen Generationen planen könnte, da ist was dran. So wie beim SAM Support... einfach der Vermarktung wegen. und dass die Softwareleute nur HW-Kombis im bestimmten Zeitfenster supporten müssen.

Der übliche 2 Jahreszyklus von Nvidia wäre im September 2022 herum gewesen.
"... würde im September 2022 herum sein."

Leonidas
2021-04-30, 09:04:09
Ich verstehe trotzdem nicht wo deine "Turing zu Ampere (+49%)" Zahlen herkommen.

3DC 4k Index
2080: 192
3080: 328

Also kommen doch HIER schon genau 71% mehr Performance an :confused:


2080Ti: 247%
3090: 368%
= +49%

So was kann man immer nur von der Spitze aus betrachten. Alle anderen Vergleiche sind dadurch verfälscht, dass andere Chips verwendet werden bzw. dass die Karten ein anderes Standing im Portfolio haben. 2080 basiert auf dem zweitbesten Chip, 3080 aber auf dem erstbesten - kein guter Vergleich.

Mr.Smith
2021-04-30, 11:29:10
Das mit rdna3 auf 5nm dieses jahr macht gar keinen sinn, wenn doch noch nicht mal apple Seine chips auf 5nm produziert. Die arm chips kommen janikmer zumindest ein halbes jahr oder gar ein jahr vor den grosen x86 und gpus.

ich sag ja mit zen4 2022 geplant.. alles andere eher unrealistisch, außer rdna3 minimalst möglich 2021 in 5nm (aber unrealistisch)

aber was du schreibst.. großes hä??? a14 im ipad air 4 ist nicht 5nm?
oder iphone 12 nutzt keinen 5nm chip?
oder iphone 12 mini nutzt keinen 5nm chip?
oder iphone 12 pro nutzt keinen 5nm chip?
oder iphone 12 pro max nutzt keinen 5nm chip?

m1 ist nicht 5nm im macbook air m1? und der m1 im macbook pro m1 ist auch nicht 5nm? oder ipad 11" pro 2021 nutzt auch keinen 5nm m1 chips oder ipad 12.9" pro 2021 nutzt keinen 5nm m1 Cchip??

jetzt bin ich mal total geflasht.

Mr.Smith
2021-04-30, 11:33:37
Glaube nicht dass eine GPU-Gen auf bestimmte PCIe-Gen getrimmt wird, die muss auch noch auf älteren Mainboards laufen. ..
Ob son HW-Dekomprimierer wie bei den Konsolen dann in der CPU oder GPU landet oder beides, muss man abwarten.
Sampler Feedback Streaming ala Xbox Velocity Arch wäre allerdings extrem krass was die Reduktion an Bandbreitenbedarf anbelangt. Allein damit hätte man viel "Luft" gegenüber älteren GPU-Arch gewonnen.
Aber dass AMD CPU+GPU in gemeinsmamen Generationen planen könnte, da ist was dran. So wie beim SAM Support... einfach der Vermarktung wegen. und dass die Softwareleute nur HW-Kombis im bestimmten Zeitfenster supporten müssen.


"... würde im September 2022 herum sein."


lol, hast du wirklich nicht gewusst, dass pci-e schon immer abwärtskompatibel war?
pci-e 3.0 karte die in 4.0 slot mit 3.0 läuft
pci-e 4.0 karte die mit pci-e 3.0 läuft
karten die mit x4, x8, x16 laufen ...

und ja, nachdem Microsoft damit Erfahrungen gesammelt hat, und AMD auch, warum sollte sowas nicht kommen.. Natürlich nach Evaluierung und feststellen von Vorteilen.

und wenn intel ab Herbst pci-e 5.0 bietet mit AlderLake und AMD mit Zen4, dann macht es nur Sinn, wenn man mit neuer Grafikkartengeneration gleichzieht.
Damit wäre ein x4 schön möglich, da ein pci-e 5.0 x4 ähnlich schnell wie pci-e 3.0 x16 wäre, und das aktuell noch ziemlich gut ist (nicht das viele Menschen davon betroffen wären, aber es gibt Leute die wollen eine zweite Grafikkarte per VM weiterleiten und Boards bieten oft nicht 2*x8 sondern x16+x4 an.)

genauer Zeitpunkt hängt sicherlich auch davon ab ob noch ein zen3(+) (N6) refresh noch kommt.

Nightspider
2021-04-30, 13:28:56
rdna3 minimalst möglich 2021 in 5nm (aber unrealistisch)

Eventuell kommt CDNA2 aka Instict MI200 in 5nm noch dieses Jahr aber es ist nicht ausgeschlossen das dieser doch noch in 7nm kommt.

Mr.Smith
2021-04-30, 14:02:29
Eventuell kommt CDNA2 aka Instict MI200 in 5nm noch dieses Jahr aber es ist nicht ausgeschlossen das dieser doch noch in 7nm kommt.

Nicht Consumer-Karten ist nochmals was anderes, wobei man normalerweise mit kleineren Chips anfängt.
Abwarten, wird eh wohl noch 1 Jahr dauern, bis sich der Chipmarkt beruhigt hat.

Legendenkiller
2021-04-30, 14:20:55
Hat nicht Apple exclusiv den 5nm bei TSMC gebucht also so einmal alles ?

Warum sollte TSMC 5nm an Andere verkaufen wenn Apple alles nimmt un das auch bezahlt.
Gut hohe Preise machen es für Samsung und Intel leichter selber auf 3/5 nm zu kommen. Weil man dann auch shcon mit geringen Yield loslegen kann.
Intels 5nm soll 2025 output haben und 3nm ab 2028*

PS:
H1 22 vorgestellt ... also kaufbar ab H4 22 und zwar nur 1000€ aufwärts ... zum UVP ab H3 23 oder so...

Naja 7nm wird noch lange lange Zeit für die Massenfertigung aktuell bleiben. Nur das Highend gedöns kommt dann erstmal in 5nm...
Würdemich nicht wundern wenn RDNA3 und RTX40.. im mainstream und midrange noch in 7nm/8nm kommen. oder garnicht, sondern das weiter mit RDNA2 und 30xx beliefert wird dann wirds halt hochgelabelt.

Gast
2021-04-30, 14:28:29
Hat nicht Apple exclusiv den 5nm bei TSMC gebucht also so einmal alles ?


Am Anfang wahrscheinlich. TSMC hat schon mehrmals betont, dass man beim 5nm Ausbau schneller als erwartet ist, mittlerweile gibt es garantiert schon Kapazitäten für andere.

Gast Ritis
2021-04-30, 15:32:46
lol, hast du wirklich nicht gewusst, dass pci-e schon immer abwärtskompatibel war?
pci-e 3.0 karte die in 4.0 slot mit 3.0 läuft
pci-e 4.0 karte die mit pci-e 3.0 läuft
karten die mit x4, x8, x16 laufen ...

lol, hast Du wirklich nicht kapiert dass ich das geschrieben weil du sone Verbindung zu PCIe5 erst hergestellt hast? ;D
Hoffe die Unterstellung jetzt kein Versuch nen Flame-War anzuzetteln-

PCIe5 für Gaming-GPU braucht es auf lange Sicht nicht solange genug VRAM verbaut wird bzw. Shader sich höchstens alle 2 Jahre verdoppeln. Eine 8-Lane Reduktion ist da kein ernstzunehmendes Argument.
DirectStorage und Velocity Architektur von Microsoft werden den Bedarf eher senken. Die Codec-Arbeit kostet weniger Watt als die Bandbreite bei I/O und Storage.

MasterElwood
2021-04-30, 17:47:11
2080Ti: 247%
3090: 368%
= +49%

So was kann man immer nur von der Spitze aus betrachten. Alle anderen Vergleiche sind dadurch verfälscht, dass andere Chips verwendet werden bzw. dass die Karten ein anderes Standing im Portfolio haben. 2080 basiert auf dem zweitbesten Chip, 3080 aber auf dem erstbesten - kein guter Vergleich.

2080TI war aber die Top Gamerkarte, während NV die 3090 explizit nicht als Gamerkarte bezeichnen (da ja eine Mischung aus TI und Titan). Der Vergleich mit den 80ern ist also passender.

Leonidas
2021-04-30, 17:54:00
Namen sind mir Schall und Rauch. Das schnellste verfügbare, was keinen völlig aus der Art geschlagenen Preis hat.

Nebenbei müsste ich gemäß Deiner These eher 2080Ti mit 3080 vergleichen (sprich noch geringerer Gewinn).

MiamiNice
2021-04-30, 18:20:05
2080TI war aber die Top Gamerkarte, während NV die 3090 explizit nicht als Gamerkarte bezeichnen (da ja eine Mischung aus TI und Titan). Der Vergleich mit den 80ern ist also passender.

Du solltest mal einen Blick in die PCs der Gamer werfen. Ich, z.b., kenne weit mehr Leutz mit 3090 statt 3080 in der Kiste. Bei den Preisen auch absolut verständlich.
3090 ist DIE Karte für Gamer.

MasterElwood
2021-04-30, 21:13:12
Du solltest mal einen Blick in die PCs der Gamer werfen. Ich, z.b., kenne weit mehr Leutz mit 3090 statt 3080 in der Kiste. Bei den Preisen auch absolut verständlich.
3090 ist DIE Karte für Gamer.

Leute kaufen die 3090er aber wegen dem Speicher - nicht wegen der paar Prozent mehr Performance.

MiamiNice
2021-04-30, 21:18:49
Ich habe nichts anderes behauptet. Die aktuellen Preise tun den Rest, die Differenz macht den Braten nicht wirklich fett.

MasterElwood
2021-04-30, 21:20:30
Namen sind mir Schall und Rauch. Das schnellste verfügbare, was keinen völlig aus der Art geschlagenen Preis hat.

Nebenbei müsste ich gemäß Deiner These eher 2080Ti mit 3080 vergleichen (sprich noch geringerer Gewinn).

Desswegen meine ich ja es ist so nicht zu rechnen, weil man einen Generationsvergleich so nicht fair bewerten kann.

Entweder sollte man die Karte nehmen bei dem der Abstand am größten ist (weil es zeigt was im Generationsvergleich maximal möglich ist),

oder man sollte den DURCHSCHNITT von mehreren Karten nehmen.

Blind an genau einem Model eine ganze Generation zu beurteilen kann nicht gut ausgehen.

Leonidas
2021-05-01, 03:33:57
Du hast Recht, wenn es um die ganze Generation geht (Durchschnitt mehrerer Karten). Allerdings kann so ein Vergleich auch danebengehen, wenn Karten unvergleichbar sind (wie eben 3080 zu 2080). Deswegen und weil es hier nur um die Bewertung der absoluten Spitzen-Performance ging, war es besser, sich auf die jeweiligen Spitzenlösungen zu konzentrieren. Das ist also keine wirkliche Generations-Angabe, sondern nur eine Angabe à "Plus in der Leistungsspitze".

Gast
2021-05-01, 17:40:38
Dann hoffentlich nextGen mit nem HardwareScheduler, sonst...DriverOverhead in WOW:
https://www.youtube.com/watch?v=l37QyX2ST7M

Hoffentlich nicht ansonsten haben wir Termi 2.0

Calypso
2021-05-03, 16:15:27
also ich bin mir ja mit der Behauptung, dass nvidia Wochen bis Monate nach AMD kommt nicht sicher - die letzten mind. 2 Generationen hat man das vorher auch immer gesagt, und schwupps, war nvidia viel früher oder mind. ein paar Wochen früher da und AMD hat in die Röhre gschaut....

Leonidas
2021-05-03, 16:35:37
Stimmt absolut. NV hat in dieser Frage immer wieder positiv überrascht. Mal schauen, ob es auch diesesmal gelingt.