PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 10./11. Juli 2021


Leonidas
2021-07-12, 06:38:44
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1011-juli-2021

Gast
2021-07-12, 08:51:47
Naja, ich verweise noch einmal darauf, dass es das selbe Gerücht schon für Ampere gab. Die sollte auch doppelt so schnell sein als Turing. Im Endeffekt sind es dann aber grob 35% mehr bei grob 30% mehr Verbrauch.
Insofern kann man durchaus davon ausgehen, dass NVidia auch tatsächlich den Verbrauch bis 550W schieben könnte, wenn man wirklich die doppelte Leistung haben will. Denn anders wird man das nicht erreichen, außer man schafft einen massiven Architektur Sprung (was ich wegen der doch eher mauen Ampere Generation nicht wirklich für realistisch erachte).
Die Frage wird dann eher: Ist das dann ein Monolith, oder sind das dann mehrere Chips? 550W bei einem Monolithen wären schon heftig. Wie riesig müsste das Ding sein, um die Abwärme noch weg zu bekommen...

GerryB
2021-07-12, 08:52:52
"Danach soll die getroffene Vorhersage einer doppelten Performance nur für gewöhnliche Rasterizer-Grafik gelten."

Wäre mit INT+FP16-Einheiten ala Turing zzgl. deutlich besserem Process/Effizienz kein Problem.(x)
(Ampere ist eigentlich ein komischer Workstation-Ableger mit seinen only FP32-Units.)

(x)bei gleichem Verbrauch ist viel möglich und inzwischen sind die Grakakühler auch solchen Herausforderungen gewachsen
(Wenn man mal die 3070Ti und die 3080Ti als Maßstab nimmt)

Vermutlich gibts dann auch mehr Takt und endlich nen Hardware-Scheduler, evtl. auch nen besseren Cache, da sind doch einige Dinge
möglich, so das net zwingend die Anzahl der Shader verdoppelt werden muss.
Beim Vram gibts sicher ne deutliche Verbesserung mit 2GB-Modulen und directStorage+SF tun ein Übriges.

necro1970
2021-07-12, 09:16:33
Über 400 Watt oder mehr - würde mich nicht wundern, völlig logisch.
So wie beim Verbrenner kann man Fertigungs/Effizienzverbesserungen hier investieren:
weniger Temperatur, weniger Verbrauch, mehr Leistung.
Ist bei Halbleitern, Dienstleistungen, Mechanik, Abläufen uvm. nicht anders.
Nicht umsonst heißt es: "You can have it: cheap, quick, good. Choose 2."
Alles - geht nicht, weder physikalisch noch faktisch.

Zudem kommen die "diminishing returns",
sei es bei der Architektur, die irgendwann nicht mehr weiter perfektioniert werden kann oder mit extrem viel Aufwand noch komplexer wird,
oder bei der Fertigung, die ja mit 5nm im Vergleich zu 7nm nochmal eine Explosion bezüglich Aufwand und Kosten darstellt.

Und solange man (noch) mehr Leistung "erwartet", bzw. zwischen AMD/NV dasselbe Wettrüsten abläuft wie im kalten Krieg - ist es absehbar, wie die Sache ausgeht.

Besonders 5nm wird gerade am Anfang und zu der Zeit, wo erst mal die dann älteren Fertigungen von 7,8,10nm schrittweise günstiger werden können/sich refinanziert haben - für viel Augenbluten sorgen. Auch bei Smartphones und dergleichen.

An dieser Stelle vergrabe ich eine kleine Zeitkapsel - die ich dann ausgrabe, wenn und falls die RTX4090 (oder wie immer das Topmodell dann heißt) in nagelneuen 5nm erscheint:
+80% Rasterizer, +100% RT Real-World Performance (zur RTX3090),
32GB DDR6X, 450W TDP, 2500$ RRP.

Platos
2021-07-12, 11:19:04
Ultrahocher Stromverbrauch ist für mich schon alles ab 300 Watt für eine einzelne Grafikkarte. 400 ist schon absurd und 500...

Naja, hauptsache Die Speicherbestückung stimmt und ivh kaufe mir dann eine 4060 mit hoffentlich max. 200W.

Annator
2021-07-12, 11:59:15
Die 400-500W muss man auch erstmal abführen. Bin mit der 3090 bei mir jetzt schon an der Grenze trotz Wasserkühlung. Müsste dann ein moderneres Gehäuse her. Oder externe Radiatoren. Trotzdem ist das kein Spaß im Sommer für die Raumtemperatur wenn da durchgehend ein kleiner Wasserkocher vor sich hin bruzelt während man spielt.

Gastein
2021-07-12, 12:28:56
Prototypen sind keine Endkundenprodukte.

Anonym wird schon jeder Käse getwittert. Man muss dann ja auch keinen Kontext liefern. Gibts nicht irgend etwas realistisches konkretes worüber sich diskutieren lohnt?

Gast
2021-07-12, 12:35:08
Bezogen auf die RT-Performance wären 2x sogar sehr wenig. Das würde bedeuten, dass NV noch immer kein Coherency Gathering (https://www.imgtec.com/blog/coherency-gathering-in-ray-tracing-the-benefits-of-hardware-ray-tracking/) in Hardware hinbekommt.

Gast
2021-07-12, 12:40:46
Zum anderen wäre eine Performance-Verdopplung sowieso eher ungewöhnlich – sofern dies möglich wird, würde eher man die initiale Generation etwas kleiner anlegen (samt dann einem nicht ganz so hohen Stromverbrauch) und sich den Rest für eine Refresh-Generation offenlassen.

Vermutlich dürfte man sich da nach der Konkurrenz richten.

Nvidia will sicher die Leistungskrone und alles technisch mögliche dafür tun diese zu bekommen. Sollte die Konkurrenz aber nicht mithalten können, kann man immer noch für die finalen Produkte die Powerlimits und damit natürlich auch die Performance verringern, falls es eben nicht notwendig ist das komplett auszufahren.

WedgeAntilles
2021-07-12, 14:06:09
Die entstehende Hitze finde ich auch fast das größte Problem.
Ob eine Karte jetzt 320W oder 220W braucht wäre mir relativ egal - gäbe es nicht die Abwärme.
Und die ist halt da, egal wie man kühlt.
Und das aufheizen des Zimmers ist damit eben auch fix, völlig egal ob man im Rechner selber mit einer 350W Karte Probleme bekommt oder nicht.

Von daher sehe ich wirklich nicht, wie 450 Watt sich auf dem Markt durchsetzen sollen.

Könnte es noch mal 30,40 Watt mehr werden? Klar, kann man sicher nicht ausschließen.
Aber 100 Watt oder gar 150 Watt mehr?
Ich weiß nicht.
Nicht für die 4080 Karte und selbst für eine 4090 FE kann ich es mir kaum vorstellen.

ChaosTM
2021-07-12, 14:17:39
SLI Karten mit 2 Chips drauf sind früher auch schon in diese Regionen vorgestoßen.
Würde mich überhaupt nicht wundern. 3-4Slots + ein externer Radiator und ab geht die Heizungsgaudi.
Die virtuelle Wand rückt immer näher und jetzt wollen/müssen die GPU Hersteller halt mit der Brechstange vernünftige Steigerungsraten erreichen, sonst kauft ihnen keiner mehr ihre überteuerten Karten ab.

iamthebear
2021-07-12, 14:22:18
Also meine grobe Schätzung. Ziel ist eine GPU mit der Leistung eines doppelten 3090 Chips:
.) Ca. 50% davon erreicht man davon durch 5nm statt 8nm Fertigung (8nm ist ja ein 10nm++)
.) Weitere 15% davon erreicht man, indem der Chip nicht so weit hoch treibt sondern mit mehr Ausführungseinheiten in einem höheren Taktbereich betreibt.
.) 15% könnten durch eine weitere Erhöhung der TDP von 350W auf 400W beim Spitzenmodell zu Stande kommen. Mehr denke ich jedoch nicht. Das wird dann unkühlbar.
.) Dazu erwarte ich noch einen Hardware Scheduler, der den Treiber Overhead senkt.

Fraglich ist noch wie das Problem des zusätzlichen Bandbreitenbedarfs gelöst wird. Zwar ist Ampere nicht so sehr bandbreitenlimitiert, bei verdoppelter Rechenleistung kann dies jedoch wieder komplett anders aussehen. Eine Steigerung gegenüber GDDR6X wird denke ich nicht kommen. Breiteres Speicherinterface wird es auch nicht geben (da müsste man ja schon min auf 512 Bit gehen, was bei GDDR6X Wahnsinn wäre). Eine Möglichkeit wäre HBM. Der ist ja mittlerweile schon günstiger geworden und man könnte so mit 16GB statt 24GB für die 4080 Ti durchkommen.
Eine andere Möglichkeit wären größere Caches. Der Infinity Cache hat ja bei AMD wahre Wunder bewirkt und da SRAM relativ gut skaliert sollte bei 5nm ein kleiner zusätzlicher Cache (ob nun in Form von L2 oder L3) nicht allzu viel Platz verschlingen.

Das einzige, wo ich noch skeptisch bin ist wie man das alles in einem riesigen Chip unterbringen will. Samsungs 5nm hat ca. 50% mehr Trans/mm² als 10nm. Gleichzeitig denke ich nicht, dass die Yields bei rieisgen 600mm² Chips besonders toll sein werden, weshalb hier eigentlich kein Weg an Chiplets vorbei führt.

ChaosTM
2021-07-12, 14:26:49
Das wird wohl auf mindesten 2 Chips hinauslaufen. Dann sind wir quasi wieder bei SLI, nur halt doch ganz anders.

@ Wedge
Die ganz dicken Karten werden nur die Leute kaufen, die damals schon Crossfire oder SLI verwendet haben.
Momentan kaufen die halt die 3090er. Für uns Normalsterbliche gibt es die 4060 oder was auch immer mit einem normalen Verbrauch daher kommt

maximus_hertus
2021-07-12, 14:28:59
Immerhin: es gibt nun die Uber-nVidia-Gerüchte statt immer nur bei AMD.

Die RTX40 muss sich nun daran messen lassen, mindestens doppelte PErformance im Vergleich zur 3090.


Noch eine Alternative: das doppelte bezieht sich auf Sub-4K, da wo Ampere die PS nicht auf die Straße bekommt.

Gast
2021-07-12, 15:11:31
Die RTX40 muss sich nun daran messen lassen, mindestens doppelte PErformance im Vergleich zur 3090.
Das ist doch ein kaputte Einstellung. Jemand schreibt ein Gerücht auf Twitter und auf einmal muss sich Nvidia dran messen lassen. Gerüchte bleiben immer noch Gerüchte.

ZeddZwerg
2021-07-12, 20:00:21
Ich habe meinte 2080 TI schon seit fast Anfang an auf 75% TDP laufen. Dank Curve Optimizer ist es nur unwesentlich langsamer als im Grundzustand, dafür aber viel leiser und deutlich weniger Stromverbrauch. Ich hoffe, man wird auch in zukünftige Generationen kaum Leistung durch moderates Herabsenken der TPD verlieren. Bereits 300 Watt halte ich für zu viel. Zumindest, solang ich nicht in Alaska wohne...

Gast
2021-07-12, 20:03:03
Burn baby, burn!

Gast
2021-07-12, 21:22:55
Doppelte Performance klingt weit her geholt.
Bei RT müsste es imho Minimum 2x sein. Vielleicht wurde was verwechselt.

450W für 4090 klingt völlig nicht unrealistisch, wenn man sich die Entwicklung anschaut. 550W wäre jedoch exorbitanter Sprung. Aber bei entsprechender Performance völlig i.O.

necro1970
2021-07-12, 23:36:44
Also meine grobe Schätzung. Ziel ist eine GPU mit der Leistung eines doppelten 3090 Chips:
.) Ca. 50% davon erreicht man davon durch 5nm statt 8nm Fertigung (8nm ist ja ein 10nm++)
.) Weitere 15% davon erreicht man, indem der Chip nicht so weit hoch treibt sondern mit mehr Ausführungseinheiten in einem höheren Taktbereich betreibt.
.) 15% könnten durch eine weitere Erhöhung der TDP von 350W auf 400W beim Spitzenmodell zu Stande kommen. Mehr denke ich jedoch nicht. Das wird dann unkühlbar.
.) Dazu erwarte ich noch einen Hardware Scheduler, der den Treiber Overhead senkt.

Fraglich ist noch wie das Problem des zusätzlichen Bandbreitenbedarfs gelöst wird. Zwar ist Ampere nicht so sehr bandbreitenlimitiert, bei verdoppelter Rechenleistung kann dies jedoch wieder komplett anders aussehen. Eine Steigerung gegenüber GDDR6X wird denke ich nicht kommen. Breiteres Speicherinterface wird es auch nicht geben (da müsste man ja schon min auf 512 Bit gehen, was bei GDDR6X Wahnsinn wäre). Eine Möglichkeit wäre HBM. Der ist ja mittlerweile schon günstiger geworden und man könnte so mit 16GB statt 24GB für die 4080 Ti durchkommen.
Eine andere Möglichkeit wären größere Caches. Der Infinity Cache hat ja bei AMD wahre Wunder bewirkt und da SRAM relativ gut skaliert sollte bei 5nm ein kleiner zusätzlicher Cache (ob nun in Form von L2 oder L3) nicht allzu viel Platz verschlingen.

Das einzige, wo ich noch skeptisch bin ist wie man das alles in einem riesigen Chip unterbringen will. Samsungs 5nm hat ca. 50% mehr Trans/mm² als 10nm. Gleichzeitig denke ich nicht, dass die Yields bei rieisgen 600mm² Chips besonders toll sein werden, weshalb hier eigentlich kein Weg an Chiplets vorbei führt.

Sehr vernünftig argumentiert, gefällt mir.
Und ja - Speicher wird gewiß ein großes Thema. HBM, der noch in weiter Ferne schwebende GDDR7?
Aber nur 16, statt 24GB VRAM, im Topmodell? Booo. Das glaubst du ja selber nicht... :naughty:
Ich erinnere mich sehr lebhaft an die zahlreichen Shitstorms wegen der "nur" 10GB der 3080. Was hat NV daraus gelernt? -> Na dann bitte -wie bestellt, so geliefert.
Wie gesagt - ich bleibe bei meinem "Zeitkapsel-post", und tippe auf 32GB / GDDR6X "in ganz verrückt".

So oder so - alles von dir erwähnte (komplexer Riesen Single die, mehrere Chiplets, Speicherproblem, 5nm, Infinity Cache - aber so gemacht/anders, dass es nicht zu einem (Patent)streit mit AMD kommt) lässt das sarkastische Herz in mir schon jetzt schelmisch lächeln. Weil das alles - sauviel kostet.
Wenn AMD mit/entgegenhält/das Wettrüsten weiter geht, wird der Preis (zumindest des Spitzenmodels) selbst ohne Miningboom sowas von episch sein.
Da werden sich dann wieder viele, nach obligatorischem RTX4 Gebashe, noch eisern auf GTX1/RTX2 hockend, beim Vorgänger RTX3 umsehen....die dann möglicherweise auch just um keinen cent billiger sein werden als jetzt. Klingt ja irgendwie bekannt, nicht wahr? :ucrazy4:

Gast
2021-07-13, 10:26:10
Für ausreichende Datenrate kommt 2022 GDDR7.

Laut Tests (hardwareluxx) ist ein Gold zertifiziertes ATX12VO Netzteil nochmal selbst unter Last 1 -2 % effizienter und erreicht im Idle-Verbrauch die Werte was bereits heute Titanium 650 W erreicht.
2022/2023 wieder Netzteil wechseln, diesmal 850 W ATX12VO um die rtx 4080 zu befeuern :D