PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 18. März 2022


Leonidas
2022-03-19, 09:26:15
Link zur News:
https://www.3dcenter.org/news/news-des-18-maerz-2022

H0fn43rrchen
2022-03-19, 11:34:38
Und gemäß dieser Definition liegt bei Peaks von 600W der dauerhafte Stromverbrauch auf "nur" 375 Watt – sowie bei Peaks von 450W auf 225 Watt.

Ist immer noch zu hoch! Das es auch anders geht - wenn auch mit Abstrichen bei der Performance - zeigen Chips auf ARM-Basis. Ohne eigenen Nachwuchs könnte es mir egal sein, alle anderen sollten sich jedoch heute die Frage stellen, ob sie diese Entwicklung heute mittragen möchten und sich dann später den kritischen Fragen ihrer Kinder stellen wollen, oder ob man nicht schon lieber heute dagegen angeht. Wie wir auch dieser Tage wieder schön sehen, werden bereits wieder Stimmen laut, die den Klimaschutz zugunsten anderer Bereiche (Verteidigung etc.) hinten anstellen wollen. Geht's noch? Wenn das Klima kippt ist Schicht im Schacht. Dies zu drehen wird dann nicht nur deutlich teurer (auch an Leben) sondern dürfte auch nicht von heute auf morgen mit noch so viel Geld aus der Welt zu schaffen sein. AUFWACHEN und aufhören steigenden Stromverbrauch mittels Spezifikationen schön zu reden.

Leonidas
2022-03-19, 12:10:40
Das kannst Du aber nur mit Deiner persönlichen Kaufentscheidung beeinflussen. Was die Hersteller anbieten, wird hingegen davon bestimmt, wo diese sich einen Markt erwarten - ganz sicher auch bei den höheren Wattagen.

iamthebear
2022-03-19, 12:22:19
Also irgendetwas stimmt mit den 140Mrd. Transistoren auf 900-1000mm² nicht.
Pro Die wäre das viel zu viel und kaum glaubwürdig.
Für 2 Dies wäre hingegen kaum besser als GA100 was ich auch nicht für sehr wahrscheinlich halte.

Und gemäß dieser Definition liegt bei Peaks von 600W der dauerhafte Stromverbrauch auf "nur" 375 Watt – sowie bei Peaks von 450W auf 225 Watt.

Das hört sich für mich wiederrum zu niedrig an.
Es gab ja die Gerüchte von 450W, 600W und 850W für AD102. 850W Peak und 525W TDP halte ich für die 4090 Ti ja noch für realistisch wenn auch schon sehr hoch aber das wird ja sowieso nur ein Paperlaunch mit ein paar Stück für Reviewer mit Wasserkühlung. 600W Peak bei 375W TDP für die 3090 hört sich auch vernünftig an. Was ist ein bisschen über der bisherigen Generation. Aber 450W Peak würden dann 275W für z.B. die 4080 Ti bedeuten. Das hört sich für einen AD102 Die viel zu niedrig an. Das hätte ich eher von AD103 erwartet.

Ist immer noch zu hoch! Das es auch anders geht - wenn auch mit Abstrichen bei der Performance - zeigen Chips auf ARM-Basis.

Die "Abstriche" bei ARM GPUs ist ca. Faktor 100 vergleichen mit AD102. Wenn du die Shader 100x erhöhst zieht diese auch 500W, wird jedoch ein Vielfaches an Die space brauchen. Für Desktop GPUs ist das vollkommen ungeeignet.

Ohne eigenen Nachwuchs könnte es mir egal sein, alle anderen sollten sich jedoch heute die Frage stellen, ob sie diese Entwicklung heute mittragen möchten und sich dann später den kritischen Fragen ihrer Kinder stellen wollen, oder ob man nicht schon lieber heute dagegen angeht. Wie wir auch dieser Tage wieder schön sehen, werden bereits wieder Stimmen laut, die den Klimaschutz zugunsten anderer Bereiche (Verteidigung etc.) hinten anstellen wollen. Geht's noch? Wenn das Klima kippt ist Schicht im Schacht. Dies zu drehen wird dann nicht nur deutlich teurer (auch an Leben) sondern dürfte auch nicht von heute auf morgen mit noch so viel Geld aus der Welt zu schaffen sein. AUFWACHEN und aufhören steigenden Stromverbrauch mittels Spezifikationen schön zu reden.

Niemand zwingt dich deine CPU/GPU mit der maximal spezifizierten Taktrate zu betreiben genauso wie dich niemand zwingt mit deinem Auto nur mit 250km/h durch die Gegend zu brettern. Es kann ja jeder die TDP seiner GPU selbst einstellen. Mir ist eine GPU, deren Kühler und Stromversorgung auf 450W designed wurde und die ich ich mit gemütlichen 300W betreibe lieber als eine 300W GPU bei der der Lüfter sich anhört wie eine Flugzeugturbine, mich die Spulen anpfeifen und das Teil 3 Tage nach Ende der Garantiezeit das Zeitliche segnet.

Sweepi
2022-03-19, 12:54:57
zeigen Chips auf ARM-Basis
Die "Abstriche" bei ARM GPUs ist ca. Faktor 100 vergleichen mit AD102. Wenn du die Shader 100x erhöhst zieht diese auch 500W, wird jedoch ein Vielfaches an Die space brauchen. Für Desktop GPUs ist das vollkommen ungeeignet.

Was sind eigentlich ARM GPUs? ARM CPUs sind Prozessoren, welche das ARM Instruktionssatz (instruction set architecture, ISA) implementieren. Was definiert ARM GPUs? GPUs, welche auf einem SOC mit einer ARM CPU sitzen?




Und gemäß dieser Definition liegt bei Peaks von 600W der dauerhafte Stromverbrauch auf "nur" 375 Watt – sowie bei Peaks von 450W auf 225 Watt.

Ist immer noch zu hoch![...]Wenn das Klima kippt ist Schicht im Schacht. Dies zu drehen wird dann nicht nur deutlich teurer (auch an Leben) sondern dürfte auch nicht von heute auf morgen mit noch so viel Geld aus der Welt zu schaffen sein.

Zustimmung zu Klimafolgekosten, doch hilft es wenig, sich in solchen Kleinigkeiten zu verlieren.
Der Primärenergiebedarf muss bei den großen Posten runter (Heizen -> Häuser Sanieren, Wärmepumpen, Erdwärme wo sinnvoll nutzbar; Verkehr -> E-Autos, mehr Öffentlich, weniger Fliegen) und die Erzeugung muss nachhaltig sein (Solar, Wind, Nischentechnologien).

Fokus auf GPU-TDPs mag zwar mehr Meme-tauglich sein als die Wärmeerzeugung, aber eine so viel kleinere Größenordnung, dass die Diskussion an dieser Stelle nicht effektiv ist.

GerryB
2022-03-19, 12:58:39
"weil der Stecker nicht mehr als 684W (@Spike) zulässt"
... nimm 2

Wie soll eigentlich der Spike von der Graka selbst gemessen/verwaltet werden, ... da gibts ja große Unterschiede >10ms oder <5ms etc.
oder
Ist der Wert nur ein Baumarktbereich von 20ms? (passend zur HoldUp Time vom NT)


btw.
Bei den UWP-Treibern gabs voriges Jahr bei AMD nen gemessenen Wert für Spikes als ASIC während TGP der geglättete normale Wert war.
(könnte sein, das schon irgendwie in die Richtung "Messung"gearbeitet wird)

Gast
2022-03-19, 13:07:52
Ich mag mir 12VHPW nicht mehr durchlesen.
Verlinkt wird immer auf Stand von xx.10.2021 - da gab es explizit noch keine Specs. Punkt.
Gast hat ausdrücklich sustained 600W zitiert (Quelle?). Peaks könnten also höher gehen.
Wo sollen >>2x her kommen, wenn nicht auch über Stromverbrauch?
Mir wird das zu blöd. Ich bin raus, bis zu sauberen Berichten von heise & Co. Prügelt euch allein weiter die Spekulationen um die Mundwinkel.

Rabiata
2022-03-19, 13:30:05
Die "Abstriche" bei ARM GPUs ist ca. Faktor 100 vergleichen mit AD102. Wenn du die Shader 100x erhöhst zieht diese auch 500W, wird jedoch ein Vielfaches an Die space brauchen. Für Desktop GPUs ist das vollkommen ungeeignet.

Mir ist eine GPU, deren Kühler und Stromversorgung auf 450W designed wurde und die ich ich mit gemütlichen 300W betreibe lieber als eine 300W GPU bei der der Lüfter sich anhört wie eine Flugzeugturbine, mich die Spulen anpfeifen und das Teil 3 Tage nach Ende der Garantiezeit das Zeitliche segnet.
Der Apple M1 Ultra kommt angeblich mit 60W aus und hat in einem Test bei The Verge (https://www.theverge.com/22981815/apple-mac-studio-m1-ultra-max-review) auch im GPU Benchmark recht gut abgeschnitten. Apple hat den Mund zu voll genommen, was die Performance verglichen mit der RTX 3090 angeht, aber die Effizienz ist dennoch beachtlich. Allerdings fertigt Nvidia derzeit noch mit Samsung 8N, während Apple schon TSMC 5 nm nutzt. Einen "fairen" Vergleich gibt es wieder wenn Hopper raus ist.

Was den Betrieb mit verringertem Stromverbrauch angeht, bin ich absolut bei Dir. Was ich mir da von den Herstellern noch wünsche, ist eine einfache Umschaltmöglichkeit, die auch der Laie bedienen kann. Ohne lange mit Undervolting zu experimentieren.
Was sind eigentlich ARM GPUs? ARM CPUs sind Prozessoren, welche das ARM Instruktionssatz (instruction set architecture, ISA) implementieren. Was definiert ARM GPUs? GPUs, welche auf einem SOC mit einer ARM CPU sitzen?

Zustimmung zu Klimafolgekosten, doch hilft es wenig, sich in solchen Kleinigkeiten zu verlieren.
Der Primärenergiebedarf muss bei den großen Posten runter (Heizen -> Häuser Sanieren, Wärmepumpen, Erdwärme wo sinnvoll nutzbar; Verkehr -> E-Autos, mehr Öffentlich, weniger Fliegen) und die Erzeugung muss nachhaltig sein (Solar, Wind, Nischentechnologien).
Ja, die ARM GPUs gibt es bisher nur als Teil eines SOCs.

Beim Primärenergiebedarf gebe ich Dir recht, aber so ganz vernachlässigbar ist auch ein Gamer PC nicht.

HOT
2022-03-19, 14:20:14
Also irgendetwas stimmt mit den 140Mrd. Transistoren auf 900-1000mm² nicht.
Pro Die wäre das viel zu viel und kaum glaubwürdig.
Für 2 Dies wäre hingegen kaum besser als GA100 was ich auch nicht für sehr wahrscheinlich halte.

[...]
Seh ich nicht so. Die Mobilvariante von N5 kann bis zu 173 Transistoren/mm². Bei 900-1000mm² passt das doch sehr gut. Wird ja wie bei N7 sicherlich wieder die Mobilvariante genutzt wegen der Packdichte.

Platos
2022-03-19, 14:35:45
Ist doch irgendwo klar, dass die 600W nicht durchschnittswerte sind oder zumindest nicht von einer Single GPU kommen. Aber wenn man im Forum die Option in den Raum wirft, dass es sich vlt. nur um Peakwerte handelt, passt das den üblichen Verdächtigen natürlich gar nicht. Oder dass die Werte von einer Dual GPU kommen oder oder oder.

Aber in manchen Köpfen: "nvidia Böse, brrr, nvidia böse, brrr, muss nvidia anpissen, brrr".

GerryB
2022-03-19, 15:23:16
Was ist Das denn für ein Geblubber.

Das "Peaken" wurde von Leo im Artikel erwähnt. Ansonsten ist auch die Info mit 684W net verkehrt, wenn man denn wüsste
wie genau gemessen wird.

Mit "nimm 2" waren dann 2 Stecker gemeint, = 2x 684W Peak für eine extreme CustomGraka.
(das sollte dann auch reichen, um net zusätzlich den PCiE-Slot zu überlasten)

Gast
2022-03-19, 15:35:15
Peak sagt überhaupt nichts ohne Zeitangabe, theoretisch kann ich die Messzeit quasi beliebig verringern und damit immer wahnsinnig hohe Peakmessungen erzeugen.

iamthebear
2022-03-19, 17:44:05
Was sind eigentlich ARM GPUs? ARM CPUs sind Prozessoren, welche das ARM Instruktionssatz (instruction set architecture, ISA) implementieren. Was definiert ARM GPUs? GPUs, welche auf einem SOC mit einer ARM CPU sitzen?

ARM ist ein Unternehmen, das Designs für CPUs (mit den diversen ARM Befehlssätzen) und GPUs designed. Beispiel für die CPU wäre Cortex X1, Beispiel für die GPU wäre Mali G78 MP24.[/QUOTE]

Der Apple M1 Ultra kommt angeblich mit 60W aus und hat in einem Test bei The Verge (https://www.theverge.com/22981815/apple-mac-studio-m1-ultra-max-review) auch im GPU Benchmark recht gut abgeschnitten. Apple hat den Mund zu voll genommen, was die Performance verglichen mit der RTX 3090 angeht, aber die Effizienz ist dennoch beachtlich. Allerdings fertigt Nvidia derzeit noch mit Samsung 8N, während Apple schon TSMC 5 nm nutzt. Einen "fairen" Vergleich gibt es wieder wenn Hopper raus ist.

Der M1 Ultra ist ein Monster mit 114 Mrd. Transistoren. Selbst wenn man den CPU wegzählt ist es immer noch mehr als 3 Mal so viel wie eine RTX 3090.
Einmal abgesehen davon: Was läuft denn außer SoTR denn überhaupt?

Was den Betrieb mit verringertem Stromverbrauch angeht, bin ich absolut bei Dir. Was ich mir da von den Herstellern noch wünsche, ist eine einfache Umschaltmöglichkeit, die auch der Laie bedienen kann. Ohne lange mit Undervolting zu experimentieren.

Alles was du tun musst ist den Schieberegler beim Power Limit hoch bzw. runter zu setzen. Die GPU sucht sich ihre Spannung und Takt dann selbst je nach Last.

Ja, die ARM GPUs gibt es bisher nur als Teil eines SOCs.

Mobipe GPUs gibt es auch nur als Teil eines Notebooks. Aus technologischer Sicht ist aber ein Vergleich durchaus sinnvoll. Wenn die Smartphone SOCs die Desktop CPUs einholen, werden sie auch im Desktop angeboten werden sie Apple mit dem M1.

Beim Primärenergiebedarf gebe ich Dir recht, aber so ganz vernachlässigbar ist auch ein Gamer PC nicht.

Das mag sein aber jeden Abend, den jemand mit seiner 400W GPU zockt ist ein Abend, an dem er nicht mit seinem Auto wegfährt, jeder 2K Gaming PC ist ein Urlaub mit dem Flieger weniger.

Seh ich nicht so. Die Mobilvariante von N5 kann bis zu 173 Transistoren/mm². Bei 900-1000mm² passt das doch sehr gut. Wird ja wie bei N7 sicherlich wieder die Mobilvariante genutzt wegen der Packdichte.

Bei den Testchips von TSMC vielleicht. Selbst Apple ist beim IPhone 14 nur auf 140 MTrans gekommen. 173 MTrans/mm² wäre 2.6x GA100, 3.35x Navi21 oder 4.2x Navi10. Das wird kaum funktionieren ;-)
Ich denke die Auflösung wird eher Richtung 2x850mm² = 140Mrd. gehen wenn eher breitere Libraries genutzt werden denn die 900-1000 waren ja nur grob geschätzt mit einer Dichte von 82MTrans/mm² und 26% mehr als GA100.

gastello
2022-03-19, 20:33:44
Also ich hörte auch etwas von " in Abhängigkeit" der binären Konfiguration der Sense Pins inklusive Softarebasis, so das die Karte aus einem "e-Boost" ähnlichen Feature des neuen Steckers heraus performen kann. Man stellt es sich so vor, dass die Karte dann im Powerbuget von bis zu 375 Watt startet und der Treiber inklusive der Sense Konfiguration Netzteil->GPU einen bis zu 150 Watt Boost je nach Anwendung oder Spielelast zur Verfügung stellen kann (450->600W).

So sollte die 3090Ti mit den 450W erschienen und einen Boost bis 600W (den man ja auch als Peak bezeichnen kann) mitbringen. Alles andere war übertrieben dargestellt und immer mit "bis zu" 600 Watt berichtet, was ja auch stimmt. Das ist in der Tat interessant. Soweit bekannt sogar von Nvidia selbst in die Sig eingebracht. Das würde extreme Peaks begrenzen und auch droops verhindern. Die 600 Watt maximal resultieren dann aus 375W+75Watt+150Watt eBoost. Wobei letzteres nur kurzzeitig anliegt. Ich denke es wird so kommen. Das das Fake ist kann ich mir vorstellen, dazu sind die Angaben zu genau. Danke dem Gast für den Hinweis (mal wieder ein Gast).

Man sollte bedenken das beim Systemstart oft Voll-Last anliegt und das würde man mit so einem Feature klar verhindern, wobei und wenn man es nicht braucht eben auch nicht anliegen muss. Das würde eher Energie sparen als denn verschwenden.

Denniss
2022-03-19, 21:15:01
Und gemäß dieser Definition liegt bei Peaks von 600W der dauerhafte Stromverbrauch auf "nur" 375 Watt – sowie bei Peaks von 450W auf 225 Watt.Klingt gewaltig nach ner Milchmädchenrechnung. Beim 150W ATX-Stecker wären das dann etwa 90W Dauerleistung

GerryB
2022-03-19, 21:52:35
... klingt gewaltig, nach zu faul mal bei Igor nachzulesen, wie die neuen Stecker so funktionieren

https://www.igorslab.de/ist-die-nvidia-geforce-rtx-3090-ti-als-lernobjekt-der-boardpartner-fuer-lovelace-gedacht-oder-bremst-gar-die-pci-sig/

Die 600W wirds nur bei voll kompatiblen 5.0 Steckern geben = 12+4pin.
Die sind grundverschieden von uralten 6+2pin.

btw.
Interessanterweise wird in dem Artikel auch über "Pläne" berichtet, bei Enthusiast-Customs 2 Stecker zu verwenden.

Gast
2022-03-19, 23:25:59
Ja, die ARM GPUs gibt es bisher nur als Teil eines SOCs.



ARM GPUs sind so toll, dass jeder der Wert auf Leistung legt diese aus seinen ARM SOCs rausschmeißt.
Die Apple GPU ist im Wesentlichen ein PowerVR Derivat, Qualcomm verwendet Adreno und Samsung neuerdings RDNA.

ARM GPUs verwenden eigentlich nur mehr jene die keinen unmittelbaren Zugriff auf andere GPU Technologien haben.

Bleiben eigentlich nur mehr die Chinesen die ARM GPUs verwenden.

Rabiata
2022-03-20, 00:39:12
Der M1 Ultra ist ein Monster mit 114 Mrd. Transistoren. Selbst wenn man den CPU wegzählt ist es immer noch mehr als 3 Mal so viel wie eine RTX 3090.
Einmal abgesehen davon: Was läuft denn außer SoTR denn überhaupt?
Die Chipfläche in mm² würde mich auch mal interessieren. Das spielt eine große Rolle bei Herstellungskosten und Ausbeute.
Was Tests angeht, ist das Mac Studio Ultra noch gar beim Endkunden angekommen. Zumindest hier in Deutschland nicht. Auf Geizhals gibt es schon Angebote, aber die reden alle noch von einigen Wochen Lieferzeit. Bis dahin wird noch Mangel an Reviews herrschen.

Mobipe GPUs gibt es auch nur als Teil eines Notebooks. Aus technologischer Sicht ist aber ein Vergleich durchaus sinnvoll. Wenn die Smartphone SOCs die Desktop CPUs einholen, werden sie auch im Desktop angeboten werden sie Apple mit dem M1.
Da sehe ich bisher nur begrenzte Anzeichen. Apples M1 hat die nötige Leistung, kommt aber erst mal nur im Edel-Notebook. Apple versucht auch nicht alles zu bedienen, da bin ich skeptisch ob der M1 jemals den Desktop erreicht.
Der sinnvollste Vergleich dürfte eine APU der 65Watt-Klasse sein. Das ist nicht weit von den 60W entfernt, die Apple für den M1 Ultra angibt.

Gast
2022-03-20, 01:23:38
https://www.igorslab.de/ist-die-nvidia-geforce-rtx-3090-ti-als-lernobjekt-der-boardpartner-fuer-lovelace-gedacht-oder-bremst-gar-die-pci-sig/
Der Artikel ist vom 11.2. und gehaltreicher als die von 4 Monate davor. Der wichtigste Satz ist "Der neue Standard scheint nämlich immer noch nicht final festzustehen"
Es gibt Artikel, die sich mit "Nvidia 12-Pin PCIe Molex Micro-Fit 3.0" (variierende Namen) beschäftigen. Da geht es z.B. um die Molex-Spezifikation, wie man auf 648W kommt, warum es je nach Datenlage und Auslegung _deutlich_ weniger sein könnte (derating) und anderes. Z.B. darf ein Aderpaar bei Micro-Fit+ sogar 11-13 statt 10,5A.

Es hat daher meiner bescheidenen Meinung nach wenig Sinn, darüber zu diskutieren, bis die PCI-SIG mit Papers um die Ecke kommt (und die nicht flugs wieder geändert werden). Dito AMD & Nvidia mit den Specs der Karten. Z.B. muss das Sensing ja geklärt sein. Angeblich funktionieren ja die Adapterkabel ohne 4pol. Auf 450W. Wie erklärt das NT, dass es nur z.B. 250 kann? Oder die Karte, dass sie 600 will? Ginge über die Aderzahl, wird man aber nicht machen, weil gefährlich. Viele Fragen.

Zum Thema 'Peaks': Die Länge muss genauso definiert sein, wie die Höhe. Das hätte aber klar sein sollen. Sonst hat man irgendwann Nadel vs Plateau :-)

GerryB
2022-03-20, 06:32:42
Für die Länge der Peaks wäre ja die HoldUp Time vom NT ganz vernünftig.
Die ist i.d.R. mit >17ms schon etwas länger als ne einzelne Nadel <5ms.

NT´s, die netmal die 17ms schaffen sind dann halt net geeignet, weils Klick macht.

Der Unterschied zw. 450 und 600W ist über die 4 Zusatzpins geregelt.
(ist vermutlich ähnlich wie früher bei 6+2pin, wo ohne die 2 pins auch net 150W gehen)

smalM
2022-03-20, 18:23:03
Seh ich nicht so. Die Mobilvariante von N5 kann bis zu 173 Transistoren/mm². Bei 900-1000mm² passt das doch sehr gut. Wird ja wie bei N7 sicherlich wieder die Mobilvariante genutzt wegen der Packdichte.
Das ist eine theoretische Obergrenze, die in Wirklichkeit nicht einmal annähernd erreicht wird (so dicht könnte man Logic maximal packen); schon 140 Mio. Tr./mm² über den ganzen Chip gemessen wären sehr dicht.

Wie man in der Tabelle sieht, kommt Ampere in N7 'nur' auf 65,4 Mio. TR./mm², Mobil-SoCs erreichen hingegen rund 90 Mio. Tr./mm². Wahrscheinlich ist Ampere in 7,5T-, manches vielleicht sogar in 9T-Libraries ausgeführt.

Davon abgesehen: Größere Dies als 26mm x 33mm stellt TSMC in N5 eh nicht her.

Gast
2022-03-20, 20:32:46
Der Apple M1 Ultra kommt angeblich mit 60W aus...
Der Max braucht in unabhängigen Tests schon über 100W. Die CPU ist ja angeblich super sparsam, da müsste die GPU dann schon grob 60W ziehen. Also ist eher unwahrscheinlich, dass der Ultra gleich viel braucht...

Gast
2022-03-21, 12:17:13
Der Max braucht in unabhängigen Tests schon über 100W. Die CPU ist ja angeblich super sparsam, da müsste die GPU dann schon grob 60W ziehen. Also ist eher unwahrscheinlich, dass der Ultra gleich viel braucht...

Der gesamte Max. Darauf entfallen bis zu ~60W auf die GPU und ~30W die CPU.

Die 100W sind nur durch künstliche Maximalauslastung von CPU + GPU erreichbar. Die in der Praxis so gut wie nirgends auftritt.