PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Maximale Stromverbrauchswerte der nVidia-Chips AD102, AD103, AD104 ...


Leonidas
2022-06-18, 15:14:16
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-maximale-stromverbrauchswerte-der-nvidia-chips-ad102-ad103-ad104-ad106-offengel

Gast
2022-06-18, 15:35:15
800w?, ehrlich die sind nicht mehr ganz klar im Kopf. Schon 450w ist eine Zumutung. Klar wird das auch ausgenutzt, wenn nicht von Nvidia selbst dann von den Partnern. Eine komplette okölogische Katastrophe, die müssen den Verstand verloren haben, egal was da hinten raus kommt. Marktführer, ja wer's glaubt. Beim beschei*en und verbl*den.

Platos
2022-06-18, 16:16:45
Ein weiterer nichtsaussagender Leak. Selbes Prinzip wie "Karte xyz hat 2x 8 Pin Stecker" oder so. Sagt genau so wenig über den eigentlichen Stromverbrauch aus.

Gast
2022-06-18, 16:28:26
was soll das DT in den Klammern im Twit bedeuten?
Falls wirklich die 4090 so nahe an der 4080 vom Verbrauch sein sollte, gibt es kaum noch Platz für eine 4080 ti später (AD102 aber noch abgespeckter als 4090 aber mit höheren Taktraten).
Da stimmt noch etwas in dieser "Portfoliogestaltung" nicht.
Entweder wird die 4090 doch ~525W verbrauchen, oder die 4080 wird nicht bei 400W liegen, sonst ist wie oben gesagt wenig Raum für eine 4080 Ti, welche meiner Meinung nach sicherlich kommen wird sobald AMD N32 und N31 rausbring.

Iscaran
2022-06-18, 18:53:43
Wieviel W/SM hatten denn die 3000er Modelle so? Wäre als vergleich mal ganz interessant - weil es ja mit der Stromverbrauchsreduktion aus dem neuen Prozess korrelieren müsste.

OpenVMSwartoll
2022-06-18, 19:41:11
was soll das DT in den Klammern im Twit bedeuten?
Falls wirklich die 4090 so nahe an der 4080 vom Verbrauch sein sollte, gibt es kaum noch Platz für eine 4080 ti später (AD102 aber noch abgespeckter als 4090 aber mit höheren Taktraten).
Da stimmt noch etwas in dieser "Portfoliogestaltung" nicht.
Entweder wird die 4090 doch ~525W verbrauchen, oder die 4080 wird nicht bei 400W liegen, sonst ist wie oben gesagt wenig Raum für eine 4080 Ti, welche meiner Meinung nach sicherlich kommen wird sobald AMD N32 und N31 rausbring.

Desktop

AMD Fanboy
2022-06-18, 20:43:36
800W? Können die Behalten. AMD wird dieselbe Leistung für 200W bringen.

Gast
2022-06-18, 20:55:24
Desktop

haette ich auch selber drauf kommen koennen...

Schnitzl
2022-06-18, 21:52:23
800w?, ehrlich die sind nicht mehr ganz klar im Kopf. Schon 450w ist eine Zumutung. Klar wird das auch ausgenutzt, wenn nicht von Nvidia selbst dann von den Partnern. Eine komplette okölogische Katastrophe, die müssen den Verstand verloren haben, egal was da hinten raus kommt. Marktführer, ja wer's glaubt. Beim beschei*en und verbl*den.
immer locker bleiben, die 800W sind maximal Wert
ich glaube auch nicht dass die 4070 mit 350W rauskommt...aber man wird sehen...

BlacKi
2022-06-18, 21:56:29
ganz ehrlich, 4070 kommt nicht mit 350w. auch nicht mit 400w. 300w wirds wohl eher treffen. was immernoch ein heftiger sprung ist, von 220w kommend? eine 1070 hatte mal eine tdp von 145w... 300w wäre schon mehr als eine verdoppelung.

Gast
2022-06-18, 22:00:24
Eine rtx 4080, GPU auf AD103 mit nur 80 - 84 SMs bei ~+ 400 W, interpretiere ich "Wir verkaufen euch relativ wenig Silizium und Komponenten, ineffizient hochgeprügelt auf Leistung x (deutlich außerhalb Sweetspot).
Wir machen dick Produktmarge, ihr erkauft euch die gebotene Leistung mit Ineffizienz (schlechterem FPS/Watt-Verhältnis gegenüber AD102) und hoher Stromrechnung".

Nein, danke, kann die Führungsetage behalten.

Lehdro
2022-06-18, 22:15:57
Für mich klingt das immer noch alles zu abstrus - diese hohen Verbrauchswerte und die enge Staffelung passen irgendwie nicht ganz mit den Chips zusammen. Eine von den 3 Sachen wird wohl falsch sein...

ChaosTM
2022-06-18, 22:23:43
250/300/400/600W
4060/4070/4080/4090

800 wird nicht passieren. Höchstens rare Lastspitzen. Ein 15200+W Netzteil wird man aber brauchen zusammen mit Intels KS Flaggschiff.

hardtech
2022-06-18, 22:33:48
mich interessiert nur perf/watt.
wenn nun alle mit deutlich mehr wärmeabgabe antreten, dann rutscht meine investition richtung 4050 oder 4060 ;D
mehr als 200w möchte ich nicht im pc bei den temperaturen da draussen haben.
der lüfter der gpu soll 3-stellige u/min bieten, ansonsten ist das teil zu laut.

alles über 300w bekommt man leise nur mit wasser oder mit 5 stöckigen kühlern gekühlt. das will kein mensch. finde 1,3kg kühler sind schon eine belastung fürs board.

WedgeAntilles
2022-06-18, 22:34:31
250/300/400/600W
4060/4070/4080/4090


Mein Tipp:
220/280/370/500??

Die 4090 finde ich am schwierigsten, da kann ich mir vieles vorstellen.

Platos
2022-06-18, 22:54:34
800W? Können die Behalten. AMD wird dieselbe Leistung für 200W bringen.

;D ;D

Name ist Programm.

Verewigt!

ChaosTM
2022-06-18, 22:59:17
Mein Tipp:
220/280/370/500??

Die 4090 finde ich am schwierigsten, da kann ich mir vieles vorstellen.


Das Dickschiff wird schon kräftig an der Leitung nuckeln denke ich mal.
Die 3090ti braucht schon 450+. 500 ist imho die Untergrenze, aber lassen wir uns (positiv?) überraschen.

NV selbst vielleicht "nur" 500 und die Board-partner dürfen sich dann so richtig austoben mit 2kg Kupfer oder Wasserkühlern :)

Gastrologe
2022-06-18, 23:20:56
Das wird so witzig wenn die Karten released werden. Dann kommen die Failtrains und Hypetrains aprupt zum Stop.

OpenVMSwartoll
2022-06-19, 02:08:15
Warten wir einfach ab, nur eine weitere Wasserstandsmeldung, was max. machbar wäre, wenn AMD ihnen gefährlich wird. Ist auch fraglich, bis zu welchem Verbrauch noch Mehrperformance rauskommt.

aufkrawall
2022-06-19, 03:11:25
Das wird so witzig wenn die Karten released werden. Dann kommen die Failtrains und Hypetrains aprupt zum Stop.
Zum Glück ist es Lovelace und nicht Schrödinger, sonst wär nicht mal dieser Ausgang gewiss.

Gast
2022-06-19, 06:53:43
Is doch klasse. Den "Desctop" Müll direkt verschrotten und PCIe Karten mit den Mobile Chips baun. Dann paßt der Verbrauch-

Schade, daß NVidia und AMD das wohl beide verbieten :(.

H0fn43rrchen
2022-06-19, 08:53:12
Interessant ist bei diesen TDP-Werten eigentlich nur, welche Leistung die neuen Karten unter Limitierung des Verbrauchs erbringen. Wie Igor ja bereits am Beispiel der 3090ti gezeigt hat, ist die Ausnutzung des Powerlimits nicht nur Stromverschwendung, sondern auch völlig unnötig. Bleibt zu hoffen, dass die Karten auch mit - sagen wir mal - 50% - 33% weniger Powerlimit 20-30% mehr Leistung erbringen als ihr direkter Vorgänger, dann könnte die Generation tatsächlich interessant werden. Wenn nicht, dann bleibe ich dabei, dass deren Verkauf an Endkunden verboten gehört.

Gast
2022-06-19, 09:39:43
Also ich will nen AD-102 im Schlepptop.
Der Akku dafür könnte dann gleich auch mein E-Bike bei der Fahrt zur Uni antreiben...
Mehrfachverwendung ist ja derzeit groß in Mode..

Gast
2022-06-19, 12:26:57
Immer schön den Release um das Q3 oder Q4 setzen, gell.
Bei gerade 28+ °C Zimmertemperatur (trotz alles mit Vorhängen, Jalous zugemacht) und 35 - 40 °C außerhalb, kommt so schnell niemand (außer er hat Klima was die Hitze direkt nach außen befördert) auf die Idee den PC mit alleine bereits 300 - 500 W Grafikkarte laufen zu lassen.

mironicus
2022-06-19, 12:32:57
800W? Können die Behalten. AMD wird dieselbe Leistung für 200W bringen.

Man kann auch mit 15 Watt Spaß haben! *Steamdeck umarm* :tongue:

ChaosTM
2022-06-19, 12:58:15
SOCs mit Unified Memory sind die Spielezukunft für die breite Masse, keine Frage. Der High End PC Markt bleibt aber bestehen. 8k mit RTRT bei 240+fps will anständig befeuert werden. :)

iamthebear
2022-06-19, 14:01:13
AD102 hat nun 800W maximales Powerlimit. Real dürften 450 (niedrig getaktet) bis 600W (hoch getaktet) sein.

Versuchen wir einmal dasselbe Verhältnis (56.25% bzw. 75%) auf die restlichen Dies umzulegen um herauszufinden wieviel die jeweiligen Karten wirklich brauchen (unabhängig davon mit welchem max Powerlimit diese ausgeliefert werden):

AD103: 253W-337W (4080)
AD104: 225W-300W (4070 und 4060)
AD106: 146W-195W (4050 Ti und 4050)

Ich kann mir folgende default Powerlimits vorstellen:
4080: 320W
4070: 290W
4060: 230W
4050 Ti: 190W
4050: 150W


Die Variante mit der 420W 4080 glaube ich ehrlich gesagt nicht wirklich. Das ist zu viel für eine 80er Karte, die oft auch nachträglich in mittelmäßig belüftete Gehäuse eingebaut wird. Das Problem ist, dass sich die Temperaturprobleme dann nicht bei der GPU bemerkbar machen (damit diese runtertakten kann) sondern bei diversen anderen Komponenten im Gehäuse wo permanente Schäden entstehen können z.B. wenn die meistens ohnehin schwach ausgelegte VRMs des Boards bei 100 Grad dahinschmoren.

iamthebear
2022-06-19, 14:58:58
250/300/400/600W
4060/4070/4080/4090

800 wird nicht passieren. Höchstens rare Lastspitzen. Ein 15200+W Netzteil wird man aber brauchen zusammen mit Intels KS Flaggschiff.

Igor hatte da einmal ein Video zu dem Thema Lastspitzen bei der 3090 Ti (die ja als elektrische Vorlage für Ada dient).
Fazit war, dass das Teil zwar knapp 480W säuft, die Lastspitzen jedoch auch nicht über 600W drüber gehen (also +25%).
Zu Vergleich eine 3070 mit 220W TDP hat Lastspitzen bis 440W (also 2x).

Midnight-3DC
2022-06-19, 16:26:54
mich interessiert nur perf/watt.
wenn nun alle mit deutlich mehr wärmeabgabe antreten, dann rutscht meine investition richtung 4050 oder 4060 ;D
mehr als 200w möchte ich nicht im pc bei den temperaturen da draussen haben.
der lüfter der gpu soll 3-stellige u/min bieten, ansonsten ist das teil zu laut.

alles über 300w bekommt man leise nur mit wasser oder mit 5 stöckigen kühlern gekühlt. das will kein mensch. finde 1,3kg kühler sind schon eine belastung fürs board.
This!

Mit zunehmenden Alter und Gehalt nimmt bei mir zumindest der Preis alleine eine immer geringere (wenn auch natürlich nicht gänzlich unwichtige!) Rolle ein. Relevant für mich ist, wieviel fps bekomme ich innerhalb eines gewissen Powerbudgets die dadurch gesteigerte Effizienz gegenüber meiner derzeitigen Karte.
Insbesondere geht es mir dabei darum, dass ich meinen PC ohne große Lärmkulisse betreiben kann aber auch darum, dass ich meine Wohnung nicht übermäßig aufwärmen möchte. Und solange ich die Abluft nicht irgendwie direkt nach draussen ableite ist es nun einmal so, dass die Abwärme unweigerlich in der Wohnung landet. Dabei ist es egal ob diese per Luft- oder Wasserkühlung, laut oder leise, in großem oder kleinem Gehäuse transportiert wird. 300 Watt sind 300 Watt.

Platos
2022-06-19, 18:18:50
This!

Mit zunehmenden Alter und Gehalt nimmt bei mir zumindest der Preis alleine eine immer geringere (wenn auch natürlich nicht gänzlich unwichtige!) Rolle ein.

Ein Fall für höhere Steuern in bestimmen Lohnklassen :freak:

(Kleiner Spass;))

OpenVMSwartoll
2022-06-19, 19:18:43
Aber, aber... "Die Umwelt", sagte sie, lud den Tesla mit Kohlestrom und buchte den morgigen Flug nach München, wo sie bei Primark drei Taschen voller Mode kaufen würde nach ihrem Meeting über ressourcenschonendes Management...

Gast
2022-06-19, 20:17:54
Man kann auch mit 15 Watt Spaß haben! *Steamdeck umarm* :tongue:

25W dann sind wir realistisch.

Und leider ist der Spaß mit den lahmen Zen2 Kernen doch eher begrenzt.

Mit einem M1 wäre so viel mehr möglich gewesen.

Gast
2022-06-19, 20:27:33
Bleibt zu hoffen, dass die Karten auch mit - sagen wir mal - 50% - 33% weniger Powerlimit 20-30% mehr Leistung erbringen als ihr direkter Vorgänger, dann könnte die Generation tatsächlich interessant werden. Wenn nicht, dann bleibe ich dabei, dass deren Verkauf an Endkunden verboten gehört.
Aha, man soll also 2500€ für eine Grafikkarte Zahlen, die man dann noch herunter takten soll, um den Verbrauch auf ein vernünftiges Maß zu reduzieren und damit etwas schneller zu sein, als eine sagen wir 1000€ Karte? Sorry, aber Karten müssen @stock vernünftig effizient sein. Ich sehe nicht ein, für eine Karte mit kleinem, hoch geprügeltem Chip dem Hersteller viel Kohle in den Rachen zu werfen.

Gast 32
2022-06-19, 22:50:05
Das Mining geht zurück und die teure Chip-Entwicklung hat schon vor dem Mining-Run begonnen. Wenn Nvidia und Amd den mangelnden Absatz ihrer neuen Schluckspechte bemerken werden sie erstens die überzogenen UVP reduzieren und zweitens den Karten per BIOS-Update das sufen abgewöhnen.
Ansonsten bleiben sie auf gebuchten teuren Fertigungskapazitäten sitzten und bekommen dafür von den Aktionären prügel. Denn zu geringe Absatzmenge erhöhen die Stückkosten und verringern gleichzeitg den Gewinn. Das kann sogar ganze Konzerne gefärden (siehe AMD vor 5 Jahren). Mangelnder Gewinn beschneidet auch Forschung und Entwicklung somit Zukunft.

Es liegt doch an uns Kunden das richtige Produkt zu kaufen. Ich hätte auch interesse von meiner RX 470 4GB auf eine RX 6600 aufzurüsten. Vom Strombedarf erträglich gut 50% mehr Leistung, aber ich will nur 200-250 Euro zahlen. Gibt es nicht, vielleicht kommt eine RX 7500 in diese Regionen. Solange bleibt die alte Karte. Für den Defekt-Fall liegt noch eine GTX 1050 Ti im Schrank.

AMD Fanboy
2022-06-19, 22:53:18
Man kann auch mit 15 Watt Spaß haben! *Steamdeck umarm* :tongue:
Dank AMD! :love:

Rabiata
2022-06-19, 23:55:27
25W dann sind wir realistisch.

Und leider ist der Spaß mit den lahmen Zen2 Kernen doch eher begrenzt.

Mit einem M1 wäre so viel mehr möglich gewesen.
Nur daß es mit der Kompatibilität hapern würde. Die meisten Spiele sind x86-basiert, der M1 ist ARM-basiert.
Apple hat mit Rosetta 2 wohl eine ganz brauchbare Kompatibilitätsschicht, aber

hat Valve die nicht zur Verfügung
deckt Rosetta wohl auch nicht alles ab

Eldoran
2022-06-20, 02:32:57
Nur daß es mit der Kompatibilität hapern würde. Die meisten Spiele sind x86-basiert, der M1 ist ARM-basiert.
Apple hat mit Rosetta 2 wohl eine ganz brauchbare Kompatibilitätsschicht, aber

hat Valve die nicht zur Verfügung
deckt Rosetta wohl auch nicht alles ab

3. verkauft apple die APU nicht als solche, sondern nur in den diversen Apple Produkten

Platos
2022-06-20, 03:59:33
4. Selbst wenn, würde Apple sich das ordentlich bezahlen lassen wollen, was Valve natürlich nicht tun würde.


Mehr wäre mit nem Apple SoC btw. nicht drinn. Denn dann würde es x-Fach so viel kosten ;)

Leonidas
2022-06-20, 04:07:55
Es liegt doch an uns Kunden das richtige Produkt zu kaufen.

Ich stimme der kompletten Rede überhaupt nicht zu. Aber der Satz ist wahr für alle - egal aus welcher Richtung heraus man es denkt.




Mehr wäre mit nem Apple SoC btw. nicht drinn. Denn dann würde es x-Fach so viel kosten ;)

Es braucht eine Apple-Eigenentwicklung - das iDeck ©®™. Und Voila, das Problem der hohen Preise erübrigt sich, die Apple-Jünger kaufen, kaufen, kaufen ...

Gast
2022-06-20, 06:17:23
25W dann sind wir realistisch.

Und leider ist der Spaß mit den lahmen Zen2 Kernen doch eher begrenzt.

Mit einem M1 wäre so viel mehr möglich gewesen.


Aber nicht mit x86 Games und zudem befindet sich ein M1 in einer anderen Preisklasse.

Gast
2022-06-20, 07:03:15
Die Hersteller haben meist den längeren Atem.
Setzt deren Führungsetage wieder die UVP des neuen Lineups deutlich zu hoch (um die vorherige Generation komplett abzuverkaufen), liegt es am Kunden da entgegen zu halten und abzuwarten.
Bei solchen ineffizienten kleinen GPUs wie GA103, gestreckt auf ~400 W, warte ich ab; egal wie lange, bestenfalls bis eine ordentliche rtx 4080 Ti mit GA102 GPU erscheint und effizienter ist.

Wenigstens ist deren Führungsetage diesmal etwas schlauer und beginnt den Abverkauf des jetzigen Lineups bereits mehrere Monate vorher (im Vergleich zur Generation 2020, 2018 etc.), wickelt diese in Spielebundles ein, und verschiebt sogar den Launch nach hinten ;)

etp_inxession
2022-06-20, 07:11:11
Man kann nur hoffen das es entweder absolute Spitzenwerte sind, oder die Gerüchte sich nicht bewahrheiten.

Allerdings sind es mittlerweile schon sehr viele Gerüchte die in diese Richtung zeigen.

Bliebe für mich nur der AD106 Chip übrig.
Aber das wäre sicher kein Aufstieg zur RX 6800

Sollten die Verbrauchswerte so, oder so ähnlich, stimmen... dann wird ADA schon eine ordentliche Schippe an Leistung on Top legen (müssen).

Alles andere rechtfertigt diesen Energiehunger ja keineswegs.

Bleibt nur zu hoffen das AMD einen gesunden Mittelweg findet.
Muss dann auch zu den Top End Karten gar nicht mal konkurrenzfähig sein.

Es reicht wenn man eine Karte hat die bei ähnlichem Verbrauch zur RX 6800, 50% Mehr Leistung generiert.

Wenn man sich im Golem Forum so umsieht, tummeln sich sehr viele "Green" IT ler ... die sich ganz sicher keine > 500 Watt Karte kaufen würden.

Legendenkiller
2022-06-20, 07:33:30
250/300/400/600W
4060/4070/4080/4090

800 wird nicht passieren. Höchstens rare Lastspitzen. Ein 15200+W Netzteil wird man aber brauchen zusammen mit Intels KS Flaggschiff.


so in etwa würde ich das als alleen meldungen zusammen auch schätzen.
Die 800W ist das Powerlimit, also nicht Lastspitzen sondern alles was man mit OC und so, nutzen könnte.
Der neue Stromversorgungsstecker erlaubt so hohe Leistungen nur noch im starkt geregelten Betreib, der kaum noch Lastspitzen zulässt.

Normale Grafikkarten kann und wird man aber nicht mit einen voll ausgereizten Powerlimit bauen. Das würde einfach zu viel Reklamationen und Ausfälle erzeugen.
Mehr als 75% evtl. bis 85% des max. Powerlimit wird man bei Butter und Brot Grakas nicht nutzen.

Die 600W für eine 4090 sind ja schon fest gesetzt.
Die 400-450W für die 4080 ist faktisch schon gesetzt , weil die Valedierung der Karten ja fertig sind.
Bei der 4070 werden es wohl 300W-350W werden, sonst ist der Abstand zur 4080 zu groß.

Die 4060/50 gibt es praktisch noch nicht. Die kommen erst in 23 und ihre endgültigen Werte sind abhängig wie die andern Karten im Markt laufen udn was AMD macht.
Hier wäre sogar eine neue gelabelter Ampere Refresh denkbar. Also ein 3070 Chip als 4060.

Gast
2022-06-20, 09:22:29
so in etwa würde ich das als alleen meldungen zusammen auch schätzen.
Die 800W ist das Powerlimit, also nicht Lastspitzen sondern alles was man mit OC und so, nutzen könnte.
Der neue Stromversorgungsstecker erlaubt so hohe Leistungen nur noch im starkt geregelten Betreib, der kaum noch Lastspitzen zulässt.
Ich dachte, der neue Stecker geht bis 600W? Mit gewissen Toleranzen wird man auch höhere Peaks übertragen dürfen, aber wenn man von grob 800W redet, dann ist das wohl eher über den Toleranzen (auch bei OC). Igor hatte glaub ich mal was von grob 660W geschrieben, was der Stecker kann. Das würde bedeuten, man bräuchte einen weiteren Stecker zusätzlich, was den 12+4Pin ad Absurdum führt. Eigentlich müsste man, wenn noch OC möglich sein soll, vielleicht 550W anpeilen, dann hätte man 50W OC Spielraum (wenn man über die Stecker-Spec geht vielleicht maximal 100W OC Spielraum). Oder man muss bei 600W ziemlich restriktiv zu machen.
Ich kann mir daher durchaus auch gut vorstellen, dass auf den OC Modellen der Partner neben dem 12+4 noch ein weiterer Stromstecker verbaut ist, um den OC Raum damit abzudecken.

Rabiata
2022-06-20, 11:52:36
Es reicht wenn man eine Karte hat die bei ähnlichem Verbrauch zur RX 6800, 50% Mehr Leistung generiert.

Wenn man sich im Golem Forum so umsieht, tummeln sich sehr viele "Green" IT ler ... die sich ganz sicher keine > 500 Watt Karte kaufen würden.
Mir würde schon eine Umschaltoption auf der Karte reichen (aber bitte betriebssystemunabhängig), damit man in einen "Green-Modus" gehen kann.

Gast
2022-06-20, 11:57:05
Es braucht eine Apple-Eigenentwicklung - das iDeck ©®™. Und Voila, das Problem der hohen Preise erübrigt sich, die Apple-Jünger kaufen, kaufen, kaufen ...

Gibt es bereits, nennt sich IPad, und es ist wirklich traurig zu sehen, wie viel jenes schneller als das Steamdeck ist und dabei noch dazu 100% lautlos. Beim Steamdeck fangt schon bei der kleinsten Belastung, sei es nur Updates runterladen, der Lüfter zu röhren an.

Gast
2022-06-20, 12:05:49
Aber nicht mit x86 Games und zudem befindet sich ein M1 in einer anderen Preisklasse.

M1 wäre selbst mit Rosetta auf CPU Seite um vielfaches schneller als das Steamdeck.

Die RDNA2 GPU ist ja ziemlich in Ordnung, aber die Zen2 Kerne auf diesen niedrigen Taktraten sind einfach nur lahm, und zwar so lahm dass man es schon bei der normalen Navigation merkt.

Die "bis zu" 3,5GHz siehst du nämlich nur im Ladescreen, weil der CPU Part alleine damit ca. 13W braucht, und bei 15W Powerlimit geht das eben nur aus wenn die GPU gar nix tut.

Im realen Gaming hast du normalerweise um die 2GHz bis vielleicht maximal 2,4GHz, und damit sind wir in einem Bereich in dem selbst die kleinen Icestorm Kerne schnell genug wären. Die haben nämlich eine vergleichbare Leistung pro Takt wie Zen 2 und takten auch mit 2GHz.
Allerdings mit dem großen Unterschied, dass sie dabei keine 500mW brauchen.

Gast
2022-06-20, 12:45:41
Gibt es bereits, nennt sich IPad, und es ist wirklich traurig zu sehen, wie viel jenes schneller als das Steamdeck ist und dabei noch dazu 100% lautlos. Beim Steamdeck fangt schon bei der kleinsten Belastung, sei es nur Updates runterladen, der Lüfter zu röhren an.
Naja, das liegt dann aber an der Lüftersteuerung vom SD. Und preislich gibt's da auch gewisse Unterschiede. Das Air hat nur 8GB, da kommt man in aktuellen Spielen nicht weit (da sich die 8GB ja IGP und CPU teilen müssen). Also muss es das Pro sein, welches ab fast 1500€ kostet, also weit mehr als das doppelte vom SD Topmodell. Das Lüfterlose Design ist nicht jedem User 800€ wert. Und in den meisten Spielen wird sicherlich zuerst mal die IGP limitieren bevor den CPU Kernen die Puste aus geht. Also brauchen die aktuell nur selten mehr Leistung.

MiamiNice
2022-06-20, 12:57:14
Meinst Du echt die 800 Watt Karten kommen erst als Refresh @Leo?
Find ich zwar blöd aber würde mir nicht ganz ungelegen kommen. Ich wollte eh den letzten monolithischen Chip von NV kaufen. Wird es halt keine 4090, sondern eine Ada Titan. Bis dahin hält meine 600 Watt 3090 wohl noch durch.

Platos
2022-06-20, 15:03:49
Sag mal, wie viele Stunden spielst du am Wochenende (am Tag) eig. so MiamiNice. Also jetzt bei den Temperaturen :D ?

Bei 600W GPU alleine, müsstest du dahin braten.

user77
2022-06-20, 15:22:21
Mit einem M1 wäre so viel mehr möglich gewesen.

und was willst du darauf spielen? :freak:
Jedes Game müsste portiert werden...

Gast
2022-06-20, 15:28:50
und was willst du darauf spielen? :freak:
Jedes Game müsste portiert werden...

Es gibt Rosetta 2, und der M1 wäre immer noch um Lichtjahre vor Zen2 selbst mit Rosetta 2.

Rampage 2
2022-06-20, 17:11:53
Igor hatte da einmal ein Video zu dem Thema Lastspitzen bei der 3090 Ti (die ja als elektrische Vorlage für Ada dient).
Fazit war, dass das Teil zwar knapp 480W säuft, die Lastspitzen jedoch auch nicht über 600W drüber gehen (also +25%).
Zu Vergleich eine 3070 mit 220W TDP hat Lastspitzen bis 440W (also 2x).

Wie hoch sind die Lastspitzen bei einer 3080 Ti? Die basiert ja auch auf GA102, aber leicht abgespeckt (80 statt 84 SMs) und hat nur 12 Speicherchips auf der Vorderseite im Gegensatz zur 3090, die beidseitig insgesamt 24 Speicherchips hat.

BTW: Wieviel Watt kann PCIe 5.0 und der neue Stromstecker insgesamt an die GPU liefern? Also Stromkabel + Strom vom PCIe-Slot. 675W?

Was das Thema Akzeptanz des Stromverbrauchs angeht: 500W sind für mich die Obergrenze für eine Enthusiast-GPU - mehr als ein halbes Kilowatt sollte eine GPU nicht verbrauchen dürfen.

R2

user77
2022-06-20, 18:42:05
Es gibt Rosetta 2, und der M1 wäre immer noch um Lichtjahre vor Zen2 selbst mit Rosetta 2.

Wow, die Liste ist ja gewaltig...

https://isapplesiliconready.com/de/for/rosetta

Gast
2022-06-20, 21:27:28
Wow, die Liste ist ja gewaltig...

https://isapplesiliconready.com/de/for/rosetta

Die wichtige Liste ist noch viel kürzer.

https://isapplesiliconready.com/de/for/unsupported

Gast
2022-06-20, 23:04:48
Was das Thema Akzeptanz des Stromverbrauchs angeht: 500W sind für mich die Obergrenze für eine Enthusiast-GPU - mehr als ein halbes Kilowatt sollte eine GPU nicht verbrauchen dürfen.




Hm, also ich hab meine 2080Ti jetzt im Sommer wieder von 320W auf 260W zurückgestellt. Klar verliert man etwas Performance, aber die Zimmertemperatur ist damit doch merklich angenehmer, ich will mir gar nicht vorstellen wie das bei fast dem doppelten ist.

Leonidas
2022-06-21, 04:44:58
Schade, dass das mit dem Juli-Release der 4090 nicht geklappt hat. Ich hätte gern die Tester gesehen, die 450-500W im kleinen Raum dem Leser hätten erklären sollen ...

Gast
2022-06-21, 07:50:24
Schade, dass das mit dem Juli-Release der 4090 nicht geklappt hat. Ich hätte gern die Tester gesehen, die 450-500W im kleinen Raum dem Leser hätten erklären sollen ...

Dieser Juli-Release war ziemlich sicher auch nie geplant.

Gast
2022-06-21, 08:44:53
Es gibt Rosetta 2, und der M1 wäre immer noch um Lichtjahre vor Zen2 selbst mit Rosetta 2.
In Cinebench R15 SingleThread ist der M1 grob 20% schneller als ein R3 4300U (Werte von Notebookcheck). Der alte Cinebench läuft über Rosetta, wäre also grob das, was man erwarten könnte. Die 20% als "Lichtjahre" zu bezeichnen, sagt schon einiges. Ich hatte hier zum Vergleich auch explizit den 4-Kerner Zen2 genommen, weil das am ehesten dem SteamDeck entspricht. Würde ich z.B. den 4800U nehmen, wäre der in Cinebench R15 Multithreaded sogar ähnlich effizient als der M1 und grob 25% schneller.
So richtig gut ist der M1 also eigentlich nur bei native Code und vor allem in Singlethreaded trotz relativ niedrigem Takt. Multithreaded ist er nicht zwingend besser als AMD (Zen3+ kommt da schon in Regionen eines native laufenden M1).

Leonidas
2022-06-21, 11:48:20
Dieser Juli-Release war ziemlich sicher auch nie geplant.

Wahrscheinlich nicht. Die Aussage war eher Wunschdenken in Bezug auf einen Test zu Sommer-Bedingungen.

Gast
2022-06-21, 14:04:25
In Cinebench R15 SingleThread ist der M1 grob 20% schneller als ein R3 4300U (Werte von Notebookcheck).


Der 4300U taktet auch wesentlich höher als der SoC im Steamdeck sobald die GPU was zu tun hat. Freilich ist Zen2 mit hohem Takt nicht so schlecht, aber für das Steamdeck viel zu Stromfressend. Die CPU taktet im Steamdeck beim Gaming real unter Apple-Taktraten.


So richtig gut ist der M1 also eigentlich nur bei native Code und vor allem in Singlethreaded trotz relativ niedrigem Takt.


Das ist auch das entscheidende für die responsivness. Beim Gaming entscheidet letztendlich immer der schnellste Thread im wesentlichen über die Performance.


Multithreaded ist er nicht zwingend besser als AMD (Zen3+ kommt da schon in Regionen eines native laufenden M1).

Nur wenn AMD mehr Threads hat, und wie gesagt ist das für das Einsatzgebiet Gaming eher wenig relevant.

Lehdro
2022-06-21, 14:59:44
Diese M1 Beweihräucherung ist in einem Technikforum einfach nur peinlich. Mal ganz abgesehen von dem Fakt das Apple den Chip niemals nach außen geben würde, gibt es da noch den Preis und diverse Gamingbenchmarks für den M1, bei denen der mal so gar nicht gut aussieht, dafür was da eigentlich an Rohleistung verbaut ist. Hat was von Intel, so als Papiertiger.

Der M1 ist ein super Chip für das was er machen soll. Aber im x86 Markt ist er aus vielen Gründen deplatziert, im Steam Deck erst recht.

MiamiNice
2022-06-21, 16:40:31
Sag mal, wie viele Stunden spielst du am Wochenende (am Tag) eig. so MiamiNice. Also jetzt bei den Temperaturen :D ?

Bei 600W GPU alleine, müsstest du dahin braten.

So 8 Stunden unter der Woche nach der Arbeit bis zum Bettchen. Am Wochenende eher gar nicht - da verbringe ich meine Zeit mit meiner Dame.
Wenn es draussen 30 Grad sind, habe ich nach 8 Stunden gamen so 22 Grad im Zimmer. Da Strom einspeisen keinen Gewinn mehr bringt - wird er genutzt. Ergo Split Gerät im Gaming Zimmer.

Oder anders gesagt, der PC saugt gut 1kw mit Moni und Co. Ist dabei akustisch nicht wahrnehmbar und man kann, trocken XD, den Sommer, vorm PC, überwintern.

Gast
2022-06-21, 20:41:49
SOCs mit Unified Memory sind die Spielezukunft für die breite Masse, keine Frage. Der High End PC Markt bleibt aber bestehen. 8k mit RTRT bei 240+fps will anständig befeuert werden. :)
Ka was du geraucht hast aber selbst ne 3090ti schafft mit Mühe und Not 4k und knapp 100 FPS nativ ohne DOWNgrade durch DLSS2.0.

Und wenn ich eh nur 1440p nativ berechne um es dann hoch zu matschen auf FAKE 4k ... brauch ich kein 4k sondern bleib bei sauberen und ECHTEN 1440p. Dann kann man wenigstens die Schrifft auch noch anständig lesen ohne Lupe ;).

Gast
2022-06-21, 22:59:28
Der Post bedeutet das es AD102 für Desktop (Gamer) gar nicht gibt. Da wird es den AD103 mit max 450w geben!

Das passt übrigens zur RDNA3 Pro mit ü16000 Shadern. Das ist alles Prosumer Zeugs, dass fürs Spielen eigentlich nicht immer taugt. Siehe R7.

Gast
2022-06-22, 07:39:38
Ka was du geraucht hast aber selbst ne 3090ti schafft mit Mühe und Not 4k und knapp 100 FPS nativ ohne DOWNgrade durch DLSS2.0.

DLSS2.x ist in den meisten Spielen ein Upgrade schon bei gleicher Ausgabeauflösung, und performancenormiert betrachtet ist es in jedem Fall ein Upgrade.

Gast
2022-06-22, 12:27:20
Der 4300U taktet auch wesentlich höher als der SoC im Steamdeck sobald die GPU was zu tun hat. Freilich ist Zen2 mit hohem Takt nicht so schlecht, aber für das Steamdeck viel zu Stromfressend. Die CPU taktet im Steamdeck beim Gaming real unter Apple-Taktraten.
Achso, und der Apple taktet nicht niedriger, wenn er eine voll ausgelastete GPU hat?
Ist schon echt schlimm, wie verblendet manche Leute sind. Der taktet ja sogar schon bei Volllast auf den Kernen runter, sonst müsste er ja viel höhere Werte im CB Multi erreichen. Kleiner Hinweis noch: Der M1 braucht unter GPU Last (Witcher 3) Peak 60W, grob 40W im Durchschnitt. NBC hat ja nicht das IPad vermessen, sondern die Macbooks. Insofern kannst du gleich mal vergessen, dass der M1 in einem Gerät wie dem SteamDeck so gut unterwegs wäre.

Gast
2022-06-23, 07:39:23
Achso, und der Apple taktet nicht niedriger, wenn er eine voll ausgelastete GPU hat?


Wenn man ihn auf 15W limitiert wird er das machen. Beide werden bei ähnlichen Taktraten landen, mit dem Unterschied dass Apple auf selbem Takt weit voraus ist.

Zusätzlich hat der M1 noch die Icestorm Kerne in der Hinterhand, bei diesen niedrigen Taktraten sind diese kaum mehr langsamer, die Performance/Takt ist vergleichbar mit Zen2, allerdings bei fast zu vernachlässigendem Verbrauch.
Für Gaming, mit der hohen Abhängigkeit vom Mainthread wäre es also am sinnvollsten nur die 1-2 Firestorm Kerne für die Performancelastigen Threads zu verwenden, und die ganzen Workerthreads auf den Icestorm-Kernen laufen zu lassen. Damit könnte man die GPU fast vollkommen ausfahren.

Lehdro
2022-06-23, 15:58:31
Wenn man ihn auf 15W limitiert wird er das machen. Beide werden bei ähnlichen Taktraten landen, mit dem Unterschied dass Apple auf selbem Takt weit voraus ist.
Aha, du hast da sicherlich aussagekräftige Tests zu um das mal einzuordnen. Also dieses "weit voraus" in Zahlen.

Zusätzlich hat der M1 noch die Icestorm Kerne in der Hinterhand, bei diesen niedrigen Taktraten sind diese kaum mehr langsamer, die Performance/Takt ist vergleichbar mit Zen2, allerdings bei fast zu vernachlässigendem Verbrauch.
Für Gaming, mit der hohen Abhängigkeit vom Mainthread wäre es also am sinnvollsten nur die 1-2 Firestorm Kerne für die Performancelastigen Threads zu verwenden, und die ganzen Workerthreads auf den Icestorm-Kernen laufen zu lassen. Damit könnte man die GPU fast vollkommen ausfahren.
Als ob. Das ist so lächerliches Geschwätz ohne Basis und reines Wunschdenken. Schau dir bitte mal Intels Lösung an, die einen weitaus kleineren Performanceunterschied zwischen den beiden Kernarten hat und wie das so läuft. Und dann schau mal bitte bei Apple nach, da liegen zwischen 2x und 6x dazwischen, je nach Task. Es hat zudem bei Games gute Gründe erst die großen Kerne auszulasten und dann erst die Kleinen. Ein Mischmasch ist derzeit absolut nicht zielführend, da schon allein von der Software nicht berücksichtigbar.

Und mal ganz von der CPU ab: Die GPU ist das wahre Kunststück. Wir wissen dass das Steamdeck meist deutlich schneller ist als Vega 8 in derselben TDP Klasse. (https://uk.pcmag.com/gaming-systems/139062/steam-deck-vs-laptop-tested-how-does-graphics-performance-compare) Und selbst Vega 8 kann dem kleinen M1 in vielen Spielen durchaus das Wasser reichen (1 (https://abload.de/image.php?img=screenshot2022-06-231vac8x.jpg), 2 (https://abload.de/image.php?img=screenshot2022-06-2310xi1z.jpg)) - bei voller TDP des M1(!) und Vega 8 teilweise als U Variante (meist im Yoga Slim -> 15-25W vs. >40W im Macbook) und ohne den Bandbreitenvorteil den der M1 gegenüber den Vega 8 Varianten genießt. Das Steamdeck hat definitiv mehr GPU Power als der M1 von Apple - von den ganzen anderen Stolperfallen die die Applelösung mit sich bringt, ganz zu schweigen (wesentlich teurer, nicht im allem kompatibel, Treiberfrage (Linux!), geringere Energieeffizienz der GPU und ARM statt x86 CPU).

Gast
2022-06-23, 16:48:46
Erstmal sehen, was mit dem Wattagen gemeint ist. Eine der guten Sachen an ATX3.0 ist die Festlegung der kurzzeitigen Spitzen. Afaik war bis 2.X oder 12pin-Nvidia in keinem Test davon die Rede.

Gast
2022-06-23, 23:13:28
Aha, du hast da sicherlich aussagekräftige Tests zu um das mal einzuordnen. Also dieses "weit voraus" in Zahlen.


Wildlife Extreme:
Steamdeck: 2900
M1: 5100

Cinebench R23:
Steamdeck: SC 900p
M1: SC 1500p


Als ob. Das ist so lächerliches Geschwätz ohne Basis und reines Wunschdenken.


Icestorm hat ca. 40% der Performance von Firestorm auf vollem Takt.
Firestorm ist dabei 60% höher getaktet --> Icestorm hat ca. 60% der Performance von Firestorm pro Takt.

Firestorm hat ca. 65% mehr Performance pro Takt als Zen2.

--> Zen 2 hat in etwa vergleichbare Performance/Takt mit Icestorm.

Zen 2 im Steamdeck taktet in so ziemlich allen neueren Spielen real <2GHz

--> Icestorm reicht aus um die Zen2 Performance im Steamdeck zu egalisieren.

Firestorm gibt es als Bonus oben drauf.




(meist im Yoga Slim -> 15-25W vs. >40W im Macbook)


Keine Ahnung wie du auf 40W kommst, dafür braucht es realistisch mindestens einen M1Pro.

Selbst mit künstlichen Lasten bei denen gleichzeitig alle CPU-Kerne+GPU gleichzeitig voll ausgelastet werden, was für Gaming total unrealistisch ist, wirst du dir mit einem M1 kaum über 30W kommen.

Realer Verbrauch eines M1 im Macbook beim Gaming liegt im Bereich 15-20W.

Dabei darf man aber nicht vergessen, dass der M1 in der Package-Power den DRAM inkludiert, die ganzen AMD/Intel Prozessoren aber nicht.

Das macht gerade in Grafiklastigen Szenarien zusätzlich noch mal 3-5W aus die beim M1 "zu viel" bzw. bei den anderen "zu wenig" gezählt werden.

Gast
2022-06-23, 23:36:26
Gesetze zum Energiesparen gibt es anderswo schon lange. In Mailand hatten wir mal das Problem, dass wir überraschend klitschnass geworden waren und es einen Temperatursturz gab. Laut Gesetz durften aber die Heizungen seit Monatsanfang nicht laufen. Gut, dass die Bettdecken sehr dick waren und wir Ersatzklamotten hatten.