PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 23. Februar 2022


Leonidas
2022-02-24, 08:10:58
Link zur News:
https://www.3dcenter.org/news/news-des-23-februar-2022

Gast
2022-02-24, 09:54:18
Kann mir nicht vorstellen, dass NVidia so hohe Verbrauche fahren wird, da bräuchte man ja sogar beim neuen 12 Pin Stecker mehrere. Da er eingeführt wurde, um Platz zu sparen, macht das für mich keinen Sinn...
Ganz abgesehen von der Kühlung (wie soll die leise erfolgen können und wie soll die Abwärme aus dem Gehäuse kommen können?)

Summerbreeze
2022-02-24, 10:13:30
Das sind doch alles Nebelkerzen.
Niemand kauft eine 4070 mit 450W, oder eine 4090 mit bis zu 800W. Das ist doch Verrückt.

Selbst WENN das nur die Angabe für die Netzteilberechnung aufgrund der Auftretenden Spikes sein sollte klingt das total Verrückt.

Das Nvidia auch das letzte Watt an elektrischer Leistung heraus- bzw hineinpressen wird um den Platz an der Sonne zu behalten, daran habe ich keinen Zweifel.
Solche Angaben für einen einzelnen Chip glaube ich aber nicht.

Why there is 800W+ model, it is obviously determined by competition, otherwise NV would not make such a monster for nothing.
Warum es 800W+ Modelle gibt, bestimmt natürlich die Konkurrenz, sonst würde NV so ein Monster nicht umsonst bauen.
Da bin ich ja mal gespannt, wie weit AMD gehen wird.

Aber selbst wenn es "nur" bei 500W bleibt, dann steht mit dem Rest des Rechners, der ja auch nicht zu den Kostverächtern zählen dürfte ein halber Heizlüfter unter dem Tisch.
Muss man sich nur mal vergegenwärtigen. Das muss ja auch irgendwo hin.

Ich bin mir aber ziemlich sicher, wenn solche Monster im Privatsektor wirklich kommen sollten, wird das Folgen haben.
Wenn irgendjemand aus dem Kreis der Gesetzgeber darauf Aufmerksam wird, wird die EU eine Begrenzung an Elektrischer Leistung in Gesetze gießen.

P.S.
Ach ja, wie Greymon selbst schreibt, sollte man nicht alles was er von sich gibt auf die Goldwaage legen
A lot of my tweets are not really leaks at all, just my own thoughts and guesses, but I've seen some people take it as rumors or leaks.🤣

It's pretty easy to tell what's a leak and what's a guess, but some people tend to take it as a real leak, while sometimes I'm just sharing my thoughts.


Ich denke, die Köpfe können wir uns dann heiß reden, wenn es so weit ist.

Gast
2022-02-24, 10:50:51
Realistischer klingt da schon 450W Stock Powerlimit, 600W max. vom User einstellbares Limit, und 850W Netzteilempfehlung (@Stock)

Im Server-Segment steht AMD dagegen inzwischen bei ~$940 Dollar pro CPU, Intel bei ~$670 Dollar pro CPU. Damit läßt sich auch klassifizieren, um wieviel wirkmächtiger Server-Verkäufe sind: Intel muß derzeit (etwas mehr als) fünf Consumer-Prozessoren verkaufen, um auf den Verkaufserlös eines einzelnen Server-Prozessors zu kommen (bei AMD ist es nahezu 8:1).

Das ist gleich auf mehreren Ebenen ungenau.

1. AMD Serverprozessoren haben aktuell in der Regel mehr Kerne als die Intel Counterparts, und die werden durchaus öfters auch in einem Bereich eingesetzt in dem die Kernanzahl im Gegensatz zum Desktop auch für mehr Performance steht (allerdings auch nicht immer, es gibt genug Serveranwendungen die über 8 Kernen auch nicht besonders gut skalieren).
Sinnvoller als ein Vergleich ASP pro CPU wäre im Serverbereich (und nur dort) also ein ASP pro Kern.
Sprich, AMD mag vielleicht pro CPU deutlich mehr einnehmen, da man für eine Server-Site aber von AMD auch entsprechend weniger CPUs braucht wird der Unterschied im Endeffekt wesentlich geringer ausfallen, falls da nicht sogar immer noch Intel vorne liegt.

2. Man kann nicht nicht wirklich Serverprozessoren und Desktopprozessoren so gegeneinander aufrechnen, schließlich sind deren Herstellungskosten auch deutlich unterschiedlich.

Gast
2022-02-24, 10:54:16
Die Chipfläche steigt bei Rembrandt damit auf 210mm², was wiederum klar mehr als bei Renoir (156mm²) und Cezanne (175mm², gemäß anderer Quelle) ist – und geht somit wieder auf die Größe der ersten Zen-basierten APUs "Raven Ridge" und "Picasso" (beiderseits 210mm²).

Also steigt die Packdichte von N7 auf N6 gerade mal 2%, bringt also scheinbar kaum was.

WedgeAntilles
2022-02-24, 10:56:29
"Damit läßt sich auch klassifizieren, um wieviel wirkmächtiger Server-Verkäufe sind: Intel muß derzeit (etwas mehr als) fünf Consumer-Prozessoren verkaufen, um auf den Verkaufserlös eines einzelnen Server-Prozessors zu kommen"

Und da geht es ja nur um Umsatz, ich bin sicher dass es beim Gewinn noch viel extremer ist.
Höherpreisige Produkte generieren üblicherweise auch deutlich höhere Gewinnmargen.

Das Servergeschäft ist damit noch mal weit wichtiger als es ein Blick auf die Umsätze suggeriert.
Umso wichtiger (und beeindruckender) war es für AMD natürlich, gerade in diesem Feld seit einigen Jahren so stark aufgestellt zu sein und dermaßen wachsen zu können.


Die Angaben der Watt-Zahlen bei Lovelace sind IMO lächerlich.
Wie Summerbreeze schon schrieb, kann man schlicht keine 4070 mit 450W verkaufen.
Und keine 4090 mit 800 Watt.
Jedenfalls nicht in der Masse, und genau das ist es was Nvidia verkauft - ein Massenprodukt, das an Millionen Kunden geht.
High-End Lösung für Enthusisaten, die Wasserkühlungen und was weiß ich was alles brauchen sind ein vollkommener Nischenmarkt der für ein paar wenige Enthusiasten relevant ist.

Wird das Spitzenmodell 4090 höhere Verbräuche haben als die 3090? Das kann gut sein. 100 Watt vielleicht.

Schon bei der 4070 werden die durchschnittlichen Verbräuche sehr ähnlich zur 3070 sein, lass es meinetwegen 20,30 Watt mehr sein, aber das war es.

Legendenkiller
2022-02-24, 11:42:46
die 1070 hatte 150W
die 2070 hatte 175W
die 2070S hatte 215W
die 3070 hatte 230W
die 3070(ti) hatte 290W

Also ist ermal klar das die 4070 über 300W kommt. Und eine 4070S/TI bei 400W landet.

Wenn eine 4090 2-2,5X haben soll kann man vieleicht 30%-40% über den Prozess hohlen. Also müssen die restliche 60-70% über eine höher TPD kommen. Das sind dann ca. 600W TPD.
Das ist Physik. Die Verhandelt nicht und ignoriert auch einfach Wünsche.

Ansonsten stimmen die 2 - 2,5x einfach nicht. Das sie sowieso nur für handverlesene Werte gelten sollt aber schon klar sein.

PS: bisher haben die Käufer die immer höheren Verbräuache einfach akzeptiert. Das geht solange weiter, bis für ein Großteil der GRafikkartenkäufer der Verbrauch eine relevante Größe wird.
Möglich das es bei der nächsten Generation dann soweit ist. Richtig sehen tuh ich das aber auch nicht, die meisten sagen "ich will aber nicht verzichten", kaufen dann einfach 1000W-2000W Netzteile und sagen: "siehste, geht doch".
Dann jammern sie 1x im Jahr über die hohe Stromrechnung aber ziehen wie immer keinerlei Konsequenzen daraus und machen einfach weiter.


Für mich sind auch schon 300W Grafikarten eine komplette Fehlkonstruktion.

PS: Der Stromverbrauch ist Prozendual nicht absolut.
+20% sind bei
einer GF3 mit 15W , +3W also 18W
bei einer 1070 mit 150W, 30W mehr, also 180W
bei 450W aber schon 90W mehr, also 540W.

Oder anders rum ... bei einer 150W GRaka sind +30W 20%
bei einer 450W Graka sind +30W nur noch 6% .

Windi
2022-02-24, 12:28:47
Bei den hohen Wattzahlen gab es sicherlich einige falsche Deutungen.
Ein so hoher Verbrauch der Karten wäre katastrophal.

Viel mehr Sinn macht es wirklich, wenn es sich "nur" um die maximalen Lastspitzen handelt. Oder um Netzteil-Empfehlungen.

Auch die jetzige Generation hat schon deutliche Lastspitzen, die so manches Netzteil überfordert hat. Und in der neuen Spezifikation zum PCI5.0 Stecker wird gefordert, das das Netzteile kurzfristig die doppelte Leistung liefern können muss. Ein 1000W Netzteil muss also für ein paar Millisekunden auch 2000W liefern können.

Das wird sich sicher bald klären.
Aber bis dahin drehen wieder die Foren durch. Computerbase ist jetzt schon bei 240 Kommentaren.

Troyan
2022-02-24, 12:33:32
A100 im Server liegt bei 400W (Custom-Karten auch bei 450W), die PCIe Karte bei 300W. Mal nur zur Veranschaulichung, wie absurd solche Lügen von Twitter sind.

Des Weiteren ist es AMD, die als erste Firma über 500W gegangen sind. Die MI250X Karten werden per Wasser bei 550W gehalten. Das ist 100W mehr als bei A100.

WedgeAntilles
2022-02-24, 12:42:08
die 1070 hatte 150W
die 2070 hatte 175W
die 2070S hatte 215W
die 3070 hatte 230W
die 3070(ti) hatte 290W

Also ist ermal klar das die 4070 über 300W kommt. Und eine 4070S/TI bei 400W landet.


Klar, ist das nicht.
Das sind einfach nur Zahlen - die können eintreffen, oder eben nicht.

Ich denke:
Die 4070 wird vielleicht 250,260 Watt haben.
Die 4070TI wird vielleicht 310-320W haben.

4070 deutlich unter 300W
4070TI deutlich unter 400W

Die ganzen: Leistung 2-2,5 fach halte ich btw ebenfalls für Quatsch, das ist viel zu hoch gegriffen IMO.
Mehr als 1,7 oder etwas in der Richtung erwarte ich eigentlich nicht.
Aber dafür eben auch ein ähnlicher Stromverbrauch. (Vom absoluten High-End Modell mal abgesehen, evt. kommt eine 4090TI oder wie auch immer mit 600 oder 700 Watt. Wer weiß schon was in diesem Extrem-Segment passieren wird.)


Es bleibt spannend :)

Kleebl00d
2022-02-24, 12:48:46
Mit einem Augenzwinkern:
Ausgehend von den Werten in Legendenkillers Post hab ich mir mal angeschaut, was passiert, wenn man basierend auf der Generation bzw. des Erscheinungsdatums eine exponentielle Funktion anfittet. Wenn man bei der 1070 startet und die 4. Generation bzw. ein Erscheinungsdatum im Sommer annimmt (also ca. 2200...2300 Tage nach der Erscheinung der 1070) orakel ich anhand der Extrapolation eine TDP von 357W für die kommende 4070.
Kommt übrigens übereinstimmend bei beiden Ansätzen raus, das kann man also als gesetzt ansehen ;)

MiamiNice
2022-02-24, 14:01:12
Denkbar ist beispielsweise die einfache Auflösung, dass es sich bei den höheren Wattagen nur um Peak-Werte handelt, welche nur im Millisekunden-Bereich erreicht werden.

Herstellerdesigns der 3090 fahren, wie schon so oft erwähnt, 450 Watt. Die TDP der 3090TI ist im Referenzdesign bei 450 Watt. Die 4090 soll nun 70 - 100% schneller werden als die 3090. Ich schrieb schon mehrmals das wir 650 Watt sehen werden, 850 Watt würde mich für ein OC Modell wie z.b. der Strix OC auch nicht wundern.

Und unter uns Gesangsschwestern: Das ist auch gut so, endlich die richtige Richtung. Strom sparen ist was für Luschis. Tim Tylor Style. Yeah Baby, Yeah!

Gast
2022-02-24, 14:04:38
Also steigt die Packdichte von N7 auf N6 gerade mal 2%, bringt also scheinbar kaum was.
Kommt halt drauf an, wie das mit den Transistoren ist. Der Verbrauch ist ja nicht immer gleich, kann halt auch sein, dass RDNA2 mehr Platz als Vega braucht.

Gast
2022-02-24, 14:14:00
A100 im Server liegt bei 400W (Custom-Karten auch bei 450W), die PCIe Karte bei 300W. Mal nur zur Veranschaulichung, wie absurd solche Lügen von Twitter sind.

Des Weiteren ist es AMD, die als erste Firma über 500W gegangen sind. Die MI250X Karten werden per Wasser bei 550W gehalten. Das ist 100W mehr als bei A100.
Man kann aber auch nicht einfach von Server auf Gaming schließen. Im Server Bereich wird die Kühlung explizit auf die Rechner angepasst. Das macht beim Gaming nicht unbedingt jeder. So mancher übernimmt das alte Gehäuse einfach und hat dann auch ein Interesse an leisem Betrieb (im Server ist das egal). Beim Server zählt einfach die Effizienz und die Rechenleistung pro Raum (gerade da ist die MI250X ja auch sehr gut, die bietet ja je nach Aufgabe deutlich mehr Rechenleistung als A100).

Summerbreeze
2022-02-24, 14:23:31
A100 im Server liegt bei 400W (Custom-Karten auch bei 450W), die PCIe Karte bei 300W. Mal nur zur Veranschaulichung, wie absurd solche Lügen von Twitter sind.

Des Weiteren ist es AMD, die als erste Firma über 500W gegangen sind. Die MI250X Karten werden per Wasser bei 550W gehalten. Das ist 100W mehr als bei A100.

Naja, Dafür hat sie auch in großen Teilen grob die doppelte Arbeitsleistung (Wenn mich meine Erinnerung nicht völlig trügt)

Da passt das Verhältnis einigermaßen. ~20% mehr Energie = 100% mehr Leistung.

Ich hab die Daten nicht genau im Kopf, sollte aber einigermaßen hinkommen. Und: Das sind Karten für das Rechenzentrum. Da wird die Rechenleistung wenigstens noch einigermaßen Sinnvoll genutzt, wenns nicht gerade Atombomben berechnet werden.

Wenn AMD so ein Verhältnis auch bei ihren Consumer MCM Designs hinbekommt, ist alles gut. Dann werden die soviele Karten wie noch nie in ihrer Geschichte verkaufen.

Allein, mir fehlt noch der Glaube.

Gast
2022-02-24, 14:36:46
ich seh das ganze recht entspannt, solange FPS pro Watt steigt. Keiner wird gezwungen die Top-Modelle zukaufen und gerade im Bereich von 1080p60Hz ist der Stromverbrauch der benötigten Hardware in den letzten Jahren eher gesunken. Wir verpulvern halt die höhere Leistung in mehr FPS und höhere Auflösungen und das Verlangen wird von AMD und Nvidia halt bedient.
Ich persönlich komme sowie so nur noch in den Wintermonaten zum zocken (25h letzten Frühling-Sommer-Herbst) zu gut über 200 in den letzten Monaten. Wenn die GPU im Winter mit heizt ist das zwar nicht die effizienteste Art und Weiße zu Heizen aber auch nicht komplett nutzlos. Auf die Kühler in ich allerdings echt gespannt ;)

Sweepi
2022-02-24, 14:44:04
Wenn eine 4090 2-2,5X haben soll kann man vieleicht 30%-40% über den Prozess hohlen. [...]
Diese Schätzung erscheint mir für den Sprung von Samsung "8nm" (10nm+) auf TSMC 5nm arg pessimistisch.


Niemand kauft eine 4070 mit 450W, oder eine 4090 mit bis zu 800W.
Ich schon. Warum nicht?


Ich denke, die Köpfe können wir uns dann heiß reden, wenn es so weit ist.
Dem stimme ich zu.

Gast
2022-02-24, 15:01:19
Die Wattzahlen werden wir sicher irgendwann sehen. Daran gibt es keinen Zweifel.
Ich kann sie mir nur für die anstehende Generation nicht so recht denken. Alles >675W würde bedeuten, dass der 5.0-Verbinder vom Start weg unterdimensioniert wäre. Entweder sind das Peaks, die in den Specs vorgesehen sind *1 oder es sind NT-Demands oder sowas.

*1 Es gibt inzwischen zig Meldungen über 5.0-Netzteile - auch von HardwareLuxx. Die Schreiber (auch in den Anbieterfirmen) sollten erstmal die Definition verinnerlichen und kommunizieren, statt die potentiellen Kunden mit fehlerhaften Aussagen zu verwirren.


Hier über Geschäftszahlen, Durchschnittspreise, ... diskutieren zu wollen, hat sich schon länger als Kampf gegen Windmühlen erwiesen. Ich werde auf Zitate aus diesem Posting nicht antworten.

Beispiele:
Billigster Epyc bei geizhals 437€, nächster 610€.
Xeon 24€, der nächste 27€.
Billigste aktuelle APU (Zen3) von AMD 209€ (Zen2 = 194€).
intel (AL) 45€.

End of Story. Obwohl man weitere Absätze mit potentiellen Erklärungen aufsetzen könnte.


Was soll uns der Teil über Rembrandt sagen? Dass AMD fast nur die iGPU pimpt, ist bekannt. Dazu DDR5 und PCIe4, was den CPU-Teil nicht nennenswert beschleunigt.
Nein, DDR4-Kompatibilität wäre - im Gegensatz zu dem, was hier einige behaupten - wohl keine gute Idee. Könnte man gleich bei Cezanne bleiben (was afaik bei den kleinen Modellen auch passieren wird).
BTW: USB 4.0 sagt rein gar nichts aus, da fast alles optional ist. Z.B. 4.0 Gen 1 = 5GBit aka 3.0.
Laut Aussagen einiger Foren-Mitglieder lohnt sich das für AMD nicht. Epyc oder wenigsten 5950X bringt viel mehr pro Wafer, Transistor, usw.. 6900XT ober besser irgendwelche Instinct.
Und überhaupt ist MCM bis in alle Niederungen besser als Monolith.
usw.

Platos
2022-02-24, 15:12:29
Völliger Blödsinn diese News...

Denniss
2022-02-24, 15:29:46
hätte jetzt auch eher vermutet das diese hohen wattagen die Netzteilempfehlungen darstellen würden.

FarCry
2022-02-24, 16:13:03
hätte jetzt auch eher vermutet das diese hohen wattagen die Netzteilempfehlungen darstellen würden.

Exakt so wird es sein. Keiner wird sich eine GK für knapp 1kW in den Rechner bauen. Schon gar nicht bei den mittelfristig zu erwartenden Strompreisen.

WedgeAntilles
2022-02-24, 16:27:09
Exakt so wird es sein. Keiner wird sich eine GK für knapp 1kW in den Rechner bauen. Schon gar nicht bei den mittelfristig zu erwartenden Strompreisen.
Und selbst wenn einem Geld egal ist, bleibt das Problem der viel zu aufwändigen Kühlung für die GraKa.
Spätestens damit wollen sich nämlich nur Enthusiasten herumschlagen.
Und das Problem der Raumaufheizung durch Abwärme kommt auch hinzu.
Klar, ob 200W oder 250W, das ist egal.

Aber ne 450W Heizung wollen vermutlich wenige.
Das schreckt doch zig mal mehr Leute ab als ein "AMD ist 5% schneller wenn ich die 4070 nicht auf 450W bringe"

Wie üblich wird bei den Nvidia Produkten halt gerne mal sehr Schwarz gesehen bei den Leaks.
Hat sich dann noch nie so bewahrheitet, und auch dieses Mal wird der ach so katastrophale Energieverbrauch kein nenneswertes Problem sein.

Paar Watt mehr ist gut möglich (und auch das kann man natürlich kritisieren), aber für ne 4070 braucht keiner Angst vor 300 Watt aufwärts zu haben.

Gast
2022-02-24, 16:58:10
Beispiele:
Billigster Epyc bei geizhals 437€, nächster 610€.
Xeon 24€, der nächste 27€.
Naja, ein 10 Jahre alter Sandy Bridge 4-Kerner ohne HT ist etwas schlecht mit einem Epyc vergleichbar. Wenn man Epyc Rome mit IceLake SP vergleicht, sieht es schon etwas anders aus. Da ist bei den 12Kernern der Preisunterschied bei 15% und nicht mehr ganz so krass.

Gast
2022-02-24, 18:43:33
Ob jetzt Peak oder nicht, es ist komplett verrückt und bitte was soll dieser Sche*ß, sind die noch ganz klar im Kopf. Wenn das so kommt fliegt Nvidia bei mir aus dem Programm. Schon die 3080ti ist kaum machbar und röhrt vor sich hin, heizt alles auf. Furchtbar! Haben die den Verstand verloren?

Gast
2022-02-24, 18:50:21
Muss man mal überlegen, ein Steckdosenring in älteren Wohneinheiten ist noch mit 6A IF abgesichert, max sind 10A da kommt die Sicherung wenn solche Peaks allein von der Grafikkarte anliegen und noch mehr Verbraucher auf dem Ring hängen, dann braucht der PC einen 16A Herdanschluss als einzelne Anschlussmöglichkeit oder was. Die sind doch nicht mehr ganz klar im Kopf.

Gast
2022-02-24, 22:58:53
Naja, ein 10 Jahre alter Sandy Bridge 4-Kerner ohne HT ist etwas schlecht mit einem Epyc vergleichbar. Wenn man Epyc Rome mit IceLake SP vergleicht, sieht es schon etwas anders aus. Da ist bei den 12Kernern der Preisunterschied bei 15% und nicht mehr ganz so krass.1. Du tust, als wüsstest du, wie und auf welcher Datenbasis die Zahlen berechnet wurden.
2. 2314/2324G sind bei 224/261€.
3. Du hast nicht kapiert, wie ein Durchschnittspreis zu Stande kommt.

Man könnte auch sagen "Hurry, ein Troll.".

Gast
2022-02-24, 23:19:57
Exakt so wird es sein. Keiner wird sich eine GK für knapp 1kW in den Rechner bauen.Das ist längst passiert. Nur eben nicht mit Single-Gfx. 4-Way-Titan/GTX 980 Ti-SLI macht 1KW. 4-Way Titan-RTX? 4x 290X via XDMA sind auch 1K bzw. real mehr. Plus OC on top.

Rabiata
2022-02-24, 23:41:33
Muss man mal überlegen, ein Steckdosenring in älteren Wohneinheiten ist noch mit 6A IF abgesichert, max sind 10A da kommt die Sicherung wenn solche Peaks allein von der Grafikkarte anliegen und noch mehr Verbraucher auf dem Ring hängen, dann braucht der PC einen 16A Herdanschluss als einzelne Anschlussmöglichkeit oder was. Die sind doch nicht mehr ganz klar im Kopf.
Die Einschaltströme am PC sind bisher schon nicht ganz ohne. Ich hatte lange Zeit einen 16 A LS-Schalter für mein Zimmer, aber mit der A-Auslösecharakteristik, die bei starken Stromstößen relativ schnell abschaltet. Ein 400W-Netzteil über die Steckdosenleiste einzuschalten hat da schon mal die Sicherung zum Rausfliegen gebracht.
Ich hab dann auf die heute gängige B-Variante umgebaut, jetzt ist Ruhe. Außer du hast zwei Rechner an der selben Steckdosenleiste, die zugleich bestromt werden. Dann fliegt sie wieder...

Gast
2022-02-25, 01:31:05
ein Steckdosenring in älteren Wohneinheiten ist noch mit 6A IF abgesichert, max sind 10A da kommt die Sicherung wenn solche Peaks allein von der Grafikkarte anliegen und noch mehr Verbraucher auf dem Ring hängen, dann braucht der PC einen 16A Herdanschluss als einzelne Anschlussmöglichkeit oder was.
Standard sind schon lange 16A. 10A passt schon. 1KW-PC sollte idR kein Problem sein. Heizlüfter hat ja schon 2KW. Wasserkocher ggf. mehr. Für "längere" Peaks (meist Einschaltstrom, z.B. Hochdruckreiniger) braucht es u.U. träge Sicherung.
"Herdanschluss" hat 400V. Da bekommt man nicht mal 08/15-USV ran.

Platos
2022-02-25, 09:21:35
Das ist längst passiert. Nur eben nicht mit Single-Gfx. 4-Way-Titan/GTX 980 Ti-SLI macht 1KW. 4-Way Titan-RTX? 4x 290X via XDMA sind auch 1K bzw. real mehr. Plus OC on top.

Nur ist da die Hitze auf 4 Karten verteilt und wird bei jeder direkt aus dem Gehäuse geleitet und natürlich waren das immer richtige Düsenjets. Ansonsten braucht das ne riiiichtig grosse Custom Wakü.

Die Kühlbarkeit hängt immer von der Abzuführenden Energie pro Fläche ab. Ist die Fläche doppelt so gross bei doppeltem Stromverbrauch, geht das mit einer grossen Wakü gut. Ist das aber nicht der Fall, gehts eben nicht. Siehe dazu auch Zen 3 mit dem 8-Kerner, den man nicht kühl kriegt, auch nicht mit ner Wakü.

Gast
2022-02-25, 13:22:59
Nur ist da die Hitze auf 4 Karten verteiltDas ist richtig, aber nicht das, was die Leute angeblich(!) aufregt.
Zumal die Hersteller das scheinbar im Griff haben. Bisher jedenfalls. Also kein valider Punkt in dem Teil der Diskussion.
WaKü o.ä. wird Pflicht werden.
Es gab btw Duals, also nur 2 statt 4 Karten, mit nur wenig kleinerem Verbrauch.
Ich hatte mit Absicht 4-Way als nutzbares (mehr geht auch - u.a. für Mining) Gamingmaximum raus gesucht, aber keine Energie in Recherche nach OC-Modellen usw. gesteckt, weil es nur darum ging, klar zu machen, dass das Geplärre Jahre zu spät kommt. War ich wohl nicht erfolgreich. Wieder mal.

Mir _persönlich_ sowieso egal. Ich hatte noch nie Bedarf oder Bedürfnis nach solchen Monstern. Da müsste ich schon Geld für Lärm- & Hitzeschutz oben drauf kriegen, um mir sowas hin zu stellen und würde es dann mit Blick auf die von mir selbst zu zahlende Stromrechnung wohl selten überhaupt einschalten.

MiamiNice
2022-02-25, 15:07:11
Man bekommt ne 3090 mit 1000 Watt Bios und einem Realverbrauch um 550-600 Watt - spielend gekühlt. Wüsste nicht warum ein noch größerer Chip mit 100-200 Watt mehr daran etwas ändern sollte. Bei knappen 900 Watt Gesamtverbrauch PC steigt die GPU Temp nicht mal über 40 Grad. Wir haben noch so viel Luft bei der Kühlung - ich fange mir an Sorgen zu machen wenn ich 2 KW durchbreche.

Gast
2022-02-25, 16:25:31
Ist doch schon mehrmals, offensichtlich, hingedeutet worden dass mindestens ein Modell der nächsten Generation mindestens 450 W verbrauchen (können) wird.
https://www.gigabyte.com/Press/News/1975

450, 650, 850 W.
Und laut IgorsLab werden solche Angaben, mit Spitzenlasten im Hinterkopf, angegeben.
500 W rtx 4090 + 50 % Spitze - 750+ W kommt irgendwo hin.
300 W rtx 4070 + 50 % Spitze - 450W kommt irgendwo hin.

Ist doch kein Problem, muss keiner kaufen und am Limit betreiben.
Einfach Grafikregler nicht zu weit aufdrehen und gut ist; God of War für PC, "Original Playstation Grafik" liefert 50 - 80 % mehr Bilder, uns sieht vllt. 10 - 20 % schlechter aus.

Gast
2022-02-25, 20:52:43
1. Du tust, als wüsstest du, wie und auf welcher Datenbasis die Zahlen berechnet wurden.
2. 2314/2324G sind bei 224/261€.
3. Du hast nicht kapiert, wie ein Durchschnittspreis zu Stande kommt.

Man könnte auch sagen "Hurry, ein Troll.".
Ich habe nur auf folgende Aussage geantwortet:
Beispiele:
Billigster Epyc bei geizhals 437€, nächster 610€.
Xeon 24€, der nächste 27€.
Ich hab nur drauf hingewiesen, dass der Vergleich eben nicht passt. Würde mich interessieren, wieso ich ein Troll sein soll, wenn jemand einen 10 Jahre alten Prozessor mit einem maximal 3 Jahre alten verglichen werden soll.

Rabiata
2022-02-26, 18:08:00
Das ist richtig, aber nicht das, was die Leute angeblich(!) aufregt.
Zumal die Hersteller das scheinbar im Griff haben. Bisher jedenfalls. Also kein valider Punkt in dem Teil der Diskussion.
WaKü o.ä. wird Pflicht werden.

[...]

Mir _persönlich_ sowieso egal. Ich hatte noch nie Bedarf oder Bedürfnis nach solchen Monstern. Da müsste ich schon Geld für Lärm- & Hitzeschutz oben drauf kriegen, um mir sowas hin zu stellen und würde es dann mit Blick auf die von mir selbst zu zahlende Stromrechnung wohl selten überhaupt einschalten.
Die Monster sind auch deshalb so laut und strom-durstig, weil die Hersteller sie mit Taktfrequenzen weit über dem Sweet Spot betreiben, um beim Verkauf das bestmögliche Preis/Leistungsverhältnis rauszuholen.

Rein technisch gesehen gibt es immer die Möglichkeit, mit den Taktfrequenzen etwas runter zu gehen. Damit ergibt sich die Möglichkeit, auch die Spannung zu senken.
Insgesamt lassen sich Energieverbrauch und Abwärme damit überproportional senken, sozusagen Undervolting ab Werk.

Ich denke daß es an der Zeit ist, daß die Hersteller standardmäßig einen Energiesparmodus einbauen, den der Nutzer ohne großes Hintergrundwissen aktivieren kann.