PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 11. Juli 2022


Leonidas
2022-07-12, 11:09:46
Link zur News:
https://www.3dcenter.org/news/news-des-11-juli-2022

Gast
2022-07-12, 11:47:10
Was diese Kurve aussagen soll weiß wohl auch niemand, 200W Grafikkarten um 2000 hat es jedenfalls keine gegeben.

Und wenn man die Kurve korrekt zeichnen würde, würde man auch sofort sehen, dass es den selben Effekt schon 1x gab, von ca. 2006 bis 2010 gab es annähernd den selben Anstieg beim Verbrauch wie den jetzt prognostizierten.

Man könnte also durchaus annehmen, dass es hier ein langfristiges Hochschaukeln des Verbrauchs gibt, mit immer wieder kurzen Phasen des enormen Anstiegs und langen Plateauphasen dazwischen.

Gast
2022-07-12, 13:12:47
Radeon HD 7990, Radeon R9 295X2, Radeon Pro Duo
Maximallast (statt TDP oder 3D-Last) war auch bei den Singles höher als laut Grafik.
Nvidia hatte sowas auch.

=> Grafik für die Tonne.

Gast-xl
2022-07-12, 13:22:13
[quote=Leonidas - News]...denn Grafikkarten oberhalb 400 Watt sind dann nur noch etwas für eine kleine Minderheit.[quote]
Definitiv, wobei dieses Geschäftsfeld kleiner wird. Man muss sich dann wirklich fragen ob das noch lohnt und lukrativ bleibt. Der Aufwand preislich überhaupt noch dem Nutzen und dem Willen der Nutzer gegenüber steht.

Der Sprung 4090 zu 4080 also ADA102 zu ADA103 scheint ja auch riesig. Keine Ahnung was NVidia damit sagen will. Highend mit 420w und deutlich reduziertem Durchsatz und fehlender Leistung, das passt irgendwie nicht. Weil man komme-was-da-wolle massiv darauf einprügeln muss. Wenn man überlegt das die 1080 eine der beliebten Karten war (1070 ebenfalls). Nicht nur wegen der Leistung, sondern wegen ihres unkomplizierten Verbrauchs. Für die 2080 und 3080 traf dies schon nicht zu. Der Trend ist krank.

Rabiata
2022-07-12, 13:33:22
Die Verbrauchskurve ist zumindest für Consumer-Hardware zeitlich zu früh dran. Wir haben 2022, da müßten wir nach der Vorhersage bei 500W+ sein.
Ansonsten denke ich, daß diese Extrem-High-End GPUs nur noch für einen Bruchteil der Gamer bezahlbar sein werden.

Gast-xl
2022-07-12, 13:55:43
...daß diese Extrem-High-End GPUs nur noch für einen Bruchteil der Gamer bezahlbar sein werden.
Das Problem seitens NVidia die wohl als Negativbeispiel derzeit gelten, man hat sich genau dort platziert. 4K und 8K massiv beworben, was aber max. Anteile von ü/5K nur 1% und 4K wohl 10% sind.

90% spielen also auf FHD oder QHD, wo die letzte Gen von NVidia kaum ausgelastet wird, trotz hoher Verbräuche. Intel und AMD gehen es völlig anders an und konzentrieren sich vor allem auf volumenstarke Märkte, Intel vor allem Low für OEM PCs (auch damit wird gespielt, wenn auch kein AAA) und AMD im Middle bis Highend. So fehlt NVidia dann auch noch die direkte Konkurrenz im Enthusiast und sie entwickeln es vor allem der Kosten wegen billig weiter, was zuerst über die Leistungsaufnahme machbar wird. Monopol ist nie gut, weder für einen Selbst, noch die Konkurrenz, noch den Verbraucher.

Wir haben mittlerweile einen Grad erreicht (600w), wo man sich fragen muss ob das in einem Spiele PC noch Sinn macht.

Das wird auf Dauer zum Problem, vor allen wenn man überzogene Vorstellungen verspricht, dem Hype darum inklusive und deshalb dann noch massiv darauf einprügeln muss. Allein das geänderte Layout der Stromversorgung wird für die meisten zum Problem (12PWR Stecker) und die Anforderungen an die Peripherie ufern nicht nur preislich komplett aus.

Gast
2022-07-12, 14:19:07
Die Verbrauchskurve ist zumindest für Consumer-Hardware zeitlich zu früh dran. Wir haben 2022, da müßten wir nach der Vorhersage bei 500W+ sein.

Wir sind bei 450W und das deckt sich ziemlich gut mit der Kurve.

Lehdro
2022-07-12, 15:03:58
Dies passt durchaus zu Intels bisherigen integrierten Grafik-Lösungen, welche meist nur mittels 3DMark-Werten verglichen wurden und wo nur extrem selten die Spiele-Performance ernsthaft nachgeprüft wurde. Augenscheinlich wurde damit der Schwerpunkt der Treiber-Arbeit bei Intel in den letzten Jahren auf ein Feld gesetzt, welches für die aktuellen Produkte weitgehend nutzlos ist.
Oh Wunder. Genau die Firma die mit diesem Verhalten groß geworden ist, setzt dieses erlernte und belohnte Verhalten auch in anderen Geschäftsgebieten ein. Wer sich die letzten 20 Jahre+ mit Intel ernsthaft auseinandergesetzt hat, weiß das Treiber-, Compiler- und Benchmarkmanipulationen (ich erinnere hieran (https://en.wikipedia.org/wiki/BAPCo_consortium)) geradezu durch deren Adern fließen. Solange die breite Presse solch einen Beschiss am Kunden unterstützt, also 3DMarks, Sysmarks o.ä. kommentar- und kritiklos nutzt um deren Produkte einzuordnen, obwohl bekannt ist, dass deren "real world Performance" komplett anders ausfällt, und zwar negativ für den Kunden, wird sich daran nie etwas ändern.

Das iGPUs bei Synthetiktests sehr gut abschneiden ist bekannt. Dass iGPUs in 3DMurks ebenfalls gut performen ist ebenso bekannt. Das Intel iGPUs davon noch krasser "betroffen" sind als z.B. Apple oder AMD ist ebenso gut bekannt. Das Phänomen ist so alt wie Intel iGPUs. Dass da immer noch darauf reingefallen wird ist peinlich. Warum sollte Intel das jetzt ändern, wenn sie doch bis hierhin perfekt gefahren sind? Selbst die lächerlichen Treiber werden seit Jahrzehnten(!) entschuldigt, aber jetzt mit dGPUs wird auf einmal alles besser. Und morgen kommt der Weihnachtsmann.

Intel gehört von der Presse und den Kunden mal so richtig der Kopf gewaschen und nicht ständig im Vorfeld entschuldigt und gerechtfertigt, ohne Anlass. Sonst ändert sich das nie. Besonders pervers weil Intel das selbst proklamierte "real world performance" Marketinggeblubber nutzen konnte, weil irgendwie der Großteil "vergessen" hatte, das Intel jahrzehntelang genau das Gegenteil zum bewerben der Produkte genutzt hatte.

Ganz ehrlich, Treiber- und Benchmarkmurks gehören zu Intel wie die großmäuligen Ankündigungen und darauf folgenden Verschiebungen. Alles andere sind maximal Lippenbekenntnisse. Intels Probleme sind seit Jahren dieselben und mittlerweile systemisch.

Hjalmar
2022-07-12, 15:15:53
Jajut, das wird sich dann aber v.a. auf Server-GPUs beziehen (die TDP Kurve).
Da ist es letztlich egal. Wenn ich dann mit einer GPU zwei vorherige ersetzen kann - why not?

Im Consumer Bereich hats da ja aber feste Grenzen. 450W+ wollen gekühlt werden. Und da bleiben nur noch die absoluten Enthusiasten übrig. 700W+ werden wir wohl kaum im Consumer-Markt sehen. Da kommen auch typische AIOs an ihre Grenzen... Oder wird da gleich der MORA mitgeliefert?^^

Gast
2022-07-12, 15:44:47
700W+ werden wir wohl kaum im Consumer-Markt sehen. Da kommen auch typische AIOs an ihre Grenzen... Oder wird da gleich der MORA mitgeliefert?^^

Nein, es könnte einfach mit Wakü-Block geliefert werden. WaKü musst eben selber haben. Ist nix neues, gabs auch damals bei der 1080Ti, allerdings als Custom.

Vlt. gibts ja nicht mal ne Founders-Edition, eben nur Custom. Die müssen dass dann eben selber lösen.

Wenn man sich ansieht, wie viel Stromverbrauch die 4090 haben soll, dann muss die 4090Ti ja mehr haben.

Rabiata
2022-07-12, 17:42:56
Oh Wunder. Genau die Firma die mit diesem Verhalten groß geworden ist, setzt dieses erlernte und belohnte Verhalten auch in anderen Geschäftsgebieten ein. Wer sich die letzten 20 Jahre+ mit Intel ernsthaft auseinandergesetzt hat, weiß das Treiber-, Compiler- und Benchmarkmanipulationen (ich erinnere hieran (https://en.wikipedia.org/wiki/BAPCo_consortium)) geradezu durch deren Adern fließen. Solange die breite Presse solch einen Beschiss am Kunden unterstützt, also 3DMarks, Sysmarks o.ä. kommentar- und kritiklos nutzt um deren Produkte einzuordnen, obwohl bekannt ist, dass deren "real world Performance" komplett anders ausfällt, und zwar negativ für den Kunden, wird sich daran nie etwas ändern.

Bisher wurden iGPUs auch selten ernsthaft getestet, weil die Mehrheit der Leserschaft der Meinung war "interessiert einen Gamer eh nicht". Tests wie der bei Gamers Nexus, wo eine Intel DG1 gegen Intels iGPUs, AMDs 5600G/5700G und eine GT 1030 antreten durften, waren die Ausnahme. Leo hat im Forum auch mal erwähnt, daß diese Knappheit an vergleichbaren Ergebnissen ein Grund für das Nicht-Erscheinen der iGPUs im Performance-Index ist.

Wenn sich dies ändern sollte und iGPUs regelmäßig in Benchmarks mitlaufen dürfen, werden wir mehr mehr Klarheit bekommen. Ich hoffe, daß die Desktop-Version von Rembrandt im Index auftaucht, da dürften Luschenkarten wie die GTX 1630 und die A380 schon in Bedrängnis kommen. Die alte GT 1030 wird schon von Cezanne knapp überholt, siehe GN.

Lehdro
2022-07-12, 21:57:21
Bisher wurden iGPUs auch selten ernsthaft getestet, weil die Mehrheit der Leserschaft der Meinung war "interessiert einen Gamer eh nicht". Tests wie der bei Gamers Nexus, wo eine Intel DG1 gegen Intels iGPUs, AMDs 5600G/5700G und eine GT 1030 antreten durften, waren die Ausnahme. Leo hat im Forum auch mal erwähnt, daß diese Knappheit an vergleichbaren Ergebnissen ein Grund für das Nicht-Erscheinen der iGPUs im Performance-Index ist.

Wenn sich dies ändern sollte und iGPUs regelmäßig in Benchmarks mitlaufen dürfen, werden wir mehr mehr Klarheit bekommen. Ich hoffe, daß die Desktop-Version von Rembrandt im Index auftaucht, da dürften Luschenkarten wie die GTX 1630 und die A380 schon in Bedrängnis kommen. Die alte GT 1030 wird schon von Cezanne knapp überholt, siehe GN.
Das stimmt schon was du da sagst, aber gerade die AMD APUs wurden sehr oft getestet, auch in deutschen Medien. Dagegen hat Intel halt eigentlich nie auch nur den Hauch einer Chance gehabt, mal ganz abgesehen von den Treiberproblemen die so in der Form seit Jahren existieren. Ich weiß halt nicht einmal wo der Anspruch herkam, das Intel hier bei den "Großen" mitspielen kann. Schon alleine das man denen einräumte dass die es schaffen könnten, so sollte spätestens nach DG1 klar gewesen sein dass das nur ein Traum ist. Intel hat da vieeeel aufzuholen, was man aber seit Jahren einfach so schleifen lässt.

Und es wäre wirklich mal schön wenn wir jetzt langsam mal einen Rundumschlag im Sinne von "Die Paralympics der Grafikbeschleuniger (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13045827&postcount=30)" bekommen. Gerade in Zeiten von extrem bunt gemischten Lowendmärkten ist das wichtig. Wir haben immer noch extrem viele aktuelle 5 Jahre+ alte Mainstreamkarten in den Spielersystemen weil die ganze Situation quasi >2 Jahre komplett abgefuckt war. Ich wurde schon von mehreren Leuten irl gefragt was sie upgraden könnten: Kaum einer von denen kann oder will mehr als 200€ für eine GPU ausgeben. Die haben teilweise noch Kepler verbaut, weil seit Pascal nichts mehr kam was preislich ok war. In dem Bereich herrscht gerade Wilder Westen, weil man nicht wirklich generationenübergreifend Vergleichen kann, wie du auch schon festgestellt hast. Da fehlen schlicht und ergreifend die Tests. Das man da so Sachen wie das Steamdeck mitnimmt, versteht sich dann von selbst.

Gast
2022-07-12, 23:36:19
Die Grafik ist einfach falsch. Keine Ahnung wem sie was einreden soll und warum. Und auch egal, mit welchem Schmu sie verargumentiert wird. End of Story.

Laut Steam Stats (wahrlich nicht perfekt, aber gibt es was besseres?) machen die Top10 40% aus. Platz 11 ist 3070, Platz 16 3080. 3070Ti und höher (also 3DC-4K-Index >250) kommen zusammen nur auf <4%. Der Anteil intel iGPU liegt weit höher. Trotzdem werden sie in Tests viel weniger beachtet.
Das mag außerhalb Chinas anders sein, aber die Masse der Gamer spielt nun mal viel niedriger. Ist natürlich für Berichterstattung viel unspektakulärer. Und natürlich ist der Markt durch die Miner völlig durcheinander.

Gast
2022-07-13, 07:36:13
[QUOTE=Gast;13055348
Laut Steam Stats (wahrlich nicht perfekt, aber gibt es was besseres?) machen die Top10 40% aus. Platz 11 ist 3070, Platz 16 3080. 3070Ti und höher (also 3DC-4K-Index >250) kommen zusammen nur auf <4%.
[/QUOTE]

Und was genau hat das mit einer Grafik zu tun, welche den Verbrauch des High-End Produkts der jeweiligen Zeit zeigt?

Gast Ritis
2022-07-13, 09:18:40
...gaaaaanz schlecht... !!!

Das Schaubild von AMD ist aus einem Interview von VentureBeat mit Naffziger.
https://venturebeat.com/2022/07/06/amd-addressing-the-challenge-of-energy-efficient-computing/

Insofern braucht man nicht herumspekulieren.

Es geht darum die Werbetrommel für das neue 30x25 energy efficiency Projekt zu pauken nachdem man erfolgreich das 25X20 energy efficiency Projekt abgeschlossen hatte. Es soll dabei also 30fache Effizienz bis 2025 erreicht werden. Bei AnandTech gab es da mal eine kritische Auseinandersetzung damit, weil die Ausgangswerte nicht klar definiert waren, also konnte man hinterher die Message so biegen dass es geklappt hat.
Man sollte aber IMHO Marketing nunmal auch Marketing sein lassen, gut is. Es geht letztlich dabei ja darum die AMD Leute und Grosskunden auf Ziele der Produktentwicklung einzuschwören und nicht um SLAs.

Die Grafik soll den aktuellen Trend kritisieren und AMD will mit Chiplets dagegen halten, so meine Interpretation von dem Interview.

my2cts

OpenVMSwartoll
2022-07-13, 13:12:56
Und was genau hat das mit einer Grafik zu tun, welche den Verbrauch des High-End Produkts der jeweiligen Zeit zeigt?

Ähmmm... nix....

Aber ja, meine RX570 war ein guter Kauf...