PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 3090 "SUPER" im Vollausbau des GA102-Chips samt TDP ...


Leonidas
2021-08-26, 11:11:57
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-3090-super-im-vollausbau-des-ga102-chips-samt-tdp-bis-zu-450-watt

WedgeAntilles
2021-08-26, 11:57:13
450W...
Ok, im absoluten High-End Bereich ist der Verbrauch egal.
Dennoch hoffe ich, dass sich die Nachfrage in Grenzen hält.

Keine Lust, dass sich für eine xx70 Karte dann bei 300W liegt.

Und 20% Mehrverbrauch für 5% Mehrperformance sind jetzt auch nicht gerade ein toller Deal.
Wie gesagt, für High-End Bereich ok.

Aber nicht für Midrange / gehobene Mittelklasse.

Geldmann3
2021-08-26, 12:08:06
Denke ebenfalls, dass wir zirka 5% Mehrperformance davon erwarten können und selbst das nur, weil die Karte heftigst geprügelt laufen wird.
Würde Nvidia die TDP nicht um 50 Watt hochziehen, wäre eher nur 1% zu erwarten. :freak:

Die RTX 3090 hängt halt massiv am Stromverbrauch.
Jedes bisschen mehr TDP, das ich meiner RTX 3090 mehr erlaube, führt zu fast proportional mehr Performance.
Wird eine gute Karte, um sie unter Wasser zu setzen und knapp neue Rekorde aufzustellen.

Für normale Menschen ist die Karte (besonders bei aktuellen Preislagen) natürlich einfach Irrsinn oder schlicht und einfach ,,dumm", wenn ich das so ausdrücken darf.

Sweepi
2021-08-26, 12:23:24
Keine Lust, dass sich für eine xx70 Karte dann bei 300W liegt.

Ist das nicht egal, wie die Karte heist?
Annahme:
- Du möchtest eine Karte im Bereich 200W-250W, du hast jetzt eine mit z.B. 220W
- Pro Generation gibt es ~30% mehr Performance pro Watt.

Du überspringst eine Generation. Dann gibt es also 69% (1.3*1.3) mehr Performance pro Watt, also bekommst du diesen Fortschritt in Performance, wenn du wieder eine ~220W Karte kaufst. Alternative wenn die AIBs beim Powerlimit hart im Raum der Diminishing returns arbeiten: Eine Powerklasse höher kaufen(250W - 330W) und dann die Karte bei 200-250W betreiben.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76559&stc=1&d=1629973160
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76560&stc=1&d=1629973160

Ob die Karte von nVida xx70 oder xx60 gelabelt wird ändert nichts an den wichtigen Faktoren:

- Performance/Watt
- Performance/Preis
- VRAM (Hatte ich vergessen @Leonidas)

Leonidas
2021-08-26, 12:44:12
Naja, das Hochziehen der TDPs zwingt bei einem eigengesetzten TDP-Limit irgendwann, einen ganzen Chip niedriger zu kaufen. Damit geht die Mehrperformance herunter, kommen eventuell unschöne Seiteneffekte hinzu (wie eine schwache Speicherbestückung) - die der höhere und nun aber außerhalb des TDP-Rahmens liegende Chip nicht hätte.

Legendenkiller
2021-08-26, 13:05:47
@Sweepi

naja stimtm so aber nicht / das hast du dier sehr positiv zurechtgebogen.

1.
die 270W der 2080ti war stock , also nur vergleichbar mit der 3080 stock.
Und da sind ebend nur 10%. Zumal hier der Vergleich 2080ti vs. 3080ti besser wäre.
Oder eben die 2080 vs 3080.

Mein Kumpel betreibt eine 2080Ti mit 180W mit nichtmal 10% FPS Verlust. Und das gegen deine 270W 3080 wäre ~0% Watt/FPS.
Also entweder beide @stock oder beide mit LV. Aber bitte nicht mischen.


2. Ich bekomme aktuell keine 120W oder 150W GRaka mehr! um eine 1060/1070 in der gleichen TPD Klasse zu ersetzen.
Klar kann ich eine 3070 auf 150W drücken und sie wird effizenter .. .aber ein 1070 lief bei 100W auch effizienter als bei 150W Stock.

3.
Man kann bei einer neuen Fertigungstechnologie entscheiden ob man sie z.b. maximal 30% Sparsamer oder maximal 20% schneller haben will. Aber ebend nicht beides gleichzeitig mit dem maximum.
Meist wird dann in beiden Richtungen ein bischen genutzt. Also z.b. 15% Sparsamer und 10% Schneller.

Geldmann3
2021-08-26, 13:07:32
Naja, das Hochziehen der TDPs zwingt bei einem eigengesetzten TDP-Limit irgendwann, einen ganzen Chip niedriger zu kaufen. Damit geht die Mehrperformance herunter, kommen eventuell unschöne Seiteneffekte hinzu (wie eine schwache Speicherbestückung) - die der höhere und nun aber außerhalb des TDP-Rahmens liegende Chip nicht hätte.

Aber lohnt sich das Überhaupt so sehr auf die TDP unter Last zu schauen? Meine Rechner sind jedenfalls zu 90% im Idle. Klar, wer 6h+ am Tag zockt oder mit der GPU arbeitet, da fängt es langsam an Sinn zu machen. Doch gerade da will ich wiederum maximale Performance und scheiß drauf, was ich aus der Dose ziehe. ;D

Daredevil
2021-08-26, 13:09:18
Klar kann ich eine 3070 auf 150W drücken und sie wird effizenter .. .aber ein 1070 lief bei 100W auch effizienter als bei 150W Stock.


Du spielst aber mit FPS und nicht mit Watt.

Mega-Zord
2021-08-26, 13:25:28
Ich habe mich ja schon seelisch darauf eingestellt was in Richtung 2k für die nächste Grafikkarte zu bezahlen, aber sicher für kein Modell der 30er-Serie. Diese TDP kann ich vermutlich eh nicht in meinem µATX-Case parken. ;D

Gast
2021-08-26, 13:26:43
Selbst wenn der Rechner die meiste Zeit nur im idle verbringt, muss er auf die Maximallast ausgelegt sein.
Würde ich mir eine 3090super anschaffen wollen, müssten Gehäuse, Kühlung und Netzteil ersetzt werden.

Wenn eine xx70 bei 300w landet, ist eine xx60 bei 240w.
Eine xx50 gibts momentan gar nicht, aber die läge dann bei 180w.
Karten darunter gibts nicht und wird's voraussichtlich in dem hypothetischen Szenario auch nicht geben.

Legendenkiller
2021-08-26, 13:37:07
einfach mal 4k Index/watt (der 4k Index bevorteilt die neueren Karten bereits)

1070 107%/150W = 0,713
2070 151%/175W = 0,86 +20%
3070 250%/230W = 1,087 +26%

1080 132%/180W = 0,733
2080 192%/215W = 0,89 +21%
3080 330%/320W = 1,03 +15%

1080ti 173%/250W = 0,692
2080ti 247%/260W = 0,95 +37%
3080ti 366%/350W = 1,04 +9,4%

Legendenkiller
2021-08-26, 13:38:41
Du spielst aber mit FPS und nicht mit Watt.

Es ging im Effizienz , also FPS/Watt. Das ist erstmal unabhängig von den absolut erreichen fps.
sie Post weiter oben.

Loeschzwerg
2021-08-26, 14:13:51
Also ich "deckle" ja mittlerweile immer nach dem was ich an fps erreichen will. 60fps, 144fps oder z.B. min 40fps und kompensiert mit A-Sync usw. usw.. Natürlich alles im Hinblick auf Auflösung/Details/Sitzabstand+PPI.

Je nachdem lässt sich die Leistungsaufnahme mit diesen Zielen sehr schön beschränken. Wirklich auf Brechreiz muss für mich keine Grafikkarte mehr laufen, weshalb ich diese erhöhten TDPs schon etwas befremdlich finde. Wichtig sind mir persönlich eine konstante Bildrate und Details die für mich auch erkennbar sind (Ultra vs High so als loses Beispiel).

Platos
2021-08-26, 14:21:41
Ob die Karte von nVida xx70 oder xx60 gelabelt wird ändert nichts an den wichtigen Faktoren:

- Performance/Watt
- Performance/Preis
- VRAM (Hatte ich vergessen @Leonidas)

Natürlich ist es relevant. Die 70-er Karte kam z.B deutlich früher auf den Markt, wie die 60-er. Auch die Leistung nimmt logischerweise ab. Wenn man eine Stufe nach unten muss, muss man mindestens 2 Jahre länger warten. Und man will sich keine GPU kaufen, die man dann stark runtertakten muss, damit man nen vernünftigen Strimverbrauch hat. Dann wäre nämlich die Mehrperfomance auch deutlich niedriger und somit muss man auch dann länger warten.

Und wie ja schon gesagt wurde, verschiebt sich der Stromverbrauch insgesammt. D.h wenn sich alles nach oben verschiebt, wird es schwierig, noch Grafikkarten zu finden, die wenig Strom verbrauchen (unter 200W). Beide Herstelller sind ja mittlerweile auf dem Trend, die Highendkarten ein halbes Jahr (oder noch mehr) früher zu launchen und bis die anderen Karten bekommen, steht schon fast wieder die neu Gen. vor der Tür. Der Wiederverkaufswert sinkt also dementsprchend. D.h es lohnt sich heute eig. weniger, eine Karte im Bereich unter 400$ zu kaufen, weil sie schneller veraltet sind ab Launchdatum.

Platos
2021-08-26, 14:26:14
Du spielst aber mit FPS und nicht mit Watt.

Na dann ist ja alles andere komplett egal ;D

Was für ne Einstellung.

Sweepi
2021-08-26, 14:43:46
Annahme:
- Pro Generation gibt es ~30% mehr Performance pro Watt.

Ich meinte "Annahme" im sind Sinne von "Beispielwert zum rechnen" nicht als "Annäherung an die Realität".
Wenn in der Realität die Performance/Watt und Performance/Preis Fortschritte unbefriedigend ausfallen, bleibt nur: mehr Generationen auszusetzen.

@Legendenkiller
1. und# 11 ist nicht falsch, und meine Erklärung zum Beispiel ist zu kurz, aber du triffst es noch nicht ganz:
(Btw. LV == low Voltage? Kenne nur UV == undervolting)
Deine Metrik berücksichtigt nicht, wieviel Powertarget sinnvoll ist. Wenn die RTX 3090 per default ein 500 W PT hätte, würde sie in deiner Metrik noch schlechter abschneiden, aber die Architektur wäre ja nicht weniger effizient.
Umgekehrt würde die RTX 3090 in dieser Metrik sehr viel besser abschneiden, wenn nVidia das gleiche Stück Silizium mit 250 W PT an den Markt gebracht hätte.

Ich denke die 2080 Ti ist mit 270 W wesentlich näher am Sweetspot als die 3080 mit 320 W.

2. Das würde ich eher auf die fehlenden Komponenten schieben, dass nur ein großer GA106 (fast ein GA105) und GA107 überhaupt nicht gelauncht sind. xx08/xx18 wäre auch mal wieder dran.

3. Das stimmt. Das ist aber schon immer so :)

Mein Fazit bleibt: Der Fortschritt passiert bei Performance/Watt und Performance/Preis. Wieviel PT / Welchen Preis etwas hat, was nVidia xx70 nennt, ist egal.

Sweepi
2021-08-26, 14:51:48
Auch die Leistung nimmt logischerweise ab.
einen ganzen Chip niedriger zu kaufen. Damit geht die Mehrperformance herunter,

Wenn die Performance/Watt (PT default oder manuell) zunimmt, und ihr eine neue GPU mit gleichem PT (default oder manuell) wie eure alte kauft, nimmt die Performance unweigerlich zu.

Die 70-er Karte kam z.B deutlich früher auf den Markt, wie die 60-er.
Fair, das stimmt. Der jetzige Markt ist so oder so besonders, aber auch bei Pascal war das so:
1080 27 Mai 2016
1070 10 Jun 2016
1060 18 Jul 2016
1050 25 Okt 2016

Daredevil
2021-08-26, 15:18:50
Es ging im Effizienz , also FPS/Watt. Das ist erstmal unabhängig von den absolut erreichen fps.
sie Post weiter oben.
Eine 3090 ist aber nun mal effizienter als eine 1060 mit UV.
Klar kannst du die 1060 auch drosseln, da bekommst du in 4K aber nicht genug fps.

Der M1 hat vermutlich die beste FPS/Watt Angabe, trotzdem zockt kaum einer mit 1050 Leistung.
Erstmal muss das Problem gelöst werden, danach geht es doch an die Effizienz.

Asaraki
2021-08-26, 15:22:17
Naja, das Hochziehen der TDPs zwingt bei einem eigengesetzten TDP-Limit irgendwann, einen ganzen Chip niedriger zu kaufen. Damit geht die Mehrperformance herunter, kommen eventuell unschöne Seiteneffekte hinzu (wie eine schwache Speicherbestückung) - die der höhere und nun aber außerhalb des TDP-Rahmens liegende Chip nicht hätte.

Das ist aber falsch rum gedacht.

Eigentlich ist es nur so, dass der Hersteller jetzt auch noch mehr Optionen nach oben bringt.

Ein Golf hat auch nicht weniger Leistung nur weil VW einen 1200PS Boliden baut. Selbst wenn dieser Bolide die bessere Effizienz hätte kann man daraus keinen Leistungsverlust für den Golf drehen.

Das Eeeeinzige was sich ändert ist der gefühlte Status der eigenen Karte. Aber wer sich um sowas kümmert der hat eh die Objektivität schon am Eingang abgegeben :D

Gethvel
2021-08-26, 15:23:33
In 13-14 Monaten kommen schon wieder neue Nvidia Grafikkarten. Außerdem Anfang 2022 Intel Arc und darauf neue AMD Grafikkarten. Würde jetzt nicht mehr in diese alte Technologie investieren. :rolleyes:

Gast
2021-08-26, 15:24:49
wahrscheinlich bringt nvidia die ganze serie als super raus, nur um die UVP zu erhoehen....

Asaraki
2021-08-26, 15:24:56
In 13-14 Monaten kommen schon wieder neue Nvidia Grafikkarten. Außerdem Anfang 2021 Intel Arc und darauf neue AMD Grafikkarten. Würde jetzt nicht mehr in diese alte Technologie investieren.

Mag stimmen für dich, aber 14 Monate ist ne lange Zeit. Kann man doch nen Zwanziger pro Monat für bisschen Mehrleistung investieren, viel mehr dürfte das Upgrade nicht kosten (gerade wer z.B. ne 3090 ohne LHR hat kriegt die neue vielleicht sogar günstiger). Wenn ich z.B. meine 3080 gegen eine 3090 Super tauschen kann, dann mach ich das vielleicht sogar.

Alles ne Frage der Relation ne :)

Rabiata
2021-08-26, 15:27:22
Naja, das Hochziehen der TDPs zwingt bei einem eigengesetzten TDP-Limit irgendwann, einen ganzen Chip niedriger zu kaufen. Damit geht die Mehrperformance herunter, kommen eventuell unschöne Seiteneffekte hinzu (wie eine schwache Speicherbestückung) - die der höhere und nun aber außerhalb des TDP-Rahmens liegende Chip nicht hätte.
Auf der AMD-Seite klappt es in dieser Generation noch. Die RX 6700 XT verbraucht verschwindend mehr als die RX 5700 XT, aber hat gute Mehrperformance und auch mehr Speicher (wo bleibt die RX 6700 non-RX :confused:). Ist auch etwas teurer, was im direkten Vergleich der UVPs aber im Rahmen erscheint.

Wobei die Seriennummern auch irreführend sein können, von Chipfläche und Speicher her hätte AMD die RX 6700 XT auch als RX 6800 XT einstufen können.

MiamiNice
2021-08-26, 15:55:54
cGakE6QNfgQ

:up:

iamthebear
2021-08-26, 16:50:51
Naja, das Hochziehen der TDPs zwingt bei einem eigengesetzten TDP-Limit irgendwann, einen ganzen Chip niedriger zu kaufen. Damit geht die Mehrperformance herunter, kommen eventuell unschöne Seiteneffekte hinzu (wie eine schwache Speicherbestückung) - die der höhere und nun aber außerhalb des TDP-Rahmens liegende Chip nicht hätte.

Was hindert den Käufer daran die TDP einfach runter zu stellen?

Beispiel:
Man hat 2017 im 700 Euro Bereich eine 1080 Ti gekauft. Diese hat 250W verbraucht.
Im Jahr 2021 kauft man wieder im 700 Euro Bereich (UVP) eine 3080. Diese vebraucht mit Stock TDP 320 Watt. Wenn ich diese auf 250 Watt stelle verliere ich ca. 7-8% Performance. Damit ist die 3080 immer noch ca. 70% schneller.
Weiters habe ich den Vorteil, dass die 3080 deutlich kühler, leiser und mit mehr Reserve an den elektrischen Komponenten (Spannungswandler etc.) laufen wird, da diese auf 320 Watt statt 250 Watt konzipiert sind und die Chance groß ist. dass die Karte auch bis zum Ende der Nutzung überlebt und nicht kurz nach Ende der Garantiezeit mitten im nächsten Miningboom verreckt.

Die Alternative ist, dass Nvidia die 3080 gleich mit 250W auf den Markt bringt um annähernd denselben Preis (denn Herstellungskosten sind nicht viel billiger) und die AIBs packen dafür einen Schrottkühler drauf damit sie 5 Euro beim Preis sparen können.

Gast
2021-08-26, 17:42:28
Hm, was soll das bringen, Ampere ist aktuell eh schon ziemlich am Limit und mehr Powerlimit bringt kaum noch Mehrleistung.

Cubitus
2021-08-26, 18:57:57
Eine 3090 ohne NVLink hmm weiß nicht so recht..
Die 3090 ist ja perse keine Gaming Karte im eigl Sinn..

und für alles andere hätte man 3080TI...

ChaosTM
2021-08-26, 19:28:58
Die 3090er ist die einzig vernünftige High End Spiele Karte von NV.. ;)
Der Rest sind quasi-obsolete Krüppel in der 4k+ Klasse.
Die 3080ti dürfte maximal 800€* kosten, dann könnte man drüber nachdenken.


* hat immerhin 1GB mehr Speicher als die High End karte von 2017 :D

add.: die mobile 3080er mit 16GB fällt da noch bedingt unter diese Kategorie. Da fehlt dann aber wieder etwas die Rohleistung. Meine sollte bald eintreffen.

urbi
2021-08-26, 21:23:08
wahrscheinlich bringt nvidia die ganze serie als super raus, nur um die UVP zu erhoehen....

Das war auch mein erster Gedanke.

Die 3080ti sollte ursprünglich $ 999 kosten und koste dann $ 1199. Eine RTX 3090 kostet $ 1499. Was darf eine RTX 3090 Super kosten? $ 1999 vielleicht nicht, aber $ 1899 halte ich für sehr realistisch.

Leonidas
2021-08-27, 03:48:48
wahrscheinlich bringt nvidia die ganze serie als super raus, nur um die UVP zu erhoehen....

Meine Befüchtung. Und da sich die Straßenpreise wahrscheinlich nicht ändern (Delta zur UVP wird niedriger), beschwert sich auch niemand.

Die eigentliche Rechnung gibt es bei Lovelace, wenn sich dieses hohe UVP-Niveau dann etabliert hat, egal ob die Chiphersteller lieferbar sind.

Gast
2021-08-27, 07:17:49
wahrscheinlich bringt nvidia die ganze serie als super raus, nur um die UVP zu erhoehen....

Hm, also der gleiche Zweck wie die XT-Prozessoren von AMD? Könnte gut sein.

GerryB
2021-08-27, 07:30:40
Die 3090er ist die einzig vernünftige High End Spiele Karte von NV.. ;)
Der Rest sind quasi-obsolete Krüppel in der 4k+ Klasse.
Die 3080ti dürfte maximal 800€* kosten, dann könnte man drüber nachdenken.

* hat immerhin 1GB mehr Speicher als die High End karte von 2017 :D

add.: die mobile 3080er mit 16GB fällt da noch bedingt unter diese Kategorie. Da fehlt dann aber wieder etwas die Rohleistung. Meine sollte bald eintreffen.
oder

Man denkt mal über ds+SF nach!

Keiner braucht ab Herbst für "neue" kommende Games mehr als 16GB.
https://www.techpowerup.com/286021/3dmark-receives-directx-12-ultimate-sampler-feedback-feature-test

vinacis_vivids
2021-08-27, 08:01:58
Die Ampere uArch ist einfach schwach, überteuert und veraltet. Ein einzige Enttäuschen für den Gamer-Konsumenten.

1. Viel zu viel Verbrauch mit 400-500W :freak:
2. Auch der Chip ist im Konsumentenbereich viel zu groß mit 628mm² und smit schlecht zum Kühlen und neigt zur Überhitzung.
3. Dann verbraucht der auch viel zu viele Bauteile und produziert somit viel Schrott.
4. Auch der verbaute Speicher ist mit 24GB überflüssig, weil NV eine beschissenen SI Cuttechnik hat.
5. Der Preis, sowohl UVP als auch Straßenpreis ist einfach viel viel zu hoch und überteuert.
6. Das ganze überhypte RT-Gedöns seites NV täuscht nicht darüber hinweg, dass Ampere als die mit schlechteste Generation in die Historie eingehen wird.

Wer so eine Politik auch noch unterstütz, hat nicht mehr alle Latten am Zaun. Ich meine wir reden hier vom Marktführer und der hat gefälligst das beste Produkt anzubieten.

Das ist schon dreist und darf nicht mehr unterstützt werden.
Wie einst Intel, die die Kunden richtig abgezockt haben mit ihren überteuerten CPUs und mit dem Intel-Compiler um die Konkurrenz zu verkrüppeln.

Beste Grüße
v_v

Gast
2021-08-27, 08:32:18
Ein großer Chip ist leichter als ein kleiner zu kühlen.
Siehe z. B. Ryzen 3xxx/5xxx im Vergleich zu Intel comet/rocket lake.
Die Intel CPUs verbrauchen mehr, lassen sich aber wegen der größeren Fläche besser kühlen und haben nicht solche Hotspots. Natürlich muss man bei dem großen mehr Wärme abführen.

Gast
2021-08-27, 08:53:05
Meine Befüchtung. Und da sich die Straßenpreise wahrscheinlich nicht ändern (Delta zur UVP wird niedriger), beschwert sich auch niemand.

Die eigentliche Rechnung gibt es bei Lovelace, wenn sich dieses hohe UVP-Niveau dann etabliert hat, egal ob die Chiphersteller lieferbar sind.

Was ich aber garnicht verstehen kann, ist, dass die mainstream Media überhaupt nichts dazu sagt oder sich dazu garnicht negativ äußert. Die erwähnen eher den Preis nebenbei und versuchen ihn noch zu gerechtfertigen oder runter zu spielen...
Das passiert ja nicht nur bei den Grafikkarten, sondern quer durchs Beet...
Die CPU Listenpreiserhöhung bei AMD, die ständig höheren Handypreise.
Mittlerweile wird ja 500$/€ als guter Preis für ein mittelmäßiges Midrange Handy als guter Deal gesehen...

Daredevil
2021-08-27, 08:56:03
Merke, je größer der Chip, desto schwerer zu kühlen.
Deswegen bleibt ne 3090 ja auch bei 400w auf 75 Grad und ein 1xChiplet Ryzen mit 150w bei 100 Grad. :H

Not.

Leonidas
2021-08-27, 09:48:45
Die CPU Listenpreiserhöhung bei AMD, die ständig höheren Handypreise.
Mittlerweile wird ja 500$/€ als guter Preis für ein mittelmäßiges Midrange Handy als guter Deal gesehen...

Der Journalist lebt dann leider in einer anderen Welt - nicht mehr derjenigen seiner Leser.

Bei 3DC ist das etwas anders gelagert, hier sind halt viele Enthusiasten unterwegs. Trotzdem muß ich immer auch an die Mainstream- und Midrange-User denken.

Gast
2021-08-27, 10:52:25
Ein großer Chip ist leichter als ein kleiner zu kühlen.

Das stimmt theoretisch. Allerdings kommt bei Ampere ein katastrophal gebogenes Package mit entsprechend großen Toleranzen mit in die Gleichung. Die GPU lässt sich da meist noch gut kühlen (dank guter WLP). Aber Speicher und VRM müssen dann mit so dicken Pads gekühlt werden, dass deren Temperaturen (wie bei NV leider häufig) unangenehm hoch sind. Entsprechend hoch ist dann die Ausfallrate nach einigen Jahren, wenn die Pads entsprechend gealtert sind.
Bei Ampere ist daher zwar der Wärmestrom pro Fläche kleiner, aber durch die Wölbung des relativ großen Packages gibt es dafür anderweitige Probleme. Ist daher auch nicht wirklich gut, wenn ein Chip groß aber gewölbt ist.

Schnitzl
2021-08-27, 10:56:57
Was hindert den Käufer daran die TDP einfach runter zu stellen?

Beispiel:
Man hat 2017 im 700 Euro Bereich eine 1080 Ti gekauft. Diese hat 250W verbraucht.
Im Jahr 2021 kauft man wieder im 700 Euro Bereich (UVP) eine 3080. Diese vebraucht mit Stock TDP 320 Watt. Wenn ich diese auf 250 Watt stelle verliere ich ca. 7-8% Performance. Damit ist die 3080 immer noch ca. 70% schneller.
Weiters habe ich den Vorteil, dass die 3080 deutlich kühler, leiser und mit mehr Reserve an den elektrischen Komponenten (Spannungswandler etc.) laufen wird, da diese auf 320 Watt statt 250 Watt konzipiert sind und die Chance groß ist. dass die Karte auch bis zum Ende der Nutzung überlebt und nicht kurz nach Ende der Garantiezeit mitten im nächsten Miningboom verreckt.

Die Alternative ist, dass Nvidia die 3080 gleich mit 250W auf den Markt bringt um annähernd denselben Preis (denn Herstellungskosten sind nicht viel billiger) und die AIBs packen dafür einen Schrottkühler drauf damit sie 5 Euro beim Preis sparen können.
Zum einen ist das nicht so einfach, zum anderen hat mir das Tool zum Untertakten wiederholt Windows-Profile zerschossen.
Seit ich die 3070 auf Standard laufen lassen (ohne das Tool) hab ich keine Profil-Probleme mehr.
Ich habe keine Lust und keine Zeit mehr, deswegen Stunden am PC rumzuzappeln, es würde schon reichen, wenn EIN AIB so ne low-TDP Karte rausbringt als Nischenmodell, würde ich sofort kaufen. Im Dachgeschoß ist es eben scheisse wenn das blöde Teil den Raum noch mehr aufheizt...

Wie Wedge schon gesagt hat, für das Topmodell ists egal, das Problem ist zusätzlich, dass die anderen Karten "nachrücken"
:(

Sweepi
2021-08-27, 11:52:56
Zum einen ist das nicht so einfach, zum anderen hat mir das Tool zum Untertakten wiederholt Windows-Profile zerschossen.
Ziemlich harte Aussage dafuer, dass du keinen Reproducer, sondern nur eine "Anti-Anekdote" hast.
Seit ich die 3070 auf Standard laufen lassen (ohne das Tool) hab ich keine Profil-Probleme mehr.

Prinzenrolle
2021-08-27, 13:12:40
Das ist schon dreist und darf nicht mehr unterstützt werden.

Ich empfehle dir eine RT verkrüppelte 6900XT zu kaufen.
Marktanteil von AMD auf 17% gesunken.:facepalm:

Gast
2021-08-27, 13:14:13
Das stimmt theoretisch. Allerdings kommt bei Ampere ein katastrophal gebogenes Package mit entsprechend großen Toleranzen mit in die Gleichung. Die GPU lässt sich da meist noch gut kühlen (dank guter WLP). Aber Speicher und VRM müssen dann mit so dicken Pads gekühlt werden, dass deren Temperaturen (wie bei NV leider häufig) unangenehm hoch sind. Entsprechend hoch ist dann die Ausfallrate nach einigen Jahren, wenn die Pads entsprechend gealtert sind.
Bei Ampere ist daher zwar der Wärmestrom pro Fläche kleiner, aber durch die Wölbung des relativ großen Packages gibt es dafür anderweitige Probleme. Ist daher auch nicht wirklich gut, wenn ein Chip groß aber gewölbt ist.

Ich habe mich ja nicht direkt auf das package von Ampere bezogen, das gebogene package kann natürlich bei größeren Flächen mehr zum Vorschein kommen. Es ging generell um die Größe des Dies.
Soweit ich mich errinern kann, war auch tu102 ungefähr so groß? Dort gab es keine Probleme mit den Unebenheiten.
Das heißt nicht, dass Ampere nicht diese Probleme hat, sondern dass es auch anders mit der Größe geht.

Gast
2021-08-27, 13:18:59
Der Journalist lebt dann leider in einer anderen Welt - nicht mehr derjenigen seiner Leser.

Bei 3DC ist das etwas anders gelagert, hier sind halt viele Enthusiasten unterwegs. Trotzdem muß ich immer auch an die Mainstream- und Midrange-User denken.

Das war keine Kritik an dich/3dcenter. Hier ist man der Realität nahe. Ich meinte die anderen Seiten, welche meist von den Herstellern mit Hardware beliefert werden und womöglich dadurch auch unter Druck stehen. Es schweben mir zumindest 5 solche Seiten in Gedanken, soll sich aber jeder dazu seine Meinung bilden. Ich werde diese hier nicht auflisten. Aber nachdem die dies 2x machen, haben sie mich als Leser/Kunde verloren.

MiamiNice
2021-08-27, 13:35:11
Marktanteil von AMD auf 17% gesunken.:facepalm:

Gibt es da einen Link zu?

Gast
2021-08-27, 13:54:14
Gibt es da einen Link zu?
Ist z.B. bei Computerbase zu lesen. Naja, schon witzig, vor einigen Monaten hieß es noch, dass NVidia mit der Samsung Fertigung einen Griff in's Cloo gemacht hat, weil die ja so schlecht ist. Aber Samsung kann halt immerhin etwas größere Stückzahlen liefern als TSMC. Ist halt immer alles relativ.

Gast
2021-08-27, 13:56:22
Ich empfehle dir eine RT verkrüppelte 6900XT zu kaufen.
Im Vergleich zum Ram-Krüppel 3080(TI)? ;)

Loeschzwerg
2021-08-27, 14:17:41
https://www.computerbase.de/2021-08/diskrete-grafikkarten-amd-verliert-weiter-an-boden-gegenueber-nvidia/

MiamiNice
2021-08-27, 15:40:05
Danke

Mr.Smith
2021-08-27, 16:59:51
AMD hat bei GPU tatsächlich Marktanteil verloren, haben immernoch Produktionsengpäße.

Mr.Smith
2021-08-27, 17:03:46
2. Auch der Chip ist im Konsumentenbereich viel zu groß mit 628mm² und smit schlecht zum Kühlen und neigt zur Überhitzung.
3. Dann verbraucht der auch viel zu viele Bauteile und produziert somit viel Schrott.
4. Auch der verbaute Speicher ist mit 24GB überflüssig, weil NV eine beschissenen SI Cuttechnik hat.
..
6. Das ganze überhypte RT-Gedöns seites NV täuscht nicht darüber hinweg, dass Ampere als die mit schlechteste Generation in die Historie eingehen wird.


zu 2.: Mehr Fläche pro Watt lässt sich aber besser kühlen.
zu 3.: verbraucht zu viele Bauteile?! Elaboriere was du zu denken meinst.
zu 4.: die meisten RTX haben zu wenig Speicher ^^
zu 6.: Thermi?!

Leonidas
2021-08-27, 18:12:51
https://www.computerbase.de/2021-08/diskrete-grafikkarten-amd-verliert-weiter-an-boden-gegenueber-nvidia/

Anmerkung: dGPU, ergo inkl. Mobile. Die Zahlen rein für den Desktop kommen erst in ein paar Tagen. Dürften aber vermutlich ebenfalls schlecht aussehen.

Gast
2021-08-27, 18:29:04
Ich habe mich ja nicht direkt auf das package von Ampere bezogen, das gebogene package kann natürlich bei größeren Flächen mehr zum Vorschein kommen.
Es war ja auch nur eine Anmerkung, dass die Chip Größe zwar eine sehr wichtige Größe für die Kühlung ist, aber eben nicht die einzige.
Im Vergleich zu Turing hat NVidia bei Ampere die Toleranzen viel lockerer gestaltet, weil es eben die Package Probleme gibt. Statt die Wölbung zu beseitigen, scheint man eher den leichten Weg zu gehen und die Toleranzen zu erhöhen. Mit entsprechenden Nebenwirkungen.

Sweepi
2021-08-27, 18:41:21
zu 6.: Thermi?!
Denke da auch eher an Fermi (GTX 400), FX 5000, und Turing (DLSSv1, Performance/Preis).
Ampere (Realpreis) suckt durch externe Faktoren.

GerryB
2021-08-27, 21:15:12
Aber Samsung kann halt immerhin etwas größere Stückzahlen liefern als TSMC. Ist halt immer alles relativ.
...abgesehen von ein paaaaaaar Millionen Konsolen+CPU´s, ...rein relativ gesehen!?


Man sollte evtl. die Launchdates für verschiedene Hardware net so extrem dicht beieinander legen.
Aber es ist ja schon die Einsicht da, mittels MCM verschiedene Processgrößen zu mixen.
...kann also nur besser werden.

Gast
2021-08-27, 21:47:57
Die GPU lässt sich da meist noch gut kühlen (dank guter WLP). Aber Speicher und VRM müssen dann mit so dicken Pads gekühlt werden, dass deren Temperaturen (wie bei NV leider häufig) unangenehm hoch sind.


Das ist nicht der Grund, sondern dass die Speicher so nah am GPU-Package sind und Quasi im Sandwich zwischen den VRMs und der GPU.

Das ganze Kupfer in der Platine heizt die Speicher schön auf.

Gast
2021-08-28, 06:57:20
Das ist nicht der Grund, sondern dass die Speicher so nah am GPU-Package sind und Quasi im Sandwich zwischen den VRMs und der GPU.

Das ganze Kupfer in der Platine heizt die Speicher schön auf.
Nicht zu vergessen die aktuell scheinbar fehlende qa bei den Herstellern, mit vergessenen Folien etc.

Schnitzl
2021-08-28, 16:40:20
Ziemlich harte Aussage dafuer, dass du keinen Reproducer, sondern nur eine "Anti-Anekdote" hast.
Ich habe explizit nur von mir gesprochen:
Zum einen ist das nicht so einfach, zum anderen hat mir das Tool zum Untertakten wiederholt Windows-Profile zerschossen.
Seit ich die 3070 auf Standard laufen lassen (ohne das Tool) hab ich keine Profil-Probleme mehr.
das Ganze war bezogen auf:
Was hindert den Käufer daran die TDP einfach runter zu stellen?
Der Punkt ist: es kann eben nicht "einfach" jeder und es kann auch vorkommen, dass es Probleme dabei gibt. Muss nicht, aber kann.

Und wenn ich mir die Leaks auf twitter (https://twitter.com/HIG5HLeader/status/1429953677163433986/photo/1) anschaue mit den Watt-Zahlen, dann hab ich jetzt schon absolut keinen Bock mehr überhaupt über die nächste Generation nachzudenken geschweige irgendwas davon zu kaufen.
Es gibt unendlich viele andere Möglichkeiten, sein Geld auszugeben...

aufkrawall
2021-08-28, 16:51:28
Der Punkt ist: es kann eben nicht "einfach" jeder und es kann auch vorkommen, dass es Probleme dabei gibt. Muss nicht, aber kann.

Du kannst ziemlich sicher davon ausgehen, dass Afterburner nicht "Windows-Profile zerschießt". Das war bei dir wohl eher irgendein unglücklicher Zufall. Man kann das PT auch über das GFE Performance-Overlay reduzieren.

Gast
2021-08-28, 17:19:40
Als 1080p bei den Monitoren/TV noch neu und fordernd war, hat es eine 150 - 200 W Grafikkarte gebraucht und neue Spiele mit viel Bildrate (Grafikregler nicht zwingend auf Maximum) spielen zu können.

2016 mit dem Schwung an 1440p 144Hz Monitoren brauchte man bereits high-end/enthusiasten-Karten um die 250 W.

Jetzt mit 4kuhd bei max. 120 Hz muss es schon min. rx 6800XT/rtx 3080 bei 300 W sein.

Nächstes Jahr erscheinen richtig grafiklastige Spiele. +350 W kommend, wie es die Gerüchteküche prophezeit.

Es geht immer höher hinaus mit dem Stromverbrauch.
Eine popelige rx6600XT die aktuelle 1080p Spiele bei +60 100 fps befeuern soll, verbraucht bereits +160 W.
Vor 2 Display-Generationen war dies noch der high-end Grafikartenstromverbrauch als 1080p aktuell war!
Das gleiche mit der rx 6700xt und rx 6800/rtx 3070 (Ti), die 1440 befeuern sollen - eine Auflösung die 2016 aktuell und fordernd war.

Wenn Ki-gestützte Bildberechnung nicht noch einen großen Schritt nach vorne macht, werden es in +5 - 10 Jahren bei 8k-Auflösung halt 400 W.

BlacKi
2021-08-28, 17:29:30
Und wenn ich mir die Leaks auf twitter (https://twitter.com/HIG5HLeader/status/1429953677163433986/photo/1) anschaue mit den Watt-Zahlen, dann hab ich jetzt schon absolut keinen Bock mehr überhaupt über die nächste Generation nachzudenken geschweige irgendwas davon zu kaufen.
Es gibt unendlich viele andere Möglichkeiten, sein Geld auszugeben...


;D

Gast
2021-08-28, 18:23:53
Der Punkt ist: es kann eben nicht "einfach" jeder und es kann auch vorkommen, dass es Probleme dabei gibt. Muss nicht, aber kann.


Doch es kann einfach jeder, und beim reinen Verändern des Powerlimits gibt es auch niemals Probleme. Die gibt es höchstens wenn man das auch noch mit Übertakten/Undervolten kombiniert.

Schnitzl
2021-08-29, 11:13:13
Du kannst ziemlich sicher davon ausgehen, dass Afterburner nicht "Windows-Profile zerschießt". Das war bei dir wohl eher irgendein unglücklicher Zufall. Man kann das PT auch über das GFE Performance-Overlay reduzieren.
Ich hatte den Asus GPU Tweak, aber ich versuchs gerne nochmal mit dem Afterburner.
GFE = GF Experience?

Gast
2021-08-29, 21:31:30
GFE = GF Experience?

Genau, man kann darüber Powertarget verstellen und wenn man möchte Auto-OC aktivieren.