Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 27. April 2022
Leonidas
2022-04-28, 05:28:53
Link zur News:
https://www.3dcenter.org/news/news-des-27-april-2022
Ich würde eher darauf schätzen, dass die 4090 mit "nur" 125-135sm kommt, um sich Luft für eine 4090ti/super wenn Navi 31 kommt, zu lassen. Anfangs wird es keinen Bedarf fast den vollausbau anzubieten, geben.
Leonidas
2022-04-28, 09:38:01
Eine denkbare Möglichkeit.
Aber die These funktioniert auch nur dann, wenn 144SM Navi 31 schlagen können. Wenn nicht, dann ist es für NV besser, eher am Anfang so viel wie möglich zu zeigen.
Dies läßt Platz für einen sehr erheblichen Stromverbrauchs-Unterschied zwischen AMDs und nVidias NextGen-Lösungen – ganz besonders, wenn nVidia nun tatsächlich doch noch über 600 Watt gehen sollte. Und dies ergäbe dann für AMD eine große Chance, nVidia kalt auszukontern.
Glaubt wirklich ernsthaft jemand, wenn diese Verbrauchswerte wirklich stimmen, dass AMD auch nur ansatzweise leistungsmäßig mithalten kann?
Wie soll das gehen, wenn Nvidia aktuell trotz klarem Fertigungsnachteil +- gleich auf liegt und dann beide eine gleichwertige Fertigung benutzen?
Wenn die Verbrauchswerte stimmen (und sich AMD mit deutlich weniger begnügt), dann muss Nvidia einen enormen Leistungsvorsprung haben alles andere macht einfach keinen Sinn.
Leonidas
2022-04-28, 10:50:28
Gute Fragen. Ich kann mir auch noch keinen Reim drauf machen. Wahrscheinlich wissen wir über einen entscheidenden Punkt noch nicht Bescheid.
Ich kann mir auch gut vorstellen, das absichtlich solche extremen Verbrauchswerte in die Welt gesetzt werden, nur um dann zum Release mit (beachtlich) niedrigen Werten anzutreten.
Ist dann ein Psychologischer Effekt, die realen niedrigeren Werte sind aber immer noch relativ gesehen hoch aber bei weitem nicht so hoch wie die Gerüchte Küche es verkündet hat.
Dann wird sich der eine oder andere Denken, ach passt scho, war doch nicht so schlimm wie angenommen.
KodeX
2022-04-28, 12:17:45
Glaubt wirklich ernsthaft jemand, wenn diese Verbrauchswerte wirklich stimmen, dass AMD auch nur ansatzweise leistungsmäßig mithalten kann?
Wie soll das gehen, wenn Nvidia aktuell trotz klarem Fertigungsnachteil +- gleich auf liegt und dann beide eine gleichwertige Fertigung benutzen?
Wenn die Verbrauchswerte stimmen (und sich AMD mit deutlich weniger begnügt), dann muss Nvidia einen enormen Leistungsvorsprung haben alles andere macht einfach keinen Sinn.
Die Chipgröße sollte man trotz "Fertigungsvorteil" nicht vergessen. Ein großer Chip kann auch dann mehr Transistoren beherbergen, wenn dieser weniger dicht gepackt ist. Der vermeintliche Nachteil lässt sich durch Fläche ausgleichen. Deswegen ist eine Fixierung ausschließlich auf das Fertigungsverfahren bzw. die Fertigungssprünge nicht perfekt zielführend.
Darüber hinaus munkelt man in der Gerüchteküche, das Navi 31 und Co. relativ viele Architekturverbesserungen haben werden. Nvidias Next-Gen-Chips sollen hier demgegenüber kaum zugelegt haben. Das muss sich natürlich erst bewahrheiten, aber unlogisch oder unglaubhaft sind die kursierenden Angaben zu Performance und Verbrauch an und für sich nicht.
EDIT:
GA102 --> 28,3 Mrd. Transistoren @628 mm² @Samsung 8 nm
Navi21 --> 26,8 Mrd. Transistoren @520 mm² @TSMC 7 nm
Anhand der aktuellen Generation sieht man das ganz schön. Nvidia hat den Fertigungsnachteil durch mehr Chipfläche (mehr als) ausgeglichen. Die Performance der Grafikkarten passt letztendlich auch ziemlich genau zu den Transistorzahlen.
WedgeAntilles
2022-04-28, 12:27:24
Gute Fragen. Ich kann mir auch noch keinen Reim drauf machen. Wahrscheinlich wissen wir über einen entscheidenden Punkt noch nicht Bescheid.
Vor Ampere hieß es auch:
Ampere wird kaum schneller als Turing
Ampere wird teuer
Ampere wird deutlich mehr Strom brauchen als Turing (witzig in Verbindung mit "kaum schneller")
Und natürlich sollte alles 3 zusammen kommen. Teuer, langsam, durstig.
Wir sind also genau da wo wir gefühlt immer sind.
Die nächste Nvidia Generation wird miserabel und chancenlos, AMD wird viel besser.
Preiswerter, effizienter, je nach Leaker dazu noch schneller und was weiß ich noch alles.
Und täglich grüßt das Murmeltier.
Ich denke wir müssen uns erst sorgen machen, wenn die Leaker prognostizieren, dass die nächste Nvidia Karte toll und besser als AMD wird...
Dorns Idee finde ich auch attraktiv, das ist psychologisch definitiv so.
Hat eine 4070 z.B. 250W hätte man gesagt: Schon wieder 10% mehr wie bei der 3070, muss das sein?
Jetzt wird es heißen: Hey, toll, nur 250W und nicht 300, 400, oder sonst was.
WedgeAntilles
2022-04-28, 12:30:04
Nvidias Next-Gen-Chips sollen hier demgegenüber kaum zugelegt haben.
Zumindest bei Hopper stimmt das nicht.
Klar ist Hopper nicht gleich Lovelace, aber "Hopper = sehr große Fortschritte und Lovelace = so gut wie keine Fortschritte" erscheint jetzt auch nicht wirklich als glaubwürdige Kombination.
KodeX
2022-04-28, 12:39:23
Vor Ampere hieß es auch:
Ampere wird kaum schneller als Turing
Ampere wird teuer
Ampere wird deutlich mehr Strom brauchen als Turing (witzig in Verbindung mit "kaum schneller")
Und natürlich sollte alles 3 zusammen kommen. Teuer, langsam, durstig
Aber genau das ist doch auch eingetroffen!?
Zumindest bei Hopper stimmt das nicht.
Klar ist Hopper nicht gleich Lovelace, aber "Hopper = sehr große Fortschritte und Lovelace = so gut wie keine Fortschritte" erscheint jetzt auch nicht wirklich als glaubwürdige Kombination.
Hier geht es doch um Lovelace, nicht um Hopper. Oder habe ich mich verlesen?
MD_Enigma
2022-04-28, 12:49:58
Gute Fragen. Ich kann mir auch noch keinen Reim drauf machen. Wahrscheinlich wissen wir über einen entscheidenden Punkt noch nicht Bescheid.
Mein Bauchgefühl ist, dass es eine Art Sicherheitsnetz für Nvidia ist. Die planen die Chips gerade ganz ganz groß, um gegen ein AMD-Multichip-Design eine Antwort zu haben. Gleiches Spielchen wie eine GA102. Den kannst du mit 300W am Optimum betreiben, oder bei 450W (+50%). Skaliert halbwegs gut nochmal um 15% nach oben.
WedgeAntilles
2022-04-28, 12:50:27
Aber genau das ist doch auch eingetroffen!?
Äh nein?
KodeX
2022-04-28, 13:10:28
Ich will mich jetzt nicht auf eine sinnlose Diskussion mit dir einlassen, aber meine Ansicht auf die Dinge möchte ich trotzdem darlegen:
Ampere wird kaum schneller als Turing
Ich finde 30-40 Prozent Mehrleistung bei einer neuen Generation eher enttäuschend.
Ampere wird teuer.
Wie soll man überhaupt dagegen argumentieren? Mit Ampere hat Nvidia das Preisgefüge erneut angehoben.
Ampere wird deutlich mehr Strom brauchen als Turing
Man ist von 260 auf 350 Watt gesprungen. Die 450 Watt des jüngsten Ampere-Abkömmlings hat dem nochmal einen obendrauf gesetzt.
Wenn du diese Dinge anders bewertest, werde ich da argumentativ nicht gegen ankommen können. Gleichermaßen kann ich deine Sicht dann aber auch nicht im Geringsten nachvollziehen.
WedgeAntilles
2022-04-28, 13:30:16
Ich will mich jetzt nicht auf eine sinnlose Diskussion mit dir einlassen, aber meine Ansicht auf die Dinge möchte ich trotzdem darlegen:
Ich finde 30-35 Prozent Mehrleistung bei einer neuen Generation eher enttäuschend.
Wie soll man überhaupt dagegen argumentieren? Mit Ampere hat Nvidia das Preisgefüge erneut angehoben.
Man ist von 270 auf 350 Watt gesprungen. Die 450 Watt des jüngsten Ampere-Abkömmlings hat dem nochmal einen obendrauf gesetzt.
Wenn du diese Dinge anders bewertest, werde ich da argumentativ nicht gegen ankommen können. Gleichermaßen kann ich deine Sicht dann aber auch nicht im Geringsten nachvollziehen.
Relevant sind die Launchkarten - der Miningboom der nachher alles kaputt gemacht hat war NICHT gemeint bei den Leaks, ist daher völlig irrelevant.
Also schauen wir uns die 3070, 3080 und die 3090 an.
3070 vs 2070 (Full HD Index) = 50% Performanceplus
3070 vs 2070S = 33% Performanceplus
3080 vs 2080 (Full HD) = 45% Performanceplus
3090 v 2090 = 33% Performanceplus
Vergleicht man die Ursprungseditionen miteinander sind wir bei einem durchschnittlichen Performanceplus von 42%.
Sind die Super-Varianten entscheidend sind wir bei 37%.
Mitteln wir es sind wir bei 40%.
Weltbewegend? Nein, aber in Ordnung.
Preis: 3070 war 500 Euro veranschlagt
3080 war 700 Euro veranschlagt.
Gehen wir davon aus, dass wir für Customs 10% mehr bezahlen sind wir ziemlich exakt da, wo wir auch bei Turing waren.
Preisanstieg? Nein.
Ja, der kam dann. Durchs Mining. Was keiner vorhersah. Im Gegenteil. Am Anfang hieß es ja sogar noch überall, man solle eher auf Customs warten, da bekommt man für den gleichen Preis ein besseres Modell.
Den Miningboom dann als "Beweis" nehmen, dass die Leaker recht hatten, verdreht die Tatsachen völlig. Zumal die AMD Karten ja genauso vom Preisanstieg betroffen waren.
Wenn man den Stromverbrauch mit AMD vergleicht, haben wir zwei Fälle:
Ohne RT bringt AMD in der Tat ein mehr Frames pro Watt.
Ist RT aktiviert bringt nvidia mehr Frames pro Watt.
Was ist also am Ende aus:
"Kaum Mehrleistung, viel mehr Stromverbrauch, teuer, AMD wird weit besser werden" übrig geblieben?
AMD ist gleich schnell wie Nvidia, ohne RT.
AMD ist deutlich langsamer als Nvidia incl. RT
AMD braucht weniger Strom als Nvidia ohne RT.
AMD braucht mehr Strom als Nvidia mit RT.
Preislich waren beide ziemlich ähnlich aufgestellt - AMD hatte mehr Ram, dafür hatte Nvidia das bessere Featurepaket mit RT und DLSS.
Damit war AMD nicht billiger und nicht schneller (bei RT sogar signifikant langsamer). Beim Stromverbrauch lasse ich den Sieg von AMD gelten.
Die Prognosen zu Ampere (immer in Verbindung mit dem Vergleich AMD) waren also zu 2/3 falsch und zu 1/3 (Stromverbrauch) richtig.
Und genau darum geht es - natürlich kann AMD z.B. beim Preis-Leistungs-Verhältnis bei RDNA 3 besser sein.
Nur wird die Kombination Leistung/Stromverbrauch/Preis genausowenig miserabel sein wie es bei Ampere gewesen ist.
Es geht ja immer um die Verquickung der Eigenschaften.
Dovregubben
2022-04-28, 13:34:45
Ich finde 30-40 Prozent Mehrleistung bei einer neuen Generation eher enttäuschend.
Dann komm mal in die Realität zurück. Die 40% (60% mit Raytracing), die wir diese Generation bekommen haben sind schon weit überdurchschnittlich. Bei der nächsten Generation bekommen wir im Topend vielleicht ausnahmsweise mal mehr, weil jeder die Krone haben will, aber bei den niedrigeren Preisklassen wäre ich mit wieder 60% mehr Raytracingleistung wirklich sehr, sehr glücklich.
Glaubt wirklich ernsthaft jemand, wenn diese Verbrauchswerte wirklich stimmen, dass AMD auch nur ansatzweise leistungsmäßig mithalten kann?
Wie soll das gehen, wenn Nvidia aktuell trotz klarem Fertigungsnachteil +- gleich auf liegt und dann beide eine gleichwertige Fertigung benutzen?
Wenn die Verbrauchswerte stimmen (und sich AMD mit deutlich weniger begnügt), dann muss Nvidia einen enormen Leistungsvorsprung haben alles andere macht einfach keinen Sinn.
Man muss schon "blind und taub" sein, um diese These auch nur in Betracht zu ziehen.
Betrachtet man die jüngste Vergangenheit, was AMD geliefert hat und wie genau deren eigenen Prognosen waren, zieht dann das Chipdesign, den Aufbau desselben hinzu, dann ist die oben gedachte These mehr als nur absurd.
Nur weil es einen "besseren" Fertigungsprozess gibt, bedeutet das noch lange nicht, dass dieser Prozess jedes Design stromsparender machen muss.
AMD selber ist mit VEGA in diese Falle getappt und mit Ampere auch nVidia.
Und wenn man doch den rein monolithischen Ansatz bei nVidia sieht + den T-Core Bauch, der weiterhin mitgeschleppt wird, und man um die Vorzüge des Multichipansatzes seitens AMD (Ryzen) weiß, insbesondere des Verbrauchs, wird die oben aufgestellt nur noch absurder.
nVida ist im GPU-Sektor derzeit das, was Intel im CPU Sektor ist: das Mehr an Leistung wird fast ausschließlich über "Abwärme" generiert.
Und wenn man dann ehrlich ist, wäre Ampere ohne das RT(X) ein totaler Reinfall geworden.
Man kann die Spekulationen noch nachlesen. Min. 75% Mehrleistung wurden vermutet und herauskamen maximal 30% bei 70% "Mehr-Leistungs-Verbrauch". Wenn es noch mehr FPS sein sollten, wurde doppelt so viel Energieverbrauch wie beim Vorgänger benötigt.
Fassen wir zusammen. Der Spielchip von nVidia ist im Grunde erneut nur eine abgespeckte Version der HPC GPU (und das Teil, obwohl nicht so hoch getaktet, ist verdammt warm), mit ein paar wenigen Änderungen. Weiterhin setzt nVidia alles auf RT(X) und ein monolithisches Design.
Der Ansatz von AMD ist ein gänzlich anderer und wohl auch der klügere, da man HPC und Gamer trennt, und das auch deutlich im Design, was es deutlich einfacher macht, die Leistung zu optimieren und an das Einsatzgebiet anzupassen.
Zu erwarten, dass nVidia die Leistungskrone behält und das mit einem ähnlich "niedrigen" Verbrauch wie AMD, das ist, wie sagte ich schon zweimal, einfach nur absurd und entbehrt jeglicher Logik.
Darüber hinaus munkelt man in der Gerüchteküche, das Navi 31 und Co. relativ viele Architekturverbesserungen haben werden. Nvidias Next-Gen-Chips sollen hier demgegenüber kaum zugelegt haben. Das muss sich natürlich erst bewahrheiten, aber unlogisch oder unglaubhaft sind die kursierenden Angaben zu Performance und Verbrauch an und für sich nicht.
Selbst wenn AMD Architekturverbesserungen vergleichbar mit RDNA1 auf RDNA2 erreicht, was sportlich aber machbar erscheint, und Nvidia in der Architektur überhaupt nicht zulegt müssten beide bei identischer Fertigung auf in etwa vergleichbarer Effizienz landen.
Damit das eintritt was hier angedeutet wird, also dass AMD irgendwo mit 350W auf vergleichbarer Performance zu NV mit 600W landet, müsste NV die Architektur deutlich verschlechtern, was nun mal ziemlich unglaubwürdig klingt, zumal NV noch den "Cache-Joker" einzulösen hat, den AMD mit RDNA2 schon gezogen hat.
Und das AMD dermaßen viel mehr zulegt als von RDNA1 auf RDNA2 ist ähnlich unglaubwürdig, vor allem, ich wiederhole mich da ein großer Brocken davon durch den Cache-Joker erzielt wurde. Klar wird AMD den Cache noch weiter vergrößern nur wird das niemals nur ansatzweise so viel bringen wie damals von RDNA1 auf 2.
Sicher alles ist möglich, aber das alles erscheint extrem unwahrscheinlich.
Die extrem hohen Verbrauchswerte von Nvidia könnten ja durchaus eintreten, ich vermute mal Jensens fühlt sich gekränkt, dass AMD mit RDNA2 so nahe dran ist und will wieder um jeden Preis den alten Vorsprung wiederherstellen. Also die 600W sind sicher nicht ganz unglaubwürdig, aber eben um einen deutlichen Vorsprung sicherzustellen für das 2k+ Modell. und nicht um gerade mal mit einem AMD-Modell in der 300-400W Range gleichzuziehen.
Dann komm mal in die Realität zurück. Die 40% (60% mit Raytracing), die wir diese Generation bekommen haben sind schon weit überdurchschnittlich.
Alles unter 50% bei Verwendung einer moderneren Fertigung ist enttäuschend. 30-40% gehen evtl. noch in Ordnung wenn keine verbesserte Fertigung vorhanden ist.
Leonidas
2022-04-28, 14:15:40
Lovelace = so gut wie keine Fortschritte
DAS ist allerdings nie wirklich gesagt worden. Was gesagt wurde, ist das Ada nicht ganz RDNA3 erreichen soll. Aber der Performance-Gewinn von Ada wurde immer schon auf +80-100% geschätzt - was mehr ist als bei allen NV-Generationen seit Ewigkeiten.
Und wenn man doch den rein monolithischen Ansatz bei nVidia sieht + den T-Core Bauch, der weiterhin mitgeschleppt wird,
Der gesamte "RTX-Bauch" bestehend aus RT-Cores und T-Cores macht keine 10% eines SMs aus und damit noch viel weniger einer gesamten GPU.
und man um die Vorzüge des Multichipansatzes seitens AMD (Ryzen) weiß, insbesondere des Verbrauchs, wird die oben aufgestellt nur noch absurder.
Die Vorzüge eines Multichipansatzes sind:
a) evtl. günstigere Halbleiterfertigung
b) ermöglicht überhaupt erst eine Leistungsklasse die mit Singlechip gar nicht erreicht werden kann, da der entstehende DIE über dem Reticle-Limit liegen würde.
Die Nachteile sind dagegen:
a) höherer Packaging-Aufwand
b) höherer Verbrauch
c) höhere Gesamtfläche gegenüber einem gleichwertigen Singlechip-Ansatz
KodeX
2022-04-28, 15:41:45
Ich habe mir die Mühe gemacht, Performance, Verbrauch und Preis einzelner Ampere- und Turing-Grafikkarten miteinander zu vergleichen. Dabei habe ich versucht, nur Grafikkarten desselben Performance-Bereichs gegenüberzustellen. Die anderen habe ich nicht berücksichtigt. Ich war noch sehr wohlwollend gegenüber Ampere, habe z.B. nur die Leistung in 4K-Auflösung gewertet. Einerseits fällt der klar gestiegene Stromverbrauch auf. Andererseits fällt auf, dass die Preise (UVPs) gerade im Einsteigersegment enorm gestiegen sind. Einen echten Einsteigerbereich gibt es genaugenommen nicht. Der besonders hohe Preis der Titan RTX, die ich freundlicherweise miteinbezogen habe, reißt den Turing-Preisschnitt allerdings nochmal gehörig nach oben - dennoch bleibt er unterhalb des Ampere-Preisschnitts. Bitte korrigiert mich, falls ich irgendwo Fehler gemacht habe.
https://i.ibb.co/ccTcnHs/ampere-turing-vergleich.jpg
Glaubt wirklich ernsthaft jemand, wenn diese Verbrauchswerte wirklich stimmen, dass AMD auch nur ansatzweise leistungsmäßig mithalten kann?
Respekt: Eine rhetorische, den Leser durch Polarisierung triggernde, und auch noch suggestive Frage in so wenigen aber griffigen Worten formuliert. Enthält keinerlei Argument oder auch nur irgend eine Aussage, sondern rein einleitende Stimmungsmache. Ganz hohe Kunst der Rhetorik:
- rhetorische Frage, klassischer wenn...dann Subtyp
- den Leser durch Polarisierung triggern (glaubt wirklich ernsthaft jemand)
- keinerlei Aussage = keinerlei argumentative Angriffsfläche
Wie soll das gehen, wenn Nvidia aktuell trotz klarem Fertigungsnachteil +- gleich auf liegt und dann beide eine gleichwertige Fertigung benutzen?
Und nun der Griff ins Manager-Handbuch, Kapitel "Reflektieren von Fragen / Aufgaben / Anfragen": Wenn ich keine Antwort (Ahnung, Input, usw) habe, stelle ich einfach laut die Frage die sich jeder stellt. Dadurch wird ein Beantwortungs-Druck erzeugt. Sobald jemand eine Antwort wagt, lässt sich diese wenn gewünscht als rhetorische Angriffsfläche nutzen.
Ansonsten auch hier wieder vermeiden jeglicher eigener Aussage.
Das Verstecken einer Behauptung in einem wenn...dann Konstrukt (wenn ... dann beide eine gleichwertige Fertigung benutzen) ist ein zweischneidiges Schwert. In einem Gespräch sehr wirkungsvoll, doch schriftlich kritisch da der Leser ausreichend Zeit zum Lesen und Nachdenken hat.
Die offensichtliche Antwort auf die gestellte Frage (hier in der rhetorisch-agressiven Variante): Woher weisst du denn das beide eine gleichwertige Fertigung benutzen? Könntest du uns das bitte mal im Detail erklären, wie du zu dieser Aussage kommst?
---
Ich lese hier immer mal wieder das Argument, dass NV mit Lovelace und AMD mit RDNA3 die gleiche bzw eine gleichwertige Fertigung benutzen würden.
Ein Prozessnode bietet aber üblicherweise an sich schon ausdifferenzierte Bibliotheken, wie z.B. low-voltage, high-performance, high-density. Desweiteren sagt die Gerüchteküche, dass NV und AMD jeweils individualisierte Derivate des TSMC 5nm Prozesses nutzen würden.
Da ist es doch nicht ganz abwegig zu spekulieren, dass AMD ggf einen effizienz- / verbrauchs-optimierten und NV eine rechenleistungs- / taktraten-optimierten Ansatz fährt.
---
Wenn die Verbrauchswerte stimmen (und sich AMD mit deutlich weniger begnügt), dann muss Nvidia einen enormen Leistungsvorsprung haben alles andere macht einfach keinen Sinn.
Ich korrigiere mal:
einen enormen Leistungsvorsprung -> einen enormen Leistungsaufname-Vorsprung, dann passts ;-)
Rhetorik:
Ausnamsweise mal keine Frage, aber das dritte wenn...dann Konstrukt in Folge. Wie repetetiv.
Argumantativ ist der Satz eine reine Nicht-Aussage, da sich das wenn...dann Argument einfach umdrehen lässt:
Wenn NV einen signifikanten Rechenleistungsvorsprung hätte, dann könnte man sich effizientere Betriebspunkte leisten, und müsste es mit der Leistungsaufnahme nicht so übertreiben, alles andere macht einfach keinen Sinn.
Wer den Trollaner in mir triggert bekommt halt schon mal so eine Antwort :-)
WedgeAntilles
2022-04-28, 16:41:47
Ich habe mir die Mühe gemacht, Performance, Verbrauch und Preis einzelner Ampere- und Turing-Grafikkarten miteinander zu vergleichen. Dabei habe ich versucht, nur Grafikkarten desselben Performance-Bereichs gegenüberzustellen. Die anderen habe ich nicht berücksichtigt. Ich war noch sehr wohlwollend gegenüber Ampere, habe z.B. nur die Leistung in 4K-Auflösung gewertet. Einerseits fällt der klar gestiegene Stromverbrauch auf. Andererseits fällt auf, dass die Preise (UVPs) gerade im Einsteigersegment enorm gestiegen sind. Einen echten Einsteigerbereich gibt es genaugenommen nicht. Der besonders hohe Preis der Titan RTX, die ich freundlicherweise miteinbezogen habe, reißt den Turing-Preisschnitt allerdings nochmal gehörig nach oben - dennoch bleibt er unterhalb des Ampere-Preisschnitts. Bitte korrigiert mich, falls ich irgendwo Fehler gemacht habe.
https://i.ibb.co/ccTcnHs/ampere-turing-vergleich.jpg
Danke für die Gegenüberstellung!
Damit hast du meine Aussage untermauert.
Preislich ist Ampere exakt gleich gestartet wie Turing.
499 vs 499 und 699 vs 699.
Die 3090 ist mit 1499 vs 1199 deutlich teurer, aber ich erlaube mir einfach mal in diesem Segment zu sagen: Was solls.
Sämtliche Preise der anderen Karten sind zu ignorieren, da externe Effekte dafür verantwortlich sind.
Es ging den Leakern ja bei der Prognose "Ampere wird teuer" ja um die Aussage, dass Ampere an sich teuer wird. Ampere war aber zum Start normal bepreist und wurde durch externe Effekte teuer.
Die 3070 hat etwas über 60% Performanceplus bei +25% Verbrauch gegenüber der 2070.
Die 3070 hat 40% Performanceplus bei +3% Verbrauch gegenüber der 2070Super.
Die 3080 hat +72% Performanceplus bei +49% Verbrauch gegenüber der 2080.
Die 3080 hat +61% Performanceplus bei +28% Verbrauch gegenüber der 2080 Super.
Ist das weltbewegend? Wie gesagt, nein.
Aber es ist ok.
Bei der 3070 ist es recht gut.
Bei der 3080 vs 2080 ist es ziemlich schwach.
Bei der 3080 vs 2080super wiederum ganz ok.
Und es zeigt auch recht schön, dass die 3080 - und bereits die 2080 super - ziemlich weit außerhalb des Sweetspots betrieben wird.
Ich hatte ja auch schon beim Launch gesagt, dass es mich überrascht hat warum man die 3080 nicht werkseitig mit 10-15% weniger Verbrauch betreibt, bei nur minimaler Geschwindigkeitseinbuße. Das war IMO der größte Fehler den Nvidia mit Ampere gemacht hat. Eine 3080 mit 270-280W wäre die weit bessere Karte gewesen.
Und schlussendlich ist der prognostizierte "Sieg" von AMD nicht eingetroffen.
Nvidia hatte mit dem ach so miesen Samsung 8nm Prozess relativ ähnliche Produkte wie AMD.
Sowohl was den Preispunkt angeht, als auch was die Leistung angeht.
Beim Verbrauch ist AMD - wie mehrfach gesagt - etwas besser, aber nur solange man RT deaktiviert. Ist das aktiviert sieht es wieder andersrum aus.
Damit hatten die Leaker mit 1 von 3 vorhersagen recht. (Und je nach dem wie du RT gewichtest, ist das sogar noch wohlwollend gerechnet. Ich habe da jetzt unterstellt: Spielt keine Rolle, wir betrachten nur Non-RT Spiele.)
Wenn ich eine Arbeit abgebe, bei der ich 1 von 3 richtig gelöst habe ist das die Note 5 und damit durchgefallen.
Und exakt so wird es auch bei Lovelace vs RDNA 3 ablaufen.
AMD schneller, effizienter, preiswerter.
Nope, wird nicht passieren.
Suche dir gerne eines davon aus, mein Tipp wäre bei den nicht-highend-Karten "Frames pro Euro" wegen dem kostengünstigeren Fertigugnsprozess.
Damit sind wir dann wohl wieder bei 1/3 und damit Note 5, mangelhaft.
Jeder darf diesen Post gerne bookmarken und mir präsentieren falls ich falsch liege.
WedgeAntilles
2022-04-28, 16:50:40
Woher weisst du denn das beide eine gleichwertige Fertigung benutzen? Könntest du uns das bitte mal im Detail erklären, wie du zu dieser Aussage kommst?
Jepp, der TSMC 6 Prozess den AMD verwendet (bei den Nicht-High-End-Produkten) wird vermutlich besser sein als der TSMC 4 Prozess den Nvidia verwendet und für den Nvidia mehr Geld bezahlt.
Und lass mich raten: Für die High-End Modelle verwendet AMD den 5er Prozess, weil sie sportlich sind und Nvidia eine Chance lassen wollen. Daher nehmen sie für ihre High-End Produkte den schlechteren 5er statt den besseren 6er Prozess.
Sonst hätte nvidia ja überhaupt keine Chance mehr mit ihrem miesen 4er.
Da denkt man, irgendwann kann es nicht mehr absurder werden, aber dieses Forum schafft es immer.
Natürlich kann es wirtschaftlich die richtige Entscheidung zu sein was AMD macht. Preis-Leistung ist ja enorm wichtig.
Aber sich jetzt ernsthaft hinzustellen und TECHNISCH den fortschrittlicheren Prozess von Nvidia in Frage zu stellen ist nur noch mit religiösem Fanatismus zu begründen.
Was in der Bibel steht MUSS wahr sein.
Was AMD macht MUSS besser sein.
Ich hoffe einfach mal, dass ich die Satire nicht erkannt habe. Das wäre mir lieber als zu glauben, dass es ernstgemeint war.
bad_sign
2022-04-28, 16:51:08
Glaubt wirklich ernsthaft jemand, wenn diese Verbrauchswerte wirklich stimmen, dass AMD auch nur ansatzweise leistungsmäßig mithalten kann?
3090Ti ist doch Beweis genug, oder nicht?
keine Mehrleistung, erheblicher Mehrverbrauch.
Wenn Nvidia sich ähnlich unter Druck fühlt, wird der Arbeitspunkt halt gaanz weit nach rechts auf der Takt/Spannungskurve verschoben - mit katastrophalen Folgen.
Natürlich ist die Satire ernst gemeint; immer !
KodeX
2022-04-28, 16:58:11
Danke für die Gegenüberstellung!
Damit hast du meine Aussage untermauert.
Puh, eher nicht. Ich habe - wie gesagt - sehr Ampere-freundliche ausgewertet. Gerade hinsichtlich der UVP-Preise. Auch beim Ausrechnen des Durchschnittspreis hätte ich besser zu relativen Werten gegriffen. Dann stünde es nämlich trotz Titan RTX $615 zu $557. Außerdem ignorierst du zahlreiche Karten und pickst dir die Modelle raus, die deiner Argumentation am dienlichsten sind. Ich muss hingegen zugeben, dass durch das Erscheinen der RTX 3090 Ti letztendlich doch mehr als 40 Prozent Leistungszuwachs (an der absoluten Spitze) hinzugekommen sind. Dennoch ist das nichts Weltbewegendes, selbst ohne Berücksichtung eines Fertigungssprungs.
Dann komm mal in die Realität zurück. Die 40% (60% mit Raytracing), die wir diese Generation bekommen haben sind schon weit überdurchschnittlich. Bei der nächsten Generation bekommen wir im Topend vielleicht ausnahmsweise mal mehr, weil jeder die Krone haben will, aber bei den niedrigeren Preisklassen wäre ich mit wieder 60% mehr Raytracingleistung wirklich sehr, sehr glücklich.
Na ja, wenn ich meine custom 3080 auf 250w, oder meinetwegen auch auf 280w drossele/undervolte dann ist die Performance kaum noch besser als die 2080ti...
Das ist tatsächlich ein performancesprung, den man durch ineffizient erzielt hat. Und das ist halt meh.
Iscaran
2022-04-28, 18:57:33
Ich habe mir die Mühe gemacht, Performance, Verbrauch und Preis einzelner Ampere- und Turing-Grafikkarten miteinander zu vergleichen. Dabei habe ich versucht, nur Grafikkarten desselben Performance-Bereichs gegenüberzustellen.[/URL]
Coole Übersicht Danke! Und deine Beobachtung deckt sich auch ziemlich mit meiner Erfahrung bzw. Einschätzung. Sogar wenn man noch weiter zurückgeht als nur Turing. (Maxwell, Kepler...)
Iscaran
2022-04-28, 18:59:03
Puh, eher nicht. Ich habe - wie gesagt - sehr Ampere-freundliche ausgewertet. Gerade hinsichtlich der UVP-Preise. Auch beim Ausrechnen des Durchschnittspreis hätte ich besser zu relativen Werten gegriffen.
Der größte Preissprung passierte eigentlich bei der RTX20 Generation, geh mal im Vergleich zurück zu zur Generation 10xx dann sieht man das.
Beim Verbrauch ist AMD - wie mehrfach gesagt - etwas besser, aber nur solange man RT deaktiviert. Ist das aktiviert sieht es wieder andersrum aus.
Auch nur wegen Jensens Ego-Trip unbedingt den längsten zu haben (vielleicht weil Asiaten angeblich einen nicht so langen haben?).
Wie wir dank Igor wissen ist eine 3090Ti auf 300W immer noch vor der 6900XT, zwar nicht viel aber immerhin ein wenig, und das auch ohne Raytracing.
Dovregubben
2022-04-28, 19:17:56
Außerdem ignorierst du zahlreiche Karten und pickst dir die Modelle raus, die deiner Argumentation am dienlichsten sind.
Nimm halt noch die 3060 vs 2060 dabei. 34% mehr Leistung für 6% mehr Verbrauch bei 20 Dollar weniger.
Natürlich kann man sich auch auf der Prestige-Topmodell versteifen, was in der Geschichte schon immer stark geschwankt hat.
AlterSack
2022-04-28, 20:02:59
Glaubt wirklich ernsthaft jemand, wenn diese Verbrauchswerte wirklich stimmen, dass AMD auch nur ansatzweise leistungsmäßig mithalten kann?
Wie soll das gehen, wenn Nvidia aktuell trotz klarem Fertigungsnachteil +- gleich auf liegt und dann beide eine gleichwertige Fertigung benutzen?
Wenn die Verbrauchswerte stimmen (und sich AMD mit deutlich weniger begnügt), dann muss Nvidia einen enormen Leistungsvorsprung haben alles andere macht einfach keinen Sinn.
natürlich machen solche schwachsinnskarten keinen sinn!
sie zeigen nur, dass die menschheit so langsam aber sicher
überschnappt und sich auf dem absteigenden ast befindet!
Ahnungsloser Passant
2022-04-28, 20:06:28
Grundsätzlich gute Übersicht. Allerdings mit einem Haken bei der Interpretation: Den Kunden interessieren nicht die Listenpreise, weil sie die Preise im Handel zahlen müssen. Und da gibt es ja bekanntlich schon lange enorme Differenzen. Die 3050 beispielsweise kostete zum Launch das grob Doppelte wie der Listenpreis (siehe News vom 31. Jan.). Einen solchen Effekt gab es bei Turing nicht.
Daher ist die Aussage, dass Ampere für die Kunden viel teurer ist objektiv richtig. Dass Ampere für die Großhändler nicht viel teurer ist als Turing, mag stimmen, interessiert aber realistisch keinen Käufer.
Damit hatten die Leaker mit 1 von 3 vorhersagen recht. (Und je nach dem wie du RT gewichtest, ist das sogar noch wohlwollend gerechnet. Ich habe da jetzt unterstellt: Spielt keine Rolle, wir betrachten nur Non-RT Spiele.)
Naja, das stimmt so aber nun mal nicht. Die Boardhersteller hatten ja schon von Anfang an gesagt, dass NVidia's Listenpreis unrealistisch ist, weil sie bei solchen Preisen drauf zahlen würden. Wurde beim Launch ja auch x mal diskutiert. Und der tatsächliche Preis ist dann ja auch meilenweit von Turing weg. Insofern bleibt es bei teurer und mehr Verbrauch. Und das Thema RT ist natürlich NVidia's Vorzeige-Feature. Aber Fakt ist, dass es viel mehr Spiele ohne RT gibt als mit. Insofern ist das Feature nur ein Rand-Faktor. Und bis das Thema mal wirklich weit verbreitet ist, reicht den NV Karten wohl der Ram nicht mehr. Dann ist es auch wieder egal, ob es auf AMD Karten lahm läuft.
Mega-Zord
2022-04-28, 22:01:32
Wie sollte man die 900 W denn bitte Kühlen. Die Verlustleistung pro mm² dürfte sicher deutliche geringer sein als bei einer CPU, aber die Totalverlustleistung ist einfach zu krass. Ein Radiator sollte sogar besser außerhalb des Gehäuses sein.
Ihr habt aber schon gelesen, dass das Testboard mehr als 2x 16pol hat? Ich weiss natürlich nicht, was rüber geht, aber das wären dann mal in jedem Fall >1200W. Und wir reden nach ATX3.0 nicht von Peak. Nvidia-12pol wären btw nur 2/3.
BTW: Wie wäre es denn endlich mal wieder mit 40er und 30er?
5200 ist wahrlich enttäuschend. 6400 ist längst JEDEC-spezifiziert (8400 noch Zukunft) und insbesondere für die APUs ein fettes Problem. Ob da AMD-proprietäre (was eh ungewöhnlich wäre) Specs helfen? Allen egal. Nun denn.
Ich wollte nur darauf hinaus, dass es in der Namensgebung mit TI und SUPER 'eigentlich' nur noch Platz für je 1x Vollausbau und Salvage gibt. Und die Frage, ob das später überhaupt passt, dass die jeweilige SUPER stärker wird, als die Salvage-TI des nächstgrößeren. Außer Nvidia macht wieder so seltsame Sachen mit gleichem Verkaufsnamen aber unterschiedlichen Chips.
MasterElwood
2022-04-28, 22:25:00
3090 v 2090 = 33% Performanceplus
2090? Hab ich was verpasst? :biggrin:
Sollte wohl 2080TI heissen :wink:
Lehdro
2022-04-28, 23:16:06
Wie wir dank Igor wissen ist eine 3090Ti auf 300W immer noch vor der 6900XT, zwar nicht viel aber immerhin ein wenig, und das auch ohne Raytracing.
Aber auch nur wenn man die 6900XT so laufen lässt wie sie halt will. Bei RDNA2 kann man auch fleißig untervolten :rolleyes:
Vor Ampere hieß es auch:
Ampere wird kaum schneller als Turing
Ampere wird teuer
Ampere wird deutlich mehr Strom brauchen als Turing (witzig in Verbindung mit "kaum schneller")
Und natürlich sollte alles 3 zusammen kommen. Teuer, langsam, durstig.
Ist doch genauso eingetreten, Ampere ist doch einen "Gurkengen", eins hast du noch vergssen, weil nvidia diese Schwäche offenbarte konnte AMD fast zu aufschließen und hat sie mit einefachem GDDR6 und mehr davon alt aussehen lassen, auch das wurde für unmöglich gehalten.
Was vor Ampere alles versprochen wurde, wurde nie gehalten. Die 308010G, 3080ti und 3090ti sind Karten die Kein Mensch braucht, genauso wioe die 3060ti und 3070ti. Alle um 5 bis 8%, einfach lächerlich nur um die Preise ins Nirvana zu schrauben. Noch dazu konnte man nichts davon kaufen.
900w TGB die sind nicht mehr ganz klar in ihrem Kopf. Selbst wenn es nur 600 werden, ist das krank. Kaufe ich nicht, sry.
Mega-Zord
2022-04-28, 23:52:54
Aber auch nur wenn man die 6900XT so laufen lässt wie sie halt will. Bei RDNA2 kann man auch fleißig untervolten :rolleyes:
Man kann immer viel tweaken... warum laufen die denn nicht so ab Werk? Das war ja zu Vega-Zeiten immer schon so ein geiles Argument.
2090? Hab ich was verpasst? :biggrin:
Sollte wohl 2080TI heissen :wink:
2090 könnte auch die Titan RTX sein. :D
MfG
Raff
Platos
2022-04-29, 00:20:39
Also ich glaubs erst, wenn ich es sehe, aber es sieht schon immer düsterer aus mit dem Stromverbrauch. Sowohl bei AMD als auch nvidia.
Und da wären wir wieder bei dem Punkt "Kauf doch einfach eine Stufe niedriger". Nein, geht laut Gerüchteküche (für mich) auch nicht, da ja die 4070 nur 12GB haben soll und für 4K ist mir nicht genug Zukunftsfähig (und vlt. auch mal mit DSR 5-8k). Und selbst die 4070 soll ja angeblich! 300W verbrauchen. Als 1080 Besitzer müsste man für was gleichwertiges dann zu ner 4060 greifen und die hat mit viel Pech 8GB. Also diese Argumentationsweise geht auch nicht auf (schonmal für alle, die das immer wieder gerne sagen).
D.h die einzige Karte bei nvidia (bei AMD ist da noch nicht so viel bekannt) wäre für mich ne 4080. Wie viel die aber dann verbraucht, steht in den Sternen (Laut Leaks richtig rklig viel). Aber selbst wenn ich Grafikkarten manuell auf 200W locke, kann ich mit meinem 650W Netzteil nicht einfach jede Beliebige Grafikkarte da rein packen. Ok, 400Watt gehen da gut, nvidia soll ja jetzt Wert auf Peaks gelegt haben...
Aber schön und gut... Nur wie werden dann z.B die Stromverbrauchswerte bei Niedriglast (z.B Youtube) oder Idle aussehen? DAS ist auch noch ein sehr grosses Fragezeichen. Maximalwerte kann ich drosseln, aber sowas ? Kann man den Stromverbrauch grosser Karten im Niedriglastbereich als Nutzer signifikant senken?
Schlussendlich glaube ich solche Werte aber erst, wenn ich sie sehe. Sowohl bei AMD als auch nvidia.
Ich kann mir auch gut vorstellen, das absichtlich solche extremen Verbrauchswerte in die Welt gesetzt werden, nur um dann zum Release mit (beachtlich) niedrigen Werten anzutreten.
Ist dann ein Psychologischer Effekt, die realen niedrigeren Werte sind aber immer noch relativ gesehen hoch aber bei weitem nicht so hoch wie die Gerüchte Küche es verkündet hat.
Dann wird sich der eine oder andere Denken, ach passt scho, war doch nicht so schlimm wie angenommen.
Offensichtlich ist dies so.
Gehe auch stark davon aus dass entweder die üblichen vertrauenswürdigeren Leaker/Spekulanten, oder einige andere die mal zwischendurch was dazwischen leaken/spekulieren, entweder Beschäftigte bei den Unternehmen sind, von denen bezahlt etc. pp.
So funktioniert halt Marketing, Social Engineering, Psychologie etc.
Aber auch Manipulation, Beeinflussung: Was hier geschieht sind Versuche den Mitbewerber (AMD, Intel, Nvidia) zu verunsichern, manipulieren.
Denken die bei AMD nun vielleicht dass unsere Produkte wirklich so stromhungrig sind, führen wir diese in Wirklichkeit an der Nase herum, verleiten diese zu Taten die ihnen Nachteilig sind, und überraschen diese mit einem erstklassigem Produkt zum Launch.
Wobei es fraglich ist wie weit diese Masche zutrifft, haben Beschäftige jener Unternehmen meist viel Einsicht/Fantasie auf des Mitbewerbers Fortschritt.
Es ist stark an der Realität vorbei - Realitätsverweigerer -, nicht zu wissen/zu denken das Führungskräfte von multi-Milliarden-Unternehmen so handeln.
Eins weiß ich aber: Moores Law is Dead und ähnliche sind Schwätzer, Lügner, Plappermaschinen. ;)
2x16 Pin PCIe5 PEG? War ja zu erwarten das ja, die ließen maximal 1200w zu. Deshalb davon auszugehen 900w wären irgendeine OC Grenze ist mal komplett falsch. Lovelace scheint ein Schluckspecht zu werden, wie einst Fermi und egal wieviel Leistung er dafür mitbringt, passen solche Krüppel in kein PC Gehäuse und brauchen neuwertige Peripherie, die massiv und teuer ausfällt. Man arbeitet also vor allem auf NVidia Seite weiter daran, PC Gaming extrem zu verteuern. Ich bin dann raus. NVidia hat erlicherweise den Verstand verloren. Selbst wenn es max nur 600 oder 450w werden, die haben einen wichtigen Trend komplett verschlafen. Wahrscheinlich bezahlen die Amis nichts für Strom. Das ist eine Zusatzheizung und keine GPU. Irgendwo muss die Leistungsaufnahme nunmal hin und jeder weiß, dass GPUs diese zu 100% in Abwärme umwandeln. Schon an solchen Varianten zu testen ist für mich reine Geldverschwendung, wer kauft so einen Unsinn. Für vermeintlich weichere Schatten, die man in bestimmten Spielen sowieso nicht wahrnimmt.
Mich erinnert das ganze an RGB, keinen Nutzen und mehr Schein als Sein. Die haben komplett aus dem Auge verloren, was GPU Entwicklung ausmachen sollte, die sich auch jedermann leisten kann und vor allem die man auch in seinem PC verwenden kann, ohne alle neu kaufen zu müssen. Begonnen hat das mit den NVidia 12pin und klobigen, hässlichen Adaptern weil die eigenen Entwicklungsabteilung mit 375w TDP nicht mehr auskommt.
900w ist sowas von lächerlich, 600 und 450 übrigens auch. Mehr abrufbare Leistung muss sich nicht in massivem Merbrauch niederschlagen, das ist genau der falsche Weg und ziemlich einfach. Die 150w mehr, die eine 3090ti vor einer 3090 verbraucht bei im Durschschnitt 7% Mehrleistung ist einfach vernachlassbar. Die 3090ti gibt es nur um UVPs über 2000 Dollar zu halten, sicher in Vorbereitung von Lovelace.
Schwach NVidia, sowas von schwach. Der Größenwahn nehme seinen Lauf, fernab der Basis und was diese wirklich braucht.
Aber auch nur wenn man die 6900XT so laufen lässt wie sie halt will. Bei RDNA2 kann man auch fleißig untervolten :rolleyes:
Die 3090Ti läuft auch wie sie will, nur eben mit entsprechendem Powerlimit.
Undervolten könnte man beide, aber es hat schon seinen Grund warum Hersteller gewisse Reserven einplanen, 98% Stabilität reicht eben nicht aus.
gastello
2022-04-29, 10:05:46
Leonidas, die News ist in dieser Form FUD! Die Testboards haben ALLE mehr Stromversorgungsstecker als sie müssten. Das ist kein Indiz dafür, wieviel eine marktreife Entwicklung dann tatsächlich verbraucht. Hat auch nichts mit OC Potential zu tun.
Schlichtweg muss der Überwachungs- und Optimierungsanteil auf diesem Board mit Strom versorgt werden. Das geht am besten, über den vorhandenen Standard = hier eben PCIe 5.0 und einem eigenständigen Regelkreis. Was logisch ist, du willst dir ja in der Testphase bei der Energieversorgung keinen Fehler einbauen (Powerbuget, Inference usw.). Du willst auch von der ursprünglichen Planung, darunter der des Energiebugets nichts abziehen, wenn die Karte nur den einen Stecker hätte. Das macht innerhalb der Testphase und Optimierung bis zur Serienreife doch überhaupt keinen Sinn, davon dann 50W für andere Zwecke abziehen zu müssen. Hier gehen dann halt nur zwei 16Pin, selbst wenn es nur 25W über 600W des einen Steckers wären. Vega hatte bis zu 4x8Pins auf den Testboards (hätte also 750W aufnehmen können), erschienen sind sie dann mit 2x8!
Viel wichtiger ist die Information, um bewerten zu können wie weit fortgeschritten nVidia schon ist.
WedgeAntilles
2022-04-29, 10:41:34
Also ich glaubs erst, wenn ich es sehe, aber es sieht schon immer düsterer aus mit dem Stromverbrauch. Sowohl bei AMD als auch nvidia.
Und da wären wir wieder bei dem Punkt "Kauf doch einfach eine Stufe niedriger". Nein, geht laut Gerüchteküche (für mich) auch nicht, da ja die 4070 nur 12GB haben soll und für 4K ist mir nicht genug Zukunftsfähig (und vlt. auch mal mit DSR 5-8k). Und selbst die 4070 soll ja angeblich! 300W verbrauchen. Als 1080 Besitzer müsste man für was gleichwertiges dann zu ner 4060 greifen und die hat mit viel Pech 8GB. Also diese Argumentationsweise geht auch nicht auf (schonmal für alle, die das immer wieder gerne sagen).
D.h die einzige Karte bei nvidia (bei AMD ist da noch nicht so viel bekannt) wäre für mich ne 4080. Wie viel die aber dann verbraucht, steht in den Sternen (Laut Leaks richtig rklig viel). Aber selbst wenn ich Grafikkarten manuell auf 200W locke, kann ich mit meinem 650W Netzteil nicht einfach jede Beliebige Grafikkarte da rein packen. Ok, 400Watt gehen da gut, nvidia soll ja jetzt Wert auf Peaks gelegt haben...
Aber schön und gut... Nur wie werden dann z.B die Stromverbrauchswerte bei Niedriglast (z.B Youtube) oder Idle aussehen? DAS ist auch noch ein sehr grosses Fragezeichen. Maximalwerte kann ich drosseln, aber sowas ? Kann man den Stromverbrauch grosser Karten im Niedriglastbereich als Nutzer signifikant senken?
Schlussendlich glaube ich solche Werte aber erst, wenn ich sie sehe. Sowohl bei AMD als auch nvidia.
Richtig, einfach so runterstufen geht ja gar nicht - ich hatte noch gedacht: Och, wenn die 4070 300W zieht ist mir das etwas zu viel, nehme ich eben eine 4060. Aber du hast natürlich recht, falls die dann nur 8GB hat ist das auch keine sinnvolle Lösung.
Ich hatte gestern nur die reine Leistung im Kopf und habe die Rambestückung völlig vergessen.
Danke für den Hinweis :)
WedgeAntilles
2022-04-29, 10:50:16
Puh, eher nicht. Ich habe - wie gesagt - sehr Ampere-freundliche ausgewertet. Gerade hinsichtlich der UVP-Preise. Auch beim Ausrechnen des Durchschnittspreis hätte ich besser zu relativen Werten gegriffen. Dann stünde es nämlich trotz Titan RTX $615 zu $557. Außerdem ignorierst du zahlreiche Karten und pickst dir die Modelle raus, die deiner Argumentation am dienlichsten sind. Ich muss hingegen zugeben, dass durch das Erscheinen der RTX 3090 Ti letztendlich doch mehr als 40 Prozent Leistungszuwachs (an der absoluten Spitze) hinzugekommen sind. Dennoch ist das nichts Weltbewegendes, selbst ohne Berücksichtung eines Fertigungssprungs.
Nein, ich picke mir die RELEVANTEN Karten raus.
Nämlich die Launchkarten.
3070, 3080.
Die 3090TI habe ich halb ausgeklammert, da ich bei einem Halo-Produkt die Preiseffizienz als ziemlich irrelevant ansehe.
Sorry, aber du verstehst einfach nicht, dass die Preiserhöhungen die durchs Mining kamen nicht relevant sind bei der Betrachtung ob die Youtuber und Co richtig lagen.
Du kannst doch keinen externen Effekt nehmen und dann sagen: Die hatten recht.
Wenn ich (1,60m, 65 Kilo) sage: "Ich kann den Schwergewichtsmeister KO hauen" ist das eine lächerliche Aussage.
Theoretisch kann es passieren, dass wir uns dann im Ring gegenüberstehen.
Und in der Sekunde, als der Kampf losgeht (und er mich mit einem Schlag KO haut) fällt eine Lampe von der Decke und trifft den Schwergewichtsmeister am Kopf. Er geht dadurch KO.
Jetzt habe ich den Kampf "gewonnen" - durch einen externen Effekt.
Ist damit meine Aussage richtig geworden? Nein ,natürlich nicht.
In einem normalne Kampf hätte er mich in 1 Sekunde umgehauen.
Ich habe den Kampf gewonnen, durch einen externen Effekt.
Genauso ist es mit den Preisen.
Die YT/Leaker/wie auch immer haben gesagt, Ampere wird teuer, AMD viel günstiger.
Ampere kam aber nicht teuer raus, AMD war auch nicht günstiger.
Nur weil ein Ergebnis am Ende eintritt, muss die ursprüngliche Prognose und Grundaussage nicht richtig sein.
gastello
2022-04-29, 11:19:05
Nein, ich picke mir die RELEVANTEN Karten raus. Nämlich die Launchkarten. 3070, 3080. Die 3090TI habe ich halb ausgeklammert, da ich bei einem Halo-Produkt die Preiseffizienz als ziemlich irrelevant ansehe.
Die Karten sind imo diesmal schwer vergleichbar, genauso wie ein 16Pin nichts darüber aussagt wie effizient ein Board ausfällt oder wie hoch deren TDP festgelegt wurde. Es gibt unter PCIe 5.0 nunmehr 4 Leistungsklassen allein über den 16Pin HPWR und die sehen physisch alle gleich aus (150,300,450,600=bis zu 55A).
Ob und inwieweit nVidia diese noch über Speichermengen finalisiert werden wir dann sehen. RTX I/O spielt dabei auch eine Rolle, wenn man sowieso schnelle M.2 verbaut.
Lehdro
2022-04-29, 11:19:49
Genauso ist es mit den Preisen.
Die YT/Leaker/wie auch immer haben gesagt, Ampere wird teuer, AMD viel günstiger.
Ampere kam aber nicht teuer raus, AMD war auch nicht günstiger.
Man könnte jetzt böse sein und sagen das AMD nicht günstiger war, eben weil es die Miningsache gab - externe Faktoren und so ;)
WedgeAntilles
2022-04-29, 11:53:27
Man könnte jetzt böse sein und sagen das AMD nicht günstiger war, eben weil es die Miningsache gab - externe Faktoren und so ;)
Ja, da hast du recht - das ist möglich.
Aufgrund der sehr geringen Liefermenge von AMD, gehe ich aber davon aus, dass auch ohne Mining und explodierenden Preisen wir von AMD keine signifikant niedrigeren Preise als bei Nvidia gesehen hätten.
Auch der Launchpreis von AMD war ja sehr mit Nvidia vergleichbar.
Mehr Ram, dafür kein DLSS und schlechteres RT - unterm Strich waren die Karten relativ ähnlich.
Aber das ist natürlich nur meine Einschätzung, evt. wäre es anders gekommen.
Lehdro
2022-04-29, 13:45:06
Aber das ist natürlich nur meine Einschätzung, evt. wäre es anders gekommen.
Nee, das wird schon so hinkommen. AMD ist letzlich sehr bestrebt die Marge hochzubekommen, da bietet sich das an dass man den Mitbewerber eigntlich nur minimal unterbieten müsste...
AMD wird schon sehr froh sein, das die GPU Preise sich langfristig nach oben entwickelten.
Och, wenn die 4070 300W zieht ist mir das etwas zu viel, nehme ich eben eine 4060. Aber du hast natürlich recht, falls die dann nur 8GB hat ist das auch keine sinnvolle Lösung.
Wenn dir die Karte zu viel zieht nimm den Powerlimit Regler und ab nach links damit.
GerryB
2022-04-29, 15:14:13
Die 900W-GPU wird man ja nur in 4k+ brauchen.
Zusammen mit ner sparsamen CPU passt sogar noch ein moderates Singlerail-NT.
(lt. inoffiziellem Tool)
https://www.igorslab.de/cybenetics-atx-v3-0-spec-power-excursions-calculator-freeware-download-zur-netzteilberechnung-nach-intels-vorgaben/
Platos
2022-04-29, 18:30:11
Wenn dir die Karte zu viel zieht nimm den Powerlimit Regler und ab nach links damit.
Ne, so einfach geht das nicht. Was ist mit dem Idle-Stromverbrauch? Was ist mit dem Stromverbrauch unter Niedriglast? Was ist mit dem Netzteil? Eine 1080 konnte man locker mit einem 450W Netzteil paaren. Eine 4080 sicher nicht, da strützt schon beim Rechnerstart ab, muss man annehmen.
Also nein, einfach regeln geht nicht beliebieg.
WedgeAntilles
2022-04-29, 20:12:20
Wenn dir die Karte zu viel zieht nimm den Powerlimit Regler und ab nach links damit.
Ich habe bisher an solchen Dingen nie rumgefummelt - aber bisher hatte ich auch nie Bedarf daran gehabt.
Gut möglich, dass ich aber bei der nächsten Generation nicht mehr drum rum komme.
Irgendwo werde ich schon eine Anleitung: "Undervolting for dummies" oder so ähnlich finden :D
Hier gehen dann halt nur zwei 16Pin
Du hast den Tweet nicht gelesen. Das Board hat mehr als 2. Sofern es sich um 3+ 12VHPWR handelt. Also sind 900W die Hälfte. Oder gar weniger. Klingt jetzt nicht falsch. Aber das kann nur wer aus der Branche genau beantworten bzw. eigentlich sieht man das sogar erst, wenn Karte vorgestellt.
Was ist mit dem Idle-Stromverbrauch? Was ist mit dem Stromverbrauch unter Niedriglast?
Seit wann interessieren in dieser Diskussion Idle oder "Niedriglast"? Es geht ausschließlich um Spitzenlast bzw. Durchschnitt bei Gaming. Anzeige von Config-Menü zählt schon nicht.
Ich habe bisher an solchen Dingen nie rumgefummelt - aber bisher hatte ich auch nie Bedarf daran gehabt.
Irgendwo werde ich schon eine Anleitung: "Undervolting for dummies" oder so ähnlich finden :DDas ist imho eines der Probleme, denn "Powerlimit Regler" mag zwar helfen, ist aber keine passende Lösung. Nur oberhalb Sweet-Spot macht das wirklich Sinn und selbst da verliert man mehr als sein müsste. Bedauerlich, dass die Hersteller das nicht selbst (besser und einfacher) in die Hand nehmen.
OpenVMSwartoll
2022-04-30, 07:49:30
Ich habe bisher an solchen Dingen nie rumgefummelt - aber bisher hatte ich auch nie Bedarf daran gehabt.
Gut möglich, dass ich aber bei der nächsten Generation nicht mehr drum rum komme.
Irgendwo werde ich schon eine Anleitung: "Undervolting for dummies" oder so ähnlich finden :D
Komm auf die dunkle Seite der Macht... *g*
Du hast den Tweet nicht gelesen. Das Board hat mehr als 2. Sofern es sich um 3+ 12VHPWR handelt. Also sind 900W die Hälfte. Oder gar weniger. Klingt jetzt nicht falsch. Aber das kann nur wer aus der Branche genau beantworten bzw. eigentlich sieht man das sogar erst, wenn Karte vorgestellt.
Hat er doch geschrieben das die Stecker alle gleich aussehen, das können auch zwei 450 oder zwei 300w sein, oder ein/zwei 300 und oder zwei 150. Wer weiss das schon. Einfach zu sagen das Bord hat vier Stecker, wie er im Beispiel zu Vega geschrieben hat und kommt damit auf den Markt ist falsch. Die Hersteller haben schon früher mehr Stecker verbaut, je nachdem wie sie die Energie auf den Boards verteilen. Darüber weiß bisher niemand etwas, aber am Beispiel der 3090ti kann man erahnen worum es geht. Die maximale Belastbarkeit wurde dabei nie überschritten, nicht mal im Ansatz. Es geht einfach um eine voneinander entkoppelte Energieverteilung und /-menge damit sich das nicht gegenseitig hochschaukelt. Desto höher die Frequenzen steigen und umso mehr Energie dann fließen muss, um so mehr muss man darauf achten, weil sonst die Signalstabilität auf den Boards davon beeinflusst wird. Grosse Dies brauchen eine gleichmäßige Energieverteilung. Das zeigte doch Turing und Ampere bereits auf. Die News ist reiner Clickbyte.
Soweit der Gast, der aus dem Igors Lab Forum ist, stammen von ihm Hinweise zur Problematik VRAM Underfill bei der 2080ti, die unter die Speicherchips verklebt werden um die Wärme abzuleiten und das Ganze mechanisch zu stabilisieren. Ganz interessant, weil Nvidia damit wohl Probleme hatte. Qualitätsprobleme bei diesen Underfill, die unter diese Chips kommen. Es lag also gar nicht an Nvidia selbst oder defekten Vram, sondern an so etwas Banalem wie ein Warmeleitpad.
Kopitis Gequatsche langweilt in letzter Zeit ziemlich, weil er sich schon mehrfach selbst widersprochen hat. Der scheint nur wenig Ahnung zu haben, als was arbeitet der da, als Hausmeister? Er bezweifelt ja selbst, dass dieses Board jemals so erscheint. Also wozu dazu eine Info veröffentlichen. Dummfug...um einen Shitstorm gegen Nvidia auszulösen? Was soll dieser Quatsch? Info der Info wegen um sich als Insider zu outen? Sowas tun echte Insider gar nicht!
Ne, so einfach geht das nicht. Was ist mit dem Idle-Stromverbrauch? Was ist mit dem Stromverbrauch unter Niedriglast?
Hä, Idle/Niedriglastverbräuche sind doch schon seit Generationen für Desktopverhältnisse irrelevant.
Was ist mit dem Netzteil? Eine 1080 konnte man locker mit einem 450W Netzteil paaren. Eine 4080 sicher nicht, da strützt schon beim Rechnerstart ab, muss man annehmen.
Muss man nicht, man sollte sogar das Gegenteil annehmen, es ist nicht zu erwarten, dass eine Karte beim Rechnerstart mehrere 100W braucht.
Also nein, einfach regeln geht nicht beliebieg.
Nicht beliebig, aber -50% sollten selbst dem grünsten Grünen reichen und das geht ohne Probleme.
Das ist imho eines der Probleme, denn "Powerlimit Regler" mag zwar helfen, ist aber keine passende Lösung.
Natürlich ist dieser eine Lösung.
Bedauerlich, dass die Hersteller das nicht selbst (besser und einfacher) in die Hand nehmen.
Die Hersteller machen selbst nichts anderes, nur dass der Wert des Reglers eben schon im BIOS hinterlegt wird.
Irgendwo werde ich schon eine Anleitung: "Undervolting for dummies" oder so ähnlich finden :D
Undervolting und Powerlimit anpassen sind aber komplett verschiedene Dinge.
Ersteres hat zwar ein größeres Einsparungspotiential, hat aber immer das Risiko Instabilitäten zu erzeugen. Besonders lustig sind dann jene welche die Supportforen diverser Games zuspammen weil es bei ihnen abstürzt, man selbst aber die Hardware OC oder UV betreibt.
Nur weil es in 98% der Fälle komplett stabil ist, bleiben immer noch 2% übrig in denen es nicht der Fall ist.
Powerlimit anpassen ist dagegen das selbe was der Hersteller machen würde wenn der die Karte eben mit geringerem Powerlimit ausliefern würde mit entsprechenden Reserven.
Die Hersteller verwenden ja nicht zum Spaß entsprechende Reserven die dann zu höheren verbräuchen führen, bzw. im Powerlimit sogar effektiv Leistung kosten, sondern weil sie eben entsprechende Sicherheiten haben wollen.
Und eines ist auch immer wichtig zu verstehen, man kann nicht die Stabilität eines Systems beweisen, man kann lediglich die Instabilität beweisen. Der fehlende Nachweis einer Instabilität bedeutet nicht automatisch Stabilität, es kann auch einfach heißen dass der Punkt an dem Instabilität auftritt noch nicht gefunden wurde.
Natürlich ist dieser eine Lösung.
Die Hersteller machen selbst nichts anderes, nur dass der Wert des Reglers eben schon im BIOS hinterlegt wird.* Klar, aber keine passende im Sinne von gut. Dann könnte man auch gleich sagen, 'nicht zocken' wäre eine Lösung.
* Und deshalb ist es gut? Nein.
Niemand bestreitet, dass auf Testboards mehr Stromanschlüsse sein können als auf Verkaufsversionen. Bekannteres Beispiel sind die mit zusätzlichem RAM ausgestatteten Entwickler-Konsolen.
Prinzipiell kann man den Tweet so interpretieren, dass mehrere 12VHPWR drauf sind, die aber gar keine 600+Peak liefern. Sondern z.B. 12Pin-Nvidia zu 450W. Wäre nicht gelogen, aber schon sehr grenzwertig formuliert.
Gerate bleibt es so oder so.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.