PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 17./18. September 2020


Leonidas
2020-09-19, 10:19:00
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1718-september-2020

Complicated
2020-09-19, 10:40:04
Ob dies auf einen direkten Chip-Ersatz hinausläuft (beispielsweise eine GeForce RTX 3080 mit GA103- anstatt GA102-Chip) oder ob nVidia dafür dann neue Verkaufsnamen auflegt, bleibt natürlich noch abzuwarten. Technisch muß der GA103-Chip somit irgendwo zwischen GA102 & GA104 stehen – mit eigentlich der Aufgabe, wenigstens die Hardware der GeForce RTX 3080 (68 SM @ 320 Bit GDDR6X) zu erreichen.
Ich kann mir vorstellen Nvidia hat hier etwas aus den Fertigungsproblemen bei Fermi gelernt, wo sie viel zu spät einen neuen verbesserten Chip als Ersatz hatten, der deutlich sparsamer war. Möglicherweise wird es einen schnellen Refresh geben, der dabei gleich optimiert wird, da bei den 8nm noch große Verbesserungen möglich sind.

Mr.Smith
2020-09-19, 10:47:22
entweder man plant rein für die rtx 3080 400(oder 450W mit etwas OC) ein (wegen den Lastspitzen.. Igor hat das gemessen.. Teils springt es von 450W auf 100W im Extremfall.. 400w wenn man die sinnvolleren 5-10)

https://i.ibb.co/x7WLSTL/Bildschirmfoto-2020-09-19-um-10-52-59.png (https://ibb.co/MCrSD0S)

oder man macht stellt, was auch für die effizienz viel sinnvoller ist, das powerlimit auf 270W (was erstmal ca. 4% Leistung kostet), versucht sich dann an UV und übertaktet den VRAM (wobei mir da der ungefähre Mehrverbrauch unklar ist).
Bei CB waren 30% VRAM OC drin, was zusammen mit dem UV die 4% ausgleichen sollte, selbst wenn man nur 15% VRam übertaktet.

Damit sollte auch ein gutes 550W Netzteil reichen.

Sonst mind. z.B. bequiet 650W straight power 11 (platinum). Je nach restlicher Hardware (HEDT, 10900k) auch 750W/850W.

Domme
2020-09-19, 11:18:48
oder man macht stellt, was auch für die effizienz viel sinnvoller ist, das powerlimit auf 270W (was erstmal ca. 4% Leistung kostet), versucht sich dann an UV und übertaktet den VRAM (wobei mir da der ungefähre Mehrverbrauch unklar ist).
Bei CB waren 30% VRAM OC drin, was zusammen mit dem UV die 4% ausgleichen sollte, selbst wenn man nur 15% VRam übertaktet.


Da muss man noch einige genauere Analysen abwarten. Nur Computerbase hat von den deutschen Redaktionen diese Werte erreicht, Igor geht sogar von Messfehlern oder CPU-Limits aus, weil bei ihm diese Ergebnisse nicht aufgetreten sind (im dortigen Forum getroffene Aussage, nicht im Artikel).
Evtl. hängt es auch sehr von der getesteten Anwendung ab, bei Golem hat es deutliche Unterschiede zwischen Borderlans 3 und Control gegeben, wenn man das Powerlimit reduziert, oder die FPS begrenzt.

iamthebear
2020-09-19, 11:40:36
Ich verstehe ehrlich gesagt den Aufwand nicht, den hier viele betreiben. Wer Geld für eine 700 Euro Grafikkarte hat, der sollte sich auch ein Netzteil leisten können, das stark genug ist. Muss ja kein 80+ Platin von irgendeiner Nobelmarke sein. Das ist ja eine Investition für die nächsten 10 Jahre.

RLZ
2020-09-19, 13:04:47
Gab es schon mal den Fall, dass eine Customkarte gleiche Leistung mit weniger Verbrauch hatte?

Leonidas
2020-09-19, 13:52:02
Im AMD-Bereich gab es das früher gar nicht einmal selten. Da war aber natürlich nur ein vergleichsweise scheußliches Referenzdesign zu schlagen.

Gast
2020-09-19, 15:35:57
Gab es schon mal den Fall, dass eine Customkarte gleiche Leistung mit weniger Verbrauch hatte?

Das geht vermutlich gar nicht. Base-Taktraten und Powerlimit sind ja soweit ich weiß vorgegeben.

Das einzige was man machen kann, ist eine bessere Kühlung zu bauen, niedrigere Temperaturen führen dann auch zu weniger Leistungsaufnahme.

Weniger Leistungsaufnahme ist mit der eben durch diese limitierte Ansteuerung der GPU unmöglich.

Im besten Fall schafft man eben mehr Leistung, da zur eingestellten Leistungsaufnahme ein höherer Takt möglich ist.

Gast
2020-09-19, 15:47:09
Im AMD-Bereich gab es das früher gar nicht einmal selten. Da war aber natürlich nur ein vergleichsweise scheußliches Referenzdesign zu schlagen.

Damals, als noch der Takt fix war, und die Leistungsaufnahme variabel war das möglich.

Jetzt mit fixer Leistungsaufnahme und variablem Takt geht das nicht mehr.

Leonidas
2020-09-19, 15:56:48
Korrekt argumentiert: Heute eigentlich kaum noch vorstellbar. Man müsste NVs Kühlung überbieten - und das dann ausnutzen für ein niedrigeres Power-Target. Einzige Alternative: Untervolting. Ich weiss aber nicht, ob NV überhaupt so was für AIBs zuläßt.

Zergra
2020-09-19, 17:32:47
Warum sollte ein AIB das Risiko eingehen das die Karte instabil läuft ?

Gast
2020-09-19, 20:42:35
Da schalten 750w Netzteile ab, keine Ahnung was das soll! Das hat nicht mal Vega geschafft. Da sieht man mal wovon Nvidia die letzten Jahre stark profitierte, von TSMC und nicht von ihrem super sparsamen Design.

Nicht normal sowas, ich sitze in der Dachwohung und muss zusätzlich ne 3,2kwh Klima laufen lassen. Was soll dieser Quatsch. Mit einem Wasserkühler inklusive Loop liegt man wieder bei 1000$.

Wer lässt zu das die GPU Hersteller sowas verkaufen?

Gast
2020-09-19, 23:33:17
Einzige Alternative: Untervolting. Ich weiss aber nicht, ob NV überhaupt so was für AIBs zuläßt.

Auch das bringt nichts, defakto ist bei Nvidia "übertakten" seit einigen Generation nichts anderes als undervolting.

Beim Übertakten wird auf der DVFS-Kurve für jeden Spannungspunkt der Takt um X angehoben (bzw. optional sogar für jeden Spannungspunkt individuell).

Defakto handelt es sich also um undervolting, da damit effektiv einfach der selbe Takt mit niedrigerer Spannung läuft.

Das Ergebnis ist in jedem Fall, dass bei limitierenden Powertarget der Verbrauch gleich bleibt und die Taktfrequenz ansteigt.

Die einzige Möglichkeit den Verbrauch zu senken, wäre das Powertarget zu senken.
Achja die andere Möglichkeit wäre einen so schlechten Kühler zu verbauen, dass er gar nicht die 320W abführen kann und die Karte schon vorher ins Temperaturlimit läuft.

Wobei ehrlicherweise jeder das selbst machen kann wenn er möchte, es besteht da ja nicht wirklich ein Anlass, dass das schon vom Kartenhersteller gemacht wird.

Gast
2020-09-20, 01:15:50
Wie bei nvidia möchte man Boardpartnern kein Undervolting erlauben?
Die FE Karten kann man doch nur nicht undervolten weil der Afterburner und ähnlicher Software noch die Eigenschaft dazu fehlt.

Finde den Gedanken auch komisch. Dann läuft die Karte durch undervolting halt instabil und stürzt ab. War doch die ganzen Jahre zuvor auch der Fall.
Ist dann auf den Benutzer zuruckzuführen, nicht auf die Hersteller.
Also kein Problem.

Leonidas
2020-09-20, 05:11:39
Wie bei nvidia möchte man Boardpartnern kein Undervolting erlauben?


DAS hat keiner behauptet.

Ich habe rein in Frage gestellt, ob NV so etwas im default-Zustand erlaubt.

Sardaukar.nsn
2020-09-20, 08:33:04
@Leonidas: Danke für die Tabelle mit den Power-Limits. Von allem was ich bisher gesehen habe, gefällt mir die Asus TUF noch am besten. Bleibt abzuwarten wie sich die all-in-Modelle wie Strix
oder FTW3 mit ihren 400 bzw. 420 Watt Power Limits absetzen können. Leider habe ich dazu noch keine Reviews gesehen.

Alleine Gamer Nexus hatte schon eine EVGA FTW3 im Livestream.
https://i.imgur.com/AGD8sWG.jpg

Für Luftgekühlte Karten sind das ja schon ganz neue Dimensionen. Alleine die 10GB VRAM (MVDDC Power Draw) mit 95 Watt (!) Da möchte ich an die 3090 gar nicht denken.

MasterElwood
2020-09-20, 12:06:58
"Ob man nVidia hingegen einen Paperlaunch anhängen kann, bleibt eine unbewiesene (wie auch unbeweisbare) Anschuldigung"
----------------------------------------------------------------------------------------------------------------------------------------------

Gamersnexus haben eindeutig klargestellt dass es KEIN Paperlaunch war.

Sie haben mit mehreren Händlern gesprochen - und alle sagten dasselbe: Es gab Inventar, sogar MEHR als bei vorherigen Launches - es war einfach alles sofort weg.

Tigerfox
2020-09-20, 20:40:23
Ist es eigentlich sicher, das die 84 SMs in 7 GPCs der Vollausbau des GA102 sind?

Es ist nämlich so, dass der GA104 erstaunlich exakt dem TU104 entspricht, nur mit den Ampere-bedingten Änderungen. Beide haben 48 SMs in 6 GPC, die Anzahl der IN32-Einheiten stimmt überein, nur die der FP32-Einheiten ist verdoppelt, TMUs sind auch identisch, RT-Cores eben halbiert und ROPs nun 16 Pro GPC statt 8 Pro SI-Einheit.
Die kolportierten Daten der 3070 entsprechen daher auch einem Gegenstück zur alten RTX 2080, der Vollausbau der 2080S, die 3070Ti könnte also eine ähnliche Rolle einnehmen, dann hoffentlich mit 16Gbps GDDR6 oder 19Gbps GDDR6X.

Der GA102 auf der 3080 entspricht von den Daten her einem Gegenstück zur 2080Ti mit Ampere-bedingten Änderungen. Gut möglich also, dass der GA103 mit 72 SMs ein Nachfolger des TU102 wird um auf der ebenfalls gerüchteweise kommenden 3080S noch mehr Vorteile als nur 20GB Speicher zu bringen.

Wenn aber die 84SM auf dem GA102 absolutes Maximum sind, glaube ich eher an 68SM auf dem GA103, sonst wird der Abstand noch kleiner, wenn es keine 3090S geben kann.

Gast
2020-09-20, 21:30:59
Ist es eigentlich sicher, das die 84 SMs in 7 GPCs der Vollausbau des GA102 sind?


Schau dir die DIE shots an und zähle.

Das was über den DIE-Shots steht ist zwar oft sehr kreativ, aber das was dahinter steht entspricht doch üblicherweise der Realität.

Leonidas
2020-09-21, 06:10:37
Gamersnexus haben eindeutig klargestellt dass es KEIN Paperlaunch war.

Sie haben mit mehreren Händlern gesprochen - und alle sagten dasselbe: Es gab Inventar, sogar MEHR als bei vorherigen Launches - es war einfach alles sofort weg.


Auf etwas ähnliches wollte ich ja hinaus. Habe es nur vorsichtiger formuliert.





Ist es eigentlich sicher, das die 84 SMs in 7 GPCs der Vollausbau des GA102 sind?


NV-bestätigt sicher.

Dr.Doom
2020-09-21, 08:42:14
Woher stammen die Preise in der Tabelle? Alles im unteren, mittleren 700€-Bereich und bei Geizhals stehen achten und neunen vorne... :freak:

Leonidas
2020-09-21, 08:55:51
Woher stammen die Preise in der Tabelle? Alles im unteren, mittleren 700€-Bereich und bei Geizhals stehen achten und neunen vorne... :freak:


Listenpreise. Die derzeit nicht lieferbaren Preise sind zwecklos zu vergleichen.

Tigerfox
2020-09-21, 11:33:53
Ok, hatte bei den ganzen Tests irgendwie das Blockschaltbild (kein DIE-Shot) übersehen. Wobei, gab es nicht auch Fälle, wo die sich im Nachhinein als nicht 100% korrekt herausstellten?

Dann gilt aber umso mehr, was ich gesagt habe. Schon jetzt, mit den vor Release kolportierten Ergebnissen, scheint der Abstand zwischen 3070, 3080 und 3090 erstaunlich gering.
Bei der 3070 mag das daran liegen, dass sie zwar deutlich weniger SMs, TMUs und Speicherbandbreite hat (3080 hat ca. 60% mehr SMs, 48% mehr TMUs und 70% mehr Bandbreite), aber genausoviele Raster Engines und ROPs wie die 3080 bei sogar minimal höherem Takt.
Bei der der 3080 mag das daran liegen, dass die 3090 nur 20% mehr SMs/TMUs, 17% mehr ROPs, und 23% mehr Speicherbandbreite, bei sogar einen etwas geringerem Takt hat. Da fragt man sich, wie die 3090 sich überhaupt groß absetzen will.

Wenn nun ein GA103 nicht 68 SM, sondern 72 hätte, was eben zur Parallelität zum TU102 passen würde und eine 3080S ermöglichen würde, für die es schon Belege gibt (z.B. Gigabyte Modellbezeichnungen) und für die es sonst kaum Möglichkeiten gäbe, sich von der ebenfalls belegten 3080 20GB abzuheben, wären die Abstände noch kleiner.
Die 3070S/Ti kann eben noch 2 SM zusätzlich kriegen, die 3090S/Ti auch, erstere kann aber auch noch auf 16Gbps GDDR6 oder 19,5-21 Gbps GDDR6X wechseln, was 3080S und 3090S nicht können. Eine 3070Ti wäre also noch wesentlich näher an der 3080, wenn der GA103 nur 68 SM hat, eine 3080S mit 72SM wäre noch etwas näher an der 3090.

Bei Turing war ja auch der TU106 im Prinzip ein halber TU102 mit gleichem Aufbau der GPC und anderem Aufbau als der TU104. Das wäre Hier dann zwar auch möglich, dass der GA106 wieder 36 SM hat, aber da für die RTX 3060 momentan 30 SM und für die 3060Ti ein GA104 mit 38 SM vermutet werden, scheint es unwahrscheinlich, dass NV bei 3060 so viele SM verschwendet und für die Ti einen nur minimal besseren Verschnitt des größeren Chips nimmt. Dass ein GA106 ein halber GA102 wird halte ich für ausgeschlossen, er hätte dann mit 42 SM nur geringfügig weniger als ein GA104.

Vielleicht spinne ich auch einfach und es ist Zufall, der der GA104 so exakt dem TU104 entspricht und die 3080 der 2080Ti und die anderen Chips müssen keine Ähnlichkeit zu ihren Vorgängern aufweisen. Wobei die kleineren Chips immer in einem relativ direkten Verhältnis von den größeren abgeleitet waren. Wie gesagt war der TU106, was die GPC anbelangt, ein halber TU102, dier TU116 ein halber TU104. Der GP104 war 2/3 des GP102, der GP106 1/3 (oder 1/2 GP104), ebenso war es bei GM200, 204 und 206. Zuletzt unregelmäßig war das Verhältnis bei Kepler. Einen unterschiedlichen Aufbau der GPC zwischen verschiedenen GPUs haben wir erst seit Turing, vorher zuletzt bei Fermi.

Es wird auf jeden Fall spannend und gleichzeitig kann man viel falsch machen, wenn es bezüglich der Ti-/Super-Modelle weiter nur solche Gerüchte gibt. Wenn Sie in den nächsten Monaten kommen und tatsächlich nicht nur doppelten Speicher, sondern auch ein paar SMs mehr und schnelleren Speicher haben, dürften sie je nach Aufpreis eine deutlich bessere Option als die ersten Modelle sein. Selbst eine 3080 mit deutlich kleinerem GA103, egal ob 68SM oder mehr, dürfte deutlich effizienter sein und vielleicht auch mehr Takt vertragen. Aber wenn sie erst in einem Jahr als Refresh kommen, kann mancher natürlich nicht so lange warten oder übt zulange verzicht.

Ich z.B. hatte mit dem Gedanken gespielt, meine erst im März für ~450€ gekaufe EVGA 2070 XC Ultra wieder zu verkaufen, um mit möglichst geringem Verlust dann auf etwas gleichwertiges von Nvidia oder hoffentlich AMD umzusteigen. Wenn es nun aber bis Oktober dauert, bis man überhaupt erstmal eine 3070 und Big Navi zu Gesicht bekommt, noch länger, bis Custom-Modelle breit verfügbar sind und dann nochmal, bis eine 3070Ti verfügbar ist, muss ich zulange mit meiner GTX 670 2GB leben, v.a. auch die Herbstferien durch. Wenn ich aber die 2070 solange noch behalte, krieg ich vermutlich deutlich weniger dafür.

Leonidas
2020-09-21, 12:17:20
Ein GA103 mit 72 SM ist locker denkbar. Die alte Fassung mit 60 SM wird es nun sicher nicht mehr werden.

Tigerfox
2020-09-21, 14:14:12
Ah, ich Depp, 72 SM sind nicht nur denkbar, sondern ein Muss:
Die 68 SM auf der 3080 kommen ja nur dadurch zustande, dass in zwei der sechs aktiven GPC je zwei SM deaktiviert sind. Ein GA103, der mindestens 68 SM bereitstellt, braucht dazu mindestens 6 GPC und muss folglich 72 SM bieten.

Leonidas
2020-09-21, 14:22:53
Richtig. Hätte ich selber draufkommen können. 6 GPC sind obligatorisch, der Rest ergibt sich von alleine.