PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia bringt Anfang 2022 eine GeForce RTX 30 Mobile "SUPER" Serie


Leonidas
2021-07-08, 05:21:14
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-nvidia-bringt-anfang-2022-eine-geforce-rtx-30-mobile-super-serie

GerryB
2021-07-08, 07:18:41
Ideal wäre wohl ein GA103S 320bit mit GDDR6 ohne X.

Verstehe net, warum bei Mobil der stromfressende GDDR6X genutzt wird.(mit aufwendigem Controller)
Wenn die GPU eh niedriger taktet, sollte doch weniger Bandbreite reichen und das PL schonen,
von der Kühlung ganz zu schweigen.
Lieber mal 1-2 maxFps weniger und dafür bessere Durchschnittswerte ohne Throtteln.

Gast
2021-07-08, 07:54:07
Ist der GA103S denn im Mobile überhaupt realistisch? Schließlich muss man ja auch den Platz (größere GPU, mehr Speicher und vermutlich aufwändigeres PCB sowie VRM) und die Kühlleistung haben. Auf 150W getrimmt, wie viel würde man denn da zusätzlich noch heraus holen? Ist das den Aufwand denn überhaupt wert? Oder will man hier einfach mehr Abstand von AMD haben? Kontern die dann mit Navi21 XL im Notebook?

Leonidas
2021-07-08, 08:13:16
Ob NV den GDDR6X im Mobile benutzt, ist unsicher - das ist ja nur die Chip-Spezifikation. Man könnte im Mobile auch bei GDDR6 bleiben. Die Spec ist ja auch deswegen so, weil man damit den GA103S auch für die GeForce RTX 3080 verwenden kann (reiner Chip-Ersatz, keine neue Grafikkarte).

Gast
2021-07-08, 08:33:53
Verstehe net, warum bei Mobil der stromfressende GDDR6X genutzt wird.(mit aufwendigem Controller)


GDDR6X ist bei gleicher Bandbreite stromsparender als GDDR6, das ist auch der einzige Grund für das X ansonsten könnte man ja einfach GDDR6 hochprügeln, und der aufwändige Controller ist zumindest bei den bisherigen GPUs eh vorhanden.

Lehdro
2021-07-08, 14:13:56
GDDR6X ist bei gleicher Bandbreite stromsparender als GDDR6, das ist auch der einzige Grund für das X ansonsten könnte man ja einfach GDDR6 hochprügeln, und der aufwändige Controller ist zumindest bei den bisherigen GPUs eh vorhanden.
Ist dem denn wirklich so? Warum benutzt dann NV im Mobile nicht GDDR6X um da ein paar Watt einzusparen?

Bis jetzt gibt es im Mobile nur GDDR6 und das wird sicher auch so bleiben, zumindest wenn man auf Effizienz wert legt. GDDR6X im Mobile ist eine Schnapsidee.

Gast
2021-07-08, 16:01:26
Ist dem denn wirklich so?


Ja
https://images.anandtech.com/doci/16057/GDDR6X_Power_2b.png


Warum benutzt dann NV im Mobile nicht GDDR6X um da ein paar Watt einzusparen?


Vermutlich weil es nicht es nicht die einzige Entscheidungsgrundlage ist.
GDDR6X stellt auch höhere Anforderungen an das PCB, was dadurch teurer wird.

Leonidas
2021-07-08, 16:16:00
Ich muß allerdings sagen, dass - wenn ich ein Speicherhersteller wäre - ich in so einer Folie immer nur den Verbrauch des Speicherchips erfassen würde, nicht den das Interfaces. Das ist ja nicht meine Sache. Ergo könnte diese Folie - rein potentiell !!! - sogar mißinformierend sein, wenn beispielsweise das Speicherinterface unter GDDR6X deutlich mehr verbraucht. Was der Speicherchip selber verbraucht und die Differenzen darin spielen im übrigen für die Gesamtrechnung kaum eine Rolle.

Gast
2021-07-08, 22:19:11
Ich muß allerdings sagen, dass - wenn ich ein Speicherhersteller wäre - ich in so einer Folie immer nur den Verbrauch des Speicherchips erfassen würde, nicht den das Interfaces.


Die Folie zeigt den Verbrauch pro transferiertem Bit kann also per Definition schon nicht der plumpe Verbrauch der Speicherchips sein.


Das ist ja nicht meine Sache. Ergo könnte diese Folie - rein potentiell !!! - sogar mißinformierend sein, wenn beispielsweise das Speicherinterface unter GDDR6X deutlich mehr verbraucht. Was der Speicherchip selber verbraucht und die Differenzen darin spielen im übrigen für die Gesamtrechnung kaum eine Rolle.

Das wäre ziemlich dämlich, dann würde nämlich GDDR6X schlechter dastehen.

Die reinen Speicherchips selbst brauchen mit GDDR6X nämlich mehr als bei GDDR6, die Logik darin ist nämlich aufwändiger, der DRAM selbst ist ja weitestgehend identisch, unterschiedlich ist nur die Übertragung weshalb du Logik brauchst um die 2bit pro Signal wieder auf 1bit pro Speicherzelle runterzubrechen und die braucht nun mal Strom.
Die relative Ersparnis kommt vom Speicherinterface, da dieses bei gleicher Datenrate nur halb so hoch wie mit GDDR6 taktet.

Leonidas
2021-07-09, 07:51:18
Ok, hoffen wir es, dass es so ist. Eine klare Bestätigung wäre aber besser als eine Annahme.

Gast
2021-07-15, 17:27:23
Egal, wie es gemessen wurde, muss man die Grafik schon pingelig lesen. Man bekommt nicht beides gleichzeitig. Nutzt man den Bandbreitzuwachs, steigt der absolute Stromverbrauch.