PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 12. März 2020


Leonidas
2020-03-13, 08:20:44
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-12-maerz-2020

Mr.Smith
2020-03-13, 10:41:02
immer noch wirreres rätsel raten ..
dazu diese durchaus dubios zu betrachtende vram prognosen

hört sich äußerst unsinnig an.

ok, die 12gb könnten sein, wenn es sich um 3080 handelt, hätte aber auch mit 12gb bei der 3070 gerechnet.. und warum genau fehlt die 3080ti (mit wohl 16gb).
Ich geh einfach von +50-70%, damit kann man nicht viel Falsch liegen und Rest einfach mal abwarten.

Rabiata
2020-03-13, 10:51:36
immer noch wirreres rätsel raten ..
dazu diese durchaus dubios zu betrachtende vram prognosen

hört sich äußerst unsinnig an.
Es ergibt Sinn, wenn die Breite des Speicherinterfaces ein Vielfaches von 64bit ist und jeweils 2GB VRAM "an 64bit hängen".
Die absolute Speichermenge erscheint mir jedoch etwas knapp bemessen für zukünftige High End-Karten. Außer Nvidia spekuliert jetzt schon darauf, bei steigendem Speicherbedarf nochmal eine GPU an jeden Kunden zu verkaufen :wink:.

matty2580
2020-03-13, 11:02:02
Unterm Strich ist gar nichts bekannt zum Nachfolger von Turing.

Schon wie in den Generationen davor wird es erst kurz vor Release erste Infos geben.

Und was damals zu Turing spekuliert wurde, hatte überhaupt nichts mit den echten Spezifikationen mehr zu tuen.

Nvidia, aber auch AMD, sollten aufpassen dass sich nicht zu viele Spieler den Konsolen zuwenden, weil eine neue GPU so viel kostet wie eine komplette neue Konsole, die auch technisch sehr nahe an einem Mittelklasse-PC sind, und preislich sowieso viel günstiger werden.

Mr.Smith
2020-03-13, 11:55:25
Es ergibt Sinn, wenn die Breite des Speicherinterfaces ein Vielfaches von 64bit ist und jeweils 2GB VRAM "an 64bit hängen".
Die absolute Speichermenge erscheint mir jedoch etwas knapp bemessen für zukünftige High End-Karten. ...


wenn ich a annehme und sich daraus b ergibt, dann macht b rein aus Logik Sinn, aber woher kommt a :confused:
-> Deine Erklärung ist total nichtssagen.

und ja, bisher ist man von 12GB für ne 3070 und 3080 ausgegangen sowie 16GB für ne 3080ti.
10gb für 3070, 12gb 3080 und 16gb 3080ti wäre durch den Artikel immer noch drin. Könnte bei zweiter Betrachtung auch so kommen.
10GB VRam könnten durchaus ne Zeit reichen.

Leonidas
2020-03-13, 12:44:19
Es wäre allerdings das erste mal, das man in einem vollen Chip ein krummes Interface á 320 Bit hätte. So was gibt es gewöhnlich nur bei Salvage-Versionen. Aber dennoch nicht undenkbar.

Techmage82
2020-03-13, 12:44:35
Gibt es eigentlich schon Spiele welche 8GB Speicher komplett nutzen (ohne es künstlich zu erzwingen)? Ich spiele 1440p und bis jetzt habe ich es noch nie geschafft den Speicher voll zu bekommen. Ist das ein reines Problem für 4k Auflösungen?

Ex3cut3r
2020-03-13, 13:59:13
Gibt es eigentlich schon Spiele welche 8GB Speicher komplett nutzen (ohne es künstlich zu erzwingen)? Ich spiele 1440p und bis jetzt habe ich es noch nie geschafft den Speicher voll zu bekommen. Ist das ein reines Problem für 4k Auflösungen?

Rise of the Tomb Raider, Doom 2016 mit Nightmare Texturen, Wolfenstein 2 und Young Blood. Schon in FHD.
Ansonsten zitiere ich mich mal selbst aus dem Ampere Speku Thread.

Mit 8GB in der RTX 3080/3070 brauchen die gar nicht kommen, das Ding wird ein Ladenhüter, lächerlich seit 2016 mit der 1070/1080 wäre keine Weiterentwicklung da, und das obwohl mit RT der VRAM Bedarf steigt und neue Konsolen mit mehr Speicher kommen auch noch. 16GB müssen einfach Standard sein. Und davon gehe ich auch aus.

Soll es eben von mir aus wieder teurer werden, eine 8GB Karte kaufe ich zum dritten mal in Folge sicherlich nicht.
Kriegt eben AMD mein Geld, da werden 16GB sicherlich Standard werden.

Allerdings rechne mit neunen GPUs erst 2021 vlt. sogar 2022 je nach dem Corona sich noch entwickelt, ich gehe davon aus, dass sich die Weltbevölkerung zu 70% damit anstecken wird.

Rabiata
2020-03-13, 14:18:40
wenn ich a annehme und sich daraus b ergibt, dann macht b rein aus Logik Sinn, aber woher kommt a :confused:
-> Deine Erklärung ist total nichtssagen.

Es wäre allerdings das erste mal, das man in einem vollen Chip ein krummes Interface á 320 Bit hätte. So was gibt es gewöhnlich nur bei Salvage-Versionen. Aber dennoch nicht undenkbar.
"Krumme" Speicherinterfaces gab es auch schon in der Vergangenheit. Zum Beispiel die Geforce GTX 1060 auf dem GP-106 Die, mit 3 x 64 Bit = 192 Bit. Statt dessen 5 x 64 Bit = 320 Bit zu nehmen ist genauso plausibel.

Oder es könnte eine ziemlich brutal beschnittene Salvage-Version sein, mit GA 103 als irreführendem Codenamen. In Wikipedia sehe ich als extremstes Beispiel

GeForce RTX 2060 auf TU-104 Die, mit 1920 Shader-Einheiten, 192 bit Speicherinterface, vs.
GeForce RTX 2080 Super auf TU-104 Die, mit 3072 Shader-Einheiten, 256 bit Speicherinterface.

Da wurde das TU-104 Die eben mal um 37,5% seiner Shader und 25% des Speicherinterfaces erleichtert.
Bei AMD haben wir die RX 5600 vs. RX 5700, auch wenn da der Unterschied bei den Shadereinheiten kleiner ist.

Iscaran
2020-03-13, 15:36:13
Gibt es denn Anhaltspunkte bzgl. der Die-Size ?

Evtl. kann man so ein bisschen mehr Logik in die ganze Kette bringen.

Die aktuelle 2080 Ti hat ja 754 mm2. Der Shrink auf "8nm", bringt wohl nur marginal was ein hinsichtlich Die-Size bzw. Packdichte.

Entsprechend gering würden bei gleicher maximal Die-Size ja auch die Änderungen ausfallen.
Geht man diesen Parametern aus:
https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/

Wird sich eine Vergrößerung der CUs um deutlich mehr als 10% vermutlich nicht wirklich realisieren lassen, so denn die Chipgröße nicht auc deutlich wachsen sollte.
Was bei 754 mm2 Chipgröße für den 2080 Ti chip ja schon nicht allzuviel Raum nach oben lässt.

Daher erscheint mit die Anhebung um einen 12er CU-Cluster (von 6x12=72 auf 7x12=84) als durchaus möglich.

Technisch bleibt man beim sehr billigen DUV-Prozess und kann daher diese Riesenchips "leicht" fertigen. Vermutlich wäre der Sprung auf 7nm zwar besser, aber ggf. gibt es da eben Probleme einen so großen Chip dann dennoch zu fertigen.
Denn nur der Shrink eines 2080 Ti von 10 nm auf 7 nm würde immer noch einen Chip in der Größenordnung von 500 mm2 ergeben.

Wenn man nun aber +50% mehr Einheiten draufpacken möchte, wäre man wieder bei einer Gesamtchipgröße von ~750 mm^2 oder mehr. Was evtl. einfach Fertigungstechnisch mit EUV noch schlechte Yields gibt.

Also geht nVidia eben den DUV-Weg, auch weil man Performancemäßig ja genug Puffer hat - auch RDNA2 wird bestenfalls zu einer 3080 Ti mit 84 CUs aufschließen können, aber sicherlich nicht weit voraus sein können.

Tigerfox
2020-03-13, 18:46:46
Die Daten halte ich für absoluten Blödsinn. Die spukten schon vor zwei Monaten genau so durch die Gegend und waren da genauso unsinnig.

Erstmal halte ich es schon für abwegig, dass ein GA104 nur genausoviele Shader wie ein TU104 haben soll. Das gab es nämlich bei Nvidia noch nie. Selbst bei gleichem Fertigungsprozeß hat man es hingekriegt, durch Umstellung des SMX-Aufbaus von Kepler zu Turing mehr Shader zu bieten (seit Kepler sind beim xxx04er-Chip immer 512 Shader dazugekommen). Wenn man das schon ohne neuen Fertigungsprozeß hinkriegt, sollte man es mit erst recht, v.a. angesichts der im HPC-Bereich anscheinend massiv erhöhten Shaderzahl.

Der GA102 entspricht einfach dem 1,75-Fachen des GA104, was bisher seit Maxwell immer nur das 1,5-Fache war. Hier hat man aber einfach die ebenfalls seit Maxwell stets dazugekommenen 768 Shader beim Topmodell genommen.

Dann glaube ich auch nicht an einen GA103 zwischen GA104 und 102, der mit nur 768 Shadern mehr als der GA104, also nur 1/3 der Distanz zum GA102, und nur 64Bit beim SI ein viel zu kleiner Zwischenschritt wäre und v.a. beim Speicher eine weitere unnötige Zwischenstufe schaffen würde.

Ein GA106 mit exakt den Daten, die der relativ stark kastrierte TU106 auf der RTX 2060 hat, klingt auch nicht plausibel. WENN es drei Chips darüber gäbe, dann wäre das vielleicht noch ok, aber eine RTX 3060 kann nicht die gleichen Daten wie die RTX 2060 haben, also müsste der GA106 noch darunter angesiedelt sein.

Alles sehr unplausibel.

@Rabiata: Nur das die RTX 2060 regulär auf dem TU106 basiert. Immernoch 384 von 2304 Shadern on 64 von 256 Bit weg, also 16,7% und 25%, aber das entspricht exakt dem Verhältnis von 2070S zu 2080S mit 512 Shadern weniger. Da war die GTX 1070 ggü 1080 stärker beschnitten.
Nur die RTX 2060 KO von EVGA hatte überraschend einen TU104.
Ähnlich war es mit der GTX 1060 GDDR5X, die am Ende der Pascal-Zeit oder schon zu Turing-Zeiten erschien, da war es wegen GDDR5X auch nötig, einen GP104 auf GP106-Maß zu beschneiden, also eben mal nur 50% der Shader und 25% des SI.

Booby
2020-03-13, 19:41:45
Ohh nein, was wird denn nur unser Forentroll MiamiNice machen?
Ging er doch von mindestens 75% aus und dununzierte jeden, der eine andere Meinung hatte.

Am Ende wird die 3080ti 5-10% schneller als BigNavi sein.

Gast
2020-03-13, 20:43:51
Ohh nein, was wird denn nur unser Forentroll MiamiNice machen?
Ging er doch von mindestens 75% aus und dununzierte jeden, der eine andere Meinung hatte.

Am Ende wird die 3080ti 5-10% schneller als BigNavi sein.

Warum ist Miamy ein Troll?
Nur weil er nicht AMD anbetet? Ich halte das nicht für vertretbar... und für getrollt.

Leonidas
2020-03-14, 04:45:18
"Krumme" Speicherinterfaces gab es auch schon in der Vergangenheit. Zum Beispiel die Geforce GTX 1060 auf dem GP-106 Die, mit 3 x 64 Bit = 192 Bit. Statt dessen 5 x 64 Bit = 320 Bit zu nehmen ist genauso plausibel.


Ok, ich habe 192 nicht als "krumm" eingeordnet, weil eben vergleichsweise üblich. Nur 320 Bit gab es Chip-seitig noch nie. Was nicht bedeutet, das es unmöglich wäre.

crux2005
2020-03-14, 04:53:14
8800 GTS hatte afaik 320bit

Gibt es eigentlich schon Spiele welche 8GB Speicher komplett nutzen (ohne es künstlich zu erzwingen)?

Hängt aber davon ab was du unter "künstlich erzwingen" meinst.

Spontan fallen mir nur die letzten 2 Wolfenstein Spiele ein.

seba86
2020-03-14, 08:46:36
Unter künstlich erzwingen meint er sicher, dass sich das Spiel soviel VRAM wie möglich precacht und es vollstopft, ohne es aber wirklich zu nutzen.

Lehdro
2020-03-14, 11:44:54
8800 GTS hatte afaik 320bit

Nö, die 8800GT & 8800GTS mit dem G92 Chip hatten beide 256 Bit - mehr konnte die GPU auch nicht.
Die 8800 GTS 320 & 8800 GTS 640 hatten 320 Bit, weil ein 64 Bit Slice vom verwendeten 384 Bit Bus des G80 deaktiviert wurde.

Es wäre also wirklich ein Novum wenn ein Chip 320 Bit Speicherbus als Vollausbau hätte - unwahrscheinlich ist das, aber nicht komplett unmöglich.

crux2005
2020-03-15, 17:58:29
Nö, die 8800GT & 8800GTS mit dem G92 Chip hatten beide 256 Bit - mehr konnte die GPU auch nicht.
Die 8800 GTS 320 & 8800 GTS 640 hatten 320 Bit, weil ein 64 Bit Slice vom verwendeten 384 Bit Bus des G80 deaktiviert wurde.

Es wäre also wirklich ein Novum wenn ein Chip 320 Bit Speicherbus als Vollausbau hätte - unwahrscheinlich ist das, aber nicht komplett unmöglich.

8800 GTS mit G80 natürlich.

Dachte es ging darum ob es überhaupt schon Grafikkarten mit 320bit gab.

Leonidas
2020-03-16, 03:55:27
Das ist nicht die Frage. Die Ausgangslage drehte sich aber um Grafikchips (GA103), nicht Grafikkarten. Und da gab es so krumme Interfaces tatsächlich noch nie.

Gast Ritis
2020-03-17, 16:35:23
Gibt es eigentlich schon Spiele welche 8GB Speicher komplett nutzen (ohne es künstlich zu erzwingen)? Ich spiele 1440p und bis jetzt habe ich es noch nie geschafft den Speicher voll zu bekommen. Ist das ein reines Problem für 4k Auflösungen?
Ich würde sagen das hat mit den Konsolen zu tun. Die haben für VRAM ja nur 8GB abzüglich der Daten für OS und Gamecode übrig.
Das kann man in der PC-Umsetzung nicht beliebig aufblasen, selbst wenn man sich mühe gibt, es soll ja das gleiche Spiel bleiben. Mit photorealistischen Texturen für next-gen kann man das aber beliebig hoch treiben. Wichtig ist nur wo PS5 und Xbox Series die Schnittmengen bilden.
Aber bis zu den Games die das nutzen ist noch locker ein Jahr hin...