PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Dampf
2020-04-26, 22:57:29
Hier noch ein Vergleich zwischen DLSS 960p, DLSS 576p, 1080p upscaled und 1440p nativ.

https://imgsli.com/MTUxNTk/2/3

Echt krass zu sehen, wie viel DLSS mit so wenig Pixeln macht :D Abgesehen von den Sharpening Artefakten sieht 576p DLSS deutlich besser aus als 1080p upscaled und kommt 1440p nativ bedrohlich nahe!

Platos
2020-04-26, 23:07:08
An den Treppenkanten sieht 960p dann doch recht deutlich schlechter aus, wie 1440p nativ. Dafür sieht der Boden vorne deutlich schärfer aus. Also bei Kanten scheint controll schon noch etwas Probleme zu haben. Das ist ja auch genau das, was man bei digital foundry im Video sehen konnte.

Aber ertaunlich ist schon, dass der rote Boden vorne schärfer aussieht, wie in einer nativen auflösung, die auch noch höher ist (und das dann noch bei fast doppelten FPS)

Dampf
2020-04-26, 23:24:16
An den Treppenkanten sieht 960p dann doch recht deutlich schlechter aus, wie 1440p nativ. Dafür sieht der Boden vorne deutlich schärfer aus. Also bei Kanten scheint controll schon noch etwas Probleme zu haben. Das ist ja auch genau das, was man bei digital foundry im Video sehen konnte.

Aber ertaunlich ist schon, dass der rote Boden vorne schärfer aussieht, wie in einer nativen auflösung, die auch noch höher ist (und das dann noch bei fast doppelten FPS)

Das ist wahr, diese Treppenkanten mag DLSS nicht, so wie auch die Vegetation. Keine Ahnung was das ist, ich tippe auf Sharpening Artefakte, da das in Control schon ziemlich hoch gedreht ist.

Interessant wäre zu prüfen, ob das auch in anderen DLSS 2.0 Titeln auftritt oder ob das ein Control spezifisches Problem ist. Als ich Wolfenstein gespielt hab, ist mir das nicht aufgefallen aber meine Erinnerung könnte mich auch täuschen!

Edit: https://imgsli.com/MTUxNjE

Also neben der besseren Schärfe, der FPS Verdopplung und etwas höherem Detailgrad bei DLSS Balanced sehe ich da keine Unterschiede. Scheint so, als wären diese Artefakte Control-Exklusiv.

P.S: fast so gut wie DLSS find ich ja dieses imgsli, endlich kann man mal vernünftig vergleichen, sogar in Vollbild und mit Zoom! War mir vorher unbekannt :D

w0mbat
2020-04-27, 00:41:51
Ich finde auch die Gitter sehen mit DLSS viel zu unruhig aus, aber man muss schon sagen, dass sie es in Control sehr gut hinbekommen haben.

TheAntitheist
2020-04-27, 01:17:53
An den Treppenkanten sieht 960p dann doch recht deutlich schlechter aus, wie 1440p nativ. Dafür sieht der Boden vorne deutlich schärfer aus. Also bei Kanten scheint controll schon noch etwas Probleme zu haben. Das ist ja auch genau das, was man bei digital foundry im Video sehen konnte.

Aber ertaunlich ist schon, dass der rote Boden vorne schärfer aussieht, wie in einer nativen auflösung, die auch noch höher ist (und das dann noch bei fast doppelten FPS)
wie bedeutet, es sieht genauso aus... was denn nun? besser wie funktioniert einfach nicht.

SKYNET
2020-04-27, 01:26:30
An den Treppenkanten sieht 960p dann doch recht deutlich schlechter aus, wie 1440p nativ. Dafür sieht der Boden vorne deutlich schärfer aus. Also bei Kanten scheint controll schon noch etwas Probleme zu haben. Das ist ja auch genau das, was man bei digital foundry im Video sehen konnte.

Aber ertaunlich ist schon, dass der rote Boden vorne schärfer aussieht, wie in einer nativen auflösung, die auch noch höher ist (und das dann noch bei fast doppelten FPS)


überschärft...

Platos
2020-04-27, 01:34:14
Das ist wahr, diese Treppenkanten mag DLSS nicht, so wie auch die Vegetation. Keine Ahnung was das ist, ich tippe auf Sharpening Artefakte, da das in Control schon ziemlich hoch gedreht ist.

Interessant wäre zu prüfen, ob das auch in anderen DLSS 2.0 Titeln auftritt oder ob das ein Control spezifisches Problem ist. Als ich Wolfenstein gespielt hab, ist mir das nicht aufgefallen aber meine Erinnerung könnte mich auch täuschen!

Edit: https://imgsli.com/MTUxNjE

Also neben der besseren Schärfe, der FPS Verdopplung und etwas höherem Detailgrad bei DLSS Balanced sehe ich da keine Unterschiede. Scheint so, als wären diese Artefakte Control-Exklusiv.

P.S: fast so gut wie DLSS find ich ja dieses imgsli, endlich kann man mal vernünftig vergleichen, sogar in Vollbild und mit Zoom! War mir vorher unbekannt :D

Also ich habe das bisher auch nur in Controll gesehen (so extrem).

Bei deinem jetztigen Vergleich sehe ich bei genauem hinsehen aber schon Vorteile bei der native Auflösung (absolut),relativ zueinander sind sie aber wirklich recht ähnlich und mit DLSS hat man immerhin die exakt doppelte Perfomance hier.

Ich würde vermutlich im Quality-Mode spielen und zwar in 4k (oder höher per DSR). Laut den Tests, die ich bisher gelesen habe, hat man bei 4k nochmals grössere Vorteile und ich spiele wenn möglich lieber in hoher Auflösung. Ich würde also nicht die Perfomance erhöhen, ich würde bei selben FPS die Zielauflösung erhöhen :D

Aber ich wäre vermutlich bei vielen Spielen mit 4K DLSS zufrieden (also 4k nicht als Renderauflösung, sondern als Zielauflösung). Mit der Perfomance unter 4k bin ich einfach nicht zufrieden mit erhältlichen Grafikkarten. Und für mich könnte mit DLSS auch 8K interessant werden (mit Ampere oder eine Gen. danach). Komme ganz gut klar in RPGs mit stabilen 30FPS locked.

Und ja, diese Seite ist ganz gut. Ich kannte die nicht. Vor allem kann man direkt vergleichen mit dem Regler. Bei 2 Bilder ist das Wechseln immer mühsam, da ich ja die Bilder in Fullscreen anschauen will.

Edit: Aber schau' mal rechts den Schatten des Baumes auf diesem Stoff-Sonnenschutz an. Der sieht deutlich besser aus mit DLSS. Aber schlussendlich ist bei dieser Perfomance das Bild extrem gut. Interessant fände ich Vergleiche mit Settings, die die selbe Perfomance liefern. Also z.B beim Test von der PCGH hat man in Control bei 1400p nativ min. FPS von 46, aber mit 4K (Zielauflösung) DLSS Balanced hat man min. FPS von 41, also ähnlich viel. Wäre interessant zu wissen, wie das im Vergleich aussieht.


wie bedeutet, es sieht genauso aus... was denn nun? besser wie funktioniert einfach nicht.

Sorry, ich verstehe diesen Satz überhaupt nicht.

überschärft...

Controll hat noch Probleme an manchen Stellen, ja (eben an Kanten/Übergängen). Allerdings sieht der rote Boden in 960p DLSS besser aus wie nativ 1440p. Und in anderen Spielen bestehen in DLSS 2.0 nicht solche ins Auge stechenden Fehler (mir zumidnest nicht bekannt).

MasterElwood
2020-04-27, 06:07:49
Aufpassen. Control gibt's in 2 DLSS Varianten: 1.9 und 2.0. 2.0 sieht deutlich besser aus.

Ravenhearth
2020-04-27, 10:51:10
Gibts zu DLSS nicht nen eigenen Thread?

robbitop
2020-04-27, 10:51:56
Aufpassen. Control gibt's in 2 DLSS Varianten: 1.9 und 2.0. 2.0 sieht deutlich besser aus.
Mit neustem Patch sollte es doch automatisch 2.0 sein, oder?

Ich würde 5K@1440P downsamplen mit DLSS Performance. Würde bedeuten, dass man schön hohe fps hat und dennoch ein sehr sehr sauberes Bild. Spätestens mit Ampere sollte das dann in 3x stelligen FPS Bereichen möglich sein. Mit VRR 144 Hz Monitor sicherlich nett. Viel Bewegtschärfe und 2x2 SSAA.
Leute mit 4K Monitor können auch dann mit 3x stelligen FPS Raten sogar mit dem Quality Preset spielen.
Ich hoffe, dass sich ML Upsampling möglichst schnell breit durchsetzt. Idealerweise ohne IHV Zwang, damit alle was davon haben. :)
Ich bin aber guter Hoffnung, dass das dank Nextgen Konsolen und Sony/MS auch passieren wird. Mittelfristig.

BlacKi
2020-04-27, 11:29:13
Mit neustem Patch sollte es doch automatisch 2.0 sein, oder?

Ich würde 5K@1440P downsamplen mit DLSS Performance. Würde bedeuten, dass man schön hohe fps hat und dennoch ein sehr sehr sauberes Bild. Spätestens mit Ampere sollte das dann in 3x stelligen FPS Bereichen möglich sein. Mit VRR 144 Hz Monitor sicherlich nett. Viel Bewegtschärfe und 2x2 SSAA.
Leute mit 4K Monitor können auch dann mit 3x stelligen FPS Raten sogar mit dem Quality Preset spielen.
Ich hoffe, dass sich ML Upsampling möglichst schnell breit durchsetzt. Idealerweise ohne IHV Zwang, damit alle was davon haben. :)
Ich bin aber guter Hoffnung, dass das dank Nextgen Konsolen und Sony/MS auch passieren wird. Mittelfristig.
zu ampere brauchst du nur noch spiele mit entsprechendem support. ich glaub nicht dass das so schnell kommt wie wir uns das wünschen.

so wie ich mein spielekaufverhalten einschätze, werde ich wohl erst beim nachfolger von der kommenden gen ein spiel mit entsprechendem support spielen.

mir kommt es auch so vor als sind das ausschließlich singleplayerspiele.

robbitop
2020-04-27, 12:59:35
Mal schauen. Es bringt einfach schon enorme Vorteile und ist viel einfacher zu implementieren als es bei DLSS 1 noch war. Kosten/Nutzen sieht also sehr positiv aus. Insofern denke ich, dass es sich schon verbreiten wird.

Ex3cut3r
2020-04-27, 15:06:39
Mit neustem Patch sollte es doch automatisch 2.0 sein, oder?

Jein, wenn man einen älteren Nvidia Treiber nutzt, hat man immer noch DLSS 1.9 Der Treiber kam ungefähr gleichzeitig mit dem Spiel Patch raus. Also sooo lange ist das noch nicht her, dass Leute immer noch ältere Treiber nutzen, aber gleichzeitig denken Sie hätten DLSS 2.0, ist vlt. doch nicht so unrealistisch. :biggrin:

Raff
2020-04-27, 15:26:27
Im Fall von Control war das original implementierte DLSS aber schon so gut, dass das nicht sooo wild ist. ;) Kein Vergleich zu den Machwerken in Battlefield 5 oder Final Fantasy 15. Klar, 2.0 ist besser (aber auch überschärft).

MfG
Raff

Platos
2020-04-27, 16:53:29
Im Fall von Control war das original implementierte DLSS aber schon so gut, dass das nicht sooo wild ist. ;) Kein Vergleich zu den Machwerken in Battlefield 5 oder Final Fantasy 15. Klar, 2.0 ist besser (aber auch überschärft).

MfG
Raff

Du meinst allgemein bei DLSS 2.0 oder nur in Control?

Raff
2020-04-27, 16:56:03
Control. Im Wolfenschwein, bei Deliver Us The Moon und Mechwarrior 5 und Minecraft RTX ist die Schärfe okay (hängt aber vom eigenen Empfinden und der Pixeldichte des LCDs ab).

MfG
Raff

Platos
2020-04-27, 16:59:26
Ach so, ja. Dann ist mir nichts entangen :)

Ich habe vor 2-3 Wochen mal gelesen, dass es angeblich nen Regler für die Schärfe geben könnte (also für Nutzer), oder zumindest einstellbar über den Treiber.

Ist das noch aktuell oder wird das nichts?

Mr.Scott
2020-04-27, 19:33:35
Denkt ihr es könnte mit der Ampere, Grafikkarten auf GTX 980(Ti) Leistung @ 75Watt geben? Also ohne Stromanschluss?

Ghost1nTh3GPU
2020-04-27, 19:48:48
Denkt ihr es könnte mit der Ampere, Grafikkarten auf GTX 980(Ti) Leistung @ 75Watt geben? Also ohne Stromanschluss?

980 Ti ~ RTX 2060 wird wohl schwierig, aber die normale 980 könnte man schon erreichen. Mit 128-Bit GGDR6 erreicht man die Bandbreite und 4 TFLOPs Maxwell sollte man mit 3 TFLOPs Turing+ sicherlich erreichen.

Die 1650 G6 ist ja schon nicht mehr weit von der GTX 1060~980: https://www.computerbase.de/2020-04/geforce-gtx-1650-gddr6-test/#abschnitt_die_geforce_gtx_1650_mit_etwas_feintuning

Also wohl irgendwo zwischen beiden Karten mit 8nm denkbar.

robbitop
2020-04-27, 20:26:01
1660ti liegt da eigentlich schon. Auf 7 nm könnte das ggf möglich sein.

TheAntitheist
2020-04-28, 04:06:12
Im Fall von Control war das original implementierte DLSS aber schon so gut, dass das nicht sooo wild ist. ;) Kein Vergleich zu den Machwerken in Battlefield 5 oder Final Fantasy 15. Klar, 2.0 ist besser (aber auch überschärft).

MfG
Raff
ist quatsch, DLSS ist eben nicht überschärft weil das ein separates feature ist. Den schärfefiter kann man selbst regeln, nur haben die Entwickler das in Control nicht freigegeben. Dennoch ist es NICHT ein Teil von DLSS

Raff
2020-04-28, 09:31:35
Tatsache ist, dass du das eine (Rekonstruktion) in Control nicht ohne das andere (Überschärfung) bekommst. Zufriedenstellend kalibrierbar ist die Bildschärfe eigentlich nur in Wolfenstein Youngblood, während Regler in den UE4-Spielen bisher fehlen. Es wird Zeit, dass Nvidia die Implementation von DLSS an solche elementaren Dinge koppelt (Nvidia Rules ;)).

MfG
Raff

Hübie
2020-04-28, 11:58:37
Ich bin ja mal gespannt, was unter günstiger zu verstehen ist. Ich habe damals die 980 Ti für 740€ bekommen und bin jederzeit bereit so eine Summe wieder zu investieren. Die 1080 Ti bot mir zu wenig Mehrleistung und die aktuelle 2080 hat leider nu 8 GB in dem Preissegment.

Also mal sehen was NVIDIA in den Bereich installieren wird. Ich bin da ja völlig raus und müsste wild spekulieren. Mit hoher Wahrscheinlichkeit wird man aber immer noch ROP-Partitionen haben, die an die GPCs gekoppelt sind und da wiederum hängen Cache und SMs in linear steigender Zahl dran. Summa summarum denke ich da an ~5000 SMx (FP32/INT32) und 16 GB RAM für 699$. Die Zahl der TCs verdoppelt sich ja hoffentlich, so dass die RT-Leistung auch mal etwas Beine bekommt.

Radeonfreak
2020-04-28, 12:09:46
denke ich da an ~5000 SMx (FP32/INT32) und 16 GB RAM für 699$. .

:freak: Na Klar.

BlacKi
2020-04-28, 12:11:43
ansonsten bleibt er bei seiner 980ti weil die neuen karten kaum schneller sein werden XD

HOT
2020-04-28, 12:28:28
GM204: 2048 Shader
GP104: 2560 Shader
TU104: 3072 Shader

Nach der Logik hätte AM104 3584 Shader :D

Leonidas
2020-04-28, 12:33:02
Gibts zu DLSS nicht nen eigenen Thread?


Wäre anzuraten.

Hübie
2020-04-28, 12:33:30
:freak: Na Klar.

Man wird ja noch träumen dürfen. :biggrin:

Dampf
2020-04-28, 13:16:51
So, ich hab jetzt den idealen Mittelweg aus Performance und Bildqualität gefunden: DLSS 626p! Die Auflösung ist normalerweise nur bei 1080p verfügbar, mit einem Griff in die Render.ini aber auch bei WQHD ausführbar.

https://imgsli.com/MTUyNjY

Was positiv auffällt: wie vorher auch schärfere Texturen, Boden, Marmor und die Bunkerschrift sind detailierter. Es glättet die Kanten besser als das Game eigene TAA, zu sehen am Holzgeländer ganz rechts in der Bildschirm-Mitte.

Was sehr positiv auffällt: die Performance!

was negativ auffällt: die üblichen Artifakte, allerdings deutlich minimierter als bei 576p. Schärfe etwas zu krass.

Also damit bin ich persönlich sehr zufrieden. Was meint ihr?

pixeljetstream
2020-04-28, 13:23:55
@Dampf evtl. in den AI thread https://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=592796 oder Im Technologie Forum neuen thread für die ganzen DLSS Beiträge

Ex3cut3r
2020-04-28, 13:31:37
Also 16GB bei der 3070/3080 und 22GB bei 3080 Ti sowieso 48GB bei der neuen Titan RTX müssen es ende 2020/Anfang 2021 einfach sein. Alles andere wäre für mich ein Armutszeugnis.

Radeonfreak
2020-04-28, 13:40:24
Ich denke mal 12GB 3070 / 80. 16 für die TI. Mehr wird das nicht, es ist schließlich immer noch NVIDIA.

robbitop
2020-04-28, 13:55:29
RAM ist leider praktisch nicht billiger geworden, seit dem 8 GB der Quasi-Standard ist (2016). (wenn man den Peak wegen des Cryptominings in 2018 mal ausblendet) Die RAM Preisentwicklung hatte bis dato die Speichermenge nach oben gebracht. Ich bin hier nicht besonders optimistisch.

Klevapalis
2020-04-28, 13:58:00
So, ich hab jetzt den idealen Mittelweg aus Performance und Bildqualität gefunden: DLSS 626p! Die Auflösung ist normalerweise nur bei 1080p verfügbar, mit einem Griff in die Render.ini aber auch bei WQHD ausführbar.

https://imgsli.com/MTUyNjY
Ich finde es echt spannend, was du so raus findest. Bitte weiter so machen.

Viel interessanter, als das sonst ständig zu lesende "Mimimimi, DLSS ist scheiße" von den Leuten, die nicht mal ne RTX-Karte haben. Natürlich ist für die DLSS Scheiße :ugly:

Sunrise
2020-04-28, 14:01:37
Was auch noch hinzu kommt ist die zu erwarten extrem starke GDDR6-Nachfrage der Konsolen ab diesem Jahr relativ zu den Kapazitäten, die es generell gibt.

Ghost1nTh3GPU
2020-04-28, 14:11:38
RAM ist leider praktisch nicht billiger geworden, seit dem 8 GB der Quasi-Standard ist (2016). (wenn man den Peak wegen des Cryptominings in 2018 mal ausblendet) Die RAM Preisentwicklung hatte bis dato die Speichermenge nach oben gebracht. Ich bin hier nicht besonders optimistisch.

Wenn 8GB GDDR6 auf einer 200€ RX 5500 möglich sind, sollte 16 bei 600-800€ oder 22 bei 1300€ kein Problem darstellen. Ausser die Obsoleszenz ist ein Designziel. Das sollten Mal die EU-Komission oder andere Verbraucherschutz-Organisationen im Auge behalten, es gibt schon zu viele Elektroprodukte die durch sinnlose Spezifikationsbeschneidungen Out of Box für den Müll sind.

Ex3cut3r
2020-04-28, 14:13:32
Ich denke mal 12GB 3070 / 80. 16 für die TI. Mehr wird das nicht, es ist schließlich immer noch NVIDIA.

Hää? Bei der 1070 und 1080 gabs auch für beide 8GB. Warum diesmal nicht? Weil es Nvidia ist? :confused:
2070 und 2080 hatten auch die gleiche Speichermenge. GA014 wird die gleiche Speichermenge haben, die Frage ist nur ob 16GB oder 8GB. Letzteres wäre aber einfach lächerlich IMO, bleiben nur die 16GB. :biggrin:

Timbaloo
2020-04-28, 14:14:02
@Dampf evtl. in den AI thread https://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=592796 oder Im Technologie Forum neuen thread für die ganzen DLSS Beiträge
Ich denke das Thema DLSS ist so umfassend und wichtig, dass ein eigener Thread besser wäre, sonst gehen die kleineren aber dennoch spannenden Themen in deinem Thread unter.

Hier (Ampere) sollte jedenfalls nicht der Haupthread für DLSS sein.

Platos
2020-04-28, 14:58:59
Jap, aso aus meiner Sicht gerne ein eigener Thread im Technik-Forum.

Ravenhearth
2020-04-28, 15:24:06
Wenn 8GB GDDR6 auf einer 200€ RX 5500 möglich sind, sollte 16 bei 600-800€ oder 22 bei 1300€ kein Problem darstellen. Ausser die Obsoleszenz ist ein Designziel. Das sollten Mal die EU-Komission oder andere Verbraucherschutz-Organisationen im Auge behalten, es gibt schon zu viele Elektroprodukte die durch sinnlose Spezifikationsbeschneidungen Out of Box für den Müll sind.
Möglich wäre mehr Speicher bei Ampere (oder whatever) schon, aber dann müsste Nvidia halt auf etwas Marge verzichten. Das werden sie imo nur tun, wenn sie davon ausgehen, dass AMD deutlich mehr Speicher in den entsprechenden Preisbereichen verbaut.

Ghost1nTh3GPU
2020-04-28, 15:44:12
Möglich wäre mehr Speicher bei Ampere (oder whatever) schon, aber dann müsste Nvidia halt auf etwas Marge verzichten. Das werden sie imo nur tun, wenn sie davon ausgehen, dass AMD deutlich mehr Speicher in den entsprechenden Preisbereichen verbaut.
Von den 8GB 256-Bit <150€ Polaris Karten oder den 16GB V7 hat sich Nvidia auch nicht beeindrucken lassen. Spätestens seit Maxwell nutzt Nvidia hier die Marktmacht um die potentielle Langlebigkeit der Karten durch restriktive Speicherspezifikationen zu reduzieren. Die Partner hätten bestimmt nichts dagegen eine 16GB 2080S zu verkaufen. Bis zu Turing war selbst das Feature Set auf Kante genäht und profitierte Grossteil nur von der GPC-Architektur Fermis.

Da bleibt wirklich zu hoffen das XSX/PS5 und Navi2
mal Nvidia wieder etwas erdet und Gaming-Ampere wieder Mal den Spielern etwas gutes Tut und nicht hochpreisige Abfallprodukte aus dem Automotiv Segment sind.

Timbaloo
2020-04-28, 16:01:04
Gaming-Ampere wieder Mal den Spielern etwas gutes Tut und nicht hochpreisige Abfallprodukte aus dem Automtiv Segment sind.
Ich glaube du verwechselst hier was ;D

Klevapalis
2020-04-28, 16:10:52
Von den 8GB 256-Bit <150€ Polaris Karten oder den 16GB V7 hat sich Nvidia auch nicht beeindrucken lassen.
Ja, warum auch?

Waren außer in wenigen Spezialfällen komplett nutzlos die übertriebenen Speichergrößen.

Raff
2020-04-28, 16:43:07
8 GiByte sind seit 2016 mehr und mehr von Vorteil. Allein die Fälle, wo mehr als 8 GiByte sinnvoll sind, lassen sich noch an einer Hand abzählen (bei "normalen" Auflösungen und Settings). Quasi jeder hinzukommende RTX-Titel, btw. ;)

MfG
Raff

Klevapalis
2020-04-28, 16:48:45
8 GiByte sind seit 2016 mehr und mehr von Vorteil.
Bei unter 150€ Karten? Eher nicht.

Bei den unter 150€ Karten muss ich doch sowieso die Detailsregler nach Unten drehen. Warum das überall geht, nur nicht bei Texturen, um den VRAM anzupassen, verstehe ich nicht :tongue:

Langlay
2020-04-28, 17:07:20
Bei unter 150€ Karten? Eher nicht.

Bei den unter 150€ Karten muss ich doch sowieso die Detailsregler nach Unten drehen. Warum das überall geht, nur nicht bei Texturen, um den VRAM anzupassen, verstehe ich nicht :tongue:

höher aufgelöste Texturen gibt es quasi umsonst solange der VRAM ausreicht und Texturen haben einen recht grossen Einfluss auf den Qualitätseindruck.

Wenns halt nur für low reicht ist low mit Ultratexturen immernoch spürbar hübscher als low mit medium oder low Texturen.

Und zuviel Vram macht nichts, zuwenig Vram ist dann gleich richtig nervig.

Ghost1nTh3GPU
2020-04-28, 17:19:45
Zeigt ja aktuell FF7-R anschaulich was passiert, wenn die UE4 nicht mehr genug VRAM für das Streaming hat und es der Leveldesigner im Sinne der Texture-Vielfalt gut gemeint hatte. Da sind Texturendetails einige Sekunden auf UE2 Niveau.

Wo mal der Mainstream/Low-End mit unsinnigen RAM Mengen ausgestattet war, ist es nur sehr knapp (GTX 1650 Karten mit 4GB für fast 200€, was es 2014 schon auf <50€ gab.)

HOT
2020-04-28, 18:03:25
Der VRAM-Verbrauch explodiert sowieso wieder mit den PS5/XS1-Titeln.

Platos
2020-04-28, 18:32:40
Wenn Gaming Ampere noch dieses Jahr kommt, wird die Konsole sicherlich keinen Einflus auf Ampere haben bezüglich des Speicherdrucks. Und wenn Gaming Ampere in Q1 2021 kommt, wirds vermutlich auch nicht wirklich anders sein.

Ich glaube aber nicht, vlt. ist es auch hoffen, dass nvidida die Speichermenge nicht erhöht. Nach 4 1/2 Jahren wäre das sehr unwahrscheinlich m.M.n

Nightspider
2020-04-28, 18:37:22
Was auch noch hinzu kommt ist die zu erwarten extrem starke GDDR6-Nachfrage der Konsolen ab diesem Jahr relativ zu den Kapazitäten, die es generell gibt.

Auf der anderen Seite werden komplexe, neue 500 Euro Konsolen satte 16GB GDDR6 bekommen.

Eine 600-800 Euro Grafikkarte mit 12GB würde dagegen etwas dämlich aussehen.

WedgeAntilles
2020-04-28, 18:55:46
Auf der anderen Seite werden komplexe, neue 500 Euro Konsolen satte 16GB GDDR6 bekommen.

Eine 600-800 Euro Grafikkarte mit 12GB würde dagegen etwas dämlich aussehen.

Nur dass die 16GB nicht der reine VRAM sind...

Nach deiner Argumentation habe ich im PC ja 44 GB Ram (32 GB + 12GB) - sehen jetzt die 16 GB der Konsole dämlich aus?

Ist doch Äpfel mit Birnen verglichen.

Nightspider
2020-04-28, 19:11:12
Darum gehts ja nicht sondern um die Ausstattung vs. Preis.

Klar werden die Konsolen teils zum Herstellungspreis verkauft aber toll würde das nicht ankommen.

Zumindest wenn eine 800 Euro RTX3080 nur 12GB bekommt.

HOT
2020-04-28, 19:12:42
Nur dass die 16GB nicht der reine VRAM sind...

Nach deiner Argumentation habe ich im PC ja 44 GB Ram (32 GB + 12GB) - sehen jetzt die 16 GB der Konsole dämlich aus?

Ist doch Äpfel mit Birnen verglichen.
Das ist was völlig anderes. Die Konsolen nutzen die SSD als lese-RAM und können diese direkt adressieren. Der recht knappe Konsolen-RAM lässt aufgrund der doch recht stark unterschiedlichen Technologie nicht auf den Verbrauch des PC-(V)RAMs schließen. Diese Konsolengeneration ist deshalb so weltbewegend, weil man diesmal unglaublich viel RAM zur Verfügung hat und daher alle Ladezeiten einfach abschaffen kann, es muss also auch nichts mehr irgendwohin geladen werden und es verbraucht also auch keinen extra Platz mehr in den RAM-Chips. Auf dem PC aber schon und hier werden genau deshalb die RAM-Mengen explodieren.

Ich tippe auch darauf, dass man die Speicherinterfaces verbreitert. Man wird beim 104er mMn 320-384 Bit sehen mMn und entsprechend mehr RAM. 16GB wäre ja nur mit sehr hoch getakteten GDDR6 möglich und das ginge eh erst 2021. Dieses Jahr wird man evtl. noch 18Gbit/s GDDR6 sehen, das reicht aber nicht für die neue Generation mit bisherigen Interfaces. Man kann eher mit 106er 8GB (256Bit), 104er 10GB (320Bit), 103er 12GB (384Bit) und 102er 16GB (512Bit oder HBM) oder sowas rechnen mMn. Oder man wartet eben auf die Verfügbarkeit von 20-22Gbit/s GDDR6 in 2021. Es sind viele Optionen denkbar.

just4FunTA
2020-04-28, 19:19:08
Ok also rtx 3080 mit 16gig und 20tflops für 500€ und ich bin dabei.

HOT
2020-04-28, 19:25:26
Wird wohl eher auf knapp 15TFLOPs hinauslaufen. 3584 Shader @ >2GHz, dazu eben entsprechend 320Bit 18GT/s GDDR6 oder 256Bit 20GT/s GDDR6 ist mMn ziemlich realistisch. Wäre 40% mehr Power als TU104.

Dampf
2020-04-28, 19:27:10
Das ist was völlig anderes. Die Konsolen nutzen die SSD als lese-RAM und können diese direkt adressieren. Der recht knappe Konsolen-RAM lässt aufgrund der doch recht stark unterschiedlichen Technologie nicht auf den Verbrauch des PC-(V)RAMs schließen. Diese Konsolengeneration ist deshalb so weltbewegend, weil man diesmal unglaublich viel RAM zur Verfügung hat und daher alle Ladezeiten einfach abschaffen kann, es muss also auch nichts mehr irgendwohin geladen werden und es verbraucht also auch keinen extra Platz mehr in den RAM-Chips. Auf dem PC aber schon und hier werden genau deshalb die RAM-Mengen explodieren.



Das ist so nicht richtig, der PC wird die Direct-Storage API, die für die RAM-Adressierung auf der SSD zuständig ist, ebenfalls bekommen. Das hat Microsoft bereits bestätigt. Mit dieser konnte man die CPU-Last durch die I/O-Komprimierung von 5 Zen 2 Kernen auf einen Bruchteil eines Kerns senken. Auf der XSX dann natürlich for free, dank HW-Dekompression.

Die Xbox hat ein paar zusätzliche Technologien wie einen speziellen Filter für SFS und eben angesprochene Hardware-Dekompression, die ihr einen kleinen Vorteil verschafft, aber die Grundtechnik, den Speicher auf die SSD auszulagern und das Texturen-Streaming wesentlich effizienter zu gestalten, wird auch auf dem PC so stattfinden. Voraussetzung ist dafür natürlich eine halbwegs potente SSD und DX12 Ultimate.

Sind diese zwei Voraussetzungen nicht gegeben, wird wohl entweder die Texturen-Qualität, das LOD Streaming und alles andere drastisch gesenkt, oder wie du schon sagtest, die VRAM/RAM Anforderungen werden explodieren.

pixeljetstream
2020-04-28, 20:55:35
IMO haben wir eigentlich das Technologie Forum, wo man wunderbar zu Direct Storage, DLSS etc. threads aufmachen kann. Mods?

Thunder99
2020-04-28, 21:15:34
Ok also rtx 3080 mit 16gig und 20tflops für 500€ und ich bin dabei.

Kannst eher mit 800€+ rechnen ;)

Für was größeres Speicherinterface wenn es GDDR 6 gibt? Bandbreite gibt es ja genug. Außerdem wenn der 104er 16GB bekommen soll, was sein müsste sonst wäre es echt lächerlich 3 Generationen mit der gleichen Speichermenge zu bringen, hat dann 102er 20GB+ (je nach Abspeckung vom Interface).

Das wird richtig teuer!

TheAntitheist
2020-04-28, 21:17:44
Tatsache ist, dass du das eine (Rekonstruktion) in Control nicht ohne das andere (Überschärfung) bekommst. Zufriedenstellend kalibrierbar ist die Bildschärfe eigentlich nur in Wolfenstein Youngblood, während Regler in den UE4-Spielen bisher fehlen. Es wird Zeit, dass Nvidia die Implementation von DLSS an solche elementaren Dinge koppelt (Nvidia Rules ;)).

MfG
Raff
Tatsache ist, das es eine Entscheidung der Entwickler war, DLSS 2.0 aber nichts mit dem Sharpening Filter zu tun hat.

Raff
2020-04-28, 21:33:45
Für was größeres Speicherinterface wenn es GDDR 6 gibt? Bandbreite gibt es ja genug. Außerdem wenn der 104er 16GB bekommen soll, was sein müsste sonst wäre es echt lächerlich 3 Generationen mit der gleichen Speichermenge zu bringen, hat dann 102er 20GB+ (je nach Abspeckung vom Interface).

Derzeit sehen wir gerade mal erste Versuche mit mutmaßlich gerade so bezahlbaren 16 GT/s (8.000 MHz) (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Videos/MSI-RTX-2080-Ti-Gaming-Z-Trio-1348990/). An 384 Bit ergibt das 768 GByte/s – gut 14 Prozent mehr als bei der Titan RTX, welche mit etwa 16 TFLOPS (FP32) arbeitet. Für AM104 würde das reichen, aber nicht für etwas Dickeres - da muss es dann HBM richten.

MfG
Raff

w0mbat
2020-04-28, 21:38:59
Schon eine HD2900 XT hatte ein 512-bit Speicherinterface ;)

][immy
2020-04-28, 22:13:40
Schon eine HD2900 XT hatte ein 512-bit Speicherinterface ;)
ja, aber mit immer kleineren Prozessen wird es soweit ich verstanden habe, auch immer schwieriger die ganzen Leitung auch zum Chip zu bekommen. Der schrumpft schließlich. An der Stelle ist HBM nicht ganz so verkehrt, weil es da zumindest nur in chipnähe sein muss. Aber bei einem 512 Bit Speicherinterface für GDDR6 brauchst du halt auch in 7nm schon recht viele Leitung die nach außen führen müssen.

Relic
2020-04-28, 22:38:07
[immy;12293714']ja, aber mit immer kleineren Prozessen wird es soweit ich verstanden habe, auch immer schwieriger die ganzen Leitung auch zum Chip zu bekommen. Der schrumpft schließlich. An der Stelle ist HBM nicht ganz so verkehrt, weil es da zumindest nur in chipnähe sein muss. Aber bei einem 512 Bit Speicherinterface für GDDR6 brauchst du halt auch in 7nm schon recht viele Leitung die nach außen führen müssen.

Naja an Chipgröße sollte es bei einer Highend GPU nicht mangeln ;)

Rampage 2
2020-04-29, 00:38:46
Der VRAM-Verbrauch explodiert sowieso wieder mit den PS5/XS1-Titeln.


Dieses Mal nicht, denn der Speicher der Konsolen hat sich dieses Mal nur verdoppelt - bei früheren Generationen hat es sich jeweils versechzehnfacht (PS2 -> PS3, PS3 -> PS4). So wie ich es verstanden habe, ist die SSD als erweiterter Grafikspeicher für sich allein unzureichend.

Auf dem PC wird wohl eher die Notwendigkeit einer schnelleren SSD und mehr Hauptspeicher steigen als mehr Grafikspeicher.

Derzeit sehen wir gerade mal erste Versuche mit mutmaßlich gerade so bezahlbaren 16 GT/s (8.000 MHz) (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Videos/MSI-RTX-2080-Ti-Gaming-Z-Trio-1348990/). An 384 Bit ergibt das 768 GByte/s – gut 14 Prozent mehr als bei der Titan RTX, welche mit etwa 16 TFLOPS (FP32) arbeitet. Für AM104 würde das reichen, aber nicht für etwas Dickeres - da muss es dann HBM richten.

MfG
Raff


Es sind jetzt schon 18Gbps möglich (siehe die News zum Rambus-PHY), also 864 GB/sek. an einem 384Bit SI - ist aber mit nur +28,6% dennoch grenzwertig vgl. mit einer Titan RTX. Also entweder 20Gbps oder aber das SI wird wie bei R600, GT200 und Hawaii/Grenada auf 512Bit verbreitert.

Oder eine Doppellösung wird etabliert: GDDR6 bis xx104/103; nur für xx102 dann HBM...

R2

BlacKi
2020-04-29, 00:55:20
Naja an Chipgröße sollte es bei einer Highend GPU nicht mangeln ;)
gemeint ist damit, das man die anbindung nicht schrumpfen kann, das bedeutet, das man teure siliziumfläche opfern muss um zur speicheranbindung. nicht das man es nicht könnte, sondern das es teurer wird. aber einen tod muss man sterben. man kann ne titan x nicht einfach mit 256bit anbinden.

Auf dem PC aber schon und hier werden genau deshalb die RAM-Mengen explodieren.
nur wenns bezahlbar wäre. und das sehe ich nicht bei den 300-500€ karten. 16gb werden wir da nicht so schnell sehen.

UV_Freak
2020-04-29, 11:19:29
https://twitter.com/chiakokhua/status/1255418855071121410

Neues spielzeug für papa rechne wirklich mit juli für neue karten zumindest die erste charge man war das bei pascal ne wartezeit

Troyan
2020-04-29, 11:20:48
Link geht nicht.

/edit: Der? https://twitter.com/chiakokhua/status/1255425899685650434

Piefkee
2020-04-29, 11:32:03
Link geht nicht.

/edit: Der? https://twitter.com/chiakokhua/status/1255425899685650434

Fake...Niemals wird NV den GA100 Die für ne 3080Ti verwenden :freak:
Zeitplan wurde passen aber nicht die Daten zu den Dies beziehungsweise Specs...

UV_Freak
2020-04-29, 11:35:16
Nein dann ist das Ursprüngliche weg. Komisch. Ja würde keine Karte der 2xxx Serie mehr kaufen die 2-3 Monate kann man noch warten.

w0mbat
2020-04-29, 11:44:45
Was stand denn in dem tweet?

Troyan
2020-04-29, 12:06:52
Wieso dauernd Fury? Ihr meint doch Vega. Bei Fury wurde doch nur der HBM positiv gelogen. Bei Vega hat man mit HBCC den Unsinn doch erst marketingtechnisch ausgekostet.

Was stand denn in dem tweet?

ZUm einen das: https://imgur.com/gallery/MCjVC7e
Das hat aber UV_Freak bei reddit geschrieben. :D

Und das die AIBs (Asus, MSI etc.) in China anfangen das Inventar von Turing abzuverkaufen, da in Q3 neue Karten mit Ampere kommen sollen.

UV_Freak
2020-04-29, 12:12:08
Was stand denn in dem tweet?

Das ein Taiwanesnischer Vendor die Lager leert wegen der kommende RTX 3000 Serie. Alles rumor bis Nvidia sagt es ist so. Aber irgendwas stimmt immer daran gerade kurz vor release.

Am 14. Mai wird Nvidia vielleicht ne bombe platzen lassen wer weis auch wenn es nicht üblich wäre.:biggrin:

Aber diesmal rechne ich wieder fast mit einem sprung wie von maxwell auf Pascal . Nvidias 7nm wird sicher rocken .:wink:

Schade das sich Big Navi wider nur mit der 3070 prügeln wird. Vielleicht in der 3 ten Literation wie mit Ryzen die neue Arch ist ja sehr gut aber wird schon noch, glaube in ein paar jahren wird es recht spannend an der Gpu Front.

Sunrise
2020-04-29, 12:15:41
Interessant, dass beide von euch verlinkte Tweets gelöscht wurden. War das “jemand” etwas zuviel Information?

UV_Freak
2020-04-29, 12:16:21
Wtf warum alles weg?

nvidias geheimhalterei ging mir schon immer auf den Keks aber das muss man ihnen lassen das können sie echt gut. NDA muss ja tiersich sein-

UV_Freak
2020-04-29, 12:17:21
Wieso dauernd Fury? Ihr meint doch Vega. Bei Fury wurde doch nur der HBM positiv gelogen. Bei Vega hat man mit HBCC den Unsinn doch erst marketingtechnisch ausgekostet.



ZUm einen das: https://imgur.com/gallery/MCjVC7e
Das hat aber UV_Freak bei reddit geschrieben. :D

Und das die AIBs (Asus, MSI etc.) in China anfangen das Inventar von Turing abzuverkaufen, da in Q3 neue Karten mit Ampere kommen sollen.
:biggrin::biggrin::biggrin::biggrin: Wird halt schon langweilig zuhause nach dieser Zeit.

Troyan
2020-04-29, 12:17:32
Also das Schaubild ist wahrscheinlich fake. Die Info über Abverkauf dagegen könnte real sein.

UV_Freak
2020-04-29, 12:18:57
Okay warum würde man sowas machen also faken bringt ja null? Q3 passt ja von dem was wir wissen.

Slipknot79
2020-04-29, 12:32:34
ZUm einen das: https://imgur.com/gallery/MCjVC7e



Halte ich für realistisch, 3080Ti < 8192 Cores, also zwischen 1 und 8191 alles drin. Wird, denke ich, so zutreffen. :wink:

Ich traue mich sogar einen Takt zu nennen: <3000MHz.

BlacKi
2020-04-29, 12:50:57
Halte ich für realistisch, 3080Ti < 8192 Cores, also zwischen 1 und 8191 alles drin. Wird, denke ich, so zutreffen. :wink:

Ich traue mich sogar einen Takt zu nennen: <3000MHz.
es stinkt, das ga100 als 3080ti gelistet wird. ich dachte das wäre ein hpc chip.

AffenJack
2020-04-29, 17:38:33
es stinkt, das ga100 als 3080ti gelistet wird. ich dachte das wäre ein hpc chip.

Wird er auch sicher sein. Alleine schon das get Amped in der GTC Keynote Ankündigung deutet klar auf Ampere. Die Tabelle kann man nicht ernst nehmen deswegen.

horn 12
2020-04-29, 17:45:42
RTX 3070 und 3080 Quartal 3
RTX 3080TI - Quartal 4

RTX 3060 Quartal 1 im Jahr 2021

Zudem die Specs dazu:

https://www.guru3d.com/news-story/rumor-nvidia-geforce-rtx-3070-and-3080-coming-q3-2020-specs.html


RTX 2080S
Shader-Einheiten/TMUs/ROPs
3072/​192/​64


Würde nicht mal 50% mehr Shader Einheiten aufweisen
Zudem wohl ein hauptsächliches RTX RayTracing 2.0 / 2.5 Update, wenn man die RTX 2080/S betrachtet.

Hakim
2020-04-29, 19:31:09
Naja sehr viel Spielraum bei "<", wieso nicht gleich bei allen noch <32 GB dazu.

UV_Freak
2020-04-30, 07:30:39
warum wird das nochmal gepostet? ist doch schon wieder alt.

BlacKi
2020-04-30, 11:31:16
wieso nimmt man eigentlich an, das die ampere architektur eine gaming architektur ist? volta hat es auch nur sehr spät und stark beschnitten ins gaming segment geschafft.

wieso geht man nicht davon aus das die gaming chips eine andere architektur bekommen mit anderem namen und nennt sie immernoch ampere?

für mich hört sich das alles falsch an.

Gipsel
2020-04-30, 20:22:07
This!
IMO haben wir eigentlich das Technologie Forum, wo man wunderbar zu Direct Storage, DLSS etc. threads aufmachen kann.

TheAntitheist
2020-05-01, 01:17:57
wieso nimmt man eigentlich an, das die ampere architektur eine gaming architektur ist? volta hat es auch nur sehr spät und stark beschnitten ins gaming segment geschafft.

wieso geht man nicht davon aus das die gaming chips eine andere architektur bekommen mit anderem namen und nennt sie immernoch ampere?

für mich hört sich das alles falsch an.
jetzt sind die RT cores die dazu kamen schon eine "Beschneidung" ;D und nicht vergessen die gesplitteten FP/Int shader

robbitop
2020-05-01, 08:54:39
Letzteres hatte Volta auch.

mksn7
2020-05-01, 09:59:42
Als Anpassung an graphics statt compute hat Turing auch weniger L1 cache Kapazität und Bandbreite, und 32 statt 64 warps per SM maximal. Aber das sind eher kleinere tweaks, weil sich das für graphics wohl nicht so lohnt.

Turing hat aber auch schon eine leicht weiter entwickelte Architektur, weil es jetzt wie bei AMD uniform instructions gibt.

AffenJack
2020-05-01, 10:58:07
wieso nimmt man eigentlich an, das die ampere architektur eine gaming architektur ist? volta hat es auch nur sehr spät und stark beschnitten ins gaming segment geschafft.

wieso geht man nicht davon aus das die gaming chips eine andere architektur bekommen mit anderem namen und nennt sie immernoch ampere?

für mich hört sich das alles falsch an.

Weil Volta eine Anomalie war, da man diesen für die Supercomputer brauchte. Turing ist eine Weiterentwicklung von Volta und Nvidia betonte in den letzten Jahren oft genug, dass man den Vorteil hat nur eine Architektur zu entwickeln.
Das ist das gleiche wie Intel mit den Xe Chips. Eine Grundarchitektur, die aber nach Einsatzgebiet flexibel konfiguriert werden kann.

Raff
2020-05-01, 11:04:09
Was BlacKi mit "stark beschnitten" meint, ist nicht das, was ihr interpretiert. Er meint die Titan V, bei der Volta tatsächlich ziemlich kastriert wurde. Nicht bei den Rechenwerken, da blieben immerhin 80 von 84 SMs aktiv, aber bei der Speicher-Schnitt-Stelle, wo mal eben 1/4 entfernt wurde - "nur" 3.072 statt 4.096 Bit zum HBM und somit "nur" 12 statt 16 GiByte. Und außerdem damals noch mit einem extrem unterdimensionierten Kühler. Nvidia hat überall diese ekligen Obsoleszenz-Knöpfe gedrückt. :ugly:

Ich würde ja wirklich gerne eine wassergekühlte Titan V in aktuellen Spielen sehen. Verkauft jemand eine? :D

MfG
Raff

BlacKi
2020-05-01, 11:17:43
Weil Volta eine Anomalie war, da man diesen für die Supercomputer brauchte. Turing ist eine Weiterentwicklung von Volta und Nvidia betonte in den letzten Jahren oft genug, dass man den Vorteil hat nur eine Architektur zu entwickeln.
Das ist das gleiche wie Intel mit den Xe Chips. Eine Grundarchitektur, die aber nach Einsatzgebiet flexibel konfiguriert werden kann.
ok, wenn das so konsens ist, dann will ich das mal so hinnehmen bis zum release.

][immy
2020-05-01, 11:30:24
Was BlacKi mit "stark beschnitten" meint, ist nicht das, was ihr interpretiert. Er meint die Titan V, bei der Volta tatsächlich ziemlich kastriert wurde. Nicht bei den Rechenwerken, da blieben immerhin 80 von 84 SMs aktiv, aber bei der Speicher-Schnitt-Stelle, wo mal eben 1/4 entfernt wurde - "nur" 3.072 statt 4.096 Bit zum HBM und somit "nur" 12 statt 16 GiByte. Und außerdem damals noch mit einem extrem unterdimensionierten Kühler. Nvidia hat überall diese ekligen Obsoleszenz-Knöpfe gedrückt. :ugly:

Ich würde ja wirklich gerne eine wassergekühlte Titan V in aktuellen Spielen sehen. Verkauft jemand eine? :D

MfG
Raff
ja, das ist wirklich erstaunlich, wie nvidia hier trotz des entsprechenden Preises noch die Hardware auf Sparflamme laufen lässt. Bei dem Preisbereich ist das auch überhaupt nicht mehr verständlich, außer es künstlich zu begrenzen um sich nicht selbst zu viel Konkurrenz zu machen und es für die Zukunft offen zu halten. Wir reden hier ja schließlich nicht von klassischer Consumer-Massen Hardware.

Bin wirklich mal auf Ampere gespannt. Für nvidia würde es ja quasi reichen 2080Ti Leistung im kleineren und sparsameren Format zu bringen. So wie sich AMD aktuell mit RDNA2 zurück hält (bzw. big Navi) braucht nvidia ja nicht mal mehr.

Aber 7nm würde schon dazu führen, das man noch Sparsamer fährt und die Kühlung dann entsprechend zurückfahren könnte. Was aber wohl wieder von steigenden Frequenzen gekontert wird ^^

Raff
2020-05-01, 14:15:15
Oh mein Gott. Lachen und Weinen wechselten sich bei mir gerade wieder ab, als ich die Zahlen der neuen Steam Survey sah: https://store.steampowered.com/hwsurvey/

Nun, die GTX 1060 ist nach wie vor das beliebteste Einzelmodell. Aber jetzt der Knaller: 8 GiByte VRAM ist knapp die verbreitetste Speicherkapazität. Bei Steam. Wo jeder für Dota, CSGO & Co. genutzte Crap-Rechner mitzählt. :ulol: 8 GiByte kann man also sogar im Mainstream als Standard betrachten.

Wie gesagt, Grafikkarten mit 8 GiByte sind seit 2014 verfügbar, seit 2016 in Massen. Wenn Nvidia also 2020 wieder mit dieser Kapazität ums Eck kommt, sollten wir vielleicht einfach mal alle einen Boykott planen.

MfG
Raff

Platos
2020-05-01, 14:31:12
Wäre ich natürlich dabei ;)

Aber ernste Frage: Wie funktionieren diese Steam-Umfragen? Wie viele Leute werden da Monatlich gefragt?

Ich muss nur ca. (gefühlt) 1-2 Mal im Jahr das Ok für diese Umfrage geben.

Werden da wirklich monatlich alles Steam-Nutzer gefragt? Könnte durchaus sein, man könnte ja einfach nach einer Nachfrage mehrere Monate die Daten abfragen.

Oder wie sieht das aus? Wie viele werden da pro Monat geprüft? Sieht leider kein Mensch.

Dampf
2020-05-01, 14:36:29
Wie gesagt, Grafikkarten mit 8 GiByte sind seit 2014 verfügbar, seit 2016 in Massen. Wenn Nvidia also 2020 wieder mit dieser Kapazität ums Eck kommt, sollten wir vielleicht einfach mal alle einen Boykott planen.

MfG
Raff

Könnt ihr machen, die 5 nicht verkauften Karten werden Nvidia bestimmt ganz doll weh tun :biggrin:

Hakim
2020-05-01, 14:41:43
Frage mich wie der Wert zustande kommt, von den top 10 meist genutzten Karten haben nur 3 8 GB.

Dampf
2020-05-01, 14:42:50
Frage mich wie der Wert zustande kommt, von den top 10 meist genutzten Karten haben nur 3 8 GB.

Eventuell nimmt Steam den gemeinsam genutzen GPU-Speicher bei iGPUs als VRAM wahr.

https://i.stack.imgur.com/sMfIG.jpg

Sieht so aus als wäre dieser bei 16 GB RAM, 8 GB. Das macht Sinn denn 16 GB ist auch der meistgenutze RAM bei Steam.

Troyan
2020-05-01, 14:44:53
Also 1060, 1660(TI) und 2060 machen zusammen 19,32% aus. Kann also hinhauen.

Viel lustiger ist, dass die 8GB von den High-End Karten von nVidia kommen. Mal wieder ein Beweis, dass PC-Gaming viel mehr ist als nur <300€ Bereiche.

Raff
2020-05-01, 14:50:11
Eventuell nimmt Steam den gemeinsam genutzen GPU-Speicher bei iGPUs als VRAM wahr.

https://i.stack.imgur.com/sMfIG.jpg

Sieht so aus als wäre dieser bei 16 GB RAM, 8 GB. Das macht Sinn denn 16 GB ist auch der meistgenutze RAM bei Steam.

Ohje, somit wären die publizierten Daten völlig unbrauchbar. Gut, das kann man schnell herausrechnen, aber nicht als User.

MfG
Raff

Hakim
2020-05-01, 14:50:48
Also 1060, 1660(TI) und 2060 machen zusammen 19,32% aus. Kann also hinhauen.



Addiere noch die über 8% der 1050ti dazu und....hm,

Dampf könnte recht haben

BlacKi
2020-05-01, 15:18:14
Eventuell nimmt Steam den gemeinsam genutzen GPU-Speicher bei iGPUs als VRAM wahr.
lul

die statistik ist echt fürn arsch

Hakim
2020-05-01, 15:34:40
Wenn das stimmt werden meine 6 GB der 1060 als 16 GB Vram mit einkalkuliert :freak:

https://www.bilder-upload.eu/thumb/b62569-1588340026.png (https://www.bilder-upload.eu/bild-b62569-1588340026.png.html)

naja wird etwas zu OT hier

TheAntitheist
2020-05-01, 16:42:09
Oh mein Gott. Lachen und Weinen wechselten sich bei mir gerade wieder ab, als ich die Zahlen der neuen Steam Survey sah: https://store.steampowered.com/hwsurvey/

Nun, die GTX 1060 ist nach wie vor das beliebteste Einzelmodell. Aber jetzt der Knaller: 8 GiByte VRAM ist knapp die verbreitetste Speicherkapazität. Bei Steam. Wo jeder für Dota, CSGO & Co. genutzte Crap-Rechner mitzählt. :ulol: 8 GiByte kann man also sogar im Mainstream als Standard betrachten.

Wie gesagt, Grafikkarten mit 8 GiByte sind seit 2014 verfügbar, seit 2016 in Massen. Wenn Nvidia also 2020 wieder mit dieser Kapazität ums Eck kommt, sollten wir vielleicht einfach mal alle einen Boykott planen.

MfG
Raff
Bei einer Umfrage müssen natürlich auch die "Crap Rechner" mitgezählt werden, sonst kann man sich ja eine Umfrage sparen... und Dota auf hohen Settings mit manchen Maps brauch schon richtig viel power, auch dabei liegst du also sehr daneben.
Dazu kommt das Natürlich der Shared VRAM gemeint ist (für dich: Das was im Taskmanager ganz unten steht bei deiner GPU) also meistens das doppelte des wirklichen VRams. also ist der Standard 4GB. Ich würde sagen wir Boykottieren lieber die PCG Hardware:cool: wäre genauso lächerlich wie deine Aussagen.

Ghost1nTh3GPU
2020-05-03, 10:57:05
Was spräche eigentlich gegen einen Aufbau, wo der 7nm GPU-Die auf einen 14nm Interposer gesetzt wird, der einen respektablen L3/L4-Cache (>128MB) mitbringt und je nach Einsatzzweck den GPU-Die über ein GDDR6 oder HBM bzw. proprietäre Speicherart Interface mit Bandbreite und RAM versorgt?

robbitop
2020-05-03, 10:58:50
Kosten?

horn 12
2020-05-03, 13:24:19
https://wccftech.com/nvidias-ampere-gpus-tsmcs-7nm-and-next-gen-hopper-gpus-samsungs-5nm-euv-rumor/

Ob dies stimmt...
Dann wäre AMD wohl ausgestochen!

tEd
2020-05-03, 13:29:01
https://wccftech.com/nvidias-ampere-gpus-tsmcs-7nm-and-next-gen-hopper-gpus-samsungs-5nm-euv-rumor/

Ob dies stimmt...
Dann wäre AMD wohl ausgestochen!

Da steht doch nichts neues. Das Ampere für HPC in 7nm kommt war ja schon klar.

OgrEGT
2020-05-03, 13:29:58
https://wccftech.com/nvidias-ampere-gpus-tsmcs-7nm-and-next-gen-hopper-gpus-samsungs-5nm-euv-rumor/

Ob dies stimmt...
Dann wäre AMD wohl ausgestochen!

Warum?

BlacKi
2020-05-03, 13:37:32
schick schick schick eine neue gpu für mich anfang herbst nach der (online)gamescom *händereib*

robbitop
2020-05-03, 13:48:25
Hätte ich auch Lust drauf. Aber nur wenn's auch den Top Dog (102 bzw xx80 ti) gibt. :)

=Floi=
2020-05-03, 14:40:08
Da baut NV bestimmt wieder kein rundes produkt. ^^

Die murksen genau wie intel rum, damit man ja noch etwas beschneiden oder weglassen kann. Den founders müll können sie auch behalten.


https://www.youtube.com/watch?v=p1CuxZM800w
Das hier ist auch so ein geiles beispiel, wie man mit gleicher TDP die neue karte geringer taktet. :ugly:

robbitop
2020-05-03, 14:46:27
Tja bis dato aber alternativlos, wenn man echtes High End haben will. :)

Ghost1nTh3GPU
2020-05-03, 18:09:38
Kosten?

Man könnte sich jedenfalls Kosten für Tapeouts der komplexen GPU-Dies sparen. Die IMC-Cache-Dies wären vom Aufwand weit weniger komplex. Aber das ist wohl eher etwas für Hooper. Ampere nimmt da eher den einfachen Weg mit Shrink und kleineren Umbauten.

Troyan
2020-05-03, 18:11:47
Irgendwas mit A im Namen wird nVidia vorstellen: https://videocardz.com/newz/nvidia-dgx-a100-first-ampere-based-system-spotted

w0mbat
2020-05-03, 18:19:25
Ich weiß, die goldene Arschkarte, weil alle SKUs >1000€ kosten werden :ugly:

robbitop
2020-05-03, 18:21:20
Man könnte sich jedenfalls Kosten für Tapeouts der komplexen GPU-Dies sparen. Die IMC-Cache-Dies wären vom Aufwand weit weniger komplex. Aber das ist wohl eher etwas für Hooper. Ampere nimmt da eher den einfachen Weg mit Shrink und kleineren Umbauten.

Spielst du auf Chiplets an? IMO: wird mittelfristig nicht passieren bei Spiele GPUs.

basix
2020-05-03, 21:02:36
Spielst du auf Chiplets an? IMO: wird mittelfristig nicht passieren bei Spiele GPUs.

Spätestens ab der 3nm Generation, da die Chipfläche ab dann max. 400mm2 gross sein wird ;)

Platos
2020-05-03, 21:20:42
Spätestens ab der 3nm Generation, da die Chipfläche ab dann max. 400mm2 gross sein wird ;)

Warum sollte das so sein?

AffenJack
2020-05-03, 21:53:11
Warum sollte das so sein?

Weil High-NA EUV Belichtung kommen wird, womit sich das Reticle Limit auf 429 mm² deutlich senkt. Allerdings sollen die erst 2023 kommen und werden wahrscheinlich erst ~2024/2025 bei 2nm ein Thema. 3nm bei TSMC/Samsung wird noch ohne auskommen.

y33H@
2020-05-04, 00:47:13
Du kannst mit High-NA auch größere Dies fertigen, erfordert Mask Stitching.

Platos
2020-05-04, 02:00:14
Weil High-NA EUV Belichtung kommen wird, womit sich das Reticle Limit auf 429 mm² deutlich senkt. Allerdings sollen die erst 2023 kommen und werden wahrscheinlich erst ~2024/2025 bei 2nm ein Thema. 3nm bei TSMC/Samsung wird noch ohne auskommen.

Gibt's dazu nen guten Artikel? Das ist mir wohl entgangen in den letzten Monaten.

=Floi=
2020-05-04, 02:52:07
Diese zuküftigen generationen könnten dann auch ein chiplet design besitzen!
Ich würde fast darauf wetten, dass man das macht. Das problem der latenz wird man auch lösen. Einen interposer braucht man dank HBM (3? 4? :D) ebenfalls.

Piefkee
2020-05-04, 07:40:08
Du kannst mit High-NA auch größere Dies fertigen, erfordert Mask Stitching.

Wird aber niemand machen IMHO. Zu groß ist der Vorteil von High-NA in Kombination mit Chiplets.

AMD wird sicherlich auch bei GPUs den weg gehen.
Intel ist ja mit Xe schon genau auf diesem Weg.
Und der dritte im Bunde NV --> wirds ebenfalls so machen denke ich.

basix
2020-05-04, 08:20:35
Gibt's dazu nen guten Artikel? Das ist mir wohl entgangen in den letzten Monaten.

Kurze Artikel:
https://www.golem.de/news/euv-halbleiterfertigung-asml-bereitet-sich-auf-high-na-belichtung-vor-2003-147501.html
https://www.golem.de/news/euv-halbleiterfertigung-wie-chips-aus-plasma-fladen-entstehen-1908-130247-3.html

Details:
https://semiengineering.com/multi-patterning-euv-vs-high-na-euv/
https://www.euvlitho.com/2017/P22.pdf

Die meisten guten (und eher technischen) Präsentationen zu dem Thema kommen direkt von ASML. Die findet man aber leicht via Google.

High-NA wird von allen grossen Herstellern wie Intel, TSMC und Samsung unterstützt, weil es vorderhand EUV-Multipatterning verhindert. Das will momentan niemand, da extrem teuer.

Klevapalis
2020-05-04, 08:48:50
Nur hat noch keiner für GPUs das Synchronisationsproblem mehrere Chips gelöst, das eine Voraussetzung für Chiplets ist. Komplett anders als bei CPUs.

Es geht tatsächlich ja eher in die andere Richtung, SLI/Crossfire sind toter als tot.

Das sieht bei HPC natürlich anders aus, da würde das sicherlich funktionieren.

Troyan
2020-05-04, 11:02:32
Wer mal ein paar vollkommen glaubwürdige und zu 100% gesicherte Gerüchte haben will:
https://i.ibb.co/09RVP54/NVAMP-ARC.png
https://i.ibb.co/YfTQMGP/NVAMP-PERF.png
https://i.ibb.co/n0SWYQt/NVAMP-LAUNCH.png

https://www.resetera.com/threads/rumored-specs-for-nvidias-upcoming-ampere-rtx-3000-series-graphics-cards-rumored-specs-for-rtx-3060-rtx-3070-rtx-3080-and-rtx-3080-ti.196107/post-32994267
https://www.resetera.com/threads/rumored-specs-for-nvidias-upcoming-ampere-rtx-3000-series-graphics-cards-rumored-specs-for-rtx-3060-rtx-3070-rtx-3080-and-rtx-3080-ti.196107/post-32990856

Klevapalis
2020-05-04, 11:04:35
Ist "tippy-top cards" oberhalb oder unterhalb von HighEnd? :ulol:

maximus_hertus
2020-05-04, 11:09:48
Also primär ein RTX Update?

Die nicht RTX Performance scheint ja nicht sehr deutlich zu steigen?

September / Herbst also. Zen 3, RDNA2, Ampere. Alles auf einmal ;)

w0mbat
2020-05-04, 11:10:39
Daher kommt auch die Bezeichung "teurer Herbst".

WedgeAntilles
2020-05-04, 11:20:32
DLSS 3.0 works inherently with any game that uses TAA.

Ich kenne mich da gar nicht aus, aber das klingt doch viel zu gut um wahr zu sein, oder?

RLZ
2020-05-04, 11:22:16
Wer mal ein paar vollkommen glaubwürdige und zu 100% gesicherte Gerüchte haben will:
https://i.giphy.com/media/3ohs4jO0azuqvRyms0/giphy.gif

Selten so einen Quatsch gelesen.

Dampf
2020-05-04, 11:52:59
Ja, 4x RT Performance ist sehr unrealistisch. Ihr könnt die RT-Cores noch so optimieren, das Shading kostet den Großteil der Performance. Um 4X RT Performance zu erhalten, müsst ihr nicht nur die RT Cores, sondern auch die Shader Cores dramatisch erhöhen. Und diese wackligen Aussagen wie "Turing wird RT so handhaben wie Kepler DX12" sind auch sehr unglaubwürdig.

Dass der Typ dann noch behauptet, Navi auf RDNA1 Basis würde besser altern als Turing setzt dem dann doch die Krone auf und invalidiert ihn jeglicher Aussagekraft, immerhin hat diese GPU-Generation keine DXR-Beschleunigung, keine ML Beschleunigung und auch keins der DX12 Ultimate Features.

HOT
2020-05-04, 12:23:20
Man wird die SMs entsprechend überarbeiten müssen aber das ist zu erwarten. Wir werden durchaus 2-3x soviel Performance sehen mit RT, die Frage stellt sich mMn nicht. Das Turing für die nächste RT-Generation unbrauchbar wird (bis auf stellenweise die ti) ist doch auch absehbar.
Zudem werden wohl der 103er (der neue 104er) und 102er wohl N7x sein, wie es aussieht, genau wie die HPC-Variante.

Dampf
2020-05-04, 12:32:35
Man wird die SMs entsprechend überarbeiten müssen aber das ist zu erwarten. Wir werden durchaus 2-3x soviel Performance sehen mit RT, die Frage stellt sich mMn nicht. Das Turing für die nächste RT-Generation unbrauchbar wird (bis auf stellenweise die ti) ist doch auch absehbar.
Zudem werden wohl der 103er (der neue 104er) und 102er wohl N7x sein, wie es aussieht, genau wie die HPC-Variante.

Inwiefern überarbeiten? Die Shader ALUs sind schon perfekt abgestimmt auf das, was sie tun sollen, nämlich shading. Was soll man da überarbeiten?

Warum gehst du davon aus, dass eine Karte mit DXR-Beschleunigung unbrauchbar wird? Ja, RT könnte aufwendiger werden, aber es wird immer skalierbar bleiben. Solange RDNA2 nicht signifikant stärker in der RT Performance wird (und wir können das bereits abschätzen dank dem Minecraft RT XSX Material) wird Turing was RT angeht auch nicht obsolet werden, denn Konsolen sind die Baseline. Es wird eventuell so sein, dass Ampere, RDNA3 usw höhere DXR Settings bekommen, wo das ganze dann mit höherer Präzision abläuft, aber mit Turing und RDNA2 kannst du dann immer noch auf mittleren DXR-Einstellungen spielen, was natürlich wesentlich besser aussehen wird als mit RTX off.

Also nein, das ist Quatsch.

HOT
2020-05-04, 13:07:42
Wir werden ja sehen wie das umgesetzt wird. Ich glaub einfach, dass wir bei RT einen gewaltigen und bei Rasterizing einen moderaten Sprung bekommen wird - mit den entsprechenden Folgen für alte Produkte.

Dampf
2020-05-04, 13:22:26
Wir werden ja sehen wie das umgesetzt wird. Ich glaub einfach, dass wir bei RT einen gewaltigen und bei Rasterizing einen moderaten Sprung bekommen wird - mit den entsprechenden Folgen für alte Produkte.

Ja, wir werden sehen. Wir auf jeden Fall eine spannende Entwicklung werden. Ampere wird sicherlich einen Sprung in der RT Performance machen. Aber 3-4x halte ich für sehr unrealistisch (wünschenswert wäre es trotzdem)

Gratzner
2020-05-04, 13:24:42
Inwiefern überarbeiten? Die Shader ALUs sind schon perfekt abgestimmt auf das, was sie tun sollen, nämlich shading. Was soll man da überarbeiten?


Wenn ich mich richtig erinnere sind Shader zurzeit auf SIMD optimiert und für Raytracing wäre MIMD besser

AffenJack
2020-05-04, 13:27:50
Ich kann @Dampf nur zustimmen, soviel kann man bei RT nicht rausholen. Man kann zwar die RT Cores aufpumpen, aber das hilft nur bei bestimmten RT Effekten, wo Shading nicht limitiert. Bei den meisten wird das nicht soviel bringen und ist daher unrealistisch.

Zusätzlich ist auch das DLSS 3.0 nachdem gerade 2.0 kam nur Wunschdenken.
Ist ein Fake und nix weiter.

Sunrise
2020-05-04, 14:57:48
Einige Ideen da drin sind jetzt so falsch nicht, aber er hat da einen entscheidenden Fehler gemacht:

Er hat das falsche Grün benutzt... :D

HOT
2020-05-04, 15:26:55
Dass sich das jemand zusammengestoppelt hat ist offensichtlich. Die Infos können ja trotzdem stimmen. Offiziell ist daran natürlich gar nichts.

aufkrawall
2020-05-04, 15:29:18
Dass sich das jemand zusammengestoppelt hat ist offensichtlich. Die Infos können ja trotzdem stimmen. Offiziell ist daran natürlich gar nichts.
Wenn horn etwas schreibt, könnte es rein theoretisch auch stimmen.

Linmoum
2020-05-04, 15:40:54
Wenn horn etwas schreibt, könnte es rein theoretisch auch stimmen.
Plot Twist: Das Geschreibsel auf den Bildern stammt von horns Quelle. ;D

TheAntitheist
2020-05-04, 15:54:40
DLSS 3.0 works inherently with any game that uses TAA.

Ich kenne mich da gar nicht aus, aber das klingt doch viel zu gut um wahr zu sein, oder?
das ist ja schon fast mit DLSS 2.0 so, wenn TXAA schon läuft müssen nur GANZ kleine änderungen vorgenomen werden.

Asaraki
2020-05-04, 16:17:33
DLSS 3.0 works inherently with any game that uses TAA.

Ich kenne mich da gar nicht aus, aber das klingt doch viel zu gut um wahr zu sein, oder?

Ne, das stimmt ja schon für DLSS 2.0, oder sogar für DLSS 1.0. Inherently sagt ja auch nichts, ausser dass es möglich wäre es einzubauen. "Works" heisst ja nicht "is available". Ohne Dev Aufwand (und vor allem dem vorgängigen Liefern von unglaublich viel Mateiral an nVidia) geht da auch bei DLSS 2930.0 garnichts, ausser sie zapfen das Material gleich während des Zockens ab ^^

Edit: Sorry hatte nicht refreshed und die Antwort nicht gesehen.

Ex3cut3r
2020-05-04, 16:31:19
Wer mal ein paar vollkommen glaubwürdige und zu 100% gesicherte Gerüchte haben will:
https://i.ibb.co/09RVP54/NVAMP-ARC.png
https://i.ibb.co/YfTQMGP/NVAMP-PERF.png
https://i.ibb.co/n0SWYQt/NVAMP-LAUNCH.png

https://www.resetera.com/threads/rumored-specs-for-nvidias-upcoming-ampere-rtx-3000-series-graphics-cards-rumored-specs-for-rtx-3060-rtx-3070-rtx-3080-and-rtx-3080-ti.196107/post-32994267
https://www.resetera.com/threads/rumored-specs-for-nvidias-upcoming-ampere-rtx-3000-series-graphics-cards-rumored-specs-for-rtx-3060-rtx-3070-rtx-3080-and-rtx-3080-ti.196107/post-32990856

Selten so einen Quatsch gelesen.
hat das ein 5-Jähriger mal eben in PS gezaubert? Lächerlich.

=Floi=
2020-05-04, 17:39:40
Eine nochmalig großartige steigerung der memory compression kann ich mir weniger vorstellen. Da hat man ja bisher schon alles rausgeholt was geht. Über die tensor cores wäre möglich, aber energietechnisch ist das bullshit.

Daredevil
2020-05-04, 17:47:01
Elektronische Features sparen halt Ressourcen, das kann sich gut bemerkbar machen bei Millionen verkauften Einheiten, nech.
DLSS, Sharpening und auch besseres nutzen von Speicher bei gleichzeitigem Premium Preis klingt jetzt erstmal nach Nvidia. ^^

NVENC und RTX Voice rocken btw.. Ich hoffe Nvidia baut in der Richtung noch mehr aus.

Edgecrusher86
2020-05-04, 20:43:40
https://wccftech.com/nvidia-dgx-a100-next-gen-ampere-ga100-gpu-based-supercomputing-system-spotted/

https://abload.de/thumb/nvidia-dgx-station-det7kfx.jpg (https://abload.de/image.php?img=nvidia-dgx-station-det7kfx.jpg) https://abload.de/thumb/nvidia-dgx-a100-amperngkwh.png (https://abload.de/image.php?img=nvidia-dgx-a100-amperngkwh.png)

Originalgröße
https://abload.de/img/nvidia-dgx-a100-amperngkwh.png
https://abload.de/img/nvidia-dgx-station-det7kfx.jpg

y33H@
2020-05-04, 21:32:44
Die Bilder zeigen kein DGX A100.

Edgecrusher86
2020-05-04, 21:42:21
https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/dgx-station/nvidia-dgx-station-datasheet.pdf

Ach ja - Tatsache, V100er mit AiO und um 90 Grad gedrehten Buchsen...dann sorry. :redface:

pixeljetstream
2020-05-04, 23:54:36
Ohne Dev Aufwand (und vor allem dem vorgängigen Liefern von unglaublich viel Mateiral an nVidia) geht da auch bei DLSS 2930.0 garnichts, ausser sie zapfen das Material gleich während des Zockens ab ^^
Das Spiel-spezifische Training gibt es nicht mehr seit 2.0
Mehr Info im DLSS thread https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12298363

Asaraki
2020-05-05, 00:31:18
Das Spiel-spezifische Training gibt es nicht mehr seit 2.0
Mehr Info im DLSS thread https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12298363

Danke! Hui bin nicht mehr up to date :-/

Gouvernator
2020-05-05, 22:44:13
12GB Vram ist aber ein Witz. Mit 8K Monitor kann man dann nicht mal 16K DSR machen. Und eine Titan mit 24Gb für 3000€ ist dann genau so ein Witz. Sowohl vom Preis her wie auch von Vram.

Rente
2020-05-05, 23:44:21
Danke für diesen wertvollen Beitrag, das Ziel von Nvidia mit Ampere wird sicherlich 8K- und 16K-Gaming und die damit verbundene Zielgruppe von 0,001% aller Nutzer sein.

Und um mal "Gerüchte" beizutragen:

Focus of GTC'2020 online conference on 5/14 will be around AI, HPC, data science, autonomous machines, healthcare, and recent advances in graphics technology. Jensen Huang will unveil Nvidia's next-gen Ampere's architecture and discuss the future outlook.

Due to uncertainties surrounding Covid-19, Ampere which was originally scheduled for Q3'20 launch may experience slight delays. 3. Due to the high cost of advanced nodes, and the desire to have a second source for risk diversification, Nvidia may use the higher-cost, but better-yielding TSMC 7nm EUV process for its mid-to-high-end products, while part of the lower volume, mid-to-low end products will use Samsung's aggressively priced 7nm EUV and 8nm processes.

Worth noting, Nvidia previously underestimated the effect of AMD embracing TSMC, and made some errors in its own plans for migrating to advanced nodes. Moving to Samsung and wavering in its TSMC strategy, only to go back to TSMC later, Nvidia was unable to secure enough 7nm capacity, resulting in AMD grabbing the limelight, eroding Nvidia's brand value, and increasing its own market share for GPUs.

As the costs for advanced nodes began skyrocketing, there have been rumors that Nvidia and others frequently leaked news about their intention to increase Samsung's share of orders, to pressure TSMC into lowering prices. However, thanks to its absolute leadership position and demand exceeding supply, TSMC did not budge. Customers had little choice but to throw cash at TSMC to fight for limited production capacity while giving some small orders to the aggressive discounter Samsung. For Qualcomm, in addition to aggressive discounts, there's also the tacit understanding that Samsung will use Qualcomm's chipsets in their mobile handsets.

There are also rumors that AMD may shift some orders to Samsung. However, industry observers believe this is very unlikely at the moment. Besides yield and performance, TSMC's brand power is also important, as can be seen from AMD's repeated emphasis of the TSMC partnership. Others like Huawei, Ali Baba, Mediatek, Qualcomm, etc. have done the same. Ever since Samsung announced mass production of its 7nm EUV process, yields and customer acceptance have largely been unknown. Samsung's 5nm and 3nm are also paper launches. This year, the pandemic has resulted in significant delays in installation schedules for EUV-related equipment, and competition for capacity amongst fabless chip companies remains intense. As such, the likes of Nvidia and AMD will not risk shifting orders to Samsung. (DigiTimes)
Von Digitimes über wccftech. (https://wccftech.com/nvidia-tsmc-7nm-euv-high-end-gpus-samsung-7nm-low-end/)

=Floi=
2020-05-06, 00:04:08
Nvidia mit Ampere wird sicherlich 8K- und 16K-Gaming sein.


Das hab ich mich schon bei volta gefragt, warum der noch eine breite grafikhardware besitzt. Gibt es eine anwendung, wo die grafikpipeline dieser gpu genutzt wird?!

y33H@
2020-05-06, 00:15:44
Desktop, Workstation ...

Unicous
2020-05-06, 00:16:58
@Rente Warum verlinkst du die nicht wirkliche "Quelle" (der Übersetzung)?
Warum WTF-Tech die Klicks geben, wenn sie nichts können außer anderer Leute Arbeit zu klauen?

https://pbs.twimg.com/media/EXQx5cXUYAETccr.png

https://twitter.com/chiakokhua/status/1257685298118451200

=Floi=
2020-05-06, 02:40:58
Workstation ...

Die volta quadro kannte ich garnicht. :eek:

Klevapalis
2020-05-06, 08:29:51
Genau, NVIDIA hat 5nm schon gebucht, aber natürlich komplett vergessen 7nm zu bestellen :ulol:

Wer glaubt denn so einen Müll?

12GB Vram ist aber ein Witz. Mit 8K Monitor kann man dann nicht mal 16K DSR machen. Und eine Titan mit 24Gb für 3000€ ist dann genau so ein Witz.
Die Titan hatte 2018 beriets 24GB, warum sollte die kommende die identische VRAM-Ausstattung haben? Das ergibt keinerlei SInn.

Leonidas
2020-05-06, 10:07:38
Wer glaubt denn so einen Müll?



Wird doch aber gut erklärt: Man wollte zuerst zu Samsung. Hat nicht funktioniert, womit man bei 7nm TSMC ziemlich nackig dastand. Dann Strategiewechsel - und nun ist alles (restliches) 7nm EUV bei TSMC gebucht und alles 5nm vorgebucht.

Man hat nicht 5nm gebucht und gleichzeitig 7nm vergessen. Das waren unterschiedliche Zeiträume.

Klevapalis
2020-05-06, 10:15:37
Wird doch aber gut erklärt: Man wollte zuerst zu Samsung. Hat nicht funktioniert, womit man bei 7nm TSMC ziemlich nackig dastand.
Steht da nicht. Da steht, man hat behauptet zu Samsung zu gehen, um TSMC zu niedrigeren Preisen zu erpressen. Das mag im Kern so sein und passen, da wird NVIDIA aber garantiert nicht den Absprung verpasst haben, dennoch bei TSMC zu bestellen.

Weiter wird dort ja auch behauptet, NVIDIAs Markenwert wäre dadurch "eroded" und hätte Market Share verloren. Das ist einfach Blödsinn zum Quadrat.

edit: Schreibst den Stuss ja jetzt sogar noch in der News falsch zusammen:
In der Folge dieses Fehlschlags hat nVidia nun allerdings einen Strategiewechsel vorgenommen und will AMD zukünftig auch an der Front der Chipfertigung sogar zuvorzukommen:
Welchen Strategiewechsel? :confused:

Bei 16nm war NVIDIA bereits deutlich schneller vor AMD im Markt. Sogar mit den deutlichen größeren Chips. Wo soll da ein Strategiewechsel sein?

NVIDIA hat 7nm bisher nicht genutzt, weil es schlicht keinen ausreichenden Grund gab, auf 7nm zu wechseln. Im Sept. 2018 hätte man schlicht keinen 7nm Chip launchen können, geschweige denn direkt 3 Stück.

Troyan
2020-05-06, 10:16:44
Haben wir schon über den Supercomputer Perlmutter gesprochen? Supercomputer soll 90 bis 120 Petaflops mit >6000 "Next-Gen" nVidia GPUs haben. Zum Vergleich Sierra hat 120PFs mit >17k Voltas.

https://www.computerbase.de/2020-05/supercomputer-nersc-9-perlmutter-amd-milan-nvidia-ampere/

Leonidas
2020-05-06, 10:20:11
Das ist einfach Blödsinn zum Quadrat.


Ich sehe die Formulierungen als zu hart an - aber mit gutem Potential für einen wahren Kern. "Blödsinn" wäre für mich etwas, was überhaupt nicht passiert sein kann. Das kann ich zu diesem Text überhaupt nicht sagen. Das kann absolut so passiert sein. Die Wertung der DigiTimes spielt für die realen Ereignisse ja überhaupt keine Rolle.




Haben wir schon über den Supercomputer Perlmutter gesprochen? Supercomputer soll 90 bis 120 Petaflops mit >6000 "Next-Gen" nVidia GPUs haben. Zum Vergleich Sierra hat 120PFs mit >17k Voltas.


Ein weiterer Supercomputer, der mit Volta geplant war und nun auf Ampere geht. Wie hier schon:
https://www.3dcenter.org/news/nvidia-soll-mit-ampere-einen-performance-sprung-von-70-75-im-hpc-bereich-bringen

Klevapalis
2020-05-06, 10:27:04
Ich sehe die Formulierungen als zu hart an - aber mit gutem Potential für einen wahren Kern. "Blödsinn" wäre für mich etwas, was überhaupt nicht passiert sein kann. Das kann ich zu diesem Text überhaupt nicht sagen. Das kann absolut so passiert sein. Die Wertung der DigiTimes spielt für die realen Ereignisse ja überhaupt keine Rolle.
Fakt ist, dass es für das Ausbleiben von 7nm Chips bei NVIDIA sehr gute technische Gründe gibt - ein Verzocken ist da ziemlich unrealistisch.

Dass man es da mit markigen Worten übertreibt ist ein klares Indiz für die Übertreibung des Artikels.

Und wie bereits gesagt: Ein Strategiewechsel ist das bei NVIDIA nicht. Bei 16nm war man schon früher dran, als AMD.

X-Bow
2020-05-06, 11:19:18
Fakt ist, dass es für das Ausbleiben von 7nm Chips bei NVIDIA sehr gute technische Gründe gibt - ein Verzocken ist da ziemlich unrealistisch.

Dass man es da mit markigen Worten übertreibt ist ein klares Indiz für die Übertreibung des Artikels.

Und wie bereits gesagt: Ein Strategiewechsel ist das bei NVIDIA nicht. Bei 16nm war man schon früher dran, als AMD.

Ja es gibt einen technischen Grund warum keine 7nm Chips von nV kommen konnten und der ist die Kapazität von TSMC.
Wie bekannt wird diese erst jetzt wieder in dieser Menge frei dass nV diese überhaupt nutzen kann.
Und dass es überhaupt soweit gekommen ist das nV sich keine 7nm Kapa gekauft hat, das ist verzocken von nV bzw. ein perfektes Timing von AMD gewesen.

Auch wenn nV tolle GPU's entwickelt sind die nicht gefeit davor unternehmenstrategischen Bockmist zu bauen. Umsatz und Erfolg schützt nicht vor eigenen Fehlern.

Sweepi
2020-05-06, 11:43:58
Ich lese die News anders.
Alte Strategie: (Gaming-) Ampere bei Samsung fertigen lassen. Schlechtere Fertigung sollte ausreichen um AMD zu dominieren. Spart Kosten, fördert einen Mitbewerber von TSMC.

Neue Strategie: Highend Gaming Ampere bei TSMC fertigen lassen. Diverse Gruende vorstellbar (AMD RDNA2 zu stark, nVidia sieht nicht das Samsung of TSMC aufholt, DigitTimes führt Marketing(?) Gründe an: "Nvidia was unable to secure enough 7nm capacity, resulting in AMD grabbing the limelight, eroding Nvidia's brand value, and increasing its own market share for GPUs."*)

Falls DigiTimes recht hat -> eindeutig ein Strategiewechsel.
Bleibt die semantische Frage: nVidia wechselt den Fertiger und plant, AMD bei TSMC 7nm+ zuvorkommen. Ist dies nun "die Strategie", "Teil der Strategie", oder lediglich "Folge der Strategie"?


Was mir komisch vorkommt:
Ein Fertiger Wechsel braucht zeitlichen Vorlauf, ist die Entscheidung schon älter?


*
Seit wann interessiert sich die Masse dafür wo ein Chip gefertigt wird?
Oder ist das nur meine Blase und breiten Markt gibt es etabliertes Premium-Branding von TSMC?


https://arstechnica.com/gadgets/2015/10/samsung-vs-tsmc-comparing-the-battery-life-of-two-apple-a9s/

Leonidas
2020-05-06, 12:04:01
Seit wann interessiert sich die Masse dafür wo ein Chip gefertigt wird?
Oder ist das nur meine Blase und breiten Markt gibt es etabliertes Premium-Branding von TSMC?


Ist auch ein Nachdenkpunkt meinerseits. Andererseits: Bei den direkten Kunden von AMD & nVidia zählt es sicherlich, ob man neue Produkte basierend auf TSMC oder Samsung bringt: Grafikkarten-Hersteller, OEMs etc. Die wissen durchaus, wer derzeit führend ist.

Sweepi
2020-05-06, 12:13:25
Meinst du wirklich?
Neben Marketing zählt bei denen doch nur Performance/Preis. Je nach Anwendung auch noch Performance/Watt.
Das beides bei TSMC evtl. besser sein könnte, ändert ja nichts am Geschäft, wenn nVidia mit 8nm Samsung mithalten kann.

Klevapalis
2020-05-06, 12:20:54
Ja es gibt einen technischen Grund warum keine 7nm Chips von nV kommen konnten und der ist die Kapazität von TSMC.
Wie gesagt: Für einen Herbst 2018 Launch, war die Kapazität für TSMC komplett irrelevant, weil 7nm noch gar nicht reif gewesen wäre für 3 GPU-Chips im HighEnd.

Nur für ein LowVolume Produkt wie die Radeon VII konnte man - noch dazu deutlich später - launchen.

Aber für den NVIDIA Launch mit Karten im Bereich von 500 bis 1200US$ war da schlicht nichts vorhanden. Selbst mit allen 7nm Kapazitäten bei TSMC.

Troyan
2020-05-06, 12:22:13
Apple hat auch erst im September 2018 die ersten 7nm Chips verkauft. Der Prozess stand also für Turing nicht zur Verfügung. Unterschied zu 16nm, wo Pascal knapp 9 Monate später erschien.

basix
2020-05-06, 13:23:28
Haben wir schon über den Supercomputer Perlmutter gesprochen? Supercomputer soll 90 bis 120 Petaflops mit >6000 "Next-Gen" nVidia GPUs haben. Zum Vergleich Sierra hat 120PFs mit >17k Voltas.

Interessanter Vergleich.

125 PFLOPs / 17k = 7.35 TFLOPs pro V100; Angabe Nvidia = 7.8 TFLOPs
90 PFLOPs / 6k = 15 TFLOPs pro "A100" --> Wäre ziemlich gut, könnte aber realistisch sein (8k Shader @ 1.9 GHz)
120 PFLOPs / 6k = 20 TFLOPs pro "A100" --> Wäre extrem gut, mMn zu gut für 7nm (8k Shader @ 2.5 GHz)


Woher hast du die 90-120 PFLOPs? Ich lese überall "knapp 100 PFLOPs". In den 100 PFLOPs wären zudem nach Abschluss Phase 2 noch total 12k EPYC Prozessoren dabei, welche bei FP64 nicht so schwach auf der Brust sind (ca. 2.1 TFLOPs bei 64 Kernen - EPYC 7742).

Evtl. ist das die Auflösung:

90 PFLOPs = GPUs
30 PFLOPs = CPUs

Timbaloo
2020-05-06, 13:33:07
Die CPU-FLOPS werden da doch sicher mitgezählt. Aus den Zahlen wird man nichts sinnvolles herleiten können, außer das Ampere > Volta :D

Troyan
2020-05-06, 13:34:44
Offizielle Aussage ist 3x bis 4x schneller als Cori. Cori hat knapp 30PF: https://www.nersc.gov/systems/perlmutter/

X-Bow
2020-05-06, 14:39:15
Wie gesagt: Für einen Herbst 2018 Launch, war die Kapazität für TSMC komplett irrelevant, weil 7nm noch gar nicht reif gewesen wäre für 3 GPU-Chips im HighEnd.

Nur für ein LowVolume Produkt wie die Radeon VII konnte man - noch dazu deutlich später - launchen.

Aber für den NVIDIA Launch mit Karten im Bereich von 500 bis 1200US$ war da schlicht nichts vorhanden. Selbst mit allen 7nm Kapazitäten bei TSMC.

Wer spricht von Herbst 2018? Wäre AMD nicht gewesen wäre die 7nm Kapa von TSMC 2019 zur genüge vorhanden gewesen um mit ein komplettes Portfolio von Turing in 7nm als "Super" aufzulegen. :rolleyes:

Timbaloo
2020-05-06, 14:46:23
Was halt kompletter Schwachsinn gewesen wäre.

Klevapalis
2020-05-06, 14:52:45
Wer spricht von Herbst 2018? Wäre AMD nicht gewesen wäre die 7nm Kapa von TSMC 2019 zur genüge vorhanden gewesen um mit ein komplettes Portfolio von Turing in 7nm als "Super" aufzulegen.
Weil Herbst 2018 Turing gestartet ist.

Einen 7nm Refresh hätte man nicht 2019 launchen können - Entwicklungszeit und so - und statt eben Anfang 2020 einen müden Die-Shrink zu liefern, kommt man im Herbst 2020 mit ner komplett neuen Architektur.

Sorry für euch, aber die Faktenlage spricht gegen ein Verzocken von NVIDIA, sondern für eine clevere Strategie, bei der eben der unnötige 7nm (DUV) Node einfach übersprungen wurde.

X-Bow
2020-05-06, 15:10:22
Weil Herbst 2018 Turing gestartet ist.

Einen 7nm Refresh hätte man nicht 2019 launchen können - Entwicklungszeit und so - und statt eben Anfang 2020 einen müden Die-Shrink zu liefern, kommt man im Herbst 2020 mit ner komplett neuen Architektur.

Sorry für euch, aber die Faktenlage spricht gegen ein Verzocken von NVIDIA, sondern für eine clevere Strategie, bei der eben der unnötige 7nm (DUV) Node einfach übersprungen wurde.

Deswegen weil die so clever waren brachte nVidia langweilige "Super" 2019 raus? ;D
Die Enwicklungszeit wäre mit über einem Jahr lang genug gewesen. AMD wäre mit GF zum jetzigen Zeitpunkt viel weiter weg als sie es jetzt sind.

Der Zeitraum, wo die 7nm Kapas vergeben wurden, dürfte irgendwo im Zeitraum Q1 2018 gelegen haben, und wenn wir in den Zeitraum schauen hatte nV nur eine strategische Meisterleistung gebracht: GPP... na "super" :freak:

Klevapalis
2020-05-06, 15:16:55
Deswegen weil die so clever waren brachte nVidia langweilige "Super" 2019 raus?
Wenig Aufwand, dennoch komplett konkurrenzfähig und gleichzeitig durch den günstigen Node hohe Marge.

Was ist daran nicht clever?

Die Enwicklungszeit wäre mit über einem Jahr lang genug gewesen. AMD wäre mit GF zum jetzigen Zeitpunkt viel weiter weg als sie es jetzt sind.
Die Entwicklungszeit für einen Die-Shrink wäre deutlich länger als ein Jahr gewesen. Schön, dass du einfach nur keinerlei Ahnung hast, wovon du schreibst :ugly:

Der Zeitraum, wo die 7nm Kapas vergeben wurden, dürfte irgendwo im Zeitraum Q1 2018 gelegen haben, und wenn wir in den Zeitraum schauen hatte nV nur eine strategische Meisterleistung gebracht: GPP... na "super"
Die strategische Meisterleistung war es, lieber den ausgereiften 12nm Prozess zu nutzen um im Herbst 2018 ein LineUp mit 3 Chips auszuliefern, die im Mai 2020 immer noch komplett konkurrenzfähig, zum großen Teil sogar komplett konkurrenzlos, sind :cool:

Grendizer
2020-05-06, 15:21:09
Was hat den nVidia trotz der müden Super Karten wirklich verloren ?

https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q12020

Bei Mindfactory liegt der Umsatz bei 67,6% vs. 32,4 % zu gunsten von nVidia.

Für mich sieht das irgendwie nicht wie ein Strategie Fehlschlag aus.

Ex3cut3r
2020-05-06, 15:35:26
Nimmt den Troll doch nicht ernst. Jaaa, es lief/läuft ganz schlecht für Nvidia. :rolleyes:

Klevapalis
2020-05-06, 15:39:25
Nimmt den Troll doch nicht ernst. Jaaa, es lief/läuft ganz schlecht für Nvidia.
Spätestens seit dem fehlenden Chipsatz-Business sollen die doch tot sein :ulol:

prinz_valium_2
2020-05-06, 15:52:28
Bevor AMD bei Grafikkarten Nvidia Markanteile abnehmen kann, wie sie es bei CPUs mit Intel machen, wird es noch 2 Jahre dauern

X-Bow
2020-05-06, 15:58:51
Die Entwicklungszeit für einen Die-Shrink wäre deutlich länger als ein Jahr gewesen. Schön, dass du einfach nur keinerlei Ahnung hast, wovon du schreibst :ugly:

Wie wenn AMD an VII länger als ein Jahr dran gesessen wären ;D


Was hat den nVidia trotz der müden Super Karten wirklich verloren ?

https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q12020

Bei Mindfactory liegt der Umsatz bei 67,6% vs. 32,4 % zu gunsten von nVidia.

Für mich sieht das irgendwie nicht wie ein Strategie Fehlschlag aus.

Erstens ist es dafür die falsche Zahl. Richtigerweiße hättest du die verkaufte Stückzahl nehmen müssen und nicht den Umsatz. Zudem müsst man es vergleichen zu den Anteilen von 2019. Mit den Dir verlinkten Zahlen liegt gemittelt über 4 Monate der Marktanteil bei MF also bei 41,6% zu 58,4% zugunsten von nVidia, und das ist nun mal nicht mehr so super wie es einst mal war.

Grendizer
2020-05-06, 16:02:04
Wie wenn AMD an VII länger als ein Jahr dran gesessen wären ;D




Erstens ist es dafür die falsche Zahl. Richtigerweiße hättest du die verkaufte Stückzahl nehmen müssen und nicht den Umsatz. Zudem müsst man es vergleichen zu den Anteilen von 2019. Mit den Dir verlinkten Zahlen liegt gemittelt über 4 Monate der Marktanteil bei MF also bei 41,6% zu 58,4% zugunsten von nVidia, und das ist nun mal nicht mehr so super wie es einst mal war.


Nein...der Umsatz paßt schon. Zeigt doch nur, das AMD das Zeug günstiger verkaufen muss, damit es gekauft wird, bzw. im Low-End Segment mit Polaris immer noch viele verkäufe hat

Klevapalis
2020-05-06, 16:06:29
Wie wenn AMD an VII länger als ein Jahr dran gesessen wären
Deutlich länger als ein Jahr sogar: Juli 2017 (Vega10) bis Januar 2019 (Vega 20).

Erstens ist es dafür die falsche Zahl. Richtigerweiße hättest du die verkaufte Stückzahl nehmen müssen und nicht den Umsatz. Zudem müsst man es vergleichen zu den Anteilen von 2019. Mit den Dir verlinkten Zahlen liegt gemittelt über 4 Monate der Marktanteil bei MF also bei 41,6% zu 58,4% zugunsten von nVidia, und das ist nun mal nicht mehr so super wie es einst mal war.
Wenn du dir die Torte darüber mal anschauen würdest, dann würdest du sehen, dass von den AMD-Stückzahlen nicht mal die Hälfte 7nm ist. AMD verkauft zu einem Drittel noch uralten Polaris-Schrott für extrem billig - siehe letzte Quartalszahlen.

Tatsächlich liegt der aktuelle Marktanteil (also Navi vs. Turing) bei 33 zu 66% zugunsten von NVIDA.

So wie es auch früher mal war :ugly:

Timbaloo
2020-05-06, 16:44:41
btw. es geht hier (theoretisch) immer noch um Ampere.

Troyan
2020-05-06, 16:49:42
Ja, Turing ist durch.

Das nVidia Ampere vorstellen wird, zeigen auch die neuen Einträge bei GTC Digital. Da gibt es am 19.05 ein Webniar über "GPU Architecture for Deep Learning and HPC" sowie weitere Videos: https://www.nvidia.com/en-us/gtc/session-catalog/

=Floi=
2020-05-06, 16:58:34
Für mich sieht das irgendwie nicht wie ein Strategie Fehlschlag aus.

was soll man denn sonst auch anderes kaufen?!
Entweder man rüstet auf, oder die karte ging kaputt. Die 2060S passt von der leistung her ganz gut. Ich musste mir auch eine 2070S kaufen, weil die alte karte zu alt war und mir der vram :rolleyes: ausging.

horn 12
2020-05-06, 18:10:59
So wie es scheint wird Ampere Gaming,- oder wie auch immer heissen mag nur ein Zwischenschieber und 2021 kommt schon Hopper in 5nm Verfahren...
Ampere hält nicht ein Jahr durch, Wetten!

BiZiNiZz
2020-05-06, 18:15:46
So wie es scheint wird Ampere Gaming,- oder wie auch immer heissen mag nur ein Zwischenschieber und 2021 kommt schon Hopper in 5nm Verfahren...
Ampere hält nicht ein Jahr durch, Wetten!

Was ist dein Wetteinsatz? Keine Prognosen mehr von dir?:cool:

Vielleicht kommt aber auch gar kein Gaming Ampere und direkt Hopper, wer weiß wer weiß. nVidia hält die Schleusen immer dichter. Selbst das was durchgekommen ist, ist mehr als vage.

Grendizer
2020-05-06, 18:16:48
So wie es scheint wird Ampere Gaming,- oder wie auch immer heissen mag nur ein Zwischenschieber und 2021 kommt schon Hopper in 5nm Verfahren...
Ampere hält nicht ein Jahr durch, Wetten!


Und das ist so furchtbar, weil ???

robbitop
2020-05-06, 18:19:26
Da wäre ich skeptisch. Die Entwicklung von GPUs wird immer teurer und zwar mit einer Potenzfunktion.
Entsprechend lange dauert das und außerdem müssen die Kosten auch entsprechend abgeschrieben werden.
So kurze GPU Lebenszyklen gab es schon seit mindestens 10 Jahren nicht mehr (also die Aufwände und Kosten verglichen mit heute lachhaft waren).

Man liegt seit einer guten Zeit bei 24 Monate im Zyklus.

Grendizer
2020-05-06, 18:22:51
Da wäre ich skeptisch. Die Entwicklung von GPUs wird immer teurer und zwar mit einer Potenzfunktion.
Entsprechend lange dauert das und außerdem müssen die Kosten auch entsprechend abgeschrieben werden.
So kurze GPU Lebenszyklen gab es schon seit mindestens 10 Jahren nicht mehr (also die Aufwände und Kosten verglichen mit heute lachhaft waren).

Man liegt seit einer guten Zeit bei 24 Monate im Zyklus.


Ich habe für mich beschlossen auch nichts mehr auf die Gerüchte zu geben. Ich eier hier immer noch mit einer 1080 und 4k rum, weil ich auf einen schnelleren Refresh von Turing mit mehr Speicher gehofft hatte.... Ampere wird in der 3080 oder sogar 3080 Ti Ausführung gekauft und kein dummes warten mehr, weil irgendwas dann vieleicht schnell nachkommt.

crux2005
2020-05-06, 19:36:22
So wie es scheint wird Ampere Gaming,- oder wie auch immer heissen mag nur ein Zwischenschieber und 2021 kommt schon Hopper in 5nm Verfahren...
Ampere hält nicht ein Jahr durch, Wetten!

Sehr gut!

Dank covid-19 und nur 60% Einnahmen wir es dieses Jahr es nichts mit Grafikkarte aufrüsten. Also kann 2021 dann ruhig die nächste Gen. kommen. :freak:

Ja, wir haben Luxus Probleme...

Timbaloo
2020-05-06, 20:44:11
So wie es scheint wird Ampere Gaming,- oder wie auch immer heissen mag nur ein Zwischenschieber und 2021 kommt schon Hopper in 5nm Verfahren...
Ampere hält nicht ein Jahr durch, Wetten!
Wie kann man nur so viel Müll erfinden....... :rolleyes:

Agent117
2020-05-06, 22:16:23
@Rente Warum verlinkst du die nicht wirkliche "Quelle" (der Übersetzung)?
Warum WTF-Tech die Klicks geben, wenn sie nichts können außer anderer Leute Arbeit zu klauen?

https://pbs.twimg.com/media/EXQx5cXUYAETccr.png

https://twitter.com/chiakokhua/status/1257685298118451200

Habe das ganze nicht so verfolgt, aber einige schlussfolgern hier, dass Nvidia RDNA1 in 7nm unterschätzt hätte und besser Turing auch in 7nm refreshed hätte.

Das ist mMn aber völliger Quatsch. Punkt 4 kann eigentlich nur meinen, dass Nvidia Perf/W und/oder Perf/mm² von RDNA 2 @ advanced 7nm bei TSMC unterschätzt hat.

Das klingt auch von den bisher bekannten Eckdaten zu RDNA2 auch durchaus nicht ganz abwegig. 50 % mehr Perf/W, die sehr hohen Taktraten der PS5 und die recht bescheidene Chipgröße der One X haben meine Erwartungen übertroffen. Womöglich wollte Nvidia ursprünglich nur einen hypothetischen GA102 bei TSMC fertigen lassen und den Rest billiger bei Samsung und musste jetzt auch GA104 oder gar GA106 bei TSMC fertigen lassen, um weiter effizienter und/oder schneller in der jeweiligen Klasse zu sein.
Man verschiebt die Fertigungsanteile hin zum besseren teureren Prozess.

BlacKi
2020-05-06, 22:21:06
Neuer Supercomputer mit Tausenden Ampere-GPUs von Nvidia.

https://www.pcgameshardware.de/Wissenschaft-Thema-237118/News/Supercomputer-vereint-AMD-und-Nvidia-1349549/

Platos
2020-05-07, 01:36:13
Bei einer 3-4Fachen Rechenleistung von Cori entspräche dass dann dem Platz 5 aller Supercomputer.

Interessant wäre noch zu wissen, was genau da verbaut wurde. Der 4. Platz mit ca. 60PFLOPs hat ja ca. 5 Millionen Kerne.

Verglichen mit der Anzahl an GPUs(6000), ist das also schon krass.

Leonidas
2020-05-07, 04:43:59
Da wäre ich skeptisch. Die Entwicklung von GPUs wird immer teurer und zwar mit einer Potenzfunktion.
Man liegt seit einer guten Zeit bei 24 Monate im Zyklus.


Richtiges Argument. Hopper in 2021 ist wenn dann ein Frühstart in Form von HPC oder vielleicht auch nur eine Vorankündigung samt Vorfertigung von HPC-Hopper (für eine Auslieferung in 2022) - aber nichts mit Gaming. Die Gaming-Generationen werden nicht unterhalb von 1,5J im Markt stehen, das kostet sonst zu viel und man verschenkt auch unnötig Potential. Derzeit ist ja zu sehen, wie lange man immer wieder dieselbe Generation verkaufen kann (Polaris).

amdfanuwe
2020-05-07, 07:22:47
Polaris, finde ich, ist ein schlechtes Beispiel.
Damals war AMD fast Pleite und konnte sich nicht viele Chips leisten.
Dann kam Bitcoin und die Produktion wurde hochgefahren.
Jetzt ist man froh, dass Nvidia die Preise hoch hält und die Lagerbestände an Polaris noch abverkaufen kann.
Vor fast 4 Jahren erschien die RX 480. Jetzt bekommt man im gleichem Preisbereich mit der RX 5500XT etwa 30% mehr Leistung. Kein Grund zum Aufrüsten. Gefühlter Stillstand über 4 Jahre.
Sieht aktuell für die Zukunft etwas anders aus:
RDNA2 in 7+nm verspricht mehr Leistung und damit Konkurrenz.
RDNA3 dürfte zügig in 5nm folgen.
Da AMD sich nun ein größeres Portfolio in einer Generation leisten kann, wird NVIDIA auch kämpfen müssen um nicht zuviel Marktanteil zu verlieren.
Man sieht ja, dass AMD im 400€ Segment besser verkauft wie NVIDIA.
Mal sehn, wenn AMD auch im 500+€ Bereich Konkurrenz bietet.

HOT
2020-05-07, 07:25:41
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-hat-AMD-angeblich-unterschaetzt-Hopper-2021-1349533/

Hört sich für mich so an, als launchten die großen Chips später, als die kleineren, da TSMC einfach nicht genug Kapazität in N7+ hat um NV Bedarf sicher zu stellen. Man wird sicherlich zuerst die HPC-Varianten auslasten (aufgrund der ganzen Vorbestellungen schon) und den 103er und 102er danach auf den Markt bringen. Das wird mMn erst 21 sein.
MMn sind 104er und 106er in 7LPP gefertigt und kommen recht pünktlich im Herbst, davon sollte man sich aber nicht zuviel versprechen. Die knacken die TI mMn nur bei RT, denn der eigentliche 104 Nachfolger ist der neue 103. Ich schrieb schon mal: TU104 -> AM103, TU 106 -> AM104 und TU116 -> AM106.
107 und 108 werden dann in 8LPP gefertigt, das ist ähnlich, wie bei Pascal zu sehen.

NV hat allerdings direkt die 5nm-Kapazitäten frühzeitig mitbestellt um nicht noch mal in diese Falle zu tappen.

Und klar, man wird Hopper als 5nm-Variante des jetzigen HPC-Chips sicherlich in 21 launchen wollen wenn möglich, allein um Kosten einzusparen und die N7+-Fertigung freizumachen für die Consumerchips. NV muss ja in Größenordnungen anders denken als AMD. Die sowieso schon vereinbarten Verträge zwischen AMD und TSMC über 7 und 5nm jedoch wird das keineswegs berüheren. AMD nutzt mMn N5 aber auch erst ab Anfang 22, da vorher keine Produkte von AMD in 5nm kommen mMn, die Kleinchips im Grafikbereich (Polaris und N14-Ersatz) wird man sicherlich in N6 fertigen, allein aus Kostengründen. Die nächste Consumergeneraton von NV würd ich realistischerweise dann (diese Mal pünktlich) in N5P in Richtung Ende 22 erwarten.
NV hat einen schweren strategischen Fehler begangen und bezahlt jetzt die Zeche mit Verspätungen bei den lukrativen High-End-Consumerprodukten und gleichzeitig massiv teurer Produktion, weil man TSMC die zusätzliche Kapazität und die Kurzfristigkeit teuer abkaufen muss. Die haben aber auch Glück bei AMD im Moment, das ist unfassbar.

nordic_pegasus
2020-05-07, 10:03:58
Man wird sicherlich zuerst die HPC-Varianten auslasten (aufgrund der ganzen Vorbestellungen schon) und den 103er und 102er danach auf den Markt bringen. Das wird mMn erst 21 sein.


das der x102 Chip erst ein paar Monate nach dem x104 Chip für Consumer auf den Markt kommt, war doch bei Maxwell und Pascal die Regel. Nur Turing hatte einen parallelen Launch der TU102 und TU104.

Ich will nicht wieder über Turing bashen, aber mMn musste Nvidia bei Turing so vorgehen, weil der Leistungssprung von Pascal nicht passte. Wären erstmal nur die 2080/2070 gelauncht worden, wäre der Shitstorm deutlich größer gewesen. Darum würde Dein Spekulation dazu passen, dass die neuen Karte wieder deutlich mehr Leistung bringen werden.

Vielleicht gibt es ja analog Pascal schnell eine Titan Karte für die Freaks bis dann irgendwann die 3080Ti kommt. Hoffentlich kommen nicht wieder 2 Titanen, die beschnittene Titan X(p) vor der vollen Titan Xp war schon starke Bauerfängerei.

Dural
2020-05-07, 10:24:18
Turing sollte im ersten Halbjahr auf den Markt kommen, deswegen sind die drei Chips alle relativ Zeitnah im zweiten Halbjahr auf den Markt bekommen.

Troyan
2020-05-07, 10:45:46
das der x102 Chip erst ein paar Monate nach dem x104 Chip für Consumer auf den Markt kommt, war doch bei Maxwell und Pascal die Regel. Nur Turing hatte einen parallelen Launch der TU102 und TU104.

Ich will nicht wieder über Turing bashen, aber mMn musste Nvidia bei Turing so vorgehen, weil der Leistungssprung von Pascal nicht passte. Wären erstmal nur die 2080/2070 gelauncht worden, wäre der Shitstorm deutlich größer gewesen. Darum würde Dein Spekulation dazu passen, dass die neuen Karte wieder deutlich mehr Leistung bringen werden.

Vielleicht gibt es ja analog Pascal schnell eine Titan Karte für die Freaks bis dann irgendwann die 3080Ti kommt. Hoffentlich kommen nicht wieder 2 Titanen, die beschnittene Titan X(p) vor der vollen Titan Xp war schon starke Bauerfängerei.

Volta gab es ein Jahr vorher schon. 754mm^2 zu produzieren war zu dem Zeitpunkt von Turing schon bekannt.

basix
2020-05-07, 11:55:04
Irgendwie passen all die rumschwirrenden Zahlen zu GA10x und Shader Count etc. einfach nicht zusammen. In den meisten "Leaks" haben die GA10x Chips zum Teil weniger Shader als die entsprechenden TU10x Vorgänger. Das macht einfach keinen Sinn, da es das noch nie gegeben hat. Wenn ich die Chips mit einer sinnvollen Aufteilung auflisten müsste, käme das heraus:

GA100 = 8192 Shader, HBM2e, 2.4 Gbit/s, 32 GByte (4 Stacks) --> Titan
GA102 = 5376 Shader, 384 bit, 16 Gbit/s, 16.5-18 GByte (12 Gbit Chips)
GA104 = 3584 Shader, 256 bit, 16 Gbit/s, 12 GByte
GA106 = 2560 Shader, 192 bit, 14 Gbit/s, 9 GByte
GA107 = 1536 Shader, 128 bit, 14 Gbit/s, 6 GByte


Das passt aus mehreren Gründen:

Abstände der Chips jeweils 1.4-1.5x
Speicherbandbreiten und Speichermengen passen zwischen den Chips
Abstand zu Turing ist gegeben (+20% Shader), mit Samsung 8nm / 7nm LP oder TSMC 7nm sinken die Chipgrössen aber drastisch. GA102 wäre ca. 500-550mm2 gross (Schätzung anhand TSMC 7nm EUV)
Mit etwas mehr Takt und IPC landen wir bei den gerüchtemässigen +50% Performance. Bei Spielen mit Raytracing und DLSS wären es >50%
Mehr Speicher, welches für NextGen Spiele und Raytracing automatisch den neuen Karten einen Vorteil gegenüber Turing bringen wird.
Bei GA106 und GA107 mit hohen Stückzahlen kann man günstigen 14 GT/s Speicher nehmen
Da Nvidia einen starken RDNA2 Top Dog erwartet, noch den GA100 als Halo-Produkt obendrauf

Timbaloo
2020-05-07, 12:01:34
GA102 = 5376 Shader, 384 bit, 16 Gbit/s, 16.5-18 GByte (12 Gbit Chips)
GA104 = 3584 Shader, 256 bit, 16 Gbit/s, 12 GByte
GA106 = 2560 Shader, 192 bit, 14 Gbit/s, 9 GByte
GA107 = 1536 Shader, 128 bit, 14 Gbit/s, 6 GByte
[/LIST]
Hat sich denn etwas maßgebliches bei der Verfügbarkeit "krummer" GDDR6-Größen geändert? Mein letzter Stand war, dass dies zwar theoretisch (laut JEDEC) möglich ist, aber pratkisch nicht produziert wird.

Edit: Wie auch immer, Speicher ist ein sehr spannendes Thema für Ampere, zumindest die Gaming-Ableger. Ich habe das Gefühl, dass wir hier noch ordentlich überrascht werden :)

robbitop
2020-05-07, 12:23:12
Ich fürchte ein wenig, dass es bei binären Größen (2^n) bleibt. Entsprechend gleiche Speichergrößen wie Turing und Pascal.
Ohne Not wird man dieses DL Kompressionsverfahren sicherlich nicht entwickelt haben. (sofern da was dram ist - siehe Gerüchte)

Birdman
2020-05-07, 15:06:50
Ich gehe davon aus dass wir bei Ampere 10GB, 12GB oder 14GB sehen werden
Das Speicherinterface der GPUs ist mittlerweile so flexibel, die kommen problemlos und ohne Abstriche auch mit nicht 2^n klar.
Vermutlich gibt es ein 320bit Speicherinterface bei den 70/80er Karten und 384 oder 448bit bei der Ti

Nochmals 8GB kann/wird nVidia nicht bringen, aber 16GB @256bit werden zu teuer sein - daher wird es wohl der Mittelweg mit 10GB @320bit oder 12GB @384

Dural
2020-05-07, 15:08:31
Die Liste sieht ok aus, könnte so komme.

Der Speicher wird aber ziemlich sicher so ausschauen: 32GB, 24GB, 16GB, 12GB, 8GB.

Alles andere wäre eine riesen grosse Überraschung. Was wollt ihr mit einer "3080" die min. die Leistung einer 2080Ti haben wird mit 8-12GB anfangen? Macht Null Sinn. Und mir kann auch keiner erzählen das GDDR6 in den Mengen die NV verwendet wirklich so viel kostet wie immer behauptet wird.

robbitop
2020-05-07, 15:44:06
Das Speicherinterface der GPUs ist mittlerweile so flexibel, die kommen problemlos und ohne Abstriche auch mit nicht 2^n klar.
Da gibt es 2 Möglichkeiten:

- Krumme Speicherchipgrößen (kein Problem - war aber auch noch nie ein Problem für die GPU - aber wurde bis dato nicht in Massen hergestellt)
- Pro Speicherkanal z.B. einen großen und einen kleinen Speicherbaustein dran hängen (das ist schon ein Problem - das hat mit dem Speicherinterface nichts zu tun - das ist dumm und liest und schreibt nur was gebraucht wird [mit lokalem Buffer allerdings] - aber ein Problem entsteht, weil es dadurch Speicherbereiche gibt, die volle Bandbreite haben und welche die dann halbe Bandbreite haben - wenn der Entwickler das nicht mit berücksichtigt, kann höchstens der Treiber versuchen dort nur Dinge abzulegen, die nicht performancekritisch sind - ob es dann aber immer gelingt? Kann zu inkonsistenter Performance führen. Glaube ehrlich gesagt nicht, dass das bei einer PC Gaming Grafikkarte in naher Zukunft passieren wird.

Die Liste sieht ok aus, könnte so komme.

Der Speicher wird aber ziemlich sicher so ausschauen: 32GB, 24GB, 16GB, 12GB, 8GB.

Alles andere wäre eine riesen grosse Überraschung. Was wollt ihr mit einer "3080" die min. die Leistung einer 2080Ti haben wird mit 8-12GB anfangen? Macht Null Sinn. Und mir kann auch keiner erzählen das GDDR6 in den Mengen die NV verwendet wirklich so viel kostet wie immer behauptet wird.
Das wäre zu hoffen - ansonsten würde es in 3. Generation in Folge nicht (signifikant) mehr Speicher geben. 24 (bzw 22 GiB) für die 102 GPU wären ja endlich mal wieder ein schöner Schritt.

Rampage 2
2020-05-07, 17:38:06
Irgendwie passen all die rumschwirrenden Zahlen zu GA10x und Shader Count etc. einfach nicht zusammen. In den meisten "Leaks" haben die GA10x Chips zum Teil weniger Shader als die entsprechenden TU10x Vorgänger. Das macht einfach keinen Sinn, da es das noch nie gegeben hat. Wenn ich die Chips mit einer sinnvollen Aufteilung auflisten müsste, käme das heraus:

GA100 = 8192 Shader, HBM2e, 2.4 Gbit/s, 32 GByte (4 Stacks) --> Titan
GA102 = 5376 Shader, 384 bit, 16 Gbit/s, 16.5-18 GByte (12 Gbit Chips)
GA104 = 3584 Shader, 256 bit, 16 Gbit/s, 12 GByte
GA106 = 2560 Shader, 192 bit, 14 Gbit/s, 9 GByte




Ich bin mir ziemlich sicher, der volle GA102/AM102 hat mindestens 5760 SPs (also 90 SMs); da die Ti wohl wieder nur Salvage sein wird, passt das schon mit den 5376 SPs. Wenn wir Glück haben, dann hat der volle GA102 sogar 96 SMs (6144 SPs), aber dann wären 5376 SPs etwas zu wenig für eine Salvage-Lösung.

Dasselbe mit GA/AM103 und GA/AM104: GA103 wird wohl mindestens 60 SMs (3840 SPs) und GA104 mindestens 45 SMs (2880 SPs) haben. Ich würde mir das etwa so vorstellen:

GA102 Full: 90-96 SMs (5760 - 6144 SPs), 384Bit, 18Gbps, 24GB VRAM
GA102 Salvage: 84-90 SMs (5376 - 5760 SPs), 352Bit, 18Gbps, 16.5 - 22GB VRAM
GA103: 60-64 SMs (3840 - 4096 SPs), 320Bit, 16Gbps, 10 & 20GB VRAM
GA104: 45-48 SMs (2880 - 3072 SPs), 256Bit, 16Gbps, 8 & 16GB VRAM

GA103 ist das "neue" GA104 und GA104 das "neue" GA106.

R2

Birdman
2020-05-07, 22:08:10
Da gibt es 2 Möglichkeiten:
Wieso?
Bei der GTX 2060 und RX 5600 gehen ja auch 6GB ohne irgendwas krummes drehen zu müssen.
Also kann man genausogut auch 9, 10, 11 oder 12GB Karten auflegen...wie gesagt, das einzige was sich ändert ist die breite des Speicherinterfaces und die Anzahl RAM Chips welche auf das PCB verlötet werden.

robbitop
2020-05-07, 22:19:36
Weil sie ein 192 bit SI haben. Sind aber noch 2^n der Speicherchips selbst.
Wenn 102 ein 384 bit SI haben wird es bei 2^n Speicherchips also 12 gb oder 24 gb sein. Die ti Karten haben ja immer einen Kanal deaktiviert gehabt. Also 352 bit. Ergo 11 oder 22 gb.
Ggf reicht ja auch 320 bit für 102. Dann kann man 20 GB verbauen. Oder man macht das SI breiter als 384 bit. 512 bit (siehe r290, gt200) dann 16/32gb. Oder 448 bit etc. Steigert dann aber auch die Kosten des PCBs und man muss einen größeren Speichercontroller verbauen.
Mal sehen was NV da wählen wird.

Lehdro
2020-05-08, 15:59:03
Vielleicht gibt es ja analog Pascal schnell eine Titan Karte für die Freaks bis dann irgendwann die 3080Ti kommt. Hoffentlich kommen nicht wieder 2 Titanen, die beschnittene Titan X(p) vor der vollen Titan Xp war schon starke Bauerfängerei.
War doch bei Kepler (Titan <-> Titan Black) auch so und Bauernfängerei ist auch ein bisschen übertrieben: Du hast halt etwas ähnlich schnelles 8 Monate vorher gekriegt - oder halt eine bessere 1080 TI 7 Monate früher - das kann man sich durchaus bezahlen lassen. Zwischen August 2016 und März/April 2017 liegt eine Menge Zeit...

robbitop
2020-05-08, 16:01:10
Sowas geht halt ohne Wettbewerb in dem Segment. Mit Druck im High End käme sicherlich sofort eine 80ti (sofern der 102 fertig wäre).

Leonidas
2020-05-09, 11:39:02
Ich biete mit (bei den Ampere-Specs):

Die kürzlichen Twitter-Specs von CorgiKitty sind möglicherweise einfach nur eine Kopie dessen, was Kopite7kimi schon im Mai 2019 (!) auf Twitter notiert hatte:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-mai-2020

|Original-Aussage von Kopite7kimi|spätere Anmerkung|= Hardware-Konfiguration
GA100|TSMC 7EUV, 8GPC*8TPC*2SM 6144bit|-|128 SM @ 6144 Bit HBM2
GA101|TSMC 7EUV, 4GPC*8TPC*2SM 3072bit|Chip gestrichen|64 SM @ 3072 Bit HBM2
GA102|Samsung 8EUV, 7GPC*6TPC*2SM 384bit, NVLink|realisiert in Samsung 10nm|84 SM @ 384 Bit GDDR6
GA103|Samsung 8EUV, 6GPC*5TPC*2SM 320bit|-|60 SM @ 320 Bit GDDR6
GA104|Samsung 8EUV, 6GPC*4TPC*2SM 256bit|-|48 SM @ 256 Bit GDDR6
GA106|Samsung 8EUV, 3GPC*5TPC*2SM 192bit|-|30 SM @ 192 Bit GDDR6
GA107|Samsung 8EUV, 2GPC*5TPC*2SM 128bit|-|20 SM @ 128 Bit GDDR6

OgrEGT
2020-05-09, 12:23:11
Ich biete mit (bei den Ampere-Specs):

Die kürzlichen Twitter-Specs von CorgiKitty sind möglicherweise einfach nur eine Kopie dessen, was Kopite7kimi schon im Mai 2019 (!) auf Twitter notiert hatte:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-mai-2020

|Original-Aussage von Kopite7kimi|spätere Anmerkung|= Hardware-Konfiguration
GA100|TSMC 7EUV, 8GPC*8TPC*2SM 6144bit|-|128 SM @ 6144 Bit HBM2
GA101|TSMC 7EUV, 4GPC*8TPC*2SM 3072bit|Chip gestrichen|64 SM @ 3072 Bit HBM2
GA102|Samsung 8EUV, 7GPC*6TPC*2SM 384bit, NVLink|realisiert in Samsung 10nm|84 SM @ 384 Bit GDDR6
GA103|Samsung 8EUV, 6GPC*5TPC*2SM 320bit|-|60 SM @ 320 Bit GDDR6
GA104|Samsung 8EUV, 6GPC*4TPC*2SM 256bit|-|48 SM @ 256 Bit GDDR6
GA106|Samsung 8EUV, 3GPC*5TPC*2SM 192bit|-|30 SM @ 192 Bit GDDR6
GA107|Samsung 8EUV, 2GPC*5TPC*2SM 128bit|-|20 SM @ 128 Bit GDDR6

Hmm...

Wäre dann was SM betrifft Stillstand bei Gx104 und Gx106 in der jeweiligen TU Super Ausführung. Massiv mehr aber bei Gx102 84 vs 68... Bleibt es denn bei 64 Cuda Cores pro SM?

Edit:
Auch kein 2070 Pendant mit 40 SM dabei...

Edit2:
Zuordnung wohl so in Zukunft:
2080Ti -> GA 102
2080S -> GA 103
2070S -> GA 104

Ghost1nTh3GPU
2020-05-09, 15:24:57
Bei GA106 wäre auch 128-Bit 18Gbps 4/8GB denkbar, wenn dieser erst in 2021 erscheint. Und der Abstand zu GA104 wieder Faktor 2 wie bei Maxwell - 30 / 60 SM.

Darunter würde ich einen GA108 sehen, der mit 64-Bit GDDR6 das Low-End und Mobile iGPUs aufmischt. Mit etwas DLSS macht der aus 640-720p 1080p+ und bringt die für andere AI-Spielerein nötigen TOPS in alte PCs bzw. Notebooks.

Gouvernator
2020-05-09, 17:36:35
Das Wichtigste ist doch welche Karte möglichst viel VRAM (ab 16GB) für weniger Geld bieten kann wegen --> 8K/16K DSR. Wenn NV nur die teuersten Karten für 3000€ mit genug VRam (ab 24GB) ausstattet ist das richtig Scheiße. Gut wären 24Gb für 1000€ oder so. Wenn aber AMD viel VRAM für noch weniger Geld bieten kann, dann ist NV aus dem Rennen. Auf jeden Fall brauche ich 24 Gb für ca. 1000€ denn 3000€ für eine Titan ist Verarsche. Aber 16Gb sind für egal welche Karte mindestens nötig. Weil bei 8GB läuft kein Game in 8K mehr.

Leonidas
2020-05-09, 17:45:42
Zuordnung wohl so in Zukunft:
2080Ti -> GA 102
2080S -> GA 103
2070S -> GA 104


Genauso würde ich das deuten. Die 3070 bzw. 3080 bekommen jeweils einen eigenen Chip.

robbitop
2020-05-09, 18:10:39
Wobei es ja noch nie eine 103 gab. Die Produktpalette war doch bis dato immer schon super breit. Wozu noch 1x Chip mehr? Muss ja auch alles entwickelt und betreut werden. Ich bin da zunächst skeptisch.

Ghost1nTh3GPU
2020-05-09, 18:25:52
Da fragt man sich, weshalb man sich bei so geringen Unterschieden (keine 50%) zwei Chips auflegen will bzw. bei Turing es getan hat. Bei 12nm könnte man das Yield so gut im Griff gehabt haben, dass es sich trotz nur 100mm2 gelohnt hat. Aber ob da auch für 7/8nm gilt? Tapeout und Masken sind ja auch keine Peanuts.

Beim Speicher könnte man mit 18Gbps auskommen, wenn man die internen Caches deutlich vergrößert und mittels verlustbehafteter Tensor-Kompression spart.

Da könnte das Portfolio so aussehen: 64-Bit 4GB, 96-Bit 6GB (cut), 128-Bit 8GB, 224-Bit 14GB (cut), 256-Bit 16GB, 20GB 320-Bit (cut), 48GB 384-Bit ($$$).

robbitop
2020-05-09, 18:48:01
8nm sollte gute Yields bei auch guten Kosten pro Wafer bringen. Ist ja praktisch ein geupgradeter reifer 10 nm Prozess.

OgrEGT
2020-05-09, 21:16:16
Wobei es ja noch nie eine 103 gab. Die Produktpalette war doch bis dato immer schon super breit. Wozu noch 1x Chip mehr? Muss ja auch alles entwickelt und betreut werden. Ich bin da zunächst skeptisch.

Ich möchte nicht zu skeptisch sein, aber es scheint ein wenig so, als dass die Turing Nachfolger einige SM mehr erhalten. So als ob vlt die IPC Zugewinne nicht so groß sind wie erwartet so dass man mehr SMs verbauen muss um in jedem Fall vor RDNA2 zu sein.

Edit:
Stimmt nicht... Sind im Bereich von +20% mehr ALUs Pascal -> Turing -> Ampere

Card|Chip|#SM|#ALUs|Diff %
GTX 1070|GP104-200|15|1920|---
RTX 2070|TU106-400|36|2304|+20
RTX 3070|GA-104|48|3072|+20
GTX 1080|GP104-400|20|2560|---
RTX 2080|TU104-400|46|2944|+15
RTX 3080|GA-103|60|3840|+25
GTX 1080Ti|GP102-350|28|3584|---
RTX 2080Ti|TU102-300|68|4352|+21
RTX 3080Ti|GA-102|84|5376|+24

BlacKi
2020-05-09, 21:17:48
Wobei es ja noch nie eine 103 gab. Die Produktpalette war doch bis dato immer schon super breit. Wozu noch 1x Chip mehr? Muss ja auch alles entwickelt und betreut werden. Ich bin da zunächst skeptisch.
320bit SI

Leonidas
2020-05-10, 03:46:05
... und damit endlich mal ein Zuwachs an Speichermenge bei der 3080 (= 10 GB).

=Floi=
2020-05-10, 04:39:23
10gb wären keine offenbarung. Dann sollten sie es gleich verdoppeln.
20gb und 24gb.

HOT
2020-05-10, 08:28:06
Zum 10x jetzt:

TU104 -> AM103
TU106 -> AM104
TU116 -> AM106

Es gibt einen Chip mehr seit Turing, welcher letztendlich als 103 eingepflegt wird. Passt diesmal besonders gut aufgrund des größeren Speicherinterfaces.
Als Weiteres gab es ja das Gerücht, dass NV diesmal auch ne 90er einführen wird. Das ist auch plausibel, weil man sicherlich keine Dual-Chip-Karten mehr bringen wird und das kann man damit auch zementieren. Und die fertigen Karten sehen selbstredend in etwa wie folgt aus:

AM102 -> Titan RTX2 84 SMs, 24 GB 18GT GDDR6
AM102 -> RTX 3090Ti 84 SMs, 12 GB 18GT GDDR6 (falls es notwendig werden sollte aufgrund der Konkurrenz)
AM102 -> RTX 3090 80SMs, 11 GB 18GT GDDR6 (zur CES)
AM103 -> RTX 3080Ti 60 SMs, 10GB 18GT GDDR6 (zum Launch)
AM103 -> RTX 3080 56SMs, 9GB 18GT GDDR6
AM104 -> RTX 3070 44SMs, 8GB 16GT GDDR6
AM106 -> RTX 3060 28SMs, 6GB 16GT GDDR6

All diese Karten kann man in 2021 als Super-Karten mit verdoppelten Speicher dann nochmals anbieten.

robbitop
2020-05-10, 09:23:22
320bit SI
Da kann man auch einfach 2x Kanäle als salvage deaktivieren. Außerdem kann es gut sein, dass die Gerüchte falsch sind und die 3080 nur 256bit hat.

@hot
Es wird kein AM geben. TU statt GT war eine Ausnahme, da es mit Tesla bereits eine GT gab. Ampere wird GA.

Ich sehe keinen Chip mehr. GP100 - GV100, GP102 - TU102, GP104 - TU104, GP106 - TU106, GP107-TU116, GP108-TU117
Man müsste sogar großzügig sein und Volta zu Turing zählen, damit es Gleichstand gibt.

HOT
2020-05-10, 09:32:12
Wir werden sehen, wie die Bezeichnung letztendlich ist.

Es wird sehr sicher noch einen AM108 geben, nur nicht sofort. Natürlich gibts nen Chip mehr. Selbst wenn nicht, verschiebt sich die Zuordnung wie beschrieben.

OgrEGT
2020-05-10, 09:33:29
Zum 10x jetzt:

TU104 -> AM103
TU106 -> AM104
TU116 -> AM106

Es gibt einen Chip mehr seit Turing, welcher letztendlich als 103 eingepflegt wird. Passt diesmal besonders gut aufgrund des größeren Speicherinterfaces.
Als Weiteres gab es ja das Gerücht, dass NV diesmal auch ne 90er einführen wird. Das ist auch plausibel, weil man sicherlich keine Dual-Chip-Karten mehr bringen wird und das kann man damit auch zementieren. Und die fertigen Karten sehen selbstredend in etwa wie folgt aus:

AM102 -> Titan RTX2 84 SMs, 24 GB 18GT GDDR6
AM102 -> RTX 3090Ti 84 SMs, 12 GB 18GT GDDR6 (falls es notwendig werden sollte aufgrund der Konkurrenz)
AM102 -> RTX 3090 80SMs, 11 GB 18GT GDDR6 (zur CES)
AM103 -> RTX 3080Ti 60 SMs, 10GB 18GT GDDR6 (zum Launch)
AM103 -> RTX 3080 56SMs, 9GB 18GT GDDR6
AM104 -> RTX 3070 44SMs, 8GB 16GT GDDR6
AM106 -> RTX 3060 28SMs, 6GB 16GT GDDR6

All diese Karten kann man in 2021 als Super-Karten mit verdoppelten Speicher dann nochmals anbieten.

Ich glaube "selbstredend" ist das "in etwa" noch nicht.
Bei deiner Liste ist mMn bspw. zuwenig Abstand zwischen 3080ti und 3080 sowie die 3070 zu stark teildeaktiviert ausgehend vom GA104. Auch eine hypothetische 3090 und 3080ti sind zuweit voneinander entfernt und zuviele Modelle im Dunstkreis um Titan und Ti zu eng beieinander.

robbitop
2020-05-10, 09:53:16
Wir werden sehen, wie die Bezeichnung letztendlich ist.

Es wird sehr sicher noch einen AM108 geben, nur nicht sofort. Natürlich gibts nen Chip mehr. Selbst wenn nicht, verschiebt sich die Zuordnung wie beschrieben.
Das wird schon so sein. Und es ergibt auch Sinn.

Zum Rest: wir werden sehen. ;)

Ghost1nTh3GPU
2020-05-10, 10:50:25
Hat man aus dem Raytracing Volta eben Turing für das Marketing gemacht. In frühen 2018er Treibern war noch GV104 genannt. Von der Compute Capability ist es die gleiche Generation.


Wenn man GA100 nicht um Raytracing beschneidet, machen unterschiedliche Architektur Brands eher wenig Sinn.

10gb wären keine offenbarung. Dann sollten sie es gleich verdoppeln.
20gb und 24gb.

14GB 18Gbps 504GB/s (~3000CC)
16GB 18Gbps 576GB/s (~3800CC)

Wären für $549/699 an sich kein unvernünftiges Angebot, zumal AMD im Spät-Herbst auch angreifen wird.
Eine 3080 Ti kann man wohl je nach Situation zwischen 20-24GB positionieren. Und der Titan darf in Richtung 48GB, wenn man bei Quadro und Tesla aud 96/64GB geht.

HOT
2020-05-10, 14:54:14
Ich glaube "selbstredend" ist das "in etwa" noch nicht.
Bei deiner Liste ist mMn bspw. zuwenig Abstand zwischen 3080ti und 3080 sowie die 3070 zu stark teildeaktiviert ausgehend vom GA104. Auch eine hypothetische 3090 und 3080ti sind zuweit voneinander entfernt und zuviele Modelle im Dunstkreis um Titan und Ti zu eng beieinander.

Die x80Ti war ja mal nur ein Upgrade der x80. Siehe die 1070Ti beispielsweise. Der Abstand muss hier nicht groß sein.
Der Abstand zwischen 3090 und 3080Ti ist halt so groß wie jetzt zwischen 2080 und 2080Ti, also nix Ungewöhnliches. Ich seh da keinerlei Probleme beim Lineup. Man benötigt halt den voll aktivieren 103er zum Launch um in allen Lebenslagen sicher über der 2080Ti zu landen, das ist alles. Ansonsten sind die Dinger natürlich salvage, wie heute auch.
Und eine Titan ist immer optional. Falls augrund der Konkurrenzsituation eine 3090Ti nötig werden sollte wird eben der GA100 zur Titan und fertig.

Sunrise
2020-05-10, 15:13:31
Warum NV seit damals dazu übergegangen ist, einen vollkommen anderen Chip Ti zu nennen erschließt sich für mich nur anhand der verwirrenden Marketing-Bezeichnungen, wenn man plötzlich 3080 und 3090 im Lineup hat.

Das jetzt wieder umzudrehen ergibt keinen Sinn, vielmehr müsste man die Ti streichen und das Line-Up nach unten verschieben und mal wieder eine ordentliche Titan bringen, nur hat NV mit der Titan ja scheinbar den Abfall der HPC-GPUs zu verwerten.

In NVs Welt ergibt das daher alles schon irgendwie Sinn, wenn man sieht, warum sie etwas tun, das heißt aber nicht das es irgendwie logisch ist, es sind einfach Marketingbezeichnungen, an die man sich gewöhnt und mit denen man einen Effekt beim Endkunden erzielen möchte, siehe die besten Beispiele "Pentium" oder auch "Zen".

Ghost1nTh3GPU
2020-05-10, 15:15:49
Ultra könnte doch auch Mal ein Comeback feiern.

BlacKi
2020-05-10, 15:24:41
genauso unnötig wie das TI. die zahlen sagen doch alles aus. aber hey, ich versteh auch nicht warum man die karte super genannt hat. eine preissenkung ohne namensänderung hätte es auch getan.

HOT
2020-05-10, 16:22:40
Ultra könnte doch auch Mal ein Comeback feiern.
Geforce 3080 Ultra Super :freak:.

Ghost1nTh3GPU
2020-05-10, 16:55:04
GeForce RTX 3800 UltRay vs AMD RayDeon RX 6900 Uber PE ... ;)

Mit den Herstellerkarten werden die Namen ja eh schon divers erweitert/verunstaltet.

Nuvirus
2020-05-10, 23:02:28
Naja die Standard Gen einfach ohne irgendwelche Zusätze und wenn später nen kleiner Refresh kommt halt Ti, Super finde ich Super bescheuert die hätten da lieber Ultra nehmen sollen^^

OgrEGT
2020-05-10, 23:50:07
Naja die Standard Gen einfach ohne irgendwelche Zusätze und wenn später nen kleiner Refresh kommt halt Ti, Super finde ich Super bescheuert die hätten da lieber Ultra nehmen sollen^^

Ging nicht... wie sollte man erkennen dass Ultra unter der Ti steht? Super ist nur ein klein wenig oben drauf... was ist heute schon Super wenn es Ultimate gibt :D

Edgecrusher86
2020-05-12, 10:38:03
Also die Enthusiasten wünschen sich natürlich für den Big Chip soviel Leistung wie möglich...

Neulich bei NV:
Chief Scientist Eng.: How much GPU horsepower do we need?
Huang: YES!
Marketing Director.: Price?
Huang: Only $1.00 per CUDA Core!

Marketing Director.: Are we doing MGPU bundles? Prices?
Huang:
Price NVL BFG9000 Bridge: Only $1999.00!
Price 2-way bundle incl. NVL BFG9000 Bridge: Only $0.95 per CUDA Core!
Price 3-way bundle incl. NVL BFG9000 Bridge: Only $0.90 per CUDA Core!
Price 4-way bundle incl. NVL BFG9000 Bridge: Only $0.85 per CUDA Core!
The more you buy, the more you save!


NVIDIA TITAN RTX BFG9000 CEO Edition

:eek::eek::eek:

E: Upate: Final version and specs revealed, previous one was an early ES.

https://abload.de/img/titanrtxbfg9000v1.4_stpj2h.png

original size: https://abload.de/img/titanrtxbfg9000v1.4iyj00.png

- internal reveal date: 04/01/2020
- worlwide reveal date: 05/14/2020
- GPUs: 12x GA100B* Full (98304 CUDA Cores total) @ MCM unified Mode @ TSMC N5+ process, risk production
- VRAM: 1152 GB HBM2 Samsung VRAM total @ 73728-bit interface combined [6144-bit interface each], unified Mem-Pool [16GB stacks @ 2.43 Gbps each and 1.87 TB/s per GPU] @ 22.44 TB/s total bandwith
- Compute power: @ 1.0 GHz ES mode -> 196.6 TF/s FP32 [RTX 2080 Ti @ 2.1 GHz = 18.28 TF/s FP32]
- Cooling: Fullcover water cooling block @ + NV BFG9000 chiller included
- Size: big
- Weight: a lot
- Extras: external NV BFG9000 power supply rated @ 3200W, NV EKWB TITAN RTX BFG9000 CEO Edition water cooling full cover block incl. RGB, NV BFG9000 chiller rated @ 2000W, K1NGP1N cooling TITAN RTX BFG9000 LN2 pot, two card holders incl. adjustable axes for individual positions like benchtable, case, e.g.
- TDP: 1800W
- Max board power @ LN2 Mode: 2700W
- Power delivery: 12x PCI-E 8-pin power connectors - 89 Power stages total
- Multi GPU mode: NVLink 3rd Gen Special BFG9000 version [600GB/s] - 4-way ready
- How to launch: Plug in all PCI-E power connectors from the NV BFG9000 power supply and turn it on, start the NV BFG9000 water chiller, press the card's start button and wait for board self-test, counting all GPUs and power stages @ debug LED, also displayed via RGB at the water cooling block, then the display signal will proceed!
- CPU-limited: @ 4K, 5K, 8K, 10K, 16K! :biggrin:

*= including RT Cores



:biggrin:

UV_Freak
2020-05-12, 10:56:36
- CPU-limited: @ 4K, 5K, 8K, 10K, 16K!

xD

WedgeAntilles
2020-05-12, 11:00:53
BFG9000 chiller :D

Thunder99
2020-05-12, 11:23:11
Speed in nicht SLI Games -> langsamer als GTX 1650 :freak:

Edgecrusher86
2020-05-12, 11:28:37
Das trifft aber nur auf die MGPU Bundles zu, die Karte hat ja den Unified Mode, sowohl für die GPUs, als auch den HBM2e - läuft also.
Es sei denn, die CPU läuft nicht allcore mit 5+ GHz, dann fallen die fps ins Bodenlose. ;)

E: Preis NVLink BFG9000 Bridge und MGPU-Bundle-Preise veröffentlicht! :D

Troyan
2020-05-12, 16:27:03
Can you smell, what the Jensen Huang is cooking: https://www.youtube.com/watch?v=So7TNRhIYJ8&feature=emb_logo

Enjoy.

Sunrise
2020-05-12, 16:34:48
Can you smell, what the Jensen Huang is cooking: https://www.youtube.com/watch?v=So7TNRhIYJ8&feature=emb_logo

Enjoy.
Ich will nicht wissen, wieviel das Ding wiegt...sieht abartig aus.

Dural
2020-05-12, 16:45:54
Schönes Häuschen wo er da offensichtlich hat.


Er scheint ziemlich gut gelaunt zu sein, haben mit Ampere wohl ein ziemlich heises Eisen in den Startlöcher.

Linmoum
2020-05-12, 16:49:16
Er scheint ziemlich gut gelaunt zu sein, haben mit Ampere wohl ein ziemlich heises Eisen in den Startlöcher.
Wäre ja auch absurd, wenn er bei den eigenen Produkten schlecht gelaunt wäre. :freak: