PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 [39] 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Sunrise
2020-09-02, 22:10:19
Tweaktown, daher Prise Salz:


https://www.tweaktown.com/news/74915/exclusive-geforce-rtx-30-series-cards-tight-supply-until-end-of-year/index.html
So eine Generalisierung klingt nicht nur sehr unwahrscheinlich. Dass eine 3090 nicht sehr gut verfügbar sein wird ist denkbar, jedoch ist die 3080 sicher ganz gut verfügbar, die 3070 (GA104) erst Recht. Man muss aber bedenken, bei den Preisen hat NV Turing quasi obsolete gemacht, ebenso alle Turing-Käufer vor den Kopf gestoßen.

Der niedrige Preis hat aber Gründe, die Marktanteile sollen aggressiv verteidigt/ausgebaut werden, hier hätte NV ein echtes Problem, weil niemand mehr Turing kauft und dann keine Verkäufe mehr.

Der 8nm Samsung ist weiterhin nur DUV, da sollte Kapazität en Masse vorhanden sein. NV hatte spätestens (bis auf die Treiber) schon seit Anfang des Jahres alles fertig, siehe die frühen, korrekten Leaks.

Armaq
2020-09-02, 22:11:24
Erklärung der cuda cores 128 FP32 + 64 Int32 Alus pro SM:
https://pbs.twimg.com/media/Eg71Hv9X0AQENLs?format=png&name=medium
https://twitter.com/davideneco25320/status/1301246897202573319/photo/1
Mehr und schneller Cache. Das wird ggf. die Performance dramatisch verbessern. Man sieht ja bei AMD wie gut das bei Zen funktioniert hat und Nividia setzt es eigentlich auch schon lange ein.

Dennoch denke ich, dass die TDP ein deutlicher Indikator für eventuelle "Mehrperformance" durch OC ist. Nicht wirklich vorhanden, man musste ja schon jenseits der 250W ansetzen für das nicht Top-Modell.

Jupiter
2020-09-02, 22:13:10
aha, für 20% mehr Ram würdest du sie also "sofort kaufen", 10 statt 12 sind aber offensichtlich ein riesen Problem. :rolleyes:


jaja, nothingburger wie immer von dir.
Als ob 2018 beim Design der Hardware von Ampere ein armer Tropf die Spiele von 2020 und 2021 abschätzen musste. Hat sicher die AC Abteilung bei Uplay und die Battlefield X Leute bei Dice auf Kurzwahl bzgl der "optimierten Auflösung" der Spiele LOL ;D
Geh in den SC Thread zurück für dreams.txt.

2 GB können viel ausmachen. Siehe 6 zu 8 GB VRAM.

Die meisten Titel sind Konsolenspiele und von daher lässt sich das skalieren. Wenn sie einen Titel für die Konsole für 1080p und 30 fps optimieren, geht das auch am PC für die jeweilige Hardware in eine Richtung. Gleiches gilt für 900p und 30 fps, 1080p und 60 fps usw.

why_me
2020-09-02, 22:13:45
Danke für die Info. Ziemlich nett. Dazu Verdoppplung der ROPs...

GA102 scheint aber nur 7 GPCs zu haben -> 112 ROPs zu 96 bei TU102

horn 12
2020-09-02, 22:14:47
Der Grund ist der Speicher (G6X)
und nur deshalb kommt die 3070 um ordentlich Kasse machen zu können,- bei RTX 2080TI Performance,- dies muss sich aber erst zeigen,- Quer durch die Bank
Der Launch ist verfrüht auf die Beine gestellt,- aber man muss vor AMD da sein :-(((

Linmoum
2020-09-02, 22:17:39
aha, für 20% mehr Ram würdest du sie also "sofort kaufen", 10 statt 12 sind aber offensichtlich ein riesen Problem. :rolleyes:Sind es auch. Es ist produkttechnisch nicht nur ein Speicher-Downgrade, sondern 11GiB der 2080Ti werden hier und da bereits schon knapp. Frag mal Raff. :cool:

Der Launch ist verfrüht auf die Beine gestelltWenn sie es gewollt hätten, dann wäre ein Launch sicherlich auch schon vor Wochen möglich gewesen. Da ist nix verfrüht dran.

monstar-x
2020-09-02, 22:18:59
Ich auch nicht und ich verstehe den Hype und die Panikverkäufe auch nicht.
Hat keiner die aktuelle PCGH?
Ich meine ich hab sowas wie Control noch auf der "zu spielen" Liste, aber wenn man liest das mit Raytracing 8GB schnell kneifen und manchmal selbst die 2080Ti anfängt zu straucheln dann frage ich mich was man mit 3070/8GB und 3080/10GB will :confused:
Richtig fett Power abgewürgt durch die VRAM Bestückung?

This!

Und die kenne noch nicht mal einmal die Reelle Werte nur ein paar Balken Diagrame mit "bis zu" angaben direkt vom Hersteller.


Noch die nächsten zwei Wochen ist die 2080 Ti die schnellste Grafikkarte (Titan außen vor). Plötzlich tun alle so, als sei die 2080 Ti seit der Ankündigung der 3070/3080 nichts mehr Wert, Müll, Schrott.

Der selbe mist, jedes Jahr mit dem iPhone/Samsung Galaxy
Plötzlich ist das HighEnd iPhone nicht mehr gut genug, weil ein neues kommt, dass ist doch totaler Wahnsinn.

woodsdog
2020-09-02, 22:21:22
2 GB können viel ausmachen. Siehe 6 zu 8 GB VRAM.

Die meisten Titel sind Konsolenspiele und von daher lässt sich das skalieren. Wenn sie einen Titel für die Konsole für 1080p und 30 fps optimieren, geht das auch am PC für die jeweilige Hardware in eine Richtung. Gleiches gilt für 900p und 30 fps, 1080p und 60 fps usw.

6 zu 8 GB sind 33%, nicht 20% du Mathe-Genie.
Vorhin hast du noch mit +1800p argumentiert und kommst jetzt mit 1080p30 und weniger. Lass es einfach.

Linmoum
2020-09-02, 22:23:36
Noch die nächsten zwei Wochen ist die 2080 Ti die schnellste Grafikkarte (Titan außen vor). Plötzlich tun alle so, als sei die 2080 Ti seit der Ankündigung der 3070/3080 nichts mehr Wert, Müll, Schrott.Der Wert der 2080Ti hat sich mit der Ankündigung gestern schlagartig halbiert. Das ist natürlich weit entfernt von nichts Wert, aber relativ gesehen zu dem, was man noch gestern Nachmittag bekommen hat bzw. hätte, ist das ein massiver Wertverlust.

Badesalz
2020-09-02, 22:24:14
Ich hätte mir 'ne 3080 mit >=12GiB für den Preis direkt geholt. Aber (deutlich) mehr Performance mit (deutlich) weniger Speicher zu bringen schafft auch nur Nvidia. Dieser Geiz ist einfach nur affig.Der 3080 würden 16GB gut stehen. Die 3090 hätte ruhig die neue Titan sein können. Die 3070 ist stark genug um mit 10GB arbeiten zu können.

so ist das aber einerseits durch die Kapazität pro Die, andererseits durch den Stromhunger und Kosten von GDDR6X, ziemlich :freak: momentan. Eine 1080Ti hat 11GB, einen 3080 hat 10GB. Das ist schon ziemlich schräg sowas =)

Der Wert der 2080Ti hat sich mit der Ankündigung gestern schlagartig halbiert. Das ist natürlich weit entfernt von nichts Wert, aber relativ gesehen zu dem, was man noch gestern Nachmittag bekommen hat bzw. hätte, ist das ein massiver Wertverlust.Wer mit dem Verkauft der 2080Ti bis gestern gewartet hat, der hat das einfach nicht anders verdient. Kein Mitleid.

[...] weil ein neues kommt, dass ist doch totaler Wahnsinn.Wahnsinn? Wenn du Idiotie meinst, dann sag es ruhig ;)

Jupiter
2020-09-02, 22:35:22
6 zu 8 GB sind 33%, nicht 20% du Mathe-Genie.
Vorhin hast du noch mit +1800p argumentiert und kommst jetzt mit 1080p30 und weniger. Lass es einfach.

Du nimmst es so genau? Dann wären für dich 8 GB nicht viel besser als 6,4 GB VRAM. Wenn die RTX 3070 insgesamt 6,4 GB hätte, würde das demnach auch keinen Unterschied machen? Was für eine lächerliche Logik... So etwas kann auch nur von woodsdog kommen.

1080p bei 30fps bei den Konsolen. Anscheinend kannst du nicht lesen.

Fusion_Power
2020-09-02, 22:35:41
Der Wert der 2080Ti hat sich mit der Ankündigung gestern schlagartig halbiert. Das ist natürlich weit entfernt von nichts Wert, aber relativ gesehen zu dem, was man noch gestern Nachmittag bekommen hat bzw. hätte, ist das ein massiver Wertverlust.
Sind die ganzen verfügbaren High End Grafikkarten nicht allein schon wegen der Bitcoin-Schürferei immer noch so hochpreisig? Das war zwar mal ne Zeit lang extrem aber ganz unten ist das schürfen sicher noch nicht.

Hauwech
2020-09-02, 22:44:36
Vergiss die TFLOPs von Ampere. Diese sind mit den TFLOPs von Turing/RDNA 1 und höchstwahrscheinlich auch RDNA 2 überhaupt nicht vergleichbar. Mit 30 TFLOPs müsste die 3080 doppelt so schnell sein wie die 2080TI. Davon ist die 3080 weit entfernt.

Ich vermute mal, es muss dazu auch die Software geben die das ausnutzen kann. Eine Verdoppelung von Kernen bringt auf magische Weise auch keine doppelte Leistung.

Badesalz
2020-09-02, 22:57:38
Und die 3090 bietet 6 Tflops mehr für 800$ mehr :D 3080 ist dagegen 200$ teurer als die 3070, obwohl nicht nur die GPU schneller ist, sondern auch noch 10GB G6X gegenüber 8GB G6 stehen.

Entweder ist die 3090 ziemlich seltsam oder die 3080 :confused: Ich denke die 3080. Das hat imho irgendwas damit zu tun was NV schon darüber weiß, was AMD bringen wird =) Bin mal gesapnnt, ob es doch so kommt, daß die, die jetzt wieder deswegen rumtanzen, sich als kreischende Volldeppen entpuppen, falls es nach dem Launch bei AMD klar wird, daß AMD den Preis der 3080 verursacht hat =)

Ob sie sich bei denen dann bedanken? Oder werden sie weiter kreischen, daß AMD wie von ihnen prophezeit nichts hat um gegen die 3090 anzustinken und P/L gegenüber der 3080 icht ganz ideal ist?

Man weiß es nicht ;) Erstmal aber schauen. Spannend ist es auf jeden Fall.

pixeljetstream
2020-09-02, 23:05:02
Vergiss die TFLOPs von Ampere. ... Mit 30 TFLOPs müsste die 3080 doppelt so schnell sein wie die 2080TI. Davon ist die 3080 weit entfernt.

Es ist einfach ein Irrglaube das flops allein magisch die Spiele soviel schneller machen. Und tflops von Ampere sind sehr wohl real. Siehe der post von Tony auf Reddit.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12412178#post12412178

Sunrise
2020-09-02, 23:18:52
Wer sich noch erinnert:

Die ATI Radeon X1900XT hatte die >3-fache Pixelshader-Leistung ggü. der X1800XT. Schlug das direkt durch? Nein. Das Verhältnis der Shadernutzung stimmte anfangs einfach nicht. Es dauerte hier leider eine gefühlte Ewigkeit, bis die Spiele das nutzten (als die Konkurrenz nachzog und die Spiele entsprechend programmiert wurden).

IMHO ist das positiv zu sehen, zumindest bei der 3090, die sollte eine ganze Weile wirklich TOP sein. Das Ding ist ein Rechenmonster sondergleichen, das nur durch AMDs Konter relativiert werden, aber sicher nicht kleingeredet werden kann.

w0mbat
2020-09-02, 23:22:48
Ich hatte damals ne X1900 XT und das Ding hat ewig gehalten, war meine beste GPU!

Badesalz
2020-09-02, 23:33:40
Es ist einfach ein Irrglaube das flops allein magisch die Spiele soviel schneller machen.Sorry, das hat wer genau verursacht?

Und tflops von Ampere sind sehr wohl real.Sagt auch keiner was gegensätzliches. Es ging ja darum wieviele davon.

@w0mbat
Das war glaub ich auch die letzte GPU welche die XP GUI nativ beschleunigen konnte. Hatte glaub ich eine 1950pro oder so (??) Ging ab wie die Pest damals.

Sardaukar.nsn
2020-09-02, 23:37:24
Wenn wir bisschen darüber (30X0) Quatschen, dann was mir einfällt ,
Was machen jetzt die Händler mit 2080 Serie? Verschrotten?
Was machen die Händler wenn die Kunde (in zwei Wochen Frist) sein teuere gekaufte "Mist" (2080Ti) ganz entspannt zurück sendet?
Wer kauft überhaupt noch "Mittelrange" AMD Karten?
Intel. Soll er schon jetzt sein Grafikprojekt wieder zu machen? (hat damit auch "gute" Erfahrung...)

Obwohl im Stream gestern Abend gar nicht so darauf eingegangen wurde. Der heimliche Star war die 3070 für 499€ welche wohl von der Performance auf dem Level der 2080ti liegt. Plus halt Hdmi 2.1, VRR usw.

Badesalz
2020-09-02, 23:46:01
IMHO ist das positiv zu sehen, zumindest bei der 3090, die sollte eine ganze Weile wirklich TOP sein. Das Ding ist ein Rechenmonster sondergleichen, das nur durch AMDs Konter relativiert werden, aber sicher nicht kleingeredet werden kann.Die Leistung ist sozusagen, bestialisch :tongue: Ich könnte mir sehr gut auch eine 3070 vorstellen und eine 3080 gut. Das ist immernoch dermassen viel Power, ergo das ist dermassen frustierend...
Wenn ich die Rumdaddelei ausklammer, hab ich im Gegensatz zu steigender CPU-Leistung, fast garnichts daheim wo ich das sinnvoll einsetzen könnte. Dafür würde auch Polaris10 noch ausreichen.

Mit einer 3080 wäre das, als wenn ich einen 3950X hätte, und nur 16bit Software :freak:

Lawmachine79
2020-09-02, 23:52:23
Total geil, überlege mir eine 2080TI zu kaufen und die 1080TI zu verkaufen um die Wartezeit zur 3090 zu überbrücken; weiß der Geier wann die verfügbar ist. Nach Verfügbarkeit wird die 2080TI auch nicht mehr viel billiger.

[MK2]Mythos
2020-09-02, 23:56:31
Total geil, überlege mir eine 2080TI zu kaufen und die 1080TI zu verkaufen um die Wartezeit zur 3090 zu überbrücken; weiß der Geier wann die verfügbar ist. Nach Verfügbarkeit wird die 2080TI auch nicht mehr viel billiger.
Dass du Probleme mit der Rechnerei hast, hast du ja schon im Navi Thread bewiesen, aber dass du dir jetzt noch ne schweineteure 2080Ti kaufen willst, obwohl sie faktisch komplett entwertet wurde, kann doch hoffentlich nur ein Scherz sein? :ulol:

Lawmachine79
2020-09-02, 23:57:32
Mythos;12412287']Dass du Probleme mit der Rechnerei hast, hast du ja schon im Navi Thread bewiesen, aber dass du dir jetzt noch ne schweineteure 2080Ti kaufen willst, obwohl sie faktisch komplett entwertet wurde, kann doch hoffentlich nur ein Scherz sein? :ulol:
Richtig, sie wurde bereits entwertet. Merkste was?

Dampf
2020-09-03, 00:07:58
Mythos;12412287']Dass du Probleme mit der Rechnerei hast, hast du ja schon im Navi Thread bewiesen, aber dass du dir jetzt noch ne schweineteure 2080Ti kaufen willst, obwohl sie faktisch komplett entwertet wurde, kann doch hoffentlich nur ein Scherz sein? :ulol:

Wenn er die für unter 500€ findet isses doch gut.

Viele machen jetzt auch Panikverkauf.

Turing ist immer noch eine sehr gute Architektur die zu allen Next Gen Features kompatibel ist, im Gegensatz zu beispielsweise RDNA1, die sehr sehr schlecht altern wird.

kunibätt
2020-09-03, 00:13:07
Er hat doch aber schon eine 1080Ti für die er mittlerweile fast nichts mehr bekommt und die gar nicht mal so viel langsamer als eine 2080Ti ist. Finde den Gedanken auch komisch. Dann lieber einfach 3090 kaufen und gut.

Daredevil
2020-09-03, 00:14:16
Vielleicht hat man auch lieber eine Tri Slot 250w Highend 2080ti mit 11GB in der Kiste, die flüsterleise ist und hohes OC Potential hat. ( Customs sind ~10-15% schneller als Stock ), als eine 220w Dual Slot 3070 mit 8GB Speicher ohne Chance auf baldiger Lieferung.

Spätestens Horizon sagt dir dann, warum die die lieber haben solltest.
RTX I/O kann natürlich die 8GB evtl. doch brauchbar machen, aber RTX I/O ersetzt kein VRAM, weil sonst gäbs ja keine Karte mit 24GB, mh?

crux2005
2020-09-03, 00:16:14
Spätestens Horizon sagt dir dann, warum die die lieber haben solltest.
RTX I/O kann natürlich die 8GB evtl. doch brauchbar machen, aber RTX I/O ersetzt kein VRAM, weil sonst gäbs ja keine Karte mit 24GB, mh?

Wenn die Software mitspielt dann kann es VRAM schon ersetzen. Wie viel ist die Frage. Du brauchst natürlich eine nvme.ssd und kompatible RTX Grafikkarte.

DirectStorage kommt erst 2021 für Windows 10. Also kommt auch erst dann RTX IO?

Dampf
2020-09-03, 00:17:56
Er hat doch aber schon eine 1080Ti für die er mittlerweile fast nichts mehr bekommt und die gar nicht mal so viel langsamer als eine 2080Ti ist. Finde den Gedanken auch komisch. Dann lieber einfach 3090 kaufen und gut.

Die 1080Ti ist aber nicht kompatibel zu DX12 Ultimate, RTX I/O, sie bietet keine DLSS/machine learning Beschleunigung und keine DXR Beschleunigung. Pascal kann ebenfalls keine INT/FP Operationen konkurrent durchführen und versagt in Async Compute.

Kurz, eine 2080Ti ist eine ganz andere Liga als die 1080Ti, das wird man in Zukunft immer stärker bemerken!

kunibätt
2020-09-03, 00:21:52
Ja da paar Tage bis zur 3090 wird er es ja wohl mit der 1080Ti "gerade so" überleben :freak:

Dampf
2020-09-03, 00:22:48
Ja da paar Tage bis zur 3090 wird er es ja wohl mit der 1080Ti "gerade so" überleben :freak:

Die RTX 3090 kostet aber 1300€

Er will sich eine gebrauchte 2080Ti kaufen. Bei Ebay werden die jetzt immer günstiger durch die ganzen Panikverkäufe. Da macht das schon Sinn.

kunibätt
2020-09-03, 00:24:33
Er schrieb er will sich bis zum Erscheinen der 3090 übergangweise eine 2080TI kaufen. Von einer 1080Ti kommend :freak:

Digidi
2020-09-03, 00:25:24
Ich hab mal versucht den Die-Shot ein bischen zu analysieren. Wenn er richtig ist würde sich folgendes ergeben:

monstar-x
2020-09-03, 00:28:04
Wenn er die für unter 500€ findet isses doch gut.

Viele machen jetzt auch Panikverkauf.

Turing ist immer noch eine sehr gute Architektur....

Und sitzen dann ohne GPU da wenn Cyberpunk 2077 erscheint ;D;D;D
Was werden die Fluchen :biggrin:

Dampf
2020-09-03, 00:32:12
Er schrieb er will sich bis zum Erscheinen der 3090 übergangweise eine 2080TI kaufen. Von einer 1080Ti kommend :freak:

Achso, jetzt hab ichs kapiert (ist schon spät)

Das ist ja wirklich ulkig :D Dann auf jeden Fall die 3090 holen.

Armaq
2020-09-03, 00:44:33
Total geil, überlege mir eine 2080TI zu kaufen und die 1080TI zu verkaufen um die Wartezeit zur 3090 zu überbrücken; weiß der Geier wann die verfügbar ist. Nach Verfügbarkeit wird die 2080TI auch nicht mehr viel billiger.
Das kann uU. ein smarter Move sein. Rasterizing-performance könnte ggf. noch ne Weile gut sein. Das ist wie gesagt komplett ausgeklammert worden und demnach der Punkt auf den man schauen sollte.

Ich werd jedenfalls keine 30x0 kaufen bis ich nicht die Antworten der Konkurrenz kenne. Der einzige Uplift wäre eine 3090 und die 2080Ti die ich gerade aufgefrischt habe wird noch unter Cyberpunk schwitzen.

Platos
2020-09-03, 00:47:42
NV weiß selbst, dass die Verkaufszahlen der 3090 ordentlich einbrechen würden, wenn man die 3080 mit 20GiB für nur $100-$200 mehr bringt.

Entweder setzt man den Preis sehr hoch an ggü. einer 3080 mit 10GiB, oder es gibt sie nicht.

Oder die kommen erst ein halbes/ganzes Jahr später wie bei Pascal. Dann kannst du auch 1GB weniger bringen :D

Digidi
2020-09-03, 00:48:51
Das kann uU. ein smarter Move sein. Rasterizing-performance könnte ggf. noch ne Weile gut sein. Das ist wie gesagt komplett ausgeklammert worden und demnach der Punkt auf den man schauen sollte.

Ich werd jedenfalls keine 30x0 kaufen bis ich nicht die Antworten der Konkurrenz kenne. Der einzige Uplift wäre eine 3090 und die 2080Ti die ich gerade aufgefrischt habe wird noch unter Cyberpunk schwitzen.

AMD wir mit einem Rasterizer mehr kommen und der Rasterizer (ohne culling) war bei AMD schon immer sehr performant. Aber wenn man auf unreal Nanite Engine schaut mit den Polygonen kleiner als ein Pixel, dann kann das auch alles über die Shader laufen.

Lawmachine79
2020-09-03, 01:15:56
Er schrieb er will sich bis zum Erscheinen der 3090 übergangweise eine 2080TI kaufen. Von einer 1080Ti kommend :freak:
Jaa, first world problem ;).

prinz_valium_2
2020-09-03, 06:59:08
aha, für 20% mehr Ram würdest du sie also "sofort kaufen", 10 statt 12 sind aber offensichtlich ein riesen Problem. :rolleyes:



jaja, nothingburger wie immer von dir.
Als ob 2018 beim Design der Hardware von Ampere ein armer Tropf die Spiele von 2020 und 2021 abschätzen musste. Hat sicher die AC Abteilung bei Uplay und die Battlefield X Leute bei Dice auf Kurzwahl bzgl der "optimierten Auflösung" der Spiele LOL ;D
Geh in den SC Thread zurück für dreams.txt.

Also mit 12GB und 384bit Interface wäre die Karte quasi eine 3090.
Mit OC kommst du dann auf 1TB/s und auch die Rechenleistung ist nicht mehr weit weg.
Aber ich gehe nicht davon aus, dass die 2GB jetzt den Riesen Unterschied machen würden.

Man wollte die 3080 "günstig" anbieten

Dural
2020-09-03, 07:01:01
Habe gerade den gebraucht markt angeschaut, da ist ja die hölle los! Massenhaft turing karten wurden in dieser woche online gestellt.

Jeglicher 2080ti kauf über 350.- ist ein fehlkauf, da holt man sich lieber eine neue 3070. Man liest schon viele hass beiträge weil ampere zu billig ist :freak::freak::freak:

Ich bin über die dummheit der menschheit immer wieder erstaunt.

Badesalz
2020-09-03, 07:04:25
Mit OC kommst du dann auf 1TB/sNein? :rolleyes:

Leonidas
2020-09-03, 07:05:10
Wenn jemand Leistung auf Niveau der 2080Ti braucht, gibt es ja jetzt die 3070. Dazu kommen noch Sachen wie Hdmi 2.1, VRR usw.
GeForce RTX 3070

Zu einem Preis von 499 Euro inkl. MwSt. ist sie schneller als die GeForce RTX 2080 Ti für 1.399 Euro inkl. MwSt. – zu weniger als dem halben Preis.

Quelle: https://www.gameswelt.de/nvidia/news/rtx-3070-3080-und-3090-angekuendigt-304085


Vorsicht! Das ist eine NV-Aussage, die nicht unabhängig bestätigt wurde. Basierend auf Bestcase-Benchmarks, die meistens nicht genau genug ausgeschildert sind, um wirklich wertbar zu sein.

Ich bezweifle nicht, das 3080 & 3090 klar vor 2080Ti liegen. Aber die 3070 hat einen gewaltigen HW-Schritt nach unten hin: Nur 46 SM @ 256 Bit GDDR6, kein GDDR6X. Damit will man dann die 68 SM @ 352 Bit GDDR6 der 2080Ti schlagen?

Ich will nicht sagen, dass dies nicht möglich wäre. Aber es wird knapper als NV es darstellt. Und es kann auch nach hinten losgehen. Verschiedene Hochrechnungen ergeben derzeit eine vorläufige Performance-Projektion von 220-240% für die 3070. Die 2080Ti FE liegt bei 236% (4K-Index).

rentex
2020-09-03, 07:08:01
Das stimme ich Leonidas zu...das wäre zu schön um war zu sein.

Dural
2020-09-03, 07:11:45
Umso moderner ein spiel umso besser wird die 3070 abschneiden.

Und wie wo sollte die 3070 probleme mit der 2080ti haben? Mehr cuda core, mehr rops, mehr takt. Ja etwas weniger bandbreite, das holt ampere aber mit dem cache etc. wieder raus.

Leonidas
2020-09-03, 07:12:27
Erklärung der cuda cores 128 FP32 + 64 Int32 Alus pro SM:
https://twitter.com/davideneco25320/status/1301246897202573319/photo/1


Original bei Reddit:
https://old.reddit.com/r/nvidia/comments/iko4u7/geforce_rtx_30series_community_qa_submit_your/g3qkzva/

Zossel
2020-09-03, 07:15:40
6 zu 8 GB sind 33%, nicht 20% du Mathe-Genie.
Vorhin hast du noch mit +1800p argumentiert und kommst jetzt mit 1080p30 und weniger. Lass es einfach.

It depends: 4/3 sind 133%, lässt man 100% weg, und zack hat man 33%.

Zahlen sind auch nur eine Frage des Bezugssystems!

Neurosphere
2020-09-03, 07:18:39
Ich find die Einordnung der Karten nach wie vor schwierig. Die 3080 ist diesmal GA102, also der große Chip. Früher gab es einen Abstand von 30% zwischen 2080 und ti, diesmal werden es wohl unter 20%. Die 3080 ist also im Vergleich zur 2080 bisher ziemlich nach oben gerutscht. Bei den Graphen die Jensen da gezeigt hat kam die 3090 auch nicht vor...

Das würde auch erklären warum NV auch nur bis zu 50% der 3090 zur Titan angibt, wieviel es real ist muss sich zeigen (35%:wink:)
Die 3070 bekommt nun scheinbar den GA104 in vollem oder fast vollem Ausbau, ist also eigentlich das was die 2080 vorher war.

Deshalb kann sie auch mit der 2080ti mithalten bzw diese Schlagen. Es sieht also so aus als wären die 70er und 80er innerhalb des Portfolios nach oben gerutscht. Da bleibt dann auch wenig Platz für eine TI und eine Titan, also 3090.

Dural
2020-09-03, 07:25:23
Mehr rt und tensor leistung als die 2080ti hat die 3070 auch.

Bleibt wirklich nur die bandbreite übrig...

ShinyMcShine
2020-09-03, 07:32:02
Da bleibt dann auch wenig Platz für eine TI und eine Titan, also 3090.

Ist doch Platz für eine Titan:
- Vollausbau GA102
- mehr Takt
- schnellerer Speicher (21 Gbps)
- mehr Speicher (48GB oder wenn genügend Vorlaufzeit für Micron mit "krummen" Chips: 36GB)

Badesalz
2020-09-03, 07:32:46
Umso moderner ein spiel umso besser wird die 3070 abschneiden.Anhand von welcher... Modernität? War das bei den 2000er auch schon so? (RT off)

Dalai-lamer
2020-09-03, 07:37:23
Habe gerade den gebraucht markt angeschaut, da ist ja die hölle los! Massenhaft turing karten wurden in dieser woche online gestellt.

Jeglicher 2080ti kauf über 350.- ist ein fehlkauf, da holt man sich lieber eine neue 3070. Man liest schon viele hass beiträge weil ampere zu billig ist :freak::freak::freak:

Ich bin über die dummheit der menschheit immer wieder erstaunt.

Turing war einfach zu teuer, Ampere ist wieder im vernünftigen Segment. Freue mich sehr 🥳

Neurosphere
2020-09-03, 07:40:37
Mehr rt und tensor leistung als die 2080ti hat die 3070 auch.

Bleibt wirklich nur die bandbreite übrig...

Tensor kann einem relativ egal sein und RT ist nicht in dem Maße gestiegen wie es zu erwarten war.

Um RT richtig zu pushen wäre mehr als eine Verdopplung nötig gewesen. Der gleiche Sprung wie 1000er zu 2000er Gen wäre wünschenswert.


Der Text oben soll auch die 3070 und 3080 nicht schmälern. Beides werden wohl sehr gute Karten fürs Geld.

Ist doch Platz für eine Titan:
- Vollausbau GA102
- mehr Takt
- schnellerer Speicher (21 Gbps)
- mehr Speicher (48GB oder wenn genügend Vorlaufzeit für Micron mit "krummen" Chips: 36GB)

Ich bezweifel das da etwas kommt, kann mich aber auch täuschen.

Wenn man nun aber davon ausgeht das die 3070 und 3080 nach oben gerutscht sind, ist der PReis der 3090 nicht mehr angemessen, verglichen mit den günstigen Preisen der 3080 darunter. NV hat hier halt künstlich durch den Ram einen Abstand geschaffen der in Benchmarks nicht zu sehen sein dürfte bis 4k.

HOT
2020-09-03, 07:42:08
Ist doch Platz für eine Titan:
- Vollausbau GA102
- mehr Takt
- schnellerer Speicher (21 Gbps)
- mehr Speicher (48GB oder wenn genügend Vorlaufzeit für Micron mit "krummen" Chips: 36GB)


Wenn Microns einziger GDDR6X-Kunde bleibt, und davon ist auszugehen, wird Micron die 8Gb-Chips einstellen und nur noch die angekündigten 16Gb-Chips produzieren. Immerhin betrifft das hier nur 2 Produkte im Hochpreissegment, da wird man nicht beide Typen parallel laufen lassen, das ergibt bei den geringen Mengen einfach keinen Sinn.
Das heißt im Klartext, die 3080 ist deshalb so billig, weil sie Verarsche ist, denn sie wird, sobald die 16Gb-Chips verfügbar sind, durch eine reguläre 20GB-Variante ersetzt werden, die dann ganz normals single-sided bestückt ist. Die nennt man dann eben 3080Ti oder Super und, wie bei Turing, wird die 3080 ohne Zusatz vom Markt verschwinden.
Dann passt auch das Lineup wieder zusammen:

3090 Super/Ti (24GB Singlesided-Bestückung), freigewordene TDP wandert in den Takt
3080 Super/Ti (20GB Singlesided-Bestückung)
3070 Ti (16GB GDDR6-Bestückung (gibts schon seit Tuing-Launch mit 16Gb und 16GT/s))
3070 (8GB GDDR6 (wie es aussieht mit nur 14GT/s))

In der Praxis wir die 3070 auch die 2080Ti nicht packen, dazu ist die Bandbreite einfach zu niedrig. Da wird man schon RT einsetzen müssen, im die zu knacken.

=Floi=
2020-09-03, 07:49:43
Jeglicher 2080ti kauf über 350.- ist ein fehlkauf,

nur sieht die realität wieder anders aus.

Korvaun
2020-09-03, 08:02:17
Die Preise sind schon TOP, insbesondere im Vergleich zur vorherigen Gen. Ich denke aber nV hat das nicht freiwillig gemacht, in einem "normalen" Jahr (ohne Corona, neue Konsolengen. und vor allem RDNA2) wären das sicherlich eher 599.- für die 3070 und 799.- für die 3080 gewesen. Wenn die Performance wirklich dem entspricht was nV angekündigt hat wären aber selbst das noch ordentliche Preise gewesen. Kann man daraus jetzt ablesen das AMD was tolles bringt? Nicht wirklich, aber es wird wohl nicht so schlecht sein das nV das einfach hätte ignorieren können...

mironicus
2020-09-03, 08:02:24
Ich würde mich gar nicht wundern wenn Custom 3070 deutlich über 500 Euro kosten und die Preise wegen Knappheit am Ende bei 600 Euro liegen werden.

Orbmu2k
2020-09-03, 08:06:37
Also ich kann diese Euphorie über die Preise nicht nachvolziehen. Turing war ein absolutes Negativ Beispiel. Klar geht immer noch schlimmer, aber wir sind noch nichtmal auf Pascal Niveau zurück. Die 1080ti als Topmodel gabs auch für 699$ und die war quasi ein kaum beschnittener GP102 Chip und ähnlichem Perf Sprung. Den Maxwell Topdog gabs sogar für 649$.

Die Titans klammere ich bewusst mal aus wobei die 3090 in dem Segment nochmal ordentlich im Preis draufschlägt. (Turing/Volta mal außen vor)

prinz_valium_2
2020-09-03, 08:07:27
Nein? :rolleyes:

Wenn Speicher OC weiterhin bei 500MHz oder mehr möglich ist, kommst du an die 1TB ran.

Mit dem 21GBps Speicher nächstes Jahr von Micron schafft man die Marke bei einem 384bit Interface.

Finch
2020-09-03, 08:11:15
Also ich kann diese Euphorie über die Preise nicht nachvolziehen. Turing war ein absolutes Negativ Beispiel. Klar geht immer noch schlimmer, aber wir sind noch nichtmal auf Pascal Niveau zurück. Die 1080ti als Topmodel gabs auch für 699$ und die war quasi ein kaum beschnittener GP102 Chip und ähnlichem Perf Sprung. Den Maxwell Topdog gabs sogar für 649$.

Die Titans klammere ich bewusst mal aus wobei die 3090 in dem Segment nochmal ordentlich im Preis draufschlägt. (Turing/Volta mal außen vor)
Rechne mal die Inflation ein.

Dorn
2020-09-03, 08:16:06
Also ich kann diese Euphorie über die Preise nicht nachvolziehen. Turing war ein absolutes Negativ Beispiel. Klar geht immer noch schlimmer, aber wir sind noch nichtmal auf Pascal Niveau zurück. Die 1080ti als Topmodel gabs auch für 699$ und die war quasi ein kaum beschnittener GP102 Chip und ähnlichem Perf Sprung. Den Maxwell Topdog gabs sogar für 649$.

Wenn 3070 & 3080 mit gescheiten Speichergrößen irgendwann mal antreten haben wir ja eh dann die Preiserhöhung. Also wenn ich die Foren so mir anschaue, hätte so gut wie jeder gerne mehr Speicher...

Orbmu2k
2020-09-03, 08:21:05
Rechne mal die Inflation ein.

Du hast meinen Punkt nicht verstanden. Selbst mit Inflation sind wir maximal auf Pascal Niveau. Seit Kepler gibt es eine enorme Preissteigerung im Topsegment die nicht allein durch Inflation zu erklären ist. Klar wird die Herstellung immer teurer usw. aber ein Hauptgrund damals war doch dass TSMC nicht länger das Yieldrisiko tragen wollte und das dann auf Kosten von Nvidia ging. Dazu kommt dass die Margen immer mehr gestiegen sind. Die Chips kosten selbst im Worst Case nur 150$ die Preissteigerungen waren also trotz Inflation und allem unverhältnismässig hoch.

Ich wollte damit nur sagen, dass es keinen Grund die Ampere Preise jetzt so abzufeiern.

Wenn 3070 & 3080 mit gescheiten Speichergrößen irgendwann mal antreten haben wir ja eh dann die Preiserhöhung. Also wenn ich die Foren so mir anschaue, hätte so gut wie jeder gerne mehr Speicher...

Genau das meinte ich, die 3080 ist mit ihren 10GB und dem Big Cut nicht in dem Segment der 1080ti. Eigentlich sollte das eine 3090 mit 12GB sein.

Dural
2020-09-03, 08:24:51
Ampere ist auch nicht billig, man muss den kunden nur das gefühl geben das es ein guter preis ist "deutlich mehr leistung zum selben preis" "schneller als die alte high end lösung die 1200.- gekostet hat für nur 499.-"

Nv hat in den letzten geschäftszahlen ganz klar gesagt das sie eine höheren gewinn in der zukunft erwarten. Ich habe dies hier gepostet als die roten noch vom preis krieg geträumt haben... Meiner meinung nach war turing durch die grösse und prozess extrem teuer, die 8nm von samsung dürften im vergleich zu den 7nm vom tsmc spot billig sein.

Dalai-lamer
2020-09-03, 08:30:22
Habt ihr eine Idee wie man am besten vorbestellt?
Oder morgens am 17. Direkt Webseiten aktualisieren?

mironicus
2020-09-03, 08:34:44
Wahrscheinlich hat NVidia jetzt einen großen Vorteil das sie die gesamte 8 nm-Fertigung von Samsung für sich beanspruchen können... :D

Und AMD hat ja schon selbst Probleme liefern zu können und muss sich den TSMC-Prozess mit vielen anderen teilen.

Orbmu2k
2020-09-03, 08:38:49
Ampere ist auch nicht billig, man muss den kunden nur das gefühl geben das es ein guter preis ist "deutlich mehr leistung zum selben preis" "schneller als die alte high end lösung die 1200.- gekostet hat für nur 499.-"

Nv hat in den letzten geschäftszahlen ganz klar gesagt das sie eine höheren gewinn in der zukunft erwarten. Ich habe dies hier gepostet als die roten noch vom preis krieg geträumt haben... Meiner meinung nach war turing durch die grösse und prozess extrem teuer, die 8nm von samsung dürften im vergleich zu den 7nm vom tsmc spot billig sein.

Turing war ein Step von 699$ auf 1200$ für den Topdog, daran sieht man doch wir hinverbrannt das ist. Klar dass die 2080ti Käufer jetzt jammern, das geht den Titan Käufern schon seit Jahren so. :)

Wie gesagt die reinen Prozesskosten machen am Ende auch nur vielleicht 20-30$ Unterschied. Nvidia wächst einfach enorm und die Leute in der Entwicklung von sowohl Hardware als auch Software müssen alle bezahlt werden.

ianm
2020-09-03, 08:40:44
Nachdem Huawei raus ist, dürfte es einiges mehr an Kapazitäten geben. Gab Meldungen dazu.

mapel110
2020-09-03, 08:43:27
und die Leute in der Entwicklung von sowohl Hardware als auch Software müssen alle bezahlt werden.
und die Shareholder und die Geschäftsführung, Vorstand und Aufsichtsräte.

ShinyMcShine
2020-09-03, 08:44:31
Klar dass die 2080ti Käufer jetzt jammern, das geht den Titan Käufern schon seit Jahren so. :)

Mit diesem Personenkreis (teuer kaufen und dann jammern) hatte ich 'eh noch nie Mitleid... :tongue:

ianm
2020-09-03, 08:44:48
und die Shareholder und die Geschäftsführung, Vorstand und Aufsichtsräte.
Vor allem diese.

NC
2020-09-03, 08:45:11
Ampere ist auch nicht billig, man muss den kunden nur das gefühl geben das es ein guter preis ist "deutlich mehr leistung zum selben preis" "schneller als die alte high end lösung die 1200.- gekostet hat für nur 499.-"
Vor allem ist es eine Schönrechnerei.
1. Die Ampere 20TFlops sind laut NV auf Turing 15TFlop niveau. Effektiv sind das 10TFlops+(50% 10TFlops) weil die Int-ALUs auch laufen werden, nicht umsonst wurden die bei Turing eingebaut.
2. Es sind doch aber keine "NVIDIA CUDA Cores 10496 8704 5888", sondern 5248, 4352, 2944, sonst hätte die Zählweise schon bei Turing gelten müssen.
2. 499 und 699 wirkt erstmal gut, aber auch nur weil wir die Preise für die eigentlichen vollen Modelle mit 16 GB bzw 20 GB nicht kennen. Wenn es 599 und 799 wird, ist es noch ein guter Preis. Aber es kann genau so 899 und 1199 werden.
3. Die 2x FP32 oder "up to 1.9" usw. sind in ersten NVidia ausgesuchten Benchmarks von DF eher 1.6x bis 1.8x (ein mal kurz 2x). Wie gut Skaliert z.B. die 3070 wirklich in Spielen die bei 4k wirklich den Speicher fressen gegenüber einer 2080 Ti?

Ich glaube Ampere ist schon sehr gut, aber das Marketing verblendet ein ziemlich, wir kennen die eigentlich Preis/Leistung nicht.

ShinyMcShine
2020-09-03, 08:47:48
2. 499 und 699 wirkt erstmal gut, aber auch nur weil wir die Preise für die eigentlichen vollen Modelle mit 16 GB bzw 20 GB nicht kennen. Wenn es 599 und 799 wird, ist es noch ein guter Preis. Aber es kann genau so 899 und 1199 werden.

Never ever wird eine "3070 Ti/Super/Whatever mit 16GB für 899€ verkauft werden... So viel Marketing kannst Du garnicht betreiben, dass +8GB 300€ wert sind. Im Umkehrschluß würde das heißen, dass die 3070 nackt ohne RAM nur 200€ Wert ist. ;)

HPVD
2020-09-03, 08:48:24
Wenn Microns einziger GDDR6X-Kunde bleibt, ....
Dann passt auch das Lineup wieder zusammen:

3090 Super/Ti (24GB Singlesided-Bestückung), freigewordene TDP wandert in den Takt
3080 Super/Ti (20GB Singlesided-Bestückung)
3070 Ti (16GB GDDR6-Bestückung (gibts schon seit Tuing-Launch mit 16Gb und 16GT/s))
3070 (8GB GDDR6 (wie es aussieht mit nur 14GT/s))



und was man auch noch machen könnte bei den Super/Ti, wäre DP 2.0 zu integrieren statt 1.4
denn davon soll es Ende 20/ Anfang 21 auch erste Produkte geben - sprich dann ist das technologisch auch "bereit"...
und zack kann man noch mal 50€ für "Zukunftsfähigkeit" on top addieren ;-)

Und schon ist alles fast wieder wie man es erwarten würde von Speichermengen/Anschlüssen/Preisen/Margen...

Edit: vom Entwicklungsaufwand braucht man das eh alles für die - GA102 basierten - Quadros: Doppelseitige Bestückbarkeit, mit großen Chips für 48GB, DP 2.0...

HOT
2020-09-03, 08:51:14
und was man auch noch machen könnte wäre DP 2.0 zu integrieren statt 1.4
denn davon soll es Ende 20/ Anfang 21 auch erste Produkte geben - sprich dann ist das technologisch auch "bereit"...
und zack kann man noch mal 50€ für "Zukunftsfähigkeit" on top addieren ;-)

Und schon ist alles fast wieder wie man es erwarten würde von Speichermengen/Anschlüssen/Preisen/Margen...
Kannste vergessen. Die nächste Änderung an den Chips selbst gibts nicht vor Hopper.

NC
2020-09-03, 08:54:54
Never ever wird eine "3070 Ti/Super/Whatever mit 16GB für 899€ verkauft werden... So viel Marketing kannst Du garnicht betreiben, dass +8GB 300€ wert sind. Im Umkehrschluß würde das heißen, dass die 3070 nackt ohne RAM nur 200€ Wert ist. ;)
Das sind überspitzte Beispiele um keine Argumentation darüber anzustossen, hätte ich etwa 999 und 1299 sagen müssen?
Die Kernaussage war: Wir wissen nicht was die Preis/Leistung wirklich ist. Unser "Good Feeling About It" basiert quasi auf den Zuckerbrotmodellen.

dargo
2020-09-03, 09:00:50
Never ever wird eine "3070 Ti/Super/Whatever mit 16GB für 899€ verkauft werden... So viel Marketing kannst Du garnicht betreiben, dass +8GB 300€ wert sind.
Ich sehe da das Problem nicht. Die 3070TI bekommt den vollen Chip mit etwas höheren Taktrate und schon kannst du den Aufpreis rechtfertigen. Vielleicht nicht unbedingt 899$, aber 799-849$ eventuell schon.

Grendizer
2020-09-03, 09:04:23
Ich sehe da das Problem nicht. Die 3070TI bekommt den vollen Chip mit etwas höheren Taktrate und schon kannst du den Aufpreis rechtfertigen. Vielleicht nicht unbedingt 899$, aber 799-849$ eventuell schon.


Aber nicht von 499€ kommend ... dann sind bei 699-749$ Schluss ...

HPVD
2020-09-03, 09:06:58
Kannste vergessen. Die nächste Änderung an den Chips selbst gibts nicht vor Hopper.

kommt der Diplayport und die HDMIs direkt aus dem Chip?

Mein Verständnis war bisher, dass das ausserhalb "gemacht"wird (Wandlung Properitär zu benötigten Standards).
Gestützt wird das je eigentlich immer noch dadurch, dass es ja auch 30x0 Karten mit 2 statt dem einem standardmäßig vorhandenem HDMI 2.1 geben soll...

edit: und auch sonst bisher wissen wir nicht, dass der Chip das nicht unterstützt und es vielleicht nur nicht rausgeführt wird weil noch "irgendwas kleines" fehlt...

dargo
2020-09-03, 09:08:00
Aber nicht von 499€ kommend ... dann sind bei 699-749$ Schluss ...
Wer sagt das? Du? :tongue: Niemand weiß was 8GB GDDR6 16Gbps kosten. Und was dran verdienen will man auch.

mironicus
2020-09-03, 09:09:27
Was für 3080-Modelle könnte NVidia noch so auf den Markt werfen, wenn die Grundplatine identisch ist zur 3090? Da könnten sie doch theoretisch Modelle mit 12,14,16,18,20 Gigabyte auf den Markt bringen inkl. kleiner Anpassungen am Speicherinterface, oder?

MartinRiggs
2020-09-03, 09:19:33
Ich wollte damit nur sagen, dass es keinen Grund die Ampere Preise jetzt so abzufeiern.
Genau das meinte ich, die 3080 ist mit ihren 10GB und dem Big Cut nicht in dem Segment der 1080ti. Eigentlich sollte das eine 3090 mit 12GB sein.

Das ist genau das Problem warum jetzt alle panisch verkaufen, nur blenden irgendwie alle aus das die Preise nicht wirklich gut sind, noch gar nichts lieferbar ist und die 3080 in Tradition zur 2080(s) auch mal wieder völlig unausgewogen ist mit ihren 10GB
Vielleicht bekommt man die 499€ Karte als Founders kaum und die Custom kosten gleich mal Richtung 600€ und das für nen Speicherkrüppel im Jahr 2020 :uclap:

Es bleibt spannend....

Dural
2020-09-03, 09:35:14
Man muss bei den Preisen auch bedenken das die Arbeitsstunden immer wie teurer und die heutigen Architekturen praktisch nichts mehr mit den alten "einfachen" von früher zu tun haben.

So eine Ampere Architektur kostet wenn man auf einem weissen Blatt anfängt Unsummen, praktisch nicht mehr zu finanzieren.

Dorn
2020-09-03, 09:46:40
Man muss bei den Preisen auch bedenken das die Arbeitsstunden immer wie teurer und die heutigen Architekturen praktisch nichts mehr mit den alten "einfachen" von früher zu tun haben.

So eine Ampere Architektur kostet wenn man auf einem weissen Blatt anfängt Unsummen, praktisch nicht mehr zu finanzieren.
LMAO
http://www.3dcenter.org/news/die-nvidia-geschaeftsergebnisse-im-vierten-quartal-2019
Gewinne steigen von Jahr zu Jahr ins Extreme...

Hör doch mal auf immer so krass zu trollen, sonst nimmt dich irgendwann mal keiner mehr Ernst.

Q4/2018 Q1/2019 Q2/2019 Q3/2019 Q4/2019
Umsatz 2205 Mio. $ 2220 Mio. $ 2579 Mio. $ 3014 Mio. $ 3105 Mio. $
Gewinn 567 Mio. $ 394 Mio. $ 552 Mio. $ 899 Mio. $ 950 Mio. $
operativer Gewinn 294 Mio. $ 358 Mio. $ 571 Mio. $ 927 Mio. $ 990 Mio. $

monstar-x
2020-09-03, 09:48:02
Das ist genau das Problem warum jetzt alle panisch verkaufen, nur blenden irgendwie alle aus das die Preise nicht wirklich gut sind, noch gar nichts lieferbar ist und die 3080 in Tradition zur 2080(s) auch mal wieder völlig unausgewogen ist mit ihren 10GB
Vielleicht bekommt man die 499€ Karte als Founders kaum und die Custom kosten gleich mal Richtung 600€ und das für nen Speicherkrüppel im Jahr 2020 :uclap:

Es bleibt spannend....

Genau das denke ich auch, die 499€ stehen auf der Nvidia Seite.
Doch können die auch schnell/ausreichende liefern?
Ich denke in den nächsten Monaten, wird es da erhebliche Wartezeiten kommen.


Die Preise der Customs sind bereits für UK geleakt

Nvidia Basis Preis sind £469
Inno3D GeForce RTX 3070 iChill X4 8 GB– £499.99
Inno3D GeForce RTX 3070 iChill X3 8 GB– £479.99
Inno3D GeForce RTX 3070 Twin X2 OC 8 GB– £469.99
quelle: Link (https://www.dsogaming.com/news/custom-aib-rtx-3090-rtx-3080-rtx-3070-ampere-gpu-models-prices-unveiled-premium-sku-to-cost-more/)

Sprich die Customs sind in UK teuer, und das ist nur eine Inno3D, da dürfte ASUS Strix und MSI noch mal eine schippe drauflegen.

Ich sage eine Asus Strix OC / MSI Gaming X wird hierzu Lange um die 599€ kosten.

Odal
2020-09-03, 09:52:46
Man muss bei den Preisen auch bedenken das die Arbeitsstunden immer wie teurer und die heutigen Architekturen praktisch nichts mehr mit den alten "einfachen" von früher zu tun haben.

So eine Ampere Architektur kostet wenn man auf einem weissen Blatt anfängt Unsummen, praktisch nicht mehr zu finanzieren.

Dann sollte man die Architektur vielleicht mal wieder vereinfachen. Ein erster Schritt wäre es diese unsäglichen Tensor Cores wegzulassen.
Erst schafft man Pixel und Vertexshader ab und ersetzt das mit unified shadern und dann packt nvidia wieder irgendeinen custom crap dazu.

Ausserdem wird nicht alles auf dem weißen Blatt Papier angefangen, du musst das mal anders sehen...man hat genug probiert und müsste wissen was funktionieren könnte und was nicht.

Ausserdem muss man nicht mehr 100tsd. neue DX Sachen unterstützen, da ist nicht mehr soviel Fluktuation drin mit unfertigen Specs etc. wie es z.B. zu DX9 der Fall war.

Rancor
2020-09-03, 09:53:53
Ist auch schon wieder Augenwischerei, das die Ampere CUDA Cores anders gezählt werden, als die von Turing.

Eine 2080 hätte nach der "Ampere" Zählweise auch 5888 Cores. Die 2080TI 9064 Cores.

Troyan
2020-09-03, 09:58:15
Nein, die Zählweise ist korrekt. Ampere kann pro SM pro Takt 32 FP32 FMAs Operationen ausführen. Turing konnte nur 16 FP32.

Es sind doppelt soviele Cuda-Cores gegenüber Turing. Einzig im zweiten Datenpfad werden auch die INT32 Operationen ausgeführt. Je höher der Anteil an FP32 zu INT32 Berechnungen ist, umso besser ist die FP32 Auslastung.
Bei Turing hätte nVidia z.B. 3072 FP32 und 3072 INT32 Cores bewerben müssen.

Sozusagen ist Ampere eine Mischung aus Pascal und Turing.

robbitop
2020-09-03, 10:01:06
Ist auch schon wieder Augenwischerei, das die Ampere CUDA Cores anders gezählt werden, als die von Turing.

Eine 2080 hätte nach der "Ampere" Zählweise auch 5888 Cores. Die 2080TI 9064 Cores.



Naja. Turing hatte 64x FPU Kanäle und 64x INT Kanäle. Wenn man INT als CUDA Kern zählen würde: dann ja.
Aber gerade bei 3D Grafik fallen zumeist viel mehr Floatingpoint Operationen an. Rohleistungsnormiert ist Turing uA deshalb kaum schneller geworden als Pascal. (Wolfenstein und Quantumbreak sind da mal moderne Ausnahmen).

Ampere ist einfach in der Hinsicht flexibler, da man nun doppelten FP Durchsatz hat.

Im Prinzip hat man pro SM nun so viele „CUDA Core“ (also FPUs) wie Maxwell und Pascal.
Die FPUs scheinen allerdings doch kein INT zu können (woe Maxwell/Pascal). Deshalb kann/muss man dann die extra ALUs für INT nutzen, die aber Datenpfade für fp blockieren.

Im Endeffekt ist man schneller und flexibler als Turing.

In Punkto Auslastung brachte die Verringerung von 128->64 fpus bei Turing kaum was. Entsprechend ist es eine kluge Entscheidung die FPUs wieder zu verdoppeln. Datenpfade etc waren ja schon da. Die FPUs selbst sind ja gar nicht mal sooo teuer.

why_me
2020-09-03, 10:04:51
Ist das nicht das gleiche Problem wie mit den Bulldozer Kernen (nur FP-Int vertauscht)?

Prinzipiell ist doch die Frage ob Int zu den Cuda Cores dazu gehört oder ob es ein extra ist, dass die Cores Int Operationen können. Würde eher zu ersterem tendieren und dann wäre die Frage ob man hier wirklich von 10k sprechen sollte.

prinz_valium_2
2020-09-03, 10:05:44
Ich sehe da das Problem nicht. Die 3070TI bekommt den vollen Chip mit etwas höheren Taktrate und schon kannst du den Aufpreis rechtfertigen. Vielleicht nicht unbedingt 899$, aber 799-849$ eventuell schon.

Um trotzdem deutlich langsamer als die 3080 zu sein?
Eine 2070TI mit 16GB und vollem 104 Chip könnte man aber für den selben Preis wie die alte 3080 anbieten.

Teurer ist aber marketing technisch einfach nicht möglich.


Genau das denke ich auch, die 499€ stehen auf der Nvidia Seite.
Doch können die auch schnell/ausreichende liefern?
Ich denke in den nächsten Monaten, wird es da erhebliche Wartezeiten kommen.


Die Preise der Customs sind bereits für UK geleakt

Nvidia Basis Preis sind £469
Inno3D GeForce RTX 3070 iChill X4 8 GB– £499.99
Inno3D GeForce RTX 3070 iChill X3 8 GB– £479.99
Inno3D GeForce RTX 3070 Twin X2 OC 8 GB– £469.99
quelle: Link (https://www.dsogaming.com/news/custom-aib-rtx-3090-rtx-3080-rtx-3070-ampere-gpu-models-prices-unveiled-premium-sku-to-cost-more/)

Sprich die Customs sind in UK teuer, und das ist nur eine Inno3D, da dürfte ASUS Strix und MSI noch mal eine schippe drauflegen.

Ich sage eine Asus Strix OC / MSI Gaming X wird hierzu Lange um die 599€ kosten.


Die Founder Editions waren bisher immer Müll.
Werden die nur bei Nvidia im Shop direkt verkauft oder auch bei Händlern wie Amazon und Media/Saturn?
Können AIBs auch FE designs bringen wie damals zu den alten 470/480 Zeiten?

Bin da echt nicht in der Materie drin.
Aber diesmal ist die FE ja echt gelungen und auch noch mit das günstigste und nicht 100€ teurer für schlechtere Leistung.

robbitop
2020-09-03, 10:07:01
Nein, die Zählweise ist korrekt. Ampere kann pro SM pro Takt 32 FP32 FMAs Operationen ausführen. Turing konnte nur 16 FP32.

Pro SM Partition meinst du.

robbitop
2020-09-03, 10:09:19
Ist das nicht das gleiche Problem wie mit den Bulldozer Kernen (nur FP-Int vertauscht)?

Prinzipiell ist doch die Frage ob Int zu den Cuda Cores dazu gehört oder ob es ein extra ist, dass die Cores Int Operationen können. Würde eher zu ersterem tendieren und dann wäre die Frage ob man hier wirklich von 10k sprechen sollte.

CPUs sind so anders als GPUs vom Paradigma, dass Vergleiche hier selten sinnvoll ist.

Ein Ampere SM hat 128 FP Kanäle. So wie Maxwell und Pascal. Dort wurde das auch so gezählt und nicht angezweifelt. Ich sehe absolut keinen Grund, dass jetzt zu tun.
Man hätte (mit viel Augen zudrücken) ggf bei Turing schon anfangen können, doppelt zu zählen. Aber ohne fp kein cuda core. ;)

Orbmu2k
2020-09-03, 10:16:37
Daher vermutlich auch die Angst von Jenson einen neuen Mining Boom auszulösen bei doppelt so viel FP32 Einheiten gehen die bestimmt böse ab. ;)

Grendizer
2020-09-03, 10:27:50
Wer sagt das? Du? :tongue: Niemand weiß was 8GB GDDR6 16Gbps kosten. Und was dran verdienen will man auch.

Selbst wenn zusätzliche 8 Gb in Einkauf 100 Dollar mehr kosten wäre da noch recht viel Wertschöpfungsmöglichkeiten bei einem Verkaufspreis von +200$ bei 699 Dollar.

mczak
2020-09-03, 10:32:06
Die FPUs selbst sind ja gar nicht mal sooo teuer.
Keine Ahnung wie viel da die zusätzlichen FPUs beitragen, aber die SMs sind dann insgesamt offensichtlich schon deutlich grösser. Ist ja kein Zufall dass TU102 72 SMs hat und GA104 bei ähnlicher Chipkomplexität bloss 48.
Nvidia baut da öfter ziemlich um, Pascal->Turing war aber effizienzmässig am Ende nicht wirklich ein grosser Sprung. Und bisher sehe ich keine Anzeichen dass das bei Turing->Ampere anders ist.
(Dass es da einen Unterschied gibt zwischen Gaming Ampere und HPC Ampere finde ich im Uebrigen ziemlich interessant, wenn man sich allerdings die GA100 Präsentation anschaut könnte man auch meinen das Teil besteht praktisch nur aus Tensorkernen und dass da noch andere Dinge verbaut sind ist bloss ein Betriebsunfall.)

Korvaun
2020-09-03, 10:34:29
Eine 16GB 3070ti darf nicht mehr kosten als eine 10GB 3080, die Leistung der 3080 ist normalerweise einfach ne andere Liga, das würde kein (denkender) Mensch kaufen. Aber 100-150€ mehr für +8GB sehe ich da schon. Ne 20GB 3080 dagegen kann locker +200€-300€ kosten, da ist mehr Spielraum nach oben (auch weil die 3080 ja 6X hat, und die 3070 nur normales GDDR6, das macht sicher auch was aus).

THEaaron
2020-09-03, 10:37:36
So eine RTX3080 20GB für 899€ wäre immer noch instabuy Gebiet.

Bin echt schwer am hadern ob es direkt eine 3080 FE wird oder dann die 20GB Variante mit etwas Wartezeit...

Spiele vorzugsweise in 1440p aber auf Probleme wegen Speichermangel hab ich in der Preiskategorie eher wenig Lust.

Die RTX3090 wäre sonst eine Alternative, aber die persönliche Grenze bzgl des Wertes einer Grafikkarte endet irgendwo bei 1200€ rum bei mir.

ChaosTM
2020-09-03, 10:39:33
~999 für die dicke 3080er ist sehr wahrscheinlich, vielleicht auch 899..

Redneck
2020-09-03, 10:39:35
Man muss bei den Preisen auch bedenken das die Arbeitsstunden immer wie teurer und die heutigen Architekturen praktisch nichts mehr mit den alten "einfachen" von früher zu tun haben.

So eine Ampere Architektur kostet wenn man auf einem weissen Blatt anfängt Unsummen, praktisch nicht mehr zu finanzieren.

Als ob irgend jemand die Chips heute noch am Reißbrett entwerfen würde.
Und auf einem weissen Blatt fangen die niemals an. Grundlagen gibt es immer, sagen ja auch die slides... Generation x,y,z.. Man baut auf vorherigen Generation auf (anders wären die Zyklen ja auch nicht zu schaffen).

Es ist ja nicht so, ob die das Rad bei jeder weiteren Generation neu erfinden würden. Das wäre ja revolutionär... wir sehen doch aber, das es immer nur evolutionäre Schritte sind.

dargo
2020-09-03, 10:41:56
Um trotzdem deutlich langsamer als die 3080 zu sein?

Deutlich langsamer ist relativ. Sobald dir die 10GB wegbrechen gehen deine Frametimes durch die Decke.

Hauwech
2020-09-03, 10:42:15
Dann sollte man die Architektur vielleicht mal wieder vereinfachen. Ein erster Schritt wäre es diese unsäglichen Tensor Cores wegzulassen.
Erst schafft man Pixel und Vertexshader ab und ersetzt das mit unified shadern und dann packt nvidia wieder irgendeinen custom crap dazu.

Ausserdem wird nicht alles auf dem weißen Blatt Papier angefangen, du musst das mal anders sehen...man hat genug probiert und müsste wissen was funktionieren könnte und was nicht.

Ausserdem muss man nicht mehr 100tsd. neue DX Sachen unterstützen, da ist nicht mehr soviel Fluktuation drin mit unfertigen Specs etc. wie es z.B. zu DX9 der Fall war.

Was stört dich denn konkret an den Tensor Cores?

HOT
2020-09-03, 10:42:39
mczak
der eigentliche Unterschied zu damals kommt wegen der erhöhten TDP, ansonsten wäre der Sprung ähnlich wie bei Pascal -> Turing.

Dampf
2020-09-03, 10:44:31
Dann sollte man die Architektur vielleicht mal wieder vereinfachen. Ein erster Schritt wäre es diese unsäglichen Tensor Cores wegzulassen.


??

Hast du mal gesehen, was man mit denen in Spielen alles anstellen kann? Neuronale Netze werden jetzt immer häufiger eingesetzt, da sind die TCs Gold wert.

Und den sehr krassen Vorteil von DLSS muss ich ja nicht erwähnen!

Troyan
2020-09-03, 10:44:50
Unsinn. Die 3070 ist 30% schneller als die 2080 bei gleichem Verbrauch. Die 2070 war 5% oder so schneller als die GTX1080.

Die 3070 wird in Zukunft durch die 20TFLOPs massives Potential haben.

dargo
2020-09-03, 10:49:28
Die 3070 wird in Zukunft durch die 20TFLOPs massives Potential haben.
Mit 8GB bezweifle ich das sehr stark. :tongue: Zudem spricht in Zukunft eh keiner mehr von Ampere.

MasterElwood
2020-09-03, 10:56:16
Sorry wenns schon bekannt sein sollte aber: sind DAS hier die ersten offiziellen Preise der 3080 Customs???

https://www.overclockers.co.uk/pc-components/graphics-cards/nvidia/geforce-rtx-3080
(Preise kommen wenn man Karten anklickt)


Günstigste: 719 Euro
https://www.overclockers.co.uk/palit-geforce-rtx-3080-gaming-pro-10gb-gddr6x-pci-express-graphics-card-gx-05d-pl.html

Teuerste: 955 Euro
https://www.overclockers.co.uk/asus-geforce-rtx-3080-rog-strix-gaming-oc-10gb-gddr6x-pci-express-graphics-card-gx-44k-as.html

prinz_valium_2
2020-09-03, 11:14:27
Deutlich langsamer ist relativ. Sobald dir die 10GB wegbrechen gehen deine Frametimes durch die Decke.

In 99,9% aller Anwendungsfälle, die für eine 3070TI und 3080 Sinn ergeben, wird das aber nicht der Fall sein. Also wen würde das bitte betreffen, und wie will man das vermarkten?

Richtig!
Niemanden und geht nicht.


Außerdem:
Why only 10 GB of memory for RTX 3080? How was that determined to be a sufficient number, when it is stagnant from the previous generation?

[Justin Walker] We’re constantly analyzing memory requirements of the latest games and regularly review with game developers to understand their memory needs for current and upcoming games. The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price.

In order to do this, you need a very powerful GPU with high speed memory and enough memory to meet the needs of the games. A few examples - if you look at Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 and Red Dead Redemption 2 running on a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory.

Extra memory is always nice to have but it would increase the price of the graphics card, so we need to find the right balance

Dampf
2020-09-03, 11:17:14
Ich sehe es schon kommen!

"Aber zukünftige Spiele werden mehr VRAM brauchen"

Nö. Die werden den Generationssprung durch DirectStorage und Sampler Feedback vollführen.

Reaping_Ant
2020-09-03, 11:17:32
@MasterElwood: Sieht realistisch aus. Jeder Hersteller hat ein Einsteigermodell auf dem selben Preis wie die FE, nach oben offen, je nach Lichtorgelfaktor. Ich vermute, dass die Preise der guenstigeren Customs bei entsprechender Verfuegbarkeit noch etwas nachgeben, sonst waere die FE mit ihrem High-Tech Kuehler der bessere Deal.

dargo
2020-09-03, 11:21:47
Ich sehe es schon kommen!

"Aber zukünftige Spiele werden mehr VRAM brauchen"

Nö. Die werden den Generationssprung durch DirectStorage und Sampler Feedback vollführen.
Stimmt die 3090 bekommt 24GB spendiert weil dank DirectStorage 8-10GB reichen. Oh man... :crazy:

@prinz_valium_2
Vielleicht hätten sich die Marketingfuzzis mal Horizon: Zero Dawn anschauen sollen. :ulol:

Dampf
2020-09-03, 11:23:56
Stimmt die 3090 bekommt 24GB spendiert weil dank DirectStorage 8-10GB reichen. Oh man... :crazy:

24 GB sind auch nützlich für Machine Learning, extrem aufwendige Path Tracing Demos (Marbles) und extremes Gaming in 8K.

Wie Nvidia schon gesagt hat reichen 10 GB für 4K max settings in normalen Spielen locker aus.

Adam D.
2020-09-03, 11:24:38
Stimmt die 3090 bekommt 24GB spendiert weil dank DirectStorage 8-10GB reichen. Oh man... :crazy:
Ich bin ja auch der Meinung, dass Speicher ein Problem wird beim aktuellen Lineup. Aber ehrlich: Dass der 3090 24GB spendiert wurden, hat aber nun wirklich nichts mit Gaming zu tun...

nordic_pegasus
2020-09-03, 11:26:14
Ich sehe es schon kommen!

"Aber zukünftige Spiele werden mehr VRAM brauchen"

Nö. Die werden den Generationssprung durch DirectStorage und Sampler Feedback vollführen.

ist es nicht sonst die Aufgabe der AMD-Jünger auf solche Zukunfts-Technik zu vertrauen (Mantle, Low Level API, DX12, Vulcan, Primitive Shaders,...).

Oder wird DirectStorage mit jedem Spiel oder sogar jeder Anwendung einfach so ohne weitere Anpassung funktionieren?

Dampf
2020-09-03, 11:30:52
ist es nicht sonst die Aufgabe der AMD-Jünger auf solche Zukunfts-Technik zu vertrauen (Mantle, Low Level API, DX12, Vulcan, Primitive Shaders,...).

Oder wird DirectStorage mit jedem Spiel oder sogar jeder Anwendung einfach so ohne weitere Anpassung funktionieren?

Die Anpassungen werden bereits stattfinden, wenn ein Spiel auf die Xbox Series S/X zugeschnitten programmiert wird. DirectStorage und Sampler Feedback ist integraler Bestandteil der XVA.

Durch die DX12U API wird davon auch der PC profitieren!

Fun fact ich war auch mal ein AMD Mantle Jünger! Und es hat zu Vulkan geführt, was eine gute API ist.

HOT
2020-09-03, 11:33:13
Ich sehe es schon kommen!

"Aber zukünftige Spiele werden mehr VRAM brauchen"

Nö. Die werden den Generationssprung durch DirectStorage und Sampler Feedback vollführen.
Klar brauchen die mehr VRAM, immer diese Traumtänzerei :freak:, das ist so albern. 8GB sind jetzt schon teilweise zu wenig, 10GB werden recht schnell auch zu wenig sein. Das ist so mit Ansage das Ganze. Directstorage wird VRAM sparen, aber das heißt doch nicht, dass man nicht mehr VRAM verbraucht :freak:. Die Konsolen bieten zudem ebenfalls sehr viel mehr VRAM als die letzte Generation und alles bis Cyberpunk ist lastgen!

Dampf
2020-09-03, 11:34:04
Klar brauchen die mehr VRAM, immer diese Traumtänzerei :freak:

Du weißt also mehr als Microsoft und Nvidia?

Bist ja ein echter Insider :biggrin:

Edit: Die Xbox Series X hat 13.5 GB RAM für Games, Rest fürs OS. Davon sind 10 GB für die GPU optimal durch einen schnelleren Bus eingeteilt (wird aber auch zwischen CPU und GPU geteilt) und 3.5 GB für restlichen Krims Krams.

Die Xbox Series S hat sogar weniger RAM als die XBox One X, eben weil durch DirectStorage und Sampler Feedback das Streaming anders ablaufen wird.

HOT
2020-09-03, 11:36:36
Du weißt also mehr als Microsoft und Nvidia?

Bist ja ein echter Insider :biggrin:
Nein, es ist nicht sinnvoll daran zu glauben aus meiner Sicht, es ist offensichtlich. die bieten doch nicht für dumme Nüsse 16GB 3070Ti an. Von was träumt ihr eigentlich nachts?! Die 3080 bleibt ja auch nicht so. Die verschwindet eh wieder vom Markt sobald Micron 16Gb Chips anbietet, dann war es das mit 10GB und die Erstkäufer gucken in die Röhre.

Grendizer
2020-09-03, 11:39:54
Direct Storage wird sich doch nicht von heute auf morgen verbreiten. Auch wenn die neuen Konsolen das bieten, ist es für die PC Version nicht zwingend gesetzt. Da muss auch ein gewisse installierte Basis an Direct Storage Karten installiert sein.

Dampf
2020-09-03, 11:40:26
Nein, es ist dämlich daran zu glauben aus meiner Sicht, es ist offensichtlich. die bieten doch nicht für dumme Nüsse 16GB 3070Ti an. Von was träumt ihr eigentlich nachts?! Die 3080 bleibt ja auch nicht so. Die verschwindet eh wieder vom Markt sobald Micron 16Gb Chips anbietet, dann war es das mit 10GB und die Erstkäufer gucken in die Röhre.

Das klingt mir eher nach Aluhut.

Die 3080 10 GB ist einfach eine günstigere Alternative zur RTX 3080 20 GB, nicht mehr nicht weniger. Nvidia wollte mit einem niedrigeren Preis beeindrucken (was ja auch gelungen ist)

dargo
2020-09-03, 11:40:26
Du weißt also mehr als Microsoft und Nvidia?

Bist ja ein echter Insider :biggrin:
Wir wissen, dass die kommenden Konsolen fast doppelt so viel Speicher nutzen können. Der zur Verfügung stehende Speicher wurde von 5,5GB auf 10GB (XBXS, Sony weiß ich es nicht) für Spiele erhöht. Das reicht schon um zu wissen, dass der Vram-Bedarf längerfristig am PC auch steigen wird.

PS: wenn mich nicht alles täuscht kann die XBXS auch mehr als die 10GB für Spiele verwenden. Nur über 10GB dann mit weniger Bandbreite.

HOT
2020-09-03, 11:40:48
Grendizer
Das kommt noch erschwerend obendrauf. Zudem bieten die Konsolen doch Directstorage und viel mehr VRAM an.

Aluhut ist übrigens ein saudämlicher Kampfbergriff. Die sollte man generell lassen.

dargo
darauf wirds letztendlich hinauslaufen, knapp 10GB wird man für VRAM nutzen. Das ist lächerlich daran zu glauben, dass man angesichts dessen mit 10GB am PC klarkommt. Die 3070 und 3080 sind beides Beutelschneiderei in meinen Augen, weil die Halbwertszeit einfach absehbar ist. Wenn das nicht so wäre gäbe es definitiv keine Varianten mit mehr VRAM von NV, das ist vollkommen klar.

Troyan
2020-09-03, 11:43:53
Die XBSX hat nur 10GB schnellen Speicher für die GPU. Nach der Logik von einigen hier, ist das Ding DoA. Kein Entwickler wird notwendige Daten auf die langsamen Teil auslagern.

Dampf
2020-09-03, 11:45:05
Wir wissen, dass die kommenden Konsolen fast doppelt so viel Speicher nutzen können. Der zur Verfügung stehende Speicher wurde von 5,5GB auf 10GB (XBXS, Sony weiß ich es nicht) für Spiele erhöht. Das reicht schon um zu wissen, dass der Vram-Bedarf längerfristig am PC auch steigen wird.

PS: wenn mich nicht alles täuscht kann die XBXS auch mehr als die 10GB für Spiele verwenden. Nur über 10GB dann mit weniger Bandbreite.

Die Xbox One X bietet bereits signifikant mehr RAM und wir haben schon seit Ewigkeiten auf dem PC höher auflösende Texturen und Assets als Resultat dessen. Der VRAM Bedarf von Witcher 3 zu heutigen Games ist bereits signifikant gestiegen, noch nicht gemerkt? Ebenso hat sich der Markt angepasst. 6 GB war ehemals top end- heute nur noch Mittelklasse.

Das ist korrekt, aber Entwickler werden diese 10 GB RAM ungern überschreiten, eben wegen dem langsameren Bus. Und wenn doch: bedenkt bitte dass die Konsole den RAM zwischen GPU und CPU aufteilen muss. Ein PC mit 8 GB VRAM und 16 GB DDR4 RAM ist da deutlich vorne.

RLZ
2020-09-03, 11:48:23
Direct Storage wird sich doch nicht von heute auf morgen verbreiten. Auch wenn die neuen Konsolen das bieten, ist es für die PC Version nicht zwingend gesetzt. Da muss auch ein gewisse installierte Basis an Direct Storage Karten installiert sein.
Ich vermute, dass wir von Direct Storage vor 2022/23 nichts für Spieler sehen werden. Ich hoffe, dass AMD auch schon in dieser Generation mit Support dafür kommt, dass es dann auch eine ausreichende Verbreitung dafür gibt. (ja, es ist für diese Generation "nutzloser" Verbrauch von Die-Fläche)

dargo
2020-09-03, 11:49:15
Das ist korrekt, aber Entwickler werden diese 10 GB RAM ungern überschreiten, eben wegen dem langsameren Bus. Und wenn doch: bedenkt bitte dass die Konsole den RAM zwischen GPU und CPU aufteilen muss. Ein PC mit 8 GB VRAM und 16 GB DDR4 RAM ist da deutlich vorne.
Träum, weiter. :tongue: Du unterschätzst vollkommen die Vorteile vom gemeinsamen Speicher einer Konsole. Da kannst du auch 128GB Arbeitsspeicher in den PC reinknallen. Es wird dir nichts bringen weil die Flaschenhälse wo anders liegen.

Lawmachine79
2020-09-03, 11:50:05
Kann man eigentlich klar benennen, welche Parameter zu einem erhöhtem VRAM-Bedarf führen? Das dürfte ja entscheidend für die Prognose sein, ob 10GB reichen. Ich bin jedenfalls mit meiner 1080TI mit 11GB meines Wissens an keine Limits gestoßen, aber vielleicht spiele ich die falschen Spiele (aber eigentlich drehe ich immer noch alles voll auf, auch in UHD, bis auf COD:Warzone und RDR2).

Klar, die Auflösung (und damit auch Supersampling/Downsampling). Da weiss man, dass 10GB für UHD "reichen". Welche Grafikeinstellungen (Texturdetails, Schattendetails; bei Texturdetails bin ich mir ziemlich sicher, dass das den VRAM-Verbrauch steigert, aber soweit ich weiß ist das kein Bereich mehr, wo moderne Spiele sich weiter verbessern, scheint irgendwie "ausgelevelt"), welche Grafikfeatures (MSAA, andere AA-Arten)? Hat eine Raytracing-Szene in der gleichen Auflösung wie die entsprechende Rasterizing-Szene einen erhöhten VRAM-Bedarf? Erhöht die Anwendung von DLSS den Speicherbedarf oder senkt sie ihn sogar, wenn Teile des Bildes nicht hoch- sondern zugunsten höherer Bildwiederholraten runtergerechnet werden?

Dural
2020-09-03, 11:51:25
Ja das haben wir schon bei der letzten Generation überschätzt...

Moment mal, ich glaube nicht :freak:

Hauwech
2020-09-03, 11:51:42
Grendizer
Das kommt noch erschwerend obendrauf. Zudem bieten die Konsolen doch Directstorage und viel mehr VRAM an.

Aluhut ist übrigens ein saudämlicher Kampfbergriff. Die sollte man generell lassen.

dargo
darauf wirds letztendlich hinauslaufen, knapp 10GB wird man für VRAM nutzen. Das ist lächerlich daran zu glauben, dass man angesichts dessen mit 10GB am PC klarkommt. Die 3070 und 3080 sind beides Beutelschneiderei in meinen Augen, weil die Halbwertszeit einfach absehbar ist. Wenn das nicht so wäre gäbe es definitiv keine Varianten mit mehr VRAM von NV, das ist vollkommen klar.

DirectStorage kommt auch für den PC und nV setzt es mit ihrem RTX IO für sich um. Die Xbox bietet auch nur 10GB schnellen VRam.
Die Versionen mit mehr Ram kommen aber nicht von nV sondern von den Customherstellern, na und? Muss jeder selber wissen was er kauft.

HOT
2020-09-03, 11:53:59
DirectStorage kommt auch für den PC und nV setzt es mit ihrem RTX IO für sich um. Die Xbox bietet auch nur 10GB schnellen VRam.
Die Versionen mit mehr Ram kommen aber nicht von nV sondern von den Customherstellern, na und? Muss jeder selber wissen was er kauft.
Das gab es schon sehr lange nicht mehr. Und jetzt geht das auf einmal wieder? Sehr verdächtig. Noch mal: Die Konsolen nutzen DS und doppelt soviel VRAM.

Die Spiele auf den letzten Konsolen verbrauichen maximal 3,5GB VRAM in etwa IIRC auf der XBox. Die Spiele am PC verbrauchen z.T. arg mehr. Das soll jetzt anders sein? Wieso? Der VRAM-Verbrauch verdoppelt sich jetzt zur nächsten Generation, UHD mit eingerechnet, also wird sich auch der PC-VRAM-Bedarf verdoppeln. Mit 16GB wird man langfristig sicherlich sehr gut fahren, 8GB ist viel zu wenig und 10GB ist nicht viel mehr.

RLZ
2020-09-03, 11:56:38
Stimmt die 3090 bekommt 24GB spendiert weil dank DirectStorage 8-10GB reichen. Oh man... :crazy:
Realistisch sind das Produkt-Kategorien. Eine Titan verbinde ich immer mit doppeltem Speicher. Ist es notwendig? Nein. Aber die Leute bezahlen dafür.
Was ausreicht, wird von der verfügbaren Hardware definiert. Wenn ich Parameter weit genug hochdrehe, ist Speicher NIE ausreichend.

Hätte Nvidia vorgehabt mehr Speicher anzubieten, hätten sie imo einige Designentscheidungen ganz anders getroffen. Auf eine 2080 nun 20 Speicherchips draufzubauen, ist kostentechnisch echt super ineffizient.

Man wird sehen welchen Auswirkungen das für Nvidia hat, wenn AMD nun mit wesentlich mehr Speicher daher kommt. Schönrechnen mit Magic Sauce (Direct Storage) funktioniert auf dem PC nicht.

HOT
2020-09-03, 12:00:26
NV bietet auch 16GB für die 3070Ti und 3080 20GB an... die Logik passt nicht.

Leute, selbst wenns so kommen sollte, dass 10GB reichen über 21 hinaus (was total unwahrscheinlich ist), wollt ihr für 800€ diese Wette eingehen?!
Das Ding ist ne GTX680 mit 2GB. Genau dasselbe Problem.

Hauwech
2020-09-03, 12:00:35
Das gab es schon sehr lange nicht mehr. Und jetzt geht das auf einmal wieder? Sehr verdächtig.

Die Spiele auf den letzten Konsolen verbrauichen maximal 3,5GB in etwa auf der XBox. Die Spiele am PC verbrauchen z.T. arg mehr.

Warum soll es verdächtig sein? Es stand und steht AMD genau so frei den Customherstellern mehr Ram zu erlauben.

Ist doch nichts neues das Spiele die alle Kniffe, Tricks und Besonderheiten einer Konsole, als genau eine geschlossene Plattform ausnutzen können, auf anderen Plattformen andere Wege und somit vielleicht auch mehr Ram benötigen. Als wenn das was neues wäre.

Armaq
2020-09-03, 12:01:52
Kann man eigentlich klar benennen, welche Parameter zu einem erhöhtem VRAM-Bedarf führen? Das dürfte ja entscheidend für die Prognose sein, ob 10GB reichen. Ich bin jedenfalls mit meiner 1080TI mit 11GB meines Wissens an keine Limits gestoßen, aber vielleicht spiele ich die falschen Spiele (aber eigentlich drehe ich immer noch alles voll auf, auch in UHD, bis auf COD:Warzone und RDR2).

Klar, die Auflösung (und damit auch Supersampling/Downsampling). Da weiss man, dass 10GB für UHD "reichen". Welche Grafikeinstellungen (Texturdetails, Schattendetails; bei Texturdetails bin ich mir ziemlich sicher, dass das den VRAM-Verbrauch steigert, aber soweit ich weiß ist das kein Bereich mehr, wo moderne Spiele sich weiter verbessern, scheint irgendwie "ausgelevelt"), welche Grafikfeatures (MSAA, andere AA-Arten)? Hat eine Raytracing-Szene in der gleichen Auflösung wie die entsprechende Rasterizing-Szene einen erhöhten VRAM-Bedarf? Erhöht die Anwendung von DLSS den Speicherbedarf oder senkt sie ihn sogar, wenn Teile des Bildes nicht hoch- sondern zugunsten höherer Bildwiederholraten runtergerechnet werden?
In 4K war das halt nicht der Fall. Es gab einige Spiele wo in 4K die 8GB knapp wurden. Die neue Konsolengeneration kann ja streamen wie sie will, sie hat massiv mehr Ram zur Verfügung als die Generation davor, d.h. auch der Ram-Bedarf bei Spielen wird massiv steigen (ram und vram). Es ist doch nichts ärgerlicher als eine GPU zu haben die mehr kann und dann am Ram verhungert. Das sage ich als 8800GTS 320MB Besitzer. ;)

Die Anforderung an die Platine und den Speicher im aktuellen Stand der Technik scheinen sehr hoch zu sein. Wenn ich mit der halben Speichermenge dennoch GPUs absetzen kann für 3-6 Monate, warum nicht erstmal den Schwung der Ungeduldigen mitnehmen?

y33H@
2020-09-03, 12:03:56
Klar, die Auflösung (und damit auch Supersampling/Downsampling). Da weiss man, dass 10GB für UHD "reichen". Abhängig hiervon:
Welche Grafikeinstellungen (Texturdetails, Schattendetails; bei Texturdetails bin ich mir ziemlich sicher, dass das den VRAM-Verbrauch steigert, aber soweit ich weiß ist das kein Bereich mehr, wo moderne Spiele sich weiter verbessern, scheint irgendwie "ausgelevelt") Primär Texturen, Shadowmaps, Render-Targets soweit ich das sehen.
welche Grafikfeatures (MSAA, andere AA-Arten)? MSAA erhöht den Bedarf drastisch, sowas wie SMAA/TAA nicht.
Hat eine Raytracing-Szene in der gleichen Auflösung wie die entsprechende Rasterizing-Szene einen erhöhten VRAM-Bedarf? Ja, deutlich - mehrere hundert MB oder über 1GB.
Erhöht die Anwendung von DLSS den Speicherbedarf oder senkt sie ihn sogar, wenn Teile des Bildes nicht hoch- sondern zugunsten höherer Bildwiederholraten runtergerechnet werden?DLSS reduziert ihn auf die interne Render-Auflösung, aber das neuronale Netz braucht bisschen Speicher wohl.

HOT
2020-09-03, 12:06:04
In 4K war das halt nicht der Fall. Es gab einige Spiele wo in 4K die 8GB knapp wurden. Die neue Konsolengeneration kann ja streamen wie sie will, sie hat massiv mehr Ram zur Verfügung als die Generation davor, d.h. auch der Ram-Bedarf bei Spielen wird massiv steigen (ram und vram). Es ist doch nichts ärgerlicher als eine GPU zu haben die mehr kann und dann am Ram verhungert. Das sage ich als 8800GTS 320MB Besitzer. ;)

Die Anforderung an die Platine und den Speicher im aktuellen Stand der Technik scheinen sehr hoch zu sein. Wenn ich mit der halben Speichermenge dennoch GPUs absetzen kann für 3-6 Monate, warum nicht erstmal den Schwung der Ungeduldigen mitnehmen?
100% agree


Zudem hängt das Ganze ja auch noch ein bisschen von AMD und Intel ab. Wenn die mehr VRAM zur Verfügung stellen, werden die 3070 und 3080 mit wenig VRAM ganz schnell Nische und die Entwickler können aasen, solange das Spiel auf medium oder minimal noch auf 8GB läuft... AMD wird sicherlich mehr VRAM bieten und Intel wird nicht sooo schnell sein mit Erstgeneration, was man natürlich mit viel VRAM ausgleichen wird... Es ist absolut absehbar, was da kommt.

Wer jetzt noch mit vollem Wissen ne 3070 mit 8GB für 600€ kauft, wo es jetzt schon Spiele gibt, bei denen der VRAM nicht reicht, dem ist einfach nicht zu helfen aus meiner Sicht.

Hauwech
2020-09-03, 12:07:06
Realistisch sind das Produkt-Kategorien. Eine Titan verbinde ich immer mit doppeltem Speicher. Ist es notwendig? Nein. Aber die Leute bezahlen dafür.
Was ausreicht, wird von der verfügbaren Hardware definiert. Wenn ich Parameter weit genug hochdrehe, ist Speicher NIE ausreichend.

Hätte Nvidia vorgehabt mehr Speicher anzubieten, hätten sie imo einige Designentscheidungen ganz anders getroffen. Auf eine 2080 nun 20 Speicherchips draufzubauen, ist kostentechnisch echt super ineffizient.

Man wird sehen welchen Auswirkungen das für Nvidia hat, wenn AMD nun mit wesentlich mehr Speicher daher kommt. Schönrechnen mit Magic Sauce (Direct Storage) funktioniert auf dem PC nicht.

2GB G6x Chips sind aber anscheinend noch nicht verfügbar. Wie sollten sie es also anders lösen? Die 1GB G6x Chips mal eben übereinander löten?

dargo
2020-09-03, 12:09:16
2GB G6x Chips sind aber anscheinend noch nicht verfügbar. Wie sollten sie es also anders lösen? Die 1GB G6x Chips mal eben übereinander löten?
3080 doppelseitig bestücken, 3070 einseitig mit 2GB Chips bestücken.

Sardaukar.nsn
2020-09-03, 12:18:03
Sorry wenns schon bekannt sein sollte aber: sind DAS hier die ersten offiziellen Preise der 3080 Customs???

https://www.overclockers.co.uk/pc-components/graphics-cards/nvidia/geforce-rtx-3080
(Preise kommen wenn man Karten anklickt)


Günstigste: 719 Euro
https://www.overclockers.co.uk/palit-geforce-rtx-3080-gaming-pro-10gb-gddr6x-pci-express-graphics-card-gx-05d-pl.html

Teuerste: 955 Euro
https://www.overclockers.co.uk/asus-geforce-rtx-3080-rog-strix-gaming-oc-10gb-gddr6x-pci-express-graphics-card-gx-44k-as.html

Danke, ist für mich sehr interessant. Die Palit/Gainward wird wohl das onminöse Reference PCB besitzen. Kühler wird dann gegen so etwas getauscht: https://ezmodding.com/Nvidia-RTX-3080-3090-REF-Acryl

ALC hat auch schon geteasert: https://www.facebook.com/AlphacoolENG/photos/a.314887708660379/1746657878816681/?type=3&theater

Btw. im Video zu Nvidia Reflex sind noch ein paar Infos zur 3080 aufgetaucht.

https://i.redd.it/vffisvh31wk51.png

The Nvidia reflex video showed some core clock speeds (1920@76c/1965@68c), memory speeds (19gbs), voltage (1-1.1v), and max power target (368w, +15%) of the 3080

Quelle: https://www.youtube.com/watch?v=-cXg7GQogAE

Ich könnte mir vorstellen das die Customs das Power Target auf 375 bis 400W setzen. Da werde ich wohl nochmal meine Radiatorfläche überdenken müssen. :freak:

Digidi
2020-09-03, 12:28:41
Gab es seit Turing eigentlich eine Änderungen am Rasterizer hin zu immediate Rasterizer, sieh Bild Triangle Bin? Das sieht jetzt eher wie bei Vega aus als noch vorher bei Maxwell / Pascal.

Rechts bei Relase kann man die zip datei runterladen mit der exe datei als inhalt.

https://github.com/nlguillemot/trianglebin

So sieht das bei Maxwell und Pascal aus:
https://www.realworldtech.com/tile-based-rasterization-nvidia-gpus/

prinz_valium_2
2020-09-03, 12:32:12
NV bietet auch 16GB für die 3070Ti und 3080 20GB an... die Logik passt nicht.

Leute, selbst wenns so kommen sollte, dass 10GB reichen über 21 hinaus (was total unwahrscheinlich ist), wollt ihr für 800€ diese Wette eingehen?!
Das Ding ist ne GTX680 mit 2GB. Genau dasselbe Problem.

Klar ich gehe die 800€ Wette mit dir ein.
Wir machen ein Treuhandkonto und packen jeder 800€ drauf. In 3 oder wegen mir auch 5 Jahren wird dann ausgezahlt.


Absolut ALLES was sich gerade im Bereich Gaming tut, deutet auf eine Reduzierung des VRAM Speicherverbrauch Anstieg hin.
Aber diejenigen, die seit 10 oder 15 Jahren schon immer die selbe Phrase von wegen Speicherkrüppel dreschen werden natürlich recht behalten.
Die mit doppelt Speicher Karten waren immer Exoten für Anwendungsfälle von denen ein normaler Endkunde noch nie gehört hat.



Außerdem wenn die 10GB nicht reichen, dann wird die 3070 erst recht ein totaler Reinfall und niemand dürfte die empfehlen.
Und was ist mit den 12GB RDNA2 Grafikkarten, die auf jeden Fall kommen werden? Sind die dann plötzlich genug mit den 2GB mehr als die 3080? Oder müssten die auch mindestens 16GB haben um für die Zukunft ausgerüstet zu sein?


8 bis 12GB is wo die Mittelfristige Reise hingeht.

pixeljetstream
2020-09-03, 12:32:44
Macht doch endlich mal nen VRAM Diskussionsthread auf...

Und weil ich gerade las Hersteller xyz sagt „das reicht“ oder „rechtfertigt sich für“. IMO ist das nicht der Fall, er definiert das Produkt und gut. Die Rechtfertigung über den Preis oder was wem genug ist, macht der Käufer. Im whitepaper werden Architektur Entscheidungen zum Teil motiviert, das war’s dann auch.

Zergra
2020-09-03, 12:43:26
Aber wenn z.B. 99% der Nutzer nur 8GB Vram hat, wieso sollte man als Entwickler mehr einplanen.
Oft wird der Vram auch nur sinnlos zugemüllt.

HOT
2020-09-03, 12:45:06
[...]

Absolut ALLES was sich gerade im Bereich Gaming tut, deutet auf eine Reduzierung des VRAM Speicherverbrauch Anstieg hin.
Aber diejenigen, die seit 10 oder 15 Jahren schon immer die selbe Phrase von wegen Speicherkrüppel dreschen werden natürlich recht behalten.
Die mit doppelt Speicher Karten waren immer Exoten für Anwendungsfälle von denen ein normaler Endkunde noch nie gehört hat.



[...]
Also da muss ich doch herzhaft lachen... Reduzierung von VRAM ;D

Aber wenn z.B. 99% der Nutzer nur 8GB Vram hat, wieso sollte man als Entwickler mehr einplanen.
Oft wird der Vram auch nur sinnlos zugemüllt.

Der Entwickler plant, was der Markt hergibt.

Wenn es ne RX6800 mit 12GB, ne RTX3070Ti mit 16GB und ne Intel-Top-Dog-Karte mit 12 oder 16GB (mehr packen die glaub ich nicht) gibt in der Kategorie, dann ist das die neue gehobene Mittelklasse, also der Zielpunkt, bei dem die meisten bei hohen Details ankommen wollen. Das klappt halt nicht immer, dann wird der VRAM eben knapp. Die Preise sinken entsprechend ja dann auch. Für 99% der Nutzer, die mit 8GB herumdümpeln muss das ja nur laufen, wie jetzt auch bei 4 oder 6GB, wobei 4 jetzt schon sehr eng wird.

pixeljetstream
2020-09-03, 13:00:38
Also da muss ich doch herzhaft lachen... Reduzierung von VRAM ;D
Er sprach von der Reduzierung des Anstiegs, was Fakt ist. Hat man früher noch alle Texturen voll reingeschmissen, hat heute fast jeder Top Titel virtual texturing, streaming etc.
Gabs früher zum Teil nur float, kann man heute kleiner Datentypen nutzen, hat selber die compute power mit Bit Operationen zu entpacken, über mehrere thread mit intrinsics selbst block wise dekodieren etc.
Warum schaffen es manche Titel mit dem Budget sehr gut auszusehen und uralt Titel brauchen extrem viel Speicher wenn Leute mit texture packs alles auf 4K Texturen drehen... liegt halt am Fortschritt den Entwickler gemacht haben in ihren Engines und der HW Features die sie nutzen können.

[MK2]Mythos
2020-09-03, 13:03:35
Ein paar weitere Details zu Ampere:
https://videocardz.com/newz/nvidia-provides-further-details-on-geforce-rtx-30-series

Dampf
2020-09-03, 13:05:54
Er sprach von der Reduzierung des Anstiegs, was Fakt ist. Hat man früher noch alle Texturen voll reingeschmissen, hat heute fast jeder Top Titel virtual texturing, streaming etc.
Gabs früher zum Teil nur float, kann man heute kleiner Datentypen nutzen, hat selber die compute power mit Bit Operationen zu entpacken etc.
Warum schaffen es manche Titel mit dem Budget sehr gut auszusehen und uralt Titel brauchen extrem viel Speicher wenn Leute mit texture packs alles auf 4K Texturen drehen... liegt halt am Fortschritt den Entwickler gemacht haben in ihren Engines und der HW Features die sie nutzen können.

So ist es...! Und mit DirectStorage + Sampler Feedback wird das Streaming erneut deutlich effizienter!

Das kann man nicht mit heutigen oder gar alten Titeln vergleichen.

Grendizer
2020-09-03, 13:08:21
Mythos;12412757']Ein paar weitere Details zu Ampere:
https://videocardz.com/newz/nvidia-provides-further-details-on-geforce-rtx-30-series


GeForce RTX 3070
tldrdoto – Please clarify if the slide saying RTX 3070 is equal or faster than 2080 Ti is referring to traditional rasterization or DLSS/RT workloads?

Very important if you could clear it up, since no traditional rasterization benchmarks were shown, only RT/DLSS supporting games.

[Justin Walker] We’re talking about both. Games that only support traditional rasterization and games that support RTX (RT+DLSS). You can see this in our launch article here https://www.nvidia.com/en-us/geforce/news/introducing-rtx-30-series-graphics-cards/ [link]


--------

ich bin mal gespannt auf echte Benchmarks

robbitop
2020-09-03, 13:08:40
Bis jetzt wurde noch immer der VRAM von GPUs 4-5 Jahre nach Release knapp wenn die höchste Qualität der Assets geladen wurde. Von Mods nicht anzufangen. 8 GiB gibt es seit 5 Jahren.

Der Anstieg nimmt ab. Liegt aber sicherlich auch uT an der Speicherpreisentwicklung. Henne-Ei. Steigt die VRAM Ausstattung des Medians der installierten HW Basis kaum, steigt auch die Anforderung der SW nicht stark.

Ich finde es aber gut, dass man nun andere, effizientere Wege sucht.

Außerdem tut es auch kaum weh den Qualitätsregler der Assets eine Stufe runter zu drehen. Dann läuft es wieder. ;)

Ich könnte mir gut vorstellen, dass eine 3080 ti mit 11 oder 12 GB VRAM kommt. Ggf deutlich weniger beschnitten (SMs) als die 3080.

pixeljetstream
2020-09-03, 13:09:38
So ist es...! Und mit DirectStorage + Sampler Feedback wird das Streaming erneut deutlich effizienter!

Das kann man nicht mit heutigen oder gar alten Titeln vergleichen.

Mit dem „heutigen“ wäre ich aber vorsichtig, da wie von mir angesprochen es schon viele Titel gibt die das alles machen, nur halt „per Hand“ (Rage oder Crysis gibts schon lange). IMO überschätzt du das ein wenig. Idealerweise wird es für mehr Entwickler leichter, und eben paar Dinge flotter so dass man das einfaden weniger/fast gar nicht mehr sieht.

RLZ
2020-09-03, 13:15:58
2GB G6x Chips sind aber anscheinend noch nicht verfügbar. Wie sollten sie es also anders lösen? Die 1GB G6x Chips mal eben übereinander löten?
Deswegen sagte ich schon, dass Nvidia wohl andere Designentscheidungen getroffen hätte, wenn sie mit mehr als 10GB geplant hätten.
Jetzt auf 20GB zu gehen ist halt ein Fix mit viel Klebeband.

Kann man eigentlich klar benennen, welche Parameter zu einem erhöhtem VRAM-Bedarf führen?
Imo dürfte der Verbrauch der nicht direkt sichtbaren Datenstrukturen eine immere größere Rolle spielen. Bei Texturen wird man dank schnellem IO zukünftig an ein Limit kommen. Shadowmaps werden wir hoffentlich los, aber auch die sind wie der Framebuffer durch die extrem langsam steigende Bildschirmauflösung limitiert.

Sobald du allerdings anfängst irgendwelche 3D Strukturen (egal ob jetzt Voxel, Distancefield, Lightprobes) zur Beschleunigung aufzubauen, frisst das beliebig viel Speicher zum Frühstück.

Grendizer
2020-09-03, 13:28:11
Wegen DirectStorage .... ich bin gespannt, ob man das irgendwie benchmarken kann, da ja nicht nur der reine Durchsatz entscheidend ist, sondern auch die Last die für die Decompression entsteht.

Das AMD so ein Feature auch hat (HBCC?) nehme ich jetzt mal an. Oder wie sieht es da bei RDNA2 (Bignavi) aus ?

BiZiNiZz
2020-09-03, 13:30:24
Allein bei den Texturen seh ich meistens den Sinn nicht von der Ultra/Extreme/Whatevernamed Einstellung zu einer Stufe darunter. Entweder sieht man effektiv keinen Unterschied oder der Unterschied ist so minimal das man gefühlt 300% reinzoomen müßte.

Zergra
2020-09-03, 13:32:13
Der Entwickler plant, was der Markt hergibt.

Wenn es ne RX6800 mit 12GB, ne RTX3070Ti mit 16GB und ne Intel-Top-Dog-Karte mit 12 oder 16GB (mehr packen die glaub ich nicht) gibt in der Kategorie, dann ist das die neue gehobene Mittelklasse, also der Zielpunkt, bei dem die meisten bei hohen Details ankommen wollen. Das klappt halt nicht immer, dann wird der VRAM eben knapp. Die Preise sinken entsprechend ja dann auch. Für 99% der Nutzer, die mit 8GB herumdümpeln muss das ja nur laufen, wie jetzt auch bei 4 oder 6GB, wobei 4 jetzt schon sehr eng wird.

Intel wird da noch keine Rolle spielen und die BN wohl auch nur im unter 1% Bereich. Es geht ja um den gesamten Markt.

WedgeAntilles
2020-09-03, 13:35:50
Wenn das nicht so wäre gäbe es definitiv keine Varianten mit mehr VRAM von NV, das ist vollkommen klar.

Ein Unternehmen, dass die Produkte anbietet, die Kunden wollen.
In der Marktwirtschaft völlig unvorstellbar.

Vielleicht hast du recht und man braucht mehr Vram, das will ich gar nicht thematisieren.
Aber deine Begründung ist - sorry - lächerlich.
Firmen bieten das an, was Leute haben wollen.
Ob das sinnvoll ist oder nicht spielt keine Rolle.

Selbst wenn Nvidia zu 100% davon überzeugt ist, dass man bis 4K in den nächsten Jahren NICHT mehr als 10GB Vram braucht - solange es genug Käufer gibt, die genau das wollen (also mehr Vram) wird Nvidia eine Variante mit mehr Vram anbieten. Wieso sollten sie es nicht tun, wenn die Leute bereit sind dafür zu bezahlen? Damit erhöht man ja sogar die eigene Marge, ist also ne tolle Sache.

Firmen die nicht das anbieten, was ihre Kunden haben wollen, haben diese Kunden bald nicht mehr.
Weil die zur Konkurrenz gehen.

BigBangBacket
2020-09-03, 13:38:00
Mythos;12412757']Ein paar weitere Details zu Ampere:
https://videocardz.com/newz/nvidia-provides-further-details-on-geforce-rtx-30-series

Danke für den Link. Ich finde ja das FE Design dieses Jahr richtig sexy. Bin mal gespannt was das Kühldesign kann. Die Partnerkarten sehen ja leider wieder alle gleich aus.

Timbaloo
2020-09-03, 13:57:17
Ja, die FE-Designs sind dieses Mal deutlich interessanter. Bin gespannt was da gegenüber den Customs rauskommt.

Zergra
2020-09-03, 14:07:25
Die besseren Customs sind wohl nochmal 100-120€ über der FE.
Das Problem der FE ist der noch nicht vorhandene Wasserblock....

Troyan
2020-09-03, 14:16:48
Die günstigen Custom-Karten sollten auch bei 700€ liegen. Imo sollte das mit der Wasserkühlung daher kein Problem darstellen.

Korvaun
2020-09-03, 14:28:34
Ich seh die ganze RAM-Geschichte nicht so ernst. nV wird dafür sorgen das alle "wichtigen" Spiele die in den nächsten ca. 2 Jahren (= ca. Lebenszeit von Ampere) erscheinen mit dem jeweils vorhandenen Speicher auskommen. Sie werden wie bisher auch die Devs unterstützen und/oder die Treiber entsprechend anpassen... Das reicht um 99% aller User zufriedenzustellen. Der Rest muss halt extra zahlen hat dann ne 3090 oder die jeweiligen x2-Speicher-Versionen von 3070/3080. Passt ;)

dargo
2020-09-03, 14:34:26
Ich seh die ganze RAM-Geschichte nicht so ernst. nV wird dafür sorgen das alle "wichtigen" Spiele die in den nächsten ca. 2 Jahren (= ca. Lebenszeit von Ampere) erscheinen mit dem jeweils vorhandenen Speicher auskommen.

Seit wann entwickelt Nvidia Game-Assets bzw. Content? :confused:

Dorn
2020-09-03, 14:50:41
Ja, die FE-Designs sind dieses Mal deutlich interessanter. Bin gespannt was da gegenüber den Customs rauskommt.
Auf jeden Fall werden diese (wenn wundert es?) teurer.
Modell Preis Founders Edition Preis Custom Designs
GeForce RTX 3090 1.399 Pfund 1.399 – 1589 Pfund
GeForce RTX 3080 649 Pfund 639 – 849 Pfund
GeForce RTX 3070 469 Pfund 449 bis 489 Pfund
Quelle CB

Pumpi74
2020-09-03, 14:54:35
Und jetzt kommt es: Die nvidia.direkt Preise sind dauerhaft fest. Die Customkartenpreise sind bestenfalls ein paar Wochen fest. Ab dann wird verhandelt....

Smee
2020-09-03, 14:55:56
Seit wann entwickelt Nvidia Game-Assets bzw. Content? :confused:

Ich denke er meint die Development Workshops und Kooperationen zwischen NV und Spieleentwicklern.

Dorn
2020-09-03, 14:56:30
Solange die "499 €" 3070 Custom Modelle nicht so aussehen:
https://gzhls.at/i/50/00/2035000-n0.jpg

Der_Korken
2020-09-03, 15:13:10
Mythos;12412757']Ein paar weitere Details zu Ampere:
https://videocardz.com/newz/nvidia-provides-further-details-on-geforce-rtx-30-series

Danke.

To accomplish this goal, the Ampere SM includes new datapath designs for FP32 and INT32 operations. One datapath in each partition consists of 16 FP32 CUDA Cores capable of executing 16 FP32 operations per clock. Another datapath consists of both 16 FP32 CUDA Cores and 16 INT32 Cores. As a result of this new design, each Ampere SM partition is capable of executing either 32 FP32 operations per clock, or 16 FP32 and 16 INT32 operations per clock. All four SM partitions combined can execute 128 FP32 operations per clock, which is double the FP32 rate of the Turing SM, or 64 FP32 and 64 INT32 operations per clock.

Ampere hat also, wenn man so will, den INT-Datapath von Turing aufgebohrt, sodass der jetzt FP oder INT rechnen kann. Die doppelte Anzahl an SPs kann also nur bei reinen FP-Workloads abgerufen werden. Sobald man INT dazumischt, muss Ampere dafür ein paar FP-Ports freimachen, während Turing die im vorbeigehen miterledigen könnte (solange INT < FP).

Das rückt die 10000 Cuda-Cores von GA102 wieder etwas zurecht und erklärt, warum z.B. die 3080 trotz doppelt so vielen Cuda-Cores "nur" 40% schneller als die 2080Ti sein soll. Wenn ich nochmal das Verhältnis 100:36 für FP:INT bemühe, würden nur 6400 von 8704 SPs bei der 3080 FP-Berechnungen durchführen, der Rest INT. Das sind 47% mehr als bei der 2080Ti mit 4352 SPs. Zusätzlich ist die Anzahl der GPCs nur um 16,6% gestiegen, die Speicherbandbreite nur 23,4%, die Texture Fillrate gar nicht (hat vermutlich eh nie limitiert). Dafür nennt Nvidia doppelt so große Caches und Cache-Durchsatz. Also sind 40% insgesamt irgendwo nachvollziehbar.

prinz_valium_2
2020-09-03, 15:13:12
Also da muss ich doch herzhaft lachen... Reduzierung von VRAM ;D




Dann lies halt noch mal richtig. Reduzierung des VRAM Anstiegs.
Eine absolute Reduzierung ergibt eh keinen Sinn in der Welt der Informationstechnik.
Also ka, wie du auf sowas kommst. Seht ja auch offensichtlich nicht! dort.

Timbaloo
2020-09-03, 15:13:22
Auf jeden Fall werden diese (wenn wundert es?) teurer.
Modell Preis Founders Edition Preis Custom Designs
GeForce RTX 3090 1.399 Pfund 1.399 – 1589 Pfund
GeForce RTX 3080 649 Pfund 639 – 849 Pfund
GeForce RTX 3070 469 Pfund 449 bis 489 Pfund
Quelle CB
Hmmm, da ist eigentlich nur die 3080 auffällig was die Preisspreizung angeht. 20GB-Version(en)?

Grendizer
2020-09-03, 15:13:49
Hmmm 40-45% Performancedifferenz zwischen 3070 und 3080 aufgrund von nur 14 Gpbs bei der 3070 . Dann doch lieber die 3080

BTB
2020-09-03, 15:16:39
Wie die aussehen ist mir egal. Mehr als 400€ geb ich für ne Grafikkarte nicht aus. Hab meine 1070 seit 2016. Ehrlich gesagt so richtig hab ich Mehrleistung nicht vermisst. Klar auf Screenshots sieht man Details. Aber real beim zocken seh ich da wohl nicht mehr den Riesenunterschied. Die Engines skalieren auch recht gut. Bei Action wird halt reduziert, wenn ich z.B bei the division 2 mit die Gegend ansehe, bleibt mehr Rechenzeit für Schönes.

igg
2020-09-03, 15:17:09
Ich seh die ganze RAM-Geschichte nicht so ernst. nV wird dafür sorgen das alle "wichtigen" Spiele die in den nächsten ca. 2 Jahren (= ca. Lebenszeit von Ampere) erscheinen mit dem jeweils vorhandenen Speicher auskommenNvidia hat vermutlich aus dem Pascal-Fehler gelernt... da mir Langlebigkeit aber wichtig ist, warte ich nun erstmal Big Navi ab.

prinz_valium_2
2020-09-03, 15:20:14
Nvidia hat vermutlich aus dem Pascal-Fehler gelernt... da mir Langlebigkeit aber wichtig ist, warte ich nun erstmal Big Navi ab.

Du meinst Pascal hat ein zulangen Lebenszyklus und man war nicht gezwungen aufzurüsten und das stört Nvidia?
Jetzt nimmt man also extra wenig RAM, damit die Kunden schneller gezwungen sind aufzurüsten?

Das würde sogar Sinn ergeben :D
Aber dann halt wieder nur, wenn es keine 20GB Version der 3080 gibt

Lawmachine79
2020-09-03, 15:20:39
Dann lies halt noch mal richtig. Reduzierung des VRAM Anstiegs.
Eine absolute Reduzierung ergibt eh keinen Sinn in der Welt der Informationstechnik.
Also ka, wie du auf sowas kommst. Seht ja auch offensichtlich nicht! dort.
Doch klar, Leistungs- und Speicherbedarf sinkt doch ständig ;).

Sardaukar.nsn
2020-09-03, 15:25:42
Die besseren Customs sind wohl nochmal 100-120€ über der FE.
Das Problem der FE ist der noch nicht vorhandene Wasserblock....

Hier ist zumindest schon mal einer Angekündigt: 139,90€. https://ezmodding.com/RTX-3000
Für die 3090 muss ja auch der Ram auf der Rückseite irgendwie mit gekühlt werden. Bin gespannt wie das gelöst wird.

Timbaloo
2020-09-03, 15:33:01
Ampere hat also, wenn man so will, den INT-Datapath von Turing aufgebohrt, sodass der jetzt FP oder INT rechnen kann.

AFAIK:
Pascal: 1 Pfad: [FP oder INT]
Turing: 1 Pfad: [FP und INT]
Ampere: 2 Pfade: [FP und FP] oder [FP und INT]

Könnte man so beschreiben wie du es machst, mich hat deine Beschreibung aber erstmal verwirrt :D

EDIT: Somit passt Amperes Struktur auch gut zu den durchschnittlich 36 INT Instruktionen je 100 FP Instruktionen (Verhältnis genannt im Turing-Whitepaper).

Zergra
2020-09-03, 15:50:07
Hier ist zumindest schon mal einer Angekündigt: 139,90€. https://ezmodding.com/RTX-3000
Für die 3090 muss ja auch der Ram auf der Rückseite irgendwie mit gekühlt werden. Bin gespannt wie das gelöst wird.

Möchte eh die 3080, der Kühler für die FE braucht bestimmt noch ein paar Monate.

Der_Korken
2020-09-03, 15:50:32
AFAIK:
Pascal: 1 Pfad: [FP oder INT]
Turing: 1 Pfad: [FP und INT]
Ampere: 2 Pfade: [FP und FP] oder [FP und INT]

Könnte man so beschreiben wie du es machst, mich hat deine Beschreibung aber erstmal verwirrt :D

Ich hätte das eher so verstanden, dass Turing auch 2 Pfade hatte, aber einer konnte nur INT. Bei Ampere wurde genau dieser Pfad aufgebohrt, sodass er sowohl FP als auch INT ausführen kann (nicht gleichzeitig, nur entweder oder). Die theoretische Rohleistung eines SMs (im Sinne von Instruktionsdurchsatz) wäre somit gar nicht gestiegen, sie kann nur flexibler auf FP und INT verteilt werden. Da Spiele aber wesentlich mehr FP als INT brauchen, bringt genau das den Leistungssprung.

Die Anzahl der Cuda-Cores von Ampere kann man eigentlich besser mit denen von Pascal vergleichen, Turing ist durch die nicht mitgezählten INTs da etwas außen vor.

Troyan
2020-09-03, 15:57:37
Die Rohleistung bei FP32 hat sich pro ComputeUnit (SM) verdoppelt gegenüber Turing. Wenn gleichzeitig FP32 + INT32 berechnet werden, dann ist die FP32 Rohleistung gleich geblieben.

igg
2020-09-03, 16:02:40
Du meinst Pascal hat ein zulangen Lebenszyklus und man war nicht gezwungen aufzurüsten und das stört Nvidia?
Jetzt nimmt man also extra wenig RAM, damit die Kunden schneller gezwungen sind aufzurüsten?
Ja, so vermute ich das. Es war kein Zufall, dass Jensen explizit Pascal Besitzer angesprochen hat.

Ohne Big Navi würden wir die 3070 nie mit 16 GB sehen und die 3080 wäre teurer.

Die 3080 ist im vgl. zu 3070 und 3090 zu günstig. Für mich ein Hinweis, dass man gemerkt hat, dass die 3070 im Vergleich zu Big Navi zu limitiert ist. Wenn ich mir 3070 in 16 GB kaufe, kann ich preislich auch gleich die 3080 mit 10 GB kaufen.

Das P/L Gefüge stimmt da unten nicht.

=Floi=
2020-09-03, 16:10:55
Die Rohleistung bei FP32 hat sich pro ComputeUnit (SM) verdoppelt gegenüber Turing. Wenn gleichzeitig FP32 + INT32 berechnet werden, dann ist die FP32 Rohleistung gleich geblieben.

Auf dem papier.
Man müsste mal analysieren, ob in der praxis die rechenpower auf den boden gebracht werden kann. NV war vorher ja auch nicht blöd und da reichten die shader auch.
Ich habe noch immer den verdacht, die massive steigerung, wird für RTX/DLSS benötigt und hier fehlte es dann turing an rechenleistung.

NC
2020-09-03, 16:11:59
Die 3080 ist im vgl. zu 3070 und 3090 zu günstig. Für mich ein Hinweis, dass man gemerkt hat, dass die 3070 im Vergleich zu Big Navi zu limitiert ist. Wenn ich mir 3070 in 16 GB kaufe, kann ich preislich auch gleich die 3080 mit 10 GB kaufen.

Das P/L Gefüge stimmt da unten nicht.wäre schlau von AMD in dem 499/699 Segment etwas schnellerere Karten zu bringen,ebenfalls mit so wenig RAM, dann wäre NV dran Ihre 16GB/20GB Karten zu spielen.

NC
2020-09-03, 16:21:41
Ich hätte das eher so verstanden, dass Turing auch 2 Pfade hatte, aber einer konnte nur INT. Bei Ampere wurde genau dieser Pfad aufgebohrt, sodass er sowohl FP als auch INT ausführen kann (nicht gleichzeitig, nur entweder oder). Die theoretische Rohleistung eines SMs (im Sinne von Instruktionsdurchsatz) wäre somit gar nicht gestiegen, sie kann nur flexibler auf FP und INT verteilt werden. so hab ich das auch verstanden. Aber jetzt zählt NV die doppelt, weil jeder Core 2 FP einheiten hat?


Da Spiele aber wesentlich mehr FP als INT brauchen, bringt genau das den Leistungssprung.beim Turing sagte NV es wären 70:30, mit zwei FP haben sie jetzt eine 66:33 Abdeckung, ziemlich ideal.

Die Anzahl der Cuda-Cores von Ampere kann man eigentlich besser mit denen von Pascal vergleichen, Turing ist durch die nicht mitgezählten INTs da etwas außen vor.Es sind doch aber nicht mehr Cores. Ampere sollte doch eher wie vorher zählen.
Aber wir wissen auch nicht wie NV die Instruktionen verteilt. Ich würde vermuten es ist rein vom shader compiler, wo Intruktionen FP:FP:INT gruppiert werden.

y33H@
2020-09-03, 16:27:11
Nvidia spricht von "CUDA-Cores" und bei Ampere zählen die dafür nun halt die verdoppelten FP32-Einheiten.

robbitop
2020-09-03, 16:39:15
Danke.



Ampere hat also, wenn man so will, den INT-Datapath von Turing aufgebohrt, sodass der jetzt FP oder INT rechnen kann. Die doppelte Anzahl an SPs kann also nur bei reinen FP-Workloads abgerufen werden. Sobald man INT dazumischt, muss Ampere dafür ein paar FP-Ports freimachen, während Turing die im vorbeigehen miterledigen könnte (solange INT < FP).

Das rückt die 10000 Cuda-Cores von GA102 wieder etwas zurecht und erklärt, warum z.B. die 3080 trotz doppelt so vielen Cuda-Cores "nur" 40% schneller als die 2080Ti sein soll. Wenn ich nochmal das Verhältnis 100:36 für FP:INT bemühe, würden nur 6400 von 8704 SPs bei der 3080 FP-Berechnungen durchführen, der Rest INT. Das sind 47% mehr als bei der 2080Ti mit 4352 SPs. Zusätzlich ist die Anzahl der GPCs nur um 16,6% gestiegen, die Speicherbandbreite nur 23,4%, die Texture Fillrate gar nicht (hat vermutlich eh nie limitiert). Dafür nennt Nvidia doppelt so große Caches und Cache-Durchsatz. Also sind 40% insgesamt irgendwo nachvollziehbar.
Der Anteil an INT ist sowieso relativ klein bei 3D Grafik. Aber es ist ein Einfluss. Das stimmt. Allerdings ist Rechenleistung für eine GPU nicht alles. Es kann dann auch wieder andere bottlenecks geben.

Dampf
2020-09-03, 16:40:08
https://www.youtube.com/watch?v=A7nYy7ZucxM

Wurde das schon gepostet? Hier sieht man Direktvergleiche einer 2080Ti und 3080 in Doom Eternal mit FPS.

|MatMan|
2020-09-03, 16:45:24
Es ist komisch, dass die eine Hälfte der FP32 Einheiten kein Int32 können soll. Das ist eigentlich unlogisch, da der Aufwand dafür nur minimal ist (oder man hat es zur Vereinfachung nicht erwähnt). Nvidia wird doch wohl nicht wirklich noch extra Int32 ALUs in die SMs gepackt haben, die nur laufen können, wenn die neuen zusätzlichen FP32 nichts tun?! Da fehlen einfach noch zu viele Details, auch was das Scheduling betrifft. Bisher konnten nur 2 Instruktionen gleichzeitig je SM laufen, wenn ich mich richtig erinnere.

robbitop
2020-09-03, 16:47:06
NV hat das doch pro SM Partition schon eindeutig beschrieben. 16x fp + 16x fp ODER 16x int.
Bei 4x Partitionen pro SM sind es 128 fp + 0 int. Oder 64 fp + 64 int. Man kann pro Partition in 16er Schritten zwischen diesen beiden Varianten auffächern.

Ein klein wenig restriktiver als Pascal bei dem die fpus auch int beherrschten.

mironicus
2020-09-03, 16:47:19
@Doom Eternal-Vergleich 2080Ti/3080
Wenn man eine 2080 Ti so übertakten würde, daß sie auch 320 Watt verbrät, wäre man wohl nicht weit unter der 3080. :)

robbitop
2020-09-03, 16:48:26
Es ist komisch, dass die eine Hälfte der FP32 Einheiten kein Int32 können soll. Das ist eigentlich unlogisch, da der Aufwand dafür nur minimal ist (oder man hat es zur Vereinfachung nicht erwähnt). Nvidia wird doch wohl nicht wirklich noch extra Int32 ALUs in die SMs gepackt haben, die nur laufen können, wenn die neuen zusätzlichen FP32 nichts tun?! Da fehlen einfach noch zu viele Details, auch was das Scheduling betrifft. Bisher konnten nur 2 Instruktionen gleichzeitig je SM laufen, wenn ich mich richtig erinnere.
Genau so hat es NV beschrieben. Die FPUs beherrschen kein INT. Es gibt also zusätzliche INTs. War bei Turing auch so.

Troyan
2020-09-03, 16:52:57
Es ist komisch, dass die eine Hälfte der FP32 Einheiten kein Int32 können soll. Das ist eigentlich unlogisch, da der Aufwand dafür nur minimal ist (oder man hat es zur Vereinfachung nicht erwähnt). Nvidia wird doch wohl nicht wirklich noch extra Int32 ALUs in die SMs gepackt haben, die nur laufen können, wenn die neuen zusätzlichen FP32 nichts tun?! Da fehlen einfach noch zu viele Details, auch was das Scheduling betrifft. Bisher konnten nur 2 Instruktionen gleichzeitig je SM laufen, wenn ich mich richtig erinnere.

Turing kann auch nur 32 INT32 Berechnungen pro SM trotzdem beide Datenpfade parallel ausgeführt werden. nVidia wird einfach den INT32-Pfad erweitert haben und belässt das Scheduling für Int beim alten.

Armaq
2020-09-03, 17:01:29
@Doom Eternal-Vergleich 2080Ti/3080
Wenn man eine 2080 Ti so übertakten würde, daß sie auch 320 Watt verbrät, wäre man wohl nicht weit unter der 3080. :)
Das ist eine gute Beobachtung. Die TDP fällt dieses Mal unter den Tisch und dabei ist es eigentlich ein Sprachpunkt wert. Ne 350Watt 2080Ti dürfte auch anders performen.

Gipsel
2020-09-03, 17:02:56
AFAIK:
Pascal: 1 Pfad: [FP oder INT]
Turing: 1 Pfad: [FP und INT]
Ampere: 2 Pfade: [FP und FP] oder [FP und INT]
Ich hätte das eher so verstanden, dass Turing auch 2 Pfade hatte, aber einer konnte nur INT. Bei Ampere wurde genau dieser Pfad aufgebohrt, sodass er sowohl FP als auch INT ausführen kann (nicht gleichzeitig, nur entweder oder).Genau. Also wenn man sich nur die ALUs ansieht, könnte man das wohl eher so charakterisieren:
Pascal: 1 Pfad [FP oder INT]
Turing: 2 Pfade [FP] [INT]
Ampere: 2 Pfade [FP oder INT] [FP]

Troyan
2020-09-03, 17:06:51
Das ist eine gute Beobachtung. Die TDP fällt dieses Mal unter den Tisch und dabei ist es eigentlich ein Sprachpunkt wert. Ne 350Watt 2080Ti dürfte auch anders performen.

360W 2080TI ist ca. 15% schneller als 280W. 2080TI FE konnte auf 320W übertaktet werden und war ca. 11% schneller.

NC
2020-09-03, 17:08:44
Genau. Also wenn man sich nur die ALUs ansieht, könnte man das wohl eher so charakterisieren:
Pascal: 1 Pfad [FP oder INT]
Turing: 2 Pfade [FP] [INT]
Ampere: 2 Pfade [FP oder INT] [FP]meinst du mit Pfaden threads? Ich hätte eher vermutet dass das co-issue ist.

dargo
2020-09-03, 17:09:47
Im Prinzip ist das schon ein lustiges Marketing was Nvidia da mit Ampere abgezogen hat. GA104 ist offensichtlich zu schwach geworden damit der sich ordentlich von TU104 absetzen kann. Schwups hat Nvidia einfach die Leistungsklassen verschoben. :D Spricht eigentlich nichts dagegen bis zur 3080, außer vielleicht die erhöhte Leistungsaufnahme (Speichermenge jetzt mal außen vor). Der einzige "Verlierer" im Ampere-Portfolio ist hier die 3090. Die wird sich kaum nennenswert von der 3080 absetzen können.

360W 2080TI ist ca. 15% schneller als 280W. 2080TI FE konnte auf 320W übertaktet werden und war ca. 11% schneller.
Etwas schlechter Vergleich denn die 2080TI müsstest du auch auf 760GB/s Bandbreite bringen. Alternativ die 3080 runter auf 616GB/s.

mironicus
2020-09-03, 17:13:04
360W 2080TI ist ca. 15% schneller als 280W. 2080TI FE konnte auf 320W übertaktet werden und war ca. 11% schneller.

Den Speicher der 2080 Ti um 1000 MHz zu erhöhen sollte doch allein schon 4-5% mehr FPS in 4K bringen.

wolik
2020-09-03, 17:14:32
Der einzige "Verlierer" im Ampere-Portfolio ist hier die 3090. Die wird sich kaum nennenswert von der 3080 absetzen können.

dargo, ich denke wer 2080Ti hatte den 3080 kaum interessant ist. 2080Ti nach Ausführung hat schon nah an 1,5K gekostet. und 50%+ Leistung ist schon was.

Den Speicher der 2080 Ti um 1000 MHz zu erhöhen sollte doch allein schon 4-5% mehr FPS in 4K bringen.

FPS Steigerung mit Speicher OC könnte ich nie feststellen. Natürlich das bringt "was", aber nach SLI (Quad) Erfahrungen 3-5% waren nur lächerlich.

Gipsel
2020-09-03, 17:18:03
meinst du mit Pfaden threads? Ich hätte eher vermutet dass das co-issue ist.Im Prinzip kommt das mit den Pfaden von nV (die damit vermutlich die issue Pipelines meinen bzw. welche Einheiten an den issue ports dran hängen). Von welchen "Threads" die dort ausgeführten Instruktionen kommen, ist nochmal eine andere Frage (also ob die zwei Instruktionen von einem Warp ["Thread" ist mißverständlich] oder von verschiedenen Warps [oder auch beides] kommen können [bisher waren es maximal zwei Instruktionen für einen Warp, mit Ampere vermutlich immer noch so]).

x-dragon
2020-09-03, 17:18:47
https://www.youtube.com/watch?v=A7nYy7ZucxM

Wurde das schon gepostet? Hier sieht man Direktvergleiche einer 2080Ti und 3080 in Doom Eternal mit FPS. Hm, mussten die da unbedingt verschiedene Vulkan- und Treiberversionen verwenden?

Bin mal sehr gespannt auf unabhängige Benchmarks.

dargo
2020-09-03, 17:22:50
dargo, ich denke wer 2080Ti hatte den 3080 kaum interessant ist. 2080Ti nach Ausführung hat schon nah an 1,5K gekostet. und 50%+ Leistung ist schon was.

Dass für einen 2080TI Besitzer eine 3080 uninteressant wird ist verständlich. Die 50+% der 3090 vs. 2080TI finde ich aber auch nicht so prickelnd nach zwei Jahren in einer neuen GPU-Generation + kleinerem Fertigungsprozess + 25% mehr Leistungsaufnahme. Letzteres wird dich natürlich mit einer Wakü wenig jucken.

Dampf
2020-09-03, 17:25:37
Hm, mussten die da unbedingt verschiedene Vulkan- und Treiberversionen verwenden?

Bin mal sehr gespannt auf unabhängige Benchmarks.

Die 2080Ti Treiber sind doch schon optimiert für sie. Wäre unfair Treiber zu nehmen, die noch nicht für die Ampere Architektur optimiert sind.

rentex
2020-09-03, 17:27:18
https://wccftech.com/report-nvidia-geforce-rtx-30-gpus-to-be-in-short-supply-until-2021/

hatten wir das schon?

Tarkin
2020-09-03, 17:32:44
[QUOTE=Dampf;12413010]https://www.youtube.com/watch?v=A7nYy7ZucxM

** hier stand Mist **

mein Fehler - dachte ich sehe die 3090 - ist aber die 3080.

3080 40% schneller bei +30% TDP. 3090 dürfte nochmal 15% drauflegen und 60% schneller sein.

Und im Schnitt dann vermutlich +50% über eine größere Anzahl an Games

Wird spannend ob AMD eine Verdopplung zur 5700XT schafft... das wäre (bei Doom Eternal) notwendig um die 3080er zu knacken...

(mit 80CUs, höherer IPC und über 2GHz wäre es durchaus vorstellbar, dass auch 3090 Performance erreicht wird.)

dargo
2020-09-03, 17:35:06
https://wccftech.com/report-nvidia-geforce-rtx-30-gpus-to-be-in-short-supply-until-2021/

hatten wir das schon?
Lol... das wird noch lustig. ;D UVP relativ niedrig bis 3080 angesetzt, aber für den Preis bekommt man die Karten dann eh nicht (außer paar Erstbesteller). :freak: Dann ist der Yield wohl doch noch bei Samsung eher schlecht.

@Tarkin
Im Video wird die 3080, nicht die 3090 gezeigt vs. 2080TI. Die 3090 dürfte dann eher um die 60-65% drauflegen, ausgehend von den 40% in Doom mit der 3080.

NC
2020-09-03, 17:35:41
Im Prinzip kommt das mit den Pfaden von nV (die damit vermutlich die issue Pipelines meinen bzw. welche Einheiten an den issue ports dran hängen). Von welchen "Threads" die dort ausgeführten Instruktionen kommen, ist nochmal eine andere Frage (also ob die zwei Instruktionen von einem Warp ["Thread" ist mißverständlich] oder von verschiedenen Warps [oder auch beides] kommen können [bisher waren es maximal zwei Instruktionen für einen Warp, mit Ampere vermutlich immer noch so]).Ja, wobei, ab Turing gibt es PCs pro thread, thread könnten die interesant Granularität sein, da ein Teil einer Warp andere Instruktionen ausführen könnte.
Wir haben also
1. Co-issue Warp ops
2. Per-thread einer Warp
3. Unabhängige Warps. bzw deren Threads
als scheduling möglichkeit.

1. Wäre compiler Level
2. Wäre runtime und müsste dependencies verfolgen (quasi einfaches ooo)
3. Wäre nicht anders als 2SM, aber effizienter, fast wie Bulldozer (wo die FPU geteilt war)

x-dragon
2020-09-03, 17:52:42
Die 2080Ti Treiber sind doch schon optimiert für sie. Wäre unfair Treiber zu nehmen, die noch nicht für die Ampere Architektur optimiert sind. Hatte mich eher gewundert, das sie nicht bei beiden den neusten Treiber nehmen :). Aber vielleicht ist der noch nicht ganz fertig ...

Adam D.
2020-09-03, 17:53:22
https://wccftech.com/report-nvidia-geforce-rtx-30-gpus-to-be-in-short-supply-until-2021/

hatten wir das schon?
Turing läuft aus, von AMD ist bisher nix zu sehen, NV vertraut auf einen etablierten Prozess und dann sollen die Karten nur in homöopathischen Dosen verfügbar sein? Ich weiß ja nicht.

RLZ
2020-09-03, 18:04:15
Im Prinzip ist das schon ein lustiges Marketing was Nvidia da mit Ampere abgezogen hat. GA104 ist offensichtlich zu schwach geworden damit der sich ordentlich von TU104 absetzen kann. Schwups hat Nvidia einfach die Leistungsklassen verschoben. :D Spricht eigentlich nichts dagegen bis zur 3080, außer vielleicht die erhöhte Leistungsaufnahme (Speichermenge jetzt mal außen vor).
In die andere Richtung wurde auch gejammert, als die 80er Serie auf einmal nicht mehr den größten Chip hatte. Das verschiebt sich doch bei Nvidia alle paar Generationen...

MasterElwood
2020-09-03, 18:08:52
NV bietet auch 16GB für die 3070Ti und 3080 20GB an... die Logik passt nicht.

Leute, selbst wenns so kommen sollte, dass 10GB reichen über 21 hinaus (was total unwahrscheinlich ist), wollt ihr für 800€ diese Wette eingehen?!


Und selbst WENN. Dann verkauf ich sie mit ein bisschen Verlust und upgrade. Wo is das Problem?

BiZiNiZz
2020-09-03, 18:11:31
In die andere Richtung wurde auch gejammert, als die 80er Serie auf einmal nicht mehr den größten Chip hatte. Das verschiebt sich doch bei Nvidia alle paar Generationen...

Es wird an allen Ecken gejammert, gefühlt egal was nVidia macht, auf der anderen Seite kann ja AMD irgendwie nichts falsch machen.
Genauso mit dem Wechsel von TSMC zu Samsung, egal was die Gründe sind.

Betrachtet das doch mal nüchtern. nVidia wird (die Kosten erstmal außen vor gelassen) Samsung vermutlich helfen können ihre Prozesse zu verbessern.
Was ist euch lieber? Ein Monopol von TSMC das die Preise diktiert weil keine Konkurrenz vorhanden ist, oder 2 Gleichstarke Foundry's? Es hat auch immer jeder gejammert als AMD bei den CPU's nicht klar kam und Intel ihr Quasi Monopol hatten.

Cubitus
2020-09-03, 18:12:06
https://wccftech.com/report-nvidia-geforce-rtx-30-gpus-to-be-in-short-supply-until-2021/

hatten wir das schon?

Ach auf die olle Kamelle vom Paperlaunch hab ich bereits gewartet, ihr seid spät dran Jungs ;D

Dass für einen 2080TI Besitzer eine 3080 uninteressant wird ist verständlich.
Die 50+% der 3090 vs. 2080TI finde ich aber auch nicht so prickelnd nach zwei Jahren in einer neuen GPU-Generation + kleinerem Fertigungsprozess + 25% mehr Leistungsaufnahme. Letzteres wird dich natürlich mit einer Wakü wenig jucken.

wie gesagt wir werden sehen was am Schluss hinten dabei rauskommt..

monstar-x
2020-09-03, 18:14:49
360W 2080TI ist ca. 15% schneller als 280W. 2080TI FE konnte auf 320W übertaktet werden und war ca. 11% schneller.

Control, WQHD, maxed out, RT High

-1000 MHZ = 572 Gb/s (13000 Mhz)
51 FPS

Standart = 616 Gb/s (14000 Mhz)
53 FPS

+1000 MHz = 660 Gb/s (15000 Mhz)
55 FPS



The Division 2 maxed out
Kein Unterschied

dargo
2020-09-03, 18:19:15
Control, WQHD, maxed out, RT High

-1000 MHZ = 572 Gb/s (13000 Mhz)
51 FPS

Standart = 616 Gb/s (14000 Mhz)
53 FPS

+1000 MHz = 660 Gb/s (15000 Mhz)
55 FPS

Mehr als 50% der erhöhten Bandbreite schlagen durch? Ist auch nicht gerade wenig. Liegts nur an RT?

N0rG
2020-09-03, 18:19:35
Turing läuft aus, von AMD ist bisher nix zu sehen, NV vertraut auf einen etablierten Prozess und dann sollen die Karten nur in homöopathischen Dosen verfügbar sein? Ich weiß ja nicht.

Aber warum sollte Nvidia dann den 102er so stark beschneiden und für die 3080 verwenden, wenn es keine yield Probleme gibt? Die hatten anfangs ja auch noch mit einem GA103 geplant. Ich kann mir das nur so erklären, dass es einfach zu viele teildefekte 102er Chips gibt und es somit erforderlich war eine zweite Karte neben der 3090 mit dem 102er zu bestücken. Dadurch ist dann aber der 103er überflüssig geworden. Ich kann mir schon vorstellen, dass an der Meldung was dran ist und 3070 und 3090 erstmal recht knapp sein werden.

Der_Korken
2020-09-03, 18:20:53
so hab ich das auch verstanden. Aber jetzt zählt NV die doppelt, weil jeder Core 2 FP einheiten hat?


Im Prinzip ja.


beim Turing sagte NV es wären 70:30, mit zwei FP haben sie jetzt eine 66:33 Abdeckung, ziemlich ideal.


Jein, die Einteilung ist jetzt flexibel und kann variieren zwischen 1:0 und 0,5:0,5 (FP:INT). Man ist also nicht auf ein fixes Verhältnis der Anwendung angewiesen.


Es sind doch aber nicht mehr Cores. Ampere sollte doch eher wie vorher zählen.

Mit der Aussage, dass die Anzahl der Cuda-Cores mit der von Pascal vergleichbar ist, wollte ich darauf hinaus, dass beide Architekturen universale ALUs haben, die auch alle parallel arbeiten können (außer für den extremen Sonderfall, dass mehr INT als FP gerechnet wird, aber den lassen wir mal unter den Tisch fallen). Hier können doppelt so viele ALUs (bei Ampere vs Pascal) auch ungefähr zu einer Leistungsverdopplung führen, wenn nicht irgendwo andere Flaschenhälse auftauchen.

Turing hat, wenn man nur FP mitzählt, eine deutlich höhere IPC als Pascal und Ampere, was aber nur daran liegt, dass es im Hintergrund noch INT-Einheiten gibt, die die FP-ALUs entlasten. Wenn das Verhältnis FP:INT ungefähr 3:1 ist, dann entsprechen die 4352 SPs der 2080Ti ungefähr 5800 Pascal- oder Ampere-SP. Ganz vereinfacht gesagt.

mironicus
2020-09-03, 18:21:18
Das ist doch schon mal was, nur durch Speicherübertaktung. :)

BiZiNiZz
2020-09-03, 18:22:17
Control, WQHD, maxed out, RT High

-1000 MHZ = 572 Gb/s (13000 Mhz)
51 FPS

Standart = 616 Gb/s (14000 Mhz)
53 FPS

+1000 MHz = 660 Gb/s (15000 Mhz)
55 FPS



The Division 2 maxed out
Kein Unterschied

Sehr ernüchternd, die 2 FPS sind absolut vernachlässigbar. Sicher gibt Titel die profitieren da besser, aber naja.... Dann lieber mit dem UV+PT rumspielen, gibt nach meiner Erfahrung mehr zurück als nur das sinnlose aufreißen des PT

monstar-x
2020-09-03, 18:28:59
Mehr als 50% der erhöhten Bandbreite schlagen durch? Ist auch nicht gerade wenig. Liegts nur an RT?

Teste ich später mal mit RT aus.
So wie ein anders Spiel mit RT an und aus, dann wissen wir es.

mironicus
2020-09-03, 18:30:27
Der Raytracing + DLSS Test in 3DMark profitiert auch von einer reinen Speicherübertaktung.

rentex
2020-09-03, 18:36:33
Es wird an allen Ecken gejammert, gefühlt egal was nVidia macht, auf der anderen Seite kann ja AMD irgendwie nichts falsch machen.
Genauso mit dem Wechsel von TSMC zu Samsung, egal was die Gründe sind.

Betrachtet das doch mal nüchtern. nVidia wird (die Kosten erstmal außen vor gelassen) Samsung vermutlich helfen können ihre Prozesse zu verbessern.
Was ist euch lieber? Ein Monopol von TSMC das die Preise diktiert weil keine Konkurrenz vorhanden ist, oder 2 Gleichstarke Foundry's? Es hat auch immer jeder gejammert als AMD bei den CPU's nicht klar kam und Intel ihr Quasi Monopol hatten.

Das ist was dran!

dargo
2020-09-03, 18:45:13
Teste ich später mal mit RT aus.
So wie ein anders Spiel mit RT an und aus, dann wissen wir es.
Dann aber bitte mit Nachkommastellen. Weil 55 vs. 53 fps ist schon ein kleiner Unterschied zu 54,6 vs. 53,4fps. :wink:

Der Raytracing + DLSS Test in 3DMark profitiert auch von einer reinen Speicherübertaktung.
Also bitte... was will man mit dem 3DFurz? Spielt einer 3DMark?

NC
2020-09-03, 18:46:50
Jein, die Einteilung ist jetzt flexibel und kann variieren zwischen 1:0 und 0,5:0,5 (FP:INT). Man ist also nicht auf ein fixes Verhältnis der Anwendung angewiesen.du hast recht. Durch die flexibilität kann NV zwischen 1:1 und 100% float alles abdecken, wenn der Shader lang genug ist um Instruktionen rumzuschieben.



Mit der Aussage, dass die Anzahl der Cuda-Cores mit der von Pascal vergleichbar ist, wollte ich darauf hinaus, dass beide Architekturen universale ALUs haben, die auch alle parallel arbeiten können (außer für den extremen Sonderfall, dass mehr INT als FP gerechnet wird, aber den lassen wir mal unter den Tisch fallen). Hier können doppelt so viele ALUs (bei Ampere vs Pascal) auch ungefähr zu einer Leistungsverdopplung führen, wenn nicht irgendwo andere Flaschenhälse auftauchen.

Turing hat, wenn man nur FP mitzählt, eine deutlich höhere IPC als Pascal und Ampere, was aber nur daran liegt, dass es im Hintergrund noch INT-Einheiten gibt, die die FP-ALUs entlasten. Wenn das Verhältnis FP:INT ungefähr 3:1 ist, dann entsprechen die 4352 SPs der 2080Ti ungefähr 5800 Pascal- oder Ampere-SP. Ganz vereinfacht gesagt.
Aber genau diese "Hintergrundeinheiten" hat Ampere ja auch, nur dass diese jetzt rein float rechnen.
Pascal: [ int || fp ]
Turing: [ int ] && [ fp ]
Ampere: [ int || fp ] && [ fp ]

Leonidas
2020-09-03, 18:53:32
https://wccftech.com/report-nvidia-geforce-rtx-30-gpus-to-be-in-short-supply-until-2021/
hatten wir das schon?


Ja. Abschreibübung bei TweakTown. Welche keine (echte) Quelle nennen können/wollen.



Viel spannender: Ampere Shader-Cluster (ok, 1/4 davon):
https://www.3dcenter.org/news/wie-gaming-ampere-die-verdoppelte-anzahl-shader-einheiten-erreicht

https://www.3dcenter.org/dateien/abbildungen/nVidia-Turing-SM-vs-Ampere-SM.png

Gipsel
2020-09-03, 18:57:41
Ja, wobei, ab Turing gibt es PCs pro thread, thread könnten die interesant Granularität sein, da ein Teil einer Warp andere Instruktionen ausführen könnte.
Wir haben also
1. Co-issue Warp ops
2. Per-thread einer Warp
3. Unabhängige Warps. bzw deren Threads
als scheduling möglichkeit.Daß mit dem PC pro "thread" ist nur in bestimmten Fällen von divergentem Control Flow in einem Warp interessant. Allgemein wird man sich hüten, gleichzeitig verschiedene Instruktionen für verschiedene Teile eines Warps auszuführen. Die kleinere Granularität ist im Normalfall weder performant noch verbrauchseffizient.

NC
2020-09-03, 19:11:55
Daß mit dem PC pro "thread" ist nur in bestimmten Fällen von divergentem Control Flow in einem Warp interessant. Allgemein wird man sich hüten, gleichzeitig verschiedene Instruktionen für verschiedene Teile eines Warps auszuführen. Die kleinere Granularität ist im Normalfall weder performant noch verbrauchseffizient.
Wird das nicht bei Stalls von manchen threads angewendet?
Woher weiss der Compiler bzw. Scheduler wann das angewendet werden sollte? Im CUDA binary werden zwar immer 2 Register abgezogen, aber im ptx ist rein garnichts zu sehen (nichtmal die 2 Register).
Daher dachte ich das wäre immer an.

MasterElwood
2020-09-03, 19:38:06
@Doom Eternal-Vergleich 2080Ti/3080
Wenn man eine 2080 Ti so übertakten würde, daß sie auch 320 Watt verbrät, wäre man wohl nicht weit unter der 3080. :)

Die 3080 wird aber auch übertaktbar sein. Der Abstand bleibt also.

pixeljetstream
2020-09-03, 19:40:03
@NC, das war meine ich fuer forward progress sicher stellen wichtig. Je mehr leute mit CUDA aus der CPU welt kommend code schreiben (bzw. je komplexer dieser code wird), desto wahrscheinlicher ist dass das lock-step SIMD nicht direkt mehr bewusst ist und so ein thread zum Beispiel auf nen andere warten will und das kann schnell dead-lock erzeugen.
CUDA hat ja nicht ohne grund diese neuen groups (Name entfallen) bekommen von der Semantik um das schon in der Sprache deutlicher zu machen. An sich wird der compiler halt versuchen rauszukriegen wo es wirklich gebraucht wird. Weil wie Gipsel sagt, der default soll das nicht sein.

Bei Grafik hab ich das nur erlebt bei OIT verfahren mit spin-lock, wo dann ein hlper thread (quad pixel der kein triangle coverage hat) ein dead-lock im warp erzeugen kann, weil helper threads kein load/stores machen. Dafuer musste man per-hand und passender Variable die Logik im code dann anpassen, so dass dies nicht passiert.

Der_Korken
2020-09-03, 19:41:27
Aber genau diese "Hintergrundeinheiten" hat Ampere ja auch, nur dass diese jetzt rein float rechnen.
Pascal: [ int || fp ]
Turing: [ int ] && [ fp ]
Ampere: [ int || fp ] && [ fp ]

Bei Ampere sind es keine Hintergrundeinheiten, weil sie offiziell bei den Cuda-Cores mitgezählt werden. Deswegen erscheint der zahlenmäßige Sprung von Turing auf Ampere viel größer als er unter der Haube ist. Darauf wollte ich hinaus.

Im übrigen heißt das auch, dass RDNA jetzt bei Leistung pro SP führt, denn da sind pro CU wirklich nur 2x32(INT oder FP) verbaut (na gut, die zwei skalaren Einheiten könnte man noch mitzählen).

mironicus
2020-09-03, 19:45:53
Die 3080 wird aber auch übertaktbar sein. Der Abstand bleibt also.

Ich halte dagegen. Die 3080 und 3090 werden nur minimal übertaktbar sein und sind schon ziemlich auf Kante genäht.

Hott3X
2020-09-03, 19:54:57
Das Powertarget ist doch jetzt schon jenseits von gut und böse. Nochmal mehr als die 2080TI. Ich bin mal gespannt wie die Karten nach unten skalieren. Zum Beispiel auf 250W PT. Bestimmt wieder 10% weniger Performance bei 25% weniger Verbrauch.

gedi
2020-09-03, 19:57:42
Ich halte dagegen. Die 3080 und 3090 werden nur minimal übertaktbar sein und sind schon ziemlich auf Kante genäht.

Sehe ich ähnlich für die FEs. Aber es gibt ja noch die Dinger von Asus, Coloful ... welche 3x8-Pin bereitstellen. Mehr als 500W sind schon ne Hausnummer

NC
2020-09-03, 20:00:42
@pixeljetstream
Vielen dank! Top Antwort.
Es macht mir aber ein wenig ein Unwohlgefühl, dass das (aus GPU Sicht) fehlerhafte Spinlocks fixt.

Kannst/darfst du sagen wie das Scheduling mit den int/fp Einheiten läuft?

pilzsammler2002
2020-09-03, 20:17:05
Ups war falsch :)

Troyan
2020-09-03, 20:28:26
Im übrigen heißt das auch, dass RDNA jetzt bei Leistung pro SP führt, denn da sind pro CU wirklich nur 2x32(INT oder FP) verbaut (na gut, die zwei skalaren Einheiten könnte man noch mitzählen).

Es sind bei Ampere 64 FP32 oder 32 FP32 und 32 INT32 Operationen. Das ist ist die doppelte Leistung pro ComputeUnit (=2 SMs).

gedi
2020-09-03, 20:33:47
Wird das nicht bei Stalls von manchen threads angewendet?
Woher weiss der Compiler bzw. Scheduler wann das angewendet werden sollte? Im CUDA binary werden zwar immer 2 Register abgezogen, aber im ptx ist rein garnichts zu sehen (nichtmal die 2 Register).
Daher dachte ich das wäre immer an.

Bin ich wirklich schon so lange raus aus der Materie? Was hat ein Compiler mit einem Scheduler zu tun? Der Compiler ist doch das was die Software macht und daher variabel ist und der Scheduler ist Hardwarebased?!

crux2005
2020-09-03, 20:38:00
Wie Nvidia schon gesagt hat reichen 10 GB für 4K max settings in normalen Spielen locker aus.

Die von NV genannten Spiele sind von 2018 und 2019.

Die Speicherfresser bencht nur PCGH :freak:

Ravenhearth
2020-09-03, 20:38:40
Aber warum sollte Nvidia dann den 102er so stark beschneiden und für die 3080 verwenden, wenn es keine yield Probleme gibt? Die hatten anfangs ja auch noch mit einem GA103 geplant. Ich kann mir das nur so erklären, dass es einfach zu viele teildefekte 102er Chips gibt und es somit erforderlich war eine zweite Karte neben der 3090 mit dem 102er zu bestücken. Dadurch ist dann aber der 103er überflüssig geworden. Ich kann mir schon vorstellen, dass an der Meldung was dran ist und 3070 und 3090 erstmal recht knapp sein werden.
Oder Nvidia weiß wie stark Big Navi wird und GA103 wäre zu schwach gewesen, sie wollten aber unbedingt dass die GTX 3080 damit konkurriert, damit die 3090 für sich alleine steht.

Der_Korken
2020-09-03, 20:42:33
Es sind bei Ampere 64 FP32 oder 32 FP32 und 32 INT32 Operationen. Das ist ist die doppelte Leistung pro ComputeUnit (=2 SMs).

Ampere hat 128x FP32 (oder 64xFP und 64xINT). Siehe mein Post, wo auch der Link zur Quelle zitiert wird: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12412900#post12412900

Für die Leistung pro SP spielt es aber eigentlich keine Rolle wieviel in einem SM oder einer CU drinsteckt, sondern wieviele Einheiten es insgesamt bei welcher Leistung sind. GA104 hat rechnerisch 6144 SPs, wird aber wohl kaum 2,4x so schnell sein wie N10, sondern eher so 1,5x bis 1,7x (je nachdem wie sich die 3070 gegenüber der 2080Ti platziert). Damit ist die Situation genau umgekehrt wie sie bei GCN vs Maxwell/Pascal war. Vorausgesetzt Big Navi skaliert vernünftig über die CUs.

gedi
2020-09-03, 20:43:52
Nur das war das Ziel ;)

mczak
2020-09-03, 20:44:55
Unsinn. Die 3070 ist 30% schneller als die 2080 bei gleichem Verbrauch. Die 2070 war 5% oder so schneller als die GTX1080.

Wenn man aber annimmt dass der 8nm Prozess einiges an Effizienz bringt bleibt da aber auch nicht wirklich viel von den 30% übrig das man der Architektur zuschreiben kann.

Palpatin
2020-09-03, 20:51:41
Wenn man aber annimmt dass der 8nm Prozess einiges an Effizienz bringt bleibt da aber auch nicht wirklich viel von den 30% übrig das man der Architektur zuschreiben kann.
Und genau das würde ich aufgrund des Samsung Prozesses eben nicht.
Gut möglich das da alles von der Architektur kommt und der Prozess vor allem kosten Spart.

mczak
2020-09-03, 20:53:35
Im Prinzip kommt das mit den Pfaden von nV (die damit vermutlich die issue Pipelines meinen bzw. welche Einheiten an den issue ports dran hängen). Von welchen "Threads" die dort ausgeführten Instruktionen kommen, ist nochmal eine andere Frage (also ob die zwei Instruktionen von einem Warp ["Thread" ist mißverständlich] oder von verschiedenen Warps [oder auch beides] kommen können [bisher waren es maximal zwei Instruktionen für einen Warp, mit Ampere vermutlich immer noch so]).
Ist das eigentlich insgesamt dual-issue? Also es gibt immer bloss 2 Befehle gleichzeitig die da abgesetzt werden an fp/fp/int/sfu/tensor (bei Ampere, bei Turing ohne die zweite fp) Einheiten (wobei die sfu und tensor Einheiten an einem Befehl länger werkeln man da also nicht pro Takt eine neue Instruktion braucht).

mczak
2020-09-03, 21:02:26
Und genau das würde ich aufgrund des Samsung Prozesses eben nicht.
Gut möglich das da alles von der Architektur kommt und der Prozess vor allem kosten Spart.
Im Prinzip müsste Samsung 8LPP schon deutlich besser sein als TSMC 12FFN. Wenn er das nicht ist hat Samsung wirklich ein Problem... Aber es stimmt natürlich, das macht es quasi unmöglich zu sagen welcher Anteil die Architektur an der besseren Effizienz hat.

gedi
2020-09-03, 21:11:41
Im Prinzip müsste Samsung 8LPP schon deutlich besser sein als TSMC 12FFN. Wenn er das nicht ist hat Samsung wirklich ein Problem... Aber es stimmt natürlich, das macht es quasi unmöglich zu sagen welcher Anteil die Architektur an der besseren Effizienz hat.

Der Anfang ist doch gemacht. Weiß jetzt nicht warum du auf dem Fertigungsprozess herumreitest. Bis dato ist Ampere die schnellste bald kaufbare GPU. Vom direkten Konkurrenten weiß niemand etwas, außer das es ihn geben soll. Warum so viel Hektik reininterpretieren ...

Und wenn BN so viel besser rauskommt, dann kauf halt AMD

NC
2020-09-03, 21:23:40
Bin ich wirklich schon so lange raus aus der Materie? Was hat ein Compiler mit einem Scheduler zu tun? Der Compiler ist doch das was die Software macht und daher variabel ist und der Scheduler ist Hardwarebased?!
Moderne Compiler wissen wie das Branching der individuellen Prozessoren funktioniert und generieren code der entweder gleich hints für die Branching Unit hat, oder indirekt.
Wenn der Compiler natürlich weiss, dass der Prozessor, wie im Falle von Turing und Ampere, entweder pro Warp oder pro Warp-Thread branchen kann, kann der Compiler entweder die entsprechende Warp/Warp-Thread branch Instruktion einbauen, oder vielleicht Hints einbauen. Wie hier von

An sich wird der compiler halt versuchen rauszukriegen wo es wirklich gebraucht wird
bestätigt.

Wenn der Branch per Thread ist, kann der Scheduler quasi einen Teil von der Warp in dem spezifischen Branch ausführen, während ein anderer Teil der Warp wartet (auf Speicher, oder in einem lock unendlich spinnt, wie pixeljetstream als Beispiel angab.).

Willkommen zurück in der Materie :)

Sardaukar.nsn
2020-09-03, 21:24:22
Das Powertarget ist doch jetzt schon jenseits von gut und böse. Nochmal mehr als die 2080TI. Ich bin mal gespannt wie die Karten nach unten skalieren. Zum Beispiel auf 250W PT. Bestimmt wieder 10% weniger Performance bei 25% weniger Verbrauch.

Ich glaube das Ampere von Anfang an mit sehr viel höherer TDP geplant wurde als Turing oder Pascal. Leider wird das auch mit Luftkühlung echt an die Grenzen stoßen. In einem Video zu dem Nvidia Reflex sind ein paar neue Infos durchgesickert...

https://i.redd.it/vffisvh31wk51.png

The Nvidia reflex video showed some core clock speeds (1920@76c/1965@68c), memory speeds (19gbs), voltage (1-1.1v), and max power target (368w, +15%) of the 3080

Quelle: https://www.youtube.com/watch?v=-cXg7GQogAE&feature=emb_title


Also wenn die 3080 FE mit 115% schon ein Power Maximum von ~370W hat, werden die Custom Designs wahrscheinlich in 375-400W Regionen gehen. Meiner Meinung nach geht das nur vernünftig mit Wasserkühlung und viel Radiatorfläche.

crux2005
2020-09-03, 21:27:12
Steckt Miami oder SKYNET da gerade eine 3090 in sein ITX Board? ;D

https://i.imgur.com/WNEZTt9.jpg

BoMbY
2020-09-03, 21:29:10
525 Watt Stromversorgung? Wirklich?

gedi
2020-09-03, 21:32:23
Moderne Compiler wissen wie das Branching der individuellen Prozessoren funktioniert und generieren code der entweder gleich hints für die Branching Unit hat, oder indirekt.
Wenn der Compiler natürlich weiss, dass der Prozessor, wie im Falle von Turing und Ampere, entweder pro Warp oder pro Warp-Thread branchen kann, kann der Compiler entweder die entsprechende Warp/Warp-Thread branch Instruktion einbauen, oder vielleicht Hints einbauen. Wie hier von

bestätigt.

Wenn der Branch per Thread ist, kann der Scheduler quasi einen Teil von der Warp in dem spezifischen Branch ausführen, während ein anderer Teil der Warp wartet (auf Speicher, oder in einem lock unendlich spinnt, wie pixeljetstream als Beispiel angab.).

Willkommen zurück in der Materie :)

Ja aber welcher Compiler? Software-Based kein Problem. Siehe Windows-Linux. Es wäre mir aber komplett neu, dass dies Hardware-Based passieren kann, weil die INTs fehlen?!

TheGood
2020-09-03, 21:32:28
Sorry, das Ding ist ein echter Todschläger... Wahnsinn... Da muss man sich schon fragen, warum der ganze Terz für 20% merh leistung... Daran erkennt man ja schon dass die 3080 an der Grenze läuft...

mczak
2020-09-03, 21:35:06
Der Anfang ist doch gemacht. Weiß jetzt nicht warum du auf dem Fertigungsprozess herumreitest.
Es ging bloss darum ob die Aenderungen bei Ampere tatsächlich auch die Effizienz gross verbessert haben oder nicht (bei Einsatz von Tensor- oder RTX-Operationen dürfte das klar sein, aber generell ist die Lage nicht so klar). Und das ist eben im Vergleich mit Turing ohne Berücksichtigung der Fertigung nicht zu beantworten.
Klar ist dass Ampere selbst wenn die Effizienz kaum verbessert wurde da einen klaren Vorteil gegenüber RDNA1 hat, denn den hatte schon Turing (AMD hatte aber den Fertigungsvorteil). AMD hat da immer noch Nachholbedarf, ob RDNA2 da auf dasselbe Niveau kommt (was natürlich dann dazu führen würde dass AMD effizienter ist, denn dass TSMC 7nm besser ist als die 8nm bei Samsung bestreitet wohl niemand) wird man dann sehen.

gedi
2020-09-03, 21:35:12
525 Watt Stromversorgung? Wirklich?

War doch klar