Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

deLuxX`
2020-08-11, 23:51:41
Da ist der Mehrwert geringer als bei einer 1000€ Grafikkarte.
Ja?

deLuxX`
2020-08-11, 23:54:03
Das habe ich auch nie behauptet.

Wenn jemand nicht in der Lage ist, monatlich 50€ für eine Grafikkarte zur Seite zu legen, so kann er sich keine 2080 Ti kaufen, dann muss er sich eine kleiner Grafikkarte kaufen, zum Glück gibt es für jedes Budget eine Grafikkarte :wink:

Ich hätte auch gerne einen Tesla S in der Vollausstattung, doch ich kann keine 100.000€ für ein Auto auf den Tisch legen, so musste ein günstigeres Auto her.

Aber ich möchte jetzt hier auch nicht in, "wie viel Geld verdienen wir und wie viel geben wir aus" abdriften.

Ich stimmte lediglich zu und sagte 1500€ ist in "meinem" Budget für eine 3080 TI OK.
Mein Post war als Zustimmung gedacht...😉

Lawmachine79
2020-08-12, 00:21:01
Ach Leute, jeder wie er will und kann. Manche können 80 Euro für ein Steak ausgeben (ich esse das in 2 Minuten) und es ist ihnen zu teuer. Manchen können es nicht, würden aber, wenn sie könnten. Manche können und wollen. Und mit Grafikkarten ist es genauso.

Platos
2020-08-12, 02:12:34
Andere Zahlen noch mehr für ein Handy...

Da ist der Mehrwert geringer als bei einer 1000€ Grafikkarte.

Es gibt auch Leute, die verprassen 1000 Euro am Wochenende im Casino. Deswegen ist es aber noch lange keine gute Idee....

Und ich hab für ein PS4 Spiel noch nie so viel gezahlt. Nach 6-12 Monate kriegt man fast alle Spiele für 30 Euro. Bei Steam ist das nicht besser. Nach 1-2 Jahren kriegt man die oft bei Amazon für 10-20 Euro hinterhergeworfen.

Man muss halt nur die Preise checken.

rentex
2020-08-12, 05:46:43
Das mit der guten Idee, ist wie vieles. eine persönliche Ansicht.
Wir sollten wieder das eigentliche Thema aufgreifen.

Noch 20 Tage...

Platos
2020-08-12, 07:19:40
Ja, vermutlich langsam zu viel ot :D

BiZiNiZz
2020-08-12, 07:52:11
Diese nervigen Preisspekulationen/Diskussionen nerven hier in meinen Augen eh extrem, macht das doch bitte in einem eigenen Thread und nicht immer im "Technik-Speku-Thread". Dabei geht immer viel zu viel unter.

y33H@
2020-08-12, 08:07:20
Gibt's übrigens Benchmarc Wünsche? Abseits "klassischer" sowie neuer Titel in 1080p/1440p/2160p und eben DLSS/Raytracing? Interessiert sich jemand für Optix in Blender oder AI in Lightroom?

Timbaloo
2020-08-12, 08:11:26
Quake 2 "RTX" habt ihr sicher schon im Parcours?

BiZiNiZz
2020-08-12, 08:17:26
Minecraft RTX wäre nice, soll wohl Leistung ohne Ende fressen. Ka ob das mittlerweile weiter optimiert wurde.

basix
2020-08-12, 08:18:51
Gibt's übrigens Benchmarc Wünsche? Abseits "klassischer" sowie neuer Titel in 1080p/1440p/2160p und eben DLSS/Raytracing? Interessiert sich jemand für Optix in Blender oder AI in Lightroom?

Crysis 1 und Gothic 3 PCGH Edition mit 8K downsampled auf 4K :D

y33H@
2020-08-12, 08:20:21
Ja, die ganzen RTX Games sind drin, wobei ich mir vll CoD oder SotTR schenke bzw ausgliedere.

rentex
2020-08-12, 08:23:20
Crysis 1 und Gothic 3 PCGH Edition mit 8K downsampled auf 4K :D

So im Nachgang der Tests, durchaus wünschenswert.

y33H@
2020-08-12, 08:27:12
Ich denke, Crysis 1 macht PCGH ohnehin, da wird Raff schon für sorgen ^^

Karümel
2020-08-12, 09:03:15
Im Bezug auf DLSS:
Stromverbrauchvergleich und RAMverbrauch
"normale" Auflösung vs entsprechende DLSS Auflösung bei vergleichbarer Qualität

N0rG
2020-08-12, 09:17:06
Gibt's übrigens Benchmarc Wünsche? Abseits "klassischer" sowie neuer Titel in 1080p/1440p/2160p und eben DLSS/Raytracing? Interessiert sich jemand für Optix in Blender oder AI in Lightroom?

1440p per dlss auf 4k und dann mit downsampling wieder auf 1440p runter. Mich würd interressieren ob das performance kostet und ob es vielleicht besser aussieht als nativ 1440p.

y33H@
2020-08-12, 09:21:13
Ja, sieht besser aus als nativ 1440p bei quasi identischer Performance - geht bisher auch schon.

Gouvernator
2020-08-12, 09:32:59
Gibt's übrigens Benchmarc Wünsche? Abseits "klassischer" sowie neuer Titel in 1080p/1440p/2160p und eben DLSS/Raytracing? Interessiert sich jemand für Optix in Blender oder AI in Lightroom?
Snowrunner in 8K. Das ist bei weitem der beste Titel der noch 8K DSR@120Hz 4K packen könnte.

Sweepi
2020-08-12, 09:48:21
Gibt's übrigens Benchmarc Wünsche? Abseits "klassischer" sowie neuer Titel in 1080p/1440p/2160p und eben DLSS/Raytracing? Interessiert sich jemand für Optix in Blender oder AI in Lightroom?


Spiele WoW in
- 6880 x 2880 (3440 x 1440)2
- 10240 x 5760 (5k)2

Mining Benchmarks (Hashes Absolut & Hashes / Watt) in
- ETH
- Monero
- Ravencoin
(damit man weiß, ob man schnell zuschlagen sollte)

Radeonfreak
2020-08-12, 09:50:39
Seid froh wenn die Karten dauerhaft 60-120 Hz in 4K halten können.

8K :ucrazy:

TheAntitheist
2020-08-12, 09:52:26
1440p per dlss auf 4k und dann mit downsampling wieder auf 1440p runter. Mich würd interressieren ob das performance kostet und ob es vielleicht besser aussieht als nativ 1440p.
Raff hat dazu mal was geschrieben und glaube es gab dazu auch einen PCGH Artikel und es sah VIEL besser aus.

Dr.Doom
2020-08-12, 10:05:15
Gibt's übrigens Benchmarc Wünsche? Abseits "klassischer" sowie neuer Titel in 1080p/1440p/2160p und eben DLSS/Raytracing? Interessiert sich jemand für Optix in Blender oder AI in Lightroom?
Nö, danke, wegen dem da unten fänd' ich klassische Benchmarks vollkommen ausreichend.

Mining Benchmarks (Hashes Absolut & Hashes / Watt) in
- ETH
- Monero
- Ravencoin
(damit man weiß, ob man schnell zuschlagen sollte)

ShinyMcShine
2020-08-12, 10:07:24
Discuss... :popcorn:
Assuming no Ti/Super variants at launch, this is what I think pricing will be, in dollars, for the MSRP.
Ampere Titan - $2999~
RTX 3090 - $1499~
RTX 3080 - $899~
RTX 3070 - $699~
RTX 3060 - $499~
RTX 3050 - $249~
— Don Charlie (@ghost_motley) August 11, 2020

I call False
Same Prices as Turing IMO
3090/80ti 999$
3080 699$
3070 499$
3060 399$-349$
3050ti 199$
3050 149$

remember its 8nm samsung = cheap AF
— Ashraf (Mr. Grunt) (@Ashraf_Medhat93) August 11, 2020

unl34shed
2020-08-12, 10:11:56
Gibt's übrigens Benchmarc Wünsche? Abseits "klassischer" sowie neuer Titel in 1080p/1440p/2160p und eben DLSS/Raytracing? Interessiert sich jemand für Optix in Blender oder AI in Lightroom?

Abseits von den neuen Karten würde mich schon freuen, wenn DLSS/RTX nicht immer so hoch gelobt würden, sondern auch mal kritisch hinterfragt, warum nativ in solchen Spielen immer so beschissen aussehen muss (Unschärfe, Schatten manchmal vergessen zu berechnen,...). Auch wenn es hier manche nicht hören wollen, es hat den Anschein, dass mit RTX/DLSS bei den Devs die ganzen Tricks der letzten Jahre vergessen haben.

Ich will hiermit nicht bestreiten, dass DLSS ok aussieht und die FPS erhöht und RT Effekte gut aussehen, aber die native Basis hat mMn. in diesen spielen gelitten, damit die Unterschied besser aussieht.

Lawmachine79
2020-08-12, 10:30:06
Nö, danke, wegen dem da unten fänd' ich klassische Benchmarks vollkommen ausreichend.
Gibt es eigentlich irgendeine Währung, bei der sich Mining momentan lohnt?

pixeljetstream
2020-08-12, 10:34:00
Abseits von den neuen Karten würde mich schon freuen, wenn DLSS/RTX nicht immer so hoch gelobt würden, sondern auch mal kritisch hinterfragt, warum nativ in solchen Spielen immer so beschissen aussehen muss (Unschärfe, Schatten manchmal vergessen zu berechnen,...). Auch wenn es hier manche nicht hören wollen, es hat den Anschein, dass mit RTX/DLSS bei den Devs die ganzen Tricks der letzten Jahre vergessen haben.

Ich will hiermit nicht bestreiten, dass DLSS ok aussieht und die FPS erhöht und RT Effekte gut aussehen, aber die native Basis hat mMn. in diesen spielen gelitten, damit die Unterschied besser aussieht.
IMO ist dieser Mythos um "nativ" das Problem. Denn es gibt diese Artikel welche kritisch auf die AA Verfahren eingehen. Das sind dann aber halt papers der Entwickler für Entwickler. Ab nem gewissen Zeitpunkt ist das Problem nicht mehr so einfach und imo geben sich viele leider keine Mühe sich technisch zu bilden um die Entscheidung von Entwicklern nachzuvollziehen und die meisten Medien gehen heute auch kaum auf Details ein weil es für viele zu langweilig ist. Das merken wir ja hier im Forum auch wenn Insider was posten oder Hintergründe erklären, dann ist das nicht so interessant wie der x te Streit über Preise VRAM gflops Konsole vs PC, Hersteller x vs y.

Dr.Doom
2020-08-12, 10:43:39
Gibt es eigentlich irgendeine Währung, bei der sich Mining momentan lohnt?Weiss nicht, möchte nur nicht, dass mir Miner die Spielekarten wegkaufen.

Triniter
2020-08-12, 10:46:42
IMO ist dieser Mythos um "nativ" das Problem. Denn es gibt diese Artikel welche kritisch auf die AA Verfahren eingehen. Das sind dann aber halt papers der Entwickler für Entwickler. Ab nem gewissen Zeitpunkt ist das Problem nicht mehr so einfach und imo geben sich viele leider keine Mühe sich technisch zu bilden um die Entscheidung von Entwicklern nachzuvollziehen und die meisten Medien gehen heute auch kaum auf Details ein weil es für viele zu langweilig ist. Das merken wir ja hier im Forum auch wenn Insider was posten oder Hintergründe erklären, dann ist das nicht so interessant wie der x te Streit über Preise VRAM gflops Konsole vs PC, Hersteller x vs y.
Mythos trifft es ganz gut denke ich, was sind denn objektive Kriterien für ein gutes Bild? Schärfe? Die Diskussion hatten wir vor 25 Jahren als AA kam und Matrox das nicht wollte. Nativ steigt und fällt halt mit der zur verfügung stehenden Auflösung, sollte jedem klar sein das man mit 4k mehr Details abstufen kann als mit HD. Auf welche Paper beziehst du dich da, sind die frei verfügbar im Netz?

pixeljetstream
2020-08-12, 10:57:12
Mythos trifft es ganz gut denke ich, was sind denn objektive Kriterien für ein gutes Bild? Schärfe? Die Diskussion hatten wir vor 25 Jahren als AA kam und Matrox das nicht wollte. Nativ steigt und fällt halt mit der zur verfügung stehenden Auflösung, sollte jedem klar sein das man mit 4k mehr Details abstufen kann als mit HD. Auf welche Paper beziehst du dich da, sind die frei verfügbar im Netz?

TAA Verfahren oder Texture space shading oder auch DLSS 2… werden ja oft bissl auf Konferenzen erklärt (gdc, GTC, Siggraph, i3d, eurographics). Man findet zum Glück heute schon viel im Netz.
Es fehlt halt dass es für "normale" Leute aufbereitet wird. Was halt Arbeit macht (hatte selbst ja an renderhell geholfen und gesehen wie viel Arbeit simonschreibt.de sich machte) und nicht so kommerziell erfolgreich wäre wie diese ganzen emotionalen Diskussionen. Was leider halt IMO zeigt dass die meisten es halt nicht in der Tiefe interessiert.

Mythos auch im Sinne von das die Entwickler ja schon sehr sehr viele Entscheidungen treffen was Vereinfachungen etc. angeht und man in manchen Titel ja in den Grafik settings sich spielen kann, welche davon sind mehr nativ als andere...

Adam D.
2020-08-12, 11:00:57
Discuss... :popcorn:
Hab natürlich keine Ahnung, aber da die Preise von Turing schon gesalzen waren, 8nm jetzt nicht übermäßig teuer sein dürfte und diesmal Konkurrenz von AMD zu erwarten ist, hoffe ich, dass die Preise zumindest gehalten werden. Bin gespannt, wie die 16/20GB-Modelle eingeordnet werden.

Platos
2020-08-12, 11:06:17
@pixeljetstream: Mich würde das sicherlich interessieren, aber ich denke nicht, dass ich Papers, die an Entwickler gerichtet sind, verstehen würde... Dafür ist mein Wissen dann einfach zu begrenzt in diesem Bereich.

@ Grafikkarte-Tests: Was ist eig. die max. Auflösung, mit der DLSS rechnen kann (also die interne Renderauflösung)

Ich wäre z.B interessiert an DLSS kombiniert mit DSR auf 8K. Vor allem interessiert mich, wie viel FPS man erreicht und wie es im Vergleich zu nativem 4K aussieht.

Also Bildvergleiche zwischen 4k nativ und 8k DSR+DLSS (höchste interne Auflösung). Und dazu FPS-Werte (aber sonst selbe Grafiksettings im Game)

Auch interessant fände ich das selbe aber die Grafiksettings so eingestellt, so dass sowohl bei nativ 4k als auch bei DSR+DLSS 8k etwa die selben FPS erreicht werden. Also ein Setting bei selber FPS-Zahl, so dass man sieht, was bei selber Perfomance (wie) viel besser aussieht.

So mal meine Wunschvorstellung :D

Sweepi
2020-08-12, 11:09:46
Es fehlt halt dass es für "normale" Leute aufbereitet wird
Ich möchte an dieser Stelle nochmal die Videos von 2kliksphilip empfehlen:
https://youtube.com/watch?v=rmd6X3JE0MY (10 Minuten)
https://youtube.com/watch?v=N8M8ygA9yWc (23 Minuten)

Edgecrusher86
2020-08-12, 11:42:54
Gibt's übrigens Benchmarc Wünsche? Abseits "klassischer" sowie neuer Titel in 1080p/1440p/2160p und eben DLSS/Raytracing? Interessiert sich jemand für Optix in Blender oder AI in Lightroom?

Gut, dann doch hier eher klassische Wünsche *hust* - Prosumer-Anwendungen sind nicht so mein Fall:

Quantum Break (DX11) 4K ohne Upscale wäre interessant - ein Titel, wo TU102 auch nur grob seine 30-40 fps schafft.
RDR2 maxed out in 4K wäre auch einen Test wert - ob dann 50-60 fps drin sind.

Dann natürlich auch ein paar extreme Tests - 5K/8K DSR - auch in Titeln, die VRAM verschlingen, wie DOOM Eternal, wo es dann eng mit 11-12GB VRAM wird, wenn man 8K aktiviert. :D

Eventuell ginge ja auch noch ein kleiner Sondertest mit Orb's Custom DSR Tool - wenn man schon einmal 24GB zu Verfügung hat - kann man auch bis 16K testen, haha -
zumindest wenn noch ordentlich spielbare fps heraus kommen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=593534


Später würde ich auch gerne wieder einen SLI-Sondertest sehen, wie mit den beiden TITANEN - bei dem Lineup sollte Ampere dann hier und da doch deutlich mehr bringen können. :)
E: Ja, alles sehr viel Arbeit - ich weiß - aber im gewissen Sinne auch Spaß, das technisch Machbare auszuloten - seit je her einer der Hauptgründe, die für PC-Gaming sprechen.

Oder vielleicht einen Sondertest über den Performance-Hit von SDR zu HDR.

Das kannst du ja mal im Hinterkopf behalten. :biggrin:

davidzo
2020-08-12, 11:59:31
Gibt's übrigens Benchmarc Wünsche? Abseits "klassischer" sowie neuer Titel in 1080p/1440p/2160p und eben DLSS/Raytracing? Interessiert sich jemand für Optix in Blender oder AI in Lightroom?

Fände Lightroom auch interessant, aber der bessere Benchmark ist wahrscheinlich Capture one. Zum Einen weil Lightroom programmiertechnisch immer etwas hinterher hängt und CO schon wesentlich länger und umfangreicher auf GPU Beschleunigung setzt und weil CO in Studios/Unis, bei Studis verbreiteter und etwas professioneller ist.

Pfuscher
2020-08-12, 12:39:39
Und ich hab für ein PS4 Spiel noch nie so viel gezahlt. Nach 6-12 Monate kriegt man fast alle Spiele für 30 Euro. Bei Steam ist das nicht besser. Nach 1-2 Jahren kriegt man die oft bei Amazon für 10-20 Euro hinterhergeworfen.

Man muss halt nur die Preise checken.


Man hat sich einen key gekauft und die haben 20-90% des Playstation Titels gekostet. Je nach Zeitpunkt.
Das lässt sich jetzt bei zehntausenden Titeln nicht pauschalisieren, aber mit keys hat man schon bestimmt im Schnitt 30% gespart.

Denke allgemein können wir die Preis Diskussion etwas herunter fahren.
- Die angeben sie würden durchaus 1-2k zahlen, wollen nur mit ihrem Geld angeben in einem Forum. Peinlich.

Redneck
2020-08-12, 12:53:10
Gibt's übrigens Benchmarc Wünsche? Abseits "klassischer" sowie neuer Titel in 1080p/1440p/2160p und eben DLSS/Raytracing? Interessiert sich jemand für Optix in Blender oder AI in Lightroom?

Bitte ein paar VR Titel mittesten und der aktuellen Generation gegenüberstellen.

monstar-x
2020-08-12, 13:04:35
Man hat sich einen key gekauft und die haben 20-90% des Playstation Titels gekostet. Je nach Zeitpunkt.
Das lässt sich jetzt bei zehntausenden Titeln nicht pauschalisieren, aber mit keys hat man schon bestimmt im Schnitt 30% gespart.

Denke allgemein können wir die Preis Diskussion etwas herunter fahren.
- Die angeben sie würden durchaus 1-2k zahlen, wollen nur mit ihrem Geld angeben in einem Forum. Peinlich.



Der Preis ist ein sehr wichtiger Faktor bei einer Grafikkarte, es ist nicht möglich diesen auszublenden. Da er eine entscheide rolle spielt, welche Grafikkarte gekauft wird.

Ich verstehe nicht, was es das mit Angeben zu tun hat, wenn man schreibt, dass man bereit 1.000 - 2.000 € für eine HighEnd Grafikkarte zu bezahlen. Das ist erstmal eine Aussage, mehr nicht.

Du kennst keinen Persönlich aus dem Forum, so kann auch keiner direkt mit seiner Grafikkarte Angeben.

Niemand außer der Käufer selbst hat etwas von seiner HighEnd Grafikkarte. Ist ja nicht so dass man diese um den Arm trägt wie eine Apple Watch Hermes Edition, oder die Straße hoch und runter fährt wie mit einem Luxus Auto.

Du weist auch nicht wie lange jemand auf eine 1-2000€ Grafikkarte gespart hat, vielleicht war er die letzten 3 Jahre jede Sommerferien dafür täglich Arbeiten, während du vor dem TV gechillt und Netflix geschaut hast.

Können wir jetzt endlich mit diesem Geld und Neid aufhören.

y33H@
2020-08-12, 13:11:59
Uff, also VR wäre eher dediziert dann ... leider arg wenig Nachfrage.

EDIT: wollte es nicht direkt abmoderieren, sorry.

MiamiNice
2020-08-12, 13:19:37
Weil es so viel Aufwand ist den VR Mark drüber laufen zu lassen? Das sind keine 5 Minuten ... Gehört Anno 2020 einfach zu einem GPU Test dazu. Wäre nett wenn ihr das stemmen könntet.

Redneck
2020-08-12, 13:26:41
Uff, also VR wäre eher dediziert dann ... leider arg wenig Nachfrage.

EDIT: wollte es nicht direkt abmoderieren, sorry.

Denke es gibt eine Reihe an Leuten, die speziell für VR eine Kaufentscheidung treffen müssen. Wenn die in VR taugen, reichts für den normal Desktop Betrieb allemal. 1-2 Titel sollten reichen.

TurricanM3
2020-08-12, 13:28:48
Diese nervigen Preisspekulationen/Diskussionen nerven hier in meinen Augen eh extrem, macht das doch bitte in einem eigenen Thread und nicht immer im "Technik-Speku-Thread". Dabei geht immer viel zu viel unter.

Wäre ich auch für. Bei Turing drehten sich so viele Beiträge um den Preis, einfach nervig.

MasterElwood
2020-08-12, 13:32:36
Weil es so viel Aufwand ist den VR Mark drüber laufen zu lassen? Das sind keine 5 Minuten ... Gehört Anno 2020 einfach zu einem GPU Test dazu. Wäre nett wenn ihr das stemmen könntet.

1000% Zustimmung :smile:

y33H@
2020-08-12, 13:34:31
VR Mark, hat das eine Ausssgekraft?

Der Performance Gewinn in klassischen Titeln lässt sich doch 1:1 übertragen?

[NbF]Eagle
2020-08-12, 13:59:40
Ja ,bitte 1-2 Titel im VR.
Und nein, der Performance Gewinn lässt sich in VR nicht unbedingt 1:1 übertragen.

y33H@
2020-08-12, 14:02:22
Mein Eindruck war dem ist so, ausser eben es gibt spezifische Verbesserungen.

Sweepi
2020-08-12, 14:19:12
Ich möchte an dieser Stelle nochmal die Videos von 2kliksphilip empfehlen:
https://youtube.com/watch?v=rmd6X3JE0MY (10 Minuten)
https://youtube.com/watch?v=N8M8ygA9yWc (23 Minuten)

Schnelleinstieg:
https://youtu.be/N8M8ygA9yWc?t=399
Vergleich der BQ bei gleichen Framerates:
DLSS "4k" Performance VS 2560x1440 + TSSAA

Redneck
2020-08-12, 14:51:17
VR Mark, hat das eine Ausssgekraft?

Der Performance Gewinn in klassischen Titeln lässt sich doch 1:1 übertragen?

ich würde "real life" Titel bevorzugen, keine synthetischen Benchmarks, auf die die Hersteller hin optimiert haben.

Leonidas
2020-08-12, 14:54:26
NVIDIA GeForce RTX 30 “Ampere GA102” series rumored to launch in 24GB, 20GB and 10GB variants
https://videocardz.com/newz/nvidia-geforce-rtx-30-ampere-ga102-series-rumored-to-launch-in-24gb-20gb-and-10gb-variants

... läuft für mich auf exakt das heraus, was ich aus den allerersten Speichermengen-Leaks bereits gedeutet habe:
https://www.3dcenter.org/news/geruechtekueche-navi-21-mit-bis-zu-16-gb-sowie-geforce-rtx-3080-mit-wahlmoeglichkeit-auf-10-ode

Hakim
2020-08-12, 15:03:20
Die trauen sich ernsthaft nochmal eine 60er Karte mit 6GB zu bringen? Das ist mit der erwarteten Leistung (denke irgendwo bei ca 2070S/2080) einfach überhaupt nicht mehr angemessen

Linmoum
2020-08-12, 15:07:48
So blöd ist nicht einmal Nvidia.

Leonidas
2020-08-12, 15:15:51
Der GA106-Chip hat halt nur 192 Bit Speicherinterface, da gehen nur 6 GB. Ich denke, deswegen wird man eine 3060Ti auf GA104-Basis auflegen, die liefert dann 8 GB im 60er land. Aber die vanilla 3060 kann fast nur 6 GB haben. Oder man benennt sie 3050 Ti - was für einen GA106 aber zu viel wäre.

PS: Eventuell läßt sich NV erweichen und bringt auch die 3060 mit 6/12 GB Wahlmöglichkeit.

Fragman
2020-08-12, 15:56:34
Solche Karten helfen auch dabei, die ganze Produktpalette abzudecken, damit jeder etwas für sein Budget findet.

Dural
2020-08-12, 16:16:25
Aha jetzt verstehe ich, man beschneidet die 3080Ti noch mal mehr und verbaut dafür 20GB und die ganzen ganz schlauen werden die Karte in den Himmel loben, Speicher ist ja nämlich alles. ;)

Dazu kann NV normale 3080 10GB Kunden auf das deutlich teuere 20GB Ti Produkt hochheben. Den wir wissen ja jetzt, Speicher ist alles ;)

Also ich muss sagen, in Sachen Vertrieb und Marketing ist NV echt stark.

Dampf
2020-08-12, 16:26:17
Die trauen sich ernsthaft nochmal eine 60er Karte mit 6GB zu bringen? Das ist mit der erwarteten Leistung (denke irgendwo bei ca 2070S/2080) einfach überhaupt nicht mehr angemessen

6 GB reichen doch für die Mittelklasse.

Dr.Doom
2020-08-12, 16:27:39
Aha jetzt verstehe ich, man beschneidet die 3080Ti noch mal mehr und verbaut dafür 20GB und die ganzen ganz schlauen werden die Karte in den Himmel loben, Speicher ist ja nämlich alles. ;)

Dazu kann NV normale 3080 10GB Kunden auf das deutlich teuere 20GB Ti Produkt hochheben. Den wir wissen ja jetzt, Speicher ist alles ;)

Also ich muss sagen, in Sachen Vertrieb und Marketing ist NV echt stark.Shhht, nicht die Preispolitik kritisieren. Böse.

Dural
2020-08-12, 16:36:52
Shhht, nicht die Preispolitik kritisieren. Böse.

Ich kritisiere NV überhaupt nicht, sie machen genau das was die Kunden wollen.

Mir wäre eine voller GA102 12GB für den gleichen Preis 1000x lieber als jetzt die 3080Ti 20GB :rolleyes:

Linmoum
2020-08-12, 16:42:06
6 GB reichen doch für die Mittelklasse.Zum einen dürfte die Performance sicher oberhalb der 2070 liegen, zum anderen kam bereits die 2060 für 369€ UVP. Das ist weit entfernt von Mittelklasse.

MiamiNice
2020-08-12, 16:42:09
Ich lach mir schlapp.
Bestelle mir schon mal paar Tüten Popcorn für den Release vor.
Und nen bissel Käse damit man die Leute die whinen komplettieren kann.

rentex
2020-08-12, 16:43:51
Streitet man sich hier gerade um ungelegte Eier?!

MiamiNice
2020-08-12, 17:11:22
NVIDIA GeForce RTX 30 “Ampere GA102” series rumored to launch in 24GB, 20GB and 10GB variants
https://videocardz.com/newz/nvidia-geforce-rtx-30-ampere-ga102-series-rumored-to-launch-in-24gb-20gb-and-10gb-variants

... läuft für mich auf exakt das heraus, was ich aus den allerersten Speichermengen-Leaks bereits gedeutet habe:
https://www.3dcenter.org/news/geruechtekueche-navi-21-mit-bis-zu-16-gb-sowie-geforce-rtx-3080-mit-wahlmoeglichkeit-auf-10-ode

Damit macht das "Hick Hack" um den Namen der 3090 auch einen Sinn. Die 3090 ist eine 3080 mit doppeltem Speicher. Die Titan ist für prof. Anwender.
Damit gibt es in der Ampere Gen keine Enthusiasten Karte sondern nur High End, ergo keine TI.
Also falls der Leak so stimmt.
Damit dürften dann viele Käufer rausfallen.
:D;D:freak:
Kann ich mir gar nicht vorstellen eigentlich. Damit würde NV die Käufer direkt in die Arme von AMD treiben die mit den technischen Specs von Big Navi quasi jedes Technik Liebhaber Herz höher schlagen lassen (512bit, hohe Taktraten, 16GB).

Rampage 2
2020-08-12, 17:17:06
PS: Eventuell läßt sich NV erweichen und bringt auch die 3060 mit 6/12 GB Wahlmöglichkeit.

Ich denke, weder Nvidia noch AMD haben sich einen Gefallen getan, indem sie nicht einen genaueren Blick auf diese 1.5 Gbit-Chips geworfen haben...


Mir wäre eine voller GA102 12GB für den gleichen Preis 1000x lieber als jetzt die 3080Ti 20GB :rolleyes:

12GB sind ja auch so geraaade noch ausreichend für die nächsten paar Jahre - aber alles darunter (11GB) definitiv nicht mehr...

R2

BlacKi
2020-08-12, 17:21:59
Der GA106-Chip hat halt nur 192 Bit Speicherinterface, da gehen nur 6 GB.
steht denn das fest? warum nicht einen 256bit bus an die kleineren hängen? ich meine, immerhin besser und billiger als 12gb. da kann man dann bei 256bit wenigstens langsamen billig ram verbauen.

Hab natürlich keine Ahnung, aber da die Preise von Turing schon gesalzen waren, 8nm jetzt nicht übermäßig teuer sein dürfte und diesmal Konkurrenz von AMD zu erwarten ist, hoffe ich, dass die Preise zumindest gehalten werden. Bin gespannt, wie die 16/20GB-Modelle eingeordnet werden.
ich hab keine ahnung wie du auf die idee kommst das der prozess nach wertigkeit einen direkten einfluss hat auf die grafikkarte? wir reden hier um 50-100€ chips in der herstellung. selbst wenn der 8nm prozess 30% günstiger wäre als 7nm tsmc in terms of performance/$ hätte das keinen merkbaren einfluss auf die kosten der grafikkarte. sozusagen statt 1300€ eben 1270€ oder so. 8nm könnte uns aber vor lieferenpässen schützen, weil es sonst nicht genügend kapazitäten gibt.

maximus_hertus
2020-08-12, 17:22:54
Damit würde NV die Käufer direkt in die Arme von AMD treiben

Nein, AMD spielt bei sehr vielen gar keine Rolle. Selbst wenn Navi schneller als die schnellste nV ist, weniger Verbraucht und auch noch günstiger wäre, so würde es keine großen Änderungen bei den Marktanteilen geben.

AMD war viel zu lange irrelevant im High End Bereich. Sie müssen erstmal mehrere Generationen lang wieder liefern und zeigen, dass sie auf dem nV Niveau sind. Erst dann würde es für nV "gefährlich" werden.

Aktuell spricht man nicht von Grafikkarte oder GPU (beim Rechnerkauf), sondern von "welche Geforce darf es sein?". Geforce als Synonym für (Gaming)Grafikkarte. Das geht nicht so schnell wieder weg.

Alex1973
2020-08-12, 17:35:22
:tongue:Nein, AMD spielt bei sehr vielen gar keine Rolle. Selbst wenn Navi schneller als die schnellste nV ist, weniger Verbraucht und auch noch günstiger wäre, so würde es keine großen Änderungen bei den Marktanteilen geben.

AMD war viel zu lange irrelevant im High End Bereich. Sie müssen erstmal mehrere Generationen lang wieder liefern und zeigen, dass sie auf dem nV Niveau sind. Erst dann würde es für nV "gefährlich" werden.

Aktuell spricht man nicht von Grafikkarte oder GPU (beim Rechnerkauf), sondern von "welche Geforce darf es sein?". Geforce als Synonym für (Gaming)Grafikkarte. Das geht nicht so schnell wieder weg.

:freak: Auch NV war schon mal irrelevant und wurde wieder relevant, auch wenn du dich nicht mehr dran erinnern kannst oder willst, und wird mal wieder irrelevant möglicherweise wiederholt sich das noch paar mal.
Es ist nichts in Stein gemeißelt , wie Einstein sagt alles ist Relativ.:tongue:

[MK2]Mythos
2020-08-12, 17:37:21
Nein, AMD spielt bei sehr vielen gar keine Rolle. Selbst wenn Navi schneller als die schnellste nV ist, weniger Verbraucht und auch noch günstiger wäre, so würde es keine großen Änderungen bei den Marktanteilen geben.

AMD war viel zu lange irrelevant im High End Bereich. Sie müssen erstmal mehrere Generationen lang wieder liefern und zeigen, dass sie auf dem nV Niveau sind. Erst dann würde es für nV "gefährlich" werden.

Aktuell spricht man nicht von Grafikkarte oder GPU (beim Rechnerkauf), sondern von "welche Geforce darf es sein?". Geforce als Synonym für (Gaming)Grafikkarte. Das geht nicht so schnell wieder weg.
Das entspricht einfach nicht der Wahrheit. Auch wenn das deine persönliche Wahrnehmung ist. Die Marktanteile zeigen das auch.

igg
2020-08-12, 17:41:42
Mythos;12390032']Das entspricht einfach nicht der Wahrheit. Auch wenn das deine persönliche Wahrnehmung ist. Die Marktanteile zeigen das auch.
Ich kaufe nach unzähligen "unsere Treiber waren früher mal schlecht, aber jetzt sind sie gut" Reinfällen zwar nur noch grüne GPUs, in diesem Punkt hast du allerdings Recht. Mit der aktuellen Generation hat AMD sehr überzeugt. Unterhalb der GTX 2080 spricht viel für AMD Produkte.

y33H@
2020-08-12, 17:44:34
Abseits von den neuen Karten würde mich schon freuen, wenn DLSS/RTX nicht immer so hoch gelobt würden, sondern auch mal kritisch hinterfragt, warum nativ in solchen Spielen immer so beschissen aussehen muss (Unschärfe, Schatten manchmal vergessen zu berechnen,...). Auch wenn es hier manche nicht hören wollen, es hat den Anschein, dass mit RTX/DLSS bei den Devs die ganzen Tricks der letzten Jahre vergessen haben.

Titel wie Wolfenstein Youngblood haben mit TSSAA 8x eine sehr gute temporale Glättung, die DLSS 2.0 nicht durchweg überbietet. Auch das TAA von Control hat kann teils mit DLSS 2.0 nicht mithalten ... per se sind die TAA Modi in DLSS Titeln keinesfalls schlecht.

Linmoum
2020-08-12, 17:50:34
Selbst wenn Navi schneller als die schnellste nV ist, weniger Verbraucht und auch noch günstiger wäre, so würde es keine großen Änderungen bei den Marktanteilen geben.Es hat seinen Grund, warum Hersteller selbst für die letzten 2% noch mal das letzte bisschen rausquetschen - um den längsten Balken zu haben. Genau der ist relevant und zwar vollkommen Herstellerunabhängig.

maximus_hertus
2020-08-12, 17:55:10
Mythos;12390032']Das entspricht einfach nicht der Wahrheit. Auch wenn das deine persönliche Wahrnehmung ist. Die Marktanteile zeigen das auch.

Schaue dich bei den Notebooks um oder im High End Desktop Markt. AMD ist fast nicht zu sehen. Selbst im mittleren Preisrahmen gibt es viel mehr Rechner mit nV Karten.

Natürlich gibt es Bereiche, in denen AMD paar mehr KArten verkauft, siehe Mining. Die RX 5700 war ein erster, kleiner Schritt in die richtige Richtung, aber es fehlt immer noch eine High End Karte.

Seit 2 JAhren(!) gibt es folgende nV KArten, die von AMD NICHT geschlagen werden können: Titan, 2080 Ti, 2080. Dazu kommt noch die 2080S und bei der 2070S kann die VII gleichziehen, aber schafft es nicht mehr oder weniger durchgehend vorbeizuziehen.

Machen wir uns nichts vor, selbst 1000 Euro für eine Geforce ist nicht wirklich teuer. Es gibt so viele potentielle Käufer, die diese und möglicherweise noch höhere Preise zahlen (werden), da muss sich nV keine zu großen Sorgen machen.

Last, but not least: AMD kann nicht über Nacht x Millionen zusätzlicher Chips produzieren. Siehe Renoir. Man hat ein Top Produkt, ist aber limitiert bei den lieferbaren Stückzahlen.

BlacKi
2020-08-12, 18:01:29
ich kenne auch zig leute die sich niemals eine amd karte kaufen würden.
genaugenommen eigentlich alle, ich kenne auch keinen der eine amd karte im system hat. ich hab mir da noch nie gedanken drüber gemacht, aber is einfach so. da sind sogar einige leute im 300-500€ segment dabei, wo amds karten eine alternative, manchmal auch die bessere alternative ist.

aber warum sind wir wieder so OT?^^

rentex
2020-08-12, 18:03:40
Weil es immer noch keine Gewissheit gibt.

Sweepi
2020-08-12, 19:02:01
Schaue dich bei den Notebooks um oder im High End Desktop Markt. AMD ist fast nicht zu sehen
Stating the obvious. AMD hat keine HighEnd Produkte und bis zum Release der RX 5xxx deutlich schlechtere Performance/Watt, dadurch hatte man bei den NBs keine Chance.

pixeljetstream
2020-08-12, 19:07:02
Lösch mich

MiamiNice
2020-08-13, 02:55:26
Ich kann mir beim besten willen nicht vorstellen das es so kommt wie derzeit spekuliert. Keine Enthusiast Karte ... wir sprechen hier über NV. Da sitzen doch keine Nappels, die wissen genau wie der Hase läuft. Das wäre ein Eingeständnis von total verkalkuliert, das wird doch Lederjacke nicht wirklich auf der Bühne verkünden wollen. Ich tippe auf Nebelkerzen. Oder die Titan ist keine Titan, sondern die 3080TI. Ich kann mir das wirklich null vorstellen. Das wäre ein regelrecht ein Desaster, dann könnnte NV besser gar nichts bringen und erst mit dem 7nm Refresh kommen, dann würde man wenigstens das Gesicht wahren.

OgrEGT
2020-08-13, 07:11:02
Den Gerüchten nach basieren doch alle 3 SKUs auf GA102. Die Titan mit 24GB die 3090/3080Ti mit 20GB und die 3080 mit 10GB. Ist doch auch nicht viel anders wie bisher... nur dass die x080 SKU nun auch den 102er Chip nutzt...

NC
2020-08-13, 07:40:52
Ich kann mir beim besten willen nicht vorstellen das es so kommt wie derzeit spekuliert. Keine Enthusiast Karte ... wir sprechen hier über NV. Da sitzen doch keine Nappels, die wissen genau wie der Hase läuft. Das wäre ein Eingeständnis von total verkalkuliert, das wird doch Lederjacke nicht wirklich auf der Bühne verkünden wollen. Ich tippe auf Nebelkerzen. Oder die Titan ist keine Titan, sondern die 3080TI. Ich kann mir das wirklich null vorstellen. Das wäre ein regelrecht ein Desaster, dann könnnte NV besser gar nichts bringen und erst mit dem 7nm Refresh kommen, dann würde man wenigstens das Gesicht wahren.
Früher kamen die Ti einige Zeit nach dem Marktstart einer neuen Generation, wenn alle Enthusiast sich schonmal das vorherige top Model gekauft haben. Ein premium-Enthusiast Produkt gleich von Anfang an zu bringen schadet nur, denn ein Enthusiast kauft nicht das "zweit beste", aber der Premium Preis einer Ti ist manchen zuviel ("die wissen genau wie der Hase läuft"), weswegen es nur Sinn macht, eine Enthusiast Version ala 3090 zu bringen die 899 oder 999 kostet, die sich alle Enthusiast auch leisten können. Für die, die garnicht auf Geld achten müssen, gibt es dann, nach einem Jahr, eine 3090Ti als Upgrademöglichkeit (oder wenn AMD tewas konkurenfähiges zur 3090 bringt).

OgrEGT
2020-08-13, 07:48:34
Früher kamen die Ti einige Zeit nach dem Marktstart einer neuen Generation, wenn alle Enthusiast sich schonmal das vorherige top Model gekauft haben. Ein premium-Enthusiast Produkt gleich von Anfang an zu bringen schadet nur, denn ein Enthusiast kauft nicht das "zweit beste", aber der Premium Preis einer Ti ist manchen zuviel ("die wissen genau wie der Hase läuft"), weswegen es nur Sinn macht, eine Enthusiast Version ala 3090 zu bringen die 899 oder 999 kostet, die sich alle Enthusiast auch leisten können. Für die, die garnicht auf Geld achten müssen, gibt es dann, nach einem Jahr, eine 3090Ti als Upgrademöglichkeit (oder wenn AMD tewas konkurenfähiges zur 3090 bringt).

Die Frage ist wie das Enthusiasten Segment definiert wird. Seitdem es Titan Karten gibt kann eine Ti eigentlich kein Enthusiast Produkt mehr sein... es sei denn Enthusiast wird nochmal segmentiert...

Linmoum
2020-08-13, 07:53:07
NV wird auch diesmal den fast-Vollausbau vom Start weg bringen (müssen), sofern die kolportierten Daten stimmen. Bei Turing war's wegen der ansonsten schon nochmals groteskeren RT-Performance und diesmal, weil die 3080 nur genauso viele Shader wie die 2080Ti hat und dabei sogar (auch) mit 1GiB weniger Speicher daherkommen wird. Dafür rüstet niemand auf, egal ob von einer 2080(S), 2080Ti oder Titan RTX. Kann man selbst die 1080Ti und Titan Xp dazuzählen. Und das ist halt der Käuferkreis, der auch hohe Preise für Performance bereit ist zu zahlen.

mironicus
2020-08-13, 08:02:31
ich kenne auch zig leute die sich niemals eine amd karte kaufen würden.

Bei den CPUs war das vor kurzem auch noch so...

Thunder99
2020-08-13, 08:12:10
Wie damals, Back to the roots :cool: (Fermi)

Wenn sie aber beim 80er den 102er Chip nutzen, dann sollte ja mehr Bums dahinter sein damit der Abstand wieder passt. Bleibt also spannend wie schnell sie wirklich werden, unabhängig der RAM Menge.

OgrEGT
2020-08-13, 08:23:28
Wie damals, Back to the roots :cool: (Fermi)

Wenn sie aber beim 80er den 102er Chip nutzen, dann sollte ja mehr Bums dahinter sein damit der Abstand wieder passt. Bleibt also spannend wie schnell sie wirklich werden, unabhängig der RAM Menge.

Die Frage ist wieviel mehr Leistung eine Ampere CU vs Turing CU hat... oder wieviel mehr IPC kann man aus einem schon sehr effizienten Design herausholen und wie man es schafft die Leistung über noch mehr CUs zu skalieren...

NC
2020-08-13, 08:41:51
Die Frage ist wieviel mehr Leistung eine Ampere CU vs Turing CU hat... oder wieviel mehr IPC kann man aus einem schon sehr effizienten Design herausholen und wie man es schafft die Leistung über noch mehr CUs zu skalieren...
Am schlechtesten skaliert eigentlich immer der Speicher, von daher hoffe ich, dass NVidias "Compute Data Compression" auch im bei uns Spielern landet.
Das verbessert nicht explizit die IPC des SM, aber er pausiert vielleicht seltener.

prinz_valium_2
2020-08-13, 09:17:03
Da könnte eine 3080 Ausnahmsweise mal wieder interessant werden, wenn der Preis passt.

boxleitnerb
2020-08-13, 09:37:11
Woran liegt es eigentlich, dass die Anzahl der Recheneinheiten seit Jahren fast stagniert?

Kepler: 2880 (2014) bzw. 2688 (2013)
Maxwell: 3072
Pascal: 3840
Volta: 5120
Turing: 4608
Ampere: 5376 (vermutlich)

Im Endeffekt haben wir gerade mal eine Verdopplung seit 2013 erreicht (zumindest bei Gaming-GPUs). Klar, die Performance ist trotzdem weiter gestiegen durch IPC-Gewinne und Takt, aber es ist schon auffällig.

Auch ist der Sprung von Fermi zu Kepler auffällig. Ich habe bis heute nicht so ganz verstanden, wo die theoretische Shaderleistung (Wegfall Hotclock, Verdopplung GTX680 vs 580) verpufft. Kann man hier irgendwelche Erkenntnisse auf die aktuellen GPUs übertragen?

Fragman
2020-08-13, 09:44:06
Nach der 580 wurden die Shader doch komplett umgebaut. Die technischen Details dazu kenn ich nicht mehr, aber das hatte Gründe. Deshalb kann man ja die Shader nicht mehr vergleichen. Und die Anzahl ist doch egal, wichtig ist was am Ende raus kommt.

Timbaloo
2020-08-13, 09:50:57
Fermi -> Hotclock, Kepler -> Coolclock

ChaosTM
2020-08-13, 10:04:18
daher kam auch der liebevolle Beiname "Thermi"

unl34shed
2020-08-13, 10:04:58
Die Packdichte steigt mittlerweile pro Node auch nicht mehr so stark wie früher, daher bekommt man nicht mehr so eine große Steigerung hin. Auch skalieren mehr CUs in großen Mengen nicht mehr linear

NC
2020-08-13, 10:07:24
Die Frage ist wie das Enthusiasten Segment definiert wird. Seitdem es Titan Karten gibt kann eine Ti eigentlich kein Enthusiast Produkt mehr sein... es sei denn Enthusiast wird nochmal segmentiert...
Das könnten wir eigentlich auch über Quadro sagen. Aber NVidia kann gut Segmente suggerieren. Im einfachsten Fall, wie bei Quadro, durch Treiber.
Bei "Titan" durch "double/DP" performance und jetzt der überdimensionierte RAM, das bringt nicht viel beim Spielen für den n-fachen Preis. (Die beste "Enthusiast Titan" wäre vermutlich Titan V gewesen, da sie wirklich 20%-30% mehr Leistung in Spielen bot, aber gegenüber einer 650Euro 1080Ti waren die >3000Euro einfach absurd, also auch super Segmentierung von NVidias Marketing, die Titan RTX ist immerhin billiger.)

Von daher denke ich, alles darunter, also *080(TI/S) sind dann für Gaming-Enthusiast, wo du dann auch 20 verschiedene Versionen bekommst (LEDs,Water cooled, Overclocked, Blower,...). Und ein Enthusiast will das Gefühl das beste gekauft zu haben. Und es geht rein um das Gefühl und das liegt dann nicht in den Händen der Techniker bei NVidia, sondern beim Marketing, und deswegen die 20 Versionen, um:
es sei denn Enthusiast wird nochmal segmentiert.
(Das soll nicht abwertend klingen, sondern eher Bildlich)
Pragmatischer Enthusiast: billigste
Instagram Enthusiast: LED
Enthusiast Enthusiast: Overclocked Watercooled Republic of Pro
Effective Enthusiast: Informiert sich in jedem "HW Magazine", zahlt 50 mehr, um das beste raus zu bekommen
Effective Enthusiast ohne Zeit: Founder Edition

Du hast das bei Titans und Quadros nicht, die wenigsten kaufen diese wegen dem "Gefühl", sondern weil sie die tatsächlich brauchen, z.B. beruflich.

ChaosTM
2020-08-13, 10:13:50
Da sind die besten Spannen drin. Muss man schon richtig abkassieren. Es gibt eine kleine Schicht, die bereit sind echt alles zu zahlen. Der Uber-Entusiast mit mehr Geld als Verstand.
Die erreicht man auch mit einem Super Überteuerten Ding - muss man fast machen aus kaufmännischer Sicht ;)

Das hat NV aus den letzten Launch gelernt ..


add:
Die Marketing Abteilung hat das sicher so ähnlich wie es NC gezeigt hat segmentiert, ja

Timbaloo
2020-08-13, 10:16:51
daher kam auch der liebevolle Beiname "Thermi"
Wobei "Thermi" 1 (also 4xx Serie) irgendwo kaputt war, mit "Thermi" 2 (also 5xx Serie) war es schon nicht mehr so Düster was Performance/Watt anging.

Troyan
2020-08-13, 10:22:12
Die Packdichte steigt mittlerweile pro Node auch nicht mehr so stark wie früher, daher bekommt man nicht mehr so eine große Steigerung hin. Auch skalieren mehr CUs in großen Mengen nicht mehr linear

Richtig. Nur 2,6x mehr Transistors von 16nm auf 7nm. Da steigt die Packdichte wirklich nicht. ;D

NC
2020-08-13, 10:24:12
Woran liegt es eigentlich, dass die Anzahl der Recheneinheiten seit Jahren fast stagniert? Weil der Wert nur als Vergleich innerhalb einer Generation wirklich von Wert ist, genau wie die Frequenz. Wieso haben wir seit der Geforce 8800 (1500Mhz) soeine stagnation in der Frequenz (2080Ti 1550Mhz)?
Mehr Recheneinheiten bedeuten eigentlich eher weniger effizienz, da du sie schlechter ausgeglichen auslasten kannst, von daher verucht NVidia natürlich vor allem die Leistung zu steigern, dabei sind die Einheiten, Frequenzen, Cache Sizes usw. nur mittel zum Zweck. Gerade bei NVidia sieht man auch, dass sie sich nicht scheuen auch mal etwas weg zu schneiden, wenn sie dadurch woanders mehr Transistoren haben. (z.B. der ausgebaute Instruction Scheduler von Fermi).

Du kannst besser sehen wie die Leistung skaliert anhand der TFlops (Obwohl die auch nicht wirklich viel Aussagekraft haben, zeigen sie dennoch, dass die Leistung nicht stagniert).
Fermi: 1.5 TF
Kepler: 3.0 TF
Maxwell: 5.5 TF
Pascal: 11.5 TF
Turing: 14 TF
(Das ist alles aus dem Kopf, habt Gnade wenn das nicht 100% richtig ist.)

MiamiNice
2020-08-13, 10:34:43
Fermi: 1.5 TF
Kepler: 3.0 TF
Maxwell: 5.5 TF
Pascal: 11.5 TF
Turing: 14 TF

Da sieht man doch schön wie daneben Turing ist.
Und wenn da für Ampere was unter 20 raus kommt :mad:
Da kann man sich den Kauf doch direkt sparen.

ChaosTM
2020-08-13, 10:39:27
Dafür hat Turing ein paar GJigga-rays ;)

NV wird zukünftig immer mehr in RTX investieren. Um auch mittel und langfristig relevant zu bleiben, braucht man ein "Alleinstellungsmerkmal"*, das so schnell von keiner Apu vernünftig verwendbar ist.
Sachen wie Renoir zeigen wo die Reise hingeht und das mag NV natürlich nicht.


* etwas das es schwerer macht in eine APU verpackt zu werden

Timbaloo
2020-08-13, 10:53:53
RT wird kein Alleinstellungsmerkmal sein.

Zergra
2020-08-13, 10:56:46
Sachen wie Renoir zeigen wo die Reise hingeht und das mag NV natürlich nicht.
Wie bitte ? Renoir zeigt in richtig GPU nur das die GPU Leistung bei APUs in Zukunft nur für Office interessant ist.

Der Unterschied dürfte in den nächsten Jahren nur größer werden.

Pascal2508
2020-08-13, 10:59:49
"eclipso" hat im PCGH Forum folgenden Link für ein Patent seitens NVIDIA verlinkt, welches laut ihm etwas mit der 21 und Ampere zu tun haben könnte: ROBUST, EFFICIENT MULTIPROCESSOR-COPROCESSOR INTERFACE - NVIDIA Corporation (http://www.freepatentsonline.com/y2020/0050451.html)

ChaosTM
2020-08-13, 11:04:37
Doch ein Co-Prozessor ? :D

Pfuscher
2020-08-13, 11:05:59
Konsole: Wir geben euch im Dezember ganz tolle 12gb Ram (16 minus 4 für OS)
Nvidia: 24gb schon früher, bis zum Konsolen refresh, den kaum einer kauft 48 und bis zur PS6 nahe der 128. Dazu gibts dann noch System Ram x2 und SSDs werden auch nicht langsamer.
:-) ;-) :-D
"Ps5: Aber wir haben doch jetzt so eine dolle ssd die alles berechnet. OS, Spiele, Vr, die dolle SSD berechnet einfach alles" *facepalm*
Xbox: Schweigen
Ist ja nicht so, dass der Pc jetzt schon 10 Jahre SSDs im Massenmarkt hatte.

Thunderburne
2020-08-13, 11:07:45
https://videocardz.com/newz/nvidia-geforce-rtx-30-ga102-series-pcb-to-feature-over-20-chokes

Linmoum
2020-08-13, 11:12:34
Hot Tamperetures.

Edit:It's fake. actually, the core frequency is not really high, maybe 1.7GHz.
https://twitter.com/kopite7kimi/status/1293839452356272130

Das wäre irgendwie schon arg wenig. Andererseits könnte das natürlich auch an Samsungs 8nm liegen.

Alex1973
2020-08-13, 11:26:24
Komisch ist vor allem aber, obwohl es bei PC Grafikkarten Murphy’s Law seit mehr als 7 Jahren nicht mehr zieht, bei Konsolen, 7 Jahre Zyklus, man aber keinen Unterschied zu Früher sieht.
Xbox on zu Xbox Series x 1,31 zu 12,1 Terraflops plus 30% -40% effizientere Architektur. Das ergibt 12 mal schneller, früher war es sicher auch nicht mehr.:rolleyes:
Faktisch hat sich für Konsolen-Hersteller nichts wesentlich verändert zu haben im Bezug auf fortdauernde Hardware-Entwicklung.
Man könnte somit konstatieren, dass der Fortschritt in diesem Bereich nicht abgenommen hat, wenn man in größeren zeitlichen Maßstäben misst.

Zergra
2020-08-13, 11:40:26
Hot Tamperetures.

Edit:
https://twitter.com/kopite7kimi/status/1293839452356272130

Das wäre irgendwie schon arg wenig. Andererseits könnte das natürlich auch an Samsungs 8nm liegen.


Der große Chip wäre perfekt für eine Wasserkühlung.

ChaosTM
2020-08-13, 11:42:55
Nvidia presents: Thermi the next level - we call it AMPERE* !

*350+ watts for your Gaming pleasure

Entweder ist es die Fertigung und/oder sie gehen auf Nummer sicher und quetschen alles raus.

Troyan
2020-08-13, 11:51:25
Oder es ist alles fake.

Alex1973
2020-08-13, 11:53:17
Komisch ist vor allem aber, obwohl es bei PC Grafikkarten Murphy’s Law seit mehr als 7 Jahren nicht mehr zieht, bei Konsolen, 7 Jahre Zyklus, man aber keinen Unterschied zu Früher sieht.
Xbox on zu Xbox Series x 1,31 zu 12,1 Terraflops plus 30% -40% effizientere Architektur. Das ergibt 12 mal schneller, früher war es sicher auch nicht mehr.:rolleyes:
Faktisch hat sich für Konsolen-Hersteller nichts wesentlich verändert zu haben im Bezug auf fortdauernde Hardware-Entwicklung.
Man könnte somit konstatieren, dass der Fortschritt in diesem Bereich nicht abgenommen hat, wenn man in größeren zeitlichen Maßstäben misst, wohl aber die Wahrnehmung beim Kauf neuer Grakas. Man kauft öfters, ist mit weniger zufrieden und hat tausend Entschuldigungen dafür aus dem Internet. Es ist die Verkaufs-Politik der großen Player hier, die sich wirklich geändert hat sonst nichts.

Linmoum
2020-08-13, 11:54:10
Oder es ist alles fake.Möglich, passt aber bisher alles zu den doch einheitlichen Gerüchten von verschiedenen Leakern/Quellen, die dann doch mehr sind als nur die Hornschen Insider.

Troyan
2020-08-13, 12:07:32
Der Twittertyp? Meh. Der müsste doch längst alles leaken können.

Sweepi
2020-08-13, 12:13:30
....

本帖最后由 丝露花雨 于 2020-8-13 15:00 编辑


前情概要:https://www.chiphell.com/thread-2251389-1-1.html
我觉得吴舅妈这次的爆料也太...............................可能也是正常事了?

1、所谓的24/20GB 384/320-bit
只对了一点。
1)3090是24GB这个没问题,推上KatCorgi也确认
2)显存的话为了高速是不会采用16Gbit的颗粒的,这次是双面2Rx32的规格,正反共24颗
2、3080跟3090虽然用的同一核心,但3080貌似是重新打样的PCB,而非3090砍两个颗粒做出来的
3、顺便说下,3090的这个颗粒排列很有意思,有一个颗粒放到下面去了,学习农企?
4、这次公版的供电豪华程度难以想象,或者说散热压力难以想象...NVIDIA SMX那种卡的供电密度你们都懂,这次势必要做的密密麻麻的了,一个圆柱体固态电容都没有,取而代之的全都是贴片电容/钽电容
5、异不异形的PCB我反正不知道,但NV这个PCB布局功底说实话

比苏妈的HBM系卡强多了

This post was last edited by Silhouette on 2020-8-13 15:00


Previous summary: https://www.chiphell.com/thread-2251389-1-1.html
I think Aunt Wu's scoop this time is too.......... Maybe it's normal too?

1. So-called 24/20GB 384/320-bit
Only right on one point.
1) 3090 is 24GB this is fine, pushing up KatCorgi also confirmed
(2) then in order to high-speed video memory is not used 16Gbit particles, this is a double-sided 2Rx32 specifications, positive and negative a total of 24 stars!
2, 3080 and 3090, although using the same core, but 3080 seems to be to re-sample the PCB, rather than 3090 cut two particles made out of the
3, by the way, 3090 is an interesting arrangement of this particle, there is a particle put to the bottom, learning agribusiness?
4, this time the public version of the power supply luxury is unimaginable, or cooling pressure is unimaginable.... NVIDIA SMX kind of card power supply density you all understand, this time is bound to do a dense, a cylinder solid capacitors are not, instead of all the chip capacitors / tantalum capacitors.
5, is not a shaped PCB I do not know anyway, but NV this PCB layout merit to be honest!

It's better than Mrs. Sue's HBM card.

Translated with www.DeepL.com/Translator (free version)

This post was last edited by 丝露花雨 at 2020-8-13 15:00


Summary of the previous situation: https://www.chiphell.com/thread-2251389-1-1.html
I think Aunt Wu’s revelation this time is too...maybe it's normal?

1. The so-called 24/20GB 384/320-bit
Only a little bit right.
1) 3090 is 24GB, it’s no problem, and it’s confirmed by pushing KatCorgi
2) 16Gbit particles will not be used for high-speed video memory. This time it is a double-sided 2Rx32 specification, with a total of 24 front and back.
2. Although 3080 and 3090 use the same core, 3080 seems to be a re-proofed PCB, not 3090 cut two particles.
3. By the way, the arrangement of the particles of 3090 is very interesting. One of the particles is put underneath. Learn about agricultural enterprises?
4. The luxury of the power supply of this public version is unimaginable, or the heat dissipation pressure is unimaginable... You all know the power supply density of NVIDIA SMX cards. This time it is bound to be densely packed. A cylindrical solid capacitor is No, all replaced by chip capacitors/tantalum capacitors
5. I don’t know the different PCBs, but the PCB layout skills of NV are honest.

Much better than Su Ma's HBM card

Leonidas
2020-08-13, 12:15:01
steht denn das fest? warum nicht einen 256bit bus an die kleineren hängen? ich meine, immerhin besser und billiger als 12gb. da kann man dann bei 256bit wenigstens langsamen billig ram verbauen.


Nein, steht nicht fest. Aber bislang stimmte Kimis Spec-Liste von anno Mai 2019:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-mai-2020




Woran liegt es eigentlich, dass die Anzahl der Recheneinheiten seit Jahren fast stagniert?


Die pure Steigerung der Recheneinheiten ist wenig effektiv. NV hat lieber in Effizienz pro Recheneinheit investiert.

Edgecrusher86
2020-08-13, 12:32:27
Hot Tamperetures.

Edit:
https://twitter.com/kopite7kimi/status/1293839452356272130

Das wäre irgendwie schon arg wenig. Andererseits könnte das natürlich auch an Samsungs 8nm liegen.

Vielleicht auch 1,7 GHz Baseclock - dann ergeben die 1,935 GHz (Boost), die man im 3DM sah vielleicht Sinn.

E: Ja, grobe 18-20 TF/s FP32 dürfte die dicke Karte wohl haben.
GP102 lief ja in der Praxis stock eher mit um die 1,8 GHz (~ 12,9 - 13,8 TF/s), TU102 bei zumeist 1,7-1,8 GHz (~ 14,8 - 16,6 TF/s) jeweils als FE mit 250W-260W-280W PT.
In Anbetracht an die grob 20% mehr Rohleistung, sind die 35-40% Mehrleistung im Mittel [4K] doch gar nicht einmal schlecht. Ampere sollte ähnliches schaffen -
also zum Beispiel aus 25-30% mehr Rohleistung im Vergleich zu Turing 40-50% Mehrleistung generieren.

Damit wir uns nicht falsch verstehen: Ich hätte das Ganze auch lieber zumindest mit 6144SP/96SM und bei 2,1-2,2 GHz (~ 25,8 - 27 TF/s); also nochmals etwa + 33-40% Rohleistung.
Dann läge der Sprung auf TU wohl wenigstens um nochmals 20-30% höher. So ein Paket in 300-350W hätte aber wohl 7nm EUV bedurft und NV sich wohl eher dazu durchgerungen,
wenn der Release erst in Q3/2021 geplant gewesen wäre - für halbwegs passable Yield-Raten. ;)

basix
2020-08-13, 12:54:18
Es gibt ja Gerüchte zu doppelten FP32 Einheiten.

Idee:
GA100 unterstützt TF32 und IEEE compliant FP64 via Tensor Cores. Für GA102 und seine kleineren Geschwister würde man das auf FP32 reduzieren und voilà man hätte doppelte FP32-Leistung auf dem Papier (nur Tensor Cores). Wäre zumindest die sinnvollste Erklärung für doppelte FP32 Einheiten. Bei halb so vielen Tensor Cores pro SM und nur FP32 anstatt FP64 Präzision würde das genau hinkommen (ca. 20 TFLOPs via Cuda Cores, ca. 20 TFLOPs via Tensor). Und wäre erst noch eine sinnvolle Konfiguration der Gamer-Amperes verglichen mit GA100.

Und was das bezüglich DLSS und Ratracing bedeuten könnte:

ca. 3x Tensor Core Performance verglichen zu Turing. Damit würde DLSS 2.0 @ 4K auf GA102 nur noch 0.5ms in Anspruch nehmen. Bei 100fps würde man damit +5% Performance gewinnen. Oder man kann entsprechend komplexere DNN anwenden (DLSS 3.0). (Link (https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/52797-gtc20-nvidia-erlaeutert-dlss-2-0-im-detail.html#:~:text=NVIDIA%20GTC20:%20DLSS%202.0))
Raytracing ist anscheinend zum grossen Teil FP32 limitiert (neben Speicherlatenzen etc.). Wenn man nun Denoising und anderes auf die Tensor Cores auslagern kann (parallel zu normalen CUDA Cores rechnend), könnte man damit Raytracing faktisch kostenlos erreichen. Wie kann das sein? Sagen wir mal 30% des Rechenbudgets geht nur für Raytracing drauf. Jetzt lagert man das auf die Tensor Cores aus. Nun erreicht man die selben FPS wie ohne Raytracing (ca. 1.5x) und die Tensor Cores werden parallel zu ca. 50% ausgelastet (30% * 1.5). Das wird in Realität nicht perfekt aufgehen, da man niemals alles parallel rechnen kann. Aber es könnte nah dran an kostenlos sein.


Dann machen die 350W auch mehr Sinn, wenn nun parallel auch die Tensor Cores mitbeansprucht würden ;)

ChaosTM
2020-08-13, 12:55:55
Mit dem kostenlosen Raytracing kann man sich dann seine virtuellen Einhörnern rendern ^

Pascal2508
2020-08-13, 13:00:00
Es gibt ja Gerüchte zu doppelten FP32 Einheiten.

Idee:
GA100 unterstützt TF32 und IEEE compliant FP64 via Tensor Cores. Für GA102 und seine kleineren Geschwister würde man das auf FP32 reduzieren und voilà man hätte doppelte FP32-Leistung auf dem Papier (nur Tensor Cores). Wäre zumindest die sinnvollste Erklärung für doppelte FP32 Einheiten. Bei halb so vielen Tensor Cores pro SM und nur FP32 anstatt FP64 Präzision würde das genau hinkommen (ca. 20 TFLOPs via Cuda Cores, ca. 20 TFLOPs via Tensor). Und wäre erst noch eine sinnvolle Konfiguration der Gamer-Amperes verglichen mit GA100.

Und was das bezüglich DLSS und Ratracing bedeuten könnte:

ca. 3x Tensor Core Performance verglichen zu Turing. Damit würde DLSS 2.0 @ 4K auf GA102 nur noch 0.5ms in Anspruch nehmen. Bei 100fps würde man damit +5% Performance gewinnen. Oder man kann entsprechend komplexere DNN anwenden (DLSS 3.0). (Link (https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/52797-gtc20-nvidia-erlaeutert-dlss-2-0-im-detail.html#:~:text=NVIDIA%20GTC20:%20DLSS%202.0))
Raytracing ist anscheinend zum grossen Teil FP32 limitiert (neben Speicherlatenzen etc.). Wenn man nun Denoising und anderes auf die Tensor Cores auslagern kann (parallel zu normalen CUDA Cores rechnend), könnte man damit Raytracing faktisch kostenlos erreichen. Wie kann das sein? Sagen wir mal 30% des Rechenbudgets geht nur für Raytracing drauf. Jetzt lagert man das auf die Tensor Cores aus. Nun erreicht man die selben FPS wie ohne Raytracing (ca. 1.5x) und die Tensor Cores werden parallel zu ca. 50% ausgelastet (30% * 1.5). Das wird in Realität nicht perfekt aufgehen, da man niemals alles parallel rechnen kann. Aber es könnte nah dran an kostenlos sein.


Dann machen die 350W auch mehr Sinn, wenn nun parallel auch die Tensor Cores mitbeansprucht würden ;)
Macht schon um einiges mehr Sinn als alles andere. Dann war die Karte im 3dMark Extreme vllt. eine 3070 :biggrin:

MiamiNice
2020-08-13, 13:20:47
Bei so einer Nummer musste sich aber NV aktuell nicht so gewaltig strecken. Speicher der 3080 und das sehr nahe Release Datum deuten darauf hin das NV in AMD eine Gefahr sieht und möglichst viele Karten vorm Navi Release verticken will. Hätten sie mit so einer Performance nicht nötig, da würde AMD niemals rankommen mit Navi.

basix
2020-08-13, 13:25:48
Wir wissen absolut Null über Navi und Raytracing-Performance. Und auch in Zukunft wird es viele Spiele ohne Raytracing geben. Ausserdem: 16GB sehen grösser als 12GB auf der Packung aus. Jemand der keine Ahnung hat nimmt die mit mehr Speicher ;) Es geht ja nur darum, dass Nvidia die Option zu mehr Speicher bietet. Dann kann jeder selbst entscheiden und ist dann auch selbst schuld, wenn der Speicher nicht mehr reicht.

TheAntitheist
2020-08-13, 13:30:07
Mit dem kostenlosen Raytracing kann man sich dann seine virtuellen Einhörnern rendern ^
Kostenloses Raytracing ist halt auch so ein quatsch. Die werden natürlich mehr rays raus ballern und das wars. Wir bräuchten 1000x mehr Leistung, dann hast du wirklich genug.

Linmoum
2020-08-13, 13:30:39
Wir wissen absolut Null über Navi und Raytracing-Performance. Und auch in Zukunft wird es viele Spiele ohne Raytracing geben. Ausserdem: 16GB sehen grösser als 12GB auf der Packung aus. Jemand der keine Ahnung hat nimmt die mit mehr Speicher Es geht ja nur darum, dass Nvidia die Option zu mehr Speicher bietet. Dann kann jeder selbst entscheiden und ist dann auch selbst schuld, wenn der Speicher nicht mehr reicht.
Glaubst du denn, dass jemand, der keine Ahnung hat, auch einen sehr hohen dreistelligen oder gar vierstelligen Betrag für GPUs ausgibt? :freak: Gerade da treiben sich doch diejenigen rum, die was von Hardware kapieren.

TurricanM3
2020-08-13, 13:31:41
Weil oben schon auf Kondensatoren eingegangen wurde:
Hat schon irgendwer irgendwo was zum Thema Spulen gelesen oder mitbekommen? Wird auf den Standardkarten wieder der gleicher Schrott verbaut wie bei der 2000er Serie?
Bin von den Magic Spulen ziemlich verwöhnt und würde mich da ungern verschlechtern.

basix
2020-08-13, 13:39:47
Kostenloses Raytracing ist halt auch so ein quatsch. Die werden natürlich mehr rays raus ballern und das wars. Wir bräuchten 1000x mehr Leistung, dann hast du wirklich genug.

Hast du meinen Post überhaupt gelesen und verstanden? "Kostenlos" wäre es nur im Sinne der heutigen Spiele mit Raytracing mit 30-40% Performance Hit verglichen ohne Raytracing. Sobald du deutlich mehr Rays nutzt, läuft es auf max. 2x schneller als ohne Tensor Cores hinaus. Aber auch 2x Performance wäre ein riesen Sprung.

Da Spiele aber noch sehr lange Hybriden aus Rasterizing und Raytracing sein werden, ist eine z.B. 90% Raytracing / 10% Raster Aufteilung höchst unwahrscheinlich. Auch 50/50 ist schon eher viel, aber genau letzterer Fall könnte noch knapp "kostenlos" sein. Würde bei all dem Pushen von DLSS, Tensor Cores und RTX von Nvidia mit Abstand am meisten Sinn machen, als "nur" mehr Leistung zu spendieren.

BlacKi
2020-08-13, 13:46:45
vieles spricht für deine these. die niedrigen taktraten, das große tohuwabohu, der wink mit der geforce 256. ich bin gespannt wie ein flitzebogen^^

Lanicya
2020-08-13, 13:50:09
Es geht ja nur darum, dass Nvidia die Option zu mehr Speicher bietet. Dann kann jeder selbst entscheiden und ist dann auch selbst schuld, wenn der Speicher nicht mehr reicht.


Gleich wieder ein deja vu zu meiner GTX 770 bekommen. Die gab es mit 2GB und 4GB. Ich hatte die 2GB gewählt, da die 4GB zum Release noch nicht zwingend erforderlich, recht teuer und von keinem Spiel richtig genutzt worden sind. Knapp 1 Jahr hat es gedauert und ich hatte es bereut die 2GB genommen zu haben. Hoffe es geht diesmal nicht wieder so schnell wenn man weiterhin in 1080p zocken möchte.





gruß

basix
2020-08-13, 14:15:24
ich bin gespannt wie ein flitzebogen^^

Ich auch :) Ich würde sowas extrem geil finden, vor allem wenn es noch rückwärtskompatibel mit den bestehenden RTX Games wäre.

Ich hoffe aber auch, dass AMD hier nicht zu stark zurückliegen wird. Konkurrenz ist besser als ein Monopol ;)

TheAntitheist
2020-08-13, 14:55:53
Hast du meinen Post überhaupt gelesen und verstanden? "Kostenlos" wäre es nur im Sinne der heutigen Spiele mit Raytracing mit 30-40% Performance Hit verglichen ohne Raytracing. Sobald du deutlich mehr Rays nutzt, läuft es auf max. 2x schneller als ohne Tensor Cores hinaus. Aber auch 2x Performance wäre ein riesen Sprung.

Da Spiele aber noch sehr lange Hybriden aus Rasterizing und Raytracing sein werden, ist eine z.B. 90% Raytracing / 10% Raster Aufteilung höchst unwahrscheinlich. Auch 50/50 ist schon eher viel, aber genau letzterer Fall könnte noch knapp "kostenlos" sein. Würde bei all dem Pushen von DLSS, Tensor Cores und RTX von Nvidia mit Abstand am meisten Sinn machen, als "nur" mehr Leistung zu spendieren.
brauch dein comment nicht lesen wenn ich jemand anderes quote... hast du meinen überhaupt gelesen? :rolleyes:

davidzo
2020-08-13, 15:04:46
Richtig. Nur 2,6x mehr Transistors von 16nm auf 7nm. Da steigt die Packdichte wirklich nicht. ;D

Falscher Thread.

Hier geht es um 12nm -> 8nm
bzw. 16nm TSMC -> 10nm Samsung.

Density SRAM: 0.074 µm² vs 0.049 (HP) 0.040 µm²(HD)
Voltage: 0,75V vs 0,75V
Fin Pitch: 48nm vs 42 nm
Gate Pitch: 90nm vs 68nm
Metal Pitch: 64nm vs 48nm


Sicher, die 2D Daten sind nicht im Quadrat, das sieht also nach weniger Unterschied aus als es ist, aber ein 2.6x Node shrink ist es nicht. Eher 1.5x bis 1.85x (bezogen auf die sram density).

Und ja, TSMC 12nm unterscheidet sich nur beim Metal pitch, der rest ist gleich. Laut Wikichip ist das bei Samsung 8LPP vs 10LPE dasselbe, man hat power und performanceverbesserungen vorgenommen, aber bei der density wurde lediglich der metal pitch geringfügig geändert.

Sweepi
2020-08-13, 15:08:52
Sagen wir mal 30% des Rechenbudgets geht nur für Raytracing drauf. Jetzt lagert man das auf die Tensor Cores aus. Nun erreicht man die selben FPS wie ohne Raytracing (ca. 1.5x) und die Tensor Cores werden parallel zu ca. 50% ausgelastet (30% * 1.5). Das wird in Realität nicht perfekt aufgehen, da man niemals alles parallel rechnen kann. Aber es könnte nah dran an kostenlos sein.
Die Rechnung geht implizit davon aus, dass Leistung FP32 Shader Raytracing == Leistung Tensor Raytracing. Why?

Troyan
2020-08-13, 15:30:11
Falscher Thread.

Hier geht es um 12nm -> 8nm
bzw. 16nm TSMC -> 10nm Samsung.

Density SRAM: 0.074 µm² vs 0.049 (HP) 0.040 µm²(HD)
Voltage: 0,75V vs 0,75V
Fin Pitch: 48nm vs 42 nm
Gate Pitch: 90nm vs 68nm
Metal Pitch: 64nm vs 48nm


Sicher, die 2D Daten sind nicht im Quadrat, das sieht also nach weniger Unterschied aus als es ist, aber ein 2.6x Node shrink ist es nicht. Eher 1.5x bis 1.85x (bezogen auf die sram density).

Und ja, TSMC 12nm unterscheidet sich nur beim Metal pitch, der rest ist gleich. Laut Wikichip ist das bei Samsung 8LPP vs 10LPE dasselbe, man hat power und performanceverbesserungen vorgenommen, aber bei der density wurde lediglich der metal pitch geringfügig geändert.

Es ging generell um die Aussage, dass die Transistorendichte nicht mehr "mitwächst". Das stimmt nicht, da A100 2,6x mehr Transistoren pro Fläche gegenüber V100 besitzt.

Samsung 8nm Prozess ermöglicht ~2x mehr Transistoren von TSMCs 16nm Prozess. Liegt also auch nur ca. 33% unter TSMCs 7nm.

basix
2020-08-13, 15:32:48
Die Rechnung geht implizit davon aus, dass Leistung FP32 Shader Raytracing == Leistung Tensor Raytracing. Why?

Richtig. Weil es zum jetzigen Zeitpunkt einfach keine andere vernüftige Annahme gibt. Ob es 0.3, 0.6, 0.8 oder 1.5 ist, ist demenstprechend eine reine Raterei. Das weiss nur Nvidia ;)

Edit:
We gesagt, es kann "kostenlos" sein. Es kann auch nur noch 10% anstatt 30% kosten. Spielt mir jetzt nicht so eine grosse Rolle. Es geht hauptsächlich darum, dass die Tensor Cores das Raytracing beschleunigen. Das Potential dazu hätten sie, weil sie parallel mit den Cuda Cores rechnen können.

Rampage 2
2020-08-13, 20:47:17
Hot Tamperetures.

Edit:
https://twitter.com/kopite7kimi/status/1293839452356272130

Das wäre irgendwie schon arg wenig. Andererseits könnte das natürlich auch an Samsungs 8nm liegen.

Das ergibt irgendwie keinen Sinn: die niedrige absolute Steigerung der Anzahl der Recheneinheiten (+ 16.7%) und der kolportierte hohe Stromverbrauch (320+ Watt) sowie Igor's Videos über Nvidia's Bemühungen um die Steigerung der Signalqualität sprechen eigentlich ziemlich eindeutig dafür, dass bei Ampere (und Navi 2X) der Chiptakt deutlich erhöht wird - wo soll denn auch sonst die Kraft für 40+ Prozent Mehrleistung ggü. TU102 kommen!? Mehr als 20% IPC-Steigerung bei Ampere kann ich mir nicht vorstellen...

R2

basix
2020-08-13, 21:03:23
...Nvidia's Bemühungen um die Steigerung der Signalqualität sprechen eigentlich ziemlich eindeutig dafür, dass bei Ampere (und Navi 2X) der Chiptakt deutlich erhöht wird...

Dem Chiptakt ist die PCB-Signalqualität relativ egal. Das ist eher für den Speichertakt relevant, darum ging es bei Igor.

Ich glaube aber auch nicht an stark reduzierte Taktraten. Es werden eher nicht 2.5 GHz werden aber wohl auch nicht 1.4 GHz wie bei GA100. Treffen wir uns irgendwo in der Mitte und es sollte in etwa passen.

reaperrr
2020-08-13, 23:20:41
Dem Chiptakt ist die PCB-Signalqualität relativ egal. Das ist eher für den Speichertakt relevant, darum ging es bei Igor.

Ich glaube aber auch nicht an stark reduzierte Taktraten. Es werden eher nicht 2.5 GHz werden aber wohl auch nicht 1.4 GHz wie bei GA100. Treffen wir uns irgendwo in der Mitte und es sollte in etwa passen.
Sehe ich auch so.

Außerdem darf man nicht vergessen, dass die geringe Steigerung an Einheiten auch (wieder) bedeuten kann, dass die SM durch diverse IPC-Verbesserungen (u.a. größeren L1-Cache) nochmal deutlich fetter geworden sind (in Sachen Transistorzahl) und daher trotz 8nm nicht wahnsinnig viel kleiner und stromsparender ausfallen.
Dann aber zu den 16,7% mehr SM eben ggf. noch ~20% mehr IPC kommen (bei Verwendung von RT noch deutlich mehr).

Rampage 2
2020-08-14, 00:50:27
Dann aber zu den 16,7% mehr SM eben ggf. noch ~20% mehr IPC kommen (bei Verwendung von RT noch deutlich mehr).

Dann würden aber nicht mehr als 40% Mehrleistung bei rauskommen - eher sogar ein paar Prozent weniger. Und von GA102 kann man sich schon etwas mehr als nur 40% erhoffen (50-60%) - und das geht nur mit mehr Takt. Also ich kann mir angesichts der Hardware-Daten von Ampere nicht vorstellen, dass der Takt nicht wenigstens ein bisschen erhöht wurde...

Mein Spekulatius: +10%, also ~ 2.3 GHz

R2

reaperrr
2020-08-14, 01:46:04
Mein Spekulatius: +10%, also ~ 2.3 GHz

Wie kommt man mit +10% denn auf 2,3 GHz, eine Referenz-2080Ti taktet doch nicht auf 2,1 GHz:confused:

~10-15% höhere Ref-Taktraten als Turing ist aber schon zu erwarten, dann kommt man auch auf rund 50-60% mehr Perf, wie du schon sagst. IPC je SM, Anzahl SM und Takt skalieren miteinander ja im Grunde multiplikativ, also 1,2 * 1,167 * 1,15 = ~61%.

Im Schnitt würde ich zwar mit weniger rechnen, aber mit RT und/oder in 4K+ auch mal mit mehr (wegen den 24 GB).

Rampage 2
2020-08-14, 01:56:52
Wie kommt man mit +10% denn auf 2,3 GHz, eine Referenz-2080Ti taktet doch nicht auf 2,1 GHz:confused:

Die meisten Pascal- und Turing-Chips lassen sich auf 2.1 GHz übertakten (entsprechende Kühlung vorausgesetzt) und einige Exemplare sogar bis 2.15 - 2.2 GHz; davon ausgehend wären es bei Ampere 2.3 GHz;)

R2

=Floi=
2020-08-14, 04:03:59
und stable sind davon dann keine. Mit den vorgegebenen voltage limits sicher nicht. Nebenbei laufen die karten stock dann alle in das powerlimit.

rentex
2020-08-14, 05:47:52
Es bleibt bei knappen 2 GHz Maximaltakt, wenn nicht sogar etwas weniger.

prinz_valium_2
2020-08-14, 10:13:51
https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-PCB.jpg

11GB sind wohl wahr.

basix
2020-08-14, 10:29:04
Mich erschrecken eher 3x 8p PCIe :freak:

rentex
2020-08-14, 10:45:51
Mich ebenfalls :eek: Nun gut, meine alte Costum 2080Ti hatte ebenfalls drei. NT müsste mit 750W reichen:confused:

11GB für welche Karte?

edit:

https://wccftech.com/nvidia-geforce-rtx-3090-ampere-gaming-graphics-card-pcb-pictured/

ChaosTM
2020-08-14, 11:10:38
Mich erschrecken eher 3x 8p PCIe :freak:


Co-Prozessor :freak:

dargo
2020-08-14, 11:15:09
https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-PCB.jpg

11GB sind wohl wahr.
Das ist doch die Rückseite also eher 22GB. Aber 3 Stromanschlüsse ist heftig. :freak:

r3ptil3
2020-08-14, 11:27:08
Drei Stromanschlüsse, enormer Speicherzuwachs... das Ganze hat für mich eigentlich nur einen Grund: AMD.

Bin mir sicher, dass Nvidia da nochmals ganz andere Insiderinformationen hat und bereits jetzt zu 90% weiss wo AMD steht.

Diese offensive Vorgehensweise passt sonst überhaupt nicht zu Nvidia und aus Lust und Laune machen Sie das ganz bestimmt nicht.

Der Premium-High-End-Sektor ist zwar nicht der wichtigste Markt, aber dafür der prestigeträchtigste. Wer da an der Spitze ist, erfährt auch ein ganz anderes Medienecho und nicht wenig davon gelangt ganz bestimmt auch zum einen oder anderen Anleger, der rein psychologisch dadurch in seiner Wahrnehmung positiv beeinflusst wird.

Akkarin
2020-08-14, 11:28:11
Haben wir ein spec sheet für den 19/19.5 gbps Ram den nVidia anscheinend/angeblich benutzt ? Ich kann mir immer noch nicht vorstellen, dass das auch nur halbwegs effizient ist.

Linmoum
2020-08-14, 11:32:45
Drei Stromanschlüsse, enormer Speicherzuwachs... das Ganze hat für mich eigentlich nur einen Grund: AMD.
Es kann rein theoretisch natürlich auch einfach ein einzelnes Custom-Design sein. 2080Ti mit 3x8-Pin gibt's ja auch.

Ansonsten gebe ich dir beim Speicher recht, aber der potentiel womöglich ungewöhnlich hohe Verbrauch liegt in meinen Augen eher daran, dass scheinbar Samsungs 8nm LPP genutzt wird.

Daredevil
2020-08-14, 11:34:58
Drei Stromanschlüsse, enormer Speicherzuwachs... das Ganze hat für mich eigentlich nur einen Grund: AMD.

Schon bei der Vega64 hat sich Nvidia ja eingenässt.
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fwww.guru3d.com%2Findex.php%3Fct%3Darticles%26action%3Dfile%26id %3D43905&f=1&nofb=1

Redneck
2020-08-14, 11:39:27
Drei Stromanschlüsse, enormer Speicherzuwachs... das Ganze hat für mich eigentlich nur einen Grund: AMD.

Bin mir sicher, dass Nvidia da nochmals ganz andere Insiderinformationen hat und bereits jetzt zu 90% weiss wo AMD steht.

Diese offensive Vorgehensweise passt sonst überhaupt nicht zu Nvidia und aus Lust und Laune machen Sie das ganz bestimmt nicht.

Der Premium-High-End-Sektor ist zwar nicht der wichtigste Markt, aber dafür der prestigeträchtigste. Wer da an der Spitze ist, erfährt auch ein ganz anderes Medienecho und nicht wenig davon gelangt ganz bestimmt auch zum einen oder anderen Anleger, der rein psychologisch dadurch in seiner Wahrnehmung positiv beeinflusst wird.
Ich denke nicht, das die wissen was kommt. Sonst hätten sie schon in aller Ruhe Informationen rausgelassen. Stattdessen wollen sie für alles gewappnet sein was kommt .. deshalb auch die verschiedenen Speicherausbau Geschichten. Die stochern wahrscheinlich auch im Nebel. Dann kommt hinzu, das der Samsung Fertigungsprozess Ihre Designs stromhungriger und heisser macht als gewollt (und man dadurch die Clocks nicht erreicht, die man erzielen wollte). in dem Big Navi Speku Thead ist es ja auch ruhig geworden. Schotten sind dicht und NV zappelt herum und versucht alles, die Leistungskrone zu behalten.

HOT
2020-08-14, 11:40:41
https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-PCB.jpg

11GB sind wohl wahr.

- Micron GDDR6 1GB-Module doppelseitig bestückt
- sehr nah am Die anliegend
- offenbar beidseitig bestückte Powerstages (werden die angekündigten 20 sein)
- ein Modul wird sich auf jeden Fall noch unterhalb des Dies im ausgepixelten Bereich befinden, damit sind das die angekündigten 24GB oder eben das wurde ausgespart und man hat 22GB
- das Package ist winzig für so ein großes Die, man kann die Dimensionen aber erahnen, es wird nahezu vollständig vom Die bedeckt
- die 3 Stromanschlüsse und die Powerbestückung deuten für das Custom-Design hier auf eine TDP von >400W hin

damit hat Igor die ganze Zeit voll ins Schwarze getroffen.

Das dürfte ein Customdesign von, würd ich mal raten, MSI oder Asus sein. Die Referenzplatine ist kürzer und die Founders bekommt ja offenbar ein sehr kleines PCB und müsste auf digitale VRMs setzen.

Innovationen:

- GDDR6X von Micron (dürfte wieder spezial und exklusiv sein)
- komplett neues innovatives Packagedesign
- stark verbessertes PCB-Design optimiert für hohe Frequenzen bei gleichzeitig hohem Strombedarf
- komplett neue Kühlung für die heißen RAM-Module in dieser sehr ungünstigen Lage

Da ist schon ordentlich dran gearbeitet worden um das so hinzubekommen. Nichts davon werden wir mMn bei AMD sehen. Vielleicht schlägt aber Intel auch hier neue Wege ein.

r3ptil3
2020-08-14, 11:42:47
Es kann rein theoretisch natürlich auch einfach ein einzelnes Custom-Design sein. 2080Ti mit 3x8-Pin gibt's ja auch.

Ansonsten gebe ich dir beim Speicher recht, aber der potentiel womöglich ungewöhnlich hohe Verbrauch liegt in meinen Augen eher daran, dass scheinbar Samsungs 8nm LPP genutzt wird.


Nochmals den Leak überprüft: Auf Reddit wurde ja noch ein weiteres Bild veröffentlicht.

https://i.ibb.co/Km42HsL/nz4ntsusrvg51.jpg
https://www.reddit.com/r/nvidia/comments/i9dfrg/colorful_rtx3090_pcb/

Es handelt wohl wirklich um ein Custom-PCB von Colorful.

timOC
2020-08-14, 11:51:21
Vielleicht 22/24 GB, aber 2 GB davon dediziert für den ominösen Coprozessor?

Hakim
2020-08-14, 11:56:32
Könnte es eigentlich sein das die Verfügbarkeit sinkt und die Preise nach dem launch anziehen weil Ethereum gerade hoch geht?

rentex
2020-08-14, 12:00:13
https://www.techpowerup.com/270986/nvidia-geforce-rtx-3090-ampere-alleged-pcb-picture-surfaces

Auf der PCB Rückseite sehe ich keine Speichermodule...?

HOT
2020-08-14, 12:01:49
Das ist die Rückseite. Da hat einer nen Intel-Prozessor draufgelegt um die Rückseite des Chips zu verdecken. Daraus lässt sich aber schließen, dass das Package für diesen 627mm²-Chip sehr klein ausfallen muss.

[MK2]Mythos
2020-08-14, 12:03:14
3x8Pin :freak: Aber das bedeutet ja, dass Igor bisher soweit recht hatte.

Linmoum
2020-08-14, 12:08:24
Es handelt wohl wirklich um ein Custom-PCB von Colorful.Das hatte Videocardz ja auch schon geschrieben. Deshalb schrieb ich ja bewusst von einzelnem Custom-Design.

Ich will nicht hoffen, dass das über alle Hersteller hinweg passieren wird. Wenn die kolportierten 320-350W @default aber schon stimmen, dann bleibt ihnen quasi nix anderes übrig. 2x8-Pin und bei 375W ist Schluss. Und natürlich muss man zwingend den längsten Balken haben, damit die Leute die Karten auch kaufen. Also alles rausquetschen. Wenn man dann aber natürlich schon deutlich jenseits der 300W liegt, braucht's natürlich moar Power.

Ex3cut3r
2020-08-14, 12:09:47
Erstmal abwarten ob die 3x8 Pin Custom sind, oder aber bereits der Standard. Wenn Standard. Werden MSI und Asus wohl 4x8 Pin anlegen. ;D

Ich persönlich werde mir eine 3080 oder 3070 mit 20 oder 16GB holen und nach 2x8 Pin only ausschau halten. Kein Bock auf 350W+ im Sommer oder nach eingetrockneter Wärmeleitpaste sowieso die Undervolt Keule schwingen zu müssen. Damit das ganze nicht abfackelt.

Wäre interessant was AMD so bietet. Aber bis die wieder kommen, habe ich wohl längst eine Ampere im PC stecken. :redface:

Edgecrusher86
2020-08-14, 12:26:28
https://www.techpowerup.com/270986/nvidia-geforce-rtx-3090-ampere-alleged-pcb-picture-surfaces

Auf der PCB Rückseite sehe ich keine Speichermodule...?

Das kleine Bild ja auch eine Turing Colorful -> siehe alter NVL. :wink:
Man sieht ja auch an den Leiterbahnen zur GPU, dass diese gedreht ist - spricht auch für TU.
Dient nur als Vergleich das Ganze.

Auf jeden Fall wurde ja die Rückseite gefilmt bei der neuen Karte - also doppelseitig VRAM.
Es bleibt die Frage, ob noch an der Unterseite ein Modul ist - ansonsten spräche das für 352-bit SI und 22GB.

Ich bin gespannt, wie es um die GPU bestellt ist - ja, das sieht nach Photoshop und Intel CPU aus, wie TPU vermutet. :D
Unter Umständen hat NV wieder einen Exklusivdeal mit Micron abgeschlossen wie bei Pascal und GDDR5X.
Also wenn das eine gewöhnliche OC-Karte ist, könnten Kingpin, HoF oder Lightning nochmals ein bis zwei x 8-Pin zusätzlich bekommen. ;D

rentex
2020-08-14, 12:27:50
Die Fotos auf Reddit sind schon rausgenommen worden...

BlacKi
2020-08-14, 12:32:21
zum verpixelten großen pic: https://www.techpowerup.com/img/ScS8ZZF1b7472bWd.jpg
ich sehe einen neuen sli/nvlink ersatz. nv link ist tot?

erstaunlich wie nahe man die capacitors an den ram setzt und auch den ram so extrem nah beieinander verbaut.

die vrm sind hier wohl nicht digital, schade das man hier einiges an effizienz liegen lässt.

so wie das aussieht hat man dicke kupferschienen wie in einem elektro schaltschrank für das leiten der großen ströme "eingebaut". sieht man schön am stromstecker und vor und nach den vrm. oder ist das nur ein merkwürdig aussehender 3d effekt?

was mir noch auffällt, das man keine backplate verbaut? vermutlich fehlt auch die front/baseplate. komisch das aber ein kühler montiert ist.

dieses foto hat wieder nvlink?
https://www.techpowerup.com/img/6Rv0dLid3gLg9qpO.jpg

sieht so die rückseite von den VRM aus wenn digitale regler verbaut sind? hier fehlen auch wieder diese kupferschienen.



Mythos;12391536']3x8Pin :freak: Aber das bedeutet ja, dass Igor bisher soweit recht hatte.
nicht unbedingt. es gab turing karten mit 2x8+1x6 pin von msi und 3x8 pin von evga. das was wir dort sehen ist eine custom card. aber wenn schon 2x leaks mit 3x8pin kommen ist sicher was dran.


Es bleibt die Frage, ob noch an der Unterseite ein Modul ist - ansonsten spräche das für 352-bit SI und 22GB.
ich sehe dafür keinen platz

MiamiNice
2020-08-14, 12:37:52
Ich hoffe das basix mit seiner Vermutung ins schwarze trifft und die 3080TI mit den 24GB Ram und den etwas breiteren Speicherbus kommt. Dann wird es für mich ein insta buy, ohne auf Big Navi zu warten. Das wäre dann imo eine Karte für die sich Geld ausgeben lohnt. Auch viel Geld.
Kommt es so wie die anderen Leaker meinen, 10/20Gb 3080 und keine TI, wird es eine rote Karte.

Edgecrusher86
2020-08-14, 12:44:09
Das sieht nach der NVL-Basis wie bei A100 aus - nur die Hälfte (und die Rückseite statt wie hier die Vorderseite).
12 Links wären natürlich viel zu viel für eine Zockerkarte (600 GB/s).

https://abload.de/img/1x1_1200x1200_highresuqkpv.jpg

Einfach die dritte Generation NVL - die erste kam ja nur für GP100.


Ich hoffe das basix mit seiner Vermutung ins schwarze trifft und die 3080TI mit den 24GB Ram und den etwas breiteren Speicherbus kommt. Dann wird es für mich ein insta buy, ohne auf Big Navi zu warten. Das wäre dann imo eine Karte für die sich Geld ausgeben lohnt. Auch viel Geld.
Kommt es so wie die anderen Leaker meinen, 10/20Gb 3080 und keine TI, wird es eine rote Karte.

Gut, ob jetzt 384-bit oder 352-bit [~ -9,1%] und 24GB oder 22GB ist fast Wumpe - solange der VRAM auch schnell genug angebunden ist.
Auf jeden Fall deutlich besser als 20GB und 320-bit (-20% Bandbreite, vorausgesetzt, man verwendet den gleichen VRAM).

Es mag natürlich sein, dass es die Konfiguration 4+3+4+1, die Igor beschrieb, sprich das untere Modul einfach blurry ist.


18 Gbps @ 384-bit = 864 GB/s
18,5 Gbps @ 384-bit = 888 GB/s
19 Gbps @ 384-bit = 912 GB/s
19,5 Gbps @ 384-bit = 936 GB/s
20 Gbps @ 384-bit = 960 GB/s


18 Gbps @ 352-bit = 792 GB/s
18,5 Gbps @ 352-bit = 814 GB/s
19 Gbps @ @ 352-bit = 836 GB/s
19,5 Gbps @ 352-bit = 858 GB/s
20 Gbps @ 352-bit = 880 GB/s


18 Gbps @ 320-bit = 720 GB/s
18,5 Gbps @ 320-bit = 740 GB/s
19 Gbps @ 320-bit = 760 GB/s
19,5 Gbps @ 320-bit = 780 GB/s
20 Gbps @ 320-bit = 800 GB/s


18 Gbps @ 256-bit = 576 GB/s
18,5 Gbps @ 256-bit = 592 GB/s
19 Gbps @ 256-bit = 608 GB/s
19,5 Gbps @ 256-bit = 624 GB/s
20 Gbps @ 256-bit = 640 GB/s


So sieht das dann wohl aus bezüglich "GDDR6(X)-Lineup".
Darunter langt auch zum Beispiel 12-16 Gbps GDDR6.

unl34shed
2020-08-14, 12:56:37
dieses foto hat wieder nvlink?
https://www.techpowerup.com/img/6Rv0dLid3gLg9qpO.jpg

Das ist eine 2080ti als Referenz.

BlacKi
2020-08-14, 13:13:16
Das ist eine 2080ti als Referenz.
muss so ein china custom pcb sein. bei uns gibts die nicht. das pcb ist komplett anders als mir alle bekannten karten.
€dit jap, gefunden. https://wccftech.com/review/colorful-igame-geforce-rtx-2080-ti-vulcan-x-oc-review/4/

PS: das verpixelte bild, soll eine 3080 sein beim ersten posten, korrigiert aber seine aussage, es ist eine 3090ti^^

Leonidas
2020-08-14, 13:21:54
Laut Kimi ist ein Speicherchip dem Blurring zum Opfer gefallen:
https://twitter.com/kopite7kimi/status/1294205457209241601

Ein anderer Twittere weist darauf hin, das in Igors Leak mit der Symbol-Platine tatsächlich unten noch ein weiterer Speicherchip war:
https://mobile.twitter.com/Bluebr0/status/1294207988257955846

Er meint damit diesen Igor-Beitrag:
https://www.igorslab.de/ist-big-ampere-mit-luft-nur-schwer-kuehlbar-eine-thermische-prognose-gibt-aufschluss/

... sicher ist das natürlich nicht, aber eine Möglichkeit.

MiamiNice
2020-08-14, 13:38:34
@Edgecrusher86:

Es geht gar nicht so um die realen Bandbreite sondern um die imaginäre Abgrenzung vom Mainstream. Ich möchte mir z.b. keine Mainstream Karte in die Kiste bauen, bin doch kein Jugendlicher mehr. Ist mehr eine Gefühlssache :wink::freak:
Eine 3080TI mit 20Gb Speicher die bis auf den Speichergröße und ein wenig Takt identisch zur 3080 ist, wäre für mich ein Unding. Würde mich keinesfalls glücklich machen.

prinz_valium_2
2020-08-14, 13:45:48
- Micron GDDR6 1GB-Module doppelseitig bestückt
- sehr nah am Die anliegend
- offenbar beidseitig bestückte Powerstages (werden die angekündigten 20 sein)
- ein Modul wird sich auf jeden Fall noch unterhalb des Dies im ausgepixelten Bereich befinden, damit sind das die angekündigten 24GB oder eben das wurde ausgespart und man hat 22GB
- das Package ist winzig für so ein großes Die, man kann die Dimensionen aber erahnen, es wird nahezu vollständig vom Die bedeckt
- die 3 Stromanschlüsse und die Powerbestückung deuten für das Custom-Design hier auf eine TDP von >400W hin

damit hat Igor die ganze Zeit voll ins Schwarze getroffen.

Das dürfte ein Customdesign von, würd ich mal raten, MSI oder Asus sein. Die Referenzplatine ist kürzer und die Founders bekommt ja offenbar ein sehr kleines PCB und müsste auf digitale VRMs setzen.

Innovationen:

- GDDR6X von Micron (dürfte wieder spezial und exklusiv sein)
- komplett neues innovatives Packagedesign
- stark verbessertes PCB-Design optimiert für hohe Frequenzen bei gleichzeitig hohem Strombedarf
- komplett neue Kühlung für die heißen RAM-Module in dieser sehr ungünstigen Lage

Da ist schon ordentlich dran gearbeitet worden um das so hinzubekommen. Nichts davon werden wir mMn bei AMD sehen. Vielleicht schlägt aber Intel auch hier neue Wege ein.

Noch besser, wenn das so kommt.
Freue mich schon auf die 3080 mit dem großen DIE

alle die eine TI oder 3090 wollen, bekommen dann halt einfach deutlich mehr Speicher, den ich nicht brauche.

Adam D.
2020-08-14, 13:46:19
Laut Kimi ist ein Speicherchip dem Blurring zum Opfer gefallen:
https://twitter.com/kopite7kimi/status/1294205457209241601

Ein anderer Twittere weist darauf hin, das in Igors Leak mit der Symbol-Platine tatsächlich unten noch ein weiterer Speicherchip war:
https://mobile.twitter.com/Bluebr0/status/1294207988257955846

Er meint damit diesen Igor-Beitrag:
https://www.igorslab.de/ist-big-ampere-mit-luft-nur-schwer-kuehlbar-eine-thermische-prognose-gibt-aufschluss/

... sicher ist das natürlich nicht, aber eine Möglichkeit.
Naja, es dürfte inzwischen wohl klar sein, dass Igor sich die ganzen Sachen nicht ausgedacht hat. Grobes Board-Design, TDP, Speicherbestückung etc. scheinen sich zu bestätigen.

BlacKi
2020-08-14, 13:47:05
Micron confirms NVIDIA GeForce RTX 3090 gets 21Gbps GDDR6X memory
https://videocardz.com/newz/micron-confirms-nvidia-geforce-rtx-3090-gets-21gbps-gddr6x-memory

https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-Memory-Specifications-1-1200x336.png

igor wo bleibt dein spekulatius?

Troyan
2020-08-14, 13:52:04
Wow. 1TB/s Bandbreite mit GDDR Speicher. Das hätte man sich vor Jahren nicht erträumt. 50% mehr als die 2080TI. :eek:

Linmoum
2020-08-14, 13:53:51
Naja, es dürfte inzwischen wohl klar sein, dass Igor sich die ganzen Sachen nicht ausgedacht hat. Grobes Board-Design, TDP, Speicherbestückung etc. scheinen sich zu bestätigen.Klar hat er das nicht, aber er wurde ja doch gerne mal von mehreren belächelt und dass das ja sowieso nicht stimmt.

Aber ja, mittlerweile setzt sich das Bild zusammen, obwohl die hohe TDP für mich eigentlich immer noch aus dem Rahmen fällt. Aber was Taktbarkeit angeht scheint Samsungs 8nm LPP nach oben hin ja echt zu saufen und NV musste das Powerbudget ordentlich anheben, damit halbswegs ähnliche Taktraten wie mit Turing erreicht werden. Auch, wenn dadurch der Verbrauch massiv steigt. Aber der Performancebalken wird natürlich länger dadurch.

woodsdog
2020-08-14, 13:54:13
Da steht 19-21 nicht "21". Warum blendet ihr das aus und geht direkt vom Maximum aus...?

Adam D.
2020-08-14, 14:01:58
Da steht 19-21 nicht "21". Warum blendet ihr das aus und geht direkt vom Maximum aus...?

At 21GB/s, a graphic card with 12pcs of GDDR6X will be able to break the 1TB/s of system bandwith barrier!

Das ist aus dem Micron-Dokument. Also ich lese das wie eine Ankündigung. Aber sicher ist das natürlich nicht.

prinz_valium_2
2020-08-14, 14:08:34
edit: nvm schon gepostet

mboeller
2020-08-14, 14:23:31
Micron confirms NVIDIA GeForce RTX 3090 gets 21Gbps GDDR6X memory

igor wo bleibt dein spekulatius?

nur 12GB?

Linmoum
2020-08-14, 14:28:17
Noch ein anderes Bild der Rückseite, bei dem man etwas mehr erkennt.

https://pbs.twimg.com/media/EfYVgf6X0AEHVYQ?format=jpg&name=large
https://twitter.com/VideoCardz/status/1294245734355787776

Sunrise
2020-08-14, 14:36:10
Klar hat er das nicht, aber er wurde ja doch gerne mal von mehreren belächelt und dass das ja sowieso nicht stimmt.

Aber ja, mittlerweile setzt sich das Bild zusammen, obwohl die hohe TDP für mich eigentlich immer noch aus dem Rahmen fällt. Aber was Taktbarkeit angeht scheint Samsungs 8nm LPP nach oben hin ja echt zu saufen und NV musste das Powerbudget ordentlich anheben, damit halbswegs ähnliche Taktraten wie mit Turing erreicht werden. Auch, wenn dadurch der Verbrauch massiv steigt. Aber der Performancebalken wird natürlich länger dadurch.
Das liegt wohl einfach daran, da Samsung fast nur SoC-Kunden (u.a. sich selbst) hat, da werden dann die Prozesse/-parameter entsprecht ausgelegt, und mobile hat ja einen Sweetspot bei wenig Verbrauch/hoher Dichte/moderater Takt. Die Leakage wird auch höher als bei TSMC sein.

Auch der Samsung 14nm SoC von Apple (iPhone 6s) war ggü. TSMCs SoC deutlich hungriger und hat beim Geekbench Battery Test den Akku sehr schnell leer gesaugt, während der TSMC-SoC locker >1,5 Std. (bei etwa 6-7 Std. für Samsung) mehr Laufzeit hatte. Ich hatte beide und konnte vergleichen.

Wenn man das auf solche Monster-GPUs überträgt, und da NV als AG besonders auf die Margen achten muss, hat NV wohl keine andere Wahl, als hier bei der TDP möglichst viel Spielraum zu geben.

Der neue Kühler/starke Änderungen der Referenz-PCBs kommt wohl auch nicht von ungefähr, wenn NV soviel Abwärme über so eine kleine Fläche abführen muss.

Die 21Gbps Module sind natürlich heftig, mit einem so hohen Takt habe ich jetzt nicht gerechnet, da ist sicher auch noch Spielraum vorhanden.

Ich bin mal gespannt, ob sich AMD genötigt fühlt, hier ihr Halo-Produkt mit HBM zu bringen, denn an ein 512bit SI glaube ich immer noch nicht.

reaperrr
2020-08-14, 14:59:11
Ich bin mal gespannt, ob sich AMD genötigt fühlt, hier ihr Halo-Produkt mit HBM zu bringen, denn an ein 512bit SI glaube ich immer noch nicht.
Sowas muss schätzungsweise ca. 2 Jahre im Voraus festgelegt werden. Entweder AMD's Halo-Produkt war eh mit HBM geplant, oder halt nicht, dann kommt es auch nicht mit HBM.

mboeller
2020-08-14, 15:06:16
Die 21Gbps Module sind natürlich heftig, mit einem so hohen Takt habe ich jetzt nicht gerechnet, da ist sicher auch noch Spielraum vorhanden.

Ich bin mal gespannt, ob sich AMD genötigt fühlt, hier ihr Halo-Produkt mit HBM zu bringen, denn an ein 512bit SI glaube ich immer noch nicht.

die 21Gbps kosten viel Energie ... deshalb vielleicht der hohe Verbrauch.
Das macht man/Nvidia nicht freiwillig. BigNavi scheint also wirklich mit 512bit zu kommen.

Sunrise
2020-08-14, 15:11:11
Sowas muss schätzungsweise ca. 2 Jahre im Voraus festgelegt werden. Entweder AMD's Halo-Produkt war eh mit HBM geplant, oder halt nicht, dann kommt es auch nicht mit HBM.
Es gibt laut Gerüchten sowohl HBM als auch GDDR6. Entweder ist das eine falsche Fährte von AMD, oder aber es ist die ganze Zeit eines von beiden. Siehe die diversen Code-Auszüge.

die 21Gbps kosten viel Energie ... deshalb vielleicht der hohe Verbrauch.
Das macht man/Nvidia nicht freiwillig. BigNavi scheint also wirklich mit 512bit zu kommen.
Laut Igor ist der Anteil des Verbrauchs relativ zum Rest (GPU usw.) beim Speicher relativ gering, und laut der Tabelle oben (Micron), sinkt der Verbrauch sogar (AVG Device Power). Der erhöhte TDP-Spielraum muss also woanders herkommen.

basix
2020-08-14, 15:17:07
Laut Igor ist der Anteil des Verbrauchs relativ zum Rest (GPU usw.) beim Speicher relativ gering, und laut der Tabelle oben (Micron), sinkt der Verbrauch sogar (AVG Device Power). Der erhöhte TDP-Spielraum muss also woanders herkommen.

-5% pJ/bit bei +50% Bandbreite ergibt +43% Energieverbrauch ;)

Troyan
2020-08-14, 15:19:24
die 21Gbps kosten viel Energie ... deshalb vielleicht der hohe Verbrauch.
Das macht man/Nvidia nicht freiwillig. BigNavi scheint also wirklich mit 512bit zu kommen.

Richtig, das macht nVidia immer wegen AMD.: Erst GDDR5X, dann GDDR6, dann GDDR6 mit 15gbit/s und nun GDDR6X.

Vielleicht mal überlegt, dass bei all dem Speicher nicht AMD sondern die deutliche Leistungssteigerung im Vordergrund steht? Die Bandbreite wird sich innerhalb von vier Jahren fast verdoppeln.

Sunrise
2020-08-14, 15:21:53
-5% pJ/bit bei +50% Bandbreite ergibt +43% Energieverbrauch ;)
Für was steht pJp...Also pro Pin? Oder für was das p? Du schreibst von "bit", jetzt bin ich vollends verwirrt...

Ansonsten, du hast Recht, ich habe die höhere Bandbreite nicht berücksichtigt.

basix
2020-08-14, 15:23:32
Man gibt IO-Effizienz eigentlich immer in pJ/bit oder Micron als pJpB an - pico-Joule-per-Bit

Sunrise
2020-08-14, 15:25:03
Man gibt IO-Effizienz eigentlich immer in pJ/bit oder Micron als pJpB an - pico-Joule-per-Bit
Ok, dann fehlt da das Bit am Ende...

Danke dir für die Aufklärung!

Rampage 2
2020-08-14, 15:31:07
und stable sind davon dann keine. Mit den vorgegebenen voltage limits sicher nicht. Nebenbei laufen die karten stock dann alle in das powerlimit.


Wieso das? Nach Erfahrungsberichten von vielen Usern sind 2.1 GHz konstant möglich - wenigstens, wenn Wasserkühlung zum Einsatz kommt und das Powerlimit grenzenlos entfesselt wurde:)

Micron confirms NVIDIA GeForce RTX 3090 gets 21Gbps GDDR6X memory
https://videocardz.com/newz/micron-confirms-nvidia-geforce-rtx-3090-gets-21gbps-gddr6x-memory

https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-Memory-Specifications-1-1200x336.png

igor wo bleibt dein spekulatius?


Ich bleibe weiterhin bei der Meinung, dass NV mit 512Bit Busbreite @ 16Gbps oder HBM2e @ 3.6 Gbps (921.6GB/sek. BB) eine sinnvollere Entscheidung getroffen hätte - bei den extremen Taktraten (über 20Gbps) würde eine Karte mit 384Bit-Interface vermutl. sogar noch mehr Strom verbrauchen als eine Karte mit 512Bit-Interface mit deutlich niedrigeren Taktraten und man würde bei 512Bit auch keine 2GB-Speicherchips mehr verwenden müssen, um mehr als 12GB VRAM zu ermöglichen.

12GB sind zu wenig aber 24GB wiederum ein bisschen übertrieben - 16GB ist der perfekte Sweetpunkt für HighEnd- und Enthusiast-Karten, der @ 512Bit auch nur mit 1GB-Speicherchips hätte erzielt werden können. Dazu würde dann Nvidia auch "nur" 16Gbps schnellen Speicher brauchen, um echte 1TB/sek. Transferrate (1008GB sind nicht 1TB, sondern 1024;)) zu erreichen, und es würde vielleicht sogar weniger kosten, da langsamere Chips billiger angeboten werden, als die superschnellen Varianten.:rolleyes:

Ich finde, AMD hat hier mit 512Bit oder HBM2e die richtigere Entscheidung getroffen als Nvidia...

R2

woodsdog
2020-08-14, 15:39:41
Wieso das? Nah Erfahrungsberichten von vielen User sind 2.1 GHz konstant möglich - wenigstens, wenn Wasserkühlung zum Einsatz kommt und das Powerlimit grenzenlos entfesselt wurde:)

Und das sind dann natürlich - um dich mal zu zitieren - "die meisten Pascal und Turing Chips". Manche Leute hier eh...

meine 1080 schafft knapp 2GHz unter Luft, meine 1060 im Travel Case 1950.

BlacKi
2020-08-14, 15:42:11
@R2
ja, HBM ist wohl auch gddr6x überlegen. aber leider gehts nicht darum was besser ist.

ShinyMcShine
2020-08-14, 16:04:59
Ich bleibe weiterhin bei der Meinung, dass NV mit 512Bit Busbreite @ 16Gbps oder HBMe @ 3.6 Gbps (921.6GB/sek. BB) eine sinnvollere Entscheidung getroffen hätte - bei den extremen Taktraten (über 20Gbps) würde eine Karte mit 384Bit-Interface vermutl. sogar noch mehr Strom verbrauchen würde als eine Karte mit 512Bit-Interface mit deutlich niedrigeren Taktraten und dass man bei 512Bit auch keine 2GB-Speicherchips mehr anwenden muss, um mehr als 12GB VRAM zu ermöglichen.

Vielleicht solltest Du dann als CTO bei nVidia anheuern... :rolleyes:

Leonidas
2020-08-14, 16:17:55
Zum Thema HBM2 eine Aussage von Raja Koduri himself, gestern auf dem IAD getroffen:

I still have the scars on my back from trying to bring expensive memory subsystems like HBM2 to gamers, atleast twice.


Quelle:
https://twitter.com/davideneco25320/status/1293927276502016001

Linmoum
2020-08-14, 16:21:21
Ich bezweifle, dass HBM2(e) noch immer derart teuer ist. Gerade im Vergleich mit jetzt GDDR6X für Ampere.

basix
2020-08-14, 16:25:59
HBM sollte mittlerweile wirklich deutlich günstiger sein. Ist eine reife Technologie. HBM2e ist sicher nicht am günstigsten, da das schnellste was man für Geld kaufen kann. Aber GDDR6X inkl. den Begleitumständen wird auch nicht sehr günstig sein.

Fiji war knapp der Konkurrenz ebenbürtig, hatte aber zu wenig Speicher. Wäre es damals 8 GByte anstatt 4 GByte gewesen, wäre die Karte heute noch ganz gut.
Bei Vega hat eher die Energieffizienz als HBM Probleme gemacht.
Aufgrund dieser Mängel musste AMD die Karten relativ günstig verkaufen, das hat sich dann negativ auf die Margen ausgewirkt. Wobei Vega im Miningboom noch sehr gut wegkam.

HBM ist pro GByte sicher teurer als GDDR aber wir sehen hier gerade, dass es wohl die letzte GPU-Generation ohne HBM am Topend-Segment werden wird.

Leonidas
2020-08-14, 16:27:02
Zur Auflockerung:

https://pbs.twimg.com/media/EfX8-x7XsAIwwio.jpg


Quelle:
https://pbs.twimg.com/media/EfX8-x7XsAIwwio.jpg

BlacKi
2020-08-14, 17:24:59
HBM sollte mittlerweile wirklich deutlich günstiger sein. Ist eine reife Technologie. HBM2e ist sicher nicht am günstigsten, da das schnellste was man für Geld kaufen kann. Aber GDDR6X inkl. den Begleitumständen wird auch nicht sehr günstig sein.

Fiji war knapp der Konkurrenz ebenbürtig, hatte aber zu wenig Speicher. Wäre es damals 8 GByte anstatt 4 GByte gewesen, wäre die Karte heute noch ganz gut.
Bei Vega hat eher die Energieffizienz als HBM Probleme gemacht.
Aufgrund dieser Mängel musste AMD die Karten relativ günstig verkaufen, das hat sich dann negativ auf die Margen ausgewirkt. Wobei Vega im Miningboom noch sehr gut wegkam.

HBM ist pro GByte sicher teurer als GDDR aber wir sehen hier gerade, dass es wohl die letzte GPU-Generation ohne HBM am Topend-Segment werden wird.
ich interpretiere rajas aussage so: kein HBM für GAMER!
und ihr so: ampere = last enthusiast gen ohne HBM.

traut ihr der aussage nicht, weil ihr seine intention hinter der aussage anzweifelt? der punkt ist, er ist nicht alleine mit der aussage : hbm = nichts für gamer
vega hat ja nicht als gamer karte hbm bekommen, sondern als profikarte. ebenso wie alle profi karten von NV. trotz marktreife. bei dem hintergrund müsste man sich fragen ob die vega karten zum schluss nicht sogar mit verlust verkauft wurden.
edit:
passend dazu : HBMnext
https://videocardz.com/newz/micron-reveals-hbmnext-successor-to-hbm2e

Linmoum
2020-08-14, 17:29:43
Er heult rum, weil 500mm² GPUs mit HBM im Consumer-Segment für $399 verramscht werden mussten. Natürlich ist HBM bei so einer Kombination sinnlos und zu teuer gewesen. Hätte halt mehr liefern müssen statt immer nur zu labern.

Ich denke aber auch, dass NV in nicht allzuferner Zukunft bei den xx102-Chips auf HBMwhatever setzen wird. Bei >$1000 hast du auch trotz HBM noch sehr hohe Margen, aber dafür abseits der potentiellen Kosten eben andere Vorteil wie geringerer Platzbedarf oder Verbrauch.

Dural
2020-08-14, 17:35:49
Zum Thema HBM2 eine Aussage von Raja Koduri himself, gestern auf dem IAD getroffen:




Quelle:
https://twitter.com/davideneco25320/status/1293927276502016001

Hat NV schon vor rund 5 Jahren (!!!) gesagt, und wurden von den üblichen AMD Boys belächelt.

Ich habe schon lange vor HBM1 meine Zweifel an dem Speicher für Gaming Karten ausgedrückt, auch die ständigen Fantasie Zahlen die AMD damit in Verbindung gebracht hat habe ich immer angezweifelt.

Bald werden wir GDDR6 dank NV haben, und HBM scheint auch bei AMD für Gamer Geschichte zu sein.

BlacKi
2020-08-14, 17:36:41
@LIN findest du nicht, dass das fehlen von hbm auf gaming ampere, mit dem gerücht vom verbrauch, nicht eine botschaft in sich trägt? ampere mit 8nm samsung wäre der ideale partner gewesen. ich denke es gibt da einen grund, der dahintersteckt. zu billig werden die karten wohl auch nicht werden. ich sehe keinen grund warum man bei ampere nicht hbm verbaut, trotzdem passiert es nicht.

Leonidas
2020-08-14, 18:01:01
Ich vermute, Ampere war mit 10/12/24 GB für 3080/3090/Titan geplant .... und wurde jetzt erst auf 10-20/24/48 aufgestockt. NV dürfte sich *jetzt* ärgern, nicht HBM2 oder 1,5-GB-GDDR-Chips benutzt zu haben. Aber die kurzfristige Änderung war nicht anders zu machen. Andererseits ist bei HBM2 dagegen nix mit kurzfristigen Änderungen, somit Glück im Unglück.

=Floi=
2020-08-14, 18:10:02
Wieso das? Nah Erfahrungsberichten von vielen User sind 2.1 GHz konstant möglich - wenigstens, wenn Wasserkühlung zum Einsatz kommt und das Powerlimit grenzenlos entfesselt wurde:)


In irgendwelchen games, bei normalem workload. Das ist ähnlich wie bei den prozessoren. linx schaffen dann die wenigsten. Dargo musste beim undervolting der R7 auch raufgehen und es gibt genug andere, wo zB miner oder richtig harter workload nicht mehr bewältigbar ist. Das zeigt nur keiner.

Hier rede ich auch generell wieder gegen eine wand, weil so viele karten ja mit so wenig spannung laufen. :rolleyes:
Ich behaupte, es liegt auch an der test software. Furmark kann eine 2070S auf über 300 watt bringen!

Zum Thema HBM2 eine Aussage von Raja Koduri himself, gestern auf dem IAD getroffen:
Quelle:
https://twitter.com/davideneco25320/status/1293927276502016001

und trotzdem funktioniert es bei AMD mittlerweile "einwandfrei" im endkundenmarkt. Bei den NV preisen wäre HBM2 doch nebensache.
Würde man das ganze unter einem heatspreader stecken, wäre es dem user egal.

edit
@dural
ich sehe schon vorteile in HBM2, weil die anbindung erheblich breiter ist. Irgendwann wird der punkt kommen, wo HBM deutlich davonziehen kann, weil dessen vorteile die limits von GDDR aufheben.

Eventuell würden für GPGPU und shader schon 1-2gb reichen und der rest der texturen bekommt GDDR

rentex
2020-08-14, 18:26:40
Nach AMDs Radeon VII, hätte es NV eine Warnung sein müssen, das mehr Speicher, für AMD durchaus eine gangbare Option ist, um gegen NV anzustinken.

Linmoum
2020-08-14, 18:44:49
[Nvidia Ampere]

GA102 24GB / 3090

> 1410MHz base clock
> 1740MHz boost clock

Compared to the Titan RTX these clocks are +60MHz/-30MHz

Titan RTX is 1350MHz/1770MHz
https://twitter.com/_rogame/status/1294312499156787202

Troyan
2020-08-14, 18:46:53
War doch seit A100 absehbar. Breite Chips mit wenig Takt. Der ganze Quatsch mit >2000Ghz sind doch nur irgendwelche Träume gewesen.

prinz_valium_2
2020-08-14, 18:53:15
War doch seit A100 absehbar. Breite Chips mit wenig Takt. Der ganze Quatsch mit >2000Ghz sind doch nur irgendwelche Träume gewesen.

Sag das Sony mit ihrer PS5 und 2230MHz boost clock;D

Troyan
2020-08-14, 18:58:16
Die Xbox One Series X hat 1800Mhz. Und GA102 wird fast doppelt so viele Transistoren besitzen.

gedi
2020-08-14, 19:11:27
Da hast du sicher recht, aber die GPU mit 52CUs sollte man im PC als Graka locker mit 2.3G befeuern können. Vielleicht der N10-Nachfolger? Außerdem glaube ich auch dass BN, wenn überhaupt mit 2G, taktet. Das gleiche gilt hier für ne 3090, welche unter 4K knapp 1.9G packen wird, imo.

Ravenhearth
2020-08-14, 19:28:24
The key innovation for GDDR6X appears to be that Micron is moving from using NRZ coding on the memory bus – a binary (two state) coding format – to four state coding in the form of Pulse-Amplitude Modulation 4 (PAM4). In short, Micron would be doubling the number of signal states in the GDDR6X memory bus, allowing it to transmit twice as much data per clock.
https://www.anandtech.com/show/15978/micron-spills-on-gddr6x-pam4-signaling-for-higher-rates-coming-to-nvidias-rtx-3090

Rampage 2
2020-08-14, 20:11:54
Und das sind dann natürlich - um dich mal zu zitieren - "die meisten Pascal und Turing Chips". Manche Leute hier eh...

meine 1080 schafft knapp 2GHz unter Luft, meine 1060 im Travel Case 1950.


In der Tat schaffen die meisten Pascals und Turings 2050-2100 MHz (die xx102-SKUs vielleicht 50-100 MHz weniger). Ich spreche von erstklassigen Herstellerdesigns (mit guter LuKü und durchdachtem Kühldesign) und NICHT von Billig- oder Blower-Modellen:rolleyes: (und natürlich offenem Power-Target!)

Welches Modell ist denn deine 1080 (exakte Bezeichnung bitte!) und in was für einem Gehäuse (Mini, Midi, Big) steckt sie? Was meinst du mit "Travel-Case" für deine 1060?

Unabhängig davon, wie gut die Pascals und Turings nun maximal takten können, bin ich weiterhin der Meinung, dass wir einen 10% Taktsprung zu diesem Maximaltakt bei Ampere sehen werden - bei nur 2.0 GHz (Pascal, Turing) wären es bei Ampere dann halt 2.2 GHz;)

R2

[MK2]Mythos
2020-08-14, 20:15:38
Unabhängig davon, wie gut die Pascals und Turings nun maximal takten können, bin ich weiterhin der Meinung, dass wir einen 10% Taktsprung zu diesem Maximaltakt bei Ampere sehen werden - bei nur 2.0 GHz (Pascal, Turing) wären es bei Ampere dann halt 2.2 GHz;)

R2
Und auf welchen Fakten/Leaks ruht deine Meinung? Bisher siehts nämlich ganz und gar nicht danach aus.

Linmoum
2020-08-14, 20:22:27
Jop, mittlerweile gibt es ja sogar Anzeichen, dass der Takt (etwas) niedriger ausfallen wird. Und wenn das schon bei den kolportierten 320-350W der Fall wäre...

Schnoesel
2020-08-14, 20:36:03
Ich bin zwar gerüstet mit nem 1000 Watt Netzteil und Custom Wakü aber begeistert wäre ich nicht wenn es so kommt.

basix
2020-08-14, 20:40:19
https://www.anandtech.com/show/15978/micron-spills-on-gddr6x-pam4-signaling-for-higher-rates-coming-to-nvidias-rtx-3090

Das mit PAM4 habe ich auch gesehen. Das wird wohl der Grund sein, warum Nvidia so Handstände mit dem PCB-Design machen muss. Hier bei den Augendiagrammen sieht man das sehr schön: Oben PAM2 (NRZ), unten PAM4. Es wird einfach deutlich enger, die Signale zu demodulieren. Übrigens: PAM4 kommt auch bei PCIe 6.0 ;) https://de.tek.com/-/media/sites/default/files/2017-12/nrz-vs-pam4.jpg?w=544

ich interpretiere rajas aussage so: kein HBM für GAMER!
und ihr so: ampere = last enthusiast gen ohne HBM.

traut ihr der aussage nicht, weil ihr seine intention hinter der aussage anzweifelt? der punkt ist, er ist nicht alleine mit der aussage : hbm = nichts für gamer

Gamer = Kosten. Solange es egal ist, +50W für den Speicher zu verbrauchen wird man nicht auf HBM umschwenken. Ebenso, wenn die Mehrkosten für Kühlung, GPU und PCB-Design die HBM+Interposer-Mehrkosten nicht übertreffen. Irgendwann wird das aber passieren. Vielleicht geht GDDR7 bis 32Gbit/s, dann kommt vielleicht noch eine nächste Generation ohne HBM. Irgendwie glaube ich aber nicht daran, zumindest scheint GDDR7 noch sehr weit weg zu sein. Spätestens mit den Chiplet-Architekturen ist ein Interposer wohl auch dabei, dann ist HBM nicht mehr weit weg. Und wann sollen die kommen? Laut Gerüchten mit Hopper und RDNA3 ;)

Rampage 2
2020-08-14, 20:42:37
Mythos;12392019']Und auf welchen Fakten/Leaks ruht deine Meinung? Bisher siehts nämlich ganz und gar nicht danach aus.


Bis vor ein paar Wochen, gab es immer wieder Meldungen (und vielleicht auch Leaks), dass bei Ampere und Navi2X die Taktraten deutlich steigen werden - und zwar nicht nur der Speichertakt, sondern auch der Chiptakt (Letzteres gilt insbesondere für Navi2X - die PS5 und Renoir sind aktuelle Indizien dafür). Bei Ampere ist es offensichtlich, warum: sofern Nvidia es nicht geschafft hat, bei Ampere die IPC um gleichmal 25% steigern (woran ich stark zweifle:freak:), dann muss bei nur 16,7% mehr Recheneinheiten eben der Chiptakt hinhalten (also steigen) - ist doch simple Mathematik:

TU102: 4608 x 2 x 2000 MHz = 18.432 TFlops

GA102: 5376 x 2 x 2200 MHz = 23.6544 TFlops

Jetzt addiere noch 15-20% gesteigerte IPC hinzu = 27.2 - 28.4 TFlops "effektiv" (ich weiß, ist ein blödes Wort;))

28.385.280.000.000 / 18.432.000.000.000 = 1.54 (oder 1,475 bei +15% IPC)

So kommt man auf 47.5 - 54% Mehrleistung bei GA102 ggü. TU102.

Der gesteigerte Chiptakt würde auch (zusammen mit dem stark gesteigerten Speichertakt) den angeblich sehr hohen Stromverbrauch der Ampere-GPUs erklären;)

R2

davidzo
2020-08-14, 20:57:57
Das mit PAM4 habe ich auch gesehen. Das wird wohl der Grund sein, warum Nvidia so Handstände mit dem PCB-Design machen muss. Hier bei den Augendiagrammen sieht man das sehr schön: Oben PAM2 (NRZ), unten PAM4. Es wird einfach deutlich enger, die Signale zu demodulieren. Übrigens: PAM4 kommt auch bei PCIe 6.0 ;) https://de.tek.com/-/media/sites/default/files/2017-12/nrz-vs-pam4.jpg?w=544


Ja, das wird heftig. Die PCBs dafür dürften richtig teuer sein. Da die Außenflächen praktisch komplett mit den Chips, Tantalcaps und Drosselspulen gepflastert sind, muss das gesamte Signaling im Inneren stattfinden. Das bedeutet jede Menge buried Vias. Unter die chips passen einfach keine normalen vias und würden auch in zu vielen layern blocken und in den massiven Groundplanes auf der Rückseite sehe ich auch keine tausenden freigestellten Vias. Sowas ist richtig kostspielig, da nach jedem aufgebrachten PCB layer ein erneuter Schritt mit Bohren, Vias einnieten, laminieren, belichten, ätzen und wieder von vorne erforderlich ist. Normalerweise wird nur einmal gebohrt und genietet, hier muss das bei jedem zweiten layer wieder gemacht werden.

rentex
2020-08-14, 22:38:24
Gab es so ein PCB Design überhaupt schon mal?

reaperrr
2020-08-15, 03:04:53
Achtung, fette Prise Salz da auf WTFTech gepostet, allerdings immerhin vom Seiteninhaber und laut ihm haben die Twitter-Leaker kopite7kimi und CatCorgi, deren Infos bisher ganz gut zutrafen, diese Gerüchte auch verlinkt (mögliches Indiz, dass sie ähnliche/die gleichen Infos bekommen haben).

Wie auch immer:
http://uploads.disquscdn.com/images/52628d4c5669bbc9019695e5079280c0b016fc01702c57ba9328a0e81e4de758.jpg

https://uploads.disquscdn.com/images/8a9346de22044ca5e150645caa91ddf0d5f4b8de2601d721d35cb641d2b224ee.jpg

Wäre natürlich heftig, wenn es stimmen sollte.

Linmoum
2020-08-15, 03:22:05
Ehrlich jetzt, warum fällt man auf so einen derartigen Fake rein? :freak: Das sowas noch von den üblichen Seiten verbreitet wird ok, da erwartet man ja nix mehr.

Weder AMD, noch NV verdoppeln die Anzahl der Shader, erhöhen den Takt, erhöhen die IPC, steigern die Bandbreite und kommen alleine mit diesen Faktoren (ohne architekturbedingte Verbesserung) nur auf eine Leistungssteigerung um 50%.

Achja:
1.5x Performance bei gleichzeitig >=1.47x Verbrauch. Das sind voll +50% Perf/Watt. ;D;D;D

Damit kann man den restlichen Quatsch zu Ampere auch getrost vergessen, wer schon mit soviel Unwissenheit glänzt.

kopite und CatCorgie haben sich diesbezüglich übrigens immer nur auf 2xFP32 bezogen und nichts anderes. Wie auch, ist ja offensichtlicher BS, wenn man zwei Sekunden hinguckt.

BlacKi
2020-08-15, 03:26:13
timespy soll mit ampere nicht optimal laufen.
https://pbs.twimg.com/media/EfWjWi_VAAEnHtc?format=jpg&name=large

=Floi=
2020-08-15, 04:20:05
Weder AMD, noch NV verdoppeln die Anzahl der Shader, erhöhen den Takt, erhöhen die IPC, steigern die Bandbreite und kommen alleine mit diesen Faktoren (ohne architekturbedingte Verbesserung) nur auf eine Leistungssteigerung um 50%.

Achja:
1.5x Performance bei gleichzeitig >=1.47x Verbrauch. Das sind voll +50% Perf/Watt. ;D;D;D

Turing ist oft TDP limitiert. Hier könnte ein shrink sehr viel bringen.

Leonidas
2020-08-15, 06:05:03
Es gibt laut Gerüchten sowohl HBM als auch GDDR6. Entweder ist das eine falsche Fährte von AMD, oder aber es ist die ganze Zeit eines von beiden. Siehe die diversen Code-Auszüge.


Aber nur eines von beiden wird entwickelt. Niemand baut zwei gleiche Chips mit unterschiedlichen Interfaces (Ausnahmen bestätigen die Regel). Allerdings könnten sich die Gerüchte auch auf gänzlich unterschiedliche Chips beziehen. Einzurechnen wäre, das AMD definitiv neue Chips mit HBM hat - Arcturus. Im Stille-Post-Verfahren ("neuer dicker AMD-Chip mit HBM") kann es durchaus verloren gehen, das es sich gar nicht um Navi dreht.




https://twitter.com/_rogame/status/1294312499156787202


Bitte beachten: Ein Re-Tweet von diesem Juli. Taktraten dürften zu dieser Zeit alles Vorserien-Status gewesen sein, eventuell rein zu Validierungs-Zwecken. Kann alles, muß aber gar nichts bedeuten.





http://uploads.disquscdn.com/images/52628d4c5669bbc9019695e5079280c0b016fc01702c57ba9328a0e81e4de758.jpg

https://uploads.disquscdn.com/images/8a9346de22044ca5e150645caa91ddf0d5f4b8de2601d721d35cb641d2b224ee.jpg



Ist eine gewagte Behauptung, AMD hätte für Ampere nur mit Turing +25% kalkuliert. Selbst zwischen Pascal und Turing waren es +36%.

HOT
2020-08-15, 07:27:27
Diese verdoppelte FP32-Nummer - kann es sein, dass Ampere das tatsächlich bietet - über die Tensor-Cores? Dann hat das wieder nur einer in den falschen Hals gekriegt.

Achtung, fette Prise Salz da auf WTFTech gepostet, allerdings immerhin vom Seiteninhaber und laut ihm haben die Twitter-Leaker kopite7kimi und CatCorgi, deren Infos bisher ganz gut zutrafen, diese Gerüchte auch verlinkt (mögliches Indiz, dass sie ähnliche/die gleichen Infos bekommen haben).

Wie auch immer:
http://uploads.disquscdn.com/images/52628d4c5669bbc9019695e5079280c0b016fc01702c57ba9328a0e81e4de758.jpg

https://uploads.disquscdn.com/images/8a9346de22044ca5e150645caa91ddf0d5f4b8de2601d721d35cb641d2b224ee.jpg

Wäre natürlich heftig, wenn es stimmen sollte.
Ein Haufen BS, diese Ergüsse.

AMD geht wieder mal nen anderen Weg. AMD wird 512Bit normalen GDDR6 bieten, um die Bandbreite zu erreichen, anstatt diesen PCB-Stunt zu machen, ein normales Package verwenden, was die Kosten drücken dürfte und voll auf die gute Taktskalierung von RDNA2 setzen. Ansonsten gibts halt keine Tensorleistung, RT in die TMUs integriert und relativ kleine Chips wahrscheinlich in N7P. Die Bandbreite dürfte etwas über NV rauskommen aufgrund des dicken Interfaces und die Chipleistung sehen wir dann. Eines ist aber klar: PS5-Takt sehen wir mindestens bei AMD.

rentex
2020-08-15, 07:54:10
Fragt sich nur, warum man solche Gerüchte in die Welt setzt, wo beiden Kontrahenten, Probleme mit ihren neuen GPUs attestiert werden?

ChaosTM
2020-08-15, 07:57:58
Viral Marketing ;)

rentex
2020-08-15, 08:22:28
Viral Marketing ;)

Klar, mit negativen Nachrichten:freak:

Die Themen Verbrauch, Preis und Effiziens bei beiden GPU Gens, sind jetzt schon mit schlechten Vorzeichen besetzt.

robbitop
2020-08-15, 08:23:42
Ausgehend von N10 kann man sich selbst ausrechnen wo N21 liegen wird. Doppelte Rohleistung. Also grob Faktor 2 zur 5700XT. Die 80CUs waren ja schon ziemlich sicher. Zu erwarten ist, dass RDNA2 sicherlich noch eine kleine Schippe auf RDNA1 drauflegen wird in Bezug auf IPC und ggf auf den maximalen Takt (real kann der aber tdp limitiert sein).

Es kann aber natürlich sein, dass Ampere pro SM einen größeren Sprung hinlegt als RDNA. Wir werden es sehen. Mit 80 CUs wird man aber höchstwahrscheinlich nicht nur in der 3070 Liga spielen.

rentex
2020-08-15, 08:45:48
Übrigens....17 Tage noch:rolleyes:

pixeljetstream
2020-08-15, 08:48:09
Wir werden es sehen.
Die einzige Konstante in diesem Thread all die Jahre ;)

Troyan
2020-08-15, 08:54:30
Klar, mit negativen Nachrichten:freak:

Die Themen Verbrauch, Preis und Effiziens bei beiden GPU Gens, sind jetzt schon mit schlechten Vorzeichen besetzt.

Nö, nur bei Ampere. Bei AMD phantasiert man ja von doppelter 5700XT Leistung bei maximal 300W. Bei nVidia ist doppelte RTX2080 Leistung bei 300W dagegen überhaupt nicht möglich. :freak:

rentex
2020-08-15, 08:54:38
Die einzige Konstante in diesem Thread all die Jahre ;)

:crazy:

Ich geh jetzt Fensterputzen...;D

fondness
2020-08-15, 10:41:30
Wenn NV wirklich beim Topmodell von 250W auf 350W TDP geht, sind ja das alleine schon 40% mehr Leistungsaufnahme. Dazu dürfte auch der Samsung 8nm Prozess deutliche Vorteile ggü. dem bisherigen TSMC 12nm Prozess bieten. Ergo selbst wenn man davon ausgeht, dass sich am Design nichts verbessert, sollten 60-70% Mehrperformance schon alleine wegen der deutlich höheren TDP und dem neuen Prozess allemal drinnen sein.

mironicus
2020-08-15, 10:45:44
Wenn NVidia den besseren Prozess gewählt hätte, also TSMC 7 nm, dann hätten wir wohl 60-70% mehr Performance bei 300 Watt, aber bestimmt nicht mit den vermeintlich schlechteren Samsung-Prozess.

robbitop
2020-08-15, 11:18:46
Es kann schon gut sein, dass der 8 nm Prozess (wenn er denn ein Fallback war) ihnen das eingebrockt hat. Höhere Leistungsaufnahme und nicht so tolle Taktraten. 8 nm klingt zwar sehr nah an 7 nm, ist aber im Prinzip eher ein 10 nm Prozess (so wie auch 12 nm nur ein getunter 16 nm Prozess war).

Digidi
2020-08-15, 11:32:11
Ich weiß nicht ob ein etwas größer Prozesse mit größerer Chipfläche nicht sogar besser ist. Der Riesen Chip von 630mm² lässt sich bestimmt besser Kühlen als AMDs 430mm²Chip

robbitop
2020-08-15, 11:44:43
Dichte ist das eine Thema aber Leistungsaufnahme bei normierter Performance und normierter Transistorzahl eine andere. Shrinks verbessern genau das.

Troyan
2020-08-15, 11:51:49
Es kann schon gut sein, dass der 8 nm Prozess (wenn er denn ein Fallback war) ihnen das eingebrockt hat. Höhere Leistungsaufnahme und nicht so tolle Taktraten. 8 nm klingt zwar sehr nah an 7 nm, ist aber im Prinzip eher ein 10 nm Prozess (so wie auch 12 nm nur ein getunter 16 nm Prozess war).

Samsung 10nm LPP ist Lichtjahre besser als TSMCs 16nmFF. Das haben Samsung und Qualcomm mit ihren SoCs gezeigt. Gegenüber 10nm LPP ist 8nm LPP nochmal ca. 10% dichter und 10% effizienter.

Des Weiteren ist TSMCs Standard 7nm Prozess nur minimal besser als der 8nm LPP Prozess: https://www.anandtech.com/show/14072/the-samsung-galaxy-s10plus-review/10

robbitop
2020-08-15, 11:55:54
Zwei intern verschiedene SoCs zu vergleichen, die auch unterschiedliche Fertigungsprozesse haben als Grundlage für den Vergleich des Fertigungsprozesses selbst? Kein sinnvoller Vergleich.

Dass 8 nm besser ist als 16 nm ist klar. Es ist ja auch ein Fullnodesprung + Tuning weiter.

Dichte ist weiterhin nicht alles. Normierte Performance und normierte Leistungsaufnahme sind schon wichtige Kriterien.

Weiterhin: was ist mit Standard 7nm Prozess gemeint? N7?
Aktuell steht immerhin mit N7P auch ein optimierter 7 nm Prozess zur Verfügung. Dieser sollte schon die Baseline sein.

BlacKi
2020-08-15, 12:18:39
Weiterhin: was ist mit Standard 7nm Prozess gemeint? N7?
Aktuell steht immerhin mit N7P auch ein optimierter 7 nm Prozess zur Verfügung. Dieser sollte schon die Baseline sein.
ich glaub das man damit nicht einen nvchip meint, sondern den navi21 chip in 7nm, wenn der nicht in n7p kommt, dann brauch ich nicht mit n7p vergleichen.

robbitop
2020-08-15, 12:19:45
War nicht schon N10 auf N7P?

BlacKi
2020-08-15, 12:26:25
wenn du es sagst... ich verwechsel das oft.

fondness
2020-08-15, 12:42:15
War nicht schon N10 auf N7P?

Natürlich, amd verwendet nur performance Prozesse.

Akkarin
2020-08-15, 12:42:51
Mit PAM4+sehr großen Chips+sehr hohem Stromverbrauch kann ich mir gut vorstellen dass nVidia big Navi im ultra-high end ziemlich nass macht. Aber das alles ist auch sehr teuer. Wenn big Navi im Bereich <=750€ eine bessere P/L und dabei noch gute Marge bietet muss sich AMD mMn keine Sorgen machen. Ob das so kommt steht natürlich noch vollkommen in der Luft, aber man sollte es nicht aus den Augen verlieren.

Troyan
2020-08-15, 12:46:51
Natürlich, amd verwendet nur performance Prozesse.

Navi ist Standard 7nm wie A100. Apple und Qualcomm sind die ersten, die N7P ende 2019/Anfang 2020 verwendet haben.

Zwei intern verschiedene SoCs zu vergleichen, die auch unterschiedliche Fertigungsprozesse haben als Grundlage für den Vergleich des Fertigungsprozesses selbst? Kein sinnvoller Vergleich.

Dass 8 nm besser ist als 16 nm ist klar. Es ist ja auch ein Fullnodesprung + Tuning weiter.

Dichte ist weiterhin nicht alles. Normierte Performance und normierte Leistungsaufnahme sind schon wichtige Kriterien.


Natürlich. Ansonsten frage ich mich ja, wie du hier den 8nm LPP Prozess auch nur einschätzen willst. Fakt ist, dass S855 ca. 20% effizienter wurde von Samsung 10nm LPP auf TSMCs 7nm Prozess. Fakt ist auch, dass der 8nm LPP Prozess nochmal besser ist als der 10nm LPP und somit der Abstand vorallem bei der Effizienz sich halbiert hat.

Der riesige Vorteil von TSMCs 7nm ist die >30% bessere Packdichte. Die ist aber irrelevant, da AMD nicht annährend an das Maximum ran kommt.

BlacKi
2020-08-15, 12:52:15
@troyan
Navi ist Standard 7nm wie A100. Apple und Qualcomm sind die ersten, die N7P ende 2019/Anfang 2020 verwendet haben.



Natürlich. Ansonsten frage ich mich ja, wie du hier den 8nm LPP Prozess auch nur einschätzen willst. Fakt ist, dass S855 ca. 20% effizienter wurde von Samsung 10nm LPP auf TSMCs 7nm Prozess. Fakt ist auch, dass der 8nm LPP Prozess nochmal besser ist als der 10nm LPP und somit der Abstand vorallem bei der Effizienz sich halbiert hat.

Der riesige Vorteil von TSMCs 7nm ist die >30% bessere Packdichte. Die ist aber irrelevant, da AMD nicht annährend an das Maximum ran kommt.

"Für die aktuellen Navi-GPUs verwendet AMD bei TSMC bereits N7P."
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/52493-amd-erlaeutert-7nm-7nm-und-was-sich-dahinter-verbergen-koennte.html

Linmoum
2020-08-15, 12:53:23
Navi ist Standard 7nm wie A100. Apple und Qualcomm sind die ersten, die N7P ende 2019/Anfang 2020 verwendet haben.Mal wieder komplett falsch.

At ISSCC AMD gave a short talk about the 5700 and some of its design points. The speaker was Sal Dasgupta, director at AMD also serving as the lead the power and performance team on the RX 5700 project.
[...]
One important key feature to point out is the underlying process technology which is TSMC’s 2nd-generation 7-nanometer node (N7P) which not only provides significant density improvement over AMD’s last node,https://fuse.wikichip.org/news/3331/radeon-rx-5700-navi-and-the-rdna-architecture/

y33H@
2020-08-15, 12:54:32
Navi 10/14 sind N7P DUV.

Troyan
2020-08-15, 12:54:55
Ah, danke. Dann ist das Ergebnis ja noch schlechter als gedacht und der Nachteil gegenüber Ampere noch größer.

Sunrise
2020-08-15, 12:54:55
Mit PAM4+sehr großen Chips+sehr hohem Stromverbrauch kann ich mir gut vorstellen dass nVidia big Navi im ultra-high end ziemlich nass macht. Aber das alles ist auch sehr teuer. Wenn big Navi im Bereich <=750€ eine bessere P/L und dabei noch gute Marge bietet muss sich AMD mMn keine Sorgen machen. Ob das so kommt steht natürlich noch vollkommen in der Luft, aber man sollte es nicht aus den Augen verlieren.
Das ist richtig, jedoch könnte NV die Kosten mit Samsungs 8LPP stark abgefedert haben, die GPU ist ja der größte Teil der BOM. Aufgrund des nichtmehr State-of-the-Art Prozesses, hat NV sicher eine gute Verhandlungsposition bei Samsung gehabt.

So wie es aussieht, wird Big Navi etwas kleiner werden und relativ zu N10 auch dichter, das SI wohl breiter mit GDDR6, auf einem “advanced 7nm process” von TSMC. Auch AMD wird aber wohl nicht (oder nur knapp) unter 280W bleiben können, bei min. verdoppelten CUs, deutlich mehr Speicher, und höherem Takt (laut AMD-Folien) bei 50% besserer Energieeffizienz. Denn die bezieht sich ja nur auf die GPU alleine.

Ich hoffe da geht jetzt nicht ein TDP-Rennen los, wenn NV in dieser Generation da so hoch einsteigt. Wir dürfen nicht vergessen, die TDP scheint vielen High-End-Käufern wohl egal zu sein, solange die Balken lang genug sind.

Navi 10/14 sind N7P EUV.
Entweder N7+ (EUV) oder N7P (DUV), AMD sprach von N7P.

y33H@
2020-08-15, 12:59:01
Typo, sorry.

unl34shed
2020-08-15, 13:06:41
Diese verdoppelte FP32-Nummer - kann es sein, dass Ampere das tatsächlich bietet - über die Tensor-Cores? Dann hat das wieder nur einer in den falschen Hals gekriegt.

Ich denke auch, das hat jemand falsch verstanden und hier wird die Tensor Leistung (TF32 nicht FP32) genannt, die mit GA100 eingeführt wurde.
Wenn man das in Gaming Ampere bringt stellt sich auch die Frage, warum das dann nicht auch bei GA100 gemacht wurde, denn hier ist die Verbesserung von FP32 vs V100 ja recht überschaubar.
Und wenn es es über Tensor Cores kommen sollte ist deren Funktionsumfang/ISA auch recht limitiert.

Dann stellt sich noch die Frage nach dem Platz auf dem Chip, die das kosten wird (Haben die Tensor Cores eigentlich eigene ALUs oder teilen sie sich diese mit den Shadern?).

Platos
2020-08-15, 13:13:27
Konsole: Wir geben euch im Dezember ganz tolle 12gb Ram (16 minus 4 für OS)
Nvidia: 24gb schon früher, bis zum Konsolen refresh, den kaum einer kauft 48 und bis zur PS6 nahe der 128. Dazu gibts dann noch System Ram x2 und SSDs werden auch nicht langsamer.
:-) ;-) :-D
"Ps5: Aber wir haben doch jetzt so eine dolle ssd die alles berechnet. OS, Spiele, Vr, die dolle SSD berechnet einfach alles" *facepalm*
Xbox: Schweigen
Ist ja nicht so, dass der Pc jetzt schon 10 Jahre SSDs im Massenmarkt hatte.

Ach, jetzt gibt es wieder einen "wir haben so viel (mehr)" Schwanzlängenvergleich... ;)

Anstatt sich zu freuen, dass es überall mehr Speicher gibt... Und vlt. noch hoffen, daas es auch bezahlbar wird ;)

Troyan
2020-08-15, 13:15:50
Die Frage wurde dir hier im Thread vor drei Monaten schon beantwortet. FP32 spielt keine Rolle im Zielmarkt für GA100. Des Weiteren ist GA100 ans Limit gebaut und irgendwo muss man dann Einschränkungen in Kauf nehmen. Aus dem Grund gibt es auch keine RT Cores.

Alex1973
2020-08-15, 13:25:27
Zitat von Pfuscher
Konsole: Wir geben euch im Dezember ganz tolle 12gb Ram.
Nvidia: 24gb schon früher, bis zum Konsolen refresh, den kaum einer kauft 48 und bis zur PS6 nahe der 128. Dazu gibts dann noch System Ram x2 und SSDs werden auch nicht langsamer.



Ja genau so ist das, zum Preis eines Gebrauchtwagens natürlich, fast. ;D

12,15 Terraflops GPU plus 12 GB VRAM in der Xbox Series X kann man, nach Abzug des ganzen Rests der Konsole, für 250 Euro mitnehmen, das ist ja das Ding. Ansonsten bin ich ganz auf deiner Seite, ein tolles Stück Hardware.